Текст
                    ВЕРОЯТНОСТЬ
И МАТЕМАТИЧЕСКАЯ
СТАТИСТИКА
энциклопедия
ЁЩ


НАУЧНОЕ ИЗДАТЕЛЬСТВО «БОЛЬШАЯ РОССИЙСКАЯ ЭНЦИКЛОПЕДИЯ» ИЗДАНИЕ ОСУЩЕСТВЛЕНО ПРИ ПОДДЕРЖКЕ '#и РОССИЙСКОГО ФОНДА ФУНДАМЕНТАЛЬНЫХ ИССЛЕДОВАНИЙ ПО ПРОЕКТУ № 98-01-14067 2000 ГОДУ ЛЕГ НАУЧНОМУ ИЗДАТЕЛЬСТВУ «БОЛЬШАЯ РОССИЙСКАЯ ЭНЦИКЛОПЕДИЯ» МОСКВА 1999
ВЕРОЯТНОСТЬ И МАТЕМАТИЧЕСКАЯ СТАТИСТИКА ЭНЦИКЛОПЕДИЯ Главный редактор Ю.В. ПРОХОРОВ Редакционная коллегия В. И. БИТЮЦКОВ (заместитель главного редактора), А. А. БОРОВКОВ, Б. В. ГНЕДЕНКО, И. А. ИБРАГИМОВ, А.Н. КОЛМОГОРОВ, B.C. ПУГАЧЕВ, Б.А. СЕВАСТЬЯНОВ, Я. Г. СИНАЙ, А. В. СКОРОХОД, В. А. СТАТУЛЯВИЧУС, А. Н. ШИРЯЕВ Научно-редакционный совет С А. АЙВАЗЯН, Р. В. АМБАРЦУМЯН, Ю. К. БЕЛЯЕВ, К. А. БОРОВКОВ, Н.Н. ВАХАНИЯ, В. Л. ГИРКО, И. И. ГИХМАН, Б. И. ГРИГЕЛИОНИС, Р. Л. ДОБРУШИН, И. Г. ЖУРБЕНКО, В.М. ЗОЛОТАРЕВ, И. Н. КОВАЛЕНКО, B.C. КОРОЛЮК, В.М. КРУГЛОВ, Й.П. КУБИЛЮС, Н. Н. ЛЯШЕНКО, М. Б. МАЛЮТОВ, А. С МОНИН, М.С. НИКУЛИН, А.А. НОВИКОВ, A.M. ОБУХОВ, A. И. ОРЛОВ, М.С. ПИНСКЕР, Н. И. ПОРТЕНКО, B. В. ПРЕЛОВ, А. В. ПРОХОРОВ, В. В. САЗОНОВ, В. В. СЕНАТОВ, Р.З. ХАСЬМИНСКИЙ, Э. В. ХМАЛАДЗЕ, Г. С. ХОВАНСКИЙ, А. С. ХОЛЕВО, В. И. ХОХЛОВ, Ю. С. ХОХЛОВ, Н. Н. ЧЕНЦОВ, Д.М. ЧИБИСОВ, М. Г. ШУР, В. В. ЮРИНСКИЙ, А. А. ЮШКЕВИЧ, A.M. ЯГЛОМ, М. И. ЯДРЕНКО НАУЧНОЕ ИЗДАТЕЛЬСТВО «БОЛЬШАЯ РОССИЙСКАЯ ЭНЦИКЛОПЕДИЯ»
УДК 519.2 ББК 22.17 В 31 Председатель Научно-редакционного совета издательства «Большая Российская энциклопедия» лауреат Нобелевской премии A.M. ПРОХОРОВ Главный редактор, директор издательства А.П. ГОРКИН Первый заместитель директора издательства Н.С. АРТЕМОВ РЕДАКЦИЯ МАТЕМАТИКИ: Зав. редакцией В. И. БИТЮЦКОВ, ведущие научные редакторы М. И. ВОЙЦЕХОВСКИЙ, А. Б. ИВАНОВ, научные редакторы О. А. ИВАНОВА, С. А. РУКОВА, Л. Р. СЕМЕНОВА, Е. Г. СОБОЛЕВСКАЯ В ПОДГОТОВКЕ ИЗДАНИЯ ПРИНИМАЛИ УЧАСТИЕ: Редакция иллюстраций - гл. художник А. В. АКИМОВ Техническая редакция - зав. редакцией О. Д. ШАПОШНИКОВА Издательско-компыотерный отдел - зав. отделом И. Н. КОНОВАЛОВА Корректорская - зав. корректорской С. Ф. ЛИХАЧЕВА Производственный отдел - зав. отделом И. А. ВЕТРОВА Копировально-множительная лаборатория - зав. лабораторией В. И. КЛИМОВА Гл. экономист - А. И. СОЛОДОВНИКОВА Гл. бухгалтер - О. И. СМИРНОВА Федеральная программа книгоиздания России (Q Научное издательство ISBN 5-85270-265-Х Большая Российская энциклопедия, 1999.
АБЕЛЕВА ГРУППА (Abelian group), коммутативная группа,- группа, операция в к-рой обладает свойством коммутативности (перестановочности). Как носители распределений вероятностей такие А. г., как числовая прямая или я-мер- ное евклидово пространство (с обычной операцией сложения чисел или векторов), являются классич. объектом теории вероятностей. Необходимость рассматривать случайные величины в других А. г. возникает совершенно естественно (см. Вероятностей теория на алгебраических структурах, Вероятностная мера на группах). Нижеследующий простейший пример иллюстрирует нек-рые особенности теории вероятностей на А. г. Пример (сложение целочисленных случайных величин по mod 2) (ср. [4]). Задана А. г. G, к-рая состоит из двух элементов 0 и 1 с правилом сложения 0 + 0 = 0, 0+1 = 1+0=1, 1 + 1=0. Пусть Xv Х2, ..., Х„, ... - последовательность независимых случайных величин, принимающая значения 0 и 1, причем вероятности событий Хп = 0 и Хп - 1 равны соответственно qn 5„ = Х1+Х2 + ...+Х„, где сумма понимается в смысле указанной групповой операции (то есть Sn равно остатку от деления на 2 суммы величин Xt, Х2, ..., Х„ в обычном смысле). Тогда: а) если при каком-либо я0 величина Хп имеет «равномерное» распределение на G, то есть рп = qn = 1/2, то при п>п0 все Sn имеют «равномерное» распределение; б) если то Sn при и->°о имеет в пределе «равномерное» распределение; в) если условие а) не выполнено, то условие б) оказывается не только достаточным, но и необходимым для сходимости распределений сумм Sn к «равномерному» (единственному невырожденному инвариантному распределению на группе G). При изучении подобного рода предельных теорем на А. г. используется аналог обычного метода характеристич. функций (см. Фурье преобразование распределения вероятностей на группе). Лит.: [1) ГренандерУ., Вероятности на алгебраических структурах, пер. с англ., М., 1965; [2) Сазонов В. В., Тутуба- лин В. Н., «Теория вероятн. и ее иримен.», 1966, т. 11, в. 1, с. 3-55; [3] Хейер X., Вероятностные меры на локально компактных группах, пер. с англ., М., 1981; [4) DvoretzkyA., WolfowitzJ., «Duke Math. J>, 1951, v. 18, p. 501-07; [5] Parthasarathy K. R., Probability measures on metric spaces, L.- N. Y., 1967. Ю. В. Прохоров. АБЕЛЕВА ТИПА ТЕОРЕМЫ (Abel theorems) - см. Абеля АБЕЛЯ ИНТЕГРАЛЬНОЕ УРАВНЕНИЕ (Abel integral equation) - интегральное уравнение д*)=Г4^. *><>, (О JO Jx-s где fix) - заданная функция, a (p(s) - искомая функция. А. и. у. имеет единственное решение в предположении, что fix) непрерывно дифференцируема (условия на fix) могут быть значительно ослаблены). При этом, если /Ч0) = 0, то решение имеет вид ф(,)=ГГ(£Н£. (2) JO V5-2 Опуская в этом уравнении условие fiO) - 0, получают решение А. и. у. к L Vs «to Js^z J К решению А. и. у. сводится следующая вероятностная задача. Пусть X=(Xt, X2) - двумерный случайный вектор, плотность вероятности рх х ixvx2) к-рого зависит только от (то есть распределение вектора X обладает круговой симметрией), и дана плотность вероятности рх ixx) компоненты Xt; требуется восстановить распределение X (принципиальная возможность этого следует из Краме- ра-Волда теоремы, см. также Сферически симметричное распределение). Пусть R = + Х2 - длина вектора X и PrM - соответствующая плотность вероятности; тогда Pxvx2(*vx2> = i2nr)~]pRir). Распределение |Xt | совпадает с распределением произведения двух независимых случайных величин; из них первая распределена как R, а вторая как длина ех проекции на ось абсцисс двумерного случайного вектора e = ieve2) единичной длины, все направления к-рого равновероятны (см. [2], гл. 1, § 10). По формуле полной вероятности при хх > 0 = f'lp (VIA 1 Л. JO 2^R{ 2 )П J^2 Положив нетрудно видеть, что fix) и (p(s) связаны соотношением (1). Соответственно (р выражается через /"формулой (2). Поставленная выше задача сводится к решению А. и. у. не только в случае размерности 2, но и в случае любой четной размерности. А. и. у. было исторически первым интегральным уравнением. Оно появилось в 1823 у Н. Абеля (см. [1]) в связи со теоремы. АБЕЛЯ 5
следующей любопытной механич. задачей (задачей Абеля). Материальная точка движется из состояния покоя по гладкой кривой, лежащей в вертикальной плоскости с системой координат (и,х). Время ty необходимое для того чтобы эта точка, двигаясь с высоты х} достигла своего нижнего положения (0,0), есть заданная функция t(x). Требуется определить форму кривой. Для этой задачи в А. и. у. (1) f(x) = ^2g t(x), где а - ускорение силы тяжести, a cp(s) = , где со - угол sin со между направлениями касательных к кривой в точке с ординатой 5 и осью абсцисс. Уравнение кривой имеет вид и= \ Vф2(s)-1 ds. Сюда включается и случай fix) = const; ему в задаче Абеля соответствует случай t (х) = const, в к-ром искомая кривая является циклоидой (X. Гюйгенс, Ch. Huygens, 1673). Лит.: [1] Abel N. Н., Oeuvres completes, t. 1, Christiania, 1839, p. 27-30; [21 Феллер В., Введение в теорию вероятностей и ее приложения, пер. с англ., т. 2, М., 1984; [31 Привалов И. И., Интегральные уравнения, 2 изд., М.-Л., 1937; [41 Курант Р., Гильберт Д., Методы математической физики, пер. с нем., т. 1, 3 изд., М., 1951. Ю. В. Прохоров. АБЕЛЯ ТЕОРЕМЫ (Abel theorems), теоремы абелева типа,- совокупность утверждений, к-рые могут быть интерпретированы, как определение асимптотики преобразования Лапласа какой-либо функции по асимптотике самой этой функции. Пример 1. Исходя из равенства re-sxxa-\dx=ria)_ a>0 s>0 JO s« можно полагать, что если f(x) такова, что при #->°о f{x)~xa~\ то Jo ' 5« при slO. Если f(x) абсолютно интегрируема на любом конечном интервале, то это утверждение справедливо и представляет собой простейший пример теоремы абелева типа. Пример 2. Пусть числовой ряд У°° , а„ сходится и имеет сумму А. Для определенной при |z| < 1 функции имеем при zt 1 f(z)^A (частный случай теоремы Абеля о степенных рядах). Аналогия с примером 1 может быть проведена следующим образом. Пусть г - e~s для 0 < z < 1 и GCr) = Y ^ ап\ *-*П^ X П тогда f(z) = J~ e~sxdG(x) = s £ e~sxG(x)dx. Так как GCr)->/l при #-><*>, то естественно ожидать, что при 5->0 f(z)~sj~ e~sxAdx = A. Теоремы абелева типа применяются при доказательстве предельных теорем теории вероятностей, в теории случайных 6 АБЕЛЯ функций и т.д. Они существенно дополняются обратными к ним глауберовыми теоремами (см. [1], гл. 13). Лит.: [11 Феллер В., Введение в теорию вероятностей и ее приложения, пер. с англ., т. 2, М., 1984. Ю. В. Прохоров. АБСОЛЮТНАЯ НЕПРЕРЫВНОСТЬ МЕР (absolute continuity of measures) - одно из важнейших понятий общей теории меры. Пусть Е - основное базисное пространство, S - нек-рое а-кольцо подмножеств в Е, a |i и X - две произвольные знакопеременные меры (то есть заряды), определенные на 5. Говорят, что мера \1 абсолютно непрерывна относительно А,, если для всякого множества XeS соотношение \Х\ (Х) = 0 (где \Х\ - полная вариация знакопеременной меры X) влечет за собой соотношение иХХ) = 0. Наиболее часто понятие абсолютной непрерывности рассматривается для обычных мер, а также в тех ситуациях, когда |i - знакопеременная мера, а X - обычная мера. Для выражения того факта, что заряд |Х абсолютно непрерывен относительно заряда X, иногда используется обозначение |i« X. Следующие соотношения эквивалентны друг другу: 1) ц«А/, 2) \i+ « X и и~ « X, где (X и р~ - верхняя и нижняя вариации заряда |i; з) 1ц1«Ы. Пусть имеет место соотношение \i« X, причем знакопеременная мера (х является конечной. Тогда, каково бы ни было число е > 0, всегда найдется такое число 8 > 0, что для любого множества XeS с |А,|(Х)<8 выполняется неравенство \\i\ (X)<£. Указанное свойство в определенной степени объясняет происхождение термина «абсолютная непрерывность знакопеременных мер». В классе М(Е, S) всех зарядов, заданных на а-кольце 5, отношение |i« X представляет собой нек-рое отношение предпорядка (то есть оно рефлексивно и транзитивно). Два заряда и, и X называются эквивалентными, если |i« X и Х« [I. Эквивалентность зарядов |i и X иногда обозначают символом \i = X. Отношение [i = X в самом деле представляет собой нек-рое отношение эквивалентности в классе М (Е, S) и, следовательно, оно дает разбиение класса М(Е, S) на непустые непересекающиеся подклассы. Эти подклассы часто называют спектральными типами знакопеременных мер. Отношение предпорядка [i«X в классе М (Е, S) естественным образом порождает отношение порядка в множестве всех спектральных типов. Каково бы ни было счетное семейство (|Х,),е/, состоящее из знакопеременных а-конечных мер, определенных на а-алгебре 5, обязательно существует обычная а-конечная мера X, определенная на той же а-алгебре S и обладающая тем свойством, что все u,j, ге/, являются абсолютно непрерывными относительно X. Для несчетных семейств (|Х,);е/, состоящих из знакопеременных а-конечных мер, аналогичное утверждение, вообще говоря, уже не будет верным. Пусть (|1|),-е/ - произвольное семейство зарядов, заданных на а-кольце 5, и X - нек-рый заряд, заданный на том же а-кольце. Семейство (ц,-),-е/ называется равномерно абсолютно непрерывным относ и те л ьн о X, если, каково бы ни было число е > 0, всегда найдется такое число 6 > 0, что для любого множества X е S с и для любого индекса iel выполняется неравенство |^| (Х)<е. С понятием равномерной абсолютной непрерывности семейства зарядов тесно связана теорема Витали-Хана-Сакса (см. [2], [3]), из к-рой, в частности, вытекает, что если (|1я)иедг ~ такая последовательность конечных зарядов на а-алгебре S, что для каждого множества XeS существует предел lim ця(Х) = ц(Х),
то функция множеств и. является счетно-аддитивной на S (другими словами, |1 тоже является зарядом на S). Одним из наиболее важных фактов, группирующихся вокруг понятия абсолютной непрерывности знакопеременных мер, служит Радона--Никодима теорема, к-рая допускает различного рода обобщения и усиления (см. [3]). Понятие Л. н. м. \л « X имеет содержательный смысл и в том случае, когда X есть обычная мера на данной а-алгебре S, a |i есть векторная (векторнозначная) мера, определенная на этой же а-алгебре S и принимающая свои значения в нек-ром топологии, векторном пространстве. Лит.: [\] Халмош П., Теория меры, пер. с англ., М., 1953; [2] Неве Ж., Математические основы теории вероятностей, пер. с франц., М., 1969; [3] ДанфордН., Шварц Дж., Линейные операторы. Общая теория, пер. с англ., ч. 1, М., 1962. А. Б. Харазишвили. АБСОЛЮТНАЯ ЧАСТОТА (absolute frequency) - см. Гистограмма. АБСОЛЮТНАЯ ШКАЛА (absolute scale) - см. Измерений теория. АБСОЛЮТНО НЕПРЕРЫВНОЕ РАСПРЕДЕЛЕНИЕ (absolutely continuous distribution) - распределение вероятностей, имеющее плотность распределения. Пусть Р(Л) - распределение вероятностей в II?" (вероятностная мера на а-алгебре борелевских подмножеств IR"). Распределение Р(Л) называется абсолютно непрерывным (относительно меры Лебега), если для любого борелевского множества Е с нулевой мерой Лебега имеет место равенство Р(£) = 0. Абсолютная непрерывность распределения Р(Л) равносильна существованию неотрицательной интегрируемой функции f(x^,...,xn) такой, что P(A) = j ... fAf(xx,...tx„)dxi...dxn для любого борелевского множества А. Функция f(x^,...,xn) называется плотностью вероятности распределения Р{А). Класс А. н. р. содержит многие важные для теории вероятностей и приложений распределения - нормальное распределение, распределение Коши, равномерное распределение и г. д. Иногда рассматривают более общее понятие абсолютной непрерывности: пусть (Q, ./) - измеримое пространство, Р и v - соответственно распределение вероятностей и а-конечная мера на Ш, .*/). Распределение Р называется абсолютно непрерывным относительно меры V, если из равенства vC4) = 0 следует равенство Р(Л) = 0. А. н. р. имеет плотность вероятности f относительно меры v (Радона-Никодима теорема): P(A)=jAfdv. С понятием абсолютной непрерывности тесно связано понятие доминируемое™ семейства распределений: семейство вероятностных распределений J* на измеримом пространстве Ш, .«/) называется д о м и н и р о в а н н ы м, если на (Q, .*/) существует а-конечная мера v такая, что каждое распределение из ;/абсолютно непрерывно относительно v. Предположение о доминируемости является существенным в нек-рых теоремах математич. статистики. См. также Абсолютная непрерывность мер. Лит.: [ 11 Прохоров Ю.В., Р о з а ч о в Ю. А., Теория вероятностей, 3 изд., М., 1987; [2] Феллср В., Введение в теорию вероятностей и ее приложения, иер. с англ., т. 2, М., 1984. И. Г. Ушаков. АБСОЛЮТНО СЛУЧАЙНАЯ ПОСЛЕДОВАТЕЛЬНОСТЬ (absolutely random sequence) - см. Дискретный белый шум. АБСОЛЮТНОЕ РАСПРЕДЕЛЕНИЕ цепи Маркова или марковского процесса X (absolute distribution of a Markov chain or process) - безусловное распределение \i(t) случайного состояния X(t) при фиксированном t из области Т изменения временного параметра: иХШ = Р{Х(ОеГ}, ГеЗЗ, где (Е, ЗГ) - фазовое пространство процесса X. Для существования А. р. при t^tQ необходимо задать начальное распределение [i(t0); тогда \i(t,r)=jE\i(t0,dx)p(t0,x; t,T), (*) где p(s,x; t,T) - переходная функция цепи или процесса X. В однородном случае р (s,х; s + t,T)=p(t,x,T) (здесь полагают tQ = Q) формула (*) обращается в \i(tX)=jEli(0,dx)p(t,x,r), t^O, ГеВ. А. р., не зависящее от t, называется стационарным распределением. А. А. Юшкевич. АБСОЛЮТНЫЙ МОМЕНТ (absolute moment) - числовая характеристика случайной величины, равная моменту ее модуля. Точнее, абсо л ютн ым моментом порядка/г>0 случайной величины X называется величина V* = E|X|*. Если v^ существует при нек-ром k = k0>0, то v^ существует при всех 0 < k < k0 и обладает на отрезке следующими свойствами: функция In v^ выпукла, а функция v^ монотонно не убывает. А. м. является важной характеристикой случайной величины и часто фигурирует в различных оценках и неравенствах (см., напр., Чебышева неравенство, Берри-Эссеена неравенство). В.Г.Ушаков. АБСОЛЮТНЫЙ ПСЕВДОМОМЕНТ (absolute pseudomo- ment) - см. Псевдомомент. АБСТРАКТНАЯ ЭРГОДИЧЕСКАЯ ТЕОРЕМА (abstract ergodic theorem) - см. Эргодические теоремы. АВТОИНФОРМАТИВНОСТИ МЕРА (autoinformation measure) - см. Многомерный статистический анализ. АВТОКОВАРИАЦИИ ЧАСТНОЙ ФУНКЦИЯ (partial autocovariance function) - то же, что автокорреляции част ной функция. АВТОКОВАРИАЦИОННАЯ ФУНКЦИЯ (autocovariance function) - см. Корреляционная функция. АВТОКОВАРИАЦИЯ случайного процесса (autocovariance of random process) Xt - ковариация Xt и Xt+fr Если EX обозначает математич. ожидание случайной величины X, то А. равна E(Xt-EXt)(Xt+h-EXf+h). Термин «А.» употребляют обычно применительно к стационарным случайным процессам (в широком смысле). Для них А. зависит только от h и лишь множителем, равным дисперсии Xt> отличается от автокорреляции. Наряду с А. употребляют термин «ковариационная функция». А. В. Прохоров. АВТОКОРРЕЛОГРАММА случайного процесса (autocorrelogram of random process) - то же, что коррело- грамма. АВТОКОРРЕЛЯЦИИ ЧАСТНОЙ ФУНКЦИЯ (partial autocorrelation function), автоковариации частной функция, корреляции частной функция, кова- риации частной функция,- величина, определяемая для случайного процесса X (t) с дискретным временем £ = 0, ±1, ... следующим образом: v(t,k) = DX(t), k = 0, Pt,t-v * = *• Ptt-k. t-k+\,...,t-\ k = 2„ АВТОКОРРЕЛЯЦИИ 7
где Pi,/ = _ соу[Л*Щ/)] jDXG)DX(j) - корреляции коэффициент между величинами X (i) и Х(/), Pt,t-k,t-k+\t-\ ~ частный коэффициент корреляции между величинами X (t) и X (t - k) при фиксированных значениях X(t-k-\)} ..., X(t-\). Пусть вектор случайных величин X(t-k)} X(t-k+ \), ..., X(t), k>\} имеет функцию (k+ 1)-мерного совместного распределения Е (xQ, xv...,xk), P - корреляционная матрица этого вектора: Р = 1 Pt-k+\,t-k Pt-k,t-k+\" Pt-k,t 1 'Pt-k+U Pt,t-k pt,t-k+\ и Pjj - алгебраич. дополнение элемента pt;-, i, j = t-k}...}t. Тогда коэффициент частной корреляции величин X(t-k) и Х(0 при фиксированных значениях X(t- k + 1), ..., X(t- 1) определяется формулой Рм-М-*+1,...,*-1 -Р, *-*,* lp*-*,*-*pa/ V2 В частности, если F(#0, ..., xk) - функция (k+ 1)-мерного нормального распределения, то Pt-\,t-k,t,t-k+\, совпадает с коэффициентом корреляции маргинального двумерного нормального распределения пары X(t) и X(t-k) при фиксированных значениях X(t-k+ \)} ...} X(t- \). А. ч. ф. используют при статистич. анализе моделей Бокса-Дженкинса. Если X(t) - стационарный случайный процесс авторегрессии порядка р} то для него v (t, k)*Q при k = О, 1, ..., р и v(t} k) = 0 при k^p+\. Это свойство позволяет идентифицировать порядок авторегрессии р в процессе построения модели Бокса-Дженкинса по реализации случайного процесса X(t). Лит.: [ 1 ] Бокс Дж., Дженкинс Г., Анализ временных рядов. Прогноз и управление, пер. с англ., в. 1, М., 1974; [2] Кен- далл М. Дж., СтьюартА., Статистические выводы и связи, пер. с англ., М., 1973; [3] их же, Многомерный статистический анализ и временные ряды, пер. с англ., М., 1976. Ю. Г. Баласанов. АВТОКОРРЕЛЯЦИОННАЯ ФУНКЦИЯ (autocorrelation function) - см. Корреляционная функция. АВТОКОРРЕЛЯЦИЯ случайного процесса (autocorrelation of random process) X(t) - корреляция значений X(t) и X(t + h). Термин «А.» употребляют (наряду с термином «корреляционная функция») в основном при изучении стационарных случайных процессов у для к-рых А. зависит лишь от h (но не от t). А. В. Прохоров. АВТОМАТ ВЕРОЯТНОСТНЫЙ (probabilistic automaton) - см. Вероятностный автомат. АВТОМАТ СЛУЧАЙНЫЙ (stochastic automaton) - см. Вероятностный автомат. АВТОМАТИЧЕСКАЯ КЛАССИФИКАЦИЯ (automatical classification)- построение последовательности .вложенных разбиений (множеств кластеров или пересекающихся классов) С0, Cv ..., Ст совокупности из п объектов, в к-рой число классов монотонно убывает по мере роста индекса. Множество С0 содержит п кластеров, состоящих из одного объекта; каждый кластер из Cj представляет собой либо кластер, либо 8 АВТОКОРРЕЛЯЦИОННАЯ объединение кластеров из C;_t; множество Ст содержит один кластер из п элементов. Лит.: [1] ДюранБ., Оделл П., Кластерный анализ, пер. с англ., М., 1977; [2] Жамбю М., Иерархический кластер-анализ и соответствия, пер. с франц., М., 1988. К. Ю. Репин. АВТОМОДЕЛЬНОЕ РАСПРЕДЕЛЕНИЕ СОСТОЯНИЙ (self-similar probability distribution) - см. Ренормализацион- ная группа. АВТОМОДЕЛЬНОСТИ УРАВНЕНИЯ (self similarity equa tions) - см. Ренормализационная группа. АВТОМОДЕЛЬНОСТЬ (self-similarity) - см. Колмогоров- ская автомодельность. АВТОМОДЕЛЬНЫЙ ПРЕДЕЛ РАСПРЕДЕЛЕНИЯ (sea ling limit of a probability distribution) - см. Ренормализационная группа. АВТОМОДЕЛЬНЫЙ ПРЕДЕЛ СЛУЧАЙНОГО ПОЛЯ (sea ling limit of a random field) - см. Ренормализационная группа. АВТОМОДЕЛЬНЫЙ ПРОЦЕСС (automodel/demistable/ scaling process), полуустойчивый процесс, скей- л инг-процесс,- случайный процесс Xt, t^O, для к-рого при любом k*Q найдется Ak такое, что совпадают все конечномерные распределения процесса Xkt = AkXt. С наглядной точки зрения это означает, что изменение верменной шкалы (£->&0 приводит к тому же результату, что и изменение фазовой шкалы (Xt -> AkXk). А. п. имеет стационарные приращения, Х0 = а. Если EXt <<*>, то EXt = a при любом ^0 и еслиЛ* = /гя, 0<Н<\, то E(X,-Xs)2 = a2U-s|2//. Структурная функция процесса зависит, таким образом, от параметра Н. При 0,5<Я^1 корреляционная функция приращения Xt-Xs неинтегрируема, а это означает, что А. п. с параметром Н имеет бесконечную память. Если Я = 0,5, то А. п.- процесс с независимыми приращениями, а если Н=\, то Xt = a + Xt, EX = 0, EX = a . Гауссовский А. п.-фрактальное броуновское движение, Ak = k . Лит.: [1) Колмогоров А. Н., в кн.: Избранные труды. Математика и механика, М., 1985, с. 274-77; [21 Mandel brodt В. В., Van Ness J. W., «SIAM Rev.», 1968, v. 10, X° 4, p. 422-37; [3] Taqqu M.S., «Z. Wahr. verv. Geb.», 1979, v. 50, p. 53-89. И. А. Кожевникова. АВТОМОРФИЗМ по модулю нуль (automorphism mod 0) - см. Автоморфизм пространства с мерой. АВТОМОРФИЗМ пространства с мерой (automorphism of a measure space) - взаимно однозначное отображение Т пространства с мерой (Q, .</, Р) на себя, измеримое вместе с обратным и сохраняющее меру Р, то есть такое, что Т~*АеЛ, ТАеЛи Р (Т~ХА) = Р (ТА) = Р (Л) для любого А е .4. Таким образом, А. пространства с мерой - это эндоморфизм пространства с мерой, обладающий обратным отображением, к-рое также является эндоморфизмом. Отображение, превращающееся в автоморфизм после удаления из пространства подходящего множества нулевой меры, называется автоморфизмом по модулю нуль (автоморфизмом mod 0). В тех вопросах эргодич. теории, к-рые касаются конечных или счетных семейств преобразований, различие между автоморфизмами и автоморфизмами mod 0 несущественно. Примером автоморфизма вероятностного пространства может служить сдвиг в пространстве реализаций двусторонней стационарной в узком смысле случайной последовательности хп, -оо < п < <*>. Б.М. Гуревич. /Г-АВТОМОРФИЗМ (/C-automorphism) - см. К-система. АВТОРЕГРЕССИИ МОДЕЛЬ (autoregression model) - модель скалярного комплекснозначного в общем случае случайного процесса {X(t), teT}} T= {0, ±1, ±2, ...}, удовлетворяющего уравнению XU) + a^X(t-\)+ ... +apX(t-p)=o2Z(t),
где #!,...,Др - действительные числа, 0<а2<°°, {Z(t),teT} - стандартная некоррелированная последовательность комплек- снозначных в общем случае случайных величин, то есть случайных величин таких, что EZ(O = 0, EZ(s)Z(t) = bst, s,teT, p - число, называемое порядком А. м. А. м. вместе со скользящего среднего моделью полностью исчерпывает класс моделей стационарных скалярных комп- лекснозначных процессов с дискретным временем и дробнора- циональными спектральными плотностями. А. м. является адекватной стохастич. моделью многих встречающихся на практике процессов. Лит.: [1] Справочник по теории вероятностей и математической статистике, 2 изд., М., 1985; [2] Бокс Дж., Дженкинс Г., Анализ временных рядов. Прогноз и управление, пер. с англ., в. 1, М., 1974; [3] КендаллМ., СтьюартА., Многомерный статистический анализ и временные ряды, пер. с англ., М., 1976. Ю. П. Юрачковский. АВТОРЕГРЕССИИ ПРОЦЕСС (autoregressive process) - случайный процесс {Х(0}, значения к-рого удовлетворяют при нек-рых постоянных «t, ..., ар уравнению авторегрессии X(t) = a^X(t-\) + ... + apX(t-p) + Y(t), (*) где р - нек-рое положительное число, а величины У (О обычно предполагаются некоррелированными и одинаково распределенными со средним 0 и дисперсией а . Если все нули функции <p(z) = z р - axz Р~* - ... - ар комплексного аргумента z лежат внутри единичного круга, уравнение (*) имеет решение где bv связаны с а соотношением <p-'(2)=V(2)=x:=0vv- Пусть, напр., {У(0} является процессом белого шума со спектральной плотностью а /2л; тогда единственным А. п., удовлетворяющим уравнению (*), будет стационарный в широком смысле процесс {X (t)} со спектральной плотностью f(\) = (G2/2n) |<р(е* )|~2, если у(ег ) не имеет действительных нулей. Автоковариации процесса rk=EX(t)X(t-k) удовлетворяют рекуррентному соотношению гЛ = в1г^_1 + ... +<VV„, k>0, ив терминах bv имеют вид Параметры ak авторегрессии связаны с коэффициентами автокорреляции процесса Pk = rk/ro матричным соотношением А = R~ppp, щеА = (аи ..., ар)} p^=(pt, ..., рр) и Rp - матрица коэффициентов автокорреляции (Юла-Уокера уравнения). См. также Линейный фильтр. Лит.:[\] Grenander V., Rosen b 1 at t M., Statistical analysis of stationary time series, Stockh., 1956; [2) Хеннан Э., Анализ временных рядов, пер. с англ., М., 1964. А. В. Прохоров. АВТОРЕГРЕССИИ ПРОЦЕСС дробного порядка (fractional autoregressive process) - см. Херста явление. АВТОРЕГРЕССИИ - ПРОИНТЕГРИРОВАННОГО СКОЛЬЗЯЩЕГО СРЕДНЕГО ПРОЦЕСС (autoregressive-integrated moving average process), АРПСС-процесс (ARIMA process), Бокса-Дженкинса процесс,- нестационарный случайный процесс X(t) с дискретным временем t = О, ± 1, ..., такой, что его приращения нек-рого конечного порядка d представляют собой стационарный смешанный авторегрессии - скользящего среднего процесс (так что сам А.- п. с. с. п. является процессом со стационарными приращениями d-ro порядка). А.- п. с. с. п. X(t) удовлетворяет соотношениям Y(t)-axY(t-\)- ... -apY(t-p) = = Z(t)-bxZ(t-\)- ... -bqZU-q), С) wY(t)=VdX(t)=X(t)-C(jX(t-\) + CJX(t-2)-...+ (-\)dx x.X(t-d), Z(t), t = 0, ±1, ...,- последовательность некоррелированных случайных величин с нулевым средним значением и заданной дисперсией (то есть белый шум с дискретным временем), р, q и d - фиксированные неотрицательные целые числа, а ах> ..., apf bv ..., bq - числовые коэффициенты такие, что уравнение (*) имеет стационарное решение. Целые числа р, q и d определяют порядок (или тип) рассматриваемого процесса X(t), и они обычно прежде всего определяются по имеющимся данным наблюдений (см. Параметрическая модель; выбор порядка); только после этого те же данные используют для оценки значения коэффициентов av ..., ару fct, .... v Класс А.- п. с. с. п. был введен в рассмотрение и подробно изучен Дж. Боксом (G. Box) и Г. Дженкинсом (G. Jenkins), показавшими, что процессы этого класса часто достаточно хорошо описывают самые разнообразные беспорядочно флуктуирующие ряды наблюдений и очень удобны для решения широкого круга статистич. задач, относящихся к таким рядам (см. [1]). Лит.: [1] Бокс Дж., Дженкинс Г., Анализ временных рядов. Прогноз и управление, пер. с англ., в. 1-2, М., 1974. А. М. Яглом. АВТОРЕГРЕССИОННАЯ СПЕКТРАЛЬНАЯ ОЦЕНКА (autoregressive spectral estimator) - см. Максимальная энтропия; спектральная оценка. АВТОРЕГРЕССИЯ (autoregression) - регрессионная зависимость значений Хп нек-рой случайной последовательности {Хп} я = 0, ±1, ...} от предшествующих значений X„_t, X„_2, ..., X„_w. Схема линейной A. w-ro порядка определяется уравнением линейной регрессии Хп по Xn_k} k=\} ..., w, то есть *я-РА-1+ ••• +РА_т + е„, С) где pj, ..., pw - постоянные, случайные величины гп одинаково распределены с нулевым средним, дисперсией о2 и некоррели- рованы (иногда независимы). Схема А. служит полезной стохастич. моделью для описания нек-рых временных рядов. Схема А. (*) может быть рассмотрена как случайный процесс особого типа - авторегрессии процесс. А.В. Прохоров. АДАМАРА МАТРИЦА (Hadamard matrix) в планировании эксперимента- квадратная матрица HN порядка N>\, состоящая из +1 и -1, и такая, что HNHN = NEN> где EN - единичная матрица. А. м. названы по имени Ж. Ада- мара, изучавшего экстремальные свойства определителя таких матриц (см. [1]), хотя соответствующие построения для случая N = 2 были выполнены еще Дж. Сильвестром (см. [2]). А. м. называется нормализованной, если ее первая строка и первый столбец состоят только из +1. Необходимое условие существования А. м.: N = 0 (mod 4) или N = 2. Достаточность этого условия пока не доказана и не опровергнута. В планировании эксперимента к задаче построения А. м. приходят при оценивании p(p^N) неизвестных параметров моделей двух типов. Модель I имеет вид полинома первого порядка, модель II отличается от модели I отсутствием свободного члена. Использование в качестве матрицы плана любых р - 1 из N - 1 последних столбцов нормализованной А. м. для модели I и любых р столбцов А. м. для модели II приводит к так наз. ортогональному планированию (то есть к планированию с диагональной информационной матрицей). А. м. используют также при построении неполно- блочных планов и других схем планирования. Лит.: [1] Hadamard J., «Bull. sci. math.», ser. 2, 1893, t. 17, p. 240-46; [2] Sy 1 vester J. J., «Phil. Mag>, 1867, v. 34, p. 461-72; [3] Новые идеи в планировании эксперимента, М., 1969; [4] Hedayat A., WallisW.D., «Ann. Statist.», 1978, v. 6, p. 1184-238. В. З. Бродский. АВТОРЕГРЕССИЯ 9
АДАПТАЦИИ АЛГОРИТМ (adaptation algorithm) - способ построения статистических оценок, основанный на совмещении оптимальных методов обработки наблюдений с одновременным восстановлением недостающей или неопределенной информации. А. а. применяется в тех случаях, когда оптимальные значения параметров алгоритма зависят от характеристик (функционалов) неизвестного распределения наблюдений. Параметры алгоритма выбираются на основе оценок этих характеристик. А. а. являются, как правило, эффективными в асимптотич. смысле (предельно оптимальными). Лит.: [1] Фомин В. Н., Рекуррентное оценивание и адаптивная фильтрация, М., 1984; [2) Bickel P.J., «Ann. Statist.», 1982, v. 10, N° 3, p. 647-71. А. П. Коростелев. АДАПТИВНАЯ ОЦЕНКА (adaptive estimator) - статистическая оценка, предназначенная для нахождения неизвестного параметра в схеме наблюдений с конечномерным или бесконечномерным мешающим параметром и обладающая асимптотически теми же свойствами, что и наилучшая в том или ином вероятностном смысле оценка при известном значении мешающего параметра. Используются и другие интерпретации понятия А. о. (см.[1]). Лит.: [11 Bickel P.J., «Ann. Statist.», 1982, v. 10, № 3, p. 647-71. М.Б. Невельсон. АДАПТИВНАЯ ПРОЦЕДУРА (adaptive procedure) - см Стохастическая аппроксимация. АДАПТИВНЫЙ УПРАВЛЯЕМЫЙ СЛУЧАЙНЫЙ ПРОЦЕСС с дискретным временем (adaptive controlled random process in discrete time) - см. Управляемый случайный процесс с дискретным временем. F- АДАПТИРОВАННАЯ ФУНКЦИЯ (F-adapted function) - см. Неупреждающая функция. АДАПТИРОВАННЫЙ СЛУЧАЙНЫЙ ПРОЦЕСС (adapted random process) - см. Согласованный случайный процесс. а-АДДИТИВНАЯ МЕРА (а-additive measure) - см. Вполне аддитивная функция множеств. АДДИТИВНАЯ МОДЕЛЬ (additive model) блочного плана - см. Блочный план. АДДИТИВНАЯ ФУНКЦИЯ (additive function) - см. Арифметическое моделирование случайных процессов, Вероятностная теория чисел. АДДИТИВНАЯ ФУНКЦИЯ МНОЖЕСТВ (additive set function) - функция, определенная на нек-ром классе множеств и обладающая свойством аддитивности (для двух слагаемых). Точнее, пусть заданы нек-рый класс множеств К и коммутативная группа G, групповая операция к-рой обозначена символом + (то есть G берется в аддитивной записи). Функция \i: K^>G называется аддитивной, если, каковы бы ни были множества ХеК и Ye К, для к-рых XUYe/C и ХПУ = 0, обязательно выполняется равенство ц(ХиУ)=цШ + ц(У). Если 0еК, то |i(0) = 0, где 0 - нулевой элемент группы G. На практике в качестве группы G часто фигурируют: действительная прямая II? , поле комплексных чисел С, евклидово я-мерное пространство IRW, различные коммутативные тополо- гич. группы, бесконечномерные векторные пространства и т. п. С другой стороны, весьма часто исходный класс К с самого начала предполагается аддитивным, то есть, каковы бы ни были множества ХеК и Ye К, справедливо соотношение XUY еК (это означает, что класс К представляет собой верхнюю полурешетку относительно операции U). Для аддитивных классов всякая А. ф. м. является одновременно и конечно-аддитивной функцией множеств. Другими словами, если 10 АДАПТИВНАЯ К - произвольный аддитивный класс, |1 - произвольная аддитивная функция на К, то ц(Х,и... иХш) = ц(Х,)+ ... +ц(Хт) для всякого конечного дизъюнктного семейства (Х^)^,.^ элементов из К. Если класс К представляет собой решетку относительно операций U и П, то условие аддитивности функции \i: K^>G часто задают в виде равенства U<XUY) + u<XnY) = u<X) + um, где X и У - любые элементы из класса К. В математич. анализе, евклидовой геометрии, теории вероятностей и теории меры особенно важную роль играют числовые аддитивные функции, определенные на различных алгебрах или кольцах множеств и обладающие нек-рыми дополнительными свойствами. Лит.: [11 Халмош П., Теория меры, пер. с англ., М., 1953. А. Б. Харазишвили. АДДИТИВНЫЕ ЗАДАЧИ теории чисел (additive problems of number theory) (с растущим числом слагаемых) - задачи о разбиении целых чисел на слагаемые заданного вида. Простейшая постановка такой задачи заключается в следующем. Пусть fix) - целозначная функция натурального аргумента, р - фиксированное или растущее натуральное число. Требуется отыскать асимптотич. формулу для числа представлений I (N, п) натурального N в виде N = f(x^) + f(x2) + ... +/■(*„), где O^JTj, х2, ..., хп^р-\ и п - растущий к бесконечности параметр. Эту задачу можно сформулировать и на языке теории вероятностей. Пусть Xt, X2, ..., Хп- последовательность I одинаково распределенных случайных величин с общим распределением P{Xi=f(k)} = \/p, k = 0, 1, ...,р-\, и пусть Q = EXV DXt=a >0. Рассматривается случайная величина Yn = Хх + Х2 + ... +Х„. Вероятность равенства Yn = N равна P{Yn = М = { e~2KiaN I1 Z£i e2niafU) J da- (*> Очевидно, P{Yn = N}=p-nI(N,n). Выделение главной части интеграла (*), то есть нахождение асимптотич. формулы для I (N, п), возможно в трех случаях: 1) п фиксировано, р растущее, 2) п растущее, р фиксировано, 3) п и р=р(п) одновременно растущие натуральные числа. Первый случай характерен для теории чисел и асимптотич. формула находится с помощью методов аналитич. теории чисел. Во втором случае локальная предельная теорема позволяет получить асимптотику для I (N, п). В третьем случае нахождение асимптотич. формулы для I(N, n) равносильно локальной предельной теореме для последовательностей серий независимых в каждой серии случайных величин. Здесь сложность заключается в получении равномерной оценки остаточного члена относительно исходных распределений, а это требует оценки тригонометрич. суммы I S(f,a) = ±Yp~\e2*iafM р *-*х=0 во всем интервале изменения а при р -> °°. Так как не существует общих теорем об оценках S(f, a), то выделяют классы ! задач, в пределах к-рых будут установлены равномерные локальные теоремы. Наиболее изучены случаи, когда fix) - I степенная функция или многочлен.
Л. з. с растущим числом слагаемых впервые рассмотрел Г. Кастельнуово (G. Castelnuovo, 1933), к-рый в случае fix) = х, применяя вероятностные соображения, получил главный член асимптотики для I(N, п). Систематич. исследование таких задач началось с работы А. Г. Постникова (1956, см. [1]). Он в случаях f(x)=x и f(x)-x строго доказал асимптотич. формулы для I (N, п) с равномерной оценкой остаточного члена. Существует много различных обобщений А. з.: переменные пробегают простые числа или все множество натуральных чисел, рассмотрены многомерные случаи (см. [3]) и т.д. А. з. теории чисел с растущим числом слагаемых находят применения в математич. статистике, в частности они существенным образом появляются при исследовании асимптотич. свойств ранговых статистик [4]. Лит.: |1] Постни ков А. Г., Введение в аналитическую теорию чисел, М., 1971; [2] Сиражди нов С. X., Аз л аров Т. А., Зу паров Т. М., Аддитивные задачи с растущим числом слагаемых, Таш., 1975; [3] Исраилов М. И., «Записки науч. семин. ЛОМИ. Исследования по теории чисел, 8», 1983, т. 121, с. 62-82; [4] Королю к B.C., Борове к и х Ю. В., Асимптотический анализ распределений статистик, К., 1984. М. И. Исраилов. АДДИТИВНЫЙ ФУНКЦИОНАЛ интегрального типа (additive functional of integral type) - семейство случайных величин aj = ft f(u,X(u))du, 0^t<s, где X - случайный процесс с независимыми приращениями, f: [О +oo)xlR ->IR - борелевская функция, для к-рой определен интеграл в правой части равенства. Лит.: [1] Скороход А. В., Случайные процессы с независимыми приращениями, 2 изд., М., 1986; 12] С короход А. В., Слободе- н юк Н. П., Предельные теоремы для случайных блужданий, К., 1970. В. И. Колчинский. АДДИТИВНЫЙ ФУНКЦИОНАЛ от винеровского процесса (additive functional of the Wiener process) - непрерывное по совокупности аргументов семейство случайных величин ast, Q^t<s, удовлетворяющее условиям аддитивности (ast = a" + (Xy, t<u<s) и согласованности с винеровским процессом w(t), t^O (ast измерима относительно а-алгебры Fst, порожденной значениями процесса w(u), ue\t, s ], t<s). Лит.: [1] Скороход А. В., Случайные процессы с независимыми приращениями, 2 изд., М., 1986; [2] С короход А. В., Слободе- н юк Н. П., Предельные теоремы для случайных блужданий, К., 1970. В. И. Колчинский. АДДИТИВНЫЙ ФУНКЦИОНАЛ от марковского процесса (additive functional of a Markov process) - см. Марковский процесс, аддитивный функционал. АКАИКЕ ИНФОРМАЦИОННЫЙ КРИТЕРИЙ (Akaike information criterion, AIC) - см. Наилучшего подмножества предикторов выбор. АКАИКЕ КРИТЕРИЙ (Akaike criterion) окончательной ошибки прогноза-см. Параметрическая модель; выбор порядка. АКСИОМАТИЧЕСКАЯ КВАНТОВАЯ ТЕОРИЯ ПОЛЯ (axiomatic quantum field theory) - раздел квантовой теории поля, в к-ром формулируются общие постулаты, абстрактно описывающие объект «квантовое поле», и выводятся многочисленные следствия из них. Наиболее употребительная система аксиом принадлежит Л. Гордингу и А. Уайтману (см. [2]). Напр., в простейшем случае скалярного нейтрального бозонного поля в пространстве Минковского М это поле задается семейством {<р(/*), feS(M )}, d^2, симметрич. операторов, действующих в нек-ром гильбертовом пространстве Н и помеченных гладкими, быстро убывающими функциями feS(M ) из пространства Шварца; при этом соответствие ^-><р(/*) линейно по /*, а операторы <р(/^) и ф(/^) коммутируют, если носители fx и f2 пространственноподобны относительно друг друга. Предполагается далее, что: а) в пространстве Н задано нек-рое унитарное представление g -> Ug группы Пуанкаре (группы движений Md) так, что для всех g nfeS(М ) Ugy(f)U~x = <p(tgf), (igf)(x)=f(g~ x), xgM ; б) совместный спектр порождающих операторов {Рц, |i=l, ..., d} подгруппы Uq, соответствующей трансляциям М , лежит в верхней полосе светового конуса в М : в) существует единственный (с точностью до множителя) вектор QeH, инвариантный относительно представления g -> U' и циклический относительно семейства {<р(/*), feS(Md)}. Имеются различные модификации этой системы аксиом, а также их переформулировки в терминах так наз. Уайтмана функций: wn(fu ..., fn) = (y(fi)...<p(fn)Q, Q)H (см. [1]). Наиболее глубокие следствия этой аксиоматики связаны с изучением аналитич. свойств функций Уайтмана и построением формальной теории рассеяния (см. [1], [2]). Лит.: [1] Йост Р., Общая теория квантованных полей, пер. с англ., М., 1967; [2] WightmanA., Garding L., «Ark. Phys.», 1964, v. 28, p. 129-84; [3] Боголюбов Н. Н. [и др.], Общие принципы квантовой теории поля, М., 1987. Р. А. Минлос. АКТИВНАЯ ПЕРЕМЕННАЯ (active variable) - см. Много мерных данных модель структуры. АКТИВНЫЙ ЭКСПЕРИМЕНТ (active experiment) - совокупность измерений, организованная в соответствии с принципами регрессионных экспериментов планирования. М. Б. Малютов. *-АЛГЕБРА (*-algebra) - см. Алгебра наблюдаемых. АЛГЕБРА КВАЗИЛОКАЛЬНЫХ НАБЛЮДАЕМЫХ (algebra of quasi-local observables) - см. Некоммутативная теория вероятностей. АЛГЕБРА МНОЖЕСТВ (algebra of sets) - непустая совокупность подмножеств нек-рого множества Q, замкнутая относительно теоретико-множественных операций (объединения, пересечения, образования дополнения), производимых в конечном числе. Для того чтобы нек-рый класс подмножеств множества Q. был А. м., достаточно (и необходимо), чтобы он был замкнут относительно образования объединений и дополнений. A.m., замкнутая относительно образования счетных объединений, называется о-алгеброй множеств. Всякая а-алгебра множеств замкнута относительно теоретико-множественных операций, производимых в счетном числе. Примеры. 1) Совокупность конечных подмножеств произвольного множества £1 и дополнений к ним есть A.m.; совокупность не более чем счетных подмножеств О. и дополнений к ним есть а-алгебра множеств. 2) Совокупность конечных объединений интервалов вида {.г eIRitf ^х<Ь}, -оо^д^б^+оо, образует А. м. 3) Q - тонологич. пространство; а-алгебра множеств di, порожденная открытыми подмножествами £1 (иными словами, наименьшая а-алгебра множеств, содержащая все открытые подмножества Ш, называется борелевской а-а л г е б р о й подмножеств £1, а множества, принадлежащие Зв, называются борелевскими множествами. 4) Q = B? , где Т- произвольное множество (то есть £1- множество всех действительных функций на Т)\ класс М множеств вида {coeQ: (со(^), ..., со(^)) е£}, где Е - борелев- ское подмножество II? , образует А. м. (так наз. алгебру цилиндрических множеств)', в теории случайных процессов вероятностная мера часто задается первоначально лишь для множеств из алгебры этого типа и затем доопределяется на более широком классе множеств (на а-алгебре, порожденной .</). 5) Совокупность измеримых по Лебегу подмножеств II? образует а-алгебру множеств. Алгебры (соответственно а-алгебры) АЛГЕБРА 11
являются естественной областью определения конечно-аддитивных (соответственно а-аддитивных) мер. По теореме о продолжении меры всякая а-конечная а-аддитивная мера, заданная на алгебре **/, может быть однозначно продолжена до а-адди- тивной меры, определенной на а-алгебре, порожденной л/. Лит.: [1] ДанфордН., ШварцДж., Линейные операторы. Общая теория, пер. с англ., М., 1962; [2] Халмош П., Теория меры, пер. с англ., М., 1953; [3] Неве Ж., Математические основы теории вероятностей, пер. с франц., М., 1969. В. В. Сазонов. G -АЛГЕБРА МНОЖЕСТВ (a-algebra of sets), а-а л г е б р а,- алгебра множеству обладающая тем свойством, что объединение любого (не более чем) счетного семейства элементов этой алгебры также является ее элементом. Из определения непосредственно вытекает, что пересечение любого счетного семейства элементов а-А. м. также служит ее элементом. Если (Х;);е/ - произвольная система частей основного базисного пространства X, то а-алгеброй, порожденной этой системой, называется наименьшая по включению а-А. м. в X, содержащая в качестве элементов все множества Xf, iel. Счетнопорожденной а-А. м. называется всякая а-А. м., порожденная какой-нибудь счетной системой частей основного базисного пространства X (такие а-А. м. иногда называются а-алгебрами счетного типа, или сепарабельны- м и а-а лгебрами). В приложениях наиболее часто встречаются именно а-А. м. счетного типа. Пусть основное базисное пространство X наделено нек-рой топологич. структурой; другими словами, X - топологич. пространство. Тогда борелевской а-а лгебройвХ называется а-А. м., порожденная семейством всех открытых частей этого пространства (или, что эквивалентно, порожденная семейством всех замкнутых подмножеств этого пространства). Если исходная топология в X удовлетворяет второй аксиоме счетности (то есть обладает счетной базой), то борелевская а-А. м. в X является счетнопорожденной. Борелевские а-А. м. (а также различные их подалгебры) играют важную роль во многих вопросах функционального анализа, общей топологии и теории вероятностей. В теории вероятностей основным примером а-А. м. служит а-А. м. событий данного вероятностного пространства. В клас- сич. теории функций действительного переменного фундаментальную роль играют а-А. м. всех измеримых по Лебегу подмножеств конечномерного евклидова пространства и а-А. м. всех тех подмножеств евклидова пространства, к-рые обладают свойством Бэра. С понятием а-А. м. тесно связано более общее понятие о-кольца множеств (см. Мфб). Лит.: [1] Прохоров Ю. В., Розанов Ю. А., Теория вероятностей. Основные понятия. Предельные теоремы. Случайные процессы, 3 изд., М., 1987; [2] Неве Ж., Математические основы теории вероятностей, пер. с франц., М., 1969; [3] Халмош П., Теория меры, пер. с англ., М., 1953; [4] ГихманИ. И., Скороход А. В., Введение в теорию случайных процессов, 2 изд., М., 1977. А. Б. Харазишвили. АЛГЕБРА НАБЛЮДАЕМЫХ (algebra of observables) - одно из базисных понятий некоммутативной теории вероятностей. Множество элементов X, У, ..., в к-ром определены операции сложения, умножения на комплексное число, произведения, удовлетворяющие аксиомам ассоциативной алгебры, и операция инволюции Х->Х*, удовлетворяющая аксиомам (Х*)* = Х, (X+Y)* = X*_+Y*, (XY)* = Y*X*, (XX)* = XX*, где Х- произвольное комплексное число, называется •-алгеброй. Напр., совокупность комплексных случайных вели- 12 АЛГЕБРА чин на данном вероятностном пространстве образует коммутативную *-алгебру. В некоммутативной теории вероятностей рассматриваются общие модели физич. систем, для к-рых совокупность наблюдаемых образует, вообще говоря, произвольную *-алгебру. Некоммутативность наблюдаемых X, У является отражением реального феномена дополнительности, имеющего место, напр., для квантовомеханич. систем (см. Неопределенностей соотношение). Следует иметь в виду, что (действительными) наблюдаемыми в собственном смысле слова являются лишь самосопряженные элементы •-алгебры, то есть такие элементы X, что Х* = Х. С математич. точки зрения удобно иметь дело с алгебрами ограниченных наблюдаемых, в к-рых можно ввести понятие нормы. Банахова "-алгебра tt, в к-рой |х*х| = ||х|| , называется С*-алгеброй. Самосопряженный элемент Xett называется положительным, Х^О, если X=Y*Y, где У ett. Полагая X^Z, если X-Z^O, во множестве самосопряженных элементов tt вводят структуру действительного, частично упорядоченного векторного пространства. Состоянием на С*-алгебре с единицей / называется положительный линейный функционал <р на tt, <p(X)^0, если Х^О, такой, что ф(/)=1. Множество всех состояний ® является выпуклым слабо *-компактным подмножеством сопряженного пространства tt*. Примеры. 1) Совокупность ограниченных комплексных случайных величин X (со) на данном измеримом пространстве Q с обычными алгебраич. операциями, комплексным сопряжением в качестве инволюции и равномерной нормой образует коммутативную С*-алгебру. Всякое распределение вероятностей Р(б/со) на Q порождает состояние по формуле <p(X) = Jn X(co)P(rfco). 2) Совокупность Lq (Q}\i) классов эквивалентности ограниченных комплексных случайных величин на пространстве с мерой (Q, \i) с нормой ||х|| =ess sup |x(co)| образует коммутативную С*-алгебру. Если /?(со) - интегрируемая случайная величина такая, что /? (со) ^ с (mod \i) и jQ /?(g))uWco), то соотношение ф(Х) = |п Х(со)р(со)ц<<Ы задает состояние на Lq (Q, \i). 3) Совокупность ЯЗ(Я) всех ограниченных операторов в комплексном гильбертовом пространстве Я с операторной нормой образует некоммутативную С*-алгебру. Соотношение ф(Х) = trSX, где S - оператор плотности, a tr - след оператора в Я, задает состояние на ЯЗ(Я). Любая абстрактная С*-алгебра изоморфна алгебре ограниченных операторов в нек-ром гильбертовом пространстве Я. При этом коммутативные С*-алгебры реализуются как алгебры операторов умножения на функции. Операторная С*-алгебра, замкнутая в слабой операторной топологии, называется Н^-алгеброй [примеры 2) и 3)]. Состояние фна W^-алгеб- реtt называется нормальным, если для любого ограниченного направленного множества эрмитовых элементов {Ха} cz tt выполняется sup ф(Ха) = ф(зир Ха). В примерах 2) и 3) а а дается общий вид нормальных состояний на соответствующих W* -алгебрах. Лит.: [1] ДиксмьеЖ., С*-алге6ры и их представления, пер. с франц., М., 1974; [2] БраттелиУ., Робинсон Д., Операторные алгебры и квантовая статистическая механика, пер. с англ., М., 1982. А. С. Холево. АЛГЕБРА СОБЫТИИ (algebra of events) - алгебра подмножеств Л нек-рого множества Q, элементы к-рого называются
элементарными событиями. Как и всякая алгебра множеств, А. с. замкнута относительно теоретико-множественных операций - объединения, пересечения, образования дополнения, производимых в конечном числе. А. с, замкнутая относительно образования счетных объединений, называется а-алгеброй событий. Всякая а-алгебра событий замкнута относительно теоретико-множественных операций, производимых в счетном числе. В теории вероятностей часто рассматриваются следующие А. с. и а-алгебры событий: 1) Алгебра конечных подмножеств множества Q и дополнений к ним; а-алгебра счетных подмножеств множества Q и дополнений к ним. 2) Алгебра подмножеств 1Р\ образованная конечными объединениями интервалов вида {x=(xv ..., xk) е И? : а{ ^ х{ < bif i = 1, ..., k, -°° ^ а{ < bi ^ ^+<*>}.'3) а-алгебра борелевских подмножеств топологич. пространства Q, то есть наименьшая а-алгебра, содержащая все открытые подмножества Q. 4) Алгебра цилиндров в пространстве функций (траекторий) и а-алгебра, ими порожденная. Алгебры и а-алгебры событий являются областью определения вероятности Р. Если Р(£) = 0, то £ называется невозможным событием, а если Р(£) = 1, то £ - достоверное событие. Всякая а-аддитивная вероятность на алгебре Л однозначно продолжается до а-аддитивной вероятности, определенной на а-алгебре, порожденной Л (то есть наименьшей а-алгебре, содержащей Л). Лит.: [1] КолмогоровА. Н., Основные понятия теории вероятностей, 2 изд., М., 1974; [2] Неве Ж., Математические основы теории вероятностей, пер. с франц., М., 1969. В. В. Сазонов. а-АЛГЕБРА СОБЫТИЙ (а-algebra of events) - см. Алгебра событий, Борелевское поле событий. АЛГЕБРА ЦИЛИНДРИЧЕСКИХ МНОЖЕСТВ (algebra of cylinders) - алгебра Л цилиндров с конечномерными измеримыми основаниями в произведении пространств О. - ГТ fy, где Г - произвольное множество и Clt - множество с выделенной в нем алгеброй подмножеств Av teT. Элементами алгебры Л являются так наз. цилиндры - множества вида {со={со„ teT}:TsG>eEeHteSAt}, (») где S - конечное подмножество в Г, Г5со = {со,, teS}- проекция элемента со на ТТ Qt и |7 At - произведение алгебр At, teS} то есть совокупность конечных объединений подмножеств FT Clt вида {{со,, t e S}: со, е Et e At, t e S}. Множество Е называется основанием цилиндра (*). Если At - а-алгебры, то множества (*) с фиксированным S тоже образуют а-алгебру, но само ^/, вообще говоря, алгеброй не является. См. также Цилиндрическая о-алгебра. Лит.: [ 1) Неве Ж., Математические основы теории вероятностей, пер. с франц., М., 1969; [2] Лоэв М., Теория вероятностей, пер. с англ., М., 1962. В. В. Сазонов. АЛГЕБРАИЧЕСКОЕ ДЕКОДИРОВАНИЕ (algebraic decoding) - декодирование, использующее алгебраическую структуру кода. Напр., для qr-ичного кода БЧХ длины n-qm- 1 и с конструктивным расстоянием 2t + 1, задаваемого системой линейных уравнений X":; с,а" = 0, /-1, 2, .... 2t, где а - примитивный элемент поля F» из qm элементов, его А. д. состоит в решении системы алгебраич. уравнений X!.. И*/-5;. 1-1.2 2t, относительно неизвестных у{, xi e Fqm. Соответствующий алгоритм Берлекэмпа имеет полиномиальную сложность (см. Сложность кодирования и декодирования) и позволяет правильно восстановить сообщение (кодовое слово), если произошло не более t ошибок. К настоящему времени для большинства классов кодов неизвестны А.д., минимизирующие ошибочного декодирования вероятность. Лит.: [1] Берлекэмп Э., Алгебраическая теория кодирования, пер. с англ., М., 1971. Г. А. Кабатянский. АЛГЕБРАИЧЕСКОЕ СЛУЧАЙНОЕ УРАВНЕНИЕ (algebraic random equation) - уравнение вида /•(0 = ^ + Х1^"Ч ... +ХП = 0, С) у к-рого коэффициенты Xi} i- 1, ..., я, являются случайными величинами. Корни V;, i— 1, ..., я, уравнения (*) представимы в виде Vj^j+Hij, v2 = X1-qil, ..., v2/M=X* + Hifc, v2k = h~ -Щк>Ъы=*и ->vn = x„-2k> Ы> ... ^|уя|,гдеЯ,„ц/,/=1, ..., k, Xy, 7 = 1, .., n-2k,- действительные случайные величины, индекс k является случайной величиной, принимающей целые значения от 0 до [я/2]. Если существует совместная плотность распределения р (xv ..., хп) коэффициентов Xif i=l, ..., я, то с вероятностью 1 корни уравнения (*) различны. Если коэффициенты Х{ уравнения (*) комплексные, а мнимые и действительные части случайных коэффициентов Х{ имеют совместную плотность распределения p(Rezi} lmzi} i- 1, ..., я), где z{ - комплексные переменные, то плотность распределения корней V;, г- 1, ..., я, argvt> ... >argv„, равна ^(КеА,1тА,1=1,...,я)Пи=1 Uti>J\'i''jl arg2t>...>arg2„, где A,-, i=l, ..., я,- симметрич. функции комплексных переменных ziy i=l, ..., я. Справедлива формула: число корней я (я, Ь) уравнения (*) на интервале (я, Ъ ) действительной оси равно п(ауЪ)=(2%Тх £ dy \ba cos[yf(t)]\f'(t)\dt} причем кратный корень считается один раз; если корень совпадает с а или Ь, то я (я, Ь) уменьшается на 1/2. Если коэффициенты Xiy i- 1, ..., я, независимы и распределены по нормальному закону N (0, 1), то Ея(я, Ь) = тГ1 £ [1 - h\ (tj\ (1 -t2 Г1 dt, hn(t) = ntn-H\-t2)(\-t2nr\ Лит.: [1] Кац М., Вероятность и смежные вопросы в физике, пер. с англ., М., 1965. В. Л. Гирко. АЛГОРИТМИЧЕСКАЯ ЭНТРОПИЯ (Kolmogorov complexity entropy), энтропия конечных объектов, сложность конечных объектов,- введенная А. Н. Колмогоровым [1] мера информации количества, необходимого для описания данного объекта. Способом описания называют вычислимое (нек-рым алгоритмом) частичное отображение (вообще говоря, не всюду определенное) множества двоичных слов (конечных последовательностей нулей и единиц) в себя. Сложностью KG(x) слова х относительно способа описания G называется длина самого короткого из тех слов р} для к-рых G(p)=x. Существует оптимальный способ описания F, при к-ром KF (x) ^ KG (х) + О (1) для любого способа описания G (см. [1]). Сложность слова относительно оптимального способа описания (определенная с точностью до ограниченного слагаемого) называется алгоритмической энтропией этого слова и обозначается К (х). А. э.- невычислимая функция; не существует способа эффективно указывать слова с А. э., к-рая больше заданной. А. э. слова не превосходит его длины (+О(0); для большинства слов данной длины это неравенство близко к равенству (такие АЛГЕБРА 13
слова естественно считать «случайными»). Вычислимые отображения увеличивают А. э. не более чем на константу (см. [2]). Существуют и другие варианты А. э., отличные от приведенной простой колмогоровской А. э. (см. [2]-[4]). Среди них - условная А. э. К(х\у), измеряющая количество информации, к-рое необходимо для описания х при известном у; разность 1(у: х) = К (х) - К (х\у) называется количеством информации в у об х. Функция / почти симметрична: I(x:y)-I(y:x) = 0(\og(l(x) + l(y))), где / (z ) - длина слова z. Еще один вариант А. э.- монотонная А. э. КМ (х), определение к-рой (см. [3]-[5]) учитывает имеющееся на двоичных словах отношение «быть началом». Она может быть использована для определения понятия случайности: последовательность нулей и единиц представляет собой двоичную запись случайного числа на отрезке [0, 1] (см. Случайные и псевдослучайные числа) тогда и только тогда, когда монотонная А. э. ее начального отрезка длины п равна я + ОО) (см. [3], [5]). Префиксная энтропия слова х определяется как -\og2M(x), где М (х) - так наз. априорная вероятность. По определению, априорная вероятность является максимальной с точностью до мультипликативной константы функцией М, отображающей множество двоичных слов в множество неотрицательных действительных чисел и обладающей такими двумя свойствами: (1)^М (х)< +<»; (2) множество пар (г, х)} где г - рациональное число, меньшее М(х), может быть перечислено нек-рым алгоритмом. Префиксная энтропия отличается от простой колмогоровской А. э. не более чем на логарифм длины слова, умноженный на константу, не зависящую от слова (см. [3]). Связь понятия А. э. с определением энтропии, данным К. Шенноном (С. Shannon), устанавливается такими двумя утверждениями. 1) Пусть х - двоичное слово, р и q - частоты нулей и единиц в слове х, Н = -(р log2 р + q log2 q) - шенноновская энтропия случайной величины, принимающей значения 0 и 1 с вероятностями р и q соответственно. Тогда К (x)/l (х) ^ ^# + 0(1) при 1(х)—>оо. Это неравенство показывает, что А. э. учитывает (в числе других) и частотные закономерности. Хотя левая часть неравенства может быть существенно меньше правой, если х имеет закономерности не частотного характера, для «случайных» х этого не бывает, как показывает следующее утверждение. 2) Для почти всех (по мере Бернулли с вероятностями появления нулей и единиц, равными р и q соответственно) последовательностей а предел отношения А. э. начального отрезка длины п последовательности а к я при я-><» равен -(p\og2p + q\og2q). При исследовании сложности вычислений находят применение алгоритмич. варианты понятия энтропии, учитывающие время работы алгоритма, реализующего способ описания (см., напр., [6]). Лит.: [1] Колмогоров А. Н., «Проблемы передачи информации», 1965, т. 1, в. 1, с. 3-11 (см. также - Кол м о го ров А. Н., Теория информации и теория алгоритмов, М., 1987, с. 213-23); [2] Звонкий А. К., Левин Л. А., «Успехи матем. наук», 1970, т. 25, в. 6, с. 85-127; [3] Вьюгин В. В., «Семиотика и информатика», М., 1981, в. 16 (второй выпуск за 1980 г.), с. 14-43; [4] ШеньА. X., «Докл. АН СССР», 1984, т. 276, № 3, с. 563-66; [5] Левин Л. А., «Докл. АН СССР», 1973, т. 212, № 3, с. 548-50; [6) Hart man i s J., «Bull. European Ass. Theor. Сотр. Sci.», 1984, № 24 (Oct.), p. 73-78; [7] Витаньи П., Л. и М., «Успехи матем. наук», 1988, т. 43, в. 6, с. 129-66. А. X. Шень. 14 АЛГОРИТМИЧЕСКАЯ АЛДОУСА-РЕБОЛЛЕДО УСЛОВИЕ (Aldous-Rebolledo condition) - см. Предельные теоремы для случайных процессов; мартингальные методы. АЛЕКСАНДРОВА ПРОСТРАНСТВО (Alexandres space) - см. о-измеримая функция. АЛЕКСАНДРОВА ТЕОРЕМА (Alexandrov theorem) - условие слабой сходимости мер в терминах сходимости значений мер на классах множеств. Пусть Ж - пространство мер, заданных на нормальном топологич. пространстве (ЗГ, ®), и Ре.И. Множество В иза-алгебры а(®) имеет Р-нулевую границу, если существуют открытые множества Gj, G2e® такие, что Gt с бс SC\G2 и Р (Gj) = P(3T\G2). Для того чтобы сеть мер (Ре) из Л слабо сходилась к мере Ре.й, необходимо и достаточно, чтобы выполнялось одно из следующих условий: 1) для любого множества В из борелевской а-алгебры а(®) с Р-нулевой границей выполняется равенство HmPe(tf) = P(tf); е 2) для любого открытого множества Ge® имеет место lim inf Pe(G) ^ P(G) и lim Pe(#) = Р(#); е е 3) для любого замкнутого множества F имеет место lim sup Pe(F) ^ P(F) и lim Pe(tf) = РЫ. e e Все сказанное выше справедливо также и для а-топологич. пространств. См. также Мера. Теорема установлена А. Д. Александровым [1]. Лит.: [1] Александров А. Д., «Матем. сб.», 1940, т. 8, с. 307-48; 1941, т. 9, с. 563-628; 1943, т. 13, с. 169-238; [2) Боровков А. А., «Успехи матем. наук», 1976, т. 31, в. 2, с. 3-68. Е. А. Печерский. АЛЛЕ ПАРАДОКС (Allais paradox) - пример отношения предпочтения в пространстве вероятностных распределений, к-рое нельзя описать аффинным индикатором. Точнее, рассматривается пример отношения предпочтения у в пространстве {F} вероятностных распределений на числовой прямой, для к-рого нельзя указать функционал U, определенный на {F} и обладающий следующими свойствами: FyG**U(F)>U(G), (1) U(aF+(\-a)G) = aU(F) + (\-a)U(G) (2) для любого ае [0, 1] (см. также Полезностей теория). М. Алле [1] рассмотрел распределения Fv ..., F4 будущего случайного дохода, сосредоточенные на множестве {0 долл., 5 млн. долл., 25 млн. долл.}. Значения вероятностей даны в следующей таблице. /ч F2 F3 Fa 0 долл. 0 0,01 0,9 0,89 5 млн. долл. 1 0,89 0 0,11 25 млн. долл. 0 0,1 0,1 0 «Стандартный индивидуум» предпочтет первый вариант второму, считая, что лучше получить заведомо сумму в 5 млн., к-рая для него столь же «немыслима», как и сумма в 25 млн., чем - пусть и с малой вероятностью - рисковать не получить ничего. Тем более, что в последнем случае к нулевому доходу прибавится сильная неудовлетворенность от потери стопроцентной возможности резко увеличить состояние. Третий вариант предпочтительнее четвертого, так как здесь вероятности не получить ничего «не малы и мало отличаются», и лучше выбрать вариант, где сумма выигрыша больше, так как шансы в обоих вариантах почти равны. Таким образом, если отношение предпочтения у отражает указанные
представления, то Fx >-F2 и F3>-F4. Если существует функционал (/, удовлетворяющий (1)-(2), то (F1+F3)/l/2^(F2+F4)/l/2, в то время как на самом деле (F1+F3)/l/2 = (F2+F4)/l/2. Рассмотренное отношение предпочтения может быть описано квадратичным индикатором предпочтения или в терминах сравнительной полезности (см. Полезностей теория). Функция сравнительной полезности в последнем случае является супераддитивной [см. [2]). Лит.: [1] Allais M., «Econometrica», 1953, v. 21, p. 503-46; [2] КирутаА.Я., Рубинов A.M., Яновская Е. Б., Оптимальный выбор распределений в сложных социально-экономических задачах, Л., 1980. В. И. Ротарь. АЛЬТЕРНАТИВА (alternative), альтернативная гипотеза,- одна из двух статистических гипотез в задаче проверки статистических гипотез, противопоставляемая нулевой гипотезе. Обычно нулевая гипотеза выражает некое основное предположение о распределении, подлежащее проверке, а А.- класс возможных отклонений от него. Иногда под А. понимают отдельное распределение, входящее в альтернативную гипотезу, к-рая в этом случае представляет определенный класс А. Д. М. Чибисов. АЛЬТЕРНАТИВНАЯ ГИПОТЕЗА (alternative hypothesis) - см. Альтернатива. АЛЬТЕРНАТИВНЫЙ МЕТЕОРОЛОГИЧЕСКИЙ ПРОГНОЗ (forecast of meteorological binary variables or events/ alternating meteorological forecast) - прогноз погоды, при к-ром указывается, осуществится или не осуществится одно из двух только и рассматриваемых противоположных состояний погоды (напр., прогнозы «ожидаются заморозки» или «заморозков не будет», «погода будет летной» или «нелетной»). А.м. и. имеет большое практич. значение особенно при прогнозировании опасных явлений погоды. Любой прогноз одной из конечного числа фаз погоды (а также любой количественный прогноз, где возможная область значений предиктанта Y всегда может быть разбита на конечное число областей, в пределах к-рых значения У уже практически неразличимы) можно свести к А. м. п., так что А. м. п. можно считать основой практически любого прогноза погоды. Для случая А. м. п. наиболее подробно изучены оценки качества прогнозов (см. Прогноз погоды; оценка качества) и методы метеороло- гич. информации оптимального использования. Лит.: [1] ОмшанскийМ.А., «Тр. Главн. геофиз. обсерв>, 1937, в. 14, с. 49-57; [2J Обухов A.M., «Изв. АН СССР. Сер. геофиз.», 1955, № 4, с. 339-49; [31 Жуковский Е. Е., Метеорологическая информация и экономические решения, Л., 1981. Г. В. Груза. АЛЬФА-ПОТЕНЦИАЛ (alpha-potential) - см. Потенциала теория для марковского процесса. АЛЬФА-ФАКТОРНЫЙ АНАЛИЗ (alpha factor analysis) - см. Факторного анализа схемы. АЛЬФАгЭКСЦЕССИВНАЯ ФУНКЦИЯ (alpha excessive function) - см. Потенциала теория для марковского процесса. АЛЬФА-ЯДРО ПОТЕНЦИАЛОВ (potential alpha-kernel) - см. Потенциала теория для марковского процесса. АМПЛИТУДНАЯ МОДУЛЯЦИЯ (amplitude modulation) стационарного случайного процесса Х(0, -оо < t<°о, ЕХ (О = 0, DX (0 = 1,- преобразование вида Z(0 = c(l+mY(0)X(0, где с- коэффициент усиления; У (О, -оо<£<оо, ЕУ(0 = 0, DY(0=1,- моделирующий стационарный случайный процесс; величина т} 0<т<1, характеризует степень воздействия и называется глубиной модуляции. Если X(t) и У (О - независимые процессы с ковариационными функциями Вх(х) и J5y(x), то Z (t) также стационарный процесс с ковариационной функцией Яг(т) = с2Ях(т)(-1+т2Яу(т)). Если спектральные функции процессов X (t) и У (О абсолютно непрерывны, то спектральные плотности fx(X), fY(X) и fz(X) связаны соотношением fza)=c4fxa) + m2fYck)*fxa))t где * означает свертку. В случае, когда X (t) и У (О имеют узкополосные спектры, сосредоточенные в частотах Хх и Х2 соответственно, 0<Х2«Хх, fz(X) имеет пик в частотах ±XV к-рые называются несущими, а также пики в частотах ±(At-A2), к-рые называются боковыми, или спутниками. Значения fz(X) в этих точках, а также для Х=Х2 определяются следующими приближенными выражениями: fzax)^c2ifxa^+m2(fY(o)fxa^+fya2)fxa^x2))i fz(Xx-X2)*c2[fx(Xx-X2) + m2fY(X2)fx(Xx)l fza2)^c2ifx(x2)^m4fYa2)fx(o)+fY(xx-x2)fx(xx))]. Функция |Z(0l является огибающей процесса Z(0, к-рая в случае узкополосных процессов X (t) и У (О имеет естественную физич. интерпретацию и поэтому широко применяется, напр., в радиотехнике. Для широкополосных процессов наглядное с физич. точки зрения определение огибающей несколько затруднено. Лит.: [11 Крамер Г., Лидбеттер М., Стационарные случайные процессы. Выборочные траектории и их приложения, пер. с англ., М., 1969; [21 Свешн и ков А. А., Прикладные методы теории случайных функций, 2 изд., М., 1968; [3] X ар к ев и ч А. А., Спектры и анализ, 4 изд., М., 1962; [4] Хеннан Э., Многомерные временные ряды, пер. с англ., М., 1974. И. А. Кожевникова. АМПЛИТУДНАЯ ЧАСТОТНАЯ ХАРАКТЕРИСТИКА (amplitude frequency response) - см. Передаточная функция. АМПЛИТУДНО-МОДУЛИРОВАННОЕ ГАРМОНИЧЕСКОЕ КОЛЕБАНИЕ (amplitude-modulated harmonic oscillation) - колебание вида X(0 = X0(0cos(V + G), где Xq - фиксированная круговая частота, амплитуда Х0(О представляет собой стационарный случайный процесс, а фаза в может быть как случайной величиной, так и фиксированным числом. Если фаза в - случайная величина, равномерно распределенная на интервале [0, 2л], а распределение мощности процесса Х0(О [задаваемое его спектральной плотностью f0(X)] сосредоточено в области частот то А.-м. г. к. Х(0 - стационарный случайный процесс, спектральная плотность к-рого имеет острый пик в точках X = Xq и X = -Xq. Если же фаза в фиксирована, то X(t) - периодически коррелированный случайный процесс, двумерная спектральная мера F(dX, dX') к-рого сосредоточена на прямых Х = Х\Х = Х' + 2Xq и X = X' - 2Xq. A. M. Яглом. АМПЛИТУДНО-МОДУЛИРОВАННЫЙ ИМПУЛЬСНЫЙ ПРОЦЕСС (amplitude-modulated impulse process) - импульсный случайный процесс вида где Г(0 - заданная неслучайная функция (определяющая форму импульсов), tn, я = 0, ±1, ...,- совокупность точек на оси времени, к-рая может быть либо случайной, либо детерминированной, а последовательность амплитуд Х„, я = 0, ± 1, ..., представляет собой стационарную случайную последователь- АМПЛИТУДНАЯ 15
ность. Важный частный случай - процесс вида (*), где {tn} - пуассоновская система точек (со средним числом точек на единицу времени, равным Х)} а {Хп} - последовательность одинаково распределенных независимых случайных величин таких, что ЕХп = т, ЕХ^-а2. В этом случае X(t) - стационарный случайный процесс со средним значением EX(t) = Xm j^rMdu и корреляционной функцией EX(t + x)X(t) = Ха2 £ Г(м + x)T(u)du + + Jt2m2[J"eer(n)dfi] • Если же tn - пГ0, где Г0 - фиксированный период, или же £я = яГ0 + е„, где {еп} - независимая от {Хп} стационарная случайная последовательность, то тогда Х(0 - периодически коррелированный случайный процесс периода Г0. Лит.: [1] Коновалов Г. В., Тарасенко Е. М., Импульсные случайные процессы в электросвязи, М., 1973; [2] РытовС. М., Введение в статистическую радиофизику, ч. 1, М., 1976; [3] Левин Б. Р., Теоретические основы статистической радиотехники, 2 изд., кн. 1, М., 1974; [4] МиддлтонД., Введение в статистическую теорию связи, пер. с англ., т. 1-2, М., 1961-62; [5] Френке Л., Теория сигналов, пер. с англ., М., 1974. A.M. Яглом. АМПЛИТУДНО-МОДУЛИРОВАННЫЙ СЛУЧАЙНЫЙ ПРОЦЕСС (amplitude-modulated random process) - случайный процесс вида Х(О = Х0(ОР(О, где Х0(О - стационарный случайный процесс, a Pit) - заданная неслучайная функция. Частным случаем А.-м. с. п. является амплитудно-модулированное гармоническое колебание. Если функция P(t) периодическая, то А.-м. с. п. X(t) является периодически коррелированным случайным процессом; если р(0= £/*°<Шю), где |б//С(со)| имеет абсолютный максимум при со = 0, то Х(0 принадлежит к классу процессов, допускающих эволюционирующее спектральное разложение. а. М. Яглом. АНАЛИТИЧЕСКАЯ ХАРАКТЕРИСТИЧЕСКАЯ ФУНКЦИЯ (analytic characteristic function) - характеристическая функция вероятностного распределения Р действительной случайной величины Х} допускающая аналитическое продолжение в нек-рую окрестность точки z - О, z - t + is. Аналитическая в круге \z\ <r характеристич. функция /"аналитична и в полосе | Im z \ < г и допускает там представление f(z)= \~JzxP(dx). Характеристич. функция /"аналитична в том и только в том случае, если Р{|Х| >Л} = О(бГм), Л-»~, для нек-рого г > 0. Если a = sup{t>0:Eetx <<»>}, fc = sup{£>0:E6f'x<oo}, то -ш, гЪ суть особые точки функции /* и {z: -a<lmz<b} - максимальная полоса аналитичности для f. A. x. ф. играют важную роль в теоремах о вероятностях больших уклонений, в задачах устойчивости разложений распределений на компоненты и др. Лит.: [\] ЛинникЮ. В., Островский И. В., Разложения случайных величин и векторов, М., 1972; [21 Лукач Е., Характеристические функции, пер. с англ., М., 1979. И. А. Ибрагимов. АНАЛОГОВ МЕТОД (analogous method) в метеорологии — метод прогноза погоды, основанный на принципе ана- 16 АНАЛОГОВ МЕТОД логичности, при к-ром из архива данных метеорологических наблюдений за прошлые годы выбирается ситуация, максимально похожая на текущую, а затем прогнозируется изменение погоды, наблюдавшееся после этой ситуации. Для атмосферы, состояния к-рой можно представлять как точки в многомерном (фазовом) пространстве, перемещающиеся с течением времени по нек-рым траекториям, А. м. предполагает, что в случае близких «начальных точек» траектории в течение нек-рого времени остаются близкими друг к другу. Так как атмосфера подчиняется законам динамики, применение А. м. фактически означает, что точное решение уравнений динамики, описывающее реально осуществляющуюся эволюцию атмосферы, используется при похожих, но не совпадающих начальных данных (несовпадение всегда имеет место из-за неизбежной неполноты наблюдений над характеристиками атмосферы и отсутствия двух совершенно тождественных погодных условий). Анализ скорости расхождения состояний атмосферы, следующих за близкими начальными состояниями, позволяет оценить предсказуемость метеорологич. процессов. Для того чтобы построить решающее правило для прогноза по A.m., нужно уметь измерять различие (или сходство) исходных метеорологич. состояний, задаваемых точкой в многомерном пространстве предикторов X (характеристик атмосферы, используемых для прогноза). Естественно требовать, чтобы мера различия D(X , X ) между двумя состояниями X и X удовлетворяла условиям D(X(1),X(2)) = D(X(2),X(1)), D(X(1), X(2))^D(X(1), X(3))+D(X(3), X(2)), D(X(1), X(2))^0, D(X(1), X(1))=0. В качестве меры различия широко используется обобщенное евклидово расстояние ж*»,*®)=[Е>?(*{° -*!2>)2],/2 или обобщенное расстояние Хемминга D(X^,X^)=X^i\x^-xi2}\' где хУ , i=l, ..., я,— координаты точки X J , a ety — нек-рые веса, характеризующие предполагаемую важность f-ro предиктора для суждения об аналогичности. Рассматриваются и другие меры сходства (см. [1], [2]), в частности такой мерой может быть та или иная оценка качества прогноза (см. Прогноз погоды; оценка качества). Если архив наблюдений представлен значениями предикторов Х; и предиктантов У; (/ — номер наблюдения в архиве), то алгоритм (решающее правило) прогноза по А. м. имеет вид У (Х0) = У • , где Х0 — значение предиктора в момент прогноза, У — предсказываемое значение предиктанта, a ja соответствует лучшему аналогу в архиве, то есть D(X0,X. ) = min D(X0,X;). а У А. м. является одним из основных методов долгосрочного прогнозирования в метеорологии (см. [3]). Он приводит к более удовлетворительным результатам, когда используется не один, а группа лучших аналогов. По такой группе можно прогнозировать ряд различных характеристик атмосферы и даже пытаться составить вероятностный прогноз погоды. Лит.: [\] Груза Г. В., Ранькова Э. Я., Вероятностные метеорологические прогнозы, Л., 1983; [21 Груза Г. В., Рейтенбах Р. Г., Статистика и анализ гидрометеорологических данных, Л., 1982; [31 Долгосрочные метеорологические прогнозы, Л., 1985. р q Груза. АНДЕРСОНА НЕРАВЕНСТВО (Anderson's inequality) - неравенство между значениями меры выпуклых и симметричных относительно нуля множеств в векторных пространствах
и их сдвигов вдоль соответствующих направлений. Именно, если (X - борелевская мера в топологии, векторном пространстве F, то говорят, что для нее имеет место неравенство Андерсона, если для произвольного выпуклого и симметричного относительно нуля борелевского множества С с: F и для любых te[0, 1], yeF выполнено соотношение ц{С + ty) ^ ц(С + у), в частности \а{С ) ^ц(С + у). Для вероятностной меры в II?" А. н. выполняется, напр., тогда, когда мера абсолютно непрерывна относительно меры Лебега и ее плотность /"такова, что 1) f(x) = f(-x), #elR"; 2) для любого в > 0 множество {х е IR": fix) ^ в} выпукло. Этот факт был установлен и положен в основу ряда вероятностных неравенств Т. Андерсоном [1], в связи с изучением нек-рых вопросов асимптотич. теории статистич. критериев согласия. А. н. справедливо для центрированных гауссовских мер, а также для широкого класса других вероятностных мер в сепарабельных банаховых и более общих топологии, векторных пространствах. Лит.: [1] Anderson Т., «Proc. Amer. Math. Soc.», 1955, v. 6, № 2, p. 170-76; [2] Borell K., «Ark. mat», 1974, v. 12, № 2, p. 239-52; [3] Булдыгин ВВ., Харази ш вили А. Б., Неравенство Брунна- Минковского и его приложения, К., 1985. В. В. Булдыгин. АНДЕРСОНА-ИЕНСЕНА ТЕОРЕМА (Anderson-Jensen theorem) - см. Произведение вероятностных пространств. АНДРЕ ПРИНЦИП ОТРАЖЕНИЯ (Andre's reflection principle) -см. Отражения принцип. АНОСОВА ДИНАМИЧЕСКАЯ СИСТЕМА (Anosov civ namical system) - определенная на компактном гладком рима- новом многообразии М однопараметрическая группа диффеоморфизмов 3*:М -> М, где te (-<*>, °°) или te {0, ±1, +2, ...}, для к-рой спектр линейного оператора £*, действующего в пространстве непрерывных векторных нолей v(x) на М по формуле (Stv)(x) = dStv(S~tx)} не пересекается с единичной окружностью. При наличии гладкой инвариантной меры А. д. с. обладает сильными стохастич. свойствами (см. [1], [2]), являясь (в случае дискретного t) К-системой. Для широкого класса функций fix), заданных на М, выполнена центральная предельная теорема. А. д. с. является одним из основных примеров динамич. систем с сильными стохастич. свойствами (см. Эргодическая теория). Лит.: [1] Аносов Д.В., «Тр. Матем. ин-та АН СССР», 1967, т. 90, с. 1-210; [2] Синай Я. Г., «Изв. АН СССР. Сер. матем>, 1966. т. 30, № 1, с. 15-68. л. А. Бунимович. АНСАРИ-БРЭДЛИ КРИТЕРИЙ (Ansari-Bradley test) - ранговый критерий для проверки однородности двух скалярных выборок против их различия в масштабах. Точнее, альтернативой к гипотезе об однородности двух генеральных совокупностей, представленных скалярными независимыми выборками, служит различие их разбросов при условии равенства медиан. Система назначения рангов: все наблюдения объединяются; ранг 1 получают два наблюдения - наименьшее и наибольшее; ранг 2 - наименьшее и наибольшее из оставшихся и т. д. Статистика А.- Б. к.- это сумма рангов одной из выборок. Если обе выборки извлечены из одной непрерывной генеральной совокупности, статистика А.- Б. к. распределена свободно; ее распределение зависит только от объемов выборок. Для решения той же задачи предназначен и Сиджела- Тъюки критерий. При нулевой гипотезе его статистика распределена так же, как статистика критерия ранговых сумм Уилкоксона, а потому можно пользоваться таблицами ее распределений и процентных точек. Для проверки по выборкам равенства масштабов двух генеральных совокупностей, медианы к-рых, возможно, не совпадают, Л. Мозесом предложен свободный от распределения (в случае нулевой гипотезы) критерий, похожий на ранговый (см. [2], [3]). В этом критерии используется искусственная рандомизация - случайное разбиение исходных выборок на подгруппы. Лит.:[\) Ansari A. R., Bradley R. A., «Ann. Math. Statist.», 1960, v. 31, № 4, p. 1174-89; [2] Холлендер М., Вулф Д., Непараметрические методы статистики, пер. с англ., М., 1983; [3] Moses L. Е., «Ann. Math. Statist.», 1963, v. 34, № 3, p. 973-83. Ю. Н. Тюрин. АНТИСИММЕТРИЧЕСКОЕ ПРОСТРАНСТВО ФОКА (antisimmetric Fock space) - см. Фока пространство. АНТИСИММЕТРИЧНОЙ ВЫБОРКИ МЕТОД (antithetic variate method) - см. Антитетичных переменных метод. АНТИТЕТИЧНЫХ ПЕРЕМЕННЫХ МЕТОД (antithetic variate method), метод антисимметричной выборки,- использование выражения V(§i У + AU-Si 1-5,»А где £i ~ независимые равномерно распределенные на [0, 1] случайные или псевдослучайные числа, при оценивании методом Монте-Карло 5-кратного интеграла по единичному гиперкубу от функции f. Лит.: Hammersley J., Morton К., «Proc. Cambr. Phil. Soo, 1956, v. 52, p. 449-75. С. М. Ермаков. АНТИФЕРРОМАГНИТНАЯ МОДЕЛЬ (antiferromagnetic model) - специальный случай решетчатой модели статистической механики с вещественными значениями. Он выделяется тем, что всякое периодич. основное состояние А. м. сосредоточено на таких конфигурациях {xt, tel }, что xt+e = -xt, для всех t е Ж , где е е Ж - произвольный единичный вектор. Структура распределений Гиббса для А. м. иллюстрируется примером антиферромагнитной Изинга модели, задаваемой потенциалом U вида [-hxt}A = {t}} UA(xA) = \xsxttA = {stt)t\s-t\ = \t [О для остальных Л, где xt = ± 1, t е Ж , a h е В?. Ее основные состояния при \h\ <2d сосредоточены на двух конфигурациях х , х : *! = <-о*'+-+Ч *?=-*{. В случае h = 0 A.m. Изинга изоморфна ферромагнетику Изинга. Изоморфизм получается с помощью замены переменных xt-+(-\) 1 *" d xt. При h*0 модели не изоморфны и I единственность \к^^х^ нееди нственность ^Ч^^/^/t о| имеют разные фазовые диаграммы при d>2 (рис.). Известно (см. [1 ]), что распределение Гиббса неединственно в треугольной области больших р и малых h и единственно в области малых р или больших /г. Предполагается, что существует линия, являющаяся общей границей областей единственности и неединственности. Лит.: [1] Добрушин Р. Л., «Функц. анализ и его прилож.», 1968, т. 2, в. 4, с. 44-57. с. Б. Шлосман. АНТИФЕРРОМАГНИТНАЯ 17
АПОСТЕРИОРНАЯ ВЕРОЯТНОСТЬ (posterior probability) какого-либо события, вероятность a posteriori,- условная вероятность события при нек-ром условии, рассматриваемая в противоположность его безусловной вероятности, или априорной вероятности. Никакого принципиального различия между терминами «условная» и «апостериорная» нет. В применениях первый термин используют, когда само условие носит предположительный характер и в ходе опытов непосредственно не наблюдается. Второй термин используют, когда желают подчеркнуть, что условие, о к-ром идет речь, фактически наблюдено. А. в. связана с априорной вероятностью Бейеса формулой. Ю. В. Прохоров. АПОСТЕРИОРНОЕ РАСПРЕДЕЛЕНИЕ (posterior distribution), условное распределение,- условное распределение вероятностей какой-либо случайной величины при нек-ром условии, рассматриваемое в противоположность ее безусловному распределению, или априорному распределению. Если 0 - случайный параметр с априорной плотностью р(6), X - случайный результат наблюдений и р (*|6) - условная плотность X при условии 0 = 6, то А. р. 0 при данном X, согласно Бейеса формуле, имеет плотность РЩХ)= *е)^'е) . С pMpWdQ Если Т (х) - достаточная статистика для семейства распределений с плотностями р (#|6), то А. р. зависит не от самого х} а от Т(х). Асимптотич. поведение при я->°° А. р. p(Q\xv ..., хп)у где X: суть результаты независимых наблюдений с плотностью /?u:|60), оказывается «почти независящим» от априорного распределения 6. О роли А. р. в теории статистич. решений см. в ст. Бейесов- ский подход к статистическим задачам. Лит.: [11 Бернштейн С. Н., Теория вероятностей, 4 изд., М.-Л., 1946. Ю. В. Прохоров. АПОСТЕРИОРНОЕ СРЕДНЕЕ (posterior mean) - математическое ожидание апостериорного распределения. АПОСТЕРИОРНЫЙ РИСК решающей функции (posterior risk of a decision function) 8 - условное математическое ожидание функции потерь L (в, 5(Х )) по совместному распределению параметра в и решающей функции 5 при фиксированном значении результата х, наблюдаемого в статистич. эксперименте случайного элемента (выборки) X. Значение А. р. при бейесовском решении Ьс(х) называется условным бейесовским риском. См. также Бейесовский подход к статистическим задачам. И. Н. Володин. АППРОКСИМАЦИЯ СЛОЖНЫХ РАСПРЕДЕЛЕНИЙ более простыми (approximation to complex distributions by simplier ones) - приближение распределения вероятностей распределением более простой формы с известными или легко изучаемыми свойствами. Пример. Аппроксимация распределения с помощью кривой из семейства Пирсона распределений. Плотность вероятности y = f(x) (принадлежащей семейству кривых Пирсона) является решением дифференциального уравнения \_dy_ х+Сх У dx C0+Cix+C2x2 ' где постоянные С0, Сх и С2 связаны простыми соотношениями с дисперсией о, коэффициентами асимметрии ух и эксцесса у2. Таким образом, по заданным а , ух и у2 распределение можно аппроксимировать соответствующей кривой из семейства Пир- 18 АПОСТЕРИОРНАЯ сона. Кривые Пирсона можно использовать также для сглаживания выборочного распределения в случае, когда теоретич. распределение неизвестно; при этом значения (Г, yt и у2 заменяют их выборочными оценками. Другие примеры А. с. р. более простыми см. в ст. Асимптотически нормальное преобразование, Асимптотически пирсо- новское преобразование} Нормальная аппроксимация. Лит.: [11 Кендалл М. Д., Стьюарт А., Теория распределений, пер. с англ., М., 1966; [21 Elder ton W. P., Frequency curves and correlation, Camb., 1953; [31 Большее Л.Н., Смирнов Н. В., Таблицы математической статистики, 3 изд., М., 1983. В. И. Пагурова. (ЛГ, Ф)-АППРОКСИМИРУЮЩИЙ ФУНКЦИОНАЛ ((.Ж, 0)-approximating functional) - см. Предельные теоремы для случайных процессов. АПРИОРНАЯ ВЕРОЯТНОСТЬ (prior probability) какого- либо события, вероятность a priori, безусловная вероятно с т ь,- вероятность события, рассматриваемая в противоположность условной вероятности этого же события при нек-ром дополнительном условии. Последнюю называют в таком случае апостериорной вероятностью. Эту терминологию употребляют обычно в связи с Бейеса формулой. Ю. В. Прохоров. АПРИОРНАЯ ИНФОРМАЦИЯ (prior information) в статистических задачах- известные статистику a priori качественные и количественные сведения о случайном явлении, обработав наблюдения к-рого, он должен сделать свои выводы. Как правило, качественное описание - измеримое пространство Ф, л) всех элементарных исходов со явления - в статистич. задачах считается известным. В качестве дополнительной обычно используется информация следующего типа: «распределение вероятностей P{d(u} исходов наблюдаемого явления принадлежит семейству &= {Ре, 6 е 0} из совокупности Сар Ф, Л) всех распределений вероятностей на Ф, .»/)». Иногда можно также предполагать параметр в наблюдаемого закона Рв случайным с нек-рым известным распределением Q{dQ} на (0, 33). Без указания минимальной количественной А. и. сколько-нибудь сложные задачи статистич. оценивания не корректны и не допускают состоятельного (в информационных метриках) решения (см. [3]). Лит.: [11 Вальд А., Последовательный анализ, пер. с англ., М., I960 (добавление); [21 Закс Ш., Теория статистических выводов, пер. с англ., М., 1975; [31 Ченцов Н.Н., «Теория вероятн. и ее примени, 1981, т. 26, № 1, с. 15-31. Я. Я. Ченцов. АПРИОРНОЕ РАСПРЕДЕЛЕНИЕ (prior distribution), безусловное распределение,-распределение вероятностей какой-либо случайной величины, рассматриваемое в противоположность условному распределению этой случайной величины при нек-ром дополнительном условии. Обычно термин «А. р.» употребляют в следующей обстановке. Пусть (в, X )- пара случайных величин (случайных векторов или более общих случайных элементов). Случайную величину в рассматривают как неизвестный параметр, а Х- как результат наблюдений, предназначенных для оценки в. Совместное распределение в и X задают распределением 0 (к-рое и называют в этом случае А. р.) и совокупностью условных распределений Ре случайной величины X по отношению к 6. По Бейеса формуле можно вычислить условное распределение в относительно X (к-рое в этом случае называют апостериорным распределением в). В статистич. задачах часто А. р. неизвестно (и даже само предположение о его существовании не представляется достаточно обоснованным). Об использовании А. р. см. в ст. Бейесовский подход к статистическим задачам. Ю. В. Прохоров. АПРИОРНОЙ ИНФОРМАЦИИ УЧЕТ (prior information usage) в регрессионном анализе- использование априорной информации о неизвестных параметрах функции ре-
грессии с целью получения оценок этих параметров, более точных, чем оценка по методу наименьших квадратов. Для схемы линейного регрессионного эксперимента (У, Ф6, a W) наиболее часто используют следующие способы А. и. у. Пусть на параметры в е №р наложены линейные ограничения AQ = r, где А есть (qхр)-матрица ранга q} 0<q<p, и г есть (/-вектор. Общее решение системы уравнений RQ=r можно записать в виде 6 = в0 + #о, где в0 - частное решение, р- ироизвольный ip-б/)-вектор, а В есть [рх (/?-д)]-матрица ранга p-q. Тогда исходная схема линейного регрессионного эксперимента эквивалентна схеме (У-Фв0, ФВа, сгW), к-рая называется редуцированной. Оценкой параметров в является в = в0 + Вц, где 3 _ оценка параметров редуцированной модели р. Часто априорная информация о параметрах в представима в виде г = #6 + <р, где г - известный qr-вектор, R - известная (дхр)-матрица, <р- случайный qr-вектор, некоррелированный с вектором случайных ошибок в основной схеме регрессионного эксперимента и такой, что Е<р = 0, cov<p= V - невырожденная iq х </)-матрица. В этом случае схема регрессионного эксперимента называется смешанной моделью; она эквивалентна схеме (У0, Ф06, a W0), где IIУI II Ф| \\W О || У = I ф = I WQ=\\ . . II г II ° II ЛI I 0 <Г2 V J Наилучшая линейная несмещенная оценка параметров в записывается в виде (Ф'Г^ + Л'Г1/?)'1 (O'r^ + a^TV). (•) Пусть имеется априорное распределение PidQ) на множестве 0<zlR^ неизвестных параметров 0. Пусть, по предположению, r = L ep<^e>' V = !Q (в-г)(в-г)'Р(йв), R = Ip, где Ip - единичная ipxp)-матрица. В случае | V\ *0 оценка (*) называется бейесовской; она минимизирует величину JeE(e-e)'(e-e)P(</e) на множестве L всевозможных линейных оценок в. Если множество неизвестных параметров 0 является эллипсоидом: 0={ве(1^|(в-г)'(7"1(в-г)^/г>, /г>0, то оценка (*) при R = Ip, V = kU называется минимаксной; она минимизирует на 0 величину max я'Е(ё-е)(ё-в)'я для всех а е (R^. Если г = 0 и матрица R'V~XR пропорциональна единичной, то оценка (*) называется гребневой. Лит.: [1] Ермаков СМ., Жиглявский А. А., Математическая теория оптимального эксперимента, М., 1987; [2) Математическая теория планирования эксперимента, М., 1983. А. А. Жиглявский. АПРИОРНЫЙ РИСК решающей функции (prior risk of a decision function) - среднее значение функции риска решающей функции по априорному распределению параметра. И. Н. Володин. АРИФМЕТИКА ВЕРОЯТНОСТНЫХ РАСПРЕДЕЛЕНИЙ (arithmetics of probability distributions) - см. Вероятностных распределений арифметика. АРИФМЕТИЧЕСКОЕ МОДЕЛИРОВАНИЕ случай ных процессов (arithmetic simulation of random processes) - один из способов статистического моделирования вероятностных распределений. Состоит в построении последовательности случайных процессов, траектории к-рых определяются по значениям нек-рых арифметич. функций, а распределения сходятся к определенной мере на функциональном пространстве. Пусть ky m - натуральные числа. Функция fim) называется аддитивной, если fikm)=fik) + f(m), и мультипликативной, если fikm) = f(k)fim), для взаимно простых k и т. Пусть р- простое число, ap(m) = max {a:pa/m}, уп: [0,1] -> [1,я ] - непрерывная справа и в точке 1 функция, #„(0)=1, yni\) = n. Для последовательности действительных аддитивных функций fn полагают «n(^) = Ip^n(() f„(pa"lm))-a„(t), 0St<l. Тогда Hnit}m) можно рассматривать как случайный процесс относительно вероятностного пространства {С1п, dn, P„}, где Q„ = {1, ..., п}\ с*/„ - алгебра всех подмножеств £2„, Pni{m}) = = 1/я. Здесь anit) - нек-рая центрирующая величина. Траектории процесса Hit,-) принадлежат пространству D[0,1]. Можно рассматривать соответствующие процессы с траекториями в С[0,1]. Для одного класса процессов Hnit,m) Й. П. Кубилюс ([1], см. также [2], [3]) доказал, что при я->°° вероятности Ря пребывания траектории Hnit}) в криволинейной полосе с непрерывно дифференцируемыми границами стремятся к соответствующей вероятности для броуновского движения wit). Позднее при изучении процессов Hnit,m) стали применять функциональные предельные теоремы теории вероятностей. Для нек-рых классов процессов Hnit}m) доказаны: сходимость к wit) (см. [9], [10]); сходимость к процессам с независимыми приращениями и конечной дисперсией (см. [11]); сходимость к устойчивым процессам (см. [6]); найдены необходимые и достаточные условия сходимости (см. [5], [6]) и оценки скорости сходимости к wit) (см. [6]). С использованием теории семимартингалов получены общие результаты (см. [7]). Для последовательности мультипликативных функций дп полагают U„(t,m) = d;,Yk<th 9п (« + *). 0<*<1, где /*„-><*> при я-><*>, dn - нормирующая величина. Тогда Unit}m) - случайный процесс относительно {Q.n, Лп, Р„}. Для важных в теории чисел последовательностей функций дп Й. П. Кубилюс и Ю. В. Линник [4] методом моментов доказали, что конечномерные распределения процессов Unit}m) сходятся к конечномерным распределениям wit). Ю. В. Линник (1967) поставил вопрос: верно ли, что Unit}m) -+wit) при я ->©о, когдадnim) = \iirn), где \iirn) - функция Мёбиуса? Этот вопрос исследован в [8]. Лит.: [1] Кубилюс Й.П., Вероятностные методы в теории чисел, 2 изд., Вильнюс, 1962; [2] его же, «Докл. АН СССР», 1955, т. 103, с. 361-63; [3] его же, «Lect. Notes Math.», 1976, v. 550, p. 335-50; [4] Кубилюс Й. П., Линник Ю. В., «Изв. ВУЗов. Матем.», 1959, № 6 (13), с. 88-95; [5] Тимофеев Н. М., Усма- нов X. X., «Докл. АНТадж. ССР», 1982, т. 25, с. 207-11; [6] Ман- ставичюс Э., «Лит. матем. сб.», 1984, т. 24, № 3, с. 148-61; [7] Григелионис Б., Микулявичюс Р., там же, 1984, т. 24, № 2, с. 72-81; [8] Ляшенко Н. Н., «Докл. АН СССР», 1986, т. 290, с. 786-88; [9] Philipp W., «Ргос. Symp. Pure Math.», 1973, v. 24, p. 233-46; [10] Babu G.J., Probabilistic methods in the theory of arithmetical functions, Calcutta, 1973 (Diss.); [11] Billing- sley P., «Ann. Probab.», 1974, v. 2, p. 749-91. 3 ^ Крижюс. АРИФМЕТИЧЕСКОЕ РАСПРЕДЕЛЕНИЕ (arithmetic distribution) - дискретное распределение вероятностей случайной величины X, принимающей значения x = nh, я = 0, ±1, ±2, ..., h>0. A.p.- частный случай решетчатого распределения. С другой стороны, каждое решетчатое распределение представляет собой сдвинутое А. р. Важный частный случай А. р.- целочисленное распределение ih=\). Xa- АРИФМЕТИЧЕСКОЕ 19
рактеристич. функция А. р. периодична с периодом 2%/h. Обратно, если характеристич. функция fit) нек-рого распределения такова, что ftto) = 1 при tQ*Q} то распределение является А. р. Лит.: [1] Феллер В., Введение в теорию вероятностей и ее приложения, пер. с англ., т. 2, М., 1984. Н. Г. Ушаков. АРКСИНУСА ЗАКОН (arcsine law) - предельная теорема, описывающая флуктуации случайного блуждания на прямой, приводящая к арксинуса распределению или обобщенному распределению арксинуса. В 1939 П. Леви (P. Levy) для процесса броуновского движения {£,, t>0, £o = 0} отметил следующий факт. Пусть it - мера Лебега множества {и\\и>О, O^u^t), другими словами, время, проведенное броуновской частицей на положительной полуоси за промежуток времени [О, t]. Тогда отношение xt/t имеет распределение арксинуса: P{xt/t<x) = F1/2(*) = 2n~1arcsin V*, (K*^l, t>0. Позднее было обнаружено (см. [2]), что для случайного блуждания с дискретным временем имеет место следующий закон арксинуса: пусть 50 = 0, Sv ..., Sn - последовав тельные положения в случайном блуждании, £j, ^2» ■■■» £я» ■■■ независимы и одинаково распределены, Тп равно числу индексов k среди 0, 1, ..., я, для к-рых Sk>0} Кп= min {6:5^ = max Sm); тогда соотношения lim P{TJn<x) = lim P{Kn/n<x} = Fa(x\ 1,mP{51<0K...+P{5„<0}=tt П->оо П выполняются или не выполняются одновременно, где Fa(x) при 0<а< 1 - обобщенное распределение арксинуса, F^(x) = = Е(х) и Fq(x) = E(x- 1), при этом Е(х) = 0 при х^О и £(*) = 1 при х>0. А. з. в теории восстановления утверждают, что при 0 < а < 1 имеют место равенства Р{§1 ^ 0} = 1, lim P{yt/t <x} = Fa(x), где yt = t-5Л , J]t определяется соотношением Sn <t^S1] , тогда и только тогда, когда P{£t >x} = x~aL (x) при х>0, где L(x) - функция, определенная при х>0и обладающая свойством lim L(xy)/L(x) = \ при 0<у<°°. Существует тесная связь между А. з. в теории восстановления и для случайных блужданий (см. [3]). Лит.: [1] Феллер В., Введение в теорию вероятностей и ее приложения, пер. с англ., т. 2, М., 1984; [2] Спицер Ф., Принципы случайного блуждания, пер. с англ., М., 1969; [3] Рогозин Б. А., «Теория вероятн. и ее примени, 1971, т. 16, № 4, с. 593-613. Б. А. Рогозин. АРКСИНУСА РАСПРЕДЕЛЕНИЕ (arcsine distribution) - непрерывное, сосредоточенное на (0,1) распределение вероятностей (см. рис.) с плотностью />(*) = -- 1 к у/х(\-х) ' функция распределения А. р. имеет вид F(x) = 2я arcsin А. р. является частным случаем бета-распределения и возникает при изучении случайных блужданий, напр. как распределение доли времен, проводимых частицей на положительной полуоси при симметричном случайном блуждании на прямой (см. Арксинуса закон). А. р. является неразложимым распре- 20 АРКСИНУСА 1.8 1.6 1.3 1.2 1.0 .8 .6 .4 .2 \ / 11 м ]/\Л у*\Л \^гл\ 1 U-H'T кгТ \ У\ \ \ \ \ |[ 1 1 | .3 .4 .5 .6 .8 .9 Графики плотности и функции распределения для распределения арксинуса. делением. Наряду с А. р. используется обобщенное распределение арксинуса- распределение на (0,1) с плотностью , ч sinrca _а/, р(х) = х а(1- х)а 0<а<1; при а =1/2 оно совпадает с А. р. Математич. ожидание (1 -а), дисперсия (1 -а)а/2. Лит.: [1] Феллер В., Введение в теорию вероятностей и ее приложения, пер. с англ., т. 2, М., 1984. В. Г. Ушаков. АРКТАНГЕНСА ЗАКОН для случайных матриц (arctangent law for random matrices) - см. Предельные теоремы для случайных матриц. АРОНШАЙНА-КОЛМОГОРОВА ТЕОРЕМА (Aronszajn- Kolmogorov theorem) о структуре положительно определенных функций: комплексная функция /*, заданная на произведении ЛхЛ, где Л - произвольное непустое множество, является положительно определенной тогда и только тогда, когда существует (комплексное) гильбертово пространство Н и такое семейство {а^} ХеА} его элементов, что f(s}t) = (as}at) для всех s, £еЛ. При этом, если функция f принимает только действительные значения, то и пространство Н можно взять действительным. Лит.: [1] Вахания Н.Н., Тариеладзе В. И., Чобанян С. А., Вероятностные распределения в банаховых пространствах, М., 1985. Н. Н. Вахания. АРПСС-ПРОЦЕСС (ARIMA process) - см. Авторегрессии - проинтегрированного скользящего среднего процесс. • АРСС-ПРОЦЕСС (ARMA process) - см. Линейный фильтр, Смешанный авторегрессии - скользящего среднего процесс. АСИММЕТРИИ КОЭФФИЦИЕНТ (coefficient of skew ness) - простейшая и наиболее употребительная мера асимметрии распределения, определяемая формулой Yt = U3/a3, где \i3 - третий центральный момент, а a - дисперсия распределения. Для симметричного распределения с конечным третьим моментом yt =0. При yt >0 распределение имеет положительную асимметрию, а при yt < 0 - отрицательную.
P(k, 10, 1/5) i I I I P(k, 10, 4/5) J_L Графики биномиального распределения P(k, я, /?), соответствующего n= 10 испытаниям Бернулли: а - с положительной асимметрией (р = 1/5), б - с отрицательной асимметрией (/? = 4/5) На рис. приведены графики типичных дискретных распределений с соответственно положительным и отрицательным А. к. на примерах биномиального распределения с параметрами я = 0, р- 1/5 (рис., а) и /? = 4/5 (рис., б); для биномиального распределения yt = (1 - 2р)/^пр{\ - р). Выборочным коэффициентом асимметрии называется величина *=Л1;=1<*.->3. где jcj, ..., #„ - независимые случайные величины с одинаковой плотностью распределения, х и s - выборочные среднее и дисперсия. С. Я. Шоргин. АСИММЕТРИЧНЫЙ КАНАЛ (asymmetric channel) - см. Широковещательный канал. АСИММЕТРИЯ РАСПРЕДЕЛЕНИЯ (skewness of a distribution) - характеристика распределения, выражающая его отличие от симметричного. У симметричного распределения каждый конечный центральный момент нечетного порядка равен нулю. Любой такой момент, отличный от нуля, можно рассматривать как показатель асимметрии данного распределения. Наиболее употребительная мера асимметрии - асимметрии коэффициент. Предлагались и другие показатели асимметрии (см. [1]). А. р. положительна (отрицательна), если коэффициент асимметрии положителен (отрицателен). Для унимодального распределения, имеющего плотность, в случае положительной (отрицательной) А. р. более «длинная» часть кривой, выражающей график плотности, находится правее (левее) моды. Лит.: [1] Крамер Г., Математические методы статистики, пер. с англ., 2 изд., М., 1975. ч С. Я. Шоргин. АСИМПТОТИЧЕСКАЯ ДОПУСТИМОСТЬ Ъчатистиче- ского критерия (asymptotic admissibility of a statistical test) - см. Допустимость статистического критерия. АСИМПТОТИЧЕСКАЯ ПЛОТНОСТЬ множества (asymptotic density of a set) - см. Вероятностная теория чисел. АСИМПТОТИЧЕСКАЯ ТЕОРИЯ ОЦЕНИВАНИЯ (asymptotic estimation theory) - раздел теории статистического оценивания, посвященный исследованию асимптотических свойств оценок при неограниченно увеличивающемся объеме выборки, уменьшении уровня шума и т. д. 1. Наибольшее развитие А. т. о. получила в задачах оценивания тех или иных характеристик генерального распределе- „ия по выборкам х„ = (^ ^ (1) объем п к-рых можно неограниченно увеличивать. С общей точки зрения в этом случае результаты теории имеют вид предельных (я-><») теорем. Неудивительно поэтому, что при исследовании задач А. т. о. существенную роль играют клас- сич. предельные теоремы теории вероятностей (закон больших чисел, центральная предельная теорема), а в более сложных случаях - и предельные теоремы для случайных процессов. В применении к (1) оценки той или иной характеристики Т = Т(9) генерального распределения 9 суть функции Tn(Xv ..., Хп) наблюдений (1), так что в значительной степени А. т. о. есть теория предельного поведения статистик Tn(Xv ..., Хп) при я->оо. Особое значение придается, конечно, исследованию асимптотич. поведения разностей Тп - Т. Пример 1. Пусть по наблюдениям (1) оцениваются моменты ау/ = ау/(&>) = ЕХ\. В силу закона больших чисел выборочные моменты av = — Y"_ Xj сходятся по вероятности к сц, (точнее, P^{\civ(9)-av\ >8}->0), а распределения нормированных разностей ^п(а*-ay)~1^2(flv-otv) сходятся, как следует из центральной предельной теоремы, к стандартному нормальному распределению. Пример 2. Пусть по выборке (1) с плотностью распределения fix) оценивается р-я квантиль С. В качестве оценки С можно употребить выборочную квантиль гр. Распределение нормированной разности Vn/4C)(p(l -p))~^2(z«-О сходится к стандартному нормальному распределению. П р и м е р 3. Пусть F (х) = P{Xt < х) непрерывна, а Fn (х) - построенная по выборке (1) эмпирич. функция распределения. Тогда Fn() сходится к F(-) в С(-°°, °°) с вероятностью 1, а распределение нормированной разности Jn(Fn(х) -Fix)) сходится в С(-°°, <*>) к распределению нормального случайного процесса w(х) с независимыми приращениями, и E\w(х)\ = = F(x)(\-F(x)). 2. Первоначальную постановку задач А. т. о. можно охватить следующей общей схемой. Вместо выборок Хп рассматривается некая совокупность наблюдений Хе, зависящих от абстрактного параметра е. Случайная величина Хе принимает значения в измеримом пространстве {5Ге, SCJ и имеет распределение вероятностей 9\ из семейства {9%, бе 0}, 0 - заданное параметрич. множество. Оценке по наблюдению Хе подлежит неизвестный параметр 9 или значение Ф(в) функции Ф в точке 6. Оценками служат статистики Те(Хе). Асимптотич. задачи оценивания возникают, когда рассматривается предельное поведение оценок Те при меняющемся е. Для определенности ниже считается, что е>0, и рассматривается асимптотич. поведение статистики Те при е -> 0; вообще же можно считать, что на множестве {е} элементов е задан фильтр, и рассматривать предел по этому фильтру. Обычно (хотя и не обязательно) в задачах А. т. о. меры 9* и 9% при разных значениях параметра и и v в пределе е -> 0 сингулярны. АСИМПТОТИЧЕСКАЯ 21
Пример 4. В условиях примеров 1-3 Хе = Хп можно положить е = п~ . Пример 5. Пусть наблюдение Хе есть fc-мерный гауссов- ский вектор: Хе = в + е£, (2) где 6e0clR - неизвестный параметр, а £-6-мерный стандартный гауссовский вектор. Асимптотич. задачи возникают, когда интенсивность помех е -> 0. Бесконечномерный вариант этой задачи естественно рассматривать в следующем виде: наблюдение Хе = Хе(0 есть случайный процесс dXe(t) = SU)dt + edwU), O^^l, (3) где неизвестный функциональный параметр S elc L2(0, 1), а w - винеровский процесс. Прикладные задачи теории оценивания носят, как правило, неасимптотич. характер. С точки зрения таких задач дело А. т. о. указать хорошие приближения, когда «точные» решения выглядят слишком сложно. Но А. т. о. имеет и большое познавательное значение. Как и в теории вероятностей вообще, многие закономерности статистич. теории оценивания носят асимптотич. характер и в полной мере проявляются лишь в предельных теоремах А. т. о. 3. Пусть наблюдения Хе с распределениями {Р|, Ое0} используются для оценки значения Ф(6) известной функции Ф в неизвестной точке в (в частности, для оценки в). Задача А. т. о. состоит в указании способов построения таких оценок Те для Ф(0), к-рые при е->0 в том или ином смысле неограниченно сближаются с Ф(в) (состоятельные оценки). Ниже для определенности состоятельность Тг будет означать сходимость Те к Фе по Р|-вероятности. Пример 6. Пусть наблюдения имеют вид (1). Примеры 1-3 доставляют состоятельные оценки для dv, JL, F. Из результатов примера 3 следует один общий метод построения состоятельных оценок. Если оцениванию подлежит g(F), F - неизвестная функция распределения X.-, то при широких предположениях состоятельными оценками будут статистики g(Fn). Пример 7. В условиях примера 5 Хе - состоятельная оценка для в, а Хе(0 - для J S(u)du. Примерв. Пусть наблюдение Хт есть отрезок реализации эргодич. стационарного процесса X(t), O^t^T, с неизвест- —1 С Т ным средним т. Тогда ХТ = Т '^ X(t)dt- состоятельная оценка для m, T -> <*>, а Г _1Jor \X(t + x)-XT)(X(t)-XT)dt- состоятельная оценка для корреляционной функции R(x), т>0. Среди общих методов А. т. о. отыскания состоятельных оценок - моментов метод, наименьших квадратов метод, бейе- совские оценки и, пожалуй, наиболее популярный метод - максимального правдоподобия метод. В общих чертах последний сводится к следующему: если все меры Р| абсолютно непрерывны относительно общей меры ve, то метод максимума правдоподобия рекомендует принять в качестве оценки в оценку максимального правдоподобия - точку максимума 8е случайной функции dP£ РЛи) = -±-(ХЛ и ев. dve Если 0 cz В? , то в широких предположениях ве - состоятельная оценка 6. 22 АСИМПТОТИЧЕСКАЯ Пример 9. Пусть в наблюдениях X = (Xt, ..., ХТ) величины Xj образуют процесс авторегрессии 1-го порядка X: = 6Х _t + L, где IL- - независимые N (0, а ) случайные величины, а неизвестный параметр ве (—1,1). При Г->о° оценка максимального правдоподобия 8Г в первом приближении равна Пример 10. Очевидным образом в (2) величина Хе есть оценка максимального правдоподобия для в и Хе->в, е-»0. Пусть в (3) S = S(£;6), неизвестный параметр Oe0c:IR. Оценка максимального правдоподобия определяется из уравнения максимального правдоподобия: 4- [Y S(t,Q)dXe(t)-± f S2(t;Q)dt] = 0, dQ LJo 2 JO J и если, напр., S(t;Q) = QS(t)} 6ell?, то 6t =[/; S2(t)dt ^S(t)dXe(t) = Q + o(\). Разумеется, сама по себе состоятельность статистики Тг как оценки Т не дает еще представления о величине возможных ошибок, возникающих от замены Т на Тг. Поэтому важной задачей А. т. о. является оценка скорости убывания вероятностей Р|{ |7" — 7"Е| > 5} при £->0. Естественный путь решения этой задачи - исследование асимптотич. поведения моментов ЕЦТ-Г^*, Eq exp {b\T-Te\a} с последующим использованием неравенства Чебышева. Пример 11. Пусть в (1) случайные величины X. принимают значения 0, 1 с вероятностями 1 — в, в соответственно. Оценка максимального правдоподобия состоятельна, Е$п = в и De8„ = п в( 1 - 8) ^ (4и)-1, а по неравенству Бернштейна даже Ре{ 18„ - в | > 6} ^ 2 ехр {- 2пЪ }. Ср. также примеры 1-10. 4. Следующий этап асимптотич. поведения оценок Те величины Т после того, как установлена их состоятельность, состоит в изучении асимптотич. свойств распределения разности Те - Т. Сходимость распределений нормированных разностей а(г)(Тг- Т) может быть использована для построения асимптотич. доверительных интервалов и асимптотич. критериев. Наличие предельного распределения у разности д(е)(Ге- -Т), конечно, куда более сильный результат, чем просто состоятельность Те, и доказательство подобных результатов довольно сложно. При этом приходится использовать специ- фич. структуру статистич. эксперимента {Жг, ЗС6, Р|, веб}, связанного с наблюдением Хе (независимость наблюдений, марковость, стационарность и т.д.). Для определенности далее рассматривается важнейший случай наблюдений (1). Для ряда задач предельные распределения разностей Те-Т можно получить, используя классич. предельные теоремы (пример 1), предельные теоремы для порядковых статистик (пример 2), принцип инвариантности (пример 3). Исходя из результатов примеров 1-3, можно указать предельное распределение статистик вида Ф(яу, а^, ...), Ф(гр, zq, ...), Ф( Fn) - для этого нужно написать тейлоровское разложение по степеням av-cty, ..., zp-£>p и ограничиться линейными членами. В общем случае оценка Ге( Хе) есть сложная функция наблюдения и изучение распределения разностей Тг-Т приводит к новым классам предельных теорем. Важный класс составляют оценки максимального правдоподобия. Пусть на-
блюдения имеют вид (1), причем все случайные величины X принимают значения в нек-ром измеримом пространстве {9С, %) и имеют там плотность распределения fix; 6) относительно нек-рой меры \i. Неизвестный параметр в е 0 с И? . Пусть семейство плотностей {fix; 6)} удовлетворяет определенным условиям регулярности, к-рые определяются гладкостью семейства {/"( •; в)} и по существу сводятся к требованию существования информации Фишера / (в) = J , -j— -rj- —тЧ . В этих условиях предельное распределение V/Г (8„ - 6) нормально со средним, равным нулю, корреляционной матрицей /~ (в) и \Р >^(ё„-е) ► ВД'\ ^еМв, ГЧв)), р>0. Нек-рое представление о том, почему подобный результат должен иметь место, дают следующие выкладки. Оценка максимального правдоподобия есть точка максимума случайной функции и, значит, ее стационарная точка. Поэтому Л(ё„-е) = гНв)п-^2У". ± \nf(x.; е) + о(О. Пример 12. Пусть оцениваемый параметр 6 е 0 cr IP есть параметр сдвига, то есть fix; Q) = fix-Q). Если интеграл Iie) = I = j^\f'ix)\2f-*ix)dx конечен, разность VrT(8„-6) асимптотически нормальна (0, 7-1). Если интеграл / расходится, то предельное распределение 6„-8, вообще говоря, отлично от нормального, а нормирующий множитель имеет другой порядок, чем V/Г. Пусть, напр., fix) = iria)V*xa~*e~x, x>0. Тогда при а > 2 / < ©о и нормированная разность я'а(8„-8) асимптотически нормальна (О, Г ). При 1^а<2 нормированная разность я'а(8„-6) имеет собственное предельное распределение, отличное от нормального. Пример 13. Пусть X,- имеет нуассоновское распределение с неизвестным параметром X, а оцениваемый параметр в = Х~ . Оценка максимального правдоподобия 6„ = (я-1 £"_ X.-]1 и разность Vw~(6„ - 8) асимптотически нормальна (0, 8 ), но дисперсия 8„ бесконечна. Налагая на плотность fix; 8) дополнительные ограничения и требуя более высокой гладкости fi •; 8), можно в свою очередь усилить результаты относительно предельного поведения распределения разностей Vw~(6„ - 8): написать асимптотич. разложения для функций риска Ее / (Vw~(6„ - 8)) и указать асимптотику вероятностей больших уклонений. 5. Переход к асимптотич. постановкам задач оценивания позволяет не только заменить сложные допредельные распределения сравнительно простыми универсальными предельными распределениями, но также определить разумным образом оптимальные (в асимптотич. смысле) оценки. Пусть, напр., качество оценки Тг параметра 8 е 0 а II? измеряется функцией риска Е| leiTe; 8). Естественное желание определить асимптотически оптимальные оценки Те как те оценки, для к-рых функция риска Е| /е(Ге; 8) была бы асимптотически минимальна равномерно по 8, наталкивается на проблему существования сверх эффективных оценок (грубо говоря, любую оценку Те можно существенно улучшить в нескольких отдельных точках 8). При этом зависимость функции потерь /е от е неизбежна, поскольку необходимо учитывать сближение Те с 8 при е -> 0. Пусть для простоты рассматривается случай k (TEi 8) = / (ф(е) | ТЕ - б|), где ф(е) - нормирующий множитель. Оценка 6е называется асимптотически эффективной (асимптотически оптимальной) в точке 8, если lim lim 5->о е->о inf sup Е*/(ф(е)(7; те |н-е|<5 ■«))- - sup EJ |«-е|<5 ' /(ф(е)(8е - и)) = 0. Суть этого определения в том, что оно не требует от оптимальной оценки быть равномерно асимптотически наилучшей, а лишь локально асимптотически минимаксной. Это небольшое смягчение требований к определению оптимальности уже позволяет в широком классе случаев доказать существование асимптотически эффективных оценок и указать их конструкцию. В регулярном случае важную роль при исследовании асимптотич. эффективности оценок играет условие локальной асимптотич. нормальности и основанные на нем неравенства Гаска - Ле Кама, позволяющие установить границы точности оценивания снизу. Предельные теоремы для разностей Тг-Т (см. п. 4) позволяют тогда выделить асимптотически эффективные оценки. Пусть, напр., наблюдения имеют вид (1) и выполнены условия регулярности п. 4 (грубо говоря, существует информационная матрица Фишера). Тогда, во-первых, для любых оценок Тп параметра 8 и широкого класса функций потерь / ^ 0 имеет место lim lim sud 5_>о я->оо|е-«|<5 где случайный вектор £еЖ0, /~ (8)), во-вторых (см. п. 4), для оценки максимального правдоподобия 6„„ выполнено lim E/(Vw~(6„ - 8)) = Е/(£), и оценки максимального правдопо- п добия асимптотически эффективны, причем сразу по отношению ко всем функциям потерь. Асимптотически эффективными в этом случае будут и бейесовские оценки. Таким образом, в условиях регулярности имеет место замечательный факт: произвол в выборе функций потерь с асимптотич. позиций ни к каким неприятностям не приводит. Нарушение условия регулярности резко меняет ситуацию. Оценки максимального правдоподобия перестают быть асимптотически эффективными. Класс асимптотически эффективных оценок существенно зависит от выбранной функции потерь. Уже в простейшем случае экспоненциального на [0, <»] распределения Xj (пример 12, d = 0) асимптотически эффективна относительно / в X оценка 8* = min X.- + Х/п, где X - точка минимума функции J lis + u)e~udu. В случае регулярных задач, как только что отмечалось, многие оценки (бейесовские, оценки максимального правдоподобия) асимптотически эффективны, то есть приводят к одинаковым в первом члене асимптотич. выражениям для функции риска Efl/ 0/я~(8„ - 8)). При дальнейшем усилении условий регулярности возможно сравнение следующих членов функций риска (асимптотич. эффективность 2-го порядка). 6. Имеются причины, заставляющие в ряде случаев предпочесть асимптотически эффективные оценки предыдущего пункта другим, сближающимся с оцениваемым параметром, быть может, медленнее, но зато обладающим рядом других преимуществ: простота вычислений, универсальность, устойчивость относительно возмущений модели. АСИМПТОТИЧЕСКАЯ 23
Пример 14. Пусть по наблюдениям (1) оценивается параметр сдвига, то есть Pe{^i -x} = F(x -в). Если F - нормальное распределение, то статистикаХ = я-1 £"_ X,- будет асимптотически эффективной оценкой; если F - распределение Коши, то X даже не будет состоятельной. В обоих случаях медиана z ' состоятельна и разность Jn(z ' -в) асимптотически нормальна. Но в случае нормальных F (пример 2) Ее|л/л~0Г-е)|2=1, а Ев|л/л~(21/2-в)|2 = я(1 +о(1))/2 (пример 2). В более общей, чем в примере 14, ситуации, когда оценке подлежит вообще центр симметричного распределения, используют усеченное среднее (выкинуты определенные доли больших и малых наблюдений), линейные комбинации порядковых статистик, М-оценки. В широких предположениях все эти оценки, скажем Тп, таковы, что разности асимптотически нормальны. 7. В классич. А. т. о. предполагается, что размерность пара- метрич. множества 0 ограничена, тогда как объем выборки п растет. На самом деле, напр., Ee|V/T(8„-6)|2 линейным образом зависит от размерности, и потому в использовании метода максимального правдоподобия появляются серьезные трудности, если размерность k велика. Таким образом, возникают новые задачи А. т. о., когда вместе с объемом выборки п размерность fc = fc(n)->°°, напр., так, что 6(я)/я->0 или Ня)/яХ1. Возможно, что уже с самого начала размерность парамет- рич. множества 0 бесконечна. Этот круг задач оценивания уже относится по существу к теории непараметрического оценивания. Один из распространенных методов построения состоятельных оценок для в заключается в следующем. Множество 0 аппроксимируется множеством 0е, причем способ аппроксимации /:0->0е выбирается так, чтобы diam/~ (6e)^8(e)l0, а аппроксимирующее множество было таким, чтобы задача статистич. оценивания его элементов допускала сравнительно простое решение. Оценка элемента из 0е принимается за оценку исходного параметра 6. Таким образом, приходится решать две асимптотич. задачи: теории аппроксимации и собственно теории оценивания. Пример 15. Пусть по наблюдениям (1) оценивается неизвестная плотность распределения fix) величин X. в IR и /"е I, где I - заданный класс плотностей. В качестве аппроксимирующего множества I выбирается множество функций вида aj~ooH(b(x-y))f(y)dy,a = a(n), b = b(n),H - подходящим образом подобранное ядро. Тогда элементы из Е„ оцениваются посредством а \_ Н (Ь(х - y))d F п(у) (ядерная оценка). Лит.: [1] Боровков А. А., Математическая статистика, М., 1984; [2] Ибрагимов И. А., Хасьми некий Р. 3., Асимптотическая теория оценивания, М., 1979; [3] Кендал л М., Стьюарт А., Статистические выводы и связи, пер. с англ., М., 1973; [4] их же, Многомерный статистический анализ и временные ряды, пер. с англ., М., 1976; [5] Крамер Г., Математические методы статистики, пер. с англ., 2 изд., М., 1975; [6] Ченцов Н.Н., Статистические решающие правила и оптимальные выводы, М., 1972; [7] Grenander U., Abstract Inference, N. Y.- [а. о.], 1981; [8] Le Cam L., Asymptotic Methods in Statistical Decision Theory, N. Y.-[a. o.], 1986; [9] Leh- mann E., Theory of Point Estimation, N. Y.- [a. o.], 1983. И. А. Ибрагимов. АСИМПТОТИЧЕСКАЯ УСТОЙЧИВОСТЬ по вероятности (asymptotic stability in probability) - см. Устойчивость дифференциальных уравнений со случайными определяющими элементами. 24 АСИМПТОТИЧЕСКАЯ АСИМПТОТИЧЕСКАЯ ЭФФЕКТИВНОСТЬ критерия (asymptotic efficiency of a test) - понятие, позволяющее осуществлять в случае больших выборок количественное сравнение двух различных статистических критериев, применяемых для проверки одной и той же статистической гипотезы. Необходимость измерять эффективность критериев возникла в 30-40-х гг. 20 в., когда появились простые, с точки зрения вычислений, но «неэффективные» ранговые процедуры. Существует несколько различных подходов к определению А. э. Пусть распределение наблюдений Ре определяется действительным параметром в и требуется проверить гипотезу Я0: в = в0 против альтернативы Н\: в * 60. Пусть также нек-ро- му критерию с уровнем значимости а требуется N\ наблюдений для достижения мощности р против заданной альтернативы в, а другому критерию того же уровня значимости требуется для этого N2 наблюдений. Тогда можно определить относительную эффективность первого критерия по отношению ко второму формулой e12 = Af2/N1. Понятие относительной эффективности дает исчерпывающую информацию при сравнении критериев, но оказывается неудобным для применения, поскольку величина е12 является функцией трех аргументов: а, р и 6 и обычно не поддается вычислению в явном виде. Для того чтобы обойти эту трудность, используют предельные переходы. Величина lim e12(a, р, в) при фиксированных аир (если е->е0 этот предел существует) называется асимптотической относительной эффективностью по Питмену; аналогично определяются асимптотическая относительная эффективность по Бахадуру, когда при фиксированных р и в устремляют к нулю а, и асимптотическая относительная эффективность по Ходжесу-Леману, когда при фиксированных айв вычисляют предел при р -> 1. Каждое из этих определений имеет свои достоинства и недостатки. Так, напр., асимптотич. относительная эффективность по Питмену вычисляется обычно легче, чем асимптотич. относительная эффективность по Бахадуру (вычисление последней связано с нетривиальной задачей изучения асимптотики вероятностей больших уклонений тестовых статистик), однако в ряде случаев оказывается менее чувствительным средством для сравнения двух критериев. Пусть, напр., наблюдения распределены по нормальному закону со средним в и дисперсией 1 и проверяется гипотеза Я0:6 = 0 против альтернативы Я1:6>0. Рассматриваются критерии значимости, основанные на выборочном среднем X и дроби Стьюдента t. Поскольку ^-критерий не использует информации о величине дисперсии, он должен проигрывать оптимальному критерию, основанному на X. Однако с точки зрения асимптотич. относительной эффективности по Питмену эти критерии эквивалентны. С другой стороны, асимптотич. относительная эффективность по Бахадуру ^-критерия по отношению к X строго меньше 1 при любом в > 0. В более сложных случаях асимптотич. относительная эффективность по Питмену может зависеть от а или р и ее вычисление оказывается очень трудным. Тогда вычисляют ее предельное значение при р -> 1 или а -► 0. Последнее обычно совпадает с предельным значением асимптотич. относительной эффективности по Бахадуру при в -> в0. О других подходах к определению асимптотич. относительной эффективности см. в [2], [4], [7], [9], последовательные аналоги понятия асимптотич. относительной эффективности введены в [5], [6]. Выбор того или иного определения асимп-
тотич. относительной эффективности должен основываться на том, какая из них дает более точное приближение к относительной эффективности еп> однако в настоящее время в этом направлении известно очень немногое (см. [10]). Лит.: [1] Кендалл М., Стьюарт А., Статистические выводы и связи, пер. с англ., М., 1973; [2] Bahadur R., «Ann. Math. Statist.», 1967, v. 38, К» 2, p. 303-24; [3] Hodges J., Lehmann E., там же, 1956, v. 27, № 2, p. 324-35; [4] Никитин Я. Ю., Асимптотическая эффективность непараметрических критериев, М., 1995; [5] Lai L., «Ann. Statist.», 1978, v. 6, M> 5, p. 1027-47; [5] Berk R., Brown L., там же, 1978, v. 6, X° 3, p. 567-81; [7] Kallenberg W., там же, 1982, v. 10, Ко 2, p. 583-94; [8] Wieand H., там же, 1976, v. 4, X° 5, p. 1103-11; 19] Kallenberg W., там же, 1983, v. 11, JMb 1, p. 170-82; [10] Groene- boom P., Oosterhoff J., «Int. Statist. Rev », 1981, v. 49, X° 2, p. 127-41. Я.Ю. Никитин. АСИМПТОТИЧЕСКАЯ ЭФФЕКТИВНОСТЬ ОЦЕНОК по Бахадуру (Bahadur asymptotic efficiency of estimators) - одно из определений асимптотической эффективности в теории оценивания, предложенное Р. Бахадуром [1]. В его основе лежит идея измерения асимитотич. эффективности степенью концентрации оценки в интервале фиксированной длины с центром в истинном значении параметра. Для вычисления меры асимптотической эффективности по Бахадуру необходима грубая асимптотика вероятностей больших уклонений оценки. При определенных условиях регулярности оценки максимального правдоподобия асимптотически эффективны по Бахадуру. фЛит.: [1] Bahadur R., «Sankhya», 1960, v. 22, № 3-4, p. 229- 52; [2] Шметтерер Л., Введение в математическую статистику, пер. с нем., М., 1976; [3] Ибрагимов И.А., Хасьминский Р.З., Асимптотическая теория оценивания. М., 1979. Я.Ю. Никитин. АСИМПТОТИЧЕСКАЯ ЭФФЕКТИВНОСТЬ ОЦЕНОК по Вольфовицу (Wolfowitz asymptotic efficiency of estimators) - одно из определений асимптотической эффективности в теории оценивания, предложенное Дж. Вольфовицем [1]. При этом к рассмотрению допускается класс оценок, чьи распределения равномерно сходятся к предельному закону, к-рый может быть отличен от нормального. Последовательность оценок {в„} одномерного параметра в называется асимптотически эффективной по Вольфовицу, если для любых Ъ > 0 величина lim Pe{6„ е (в - ЬаГ1/2, в + Ьл~1/2)} n-*°° принимает наибольшее значение по сравнению с любыми другими оценками этого класса. При широких условиях регулярности оценки максимального правдоподобия и бейесовские оценки асимптотически эффективны в смысле этого определения. Лит.: 11] Wolfowitz J., «Теория вероятн. и ее иримен.», 1965, т. 10, № 2, с. 267-81; [2] Weiss L., Wolfowitz J., Maximum probability estimators and related topics, [B.-N. Y.], 1974; [3] Ибрагимов И. А., Хасьминский Р. 3., Асимптотическая теория оценивания, М., 1979. Я.Ю. Никитин. АСИМПТОТИЧЕСКАЯ ЭФФЕКТИВНОСТЬ ОЦЕНОК но Pao (Rao asymptotic efficiency of estimators) - одно из определений асимптотической эффективности в теории оценивания, предложенное С. Р. Рао в нач. 60-х гг. (см. [1], [2]). Оценка называется асимптотически эффективной по Рао, если фишеровская информация об оцениваемом параметре, содержащаяся в этой оценке, асимптотически совпадает с фишеровской информацией, содержащейся во всей выборке. При соблюдении определенных условий регулярности оценки максимального правдоподобия и бейесовские оценки являются асимптотически эффективными в смысле этого определения. Лит.: [1] Rao С. R., «J. Roy. Statist. Soc.», 1962, v. B24, X° 1, p. 46- 72; [2] Рао С. Р., Линейные статистические методы и их применения, пер. с англ., М., 1968; [3] Ибрагимов И.А., Хасьминский Р.З., Асимптотическая теория оценивания, М., 1979. Я. Ю. Никитин. АСИМПТОТИЧЕСКИ БЕЙЕСОВСКИЙ КРИТЕРИЙ (asymptotically Bayes test) - последовательность статистических критериев в асимптотической задаче проверки гипотез, асимптотически эквивалентная последовательности бейесов- ских критериев. Пусть рассматривается последовательность задач различения сложных гипотез: по наблюдаемой выборке Хп объема п с распределением Р„, е, зависящим от неизвестного параметра ве0, проверяется нулевая гипотеза Яо:ве0о против альтернативной гипотезы Я^беб^ здесь 0О и 0j - непустые непересекающиеся подмножества 0. В асимптотич. подходе с ростом п гипотезы Я0 и Н\ могут, вообще говоря, изменяться. Последовательность критериев {\|/„(Х„)} образует асимптотически бейесовский критерий, если существует последовательность критериев {<р„}, каждый критерий <р„(Х„|л„) в крой строится по выборке Хп и является бейесовским критерием относительно нек-рого априорного распределения кп, и такая, что выполняется соотношение lim sup |Е„Л(Хп)-Еп>в(рп(Хп|ж„)|=0. (•) Существуют различные модификации этого определения А. 6. к. Напр., иногда вместо (*) требуют, чтобы lim k<Vn>-^<q>,,<-l*,,)>l=o, где гп (<р„) - априорный риск критерия <р„ при априорном распределении кп. Другие определения приведены, напр., в [1]. Важное свойство А. б. к. заключается в том, что при достаточно общих условиях на семейство распределений выборки и условий на гладкость априорных распределений {пп} А. б. к. не зависит от этой последовательности априорных распределений и этот А. б. к. асимптотически эквивалентен отношения правдоподобия критерию (к-рый, тем самым, является примером А. б. к.). Иногда построение А. б. к. удается свести к построению бейесовского критерия в нек-рой предельной задаче проверки гипотез, определяемой исходной последовательностью задач. Лит.:[\] Боровков А. А., Математическая статистика, М., 1984; [2] Lindley D., в кн.: «Proc. 4-th Berkeley symp. math, statist, probab.», v. 1, Berk., 1961, p. 453-68. А. В. Бернштейн. АСИМПТОТИЧЕСКИ МИНИМАКСНАЯ ОЦЕНКА (asymptotically minimax estimator) - статистическая оценка параметра, предел максимума риска крой при соответствующей нормировке минимален в классе всех оценок. Пусть в„ - оценка неизвестного параметра в, принадлежащего множеству 0<zlR , края построена по выборке объема п. Оценка в„ называется асимптотически минимаксной на множестве 0, если для любой другой оценки в* выполняется соотношение lim sup sup Ee[Vw"(e„-G)]2^lim inf sup Ee[Vw~ (6*- 6)J2. я->°° 9е0 я->°° 9е0 При широких условиях регулярности свойством асимптотич. минимаксности обладают оценки максимального правдоподобия. Существуют различные обобщения понятия асимптотич. минимаксности, в частности для векторного параметра и в последовательном анализе. Лит.:[\] Боровков А. А., Математическая статистика, М., 1984; [2] Ибрагимов И. А., Хасьминский Р. 3., Асимптотическая теория оценивания, М., 1979; [3] Wald А., в кн.: «Proc. 2-th Berkeley symp. math, statist, probab.», Berk., 1951, p. 1-11. я. Ю. Никитин. АСИМПТОТИЧЕСКИ МИНИМАКСНЫЙ КРИТЕРИЙ (asymptotically minimax test) - последовательность статистических критериев в асимптотической задаче проверки статистических гипотез, асимптотически эквивалентная последовательности минимаксных критериев. Пусть Хп - наблюда- АСИМПТОТИЧЕСКИ 25
емая случайная выборка объема п с распределением, зависящим от неизвестного параметра 6 е 0. Рассматривается последовательность задач (отвечающих различным п) проверки гипотез: по выборке Хп проверить нулевую гипотезу #0:6 е 0О против альтернативной гипотезы Нх :6е01 (эти гипотезы могут, вообще говоря, изменяться с ростом я). Пусть ф„(Хя) - минимаксный критерий уровня а„, построенный по выборке Хп. Последовательность критериев {у„(Х„)} образует асимптотически минимаксный критерий уровня а, если а„ -> а при п -> <» и lim sup \Еп^п(Хп)-Еп^п(Хп)\=0. (») Существуют и другие определения А. м. к., в к-рых условие (*) заменяется условием liml inf E„e\|/n(X„)- sup inf Е„>еф„(Х„)| = 0, где Ka = {{q>n}:hmmf sup E„>e<p„(Xw) ^а}. Я-Юо ве0о При достаточно общих условиях А. м. к. является отношения правдоподобия критерием в задаче проверки сложных гипотез. Лит.: [ 1 ] Боровков А. А., Математическая статистика, М., 1984; [2) Боровков А. А., Саханенко А. И., в сб.: Предельные теоремы теории вероятностей и смежные вопросы, Новосиб., 1982, с. 79-90. А. В. Бернштейн. АСИМПТОТИЧЕСКИ НАИБОЛЕЕ МОЩНЫЙ КРИТЕРИЙ (asymptotically most powerful test) в данном классе - последовательность статистических критериев в асимптотической задаче проверки статистических гипотез, имеющая наибольшую асимптотическую мощность (при фиксированной альтернативе) среди всех последовательностей критериев из данного класса. Пусть Хп - повторная выборка объема п из распределения, зависящего от неизвестного параметра 6е0. По этой выборке проверяется нулевая гипотеза #о:6е0о против альтернативы Нх: в е 0t = 0\0О. Последовательность критериев {\|/„} еК называется асимптотически наиболее мощным критерием в классе К последовательностей критериев в точке 6j e 0t, если для любой последовательности критериев {<р„} е К выполнено соотношение lim sup Е„в(ф„-у„)^0. В качестве класса К могут выступать последовательности критериев {<р„} асимптотич. уровня значимости а, для к-рых lim sup Е„вф„^а, или последовательность асимптотически несмещенных критериев уровня значимости а. При простой нулевой гипотезе А. н. м. к. существует всегда - достаточно в качестве уп при каждом п выбирать критерий Неймана - Пирсона уровня а. Если построенная последовательность критериев {у„} е К является А. н. м.к. сразу для всех значений 6^0^ то эта последовательность критериев называется асимптотически равномерно наиболее мощным критерием. а. В. Бернштейн. АСИМПТОТИЧЕСКИ НАИБОЛЕЕ МОЩНЫЙ НЕСМЕЩЕННЫЙ КРИТЕРИЙ (asymptotically most powerful unbiased test) - асимптотически наиболее мощный критерий в классе асимптотически несмещенных критериев. А. В. Бернштейн. 26 АСИМПТОТИЧЕСКИ АСИМПТОТИЧЕСКИ НЕСМЕЩЕННАЯ ОЦЕНКА (asymptotically unbiased estimator) - сокращенный вариант термина «последовательность асимптотически несмещенных оценок», применяемый к последовательности оценок неизвестного параметра, к-рой соответствует сходящаяся к нулю последовательность смещений. Пусть {Тп} - последовательность статистич. оценок параметра в е 0, и пусть Ь„(6) = ЕвГ„ - в, п = 1, 2, ... ,- смещение оценки Тп. Если Ьп(в) -► 0 для любого ве0, когда п->°°, то {Тп} называется последовательностью асимптотически несмещенных оценок параметра в. Любая последовательность несмещенных оценок параметра в удовлетворяет этому определению. Пример. Пусть X=(Xt, ..., Хп) - выборка, компоненты к-рой суть независимые случайные величины, подчиняющиеся нормальному закону с параметрами а - EXif a2 = DX,. Тогда {s2n}, где является последовательностью А. н. о. параметра а , ибо для любого а bn(o2) = Es2n-o2 = -а2/я->0 при неограниченном увеличении объема п выборки X. Лит.: [11 Крамер Г., Математические методы статистики, пер. с англ., 2 изд., М., 1975; [2] Воинов В. Г., Никулин М. С, Несмещенные оценки и их применения, М., 1989. М. С. Никулин. АСИМПТОТИЧЕСКИ НЕСМЕЩЕННЫЙ КРИТЕРИЙ (asymptotically unbiased test) - последовательность статистических критериев в асимптотической задаче проверки статистических гипотез, мощность к-рых асимптотически не меньше их уровня значимости. Пусть Хп - повторная выборка объема п с распределением, зависящим от неизвестного параметра 6 е 0. Рассматривается последовательность задач (отвечающих различным ?г) проверки гипотез: по выборке Хп проверить гипотезу Яо:6е0о против альтернативы Я1:6e0j = 0\0O. Последовательность критериев {\уп} называется асимптотически несмещенным критерием, если справедливо соотношение lim sup Isup E„e\|/„- inf E„eyj^0. n-»°° 9e0o 9e01 Понятие А. н. к. является асимптотич. аналогом статистич. процедуры, обладающей свойством несмещенности. Лит.: [1] Русас Дж., Контигуальность вероятностных мер. Применения к статистике, пер. с англ., М., 1975; [2] Боровков А. А., Математическая статистика, М., 1984. А. В. Бернштейн. АСИМПТОТИЧЕСКИ НОРМАЛЬНАЯ ОЦЕНКА (asym- ptotically normal estimator) - статистическая оценка параметра, распределение к-рой при должной нормировке стремится к нормальному с ростом объема выборки. Пусть, напр., ХХу ..., Хп - выборка, элементы к-рой удовлетворяют условиям ЕХг = в, DA'; = a , ЕХ{ <°°. Тогда выборочное среднее X = — £"_ Х{ и выборочная дисперсия s = = —V"_ {Xi -X) являются А. н. о. параметров в и а2. Это вытекает из того факта, что двумерный случайный вектор {л/ЙХ-е), Vw~(s2-a2)} имеет асимптотически нормальное двумерное распределение с нулевым вектором средних и матрицей вторых моментов где^ = Е(Х1-вА Лит.:[\] Боровков А. А., Математическая статистика, М., 1984; [21 Ибрагимов П. А., Хасьминский Р. 3., Асимптотическая теория оценивания, М., 1979. Я. Ю. Никитин.
АСИМПТОТИЧЕСКИ НОРМАЛЬНОЕ ПРЕОБРАЗОВАНИЕ (asymptotic normal transformation) - преобразование случайных величин, улучшающее сходимость к нормальному закону. Пусть Р(ХЯ<1)^,,И-»ФЫ при и-><*>, Ф(х) - функция стандартного нормального распределения. Для нахождения достаточно простых функций ип(х), обладающих тем свойством, что распределение ип(Хп) < ближе» к нормальному, чем распределение Хп, рассматривают асимптотич. разложение вида ^Ы=фЬ) + фЫ^и1 Рк (*) п "1/2+ О (п~{г+и/2), ф(х)=Ф'(г), 1де Pk(x) - многочлены от х, и строят обращение этого разложения y(x) = 0^[Fn(x)\=x + Yk=]Qk(*)»-k/2+O(n-<r+»/2) (условия, при к-рых справедливы эти разложения, указаны в [1], [2]). Если положить Un(x) = x + Yk^Qk(*)n-k/2+0(r,-(-r+^2), 1 огда Р{ип(Х„) <х} = Ф(х) + 0(гГ{г f 1 )/2) при и->°°. Пример А. н. п. - Вильсона - Хилферти преобразование. Лит.: [1] Большее Л. Н., «Теория вероятн. и ее примен.», 1959, т. 4, Jv> 2, с. 136-49; [2] Wasow W., «Proceeding of symposia in applied mathematics», 1956, v. 6, p. 251-59. В. И. Пагурова. АСИМПТОТИЧЕСКИ ОПТИМАЛЬНЫЙ КРИТЕРИЙ (asymptotically optimal test) - последовательность статистических критериев в асимптотической задаче проверки статистических гипотез, доставляющая экстремум (в рассматриваемом классе) нек-рому функционалу, характеризующему эффективность решения задачи. А. о. к. является частным случаем асимптотически оптимальной процедуры применительно к задаче проверки гипотез. Понятие А. о. к. должно в каждом конкретном случае уточняться: о какой именно асимптотич. оптимальности идет речь. Конкретными примерами А. о. к. являются асимптотически бейесовский критерий, асимптотически равномерно наиболее мощный критерий, асимптотически минимаксный критерий и др. А. В. Бернштейн. АСИМПТОТИЧЕСКИ ПИРСОНОВСКОЕ ПРЕОБРАЗОВАНИЕ (asymptotic Pearson transformation) - преобразование случайных величин, улучшающее сходимость к предельному распределению, принадлежащему семейству Пирсона распределений. А. п. п. - обобщение асимптотически нормального преобразования. Пусть, при t -> оо P{X<x} = F(x, 0->Ф(х) и Ф(х) принадлежит семейству кривых Пирсона. При нек-рых условиях регулярности, налагаемых на функцию плотности величины X, можно построить разложение Fix, 0 = ФЫ + ф(^=1^(л)^+О(^Г+1). где ф (х) = Ф' (х), Pk (x) - нек-рые многочлены, а также получить обращение этого разложения у(х) = Ф ][F(x, t)] = yrix) + 0(tr+l), yr{x)=x + ^k=xSk{x)tk, так что если и, (.г) =■ yr(x) + Q(tr+ ), то при t -> О P{ur(X)<x} = <t>(x) + 0(tr + *). Напр., если X имеет бета-распределение с параметрами (р, q), t = \/q -> 0, р = const, то Fix, t) = I(x,p) + OU), где / ix, р) - функция гамма-распределения с параметром р. Если u{(x) = x/[\-s(x + p-\)], s = t/[2 + tip-\)\, то Р{щ(Х) <х} = Их, p) + 0 is2) при 5 -> 0. Лит.:[\] Большев Л. Н., «Теория вероятн. и ее примен.», 1963, т. 8, № 2, с. 129-55; [2) Большев Л. Н., Смирнов Н. В., Таблицы математической статистики, 3 изд., М., 1983. В. И. Пагурова. АСИМПТОТИЧЕСКИ РАВНОМЕРНО НАИБОЛЕЕ МОЩНЫЙ КРИТЕРИИ (acymptotically uniformly most powerful test) - последовательность статистических критериев в асимптотической задаче проверки статистических гипотез, являющаяся асимптотически наиболее мощным критерием одновременно для всех альтернатив. Определение, данное для асимптотически наиболее мощного критерия, для А. р. н. м. к. видоизменяется заменой соотношения limsup Е„в(ф„-\|/„)^0 на соотношение limsup sup ЕЯ|в (ф„-\|/„)^0. А. В. Бернштейн. АСИМПТОТИЧЕСКИ РАВНОМЕРНОЕ РАСПРЕДЕЛЕНИЕ (asymptotically uniform distribution) - понятие, обобщающее понятие равномерного распределения. Пусть U=iXv Х2, ..) - последовательность независимых случайных величин, принимающих лишь целые значения, и Sk = X^ + ... + Xk. Последовательность U называется асимптотически равномерно распределенной, если для любого целого положительного h имеет место равенство lim P{Sn=j mod h}=\/h, j = 0, 1, ..., h- 1. Пусть tt - множество последовательностей U, к-рые не теряют и не приобретают свойства А. р. р. при изменении или отбрасывании конечного числа образующих их случайных величин. Для того чтобы последовательность C/ett была бы А. р. р., необходимо и достаточно, чтобы ^min {P(XkeLah):0^a^h-\} = oo для любой подрешетки Lah = {?n:m = a + kh} решетки целых чисел (см. [1]). В терминах характеристич. функций fn сумм Sn критерием А. р. р. является предельное соотношение fn(2nr/h) ->0, n -><*>, в к-ром h - фиксированное целое положительное число и г = 0, 1, ..., h- 1 (см. [4]). А. р. р. сумм Sn является необходимым условием для справедливости локальной предельной теоремы (см. [2], [3]). Лит.:[\] Прохоров Ю. В., Розанов Ю. А., Теория вероятностей, 3 изд., М., 1987; [2] Прохоров Ю. В., «Докл. АН СССР», 1954, т. 98, № 4, с. 535-38; [3] Петров В. В., Предельные теоремы для сумм независимых случайных величин, М., 1987; [41 Dvoretzky A., Wol f о w i tz'j., «Duke Math. J.», 1951, v. 18, p. 501-07. Н.Г. Гамкрелидзе. АСИМПТОТИЧЕСКИ ЭФФЕКТИВНАЯ ОЦЕНКА (asymptotically efficient estimator) - понятие, позволяющее выделить «наилучшую» для больших выборок статистическую оценку в подходящем классе оценок. Однозначного определения не имеет. В классе состоятельных равномерно асимптотически нормальных оценок обычно используется определение Фишера, в соответствии с к-рым асимптотически эффективной считается оценка с наименьшей асимптотич. дисперсией. АСИМПТОТИЧЕСКИ 27
При отказе от предположения асимптотич. нормальности возникают трудности, попытка преодоления к-рых привела к определениям асимптотической эффективности по Бахадуру, по Вольфовицу и по Рао. При известных условиях регулярности оценка максимального правдоподобия является асимптотически эффективной для каждого из этих определений. Лит.: [1] Рао СР., Линейные статистические методы и их применения, пер. с англ., М., 1968; [2] Ибрагимов И. А., Хасьмин- ский Р. 3., Асимптотическая теория оценивания, М., 1979; [3] Боровков А. А., Математическая статистика, М., 1984. Я.Ю. Никитин. АСИМПТОТИЧЕСКИЙ ДЕФЕКТ (asymptotic deficiency) - см. Дефект критерия. АСИМПТОТИЧЕСКИЙ ПЛАН (asymptotic design) - см Регрессионных экспериментов планирование. АСИМПТОТИЧЕСКОЕ РАЗЛОЖЕНИЕ оценок (asymptotic expansion of estimators), стохастическое разложение оценок,- представление отклонения статистической оценки 8 от истинного значения параметра 9 в виде суммы стохастически убывающих (обычно по степеням нек-рого малого параметра) слагаемых. Напр., в задаче оценивания параметра достаточно гладкой плотности распределения вероятностей f(x, в) по независимой выборке объема п А. р. оценок максимального правдоподобия имеет вид: ё'-е = я~1/2л1 + ... + я~*/2/**+$„, где ^ - функции от наблюдений, имеющие невырожденные распределения: £„ - остаточная случайная величина, достаточно быстро стремящаяся к нулю при п -> <*>. А. р. оценок обычно используется при получении асимптотич. разложений функций распределения и рисков оценок. Лит.: [1] Линник Ю. В., Митрофанова Н. М., «Докл. АН СССР», 1963, т. 149, № 3, с. 518-20; [2] Чибисов Д.М., «Теория вероятн. и ее примен.», 1973, т. 18, № 2, с. 303-11; [3] Бурна- шев М.В., «Матем. сб.», 1977, т. 104, № 2, с. 179-206. М. В. Бурнашев. АСИМПТОТИЧЕСКОЕ РАЗЛОЖЕНИЕ распре деле ния (asymptotic expansion of a distribution) - представление распределения Р(Х), зависящего от параметра ХеА, к-рое имеет вид сш=jja 0 e/Fy a)+о(^( х» при X -> XQ} ХеА} где k ^ 0, Xq - предельная точка множества Л (конечная или бесконечная), я, не зависит от X, {ЧЛХ)} - нек-рая заданная последовательность функций, удовлетворяющая условию x¥j+](X) = o(x¥ (X)) при Х^>Х0 для каждого;. В качестве G (X) можно взять функцию распределения или плотность распределения случайной величины, зависящую от нек-рого параметра. Впервые в теории вероятностей А. р. были рассмотрены в 1887 П. Л. Чебышевым (см. [1]), указавшим разложение разности Fn(x) -Ф(х) по степеням 1/VrT, где Fn(x) - функция распределения нормированной суммы п независимых случайных величин, Ф(х) - стандартная нормальная функция распределения. Впоследствии А. р. вероятностных распределений исследовались Ф. Эджуортом [2]. Строгое обоснование этим разложениям было дано Г. Крамером [3]. Усиления и обобщения результатов Г. Крамера получены К. Эссееном [4] и др. (см. [5]-[7]). В качестве примера приведем следующую теорему Эссеена: если {Хп} - последовательность независимых одинаково распределенных случайных величин, ЕХХ = 0, ЕХ2 = а2 > 0, Е | Xt | <«> для нек-рого целого ^Зи если limsup |Ев**1|<1, 28 АСИМПТОТИЧЕСКИЙ то pf-L-У" х<4 = \a-fH *+* ' J = ФЫ + У*"2 П->'2 О, (X) + 0(«-(*-2)/2 ) при п -> о© равномерно относительно х е IR1. Здесь P3/-i(^) " многочлен степени 3/- 1 относительно х с коэффициентами, зависящими только от моментов случайной величины Хх до порядка ;Ч2 включительно. Для функций Qj(x) имеются явные представления (см. [6]) с помощью многочленов Чебышева. Наряду с А. р. в центральной предельной теореме для сумм независимых и зависимых случайных величин (и векторов), а также в теоремах о сходимости распределений сумм случайных величин к предельному устойчивому распределению исследованы А. р. для распределений различных важных классов статистик. Лит.: [1] Чебышев П.Л., Поли. собр. соч., т. 2, М.- Л., 1947; [2] Edgeworth F. Y., «Trans. Camb. Philos. Soc.», 1905, v. 20, p. 36-65; [3] Cramer H., «Skand. Aktuarietidskrift», 1928, v. 11, p. 13-74, 141-80; [4] Esseen C.-G., «Acta math.», 1945, t. 77, p. 1-25; [5] Бхаттачария Р. Н., Ранга Рао Р., Аппроксимация нормальным распределением и асимптотические разложения, пер. с англ., М., 1982; [6] Петров В. В., Суммы независимых случайных величин, М., 1972; [7] Hall P., Rates of convergence in the central limit theorem, Boston, 1982. в. В. Петров. АСИМПТОТИЧЕСКОЕ РАЗЛОЖЕНИЕ риска оценки (asymptotic expansion of the risk of an estimator) - представление риска оценки 8 в виде суммы убывающих (обычно по степеням малого параметра) слагаемых. Напр., А. р. среднего риска оценки максимального правдоподобия параметра достаточно гладкой плотности распределения вероятностей fix, 9) по независимой выборке объема п имеет вид Ев|в-в|2 = п-19, + »-3/292+ ... +Лн + О (»-(*+1)/2). Лит.: [1] Гусев СИ., «Теория вероятн. и ее примен», 1976, т. 21, в. 1, с. 16-33; [2] Бурнашев М. В., «Изв. АН СССР. Сер. матем>, 1981, т. 45, № 3, с. 509-39. м. В. Бурнашев. АСИМПТОТИЧЕСКОЕ УКРУПНЕНИЕ СОСТОЯНИЙ цепи Маркова (asymptotic mergence of states of a Markov chain) - см. Маркова цепь; укрупнение состояний. АСИНХРОННЫЙ КАНАЛ (asynchronous channel) - см. Множественного доступа канал. АССОЦИИРОВАННЫЙ СПЕКТР ПРОЦЕССА (associa- ted spectrum of a process) - см. Осредненная спектральная функция. АТМОСФЕРНАЯ ТУРБУЛЕНТНОСТЬ (atmospheric turbulence) - турбулентность течений воздуха в земной атмосфере (а при расширительном толковании этого термина - также и течений в атмосферах других планет и в атмосфере Солнца и других звезд). А. т. представляет собой важнейший частный случай геофизической турбулентности. При изучении земной А. т. удобно отдельно рассматривать турбулентность приповерхностного слоя атмосферы (приземного или приводного), то есть нижнего слоя воздуха толщиной ок. 50 м, в пределах к-рого пренебрежимо мало влияние на турбулентность вращения Земли, и поэтому можно широко использовать Монина - Обухова теорию подобия. Затем выделяется турбулентность пограничного слоя атмосферы, то есть слоя, имеющего, напр., в середине летнего дня толщину 1-2 км, в к-ром непосредственно ощущаются влияния трения воздуха с поверхностью Земли и обмена воздуха с этой поверхностью теплом и влагой, и,
наконец, турбулентность свободной атмосферы, то есть течений воздуха над пограничным слоем, где обычно наблюдается устойчивая термич. стратификация и где в случае больших высот над уровнем Земли значительная мелкомасштабная турбулентность, заметно влияющая на полет самолетов, обычно сосредоточена в отдельных сравнительно небольших пространственных областях. Лит.: [1] Ламли Дж. Л., Панове кий Г. А., Структура атмосферной турбулентности, нер. с англ., М., 1966; [2] Pan of sky H. A., Dutton J. A., Atmospheric turbulence, N. Y., 1983; [3] Атмосферная турбулентность и моделирование распространения примесей, пер. с англ., Л., 1985; [4] Турбулентность в свободной атмосфере, 2 изд., Л., 1976. А. М. Яглом. ATOM (atom) - см. Атомическое распределение, Математическое ожидание случайного множества. АТОМИЧЕСКАЯ МЕРА (atomic measure), чисто атомическая мера, атомическое распределение,- вероятностная мера \i на измеримом пространстве (Q, Л), обладающая свойством: существует конечное или счетное разбиение £1 = (UQj)Ufi' такое, что £1' е .*/, [l(£1' ) = 1 и каждое Q( является атомом меры |1, то есть Qf- e .*/, |i(Qt-) >0, и если ЛеУ и ЛеЦ, то либо |iC4) = 0, либо |iG4) = |i(Qf-). Для любой борелевской вероятностной меры в сепарабельном метрич. пространстве (или, более общо, для любой борелевской вероятностной меры в хаусдорфовом топологич. пространстве, имеющей носитель) каждый атом есть обязательно одноточечное множество, и А. м. в этом случае называют обычно дискретной мерой. Если всего лишь одна точка имеет меру 1, то соответствующая дискретная мера называется вырожденной мерой (или мерой Дирака). Часто употребляются неатомич. меры. Вероятностная мера |Л на измеримом пространстве (Q, Л) называется неатомической, если она не имеет ни одного атома, то есть если для любого множества Be ^/такого, что |i(#)>0 и существует такое Ле^/, что A с В и 0<|iC4) <|i(#). На самом деле в случае неатомичности имеет место следующее более сильное утверждение: множество значений |х(Л) для всех таких А, что А е<*/и А а В, заполняет весь интервал [0, ц(/?)]. Лит.: [1] Неве Ж., Математические основы теории вероятностей, пер. с франц., М., 1969; [2] ВаханияН. Н., ТариеладзеВ. И., ЧобанянС. А., Вероятностные распределения в банаховых пространствах, М., 1985. Н.Н. Вахания. АТОМИЧЕСКОЕ РАСПРЕДЕЛЕНИЕ (atomic distribution) - распределение вероятностей на а-алгебре ^ подмножеств пространства Q, сосредоточенное на множестве своих атомов. При этом множество Ле^в вероятностном пространстве (Q, ^/, Р) называется атомом распределения, если Р(Л) > 0 и из Aid В е с*/ следует Р(В) = 0 или Р(А\В) = 0. В частном случае, когда атомы суть отдельные точки, А. р. совпадает с дискретным распределением. А. В. Прохоров. АТТРАКТОР (attractor) - см. Стохастический аттрактор, Странный аттрактор. АФФИННЫЙ ШЕЙП (affine shape) - см. Случайный шейп. АЦИКЛИЧЕСКАЯ ЦЕПЬ МАРКОВА, непериодическая цепь Маркова (acyclic/aperiodic Markov chain),- конечная или счетная однородная цепь Маркова, состоящая из одного класса С существенных состояний, содержащего лишь один циклический подкласс (см. Маркова цепь; классификация состояний). В А. ц. М. существуют пределы вероятностей перехода за t шагов lirn pif(t)=p, к-рые все равны 0, если класс С невозвратный или нулевой, и все положительны и образуют единственное стационарное распределение цепи, если этот класс положителен. А. А. Юшкевич. АЦИКЛИЧЕСКОЕ СОСТОЯНИЕ цепи Маркова (acyclic/aperiodic state of a Markov chain) - см. Маркова цепь; классификация состояний.
БАЙЕСА ФОРМУЛА (Bayes formula) - см. Бейеса формула. БАКСТЕРА ТЕОРЕМА (Baxter theorem) - теорема о суммах квадратов приращений гауссовского процесса: если заданный на интервале O^t^T действительный гауссовский процесс X (t) имеет непрерывное по t среднее значение EX (t) = m (t) и непрерывную по t, s корреляционную функцию Ъ (t, s) = = Е[Х (О - EX (0][X (s) - ЕХ (5)1, причем производная m'(t) ограничена при 0 ^ t ^ T, а все вторые производные функции Ь (t, s) равномерно ограничены при t*s, то тогда сумма квадратов приращений процесса X (t) на N субинтервалах, получающихся при делении интервала [О, Г J на N равных частей, при достаточно быстром стремлении N к бесконечности почти наверное стремится к постоянному числу, определяемому значениями скачка производной db (t, s)/dt на диагонали t = s. Точная формулировка Б. т. такова: при указанных выше условиях, налагаемых на m(t) и b(t, s), всегда существуют пределы D4t)= lim ЬШ)-ЬШ) D-(t)=lim "(М)-Ы,0 s->t+ *s s->r t-s и при этом почти наверное выполняется соотношение = fQ[D-(t)-D+(t)]dt С) (см. [1]). В частном случае, когда Х(0 - стандартный вине- ровский процесс, для к-рого b(t,s) = min(t,s), правая часть (*) обращается в Г; для этого частного случая соотношение (*) было впервые доказано П. Леви [2]; оно часто называется теоремой Леви. Б. т. и ее многочисленные обобщения и модификации (см., напр., [3]-[7]) позволяют во многих случаях легко установить, что вероятностные меры в функциональном пространстве реализаций, отвечающие двум заданным гауссовским процессам (или полям) X\(t) и Х2(0, являются взаимно сингулярными, то есть сосредоточены на пересекающихся множествах (см., напр., [3J-19]). Лит.: [1] Baxter G., «Proc. Amer. Math. Soc», 1956, v. 7, p. 522-27; [2) Levy P., «Amer. J. Math.», 1940, v. 62, p. 487-550; [31 Гладышев Е. Г., «Теория вероятн. и ее примен.», 1961, т. 6, в. 1, с. 57-66; [4] Краен итский СМ., в сб.: Теория вероятн. и матем. статистика, в. 5, 1971, с. 71-80; [5] Арак Т. В., «Теория вероятн. и ее примен.», 1972, т. 17, в. 1, с. 153-60; [6] GineE., Klein R., «Ann. Probab.», 1975, v. 3, № 4, p. 716-21; [7] Курчен- ko А. А., в сб.: Теория вероятн. и матем. статистика, в. 33, К., 1985, с. 53-57; [8] Slepian D., «IRE Trans. Inform. Theory», 1958, v. IT-4, № 2, p. 65-68; [9] Varberg D. E., «Pacific J. Math.», 1961, v. 11, № 2, p. 751-62. A. M. Яглом. БАЛЛОТИРОВКИ ЗАДАЧА (ballot problem) - задача о нахождении вероятности того, что при последовательном подсчете голосов на выборах кандидат А все время будет опережать кандидата Б, если известно, что общее число голосов, поданных за Л, равно я, а за В подано Ъ голосов, а>Ь. Предполагается, что все возможные последовательности бюл- 30 БАЙЕСА летеней равновероятны. Решение Б. з. найдено Ж. Бертраном [ 1 ]: эта вероятность есть р = (а- Ь)/(а + Ь). Это утверждение, часто называемое также теоремой о баллотировке, эквивалентно одному результату А. Муавра (A. Moivre), полученному в 1708 в связи с рассмотрением азартных игр. На языке теории случайных блужданий Б. з. эквивалентна подсчету вероятности того, что траектория блуждающей частицы, начинающаяся в нуле и достигающая точки а - Ъ после а + Ъ скачков, в моменты времени 1, 2, ..., а + Ь будет проходить только через точки с положительными координатами (частица перемещается каждый раз на единицу влево или вправо с вероятностью 1/2). Различные обобщения теоремы о баллотировке позволяют в ряде случаев находить с помощью комбинаторных методов распределения максимума последовательных сумм и других граничных функционалов (см. [2]). Лит.: [1] Bertrand J., «С г. Acad, sci., Paris», 1887, t.105, p. 369; [2] Такач Л., Комбинаторные методы в теории случайных процессов, пер. с англ., М., 19/1. В. И. Лотов. БАНАХА-МАЗУРА РАССТОЯНИЕ (iianach-Mazur distance) - см. Банахово пространство; равномерно содержащее /;. БАНАХОВО ПРОСТРАНСТВО котика р (Banach space of cotype p) - см. Банахово пространство типа р. БАНАХОВО ПРОСТРАНСТВО, равномерно содержащее /" (Banach space uniformly containing !"), - банахово пространство В, в к-ром д.'я любого г>0 и для любого натурального п найдется такое п мерное подпространство Впа В, что d (Вп. /р < 1 -t -г, \дс /" обычное я-мер- ное действительное пространство векторов x~(xit ..., хп) с нормой для 1 ^ р < «о и HL=mnx{jv,!, Ki^n), a d (E, F) - р а с с г о я н и с Г> анаха-Ма з у р а между изоморфными банаховыми пространствами Е и F: d(n,F) = inf{\\Tl\\T-'l\, где inf берегся по всем изоморфизмам Т между Е и F. Каждое бесконечномерное Б. п. равномерно содержит /? (лемма Дворецкого). Отсюда легко следует теорема Д в о р е ц к о г о - Р о д ж е р с а: в каждом бесконечномерном Б. п. существует безусловно сходящийся ряд, не сходящийся абсолютно. В задачах теории вероятностей важны Б. п., к-рые не содержат равномерно /" Во многом это обусловлено справедливостью следующих утверждений: а) Б. п. не содержит равномерно /Д тогда и только тогда, когда оно есть Б. п. котииа р для нек-рого р<°°; 6) Б. п. не содержит равномерно /" тогда и только тогда, когда оно есть Б. и. типа р для нек-рого 1</?^2; в) Б. п. не содержит равномерно /" для \^р<2 тогда и только тогда, когда оно есть Б. п. устойчивого типа р.
Б. п., не содержащие равномерно /Д, представляют интерес в теории сходимости случайных рядов в банаховых пространствах, поскольку в них почти наверное сходимости рядов У х{е{ и У xflj эквивалентны (здесь ег и у,, i=l, 2, ...,- соответственно последовательности взаимно независимых бер- нуллиевых и стандартных гауссовских случайных величин); такие пространства встречаются также и в теории безусловной сходимости рядов в Б. п. Лит.: [1) MaureyB., Pisier G., «Studia Math.», 1976, v. 58, fasc. 1, p. 45-90. Я. H. Вахания. БАНАХОВО ПРОСТРАНСТВО со свойством PIP (Ва- nach space with PIP) - банахово пространство В такое, что для каждого вероятностного пространства (Q, .*/, Р) и для каждого слабо измеримого отображения Х:£1-+В, область значений к-рого ограничена в В, существует Петтиса интеграл j XdP. Сепарабельные, а также рефлексивные пространства обладают этим свойством. Пространства 1Ж ограниченных числовых последовательностей свойством PIP не обладают (PIP - сокращение от Pettis Integral Property). Лит.:[\] Edgar G. A., «Indiana Univ. Math. J.», 1979, v. 28, №4, p. 559-79; [2) Fremlin D.H., Talagrand M., «Math. Z», 1979, Bd 168, S. 117-49. в. И. Тариеладзе. БАНАХОВО ПРОСТРАНСТВО со свойством Сазонова (Banach space with Sazonov property), 5-пространст- bo,- пространство, сопряженное к к-рому обладает допустимой топологией. Таковы, напр., гильбертово пространство (см. [1]), пространства 1Р, где \^р<2, а также любое банахово пространство, изоморфное подпространству L?', где р< 1, и удовлетворяющее условию компактной аппроксимации (см. [2]). Лит.: [1] Сазонов В. В., «Теория вероятн. и ее примен.», 1958, т. 3, в. 2, с. 201-05; [2) Муштари Д. X., там же, 1973, т. 18, в. 1, с. 66-77; [3) Вахания Н. Н., Тариеладзе В. И., ЧобанянС. А., Вероятностные распределения в банаховых пространствах, М., 1985; [4) Муштари Д. X., Вероятности и топологии в банаховых пространствах, Каз., 1989. д. х. Муштари. БАНАХОВО ПРОСТРАНСТВО типа/; (Banach space of type p) - понятие, используемое при изучении случайных элементов со значениями в банаховых пространствах, как и тесно связанные с ним понятия банахова пространства коти па р и банахова пространства устойчивого типа р. Пусть ея - взаимно независимые бернуллиевы случайные величины. Р{е„ = +1} = Р{е„ = -1}= 1/2, пеЫ. Б. п. типа р называется Б. п. В, в к-ром из сходимости ряда ^ \\хп \\р, хпеВ, следует сходимость почти наверное ряда ^ xnzn. Считается, что 1 ^р^2, так как тип р>2 не имеет никакое Б. п.; тип 1 (а, следовательно, и тип р<\) имеет каждое Б. п. Вместо гп в определении можно использовать любые другие одинаково распределенные невырожденные центрированные случайные величины с абсолютным моментом порядка р. Б. п. коти и а р называется Б. п. В, в к-ром из сходимости почти наверное ряда 2* хпЕп> хпеВ} пеЫ, следует сходимость ряда 2* \\хп \\р. Считается, что 2 ^р < <», так как котип р < 2 не имеет никакое Б. п. Вместо гп можно использовать любые другие одинаково распределенные невырожденные центрированные случайные величины, имеющие абсолютные моменты всех порядков. Пространство В имеет котип р тогда и только тогда, когда для нек-рой константы ср и для всех конечных наборов взаимно независимых сепарабельнозначных случайных элементов Xk в В со свойством ЕЦХ^ < <*>, EXk = 0, k = 1, 2, ..., я, имеет место неравенство о (*) е XL x>\*"JL Пъ Пространство В имеет тип р тогда и только тогда, когда вместо неравенства (*) справедливо неравенство обратного характера с нек-рой константой т * У" хь ^XL Е1** Пространства Lr(A, I, ц), 1 ^г<°°, имеют котип /? = птах (г, 2) и тип /? = min(r, 2), причем эти числа нельзя улучшить, если пространства не вырождаются в конечномерные. Пространство /„, не имеет никакого типа р > 1 и никакого котипа. Другие простые примеры пространств, не имеющих ни типа, ни котипа, дают пространства непрерывных функций С [0, 1 ] и пространство сходящихся к нулю числовых последовательностей с0. Гильбертовы пространства имеют одновременно котип 2 и тип 2. Справедливо в определенном смысле обратное утверждение: если Б. п. имеет тип 2 и котип 2, то оно изоморфно (линейно гомеоморфно) гильбертову пространству (теорема Квапеня). Б. п. устойчивого типа р называется Б. п. В} в к-ром из сходимости ряда i, \\хп \\р следует сходимость почти наверное ряда 2* xnfn> гДе (fr) ~ последовательность одинаково распределенных взаимно независимых симметричных устойчивых случайных величин с показателем устойчивости р} то есть Еехр (itfn) = exp (-\t \р), £е1Р . Считается, что 1^/?^2, так как устойчивый тип р>2 не имеет никакое Б. п.; устойчивый тип р<\ имеет каждое Б. п. Б. п. устойчивого типа р обладает и типом р. Б. п. типа 2 является и Б. п. устойчивого типа 2. Если Б. п. В имеет тип р, то оно имеет устойчивый тип рх для всех рх <р. Если В имеет устойчивый тип ру то оно имеет устойчивый тип рх для всех Р\^р, а при р<2 и устойчивый тип р2 для нек-рого р2>Р- Лит.: [1] Hof f man n-Jergensen J., «Aarhus Univ. Matem. inst.», preprint, 1972-73, № 15; [2] Maurey В., Pisier G., «Studia Math.», 1976, v. 58, № 1, p. 45-90; [3] Woyczynski W., в кн.: Probability in Banach spaces, N.Y., 1978; [4] Вахания Н.Н., Тариеладзе В. И., Чобанян С. А., Вероятностные распределения в банаховых пространствах, М., 1985. Н. Н. Вахания. БАНАХОВО ПРОСТРАНСТВО устойчивого типа/? (Banach space of stable type p) - см. Банахово пространство типа р. БАРИЦЕНТР вероятностной меры (barycentre of a probability measure) - см. Среднее вероятностной меры. БАРТЛА-ДАНФОРДА-ШВАРЦА ТЕОРЕМА (Bartle- Dunford-Schwartz theorem) - см. Векторная мера. БАРТЛЕТТА КОРРЕЛЯЦИОННОЕ ОКНО (Bartlett lag window) - см. Корреляционное окно. БАРТЛЕТТА КРИТЕРИЙ (Bartlett test) - статистический критерий для проверки по эмпирическим данным равенства дисперсий нескольких нормальных совокупностей. Пусть взаимно независимые статистич. оценки дисперсий S"2 ..si- имеют х -распре- k at, ..., <rk соответственно, величины уД/о^ деление с \{ степенями свободы, i- 1, ..., k, N = Y* v, Для проверки гипотезы Я0: a2= ... =щ критич. область критерия определяется неравенством Если все Vj > 3 и гипотеза Я0 верна, то величина в левой части неравенства приближенно имеет распределение х с k - 1 сте- БАРТЛЕТТА 31
пенями свободы. Таблицы критич. значений С(k, vt, ..., vk, а) см. в [2]. Лит.: [1] Bartlett M.S., «Proc. Roy. Soc», 1937, v. A 160, p. 268-82; [2] Большее Л.Н., См и рн о в Н. В., Таблицы математической статистики, 3 изд., М., 1983. В. И. Пагурова. БАРТЛЕТТА ОЦЕНКА (Bartlett estimator) - см. Спектральная плотность; непараметрическая оценка. БАРТЛЕТТА-ШЕФФЕ КРИТЕРИЙ (Bartlett-Scheffe test) - статистический критерий, относящийся к Берен- са-Фишера проблеме. Пусть хи, ..., х^п , х2Х, ..., х2п независимы, x^-Nipi, o?),y=l, ..., nif *i = XyL ! Vn*' *=1'2' П\^П2> _\bkl(nJn2)V2 -(nxn2)^2 +n2x при/^Пр [n2 при/>«1, 8/j/ - символ Кронекера, '* = *.*-£"*, СЫ*2/. *=1 ",,/=! ЧЬ L=z;,.1/^o=i;,.,(,*-i)2- Для проверки гипотезы Я0: f-ti = М-2 = ^ (А ~ заданное число) критич. область критерия Шеффе имеет вид Ю/(щ-\)?/2 Если справедлива #0, то левая часть неравенства является модулем величины, имеющей ^-распределение Стьюдента с (пх - 1) степенями свободы. В частном случае пх = п2 получают Бартлетта критерий. Лит.: [1) Scheffe H., «Ann. Math. Statist.», 1943, v. 14, № 1, p. 35-44; [2] Линии к Ю. В., Статистические задачи с мешающими параметрами, М., 1966. в. И. Пагурова. ББГКИ ЦЕПОЧКА УРАВНЕНИЙ (BBGKY equations hit rarchy/chain) - см. Боголюбова цепочка уравнений. БЕЗГРАНИЧНО ДЕЛИМОЕ РАСПРЕДЕЛЕНИЕ (infinitely divisible distribution) - понятие, появившееся в ходе изучения однородных, стохастически непрерывных случайных процессов с независимыми приращениями - так наз. безгранично делимых процессов. Определение предложено Б. де Финетти [1]. Термин «Б. д. р.» введен П. Леви (см. [2]). Распределение вероятностей Р на II? (или соответствующая функция распределения F ) относится к классу ® Б. д. р., если при любом целом п ^ 2 оно может быть представлено «-кратной сверткой нек-рого вероятностного распределения Ря: р=р„'р„»... »р„. (о Не расширяя множество ®, условие (1) можно ослабить, требуя его выполнения лишь для значений п из нек-рой последовательности 1 <щ < п2 < ... . Примерами Б. д. р. могут служить нормальное распределение, распределение Пуассона, гамма-распределение, распределение Коши. Класс ® играет важную роль в общей теории предельных теорем для последовательностей сумм независимых случайных величин, удовлетворяющих бесконечной малости условию. Доказано (А. Я. Хинчин, 1934), что в этой модели множество возможных предельных распределений совпадает с ®. Используя аналоги условия (1), понятие Б. д. р. можно переносить на случай пространств более общей природы (евклидовы, гильбертовы и др.), однако нередки ситуации (напр., при рассмотрении локально компактных абелевых групп с компактными подгруппами), когда распространение понятия Б. д. р. требует нек-рой модификации условия (1). Конкретным примером 32 БЕЗГРАНИЧНО здесь может служить понятие М-безгранично делимого распре деления. Далее рассматривается только одномерный случай с операцией свертки. Описание класса ® осуществляется в терминах характери- стич. функций f, соответствующих функциям распределения F из этого класса. Форму записи функций f (она иеединствен- на и допускает широкое варьирование) называют каноническим представлением. Наиболее известны Леви каноническое представление и Леви-Хинчина каноническое представление. Обобщенный вариант последнего имеет вид fit) = exp {ity+j$(t,x) dG Or)}, (2) где yell?1, G = XU, X^O, U - нек-рая функция распределения на И? , а функция \(eitx - 1 - itrix)) I six), если х Ф 0, Ht,x) = \ [-Г/2,еслих = 0. Функции г и 5>0 должны обладать следующими свойствами: интеграл в (2) абсолютно сходится при тюбом ^еР?1 и для каждой функции G указанного вида; г (х) = х + о (х ), six) == = х2(\+о(\)) при х-*0. Примерами таких функций могут служить (см. [6]) г(х) = = х/(\+х2), s(х) = х /1\ + х2) и r(x) = sinx, sС*) = min(l, х2). В частном случае Колмогорова формулы выбираются г (х) = х и 5 (х) = х . В канонич. представлении с зафиксированной функцией ^ каждому Б. д. р. ставится во взаимно однозначное соответствие две определяющих его характеристики - числовой параметр у и функция G, называемая спектральной функцией Хинчина этого Б. д. р. Множество точек роста функции G (то есть носитель G, supp G ) называется спектром Б. д. р. Неубывающая на полуосях г<0, х>0 функция //, Н (-<*>) = Н (оо) = 0, связанная с G раьенсвом s (л) JH (х) -- = dG (х), .г ф 0, называется спектральной функцией Леви. Вместе с величиной а = G (+0) - G (-0), играющем! роль дисперсии нормальной компоненты 1>.д. p. F, функция Я доставляет второй тип канонич. представлений: /Ч/) = ехр {г/у-а¥/2 + ]^0 {eitK - 1 - itr{x))dH О)}. Переход от одного напора чарлктериешк (r]t .v,, ylt G,) н CJ) к другому (r2, s2, y2, G2) осуществляется с помощью соотноик- * f <7(;, ■) •> ний s2dG\ ~ritdG2, Y2~Yi =J ('i - ri) • ^P11 ьюм °"{ ~ ^ и suppGj =-suppG2. Параметр у осуществ.тж г ствиг распределения, а (пектр;- ть- пая функция G несет ь себе всю информацию о несмещенно; 1 (у=0) Б. д. p. F. Б частности, она определяет структуру, асимптотич. поведение и разложение Лебега функции F. Напр., для любых четных функций \|/ на li? , удовлетворяющих при всех х, г/<е IR одному из требований (класс Т): 0^у(х + y)^c(\\f(x) + \у(у)У I 0<у(х + у)^су(х)у(у\ J где с^ 1 - постоянная, справедлива импликация (см. [7]) j\\f(x)dF(x,y,G)<oo^>\ I{\x\£\)y{x)dH(x)<oo. (i) Условия (3) означают, в частности, что функции \|/ не могут возрастать на бесконечности быстрее экспоненты. Для функций, возрастающих существенно быстрее, подобной связи нет. Это вытекает из следующего утверждения (см. [7]): если suppG ограничен и не состоит из одной точки х = 0. то существует такое а = a (G ), что Jexp (я|*|log (1 + \x\))dF(x,y,G)<ocf
причем заменить а большим числом, сохранив конечность интеграла, нельзя. Свойство (4) позволяет обобщить формулу Колмогорова и иыделить из ® подкласс Ж^ распределений с конечными моментами порядка уеТ. При этом канонич. представление описывает J*L,, если выбрать в (2) функции r(x) = sinx и ±(х) = х2(\+у(х))/(\+х2). Множество ® замкнуто относительно полной сходимости (-4 ) входящих в него распределений. При этом F(x,y*,G*)^F(x,y,G), G* = XU*, G = W, тогда и только тогда, когда у* -> у, X* -> X и U* ^ U. Класс ® содержит такие важные (с точки зрения, напр., предельных теорем) подклассы, как класс & саморазложимых распределений, и класс @ устойчивых распределений. Относительно операции свертки множество ® является абелевой полугруппой с единицей, роль к-рой играет распределение, вырожденное в нуле. Такой же полугруппой является множество &, но не множество @. Каждое Б. д. p. F порождает однопара- метрич. полугруппу {F^:X^0} с характеристич. функциями {f ; Х^О} (см. Безгранично делимый процесс). Если определяющие Б. д. p. F (x,y,G ) характеристики представляются рядами таких же характеристик: Y = Yi+Y2+ •••> G = G^ + G2+ .... где yk е II? и Gk - спектральные функции, то F(x,y, G) = F1U,Y1,G1)*F2a,y2,G2)»... Для любой функции распределения F е® справедливы следующие равенства Ore И? ): F(x,y,G ) = \-F(-x + 0,-у,G ), где G(x) = G(oo)-G(-x), F Cr,y,G ) = F a,0,Gt) • Фу<а(х) * F (*,0,G2), Фуо - нормальное распределение со средним у и дисперсией а2, G^x) = (G(x)-G(+0))I (*>0), G2(x) = (G (-0) - -G(-.r))/ (*<0). Класс ® можно разбить на три группы следующими условиями: /,=J/(0< |х| ^1)|*|<Ш(;0<оо (группа А), /1=оо, /2 = J I(\x\>\)\x\dH(x)<oo (группа В), /j = °°, /2 = °° (группа С). Эти группы являются в нек-ром смысле аналогами устойчивых распределений, отвечающих значениям основного параметра а<1, а=1 и 1<а^2. Б. д. p. F(*,y,G) называется крайним, если G(+0) = 0. Между крайними Б. д. р. группы А и соответствующей частью Б. д. р. группы В есть аналитич. связь (см. Безгранично делимых распределений двойственность). Крайние Б. д. p. F группы А являются односторонними безгранично делимыми распределениями, то есть для каждого из них существует постоянная q = q(y, G ) е II? такая, что F(x) = Q, x<q. В пределах класса ® крайние Б. д. р. однозначно восстанавливаются своими значениями на любой полуоси х>а или же на полуоси (-<*>, а), если эти Б. д. р. относятся к группам В или С (подробнее см. в [4]). Лит.: [1] Finetti В. de, «Atti Accad. naz. Lincei. Met. CI. sci. fis., mat. e natur. Sez. 1», Ser. 6, 1929, v. 10, p. 163-68; [2] Levy P., Theorie de Г addition des variables aleatoires, P., 1937; [3] Partha- sarathyK. R., Probability measures on metric spaces, N. Y.- L., 1967; [4] Ибрагимов И. А., «Теория вероятн. и ее примен.», 1977, т. 22, в. 2, с. 393-99; [5] Феллер В., Введение в теорию вероятностей и ее приложения, нер. с англ., т. 2, М., 1984; [6] ГнеденкоБ. В., Колмогоров А. Н., Предельные распределения для сумм независимых 3 ВИМС случайных величин, М.-Л., 1949; [7] Круглое В. М., «Теория вероятн. и ее примен.», 1970, т. 15, в. 2, с. 330-36. В. М. Золотарев. БЕЗГРАНИЧНО ДЕЛИМОЕ РАСПРЕДЕЛЕНИЕ, асимптотическое поведение (infinitely divisible distribution; asymptotic behaviour),- описание свойств безгранично делимых распределений на множествах, содержащихся во внешности шаров с фиксированным центром неограниченно возрастающего радиуса. Такое описание возможно в терминах соответствующих спектральных мер. Так, напр., в одномерном случае, если Н - спектральная функция, входящая в Леей каноническое представление, Я (т) =-таЛ (т) при т>1, где h (т) - положительная медленно меняющаяся функция и а>0, то lim (\-F(x))/H(x)= -l. В общем случае, для того чтобы для нек-рого у, 0^у^°°, 1пг{т:Я(-т)-Я(т) = 0} = у, необходимо и достаточно, чтобы при этом 1/у= ©о, если у = 0. Здесь F - функция распределения Б. д. р. В ряде случаев асимптотич. поведение может полностью охарактеризовать отдельное Б. д. р. или тип распределения. Напр., для того чтобы Б. д. p. F было нормальным, необходимо и достаточно, чтобы выполнялось (*) с у= 0; для того чтобы Б. д. p. F было пуассоновским, необходимо и достаточно, чтобы F (х) = 0 при х < 0, F (х) = с > 0 при 0 < х < 1 и выполнялось (*) с у= 1. В [4] и [5] приведены асимптотики Б. д. р., спектральные меры к-рых не сосредоточены на конечном множестве, но удовлетворяют ряду специальных условий. Лит.: [11 Золотарев В. М., «Теория вероятн. и ее примен.», 1961, т. 6, в. 3, с. 330-34; [2] Круглое В. М., Дополнительные главы теории вероятностей, М., 1984; [3] его же, «Матем. заметки», 1976, т. 20, в. 6, с. 879-82; [4] Круглое В. М., Антонов С. Н., «Теория вероятн. и ее примен>, 1982, т. 27, в. 4, с. 625-42; т. 29, в. 4, с. 735-42; [5] Якымив А. Л., там же, 1987, т. 32, в. 4, с. 691-702; [61 HornR.H., «Z. Wahr. unci verw. Geb.», 1972, Bd 21, H. 3, S. 179-87. B.M. Круглое. БЕЗГРАНИЧНО ДЕЛИМОЕ РАСПРЕДЕЛЕНИЕ в банаховом пространстве (infinitely divisible distribution in a Banach space) - вероятностная мера \i на банаховом пространстве В, удовлетворяющая следующему условию: для каждого п^1 существует вероятностная мера v„ такая, что ц = уя*...*уя; п Б. д. р. в бесконечномерном банаховом пространстве имеет и такую же структуру, как и в случае пространств В? : характеристич. функционал Б. д. р. допускает так наз. Леей каноническое представление. Б. д. р. и только они могут быть предельными законами для распределений сумм независимых слагаемых, подчиненных условию асимптотич. пренебрегаемо- сти. Наиболее изучен один подкласс Б. д. р.- устойчивые распределения (и в частности, гауссовские распределения) в банаховом пространстве. Лит.: [1] AraujoA., GineE., The central limit theorem for real and Banach valued random variables, N. Y., 1980; [21 Гихман И. И., Скороход А. В., Теория случайных процессов, т. 1, М., 1971; [3] Linde W., Infinitely divisible and stable measures on Banach spaces, Lpz., 1983. В.И. Паулаускас. БЕЗГРАНИЧНО ДЕЛИМОЕ РАСПРЕДЕЛЕНИЕ на группе (infinitely divisible distribution on a group) - распределение вероятностей Р на локально компактной группе G, БЕЗГРАНИЧНО 33
для к-рого при любом натуральном п существует распределение вероятностей Рп на G такое, что Р" = Р, где Р^ обозначает п-ю степень распределения Ря относительно операции свертки. Если группа G абелева, то множество J(G) всех Б. д. р. на группе G является подполугруппой в топологич. полугруппе Ж (G) всех вероятностных мер на G. В случае неабелевой G полугрупповое свойство для J(G), вообще говоря, не выполняется. Если G - корне-компактная группа, то множество J(G) слабо замкнуто в М (G). Для произвольных локально компактных групп (даже абелевых) это уже не верно. Как и в классич. случае, понятие Б. д. р. на группе тесно связано с теорией предельных теорем для сверток вероятностных мер на группе (см. Центральная предельная теорема на группах), хотя здесь и нет еще такой полной теории, как для распределений на II? . Так как для произвольной группы G вырожденное распределение Ъх, xeG} вообще говоря, не является безгранично делимым, то полезно ввести следующее понятие. Распределение вероятностей Р называется слабо безгранично делимым распределением на группе G, если для любого натурального п существует распределение Ря на G и хп е G такие, что Р = Р% * Ьх , где * обозначает операцию свертки распределений на G. Для абелевых групп множество JQ(G) всех слабо Б. д. р. на группе G секвенциально замкнуто в Ji\G). Очевидно, что J(G) a J0(G). Обратное включение верно только для безгранично делимых групп G. Пусть ц„у, ; = 1, ..., kn, n>\,- коммутативная инфинитези- мальная система мер на группе G, к-рая является корне-ком- пактной и одновременно Мура группой, и последовательность сверток щ = ця1* ...*\ink сходится к распределению \1. Тогда \ie.f(G). Для абелевых групп допускаются центрирующие сдвиги для ця, и в этом случае \ieJ0(G). Примерами Б. д. р. на группах являются обобщенное распределение Пуассона на группе, гауссовское распределение на локально компактной абелевой группе, идемпотентная мера на группе, устойчивое распределение на группе. См. также Безгранично делимое распределение на группе; проблема вложения. Лит.: [1] Хейер X., Вероятностные меры на локально компактных группах, пер. с англ., М., 1981. Ю. С. Хохлов. БЕЗГРАНИЧНО ДЕЛИМОЕ РАСПРЕДЕЛЕНИЕ на группе; проблема вложения (infinitely divisible distribution on a group; imbedding problem) - задача описания условий, при к-рых данное безгранично делимое распределение на группе (или все такие распределения) для конкретной группы (или группы из нек-рого специального класса) может быть вложено в сверточную полугруппу мер. Различают две постановки задачи: алгебраическое и непрерывное вложения. Говорят, что данная безгранично делимая вероятностная мера \i на группе G допускает алгебраическое вложение, если существует алгебраич. гомоморфизм ф полугруппы Q * всех положительных рациональных чисел с операцией сложения в полугруппу MX(G) всех вероятностных мер на группе G с операцией свертки такой, что ф(1) = ц. Другими словами, если обозначить ф(0 = \it, te Q *, то существует сверточная полугруппа мер \Lt, t e Q *, такая, что \it = \i. Мера \i допускает непрерывное вложение, если полугруппа (\it) непрерывна (см. Сверточная полугруппа). В этом случае гомоморфизм является топологическим и однозначно продолжается до топологич. гомоморфизма полугруппы IP+ всех неотрицательных действительных чисел с операцией вложения в полугруппу ж (G ) с топологией слабой сходимости. 34 БЕЗГРАНИЧНО Проблема вложения имеет положительное решение не для всех локально компактных групп. В силу этого возникает вопрос: для каких классов групп справедлива теорема вложения? Одна из наиболее общих теорем такого типа утверждает: если локально компактная группа G является корне-компакт- ной группой, то любое Б. д. p. \i на G допускает алгебраич. вложение (см. [1]). В частности, это справедливо для любой компактной группы. Вопрос о непрерывном вложении является более сложным. Вероятностная мера \1 из класса J(G) всех Б. д. р. на группе G называется корне-компактной, если ее корневое множество Д<Ц) =1^1 {vm:ve,H](G), vn = \it \^m^n} относительно компактно в Л (G). Пусть S - класс всех локально компактных групп G, для к-рых любая \ieJ(G) является корне-компактной. Класс S содержит класс сильно кор- не-компактных групп RQ. Пусть через #(G) обозначен класс всех \ieJi (G), к-рые допускают непрерывное вложение. Если группа G принадлежит 5, то #(G) плотно в J(G). Если, кроме того, любая связная подгруппа в G линейно связна, то J(G) = %(G). В частности, это справедливо для любой группы GeS} к-рая сама (или компонента G0 единицы к-рой) является группой Ли. Для абелевых групп этот результат можно усилить. Если GeS абелева, то J(G) = %(G) тогда и только тогда, когда G0 локально линейно связна. Кроме того, для абелевых групп существует сравнительно простой критерий принадлежности классу S: локально компактная абелева группа G тогда и только тогда лежит в 5, когда множество В (G) всех компактных элементов из G (то есть порождающих компактную подгруппу) компактно, а множество Г (G) делимых элементов из G (элементов а, для к-рых разрешимо уравнение хп = а) совпадает с G. В тех случаях, когда проблема вложения решается положительно, возникает вопрос об единственности такого вложения. Очевидно, достаточно рассмотреть этот вопрос для алгебраич. вложения. Данная задача сводится к установлению единственности извлечения корня любой степени п> \ из данного \ieJ(G). Удовлетворительное решение было получено в случае абелевых групп: если G - локально компактная абелева группа, то корень п-й степени для любого п > 1 определяется однозначно для любой iieJ(G) тогда и только тогда, когда G не имеет нетривиальных компактных подгрупп. Лит.: [1] Хейер X., Вероятностные меры на локально компактных группах, пер. с англ., М., 1981. Ю.С. Хохлов. БЕЗГРАНИЧНО ДЕЛИМОЕ РАСПРЕДЕЛЕНИЕ одно стороннее (onesided infinitely divisible distribution) - см. Одностороннее безгранично делимое распределение. БЕЗГРАНИЧНО ДЕЛИМОЕ РАСПРЕДЕЛЕНИЕ; разложение (infinitely divisible distribution; decomposition of) - представление безгранично делимых распределений в виде композиции (свертки) нек-рых распределений вероятностей. Распределения, участвующие в этом разложении, называются компонентами разложения. Нек-рые разложения Б. д. р. могут иметь компоненты, не являющиеся Б. д. р. (см. [1 ]-[3]). Важная задача здесь - описание класса /0 Б. д. р., имеющих только безгранично делимые компоненты. Представителями класса /0 являются, напр., нормальное распределение, распределение Пуассона, их композиция. Не принадлежат к /0 устойчивые распределения с показателем а при 0<а<2, а также гамма-распределение. Необходимым условием принадлежности к /0 Б. д. р., для к-рых спектральная функция G (х) в канонич. представлении Леви-Хинчина имеет положительный скачок в нуле или мера х~ dG(x) достаточно быстро растет при #-> ±0, является
принадлежность их к Линника классу L. Принадлежность к L не является достаточным условием принадлежности к /0, но распределения класса L, у к-рых при любом k>0 j\x\>ydG(x) = Oiexp{-ky}), #->oo, (*) принадлежит к /0. В общем случае принадлежность к L не необходима для принадлежности к /0. Так, напр., в /0 входят все Б. д. р., у к рых функция G(x) постоянна при х<а и х>Ь} где О<а <Ь^2а. Для решетчатых Б. д. р., у к-рых функция G(x) удовлетворяет условию (*), известны необходимые и достаточные условия принадлежности к /0, выражаемые в терминах расположения точек роста G(x). Простым достаточным условием принадлежности к /0 является следующее: на интервале а<х<Ь} где 0<а<2а<Ь, выполняется неравенство G'(x)^ ^* const >0. Класс /0 является плотным в классе всех Б. д. р. в топологии слабой сходимости; всякое Б. д. р. представляется в виде композиции конечного или счетного множества распределений из /0. Литп.:[\\ ЛинникЮ.В., Ос тр овски й И. В., Разложения случайных величин и векторов, М., 1972; [2] Лукач Е., Характеристические функции, пер. с англ., М., 1979; [3] Лившиц Л. 3., Островский И. В., Чистяков В. П., в сб.: Итоги науки и техники. Теория вероятностей. Математическая статистика. Теоретическая кибернетика, т. 12, М., 1975, с. 5-42; [41 Остро век и й И. В., «Теория вероятн. и ее примен.», 1986, т. 31, в. 1, с. 3-30. И. В. Островский. БЕЗГРАНИЧНО ДЕЛИМОЕ РАСПРЕДЕЛЕНИЕ сопровождающее (accompaning infinitely divisible distribution) - см. Сопровождающее безгранично делимое распределение. БЕЗГРАНИЧНО ДЕЛИМОЕ РАСПРЕДЕЛЕНИЕ; структура (structure of infinitely divisible distribution) - взаимозависимость Лебега разложения безгранично делимого распределения Р = Ра + Pd + Р, и соответствующей ему спектральной функции в Леей каноническом представлении Н = На + Примеры такой взаимозависимости: 1) Б. д. р. Р дискретно (то есть P-Pj) тогда и только тогда, когда полное изменение Var# спектральной функции Леви ограничено и H-Hd. 2) Б. д. р. Р не содержит дискретной составляющей (то есть Р^ = 0) тогда и только тогда, когда Var# = °°. 3) Б. д. р. Р абсолютно непрерывно (то есть Р = Pfl), если На Ф 0 и Var H - -оо. 4) Если УагЯ = оо иЯ = Яс/, то Р = Рдили Р = Р,.. Лит.: [11 Tucker H. G., «Trans. Amer. Math. Soc», 1965, v. 118, j\f? 6, p. 316-30; [21 Золотарев В. М., Круглое В. М., «Теория вероятн. и ее примен.», 1975, т. 20, в. 4, с. 712-24. В. М. Золотарев, В. М. Круглое. М-БЕЗГРАНИЧНО ДЕЛИМОЕ РАСПРЕДЕЛЕНИЕ (М-infinitely divisible distribution) - аналог безгранично делимого распределения в схеме перемножения независимых случайных величин. Умножение независимых действительных случайных величин X, У с функциями распределения Fx и FY индуцирует нолугрупповую операцию Ш, аналогичную свертке, то есть FXY = FX{\)FY. Функция распределения F называется М-без- гранично делимой и принадлежит к классу 9К, если для любого п ^ 2 функция F может быть представлена в виде w-кратной «свертки» нек-рой функции распределения Gn и распределения £8(„), вырожденного в одной из точек 8(п) = -1 или 6(и) = 1: F = G„UJGnUJ...UIGnUIEe(n). Класс 9К совпадает с множеством возможных предельных распределений для последовательностей произведений независимых случайных величин в к-рых ап*0 постоянные и Xnk подчинены аналогу условия бесконечной малости: для любого е>0 max Р{|Х^-1|>е}->0, п->оо. (*) Полугруппа действительных чисел относительно умножения содержит компактную подгруппу из двух элементов К = ( -1, 1). Условие (*) означает равномерное сближение в слабой топологии распределений величин Xnk с классом $ всех распределений, сосредоточенных на /С, являющимся подклассом 9R. Роль характеристич. функций для схемы перемножения независимых случайных величин играют характеристические преобразования распределений F: wkit) = j |*|,7 (sign *)*dF(.r). Для того чтобы функция распределения F с характеристич. преобразованием W принадлежала к Ш, необходимо и достаточно (см. [1]), чтобы функции wk имели вид wk(t) = akfx(t)(f2(t))x-2\ k = 0, 1, где fx и f2 - характеристич. функции безгранично делимых распределений, причем (в форме Леви канонического пред ставления) /■2(*) = ехр(( (eitx-\)dH(x)), а действительные параметры о^ подчинены условиям 0<а0^1, |at|^a0exp (-J rftfW). По аналогии с саморазложимыми распределениями и устойчивыми распределениями в классе 9К можно ввести понятие М-саморазложимых и М-устойчивых распределений. Лит.: [11 Золотарев В.М., «Докл. АН СССР», 1962, т. 142, № 4, с. 788-91. В. М. Золотарев. БЕЗГРАНИЧНО ДЕЛИМОЕ СЛУЧАЙНОЕ МНОЖЕСТВО (infinitely divisible random set) - случайное множество А, обладающее свойством: для любого натурального п существуют такие независимые одинаково распределенные множества А]} ..., АпУ что распределения случайных множеств At U ... U Ап и А совпадают. Лит.: [1] Матерон Ж., Случайные множества и интегральная геометрия, пер. с англ., М., 1978. А. Г. Катранов. БЕЗГРАНИЧНО ДЕЛИМЫЙ ПРОЦЕСС (infinitely divisible process) - стохастически непрерывный и однородный случайный процесс X (t) с независимыми приращениями, то есть такой, что для любого е>0 Р{|X (О - X (s) | > е} -> 0 при 5 ->/, приращения Х(^)- X(sj), ..., X (tn) - X (sn) независимы для любого набора tx < st ^ t2 < s2 ^ ... ^ tn < sn и распределения приращений зависят только от разностей tk-sk. Если считать, что почти наверное Х(0) = 0, то характеристич. функция f(X} t) величины Х(0, £>0, имеет вид f(X), где f(\) - характеристич. функция нек-рого безгранично делимого распределения. Траектории Б. д. п. X (t) почти наверное могут иметь только разрывы первого рода. Если характеристич. функция f(X) представлена в форме Леви канонического представления, то спектральная функция Н (х) имеет следующий вероятностный смысл: в интервале (t, t + A) траектория Б. д. п. имеет скачки величины Y<u<0 (0<u<Y) с вероятностью, равной #(м)Д + о(Д) [соответственно с вероятностью апХп\'Хп2' ••• 'Хпт> П**\} БЕЗГРАНИЧНО 35
-Жм)Д-о(Д)]. Если Н(х) = 0 при х>0, то процесс X(t) почти наверное не имеет положительных скачков (полунепрерывный сверху). Аналогично определяется Б. д. п., полунепрерывный снизу. Если Б. д. п. X (t) полунепрерывен сверху и P{lim Х(0 = ~}=1, t-*oo то пересечение любого уровня у > О происходит почти наверное в нек-рый случайный момент х(у)} представляющий собой Б. д. п. Между распределениями Б. д. п. X(t) и т(у) имеется явная зависимость (см. Безгранично делимых распределений двойственность). Лит.: [1] Гнеденко Б. В., Колмогоров А. Н., Предельные распределения для сумм независимых случайных величин, М.-Л., 1949. В. М. Золотарев. БЕЗГРАНИЧНО ДЕЛИМЫЙ ТОЧЕЧНЫЙ ПРОЦЕСС (infinitely divisible point process) - случайный точечный процесс, к-рый при любом целом п можно представить в виде суперпозиции п взаимно независимых одинаково распределенных случайных точечных процессов. Таким образом, Б. д. т. п. можно рассматривать как обобщение безгранично делимых распределений случайных величин. Пуассоновский точечный процесс является Б. д. т. п. Пусть Е (•) - конечная мера на (М, ЗЮ-измеримом пространстве всех локально ограниченных считающих мер (см. Точечный процесс), Еп - я-кратная свертка Е. Тогда вероятностное распределение на (М, 9R), задаваемое выражением с **п=\ я! определяет Б. д.т. п. Если вероятностное распределение Р на (М, Ш) определяет Б. д. т. п. Ф с фазовым пространством состояний А такой, что Р{Ф(Л )<<*>}= 1, то найдется такая мера Е на (М, 3DD, что Р = UE. Пусть || Vt - V21| - расстояние по вариации между мерами Vt и V2. Имеет место неравенство fUEi-UE2i^2lEl-E2l Лит.: [1] Керстан И., Маттес К., Мекке Й., Безгранично делимые точечные процессы, пер. с англ., М., 1982. Ю. К. Беляев. БЕЗГРАНИЧНО ДЕЛИМЫХ РАСПРЕДЕЛЕНИЙ ДВОЙСТВЕННОСТЬ (duality of infinitely divisible distributions) - особого типа аналитическая связь между двумя классами безгранично делимых распределений. Пусть Gx(x, и) - функция распределения однородного безгранично делимого процесса Х(и), Х(0)=0, почти наверное неограниченно возрастающего при м-»°о и не имеющего положительных скачков, и пусть Gx(x, v) - функция распределения момента t(v) первого прохождения процессом X уровня v>0. Процесс t(v), t(0) = 0, также является безгранично делимым, а функция распределения GT связана с Gx для положительных Хи х равенством \\\-cx(x,u))±=\xcxa,v)^. (о Jo x u Jo T v Плотности дх, дх функций распределения существуют или не существуют одновременно, причем в первом случае они связаны равенством хдх(х, u) = ugx(u,x). (2) Б. д. р. д. обнаружена в классе Острого устойчивых распределений в 1954 (см. [1]), а в общей ситуации - в 1961 (см. [2]-[4]). Связь между плотностями строго устойчивых распределений имеет вид xg (x,a,Q) = x~ag (*~a,a*,e*), (3) 36 БЕЗГРАНИЧНО где х>0, 1 ^ а ^ 2, 6 принимает любые допустимые для класса Означения и а* = 1/а, в* = а( 1 + в) - 1. В равенстве (3) случай (2) отвечает значению 6 = а-2. Интерпретация остальных случаев в (3) на языке случайных процессов неизвестна. Особенностью соотношений (1)-(3) является то, что они устанавливают связь не распределений в целом, а лишь их 4половинок», сосредоточенных на полуосях. Существующие при всех 5 > 0 преобразования Лапласа Е exp [sX (и)]- ехр [ uyx(s) ], Еехр [ -st(v)] = ехр [ - v\yx(s)] связаны равенством yx(yx(s))=s, эквивалентным (1). Однородные безгранично делимые процессы Х(и) [Х(0) = 0; Х(м)-> -во, и->оо], не имеющие отрицательных скачков, обладают аналогичным свойством, так как -Х(и) - процесс рассмотренного выше типа. Лит.: [1] Золотарев В. М., «Докл. АН СССР», 1954, т. 98, № 5, с. 735-38; [2] его же, «Тр. Матем. ин-та АН СССР», 1961, т. 64, с. 52-60; [3] его же, «Теория вероятн. и ее примен.», 1964, т. 9, в. 4, с. 724-33; [4] Боровков А. А., там же, 1965, т. 10, в. 2, с. 360-63. В. М. Золотарев. БЕЗГРАНИЧНО ДЕЛИМЫХ РАСПРЕДЕЛЕНИЙ СМЕСЬ (mixture of infinitely divisible distributions) - выражение вида Р() = /л Q(.,a)»iWa)f (*) где {СК-,а):аеЛ} - какое-либо семейство безгранично делимых распределений и \1 - нормированная мера [возможно, знакопеременная, ц(Л)=1], заданная на нек-рой а-алгебре подмножеств из А. Если А = [0, 1), \л - мера Лебега и Q( • ,a) - распределение измеримого безгранично делимого процесса Х(а), аеЛ, то смесь Р является предельным распределением для сумм Sn = £я1 + ... + £„v случайного числа v„ нек-рых независимых и равномерно предельно пренебрегаемых слагаемых (£„,• и v„ независимы) (см. [1]). Б. д. р. с. Р может сама быть безгранично делимым распределением, напр. если Л = [0, °°), ц- безгранично делимое распределение на Л и Q(-,a) - распределение однородного безгранично делимого процесса Х(а) на А (см. [2]). Для многомерных смесей известна следующая теорема Шёнберга: если характеристич. функции fn(t), £elR", имеют вид fn(t) = <р( 11\), где \t\ - евклидова норма вектора 1е R?" и ф - какая-либо функция на И? , то для всех п ^ 1 /"(0=Jo°°e"U|2>(rfot)- Если к тому же fn при всех п>\ является характеристич. функцией безгранично делимого распределения в II?", то ц также будет безгранично делимо. О смесях функций распределения см. в [3]. Лит.: [1] Szasz D., «Ann. Math. Statist.», 1972, v. 43, № 6, p. 1902-13; [2] Феллер В., Введение в теорию вероятностей и ее приложения, пер. с англ., т. 2, М., 1984; [3] Лукач Е., Характеристические функции, пер. с англ., М., 1979; [4] Ахиезер Н. И., Классическая проблема моментов, М., 1961. В. М. Круглое. БЕЗОТКАЗНОЙ РАБОТЫ ВЕРОЯТНОСТЬ (probability of breakdown-free/failure-free operation/survival function) - см. Надежности математическая теория. БЕЗОТКАЗНОСТЬ (failureless) - см. Надежности математическая теория, Надежности системы показатели. БЕЗРАЗЛИЧНАЯ ЗОНА (indifference zone) в задачах проверки статистических гипотез - область, разделяющая параметрические множества, отвечающие нулевой гипотезе Я0 и альтернативе Нх. Содержательный смысл Б. з.- множество малых отклонений от Я0, необнаружёние к-рых не влечет серьезных последствий. Б. з. вводится обычно в задачах отыскания критериев, имеющих гарантированную мощ-
ность, напр. для заданных а, е>0 найти критерий проверки #о: 6 ^ в0 размера а, имеющий мощность ^ 1 - е при всех в^в0 + Л [здесь (в0, 60 + Д) - Б. з.]. Выполнение такого рода требований обеспечивается за счет планирования необходимого числа наблюдений. Лит.: [1] Леман Э., Проверка статистических гипотез, пер. с англ., 2 изд., М., 1979. Д. М. Чибисов. БЕЗРАЗЛИЧНАЯ ДОЛЯ (indifferent part) - см. Оперативная характеристика. БЕЗУСЛОВНАЯ ВЕРОЯТНОСТЬ (unconditional/absolute probability) - вероятность Р(Л ) события А, называемая так в случае, когда наряду с ней рассматриваются также нек-рые условные вероятности Р(А\В). Если события Bi} i- l, ..., п, составляют разбиение, то по условным вероятностям Р(Л|#г) и Б. в.. P(#j) с помощью полной вероятности формулы можно вычислить Б. в. Р(Л ). Б. А. Севастьянов. БЕЗУСЛОВНОЕ РАСПРЕДЕЛЕНИЕ (unconditional/absolute distribution), априорное распре делен ие,- распределение вероятностей, называемое так в случае, когда наряду с ним рассматриваются также нек-рые условные распределения. Ю. В. Прохоров. БЕЙЕСА ФОРМУЛА (Bayes formula) - формула, позволяющая вычислять апостериорные вероятности событий (или гипотез) через априорные вероятности. Пусть Ах, ..., Ап - полная группа несовместных событий: [jA^Q, А{С\А^=:0 при i*j. Тогда апостериорная вероятность Р(А^В) события Ai при условии, что произошло событие В (с Р(В ) >0), может быть найдена по формуле Бей ее а: Р(л;|в)= Р(^Р(В'Л.> , 2"=1Р<Д->Р<в|д<) где Р(Л,) - априорная вероятность события Л,, Р(В\А^ - условная вероятность события В при условии, что произошло событие А{ (с Р(Л,) >0). Б. ф. доказана Т. Бейесом (Т. Bayes, опубликована в 1763). См. также Бейесовский принцип. Лит.: [ 1 ] Колмогоров А. Н., Основные понятия теории вероятностей, 2 изд., М., 1974. А. Н. Ширяев. БЕЙЕСОВСКАЯ ОЦЕНКА (Bayesian estimator) - статистическая оценка, на к-рой достигается минимум апостериорного риска. Напр., Б. о. скалярного параметра в при квадра- тич. функции потерь L (6, d) = (Q-d) есть апостериорное среднее в, а при функции потерь L (в, d)=\Q-d\ - медиана апостериорного распределения в; Б. о. среднего значения в нормального (в, а) распределения по выборке фиксированного объема п с нормальным (|1,т) априорным распределением в является апостериорное среднее (пхо~2 + ит~2)/(яо~2 + х-2), какова бы ни была выпуклая функция потерь вида L (|б - d \). При соответствующих условиях регулярности, накладываемых на распределение наблюдаемой случайной величины и априорное распределение оцениваемого параметра в, асимптотическое (при стремлении объема выборки к бесконечности) распределение Б. о. не зависит от априорного и совпадает с асимптотич. распределением оценки максимального правдоподобия. См. также Априорной информации учет. Лит.:[\] Боровков А. А., Математическая статистика, М., 1984; [2] Ибрагимов И. А., Хасьминский Р. 3., Асимптотическая теория оценивания, М., 1979; [3] Закс Ш., Теория статистических выводов, пер. с англ., М., 1975. И. Н. Володин. БЕЙЕСОВСКАЯ РЕГРЕССИЯ (Bayesian regression) - оценивание параметров линейного регрессионного эксперимента при наличии априорного распределения для параметров. См. также Априорной информации учет. М. Б. Малютов. БЕЙЕСОВСКАЯ РЕШАЮЩАЯ ФУНКЦИЯ (Bayesian decision function/rule) - решающая функция, на к-рой достигается минимум апостериорного риска. Иногда Б. р. ф. определяется из условия минимизации априорного риска, и если бейесовский риск (априорный риск Б. р.ф.) конечен, то эти два определения совпадают. См. Бейесовский подход к статистическим задачам. Лит.: [1] Закс Ш., Теория статистических выводов, пер. с англ., М., 1975. А. В. Бернштейн, И. И. Володин. БЕЙЕСОВСКАЯ СТРАТЕГИЯ (Bayesian strategy) в теории статистических игр- стратегия (решающая функция), минимизирующая средние потери при данном априорном распределении на параметрическом множестве (см. Игра двух лиц. Статистическая игра). А. А. Боровков. БЕЙЕСОВСКИЙ КРИТЕРИЙ (Bayesian test) - статистический критерий, построенный на основе бейесовского подхода к статистическим задачам. Б. к. является конкретизацией в теории проверки статистич. гипотез общего понятия бейесов- ской решающей функции в теории статистич. решений. Пусть X - случайная выборка с распределением Ре, зависящим от неизвестного параметра в е 0 и обладающим плотностью p(x\Q) относительно нек-рой а-конечной меры \1. По X проверяется нулевая гипотеза Я0:в е 0О против альтернативной гипотезы Нх:веВх, где 0О и 0t - непустые непересекающиеся подмножества 0. Пусть на параметрич. пространстве 0 (с выделенной на нем а-алгеброй подмножеств) задано априорное распределение тс(-), к-рое порождает распределения Яо(-) и щ(-) на 0О и 0t, а также априорные вероятности qQ и qx гипотез Я0 и Нх, qQ + qx = 1. Критерий <р(•; тс) называется бейесовским критерием, если он минимизирует (среди всех критериев) априорный риск гя(ф) = ^ЕЛоф(Х) + ^1ЕЯ1(1-ф(Х)), где Eni4>(X) = \q>(x)fKi(x)vi(dx), а /*.U) = je р(х\9)щШ) для i = 0,l. Б. к. ф( •; тс) имеет вид \0 при qQf(x)>qxf(x\ у(х, к) = < ^при^о^иК^^Ы. Критерий ф(; тс) называют иногда Б. к. в узком смысле, в отличие от Б. к. в широком смысле, являющегося пределом (в смысле слабой сходимости критериев) последовательности {ф(-; тс„)} Б. к. в узком смысле (относительно последовательности {тс„} априорных распределений). При достаточно общих условиях совокупность всех Б. к. в широком смысле образует полный класс критериев, и при этом можно ограничиться только последовательностями априорных распределений, каждое из к-рых сосредоточено в конечном числе точек. Описанный выше подход к построению Б. к. называют иногда полным бейесовским п од х од ом, в отличие от частичного бейесовского подхода, при к-ром заданы лишь априорные распределения тс0 и кх на 0О и 0t, но не заданы априорные вероятности гипотез. При частичном бейесовском подходе иногда ограничиваются рассмотрением критериев, у к-рых J <p(x)fK((x)iL(dx) ^ а, и в этом классе выбирается наиболее мощный критерий Неймана-Пирсона в задаче различения двух простых гипотез БЕЙЕСОВСКИЙ 37
относительно плотностей распределения fK (•) и fK (•) выборки X. Б. к. определяются и строятся также в задачах проверки гипотез при последовательной схеме наблюдений. Лит.:[\] Боровков А. А., Математическая статистика, М., 1984; [2] Л еман Э., Проверка статистических гипотез, пер. с англ., 2 изд., М., 1979; [3] Вальд А., Статистические решающие функции, в сб.: Позиционные игры, пер. с англ., М., 1967; [4] Закс Ш., Теория статистических выводов, пер. с англ., М., 1975; [5] Ширяев А. Н., Статистический последовательный анализ, М., 1969. А. В. Бернштейн. БЕЙЕСОВСКИЙ ПОДХОД к статистическим задачам (Bayesian approach to statistical problems) - подход, предполагающий существование на параметрическом пространстве 0 априорного распределения G и ставящий целью построение решающих функций 8, минимизирующих априорный риск Rc(b) = jQ R(e,b)GUe). Таким образом, в Б. п. истинное (неизвестное) значение параметра 6 (6 е 0) распределения Р(- |в) наблюдаемого случайного элемента (напр., выборки) X трактуется как реализация нек-рой случайной величины в с распределением G; в качестве риска выступает среднее (по распределению G) значение функции риска Жб,8) - величина полных потерь RG(b) = = Е1(в,8Ы). Решающая функция 8G = 5G(*), доставляющая минимум RG(b), называется бейесовской решающей функцией, а ее априорный риск RG(bG) ~ бейесовским риском. Если бейесов- ская решающая функция не существует, то под бейесовским риском понимается величина inf RG(b). 5 В ряде руководств по математич. статистике определяющим свойством бейесовской решающей функции является минимальность не априорного, а апостериорного риска: Яс(8И = |0 ШМх))р(х\в№Ш)/рс(х); здесь p = dP/d\i - функция плотности [по нек-рой мере |1 на выборочном пространстве (йГ, %)] случайного элемента X, Рс(*) = 1в Р(ФЮШ) - маргинальная (безусловная) функция плотности X, L(Q,b) - функция потерь. Такое определение бейесовской решающей функции более конструктивно. Если минимум апостериорного риска обладает конечным по мере PG средним значением, то данные определения эквивалентны, поскольку Лс(8)-/л.Лс(8|*)рс(*М«'*)- Априорный риск является числовой характеристикой решающей функции, и поэтому заведомо существует, если и не бейесовская, то е-бейесовская решающая функция 8G, для к-рой tfG(8G)^inftfG(8) + e 5 при нек-ром е>0. Пример. В задаче различения двух сложных гипотез #0: в е 0 (решение d0) и #t: в е 0t = 0\0О (решение dx) при функции потерь типа 0 - 1: L (в, d{) = 1, если в е 0^, и L (в, dt) = = О, если в g 0j, i = 0,l; апостериорный риск решающей функции 8 в точке 8 = d{ равен апостериорной вероятности справедливости альтернативной (к Н^ гипотезы Ht_t: RG(di\x) J^ _ p(x\Q) G (dQ)/pG (x). Следовательно, бейесовский критерий принимает гипотезу с наибольшей апостериорной вероятностью ее справедливости 38 БЕЙЕСОВСКИЙ (при равенстве апостериорных вероятностей возможна рандомизация). Пример бейесовской решающей функции в статистич. проблеме оценивания см. в ст. Бейесовская оценка. Б. п. играет важную роль при построении допустимых статистич. процедур (бейесовские решающие функции и их пределы образуют полный класс решающих функций) и минимаксных решающих правил (см. Статистических решений теория). При построении гарантийных процедур статистич. вывода в рамках Б. п. ограничения часто накладываются не на априорный риск, а непосредственно на апостериорный (последнее особенно практикуется при построении бейесовских доверительных интервалов). Более того, в ряде прикладных задач (напр., в приемочном контроле) необходимо строить статистич. процедуры, для к-рых выполняются заданные ограничения на величину средних потерь, связанных с принятием каждого из решений d, то есть накладывать ограничения на функцию d-риска: RG(d,b) = E{L (Q,d)|b(x) = d},de2). Это так наз. ^-апостериорный подход к проблеме гарантийности статистич. вывода, предложенный Л. Н. Боль- шевым (1974) в рамках статистич. проблемы различения гипотез. Развитие его идей в рамках общей теории статистич. решений см. в [5]. Трудность практич. реализации Б. п. в тех задачах, где статистик действительно имеет дело с последовательностью экспериментов и где соответствующие им значения (неизвестные) в|, 62,... действительно представляют выборку из распределения G (напр., задачи статистич. контроля качества и аттестации выпускаемой продукции), состоит в основном в необходимости конкретизации априорного распределения. Естественно, G, как и распределение наблюдаемой случайной величины, можно конкретизировать разве лишь с точностью до значений нек-рых параметров, построив соответствующую вероятностную модель на параметрич. пространстве 0, или использовать непараметрич. методы математич. статистики. В любом случае объективной информацией о неизвестном распределении G служат данные «архива» - результаты аналогичных статистич. экспериментов, проводимых ранее, и здесь вступает в силу бейесовский подход эмпирический. Существуют и другие способы конкретизации априорного распределения, связанные с использованием принципа наименьшей информативности, эксплуатирующие понятия субъективной вероятности, функций полезности, доверия и пр. При построении гарантийных процедур используют также консервативный подход. Лит.: [1] Де Гроот М., Оптимальные статистические решения, пер. с англ., М., 1974; [21 Hartigan J. A., Bayes theory, N. Y.- [а. о.], 1983; [3J Закс Ш., Теория статистических выводов, пер. с англ., М., 1975; [4] Боровков А. А., Математическая статистика, М., 1984; [5] Володин И. Н., в сб.: Исследования по прикладное математике, Казань, 1984, в. 10, с. 13-53. И. Н. Володин. БЕЙЕСОВСКИЙ ПОДХОД эмпирический (empirical Bayesian approach) - статистическая реализация бейесовского подхода к статистическим задачам при неизвестном распределении G, состоящая в построении состоятельных оценок бейесовских решающих функций 8С по результатам х =(xv ..., xk) предшествующих (данному, текущему) статистические экспериментов. Результат х текущего эксперимента есть реализация случайного элемента X (напр., выборки) с распределением Р(- |б), где в - фиксированная неизвестная точка параметрич. пространства 0, относительно значения к-рой необходимо принять определенное решение d из пространства решений Я). Результаты xv..., xk «архивных» данных представляют собой реализации аналогичных X независимых случайных элементов Xj,..., Xk, причем соответствующие значения et, ..., 6/,
параметров в распределениях Р(|в,), i= 1,..., /г, этих элементов являются, в свою очередь, реализацией случайной выборки из распределения G. Таким образом, х - реализация выборки из безусловного (маргинального) распределения X: PG()=Je P(-|e)G(</e). Если класс @ = {G(-,A,), ХеА} возможных априорных распределений G конкретизирован с точностью до значений нек-рого конечномерного параметра X, то X можно оценить по х - выборке из распределения Рд(-Д), и при построении бейесовской решающей функции использовать вместо априорного распределения G его оценку G(-,Xk). Это исторически первый метод построения эмпирич. процедур; его использовал К. Джини (1911, см. [1]), к-рому отдается приоритет в открытии эмпирич. Б. п. Ряд результатов К. Джини предвосхищает современные идеи эмпирич. Б. п. в «непараметрич. случае», когда ® - класс всевозможных априорных распределений на параметрич. пространстве (см. [2]). С. Н. Бернштейн [3], указывая на некорректность использования классических (не бейесовских) доверительных интервалов при аттестации качества выпускаемой продукции, предложил в бейесовских доверительных интервалах использовать в качестве оценки G решения интегрального уравнения ркЬ,хш) =J0 p(*|e)G«e), С) где pk(x,x ) - оценка плотности Pq(x) распределения PG по данным архива, ^(.г|в) - плотность Р(|6) по нек-рой мере ц. Естественно, в такой постановке построение эмпирич. процедур сталкивается со всеми трудностями решения некорректных задач [уравнение (*) есть уравнение Фредгольма 1-го рода]. Окончательный «прорыв» (по образному выражению Дж. Неймана [6]) в данной области математич. статистики принадлежит X. Роббинсу ([4], [5]), к-рый сформулировал общую задачу эмпирич. бейесовского решения, ввел понятие риска эмпирич. процедур, сформулировал принцип оптимальности при выборе эмпирич. решающих функций и разработал общие методы их построения. В рамках общей статистических решений теории эмпирич. Б. и. рассматривает в качестве объекта исследования бейесов- ские решающие функции 5G = 8G(.r) и их эмпирич. аналоги - эмпирич. решающие функции, определенные на прямом произведении (9С + , И *) выборочных пространств. При заданной функции потерь L (в,d), по к-рой строилась бейесовская решающая функция 8G, риск эмпирич. решающей функции bk определяется как полные средние потери: ^(6fc) = ELU6fc(X,X(W)) = = i* -Jt СШ1 «e,8ikUx(«))PWx|e)nJpcWxj). Эмпирич. решающая функция bk называется асимптотически оптимальной, если ее риск сходится к бейесовско- му ^(бд) ->^G(8G) пРи &->°° и любом фиксированном распределении G. В ряде последних публикаций вместо «асимптотически оптимальная эмпирич. решающая функция» употребляется термин «эмпирическая бейесовская решающая функция»; ранее, следуя X. Роббинсу, последний термин употреблялся применительно к любой эмпирич. решающей функции, вне зависимости от ее оптимальных свойств. Необходимым условием существования асимптотически оптимальных эмпирич. решающих функций является «простота» бейесовской решающей функции 8G - зависимость 8G от априорного распределения G только через безусловное распределение X. Более точно: 8G называется простой, если равенство PG = PG для каких-либо GX*G2 влечет 8G =8G почти всюду. Пример 1. Пусть поставлена задача различения двух сложных гипотез 6^60 (решение dx) и 6>в0 (решение d2) о параметре в равномерного на (0,6) распределения. Статистич. эксперимент состоит в регистрации одного наблюдения х случайной величины с распределением из данного семейства. Используется функция потерь типа 0 - 1: потери равны 0 или 1 в зависимости от того, принято правильное (для данного в) или ложное решение. Пусть класс возможных априорных распределений G совпадает с множеством всех абсолютно непрерывных относительно меры Лебега распределений на положительной полуоси и g(Q) - плотность распределения G. Безусловная плотность наблюдаемой случайной величины X равна рс(х) = \~(д(в)/Шв, и бейесовская решающая функция принимает при результате Х = х значение dv если 2pG(max (%,x)) <pG(x), и значение d2 - в противном случае. Бейесовская решающая функция проста (зависит от G через маргинальную плотность X), и асимптотически оптимальную эмпирич. решающую функцию можно построить на основе состоятельной оценки (напр., ядерной) плотности pG(x). Пример 2. Пусть в - вероятность успеха в биномиальной схеме испытаний с объемом выборки п. Рассматривается проблема бейесовской оценки в при квадратич. функции потерь. Поскольку в данной схеме испытаний существует достаточная статистика X, реализации х к-рой равны числу «успехов» в п испытаниях, то бейесовская оценка 8G зависит от выборочных данных только через х и выражается через маргинальные вероятности Рс(у>п ) = Ре{^ = У) в виде Здесь решающая функция Ьс(х) не является простой бейесовской оценкой (ситуация, типичная для конечных выборочных пространств; см. [7]), и, таким образом, асимптотически оптимальной эмпирич. оценки не существует. Однако, используя архивные данные (выборки объема п)} можно построить асимптотически оптимальную эмпирич. оценку, соответствующую бейесовской оценке по выборке объема п - 1. При достаточно большом п это вполне удовлетворительное в практич. отношении решение проблемы оптимизации эмпирич. оценки. После выхода статей X. Роббинса [5] и Дж. Неймана [6] появились работы по данному кругу проблем, особенно в области оценки действительного параметра в при квадратич. функции потерь. В этом случае бейесовская оценка имеет явный вид - она равна апостериорному среднему параметра в, поэтому проблема простоты бейесовской оценки и выяснения достаточных условий существования асимптотически оптимальных оценок решается в достаточно широком классе вероятностных моделей (см., напр., [9]). Основная масса публикаций посвящена построению оптимальных оценок в рамках конкретных вероятностных моделей и исследованию скорости сходимости риска этих оценок к бейесовскому при объеме архива 6->оо. Скорость сходимости в случае бесконечномерного пространства возможных априорных распределений обычно (за исключением патологич. случаев) меньше 0(/г-1). Это так наз. гипотеза Си нгха (см. [8]), полное решение к-рой с указанием нижних границ для скорости сходимости дано в [10]. БЕЙЕСОВСКИЙ 39
В тех случаях, когда асимптотически оптимальной оценки не существует, полезный в практич. отношении метод двусторонней оценки бейесовской решающей функции предложен Л. Н. Большевым [11]. В рамках общей задачи параметрич. оценивания он состоит в следующем. По результату х текущего эксперимента вычисляются два экстремума, связанные с бейесовским решением bG(x): 5U PG) = inf 8G, (х)иЪ(х,Рс) = sup 8G, (x) G G по всем распределениям С, удовлетворяющим равенству PG' = PG. Границы 8 и 8 являются простыми функциями и при довольно общих условиях состоятельно оцениваются по архивным данным. Эмпирич. Б. п. оказал большое влияние на развитие теории статистич. решений в целом. По существу это новая область математич. статистики, способная решать многие практически важные проблемы гарантийного контроля качества, выборочной аттестации продукции, статистич. диагностики и др.; эмпирич. решающие функции как бы учитывают опыт прошлого и приводят к резкому сокращению средних потерь и затрат на постановку статистич. эксперимента. В рамках эмпирич. Б. п. находит неформальное объяснение ряд феноменов теории составных решений. Развитие идей X. Роббинса применительно к б/-апосте- риорному подходу к проблеме гарантийности статистич. вывода (см. Бейесовский подход к статистическим задачам) дано в [12]. Лит.: [1] Gini С, «Metron», 1949, v. 15, p. 133-71; [2] For- cina A., «Int. Statist. Rev.», 1982, v. 50, p. 65-70; [3] Берн- штейн С. Н., «Изв. АН СССР. Сер. матем.», 1941, т. 5, с. 85-94; [4] Robbins П., в кн.: Proceedings Berkeley Symposium Mathematical Statistics and Probability, v. 1, Berk,- L. Ang., 1956, p. 157-63 (рус. пер. - «Математика», 1964, т. 8, № 2, с. 133-40); [5J его же, «Ann. Math. Statist.», 1964, v. 35, № 1, p. 1-20 (рус. пер.- «Математика», 1966, т. 10, № 5, с. 122-40); [6J Neyman J., «Rev. Inst. Int. Statist.», 1962, v. 30, № 1, p. 11-27 (рус. пер.- «Математика», 1964, т. 8, № 2, с. 113-32); [7] Каган А. М., «Докл. АН СССР», 1963, т. 150, № 4, с. 733-35; [8] Singh R. S., «Ann. Statist.», 1979, v. 7, X° 4, p. 890-902; [9] Казакявичюс В. В., «Изв. вузов. Математика», 1983, № 11, с. 67-73; [10] его же, в кн.: IV Междунар. Вильнюс, конф. по теори?! вероятн. и матем. статист. Тезисы докл., Вильнюс, 1985, т. 2, с. 7-8; [11] Большее Л. Н., в кн.: Междунар. конгресс математиков в Ницце, 1970. Докл. сов. матем., М., 1972, с. 48-55; [12] Симушкин СВ., «Изв. вузов. Математика», 1983, № 11, с. 42-58. И. Н. Володин. БЕЙЕСОВСКИЙ ПРИНЦИП (Bayesian principle) теории статистических игр- утверждение, позволяющее редуцировать задачу отыскания бейесовских стратегий статистических игр к той же задаче для более простых обычных игр двух лиц. Пусть (D, 0, w) - исходная игра двух лиц и (2>, 0, W) вместе с парой (X, Ре) есть соответствующая статистич. игра, где XgI- выборка из распределения Ре, ве0, $ - множество всех решающих функций 8(Х): X-+D, W(b(),Q)=jw(b(x),Q)PQ(dx). Если существует плотность fQ(x) = dPQ(x)/d\i распределения Рв относительно нек-рой а-аддитивной меры |i на И и существует плотность g(t) = dQ(t)/dX априорного распределения Q относительно нек-рой а-аддитивной меры X на 0, то апостериорное распределение Qx, условное при заданной выборке X, будет иметь относительно меры X плотность дщх) = НЩОО^ f(x) = Г q(t)ft(x)X(dt) (») (формула Бейеса). 40 БЕЙЕСОВСКИЙ Пусть исходная игра (D, 0, w) для любого априорного распределения Q имеет бейесовскую стратегию Kq. Б. п. утверждает: при наличии плотностей fcuq априорному распределению Q в статистич. игре (D, 0, W) отвечает бейесовская стратегия Kq (X), совпадающая с бейесовской стратегией Kq исходной игры двух лиц для стратегии природы Qx, где Qx - апостериорное распределение с плотностью (*). Это утверждение, выражаемое равенством Kq(X) = Kq , сводит поставленную задачу к нахождению апостериорного распределения Qx и к отысканию бейесовских стратегий для исходной игры. Б. п. позволяет немедленно получить вид бейесовских стратегий для основных классов статистич. задач. Напр., если D = {bv б^}, 6 = {6^ 62}, w(bit 6;) = wtj(wu = w22 = = 0) и рассматривается задача проверки двух простых гипотез {e = et} и {в = в2} на основании выборки X из распределения Ре, то бейесовский критерий будет иметь вид 8(Х) = в2> если fe{x)/fQ2(x) < в (1 - Я)/<№ ~ я), YJ&a = wx2/(wn + w2x)) q есть априорная вероятность события {6 = 6^. Если D и 0 - области из II? , w (8, в) = с (8 - в) , то бейесовская оценка параметра в будет иметь вид eQ = \ tOx(dt) = j tq(t\x)X(dt). Это есть среднее значение апостериорного распределения. Если же w (8,6) = с 18 - 61, k = 1, то 6q равно медиане апостериорного распределения. Лит.: [ 1 ] Б о р о в к о в А. А., Математическая статистика. (Дополнительные главы), М., 1984. А. Л. Боровков. БЕЙЕСОВСКИЙ РИСК (Bayesian risk) - нижняя грань (но всем решающим функциям) априорного риска. Если существует бейесовская решающая функция, то ее априорный риск равен Б. р. См. Бейесовский подход к статистическим задачам, Непараметрический дискриминантный анализ, Апостериорный риск. А. В. Бернштейн, И. Н. Володин. БЕЙЕСОВСКОЕ ИЗМЕРЕНИЕ (Bayesian measurement) - см. Квантовая теория проверки гипотез и оценивания. БЕЙЕСОВСКОЕ ОТКЛОНЕНИЕ (Bayesian deviation) - см. Квантовая теория проверки гипотез и оценивания. БЕЙЕСОВСКОЕ РЕШАЮЩЕЕ ПРАВИЛО (Bayesian deci sion rule) - см. Непараметрический дискриминантный анализ. БЕЙЕСОВСКОЕ РЕШЕНИЕ (Bayesian decision) - решение, принятое на основе бейесовской решающей функции. См. Статистических решений теория, Бейесовский подход к статистическим задачам. А. В. Бернштейн. БЕЛЛА ЧИСЛА (Bell numbers) - см. Комбинаторные числа, Случайное разбиение. БЕЛЛМАНА ПРИНЦИП ОПТИМАЛЬНОСТИ (Bellman optimality principle) - см. Стохастическое динамическое программирование. БЕЛЛМАНА УРАВНЕНИЕ (Bellman equation) - см. Управляемый диффузионный процесс, Управляемый скачкообразный процесс. БЕЛЛМАНА-ХАРРИСА ПРОЦЕСС (Bellman-Harris pro cess), (G, Л)-процесс,- одна из основных моделей в теории ветвящихся процессов, предложенная Р. Беллманом и Т. Харрисом [1] в качестве обобщения Гальтона - Ватсона процесса и ветвящегося марковского процесса с непрерывным временем. Частицы Б.-Х. и. эволюционируют независимо друг от друга. Длительность жизни частицы - случайная величина с функцией распределения G(t). Погибая, частица порождает случайное число потомков в соответствии с производящей функцией his). Если Z (t) - число частиц в момент t в Б.-Х. п., то функция F(^;5) = E[5Z(°|Z(0) = 1J
удовлетворяет интегральному уравнению F(t;s) = ^ h(F(t- u\s))dG(u) + 5(1 - G(0). См. также Ветвящийся процесс, Критический ветвящийся процесс, Ветвящийся процесс; регулярность. Лит.: [1) Bellman R., Наг г is Т., «Proc. Nat. Acad. Sci. USA», 1948, v. 34, M> 12, p. 601-04. В. А. Ватутин. БЕЛЫЙ ШУМ (white noise) - обобщенный стационарный случайный процесс X(t) с постоянной спектральной плотностью. Корреляционная (обобщенная) функция процесса Б. ш. имеет вид B(t) = c b(t), где а - нек-рая положительная постоянная, а 8(0 - дельта-функция. Процесс Б. ш. широко используется в приложениях для описания случайных возмущений с очень малым временем корреляции (напр., «теплового шума» - пульсаций силы тока в проводнике, вызываемых тепловым движением электронов). В спектральном разложении Б. ш. X(t) = f eiXtdz(X) «элементарные колебания» ег dziX) при всех частотах X имеют в среднем одинаковую интенсивность, точнее, их средний квадрат амплитуды есть Е|<Ш)|2 = °Ld\, -оо<А,<оо. Указанное выше спектральное разложение означает, что для любой интегрируемой с квадратом функции <р(0 (Х,ф) = |°° q>(t)X(t)dt = J" q>(X)dz(X\ где ц>(Х) - преобразование Фурье <р(0; более явная зависимость обобщенного процесса X = (X, <р) от функции <р (t) может быть описана с помощью соответствующей стохастич. меры dt] (t) того же типа, что dz(X)[dr\(i) - преобразование Фурье стохастич. меры dz (X)], а именно: <х, ф>=Г ф(о</л<>>. J — oo Гауссовский белый шум X(t), являющийся обобщенной производной от броуновского движения Т| (t)(X(t) = = Г)'(0), служит основой для построения стохастич. диффузионных процессов У (О, «управляемых» стохастич. дифференциальными уравнениями вида Y'(t) = a(t,Y(t)) + o(t,Y(t)) л'(0; эти уравнения обычно записывают в форме дифференциалов: dY(t) = a(t,Y(t))dt + o(t,Y(t))dy\(t). Другой важной моделью с использованием Б. ш. является случайный процесс Y(t), описывающий поведение устойчивой колебательной системы под воздействием стационарных случайных возмущений X(t), когда Y(s), s<t, не зависят от Х(и), u>t\ простейшим примером может служить система вида P(d/dt)Y(t) = X(t), где P(z) - многочлен с корнями в левой полуплоскости; после затухания «переходных процессов» В приложениях при описании так наз. процессов дробового эффекта большую роль играет Б. ш. вида (k изменяется от -°° до «> и ..., т^, т0, Tj,...- случайные моменты, распределенные во времени по пуассоновскому закону), точнее, X(t) является обобщенной производной пуас- соновского процесса t\(t). Сам процесс дробового эффекта имеет вид Y(t) = foQ c(t,s)X(s)ds^foo c(t,s)dy\(s) = ^k c(t,s-xk), где c(t,s) - нек-рая весовая функция, удовлетворяющая условию f_ \c(t,s)\2ds<00; при этом среднее значение обобщенного процесса Х=(Х,ф) есть д(ф) = й y(t)dt, J — oo где а - параметр упомянутого выше пауссоновского закона, и стохастич. мера dz(X) в спектральном представлении X(t) = a+C eiUdz(X) J — oo этого процесса такова, что E\dz(X)\2 = (a/2n)dX. Лит.: [\] Прохоров Ю. В., Розан о в Ю. А., Теория вероятностей, 3 изд., М., 1987. Ю.А. Розанов. БЕЛЫЙ ШУМ в конечной полосе частот (white noise in a finite bandwidth) - гауссовский (или, при часто используемом расширенном толковании этого термина, произвольный) стационарный случайный процесс с нулевым средним значением, спектральной плотностью вида f(X) = /о = const при \Х\ ^Q, f(X) = 0 при \X\ >Q, где Q. - нек-рая положительная постоянная, и корреляционной функцией £(т) = Г e4Xxf(X)dX = 2/o sinflT J-00 т Б. ш. в конечной полосе частот может быть получен при помощи пропускания обычного Б. ш. через линейный фильтр низких частот, никак не искажающий гармонич. колебания круговой частоты Х^£1, но задерживающий все колебания с частотой Х>£1. А. М. Яглом. 'БЕЛЫЙ ШУМ дискретный (discrete white noise) - см. Дискретный белый шум. БЕЛЫЙ ШУМ дробный (fractional white noise) - см. Дробный белый шум. БЕЛЯЕВА АЛЬТЕРНАТИВА (Belyayev alternative) - см. Случайный процесс; регулярность траектории. БЕНФОРДА ЗАКОН (Benford's law) - см. Первой значащей цифры закон. БЕРГА МЕТОД оценивания параметров авторегрессии (Burg's method in estimation of parameters of autore- grassive process) - метод оценивания коэффициентов авторегрессии ф;, У = 1, ..., р, и дисперсии оа (р) остаточного шума в модели авторегрессии порядка р. Использование этой модели сводится к допущению, что ряд наблюдений xt, t= l, ..., п, представляет собой реализацию авторегрессии процесса порядка р (см. Линейный фильтр). Основное отличие принадлежащего Дж. Бергу (J. Burg) метода оценивания (см., напр., [1]) от традиционных схем (см. Юла - Уокера оценки параметров авторегрессии, Бокса - Дженкинса метод оценивания параметров АРПСС-моделей) состоит в использовании оценки оа (р), равной полусумме эмпирич. дисперсий ошибок одно- шаговой экстраполяции ряда вперед и назад в пределах интервала наблюдений. Б. м. гарантирует получение последнего коэффициента авторегрессии фр («коэффициент отражения»), модуль к-рого строго меньше единицы. Параметрич. оценки спектральной плотности, вычисленные на основе Б. м., обладают более высоким разрешением по частоте и большей дисперсией, чем оценки, полученные путем прямого решения Юла - Уокера уравнений (см. [2]). БЕРГА 41
В Б. м. ищутся оценки коэффициентов линейного фильтра, преобразующего ряд наблюдений в последовательность ошибок одношаговой экстраполяции. Схема соответствующих вычислений, использующая Левинсона алгоритм, описана, напр., в [3], [4]. Подпрограммы вычисления коэффициентов авторегрессии и дисперсии остаточного шума приведены в [2], [5], а комплекс программ - в [4]. Лит.: [1] Modern Spectrum analysis, N. Y., 1978, p. 38-41; [21 Ul- rich Т., Bishop Т., «Rev. Geophys. Space Phys.», 1975, v. 13, № 1, p. 183-200; [3) Smylie D., ClarkeG., U 1 rich Т., «Methods in Comput. Phys.», 1973, v. 13, p. 391-430; [41 Привальский В. Е., Климатическая изменчивость (стохастические модели, предсказуемость, спектры), М., 1985; [5] Канасевич Э. Р., Анализ временных последовательностей в геофизике, пер. с англ., М., 1985. В. Е. Привальский. БЕРЕНСА ~ ФИШЕРА ПРОБЛЕМА (Behrens - Fisher problem) - аналитическая проблема, возникшая в связи со статистической задачей сравнения математических ожиданий двух нормальных распределений, относительно дисперсий к-рых ничего не известно. Пусть хи, ..., х^п , х2\, •••, х2п независимы, x{j ~ N (\i{, of), j = 1, ..., щ, i = 1, 2, достаточной статистикой вектора параметров (щ, \i2, cjt2, о2) является (Х\,Х2, 5t, Б.- Ф. п. состоит в отыскании такого множества Ка, что при справедливости гипотезы Я0:ц1 -|i2 = А (А - заданное число) вероятность события {(Х\-Х2, S^, S2)eKa) не зависит от неизвестных параметров и в точности равна а при любом заранее заданном ае(0,1). При объемах выборок nt и п2 разной четности решение Б.- Ф. п. существует (см. [2]). Приближенные методы решения Б.- Ф. п. (см., напр., [3] - [6J) состоят в нахождении такого множества La, что вероятность события {CVt -X2)/51, S^/S2 е La} при заданном айв условиях Я0 слабо зависит от at /a2. Критерии типа Бартлетта - Шеффе критерия основаны на статистиках, не выражающихся через достаточную статистику, поэтому они имеют меньшую мощность. Лит.: [11 Behrens W. U., «Landwirtsch. Jahrb», 1929, Bd 68, JSfe 6, S. 807-37; [21 Л и н н и к Ю. В., Статистические задачи с мешающими параметрами, М., 1966; [31 Selected papers in statistics and probability by A. Wald, N. Y. - [a. o.], 1955, p. 669-95; [41 Пагуро- ва В. И., «Теория вероятн. и ее примен.», 1968, т. 13, в. 3, с. 561-69; [5] Welch В. L., «Biometrika», 1947, v. 34, p. 28-35; [61 Lee A.F.S., Gurland J., «J. Amer. Statist. Assoc», 1975, v. 70, p. 933-41. В. И. Пагурова. БЕРЛИНГА НЕРАВЕНСТВО (Burling's inequality) - см. Полной вариации метрика. БЕРНУЛЛИ АВТОМОРФИЗМ (Bernoulli automorphism) - см. Бернулли сдвиг. БЕРНУЛЛИ БЛУЖДАНИЕ (Bernoulli random walk) - случайное блуждание, порождаемое Берну лли испытаниями. На примере Б. б. можно пояснить нек-рые основные черты более общих случайных блужданий. В частности, уже в этой простейшей схеме проявляются свойства случайности, парадоксальные с точки зрения интуиции. Б. б. можно описать, напр., в следующих терминах. Частица движется по оси х («блуждает») по решетке точек вида kh (k - целое, Л>0). Движение начинается в момент t = 0, и положение частицы отмечается только в дискретные моменты времени 0, At, 2At, 3At, ... На каждом шаге координата частицы увеличивается или уменьшается на величину h с вероятностями р и q=\-p соответственно, независимо от предшествующего движения. Таким образом, перемещения в положительном и отрицательном направлениях («успехи» и 42 БЕРЕНСА 4 4/2-1- зй-4- 2h-+- oY I V 1 1 1 1—► I M I ЗД£ I 5Д£ I -fc-L 7Ы 4Д£ 6At Рис. 1. Начальный участок графика движения частицы, совершающей блуждание Бернулли. «неудачи») описываются схемой испытаний Бернулли с вероятностью успеха, равной р. Обычно Б. б. изображают геометрически, беря ось / за ось абсцисс, а ось х - за ось ординат (см. рис. 1, где показан начальный участок графика движения частицы, начинающей блуждание из нуля). Пусть Xj - случайная величина, равная перемещению частицы на ;-м шаге. Тогда Хх, Х2, ..., Хп, ... образуют последовательность независимых случайных величин. Координата блуждающей частицы в момент nAt равна сумме Sn = XX +... + Х„. Поэтому график Б. б. дает также наглядное представление о поведении нарастающих сумм случайных величин, причем многие характерные черты флуктуации сохраняются и для сумм значительно более общих случайных величин. Этот график показывает также изменения капитала одного из игроков в классич. разорения задаче (именно в связи с этой задачей были найдены формулы для вероятностей многих событий в Б. б.). В физике Б. б. используют для грубого описания одномерных процессов диффузии (см. Диффузионный процесс) и броуновского движения материальных частиц под действием ударов молекул. Из важнейших фактов, связанных с Б. б., можно отметить следующие (при этом ниже, если не оговорено противное, принято допущение At=\, h=\). Вероятности возвращения. Пусть блуждание начинается из нуля. Тогда вероятность хотя бы одного возвращения в нуль равна 1 - \р- q\, то есть равна единице в симметричном случае p = q=\/2 и меньше единицы при р Ф q. В симм- етричом случае величины хх (время до первого возвращения в нуль) и т2 (время между первым и вторым возвращениями) и т. д. суть независимые случайные величины с бесконечлым математич. ожиданием. Время до N-ro возвращения, то есть сумма т1 + ... +Тд,- растет как N , точнее, вероятность неравенства xt + ... + TjV<xN имеет пределом величину Среднее число N2n возвращений за 2п шагов задается формулой и растет как E(tf2n)~2f.
Рис. 2. Графики трех блужданий Бернулли; каждое наблюдалось на протяжении 200 000 единиц времени. Отсюда вытекает парадоксальное следствие: в симметричном Б. б. «волны» на графике между последовательными возвращениями в нуль могут быть поразительно длинными (рис. 2). С этим связано и другое обстоятельство, а именно, что для Tjn (доли времени, когда график находится выше оси абсцисс) наименее вероятными оказываются значения, близкие к 1/2. Точнее, справедливо следующее утверждение: при к—><*>, n-k-^oo для вероятностиp2n<2kравенства Т2п = 2k имеет место формула Pln,2k ~ / /1 ч > КПу]х(\-Х) где x = xnk = k/n. Следствием является так наз. закон арксинуса: при каждом 0<а<1 вероятность неравенства Тп/п<а стремится к If" *х = larcsinVaT. тс Jo V-tO-jO я Опираясь на этот факт, можно показать, что при 10 000 шагов частица остается на положительной стороне более чем 9930 моментов времени с вероятностью ^0,1, то есть, грубо говоря, подобное положение будет наблюдаться не реже чем в одном случае из десяти (хотя на первый взгляд оно кажется абсурдным). Максимальное отклонение. При p>q или p<q блуждающая частица уходит с вероятностью единица в + °° или -оо. Поэтому, напр., при p<q определена случайная величина М~ = тах 5., и вероятность того, что М =х, равна Q^j< оо ' (1-p/qXp/qY. Бернулли блуждание с гран ицами. Часто рассматривают Б. б. при наличии поглощающих или отражающих экранов. Пусть, напр., блуждание начинается из нуля. Наличие в точке а поглощающего экрана проявляется в том, что по достижении этой точки частица перестает двигаться. При наличии в точке я = (/г+1/2)(/г^0 целое) отражающего экрана частица с вероятностью q переходит из k в (k - 1) и с вероятностью р остается на месте. Основным средством вычисления вероятностей поглощения и вероятностей достижения тех или иных точек служат разностные уравнения. Пусть, напр., поглощающий экран стоит в точке -а {а >0). Если ztx есть вероятность того, что частица, находящаяся в точке х в момент времени t, поглотится до момента п (включительно), то имеет место уравнение ztx ^qz^ \t х _i+pzt+ ^ х+v x>-a, со следующими очевидными граничными условиями: zt_a = 1, O^t^n, znx = 0, х> -а. Решение этой задачи при p = q= 1/2 было известно А. Муавру (A. Moivre) и П. Лапласу (P.Laplace). Формула Лап ласа имеет вид ztx=\-—\ : -(cos<p)Yd<p, (*) l'x к JO sinip где У = а + .г + 2["-*-*-*] + 1. Переход к процессам диффузии. Пусть, напр., р = = q=\/2, At= \/N, h = I/VAT. Тогда при N -> ©о многие вероятности, вычисленные для схемы Б. 6., стремятся к пределам, равным аналогичным вероятностям для броуновского движения. Пусть речь идет о вероятности того, что частица, вышедшая из нуля, поглотится экраном, стоящим в точке а, до момента Т. Предельным переходом из формулы (*) при n/N = T, t = Q, x = 0, fl/VJ\T= а получается величина 1_ 2 r^e-^/2d2= 2 Г -,2/2^ у[2к JO y[2n Ja/yff равная вероятности того, что координата X(v) частицы, совершающей броуновское движение, удовлетворяет неравенству min X(v) ^ -а, то есть вероятности того, что частица поглотится на барьере -а. Для более или менее полного описания всех подобных предельных соотношений уместно встать на общую точку зрения и рассмотреть переход от дискретного процесса «нарастающих сумм» к непрерывному случайному процессу. На схеме Б. 6. можно весьма наглядно пояснить такие закономерности поведения сумм случайных величин, как больших чисел усиленный закон и повторного логарифма закон. Лит.: [1J Феллер В., Введение в теорию вероятностей и ее приложения, пер. с англ., т. 1-2, М., 1984. /о. В. Прохоров. БЕРНУЛЛИ ВЕКТОР (Bernoulli vector) -- см. Люсиан. БЕРНУЛЛИ ИСПЫТАНИЯ (Bernoulli trials) - независимые испытания с двумя исходами каждое («успехом» и «неудачей») и такие, что вероятности исходов не изменяются от испытания к испытанию. Б. и. служат одной из основных схем, рассматриваемых в теории вероятностей. Пусть р - вероятность успеха и q=\ -р - вероятность неудачи, и пусть 1 обозначает наступление успеха, а 0 - наступление неудачи. Тогда вероятность определенного чередования успехов и неудач, напр. 10011010... 1, равна pqqppqpq.. .р - ртап~т, где т - число успехов в рассматриваемом ряду п испытаний. Со схемой Б. и. связаны многие распространенные распределения вероятностей. Пусть Sn - случайная величина, равная числу успехов в п Б. и. Тогда вероятность события {Sn = k} равна С„ pkqn~k, k = 0, l, ..., п, то есть Sn имеет биномиальное распределение. Последнее при п—>оо аппроксимируется нормальным распределением или распределением Пуассона. Пусть Yt - число испытаний до первого успеха. Тогда вероятность события {Yt = k) равна q p, /г = 0, 1, 2, ..., то есть Yt имеет геометрич. распределение. Если Yr - число неудач, предшествующих r-му появлению успеха, то Yr имеет так наз. отрицательное биномиальное распределение. Число успехов Sn в Б.и. можно представить в виде суммы Хх + Х2+ ... +Хп независимых случайных величин, где Xj равно 1, если/-е испытание закончилось успехом, и равно 0 в противном случае. Поэтому многие важные закономерности теории вероятностей, относящиеся к суммам независимых случайных величин, были первоначально установлены для БЕРНУЛЛИ 43
схемы Б. и. {Бернулли теорема, больших чисел закон, больших чисел усиленный закон, повторного логарифма закон, центральная предельная теорема и т.д.). Строгое изучение бесконечных последовательностей Б. и. требует введения вероятностной меры в пространстве бесконечных последовательностей нулей и единиц. Это можно сделать или непосредственно, или с помощью приема, к-рый иллюстрируется ниже случаем p — q-\/2. Пус?ть со- число, выбираемое наудачу на отрезке (0,1) с равномерным распределением, и пусть со = £?_ Х;-(со)/2;, где Х;(со) = 0 или 1, есть разложение со в двоичную дробь. Тогда Xj, / = 1, 2, ..., независимы и принимают значения 0 и 1 с вероятностью 1/2 каждое, то есть чередование нулей и единиц в двоичном разложении со описывается схемой Б. и. ср- 1/2. Однако меру на (0,1) можно задать и так, чтобы получить Б. и. с любым р (при р * 1/2 получается мера,сингулярная относительно меры Лебега). Б. и. часто трактуют геометрически (см. Бернулли блуждание). Ряд вероятностей, связанных с Б. и., был вычислен на самой ранней ступени развития теории вероятностей в связи с задачей о разорении игроков. Лит.: [1] ГнеденкоБ. В., Курс теории вероятностей, 6 изд., М., 1988; [2) ФеллерВ., Введение в теорию вероятностей и ее приложения, пер. с англ., т. 1-2, М., 1984; [3] Кап М., Статистическая независимость в теории вероятностей, анализе и теории чисел, нер. с англ., М., 1963. А. В. Прохоров. БЕРНУЛЛИ ПОТОК (Bernoulli flow) - см. Бернулли сдвиг. БЕРНУЛЛИ РАСПРЕДЕЛЕНИЕ (Bernoulli distribution) - см. Биномиальное распределение. БЕРНУЛЛИ СДВИГ (Bernoulli shift) - преобразование сдвига в пространстве реализаций последовательности независимых одинаково распределенных случайных величин. Б. с. Г действует в прямом произведении ГТ (Yi} Щ, \{) счетного числа экземпляров вероятностного пространства (У, 33, v) (при этом /-Ж + или Ж) и переводит последовательность co=(cot, iel) в последовательность со' = (со|, iel), где G)J = = coi+1. Если / = Ж+, то Т называется односторонним сдвигом Бернулли (или эндоморфизмом Бернулли), если I-Ж, то - двусторонним сдвигом Бернулли (автоморфизмом Бернулли); (У, 33, v) называется пространством состояний. Среди всех динамич. систем Б. с. выделяются наиболее сильными свойствами стохастично- сти (перемешивания); в частности, односторонний Б. с. является точным эндоморфизмом, а двусторонний - /С-автомор- физмом. Часто термин «Б. с.» (а также термины «эндоморфизм Бернулли» и «автоморфизм Бернулли») употребляется по отношению к любому эндоморфизму (автоморфизму) вероятностного пространства, к-рый изоморфен Б. с, понимаемому в указанном выше смысле. Для сдвига в пространстве реализаций стационарной в узком смысле случайной последовательности хп, о© < п < о©, с конечным числом состояний такой изоморфизм существует в том и только в том случае, когда последовательность хп удовлетворяет условию «очень слабой бернуллиевости» Орнстейна (см. [1], [2]), занимающему промежуточное положение между условиями регулярности и абсолютной регулярности по Колмогорову (см. [3]). Все Б. с. с одинаковой энтропией изоморфны (см. Изоморфизм динамических систем). Всякий двусторонний Б. с. Т может быть включен в нек-рый измеримый поток {S , -°° < <£<<»} так, что T-S . Каждое преобразование, входящее в такой поток, изоморфно Б. с. с соответствующей энтропией, а сам поток называется потоком Бернулли. 44 БЕРНУЛЛИ Лит.: [1J Орнстейн Д., Эргодическая теория, случайность и динамические системы, пер. с англ., М., 1978; [21 OrnsteinD., Weiss В., «Isr. J. Math.», 1974, v. 17, № 1, p. 94-104; [31 Ибрагимов И. А., Розанов Ю. А., Гауссовские случайные процессы, М., 1970. Б. М. Гуревич. БЕРНУЛЛИ СЛУЧАЙНАЯ ВЕЛИЧИНА (Bernoulli random variable) - 1) случайная величина, принимающая два значения 0 и 1 с вероятностями ри\-р(0<р<\) соответственно. Если Xt, ..., Хп - независимые Б. с. в., то случайная величина Хх + ... + Хп имеет биномиальное распределение. 2) Случайная величина, принимающая два значения -1 и +1 с равными вероятностями. Последовательность Радемахера представляет собой пример независимых Б. с. в. С. А. Чобанян. БЕРНУЛЛИ СХЕМА (Bernoulli scheme) - см. Бернулли испытания. БЕРНУЛЛИ ТЕОРЕМА (Bernoulli theorem) - исторически первая формулировка больших чисел закона. Б. т. приведена в четвертой части книги Я. Бернулли (J. Bernoulli) «Ars con- jectandi» («Искусство предположений»). Эту часть можно считать первым серьезным трудом по теории вероятностей. Книга издана в 1713 Н. Бернулли (племянником Я. Бернулли). Б. т. относится к последовательности независимых испытаний (см. Бернулли испытания), в каждом из к-рых вероятность появления нек-рого события (успеха) равна р. Пусть п - число испытаний и т - случайная величина, равная числу успехов. Б. т. утверждает, что, каковы бы ни были положительные числа е и ц, существует число я0 такое, что при всех п^п0 вероятность Р неравенства -е^ т/п -р^г будет больше 1-Т|. Доказательство этой теоремы, данное Я. Бернулли (и основанное только на изучении характера убывания вероятностей в биномиальном распределении по мере удаления от наивероятнейшего значения), сопровождалось неравенством, позволяющим указать нек-рую границу для указанного я0 по данным е и ц. Напр., Я. Бернулли находит, что при р-2/5 вероятность неравенства — 1 /50^т/п-2/5^ 1/50 будет больше 0,999 при п>25550. Несколько совершенствуя первоначальное рассуждение Я. Бернулли, можно установить, что я0 достаточно выбирать с условием n0>(l+e)/e2log 1/л + 1/е, что дает, в свою очередь, для вероятности 1 - Р неравенства | т/п - р | > е оценку вида 2ехр {-не /2}. Для приведенного выше примера получается условие п ^ 17 665 (более сложные оценки показывают, что достаточно брать я ^6502; для сравнения: теорема Муавра-Лапласа в качестве приближенного значения я0 дает 6498). Другие оценки для 1 - Р можно получить, используя Бернштейна неравенство и его аналоги (см. также Биномиальное распределение). Лит.: [11 Бернулли Я., О законе больших чисел, пер. с лат, М., 1986; [21 Марков А. А., Исчисление вероятностей, 4 изд., М , 1924; [3] Бернштейн С. Н., Теория вероятностей, 4 изд., М.-Л , 1946. Ю.В. Прохоров. БЕРНУЛЛИ ЧИСЛА (Bernoulli numbers) - рациональные числа Вп, определяемые разложением ех-\ ^«=0 п п\ ' названы по имени Я. Бернулли, к-рый впервые пришел к ним при изучении сумм степеней последовательных натуральных чисел с натуральными показателями (см. [1]) [иногда Б.ч. называют числа рп = (-1 )пХВ2п, п^\]. При нечетных п ^ 3 все Вп-0, значения первых Б.ч.: В0 = 1, tft = -1/2, Я2= 1/6, Я4 = -1/30, Я6= 1/42, Я8 = -1/30, Я10 = 5/66, Я12 = -691/2730
и последующих могут быть вычислены из рекуррентного соотношения i;:^„4=o,«>i. Точные значения В2п для п ^ 90 и приближенные значения для я ^250 также вычислены (см. [2]). Б. ч. выражаются при четных z через дзета-функцию Рима- наС(2) = £~=1*-*: *2„ =<-!>' ,и-1 2(2п)! £(2я), п^\. (2к)2п Б. ч. играют важную роль во многих вопросах анализа, теории чисел, комбинаторики, математич. статистики, обладают рядом интересных арифметических и комбинаторных свойств. Через Б. ч. выражаются значения ряда несобственных интегралов, напр.: г еах*\ -dx-- 22"-1- 2л L(Sf l*2»|. Й>°' П ^1; они служат коэффициентами разложений в степенные ряды многих аналитич. функций, напр.: tg2 = ^=i(-l)"-122"(22"-l)B: 22п-\ 2п (2п)! ' И< 2' ln^ = y- 22„-l В2п^-, \2\<К. Б. ч. участвуют в формуле суммирования Эйлера-Маклорена: К=! f{x + *> т £+7<Orft -±(f(x + я) - fix)) + + S;=1 ^T(/r<2*-,>(x + «)-/r(2*-,>(^))+ Я, (*,«); через них выражается используемый для приближенных вычислений асимптотич. ряд Стирлинга: In Г(х +1) - (х + 1/2) In х - х + In V2tc + i:= я- 2* ^.-2Де+1 *=1 2*(2*-1) В статистике Б. ч. встречаются главным образом в связи с поправками Шеппарда к моментам при группировке наблюдений. Если случайная величина X имеет абсолютно непрерывное распределение, к-рое группируется с помощью интервалов длины /г, и av обозначает v-й момент группированного распределения, то при соответствующих условиях «v-EX*=2^0Cj(2'-*-l)B^5v_,; особенно просто выглядят формулы для семиинвариантов: Ху = те,,-#v/*v/v, v>l, x^xj. Аналогичные формулы имеются для центральных моментов и для двумерных моментов и семиинвариантов (см. [3]). Лит.: [1] Бернулли Я., О законе больших чисел, пер. с лат., М., 1986; [2] Tables of the higher mathematical functions, v. 2, Bloo- mington, 1935; [3] Крамер Г., Математические методы статистики, пер. с англ., 2 изд., М., 1975; [4] Гельфонд А. О., Исчисление конечных разностей, 3 изд., М., 1967; [5] Бурбаки Н., Функции действительного переменного, пер. с франц., М., 1965. Г. И. Ивченко. БЕРНУЛЛИ ЭНДОМОРФИЗМ (Bernoulli endomor phism) - см. Бернулли сдвиг. БЕРНШТЕЙНА НЕРАВЕНСТВО (Bernstein's inequality) - уточнение классического Чебышева неравенства, принадлежащее С. Н. Бернштейну (1911, см. [1]); позволяет заменить степенную оценку вероятности больших отклонений на экспоненциально убывающую (см. Больших уклонений вероятности). Именно, если для независимых случайных величин Xt, ..., Хп с ЕХ. = 0, EXj=bj} /=l, 2, ..., я, выполняется Е|Х;| ^bjH~2l\/2 (/>2, H - постоянная, не зависящая от/), то для суммы Sn = Хх + ... + Хп справедливо неравенство Бернштейна (г>0): p{\Sn\ >r} ^ 2ехр {-г2/2(Вп + Нг)}} (1) где Вп = ^ Ь:. Для одинаково распределенных ограниченных случайных величин Х; (ЕХ; = 0, ЕХ.=а и |X;|^L, /= 1, 2, ..., п) неравенство (1) приобретает наиболее простой вид: Р{|5„| >toVn} ^ 2exp {- t2/2(\ + а/3)}, (2) где a- Lt/yfno. A.H. Колмогоровым была получена нижняя оценка вероятности в (1). Оценки Бернштейна-Колмогорова используются, в частности, при доказательстве закона повторного логарифма. Нек-рое представление о точности (2) можно получить из сравнения с приближенным значением для левой части (2), даваемым центральной предельной теоремой в виде 2 V27C £'-»«"-ткНУк где 0<в<1. После 1967 одномерные Б. н. были распространены на многомерный и бесконечномерный случаи. Лит.: [1] Берн штейн С. Н., Теория вероятностей, 4 изд., М.- Л., 1946; [2] Колмогоров А. Н., «Math. Ann.», 1929, Bd 101, S. 126-35; [3] Hocffding W., «J. Amer. Statist. Assoc», 1963, v. 58, № 301, p. 13-30; [41 Прохоров Ю. В., «Теория вероятн. и ее примен.», 1968, т. 13, в. 2, с. 266-74; [5] Прохоров А. В., «Ма- тем. заметки», 1968, т. 3, в. 6, с. 731-39; [6] Юр и не кий В. В., «Теория вероятн. и ее примен.», 1970, т. 15, в. 1, с. 106-07. А. В. Прохоров. БЕРНШТЕЙНА ТЕОРЕМА (Bernstein theorem) - см. Больших чисел закон. БЕРРА РАСПРЕДЕЛЕНИЯ (Burr distribution) - семейство распределений, предложенное И. Берром [1] для аппроксимации известных распределений, в частности нормального. Применяется также для сглаживания эмиирич. функций распреде- 1.5 1.0 А 1 V v V 1 ь ^ ^= ~—■ ^^^^J .5 1.0 1.5 2.0 2.5 Плотности распределения Берра при а = 2 и (3 = 1; 2; 3; 4; 5. лений. Наиболее простое среди Б. р. имеет функцию распределения (рис.) Fix) = 1 - (1+jc«)P *^0, а>0, Р>0. Лит.: [1] Burr I., «Ann. Math. Statist.», 1942, v. 13, № 2, p. 215-32. Г. В. Мартынов. Б1РРА 45
БЕРРИ-ЭССЕЕНА НЕРАВЕНСТВО (Berry-Esseen inequality) - верхняя оценка равномерной метрики p(F, G) в терминах характеристических функций /", д} соответствующих одномерным функциям распределения F и G. Непринципиально различающиеся варианты Б. - Э. н. в случае распределений G с ограниченной плотностью были независимо друг от друга найдены А. Берри [ 1 ] и К. Эссееном [2]. В несколько модифицированной форме это неравенство выглядит следующим образом: p(F,GXAfo\f(t)-g(t)\f + Bl, где Т - любое положительное число, q = sup G'{x)} Л(в) = е Б(е) = ev(e) ic(2V(6)-e)' 2К(в)-в' (1) (2) v(q) = |fe Je sin t— -1 + cos e\ параметр в может принимать любые значения, при к-рых 2V(8)>e (в > 1,6996). О характере изменений величин А и В можно судить но их следующим значениям: в Л(в) Жв) 3.1 0,5930 4,4376 3,8 0,4659 4,6812 4,5 0,4169 5,1967 5.2 0,3992 5,8610 5,7 0,3956 6,3923 6,7 0,3951 6,7236 При сохранении вида (2) коэффициентов А и В неравенство (1) можно варьировать за счет выбора функций У(в) по определенному правилу, что позволяет уменьшать значения Л(6) и Жб) для конкретных значений в (см. [3], [4]). Б.- Э. н. играет роль важного аналитич. инструмента во многих задачах оценки скорости сходимости распределений к предельному, как, напр., в Берри-Эссеена теореме. Хороших многомерных аналогов Б.- Э. н. не известно, однако в одномерном случае такие аналоги имеются для ряда других метрик (см. Леей метрика. Средняя метрика). Лит.: [1| Berry А. С, «Trans. Amer. Math. Soc.», 1941, v. 49, № 1, p. 120-36; [2] Esseen C.-G., «Ark. Mat., Astr. och Fysik», 1942, Bd 28A, X° 9, S. 1-19; [3] Zolotarev V. M., «Z. Wahr. und verw. Geb.», 1967, Bd 8, S. 332-42; [4] van Beek P., там же, 1972, Bd 23, S. 187-96. в. M. Золотарев. БЕРРИ-ЭССЕЕНА ТЕОРЕМА (Berry-Esseen theorem) - верхняя оценка (в равномерной метрике р) отклонения функции распределения Fn суммы независимых случайных величин S„ = X1 + ... + Х„, подчиненных условиям ЕХ; = 0, EX?+... + EX;J=l, е=Е|Х1|3 + ... + Е|Х„|3<°о от функции распределения Ф стандартного нормального закона: p(F„fO)^Ce, (1) где С - абсолютная постоянная. Эта оценка, являющаяся уточнением аналогичной оценки, полученной А. М. Ляпуновым (см. Ляпунова теорема), была независимо получена А. Берри [1] и К. Эссееном [2]. В случае, когда величины X: распределены одинаково, сумме Sn естественно придать вид Sn = (Уj + ... + У„)/^п", Е У; = 0, EYJ = 1, а неравенству (1) вид p(F„,<D)^CP/V^, (2) где р=Е|У1|3. Верхние оценки Св(1)ив(2) находились многими авторами (см. [5]). Наилучшие оценки С в настоящее время получены И. С. Шигановым [4]: С ^0,7975 в об- 46 БЕРРИ щей ситуации (1) и С ^0,7655 в специальном случае (2). К. Эссееном (см. [3]) было доказано, что С^С0 = = (VT6^+ 3)/6V2rT = 0,4097... Весьма правдоподобна гипотеза о том, что минимальное значение С в (1) равно С0. Имеются разнообразные уточнения Б.- Э. т. (1), (2). Наиболее интересной является оценка Салахутдинова-Ульянова, уточняющая (2): p(FA?,0)^C1 min(x3,X3n)n-1/2, где Ct - абсолютная постоянная, a„ = min(l, я/4) и х3 = 3 J х \F(x) - Ф(х) \dx - разностный псевдомомент третьего порядка, в к-ром F - функция распределения случайной величины yt. Лит.: [1] Berry А. С, «Trans. Amer. Math. Soc», 1941, v. 49, № 1, p. 120-36; [2] Esseen C.-G., «Ark. Mat., Astr. och Fysik», 1942, Bd 28A, № 9, S. 1-19; [3] его же, «Skand. Actuar.», 1956, N° 3-4, p. 160-70; [4] Шиганов И. С, в сб.: Проблемы устойчивости стохастических моделей, М., 1982, с. 109-15; [5] Золотарев В. М., Современная теория суммирования независимых случайных величин, М., 1986. В. М. Золотарев. БЕРТРАНА ЗАДАЧА (Bertrand problem) - см. Бертрана парадокс. БЕРТРАНА ПАРАДОКС (Bertrand paradox) - один из парадоксов, связанных с нечеткой формулировкой исходных допущений при решении вероятностных задач. Отмечен Ж. Бертраном [1]. В задаче Бертрана разыскивается вероятность того, что длина хорды, «наудачу» выбранной в круге радиуса 1, превзойдет длину стороны вписанного правильного треугольника. Ж. Бертран указывает три различных значения искомой вероятности (1/2, 1/3, 1/4) в зависимости от того, какими параметрами характеризуется положение хорды: в первом случае - расстоянием р до центра круга и углом в между нормалью к хорде и осью х; во втором - угловыми координатами аир точек пересечения хорды с окружностью; в третьем - декартовыми координатами (х, у) основания перпендикуляра, опущенного из центра круга; во всех трех случаях центр круга расположен в начале координат. А. Пуанкаре [2] показал, что источник парадокса заключается в следующем: каждый раз соответствующую пару параметров предполагают равномерно распределенной в соответствующей области, и таким образом решают три различные задачи. Если распределение какой-либо пары (скажем, аир) фиксировано, то распределение любых других параметров однозначно вычисляется (и не обязано быть равномерным, даже если аир распределены равномерно). Наиболее естественным (с геомет- рич. точки зрения) является предположение о том, что р и в независимы и распределены равномерно в интервале 0 ^ р ^ 1, 0^в^2л (см. [3]). Лит.: [I] Bertrand J., Calcul des probabilites, P., 1889; [21 Poincare H., Calcul des probabilities, 2 ed., P., 1912; [3] Кен- даллМ., МоранП., Геометрические вероятности, пер. с англ., М., 1972. А. В. Прохоров БЕСКОНЕЧНОЙ МАЛОСТИ УСЛОВИЕ (infinitesimality condition), предельной пренебрегаемости условие,- основное исходное предположение классической теории предельных теорем для сумм независимых случайных величин (см. Серий схема) 5„ = Хя1 + ... + Х„„, п^\: для лю- 6ого8>0 sup[P{|Xj>e}:;>l]->0fn->«o. Эквивалентные ему утверждения: sup[I(X„y,0):;>l]->0, я-><*>, где L - метрика Леви; sup[Emin(X^.,l):;^l]->0, «-><»; для каждого t e IR1 sup[|/*„y(O-l|:/^l]->0, п-юо,
где /* • - характеристич. функция Xnj-. Понятие «Б.м.у.» введено в теорию вероятностей А. Н. Колмогоровым (см. [1]). Аналоги этого условия используют в предельных теоремах, связанных с моделями обобщенного суммирования (перемножения случайных величин схема, максимума случайных величин схема и др.). Иногда условием равномерной бесконечной малости называют условие P{[sup|X„y|:;^l]^e}->0, я-><*>. Лит.: [ 1J X и н ч и н А. Я., Предельные законы для сумм независимых случайных величин, М.-Л., 1938; [2] Гнеденко Б. В., Колмогоров А. Н., Предельные распределения для сумм случайных величин, М.-Л., 1949; [3] Лоэв М., Теория вероятностей, пер. с англ., М., 1962; [4] Золотарев В. М., Современная теория суммирования независимых случайных величин, М., 1986. В. М. Золотарев. БЕСКОНЕЧНЫЙ ЛАТИНСКИЙ КВАДРАТ (infinite Latin square) - см. Латинский квадрат. БЕСПУЧКОВАЯ МЕРА (bundleless measure) - см. Интегральная геометрия. БЕССЕЛЯ ОПЕРАТОР (Bessel operator) - см. Бесселя процесс. БЕССЕЛЯ ПРОЦЕСС (Bessel process) - одномерный диффузионный процесс с коэффициентом переноса a (t} x) = -(а- \)/2х и коэффициентом диффузии b(t, x)= 1. Производящий оператор такого процесса есть так наз. оператор Бесселя: dxL ot-1 _d_\ 2х dxj Если a = d - натуральное число, то Б. п. может быть отожде ствлен с радиальной частью \w(t) Ыг, wl (t) tf-мерного винеровского процесса w(t) = {wx(t),...,wd(t)}. Б. п. с а = 2 называется процессом Рэлея. М. И. Ядренко. БЕТА-АППРОКСИМАЦИЯ (beta approximation) для гипергеометрического распределения - аппроксимация, построенная на приближении гипергеометрического распределения с помощью специально подобранного распределения. Происхождение термина «Б.-а.» связано с возможностью представления аппроксимирующей функции биномиального распределения в терминах соответствующего бета-распределения. Пусть X - случайная величина, подчиняющаяся гипергео- метрич. распределению с параметрами N, п и М: Р{Х = т} = СпмС п-т N-M если max (О, М + п - N) ^ ^ т ^ min(M,n), [О в остальных случаях. При N ^ 25 для вычисления Р{Х ^ т) рекомендуется (см. [ 1J) пользоваться Б.-а., согласно к-рой Р{Х^т}к1х_х(п'-т + с> т-с+1), где - функция бета-распределения, 0 ^ £ ^ 1, я > О, Ь>0, /= (А/-2)2 nM(N-n)(N-M) N-\ [(N-MXN-n) + nM-N)[N(n + M-\)-2nM) ' N(n + M-l) - 2nM _ пМ(М-\)(п-\) N(N-2) с = - (N-\)[(N-M)(N-n) + nM-N) Лит.: [1] Большее Л.Н., Теория вероятностей и математическая статистика. Избранные труды, М., 1987. М. С. Никулин. БЕТА-РАСПРЕДЕЛЕНИЕ (beta distribution) - непрерывное, сосредоточенное на (0, 1) распределение вероятностей с плотностью (рис.) К п <*> = -=гЦ- хW_1 (1" *)"~1» (1) гт>п Ъ(т,п) где т, п - неотрицательные параметры и нормирующий множитель В(т,я) есть бета-функция Эйлера: В(т,п) = Цхт-\\-х)п-*с1х. ^1 Ч*2 W3 w4 2.7 2.4 2.1 1.8 1.5 1.2 .9 .6 .3 Плотности бета-распределения при (1) т = 0,5, я = 3,5; (2) т = \, п = 3; (3) т = 1,5, п = 2,5; (4) т = 2, п = 2 (во всех случаях т + п = 4). Функция распределения выражается через неполную бета- функцию **<«.»> - Bm,«<*>=idbo Г*""'(1 -y)nAdy'0<x<i Моменты выражаются формулой mk = B(m + k,n)/B(m,n), k=\,2,...; в частности, математич. ожидание и дисперсия равны соответственно т/(т + п) и тп/(т + п) (т + п + 1), асимметрия 2(т-п)/(т + п-2). Если т>\ и я>1, то кривая плотности $тп(х) имеет единственную точку максимума х = (т - \)/(т + п - 2) и обращается в нуль на концах интервала. Если т<\ или п<\, то одна из крайних ординат графика бесконечна, а если и т< 1 и п< 1, то обе ординаты на концах бесконечны и кривая имеет (У-образную форму. Характеристич. функция Б.-р.- вырожденная гипергеомет- рич. функция F(m, m, n; it). При т- 1 и«=1 Б.-р. превращается в равномерное распределение на интервале (0,1). Другим частным случаем Б.-р. является при т = п = 1/2 арксинуса распределение с плотностью Pl/2,1/2W=1AV*(1-*). При замене в (1) х=\/(\ + t) получается распределение с плотностью Рш,«^> в(тп) (1 + т+п-2 0<t<oo. (2) БЕТА 47
Это распределение называется Б.-р. второго рода в отличие от Б.-р. (1). Распределения (1) и (2) соответствуют распределениям типа I и типа VI в системе Пирсона распределений. Один из важных случаев возникновения Б.-р. таков: если Xt и Х2 независимы и имеют гамма-распределение с параметрами тип соответственно, то случайная величина Х1/(Х1 + Х2) имеет Б.-р. с плотностью ^„(х). Этот факт в большой степени объясняет ту роль, к-рую Б.-р. играет в приложениях, в частности в математич. статистике: распределения многих важнейших статистик сводятся в Б.-р. Напр., функция распределения F-отношения Fmn = n%m /т%п (случайная величина %п имеет xu-квадрат распределение с k степенями свободы) выражается формулой P{Fmn<x} = Вт/2п/2 (тх/(п + тх)) (обычно значения F-распределения вычисляются с помощью таблиц Б.-р.). Функция Б.-р. позволяет также вычислять значения функций биномиального распределения ввиду соотношения . . b^.^,(i-p)=x;.0c,*p*(i-p)--*. Б.-р. находит применение не только в математич. статистике; так, напр., плотность Б.-р. является весовой функцией для системы ортогональных многочленов Якоби. Лит.: [1] Большее Л. Н., Смирнов Н. В., Таблицы математической статистики, 3 изд., М., 1983; [21 Пирсон К., Таблицы неполной бета-функции, пер. с англ., М., 1974. А. В. Прохоров. БЕТА-РАСПРЕДЕЛЕНИЕ многомерное (multidimensional beta distribution) - см. Дирихле распределение. БИКОМПАКТ в топологическом пространстве (#*, ./) [bicompact/compact set in a topological space] - множество К a .9Г такое, что любое его открытое покрытие содержит конечное подпокрытие. Множество К называется относительно бикомпактным, если его замыкание бикомпактно. Множество К в топологич. пространстве бикомпактно тогда и только тогда, когда каждая сеть в К имеет сходящуюся подсеть (см. [1]). Б. иногда называют также компактами. Для метрич. пространств понятия компакта и Б. совпадают. В общем случае, чтобы подчеркнуть различие между этими понятиями, компактные множества называют счетноком- пактными. Любой компакт является Б., но не наоборот. Лит.: [11 Келли Дж.-Л., Общая топология, пер. с англ., 2 изд., М., 1981; [21 Ал ександров П. С, Введение в общую теорию множеств и функций, М.- Л., 1948. А. А. Боровков. БИЛИНЕЙНАЯ МОДЕЛЬ случайного процесса (bilinear model for random process/bilinear time series model) - модель, в к-рой действительный случайный процесс X(t) с дискретным временем определяется разностным уравнением Х(0 + £Р_ aiXU-i) = e(t) + Jdq_ bje(t-j) + + Jr Vs JjX(t-iMt-j),t = 0t±\t±2,..., С) где e(t) - последовательность независимых одинаково распределенных случайных величин с Ее(0 = 0 и Ee(t) = o <°° (белый шум), а {а\ X^i^p), {Ы, \^j^q} и {cij, l^i^r, 1 </^s} - постоянные. Иногда рассматриваются и более общие Б. м., в к-рых е (О - последовательность, стационарная в узком смысле. Модель (*) характеризуется значениями параметров р, q, r, s и обозначается символом BL (p, q, r, s). Если с,; = 0 для всех i=l, ..., г и j = 1, ..., s, то Б. м. переходит в 48 БЕТА модель процесса авторегрессии - скользящего среднего порядка (р, q). Изучение общих Б. м. случайных процессов основывается на их векторных представлениях в пространстве состояний соответствующих процессов, что позволяет понизить порядок разностных уравнений, описывающих модели. Основными направлениями теории Б. м. случайных процессов являются исследование условий существования стационарных решений уравнений моделей и условий обратимости Б. м., играющих важную роль в приложениях Б. м. случайных процессов к задачам прогнозирования временных рядов, а также задачи оценивания параметров Б. м. (см. [1]-[3]). При этом под обратимостью Б. м. понимается возможность получения оценок e(t) ненаблюдаемого процесса e(t), удовлетворяющих условию lim E[e(t)-Ht)]2 = 0, t -»°o когда сама модель и ее параметры полностью известны. Многомерная Б. м. векторного случайного процесса x(t) = {Xx(t)t х2(0, ...,*„(*)} с дискретным временем задается системой разностных уравнений +х;=1х;.Ле»«->>- +i;=1 x;_, i;=t х;=1 &*.«-»«/*-».k=i »• в к-рых e(t) = {e^(t),...,en(t)}, t = 0, ±1,±2, ..., является последовательностью независимых одинаково распределенных случайных векторов с Ее (t) = О и корреляционной матрицей G, a {alku, i^i^p, k, u = \, ..., п}, {bJku, l^j^q, k, u= 1, ..., n}, {c^ul)1 l^i^r, l^y^s, k, u, v=\, ..., n} постоянные Лит.: [\] GrandgerC.W.J., An dersen A. P., An introduction to bilinear time series models, Gott, 1978; [2] Rao T. S., «J. Roy. Stat. Soc., ser. B», 1981, v. 43, № 2, p. 244-55; [31 RaoT. S., Gabr M. M., An introduction to bispectral analysis and bilinear time series models, В., 1984. А. И. Пономаренко. БИЛЬЯРД (billiards) - см. Синая бильярд. БИМОДАЛЬНОЕ РАСПРЕДЕЛЕНИЕ (bimodal distribution), двувершинное распределение,- распределение вероятностей, характеризуемое существованием у кривой плотности двух максимумов, к-рые определяются двумя значениями моды. Б. р. часто возникает как «смесь» двух нормальных распределений. См. также Мультимодальное распределение, Унимодальное распределение. А. В. Прохоров. БИНАРНЫЙ ВЕТВЯЩИЙСЯ ПРОЦЕСС (binary branching process) - ветвящийся процесс с одним типом частиц, к-рые при одном превращении либо исчезают, либо делятся на две. Производящая функция F (t\ s) распределения числа частиц Б. в. п. с непрерывным временем в момент времени t выписывается в явном виде. В случае критич. процесса Fa;5) = l-(l-s)[-|(l-s) + l]"1, b>0 постоянная. В некритич. случае Fit; s) = \- eat (1 - s) [A (eat -1)(1 - s) + t]~ , a * 0. Б. в. п. является частным случаем рождения и гибели процесса. Лит.: [1] Севастьянов Б. А., Ветвящиеся процессы, М., 1971. В. П. Чистяков. БИНАРНЫЙ СЛУЧАЙНЫЙ ПРОЦЕСС (binary random process), дихотомический случайный процесс,- случайный процесс X(t), каждая реализация к-рого принимает
только два фиксированных значения сх и с2. С помощью линейного преобразования X(t) -> aX(t) + b = Xx(t) значения (ct, c2) можно перевести в любую заданную пару чисел; поэтому при изучении Б. с. п. часто с самого начала предполагают, что сх = \, с2 = 0 или же сх = \, c2 = -l (в последнем случае Б. с. п. иногда называют также единичным случайным процессом; см., напр., [1]). Первый пример Б. с. п. был рассмотрен Н. Винером (см. [2], [3]). Типичным примером стационарного Б. с. и. является случайный телеграфный сигнал, Б. с. п. может рассматриваться как модель сигнала, передаваемого по бинарному каналу связи (напр., по телеграфному каналу, по к-рому передается последовательность посылок тока, чередующихся с паузами). Б. с. п. естественно возникают также при рассмотрений процессов на выходе ограничителя - нелинейного преобразователя, пропускающего поданный на вход сигнал X(t) без искажения, если |Х(0| ^а (где а - фиксированное положительное число), но преобразующего его в aX(t)/\X(t)\, если |Х(0| >а; в случае, когда процесс на выходе такого ограничителя будет практически неотличим от Б. с. п. Стационарным Б. с. п. является случайный процесс Y(t) = sgnX(t), где X(t) - гауссовский стационарный процесс, a sgn х = 1 при х ^ 0 и sgn х = -1 при х < 0; процесс У (О играет основную роль в полярном методе оценивания корреляционной функции случайного процесса X (t) (см. Полярная корреляционная функция) и может быть использован также и для простого приближенного определения спектральной плотности Х(0 (см., напр., [4]). График корреляционной функции В(х) = EX(t + x)X(t) стационарного Б. с. п. Х(0 обязательно имеет острие в точке х-0 (см. [1], где имеются и нек-рые дальнейшие результаты о таких корреляционных функциях). Лит.: [1] Masry E., «SIAM J. Appl. Math.», 1972, v. 23, № 1, p. 28-33; [2] Wiener N.. «Acta math.», 1930, t. 55, № 2-3, p. 117-258; [3] Винер Н., Интеграл Фурье и некоторые его приложения, пер. с англ., М., 1963, с. 194; [4] Kedem В., Binary time series, N. Y.- Basel, 1980. A. M. Яглом. БИНАРНЫХ ОТНОШЕНИЙ СТАТИСТИКА (binary relations statistics) - раздел статистики объектов нечисловой природы, в к-ром результаты наблюдений являются бинарными отношениями. Среди бинарных отношений наиболее часто применяют ранжировки (отношения линейного квазипорядка), разбиения (отношения эквивалентности), толерантности (рефлексивные симметричные отношения). В качестве выборочного среднего используют Кемени медиану, определяемую с помощью Кемени расстояния, а также средние величины, построенные на основе других близости мер. Ядерные оценки плотности (по мере, ставящей в соответствие подмножеству число его элементов) применяют в регрессии, дискриминантном анализе, проверке однородности и других задачах. Во многих ситуациях, в частности при построении вероятностных моделей порождения бинарных отношений, решают экстремальные статистические задачи. В изотропных пространствах бинарных отношений важную роль играют монотонные распределения вероятностей, для к-рых мода совпадает с теоретическим средним. Поскольку бинарное отношение отождествляется с подмножеством декартова квадрата конечного множества, на к-ром определено отношение, то Б. о. с. тесно связана с теорией конечных случайных множеств (см. [1]). Во многих задачах Б. о. с. используются меры близости, вводимые аксиоматически (см. [2]). Теория случайных толерантностей является частью теории конечных случайных множеств с независимыми элементами и тем самым частью теории люсианов. Согласно измерений теории, измерения в порядковой и номинальной шкалах приводят к ранжировкам и разбиениям соответственно. Теория случайных ранжировок развивается с начала 20 в. (см. [3], [4]). Для любых линейных порядков А и В коэффициент ранговой корреляции Кендалла х(А, В) и расстояние Кемени d (А, В) связаны соотношением х(А, B)=\-2d(A, B)/k(k-\), где k - число ранжируемых объектов. Теория случайных разбиений (см. [5]) с математич. точки зрения трудна. К Б. о. с. примыкает также теория парных сравнений (см. [6]), к-рые используют для получения бинарных отношений. Лит.: [11 Орлов А. И., Устойчивость в социально-экономических моделях, М., 1979; [2] Pay шенбах Г. В., в кн.: Анализ нечисловой информации в социологических исследованиях, М., 1985, с. 169-203; [3] Большев Л. Н., Смирнов Н. В., Таблицы математической статистики, 3 изд., М., 1983; [4] Кендэл М., Ранговые корреляции, пер. с англ., М., 1975; [5) Маамяги А. В., Некоторые задачи статистического анализа классификаций, Тал., 1982; [61 Дэвид Г., Метод парных сравнений, пер. с англ., М., 1978. А. И. Орлов. БИНОМИАЛЬНАЯ ВЫБОРКА (binomial sample) - см. Выборка статистическая. БИНОМИАЛЬНОЕ РАСПРЕДЕЛЕНИЕ (binomial distribution), распределение Берн у л л и,- дискретное распределение вероятностей случайной величины X, принимающей целочисленные значения k = 0, 1, 2, ..., «с вероятностями pk=P{X = k} = bk(n,p) = Cknpk(.l-Pr-k соответственно (см. рис.), где р - параметр Б. р., называемый вероятностью положительного исхода, 0^/?^ 1. Б. р.- одно из основных распределений вероятностей, связанных с последовательностью независимых испытаний. Пусть У1( У2, ...- последовательность независимых случайных величин, каждая из к-рых может принимать лишь два значения 1 или 0 с вероятностями р и 1 - р соответственно (то есть каждая из У, подчиняется Б. р. при п=\). Величины У; можно 0.14 10 И 12 Биномиальное распределение при 1) « = 5, р = 0,3 и « = 10, /? = 0,3; 2) « = 20, /? = 0,1 и /? = 0,5; 3) « = 20, р = 0,2 и аппроксимирующее распределение Пуассона с X = пр = 4. БИНОМИАЛЬНОЕ 49
трактовать как результаты независимых испытании, причем Yi = 1 в случае «положительного исхода» и У,- = 0 в случае 4отрицательного исхода» испытания с номером х. Если общее количество независимых испытаний фиксировано, то такая схема называется Бернулли испытаниями, причем суммарное количество положительных исходов X— Ух + ... + У„, я^ 1, в этом случае подчиняется Б. р. с параметром р. Производящая функция Б. p.: (pz + (1 -р))п, представление к-рой по формуле бинома Ньютона имеет вид Ь0 + Ь^г + ... +bnzn (отсюда и произошло само название «Б. р.»). Моменты Б. р. выражаются формулами ЕХ = пр, DX = E(X-np)2 = np(\-p), Е(Х-пр)3 = пр(\-р)(\-2р); асимметрия y^(\-2p)/ylnp(\-p), у2 = (\-6р(\-р))/пр(\-р). Характеристич. функция Д0 = (1+р(ей-1))". Функция Б. р. определяется при любом действительном значении 0 < у < п формулой F(y)=?{х^у} = j!ky!0cknP4\ - Pr-k, где [у] целая часть у, причем у-пр+0,5 F(y) = Ф + яя<*р). Jnp(\-p) J где Rn(y, р)-0 (я-1' ) равномерно для всех действительных у. Существуют и другие нормальные приближения Б. р. с остатками более высокого порядка малости. При я-><» функция Б. р. выражается в терминах функции Ф стандартного нормального распределения асимптотич. формулой (теорема Муавра-Лапласа): в([у)+\,п-[у)) h В (я, b) - бета-функция Эйлера. Если количество независимых испытаний я велико, а вероятность р мала, то индивидуальные вероятности bk(n, p) приближенно выражаются в терминах распределения Пуассона: При этом если я->°оиО<с^#^С(си С - постоянные), то равномерно относительно всех р из интервала 0 < р < 1 имеет место асимптотич. формула я»>-22,^+о<я-*х где Х(2п-[у])р/(2-р). Многомерным обобщением Б. р. является полиномиальное распределение. Лит.: [1] Гнеденко Б. В., Курс теории вероятностей, 6 изд., М., 1988; [2] Фе л л ер В., Введение в теорию вероятностей и ее приложения, пер. с англ., т. 1, М., 1984; [3] Прохоров Ю. В., Розанов Ю.А., Теория вероятностей, 3 изд., М., 1987; [4] Прохоров Ю. В., «Успехи матем. наук», 1953, т. 8, в. 3, с. 135-42; [5] Большее Л.Н., С м и р н о в Н. В., Таблицы математической статистики, 3 изд., М., 1983. д. н. Большее. БИНОМИАЛЬНЫЙ КОЭФФИЦИЕНТ (binomial coefficient) - коэффициент Си в разложении бинома Ньютона: (х + у)»^п = оС"мх"у"-П- 50 БИНОМИАЛЬНЫЙ Значение Б. к. Cj^ равно числу сочетаний по п элементов из множества, содержащего N различных элементов, и вычисляется по формуле N] _ N(N-\)..XN-n+\) Cn n\(N-n)l О^п^Ы. Б. к. обозначается также символом [я ]. Имеются многочисленные соотношения, связывающие Б. к., напр.: 5£_o C»N = 2", C'N = X;=0 C* C"N-_km, 1 <m<n. Б. к. естественным образом возникают в различных вероятностно-комбинаторных задачах. Так, отношения ^(Affjvfmfn) = ci!jcj5:u(cj5r,f O^m^n^N, m^M^N, n-m^N-M} определяют гипергеометрич. распределение, а равенства Вя=±ЕХ(Х-1)...(Х-п + 1) = Х;=пС^Р{Х = М дают факториальные моменты целочисленной случайной величины X. Если h(u) = -u\og2u-(\-u) log2(l-w), т=(2я+1)/2ЛГ, Г" = - 2NA(t) <j2nN ,e(N,n) причем O^eOV, я)^(16ят(1-т)) 1. Б. к. допускают ряд обобщений. Среди них - полиномиальные коэффициенты | | = — , щ + щ+...+пь =N, k>2, {nvn2,...,nk) nx\n2\...nk\ а также (/-биномиальные коэффициенты, или коэффициенты Гаусса: J" IL^-»IC<»'-» , Ч>1, переходящие в Б. к. при q -> 1. Лит.: [1] Большее Л. Н., Смирнов Н. В., Таблицы математической статистики, 3 изд., М., 1983; [2] Феллер В., Введение в теорию вероятностей и ее приложения, пер. с англ., т. 1-2, М., 1984. В. А. Ватутин. БИРКГОФА-ХИНЧИНА ЭРГОДИЧЕСКАЯ ТЕОРЕМА (Birkhoff-Khinchin ergodic theorem) - исторически перная индивидуальная эргодическая теорема, доказанная при нек-рых ограничениях Дж. Биркгофом [ 1 ] и в полной общности А. Я. Хинчиным [2] : для любой стационарной в узком смысле случайной последовательности ..., X_t, Х0, Xv ... с Е|Х0| <оо с вероятностью 1 существуют пределы где Ix - а-алгебра событий, инвариантных относительно сдвигов последовательности {X,}. Аналогичное утверждение справедливо и для стационарных в узком смысле процессов X(t), -oo<t<oo, с Е|Х(0)| <°° (при этом суммы заменяются интегралами). Эта теорема в дальнейшем была обобщена в различных направлениях. Лит.: [1] Birkhoff G., «Proc. Nat. Acad. Sci. USA», 1931, v. 17, p. 656-60; [2] Chintschin A., «Math. Ann.», 1932, Bd 107, S. 485-88. А. А. Темпельман.
БИСПЕКТР (bispectrum) - см. Биспектралъная плотность. БИСПЕКТРАЛЬНАЯ ПЛОТНОСТЬ (bispectral density), биспектр, - спектральная плотность третьего порядка (см. Спектральный семиинвариант) одномерного стационарного случайного процесса X(t), EX(t) = 0. Лит.: [1] Bril linger D., «Ann. Math. Stat.», 1965, v. 36, p. 1351-74; [2] Brillinger D., Rosenblatt M., в кн.: Spectral Analysis of Time Series, N. Y.- L.- Sydney, 1967, p. 153-88, 189-232; [3J Хеннан Э., Многомерные временные ряды, пер. с англ., М., 1974; [4] Subba Rao Т., Gab r M., An introduction to bispectral analysis and bilinear time series models, N. Y.- [a. o.], 1984. И. А. Кожевникова, Ю. О. Усенко. БИСПЕКТРАЛЬНАЯ ФУНКЦИЯ (bispectral function) - спектральная функция третьего порядка (см. Спектральная плотность. Спектральный семиинвариант) одномерного стационарного случайного процесса. /О. О. Усенко. БИТ (bit) - двоичная единица информации количества, получаемая, когда в определении количества используют логарифмы по основанию 2 («Б.» - сокращение от английского binary digit). Б.- наиболее употребляемая единица количества информации. Другими единицами служат также «нат» (от natural digit) и «хартли» (hartley), когда в определении количества информации используются соответственно натуральные либо десятичные логарифмы. в. В. Прелое. БЛАГОПРИЯТНОЕ СОБЫТИЕ для с о 6 ы т и я Л (outcome belonging to event Л/elementary event, favorable to A) - элементарное событие, осуществление к-рого влечет осуществление события А. в. А. Ватутин. «БЛИЖАЙШЕГО СОСЕДА» АЛГОРИТМ (nearest neigh bour algorithm) - частный случай иерархической процедуры классификации, характеризующийся тем, что мера близости между двумя классами определяется как мера близости между самыми близкими объектами из этих классов. а. Т. Терехин. БЛИЖАЙШИЙ ОБЩИЙ ПРЕДОК (nearest mutual ancestor) - такая частица в ветвящемся процессе, что она является предком всех частиц, существующих в заданный момент времени, но ни один ее потомок указанным свойством не обладает. Понятия Б. о. п. и его обобщения - редуцированного ветвящегося процесса - используют при изучении свойств ветвящихся случайных полей. Первые предельные теоремы для момента деления Б. о. п. получены в [1], [2]. Лит.: [1] Fleischmann К., Prehn U., «Math. Nachr.», 1974, Bd (>4, S. 357-62; [2] Зубков А. М., «Теория вероятн. и ее примен>, 1975, т. 20, в. 3, с. 614-23; [3] Ватутин В. А., Зубков A.M., в кн.: Итоги науки и техники. Теория вероятностей. Математическая статистика. Теоретическая кибернетика, т. 23, М., 1985, с. 3-67. А. М. Зубков. БЛИЗКИЕ ГИПОТЕЗЫ (close hypotheses), сближающиеся гипотезы, - свойство последовательности гипотез в асимптотической задаче различения статистических гипотез, заключающееся в сближении (в нек-ром смысле) последовательности вероятностных мер, соответствующих распределениям наблюдений при справедливости основной и альтернативной гипотез, при неограниченном возрастании объема наблюдений (реже при других предельных переходах, отвечающих увеличению достижимой точности статистического вывода). Типичным примером Б. г. служат контигуальные альтернативы, хотя многие содержательные результаты получены для сближающихся, но не контигуальных альтернатив (напр., в ранговых критериях типа хи-квадрат для многовыборочных задач; см. [1]). Лит.: [1] Гаек Я., ШидакЗ., Теория ранговых критериев, пер. с англ., М., 1971; [2] Боровков А. А., Математическая статистика, М., 1984. А. В. Бернштейн. БЛИЗОРУКАЯ СТРАТЕГИЯ (miopic strategy) - см. Двурукий бандит. БЛИЗОСТЕЙ АНАЛИЗ (proximity analysis) - см. Многомерное шкалирование. БЛИЗОСТИ МЕРА (proximity measure) в пространстве И- функция р:£2->[0, +«>], используемая в статистике объектов нечисловой природы для измерения близости между объектами, причем р(х, х) = 0 и р(х, у) = р(у, х) для любых х, у из И. Неравенство треугольника не предполагается выполненным. Примерами Б. м. являются Кемени расстояние, квадрат евклидова расстояния в II? , дополнение до 1 коэффициента ранговой корреляции Спирмена. Если р есть Б.м., то/Чр) также Б. м. для любой, строго возрастающей функции f:[0, +<»)-> [0, +°°) такой, что /40) = 0. В конкретных пространствах объектов нечисловой природы Б. м. часто вводят с помощью соответствующих аксиом (см. [1], [2]). Лит.: [11 Орлов А. И., Устойчивость в социально-экономических моделях, М., 1979; [2] Pay шенбах Г. В., в кн.: Анализ нечисловой информации в социологических исследованиях, М., 1985, с. 169-203. А. И. Орлов. БЛИЗОСТИ МЕРА (proximity measure) объектов и классов - функция от координат двух объектов в я-мерном пространстве или классов объектов, характеризующая их сходство. Часто в качестве Б. м. между объектами используется евклидово расстояние. Примерами Б. м. между классами могут служить меры, используемые в иерархических процедурах классификации, в частности в алгоритмах «ближайшего соседа», «дальнего соседа», «средней связи». ^ Т. Терехин. БЛОК (block) - см. Блочный план. БЛОКОВАЯ ЧАСТОТА (block frequency) - см. Выборочные блоки. БЛОКОВОЕ ДЕКОДИРОВАНИЕ (block decoding) - декодирование блоковых кодов, при к-ром кодовые слова длины п восстанавливаются по последовательностям букв длины п на выходе канала; при этом декодирование последовательных кодовых слов производится независимо друг от друга. В случае дискретных сигналов и сообщений характерной особенностью Б. д. является то, что все операции проводятся над подмножествами нек-рого множества, состоящего из конечного числа элементов. При Б. д. обычно используют методы декодирования по максимуму правдоподобия, по максимуму апостериорной вероятности, по минимуму кодового расстояния. При этом Б. д. многих известных блоковых кодов производится с полиномиальной (относительно длины блока) сложностью (см. Сложность кодирования и декодирования). Лит.: [1] Колесник В. Д., ПолтыревГ. Ш., Курс теории информации, М., 1982. д/. с. Пинскер, В. В. Прелое. БЛОКОВЫЙ КОД (block code) - код, все слова к-рого состоят из п букв алфавита А. Число п называется длиной Б. к., а число R = n~x log2 М - скоростью Б. к., где М - . мощность Б.к. В зависимости от алгебраич. структуры кода выделяют подклассы Б. к. Если на А задана структура поля (обычно |л| <<» и поле конечное) и Б. к. является fc-мерным подпространством в Ап, то он называется линейным (групповым) (я, 6)-кодом. Для любого линейного кода сложность кодирования есть О (я ). На линейных кодах в каналах с аддитивным шумом достигается пропускная способность, а также лучшая (в классе Б. к.) известная верхняя оценка ошибочного декодирования вероятности. Линейные коды, инвариантные относительно циклич. сдвига координат, называются циклическими и являются одним из основных объектов исследований в теории кодирования. Для многих известных Б. к. существуют методы декодирования полиномиальной сложности. БЛОКОВЫЙ 51
Лит.: [1] Галлагер Р., Теория информации и надежная связь, пер. с англ., М., 1974; [2] Мак-ВильямсФ. Д., СлоэнН.Д.А., Теория кодов, исправляющих ошибки, пер. с англ., М., 1979. Г. А. Кабатянский. БЛОК-СХЕМА (block scheme) - см. Комбинаторный анализ. БЛОЧНАЯ СТРУКТУРА (block structure) - см. Блочный план. БЛОЧНЫЙ ПЛАН (block design) - план эксперимента, наделенный блочной структурой, то есть множество объектов, над к-рыми проводится регрессионный эксперименту разбито на подмножества, называемые блоками. Применение блоков и рандомизация были предложены Р. Фишером [1] для уменьшения влияния на результаты эксперимента тех или иных неоднородностей условий, в к-рых проводятся его отдельные опыты. Напр., при сравнении урожайности сортов сельскохозяйственной культуры плодородие поля, на к-ром они выращиваются, может меняться от участка к участку. В такой ситуации целесообразно разбить опытное поле на мелкие делянки, сгруппировав затем в блоки однотипные (по возможности) делянки. Наименьшая дисперсия оценки урожайности будет достигнута, если каждый из сортов испытывать на делянках из всех блоков, а внутри каждого блока для несмещенности оценки выбирать делянку для сорта случайно. В случае многофакторной модели, поступая таким образом для любого набора уровней факторов, получают полный рандомизированный Б. п. Наличие блоков должно учитываться и в статистич. модели явления. Напр., для описанного примера естественной является аддитивная модельБ.п.: у^ = ц + о* + ру + е^, i=l, ..., *,; = 1, .... Ь, *=1, ..., Кф С) где y{jk - урожай в fc-м повторе ячейки (i,/), ц - общее среднее, а,-, ру - истинные эффекты соответственно i-ro сорта, /-го блока, Eijb - случайная ошибка при повторах опытов. С точки зрения теории факторных экспериментов разбиение множества опытов на блоки равносильно введению вспомогательного «блокового» фактора, значения уровня к-рого показывают, к какому из блоков относятся условия опыта, причем оценка эффекта ру при статистич. обработке результатов эксперимента обычно не нужна. По ряду причин (экономичности, трудоемкости и др.) полный Б. п. часто не удается реализовать. К тому же увеличение блоков делает их менее однородными, увеличивая внутрибло- ковую дисперсию и снижая тем самым точность оценок параметров. Иногда, наконец, малость блоков диктуется физич. причинами неоднородностей (напр., испытание различных сортов резины для автопокрышек приводит к блокам в 4 единицы - по числу колес автомобиля). Указанные причины служат основанием для применения неполных (непол- ноблочных) Б. п., блоки к-рых имеют меньший объем, чем общее число совокупностей условий. Всякого рода симметрия в их строении упрощает анализ результатов эксперимента. Поэтому важными классами неполных Б. п. являются сбалансированные и частично сбалансированные планы (см. [2], [3]). Б. п., содержащий Ъ блоков по k единиц (участков) в каждом блоке и предназначенный для сравнения t > k сортов, называется сбалансированным блочным планом (СНБП), если каждый из t сортов реализуется на г участках, а каждая пара сортов встречается в X блоках. Условия rt-bk и X(t- \) = r(k- 1) необходимы для существования СНБП с такими параметрами, но не достаточны. В комбинаторном анализе получен ряд достаточных условий существования и несуществования СНБП (или уравновешенных неполных блок-схем). 52 БЛОЧНЫЙ Гипотезы о различии между параметрами а,- в (*) проверяют, оценивая контрасты k = ]£ с{щ, £ ct = 0. Выбрав произвольный ортонормированный базис контрастов kx> ..., kt_x> находят матрицу ковариаций D вектора k = (kv ..., ^_j), где hi - оценка наименьших квадратов контраста к{. Нахождение D - наиболее трудоемкая вычислительная часть анализа Б. п. Для СНБП она тривиальна, так как диагональные элементы D равны, совпадают и все внедиагональные элементы. Более общим типом неполного Б. п. является частично сбалансированный блочный план (ЧСНБП), то есть всякий неполный Б. п. с параметрами b> k> t и г того же смысла, что и выше, для к-рого выполняются условия: 1) множество всех (неупорядоченных) пар сортов разбито на т подмножеств; каждый набор входит ровно в щ пар, принадлежащих f-му из этих подмножеств; 2) пары из t'-го подмножества присутствуют точно в \ блоках; 3) если нек-рая пара входит в i-e подмножество, то число элементов, образующих с одним из ее членов пару из /-го подмножества, а с другим - пару из fc-ro подмножества, равно Pjk = Vky ЧСНБП с т-\ есть СНБП. Параметры ЧСНБП связаны рядом соотношений; известен ряд результатов о существовании ЧСНБП, а также о различных их комбинаторных свойствах (см. [8]). Пусть рассматривается аддитивная модель (*). Здесь область действия X (см. Регрессионных экспериментов планирование) есть решетка О,/), г- 1, ..., t> / = 1, ..., b, i - номер сорта, /- номер блока, ат1 = рт1 = 0, где aT = (at, ..., а,), рт = (р1, ..., р5), 1- столбец из единиц. Обобщенный п л а н £ есть любое вероятностное распределение на X. Пусть Z= Ц(|./)|. г, = £. $(«,/), *, = £. $(«,/), гТ = (г, г(), К = = diag(fc1, ..., kb), 7? = diag(r1, ..., rt) и min/^>0. Множества контрастов и линейных форм /та, допускающих оценку, совпадают в том и только в том случае, если ранг С (£) равен t - 1, где С(£) =K-ZK~ ZT, причем, обозначая оценки наименьших квадратов для /ta и /Ja через k^ и k2, имеют cov(k^k2) = = /Ус~(£)/2, где С" - произвольная матрица, ^-обратная к С. Обычно класс планов сужают условием k: = k. Если существует план £* такой, что С(£*) =clv + dlvil для нек-рых с, d, причем след С(£) наибольший на множестве S матриц С(£), то матрица С(£*) максимальна в смысле Шура на 5, то есть ^_а{(^)-х^))^о для всех m = 1, 2, ..., v\ здесь A,j(£*) обозначает i-e по величине собственное значение С(£). Как следствие, Ф(С(£*)). минимальна на S для широкого класса функций Ф(С), включающего все популярные критерии (см. Регрессионных экспериментов планирование). При дополнительном условии такой же результат справедлив и при нарушении предположения k(- k. Оптимальность СНБП £* есть следствие этих результатов. Доказано много обобщений: на многофакторный случай, где блоки нумеруются системой индексов, а примерами оптимальных планов являются латинские, греколатинские и т. д. квадраты, планы Юдена и др.; на почти сбалансированный случай, где в 5 не существует матрицы С(£*) требуемого вида. Тогда Ф-оптимальными во многих случаях оказываются ЧСНБП, для к-рых матрица С(£) наиболее приближает указанную выше.
Лит.: [1) Фишер Р. А., Статистические методы для исследователей, пер. с англ., М., 1958; [2] Шеффе Г., Дисперсионный анализ, пер. с англ., М., 1980; [3] Ф и н н и Д., Введение в теорию планирования экспериментов, пер. с англ., М., 1970; [4] Partially balanced designs, в кн.: Encyclopedia of Statistical Sciences, v. 6, N. Y., 1985; [5J Nearly balanced designs, там же; [6] С 1 at wort hy W. H., Tables of two-associate-class partially balanced designs, Wash., 1973; [7] Map- коваЕ.В., Неполноблочные планы, М., 1970; [8] МарковаЕ.В., ЛисенковА. Н., Комбинаторные планы в задачах многофакторного эксперимента, М., 1979; [9] Gio vagnol i A., WynnH. P., «Proc. Berk. Conf. in Honor of J. Neyman and J. Kiefer», 1985, v. 1, p. 418-33. В. А. Душский, M. Б. Малютов. БЛУЖДАНИЕ (random walk) - см. Случайное блуждание. БЛУЖДАНИЙ ПО СФЕРАМ МЕТОД (spherical process method) - совокупность специфических алгоритмов грубого моделирования в какой-либо области D случайной траектории w(t) винеровского процесса вплоть до первого выхода на границу (w(i) edD) с целью решения нек-рых эллиптических уравнений методом Монте-Карло. В простейшей форме предложен (см. [1]) для решения методом Монте-Карло задачи Дирихле для уравнения Лапласа Дм = 0 в D, u(y) = f(y), yedD, на основе представления и (х) = Exf(w(x)), где мате- матич. ожидание берется по всем траекториям с w (0) = х. Б. по с. м. вместо полной траектории w(t)> O^t^x, дает рекур- рентно последовательность w(Qn), Э0 = 0, 9„->т, при я-><» почти наверное, где случайное положение w(Qn) первого выхода на максимальную вписанную в D сферу Sn с центром в w(%_^) распределено равновероятно по всей этой сфере Р{а>(6„) е dS} = dS/Sn-X. Построение ведется v шагов до выхода в е-окрестность границы dD, F^X |lne|, после чего получается, напр., w(x)Xwt(x) = arg min ||a>(9v)-y||. При необхо- yedD димости независимо (см. [2]) разыгрываются также величины G„-e^_t, fc=l, ..., v. Достоинством Б. по см. является экономность и простота моделирования. Лит.: [1] Muller M., «Ann. Math. Statist.», 1956, v. 27, № 3, p. 569-89; [21 Ермаков СМ., Некруткин В. В., СипинА.С, Случайные процессы для решения классических уравнений математической физики, М., 1984. Н.Н. Ченцов. БЛЭКМАНА-ТЬЮКИ МЕТОД (Blackman-Tukey method) - метод расчета оценки fj (X) спектральной плотности f(X) стационарной случайной последовательности (стационарного временного ряда) X(t), t^Q, l, ..., по значениям одной реализации xt при t=\, 2, ..., Т, опирающийся на формулу /•;а) = ± y*r-ier(x)B^(x)cosXxf с) где Вj (т) = У.Г_Х Xt+Txt ~ выборочная корреляционная функция ряда xt, а ат(х) - разумным образом подобранное корреляционное окно, обращающееся в нуль при x>kT, где kT составляет небольшую долю от Т (напр., kT = Q,\ Т). Б.- Т.м. был развит в [1] и в течение 50-60-х гг. являлся основным практич. методом спектрального оценивания (см., напр., [2]-[4]). Однако после того, как широкое распространение получили алгоритмы быстрого преобразования Фурье и другие родственные методы быстрого расчета преобразований Фурье, этот метод потерял свое значение и может рекомендоваться лишь в применении к достаточно коротким рядам наблюдений (при Т порядка 100 или меньше). В случае же больших значений Т Б.-Т. м. разумно использовать лишь в измененной форме, трижды привлекающей алгоритм быстрого преобразования Фурье [для расчета периодограммы 1Т(Х) ряда xt, для определения выборочной корреляционной функции Вт (X) как преобразования Фурье от 1Т(Х) и, наконец, для вычисления fjiX) по формуле (*)] (см., напр., [5]). Имеется ряд обобщений и глубоких модификаций Б.-Т. м. (см., напр., [6]). Лит.: [1] Blackman R. В., TukeyJ.W., The measurement of power spectra, N.Y., 1959; [2] ДженкинсГ., Ватте Д., Спектральный анализ и его приложения, пер. с англ., в. 1-2, М., 1971-72; [3] Андерсон Т., Статистический анализ временных рядов, пер. с англ., М., 1976; [4] Бендат Дж., П и р с о л А., Измерение и анализ случайных процессов, пер. с англ., М., 1974; (5] Яглом А. М., Корреляционная теория стационарных случайных функций, Л., 1981; [6] Наттолл А. X., Картер Дж. К., «Тр. Ин-та электротехн. ра- диоэлектр.», 1982, т. 70, № 9, с. 243-55. А. М. Яглом. БЛЭКУЭЛЛА ТЕОРЕМА (Blackwell theorem) - см. Восстановления теория, Статистическое оценивание. БЛЮМЕНТАЛЯ-ГЕТУРА-МАК-КИНА ТЕОРЕМА (Blu menthal-Getoor-McKean theorem) - см. Случайная замена времени в марковском процессе. БОГОЛЮБОВА ЦЕПОЧКА УРАВНЕНИЙ (Bogolyubov equations hierarchy/chain) в неравновесной статистической механике- система линейных уравнений, связывающих корреляционные функции РМ«Ч1.Р1) (<7п,р„);0 = = р£) «<?i.Pi>. .». (W„». Ч№**. 0<j<h, h>0, состояния \it\ здесь \it - вероятностная мера, к-рая должна получаться с помощью сдвига вдоль решения уравнений движения, исходя из начального распределения вероятностей ц( =Цо)- Б. **• У- имеет вид -^ р(п>(.;*) = {р(и)(•;*),Я(и)} + ^q^dp^i^4-^itp^t\ V(qnJ.)}, n>0. (•) Здесь - я-частичный гамильтониан с парным потенциалом взаимо- действия С7(г), r>0, V(qn+i\q, <7П> = Х;"= ,W|k+1 ~4jV ~ энергия взаимодействия частицы в точке qn+< e к с частицами, расположенными в точках qv ..., qr„elP , {•,•}- скобка Пуассона. Само семейство состояний {\it} часто бывает удобным определять как семейство вероятностных мер, корреляционные функции к-рых дают решение задачи Коши для системы уравнений (*). Система (*) была предложена и изучена Н. Н. Боголюбовым [1]. В литературе употребляется также термин «цепочка уравнений ББГКИ» (Бого- любова-Борна-Грина-Кирквуда-Ивона). Теоремы существования и единственности для системы (*) получены к настоящему времени только в ряде частных ситуаций (см. [2]-[4]). Стационарные решения изучались в цикле работ (см. [5]). Б. ц. у. играет важную роль при математич. выводе так наз. кинетич. уравнений, а также уравнений гидродинамики (см. [6], [7]). Лит.: [1] Боголюбов Н.Н., Проблемы динамической теории в статистической физике, М.- Л., 1946, а также: Избранные труды, т. 2, К., 1970, с. 90-196; [2] Gal 1 avotti G., LanfordO., Le- bowitz J., «J. Math. Phys.», 1972, v. 13, № Ц, p. 2898-905; [3] Петрина Д.Я., Герас и менко В. И., Мал ы шев П. В., Математические основы классической статистической механики, К., 1985; [4] Синай Я. Г., Су хов Ю. М., «Теоретич. и матем. физика», 1974, т. 19, № 3, с. 344-63; [5] Gurevi ch В. М., Suhov Yu. M., «Comm. Math. Phys.», 1976, v. 49, № 1, p. 63-96; 1977, v. 54, № 1, p. 81-96; 1977, v. 56, № 3, p. 225-36; 1982, v. 84, № 3, p. 333-76; [6] Spohn H., «Rev. Mod. Phys.», 1980, v. 52, >fc 3, p. 569-615; [7] Добрушин Р.Л., Синай Я. Г., Сухов Ю. М., в кн.: Итоги науки и техники. Современные проблемы математики. Фундаментальные направления, т. 2, М., 1985, с. 235-84. Ю. М. Сухов. БОГОЛЮБОВА 53
БОЗЕ-ЭЙНШТЕЙНА СТАТИСТИКА (Bose-Einstein statistics) - квантовая статистика, применимая к системам тождественных частиц с целым спином (0, 1, 2, ...) в единицах Ь= 1,05-10" эрге. Предложена Ш. Бозе (S. Bose) и А. Эйнштейном (A. Einstein) в 1924. Согласно Б,- Э. с, в каждом квантовом состоянии многочастичной системы может находиться произвольное число частиц, к-рые считаются неразличимыми. Напр., квантовое состояние идеального газа определяется совокупностью чисел заполнения уровней {п_}, где каждое пр указывает число частиц, находящихся в одночастичном квантовом состоянии с импульсом р, в случае Б.- Э. с. пр = 0, 1, 2, ... Для больших систем уровни энергии расположены очень плотно и стремятся к непрерывному спектру при V-><*>. Поэтому уровни можно сгруппировать по малым ячейкам, содержащим G; уровней со средней энергией £; = /?t/2m, предполагая, что G,»l. Состояние всей системы определяется набором {N,}, где N, - суммы пр по уровням ячейки. Статистический вес макроскопич. состояния, то есть число различных распределений частиц по ячейкам, равен W{Ni) = Yli(Gi + Ni-\)\/Ni\(Gi-\)l Наиболее вероятное распределение частиц по состояниям находится из условия максимальности статистич. веса при заданной энергии Е = \, EjN} и числе частиц N = \ . Л^ . Соответствующие числа заполнения равны й,=луо, = (еР(£"-»-1)-\ где (X - химич. потенциал, р = \/kT, k - постоянная Больцмана (универсальная постоянная k = 1,38-10" эрг/град), Т - абсолютная температура. Для системы частиц, подчиняющихся Б,- Э. с, состояния описываются симметричной волновой функцией, что является определением Б,- Э. с, справедливым не только для идеального газа. Лит,: [1] Хуан г К., Статистическая механика, пер. с англ., М., 1966; [2] Б о го любо в Н. Н., Лекции по квантовой статистике, в его кн.: Избранные труды, т. 2, К., 1970. д. Я. Зубарев. БОЗОННОЕ ПРОСТРАНСТВО (boson space) - см. Фока пространство. БОКОВАЯ ЧАСТОТА (side frequency) - см. Амплитудная модуляция. БОКСА-ДЖЕНКИНСА МЕТОД (Box-Jenkins approach/ method) - процедура идентификации и оценивания параметров модели АРПСС (см. ниже) временного ряда, включающая в себя выбор порядка модели, предварительное оценивание ее параметров, окончательное оценивание, использующее предварительные оценки в качестве начальных данных, диагностическую проверку и окончательный выбор модели. При этом заранее предполагается, что рассматриваемый временной ряд xty t=\y ..., я, представляет собой реализацию нек-рого авторегрессии - проинтегрированного скользящего среднего процесса (АРПСС) порядка (/?, d} q)} описываемого уравнением вида (\ -B)dy(B)(xt- Ext) = Q(B)at} где ф(#) = 1 - cpjtf - ...- - <ррВр - оператор авторегрессии, 6(£) = 1 -Q^B - ... -QqBq - оператор скользящего среднего, Bxt = xt_v Ext - постоянное среднее значение ряда xt> at - последовательность независимых и одинаково распределенных случайных величин с нулевым средним и дисперсией оа. Пусть все корни уравнений <p(z) = 0 и Q(z) = Q на комплексной плоскости z лежат вне единичного круга: тогда процесс xt стационарен и обратим. 54 БОЗЕ-ЭЙНШТЕЙНА Оцениванию подлежат параметры р, d, q, коэффициенты авторегрессии <р■, j= 1, ..., р, и скользящего среднего в., /= 1, ..., q, дисперсия оа. Б.- Д. м. предложен в [1]. Степень d может выбираться исходя из требования, чтобы выборочная корреляционная функция преобразованного ряда Wdt = (\-B) (xt-Ext) затухала достаточно быстро. При неизвестных р и q для выбора d можно также использовать метод (см. [2]), заключающийся в последовательной проверке гипотезы о равенстве нулю коэффициента регрессии приращений wdt no wd_xt_x. В случаях, когда оказывается, что d^\, дальнейшему анализу подвергается ряд wdt, представляющий собой реализацию смешанной авторегрессии - скользящего среднего процесса (АРСС-процесса) порядка (р, q). Предварительный выбор порядка (р, q) модели осуществляется на основе анализа оценок корреляционной и частной корреляционной функций ряда wdt\ первая из них должна обращаться в нуль при сдвиге k>q для модели скользящего среднего процесса порядка q, вторая - при k>p для модели процесса авторегрессии порядка р. О других методах оценивания р и q см. в ст. Параметрическая модель; выбор порядка. Начальные оценки параметров авторегрессии ищутся после этого из решения системы Юла-Уокера уравнений вида v<=E'.,4vv/«''=1 р- Оценки параметров скользящего среднего вычисляются затем путем решения (по методу Ньютона-Рафсона) нелинейных относительно параметров скользящего среднего уравнений ck=(-е*+е,еж +... + V,e,)/(i + £«_ of). где Ck, k=\, ..., q,- ковариационная функция ряда wd.t = wd,t-^p %wd,t-r При этом получается также и оценка дисперсии аа. Полученные на первой стадии оценки параметров авторегрессии и скользящего среднего служат начальными условиями для построения оценок максимального правдоподобия; при этом допускается, что ряд wdt включает сезонный ход с заданным периодом. Оценки параметров, минимизирующие сумму квадратов остаточного белого шумая^, вычисляются с помощью алгоритма Марквардта. Б,- Д. м. предусматривает вычисление корреляционной матрицы оценок параметров, края затем используется на стадии диагностич. проверки. Соответствующие алгоритмы приведены в [1]. При q = 0 нахождение начальных оценок параметров авторегрессии представляется необязательным, так как хорошие оценки могут быть получены более простым способом (напр., Берга методом). Родственные, но более сложные методы оценивания параметров <р и в^ предлагались и для случая, когда q*0 (см., напр., [5]). Комплекс программ, обеспечивающий автоматич. подгонку модели АРСС-процесса порядка (р, q) к скалярному вре- меннбму ряду, приведен в [3]. Рассматривался многомерный случай (см. [4]). Лит.: [1] Бокс Дж., ДженкинсГ., Анализ временных рядов. Прогноз и управление, пер. с англ., в. 1, М., 1974; [2] SaidS., Dickey D., «Biometrika», 1984, v. 71, X° 3, p. 599-607; [3] AkaikeH., Arahato E., OzakiT., «Computer Science monographs», 1975, № 5; [4) AkaikeH., Nakagava Т., Statistical Analysis and Control of Dynamic Sistems, Dordrecht, 1988; [5] Fried- lander В., «IEEE Trans, on Inform. Theory», 1982, v. IT-28, № 4, p. 639-46. В. Е. Привальский. БОКСА-ДЖЕНКИНСА ПРОЦЕСС (Box-Jenkins process) - см. Авторегрессии - проинтегрированного скользящего среднего процесс.
БОКСА-УИЛСОНА МЕТОД (Box-Wilson method) - модификация градиентного метода поиска экстремума функции при наличии случайных ошибок измерений (см. Экстремальных экспериментов планирование). М. Б. Малютов. БОЛЬЦМАНА РАСПРЕДЕЛЕНИЕ (Boltzmann distribution) - совместное дискретное распределение случайных величин Xv ..., Xky принимающих целые неотрицательные значения mv ..., mk, удовлетворяющие условию тх + ... +mk = m с вероятностями Р{Х, = mv...,Xk =mk} = ^_--L. 11 1 k k щ\...тк\ nm Если в задаче о размещении т неразличимых шаров по п ячейкам предположить, что все пт возможных размещений равновероятны (статистика Больцмана или Макс- велла-Больцмана), то случайный вектор (Xt, ..., Xk), где X; - число шаров в i-й ячейке, имеет Б. р. Лит.: [1] Феллер В., Введение в теорию вероятностей и ее приложения, пер. с англ., т. 1, М., 1984. С. Я. Шоргин. БОЛЬЦМАНА СТАТИСТИКА (Boltzmann statistics) - статистика, применяемая к системам невзаимодействующих частиц, подчиняющихся классической механике (классический идеальный газ). Предложена Л. Больцманом (L. Boltzmann, 1868-71); она определяет распределение частиц в фазовом пространстве координат и импульсов одной частицы. Это фазовое пространство разбивается на большое число малых ячеек, в каждой из к-рых еще содержится большое число частиц Л^ и рассматриваются всевозможные распределения частиц по этим ячейкам. Фазовый объем i-й ячейки G,- - о * это ее объем в б-мерном пространстве в единицах h , где h = 6,62-10-2 - постоянная Планка. Все микроскопич. состояния, соответствующие заданному числу частиц и энергии, считаются равновероятными. Число различных способов, к-рыми можно распределить N частиц по М ячейкам размера G; по N} частиц в каждой, равно WB(...Ni...) = ЛП J\^M С?'/Ы{!, N = £. Nit где учитывается, что частицы полностью независимы, неразличимы и перестановки частиц в пределах каждой ячейки не меняют состояния. В Б. с. эта величина определяет статистич. вес состояния. При подсчете статистич. веса нужно, кроме того, учитывать, что перестановка тождественных частиц не меняет состояния, поэтому WB следует уменьшить в N1 раз. В Б. с. предполагается, что состояние равновесия статистически соответствует наиболее вероятному распределению, к-рое соответствует максимуму W при фиксированном числе частиц N и энергии Е} что приводит к распределению Больцмана для среднего числа частиц в ячейке где k - постоянная Больцмана (универсальная постоянная k = 1,38-Ю-1 эрг/град), Т - абсолютная температура, \i - хи- мич. потенциал. Лит.: [1] Майер Дж., Гепперт-Майер М., Статистическая механика, пер. с англ., 2 изд., М., 1980; [2] ЗоммерфельдА., Термодинамика и статистическая физика, пер. с нем., М., 1955. Д. Н. Зубарев. БОЛЬЦМАНА УРАВНЕНИЕ (Boltzmann equation) - основное уравнение кинетической теории разреженных газов, предложенное Л. Больцманом (L. Boltzmann) в 1872 (см. [1]): эд^ро = _v эд^о + j j [f(q ^ t)f{q v, 11) _ -f(q, v, t)f(q, vx, t)] | v -t\ \ B(v - vx, со) dco dvx, где f(q,v,t) - средняя концентрация частиц газа в точке q e fir со скоростью vefir в момент времени t, cog5 , (со,a- vx) ^0, B(v,<a) - дифференциальное сечение рассеяния, определяемое по потенциалу взаимодействия частиц газа, v' — v- -(v-vx,со)со, v[ = vx + (v - vx, co)co. Считается, что это уравнение возникает в пределе Больцмана-Грэда (см. [1]-[4]). Для нек-рых потенциалов Б. у. можно записать как Колмогорова уравнение для скачкообразного нелинейного марковского процесса с линейной зависимостью интенсивностей перехода от/Ч-,0(см. [21, [3]). Набор {/*„}, fn = f(qvvX}t)f2(q2}v2}t)...f(qn}vn}t)} есть решение цепочки Б. у. (см. [2]-[4]). Это отвечает гипотезе «молекулярного хаоса» и указывает на связь с марковскими ветвящимися процессами, к-рая установлена для нек-рых уравнений, аналогичных Б. у., и используется в методе Монте- Карло. В настоящее время в достаточной общности не доказаны теоремы существования и единственности решения Б. у., не проверена корректность предельного перехода Больцмана-Грэда, не построены сопутствующие марковские процессы как линейные (ветвящиеся), так и нелинейные. Лит.: [1J БольцманЛ., Лекции по теории газов, пер. с нем., М., 1956; [2J Nonequilibrium phenomena, «Stud. Stat. Mech.», 1983, v. 10; [3] Гуревич Б. М., Осе л еде ц В. И., в кн.: Итоги науки и техники. Сер. Теория вероятностей. Математическая статистика. Теоретическая кибернетика, т. 14, М., 1977, с. 5-39; [4] Добру шин Р. Л. [и др.], в кн.: Итоги науки и техники. Современные проблемы математики. Фундаментальные направления, т. 2, М., 1985, с. 233-307; [5] Черчиньяни К., Уравнение Больцмана, пер. с англ., М., 1981; [6] его же, Теория и приложения уравнения Больцмана, пер. с англ., М., 1978. В. И. Оселедец. БОЛЬШЕВА АППРОКСИМАЦИЯ (Bol'shev's approximation) - см. Гипергеометрическое распределение. БОЛЬШИЕ УКЛОНЕНИЯ для случайного блуждания (large deviations for a random walk) - попадания траектории случайного блуждания в удаленную область, имеющие малую вероятность. Пусть S = (S0, Sx, ...) - траектория случайного блуждания, С1 - множество в пространстве V последовательностей s = (s0, st, ...); при a eltf полагают as= (asQ} as]} ...), aQ = {as: s e Q). Если Q и последовательность x -> °o таковы, что ?{S e xQ) -> 0 при x -> во, (1) то задачу описания асимптотич. поведения этой вероятности называют задачей о больших уклонениях. Наиболее полно изучены Б. у. случайных блужданий, порожденных суммами независимых действительных случайных величин: 5„ = Xt+ ... +Х„, п^1,50 = 0. (2) Широкий класс задач о Б. у. для блуждания (2) сводится к исследованию вероятности (1), где S = S(„) - начальный отрезок траектории (Sk, k^n = n(x)), Q = Qn- множество в пространстве конечных последовательностей длины п. Среди задач о Б. у. для блужданий (2) выделяются граничные задачи, когда множество Q связано с множеством последовательностей (траекторий), заключенных между двумя границами. Пусть g±(Lt) - гладкие функции, заданные на отрезке [0,1], g~(0)<0<g+(0)} g~(t)<g+(t). В случае выполнения (1) при EXk = 0} DXk=\ можно образовать непрерывную случайную ломаную s„(0, положив sn(k/n)=Sk/^Jn , 6 = 0,1, ..., я, и доопределив sn(t) в остальных точках отрезка [0,1], напр., линейной интерполяцией. Если полоса Q = {g(t): g~(t)^g(t)<g+(t)} не содержит прямой g(t)=0, то в силу инвариантности принципа P{sn() е*Д}->0 при *->оо, я->оо. (3) Если же ни одна из кривых gHt) не задевает ось абсцисс, то Р{5„() g*Q}->0 При X -> оо, П -> ©о. БОЛЬШИЕ 55
Здесь имеют дело с Б. у. в граничных задачах для случайных блужданий. В обоих случаях отыскание асимптотики рассматриваемой малой вероятности может быть сведено к вычислению вероятности выхода блуждания за одну границу. Напр., P{sn()exQ} = [P{ max (sn(t)-xg+(t))>0} + + P{ max (*0~(О-5я(*))>О}](1+о(1)). В итоге получаются два типа задач о Б. у. 1. Первая граничная задача, состоящая в изучении асимптотики вероятности события Вх = { max (sn(t)-xg(t))>0) t€ [0,1] в случае inf g(t) > 0. 2. Вторая граничная задача, состоящая в изучении асимптотики вероятности события В2 = { max (sn(t)-xg(t))<0) te 10,1] в случае inf^(O<0. Пусть выполнено условие Крамера: \|/а) = ХЕеХХ1<оопри |Х|<АЧ),АЧ)>0. (4) В этом случае задачи 1 и 2 оказываются существенно разными как по форме результатов, так и по методам решения. Чтобы сформулировать результаты, необходимо ввести уклонения функцию Л(а) = sup (Ха - In у (X)), к-рая играет определяющую роль во всех задачах о Б. у. при выполнении условий Крамера. Существенным элементом описания решения первой граничной задачи является однопараметрич. семейство линий уровня, к-рые определяются как решения ax(i) уравнения th(ax(i)/t) = Л(х). Функции ax(i) возрастают и выпуклы по t, возрастают по х, напр. для нормального (0,1)-распределения Л(а) = а /2 и ax(t) = x VF . Если х мало, то линии уровня для произвольной случайной величины Хх близки к х VF. Пусть хд - наименьшее значение х, при к-ром кривая ax(t) впервые коснулась кривой xg{t)/^(n . Тогда при выполнении нек-рых предположений о гладкости g(t) PO^bciAf^V, (5) где р зависит от того, как ах (О касается кривой xg(i)/^n . Если, напр., g(t) и ах (t) достаточно гладкие в окрестности точки касания tg и q есть число совпадающих производных g(t) ибт (О в точке ta> тор = 1/2- l/(qr + 1). Если^(0 и ах (О 9 у 9 совпадают на целом интервале (qr = <*>), то р = 1/2. Функция Л вводит своеобразную метрику на плоскости (t} д)у в к-рой прямолинейные пути из начала координат оказываются кратчайшими, а графики функций ax(t) - линиями равноудаленных (на расстояние х) точек. Основной вклад в вероятность (5) вносит пучок почти прямолинейных траекторий «длины» x^, соединяющих начало координат с точкой касания (tg} g(tg)). Аналогичное положение наблюдается в первой граничной задаче с «закрепленным концом», то есть при изучении вероятностей вида Р{ВХ ,Sn = р} в случае P{Sn = р} > 0 (если P{Sn = = р} = 0, то следует рассматривать Р{ВХ ,5„ e А}, где А - малый 56 БОЛЬШИЕ интервал). Пусть для простоты р = 0. Тогда линии уровня bx(t) в этой задаче будут определяться как решение уравнения Mt,b)= sup A(^,x) = A1(x), 0< t<\ где A(t,b) = tA(b/t) + (1 -t)A( -6/(1 -О), и будут похожи при малых х на линии уровня bx(i) = v4t{\ - t) , соответствующие нормальному распределению. В остальном качественная картина останется той же, что и в случае (5), с той лишь разницей, что множитель, зависящий от я, в правой части (5) надо заменить на п хе~п lT?, где pt =-\/(q+ 1) (подробнее см. в [1]). Эти результаты представляют значительный интерес в мате- матич. статистике, где они позволяют, в частности, строить асимптотически оптимальные критерии типа Колмогорова-Смирнова. Во второй граничной задаче пучок траекторий, дающий основной вклад в вероятность Р(В2), устроен более сложно. Пусть дт = mm g(t) <0 и hit) есть кривая, к-рую проще всего представлять себе, как нить, натянутую между точками (0,0) и (\,дт) и огибающую снизу множество А точек (t,g), для к-рых g^g(t). Тогда In Р(Я2 )~ - п £ Лf-i-h'(t))dt} а пучок наиболее вероятных траекторий концентрируется вокруг кривой Л(0, не задевая множества А. Точная асимптотика вероятности Р(В2) выглядит более сложно (см. [2]). Если случайные величины Xk не удовлетворяют условию Крамера (4), а вероятности Р{Хх>х} и Р{Хх<-х} убывают при *-><» достаточно правильным (напр., степенным) образом, то законы, описывающие вероятности Б. у. в граничных задачах, становятся иными. Здесь геометрия, связанная с вероятностями Б. у., будет совершенно другой. Кратчайшие (или наиболее вероятные) пути для траекторий sn(u), соединяющих две точки (0,0) и (t,a)} будут представлять собой не прямые, а ступенчатые линии d(u)} имеющие один скачок: d(u) = 0 при u^v, d(u) = a при v<u^t. Это соответствует тому хорошо известному факту, что основной вклад в вероятности больших уклонений в степенном случае вносят траектории, содержащие один выброс. Асимптотика вероятности Р(ВХ) в первой граничной задаче при х » Vln n имеет вид Р(Вх)~п f P{Xx>xJngx(t))dt} gx(t) = ттдЫ). (6) Во второй граничной задаче P(B2)~nyP{Xx<x<^gm}, (7) где у= min {t: g(t)gm} > 0. Если #^cVln n , то в формулах (6) и (7) появятся дополнительные члены - такие же, как в «крамеровском» случае (см. [3]). Более полно изучен специальный случай, когда g(t) - прямолинейная граница, эквивалентный по существу задаче о распределении величин Sn = max Sk (см. [4]). При этом изу- fc^ п — чается обычно совместное распределение5„ с другими граничными функционалами. Асимптотика вероятности (3) может быть изучена и для произвольных множеств О. из борелевской а-алгебры 83 пространства непрерывных функций С [0,1]. Пусть множество А е 83 не содержит в себе окрестности точки ^(0 = 0. Тогда P{s„exA}->0 при #->«>. И пусть дан нек-рый класс $С множеств Л, обладающих описанным свойством, а 2 = г(п)-><» есть нек-рая возрастающая последовательность. Говорят, что имеет место ($С,г)-принцип инвариантности (в области Б. у.), если P{sneyA}~w(yA),AeV,
при у = у(п) -> оо, y = o(z), где w есть распределение стандартного винеровского процесса. Пусть $С и 2 удовлетворяют условиям: 1) \\\тАуА)^-су2 для #-><*>, А е$С; 2) г£'([5(г/Л)]^г) = о(г^(г/Л)) для y = o(z), где 5£ - граница множества Б, (В)е - е-окрестность этого множества. Тогда если Е|Х1|г<о°, г>2, то справедлив (5C,Vln n )-принцип инвариантности. Если выполнено условие (4), то справедлив -принцип инвариантности. Известно, что условие 1) выполнено для всех Л, содержащих хотя бы одну внутреннюю точку. Условие 2) также выполняется для широкого класса множеств (во всяком случае для полос Л, рассматривавшихся в граничных задачах). Говорят, что имеет место ($C,z)-rpyбый принцип инвариантности, если \nP{sneyA}~\nw(yA) (8) при Ле?( и y = o(z). Закон повторного логарифма является следствием ($С,г)-грубого принципа инвариантности в случае, когда $С содержит в себе цилиндрич. множества и Vln In n = = 0(2). Пусть $С удовлетворяет условию 1) и условию 2') In w(ld(yA)f) ^ In w(yA)(\ + о(1)) для любой последовательности Ь = о(у). Тогда если выполнено условие (4), то справедлив ($C,V?T )-грубый принцип инвариантности (см. [5]). Правую часть в (8) можно найти в явном виде. Именно, lnP{5II6^}--^Tinf j\g'(t))2dt, geADCv (9) где Cj - множество абсолютно непрерывных функций на [0,1] (см. [6]). Соотношения (8) и (9) не могут быть верными для у~оГп , если Xj не имеют нормального распределения. Асимптотика In P{sn g хА} может быть найдена в явном виде и в этом случае. Именно, для широкого класса множеств А и для х -> оо (см. [6]). \nP{snexA}~-n\iii^ A(—g'(t))dt, geADCv Если условие Крамера не выполнено и Р{Х\ ^х}, Р{ХХ <-х} убывают правильным (степенным) образом, то для сравнительно широкого класса множеств А может быть найдена в явном виде асимптотика самой вероятности P{sn e хА) (а не ее логарифма), к-рая определяется равенством P{snexA} = w(xA)(\+o(\)) + 4ci(A) + o(\))nP{X]>x} + (c2(A) + o(\))nP{X]<-x^}, где сх(А), с2(А) от п не зависят [ср. с(7),(8)]и где последние два слагаемых становятся главными при #/Vln п —> <» (см. [3]). Многие из утверждений, сформулированных выше, верны и без предположения о равнораспределенности слагаемых в (2). Они переносятся на случайные блуждания в многомерных (и даже бесконечномерных банаховых) пространствах (см. [5]). Может быть ослаблено и условие независимости величин Xk (см. [7]). Лит.: [1] Боровков А. А., «Сиб. матем. ж.», 1964, т. 5, № 2, с 253-89; Х° 4, с. 750-67; [2] его же, там же, 1962, т. 3, № 5, с. 645-95; [3] его же, «Успехи матем. наук», 1983, т. 38, в. 4, с. 227-54; [4) его же, «Теория вероятн. и ее примен.», 1967, т. 12, в. 4, с. 635-54; [51 Могульский А. А., в кн.: Предельные теоремы для сумм случайных величин, Новосибирск, 1984, с. 93-124; [6] Пи- нелисИ.Ф., «Теория вероятн. и ее примен.», 1981, т. 26, в. 1, с. 73-87; [7] Вент цел ь А. Д., там же, 1976, т. 21, в. 2, с. 235-52; в. 3, с. 512-26. А. А. Боровков. БОЛЬШИЕ УКЛОНЕНИЯ для случайного процесса (large deviations for a random process) - попадания траектории случайного процесса в удаленную (в подходящей метрике) область. Пусть Z(t) - случайный процесс с траекториями из нек-рого функционального пространства ЭС, Q - соответствующее ему распределение в пространстве Же а-алгеброй $). В качестве добычно рассматривают пространства С(0,1) и D(0,1) са-алгебрами, порожденными цилиндрич. множествами. Задачу отыскания асимптотики Q(xA), где #-><», А не содержит окрестности (в подходящей метрике) точки f=0, называют задачей о больших уклонениях для случайного процесса Z(t) (здесь хАеф означает множество функций xf, feA). Явный вид QC4) даже для простейших множеств Л и простейших процессов Z, за редким исключением, найти не удается. Однако асимптотич. поведение Q(xA) при #->°о в целом ряде случаев поддается изучению (то же можно сказать и в случае, когда х -> 0, А - ограничено). Прогресс в решениях задач о Б. у. во многом связан с характером предположений относительно природы процесса Z и множества А. Наибольшего продвижения здесь можно достичь для процессов Z с независимыми приращениями, марковских и гауссовских процессов и процессов, порожденных последовательными суммами независимых случайных величин, заданных на цепи Маркова. Предположения относительно множества А являются весьма широкими, если речь идет о «грубой» асимптотике [то есть об асимптотич. поведении lnQ(x<4) при #->°о], и весьма частными, если речь идет о самой асимптотике Q(xA). В последнем случае приходится в основном ограничиваться криволинейными полосами: A=A(g_,g+) = {g:g_(t)<g(t)<g+(ty}0^t^\}} где gSt)} g+(t) - заданные функции. (Обзор результатов в этих направлениях можно найти, напр., в [1]-[3].) Обратимся к грубой асимптотике. Если Z (t) = w (t) есть стандартный винеровский процесс и W - соответствующее ему распределение в С (0,1), то для широкого класса множеств Л<=С(0,1) \n\N(xA)~-x2A(A)} где А(Л)= inf А(Д K(f) = \\\f\t))2dt (A(f) - функция уклонений винеровского процесса), С - класс абсолютно непрерывных функций f=f(t), /40) = 0. Множество А должно удовлетворять условию А(Л0) = Л(Л), где Aq и А - соответственно внутренность и замыкание множества А в топологии равномерной нормы. Аналогично выглядят грубые теоремы о Б. у. произвольных непрерывных гауссовских процессов. Пусть 9С* - сопряженное пространство всех непрерывных линейных функционалов в = в(/) на dT=C(0,l). Для процесса Z(i) в Ж функция уклонений определяется равенством A(/") = sup {в(/")- In Eee<z>}, fzd\ ее.*-* Тогда для борелевских множеств А е $), удовлетворяющих условию _ А(Л0) = А(Л), (») где Л(Л) = inf A(f), справедливо утверждение (см. [4J, [5]) fsA \nQ(xA)~-x2A(A). Несколько сложнее формулируются результаты для марковских процессов и для последовательностей s„(t) = -=- V X, БОЛЬШИЕ 57
процессов, порожденных суммами независимых случайных величин Xv Х2, ..., Х„, ЕХ; = 0 [здесь результат зависит также от отношения х/п, х = х (я); при определенных условиях вероятность P{snexA} ведет себя при я->«> так же, как W(xA)] (см. [1]). Для последовательности процессов sn(t) (и в ряде других случаев) задачу о Б. у. можно рассматривать так же, как задачу об асимптотике P{Z еЛ}, где Z (=дг_15„(0) - последовательность процессов, сходящихся по вероятности к /40 = 0, а множество А фиксировано. Такая постановка задачи является более общей, а в ряде случаев и более удобной. Пусть теперь Z (О - последовательность марковских случайных процессов с траекториями из пространства &*= D (О,1), Q - соответствующее ему распределение в Ж (с а-алгеброй $), порожденной цилиндрич. множествами, или, что то же самое, борелевскими множествами относительно метрики Скорохода р). Грубая асимптотика вероятностей Б. у. марковских процессов Z описывается с помощью произведения k (n)S(f), называемого функционалом действия, характеризующего «трудность» попадания Z в окрестность функции /*и являющегося аналогом функции уклонений: lim lim k-\n)\nP{p(Z(n\f)<b}=-S(f). Более точно, пусть положительная последовательность k (я) стремится к «х>, функционал S(f) принимает значение в [0,«>]. Говорят (см. [2]), что k(n)S(f) является функционалом действия для процесса Z , если (S(А) = inf S(f)): feA 0) при любом 5^0 множество O(s) = {f: S(f)<s} компактно; 1) для любого открытого A Q Ж lim inf k~\n) In P{Z(n)eA}^-S(A); n -*°° 2) для любого замкнутого A Q Ж lim sup k~\n) In P{Z(n)eA}< -S(A). Множество AQЖ называется регулярным относительно функционала S, если [ср. с (*)] 5(Л0)=5(Л). Два условия 1), 2) можно свести к одному: 1) +2) для любого регулярного А Я Ж lim k~\n) In P{Zin)GA} = -S(A). n -►<» Грубые теоремы о Б. у. процессов получены, напр., в [2], [6]-[9]. Еще одной формой описания грубой асимптотики Б. у. является интегральная: 3) если F (/*) - непрерывный ограниченный функционал на ЗС, то lim к~\п) In E ek(n)F{Z " > = sup {F(f)-S(f)} Я-Юо feX (см. [10], [11]). Приведем вид функционала действия для марковского процесса с дискретным временем (см. [2]). Пусть Z (t) - марковский процесс с дискретным временем t, пробегающим значения, кратные х = я-1. Обозначим (для zeIR1, .reIP ) G{t;x,z) = In E(e"(Z'n,<t + z) ~ X)/ZWU) = x) логарифм преобразования Лапласа распределения приращения за один шаг процесса Z в точке х. И пусть далее H(t;x,a) = sup {az- G(t;x,z)} геП?1 58 БОЛЬШИЕ - преобразование Лежандра функции G(t\x,z). Тогда в широких предположениях функционал действия процесса Z имеет вид »*П = 1£оНМп' А*/»). /■'(*/»))• Аналогично выглядит функционал действия и для широкого класса марковских процессов с непрерывным временем (см. [2]). Вычисление точной асимптотики Q(xA) при .г-><» (даже для так наз. граничных задач; см. [1]) требует привлечения более трудоемких технич. средств; вид самих результатов при этом существенно усложняется (см. [12], [13]). Лит.: [11 Боровков А. А., «Успехи матем. наук», 1983, т. 38, в. 4, с. 227-54; [21 Вентцель А. Д., Предельные теоремы о больших уклонениях для марковских случайных процессов, М., 1986; [31 Случайные процессы. Выборочные функции и пересечения. Сб. статей, пер. с англ., М., 1978; [4] Боровков А. А., Могул ьский А. А., «Сиб. матем. ж>, 1978, т. 19. № 5, с. 988-1004; [5] Bahadur R. R., ZabellS.L., «Ann. Probab.», 1979, v. 7, № 4, p. 587-621; [6] Varadhan S. R. S., «Com. Pure Appl. Math.», 1966, v. 19, № 3, p. 261-286; [71 Боровков А. А., «Теория вероятн. и ее примен>, 1967, т. 12, в. 4, с. 635-54; [81 Могул ьский А. А., там же, 1976, т. 21, в. 2, с. 309-23; [9J Вентцель А. Д., Фрейдлин М. И., Флуктуации в динамических системах под действием малых случайных возмущений, М., 1979; [10] Schilder M., «TAMS», 1966, v. 125, № 1, р. 63-85; [11J Дубровски й В. Н., «Теория вероятн. и ее примен.», 1976, т. 21, в. 1, с. 215; [12] Боровков А. А., «Сиб. матем. ж>, 1964, т. 5, № 2, с. 253-89; № 4, с. 750-67; [13] Могуль- ский А. А., «Тр. Ин-та математики АН СССР. Сиб. отд>, 1984, т. 3, с. 93-124. А. А. Боровков, А. А. Могульский. БОЛЬШИЕ УКЛОНЕНИЯ для эмпирической функции распределения (large deviations for empirical distribution function) - попадания эмпирической функции распределения в удаленную область, имеющие малую вероятность. Пусть Fn = Fn(t) - эмпирич. функция распределения, построенная по выборке (хи ..., хп) с распределением F = F(t)} Gj - множество функций распределения, G2 - множество функций ограниченной вариации. Если множества Gt и G2 таковы, что P{F„gG1}->0, P{(F„-FW^~ e*G2}->0 (") при я->°о, х = х(п) -><*>, то задачи описания асимптотич. поведения вероятностей (*) называются задачами о больших уклонениях для эмпирич. функции распределения. При изучении грубой (логарифмической) асимптотики вероятностей Б. у. основную роль играют расстояния (G, Н - функции ограниченной вариации) х(ся)=Г in *p-(t)dat) J-°° аН (информационное расстояние Кульбака-Лей- б л ер а) и жс'я)4Л(ж(0)'/ш)' к-рые полагаются равными «\ если G(t) не является абсолютно непрерывной относительно H(t). Если varG = 0, то R (G, Н) можно рассматривать как предел R(G,H) = lim — 9 = lim ~. Д-*0 Аг Д-*0 Аг Для множеств Gt и G2 из нек-рых классов 8Bf и 8В2 имеют место следующие утверждения: lnP{F„6G1}--« inf K(H, F), lnP{(F„-F)Vw~ exG2}~ -x2 inf R(H,F). HeG2 Классы 8Bf и Ж 2 состоят из множеств с «тонкой» границей. Напр., если F есть равномерное на отрезке [0,1] распределение, то в Ж 2 входят множества G, для к-рых inf K(H,F)= ini K(H,F\ HeG° HeG
где G и G есть внутренность и замыкание G в топологии равномерной сходимости. Аналогичные результаты о грубой асимптотике вероятностей Б. у. справедливы для эмпирич. мер, построенных по выборке (хи ..., хп) со значениями в произвольном пространстве. Знание грубой асимптотики Б. у. во второй задаче (*) при л: < VI пи достаточно для получения вариантов закона повторного логарифма для эмпирич. функций распределения (мер). Точная (не логарифмическая) асимптотика вероятностей Б. у. для эмпирич. функций распределения известна для нек-рых частных классов множеств Gv См. также Большие уклонения для случайного блуждания. Лит.: [1] Санов И. Н., «Матем. сб.», 1957, т. 42, К? 1, с. 11-44; [2| Боровков А. А., «Теория вероятн. и ее примен.», 1967, т. 12, в. 4, с. 635-54; [3] Боровков А. А., М огу л ьс ки й А. А., «Сиб. матем. ж.», 1978, т. 19, № 5, с. 988-1004; 1980, т. 21, № 5, с. 12-26; [4| Groenboom P., Ooster h of f J., Ruymgaart F.H., «Ann. Probab.», 1979, v. 7, № 4, p. 553-86. А. А. Могульский. БОЛЬШИХ РАЗМЕРНОСТЕЙ ЭФФЕКТ (large dimensions effect) - свойство самоусредняемости (см. ниже) нек-рых бо- релевских функций от независимых случайных величин, число к-рых стремится к бесконечности, являющееся основным при нахождении состоятельных оценок нек-рых величин, выражающихся через большое число неизвестных параметров (при вычислении нек-рых величин в статистической физике). Б р. э. обнаружен в многомерном статистич. анализе наблюдений большой размерности, а также в теории неупорядоченных структур. Одной из основных оценок этого анализа является оценка нормированного следа резольвенты ковариационной матрицы Z: фХ) = т-пх trfl/2-ir1, где z - комплексный параметр, / - единичная матрица, тп - порядок матрицы I. Пусть Xj, х2, ..., хп - независимые наблюдения над случайным вектором ^, распределенным по нормальному закону N (а, I). Если собственные значения Хр матрицы I ограничены снизу и сверху положительными константами и выполняется условие Колмогорова lim тп/п = с, 0<с<оо, то Б.р.э. заключается в том, что функции <р(г,1) самоусредняются, то есть р lim 1ф(г,£)-Еф(г, £)] = 0, 1тг*0, и функция в(г) = Еф(2,1) удовлетворяет функциональному уравнению е« = т? Щ* - хр(\ - К + veW)]"1 + «(О. где i = (n-\)-^nkJxk-a)(xk-a)Tf <* = ""1XL **• К = «„/"<!■ Используя это уравнение, можно доказать, что в качестве состоятельной оценки ф(г,1) при выполнении условия Колмогорова можно взять выражение ф(у,1)уг~\ где у - аналитич. решение уравнения \-kn + /гпуф(у,1) =уг~ . Использование Б.р.э. при анализе основных выражений многомерного анализа дает следующие состоятельные оценки: оценка нормированной обобщенной дисперсии с"1 In detl, где сп - нек-рая последовательность постоянных, удовлетворяющих условию lim c~ In [n(n- тп)~1] = 0, равна величине clNlndetl + ln. {n-\Tn{A™»x)~\{n-mnYx А™ = п..Лп-т + \); оценка расстояния Махаланобиса (ах-а2) £ (а^-а2)} где I - ковариационная матрица, общая для двух независимых m-мерных случайных векторов ^ и £2» Щ\ = а\» Е£2 = fl2» Равна ц -*2)тхГ1ц -а2)"'+"2"2;т-^--^-, 1 * ' ' * щ+п2-2 щ п2 где i, = Ц + п2 - 2)"1 {XL {xk ~ "\ ){xk ~ «i >T + xi и yi - независимые наблюдения соответственно над векторами ^ и£2, ах=п\х Z"Li^'' ^2 = "2_1 Z?=i^ Оценка регуляризованного расстояния Махаланобиса (й, - а2)Т(1г +1)-1 (ах - а2) равна -(«71 + /ii1)tree",i;1(/e+ee",i;1)"1f где в - положительное решение уравнения 1 "km + Mm"1 tr(/e + I,)"1 =9eH, e>0, km = m(nx + n2-2Y\ Хорошие результаты дает применение Б. р. э. и в численном анализе. Пусть задана система уравнений Ах = Ь, где А = \\а{.\\, /= 1, ..., m,i=\, ..., п,- прямоугольная матрица, b = (b\, ..., Ьп), х =(Х), ..., хт) - искомое решение, элементы матрицы А являются реализациями нек-рых независимых случайных величин, средние значения к-рых равны соответствующим элементам матрицы А. Пусть ха = [1ап + АТА]~:АТЬ, а>0, - регуляризованное решение системы уравнений Ах-Ъ. Для таких решений Б. р. э. состоит в следующем. Пусть элементы матрицы X независимы и распределены по нормальным законам N (dy, a ), векторы се^иб удовлетворяют условию ^ n-*Y!!-№Tb,<tkxc,<pky<oot П-»оо к причем lim sup n x\k(AJA)<c >2-»оо k=\,...,n lim mn *<1, где Xk и ф/j - соответственно собственные значения и нормированные собственные векторы матрицы АТА. Тогда при А-Х имеет место соотношение р Нт [(*„, с) + i £± fU, у)2=0 rfy] = О, где функция f(z, у) удовлетворяет уравнению fU,y) = n-^mM[y(l+o2fU,y)) + +о2 (l - ^)+Xk (г)(1 + o2f(z, у)Г' ]"' + о(1), а\к(г) суть собственные значения матрицы K(z) = nx/2A + zbcJnx/2. Лит.: [1] Гирко В. Л., «Теория вероятн. и ее примен.», 1987, т. 32, в. 2, с. 252-65; [21 его же, Многомерный статистический анализ, К., 1988; [3] ЛифшицИ.М., Гредескул С. А., Пастур Л. А., Введение в теорию неупорядоченных систем, М., 1982. В. Л. Гирко. БОЛЬШИХ 59
БОЛЬШИХ УКЛОНЕНИЙ ВЕРОЯТНОСТИ (large deviations probabilities) - вероятности вида Р{5„ - ап > Ь„), Р{5„ - ап < -Ь„), Р{\S„ -ап\ > Ьп), где Sn = Xx + Х2 + ... + Х„, {Xj} - последовательность случайных величин, {Ьп} и {ап} - две последовательности чисел такие, что Ъп > 0 и b~\Sn - ап) -> 0, п -> <*>, по вероятности. Если случайные величины Х-, /=1, 2, ..., независимы и имею1 одинаковое распределение с математич. ожиданием, равным нулю, и конечной дисперсией а , то можно положить ап = 0 и Ъп - хпо^п, где хп -> <*> при я -> <*>. Большое значение имеют теоремы Крамера [см. [2]), Линника (см. [3]) и их усиления (см. [2], [6], [9]). Для исследования Б. у. в. в работах [7], [9] предложен метод семиинвариантов, позволивший вместо сумм случайных величин (в том числе и зависимых) рассматривать нек-рые функционалы. Суть этого метода заключается в следующем утверждении: если для семиинварианта Г^(Х) произвольной случайной величины X, зависящей от параметра Д>0, с функцией распределения Fx(x) = P{X <х}, математич. ожиданием, равным нулю, и единичной дисперсией, выполнено условие \гк(Х)\^ШУ+уЬ2~к,к = 3, 4, ..., (») где у^О, то в интервале 0^д:<А1, At = (1/6)(л/2~Д/6)1/(1+2у), имеет место соотношение l-FxW = (l-OU))exp{LU)}{l+GU+l)((l-VAi)A1)"1}, где L(x) - аналог ряда Крамера или его отрезок (в зависимости от того, у= 0 или у> 0), коэффициенты к-рого выражаются через семиинварианты Гк(Х), Ф(х) - стандартное нормальное распределение, в - ограниченная величина (см. [8], [9]). В случаях, когда необходимо иметь гарантированные оценки для Б. у. в., пользуются неравенствами типа неравенства Чебышева - это так наз. показательные оценки для Б. у. в. Напр., если случайная величина X подчиняется условию (*), то для всех х>0 Р{Х^Кехр(-4-И^1г1 1 2 2x2+(xA)V) гдер = (1+у) 1. Важное место в проблематике больших уклонений занимают исследования асимптотики логарифмической вероятности больших уклонений (так наз. грубые теоремы). Пусть Xv Х2, ..., Х„, ... - последовательность случайных величин с производящими функциями семиинвариантов <Py(^) = ln E ехр {XXу}, / = 1, 2, ..., причем п~\п(Х) > у(Х) для Xе [с,d], 0^c<d; обозначим D = {Xe (c,<i):<p' существует и является непрерывной в точке X) и А = {а:у'(Х) = а, XeD). Тогда имеет место утверждение, если у(Х) - строго выпуклая функция в интервале [с,d], то и_11п Р{Хп^па}—-► <р*(я), аеА, где (р*(а) = 'тЦ-Ха + <р(Х):Хе [c,d]} -функция уклонения (см. [9]). Лит.: [1J Лоэв М., Теория вероятностей, пер. с англ., М., 1962; [21 Петров В. В., Суммы независимых случайных величин, М., 1972; [3] Ибрагимов И. А., ЛинникЮ. В., Независимые и стационарно связанные величины, М., 1965; [41 Прохоров Ю. В., в сб.: Итоги науки и техники, т. 10, М., 1972, с. 5-24; [51 Юрин- скийВ. В., «Теория вероятн. и ее примен.», 1974, т. 19, в. 1, с. 152-54; [61 Нагаев СВ., там же, 1965, т. 10, в. 2, с. 231-54; [7] Statu levicius V., «Z. Wahr. und verw. Geb.», 1966, Bd 6, № 2, S. 133-44; [81 РудзкисР., СаулисЛ., Статуля вичус В., «Лит. матем. сб.», 1978, т. 18, № 2, с. 99-116; [91 Саулис Л., Ста- тулявичус В., Предельные теоремы о больших уклонениях, Вильнюс, 1989; [101 PlachkyD., Steinbach J., «Period. Math. Hun- gar.», 1975, v. 6, p. 343-45. д% #. Саулис, В. А. Статулявичус. 60 БОЛЬШИХ БОЛЬШИХ ЧИСЕЛ ЗАКОН (law of large numbers) - общий принцип, в силу к-рого совместное действие случайных факторов приводит при нек-рых весьма общих условиях к результату, почти не зависящему от случая. Математич. формулировка общей идеи всех теорем, известных под названием Б. ч. з., предложена в 1933 А. Н. Колмогоровым (см. [6], с. 99-100). Сближение частоты наступления случайного события с его вероятностью при возрастании числа испытаний (подмеченное сначала, по-видимому, на азартных играх) может служить первым примером действия этого принципа. На рубеже 17 и 18 вв. Я. Бернулли [1] доказал теорему, утверждающую, что в последовательности независимых испытаний, в каждом из к-рых вероятность наступления нек-рого события А имеет одно и то же значение р, 0<р<\, верно соотношение р{|— -р|>е1-*0 (1) [\ п I J при любом е > 0 и п -><*>; здесь [in - число появлений события в первых п испытаниях, \ijri - частота появлений. Эта Берну лли теорема была распространена С. Пуассоном [2] на случай последовательности независимых испытаний, где вероятность появления события А может зависеть от номера испытания. Пусть эта вероятность для k-vo испытания равна pk, k=\, 2, 3, ..., и пусть р = (рх +Р2+ ••• +РпУп' Тогда теорема Пуассона утверждает, что р{|Ь__р|>Д_»0 (2) U n I J при любом е > 0 и п -> <*>. Первое строгое доказательство этой теоремы было дано П. Л. Чебышевым (1846), метод к-рого полностью отличен от метода Пуассона и основан на нек-рых экстремальных соображениях; С. Пуассон выводил (2) из приближенной формулы для указанной вероятности, основанной на использовании закона Гаусса и в то время еще строго не обоснованной. У С. Пуассона впервые встречается и термин «закон больших чисел», к-рым он назвал свое обобщение теоремы Бернулли. Естественное дальнейшее обобщение теорем Бернулли и Пуассона возникает, если заметить, что случайные величины \1п можно представить в виде суммы \in = Xx + Х2 + ... +Хп независимых случайных величин, где Xk = 1, если А появляется в k-м испытании, и Xk = 0 - в противном случае. При этом математич. ожидание Е(|1„/я) (совпадающее со средним арифметическим математич. ожиданий EXk) равно р для случая Бернулли и р для случая Пуассона. Другими словами, в обоих случаях рассматривается отклонение среднего арифметического величин Xk от среднего арифметического их математич. ожиданий. В работе П. Л. Чебышева «О средних величинах» (1867) было установлено, что для независимых случайных величин Хх> Х2, ..., Хп, ... соотношение (при любом е>0 и я->оо) верно при весьма общих предположениях. П. Л. Чебышев предполагал, что все математич. ожидания EXk ограничены одной и той же постоянной, хотя из его доказательства видно, что достаточно требования ограниченности дисперсий DXk=EXk- (EXk) или даже требования при и->°о. Таким образом, П. Л. Чебышев показал возможность широкого обобщения теоремы Бернулли. А. А. Марков отметил возможность дальнейших обобщений и предложил применять названиа Б. ч. з. ко всей совокупности обобщений теоремы Бернулли [и в частности, к (3)]. Метод Чебышева основан на точном установлении общих свойств математич. ожиданий и на использо-
вании так наз. Чебышева неравенства [для вероятности (3) оно дает оценку вида nh~2 У " 0Хк; эту границу можно заменить более точной, разумеется, при более значительных ограничениях; см. Бернштейна неравенство]. Последующие доказательства различных форм Б. ч. з. в той или иной степени являются развитием метода Чебышева. Применяя надлежащее «урезание» случайных величин Xk (замену их вспомогательными величинами Xnk; именно: Xnk = Xk, если \Xk-EXk\ ^Ln, и Xnk = 0, если \Xk- EXk\ >Ln, где Ln - нек-рые постоянные), А. А. Марков распространил Б. ч. з. на случаи, когда дисперсии слагаемых не существуют. Напр., он показал, что (3) имеет место, если Е|Х„-ЕХ„| <L при нек-рых постоянных 8>0и 1>0и всех я. Аналогично доказывается теорема Хинчина (1929): если Хп имеют одинаковые законы распределения и ЕХ„ существует, то Б. ч. з. (3) выполняется. Для сумм независимых случайных величин можно сформулировать более или менее окончательный вариант Б. ч. з. Для этого целесообразно перейти на более общую точку зрения, связанную с понятием предельного постоянства последовательности случайных величин. Случайные величины последовательности У t, У2, ..., У„, ... называются предельно постоянными, если существует такая последовательность постоянных Cv С2, ..., С„, ..., что при любом е>0 и я->°о Р{|У„-С„| >£}-><) (4) [то есть Уп-Сп сходится к нулю «по вероятности»; если (4) выполняется с каким-либо С„, то оно выполняется и с С^ = тУп> где тУ - медиана случайной величины У]. Далее, вместо последовательности Xt, X2, ..., Х„, ... независимых случайных величин можно взять так наз. схему серий: ^1,1» •••» ^i,*,» ^2,1' •••» ^2,/е2' •ii.l' •••• Ля,&„' случайных величин (первый индекс - номер серии, второй - номер величины внутри серии). Случайные величины каждой отдельной серии предполагаются взаимно независимыми. Схему последовательности легко свести к схеме серий, полагая *i-l.*2 = 2 X„ik = Xk/n. Пусть Yn = Xn t + ... + Хп k . Тогда общая форма вопроса о ' ' п применимости Б.ч. з. для сумм независимых случайных величин такова: при каких условиях суммы Уп предельно постоянны? Ответ на этот вопрос дал А. Н. Колмогоров (1928). Допустим, не ограничивая общности, что медианы величин Xnk равны нулю. Пусть Xnk = Xnk при |Xn/f|^l иХ„Л = 0 при \Xnk\ > 1. Тогда одновременное выполнение двух условий: Y*" Р{|Хм|>1}-»0при11-»« "~*k - 1 И необходимо и достаточно для предельного постоянства сумм Yn. В качестве Сп можно взять У " EX nk. Достаточность этих условий легко доказывается методом Чебышева. Если математич. ожидания ЕХ„^ существуют, то легко указать дополнительные условия, при к-рых можно выбрать Сп = ЕУ„, что приводит к необходимым и достаточным условиям Б. ч. з. в классич. формулировке (3). Для последовательности независимых одинаково распределенных величин {Хп} эти условия сводятся, в соответствии с указанной теоремой Хинчина, к существованию математич. ожидания. В то же время для предельного постоянства средних арифметических Уп в этом случае необходимо и достаточно условие пР{|Х1|>п}->0 при п->оо. (5) Легко привести примеры, когда условие (5) не выполняется. Так, оно не выполняется, если все Хп имеют распределение Коши с плотностью 1/я(1 + х ) (к-рой соответствует характе- ристич. функция е "'*'). Здесь средние арифметические Уп = (Xt + ... + Хп)/п имеют характеристич. функцию е-n\t/n\ _ e-\t\ и след0вательно> имеют при любом п то же самое распределение, что и отдельные слагаемые. В числе наиболее важных примеров, где Б. ч. з. не имеет места, следует отметить примеры, связанные с временами возвращения в случайных блужданиях. Напр., в симметричном Бернулли блуждании время Тп до я-го возвращения в исходную точку есть сумма п независимых случайных величин Xv Х2, ..., Х„, где Хх - время до 1-го возвращения, Х2 - время между 1-м и 2-м возвращениями и т. д. Распределение величины Тп/п сходится при я->°о к невырожденному предельному закону с плотностью р(х) = 4=г бГ1/2дгдГ3/2 при х > 0 V2tc и равной нулю при х^О. Таким образом, в этом случае распределение среднего арифметического величин Xif то есть TJn, размещается, грубо говоря, на отрезке длины порядка п [в то время как в случае применимости Б. ч. з. оно сосредоточивается на отрезках длины о(1)]. Применимость Б. ч. з. к суммам зависимых величин (и в его классич. формулировке, и в более общих) связана в первую очередь с неограниченным убыванием зависимости между случайными величинами Хг- и Ху при увеличении разности их номеров, то есть 11-/1. Впервые соответствующие теоремы были доказаны А. А. Марковым для величин, связанных в цепь Маркова (1907). Именно, пусть л<, Х2, ..., Х-... прини- мают конечное число значений и связаны в однородную цепь Маркова, причем все вероятности перехода за один шаг положительны. Здесь неограниченное убывание зависимости между X: и X; при /-г->оо проявляется в том, что условное распределение Ху при фиксированном значении Xf стремится при я->о° к пределу, не зависящему от выбранного значения Хг(эргодическая теорема Маркова). Как следствие этого утверждения выводится Б. ч. з.: сначала устанавливается, что при я-><» где a- lim EXk; отсюда же вытекает, что при п->°° Более общий случай охватывается условиями С. Н. Бернштейна: если DXy<I, R(Xb Xy)^q>(|i-/|), где L- нек-рая постоянная, R - коэффициент корреляции, <р(я) - функция, стремящаяся к нулю при я -><*>, то к величинам {Х„} применим Б.ч. з. (3). Для стационарных в широком смысле последова- БОЛЬШИХ 61
тельностей {Хп} условие на корреляцию можно несколько ослабить, заменив его условием lim 1 \п 1 */=°. гдеД; = Д(Х;, Xi+J). Предыдущие результаты можно обобщить в различных направлениях. Во-первых, всюду выше рассматривалась сходимость «по вероятности». Рассматривают и другие типы сходимости: с вероятностью единица, в среднем квадратичном и т. п. (в действительности многие из указанных выше условий обеспечивают сходимость в среднем квадратичном, из к-рой вытекает сходимость по вероятности). Случай сходимости с вероятностью единица, ввиду его важности, выделяется особым названием «усиленного закона больших чисел» (см. Больших чисел усиленный закон). Далее, многие теоремы переносятся с соответствующими изменениями на случайные векторы со значениями из евклидовых пространств любой размерности, из гильбертова пространства, из нек-рых банаховых пространств. Так, напр., если {Хп} - последовательность независимых одинаково распределенных случайных векторов со значениями из сепара- бельного банахова пространства и если Е|Х„| (|д:|| - норма х) существует, то \Х+...+Х„ -ЕХ< >е ► О при любом е > 0 и п -> <». Рассматриваемый в наиболее общей форме Б. ч. з. оказывается тесно связанным с зргодическими теоремами. Разумеется, многие теоремы переносятся и на случай средних 1 (Т — J X(t)dt, где X(t) - случайный процесс, зависящий от непрерывного параметра (см., напр., [11]). Наконец, вместо сумм случайных величин можно рассмотреть другие симметрич. функции от них. Это было сделано А. Я. Хинчиным (1951-55) в связи с обоснованием нек-рых выводов статистич. механики (см. [10]). Результат А. Я. Хин- чина можно пояснить следующим частным примером. Пусть Хп Хп координаты точки, равномерно распределенной на поверхности сферы Тогда для широкого класса симметрич. функций f(XnV ..., Хп п) имеет место Б. ч. з. в том смысле, что их значения при я->°о оказываются предельно постоянными [это близко к замечанию П. Леви (P. Levy, 1925) о том, что достаточно регулярные функции очень большого числа переменных почти постоянны в большей части области определения]. Во многих старых руководствах приводились обширные статистич. данные, иллюстрирующие Б. ч. з. (см., напр., [4], [12]). Лит.: [1] Bernoulli J., Ars conjectandi, opus posthumum, Basileae, 1713 (в рус. пер. - БернуллиЯ.,0 законе больших чисел, М., 1986); [2] Poisson S.-D., Recherches sur la probabilite des juge- ments en matiere criminelle et en matiere civile, precedees des regies generates du calcul des probabilites, P., 1837; [3] ЧебышевП.Л., Поли. собр. соч., т. 2, М.-Л., 1947; [4] Марков А. А., Исчисление вероятностей, 4 изд., М., 1924; [5] Берн штейн С. Н., Теория вероятностей, 4 изд., М.-Л., 1946; [6] Колмогоров А. Н., Основные понятия теории вероятностей, 2 изд., М., 1974; [7] Гнеденко Б. В., Колмогоров А. Н., Предельные распределения для сумм независимых случайных величин, М.-Л., 1949; [8] Дуб Дж., Вероятностные процессы, пер. с англ., М., 1956; [9] Гренандер У., Вероятности на алгебраических структурах, пер. с англ., М., 1965; [10] Хин- чин А. Я., Симметрические функции на многомерных поверхностях, в кн.: Памяти А. А. Андронова, М., 1955, с. 541-74; [11] Лоэв М., Теория вероятностей, пер. с англ., М., 1962; [12] Uspensky J. V., Introduction to mathematical probability, N. Y.-L., 1937. Ю. В. Прохоров. 62 БОЛЬШИХ Б. ч. з. считается одним из центральных результатов теории вероятностей, исходя из той роли, к-рую он играет в разнообразных процессах окружающей нас природы и человеческого общества. Этим прежде всего и объясняется тот интерес, к-рый проявляют до настоящего времени специалисты к разнообразным его обобщениям. Одно из направлений исследований здесь - изучение феномена Б. ч. з. в моделях суммирования зависимых случайных величин. Наиболее общими результатами для таких моделей являются следующие две теоремы. Теорема Гнеденко (см. [13]). Пусть X]t X2, ... - нек-рая последовательность (как угодно зависимых) случайных величин. Для того чтобы выполнялось соотношение (3) (то есть имел место Б. ч. з.), необходимо и достаточно, чтобы при п -> оо Е^я2/(1 + С/и2)-»0, (5) где Этот критерий, оперирующий совместными распределениями первых п случайных величин, признать удовлетворительным с точки зрения возможных приложений, по-видимому, нельзя. Эта теорема Гнеденко имела объемлющего ее предшественника - утверждения, высказанного С. Н. Бернштейном [14]: пусть fix) - какая-либо четная, ограниченная и неубывающая на положительной полуоси функция, удовлетворяющая условию /Ч0) = 0; тогда условие необходимое и достаточное для того, чтобы вероятность неравенства {|Х| <е} при произвольном е стремилась бы к единице при п ~» «>, заключается в том, что предел математич. ожидания f(X) при п->°° равен 0. Предложенный С. Н. Бернштейном в 1918 критерий Б. ч. з. касается частного случая, когда величины X: принимают только два значения: Р{Х, = 1} = р{, Р{А^ - 0} - qt = 1 - pif однако он имеет по сравнению с критерием (5) то преимущество, что оперирует лишь с совместными распределениями пар случайных величин. Обозначим в дополнение к принятым вышэ обозначениям n(k/o = P{xk =- l/A; = 1}, еа/0 = P{xk = 1/х,- = о}. Теорема Бернште й на (гм. [ 14]). Для гого чтобы при п -><» имело место соотношение (2), необходимо и достаточно, чтобы при п —> ©о max (-- Plqt £" Ып/i) ■ e(k/i))) -» 0. (6) Лит.: [13] Гь еден ко Б. В., Курс теории вероятностей. 6 изд., М., 1988; [ 14 j Б с р н ш т е й и С I {., «Сообщения Харьковского матем общества. Сер. 2», 1918, т. 16, г. 82-87 В. М. Золотарев. БОЛЬШИХ ЧИСЕЛ ЗАКОН в банаховых прост ранствах (law ot lar^e timbers in Banach spaces) - общиг принцип, отражающий факт сходимости соответств> ющим об разом нормированных и центрированных сумм случайных элементов банахова пространства к неслучайному элементу этого же пространства. С топология, точки зрения сходимость, как правило, понимается в естественной норме банахова про странства, хотя для бесконечномерных банаховых про странств не исключается возможность рассмотрения сходимо сти и в более слабых топологиях. С теоретико-вероятностной точки зрения рассматривается сходимость по вероятности, ь среднем соответствующего порядка и с вероятностью 1. Подо бно Б. ч. з. для случайных величин, случай сходимости с вероятностью 1 выделяется особо под названием усиленного закона больших чисел в банаховых пространствах. Теоремы, устанавливающие условия выполнимости различных форм Б. ч. з. в банаховых пространствах, относятся к важнейшим предельным теоремам, изучающим асимптотич. поведение сумм случайных элементов в банаховых пространствах.
Б. ч. з. в банаховых и более общих линейных нормированных пространствах находят приложения в задачах непарамет- рич. статистики случайных величин и в статистике случайных процессов. Одной из первых теорем, по существу связанной с Б.ч.з. в банаховых пространствах, является теорема Гливенко- Кантеллиоб эмпирич. функциях распределения (см. [1]). Согласно этой теореме, если Xk, k^\,- последовательность независимых с общей функцией распределения F(x) случайных величин, то с вероятностью 1 sup \F„(x)-F(x)\ —10, -оо<д:<оо я->°° где - эмпирич. функция распределения, a I {Xk<x} - индикатор события I{Xk<x}. В данном случае индикаторные функции U{Xk<x}, -oo<j;<oo) можно рассматривать как случайные элементы в пространстве ограниченных вещественных функций, заданных на всей числовой оси, с нормой равномерной сходимости. Систематич. изучение различных вариантов Б. ч. з. в банаховых пространствах привело к установлению аналогов ряда классич. теорем. В первую очередь это относится к теореме Мурье [2], обобщающей на случай банаховых пространств теорему Колмогорова. Именно, если (Xk, k^\) - последовательность независимых одинаково распределенных случайных элементов в сепарабельном банаховом пространстве (В} |-||), то последовательность — V Xk сходится с вероятностью 1 в норме этого пространства тогда и только тогда, когда Е || Хх || < ©о. При этом где EXj - среднее значение случайного элемента Х\. Формально Б. ч. з. в банаховых пространствах со скалярными нормировками можно рассматривать как непосредственное обобщение Б. ч. з. для случайных величин. Однако в общих банаховых пространствах и для разнорасиределенных слагаемых условия выполнимости тех или иных форм Б. ч. з. тесно связаны с топологич. и геометрич. структурой пространства (см. [3] - [5]). Существуют также варианты Б. ч. з. для сумм независимых случайных элементов в банаховых пространствах с операторными нормировками (см. [6]). Лит.: [1] Glivenko V., «Atti Accad. naz. Lincei.», 1928, v. 8, p. 673-76; [2) Mourier E., «Ann. Inst. H. Poincare», 1953, t. 13, p. 161-244; [3) Гренандер У., Вероятности на алгебраических структурах, пер. с англ., М., 1965; [4] Hof f mann-Jergensen J., Pisier G., «Ann. Probab.», 1976, v. 4, p. 587-99; [5] Taylor R. L., «Lect. Notes in Math.», 1978, X? 672; [6] Булдыгин В. В., Солнцев С. А., Функциональные методы в задачах суммирования случайных величин, К., 1989. В. В. Булдыгин. БОЛЬШИХ ЧИСЕЛ ЗАКОН для марковских про не с со в (law of large numbers for Markov process) - утверждение, справедливое при дополнительных ограничениях на степень зависимости значений Маркова цепи в далекие друг от друга моменты времени. В дальнейшем со^ о^, ... - цепь Маркова, где со, принимает значения из измеримого пространства (Q;,^), г=\, 2,... Пусть (Q?-, ^) = (Q, **/) и cot, co2,... - однородная цепь Маркова. Предполагается, что: 1) существуют мера <р с 0<<p(Q)<°°, целое число v^l и число е>0 такие, что переходная функция за v шагов р (со, А) < 1-е, если <р(Л) <е, и 2) в Q содержится один эргодич. класс состояний. Пусть к - стационарная вероятностная мера на d и X (со) - измеримая функция на Ф, причем \ |X|(co)7t(rfco)<°o. Тогда почти наверное lim -У" X(co*)=f X(co)7t(rfco). Условие 1) представляет собой обобщенную форму так наз. условия Деблина; оно выполнено, напр., если множество £1 конечно. Другой естественный тип ограничений - это ограничения на «показатели равномерного перемешивания», определение к-рых в случае цепи Маркова приобретает вид Ф„= sup sup |Р(Л|Я)-Р(Л)|. К *< ов Ле.«/А + Я, Веи/Я, Р(В)>0 Пусть Xk - измеримая функция на Qk и Z)k = Xk((uk). Следующее утверждение является частным случаем результатов работы [3]. Если V°° ф/ <<» и V°° 0^k/k <о°, то почти наверное lim 7II .«Ь-EV-O; С) сходимость по вероятности в (*) имеет место, если Условие V°° щ <оо выполнено, если Y°° (\-ak) ' < <<», где ak - коэффициент эргодичности цепи (см. Центральная предельная теорема для марковских процессов). Сходимость по вероятности в (*) имеет место, если lim < n'2H (D^=° (см. [2]). Лит.: [1] Дуб Дж. Л., Вероятностные процессы, пер. с англ., М., 1956; [2] Statulevicius V., «Proc. 2-nd Japan - USSR Sympos. on Probab. Theory», 1972, v. 1, p. 138-52; [3] УтевС.А., «Тр. Ин-та матем. СО АН СССР», 1984, т. 3, с. 50-77. В. А. Статулявичус, А. А. Темпельман. БОЛЬШИХ ЧИСЕЛ ЗАКОН для нестационарных случайных процессов (law of large numbers for non- stationary random processes) - 1) утверждение о том, что для широких классов нестационарных случайных процессов X(t) существует lim ±r\Tx(t)dt=X , (1) или, в случае процессов с дискретным временем t} lim ±-Уг X(0 = i, (la) где предел понимается или как предел в среднем квадратичном (а значит и по вероятности), или как предел с вероятностью 1 [в последнем случае утверждение о существовании предела (1) или (1а) называется усиленным законом больших чисел для нестационарных случайных процессов]. Если время t непрерывно, Е|Х(01 <°° при 0<£<оо и EX(t)X(s)=B(t, s) - непрерывная функция t, s, то Б. ч. з. для нестационарных случайных процессов выполняется, напр., при следующих условиях: существует lim ±-Г \* B(t,s)dtds БОЛЬШИХ 63
TS JorJ05 \B(t,s)\dtds<C (2) для нек-рого С<°° при всех Г>0, S>0 (см. [1], [2]). Б. ч. з. для нестационарных случайных процессов выполняется также для любого гармонизируемого случайного процесса, причем не только для процессов X(t), гармонизируемых в смысле Лоэва, но и для более широкого класса процессов, гармонизуемых в смысле Розанова (или слабо гармонизуемых); в этом случае X = Z ( + 0) -Z (-0), где Z(X) - случайная функция, входящая в представление процесса X(t) в виде интеграла Фурье - Стилтьеса, причем осреднение по интервалу Q^t^T в правой части (1) и (1а) здесь можно заменить осреднением по произвольному интервалу S^t^T, где Г-5->оо (см. [3], [4]). Б. ч. з. для нестационарных случайных процессов справедлив также для всех случайных процессов X(t), имеющих осредненную корреляционную функцию (см. [5], [6]). 2) Теорема о том, что, напр. в случае непрерывного t, при широких условиях X = lim \г \Т EX(t)dt, так что среднее по длинному интервалу времени от значений X(t) является достаточно точной оценкой осредненного по полуоси 0^£<°° среднего значения EX(t) [предел в правой части (2) при этом всегда предполагается существующим]. Так как X(t) = [X(t) - EX(t)], то можно считать, что EX(t) = 0, и рассматривать условия, при к-рых X =0. Простейшее такое условие: lim -Ц Г f7" B(t,s)dtds = 0 Г->оо Т J0 J0 (см. [7]). Если процесс X(t) гармонизируемый, тоХ= 0 тогда и только тогда, когда вклад точки Х = 0, со=0 в значение спектральной меры F (X, со) процесса равен нулю (см. [3], [4]); если X (t) - процесс, имеющий осредненную спектральную функцию F(X), то Х=0 тогда и только тогда, когда функция F(X) непрерывна в точке Х = 0 (см. [5], [6]). В частном случае стационарного процесса X (t) все эти условия обращаются в условия справедливости больших чисел закона для стационарных случайных процессов. Лит.: [1] К aw at а Т., «Trans. Amer. Math. Soc», 1965, v. 118, № 6, p. 276-302; [2] его же, в сб.: Keio mathem. seminar reports, № t, Yokohama, 1973, p. 1-23; [3) Лоэв М., Теория вероятностей, пер. с англ., М., 1962, с. 496-99; [41 Розанов Ю. А., «Теория веро- ятн. и ее примен.», 1959, т. 4, в. 3, с. 291-310; [5) Nagabhusha- nam К., Bhagavan С. S. К., «Sankhya», Ser. A, 1969, v. 31, p. 421- 424; [6) Rao M. M, в сб.: Developments in statistics, v. 1, N. Y., 1978, p. 171-225; [7] Крамер Г., Лидбеттер М., Стационарные случайные процессы, пер. с англ., М., 1969, с. 99-103. A.M. Яглом. БОЛЬШИХ ЧИСЕЛ ЗАКОН для случайных множеств (law of large numbers for random sets) - см. Предельные теоремы для случайных множеств. БОЛЬШИХ ЧИСЕЛ ЗАКОН для случайных полей (law of large numbers for random fields) - утверждение о сходимости средних случайного поля при расширении области, по к-рой проводится усреднение. Сходимость средних может пониматься в разных смыслах: по вероятности, в среднем квадратическом, с вероятностью 1 (в последнем случае говорят о применимости усиленного закона больших чисел). Пусть, напр., X(t) - однородное случайное поле на целочисленной решетке в IP™ такое, что ЕХ (О = 0. Корреляционная функция B(h) = EX(t + h)X(t) такого поля допускает представление вш=Г-Г е'Я^тах J-K J-K 64 БОЛЬШИХ где F(-) - мера на а-алгебре Вт борелевских множеств из [-к,к]т. Само поле X(t) имеет вид жо=Г ...Г e'SV^wa J-n J-к где *(•) - ортогональная случайная мера на Вт такая, что Ez(S^)z(S2) = F(SlnS2), S\eBm, S2eBm. Тогда существует предел в среднем квадратическом lim 1 2*\Xj\*n,h, X(t\ равный z {(0)}, где (0) - множество, состоящее из одной точки 0elRw. Для того чтобы этот предел с вероятностью 1 равнялся ЕХ(О = 0, необходимо и достаточно, чтобы E|z{(0)}|2 = F{(0)}. Если F{(0)} = 0, П-Пп;>я log IM F(<A)<+oo, то к случайному полю X(t) применим усиленный закон больших чисел (см. [1], [2]). Если X(t) - однородное случайное поле с независимыми значениями, то для применимости усиленного закона больших чисел необходимо и достаточно (см. [3]), чтобы Е|х(0|(1п+|Х(0|Г < +с Б. ч. з. для случайных полей обычно рассматривается применительно к различным последовательностям расширяющихся множеств, по к-рым ведется усреднение случайного поля. Условия применимости усиленного закона больших чисел к изотропным полям при усреднении по шарам приведены в [4] и [5]. Лит.: [1] Гаиошки н В. Ф., «Теория вероягн. и ее нримен.», 1977, т. 22, в. 2, с. 295-319; [2] К л с со в О И., «Теория вероятн. и матсм. статистика». 1981, в. 25, с. 29-40; f3| SmytheR.T., «Ann. Probab.», 1973, v. 1, p. 164--70; [4| ЯдренкоМ.И., Спектральная теория случайных полей, К., 1980; [5] Гамошкин В. Ф., «Теория вероятн. и матем. статистика*, 1984, в. 30, с. 34-38. М. И. Идрспко БОЛЬШИХ ЧИСЕЛ ЗАКОН для стационарных слу чайных процессов (law of large numbers for stationan random processes) - 1) утверждение о том, что для любого в широком смысле стационарного случайно/о процесса X (t) всегда существует lim (1) тЬхГ:^): X (la) [формула (1) относится к процессам с непрерывным временем, а формула (1а) - к процессам с дискретным временем], где предел понимается как предел в среднем квадратичном (или же по вероятности). Эта форма Б. ч. з. для стационарных случайных процессов^ принадлежит А. Я. Хинчину |1], [2]. Случайная величина X совпадает со скачком случайной функции Z(X), входящей в спектральное разложение процесса Х(г) в точке Х = 0 (см., напр., [3]). 2) Утверждение о том, что X = ЕХ"(£) [то есть что среднее значение процесса X(t) можно со сколь угодно большой точностью определить, осреднив наблюденные значения этого процесса по достаточно большому временному интервалу] тогда и только тогда, когда функция Ъ (т) = Е [X (t + т) - Е X (t + t)][X U)-EX (t)] удовлетворяет условию lim \г\1ЬШх = Ъ или соответственно lim — 7->оо ' у г- 1 ^т = о Мт) = 0. (2) (2а)
Эта форма Б. ч. з. для стационарных процессов принадлежит Е. Е. Слуцкому [4], [5] и часто называется эргодической теоремой (или просто теоремой) Слуцкого; в спектральных терминах условие (2) или (2а) можно переформулировать как условие непрерывности спектральной функции процесса X (t) в точке Х = 0 (см. [3]). Обе приведенные выше формулировки Б. ч. з. для стационарных случайных процессов обобщаются на однородные случайные поля на II? или Ж при любом целом к. Лит.: [1] ХинчинА.Я., «Матем. сб.», 1933, т. 40, с. 124-28; i.2) Khintchine A., «Math. Ann.», 1934, Bd 109, S. 604-15; [3] Дуб Дж., Вероятностные процессы, пер. с англ., М., 1956; !41 Sfutski E.E., в сб.: Actualites. Sci. et Industr., X? 738, P., 1938, э. 33-55; [5] Слуцкий Е. Е., в его кн.: Избранные труды, М., 1960. А. М. Яглом. БОЛЬШИХ ЧИСЕЛ УСИЛЕННЫЙ ЗАКОН (strong law of large numbers) - одна из форм больших чисел закона (в его общем понимании), утверждающая, что при определенных условиях с вероятностью 1 происходит неограниченное сближение средних арифметических последовательности случайных величин с нек-рыми постоянными величинами. Точнее, пусть х„х2 х„,... (О - последовательность случайных величин и Sn = = Хх + Х2 +... + Хп. Говорят, что последовательность (1) удовлетворяет Б. ч.у. з., если существует такая последовательность постоянных Ап, что вероятность соотношения Sn/n-An^>0 (2) (при и-><*>) равна 1. Другая формулировка, равносильная предыдущей, такова: последовательность (1) удовлетворяет Б. ч.у. з., если при любом е->0 вероятность одновременного выполнения всех неравенств \S„/n-A„\<e, |Sn+1/(n+l)-A„+1|«e, ... (3) стремится к 1 при и->°°. Таким образом, здесь рассматривается поведение всей последовательности сумм в целом, в то время как в обычном законе больших чисел речь идет лишь об отдельных суммах. Если последовательность (1) удовлетворяет Б. ч. у. з., то она удовлетворяет и обычному закону больших чисел с теми же самыми Ап, то есть P{\S„/n-A„\<e}^l (4) (при любом е>0 и я->°°). Обратное может быть неверно. Напр., если случайные величины (1) независимы и принимают при я ^16 два значения ±V я/ln In In n с вероятностью 1/2 каждое, то для них выполняется закон больших чисел (4) с Л„ = 0, но ни при каких Ап не выполняется Б. ч. у. з. (2). Заранее существование таких примеров совсем не очевидно, так как хотя вообще сходимость по вероятности слабее сходимости с вероятностью 1, тем не менее, напр., для рядов из независимых случайных величин оба вида сходимости равносильны. Б. ч. у. з. был впервые сформулирован и доказан Э. Боре- лем [1] для схемы Бернулли (в теоретико-числовой интерпретации; см. Бореля усиленный закон больших чисел). Частные случаи схемы Бернулли возникают при разложении взятого наудачу (с равномерным распределением) действительного числа со из отрезка (0,1) в бесконечную дробь по какому-либо основанию (см. Бернулли испытания). Так, в двоичном разложении со = ^°°_ Хп((й)/2п последовательные знаки Хя(со) принимают два значения 0 и 1 с вероятностью 1/2 каждое и являются независимыми случайными величинами. Сумма S„(co) = Y_ Xk((u) равна числу единиц среди первых п знаков двоичного разложения, а 5„(со)/п - их доле. В то же время Sn может рассматриваться как число «успехов» в схеме Бернулли с вероятностью «успеха» (появление 1), равной 1/2. Э. Борель доказал, что доля единиц 5„(со)/я стремится к 1/2 для почти всех со из отрезка (0, 1). Аналогично, при разложении со по основанию 10 можно назвать «успехом» появление какой-либо одной из цифр 0, 1,2, ..., 9 (напр., цифры 3). При этом получается схема Бернулли с вероятностью успеха 1/10 и частота появления выбранной цифры среди первых п знаков десятичного разложения стремится к 1/10 для почти всех со из отрезка (0,1). Э. Борель отметил также, что частота появления любой фиксированной группы г цифр стремится для почти всех со к 1/10Г. Ф. Кантелли [2] дал достаточные условия Б.ч.у. з. для независимых случайных величин Хп в терминах вторых и четвертых центральных моментов слагаемых (схема Бернулли охватывается этими условиями). Вводя обозначение я..*-1нЕ1*,-Е*/1*. условию Кантелли можно придать вид х;=1 (вм^,2)/«2<~- Доказательства Э. Бореля и Ф. Кантелли основаны на следующем соображении. Пусть для нек-рой последовательности положительных чисел е„ -> 0 (при п -> <») Х;1Р{|5п/«-Лп|>еп}<~. (5) Тогда по Бореля - Кантелли лемме с вероятностью 1 осуществляется лишь конечное число событий, стоящих под знаком вероятности в (5). Поэтому с вероятностью 1 для всех достаточно больших п \S„/n-An\«-„, то есть имеет место (3). Э. Борель оценивал члены ряда (5) по теореме Муавра - Лапласа, а Ф. Кантелли - по неравенству Чебышева с четвертыми моментами. Дальнейшее расширение условий приложимости Б.ч.у. з. было осуществлено А. Я. Хинчиным и А. Н. Колмогоровым. А. Я. Хинчин [3], [4] ввел самый термин «усиленный закон больших чисел» и дал достаточное условие Б. ч. у. з. с An = E(Sn/n) (применимое и к зависимым величинам). Обозначая через rik коэффициент корреляции между Х( и Xk и полагая можно записать условие Хинчина в форме Вп2Сп = 0(п ~ ) для нек-рого 8>0. В действительности из доказательства А. Я. Хинчина вытекает значительно более сильное утверждение. В случае независимых слагаемых наиболее известными являются условия приложимости Б. ч.у. з., установленные А. Н. Колмогоровым: достаточное (1930) - для величин с конечными дисперсиями и необходимое и достаточное (1933) - для одинаково распределенных величин (заключающееся в существовании математич. ожидания величин Х^. Теорема Колмогорова для случайных величин (1) с конечными дисперсиями утверждает, что из условия x;,Dx„/n2<~ (6) вытекает приложимость к последовательности (1) Б. ч. у. з. с Ап = E(Sn/n). В терминах дисперсий условие (6) оказывается наилучшим в том смысле, что для любой последовательности положительных чисел Ьп с расходящимся рядом £ Ьп/п можно построить последовательность независимых случайных величин Хп с DXn = bn, не удовлетворяющую Б. ч. у. з. Область применения условия (6) (как, впрочем, и ряда других условий Б. ч. у. з. для независимых величин) может быть БОЛЬШИХ 65
расширена на основе следующего замечания. Пусть тп - медиана Хп. Сходимость ряда £ Р{|Х„-тп\ >п) необходима для Б. ч. у. з. Из леммы Бореля - Кантелли вытекает, что с вероятностью 1, начиная с нек-рого номера, \Хп-тп\<п. Поэтому при изучении условий приложимости Б. ч. у. з. можно сразу ограничиться случайными величинами, удовлетворяющими последнему условию. В доказательствах А. Я. Хинчина и А. Н. Колмогорова вместо сходимости ряда (5) устанавливается сходимость ряда X." max \Sn/n- Л„\>г •}■ где nk-2 . При этом А. Я. Хинчин привлекал по существу нек-рые идеи из теории рядов по ортогональным системам функций, а А. Н. Колмогоров использовал носящее его имя неравенство для максимумов сумм случайных величин. Для независимых случайных величин можно дать необходимое и достаточное условие Б. ч. у. з. Полагая Zk = 2" V Хп, (*)' распространена на те я, для к-рых 2 < п ^ 2 + , где сумма Y это условие можно записать в следующем виде: при любом е>0 _ (7) £,P{|Z*-mZ,|>e}<oo, где mZk - медиана Zk (см. [6]). Из (7) при дополнительных ограничениях можно получить условия, выраженные через характеристики отдельных слагаемых. Если, напр., Хп = = 0(я/1п In я) или если все Хп распределены по нормальному закону, то условие (7) равносильно следующему: при любом е>0 ^ £feexp{-e/DZ*}<oo. Здесь, в силу независимости Xit Известны условия применимости Б. ч. у. з. к марковским цепям и процессам и к стационарным процессам (см. [7]). Напр., метод Хинчина, примененный к стационарным в широком смысле последовательностям Хп с корреляционной функцией Жя), приводит к следующему утверждению: если ряд £ 1п2я/я|Жя)| сходится, то (Х0+... + Х„)/(я+1)->ЕХ0 с вероятностью 1. Для стационарных в узком смысле процессов Б. ч.у.з. иногда толкуют, понимая под этим утверждением, что с вероятностью 1 существует предел У = Нт(Х0+...+Х„)/(я+1) (случайная величина У равна условному математич. ожиданию Х0 по отношению к а-алгебре множеств, инвариантных относительно сдвига; с вероятностью 1 величина У постоянна и равна ЕХ0 только для метрически транзитивных процессов). В указанной форме Б. ч. у. з. есть не что иное, как Биркгофа - Хинчина эргодическая теорема. Существуют варианты Б. ч. у. з. для случайных векторов в нормированных линейных пространствах (см. [9]). В качестве исторически первого примера можно привести теорему Гли- венко - Кантелли о сходимости эмпирич. функции распределения к теоретической. Представление об отклонениях Sn/n от Лп дает повторного логарифма закон. Лит.: [1] Borel E., «Rend. Circolo mat. Palermo», 1909, v. 27, p. 247-71; [2] Cantelli F. P., «Atti Accad. naz. LinceU, 1917, v. 26, p. 39-45; [3) Хинчин А. Я., Основные законы теории вероятностей, М., 1927; [4) его же, «С. г. Acad, sci.», 1928, t. 186, p. 285-87; [5) Колмогоров А. К, там же, 1930, t. 191, p. 910-12; [6] Прохоров Ю. В., «Изв. АН СССР. Сер. матем.», 1950, т. 14, с. 523-36; 66 БОЛЬШИХ [7) Дуб Дж., Вероятностные процессы, пер. с англ., М., 1956; [8] Петров В. В., Суммы независимых случайных величин, М., 1972; [9] Гренандер У., Вероятности на алгебраических структурах, пер. с англ., М., 1965. Ю. В. Прохоров. В работе СВ. Нагаева [10] был предложен еще один критерий выполнения Б. ч. у. з. для независимых случайных величин Хи Х2, ... Согласно Ю. В. Прохорову [11], не уменьшая общности, можно предполагать, что X: имеют симметричное распределение. С учетом этого теореме СВ. Нагаева можно придать следующий вид. Пусть Ик(г), где е>0 и k=\, 2, ..., обозначают решения соответствующих уравнений Э эл log E exp (hZk)I( Wk < e) = 2е, где Zk - те же, что и в (7), а W* = max(|Xj/m:2*<m^2*+1). Если решение hk(e) существует, то оно единственно. В противном случае полагают, по определению, hk(e) =<*>. Тогда для выполнения Б. ч. у. з. необходимо и достаточно, чтобы при любом е > 0 сходился ряд XL {Р(Х„>еп) + ехр(1-е2"+Ч(е))}. (8) Подобно критерию Ю. В. Прохорова (7), критерий СВ. Нагаева оказывается связанным с использованием сложных случайных величин Zk и Wk, что лишает его каких-либо принципиальных преимуществ перед первым. Тем самым, проблему получения критерия Б. ч. у. з., оперирующего лишь с характеристиками отдельных независимых слагаемых Х- [вроде условий (6) и (8)], по-прежнему нельзя считать окончательно решенной. В [10] приводится пример, показывающий, что искомый критерий не может быть построен на использовании конечного числа моментов. Лит.: [10] Нагаев СВ., «Теория вероятн. и ее нримен>, 1972, т. 17, в. 4, с. 609-18; [И] Прохоров Ю. В., там же, 1958, т. 3, в. 2, с. 153-65. В. М. Золотарев. БОЛЬШИХ ЧИСЕЛ УСИЛЕННЫЙ ЗАКОН для случайных множеств (strong law of large numbers for random sets) - см. Предельные теоремы для случайных множеств. БОЛЬШИХ ЧИСЕЛ УСИЛЕННЫЙ ЗАКОН для ста ционарных случайных процессов (strong law of large numbers for stationary random processes) - 1) утверждение о том, что для стационарного случайного процесса X(t) существует следующий предел с вероятностью 1: или же (в случае дискретного i) lim — У с хи) Г-.9 ^-*=5 ■ X. (1) (2) Наиболее важным утверждением, касающимся Б. ч. у. з. для стационарных процессов, является эргодич. теорема Биркгофа - Хинчина, согласно к-рой для стационарного в узком смысле случайного процесса X(t) условие Е|Х(0|<°° (в случае непрерывного t дополненное еще нек-рым очень общим условием регулярности, к-рое в прикладных задачах всегда можно считать выполненным) гарантирует выполнение Б. ч.у.з. 2) Утверждение о том, что при определенных условиях [называемых в таком случае условиями справедливости Б. ч. у. з. для стационарного процесса X(t)] X = EX(t). Если X(t) - стационарный в широком смысле процесс, то необходимым и достаточным условием приложимости к Х(0 обычного закона больших чисел [то есть существования пре-
дела по вероятности и в среднем квадратичном (1), (2), где Л' = EX(t)] является условие Слуцкого: lim - f b(s)ds = О г-»- Т Jo lim YT n bis) = О, (3) b(s) = E[Xit + s) - EXit + s)][Xit) - EXit)] (см. Больших чисел закон для стационарных случайных процессов). Если теперь Xit) - стационарный в узком смысле случайный процесс такой, что Е|х it) \ < °°, то для него в силу теоремы Биркгофа - Хинчина существует предел (1) или (2) с вероятностью 1; если же при этом также Е|Х(0| <ос [так что процесс Xit) является стационарным и в широком смысле], то условие Слуцкого (3) будет очевидно необходимым и достаточным для того, чтобы имело место равенство X = EXit) [то есть чтобы для Xit) выполнялся Б. ч. у. з.]. Если, однако, процесс Xit) стационарен только в широком, но не в узком смысле, то тогда уже возможно, что условие Слуцкого для него имеет место [то есть для Xit) справедлив обычный закон больших чисел], но в то же время предел (1) или (2) с вероятностью 1 не существует [то есть усиленный закон больших чисел для Xit) не имеет места]. Первый пример такого рода был указан в [1]; еще раньше (см. [2], [3]) были указаны нек-рые общие достаточные условия справедливости Б.ч.у.з. для стационарных (в широком смысле) процессов Xit)} из к-рых, в частности, следует, что Б.ч.у.з. наверное будет выполняться, если только условие (3) остается справедливым и после замены множителя \/Т более медленно убывающим множителем 1/Г1-е, е>0 (см. [4]). Показано (см. [4|, [5]) также, что Б. ч. у. з. будет справедлив и при условии, что условие (3) остается справедливым после замены множителя \/Т на i\ogT)a/T} где а>3. Позже доказано (см. [6], [/]), что Б.ч.у.з. всегда выполняется для стационарного в широком смысле процесса Xit)} если только для него |fc(s)|<C(log logs)~2-e при нек-рых С>0 и е>0 для всех достаточно больших 5, в то время как для процессов Х(0, для к-рых bis) убывает на бесконечности как (log logs)" , этот закон может уже оказаться несправедливым. Лит.: [1] Blan с- Lapier re A., Tortrat А., «С. г. Acad. sci>, Ser. А- В, 1968, t. 267, № 20, p. 740-43; [2] Loeve M., «Rev. Sci.», 1945, v. S3, p. 297-303; [3] Bl anc-Lapier re A., Brard R., «Bull. Soc. Math. France», 1946, t. 74, p. 102-15; [4] Вербицкая И. Н., «Теория вероятн. и ее примен.», 1964, т. 9, в. 2, с. 358-65; [5] ее же, там же, 1966, т. 11, в. 4, с. 715-20; [6] Гапош- кин В.Ф., там же, 1973, т. 18, в. 2, с. 388-92; [7] его же, там же, 1977, т. 22, в. 2. с 295-319. А. М. Яглом. БОЛЬШОЙ КАНОНИЧЕСКИЙ АНСАМБЛЬ (grand canonical ensemble) - см. Гиббса распределение. БОНФЕРРОНИ НЕРАВЕНСТВО (Bonferroni's inequality) - неравенство, оценивающее сверху и снизу вероятность Р^ одновременного осуществления г из я событий Av ..., Ап. Известно, что (о где 5>=1.^<..<<,«»рК.л}. *„=1. Вероятность Р г осуществления по крайней мере г из п событий Аи ..., Ап равна п=1:=^,.,=1;=п(-^сд5У- (2) Если в формуле (1) или в формуле (2) сохранены лишь члены Sr, Sr+V ..., SV+fc-i, а члены Sr+k, ..., Sn отброшены, то ошибка приближения имеет знак первого отброшенного слагаемого и меньше его по абсолютной величине. Напр., при выборе в(1)&=1и& = 2 получается соответственно В частности, если г = п} то 1 -х;=1^^р{гги,}. См. также Включения и исключения метод. Лит.: [1] Bon f err on i С. E., «Pubbl. 1st. Sup. Sci. Econ. Com- mun. Firenze», 1936, t. 8, p. 1-62; [2] его же, в кн.: Volume di Studi in onore di prof. S. Ortu Carboni, Genova, 1936; [3] Феллер В., Введение в теорию вероятностей и ее приложения, пер. с англ., т. 1, М., 1984. В. И. Пагурова. БОРЕЛЕВСКАЯ АЛГЕБРА (Borel algebra) - см. Борелев- ское поле событий. БОРЕЛЕВСКАЯ С-АЛГЕБРА (Borel a-algebra) - наименьшая а-алгебра подмножеств топологического пространства, содержащая все его открытые подмножества. Подмножества, принадлежащие Б. а-а., называются борелевскими. Иногда в случае локально компактного хаусдорфова пространства борелевскими называют подмножества, принадлежащие а-кольцу, порожденному компактными подмножествами (см. [1]). См. также Алгебра множеств. Лит.: [1] Халмош П., Теория меры, пер. с англ., М., 1953; [2] Вахания Н. Н., Тариеладзе В. И., Чобанян С. А., Вероятностные распределения в банаховых пространствах, М., 1985. Н. Н. Вахания. БОРЕЛЕВСКАЯ МЕРА (Borel measure) - мера ц, заданная на борелевской а-алгебре множеств топологического пространства Т. Б. м. называется вероятностной, если ц(Г) = 1. Важные классы Б. м. составляют х-гладкие, регулярные, плотные и радоновы меры. Термин «Б. м.» употребляют и в других смыслах. Так, борелевской называется также мера в локально компактном пространстве, заданная на а-колыде, порожденном компактными множествами, и принимающая конечные значения на компактных множествах (см. [1]). Иногда Б. м. называют сужение лебеговской меры в II?" на бореле'векую о-алгебру. Лит.: [1] Вахания Н. Н., Тариеладзе В. И., Чобанян С. А., Вероятностные распределения в банаховых пространствах, М., 1985; [2] Халмош П., Теория меры, пер. с англ., М., 1953. Н. Н. Вахания. БОРЕЛЕВСКАЯ МОДЕЛЬ (Borel model) - см. Управляющий случайный процесс с дискретным временем. БОРЕЛЕВСКАЯ ФУНКЦИЯ (Borel function) - числовая функция f, определенная на топологическом пространстве X и измеримая в смысле Бореля. Последнее означает, что каково бы ни было число fleIR1, множество f~ iia, +<*>)) является борелевским в X (см. Борелевское множество). Эквивалентное определение: числовая функция /", заданная на X, называется борелевской функцией, если для любого борелев- ского множества Лс1Р множество f~ iA) является борелевским в X. Пусть д и h - произвольные Б. ф. на X. Тогда функции д + h,XgiXe№ ), gh, sup ig,h), inf (^,/г), \д\ также будут Б. ф. Если (/^,)„едг _ последовательность Б. ф. на X, сходящаяся в каждой точке х еХ, то функция f- lim fn также п будет Б. ф. Всякая Б. ф. обладает свойством Бэра. Пусть (X', S') - измеримое пространство, <р - числовая измеримая функция на X' и д - произвольная Б. ф., заданная на действительной прямой В?1. Тогда композиция <7оф представляет собой функцию, измеримую на (X', S'). Если Х = 1Р", то любая Б. ф. на X измерима в смысле Лебега. Обратное утверждение неверно. Можно лишь утверждать, что для всякой измеримой по БОРЕЛЕВСКАЯ 67
Лебегу числовой функции /*на IP" найдется Б. ф. д на IP" такая, что f(x) = д (х) почти во всех точках х е И?". Б. ф., заданные на произвольном польском топологич. пространстве Х} классифицируются с помощью всевозможных ординальных чисел, строго меньших coj, где cot - первый несчетный ординал. Такая классификация Б. ф. называется классификацией Бэра, а соответствующие классы - классами Бэра. На основе этой классификации многие факты о Б. ф. доказывают методом трансфинитной индукции. Мощность множества всех Б. ф., заданных на несчетном польском пространстве, равна мощности континуума. На таком пространстве существуют числовые функции, неизмеримые в смысле Бореля. Установлено, что для несчетных польских пространств все классы Бэра являются непустыми (теорема Лебега). Понятие Б. ф. представляет собой частный случай более общего понятия борелевского отображения, то есть такого отображения f топологич. пространства X в топологич. пространство У, при к-ром для любого борелевского множества A cz У множество f~ (А) является борелевским в X. Если X и У - польские пространства, f— борелевское отображение пространства X в пространство У, а В - борелевское подмножество в X, то образ f(B)} вообще говоря, не будет борелевским множеством в У. Этот образ представляет собой аналитическое (суслинское) подмножество в У. Однако если отображение f дополнительно является инъективным (взаимно однозначным), то множество f(B) будет борелевским в пространстве У. Лит.: [1] Куратовский К., Топология, пер. с англ., т. 1, М., 1966; [2] Бурбаки Н., Общая топология. Использование вещественных чисел в общей топологии. Функциональные пространства. Сводка результатов. Словарь, пер. с франц., М., 1975. А. Б. Харазишвили. БОРЕЛЕВСКОЕ МНОЖЕСТВО (Borel set) - множество, принадлежащее борелевской а-алгебре данного топологического пространства (то есть а-алгебре, порожденной семейством всех открытых частей этого пространства). Понятие Б. м. тесно связано с понятием борелевской функции. Подмножество топологич. пространства является Б. м. тогда и только тогда, когда его индикатор (его характеристич. функция) является числовой борелевской функцией. В общей топологии, теории вероятностей и функциональном анализе особо важную роль играют борелевские подмножества польских топологич. пространств (то есть таких пространств, к-рые гомеоморфны полным сепарабельным метрич. пространствам). В несчетных польских пространствах Б. м. определенным образом классифицируются с помощью всевозможных ординальных чисел, строго меньших cot, где со1 - первый несчетный ординал. Доказывается, что при такой классификации все классы являются непустыми. С точки зрения борелевской структуры любые два несчетные борелевские подмножества польского пространства изоморфны между собой. В различных вопросах классич. анализа, связанных с непрерывностью и сходимостью, часто встречаются Б. м. начальных классов - множества типа Gs, F0, G^,, FoS и т. д. В произвольном польском топологич. пространстве всякое С8-множество является польским пространством относительно индуцированной топологии (теорема П. С. Александрова). В конечномерном евклидовом пространстве всякое Б. м. измеримо по Лебегу и обладает свойством Бэра. Свойством Бэра обладают все борелевские подмножества любого топологич. пространства. См. также Алгебра множеств. Лит.: [1] Куратовский К., Топология, пер. с англ., т. 1, М., 1966; [2] Бурбаки Н., Общая топология. Использование вещественных чисел в общей топологии. Функциональные пространства. Сводка результатов. Словарь, пер. с франц., М., 1975. А. Б. Харазишвили. БОРЕЛЕВСКОЕ ОТОБРАЖЕНИЕ (Borel mapping) - см. Борелевская функция. 68 БОРЕЛЯ БОРЕЛЕВСКОЕ ПОЛЕ МНОЖЕСТВ (Borel field of sets), порожденное системой множеств А/, - наименьшая система множеств, содержащая М и замкнутая относительно операции счетного объединения и перехода к дополнению. А. Г. Елькин. БОРЕЛЕВСКОЕ ПОЛЕ СОБЫТИЙ (Borel field of events), а-поле, борелевская алгебра, а-алгебра событий, - класс А подмножеств (событий) непустого множества Q. (пространства элементарных событий), образующий борелевское поле множеств. В. В. Сазонов. БОРЕЛЯ КРИТЕРИЙ «НУЛЬ - ЕДИНИЦА» (Borel zero-one law) - см. Бореля - Кантелли лемма. БОРЕЛЯ ТЕОРЕМА (Borel theorem) - см. Предельные теоремы метрической теории диофантовых приближений. БОРЕЛЯ УСИЛЕННЫЙ ЗАКОН БОЛЬШИХ ЧИСЕЛ (Borel strong law of large numbers) - исторически первый вариант больших чисел усиленного закона, сформулированный и доказанный Э. Борелем [1] применительно к схеме Бернулли (см. Бернулли испытания). Пусть независимые случайные величины Xt, ..., Х„, ... одинаково распределены и принимают два значения 0 и 1 с вероятностью 1/2 каждое, тогда ■£„ = £ ^k есть число успехов в схеме Бернулли с вероятностью успеха 1/2. Э. Борель [1] доказал, что с вероятностью 1 5„/п->1/2 при я-»*». Впоследствии (1914) Г. Харди (G. Hardy) и Дж. Литлвуд (J. Littlewood) показали, что почти наверное а затем А. Я. Хинчин (1922) доказал более сильный результат: Р to 15"-/2' --U.L [п-ю° V" 1" 1П п "^2 J См. также Повторного логарифма закон. Лит.: [1] Borel E., «Rend. Circolo mat. Palermo», 1909, v. 27, p. 247-71; [2) Кац М., Статистическая независимость в теории вероятностей, анализе и теории чисел, нер. с англ., М., 1963. А. В. Прохоров. БОРЕЛЯ - КАНТЕЛЛИ ЛЕММА (Borel - Cantelli lemma): событие построенное по последовательности событий Av A2, ..., имеет нулевую вероятность, если ряд ХРС4„) С) сходится. Если события Av Л2, ... взаимно независимы, то справедлив критерий Бореля «нуль - единица»: Р(Л) =0 или 1 в зависимости от того, сходится или расходится ряд (*). Б. - К. л. была доказана в работах, связанных с больших чисел усиленным законом. Имеются обобщения Б. - К. л. на случаи попарно независимых (см. [3]) и зависимых (см. 14)) событий. Лит.: [1] Borel E., «Rend. Circolo mat. Palermo», 1909, v. 27, p. 247-71; [2] Cantelli F. P., «Atti Accad. naz. Lincei», 1917, v. 26, p. 39-45; [3] Петров В. В., Предельные теоремы для сумм независимых случайных величин, М., 1987; [4] Лоэв М., Теория вероятностей, пер. с англ., М., 1962. в. М. Круглее. БОРЕЛЯ - КАНТЕЛЛИ - ЛЕВИ ЛЕММА (Borel - Сап telli - Levy lemma) - см. Компенсатор. БОРЕЛЯ - ТАННЕРА РАСПРЕДЕЛЕНИЕ (Borel - Tanner distibution) - дискретное распределение вероятностей случайной величины X, принимающей целочисленные значения
m = k, k+\, ... с вероятностями (см. рис.) k рт = Р{Х = т} = - mm-k-\e-amam-kf (т - k)\ где k - целое, 6>0и0<а<1. Б. -Т. р. возникает в теории массового обслуживания как распределение числа требований, Распределение Бореля - Таннера: 1) при k= 1, а = 0,3 и а = 0,7; 2) при k = 5, а = 0,3и а = 0,7. обслуженных на периоде занятости в системе массового обслуживания с пуассоновским входящим потоком с параметром а и постоянным временем обслуживания в том случае, когда в начальный момент длина очереди равна k. В. Г. Ушаков. БОХНЕРА ИНТЕГРАЛ (Bochner integral) - интеграл от сильно измеримой (измеримой по Бохнеру) функции с сильным первым порядком со значениями в банаховом пространстве. Более точно, пусть (Q, Л, |i) - вероятностное пространство или, более общо, пространство с положительной мерой, В - банахово пространство. Простые (то есть принимающие лишь конечное число различных значений) функции /":£}->£ объявляются (1-й нтегрируемыми, если ненулевые значения принимаются ими на множествах из Оконечной (х-меры, и им приписывается интеграл очевидным естественным образом. Функция /*:&->£ называется интегрируемой по Бохнеру, если существует такая последовательность |i-интегрируемых простых функций /"„:£}->£, что Km /0|/*„(со)-Да))||ф(со) = 0. (») В этом случае, как легко видеть, последовательность интегралов от fn фундаментальна в В и ее предел одинаков для всех последовательностей (Х-интегрируемых простых функций, аппроксимирующих /*в смысле равенства (*). Этот предел называется интегралом Бохнераот функции f по мере \i. Для интегрируемости по Бохнеру сильно измеримой функции /"необходимо и достаточно выполнение условия jn\\f((u)\\d\L(o>)<+~. Существование Б. и. влечет за собой существование Петти- са интеграла, и значения этих интегралов совпадают. Лит.: [1] И ос и да К., Функциональный анализ, пер. с англ., М., 1967; [2) Вахания Н.Н., Тариеладзе В. И., Чобанян С. А., Вероятностные распределения в банаховых пространствах, М., 1985. Н. Н. Вахания. БОХНЕРА - ХИНЧИНА ТЕОРЕМА (Bochner - Khinchin theorem) о представлении положительно определенных функций: для представимости функции f(t), £е1Р", в виде . f(t)=j nexp{i(t,x)}P(dx) (Р - конечная мера в IP") необходимо и достаточно, чтобы fit) была непрерывной положительно определенной функцией. Иными словами, класс характеристич. функций вероятностных распределений в IP" совпадает с классом непрерывных положительно определенных функций f} нормированных условием /"(0) = 1. Доказательство этой теоремы впервые опубликовано С. Бохнером в [1], [2]. Б. - X. т. служит базой для принадлежащего А. Я. Хинчину (см. [3]) спектрального разложения корреляционной функции стационарного процесса. Б. - X. т. допускает обобщения на классы положительно определенных функций, определенных на структурах, отличных от IP" (см., напр., [5], [6]). В частности, в случае группы Ж целых чисел (в связи с тригонометрич. проблемой моментов) эта теорема была получена ранее Ф. Риссом (F. Riesz) и Г. Герглотцем (Н. Нег- glotz). Б. - X. т. - один из важнейших результатов гармонич. анализа. Имеются также ее обобщения на случай бесконечномерных пространств (см. Сазонова теорема, Сазонова топология). Лит.: [1] Bochner S., Vorlesungen tiber Fouriersche Integral, Lpz., 1932 (рус. пер. - Б ох н ер С, Лекции об интегралах Фурье, пер. с англ., М., 1962); [2] его же, «Math. Ann.», 1933, Bd 108, S. 378-410; [3] Khintchine А., там же, 1934, Bd 109, S. 604-15 (рус. пер. - «Успехи матем. наук», 1938, в. 5, с. 42-51); [4] Фел- лер В., Введение в теорию вероятностей и ее приложения, пер. с англ., т. 2, М., 1984; [5] Гельфанд И. М., Виленкин Н.Я., Некоторые применения гармонического анализа, М., 1961; [6] Хей- ер X., Вероятностные меры на локально компактных группах, пер. с англ., М., 1981; [7] Хьюитт Э., Росс К., Абстрактный гармонический анализ, пер. с англ., т. 2, М., 1975. И. А. Ибрагимов, В. И. Тариеладзе. БРАУНА МЕТОД ПРОГНОЗИРОВАНИЯ (Browns method of forecasting/prediction) - простейший метод адаптивного прогнозирования случайных процессов, основанного на экспоненциальном сглаживании. Прогнозирующая модель для процесса Zt в случае Б. м. п. задается выражением Zt(k) = a0(t) + a^t)k + ... + ap(t)kp. Коэффициенты aQ(t), ..., ap(t) определяются с помощью взвешенного метода наименьших квадратов, то есть из условия минимума величины Значение р здесь называется константой сглаживания. Использование этой константы в случае |р|<1 позволяет при прогнозировании придавать большой вес последним значениям наблюдаемого процесса и уменьшать значение отдаленных наблюдений. Пересчет коэффициентов при переходе от Zt(k) к ZM(k) производится рекуррентно. Напр., при р-\ для a0(t+ 1) и a^(t+ 1) верны формулы a0(t + 1) = (1 - f)ZM + fa0(t) + tfa^t), a,(t) = (1 - P)2ZW - (1 - p)2flt(0 - (1 - P)2fl0(0 + *i<0. Лит.: [1] Brown R., Smoothing, forecasting and prediction of discrete time series, Englewood Cliffs (N. Y.), 1963; [2] Кендэл М., Временные ряды, пер. с англ., М., 1981. Ю. Г. Баласанов. БРОУНОВСКАЯ ПРОСТЫНЯ (Brownian sheet) - см Ви- неровское поле. БРОУНОВСКАЯ ЭКСКУРСИЯ (Brownian excursion), экскурсия для броуновского движения,- непрерывный случайный процесс we(t), 0^t^ 1, определяемый по винеровскому процессу (броуновского движения процессу) w(t) с помощью соотношения we(t) = (x2-xiy/2\wH\-t)xi + tx2)\t 0<t<\, БРОУНОВСКАЯ 69
где xt = sup {t ^ 1: w(t) = 0} и x2 = inf {t^ 1: w(t) = 0} - соответственно последний нуль w(t) перед моментом времени ^=1 и первый нуль w(t) после этого момента времени. Б. э. - неоднородный марковский диффузионный процесс, одномерное распределение вероятностей и плотность вероятности перехода к-рого приведены в [1] (гл. 2). Дальнейшие результаты о Б. э., касающиеся, в частности, связей Б. э. с броуновским мостом и теорем о сходимости определенных последовательностей случайных процессов к Б.э., см., напр., в [2]-[7]. Лит.: [1] Ито К., Маккин Г., Диффузионные процессы и их траектории, пер. с англ., М., 1968; [2] Durrett R. Т., Igle- hart D. L., Miller D. R., «Ann. Probab.», 1977, v. 5, № 1, p. 117-29; [3] Durrett R. Т., Iglehart D. L., там же, р. 130-35; [4] Vervaat W., там же, 1979, в. 7, № 1, p. 143-49; [5] Ge- toor R. K., Sharpe M.J., «Z. Wahr. und verw. Gebiete», 1979, Bd47, H. 1, S. 83-106; [6] Knight F. В., «Trans. Amer. Math. Soc», 1980, v. 258, № l, p. 77-86; [7] Imhof J. P., «Stud. sci. Math. Hung.», 1985, v. 20, № 1-4, p. 1-10. A. M. Яглом. БРОУНОВСКИЙ ЛИСТ (Brownian sheet) - см. Винеров- ский лист. БРОУНОВСКИЙ МЕАНДР (Brownian meander) - непрерывный случайный процесс wm(t), 0^t^\, определяемый по винеровскому процессу (броуновского движения процессу) w(t) с помощью соотношения ют(0 = (1-х1)1/2|о;(х1 + ^(1-х1))|, 0^^1, где xt = sup{£^ l :w(t) = 0} - последний нуль w(t) перед моментом времени t=\. Б. м. является неоднородным марковским диффузионным процессом, родственным броуновской экскурсии (см., напр., [1], [2]). Лит.: [1] Durrett R. Т., Ig 1 ehart D. L., Miller D. R., «Ann. Probab.», 1977, v. 5, № 1, p. 117-29; [2] их же, там же, 1977, v. 5, К? 1, p. 130-35. А. М. Яглом. БРОУНОВСКИЙ МОСТ (Brownian bridge) - см. Винеров- ский мост. БРОУНОВСКОГО ДВИЖЕНИЯ ПРОЦЕСС (Brownian motion process) - непрерывное хаотическое движение маленьких частиц (размерами в несколько мкм и менее), взвешенных в жидкости. Это явление было названо по имени открывшего его в 1827 Р. Броуна (R. Brown). Видимые лишь под микроскопом взвешенные частицы движутся независимо друг от друга, описывая сложные траектории. Наблюдаемое движение не ослабевает со временем, не зависит от химич. свойств среды, его интенсивность увеличивается с ростом температуры среды и с уменьшением ее вязкости и размеров частиц. Объяснение этого явления основывается на том факте, что частица испытывает бесчисленное число столкновений со «случайно» движущимися молекулами окружающей жидкости; каждое отдельное столкновение оказывает пренебрежимое действие, но вместе они производят наблюдаемое движение. Теория броуновского движения была предложена в нач. 20 в. Л. Башелье (L. Bachelier), А. Эйнштейном (A. Einstein) и М. Смолуховским (М. Smoluchowski). Пусть Xt - одна из координат броуновской частицы в момент времени t; для определенности пусть Х0 = 0. Так как движение окружающих молекул может быть описано лишь статистически, то Xt - случайная величина. Так как смещение частицы за период [0, t] представляет собой сумму многих очень маленьких и почти независимых вкладов, то, согласно центральной предельной теореме, вполне правдоподобен постулат о нормальном распределении величины Xt. Если предположить, что вязкость достаточно велика, так что скорость частицы очень быстро гасится, то в результате наблюдаемые смещения частицы на пересекающихся временных интервалах следует считать независимыми. Из соображений симметрии ЕХ^ = 0, и если 70 БРОУНОВСКИЙ физич. условия не меняются, то Е(Х,+5-Х,) = f(s) не зависит от t. Это последнее соглашение вместе с предположением независимости приводит к выражению для дисперсии f(s) = cs. Постоянная с важна для физич. теории. А. Эйнштейн установил связь между с, нек-рыми параметрами системы, допускающими измерение, и нек-рыми физич. постоянными. Эта связь дает точный метод определения постоянной Больцмана и числа Авогадро по наблюдениям частиц, находящихся в броуновском движении. Так, для сферич. частиц с = кТ/Зща, (*) где а - радиус частиц, k - постоянная Больцмана, Т - абсолютная температура, rj - динамич. вязкость жидкости. Эти выводы отлично согласуются с экспериментами, формула (*) подтвердилась в 1906 измерениями Ж. Перрена (J. Рег- rin) и Т. Сведберга (Th. Svedberg). Закономерности броуновского движения послужили подтверждением фундаментальных положений молекулярно-кинетич. теории. Точный математич. смысл этих исследований дал Н. Винер (N. Wiener, 1929). Для создания вероятностной модели Б. д. п. он построил семейство случайных величин {Х^, t^0} (случайный процесс), удовлетворяющих условиям: 1) Х0(со) = 0 почти наверное; 2) если 0 = tQ<t^< ...<tn, то случайные величины X, -Xt,i = 0, 1, 2, ..., п- 1, независимы; 3) для любых s, t^0 приращение Xt+S-Xt распределено нормально со средним 0 и дисперсией s; 4) для почти всех coeQ функция Xt непрерывна по t. Этот процесс называется стандартным процессом броуновского движения (или стандартным ви- неровским процессом) и занимает центральное место в теории случайных процессов. Лит.: [1] Эйнштейн А., Смолуховский М., Броуновское движение, пер. с нем., М.-Л., 1936; [21 Ламперти Дж., Вероятность, пер. с англ., М., 1973. Я. Ф. Винпишин. БРОУНОВСКОГО ДВИЖЕНИЯ ПРОЦЕСС много мерный (multivariate Brownian motion process) - см. Многомерный винеровский процесс. БРОУНОВСКОЕ ДВИЖЕНИЕ многопараметриче- с кое (multiparametric Brownian motion) - см. Леей поле. БРОУНОВСКОЕ ДВИЖЕНИЕ; экскурсия (Brownian excursion) - см. Броуновская экскурсия. БУЛЕВА АЛГЕБРА нормированная (standardized Boolen algebra) - см. Случайное событие. БУЛЕВА МОДЕЛЬ (Boolean model) - случайное множество в IP", инвариантное относительно группы 1п параллельных сдвигов. Б. м. строится следующим образом: берется инвариантный точечный случайный процесс т = {^} в 1п и последовательность независимых одинаково распределенных выпуклых случайных множеств {D,}. Множество U= (Г f,Di называется булевой моделью, порожденной {^} и {DJ. Если {£,} есть пуассоновский точечный процесс, то Б. м. называется пуассоновской. Если U - Б. м. в IP", то UC\Tr также является Б. м., где Тг есть r-мерная плоскость в IP", r^n. Множество С7ПТ1 представимо в виде объединения непересекающихся интервалов {Ik} , его дополнение есть объединение непересекающихся интервалов {/£}. Если U - пуассоновская Б. м., то в чередующейся последовательности {Ik, I'k} интервалы независимы, а длина типичного интервала из {I'k} (см. Геометрический процесс) имеет экспоненциальное распределение. Для Б. м., инвариантных относительно группы евклидовых движений, экспоненциальность распределения типичного интервала из {I'k} следует из свойств рекуррентности процесса t/nTj (см. [1], а также Стохастическая геометрия).
Лит.: [1] Ambartzumian R. V., Combinatorial integral geometry N. Y. - [a. o.J, 1982; [21 Комбинаторные принципы в стохастической геометрии. Сб. статей, Ер., 1980; [3] Stochastic geometry, geometric statistics, stereology, Lpz., 1984; [4] Матерон Ж., Случайные множества и интегральная геометрия, пер. с англ., М., 1978. В. К. Оганян. БУЛЕВА ФУНКЦИЯ случайная (random Boolean function) - см. Случайная булева функция. БУНЯКОВСКОГО НЕРАВЕНСТВО (Bunyakovskii's inequality) в теории вероятностей- неравенство для математических ожиданий ЕХ и ЕУ случайных величин X и У, для к-рых существует EXY: (ЕХУ)2<ЕХ2ЕУ2. (») Впервые неравенство (*) было установлено для интегралов В. Я. Буняковским в 1859. Оно называется также неравенством Коши - Буняковского, так как О. Коши (A. Cauchy) доказал аналог (*) для сумм в 1821. Иногда Б. н. называется неравенством Шварца, хотя в работах Г. Шварца (Н. Schwarz) это неравенство появилось не ранее 1884. Б. н. (*) превращается в равенство тогда и только тогда, когда существуют такие константы а и b, a +b >0, для к-рых aX + bY = 0 почти наверное. Из (*) следуют неравенства для ковариации: . |cov(X,y)NV DXDy и для коэффициента корреляции: |р(Х,У)к1. Б. А. Севастьянов. БУРКХОЛЬДЕРА - ГАНДИ - ДЭВИСА НЕРАВЕНСТВА (Burkholder - Gundy - Davis inequalities) - двусторонние неравенства срЕ[М,М]р2^Е(м*Т)р<СрЕ[М,М]р2, р^\, где Т - марковский момент, Г^°о, для случайного процесса M* = (Mt*)t^0 с M,* = sup \MS\, M = (Mt)t^0 - локальный мартингал с непрерывными справа и имеющими пределы слева траекториями, Д/0 = 0 и квадратич. вариацией [М, М] = ([A/, M]t)t^Q. Константы с , Ср зависят только от р. При р> 1 эти неравенства называются неравенствами Буркхольдера- Ганди, а при р-\ - неравенствами Дэвиса. Лит.: [11 Burkholder D., Davis В., Gundy R., Integral inequalities for convex functions of operator on martingales, в сб.: Proc. 6th Berkeley Symp. Math. Statist. Probab., 1972, v. 2, p. 223-40; [2] Лип- цер Р.Ш., Ширяев А. Н., Теория мартингалов, М., 1986. Р. Ш. Липцер. БУТСТРАПА МЕТОД ОЦЕНИВАНИЯ (bootstrap method of estimation) - метод статистического оценивания распределения статистики, построенной по выборке Xn = (xv ..., хп)} посредством распределения той же статистики, построенной по выборке из эмпирического распределения Хп. Пусть х{ имеют функцию распределения F, T(F) - нек-рый функционал от F [напр., T(F) - среднее, медиана или дисперсия F] и Тп(Хп) - оценка функционала 74F), построенная по выборке Хп. На практике полезно иметь построенные по выборке Хп оценки различных характеристик распределения случайной величины 6„(Х„, F) = Tn(Xn)-T(F). Типичными примерами таких характеристик являются смещение Е{в„(Х„, F)} и дисперсия D{6„(X„, F)}. Иногда требуется оценить и саму функцию распределения статистики 6„(Х„, F). Для этих целей и используется Б. м. о. Бутстрап-оценка распределения статистики 6„(X„, F) (так наз. бутстрап- распределение в„) определяется как распределение статистики 6„(Х*, Fn) при фиксированном Хп. Здесь Fn - эм- пирич. функция распределения, соответствующая Хп, и Х*=(х*, ..., х*), где xt— независимые случайные величины с распределением Fn. Бутстрап-оценки смещения и дисперсии Тп [а также других характеристик распределения статистики в„(Х„, F)] определяются как соответствующие характеристики бутстрап-распределения 6„. Явное аналитич. вычисление бутстрап-распределения возможно лишь в нек-рых частных случаях. Поэтому, как правило, строят аппроксимации бутстрап-распределения, используя следующий прием. Генерируют N независимых выборок х*п=(хи> •••» х\п)> •••» XNn=(xN\> •••» xNn> из совокупности с функцией распределения Fn. Затем вычисляют величины Q] = Qn(X*n, Fn), ..., е^ = е„(Х*, Fn), и в качестве оценки для распределения статистики берут эмпирич. распределение величин 6J, ..., Q*N. Этот прием является основным при реализации Б. м. о. на практике. Если требуется оценить только смещение и дисперсию статистики Тп, то можно применять другой, менее общий прием - складного ножа метод. Полученные этим методом оценки являются аппроксимацией для бутстрап-оценок смещения и дисперсии. Лит.: [1] Эфрон Б., Нетрадиционные методы многомерного статистического анализа, пер. с англ., М., 1988. А. Б. Цыбаков. БУТСТРАП-РАСПРЕДЕЛЕНИЕ (bootstrap distribution) - см. Бутстрапа метод оценивания. БУФЕРНАЯ ПАМЯТЬ (buffer memory) - см. Последовательное декодирование. БХАТТАЧАРИЯ - РАО СФЕРИЧЕСКОЕ РАССТОЯНИЕ (Bhattacharya - Rao spherical distance) - см. Риманова информационная метрика. БЫСТРОЕ ПРЕОБРАЗОВАНИЕ ФУРЬЕ (fast Fourier transform) - серия алгоритмов, предназначенная для эффективного вычисления дискретного преобразования Фурье a(n) = ^x(j)W$, n = 0, ...,N-1, (•) где x(j), У = 0, ..., Ы-\, - комплексная или действительная последовательность, WN = exp {-2ni/N} (см. [1]). Широкий интерес к алгоритмам Б. п. Ф. появился после выхода [2]. Вычисление Б. п. Ф. по формуле (*) требует большого числа операций - примерно N операций умножения и сложения комплексных чисел, что при больших N может оказаться трудно осуществимым. Появление алгоритмов Б. п. Ф. позволило резко уменьшить их число. Существует несколько разновидностей алгоритмов Б. п. Ф., и все они связаны с возможностью сведения вычисления преобразования длины N к вычислению преобразований меньшей длины. Наибольшую популярность приобрели алгоритмы Б. п. Ф. по основанию 2, то есть при N = 2 для нек-рого целого /, к-рые основаны на соотношениях e<»> = ZSTl ^+^С *2,41)wtf/2, я = 0,...,ЛГ-1 (алгоритм с прореживанием по времени), и а(2п +1) = Х^о"1 {[*t(» " х2 OW }w%2, п = 0,...,ЛГ/2-1 (алгоритм с прореживанием по частоте), где *t(;) =x(j), x2(j) = x(j + N12), ; = 0, ..., N/2-1. В этих случаях преобразование длины N сводится к вычислению двух преобразований длины ЛГ/2, каждое из к-рых можно представить через БЫСТРОЕ 71
N/4-точечные преобразования и т. д., в результате число требуемых операций по сравнению с прямым вычислением дискретного преобразования Фурье уменьшается в N/1 раз. В общем случае основная часть алгоритмов Б. п. Ф. основана на двух следующих представлениях дискретного преобразования Фурье: а(щЩ +«2) = I^:>^'^Xj-0V;f xijt + j2Nt\ где (Knj^A^-l, 0^я2^ЛГ2-1, N = N^N2t и *<"> = X"1 "п -Х^"п Wtf* ...W^*if/i — + ■■■ +Л —1 где n = nl(modNj), 0^n,^N,-l, /=1, ...,*, N = Nx...Nk,- взаимно простые числа и £(/) - периодич. продолжение x(j) с периодом N. Для вычисления результата по этим формулам необходимо произвести примерно (Nt + ... + Nk)/N умножений, где N = Nx-...-Nk. Обычно программы, выполняющие Б. п. Ф., сводятся к серии базовых преобразований малых длин, напр. 2, 3, 4, 5, 7, 8, 16, каждое из к-рых реализуется максимально эффективно. Налагаемые ограничения на длину преобразования N существенно снижают область применения алгоритмов Б.п.Ф., хотя для четных N соотношение (*) можно переписать в виде «<»> = Ijo WW = Х£> x{i)wm = .2 к-рое представляет свертку последовательностей WJN/2x(j) и WJN/2 и может быть вычислено, напр., с помощью Б. п. Ф. по основанию 2 (см. [5]). Полезные программы на фортране-IV см. в[1]-[3]. Лит.: [ 1 ] Нуссбауэр Г., Быстрое преобразование Фурье и алгоритм вычисления сверток, пер. с англ., М., 1985; [2] Monro D., «Applied Statist.», 1975, v. 24, № 1, p. 153-60; 1976, v. 25, № 2, p. 166-72; [3] Monro D., Branch J., там же, 1977, v. 26, № 3, p. 351-61. Ю.С. Романчук. БЬЕНЕМЕ-ЧЕБЫШЕВА НЕРАВЕНСТВО (Bienaime-Che- byshev inequality) - см. Чебышева неравенство. БЭРА КЛАСС (Baire class) - см. Борелевская функция. БЭРА КЛАССИФИКАЦИЯ (Baire classification) - см. Борелевская функция. БЭРА МЕРА (Baire measure) - 1) мера, определенная на а-кольце подмножеств локально компактного хаусдорфова топологического пространства, порождаемая компактными С8-множествами и принимающая на них конечные значения (см. [1]). 2) Б. м.- мера, определяемая на бэровской а-алгебре вполне регулярного топологич. пространства Т. Каждая конечная Б. м.- регулярная мера. Каждая т0-гладкая конечная Б. м. единственным образом продолжается до т-гладкой меры (конечной и борелевской). При этом конечная Б. м. v в Т называется т0-гладкой, если для любой возрастающей сети (U^) открытых множеств из В0(Т) такой, что ихих=Т, имеет место равенство sup v(L^) =v(r). Каждая плотная конечная Б.м. (см. Плотная мера) в хаусдорфовом вполне регулярном пространстве единственным образом продолжается до Радона меры. Лит.: [1] Халмош П., Теория меры, пер. с англ., М., 1953, с. 218-23; [2] Вахания Н.Н., Тариеладзе В. И., Чоба- ня н С. А., Вероятностные распределения в банаховых пространствах, М., 1985. В. И. Тариеладзе. 72 БЭРА БЭРОВСКАЯ О-АЛГЕБРА (Baire a-algebra) - наименьшая а-алгебра подмножеств топологического пространства 7\ относительно к-рой измеримы все непрерывные функционалы /":Г->11?. Б. а-а. содержится в борелевской а-алгебре, причем совпадение имеет место для метризуемого пространства. Б. а-а. особенно важна в случае неметризуемого компактного пространства. Элементы Б. а-а. называются бэровскими множествами. Впрочем, иногда под бэровскими множествами понимают элементы а-колыда, порожденного Gg-множе- ствами. Лит.: 11] Вахания Н. Н., Тариеладзе В. И., Чоба- ня н С. А., Вероятностные распределения в банаховых пространствах, М., 1985; [2] Халмош П., Теория меры, пер. с англ., М., 1953. В. И. Тариеладзе. БЭРОВСКОЕ МНОЖЕСТВО (Baire set) - см. Бэровская о-алгебра. БЮРГЕРСА УРАВНЕНИЕ (Burgers equation) - см. Статистическая гидромеханика. БЮФФОНА ЗАДАЧА об игле (Buffon's needletossing problem) - первый пример подсчета геометрических вероятностей. Задача была сформулирована Ж. Бюффоном [1] в 1733 и опубликована вместе с решением в 1777; она состоит в следующем. Игла длины /<1 случайно бросается на плоскость, на к-рой начерчены прямые, параллельные оси Оу} на единичном расстоянии друг от друга. Требуется найти вероятность того, что игла пересечет одну из прямых решетки. Пусть ф - угол, составленный иглой с направлением прямых, х - расстояние от центра иглы до ближайшей прямой слева. Если предположить, что л:иф независимы и равномерно распределены на (0, 1) и (0, я) соответственно, то искомая вероятность равна р = 2//я. Это решение послужило основой для определения значения числа я путем многократных бросаний иглы (в сущности, первое вычисление методом Монте-Карло). В двойственной постановке (игла фиксирована, на плоскость случайно^ бросается решетка) Б. з. приводит к понятию меры прямых на плоскости, инвариантной относительно евклидовых движений, то есть к понятиям интегральной геометрии. См. также Бюффона-Сильвестра задача. Лит.: [1] Buffon G., Essai d'arithmetique morale. Supplement a «L'Histoire Naturelle», 1777, t. 4; [2] Кендал л М., Моран П., Геометрические вероятности, пер. с англ., М., 1972; [3] Комбинаторные принципы в стохастической геометрии. Сб. статей, Ер., 1980. Р. В. Амбарцумян. БЮФФОНА - СИЛЬВЕСТРА ЗАДАЧА (Buffon - Sylvester problem) - обобщение Бюффона задачи на случай т игл; рассмотрена Дж. Сильвестром [1]; состоит в следующем. На плоскости фиксированы т игл. Чему равны значения H^flli^i) и Н-( U^t^^' где ^i ~ множество прямых, пересекающих г-ю иглу, a \i - инвариантная относительно группы евклидовых движений мера в пространстве прямых? Результат, полученный Дж. Сильвестром, гласил: n(f|™.#|) и \i( \^т.В{) являются линейными функциями с целочисленными коэффициентами от всевозможных расстояний между концами игл. Алгоритм вычисления целочисленных коэффициентов в случае общего расположения любого числа игл был впервые предложен в [2]. Дальнейшие исследования показали, что Б.- С. з. стоит у начала обширной теории - комбинаторной интегральной геометрии (см. [3], а также Стохастическая геометрия). Лит.: [1] Sylvester J.J., «Acta Math.», 1890, v. 14, p. 185-205; [2] Ambartzumian R. V., «Z. Wahrsch. verw. Geb.», 1973, Bd 27, S. 53-74; [3] его же, Combinatorial integral geometry, N. Y.- [а. о ], 1982. P. В. Амбарцумян. БЮФФОНОВО КОЛЬЦО (Buffon ring) - см. Интеграль пая геометрия.
ВАЙТМАНА ФУНКЦИЯ (Wightman function) - см. Уайт- мана функция. ВАЛЬДА КРИТЕРИЙ (Wald test) - статистический критерий в задаче различения сложных статистических гипотез, предложенный А. Вальдом [1]. Пусть X(n) = (Xv ..., Хп) - повторная выборка из распределения Pw, зависящего от неизвестного параметра cogQ.с: №. В С1 выделяется подмножество Q0 = {со е Q: /К со) = 0}, определяемое вектор-функцией Л(со) = (Л^со), ..., Лг(со))', состоящей из r^s действительных функций. Рассматривается задача различения статистич. гипотез #0:соеЦ) и Нх :cogQ\Q0. В. к. основан на статистике пнып) [н'ы*п) г Чсо;)я ыпш*0 (*) и отвергает гипотезу Я0 при больших значениях статистики (*), здесь со* - оценка максимального правдоподобия параметра со, построенная по выборке X ; Е(со) - информационная матрица Фишера семейства Pw; матрица Я(со) размера sxr состоит из компонент d/*;(co)/dcOj, i= 1, 2, ..., s, j=\, 2, ..., г. Статистика (*) имеет асимптотическое при гипотезе Я0 (при п—><*>) центральное х -распределение с г степенями свободы, и, следовательно, В. к. является асимптотически подобным критерием. При рассмотрении сближающихся альтернатив статистика (*) имеет асимптотич. нецентральное х -распределение с г степенями свободы и явно выписываемым (см. [1]) параметром нецентральности. При выполнении весьма общих условий регулярности В. к. асимптотически эквивалентен отношения правдоподобия критерию, Рао критерию, статистическому критерию G(a) и, следовательно, обладает соответствующими асимптотически оптимальными свойствами. Лит.: [1] Wald A., «Trans. Amer. Math. Soc», 1943, v. 54, № 3, p. 426-82. а. В. Бернгитейн. ВАЛЬДА РЕДУКЦИЯ (Wald reduction) - см. Наименее благоприятное распределение. ВАЛЬДА РИСК (Wald risk) - см. Статистических решений теория. ВАЛЬДА ТОЖДЕСТВО (Wald's indentity) - тождество для математического ожидания суммы 5Т = Хх + ... + Хх случайного числа х независимых одинаково распределенных случайных величин Xv X2, ... с конечным средним w = EX1, согласно к-рому Е5Т = wEx, когда т - марковский момент [относительно потока а-алгебр событий ^/„ = а(Х1, ..., Хп)] и Ет<°°. Установлено А. Вальдом [1J в связи с приложениями в последовательном анализе (см. также [2]). Если т = 0 и Е|х1|а<оо при нек-ром 1 <а^2, то достаточным условием для справедливости В. т. Е5Т = 0 является условие Е(т^а)<оо (см. [3]). Если cr = D(X1)<<» и Ет<о°, то справедливо также (см. [1]) тождество Е(5Т- тт)2 = а2Ет. Аналогичные соотношения справедливы для мартингалов с дискретным и непрерывным параметром (см., напр., Моментные тождества для мартингалов). Лит.: [1] Вальд А., Последовательный анализ, пер. с англ., М., 1960; [2] Ширяев А. Н., Статистический последовательный анализ, 2 изд., М., 1976; [31 Роббинс Г., Сигмунд Д., Чао И., Теория оптимальных правил остановки, пер. с англ., М., 1977. А. А. Новиков. ВАЛЬДА - ХЭФДИНГА НЕРАВЕНСТВО (Wald - Hoeff ding inequality) - неравенство, указывающее нижнюю границу для среднего времени наблюдений для решающих правил в задаче последовательной проверки гипотез. Пусть Hi\p(x) = pi(x), i=l, ..., k,- простые гипотезы относительно плотности р(х) независимых одинаково распределенных случайных величин Xt, Х2, .., и пусть aif• = Pi{d=j}, i*j,- вероятности ошибок нек-рого решающего правила (т, d) (здесь и ниже индекс i указывает на то, что рассматриваются вероятностные распределения при выполнении гипотезы #,). Тогда Е,'х ^ ™х 7(Ь) ^"=* а,у 1п (а«'»/а/»)' где I(i, j) = Е{\п{р^Х^)/рЛХх)} - информационные числа Кульбака-Лейблера, и выражение вида 01п (О/с) считается равным нулю при любом с > 0. При k = 2 это неравенство доказано в [1] (в указанной форме оно приведено в [2]); ряд модификаций этого неравенства приведен в [3] и [4] (для больших k). Лит.: [11 Вальд А., Последовательный анализ, пер. с англ., М., I960; [21 Ширяев А. Н., Статистический последовательный анализ, 2 изд., М., 1976; [31 Hoeffding W., «Ann. Math. Stat.», 1960, v. 31, X> 2, p. 352-68; [41 Бурнашев М.В., «Изв. АН СССР. Сер. матем.», 1979, т. 43, Х> 6, с. 1203-26. А. А. Новиков. ВАН ДАНЦИГА КЛАСС (van Dantzig class) - совокупность характеристических функций, принадлежность к к-рой определяется требованиями: 1) /"является аналитической характеристической функцией; 2) отношение \/f(it), где te№ , является характеристической функцией. Примером функции из В. Д. к. может служить нормальная характеристич. функция. Проблема описания таких характеристич. функций неоднократно предлагалась Д. ван Данцигом в качестве одного из вопросов в конкурсном списке (см. [1J). Полное решение проблемы до настоящего времени неизвестно. Описание ряда свойств функций из В. Д. к. содержится в [2], [3]. Лит.: [11 Prize questions, Nieuw Archiel voor Wiskunde, ser. 3, 1958, v. 6, p. 28 (question X> 9); 1959, v. 7, p. 41 (question X> 5); 1960, v. 8, p. 42 (question X? 50); [2] Lukacs E., «Теория вероятн. и ее примени, 1968, т. 13, в. 1, с. 114-25; [3] Островский И. В., «Тр. Матем. ин-та АН СССР», 1970, т. 111, с. 195-207. В. М. Круглое. ВАН ДЕР ВАРДЕНА КРИТЕРИЙ (van der Waerden test) - ранговый критерий для проверки однородности двух скалярных выборок против их различия в положениях. Точнее, альтернативой к гипотезе об однородности двух генеральных совокупностей, представленных скалярными независимыми выборками, служит различие их положений при постоянстве формы (альтернатива сдвига). Система назначения рангов: выборки объединяются в одну совокупность и упорядочиваются по величине; рангом наблюдения служит его номер в этом ВАЛЬДА 73
упорядочении. (При наличии совпадающих наблюдений, так наз. связок, используют средние ранги.) Пусть гх, ..., гт - ранги одной из выборок (т,п - объемы выборок). Статистика В. д. В. к. равна w=5£i *'••>• где у( •) - функция квантилей стандартного нормального распределения. Если обе выборки извлечены из одной непрерывной генеральной совокупности, статистика W распределена свободно, то есть ее распределение зависит только от т, п. Для малых т, п ее таблицы см., напр., в [2]. Там же указана нормальная аппроксимация для больших т, п. В. д. В. к. рекомендуется применять, если предполагается, что наблюдения близко следуют нормальному закону. Лит.: [1] Van der Waerden В. L., «Proc. Kon. Ned. Akad. Wetensch. A>, 1952, v. 55, p. 453-58; [2] Большее Л. Н., Смирнов H. В., Таблицы математической статистики, 3 изд., М., 1983; [31 Ван дер Варден Б., Математическая статистика, пер. с нем., М., 1960; [4] Гаек Я., Шидак 3., Теория ранговых критериев, пер. с англ., М., 1971. ю.Н. Тюрин. ВАНДЕРМОНДА СЛУЧАЙНЫЙ ДЕТЕРМИНАНТ (Van dermonde random determinant) - см. Случайный детерминант. ВАН ХОВА ТЕОРЕМЫ (van Hove theorems) - класс теорем теории Гиббса случайных полей, дающих условие существования предела удельной свободной энергии при термодинамическом предельном переходе. Напр., один из вариантов В. X. т. для распределений Гиббса с дискретным аргументом состоит в следующем. О последовательности конечных объемов Л„ cz TL , я=1, 2, ..., говорят, что она обладает свойством ван Хова, если при любом т>0 lim |Л„|-1 \{teKnid\st(t, Лс)^т}|=0, где |л| - мощность множества Л и Лс - дополнение к Л. Пусть это свойство выполнено и потенциал гиббсовского поля U таков, что его норма \\и\\ конечна; тогда существует предел f= lim /д , где Л - удельная свободная энергия в объеме Л„, и этот и предел не зависит от выбора последовательности Л„. Лит.;[1] Рюэль Д., Статистическая механика. Строгие результаты, пер. с англ., М., 1971. р,л. Добрушин. ВАПНИКА - ЧЕРВОНЕНКИСА КЛАСС (Vapnik - Cher vonenkis class, VC class) - семейство 35 подмножеств произвольного множества Ж, удовлетворяющее условию тт{п: sup A^Crj, ..., хп)<2п}<°о, где Д^С*!, ..., хп) - число различных конечных подмножеств вида^, ..., хп}Г\В, Ве35(см. [1], [2]). Если 35есть В.-Ч. к., то последовательность эмпирич. мер допускает равномерную по 35 гауссовскую аппроксимацию (см. Сходимость эмпирических мер и эмпирических процессов, а также [2]). В терминах величины Aa(xv ..., хп) получены необходимые и достаточные условия равномерной сходимости эмпирич. распределений (см. [1]). Примерами В.-Ч. к. могут служить множества всех полупространств в IP , всех fc-мерных шаров, всех fc-мерных параллелепипедов с параллельными координатным плоскостям гранями и др. Лит.: [1] Вапник В. Н., Червоненкис А. Я., «Теория веро- ятн. и ее примени, 1971, т. 16, в. 2, с. 264-79; [2] Dudley R. М., «Ann. Probat», 1978, v. 6, >fe 6, p. 899-929. #. С. Борисов. 74 ВАН ДЕР ВАРДЕНА ВАРИАЦИИ КОЭФФИЦИЕНТ (variation coefficient) - безразмерная мера рассеяния распределения случайной величины. Существует несколько способов определения В. к. Наиболее часто в практике В. к. определяется по формуле V = o/»if где а - дисперсия, \i - математич. ожидание (при этом ц должно быть положительным). Иногда это выражение приводится к процентам, то есть V- 100 o/\L%. Такое определение В. к. было предложено К. Пирсоном (К. Pearson, 1895). Т. С. Лельчук. ВАРИАЦИОННЫЕ НЕРАВЕНСТВА в стохастическом управлении (variational inequalities in stochastic control) - аналитический аппарат для изучения задачи об оптимальной остановке, основанный на аналогии с вариационной задачей с препятствием (см. ниже). Обобщением В. н. являются квазивариационные неравенства, используемые в задачах с импульсным управлением. Идею В. н. удобно объяснить на примере винеровского процесса с поглощением {wt} в момент первого выхода из отрезка / = [0,1]. Пусть остановка в точке xel приносит доход R(x), функция R непрерывна, Ж0) = #(1) = 0. Цена задачи равна a(*) = sup ExR(wx), xel, (1) т где х - начальное состояние процесса, х - произвольный конечный марковский момент. Известно, что v является вогнутой мажорантой функции R (рис.) и что момент х* первого v+8v попадания процесса в множество Г = {х: v(x) - R(x)} оптимален [доставляет супремум в (1)]. Очевидно, что Lv^O, R-v^0mI, 1^ = 0 на/\Г, Д-а = 0наГ, (2) 1 d2 где L-- г- - производящий оператор процесса {wt} (при * dx формальном изложении Lv трактуется как обобщенная функция). Вместе с краевыми условиями v(0) = v(\) = 0 (3) формулы (2) однозначно определяют цену v и множество Г. Исключая Г, можно переписать соотношения (2) для функции v в виде Lv^O, R-v^0, Lv(R-v) = 0. (4) Пусть К - класс функций и на /, удовлетворяющих краевым условиям (3), неравенству R - v ^ 0 и нек-рым условиям гладкости и интегрируемости, и пусть цена veK. Пусть v варьируется так, что v + bveK. В точках, где Lv*0, во-первых, Lv<0, во-вторых, R = v и потому bv>0. Значит, Lvbv^O всюду и, тем более, скалярное произведение (Lv, bv)^Q. Таким образом, цена служит решением вариационной задачи (Lv, bv)^ 0 для всех v + bv е К, veK, (5) к-рая, при рассматриваемом классе К, называется в механике вариационным неравенством с препятствием R. Наоборот, из (5) можно получить (4), полагая bv отличным от нуля в малой окрестности произвольной точки xel и учитывая, что на /\Г допустимы вариации любого знака, а на Г - только положительные. Таким образом, цена (1) -
единственное решение В. н. (5). В теории стохастич. управления термин «В. н.» постепенно закрепился и за системой (4). В задаче об оптимальной остановке диффузионного процесса в В?" с производящим оператором параметром дисконтирования (обесценивания) р(х) и скоростью доходов г(х) до момента остановки В.н. сохраняют тот же вид (4) или (5), но с оператором Lv = Av-$v + r [если процесс задан не во всем пространстве, то к (4) присоединяются краевые условия, они же входят в определение класса К ]. Если А, (3, г зависят от управляющего параметра а, то L становится нелинейным оператором Белл- мана Lv = sup [Л^-р^+г]. а Пусть теперь вместо остановки можно в произвольные марковские моменты Tj <т2< ... применять импульсные управления Ь, вызывающие мгновенные скачки процесса с распределениями q (х, b, dy) и мгновенный доход R(x, b), после чего процесс возобновляется из точки у (обычно считают R<0). Соображения динамич. программирования подсказывают, что цена v соответствующей задачи оптимального управления должна наряду с краевыми условиями удовлетворять соотношениям Lv^O, Mv^O, LvMv = 0, (6) где оператор М определен формулой Mv(x) = sup и что, вообще говоря, оптимальное управление состоит в том, чтобы в состоянии х применять то управление а или Ь, к-рое доставляет в Lv или Mv супремум, равный 0. Систему (6) с краевыми условиями можно переписать в виде, подобном (5), с тем отличием, что место фиксированного класса К займет класс K(v), зависящий от v («препятствие» зависит от решения). Такие вариационные задачи, а вслед за ними и соотношения вида (6) получили название квазивариационных неравенств. В. н. и квазивариационные неравенства распространяются на процессы, у к-рых в промежутках между импульсными управлениями возможны случайные скачки пуассоновского типа, а также на неоднородные во времени модели, в к-рых цена v зависит от состояния х и от времени t. В первом случае в операторе L появляется дополнительный интегральный член, подобный присутствующему в операторе М, во втором - член —. ot Лит.: [1] Bensoussan A., Lions J.L., Applications des inequations variationnelles en contr6le stochastique, P., 1978; [2] Бенсу- сан А., Лионе Ж.-Л., Импульсное управление и квазивариационные неравенства, пер. с франц., М., 1987. А. А. Юшкевич. ВАРИАЦИОННЫЙ ПРИНЦИП в статистической механике (variational principle in statistical mechanics) - выдвинутый Дж. Гиббсом (см. [1]) принцип, согласно к-рому равновесное состояние изолированной материальной системы с фиксированной энергией характеризуется максимальным значением энтропии. Математич. формулировка этого принципа, наиболее простая в случае решетчатых моделей статистич. механики с конечным числом состояний (типов) частиц, содержится в соотношении %(Ф) = ill eM0:s(ii)-иф(11) = sup [5М-ифМ]}, veM0 где Д/0 - множество трансляционно инвариантных вероятностных мер на пространстве конфигураций, %(Ф) - совокупность трансляционно инвариантных распределений Гиббса с потенциалом Ф (равновесных состояний), s(|i) - удельная термодинамич. энтропия, отвечающая мере \1, С/Ф(ц) - средняя удельная энергия (см. [2], [3], [5]). Аналогичные утверждения справедливы и для других моделей (см. [6]-[8]). В. п. называют также равенство P(0) = sup[5(v)-(70(v)], veM0 где Р(Ф) - давление (совпадающее с точностью до знака с удельной свободной энергией, см. [4]). В неравновесной статистич. механике имеется В. п. минимума возникновения энтропии, сформулированный в [10], но он менее универсален, чем В. п. для равновесных состояний (в связи с этим см. [11]). Идеи и понятия, связанные с В. п., оказали влияние на эрго- дич. теорию (см. [5], [12]). Лит.: [1] Гиббс Дж.,0 равновесии гетерогенных веществ, в его кн.: Термодинамика. Статистическая механика, пер. с англ., М., 1982, с. 61-349; [2) Lanford О., Ruelle D., «Communs Math. Phys», 1969, v. 13, №3, p. 194-215; [3] Ruelle D., там же, 1967, v. 5, № 1, p. 324-29; [4J Рюэль Д., Статистическая механика. Строгие результаты, пер. с англ., М., 1971; [5] Ruelle D., Thermodinamic formalism, Reading (Mass.), 1978; [6] Preston Ch., Random fields, В., 1976; [7) Follmer H., «Z. Wahr. und verw. Geb.», 1973, Bd 26, № 3, S. 207-17; [8] Kunsch H., там же, 1981, Bd 58, № 1, S. 69-85; [9] Georgii H., Gibbs measures and phase transitions, В., 1988; [101 Пригожий И. Р., Введение в термодинамику необратимых процессов, пер. с англ., М., 1960; [111 Клейн М., в кн.: Термодинамика необратимых процессов, пер. с англ., М., 1962, с. 213-32; [121 Боуэн Р., Методы символической динамики, пер. с англ., М., 1979. Б.М.Гуревич. ВАРИАЦИОННЫЙ РЯД (set of order statistics) - вектор {X(-)}"=1, состоящий из упорядоченных по возрастанию Х(1) ^Х(2) ^ ••• ^Х(п) элементов выборки {Х-}"=1. В. р. используется для построения эмпирич. функции распределения. Если Х{, \^i^n, независимы и имеют общую плотность распределения f, то совместная плотность распределения элементов В. р. <?(*, *„)="! rE.,f <*,•>. если х^ ...^хп, и равна нулю в противном случае. Для однородной независимой выборки В. р. не зависит от вектора рангов. Лит.: [11 Д эй вид Г., Порядковые статистики, пер. с англ., М., 1979. В. А. Егоров, В. Б. Невзоров. ВАРИАЦИЯ меры (variation of a measure) - положительная мера, ассоциированная с данной знакопеременной или комплексной мерой. А именно, пусть <р - числовая функция множества, определенная на алгебре ^/подмножеств множества £1. Вариацией (или пол ной вариацией) называется функция |<р|, определяемая на Е е Л равенством M(E) = supX;'=t |<р(Е;)|, где верхняя грань берется по всем конечным разбиениям {Ех, ..., Еп}аЛ, neN, множества Е. Говорят, что <р имеет конечную (или ограниченную) В., если |ф|(Ш<0°. Если ф аддитивна, то |ф|, как функция множества, также аддитивна. Если ф:^/->С - аддитивная ограниченная функция, то она имеет конечную В. Если ,*/ - а-алгебра и ф:.«/—> II? - счетно-аддитивная функция, то ф имеет конечную В. и |ф| счетно-аддитивна. Если (£1, Л, \i) - пространство с (положительной) мерой и /":£}->С- п-интегрируемая функция, то функция множества <V(E) = \Efd\L, Ee^, счетно-аддитивна, имеет конечную В. и |(p|(£)=j£|/-|rfn, £e.^. Понятие В. определяется и для векторных мер. Лит.: [11 Данфорд Н., Шварц Дж., Линейные операторы, пер. с англ., ч. 1, М., 1962, с. 111-13, 129, 142-48. С. А. Чобанян. ВАРИАЦИЯ 75
ВАРШАМОВА - ГИЛЬБЕРТА ГРАНИЦА (Varshamov- Hilbert boundary) - см. Код. ВАТАНАБЕ ТЕОРЕМА (Watanabe theorem) - см. Предельные теоремы для случайных процессов; мартингальные методы. ВЕДУЩАЯ ФУНКЦИЯ (leading function) - см. Пуассонов- ский процесс, Точечный процесс. ВЕЙБУЛЛА РАСПРЕДЕЛЕНИЕ (Weibull distribution) - непрерывное, сосредоточенное на (0, <*>) распределение вероятностей с плотностью (см. рис.) /К*) = а(Ыа-1бГ(Х< .5 1.0 1.5 2.0 2.5 Плотности распределения Вейбулла при Х= 1 и: (1)а = 0,5; (2) а=1; (3)а = 2; (4)а = 5. Функция распределения F(x) = \-e-(Xx)a, где Х>0, а>0 - параметры. При а=1 В. р. совпадает с показательным распределением, при а = 2 - с Рэлея распределением. Все моменты В. р. конечны, математич. ожидание и дисперсия равны соответственно Щ1 + 1/а) и Х.2(Г(1 +2/сх)-Г2(1 + 1/сх)) при а^ 1. В. р. унимодально, мода равна \(а- \)^а. В. р. находит применение в статистич. теории надежности для описания распределений времени безотказной работы. Лит.: [1] Weibull W., A statistical theory of the strength of materials, Stockh., 1939; [21 Гнеденко Б. В., Беляев Ю. К., Соловьев А. Д., Математические методы в теории надежности, М., 1965; [3] Барлоу Р., Прошан Ф., Статистическая теория надежности и испытания на безотказность, пер. с англ., М., 1984. В. Г. Ушаков. ВЕЙЛЯ ФОРМУЛА (Weyl formula) - см. Дифференциальный оператор со случайными коэффициентами; спектральная теория. ВЕКТОРНАЯ МЕРА (vector measure) - счетно-аддитивное отображение со значениями в банаховом пространстве, определенное на нек-рой а-алгебре. Понятие В. м. определяется и в следующей, более общей ситуации. Пусть Q - непустое множество, Л- нек-рая алгебра его подмножеств, В - локально выпуклое пространство. Отображение <р :**/-># называется векторной мерой (или счетно-аддитивной векторной мерой), если для каждой последовательности Ап попарно непересекающихся множеств из .*/, объединение к-рых принадлежит .*/, ряд ^ фС4„) сходится в В и Ч>(иЛп)=Х<рС4„>. 76 ВЕКТОРНАЯ Ниже предполагается, что В - банахово пространство. Если Л- а-алгебра и <р:.^->£- В. м., то множество значений {ф(Л):Ле^/} - относительно компактное в слабой топологии подмножество В (теорема Бартла-Данфорда- Шварца). Для В. м. имеет место следующая теорема о продолжении. Если ^ - алгебра, .</- а-алгебра, порожденная алгеброй .Ц), и ф0:.^->£ - В. м., для к-рой {ф0(Л):ЛеЦ)} слабо относительно компактно в В, то ф0 единственным образом продолжается до В. м. ф:.</->В; если В не содержит подпространства, изоморфного с0, то каждая ограниченная В. м. ф0:Ц)-># продолжается до В. м. у:Л^>В. Вариация |ф| В. м. ф:^/->В определяется так же, как и вариация скалярной меры, с той лишь разницей, что модуль заменяется нормой. Говорят, что В. м. ф имеет конечную, или ограниченную, вариацию, если |<р|Ф)<°о. Если В бесконечномерно и Л - а-алгебра, то не каждая В. м. ф имеет конечную вариацию. Полувариация ||ф|| В. м. ф:.</->В на множестве Ее./ определяется равенством |MKE) = sup|£"P*<P<£*)| где верхняя грань берется по всем п, конечным разбиениям {Ev ..., Еп} а Л множества Е и pt, ..., р„ с max |p,| ^1. Мера ф имеет конечную полувариацию (то есть ||ф||Ш) <<») тогда и только тогда, когда область значений ф ограничена в Б. В частности, В. м., определенная на а-алгебре, имеет конечную полувариацию. Полувариация, в отличие от вариации, не является аддитивной функцией. Если (£1, Л, д) - пространство с (конечной) мерой и /":£}-># - интегрируемое по Петтису отображение, то функция множества (p(£)=J£/-rfH представляет собой В. м., для к-рой вариация а-конечна; если /"измеримо по Бохнеру, то ф имеет конечную вариацию в том и только в том случае, когда |0|Да>)|«/цЫ<~. Важным примером В. м. служит операторная (операторноз- начная) мера. Пусть Вх, В2- банаховы пространства, L(BV B2) - пространство непрерывных линейных операторов. Отображение у:Л-+ L(BV B2) называется операторной мерой, если ф# является В. м. для каждого xeBv Интегралы по операторным мерам играют важную роль н спектральной теории операторов и в теории стационарных в широком смысле случайных процессов. Лит.: [1] Данфорд Н., Шварц Дж., Линейные операторы, пер. с англ., т. 1, М., 1962, с. 345-57; [2] Diestel J., Uhl J., Vector measures, Providence, 1977; [3) Kluvanek I., Knowles G., Vector measures and control systems, Amst, 1975; [4] Бахания H. H., Тариеладзе В. И., Чобанян С. А., Вероятностные распределения в банаховых пространствах, М., 1985. С. А. Чобанян. ВЕКТОРНОЕ ОДНОРОДНОЕ И ИЗОТРОПНОЕ СЛУЧАЙНОЕ ПОЛЕ (vector-valued homogeneous isotropic random field) - см. Однородное и изотропное случайное поле. ВЕКТОРНЫЙ КРИТЕРИЙ (vector test/criterium) план и рования эксперимента- набор скалярных характери стик плана, подлежащих минимизации (напр., смещение и разброс значений неадекватной оценки функции регрессии) В случае невозможности одновременной минимизации либо вводят приоритет критериев, либо используют понятие опти мальных по Парето планов (см. [1], [2]).
Лит.: [1] Математическая теория планирования эксперимента, М., 1983; [2] Соболь И.М., Статников Р.Б., Выбор оптимальных параметров в задачах со многими критериями, М., 1981. М. Б. Малютов. ВЕКТОРНЫЙ СЛУЧАЙНЫЙ ПРОЦЕСС (vector random process) - см. Случайный процесс. ВЕКТОРОВ КОНФИГУРАЦИЯ (vector configuration) - система векторов, в к-рой их длина соответствует элементам главной диагонали, а углы - остальным элементам корреляционной матрицы. Матрица корреляции с известными элементами главной диагонали определяет единственную, строго определенную, соответствующую ей В. к. В этом смысле можно считать, что корреляционная матрица определяет скалярные произведения всех связанных с нею пар векторов. Длина каждого вектора, соответствующего определенной переменной,'равна положительному квадратному корню из величины, характеризующей общность этой переменной. Представление матрицы как В. к. не ведет к потере информации, к-рую несет в себе матрица или В. к. Лит.:[\] Окунь Я., Факторный анализ, пер. с пол ьск, М., 1974. И. В. Степахно. ВЕНТЦЕЛЯ УСЛОВИЕ (Wentzell condition) - см. Марковский процесс, граничное условие. ВЕРОЯТНОЕ ОТКЛОНЕНИЕ (semi-interquartile range/ probable error), срединное отклонение, - характеристика рассеяния распределения вероятностей. Для непрерывно распределенной симметричной случайной величины X В. о. В определяется условием P{|X-m|<tf} = P{|X-m|>tf} = l/2, (•) где т - медиана X (совпадающая в этом случае с математич. ожиданием, если оно существует). Для нормального распределения имеется простая связь В. о. со стандартной мерой рассеяния - квадратичным отклонением а: Ф(Я/а) = 3/4, где Ф(х) - функция нормального (0,1) распределения. Приближенно В = 0,674496 а. А. В. Прохоров. ВЕРОЯТНОСТЕЙ ТЕОРИЯ (probability theory) - математическая наука, изучающая математические модели случайных явлений. В. т. позволяет по вероятностям одних случайных событий находить вероятности других случайных событий, связанных каким-либо образом с первыми. Это изучение основано на том, что массовые случайные явления в стационарных условиях обладают закономерностью, называемой статистической устойчивостью частот, к-рая заключается в следующем. Пусть случайное событие А может произойти или не произойти при осуществлении нек-рых условий S. Если условия S осуществляются N раз, то говорят, что произведено N испытаний. Пусть N(A) - число появлений события А при N испытаниях; это число N(A) называется частотой события.Л в N испытаниях, а отношение N(A)/N - относительной частотой А. При больших N относительная частота N(A)/N обычно колеблется около нек-рого числа, называемого вероятностью события А и обозначаемого РС4). Напр., при N бросаниях правильной монеты «герб» появляется примерно в половине случаев, поэтому вероятность появления «герба» можно считать равной 1/2. Статистика рождений показывает, что мальчиков рождается больше, чем девочек, причем наблюдаемая доля рождений мальчиков равна 0,51-0,52; следовательно, вероятность рождения мальчика больше 1/2. В каждом испытании можно среди возможных случайных событий выделить два крайних события: достоверное событие Q, к-рое происходит при каждом испытании, и невозможное событие 0, к-рое не происходит ни при одном испытании. Исходя из данных событий Аи ..., Аг, можно определить два новых события: их объединение и совмещение. Событие В называется объединением (или суммой) событий А\, ..., Аг, если оно имеет вид: «наступает или Ах, или А2, ..., или Лг». Событие С называется совмещением (или произведением, пересечением) событий Ах, ..., Аг, если оно имеет вид: «наступает иЛ1( и л2, ..., и Лг». Сумму событий обозначают в=л,ил2и...илг=и;1л1, а произведение - с=л1пл2п...плг= П;=И« Иногда пишут в=л1 + ...+лг=Х1И< (особенно, когда Ах, ..., Аг попарно несовместны, то есть Ах;Г\А • = 0 при i */) и С = АХ ...Аг. В простейшей урновой схеме можно представлять, что в нек-рой урне содержатся шары, к-рые обозначают элементами со множества Q. Из урны с помощью нек-рого случайного механизма извлекается один шар со. Если сое Л, где А - какое-то фиксированное подмножество Q, то говорят, что произошло событие Л. Таким образом, все множество Q соответствует достоверному событию (всегда (oeQ), а пустое множество 0 - невозможному событию (так как всегда СО£0). В математич. моделях, изучаемых в В. т., вероятность Р(Л) вводится аксиоматически. Предполагается, что события А - это класс подмножеств нек-рого пространства элементарных событий Q = {co}, образующих а-алгебру d (то есть этот класс Л содержит невозможное 0 и достоверное О. события, а также инвариантен относительно образования разностей двух событий и объединения и совмещения событий в конечном или счетном числе; см. Алгебра событий). Вероятность Р определена на всех множествах Ле,/и удовлетворяет следующим трем аксиомам: А1. Р(Л) ^ 0 (положительность Р), А2. Р(Ш = 1 (нормированность Р), А3- Р(ХГ=1 Л') = ХГ=1 PU,)' еСшАгПАГ0 при i*j (счетная аддитивность Р). Тройка Ш, ..*/, Р), в к-рой Р удовлетворяет аксиомам А1, А2, A3, называется вероятностным пространством. Эта аксиоматика была предложена в 1933 А. Н. Колмогоровым и в настоящее время является наиболее распространенной логич. схемой построения В. т. Свойствам положительности, нормированности и конечной аддитивности удовлетворяют относительные частоты N(A)/N реальных случайных событий, поэтому естественно потребовать, чтобы этим же свойствам удовлетворяли вероятности Р(Л), к к-рым близки относительные частоты. Требование счетной аддитивности вероятности Р необходимо для создания полноценной математич. теории. При построении вероятностного пространства вероятность Р может задаваться разными способами. Напр., если Q - конечное пространство, то имеют дело с конечным вероятностным пространством. В этом случае вероятность Р можно задать с помощью элементарных вероятностей /?(со), со е Q, удовлетворяющих условиям Пусть Л— класс всех подмножеств Q; значение вероятности Р на событии А определяется суммой Р">-1„.лР<»>- (1) ВЕРОЯТНОСТЕЙ 77
Элементарные вероятности можно взять из статистики частот соответствующих реальных случайных событий (как это делается в демографии, напр. при составлении таблиц смертности). Довольно часто элементарные события со удовлетворяют какому-то условию симметрии. В этом случае все /?(со) считают равными друг другу и получают в качестве частного случая (1) классическое определение вероятности: Р(л)=|л|/|я|, где \в\ - число элементов множества В. Другой важный способ задания вероятности Р состоит в следующем. Пусть £1 - нек-рое ограниченное множество евклидова пространства, имеющее объем V(Q) (соответственно длину или площадь в одномерном и двумерном случаях). Пусть со - случайно взятая в £1 точка; полагая, что вероятность попасть точке со в множество Л cz Q пропорциональна его объему V(A), получают геометрическое определение вероятности: P(A)=V(A)/V(Q). Определенная аксиомами А1 - A3 вероятность Р является нормированной мерой на а-алгебре Л подмножеств Q. В. т. может, таким образом, с формальной точки зрения рассматриваться как часть теории меры. Однако основные проблемы В. т. и теории меры различны. Основным специфическим для В. т. является понятие независимости. Условную вероятность Р(А\В) события А при условии В определяют формулой (при Р(#)>0) Р(Л|Я) = Р(ЛПЯ)/Р(Я), (2) что, как можно показать, находится в полном соответствии со свойствами частот. Событие А называется независимым (или вероятностно независимы м) от В, если Р(Л|Я) = Р(Л) (3) (см. Независимость). Из (2) и (3) можно получить симметричное условие независимости событий А и В: Р(ЛПЯ) = Р(Л)Р(Я). (4) Равенство (4) в В. т. используют чаще всего не для проверки независимости событий Л и В, а для вычисления вероятности Р(АГ\В) по вероятностям Р(Л) и Р(В) в том случае, когда Л и В независимы. При постулировании независимости А и В обычно используют следующее свойство причинно не зависящих друг от друга реальных случайных событий А и В: при N испытаниях их частоты удовлетворяют приближенному равенству N(AC)B)/N * N(A)/NN(B)/N, если N велико. Поэтому в вероятностной математич. модели соответствующие события А и В можно считать вероятностно независимыми. В более общем случае а-алгебры событий ^, ..., Лг называются независимыми; если для любых Л, е ^ Р(Л1П...ПЛГ) = Р(Л1)Р(Л2)...Р(ЛГ); соответствующие события Л t, ..., Аг также называются независимыми. Понятие независимости и условные вероятности оказываются особенно полезными при рассмотрении составных испытаний. В простых случаях испытание- это осуществление нек-рых условий, при к-рых происходит одно и только одно из событий {Л,}, называемых исходами испытания. В вероятностном пространстве Ш, Л, Р) испытанию соответствует 78 ВЕРОЯТНОСТЕЙ разбиение £1 = V. Л,, где Л, попарно несовместны. Говорят, что испытание Т составлено из испытаний Ти Т2, ..., 7V-1» ^я» если каждый исход испытания Т есть совмещение нек-рых исходов Л,, Bj, ..., Xk, У/ соответствующих испытаний Тх, Т2, .., r„_t, Тп. Из тех или иных соображений часто бывают известны вероятности Р(Л,), РЩЛ,), ..., Р(У/|ЛгПВ;П ... ПХ*). (5) По вероятностям (5) с помощью (2) могут быть определены вероятности Р(£) для любого события вида E = Aif)Bjn...nXkf)Yl. Наиболее значительными с практич. точки зрения представляются два типа составных испытаний: а) составляющие испытания независимы, то есть вероятности (5) равны безусловным вероятностям Р(Л,), Р(#,•), ..., Р(Х^), Р(У/); б) на вероятности исходов какого-либо испытания влияют результаты лишь непосредственно предшествующего испытания, то есть вероятности (5) равны соответственно Р(Л,), Р(#;|Л;), ..., P(Yt\Xk). В этом случае говорят об испытаниях, связанных в Маркова цепь. Вероятности всех событий, связанных с составным испытанием, вполне определяются здесь начальными вероятностями Р(Л,) и так наз. переходными вероятностями Р(Я,|Л;), ..., Р(У/|Х^). Очень часто исходам испытаний соответствуют какие-либо числовые значения; в этом случае говорят о случайных величинах. Если задано вероятностное пространство Ш, Л, Р), то случайная величина X - это измеримая функция Х(со) от элементарного события со, то есть такая функция, для к-рой при любом борелевском множестве #qIR множество {со:Х(со) еВ} = {Xе В} является событием. Законом распределения P*(#) называется вероятность события {ХеВ}, рассматриваемая как функция В. Закон распределения Рх(#) всегда можно задать с помощью распределения функции Fx(x) = Р{Х < х}. Важный класс распределений составляют абсолютно непре рывные распределения, задаваемые плотностью вероятно сти рх(х) так, что для любого борелевского множества В на прямой Другой класс распределений - дискретные распределения: они задаются конечным или счетным числом точек xk e IR1 и вероятностями P{X = xk} так, что Примерами абсолютно непрерывных распределений могут служить возникающее в предельных теоремах нормальное распределение, задаваемое плотностью р (x) = -L-e-(x-a)2/2°2, (6) ГХ V27CG и показательное распределение с плотностью рх(х) = Хе~Ъс, х^О; рх(х) = 0, х<0. Примером дискретного распределения служит биномиальное распределение P{X=k} = C*p\\-p)n-k, k = 0, l, ...,n, (7) где X - число положительных исходов в п независимых испытаниях Бернулли, 0^р^\ - вероятность положительного исхода при одном испытании. Часто вместо полного задания распределения вероятностей случайной величины предпочитают пользоваться небольшим количеством числовых характеристик. Из них наиболее употребительны математическое ожидание и дисперсия (см. также Момент, Семиинвариант).
При одновременном изучении нескольких случайных величин вводится понятие совместного распределения, к-рое для случайных величин Xj, ..., Хп задается вероятностями Рх,...х„«*1 Х„)бВ}, где В - борелевское множество из IP". Случайные величины называются независимыми, если при любом выборе боре- левских множеств В{ е IP С помощью совместного распределения случайных величин можно вычислить вероятность любого события, определяемого этими величинами, напр. события а<Х^+Х2+...+Хп<Ь. Одним из начальных примеров предельных теорем в В. т. может служить замена значения вероятности (7) в биномиальном распределении приближенным при больших я значением yl2nnp(\-p) где х = (т- пр)/^1пр(\ - р). При формальном изложении В. т. предельные теоремы появляются в виде своего рода надстройки над ее элементарными разделами, в к-рых все задачи имеют конечный, чисто арифметич. характер. Однако познавательная ценность В. т. раскрывается только предельными теоремами. Так, Бернулли теорема показывает, что при независимых испытаниях частота появления какого-либо события, как правило, мало отклоняется от его вероятности, а Муавра - Лапласа теорема указывает вероятности тех или иных отклонений. Аналогично смысл таких характеристик случайной величины, как ее математич. ожидание и дисперсия, разъясняется законом больших чисел и центральной предельной теоремой (см. Больших чисел закон, Больших чисел усиленный закон, Предельные теоремы, Центральная предельная теорема). Пусть Xt,X2, ...,Xn, ... (8) - независимые случайные величины, имеющие одно и то же распределение вероятностей с математич. ожиданием EXk = a и дисперсией DXk = а ,и5„- среднее арифметическое первых п величин из последовательности (8): 5„ = (Х1 + Х2+...+Х„)/п. В соответствии с законом больших чисел, каково бы ни было е>0, вероятность неравенства |5я-д|^е имеет при я-><» пределом 1 и, таким образом, Sn, как правило, мало отличается от а. Центральная предельная теорема уточняет этот результат, показывая, что отклонения Sn от а приближенно подчинены нормальному распределению со средним 0 и дисперсией а /п. Таким образом, для вычисления (в первом приближении) вероятностей тех или иных отклонений Sn от а при больших п нет надобности знать во всех деталях распределение величин Хп\ достаточно знать лишь их дисперсию. При необходимости увеличить точность приближения надо привлекать моменты более высокого порядка. Эти утверждения могут быть с надлежащими изменениями распространены на разно распределенные слагаемые (см. Ляпунова теорема) и на случайные векторы (из конечномерных и нек-рых бесконечномерных векторных пространств). Условия независимости могут быть заменены условиями «слабой» (в том или ином смысле) зависимости Хп. Известны также предельные теоремы для распределений на группах, для распределений значений арифметич. функций и т. д. В приложениях (в частности, в математич. статистике и статистич. физике) возникает необходимость аппроксимировать малые вероятности (событий типа |5я-в| >е) с большой относительной точностью. Это приводит к значительным поправкам в аппроксимации нормальным законом (см. Больших уклонений вероятности). В 20-х гг. 20 в. было обнаружено, что даже в схеме последовательности одинаково распределенных и независимых случайных величин могут вполне естественным образом возникать предельные распределения, отличные от нормального. Так, напр., если Xt - время до первого возвращения нек-рой случайно меняющейся системы в исходное состояние, Х2 - время между первым и вторым возвращениями и т. д., то при очень общих условиях распределение суммы Xt + Х2 + ... + Хп (то есть времени до я-го возвращения) после умножения на п~ 'а (а - постоянная, меньшая 1) сходится к нек-рому предельному распределению. Таким образом, время до я-го возвращения растет, грубо говоря, как я 'а, то есть быстрее я (в случае приложимости закона больших чисел оно было бы порядка я). Это обстоятельство видно уже в примере Бернул- ли блуждания (где проявляется и другой парадоксальный закон - арксинуса закон). Основным методом доказательства предельных теорем является метод характеристических функций (и близкие к нему методы преобразований Лапласа и производящих функций). В ряде случаев необходимо обращение к методам теории функций комплексного переменного. Механизм возникновения большинства предельных закономерностей может быть до конца понят лишь в связи с теорией случайных процессов. В ряде физич. и химич. исследований в сер. 20 в. возникла потребность наряду с одномерными и многомерными случайными величинами рассматривать случайные процессы, то есть процессы, для к-рых определена вероятность того или иного течения. Примером случайного процесса может служить координата частицы, совершающей броуновское движение. В В. т. случайный процесс рассматривают обычно как однопарамет- рич. семейство случайных величин X(t). В подавляющем числе приложений параметр t является временем, но этим параметром может быть, напр., произвольное независимое переменное, и тогда обычно говорят о случайной функции (если t - точка пространства, то говорят о случайном поле). В том случае, когда параметр t пробегает целочисленные значения, случайная функция называется случайной последовательностью (или временным рядом). Подобно тому как случайная величина характеризуется законом распределения, случайный процесс может быть характеризован так наз. к о - нечномерными распределениями- совокупностью совместных законов распределения для Х(^), X(t2), ..., X(tn), где tx, t2, ..., tn- всевозможные моменты времени при любом я. Наиболее интересные конкретные результаты теории случайных процессов получены в двух специальных направлениях - марковские процессы и стационарные случайные процессы, наряду с ними сильно повысился интерес к мартингалам. Исторически первыми изучались марковские процессы. Случайный процесс X(t) называется марковским, если для любых двух моментов времени tQ и ^ (где tQ < tx) условное распределение вероятностей Х(^) при условии, что заданы все значения Х(^) при t^tQ, зависит только от X(tQ) (в силу этого марковские случайные процессы иногда называются процессами без последействия). Марковские процессы являются естественным обобщением детерминированных процессов, рассматриваемых в классич. физике. В детерминированных процессах состояние системы в момент t0 одно- ВЕРОЯТНОСТЕЙ 79
значно определяет ход процесса в будущем; в марковских процессах состояние системы в момент времени t0 однозначно определяет распределение вероятностей хода процесса при t>tQ, причем никакие сведения о ходе процесса до момента времени tQ не изменяют это распределение. Подобно тому как изучение непрерывных детерминированных процессов сводится к дифференциальным уравнениям относительно функций, описывающих состояние системы, изучение непрерывных марковских процессов сводится к дифференциальным или интегро-дифференциальным уравнениям относительно распределения вероятностей процесса. Вторым крупным направлением в теории случайных процессов является теория стационарных случайных процессов. Стационарность процесса, то есть неизменность во времени его вероятностных закономерностей, налагает сильное ограничение на процесс и позволяет из одного этого допущения извлечь ряд важных следствий. Для большей части теории достаточно предположения о стационарности в широком смысле, то есть требования независимости от t математич. ожиданий ЕХ(0 и EX(t)X(t + x). Из этого предположения вытекает возможность так наз. спектрального разложения: Х(0=Г eitXdZ(X), J —оо где ZiX) - случайная функция с некоррелированными приращениями. Для стационарных процессов развиты способы наилучшей (в среднем квадратичном) линейной интерполяции, экстраполяции и фильтрации. В последнее время выделен довольно широкий класс процессов, для к-рых эффективно решаются задачи наилучшей нелинейной фильтрации, интерполяции и экстраполяции (см. Случайный процесс; прогнозирование, Случайный процесс; фильтрация). Существенную часть соответствующего анали- тич. аппарата составляют стохастические дифференциальные уравнения, стохастические интегралы и мартингалы. Отличительное свойство мартингала X(t) состоит в том, что условное математич. ожидание X(t) при условии, что известно поведение процесса до момента s<t, равно X(s). Теория случайных процессов тесно связана с классич. проблематикой предельных теорем для сумм случайных величин. Те законы распределения, к-рые выступают при изучении сумм случайных величин как предельные, в теории случайных процессов являются точными законами распределения соответствующих характеристик. Этот факт позволяет доказывать многие предельные теоремы с помощью соответствующих случайных процессов. В заключение следует добавить, что логически безупречное определение понятий, связанных со случайными процессами в рамках указанной выше аксиоматики, создавало и создает много трудностей теоретико-множественного характера (связанных, напр., с определением вероятности непрерывности или дифференцируемости и т. п. свойств случайных процессов; см. Сепарабельный процесс). Поэтому, в частности, в монографиях по теории случайных процессов около половины объема отводится анализу развития теоретико-множественных конструкций. Историческая справка. В. т. возникла в сер. 17 в. Первые работы по В. т., принадлежащие Б. Паскалю (В. Pascal), П. Ферма (P. Fermat) и X. Гюйгенсу (Ch. Huygens), появились в связи с подсчетом различных вероятностей в азартных играх. Большого успеха достиг Я. Бернулли (J. Bernoulli), установивший закон больших чисел для схемы независимых испытаний с двумя исходами (опубл. в 1713). Следующий (второй) период истории В. т. (18 в. и нач. 19 в.) связан с именами А. Муавра (A. Moivre), П. Лапласа вО ВЕРОЯТНОСТЕЙ (P. Laplace), К. Гаусса (С. GauB) и С. Пуассона (S. Poisson). Это период, когда В. т. уже находит ряд весьма актуальных применений в естествознании и технике (главным образом в теории ошибок наблюдений, развившейся в связи с потребностями геодезии и астрономии, и в теории стрельбы). К этому периоду относится доказательство первых предельных теорем, носящих теперь названия теорем Лапласа (1812) и Пуассона (1837); А. Лежандром (A. Legendre, 1806) и К. Гауссом (1808) в это же время был разработан метод наименьших квадратов. Третий период истории В. т. (2-я пол. 19 в.) связан в основном с именами П.Л. Чебышева, A.M. Ляпунова и А. А. Маркова. В. т. развивалась в России и раньше [в 18 в. ряд трудов по В. т. был написан работавшими в России Л. Эйлером (L. Euler), H. Бернулли (N. Bernoulli) и Д. Бернулли (D. Bernoulli); во второй период развития В. т. следует отметить работы М. В. Остроградского по вопросам В. т., связанным с математич. статистикой, и В. Я. Буняковского по применениям В. т. к страховому делу, статистике и демографии]. Со 2-й пол. 19 в. исследования по В. т. в России занимают ведущее место в мире. П. Л. Чебышев и его ученики А. М. Ляпунов и А. А. Марков поставили и решили ряд общих задач в В. т., обобщающих теоремы Бернулли и Лапласа. П. Л. Чебышев чрезвычайно просто доказал (1867) закон больших чисел при весьма общих предположениях. Он же впервые сформулировал (1887) центральную предельную теорему для сумм независимых случайных величин и указал один из методов ее доказательства. Другим методом А. М. Ляпунов получил (1901) близкое к окончательному решение этого вопроса. А. А. Марков впервые рассмотрел (1907) один случай зависимых испытаний, к-рый впоследствии получил название цепей Маркова. В Зап. Европе во 2-й пол. 19 в. получили большое развитие работы по математич. статистике [в Бельгии - А. Кетле (A. Quetelet), в Англии - Ф. Гальтон (F. Galton)] и стати- стич. физике [в Австрии - Л. Больцман (L. Boltzmann)], к-рые наряду с основными теоретич. работами П. Л. Чебышева, А. М. Ляпунова и А. А. Маркова создали основу для существенного расширения проблематики В. т. в четвертом (современном) периоде ее развития. Этот период истории В. т. характеризуется чрезвычайным расширением круга ее применений, созданием нескольких систем безукоризненно строгого математич. обоснования В. т., новых мощных методов, требующих иногда применения (помимо классич. анализа) средств теории множеств, теории функций действительного переменного и функционального анализа. В этот период при плодотворной работе по В. т. за рубежом [во Франции - Э. Борель (Е. Borel), П. Леви (P. Levy), М. Фреше (М. Frechet), в Германии - Р. Мизес (R. Mises), в США - Н. Винер (N. Wiener), В. Феллер (W. Feller), Дж. Дуб (J. Doob), в Швеции - Г. Крамер (Н. Cramer)] отечественная наука продолжает занимать значительное, а в ряде направлений и ведущее положение. В нашей стране новый период развития В. т. открывается деятельностью С. Н. Бернштейна, значительно обобщившего классич. предельные теоремы Чебышева, Ляпунова и Маркова и широко поставившего работу по применениям В. т. к естествознанию. А. Я. Хинчин и А. Н. Колмогоров начали с применения к вопросам В. т. методов теории функций действительного переменного. Позднее (в 30-х гг.) они (и Е. Е. Слуцкий) заложили основы теории случайных процессов. В. И. Романовский, Н. В. Смирнов, Ю. В. Линник и Л. Н. Большее поставили на большую высоту работу по применениям В. т. к математич. статистике. Лит.: История теории вероятностей. История математики, т. 2-3, М., 1970-72; Математика XIX века. Математическая логика. Алгебра. Теория чисел. Теория вероятностей, М., 1978.
Классики науки. В е г п о и 11 i J., Ars conjectandi, opus posthumum, Basileae, 1713 (в рус. пер.- Бернулли Я., О законе больших чисел, М., 1986); Moivre A. de, Doctrine of Chances, 3 ed., L., 1756 (переизд.- N. Y., 1967); Laplace [P. S.], Theorie analytique des probabilites, 3 ed., P., 1886; Чебышев П.Л., Поли. собр. соч., т. 2-3, М.-Л., 1947-48; Liapounoff A., Nouvelle forme du theoreme sur la limite de probabilite, СПБ, 1901; Марков А. А., Исчисление вероятностей, 4 изд., М., 1924; Бернштейн С. Н., Теория вероятностей, 4 изд., М.-Л., 1946. Учебники и справочники. Гнеденко Б. В., Курс теории вероятностей, 6 изд., М., 1988; Боровков А. А., Теория вероятностей, 2 изд., М., 1986; Розанов Ю. А., Теория вероятностей, случайные процессы и математическая статистика, М., 1985; Севастьянов Б. А., Курс теории вероятностей и математической статистики, М., 1982; Ширяев А. Н., Вероятность, 2 изд., М., 1989; Прохоров Ю. В., Розанов Ю. А., Теория вероятностей, 3 изд., М , 1987. Монографии. Колмогоров А. Н., Основные понятия теории вероятностей, 2 изд., М., 1974; Лоэв М., Теория вероятностей, пер. с англ., М., 1962; Феллер В., Введение в теорию вероятностей и ее приложения, пер. с англ., т. 1-2, М., 1984. Ю. В. Прохоров, Б. А. Севастьянов. ВЕРОЯТНОСТЕЙ ТЕОРИЯ на алгебраических структурах (probability theory on algebraic structures) - новый, интенсивно развивающийся раздел вероятностей теории, предметом изучения к-рого являются распределения случайных величин, принимающих значения в структурах с нек-рыми заданными алгебраическими операциями. Распространение В. т. на алгебраич. структуры связано как с желанием математиков установить естественные границы применимости вероятностных закономерностей, так и с постоянно возрастающим числом задач из вычислительной математики, теории связи, астрономии, квантовой механики, теории поля и т.п., решение к-рых приводит к рассмотрению вероятностных отношений на группах, линейных пространствах и других алгебраич. структурах. Переход к алгебраич. структурам, менее богатым по своим свойствам, чем действительная прямая, нередко требует не только нового мате- матич. аппарата, но и новых оригинальных идей. Одним из эффективных методов исследования при этом остается анализ Фурье, базирующийся на теории представлений (см. Фурье преобразование распределения вероятностей на группе). Чтобы подчеркнуть, что на той или иной алгебраич. структуре задана, кроме того, вероятностная мера, к названию этой структуры часто добавляют слово «стохастическая» (напр., стохастическая линейная алгебра, группа, подгруппа и т. п.). Одним из основных разделов классич. теории вероятностей является теория предельных теорем. При построении аналогичной теории на алгебраич. структурах (напр., на группах) оказалось необходимым ввести такое фундаментальное понятие, как безгранично делимое распределение на группе, тесно связанное с ним понятие сверточной полугруппы мер и исследовать их связь между собой (см. Безгранично делимое распределение на группе; проблема вложения). При доказательстве сходимости распределений сумм независимых случайных величин в IP для схемы серий важным результатом является Леей - Хинчина каноническое представление для характеристич. функции безгранично делимого распределения. В теории предельных теорем на локально компактных группах аналогом этого результата является канонич. представление сверточных полугрупп мер, точнее, их порождающих функционалов. В терминах элементов представляющей тройки (\|/j, \|/2, Т|) этого канонич. представления можно выписать условия сходимости последовательности сверток распределений вероятностей из инфинитезимальной системы мер к заданному безгранично делимому распределению (см., напр., Центральная предельная теорема на группах). Большое количество результатов было получено в теории предельных теорем на компактных группах. Центральным понятием здесь оказалось понятие идемпотентной меры. Перенесение доказательств предельных теорем в IP на случай произвольных локально компактных групп позволило прояснить эти доказательства, очистив их от специфических, свойственных только II? , методов рассуждений. Не всегда с самого начала дана инфинитезимальная система мер. Напр., часто приходится иметь дело с последовательными свертками одинаковых распределений вероятностей. Это приводит к понятию оператор- но устойчивого распределения в IP и, более общо, устойчивого распределения на группе. Одной из основных задач здесь является проблема описания притяжения областей оператор- но устойчивого распределения и устойчивого распределения на группе. Как и в случае IP , нек-рые важные распределения вероятностей, такие, как гауссовское распределение и Пуассона распределение на локально компактной группе, обладают рядом специальных свойств. Выделение этих распределений вероятностей нек-рыми характеристическими для них свойствами приводит к теории характеризационных теорем на группах (см. также Вероятностных распределений арифметика на абелевых группах). Не все понятия, используемые в классич. В. т., могут быть перенесены на произвольные группы. В связи с этим становится важным охарактеризовать те классы групп, на к-рых можно естественно определить аналоги этих понятий (см. Вероятностная характеризация групп). При этом становится ясной естественная область применимости этих понятий и то, какие свойства алгебраич. структуры действительно используются. Множество всех борелевских вероятностных мер на группе с хорошими свойствами образует топологич. полугруппу относительно операции свертки. Аналогичный результат справедлив и для распределений вероятностей на однородных пространствах. С другой стороны, в теории функций в ряде задач также появились нек-рые топологич. полугруппы функций, для к-рых естественно возникают вероятностные по своей сути задачи. Это привело к рассмотрению нек-рых общих конструкций, обобщающих понятие полугруппы вероятностных мер на IP (см. Обобщенная стохастическая свертка. Гипергруппа, Специальных полугрупп арифметика). Нек-рые задачи физики, астрономии, квантовой механики, многомерного статистич. анализа приводят к необходимости рассматривать статистич. задачи на группах и однородных пространствах, для решения к-рых потребовались новые идеи и методы, развивающие аналогичные результаты из классич. математич. статистики. Лит.: [1] Гренандер У., Вероятности на алгебраических структурах, пер. с англ., М., 1965; [2] Хейер X., Вероятностные меры на локально компактных группах, пер. с англ., М., 1981; [3] Хен- нан Э., Представления групп и прикладная теория вероятностей, пер. с англ., М., 1970; [4] Ruzsa I. Z., Szekeli G.J., Algebraic Probability Theory, N. Y., 1988; [5] Bloom W.R., Heyer H., Harmonic analysis of probability measures on hypergroups, В., 1995. А. А. Левитская, Ю. С. Хохлов. ВЕРОЯТНОСТИ БОЛЬШИХ УКЛОНЕНИЙ (large deviations probabilities) - см. Больших уклонений вероятности. ВЕРОЯТНОСТИ ИНТЕГРАЛ (error function) - см. Интеграл вероятности. ВЕРОЯТНОСТНАЯ БОРЕЛЕВСКАЯ МЕРА (probability Borel measure) - см. Борелевская мера. ВЕРОЯТНОСТНАЯ БУМАГА нормальная (normal probability parep) - специальным образом разграфленная бумага, построенная так, что график функции нормального распределения изображается на ней прямой линией. Это достига- ВЕРОЯТНОСТЕЙ 81
ется изменением шкалы на вертикальной оси (рис.). На свойстве «выпрямления» основан простой способ проверки гипотезы о принадлежности данной выборки к нормальной совокупности: если построенная на В. б. эмпирич. функция распределения хорошо приближается прямой линией, то можно с основанием полагать, что совокупность, из к-рой взята выбор- lllllllllllllllllllllllllllllllllllllllllllllllirjlllllll IIIIIIIIIIIIIIIIIIIIIIIIIIIIIIIIIIIIIIIIIIIIIIIMIIIIIIIll llllllllll ПИНИИ Mill lllllllllllllll HUH' 4IIIIIII llll 50 40 30 inn minim iiiiiiiiii шиши iiiiiiiiii пинии in llllllllllllfjllllllII Illllll IIIIIIIIII IIIIIIIIII III IIIIIIIIIIIMIIIIIIIIIIIIIIIIIIIIIIIIIIIIIIIIIIIIIIIIIIII IIIIIIIIIIJllllllllllllllllllllllllllllllllllllllllllllll 76 84 92 100 108 116 Проведенная линия - график функции нормального распределения со средним 100 и стандартным отклонением 8. ка, является приближенно нормальной. Достоинство этого метода состоит в том, что вывод о принадлежности к нормальной совокупности можно сделать без знания численных значений параметров гипотетич. распределения. Лит.: [1] Арлей Н., Бух К. Р., Введение в теорию вероятностей и математическую статистику, пер. с англ., М., 1951; [2] Dixon W.J., Massey F.J., Introduction statistical analysis, N. Y.- Toronto - L., 1951. д. в. Прохоров. ВЕРОЯТНОСТНАЯ КОМБИНАТОРИКА (probabilistic combinatorial analysis) - раздел дискретной математики, в к-ром методы теории вероятностей применяются к изучению свойств комбинаторных конфигураций, включая вопросы их существования, исследования алгоритмов построения и решение задач классификации и перечисления. Наиболее эффективно вероятностные методы используются при решении задач комбинаторного анализа. В этом случае на множестве комбинаторных конфигураций задается вероятностное распределение, как правило равномерное, и исследуются свойства распределений различных случайных величин, значения к-рых определяются случайно извлеченной комбинаторной конфигурацией. Наиболее плодотворен такой подход при получении асимптотич. результатов в комбинаторном анализе. Приведем нек-рые примеры результатов асимптотич. характера из В. к. 1. Случайные неотрицательные целочисленные матрицы. На классе матриц размера я х т с целыми неотрицательными 82 ВЕРОЯТНОСТНАЯ элементами, сумма к-рых равна N, задано равномерное распределение. Случайная величина £(N; я, w), равная числу нулевых строк и столбцов в случайно выбранной матрице, при п = ат, 0<а^1 и w-><» и существовании предела N/m- - In m -> у имеет распределение Пуассона с параметром X, где X = 2е~у, если а = 1, и X = е~у, если 0 < а < 1. Если rjf - число нулевых строк, a T|2 - число нулевых столбцов в случайной матрице, то при тех же условиях для а= 1 случайная величина (rjj, r)2) имеет в пределе двумерное распределение Пуассона с независимыми компонентами и с параметрами {е~^у e"Y), а для 0<а<1 распределение первой компоненты асимптотически вырожденно, а вторая компонента имеет распределение Пуассона с параметром е~у. При тех же условиях указанное выше предельное распределение Пуассона имеет место и для нулевых строк и столбцов случайных (0, 1)-матриц пхт, содержащих N единиц. Если элементы (я х т)-матрицы независимо и равновероятно могут принимать значения 0, 1, ..., s-1, то при s>l, Х>0, m = Xsn число нулевых строк и столбцов имеет распределение Пуассона с параметром X. 2. Перманенты случайных неотрицательных матриц. Для случайной равновероятной (0,1)-матрицы А размера пхт, п^т, рассмотрим события: Епт = {регА = 0}, Нпт = {А имеет либо нулевую строку, либо т-п+ 1 нулевых столбцов}, где per Л - перманент матрицы А. Тогда при т ->°° P{tf„j£nm}->1 равномерно для всех п^т. Для случайной равновероятной (0, 1)-матрицы порядка п, содержащей N единиц, где N = N (и) > я 'к +е, е > 0, при любом у>0 и я->°о Р{|регЛ/Е(регЛ)-1|>у}->1, где Е(регЛ) - среднее значение per Л. Если N = n\nn + + сп + о(п) иР(я, ЛО = Р{регЛ>0}, тоР(и, N) ->ехр{-2е~с} при я->°о. Если N = Nr = n\nn+ (г- 1)я1п1пя + ясо(я) + + о(п), причем со(я)->оо произвольно медленно при и->°°, иР(я, Nr, r) = P{vC4)^r}, где vC4) - наибольшее число попарно противоречивых подстановок, соответствующих наборам из я неколлинеарных единиц (0, 1)-матрицы А, то P(n,Nr, r)-И. 3. Случайные противоречивые подстановки. Пусть Sn - совокупность всех подстановок степени и, действующих на множестве N = {\, 2, ..., я}. Множество N(s,s') = {i:s(i) = = s'(i), 1 ^г^я} называется множеством непротиворечивости подстановок s и s' (s,s'eSn). При N (s, s') = 0 подстановки s и s' называют противоречивыми и записывают sTs'. Если П, - подстановочная матрица, соответствующая подстановке sit \^i^k, то Mn(sv...,sk)= \{s:stsv...,stsk, seS„}| = per(/-(n1v...vllife)), где v - знак операции поэлементной дизъюнкции матриц. Пусть s eSn - случайная равновероятная подстановка, sv ..., skeSn - фиксированные попарно противоречивые подстановки и Av(i) = {s (О = sv(0} - случайное событие, 1 ^ v ^ /г, 1 ^ i ^ я. Тогда случайная величина $„(*„ ...,**)= |{1:Д,(Ои...иЛ*(0, i<i<n)\ при я->°° и ограниченном k имеет в пределе распределение Пуассона с параметром X = k. Отсюда, в частности, следует
асимптотич. формула для L(k, п) - числа латинских прямоугольников k х я при п -> оо и ограниченном k\ L(k,n) = (n\)ke Ы(1 + о(1)). 4. Циклы случайных подстановок. Пусть на множестве подстановок степени я задано равномерное распределение и £„ - число циклов в случайно выбранной подстановке. Случайная величина (£„ - In n)/Vln п при я->°° имеет в пределе нормальное распределение с параметрами (0, 1). Случайная величина х„/, равная числу циклов длины /, при я -> о© имеет в пределе распределение Пуассона с параметром Х = 1//. Если v и v - минимальная и максимальная длины циклов в случайной подстановке степени я, то При П —> оо P{v<"> = *} = (l-^)exp{-£*;i,y-1}+o(l). Для любых фиксированных х и у таких, что (Х+\)~ ^ ^х<у<Х~\ при п-+оо где /00и,л) = 1, Д(т,я)= f...f-^-...^, h>\, x^m, V. Xi<n - область интегрирования. Если Qn - порядок случайной подстановки степени я, то In Q„ - - In я If-In я ) имеет в пределе нормальное распределение с параметрами (0,1). 5. Случайные деревья. На множестве из я" 2 свободных деревьев с п вершинами, помеченными элементами множества Х = {х^х2...хп}} задано равномерное распределение. Если v„ - число концевых вершин в случайном дереве, то случайная величина (v„ - жГ1 )/\ п(е-2)е~1 при я -> <» в пределе имеет нормальное распределение с параметрами (0,1). Если 9„- высота случайно выбранного дерева по отношению к фиксированной вершине, то при я -> <*> P{e„<jn&}->^=_^2(l-2ifeV). Пусть Т|„+ l(fj„+ 1) - число деревьев в случайном корневом (некорневом) лесе. Тогда при я -> <» случайная величина Цп(цп) в пределе имеет распределение Пуассона с параметром Х=\(Х=\/2). Если dn - расстояние между двумя фиксированными вершинами в случайном некорневом дереве с я помеченными вершинами, то при я-><» для всех u = dn/^fn = имеем 2 Р{*.-+ 1 = и<п} = -^г-е-и /2 (1 + о(1)). Пусть d(x() - число ребер, инцидентных вершине t, и х, = d(х() - 1, 1 ^ г ^ я, символ [*** х%2 ... х*п ] называется первичной спецификацией дерева. Каждому дереву первичной спецификации [х^х^2 ••• **"] можно поставить во взаимно однозначное соответствие заполнение я различных ячеек я-2 различными предметами, в к-ром i-я ячейка содержит х^ предметов, 1 ^1^я. Отсюда следует, что вероятностные распределения кратностей случайного дерева полностью описываются схемой случайного размещения различных предметов в различных ячейках. 6. Случайные графы. На совокупности графов Г„ N, имеющих я помеченных вершин и N ребер, задано равномерное вероятностное распределение путем приписывания каждому графу вероятности \2) . Если N = Г- я In я + сп 1, с - по- [ы) l2 J стоянная, Р(я, N) — вероятность того, что граф Гя N для нек-рого k содержит одну связную компоненту из я - k вершин и k изолированных точек, то при я-><» имеем Р(я, Л0->1. При тех же условиях для вероятности связности Р$(п, N) при я -> оо имеем Pq(ti, N) -> ехр {-е~2с}. Если £„ - величина наибольшей компоненты случайного графа Г„ дг, то я-£„ при я -><» имеет в качестве предельного распределение Пуассона с параметром X = е~ с. Такое же предельное распределение при я -> <» имеет и случайная величина £(я,Л0~ 1, где £(я,Л0 - число компонент связности случайного графа. 7. Случайные отображения. На множестве всех я" отображений а в себя я-множества X зададим равномерное распределение. Рассмотрим случайный ориентированный граф Г(Х, а), вершины к-рого помечены элементами множества X, илги^' соединены дугой (х, х')} если х' = а(дг), х} х' е X. Если £я - число циклич. вершин Г(Х, а), то при я-»*» для всех и = о имеем Р(С„/Л = «} = не-2'2-i- (l + o(D). Для х„ - числа компонент Г(Х, а) при я -> ©о случайная величина (хп - - In я)[-1п я ] в пределе имеет нормальное распределение с параметрами (0,1). Если для случайного отображения а рп - число прообразов, as„- число образов фиксированного элемента хеХ, то при Р{р„=к}- ekk\' k = 1, 2, (l + o(D). Число дуг г, входящих в вершину #еХ в графе Г(Х, а), называется кратностью вершины х. Для случайного отображения а число вершин цг(я) в графе Г(Х, а) совпадает с числом ячеек, содержащих г предметов в схеме случайного размещения в я различных урнах я различных предметов. 8. Случайные разбиения множеств. Число разбиений я-множества X на k блоков равно числу Стирлинга второго рода о(п, k). Общее число разбиений я-множества равно числу Белла Вп. На множестве всех Вп разбиений зададим равномерное распределение и обозначим через £„ - число блоков в случайном разбиении. При я-><» случайная величина (£я - я/ln n)/(Jn /In я) имеет в пределе нормальное распределение с параметрами (0,1). Если х„(/) - число блоков величины / в случайном разбиении и г - решение уравнения гег = т, то при я->°о случайная величина (хп(1)-г1/1\)/у1г '//! в пределе имеет нормальное распределение с параметрами (0,1). Для любых 1 ^ ix < i2 < ... < ik ^ я fc-мерная случайная величина ((x^O'^-^O/VX", ..., U„(ife)-^)/VA~), где >./ = ///!, при я -> °о в пределе имеет локальное нормальное распределение с единичными дисперсиями и независимыми компонентами. Для достаточно больших я имеет место неравенство P{x„(/)>0}^l-/!/r/, rer = n. ВЕРОЯТНОСТНАЯ 83
Отсюда следует, что если vn - размер наименьшего по величине блока случайного разбиения, то при я->°о имеем P{v„ = 1} -> 1. Для \in - величины наибольшего блока при п -> <*> равномерно для всех ограниченных х -И+6 Р{\1п<х}-е-е ->0, где \лп = \лп- [ег-\п^2кег -ln(e-l)], rer = n и 8- дробная часть числа ег - \п<2кёг~-\п(е-\). 9. Случайные покрытия множеств. Представление я-мно- жества X = ХХU...UXkназывается покрытием, a Xv ..., Xk - блоками покрытия. Пусть на множестве всех покрытий я-множества задано равномерное распределение и £„ - случайная величина, равная числу блоков в случайном покрытии. Тогда при я -> <*> P{0U -(2я"1 -l/^»/2"1 =*} = _J_e-*2/2(1 + o(1)) и для всех аир таких, что а2~"'6 -> 0, р2~"^6 -> 0 имеет место асимптотич. равенство р{а^„ -(2я"1 -1 / 2))/2"/2-1 *ф}~Ф(р)- Ф(а), Ф(х) 1 e~u2/2du. Покрытие X = X1U...UXfe называется минимальным, если при удалении любого блока оставшиеся блоки не образуют покрытия. Пусть на множестве минимальных покрытий я-множества задано равномерное вероятностное распределение и ^, - число блоков в случайном минимальном покрытии. Тогда при я -> <»: а) для я четного Р к„ - - = ±/| - б) для я нечетного Р к„ — = ±/ -;2 1+2С0' У = о, 1, ~2СГ ; = 0, 1, где С0 = Z/=l 2;"2' Cl ~^> = 1 О 9У<У+1) 2;J * ^ = " 2У' Пусть на классе всех 2" - 1 непустых подмножеств я-множества X задано равномерное распределение и Xv X2, ... - последовательность случайных подмножеств. Минимальное число Хп такое, что X = X1U...UXX называется индексом покрытия я-множества X. При я-><» для любых у таких, что \у\ = o(log2Vw~), имеет место равенство P{X„«[log2 "] + #} = *-24*'*8" (1+о(1)), где [log2 я] и bn = {\og2n} - целая и дробная части log2 я соответственно. 10. Вероятностный метод доказательства существования комбинаторных конфигураций. Теоретико-вероятностные методы используются для доказательства существования комбинаторных конфигураций без применения конструктивных методов. Один из примеров такого подхода состоит в следующем. В случайном графе Gn(p) с я вершинами каждая пара вершин соединяется ребром с вероятностью р независимо от других пар, а с вероятностью q такого соединения не происходит, p + q=\. В графе Gn(p), дополнительном к Gn(p), пара вершин соединена ребром тогда и только тогда, когда такого соединения в Gn(p) нет. Если vn(p, k) и vn(q, k) - числа полных подграфов с k вершинами в Gn(p) и Gn(p)} то их средние значения имеют вид &„(**)=(г)Д &„(,,*)=(?)Д Отсюда, при fc>max 21пл [Г 21пп 1 Г 21пп 11 11>(1//>)] l>(l/<7)Jj' 84 ВЕРОЯТНОСТНАЯ где [г] - целая часть 2, и я-><», получаем Evn(p,k) = o(\), Evn(q,k) = o(\). Из этих равенств следует Теорема (А. Реньи). Для каждого фиксированного р> 0<р< 1, и для каждого п>п0(р) существует граф Gn(p)} не содержащий полного подграфа с более, чем 21пя/1п(1/р) вершинами, и дополнительный граф Gn(p), не содержащий полного подграфа с более, чем 21пя/1п (\/q) вершинами Лит.: [1] Эрдеш П., Спенсер Дж., Вероятностные методы в комбинаторике, пер. с англ., М., 1976; [2] Сачков В. Н., Вероятностные методы в комбинаторном анализе, М., 1978; [3] его же, Введение в комбинаторные методы дискретной математики, М., 1982; [4] Кол- чин В.Ф., Случайные отображения, М., 1984. В. Н. Сачков. ВЕРОЯТНОСТНАЯ МЕРА (probability measure), вероятностное распределение, распределение вероятностей, распределение, вероятность,-действительная неотрицательная функция Р на классе Л подмножеств (событий) непустого множества 12 (пространства элементарных событий), образующем борелевское поле (то есть замкнутом относительно теоретико-множественных операций, производимых в счетном числе), такая, что P(Q)-lHP(U7.1A,)-2(".1PWi). если Л,-ПЛу = 0 при i*j (счетная аддитивность). ПримерыВ.м.: 1) 12 = {1, 2}, ..*/- класс всех подмножеств 12, Р({1}) = Р({2}) = 1/2 [эта В. м. отвечает случайному эксперименту с подбрасыванием симметричной монеты; «гербу» ставится в соответствие 1, «решетке» - 2; вероятность выпадения «герба» («решетки») равна 1/2]; 2) 12 = {О, 1, 2, ...}, Л- класс всех подмножеств £2, р<{*»=-£**. где Х>0 (Пуассона распределение); 3) 12 = В? , ^/ - класс борелевских подмножеств II? , Р(А) = -^\ e~x2l2dx (нормальное распределение); 4) 12 = С0[0, 1] - пространство обращающихся в нуле в нуль непрерывных действительных функций x(t) на [0, 1], Л- класс борелевских подмножеств 12 относительно топологии равномерной сходимости, Р - мера, однозначно определяемая формулой Р{х\а{<х(Ь{)<Ъ{, f = l, ...,«} = 1/2 = (2тг)-«/2п:=1а,-^1) х <-Г:Ч4^ -*м>2 где <t п -\dxx ...dxn, число и 0 = £0 < - произвольное натуральное .<^„^1 (мера Винера). Лит.: [1] Колмогоров А. Н., Основные понятия теории вероятностей, 2 изд., М., 1974; [2] Гнеден ко Б. В., Курс теории вероятностей, 6 изд., М., 1988. В. В. Сазонов. ВЕРОЯТНОСТНАЯ МЕРА на группе (probability measure on a group) - вероятностная мера, заданная на нек-рой а-алгебре 33 подмножеств данной группы G. Обычно предполагается, что а-алгебра 39 такова, что (G, 33) является измеримой группой. Если G - топологич. группа, то в качестве 33 берется борелевская а-алгебра. Если щ и \12 - В. м. на измеримой группе G, равенство \ix*\i2(B) = \ \ix(Bx-x)d\L2(x)= \ \a2(x'xB)d\ix(x)> ВеЗЗ, (•)
определяет В. м. щ * \i2 на G, называемую сверткой В. м. щ и (Х2. В случае когда щ и ц2 " х-гладкие (в частности, радоновы) В. м. на топологич. группе G, свертка (Х1 * \12 также определяется равенством (*) и является т-гладкой (радоновой). Если В. м. ц1 и д2 на локально компактной группе G абсолютно непрерывны относительно меры Хаара X (правоин- вариантной), то свертка щ * \i2 также абсолютно непрерывна относительно X и ее плотность имеет вид /"(у) = J f\(yx~x)f2(x)dX(x) для k-почти всех у е G, где ^ и /*2 - плотности В. м. (х1 и |12 соответственно. На множестве MX(G) т-гладких В. м. на топологич. группе операция свертки есть непрерывная в слабой топологии пространства мер операция. Носитель 5.. .. свертки х-гладких мер (х1 и ц2 есть замыкание группового произведения носителей S.. и S.. , то есть 5„ * „ =5|15|| . Множество ^(G) является топологич. полугруппой с единицей 8е, где 8е - вырожденное в единице группы G распределение. Если (Q, .«/, Р) - вероятностное пространство и Хх, Х2: £1 -> G - независимые случайные элементы в измеримой группе (G, 39) (либо независимые сепарабельнозначные случайные элементы в метризуемой топологич. группе G), то распределение Рх х произведения Хх, Х2 есть свертка распределений Рх и Рх , то есть Рх х = Рх * Рх . Содержательное обобщение результатов, известных для В. м. на числовой оси или на конечномерном евклидовом пространстве, получено в основном для двух классов топологич. групп - для локально компактных групп и для бесконечномерных банаховых пространств (а также для более общих локально выпуклых пространств). Для случая локально компактных групп (как коммутативных, так и некоммутативных) изучены безгранично делимые распределения вероятностей, сверточные полугруппы В. м., вопросы вложимости безгранично делимых В. м. в сверточную полугруппу. При рассмотрении В. м. на общих группах возникают эффекты, не имеющие места в частном случае топологич. векторных пространств. Характерные примеры связаны с существованием в широком классе топологич. групп идемпотентных мер и, в частности, меры Хаара. Радонова В. м. \1 в топологич. группе G называется идемпотентной, если ц*|1 = ц. Для идемпотентной В. м. \i носитель 5ц есть компактная подгруппа и сужение \i на 5„ есть мера Хаара компактной группы 5„. Типичным утверждением, приводящим к рассмотрению идемпотентных мер на группах, является обобщение теоремы Леви об эквивалентности различных видов сходимости сумм независимых случайных величин. Пусть G - метризуемая топологич. группа, (Xk) - последовательность независимых се- парабельнозначных случайных элементов в G и Sn = Хх ... Хп. Последовательность Sn сходится почти наверное к нек-рому случайному элементу S в G тогда и только тогда, когда Sn сходится к S по вероятности; если распределение Ps радоново и не имеет идемпотентных делителей, то сходимость Sn->S почти наверное эквивалентна слабой сходимости Ps => Ps. Если Ps имеет идемпотентный делитель, то, как показывает приводимый ниже пример, последнее утверждение не имеет места. Пример. Пусть G - метризуемая компактная группа, содержащая по крайней мере два элемента, Xv Х2, ...- последовательность независимых случайных элементов в G такая, что распределение Xt есть мера Хаара, а ГТГ9 Xk не сходится почти наверное. Тогда Ps = X, но Sn не сходится почти наверное. Лит.: [1] Гренандер У., Вероятности на алгебраических структурах, пер. с англ., М., 1965; [2] Хейер X., Вероятностные меры на локально компактных группах, пер. с англ., М., 1981; [3] Раг- thusarathy К. R., Probability measures on metric spaces, N. Y., 1967. В. И. Тариеладзе, С. А. Чобанян. ВЕРОЯТНОСТНАЯ МЕТРИКА (probabilistic metric) - специального вида квазиметрика в множестве 5Гслучайных величин, заданных на одном вероятностном пространстве. Вероятностной метрикой в Ж называется каждый неотрицательный функционал ц(Х, У), определенный на множестве совместных распределений PXY пар случайных величин X, УеЗГ, обладающий следующими свойствами: (1) ц(Х, У) = 0<=>Р(Х=У)=1, (2)ц(Х, У)=ц<У, X), (З)ц(Х, У)^ц(Х, Z) + ji(Z, У) (неравенство треугольника). Иногда представляется более удобным допустить для нек-рых пар X, У значение ц(Х, У) = °°, нежели иметь дело с подмножествами из Ж, на к-рых цХХ, У) < °о. При этом выражения, содержащие В. м., требуют расширенного толкования. Напр., \i(X, У) =оо в соотношениях (2) и (3) означает, что их правые части также должны быть бесконечными. Ради краткости В. м. в теории вероятностей называют часто просто метрикой. В тех случаях, когда значения цХХ, У) однозначно определяются парами распределений Рх, Ру случайных величин X и У, В. м. называется простой, в остальных случаях - сложной. Для простых метрик условие (1) преобразуется к виду ц(Х, У) = 0<=>Рх = Ру. Помимо записи цХХ, У) для простых метрик часто используется запись вида \i(Px, Ру) (при этом вместо распределений Рх, Ру могут использоваться другие однозначно определяющие их характеристики, напр. функции распределения). Примеры В. м.- Ки Фан метрика, индикаторная метрика, Леей метрика, равномерная метрика. Форте - Мурье метрика, равномерно квадратичная метрика (четыре последние из них - простые В. м.). В. м. являются важным инструментом в исследовании устойчивости стохастич. моделей (см. также Устойчивость разложений вероятностных распределений в композиции и Устойчивость характеризации распределений, Предельные теоремы, Центральная предельная теорема). Они входят в качестве основного элемента метрических расстояний метода и его составляющей - минимальных метрик метода. Основные сведения о В. м. и соответствующую библиографию можно найти в [1] и [2] (гл. 1). О свойствах В. м. см. также в ст. Идеальная метрика, Вероятностных метрик сравнение, Минимальная метрика, Канторовича теорема, Штрас- сена теорема, Вероятностная метрика-, структура. Лит.: [1] Золотарев В. М., «Теория вероятн. и ее примен>, 1983, т. 28, в. 264-87; [2] его же, Современная теория суммирования независимых случайных величин, М., 1986. В. М. Золотарев. ВЕРОЯТНОСТНАЯ МЕТРИКА; однородность (pro babilistic metric; homogenity of) порядкам- свойство вероятностной метрики, выражаемое равенством \л(Тс(Х), Tc(Y)) = cs\i(X, У), в к-ром Тс - группа измеримых взаимно однозначных преобразований пространства U значений случайных величин, изоморфная группе положительных чисел по умножению, то есть таких, что TaTb-TbTa-Tab для а, Ь>0. Преобразования Тс играют роль нормирующих преобразований в предельных теоремах. Если в пространстве U определена полугрупповая коммутативная операция Ш , то в схеме «обобщенного сумми- ВЕРОЯТНОСТНАЯ 85
рования» случайных величин Xjljl Х2 Ш ... Ш Х„ выбор нормирующих преобразований обычно производится так, чтобы для любых х, у eU имело место равенство Тс(х\\) у) = Тс(х)Щ Тс(у). Так, для операции суммирования Тс(х) = сх, для операции умножения Tc(x)=\x\csign x и для операции максимума (х\\) у = max (x, у)) в роли Тс могут выступать как первое, так и второе преобразования. В. М. Золотарев. ВЕРОЯТНОСТНАЯ МЕТРИКА; регулярность (pro babilistic metric; regularity of) - особое свойство вероятностной метрики в множестве 5Гслучайных величин, заданных на одном вероятностном пространстве, связанное с нек-рой бинарной операцией Ш, по отношению к к-рой Ж является коммутативной полугруппой. Это свойство состоит в том, что для любых X, У, Z е Ж выполняется неравенство [i(X\]} Z, YUJZ)^(X, У). (1) Свойство (1) эквивалентно свойству полуаддитивности В. м. \i: для любых Xv X2, Yv У2еЖ дО^Ш X2,Y^ У2)^д(Х1,У1) + д(Х2,У2). (2) Это свойство индукцией распространяется на любое конечное число «слагаемых». Помимо приведенного «широкого» понимания регулярности можно рассматривать и вариант «узкого» понимания этого свойства, к-рое отличается от первого тем, что в (1) случайные величины X, У предполагаются независимыми от Z. Регулярности в узком смысле соответствует свое, эквивалентное ему свойство полуаддитивности (2), где «слагаемые» в «суммах» предполагаются независимыми. Узкое понимание регулярности обычно используется в применении к простым В. м. Если какая-либо сложная метрика \i обладает свойством регулярности в широком или узком смысле, то соответствующая ей минимальная метрика Д будет регулярной в том же смысле. Так, напр., регулярностью в широком смысле по отношению к операции суммирования (ХШ Y = X+Y) и по отношению к операции максимума [ХШ У = max (X, У)] обладает Ки Фан метрика и Леви-Про- хорова метрика, являющаяся по отношению к ней минимальной, а регулярностью в узком смысле по отношению к тем же операциям - Леей метрика и равномерная метрика. Уникальное положение занимают индикаторная метрика и минимальная по отношению к ней полной вариации метрика. Обе они регулярны в широком (и, следовательно, в узком) смысле по отношению к любой бинарной полугрупповой операции Ш в Ж. Свойство регулярности В. м. чаще всего используется в форме эквивалентного ему свойства полуаддитивности. Требование коммутативности операции Ш нужно для перехода от (1) к (2). Освободиться от него можно, добавив к условию «правосторонней регулярности» (1) аналогичного ему условия «левосторонней регулярности»: H(ZUJ X, ZUJ У)^ц(Х, У). Существуют как простые, так и сложные В. м., к-рые удовлетворяют соотношению (1) с заменой в нем неравенства на равенство. Лит.: [1) Золотарев В. М., «Матем. сб.», 1976, т. 101, № 3, с. 416-54; [21 его же, Современная теория суммирования независимых случайных величин, М., 1986. В. М. Золотарев. ВЕРОЯТНОСТНАЯ МЕТРИКА; структура (probabilistic metric; structure of) - та или иная общая конструкция, позволяющая получать представления вероятностных метрик. 86 ВЕРОЯТНОСТНАЯ Число таких конструкций, используемых в теории вероятностей, невелико. Возможность построения В. м. одним способом не исключает возможности ее построения другим способом. Более того, один и тот же способ может давать различные представления В. м. Ниже приводятся несколько наиболее известных структур В. м. При этом Ж обозначает множество случайных величин, заданных на одном и том же вероятностном пространстве со значениями из нек-рого метрич. пространства (U, d). I. Х-структура. Пусть w(X, У; i) - неотрицательный функционал на &2х (0, °о), где &2 = {Pxy} ~ множество совместных распределений пар случайных величин из Ж} обладающий следующими свойствами. Для любых положительных t, tv t2 а) w(X, У; О = 0с=Р{Х=У}=1 (последнее условие заменяется условием Р^ = Ру» если функционал w зависит не от РХу, а от пары маргинальных распределений Рх, Ру); б) w(X, У; t) = w(Y, X; t); в) w(X, У; t^^w(X, У; ti + t2)\ г) w(X, У; tx + t2) ^ w(X, Z;tx) + w(Z, У; t2). Тогда функционалы щ(Х, y) = inf{max (w(X, У; t),t):t>0}> ^[i2(X, y) = sup {min (w(X, У; t),t):t>0} (1) являются В. м. в Ж. Эти функционалы совпадают, если w(X, У; t) для любой пары (X, У) является непрерывной функцией t. Поскольку каждая В. м. |i может выступать в роли w, то с ее помощью можно строить функционалы (1), причем (Х1 = |i2 = Ц- Примерами нетривиальных представлений В. м. в виде (1) могут служить: метрика Х(Х, У) ((7 = 11? ), соответствующая w(X, У; t) = (\/2) max(\fx(u)-fY(u)\:\u\K\/t), где fx - характеристич. функция случайной величины X; Ки Фан метрика, для к-рой w(X, У; t) = P{d(X, Y)>t), и Леви-Прохорова метрика, к-рой отвечает w(X, У; *) = 8ир{Р{ХеЛ}-Р{УеЛ'}:Ле»}, где 83 - система борелевских множеств из U и At = {x:d(x,y)<t, ye A}. И. ^-структура. Пусть $ = {д} - нек-рое множество непрерывных и ограниченных действительных или комплексных функций на (U, d). Функционал £(Х, У;Ш = 8ир{|Е(<7(Х)-<7(У))|:<7е$} (2) является простой В. м. в Ж. В виде (2) записываются, напр., полной вариации метрика, идеальные метрики £s (в частности средняя метрика), равномерная метрика, Форте-Мурье метрика, Канторовича метрика, метрика Дадли, для к-рой $ состоит из действительных функций на (Ц, d), подчиненных условию sup {\д(х) -д(у)|/min( 1 ,d(x, у)):х, у е U}^ 1. III. Интегральная структура объединяет в действительности несколько, вообще говоря, не включающих друг друга конструкций таких, как нижеследующие. 1. Функционал в &2 ц(Х, Y) = (Edp(X, Y))minOA/p),p>0, представляет собой сложную В. м. 2. Интеграл ц(Х, Y)=jug(x)\Px-PY\(dx), (3)
где д(х)>0- нек-рая измеримая функция на (7, является простой В. м., называемой метрикой полной вариации с весом #. Ее примером может служить абсолютный псевдомомент порядка s, отвечающий случаю д(х) = 1Ыг, где I • II - норма в банаховом пространстве U. 3. Функционал \i(X,Y) = sup {| J g(xt А)(РХ -Ру )(dx)\:Ле«}, (4) где $С - нек-рая система борелевских множеств в (7, есть простая В. м. Важный частный случай получается при д(х, А) = 1(хеА)д(А)} где д(А) - нек-рая функция на $С, то есть когда ц(Х, У) = sup {\дШ|РХШ ~ РуМ)|; А е *}. Эта метрика, как и метрика, определяемая (3), является обобщением метрики полной вариации. 4. Равномерно квадратичная метрика имеет сходную, но не совпадающую с (4) структуру. В. М. Золотарев. 5. Простые В. м. представимы функционалами вида ц2 (X, У) = - JJ v U у)(Рх - Ру )ШХРХ - Ру XdyX где v - действительная функция в U x U, обладающая свойствами v(x,x) = 0, v(x,y) = v(y}x), ^^.vix^x^fej^O для любых XjgU, ^-ell?1, £t +...+£я = 0. В этом классе простых В. м. свойство \i(X, Y) = 0<*Px=PY имеет место тогда и только тогда, когда Ev(X, У)МХЖУ) = 0«ЕМХ) = 0. Л. Б. Клебанов. IV. Структура Хаусдорфа. Пусть 5ХУ(Л, В) - неотрицательная функция, определенная на S^x^CxSC, гДе И ~~ нек-рое подмножество 83, тогда т(Л, В) = max< sup inf d(x, у), sup inf б/(#, y)\ [дгеЛ yeB yeB xeA J называется псевдометрикой Хаусдорфа в $С. Говорят, что В. м. (X имеет структуру Хаусдорфа, если ц<Х, У) = тах {A(5xy),A(5yx)}, где A(5xy) = sup inf {т(Л, В), SXY(A, В)}. Примерами таких метрик являются метрика Леви-Прохорова, для к-рой $С = 83 и SXY(A, В) = Р(ХеЛ)-Р(Уе£), (5) и метрика Леви, где SXY(A, В) задается равенством (5), а *={(-<», x):xeRy). СТ. Рачев. Лит.: [1] Золотарев В. М., «Матем. сб.», 1976, т. 101 (143), № 3. с. 416-54; [2] его же, «Теория вероятн. и ее примен.», 1978, т. 23, в. 2, с. 284-94; [3] его же, там же, 1983, т. 28, в. 2, с. 264-87; [4] Рачев СТ., там же, 1984, т. 29, в. 4, с. 625-53; [5J его же, «Lect. Notes Math.», 1983, Bd 982, S. 172-90. ВЕРОЯТНОСТНАЯ ПРОИЗВОДЯЩАЯ ФУНКЦИЯ (pro bability generating function) - см. Производящая функция. ВЕРОЯТНОСТНАЯ ТЕОРИЯ ЧИСЕЛ (probabilistic number theory) - в широком смысле раздел теории чисел, в к-ром используются идеи и методы теории вероятностей (см. Вероятностные методы в теории чисел). Под В. т. ч. в узком смысле понимается статистич. теория распределения значений арифметич. функций, то есть функций, заданных на множестве натуральных чисел Ы или его обобщениях. Хотя объект исследования этой теории является теоретико-числовым, по формулировкам результатов, используемым методам и соображениям В. т. ч. можно отнести и к теории вероятностей. Подавляющее большинство арифметич. функций являются аддитивными или мультипликативными функциями (то есть для них f{tnxm2) = f(m]) + f(m2) или g(mxm2) = g{mx)g{m2)). Для аргумента т = П «у Ра € Н где р - простое, а - натуральное число и ра\\т означает, что ра делит w, но ра+1 не делит w, аддитивная арифметическая функция f(m) и мультипликативная арифметическая функция д(т) имеют выражения *<»>-IW</>B> соответственно. Даже при простейшем выборе f(pa) либо д(ра) значения f(m) и д(т), когда т пробегает последовательные натуральные числа, дают весьма хаотич. картину. Напр., в классе действительных аддитивных арифметич. функций лишь функции я In m, где а постоянная, являются монотонными. В классич. исследованиях при рассмотрении распределения значений действительных арифметич. функций him) обычно изучалось поведение самой функции или ее среднего значения. В первом случае ищут более простые функции ^(т) и х¥2(тп) такие, что x¥^(m)^h(m)^x¥2(m) для всех т или хотя бы для бесконечного множества чисел т. Напр., если (i)(m) = £ 1 означает число всех различных простых делителей числа w, то co(w) ^ 1 для всех w>l, co(w)^2(lnln w)_1ln т при т > т0, lim inf co(w) = 1 и lim sup co(w) (In w)_1lnln m - 1. m —><*> m—>°o Во втором случае рассматривается поведение ЕпШ = пхУп him). Для данного примера £„(со) = (1 + о(1)) lnln п. (Здесь и далее обозначение предельного перехода я-><» опускается.) Решение как первой, так и второй задачи в общем случае дает мало информации о поведении h{m)} о ее колебаниях. Значения функции могут значительно отклоняться от своего среднего. При этом оказывается, что большие отклонения встречаются довольно редко. Ставится задача отыскать границы, в к-рых могут колебаться значения функции h(m) для подавляющего большинства значений аргумента. Такая задача формализуется вероятностными средствами. Пусть Q„ = {1, 2, ..., я}, с4п - алгебра всех подмножеств множества Q„ и Р„ - равномерная мера на fl„ [в дальнейшем Рп{...} - частота натуральных чисел т^п, удовлетворяющих условиям, записанным вместо многоточия]. На вероятностном пространстве {Q„, .</„, Р„} функция him), т^п, становится случайной величиной, En(h) - ее математич. ожиданием. Отыскание последовательностей Сп и Dn таких, что Pn{|A(m)-C„|>Dn> = o(l)1 соответствует вероятностному закону больших чисел. На примере аддитивных арифметич. функций f(m) иллюстрируется сказанное. Пусть а =Т Ш в2=Т /г2(р°) ' п ВЕРОЯТНОСТНАЯ 87
Т°ГДа |хп-3/2ИС1п-У (1) где С - абсолютная константа. Следовательно, существует абсолютная постоянная п0 такая, что при п^щ для любой аддитивной арифметич. функции f(m)} любого t>0 и всех т^п, за исключением не более чем 2nt~ чисел, имеет место неравенство \f(m)-A„\<Wn. В частности, если t большое, то |co(w) - lnln п\ < t Vln In n для подавляющего большинства аргументов т^п. Несколько более слабая форма этого утверждения в 1917 была доказана Г. Харди (G. Hardy) и С. Рамануджаном (S. Ramanujan). Необходимые и достаточные условия для выполнения закона больших чисел были найдены в 1979. Для последовательности аддитивных арифметич. функций fn(m), нек-рых постоянных Сп и любого е > 0 соотношение P„{\f„(m)-Cn\>z) = o(\) имеет место тогда и только тогда, когда для нек-рой последовательности Хп = о(1) (2) v mm{\,(fn(pa)-Xn\npa)2} _ ^ Z*v«^n na -OKU. Тогда При данном п определим случайные величины Др) (w), р*кп} \*кт*кп} полагая Др)(1) = 0 и f(np)(m) = f(pa), если ра\\т, то есть /*пр\т) = f(pa) с вероятностью п-<{[п/Р«]-[п/р^])~р-а(1-р-<). но, как показывает уже неравенство (1), случайные величины f^4m) зависимы (в противном случае вместо 3/2 стояла бы единица). Однако наблюдается определенный параллелизм с суммой Sn = \ < Хр независимых случайных величин Хр, заданных на нек-ром вероятностном пространстве так, что P{Xp = f(pa)} = p-a(\-p~'), a^O. В 70-х гг. было замечено, что не сама аддитивная арифметич. функция f(m)} а разность f(m) - Х\п т с определенным образом выбранным X поддается лучшей аппроксимации суммами независимых случайных величин. Это обстоятельство отражается и в условии (2). Для более точной характеризации распределений значений действительных арифметич. функций h(m) приходится рассматривать асимптотич. поведение Pn{h(m) е £}, где Е - любое борелевское множество. Среди асимптотич. законов наибольший интерес представляют собой законы двух типов: интегральные и локальные. Интегральные законы. Изучается асимптотич. поведение функции распределения Fn{Cn + Dnx) = Рп {him) <Cn + Dnx) с нек-рыми С„ и Dn. а) В случае аддитивных арифметич. функций h(m) = f(m) ищутся условия, при к-рых Fn(Cn + Dnx) стремится к нек-рой функции распределения F(x) во всех ее точках непрерывности (слабая сходимость). При этом оказывается, что если F(x) не вырождена, то Dn обязательно должно стремиться к конечному, отличному от 0, или бесконечному пределу. 88 ВЕРОЯТНОСТНАЯ В случае конечного предела достаточно ограничиться рассмотрением Fn(Cn + x). В частности, при С„ = 0 в 1939 П. Эрдеш (P. Erdos) и А. Винтнер (A. Wintner) получили аналог теоретико-вероятностной теоремы о трех рядах: Fn(x) имеет предельное распределение тогда и только тогда, когда ряды 1*\ -IW|<i р ' "IAp^V ^Ир)|<1 р ' HW|<i p сходятся. Предельный закон является дискретным, когда О) (4) **f(p>*0 р и непрерывным в противном случае. В начале 70-х гг. был полностью изучен случай сходимости F(Cn + x) с произвольным Сп. Случай D„->°° не исследован до конца. Наиболее просто сформулировать результаты, когда C„ = An,Dn = Bn. Если для всякого фиксированного е > 0 2Y - fQ(pa) ► 0 (5) (6) *P-*n,\flp*)\>eBH ^u (аналог условия Линдеберга; см. Линдеберга-Феллв pa теорема), то F„ (Ап + Впх) -» -fe. £ е-"2/2 du ж *,). Если выполнено (5), то Вп является медленно меняющейся функцией от In n в смысле Карамата. Более того, если Вп является такой функцией, то для справедливости (6) условие (5) является необходимым. Соотношение (6) для сильно аддитивной арифметич. функции [то есть такой функции /", что f(pa)=f(p) для любого a^l] с условием |/Ч/?)|^1 было доказано П. Эрденкм и М. Кацем (М. Кае). Зависимость слагаемых fp(m) часто открывает новые явления: так, напр., существуют примеры аддитивных арифметич. функций с £n~Vln и, для к-рых имеет место (6), но условие (5) не выполняется. Пусть Вп является медленно меняющейся функцией от In п. Для того чтобы Fn(An + B„x) сходилась к предельному распределению с дисперсией 1, необходимо и достаточно, чтобы существовала такая неубывающая функция V(u)} -оо<п^ +о°, V(-oo) = 0, V( + «>) = 1, что для всех и, за исключением, быть может, м = 0, f2(P«) $n,f(p«)<uBn „a Вп jLp«^n -> V(u). Характеристич. функция <р(0 предельного закона в случае его существования определяется формулой Я>(0 = ехр( £ (eitu - 1 - itu) u~2 dV(u)\ Весьма показателен следующий пример. Функции распределения рЛхр|т1прр<л|пр4 p>o,p*i, сходятся к закону с характеристич. функцией (-* Jtu* — J l+t'oo 1-t'oo - exp i e~uzdu \dz , к-рая не является безгранично делимой. Известно, что в случае существования невырожденного предельного для Fn(Cn + D„x), D„->°°, распределения верна оценка Dn- = 0(1п п) с нек-рой постоянной Л>0, а предельный закон является абсолютно непрерывным либо сингулярным. Изучалась скорость сходимости к предельному закону. Так, напр., для ненулевой сильно аддитивной арифметич. функции f(m) с условием тах|/-(^)|Б„-1=ц„ = о(1)
имеет место Fn(An + Bnx) = <t>(x) + 0(\in). Первая неулучшаемая оценка такого рода для функции co(w) была получена А. Реньи (A. Renyi) и П. Тураном (P. Turan). Для нек-рых классов аддитивных арифметич. функций можно получить асимптотич. разложения и теоремы о больших уклонениях. Для функции со(т), если * = o(Vln In n ), то F„(ln In H + *Vln In n ) при ^^0и1 -F„(lnlnH + *Vln In n ) при x > О равны „*„(*) •Н'РМШ где оценка равномерна по #, /CnU)=^- + (^-(l+^)ln(l+^))lnlnn, $ = *(1п1пя)~"1/2. б) Для мультипликативных арифметич. функций д (т) по аналогии с теорией перемножения независимых случайных величин возможна и другая нормировка. Исследовалась слабая сходимость к F (х) последовательности G„(*) = Р„{|Спд(т)|1/D» sgngЫ)<х) совместно со сходимостью Gn ( ± 0) к F ( ± 0). Эта задача была сведена к распределениям аддитивных арифметич. функций. Если условие У ±<оо не выполняется, то Gn(x) сходится к вырожденному в точке х = 0 закону. В противном случае сходимость имеет место тогда и только тогда, когда слабо сходится Р{1и |<7*(m)| <ln|C„| +xDn}. Здесь д*(т) - мультипликативная арифметич. функция, полученная из д (т) путем замены д(ра)-0 на 1. Для мультипликативных арифметич. функций изучаются также скорость сходимости к предельным законам, асимптотич. разложения, большие уклонения, многомерные предельные теоремы. Локальные теоремы. Для арифметич. функции h (m) и числа а из области ее значений изучается поведение Pn{h{m)-a). Локальные теоремы для целозначных аддитивных арифметич. функций f(m) весьма сходны с соответствующими теоремами для сумм, разнораспределенных независимых случайных величин. Напр., соотношение sup|P„{/4m) = fc}-pU)|=o(l) для нек-рого распределения p(k), сосредоточенного на Z, имеет место тогда и только тогда, когда выполняется условие (4), причем в таком случае вероятности p(k) можно определить из тождества exp(itf(pa)) =0 При аппроксимации Pn{f(m) = k} значениями плотности стандартного нормального распределения Ф' (х) необходимы арифметич. условия. Так, если d - наибольший общий делитель тех k} для к-рых АЧр)=* р ' то для сильно аддитивных арифметич. функций f(m), удовлетворяющих условиям \f (р)\ ^К и Вп -><*>, оценка 2^,***"*-n,(i-7)2L> kel BnPn{fim) ■«-*№ = о(1) (7) имеет место тогда и только тогда, когда d = 1 либо d = 2 и /42) - нечетное число. При весьма общих условиях локальные соотношения на простых числах Ь«.»)" I, ■*р<я 'p<n,f(p)=k \ = Xk+rk(n\ где Xk ^ 0, У = 1, и У | rk (я) | -> 0 достаточно быстро, дают утверждение (7). Изучена скорость сходимости. Получены асимптотич. разложения и локальные теоремы больших уклонений. Так, для co(w) Р„Ыт) = *} = -—J—- Г^-)*(1 +о(0), ^2пШпп \пп \ k ) когда fc = lnlnn + o(ln Inn). Известны и асимптотики P„{co(m) = fc}, когда k выходит из зоны больших уклонений. Усиленная сходимость. При изучении аналогов сходимости последовательностей случайных величин с вероятностью 1 возникают специфич. обстоятельства: задачи формулируются на языке последовательностей вероятностных пространств {Qn, Лп, Р„}, причем предел lim Рп{т е Л}, А е N, называемый П-*оо асимптотической плотностью множества АеN, не всегда существует. Кроме того, асимптотич. плотность не удовлетворяет аксиоме непрерывности вероятности. Однако усиленную сходимость последовательности hk(m) к h(m) можно выразить в следующей форме: limlimsupPn| max \hk(m)-h(m)\^e\ - 0 для любого £>0. Далее такая сходимость обозначается hk(m)=>h(m). Напр., пусть /*<"*) = У а„ <bf(pa\ Сходимость faint) => f(m) имеет место тогда и только тогда, когда ряды (3) сходятся (еще одна формулировка теоремы о трех рядах). Для отдельных классов аддитивных арифметич. функций изучались аналоги закона повторного логарифма. Функциональные предельные теоремы. По значениям урезанных аддитивных арифметич. функций строятся ломаные либо ступенчатые функции и исследуется сходимость мер в пространствах С{0 ^ или £>[o,i]» соответствующих таким арифметич. процессам (см. Арифметическое моделирование случайных процессов). Напр., по аддитивной арифметич. функции f(m) строится следующая модель. Пусть при #„-><» #„(0 = max{z; BJ^tB^}, O^^l, Wn(m, t) = B-'(fyn(t)(m)-Aynit)). На а-алгебре борелевских множеств 35 пространства £)[o,i] вводится мера Pn(B) = Pn{Wn(m,t)eB}, £<=<#. В настоящее время получен исчерпывающий ответ на вопрос, когда последовательность мер Рп слабо сходится к мере, соответствующей нек-рому процессу с независимыми приращениями. В частности, Рп слабо сходится к стандартной винеровской мере тогда и только тогда, когда выполняется условие (5). Изучалась скорость сходимости арифметич. процессов к броуновскому движению. Различные обобщения. Изучается распределение функций fx(m + ax)+ ... +fs(m + as), где /i(w) - аддитивные арифметич. функции, а{ - целые неотрицательные числа, 1 ^t ^s. В случае зависимости ai от п влияние сдвигов аргументов весьма значительно. Исследованы совместное распределение значений функций /^(m + flj), ..., fs(m + as)} а также распределение f(P(m))} f(P(pm)), где Р(т) - целочисленный многочлен, ВЕРОЯТНОСТНАЯ 89
принимающий положительные значения при т^\,рт есть т-е простое число или f(am), где ат - последовательность натуральных чисел с «хорошим» распределением в арифметич. прогрессиях (см. [1]). По аналогии В. т. ч. распространена на аддитивные функции, заданные на свободных мультипликативных полугруппах (см. [8]). Некоторые методы вероятностной теории чисел, а) Метод моментов. О сходимости функций распределения Fn(Cn + Dnx) к предельной функции можно судить по моментам ц, (п) = £ x>dFn (С, + D„x) = -1,- Х1=1 <Л»> - С„ )', п /=1, 2, ... Если, напр., удается доказать, что Ц/(я) сходится к 0 для всех нечетных / и к (/-1)!! для всех четных /, то Fn(Cn + Dnx) сходится к нормальному закону Ф(х). б) Метод решета и урезания (см. [2]). Основная трудность, с к-рой сталкиваются при применении теории вероятностей к задачам, распре деления арифметич. функций, заключается в том, что асимптотич. плотность множеств натуральных чисел не обладает счетной аддитивностью. Эту трудность иногда удается обойти с помощью теоретико-числового метода решета и урезания функций. Взяв последовательность г-г (я) -> ©о, In г - о (In я), строят две последовательности вероятностных пространств {Q, $С„, Р„} и {Q, $C„, Q„}, где множество элементарных событий С1 = N. Пусть Qp - множество натуральных чисел w, делящихся на р. Система случайных событий $С„ является наименьшей алгеброй множеств, содержащей все Q с р ^ г и С1. Кроме меры Р„ вводится и другая вероятностная мера Q„ такая, что Q„ (Q„) = \/р для всех р ^ г. Методом решета доказывается фундаментальная лемма В. т. ч.: Pn(A)-Qn(A) = o(l) равномерно по всем А е$С„. Пусть f(m)- сильно аддитивная арифметич. функция и f р (т) равно f(p) или 0, если т делится или не делится на /л Функции f p (т), р^:Г} являются независимыми случайными величинами относительно пространства {Cln, $C„, Q„}. При этом для любого борелевского множества Е. К изучению первого слагаемого в правой части этого равенства можно применять предельные теоремы для сумм независимых случайных величин. Для широкого класса аддитивных арифметич. функций f(m) вероятность Р„{/Чт)еЕ} можно аппроксимировать вероятностью Pn{r (m) e £}. в) Метод характеристических функций и преобразований. Изучение распределений Fn(х) = Pn{fn W<4hG„W = Pn{gn(w) <х) аддитивных арифметич. функций fn (m) и мультипликативных арифметич. функций дп(т) можно свести к изучению харак- теристич. функций и характеристич. преобразований (преобразований Меллина) JR |*f'sgn**rfG„Oc> = l£:=1 \9n(mfsgnk дпШ (k = 0, 1; 0^ = 0) соответственно. В обоих случаях имеют дело со средними значениями En(h) комплекснозначных мультипликативных арифметич. функций h (w) = hnt (m), зависящих от параметров я и te№ , причем U(w)| равен 1 либо 0. Это направление начало развиваться в 60-х гг. Для изучения En(h) привлекаются метод производящих рядов Дирихле, 90 ВЕРОЯТНОСТНАЯ метод интегральных уравнений и другие теоретико-числовые методы. В первом подходе рассматривается ряд Дирихле ^=1 ms llp^ ps p2s J где s = a + it - комплексное переменное, a > 1. Контурное интегрирование дает тождества вида У" A(m) = -M fn + iyz(5)^f8 = l+l/lnn. Задача сводится к изучению функции Z (s) в окрестности прямой а= 1. Можно доказать, что существует такая величина X = Xn(t), что где £(s)- дзета-функция Римана. При нек-рых предположениях относительно h(m) установлено, что оценка о(1) равномерна по te [-T, Г], а это ведет к предельным теоремам для Fn(x)nGn(x). Во втором подходе при весьма общих предположениях относительно функции h (w) оказывается, что функция х{и)-Ееи (h) удовлетворяет интегральным уравнениям вида x(u) = iCx fQK(u-v)x(v)dv + o(\). Здесь K(v) - нек-рая кусочно постоянная функция. Метод последовательных приближений часто позволяет получить и асимптотич. разложения решения, что дает возможность уточнять предельные теоремы. г) Применение полиадического анализа. В кольце целых чисел Ж вводится топология, базисом крой в точке а берется совокупность классов вычетов {aeZ; a = a(modm)}, w=l, 2, ... Полученное топологии, кольцо пополняется до бикомпактного топологич. кольца @, элементы к-рого называются полиадическими числами. Пополненная нормированная мера Хаара Р играет роль вероятности на @. На следующем этапе изучается возможность продолжения арифметич. функции h(m), meM, до функции h(x), х е <25. Для функции h (x) уже применимы вероятностные соображения. Так, аддитивная арифметич. функция f(m) допускает продолжения до /■(*> = £*, /V> для Р-почти всех х е <25 тогда и только тогда, когда ряды (3) сходятся. В этом случае Pn{f(m)<u} слабо сходится к Р{х; f(x)<u}. Многие другие задачи об асимптотич. распределении, средних значениях арифметич. функции также сводятся к изучению их продолжений на @ (подробнее см. в [5]). Лит.: [1] Барбан М. Б., «Успехи матем. наук», 1966, г. 21, в. 1, с. 51-102; [2] Кубилюс Й.П., Вероятностные методы в теории чл- сел, 2 изд., Вильнюс, 1962; [3] его же, в кн.: Актуальные проблемы аналитической теории чисел, Минск, 1974, с. 81-118; [41 Манста- вичюс Э., «Лит. матем. сб.», 1980, т. 20, № 3, с. 39-52; [5] Новоселов Е. В., «Изв. АН СССР. Сер. матем.», 1964, т. 28, с. 307-64; [6] Постников А. Г., Вероятностная теория чисел, М., 1974; [7} его же, Введение в аналитическую теорию чисел, М., 1971; [8] Юш- кис 3., «Лит. матем. сб.», 1964, т. 4, с. 565-603; [9] Babu G.J., Probabilistic methods in the theory of arithmetic functions, Delhi, 1978; [10] Elliott P.D.T. A., Probabilistic number theory, v. 1-2, N. Y - [a.o.], 1979-80; [11] его же, Arithmetic functions and integer products, N.Y.- (a.o.], 1985; [12] Gal am bos J., «Ann. Inst. Henri Poh- care», Sect. B, 1970, v. 6, № 4, p. 281-305; [13] Hi ldebrand A., «Asterisque», 1987, № 147-48, p. 95-106; [14] Na rk i ewicz W., Te>- ria liczb, Warsz., 1977; [15] Philipp W., «Mem. Amer. Math. Soc», 1971, № 114; [16] Schwarz W., «Jahresber. Deutsch. math. Ver.->, 1977, Bd 78, № 3, S. 147-67; [17] Кац М., Статистическая независимость в теории вероятностей, пер. с англ., М., 1963. Й. Кубилюс, Э. Маиставичюс. ВЕРОЯТНОСТНАЯ ХАРАКТЕРИЗАЦИЯ групп (pro babilistic characterization of groups) - описание определенных
классов групп или каких-либо характеристик групп с помощью свойств заданных на них вероятностных мер, их сверток, однопараметрических полугрупп мер и т. д. Возникновение этой тематики связано с тем, что не все вероятностные результаты и понятия, справедливые для И?\ переносятся на произвольные группы. Поэтому естественно и интересно описание групп, в к-рых справедлива какая-либо предельная теорема, имеет место характеризация распределения или может быть определено нек-рое вероятностное понятие. Характеризация групп предельными теоремами. Пусть G - локально компактная группа и \i - произвольная борелевская мера на G, носитель к-рой порождает всю G. Если у последовательности {(!*"} существуют предельные точки в классе вероятностных мер, то группа G компактна. Пусть, далее, G - компактная группа, топология к-рой имеет счетный базис. Подмножество ^семейства Л (G) всех вероятностных мер на G называется полным, если: а) для каждой меры (X из Л (G) найдется xeG такое, что \1*гхеЖ\ б) для всякой последовательности {\ij}, /^0, из .^последовательность {v„}, где v„ = (i1...(X„, сходится при и->оо. Тогда если для компактной группы G существует полное подмножество в .#1(G), то группа G вполне несвязна, то есть связная компонента единицы группы совпадает с единицей. Так как вполне несвязная компактная группа является нульмерной и обратно, то приведенная выше характеризация - вероятностная характеризация нульмерной компактной группы (см. [1], [2]). Имеется характеризация групп, обладающих свойством, в нек-ром смысле противоположным компактности. Группа G называется непериодической, если в ней нет компактных подгрупп кроме тривиальной единичной. Пусть Xj, X2, ...- последовательность независимых G-значных случайных элементов, Уп = ХхХ2...Хп. Тогда группа G будет непериодической тогда и только тогда, когда слабая сходимость распределений Yn эквивалентна их сходимости почти всюду при любых последовательностях Хх, Х2, ..., Хп, ... (см. [1]). Группа G называется о-ком п акт ной, если существует возрастающая последовательность компактных множеств, исчерпывающих всю группу. Последовательность {(!„} вероятностных мер на локально компактной группе G называется асимптотически равнораспределенной (слева), ее;! и для всех х eG справедливо соотношение lim |||х„ — е^м-яII =0, где | • | обозначает вариацию меры. Группа G будет а-компак- тной тогда и только тогда, когда на G существует хотя бы одна асимптотически равнораспределенная слева последовательность. Аналогичная характеризация имеет место и для правой асимптотич. равнораспределенности. Характеризация распределений. В теории вероятностей давно сложился раздел, главной задачей к-рого является описание распределений по нек-рым их характерным свойствам. Большинство результатов получено для характери- зации нормального закона. Наиболее типичным результатом является теорема Дармуа - Скитовича. Другая часть результатов идет от теоремы Леви - Крамера о разложении нормального закона на нормальные компоненты. Поскольку эти теоремы оказались справедливы и для векторного случая, то естественно встала задача описать коммутативные группы, для к-рых справедливы эти теоремы при подходящем определении нормального распределения на группе (см. Гауссовское распределение на локально компактной абелевой группе). Известно, что любое безгранично делимое распределение на II? можно вложить в непрерывную однопараметрич. полугруппу вероятностных мер. В случае групп этот результат не всегда имеет место, так что возникает проблема описания групп, для к-рых это предложение справедливо. Полной характеризации таких групп пока не получено, однако существует широкий класс групп (корне-компактные группы), для к-рых проблема вложения в непрерывные однопараметрич. полугруппы решается положительно. Корне-компактными являются, в частности, все компактные группы, компактно порожденные абелевы группы, нильпотентные компактно порожденные локально компактные группы, связанные разрешимые группы Ли, для к-рых алгебра Ли допускает только действительные корни (см. также Безгранично делимое распределение на группе; проблема вложения). Известна первостепенная роль понятий математич. ожидания и дисперсии в теории предельных теорем и статистике. Естественно было бы ожидать, что удачные аналоги этих понятий будут столь же полезны и для G-значных случайных величин. В случае когда группа G компактна, эти понятия были определены и на их основе получены многие общие и окончательные формулировки предельных теорем на компактных группах (см. [1], [3], [4]). Как выяснилось, не для каждой компактной группы можно определить математич. ожидание в полугруппе мер, содержащих сколь угодно малую окрестность единицы в m\G) и все вырожденные меры. Поэтому существование математич. ожиданий также является характеристич. свойством групп. Класс таких групп исчерпывается следующими группами: группа SO (2), группа 5(7(2), конечная группа из двух элементов и прямые произведения этих групп. Дисперсии могут быть определены только на компактных группах, у к-рых существует окрестность, не содержащая других подгрупп, кроме тривиальной. Такими компактными группами могут быть либо конечные группы, либо группы Ли. Лит.: [1] Хейер X., Вероятностные меры на локально компактных группах, пер. с англ., М., 1981; [2] Максимов В.М., «Докл. АН СССР», 1970, т. 195, с. 1274-77; [3] его же, там же, 1970, т. 192, с. 732-35; [4) его же, там же, 1972, т. 203, с. 524-27. В. М. Максимов. ВЕРОЯТНОСТНОГО ПРОСТРАНСТВА МЕТОД (common probability space method coupling) - см. Одного вероятностного пространства метод. ВЕРОЯТНОСТНОЕ КОДИРОВАНИЕ (probabilistic coding) - см. Кодирование источника сообщений. ВЕРОЯТНОСТНОЕ ПРОСТРАНСТВО (probability space) - совокупность (Q, Л, Р) непустого множества Q, класса Л подмножеств множества Q, являющегося борелевским полем (то есть замкнутым относительно теоретико-множественных операций, производимых в счетном числе), и распределения (вероятностной меры) Р на .</. Понятие «В. п.» принадлежит А. Н. Колмогорову [1]. Точки множества £1 называются элементарными событиями, а само множество Q - пространством элементарных событий. Принадлежащие со/подмножества множества £1 называются (случайными) событиями. Нередко ограничиваются рассмотрением лишь полных В. п., то есть пространств, удовлетворяющих требованию В е Л, А с В, Р(В) = 0 => А е Л. Если Ш, Л, Р) - произвольное В. п., то класс множеств вида AUN, где Ле^/и N с М, Р(М) = 0, образует борелевское поле d , а функция Р на Л, определяемая формулой Р (Л1)Л0 = Р(Л), есть распределение на^/ . Пространство (Q, Л , Р) полно и называется пополнением (Q, .*/, Р). Иногда также ограничиваются рассмотрением лишь совершенных В.п., то есть таких, что для любой действительной ^измеримой функции f и любого множества Е на прямой, для к-рого f (E) еЛ, существует борелевское множество В такое, что В cz E и Р(/"~ (Ю) = ВЕРОЯТНОСТНОЕ 91
= Р(/"~ (В)). В рамках совершенных В. п. невозможны нек-рые «патологические» явления (связанные с существованием условных вероятностей, определением независимых случайных величин и т.д.), возникающие в общей схеме. Не всегда прост вопрос о существовании В. п., удовлетворяющего тем или иным специальным требованиям. Одним из результатов такого рода является фундаментальная теорема Колмогорова о согласованных распределениях: пусть каждому упорядоченному конечному набору tv ..., tn элементов множества Т отвечает распределение Р, t на борелевских множествах евклидова пространства IP" и пусть выполнены следующие условия согласованности: при всех (yv ..., г/„)е1Ря, где 1Ух Уя = {х=(х\, .... хп):х{^у{} t=l, ..., я} иа1( ..., а„- произвольная перестановка чисел 1, ..., я; 2)р< А ^~>=р< tj'« yJ- Тогда на наименьшем борелевском поле Л подмножеств произведения II? = {х = {xt}, teT, xte№ }, относительно к-рого измеримы все координатные функции t (x) = xt, существует распределение Р такое, что для любого конечного подмножества tv ..., tn множества Т и любого я-мерного борелевского множества В справедливо равенство P,t (я(Ю = Р{«,Ы ^WeB). Лит.: [1] КолмогоровА. Н., Основные понятия теории вероятностей, 2 изд., М., 1974; [2] Гнеденко Б. В., Колмогоров А. Н., Предельные распределения для сумм независимых случайных величин, М.-Л., 1949; [3] Неве Ж., Математические осноиы теории вероятностей, пер. с франц., М., 1969. В. В. Сазонов. ВЕРОЯТНОСТНОЕ РАСПРЕДЕЛЕНИЕ (probability distribution) - то же, что распределение вероятностей. ВЕРОЯТНОСТНОЕ РАССТОЯНИЕ (probabilistic distance) - расширение понятия вероятностной метрики. В. р. d (X, У) является функционалом такого же типа, как и вероятностная метрика. Однако в отличие от нее, для В. p. d требуется выполнение лишь одного свойства d(X, У) = 0, если Р{Х=У}=1. (*) Как и в случае вероятностных метрик, можно различать простые вероятностные расстояния d (X, У), определяемые парами распределений Рх, Ру случайных величин X, У, и все прочие - с ложные вероятностные расстояния. Для простых В. р. соотношение (*) преобразуется к виду rf(X, У) = 0, если РХ = РУ. Примерами простых В. р. могут служить информационное расстояние и Хеллингера расстояние. В. М. Золотарев. ВЕРОЯТНОСТНОЕ РЕШЕНИЕ ДИФФЕРЕНЦИАЛЬНЫХ УРАВНЕНИЙ (probabilistic solution of differential equations) - запись решения того или иного дифференциального уравнения с помощью математических ожиданий подходящих случайных величин. Связь между теорией вероятностей и эллиптич. и параболич. дифференциальными уравнениями с частными производными 2-го порядка была известна давно. Уже теорема Муавра - Лапласа говорит о том, что предел известных вероятностей является решением уравнения теплопроводности. Имеется множество работ, сыгравших зна- 92 ВЕРОЯТНОСТНОЕ чительную роль в развитии теории вероятностей и случайных процессов, в к-рых вычисление пределов математич. ожиданий разного рода, относящихся к случайным блужданиям, сводится к решению дифференциальных уравнений и тем самым дает их решение (см. [1] - [5]). Известно также, что нек-рые вероятности, относящиеся к процессам с непрерывным временем, удовлетворяют дифференциальным уравнениям (см. [6], [7]). До создания теории стохастич. интегральных и дифференциальных уравнений (см. [8], [9]) связь между теорией вероятностей и теорией дифференциальных уравнений использовалась только в одну сторону, когда какой-либо известный из теории дифференциальных уравнений факт применялся в теории вероятностей. В [9], наоборот, чисто вероятностными методами получен неизвестный до этого результат о разрешимости вырожденных параболич. уравнений. Обычная схема получения вероятностного решения эллиптич. уравнения заключается в следующем. Пусть Иг - евклидово пространство размерности d с фиксированным ортонор- мированным базисом и на нем определены: Ь(х) - функция со значениями в IP , o(z) - функция со значениями в множестве линейных операторов (матриц) из II? * в И? , где dx - нек-рое целое число. Пусть wt - dt-мерный винеровский процесс, определенный на нек-ром вероятностном пространстве. Фиксируется г/еПг и предполагается, что стохастич. уравнение Ито dxt = Ъ(xt)dt + <5(xb)dwv £ > О, (1) с начальным данным х0 = у имеет решение, к-рое обозначается нек-рая область, а ^ - момент Дифференциальный оператор L через х\. Пусть D е Иг - первого выхода х\ из D. описывается формулой Lu = yd alJ(x)uxix> (x) + Yd b\x)uxi (x) где \\аЧх)\\=±о(х)о*(х) и (2) — оКх)ощ(х) и * означает транспонирование. Если функция и (х) достаточно гладкая bD, Lu + f=0 в D, (3) н = <р на dD, (4) а также выполнены еще нек-рые условия технич. характера, то при у eD и(у) = E\fJ f{xyt)dt + <р(^ )1. (5) Формула (5) дает вероятностное представление задачи (3), (4). В том случае, когда про разрешимость задачи (3), (4) ничего не известно, эта формула тем не менее может иметь смысл и дает так наз. вероятностное решение задачи (3), (4). Весьма существенно, что если задать функцию и формулой (5) и если оказывается, что и - достаточно гладкая функция, то, как правило, тогда легко доказывается, что и является решением задачи (3), (4). Гладкость правой части (5) в ряде случаев удается доказать с помощью теорем о дифференцируем ости решения (1) по начальному данному у. Формула (5), написанная для решения эллиптического, вообще говоря, вырожденного уравнения (3), имеет аналоги и для параболич. операторов L, коэффициенты к-рых зависят также от ty причем в (2) может присутствовать и слагаемое вида си (см. [ 10]—[ 13]). Рассмотрение случая, когда в уравнении (1) присутствуют интегралы но пуассоновским мерам, приводит к формуле, аналогичной (5), когда L - интегро-дифференциальный оператор (см. [11]). Вместо граничного условия Дирихле (4) можно брать множество других граничных условий, если вместо (1) рассматривать более сложные стохастич. уравнения (см. [11]). Вероятностное представление можно дать и
для решений нек-рых систем линейных уравнений (см. [14]), уравнений Ито с частными производными (см. [15]), а также для нек-рых нелинейных уравнений (см. [13]). Спектр применений вероятностных решений исключительно широк и охватывает практически все вопросы теории линейных и нелинейных эллиптич. и параболич. интегро-дифферен- циальных уравнений 2-го порядка. Лит.:[\] Philips Н. В., WienerN., «J. Math, and Phys.», 1923, v. 2, p. 105-24; [2] CourantR., Friedrichs K., Lewy H., «Math. Ann.», 1928, Bd 100, S. 32-74 (рус. пер. - «Успехи матем. наук», 1941, в. 8, с. 125-60); [3] Колмогоров А. Н., «Изв. АН СССР. Отд. матем. и естеств. наук», 1933, с. 363-72 (рус. пер. - в его кн.: Теория вероятностей и математическая статистика, М., 1986, с. 141-48); [4] ХинчинА. Я., Asymptotische Gesetze der Wahrschein- lichkeitsrechnung, В., 1933 (рус. пер. - Асимптотические законы теории вероятностей, М.-Л., 1936); [5] Петровский И. Г., «Math. Ann.», 1934, Bd 109, S. 425-44; [6] Bachelier L., Calcul des pro- babilites, P., 1912; [7] Колмогоров А. Н., «Math. Ann.», 1931, Bd 104, S. 415-58 (рус. пер. - в его кн.: Теория вероятностей и математическая статистика, М., 1986, с. 60-105); [8] ltd К., «Mem. Amer. Math. Soc.», 1951, v. 4; [9] Гихман И. И., «Укр. матем. ж.», 1950, т. 2, № 4, с. 37-63; 1951, т. 3, № 3, с. 317-39; [10] Дын- кииЕ.Б., Марковские процессы, М., 1963; [11] Ватанабэ С, Икэда Н., Стохастические дифференциальные уравнения и диффузионные процессы, пер. с англ., М., 1986; [12] StroockD.W., Varadhan S. P. S., Multidimensional diffusion processes, В.- [а. о.], 1979; [13] Крылов Н. В., Управляемые процессы диффузионного типа, М., 1977; [14] Белопольская Я. И., Далецкий Ю. Л., «Докл. АН СССР», 1980, т. 250, № 3, с. 521-24; [15] Крылов Н. В., Розовский Б. Л., Тр. семинара им. И. Г. Петровского, 1982, в. 8, с. 153-68. Н. В. Крылов. ВЕРОЯТНОСТНЫЕ МЕТОДЫ в теории чисел (probabilistic methods in number theory) в явной или неявной форме применяются во многих областях теории чисел. Так, утверждения метрич. теории чисел имеют вид нуль - единица закона, в ней доказываются предельные теоремы метрич. теории диофантовых приближений, решаются эргодические задачи диофантовых приближений. Работы Э. Бореля (Е. Borel) и А. Я. Хинчина в метрич. теории чисел в 1-й пол. 20 в. способствовали развитию самой теории вероятностей. В аддитивной теории чисел количество представлений натурального числа в виде суммы определенного числа слагаемых из нек-рого множества чисел описывается предельными теоремами, когда количество слагаемых растет {аддитивные задачи теории чисел с растущим числом слагаемых), а при малом количестве слагаемых используют эргодич. метод и дисперсионный метод, развитые Ю. В. Линником. Наиболее полное представление о возможностях теории вероятностей дает вероятностная теория чисел. К ней примыкают задачи построения псевдослучайных чисел, арифметическое моделирование случайных процессов, статистическая теория групп. Лит.: [1] КубилюсЙ.П., Вероятностные методы в теории чисел, 2 изд., Вильнюс, 1962; [2] Л инник Ю. В., Дисперсионный метод в бинарных аддитивных задачах, Л., 1961; [3] его же, Эргодические свойства алгебраических полей, Л., 1967; [4] Постников А. Г., Вероятностная теория чисел, М., 1974; [5] Elliott P. D. T.A., Probabilistic number theory, v. 1-2, N. Y. - [а. о.], 1979-80. Й. Кубилюс, Э. Манставичюс. ВЕРОЯТНОСТНЫЙ АВТОМАТ (probabilistic automaton), случайный автомат, - дискретный стационарный потакт- ный преобразователь информации с памятью, функционирование к-рого в каждом такте зависит только от состояния памяти в нем и может быть описано статистически. В. а. задается входным алфавитом X (произвольным непустым множеством), выходным алфавитом У и алфавитом состояний Z такими, что ZxY - измеримое пространство, семейством вероятностных мер ц(-|г, х)} zeZ} хеХ} и вероятностной мерой |Х0() на Z. Эта совокупность объектов определяет функционирование В. а. следующим образом. Любому входному слову x=(xv ..., хп) еХ" ставятся в соответствие случайные векторы 1 - (zQ, ..., zn) и ~у- (yv ..., уп) (выходное слово) так, что Р{г0 е А} = \10(А) для измеримых A cz Z и P{(zn, yn)eA\z0, ..., 2„_t; xv ..., xn} = \i(A\zn.v *„), я^ 1, с вероятностью 1 для измеримых A a. ZxY. Величины xi} zif г/, называются соответственно входным сигналом, состоянием автомата, выходным сигналом в момент г (на t'-м такте). Конечным В. а. называется В. а., для к-рого X, Y}Z - конечные множества; счетным-В.а., для к-рого XxYxZ- счетное множество. Конечные и счетные В. а. задаются распределениями \ioU) = P{z0 = i} \i(a',j\a, i) = P{zn = a', yn=j\zn_x=a} xn = i). В. а. называется автономным, если Х- одноточечное множество. Теория автономных В. а. не выходит за пределы теории цепей Маркова. При решении теоретич. вопросов обычно посредством изменения алфавита состояний В. а. сводятся к В. а. без выхода, для к-рого уп не определяются, а меры \i(\z, x) задаются на измеримом пространстве Z. Состояния автономного В. а. без выхода связаны в однородную цепь Маркова. Понятие В. а. эквивалентно понятию информационного канала с памятью. В теории В. а. решаются многие задачи, аналогичные основным задачам теории автоматов. Разработана алгебраич. теория В. а. (см. [1]). Теория В. а. служит синтезу надежных устройств из ненадежных элементов и, наоборот, синтезу устройств со случайным поведением. Лит.: [1] БухараевР. Г., Вероятностные автоматы, Казань, 1970; [2] Шеннон К., Работы по теории информации и кибернетике, пер. с англ., М., 1963, с. 432-63; [3] Rabin M.О., «Inform, and Control», 1963, v. 6, № 3, p. 230-45; [4] Лоренц А. А., Синтез надежных вероятностных автоматов, Рига, 1975; [5] Бакаев А. А., Костина Н. И., ЯровицкийН. В., Имитационные модели в экономике, К, 1978. И.Н. Коваленко. ВЕРОЯТНОСТНЫЙ ПРОГНОЗ ПОГОДЫ (probabilistic weather forecast) - прогноз погоды, при к-ром в качестве предиктанта (то есть набора предсказываемых величин) используются вероятности нек-рых погодных явлений (то есть тех или иных метеорологических объектов). При В. п. п. окончательный результат (прогноз в вероятностной форме) состоит в указании оценок вероятностей нек-рого набора состояний погоды, образующих полную группу несовместимых событий. Случайная величина, распределение к-рой определяется при В. п. п., может быть и дискретной, и непрерывной. Пусть У - предштант, характеризующий предсказываемые условия погоды, а X - предиктор, характеризующий начальные условия и определяемый данными наблюдений, известными в момент составления прогноза. Величины X и У (к-рые обычно можно считать многомерными векторами) предполагаются случайными величинами, для к-рых существует совместное распределение вероятностей, задаваемое многомерной функцией распределения F(x, у). В таком случае можно определить и условную функцию распределения F(y\x) величины У в предположении, что Х = х. Задача оценивания отвечающего функции F (у\х) условного матема- тич. ожидания E[Y\X = x] = Y(x) предиктанта У при заданном значении X используемого предиктора является основной задачей статистического прогноза погоды; для ее решения широко используют различные стохастико-динамич. модели атмосферных процессов. Более полной характеристикой про- гностич. значения наблюдений величины X является задание не одной лишь величины Y(x)} а всего условного распределения вероятностей F(y\x), определение к-рого и составляет содержание В. п. п. Символически такой прогноз может быть представлен в виде ?Ax) = F (у\х), где F (у\х) - эмпи- рич. оценка функции F (у\х)} определяемая по архиву данных наблюдений над величинами X и У, а ?у - оператор прогноза, ВЕРОЯТНОСТНЫЙ 93
зависящий от значения у. Ясно, что В. п. п. является более содержательным, чем категорический прогноз погоды, и представляет более широкие возможности для практич. использования, для к-рого задание одной только функции Y (х) часто оказывается недостаточным. Анализ данных реальных наблюдений над величинами X и У позволяет получить оценку качества этого прогноза (см. Вероятностный прогноз погоды; оценка качества), к-рую можно использовать для оптимизации В. п. п. Наиболее простую форму В. п. п. имеет в случае прогноза дискретных величин У, принимающих конечное число (скажем, п) значений, отвечающих п возможным фазам погоды. В этом случае прогноз состоит в указании вектора R = (rv ..., г„), где 5^._1 ^ = 1» а г^О - предсказанная вероятность i-й фазы погоды. Если также и предиктор X принимает конечное число (скажем, т) значений, то в качестве оценки условной вероятности ^|; i-й фазы погоды при условии, что наблюдается /-е значение предиктора X, естественно использовать частоту Kij~nij/ X"- 1Яу' где nij ~ число наблюдавшихся случаев совмещения 1-го значения У с /-м значением X. В случае непрерывных предиктантов У обычно рассматривается вероятностный прогноз лишь каких-то заданных дискретных градаций величины У; возможен также и прогноз доверительных интервалов или квантилей условного распределения У при заданном значении X для не к-рого набора вероятностей. Простейший В. п. п., опирающийся на эмпирич. таблицы сопряженности предикторов и предиктантов (то есть на таблицы частот %) в случае большого числа состояний предиктора, но недостаточно большого объема данных наблюдений, часто весьма неточен; реально такой прогноз оправдан лишь при небольшом числе предикторов (то есть невысокой размерности вектора X), имеющих малое число градаций, и достаточно обширном архиве наблюдений. Другие методы В. п. и. опираются на определенные гипотезы об условных распределениях вероятностей, использующие, в частности, разложения по системам ортогональных функций, аппарат конечных цепей Маркова, теорему Бейеса и нормальную аппроксимацию непрерывных распределений. В. п. п. может быть также получен с помощью оценок вероятностей по группе аналогов (см. Аналогов метод). Для прогноза метеорологич. явлений Ф привлекаются бинарные предиктанты У, принимающие значение 1, если осуществляется событие Ф, и значение 0 в противном случае. Так как Р{Ф | X = х) = Е( У | X = х), то для оценки условных вероятностей события Ф здесь можно использовать регрессионный анализ. В практике прогнозирования погоды используются также и субъективные В. п. п., при к-рых оценка вероятностей дается прогнозистом на основе имеющейся информации и личного опыта. В. п. п., так же как и другие статистич. прогнозы погоды, могут использоваться совместно и с динамич. прогнозами для интерпретации последних. Лит.:[\) Груза Г. В., Ран ькова Э. Я., Вероятностные метеорологические прогнозы, Л., 1983. Г. В. Груза. ВЕРОЯТНОСТНЫЙ ПРОГНОЗ ПОГОДЫ; оценка качества (probabilistic weather forecast evaluation) - оценка (мера) точности предвычисления той функции распределения вероятностей предиктанта, сообщение крой потребителю доставляет вероятностный прогноз погоды. Оценка качества 4 В. п. п. строится по данным какой-то достаточно широкой совокупности результатов испытания рассматриваемого метода прогноза. При этом используются критерии согласия и методы проверки гипотез о значимости расхождения между наблюдаемыми частотами различных состояний погоды и «те- оретич. вероятностями» этих состояний, даваемыми вероятно- 94 ВЕРОЯТНОСТНЫЙ стным прогнозом. Оценка качества должна также учитывать степень отличия предсказанных вероятностей от климатических (отвечающих тривиальному климатич. прогнозу) и их изменчивость от прогноза к прогнозу. Процедура оценки качества В. п. п. состоит из четырех последовательных этапов. На первом этапе определяется цель оценивания (или исходная точка зрения), на втором - устанавливаются желательные для данной цели (или с данной точки зрения) свойства прогноза, на третьем - формулируются меры качества, то есть вводится количественная оценка, позволяющая определить, в какой степени прогнозы обладают желаемым свойством, четвертый же этап включает в себя получение выводов о статистич. значимости результатов оценки. Обычно рассматриваются две основные цели. Первая из них, наиболее важная для потребителя, связана с анализом последствий принятых на основе прогностич. информации практич. решений, а вторая, играющая центральную роль для прогнозиста, связана с определением «степени совершенства» прогноза безотносительно к способам его использования. Соответственно различают две группы оценок: экономические, определяющие практич. ценность прогностич. информации, и теоретические, отражающие степень соответствия прогнозов данным наблюдений по истечении срока прогноза. При экономич. подходе к оценке качества прогнозов в основу кладется какая-то мера полезности прогноза для данного потребителя, к-рая не может быть универсальной, так как зависит от потребителя. Теоретич. оценка качества также может быгь определена по-разному, в зависимости от того, какое свойство прогноза считается самым важным и как это свойство измеряется (см., напр., 11], [2]). Напр., пусть рассматривается вероятностный прогноз предиктанта, принимающего и значений (отвечающих п возможным фазам погоды Ф^ ..., Ф„). И пусть вектор Я = 0-|.'2 O.rjXt^l^r^U описывает даваемый вероятностный прогноз (где г. - прогнозируемая вероятность фазы Ф,), а реально осуществившееся состояние погоды (скажем, отвечающее фазе Ф;) обозначается D' = (dv ..., dn), где <i;~1 и dj = 0 нри/*-1. Тогда правило оценки представляет собой функционал, заданный на множестве пар векторов (R, D), к-рый каждому прогнозу и осуществившемуся впоследствии значению прогнозируемой переменной ставит в соответствие число S(R, F>l)=S((R). Таких правил оценки качества прогноза было предложено довольно много. Первой (по-видимому, удачной) мерой качества В. п. п. является показатель Брайера: PS(R.D)=\-(\/2)(R~n,R-D)--=\-(\/2)^n {(rrd)2. Осредненный по группе прогнозов показатель Брайер.ч измеряет точность данного метода прогноза. Показатель Брайера наиболее подходит для неупорядоченных фаз погоды: его величина не зависит от перестановки компонент вектора R при условии, что компонента, соответствующая вероятности осуществившегося события, остается на своем месте. Для упорядоченных фаз (напр., когда имеются три фазы: температура «ниже», «около» и «выше» нормы) при наблюдении, описываемом вектором D = (0, 0.1), прогноз /^--(0,4, 0.1, 0,5) следует считать менее удачным, чем прогноз R2=(0,\, 0,4, 0,5V В таких случаях предпочтительнее критерий RPS (R, D) = = 1 - W- D; R--DO/iN- 1), где r/= £> _ ,/*; d■ = ^ _, clk. Очевидно, что показатель RPS оценивает соответствие предсказанной и наблюденной функции распределения, a PS - предсказанного и наблюденного набора дискретных вероятностей. Лит.: [1J Груза Г. В., РаньковаЭ.Я., Вероятностные метеорологические прогнозы, Л., 1983; [2] Murphy A.H., Epstein E.S., «J. Appl. Met.», 1967, v. 6, >*? 5, p. 748-55. Г. В. Груза.
ВЕРОЯТНОСТНЫЙ ПРОЦЕСС (random/stochastic process) - см. Случайный процесс. ВЕРОЯТНОСТНЫХ МЕТРИК СРАВНЕНИЕ (com parision/ordering of probabilistic metrics) - упорядочение вероятностных метрик по их понимаемой в том или ином топологическом смысле. Если \i и v - метрики, заданные на множестве #'случайных величин, то соотношение |хЗ v («|i не сильнее V») означает, что для любой последовательности случайных величин Х0, Xj, ... из ST \>(Хп, Х0) -►0^ ц(Х„, Х0) ->0 при и->оо. Если к тому же существует последовательность случайных величин (70, Uh ... из Ж такая, что \i(Un, U0) ->0, но v((7w, UQ) -/> 0 при п-+°о, то u^v («д слабее V»). В случае ц-< v, v3|i говорят об эквивалентности метрик (|i~v). He всякая пара вероятностных метрик может быть упорядочена в указанном смысле. Напр., средняя метрика xj и равномерная метрика р не сравнимы между собой. Вместе с тем многие из используемых метрик допускают подобную упорядоченность. Так, напр., в наборе простых метрик - полной вариации метрики а, Леей метрики L, метрики X (определение см. в ст. Вероятностная метрика; структура), Леей - Прохорова метрики я, равномерной метрики р, равномерно квадратичной метрики р*, метрик xq(x,y) = sup {\fx(t)-fYu)\-л е^} и e2(X,y) = sup|^-Jor|/*x(0-/*y(0|2^:r>o|, где fx - характеристич. функция случайной величины X, справедливы следующие соотношения: 1~^~лхр~р0~е^0^а. (*) Можно говорить и о строгой упорядоченности среди вероятностных метрик, связанной со сближением случайных величин: ux^v («|X не сильнее v в строгом смысле»), понимая под этим, что для любых последовательностей случайных величин Х0, X]f ..., У0, Yit ... из 9С имеет место импликация v(X„, У„)->0г-(1(Х„, Y„)->0, и->оо. При этом но аналогии с \i<v и ji~v определяются соотношения fi^^v и |i«v. Присутствующие в (*) метрики в строгом смысле упорядочены следующим образом: L^<n«<5} L^^p^^a, р0^^р, p^^Q, Ро*£. Если (X, v - простые метрики в 9С, то следствием \1<\ является существование для любого ц-компактного множества Ка ЗГ такой неубывающей функции у(х, К), \|/(+0, /С) = 0, что в пределах К имеет место неравенство |i^\y(v, К). Соотношение |i^^v, рассматриваемое в пределах нек-рого множества случайных величин ЗС\ на к-ром вероятностная метрика |i конечна, равносильно неравенству |i ^ \|/(v), в к-ром функция \\f(u) не убывает и у( + 0) = 0. Лит.: [1] Сенатов В. В., «Матем. сб.», 1977, т. 102, К? 3, с. 425-34; [2) Золотарев В. М., Современная теория суммирования независимых случайных величин, М., 1986. В. М. Золотарев. ВЕРОЯТНОСТНЫХ РАСПРЕДЕЛЕНИЙ АРИФМЕТИКА (arithmetics of probability distributions) - раздел теории вероятностей, в к-ром изучаются разложения (факторизация) в сверточной полугруппе вероятностных распределений. Одной из основных теорем В. р. а. является Хинчина теорема о разложении (факторизации) распределений, с к-рой связаны проблемы описания класса /0 (см. Безгранично делимое распределение; разложение) и неразложимых распределений. Из других направлений исследований в В. р. а. можно выделить: изучение факторизации распределений, принадлежащих различным классам (безгранично делимые, быстро убывающие на бесконечности, сферически симметричные, декартовы произведения и др.); изучение представлений в виде свертки знакопеременных мер; построение вероятностных распределений арифметики на абелевых группах; обобщения на случай, когда операция свертки заменяется более общими (см. Обобщенная стохастическая свертка, Гипергруппа). Лит.: [1] ЛинникЮ. В., Островский И. В., Разложения случайных величин и векторов, М., 1972; [2] Лившиц Л. 3., Островский И. В., Чистя ков Г. П., в сб.: Итоги науки и техники. Теория вероятностей. Математическая статистика. Теоретическая кибернетика, т. 12, М., 1975, с. 5-42; [3] Лукач Е., Характеристические функции, пер. с англ., М., 1979; [4] Островский И. В., «Теория вероятн. и ее иримен.», 1986, т. 31, в. 1, с. 3-30. И. В. Островский. ВЕРОЯТНОСТНЫХ РАСПРЕДЕЛЕНИЙ АРИФМЕТИКА на абелевых группах (arithmetics of probability distributions on Abelian group), теория разложений случайных величин, - раздел теории вероятностей, в к-ром изучаются возможные распределения независимых случайных величин Х\ и Х2, сумма к-рых X имеет заданное распределение. Классич. теория, когда случайные величины принимают значения на действительной прямой IR, представляет собой глубокую теорию, наиболее существенный вклад в развитие к-рой внесли Г. Крамер (Н. Cramer), П. Леви (P. Levy), А. Я. Хинчин, Д. А. Райков, Ю. В. Линник, И. В. Островский, Р. Куппенс (R. Cuppens), Г. П. Чистяков (см. [1], [2]). Для классич. теории характерно использование мощного, развитого специально для этих целей аналитич. аппарата. Это связано с тем обстоятельством, что характеристич. функции рассматриваемых распределений в наиболее важных случаях допускают продолжение, как целые аналитич. функции, в комплексную плоскость. В ситуации, когда случайные величины принимают значения в локально компактной абелевой группе, эти методы, как правило, непосредственно не применимы, так как группа характеров - область определения характеристич. функции - не обладает естественной аналитич. структурой. Тем не менее, использование гармонич. анализа на группах, теории двойственности Понтрягина и специальных приемов, позволяющих применять комплексный анализ в задачах разложения, дало возможность получить групповые аналоги основных теорем классич. В. р. а. Пусть G - локально компактная сепарабельная абелева мет- рич. группа, Л (G) - полугруппа (относительно свертки) распределений на G. Распределение [i^e,M(G) называется делителем распределения \л&М (G), если существует такое распределение \12^^ (G), что |1 = \1Х*\12- Невырожденное распределение \л называется неразложимым, если у него нет других делителей, кроме вырожденных распределений и сдвигов \i. Класс распределений be~H](G)} не имеющих ни неразложимых, ни нетривиальных идемпотентных делителей, обозначается /0. Следующие результаты являются групповыми аналогами двух основных теорем арифметики распределений, доказанных А. Я. Хинчиным для распределений на действительной прямой: 1) каждое распределение \LeJl*(G) представимо в виде свертки трех распределений |i = mK*v*b, где тк - максимальный идемпотентный делитель |i, v - конечная или счетная свертка неразложимых распределений, 8е/0; 2) распределения класса /0 безгранично делимы (см. [3]). Согласно теореме Крамера, любое гауссовское распределение на IP имеет лишь гауссовские делители, то есть принадлежит классу /0. С другой стороны, любое гауссовское распределе- ВЕРОЯТНОСТНЫХ 95
ние на группе вращений окружности Т имеет негауссовские делители. В общем случае, для того чтобы на группе G любое гауссовское распределение имело лишь гауссовские делители, необходимо и достаточно, чтобы группа G не содержала подгруппы, топологически изоморфной Т. Для того чтобы на группе G любое гауссовское распределение имело негауссовские делители, необходимо и достаточно, чтобы группа G была топологически изоморфна Т. Эти результаты можно рассматривать, в определенном смысле, как вероятностную характеристику групп (в рассматриваемом классе групп). Пусть у - гауссовское распределение на группе G, причем его носитель а(у) - связная подгруппа конечной размерности. Тогда у имеет лишь гауссовские делители в том и только в том случае, когда у является непрерывным мономорфным образом гауссовского распределения в конечномерном линейном пространстве (см. [4]). Согласно теореме Райкова, Пуассона распределение к на II? имеет лишь пуассоновские делители, то есть тсе/0. В групповой ситуации это, вообще говоря, уже не так. Для того чтобы распределение Пуассона тс, порожденное мерой, сосредоточенной в точке х е G, имело лишь пуассоновские делители, необходимо и достаточно, чтобы элемент х был либо бесконечного порядка, либо порядка 2 (см. [5]). Свертка гауссовского и пуассоновского распределений на действительной прямой принадлежит классу /0. Так как на группе существуют, вообще говоря, как гауссовские, так и пуассоновские распределения, не принадлежащие классу /0, то необходимым условием принадлежности классу /0 их свертки является принадлежность каждого из ее сомножителей в отдельности классу /0. Для широкого класса групп это необходимое условие является и достаточным. Пусть к - распределение Пуассона, а у - гауссовское распределение на группе G, носитель к-рого а(у) - связная подгруппа конечной размерности; тогда если тс, уе/п» то и 7C*Ye^o (см. [4]). Для обобщенного распределения Пуассона \i = e (F) условия принадлежности классу /0 зависят от свойств меры F. Пусть сначала F - дискретная мера. На действительной прямой свертка двух распределений Пуассона принадлежит классу /0. Группоэой аналог этого результата имеет следующий вид. Для того чтобы обобщенное распределение Пуассона \i = e{F) на группе G, где носитель o(F) = {xv x2}} принадлежало классу /0, необходимо и достаточно, чтобы либо оба элемента х^ и х2 были элементами бесконечного порядка, либо один элемент был бесконечного порядка, а второй - порядка 2. Если же мера F на G такова, что носитель g(F)a {xq, xx, ..., хп}} где 2#0 = 0, а множество {xQ} xv ..., хп) независимо, то (X = е (F) е /0 (см. [6]). При этом борелевское множество AaG называется независимым, если для любого его конечного подмножества {*,}"= t из равенства kxxx + ... + k„xn = Q (k{ - целые) следует, что kx = ... = kn = 0. Пусть теперь мера F не обязательно дискретна. Если мера F на группе G конечна и обладает тем свойством, что свертки F*n и F*m попарно сингулярны при любых пфтп, то \i = e(F) e/0. Примером меры, имеющей попарно сингулярные степени, является любая конечная мера, сосредоточенная на независимом множестве точек. Имеет место следующее общее условие непринадлежности распределения \ie^(G) классу /0. Если G- компактная группа, не изоморфная группе вычетов по модулю 2, \ле«Н (G) и \л удовлетворяет условию \л(Е)^amG(E), 96 ВЕРОЯТНОСТЬ 0 < а < 1, для любого борелевского множества Е (mG - распределение Хаара на G), то \i g /0. Как следует из теоремы Линника, если у - невырожденное гауссовское распределение на IP, a F - конечная мера, причем у*е (F) е /0, то мера F дискретна, а ее носитель o(F) удовлетворяет специальным условиям арифметич. характера. В групповой ситуации даже ослабленного аналога этой теоремы уже нет. Пусть группа G имеет нетривиальную компоненту нуля, к-рая топологически не изоморфна 7\ а сама группа G топологически не изоморфна группе вида IP + D, где D - дискретная группа. Тогда существуют такие гауссовское распределение у и непрерывная конечная мера F на G, что y*e(F) g/0. Если же при этом компонента нуля имеет конечную размерность, то такая непрерывная конечная мера существует для любого гауссовского распределения уе/о- На действительной прямой класс /0 плотен в слабой топологии в классе всех безгранично делимых распределений и является в нем базисом в том смысле, что любое безгранично делимое распределение представимо в виде конечной или бесконечной свертки распределений класса /0. Ниже дано полное описание групп, на к-рых справедливы эти результаты: а) для того чтобы класс /0 был плотен в слабой топологии в классе всех безгранично делимых распределений, необходимо и достаточно, чтобы либо группа G была недискретна, либо изоморфна группе вычетов по модулю 2; б) для того чтобы любое безгранично делимое распределение на группе G было представимо в виде конечной или бесконечной свертки распределений класса /0, необходимо и достаточно, чтобы группа G была топологически изоморфна группе вида IP" + D, где D - дискретная группа, не содержащая элементов конечного ю- рядка р при р > 2 (см. [6]). Лит.: [1] ЛинникЮ. В., Островский И. В., Разложения случайных величин и векторов, М., 1972; [2) Островский И. В., «Теория вероятн. и ее примен.», 1986, т. 31, в. 1, с. 3-30; [3) Пар- тасаратиК. Р., Ранга РаоР., Варадхан С. Р. С, «Математика», 1965, т. 9, № 2, с. 115-46; [4] Feldman G. М., Fr>n- tovA.E., «J. Multiv. Ann.», 1983, v. 13, № i, p. 148-66; [5] Pv- хинА.Л., «Лит. матем. сб.», 1970, т. 10, № 3, с. 537-43; [6) Фел ьдман Г. М., Арифметика вероятностных распределений и характеризационные задачи на абелевых группах, Киев, 1990. Г. М. Фельдман. ВЕРОЯТНОСТЬ (probability) - числовая характеристика степени возможности появления какого-либо определенного события в тех или иных определенных, могущих повторяться неограниченное число раз условиях. Как категория научного познания понятие «В.» отражает особый тип связей между явлениями, характерных для массовых процессов. Категория В. лежит в основе особого класса закономерностей - вероятностных или статистических. Численное значение В. в нек-рых случаях получается из «классического» определения В.: В. равна отношению числа случаев, «благоприятствующих» данному событию, к общему числу «равновозможных» случаев. Напр., если из 10 млн. облигаций выигрышного займа, на к-рые в одном тираже должен выпасть один выигрыш максимального размера, в данном городе размещено 500 тыс. облигаций, то В. того, что максимальный выигрыш достанется жителю данного города, равна 500000/10000000= 1/20. В других, более сложных случаях определение численного значения В. требует статистического подхода. Напр., если при 100 попытках стрелок попал в цель 39 раз, то можно думать, что для него В. попадания в цель при данных условиях приблизительно равна 4/10. По В., определенной классич. или статистич. способом, могут быть вычислены в соответствии с правилами теории вероятностей новые В. Напр., если для нашего стрелка В. попадания при отдельном выстреле
равна 4/10, то В. того, что он будет иметь хотя бы одно попадание при четырех выстрелах, равна 1-(1-4/10)4* »0,87. Этот вывод может быть проверен статистически: если попытки поразить цель хотя бы одним выстрелом из четырех будут повторяться много раз, то они будут иметь успех приблизительно в 87% случаев (в предположении, что за это время искусство стрелка не изменится заметным образом). Математич, В. является выражением качественно своеобразной связи между случайным и необходимым. При изложении вероятностей теории формулируются в виде аксиом те свойства В., к-рые на данном этапе развития науки необходимы для ее развития. Однако ни эти аксиомы, ни классич. подход к В., ни статистич. подход не дают исчерпывающего определения реального содержания понятия «В.»; они являются лишь известными приближениями ко все более полному его раскрытию. Далеко не всякое событие, наступление к-рого при заданных условиях не является однозначно определенным, имеет при этом комплексе условий определенную В. Предложение, что при данных условиях для данного события В. (то есть вполне определенная нормальная доля числа появлений данного события при большом числе повторений данных условий) существует, является гипотезой, к-рая в каждом отдельном вопросе требует специальной проверки или обоснования. Напр., имеет смысл говорить о В. попадания в цель заданных размеров, с заданного расстояния из винтовки известного образца стрелком, вызванным наудачу из определенного воинского подразделения. Однако было бы бессмысленно говорить о В. попадания в цель, если об условиях стрельбы ничего не известно. По поводу связи В. с частотой надо иметь в виду следующее: при конечном числе п повторений заданных условий доля числа случаев т, в к-рых данное событие появится, то есть так наз. частота т/п, как правило, мало отличается от вероятности р. Чем больше число повторений п, тем реже встречаются сколько-либо значительные отклонения частоты т/п от вероятности р. Для пояснения этого обстоятельства рассмотрим пример бросания монеты, в к-ром В. появления «герба» и «надписи» одинаковы и равны 1/2. При десяти бросаниях (п =10) появление десяти «гербов» или десяти «надписей» очень маловероятно. Но и утверждать, что «герб» выпадает ровно пять раз, нет достаточных оснований; более того, утверждая, что «герб» выпадет 4 или 5, или б раз, мы еще довольно сильно рисковали бы ошибиться. Но при ста бросаниях монеты можно уже без практически ощутимого риска заранее утверждать, что число выпавших «гербов» будет лежать между 40-60 (см. Больших чисел закон). Математич. В. может служить для оценки В. события в обычном, житейском смысле, то есть для уточнения так наз. «проблематических» суждений, выражающихся обычно словами «возможно», «вероятно», «очень вероятно» и т.п. По поводу этих оценок следует иметь в виду, что в применении к любому определенному суждению, к-рое на самом деле может быть только истинным или ложным, оценка его В. имеет лишь временный или же субъективный смысл, то есть выражает лишь наше отношение к делу. Напр., если кто-либо, не имея по этому поводу специальных сведений, захочет представить себе вид окрестностей Москвы 23 марта 1930, то он скажет: «вероятно, в этот день на полях лежал снег». Однако на самом деле в 1930 снег под Москвой к 22 марта уже сошел с полей. Выяснив это обстоятельство, мы должны будем отменить первоначальную оценку, выраженную заключенным в кавычки проблематич. суждением. Тем не менее эта оценка, оказавшаяся в применении к данному индивидуальному случаю ошибочной, основана на верном общем правиле: «в начале двадцатых чисел марта на полях под Москвой по большей части лежит снег». Это правило отражает объективные свойства климата Подмосковья. Такого рода правила можно выражать, указывая уровень В. интересующего нас события, при тех или иных общих, осуществимых неограниченное число раз условиях. Эти оценки уже имеют объективный смысл. Поэтому употребление расчета В. для подтверждения наших оценок степени надежности тех или иных утверждений, относящихся к отдельным индивидуальным событиям, не должно давать повода к мнению, что математич. В. является только числовым выражением нашей субъективной уверенности в наступлении нек-рого события. Такое субъективное понимание смысла математич. В. является ошибочным. При последовательном развитии оно приводит к абсурдному утверждению, что из чистого незнания, анализируя одни лишь субъективные состояния нашей большей или меньшей уверенности, мы можем сделать какие-либо определенные заключения относительно внешнего мира. Описанное выше употребление расчета В. для оценки положения в отдельных индивидуальных случаях неизбежно приводит к вопросу о том, какими В. можно пренебрегать на практике. Этот вопрос решается по-разному, в зависимости от того, насколько велика необходимость быстрого перехода от накопления надежных данных к их действенному употреблению. Напр., если при данных условиях стрельбы теоретич. расчет приводит к тому, что поставленная боевая задача будет решена данным числом выстрелов с В. 0,95 (то есть В. того, что назначенного числа снарядов не хватит, равна 0,05), то обычно считают возможным исходить при руководстве боевыми операциями из предположения, что назначенное число снарядов окажется достаточным. В более спокойной обстановке научных исследований принято пренебрегать лишь В. в 0,003 (эта норма связана с так наз. правилом трех сигма), а иногда требовать и еще большего приближения В. отсутствия ошибки к единице. В математич. статистике В., к-рой решено пренебрегать в данном исследовании, называют значимости уровнем. Хотя в статистике обычно рекомендуют пользоваться уровнями значимости от 0,05 при предварительных ориентировочных исследованиях до 0,001 при окончательных серьезных выводах, часто достижима значительно большая достоверность вероятностных выводов. Напр., основные выводы статистич. физики основаны на пренебрежении лишь В. порядка меньшего 0,000 000 000 1. В основе математич. моделей, используемых в теории вероятностей, лежат три понятия: пространство Q так наз. элементарных событий, класс подмножеств Q (событий) и определенная на этом классе функция множеств Р - распределение вероятностей. Значение Р(Л) функции Р для события Л называется в этом случае вероятностью события Л. Лит.: [1] Колмогоров А. Н., Основные понятия теории вероятностей, 2 изд., М., 1974. А. И. Колмогоров (БСЭ-2, т. 7, М, 1951). ВЕРОЯТНОСТЬ в квантовой физике (probability in quantum physics) - категория, необходимость привлечения к-рой обусловлена тем, что наблюдаемое поведение физических объектов атомного и субатомного уровня носит выраженный статистический характер. Примерами могут служить процесс радиоактивного распада, происходящего в случайные моменты времени, и рассеяние света, вызываемое квантовыми флуктуациями атомов кристаллич. решетки при температуре, близкой к абсолютному нулю (то есть в отсутствие тепловых флуктуации). Соответственно, предсказания квантовой теории, описывающей поведение микрообъектов, являются по своему существу вероятностными и выражаются в терминах вероятностей переходов, средних значений, дисперсий, корреляций и т. п. ВЕРОЯТНОСТЬ 97
Принципиально важным, однако, является следующее обстоятельство: хотя результат каждого, отдельно взятого эксперимента можно рассматривать как обычную случайную величину, оказывается, что невозможно дать «классическое» описание совокупности статистич. результатов всевозможных экспериментов над данным микрообъектом, к-рое характеризует состояние этого микрообъекта в терминах какого-либо пространства элементарных исходов. Другими словами, состояние микрообъекта не может быть задано, как в классич. статистич. механике, распределением вероятностей Р(б/со) на нек-ром «фазовом пространстве» Ф, U), отражающем неточность или неполноту знания «истинного состояния» coeQ. Квантовая статистичность подлинна в том смысле, что носит первичный характер и принципиально неустранима за счет повышения точности и детальности измерений (см. Неопределенностей соотношение). С математич. точки зрения это выражается в том, что вероятностное описание квантовомеха- нич. объекта не может быть целиком построено на классич. аксиоматике пространства элементарных исходов и требует привлечения иных аналитич. средств (см. Некоммутативная теория вероятностей, Алгебра наблюдаемых). Тезис о невозможности введения в квантовую механику «скрытых параметров», то есть о несводимости квантовых вероятностей к той или иной форме классич. вероятностного описания, был выдвинут Н. Бором (N. Bohr) и послужил предметом глубокой физико-философской дискуссии в 30-х гг. (см. [1]). Признание de facto такой несводимости явилось следующим после построения кинетич. теории вещества принципиальным шагом на пути отказа от догматов детерминизма и внедрения статистич. категорий в физич. мышление. Дж. Нейман (J. Neumann) в книге [2] предпринял первую попытку придать «проблеме скрытых параметров» математич. статус, однако существенное прояснение вопроса было достигнуто лишь в 60-х гг. Состояния и наблюдаемые величины описываются в квантовой механике операторами S, X в гильбертовом пространстве системы Н (см. Плотности оператор, Наблюдаемая); в классич. статистич. механике состояния описываются распределениями вероятностей S(d(u), а наблюдаемые - случайными величинами X (со) на фазовом пространстве Q классич. системы. В проблеме скрытых параметров речь идет о возможности или невозможности установления соответствия S (б/со) -> S , Х(со)->Х между классич. и квантовыми состояниями и наблюдаемыми, к-рое сохраняло бы статистич. предсказания квантовой теории и удовлетворяло бы нек-рым физически мотивированным условиям. Подвергнув критич. анализу рассуждение Дж. Неймана, Дж. Белл показал (см. [3]), что из Глисона теоремы вытекает утверждение, к-рому можно придать следующую форму: не существуетвзаимно однозначного соответствия X (со) -> X между нек-рым множеством классич. наблюдаемых Х(со) на каком-либо фазовом пространстве О. и множеством всех квантовых наблюдаемых X в гильбертовом пространстве Н размерности выше 2, к-рое сохраняло бы функциональное исчисление наблюдаемых, то есть из Х(со)->Х следовало бы /ЧХ(со)) ->/"Х для произвольного многочлена f. Независимо аналогичный результат был получен С. Кохеном (S. Ко- chen) и Э. Шпеккером (Е. Specker) без привлечения теоремы Глисона. Отсюда следует невозможность введения скрытых параметров по схеме частичной наблюдаемости, реализуемой, в частности, в классич. статистич. механике, где имеется взаимно однозначное соответствие между «макроскопи- 98 ВЕРОЯТНОСТЬ ческими» наблюдаемыми величинами и нек-рыми функциями на фазовом пространстве системы. Однако этот результат не исключает более утонченной теории со скрытыми параметрами, в к-рой одна и та же квантовая наблюдаемая X может быть измерена множеством различных способов и соответствие X (со) ->Х таким образом является не взаимно однозначным. Тем не менее Дж. Белл показал, что даже в этом более широком классе не существует возможности удовлетворить естественному требованию, к-рое было названо «эйнштейновской локальностью». Ниже приводится близкое условие разделимости (см. [4])^ отражающее математич. сущность условия Белла. Пусть Xt, ..., Хп и Yt, ..., Ym- два набора квантовых наблюдаемых, удовлетворяющие условию коммутации Х,-Уу =УуХ£, 1=1, ..., я,; = 1, ..., т. (I) Можно считать, что наборы {X,-} и {Y:} относятся к двум различным подсистемам данной квантовой системы. Соответствие S (б/со) -> S, X (со) ->Х (не обязательно взаимно однозначное) удовлетворяет условию разделимости для данных п, т, если для любых квантовых наблюдаемыхХ\, ..., Хп и Yj, ..., Ym, подчиняющихся условию (1), и любого квантового состояния S найдутся случайные величины Х^со), ..., Х„(со), Yt(co), ..., Yw(co) и распределение вероятностей S (б/со) на нек-ром измеримом пространстве (Q, U) такие, что trSXiYj = J Х^соЖуЫЗХб/со) = Е5Х;Уу. Это означает, что разделимая теория со скрытыми параметрами должна воспроизводить набор корреляций между подсистемами данной квантовой системы. Существуют, однако, простые неравенства для корреляций случайных величин, нарушающиеся в квантовой теории. Пусть, напр., Xt(co), X2(co), Yt(co), Y2((u) - случайные величины на произвольном вероятностном пространстве Ш, tt, P), принимающие значения в отрезке [-1, 1], тогда |ЕР XXYX + EP XXY2\ + |EP X27t -ЕР Х2У2| ^2. (2) В разделимой теории со скрытыми параметрами неравенство (2) должно выполняться и для квантовых корреляций tr S X; Y:. Однако конкретный пример корреляций спиновых переменных двух частиц со спином 1/2 показывает, что квантовый аналог величины в левой части (2) достигает значения 2V^T. Таким образом, структура совокупности корреляций между подсистемами квантовой системы не может быть воспроизведена теорией со скрытыми параметрами, удовлетворяющей условию разделимости. Неравенства Белла подвергались экспериментальной проверке, к-рая показала хорошее согласие с квантовой теорией. Лит.: [1] Бор Н., Избранные научные труды, т. 2, М., 1971; [2] Нейман Дж., Математические основы квантовой механики, пер. с нем., М., 1964; [3] Bell J., «Rev. Mod. Phys.», 1966, ^ 38, p. 447-52; [4] ХолевоА. С, Статистическая структура квантовой механики и скрытые параметры, М., 1985. А. С. Холево. ВЕРОЯТНОСТЬ A POSTERIORI (a posteriori probability) - см. Апостериорная вероятность. ВЕРОЯТНОСТЬ A PRIORI (a priori probability) - см. Априорная вероятность. ВЕРОЯТНОСТЬ ОШИБОЧНОЙ КЛАССИФИКАЦИИ (probability of misclassification) - один из основных показателей, характеризующих качество правила классификации в дискриминантном анализе. Пусть имеется правило классификации S, относящее объект X в один из k классов Dx, ..., Dk: S:XeDJt если maxU^X), ..., dk(X)) = dj(X),
где dj(X) - дискриминантная функция, соответствующая ;-му классу. Тогда В. о. к. объекта из i'-го класса D, в /-й класс D определяется как P{i\j}=\ Pi(X)dX, JR,j где рг(Х) - плотность распределения X для i-го класса, а область Rij = {X:mdx(d^X)t ..., dk(X)) = dJ(X)}. На практике плотности /?,(Х) обычно неизвестны и пользуются следующими оценками величин P{i|/}: а) оценкой P{i\j} по частоте соответствующих ошибочных отнесений, полученной при применении правила классификации к элементам обучающей выборки, то есть к тем наблюдениям, по к-рым оценены сами дискриминантные функции; это будет смещенная в сторону занижения оценка В. о. к.; б) оценкой P{i\j) по частоте ошибочных отнесений на экзаменационной выборке, что дает несмещенную оценку В. о. к. Кроме того, несмещенную оценку В. о. к. можно получить, используя процедуру скользящего экзамена. В случае, если плотности Pi(X) являются многомерными нормальными, имеется параметрич. несмещенная оценка В. о. к. (см. Махалано- биса расстояние). И. С. Енюков. ВЕРОЯТНОСТЬ ПЕРЕХОДА (transition probability), переходная вероятность, - условная вероятность P{XteV\Xs = x} = p(s, х\ ty Г), s^£, хеЕ, Ге#, перехода за время от s до t из состояния х в множество Г в цепи или процессе Маркова с фазовым пространством (£, 9$). Обычно p(s, x\ ty Г) называется переходной функцией, а под В. и. понимают значения этой функции. При дискретном времени p(s> x;s + n, Г) называется вероятностью перехода за п шагов, а В. п. за один шаг - просто В. п.; первые выражаются через последние с помощью Колмогорова - Чеп- мена уравнения. В случае конечного или счетного Е достаточно задать В. п. для одноточечных множеств, так как p(s, x\ tyV) = ^yerp(syx\ tfy); в этом случае принято обозначать p(s, i\ ty j)=p{j(sy t)y ieE, jeE. Если процесс однороден во времени, то p(s, x\ t, Г) = = p(t-s, х, Г) зависит лишь от приращения времени, аналогично и p^s, O^Pijit-s). В более широком смысле В. п. (или переходная функция, или стохастическое ядро) из измеримого пространства (X, i«/) в измеримое пространство (У, ^) - это функция р(х. Г), хеХ, Ге^, такая, что: 1) р(х, Г) ^-измерима по х при каждом Г; 2) р(х, •) является вероятностной мерой на (У,$) при каждом х. А. А. Юшкевич. ВЕРОЯТНОСТЬ ПОГЛОЩЕНИЯ вцепи Маркова (ab sorbtion probability in a Markov chain) - вероятность попадания системы в подмножество фазового пространства, из к-рого с вероятностью 1 нет выхода. Пусть {Xt}t=0 t 2, ~ однородная цепь Маркова с конечным или счетным множеством состояний Е, и Са- один из существенных классов этой цепи (см. Маркова цепь; классификация состояний). В частности, Са может содержать лишь одно состояние, являющееся в этом случае поглощающим. В. п. nia системы, исходящей из состояния i, классом Са, по определению, равна (Я) т-» где кia - В. п. на я-м шаге; <\ при ieCa ia [0при1еЕ\Са и для я ^ 1 к^ = Р, {X, € Е\Са при 0 < t < я, Хп € Са}. Пусть R - класс несущественных состояний цепи. Так как E\R состоит из классов существенных состояний и эти классы не сообщаются друг с другом, то ft при! е Са, %ia {о при ieE\(Ca UЯ). (О Из формулы полной вероятности и марковского свойства для В. п. nia с i е R вытекают соотношения ni" = l*jeEP4nJ*' UR' (2) Если множество R (тем более, если пространство Е) конечно, то система (2) при «граничных условиях» (1) имеет единственное конечное решение. В случае бесконечного R ограниченное решение единственно тогда и только тогда, когда при каждом начальном состоянии ieR вероятность того, что система никогда не покинет R, равна 0. В любом случае В. п. представляют минимальное неотрицательное решение уравнений (1), (2). Наряду с В. п. часто рассматривают среднее время до поглощения - математич. ожидание т{ числа шагов, приводящих систему из начального состояния i в множество E\R существенных состояний. Числа т{ представляют минимальное неотрицательное (конечное или бесконечное) решение системы уравнений с «граничными условиями» m; = 0, ieE\R. (4) Сказанное выше о единственности конечного или ограниченного решения системы (1), (2) справедливо и для уравнений (3), (4). Пример (о разорении игрока). Пусть £={0, 1, ..., п}, Роо = Рпп=1> Pi,i-\ = (f и Pi,i+\=P ПРИ 0<!'<я, где 0<р<\, q-\-p, остальные вероятности перехода равны 0. Здесь состояния 0 и я поглощающие, класс несущественных состояний Я = {1, 2, ..., я-1}. Система (1), (2) для вероятностей Л; = Л;о поглощения в состоянии 0 (вероятностей разорения игрока, имеющего начальный капитал г) принимает вид я0= 1, 7C, = qf7Cj_1 +pni+v 1=1, 2, ..., я-1, я„ = 0, ее решение равно щ = (г-гп)/(\ -г"), r = q/p при р*\/2, л, = (я-О/и при р=\/2. Система (3), (4) для средних времен поглощения имеет решение т{ = i (я - i) при р = 1/2. При я -> оо в пределе получается случайное блуждание на множестве Е всех неотрицательных целых чисел с единственным поглощающим состоянием 0. Здесь R = {\, 2, ...} бесконечно, и минимальные решения системы (1), (2) и (3), (4) имеют вид \\ при/>^1/2, ni=\ • [г1 при р> 1/2, \i/(q-p) при p<\/2,te0, 1 [+оо при/?2И/2, |>1. Уравнения для В. п. или для средних времен поглощения можно использовать, чтобы вычислять в цепи Маркова веро- k ятности 7Су попадания из состояния г в состояние; раньше, чем ВЕРОЯТНОСТЬ 99
в ky или средние времена т^ до попадания из i в / и т. п. Для этого соответствующие состояния i и k (или только j) заменяют поглощающими состояниями. Другой способ вычисления Шф а также дисперсий времен перехода из состояния в состояние в конечных цепях использует фундаментальную матрицу (см. Маркова цепь\ фундаментальная матрица). Аналоги уравнений (2) и (3) для случая непрерывного времени см. в ст. Марковский процесс с конечным множеством состояний. Лит.: [1] Феллер В., Введение в теорию вероятностей и ее приложения, пер. с англ., т. 1, М., 1984; [2) Кемени Дж., С не л л Дж., Конечные цепи Маркова, пер. с англ., М., 1970. А. А. Юшкевич. ВЕРОЯТНОСТЬ СВЯЗНОСТИ случайного графа (probability of connectedness of a random graph) - см. Случайный граф. ВЕРХНИЙ ГРАНИЧНЫЙ ФУНКЦИОНАЛ (upper boundary functional) - см. Факторизационные тождества. ВЕРХНЯЯ ДОВЕРИТЕЛЬНАЯ ГРАНИЦА (upper confidence bound) - см. Доверительная полоса. ВЕРХНЯЯ И НИЖНЯЯ ПОСЛЕДОВАТЕЛЬНОСТИ (ФУНКЦИИ) [upper and lower sequences (functions)]. Числовая последовательность {#„}„>о называется верхней, или принадлежит верхнему классу (нижней, или принадлежит нижнему классу) для случайной последовательности {Хп}п>0, если Р{Хп>ап для бесконечно многих я} = 0 ( = 1 для нижней). Иначе, если почти наверное начиная с нек-рого случайного N величины Хп^ап, n>N (соответственно почти наверное найдутся сколь угодно большие я, для к-рых Хп>ап). Если Хп = У£_ Y{, Yi независимы и одинаково распределены, то любая последовательность {ап} является либо верхней, либо нижней для {Хп}. При этом если существует Е У j = w, то {(т + е)я} при любом е > 0 будет верхней последовательностью [(ш-е)я- нижней последовательностью] для {Хп}; в случае сг = ЕУ1 <°° верхняя и нижняя последовательности будут иметь вид {тя + (1±е)а(2я1п1пя)1/2} (повторного логарифма закон для сумм случайных величин). Для случайного процесса {X(t)} с непрерывным временем сходным образом определяются верхняя и нижняя функции: функция а (О является верхней (нижней) для {Х(0}, если почти наверное начиная с нек-рого случайного Т значения X(t)^a(t)} t>T [соответственно найдутся сколь угодно большие t} для к-рых X(t)>a(t)]; аналогично определяются верхняя и нижняя функции, когда t стремится к конечному пределу tQ, напр.: а (О - верхняя функция, если X(t)^a (О почти наверное при достаточно малых |£-£0|. Так, для стандартного винеровского процесса w(i) функция t ' b(t), где bit) - монотонная функция, будет верхней (нижней), если сходится (расходится) интеграл j~ exp(-b4t)/2)b(t)t~*dt. Таким образом, (1 +е)(2£ lnln О - верхняя функция для w(t) при е>0, Ш lnln О - нижняя функция для w(t) (повторного логарифма закон для винеровского процесса). Иногда используется несколько другое определение верхней (нижней) функции. Функция a(t) называется верхней (нижней) для процесса X (О, если Pjlim sup X(t)/a(t)<\\ = 1 (? Jlim sup X (t)/a (t)> ll = lY 100 ВЕРОЯТНОСТЬ Функция a(t) называется точной верхней функцией для Х(0, если Pjlim sup X(t)/a(t) = l)= 1. Лит.: [11 Боровков А. А., Теория вероятностей, 2 изд., M., 1986; [21 ГихманИ.И., Скороход А. В., Введение в теорию случайных процессов, 2 изд., М., 1977. К. А. Боровков. ВЕРХНЯЯ ЦЕНА ИГРЫ (upper value of a game) - см. Игра двух лиц. ВЕРШИНА распределения (mode of a distribution) - см. Мода. ВЕС (weight) - см. Квадратичное отклонение. ВЕС точек плана (weight of supporting points) - частота точек из носителя плана регрессионного эксперимента; иод носителем плана понимается множество несовпадающих значений контролируемой переменной. М. Б. Малютов. ВЕСОВАЯ МАТРИЦА (weight matrix) регрессионного эксперимента- матрица, обратная к матрице ковари- ации ошибок измерений. В. м. определяет квадратичную форму невязок регрессии, минимизируемую наилучшей линейной несмещенной оценкой, и коэффициенты последней. М. Б. Малютов. ВЕТВЕЙ И ВЕРОЯТНОСТНЫХ ГРАНИЦ МЕТОД (branch and probability bound method) - см. Многоэкстремальных экспериментов планирование. ВЕТВЯЩЕЕСЯ СЛУЧАЙНОЕ БЛУЖДАНИЕ (branching randow walk) - ветвящийся процесс, в к-ром каждая частица имеет положение в заданном пространстве Р\ при размножении частицы-потомки занимают положения, смещения к-рых относительно положения частицы-родителя имеют заданные распределения. Изучаются асимптотич. свойства В. с. б.: распределение числа частиц в области AtaP в момент £-><*>, поведение эмпирич. функции распределения (то есть случайной меры на Р, имеющей единичную общую массу и приписывающую равные веса всем частицам, существующим в момент £-><*>), поведение линейной оболочки положений частиц, существующих в момент t -> °°, и т. п. Лит.: [11 Biggins J.D., «Lect Notes in Biomath.», 1980, v. 38, p. 57-67; [21 Erickson K.B., «Z. Wahr. und verw. Get», 1984, Bd 66, H. 1, S. 129-40. A.M. Зубков. ВЕТВЯЩЕЕСЯ СЛУЧАЙНОЕ ПОЛЕ (branching random field) - случайный процесс, описывающий эволюцию бесконечной совокупности частиц, каждая из к-рых имеет положение в заданном пространстве Р и независимо от остальных частиц порождает ветвящееся случайное блуждание. Вид предельных теорем для числа частиц в момент £-><*>, находящихся в заданном множестве At cz P, зависит от соотношений между распределением числа непосредственных потомков одной частицы, распределением смещения частиц-потомков относительно частицы-родителя, размерностью пространства Р и характером изменения множества At. В общем случае нетривиальным является вопрос о существовании и виде стационарных В. с. п. (при заданных законах размножения и смещения). Переход, аналогичный переходу от ветвящихся процессов Гальтона - Ватсона к ветвящимся процессам Ирджины, приводит к ветвящимся процессам со значениями в пространстве мер на пространстве Р. Лит.: [11 Керстан Й., Маттес К., Мекке Й., Безгранично делимые точечные процессы, пер. с англ., М., 1982; [21 Dawson D. A., Gorostiza L.G., «Math. Nachr>, 1984, Bd 118, S. 19-46; [31 Fleischman J., «Trans. Amer. Math. Soc>, 1978, v. 239, p. 353-89; [41 IvanoffB.G., «Lect. Notes Math.», 1986, v. 1212, p. 187-94. A. M. Зубков. ВЕТВЯЩИЙСЯ ПРОЦЕСС (branching process) - случайный процесс, описывающий широкий круг явлений, связанных с размножением и превращением каких-либо объектов (напр., частиц в физике, молекул в химии, особей в какой-либо
популяции, генов в генетике). Основным математич. предположением, выделяющим из общего понятия случайных процессов класс В. п., является предположение независимости размножения частиц друг от друга. Достаточно общей моделью В. п. является Беллмана - Харриса процессу в к-ром каждая из частиц у (при какой-либо нумерации) живет случайное время ху с функцией распределения G(t) = P{iy^t}, G(-0) = 0, G(oo)=1, и в конце своей жизни частица производит случайное число Ny новых частиц с производящей функцией h (s) = EsNy. Предполагается, что ху и Ny не зависят друг от друга и все пары (ху, Ny) независимы в совокупности. Вновь возникшие частицы размножаются по тому же вероятностному закону. Пусть Z (t) - число частиц в процессе Беллмана - Харриса в момент t. В случае, когда Z(0) = 1 и существующая при £ = 0 частица имеет нулевой возраст, производящая функция F (t; s) = Es удовлетворяет нелинейному интегральному уравнению F(t;s) = fQh(F(t-u;s))dG(u) + s(\-G(t)), |s|^l,^0. (1) Процесс Беллмана - Харриса называется также (G, Л)-про- цессом. Если G(0 = M^(0 = 1 -е~{', t>0, то (М^, Л)-про- цесс является марковским; его называют ветвящимся процессом с непрерывным временем. В этом случае уравнение (1) равносильно дифференциальному уравнению -^^ = X[h(F(t; s)) - Fit; 5)1 Ы ^1, t >0, dt с начальным условием F(0; s)=s. Если GW=£W={,0,^i,' то (Е, Л)-процесс Z(t) называется Галыпона - Ватсона процессом. Последовательность Zn = Z(n) образует цепь Маркова, а производящие функции F (п; s) в этом случае будут итерациями F(s) = F(l; s): F(n+1; s) = F(F(n; s)), F(0; s) = s. В общем случае (G, Л)-процесс является немарковским. Впервые (F, Л)-процесс рассматривали Ф. Гальтон (F. Gal ton) и Дж. Ватсон (G. Watson) в 1873. А. Н. Колмогоров и Н. А. Дмитриев в 1947 ввели в [1] модель (М^,Л)-процесса. Немарковская модель В. п. была построена в работе Р. Беллмана и Т. Харриса в 1948 (см. [3]). Математич. ожидание числа частиц A(t) = EZ(t) в случае процесса Беллмана - Харриса удовлетворяет уравнению типа восстановления А(О=А¥0Аа-и)(Ю(и) + \-С(О, где А - h'( 1). Если А < <*>, то при больших t A(t)~C0eat, где а - корень уравнения \=AJ~e~audG(u). (2) Это уравнение при А^\ всегда имеет корень а^О, причем А - 1 при а = 0. При А < 1 уравнение (2) имеет решение, если 1 - G(t) убывает с ростом t экспоненциально. В этом случае а<0. Таким образом, поведение В. п. при больших t в значительной степени опеределяется величиной параметра А. Для (М, h)- и (F, Л)-процессов уравнение (2) решается в явном виде. В первом случае а = Х(А-1), а во втором а=1пЛ. В. п. называется докритическым ветвящимся процессом, если А < 1, надкритическим ветвящимся процессом, если А > 1, и критическим ветвящимся процессом, если А = 1 и h (s) &s. Если Л<<», то уравнение (1) будет иметь единственное решение. Если Л = °°, то единственность решения уравнения (1) будет иметь место при нек-рых условиях, наложенных на G(t) в окрестности нуля и на h (s) в окрестности 1; эти условия называются условиями регулярности В. п. (см. Ветвящийся процесс; регулярность). Для регулярных В. п. P{Z(0<oo}=l при всех t>0; нерегулярные В. п. удовлетворяют неравенству P{Z(0<oo}< 1 при всех t>0. В этом случае с положительной вероятностью за конечное время t число частиц z (t) обращается в бесконечность, то есть происходит «взрыв». Докритич. и критич. В. п. вырождаются с вероятностью 1, то есть для них q- lim P{Z(O = 0}=l. В надкритич. В. п. вероятность вырождения q < 1. Вероятность продолжения В. п. Q(t) = P {Z(0 > 0} в марковском В. п. в докритич. случае при дополнительном условии EZ\ogZt<oo убывает асимптотически показательно: Q(t)~Keat, (3) где а - корень уравнения (2). В критич. марковском В. п. при DZt<oo Q~2/DZt,t^>oo, (4) при этом DZt = Bt, B = h"(\) в (F, /г)-процессе и B = Xh"(\) в (М, Л)-процессе. Более детальное изучение асимптотич. поведения марковского В. п. Z(t) при £-><*> показывает, что условный закон распределения при t -> оо слабо сходится к предельному распределению S (х): St(x)^S(x), (5) если конечны нек-рые моменты Z (t). В докритич. В. п. предельный закон Six) дискретен, а в остальных случаях абсолютно непрерывен. Особенно выделяется случай критич. В. п., для к-рого предельный закон S (х) показательный: S(x)=\-e~x,x^Q. (6) Распределение (6) является предельным также и для В. п., близких к критическим. Явления, возникающие при £-><*>, в близких к критич. В. п., называются переходными (см. Ветвящийся процесс; переходные явления). Результаты (3) - (6) обобщаются в нескольких направлениях. В марковских В. п. с более слабыми ограничениями на моменты Ny установлены асимптотические при t -> °° формулы для Q(t) и St(x). В частности, если для критич. марковского В. п. h{\ -и) = 1 -u + u*+aL(u), где 0<а^ 1, L (и) - медленно меняющаяся при uiO функция, то Q(i)~t~x'aLx(t), £-><*>, где Lx(t) - медленно меняющаяся функция при £-><*>, а предельное распределение S(x) имеет преобразование Лапласа 1 -Ш+Ха)1/а Другое обобщение этих результатов получается в случае В. п. Беллмана - Харриса. Если 1-G(0 при £-><*> убывает достаточно быстро, то предельное поведение В. п. имеет тот же характер, что и в марковском случае. Однако при медленном убывании «хвоста» распределения 1-G(0 возникают новые явления. Напр., в критич. В. п. в нек-рых случаях появляются ненулевые предельные вероятности lim P{Z(O = /t|z(O>0} t-*oo без растущей нормировки Z (t), что в случае марковских В. п. имело место лишь для докритич. В. п. ВЕТВЯЩИЙСЯ 101
Следующее обобщение модели В. п. связано с тем, что рассматриваются частицы п различных типов Tv Г2, ..., Тп. Однотипные частицы эволюционируют по одному и тому же закону. Предполагается, что время жизни частицы i-ro типа имеет функцию распределения G,-(0, а превращение частицы f-ro типа в конце жизни в совокупность частиц типов Tv T2, ..., Тп определяется многомерной производящей функцией h{{sx, s2, ..., sn). Если среди потомства частицы любого типа Т{ с положительной вероятностью содержатся частицы любого другого типа Т'-, то В. п. называется неразложимым ветвящимся процессом. Асимптотич. поведение неразложимых В. п. в известной степени аналогично случаю однотипных В. п. Разложимые ветвящиеся процессы в общем случае изучены менее детально. Исключением являются ветвящиеся процессы с иммиграцией, когда наряду с размножением частиц имеется нек-рый независимый случайный механизм иммиграции частиц извне. В этом случае возникают многие новые асимптотич. явления. Рассматриваются также модели В. п., в к-рых в паре (х8, AL) закон распределения числа частиц Ny зависит от возраста материнской частицы ху. В общих ветвящихся процессах (к-рые называются также ветвящимися процессами Крампа -Мода -Ягерса, или N-процессам и) частица производит потомство на протяжении своей жизни несколько раз. Эта модель лучше всего отражает закономерности биологич. процессов размножения. Другое усложнение В. п. связано с зависимостью частиц от положения в пространстве. Пусть, напр., частицы независимо друг от друга совершают броуновское движение в г-мерной области G с поглощающей границей 8G. Частица, находящаяся внутри области G, за время Д£->0 с вероятностью pnAt + o(At), я*1, превращается в п частиц, к-рые начинают независимо друг от друга блуждать по броуновским траекториям из точки их рождения. Пусть \ixt(A) равно числу частиц в множестве А в момент t, если в начальный момент 0 была одна частица в точке xeG. Производящий функционал H(t, х, *(•)) = Eexp[jG Ins(y)\Lxt(dy)] удовлетворяет квазилинейному параболич. уравнению &- = &H + f(H) at с начальным условием Я (0, х, s()) = s(x) и граничным условием Hit, х, s())\x _+dG = 0, где Д = Т. —? ~ опеРа~ тор Лапласа, a /4s) = £ pn(sn-s). В общей модели В. п. предполагается, что размножающиеся частицы характеризуются какими-либо параметрами, к-рые можно интерпретировать как возраст, положение частицы в пространстве, тип, размер или энергию частицы и т. п. Изучение таких процессов ведется с помощью производящих функций или производящих функционалов, для к-рых выводятся нелинейные дифференциальные или интегральные уравнения. Можно дать следующее достаточно общее описание таких моделей В. п. Пусть в нек-ром фазовом пространстве X независимо друг от друга по закону марковского процесса блуждают частицы. Предполагается, что случайное время жизни каждой частицы есть марковский момент. В конце своей жизни частица производит новые частицы, к-рые по какому-либо вероятностному закону распределяются по фазовому пространству X. Новые частицы эволюционируют независимо друг от друга аналогичным образом. В пространстве целочисленных мер, определяв- 102 ВЕТВЯЩИЙСЯ мых численностями частиц в подмножествах X, так построенный В. п. является марковским. Однако В. п. часто рассматриваются в более простых редуцированных пространствах. В этом случае многие из них становятся немарковскими. См. также Ветвящееся случайное блуждание, Ветвящееся случайное поле, Ветвящийся процесс с блужданием. В большей части приведенных выше моделей сохраняет смысл подразделение процессов на докритческие, критические и надкритические В. п. При этом в более сложной обстановке сохраняются многие свойства, установленные для простых В. п. В частности, в критич. В. п. часто в качестве предельного распределения возникает показательное распределение. В. п. находят применения при расчете различных реальных биологич., генетич., физич., химич., технич. процессов. В реальных процессах часто нарушается условие независимости размножения различных частиц и, наоборот, при размножении имеется взаимодействие частиц. Так обстоит дело во многих биологич. процессах размножения, в процессах распространения эпидемий, в бимолекулярных химич. реакциях и т. п. Однако начальные стадии развития таких процессов можно рассчитывать с помощью соответственно подобранных моделей В. п. Это делается в тех случаях, когда в среде имеется не очень много активных частиц, к-рые при малых концентрациях почти не встречаются друг с другом, а изменения состояния системы происходят при встречах этих активных частиц с частицами среды. В процессах эпидемии, напр., такими активными частицами можно считать больных индивидуумов. В генетике с помощью В. п. можно рассчитывать, напр., явления, связанные с мутациями. Ветвящийся процесс с конечным числом типов частиц может служить моделью при расчетах цепных реакций; диффузионный процесс ветвящийся - моделью нейтронных процессов в ядерных реакторах. Явления, возникающие в ливнях космич. лучей, также могут изучаться с помощью В. п. В телефонии расчет нек-рых систем с ожиданием сводится к моделям В. п. Лит.: II] Колмогоров А. Н., Дмитриев Н. А., «Докл. АН СССР», 1947, т. 56, № 1, с. 7-10; [2) Севастьянов Б. А., Ветвящиеся процессы, М., 1971; [3) Bellman R., Harris Т., «Proc. Nat. Acad. Sci. USA», 1948, v. 34, № 12, p. 601-04; [4) AthreyaK.B., Ney P.E., Branching Processes, B. - Hdlb. - N.Y., 1972; [5] Ватутин В.А., «Матем. сб.», 1979, т. 109, № 3, с. 440-52; [6] Ватутине. А., Зубков A.M., в кн.: Итоги науки и техники. Теория вероятностей. Математическая статистика. Теоретическая кибернетика, т. 23, М., 1985, с. 3-45, ч. II - «J. Sov. Math.», 1993, v. 67, № 6, p. 3407-85. б. А. Севастьянов. ВЕТВЯЩИЙСЯ ПРОЦЕСС бинарный (binary branching process) - см. Бинарный ветвящийся процесс. ВЕТВЯЩИЙСЯ ПРОЦЕСС в случайной среде (branching process in random environment) - ветвящийся процесс, в к-ром распределение числа потомков каждой частицы, размножающейся в момент t, зависит от состояния в этот момент случайного процесса-«среды» Xt. При условии, что траектория {Xt} фиксирована, В. п. в случайной среде развивается так же, как неоднородный во времени ветвящийся процесс. В. п. в случайной среде был введен (см. [1]) для случая, когда {Xt} - последовательность независимых одинаково распределенных случайных величин. Позднее (см., напр., [2]) рассматривались случаи эргодич. процесса {Xt} и непрерывного времени. Если т (х) - математич. ожидание числа потомков частицы, размножающейся в момент, когда Xt = x, то В. п. в случайной среде называется до- критическим при Elogm(Xf)<0, критическим при Elogm(X,) = 0 и надкритическим при Elogm(X,)>0. В предельных теоремах для числа частиц Z(t) В. п. в случайной среде в момент £-><», как правило, утверждается, что для почти каждой траектории процесса-«среды» {Xt} справедлив аналог предельной теоремы для соответствующего неоднород-
ного В. п. (см., напр., [2]). Нетривиальное влияние «случайной среды» проявляется, напр., в свойствах вероятности невырождения критич. В. п. в случайной среде (см. [3], [4]): для критич. В. п. в случайной среде существуют такие числа Ct, С2, С3 > 0, что при Z (0) = 1 Cxf42 ^ P{Z (О > 0} ^ C2fx/2, НтР{сзГ1/2|1пР{%)>0|{ХмГм=0}| <*} = = 2 Г'^/'Л, Ш Jo Лит.: (1) Smith W.L., «Ann. Math. Stat», 1968, v. 39, № 6, p. 2136- 2140; (2) AthreyaK.B., KarlinS., «Ann. Math. Stat», 1971, v. 42, No 5, p. 1499-1520; № 6, p. 1843-58; [3] Козлов М.В., «Теория веро- лтн. и ее иримен.», 1976, т. 21, в. 4, с. 813-25; [4] Берестова Н. А., «Докл. АН СССР», 1982, т. 267, № 1, с. 18-22. А. М. Зубков. ВЕТВЯЩИЙСЯ ПРОЦЕСС вложенный (embedded branching process) - см. Вложенный ветвящийся процесс. ВЕТВЯЩИЙСЯ ПРОЦЕСС; вырождение (branching process; extinction of) - событие, состоящее в том, что число частиц Z(t) в ветвящемся процессе обращается в нуль. Вероятность P{Z(O = 0} = P0(O и ее предел q = \im PQ(t) называ- t->oo ются вероятностями вырождения. Если h (s) - производящая функция числа потомков одной частицы, то вероятность вырождения q равна наименьшему неотрицательному корню уравнения s = h(s). В.п. с q=\ называется вырождающимся, а с qr< 1 - невырождающимся. Б. А. Севастьянов. ВЕТВЯЩИЙСЯ ПРОЦЕСС диффузионный (diffusion branching process) - см. Диффузионный процесс ветвящийся. ВЕТВЯЩИЙСЯ ПРОЦЕСС докритический (subcritical branching process) - см. Докритический ветвящийся процесс. ВЕТВЯЩИЙСЯ ПРОЦЕСС критический (critical branching process) - см. Критический ветвящийся процесс. ВЕТВЯЩИЙСЯ ПРОЦЕСС; критичность (branching process; criticality of) - свойство ветвящегося процесса, определяющее интенсивность размножения частиц и зависящее от значения нек-рого параметра критичности. Напр., в Гальто- на - Ватсона процессе таким параметром является А = EZ(0, где Z(t) - число частиц в момент t; критич. значение этого параметра равно Л0 = 1. При А < 1 - процесс докритический и EZ (О -> 0, при А > 1 - процесс надкритический и EZ(О->°°, при А = 1 - процесс критический и EZ(t) = \. Б. А. Севастьянов. ВЕТВЯЩИЙСЯ ПРОЦЕСС надкритический (supercritical branching process) - см. Надкритический ветвящийся процесс. ВЕТВЯЩИЙСЯ ПРОЦЕСС неоднородный во времени (temporally non-homogeneous branching process) - см. Неоднородный во времени ветвящийся процесс. ВЕТВЯЩИЙСЯ ПРОЦЕСС неразложимый (non-decomposable branching process) - см. Неразложимый ветвящийся процесс. ВЕТВЯЩИЙСЯ ПРОЦЕСС нерегулярный (irregular branching process) - см. Ветвящийся процесс; регулярность. ВЕТВЯЩИЙСЯ ПРОЦЕСС общий (general branching pro- cess/Grump - Mode - Jagers branching process) - см. Общий ветвящийся процесс. ВЕТВЯЩИЙСЯ ПРОЦЕСС огр аниченный (bounded branching process) - см. Ограниченный ветвящийся процесс. ВЕТВЯЩИЙСЯ ПРОЦЕСС; переходные явления (branching process; transient phenomena/heavy-traffic approximation) - асимптотические свойства ветвящихся процессов. близких к критическим. Для критич. В. п. \i(t) с конечной дисперсией Ь числа потомков одной частицы условное предельное распределение \i(t)/bt при £-><» и условии \i(t)>0 является показательным (см. Критический ветвящийся процесс). Предельные теоремы для докритич. и надкритич. В. п. связаны с другими нормировками числа частиц, а предельные распределения существенно зависят от распределения числа потомков одной частицы. Однако, если, напр., \i\(t)} fott), ... - такая последовательность В. п., что среднее число потомков одной частицы в процессе \in(t) стремится к 1 при я-><», а Ьп - дисперсия числа потомков одной частицы в процессе \in(t), то при довольно широких условиях предельное условное распределение \in(t)/bnt при £-><», п->°° и условии \in(t) >0 тоже оказывается показательным. Лит.: [1] Севастьянов Б. А., Ветвящиеся процессы, М., 1971. A.M. Зубков. ВЕТВЯЩИЙСЯ ПРОЦЕСС разложимый (decomposable branching process) - см. Разложимый ветвящийся процесс. ВЕТВЯЩИЙСЯ ПРОЦЕСС регулируемый (controlled branching process) - см. Регулируемый ветвящийся процесс. ВЕТВЯЩИЙСЯ ПРОЦЕСС; per улярность (branching process; regularity of ) - свойство ветвящегося процесса, обеспечивающее с вероятностью 1 конечность числа частиц в любой момент времени. В Беллмана - Харриса процессе производящая функция F(t; s) числа частиц Z (t) в момент времени t при любом Ы < 1 есть единственное решение нелинейного интегрального уравнения F(t;s)= fQ h(F(t-u;s))dG(u)+s(\-G(t)), где G(t) - функция распределения времени жизни частиц, h (s) - производящая функция числа непосредственных потомков одной частицы. Для регулярного ветвящегося процесса lim F(t; s) = \} stl а для нерегулярного - lim F(t; s)<\, t>0. Если G(t)Xta при 0^t^tQ для нек-рых tQ>0} а>0, то необходимым и достаточным условием регулярности процесса будет расходимость интеграла f1 dx Jo x*-Va(\-k(\-x))Va' Лит.: [1] Севастьянов Б. А., Ветиящиеся процессы, М., 1971; [2] Ватутин В. А., «Докл. АН СССР», 1976, т. 230, К? 1, с. 15-18. Б. А. Севастьянов. ВЕТВЯЩИЙСЯ ПРОЦЕСС регулярный (regular branching process) - см. Ветвящийся процесс; регулярность. ВЕТВЯЩИЙСЯ ПРОЦЕСС редуцированный (reduced branching process) - см. Редуцированный ветвящийся прогресс. ВЕТВЯЩИЙСЯ ПРОЦЕСС с блужданием (branching random walk) - модель ветвящегося процесса (с дискретным или непрерывным временем, с одним или несколькими типами частиц), в к-рой наряду с размножением возможно случайное перемещение частиц внутри нек-рой области. Такое перемещение, в отличие от частиц диффузионного процесса ветвящегося, частица В. п. с блужданием совершает лишь однажды - в момент рождения. Лит.: [1] Athreya К. В., Ney P. E., Branching processes, В. - Hdlb. - N.Y., 1972; [2] Biggirsl., Classical and Modem branching processes, IMA volumes in Math, and its Appl., v. 84, В., 1997, p. 19-40. B.A. Ватутин. ВЕТВЯЩИЙСЯ 103
ВЕТВЯЩИЙСЯ ПРОЦЕСС с вз аимодействием частиц (branching process with interaction of particles) - модель ветвящегося процесса, в к-рой новые частицы могут появляться не только при делении частиц, но и в результате взаимодействия нек-рых групп частиц. Однородный во времени В. п. с взаимодействием частиц является частным случаем марковского процесса с непрерывным временем со счетным множеством состояний. Состояние процесса описывается случайным вектором X(t) = (Xx (О, .., Xn(i)), k-я компонента к-рого показывает, что в момент времени t имеется Xk(t) частиц типа Tk. Плотности дар = —j-— переходных вероятностей Рар(0, а, peN", определяются следующим образом. Дано конечное множество А = {е}, е е Ып. Пусть за время A^lO любая совокупность частиц, в к-рую входят по е^ частиц типа Tk, k=\y ..., я, ее Л, взаимодействует между собой с вероятностью XzAt + oiAt), взаимодействие нескольких таких групп за время At возможно с вероятностью o(At). Вместо взаимодействующих частиц с вероятностью реа появляется группа частиц, соответствующая вектору р, Y реа= \} ре£ = 0. При этом для а ф р =у = -У с£'. .сук *„>. Ы<1, -р„*и\ Используя производящие функции [s^Sj, Fatt;5) = 2pPap(05PfGpft;5) = XB- прямую и обратную системы уравнений Колмогорова для В.п. с взаимодействием частиц записывают в виде dF„(t;s) dGp(t;s) fe(s) d£Fa(t;s) Fa(0;s) = sa Э* **-.*2» *P Для нек-рых моделей В. п. с взаимодействием частиц имеют место предельные теоремы для числа финальных частиц, аналогичные теоремам для В. п. с независимыми частицами (см. [4]). См. также Эпидемии процесс. Лит.: [1] ЛеонтовичМ. А., «Ж. эксперимент, и теоретич. физики», 1935, т. 5, № 3/4, с. 211-31; [2] Б ару ча-Рид К., Элементы теории марковских процессов и их приложения, пер. с англ., М., 1969; [3] Севастьянов Б. А., Калинкин А. В., «Докл. АН СССР», 1982, т. 264, № 2, с. 306-08; [4] Калинкин А. В., «Докл. АН СССР», 1983, т. 268, № б, с. 1362-64; 1983, т. 269, № 6, с. 1309-12. А. В. Калинкин. ВЕТВЯЩИЙСЯ ПРОЦЕСС с зависимостью от возраста (age-dependent branching process), процесс Севастьянова, (G, Л„)-процесс,- ветвящийся процесс (с одним или несколькими типами частиц), в к-ром распределение числа потомков частицы в момент ее превращения зависит от ее возраста. Модель В. п. с зависимостью от возраста предложена в [4] как обобщение Беллмана-Харриса процесса. В В. п. с зависимостью от возраста с одним типом частиц каждая частица имеет случайную продолжительность жизни х с функцией распределения G(0 = P{K£}. В конце жизни частица превращается в ^ частиц нулевого возраста. Пусть h(u, s) = E[s^T |т=и], a Z(i) - число частиц в процессе в 104 ВЕТВЯЩИЙСЯ момент t, если процесс начался с одной частицы нулевого возраста в момент £ = 0. Производящая функция Fit; s) = удовлетворяет интегральному уравнению = EsZ(0. F(^; 5) = J0^(m, Я^-м; s))rfGW + s(l-G(0). Пусть А = Е^, В = EJ^fl^- 1). В. п. с зависимостью от возраста называется докритическим, если А < 1, критическим, если А = 1 и #>0, и надкритическим, если А > 1. Если а - мал ьту с о вс кий параметр процесса, то есть корень уравнения Ee~axtrl = 1, и Ее~ахх£У1<°°, то EZ(t)~ceat, с>0^->оо. (О Докритич. и критич. В. п. с зависимостью от возраста вырождаются почти наверное, причем для докритич. процесса (при наличии мальтусовского параметра) характерна экспоненциальная скорость стремления к нулю величины Q(t) = P{Z(0 > 0} при t -> о©, а в критич. случае ,J_ ' Bt 0(0- Ет^. (2) В докритич. процессе предельное распределение величины Z(t) при t -> °о и условии невырождения к моменту t дискретно. В случае критич. процесса, как правило, dJ Z(t) -<x\Z(t)>0 Л-е~ х>0, (3) при [E[Z(t)\Z(t)>0) £-><*> (об иных возможностях см. в ст. Критический ветвящийся процесс). В надкритич. процессах почти наверное существует lim e~atZ(t). (4) Аналоги утверждений (1)-(4) справедливы и в случае процессов с несколькими типами частиц. Лит.: [1] Ватутин В. А., Зубков А. М., в кн.: Итоги науки и техники. Теория вероятностей. Математическая статистика. Теоретическая кибернетика, т. 23, М., 1985, с. 3-67; [2] Коваленко И. Н., Кузнецов Н.Ю., Шуренков В. М., Случайные процессы. Справочник, К., 1983; [3] Севастьянов Б. А., «Вестн. Моск. ун-та*, 1948, № 3, с. 13-34; [4] его же, Ветвящиеся процессы, М., 1971. В. А. Ватутин. ВЕТВЯЩИЙСЯ ПРОЦЕСС с иммиграцией (branching process with immigration) - модель ветвящегося процесса, в к-рой новые частицы могут появляться не только при делении частиц, но и в результате иммиграции из «внешнего» источника. Напр., ветвящийся Гальтона-Ватсона процесс с иммиграцией можно определить соотношениями Z(0) = 0, Z(t+\)=Xtti + ...+XttZit)+Yt, ^0, в к-рых Z(t) - число частиц в момент t, случайные величины Xti, Yt независимы и имеют производящие функции F(s) = Es; G(s) = Es\ ^0, i>\. Величина Xti интерпретируется как размер потомства г-й частицы t-vo поколения, Yt - как число частиц, иммигрирующих в (t + l)-e поколение. Производящие функции Ht(s) = E{sz(t)\z(0) = 0} удовлетворяют рекуррентным соотношениям Я000=1, Ht+^s) = G(s)Ht(F(s)). Последовательность Z(t) является Маркова цепью; эта цепь возвратна, если EXti<\ и Eln(l + Y,)<«> или ЕХ^=1 и # = DXM>2C = 2EY,', и невозвратна, если ЕХМ=1 и'#<2С или EXti > 1. Если Е 1п( 1 + Yt) < <», то при А = EXti < 1 существуют пределы lim P{Z(t) = k} = pk, po + Pi+ ••• = !> t->oo
а при Л = EXti > 1 существуют такая случайная величина W и такая последовательность чисел cv что Р{0< \У<<»}= 1, с,/с,+1->Л, Р{ lim c£(t) = W\ = \. 1 t->oo ' Если EXti = 1, В = DXM>О, С = ЕY,<~, то t^oo l Bt J ГЧ2С/Я) JO * *' Периодом жизни называется интервал времени от момента, когда число частиц становится положительным, до ближайшего момента, когда оно снова становится равным 0. Длина периода жизни с вероятностью 1 конечна тогда и только тогда, когда В. п. с иммиграцией возвратен. Изучались свойства функции распределения длины периода жизни (см. [4]) и предельные распределения для числа частиц в момент t -> <» при условии, что период жизни к моменту t не кончился (см. [5], [6]). Лит.: [1] Севастьянов Б. А., Ветвящиеся процессы, М., 1971; [2] Athreya К. В., Ney P. E., Branching processes, В. - Hldb.- N. Y., 1972; [3] Ватутин В. А., Зубков А. М., в кн.: Итоги науки и техники. Теория вероятностей. Математическая статистика. Теоретическая кибернетика, т. 23, М., 1985, с. 3-67; [4] Зубков A.M., «Теория вероятн. и ее примен.», 1972, т. 17, в. 1, с. 179-88; [5] Ватутин В. А., «Матем. заметки», 1977, т. 21, № 5, с. 727-36; [6] Ivanoff B.G., Seneta E., «J. Appl. Probab.», 1985, v. 22, h*> 1, p. 223-27. A. M. Зубков. ВЕТВЯЩИЙСЯ ПРОЦЕСС с конечным числом типов частиц (branching process with finite number of particle types) - модель ветвящегося процесса, в к-рой частицы различаются по типу и законы превращения частицы зависят от ее типа. По аналогии с классификацией состояний цепи Маркова проводится классификация типов частиц. Тип / следует за типом i (i —>/), если с положительной вероятностью частица i-ro типа может иметь своим потомком частицу /-го типа. Множество типов частиц распадается на непересекающиеся классы типов (см. [1], с. 133-43). Если типы г и/ принадлежат одному классу, то i-tj и / -м. Класс типов называется финальным, если почти наверное каждая частица, тип к-рой принадлежит данному классу, среди своих непосредственных потомков имеет ровно одну частицу своего класса. Асимптотич. поведение при £-><» В. п. с конечным числом типов частиц существенно различно для неразложимых ветвящихся процессов и разложимых ветвящихся процессов. К В. п. с конечным числом типов частиц может быть сведено исследование ветвящихся процессов с иммиграцией. В. п. с конечным числом типов частиц применялись при исследовании каскадных ливней в атмосфере (см. [2], [5]); при описании процессов, происходящих в ядерных реакторах (см. [3]-[5]), и т. п. Лит.: [1] Севастьянов Б. А., Ветвящиеся процессы, М., 1971; [2] Калмыков Н.Н., Чистяков В.П., «Изв. АН СССР. Сер. физич.», 1965, т. 29, № 9, с. 1702-05; [3] Золотухин В. Г., Мо- гильнер А. И., «Атомная энергия», 1963, т. 15, № 1, с. 11-16; [4] Ватутин В. А., Телевинова Т. М., Чистяков В. П., Вероятностные методы в физических исследованиях, М., 1985; [5] До- рогов В. И.,Чистяков В. П., Вероятностные модели превращения частиц, М., 1988. В. П. Чистяков. ВЕТВЯЩИЙСЯ ПРОЦЕСС с миграцией (branching process with migration) - модель ветвящегося процесса (с дискретным или непрерывным временем, с одним или несколькими типами частиц), в к-рой, наряду с притоком частиц из какого-то «внешнего» источника (см. Ветвящийся процесс с иммиграцией) и размножением уже существующих в процессе частиц, возможна эмиграция нек-рой доли частиц во внешнюю среду. Лит.: [1] Нагаев СВ., Хан Л. В., «Теория вероятн. и ее примени, 1980, т. 25, в. 3, с. 523-34; [2] Я не в Н. М., Ми то в К. В., там же, 1983, т. 28, в. 3, с. 458-67; [3] Каверин СВ., «Изв. АН УзССР. Сер. физ.-матем. наук», 1985, № 3, с. 22-27. В. А. Ватутин. ВЕТВЯЩИЙСЯ ПРОЦЕСС с эмиграцией (branching process with emigration) - частный случай фи-ветвящегося процесса. В В. п. с эмиграцией предполагается, что в процессе эволюции нек-рая доля частиц может покидать процесс (либо сразу после рождения, либо через случайный промежуток времени). Лит.: [1] Ватутин В. А., «Теория вероятн. и ее примен.», 1977, т. 22, в. 3, с. 482-97; [2] Винокуров Г. В., там же, 1987, т. 32, в. 2, с. 378-82. В. А. Ватутин. ВЕТВЯЩИЙСЯ ПРОЦЕСС с энергией (cascade process) - ветвящийся процесс, в к-ром каждой частице соответствует положительная величина, распределяемая случайным образом между ее непосредственными потомками. Такой величиной могут быть, напр., размер частицы, масса, энергия и т. п. Распределение числа частиц с энергией больше заданного уровня в надкритич. случае сходится к логарифмически нормальному распределению. Лит.: [11 Колмогоров А. Н., «Докл. АН СССР», 1941, т. 31, № 2, с. 99-101; [2] Филиппов А. Ф., «Теория вероятн. и ее при- мен.», 1961, т. 6, в. 3, с. 299-318; [3] Севастьянов Б. А., Ветвящиеся процессы, М., 1971. В. П. Чистяков. ВЕТВЯЩИЙСЯ ПРОЦЕСС; ф инальные вероятности (branching process; final probabilities) - предельное распределение чисел частиц финальных типов в разложимом ветвящемся процессе с«>1 типами частиц. (Частица имеет финальный тип, если она почти наверное порождает одну частицу того же типа.) Пусть Zlk (t) обозначает число частиц типа Tk в момент t} порожденных одной частицей типа 7\, существовавшей при £ = 0, ЯЦ ..)-E.?°...s?W - производящая функция распределения чисел непосредственных потомков частицы типа 7\, i= 1, ..., я, a yl(sv ..., sn) - производящая функция финальных вероятностей, то есть предельного распределения чисел частиц финальных типов, порожденных одной частицей типа Т{. Набор {<рг}"= j является решением системы уравнений фЧ*!, ...,*„) = = FVGm> ••■.*„). -...ф"^, ...,*„)), i=l, ...,п. (*) Введение вспомогательных финальных типов частиц позволяет использовать уравнения (*) для нахождения предельных распределений нек-рых аддитивных функционалов от траектории В. п. (напр., числа частиц, появлявшихся за все время существования процесса до его вырождения и имевших тип Tk или имевших заданное число непосредственных потомков). Лит.: [1] Севастьянов Б. А., Ветвящиеся процессы, М., 1971. А. М. Зубков. ф-ВЕТВЯЩИЙСЯ ПРОЦЕСС (ф-branching process) - см. Фи-ветвящийся процесс. ВЗАИМНАЯ КВАДРАТИЧЕСКАЯ ХАРАКТЕРИСТИКА (mutual quadratic characteristic/mutual variation) мартингалов - см. Мартингал; квадратическая характеристика. ВЗАИМНАЯ КОВАРИАЦИОННАЯ ФУНКЦИЯ (cross covariance function) - см. Взаимная корреляционная функция. ВЗАИМНАЯ КОРРЕЛЯЦИОННАЯ ФУНКЦИЯ (cross correlation function), взаимная функция корреляции, взаимная ковариационная функция, двух случайных процессов (или случайных полей) X^(t) и Х2(0 - одна из следующих трех функций: 1) смешанный момент второго порядка EX^t)X2(s)=B^(t,s) значений X^(t) и X2(t) в двух точках; ВЕТВЯЩИЙСЯ 105
2) смешанный центральный момент (ковариация) E[Xt(0 - EX1(0][X2(s) - EX2(s)] = bn(t, s); 3) коэффициент корреляции bn(t, s)/[DX1(ODX2(0]1/2 = р12(г, s) между случайными величинами Xt(0 и X2(s), рассматриваемый как функция от t и s. В. к. ф. часто называют все три указанные функции, но иногда этот термин прилагают только к функции pt2(£, s), a bx2(t, s) называют взаимной ковариационной функцией; в других случаях, когда возникает опасность путаницы, функцию Bx2(ty s) называют взаимной корреляционной функцией, функцию bu(t, s) - центрированной взаимной корреляционной функцией, а функцию р12(£, s)- нормированной взаимной корреляционной функцией. Функции Bx2(t,s), bx2(ty s) и р12(£, s) особенно широко используют в применении к стационарным случайным процессам (или случайным полям, однородным на II? или Ж ) Х(0 = {Xx(t), X2(0}, для к-рых они зависят только от разности t-s. A. М. Яглом. ВЗАИМНАЯ НЕЗАВИСИМОСТЬ (mutual independence) - см. Независимость. ВЗАИМНАЯ РЕЛЕЙНАЯ КОРРЕЛЯЦИОННАЯ ФУНКЦИЯ (relay cross correlation function) - см. Релейная корреляционная функция. ВЗАИМНАЯ СПЕКТРАЛЬНАЯ ПЛОТНОСТЬ (cross spec tral density) - см. Спектральная плотность стационарного случайного процесса. ВЗАИМНАЯ СПЕКТРАЛЬНАЯ ФУНКЦИЯ (cross spectral function) - см. Спектральная плотность стационарного случайного процесса. ВЗАИМНАЯ ФУНКЦИЯ КОРРЕЛЯЦИИ (cross correlation function) - см. Взаимная корреляционная функция. ВЗАИМНОЙ КОВАРИАЦИИ ОПЕРАТОР (cross covari- ance operator) - оператор, характеризующий зависимость одного случайного элемента от другого. Пусть X и У - случайные элементы со слабым вторым порядком, принимающие значения в действительных сенарабельных банаховых пространствах #t и В2 соответственно (сопряженные пространства обозначаются В\ и В2). Тогда существует единственный непрерывный линейный оператор RXY: ^г-*^» определяемый равенством b](RXYb*2) = Eb](X)b*2(Y)-Eb\(X)Eb*2(Y), Ь]еВх, Ь*2еВ2, к-рый и называется оператором взаимной к о в а р и - ации случайных элементов X и У. Непосредственно из определения следует, что RYX = ^XY^ гДе ^xy ~ оператор, сопряженный к RXY, и что [b\(RXYb*2)\2 ^ b\(Rxb\) b\(RYb*2) для всех b\ e В\, Ь*2еВ2, где Rx и RY - ковариационные операторы X и У соответственно, и RXY = 0, если X и У независимы. Определение имеет смысл и для случая более общих локально выпуклых топологич. векторных пространств. Лит.: [1] Вахания Н. Н., Тариеладзе В, И., Чоба- нян С. А., Вероятностные распределения в банаховых пространствах, М., 1985. Н.Н. Вахания. ВЗАИМНЫЙ СПЕКТР (cross spectrum) - см. Спектральная плотность стационарного случайного процесса. ВЗАИМНЫЙ ФАЗОВЫЙ СПЕКТР (phase cross spec trum) - см. Фаза. 106 ВЗАИМНАЯ ВЗАИМОДЕЙСТВИЕ (interaction/coupling) - см. Некоммутативная теория вероятностей. ВЗАИМОДЕЙСТВИЕ ф акторов (interaction) - см. Факторный эксперимент. ВЗВЕШЕННОЕ КВАДРАТИЧНОЕ ОТКЛОНЕНИЕ (weighted quadratic deviation) - см. Квадратичное отклонение. ВЗВЕШЕННЫЙ МЕТОД НАИМЕНЬШИХ КВАДРАТОВ (weighted least squares method/generalized least squares method) - см. Наименьших квадратов метод. ВЗВЕШИВАНИЯ ПЛАН (weighing design/strategy) - план эксперимента для оценивания весов k предметов с помощью N взвешиваний на двухчашечных или одночашечных весах. Измерению на весах отвечают строка хп=(хпХ, ..., xnk), n=\,...,N, и матрицы плана D= \\xv ..., xN\\T. Для двухчашечных весов величина xni принимает значения -1, +1 или 0, если t-й предмет соответственно положен на левую чашку или на правую чашку, или не участвует в п-м взвешивании. При измерениях на одночашечных весах xni принимает значения 1 или 0, если i-й предмет соответственно участвует или не участвует в п-м взвешивании. Модель взвешивания имеет вид уп = Ь0 + ЬххпХ + ... + b^x.nk + е„, где уп - результат измерения в п-м взвешивании, п=1, ..., N; bQ- показание весов без предметов, Ь{ - вес 1-го предмета, 1 = 1, ..., k\ гп - ошибка п-го взвешивания. Была построена процедура взвешивания на одночашечных весах (см. [1]), позволяющая более точно оценивать веса предметов по сравнению с процедурой взвешивания всех предметов по отдельности. Аналогичный результат был получен и для двухчашечных весов (см. [2]). Изучались и строились также оптимальные В. п., минимизирующие нек-рый выпуклый функционал от информационной матрицы (см. [3], [4], а также Регрессионных экспериментов планирование). Лит.: [1] Yates F,, «J. Roy. Statist. Soc. Supp>, 1935, v. 2, p. 181-247; [2] Hotelling H., «Ann. Math. Statist.», 1944, v. 15, p. 297-305; [3] Бродский В. З., Введение в факторное планирование эксперимента, М,, 1976; [4] Banerjee К, S., Weighing designs, N.Y., 1975. В.З. Бродский. ВИГНЕРА ПОЛУКРУГОВОЙ ЗАКОН (Wigner semicircular law) - см. Вигнера распределение. ВИГНЕРА РАСПРЕДЕЛЕНИЕ (Wigner distribution) - распределение, характеризующее предельную спектральную функцию (плотность состояний) в гауссовском симметрическом ансамбле матриц (ансамбле Вигнера). Этот ансамбль вводится следующим образом. Пусть Хф n^i^j^i,- независимые действительные гаус- совские величины ЕХ„ = 0; DXt) = \,i*j; DXH = 2; Xtj = Xfi. i</; \W, i= 1, 2, ..., и,- собственные числа Ап. При п-*°° возникает предельная спектральная функция распределения М»= \Х пШх= lim IT Х\п)<Хи\ причем плотность состояний п(Х) явно вычисляется: «(X) = lVT^Z|x|<r Последняя и называется полукруговым законом Вигнера. Ансамбль Вигнера обладает свойством ортогональной инвариантности: Ап = ОхАп02, где О; - неслучайные ортогональные матрицы. В. р. используют в качестве модели, описывающей спектральные свойства тяжелых ядер. Лит.: [1] Гирко В, Л., Случайные матрицы, К,, 1975, С. А. Молчанов.
ВИКА МОНОМ (Wick monom) - см. Вика упорядочение. ВИКА УПОРЯДОЧЕНИЕ (Wick ordering) - общее название для двух операций, применяемых в методе вторичного квантования и в теории случайных полей (обе операции обозначаются: :). 1) В случае вторичного квантования для любого монома a\-a2'...'aN, где ах■,, i=l,..., N, означает либо оператор рождения а*, либо оператор уничтожения а{\ его Вика (или нормальной) формой -ГТ^ af: называют произведение, в к-ром все операторы уничтожения расположены правее операторов рождения. По линейности операция : : продолжается на все полиномы (и ряды) от операторов af. 2) В случае когда {Хх, ..., XN} - система гауссовских попарно различных случайных величин, Вика мономом : ТТ Х**:, где п( - целые, i = 1, ..., N> называется полином от Хр ..., XN со старшим членом X"' Х22 ... XfiN, ортогональный всем мономам ГТ^ Х*«, O^k^n, $^._1 ^'^X--i ni- В простейшем случае независимой гауссовской системы :ПГ- 1 Х'"': =ПГ- 1 :X"t:' приЧем :Х": = Я*(Х)' где Я«(,) " n-й многочлен Эрмита со старшим коэффициентом 1. Для гауссовской случайной функции (поля) {Х^., хе Я, Н - гильбертово пространство} с единичным ковариационным оператором с помощью операции : : строится важный изоморфизм пространства L (Q, I, |i) [Ф, X, |i) - вероятностное пространство, на к-ром определены случайные величины Хх] в пространство ^(Я) - симметрич. Фока пространство над Я (отображение Ито - Вика; см. [3]): где (х^ ... ®хпУ - симметризованное тензорное произведение Х{€ Н, 1=1, ..., П. Лит.: [1] Хепп К., Теория перенормировок, пер. с франц., М., 1974; [2] Малышев В. А., Минлос Р. А., Гиббсовские случайные поля, М., 1985; [3) Добрушин Р.Л., Минлос Р.А., «Успехи матем. наук», 1977, т. 32, в. 2, с. 67-122. Р. А. Минлос. ВИКА ФОРМА (Wick form) - см. Вика упорядочение. ВИЛКОКСОНА КРИТЕРИЙ (Wilcoxon test) - см. Уилкок- сона критерий. ВИЛЬСОНА ДЕЙСТВИЕ (Wilson action) - см. Калибровочная модель статистической механики. ВИЛЬСОНА - ХИЛФЕРТИ ПРЕОБРАЗОВАНИЕ (Wil son-Hilferty transformation) - нормализующее преобразование случайной величины xv> имеющей хи-квадрат распределение с v степенями свободы. В.-Х. п. имеет вид *(x2v) = 3jf Гу2 V/3 ■1 + -2- 9v при этом Kv(y) = Р {MX?) <У) = Ф(у)~ Ф(%)/( 108v) + 0(v_3/2) при v~><», где Ф(у) - функция стандартного нормального распределения, Ф (у) =д Ф(у)/ду . Для преобразования Фишера g(Xv) = v 2x1 ~ ^2v - 1 получается Р{9(х1)<У} = Ф(у) + 0(^/2) ПрИ V -> °о. В.-Х. п. использовано в таблицах для вычисления Р(Ху <•*} в области v ^50, в к-рых табулирована разность Kv(y) - Ф(у); при этом /Cv(y) = P{Xv <х)> еслиу = /г(х) (см. [2]). Лит.:[\] Wilson E. В., Hilferty M. M., «Proc. Nat. Acad. Sci. USA», 1931, v. 17, p. 684-88; [2] Пагурова В. И., Таблицы неполной гамма-функции, М., 1963. В. И. Пагурова. ВИНЕРОВСКАЯ МЕРА (Wiener measure) - вероятностная мера на борелевской а-алгебре подмножеств пространства непрерывных функций, порождаемая винеровским процессом. На пространстве С = С[0,1] числовых непрерывных функций борелевская а-алгебра подмножеств В определяется как минимальная а-алгебра, содержащая все цилиндрич. подмножества вида C(tx, ..., tn\ av bu ..., an, bn) = = {x(-)eC:ak^xtik)<bk,k=\, ..., n}. В. м. \iw на В однозначно определяется (в соответствии с теоремой о продолжении мер) своими значениями на цилиндрич. множествах \iw(C(tv ..., tn\ aubu ...,an,bn)) = fa . v . fa Ja2 ■■ J 1 p(tx, xx )dxx J p(t2 - tx, x2 - xx )dx2. где J>» pit, x) -- tn -x)dxnt C) J2nt ехр^- 2t Формула (*) задает конечномерные распределения стандартного винеровского процесса w(t), и в этом смысле мера \iw порождается процессом w(t). Общие свойства меры \iw связаны со свойствами траекторий процесса w(t). Так, напр., известно, что мера \iw сосредоточена на пространстве С непрерывных, но нигде не дифференцируемых функций (u»(c) = i). В. м. введена Н. Винером в связи с изучением математич. модели броуновского движения. Лит.: [1] Wiener N., «J. Math, and Phys.», 1923, v. 2, p. 131-74; [2] Хида Т., Броуновское движение, пер. с англ., М., 1987. Д. С. Сильвестров. ВИНЕРОВСКАЯ СОСИСКА (Wiener sausage) толщины 2г и длины и - множество 5^ точек у плоскости, покрываемых совокупностью кругов радиуса г с центрами в точках плоской кривой w(t), O^t^u, являющейся траекторией винеровского процесса W(t) с параметром а=1 (то есть имеющего корреляционную функцию ЕW(t)W(s) = min (t, s)); иначе говоря, S£ = {у : |у - w(t) | ^ г для нек-рого t e [0, u]}. Более общий класс В. с. S„ r задается равенством $и г = {У '• У~ w^) G Kr Для нек-рого t е [0, и]}, где Кг - фиксированное компактное множество на плоскости диаметра 2г с «центром» (выделенной внутренней точкой Кг) в начале координат. Большая часть исследований В. с. посвящена изучению асимптотич. поведения средней площади В. с. при фиксированном миг->0 или фиксированном г и и -> <». Первые относящиеся сюда результаты были получены А. Н. Колмогоровым и М. А. Леонтовичем в 1933 (см. [1] или [2]). О дальнейших результатах см. [3]-[7]. Лит.: [1] Колмогоров А. Н., Теория вероятностей и математическая статистика, М., 1986, с. 124-34; [2J Леонтович М.А., Избранные труды. Теоретическая физика, М., 1985, с. 134-42; [3) Chavel I., Feldman E.A., «Сотр. Math.», 1986, v. 60, p. 65-84; [4] Dynkin E. В., «Ann. Probab.», 1988, v. 16, p. 1-57; [5] Le Gall J.-F., там же, 1986, v. 14, p. 1219-44; [6J его же, «С. r. Acad, sci., Ser. 1», 1987, t. 304, p. 339-42; [7] его же, «J. Funct. Anal.», 1989. A.M. Яглом. ВИНЕРОВСКАЯ 107
ВИНЕРОВСКИЙ ИНТЕГРАЛ (Wiener integral) - интеграл по винеровской мере \iwt определенной на борелевской а-ал- гебре 33 пространства числовых непрерывных функций С- С[0,1]. Вероятностная интерпретация В. и. связана с формулой, показывающей, что В. и. представляет собой мате- матич. ожидание случайного функционала, определенного на траекториях винеровского процесса w(t), порождающего меру \iw: \с /*(*(»\iw(dx(.)) = Ef(w()). Здесь /*(*(•)) - числовой функционал, определенный на С и измеримый относительно а-алгебры 33. Д. С. Сильвестров. ВИНЕРОВСКИЙ ЛИСТ (Wiener sheet), бро уновский лист,- гауссовское случайное поле W=( Wt, t=(tv t2) e IP+) с нулевым математическим ожиданием и корреляционной функцией Е WsWt = min(s^ ^)min(52, t2). В. л. имеет непрерывную модификацию (см. [1]), является естественным обобщением винеровского процесса на случай двумерного параметра. Аналогично определяется многопараметрич. винеровский процесс, я-параметрическим винеровским процессом называется непрерывное почти наверное гауссовское случайное поле W=(Wt, £eltf") с нулевым математич. ожиданием и корреляционной функцией EWsWt = YTi=i min(s'' ^' Многопараметрич. винеровский процесс W имеет независимые однородные приращения в следующем смысле. Пусть £,Ле1Р"; приращение W на прямоугольнике [t,t + h] = = Т\П №i> ti + hi] - величина w([t,t+h]) = Z(-irV-«wti+tilh ,л+£А, где суммирование ведется по всем векторам e=(et, ..., е„), е^ = О или 1, 1 ^ г ^ п. Тогда приращения W на прямоугольниках указанного вида независимы, если прямоугольники не имеют общих внутренних точек, W([t} t + h]) имеет нормальное распределение со средним 0 и дисперсией \/г\, где kl=n"_! t{ для te®?. Обобщенная производная tv...,tn я-параметрич. винеровского процесса W является гауссовским белым шумом на IP ". Пусть для s, t е IP ", 8(s, t) = AX[0, s]A[0, t]),X - мера Лебега в IP"; s^£, если s{^tit l^t'^n; точка и eIR", и{>0, l^t'^n, фиксирована. Тогда для почти всех траекторий я-парамет- рич. винеровского процесса W имеют место следующие соот- lim W\ р~ \wf\ \t\ = 1, lim sup t>u J2n\t\\n\n\t| \Wt-Ws = 1, £->0 Us,t)**E,s**u,t<u ^2nb(s,t)\n \u 1/8(5,0 C(u) = {«}, = 1, где C(u) - связная компонента замкнутого множества {t:Wt= WJ, содержащая точку и. 108 ВИНЕРОВСКИЙ Пусть W - я-параметрич. винеровский процесс со значениями в П^, d>\, то есть W=(W\ ..., Wd), Wl - я-парамет- рич. винеровские процессы, независимые при различных i, \^i^d. Тогда для любого хеИг : если d>2n, то 1UI- lim 1) \Wt\ 1; если d^2n, то ' Р J , lim \Wt-x\=0\ = U если d^2n, то P{Wt = x для нек-рого t с \t\ >0} = 0; если d<2n, то для любого и е IP" P{Et^u:Wt = x}=\. Лит.: [1] Ченцов Н. Н., «Докл. АН СССР», 1956, т. 106, № 4, с. 607-09; [2] Огеу S., Pruitt W. E., «Ann. Probab>, 1973, v. 1, № 1, p. 138-63; [3] Розанов Ю. А., Марковские случайные поля, М., 1981; [4] Walsh J. В., «Lect. Notes Math.», 1986, v. 1215, p. 329-491. А. А. Гущин. ВИНЕРОВСКИЙ МАРТИНГАЛ (Wiener martingale) - непрерывный квадратично интегрируемый мартингал \i(t), ц(0) = 0, характеристика к-рого равна (\i\ = t. To есть В.м. есть не что иное, как винеровский процесс. Все рассматриваемые ниже случайные процессы определены на фиксированном стохастич. базисе (Q, Л, Jv P), t^Q. Многомерный аналог отмеченного в определении свойства, известный как теорема Л ев и (см. [1]), утверждает, что если \i(t) - w-мерный непрерывный локальный мартингал относительно потока dt% |i(0) = 0, и взаимная характеристика (\iit \1:\ = Ь^- t (8i;- - символ Кронекера), то \i(t) - w-мерный винеровский процесс относительно ^dv Если (ц(0, .«4) - w-мерный винеровский процесс, то справедливы следующие утверждения. 1) Если Ms, со) е IRW, | b(s, со) I = 1, то процесс (jQb(s, <o)d\i(s), *■/*) является винеровским. 2) Если B(s, со) при всех (s, со) является унитарным оператором в IRW, то процесс' (jtQB(s}Oi)d\i(s)}^ является винеровским. 3) Пусть w = 1, a(s,co) - числовая функция и для всех t > 0 j a2(s, (&)ds <oo} j a2(s, co)ds = °o, и из равенства t= J a (s, (o)ds определяют xt, тогда процесс (f0'a(s, со) diL(s), л\ = лА является винеровским. Лит.: [1] Гихман И. И., Скороход А. В., Теория случайных процессов, т. 3, М., 1975; [2] Ватанабэ С, Икэда Н., Стохастические дифференциальные уравнения и диффузионные процессы, пер. с англ., М., 1986. С. Я. Махио. ВИНЕРОВСКИЙ МОСТ (Wiener bridge), броуновский мост,- условный винеровский процесс на конечном отрезке времени при условии, что значения процесса на концах отрезка фиксированы. В. м. X(t), a^t^bt с граничными условия-
ми Х(а)=А, X(b) = B является непрерывным гауссовским марковским процессом с математич. ожиданием m(t) = EX(t)=A+2^- (t-a), a^t^b, Ъ- а и ковариационной функцией K(s, О = Е{[X(s) - m(s)][X(t) - m(t)]} = _(b-t)(s- a) b-a a^s^t^b. Формулы Y(s) = X(t)- m(t), t = a + (b-a)s, преобразуют В.м. X(t) в В. м. Y(s), O^s^l, с граничными условиями Y(0) = Y(1) = 0. Тот же процесс можно получить, полагая Y(s) = w(s) -sw( 1), где w(t) - стандартный винеровский процесс; начинающийся в нуле. В. м. используется в функциональных предельных теоремах. Так, если Fn - эмпирич. функция распределения случайной величины X с непрерывной теоретич. функцией распределения F, то при п -> <*> случайный процесс Yn(s) = = Jn[Fn(x)-F(x)], где x = F~ (s), O^s^ 1, сходится к В. м. У. На этом соображении основан вывод распределения статистики Колмогорова критерия, восходящий к Дж. Дубу (J. Doob) и получивший обоснование в инвариантности принципе Донскера - Прохорова. Лит.: [1] Хида Т., Броуновское движение, пер. с англ., М., 1987. А. А. Юшкевич. ВИНЕРОВСКИЙ ПРОЦЕСС (Wiener process) - однородный действительнозначный гауссовский процесс w(t), t^Q, с независимыми приращениями, для к-рого «Ч0) = 0, E(w(t)-w(s)) = 0, D(w(t)-w(s)) = o2\t-s\. В. п. служит математич. моделью одномерного броуновского движения и часто называется процессом броуновского движения. В случае а = 1 В. п. иногда называют стандартным винеровским процессом. Сепара- бельный В. п. с вероятностью 1 непрерывен, и ниже под В. п. будет пониматься именно непрерывный стандартный В. п. Оказывается, что при указанных средних значениях и дисперсиях приращений, это единственный непрерывный с вероятностью 1 процесс с независимыми приращениями. Вероятностная мера, являющаяся распределением В. п. w(t), te [0,1]» на борелевской а-алгебре пространства С[0,1] непрерывных действительных функций, играет важную роль в теории меры в бесконечномерных функциональных пространствах и называется винеровской мерой. В. п. имеет несколько эквивалентных определений, отражающих его свойства. Именно, гауссовский случайный процесс w(t), t^Q, с нулевым средним и корреляционной функцией R(s, t) - min (s, t) является В. п. Однородный марковский процесс w(t), tPQ, o>(0) = 0, у к-рого плотность переходной вероятности p(t} x} у) есть фундаментальное решение парабо- лич. дифференциального уравнения Эр _ 1 д2р К 2 Эх2 и задается формулой 1 „J <*-*>2> pit, x,y)-- 4Ш -ив является В. п. Если случайный процесс w(t), t>0, a>(0) = 0, с вероятностью 1 непрерывен, согласован с потоком а-алгебр 1*4, £^0, и с вероятностью 1 Е(ЫО-^(5))2|^5) = 0, Е ((w(t) - w(s))2 |о/5) = t - s, s < t, то w(t) - В. п. В. п. инвариантен относительно нек-рых преобразований фазовой и временнбй шкалы: для любых а>0, s^O случайные процессы X(t)=ow(t/G*)} t^O; X(t) = tw(\/t), t>0, и X(0) = 0; X(t) = w(t + s)-w(s), t^Q, являются В. п. Кроме того, В. п. обладает строго марковским свойством, то есть если х - марковский момент относительно потока а-алгебр, порожденного w(t), t^O, и х<оо с вероятностью 1, то случайный процесс Х(0 = w(t + x) - w(x), t>0, является В. п., не зависящим от w(t)} t^x. Конструктивное задание В. п. w(t), t e [0, Т], Г>0, связано с его представлением в виде ряда ^^) = ХГ=1ХЛ0 <P*<M>rf". где Xky /г ^ 1,- последовательность независимых гауссовских случайных величин с EXfe = 0, DXfe=l, а щ} k^\r- ортонор- мированный базис в гильбертовом пространстве L [0, Т] всех интегрируемых с квадратом (относительно меры Лебега) действительных функций на отрезке [0, Г]. Указанный ряд сходится равномерно на [0, Т] с вероятностью 1. Задание В. п. на всей временнбй полуоси [0,°°) можно осуществить с помощью аналогичного ряда, выбирая в качестве <pfe, k ^ 1, ортонормированный базис в L [0, <*>). Такой ряд с вероятностью 1 сходится равномерно на любом ограниченном интервале. В частности, В. п. w(t), te[0, 1], допускает представления s'mkitt ^=0 w(t) = tXn -ЛЩхк *=о Xk kit sin (k+\/2)nt ^> = ^I*=o--« (*+1/2)я где Xk, k^Q,- независимые гауссовские величины: ЕХ^ = 0, DXk=\, k>0. Почти все траектории В. п. имеют неограниченную вариацию на любом сколь угодно малом интервале и нигде не дифференцируемы. Для В. п. справедлив локальный закон повторного логарифма: ,(lim n«L=,)=, и его уточнения Р 1 .. \w(t+h)-w(t)\ 1 hm sup Ui t / />ч = \> - 1, A-n-0 (K*<l-A lim sup sup A-n-0 0^5^1-A O^t^h J2h\n(\/h) w(s+t)-w(s) I yl2h\n(\/h) 1=1, J ,. . f /81п(1/Л) >< lim inf sup 7Г1— [h^+0 0^5^1-A O^t^h V Kzh w(s + t)-w(s)\= 1 = 1, характеризующие локальное поведение В. п. Кроме того, с вероятностью 1 lim Yf \w(k/2n)-w((k-\)/2n)\2 =1. Асимптотич. поведение траекторий В. п. при t -><» описывается законом повторного логарифма: v(t)\ •{» PUim- = 1=1 , V2Hnln* и функциональным законом повторного логарифма, согласно к-рому последовательность случайных процессов ( »Ш) , ^[0,1]) п>3, \j2n In Inn J с вероятностью 1 относительно компактна в пространстве С(0,1), а множество ее предельных точек совпадает с множе- ВИНЕРОВСКИЙ 109
ством абсолютно непрерывных (относительно меры Лебега) функций f(t)} £е[0,1], таких, что Д0) = 0, jXQ(f'(t))2dt*k\. Для функций распределения многих практически важных функционалов от В. п. имеются явные аналитич. выражения, ряд из к-рых имеет простой вид. Так, при .г>0 Р{ max w(s)^x} = \-2P{w(t)>x} = (2/j2nt)\Xe-u2/2tdu. Распределение времени хх первого прохождения уровня х > О имеет плотность вероятности Px(s) = (xl4bu*)e-x2l2s} s>0. Плотность совместного распределения точки х максимума В. п. на интервале [0, t] (с вероятностью 1 имеется лишь один максимум) и самого максимума max wis) задается формулой pis, х) = (х/Wsit - s))e~x2/2s, (Ks^, (K*<°°, а отдельно взятая случайная величина т распределена по закону арксинуса: P{x<s} = 2K-1arcsinV~s/T, 0^s^£. По закону арксинуса распределено также время пребывания В. п. на положительной полуоси. Приведенные выше соотношения позволяют заключить, что при выходе из произвольной точки х траектория В. п. за сколь угодно малое время с вероятностью 1 бесконечно много раз пересекает уровень х (возвращаясь в исходную точку): для всех х, 1Х<0° с вероятностью 1, то есть с течением времени t} траектория В. п. посещает все точки; рассматриваемая на фиксированном временном интервале [0,£], эта траектория имеет тенденцию достигать экстремальных значений вблизи точек s = 0 и s = t. Для В. п. как марковского однородного процесса существует инвариантная мера Qidx): QiA)=JQidx)Pit,x,A) [Pity x} A) - функция вероятности перехода], к-рая совпадает с мерой Лебега на прямой: Qidx) = dx. Эргодич. свойство времени TiA) пребывания В. п. в множестве А за промежуток [0, Т] заключается в том, что с вероятностью 1 rU1)/rU2)->QU1)/QU2) при Г->оо для любых ограниченных борелевских множеств Ах и А2 (QM2)>0). Процесс броуновского движения впервые рассмотрен Л. Ба- шелье [1]. Математически строгое построение этого процесса и изучение свойств его траекторий было проведено Н. Винером [2]. Детальные сведения об одномерном и w-мерном В. п. имеются в [3]-[8]. Разработана теория гильбертовозначных В. и. (см. [9]). Аналогом В. п. для векторного параметра являются случайные поля, введенные П. Леви (P. Levy) и Н. Н. Ченцовым (см. Винеровское поле). Лит.: [1] Bachelier L., «Ann. sci. Ecol. Norm, super.», 1900, № 17, p. 21-86; [2] Wiener N., «J. Math, and Phys.», 1923, № 2, p. 131-74; [3] Леви П., Стохастические процессы и броуновское движение, пер. с франц., М., 1972; [4] Дуб Дж. Д., Вероятностные процессы, пер. с англ., М., 1956; [5] Ито К., Маккин Г., Диффузионные процессы и их траектории, пер. с англ., М., 1968; [6] Гих- ман И. И., Скороход А. В., Теория случайных процессов, т. 2, М., 1973; [7] Липцер Р. Ш., Ширяев А. Н., Статистика случайных процессов, М., 1974; [8] Csorgo M., Revesz P., Strong Approximations in Probability and Statistics, Bdpst, 1981; [9] Далецкий Ю.Л., Фомин СВ., Меры и дифференциальные уравнения в бесконечномерных пространствах, М., 1983; [10] Розанов Ю. А., в кн.: Математическая энциклопедия, т. 1, М., 1977, с. 698-700. В. В. Булдыгин. ПО ВИНЕРОВСКИЙ ВИНЕРОВСКИЙ ПРОЦЕСС в полупрямой (Wiener process in half-line) [0, °°) - семимартингал вида Xt = Bt + Mt, t^0} где Bt - возрастающий процесс, dBt- L^iXt)dBt} Mt- непрерывный мартингал, d{M)t-I^ ^ iXt)dt. В (0, <*>) процесс Xt ведет себя как стандартный винеровский процесс. Достигнув точки О, он может остаться в ней навсегда либо вернуться в (0,°°) скачком или под действием сноса. Поведение Xt в точке О описывается в терминах предсказуемых характеристик процесса Bt, в марковском случае (см. [2]) - с помощью набора {р, с, я}: р ^ 0 - течение времени, с ^ 0 - коэффициент сноса, к - мера на (0, <»), J(o,oo) ил1 nidu) <°o - мера скачков. А именно, существует непрерывный возрастающий процесс ф, согласованный с Xt (внутреннее время процесса, проведенное в нуле), такой, что и дуальная предсказуемая проекция меры скачков АВ5 процесса Bt есть dndy. В случае р = 0 £ /(0)(х,)л=о. Если при этом с = 1, к = 0, то Xt называется ви перовским процессом с мгновенным отражением в нуле (в точке О), а точка О- отражающим барьером; распределение Xt совпадает с распределением модуля вине- ровского процесса (см. [2]): В случае р>0, с = 1, л = 0 точка О называется задерживающим барьером. В случае р>0, с = 0, я = 0 точка О называется поглощающим барьером; переходная плотность равна в частности Естественным обобщением В. п. в полупрямой [0, °°) является винеровский процесс в IP1 с проницаемой границей в нуле (см. Стохастическое дифференциальное уравнение с границами). Аналогом процесса с мгновенным отражением служит косой винеровский процесс (см. [4]) н IP \{0}, ведущий себя как винеровский, а в точке О отражающийся с вероятностями р>0 и \-р в (0, <*>) и (-<», 0) соответственно. Лит.: [1] Липцер Р. Ш., Ширяев А. Н., Теория мартингалов, М., 1986; [2] Ито К., Маккин Г., Диффузионные процессы и их траектории, пер. с англ., М., 1968; [3] Феллер В., Введение и теорию вероятностей и ее приложения, пер. с англ., т. 2, М., 1984; [4] Harrison J.M., Shepp L.A., «Ann. Probab.», 1981, v. 9. p. 309-13. СВ. Анулова ВИНЕРОВСКИЙ ПРОЦЕСС косой (skew Brownian motion) - см. Винеровский процесс в полупрямой. ВИНЕРОВСКИЙ ПРОЦЕСС многомерный (multivari ate Wiener process) - см. Многомерный винеровский процесс. ВИНЕРОВСКИЙ ПРОЦЕСС многопараметрический (multiparameter Wiener process) - см. Винеровский лист, Леви поле. ВИНЕРОВСКИЙ ПРОЦЕСС; модуль непрерывно сти (Wiener process; modulus of continuity) - величина co(/0 = sup {\wit + s)-wit)\:0^t, t + s^\, \s\<h),
характеризующая величину колебаний стандартного винеровского процесса w(t): lim со(Л) = О почти наверное, так как траектории w(t) непрерывны. Точная скорость сходи- мосги дается теоремой Лев и: lim sup со(Л)//(Л) = 1 почти наверное л->о при 1(h) = (2Л | In h\ У'2 (ср. Повторного логарифма закон для винеровского процесса). Следовательно, траектории w(t) почти наверное удовлетворяют условию Липшица с показателем а при а< 1/2 и не удовлетворяют ему при а^ 1/2. Нерегулярность траекторий равномерна в следующем смысле: IM lim inf sup h-->o (K^i o^s^h 1(h) v(t + s) — w(t)\ = — почти наверное . Для распределения со(/г) бывает полезна следующая оценка: Р{со(/г) >х} ^ 20xh~3/2 exp ( -х2/21г). Лит.: [1] Levy P., Theorie de 1'addition des variables aleatoires, 2ed., P., 1954; [2] Csorgo M., Revesz P., «Stoch. Proc. Appl.», 1978, v. 8, № 2, p. 119-29; [31 Revesz P., «Ann. Probab.», 1982, v. 10, № 3, p. 613-22. К. А. Боровков. ВИНЕРОВСКИЙ ПРОЦЕСС на группе Ли (Wiener process on a Lie group) - однородный во времени марковский процесс со значениями в многообразии односвязной группы Ли G, почти все траектории к-рого непрерывны, а переходная вероятность P(t} д, Г), д е G, Г - борелевское множество в G, удовлетворяет одному из условий: для всякого heG P(t, hy, hT) = P(t, g} Г) (левоинвариантный В. п. на G) либо P(t, gh, Vh) = P(t, д, Г) (правоинвариантный В. п. на G). В. п. w(t, со) на группе Ли удовлетворяет условию линдебер- говского типа: lim tio *PU,g, G\Ug)- 0, U. где h\ пределы д открытая окрестность geG. Если д , ..., д и , hn - локальные координаты д и h из G, то существуют lim Г1/ r Oi(-gl)P(t} g} dh) = a\g) и lim Г1/ W-gbW-gOPU, д, dh) = bij(g) для д} heU - открытого множества в G. Если G* - односвяз- ная накрывающая группа Ли группы Ли G, (p:G* -неестественный гомоморфизм, то def w*it, co) = Ms, со), O^s^t]*, где правая часть - элемент G*, представимый траекторией [w(s} со), 0^s^£] (со - фиксировано). В. п. w(t, со) [с w(Q, й)) = е] на группе Ли является В. п. на группе Ли G*. Обратно, если w*(t, со) - В. п. на G* с да*(0, со) = е*, то w(t, со) = <р[а>*(£, со)] - В. п. на группе Ли G. Переходные вероятности P(t} x} Г) и P*(t} x*} Г*) связаны соотношением P(t, <р(**), Г) = Р*(£, х*, ф_1(Г)), абсолютно непрерывны относительно лево- (соответственно, право-) инвариантных мер Хаара на G и G*, и для соответствующих плотностей pit, х, у), p*(t} х*, у*) имеет место pit, x,y) = Y, р*(*> ф-1(*)> ад*)> где N = {av a2, ...} - дискретная подгруппа компонент группы G(G*/N= G) и правая часть не зависит от выбора прообраза. Лит.: [1] ltd К., «Proc. Jap. Acad.», 1950, v. 26, № 8, p. 4-10; [2] его же, «Rend. Circolo mat. Palermo», 1952, № l, p. 40-48. А. Ф. Турбин. ВИНЕРОВСКИЙ ПРОЦЕСС; распределение мак симума и минимума (Wiener process; distribution of maximum and minimum) - для стандартного винеровского процесса w(t), t^0, случайные величины M(t)= max w(s)um(t) = min w(s) подчиняются удвоенному (отраженному) нормальному закону: P{M(t)>x} = P{-m(t)>x} = 2P{w(t)>x} = in L e-!>2/2tdy,x^0. Совместное распределение: для любого борелевско- го множества А P{m(t)>a, M(t)<b, w(t) gA} = 1 _ J A lint УГ \ [exp{-(x + 2k(b-a))2/2t}- - exp{-(* -2a + 2k(b - a))2 /2t}]dx. В частности, P{M(t)<b,w(t)<x} = 1 L „V/2< J2M Jx-2b P{m(t)>-b,M(t)<b) = dy, ■/Ш XL- (-l)k£b exp{-(.y-2kb)2/2t)dy = У В. п. со сносом zva(t) = w(t) -at, a>0, существует конечный максимум A/fl(°°) = max wa(t), имеющий показательное распределение: *" P{Ma(oo)>x} = e~2axtx>0. Лит.: [1] Хида Т., Броуновское движение, М., 1987. К. А. Боровков. ВИНЕРОВСКИЙ ПРОЦЕСС с мгновенным отражением в нуле (Wiener process with instantaneous reflection about zero) - см. Винеровский процесс в полупрямой. ВИНЕРОВСКИЙ ПРОЦЕСС стандартный (standard Wiener process) - см. Винеровский процесс. ВИНЕРОВСКИЙ ПРОЦЕСС сферический (spherical Wiener process) - см. Сферический винеровский процесс. ВИНЕРОВСКИЙ ПРОЦЕСС; экскурсия (Wiener process; excursion) - см. Экскурсия винеровского процесса. ВИНЕРОВСКИЙ ПРОЦЕСС; эксцессивные функ ции для его части (Wiener process; excessive functions of its part) - эксцессивные функции для винеровского процесса , оборванного в момент первого выхода из нек-рой области его пространства состояний (см. Марковский процесс] часть). Семейство всех таких функций совпадает с совокупностью всех неотрицательных функций, супергармонических в классич. смысле в соответствующей области. Эксцессивные функции для В. п. суть неотрицательные константы. См. также Потенциала теория для марковского процесса. Лит.: [1] Дынкин Е. Б., Марковские процессы, М., 1963; [2] Doob J. L., Classical potential theory and its probabilistic counterpart, N. Y.- [a. o.], 1984. M. Г. Шур. ВИНЕРОВСКИЙ ПРОЦЕСС; эргодические теоремы (Wiener process; ergodic theorems) - см. Эргодические теоремы для винеровского процесса. ВИНЕРОВСКИЙ ФУНКЦИОНАЛ (Wiener functional) - измеримая функция, определенная на вероятностном пространстве (wt, ^у Р), t^Q, где wt - w-мерный винеровский ВИНЕРОВСКИЙ 111
процесс, ^ - а-алгебра, порожденная значениями {ws, s^ t) и пополненная по основной вероятностной мере Р. Примеры В. ф.: max (min) wt, \ f(wt)dt, te[0,T] J0 f - неслучайная функция; кратные винеровские интегралы [ „ K(tu ..., tn)dwt ... dwt , •40, т] v n l\ v /Cel2([0, 7Т); сильные решения стохастич. дифференциальных уравнений dXt =a(t} X)dwt + b(t} X)dt с неслучайными или ^-неупреждающими коэффициентами. При m - 1 рассматривались (см. [1]-[3]) распределения указанных функционалов, напр. Р{ max wt<a} = -f2=^ Г expi-— \dx, a ell?1. te[0,T] t ' 42*f Jo y\ IT) В. ф., являющийся ^ -измеримой случайной величиной X с Е|х| <<», допускает представление Х=ЕХ+ £ (gt,dwt), где gt - w-мерный Л™ -согласованный процесс (см. [4]). Развивается также стохастич. анализ В. ф., в частности определена производная от В. ф. (см. [5]). Лит.: [1] Ito К., «J. Math. Soc. Jap.», 1951, v. 3, p. 157-69; [2] Винер Н., Нелинейные задачи в теории случайных процессов, пер. с англ., М., 1961; [3] Скороход А. В., Случайные процессы с независимыми приращениями, 2 изд., М., 1986; [4] Липцер Р. Ш., Ширяев А. Н., Статистика случайных процессов, М., 1974; [5] Ва- танабэ С, Икэда Н., Стохастические дифференциальные уравнения и диффузионные процессы, пер. с англ., М., 1986. Ю. С. Мишура. ВИНЕРОВСКИЙ ФУНКЦИОНАЛ; разложение в ортогональные ряды (Wiener functional; expansion into orthogonal series) - разложение квадратично интегрируемого винеровского функционала Х(Х-.^-измеримый ПРИ нек-ром Г>0, wt - одномерный винеровский процесс) в ряд по полиномиальным ортогональным функционалам X = EX + l.i.m.Y , У Ат т фт т , где Ат т - коэффициенты Фурье-Эрмита, ^ w, тг==^^'Фте1 т/ Ф, Ша, ..., ТП =v« 'Vm ^m,p-Hm^Toa^dwtj a j - ортонормированный базис в L [О, Г], Н(и) = (-\)m2-m/2(m\)-V2 е«2 -^- (бГ«2) m dum - нормированные многочлены Эрмита. При этом EX2 = (EX)2 + l.i.m. £" , I (Am mt Каждый функционал (pw m может быть представлен в виде кратного винеровского интеграла, а значит, x=LimX" o0»^' rmGn{Kn)±Gn{Km),m*n; G„(K„) = l[oT]nK„(ti tn)dwh ... dw^, 112 ВИНЕРОВСКИЙ а неслучайная функция Kn(tv ..., tn)= lim (e"n!)_1EXG„a£„), £-►0 Le (s , ...,s ^{^если^^ + е, t=l, ..., я, " ' " 'О в противном случае. Лит.: [1] Cameron R., Martin W.T., «Ann. Math.», 1947, v. 48, p. 385-92; [2] Винер Н., Нелинейные задачи в теории случайных процессов, пер. с англ., М., 1961. Ю. С. Мишура. ВИНЕРОВСКОГО ПРОЦЕССА ФУНКЦИОНАЛ (functional of the Wiener process) - случайная величина У, измеримая относительно а-алгебры Л, порожденной винеровским процессом w = (wt), £е[0, Т]. Поскольку w есть случайная величина со значениями в пространстве непрерывных функций С[0, Г], то Y-F{w)y где F— борелевская функция на С[0,Г]- Представление В. п. ф. стохастическими интегралами. Любой В. п. ф. из L Ф) представим в виде У=ЕУ+ \l^wt, где интеграл понимается в смысле Ито, а неупреждающая функция ф - единственная в классе L (Qx [0,Г]) (см. Кларка формула у а также [1]). Интегральные представления В. п. ф. играют важную роль в стохастич. анализе, теории фильтрации и оптимальном управлении (см. [2]). Лит.: [1] Clark J. М.С., «Ann. Math. Statist», 1970, v. 41, №4, p.1282-95; [2] Липцер Р. III., Ширяев А. Н., Статистика случайных процессов, М., 1974. Ю. М. Кабанов. ВИНЕРОВСКОЕ ПОЛЕ (Wiener field) - многопараметрический аналог винеровского процесса, действительное гауссов- ское поле на я-мерном евклидовом пространстве IP" с однородными независимыми приращениями на параллелепипедах. Стандартное В. п. W(x) = W(xv ..., хп), #е1Р", определяется как гауссовское поле со средним EW(x) - 0 и корреляционной функцией EW(x)W(y)= П"в1 W*.-'tt>' где Ь(х{,у{) = тт(х(,у{) при xt>0, г/,->0, Ь(х{,уг) = - min( - xit - yj при xi < 0, у{ < 0 и b(xi} у{) - 0 при х{} yi ^ 0. Поле W(x) может быть выражено через гауссовскую ортогональную меру Г на измеримых подмножествах II?" с ET(dx) = 0 и Е \lXdx) I2 = dx равенством W(x) = Г(Л°), х е IP", Л° = {уеIP":min(0, х{) ^ г/,^тах(0, х{), t=l, ..., п). В. п. W(x) почти наверное непрерывно, и W(x) = 0 с вероятностью 1 для тех х, у к-рых П"_1 ^, = 0. На единичном кубе /" = [0,1]" пространства IP" поле W(x) можно представить сходящимся равномерно с вероятностью 1 рядом ^*>=х:=0 zn, г -Г *.<* УпНуу-ъ* в к-ром {(pw(#), yeln}- произвольная полная ортонормиро- ванная система функций в гильбертовом пространстве L2(/"), интегрируемых с квадратом по мере Лебега функций на /я, и {Zm} - последовательность независимых гауссовских случайных величин с EZw = 0 и EZW=1 (см. [2]). График В. п. {(х} W(x))} xeln} для почти всех реализаций имеет хаусдор- фову размерность п+ 1/2 и при 0<р< 1/2 почти наверное \w(x)-W(y)\^Z\\x-y\\*,x,yeIn, где Z - почти наверное конечная положительная случайная величина (см. [3]).
В. п. используют для построения различных моделей случайных функций. При этом существенную роль играют понимаемая в смысле теории обобщенных случайных полей производная W(x) -dnW{x)/dxx...dxn, являющаяся многопарамет- рич. белым шумом, то есть гауссовским обобщенным однородным полем с постоянной спектральной плотностью f(X) = 1/(2я)", и стохастич. интегралы по W(x) (см. [4]). Так, напр., гауссовское поле V(x), xel , с EV(.x) = 0 и EV(x)V(y) = [min (xx,yx) - л:^ J[min( x2,y2) - x2y2], называемое броуновской простыней, можно рассматривать как решение (в обобщенном смысле) стохастич. дифференциального уравнения дхлдх-) V(x) + \-х2 дх^ V(x) + (\-х^)(\~х2) V(x) = W(x) -^-V(x) + 2 2 на квадрате / с нулевыми краевыми условиями на границе / . Лит.: [1] Ченцов Н. Н., «Докл. АН СССР», 1956, т. 106, № 4, с. 607-09; [2] Булдыги и В. В., Сходимость случайных элементов в топологических пространствах, К., 1980; [3] Adler R.J., The geometry of random fields, Chichester - [a. o.], 1981; [4] Cairoli R., Walsh J. В., «Acta math.», 1975, v. 134, № 1-2, p. 111-83. А. И. Пономаренко. ВИНОГРАДА МЕТОД (Winograd method) - алгоритм эффективного вычисления дискретного преобразования Фурье, требующий обычно на 80% операций умножения меньше, чем в алгоритме быстрого преобразования Фурье. Метод предназначен для вычисления дискретного преобразования Фурье длины N = Ny...-Nk, где Nh /=1,...,/г,- взаимно простые, и основан на представлении (N х ДО-матрицы WN из векторной записи дискретного преобразования Фурье А - WNx в виде прямого произведения матриц ^/-точечных дискретных преобразований Фурье WN= WNX<8)...<8> WN и на сведении вычисления Л^-точечных преобразований к вычислению круговых сверток с использованием модульной арифметики в кольце многочленов. Лит.: [Ц Winograd S., «Math. Сотр.», 1978, v. 32, № 141, p. 175-99; 121 Маккеллан Дж., Рэйдер Ч., Применение теории чисел в цифровой обработке сигналов, пер. с англ., М., 1983. Ю. С. Романчук. ВИРИАЛЬНОЕ РАЗЛОЖЕНИЕ (virial expansions) - см. Кластерных разложений метод. ВИРТУАЛЬНОЕ ВРЕМЯ ОЖИДАНИЯ (virtual waiting time) - длительность ожидания обслуживания требования, поступившего в данный момент, равная промежутку времени до полного освобождения прибора от обслуживания требований, к-рые поступили до данного момента времени. Процесс X(t), описывающий В. в. о. однолинейной системы обслуживания с ожиданием с пуассоновским входящим потоком, является марковским. Преобразование Лапласа для стационарного распределения В. в. о. определяется формулой Хинчина: Ee~sX = Х.ЕР[1 -Х.С1 - Ее"*)/*]"1, где X - параметр входящего потока, р - длительность обслуживания, A': =lim X(t). t -»°o Лит.: [1] Гнеденко Б. В., Коваленко И. Н., Введение в теорию массового обслуживания, М., 1966; [2] Гнеденко Б. В. [и др.], Приоритетные системы обслуживания, М., 1973. В. С. Королюк. ВИТАЛИ СИСТЕМА (Vitali system) - см. Дифференцирования системы. ВИТАЛИ ТЕОРЕМА (Vitali theorem) множество. см. Неизмеримое ВИТАЛИ-ХАНА-САКСА ТЕОРЕМА (Vitali-Hahn-Saks theorem) - см. Абсолютная непрерывность мер. ВКЛЮЧЕНИЯ И ИСКЛЮЧЕНИЯ МЕТОД (inclusion- exclusion method) - комбинаторный способ выражения вероятностей осуществления заданного числа событий через вероятности пересечений этих событий. Напр., вероятность осуществления ровно г событий из ЛJ,...,Л„ равна где Частичные суммы по k от г до г +1 в этой формуле дают для Р(г) оценки сверху (при четных i) и снизу (при нечетных t) - так наз. неравенства Бонферрони. Иногда под В. и и. м. понимается использование приведенной и родственных ей формул. Лит.: [1] Сачков В. Н., Комбинаторные методы дискретной математики, М., 1977. В. Г. Михайлов. ВЛАСОВА УРАВНЕНИЕ (Vlasov equation) - уравнение, описывающее изменение средней плотности частиц, индуцируемое динамической системой статистической механики в приближении среднего поля. Оно имеет вид ^ = -(p,graV, (,.„)). " [тир ft<?. Р\ J^+^ &ndq U°(q - qx )ft{qx, px )dqxdpx J; (») здесь ft(q,p) - средняя плотность (или, что то же самое, первая корреляционная функция) в момент t в точке - координата частицы, а р - ее импульс), U (q) - потенциал взаимодействия, предполагаемый гладкой функцией. В. у. может быть получено из уравнений Боголюбова для средней плотности ft(q,0) заменой переменных ft(q,0)=fe-lt(Eq,p), заменой потенциала U0 на U(q) = £vU0(zq) и предельным переходом при е -> 0. Существование и единственность решения уравнения (*) может быть доказана вероятностными методами. В приложениях важны видоизменения уравнения (*), приложимые к потенциалу U с особенностью £/(</)-> оо при б/->0, однако для этого случая математич. теория развита мало. Лит.: [1] Добрушин Р. Л., «Функц. анализ и его прилож.», 1979, т. 13, в. 2, с. 48-58; [2) Добрушин Р. Л., Синай Я. Г., Сухов Ю. М., в кн.: Итоги науки и техники. Современные проблемы математики. Фундаментальные направления, т. 2, М., 1985, с. 235-84; [3]BraunW., Нерр К., «Comm. Math. Phys.», 1977, v. 56, p. 101-13; [4) Neunzert H., «Trans. Fl. Dynamics», 1977, v. 18, p. 663-78. P. Л. Добрушин. ВЛИЯНИЯ ФУНКЦИЯ эмпирическая (empirical influence function) - см. Эмпирическая функция влияния. ВЛОЖЕННАЯ ЦЕПЬ МАРКОВА (embedded Markov chain) в процессе X(t) в марковские моменты xk, т^т^, k^0: Px{x(Tk + t)eA\^Xf} = PXk{x(t)eA} (Рд.-почти наверное) - образуется последовательностью Xk = X(xk), k^0. Эргодич. свойства процесса X(t) с марковским вмешательством случая следует из эргодичности В. ц. м. В частности, когда (Xk, xk; k^0) - процесс марковского восстановления, то X(t) = Xv(^, v(0 = max {/г:тл^£} - полумарковский процесс. Лит.: [1] Коваленко И.Н., Кузнецов Н.Ю., Шурен- ков В. М., Случайные процессы. Справочник, К., 1983; [2) Гих- ман И. И., Скороход А. В., Теория случайных процессов, т. 2, М., 1973. В. С. Королюк. ВЛОЖЕННЫЙ ВЕТВЯЩИЙСЯ ПРОЦЕСС (embedded branching process) - 1) для общего и ветвящегося процесса - ВЛОЖЕННЫЙ 113
Галътона - Ватсона процесс, описывающий эволюцию частиц общего ветвящегося процесса не во времени, а по поколениям. 2) Для однородного марковского ветвящегося процесса Z(t), t^O, с непрерывным временем - процесс Гальтона-Ватсона Yn = Z(nb), 5>0, я = 0, 1, 2, ... С последним понятием В. в. п. связана проблема вложения ветвящегося процесса, состоящая в нахождении условий существования однородного марковского ветвящегося процесса с непрерывным временем, для к-рого данный процесс Гальтона - Ватсона является В. в. п. (см. [1]). Эта проблема не получила до настоящего времени окончательного решения. Лит.: [1] Athreya К. В., Ney P. E., Branching processes, B.- Hdlb.- N. Y., 1972. В. А. Ватутин. ВНЕШНЯЯ МЕРА (outer measure) - см. Мера. ВОЗВРАТНАЯ ПО ХАРРИСУ ЦЕПЬ МАРКОВА (Harris recurrent Markov chain) - см. Маркова цепь. ВОЗВРАТНАЯ ЦЕПЬ МАРКОВА (recurrent Markov chain) - однородная цепь Маркова X с конечным или счетным множеством состояний, каждое из к-рых возвратно (см. Маркова цепь; классификация состояний). Иными словами, если цепь X с вероятностями перехода за п шагов Ру(п) задана на не более чем счетном множестве £"={1,2,...}, то ее возвратность означает, что траектории, исходящие из любого ieE, почти наверное возвращаются (и притом бесконечное число раз) в i. Возвратность X равносильна расходимости ряда V >.Рц(п), ieE. Для непериодич. В. ц. М. существуют пределы МтрЛп), и они не зависят от х, если эта цепь П->оо неразложима. Примером В. ц. М. служит симметричное случайное блуждание по решетке Z = {0,±1,±2,...}, при к-ром переход из каждого состояния х e Z осуществляется на следующем шаге в х - 1 либо в х + 1 с одинаковой вероятностью 1/2. Обобщением неразложимой В. ц. М. служит понятие В. ц. М. по Харрису (см. Маркова цепь). Лит.: [1] Феллер В., Введение в теорию вероятностей и ее приложения, пер. с англ., т. 1, М., 1984; [2] Чжун Кай-лай, Однородные цепи Маркова, пер. с англ., М., 1964. М. Г. Шур. V-ВОЗВРАТНАЯ ЦЕПЬ МАРКОВА (v-recurrent Markov chain) - см. Маркова цепь. ВОЗВРАТНОЕ СОБЫТИЕ (recurrent event) - см. Маркова цепь; классификация состояний. ВОЗВРАТНОЕ СОСТОЯНИЕ (recurrent state) - см. Маркова цепь; классификация состояний, Марковский процесс со счетным множеством состояний. ВОЗВРАТНОСТЬ случайного блуждания (persistence of a random walk) - см. Случайное блуждание; возвратность. ВОЗВРАТНЫЙ МАРКОВСКИЙ ПРОЦЕСС (persistent/ recurrent Markov process) - марковский процесс, обладающий аналогом характеристического свойства возвратной цепи Маркова. Точное значение термина «В. м. п.» раскрывается по-разному. Пусть в топологич. пространстве Е [точнее, в измеримом пространстве (Е,33), где 35- совокупность боре- левских множеств в Е] задан необрывающийся однородный марковский процесс X=(Xt,^t, Px). Он называется топологически возвратным, если для каждого открытого множества V а Е и каждого х е Е случайное множество Sv = {t>0:XteV} Рх-почти наверное неограничено. Если X является стандартным процессом и последнее условие ре- 114 ВОЗВРАТНАЯ ализуется для любого хеЕ и любой тонкой окрестности V точки х (см. Потенциала теория для марковского процесса), то он называется тонко возвратным. Стандартный процесс X именуется возвратным по Харрису, или ц-возвратным, где ц. есть а-конечная мера на а-ал- гебре 35, коль скоро лебегова мера множества Sv при всех хеЕ Рд.-11очти наверное бесконечна всякий раз, когда Ve3S n\i(V)>0. Одно- и двумерный винеровские процессы дают примеры В. м. п. во всех трех смыслах. Понятие В. м. п. используется при изучении эргодич. свойств марковских процессов (см. Эргодические теоремы для марковских процессов). Первое и третье определения имеют естественные аналоги в случае цепи Маркова в измеримом пространстве. Лит.: [1] Azema J., Kaplan-Duflo M., Revuz D., «Lect. Notes Math.», 1968, v. 51, p. 1-21; [2] Рев юз Д., Цепи Маркова, пер. с англ., М., 1997; [3] Tuominen P., Tweed ie R., «Proc. London Math. Soc.», 1979, v. 39, p. 554-76; [41 Getoor R. K., <Lect. Notes Math.», 1980, v. 784, p. 397-409. м. Г. Шур. ВОЗВРАЩЕНИЯ СРЕДНЕЕ ВРЕМЯ (mean/expected recurrence time) - см. Маркова цепь; классификация состояний, Маркова цепь; среднее время возвращения. ВОЗМУЩЕНИЙ МЕТОД (perturbation method) в планировании эксперимента- метод решения сложных задач спутниковой метеорологии, охраны окружающей среды и др., разработанный Г. И. Марчуком (см. [1], [2]) и состоящий в следующем.. Пусть функция <р есть решение уравнения Ly = q, где L - линейный оператор, q - заданная функция, и пусть L' = L + bL - возмущенный оператор, <р' - решение уравнения L'cp' = q. Если L* - сопряженный по Лагранжу оператор к L, то где ф* - решение уравнения L*y*=p. Для возмущения bJp = Jp- (ф', р) функционала Jp имеет место равенство 8/р = - (61ф', <р*) = - (81ф, ф*) - (815ф, ф*). Если норма оператора bLL~ мала, то 6Ур* -(81ф,фр. Пусть в эксперименте со случайной ошибкой измеряется N функционалов (ф, рЛ, /=1, ..., N, и требуется определить bL = ^m в^Аг, где в, - неизвестные параметры, А{ - заданные априори операторы. Тогда (51ф,ф;.)*оУр., j=\,...,N. Пусть N^m и параметры 6, можно оценить с помощью метода наименьших квадратов. Задача планирования эксперимента состоит в таком выборе функций, при к-ром ошибка определения значений параметров 6г минимальна. В отличие от методов планирования эксперимента в функциональных пространствах (см. Планирование эксперимента для обратных задач), В. м. учитывает систематич. ошибку путем решения прямого уравнения и сопряженных невозмущенных уравнений. Лит.: [1] Марчук Г. И., Методы вычислительной математики, 2 изд., М., 1980; [2] Марчук Г. И., Ермаков СМ., М., в кн.: Математические методы планирования эксперимента, Новосиб., 1981, с. 3—18; [3] Математическая теория планирования эксперимента, М., 1987. с. М. Ермаков. ВОЗРАСТА РАСПРЕДЕЛЕНИЕ (age distribution) - термин, обозначающий распределение возраста частиц в ветвящемся процессе. Пусть Zt(x) - число частиц в момент t, возраст к-рых не превосходит х, 0^#^<». Эмпирич. распределение возраста частиц Zt(x)/Zt(°o), Zt(oo)>0, при нек-рых услови-
ях, наложенных на закон размножения ветвящегося процесса, при t-±oo сходится к распределению А(х) = J* e~at(\ - G(t))dt/j~ e~at(\ - G(t))dt, где а - мальтусовский параметр зависящего от возраста ветвящегося процесса, G(t) - функция распределения длительности жизни частицы; А(х) называется предельным распределением возраста. Лит.: [1] Коваленко И.Н., Кузнецов Н. Ю., Шурен- ков В. М., Случайные процессы. Справочник, К., 1983; [2] Ватутин В. А., Зубков A.M., в кн.: Итоги науки и техники. Сер. Теория вероятностей. Математическая статистика. Теоретическая кибернетика, т. 23, М., 1985, с. 3-67. И. С. Бадалбаев. ВОЗРАСТАЮЩИЙ СЛУЧАЙНЫЙ ПРОЦЕСС (increasing random process) - случайный процесс А = (At)t^.Q с Л0 = О, неубывающими (А^Л^, s^t) и непрерывными справа траекториями и такой, что он согласован с непрерывным справа семейством ^ = (^t\^o <*_алгебр dt и при каждом t>0 имеет место неравенство At<°° (Р-почти наверное), а lim Л^Л^^оо. В. с. п. Л называется интегрируемым, ес- ли ЕЛ00<о°, и локально интегрируемым, если ЕАТ < °о для п ^ 1 и нек-рой неубывающей последователь- п ности марковских моментов (7,„)„^1 таких, что lim Tn = <*> п (Р-почти наверное). Для всякого локально интегрируемого В. с. п. Л существует единственный предсказуемый возрастающий случайный процесс Л = (Лt)t^Q, называемый компенсатором Л, такой, что процесс А-А является локальным мартингалом. При этом ЕЛТ=ЕЛТ для любого марковского момента х и е% ньш,=е£ ншА, для любой неотрицательной предсказуемой функции Я = Я(со,5). Примером В. с. п. может служить пуассоновский процесс с параметром X. Компенсатором этого процесса служит детерминированная функция At = Xt. Лит.: [11 Деллашери К., Емкости и случайные процессы, пер. с франц., М., 1975; [2] Липцер Р. Ш., Ширяев А. Н., Теория мартингалов, М., 1986; [3] Жак од Ж., Ширяев А. Н., Предельные теоремы для случайных процессов, пер. с англ.. М., 1994. Р. Ш. Липцер. ВОЛОКОН ПРОЦЕСС (fibre process) - см. Математическая стереология. ВОЛЬДА РАЗЛОЖЕНИЕ (Wold's decomposition) - см. Линейный фильтр. ВОРОНОГО МОЗАИКА (Voronoi tessellation) - см. Случайная мозаика. ВОССТАНОВЛЕНИЕ марковского процесса (regeneration of a Markov process) - см. Марковский процесс; преобразования. ВОССТАНОВЛЕНИЯ ИНТЕРВАЛ (renewal interval) - см. Восстановления процесс. ВОССТАНОВЛЕНИЯ МОМЕНТ (renewal time) - момент возобновления вероятностных свойств регенерирующего процесса. ВОССТАНОВЛЕНИЯ ПОТОК (renewal input) - см Входящий поток с ограниченным последействием. ВОССТАНОВЛЕНИЯ ПРОЦЕСС (renewal process) - случайный процесс, связанный с классической схемой сумм Хп = Tj + т2 + ... + т„, п ^ 1, Х0 = 0, независимых одинаково распределенных неотрицательных случайных величин Tj, х2, ... с функцией распределения Fit). Значение считающего процесса восстановления v (О в момент t определяется соотношениями v'=I^o/(x«^0 = 1 + max(":X»<0- Если интервалы восстановления т„ = Х„- X„_t интерпретировать как длительности безотказной работы последовательно заменяемых (или восстанавливаемых) идентичных элементов, то случайная величина v^ равна числу замен (восстановлений) за время t. Траектории процесса v^ кусочно постоянны и имеют единичные скачки в случайные моменты времени (Х„, я^О), к-рые называются моментами восстановления. В. п. является одним из основных понятий восстановления теории. При исследовании v^ основную роль играет восстановления функция Н (О = Ev^, через к-рую рекуррентно выражаются моментные функции Ял(0 = Е(у,)*(для*>2): «*w=i*e1 ci(-oM JlHat-s)dH(s). Наряду с v^ определяются также процессы с кусочно линейными траекториями: перескок у(0 и недоскок Г|(0, значения к-рых равны соответственно расстоянию от точки t до ближайшей справа (слева) точки последовательности (Х„, я^О) и связаны с v^ соотношениями у(0 = Xv -t, r\(t) = t-Xv_v Случайные процессы у(0 и Г|(0 являются марковскими. Для совместного распределения величин р^+ имеет место равенство P{y(t)^u, r\(t)^v} = qu + v(t-v), где функция qu{О = = P{$t^u) является решением восстановления уравнения вида t qu(t)=\-F(t + u) + J0 qu(t-s)dF(s) и при условии нерешетчатости функции распределения F(t) и конечности среднего w=Exj (см. Восстановления функция) удовлетворяет соотношению \\mqu(t) = ±rU-F(t))dt Если /•'(0 = 1 ~е~ t, t^O, то имеет место важный частный случай В. п. - пуассоновский процесс, в к-ром т=\/Х, P{vt = n+\} = (Xt)ne-Xt/n\, n^O, H(t) = \+Xt, <7м(0 = е~Ь, и величины vt, y(0 независимы. Лит.: [1] Кокс Д. Р., Смит В. Л., Теория восстановления, пер. с англ., М., 1967; [2] Феллер В., Введение в теорию вероятностей и ее приложения, пер. с англ., т. 2, М., 1984. В. М. Шуренков. ВОССТАНОВЛЕНИЯ ПРОЦЕСС; суперпозиция (superposition of renewal processes) - точечный процесс на прямой, к-рый определяется как объединение всех точек, отвечающих исходным восстановления процессам vt, i^k^l. Если последние образованы точками (Хя, я^О), то В.п. состоит из точек (Х„, я^О), получаемых упорядочением по возрастанию множества {Хп, и ^ О, 1 ^ k ^ /}. Для соответствующего считающего процесса справедливо соотношение v^ = v^ +... + vt. Суперпозиция В. п. интерпретируется как последовательность моментов отказов в системе, состоящей из / восстанавливаемых элементов, к-рые порождают исходные В. п. Н. В. Карташов. ВОССТАНОВЛЕНИЯ ТЕОРЕМА (renewal theorem) - утверждение, описывающее асимптотические свойства восстановления функции. Пусть Xj, Х2,... - независимые, одинаково распределенные случайные величины, 5n=I,Lix*' У(0 = 1 + max (я :Sn < t) = min (я :Sn ^ О, ЖО = ЕУ(0. ВОССТАНОВЛЕНИЯ 115
Различают интегральную и локальную В. т. Интегральная В. т. утверждает, что lim fxH{t) = \/m, m = EXk. t-*oo Локальная В. т. утверждает, что для нерешетчатых Xk и любого фиксированного h > О \im(H(t + h)-H(t)) = h/m. Если Хп целочисленны и наибольший общий делитель возможных значений Хп равен 1, то \im(H(k+\)-H(k)) = \/m, где k пробегает целочисленные значения. Локальная В. т. эквивалентна так наз. основной (или узловой) В.т., к-рая утверждает, что для нерешетчатых Хп и для любой непосредственно интегрируемой по Риману на (О, °°) функции д(и) справедливо lim f g(t-u)dH(u) = — Гg(u)du. (•) £_►<» JO m JO Аналогичный результат имеет место для целочисленных Хп, но последовательность t —><» должна быть целочисленной, а в правой части (*) будет стоять 1 х;,^>- Функция восстановления Hit) в силу тождества Вальда связана с математич. ожиданием эксцесса блуждания (перескока) х(0 соотношением mH(t) = t + Ex(t), где для Xk^0 Р{Х<')>0}= Jl dH(u)P{Xx>t-u + v), что в силу основной В. т. дает HmEx(0 = — \°°G(t)dt = —Ц G(0= rP{X<>v}dv t^oo m JO 2m it ' (для целочисленных Xk, £-><», по целочисленным значениям). Поэтому EX2 Hit) = ± + —L + o(l) ™ 2m2 При t -> °o. В. т. играет существенную роль при изучении свойств случайных блужданий. При этом представляет интерес скорость сходимости к 0 разности R(t) = H(t)-±- BXt "> 2т' и2 * Если ЕХ?+2 < оо и lim inf 11 - Ее'1*11 > 0, то |Х|-,оо R(t) = -^[G(u)du + o(^yo(t-k). Для целочисленных Xk с EXj+ <°о *'>=- -j 1У« Z*>,- р<*. < *+«+0(r*_1 >• Если P{Xj>^} убывает экспоненциальным образом и содержит абсолютно непрерывную компоненту, то Ш)<се~**, v3irR<ce-fU (t,oo) при нек-рых е>0, с<°о. Утверждение сохраняется и для целочисленных Xk. 116 ВОССТАНОВЛЕНИЯ Лит.: [11 Кокс Д. Р., Смит В. Л., Теория восстановления, пер. с англ., М., 1967; [21 Феллер В., Введение в теорию вероятностей и ее приложения, пер. с англ., т. 1-2, М., 1984; [3] Боровков А. А., Вероятностные процессы в теории массового обслуживания, М., 1972; [41 Stone С, «Trans. Amer. Math. Soc», 1965, v. 120, № 2, p. 327-42; [5] Takacs L., Combinatorial methods in the theory of stochastic processes, N. Y.- [a. o.], 1967. А. А. Боровков. ВОССТАНОВЛЕНИЯ ТЕОРИЯ (renewal theory) - раздел теории вероятностей, в к-ром изучаются случайные явления, связанные с отказом и восстановлением элементов какой-либо сложной системы. Наиболее существенное свойство этих янле- ний - полное возобновление их вероятностных свойств в нек-рые случайные моменты времени - моменты восстановления. Последовательность этих моментов образует вложенный восстановления процесс. Основные результаты В. т. касаются асимнтотич. поведения процессов восстановления и регенерирующих процессов. Поскольку распределения последних однозначно определяются из восстановления уравнения, то с аналитич. точки зрения предметом В. т. является изучение асимптотич. свойств решений уравнения восстановления. Результаты В. т. (в частности, узловая восстановления теорема) используют в качестве мощного средства исследования как прикладных, так и теоретич. проблем в теории систем обслуживания, теории надежности, теории ветвящихся процессов, теории запасов и т. п. Имеется большое число обобщений классич. результатов В. т. на случай, когда интервалы между моментами восстановления: а) знакопеременны, б) принимают векторные значения (В. т. в II? и IR"), в) бесконечны с положительной вероятностью (переходные явления в В. т.), г) лишь условно независимы (теория марковского восстановления), д) разнораспределены, е) меняются в схеме серий и т. п. Лит.: [1] Кокс Д. Р., Смит В. Л., Теория восстановления, пер. с англ., М., 1967; [2] Севастьянов Б. А., Теория восстановления, в кн.: Итоги науки и техники. Сер. Теория вероятностей. Математическая статистика. Теоретическая кибернетика, т. 2, М., 1974, с. 99-128; [31 Феллер В., Введение в теорию вероятностей и ее приложения, пер. с англ., т. 2, М., 1984. Н. В. Карташов. ВОССТАНОВЛЕНИЯ УРАВНЕНИЕ (renewal equation) - линейное интегральное уравнение для функций на [0, *>), имеющее вид x(t)=y(t)+ j* x(t-s)dF(s), где х - неизвестная, у - заданная функция, a F - нек-рая функция распределения, не сосредоточенная в нуле, а интегрирование ведется по замкнутому интервалу [0, t]. Изучению решений В. у. посвящена восстановления теория. В. у. имеет единственное решение, в классе локально ограниченных измеримых функций для каждой функции y(t) из этого класса. Указанное решение дается формулой x(t)= fQ y(t-s)dH(s), где H(t) - восстановления функция, построенная по функции распределения F(t). Узловая теорема восстановления утверждает, что существует lim x(t) = — Г y(t)dt, t->oo m JO где 7W = j tdF(t). Для справедливости этого достаточно потребовать кроме конечности величины т выполнения одного из наборов условий: (а) функция распределения F(t) нерешетчата, то есть точки роста F(t) не образуют какую-либо арифметич. решетку: У ^F(nh+)-F(nh-)<\, при любом h>0 функция y(t) непосредственно ин-
тегрируема по Риману на [0, °°), то есть £» £RiWfl|<- и 5У >n sup yit)- inf t/(O->0 ^и^' [иб.мб+б] [и5,л5+5] при 8-»0; (б) функция распределения F(0 строго несингулярна, то есть нек-рая свертка F*nit) имеет абсолютно непрерывную компоненту, а функция yit) ограничена, интегрируема по Лебегу на [0, <») и стремится к нулю при t -><». Лит.: [1] Кокс Д. Р., Смит В. Л., Теория восстановления, пер. с англ., М., 1967; [21 Феллер В., Введение в теорию вероятностей и ее приложения, пер. с англ., т. 2, М., 1984; [3] Коваленко И. Н., Кузнецов Н. Ю., Шуренков В. М., Случайные процессы. Справочник, К., 1983. Н.В. Карташов, В.М. Шуренков. ВОССТАНОВЛЕНИЯ ФУНКЦИЯ (renewal function) - функция Hit), определяемая по какой-либо распределения функции Fit) как сумма ряда из я-кратных сверток F с собой: "<'> = X^0F*n(O = X^0P{Xn^}, где iXn, я^О) - точечный восстановления процесс с распределением F интервалов восстановления хп = Х„- Хп_х, я ^ 1. Если Р{т„ = 0} < 1, то функция Hit) конечна и удовлетворяет восстановления уравнению вида Hit)=\+fQHit-s)dFis) (интегрирование по замкнутому интервалу [0, t]). Функция Hit) не убывает, неотрицательна, полу аддитивна: Hit + s)^ Hit) + His), при t, s^O удовлетворяет элементарной теореме восстановления: £_►<» t m где 7W = J tdFit). Более того, в предположении конечности второго момента ти2= L t dFit) справедливы неравенства t/m ^ H(t) ^ t/m + m2/2m2. В теореме Блэкуэлла утверждается, что при любом а > 0 lim Wit + a)-Hit)) = а/т, если только функция распределения Fit) нерешетчата, то есть точки роста Fit) не образуют какую-либо решетку вида {{),d,2d,...}. В этом же предположении lim Wit) - t/m) = т2/2т2. Лит.: см. [11, [21 при ст. Восстановления уравнение. Н. В. Карташов, В. М. Шуренков. ВОССТАНОВЛЕНИЯ ЭЛЕМЕНТАРНАЯ ТЕОРЕМА (elementary renewal theorem) - теорема об асимптотике восстановления функции. ВПОЛНЕ АДДИТИВНАЯ МЕРА (completely additive measure) - см. Вполне аддитивная функция множеств. ВПОЛНЕ АДДИТИВНАЯ ФУНКЦИЯ МНОЖЕСТВ (completely additive set function) - обычно, тоже, что счетно-аддитивная функция множеств. Однако в нек-рых вопросах теории меры первому из этих двух понятий иногда придается другой смысл. Точнее, пусть а - произвольное бесконечное кардинальное число, и пусть ц. - нек-рая (положительная) о-конечная мера. Эта мера называется а-аддитивной мерой, если, каково бы ни было дизъюнктное семейство ц.-из- меримых множеств (X-)ieI, мощность множества индексов к-рого не превосходит а [то есть card U)^ а], справедливо равенство В частности, объединение указанного семейства (Xt)ie/ всегда предполагается ц-измеримым множеством. Наконец, мера ц. (рассматриваемая как функция множеств) называется вполне аддитивной мерой, если для всякого бесконечного кардинального числа а она является а-аддитивной мерой. Простейшими примерами вполне аддитивных мер (в указанном только что смысле) служат меры Дирака, задаваемые следующим образом. Пусть X - непустое основное базисное пространство их- произвольная точка из X. На множестве всех частей пространства X определяется функционал Ьх с помощью соотношения 5Г(У) I если х € Y, если, х ё Y, (У с X). Тогда функционал Ъх представляет собой вполне аддитивную вероятностную меру, к-рая и называется мерой Дирака, соответствующей точке х е X. Понятие В. а. ф. м. можно ввести и для булевых алгебр (особую важность это понятие приобретает в теории полных булевых алгебр). А. Б. Харазишвили. ВПОЛНЕ ИЗМЕРИМАЯ ПРОЕКЦИЯ ПРОЦЕССА (optional/well measurable projection of a process) Xit) [действительного, ограниченного или неотрицательного, заданного на полном вероятностном пространстве Ш, .</, Р) с непрерывным справа потоком i.^t)t^Q полных а-аягебр, при этом Xit) не обязан быть согласованным с этим потоком] - вполне измеримый относительно потока i^t)t^0 процесс Xit) такой, что для всякого марковского момента т справедливо равенство ЕЖт)/(т<+со}=Е°Жт)/(т<+со). Вполне измеримая проекция ограниченного (или неотрицательного) процесса существует и определяется однозначно. При этом °*(т)/(т<+со)=Е{Жт)/{т<+со)К} для любого марковского момента т. Лит.: [1] Деллашери К., Емкости и случайные процессы, пер. с франц., М., 1975; [2] Справочник по теории вероятностей и математической статистике, 2 изд., М., 1985. //. //, Портенко. ВПОЛНЕ ИЗМЕРИМЫЙ ПРОЦЕСС (well measurable/ optional process), опциональный процесс, - случайный процесс, обладающий свойством измеримости относительно а-алгебры вполне измеримых множеств, определяемый следующим образом. Пусть Ш, Л, Р) - полное вероятностное пространство и i^t^o ~ непрерывный справа поток полных а-алгебр. Минимальная а-алгебра подмножеств IR+ x Q, содержащая все множества вида [s, t)xA при 0^s<t,Ae^su вида {0} х А при A е *4q, называется а-а лгеброй вполне измеримых множеств и обозначается Ж. Она содержится в а-алгебре прогрессивно измеримых множеств и совпадает: 1) с минимальной а-алгеброй подмножеств К+х(1, содержащей все стохастич. интервалы вида [а, т [, где а, х - произвольные марковские моменты; 2) с минимальной а-алгеброй подмножеств IR+ х Q, относительно к-рой измеримы все вещественные согласованные непрерывные справа и имеющие пределы слева ВПОЛНЕ 117
процессы. Процесс (X(t))t^0 в фазовом пространстве (М, 83) называется вполне измеримым процессом, если измеримо отображение Х(-,) измеримого пространства (IR+xQ, Ж) в измеримое пространство (М, 83). См. также Мартингал. Лит.: [1] ДеллашериК., Емкость и случайные процессы, пер. с франц., М., 1975; [2] Справочник по теории вероятностей и математической статистике, М., 1985. И. И. Портенко. ВПОЛНЕ ПОЛОЖИТЕЛЬНОЕ ОТОБРАЖЕНИЕ (completely positive mapping) - отображение Ф С*-алгебры $С в С*-алгебру 83, удовлетворяющее условию для любого натурального п и любых Xx,...,Xne$t, У1,...,УяеЯЗ. Если $С или 83 коммутативны, то полная положительность эквивалентна положительности: Ф(Х)^0, если Х^О. Пример положительного отображения, к-рое не является вполне положительным, дает транспонирование в *-алгебре всех комплексных квадратных матриц. Структура В. п. о. раскрывается теоремой (см. [1]), из к-рой вытекает, что всякое В. п. о. является композицией *-гомоморфизма и условного ожидания. Этот факт лежит в основе конструкции расширений квантовых динамических полугрупп в некоммутативной теории вероятностей (см. [2]). Понятие полной положительности играет важную роль в теории квантовых случайных процессов. Лит.: [1] StinespringW., «Proc. Amer. Math. Soc», 1955, v. 6, p. 211-16; [2] Stermer E., «Acta math.», 1963, v. 110, № 3/4, p. 233-78. А. С. Холево. ВПОЛНЕ РАЗРЫВНЫЙ аддитивный ф ункционал (totally discontinuous additive functional) - см. Марковский процесс, аддитивный функционал. ВРЕМЕННАЯ ДИСКРЕТИЗАЦИЯ (time quantization), квантование во времен и,- замена непрерывного процесса x(t), являющегося объектом анализа (измерения), последовательностью отсчетов x(tx), x(t2), ..., x(t{)y ... в дискретные моменты наблюдения t{. Обратная операция - воспроизведение (с определенной точностью) исходной функции x(t) по ее отсчетам - называется восстановлением. Если отсчеты берутся через одинаковые интервалы времени Т- ti+x - £, = const, то В. д. называется равномерной, в противном случае - неравномерной [1]. Основной проблемой В. д. является выбор частоты отсчетов, к-рый, как правило, основывается на соображениях точности и априорных представлениях о характере дискретизиру- емой функции. Для процессов с ограниченным спектром фундаментальное значение имеет теорема Котельникова-Шеннона, указывающая на возможность точного восстановления функции x(t) по ее дискретным отсчетам с шагом Т= 1/2fm, где fm - максимальная частота спектра функции x(t). Широкое распространение получил выбор шага В. д. на основе вероятностных моделей, то есть в предположении, что x(t) - реализация нек-рого случайного процесса X(t) (чаще всего стационарного) с известными статистич. характеристиками (см., напр., [2], [3]). В этом случае шаг В. д. может быть выбран из условия непревышения заданного значения максимальной или осредненной по интервалу Т средней квадратич. ошибки восстановления. В частности, при линейной интерполяции по двум соседним отсчетам, то есть когда x(t) восстанавливается по приближенной формуле х(t{ + АО = (1 - M/T)x(t{) + M/Txiti + T), O^At^T, 118 ВПОЛНЕ условие непревышения заданного значения максимальной средней квадратич. ошибки восстановления для стационарного процесса X(t) имеет вид 3/2 - 2гхх(Т/2) + гхх(Т)/2^г2, где гхх( •) - монотонная нормированная корреляционная функция X(t), a e - отношение допустимой дисперсии ошибки восстановления в середине интервала дискретизации к дисперсии функции X(t). Лит.: [1] Кавалеров Г.И., Мандельштам С. М.. Введение в информационную теорию измерений, М., 1974; [2] Ицко- вич Э. Л., Статистические методы при автоматизации производства, М. - Л., 1964; [3] Немировский А.С, Волконский В.А., «Измерительная техника», 1963, № 4, с. 1-6. Е. Е. Жуковский. ВРЕМЕННАЯ ХАРАКТЕРИСТИКА ФИЛЬТРА dime response of a filter) - см. Линейный фильтр. ВРЕМЕННОЕ ОКНО (time window) - см. Спектральная плотность\ непараметрическая оценка. ВРЕМЕННОЕ СРЕДНЕЕ ЗНАЧЕНИЕ (time average value) - см. Эргодические теоремы. ВРЕМЕННОЙ РЯД (time series) - 1) В. р. - дискретный случайный процесс X(t), £ = 0,+l,+2, ...,- случайная последовательность. 2) В. р. - наблюдаемая конечная реализация дискретного случайного процесса X(t) при t-tx, t2,...,tN (иногда требуется, чтобы расстояния между точками tit ti+x были одинаковы для всех О. Понятие В. р. не обязательно связано с процессами, развивающимися во времени (напр., t может иметь смысл пространственной координаты). См. также Спектральный анализ временных рядов. Ю. Г. Баласанов. ВРЕМЯ-СЕЛЕКТИВНОЕ ЗАМИРАНИЕ (time selective fading) - см. Замирания в канале. ВСЕХ РЕГРЕССИЙ МЕТОД (all possible regressions method) - ускоренный перебор подмножеств заданной мощности предикторов регрессионного эксперимента, минимизирующий остаточную сумму квадратов, к-рый использует специальные приемы экономии памяти компьютера. Лит.: [1] Себер Г., Линейный регрессионный анализ, не]), с англ., М., 1980; [2] Статистические методы для ЭВМ, пер. с англ., М., 1986. М. Б. Малютов. ВСПОМОГАТЕЛЬНАЯ СТАТИСТИКА (auxiliary statistic) - подобная статистика, образующая совместно с нек-рой другой, по отношению к к-рой первая является вспомогательной, достаточную статистику для рассматриваемого семейства распределений. Понятие «В. с.» было введено Р. Фишером (см. [3]) с целью устранить возможную потерю информации при переходе от выборки к оценке максимального правдоподобия. Следующий пример иллюстрирует идею Р. Фишера. Пусть рассматриваемое семейство распределений &> порождается повторной выборкой xv...}xn из генеральной совокупности Жб- 1, в+ 1) с параметром в, то есть х{ распределены независимо и равномерно на (6-1, 6+ 1). Достаточной статистикой для ^является пара (Xv Х„), где Хх=т'т(хх,...,хп), Хп = max (хх,...,хп), оценка максимального правдоподобия есть (Х1 + Х„)/2, а В. с. есть Хп-Хх. Предполагается, что параметр в семейства & общего вида представляется в виде в = (QX}Q2)} а достаточная статистика - в виде (Г1,Г2). Если распределение компоненты Т2 зависит только от в2, то на Т2 можно смотреть как на В. с. в нек-ром широком смысле. Р. Фишер сформулировал следующий принцип условности: для статистич. выводов о Qx достаточно располагать только условным распределением компоненты Тх при заданной Т2 (см. [1]).
Относительно современного состояния теории В. с. см. [2]. Иногда как синоним В. с. употребляют термин «дополнительная статистика». М. Бартлетт (М. Bartlett) использует термин «квазидостаточная статистика», говоря об условном распределении Тх относительно Г2. Впрочем, последний не получил сколько-нибудь широкого распространения. Лит.: [1] Кендал л М., Стьюарт А., Статистические выводы и связи, пер. с англ., М., 1973; [2) Buehler R. J., «J. Amer. Statist. Assoc», 1982, v. 77, № 379, p. 581-89; [3] Fisher R.A., «Proc. Cambridge Philos. Soc», 1925, v. 22, p. 700-725. a. M. Каган. ВХОДА ЗАКОН (entrance law) - см. Колмогорова уравнения. ВХОДНОЙ БРАК (entrance rejects) - см. Последующие оценки. ВХОДНОЙ СИГНАЛ (input signal) - см. Вероятностный автомат. ВХОДОВ РАСПРЕДЕЛЕНИЕ (entrance distribution) - см. Марковский процесс; продолжение. ВХОДЯЩИЙ ПОТОК (input/arrival flow/stream) - одно из основных понятий обслуживания систем теории. В. и. определяется как случайная последовательность точек tn e IP, обычно упорядоченная (tn^tn+x) и не имеющая почти наверное конечных предельных точек. Величина tn называется моментом я-го события В. п., или моментом поступления в систему обслуживания я-го требования. В большинстве случаев предполагается, что В. п. задается независимо от процесса функционирования системы. Наибольшее распространение получили В. п. без последействия, В. п. с ограниченным последействием, Пальма поток. По современным воззрениям В. п. вместе с последовательностью длительностей обслуживания образует управляющую последовательность системы обслуживания. Наиболее развита теория систем со стационарной управляющей последовательностью. См. также Точечный процесс. Лит.: [ 11 Боровков А. А., Вероятностные процессы в теории массового обслуживания, М., 1972; [2] Гнеденко Б. В., Коваленко И. Н., Введение в теорию массового обслуживания, 2 изд., М., 1987. и. Н. Коваленко. ВХОДЯЩИЙ ПОТОК без последействия (input/ arrival flow/stream with lack of memory) - входящий поток, для к-рого выполняется следующее свойство: пусть X(t) - число событий потока в полуинтервале [0,0 при £^0; тогда X(t) - случайный процесс с независимыми приращениями. В. п. без последействия исследован исчерпывающим образом А. Я. Хинчиным [1]. Регулярный входящий поток без последействия характеризуется тем, что при любых t<s величина X(s)-X(t) распределена по закону Пуассона с параметром А(б)-А(0, Л(0 - непрерывная неубывающая функция. Сингулярный входящий поток без последействия характеризуется возможностью события лишь в моменты заданной последовательности {хп}. Произвольный входящий поток без последействия есть сумма независимых регулярного и сингулярного В. п. без последействия. См. также Пуассоновский процесс. Лит.: (1) Хин чин А. Я., Работы по математической теории массового обслуживания, М., 1963. //. #. Коваленко. ВХОДЯЩИЙ ПОТОК с ограниченным последействием (recurrent input/arrival flow/stream) - входящий поток, для к-рого момент п-ro события равен величине где2„,п^\,- независимые случайные величины. Теория В. п. с ограниченным последействием развита А. Я. Хинчиным. Наибольшее распространение в теории систем обслуживания и ее приложениях получил рекуррентный поток (поток восстановления), для к-рого P{zi<t} = F0(t), P{zn<t} = F(t), n>2. При F0(t) = F(t) = 1 -е~ , t^0, В. п. с ограниченным последействием есть простейший (стационарный пуас- соновский) поток. См. также Пальма поток. И. Н. Коваленко. ВЫБОР НАИЛУЧШЕГО ОБЪЕКТА (best choice problem) - одна из задач оптимальной остановки Маркова цепи, формулируемая следующим образом. Имеется п объектов, упорядоченных по качеству (у лучшего ранг 1, у второго по качеству ранг 2 и т.д.). Объекты поступают на просмотр в моменты времени 1,2,...,я в случайном порядке, то есть все я! перестановок равновероятны. Очередной поступивший объект можно сравнить по качеству с уже поступившими и указать его относительный ранг, то есть место по качеству среди уже поступивших объектов, но его абсолютный ранг остается неизвестным. После ознакомления с очередным объектом нужно либо выбрать его (возвращаться к просмотренным ранее нельзя), либо продолжить наблюдения. Требуется с максимальной вероятностью выбрать объект, наилучший по качеству. Показано, что моменты появления объектов с относительным рангом 1 образуют цепь Маркова и задача сводится к оптимальной остановке этой цепи. Задача возникла в сер. 50-х гг., но автор ее неизвестен. Первая журнальная формулировка дана в [1]. При ссылках часто говорят о выборе «невесты» или выборе «секретаря». Ситуация, когда число объектов я случайно и имеет заданное распределение, рассматривалась в [2]. Известны многочисленные обобщения на случай более общих функционалов, нескольких попыток остановки, игровых постановок, изучаются задачи с непрерывным временем, получающиеся при я-><». Обзор см. в [3], [4]. Лит.: [1] Gardner M., «Sci. Amer.», 1960, v. 202, № 1, p. 150-56; № 3, p. 172-82; [2] Пресман Э.Л., Сонин И.М., «Теория вероятн. и ее примен.», 1972, т. 17, в. 4, с. 695-706; [3] Freeman P., «Int. Statist. Rev.», 1983, v. 51, № 2, p. 189-206; [4] Березовский Б. А., Гнедин А. В., Задача наилучшего выбора, М., 1984. Э.Л. Пресман. ВЫБОРКА (sample) - подмножество объектов, отобранных с использованием вероятностных методов из общей совокупности $), содержащей конечное число объектов. Число объектов в В. называется объемом выборки. Часто статистич. В. отождествляют с набором значений характеристик объектов, составляющих В. Для исследования совокупностей объектов (напр., штучных изделий в промышленности, населения в демографии) используют различные вероятностные методы образования статистич. В. (см. Выборочное статистическое обследование). Случайным выбором без возвращения называется такой отбор объектов из $) в В., когда объекты отбираются один за другим; уже отобранные объекты в дальнейшем отборе не участвуют, для всех еще не отобранных объектов вероятность отбора одинакова. Случайной бесповторной выборкой объема я называется такой отбор объектов из $), при к-ром все подмножества в $), содержащие п объектов, имеют равные вероятности образовать В. Случайную В. объема п можно получить в результате случайного выбора без возвращения я объектов из $). Если решение об отборе каждого объекта в В. принимается независимо с вероятностью р} то полученная статистич. В. называется биномиальной выборкой. В математич. статистике наряду со статистич. В. из совокупностей, содержащих конечное число объектов, рассматривают В. из бесконечных совокупностей. См. Выборочный метод. Ю. К. Беляев. ВЫБОРКА; размах (sample range) - см. Размах выборки. ВЫБОРКА 119
ВЫБОРКА; рассеивание (sample dispersion/variation) - см. Рассеивание выборки. ВЫБОРКА расслоенная (stratified sample) - см. Расслоенная выборка. ВЫБОРКА репрезентативная (representative sample) - см. Репрезентативная выборка. ВЫБОРКА усеченная (truncated sample) - см. Усеченная выборка. ВЫБОРКА цензурированная (censored sample) - см. Цензурированная выборка. ВЫБОРОЧНАЯ ДИСПЕРСИЯ (sample variance) - дне Персия эмпирического распределения вероятностей. Пусть Xv ..., Хп- независимые одинаково распределенные случайные величины. Тогда статистика *Н^(х<-*")2> где называется выборочной дисперсией, или дисперсией эмпирического распределения, построенного по выборке Xv ..., Хп. Пусть ak = EX\, mk = E(Xx-ax)k. Тогда в предположении, что а4<<*>, В. д. Sn обладает свойствами асимптотич. несмещенности, так как и состоятельности, так как В свою очередь, статистика является несмещенной оценкой дисперсии т2, то есть Егп = т2. Лит.:[\] Боровков А. А., Математическая статистика, М., 1984; [2] Крамер Г., Математические методы статистики, пер. с англ., 2 изд., М., 1975; [3] Воинов В. Г., Никулин М. С, Несмещенные оценки и их применения, М., 1989. М. С. Никулин. ВЫБОРОЧНАЯ ЕДИНИЦА (sample unit) - см. Выборочное статистическое обследование. ВЫБОРОЧНАЯ КВАНТИЛЬ (samplerquantile) порядка X, 0<А,<1, - элемент вариационного ряда, построенного по выборке {Хг}*=1, с номером [п^]+ 1, где [а] - целая часть а. Для независимых Xit 1 ^ i ^ я, с общей функцией распределения F и плотностью f В. к. порядков 0 < Х^ < Х2... < Xk < 1 имеют при я->о° асимптотически /г-мерное нормальное распределение с математич. ожиданиями х^, \^i^k, и ковариациями Xiii-X^/nfix^fix^), i^j, где F(x^) = Х. В. к. используют при оценивании квантилей функции распределения F. Лит.: [11 Дэйвид Г., Порядковые статистики, пер. с англ., М., 1979. В. А. Егоров, В. Б. Невзоров. ВЫБОРОЧНАЯ КОВАРИАЦИОННАЯ ФУНКЦИЯ (sample covariance function) - см. Выборочная корреляционная функция. ВЫБОРОЧНАЯ КОВАРИАЦИЯ (sample covariance) - см Ковариация. ВЫБОРОЧНАЯ КОРРЕЛОГРАММА (sample correlo gram) - см. Коррелограмма. ВЫБОРОЧНАЯ КОРРЕЛЯЦИОННАЯ ФУНКЦИЯ (sample correlation function), выборочная ковариаци- 120 ВЫБОРОЧНАЯ онная функция, стационарного процесса - простейшая оценка корреляционной функции B(x) = EX(t + x)X(t) или Мт) = E[X(t + х) - EX(t + x)][X(t) - ЕХ(0] стационарного случайного процесса X(t) по наблюденным значениям x(t), где Q^t^T или t=\, 2, ..., 7\ одной реализации этого процесса. Выборочная корреляционная функция Bj(x) при 0 ^ |х| < Т задается формулой В;(т) = 1|оГЧт| x(t + \x\)x(t)dt в случае непрерывного t и формулой B'TM=±zTt:\xl x(t+\x\M» в случае дискретного t. Если оценивается функция Ь(х) и среднее значение процесса EX(t) = m является неизвестным, В. к. ф. Ь*т(х) задается формулой ^(х) = 1|оГ"|х| [X(t + \x\)-x]lx(t)-x]dt, х = Г"1 \Т x(t)dt, Jo и соответственно *£<*> = £ХЙХ| W+M>-*][*«>-*)- Оценка В*т(х) является смещенной, но состоятельной оценкой функции Жт), а Ь*т(х) - такой же оценкой функции Ых). Функции В*т(х) и Ь*т(х), доопределенные для всех вещественных (соответственно целочисленных) значений аргумента т при помощи условий В*т(х) = 0 и Ь*т(х) = О при |т| ^ Т, являют- ся положительно определенными функциями аргумента т; их преобразование Фурье - периодограмма процесса X(t) или X(t) - EX(t) - играет важную роль при непараметрич. оценивании спектральной плотности (то есть в спектральном анализе стационарных процессов). А. М. Яглом. ВЫБОРОЧНАЯ МЕДИАНА (sample median) - медиана эмпирического распределения; статистика \in, определяемая соотношениями \Ln = X(k+\)* если п = 2k + 1, йя = (Хш + Х(*+1))/2, если п = 2k, k=\, 2, ..., где {X(j)}"= t - упорядоченные по возрастанию случайные величины {Х,}"= t. Для независимых X,, i= 1, 2, ..., с общей функцией распределения F p{^+1<*> = f^fVa-*)*^, * = u,.. Если F(x)=f_ f(t)dt и F(m) = 1/2, а /"положительна и дифференцируема в окрестности точки т, то |1„ асимптотически нормальна с параметрами т и \/4nf (m). Лит.: [1] Дэйвид Г., Порядковые статистики, пер. с англ., М., 1979. В. А. Егоров, В. Б. Невзоров. ВЫБОРОЧНАЯ НЕПРЕРЫВНОСТЬ случайного процесса (sample continuity /continuity of sample paths of a stochastic/random process) - непрерывность выборочных функций. Из достаточных условий существования стохастически эквивалентного процессу X(t), t e [a, b], процесса с непре-
рывными выборочными функциями самое известное - условие Колмогорова (см. [1]): E\X(s)-X(t)\p^c\s-t\H\ р>0, у>0, s,te[a,b]. Условие Колмогорова обобщается на случайные отображения компактного метрич. пространства в метрич. пространство (см. [3]). Наиболее изучены условия В. н. гауссовских процессов (см. [2]). Для случайных полей на подмножествах II? условия В. н. могут быть получены с помощью теорем вложения (см. [4]). Лит.: [1] Гихман И. И., Скороход А. В., Введение в теорию с.1)чайпых процессов, 2 илд., М., 1977; [2] Беляев Ю. К., в кн.: Математическая энциклопедия, т. 1, М., 1977, с. 775-76; [3] Bouli- caut P., «Ann. Inst. Fourier», 1974, t. 24. J4!> 2, p. 27-48; [4] Ибрагимов И. А., «Теория вероятн. и ее примен.», 1983, т. 28, в. 2, с 229т49. В. В. Юринский. ВЫБОРОЧНАЯ ТОЧКА (sample point) - см. Статистическая модель. ВЫБОРОЧНАЯ ФУНКЦИЯ (sample function), траектория, реализация, случайного процесса X(t) = X(t,w) - отображение Х(-,со) множества Т в М при фиксированном со, где процесс X(t) определен на вероятностном пространстве Ш, ,е/, Р) при teT(T- нек-рое параметрическое множество) и принимает значения в измеримом пространстве (М, Эв). Если почти все (относительно меры Р) В. ф. случайного процесса об падают каким-либо свойством, то говорят, что сам процесс об падает этим свойством. Напр., если Т и М - топологич. пространства и почти все выборочные функции процесса непрерывны, то сам процесс называется непрерывным. Лит.: [1] Гихман И. И., Скороход А. В., Введение в теорию случайных процессов, 2 изд., М., 1977; [2] Справочник по теории вероятностей и математической статистике, 2 изд., М., 1985. //. И. Портенко. ВЫБОРОЧНАЯ ХАРАКТЕРИСТИКА (sample characteristic) - функционал от эмпирического распределения вероятностей. В. х. есть функция от выборки. В. х. представляет собой тот материал, с помощью к-рого на основе идей матема- тич. статистики, используя технику преобразований случайных величин, строят статистич. процедуры для решения задач теории статистич. оценивания, статистич. проверки гипотез и т. д. Простейшие примеры В. х. дают функция эмпирич. распределения, выборочные среднее и дисперсия, выборочные коэффициенты асимметрии и эксцесса, к-рые представляют собой точечные оценки соответствующих характеристик вероятностного распределения элемента выборки. Лит.:[\] Боровков А. А., Математическая статистика, М., 1984. М. С. Никулин. ВЫБОРОЧНАЯ ЧАСТОТА (sample frequency) - отношение числа X наступления события А в независимых испытаниях к числу п этих испытаний. Если вероятность р наступления события А одинакова в каждом испытании, то Х/п~р, согласно теореме Бернулли, при достаточно больших п. Пусть события Ах, ..., AN несовместны и образуют полную группу, Xk - число наступлений события Ak ъ п независимых повторных испытаниях, pk>0- вероятность наступления события Ak в каждом испытании. Тогда распределение вектора (Хх, ..., XN) совпадает с совместным условным распределением вектора (Ур ..., YN) при условии, что сумма его координат равна п; здесь Ур ..., YN - случайные величины, распределенные по закону Пуассона с параметрами npk соответственно. Поэтому величина У = 5^_ f^X^), гДе fk~ произвольные действительные борелевские функции, представляет собой разделимую статистику. Лит.: [1] Гн еден ко Б. В., Курс теории вероятностей, б изд., М., 1988; [2] Прохоров Ю.В., Розанов Ю.А., Теория вероятностей, 3 изд., М., 1987; [31 Ширяев А. Н., Вероятность, М., 1980. 3. М. Кудлаев. ВЫБОРОЧНОЕ ПРОСТРАНСТВО (sample space) - изме римое пространство, описывающее возможные исходы статистического эксперимента и наблюдаемые в нем события. Вместе с заданным на нем семейством распределений В. п. образует статистическую модель, определяющую априорную структуру статистич. задачи. Напр., если статистич. данные представляются набором п чисел, то обычно в качестве выборочного пространства берется IR". При наблюдении траектории случайного процесса за В. п. принимается подходящее функциональное пространство. Д. М. Чибисов. ВЫБОРОЧНОЕ РАСПРЕДЕЛЕНИЕ (sample distribution) - см. Эмпирическое распределение. ВЫБОРОЧНОЕ СРЕДНЕЕ (sample mean) - среднее эмпирического распределения вероятностей. Пусть Хх, ..., Хп - независимые одинаково распределенные случайные величины. Тогда статистика Хп = (Хх + ...+Хп)/п называется выборочным средним, или математическим ожиданием эмпирич. распределения вероятностей, построенного по выборке Хх, ..., Хп. Если существует математич. ожидание а = ЕХх случайной величины Хх, то статистика Хп является несмещенной оценкой для я, то есть ЕХп = а, причем по теореме Хинчина для любого е>0 Р{|Х„-й| ^е}->0, прил->оо. Лит.:[\] Боровков А. А., Математическая статистика, М., 1984. М. С. Никулин. ВЫБОРОЧНОЕ СТАТИСТИЧЕСКОЕ ОБСЛЕДОВАНИЕ (sample survey) - исследование совокупности объектов с целью определения общих количественных характеристик совокупности на основе данных, относящихся лишь к части объектов, составляющих выборку. В качестве исследуемых характеристик рассматриваются доля объектов, обладающих заданными свойствами, среднее значение и показатели рассеяния (напр., дисперсия) основных количественных параметров объектов. Тщательным образом спланированные В. с. о. в нек-рых случаях являются фактически единственным средством получения объективной количественной информации об изучаемых явлениях. Так, изучение продолжительности безотказной работы (см. Надежности математическая теория) связано с испытаниями изделий до наступления отказов. Разрушительный характер таких испытаний исключает проведение сплошных испытаний. Проведение сплошного обследования с целью выявления нарушений в ходе производства (простоев, опозданий и т.д.) может привести к существенным искажениям в оценке фактич. положения дел. В. с. о. широко применяют в промышленности, сельском хозяйстве, медицине, социологии и т. д. В основе построения соответствующих статистич. моделей лежит понятие об обследуемой совокупности объектов ф = {Ох, ..., Одг}. Каждый объект О; характеризуется одним значением нек-рого параметра Хг или набором значений нескольких параметров Xit Yif i= 1, ..., N. В простейшем случае Х{ принимает два значения; тогда говорят об альтернативном признаке. При контроле качества продукции Х^ = 0, если О; является годным изделием, в противном случае полагают Xf-= 1. При планировании В. с. о. множество $) разбивается на подмножества, называемые выборочными единицами. Совокупность выборочных единиц (Мх, ..., Мм), М:Яф, MjV\Mk = 0, J *k, называется основой В. с. о. Если выборочная единица М{ содержит более одного объекта, то она назы- ВЫБОРОЧНОЕ 121
вается гнездовой. Примерами гнездовых выборочных единиц при В. с. о. населения города могут быть дома, квартиры, семьи. В сельском хозяйстве при определении числа насекомых-вредителей выборочная единица может быть представлена квадратной площадкой со стороной 1 м. Получение объективных выводов о характеристиках общей обследуемой совокупности обеспечивается использованием вероятностных методов отбора объектов или выборочных единиц. Пусть в статистич. модели В. с. о. выборочными единицами являются объекты (М1=0{у M = N). В таком случае под выборкой объема п понимают подмножество объектов О; , ..., О; , отобранных для обследования. В результате обследования регистрируются значения параметров всех объектов, составляющих выборку: Xi , Yi для 1-го объекта, включенного в выборку, Х{ , Х{ для 2-го объекта и т. д. Важные характеристики В. с. о.: вероятности щ включения объектов О, в выборку s=(t1, ..., гп)\ вероятности % включения пар объектов Oit Oj в выборку s. Для случайной бесповторной выборки объема п все щ = п/М, все п^ = = п(п- \)/N(N- 1). Для биномиальной выборки с вероятностью отбора р все Щ = р, все п^ = р . Если образование выборки проводится путем систематич. отбора объектов в выборку по списку через равное число h с равновероятностным отбором объекта 0{ среди первых h объектов, то все щ= \/h, Л;; = 0, если \i-j\ *h; к^= \/h, если \i-j\ = h. В качестве статистич. оценки для среднего значения характеристики Xit равного может быть использована оценка: XA = N^y. Х{/щ, (*) где суммирование ведется по номерам объектов, составляющих выборку. Оценка (*) является несмещенной, когда все 7tj>0, t=l, ..., N. Точность оценки (*), когда все п^>0, характеризует несмещенная оценка ее дисперсии Для нек-рых задач использование В. с. о. с неравными вероятностями включения щ может существенно увеличить точность статистич. оценок. На основе данных об исследуемой совокупности $) ее разбивают на слои - подмножества $), обладающие определенными свойствами однородности. Напр., в демографии слои образуют по признаку пола, возрасту и т. п. Объем выборок из каждого слоя может существенно зависеть от числа объектов, составляющих слой. Если признаки объектов Л, В, ..., по к-рым ведется разбиение $) на слои, рассматриваются как факторы воздействия, а их значения Л,, В - как уровни факторов, то выбор из слоев во многом соответствует схемам дисперсионного анализа. При этом изучаемый параметр, напр. Yt для объекта О,-, рассматривается как отклик, соответствующий линейной статистич. модели. При планировании В. с. о. используют латинские прямоугольники (неполные латинские квадраты). Для В. с. о. совокупностей, характеристики к-рых зависят от времени наблюдения, используют специальным образом спланированный летучий контроль. Моменты проведения летучего контроля соответствуют реализации случайного точечного процесса. 122 ВЫБОРОЧНЫЕ В процессе В. с. о. возможны различные нарушения исходного плана обследования, а также потеря части данных. Напр., при выборочном обследовании жильцов дома часть их может отсутствовать, могут быть даны неправильные ответы на заданные вопросы. Нарушения могут существенно исказить статистич. выводы. В тех случаях, когда принимаемые по результатам В. с. о. неправильные решения могут повлечь значительные потери, целесообразно одновременное применение различных планов В. с. о. При этом используют различные выборочные единицы и различные основы для образования выборок. Методы В. с. о. можно использовать для объективной оценки эффективности воздействия. Примером такого применения являются методы рандомизации при планировании экспериментов с воздействием на погоду с целью увеличения количества осадков. Лит.: [ 1 ] Б е л я е в Ю. К., Вероятностные методы выборочного контроля, М., 1975; [2] Джессен Р. Д., Методы статистических обследований, пер. с англ., М., 1985; [3] Йейтс Ф., Выборочный метод в переписях и обследованиях, пер. с англ., М., 1965; [4] Физика облаков и активных воздействий, М., 1981 (Тр. ин-та прикл. геофизики, в. 46). Ю. К. Беляев. ВЫБОРОЧНЫЕ БЛОКИ (sample blocks), выборочные промежутки, - интервалы (-°°, Arv(l)], (ХЛг(1), XN(2)], ..., (XN(N), +<*>), образованные порядковыми статистиками XN(s) повторной выборки X\,...,XN из распределения F. Длины указанных интервалов называются (выборочными) спейсингами (равномерными спейсиигами, если F- функция распределения равномерного на отрезке [0,1] закона). Числа Xj, ..., xN+1 точек (независимой от предыдущей) повторной выборки объема п из распределения G, попавших в соответствующие В. б., называются блоковыми частотами. Если F- непрерывная функция распределения, то величины AN(s) = F(XN(s))-F(XN(s- 1)) образуют равномерные спейсинги; если, кроме того, F=G, то совместное распределение векторов ((<V+ l)AN(s), x,), s=\, ...t N + \, совпадает с совместным условным распределением векторов (т|5, £s), 5= 1, ..., N + 1, при условии Здесь (т|5, £s) - независимые одинаково распределенные случайные векторы, для к-рых маргинальное распределение второй компоненты является геометрическим с параметром n(N + n + 1)"1, а условное (при условии £, = *) распределение t\s - гамма-распределением с параметрами формы г+1 и масштаба (N +■ 1 )(N + п + 1)" . Величины вида $=I,wr,/;((N+1)A"(s)'x«) при F(XN(0)) = 1 -F(XN(N+ D) = 0, где fs - действительные функции по Борелю, дают примеры разделимых статистик. Если при каждом s функции fs не зависят от второго аргумента, то £ являются статистиками критериев согласия, а- если функции fs не зависят от первого аргумента, то ^ - статистики критериев однородности двух выборок. Лит.: [1] У и л кс С, Математическая статистика, пер. с англ., М., 1967; [2] КудлаевЭ. М., «Теория вероятн. и ее примен.», 1985, т. 30, в. 1, с. 170-74; [3] Руке R., «J. Roy. Statist. Soc. B>, 1965, v. 27, № 3, p. 395-436. Э. М. Кудласв. ВЫБОРОЧНЫЕ ГЛАВНЫЕ КОМПОНЕНТЫ (sample principal components) -- аналог обычных главных компонент, только для их нахождения вместо ковариационной матрицы I используется эмпирическая ковариационная матрица I. Таким образом В. г. к. находятся в том случае, когда не известен вектор X, а известны лишь независимые наблюдения x]t ..., хп над ним. См. также Выделение признаков. //. в. Стспахно.
ВЫБОРОЧНЫЕ ПРОМЕЖУТКИ (sample intervals) - см. Выборочные блоки. ВЫБОРОЧНЫЙ КОЭФФИЦИЕНТ АСИММЕТРИИ (sample coefficient of skewness) - см. Асимметрии коэффициент. ВЫБОРОЧНЫЙ КОЭФФИЦИЕНТ КОРРЕЛЯЦИИ (sample correlation coefficient) - см. Корреляция. ВЫБОРОЧНЫЙ КОЭФФИЦИЕНТ РЕГРЕССИИ (sample regression coefficient) - см. Регрессионный анализ. ВЫБОРОЧНЫЙ КОЭФФИЦИЕНТ ЭКСЦЕССА (sample coefficient of excess) - см. Эксцесса коэффициент. ВЫБОРОЧНЫЙ МЕТОД (sampling method) - статистический метол исследования общих свойств совокупности каких-либо объектов на основе изучения свойств лишь части этих объектов, взятых на выборку. Математич. теория В. м. опирается на два важных раздела математич. статистики - теорию выбора из конечной совокупности и теорию выбора из бесконечной совокупности. Основное отличие В. м. для конечной и бесконечной совокупностей заключается в том, что в первом случае В. м. применяется, как правило, к объектам неслучайной, детерминированной природы (напр., число дефектных изделий в данной партии готовой продукции не является случайной величиной: это число - неизвестная постоянная, к-рую и надлежит оценить по выборочным данным). Во втором случае В. м. обычно применяется для изучения свойств случайных объектов (напр., для исследования свойств непрерывно распределенных случайных ошибок измерений, каждое из к-рых теоретически может быть истолковано как реализация одного из бесконечного множества возможных результатов). Выбор из конечной совокупности и его теория являются основой статистич. методов контроля качества и часто прлменяются в социологич. исследованиях. Согласно теории вероятностей, выборка будет правильно отражать свойства всей совокупности, если выбор производится случайно, то есть так, что любая из возможных выборок заданного объема п из совокупности объема N [число таких выборок равно N\nl(N-n)\] имеет одинаковую вероятность быть фактически выбранной. На практике наиболее часто используют выбор без возвращения (6 ее нов торная выборка), когда каждый отобранный объект перед выбором следующих объектов в исследуемую совокупность не возвращается (такой выбор применяется, напр., для определения выигрышных лотерейных билетов, при статистич. контроле качества, а также при демо- фафич. исследованиях). Выбор с возвращением (выборка с повторением) рассматривается обычно лишь в теоретич. исследованиях (примером выбора с возвращением явтяется регистрация числа частиц, коснувшихся в течение данного времени стенок сосуда, внутри к-рого совершается броуновское движение). Если n«N, то повторный и беспов- торный выборы дают практически эквивалентные результаты. Свойства совокупности, исследуемые В. м., могут быть качественными и количественными. В первом случае задача выборочного обследования заключается в определении количества М объектов совокупности, обладающих какими-либо признаками (напр., при статистич. контроле часто интересуются количеством М дефектных изделий в партии объема N). Оценкой для М служит отношение тЫ/л, где т - число объектов с данным признаком в выборке объема п. В случае количественного признака имеют дело с определением среднего значения совокупности х = (х\ + х2 + ... + xN)/N. Оценкой для х является выборочное среднее Х=(Х1+Х2+...+Хя)/я, где Х\, Х2, .., Хп - те значения из исследуемой совокупности Xj, х2, ..., xN, к-рые принадлежат выборке. С математич. точки зрения первый случаи - частная разновидность второго, к-рая имеет место, когда М величин xi равны 1, а остальные (N -М) равны 0; в этой ситуации "x = M/N и X = т/п. В математич. теории В. м. оценка среднего значения занимает центральное место потому, что она служит основой количественного описания изменчивости признака внутри совокупности, так как за характеристику изменчивости обычно принимают дисперсию а2= [(*! -х)2 + ... + (xN-x)2]/N, представляющую собой среднее значение квадратов отклонений xt от их среднего значения х. В случае изучения качественного признака o2 = M(N-M)/N2. О точности оценок т/п и X судят по их дисперсиям oLn = E(m/n-M/N)2HG2x =E(X -х)2, 2 к-рые в терминах дисперсии конечной совокупности а выражаются в виде отношений а /п (в случае выборок с повторением) и c2(N - n)/n(N - 1) (в случае бесповторных выборок). Так как во многих практически интересных задачах случайные величины т/п и X при п ^30 приближенно подчиняются нормальному распределению, то отклонения т/п от M/N и X от х, превышающие по абсолютной величине 2aw/„ и 2о^ соответственно, могут при и ^30 осуществиться в среднем приблизительно в одном случае из двадцати. Более полную информацию о распределении количественного признака в данной совокупности можно получить с помощью эмпирич. распределения этого признака в выборке. Выбор из бесконечной совокупности. В математич. статистике результаты каких-либо однородных наблюдений (чаще всего независимых) принято называть выборкой даже в том случае, когда эти результаты не соответствуют понятию выборки с повторениями или без повторений из конечной совокупности. Напр., результаты измерений углов на местности, подверженные независимым непрерывно распределенным случайным ошибкам, часто называют выборкой из бесконечной совокуп ноет и. Предполагается, что принципиально можно осуществить любое число таких наблюдений. Полученные фактически результаты считают выборкой из бесконечного множества возможных результатов, называемого генеральной совокупностью. Понятие генеральной совокупности не является логически безупречным и необходимым. Для решения практич. задач нужна не сама бесконечная генеральная совокупность, а лишь те или иные характеристики, к-рые ей ставятся в соответствие. Эти характеристики с точки зрения теории вероятностей являются числовыми или функциональными характеристиками нек-рого распределения вероятностей, а элементы выборки - случайными величинами, подчиняющимися этому распределению. Такое истолкование позволяет распространить на выборочные оценки общую теорию статистических оценок. По этой причине, напр., в вероятностной теории обработки наблюдений понятие бесконечной генеральной совокупности заменяется понятием распределения вероятностей, содержащего неизвестные параметры. Результаты наблюдений трактуются как экспериментально наблюдаемые значения случайных величин, подчиняющихся этому распределению. Цель обработки - вычисление по результатам наблюдений в том или ином смысле оптимальных статистич. оценок для неизвестных параметров распределения. Выше речь шла о выборочном обследовании одной совокупности каких-либо объектов. Однако практич. применение В. м. часто осуществляется во многих однородных совокупностях (напр., при оценке доли бракованных изделий в нескольких ВЫБОРОЧНЫЙ 123
партиях готовой продукции). В этой ситуации объектом изучения является не одно число М, а несколько неизвестных чисел Mt, M2,... Пусть, напр., все обследуемые партии готовой продукции содержат N изделий, причем Mt, Л/2,...- количества дефектных изделий в этих партиях, a mv w2,...- соответствующие количества дефектных изделий, обнаруженные в выборках объема п. Согласно условию так наз. бездефектной приемки, партия с номером г передается потребителю, если wt = 0, в противном случае она бракуется. Предположим, что контроль изделий сопряжен с их уничтожением, и поэтому потребитель либо получает партию объема #t = 0 (при mt>0), либо партию объема R{ = N-n с количеством дефектных изделий D,- = М{ (при wf = 0), причем значения /?t, R2>-- (а значит, и их сумма) известны, а значение Dj + D2+ ... неизвестно. Отношение (D1+D2+...)/0?1+tf2+...) называется долей пропущенного брака, а его математич. ожидание qf-средней долей пропущенного брака. Задача математич. статистики заключается в оценке q по значениям Rv R2, ..., зафиксированным в результате применения В. м. Если значения Mt, M2,... можно трактовать как реализации независимых одинаково распределенных случайных величин с известным законом распределения Р{М( = г} = рг, то, согласно формуле Бейеса, статистич. оценка среднего числа пропущенных дефектных изделий в принятых партиях выражается формулой D = Е{М\т = 0} = х: N-r CnN_r Г N Г Vr <P{m = 0}, причем где D ^[(N-n)P{m=\}]/[nP{m = 0}], P{m N_„ crcv_r k=0, 1, ...,H. Поэтому оценка q- D /(N-n) средней доли пропущенного брака в принятых партиях удовлетворяет неравенству q ^ Р{т = \}/пР{т = 0}«s^/tisq, где s0 - число принятых партий, ast - количество тех забракованных партий, в выборках из к-рых обнаружено ровно одно дефектное изделие. Лит.: [1] Дунин-БарковскийИ.В., Смирнов Н. В., Теория вероятностей и математическая статистика в технике. (Общая часть), М., 1955, гл. 5; [2] Беляев Ю. К., Вероятностные методы выборочного контроля, М., 1975; [3] Кендалл М., СтьюартА., Теория распределений, пер. с англ., М., 1966. Л. Н. Большее. ВЫБОРОЧНЫЙ МОМЕНТ (sample moment), момент выборки,- см. Эмпирическое распределение. ВЫБОРОЧНЫХ ДАННЫХ ВЗВЕШИВАНИЕ (sample da ta weighing) - метод учета неравноценности статистической информации. Так, если значение коэффициента (векторного) стоха- стич. модели меняется во времени (процесс нестационарен), новые наблюдения могут быть ценнее старых. Оценивание коэффициента в этом случае при квадратичной функции потерь производят, исходя из требования минимальности функционала где yt,yt- наблюдаемые и модельные значения соответственно, щ - неотрицательные константы, называемые весами, характеризующие ценность информации (чем больше вес, тем больше ценность), содержащейся в наблюдениях. В. д. в. применяют также в регрессионном анализе при неравноточности наблюдений. Так, если наблюдения yt имеют дисперсию ot, то 124 ВЫБОРОЧНЫЙ минимизация функционала Q при со, = ot приводит к наилучшим линейным несмещенным оценкам коэффициента регрессионной модели. Лит.: [1] ВучковИ., Бояджиева Л., Солаков Е., Прикладной линейный регрессионный анализ, пер. с болг., М., 1987. Ю. П. Юрачковский. ВЫБРОС (out\ierT-rcb^'f>e3KO выделяющиеся наблюдения. ВЫБРОС СЛУЧАЙНОГО ПРОЦЕССА И ПОЛЯ (excursion of a random process and field) - участок выборочной функции случайного процесса или случайного поля, расположенный вне нек-рой выделенной области прямого произведения пространства параметров и фазового пространства. Для вещественной случайной функции X(t), t = (t^, ..., tN) ек (случайного процесса при N=\, случайного поля при N^2), выбросы за уровеньм определяются как участки выборочной функции Х(0, соответствующие связным компонентам множества Л*(Х) = {te^-.Xit) ^и). Изучение В. с. п. и п. тесно связано с исследованием случайных точечных процессов выходов, локальных экстремумов, бликов и др. (см. [1]-[3]). Пусть X(t), £еП? ,- вещественное однородное эргодич. га- уссовское случайное поле, ЕХ(О = 0, B(s) = EX(t)X(t + s), s, tGK, имеющее с вероятностью 1 дважды непрерывно дифференцируемые выборочные функции. Для такого поля можно изучить строение типичного выброса за уровень и и найти асимптотич. распределения характеристик выброса при и —>°°. Пусть hu, Vu, Su - соответственно высота (над уровнем и), (N +1 )-мерный объем и N-мерный объем основания (N + 1)-мерного тела, ограниченного типичным выбросом случайного поля X(t) за уровень и и гиперплоскостью g(t)=u. Пусть XiU)=dXU)/dtit г = 1, ..., N, Xij(t)=d2XU)/dt1dtr 1^г, ;^N. И пусть для любых k несовпадающих точек k=\, 2, ..., совместное распределение вероятно- .,W,Xf;-(*(4)), f(D Ak) стей случайных величин Х(*(5>), Xf(rs)), i= 1, ..., N, Xf;-(*(i)) 1 ^г^/^N, не вырождено, а ковариационная функция Bit) удовлетворяет при \t\ <Я0, Я0>0, условию Э4ЖО Э4Ж0) Э^...Э^ <1...Э^" •■ 4, Я; = 0, 1, 1Ч*|| ...,4, , С>0, е>0, 1, ...,N. Тогда (см. [5]) lim Pu{uhu >v}= lim Pu {yu2S2J'w >v\ = U-»oo U-»oo = lim Pu {xK2-2/<"+2Vf "+2) >v} = e-«lm\ v>0. Здесь yN = (2nB(0)rNr2(N/2+\)detAU\ y>0, xN+2 = (2nB(0)rNr2(N/2 + 2)detA^\ x>0, A(1) = (EX^0)Xy(0))1<i;^v, где Г(г) - гамма-функция, Ри- вероятностная мера, соответствующая типичному выбросу случайного поля X(t) за уровень и (мера «горизонтального окна») и являющаяся распределением Пальма относительно точечного случайного процесса локальных максимумов поля X(t), превышающих уровень и. Аналогичные результаты получаются и при использовании в качестве Ри нек-рых других вероятностных мер (см. [6]). В ряде случаев (см. [7]) найдены асимптотич. распределения функционалов, связанных с площадью поверхности указанного (N + 1)-мерного тела и площадью поверхности его основания. При N= 1 приведенные формулы задают асимптотич. распределения высоты hu> длительности Su и площади Vu типичного выброса за уровень и стационарного эргодич. гауссов-
ского случайного процесса X(t), £eIP , EX(t) = 0, причем они справедливы и без требования дважды непрерывной дифференцируемое™ выборочной функции случайного процесса. Достаточно (см. [8]) в качестве меры Ри взять распределение Пальма относительно случайного точечного процесса выходов за уровень и и потребовать, чтобы ковариационная функция BU) случайного процесса удовлетворяла при |^| <#0, Н0>0, условию |Я''(О-В"(0)|<С/|1пИГе, 00, е>0. 2 2 2 Исследование выходов из круга У\+У2<и двумерного векторного случайного процесса Y(t) = (X(t), X (О), где X (t) - преобразование Гильберта случайного процесса X(t), позволяет найти (см. [8]) при тех же условиях на X(t) асим- птотич. распределения высоты, длительности и площади выброса огибающей случайного процесса X(t) (см. Случайный процесс, пересечения). Довольно трудной является задача о числе выбросов случайного поля X(t), te№ , в области D е В? , определяемом как число N*(D) связных компонент множества Л*(Х)ПД где D ~ DUT, T = dD - граница области D. При N = 2 удалось найти оценки сверху и снизу для N*(D) в случае, когда XU) - однородное гауссовское случайное поле, имеющее почти наверное трижды непрерывно дифференцируемые выборочные функции (см. [9]). Для гауссовских и нек-рых связанных с ними случайных полей X(t), £elR , имеющих почти наверное два раза непрерывно дифференцируемые выборочные функции, получены формулы для средних значений нек-рых интегрально-геомет- рич. и дифференциально-тогюлогич. характеристик множества Л*(Х)П/0, где /0 = [0,1] (см. [3]). Для таких полей иссле- дозалась также структура изолиний уровня и при N = 2. В гауссовском случае доказана теорема об асимптотич. нормальности суммарной длины изолиний нулевого уровня в квадрате [0, Т]2 при Т-*°о (см. [10]). Множества Л*(Х) для случайных полей с негладкими реализациями имеют весьма сложную структуру. Для нек-рых классов таких полей исследована размерность Хаусдорфа множества уровня AU(X) = {t:X(t) = и} (см. [3]). Предложена (см. [11]) схема прореживания множеств уровня таких случайных полей, выделяющая так наз. Л-точки выбросов поля за уровень и, разделенные интервалами положительной длины. При достаточно общих условиях (см. [12]) точечный случайный процесс Л-точек выбросов за уровень и однородного гауссовского случайного поля сходится по распределению при и\оо (в согласованном масштабе времени, оставляющем среднее число А-точек в кубе /0 постоянным) к стационарному пуассоновскому точечному процессу. Рассматривался вопрос о существовании неограниченных связных компонент множеств Аи(Х) и A „(X), тесно связанный с важной для филич. приложений задачей о просачивании (см. [13]). Лит.: [1] Крамер Г., ЛидбеттерМ., Стационарные случайные процессы, пер. с англ., М., 1969; [2] Беляев Ю. К., Новые результаты и обобщения задач типа пересечений, в кн. [1], с. 341-78; 13] Ad 1 er R.J., The geometry of random fields, N.Y., 1981; [4] Носко В. П., в сб.: Тезисы докладов IV Международной Вильнюсской конференции но теории вероятностей и математической статистике, т. 2, Вильнюс, 1985, с. 269-71; [5] его же, «Теория вероятн. и ее примен.», 1987, т. 32, в. 4, с. 722-33; [6] Wilson R.J., «Adv. Appl. Piobab.», 1988, v. 20, p. 756-74; [7] Носко В. П., «Теория вероятн. и ее примен.», 1990, т. 35, в. 1, с. 148-53; [8] Беляев Ю. К., Носко В. П., «Теория вероятн. и ее примен.», 1969, т. 14, в. 2, с. 302-14; [91 Носко В. П., там же, 1979, т. 24, в. 3, с. 592-96; [10] Малевич Т. Л., там же, 1974, т. 19, в. 3, с. 501-13; [И] Беляев Ю. К., Питербарг В. И., в кн.: Выбросы случайных полей, М., 1972, с. 62-89; [12] Питербарг В. И., там же, с. 90-118; [13] Молчанов С. А., Степанов А. К., «Докл. АН СССР», 1979, т. 249, № 2, с. 294-97; [14] П итербарг В. И., в кн.: Итоги науки и техники. Теория вероятностей. Математическая статистика. Теоретическая кибернетика, т. 19, М., 1982, с. 155-99. В. П. Носко. ВЫДЕЛЕНИЕ ПРИЗНАКОВ (reduction of data) - приведение совокупности измерений, содержащих относительно большое количество данных при меньшем количестве полезной информации, к совокупности, содержащей относительно небольшое количество данных (признаков). Одной из классич. задач в этом направлении является понижение размерности вектора измерений х = (х^, ..., хр)Т с размерности р до размерности тп, тп<р. Этой цели служит, напр., метод главных компонент, основная идея к-рого и состоит в уменьшении размерности множества данных, к-рые содержат большое число взаимозависимых величин, оставляя все же, по возможности, имеющуюся дисперсию исходных данных. Это достигается путем преобразования к новому множеству переменных (главным компонентам), к-рые являются некоррелированными и упорядочены так, что несколько первых оставляют наибольшую дисперсию всех исходных переменных. Известное классич. определение и нахождение главных компонент, введенное еще К. Пирсоном (К. Pearson), предполагают существование у многомерного вектора х математич. ожидания Ел* = а и ковариационной матрицы I = Е(дг - а)(х - а)т. Главные компоненты определяются как линейные комбинации исходных величин, характеризующихся так, что их дисперсии обладают особыми свойствами (см. Главных компонент анализ). Напр., первой главной компонентой называется линейная комбинация с наибольшей дисперсией. Дисперсии остальных компонент располагаются в порядке убывания D(zx) ^ D(22) ^ ... ^ D(zp), где z{ - главные компоненты г = 1, ...,р,р - размерность вектора. На практике линейные комбинации (компоненты), имеющие малые дисперсии, отбрасываются, а рассматриваются лишь линейные комбинации с большими дисперсиями. Метод главных компонент состоит в нахождении собственных векторов h k, соответствующих собственным числам Хх ^ ... > Хт матрицы I. При этом ^ и есть дисперсии главных компонент. Линейные комбинации (/*;, X) называются главными компонентами. Если z = (zv ..., гр) , то можно записать, что z = НТХ, где Н - ортогональная матрица, k-u столбец к-рой hk есть k-й собственный вектор матрицы I. Если переменные xv ..., хр имеют совместное нормальное распределение, то главные компоненты взаимно независимы. Для любых двух неравных собственных значений D(z;) и D(2y) соответствующие собственные векторы образуют прямой угол. Это свойство называется ортогональностью и выражается X*-i ^ik^jk = ^' **./• Если же два собственных значения равны, то соответствующие собственные векторы можно выбрать так, что они будут ортогональны. Следовательно, можно считать, что р главных компонент взаимно ортогональны. Для получения главных компонент можно использовать вместо ковариационной матрицы корреляционную. В общем случае главные компоненты, полученные по корреляционной матрице, отличны от главных компонент, полученных по ковариационной матрице. Лит.: [1] Патрик Э., Основы теории распознавания образов, пер. с англ., М., 1980; [2] Андерсон Т., Введение в многомерный статистический анализ, пер. с англ., М., 1963; [3] Jolliffe I., Principal Component Analysis, N. Y., 1986; [4] Гирко В. Л., Многомерный статистический анализ, К., 1988; [5] Айвазян С. А. [и др.], Прикладная статистика. Классификация и снижение размерности, М., 1989. И. В. Степахно. ВЫДЕЛЕНИЕ 125
ВЫДЕЛЕНИЕ СИГНАЛА на фоне помех (signal detection in noise) - оценивание параметров сигнала по наблюдениям связанного с ним случайного процесса. Наиболее полно изучена часто встречающаяся на практике задача В. с. на фоне гауссовского белого шума n(t). В этом случае наблюдаемый процесс r(t) имеет вид r(t)=S(t, a, Q) + n(t), te[t0, *,], где ве0с1Рт- вектор мешающих параметров, деЛсИ? - вектор параметров, к-рые нужно оценить по наблюдениям r(t), te[tQ, ^]. Для сигнала S(t, а, 6) используется, как правило, одна из моделей: 1) S(t, а, 6) - известная функция аргументов t, а и в; 2) S(t, а, в) - реализация условно гауссовского процесса, корреляционная функция к-рого зависит от векторных параметров айв. Обширный класс задач, относящихся к В. с, образуют задачи фильтрации и демодуляции сигналов на фоне шума (см. Фильтрация сигнала, Модуляция и демодуляция). Лит.: [ 1 ] В а н Т р и с Г. Л., Теория обнаружения, оценок и модуляции, пер. с англ., т. 1-3, М., 1972-77; [21 Левин Б. Р., Теоретические основы статистической радиотехники, 2 изд., кн. 2, М., 1975. jr. /£, Голубев. ВЫДЕЛЯЮЩИХСЯ ИЗМЕРЕНИЙ ИСКЛЮЧЕНИЕ в регрессионном анализе (outliers detection) - критерии отбраковки измерений, не адекватных модели линейного регрессионного эксперимента yi = eTftei) + zi, t = i,.... n, с независимыми ошибками е^~М0, а ). Критерий Шовене отбраковывает измерение yit если соответствующий стьюдентизированный остаток аппроксимации 6Т/Ч) метода наименьших квадратов e*i^\yl-h1f{xi)\6-l\\-f{xi)M-'f{xi)yx/2 [где а, - несмещенная оценка г/г- без учета измерения yit a М = £ fixjfixi)] превосходит критич. границу. Границы для уровня этого критерия исследованы Л. Н. Большевым и его учениками. Имеется много эвристич. критериев В. и. и., основанных на величине плеча h{ измерения у;. л-/-т(^)м-у(^), на статистике Кука, графике остатков и др. Лит.: [11 Большее Л. Н., Избранные труды, М., 1987, с. 224-42; [21 Дрейпер Н., Смит Г., Прикладной регрессионный анализ, пер. с англ., 2 изд., кн. 1-2, М., 1986; [31 Atkinson А. С, Plots, transformations and regression, Oxf., 1985. м. Б. Малютов. ВЫИГРЫША ФУНКЦИЯ (gain function) - см. Управляемый диффузионный процесс. ВЫПУКЛОЕ СЛУЧАЙНОЕ МНОЖЕСТВО (random con vex set) - см. Случайное множество. ВЫРОЖДЕНИЯ ВЕРОЯТНОСТЬ ветвящегося про ц е с с a (extinction probability for a branching process) - вероятность того, что число частиц в ветвящемся процессе рано или поздно станет равным нулю. Пусть f(s)&s - производящая функция случайного числа N непосредственных потомков одной частицы, a Z(t) - число частиц в процессе в момент L Вероятность вырождения q = \\m P{Z(0 = 0|Z(0) = 1} t-*oo ветвящегося процесса Z(t) является наименьшим неотрицательным корнем уравнения f(s) = s. Если т = EN ^ 1, то q = 1, если же т > 1, то q < 1. 126 ВЫДЕЛЕНИЕ В случае процессов сп>1 типами частиц вероятностями вырождения называются величины ^ = lim P{Z1(O + Z2(O+...+Z„(t) = 0|ZI(0)=l, Z;(0) = 0, ;*i}, i=l. 2, .... n, где Z,(0 - число частиц типа i в процессе в момент t. Набор (q\, q2> •••» Яг) вероятностей В. в. является наименьшим неотрицательным решением системы ES '1 S '2 ... S %п =S:, I- 1, 2, ..., П, где Ny- - случайное число непосредственных потомков частицы типа I, имеющих тип /. Для неразложимых надкритич. ветвящихся процессов qt < 1 при всех I, для докритич. ветвящихся процессов и критич. ветвящихся процессов без финальных классов qt- 1 при всех \. Лит.: [1] Севастьянов Б. А., Ветвящиеся процессы, М., 1971; [21 J age r s P., Branching processes with biological applications, L..- [a. o.l, 1975. В.А.Ватутин. ВЫРОЖДЕННАЯ МЕРА (degenerate/singular measure) - см. Атомическая мера. ВЫРОЖДЕННОЕ ДВУМЕРНОЕ НОРМАЛЬНОЕ РАСПРЕДЕЛЕНИЕ (degenerate/singular bivariate normal distribution) - см. Двумерное нормальное распределение. ВЫРОЖДЕННОЕ РАСПРЕДЕЛЕНИЕ (degenerate distribution) в n-м е р н о м евклидовом пространстве - распределение вероятностей, сосредоточенное на нек-ром линейном многообразии размерности, меньшей п, рассматриваемого пространства. В противном случае распределение называется невырожденным. В. р. в случае конечных вторых моментов характеризуется тем, что ранг соответствующей матрицы ковариаций (или корреляционной матрицы) г меньше п. При этом г совпадает с наименьшей размерностью линейных многообразий, на к-рых сосредоточено данное В. р. Понятие В. р. очевидным образом распространяется на распределения в векторных пространствах. Иногда В. р. называются несобственными распределениями, а невырожденные - собственными распределениями. А.В.Прохоров. ВЫСОКОТЕМПЕРАТУРНОЕ РАЗЛОЖЕНИЕ (high tern perature expansion) в статистической физике- разложение числовой характеристики гиббсовского статистического ансамбля (среднего значения, корреляционных функций, термодинамических потенциалов и т.д.), рассматриваемого при достаточно больших значениях температуры Т » 1, в ряды по степеням параметра р = Т~ [или какого-либо другого параметра р* = Р*(Г) - Г"1 при больших Т]. Получение В. р. связано с более общей задачей построения так наз. кластерных разложений (см. [2]) для гиббсовского ансамбля, являющегося возмущением более простого ансамбля (чаще всего, независимого ансамбля, в к-ром нет взаимодействия между частицами, или же гауссова ансамбля, в к-ром взаимодействие квадратично). Иногда в литературе такие разложения также называются высокотемпературными. Лит.: [11 Балеску Р , Равновесная и неравновесная статистическая механика, пер. с англ., т. 1, М., 1978; 12] Малышев В. Д., М инлос Р. А., Гиббсовские случайные поля, М., 1985. Р. А. Минлос. ВЫХОДА ИНТЕНСИВНОСТЬ (exit rate) - см. Плотность вероятности выхода. ВЫХОДА ПЛОТНОСТЬ ВЕРОЯТНОСТИ (exit rate/pro bability density) - см. Плотность вероятности выхода. ВЫХОДНОЙ СИГНАЛ (output signal) - см. Вероятностный автомат. ВЫЧЕТОВ МЕТОД (method of residues) - см. Моделирование случайных величин и функций.
ГАЛЕРКИНА ПРИБЛИЖЕНИЕ (Galerkin's approximation) - см. Статистическая гидромеханика. ГАЛЛАХЕРА ФУНКЦИЯ (Gallager function) - см. Случайное кодирование', граница. ГАЛЬТОНА-ВАТСОНА ПРОЦЕСС (Galton - Watson process), (£, /О-процесс, - ветвящийся процесс с одним типом частиц и с дискретным временем; назван по имени Ф. Гальтона (F. Gallon) и Дж. Ватсона (G. Watson), впервые занимавшихся в 1873 задачей о вырождении фамилий. Г.- В. п. называют также ветвящийся процесс с дискретным временем и с конечным числом типов частиц (см. Ветвящийся процесс). ГАМБУРГЕРА ТЕОРЕМА (Hamburger theorem) - см. Степенная проблема моментов. ГАМИЛЬТОНОВА СТРАТЕГИЯ (Hamiltonian strategy) - см. Конструктивная квантовая теория поля. ГАММА-АППРОКСИМАЦИЯ (gamma approximation) для бета-распределения- аппроксимация, предназначенная для вычисления функции бета-распределения Bah(x) в случае, когда параметры a- const и b-><*>. Пусть X - случайная величина, подчиняющаяся бета-распределению с параметрами а и Ъ (а>0, Ь>0), функция распределения к-рой ВаЬ(х) выражается формулой р{х<.г}=/,(й, WaBe.(1w=i^ Ц rw-t^dt, где 0 ^ х ^ 1, а В(а, Ь)=\1 r\\-t)b-xdt - бета-функция Эйлера. В силу тождества Bab(x) = \-Babi\-x),xe[0,\], при составлении таблиц бета-распределения ограничиваются случаем 0 < а ^ Ъ. Известные семизначные таблицы К. Пирсона [1] позволяют вычислять Bah(x) лишь для Ь^50. При Ь>50 для вычисления ВаЬ(х) пользуются Г.-а. (см. [1]-[3]), согласно к-рой, если а = const и b-><*>, то B«*(*)e rfe Jr",W°"> *^«" + <М*) <*> равномерно относительно 0<.г<1. Иными словами, если X подчиняется бета-распределению с параметрами а и Ь, то случайная величина У = (2Ь + а - 1 )Х/(2 - X) подчиняется приближенно гамма-распределению с параметром а. Г.-а. позволяет построить очень точную пуассоновскую аппроксимацию для биномиального распределения. Пусть Z - случайная величина, подчиняющаяся биномиальному закону с параметрами пир,0<р<\. Функция биномиального распределения выражается в терминах ВаЬ(х) формулой P{z<w} = X"=0c*p*(i-p)""*=B„-,„,m+,(i-p), откуда с помощью Г.-а. (*) следует, что при т = const ия->~ P{Z^m} = -J Г tme-ldt + R= Vй А Щ- е-У + R х ' Г(ет+1) iy **k=0 k\ равномерно относительно всех р из промежутка 0 < р < 1, где R = 0(\/п) при у = у0 =(п-т)р, 0(\/п2) при у = t/, =р(2п-т)/(2-р), гма\ 4\ 6у^(2п-т)2 Окугг) при у = у2 = 6(2п-т)2+[т(т+2)+ту]-2у2] ' Лит.: [\] Пирсон К., Таблицы неполной бета-функции, пер. с англ., М., 1974; [2] Мардиа К., Земроч П., Таблицы F-pacnpe- делений и распределений, связанных с ними, пер. с англ., М., 1984; [31 Большее Л. Н., Смирнов Н.В., Таблицы математической статистики, 3 изд., М., 1983; [41 Большее Л.Н., Теория вероятностей и математическая статистика. Избранные труды, М., 1987. М. С. Никулин. ГАММА-ПРОЦЕНТНАЯ НАРАБОТКА (gamma percentile operating time to failure) - см. Надежности системы показатели. ГАММА-РАСПРЕДЕЛЕНИЕ (gamma distribution) - непрерывное, сосредоточенное на (0, °°) распределение вероятностей с плотностью (см. рис.) где Х>0 - параметр и Г(Х) - гамма-функция Эйлера. Функция J_ 2^ W I ^3 Плотности гамма-распределения при А.> 1 :(1) А. = 2; (2) А, = 4; (ЗП = 6; (4) А. = 8. распределения выражается через неполную гамма-функцию: ^<*>-ш£ *"•-*'* х га) Плотность д\(х) унимодальна и при X > 1 достигает максимума (А,-1)х~1е~а~1)/Г(А.) в точке х = Х-\, то есть мода Г) = Х-\. При 0 < X < 1 плотность д\(х) с ростом х монотонно убывает, причем если *-> +0, то д\(х) неограниченно возрастает. Характеристич. функция ГАММА 127
Моменты Г.-р. выражаются формулой mk = r(k+k)/r(k), k> -X; в частности, математич. ожидание и дисперсия равны X; асимметрия yt = эксцесс у2 = 6Д. Семейство Г.-р. замкнуто относительно операции свертки 9х*9х = 9х +х • Г.-р. играют не всегда явную, но значительную роль в приложениях. В частном случае Х=\ получается показательная плотность. В теории массового обслуживания Г.-р. при X, принимающем целочисленные значения, называется Эрланга распределением. В математич. статистике Г.-р. часто встречается благодаря тесной связи с нормальным распределением, так как сумма квадратов %2 = X2 + ... + Хп взаимно независимых (0,1) нормально распределенных случайных величин имеет плотность 0,5 дп/2(х/2) и является плотностью хи-квадрат распределе ния с я степенями свободы. Ввиду этого с Г.-р. связаны многие важные распределения в задачах математич. статистики, где рассматриваются квадратичные формы от нормально распределенных случайных величин (напр., Стьюдента распределение, Фишера F-распределение и Фишера z-pacnpede- ление). Если Xt и Х2 независимы и распределены с плотностями д^ и д^ , то случайная величина Х1/(Х1 + Х2) имеет плотность к-рая является плотностью бета-распределения. Плотности линейных функций аХ + b от случайных величин X, подчиняющихся Г.-р., составляют специальный класс распределений - так наз. тип III системы Пирсона распределений. Плотность Г.-р. является весовой функцией системы ортогональных многочленов Лагерра. Значения функции Г.-р. можно вычислять по таблицам неполной гамма-функции (см. [1]). Лит.: [1] Пагурова В. И., Таблицы неполной гамма-функции, М., 1963. а. В. Прохоров. ГАРМОНИЗУЕМАЯ КОРРЕЛЯЦИОННАЯ ФУНКЦИЯ (harmonizable correlation function) - см. Гармонизуемости условия. ГАРМОНИЗУЕМОЕ СЛУЧАЙНОЕ ПОЛЕ (harmonizable random field) - комплекснозначное случайное поле X(t), заданное на «-мерном пространстве II?" точек t = (t^, ..., tn) (или на «-мерной решетке Жп точек t с целочисленными координатами) и допускающее представление в виде я-мерного интеграла Фурье - Стилтьеса Х(0=Г eitkZ(dk), (1) где Л„ - это или я-мерное пространство точек k = (kv ..., kn) (при £elR") или же куб {k: -n^k^n, i=\, ..., я} (при tel"), a Z(dk) - комплекснозначная случайная мера на Л„, определенная для всех я-мерных интервалов А. Различным определениям стохастич. интеграла в правой части (1) отвечают различные классы Г. с. п., но при всех разумных определениях корреляционная функция случайного поля (1) задается формулой EX(t)X(s) = B(t,s) f f em-sk,)F(dk,dk'), (2) где для любых подмножеств Ас Л„, Д'с Л„, принадлежащих области определения меры Z, F(A, A') = EZ(A)Z(A'), Z(A) = f dZ(k). 128 ГАРМОНИЗУЕМАЯ При этом представимость корреляционной функции B(t,s) в виде (2) уже влечет гармонизуемость поля X(t). Лит. см. при ст. Гармонизуемый случайный процесс. Л. М. Яглом. ГАРМОНИЗУЕМОСТИ УСЛОВИЯ (harmonization conditions) - условия, накладываемые обычно на корреляционную функцию B(t,s) = EX(t)X(s), при к-рых случайный процесс X(t), где t е^ = ( - оо,оо) или t el] = {0, ±1, ±2, ...}, является гармонизуемым. Пусть для определенности te№ , а гармонизуемость понимается в смысле Лоэва [1] (см. Гармонизуемый случайный процесс). (О Г. у., при выполнении к-рых X(t) принадлежит более широкому классу слабо гармонизуемых, то есть гармонизуемых в смысле Розанова, процессов, см., напр., в [21.) Процесс X(t) гармонизуем тогда и только тогда, когда B(t> s) = £L Jl elUX'sk,) d2F(X, X'), (1) где F(X, X') - функция ограниченной вариации на плоскости II? (см. [1], [3]). Корреляционная функция вида (1) (называемая гармонизуемой корреляционной функцией) всегда ограничена и равномерно непрерывна по обеим переменным. Однако корреляционная функция, удовлетворяющая последним условиям, может и не быть гармонизуемой (или быть гармонизуемой лишь в смысле Розанова) (см. [31, [4]). Ряд Г. у. можно вывести из известных условий представимости функций в виде интегралов Фурье-Стилтьеса (см., напр., [5] - [7]). Однако все эти Г. у. (так же как и необходимое и достаточное Г. у., найденное в работе [8]) неэффективны, так как, вообще говоря, они трудно проверяемы. Тем не менее примыкающие друг к другу результаты работ [5] и [8] (изложенные также в [9], гл. 6) позволяют получить много частных примеров гармонизуемых процессов (см., напр., [3]). Согласно этим результатам, функция B(t,s) допускает представление вида (1), где полная вариация F(X,X') на IR не превышает М<<*>, тогда и только тогда, когда для любого целого я и любых последовательностей пар вещественных чисел (tvS)), ..., (tn,sn) и комплексных чисел cv ..., сп выполняется неравенство Х/-1 с№*,-> SM^M SUP JX" , с expdt x-iSjyK (2) Условия (1) и (2) позволяют указать ряд классов гармонизуемых случайных процессов (см., напр., [3], [101 и [11]). Описание каждого такого класса фактически представляет собой нек-рое достаточное Г. у. Примеры. 1) Если функция |#(*,s)| или \B(t,s)\2 интегрируема на II? , то B(t,s) можно представить в виде двумерного преобразования Фурье нек-рой функции f(X, X'). В этом случае процесс X(t) гармонизуем, причем d F(X, X') = = f(X,X')dXdX'. 2) Процесс вида X(t) = h(t)XQ(t), где Л'0(О - стационарный случайный процесс со спектральной функцией F0(X), a hit) - комплексная функция, гармонизуем, если Ш) = £ЛШсо), где /С(со) - комплексная функция ограниченной вариации. В этом случае F(^,V) = J^ j°^K(X-G>)K(X'-(u)dFQW. 3) Процесс вида X(t)=J2>oh(t,u)dZ(u), где Z(u) - комплексная случайная функция с некоррелированными приращениями такая, что EdZ(u)dZ(vj = Ъ(и - v)dF0(u)dv,
где F0(u) - ограниченная неубывающая функция, а h(t, и)=\~оое{ш<1КиЫ), причем /См(со) как функция со при всех и имеет вариацию, ограниченную одной и той же постоянной, является гармонизуемым. Осциллирующие процессы, имеющие эволюционирующее спектральное представление, также являются гармонизуемыми процессами. 4) Процессы вида X(t)=j™ooh(t-u)dZ(u), где Z(u) - комплексная случайная функция и EZ(u)Z(b) = BZ(utv) имеет конечную вариацию на И? , а МО - такая же комплексная функция, как и в примере (2), являются гармонизуемыми, причем здесь d'F(Xt X') = dK(X)dK(X') £ £. exp [i(uX-vX')]d2Bz(u, v). Лит.: [1] Лоэв М., Теория вероятностей, пер. с англ., М., 1962, с. 496-99; [2] Rao M., «L'enseignement math.», 1982, t. 28, p. 295-351; [3] Hurd H.L., «IEEE Trans, on Inform. Theory», 1973, v. IT 19, p. 316-20; [4] Гладышев Е. Г., «Теория вероятн. и ее примен.», 1963, т. 8, в. 2, с. 184-89; [5] Воеhner S., «Bull. Amer. Math. Soc», 1934, v. 40, p. 271-76; [6] Cramer H., «Trans. Amer. Mach. Soc», 1939, v. 46, p. 191-201; [7] Domingues A. G., «Duke Maih. J.», 1940, v. 6, p. 246-55, [8) Eberlein W. F., там же, 1955, v. 22, p. 465-68; [9] Rudin W., Fourier analysis on groups, N. Y.-L., 1962; [101 Розанов Ю. А., «Теория вероятн. и ее примен.», 1959, т. 4, в. 3, с. 291-310; [И) Cambanis S., Liu В., «Inform, and Control», 1970, v. 17, p. 183-202. Л. M. Яглом. ГАРМОНИЗУЕМЫЙ СЛУЧАЙНЫЙ ПРОЦЕСС (har monizable random process) - комплекснозначный случайный процесс X(t), зависящий от действительного аргумента te№ или от целочисленного аргумента t e TL и допускающий представление вида Х(0=/д eltXdZ(X), (О где Л = (-о°, оо) при £elR\ A = [-k,k] при tel\ a Z(X) - комилекснозначная случайная функция. Класс Г. с. п. был впервые рассмотрен в сер. 1940-х гг. М. Лоэвом (М. Loeve); эти результаты собраны в [1], с. 496-99. М. Лоэв предположил, что спектральная мера Г. с. п. X(t), определяемая равенством F(A,A') = EZ(A)Z(A'),1 Z(A) = |д dZ(X\ | представляет собой комплексную меру на Л х Л ограниченной вариации, так что у(я=5иР(х;=11;=1|Ид;.А;.)|)<~, о) где супремум берется но всевозможным конечным наборам непересекающихся борелевских множеств Aj, ..., А„ и А(. ..., А'п , принадлежащих Л. В таком случае интеграл в правой части (1) можно определить как предел в среднем квадратичном последовательности соответствующих интегральных сумм Стилтьеса [то есть так же, как определяется этот интеграл в частном случае стационарного случайного процесса X(t), для к-рого мера F(dX,dX') целиком сосредоточена на диагонали Х = Х']. Из (1), (2) и (3) следует ЕХ(ОЛ7)=Ш,0 = f f em-sr)F(dKdri (4) где интеграл в правой части - обычный двумерный интеграл Стилтьеса. Справедливо и обратное - из представимости корреляционной функции B(t,s) процесса Х(0 в виде (3), где F(dX,dX') - мера ограниченной вариации на ЛхЛ, следует, что Х(0 - это Г. с. п. (Требование положительной определенности ядра F(A,A'), дополнительно накладываемое в [1], на самом деле является излишним; см. [2].) Пусть, для определенности, tе№ и Л=(-°о,оо). Более общее определение Г. с. п. было предложено Ю. А. Розановым в [3] (см. также [4] - [8]). Вместо условия (3) Ю. А. Розанов ввел более слабое предположение о конечности вариации в смысле Фреше спектральной меры F(A,A'), сводящееся к условию W(F) =sup[\^lXM «ЛЯД,,Д;)|)<~, (5) где супремум берется по всевозможным конечным наборам непересекающихся борелевских множеств действительной оси At, ..., А„ и А(, ..., А^, а также наборов комплексных чисел ах, ..., ап и Ьх, ..., Ьп, по модулю не превосходящих единицы. Иначе условие (5) можно охарактеризовать как условие конечности полувариации комплекснозначной случайной меры Z(A) из формулы (2) (см., напр., [9], с. 347-48, и [5]). При условии (5) интеграл (4) также будет существовать, но уже не как обычный интеграл Стилтьеса, а в нек-ром более широком смысле; при этом опять представимость корреляционной функции B(t,s) процесса Х(0 в виде (4) оказывается необходимым и достаточным условием возможности представления процесса Х(0 в виде (1) (где теперь и интеграл Стилтьеса в правой части следует определить нек-рым специальным образом). Процесс Х(0, представимый в виде (1), где функция (2) удовлетворяет условию (5), также называется Г. с. п.; чтобы отличить это (более широкое) понятие гармонизуемости от более простой гармонизуемости в смысле Лоэва, Е. Г. Гладышев [10] предложил называть гармонизуемость в смысле Лоэва абсолютной гармонизуемостью, а М. Рао [6]-[8] назвал ее просто гармонизуемостью (или же сильной гармонизуемостью), но использовал для обозначения гармонизуемости в смысле Розанова термин слабая гармонизуемость [то есть называл в этом случае Х(О слабо гармонизуемым случайным процессом; последний термин будет употребляться ниже]. Ю. А. Розанов [3] показал, что процесс Х(0, получаемый с помощью проектирования произвольного стационарного процесса 7(0 (рассматриваемого как кривая в нек-ром гильбертовом пространстве Н случайных величин с конечной дисперсией; см. Корреляционная теория случайных функций) на какое-то линейное подпространство пространства Н, всегда является слабо Г. с. п. А. Майами и X. Салехи [5] доказали, что верна и обратная теорема, так что класс слабо Г. с. п. совпадает с классом кривых гильбертова пространства Н случайных величин, являющихся проекциями на Н стационарных кривых в нек-ром содержащем Н более широком гильбертовом пространстве. Для слабо Г. с. п. (а тем более для Г. с. п. в смысле Лоэва) выполняются соотношения lim - Г e^xiOdt = Z(XQ +0)-Z(XQ- 0) И \im-\TBit+ x,t)dt= Г eiXxF(dX,dX) Г-Юо T JO J-oo (см. [3], [6], [8]). Г. с. п. удовлетворяет закону больших чисел для нестационарных случайных процессов тогда и только тогда, когда вклад точки Х = 0, Х' = 0 в значение спектральной меры FQ(dX, dX'), отвечающей центрированному процессу Х0(О = Х(О~ EX(t), равен нулю. Для такого Г. с. п. всегда существует осредненная корреляционная функция В(х) и ГАРМОНИЗУЕМЫЙ 129
осредненная спектральная функция F(X), определяемая равенством F(A) = j^dFa) = j^F(dX,dX). Примеры Г. с. п. см. в ст. Гармонизуемости условия. Простым обобщением понятия Г. с. п. является понятие многомерного Г. с. п.; другим обобщением этого же понятия (и одновременно также и обобщением понятия однородного случайного поля) является понятие гармонизуемого случайного поля (в пространстве IP", n>2, или, более общо, на произвольной локально компактной абелевой группе). Об указанных обобщениях см., в частности, в [6]-[8]. Лит.: [1] Лоэв М., Теория вероятностей, пер. с англ., М., 1962; [2] Hurd H. L., «IEEE Trans, on Inform. Theory», 1973, v. 19, № 3, p. 316-20; [3] Розанов Ю. А., «Теория вероятн. и ее примен.», 1959, т. 4, в. 3, с. 291-310; [4] Воеhner S., в кн.: Proc. Third Berk. Symp. Math. Statist, and Probab., v. 2, Berk.- Los Ang., 1956, p. 7-27; [5] Miamee A. G., Salehi H., «Indiana Univ. Math. J>, 1978, v. 27, № 1, p. 37-50; [6] Rao M. M., «L'enseignement math.», 1982, t. 28, № 3-4, p. 295-351; [7] его же, «Proc. Nat. Acad. Sci. USA», 1984, v. 81, p. 4611-12; [8] его же, в кн.: Handbook of Statistics, v. 5, Amst., 1985, p. 279-310; [9] Данфорд Н., Шварц Дж. Т., Линейные операторы. Общая теория, пер. с англ., ч. 1, М., 1962; [10] Гла- дышев Е. Г., «Теория вероятн. и ее примен.», 1963, т. 8, в. 2, с 184-89. А. М. Яглом. ГАРМОНИЧЕСКАЯ ИНТЕРПОЛЯЦИЯ (harmonic inter polation) - подгонка параметров функции регрессии вида 60 + £" (в2/г cos kx + Q2k-\ sin k*) методом наименьших квадратов (см. Регрессионный эксперимент). М.Б. Малютов. ГАРМОНИЧЕСКАЯ ФУНКЦИЯ для марковского процесса (harmonic function for a Markov process) - см. Потенциала теория для марковского процесса. ГАРМОНИЧЕСКАЯ ФУНКЦИЯ для цепи Маркова (harmonic function for a Markov chain) - аналог неотрицательной гармонической в классическом смысле функции; частный случай эксцессивной функции. Пусть в измеримом пространстве (Е, 33) задана однородная цепь Маркова Х=(Хп, Рх) с вероятностями перехода р(х, Г), хеЕ, ГеЗВ. Заданная в Е функция/*, 0 ^f^оо, называется гармонической функцией для этой цепи, если она ^измерима и всюду в Е, где Ех обозначает математич. ожидание, отвечающее мере Рх [в случае, напр., цепи Маркова с состояниями 1, 2, ... функцию f удобно отождествить с последовательностью {/"j, f2, ...}, положив fi = f(i)', тогда определяющее Г. ф. равенство сведется к системе равенств где р{: - вероятность перехода из х в / за один шаг, а «^ 1]. Важным примером Г. ф. служит функция кг(х), хеЕ, равная Рх-вероятности того, что траектория цепи побывает в множестве Г е 33 бесконечное число раз. Если Г. ф. /"ограничена, то для любого марковского момента х<оо выполняется тождество Exf(Xx)=f(x), и нек-рая модификация этого свойства обычно берется в качестве отправной точки при определении Г. ф. для стандартного марковского процесса X=(Xt, £, dt> Px), t^Q, заданного в сепарабельном локально компактном хаусдорфовом пространстве Е. Именно, в указанном случае эксцессивная функция f называется Г. ф. для X, если в Е, где x = inf {t^0:X(t) g U] - момент первого выхода процесса X из множества U после начального момента времени, а 130 ГАРМОНИЧЕСКАЯ U пробегает семейство всех открытых множеств в Е с компактными замыканиями (возможны и нек-рые модификации этого определения; см. Потенциала теория для марковского процесса). Пример: функция f^0, гармоническая в классич. смысле в нек-рой области я-мерного евклидова пространства, является Г. ф. для винеровского процесса, оборванного в момент первого выхода из этой области. М. Г. Шур. ГАРМОНИЧЕСКОГО РАЗЛОЖЕНИЯ МЕТОД (method of harmonic decomposition) - см. Писаренко спектральная оценка. ГАРМОНИЧЕСКОЕ УСРЕДНЕНИЕ (harmonic averaging) - см. Потенциала теория для марковского процесса. ГАУССА ЗАКОН (Gaussian law) - употребительное название нормального распределения. Название связано с той ролью, к-рую это распределение играет в ошибок теории К. Гаусса. Плотности -^e-h4\ h>0 С) vtc (именно они первоначально назывались законом Г а > с - с а), появились у К. Гаусса в соч. «Теория движения небесных тел» (1809, см. [1]). В [2, раздел 3, § 177] был сформулирован принцип: «Если какая-нибудь величина будет определена из многих непосредственных наблюдений, произведенных при одинаковых обстоятельствах и с одинаковой тщательностью, то среднее арифметическое из всех наблюдавшихся значений окажется наиболее вероятным значением...». Это положение интерпретируется следующим образом: пусть истинное значение наблюдаемой величины будет z и пусть плотность вероятности получить результат х равна y(x-z). Тогда при любом п и любых хх, ..., хп совместная плотность <p(xt - z)... <р(л:„ - z) достигает максимума (как функция z) при z- (х^ + ... +хп)/п. Отсюда легко получить сначала, что отношение (р'(х)/ху(х) не зависит от х, а затем, что <р(лг) имеет вид (*). Следует отметить, что указанный выше принцип неоднократно подвергался критике. Лит.: [1] Гаусс К. Ф., Избр. геодезические соч., пер. с лат. и нем., т. 1, М., 1957, с. 89-109; [2] Poincare H., Calcul des pro- babilites, 2 ed., P., 1912. Ю. В. Прохоров. ГАУССА КОВАРИАЦИЯ (Gaussian covariation) - билинейная форма на В*: Ф(/*, д) = \в f(x)g(x)vidx)-\B f(x)\i(dx) jB g(x)\i(dx), f,geB\ определенная гауссовской мерой \л в банаховом пространстве В. Соответствующий оператор R: В* -+B(f(Rg) =Ф(Д д)) называется ковариационным оператором Гаусса. Задача описания класса таких операторов эквивалентна задаче описания гауссовских мер. Класс ковариационных операторов Гаусса в сепарабельном гильбертовом пространстве совпадает с классом симметричных положительных ядерных операторов. В случае пространства С(Г), Г=[0, 1], [0, °°), ..., Г. к. принято называть функцию R(s, t) = EX(t)X(s)-EX(t)EX(s), определенную гауссовским процессом X=(X(t), teT). Лит.: [1] Вахания Н.Н., Тариеладзе В. И., Чоба- ня н С. А., Вероятностные распределения в банаховых пространствах, М., 1985. В. И. Паулаускас. ГАУССА МОДЕЛЬ (Gauss model) независимых равноточных наблюдений-см. Ошибок теория. ГАУССА НЕРАВЕНСТВО (Gauss inequality) - см. Чебыше- ва неравенство.
ГАУССА ПРЕОБРАЗОВАНИЕ (Gauss transform) - см. Эр- годические задачи диофантовых приближений. ГАУССА - ЛАПЛАСА РАСПРЕДЕЛЕНИЕ (Gauss-Laplace distribution) - одно из названий нормального распределения, к-рое наряду с другими названиями (закон Гаусса, гауссов ское распределение, второй закон Лапласа, распределение Лапласа-Гаусса и т.д.) связывает историю открытия и первых приложений распределения к различным задачам теории вероятностей с именами К. Гаусса и П. Лапласа. Нормальное распределение появилось у К. Гаусса (1809) и П. Лапласа (1812) в связи с исследованиями по ошибок теории и наименьших квадратов методу. Так, в развитой К. Гауссом для задач астрономии и геодезии теории ошибок наблюдений плотность вероятностей случайных ошибок выражалась функцией <р(Д) =-^ бГ/,2д2, h>0 (см. Гаусса закон). П. Лаплас, кроме того, получил интеграл (функцию Лапласа) Jk Jo как приближенное значение (при больших п) вероятности того, что число успехов в п испытаниях Бернулли с вероятностью успеха р будет заключено в пределах пр - vl2np{\ - p) и пр + Н2пр(\ - р). Однако соотношение, где нормальное распределение появляется как предельная форма биномиального cp = q = 1/2, было найдено еще А. Муавром (A. Moivre, 1733). Лит.: [1] Гаусс К. Ф., Избр. геодезические соч., пер. с лат. и нем., т. 1, М., 1957, с. 89-109; [2] Laplace P.S., Theorie analitique des probabilites, P., 1812; [3] Todhunter I., A history of the mathematical theory of probability, [N. Y.], 1949. А. В. Прохоров. ГАУССА - МАРКОВА ТЕОРЕМА (Gauss - Markov theorem) - теорема теории линейного регрессионного эксперимен та, утверждающая эквивалентность наилучшей линейной несмещенной оценки параметра регрессионного эксперимента и метода наименьших квадратов. Эта теорема доказана К. Гауссом (С. Gauss); ее популярности способствовало изложение в известном учебнике А. А. Маркова. Известно много обобщений теоремы Гаусса - Маркова на случаи измерений регрессионного эксперимента с матрицей ковариаций общего вида, с вырожденной информационной матрицей; при аппроксимации неадекватной регрессии функцией; при последовательном планировании регрессионного эксперимента; для локально асимптотически минимального квадратичного риска обобщенных регрессионных экспериментов. Лит.: [1] Шеффе Г., Дисперсионный анализ, пер. с англ., М., 1980; [2] Малютов М. Б., «Изв. ВУЗов. Математика», 1983, № И, с. 19-41; [3] Seal H. L., «Biometrika», 1967, v. 54, № 1-2, p. 1-24. М. Б. Малютов. ГАУССА - НЬЮТОНА МЕТОД (Gauss - Newton method) - метод итерационного вычисления оценки наименьших квадратов параметра в нелинейного регрессионного эксперимента у = г\(х{, в) + ег-, i=l, ..., N, где е^ независимы, Ее, = 0, Ог{ = а2(х;)} беИ^. В минимизации 0(У, «=5^ ёЦ»)<ГЧх{\ е^у{-г\'{х{, в), методом касательных Ньютона участвует выражение N" ^._.Ц"(х {)<?((&), близкое к нулю по закону больших чисел. Приравняв его нулю, К. Гаусс (С. Gauss) свел минимизацию величины Q(y} 6) к итерационному вычислению наилучшей линейной несмещенной поправки е^-в^м;1^/;^)^5)^2^)» 5 = о,1,...,», о где Для обобщенного регрессионного эксперимента [где G = o(x, в) и 0(т|(в'), 6) = 0] только при 6 = 6' оценка 6 = argmin0 Q(y, 6) обычно несостоятельна, но поправки вида (*), где подставлено а~ С*,-, 0s) (так наз. оценки Ир джина), дают асимптотически нормальную эффективную оценку для 6, а вероятность сходимости итераций стремится к 1, если 6 достаточно близко к 6, для большой регулярной выборки. Лит.: [1] Математическая теория планирования эксперимента, М., 1983; [2] Малютов МБ., «Изв. ВУЗов. Математика», 1983, № 11, с. 19-41. М. Б. Малютов. ГАУССОВСКАЯ ДИНАМИЧЕСКАЯ СИСТЕМА (Gaussian dynamical system) - тройка (Ж, \i, G), где Ж- инвариантное относительно сдвига векторное пространство функций (быть может, обобщенных) на G = 1 или IP, содержащее почти все реализации гауссовского стационарного (в узком смысле) вещественного или комплексного процесса X(t), teG, дискретным (Z) или непрерывным (IP) временем, |i - гауссовская мера на Ж, порожденная процессом. При этом группа G действует сдвигами на Ж, сохраняя меру (х: (Г„/)() =/"(•+ g), geG. С точки зрения общего изучения случайных стационарных процессов теория Г. д. с. является примером достаточно развитой нелинейной теории; в рамках же теории динамич. систем (преобразований с инвариантной мерой) Г. д. с. служит нетривиальной моделью, хорошо приспособленной в основном для целей спектральной теории. Это обстоятельство отметил в 30-х гг. А. Н. Колмогоров и развил С. В. Фомин [1]; они указали, что спектр Г. д. с. поддается изучению в терминах спектральной меры процесса и что его структура может быть совсем непохожей на структуру спектра классич. динамич. систем, возникающих в теории дифференциальных уравнений. Вскоре (см. [2]) был построен первый пример динамич. системы с сингулярным непрерывным простым спектром и дана (см. [4], [5]) подробная теория спектров Г. д. с. Если ЕХ(О = 0, то Г. д. с, порожденная процессом X(t)} полностью определяется корреляционной функцией B(s, t) = b(s-t) = EX(t)X{s) или спектральной мерой F: Ь(и) = L eihudF(uX JG G = S или IP. Основные факты метрич. теории Г. д. с. в терминах F формулируются следующим образом. 1) Г. д. с. эргодична тогда и только тогда, когда мера F непрерывна, при этом спектр Г. д. с. непрерывен. 2) Г. д. с. есть перемешивание в том и только в том случае, когда hmb(u) = 0 (см. [4]). и -►<» 3) Максимальный спектральный тип Г. д. с. есть где F*n = oQ, F*" - я-кратная свертка меры F на G (см. [1]). Кратность спектра зависит от более тонких арифметич. свойств носителя меры F. Она может быть либо единичной (простой спектр), либо неограниченной, либо бесконечной (см. [2], [5]). 4) Энтропия Г. д. с. либо равна нулю, если F не имеет абсолютно непрерывной компоненты, либо бесконечности, если такая компонента есть. Если F - абсолютно непрерывна, то Г. д. с. есть /С-система (см. [4]). 5) Г. д. с. с абсолютно непрерывным спектром метрически изоморфны и являются бернуллиевскими. 6) Метрич. изоморфизм двух изоморфных Г. д. с. либо линеен, если спектры взаимно абсолютно непрерывны (так ГАУССОВСКАЯ 131
наз. скользящее суммирование), либо не является полиномиальным. Принципиальной основой всей теории Г. д. с, как и собственно нелинейной теории гауссовских процессов, служит разложение Фока номам Эрмита гралам: Винера - Ито пространства Ь^Ж) по поли- Вика, то есть по кратным стохастич. инте- где 5" - п-я симметрич. степень, Н - пространство линейных измеримых функционалов на Ж, то есть H = LF(G). Мультипликативная структура правой части приведена в [5]. Эта конструкция появилась в 30-х гг. в квантовой теории поля («бозонное пространство Фока»; см. [7]), а затем, независимо, в теоретико-вероятностных работах Н. Винера [6] и К. Ито [3]. Разложение нашло большое количество применений в теории случайных процессов, статистике, теории операторов, теории представлений, нелинейной теории связи, конструктивной теории поля и др. Важные обобщения Г. д. с- многомерные Г. д. с, то есть случайные гауссовские поля; они охватываются следующим инвариантным определением: общая Г. д. с. есть группа линейных преобразований произвольного векторного пространства с гауссовской мерой. Лит.: [1] Фомин СВ., «Укр. матем. журн.», 1950, т. 2, № 2, с. 25-47; [2] Гирсанов И.В., «Докл. АН СССР», 1958, т. 119, К? 5, с. 851-53; [3] ltd К., «Japan J. Math.», 1952, v. 22, p. 63-86; [4] Корнфельд И.П., Синай Я. Г., Фомин СВ., Эргодиче- ская теория, М., 1980; [5] Верши к A.M., «Докл. АН СССР», 1962, т. 144, № 1, с. 9-12, № 2, с. 255-60; [6] Винер Н., Нелинейные задачи в теории случайных процессов, пер. с англ., М., 1961; [7] Саймон Б., Модель Р[ф]2 евклидовой квантовой теории поля, пер. с англ., М., 1976. А. М. Вершик. ГАУССОВСКАЯ МЕРА (Gaussian measure), гауссов- ское распределение, нормальное распределение, - одна из наиболее важных и часто встречающихся вероятностных мер в конечномерном евклидовом пространстве или в бесконечномерном векторном пространстве. Г. м. в конечномерном случае чаще называют нормальным распределением. Определение и основные свойства Г. м. для этого случая (вместе с библиографией) см. в ст. Нормальное распределение, а для бесконечномерного случая - в ст. Гауссовская мера в банаховом пространстве. Понятие Г. м. можно ввести также и в абстрактной группе (см. Гауссовское распределение на локально компактной абе- левой группе). См. также Случайная мера. Н. Н. Вахания. ГАУССОВСКАЯ МЕРА в банаховом пространстве (Gaussian measure in Banach space) - вероятностная мера \i в действительном сепарабельном банаховом пространстве В, для к-рой все одномерные (а потому и все конечномерные) проекции \ль* = |i0°b* , соответствующие непрерывным линейным функционалам Ь*еВ*} представляют собой гауссовские меры на числовой оси IP (или IP"). Другими словами, для каждого элемента Ь* в сопряженном к В пространстве В* либо \\.ь* есть мера, сосредоточенная в одной точке, либо существуют зависящие от Ь* числа а е IP и d > 0 такие, что для каждого борелевского множества Е cz IP . Это определение дано в 1935 А. Н. Колмогоровым (см. [1]). Характеристич. функционал Г. м. \1 имеет вид Д(Ь*) = ехр{|Ь*(т)-Ь*(ДЬ*)/2}, 6*еВ», (1) где теВ и R - линейный симметричный непрерывный положительный оператор из В* в В. Элемент т есть среднее, a R - 132 ГАУССОВСКАЯ ковариационный оператор меры |i. В отличие от конечномерного случая, в бесконечномерном В не всякий функционал вида (1) является характеристич. функционалом нек-рой меры \i в В (нужны дополнительные ограничения на R, зависящие от геометрии пространства В). Если такая мера существует, она, очевидно, будет гауссовской. Описание этих дополнительных условий равносильно описанию класса всех Г. м. в В. Если B = lp, 1 ^/?<<*>, то дополнительным (необходимым и достаточным) условием является условие XL tf*cw/2<~. «> где fk, k=\, 2, ...,- последовательность координатных функционалов. В частности, в произвольном (сепарабельном) гильбертовом пространстве дополнительным условием является ядерность ковариационного оператора R (теорема Мурье - Прохорова). Необходимое и достаточное условие, аналогичное в подходящем смысле условию (2), справедливо и в случае банахова пространства, имеющего нек-рый конечный котип и безусловный базис. Ковариационный оператор любой Г. м. в общем случае является ядерным. Обратное верно не всегда: любой симметричный и положительный ядерный оператор из В* в В является ковариационным оператором нек-рой Г. м. в В в том и только в том случае, когда В - банахово пространство типа 2. В банаховом пространстве В котипа 2 и только в таких пространствах любая Г. м. |i есть линейный непрерывный образ нек-рой Г. м. в нек-ром вспомогательном гильбертовом пространстве Я, то есть ковариационный оператор любой такой меры можно факторизовать в виде R=ASA*, где А - линейный непрерывный оператор из Н в В} А* - оператор, сопряженный к Л, и S - симметричный положительный ядерный оператор в Н. Задача описания класса ковариационных операторов Г. м. в пространстве непрерывных функций равносильна задаче нахождения условий непрерывности траекторий гауссовского случайного процесса. В последнее время в решении этой задачи достигнут большой прогресс (см. [4]). Для любой Г. м. (X в В справедлив закон «0 или 1»: ц-мера любого измеримого подпространства в В равна либо 0, либо 1. Любые две Г. м. в В либо взаимно абсолютно непрерывны, либо взаимно сингулярны (дихотомия Г. м.). Условия регулярности, а также вид плотности в случае выполнения этих условий выражаются в терминах средних и ковариационных операторов этих мер. Если (X - Г. м. в В с нулевым средним и ковариационным оператором R, то носитель меры |i есть замыкание в В образа RB*. В частности, если |i невырождена (из Rb* = 0 следует Ь* = 0), то носитель |i есть все пространство В. Отсюда, пользуясь леммой о факторизации (см. Ковариационный оператор вероятностной меры), можно показать, что каждая невырожденная центрированная Г. м. в В есть абстрактная винеровская мера. Обычная же винеровская мера в пространстве непрерывных функций С[0, 1] есть Г. м. в С[0, 1] с нулевым средним и ковариационным оператором вида (R0(t) =fQ mm (t,s)df(s). Отметим также экспоненциальную интегрируемость нормы элемента по любой Г. м. |i в В: JBexp{a||-|Vn()<~. если а< 1/21| Л ||. Определение Г. м. остается в силе и для случая, когда В - общее локально выпуклое топологич. векторное пространство. Для этого общего случая встречается иногда определение Г-гауссовской меры, где Г - нек-рое тотальное подпространство в В* (требуется гауссовость одномерных проекций, соответствующих линейным функционалам из Г). Если В
метризуемо, полно и сепарабельно, то Г-гауссовость равносильна обычной (то есть #*-гауссовости) для любого тотального подпространства Г. Все основные свойства Г. м. останутся в силе, если предположить, что мера радонова. Лит.: [1] Kolmogorov A. N., «С. г. Acad. sci. Paris», 1935, t. 200, p. 1717-18; [2] Vakhania N.N., там же, 1965, t. 260, p. 1560-62; [3] Chobanyan S. A., Tar ieladze V.I., «J. Multivar. Analyse, 1977, v. 7, № 1, p. 183-203; [4] Talagrand M., «Acta math.», 1987, v. 159, № 1-2, p. 99-149; [5] Го Х.-С, Гауссовские меры в банаховых пространствах, пер. с англ., М., 1979; [6] Ваха- иия Н. Н., Тариеладзе В. И., Чобанян С. А., Вероятностные распределения в банаховых пространствах, М., 1985. Н. Н. Вахания. ГАУССОВСКАЯ СЛУЧАЙНАЯ ВЕЛИЧИНА (Gaussian random variable) - случайная величина X с характеристической функцией (px(u) = exp(imu-G2u2/2), -oo<w<+oo, где -io<w<+oo,a ^ 0. Распределение вероятностей случайной величины X называется гауссовским, или нормальным, с параметрами (w, a ). Для обозначения часто используется запись X~N(m, a ), а сама случайная величина именуется также нормальной, или нормально распределенной. Параметры т и a , определяющие распределение случайной величины X, имеют простой вероятностный смысл: т - среднее значение, a - дисперсия X. Если сг>0, то у X существует плотность распределения Нормальные случайные величины и распределения появились в работах К. Гаусса (С. Gauss, 1809) и П. Лапласа (P. Laplace, 1812) в связи с исследованиями по теории ошибок и методу наименьших квадратов. Так, в развитой К. Гауссом для задач астрономии и геодезии теории ошибок наблюдений случайные ошибки являлись центрированными (w = 0) нормальными случайными величинами. Это обусловило возникновение терминов «гауссовская случайная величина», «гаус- совское распределение», «Гаусса закон», «второй закон Лапласа», «Лапласа - Гаусса закон» и др. Г. с. в. естественным образом появляются в теоретич. моделях статистич. теории стрельбы (гипотеза Гершеля), в стати- стич. физике (гипотеза Максвелла) и ряде других задач статистики (см. [4]). Согласно центральной предельной теореме, последовательность соответствующим образом центрированных и нормированных сумм неограниченно возрастающего числа независимых случайных величин при выполнении условия Линдеберга сходится по распределению к Г. с. в. Определенные на общем вероятностном пространстве семейства совместно независимых Г. с. в. обладают рядом свойств, непосредственно связанных со свойствами сверток гауссов- ских распределений и характеризующих этот тип распределений. Сумма конечного числа независимых случайных величин является Г. с. в. тогда и только тогда, когда каждое из слагаемых - Г. с. в. Этот результат, предугаданный П. Леви (Р Levy) и доказанный X. Крамером (Н. Cramer, 1936), привел к развитию целого направления в теории вероятностей, посвященного разложениям случайных величин на независимые слагаемые (см. [6]). Ортогональные линейные преобразования сохраняют независимость конечного набора независимых Г. с. в. Это свойство также является характеристическим для гауссовского распределения и лежит в основе одного из возможных обобщений понятия Г. с. в. В целом задача характеризации гауссовского распределения с помощью независимых линейных форм от конечной совокупности независимых случайных величин поставлена в 1926 С. Н. Бернштейном (см. [7]). В определенном смысле законченный результат получен в [8], [9]: если Xt, ..., Хп - независимые случайные величины и линейные формы а{Х\ + ... + апХп, 61Х1 + ... + ЬпХп с постоянными коэффициентами Ду, Ь-, /=1, ..., я, независимы, то случайные величины Ху будут гауссовскими для тех /, для к-рых а,- и fcy*0. Лит. :[1] Гнеденко Б. В., Курс теории вероятностей, 6 изд., М., 1988; [21 Гаусс К. Ф., Избр. геодезические соч., пер. с лат. и нем., т. 1, М., 1957, с. 89-109; [3] Laplace P. S., Theorie analytique des probabilites, P., 1812; [41 Pao С. Р., Линейные статистические методы и их применения, пер. с англ., М., 1968; [5] Cramer H., «Math. Z.», 1936, Bd 41, S. 405-14; [61 Линник Ю. В., Островский И. В., Разложения случайных величин и векторов, М., 1972; [71 Берн- штейщС. Н., Собр. соч., т. 4, М., 1964; [81 Darmois G., «С. г. Acad. sci. Paris», 1951, t. 232, p. 1999-2000; [91 Скитович В. П., «Докл. АН СССР», 1953, т. 89, .№ 2, с. 217-19. В. В. Булдыгин. ГАУССОВСКАЯ СЛУЧАЙНАЯ МАТРИЦА (Gaussian ran dom matrix) - случайная матрица, действительные и мнимые части элементов к-рой распределены по многомерному нормальному закону. Пусть Еп = UnSnU* - представление Шура Г. с. м. Еп = ||^-|| порядка я (см. Несимметрическая случайная матрица). Если действительные и мнимые части элементов матрицы Еп независимы и распределены по нормальному закону Ж0, 1), то плотность распределения собственных значений \k матрицы Ея равна ^•^nL.yfepj-izLiM'ia.yi**.-^ i,j=\, ..., я, arg #n>...> arg ynn, действительные и мнимые части элементов s^, i >j, матрицы Sn независимы (не зависят от si} и матрицы Un) и распределены по нормальному закону N(6, 1). Если элементы матрицы Еп независимы и распределены по стандартному нормальному закону, то можно вычислить (см. [1]) P{ReXk<xk, lmXk<yk, k=\, ..., я}. Если элементы £i/> *^/» *\ /=1> •■•» я» симметричной действительной матрицы Еп независимы и распределены по нормальным законам М0,(1+8у)/2), то матрица Я„=|^;||, hu>0, i=l, ..., я, вектор-столбцами к-рой являются собственные векторы матрицы Е„, стохастически не зависит от собственных значений матрицы Еп и Р{Нп е L) = 2"|i(L), где \i - нормированная мера Хаара на группе G ортогональных матриц я-го порядка, L - измеримое множество матриц группы G, элементы первых строк к-рых неотрицательны, плотность упорядоченных по величине собственных значений матрицы Еп равна У!>...>УЯ. Лит.: [11 Гирко В. Л., Спектральная теория случайных матриц, «Успехи матем. наук», 1985, т. 40, в. 1, с. 67-106. В. Л. Гирко. ГАУССОВСКАЯ ЦИЛИНДРИЧЕСКАЯ МЕРА (Gaussian cylindrical measure) - цилиндрическая мера в действительном банаховом или общем локально выпуклом топологическом векторном пространстве U, для к-рой все одномерные (а потому и все конечномерные) проекции, соответствующие непрерывным линейным функционалам, представляют собой гауссовские меры на числовой оси II? (или в IR"). Это равносильно тому, что характеристич. функционал цилиндрич. меры (X должен иметь вид {i(u*)=exp{im(u*)-r(u*)/2}, u*eU*, (*) где т - произвольная линейная форма, а г - произвольная квадратичная форма в сопряженном пространстве U*. ГАУССОВСКАЯ 133
Сужение любой гауссовской меры в U на алгебру цилиндров является Г. ц. м., однако не каждую Г. ц. м. можно получить таким образом, то есть не каждая Г. ц. м. продолжается до меры (счетно-аддитивной). Если Н - гильбертово пространство (бесконечномерное), то Г. ц. м. в Н, имеющая ха- рактеристич. функционал вида Д(/г) = ехр {-1|Л||2/2}, heH, называется стандартной (или канонической) гауссовской цилиндрической мерой. Стандартная Г. ц. м. не продолжается до меры. Г. ц. м. (X в U в том и только в том случае является линейным непрерывным образом стандартной Г. ц. м. в нек-ром гильбертовом пространстве, когда в выражении (*) для ее характери- стич. функционала т = 0 и квадратичная форма г порождена линейным симметричным оператором R: U* -> U, то есть Ли*) = u*(Ru*). Такая Г. ц. м. продолжается до меры в том и только в том случае, когда R принадлежит классу гауссов- ских ковариационных операторов (см. также Гауссовская мера в банаховом пространстве). Лит.: [1] Вахания Н.Н., Тариеладзе В.И., Чобанян С.А., Вероятностные распределения в банаховых пространствах, М 1985; [2] Badrikian А., С he vet S., «Lect. Notes in Math.», 1974, v. 379. H. H. Вахания. ГАУССОВСКИЙ БЕЛЫЙ ШУМ (Gaussian white noise) - см. Белый шум. ГАУССОВСКИЙ КАНАЛ (Gaussian channel) - канал связи, переходная функция к-рого задает условное гауссов- ское распределение. Для Г. к. оказывается возможным явное вычисление многих важных теоретико-информационных характеристик; напр., для Т.к., сигналом на входе к-рого служит стационарная случайная последовательность У=(..., y_t, Y0, Yt, ...), сигналом на выходе - последовательность У=(...,У_.,, У0, Yv ...), где ^=i:.. akY{-k + Zi} i = 0, ±1, ±2, a Z= (..., Z_j, Z0, Zj, ...) - не зависящая от У стационарная гауссовская случайная последовательность с EZ; = 0 и спектральной плотностью fz(X),- \/2^Х^\/2; при ограничении на входе вида J-1/2 [где fy(X) - спектральная плотность У, Ф(Х) - нек-рая функция и S - константа] пропускная способность С канала определяется формулой \<b(X)\2fY(X)dX^S 1 ГУ2 . С = - log max 2 J-1/2 б -1/2 а(Х)\ \Ф(Х)\ fz(X) dX} где а (X определяется из уравнения -2nikX Г М/2 и- |ФО)|' I a(X)I ake fz(X\0 dX = S. Лит.: [1] Галлагер Р., Теория информации и надежная связь, пер. с англ., М., 1974; [2] Колесник В. Д., Полтырев Г. Ш., Курс теории информации, М., 1982; [3] Шеннон К., Работы по теории информации и кибернетике, пер. с англ., М., 1963, с. 243-332. В. В. Прелое. ГАУССОВСКИЙ МАРКОВСКИЙ ПРОЦЕСС (Gaussian Markov process), марковский гауссовский процесс,- одномерный или многомерный марковский процесс с непрерывным или дискретным временем t е II? или t e Ж , 134 ГАУССОВСКИЙ имеющий гауссовские распределения вероятностей для любых групп значений процесса. Гауссовский процесс полностью задается своим средним значением (или, в многомерном случае, вектором средних значений) и корреляционной функцией (или корреляционной матрицей). Так как марковское свойство не зависит от того, каково среднее значение процесса, то среднее значение Г. м. п. может быть любым; при этом его всегда можно вычесть из значения процесса и рассматривать лишь Г. м.п., имеющие нулевое среднее значение. Поэтому описание класса Г. м. п. сводится к определению возможных форм корреляционных функций (или матриц) таких процессов. Из марковости гауссовского процесса X(t) следует, что E{X(t)\X(s), X(u)} = E{X(t)\X(s)} (1) при t>s>u, где E{X(t)\X(s), X(u)} и E{X(t)\X(s)} - наилучшие (в смысле минимума квадрата ошибки) приближения к X(t), линейно зависящие от X(s), X(u) и соответственно только от X(s). В приложении к одномерному случайному процессу X(t) с нулевым средним значением и корреляционной функцией EX(t)X(s) = B(t, s) условие (1) можно переписать в виде Bit, u) = B(t, s)B(s, u)/B(s, s) при t>s>u. (2) Условие (2) является необходимым и достаточным для того, чтобы гауссовский процесс X(t) с корреляционной функцией Bit, s) был марковским (см., напр., [1], § 2, 4). Таким образом, класс одномерных Г. м. п. совпадает с классом гаус- совских процессов с корреляционной функцией B(t, s), удовлетворяющей условию (2). Если Г. м.п. X(t) является стационарным, то B(t,s) = = B(t-s) и из (2) и требования неотрицательной определенности и непрерывности по t (если t непрерывное) функции В (О вытекает, что B(t) = Ce~a(t\ где С>0, а>0, при t e В?1, (3) B(t,s)-- (4) где С>0, |в|<1, при tel\ Таким образом, стационарный невырожденный Г. м.п. с непрерывным временем обязательно совпадает с Орнштейна - Уленбека процессом (это утверждение принадлежит Дж. Дубу [2]). Для общего нестационарного Г. м. п. из (2) и неотрицательной определенности и непрерывности ядра B(t, s) при широких условиях регулярности следует, что {<p(0\|Ks) при £^s, \\f(t)y(s) при £>s, где \\f(t) - произвольная не обращающаяся в нуль непрерывная функция, а ф(0 - непрерывная функция такая, что <р(0/\|КО = с(0 - неотрицательная неубывающая функция. Гауссовский процесс X(t) с корреляционной функцией (4) может быть представлен в виде X(t) = y(t)W(c(t))t где W(t) - стандартный винеровский процесс; такой процесс X(t) является марковским. Многомерный Г. м.п. Х(0 = {Х1(0, ..., Xn(t)} с нулевым средним значением задается своей корреляционной матрицей Bit, s)= lEXi(t)XAs)l; если матрица B(t, s) обратима, то E{X(t)\X(s)} = R(t,s)X(s), где t> s, R(t,s) = B(t, s)[B(s,s)]{ (выражение для R(t} s) в случае необратимой матрицы B(s} s) см. в [3]). При этом для того, чтобы процесс X(t) был многомерным Г. м.п., необходимо и достаточно выполнения условия R(t, u) = R(t, s) R(s, и) при t^s^u (или эквивалентного ему условия R(и, t) = R(u, s)R(s, t)\ см. [3]). Многомерными Г. м. п. являются решения определенных систем линейных стохастич. дифференциальных уравнений, и кратность
(см. Случайный процесс; каноническое представление) я-мер- ного Г. м. п. не может превзойти п (см. [4]). Для стационарного многомерного Г. м.п. X(t) очевидно Bit, s) = B(s-t). Такие процессы изучались в [3]-[6], где, в частности, было показано, что непрерывный гауссовский стационарный процесс с несингулярной матрицей В(0) будет Г. м. п. тогда и только тогда, когда его корреляционная матрица B(t) при t>0 представима в виде B(t) = В(0)е®*, где Q - постоянная матрица, не имеющая собственных значений с положительными действительными частями. Отсюда, в частности, следуют и результаты работы [7], в к-рой выписаны явные формулы для элементов корреляционной матрицы двумерного Г. м.п. Отсюда же вытекает и результат Дж. Дуба (см. [5]) о том, что одномерный гауссовский стационарный процесс Х(0 с непрерывным временем тогда и только тогда является компонентой многомерного стационарного Г. м.п., когда его спектральная функция F(X) имеет лишь конечное число точек разрыва, а непрерывная компонента F(X) является абсолютно непрерывной функцией с рациональной относительно X производной F'(X). Аналогичный результат доказан в [5] и для стационарных процессов с дискретным временем, но в этом случае рациональная функция X должна быть заменена рациональной функцией ег . Указанные выше результаты о Г. м. п. могут быть легко переформулированы и как результаты, относящиеся к марковским процессам в широком смысле (см., напр., [3], [4]). См. также Случайный процесс; нули. Лит.: [1] Ламперти Дж., Случайные процессы. Обзор математической теории, пер. с англ., К., 1983; [2] Дуб Дж. Л., Вероятностные процессы, пер. с англ., М., 1956; [3J Beutier F.J., «Ann. Math. Statist.», 1963, v. 34, X° 2, p. 424-38; [4] Mandrekar V., «Nagoya Math. J.», 1968, v. 33, p. 7-19; [5) Doob J. L., «Ann. Math. Statist.», 1944, v. 15, p. 229-82; [6]WangM.C, Uh lenbeck G. E., «Rtv. Mod. Phys.», 1945, v. 17, X° 2-3, p. 323-42; [7] Калмыков Г. И., «Докл. АН СССР», 1964, т. 156, Х° 3, с. 495-98. А. М. Яглом. ГАУССОВСКИЙ ПРОЦЕСС (Gaussian process) - действительный случайный процесс X=X(t), teT, любые конечномерные распределения к-рого являются гауссовскими, то есть характеристические функции совместных распределений вероятностей случайных величин Х(^), ..., X(tn) при любых ti, ..., tneT имеют вид где A{i)=EX{t) - математич. ожидание и Bit, s) = E[X(t)-A(t)][X(s)-A(s)] - корреляционная функция. Распределение вероятностей Г. и. X-X(t) полностью задается его математич. ожиданием A(t) и корреляционной функцией Bit, s), s, teT. Для любой функции A(t) и любой положительно определенной функции B(i,s) существует Г. п. X(t), у к-рого среднее значение и корреляционная функция суть именно A(t) и Bit, s). Многомерный случайный процесс с векторными значениями X(f) = {X\(t), ..., Xm(t)} называется гауссовским, если гауссовскими являются совместные распределения вероятностей любых величин х,/*,),.... х,ия). Комплексным Г. п. X = X(t), teT, называется случайный процесс вида X(t) = X^(t)+ iX2(t), где действительные X^(t), Х2(0 в совокупности образуют двумерный Г. п. Иногда, говоря о комплексном Г. п. X(t) = Xx(t) + iX2(t), считают, что выполняется одно дополнительное условие: EX(s)X(t) = = A(s)A(t), где A(t) = EX(t). Это условие вводится для того, чтобы сохранить то свойство обычных гауссовских случайных величин, согласно к-рому некоррелированность равносильна независимости; его можно переписать следующим образом: Е[Х1(0-Л1(0][Х1(5)-Л1(5)] = = Е[Х2(0 -A2(t)][X2(s) - A2(s)] = ReBit, s)/2, Е[Х1(0-Л1(0][Х2(5)-Л2(5)]= -lmB(t, s)/2, где B(t, s) = E[X(t)-A(t)][X(s) - A(s)] - корреляционная функция процесса X(t) и Ax(t) = EX^(t), A2(t) = EX2(t). Действительный обобщенный случайный процесс Х = (и, X), ueU, на векторном пространстве U называется обобщенным Г. п., если его характеристич. функционал <рх(м) имеет вид где А(и) = Е(и, X) - математич. ожидание обобщенного процесса Х = (и, X), B(u,v) = E[(u,X)-A(u)][(v,X)-A(v)]- его корреляционный функционал. Пусть U - гильбертово пространство со скалярным произведением (и, v), и, veU. Случайная величина X со значениями в пространстве U называется гауссовской, если случайный процесс вида Х = {и, X), ueU,- обобщенный Г. п. Математич. ожидание А(и) является линейным непрерывным функционалом, а корреляционная функция В(и, v) - билинейным непрерывным функционалом на гильбертовом пространстве U, причем В(и, v) = (Bu, v), и, veU, где положительный оператор В (корреляционный оператор случайной величины Хе U) является ядерным. Для любых таких А(и) и В(и, v) существует гауссовская величина XeU такая, что обобщенный процесс Х-{и, X), ueU, имеет средним значением и корреляционной функцией именно А(и) и В(и, v). Пример. Пусть X=X(t)- Г. п. на отрезке Т-[а, Ь], и пусть процесс X(t) измерим, причем \bE[X(t)]2dt<oo. Тогда почти все траектории X(t), teT, будут принадлежать пространству интегрируемых в квадрате функций u=u(t) на отрезке Г со скалярным произведением сЬ (и, v)= u(t)v(t)dt. Ja Формула (и, X) = jau(t)X(t)dt, ueU, задает обобщенный Г. п. на этом пространстве U. При этом математич. ожидание и корреляционный функционал обобщенного процесса Х=(и, X) выражаются формулами А(и)= \ u(t)A(t)dt, Ja B(u,v)=\ Bit, s)u(t)v(s)dtds, Ja Ja где A(t) и Bit, s) - соответственно математич. ожидание и корреляционная функция исходного процесса Х = Х(0 на отрезке Т= [а, Ь]. Почти все основные свойства Г. п. X = X(t) (параметр t пробегает произвольное множество Г) могут быть выражены в геометрич. терминах при рассмотрении этого процесса как кривой в гильбертовом пространстве Н всех случайных величин У, EYt <<», со скалярным произведением (Yv У2) = ЕУ1У2, для к-рой (X(t),\)=A(t), и (X(t)-A(t), X(s)-A(s)) = B(t, s). Ю.А. Розанов. ГАУССОВСКИЙ 135
Стационарные в узком смысле Г. п. могут быть реализованы посредством нек-рых динамич. систем (сдвиг в пространстве траекторий, см. [1]). Полученные динамич. системы (их иногда называют нормальными, ср. с нормальным распределением вероятностей) представляют интерес как примеры динамич. систем с непрерывным спектром, свойства к-рых благодаря введенному в [4], [5] разложению Н могут быть изучены с большой полнотой. Так были построены первые конкретные примеры динамич. систем с «неклассическими» спектральными свойствами. Д. В. Аносов. Лит.: [1) Дуб Дж. Л., Вероятностные процессы, пер. с англ., М., 1956; [2) Ибрагимов И. А., Розанов Ю.А., Гауссовские случайные процессы, М., 1970; [3] Крамер Г., Лидбеттер М., Стационарные случайные процессы. Свойства выборочных функций и их приложения, пер. с англ., М., 1969; [4] I to К., «J. Math. Soc. Japan», 1951, v. 3, № 1,р. 157-69; [5) его же, «Japan J. Math.», 1952, v. 22, p. 63-86. ГАУССОВСКИЙ ПРОЦЕСС; представление с помощью винеровских интеграл о в (Gaussian process; representation by Wiener integrals) - представление w-мерного гауссовского процесса с независимыми приращениями X(t), t^O, для к-рого ЕХ(0 = Mt)} Е(Х(0 -Л(0, х)2 = (B(t)x} х)} имеющее вид XU) = AU) + Х(0) + ХГ=1 ЛVP*W ek^dYk(Л где {ek(t), Pfc(0, k= 1, 2, ..., m) - система ортонормированных собственных векторов и соответствующих собственных чисел оператора B'(t), определяемого соотношением B(t) = f В'ШШ, где X(t) = trB(t) - след оператора B(t), Yk(t), k=\} 2, ..., m,- независимые одномерные процессы с независимыми приращениями, для к-рых EYk(t) = 0, EYk(t) = X(t). Лит.: [ 1 ] Скороход А. В., Случайные процессы с независимыми приращениями, 2 изд., М., 1986. Ю. М. Рыжов. ГАУССОВСКИЙ ПРОЦЕСС; статистические зада чи (Gaussian process; statistical problems) - см. Статистические задачи теории случайных процессов. ГАУССОВСКИЙ СЕМИМАРТИНГАЛ (Gaussian semimar tingale) - гауссовский процесс X(t), t^O, являющийся семи- мартингалом] выделяется рядом специальных свойств. Траектории процесса X(t) непрерывны справа и имеют пределы слева. Для X(t) определен процесс скачков AX(t)} t^O, с ДХ(0) = 0 и AX(t) = X(t) - lim X(s), t > 0. Процесс X(t) допускает разложение s * где Х(О = Х(0) + Х'(О + Х"(О, Х'(0 = j\+v/(s)</X(s), X;'(0 = jtIH(s)dX0(s) - стохастич. интегралы, Н = {t > 0: Р{ДХ(0 = 0} = 1}. При этом (Х(0), (ХЧО), (Х"(0)) образуют гауссовскую систему, (ХЧО), t^O,- непрерывный семимартингал, моменты разрывов (Х'(О) и (Х"(0) совпадают, являются детерминированными и принимают значения в Н. Процесс X(t) является специальным семимартингалом с разложением X(t) = X(0)+A(t) + M(t) относительно пополненного потока ^t+ = (^t+)t^o а-алгебр, &t+ = ||e>0a{X(s), s^t + e}, с предсказуемым процессом (At), t^O, и локальным мартингалом (М(О), £^0, такими, что Evar2C4(0)<~, ЕМ2(0<~, г>0, и (Х(0), (Л(О), (М(О)) образуют гауссовскую систему. 136 ГАУССОВСКИЙ Гауссовский семимартингал, как всякий гауссовский процесс, полностью описывается функцией среднего значения a(t) = EX(t) и корреляционной функцией T(s, t) = = cov (X(0, X(s)). Функции a(t) и T(s, t) гауссовского семи- мартингала непрерывны справа и имеют пределы слева, являются функциями локально ограниченной вариации; для T(s, t) это означает, что T(s, 0), Г(0, i) - функции локально ограниченной вариации и suP£i,y lr(W ';+1> + ГЦ-. tj)-TXsit tJ+i)-V(sl+v tj)\ <~, где sup берется по всевозможным разбиениям 0 = s0< < st < ... < sk = s, 0 = tQ < t\ < ... < t[ = t при произвольных s и t. Семимартингальная характеризация гауссовского процесса Х(0, £^0, в терминах функций a(t) и T(s, t) выглядит следующим образом. Теорема. Следующие условия эквивалентны: а) Х(0, £^0, является Г. с; б) a(t) и Г(5, t) - непрерывные справа и имеющие пределы слева функции локально ограниченной вариации, существует неубывающая непрерывная справа функция F = F(t) такая, что для любых s < t и любой простой функции fs = fs(u), и^ 0, с fs(u) = 0 при и >s имеет место неравенство £ fQfs(v)dT(v,")|/(Ц75Mfs(u)dT(v,и)j ^Fit) - F(s). В марковском случае это неравенство превращается в неравенство |r(s, 0-r(s, s)|/r1/2Cs, sKHO-Ks), где 0/0 = 0, а в случае процесса X(t) локально ограниченной вариации - в неравенство (rU 0 + Г(5, s)-2r(s, t)y/2^F(t)-F(s). Если гауссовский процесс X(t) является локальным мартингалом, то X(t) - квадратично интегрируемый мартингал, a(t) = EX(0), X(t) - процесс с независимыми приращениями, T(s, t) = E(X(s) - Х(0))2лЕ(Х(О - Х(0))2, непрерывный локальный мартингал Xе и чисто разрывный локальный мартингал л , участвующие в разложении X(t) = = Х(0) + Xc(t) + X (О, вместе с Х(0) образуют гауссовскую систему. При этом Xd(t)=jQIH(s)dX(s), где H = {t>0: EX2(0-Hm EX2(s)>0}. Триплет Т = (В, С, v) предсказх^е- stt мых характеристик гауссовского мартингала Х(0, отвечающий его канонич. семимартингальному представлению, обладает следующими свойствами: Я, =0, С, =(Е(Х(О-Х(0))2)с, vc(ll?+xll?\{0}) = 0> f eihcv({t},dx)-- ■ exp f-^-[EX2(0-limEX2(s) I 2 L sb Xelf?, teH. Всякий локальный мартингал X(t) с триплетом предсказуемых характеристик Т=(В, С, v) является гауссовским процессом, если триплет Г - детерминированный, В = 0, vc(IR+xlR|{0}) = 0, и при А, е В? elhcv({t},dx) = Jfl?\{0} = /(v(Wfl?\{0})>0)exp^J|? x2v({t},dx) ■»R\{0} В этом случае X(t) - гауссовский процесс с независимыми приращениями, Е(ЖО-ХЫ) =0, ЕШО-XW)2 =С, -С, +1s<u<t^{o)XM{u},dx), s<t.
Лит.: [t] Strieker С, «Z. Wahr. und verw. Geb.», 1983, Bd 64, S. 303-12; [2] Липцср Р.Ш., Ширяев А. Н., Теория мартингалов, М., 1986. Р. Ш. Липцер. ГАУССОВСКИЙ СЛУЧАЙНЫЙ ЭЛЕМЕНТ (Gaussian ran dom element) - случайный элемент со значениями в действительном банаховом или общем локально выпуклом топологическом векторном пространстве U, распределение к-рого есть гауссовская мера в U. Другими словами, случайный элемент X называется гауссовским, если для каждого линейного непрерывного функционала и* е U* случайная величина и*(Х) имеет гауссовское распределение в И? . Если U - полное сепарабельное метризуемое пространство, то гауссовость случайного элемента вытекает из гауссовости случайных величин и*(Х) для всех линейных непрерывных функционалов из нек-рого разделяющего векторного подпространства в (У*. Отсюда, в частности, следует, что выборочно непрерывный гауссовский случайный процесс Xt, £е[0, 1], порождает гауссовский случайный элемент в банаховом пространстве С[0, 1] непрерывных функций на [0, 1]. Г. с. э. можно определить и в более общей ситуации, без предположения наличия топологии в U (см. [1]). Пусть U - произвольное действительное векторное пространство и Зв - нек-рая а-алгебра, относительное к-рой измеримы векторные операции в U. Пусть далее X - случайный элемент в измеримом пространстве (U, 33), то есть X - отображение Q в U, измеримое относительно а-алгебры 33 и нек-рой заданной а-алгебры Л в абстрактном множестве Q. Случайный элемент X называется гауссовским, если для нек-рой пары (Xt, Х2) независимых случайных элементов Xi и Х2 со значениями в (U, 33), каждый из к-рых имеет такое же распределение, как X, случайные элементы (Xl+X2)/>l2, (Хх-Х2)/<2 также независимы и также имеют распределение, совпадающее с распределением X. Если U - сепарабельное метризуемое пространство с борелевской а-алгеброй, то такое определение совпадает с приведенным выше обычным распределением. Если Х- Г. с. э. в измеримом пространстве (U, 33) и р - .й-измеримая полунорма в U, то Еехр{ар (Х)}<°<> для нек-рого положительного числа а. Лит.: [1] Ферник К., в кн.: Математика. Новое в зарубежной науке, т. 10, М., 1978, с. 63-132; [2] Вахания Н.Н., Тариела- дзе В. И., Чобанян С. А., Вероятностные распределения в банаховых пространствах, М., 1985. НИ. Вахания. ГАУССОВСКОЕ РАСПРЕДЕЛЕНИЕ (Gaussian distribution) - см. Гаусса - Лапласа распределение, Нормальное распределение. ГАУССОВСКОЕ РАСПРЕДЕЛЕНИЕ на локально компактной абелевой группе (Gaussian distribution on a locally compact Abelian group) - распределение у на группе G, удовлетворяющее следующим условиям: 1) у- безгранично делимое распределение; 2) если y=e(F)*v, где e(F) - обобщенное распределение Пуассона, ассоциированное с мерой F, a v - безгранично делимое распределение, то мера F вырождена в нуле. Для группы G = IR" это определение совпадает с классическим. Носитель гауссовского распределения у - класс смежности нек-рой связной подгруппы группы G. Распределение у на группе G является гауссовским тогда и только тогда, когда его характеристич. функция представима в виде y(g) = (g, #)exp{-<p(#)}, С) где (g,g) - значение характера g на элементе g,q>(g) - непрерывная неотрицательная функция на G (G - группа характеров группы G), удовлетворяющая уравнению <p(g\+g2) + Г. р. у называется симметричным Г. р., если в (*) д = 0. Пусть T(G) - множество Г. р. на группе G, ГЧО - множество симметричных Г. р. на G. Распределение уе Y^iG) является непрерывным гомоморфным образом Г. р. в векторном пространстве (конечномерном IR" или бесконечномерном IR°° - пространстве всех последовательностей с топологией покоординатной сходимости) (см. [2]). Если распределение у вкладывается в непрерывную одно- параметрич. полугруппу yt, t>0, распределений на G, то уеГХО тогда и только тогда, когда для любой окрестности нуля U группы G (см. [4]). Пусть G- связная группа, уеГХО. Если группа G не локально связна, то у сингулярно (относительно меры Хаара mG) (см. [2]). Если G локально связна и имеет конечную размерность, то у либо абсолютно непрерывно, либо сингулярно. Вопрос о справедливости аналогичного утверждения на локально связных группах бесконечной размерности открыт, хотя на таких группах можно построить как абсолютно непрерывные, так и сингулярные Г. р. На связных группах конечной размерности справедлива альтернатива, имеющая место для Г. р. в векторном пространстве - любые два Г. р. либо взаимно абсолютно непрерывны, либо взаимно сингулярны (см. [2]). Лит.: [1] Партасарати К. Р., Ранга Рао Р., Варад- хан С. Р. С, «Математика», 1965, т. 9, X? 2, с. 115-46; [21 Фельдман Г. М., «Теория вероятп. и ее иримен.», 1978, т. 23, в. 3, с. 549-69; [31 его же, Арифметика вероятностных распределений и характеризациониые задачи на абелевых группах, К., 1990; [41 Forst G., «Math. Scand.», 1974, v. 34, p. 211-18. Г. М. Фельдман. ГАУССОВСКОЕ СЛУЧАЙНОЕ МНОЖЕСТВО (Gaussian random set) - замкнутое случайное множество А в банаховом пространстве S, обладающее свойствами: 1) его реализации выпуклы с вероятностью 1; 2) функция f(x) = sup x(y), где уеА х - линейный ограниченный функционал на S, \\х\\ = 1, определенная на единичной сфере сопряженного к S пространства S , является гауссовской случайной функцией. Лит.: [11 Ляшенко Н. Н., «Зап. науч. семин. Ленингр. отдел. Матем. ин-та АН СССР», 1980, т. 98, с. 115-39. А. Г. Катранов. ГАУССОВСКОЕ СОСТОЯНИЕ (Gaussian state) - см. Кван товая теория проверки гипотез и оценивания. ГЕЙЗЕНБЕРГА МОДЕЛЬ (Heisenberg model) - решетчатая модель статистической механики, в к-рой пространство состояний {xs}, (пространство значений X) является единичной сферой 5 с В? , а потенциал U имеет вид UA(xA)-- -hxt, A = {t), -Ixsxt, A = {s,t}, \s-t\ = \,s,t € ] 0 для остальных А. В трехмерной Г. м. (на решетке Ж ) при магнитном поле h = 0 и при / > 0 (ферромагнитная модель) происходит фазовый переход, состоящий в наличии при больших значениях параметра обратной температуры Р целого континуума Гиббса распределений. Г. м. называется также XYZ-м о д е лью. Случай X = S cz II? называется ХУ-моделью. Трехмерная ХУ-модель имеет аналогичную структуру распределений Гиббса. На решетке Ж ситуация иная: в двумерной ХУ-модели происходит так наз. ГАУССОВСКОЕ 137
фазовый переход Березинского-Костерлица-Таулесса, состоящий в том, что, несмотря на единственность распределения Гиббса при всех р, скорость убывания корреляций меняется от экспоненциальной при малых р до степенной при больших р. Аналогичный вопрос для двумерной Г. м. остается открытым. Лит.: [1] Frohlich J., Simon В., Spencer Т., «Comm. Math. Phys.», 1976, v. 50, № 1, p. 79-85; [2] Bricmont J., Fontaine J., Landau L.J., там же, 1977, v. 56, № 3, p. 281-96; [3) Frohlich J., Spencer Т., там же, 1981, v. 81, № 4, p. 527-602. С. Б. Шлосман. ГЕЛЬДЕРА НЕРАВЕНСТВО (Holder's inequality) - одно из неравенств для моментов случайных величин. Из предложенного О. Гельдером [1] более общего неравенства вытекает следующий результат: если X и У - случайные величины, г>1, l/r+l/s=l, то Е|ХУ|^(Е|ХГ)1/Г(Е|У|5)1/5. Следствием Г. н. является Буняковского неравенство: Е|ХУк(ЕХ2)1/2(ЕУ2)1/2. Лит.: [1] Holder О., «Nachr. Ges. Wiss. Gott.», 1889, № 2, S. 38-47; [2] Л оэв М., Теория вероятностей, пер. с англ.., М., 1962. В. В. Петров. ГЕЛЬФАНДА ИНТЕГРАЛ (Gelfand integral) - одно из обобщений интеграла Лебега на функции со значениями в банаховом пространстве В. Пусть Ш, 35, \i) - пространство с мерой, где 35 - а-алгебра, a \i - а-конечная мера на 35. И пусть X - отображение из С1 в В такое, что для всякого х* из сопряженного к В пространства В* числовая функция х*(Х) измерима и интегрируема по Лебегу. Тогда существует элемент х** из второго сопряженного к X пространства такой, что x**(x*)=jQx*(x)d\L, для всех #*еХ*. Элемент х** и называется интегралом Гельфан да. Г. и. совпадает с Петтиса интегралом, если последний существует. Лит.: [1] ГельфандИ. М., «Зап. Hayково-досл. шст. ма- тем. и мех. Харк. держ. ушв. та Харк. матем. тов.», 1936, т. 13, в. 1, с. 35-40; [21 ХиллеЭ., ФиллипсР., Функциональный анализ и полугруппы, пер. с англ., 2 изд., М., 1962. В. В. Сазонов. ГЕНЕРАЛЬНАЯ СОВОКУПНОСТЬ (general population) - совокупность объектов, обладающих признаками (качественными или количественными), распределение к-рых в данной Г. с. изучается статистическими методами на основании случайной выборки из нее. Выражение «выборка из (бесконечной) Г. с. с функцией распределения F» употребляется как наглядный образ, обозначающий совокупность независимых случайных величин, имеющих общую функцию распределения F. См. Выборочный метод. Д. М. Чибисов. ГЕНЕРАТОР корреляционного окна (lag window generator) - см. Корреляционное окно. ГЕНЕРАТОР процесса (generator of a process) - то же, что производящий оператор; см. Инфинитезимальный оператор. ГЕНЕРАЦИЯ ЗВУКА ТУРБУЛЕНТНОСТЬЮ (sound generation by turbulence/turbulent sound generation) - процесс генерации звуковых волн за счет нелинейных взаимодействий турбулентных пульсаций скорости самих с собой. Лит.: [1] Математическая физика. Энциклопедия, М., 1998, с. 126. А. М. Яглом. ГЕОМЕТРИЗАЦИЯ СТАТИСТИЧЕСКОЙ ТЕОРИИ (geometrization of the statistical theory) - направление, изучающее основные структуры математической статистики как геометрические объекты. Распределения вероятностей Р(-) 138 ГЕЛЬДЕРА играет роль точек. Каждое семейство {Ре, бе 0} таких распределений [на одной и той же алгебре событий ^пространства Q. исходов (элементарных событий) со] определяет геометрич. фигуру. В частности, семейства распределений вероятностей, гладко зависящих от скалярного или векторного параметра в, трактуются как гладкие линии, поверхности и т. п. Отображения фигур (может быть, необратимые) задаются статистич. решающими правилами П:Р()->J Р(б/со)П(со, •), образующими категорию статистич. решающих правил. Два семейства {Р%\ в е 0}, i = 1, 2, заданные, вообще говоря, на разных Ф , d ), но запараметризованные одним и тем же параметром в е 0, называются конгруэнтными, если существуют такие два решающих правила П12 и П21, что Р^1)П12 = Р^2), Р^2) П21 = Р^ для любого в g 0. Конгруэнтность совпадает со статистич. эквивалентностью соответствующих статистич. моделей. В частности, простейшая в классе конгруэнтных моделей приводит к достаточной статистике семейства. Возникает также понятие инварианта семейства - величины, совпадающей у конгруэнтных семейств. Особенно интересны диффе- ренциально-геометрич. инварианты. Напр., существует единственная с точностью до постоянного множителя инвариантная дифференциальная квадратичная форма. Она определяется информационной матрицей Фишера и возникает в неравенствах Крамера - Рао, ограничивающих снизу точность несмещенных оценок параметра. Она задает также инвариантную информационную риманову метрику. Существует целое семейство инвариантных связностей, в наиболее интересной из них (не римановой!) геодезич. линиями и вполне геоде- зич. поверхностями являются экспоненциальные семейства распределений. В теории последних большую роль играет относительная энтропия (уклонение Кульбака - Лейблера - Санова) - несимметричный аналог половины квадрата расстояния, для к-рого выполнен несимметричный вариант теоремы Пифагора. Лит.: [1] ЧенцовН.Н., Статистические решающие правила и оптимальные выводы, М., 1972; [2] CencovN.N., «Oper. Forsch. Statist.», Ser. Statist., 1978, v. 9, № 2, p. 267-76; [31 Amari Shun- Ichi, «Lect. Notes in Statist.», 1985, v. 28; [41 Geometrization of statistical theory, Lancaster, 1987. Ю. В. Прохоров, Н. Н. Ченцов. ГЕОМЕТРИЧЕСКИ ЭРГОДИЧЕСКАЯ ЦЕПЬ МАРКОВА (geometrically ergodic Markov chain) - см. Эргодическая цепь Маркова. ГЕОМЕТРИЧЕСКИЕ ВЕРОЯТНОСТИ (geometric probability) - раздел теории вероятностей, изучающий свойства случайных фигур и их случайных расположений. Первые задачи по Г. в. решались уже в 18 в. (см. Бюффона задача). Для математиков 19 в. было характерно стремление задавать распределение случайных фигур, основываясь на равномерном распределении и независимости определяющих фигуру параметров. Однако в силу произвола в выборе параметров это не обеспечивало задание распределения случайной фигуры единственным образом. Это обстоятельство ясно проявилось в Бертрана парадоксах. Ставилась задача нахождения вероятности Р события Л, состоящего в том, что длина «случайной хорды» круга единичного радиуса больше VT, то есть больше стороны вписанного равностороннего треугольника. Ж. Бертран (J. Bertrand) предложил следующие три описания случайной хорды. 1) На окружность независимо бросаются две точки В и С с равномерным распределением каждая. Рассматривается хорда ВС. Тогда Р(Л) = 1/3.
2) Основание перпендикуляра, опущенного из центра круга на хорду, имеет равномерное распределение внутри круга. Тогда Р(Л) = 1/4. 3) Расстояние от центра круга до хорды имеет равномерное распределение на [0, 1). Направление хорды независимо и имеет равномерное распределение на [0,2л). Тогда Р(Л) = 1/2. Если условиться задавать хорду ее расстоянием р от центра круга и углом <р, к-рый хорда составляет с заданным направлением, то определение смысла слов «случайная хорда» эквивалентно заданию совместного распределения для р и ф. В приведенных примерах соответствующие дифференциалы распре деле ний имеют вид: 1) ^jg_; 2) k"VM>: 3) {2n)-xdpd^ 2л2 VI-/?2 Вопрос о «естественном» определении случайной хорды был решен А. Пуанкаре (Н. Poincare). Он предложил определить распределение случайной хорды как нормированное сужение на множество хорд меры в пространстве прямых, инвариантной относительно группы евклидовых движений (такая мера единственна; см. Интегральная геометрия). Такому выбору соответствует пример 3). Аналогичным сужением инвариантных мер на множества с конечной мерой можно строить распределение случайных фигур и в других пространствах (см., напр., Случайное сечение многогранника). А. Реньи |6] указал систему аксиом, приводящую к построению вероятностных мер описанным методом сужения меры. В Г. в. большое значение имеют также меры, к-рые требованием инвариантности относительно группы преобразований определяются лишь частично (см. Интегральная геометрия). Развитие комбинаторных подходов в интегральной геометрии позволяет получать результаты, не зависящие от требований инвариантности мер. Г. в. принадлежит также способ построения вероятностных мер, к-рый, исходя из заданной меры, основывается на надлежащей ее факторизации. В частности, этим способом получаются распределения случайных шейпов. К Г. в. относятся также задачи нахождения распределений «типичных» конфигураций в геометрических процессах. Вычисление вероятностей конкретных событий сводится к подсчету (многомерных) интегралов по соответствующим мерам и их произведениям. При этом область интегрирования может оказаться чрезвычайно сложной. Сюда попадают все- нозможные задачи о покрытиях, упаковках, взаимном расположении фигур, задачи математической стереологии о сечении тел прямыми и плоскостями. Лит.: [1] Ке>ндаллМ., Моран П., Геометрические вероятности, пер. с англ., М., 1972; [2) Сантал о Л., Интегральная геометрия и геометрические вероятности, пер. с англ., М., 1983; [3] Bad- deleyA., «Adv. Appl. Probab.», 1977, v. 9, p. 824-60; [4) Little D., там же, 1974, v. 6, p. 103-30; [5] Geometrical probability and biological structures, B. - [a. o], 1978; [6] Renyi A., Wahrschein- lichkeitsrechnung, 2 Aufl., В., 1966. P. В. Амбарцумян. ГЕОМЕТРИЧЕСКИЙ ПРОЦЕСС (geometric process) - случайный точечный процесс в нек-ром пространстве £ геометрических фигур. Фигуры лежат в так наз. основном пространстве U и обычно зависят от конечного числа параметров. Примеры пространств/: d-мерные плоскости в И?", шары в И?", многогранники в И?", круги на сфере и т. д. Реализациями Г. п. являются конечные или счетные совокупности фигур в U. Часто рассматривают Т.п., инвариантные относительно групп преобразований основного пространства U. Г. п. с ГУ = 11?", инвариантный относительно группы параллельных сдвигов пространства И?", называется однородным (стационарным), а инвариантный относительно группы евклидовых движений - однородны м и изотропным. Наиболее известны пуассоновскиеГ. п., к-рым соответствуют пуассоновские точечные процессы в J, при этом последние требуют задания так наз. управляющей меры \i на J. Пуассоновский процесс прямых на плоскости однороден и изотропен тогда и только тогда, когда его управляющая мера пропорциональна инвариантной мере прямых (см. Интегральная геометрия), при этом коэффициент пропорциональности X называется интенсивностью процесса прямых. В этом случае число прямых, пересекающих выпуклую область периметра Н, имеет распределение Пуассона с параметром к~ ХН. Пуассоновский процесс шаров в II?" однороден и изотропен тогда и только тогда, когда его управляющая мера (X на /= И?" х [0, оо) имеет вид \1 - XL х т, где L - мера Лебега на II?", X - интенсивность процесса центров, т - вероятностная мера на [0, °°), называемая распределением «типичного» диаметра. Пуассоновские процессы служат основой для построения других Г. п. Так, если каждой точке х реализации пуассонов- ского точечного процесса в И?" сопоставить выпуклый многогранник, состоящий из тех точек И?", для к-рых х есть ближайшая точка реализации, то получится Г. п. многогранников - так наз. случайная мозаика Вороного. Если пуассоновский точечный процесс однороден (изотропен), то таким же свойством обладает соответствующая мозаика Вороного. Рассматриваются также дважды стохастич. пуассоновские процессы (процессы Кокса)- пуассоновские Т.п., управляющие меры к-рых являются случайными мерами на^. Важными характеристиками Г. п. являются их моментные меры. Пусть N(B) есть число точек процесса, попадающих в подмножество Bag. Моментной мерой fc-го порядка называется мера Ak(B^ x ... х Bk) = E[N(B^)...N(Bk)] для любых непересекающихся Вх, ..., BkaJ. Первая моментная мера пуассоновского Г. п. совпадает с его управляющей мерой. Пространство фигур в С/= 11?" часто полезно представить в виде произведения В? х Ф пространства положений II? на пространство Ф размеров, ориентации и шейпов. Напр., треугольник на плоскости определяется заданием положения его центра тяжести, величины площади, ориентации и шейпа (внутренних углов). Следовательно, пространство треугольников можно представить в виде /= II? х [0, <*>) х [0, 2я) х Q, где £1 - двумерное пространство шейпов треугольника. Другой пример: пространство прямых, не параллельных оси Ох, есть произведение пространства И?1 точек пересечения прямых с осью на пространство [0, я) направлений. Если при этом проекция Г. п. на пространство положений II? есть точечный процесс, то Г. и. можно интерпретировать как маркированный точечный процесс в II? с марками из Ф (в приведенных примерах марками являются площадь, ориентация и шейп треугольников и направления прямых). Для однородных маркированных точечных процессов в II? первая моментная мера представима в виде произведения мер Aj = L х ХР, где L - мера Лебега в II? , X - интенсивность Г. п., Р - вероятностная мера в пространстве марок; Р называется распределением «типичной» марки. Представляя Г. п. как маркированный точечный процесс, с помощью понятия «типичной» марки приходят к понятию «типичного» элемента Г. п. (положение «типичного» элемента не определено). Для однородных Г. п. прямых распределение Р направления «типичной» прямой называется розой направления (см. Интенсивности роза). В ряде случаев пространство фигур является группой, и тогда Г. п. - случайный точечный процесс на группе, а для последних определены так наз. распределения Пальма. Напр., пространство отрезков единичной длины на плоскости пред- ГЕОМЕТРИЧЕСКИЙ 139
ставимо как группа евклидовых движении плоскости; пространство треугольников единичной площади с занумерованными вершинами представимо как группа сохраняющих площадь аффинных преобразований плоскости. Имеются уравнения (см. [1], [2]), связывающие распределения Пальма однородных и изотропных Г. п., прямых отрезков и кругов с безусловными распределениями. Г. п. конечной интенсивности в И?п часто получают, рассматривая конечные подмножества других Г. п. Примеры. 1) Пусть щ - случайная реализация пуассо- новского точечного процесса на плоскости. Тройки точек из со1 образуют Г. п. ^ треугольников; ^ имеет бесконечную интенсивность. Для получения Г. п. конечной интенсивности к процессу ^ применяют процедуры прореживания. Если провести прореживание «по периметру» (напр., оставить лишь те треугольники из ^, периметр к-рых меньше заданного числа), то распределение шейпа «типичного» треугольника полученного Г. п. совпадает с распределением шейпа из примера 1) в ст. Случайный шейп. Прореживания же «по площади» (напр., оставить только те треугольники, внутрь к-рых попадают k точек из cot) приводят к Г. п. бесконечной интенсивности, и нужны дополнительные ограничения на шейп (треугольники не должны быть слишком «узкими»). После этого распределение «типичного» шейпа задается нормированным сужением меры из примера 2) в ст. Случайный шейп (см. также [3]). 2) Пусть щ ~ случайная реализация пуассоновского процесса прямых на плоскости. Тройки прямых из со2 образуют Г. п. ^2 треугольников бесконечной интенсивности. Если ограничиться треугольниками, к-рые пересекаются с k прямыми из со2, то распределение шейпа «типичного» треугольника прореженного Г. п. совпадает с распределением шейпа из примера 3) в ст. Случайный шейп. Лит.: [1] Комбинаторные принципы в стохастической геометрии, Ер., 1980; [2] Сукиасян Г. С, «Докл. АН Арм. ССР», 1980, т. 70, № 5, с. 297-300; [3] Stochastic geometry. Geometric statistics. Stereo- logy, Lpz., 1984; [4] Am барцумя н Р. В., Мекке Й., Ш той ян Д., Введение в стохастическую геометрию, М., 1989. р. С. Сукиасян. ГЕОМЕТРИЧЕСКОЕ РАСПРЕДЕЛЕНИЕ (geometric distribution) - дискретное распределение вероятностей случайной величины X, принимающей целочисленные значения т = 0, 1, 2, ... с вероятностями (см. рис.) Рт=Р{Х = т) = р(\-РГ, где 0</?<1. Математич. ожидание и дисперсия равны соответственно (\-р)/р и (\-р)/р2\ асимметрия yt = (2 -p)/Vl - р, эксцесс у2 = 6 + р2/( 1 -р). Характеристич. функция f(t)=p/[\ - (1 -p)elt]. Своим названием Г. р. обязано тому, что вероятности рт убывают в геометрич. прогрессии. Г. р. является'частным случаем отрицательного биномиального распределения и возникает как распределение числа испытаний в схеме Бернулли, предшествующих первому успеху, если вероятность успеха в каждом испытании равна р. 0.Н JUll In L I, 0123456789 Геометрическое распределение при /? = 0,2 и /? = 0,5. 140 ГЕОМЕТРИЧЕСКОЕ Г. р. обладает свойством отсутствия последействия: если случайная величина X имеет Г. р., то для любых целых тип условное распределение Р{Х^т + п\Х^т} = Р{Х^п}. Это свойство позволяет говорить о Г. р. как о дискретном аналоге показательного распределения и объясняет важность Г. р. Лит.: [1] Феллер В., Введение в теорию вероятностей и ее приложения, пер. с англ., т. 1, М., 1984. В. Г. Ушаков. ГЕОСТРОФИЧЕСКАЯ ТУРБУЛЕНТНОСТЬ (geostrophic turbulence) - статистический ансамбль вихрей и волн Росс- би - Блиновой (в земной атмосфере, Мировом океане, верхних слоях больших планет и Солнца) синоптических масштабов L^>H (Я- толщина слоя), в к-рых горизонтальный градиент давления приблизительно уравновешивается силой Кориолиса, так что негидростатическая часть давления равна р'« р/\|/, где \|/ - горизонтальная функция тока, f - параметр Кориолиса, р - плотность. Г. т. описывается уравнением сохранения потенциального вихря А\у + f (А - аналог трехмерного лапласиана). А. С. Мопин. ГЕОФИЗИЧЕСКАЯ ТУРБУЛЕНТНОСТЬ (geophysical turbulence) - турбулентность в природных течениях в земной атмосфере, Мировом океане, морях, реках, озерах и т.д., а при иногда практикуемом (и в случае Г. т. оправданном) расширительном применении термина «геофизическая» (в смысле «космофизическая») - также и на других планетах, в атмосфере и недрах Солнца, других звезд, космических газовых облаках и даже в течениях звезд в галактиках и галактик в Метагалактике, если их идеализировать как жидкости со своеобразными дальними (гравитационными) взаимодействиями между «частицами». А. С. Мопин. ГЕТЕРОСКЕДАСТИЧЕСКАЯ РЕГРЕССИЯ (heteroscedastic regression) - регрессионный эксперимент с некоррелированными ошибками, дисперсии к-рых различны. М. Б. Малютов. ГИББСА КОНЕЧНОЕ СОСТОЯНИЕ (Gibbs finite state) - см. Некоммутативная теория вероятностей. ГИББСА ПЛОТНОСТЬ (Gibbs density) - см. Гиббса случайное поле. ГИББСА ПОСТУЛАТ (Gibbs postulate) - см. Статистическая механика. ГИББСА ПРЕДЕЛЬНОЕ СОСТОЯНИЕ (Gibbs limit state) - см. Некоммутативная теория вероятностей. ГИББСА РАСПРЕДЕЛЕНИЕ (Gibbs distribution) - распределение вероятностей, используемое в статистической механике для описания статистики конфигураций системы частиц в термодинамическом равновесии, а также в теории случайных полей. В случае непрерывной системы из N частиц в области («сосуде») Л в rf-мерном евклидовом пространстве 1^ Г. р. задается совместной плотностью распределения N случайных величин Xt, ..., XN вида рк(хх, ..., xN) = exp{-H(xv ..., xN)}/ZNA, (l) где H(xv ..., xN) - симметричная вещественная функция от ^ %еЛи %ы,\ ~ нормирующий множитель, выбранный так, чтобы интеграл от /?Л равнялся 1, и называется статистической суммой. В таком виде может быть задана любая плотность, так что это определение содержательно лишь при дополнительных ограничениях на функцию Я, задающую в физич. приложениях потенциальную энергию системы. Часто предполагают, что Н задан парным трансля- ционно инвариантным изотропным потенциалом Ф(г), хе [0, оо), в виде 2 H(xv...,xN) = \\0(\xi-xj\). (2)
Иногда рассматривают также Н с дополнительными граничными условиями, имеющими в случае парного потенциала вид ж*, *„) = !Х^.ф(к- -*У|>+Х,^), о) где U(x)} х е Л, - функция, определяющая в физич. приложениях потенциальную энергию, задаваемую частицами, расположенными вне сосуда Л. Обычно предполагают, что U(x) -> 0 при dist (x, Ае) -> 0. Часто рассматриваются и обобщения на случай непарного (многочастичного) потенциала U={U(A)}, когда Удобна и несколько иная точка зрения, при к-рой вектору (*,, ..., xN)eA с несовпадающими компонентами сопоставляется N-точечное подмножество {х^, ..., xN}eA и рассматривается вероятностная мера на пространстве подмножеств, индуцируемая этим отображением. Это означает, что Г. р. трактуется как распределение точечного случайного поля, сосредоточенного на подмножествах сосуда Л. Физически это соответствует представлению о неразличимости частиц. Ожидается, что при термодинамич. предельном переходе, когда число частиц N —>°° вместе с объемом |л| области Л, но так, что плотность р = Л/"/1Л| = const, Г. р. точечного поля в Л будет сходиться в смысле слабой сходимости к распределению вероятностей точечного Гиббса случайного поля с потенциалом С/ц, получающимся из первоначального потенциала введением дополнительного химич. потенциала \i. Значение |i выбирается из условия равенства средней плотности частиц в предельном поле Гиббса константе р. Это утверждение доказано при нек-рых условиях на потенциал в предположении, что плотность р достаточно мала, так что соответствующее поле Гиббса единственным образом задается потенциалом U^. В области фазовых переходов аналогичное утверждение остается пока что лишь правдоподобной гипотезой. Часто рассматриваются Г. р. неразличимых частиц со случайным числом частиц в сосуде Л. При этом предполагается, что вероятность pN наличия в сосуде N частиц равна Pn=£^Tzna[L°°n=o£WZ^) • (4) а при условии, что число частиц N фиксировано, условное распределение для их положений имеет описанное выше Г. р. для системы из N частиц. Известно, что при термодинамич. предельном переходе при N-><» и фиксированном \i это Г. р. асимптотически в смысле слабой сходимости сближается с классом распределений точечных полей Гиббса с потенциалом (/„. В физич. литературе Г. р. со случайным числом частиц называется большим каноническим ансамблем (или Г. р. в большом канонич. ансамбле), а распределение с фиксированным числом частиц - малым каноническим ансамблем (или Г. р. в малом канонич. ансамбле). Рассматривают также Г. р. с фиксированными значениями числа частиц N и энергии Н. Оно определяется как индуцированное распределением с плотностью (1) условное распределение при условии, что фиксировано значение Н(хх, ..., xN) = H. Здесь при термодинамич. предельном переходе при | Л | -> оо считаются фиксированными как плотность частиц р = М/|л|, так и удельная энергия е = Н/\\\, а предельное распределение оказывается распределением случайного поля Гиббса с потенциалом C/„q и соответствующим образом выбранными значениями химич. потенциала \i и обратной температуры р. В физич. литературе Г. р. с фиксированными р и е называется микроканоническим (или Г. р. в микроканонич. ансамбле). Другой часто рассматриваемый случай - это соответствующее решетчатым моделям Г. р. с дискретным параметром t e Т. В случае потенциала U = {UA(xA)} АаТ} Г. р. в конечном сосуде Лс Т со значениями в пространстве с мерой (X, 35, тп) определяется плотностью (по произведению |л| экземпляров меры |i) вида p^(xt, tGA)-exp(-H(xt, teA))/Z^, где ЯЛ(*„ *€Л) = 5^сА UA(xt,teA) и ZA - нормирующий множитель, называемый статистич. суммой. В термодинамич. пределе при |л| ->°° это Г. р. асимптотически сближается с классом распределений случайных полей Гиббса с потенциалом U. Такое Г. р. является аналогом Г. р. точечного поля Гиббса в большом канонич. ансамбле. В случае потенциала С/ц а решетчатого газа естественным образом вводятся также распределения в малом канонич. и микроканонич. ансамблях. Лит.: [1] Рюэль Д., Статистическая механика. Строгие результаты, пер. с англ., М., 1971; [2] Dobrush in R. L., TirozziB., «Comm. Math. Phys», 1977, v. 54, № 2, p. 173-92; [3] Ellis R., Entropy. Large deviations and statistical mechanics, N.Y., 1985; [4] Georgii H.-Q., Canonical Gibbs measures, B.-N. Y., 1979. P. Л. Добрушин. ГИББСА СЛУЧАЙНОЕ ПОЛЕ (Gibbs random field) - случайное поле, задаваемое условными переходными вероятностями специального вида. Г. с. п. с дискретным аргументом, соответствующее решетчатым моделям статистич. механики, определяется следующей конструкцией. Пусть Т - конечное или счетное множество и (X, &, ?п) - измеримое пространство с а-конечной мерой тп. Потенциал поля Гиббса U = {UA, АаТ, \А | < о©} определяется как система измеримых функций UA от хА е X со значениями в IP U {<*>}, сопоставляемых всем конечным множествам АаТ (через |Л| обозначена мощность А). При любом конечном АаТ и х е Хт задается условный гамильтониан "<*л1^ = Хлсгмпл,0,И|<~1М*л>. (О где хА - сужение на А реализации х. Далее вводится статистич. сумма <*г\л > = \хк ехР ЬЯ<*л1*7Лл »™л (<dx^ >. О) где шл - прямое произведение |л| экземпляров меры тп. Наконец, вводятся плотности вероятностей по мере тЛ: !*ха\хт\а > = ехР ЬН(*л|*г\л W/z<*r\A )• О) Эти плотности определены для тех #Л, хТ\А, для к-рых ряд (1) и интеграл (2) абсолютно сходятся, а знаменатель в (3) не обращается в нуль. Такую плотность называют плотностью Гиббса в объеме Л с граничным условием ^\л- Система случайных величин {Xt, teT} называется случайным полем Гиббса, если при любом конечном АаТ условное распределение для ХЛ = (Х(0, teA) при заданном значении величины ХТ\А = {(X(t), te T\A} задается плотностью Гиббса (3) по мере тЛ. Это предложение называется ДЛР-условием. При этом часто говорят, что это Г. с. п. задается формальным гамильтонианом В случае конечного Л данное определение сводится к определению Гиббса распределения. Часто рассматривают случай, ГИББСА 141
когда Т = Ж есть d-мерная целочисленная решетка и X - конечное множество, причем в качестве m берется считающая мера. В случае когда X = {-1, 1}, T = Id, потенциал трансляци- онно инвариантен и UA*0 лишь при A = {t} и A = {s, t}, где |s-H = l, говорят об Изинга модели. В случае Т-Ж на потенциал часто накладывается естественно вводимое условие трансляционной инвариантности. Широкий круг приложений понятия Г. с. п. как в статистич. механике, так и в иных областях приложений оправдывается теоремой Аверинцева - Спитцера, утверждающей, что случайное поле будет полем Гиббса с нек-рым потенциалом, если наложить лишь довольно слабое предположение общего характера на условные плотности р(х^\*7Лл)- ^ак» в слУчае конечного X марковское случайное поле будет полем Гиббса с потенциалом, обращающимся в нуль на множествах достаточно большого диаметра, если все эти условия плотности не обращаются в нуль. Примером Г. с. п. на одномерной решетке Ж является цепь Маркова. Здесь £/{tf t-\)(xt> xt~\) = ~lnPt(xt\xt~0> гДе Pt(xt\xt-\) ~ ee переходные вероятности и UA = 0 при A*{t, t- 1}. Любое гауссовское случайное поле является полем Гиббса с квадратичным потенциалом, заданным при Т = Ж , X = И? формальным гамильтонианом вида где Uste№ таковы, что Другой важный класс - точечные случайные поля Гиббса. Здесь потенциал задается как функция U = {U(А)}, где А пробегает всевозможные конечные подмножества в евклидовом пространстве II? . Условный гамильтониан реализации х, являющийся локально конечным подмножеством в II? , задается как где Л с: IP - измеримое множество конечной меры Лебега и хА = хПА. Наконец, статистич. сумма, плотности Гиббса и само понятие Г. с. п. вводятся так же, как в дискретном случае, но с тем существенным отличием, что теперь Цд - распределение вероятностей пуассоновского точечного случайного поля в Л с плотностью 1. Далее для определенности говорится в основном лишь о случайных полях на решетке TL с конечным пространством X и UA(xA)*oo. Общая теория полей с произвольным пространством X и теория точечных случайных полей аналогичны теории решетчатых полей с конечным X, хотя здесь и требуется введение многих дополнительных условий и оговорок. Пусть потенциал U трансляционно инвариантен и Хл:0ел supxJt/(^)|<~. (5) yd Тогда совокупность S(U) всех вероятностных мер на X , задающих Г. с. п. с данным потенциалом U, образует непустое замкнутое (в топологии слабой сходимости) выпуклое множество. Его крайние точки выделяются тем, что они являются регулярными случайными полями. Класс вероятностных мер, задающих регулярные Г. с. п. с потенциалом U, совпадает с классом всех пределов при п -> °° (в нек-ром естественном смысле) распределений Гиббса с плотностью вида (3) в растущих объемах Vx cz V2a ..., 11пУп = Ж для нек-рой последовательности граничных условий x-g\v » я= 1, 2, ... 142 ГИББСА Основной математич. задачей теории Г. с. п. является описание совокупности S( U) и свойств входящих в нее случайных полей в зависимости от свойств потенциала U. Она далека от полного решения. Несмотря на многочисленные усилия, явное аналитич. описание конечномерных распределений Г. с. п. через потенциал удалось дать лишь в нек-рых исключительных случаях, напр. двумерная модель Изинга, гауссовское поле. Поэтому на первый план выходят задачи качественного характера, напр. задача выделения класса потенциалов U, для к-рых S(U) состоит из одной точки. В одномерном случае d = 1 для единственности Г. с. п. с данным потенциалом достаточно выполнения условия Хл:0вЛ (diam Л) SUP^ I Ш*Л }| < ~- (6> В классе потенциалов, для к-рых выполнено условие (5), но не выполнено условие (6), возникают разнообразные возможности, как бы имитирующие то, что типично для многомерного случая. Один из наиболее удобных критериев единственности (для произвольной размерности d) состоит в следующем требовании (см. [1J, [2]): sup У а_,< 1. (7; Здесь при s, teld, s*t, aStt = sup var (g{t} (• |x^^ ), q{s} (• l^x{s} »• где var (•, •) - расстояние по вариации и верхняя грань берется по всем парам граничных условий х, х', отличающихся лишь в точке s. Наглядно это условие выделяет класс Г. с. п., достаточно близких к полю с независимыми компонентами. Для класса потенциалов поля Гиббса вида Ua = {$U}, зависящего от обратной температуры р, этот критерий выполнен для всех достаточно малых р. Для класса потенциалов поля Гиббса 11^, зависящих от вектора |i химич. потенциалов, критерий единственности выполняется, если все значения [ix принимают достаточно большие по модулю отрицательные значения, что соответствует предположению о том, что газ разрежен и имеет достаточно малую плотность. В области единственности Г. с. п. обладает многими естественными с точки зрения теории вероятностей свойствами. Так, из выполнения условий (5) и (7) вытекает следующее свойство перемешивания: для любого конечного множества Vcz Ж lim sup var (P^(• \xw ),Pv ) = 0, (8) dist(V,W)->oo XW где Pv - распределение сужения поля на V, а Ру(|^И/) - условное распределение этого сужения при заданном значении его сужения на множество ]¥аЖ W. Если дополнительно предположить, что sup^ |Сг(*д)| убывает экспоненциально быстро при diam A -> <», то сходимость к нулю в (8) будет экспоненциально быстрой и для поля будет верна центральная предельная теорема. Аналогично обстоит дело и для одномерных полей с потенциалом, удовлетворяющим условию (6). При отказе от введенных выше предположений Г. с. п. с данным потенциалом может оказаться неединственным и структура множества S(U) (то есть фазовая диаграмма) существенно зависит от размерности d и таких параметров, как (X и р. Она достаточно полно изучена лишь для отдельных частных моделей (напр., для модели Изинга). Такое изучение составляет предмет теории фазовых переходов. Один из немногих случаев, когда структура гиббсовских состояний поддается явному описанию, - квадратичный гамильтониан вида (4). При дополнительном условии строгой
положительной определенности, а именно: для любых конечного Vald uxte№, teV, У и^хх^сУ Jxt)2, (9) где с>0, существует единственное Г. с. п., если априори ограничиться классом полей с равномерно по tel ограниченным абсолютным первым моментом. Это поле является стационарным гауссовским полем со средним 0. Без этого ограничения Г. с. п. бесконечно много. При отказе от условия (9) положение резко меняется. Так, для гамильтониана вида ^s,tsld:\s-t\ = \(X^~Xt)2 Г. с. п. не существует, если размерность d=\, 2. При d = 3, кроме единственного гауссовского стационарного поля с нулевым средним, полем Гиббса с этим потенциалом оказываются и поля, получающиеся из предыдущего добавлением любой константы. Лит.: [1] Добрушин Р.Л., «Теория вероятн. и ее примен.», 1968, т. 13, в. 2, с. 201-29; 1970, т. 15, в. 3, с. 469-97; [2] его же, «Функц. анализ и его прилож.», 1968, т. 2, в. 4, с. 31-43; [3] Малышев В. А., М и н л о с Р. А., Гиббсовские случайные поля. Метод кластерных разложений, М., 1985; [4) Престон К., Гиббсовские состояния на счетных множествах, пер. с англ., М., 1977; [5) Синай Я. Г., Теория фазовых переходов, М., 1980; [6) Dobrusin R. L., Gaussian random Fields Gibbsian point of view, в кн.: Multicomponent random systems, N. Y. - Basel, 1980, p. 119-59; [7] Preston Ch., Random Fields, В., 1976; [8] Ruelle D., Thermodynamic formalism, Reading (Mass.), 1978. P. Л. Добрушин. ГИББСА ЯВЛЕНИЕ (Gibbs phenomenon) - особенность поведения частных сумм (или средних) рядов Фурье. Пусть частные суммы snix) ряда Фурье функции fix) сходятся к f(x) в нек-рой окрестности {х:0< \х-х0\ <h) точки х0, в к-рой a = fixQ-0) ^fix0 + 0) = b. В точке х0 имеет место Г. я. для snix), если А < а ^ Ъ < В, где А= lim snix), В = lim snix). Я—►«, П->°° *-м:0-0 дг-кг0+0 Г. я. возникает при спектральном анализе временных рядов из-за конечности выборки, к-рая равносильна умножению наблюдений на прямоугольное окно данных. При нахождении оценки спектральной плотности с использованием преобразования Фурье вследствие Г. я. возникает смещение. Если выборка предварительно сглажена с помощью подходящего окна данных (такое сглаживание эквивалентно использованию соответствующего спектрального окна в частотной области), смещение уменьшится. Лит.: [1] Ульянов П.Л., Математическая энциклопедия, т. 1, М., 1977, с. 958; [2] Отиес Р., Эноксон Л., Прикладной анализ временных рядов, пер. с англ., М., 1982. Ю. Г. Баласанов. ГИДРОДИНАМИКИ УРАВНЕНИЯ (hydrodynamics equa- tions) - система уравнений Навье - Стокса, описывающая течение вязкой несжимаемой жидкости. Статистическое решение Г. у. - это вероятностная мера, сосредоточенная на решениях системы Навье - Стокса, имеющей вид du(t, x)/dt + Y?.^ ddu/dx^vAu + Vpit, x)+fit, x), divu = 0, где м=(м\ и , и) - скорость, p - давление, f - плотность внешних сил, v>0- коэффициент вязкости, QcP?3- область, заполненная жидкостью. На границе д£1 этой области обычно задаются условия прилипания: uit, x) = 0 при x = ix , х , x)edQ, а при £ = 0- начальное условие: и (0, х) = и0(х). Пусть uQix) = uQix, со) - случайное векторное поле с распределением вероятностей \i, a uit, x, со) - решение указанной задачи. Тогда мера Р, задающая распределение вероятностей для и it, x, со), называется статистическим решением, отвечающим начальной мере \i. М. И. Вишик, А. В. Фурсиков. ГИДРОДИНАМИЧЕСКИЙ ПРЕДЕЛ (hydrodynamical limit) - см. Гидродинамический предельный переход. ГИДРОДИНАМИЧЕСКИЙ ПРЕДЕЛЬНЫЙ ПЕРЕХОД (hidrodynamical limit approach/propagation of chaos) - предельный переход, употребляемый для приближенного описания временной эволюции средних характеристик распределения вероятностей, индуцируемого динамической системой статистической механики или марковским процессом с взаимодействием. В пределе возникают дифференциальные или ин- тегро-дифференциальные уравнения, называемые гидродинамическими уравнениями. Впервые Г. п. п. был введен в работе [4], посвященной попытке вывода гидродина- мич. уравнения Эйлера, однако математически удовлетворительные результаты достигнуты к настоящему времени лишь для нек-рых явно решаемых и потому «вырожденных» моделей таких, как, напр., система одномерных упруго отражающихся при столкновении твердых стержней или процесса с запретами. В последнем случае гидродинамич. уравнением оказывается уравнение Бюргерса. Математич. определение Г. п. п. довольно громоздко, и здесь приводится лишь основная его идея. Вводится параметр £->0, имеющий смысл отношения типичных микро- и макромасштабов. Рассматривается семейство распределений вероятностей Pq для случайного поля в начальный момент £ = 0, причем Pq П( луча тся растяжением по пространству в е-1 раз фиксированного распределения Р0. Таким образом, состояния Pq являются (при естественных ограничениях типа непрерывности на Р0) «почти трансляционно инвариантными» в микромасштабе, но Moi-ут существенно меняться при макромасштаб- ных сдвигах. Далее рассматривается эволюция с начальным условием Pq и через Р* обозначается состояние в момент времени е~xt (через макровремя). В случае когда существует предел Р^ для Pf при е->0, он и называется гидродинамическим пределом. Лит.: [1] Добрушин Р.Л., Синай Я.Г., Сухов Ю.М., в кн.: Итоги науки и техники. Современные проблемы математики. Фундаментальные направления, т. 2, М., 1985, с. 235-84; [2] Bold- righiniC, DobrushinR. L., SuhovYu. M., «J. Stat. Phys.», 1983, v. 31, p. 577-615; [3] Nonequilibrium phenomena II. From stochas- tics to hydrodynamics, Amst. - N. Y., 1984, p. 123-294; [4] Mor- rey C, «Comm. Pure Appl. Math>, 1955, v. 8, p. 279-326; [5] Spohn H., «Rev. Modern Phys.», 1980, v. 52, p. 569-615; [6] Sznitman A.-S., «Probab. Theory and Related Fields», 1986, v. 71, p. 581-613. p. Л. Добрушин. ГИДРОДИНАМИЧЕСКОЕ УРАВНЕНИЕ (hydrodynamical equation) - см. Гидродинамический предельный переход. ГИДРОМАГНИТНАЯ ТУРБУЛЕНТНОСТЬ (hydromagne tic turbulence), магнитогидродинамическая турбулентность, - совокупность случайных взаимодействующих магнитных и гидродинамических полей электропроводящей жидкости. Г. т. возбуждается и поддерживается в космич. условиях (ядра планет, межпланетная среда, конвективные зоны звезд, газовые диски в двойных звездных системах и галактиках), а также в нек-рых современных крупных технич. установках, напр. в жидкометаллич. теплоносителе ядерных реакторов-размножителей. Общей теории Г. т. пока не существует ввиду математич. трудностей, стоящих при рассмотрении полной системы уравнений магнитной гидродинамики. Известен целый ряд частных, приближенных и модельных решений, а также результаты физич. экспериментов и космич. наблюдений. В одном предельном случае, когда можно пренебречь влиянием гидродинамич. движений на (сильное) магнитное поле, Г. т. превра- ГИББСА 143
щается в гидродинамич. турбулентность проводящей жидкости в заданном магнитном поле. В другом предельном случае, когда пренебрегают воздействием магнитного поля на движения, дело сводится к изучению поведения магнитного поля при заданном турбулентном течении (задача гидромагнитного динамо). Оба предельных случая хорошо изучены. Лит.: [1] Математическая физика. Энциклопедия, М., 1998, с. 136. А. А. Рузмайкин. ГИЛЬБЕРТА ПРЕОБРАЗОВАНИЕ (Hilbert transformation) - см. Случайный процесс, пересечения. ГИЛЬБЕРТОВА СЛУЧАЙНАЯ ФУНКЦИЯ (Hilbert ran dom function) - см. Случайная функция. ГИПЕРГЕОМЕТРИЧЕСКОЕ РАСПРЕДЕЛЕНИЕ (hyper geometric distribution) - дискретное распределение вероятностей случайной величины X, принимающей целочисленные значения ш = 0, 1, 2, ..., п с вероятностями (см. рис.) pm = P{X = m} = C^C^nM/C"N, (*) где М, Nun- целые неотрицательные числа и М^N, n^N. Г. р. обычно связано с выбором без возвращения, а именно, Ld Lb«J JL_ и 1 BJ Ljl_ ■" ■" ■ -" " " 23456 789 10 Гипергеометрическое распределение при N = 50, п = 10, М = 10 и М = 25. формула (*) указывает вероятность получения ровно т «отмеченных» элементов в случайной выборке объема п из генеральной совокупности, содержащей N элементов, среди к-рых М «отмеченных» и N - М «неотмеченных». При этом вероятность (*) определена лишь для max (0, М+п-N)^m^min(n, М). Однако определение (*) можно использовать при всех w^O, если считать, что Са=0 при Ь>а, поэтому равенство рт = 0 нужно понимать как невозможность получить в выборке т «отмеченных» элементов. Сумма значений рт, распространенная на все выборочное пространство, равна 1. Если обозначить M/N = p, то (*) можно переписать в иной форме: „ _ гчп дт дп-т I дп где Aa = Cab\, p + q=\. Если р постоянно и iV->«>, то имеет место биномиальное приближение Рт*СпР Я Математич. ожидание Г. р. не зависит от N и совпадает с математич. ожиданием \1 = пр соответствующего биномиального распределения. Дисперсия Г. р. а = npq + (N-n)/(N-\) не превосходит дисперсии биномиального распределения npq. При N->°° моменты любого порядка Г. р. стремятся к соответствующим значениям моментов биномиального распределения. Распределение (x-\i)/<3 сходится к стандартному нормальному распределению тогда и только тогда, когда ц->оо при N->°°. Хорошее приближение дает аппроксимация Бол ьшева P°~eX^-3(2N-D-»J- 144 ГИПЕРГЕОМЕТРИЧЕСКОЕ Производящая функция Г. р. имеет вид p(z) = AN-Af у" AMAN zl_ AN AN-M-n+j h Ряд в правой части представляет собой гипергеометрич. функцию F(a, р, у, г), где а =-я, Р = -М, y=N -M-п+ 1 (откуда и название). Г. р. является основным в задачах выборочного статистич. обследования и статистич. приемочного контроля. Вероятность (*) и соответствующая функция распределения табулированы в широких пределах. Лит.:[\\ LiebermanG., О w en D., Tables of the hypergeometric probability distribution, Stanford, 1961; [2) Оуэн Д. Б., Сборник статистических таблиц. Обработка таблиц, пер. с англ., М., 1966; [3] Большее Л.Н., Смирнов Н.В., Таблицы математической статистики, 3 изд., М., 1983. а. В. Прохоров. ГИПЕРГРЕКО-ЛАТИНСКИЙ КВАДРАТ (hyper Greek Latin square) - см. Ортогональные квадраты. ГИПЕРГРЕКО-ЛАТИНСКИЙ КУБ (hyper Greek Latin cube) - см. Ортогональные кубы. ГИПЕРГРУППА (hypergroup) - локально компактное хаус- дорфово пространство К такое, что существует непрерывное отображение (х, у)\->ЬхоЬу из КхК в В(К) - пространство вероятностных мер на К, снабженное слабой топологией. При этом имеют место следующие свойства: 1) Ъхо(ЪуоЪг) = (ЪхоЪу)оЪ2 для всех х, у, zeK (здесь <)д.- мера, сосредоточенная в точке х е К); 2) для всех х, уеК множество supp (ЬхоЬ ) компактно; 3) существует гомоморфизм х—>х из К в К такой, что х~ = х и (6го8у)~ = Ьу-ОЬх_ при всех х, у, еК, 4) существует элемент ееК такой, что ЬеоЬх = ЬхоЬе = Ьх при всех х еК; 5) для любых х, уеК соотношение ее supp (ЬхоЬ ) эквивалентно тому, что х = у~; 6) отображение (х, у) -> supp (bxob ) из К*К в пространство R(K) замкнутых подмножеств К, наделенное топологией Майкла, непрерывно. Если ЬхоЬ = ЬуоЬх при всех х, уеК, то К называется коммутативной гипергруппой; при наличии только свойств 1)-4) - слабой гипергруппой. Приведенные требования следуют аксиоматике гипергрупп, данной в [1], к-рая является наиболее употребимой при изучении вероятностей на Г. (см. также [2]). Классич. пример Г. - пространство двойных классов смежности локально компактной группы по ее компактной подгруппе. Для коммутативных Г. установлены различные варианты теорем непрерывности характеристич. преобразования. В качестве двойственного объекта здесь вводятся Г. относительно поточечного умножения. Такие Г., обладающие аналогом свойства двойственности Понтрягина, называются сильными гипергруппами (см. обзоры [4], [5]). Для безгранично делимых мер в Г. поточечного умножения получен .аналог представления Леви - Хинчина. Примеры подобных Г. доставляют полиномиальные Г., возникающие при разложениях функций по ортогональным системам полиномов. Предельные законы для нарастающих композиций мер изучаются в различных конкретных случаях для коммутативных и некоммутативных Г. (см. обзор [6]). Лит.: [1] Jewett R.I., «Adv. Math.», 1975, v. 18, № l, p. 1-101; [2] Spector R., «Lect. Notes in Math>, 1975, v. 497, p. 643-73; [31 Delsarte J., «C. r. Acad. sci. Paris», 1938, t. 206, p. 178-82; [4] Литвинов Г. Л., в кн.: Итоги науки и техники. Современные проблемы математики. Новейшие достижения, т. 26, М., 1985, с. 57- 106; [5] Вайнерман Л. И., в кн.: Итоги науки и техники. Математический анализ, т. 24, М., 1986, с. 165-205; [6] Heyer H., «Lect. Notes in Math.», 1984, v. 1064, p. 481-550. в.Э. Волькович.
ГИСТОГРАММА (histogram) - один из видов графического представления экспериментальных данных. Г. строят следующим образом. Весь диапазон наблюденных значений Xj, ..., Хп нек-рой абсолютно непрерывной случайной величины X разбивают на к интервалов группировки (обычно равных) точками хх, ..., xk+]; определяют абсолютную частоту т{. i=\, ..., к, равную числу наблюдений на интервале [х{, xi+l), или относительную частоту Л, = (тг/и)100%. На оси абсцисс отмечают точки x]t ..., xk+i и строят прямоугольники, основаниями к-рых служат отрезки [xit ..., #1+1], г=1, ..., k, с высотами, равными mj(xi+x- х{) или hj/(xi+\ - x{), так что площадь прямоугольника равна абсолютной либо относительной частоте - в этом наглядность представления данных посредством Г. В случае равных интервалов [xit xl+\) высоты прямоугольников принимаются равными либо w,, либо /г,. Выбор числа интервалов разбиения зависит от неизвестного закона распределения случайной величины X и объема выборки, поэтому нет универсальных рекомендаций по определению этого числа. Чаще всего на практике используется формула Стерд- жеса: /г* 1 +\og2n. Пусть, напр., измерение диаметра стволов 1000 елей дало результаты: диаметр, см число стволов (абсолютная частота) 22-27 100 27-32 130 32-37 400 37-42 170 42-47 100 47-52 100 Г. для этого примера изображена на рисунке. * 4001- и I о о 300 h- § 20oU s I tr I 100U 22 27 32 37 42 47 52 диаметр в см Гистограмма распределения диаметров стволов 1000 елей, сгруппированных в 6 интервалов; длина интервала группировки 5 см. Аналогично можно строить Г. и для векторных случайных величин. Для дискретной случайной величины понятие Г. не имеет смысла. Г. является одним из способов непараметрич. оценивания плотности распределения абсолютно непрерывных случайных величин. Это - исторически первый и универсальный способ оценивания плотности. Однако метод Г. имеет невысокую точность: уклонение Г. (относительных частот) ограниченной случайной величины от графика плотности в метрике L , когда эта плотность имеет ограниченную вторую производную, в лучшем случае имеет по вероятности порядок п~ ' и достигается при числе интервалов группировки k~n ' , а уклонение Г. векторной w-мерной случайной величины имеет по вероятности порядок и-1/ и достигается при k~nm/ (см. [1]). Доверительные области для гладкого графика плотности в метрике С были построены в [2]. Для негладких графиков в [3] установлена сходимость в метрике L1. В настоящее время Г. (как оценка плотности) вытесняется более точными методами оценивания (напр., оценками ядерного типа Парзена - Розенблатта, проекционными оценками Н. Н. Ченцова). Лит.: [1] ЧенцовН.Н., Статистические решающие правила и оптимальные выводы, М., 1972; [2] Смирнов Н.В., Теория вероятностей и математическая статистика. Избранные труды, М., 1970; [3] Abou Jaoude S., «Ann. Inst. H. Poincare. В.», 1976, v. 12, p. 213-31. B.H. Чугуева. ГЛАВНЫЙ ДВОЙНИК (principal alias) - см. Наложение частот. ГЛАВНЫХ КОМПОНЕНТ АНАЛИЗ (principal component analysis), метод главных компонент,- 1) Г. к. а. (статистический подход) - метод нахождения линейного ортогонального преобразования U случайного я-мерного вектора х в ^-мерный вектор v=U x такого, что достигается min (max) нек-рого критерия, обеспечивающего наилучшее представление х через v. Критерии: а) УР а (г;,)-> max для р=\, р = 2 и т.д., то есть *-ij=\ J {J r r а (vi) -> max, а (vn) -> max и v-)±v* и т. д.; б) llDGf-a)! -> min, где D(x-v) - дисперсионная матрица случайного вектора х - v и || D \\ - евклидова норма D(x-v). Эти критерии эквивалентны относительно получаемого с их помощью решения, к-рое сводится к нахождению собственных значений и собственных векторов матрицы ковариаций Z вектора х: ||Z-X£||C/ = 0 при условии U U = E, где Е - единичная матрица соответствующей размерности. При этом o(vj) = Xj. Для выборки объема N оценки максимального правдоподобия А,- и О,- для X.- и U. ищутся по матрице ковариаций 5=(N-1)"1XTX, где X - выборочная усредненная матрица размера N*n. С точки зрения этого подхода Г. к. а. обычно рассматривается как один из методов факторного анализа. 2) Г. к. а. (геометрический подход) - метод нахождения такого ортогонального подпространства размерности р, чтобы в проекции на него системы N точек из я-мерного пространства (п>р) искажения их конфигураций были минимальны. Критерий: ||Q-e||-> min, где Q = XXT, Q=VVT, X- матрица центрированных координат данной системы точек в я-мерном пространстве, V-XUy llQ-вЦ - евклидова норма матрицы Q - в и U - ортонормированная матрица, столбцы к-рой щ, ..., ир являются собственными векторами матрицы ХТХ, отличающейся от S только множителем (N - I)"1. Оптимальные геометрич. свойства Г. к. а. используют для визуального изучения структуры выборки (см. [2]). 3) Г. к. а. (для зависимой последовательности наблюдений) - метод для наилучшего (в смысле среднеквадратичной ошибки восстановления) линейного разложения случайной функции fix) по системе ортонормированных координатных функций ф.(^) со случайными весами v.-. Соответствующая теория известна под названием «разложение на естественные ортогональные составляющие» (см. [3]) и «разложение Кару- нена - Лоэва». Впервые Г. к. а. был разработан К. Пирсоном в геометрич. интерпретации (см. [4]); Г. Хотеллинг дал статистич. теорию Г. к. а. (см. [5]). Лит.: [I] Rao С. R., «Sankhya, ser. A», 1964, v. 26, p. 329-58; [21 Gower J. С, «Biometrika», 1966, v. 53, № 3/4, p. 325-38; [3] Обухов A.M., «Изв. АН СССР. Сер. геофиз.», 1960, № 3, с. 432-39; [41 Pearson К., «Philos. Mag.», 1901, v. 2, p. 559-72; ГЛАВНЫХ 145
[5] Hotel ling H., «J. Educ. Psych.», 1933, v. 24, p. 498-520; [6] Jol 1 iffe I.T., Principal Component Analysis, 1986; [7] Андру- кович П.Ф., в кн.: Многомерный статистический анализ в социально-экономических исследованиях, М., 1974, с. 189-228; [8] Okamo- to M., в кн.: Proceed, of the Second Intern. Symp. of Mult. Analysis, N.Y.-L., 1969, p. 673-85; [9] Anderson T. W., «Ann. Math. Stat.», 1963, v. 34, № 1, p. 122-48. П. Ф. Андрукович. ГЛАВНЫХ КОМПОНЕНТ МЕТОД (principal component method) - см. Главных компонент анализ. Т-ГЛАДКАЯ МЕРА (x-smooth measure) - борелевская мера \i в топологическом пространстве X, обладающая следующим свойством: для каждой возрастающей обобщенной последовательности (U^\eA открытых множеств из X справедливо соотношение \i(\JXeAU^) = \im ii(Uy). Каждая борелевская мера в топологии, пространстве со счетной базой (в частности, в сепарабельном метрич. пространстве) т-гладкая. Каждая х-гладкая конечная мера в регулярном топологич. пространстве является регулярной мерой. Если X - метрич. пространство, то мера \i будет х-гладкой тогда и только тогда, когда существует носитель меры \1. Лит.: 11] Вахания Н.Н., Тариеладзе В.И., Чобанян С.А., Вероятностные распределения в банаховых пространствах, М., 1985; [2] Варадарайн B.C., «Матем. сб.», 1961, т. 55, в. 1, с. 35-100. Я. Н. Вахания. ГЛИВЕНКО ТЕОРЕМА (Glivenko theorem) - теорема о равномерной сходимости с вероятностью 1 эмпирических функций распределения Fn к теоретической функции распределения F (при я->°°) в случае непрерывности последней (см. [1]). Важным дополнением к этой теореме стали Колмогорова критерий (см. [2]) (в нек-ром смысле его можно рассматривать как уточнение результата В. И. Гливенко) и его аналог, полученный Н. В. Смирновым (см. [3]). Теорема находит важные применения в математич. статистике. Лит.: [1] Glivenko V. I., «Giorn. ist. ital. attuari», 1933, v. 4, p. 1-10; [2] Kolmogoroff A.N., там же, р. 83-91 (рус. пер.- Колмогоров А. Н., Теория вероятностей и математическая статистика, М., 1986, с. 134-41); [3J Смирнов Н. В., «Успехи матем. наук», 1944, т. 10, с. 179-206. В. М. Золотарев. ГЛИВЕНКО - КАНТЕЛЛИ ТЕОРЕМА (Glivenko - Cantelli theorem) - см. Эмпирическое распределение, Больших чисел закон в банаховых пространствах. ГЛИСОНА ТЕОРЕМА (Gleason theorem) - теорема некоммутативной теории вероятностей, дающая эффективное описание всех вероятностных (или, более общо, конечных) мер на множестве всех ортопроекторов сепарабельного гильбертова пространства размерности не ниже трех (см. [1]). Пусть Я?Ш) - множество всех ортопроекторов в пространстве Н и т: Ф(Н) -> [0, 1] - вероятностная мера, то есть функция со свойствами: 1) т(1) = 1, где / - тождественный оператор, 2) ro(P) = X,J=i m(Pj), еслиР = Х°°=1Р;> pipj = °> «W» Р, Р;еЯ?(Н). Тогда при (ИтЯ^З существует и определен однозначно неотрицательный ядерный оператор Г в Я с единичным следом, trT= 1, такой, что m(P) = tr(TP), Ре&(Н). Из Г. т. следует положительное решение так наз. проблемы линейности, поставленной в [2], о продолжении вероятностных мер на ортопроекторах алгебры Неймана до состояния, то есть положительного линейного функционала нормы 1, для алгебры всех ограниченных операторов в сепарабельном гильбертовом пространстве размерности > 3. Полное решение проблемы линейности получено в нач. 80-х гг.; сложное в технич. отношении, оно существенно опирается на Г. т. Показано, что проблема положительно решается для алгебр Неймана, не содержащих в качестве прямого слагаемого алгебры типа 12. 146 ГЛАВНЫХ Это позволяет в указанных алгебрах строить исчисление вероятностей (или некоммутативную теорию интегрирования) относительно мер на ортопроекторах. Имеется обширная литература, посвященная развитию и обобщению Г. т. в различных аспектах (заряды, векторнозначные и неограниченные меры и т.п.) и ее применению в математич. формализме квантовой механики. Лит.: [1] Gleason A., «J. math. Mech.», 1957, № 6, p. 885-93; [2] Mac key G., «Amer. Math. Monthly», 1957, № 8, p. 45-57; [3] Макки Дж., Лекции по математическим основам квантовой механики, пер. с англ., М., 1965; [4] Шерстнев А. Н., «Изв. вузов. Математика», 1982, М> 8, с. 20-35. А. Н. Шерстнев. ГЛОБАЛЬНЫЕ ПРЕДЕЛЬНЫЕ ТЕОРЕМЫ (global limit theorems) - предельные теоремы, устанавливающие условия, при к-рых имеют место соотношения вида Л <P<Fn<*> ~ FM)q(x)dx -* 0 при я->°°, где Fn(x) - последовательность функций распределения, сходящаяся к F(x), a <p(#) и q(x) - неотрицательные функции. Детально исследована глобальная форма центральной предельной теоремы для сумм независимых случайных величин (см. [1]-[4]), соответствующая случаю, когда F(x) есть нормальная функция распределения, Fn(x) - функция распределения нормированной суммы независимых случайных величин, <р(*) = \х\р, р>0, q(x) = 1. Лит.: [1] Agnew R. P., «Proc. Nat. Acad. Sci. U.S.A.», 1954, v. 40, № 9, p. 800-04; [2] Esseen C.-G, «Trans. Roy. Inst. Technol. Stockh.», 1958, № 121, p. 1-31; [3] Петров В. В., Суммы независимых случайных величин, М., 1972; [4] Круглое В. М., «Зап. науч. сем. ЛОМИ», 1976, т. 61, с. 84-101. В. В. Петров. ГНЕДЕНКО ТЕОРЕМА (Gnedenko theorem) - критерий сходимости, один из основных результатов классической теории предельных теорем. Г. т. содержит необходимые и достаточные условия сходимости распределений сумм независимых случайных величин, подчиненных условию бесконечной малости (модель Колмогорова), к фиксированному безгранично делимому закону. Оригинальную формулировку Г. т. можно найти, напр., в [1], а также в несколько измененной форме в ст. Предельные теоремы. См. также Больших чисел закон. Лит.: [1] Гнеденко Б. В., Колмогоров А. Н., Предельные распределения для сумм независимых случайных величин, М. - Л., 1949. В. М. Золотарев. ГНЕЗДОВАЯ ЕДИНИЦА (unit) - см. Выборочное статистическое обследование. ГОЛОСОВАНИЯ ПРОЦЕСС (voting process) - см. Марковский процесс с взаимодействием. ГОМОСКЕДАСТИЧЕСКАЯ РЕГРЕССИЯ (homoscedastic regression) - регрессионный эксперимент с некоррелированными ошибками, дисперсии к-рых совпадают. М.Б. Малютов. ГОРИЗОНТ модели (horizon of a model) - см. Управляемый случайный процесс с дискретным временем. ГОТОВНОСТИ КОЭФФИЦИЕНТ (instanteneous availability index) - см. Надежности системы показатели. . ГРАМА - ШАРЛЬЕ РЯД (Gram - Charlier series) - формальный ряд, определяемый выражением SA(x) = ФЫ + XL -J- <pa)W, х efl?1, (1) или SB(*) = na*) + X:=|£^, , = 0,U (2) где ф(*) = * е-*2/2, П(Х,х) = ^е-Х. Ряд (1) называется р я д о м Грама-Шарлье типа Л. Конечными суммами первых членов ряда SA(x) можно аппрок-
симировать плотность р(х) случайной величины X. При такой аппроксимации + ak=(-\)kf_~Hk(x)p(x)dx, где Hk(x) = (-\)k ex/2 (e~x/i)(k) - многочлены Эрмита. В частности, если ц • = ЕХ1 и \х.х = 0, a \i2 = 1, то Если /?(*) имеет ограниченную вариацию и j*~e*2/ipMdx <oot ioSA(x) = p(x) в каждой точке непрерывности р(х) (см. [3]). Ряд (2) называется рядом Грама-Шарлье типа В. Конечными суммами первых членов ряда SB(x) можно аппроксимировать вероятности рх = Р{Х = х}, х = 0, 1,2, ..., $У°_П рх = 1, дискретной случайной величины X. Формулы для вычисления коэффициентов bk имеют вид где Gfe(k, *) = £ /па,л). Если Й1 = ^» Р; = E(j:-^);, to fet=0, 62 = Р2~^» ^3 = = Рз"ЗР2 + 2Х. Г.-Ш.р. были предложены Дж. Грамом [1] и К. Шарлье [2] для аппроксимации биномиального закона распределения. Поскольку частные суммы Г.-Ш.р. могут вести себя нерегулярно, напр. сумма первых k членов ряда (1) может давать худшую аппроксимацию, чем сумма (k- 1) членов, аппроксимация Г.-Ш. р. не всегда целесообразна. В нек-ром смысле обобщением Г.-Ш. р. типа А является Эджуорта - Крамера разложение. Лит.: [11 Gram J. P., «J. reine und angew. Math.», 1883, Bd 94, S. 41-73; [2) Charlier С V.L., «Arkiv. Mat. Astr. Fys.», 1913/1914, Bd 9, № 25, S. 1-17; [31 КендаллМ.Дж., Стюарт А., Теория распределений, пер. с англ., М., 1966; [41 Крамер Г., Математические методы статистики, пер. с англ., 2 изд., М., 1975. В. А. Ватутин. ГРАНИЦА-ВХОД (entrance boundary) -см. Мартина граница. ГРАНИЦА-ВЫХОД (exit boundary) - см. Мартина граница. ГРАНИЧНЫЕ ЗАДАЧИ для случайных блужданий (boundary valued problems for random walks) - задачи, связанные с изучением распределений граничных функционалов. Характер Г. з. определяется типом случайного блуждания (размерность, дискретность или непрерывность времени, условия на распределение скачков и их зависимость и т.д.) и видом рассматриваемых граничных функционалов. Примерами Г. з. являются разорения задача и баллотировки задача. Пусть 50, 5t, ... - одномерное случайное блуждание, порожденное суммированием независимых одинаково распределенных случайных величин Xt, X2> ... К основным Г. з. для случайных блужданий вида (*) относятся задачи о распределениях sup Sk> времени первого выхода из полосы, величин эксцессов и дефектов и т.д. Методы решений Г. з. для случайных блужданий характеризуются разнообразием подходов. Прежде всего следует отметить случай, когда возможно отыскание явных формул для искомых распределений. Пусть Xj в (*) целочисленны. Случайное блуждание 0, 5t, S2> ... называется непрерывным сверху (снизу), если lL~P(Ar>=fe>=1-p<x/=1>>0' (ХГ=-,Р<Х;=*> = 1' Р<*/=-!>><>)• Непрерывные сверху (снизу) случайные блуждания занимают особое место в Г. з. в связи с их многочисленными приложениями и возможностью находить для них в явном виде распределения большинства основных функционалов, связанных с выходом траектории случайного блуждания за одностороннюю или двустороннюю прямолинейные границы (см. [1], [2], [4], [5]). Примером может служить задача о максимальном расхождении двух эмпирич. функций распределения Fn(x) и Gn(x), построенных по выборкам одного и того же объема п из непрерывного распределения F. Если обозначить D+(n) = sup (Fn(x)-Gn(x)), D(n) = sup \Fn(x)-Gn(x)\, X X расположить обе выборки по возрастанию в один ряд 2j < 22 < • • • < Z2n И ПОЛОЖИТЬ! X:- 1, когда Z: принадлежит первой выборке, Х=-1 в противном случае, то P{nD4n)<z) = Р{ max Sk <z/S2n = 0} = 1 -С£'/С2"я , P{nD(n)<z} = P{ max \Sk\<z/S2n = 0} = 0^k^2n yl"/*] (4)k rn-kz lcn _ r-i Асимптотич. анализ этих выражений позволяет, в частности, получить теорему Смирнова: при z >0 ► 1-е" p{^D4n)<z} kn-2k2z2 Эти результаты используют при построении критерия Колмогорова - Смирнова однородности двух выборок. К рассмотренному примеру можно добавить задачу об исследовании статистики Колмогорова: Установлено, что Dn = sup\Fn(x)-F(x)\ п\еп P{nD <с} = Р{ max \Sk <c, Sn =0}-^-, с = 1,.... л, где 1.-1 P{Xy=*-l} = -L, k = 0,1 lim. P{yfnDn<z} = K(z). Точные выражения для распределения Dn весьма громоздки, однако они с успехом могут быть использованы для детального исследования асимптотики распределения (см. [4]). Характеристич. особенностью непрерывных сверху случайных блужданий является тот факт, что если Sn^x>0 (x - целое), то обязательно найдется k^n такое, что Sk = x. Если Xk - целочисленные одинаково распределенные случайные величины, то условие Р{Х^2} = 0 является необходимым и достаточным для того, чтобы nP{Y(x) = n} = xP{Sn = x}, x>\, Y(x) = min{k:Sk^x}. Кроме того, Е{гУ(д:); Y(x) <oo}-px(z) при х^О, где p(z) является единственным в области |/?|^1 корнем уравнения zEp"xi = l, Ul^l. Если распределение случайных величин Хх произвольно, то наиболее эффективным и универсальным методом решения Г. з. являются факторизационные тождества. ГРАНИЧНЫЕ 147
В решении Г. з. важное место отводится изучению асимпто- тич. свойств распределений. Наряду с упоминавшимся анализом явных выражений для искомых распределений здесь существует и ряд других подходов. Аналитически решение Г. з., как правило, приводит к интегрально-разностным уравнениям. Напр., вероятность ип(х, я, Ь) того, что частица, вышедшая из точки хе (-я, Ь), покинет за время п интервал (-д, Ь), удовлетворяет уравнению eb - х ип+х(ху я, W = J ип(х + у, a, b)dF(y) + + \-F(b-x)+F(-a-x), где Fix) = P{Xt < х} (ф о р м у л а полной вероятности по первому скачку). На этом пути был осуществлен асимптотич. анализ одной из наиболее естественных Г. з. - задачи Колмогорова- Петровского, связанной с выходом траектории {Sn} за пределы полосы, ограниченной нек-рыми кривыми. Пусть функции д (О и g~(t), заданные на полупрямой [0, <*>), таковы, что <7~(0)<0<<7+(0), g~(t)<g+(t), и пусть Sn(t) = -Sk/^fn при te[k/n, (k+\)/n], fc = 0, 1, ... Во избежание несущественных осложнений ограничиваются рассмотрением значений случайной функции Sn(t) лишь в точках вида k/n. Временем первого прохождения границы^ (О называется величина У+ = min {k/n: Sn(k/n) = Sk/<n ^ g+(k/n)}. Если Sn(k/n)<g (k/n) при всех k, то полагают Y+ = <». Аналогично определяется Y_ = min {k/n:Sn(k/n)^g~(k/n)}. Случайная величина Y = min{Y_, Y+} называется временем первого выхода траектории Sn(t) из полосы, заключенной между кривыми gHt). Если через G обозначить множество всех функций на отрезке [0, 1], лежащих между гладкими кривыми gHt), а под Sn(t) понимать траекторию Sn(t) на отрезке [0, 1], то P{Sn( )*G} = P{Y^1}. Предельное распределение граничных функционалов в рассмотренной задаче впервые весьма полно было изучено А. Н. Колмогоровым (1931, 1933) и И. Г. Петровским (1934). Оказалось, что lim P{5„() e G} описывается решением урав- нения теплопроводности с соответствующими начальными и граничными условиями, заданными на границе G (см. [6]). Аналогичные утверждения справедливы для вероятностей Р{У>1, Sn(\)<z}, P{Y=Y±}. Это соответствует сходимости Р {Sn( •) е G} -> P{w( ) е G} для стандартного винеровского процесса w(t). В этой задаче известны оценки скорости сходимости. Пусть Е|Х1|3 = с3<оо, |0±(*+ Л)-0±(О| <Kh, Л>0, Дя^>= \P{g~(k/n)<Sk/<h~ <g4k/n), X^k^nT}- -P{g~(t)<w(t)<g+(t)t 0^t^T}\. Тогда справедливы неравенства (см. [7], [8]) An(\)^L](K+ l) Сз/V^T, Ап(оо) ^L2Kc3/^ (Lt, L2 - абсолютные постоянные). Если перейти в (2) к производящим функциям u(z, х, а, Ь) = \°° л гпиЛх, а, Ь), то получатся обычные интегральные уравнения. Один из подходов к исследованию асимптотич. свойств решений этих 148 ГРАНИЧНЫЙ уравнений связан с привлечением методов Вишика и Люстер- ника решения уравнений с малым параметром (см. [4]). На этом пути обнаруживаются глубокие связи рассматриваемых задач с теорией потенциала. Другой подход основан на изучении аналитич. свойств двойных преобразований распределений с последующим их обращением (см. [3], [9]). Отправным пунктом здесь являются те или иные факторизационные тождества. Анализ аналитич. структуры компонент факторизации дает возможность обращать двойные преобразования по одной из переменных, связанной с положением блуждающей частицы, при этом выделяется главная часть и оценивается остаток. На следующем этапе к полученным главным частям применяется нек-рая модификация метода перевала. Такой подход разработан в [3], где при выполнении условий крамеровского типа найдены полные асимптотич. разложения вероятностей P{Y(x)-nt Sn^x + у}, P{max Sk>x, Sn<x-у} при различии ных ограничениях на изменение х и у в зависимости от п, совместимых с требованиями х-х(п) -►<», у = у(п) -+°°, х + у = О(п). По этой же схеме получены полные асимптотич. разложения в задачах с двумя прямолинейными границами (см. [9]), а также в однограничных и двуграничных задачах для случайных процессов с независимыми приращениями (см. 110]). Рассмотрение случайного блуждания как марковского процесса также обнаруживает его связи с теорией потенциала (см. [1]). Использование методов теории потенциала позволяет описывать решение в Г. з. для широкого класса случайных блужданий, включая асимптотич. анализ распределений. При более детальном изучении Г. з. о пересечении траекторией случайного блуждания нелинейной односторонней или двусторонней границы методы комбинаторики, факторизаци- онных тождеств, потенциала оказываются малоэффективными. Пусть T = inf{*:S^+(*)}, o=mf{k:Ske(g-(k), g+(k))}, где д± - нек-рые функции. Основная часть исследований по изучению распределений т, а посвящена нахождению оценок и асимптотики этих распределений при различных ограничениях на поведение границ и на распределение Х; (условие Крамера, регулярное изменение хвостов распределения, мо- ментные ограничения и т.д.). Здесь применяются различные методы исследований: мартингальный подход (см. [11]), широкое использование принципа инвариантности. Если g~(k) меняются так, что Р{т ^ я}, Р{а ^ я} -> 0, то приходят к задаче больших уклонений для случайных блужданий. Лит.: [1] Спицер Ф., Принципы случайного блуждания, пер. с англ., М., 1969; [2] Боровков А. А., Теория вероятностей, 2 изд., М., 1986; [3] его же, «Сиб. матем. ж.», 1962, т. 3, № 5, с. 645-94; [4] КоролюкВ. С, Воровски х Ю. В., Аналитические проблемы асимптотики вероятностных распределений, К., 1981; [5] Гнеден- коБ.В., Королюк B.C., «Докл. АН СССР», 1951, т. 80, К? 4, с. 525-28; [6] Колмогоров АН., «Изв. АН СССР. Отдел матом, и естеств. наук», 1931, № 7, с. 959-62; 1933, № 3, с. 363-72 (см. также: его же, Теория вероятностей и математическая статистика, М., 1986, с. 114-16, 141-48); [7] Нагаев С. В., «Теория вероятн. и ее примени, 1970, т. 15, в. 2, с. 179-99; [8] Сахненко А. И., там же, 1974, т. 19, в. 2, с. 416-21; [9] Лотов В. И., там же, 1979, т.24, в. 3, с. 475-85, в. 4, с. 873-79; [10] Рогозин Б. А., «Сиб. матем. ж», 1969, т. 10, № 6, с. 1334-63; [11) Новиков А. А., «Тр. Матем. ин-та АН СССР», 1981, т. 158, с. 130-40. А А Боровков, В. И. Лотов. ГРАНИЧНЫЙ ПРОЦЕСС (boundary process) - см. Марковский процесс; продолжение. ГРАНУЛОМЕТРИЯ (granulometry) - однопараметрическое семейство функций щ, Х>0, отображающих класс ^/подмножеств фиксированного множества Е в себя и обладающих свойствами: а) щ(А)аА, AeV; б) если АаВ, то \|/^(Л)с ау^В), А, Ве^; в) если X^[i, то \|/^(А)с: \|/ц(Л), А <=.</; г) \|^о Уц = Уц° Vx = ¥max (3Десь о - знак композиции отображений).
Пусть Е = № - евклидово пространство, ,<4=&- множество замкнутых множеств в IP". Г. называется полунепрерывной сверху на^, если для Л„+1 cz An, AnеЛ, имеет место предельное свойство lim \|^ (An)-\\f^(nnAn). п Г. задает один из распространенных в приложениях способов преобразования и построения замкнутых случайных множеству а именно: если А - случайное замкнутое множество, то таковым же является значение Г. У\(А). Кроме того, с помощью Г. определяется одна из важнейших (наряду с мате- матич. ожиданием и дисперсией) характеристик распределения случайного множества (распределение размера А в точке х) - функция распределения случайной величины А(х) = {X: х е \|/^(Л)}. Лит.: [1] Матер он Ж., Случайные множества и интегральная геометрия, пер. с англ., М., 1978. А. Г. Катранов. ГРЕБНЕВАЯ ОЦЕНКА (ridge estimator) - см. Априорной информации учет. ГРЕБНЕВАЯ РЕГРЕССИЯ (ridge regression) - линейная оценка параметра Qe№p линейного регрессионного зкспери- Meumay = FQ + e, где ye№N, eeU?N, веИ?р, Ее=0, cove= W"1 вида ea=(M + aAy]FTWy, где M = FTWF, a>0, A - положительно определенная матрица. Такая оценка смещена, но ее квадратичный риск #а=Е||ва-б|| при малых а>0 меньше, чем у оценки наименьших квадратов. Г. р. особенно полезна в случае малости detA/ (мультиколлинеарности предикторов). Для нахождения arg min#a существуют эвристич. приемы, основанные на вычисления графиков 6a, Ra. Доказана сходимость планов, оптимизирующих функцию Ф от Ra> к Ф-опти- мальным планам для регрессионного эксперимента, что представляет один из основных методов численного построения Ф-оптимальных планов с вырожденной информационной матрицей (см. Регрессионных экспериментов планирование). Лит.: [1] Ермаков СМ., Жигл я веки й А. А., Математическая теория оптимального эксперимента, М., 1987; [2] Paz man A., Foundations of optimum experimental design, Dordrecht - [a. o.], 1986. M. Б. Малютов. ГРЕКО-ЛАТИНСКИЙ КВАДРАТ (Greek Latin square) - см. Ортогональные квадраты. ГРЕКО-ЛАТИНСКИЙ КУБ (Greek-Latin cube) - см. Ортогональные кубы. ГРЕНАНДЕРА - РОЗЕНБЛАТТА ТИП СТАТИСТИКИ спектральной плотности (statistic of Grenander- Rosenblatt type for spectral density/spectrograph estimater) - см. Спектральная плотность; непараметрическая оценка. ГРИНА АЛЬФА-ФУНКЦИЯ (Green alpha-function) - см. Потенциала теория для марковского процесса. ГРИНА ФУНКЦИЯ (Green function) в квантовой теории поля и квантовой статистической физике - среднее значение от хронологического произведения операторов поля (в случае квантового поля) или операторов рождения и уничтожения в гейзенберговском представлении (в случае многочастичных нерелятивистских квантовых систем). 1) Случай теории поля. Пусть {q>a(x), х = (х , х , х , х ), х" - временная, аг , х \ х - пространственные координаты, а - спинорный или векторный индекс} - квантовое поле, определенное в пространстве Минковского М (то есть операторнозначная обобщенная функция в нек-ром гильбертовом пространстве Н с вакуумным вектором Q; см. [1]). Функцией Грина (б-частичной) называется обобщенная функция ;/*.. xk> У\> Ук>- = (-1)т<0, Пфа/*,) .- Ф^Сг»)^^,) ... фр/у*)]), С) где * - операторное сопряжение, а Т означает, что операторы {фа Х*»)| ФвХУу)» i,j= U .., k) следует расположить в хроно- логич. порядке, то есть в порядке убывания временных координат точек хи ..., xk, yv ..., yk\ величина у= 0 для бозе-полей, а для ферми-полей она равна четности перестановки переменных *t, ..., xk> у\, ..., yk> переводящей их в хронологич. порядок. 2) Случай статистической физики. Для физич. системы, описываемой векторами нек-рого пространства Фока F и оператором энергии Я, действующим в F, семейство операторов ax(t) = ё~х ьах е~1 ', t e IR , образует гейзенберговскую динамику для операторов рождения а\ и уничтожения ах (индекс X пробегает либо пространство П^, либо решетку Ж ). Функция Грина системы в ее основном состоянии G(*t, tv ..., xk, tk\ yv sv ..., yk, sk) определяется формулой (*), в к-рой полевые операторы фа и ф* заменяются операторами ax(t{) и a* (s;), а в качестве вектора Q рассматривается основное состояние системы (собственный вектор Н с наименьшим собственным значением). Так наз. температурные функции Грина определяются аналогично, лишь вместо усреднения по основному состоянию рассматривается усреднение по равновесному гиббеовскому состоянию. Лит.: [1] Шварц А.С, Математические основы квантовой теории поля, М., 1975; [2] Абрикосов А. А., ГорьковЛ.П., Дзяло- шинский И.Е., Методы квантовой теории поля в статистической физике, М., 1962. Р. А. Минлос. ГРИНА а-ФУНКЦИЯ (Green а-function) - см. Потенциала теория для марковского процесса. ГРИФФИТСА НЕРАВЕНСТВА (Griffiths inequalities) - часто используемые корреляционные неравенства, справедливые, в частности, для ферромагнитных моделей в положительном магнитном поле. Пусть {xt, t е Ж } - реализация решетчатого случайного поля с действительными значениями, Л cz Ж - конечное подмножество, ХЛ = JJ xt - случайная ве- личина. Тогда для любых конечных А, В cz Ж имеют место Г. н.: (1)Е(Хл)^0, (П)Е(ХАХВ)^Е(ХА)Е(ХВ). СБ. Шлосман. ГРОССА ТОПОЛОГИЯ (Gross topology) - топология в гильбертовом пространстве Я, заданная всеми полунормами, измеримыми относительно стандартной гауссовской цилиндрической вероятности на Н. Г. т. - допустимая топология (см. [2]). Аналоги Г. т. и предыдущего утверждения имеют место для других цилиндрич. вероятностей на Я, а также для банаховых пространств со свойством Сазонова. Лит.: [1] Gross L., «Mem. Amer. Math. Soc», 1963, № 46; [2] Го Х.-С, Гауссовские меры в банаховых пространствах, пер. с англ., М., 1979. Д. X. Муштари. ГРУППОВАЯ ЗАДЕРЖКА (group delay/lag) - см. Задержка. ГРУППОВОЙ КОД (group code) - см. Блоковый код. ГУРСА СТОХАСТИЧЕСКАЯ ЗАДАЧА (Goursat stochastic problem) - задача отыскания решения стохастического гиперболического дифференциального уравнения с частными производными 2-го порядка, содержащего двупараметрический белый шум, с граничными условиями на двух характеристических кривых, выходящих из одной точки. Примером может служить уравнение Э2£(5,0 / . .v ., . .ч b2w{s, t) <•) dsdt ^ ^ dsdt 5(5, 0) = <p(s), £(0, 0=v(0, <p(0) = \|KO), в области s>0, t>0; w(s, t) - винеровский лист. Обычно вместо уравнения вида (*), содержащего обобщенные случайные функции, рассматривают соответствующее интегральное уравнение. л. А. Гущин. ГУРСА 149
ДАДЛИ МЕТРИКА (Dudley metric) - см. Вероятностная метрика; структура. ДАДЛИ УСЛОВИЕ (Dudley's condition) - ограничение на г-энтропию параметрического множества случайного процесса. Пусть {X(t), teT}- действительнозначный случайный процесс с произвольным параметрич. множеством Г, ЕХ(0 = <°° при любом teT. Предполагается, что множество Г вполне ограничено относительно псевдометрики d(t,s) = (E(X(t)-X(s))2)W2. Пусть Же, Г, d) - логарифм минимального числа элементов е-сети в (7\ d). Д. у. есть требование конечности интеграла \1 (Же, Т, d))]/2dz. Д. у. обеспечивает существование ^/-непрерывного гауссовско- го процесса на Г с той же самой ковариацией, что и у X(t) (см. [1]). При нек-рых дополнительных ограничениях Д. у. будет достаточным для применимости принципа инвариантности к последовательности независимых копий X(t) (см. Сходимость эмпирических мер и эмпирических процессов, а также [2], [3]). Лит.: [I] Dudley R. M., «J. Funct. Anal.», 1967, v. 1, № 3, p. 290-330; [2] его же, «Lect. Notes Math>, 1984, № 1097, p. 1-141; [3] Борисов И. С, «Тр. Ин-та матем.», Новосиб., 1985, т. 5, с. 3-27. И. С. Борисов. ДАЙСОНА РАСПРЕДЕЛЕНИЕ (Dyson distribution) - обобщение Вигнера распределения, характеризующее предельную спектральную плотность распределения в случайных ансамблях матриц, обладающих иными свойствами инвариантности, чем ортогонально инвариантный ансамбль Вигнера (унитарный ансамбль и др.). Основной качественный эффект, характерный для Д. р.,- явление отталкивания спектральных уровней. Как и распределение Вигнера, Д. р. возникает в связи с описанием спектров тяжелых ядер. С. А. Молчанов. «ДАЛЬНЕГО СОСЕДА» АЛГОРИТМ (farthest neighbo- ur algorithm) - частный случай иерархической процедуры классификации, характеризующийся тем, что мера близости между двумя классами определяется как мера близости между самыми дальними объектами из этих классов. А. Т. Терехин. ДАННЫХ ОКНО (data window/taper) - см. Спектральная плотность; непараметрическая оценка. ДАРЛИНГА ТЕОРЕМА (Darling theorem) - предельная теорема для сумм независимых случайных величин Sn = = Xt + ... +Х„, я^ 1, слагаемые к-рых подчинены общей функции распределения Fix) с медленно меняющимися «хвостами». В отличие от предельных теорем классич. теории в этом случае линейная нормировка непригодна (П. Леви, P. Levy, 1934; см. [1]). 150 ДАДЛИ P{Sn<x}-q^\P_l Пусть 5„ = G„(5„), Gn(x) = Q(x)/n} где [1/(1-F(*)), x&\, е(*)= [e(i)(i + *) + e(-i)(i-*)]/2, M<i, [-\/F(x), x^-\. Д. т. утверждает, что если (1 - F(x))/(\ -F(x) + F(-x)) —>р, #-><*>, где 0</?< 1, q=\-p, то при я->°° > ехр(-1/(/?*)), х>\, -q exp(\/(qx)\ x<0. Лит.: [1] Darling D. A., «Trans. Amer. Math. Soc», 1952, v. 73, № 1, p. 95-107; [2] Золотарев В. М., Современная теория суммирования независимых случайных величин, М., 1986. В. М. Золотарев. ДАРМУА - СКИТОВИЧА ТЕОРЕМА (Darmois - Skitovich theorem) - см. Характеризационные теоремы. ДАТЧИК СЛУЧАЙНЫХ ЧИСЕЛ (random numbers gene rator) - программа или устройство для генерации (псевдослучайной) последовательности чисел с рядом свойств последовательности случайных величин, обычно одинаково распределенных и независимых (см. Случайные и псевдослучайные числа). Программ-датчиков, дающих последовательность со всеми свойствами случайной величины, не существует (см. [3]). Д. с. ч. применяют в вычислительных алгоритмах (метод Монте-Карло) (см. [2]), компьютерном моделировании, для кодирования (защиты) информации. Основная задача конструирования датчиков - хорошая имитация последовательности независимых равномерно распределенных на отрезке [0, 1] случайных величин. Из нее можно получать последовательности с произвольными распределениями. Качество датчика проверяется тестами (см. [1]), основанными на свойствах (я-мерного) равномерного распределения и спектральными методами (см. [3]), выявляющими псевдопериодичность (зависимость) датчика. Наиболее известны периодич. линейно конгруэнтные датчики хп = уп/т, где уп = ауп_\ + + Ь mod m, a, b, yQ - целые, т - большое, обычно наибольшее машинное число; при подходящих а и Ъ период датчика равен т. Они плохо соответствуют 2-мерному равномерному распределению и имеют малые псевдопериоды. Лучшее в смысле совместного распределения качество дают более сложные конструкции: линейные комбинации датчиков с несоизмеримыми периодами, инверсно конгруэнтные датчики: хп = уп/т, уп-ау п_\+Ь modw, уу =1 (mod w), m - простое, и др. Имитационные модели наиболее критичны к зависимости членов используемых псевдослучайных последовательностей, поэтому их датчики следует дополнительно проверять на отсутствие зависимостей, способных принципиально исказить результаты моделирования. Лит.: [1] Кнут Д., Искусство программирования на ЭВМ, т. 2, пер. с англ., М., 1977; [2] Форсайт Дж., Малькольм М., Машинные методы математических вычислений, пер. с англ., М., 1980; [3) Журбенко И. [и др.], О построении и исследовании псевдослучайных последовательностей различными методами, «Заводская лаборатория», 1985, т. 5. о. С. Смирнова.
ДВАЖДЫ СТОХАСТИЧЕСКАЯ МАТРИЦА (doubly stochastic matrix) - стохастическая матрица \\р(Л, у к-рой суммы элементов не только строк, но и столбцов равны 1: Y. Pij= 1 для всех х, Y. Pij= 1 Для всех /. Если все состояния однородной цепи Маркова с Д. с. м. вероятностей перехода образуют один непериодич. существенный класс (см. Маркова цепь; классификация состояний), то в случае конечного числа состояний все финальные вероятности равны друг другу, а в случае бесконечного числа состояний все эти состояния невозвратные или нулевые. Лит.: (1) Феллер В., Введение в теорию вероятностей и ее приложения, пер. с англ., т. 1, М., 1984. А. А. Юшкевич. ДВОИЧНАЯ ЕДИНИЦА количества информации (binary digit) - см. Бит, Энтропия. ДВОИЧНО СТАЦИОНАРНЫЙ СЛУЧАЙНЫЙ ПРОЦЕСС (dyadic stationary random process) - см. Спектральные теории нестационарных случайных процессов. ДВОИЧНЫЙ СИММЕТРИЧНЫЙ КАНАЛ (binary symmetric channel) - стационарный канал без памяти, матрица переходных вероятностей к-рого имеет вид V~P P II II Р Н>1" Величины 1 -р и р называются соответственно вероятностью правильной передачи и вероятностью ошибки к а н а л а. Д. с. к. является важнейшим и наиболее изученным в теории информации симметричным каналом. Пропускная способность канала для Д. с. к. дается равенством C=\+p\ogp + (\-p)\og(\-p). В. В. Прелое. ДВОЙНИК (alias) - см. Наложение частот. ДВОЙСТВЕННЫЙ МАРКОВСКИЙ ПРОЦЕСС (dual Markov process) - то же, что дуальный марковский процесс. ДВОРЕЦКОГО ЛЕММА (Dvoretzky lemma) - см. Банахово пространство,"равномерно содержащее /". ДВОРЕЦКОГО ПРОЦЕДУРА (Dvoretzky procedure) - см. Стохастическая аппроксимация. ДВОРЕЦКОГО - РОДЖЕРСА ТЕОРЕМА (Dvoretzky - Rodgers theorem) - см. Банахово пространство, равномерно содержащее /". ДВУВЕРШИННОЕ РАСПРЕДЕЛЕНИЕ (bimodal distribution) - см. Бимодальное распределение. ДВУВЫБОРОЧНАЯ ^-СТАТИСТИКА (two sample Г-sta tistic) - см. Т -статистика. ДВУВЫБОРОЧНЫЙ КРИТЕРИЙ СТЬЮДЕНТА (two sample Student test) - см. Стьюдента критерий. ДВУМЕРНАЯ ТУРБУЛЕНТНОСТЬ (two dimensional turbu lence) - идеализированная модель крупномасштабных атмосферных и океанических движений, когерентных структур в хорошо перемешанных пограничных слоях и других турбулентных сред, где компонента вектора скорости, перпендикулярная к плоскости течения, сильно подавлена. Лит.: [1] Математическая физика. Энциклопедия, М., 1998, с. 165. А. П. Мирабель. ДВУМЕРНОЕ НОРМАЛЬНОЕ РАСПРЕДЕЛЕНИЕ (biva- riate/two-dimensional normal distribution) - совместное распределение вероятностей двух случайных величин X, и Х2 с характеристической функцией ф(0 = exp [itTm - UJct\ 9 J где£ = (^, t2), - (тх, m2) - вектор математических ожиданий, I a2 pa^J ||p°l02 a2 II - ковариационная матрица случайных величин Хх, Х2. Если I р I < 1, то существует совместная плотность распределения f(xvx2)- Ц -тх )2 ^ехр 2(1-р2) 2р(хх-тх)(х2-т2) (х2-т2г a- otu2 с- (графики см. на рис.). Условная плотность распределения случайной величины Хх при условии, что Х2-х2, равна f(xx\X2=X2): 1 а^2п(\-р2) L °2 (х7 ехр ■т2) 1 2<^(1-р2> 21 При Iр| = 1 распределение называется вырожденным двумерным нормальным распределением. Совместная функция распределения F(xx, x2, р) случайных величин Хх и Х2 при т = 0, ох = о2 = 1 может быть выражена следующим образом: F(xx ,х2;р) = Р{ХХ < хх; Х2 < х2) = = Ф(хх)Ф(х2) + \* f(xv x2, X)dX. Здесь f(xx, x2; X) - функция плотности, соответствующая F(xx, х2, X), Ф(х) - стандартная функция одномерного нор- Графики плотностей двумерного нормального распределения при тх = т2 = 0 и 1) ах = а2 = 1, р = 0; 2) сх = 1, а2 = 2, р = 0; 3) ах = 1, а2 = 2, р = 0,8. ДВУМЕРНОЕ 151
мального распределения. Выражение через функцию Оуэна см. в [1]. Разложение F(xv х2\ р) в ряд по тетрахорич. функциям xk(x) = (2nr2Hk_l(x)exp(-x2/2)/k\, k=\, 2, ..., где Hk(x) - многочлены Эрмита, есть F(xv x2\ р) = Ф(*)Ф(г/) + Х~=1 Ч^Ч^Р* - Лит.: [1] СмирновН. В., Большее Л. Н., Таблицы для вычисления функции двумерного нормального распределения, М., 1962. Г. В. Мартынов. ДВУРУКИЙ БАНДИТ (two-armed bandit) - одна из задач оптимального управления случайной последовательностью при неполной информации, допускающая следующую эвристическую формулировку. Имеется устройство с двумя управлениями (игральный автомат с двумя ручками). В каждый момент t=\, 2, ... можно использовать одно из управлений и наблюдать случайную величину с распределением F,-, если используется /е управление, /= 1, 2. Задано априорное распределение на пространство гипотез, то есть всевозможных пар (Ft, F2). Решение о том, какое управление использовать в данный момент, может зависеть только от априорного распределения и от того, какие управления использовались ранее и какие значения при этом наблюдались. Наблюденные значения суммируются (быть может, с дисконтированием). Требуется максимизировать математич. ожидание суммы за фиксированное время и ^ °о. Один из способов решения задачи - сведение к управлению с полной информацией цепью Маркова, состояниями крой служат апостериорные распределения. Чаще всего рассматривается случай Бернулли, когда наблюдаемые величины принимают два значения: 0 или 1. В этом случае априорное распределение задается в пространстве пар (Xv Х2), определяющих вероятность успеха (единицы) при использовании соответствующего управления. В случае Бернулли особый интерес представляют независимый случай (когда априорное распределение таково, что Х\ и Х2 независимы) и случай двух гипотез, когда задаются вероятность одной из гипотез и матрица 2x2, строки крой соответствуют возможным значениям (Xv X2). Впервые задача о Д. б. была сформулирована в [1], где рассматривался в основном независимый случай Бернулли. Если, согласно первой гипотезе, (Xv Х2) равно (X, |i), a согласно второй - (М, Х)} где М>Х, то оптимально использовать первое управление в те моменты, когда апостериорная вероятность первой гипотезы не превосходит 1/2 (близорукая стратегия). Строгое доказательство этого простого факта было получено в [2]. Из многочисленных обобщений интересны случай нескольких рук, случай непрерывного времени и минимаксный подход. В случае нескольких независимых (не обязательно относящихся к случаю Бернулли) рук и геометрич. дисконтирования оптимальное управление находится в явном виде с помощью так наз. индекса Гиттинса (см. [3]). В [4] рассматривается случай т рук в случае Бернулли и п гипотез без дисконтирования и дается классификация соответствующих матриц т х п, связанная с существованием стационарной (зависящей только от апостериорного распределения) стратегии, оптимальной на бесконечном интервале времени. Там же дается пуассоновское обобщение задачи т х п на случай непрерывного времени, когда вместо потока Бернулли событий рассматривается пуассоновскии поток, и в этой ситуации приводится описание оптимальной стратегии в задаче 2x2. 152 ДВУРУКИЙ Устойчивый интерес к подобным задачам объясняется тем, что они являются наиболее наглядными и простыми примерами задач, в к-рых явно возникает вопрос о соотношении между текущими доходами и выигрышем от приобретения информации о параметрах процесса. Лит.: [1] Thompson W., «Biometrika», 1933, v. 25, p. 285-94; [2] Feldman D., «Ann. Math. Statist.», 1962, v. 33, p. 847-56; [3] Gittins J., Multi-armed bandit allocation indices, N.Y., 1988; [4] ПресманЭ.Л., СонинИ.М., Последовательное управление по неполным данным, М., 1982; [5) Berry D., FristedtB., Bandit problems, L.- N. Y., 1985. Э.Л. Пресман. ДВУСТОРОННЕЕ ПОКАЗАТЕЛЬНОЕ РАСПРЕДЕЛЕНИЕ (double exponential distribution), двойное экспоненциальное распределение, Лапласа распределение, первый закон Лапласа,- непрерывное, сосредоточенное на (-°°, °°) распределение вероятностей с плотностью (см. рис.) p(x) = aeLalx-*l/2, где а>0, -оо<р<оо- действительные параметры. Плотности двустороннего показательного распределения при Р - 0 и (1) а = 0,5; (2)а=1; (3) а = 2. Д. п. р. с точностью до сдвига представляет собой свертку показательного распределения со своим зеркальным отражением относительно нуля, точнее, Д. п. р. есть распределение вероятностей случайной величины р + Х1-Х2, где Хх и Х2 - независимые случайные величины, имеющие одинаковое показательное распределение с параметром а. Д. п. р. имеет конечные моменты любого порядка; в частности, его математич. ожидание и дисперсия равны соответственно р и 2/а , эксцесс у2 = 6а-3. Характеристич. функция Д. п. p. f(t) = a elt"/(t + а ) и при р = 0 с точностью до множителя совпадает с плотностью вероятности Кохии распределения. Д. п. р. является безгранично делимым распределением. Оно часто возникает в качестве предельного распределения в схемах суммирования случайного числа случайных слагаемых. Лит.: [1] Феллер В., Введение в теорию вероятностей и ее приложения, пер. с англ., т. 2, М., 1984. #. Г. Ушаков. ДВУСТОРОННЕЕ ЭКСПОНЕНЦИАЛЬНОЕ РАСПРЕДЕЛЕНИЕ (double exponential distribution) - см. Двустороннее показательное распределение. ДВУСТОРОННИЙ ДОВЕРИТЕЛЬНЫЙ ИНТЕРВАЛ (two-sided confidence interval) - см. Последовательные доверительные границы. ДВУСТОРОННИЙ КРИТЕРИЙ СТЬЮДЕНТА (two sided Student test) - см. Стьюдента критерий.
ДВУСТОРОННИЙ МАРКОВСКИЙ ПРОЦЕСС (two sided Markov process) - см. Марковский процесс. ДВУСТОРОННИЙ СДВИГ БЕРНУЛЛИ (two sided Ber- noulli shift) - см. Бернулли сдвиг. ДВУСТОРОННЯЯ ГИПОТЕЗА (two-sided hypothesis) - статистическая гипотеза о том, что одномерный параметр 0 не /ежит в заданных пределах, то есть гипотеза вида Я:в^(в1, в2), 61<в2. Примером такой гипотезы является определение: удовлетворяются ли заданные требования относительно пропорции ингредиента в какой-либо смеси. Ошибка 1-го рода здесь состоит в объявлении, что 0 удовлетворительно, в то время как оно таковым не является. В случае однопа- рамегрич. экспоненциального семейства для проверки Д. г. Н против альтернативы /СгбеО^ 02) существует равномерно наиболее мощный критерий. Лит.: [1] Леман Э., Проверка статистических гипотез, пер. с англ. 2 изд., М., 1979. А. Н. Тюлягин. ДВУХ ТРЕТЕЙ ЗАКОН (two-thirds law) - см. Колмогорова закон двух третей. ДЕБЛИНА ТЕОРЕМА (Doeblin theorem) - см. Предельные теоремы для отношений, отвечающих цепи Маркова. ДЕБЛИНА УНИВЕРСАЛЬНЫЙ ЗАКОН (Doeblin universal law) - см. Частичного притяжения область. ДЕБЛИНА УСЛОВИЕ (Doeblin condition) - условие на вероятности перехода Маркова цепи с бесконечным множеством состояний, при к-ром эволюция цепи оказывается весьма сходной с эволюцией конечных цепей Маркова (см. Эргоди- ческис теоремы для марковских процессов). Условие введено В Деблином (W. Doeblin) в 1937. В своей современной форме (см. [1]) оно предполагает, что вероятности перехода р(п, х, Г) нек-рой однородной цепи Маркова, заданной в измеримом пространстве (Е, 33), подчинены требованию: существуют такие конечная мера v на 33, натуральное т и е, у> О, что р(т, •, Г) ^ 1 -е всякий раз, когда у(Г) ^у. Лит.: [1] Дуб Дж., Вероятностные процессы, пер. с англ., М., 1956; [21 Неве Ж., Математические основы теории вероятностей, пер. с франц., М., 1969; [ 3 ] Р е в ю з Д., Цепи Маркова, пер. с англ., М., 1997. М.Г. Шур. ДЕБЮТ МНОЖЕСТВА (debut of a set) А (произвольного подмножества IR+xQ)- функция DA, заданная при (йеО. равенством DA(w) - inf {t elR+:(£, со)еЛ}, если упомянутое в фигурных скобках множество не пусто [то есть если при данном со существует такое t e IR+, что (t, со) е А]; если же для данного со это множество пусто, то считается DA((u) = +°°. Основной результат о Д. м.: если поток а-алгебр С<4^^о на вероятностном пространстве (Q, ^ Р) непрерывен справа и каждая из а-алгебр dt полна (относительно меры Р), то дебют любого прогрессивно измеримо/о подмножества IR+ x Q является марковским моментом относительно потока i^t)t>0. См. также Прогрессивно измеримый процесс. Лит.: [ 1 ] Д е л л а ш е р и К., Емкости и случайные процессы, пер. с франц., М., 1975. Н. И. Портенко. ДЕЙСТВИЙ ПРОСТРАНСТВО (actions space) - измеримое множество планируемых переменных; см. Планирование эксперимента. М. Б. Малютов. ДЕЙСТВИЯ ФУНКЦИОНАЛ (action functional) - см. Случайное возмущение динамической системы, Уклонений функция. ДЕКОДИРОВАНИЕ (decoding) - преобразование, обратное кодированию, восстанавливающее сообщение в заданной получателем форме. Построение методов Д., удовлетворяющих определяемым получателем требованиям, составляет проблематику теории Д. К таким требованиям, напр., относятся сообщений точность воспроизведения, сложность Д. (см. Сложность кодирования и декодирования) и задержка Д. Требования к точности могут выражаться в полном воспроизведении сообщения, указания списка из L сообщений, среди к-рых должно находиться истинное сообщение (списочное Д.), в воспроизведении сообщения со средним риском не более £>0. Напр., если сообщение - случайная величина X, то такими требованиями могут быть: Р{Х*Х}^е - вероятность ошибки не более е; Е(Х-Х) ^е - среди еквадратич. риск не более е (здесь X - воспроизводимое сообщение). Существование или несуществование методов кодирования и Д., позволяющих осуществить передачу информации по каналу связи или ее хранение при заданных условиях точности воспроизведения, устанавливается теоремами Шеннона. Имеется довольно большое разнообразие методов Д. как статистических, так и нестатистических. Статистическими являются методы декодирования по максимуму правдоподобия, максимуму апостериорной вероятности, последовательного декодирования и др. Имеется также большое число комбинаторных и алгебраич. методов Д.: по минимуму расстояния, мажоритарное, пороговое, с помощью алгоритма Бэрлекампа и т. п. Фундаментальной характеристикой Д. является сложность устройства (декодера), реализующего Д. Однако в зависимости от конкретной задачи возникает различное понимание сложности, а тем самым и различные меры сложности. Напр., при Д. последовательности букв (ух, ..., уп) (сигналов на выходе канала) в воспроизводимую последовательность сообщений (xv ..., хт) за математич. модель декодера обычно берут схему из функциональных элементов, на входы к-рой поступают символы (ух, ..., уп), а на выходе получают (xt, ..., хт); в этом случае под сложностью декодера понимают число элементов в схеме. Такое определение позволяет оценить сложность Д. различных кодов и указать коды с относительно малой сложностью Д. (напр., низкоплотностные коды). В понятие сложности входит и объем памяти устройства, используемого при Д. Со многими методами Д. связана необходимость перебора, объем к-рого также может служить мерой сложности Д. Идеи и результаты теории Д. находят дальнейшее развитие и применение в задачах прикладной математики, таких, напр., как синтез надежных информационных устройств. Лит.: [1] Возенкрафт Дж.-М., Рейффен Б., Последовательное декодирование, пер. с англ., М., 1963; [2] Галлагер Р., Теория информации и надежная связь, пер. с англ., М., 1974; [3] его же, Коды с малой плотностью проверок на четность, пер. с англ., М., 1966; [4] Колесник В. Д., По л ты рев Г. Ш., Курс теории информации, М., 1982; [5] Месси Дж., Пороговое декодирование, пер. с англ., М., 1966. М. С. Пинскер, В. В. Прелое. ДЕКОДИРОВАНИЕ алгебраическое (algebraic decoding) - см. Алгебраическое декодирование. ДЕКОДИРОВАНИЕ блоковое (block decoding) - см. Блоковое декодирование. ДЕКОДИРОВАНИЕ по максимуму правдоподобия (maximum likelihood decoding) - вероятностный метод декодирования, определяемый следующим образом. Если у - сигнал, принятый после передачи по каналу связи сообщения х, и р(у\х) - переходная функция, то воспроизводимое сообщение определяется из равенства х = argmax p(y\x). Если все передаваемые сообщения имеют равные априорные вероятности, то Д. по максимуму правдоподобия минимизирует вероятность ошибки Д. При Д. конкретных блоковых кодов Д. по максимуму правдоподобия может быть применено лишь при сравнительно небольших длинах, так как мощность такого Д. экспоненциально возрастает при увеличении длины блока ДЕКОДИРОВАНИЕ 153
(поскольку использование Д. по максимуму правдоподобия требует по существу полного перебора всех кодовых слов). Лит.: [1] Галлагер Р., Теория информации и надежная связь, пер. с англ., М., 1974. М. С. Пинскер, В. В. Прелое. ДЕКОДИРОВАНИЕ последовательное (sequential decoding) - см. Последовательное декодирование. ДЕКОДИРОВАНИЕ; сложность (complexity of decoding) - см. Сложность кодирования и декодирования. ДЕКОДИРОВАНИЕ списочное (list decoding) - см. Списочное декодирование. ДЕМОГРАФИЧЕСКАЯ СТАТИСТИКА (demographic statistics) - область статистики, занимающаяся приложением статистических методов к сбору, обработке, изложению и анализу данных, характеризующих численность, состав, размещение и воспроизводство населения или его групп. Термином «Д. с.» обозначают также совокупность числовых данных о населении, а иногда и практич. деятельность по сбору, обработке и анализу этих данных. Д. с. оперирует двумя типами данных о населении: данными 0 численности всего населения и отдельных его демографич. и социально-экономич. групп (состав населения) в нек-рые моменты времени и данными о числе демографич. событий в населении или в отдельных группах в определенные временные интервалы. Основными демографич. характеристиками населения являются распределения по таким демографич. признакам, как пол, возраст, брачное состояние, число рожденных детей и т. д. Д. с. оперирует такими социальными характеристиками, как образование, этнич. принадлежность, профессия и др. Схема сбора и обработки данных о населении определяется лежащими в основе Д. с. показателями интенсивности демографич. процессов, представляющими собой специальным образом исчисленные частности демографич. событий. Показатели интенсивности рассматриваются как функции возраста (длительности жизни) или длительности иного демографич. состояния, напр.: времени с момента вступления в брак, времени с момента рождения последнего ребенка, времени проживания в данной местности. Показатели рассчитываются либо для нек-рого календарного периода (поперечный анализ), либо для поколения - совокупности родившихся в нек-рый период в прошлом, или когорты - совокупности вступивших в определенный период в нек-рое демографич. состояние, напр. вступивших в брак или разошедшихся (продольный анализ). Расчет показателей интенсивности проводится, как правило, для интервалов т значений длительности х, равных целому числу лет, с шагом, равным интервалу (т рассматривается, как правило, в 1 или 5 лет, реже 4; 10; 15 лет). В специальных расчетах иногда используется шаг в 1 месяц. Применяют показатели, рассчитанные для больших возрастных интервалов (напр., интенсивность рождаемости в возрастах от 15 до 50 лет) или для всей шкалы возрастов. С увеличением возрастного интервала результаты расчета все в большей мере зависят от возрастного состава населения, для элиминирования этой зависимости служит метод стандартизации. Наиболее употребимы два типа показателей интенсивности. Вероятность демографич. события, равная где ХКХ - число событий рассматриваемой группы населения в интервале длительности (напр., возраста) от х до х + т, а Рх - число их потенциальных участников, то есть число лиц в данном демографич. состоянии, доживших до момента, когда длительность этого состояния равна х. Напр., при расчете 154 ДЕМОГРАФИЧЕСКАЯ вероятности смерти в определенном реальном поколении в возрастах от # до # + т, в Д. с. обозначаются через xqx\ число умерших в возрастах от х до х + т - через ХКХ, а число лиц, доживших до возраста х,- через Рх. Аналогично определяют вероятность рождения ребенка по возрасту матери или по длительности брака, вероятность развода по длительности брака и т. д. Реже используют сложные показатели, учитывающие две или более длительности. Коэффициент (интенсивности) демографич. процесса, напр. коэффициент смертности, коэффициент рождаемости, определяется как ХКХ = ХКХ/ХТХ, (2) где ХТХ - число человеко-лет жизни, прожитых совокупностью потенциальных участников демографич. событий в интервале длительности х, х + т. В практич. расчетах величина ХТХ оценивается приближенно, как произведение численности совокупности в момент времени, совпадающий с серединой интервала х, х + т, на длину интервала т. Произведенное деление показателей интенсивности в Д. с. на вероятности и коэффициенты иногда нарушается. Так, термином «коэффициент младенческой смертности» обычно называют вероятность смерти xqQ. Термином «коэффициент» называют также ряд кумулятивных характеристик. Наличие двух временных шкал - календарное время и длительность состояния - создает определенные трудности, связанные с тем, что человек, родившийся в году t, то есть в интервале t, t+\, и умерший в году г + х, х^\,- целое число лет, мог находиться как в возрасте от х - 1 до х, так и в возрасте от х до х + 1. Системы учета не всегда позволяют добиться полной сопоставимости данных о населении и числе событий; в связи с этим приходится прибегать к приближенным формулам, основанным на гипотезах о равномерном распределении демографич. событий внутри временных и возрастных интервалов. Стандартная формула для расчета коэффициента xkxM в населении в течение двух календарных лет t, t-r 1 имеет вид где ХКХ - число событий в интервале возрастов х, Jt + x в календарном году t, a xSx+: - численность соответствующей группы на начало года t + 1. Для теоретич. обоснования связей между вероятностями и коэффициентами и дальнейших расчетов на их основе служит мера интенсивности (сила) процесса на бесконечно малых интервалах возрастов: х = lim xkx = lim xhJ\. т-»о т-»о Напр., сила смертности \1Х (вероятность смерти в интерпале возрастов от х до х + Ах) равна с точностью до малых более высокого порядка \Lx&x. Число демографич. событий на конечном интервале длительности х, х + т зависит от интенсивности других демографич. процессов, меняющих численность исходной совокупности, то есть процессов выбытия. Напр., в интервале возрастов индивид рискует и умереть и покинуть данную территорию, причем смерть исключает последующую эмиграцию, а эмиграция исключает смерть на данной территории. В силу этого вероятность h, рассчитанная в (1), представляет собой зависимую или условную вероятность при данной интенсивности иных процессов выбытия. Для оценки собственной интенсивности процесса используется полная или чистая вероятность. При этом предвносится гипотеза об однородности совокупности потенциальных участников демографич. событий (процессов), в силу чего общая вероятность выбытия для двух процессов выбытия с полными вероятностями hx и °ti принимается
равной °h - V + °h2 - V °h2 = h* + h2. Привлекая показатели для бесконечно малых интервалов возрастов, можно записать ?^=JoxUexp(-JoX^^)^ (3) При ипотезе, что хгх + г, О < С, < т, постоянна, При тех же предположениях условный и чистый коэффициенты интенсивности совпадают, а использование коэффициентов непосредственно ведет к чистым вероятностям: тол;=1-ехр(-тт*:0. Имеется другая формула для перехода от коэффициентов к вероятностям при гипотезе о равномерном распределении событий в возрастах х, х + х: xhx = xxkx/(\ + (x/2\kx). Процесс рождаемости не является процессом выбытия; рождение ребенка есть повторяющееся событие, и даже вероятность рождения (1) может быть больше 1. При этом вместо (3) справедливы равенства т/Wo <P*4exP(-Jo х*%^)^' где xfK - вероятность рождения, <р - интенсивность рождаемости, а хх - суммарная интенсивность процессов выбытия. Если тфх - коэффициент рождаемости, a xkx - коэффициент интенсивности процессов выбытия, то приближенно т/^ = тФЛ1-ехР(-'сА)]/т^т/^ = 'СтФх- Рождаемость можно трактовать и как бесповторный процесс, введя признак «очередность рождения» и рассматривая рождение i-горебенка как выбытие из совокупности имеющих %—\ детей. Ряды показателей интенсивностей служат основой для построения численных моделей демографич. процессов - демо- графич. таблиц, кумулятивных характеристик процесса воспроизводства - и, в конечном итоге, для прогноза населения. Демографич. таблица характеризует демографич. процесс (группу процессов) на всем диапазоне шкалы возрастов (или длительностей демографич. состояния). С этой целью рассматривается модельное поколение (когорта) с фиксированной начальной численностью, равной, как правило, 10™, т = 3, 4 или 5, и исходя из ряда показателей интенсивности рассчитываются математич. ожидания числа, демографич. событий, численности поколения (когорты) в том или ином демографич. состоянии, характеристики длительности состояний и т. д. При этом процесс трактуется как цепь Маркова. Таблицы, построенные для реального поколения или когорты (так наз. когортные таблицы), встречаются в практике достаточно редко. Значительно чаще расчет производится на основе ряда возрастных вероятностей, зафиксированных в населении в нек-рый календарный период, но в разных реальных поколениях. В этом случае говорят, что таблица рассчитана для гипотетич. поколения (когорты). Метод гипотетич. поколения позволяет дать комплексную оценку уровня демографич. процесса в населении в нек-рый период. Демографич. таблицы строятся для одного процесса или нескольких процессов с привлечением как чистых (чистые таблицы или показатели), так и условных (комбинированные таблицы или показатели) вероятностей. Простейшие таблицы представляют собой модели выбытия (таблицы смертности или чистые таблицы брачности) или модели, где лишь фиксируется число событий (так наз. общие таблицы), напр. таблицы рождаемости. Следующий шаг - таблицы множественного события; смертность по причинам смерти, брачность или эмиграция с учетом смертности. К этой группе примыкает таблица рождаемости с учетом смертности. Более сложная конструкция - таблицы с многими состояниями; напр., таблица брачности и разводимо- сти с учетом смертности предусматривает переходы из состояния «не состоит в браке» в состояние «в браке» и обратно. Существуют многостатусные таблицы, учитывающие почти весь спектр возможных демографич. событий в жизни человека. К этому типу относятся так наз. многорегиональные таблицы смертности, учитывающие миграцию и смертность в замкнутой системе открытых субнаселений. Статистич. обработка большого числа демографич. таблиц легла в основу многочисленных попыток описать универсальную или типичную зависимость возрастных показателей рождаемости и смертности в аналитической или численной форме. Существует ряд упорядоченных величиной средней продолжительности жизни серий так наз. типовых таблиц смертности, ориентированных на группы населений (ООН, 1980), или более универсальных, но менее точных (типовые таблицы смертности ООН, 1955). В современной Д. с, как правило, не учитывается отклонение частностей демографич. событий от соответствующих вероятностей. Известны попытки оценить достоверность демографич. показателей, исходя из гипотезы о биномиальном распределении величин ХКХ. Такие оценки говорят о том, что многие показатели, рассчитанные для небольших по численности населений, в том числе для ряда стран и регионов, статистически малодостоверны. В то же время динамич. ряды таких показателей отличаются малой колеблемостью во времени, что ставит под сомнение гипотезу о биномиальном распределении. Чтобы устранить в какой-то мере случайные колебания возрастных показателей, в Д. с. широко применяется выравнивание (сглаживание) возрастных рядов методами взвешенных средних, а также путем аппроксимации полиномами, сплайн-функциями или функциями специального вида. При расчете демографич. таблиц в явной или неявной форме предвносится гипотеза об однородности совокупности потенциальных участников демографич. событий, что, как правило, не соответствует действительности. Стремление повысить однородность совокупностей ведет к резкому уменьшению их численности и увеличивает тем самым стохастич. ошибку показателей. Устранить влияние ряда латентных (напр., генетической) структур вообще не удается. Лит.: [1] Боярский А.Я., Курс демографической статистики, М., 1945; [2] ВенецкийИ.Г., Математические методы в демографии, М., 1971; [3] Курс демографии, 3 изд., М., 1985; [4] Демографический энциклопедический словарь, М., 1985; [5] ShryockH.S., Siegel J.S., The methods and materials of demography, 4 ed., v. 1-2, Wash., 1980; [6] Model life tables for developing countries, N. Y., 1982. E. M. Андреев. ДЕМОДУЛЯЦИЯ (demodulation) - см. Модуляция и демодуляция. ДЕМОДУЛЯЦИЯ комплексная (complex demodulation) - см. Комплексная демодуляция. ДЕНДРОГРАММА (dendrogram) - граф, изображающий последовательность объединений или разбиений объектов либо групп объектов в иерархических процедурах классификации. А. Т. Терехин. ДЕМОГРАФИЧЕСКАЯ 155
ДЕРЕВО отказов (fault tree) - см. Отказов дерево. ДЕРЕВО случайное (random tree) - см. Случайное дерево. ДЕТЕРМИНИРОВАННОГО ХАОСА ТЕОРИЯ (determi- nistic choas theory) - см. Эргодическая теория. ДЕТЕРМИНИРОВАННЫЙ КАНАЛ (deterministic chan nel) - канал связи, в к-ром сигнал на выходе канала однозначно определяется по сигналу на входе канала. В частности, дискретный стационарный Д. к. без памяти задается отображением ф множества У входных символов в множестве У выходных символов так, что сигнал {у) е У на входе переходит в сигнал ц>(у) е У на выходе. Пропускная способность такого канала равна С = log2M, где М - число значений функции <р. Аналогично определяются детерминированные многокомпонентные каналы. В частности, подробно исследован так наз. суммирующий множественного доступа канал. С. И. Гельфанд. ДЕТЕРМИНИРОВАННЫЙ ТАКТОВЫЙ ИНТЕРВАЛ (de- terministic tact interval) - см. Импульсный случайный процесс. ДЕФЕКТ асимптотический (asymptotic deficiency) - см. Дефект критерия. ДЕФЕКТ блуждания, недоскок (defect of a random walk/spent waiting time),- расстояние от границы до положения блуждающей частицы в момент, предшествующий времени первого прохождения этой границы. Пусть Sn, п = О, 1, ...,- траектория одномерного случайного блуждания, д(п) - заданная граница. Тогда Д. блуждания определяется как где Г) = inf {k^ l :Sk^g(k)} - время первого прохождения. Наиболее подробно Д. блуждания уд [как и эксцесс блуждания Xg = Sr] -д(У\д)] изучен для прямолинейных границ и для блуждания 50 = 0, 5t = Xt, ..., Sk = Хх + ... + Xk, порожденного суммами независимых, одинаково распределенных случайных величин Xk. В случае прямолинейной границы g(t) = х = const функционалы уд, хд> Цд обозначают у(х), х(*), ц(х). Исследование совместного распределения у(х) = уд, х(*) = Хд Для неотрицательных слагаемых Xk сводится к изучению эксцесса блуждания х(*) в СИЛУ соотношения {у(х)^и, х(*)> v)= = {x(x-u)>u + v}. Это соотношение позволяет найти предел вероятности Р{у(х)>и, xM>v} при #->°о (см. [1]-[3]). Если a = EXk<°°, 0<o2 = DXk<oof Xk^0, то в широких предположениях при я-><*>, #->°° Р{у\(х) = п, у(х)^и, x(x)^v} = = --L-.J-£±J\±r p{x;>t}rft+0f-U где ф(0 = (2тс)"1/2 exp(t2/2) (см. [4]). Лит.: [11 Феллер В., Введение в теорию вероятностей и ее приложения, пер. с англ., т. 2, М., 1984; [21 Боровков А. А., Теория вероятностей, 2 изд., М., 1986; [31 Дынкин Е. Б., «Изв. АН СССР. Сер. матем.», 1955, т. 19, с. 247-66; [4] Нагаев А. В., «Теория вероятн. и ее примен.», 1984. т. 29, в. 2, с. 410-11. А. А. Боровков, А. А. Могульский. ДЕФЕКТ критерия (deficiency of a test) - сравнительная характеристика статистического критерия (точнее, последовательности критериев) по отношению к другому критерию, определяемая как разность dn = kn-n объемов выборок, необходимых первому (kn) и второму (я) критериям для достижения одних и тех же вероятностей ошибок 1-го и 2-го рода а и со. Обычно рассматривают последовательность задач, в к-рых при фиксированных а и со объемы выборок п и kn неограниченно возрастают; если при этом Д. dn имеет предел d = lim dn, 156 ДЕРЕВО то d называется асимптотическим дефектом. Значения dnnd, вообще говоря, нецелые; нецелому объему выборки kn придается смысл «стохастической интерполяцией»; критерий использует [kn] или [kn] + 1 наблюдений с вероятностями 1 - у и у, у= kn- [kn]. Асимптотика Д. наиболее показательна, когда асимптотич. относительная эффективность по Питмену двух критериев равна 1, то есть kn/n-+ 1 (см. Асимптотическая эффективность критерия). Переход от отношения объемов выборок к разности позволяет в этом случае выявлять различия в свойствах критериев. Особый интерес представляет изучение Д. асимптотически эффективных критериев, имеющих равную 1 асимптотич. относительную эффективность по отношению к последовательности наиболее мощных критериев при альтернативах, приближающихся к нулевой гипотезе. Само это свойство означает, что dn = o(n), однако, как было обнаружено, многие асимптотически эффективные критерии имеют конечный Д. Нахождение асимптотич. Д. основано на более тонкой асимптотике мощности критерия, чем нахождение асимптотич. относительной эффективности. Пусть, напр., по независимым наблюдениям с общим распределением, имеющим плотность р(х, 0), достаточно регулярно зависящую от 0 е II?, проверяется гипотеза 0 = 0О против 0 > 0О. Тогда критерий будет асимптотически эффективным, если его мощность Р„ t, при п наблюдениях и альтернативе 0 = 0О + tn~x' , t > 0, имеет тот же предел, что и мощность $nt наиболее мощного критерия для той же альтернативы (при фиксированном размере а>0). Если при этом существует lim n($nt-$nt) = r(t), то асимптотич. Д. конечен и равен d = 2r(t(a, со))/(ыа + ujyiuj, где иа = Ф~\\-а), t(a,Q>) = r*/2(%Xua + uJ, /(0) = = Ee[dlnp(X, 0)/50]2 (информация Фишера), Ф и <р - соответственно функция распределения и плотность стандартного нормального закона. Мощности р„л и Р„ t отличаются от своего общего предела членами порядка п ' . Таким образом, конечность Д. предполагает равенство этих членов. Критерии, обладающие таким свойством, называются асимптотически эффективными 2-го порядка. При весьма общих условиях асимптотически эффективные критерии являются и асимптотически эффективными 2-го порядка. Асимптотически эффективные критерии 3-го порядка, для к-рых r(t) = 0, то есть d = 0, существуют лишь в задачах, допускающих существование равномерно наиболее мощного критерия. Понятия «Д.» введено в [1 ]. Изучение Д. и связанных с ним свойств для различных классов критериев активно велось в 70-х гг. (см. обзоры [2]-[4]). Способ вычисления Д., не требующий построения асимптотич. разложений для р„ t и |3„ t, предложен в [5]. Д. нек-рых критериев в случае зависимых наблюдений (цепь Маркова) получены в [6]. Лит.:[\] Hodges J., Lehmann E., «Ann. Math. Statist.», 1970, v. 41, К? 3, p. 783-801; [2] Pfanzagl J., в сб.: Developments in statistics, v. 3, N. Y.-[a.o.], 1980, p. 1-97; [31 Чибисов Д. М., «Изв. АН УзССР. Сер. физ.-мат. наук», 1982, № 5, с. 18-26; К? 6, с. 23-30; [41 его же, в кн.: Proceedings of the International Congress of Mathematicians. Warszawa, 16-24 Aug., 1983, v. 2, Warsz., 1984, p. 1063-79; [51 его же, «Теория вероятн. и ее примен.», 1985, г 30, в. 2, с. 269-88; [6] Малиновский В. К., там же, 1989, т. 34, )з. 3, с. 491-504. Д. М. Чибисов. ДЕЦИЛЬ (decile) - частный случай квантили, квантиль Кр порядка р = ?п/\0, где т = \, ..., 9. Д. дают (в случае единственности) хорошее представление о виде функции распределения. Величина ^9/io~^i/io иногда используется как характеристика рассеяния и называется интердецильной широтой. С. Я. Шоргип.
ДЕЦИМАЦИЯ (decimation), прореживание, временного ряда порядка р > 1 - преобразование выборки из последовательности X(tA), £ = 0, 1, ..., N-\, полученной с шагом А, вида Y(tA) = X(tpA), t = 0, l,..., [(N-\)/p]t где [J - целая часть числа. Частота Найквиста (см. Дискретизации проблема) для ряда Y(tA) равна (2рА)~\ Для предотвращения наложения частот Д. должно предшествовать пропускание через фильтр с передаточной функцией (см. Линейный фильтр) <р(Х) = 0 для Х^(2рА)~1 и ц>(Х)*0 для остальных частот. Д. можно проводить в несколько этапов (каскадная децимация). Обратная децимация порядка р - получение из исходного ряда X(t) последовательности вида рХ(0), 0, ..., 0, рХ(А), 0, ..., 0, pX(tA), ...; £ = 0, 1,..., N-\. Обратная Д. применяется для согласования временных отсчетов различных последовательностей. Для исключения наложения частот перед обратной Д. ряд X(tA) пропускается через фильтр с передаточной функцией (р(>.) = 0 для ^^(2А)-1 и у(Х) ф 0 для остальных частот. Различными вариантами алгоритма быстрого преобразования Фурье являются Д. по времени и Д. по частоте. Лит.: [1] Отнес Р., Эноксон Л., Прикладной анализ временных рядов, пер. с англ., М., 1982. И. А. Кожевникова. ДЖЕЙМСА - СТЕЙНА ОЦЕНКА (James - Stein estimator) - статистическая оценка вида 8у5 = (1-а2(р-2)/|х|2)Х, построенная по случайному вектору X, имеющему гауссовское распределение N(6, с Е) в IR7' с неизвестным вектором средних в и ковариационной матрицей а Е, где Е - единичная матрица. При р > 2 оценка 8 доминирует обычную оценку X относительно функции потерь |8 -6| : Ев|ё/5-е|2<Ев|х-е|2=ра2, ееиу. (О В частности, Ее|8 I = 2а . Оценка 8 минимаксна, но недопустима в1^и доминируется оценкой ef = (1-а2(/?-2)/|х|2)+Х, где </+ = max (a, 0). В случае п независимых наблюдений, имеющих то же распределение, что и X, соответствующие оценки 6„ , 6+„ получаются подстановкой выборочного среднего вместо вектора X и заменой а на о /w. При п ->°° обе оценки допускают разложение «Ев|в„-в|2 = ра2-(р-2)2а4«"1|вГ2(1+а(0) равномерно по |б|>8, 8>0, и допустимы с точностью до п~\ Существование оценок 8, удовлетворяющих (1), было открыто в 1956 Ч. Стейном [1], оценки 8У5 и Q{s введены в [2]. В широком плане явление Стейна состоит в том, что оценка (8t, ..., 8„), компоненты 8f к-рой построены по независимым выборкам и суть допустимые оценки соответствующих параметров 8,, может оказаться недопустимой оценкой вектора (8], ..., 6„) относительно скалярной функции потерь. Это явление охватывает разнообразные задачи оценивания. Пусть неизвестный вектор 8 оценивается по наблюдению X, имеющему гауссовское распределение N(8, G) при квадратичной функции потерь L(8, 8) = (8 -8)ТЯ(8 -8), где G, Н - заданные симметричные положительно определенные матрицы. Для оценок вида 8 = X+G^(X), где ^:IR^->IR^ имеет кусочно непрерывные производные, интегрируемые вместе с \д\ по мере N(6,G), 8elRp, выражение для риска имеет вид ЕеКв, 8) = ЕвШХ, 8) + 8(Х)), где 5(*> = Yi)M Cij\2^- + <7; W<7, W, С = (Ci;) = GHG. (2) Пусть g(x) = Vln f2(x), f> 0. Тогда и замена f(x) = Х(Сх^2х) приводит Ъ(х) к виду Ъ(х) = у(£Х/Х)(С^/2х), где АХ - оператор Лапласа. Таким образом, всякой положительной супергармонич. функции X с интегрируемыми особенностями отношения АХ/Х отвечает оценка 8, доминирующая стандартную оценку X. При р>2 таковы, в частности, функции Х= \х\а, 2-р^а^0, в классе к-рых отношение АХ/Х минимально при а = (2-р)/2. Соответствующая оценка имеет вид 8 = (1 - (р - 2)H~XG~X/XJG~XX)X, откуда при Н = G = Е получается 8 . Метод построения оценки 8 допускает многочисленные обобщения. Нек-рые модификации оценки 8 таковы. 1) Пусть матрица G статистику неизвестна, но в его распоряжении имеется оценка S', имеющая распределение Уишарта со средним G и п - 1 степенями свободы. При р > 2 оценка (1-(р-2)/(п-р + 3)Хт5"1Х)Х доминирует оценку X относительно функции потерь (8-e)G"1(8-8) (см. [2]). 2) В задаче линейной регрессии с независимыми гауссовскими ошибками наблюдений е, с параметрами (0, а2) оценка типа Джеймса - Стейна для функции потерь (8-8) X Х(8 - 8) имеет вид (1 -<т2<Л>- 2>/|в0|2>в0, где X=(Xi;), 80 - оценка наименьших квадратов. 3) Пусть компоненты Х{ вектора X независимы и удовлетворяют соотношениям EXj = 8j E(X{ - в;)2 = 1, Е(Х; - вг)3 = 0, E(X,-8;)4 = fc. Тогда при всех р>2, Ь^р-2, а^4,5 + + 4(fc-3)/3 оценка 8 = (1 -Ь/(а+ |х|2))Х доминирует оценку X относительно функции потерь 18 - 81 (см. [3]). 4) Пусть вектор Х-8 имеет сферически симметричное распределение. Тогда при р>3, 0<д^2(р-2)/рЕо1х|~2 оценка (1-я/|х|2)Х доминирует оценку X относительно функций потерь |в-в|а, 0<а^2 (см. [4]). Если компоненты наблюдаемого вектора X независимы, а их распределение принадлежит экспоненциальному семейству распределений, то процедура улучшения стандартных оценок (6t, ..., 8р) сводится к решению дифференциального неравенства 8(*)^0, где 8- выражение типа (2) с переменными коэффициентами СЛх) (см. [5]-[7]). Пороговая размерность ДЖЕЙМСА 157
вектора X (равная двум в случае гауссовского распределения) может быть в этом случае любой. Лит.: [1] Stein С, в кн.: Proc. 3d Berk. Sympos. Math. Statist. Probab., v. 1, Berk., 1956, p. 197-206; [2] James W., Stein С, в кн.: Proc. 4th Berk. Sympos. Math. Statist. Probab., v. 1, Berk., 1961, p. 361-79; [3] Shinozaki N., «Ann. Statist.», 1984, v. 12, № l, p. 322-35; [4] Brandwein A., Strawderman W., там же, 1980, v. 8, № 2, p. 279-84; [5] Berger J., там же, 1980, v. 8; № 3, p. 545-71; [6] Brown L., там же, 1980, v. 8, № 3, p. 572-85; [7] Ghosh M., Parsian A., «J. Multivar. Anal.», 1980, v. 10, № 4, p. 551-64. Б.Я. Левит. ДЖЕССЕНА-ВИНТНЕРА ТЕОРЕМА (Jessen - Wintner theorem): если свертка счетного числа дискретных функций распределения на прямой является функцией распределения, то она может быть либо дискретной, либо сингулярной, либо абсолютно непрерывной (см. Лебега разложения функции распределения). Примеры (см. [2], гл. VIII, § 5) показывают, что каждая из указанных возможностей реализуется. Д.-В. т. обобщается на случай метризуемых локально компактных абелевых групп (см. [3]). Лит.: [1] Jessen В., Wintner A., «Trans. Amer. Math. Soc», 1935, v. 38, Ко 1, p. 48-88; [2] Феллер В., Введение в теорию вероятностей и ее приложения, пер. с англ., т. 2, М., 1984; [3] Золотарев В. М., Круглое В. М., «Теория вероятн. и ее примен.», 1975, т. 20, в. 4, с. 712-24; [4] Лукач Е., Характеристические функции, пер. с англ., М., 1979. В. М. Золотарев, В. М. Круглое. ДЖОНСОНА-УЭЛЧА ПРЕОБРАЗОВАНИЕ (Johnson - Welch transformation) - аппроксимация одностороннего доверительного предела для параметра нецентральности нецентрального ^-распределения Стьюдента. Пусть X и У независимы, X~N(b; 1), У имеет х -распределение с /"степенями свободы, Т = y[jTx/Y. Тогда нижний доверительный предел 8„ для 8 с доверительным коэффициентом р приближенно равен ЬР =T-<t>-4p)yj\ + T2/2f, где Ф~ (р) есть р-квантиль стандартного нормального распределения (см. [1]). Имеется аппроксимация (см. [2]): „ _|(p-Fv-1(p))/anpMT<0; р " [(p-Fv-1(l-/?))/anPHT>0, где Fv_1 (р) есть р-квантиль х_РаспРеДелени'< с v степенями свободы. При /"-><» получается v*f/x3, a «(-sign T) V(l - х)/Т, $*^Г(\-х2)х~3/2, где х = Т2/(Т2 + 20. При этом Ep-bp = 0(f~U2), но 6*-6,= = 0(Г3/2) при =/•->-. Лит.: [1] Johnson N. L., Welch В. L., «Biometrika», 1940, v. 31, p. 369-89; [2] Большее Л. Н., Пагурова В. И., Аппроксимация нецентрального ^-распределения, М., ЦЭМИ, 1975 (репринт). В. И. Пагурова. ДИАГНОСТИЧЕСКАЯ ПРОВЕРКА о Боксу и Джен кинсу (Box - Jenkins diagnostic checking) - проверка качества модели смешанной авторегрессии - скользящего среднего процесса (АРСС-модели), представляющая собой заключительный этап подгонки АРСС-модели к известному из наблюдений временному ряду xt, t= 1,..., п. Цель проверки - установить пригодность подгоняемой модели после выбора ее порядка и оценивания параметров (см. Параметрическая модель; идентификация спектральной плотности). Д. п. по Боксу и Дженкинсу используется также для выбора порядка параметрич. модели (см. [4], [5]), особенно при наличии оператора скользящего среднего. 158 ДИАГНОСТИЧЕСКАЯ Д. п. по Боксу и Дженкинсу (см. [1]) применяется главным образом к остаточному процессу где ф,, 8; - оценки параметров подгоняемой модели, х - среднее арифметическое всех наблюдений, используемое в качестве оценки постоянного среднего значения Ext ряда xt. Она имеет целью определить степень отличия свойств dt от свойств последовательности некоррелированных случайных величин. Значения xt, dt при t<\, t^q определяются с помощью специального приема. Модель считается пригодной, если выборочная корреляционная функция raa(k) остаточного ряда dt не отличается значимо от нуля при всех \k\ >0. Критерием пригодности модели в этом случае может быть величина X2=«(" + 2)[X^ rl+k)/(«-«], к-рая должна иметь (приближенно) х -распределение с K-p-q степенями свободы (см. [2]). Второй этап Д. п. по Боксу и Дженкинсу состоит в анализе нормированной на дисперсию последовательности dt оценки спектральной функции остаточного ряда dt. Значения этой функции должны с вероятностью (1-е) находиться внутри полосы полуширины KJ^iQ [где Q -■ (п - 2)/2 и Q = (п - 1 )/2 при п четном и нечетном соответственно! с осью на прямой I линии, отвечающей случаю, когда dt - белый шум. Значениям £ = 0,01; 0 05 и 0.10 отвечают Kt= 1,63; 1,36 и 1,22 соответственно. При q * 0 и (или) при наличии острых максимумов в спектре анализируемого ряда рекомендуется включать в Д. п. по Боксу и Дженкинсу анализ корреляционной матрицы оценок I параметров, к-рый может обнаружить непригодность модели, | выбранной только на основе критериев выбора порядка пара- | метрич. модели (см. [3]). | Одним и.з приемов Д. и. по Боксу и Джешсипеу можег служить также подгонка к имеющемуся ряду наблюдений l переопределенной модели, порядок к-рой превышает порядок I модели, 1юдюня'*мой на дайной стадии. Д. п. но Боксу и i Дженкинсу может использоваться также для проверки качест- | ва моделей, содержащих сезонный ход (см. [1]). I В случае ю-.чернот временного ряда дматосгич. проверка ; включает ь себя иосгроени'.; и анализ корреляционных матриц | остаточного вектора df = \du, .... ат+] и матричной частной i корреляционной функции (см. [1|>. ! Лит.: [\\ Бокс Дж„ Дженкинс Г , Анализ временных рядэв. I Прогнои и управление, пер. с англ., в. 1, М., 1974; [2] Kendall M., I Stuart A., The ad\u"cH iht-оту rf statistics, 4 eii., \ 3, L., 19<^3; [3] Привальский В. Е., Кчиматическая измегчивоегь (отохасти ic- ские модели, предсказуемость, спектры), М., 1985; |4] Lut I kcrohl H., <J. Time Series Analysis», 198^, v. '>, № 1, p. 35-52; [5] Tsay R., Tiao G., «Biometrika*, 1985 v. 72, H> 2, p. 299-31v ! В. E. l(ptwaAb<hiiv. I ДИАГРАММ МЕТОД (diagram method) в теории турбулентности-- метод, основанный на графическом представлении в виде диаграмм Фейнмана отдельных членов разложения решений уравнений гидродинамики в формальный ряд теории возмущений по степеням константы | взаимодействия - числу Реппольдса. Свойства диаграмм позволяют производить частичное суммирование ряда с целью получения замкнутых интегральных уравнений, содержа щих в качестве неизвестных искомые величины турбулентного потока. Лит.: [1J Монин А. С, Я] лом А. М., Статистическая гидромеханика, ч. 2, М., 1967; [2] Гледзер F. R., Монин А. С, «Успехи I матем. наук», 1974, т. 29, в. 3, с. 111-59. Е. Б. Гледзер.
ДИАГРАММНАЯ ТЕХНИКА (diagram expansion techniques) - представление моментов и семиинвариантов функционалов от гауссовских векторов в виде сумм по графам. Применяется прежде всего в евклидовой квантовой теории поля, где является важным элементом образного мышления и вычислений и основывается на следующей формуле. Пусть Х(х) - непрерывное гауссово поле на И? с нулевым средним. Тогда для любой ограниченной области Л с Е|д Xn*(xx)...Xn*xk)dxx...dxk = = £с j n^Xix^Xix^dx^.Ax^ где сумма берется по всем графам с петлями (диаграммам) с k вершинами хх> ..., xk и (я1+ +и„)/2 ребрами, причем из t-й вершины выходит щ ребер; xi(l), Xj(l) - вершины ребра /. Вероятностные аспекты Д. т. изложены в обзорах [1]-[3]. Лит.: [1] Глимм Дж., Джаффе А., Математические методы квантовой физики. Подход с использованием функциональных интегралов, пер. с англ., М., 1984; [2] Малышев В. А., Минлос Р. А., Гиббсовскис случайные поля, М., 1985; [3] Малышев В. А., в кн.: Итог»! науки и техники. Сер. Теория вероятностей. Математическая статистика. Теоретическая кибернетика, т. 24, М., 1986, с. 111-86. В. А. Малышев. ДИЗЪЮНКТНЫЙ СПЕКТРАЛЬНЫЙ ТИП МЕР (dis joinct spectral type of measures) - см. Сингулярность мер. ДИЛАТАЦИЯ (dilatation) - см. Минковского операции. ДИНАМИЧЕСКАЯ СИСТЕМА (dynamical system) - см. Эр- годическая теория. ДИНАМИЧЕСКАЯ СИСТЕМА; малые стохастические возмущения (dynamical system; small stochastic perturbations of). Под действием малых случайных возмущений изучаются следующие модели динамич. систем: \)X)=b(X\, e\\ft), \\ft- фиксированный случайный процесс; 2) X? = MXj) + ev,; 3) общие динамич. системы. Для систем 1)-2) устанавливаются предельные теоремы типа закона больших чисел, центральной предельной теоремы, интегральные и локальные асимптотики больших уклонений (см. [1], [2], [4], [5]). В нек-рых случаях удается для систом 2) точно описать предельную систему в случае неединственности решения предельного уравнения Xt=b(Xt)} XQ = x (см. [3]). Лит.: 11] Вентцель А. Д., Фрейдлин М. И., Флуктуации в динамических системах под действием малых случайных возмущений, М., 1979; [2] Вентцель А. Д., Предельные теоремы о больших уклонениях для марковских случайных процессов, М., 1986; [3] Веретенников А. Ю., «Матем. заметки», 1983, т. 33, № 6, с. 929-31; [41 Скороход А. В., Асимптотические методы теории стохастических дифференциальных уравнений, К., 1987; [51 Хась- минский Р. 3., Устойчивость систем дифференциальных уравнений при случайных возмущениях их параметров, М., 1969. А. Ю. Веретенников. ДИНАМИЧЕСКАЯ СИСТЕМА с чисто точечным спектром (dynamical system with pure-point spectrum) - важный для эргодической теории класс динамических систем. Пусть {S*} - эргодическая (см. Эргодичность) однопарамет- рич. группа преобразований вероятностного пространства (Q, ./, Р) и {U*} - сопряженная с ней группа унитарных операторов. Динамическая система с чисто точечным спектром определяется тем, что {U*} имеет полную систему собственных функций. В этом случае каждое собственное значение имеет кратность 1 и их множество образует абелеву группу. Такие Д. с. играют важную роль в теории интегрируемых Д. с. Так, в случае интегрируемости гамильто- новой системы в смысле Арнольда-Лиувилля на почти каждой эргодич. компоненте возникает Д. с. с чисто точечным спектром. Для рассматриваемых Д. с. спектр образует полную систему метрич. инвариантов (см. Изоморфизм динамических систем). Простейший пример стационарного случайного процесса, порождающего Д. с. с чисто точечным спектром, имеет вид X(t) = £ flscos ((ost + <ps) + £ bssin ((&st + фД где asy bs - постоянные, а фазы <ps случайны. Условие стационарности и эргодичности накладывает жесткие ограничения на совместные распределения фаз (см. [2]). Лит.: 11) Корнфельд И.П., Синай Я.Г., Фомин СВ., Эргодическая теория, М., 1980; [21 Яглом A.M., Корреляционная теория стационарных случайных функций, Л., 1981. £. #. Динабург. ДИНАМИЧЕСКАЯ СИСТЕМА статистической механики (dynamical system of statistical mechanics) - название, закрепившееся за однопараметрической группой преобразований {St} в фазовом пространстве М системы с бесконечным числом частиц (степеней свободы), заданной временными сдвигами вдоль решения задачи Коши для уравнений движения типа уравнений Ньютона. Так как система уравнений бесконечна, однозначная разрешимость, вообще говоря, не имеет места на всем М. Возникает нетривиальный вопрос об однозначной разрешимости задачи Коши на «массивном» множестве начальных данных M'cAf таком, что \i(M')= 1 для «широкого» класса вероятностных мер ц на М (состояний системы частиц). Такое множество М' (выделяемое довольно сложными условиями) построено в общей ситуации для так наз. систем осцилляторов (гармонических и ангармонических) (см. [1], [2]). Для «непрерывных» систем частиц, движущихся в евклидовом пространстве Рг под действием парного потенциала взаимодействия U (именно о них идет речь ниже), такое построение проведено (при определенных условиях на U) лишь при d=\t 2 (см. [2]-[6]). Класс вероятностных мер, сосредоточенных на М., включает гибб- совские меры, отвечающие широким классам Гиббса случайных полей. Важную роль играет вопрос об инвариантных мерах Д. с. «Естественными» кандидатами здесь служат случайные поля Гиббса, называемые равновесными распределениями, отвечающими потенциалу взаимодействия U. Множество М'сМ, обладающее свойством ц(М') = 1 для любого распределения Гиббса с потенциалом U, удается построить при любом d^ 1 (см. [7], [8]). Каждое равновесное распределение Гиббса с потенциалом U оказывается инвариантным. В этой ситуации, имея в виду конкретное равновесное распределение, говорят о равновесной динамической системе статистической механики. Задачу описания множества всех инвариантных мер Д. с. статистич. механики естественно ставить в каком-либо априорном классе. В качестве такого класса рассмотрен (см. [9], [10]) класс мер \i на М, задаваемых случайными полями Гиббса и удовлетворяющих ряду ограничений. Множество инвариантных мер в этом классе исчерпывается равновесными распределениями Гиббса. Здесь существенно условие невырожденности взаимодействия U, исключающее, в частности, случай идеального газа ((7 = 0) и (при d- 1) так наз. случай Мозера - Калоджеро (U(r)=A0(sh(Axr)~2)t r>0). В указанных случаях имеются неравновесные инвариантные меры. Вопрос об эргодич. свойствах равновесных Д. с. или, более широко, о сходимости меры \it = [ioSt при t-> ±°° к равновесному распределению Гиббса в общем случае выглядит очень трудным. Он изучен в настоящее время лишь для идеального газа и близких систем. ДИНАМИЧЕСКАЯ 159
Лит.: [1] Lanford О., LebowitzJ., Lieb E., «J. Stat. Phys.», 1977, v. 16, № 6, p. 453-61; [2] Fritz J., там же, 1983, v. 33, № 4, p. 397-412; [3] Lanford O., «Comm. Math. Phys.», 1968, v. 9, № 3, p. 176-91; 1969, v. 11, № 4, p. 257-92; [4] Dobrushin R.L., Fritz-.y., там же, 1977, v. 55, № 3, p. 275-92; [5] их же, там же, v. 57, Ц> 1, p. 67-81; [6] Marchioro С, Pel 1 egrinotti A., Pulvirenti M., в кн.: Random fields. Rigorous results in statistical mechanics and quantum field theory, v. 2, Amst.-Oxf.- NY., 1981, p. 733-46; [71 Синай Я. Г., «Вестн. МГУ. Матем., мех», 1974, т. 29, К? 1, с. 152-58; [8] Presutti E., Pulvirenti M., Tirorri В., «Comm. Math. Phys.», 1976, v. 47, № 1, p. 81-95; [9] Гуре- вич Б. М., Синай Я. Г., Сухов Ю. М., «Успехи матем. наук», 1973, т. 28, в. 5, с. 45-82; [10] Gurevich В. М., Suhov Yu. M., «Comm. Math. Phys.»,1976, v. 49, № l, p. 63-96; 1977, v. 54, № l, p. 81-96; v. 56, № 3, p. 225-36; 1982, v. 84, № 3, p. 333-76. Ю. М. Сухов. ДИНАМИЧЕСКИЙ ПРОГНОЗ (dynamical forecasting) - см. Статистический прогноз погоды. ДИНАМИЧЕСКОЕ ПРОГРАММИРОВАНИЕ стохастическое (stochastic dynamic programming) - см. Стохастическое динамическое программирование. ДИНАМИЧЕСКОЕ ПРОГРАММИРОВАНИЕ; чувствительные критерии (dynamic programming; sensitive criteria) - критерии оптимальности в управляемых цепях Маркова с доходами, в к-рых дисконтированные доходы сравниваются между собой с весами, стремящимися к бесконечности при коэффициенте дисконтирования, приближающемся к 1. Пусть дана однородная управляемая цепь Маркова с конечным множеством состояний X, конечными множествами управлений А(х), переходными вероятностями р(у\х,а) и функцией текущего дохода г(х,а), а е А(х), х е X. Дисконтированный доход при начальном состоянии х и стратегии к равен *р(*> = Е"ХГ=1 РМ»-(*М> at), 0<р<1. (1) Стратегия к называется «-оптимальной, и = -1, 0, 1, 2, ..., если vHx)-vHx) lim-^ В ^0, хеХ, pTi (1-р)" для любой стратегии а (см. [2]). Пусть 00 <*• Ю = Е* ]^ХГ=. «*t-v*A x 6 X, N = 1, 2 9ll^^ = jf^g'lx,tXn = Hl,2 так что &*'*» = *',№* C'N^Hxt_vat). Доказывается (см. [3]), что «-оптимальность стратегии к, п = -\, 0, 1, 2,..., эквивалентна условию Iimj<7*+]U Л0-<7°+|(х, N)]*Q,xeX (а - любая стратегия). В частности, (-1)-оптимальность совпадает с оптимальностью по критерию среднего дохода за один шаг. Для стационарной стратегии <р аналитич. продолжение функции (1) разлагается в окрестности точки (3=1 в ряд Лорана: ^u) = A!1w/(i-p)+Ajw + ^w(i-p) + + h(*(x)(\-$)2+...,xeX. Для цены vAx) = supvq(x), x e X, верно аналогичное разложение 0р(*) = М*)/(1 " Р> + V*> + ^(х)(\ - р) + h2(xH\ - р)2 + ... 160 ДИНАМИЧЕСКОЕ Последовательность векторов {h_v hQ, hx, ...} является лекси- кографич. супремумом последовательностей [h^_v h^, ...} по всем ф, и ф w-оптимальна тогда и только тогда, когда h^m = hm при т = -\, 0, 1, ..., п. Существует стационарная стратегия <р, оптимальная одновременно при всех (3, достаточно близких к 1 (см. [1]); эта стратегия «-оптимальна для любого п^ -1. При любом п ^ 0 векторы /г_1, /г0, • • •, hn удовлетворяют системе из п + 1 уравнений: h_x(x)= sup Pah_x(x\ hQ(x)= sup [r(x,a) + P4hQ-h_x)(x)l M*) = ueAqCx) sup P4hm aeAnAx) ■hm_^)(x), m = l, 2, (2) где xeX, ^Л*> = Х,в*Лу>р<у|*.«>. A-^x) =A(x), Am(x) - подмножество множества Ат_л(х), на к-ром достигается супремум в уравнении для hm_x(x). Система (2) однозначно определяет векторы h_x> hQ, ..., hn_2 (см. 151). Чувствительные критерии рассматриваются также для счетных и полумарковских моделей. Пример. Пусть X = {х, у}, А(х) = {а, Ь}, А(у) = с, р(у \ •, •) = = 1, р(х\,) = 0, r(x, a) = r(y, c) = l, r(x, b) = 0. Здесь есть две нерандомизированные стационарные стратегии: ф(.г)==д, ф(г/) = с и \\f(x) = b, \\f(y) = с. Имеем v^x) - v*(x) =l+p + p2+... = (l- р) *, ^(х)-р + р2 + ... = (1-р)"1-1. Обе стратегии ф и у оптимальны по критерию среднего дохода за один шаг, но на конечном отрезке времени ф, очевидно, предпочтительнее. Это находит отражение в том, что ф «-оптимальна при любом п ^ - 1, тогда как \\f только (-1)-оптимальна. Лит.: [1] В lack we 11 D.. «Ann. Math. Statist.», 1962, v. 33. p. 719-26; [2] Veinott A.F., там же, 1969, v. 40, p. 1635-60, [3] Sladky K., «K)bernetika», 1974. v. 10, p. 350-67; 141 Юшкевич Л. А., Читашвили Р.Я., «Успехи матем наук», 1982, т. 37, в. 6, с. 213-42; [5] Dekker R., Hordijk A., «Math. Operation Research», 1988, v. 13, p. 395-420. А. А. Югикеоич. ДИНАМИЧЕСКОЕ ЧИСЛО РИЧАРДСОНА (Richardson number) - см. Ричардсона число. ДИОФАНТОВЫ ПРИБЛИЖЕНИЯ; э р г о д и ч е с к и е задачи. (Diophantine approximation; ergodic problems) - см. Эргодическис задачи диофаитовых приближений. ДИРАКА МЕРА (Dirac measure) - см. Атомическая мера, Вполне адоитиачая функция множеств. ДИРИХЛЕ ЗАДАЧА стохастическая (stochastic Di- richlet problem) - см. Потенциала теория для марковского процесса. ДИРИХЛЕ ПРОСТРАНСТВО (Dirichlet space) - см." Марковский процесс; форма Дирихле. ДИРИХЛЕ РАСПРЕДЕЛЕНИЕ (Dirichlet distribution) - совместное непрерывное распределение вероятностей случайных величин Xlt ..., Xk> сосредоточенное на множестве с плотностью f(xvx2 .+*л-И, *,>()} ч Г(а,+...+ал) а,-1 а Хи ) = — — \ _. \ Х< 1 ...Х1ш Пах)...ТЫк)' где а, > 0, 1 ^ I ^ k. Д. р. иногда называют многомерным бета-распределением, так как маргинальное распределение каждой из компонент X вектора X, имеющего Д. р.,
совпадает с бета-распределением с параметрами а и а0-а , где а0 = £ аг. Моменты Д. р. вида Е(Х[к..Х£к), где r]t ..., rk- неотрицательные целые числа, равны r(ao>ntirK+r,> r(a0+r0)f]*=1 Па,) где г0 = £. г,. В частности, математич. ожидание и дисперсия Xj равны соответственно a,/a0, a,(a0-af)/ao(a0+ 1), а кова- риации Хг и X при i */ равны cov (X,, X.■) = - afa7/a0(a0 + 1). Лит.: [1] Де Гроот М., Оптимальные статистические решения, пер с англ., М., 1974; [2] Уилкс С, Математическая статистика, пер с англ., М., 1967. С. Я. Шоргин. ДИРИХЛЕ ФОРМА (Dirichlet form) - см. Марковский процесс; форма Дирихле. ДИСКОНТИРОВАНИЕ (discounting) - то же, что обесценивание; см. Вариационные неравенства в стохастическом управлении. ДИСКОНТИРОВАНИЯ КОЭФФИЦИЕНТ (discount га te) - см. Управляемый случайный процесс с дискретным временем. ДИСКРЕТИЗАЦИИ ПРОБЛЕМА (discretization problem) -проблема квантования функции по времени и по амплитуде. Последовательность значений XA(k) = X(kA), k = 0, ±1, ..., стационарного случайного процесса X(t) с непрерывным временем -оо<£<оо в равноотстоящие моменты /гД, от- счигываемые через промежутки А, называется дискретной выборкой процесса X(t) с шагом дискретизации Л. Она представляет собой стационарную случайную последовательность с тем же средним значением EX(t) = = EXA(k) и ковариационной функцией ВА(т) = ЖтД), t = 0, ±1, ..., где В(т) - ковариационная функция процесса X(t). Спектральная плотность f(X) стационарного процесса X(t) и спектральная плотность fA(X) последовательности XA(k) связаны соотношением /д<*> = 2£..ЛЬ + 2я//Д), к-рое описывает эффект наложения частот. Для неслучайных функций X(t), задаваемых интегралом Фурье, распространенным по конечной полосе частот -я/А < X < я/А, имеет место формула Котельникова- Шеннона: х(о=х; sinictt/A-fc) х(ш sinO/4-*) (1) В приложении к стационарным случайным процессам задача о наилучшем приближении к значению X(t) при помощи линейной комбинации Х*(0 = УГ ak(t)X(kA) была рассмотрена А. М. Ягломом в 1949, нашедшим необходимое и достаточное условие существования такой линейной комбинации при всех t. Это условие заключается в том, чтобы е|х(0-х*(0|2 = о. (2) Для процессов X(t) со спектром, сосредоточенным внутри полосы [-я/А, я/А], справедлива формула (1), в к-рой бесконечная сумма понимается как предел в среднеквадратическом. Кроме того, из условия (2) следует, что не существует двух точек спектра процесса X(t), расстояние между к-рыми кратно 2я/А. Граничная частота я/А полосы [~я/А, я/А] называется частотой Найквиста. При дискретизации процесса X(t), спектр к-рого не сосредоточен в полосе частот [-я/А, я/А], возникает явление наложения частот на эту полосу. Если рассматривается стационарный сигнал X(t) на фоне независимого стационарного случайного шума е(0, -<*>< <£<оо, cov(e(0, X(O) = 0, дискретизация по амплитуде с интервалом 8 функции X(t) + z(t) подавляет помехи е(0 при условии, что величина Ее (t)-(Ez(t)) мала по сравнению с величиной 8. Однако это приводит к искажениям X(t), к-рые называются шумами дискретизации Y(t). Для нормального стационарного случайного процесса X(t), -oo<t<oot EX(t) = 0, DX(t)=o , ковариационная функция шумов дискретизации равна Ву(0~- 1 2п* -ехр< 4п2к2(\-ВХ(0)} (Ь/аУ ■ оо < t < °°. Если Ь = о(а), то BY(t)»o /12. Если спектральная плотность X(t) равномерна в низкочастотной полосе шириной 2Л, а для остальных частот равна нулю, то спектральная плотность шумов дискретизации определяется формулой /■AW*- 35^ nzh V 2oln V~ JL £*п=\ „3 ехр 352^2 8n2n2h2a2 — оо< Х,<° Взаимная ковариационная функция шумов дискретизации Y(t) и процесса X(t) выражается следующим образом: BXyU)~2Bx(t)Y°k=i <-D*exp 2nkz - оо < £ < оо. (5/а)2 , Из последней формулы следует, что при (Ь/о) < 1 имеет место BXY(t)*\0-8Bx(t). Лит.: [1] Левин Б. Р., Теоретические основы статистической радиотехники, кн. 1, М., 1966; [2] Яглом A.M., Корреляционная теория стационарных случайных функций, Л., 1981; [3] его же, «Успехи матем. наук», 1949, т. 4, в. 4, с. 173-78. И. А. Кожевникова. ДИСКРЕТИЗИРУЕМОЕ СЛУЧАЙНОЕ ПОЛЕ (discreti zable random field) - см. Ренормализационная группа. ДИСКРЕТНАЯ ВЫБОРКА ПРОЦЕССА (discrete sample of a process) - см. Дискретизации проблема. ДИСКРЕТНАЯ МЕРА (discrete measure) - см. Атомиче екая мера. ДИСКРЕТНАЯ МОДУЛЯЦИЯ (digital modulation) - см. Модуляция и демодуляция. ДИСКРЕТНАЯ РЕНОРМГРУППА (discrete renormalization group) - см. Ренормализационная группа. ДИСКРЕТНАЯ СЛУЧАЙНАЯ ВЕЛИЧИНА (discrete ran dom variable) - случайная величина, имеющая дискретное распределение. ДИСКРЕТНАЯ ФУНКЦИЯ РАСПРЕДЕЛЕНИЯ (discrete distribution function) - см. Лебега разложение функции распределения. ДИСКРЕТНОЕ ПРЕОБРАЗОВАНИЕ ФУРЬЕ (discrete Fourier transform) - преобразование, определяемое соотношениями а(п* ■ я*>=ХУ|1о -ХуДо ^i >*)х . w"kJk (прямое преобразование) и >)х W, -nkJk (обратное преобразование), где // = 0, ..., N-\, И/ = 0, ..., Nf - 1, / = 1, ..., k, WN = ехр{ - 2ni/N}, к-рое при k > 1 называется многомерным, а при k=\ - одномерным Д.п.Ф., при ДИСКРЕТНОЕ 161
комплексных х и а - комплексным, а при действительном х - действительным Д. п. Ф. В одномерном случае приведенные соотношения можно записать в векторной форме A=WNxN, где AN = (a(\), ..., a(N-\))T,xN=W\), ..., x(N-\))T, ^-(ЛГхЛОматрица с элементами W^J, п, / = 0, ..., N - 1, в (я + 1) строке и (/ + 1) столбце. Для вычисления Д. п. Ф. можно пользоваться эффективными алгоритмами (см. Быстрое преобразование Фурье, Винограда метод). /О. С. Романчук. ДИСКРЕТНОЕ РАЗЛОЖЕНИЕ Карунена - Лоэва (Karhunen - Loeve discrete decomposition) - см. Карунена - Лоэва разложение дискретное. ДИСКРЕТНОЕ РАСПРЕДЕЛЕНИЕ (discrete distribution) - распределение вероятностей на измеримом пространстве (Q, .*), сосредоточенное на конечном или счетном числе одноточечных множеств {cot}, {o^},... €.</. Д. р. полностью определяется набором чисел Л = Р<{м»»,Л>0,1«1,2 £~, Pi=U при этом вероятность любого события А е Л равна Р(Л) = У. р.. Д. р. является частным случаем атомического распределения, когда атомы есть одноточечные множества. Распределение случайной величины Х(со), заданной на вероятностном пространстве Ш, s/, P), называется дискретным, если существует конечное или счетное множество событий Ах, А2, ...еЛ таких, что AtAj = 0, i*j, р(=Р(А()^0, £~ PC4j)=l, и Х(со) на Л, постоянна: Х((й) = х{, сое Л;. Случайная величина, имеющая Д. р., называется дискретной. Частным случаем Д. р. случайной величины является решетчатое распределение. Наиболее распространены следующие Д. р.: биномиальное распределение, геометрическое распределение, гипергеометрическое распределение, полиномиальное распределение, Пуассона распределение. Лит.:[\] Прохоров Ю. В., Розанов Ю. А., Теория вероятностей, 3 изд., М., 1987. в. Г. Ушаков. ДИСКРЕТНЫЙ БЕЛЫЙ ШУМ (discrete white noise), абсолютно случайная последовательность,- стационарная последовательность X(t), t = 0, 1, 2, ..., состоящая из взаимно независимых и одинаково распределенных (или, если речь идет о корреляционной теории стационарных случайных последовательностей, попарно некоррелированных и имеющих одинаковую дисперсию а ) случайных величин Х(0 с нулевым средним значением. Д. б. ш. представляет собой стационарную случайную последовательность с корреляционной функцией #(т) = ЕХ(£ + т)Х(0 = а2 при т = 0 и Жт) = 0 при |т|>0 и постоянной спектральной плотностью f(X) = = 02/2к, -К^Х^к. A.M. Яглом. ДИСКРИМИНАНТНАЯ МОДЕЛЬ (discriminant model) - см. Многомерных данных модель структуры. ДИСКРИМИНАНТНАЯ ФУНКЦИЯ (discriminant function) - одна из форм задания решающего правила в задачах распознавания образов и статистической классификации. Пусть имеется многомерное наблюдение Х = (хх, ..., хр)Т и требуется отнести его в один из k заданных классов Н{, ..., Hk. Пусть введены k Д. ф. <7,(Х), i=\, ..., k, и определено решающее правило: если / = arg max <7,(Х), то Хе#/. Реша- 162 ДИСКРЕТНОЕ ющее правило не изменится, если вместо Д.ф. <7;(Х) использовать набор Д.ф. вида <рДХ) = а(Х)д^Х) + Ь(Х), где а(Х) >0 и Ь(Х) - произвольная функция X. Поэтому, вообще говоря, достаточно определить k-\ Д.ф., положив, напр., MX) = -gk(X), а(Х) = 1. Тогда <р*(Х) = 0. В частности, для случая k = 2 можно использовать всего одну Д.ф. д(Х) = дх(Х)-д2(Х) и считать, что XeHv если д(Х)>0, и Хе#2, если дШ)^0. Геометрии, смысл Д.ф. д(Х) заключается в том, что она задает уравнение поверхности, отделяющей область ^-мерного пространства, соответствующую классу Нх, от области, соответствующей классу Я2. Построение (оценивание) оптимальных в том или ином смысле Д. ф. составляет одну из задач дискриминантпного анализа. Исторически первым примером Д.ф. является, по-видимому, линейная Д.ф. Фишера, предложенная им в 1936 для разделения двух классов, заданных обучающими выборками g(X) = XTS~\Xx-X2)-±(Xx-X2)TS~x(Xx + X2) + ct где 51 - выборочная оценка ковариационной матрицы, полагаемой равной для обоих классов; Хг - оценка вектора средних для класса Н{, с - константа, выбираемая в зависимости от априорных вероятностей классов. Лит.: [1] Fisher R.A., «Ann. Eugenics», 1936, v. 7, p. 179-88; [2] Андерсон Т., Введение в многомерный статистический анализ, пер. с англ., М., 1963. //. с. Енюков. ДИСКРИМИНАНТНЫЙ АНАЛИЗ (discriminant analysis) - раздел статистического анализа, посвященный получению правил классификации наблюдений (объектов) в один из нескольких классов (групп, категорий, популяций). Пусть имеются исходные, подлежащие классификации, наблюдения в виде матрицы данных X, причем предполагается, что они представляют выборку из генеральной совокупности, являющейся смесью наблюдений из k классов Dx, ..., Dk, при этом г-му классу соответствует закон распределения вероятностей Pj(X), 1=1, ..., k. Распределения Рг(Х) либо известны, либо могут быть статистически оценены по имеющимся в распоряжении исследователя обучающим выборкам Х;1, Xj2, .... Xfn, /= 1, 2, ..., k, XjieDj. (Выборка {Х;7}, /= 1, ..., п, называется обучающей, если известно, что все ее наблюдения извлечены из одной и той же генеральной совокупности D..) Требуется указать правило классификации S, относящее наблюдения из X к одному из классов (законов распределения) D, с минимальными, в определенном смысле, потерями. Обучающие выборки могут составлять часть выборки X. Общий вид функционала качества классификации в Д. а. определяется в виде где ctj, qj и P$(i|/) - соответственно потери от классификации объекта из /-го класса в t-й класс, удельный вес (априорная вероятность) объектов /-го класса и вероятность ошибочной классификации объектов /-го класса в i-й класс при использовании классифицирующего правила S. Во многих реальных задачах трудно оценить потери ci} из-за неправильной классификации объектов, а иногда и априорные вероятности qj появления объектов различных классов. В этих случаях можно воспользоваться так наз. бейесовским подходом, в соответствии с к-рым наблюдение X должно быть отнесено к классу с тем номером /, для к-рого соответствующая апостериорная вероятность, а следовательно и логариф- мич. функция правдоподобия ln(gfP,(X)) оказываются максимальными по всем t=l, 2, ..., k. Таким образом, решение об отнесении «текущего» наблюдения X к одному из i классов
принимается на основании значений функций dj(X) = = \n(qjPj(X)). Функции dj(X) и определяемые ими поверхности di.(X) = di(X)-dj(X) принято называть дискрими- нантными функциями. Так что искомое правило классификации S определяется соответствующей системой дискри- минантных функций S:XeD,, если d.(X) = arg max dXX). 3 J \^i^k Правило классификации, основанное на бейесовском подходе, минимизирует среднюю величину ошибочной классификации о,(5)-^.у.м#^Л«1/>- Помимо бейесовского подхода к построению дискриминант- ных функций практикуется подход, непосредственно не опирающийся на идею отношения логарифмич. функций правдоподобия. Вместо этого пытаются подобрать такую систему функций di(X) = di(X; в) из параметрич. семейства {d(X\Q)}, 8 е 0, на к-рой максимизируется та или иная мера различия между анализируемыми классами, напр.: Q«?(e> = 2- w(j ' q-t DiidijiX; BitBj))+qj Dy{^(X; Gf, в;-)} где djAX, в,, в;) = d,(X; в,) - d,(X; в.), <7f - оценка априорной вероятности qit напр. q^njn. В этом соотношении «веса» тюц учитывают относительную важность правильности различения классов с номерами i и j среди всех возможных пар классов, то есть w{: суть аналоги величин с у, а Е^(Х)} и D7{£(X)} - это соответственно оценки математич. ожидания и дисперсии случайной величины £(Х), вычисленные в предположении, что аргумент X принадлежит i-му классу, то есть оцененные но соответствующей обучающей выборке. В частности, известная линейная дискриминантная функция Фишера является решением случая описанной схемы, когда k = 2. Л. Вальд (A. Wald) показал оптимальность дискриминант- ной функции Фишера и в бейесовском смысле, когда РХ(Х) и Р2(Х) - многомерные нормальные распределения, отличающиеся друг от друга только векторами средних значений. Лит.: [1) Fisher R. A., «Ann. of Eugenics», 1936, v. 7, p. 179-88; [2] Айвазян С. А., Бежаева 3. И., Староверов О. В., Классификация многомерных наблюдений, М., 1974; [3] Рао СР., Линейные статистические методы и их применения, пер. с англ.. М., 1968. И. С. Енюков. ДИСКРИМИНИРУЮЩИХ ЭКСПЕРИМЕНТОВ ПЛАНИРОВАНИЕ (design of discriminating experiments), планирование эксперимента для проверки гипотез, для выбора модели,- методы планирования экспериментов для максимизации функционалов от мощности критериев проверки гипотез о виде распределения. Ниже приведены результаты о выборе одной из моделей регрессионного эксперимента и максимизации локальной мощности проверки линейных гипотез. Пусть планируемые измерения у |, ..., yN описываются одной из моделей Hi:yj = J\i(Xj,Qi) + EJ.,j=\, ...,N, (*) где i = 0,t (для простоты), в* е Ц cz IR™', г.- независимы, Ее.- = 0, De =о , £= (.Xj, ..., xN) - план регрессионного эксперимента. При дополнительном предположении нормальности et, ..., zN для плана £ величина <,-2Tft, в') = 5J1, (1,Ц. в!) - ц,-,Ц-. е*1"'))2 есть параметр нецентральности F-критерия (или % -критерия при известном а ) адекватности Hv.v когда справедлива Ht. Здесь в*1 ' определяет наилучшее в L (Z) приближение Г|,(-,6г) моделью #1Н. Мощность дискриминации при Hi есть возрастающая функция Tit что оправдывает поиск плана, максимизирующего Г,(£, в1). Ввиду неизвестности истинной Н( и 6* используют три подхода к планированию: последовательный, минимаксный и бейесовский. Пусть рассматривается последовательное планирование эксперимента, статич. проекция к-рого слабо сходится при Ht к плану £*, максимизирующему более общий, чем Tt, функционал Г1-(5,в,')= min f f(Y" (л1-и|-,в,')-Л1-1-(^,-,в,')))5(^), применяемый при общих распределениях ошибок и робастном оценивании. Результаты об асимптотич. оптимальности таких планов аналогичны описанным в ст. Последовательное планирование эксперимента. Алгоритм задан индуктивно. Пусть проведены измерения в точках xv ..., хп и найдены единственные оценки 6m=arg min Y" F(y- -ть(*.-. в')), i = 0,l. Находят j:„+1=arg max F(y\0(x, 90„)-r\^x, Qu)) x eX и проводят (я + 1)-е измерение в точке xn+v Обоснование этой процедуры основано на теореме эквивалентности (см. Регрессионных экспериментов планирование). При нарушении нек-рых предположений применяются модификации процедуры. Для начальной серии измерений разумно взять план £*, максимизирующий min j F(j)i(x,Q])-j)Q(x,Q0))Z,(dx), * = 0,1. бе Qj Получены необходимые и достаточные локальные условия максиминности £*, опирающиеся на теорию равномерного приближения нуля функциями вида Т|0( )-T|i() (см. [1]). Пример: одномерные многочлены щ(-) и T|i() степени k и k + d на отрезке [-1, 1], T|iW = X =о в/"*™' ?(у) = У2> ^t = №:X i^n+m^l}- Доказано, что максиминным является единственный план £/ в точках экстремума многочлена Чебышева Tk+d(x), причем одинаковые веса граничных узлов £* вдвое меньше весов внутренних узлов £* (см. [2]). Макси- минный план для дискриминации r-мерных многочленов степени k и k + d есть прямое произведение соответствующих одномерных планов, d=\, 2. Найдены (см. [2]) многомерные максиминные планы с меньшим носителем и для других ilt и функций регрессии (напр., тригонометрич. полинома). Если имеются априорные веса тс, для Н{ и распределения FQi для вг, г=1, ..., w, причем лд*,е')=/7и)в', то образуют блочную информационную матрицу М для модели л(") = 2^бУ)(') и находят подматрицу М^ матрицы кова- риаций оценок наименьших квадратов для 6* и априорные моменты ej = J е'ше'), d10 = J (e* -e0)(e' -%)Tfuv). Тогда бейесовский вариант критерия (*) есть I««t{M(0<§)(^+eS(eS)T)] Найдены различные итерационные процедуры поиска макси- минных и бейесовских планов (см., напр., [1]). При естественных условиях на план, функции регрессии и при регулярных плотностях распределения ошибок регрессионный эксперимент обладает свойством локальной асимпто- ДИСКРИМИНАНТНЫЙ 163
тич. нормальности, так что оптимальные критерии в нормальном случае являются асимптотически оптимальными при больших выборках (см. [3]). Для гауссовского линейного регрессионного эксперимента (*) рассматривают матрицу Оф(£) вторых производных мощности несмещенного критерия \|/ гипотезы Я0 уровня а, 0 < а < 1. Поскольку F-критерий является несмещенным, его мощность при Я0 постоянна и ее градиент при Я0 равен нулю. Если Ф() удовлетворяет условиям, указанным в ст. Регрессионных экспериментов планирование, и £/ минимизирует ФШФ(£)), то £* называется (Ф, Ф)-планом. Доказана двойственность (Ф,Ф)-планов и планов, минимизирующих сопряженную в определенном смысле к Ф функцию от матрицы ковариаций оценок наименьших квадратов параметров в , обращающихся в нуль при Я0 (см. [4]). Если trDF(£/) максимален и DF кратна единичной матрице, то процедура, составленная из £* и F-критерия, максимизирует по Шуру матрицу D() среди всех планов и несмещенных критериев проверки Я0. Таковы сбалансированные блочные планы, если в составляет базис контрастов от эффектов сорта. Лит.: [1] Математическая теория планирования эксперимента, М., 1983, гл. 16; [2) Мал ютов М.Б., в кн.: Планирование оптимальных экспериментов, М., 1975; [3] Русас Дж., Контигуальность вероятностных мер. Применения к статистике, пер. с англ., М., 1975; [4) Muller-Funk U., Pukelsheim F., Witting H., «Linear Algebra AppU, 1985, v. 67, p. 19-34. M. Б. Малютов. ДИСПЕРСИОННОГО ОТНОШЕНИЯ РАСПРЕДЕЛЕНИЕ (variance ratio distribution) - см. Фишера F-распределение. ДИСПЕРСИОННЫЙ АНАЛИЗ (analysis of variance) - ста тистический метод, предназначенный для изучения влияния различных факторов на результаты эксперимента. Д. а. был первоначально предложен для обработки результатов агроно- мич. опытов Р. Фишером [1], к-рый определил его как метод отделения дисперсии, приписываемой различным группам. Позднее этот метод был переформулирован в терминах общей линейной модели, что дало возможность рассматривать с единой точки зрения многие задачи Д. а. и задачи оценивания и проверки гипотез в моделях регрессии. Подробный историч. обзор приведен в [2]. Современные приложения Д. а. охватывают широкий круг задач экономики, биологии и техники. В основе каждой задачи Д. а. лежат план эксперимента, то есть правило соотнесения проводимых измерений с определенной комбинацией рассматриваемых факторов, модель Д. а., то есть математич. соотношение в виде суммы среднего эффектов от каждого фактора и каждой комбинации факторов, и случайные ошибки. Возникающие здесь статистич. задачи связаны с оценкой этих эффектов и проверкой статистич. гипотез о них. Следует заметить, что, хотя Д. а. предназначен для обработки планируемых экспериментов и наиболее эффективен именно в этих условиях, его стандартные процедуры широко применяют для обработки экспериментальных данных, полученных без предварительного планирования, напр. в задачах выборочных обследований. При этом значительно осложняются задачи формулирования моделей и интерпретации результатов обработки. Классификация задач Д. а. основана прежде всего на характере анализируемых факторов: различают модели с постоянными факторами (модель I), со случайными факторами (модель II, или модель компонентного анализа) и смешанные, а также модели, в к-рых часть факторов являются количественными (регрессионными) переменными, а остальные имеют неколичественный характер. Методы анализа таких моделей выделяют в особую область ковариационного анализа. Кроме того, задачи Д. а. различают по числу анали- 164 ДИСПЕРСИОННЫЙ зируемых факторов (анализ однофакторный, двухфакторный и т. д.) и по виду используемого плана эксперимента. Предположим, что в исследование включено р факторов и i-й фактор имеет mi градаций (уровней), тогда имеется т = т^т2...тр различных сочетаний условий эксперимента. Если каждому из этих условий соответствует хотя бы одно наблюдение, то такую схему называют полным р-планом. Если в эксперименте требуется сравнить нек-рое число q совокупностей условий, то наблюдения обычно группируют в блоки, содержащие близкие между собой результаты. При этом если в каждом блоке содержатся наблюдения, отвечающие всем q совокупностям условий, то говорят о полном блочном плане, если только часть из них - о неполном блочном плане. Для того чтобы уменьшить влияние неучтенных факторов, размещение наблюдений внутри блоков часто производят с использованием какого-то случайного механизма. Такие планы экспериментов называют случайными, или рандомизированными. Их обсуждение содержится в [3] (см. также [4]). В качестве примера можно рассмотреть данные об образовании газообразного азота в человеческом организме в естественных условиях (данные из [5], [6]). Пример 1. Пусть У - случайная величина, реализации крой у представляют собой количество выдыхаемого азота (в литрах), (X = ЕУ - среднее количество выдыхаемого человеком азота. Реализации У изучаются для четырех режимов питания (фактор А), характеризуемых процентным содержанием белков. Пусть У;;, i= 1, ..., q (здесь q = 4), j= 1, ..., nv- независимые случайные величины, реализации к-рых ytj представляют собой количество азота, выдыхаемого испытуемыми, придерживающимися i-й диеты, Eyf; = |i + (Xj, где а, - эффект t-й диеты, щ - число испытуемых, придерживающихся i-й диеты, t=l, ..., q, ^Я.Щ = п. Математич. модель в этом случае имеет вид У;у = ц^(Х; + ^., *=1, .... 4,; = 1, ..., nit (1) где YtJ- - результаты, полученные для /-го испытуемого, придерживающегося i-й диеты, ^ij - случайная погрешность. Если в постановке задачи были четко зафиксированы четыре диеты (Dt - безбелковая, D2 - 23% белков, D3 - 32% белков, D4 - 67% белков), то получается модель однофакторного Д. а. с постоянным эффектом (фактором) - модель I. Проверяется гипотеза Я0 о том, что все дифференциальные эффекты аг = 0. Пример 2. Пусть в условиях примера 1 четыре значения содержания белков в диете были выбраны случайным образом (напр., с помощью таблицы случайных чисел), и пусть (только для иллюстрации) эти значения оказались равными 0; 23; 32; 67. Имеем модель однофакторного Д. а. со случайным эффектом (фактором) - модель II. Пример 3. Попытаемся в условиях примера 1 оценить влияние не только диеты (фактор Л с 4 уровнями), но еще и пола испытуемого (фактор В с 2 уровнями). Модель в этом случае имеет вид У;*;- = И + а, + Р* + Г,* + ^. »=« 4, k=\,2, (2) 7 = 1, ..., nik, где nik - число испытуемых на i-м уровне фактора А и k-м уровне фактора В, ^. - случайные погрешности. Имеем двухфакторную модель Д. а.; если все числа nik Отличны от нуля, то имеем полный двухфакторный план эксперимента. Выбор модели I или модели II определяется условиями эксперимента так же, как в примерах 1 и 2. Проверяемые гипотезы здесь могут иметь вид Н|:а^0;Я2:р^0;Я3:г,^0.
Их называют соответственно гипотезами об отсутствии главных эффектов (#j, Н2) и об отсутствии взаимодействия Ш3). Задача проверки выдвинутых гипотез может быть решена только при введении дополнительных предположений о вероятностной структуре погрешностей наблюдений. Обычно предполагают, что они независимы и подчиняются нормальному закону с нулевым средним и постоянной дисперсией а , что позволяет использовать развитую теорию метода наименьших квадратов. Менее жесткие предположения требуют соответственно достаточно большого числа наблюдений, при к-ром становится оправданным обращение к результатам асимптота ч. теории. В рассмотренных предположениях статистики критериев проверки выдвинутых гипотез имеют вид отношений квадратичных форм от наблюдений, для к-рых теоретически в рамках принятой модели устанавливается независимость и равенство нулю параметров нецентральности в случае справедливости проверяемой гипотезы. Одним из наиболее важных математич. результатов, используемых на этом этапе рассуждений, является теорема Кокрена (см. [5], [7], [8]), утверждающая, что если в условиях общей линейной модели Sj, ..., Sq - квадратичные формы от наблюдений, имеющие ранг соответственно Vj, ..., v^,, и величина S = ^q St распределена как o¥(v), где v = £?_1 vi> то формы Sj, ..., Sq независимы, распределены как <г% (vf), и, таким образом, статистика вида F = (5l/vl)/(5./v.) подчиняется распределению Фишера F(Vj, v;). Для модели примера 1 задача сводится к минимизации суммы квадратов но переменным |1 и a,, i= 1,..., 4, с дополнительным ограничением равенства нулю взвешенной суммы эффектов Zti niai=°> к-рое обеспечивает единственность оценки. Оценки по методу наименьших квадратов имеют вид А = У =-У. , У.', Ун, п = У. л п,;, р *" п ^=i ^;=i y,> «=i l I () а, = У i. -У ={; XyLi У if ~ У > { = *• •••• Ч Типичная программа однофакторного Д. а. вычисляет оценки Д и а, (или Дг- = Д + ос,-), a также значения квадратичных форм SS, их ранги v и средние квадраты MS для каждого из источников дисперсии: межуровневого (или межгруппового) и внутриуровнего (внутригрунпового). Для дисперсии между уровнями получаем sSB = JLli »i<y.--*..>2; vb = * MSB = SSB/vB, (4) для дисперсии внутри уровней SSR = It. IJi {УЧ ~ *i)2' vR = " " 4; М5Л = SSR/vR. (5) Величина MSR дает обычную несмещенную оценку дисперсии o2:MSR = S . Независимость форм (4) и (5) устанавливается с помощью теоремы Кокрена. Иногда вычисляется также полная сумма квадратов 55г=Х1,11<*у-у->2;*7-=»-1- (6) Статистика критерия проверки гипотезы Я0: (X; = 0 называется F-отношением; ее реализация, полученная в эксперименте, также называется F-отношением и имеет вид F = MSB/MSR. (7) Критич. зона находится по обычным правилам с помощью таблиц распределения Фишера F(vB, v^). Пример 4. В условиях примера 1 при п1 = ... = я4 = 9 были получены следующие экспериментальные данные (см. [6], [5]): п\ 4,079 4,859 3,540 5,047 3,298 4,679 4,870 4,648 3,847 4,0963 п2 4,368 5,668 3,752 5,848 3,802 4,844 3,578 5,393 4,374 4,6252 яз 4,169 4,709 4,416 5,666 4,123 5,059 4,403 4,496 4,688 Средние 4,7477 П4 4,928 5,608 4,940 5,291 4,674 5,038 4,905 5,208 4,806 5,0442 Оценки по методу наименьших квадратов параметров модели I находятся по формулам (3): Д=4,6284; 6ct = -0,5321; 6с2= -0,0032; &з = 0,1193; а4 = 0,4158. Квадратичные формы (5) и (6) принимают следующие значения: SSB = 4,2321; vB = 3; MSB= 1,4107; SSR= 14,0569; vR = 32; MSR = 0,4393; SST= 18,2890; vr = 35, откуда F-отношение F = 3,21, и по таблицам распределения Фишера F (3; 32) видно, что гипотеза Я0 отвергается с вероятностью ошибки 1-го рода а < 0,05. Дальнейшее сравнение свойств анализируемых диет можно провести, используя, напр., метод множественных сравнений. В ситуации примера 2 предполагается, что используемые уровни факторов сами представляют собой независимые случайные величины, распределенные по нормальному закону со средним (X и нек-рой дисперсией <Jfl. В качестве модели при этом опять выступает соотношение (1), но эффекты а, рассматриваются как непараметрич. оценки регрессии - случайные величины со средним 0, независимые от погрешностей £i;-. Вместо оценки величин а, здесь интересуются оценкой дисперсии <Уд, так что на основе метода наименьших квадратов требуется оценить среднее |i и компоненты дисперсии а и Од (откуда и происходит другое название соответствующей техники - компонентный анализ),а гипотеза Н0 сводится к соотношению <Tfl = 0, означающему, что изучаемый фактор (диета) не вносит никакого вклада в дисперсию. В случае однофакторного компонентного анализа оценка <5а имеет вид o2a=(MSB-MSR)/k, *-£[2L "'-St. "</IL 4 где q - число уровней изучаемого фактора (в приведенных примерах t/ = 4), а для проверки гипотезы Я0 используется то же F-отношение (7), что и в модели с постоянными факторами. При наличии большего числа факторов вычислительные формулы становятся значительно более сложными (см. [5], [7J, [8]). ДИСПЕРСИОННЫЙ 165
Наиболее подробное рассмотрение различных схем Д. а. содержится в [8]. Более специальное обсуждение, ориентированное на распространенные пакеты прикладных программ, см. в [5]. Модели современного Д. а. охватывают широкий круг реальных экспериментальных схем, однако многие теоретич. проблемы еще далеки от окончательного решения. В частности, к ним относятся вопросы анализа влияния различных нарушений основных предположений, таких, как нормальность, независимость, гомоскедастичность (предположение равенства дисперсий) и др. (см. [8]). Одна из важных проблем связана с возможностью изменения параметризации, то есть с введением в качестве новых факторов нек-рых нелинейных функций от анализируемых факторов, обладающих, напр., свойством «наименьшего взаимодействия» друг с другом. Большое внимание уделяется разработке непараметрических и робастных процедур Д. а. (см. [9], [10]), созданию универсальных пакетов прикладных программ, реализующих наиболее продвинутые теоретич. разработки проблем Д. а. (см. [5], [7]). Лит.: [1 ] Fisher R. A., Statistical methods for research workers, 13 ed., L., 1958; [2] Scheffe H., «Ann. Math. Stat», 1956, v. 27, p. 251-71; [3] Фишер Р. А., Математика дамы, дегустирующей чай, пер. с англ., в сб.: Современные проблемы математики, М., 1981, с. 46-58; [4] Налимов В.В., Теория эксперимента, М., 1971; [5] Афифи А., Эйзен С, Статистический анализ. Подход с использованием ЭВМ, пер. с англ., М., 1982; [6] Cissik J. H., Johnson R. E., Rokosch D. К., «J. appl. Physiology», 1972, v. 32, p. 155-59; [7] Айвазян С.А., Енюков И.С, Мешалки н Л. Д., Прикладная статистика, М., 1985; [8] Шеффе Г., Дисперсионный анализ, пер. с англ., М., 1980; [9] Хо л лен дер М., By л ф Д. А., Непараметрические методы статистики, нер. с англ., М., 1983; [10] Schrader R. M., McKean J. M., «Commun. statist.», 1977, v. A6, К? 9, р. 879-94. А. В. Макшанов. ДИСПЕРСИОННЫЙ АНАЛИЗ; смешанная модель (mixed model of the analysis of variance), дисперсионный анализ II рода, - схема регрессионного эксперимента, где матрица ковариации ошибок измерений есть линейная форма известных матриц с коэффициентами (компонентами дисперсии), подлежащими оценке. Введена Р. Фишером [1], предложившим при сбалансированном плане оценки дисперсионного анализа (ANOVA) для оценки коэффициентов дисперсии. При несбалансированном плане эти оценки, вообще говоря, несостоятельны. Обычно рассматривают следующую модель N-вектора измерений: Здесь X, (7j - известные матрицы, р е Vr, Gi• е IR - неизвестные параметры, Ф, - независимые случайные т,-векторы, covOt = /w - единичные матрицы, i= 1, ..., /. В этой модели Ег/ = Х|3, cov# = £.=1 dfii% где G{= UiUj, di = Oi - коэффициенты дисперсии. При дополнительных условиях регулярности и нормальности Ф, справедлива локальная асимптотич. нормальность семейства мер, отвечающих измерениям (*), и локальная асимптотич. минимаксность оценок наибольшего правдоподобия для (р, dv ..., d{) при больших выборках и специальных типах нормировки. Исследованы сходимость итерационных процедур численного поиска оценок типа максимального правдоподобия для более общих семейств распределений и их асимптотич. нормальность. Весьма популярными являются одношаговые квадратичные по вектору у несмещенные оценки, инвариантные относитель- 166 ДИСПЕРСИОННЫЙ но среднего измерений (MINQUE, а также их бейесовские аналоги) для тех ситуаций, где таковые оценки существуют. Для специальных случаев развита теория оптимальных планов смешанных моделей, оптимизирующих функцию от матрицы ковариации оценок среднего и коэффициентов дисперсии. Лит.: [1] Fisher R., «Trans. Roy. Soc. Edinburgh», 1918, v. 52, p. 399-433; [2] Шеффе Г., Дисперсионный анализ, пер. с англ., М., 1980; [3] Rao С. R., Kleffe J., Estimation of variance components and applications, Amst., 1988. М.Б. Малютов. ДИСПЕРСИОННЫЙ МЕТОД в теории чисел (dispersion method in the number theory) - метод для решения нек-рых бинарных уравнений (бинарных аддитивных задач) вида а + р = и, (1) где аир принадлежат к достаточно густым и хорошо распределенным в арифметических прогрессиях последовательностям натуральных чисел. Д. м., разработанный Ю. В. Линником в 1958-61 и поэтому называемый также дисперсионным методом Липни к а, соединяет в себе элементарные теоретико-вероятностные понятия (в частности, понятие дисперсии и неравенства типа Чебышева) с аналитич. и алгебраич. идеями И. М. Виноградова и А. Вейля (A. Weil). Сущность Д. м. состоит в. следующем. Уравнение (1) сводится к уравнениям вида vD' + p = n; (2) здесь v, D' независимо пробегают нек-рые значения из прямоугольной области ve(v), D'e(D)} где (v) и (D) - нек-рые интервалы; при этом числа v простые, а на D' могут быть наложены различные дополнительные условия. Пусть через F обозначено число решений этого уравнения. Пусть теперь имеется уравнение vD + Р = п при произвольном D е (D) и через А(п} D) обозначено число его решений, найденных из каких-либо эвристич. соображений. Тогда (гипотетически) число ожидаемых решений уравнения (2) записывается в виде Оценка разности F-S= V имеет вид ^X^tW,1-^'00} (3) Применение неравенства Коши приводит к неравенству V2^DQV', (4) где D0 - длина интервала (D), а ^Е^сД^М1-*"'00)2 (3> есть дисперсия числа решений уравнений (2). Если распространить суммирование в (5) на все D e (D), то будут сняты все дополнительные условия, наложенные на D' в (2). В то же время величина дисперсии может только возрасти. Поэтому Суммы V , V и V в нек-рых случаях удается вычислить асимптотически. Главную трудность представляет вычисление V - основной суммы Д. м. Асимптотич. расчет суммы Y
осуществляется при помощи метода Виноградова по подсчету для нек-рых функций количества их дробных частей, попадающих в заданный сегмент, а также с использованием новейших оценок тригонометрич. сумм, полученных средствами алгсбраич. геометрии. Асимптотика для сумм Y и V находится путем элементарного суммирования. Если в результате дисперсия оказывается не слишком большой, то из (3) и (4) получается асимптотика для числа решений уравнения (2). Объединение числа решений всех уравнений вида (2) приводит к асимптотич. формуле для числа решений уравнения (1). Рассмотренная схема Д. м. применима и для решения уравнений вида а-Р = /, где / -> заданное целое число, отличное от нуля. При помощи этого метода Ю. В. Линником и др. (см. [3]) был решен ряд классич. бинарных аддитивных проблем, к-рые до создания Д. м. могли быть решены только на основе эври- стич. или гипотетич. соображений. К числу таких проблем относятся: аддитивная проблема делителей (а = xv х2, ..., xk, k = const, $ = ху); проблема Титчмарша делителей (а = р- простое, $ = ху); проблема Харди - Литлвуда (а = р- простое, $ = х + у ). Лит.: [1] Линии к Ю. В., Дисперсионный метод в бинарных аддитивных задачах, Л., 1961; [2] Бредихин Б. М., «Успехи матем. наук», 1965, т. 20, в. 2, с. 89-130; [3] Бреди хи н Б. М., Лин- н и к Ю. В., в сб.: Актуальные проблемы аналитической теории чисел, Минск, 1974, с. 5-22. Б. М. Бредихин. ДИСПЕРСИЯ (variance) случайной величины- мера DX отклонения случайной величины X от ее математического ожидания ЕХ, определяемая равенством DX=E(X-EX)2. (1) Свойства Д.: DX = EX2-(EX)2; если с - действительное число, то D(cX) = c2DX, в частности D(-X) = D(X). Когда говорят о Д. случайной величины X, всегда предполагают, что существует математич. ожидание ЕХ; при этом Д. DX может существовать (то есть быть конечной) или не существовать (то есть быть бесконечной). В современной теории вероятностей математич. ожидание случайной величины определяется через интеграл Лебега по пространству элементарных событий. Однако важную роль играют формулы, выражающие математич. ожидание различных функций от случайной величины X через распределение этой случайной величины на множестве действительных чисел. Для Д. DX эти формулы имеют вид: a,>DX = 2\<6,-EX)2p, для дискретной случайной величины X, принимающей не более чем счетное число различных значений ai с вероятностями pi = P{X = ai}\ б) DX = J^ (x-EX)2p(x)dx для случайной величины X, имеющей плотность распределения вероятностей р(х); в) DX = J2>o(x-EX)2dF(x) в общем случае, где Fix) - функция распределения случайной величины X и интеграл понимается в смысле Лебега - Стил- тьеса или Римана - Стилтьеса. Д. не является единственной мыслимой мерой отклонения случайной величины от ее математич. ожидания. Возможны другие меры отклонения, устроенные по тому же принципу, напр. Е|X - ЕХ|, Е(X - ЕХ) и т. д., а также меры отклонения, основанные на квантилях. Особая важность Д. объясняется главным образом той ролью, к-рую играет это понятие для предельных теорем. Грубо говоря, если знать математич. ожидание и Д. суммы большого числа случайных величин, то можно полностью определить закон распределения этой суммы: он оказывается нормальным (приблизительно) с соответствующими параметрами. Таким образом, важнейшие свойства Д. связаны с выражением для Д. D(Xt +... +J(n) суммы случайных величин Xt, ..., Хп: Q(X, + ... + Xj = Yli^DXi + 2Zi<jcov(Xt,XJ), где cov (Х„ Xj) = Е{(Х, - ЕХ,)(Ху - ЕХу)} обозначает ковариацию случайных величин Xt и Х;. Если случайные величины Xt, ..., Хп попарно независимы, то cov (Хг, X ) = 0. Поэтому для попарно независимых случайных величин D(Xt + ... + Хп) = DXt + ... + DX„. (2) Обратное утверждение неверно: из (2) не следует независимость. Однако, как правило, применение формулы (2) базируется на независимости случайных величин. Строго говоря, для справедливости (2) достаточно лишь, чтобы cov (Xj, Xj) = 0, то есть чтобы случайные величины Xv ..., Хп были попарно некоррелированы. Применения понятия Д. развиваются по следующим двум направлениям. Во-первых, применение в области предельных теорем теории вероятностей. Если последовательность случайных величин Xt, X2, ..., Х„,... обладает тем свойством, что ОХп -> 0 при п -> оо, то для любого е > 0 при п -> °° Р{|*п-ЕА'„|>е}->0 (см. Чебышева неравенство), то есть практически при больших п случайная величина Хп совпадает с неслучайной величиной ЕХ„. Развитие этих соображений приводит к доказательству закона больших чисел, к доказательству состоятельности оценок в математич. статистике, а также к иным применениям, в к-рых устанавливается сходимость по вероятности случайных величин. Другое применение в области предельных теорем связано с понятием нормировки. Нормировка случайной величины X производится путем вычитания математич. ожидания и деления на среднее квадратичное отклонение VDX, иными словами, рассматривается величина У = (X - EX)/VDX. Нормировка последовательности случайных величин обычно необходима для получения сходящейся последовательности законов распределения, в частности сходимости к нормальному закону с параметрами 0 и 1, во-вторых, применение понятия Д. в математич. статистике при обработке выборок. Если смотреть на случайную величину как на реализацию случайного эксперимента, то произвольное изменение шкалы отсчета приведет к преобразованию случайной величины X в величину Y = oX + a} где а - любое действительное число, а - положительное число. Поэтому часто имеет смысл рассматривать не один теоретич. закон распределения Fix) случайной величины X, а тип законов, то есть семейство законов распределения вида Fiix-a)/o), зависящих, по крайней мере, от двух параметров а и а. Если ЕХ = 0, DX=l, тоЕУ = д, DY = a2. Поэтому параметры теоретич. закона имеют следующий смысл: a = EY и a=vDY. Отсюда вытекает способ определения этих параметров по выборке. ДИСПЕРСИЯ 167
Лит.: [1] ГнеденкоБ. В., Курс теории вероятностей, 6 изд., М., 1988; [2] Феллер В., Введение в теорию вероятностей и ее приложения, пер. с англ., т. 1-2, М., 1984; [3] Крамер Г., Математические методы статистики, пер. с англ., 2 изд., М., 1975. В. И. Тутубалин. ДИСПЕРСИЯ обобщенная (generalized variance) - см. Обобщенная дисперсия. ДИСПЕРСИЯ; оценка (estimate of variance) - статистическая оценка дисперсии генеральной совокупности. Если xv ..., хп - выборка из совокупности с дисперсией а и конечным четвертым моментом, то S = 7 У. , КХ--Х) , п - 1 ~Н J — 1 v"1 где х-— 2-t-\ xv является несмещенной оценкой параметра 2 а , наилучшей в классе квадратич. оценок, то есть статистик, представляющих собой многочлены второй степени. Лит.: [11 Уилкс С, Математическая статистика, пер. с англ., М., 1967. Л. Б. Клебанов. ДИСПЕРСИЯ случайного множества (variance of random set) - числовая характеристика степени «рассеяния» значений случайного подмножества А векторного пространства с метрикой р, определяемая формулой ОрЛ = Ер2С4, ЕЛ), где ЕЛ - математическое ожидание случайного множества А. Лит.: [1] ЛяшенкоН.Н., «Зап. науч. семин. Ленингр. отд. Матем. ин-та АН СССР», 1979, т. 85, с. 113-28. А. Г. Катранов. ДИСПЕРСИЯ эмпирического распределения (sample variance/variance of empirical distribution) - см. Выборочная дисперсия. ДИССИПАТИВНАЯ ЦЕПЬ МАРКОВА (dissipative Mar kov chain) - счетная цепь Маркова, все состояния крой либо невозвратны, либо являются нулевыми возвратными (см. Маркова цепь', классификация состояний). Лит.: [1] Баруча-РидА.Т., Элементы теории марковских процессов и их приложения, пер. с англ., М., 1969. М. Г. Шур. ДИССИПАЦИЯ энергии турбулентности (turbulent energy dissipation) - процесс рассеяния кинетической энергии турбулентности, то есть ее перехода в теплоту в результате внутреннего (вязкого) трения в жидкости. Диссипацией называется также мера скорости этого процесса, равная количеству энергии, переходящему в теплоту за единицу времени в единице массы жидкости. Лит.: [1] Математическая физика. Энциклопедия, М., 1998, с. 188. A. М. Яглом. ДИФФЕРЕНЦИАЛЬНАЯ ЭНТРОПИЯ (differential ent- ropy) - формальный аналог понятия энтропии для случайных величин, имеющих плотность распределения. Д. э. называется также относительной энтропией, или энтропией непрерывных случайных величин. Д. э. «-мерной случайной величины X, имеющей плотность распределения р(х), .reIP", определяется формулой h(x) = -\ p(x) logp(x)dx. Д. э. обладает многими свойствами энтропии дискретных случайных величин, но может принимать и отрицательные значения и не инвариантна относительно изменения системы координат. Понятие Д. э. оказывается полезным при вычислении различных теоретико-информационных характеристик, в первую очередь количества информации. Лит.: [1] Гельфанд И. М., Колмогоров А. Н., ЯгломА.М., «Тр. 3-го Всесоюзн. матем. съезда», 1958, т. 3, с. 300-20; [2] Колесник В. Д., По л ты рев Г. Ш., Курс теории информации, М., 1982. B. В. Прелое. 168 ДИСПЕРСИЯ ДИФФЕРЕНЦИАЛЬНЫЙ ОПЕРАТОР СО СЛУЧАЙНЫМИ КОЭФФИЦИЕНТАМИ; спектральная теория (differential operator with random coefficients/random differential operator; spectral theory of) - случайный оператор в IP" вида А=АШ = У aa(x,(d)D^ (l) где #elR", Dx = c~ д/дх, а - мультииндекс [то есть а = = (оц, ..., а„), а.- - целые, а-^0], |а| =а1 + ... +ап, со - точка вероятностного пространства Q, на к-ром задана динамическая система с «-мерным временем Тх; Q-+Q, причем aa(x + z, со) = = аа(х, 7\,со), х, zeIR", для почти всех со, то есть коэффициенты аа образуют случайное однородное поле (см. [1], [2], [6], [8], [9], [ 13]—[ 15], [17]). Последнее равносильно операторному соотношению игАши^ = АТгШ, (2) выполняющемуся также для всех функций от оператора А, напр. для его спектральных проекторов в случае, если он самосопряжен. В терминах (обобщенного) ядра Кв = Кв(х, у, со) произвольного оператора Вш, зависящего от случайного параметра coeQ, соотношение вида (2) записывается формулой Кв(х + z, y + z, со) = Кв(х, у, Тг со), х, у, z e. W. (2') Если Вш - случайный интегральный оператор с таким ядром Кв, что выполнено (2') и Кв(0, О, )eL](Q), то по эргодич. теореме Биркгофа определен случайный след (см. [7]): tifl В = Ех{Кв(х, х, со)} = lim -М Кв(х, х, со) dx. (3) L—>°о L *\.Xj\~*.L/Z В эргодич. случае (когда система {Тх} эргодична) trRB неслучаен (не зависит от со при почти всех со). Пусть коэффициенты аа оператора (1) при почти всех со ограничены вместе со всеми производными и оператор А равномерно эллиптичен. Тогда в эргодич. случае спектр о(Аш) случайного оператора Аш в L2(IR") неслучаен. Можно также определить действие оператора А в L (Ш, заменяя дифференцирования генераторами динамич. системы, то есть Л«(ш) = ^а|5.мааисо)0«) и <rvco)|^=0. Если Oq(A) - спектр этого оператора, то он при почти всех со совпадает со спектром Аш в L (№п/Г), где Г - решетка периодов динамич. системы {Тх} (см. [4]). Пусть, кроме того, оператор Аш формально самосопряжен. Тогда спектр можно характеризовать нормированной ф>нк- цией распределения MA.) = lim Nv(X)/\v\, (4) V->oo где V - ограниченная область с гладкой границей в IR", NV(X) - обычная функция распределения собственных значений оператора Аш в V с какими-либо самосопряженными граничными условиями, \v\ - объем области V, запись V --> <*> означает, что область V гомотетично раздувается, заполняя все пространство (см. [1]). В эргодич. случае функция N(X) неслучайна. Спектр о(Аш) совпадает с множеством точек роста функции N(X). Кроме того, N(X) = trREx, где Е\ - спектральный проектор оператора Аш. Для функции N(X) имеется вариационный принцип, аналогичный принципу Куранта для обычных собственных значений дискретного спектра (см. [11]). У функции N(X) находится асимптотика при Х-> +<*>. Она дается обычной в спектральной теории формулой Вей л я: N(X) = (2n)~nExmes{^G И? ", £ аа(х, со) £*< X } + + Оа("~1)/т) = сХп/т + 0(Х(п-')/т)
(см. 111, [6], 111 J). В ряде модельных ситуаций удается найти асимптотику N(X) на нижней границе спектра, к-рую часто называют флуктуационной границей; эта асимптотика уже существенно зависит от выбора модели (см., напр., [10], [12]-[14], [16Н18]). Предельный переход типа (4) может быть использован для получения ряда других важных спектральных инвариантов, в частности энергии Ферми, проводимости (см. [1], [2]). В нек-рых случаях могут быть найдены более общие асимптотики, описывающие одновременный предельный переход К->°°, Х->°° (или >.->0) и тесно связанные с теорией усреднения (см. [3|). Для общих несамосопряженных матричных (то есть действующих в пространстве вектор-функций) случайных эллип- тич. дифференциальных операторов можно построить теорию индекса, к-рый в эргодич. случае является действительным числом и задается формулой \ndRA = trRNA-trRNA*, где Л* - оператор, формально сопряженный к Л, a NA и NA* - операторы ортогонального проектирования на кегЛ и кегЛ* соответственно [в случае матричного оператора след tr^ определяется формулой, аналогичной (3), но с добавлением взятия матричного следа] (см. [7]). Важнейшим частным случаем Д. о. со с. к. является оператор Шредингера со случайным потенциалом (см. Шредингера уравнение со случайным потенциалом), для к-рого в ряде случаев (особенно в одномерной ситуации) получены значительно более точные и тонкие результаты (см. [5], [6], [8], [9]). Лит.: [1] Гусев А. И., «Матем. сб.», 1977, т. 104, № 2, с. 207-26; [2] Гусев А. И., Шубин М. А., в сб.: Предельные теоремы для случайных процессов, К., 1977, с. 93-107; [3] Козлов С. М., «Успехи матем. наук», 1982, т. 37, в. 5, с. 185-86; [4] Козлов СМ., Шубин М.А., «Матем. сб.», 1984, т. 123, № 4, с. 460-76; [5] Молчанов С. А., «Изв. АН СССР. Сер. матем.», 1978, т. 42, М> 1, с. 70-103; [6] Пастур Л. А., «Успехи матем. наук», 1973, т. 28, в. 1, с. 3-64; [7] Федосов Б. В., Шубин М. А., «Матем. сб.», 1978, т. 106, с. 108-40, 455-83; [8] Car mon a R., «Acta Applicandae Math.», 1985, v. 4, X? 1, p. 65-91; [9] его же, Random Schrodinger operators, Ecole d'ete de probabilites XIV, Saint Flour, 1984, p. 123; [10] DonskerM. D., Va rad han S. R. S., «Communs Pure and Appl. Math.», 1975, v. 28, № 4, p. 525-65; [И] Богородская Т. Е., Шубин М. А., «Труды семинара им. И. Г. Петровского», 1986, в. 11, с. 98-117; [12] Гренкова Л. Н., М ол чанов С. А., «Функциональный анализ и его прилож.», 1988, т. 22, № 2, с. 73-74; [13] Пас- тур Л. А., в кн.: Итоги науки и техники. Сер. Теория вероятностей. Математическая статистика. Теоретическая кибернетика, т. 25, М., 1987, с. 3-67; [14] его же, «Sov. Sci. Rev. С. Math./Phys.», 1987, v. 6. p. 1-112; [15] Cycon H.L., FroeseR.G., KirschW., Simon В., Schrodinger operators: with applications to quantum mechanics and global geometry, В.-[а. о.], 1987, p. 319; [16] KirschW., Mart in el] i F., «Communs. Math. Phys.», 1983, v. 89, p. 27-40; [17] Martinelli F., ScoppolaE., Introduction to the mathematical theory of Anderson localization, Bologna, 1987; [18] Simon В., «J. Stat. Phys.», 1987, v. 46, X« 5/6, p. 911-18. M.A. Шубин. ДИФФЕРЕНЦИРОВАНИЕ СЛУЧАЙНОГО ПРОЦЕССА (differentiation of a random process) - см. Случайный процесс; дифференцирование. ДИФФЕРЕНЦИРОВАНИЯ СИСТЕМЫ (differentiation systems) - системы множеств, по к-рым можно дифференцировать абсолютно непрерывные счетно-аддитивные функции множеств, в результате чего получаются производные Радона-Никодима указанных функций. Точнее, пусть (X, S, |х) - пространство с мерой и пусть Р - нек-рая система |1-измери- мых множеств в X. Говорят, что Р является системой дифференцирования в X, если для всякого абсолютно непрерывного (относительно меры |х) счетно-аддитивного функционала Ф почти всюду в X имеет место равенство f(x) = \\т^1 = Фр(х), где х - произвольная точка из X, функция f - производная / г (1Ф\ Радона - Никодима функционала Ф то есть f = -г- , а семейство (Zn)neN представляет собой любую последовательность множеств из системы Р, стягивающихся (в смысле меры |х) к точке х. Для того чтобы система множеств Р была системой дифференцирования в X, необходимо и достаточно, чтобы выполнялись условия: 1) каково бы ни было множество Y eS, почти каждая точка из У является для У точкой плотности (относительно системы Р); 2) каков бы ни был положительный абсолютно непрерывный (относительно меры |х) счетно-аддитивный функционал Ф, почти всюду в X справедливо неравенство <Ц>(х)< +оо, хеХ, где Фр - верхняя производная функционала Ф относительно системы Р. Важным частным случаем систем дифференцирования служат системы Витали, удовлетворяющие условию 1). Само условие 1) часто называют теоремой о точках плотности. Лит.: [1] Халмош П., Теория меры, пер. с англ., М., 1953; [2] Шилов Г.Е., ГуревичБ.Л., Интеграл, мера и производная, 2 изд., М., 1967; [3] Харази шви л и А. Б., Топологические аспекты теории меры, К., 1984. Г. В. Нижарадзе. ДИФФУЗИИ ВЕКТОР (diffusion vector) - см. Многомерный винеровский процесс. ДИФФУЗИИ КОЭФФИЦИЕНТЫ (diffusion coefficients) - удвоенные коэффициенты при вторых производных производящего оператора диффузионного процесса. Если диффузионный (или квазидиффузионный) процесс является решением стохастич. дифференциального уравнения dx(t) = a(t, x(t))dt + o(t, x(t))dw(t), где w(t) - винеровский процесс в б/гмерном евклидовом пространстве II? ', a(t, x) и o(t, x) - соответственно векторнознач- ная (в И?') и операторнозначная (из И? ' в И? ) функции, то Д. к. такого процесса (в каком-либо ортонормированном базисе) совпадают с элементами матрицы (в этом базисе) оператора b(t, x) = o(t, x) o*(t, x) (здесь * - знак сопряженного оператора). Физич. смысл Д. к.: среднее квадрата проекции на направление в е II? приращения x(t + АО - x(t) диффузионного процесса за время от t до t + At при A^lO с точностью до величины порядка o(At) совпадает с квадратичной формой (b(t, x)Q,Q)At, если x(t) = x (если указанное приращение не имеет второго момента, то берут усеченное приращение). См. также Колмогорова уравнения, Ричардсона закон четырех третей. Лит.: [1] Дынкин Е. Б., Марковские процессы, М., 1963. Н. И. Портенко. ДИФФУЗИОННЫЙ ПРОЦЕСС (diffusion process) - строго марковский процесс с непрерывными реализациями, производящий оператор к-рого - дифференциальный оператор. Это - общая идея определения, из крой получаются различные конкретные определения в зависимости от того, понимается ли под производящим оператором сильный инфинитези мальный оператор или берется другое близкое понятие, рассматривается ли классич. дифференциальный оператор или обобщенный в том или ином смысле линейный.дифференциальный оператор с однородными граничными условиями, и от того, требуется ли непрерывность всех реализаций либо лишь до момента выхода процесса на границу области, в к-рой он происходит, либо до момента обрыва. В частности, классич. Д. п. в пространстве IRr можно определить как марковский ДИФФУЗИОННЫЙ 169
процесс с непрерывными реализациями, инфинитезимальный оператор к-рого задается формулой Коэффициенты £?•(£, х) называются коэффициентами переноса, a^it, х) (образующие неотрицательно определенную матрицу) - коэффициентами диффузии. Для переходных вероятностей и плотностей диффузионных процессов выполняются уравнения Колмогорова- прямое (называемое также уравнением Фоккера- Планка) и обратное. Для классич. Д. п., в предположении существования переходной плотности p(s, x, t, у) относительно меры Лебега, эти уравнения имеют вид: обратное dv(s, х, t, у) усрг , , ч dp(s, х, t, у) прямое Прямое уравнение решается с начальным условием &(у-х) при t = s, обратное - при s<t с конечным условием &(х-у). В [1]» [2] рассматривается другой вариант определения - в одномерном случае исследуются все однородные по времени строго марковские процессы с непрерывными реализациями; при этом их инфинитезимальные операторы оказываются обобщенными дифференциальными операторами (дается их полное описание). Лит.: [1] Дынкин Е. Б., Марковские процессы, М., 1963; [2] ИтоК., МаккинГ. П., Диффузионные процессы и их траектории, пер. с англ., М., 1968. А. Д. Вентцель. ДИФФУЗИОННЫЙ ПРОЦЕСС ветвящийся (diffusion branching process) - ветвящийся процесс, в к-ром каждая частица эволюционирует независимо от остальных и перемещается в заданной области G, подчиняясь закономерностям диффузионного процесса. Как правило, предполагается, что время жизни каждой частицы имеет показательное распределение и что в конце своей жизни она порождает случайное число потомков, к-рые начинают перемещаться, исходя из точки своего рождения. Частицы, попадающие на границу области G, исчезают. Пусть GclRr - открытое ограниченное множество, Х>0- интенсивность гибели частицы, F(s) - производящая функция числа непосредственных потомков, процесс начинается при t = 0 с одной частицы в точке xeG и ^(О, ..., £*,z ^(0 - положения всех Zx(t) частиц, существующих в момент t; частицы совершают r-мерные броуновские движения с единичной матрицей коэффициентов диффузии. Производящий функционал H(t,x,s(.)) = ETiZx(t) *<C,,i<0) (аналог производящей функции совместного распределения чисел частиц в ветвящемся процессе с несколькими типами частиц) удовлетворяет параболич. уравнению Ы ^i=l дх] с начальным условием Я(0, х, s())=s(x) и граничными условиями lim Hit, x, s()) = 0. x->dG 170 ДИФФУЗИОННЫЙ I Асимптотич. формула для EZx(t) имеет вид EZx(t)-Ke{Um-^-a^(x), xeG, t^oo, (») где К>0 - константа, m = F'(l) - среднее число непосредственных потомков одной частицы, щ >0 - минимальное собственное значение, ц>^х) >0 - соответствующая оц собственная функция задачи V* 1^ + ^Ф = 0, lim срЫ = 0. ^1=Х дх] Т x^dG Ветвящийся Д. п. называется докритическим, критическим или надкритическим в соответствии с тем, отрицательна, равна нулю или положительна величина Х(т- 1) - 0Ц в правой части (*). Если G - неограниченная область, то возникают новые эффекты, связанные с распространением совокупности частиц по области G (см. Ветвящееся случайное блуждание). Лит.: [1] Севастьянов Б. А., Ветвящиеся процессы, М., 1971; [2] Ivanoff B.G., «J. Multivar. Anal.», 1981, v. 11, № 3, p. 289-318. A. M. Зубков. ДИФФУЗИОННЫЙ ПРОЦЕСС на группе (diffusion process on a group) - непрерывный марковский процесс X = X(t) со значениями в проективной или конечномерной группе Ли, у к-рого семейство переходных вероятностных мер {|is 110 ^ s ^ t, (s, t) g Иг} (определенных на G х &, где J3= .^(G) - борелевская а-алгебра на G) порождает дифференцируемую в сильной операторной топологии т(С) (относительно пространства С непрерывных финитных функций на G) двухпарамет- рическую полугруппу (хемигруппу) вероятностных операторов T(s, 0 = Т^ , действующих на С: 74s, t)f(.g) = Kt(g, f) = jc f{h)Kt(g, dh) с инфинитезимальным оператором А: Л = iL 74s, t)\ = lim 1 [74s - h, s) - E\, ds lt~s hlo h область определения оператора А содержит при s^O пространство С0 дважды непрерывно дифференцируемых функций с компактными носителями на G. Хемигруипа 74s, i) удовлетворяет эволюционному уравнению %- и + Аи = 0, (1) ds где u = u(s, g; t) = T(s, t)f(g), lim u(s, g, t)=f(g) для всех st t t ч /e С, решение к-рого позволяет восстановить Т(s, t) при заданном инфинитезимальном операторе А Д. п. Решение уравнения (1) осуществляется следующими методами: 1) теоретико-операторным, основанным на технике, разработанной для эволюционных уравнений хемигрупп общего вида на банаховых пространствах; 2) аналитическими, использующими сужение оператора А на плотное в С подирост- I ранство С0; 3) прямыми вероятностными, предусматриваю- I щими решение стохастич. дифференциального уравнения для I А" на С°°-многообразии или построение X как мультипликативного стохастич. интеграла с помощью экспоненциального ото- I бражения локальных Д. п. на алгебре Ли g в ее группу Ли G. Аналитич. методы, восходящие к классическим, используют тот факт, что сужение А инфинитезимального оператора А на С0, называемое производящим оператором процесса X, является эллиптич. дифференциальным оператором 2-го порядка: < ■ I^M^^4Di + ХГ=, ^*'ЯЩ + ^.<А (2) Здесь Acm=pm(Ac), pm- канонич. проекция алгебры левоин- I вариантных дифференциальных операторов 34G) на G в
алгебру дифференциальных операторов $(GW) на группе Ли размерности т, G= ДШ Gm> 9= Hm 9m, теЫ теЫ Ck0(G)= lim C*(Gm\ теЫ 9)(G)= Hm 2(Gm) - проективные пределы соответствующих объектов конечномерных групп Ли (Gm)meU и алгебр Ли (9ш),„ец, Co(Gw) - пространство k раз непрерывно дифференцируемых функций с компактными носителями, (Dl)x^i;^m - базис алгебры Ли %m = dpm{%) группы Ли Gm = pm(G), Ы- множество целых положительных чисел. Инфйнитезимальные характеристики ( М R[m] \ процессах, однозначно определяющие его производящий оператор А и называемые соответственно коэффициентами диффузии, сноса и плотностью вероятности обрыва, вычисляются но формулам где Aj(<7, h) =x\h) -х1(д), (У(Л))1 ^1<w - локальные координаты элемента pm(h) e Gm в окрестности N элемента д е G, pm:G-*Gm - канонич. проекция проективной системы группы G = lim Gm. При условиях гельдеровости, локальной ограниченности инфинитезимальных характеристик (в смысле Ито) и строгой положительной определенности матриц || fl-w (s, 0|| Для всех шеМ в слое #=[0, ©о) х G существует единственное фундаментальное решение irm\s, д, t, h) параболич. уравнения (обратного уравнения Колмогорова) а [т] + Alu[m] = 0 (3) такое, что u[m](s, g- t)=\ u{m](s, g, t, h)f(h)d[m]h, lim u(s, g\ t) = f(g), JGm sit гладкое решение по (s,g)eH для всех feC, где d™h- элемент объема в Gm относительно римановой метрики d™ r(h), порожденной flj.(s0, h) на G при нек-ром s0^0. Фундаментальное решение уравнения (3) стандартным образом переносится на G = lim Gm:irm*=pm(u) = u°pm для всех т е N т е IN и является плотностью переходной вероятностной меры V-s, t^9> r)=L u(s> t, h)dQh процесса X на G. Применение аналитич. методов к стохастически непрерывным марковским процессам без разрывов 2-го рода на гладких многообразиях и группах Ли позволяет доказать существование и единственность фундаментального решения интегро- дифференциального уравнения (4) Lu = 0, L=Ad + AI, + 4-, ds где оператор А , описывающий скачки процесса, имеет вид п^^<*>*4^(^ (5) Оператор А +А обобщает канонич. представление Леви- Хинчина для безгранично делимых законов на процессы со значениями в гладких многообразиях и группах Ли, при этом фундаментальное решение уравнения (4) является плотностью переходных вероятностных мер \is t процесса X (см. [5]). Классификация Д. п. на группах Ли основывается на свойствах соответствующих производящих операторов. Д. п. X называется процессом с независимыми (правыми) приращениями (или левоинвариантным), если операторы T(s, i) его хемигруппы коммутируют со всеми левыми сдвигами L на элементы из G. Д. п. X является левоинвариантным тогда и только тогда, когда его производящий оператор А лежит в 3)(G). Левоинвариантный Д.п. X называется компактноин- вариантным (или /С-правоинвариантным), если операторы 74s, i) его хемигруппы коммутируют со всеми правыми сдвигами г на элементы из компактной подгруппы К группы G. Левоинвариантный Д. п. является /С-правоинвариантным тогда и только тогда, когда его производящий оператор лежит в %(G), где %(G) - подалгебра всех /С-правоинвариантных операторов из 2)(G), причем %(G) изоморфно 9)(G/K), где G/K - однородное G-пространство левых классов смежности G по К. Левоинвариантные и АТ-правоинвариантные Д. п. непосредственно связаны с предельными теоремами для треугольных систем вероятностных мер на группах Ли (см. [4], [6]), обобщающими классич. теорию суммирования независимых случайных величин в схеме серий. Пусть дана треугольная система fon*>i<*<v П*Ы' (6) вероятностных мер на (G, 35). Получены предельные теоремы о сходимости последовательности хемигрупп Tn(s, t), порожденных инфинитезимальной системой (6) в топологии т(С) к единственной дифференцируемой хемигруппе T(s, t) с производящим оператором А т или А т + А т на произвольной конечномерной группе Ли Gw, где Tn(s,t)f(g)=jG f(g%[n\(dh), (7) где \i^ = \ink*...*\Lnh 0^s<t^\, tnk^s<tnk4, tnl^t<tnMt 1 ^ k < I ^ kn и 0 = £„0 < tn\ < ... < tnk =1 - произвольное разбиение A„ отрезка [0, 1], sup И^.-Ч. для всех s, гЛг) = ее Г, е ёГ. Хемигрупа T(s, i) определяется семейством мер \ist с плотностью и, являющейся фундаментальным решением соответствующих уравнений (3) или (4). Требования, накладываемые на инфинитезимальные характеристики (а? , b" , Л )i<i,/<»»,»е N системы (6), в указанных теоремах соответствуют классическим. Здесь а. ,(«) «■*> = - 1 2М nk JN хЧд)хЧдЬпкЫд), в случае сходимости (6) к левоинвариантному Д. п. с производящим оператором А и лы (*„») = м nk J 1+( <р(е, д) Й„*(^<А +ср(е, д) ДИФФУЗИОННЫЙ 171
в случае сходимости (6) к стохастически непрерывному марковскому процессу без разрывов 2-го рода с производящим оператором Ад + А1', где в (5) и (2) для операторов А1, Ад следует положить g = е. Для компактозимальной треугольной системы мер (см. [6]) доказана сходимость последовательности хемигрупп Tn(s, t) к хемигруппе T(s, t) вида T(s, t) = Tj(s, t)TK(s, t), где Тл- хемигруппа диффузионного G-левоинвариантного и /С-пра- воинвариантного процесса Х# на С°°-многообразии 31, гомео- морфном G/K, Тк - хемигруппа на К, порожденная мерой Хаара ык на К. Таким образом, \i^\ = \ink*...*\inl при любых (s, t), O^s^t^ 1, для системы (7) сходится слабо относительно C(G) к \ist = \ift *(&к, где \ift - переходная вероятностная мера процесса Х# на 31, порождающая хемигруппу Тл и описывающая распределение вероятностей «радиальной» компоненты Xfi = F(X) предельного процесса X, а со^ - распределение вероятностей «угловой» компоненты Xk = k(X) процесса X в индивидуальном полярном разложении д- = F(g)k(g), где T:G^>31, k:G-+K- функции класса C°°(G), реализующие разложение Ивасавы G = ®K группы Ли G. Доказательство сходимости распределения х£ k =(X ) к (йк проводится методами гармонич. анализа на компактных группах (см. [6]). Лит.: [1] БурбакиН., Группы и алгебры Ли. Компактные группы Ли, пер. с франц., М., 1986; [2J Хейер X., Вероятностные меры на локально компактных группах, пер. с англ., М., 1981; [3] Гре- нандер У., Вероятности на алгебраических структурах, пер. с англ., М., 1965; [4] СобкоГ.М., «Теория вероятн. и ее примен», 1972, т. 17, в. 3, с. 549-57; [5] его же, там же, 1972, т. 17, в. 4, с. 802-04; [6] его же, там же, 1973, т. 18, в. 1, с. 44-55. Г. М. Собко. ДИФФУЗИОННЫЙ ПРОЦЕСС с отражением на границе (diffusion process with reflection form the boundary) - см. Марковский процесс; граничное условие. ДИФФУЗИОННЫЙ ПРОЦЕСС управляемый (con trolled diffusion process) - см. Управляемый диффузионный процесс. ДИФФУЗНАЯ МЕРА (diffuse measure) - см. Случайная мера. ДИХОТОМИЧЕСКИЙ СЛУЧАЙНЫЙ ПРОЦЕСС (di chotomous random process) - см. Бинарный случайный процесс. ДЛР-УСЛОВИЕ (DLR-condition) - условие, задающее класс Гиббса случайных полей через соответствующий потенциал. Введено независимо в [1] и [2]. Лит.: [1] Добру ш ин Р. Л., «Функц. анализ и его прилож.», 1968, т. 2, № 4, с. 31-43; [2] LanfordO., Ruelle D., «Comm. Math. Phys.», 1969, v. 13, № 3, p. 194-215; [31 Preston Ch., Random Fields, В.- [а. о.], 1976; [4] Ruelle D., Thermodynamic formalism, Reading (Mass.), 1978. Р.Л. Добрушин. ДОВЕРИТЕЛЬНАЯ ВЕРОЯТНОСТЬ (confidence probabi- lity) - см. Доверительная полоса, Доверительное оценивание, Доверительный интервал. ДОВЕРИТЕЛЬНАЯ ГРАНИЦА (confidence bound) - см Доверительное множество, Доверительное оценивание, Доверительный интервал. ДОВЕРИТЕЛЬНАЯ ЗОНА (confidence zone) - см. Доверительное множество. ДОВЕРИТЕЛЬНАЯ ОБЛАСТЬ (confidence region) - см. Доверительное множество. ДОВЕРИТЕЛЬНАЯ ПОЛОСА (confidence band) - понятие, предназначенное для интервального оценивания неизвестной 172 ДИФФУЗИОННЫЙ функции распределения. Пусть имеется выборка объема п из совокупности с генеральной функцией распределения F, и по этой выборке построены функции Н' и Н* такие, что для заданного уе (0, 1) Р{н;(х) ^ Fix)^H^(x) для всех х) = у. Тогда функции Нп и Н„ называются нижней и верхней доверительными границами, а множество функций распределения, лежащих между ними,- доверительной полосой для F, отвечающей доверительной вероятности у. Простой способ построения Д. п. для непрерывной F основан на использовании статистики Колмогорова, предельное и точное распределение крой известны (см. [1НЗ]). Лит.: [1] БикелП., Доксам К., Математическая статистика, пер. с англ., в. 1-2, М., 1983; [2] Кендалл М., Стьюарт А., Статистические выводы и связи, пер. с англ., М., 1973; [3] Коро- л ю к В. С., Боровских Ю. В., Аналитические проблемы асимптотики вероятностных распределений, К., 1981. Я. Ю. Никитин. ДОВЕРИТЕЛЬНАЯ ПОЛОСА у р о в н я a (confidence band of level а), а-полоса, 0<а<1, над областью А^Х для функции регрессии r\(x) = Q f(x) - подмножество D(y)a d II? х Л такое, что infpPe{((*, T)(x)), xeA)eD(y)}>a. (1) Здесь у = (у\,...,Ун) - регрессионный эксперимент с распределением Ре = Р(у - FQ), где F= (Д^), ..., f(xN))T< х{еХ, t=l, ...,N. Полоса называется точной, если в (1) достигается равенство, и консервативной в противном случае. Допустимой называют а-полосу, если D(y)\B не есть а-полоса для любого открытого Be D(y). Обычно распределение Ре считают нормальным со средним FQ и известной матрицей ковариации V. Тогда при невырожденных V и M = F V~ F (информационная матрица) оценка в по методу наименьших квадратов распределена нормально (О, о2М~*). Пусть r\(x) = fT(x)e, P9{e-QeUacRp}&a] Ч*а(х)= inf uTf(x), Va(x)= sup uTf(x).\ Тогда D(y) = {(x, r\ (x) + z), xgA, z^Va Or)} есть односторонняя а-полоса, а D(y) = {(x, Л (*) + *), xeA, УаЫ^2^Уа(*)} (З) - двусторонняя а-полоса. Напр., множеству «наиболее вероятных точек» U = {u:o и Mu^ka}, где ka есть а-квантиль Хр -распределения (с р степенями свободы), отвечает двусторонняя точная допустимая а-полоса Уоркинга-Хотеллинга для прямолинейной регрессии в0 + в^ на II? с единичной V. Для нее ¥„(*) = -¥„(*) = fca(Wl +b(x-x)2, где b>0, x = (xj + ... +xN)/N. Если a оценено величиной s =(N-p)~ £ (#,_л(.х,)) , то для той же модели точна полоса, где а заменено на s, а k - на а-квантиль F-расиреде- ления. О табулировании точных полос над конечным интервалом и о других a-полосах см. в [1]. Точную допустимую двустороннюю a-полосу (З) часто задает функция %(x)=-Va(x)=sup{\JT(x)v\: max | f\Zi)v |, y^kac}, (4)
где Yj>0, 2,еХ - подходящие точки, критич. уровень ka определяется из того, что f\(x) есть случайное поле со средним г\(х) и корреляционной функцией Едг\(х)г\(х') = = a'1/*7\x)M~xJ(xx). Напр., для полилинейной регрессии П(х) = в0 + в^(1) + ...+в^Ы), (*(,\ ...,х{т))=хе$т, при любом плане Xj, ..., xN функция *Fa (х) есть непрерывный кусочно линейный сплайн, a ka при подходящем выборе точек 2.х, •, Jm+\ из IRW, V = I, есть а-квантиль максимума нормальных величин Хг\ ЕХ, = 0, DX, = 1, EXiXJ = p, \^i<j^m+\. Для полиномиальной и тригонометрич. регрессии порядка т на U ^а() есть соответствующий сплайн того же порядка при произвольном плане. При выборе точек узлами нек-рых канонич. представлений Маркова - Крейна информационной матрицы плана (см. [2]) величины Л^) независимы, что сводит табулирование точной а-полосы, задаваемой формулой (4), к таблицам стандартного нормального распределения. Имеется алгоритм нахождения а-полос (3) с наименьшим интегралом j *Fa (x)w(x)dx, w(x)^Q, *elR (см. [3]). Лит.: [1] Себср Дж., Линейный регрессионный анализ, пер. с англ., М., 1980; [2] КрейнМ. Г., Нуде л ьман А. А., Проблема моментов Маркова и экстремальные задачи, М., 1973; [3] Nai- marm D., «Ann. Statist.», 1984, v. 12, № 4, p. 1199-214. M. Б. Малютов. ДОВЕРИТЕЛЬНОЕ МНОЖЕСТВО (confidence set), доверительная область, доверительная зона,- обобщение понятия доверительного интервала на случай многомерного параметра вероятностного распределения (см. Доверительный интервал, Несмещенное доверительное множество, Доверительное оценивание, Статистическое оценивание). М. С. Никулин. ДОВЕРИТЕЛЬНОЕ ОЦЕНИВАНИЕ (interval estimation) - метод математической статистики, предназначенный для построения множества приближенных значений неизвестных параметров вероятностных распределений. Пусть X - случайный вектор, принимающий значения на множестве if в евклидовом пространстве, причем распределение вероятностей этого вектора принадлежит параметрич. семейству распределений, заданному плотностями р(х\в), х е .Г, ве0, относительно нек рой меры \i(x). Предполагается, что истинное значение параметрич. точки в, соответствующей результату наблюдений X, неизвестно. Суть Д. о. заключается в построении такого множества С(Х), зависящего от X, к-рое содержит значение заданной функции м(6), соответствующее неизвестному истинному значению параметрич. точки в. Пусть U - множество значений функции м(6), в е 0, и пусть С(х), хе9\ - какая-либо совокупность множеств, принадлежащих U при всех х из Ж, причем предполагается, что для произвольного элемента ueU и любого значения ве0 определена вероятность события {С(Х) э и}. Эта вероятность выражается интегралом Рс(и,в)=1с(Х)эир(х\Ш\1(х), ие11,еев, и называется вероятностью накрытия множеством С(Х) значения и при заданном значении в. Если истинное значение в неизвестно, то множество С(Х) [из совокупности множеств С(х), хе$], соответствующее результату наблюдений X, называется доверительным множеством, или интервальной оценкой для неизвестного истинного значения функции м(6). В качестве вероятностной характеристики интервальной оценки С(Х), построенной по указанному правилу, используется доверительная вероятность Рс(0), выражающаяся в терминах вероятности накрытия равенством Рс(е) = Рс[гДв),в], 6е0. Иными словами, Рс(6) - вероятность накрытия множеством С(Х) значения заданной функции м(0), соответствующего неизвестной истинной параметрич. точке в. В тех случаях, когда доверительная вероятность Рс(6) от в не зависит, интервальную оценку С(Х) называют подобной пространству выборок. Это название обусловлено аналогией формул Рс(в) = Р{С(Х) э w(e)|e} = const и Р{Хе#|0} = const = 1. В более общей ситуации Рс(6) зависит от неизвестного в, и поэтому в практич. работе принято характеризовать качество интервальной оценки коэффициентом доверия Pc = infPc(e), где нижняя грань вычисляется на множестве 0 (иногда коэффициент доверия называют доверительным уровнем). Оптимизация Д. о. определяется теми требованиями, к-рые предъявляются к интервальным оценкам. Напр., если цель заключается в построении доверительных множеств, подобных пространству выборок и имеющих заданный коэффициент доверия со, 0,5^со<1, то первое требование выражается тождеством Pc[u(Q), в] = со, в е0. При этом естественно искать такие интервальные оценки, к-рые накрывают истинное значение u(Q) с вероятностью, не меньшей вероятности накрытия любого произвольного значения ueU. Иными словами, второе требование, называемое требованием несмещенности, выражается неравенством Рс(и,в)^со, и е U, в е 0. В этих условиях «наилучшей» разумно считать ту интервальную оценку С, к-рая с меньшей вероятностью накрывает любое значение и, отличное от истинного м(0). Отсюда возникает третье требование «наибольшей селективности»: для всякого другого доверительного множества С", отличного от С и удовлетворяющего условию Рс,[ы(в),в]^со, 6е0, должно выполняться неравенство Рс(и,е) ^ Pc(u,Q), и е U, в е 0. Задача отыскания интервальных оценок С, удовлетворяющих указанным трем требованиям, эквивалентна задаче построения несмещенных, наиболее мощных статистич. критериев, подобных пространству выборок и имеющих уровень значимости 1 - со. Вопросы существования решения такой задачи и его конструктивного описания составляют основу общей теории статистич. проверки гипотез. Наиболее часто применяется Д. о. в ситуации, когда u(Q) - скалярная функция. Пусть Xj, ..., Хп, п^2, - независимые случайные величины, подчиняющиеся одному и тому же нормальному распределению с неизвестными параметрами EX,- = et и DXj = в2, причем требуется построить интервальную оценку для м(в) = et. Пусть Поскольку случайная величина T = yJn (Х-в^/s подчиняется распределению Стьюдента с п-1 степенями свободы и это распределение не зависит от неизвестных параметров et и 62(|61|<<», в2>0), то при любом положительном t вероятность события {X - ts/<n< 6t < X + ts/Jn) ДОВЕРИТЕЛЬНОЕ 173
зависит лишь от t. Если указанный интервал принять за интервальную оценку С для 6j, то ему будет соответствовать доверительная вероятность рс(е„е2) = Р{|г|<г}, не зависящая от в = (QVQ2)- Такую интервальную оценку называют доверительным интервалом, а ее концевые точки - доверительными границами, или доверительными пределами, причем в данном случае доверительный интервал представляет собой интервальную оценку, подобную пространству выборок. В приведенном примере интервальная оценка является несмещенной и наиболее селективной. Лит.: [1J У и лкс С, Математическая статистика, пер. с англ., М., 1967; [2] Шметтерер Л., Введение в математическую статистику, пер. с нем., 2 изд., М., 1979; [3] Л еман Э., Проверка статистических гипотез, пер. с англ., М., 1964; [4] Большее Л. Н., «Теория вероят. и ее примени, 1965, т. 10, в. 1, с. 187-92. Ю. В. Линник, Н. М. Халфина. ДОВЕРИТЕЛЬНЫЙ ИНТЕРВАЛ (confidence interval) - интервал приближенных значений неизвестного скалярного параметра вероятностного распределения, построенный по результатам наблюдений. Пусть X - случайный элемент, принимающий значения в выборочном пространстве (£, 35, Ре), вевсИ?1. Далее, пусть в" = в"(Х) и в+ = в+(Х) такие две оценки параметра в, что интервал (6~, 6 )ев и, кроме того, для любого в е 0 определена вероятность Рв{в"<в<в+} = р(в). Интервал (6~, в ) называется доверительным интервалом для параметра в; р(в) называется доверительной вероятностью, или вероятностью накрытия, Д. и. (в~, 6+); в~ и в+ - нижняя и верхняя доверительные границы соответственно. Если доверительная вероятность р(в) не зависит от в, то в этом случае говорят, что Д. и. (в~,в+) подобен пространству выборок. Число Р = inf р(в) называется коэффициентом доверия, или доверительным уровнем, интервальной оценки. См. также Доверительное оценивание. Лит.: [1 ] Линник Ю. В., Метод наименьших квадратов и основы математико-статистической теории обработки наблюдений, 2 изд., М., 1962. М. С. Никулин. ДОВЕРИТЕЛЬНЫЙ ПРЕДЕЛ (confidence limit/bound) - см. Доверительное оценивание. ДОВЕРИТЕЛЬНЫЙ УРОВЕНЬ (confidence level) - см Доверительное оценивание, Доверительный интервал, Статистическое оценивание. ДОВЕРИЯ КОЭФФИЦИЕНТ (confidence coefficient) - см. Доверительное оценивание, Доверительный интервал. ДОДЖА ПЛАН (Dodge plan) - см. Статистический контроль качества. ДОКРИТИЧЕСКИЙ ВЕТВЯЩИЙСЯ ПРОЦЕСС (subcriti cal branching process) - ветвящийся процесс, в к-ром среднее число непосредственных потомков одной частицы меньше единицы. Пусть Z(t) - число частиц в ветвящемся процессе с одним типом частиц в момент t(Z(0) = \), a N - случайное число непосредственных потомков одной частицы. Такой процесс будет докритическим, если m = EN <1. Для докритич. процесса Гальтона - Ватсона при любых s е [0, 1] существует предел ^^ . . F(.s) = limY P{Z(t) = k\Z(t)>0}sk, причем F(l - ) = 1, производящая функция F(s) удовлетворя- \-F(EsN) = m(\-F(s)) (l) ет уравнению 174 ДОВЕРИТЕЛЬНЫЙ (2) (3) и Р(1 - ) <°° тогда и только тогда, когда E№n+N<oo. Для процессов Гальтона - Ватсона EZ(t) = mt, и если справедливо (2), то P{Z(0 >0} ~ст\ ОО.^оо. (4) Соотношения вида (1), (3), (4) выполняются и для других моделей ветвящихся процессов, но возможен и иной характер поведения процессов при £-><*>. В частности, если G(t) = = Р{т ^ t) - функция распределения длительности жизни частиц в процессе Беллмана - Харриса и lim '-<*'> =1 t-*a. \-G(t-A) для всех А е [0, °°), то (см. [3]) 1 EZ(t)-—— (l-G(O), *-»~, 1 - т lim P{Z(0 = 1|Z(0>0} = 1. (5) (6) Неразложимый ветвящийся процесс си>1 типами частиц является докритическим, если р<1, где р- максимальное собственное число (перронов корень) матрицы М = = |ENj.|, a Ny - случайное число непосредственных потомков частицы типа i, имеющих тип j. Для докритич. неразложимых процессов справедливы аналоги утверждений (1), (3)-(6) (см. [11, [2], [4]). Лит.: [1] Севастьянов Б. А., Ветвящиеся процессы, М., 1971; [2J Athreya К. В., Ney P. E., Branching processes, В.- Hdlb.- N.Y., 1972; [3J Чистяков В. П., «Теория вероятн. и ее примем.», 1964, т. 9, в. 4, с. 710-18; [4] Ватутин В. А., там же, 1979, т. 24, в. 3, с. 503-14. В. А. Ватутин. ДОЛГОВЕЧНОСТЬ (durability) - см. Надежности математическая теория. ДОМИНИРОВАННОЕ СЕМЕЙСТВО РАСПРЕДЕЛЕНИЙ (dominated family of distributions) - см. Абсолютно непрерывное распределение, Плотность вероятности. ДОМИНИРУЮЩИЙ ВЕКТОР (dominating vector) - см Оптимальное резервирование. ДОНСКЕРА - ПРОХОРОВА ПРИНЦИП ИНВАРИАНТНОСТИ (Donsker - Prokhorov invariance principle) - см. Инвариантности принцип для случайных процессов. ДОПОЛНИТЕЛЬНАЯ СТАТИСТИКА (auxiliary stalls- tics) - см. Вспомогательная статистика. ДОПОЛНИТЕЛЬНОЕ СОБЫТИЕ к событию Л (com plement of the event A) - событие А, к-рое происходит тогда и только тогда, когда А не происходит. Для всякого события А выполняется равенство РС4) + РС4)=1. Д. с. называется также противоположным событием. В. А. Ватутин. ДОПОЛНИТЕЛЬНОСТИ ПРИНЦИП (complementarity principle) - см. Неопределенностей соотношение. ДОПОЛНИТЕЛЬНЫЕ НАБЛЮДАЕМЫЕ (complementary observables) - см. Наблюдаемая. ДОПУСТИМАЯ ОЦЕНКА (admissible estimator) - неулуч- шаемая статистическая оценка. Более точно, пусть (£, .</) - измеримое пространство, связанное с наблюдаемой случайной величиной X, а {Ре, в е 0} - семейство вероятностных мер на (Ж, *</). Пусть, далее, L(8, в) - потерь функция, Ж - нек-рый класс оценок, а #в9 означает риск оценки 8 относительно
функции потерь L(6, в). Оценка e*eJtf называется допустимой в классе Ж, если из условий 6>eJf, RqQ^RqQ* при всех в е 0 следует, что #вв = #вв при всех в е 0. Таким образом, если в* - Д. о. в классе Ж, то в этом классе нет оценки, риск к-рой не превышал бы риска 0* и хотя бы при одном значении в был строго меньше риска в*. Если оценка допустима в классе всех оценок, то говорят, что она абсолютно допустима или просто допустима. С точки зрения выбора оценки, минимизирующей функцию риска, ясно, что недопустимые оценки должны быть отвергнуты. Имеются ситуации, в к-рых наилучшая эквивариантная оценка недопустима. Напр., вектор средних - недопустимая оценка параметра сдвига w-мерного нормального закона при т ^ 3. С другой стороны, многие Д. о. вообще нельзя рекомендовать к употреблению. Так, в случае 0 = 11? оценка в = const является допустимой. Существенный факт в теории Д. о. - допустимость оценки Питмена одномерного и двумерного параметра сдвига. Следующий результат дает метод построения подкласса оценок, все элементы к-рого допустимы. Если функция риска RQQ непрерывна по в е 0с II?'" при каждом 9 и если £(в) - априорное распределение с носителем 0, то бейесовская оценка, соответствующая £(в), допустима (см. [1]). Оказывается, что Д. о. является пределом бейесовских оценок (при нек-рых специальных условиях) (см. [2]). Имеются методы доказательства допустимости, основанные на анализе достижимости нижней грани в неравенстве Рао - Крамера (см. [3]). О связи Д. о. с I возвратностью нек-рых случайных блужданий см. в [4]. Свойство оценок специального вида быть допустимыми часто оказывается характеристическим для соответствующих семейств вероятностных мер (см. [5]). Понятие Д. о. относится, как правило, к выборкам фиксированного объема п. Имеется, однако, тесно связанное с ним понятие асимптотич. допустимости второго порядка, состоящее в неулучшаемости оценки во втором члене асимптотич. разложения ее риска при и->°°. Задача описания асимптотически Д. о. второго порядка связана со свойствами положи- | тельных решений уравнения Шредингера (см. [6]). Структура класса Д. о. может быть положена в основу принципа построения функции потерь. Напр., в случае оценивания но данным повторной выборки х{, ..., хп естественно считать, что множество Д. о. состоит из симметрич. функций, j Для функции потерь, зависящей от разности аргументов, такая структура множества Д. о. имеет место только в случае выпуклости L(9, в) (см. [7]). Лит.: [1] Blyth С, «Ann. Math. Statist.», 1951, v. 22, p. 22-42; [21 Stein С, там же, 1955, v. 26, p. 518-22; [3] Hodges J., Lehmann E., «Proc. Second Berkeley Symp. Math. Statist.», 1951, p. 13-22; [4] Brown L., «Ann. Statist.», 1979, v. 7, p. 960-94; [5] Каган A.M., Линник Ю. В., Рао С. Р., Характеризацион- ные задачи математической статистики, М., 1972; [6) Левит Б. Я., «Теория вероятн. и ее примен.», 1985, т. 30, с. 309-38; [7) Како- сян А. В., Клебанов Л. Б., Меламед И. А., Проблема построения моделей в статистической теории оценивания параметров, Тбилиси, | 1986. Л. Б. Клебанов. I ДОПУСТИМАЯ ОЦЕНКА линейная (admissible linear estimator) - статистическая оценка, являющаяся допустимой в классе линейных оценок. Л. Б. Клебанов. ДОПУСТИМАЯ ПОЛОСА (admissible band) - см. Довери тельная полоса. ДОПУСТИМАЯ РЕШАЮЩАЯ ФУНКЦИЯ (admissible decision function) - решающая функция, для к-рой не существует строго доминирующей ее другой решающей функции. Пусть Жб, 8) - функция риска решающей функции 8, исполь- \ зуемой для принятия решения о неизвестном значении пара- | метра ве0, характеризующего исследуемый объект. Решаю- I щая функция ЬеК называется допустимой в классе К решающей функцией, если не существует решающей функции 8* е К, для к-рой #(6, 8*) ^ Жб, 8) для всех в е 0 со строгим неравенством по крайней мере в одной точке парамет- рич. пространства 0; про такую решающую функцию 8* говорят, что она доминирует решающую функцию 8. Совокупность Д. р. ф. образует минимальный существенно полный класс решающих функций. См. Допустимость статистической процедуры, Статистическая процедура; полный класс. A. В. Бернштейн. ДОПУСТИМАЯ ТОПОЛОГИЯ (admissible topology), 5-т о - пология,- топология в (бесконечномерном) пространстве, непрерывность в к-рой положительно определенного функционала необходима и достаточна для того, чтобы он был характеристическим функционалом нек-рой счетно-аддитивной меры. Эквивалентным образом Д. т. можно определить как топологию, непрерывность в к-рой характеристич. функционала цилиндрич. меры равносильна ее счетной аддитивности. Д. т. существует в случае гильбертова пространства (см. Сазонова топология). Для ядерных счетно-гильбертовых пространств исходная топология является Д. т. Другой пример Д. т.- Гросса топология. Д. т. существует не всегда. Существуют негильбертовы банаховы пространства, для к-рых Д. т. существует. Лит.:[\] Prokhorov Y. V., «Proc. 4-th Berk. Symp. Math. Statist, and Probab.», 1961, v. 2, p. 403-19; [2J Вахания Н. Н., Тарие- ладзе В. И., Чобанян С. А., Вероятностные распределения в банаховых пространствах, М., 1985; [3) Муштари Д. X., Вероятности и топологии в банаховых пространствах, Казань, 1989. B. И. Тариеладзе. ДОПУСТИМОСТЬ процедур классификации (admissibility of classification procedures) - понятие, позволяющее ограничить поиски оптимальной в нек-ром смысле процедуры классификации наблюдений лишь относительно узким классом допустимых процедур (см. [1]). Имеется достаточно широкий набор вариантов понятия Д. процедур классификации, позволяющий исследователю подобрать наиболее подходящий для себя вариант, исходя из конкретной специфики задачи (см. [2]). Имеются результаты исследования наиболее употребительных процедур классификации на Д. (см. [1], [2]). Лит.: [11 Fisher L., van Ness, JohnW., «Biometrika», 1971, v. 58, № l, p. 91-104; [2] Айвазян С. А., Бежаева З. И., Староверов О. В., Классификация многомерных наблюдений, М., 1974. 3. И. Бежаева. ДОПУСТИМОСТЬ решающей функции (admissibility of a decision function) - см. Допустимость статистической процедуры. ДОПУСТИМОСТЬ статистического критерия (admissibility of a statistical test) - свойство статистического критерия, заключающееся в несуществовании другого статистического критерия с равномерно лучшими характеристиками. В качестве последних могут выступать уровень значимости и мощность критерия, средний объем выборки (или среднее время наблюдения) при последовательной схеме проведения эксперимента и т. п. Понятие Д. статистич. критерия является конкретизацией (в рамках теории проверки статистич. гипотез) общего понятия допустимости статистич. процедуры (см. Статистических решений теория). Пусть по наблюдаемой случайной выборке X с распределением Ре зависящим от неизвестного параметра в е 0, проверяется нулевая гипотеза 7/0: 6 е 0О против альтернативной гипотезы Я^беО), где 0О и 0t - непустые непересекающиеся подмножества 0, 0oU0j=0. Пусть К- рассматриваемый класс критериев в этой задаче проверки гипотез (К может совпадать с классом всех критериев). Критерий <ре К называ- ДОПУСТИМОСТЬ 175
ется допустимы мв классе К, если не существует критерия *¥ еК такого, что выполняются соотношения ЕеЧЧХ) ^ Евф(Х) при в е 0О, (1) ЕвТ(Х) ^ Евф(Х) при в е 0t, (2) со строгим неравенством по крайней мере в одной точке в е 0. Иногда при рассмотрении класса Ка критериев уровня значимости а:Ка = {у: sup Ееф(Х)^а} условия (1) - (2) заве 0О меняются одним условием (2). При последовательной схеме наблюдений условия (1)-(2) могут дополняться условиями типа E^Ni*?) ^ Е^Сф), где Жф) - случайный объем выборки при использовании последовательного критерия ф. Для различных статистич. задач проверки гипотез установлены необходимые (реже - достаточные) условия Д. статистич. критерия. Иногда такие условия формулируются как нек-рые общие свойства статистич. критерия быть в определенном смысле монотонным (см., напр., Монотонное отношение правдоподобия), инвариантным относительно нек-рой группы преобразований, зависеть от выборки только через значение построенной по ней достаточной статистики и т. п. Иногда необходимые или достаточные условия Д. статистич. критерия даны в терминах описания структуры допустимого критерия - таковы, напр., общие результаты о структуре допустимых критериев в задачах проверки гипотез о параметрах экспоненциальных семейств (см. [1]-[5]). В асимптотич. задачах проверки гипотез вводится понятие асимптотической допустимости статистич. критерия, при к-рой соотношения (1) и (2) (или аналогичные, участвующие в определении Д. статистич. критерия) должны выполняться асимптотически [с точностью 0(1) или с более точным указанием скорости сходимости к нулю погрешностей при учете асимптотич. разложений]. Известны также общие результаты о допустимости или асимптотич. допустимости в задачах различения непараметрич. гипотез или задачах проверки согласия (см., напр., [6]). Лит.: [1) Чибисов Д. М., «Теория вероятн. и ее примен.», 1967, т. 12, в. 1, с. 96-111; [2] Matthes Т.К., Truax DR., «Ann. Math. Statist.», 1967, v. 38, p. 681-97; [3] Eaton M. L., там же, 1970, v. 41, p. 1884-88; [4] Stein Ch., там же, 1956, v. 27, p. 616- 23; [5] Берн штейн А. В., «Теория вероятн. и ее примен.», 1983, г. 28, в. 2, с. 404-10; [6] Тюлягин А. Н., «Изв. АН СССР. Сер. матем.», 1982, т. 46, № 3, с. 569-616. А. В. Бернштейн. ДОПУСТИМОСТЬ статистической процедуры (admissibility of a statistical procedure) - свойство статистической процедуры, заключающееся в несуществовании другой статистической процедуры с равномерно лучшими характеристиками (затратами на проведение статистического эксперимента). В тех случаях когда статистич. процедуру отождествляют с решающей функцией (напр., когда статистич. эксперимент определен заранее), то говорят о допустимости решающей функции, с использованием к-рой принимается решение. Пусть К - нек-рый класс решающих функций. Решающая функция бе/С называется допустимой в классе К, если не существует решающей функции 8* е К такой, что Жб, 8*)^Ж9, 5) для всех 06 0 со строгим неравенством в нек-рой точке 6ое0; здесь Жб, 8) - функция риска решающей функции 8, используемой для принятия решения о неизвестном параметре в е 0, характеризующем исследуемый объект. Всегда в статистич. проблеме достаточно ограничиться рассмотрением только допустимых решающих функций, и если различным решающим функциям соответствуют различные функции риска, то в общем случае нельзя исключить из 176 ДОПУСТИМОСТЬ рассмотрения ни одну решающую функцию, не ухудшив возможного качества принимаемых решений (по крайней мере, при нек-рых значениях параметра 0е0). Более точно, совокупность допустимых решающих функций образует минимальный существенно полный класс решающих функций (см. Статистическая процедура; полный класс). Этот результат часто используют для построения полных классов (не обязательно минимальных): из того, что нек-рое свойство решающей функции является необходимым условием ее Д., следует, что совокупность решающих функций с данным свойством образует полный класс; если же все решающие функции из этого класса являются допустимыми, то этот полный класс - минимальный. Понятие Д. решающей функции было введено Дж. Нейманом и О. Моргенштерном в [1] в связи с задачами теории игр; в теории статистич. решений это понятие ввел А. Вальд [2]. Лит.: [1] Нейман Дж., Морген ш терн О., Теория игр и экономическое поведение, пер. с англ., М., 1970; [21 Вальд А., Статистические решающие функции, в сб.: Позиционные игры, пер. с англ., М., 1967, с. 300-522; [3] Блекуэлл Д., Гиршик М А., Теория игр и статистических решений, пер. с англ., М., 1958; [4] Закс Ш., Теория статистических выводов, пер. с англ., М., 1975. А. В. Бернштейн. ДОПУСТИМЫЙ КРИТЕРИЙ (admissible test) - статистический критерий, обладающий свойством допустимости (см. Допустимость статистического критерия). Понятие Д. к. является конкретизацией (в рамках теории проверки статистич. гипотез) общего понятия допустимой решающей функции. Совокупность всех Д. к. образует минимальный полный класс критериев. См. также Регрессионных экспериментов планирование А. В. Бернштейн. ДОПУСТИМЫЙ СДВИГ меры (admissible shift of a measure), заданной в векторном пространстве или на группе,- элемент пространства или группы, сложение с к-рым произвольного множества нулевой меры дает снова множество нулевой меры. Точнее, пусть Т - векторное пространство или абелева группа, & - а-алгебра его подмножеств, причем такая, что если Ве& и аеТ, то В + а = {Ь + а:ЬеВ}еЯ, где (X - нек-рая мера на 33. Элемент аеТ называется допустимым сдвигом меры \1, если для каждого ВеУв, для к-рого \i(B) = 0, также \i(B + a) = 0. Множество всех Д. с. меры (X обозначается А^. Если Л„ = Т, то мера |i называется квазиинвариантной. В бесконечномерных банаховых пространствах квазиинвариантных вероятностных мер нет. Множество Д. с. в случае бесконечномерного пространства, как правило, является множеством первой категории и его описание представляет собой трудную задачу. Д. с. описаны для гауссовских мер в бесконечномерных пространствах и для нек-рых других мер. Лит.: [1J Вахания Н. Н., Тариеладзе В. И., Чобанян С. А., Вероятностные распределения в банаховых пространствах, М.; 1985; [2) Гихман И. И., Скороход А. В., Теория случайных процессов, т. 1, М., 1971. В. И. Тариеладзе. ДОСТАТОЧНАЯ ОЦЕНКА (sufficient estimator) - статистическая оценка, являющаяся функцией достаточной статистики. При условии полноты последней Д. о. является оптимальной несмещенной оценкой своего математич. ожидания относительно произвольной выпуклой функции потерь. Множество Д. о. образует полный класс оценок для случая, когда риск определяется выпуклой функцией потерь. Лит.: [1) Крамер Г., Математические методы статистики, пер. с англ., 2 изд., М., 1975; [21 Закс Ш., Теория статистических выно- дов, пер. с англ., М., 1975; [31 Как ос я и А. В., Клебанов Л. Б., Меламед И. А., Проблема построения моделей в статистической теории оценивания параметров, Тбилиси, 1986. Л. Б. Клебанов.
ДОСТАТОЧНАЯ СТАТИСТИКА (sufficient statistic) - статистика, условное распределение к-рой одно и то же для всех распределений рассматриваемого семейства. Таким образом, на «поверхностях уровня» Д. с. распределения семейства неразличимы, и для статистич. выводов о параметре семейства Д. с. столь же информативна, как и исходное наблюдение, часто имеющее значительно более сложную природу. Этот факт объясняет так наз. принцип редукции наблю- д е н и й посредством Д. с. Пусть ./= {Ре} - семейство распределений вероятностей на измеримом пространстве (£, ^/) наблюдений х, Е$ - матема- гич. ожидание, в том числе условное, относительно Ре. Параметр ве0 семейства предполагается произвольной природы. Статистика Т со значениями t в измеримом пространстве О] //') называется достаточной для семейства ;/, если для любой (измеримой) функции <р(х) с Ее|<р| <<*>, ве0, существует не зависящая от в функция ф (t) такая, что Ее(ф|Г) = ф почти наверное Ре> в 60. (*) Если семейство ./доминированное, то есть все распределения Ре> в 6 0, абсолютно непрерывны относительно нек-рой а-конечной меры ц, то критерий достаточности статистики Т дается так наз. факторизационной теоремой (см. [2]): Т является Д. с. для семейства уГ тогда и только тогда, когда плотности р(х\ Q) = dPo/dii допускают факторизацию вида р(х; в) = R(T(x), в)г(х) почти наверное \i. Рель Д. с. в теории оценивания определяется теоремой Рао - Блэкуэлла (см. [2]): если д = д(х) - оценка параметрич. функции у=у(в) и функция потерь р(#, у) выпукла по первому аргументу, то найдется оценка д = д (t) с Еер(£> у(вЖЕер(<7, у(6)), 6 6 0. Другими словами, при оценивании с выпуклой функцией потерь класс оценок, зависящих от Д. с, полный. Для доми- нированных семейств справедлив и принадлежащий Р. Бахадуру (см. [2|) обратный результат, характеризующий Д. с. Если S- полное семейство распределений относительно Д. с. Т, то теорема Рао - Блэкуэлла решает задачу оптимального несмещенного оценивания. Пусть теперь семейство У доминированное, а параметрич. множество 0 - интервал на прямой. Тогда при общих условиях на семейство .У можно определить информацию Фишера: /(e) = Ee(dinp(*; e)/ae)2, содержащуюся в наблюдении с плотностью р(х\ в), и аналогично информацию Фишера /7(6), содержащуюся в (произвольной) статистике Т. Всегда /г(в)^/(в), причем знак равенства при всех в б 0 достигается тогда и только тогда, когда Г- Д. с. (см. [1]). Это математически точная формулировка принципа, согласно к-рому только Д. с. аккумулирует всю информацию, доставляемую наблюдением. Если .?- продакт-семейство, то есть Ре суть распределения повторной выборки (yv ..., уп) = х из нек-рой («одномерной») совокупности с плотностью f(y, в), р(х; в) = Т\\ Л#;1 в), то естественно интересоваться теми f(y; в), для к-рых .Уобладает нетривиальной Д. с. (грубо говоря, не эквивалентной ни в какой окрестности самой выборке). При определенных условиях типа регулярности такая ситуация возможна только для выборок из экспоненциального семейства распределений. Множество Д. с. для данного семейства J* не обязательно упорядочено относительно естественного отношения порядка rt < Т-2, если Тх = h(T2). Однако если пара (£,./) представляет собой евклидово пространство с а-алгеброй борелевских множеств, а семейство ./ доминировано, то всегда существует минимальная Д. с. Для регулярного продакт-семейства минимальная Д. с. Т(х) всегда имеет вид сумматорной статистики: r-(5LM*> Е-,'.<*>) при нек-ром т. Возможны и неортодоксальные определения Д. с. Напр., бейесовское определение: Т является Д. с. для семейства ./, если, каким бы ни было априорное распределение параметра в, апостериорное распределение зависит от наблюдения х только через Т. При довольно общих условиях бейесовское определение Д. с. эквивалентно определению посредством (*). Более общей, сравнительно с концепцией Д. с, является концепция достаточной алгебры (см. [5]). Концепция Д. с, фундаментальная для всей математич. статистики, принадлежит Р. Фишеру. В его работе [61 введен сам термин «Д. с.» и сформулирован вариант факторизационной теоремы, переоткрытой Дж. Нейманом (J. Neymann) в 1935. Для произвольного доминированного семейства эта теорема была доказана П. Халмошем (P. Halmos) и Л. Сэвиджем (L. Savage) в 1949. Понятие минимальной Д. с. ввели Э. Ле- ман и Г. Шеффе (Н. Scheffe). Бейесовский подход к определению Д. с. предложен А. Н. Колмогоровым. Литп.:[\] Ибрагимов И. А., Хасьминский Р. 3., Асимптотическая теория оценивания, М., 1979; [2] Каган A.M., Линии к Ю. В., Рао С. Р., Характеризационные задачи математической статистики, М., 1972; [3] Л еман Э., Проверка статистических гипотез, нер. с англ., 2 изд., М, 1979; [4] его же, Теория статистических оценок, пер. с англ., М., 1991; [5] Bahadur R. R., «Ann. Math. Statist.», 1955, v. 26, M> 3, p. 490-97; [61 Fisher R.A., «Philos. Trans. Roy. Soc. London. Ser. A», 1922, v. 222, p. 309-68. A. M. Каган. ДОСТАТОЧНАЯ СТАТИСТИКА минимальная (minimal sufficient statistic) - см. Минимальная достаточная статистика. ДОСТАТОЧНАЯ СТАТИСТИКА необходимая (necessary sufficient statistic) - см. Минимальная достаточная статистика. ДОСТАТОЧНАЯ ТОПОЛОГИЯ (sufficient topology) - то пология в пространстве, сопряженном к локально выпуклому, обладающая следующим свойством. Если нек-рый положительно определенный функционал, в нуле равный единице, непрерывен в этой топологии, то этот функционал является характеристич. функционалом нек-рой вероятностной меры. В сопряженном Т£ пространству Т топология а(Г*, Т) поточечной сходимости является Д. т.; непрерывным в этой топологии положительно определенным функциям соответствуют меры, сосредоточенные на счетных объединениях конечномерных подпространств. Другой пример Д. т.- Сазонова топология в Т*. Если Д. т. является и необходимой топологией, то она - допустимая топология. Сильнейшей Д. т. в бесконечномерном банаховом пространстве не существует. Лит.: [\] Вершик A.M., Судаков В. Н., «Записки научных семинаров ЛОМИ», 1969, т. 12, с."7-67; (21 Муштари Д. X., Вероятности и топологии в банаховых пространствах, Казань, 1989. В. И. Тариеладзе. ДОСТАТОЧНОСТЬ в теории статистических игр (sufficiency in the game theory) - принцип сужения класса всех решающих правил за счет использования лишь доста точных статистик. Пусть дана выборка X из распределения Ре, в 6 0, S- достаточная статистика для в. Для любого априорного распределения Q на параметрич. множестве 0 апостериорное распределение будет зависеть от выборки только через S. В соответствии с бейесовским принципом (см. ДОСТАТОЧНОСТЬ 177
также Статистическая игра) бейесовские минимаксные стратегии и стратегии полного класса будут функциями лишь от S. Это означает, что при использовании принципа Д. мы не лишаемся ни одной неулучшаемой стратегии. В задачах оценивания параметра 6(0 с= И?*) при функции потерь w(b, 6) вида w(b, 6) = w(b-Q), где w(u) - выпуклая функция в II? , принципу Д. можно придать более конструктивную форму, позволяющую эффективно характеризовать полный класс. Именно, имеет место следующее утверждение: для любой решающей функции (оценки) 6* = 5(Х) существует оценка 9$ = Ее(в*/5), к-рая не хуже в* для любого бе 0: EQw(Q*s-Q)^EQw(e*-Q). Если достаточная статистика S является полной, это позволяет однозначно определить равномерно наилучшую оценку в классе несмещенных оценок. Лит.: [1] Леман Э., Проверка статистических гипотез, пер. с англ., 2 изд., М., 1979; [2) Закс Ш., Теория статистических выводов, пер. с англ., М., 1975; [3] Боровков А. А., Математическая статистика. (Дополнительные главы), М., 1984. А. А. Боровков. ДОСТИЖИМАЯ ГРАНИЦА (attainable boundary) - см. Одномерная диффузия; классификация границ. ДОСТИЖИМОЕ СОСТОЯНИЕ (accessible/reachable state) - см. Маркова цепь] классификация состояний, Марковский процесс со счетным множеством состояний. ДОСТОВЕРНОЕ СОБЫТИЕ (certain event) - событие, к-рое априори должно обязательно произойти. Точнее, если Q = {co} - пространство элементарных исходов, то событие А, наступающее вместе с любым из элементарных исходов со, называется достоверным событием и, очевидно, должно совпадать со всем пространством £1. Поэтому естественно приписать Д. с. вероятность, равную 1: РС4) = мера {со:соеЛ} = Р(а) = 1. Дополнительным к А является невозможное событие. См. также Алгебра событий. А. В. Прохоров. ДОСТОВЕРНОСТЬ (certainty) - априорное убеждение в осуществимости нек-рого явления, исключающее всякое сомнение. Д. характеризует реализуемость нек-рого события, отмечая его наивысшим значением вероятности. В теории вероятностей понятие Д. связано с достоверными событиями, происходящими с вероятностью 1. На практике говорят о Д. уже тогда, когда вероятность нек-рого события достаточно близка к 1. А. В. Прохоров. ДРЕВОВИДНЫЙ КОД (tree code) - конечное или счетное множество слов в нек-ром алфавите, к-рое можно задать с помощью дерева, имеющего выделенную вершину (корень). Каждое ребро дерева отождествляется с нек-рой конечной последовательностью символов заданной длины (часто одинаковой для всех ребер) из выбранного алфавита. Любой путь по дереву, начинающийся в корне, соответствует нек-рому кодовому слову; любому кодовому слову соответствует нек-рый путь по дереву. В теории кодирования предполагается, что все ребра, исходящие из одного угла, различны. Примером Д. к. конечной длины являются коды со свойством префикса, у к-рых никакое кодовое слово не является префиксом (то есть началом) другого кодового слова. Примером Д. к. бесконечной длины являются сверточные коды. Лит.: [1] Блейхут Р., Теория и практика кодов, контролирующих ошибки, пер. с англ., М., 1986. 3. М. Габидулин. ДРЕВОВИДНЫЙ ЛИНЕЙНЫЙ КОД (linear tree code) - см. Сверточный код. ДРОБНОЕ БРОУНОВСКОЕ ДВИЖЕНИЕ (fractional Brownian motion) - см. Дробный белый шум. 178 ДОСТАТОЧНОСТЬ ДРОБНЫЙ БЕЛЫЙ ШУМ (fractional white noise), дробное броуновское движение,- автомодельный ?аус- совский процесс X(t) со стационарными приращениями первого порядка, имеющий равное нулю среднее значение и степенную структурную функцию D(T) = E|xa + T)-X(Ol2 = c|x|"\ 0<ш^2, к-рой при т < 2 отвечает спектральная плотность f(X) = С,Г1"'", С, = (2л)"1 Г(1 + го) sin 22-С. Д. б. ш. может быть получен из винеровского процесса (то есть процесса броуновского движения) с помощью интегрирования дробного порядка; он является автомодельным случайным процессом, так как распределения вероятностей приращений X(t) инвариантны относительно преобразований подобия t-+ht, Х->/Г"/2Х при любом h>0. Иногда Д.б.ш. называются также автомодельные гауссовские случайные процессы со стационарными приращениями высших порядков, имеющие степенную спектральную плотность f(X) = C^Xn, где п>3, и стационарные гауссовские обобщенные процессы со спектральной плотностью вида f(X) = С^Х~п, где п < - 1. Лит.: [1) Пи иске р М. С, «Изв. АН СССР. Сер. матем.», 1955, т. 19, с. 319-44; [2] Mandelbrot В. В., Van Ness J.W., «SIAM Rev.», 1968, v. 10, j№? 4, p. 422-37. A. M. Я/.юм. ДРОБНЫЙ ФАКТОРНЫЙ ПЛАН (fractional factorial design) - см. Планирование эксперимента. ДРОБНЫЙ ФАКТОРНЫЙ ЭКСПЕРИМЕНТ (fractional factorial experiment) - факторный эксперимент, в к-ром число измерений меньше, чем в полном факторном эксперименте, то есть меньше, чем st, s2, ..., sm, где s( - число уровней /-го фактора, т - число факторов. Лит.: [1] Математическая теория планирования эксперимента, М , 1983. Ю. П. Юрачковский. ДРОБОВОГО ШУМА ПРОЦЕСС (shot noise process) - импульсный случайный процесс вида х(0 = У" r(t-tn), (О где Г(0 - заданная действительная интегрируемая функция с интегрируемым квадратом, a tn, п = 0, 1, ...,- случайная последовательность точек (обычно предполагаемая пуассоновской). Д. ш. п. широко используется в радиотехнике для описания дробового шума, то есть неупорядоченных флуктуации тока на выходе электронной лампы, создаваемых случайным характером эмиссии электронов нагретым катодом (см., напр., [ 1 ]~[3]). Среднее значение и дисперсия (1) в случае, когда {г,,} - пуассоновская система точек, определяются формулами Ex(o = xj~oo raw*, (2) DX(t) = E[X(t) - EX(t)]2 = XJ°^ r2(t)dt, (3) где X - среднее число точек tn, приходящихся на единицу времени; эти формулы были получены Н. Кэмпбеллом [4], и они часто называются теоремой Кэмпбелла (см., напр., [3], [5]). Обобщением формул (2) и (3) являются формулы для среднего значения и корреляционной функции амплитудно-моделированного процесса с взаимно независимыми одинаково распределенными амплитудами, отвечающего пуассоновской последовательности моментов появления импульсов. Формулы для одномерного распределения вероятностей Д. ш. п. X(t) и для семиинвариантов X(t) произвольного порядка см., напр., в [3]. Лит.: [1] Давенпорт В. Б., Рут В. Л., Введение в теорию случайных сигналов и шумов, пер. с англ., М., 1960; [2] Миддлтон Д., Введение в статистическую теорию связи, пер. с англ., г. 1, М., 1961; [3] Rice S. О., «Bell System. Techn. J.», 1944, v. 23, X? 3. p. 282-332; [4] Campbell N., «Proc. Cambridge Phil. Soc», 1909, v. 15, p. 117-36; 310-28; [5] Дуб Дж.Л., Вероятностные процессы, пер. с англ., М., 1956. А. М. Я?лом.
ДУАЛЬНАЯ ПРЕДСКАЗУЕМАЯ ПРОЕКЦИЯ (dual pre dictable projection) - то же, что компенсатор. ДУАЛЬНЫЙ МАРКОВСКИЙ ПРОЦЕСС, двойствен ный марковский процесс (dual Markov process),- марковский процесс, связанный условиями двойственности с другим (исходным) марковским процессом. Пусть X = (Xt, ,<Yt, Рх) и X - (Xt, ,4ft, Pv) - два однородных марковских процесса в одном и том же пространстве состояний (Е, .</), и v - нек-рая а-конечная мера на Е. Процессы X и X называются д у а л ь - н ы м и по отношению к мере v (или процесс X является дуальным марковским процессом для X по отношению к v), если переходные функции процессов X и X удовлетворяют соотношению v(dx)p(t, x\ dy)=v(dy)p(t, у; dx). (*) Говорят, что X и X сильно дуальны по отношению к V, если выполнено (*) и резольвенты г^ и т\ процессов X и X абсолютно непрерывны относительно vir^ix, ) « v(-) и г^(л, •) « v( •) при всех X > О, х еЕ. Понятие Д. м.п. является одним из базисных понятий в вероятностной теории потенциала (см. Потенциала теория для марковского процесса); рассмотрение Д. м. п. соответствует исследованию исходного марковского процесса в обращенном времени. В частности, при нек-рых предположениях можно строить Д. м. п. с помощью операции обращения времени в исходном марковском процессе. Более того, если X - Д. м. п. для X по отношению к v, то при достаточно широких условиях можно, грубо говоря, реализовать процессы X и X на общем пространстве (Q,^/) как единый процесс таким образом, чтобы меры Рх описывали будущее поведение процесса, а меры Рх отвечали движению в прошлое; при этом задающая процесс мера в пространстве Q, вообще говоря, оказывается лишь а-конечной. Лит.: [1] Хант Дж.-А., Марковские процессы и потенциалы, пер. с англ., М., 1962; [2J Bl u men thai R. M., Getoor R. К., Markov processes and potential theory, N.Y.- L., 1968; [3] S my the R. Т., Walsh J. В., «Invent. Math.», 1973, v. 19, p. 113-48; [4) Шур М.Г., «Теория вероятн. и ее примен.», 1977, т. 22, в. 2, с. 264-78; [5] Mitro J. В., «Z. Wahr. und verw. Geb.», 1979, Bd 47, H. 2, S. 139-56; Bd48, H. 1, S. 97-114; [6] Кузнецов С.Е., в кн.: Итоги науки и техники. Современные проблемы математики, т. 20, М., 1982, с. 37-178. СЕ. Кузнецов. ДУБА НЕРАВЕНСТВА (Doob inequalities) - неравенства для случайного процесса X* = (X^)t>Q с X* = sup |XS| , где X=KXt)t>Q - равномерно интегрируемый мартингал с непрерывными справа и имеющими пределы слева траекториями: е(х;),;^-^Уе|Х, Г, р>\ при Е|ХГ|"<~, Т - марковский момент, Г^°о. В случае локально квадратично интегрируемого мартингала Х(Х0 = 0) с квадратич. вариацией [X, X] = ([X, X]t)t^Q и квад- ратич. характеристикой {X) = ({X)t)t>0 р{х'т>а}<±Е{Х, Х]Т±Е{Х)Т а а* (неравенство Колмогорова - Дуба). Лит.: [1J Дуб Дж. Л., Вероятностные процессы, пер. с англ., М., 1956; [21 Лип ц ер P. III., Ширяев А. Н., Теория мартингалов, М., 1986. Р. III. Липцср. ДУБА ЦЕНТРИРУЮЩИЕ КОНСТАНТЫ (Doob centering constants) - постоянные сп, определяемые для последовательности случайных величин {Хп} по правилу Earctg(X„-c„) = 0, я = 1, 2, ... Д. ц. к. используют в исследованиях о существенной сходимости случайных рядов и при построении теории процессов с независимыми приращениями. Их важнейшее свойство; если последовательность (Хп-ап) сходится почти всюду при нек-ром выборе чисел ап, то можно положить ап = сп. Если X(t), t еТ,- случайный процесс, то функция fit), определяемая по правилу Earctg(X(O-/"(O) = 0, называется центрирующей функцией Дуба. Лит.: [1] Дуб Дж.Л., Вероятностные процессы, пер. с англ., М., 1956; [2] И то К., Вероятностные процессы, пер. с япон., в. 1, М., 1960. В.М. Круглое. ДУБА-МЕЙЕРА РАЗЛОЖЕНИЕ (Doob-Meyer decomposition) - разложение для субмартингала Х = М + А, где М - локальный мартингал, А - выходящий из нуля возрастающий предсказуемый процесс. Разложение существует и единственно. В частности, если У - квадратично интегрируемый мартингал, то У - субмартингал и У =М + А (в данном случае процесс А называется квадратической вариацией мартингала и обозначается (У)). На этом равенстве основано применение Д.- М. р. в определении стохастич. интеграла по мартингалу. Для дискретного времени Д.- М.р. получил Дж. Дуб [1], для непрерывного времени при «обычных» условиях (траектории рассматриваемых процессов непрерывны справа, имеют пределы слева; неубывающее семейство а-алгебр, связанное с субмартингалом, непрерывно справа и пополнено) доказал П. А. Мейер [2]. Д.-М.р. справедливо и без «обычных» условий (см. [3]-[4]). Лит.: [1) Дуб Дж. Л., Вероятностные процессы, пер. с англ., М., 1956; [2) Мейер П. А., Вероятность и потенциалы, пер. с англ., М., 1973; [3] Гальчук Л.И., «Матем. сб.», 1981, т. 115, № 2, с. 163-78; [4) Lenglart E., «Lect. Notes Math.», 1980, v. 784, p. 500-46. Л. И. Гальчук. ДУБЛИРОВАНИЕ в технике (doubling in engineering) - введение наряду с основным элементом дублирующего элемента, способного выполнять функции первого при его отказе. Различают нагруженное и ненагруженное Д. в зависимости от того, подвержен или нет дублирующий элемент отказам. Отказ системы с Д.- состояние, при к-ром основной и дублирующий элементы отказали. Характеристики систем с Д. изучаются методами полумарковских процессов, вложенных цепей Маркова, сумм случайного числа случайных величин. Так, время £ безотказной работы восстанавливаемой системы с ненагруженным Д. задается равенством £ = £0 + + ^ + ... +£v, где £„ - длительности безотказной работы элемента; v ^ 1 - номер первой длительности безотказной работы, в течение крой восстановление еще не закончено. И. Н. Коваленко. ДЫНКИНА ФОРМУЛА (Dynkin's formula) - см. Марковский процесс, резольвента, Инфинитезимальный оператор. ДЭВИСА НЕРАВЕНСТВА (Davis inequalities) - см. Бурк- хольдера - Ганди - Дзвиса неравенства. ДЭВИСА 179
ЕВКЛИДОВ ПОДХОД (Euclidean approach) - см. Р[<р]2- модели квантовой теории поля. ЕВКЛИДОВ ШЕЙП (Euclidean shape) - см. Случайный шейп. ЕВКЛИДОВА КВАНТОВАЯ ТЕОРИЯ ПОЛЯ (Euclidean quantum field theory) - раздел квантовой теории поля, в к-рой изучаются так наз. евклидовы поля в пространстве IP , d^2,- вспомогательные образования, конструируемые по обычным квантовым полям в пространстве Минковского М (грубо говоря, это их «продолжение» в область «мнимого времени», то есть в пространство II? ). Часто оказывается, что вместо построения и изучения квантового поля в М удобнее исследовать соответствующее ему евклидово поле, а затем с помощью хорошо разработанной процедуры аналитич. продолжения вернуться к исходному полю. Евклидовы поля в II? , как и квантовые поля в М , могут быть описаны аксиоматически: бозонное поле задается как состояние (или квазисостояние), определенное на алгебре .с/ функционалов на пространстве S'(IR ) обобщенных функций в IP , порожденной функционалами вида JL(D = (7\q>), - пространство бесконечно гладких быстроубывающих функций на II? ]. Это состояние должно удовлетворять нек-рым общим условиям (ковариантность, SO-положительность и т. д.; см. [2]). Для фермионных евклидовых полей квазисостояние определяется на соответствующей грассмановой алгебре (см. [3]). Если (X - распределение вероятностей в 5"(IR ) марковского обобщенного случайного поля, то среднее (F)^ по этому распределению (Fei) задает бозонное евклидово поле в IRr; это обстоятельство, обнаруженное Э. Нельсоном (Е. Nelson, см. [1]), значительно облегчает задачу построения евклидовых полей. Моменты «*■-v= «и»5^1' ■■■■ *")n.=i ^Xi)dxi -d4' определяют (обобщенные) функции Sn(xv ..., хп) (так наз. Швингера функции евклидова поля), и их аналитич. продолжения на пространства (А/ )", п=\, 2,..., совпадают с Уайт- мана функциями соответствующего квантового поля. Лит.: [ 1 ] С а й м о н Б., Модель Р[(р]2 евклидовой квантовой теории поля, пер. с англ., М., 1976; [21 Глимм Дж., Джаффе А., Математические методы квантовой физики. Подход с использованием функциональных интегралов, пер. с англ., М., 1984; [31 Osterwal- der К., Schrader R.( «Helv. Phys. Acta», 1973, v. 46, p. 277-302. P. А. Минлос. ЕВКЛИДОВО ПОЛЕ (Euclidean field) - см. Евклидова квантовая теория поля. ЕДИНИЧНЫЙ СЛУЧАЙНЫЙ ПРОЦЕСС (unit random process) - см. Бинарный случайный процесс. 180 ЕВКЛИДОВ ЕДИНСТВЕННОСТИ ТЕОРЕМА для характеристических функций (uniqueness theorem for characteristic functions): функция распределения однозначно определяется своей характеристической функцией, то есть если Fv F2 - две функции распределения, fa, f2- соответствующие им характеристические функции и f\=f2, то и FX=F2. В силу Е. т. существует взаимно однозначное соответствие между функциями распределения и характеристич. функциями. Для известных аналогов характеристич. функций, связанных с распределениями на пространствах более общей природы, это свойство сохраняется. В. В. Петров. ЕМКОСТЬ (capacity) - абстрактный вариант понятия внешней ньютоновской емкости из классической теории потенциала. Пусть заданы множество F и нек-рое семейство его подмножеств J, содержащее пустое множество и всевозможные объединения и пересечения конечных наборов множеств из J. Емкостью Шоке, или ./емкостью, называется функция С(Л), определенная для всех подмножеств множества F, принимающая значения из [-<», °°] и обладающая свойствами: а) С(Л) с увеличением А не убывает, б) С(Л) непрерывна снизу, то есть C(Un>] An) = sup{CC4„); n^\}, если множества АхаА2а ... входят в J, в) С(А) непрерывна сверху, то ость С(ПЯ^1/l„) = inf {С(Л„); и^1}, если множества Ах эЛ2 :э ... входят в J. При этом множество A a F считается С-и змери- мым, если С(Л) = sup {С(В); В с: А, Ве^ь}, где Jb - совокупность объединений всевозможных последовательностей с элементами из &. Абстрактная теория Е. (см. [3]—[5J), важнейшей задачей к-рой является разработка удобных критериев С-измеримости, была построена Г. Шоке (G. Choquet) в 1955-59. Примером ./-емкости служит внешняя мера п*(Л) = inf{\i(B); В z>A, В е^"}, где (Q, jF, ц) - пространство с конечной полной мерой. Другой пример: внешняя ньютонова емкость (см. (5]), при определении к-рой в качестве F и ./берутся II? , и^З, и совокупность компактов в F соответственно. В теории случайных процессов теория Е. находит важные применения, напр. при исследовании нек-рых трудных проблем измеримости (см. [3], [4]), в частности при исследовании моментов первого достижения множеств траекториями марковских процессов (см. [1], [2]). Для широкого класса марковских процессов построены Е., аналогичные внешней ньютоновой Е. (см. [2]). Лит.: [1] Дынкин Е. Б., Основания теории марковских процессов, М., 1959; 121 Хант Дж.-А., Марковские процессы и потенциалы, пер. с англ., М., 1962; 13] Мейер П.-А., Вероятность и потенциалы, пер. с англ., М., 1973; [4] Meyer P.-A., Del lacheric-С, Probabilites et potentiel, P., 1976, ch. 1-4; [51 Doob I.L., Classical potential theory and its probabilistic counterpart, N. Y. - B. - Tokyo, 1984. M. Г. Шур. F-EMKOCTb (F-capacity) - см. Емкость. ЕСТЕСТВЕННАЯ ГРАНИЦА (natural boundary) - см. Одномерная диффузия; классификация границ.
ЗАВИСИМОСТИ РАДИУС (interaction radius) - см. Марковский процесс с взаимодействием. ЗАВИСИМЫЕ ИСПЫТАНИЯ (dependent trials) в статистическом моделировании- использование моделей (семейств моделей), в к-рых искомую величину (семейство величин) подсчитывают как среднюю характеристику по зависимым реализациям моделируемого случайного явления (зависимым сериям реализаций). Сюда относятся антитетичных переменных метод и другие квадратурные формулы со случайными параметрами, точные на каком-либо пространстве F функций. Их применение, когда интегрируемая функция f близка к своей проекции на F, уменьшает объем необходимой работы в методе Монте-Карло. При вычислении методом Монте-Карло зависимости Ф<a) = J/"0r; а)Р«*)«ЛГУ^; а)+ ...+/"«;„; а)]*<р-(а) удобно использовать при всех a = at, ..., ak одну и ту же последовательность £,-, разыгранную по закону P(dx). Тогда кривая <р*(а) близка к <р(а) в соответствующей метрике С , а не только в С. Сходную конструкцию зависимых серий применяют, когда мера P=P(dx; a) также зависит от параметра а. Лит.: [ 1 ] Ермаков СМ., Метод Монте-Карло и смежные вопросы, 2 изд., М., 1975; [2] Бахвалов Н. С, в сб.: Численные методы решения дифференциальных и интегральных уравнений и квадратурные формулы, М., 1964, с. 5-63; [3] Фролов А. С, Чен цов Н. Н., «Тр. VI Всесоюзп. совет, по теории вероятн. и матем. статистике», Вильнюс, 1962, с. 425-37. Я. Н. Ченцов. ЗАВИСИМЫЕ СОБЫТИЯ (dependent events) вероятностного пространства Ш, .г/, Р) - события Ау В из .«•/, для к-рых РС4Я)*РС4)Р(Я). См. также Независимые события. В. А. Ватутин. ЗАГРУЗКИ ФУНКЦИЯ (load function) - случайная функция K(t), равная суммарной длительности обслуживания требований, поступающих в обслуживания систему в интервале (0. t). Моменты скачков 3. ф. совпадают с моментами поступления требований, величины скачков равны длительностям обслуживания требований. Виртуальное время ожидания w(t) связано с 3. ф. стохастич. дифференциальным уравнением w'(t) = K'(t)-sign w(t) (производные - в обобщенном смысле). Наиболее распространен случай, когда K(t) - обобщенный нуассоновский процесс. И. Н. Коваленко. ЗАДЕРЖИВАЮЩЕЕ СОСТОЯНИЕ (stable state) - см Устойчивое состояние, Марковский процесс; внутренние свойства траекторий. ЗАДЕРЖИВАЮЩИЙ БАРЬЕР (holding sticky boundary/ elastic barrier) - см. Винеровский процесс в полупрямой. ЗАДЕРЖКА (delay/lag), запаздывание, лаг,- 1) 3.- аргумент автокорреляционной функции Bx(t)- Ее значение для 3. т равно коэффициенту корреляции между величинами X(t) и Х(г-т), разделенными во времени интервалом длины т, где X(t) - стационарный случайный процесс. 2) 3.- воздействие на случайный процесс линейного фильтра с ненулевой фазой фильтра. В простейшем случае, когда фаза фильтра есть линейная функция <р(>.) = А/с, фильтр действует как оператор запаздывания с 3. х:Х(0 ->Х(£-х). Если фаза - гладкая функция в окрестности точки \q, to обычно рассматривается величина (рЧАф), называемая групповой задержкой, к-рая показывает величину 3., соответствующей узкому диапазону частот около Xq. ю. Г. Баласанов. ЗАДЕРЖКИ КОЭФФИЦИЕНТ (delay coefficient) - см Марковский процесс; продолжение. ЗАКЛЮЧИТЕЛЬНОГО РЕШЕНИЯ ФУНКЦИЯ (terminal decision function) - см. Последовательная проверка гипотез. ЗАМИРАНИЯ в канале (channel fading) - флуктуации амплитуды и фазы волны (электромагнитной или акустической) на входе приемной аппаратуры при условии, что амплитуда и фаза волны, излучаемой передатчиком, стабильны. Основная причина возникновения 3.- многопутевое распространение волны от передатчика к приемнику, причем задержки распространения и число путей могут изменяться случайным образом; другие причины - флуктуации коэффициента преломления среды распространения, колебания коэффициентов поглощения (напр., из-за осадков) и т. п. Различают частотно-селективные и время-селективные 3. Модель частотно-селективных замираний строится на основе предположения, что при прохождении волны по каналу со случайными параметрами спектр выходного сигнала равен спектру входного сигнала, умноженному на случайную функцию частоты (комплексный случайный коэффициент передачи). Обычно эту функцию считают комплексным случайным гауссовским процессом. 3. называются медленными, если коэффициент передачи можно считать комплексной случайной величиной, аргумент к-рой имеет равномерное распределение в [0, 2л). Плотность распределения модуля w(x) чаще всего описывают с помощью функций w(x) = (х/о )ехр{-# /а}(рэлеевские замирания) или w(x) = (x/G2)exp{-(x2 + a2)/b2}IQ(\ia/G2) (райсовские замирания). Модель время-селективных замираний строится на основе предположения, что при прохождении волны по каналу со случайными параметрами ее комплексная огибающая умножается на случайную функцию времени, обычно на комплексный гауссовский процесс. Лит.: [1] Кеннеди Р., Каналы связи с замираниями и рассеянием, нер. с англ., М., 1973. 3. М. Габидулин. ЗАМКНУТАЯ СИСТЕМА обслуживания (closed queue- ing system) - см. Обслуживания система. ЗАМКНУТОЕ СЛУЧАЙНОЕ МНОЖЕСТВО (closed ran dom set) - случайный элемент в топологическом пространстве & замкнутых множеств, топология к-рого J, определяется следующим образом. Пусть S - сепарабельное хаусдорфово ЗАМКНУТОЕ 181
локально компактное топологии, пространство, J- множество его замкнутых подмножеств. Тогда ?Ъ есть наименьшая топология, содержащая классы ./K = {F:Fe.f, FDK = 0}, JG = {F:Fe//, FflG*0}, где К - всевозможные компактные, a G - открытые подмножества S. См. также Случайное множество. н. Н. Ляшенко. ЗАМКНУТЫЙ ПЛАН (closed plan) - см. Последовательное оценивание. ЗАНЯТОСТИ ПЕРИОД (busy period) - интервал времени, на протяжении к-рого прибор (канал) обслуживания системы находится в занятом состоянии. В случае одноканальной системы 3. п. совпадает с интервалом, на протяжении к-рого в системе присутствует хотя бы одно требование. Распределение длительности £ 3. п. исследовано в случае систем, описываемых полу марковскими процессами. В случае системы с ожиданием при простейшем входящем потоке интенсивности X и среднем времени обслуживания т Е$ = х/(\-Хх) при Хх < 1; Е£ = оо при Хх = 1; £ = <*> с положительной вероятностью при Хх > 1. Лит.: [1] ГнеденкоБ.В., Ковал ен ко И. Н., Введение в теорию массового обслуживания, 2 изд., М., 1987. И. Н. Коваленко. ЗАПАЗДЫВАНИЕ (lag) - то же, что задержка. ЗАПАЗДЫВАНИЯ ОКНО (lag window) - см. Корреляционное окно, Спектральная плотность; непараметрическая оценка. ЗАПОЛНЕНИЕ (filling) - см. Минковского операции. ЗАРЯД, обобщенная мера, знакопеременная ме- р a (charge/signed measure),- счетно-аддитивная функция множеств, принимающая числовые значения. Как правило, областью определения 3. служит нек-рое а-кольцо множеств, к-рое в частных случаях может представлять собой и а-алгебру множеств (при этом обычно требуется, чтобы на пустом множестве всякий 3. принимал нулевое значение). Особого внимания заслуживает тот факт, что область значений любого 3. целиком содержится в расширенной действительной прямой IR = IRU{-°o, +<»}, причем 3. может принимать бесконечные значения только одного знака; другими словами, область значений всякого 3. либо целиком входит в множество IRU{-°o}, либо в множество IRU{+°o}. Стандартным примером 3. служит функция множеств X, определяемая следующим образом: X(Y)=jYfdii, YeS, где (X - нек-рая а-конечная (положительная) мера, заданная на нек-рой а-алгебре S, a f - произвольная числовая функция, интегрируемая по мере \i. Написанное равенство часто называют интегральным представлением заряда X посредством меры \i. С интегральными представлениями 3. тесно связана Радона-Никодима теорема, устанавливающая, при каких соотношениях между данными 3. и мерой возможно указанное интегральное представление. Другим примером 3. может служить функция множеств X, определяемая следующим образом: X(Y)=^(Y)-il2(Y), YeS, где (Х1 - положительная а-конечная мера, заданная на нек-рой а-алгебре S, a \i2 - положительная конечная мера, заданная на той же а-алгебре S. Важное утверждение, известное как Хана 182 ЗАМКНУТЫЙ теорема о зарядах, устанавливает, что всякий 3. представим в виде разности двух положительных мер, имеющих ту же область определения, что и исходный 3., причем одна из этих мер обязательно является конечной. Большую роль играет понятие 3. при изучении сходимости вероятностных распределений и особенно сходимости распределений в а-топологич. пространствах (края используется при исследовании важной задачи сходимости случайных процессов; см. [3], [4]). Эта роль объясняется тем, что, в силу обобщенной теоремы Хелли, любое подмножество 3. равномерно ограниченной вариации (в частности, любое множество распределений) обладает свойством относительной компактности в пространстве всех 3. с топологией, порожденной слабой сходимостью (см. [3]-[5]). Лит.: [1] Хал мош II., Теория меры, пер. с англ., М., 1953; [2] Колмогоров А.Н., Фомин СВ., Элементы теории функций и функционального анализа, 6 изд., М., 1989; [3] Александров А. Д., «Матем. сб.», 1940, т. 8, с. 307-48; 1941, т. 9, с. 563-628; 1943, т. 13, с. 169-238; [4] Боровков А. А., «Успехи матем. наук», 1976, т. 31, в. 2, с. 3-68; [5) Данфорд Н., Шварц Дж., Линейные операторы. Общая теория, пер. с англ., ч. 1, М., 1962. А. А. Боровков, А. Б. Харазишвили. ЗИГЕЛЯ ЗАДАЧА (Siege! problem): для данной группы G преобразований пространства II?" найти такие системы точек со с: IR", для к-рых существует G-инвариантный точечный процесс, сосредоточенный на множестве образов {gw.g eG}. К. Зигель установил (см. [1]), что для группы аффинных преобразований II?", сохраняющих меру Лебега, решением соответствующей задачи является решетка точек с целочисленными координатами. Для группы параллельных переносов IR" и евклидовой группы решениями 3. з. являются /г-решетки (объединения /г-решеток, получающихся друг из друга сдвигом) и только они (см. [2]). Для нек-рых подгрупп аффинной группы найдены решения 3. з., к-рые уже не будут /г-решеткамл. Лит.:[\] Siegel С. L., «Ann. Math.», 1945, v. 46, № 2, p. 340-17; [2) Сукиасян Г. С, «Изв. АН Арм. ССР. Сер. матем.», 1985, г. !>0, К? 4, с. 299-306. Г. С. Сукиасян. ЗНАКОВ КРИТЕРИЙ (sign test) - непараметрический критерий для проверки гипотезы Я0, согласно к-рой случайная величина |i подчиняется биномиальному распределению с параметрами (п; р = 0,5). Если гипотеза Я0 справедлива, то Р{ц**|я, 1/2} = ^ С'(1/2)" = = /05(и-/г, /г+1), k = 0, 1 п, где Iz^>b)=-^—\[ tfi-\\-t)h-'dt,0^z^\, 2 В(б7, b) J0 В(д, Ь) - бета-функция. Согласно 3. к. с уровнем значимости а, 0<а^0,5, гипотезу Я0 следует отвергнуть, если min{u., n-\i}^m, где т = т(а, п) - критич. значение 3. к., являющееся целочисленным решением неравенств lilo С,! (1/2)" « а/2, ££' Сг|( 1/2)" > а/2. 3. к. можно применять для проверки гипотезы Я0, согласно к-рой неизвестное непрерывное распределение независимых одинаково распределенных случайных величин Xv ..., Хп является симметричным относительно нуля, то есть для любого действительного числа х выполняется равенство P{Xi<-x} = P{Xi>x}. В этом случае 3. к. основан на статистике й = \• < S(X-), 8U) = <! ^'=1 ' [0, если х < 0, к-рая при справедливости гипотезы Я0 подчиняется биномиальному закону с параметрами (п; р = 0,5).
Аналогично 3. к. используется для проверки гипотезы #0, согласно к-рой медиана неизвестного непрерывного распределения, к-рому подчиняются независимые случайные величины Хх, ..., ХпУ имеет значение £0, для чего нужно перейти к случайным величинам Ух = Хх -£п, ..., Yn = Xn-Z>0. Лит.: [1] Большее Л.Н., С м ирнов Н. В., Таблицы математической статистики, [3 изд.], М., 1983; [2] Л еман Э., Проверка статистических гипотез, пер. с англ., 2 изд., М., 1979; [3] Ван дер ВарденБ.Л., Математическая статистика, пер. с нем., М., 1960; [4] СмирновН. В., Дунин-БарковскийИ.В., Курс теории вероятностей и математической статистики для технических приложений, 3 изд., М., 1969. М. С. Никулин. ЗНАКОВАЯ КОРРЕЛЯЦИОННАЯ ФУНКЦИЯ (sign correlation function) - см. Полярная корреляционная функция. ЗНАКОВЫЙ МЕТОД КОРРЕЛЯЦИОННОГО АНАЛИЗА (sign method of correlation analysis) - см. Полярная корреляционная функция. ЗНАКОИНВАРИАНТНОЕ СЕМЕЙСТВО случайных величин (sign-invariant family of random variables) - семейство случайных величин, распределение к-рого не меняется при произвольной расстановке знаков у случайных величин из этого семейства. Точнее, конечное семейство (Xt, ..., Хп) случайных элементов в измеримом векторном пространстве намывается знакоинвариантным семейством, если дли любого набора Qk = ±1, k=\, ..., п, случайные элементы (Xj, ..., Хп) и OjXj, ..., 6„Х„) одинаково распределены. Бесконечное семейство (Х^)^еЛ случайных элементов называется 3. с, если любое его конечное подсемейство является 3. с. Распространенный пример 3. с- семейство независимых симметричных случайных элементов. Если ряд, составленный из знакоинвариантной последовательности случайных элементов в сепарабельном нормированном пространстве, сходится по вероятности, то он сходится и почти наверное. Лит.: [1] ВаханияН.Н., Тариеладзе В. И., ЧобанянС. А., Вероятностные распределения в банаховых пространствах, М., 1985. С. А. Чобанян. ЗНАКОПЕРЕМЕННАЯ МЕРА (signed measure) - см. Заряд. ЗНАЧИМОСТИ КРИТЕРИЙ (significance test) - один из основных методов статистических гипотез проверки, приме- нягмый для проверки соответствия результатов наблюдений Xj xrv трактуемых как реализация случайных величин Х]( ..., Хп, нек-рой гипотезе Я0 о вероятностном распределении этих случайных величин. 3. к. отвергает либо принимает гипотезу #0 в зависимости от наблюденного значения нек-рой статистики Г=7,(Х1 Хп), конкретизация к-рой зависит от постановки задачи. При применении 3. к., вообще говоря, не предполагается наличие какой-либо конкурирующей гипотезы Я1( к-рую принимают в случае отклонения Я0, но если Я1 задана, то. согласно общей теории проверки статистич. гипотез, именно конкурирующая гипотеза Я1 определяет выбор статистики Т в соответствии с принципом максимизации мощности критерия. Обычно 3. к. применяют следующим образом. Выбрав статистику критерия Т(Х\, ..., Хп), по ее распределению при гипотезе Я0 и по заранее выбранному уровню значимости а, 0<а<0,5, определяют критич. значение критерия ta такое, что P{T^ta\H0}^a. Согласно 3. к. с уровнем а, гипотезу Я0 отвергают, если Т(х\, ..., xn)^ta. Если Г(х1( ..., хп) < ta, то считают, что гипотеза Я0 не противоречит результатам наблюдений хх> ..., хп, по крайней мере до тех пор, пока новые результаты наблюдений не заставят экспериментатора принять другую точку зрения. Пример. Если за первый час работы счетчик зарегистрировал 150 импульсов пуассоновского процесса, а за второй - 117 импульсов, то спрашивается, можно ли считать, что интенсивность поступления импульсов в единицу времени была постоянной (гипотеза Я0)? Если гипотеза Я0 верна, то наблюденные значения 150 и 117 можно трактовать как реализации двух независимых случайных величин Xj и Х2, подчиняющихся одному и тому же закону Пуассона с параметром X, значение к-рого нам не- известно. Поскольку при гипотезе Я0 случайные величины Yt = V4Xt + 1 - 2 VAT и Y2 = V4X2 + 1 — 2 л/лГ приближенно подчиняются нормальному распределению с параметрами (0, 1), то статистика X2 = I У, - У2]2/2 = [V4Xt + 1 - V4X2 + 1 ]2/2 распределена приближенно по закону х с одной степенью свободы, то есть Р{Х2>х\На)*Р{Х1>х}. По таблицам х -распределения находят критич. значение Xj(0,05) = 3,841, соответствующее заданному урошпо значимости а = 0,05, то есть Р{Х?^3,841} = 0,05. Далее, по наблюденным значениям Xt = 150 и Х2 = 117 вычисляют значение X статистики критерия: X2 =—[V4 150+1 -V4117 + 1]2 =4,087. Поскольку Х2 = 4,087>х?(0,05) = 3,841, то гипотеза Я0 о сохранении интенсивности отвергается по 3. к. типа % с уровнем значимости а = 0,05. Лит.: [1] Крамер Г., Математические методы статистики, пер. с англ., 2 изд., М., 1975; [21 Леман Э., Проверка статистических гипотез, пер. с англ., 2 изд., М., 1979; [3] Смирнов Н.В., Ду н и н- БарковскийИ.В., Курс теории вероятностей и математической статистики для технических приложений, 3 изд., М., 1969; [4] Девятое Б. И., «Теория вероятн. и ее примен.», 1969, т. 14, в. 1, с. 175-78; [5] Green wood P. E., N i k u 1 i n M. S., A Guide to Chi-squared Testing, N. Y., 1996. M. С. Никулин. ЗНАЧИМОСТИ УРОВЕНЬ (significance level) - положительное число, к-рым в стандартной постановке задачи статистических гипотез проверки ограничивается сверху размер критерия (или, что эквивалентно, вероятность ошибки 1-го рода). Для унификации таблиц 3. у. принимают равным одному из стандартных значений типа 0,1; 0,05; 0,01 и т.п. При данном объеме наблюдений уменьшение 3. у. уменьшает вероятность ошибки 1-го"рода за счет понижения «чувствительности» критерия (увеличения вероятности ошибки 2-го рода). Поэтому выбор 3. у. в реальных задачах основывается на содержательных соображениях, учитывающих практич. последствия ошибок 1-го и 2-го рода. Д. М. Чибисов.
ИГЛА (needle) - см. Интегральная геометрия. ИГРА статистическая (statistical game) - см. Статистическая игра. ИГРА ДВУХ ЛИЦ (two-person game) - математическая модель принятия оптимальных решений 1фи взаимодействии двух сторон в условиях конфликтов. Последнее предполагает задание множеств действий (стратегий) каждой из сторон (именуемых игроками) и результатов этих действий. Формально И. д. л. можно определить как тройку (D, 0, w), где D - множество стратегий d игрока 1,0- множество стратегий в игрока II, w = w(d, 0) - функция, определенная на Dx0, определяющая потери игрока I, если он выберет стратегию d, а игрок II - стратегию 0. Задается также функция w (d, 0) потерь игрока II, но для наиболее изученных игр с нулевой суммой принимается w (d, 0) = -w(d, 0), так что потери игрока I суть выигрыш игрока II, интересы игроков противоположны и здесь нет условий для соглашений. В приложениях к математич. статистике роль игрока II играет «природа», и для нее функцию потерь w (d, 0) можно задавать любым образом, ограничиваясь, в частности, рассмотрением игр с нулевой суммой. Именно такие игры рассматриваются ниже. Основная задача теории И. д. л. состоит в выборе оптимальной стратегии игрока I. Для этого множество стратегий требуется упорядочить. Приняты следующие подходы к выделению оптимальных стратегий игрока I: отыскание равномерно оптимальных стратегий в подклассах; построение бейесовских стратегий; построение минимаксных стратегий; отыскание совокупности всех неулучшаемых стратегий (так наз. полного класса стратегий). 1. Равномерно оптимальные стратегии в подклассах. Стратегия b^eD лучше, чем 82 е D, если w(bv 0)^аК82, 0) при всех 0е0 (1) и существует по крайней мере одно значение 0t e 0, для к-рого w(b\, 01)<г^(82, 01). Если выполнено лишь (1), то говорят, что стратегия 8t не хуже, чем 82. Стратегию 80, для к-рой w(b0, 0)^ау(8, 0) при всех beD0, 0e0, называют равномерно оптимальной в подклассе D0czD. В реальных задачах стратегии, равномерно оптимальные во всем классе D, почти никогда не существуют, но могут существовать в достаточно узких подклассах. В задачах математич. статистики часто оказывается возможным (из соображений симметрии, естественности процедуры, простоты вычислений) сузить класс рассматриваемых стратегий так, что после этого в классе «оставшихся» стратегий существует равномерно оптимальная. Этим проблема выбора оптимальной стратегии решается. Такой подход необходимо сопровождать исследованиями вопроса о том, не потеряна ли путем сужения класса 184 ИГРА стратегий возможность получения существенно лучшего результата. Примерами такого подхода в рамках статистич. игр могут служить наилучшие (эффективные) оценки параметра в подклассе несмещенных оценок и равномерно наиболее мощные критерии в подклассах всех инвариантных или несмещенных критериев. 2. Бейесовские стратегии. Они возникают в тех случаях, когда игрок II выбирает свою стратегию случайным образом с нек-рым распределением (известным или неизвестным) на 0. При этом подходе классы стратегий D и 0 наделяются структурой измеримого пространства, то есть на 0 и D выделяются нек-рые естественные а-алгебры подмножеств F0 и FD. Распределения я на (D, FD) и Q на (0, F0) называются смешанными, или рандомизированными, стратегиями, соответственно игроков I и II. Распределение Q часто называют априорным. Задание распределений я и Q индуцирует вероятностное пространство (Z)x0, FDx0, rcxQ), где FDxQ есть минимальная а-алгебра, порожденная прямыми произведениями множеств из FD и F0; а-алгебры FD и F0 выбираются так, чтобы выполнялись условия: a) FD и F0 содержат одноточечные множества {8} и {0}, б) функция потерь w(b, 0) измерима относительно FDx0. Множества всех смешанных стратегий игроков ( и II [то есть множество D всех распределений на (D, FD) и множество 0 всех распределений на (0, F0)] можно рассматривать как расширения D, 0, отождествляя так наз. чистые стратегии8еО, 0 е 0 с распределениями, сосредоточенными в этих точках. Потери w при использовании смешанных стратегий я, Q определяются равенством w (я, Q) = Еях0 о>(6, 0) = J w(u, t)n (du)Q(dt). (2) Таким образом, наряду с исходной игрой можно рассматривать игру (D, 0, w ) с функцией потерь (2), к-рая называется усреднением, или рандомизацией, игры (D, 0, w). В соответствии с принятым соглашением об отождествлении вырожденных распределений с чистыми стратегиями w (8, 0) = = w(b, 0). Рандомизация игры (D, 0, w) означает переход к игре с более богатыми множествами стратегий, по отношению к к-рой исходная игра является «вложенной» - она получается, если рассматривать лишь чистые стратегии обоих игроков. Задачи упорядочивания стратегий в играх (D, 0, &:0 и (D, 0, w) тесно связаны. Стратегия к =Kq, для к-рой w (kq, Q) = inf w (я, Q), называется бейесовской, соответствующей априорному распределению Q, то есть бейесовская стратегия есть наилучшая стратегия я при данном Q в усредненной игре. Стратегия 8q еD, для к-рой w (8q, Q) = inf w (я, Q), называется чистей бейесовской стратегией. Если для данного Q сущеег- вует смешанная бейесовская стратегия я q , то существует и чистая бейесовская стратегия 8q такая, что w (8q, Q) = w (kq, Q). Таким образом, если inf w (я, Q) достигается, то он достигается и на чистых стратегиях.
Вопрос о нрактич. использовании байесовских стратегий является довольно тонким. Если наличие априорного распределения обусловлено нек-рым реальным физич. механизмом, то это г подход бесспорен. Но бейесовский подход часто оправдан и в тех случаях, когда его связывают с наличием нек-рых, быть может даже субъективных и не всегда достаточно полных, представлений, к-рые тем не менее не учитывать нельзя. Кроме того, бейесовский подход оказывается весьма полезным как средство отыскания минимаксных стратегий и как общий инструмент исследований. 3. Минимаксные стратегии. Если априорная информация относительно 0 отсутствует, то при упорядочении стратегий можно ориентироваться на «наихудшую» стратегию игрока II. Если выбрать стратегию 8, то максимальные потери составят sup да(8, 6) = да(8, Т). Эта величина зависит лишь от 8 и, так же как и значения да(8, Q), позволяет упорядочить 8. Стратегия 8 называется минимаксной, если да(5, T)= inf да(8, Т) = да*. 8 Термин «минимаксный» образован из соединения наименований операций в правой части соотношения да(8, T) = min max да(6, 6). 5 9 Так как при любом в _ да(6, 6)^да(о\ Т) = да*, то минимаксная стратегия 8 характеризуется тем, что обеспечивает потери игрока I в размере, не большем чем да*. Значения ZD* = inf W(b, T ), (ffi»(6, Т ) = SUp Ю(6, в», 8 е да* = sup да( i, в), (да( i, в) = inf да(8, в)) е 8 называются соответственно верхней и нижней ценой игры. Если да* = да#, то говорят, что существует цена игры, равная общему значению да* и да* (см. [2]). Игрок 11^ действуя аналогично первому и выбирая свою стратегию 6 из тех же минимаксных соображений, может всегда обеспечить себе выигрыш, не меньший чем да*. Следо- вате/ьно, если существует цена игры, то, выбирая минимаксную стратегию 8, игрок I обеспечивает себе неулучшаемый результат в том смысле, что если игрок II выберет 0, то никакая другая стратегия не даст потери, меньшие чем да* = да*. _ _ _ _ Ее пи существуют минимаксные стратегии 8 и 0, то да(8, 0) = = да* = да*. В общем случае всегда да* ^ да*. _ Если да*>да#, то минимаксную стратегию 8 можно улучшить, вводя смешанные стратегии. В этом состоит одно из главных назначений последних. Пусть тс и Q обозначают минимаксные стратегии для усредненной игры (если они существуют), и пусть да* = inf sup да (тс, Q), да* = sup inf да (тс, Q). it Q Q к Всегда справедливы неравенства да* ^ да * ^ да * ^ да*. Первым фундаментальным фактом теории игр является так наз. теорема о минимаксе, к-рая утверждает, что при весьма широких предположениях усредненные игры имеют цену да* = да* и для них существуют минимаксные стратегии (применительно к математич. статистике это утверждение см. в ст. Статистическая игра). Понятия бейесовской и минимаксной стратегий связаны между собой. Стратегия тс называется уравнивающей на множестве SqCl 0, если: 1) да (тс, 0) = C = const, 060o, 2) да (тс, 0) ^ С при всех 0. Пусть существует априорное распределение Q и соответствующая ему бейесовская стратегия я~, к-рая является уравнивающей на носителе Nq распределения Q. Тогда тс = я~ является минимаксной стратегией. Если Nq = 0, то уравнивающая стратегия тс делает игру игрока II «безразличной» - от него не зависящей. Распределение Q, определяющее бейесовскую минимаксную стратегию я~, обладает одним замечательным свойством: оно будет наихудшим в том смысле, что для него бейесовские потери да (kq, Q) будут максимальными. Распределение Q называется наименее благоприятным, или наихудшим, если да (Kq, Q) = sup да (rcQ, Q) или, другими словами, да (1, Q) = sup да (1, Q). Q Пусть игра (D, 0, да) имеет цену, а оба игрока имеют минимаксные стратегии тс и Q. Тогда распределение Q является наихудшим, а тс является бейесовской стратегией тс = Яя, отвечающей Q. С приведенными выше утверждениями тесно связан следующий критерий минимаксности: пусть игра (D, 0, да) имеет цену и минимаксные стратегии; тогда следующие три условия эквивалентны: 1) стратегия тс является минимаксной, 2) стратегия тс является бейесовской и уравнивающей, 3) стратегия тс является бейесовской и соответствует наихудшему распределению Q:tc = tCq. 4. Полный класс стратегий. Если все описанные выше подходы не дают возможности однозначно выбрать стратегию, то решение задачи ограничивают описанием так наз. полного класса стратегий. Класс стратегий Dca D называется полным, если для любого тс g Dc существует стратегия TC0eDr, к-рая лучше, чем тс. Класс Dq называется минимальным полным классом, если Dq есть полный класс, но никакой его собственный подкласс не является полным классом. Другими словами, минимальный полный класс состоит из одних неулучшаемых стратегий. Польза построения минимального полного класса или полного класса, к-рый существенно меньше D, состоит в том, что это позволяет редуцировать игру (D, 0, да) к игре (Dc, 0, да), к-рая может иметь более простую структуру. При широких предположениях класс всех бейесовских стратегий {tcq}, Q е 0, является полным классом (вторая фундаментальная теорема теории игр; см. также Статистическая игра). Лит.: [1] Мак-Кинси Дж., Введение в теорию игр, пер. с англ., М., I960; [2] Боровков А. А., Математическая статистика. (Дополнительные главы), М., 1984. А. А. Боровков. ИДЕАЛЬНАЯ МЕТРИКА (ideal metric) порядка s - вероятностная метрика \i(X, Y) в множестве И случайных величин, заданных на одном вероятностном пространстве, к-рая обладает свойством регулярности по отношению к нек-рой коммутативной операции Ш в £, именно U<XUJZ, Y\DZ)^[i(X,Y) (l) и к тому же является однородной метрикой порядка 5 для группы отображений Гг :£<-►£, с>0, изоморфной мультипликативной группе положительных чисел, то есть \l(TcX,TcY) = cs\l(X,Y). (2) ИГРА 185
При этом можно говорить, как и для вероятностных метрик в целом, о простых и сложных И. м. Примеры И.м. в множестве действительных случайных величин относительно ТсХ = сХ и ХЦ1У = Х+У, причем в случае сложной метрики регулярность понимается в «широком» смысле, а в случае простых метрик - в «узком» смысле (см. Вероятностная метрика; регулярность). 1. щ(Х, У) = Е|Х- У|а, 0<а^ 1 - сложная И. м. порядка а. 2. [i2(X, y) = sup {\E((X + x)s-(Y + x)s)\:xe^}- простая И.м. порядка s (s - целое ^1). Необходимым условием конечности \i2 является система равенств Е(Х*-У*) = 0, k=\, ...,5-1, (3) При выполнении (3) И. м. можно придать вид ц2=|Е(АГ5-У5)|. Причем равенство \12(Х, У) = 0 не влечет за собой равенство Fx = FY, где Fx - функция распределения случайной величины X. 3. Пусть s = m + Y>0, где т - целое и 0 <у^ 1. Метрика UX,Y) = sup{\E(f(,X)-f(Y))\:feD^, где Ds - множество ограниченных функций f на IP1, имеющих т производных, причем \fiM\x)-flm\y)\*\x-y\\x,yeK\ является простой И.м. порядка s. В случае целого s^l ей можно придать вид ^(Х,У)= гЬ) JU1 ^-tY-xd(Fx(t)-FY{t))\dxt где Г - гамма-функция. 4. Пусть fx - характеристич. функция случайной величины X. Для любого действительного s метрика [i3(X, Y) = sup {\t\'s\fx(t)-fY(t)\:te^} является простой И. м. порядка s. 5. Пусть L(X, У) - Леей метрика, тогда метрика щ(Х, У) = supj-|- JQr ШХ, xY)dx:r>o\ является простой И.м. первого порядка. Эта метрика имеет другое представление: ^(X,y) = p(F^1,Fy1), где р - равномерная метрика и Fx (х) = sup {и: Fx(u) ^ х) - функция, обратная к функции Fx(x). Примеры И.м. в других моделях. 6. ц5(Х, Y) = sup{\x\s\Fx(x)-FY(x)\:xe^}, s^O,- простая И.м. порядка s относительно ТсХ = сХ и ХЦ1У = = тах(Х, У). 7. [ib(XyY) = sup {\t\~slWx(t)-WY(t)\\:te^}, s^O, где Wx - характеристич. преобразование случайной величины X и II - норма матриц, является простой И.м. порядка s по отношению к Тсх= \х\с sign x и ХЦ1У = ХУ. 8. Вероятностные метрики могут быть идеальными по отношению к различным операциям Ш. Так, средняя метрика является простой И. м. порядка s=\ по отношению к операциям ХШ У = X + У, ХШ У = птах(Х, У) и ТСХ = сХ. И.м. являются удобным инструментом при проведении количественного анализа устойчивости в задачах характериза- ции (в частности, в оценках скорости сходимости в предельных теоремах), связанных с линейными моделями. Пусть 186 ИДЕАЛЬНАЯ Xj, ..., Хп,- независимые и одинаково распределенные случайные величины с EXt =0, EXf= 1 и Yv ..., Yn- независимые случайные величины, подчиненные стандартному нормальному закону. Рассматриваются нормированные суммы (/„ = (*,+ ...+X„)/Vw", Vn = (Yt + ... + Yn)/4n. Величины Vn при всех п имеют стандартное нормальное распределение. Привлекая свойство однородности и полуаддитивности метрики £s, s>2, получают у и„, у,)=у(х, +... + х„у^, (у, +... + y„)/V^) = =и-5/2^(Х1 + ...+Х„,У, + ... + Уп)« ^n-s/2 ^ Cs(Xb y/k)-„i-V«Wx„ У,). (4) Если ^S = (XVY^) конечно, для чего требуется выполнение условий (3) и Е |x|s <о°, то оценка (4) носит содержательный характер и в общей ситуации правильно передает порядок изменения ^s(Un, Y\) при я-^°«. Если операция Ц1 в И является групповой, го связанная с нею И. м. |1 порядка s = 0 является линейно инвариантной метрикой в том смысле, что и.(Гг(ХШ а), ГС(УШ а)) = ц(Х, У), X, Уе£, для любых постоянных а и с>0. Такие И.м. представляют особый интерес для теории предельных теорем, поскольку при их использовании точность аппроксимации при переходе от преобразованных последовательностей случайных величин Un = Т{ ,СпХп\]} ап, Vn = T^CnYn[\) ап к неиреобразованным Хп, Yn и обратно не меняется. Индикаторная метрика и полной вариации метрика являются И.м. порядка s = 0 для любых описанных выше операций Ц1 и преобразований Тс. Известны универсальные способы построения И.м. требуемого порядка по отношению к выбранным Тс и Ш в том случае, когда Тс представляет собой систему автоморфизмов, то есть для любых X, Уе£ ГДХЦ1 У) = = (ТСХ) Ц1 (TCY), c>0. Так, например, пусть v- нек-рая И. м. порядка 8 относительно Ц1 и Тс. Образуем функционал рХХ, Y) = q{xMXW TXU, УШ TXU)}, где yelP , случайная величина U предполагается независимой от X и У, если v обладает свойством регулярности в «узком смысле», и функционал q(w), определенный на множестве Ж неотрицательных функций w(u), ue№ , обладает свойствами: для любых w, W), гс;2еЖ a)q(w)>0, (7(0) = 0; б) q(wx) ^q(w^+w2) ^q(w^) + q(w2)\ в) q(w(u/c))^caq{w(u)), c>0; г) q(cw) ^ c^q(w), где a, pell?1 постоянные. Тогда pi является простой И м. порядка s = d + p(y+8) с тем же типом регулярности, что и у метрики v. Лит.: [1] Золотарев В. М., «Теория вероятн. и ее примем.*, 1983, т. 28, в. 2, с. 264-87; [2] его же, Современная теория гуммирования независимых случайных величин, М., 1986, гл. 1. В. М. Золотарев. ИДЕАЛЬНЫЙ ГАЗ (ideal gas) в статистической механике - бесконечная система невзаимодействующих частиц (в отсутствие внешнего поля говорят о свободном газе). Гиббса случайное поле для И. г. в вероятностной терминоао- гии есть не что иное, как пуассоновское точечное случайное поле, определяемое одним параметром \>0 - плотностью *,а<; тиц (значение X совпадает с активностью z в общем определении конфигурационного распределения Гиббса). При учете скоро-
стей :ио - пуассоновское маркированное точечное случайное ноле з И? с независимыми одинаково распределенными марками (импульсами) ре IP'. «Индивидуальное» распределение импульса - это распределение Максвелла с плотностью (2n^rd/2ex?(-V\\p\\cl/2). Однако в случае И. г. распределения Гиббса не исчерпывают множество инвариантных мер (см. Динамическая система статистической механики): максвелловское распределение можно заменить произвольным распределением импульса n(dp), ре№ . Для простоты динамич. система И. г. с такой инвариантной мерой называется равновесной динамической системой И. г. Если к не имеет атома в нуле, равновесная динамич. система И. г. является /С-системой (см. [1]) и, более того, В-гистемой (см. [2]). Если в качестве начального состояния |1 взята произвольная вероятностная мера на фазовом пространстве М, удовлетворяющая нек-рым условиям «усредняемости» и ослабления пространственных корреляций, то мера \it = \iQSt сходится при ^->+«>к инвариантной мере описанного типа; параметры А,>0 и n(dp) определяются по мере ц. Динамич. системе И. г. родственна система гармонич. осцилляторов, где в качестве инвариантных мер выступают гауссовские распределения с соответствующими спектральными функциями (см. [3]). Динамич. система И. г. представляет собой простейший пример вполне интегрируемой системы статистич. механики; другой пример - динамич. система твердых стержней на прямой R (см. [2], [4J, |5J), исследование к-рой может быть сведено к исследованию И. г. В последнее время стали изучаться «возмущения» И. г. (см. [б], [7]). Особого упоминания заслуживает Лоренца газ (гм. |8]), обнаруживающий более силы-ые эргодич. свойства, чем И. г. Лит.: [11 Вол ков ыс с кий К. Л., Синай Я. Г., «Функц. анализ и его прилож.», 1971, т. 5, в. 3, с. 19-21; [21 Aizenman M., Goldstein S., Lebowitz J., «Comm. Math. Phys.», 1975, v. 39, № 4, p. 289-301; [3] Lant'ord O., Lebowitz J., в кн.: Leeture Notes m Physics, v. 38, Berk. - [a. o.], 1975, p 144-77; [4] Синай Я. Г., «Функц. анализ и его прилож.», 1972, т. 6, в. 1, с. 41-50; [5] Добру шин Р. Л., Сухов Ю. М., в кн.; Итоги науки и техники. Современные проблемы математики, т. 14, М., 1979, с. 147-254; [61 «Comm. Math. Phys.». 1985, v. 101, p. 363-82; [71 Maly- shev V. A., Nikolaev I., «J. Stat. Phys.», 1984, v. 35, № 3-4, p. 375-79; [8| Bunimovich L. A., Sinai Ya. G., «Comm. Math. Phys.>-. 1981, v. 78, № 4, p. 479-97. /О. M. Сухов. ИДЕМПОТЕНТНАЯ МЕРА на группе (idempotent measure on a group) - вероятностная мера ц на локально компактной группе, обладающая свойством ц*ц = ц, где * обозначает операцию свертки мер на группе. Множество решений уравнения ц*|1 = ц в полугруппе вероятностных мер на локально компактной группе G состоит из распределений Хаара па компактных подгруппах группы G (см. [1]). Следовательно, на компактной группе существуют нетривиальные идемпотентные меры, напр. мера Хаара всей группы, а на локально компактной непериодич. группе (то есть не имеющей неединичных компактных подгрупп) существует только тривиальная идемпотентная мера, совпадающая с вырожденным распределением в единице группы. Рассмотрение И. м. связано с их появлением в предельных теоремах для вероятностных распределений на компактных группах и той большой ролью, к-рую они там играют. Характеристич. свойством И. м. на компактной группе G, носитель к-рой совпадает с G, является инвариантность относительно правого (или левого) умножения на любой элемент из G. Мера, единственная с точностью до скалярного множителя, с таким свойством определена также на произвольной локально компактной группе и называется (правой или левой) мерой Хаара (см. [2]). Лит.: [11 Хейер X., Вероятностные меры на локально компактных группах, пер. с англ., М., 1981; [21 Вей ль А., Интегрирование в топологических группах и его применения, пер. с франц., М., 1950. В. М. Максимов. ИЕНСЕНА НЕРАВЕНСТВО (Jensen's inequality) в теории вероятностей- неравенство для математич. ожидания выпуклой функции от случайной величины. Если X - случайная величина, д(х) - выпуклая борелевская функция и Е#(Х)<°°, то <7(ЕХ)^Е<7(Х). В частности, при д(х) = х (ЕХ)ЧЕХ2. Это неравенство для интегралов доказано И. Иенсеном [1]. Лит.: [1] Jensen J. L. W., «Acta math.», 1906, v. 30, p. 175-93; [21 Holder O., «Nachr. Ges. Wiss. Gott», 1889, S. 38-47; [31 Ло- эв М., Теория вероятностей, пер. с англ., М., 1962; [41 Партаса- рати К., Введение в теорию вероятностей и теорию меры, пер. с англ.,- М., 1983. Б. А. Севастьянов. ИЕРАРХИЧЕСКИЕ ПРОЦЕДУРЫ КЛАССИФИКАЦИИ (hierarchical classification procedures) - иерархические процедуры, состоящие в последовательном объединении объектов на основе матрицы близости D между N классифицируемыми объектами, полученной либо путем вычислений мер близости, исходя из значений переменных, характеризующих объект, либо непосредственно из экспериментов. Результаты работы процедуры представляются в виде дендрограммы, графически изображающей последовательность N - 1 объединений N объектов во все более и более крупные классы, или кластеры. На первом шаге объединяются два наиболее близких объекта. При этом матрица близости преобразуется: из нее удаляются расстояния до объединившихся объектов и добавляются расстояния до полученного в результате объединения кластера, то есть размерность матрицы уменьшается на единицу. На втором и последующих шагах описанные операции повторяются с той лишь разницей, что могут объединяться не только отдельные объекты, но и кластеры. Вычисление расстояний до кластера, полученного при объединении, от остальных объектов или кластеров может быть сделано различными способами. В зависимости от выбранного способа выделяют алгоритм «средней связи», алгоритм «ближайшего соседа», алгоритм «дальнего соседа» и др. Наиболее употребителен алгоритм средней связи. Для него расстояние (близость) от произвольного кластера k до кластера i+j, полученного в результате объединения кластеров injc числом входящих в них объектов пг и п •, вычисляется по формуле dk,i+j = <я Ai + "/V/4- + "у), где dkl и dk: - расстояния (близости) от кластера k до кластеров i и/. Существуют различные методы И. п. к. (см. [1]). Лит.: [1J Дюран Б., Оделл П., Кластерный анализ, пер. с англ., М, 1977. А. Т. Терехин. ИЗБЫТОЧНОСТЬ (redundancy) - мера статистической зависимости между компонентами сообщения, вырабатываемого сообщений источником. И. А, стационарного источника сообщений U с дискретным временем, вырабатывающего сообщения X =(..., X_v X0, Xj,...), к-рые являются реализациями стационарного случайного процесса {Xk}, -oo<&<oo, принимающего значения в нек-ром конечном множестве И с \И\ элементами, определяется формулой Х=1-Я((0/Ятах> где H(U) - сообщений скорость создания, а #тах - максимально возможная скорость создания сообщений источником с дискретным временем, компоненты к-рого принимают |#| ИЗБЫТОЧНОСТЬ 187
значений. Значение И. для теории информации определяется теоремой кодирования источника сообщений, показывающей возможность увеличения информации скорости передачи. Одним из основных методов повышения помехоустойчивости канала связи является введение при кодировании И., а тем самым и статистич. зависимости между символами на входе капала. Такая зависимость позволяет устранить влияние ошибок в канале при декодировании, уменьшая тем самым ошибочного декодирования вероятность. Лит.: [1] Галлагер Р., Теория информации и надежная связь, пер. с англ., М., 1974; [2] Колесник В.Д., Полтырев Г.Ш., Курс теории информации, М., 1982. с. И. Гельфанд. ИЗИНГА МОДЕЛЬ Using model) - простейшая и наиболее изученная решетчатая модель статистической механики. В d-мерной И. м. диполи расположены в узлах tel ^-мерной целочисленной решетки, пространство состояний {xs} состоит из двух элементов {-1, +1}. Распределение вероятностей является распределением Гиббса с потенциалом U: U{s, t}(xs> xt> = - Ix&> I* - *| = 1. U{s}(xs) = - hxs, s, t e Idt и равным нулю в остальных случаях. Параметр h называется магнитным внешним полем. Эквивалентным образом И. м. может быть описана как решетчатый газ с потенциалом U и состояниями {ys}: Vb,t)(ys.yt)=-*Iyjtt. U-t\ = \,s,teld, U{s)(ys)=-(4dl + h)ys,ys,yte{0,\}. При />0 И. м. называется ферромагнитной, а при /<0- антиферромагнитной. Для ферромагнитной И. м. справедлива теорема Ли - Янга и многие корреляционные неравенства. Изучению ферромагнитной И. м. положила начало работа [1], в к-рой получена явная формула для предельной свободной энергии /j(p, h = Q) в случае d = 2. Оказалось, что функция f2 имеет единственную особенность в точке рсг(2) = = In (V2~+1), соответствующую фазовому переходу 2-го рода. Функции fd, (p, Л = 0), d>2, также имеют по крайней мере одну критич. точку РСГ(Ю. Относительно зависимости функции £Др, h) от параметра h известно (см. [2]), что при d^2, р»1 точка /г = 0 является существенно особой. При d~\ функция /f(p, h) явно вычисляется и аналитична по обеим переменным р>0, -«></*<оо. Структура гиббсовских состояний ферромагнитной И. м. следующая. При ЬО и при /г = 0, p<pcr(<i) в ней имеется единственное гиббсовское состояние. Средние значения по этому состоянию обозначаются ( > *". Оно характеризуется экспоненциальным распадением корреляций. Пределы Нш ( >"'P = < )\, А->0± являющиеся гиббсовскими состояниями, соответствующими значению обратной температуры Р и /г = 0 при р>Рсг(Ю, не совпадают. Более того, <*о>?= -<*о>?>0, <*,>>?-► +1. Р-> +-• Это утверждение доказывается с помощью введения так наз. контуров и применения метода Пайерлса (см. [3]-[6]). Состояния ( )+ , ( )_ трансляционно инвариантны, и всякое другое трансляционно инвариантное состояние является их выпуклой линейной комбинацией. При d = 2, /г = 0 нетрансля- ционно инвариантных состояний нет (см. [7], [8]). При d^3, 188 ИЗИНГА /г = 0 появляются состояния, соответствующие «разделу фаз». В частности, существует состояние ( )* , для к-рого ±,Л>о, ^о, { ,; 1<о, f<»<o, если p>Pr(d) ^pcr(d) (см. [91). Недоказанной остается гипотеза, согласно к-рой pr(d) = Pcr(d) при d ^4, Pr(3) >pcr(3). Значение $r(d) называется точкой фазового перехода ошер- шавливания. Полного описания структуры множества всех распределений Гиббса в И. м. пока нет (см. [Юр. В критич. точке РСГ(Ю также имеется единственное гиббсовское состояние. Однако скорость убывания корреляций для него является лишь степенной. Предполагается, что здесь могут возникать нетривиальные предельные автомодельные случайные поля. Наконец, при d = 1 гиббсовское состояние в И. м. единственно для любых значений параметров. Фазовая диаграмма ферромагнитной И. м. для случая d ^2 представлена на рисунке. Г единственность mcHd) нееди нсгвенносгь—\ h ^ Структура гиббсовских состояний для антиферромагнитной И. м. является совсем иной. Лит.: [1] Onsager L., «Phys. Rev.», 1944, v. 65, № 2, p. 117-49; [2J Isakov S.N., «Comm. Math. Phys.», 1984, v. 95, №4, p. 427-43; [3] Peierls R., «Proc. Camb. Phil. Soc», 1936, v. 32. № 3, p. 477-81; [4J Добрушин Р.Л., «Теория вероятн. и ее примем.», 1965, т. 10, в. 2, с. 209-30; [51 Griffiths R., «Phys. Rev.», 1964, v. 136A, № 2, p. 437-39; [6J Синай Я. Г., Теория фазовых переходов, М., 1980; [7J Aizenman M., «Comm. Math. Phvs.», 1980, v. 73, К? 1, p. 83-94; [81 Higuchi Y., в кн.: Random fields, v. 1, Amst.- N. Y.- Oxf., 1981, p. 517-34; |9] Добрушин Р. Л., «Теория вероятн. и ее примем.», 1972, т. 17, в. 4, с. 619-39; [ 101 Do- brush in R. L., Shlosman S.B., «Sow Sci. Rev.», 1985, v. C5, p. 53-195. с. Б. Шлтсмап. ИЗМЕРЕНИЕ (measurement) - см. Квантовая теория проверки гипотез и оценивания. ИЗМЕРЕНИИ ТЕОРИЯ (measurement theory) - раздел статистики объектов нечисловой природы, посвященный рассмотрению статистических выводов в зависимости от шкал, в к-рых измерены статистические данные. Основные проблемы И. т.- представления, единственности и адекватности (см. [1]-[3]). Проблема представления. Дана эмпирич. система с отношениями Л. Существует ли числовая система с отнолени- ями В, в к-рую можно гомоморфно отобразить А? Проблема единственности. Описать совокупность {/"} всех гомоморфных отображений эмпирич. системы в числовую. В наиболее практически важных случаях существует группа Ф = {ф} допустимых преобразований шкалы ф: В? -> В? такая, что {/'} = {фо/'0; феФ}, где /"о - один из гомоморфизмов из /1 в В (см. Измерений шкала). Если данные х = (х]у ..., хп) измерены в шкале с группой допустимых преобразований Ф, го
(pCr) = (cpCrj), ..., ц>(хп)) несет ту же информацию, что и х. Поэтому для адекватности статистич. вывода W(x) необходимо, чтобы $С(л) = $С(<р(.г)) для любых <реФ и ieR", то есть необходима инвариантность Ч(х) относительно любого ф е Ф. Прямая проблема адекватности. Какие правила статистич. вывода %(х) адекватны в шкале с группой допустимых преобразований Ф? Обратная проблема адекватности. Дано правило статистич. вывода $t(x). В каких шкалах (то есть при каких Ф) оно адекватно? Условие инвариантности иногда накладывает сильные ограничения на вид допустимой статистики. В качестве примера может служить инвариантность сравнения средних величин для двух совокупностей x = (xv ..., хп) и у = (у\, ..., уп). Пусть неравенство f(x)<f(y) должно выполняться тогда и только тогда, когда f(y(x)) </"(<р(#)), где /":IR" -► В? - нек-рая средняя величина, х и у - любые точки в II?". Если это условие выполнено для всех <реФ2, а функция /"симметрично зависит от аргументов и непрерывна, то существует номер i такой, что fix) тождественно совпадает с г-й порядковой статистикой, построенной по х (см. [3]). Если f - Колмогорова среднее и рассматриваемое условие выполнено для всех феФ3, то f - среднее арифметическое, а если оно выполнено для всех фбФ4, то f - степенное среднее или среднее геометрическое (при естественных условиях регулярности; см. [4]). Необходимым условием корректности стагистич. выводов является их адекватность относительно шкал измерения реальных статистич. данных. Лит.: [1] Орлов Л. И., Устойчивость в социально-экономических моделях, М., 1979; [2] Суп пес П., Зинес Дж., в кн.: Психологически*; измерения, пер. с англ., М., 1967, с. 9-110; [3] Пфанцагль И., Теория измерений, пер. с англ., М., 1976; [41 Орлов А. И., «Матем. заметки», 1981, т. 30, № 4, с. 561-68. А. И. Орлов. ИЗМЕРЕНИЙ ШКАЛА (measurement scale) - основное понятие в измерений теории как части статистики объектов нечисловой природы. Пусть А - эмпирич. система с отношениями (описывающая реальность), В - числовая система с отношениями, f - гомоморфизм из Л в В. Согласно [1], [2], шкалой называется тройка {А, В, f). В практически важных случаях существует группа Ф = Ф(А, В) = {ф} допустимых преобразований шкалы <р: IR -> IR такая, что совокупность {/} всех гомоморфизмов из Л в В имеет вид {фо/*0;феФ}, где /*() произвольный фиксированный элемент {/*}. Допустимое преобразование шкалы <реФ переводит шкалу {А> #> f) B эквивалентную ей (с содержательной точки зрения) шкалу (А, В, (р°/*). Класс эквивалентных шкал называется ти ном шкалы из м ерени й. Тип определяется группой Ф, поэтому иногда (см. [3]) понятие группы допустимых преобразований Ф берут за исходное при построении теории измерений, особенно ее прикладных разделов. Классификацию И. ш. проводят с помощью групп допустимых преобразование Ф. Для номинальной шкалы (шкалы наименований) Ф = Ф,, где Ф\ - группа всех взаимно однозначных отображений IR на себя. Для порядковой шкалы Ф = Ф2, где Ф2 - группа всех строго возрастающих преобразований IR на себя. Для шкалы интервалов Ф = Ф3 = {у(х) = ах + Ь, а>0, ЬеЩ. Для шкалы отношений Ф = Ф4 = {ф(х) = ах, а>0}. Для шкалы разностей Ф - Ф5 = {ф (л•) = х + Ь, ЬеЩ. Для абсолютной шкалы Ф = Ф6= {ф(х) = х}. Используют и другие типы шкал. И. ш. конкретной величины определяется из соображений соответствующей прикладной области, она зависит от решаемой задачи. Так, температуру можно измерять в порядковой шкале (теплее - холоднее), в шкале интервалов (шкалы Цельсия, Реомюра, Фаренгейта) и в шкале отношений (шкала Кельвина с отсчетом от абсолютного нуля температур). Лит.: [1] Су и пес П., Зинес Дж., в кн.: Психологические измерения, пер. с англ., М., 1967, с. 9-110; [2] Пфанцагль И., Теория измерений, пер. с англ., М., 1976; [3] Орлов А. И., Устойчивость в социально-экономических моделях, М., 1979. А. И. Орлов. ИЗМЕРИМАЯ ГРУППА (measurable group) - группа с выделенной а-алгеброй ее подмножеств, относительно к-рой измеримы групповые операции. Точнее, пусть Т - абелева группа и & - нек-рая а-алгебра ее подмножеств; пара (7\ j9) называется измеримой группой, если отображения (^, t2) -> ^ +12 и ^ -> - ^ из Т х Т в Т и из Т в Т соответственно являются измеримыми относительно пар а-алгебр (.#, 3?хэ9) и (.%,.Ю). Метризуемая сепарабельная топологич. группа с борелевской а-алгеброй представляет собой И. г. Если Т - хаусдорфова топологич. группа, мощность к-рой строго превосходит мощность континуума, то Г с борелевской а-алгеброй не является И. г. Если (Т,33) - И. г., то поточечная сумма любых двух случайных элементов в Т снова есть случайный элемент. Лит.: [1] Вахания Н.Н., Тариеладзе В.И., Чобанян С.А., Вероятностные распределения в банаховых пространствах, М., 1985. С. А. Чобанян. ИЗМЕРИМАЯ ФУНКЦИЯ (measurable function) - числовая функция /", определенная на евклидовом пространстве IR" (или на нек-ром измеримом по Лебегу подмножестве этого пространства), такая, что для всякого действительного числа t множество {хe№n:f(x) <t} является измеримым по Лебегу. Класс всех измеримых в смысле Лебега функций достаточно широк. Более того, существование неизмеримой в смысле Лебега функции может быть доказано только лишь с привлечением довольно сильных форм аксиомы выбора. Одно из важнейших свойств класса всех измеримых в смысле Лебега функций состоит в том, что он является замкнутым относительно естественных алгебраич. операций и относительно счетных предельных переходов. С развитием абстрактной теории меры понятие И.ф. обобщалось в различных направлениях. Пусть Е - основное базисное пространство, S - нек-рое а-кольцо подмножеств в Е, a /"- числовая функция, заданная на Е. Говорят, что функция f измерима (относительно 5), если для каждого действительного числа t множество {х е E:f(x) Ф 0&f(x) < t} принадлежит а-кольцу 5. В том случае, когда S представляет собой а-алгебру множеств, определение измеримости функции /"сводится к требованию, чтобы множество {xeE:f(x)<t} принадлежало этой а-алгебре при любом действительном t. Пусть теперь (E^Sj) и (E2,S2) - два произвольных измеримых пространства и /"- нек-рое отображение базисного множества Ех в базисное множество Е2. Говорят, что отображение/" измеримо (относительно S{ и 52), если для каждого множества У выполняется импликация Y eS2=> =>/"" (Y)eSi. Класс всех измеримых пространств вместе с классом всевозможных измеримых отображений между этими пространствами образует категорию, к-рая служит основным объектом изучения в общей теории меры и ее приложениях. Частным случаем понятия И.ф. является понятие случайной величины, определенной на основном вероятностном пространстве; важный частный случай понятия измеримого отображения - понятие борелевского отображения одного топологич. пространства в другое. Для отображений, определенных на измеримом пространстве и принимающих свои значения в топологич. векторном пространстве, весьма полезно понятие слабой (скалярной) измеримости (см. [3]). Среди многочисленных фактов и утверждений, относящихся к И.ф., заданным на фиксированном пространстве с ИЗМЕРИМАЯ 189
мерой, наиболее выделяются теорема Егорова, устанавливающая глубокую связь между сходимостью почти всюду и равномерной сходимостью для последовательностей И.ф., а также теорема Лузина о С-свойстве, выясняющая структуру И.ф. с точки зрения ее относительной непрерывности, если эта функция задана на нек-ром топологич. пространстве с мерой (см. [1НЗ]). Лит.: [1] Колмогоров А. Н., Фомин С. В., Элементы теории функций и функционального анализа, 6 изд., М., 1989; [2] Хал- мош П., Теория меры, пер. с англ., М., 1953; [3] Дан форд Н., Шварц Дж., Линейные операторы. Общая теория, пер. с англ., ч. 1, М., 1962. А. Б. Харазишвили. О-ИЗМЕРИМАЯ ФУНКЦИЯ (a-measurable function) - числовая функция, определенная на а-топологическом пространстве и измеримая относительно борелевской а-алгебры этого пространства. Пара (£, U), где Е - основное базисное множество, а (У - нек-рая система его подмножеств, называется а-топ о логически м пространством (или пространством Александрова [1]), если \)0eUnEeU; 2) пересечение любых двух множеств, принадлежащих к системе U, также принадлежит к U; 3) объединение каждого счетного семейства множеств, принадлежащих к системе U, также принадлежит к U. Сама система U называется при этом системой всех открытых множеств данного а-топологич. пространства Е. В частности, всякое обычное топологич. пространство представляет собой и а-топологич. пространство, однако обратное утверждение, вообще говоря, неверно. Поскольку действительная прямая И? обладает счетной базой, то И? одновременно можно рассматривать и как топологич. пространство, и как а-топологич. пространство. Функция f'.E—>IP является а-измеримой тогда и только тогда, когда для любого числа t е И? множество {х е E:f(x) < t} принадлежит борелевской а-алгебре пространства Е (то есть наименьшей по включению а-алгебре, содержащей систему U). Если же функция /"обладает для любых t более сильным свойством: (teR=>{xeE:f(x)<t}e U&{x eE:f(x)>t} e U), то она называется а-непрерывной функцией. Аналогичным образом вводятся общие понятия а-измеримого отображения и а-непрерывного отображения одного а-топологич. пространства в другое. а-топологич. пространство Е называется совершенно нормальным, если для каждого множества Xе U найдется а-непрерывная функция f: Е -> И? такая, что X = {х е Е: fix) ф 0}. В том случае, когда Е представляет собой совершенно нормальное а-топологич. пространство, всякая а-И.ф., определенная на Е, является измеримой и относительно бэровской а-алгебры этого пространства (то есть относительно а-алгебры, порождаемой классом всех а-непрерывных числовых функций на Е), поскольку в рассматриваемом случае борелевская и бэровская а-алгебры совпадают друг с другом. Лит.: [1] Александров А. Д., «Матем. сб.», 1940, т. 8, № 2, с. 307-48; 1941, т. 9, К? 3, с. 563-629; 1943, т. 13, № 2-3, с. 169-238; [2] Боровков А. А., «Успехи матем. наук», 1976, т. 31, в. 2, с. 3-68. А. Б. Харазишвили. ИЗМЕРИМОЕ ВЕКТОРНОЕ ПРОСТРАНСТВО (measurable vector space) - векторное пространство с выделенной а-алгеброй его подмножеств, относительно к-рой измеримы операции векторного пространства. Точнее, пусть Т - векторное пространство (над полем И? действительных чисел), 33 - нек-рая а-алгебра его подмножеств; пара (Т,33) называется измеримым векторным пространством, если (Т, 33) - 190 ИЗМЕРИМОЕ измеримая группа относительно сложения и отображение (a, t)-*at из 1РхГ в Т измеримо относительно пары (33, Л(И?) х&). Сепарабельное метризуемое топологич. векторное пространство (в частности, сепарабельное нормированное пространство) с борелевской а-алгеброй является И. в. п. Произвольное локально выпуклое пространство с цилиндрич. а-алгеброй также является И. в. п. Если (Т, Л) -'нормированное пространство, мощность к-рого строго превосходит мощность континуума, то Г с борелевской а-алгеброй не есть И. в. п. Если (Т,33)- И. в. п., то поточечная сумма любых двух случайных элементов в Т снова есть случайный элемент. См. также Мера. Лит.: [1] Вахания Н.Н., Тариеладзе В. И., Чобаняп С. А., Вероятностные распределения в банаховых пространствах, М., 1985. С. А. Чобпнян. ИЗМЕРИМОЕ МНОЖЕСТВО (measurable set) - см. Мера. ИЗМЕРИМОЕ ОТОБРАЖЕНИЕ (measurable mapping) - см. Измеримая функция, Пространство с мерой. ИЗМЕРИМОЕ ПРОСТРАНСТВО (measurable space) см Пространство с мерой, Мера. ИЗМЕРИМОЕ РАЗБИЕНИЕ (measurable partition) - разбиение ^ вероятностного пространства (Q, .</, Р) на множества Са, аеА (Л может быть и несчетным), Р-почти каждое из к-рых можно превратить в вероятностное пространство, задав на нем вероятностную меру Ра (условную меру на Са) так, чтобы выполнялась формула полной вероятности: P(B) = j Ра(ЯПСа(о)))Р(</о)), где В е,/, а Ca(w) - то из множеств Са, к-рое содержит точку wefl. Для конечного или счетного разбиения £, его измеримость равносильна измеримости каждого Са. Два И. р. называются эквивалентными, если они совпадают после удаления из пространства подходящего множества нулевой меры. В пространствах с мерой, являющихся пространствами Лебега, существует взаимно однозначное соответствие между классами эквивалентных И. р. и полными a-иодалгебрами а-алгебры измеримых множеств. Теория И. р. пространства Лебега построена в [1]. Лит.: [1] Рохлин В. А., «Матем. сб.», 1949, т. 25, Ко 1, с. 107-50. Б. М. Гурчвич. С-ИЗМЕРИМОЕ МНОЖЕСТВО (capacitable set) - см Емкость. ИЗМЕРИМОСТЬ по Бохнеру (Bochner measurability) - см. Сильно измеримое отображение. ИЗМЕРИМОСТЬ по Лебегу (Lebesgue measurability) - см. Мера, Измеримая функция. ИЗМЕРИМОСТЬ по Лузину (Lusin measurability) - понятие измеримости для отображения, определенного на топологическом пространстве с Радона мерой. А именно, пусть £1 - хаусдорфово топологич. пространство, и. - радонова вероятностная мера в Q, Т - топологич. пространство, тогда отобр;*же- ние f:Q->Т называется (1-йзмеримым по Лузину, если для каждого е>0 найдется такое компактное подмножество Ке с £1, что |i(/Ce) > 1 - е и сужение f на Ке непрерывно. Если ,</есть пополнение борелевской а-алгебры а9(Ш относительно (X и Т - сепарабельное метрич. пространство, то отображение f:Q-+T u-измеримо по Лузину в том и только в том случае, если для каждого борелевского В с: Т. Лит.: [1] Вахания Н.Н., Тариеладзе В.И., Чобанян С.А., Вероятностные распределения в банаховых пространствах, М., 1985; [21 Schwartz L., Radon measures on arbitrary topological spaces and cylindrical measures, L., 1973. В.И. Тариеладзе. ИЗМЕРИМЫЙ ВЫБОР (measurable selection) - см. Управляемый случайный процесс с дискретным временем.
пия не увеличивается; гомоморфный образ любого Бернулли сдвига изоморфен нек-рому сдвигу Бернулли (см. [5], [8]). Свойства динамич. системы и порождаемые ею объекты (такие, напр., как энтропия и спектр), к-рые совпадают у изоморфных систем, называются метрическими инвариантами. Проблема И. д. с. заключается в том, чтобы найти для того или иного класса систем полный и достаточно обозримый набор инвариантов. Для динамич. систем с дискретным спектром такой набор состоит из одного спектра (см. [6]), для сдвигов Бернулли - из энтропии (см. [7], [8]); известны полные наборы инвариантов и для нек-рых других классов динамич. систем (см. [8]—[ 10]). Лит.: [1] Синай Я.Г., «Докл. АН СССР», 1962, т. 147, № 4, 797-800; [2] Рохлин В. А., «Вестн. Ленингр. ун-та», 1963, № 1, с. 26-32; 1965, № 13, с. 68-72; [3] Krieger W., «Trans. Amer. Math. Soc», 1970, v. 149, № 2, p. 453-64; [4] Krengel U., «J. Math. Anal, and Appl.», 1971, v. 35, № 3, p. 611-20; [5] Orn- stein D., «Adv. Math.», 1970, v. 5, № 3, p. 349-64; [6] Neumann J., «Ann. Math.», 1932, v. 33. № 3, p. 587-642; [7] Orn- stein D., «Adv. Math.», 1970, v. 4, № 3, p. 337-52; [8] Орн- стейн Д., Эргодическая теория, случайность и динамические системы, пер. с англ., М., 1978; [9] Абрамов Л. М., «Изв. АН СССР. Сер. матем.», 1962, т. 26, № 4, с. 513-30; [10] Вер- ш и к A.M., «Докл. АН СССР», 1962, т. 144, № 2, с. 255-57. Б. М. Гуревич. ИЗОТРОПНАЯ ТУРБУЛЕНТНОСТЬ (isotropic turbulen- се) - турбулентность, все конечномерные распределения вероятностей значений гидродинамических полей к-рой инвариантны относительно произвольных сдвигов, вращений и зеркальных отражений систем координат [введена Дж. Тейлором (J. Taylor) в 1935]. И. т. реализуется лишь приближенно в искусственных условиях (за решетками в аэродинамич. трубах, где вырождается с удалением от решетки), но мате- матич. аппарат теории И. т. успешно применяется для описания статистич. режима мелкомасштабных компонент реальных турбулентных течений при больших значениях числа Рейнольдса. Лит.: [1] Монин А.С, Яглом А. М., Статистическая гидромеханика, ч. 2, М., 1967. М. М. Любимцев. ИЗОТРОПНОЕ КОНЕЧНОЕ ПРОСТРАНСТВО (isotropic finite space) - см. Монотонное распределение. ИЗОТРОПНОЕ СЛУЧАЙНОЕ МНОЖЕСТВО (isotropic random set) - случайное множество в евклидовом пространстве, распределение к-рого не изменяется при всевозможных ортогональных преобразованиях. А. Г. Катранов. ИЗОТРОПНОЕ СЛУЧАЙНОЕ ПОЛЕ (isotropic random field) - случайная функция на евклидовом пространстве, определенные характеристики крой инвариантны относительно группы вращений вокруг фиксированной точки. Обычно предполагают инвариантность первых двух моментов - среднего и ковариационной функции. Случайная функция X(t), te№, называется изотропным случайным полем, если EX(t) = = EX(gt), EX(t)X(s) = EX(gt)X(gs) для любого вращения g вокруг начала координат. И. с. п. допускает представление ^Х^ГЧ^е, е„_2>ч,х где (г, 6t, ..., 6„_2, ф) - сферич. координаты точки t, Sm(Qu ..., в„_2, ф) - сферич. гармоники степени т, him, n) - число таких гармоник, Sm(r) - набор взаимно некоррелированных случайных процессов таких, что где 6/ - символ Кронекера, bm(r, s) - последовательность положительно определенных ядер, удовлетворяющих условиям ИЗМЕРИМЫЙ ПАРАЛЛЕЛЕПИПЕД (measurable parallelepiped) - см. Произведение мер. ИЗМЕРИМЫЙ ПОЛУПОТОК (measurable semi flow) - см Полу поток. ИЗМЕРИМЫЙ ПОТОК (measurable flow) - семейство автоморфизмов {Т1, t e IR} пространства с мерой (X, .V, ц), являющееся потоком и удовлетворяющее условию: для любой измеримой функции f: X -> II? функция fx: (X х IP) -> IR, определяемая равенством fx(x,t) =(Т1х), измерима относительно о-алгебры Л* :Л, где .# - борелевская а-алгебра в II?. Всякий И. п. является непрерывным потоком. В случае, когда (X,.'f,\i) - пространство Лебега, из любого непрерывного потока {Т1, ЬеЩ можно получить И. п., изменив Tf при каждом t на множестве нулевой меры (см. [1], [2]). Лит.: [1] Вер шик A.M., «Изв. АН СССР. Сер. матем.», 1965, т. 29, № 1, г. 127-36; [2] Maruyama G., «J. Math. Soc. Japan», 1966, v. 18, № 3, p. 303-30. Б. М. Гуревич. ИЗОМОРФИЗМ ДИНАМИЧЕСКИХ СИСТЕМ метр и ч е с к и й (metric isomorphism of dynamical systems) - свойство двух динамических систем переходить друг в друга при подходящем отображении фазового пространства одной из них на фазовое пространство другой. Динамич. система {Т1} (с дискретным или непрерывным временем), действующая в пространстве с мерой (Q, .<-/, Р), изоморфна динамич. системе {Т(}, действующей в пространстве с мерой (Q^.r/,, Pj), если существует такое измеримое отображение <р:£1—>£1\, что 1) <pfl = Q,; 2) ф обратимо, и обратное отображение ф измеримо; 3) ф переводит меру Р в меру Р,, то есть Р(ф A\) = Pi(A]) для любою Л| е.г/р 4) ф переводит {Т*} в {'//}, то есть ф'Г/со = Г/фш при всех t и Р-почти всех (i)eQ (исключительное множество меры нуль может зависеть от t). Обычно не делают различия между изоморфизмом и изоморфизмом mod 0, определение к-рого отличается от приведенного тем, что пространства Q, Q\ заменяются в нем на любые множества полной меры, соответственно {Т*}- и {Г^-инвариантные. При выполнении условий 1), 3), 4) динамич. система {Т(} называется гомоморфным образом (или ф актор- системой) динамич. системы {7^}. Две системы, каждая из к-рых является гомоморфным образом другой, называются слабо и з о м о р ф н ы м и (см. [ 1 ]). Если Ш, .<-/, Р) - вероятностное пространство и X - любая определенная на нем случайная величина, то сдвиги в пространстве реализаций случайного процесса Xt, где Х,(со) = = Х(Т1(й), 0)gQ, образуют динамич. систему {Т\}, являющуюся гомоморфным образом системы {Т*}. Эти системы изоморфны в том и только в том случае, когда а-алгебра, порожденная всеми Xt, совпадает с .г/ (с точностью до множества меры нуль). Такого совпадения, как правило, можно добиться уже в классе случайных величин X со счетным, а в нек-рых случаях даже с конечным числом значений (см. [2]-[4]). Если система {Т*} сама порождена сдвигами в пространстве выборочных функций нек-рого стационарного в узком смысле случайного процесса Yt, то отображение, переводящее {Т1} в {Т(}, можно рассматривать как согласованное со сдвигом (стационарное) кодирование реализаций процесса Yt реализациями процесса Xt. Если при этом почти наверное возможно однозначное декодирование, то имеет место изоморфизм. При переходе к гомоморфному образу динамич. системы сохраняются такие ее свойства, как эргодичность, перемеши- вануе, кратное перемешивание и К-перемешивание, а энтро- Yloh(m,n)bm(r,s)<+-,bm(0,s) = 0 ИЗОТРОПНОЕ 191
при m*0. И. с. п. на плоскости представимо в виде Х(г, ф) = £~=о {xl(r)cosky+Xl(r)smkv}, тле Х^ (г), / = 1, 2,- последовательность случайных процессов, удовлетворяющих условию (*). Класс И. с. п. включает в себя однородное и изотропное случайное поле, многопараметрич. броуновское движение Леви. Лит.: [1] Ядренко М. И., Спектральная теория случайных полей, К., 1980. М.И. Ядренко. ИЗОТРОПНЫЙ СЛУЧАЙНЫЙ ПРОЦЕСС (isotropic ran dom process) с независимыми приращениями -однородный случайный процесс X(t) со значениями в № и нулевым математическим ожиданием, кумулянта к-рого/С(г) зависит только от \г\ = "у ]|Г zk\ это означает, что распределение X(t) в любой момент времени инвариантно относительно вращений вокруг начала координат в II? . Примерами таких процессов являются {/-мерный винеровский процесс X(t) = {wx(t), ..., wd(t)} с кумулянтой К(г) = - \г\ и изотропный ^/-мерный устойчивый процесс с показателем у, то есть процессе кумулянтой K(z) = -c\z\y' , с>0, 0<у<2. М. //. Ядренко. ИЛЛЮСТРАТИВНАЯ ПЕРЕМЕННАЯ (illustrative variab le) - см. Многомерных данных модель структуры. ИМИТАЦИОННОГО ЭКСПЕРИМЕНТА ПЛАНИРОВАНИЕ (design of simulation experiment) - см. Планирование имитационного эксперимента. ИМИТАЦИЯ СЛУЧАЙНОГО ЯВЛЕНИЯ (simulation of a random phenomenon) - воспроизведение случайного явления с помощью специально сконструированного устройства (в том числе ЭВМ) на основе теоретически заданных или полученных в процессе эксперимента его характеристик. Простейшим примером И. с. я. является имитация равновероятностных исходов путем бросания монеты. Имитация с помощью ЭВМ случайных величин с различными законами распределения лежит в основе Монте-Карло метода (см. также Численная симуляция случайного явления). СМ. Ермаков. ИММИГРАЦИЯ в ветвящемся процессе (immigration in a branching process) - см. Ветвящийся процесс с иммиграцией. ИМПУЛЬСНАЯ ПЕРЕХОДНАЯ ФУНКЦИЯ (impulse response function) линейной системы (или линейного фильтра)- функция h(u), позволяющая выразить функцию y(t) на выходе линейной системы SP через функцию x(t) на ее входе с помощью формулы y(t) = Vx(t) = /~те h(u)x(t - u)du. Если функция x(t) описывает изменение во времени пек-рой реальной физич. величины, а линейная система Сможет быть реализована в виде какой-то совокупности физич. (напр., электрических или механических) элементов, то И. п. ф. Мм) должна удовлетворять следующему условию физической реализуемости: h(u) = 0 при и<0, гарантирующему, что значение y(t) не зависит от значений функции на входе системы в последующие моменты времени (то есть отклик на выходе системы не может появиться до подачи воздействия на ее вход). И. п. ф. может быть как обыкновенной, так и обобщенной функцией; напр., И.п.ф. системы, преобразующей x(t) в x(t-z), совпадает с 5-функцией 8(м-т). Преобразованием Фурье И.п.ф. Мм) является передаточная функция Я(со) рассматриваемой линейной системы. См. также Линейный фильтр. А. М. Яглом. ИМПУЛЬСНАЯ ПОМЕХА (impulse noise) - то же, что импульсный шум. 192 ИЗОТРОПНЫЙ I ИМПУЛЬСНАЯ ФУНКЦИЯ ОТКЛИКА (impulse response function) - см. Линейный фильтр. ИМПУЛЬСНЫЙ ПУАССОНОВСКИЙ ПРОЦЕСС (impul se Poisson process), профильтрованный иуассонов- с к и й процесс,- импульсный случайный процесс, отвечающий пуассоновской последовательности моментов появления импульсов. А. М. Яглом. ИМПУЛЬСНЫЙ СЛУЧАЙНЫЙ ПРОЦЕСС (impulse ran dom process) - случайный процесс, представляющий собой последовательность импульсов, нек-рые характеристики к-рых (напр., амплитуда, ширина, время появления) являются случайными величинами. Широкий класс И. с. п. задается формулой вида I хю-Ъ'^т-^.л,,), (1) где V(t, А) - функция, определяющая форму импульса, зави- I сящую от (вообще говоря, многомерного) случайного параметра А = (А\, ..., Ak), составленного из тех характеристик им- I пульса, к-рые принимают случайные значения, а моменты | времени tn,n = ...t -1,0, 1,... (обычно называемые моментами появления импульсов), могут быть как случайными, так и детерминированными. Иногда рассматриваются также И. с. и. более общего вида X(t) = Y° r„(t-tH.Att), (1a) то есть предполагается, чго форма я-го импульса закономерно меняется с номером п. Дальнейшей модификацией формулы (1а) является встречающаяся в приложениях (в частности, в I [1]) формула, описывающая И. с. п., гостящий иа носледова- | телыюсти групп импульсов; ниже, однако, будут рассматриваться лишь простейшие (и шире всего используемые) И. с. м. вида (1). В приложениях теории И. с. п. (особенчо в элрК'фотсхнике I и радиоэлектронике) обычно можно считать, ч го функция V(t) \ обращается в нучь (точно или с высокой супонью точности) вне нек-рого конечною игтерва та, последовательность | {Аггп~0, ±1, ±2,...} пкг;яе,ся векторной стационарное счу- I чайной последовательностью (или даже послелога гельнот.ю I независимых одинаково распределенных случайных :*екто- | ров), а последовательность {/,. //--(), il.. .} не .«авшиг от ! последовательное in {Ач\ Часто люллю так,м ограничимся. I случаем, когда Ап-(Ли, Вп) - дьумчрный ектор, где 1#1 - амплитуда w-го импульса, л Btl - его ширина, так т>о I лчг>---Х;_л,,гч(/-г,,)//л,). ш | В частном ечуч;.о, ко .-да В„ -сшы , го есть ширина импульсов не меняется, ироцсе ЛЧ-') налагается а м .1 л и т у д i: о - м о - дулиронаниым импульсным процессом.или процессом ам плиту дно-им пул ьс но и мод\ллции если I при ;>том и все дмилшу и- Л,г одинаковы, а ю.тько посукдоча I тельность моментов времечи tn является случайной, то Ли) - | процесс дробовою шума, а если амплиг> чы At) не мснячт*я, | но ширина w-го импульса Вп является случайной, ю ХО) | процесс ш и рот и о- и м пу л ьсноГ: модуляции, или, | иначе, м о д v т я ц и и и о д л и т е л ь г о с г и и м и у л ь •■ о в. I Сущестрснпую роль и теории И. с. и. играет характер по следоватсльности {/. , «--0, г 1, ..} уомснтоп появления пм- I пульсов. В приложениях часто встречаются И. с. п. А"(/\ в I к-рых последовательность {tn} можно считать пуассоновской j системой точек заданной интенсивности X («о осп, с равным X средним числом точек tn, приходящихся на единицу времени), I в этом случае X(t) называется п v а с ооновски м импульсным процессом (или и р о ф и л ь т р о в а н я ы м пуассоновс ким процессом; см напр., [2]). Если j {An, n = 0, ±1,...}- стационарная случайная последователь j ность, независимая от пуассоновской последовательности то I чек tn, то нуассоновский И. с. и. X(t) является стационарным
случайным процессом. Обобщением иуассоновских И. с. и. являются такие И. с. п., что разности tn+x - tn представляют собой независимые случайные величины с заданным (вообще говоря, произвольным) распределением вероятностей; в этом сл>чае Х( i) называется и м пул ьсн ы м процессом восстановления. В электро- и радиосвязи большую роль играют такие И. с. п., где импульсы появляются строго периодически, то есть через один и тот же промежуток времени Т0, или же в моменты, тесно связанные с моментами, регулярно повторяющимися через интервал времени Т0; в этих случаях моменты появления импульсов tn удобно представить в виде tn - пТ0 + г\п. Если цп = Г) = const (то есть импульсы появляются строго периодически), то И. с. п. X(t) называется импульсным процессом с постоянными тактовыми интервалами. Если при этом Т| - фиксированное число (напр.. Г) = 0), а {Лп} - стационарная случайная последовательность, то процесс Х(0 - нестационарный периодически коррелированный (или даже периодически распределенный, если последовательность {Ап} стационарна в узком смысле) процесс; однако если Г) - случайная величина, равномерно распределенная на интервале длины Т0, то X(t) является стационарным процессом. В случае, когда г\п, я = 0, ±1, ...,- независимая от {Ап} стационарная последовательность с нулевым средним значением, И. с. п. также является периодически коррелированным процессом и называется импульсным процессом с модулированными тактовыми интервалами (а при желании подчеркнуть случайный характер отклонения моментов tn от nTQ - процессом импульс н о-фазовой модуляции, или модуляции положения импульсов). В электро- и радиосвязи ис- UO чьзу юте я также и нек-рые другие типы импульсной модуляции (то есть модуляции, относящейся к И. с. п.; см., па ip., [1]). Имеются расчеты корреляционных и спектральных характеристик для различных моделей И. с. п. (см. [1]-[7]). Лит.: [1| Коновалов Г. В., Тарасе н к о Е. М., Импульсные случайные процессы в электросвязи, М., 1973; [21 Тихонов В. И., Статистическая радиотехника, 2 изд., М., 1982; [3| Левин Б. Р., Теоретические основы статистической радиотехники, 2 изд., кн. 1, М., 19','4, [4] Рытой СМ., в кн.: Введение в статистическую радиофизику, 2 изд., ч. 1, М., 1976; [5] 14 и ддлтон Д., Введение в статистическую теорию связи, пер. с англ., т. 1-2, 1961-62; [6| Френке Л., теория сигналов, пер. с англ., М., 1974; [7] Коваленко И. Н., Кузнецов И. К)., Шурснков В. М., Случайные процессы. Справочник, К., 1983. Л. М. Я/лом. ИМПУЛЬСНЫЙ ШУМ (impulse noise), импульсная помеха,- помеха, представляющая собой последовательное гь импульсов, параметры к-рых (форма, длительность, интервалы между соседними импульсами и др.) могут быть случайными. Важным частным случаем является пуассо- н о в с к и й шум, когда на каждом временном интервале моменты появления отдельных импульсов независимы и имеют равномерное распределение, так что случайное число импульсов в этом интервале имеет распределение Пуассона (см. 11J). Для описания И. ш. и импульсных случайных процессов широко используется спектральная теория (см. [2]). Примерами пуассоновских помех могут служить атмосферные и индустриальные помехи. Лит.: f 11 Милдлтон Д., Введение в статистическую теорию связи, пер. с англ., т. 1, М., 1961; 12J Левин Б. Р., Теоретические основы статистической радиотехники, 2 изд., кн. 2, М., 1975. 3. М. Габидулин. ИНВАРИАНТНАЯ МЕРА (invariant measure) - 1) И. м. для измеримого отображения Т измеримого пространства (Q, *</) в себя - такая мера ц, заданная на ,с/, что \i(A) = \l(T А) для любого Л е .7. Инвариантность меры для Т означает также, что jf(x)dii(x) = jf(Tx)dii(x). См. также Пространство с мерой. 2) И. м. для стохастич. оператора Р(х, А), где х еХ, А е .7, (X, .</- измеримое пространство, |1 - мера на .«утакая, что для любого А е .с/ . \i№ = ]x P(x,A)d\i{x). См. также Стационарное распределение однородной цени Маркова. е. и. Дшшбург. С-ИНВАРИАНТНАЯ МЕРА (a-invariant measure) - см. Пространство с мерой. ИНВАРИАНТНАЯ ОЦЕНКА (invariant estimator) - статистическая оценка, инвариантная относительно нек-рого (обычно мешающего) параметра семейства распределений. Используется для исключения мешающего группового параметра. Л. Б. Клебанов. ИНВАРИАНТНАЯ СТАТИСТИКА (invariant statistic) - статистика, инвариантная относительно согласованных преобразований переменных; основное понятие теории инвариантных статистических моделей. Если к наблюдению х и неизвестному параметру в применяется действие g из группы G, относительно к-рой статистич. модель инвариантна, и тем самым xh+gx, Qh+gQ, то для инвариантности статистики t(x) требуется выполнение тождества t(gx) = t(x). Лит.: [1J Климов Г. II., Инвариантные выводы в статистике, М., 1973. А. Д. Кузьмин. ИНВАРИАНТНАЯ СТАТИСТИЧЕСКАЯ СТРУКТУРА (invariant statistical structure) - см. Статистические задачи на группах и однородных пространствах. а-ИНВАРИАНТНОЕ КОЛЬЦО (а invariant ring) - см Пространство с мерой. ИНВАРИАНТНОЕ РАСПРЕДЕЛЕНИЕ (invariant distribution) - распределение вероятностей Р = Р (Л) в фазовом пространстве (Q, .с/) случайного однородного марковского процесса X(t), определенного на действительной прямой Т с переходной функцией P(t, х, А), удовлетворяющее для любых А е .г/ и t еТ соотношению P004)=Jn P°(dx)P(t,x,A). (*) Это распределение вероятностей Р таково, что однородный марковский процесс X(t) с переходной функцией P(t, x, А) и распределениями Pt(A) = P{X(t) е А} = Р (А) является стационарным в узком смысле. Марковский стационарный процесс с заданной однородной переходной функцией существует тогда и только тогда, когда существует И. р. Р, удовлетворяющее (*). Если фазовое пространство процесса А'(0 - конечное множество, то И. р. существует всегда. Для процесса с дискретным временем и счетным множеством £1 условием существования И. р. является существование такого класса сообщающихся состояний 'РсЙ, что среднее время попадания из любого ^еН'в любое г/2еТ конечно (см. [1]). Лит.: [ 1 ] Колмогоров А. Н., Теория вероятностей и математическая статистика, М., 1986, с. 183-97; [2] Прохоров Ю. В., Розанов Ю. А., Теория вероятностей, 3 изд., М., 1987. С. Я. Шоргин. ИНВАРИАНТНОСТИ ПРИНЦИП в банаховых про странствах (invariance principle in Banach spaces) - инвариантности принцип для последовательностей случайных величин со значениями в банаховом пространстве. Пусть {X,} - независимые случайные величины со значениями в сеиара- бельном банаховом пространстве (В, \\-\\), имеющие нулевые средние и конечные вторые моменты нормы. Для последовательности {X,} имеет место принцип инвариантности, ИНВАРИАНТНОСТИ 193
если на исходном вероятностном пространстве можно построить независимые центрированные гауссовские случайные величины {У,} с теми же ковариационными операторами, что и {X,}, для к-рых при любом е>0 limP [d^^-^h^b0- о И. п. в банаховых пространствах распространен на случай несепарабельных банаховых пространств. При этом в (*) используется либо внешняя вероятность, либо измеримая мажоранта для нормы (см. 11], [2]). Примером И. п. в банаховых пространствах может служить принцип инвариантности для случайных процессов, в частности для эмпирич. процессов и мер (см. Сходимость эмпирических мер и эмпирических процессов, а также [1], [2]). Лит.: [1] Dudley R. M., Philipp W., «Z. Wahr. und verw. Geb.», 1983, Bd 62. H. 4, S. 509-52; |2] Борисов И. С, «Тр. Ново- сиб. ин-та матем.», 1985, т. 5, с. 3-27; [3] Боровков А. А., Саха- ненкоА. И., «Теория вероятн. и ее примем.», 1980, т. 25, в. 4, с. 734-44. И. С. Борисов. ИНВАРИАНТНОСТИ ПРИНЦИП для случайных процессов (invariance principle for stochastic/random processes) - предельная теорема о сходимости случайных процессов, порожденных последовательными суммами случайных величин, к винеровскому процессу. И. п. является естественным обобщением центральной предельной теоремы. Пусть {X. \ /=1, ..., тп}} я=1, 2,...,- последовательность серий независимых в каждой серии случайных величин, причем для всех п и j ex; ("). DX (п)_ 1. Пусть sn = sn(-)— непрерывная случайная ломаная (случайный процесс) со значениями Ч<Г))=Х^*,,П) при 'r=X^D*T и линейная при Ц ^^^Ч + \' ^ = 0> *» •••» тп> и ПУСТЬ Р„ - распределение процесса sn в пространстве непрерывных функций С[0, 1] с равномерной нормой и борелевской а-алгеброй, a W - распределение в этом пространстве стандартного вине- ровского процесса w. Для слабой сходимости Ря => W при п -> «о (1) в пространстве С[0, 1] необходимо и достаточно выполнения условия Линдеберга: X£e{U<»>)2; |x«|>e}^0, е>0. Сходимость (1) принято называть принципом инвариантности. Приведенный результат принадлежит Ю. В. Прохорову [2]. В частном случае, когда Х- = Х/п ' итп = п, где Xj, X2,...- последовательность независимых одинаково распределенных случайных величин с нулевыми средними и единичными дисперсиями, этот результат был получен ранее М. Донскером [1]. Название «И. п.» подчеркивает тот факт, что предельное распределение W не зависит от распределений величин . п. является одной из наиболее известных предельных теорем для случайных процессов. Сходимость (1) может быть также записана в виде P{f(sn)<u}^P{f(w)<u} (2) для всех непрерывных функционалов Д •). Для fix) = х из (1) и (2) следует центральная предельная теорема в форме Линдеберга. В настоящее время известны обобщения И. п. на 194 ИНВАРИАНТНОСТИ случаи, когда величины {X } - многомерные, слабозависи- мые, образуют мартингал-разности и др. Важным дополнением к (1), (2) являются соотношения, устанавливающие скорость сходимости в И. п. (см. Инвариантности принцип; скорость сходимости), и теоремы о больших уклонениях в И. п. Лит.: [1] Donsker M., «Mem. Amer. Math. Soc», 1951, v. 5, p. 1-12; [2] Прохоров Ю.В., «Теория вероятн. и ее примен.», 1956, т. 1, в. 2, с. 177-238; [3] Биллингслей П., Сходимость вероятностных мер, пер. с англ., М., 1977. А. А. Боровков, А. И. Саханенко. ИНВАРИАНТНОСТИ ПРИНЦИП почти наверное (strong/almost sure invariance principle) - предельная теорема о сходимости случайных процессов, порожденных последовательными суммами случайных величин, к винеровскому процессу в терминах сходимости почти наверное. Если на одном вероятностном пространстве с процессом s(-) можно построить стандартный винеровский процесс »;(•) таким образом, что почти наверное s(t)-w(t) = OMt)) при £->оо, (*) то (неслучайную) функцию v(-) можно рассматривать как характеристику близости распределений процессов s(•) и w(-). Пусть Xj, X2,...- независимые одинаково распределенные' случайные величины, EXj =0, DXj = 1, s(t) ■■\^XJ + (t-k)Xk+, k^t<k+\. В. Штрассен показал (см. [1]), что в этом случае (*) верно при v(t) = o((t In In 0 ). Из этого факта и закона повторною логарифма для винеровского процесса следует справедливость закона повторного логарифма для процесса s(-): P{lim sups(0/(2£lnln01/2 = l}=l. t -►«> Если Е|Х1|а<оо при а>2, то (*) справедливо при v(t)-= = o(t ' ). Если Ее ' '' <<» для нек-рого t>0, то (*) верно при v(t) = \nt (см. [2]). Эти результаты неулучшаемы. Существуют разнообразные обобщения приведенных утверждений на мартингалы (см. [1]) и суммы многомерных слабозависимых случайных величин с условиями перемешивания (см. [3]). Все результаты этого направления существенно используют одного вероятностного пространства метод. Лит.: [1] StrassenV., «Proc. 5th Berkeley Sympos. Math. Statist. Probab.», 1967, v. 2, № 1, p. 315-43; [2] Komlos J., Major P., Tusnady G., «Z. Wahr. und verw. Geb.», 1976, Bd 34, № I, S. 33-58; [31 Berkcsl., Philipp W., «Ann. Probab.». 1979, v. 7, № 1, p. 29-54. А. А. Боровков, А. И. Саханенко. ИНВАРИАНТНОСТИ ПРИНЦИП; скорость сходи мости (invariance principle; rate of convergence) - направление исследований, связанное с характеризацией близости распределений Р„ случайной ломаной s„, порожденной суммами случайных величин, и распределения W винеровского процесса w. Большинство полученных в этом направлении результатов - это оценки для расстояния Леви-Прохорова ли = л(Р„, W) между распределениями Р„ и W в пространстве непрерывных функций С[0, 1]. Первая такая оценка в терминах отношения Ляпунова An) = Vя" EX1 ■(»)' a>2, =i I"; была получена Ю. В. Прохоровым (см. [1]) и доведена в [4] до оценки ;C(a)(z5a«>),/<a+°, a>2. (1) г (И) (Слагаемые X. определены в статье Инвариантности принцип для случайных процессов.) Если тп = п, Х- -XJ^n и Е|Х1|а<оо при а>2, где Xj, X2,...- независимые и одинаково распределенные случайные величины, то *„ = o(n-(a-2)/2<0+,,) при я->~. (2)
Если Ее ' '' <<» для нек-рого £>0, то тс„ = 0(и"1/21пи). (3) Оценки (1), (2), (3) неулучшаемые. Имеются также результаты для случая зависимых величин {X }. Основной способ получения имеющихся оценок - одного вероятностного пространства метод. Однако известны и др. подходы. Наряду с исследованием скорости сходимости к нулю расстояния кп существуют и другие направления изучения сближения распределений Р„ и W. К ним относятся задачи оценивания характеристик An(B)=\P{sneB}-P{weB}\, An(f,u) = \P{f(sn)<u}-P{f(w)<u}\, где В - борелевское подмножество пространства С [0, 1], а /*(•)- действительный измеримый функционал в С [О, 1J. Если В - липшицево множество, то есть P{we(dB)(e)}^CBz, е>0, где (дВ) - е-окрестность границы дВ множества В, то для оценивания Ап(В) полезно неравенство Ап(В)^(\+Св)пп. (4) Аналогично, если функционал /"(•) удовлетворяет условию Лшшица: |/(*>-A*>l<<W)|*-y|,*,yeC[0, 1]. а распределение f(w) имеет ограниченную константой C2(f) плотность, то An(f, u)^(\+C{f)C2(f))Kn. (5) И:; неравенств (4) и (5) и соотношений (1), (2) или (3) можно извлечь известные оценки для Ап(В) и An(f, и), к-рые, однако, можно улучшить. Так, если множество В липшицево, то Д„(В)^С(В, a)(L<a«>),/o ln(l + (^>),/a), a>2. Для функционалов f(x) = max x(t) и t /"<*) = J0 gMt), i)dt получены более точные оценки. Если же В = {хеС[0, \]:g_(t)^x(t)^g+(t), te[0, 1]} - полоса с границами, удовлетворяющими условию Липшица: \g±(t + h)-g±(t)\^Kh,0^t^t + h^\, mt, = n, а случайные величины Х. = л/л~Х одинаково распределены при всех j - 1, ..., п, то A„(B)^Cabs(/C + l)E|x1|3/"1/2. Лит.: [1] Прохоров Ю. В., «Теория вероятн. и ее примен.», 1956, т. 1,в. 2, с. 177-238; [2] Komlos J., Major P., Tusnady G., «Z. Wahr. und verw. Geb>, 1976, Bd 34, X? 1, S. 33-58; [3] Боровков А. А., «Успехи матем. наук», 1983, т. 38, в. 4, с. 227-54; [4) Са- х^ненко А. И., «Тр. Ин-та математики СО АН СССР», 1985, т. 5, с. 27-44. А. А. Боровков, А. И. Саханенко. ИНВАРИАНТНОСТИ ПРОБЛЕМА в теории систем обслуживания (insensitivity/invariance problem in theory of queueing systems) - см. Обслуживания систем теория] проблема инвариантности. ИНВАРИАНТНОСТЬ в теории статистических игр (invariance in the statistical game/decision theory) - принцип с>жения класса всех решающих правил за счет использования лишь инвариантных решающих правил. Определение инвариантной проблемы статистич. решения связано с группами преобразований во всех трех пространствах, к-рые участвуют в определении статистической игры: в пространстве решений Ф, параметрич. пространстве 0 и выборочном пространстве J'. Определение предполагает существование группы G преобразований .#', единицей к-рой является тождественное преобразование е\ групповой операцией является композиция: g2g\ переводит х в g2(g\x), g-1 _ обратное к g преобразование. Группа G предполагается измеримой, то есть дХ - случайная величина со значениями в Л\ если X - случайная величина. Семейство Ре инвариантно, если для любых geG, ве0 существует 8„e0 такое, что для любого измеримого А PQ(gXeA) = PQ(XeA). (1) Преобразования д пространства 0 в себя, определенные равенством дв = в„, при выполнении условия о взаимной однозначности отображения 6 -> Ре образуют группу G. В терминах математич. ожиданий условие (1) означает, что для любой интегрируемой функции <р Ееф(^Лг) = Е^еф(Х). Проблема статистич. решения, связанная со статистич. игрой (#, 0, W), (X, Ре), называется инвариантной относительно группы G, если семейство Ре инвариантно относительно G и функция потерь w инвариантна относительно G в следующем смысле: для любых 8 е </>, д е G найдется единственное 8' е ft) такое, что w(b, в) = w(b\ gQ) при всех в е 0. (2) Значение 8', однозначно определенное по д, обозначается ниже д'Ь. Преобразования д' пространства 3) в себя, порожденные группой G, образуют группу G'. Таким образом, с основной группой G преобразований д пространства 9Г в себя связаны еще две группы G и G' преобразований пространств 0 и </ в себя. Применение одновременно всех трех преобразований д, д и д' оставляет проблему решения неизменной (инвариантной). Поэтому естественно выбирать такие решающие правила, к-рые не менялись бы при переходе от одной эквивалентной проблемы решения к другой. Решающая функция 8(Х) инвариантной проблемы решения называется инвариантной, если Ь(дХ) = д'Ь(Х). Рандомизированное инвариантное правило л(Х) определяется как любое распределение, сосредоточенное на инвариантных решающих правилах. Примеры применения принципа И. дает использование эк- вивариантных оценок и инвариантных критериев. Эти частные случаи обладают нек-рым своеобразием. В проблеме оценивания группа преобразований G' не вводится вовсе. В этом случае множества 9) и 0 совпадают и предполагается д'Ь = дЬ. Поэтому эквивариантные оценки определяются с помощью равенства Q*(gX) =gQ*(X). В теории проверки гипотез преобразование д' полагается равным тождественному д' = е, так что инвариантный критерий п определяется соотношением к(дХ) = к(Х). В этом случае для инвариантности проблемы проверки двух гипотез {ве©^ и {ве02} нужно предполагать также [см. (2)], что <70; = 0„ *=1,2. Наличием нек-рой разницы в этих двух подходах и объясняется в какой-то мере использование двух разных терминов - «эквивариантность» (для оценок) и «И.» (для проверки гипотез) при обозначении инвариантных решающих правил. Лит. см. при ст. Достаточность в теории статистических игр. А. А. Боровков. ИНВАРИАНТНОСТЬ 195
ИНВАРИАНТНОСТЬ статистической процедуры (invariance of a statistical procedure) - свойство какого-либо решающего правила в нек-рой статистической задаче. Именно, статистич. процедура Ь(х) инвариантна, если выполняется тождество Ь(дх) = дЬ(х), где предполагается, что группа G, относительно к-рой статистич. модель инвариантна, действует и в пространстве D возможных решений. Важным свойством инвариантной статистич. процедуры является постоянство функции риска Ж5) = Ж8|в) = EL(b(x)\Q) по неизвестному параметру 0 е 0 и в случае инвариантной функции потерь, где инвариантность функции потерь означает выполнение тождества L(gd\gQ) = Ш|в). При этом предполагается транзитивность действия группы G на 0. В этом случае при выполнении условий регулярности существует оптимальная инвариантная статистич. процедура. Существенно, что последняя процедура минимаксна в классе всех процедур. При нарушении транзитивности действия выполняется свойство модифицированной минимаксности. Достаточные условия существования и минимаксности процедуры в предположении G = 0 следующие. Условие 1: для нек-рого измеримого отображения с:Х —>0 статистика six) = = с(х)~ х инвариантна. Условие 2: существует распределение с(х) относительно каждого фиксированного значения s (х). Условие 3: Qx = x для нек-рого хеХ влечет Qd = d для всех d. Условие 4: функция L(d\Q) no d полунепрерывна снизу и стремится к +<» при стремлении d к °°. Предполагается, что D - метрич. пространство и d->°o означает, что из каждого компакта последовательность dn выходит за конечное время. Условиеб: для нек-рой последовательности v„ вероятностных мер на G выполняется свойство асимптотич. право- инвариантности, означающее, что lim sup \vn(Bg)-vn(B)\=0 п-ю° В для всех д. При выполнении указанных условий выполняется также свойство бейесовости в широком смысле: lim inf \R(b\e)vn(de)=R(bQ), л-к» где 80 - оптимальная инвариантная статистич. процедура. Фидуциальное распределение Р*, рассматриваемое как статистич. процедура с пространством решений D, совпадающим с множеством вероятностных мер на 0, является оптимальной инвариантной статистич. процедурой для функций потерь L(a|p), обладающих следующим свойством типа несмещенности: L(a|p)^L(p|p) для всех а, р. Полезный пример такой функции получается, если положить значение L(a|p), равным энтропии Ре относительно Ра, где Pa(B)=JFQ(B)a(de) и L(a|p)=/L(a|e)pWe). Лит.: [1) Климов Г. П., Кузьмин А. Д., «Теория вероятн. и ее примени, 1975, т. 20, в. 2, с. 309-31; [21 Wesler О., «Ann. Math. Statist.», 1959, v. 30, № 1, р. 1-20; [31 Кузьмин А. Д., «Вести. Моск. ун-та. Сер. вычисл. матем. и киберн>, 1977, № 2, с. 58-66. А. Д. Кузьмин. ИНВАРИАНТНЫЙ КРИТЕРИЙ (invariant test) - статистический критерий, построенный по инвариантной статистике. Подробнее: задача проверки гипотезы Яо:ве0о при альтернативе Н{:ве&\0{) для однородного семейства распределений инвариантна относительно действия группы G, если <7©о = ®о Для всех 9- Критерий <p(#) инвариантен, если инвариантна статистика у(х). Технически удобное описание И. к. данной задачи использует понятие максимального инварианта. Статистика Т(х) служит максимальным инвариантом, если она инвариантна и принимает раз- 196 ИНВАРИАНТНОСТЬ личные значения на разных орбитах. И. к. зависят от .с через Т(х). Если группа G действует на множестве 0 транзитивно, то существует равномерно наиболее мощный И. к. и задача сводится к проверке простой гипотезы при простой альтернативе. В общем случае использованием достаточных статистик для многих практически важных примеров построены равномерно наиболее мощные несмещенные И. к. Критерий срСх) называется почти инвариантным, если (р(дх) = у(х) почти наверное для всех д. Для ограниченно полных семейств распределений существует равномерно наиболее мощный почти инвариантный критерий, являющийся равномерно наиболее мощным в классе всех критериев с инвариантными функциями мощности. Этот результат полезен при наличии ограниченно полной достаточной статистики, относительно крой задача инвариантна. И. к. соответствует инвариантным доверительным множествам, последние характеризуются тождествами gS(x)=S(gx). Равномерно наиболее мощные И. к. используют при построении равномерно наиболее точных доверительных множеств и наоборот Оптимальные И. к. обладают свойством максиминности. Теорема Ханта-Стейна (см. [1], [2]) обеспечивает для каждого критерия ф существование почти инвариантного критерия у, удовлетворяющего неравенствам inf Е еф(*) ^ Е0\|К*) ^ sup Е еф(х) 9 9 для почти всех в. Существенным условием для таких утверждений является условие существования асимптотически правоин- вариантной последовательности вероятностных мер на группе G. Лит.: [1] Леман Э., Проверка статистических гипотез, пер. с англ., 2 изд., М., 1979; [2] Kiefer J., «Ann. Math. Statist.», 1957, v, 28, № 3, p. 573-601. А. Д. Кузьмин. ИНВЕРСИЯ (inversion) - см. Перестановка. ИНДЕКС случайной величины (index of a random variable), индекс распределения,-числовая характеристика распределения случайной величины X, определяемая посредством соответствующей характеристической функции f\(t): A(X) = sup{h:mm(\fx(t)\:\t\^h)>0}. И. был введен в [1] вместе с понятиями центра СГ(Х) и разброса ВГ(Х) случайной величины X. Для любого 0<г< <Д(Х) обе эти характеристики существуют (см. [2]). Лит.: [1] Золотарев В. М., «Докл. АН СССР», 1970, т 194, № 5, с. 1010-12; [2] его же, Современная теория суммирования независимых случайных величин, М., 1986. В. М. Золотарев. ИНДИВИДУАЛЬНАЯ ЭРГОДИЧЕСКАЯ ТЕОРЕМА (pointwise ergodic theorem) - см. Эргодические теоремы. ИНДИКАТОР события (indicator of event) A - случайная величина _ (1 при сое Л, 1АУ<й) Jo „ри Шй! а. В. И. Битюцков. ИНДИКАТОРНАЯ МЕТРИКА (indicator metric) - сложная вероятностная метрика вида ИХ, У) = Е/(Х*У) = Р{Х*У}, где / - индикатор события. И. м. является протоминальпой метрикой для полной вариации метрики а. Ввиду важности последней в теории вероятностей, И. м. также имеет большое значение, особенно в метрических расстояний методе и при построении идеальных метрик. И. м., как и метрика а, инвариантна относительно любых измеримых взаимно однозначных преобразований пространства значений случайных величин, то есть i(T(X), T(Y)) = i(X, У). С Ки Фан метрикой Ж И. м. г связана неравенством ЖХ, Y)^i(X, Y). В. М. Золотарев. ИНДИКАТОРНАЯ ПЕРЕМЕННАЯ (indicator variable) - см. Ковариационный анализ.
ИНЕРЦИОННЫЙ ПРОГНОЗ (persistant forecast) - см Прогноз погоды. ИНТЕГРАЛ ВЕРОЯТНОСТИ (probability integral), интеграл ошибок,-функция erf(*) = -2 \Xe~t2dt, |*|<~. В теории вероятностей используется не И. в., а функция нормального распределения: ф(х) = -±=\\ е-'2*2 dt = 1[! + erf(*/Щ - так паз. интеграл вероятности Гаусса. Для случайной величины X, имеющей нормальное распределение с матсматич. ожиданием 0 и дисперсией 1 вероятность неравенства 1X | ^ t равна erf (£/V2~). Иногда используются следующие обозначения: в(х) = Н(х) = Ф(х) = erf (x), Erf(*) = —еггЫ, 2 Erfc(jc) = ^ - Erf(x) = Г e-t2dt, 2 Jx aix) = 2 Г ,-,2/2 ^ _ j = 1 Erf(r/Л). Vtc J-00 я Лит.: [1] Ян ке Е., Эмде Ф., Лёш Ф., Специальные функции. Формулы, графики, таблицы, пер. с нем., 3 изд., М., 1977. А. Б. Иванов. ИНТЕГРАЛ ПО ТРАЕКТОРИЯМ (path integral) - см. Континуальный интеграл. ИНТЕГРАЛЬНАЯ ГЕОМЕТРИЯ (integral geometry) - раздел математики на стыке геометрии и теории меры, служащий аппаратом в задачах о геометрических вероятностях и геометрических процессах. Идея введения меры в пространстве прямых на плоскости содержалась уже в Бюффона задаче об игле. Дальнейшее развитие эта идея получила в работах Дж. Сильвестра (J. Sylvester), А. Пуанкаре (Н. Poincare), В. Бляшке (W. Blaschke) и др. Согласно традиции, основным объектом изучения в И.г. являются меры в пространствах геометрич. фигур (прямых, плоскостей, выпуклых тел и т.д.), инвариантные относительно групп преобразований, действующих в основном пространстве. Наиболее употребительны меры fc-мерных плоскостей в IP", инвариантные относительно группы Мп евклидовых движений пространства IR"'. Для заданных k, n такая мера единственна с точностью до постоянного множителя. Напр., в пространстве прямых g на плоскости элемент М2-инвариантной меры имеет вид dg = dpdq>, где (р, <р) - полярные координаты основания перпендикуляра, опущенного из начала координат на прямую д. Если потребовать инвариантность мер только лишь относительно группы Тп параллельных сдвигов IP", то свойство единственности инвариантных мер в этих пространствах теряется (кроме случая k = 0). Напр., всякая мера в пространстве прямых, инвариантная относительно группы Т2, имеет вид m(dg) =dp\L(d(p), где \i - нек-рая мера на [0, 2л) (см. Интенсивности роза). Обратно, все меры указанного факторизован- чого вида Г2-инвариантны. Если пространство ./геометрич. фигур в II?" представимо в виде произведения пространств НхВ, где Н - локально компактная группа преобразований II?", то Я-инвариантная мера на -J факторизуется на два сомножителя, один из к-рых есть мера Хаара группы Н (см. Случайный шейп, где приведены примеры факторизации при Н = М2 и Н=А, А - группа матриц с единичным определителем). В И. г. важное место занимает вычисление интегралов по инвариантным мерам (см. Математическая стереология). Интегрирование по инвариантным мерам оказалось эффективным инструментом геометрич. исследований, в частности методом установления геометрич. неравенств (см. [1]). Важным разделом И. г. является комбинаторная И. г. (см. [4]), развившаяся из решения Бюффона-Сильвестра задачи. Ниже приведен основной результат этой теории для пространства G прямых на плоскости. В качестве модели для G выбрана полусфера, у к-рой выброшен полюс, а диаметрально противоположные точки на краю (экваторе) отождествлены. Такая модель обладает тем удобным свойством, что на ней пучкам прямых на плоскости, то есть множествам [Р]-{9&G:g проходит через точку Pell?}, соответствуют дуги больших кругов (геодезические). Лежащие на экваторе концы геодезических отождествлены, откуда следует, что каждый пучок [Р] на модели изображается замкнутой линией. Каждые два пучка [PJ и [Р2] пересекаются в одной точке, к-рая соответствует прямой Р\Р2. Пара точек на плоскости называется и г л о й v = {Р\Р2}\ М есть множество прямых, разделяющих концы Р{, Р2 иглы v; пучки [Pt] и [Р2] составляют границу множества [v]cG. Множество G\([P11U[P2D распадается на две связные компоненты, к-рые называются одновершинниками; одна из этих компонент ограничена (то есть ее замыкание компактно), а другая нет. Множество A cz G не ограничено, если А содержит окрестность выброшенного полюса (кратно: если покрывает полюс). Так как [v] связно и ограничено, то его следует отождествить с одновершинником, не покрывающим полюса. Пусть рассматривается треугольник на плоскости со сторонами а, Ь, с. То обстоятельство, что прямая, вошедшая во внутренность треугольника через одну из его сторон, обязана выйти из него через одну из двух других сторон, можно записать в виде здесь IA(g) есть индикатор множества AaG. Эти равенства (как и аналогичные равенства для индикаторов ниже) верны с точностью до множества прямых, к-рое можно покрыть конечным числом пучков (в данном случае пучками, соответствующими трем вершинам треугольника). Вычитая из суммы двух последних равенств первое, получают На модели это равенство можно проверить непосредственно, рассматривая рис. 1 и помня о произведенной склейке эквато- ИНТЕГРАЛЬНАЯ 197
pa (на рис. 1 полюс лежит в дополнении к [с], вне [я]П[Ь]; множества [а], [Ь], [с] обозначены дужками). Из рис. 1 видно, что два внутренних угла каждого ограниченного треугольника на модели принадлежат ограниченным одновершинни- кам, третий же внутренний угол принадлежит неограниченному одновершиннику. Пусть D - выпуклый ограниченный геодезич. многоугольник на рассматриваемой модели, {тг} - треугольники, на к-рые D разбивается обычной триангуляцией. Для каждого из треугольников тг предыдущая формула записывается в виде 2W = '|<.1!<0> + /Ic,|<0>-1. где [й,], [bj], [Cj] - одновершинники, содержащие внутренние углы треугольника тг. Используя аддитивность индикаторов, суммированием по i получают 2/D<<7)=X,./K,<<7)-N. где N - число треугольников, участвующих в триангуляции, [(1г] - одновершинники, содержащие внутренние углы многоугольника D. Пусть {[^г]} = {[б/г']}11{[б//']}, причем одновершинники [d\\ ограничены, а одновершинники [<//'] не ограничены. Обозначая через г число различных [df], а верхним индексом с - дополнение, получают при этом r = N. Это следует из того, что из одновершиннийов, на к-рые при триангуляции разбивается данный d", только один оказывается неограниченным (то есть только один покрывает полюс). Таким образом, 2V*> = I,'K]<*>-2,'Kr<^ Многоугольники, подобные описанным, естественным образом возникают как атомы так наз. бюффоновых колец (см. ниже, а также [3], (4]). Пусть на плоскости фиксированы иглы vt, ..., v„. В G им соответствуют множества [Vj], ..., [vj. Через $C{vz} обозначается минимальная (конечная) алгебра подмножеств G, содержащая все [vj. Бюффоновым кольцом Br{v?} называется кольцо ограниченных подмножеств алгебры Щу{}. Мера т() на G называется беспучковой, если т([Р]) = 0 для каждой Pell? . Справедлива теорема: для всякой локально конечной беспучковой меры т( •) на G и каждого В е Br{vJ имеется представление m(B) = ^di<jcij(B)m{[vil)), где суммирование проводится по всем парам {Р,, P.} = Vj, {Р,} - совокупность концов игл {V;}, ctj(B) - целочисленные коэффициенты, не зависящие от выбора меры т(). Если никакие три точки из {Р,} не лежат на одной прямой, для вычисления значений коэффициентов с (В) применим следующий алгоритм. Пусть ег. - достаточно малая окрестность прямой gt: е G, проходящей через точки Р{ и Р . Множество £;yM[P,]U[P;]) распадается на четыре несвязные компоненты, так наз. частичные окрестности прямой д^ (рис. 2). Две из этих частичных окрестностей, напр. е*у и г~:, принадлежат неограниченному одновершиннику [v^,]c, а две другие частичные окрестности, скажем ej" и е^Т, принадлежат 198 ИНТЕГРАЛЬНАЯ Рис. 2. ограниченному одновершиннику [vi;]. На рис. 3 изображень представители каждой из введенных частичных окрестностей, они получаются малыми «шевелениями» прямой д--. д^а Рис. 3. Пусть /„(г, г) есть значение индикатора 1п(д) на соответ ствующей частичной окрестности ef- ±. Тогда c{j(B) равно с,,(.в)=iB(l /) + 1вй, /) - iB(i, /) - i/i, /). Аналогичные комбинаторные разложения имеются в про странствах геодезич. линий на поверхностях, в пространствах плоскостей в II? и гиперплоскостей в П? . в пространствах кругов на плоскости, сфер в №, прямых в II? (см. [4]). Лит.: [1] Бляшке В., «Успехи матем. наук», 1938, в. 5. с. 97-149; [21 Сан тал о Л., Интегральная геометрия и геометриче ские вероятности, пер. с англ., М., 1983; [3] Комбинаторные принципь в стохастической геометрии, Ер., 1980; [4] Ambartzumian R. V.. Combinatorial integral geometry, N.Y., 1982. P. В. Амбарцумян. ИНТЕГРАЛЬНАЯ ПРЕДЕЛЬНАЯ ТЕОРЕМА (integral limit theorem) - утверждение о сходимости в определенном смысле последовательности функций распределения к одной или множеству выделенных функций распределения. Примерами первой ситуации могут служить центральная предельная теоре ма, в к-рой сходимость может пониматься как в смысле Леей метрики, так и в смысле равномерной метрики, и глобальная предельная теорема, использующая сходимость в средней метрике и ее обобщениях. Примером второй ситуации является Колмогорова - Арака теорема, в к-рой свертки распределения приближаются в равномерной метрике всем классом безгранично делимых законов, а также ее аналоги. И. п. т. с использованием одной метрики может быть одновременно локальной предельной теоремой, связанной с другой метрикой. Так, И. п. т. для сумм независимых и одинаково распределенных случайных величин, в к-рой предельным распределением служит нормальный закон и используется полной вариации метрика (см. [1]), является локальной предельная теорема со средней метрикой для плотностей распределений, существование к-рых является асимптотически необходимым условием исходной И. п. т. Лит.: [1] Прохоров Ю. В., «Успехи матем. наук», 1952, т. 7, в. 3, с. 112. В. М. Золотарев.
ИНТЕГРАЛЬНАЯ СТРУКТУРА вероятностной мет рики (integral structure of a probabilistic metric) - см. Вероятностная метрика', структура. ИНТЕГРАЛЬНАЯ ТЕОРЕМА ВОССТАНОВЛЕНИЯ (integral renewal theorem) - см. Восстановления теорема. ИНТЕГРАЛЬНОЕ ПРЕОБРАЗОВАНИЕ (integral trans form) - линейное взаимно однозначное отображение U множества распределений {Р} (или соответствующих им функций распределения {F}, или плотностей {р}, заданных на нек-ром пространстве IR") в множество функций {\|/} п комплексных переменных s = (sv .... s„)eC", имеющих вид ф) = UPis) = £„ «5, u)P(du), (*) где k - фиксированная функция на IP"xС (ядро И. п.). Ядро k может иметь в этой области сингулярные точки и тогда интеграл (*) понимается в каком-либо специальном смысле (напр., в смысле главного значения). Явные выражения обратного преобразования iU~\)iu), позволяющие восстанавливать по функции \|/ распределение Р (функцию распределения F или плотность р), называются формулами обращения. Примерами И. п. могут служить: 1) преобразование Фурье-Стилтьеса (характеристический функционал), kis, u) = expiiis, и)), где (•, •) означает скалярное произведение; 2) преобразование Лапласа-Стилтьеса на IR", kis, u) = ==ехр(-0у, и)); 3) Меллина-Стилтьеса преобразование (п = \), kis, и) = ----О, и^О; kis, u) = us, u>0; 4) преобразование Ганкеля (п = 1), kis, и) = О, s ^ 0, kis, и) = -=Jvis, u)(su) ' , и>0, где/v - функция Бесселя; 5) косинус (синус) преобразование in=\), kis, и) = 0; и^О; kis, и) = cos suisin su), и>0. И. и. в теории вероятностей представляют особый интерес тогда, когда {Р} является абелевой полугруппой относительно нек-рой бинарной операции о, а ядро выбрано таким образом, что U осуществляет изоморфизм {Р} в {\|/} вида UiP]°P2)is) = Многие И. п. связаны между собой (см. [1], [2]). В нек-рых случаях понятие И. п. удается распространить на случаи пространств общей природы (гильбертовы, банаховы, группы, 1[олугр>ппы). Лит.: [11 Титчмарш Е., Введение в теорию интегралов Фурье, г ср. с англ., М.-Л., 1948; [21 Зол отаре в В. М., «Теория вероятн. i ее примем.», 1957, т. 2, в. 4, с. 444-69; [31 Бейтмен Г., Эр- /с йи А., Таблицы интегральных преобразований, пер. с англ., т. 1-2, М., 1969-70. в. М. Золотарей. ИНТЕГРАЛЬНЫЙ МАСШТАБ корреляции (integral scale of correlation) - см. Корреляции радиус. ИНТЕГРИРОВАНИЕ СЛУЧАЙНОГО ПРОЦЕССА (integration of random process) - см. Случайный процесс; интегрирование. ИНТЕГРИРУЕМОСТЬ по Бохнеру (Bochner integrabil- ity) - см. Бохнера интеграл. ИНТЕГРИРУЕМОСТЬ по Петтису( Pettis integrability) - см. Петтиса интеграл. ИНТЕНСИВНОСТИ МЕРА (intensity measure) - см. Пуас- соновская' мера. ИНТЕНСИВНОСТИ ОТКАЗА ФУНКЦИЯ (hazard tunc lion/hazard rate function/failure rate function) - функция, определяемая для дифференцируемой функции распределения Fit) соотношением Xit) = fit)/Fit), (*) где fit) = dFit)/dt, F(t) = \-F(t). В математич. теории надежности Xit)dt понимается как условная вероятность наступления отказа в интервале it, t + dt) при условии, что до момента t отказ не наступил. Из соотношения (*) следует Fit) = exp j-Jjj Xis)ds\. Для экспоненциальной функции распределения F(t) = \-e~ut Xit) = X. Ю. К. Беляев. ИНТЕНСИВНОСТИ РОЗА (rose of intensities) - функция Я(£), равная значению меры множества гиперплоскостей в IP", пересекающих единичный отрезок направления £. При этом мера в пространстве гиперплоскостей предполагается локально финитной и инвариантной относительно группы Тп параллельных сдвигов IR". Так как такие меры необходимо имеют вид шх У, где m - нек-рая четная мера на in- О-мер- ной сфере (так наз. роза направлений),^- мера Лебега на IR1, то Я(У = |у||.1 |cos|a)|mW(D), где 5я"1 есть in- 1)-мерная сфера в IR". Часто #(£) интерпретируется как интенсивность процесса пересечений Тп инвариантного процесса гиперплоскостей в II?" на прямой направления £. Обращение этого уравнения (то есть нахождение меры m по заданной Н) составляет одну из задач математической стереологии. Это уравнение возникает также в теории выпуклых тел. Лит.: [1] Stoyan D., MeckeJ., Stochastische Geomctrie, В., 1983; [2J Schneider R., Weil W., в кн.: Convexity and its applications, Basel, 1983, p. 296-317. " p. r. Арамян. ИНТЕНСИВНОСТЬ (intensity) -1)И. стационарного потока событий- среднее число X событий в единичном интервале времени. Среднее число событий в интервале длины t равно Xt. Согласно теореме Королюка, И. равна параметру стационарного потока (см. также Хинчина теорема). Для широкого класса систем обслуживания условие существования стационарного режима выражается в терминах И. входящего потока и среднего времени обслуживания. Для нестационарного потока вводится понятие мгновенной интенсивности X(t), определяемой тем, что J X(t)dt есть математич. ожидание числа событий потока в интервале (а, Ь). Введено понятие ^-интенсивности Xkitv ..., tk) потока, определяемой в случае ординарного потока тем, что Xkitx, ..., tk)dt{...dtk есть вероятность наступления событий потока в каждом из интервалов it]t t^+dt^), ..., itk, tk + dtk). 2) И. отказа - функция Xit) = F'it)/[\ - Fit)], где F(t) - функция распределения времени безотказной работы какого-либо объекта. и. Н. Коваленко. ИНТЕНСИВНОСТЬ ПРОЦЕССА (intensity of a process) - см. Геометрический процесс, Точечный процесс. ИНТЕНСИВНОСТЬ ПРОЦЕССА ВОЛОКОН (intensity of a fibre process) - см. Математическая стереология. ИНТЕРВАЛОВ ШКАЛА (interval scale) - см. Измерений теория. ИНТЕРВАЛЬНАЯ ОЦЕНКА (interval estimator) - статистическая оценка, в к-рой решениями служат совокупности точек (подмножества) пространства оцениваемого параметра или параметрические функции (ср. Точечная оценка). Наиболее распространенными разновидностями И.о., отличающих- ИНТЕРВАЛЬНАЯ 199
ся в основном интерпретацией их доверительного уровня, являются доверительные интервалы (по Нейману), фидуци- альные интервалы (по Фишеру), бейесовские доверительные интервалы; толерантные пределы, трактуемые как доверительные интервалы для квантилей распределения наблюдаемой случайной величины, также относятся к И. о. Лит.: [1] Боровков А. А., Математическая статистика, М., 1984; |2]КендаллМ., СтьюартА., Статистические выводы и связи, пер. с англ., М., 1973. И. Н. Володин. ИНТЕРВАЛЬНЫХ ДАННЫХ СТАТИСТИКА (interval data statistics) - раздел статистики объектов нечисловой природы, в к-ром элементами выборки являются интервалы в II? , в частности, порожденные наложением ошибок измерения на значения случайных величин. И. д. с. входит в теорию устойчивости (робастности) статистич. процедур (см. [1]) и примыкает к интервальной математике (см. [2]). В И. д. с. изучены проблемы регрессионного анализа, планирования эксперимента, сравнения альтернатив и принятия решений в условиях интервальной неопределенности и др. (см. 13)-[6]). Развиты асимптотич. методы статистич. анализа интервальных данных при больших объемах выборок и малых погрешностях измерений. В этих методах, в отличие от классич. математич. статистики, сначала устремляется к бесконечности объем выборки и только потом - уменьшаются до нуля погрешности. Разработана общая схема исследования (см. [7]), включающая расчет двух основных характеристик И.д. с.- нотны (максимально возможного отклонения статистики, вызванного интервальностью исходных данных) и рационального объема выборки (превышение к-рого не дает существенного повышения точности оценивания и статистич. выводов, связанных с проверкой гипотез). Она применена к оцениванию математич. ожидания и дисперсии, медианы и коэффициента вариации, параметров гамма-распределения (см. [91, [10]) и характеристик аддитивных статистик, для проверки гипотез о параметрах нормального распределения, в том числе с помощью критерия Стьюдента, а также гипотезы однородности двух выборок по критерию Смирнова, и т. д. Разработаны подходы И. д. с. в основных постановках регрессионного, дискриминантного и кластерного анализов (см. [8]). Многие утверждения И.д. с. отличаются от аналогов из классич. математич. статистики. В частности, не существует состоятельных оценок: средний квадрат ошибки оценки, как правило, асимптотически равен сумме дисперсии этой оценки, рассчитанной согласно классич. теории, и квадрата нотны. Метод моментов иногда оказывается точнее метода максимального правдоподобия (см. [9], [10]). Нецелесообразно с целью повышения точности выводов увеличивать объем выборки сверх нек-рого предела. В И.д. с. классич. доверительные интервалы должны быть расширены вправо и влево на величину нотны, и длина их не стремится к нулю при росте объема выборки. Многим задачам классич. математич. статистики могут быть поставлены в соответствие задачи И.д. с, в к-рых элементы выборок - действительные числа заменены на интервалы. В статистич. программное обеспечение включают алгоритмы И.д. с, «параллельные» их аналогам из классич. математич. статистики. Это позволяет учесть наличие погрешностей у результатов наблюдений. Лит.: [1] Орлов А. И., Устойчивость в социально-экономических моделях, М., 1979; [2] Шокин Ю. И., Интервальный анализ, Новосибирск, 1981; [3] Вощи н и н А. П., Метод оптимизации объектов по интервальным моделям целевой функции, М., 1987; [4] Вощи- нин А. П., Сотиров Г. Р., Оптимизация в условиях неопределенности, М.-София, 1989; [5] Кузнецов В. П., Интервальные статистические модели, М., 1991; [6] Сборник трудов Международной конференции по интервальным и стохастическим методам в науке и технике 200 ИНТЕРВАЛЬНЫХ (ИНТЕРВАЛ-92), т. 1-2, М., 1992; [7] Орлов А. И., в кн.: Статистические методы оценивания и проверки гипотез. Межвуз. сб. науч. тр., Пермь, 1990, с. 89-99; [8] его же, там же, 1993, с. 149-58; |9] его же, там же, 1995, с. 114-24; [10] ГОСТ 11.011-83. Прикладная статистика. Правила определения оценок и доверительных границ для параметров гамма-распределения, М., 1984. Л. И, Орлов. ИНТЕРДЕЦИЛЬНАЯ ШИРОТА (interdecile range) - см Дециль. ИНТЕРФЕРЕНЦИОННЫЙ КАНАЛ (interference chan nel) - один из примеров сети каналов в теории информации, описывающий передачу сообщений от двух отправителей к двум получателям. В терминах общего определения сети каналов И. к. имеет два входа (К = 2), два выхода (L = 2) и описывает передачу информации от двухкомпонентного источника (А/ = 2). Каждое из двух кодирующих устройств кодирует свою компоненту источника (А^ = {1}, Л2 = {2}). Каждое из двух декодирующих устройств декодирует свою компоненту источника (В^ ={1}, Б2 = ^}), используя для этого сообщения на своем выходе канала (Cj = {1}, C2 = {2}). Область пропускной способности для общего И. к. не вычислена; известны лишь нек-рые границы для нее и результаты для нек-рых частных каналов (напр., для гауссовских). Лит.: [1] ЧисарИ., Кернер Я., Теория информации, пер. с англ., М., 1985; [2] Гельфанд С. И., Прело» В. В., в кн.: Июги науки и техники. Сер. Теория вероятностей. Математическая статистика. Теоретическая кибернетика, 1978, т. 15, с. 123-62. С. И. Гелъфаш). ИНФИНИТЕЗИМАЛЬНАЯ МАТРИЦА (infinitesimal inat- rix) - см. Марковский процесс с конечным множеством состояний. ИНФИНИТЕЗИМАЛЬНАЯ СИСТЕМА МЕР (infinitesimal system of measures) - треугольная система \ink, k = \, ..., kn, n^\, вероятностных мер на группе G, удовлетворяющая условию: для любой окрестности U единицы группы G lim sup \L,(G\U) = 0. Если Дп/г(у), уе Г,- Фурье преобразования распределений вероятностей \ink, то система мер {iink} инфинитезимальна тогда и только тогда, когда lim sup \\iink(y)u-u\\ = 0 для всех и из пространства представления Ту. Система мер {ц^} называется К-компактозимальной (см. [2]), если для любой окрестности U единицы группы G и фиксированной (собственной) компактной подгруппы К группы G lim sup \Lnk(G\KU) = 0. Лит.;[1] ГренандерУ., Вероятности на алгебраических структурах, пер. с англ., М., 1965; [2] С об ко Г. М., «Теория вероятн. и ее примен.», 1972, т. 17, в. 3, с. 549-57. Г. М. Собко, Ю. С. Хох;:ов. ИНФИНИТЕЗИМАЛЬНЫЙ ОПЕРАТОР (generator/'infinitesimal operator) - 1) сильный и нфинитезимал ь- ный оператор- оператор полугруппы Pf, t^Q, линейных операторов в нормированном пространстве, определяемый следующим образом: элемент f пространства принадлежит области определения DA оператора А, если существует предел в смысле сходимости по норме ПтГЧРУ-/"); этот предел принимается за значение Af оператора на элементе f. Доказывается, что И. о. однозначно задает полугруппу сжимающих операторов на замыкании его области определения. 2) В теории марковских процессов рассматривается И.о. полугруппы операторов в пространстве ограниченных непрерывных (или лишь измеримых) функций, задавае-
мых формулой Pff(x) = Exf(Xt); И . о. однородного марковского процесса (Xt, Px) при этом задается формулой Af(x) = \imC\EKf(Xt)-f(x)), r|0 примем предел должен быть равномерен по х (Ех - математич. ожидание, соответствующее вероятности Рг). При нек-рых слабых условиях непрерывности, налагаемых на процесс Xt, И.о. задает процесс однозначно с точностью до конечномерных распределений. Для строго марковского процесса И.о. связан с процессом также соотношением Exf(Xx)-f(x) = ExJl Af(Xt)dt, где 1 - момент остановки такой, что Fx(x)<°°, a feDA (так наз. ф 9 p м у л а Дыпкина). Для диффузионных процессов И. о. является сужением дифференциального оператора 2-го порядка. Д1Я неоднородного марковского процесса (Xt, PStX) И.о. определяется формулой Atf(x) = Vim (t'-t)'\Et vf(Xt.)-f(x)); tit вопросы существования и единственности в этом случае сложнее. Лит.: [1| Дынкин Е.Б., Марковские процессы, М., 1963; [2) 14 то К., Маккин Г., Диффузионные процессы и их траектории, пер. с англ., М., 1968; [31 Гихман И. И., С корох од А. В., Теория случайных процессов, т. 2, М., 1973. А. Д. Вентцелъ, С. Е. Кузнецов. 3) И.о. сверточной полугруппы мер (infinitesimal operator/generator of a convolution semigroup of measures) - инфинитезимальный оператор непрерывной полугруппы {St, t.^0} линейных операторов, соответствующей непрерывной сверточной полугруппе \it вероятностных мер на группе G. Пусть {\it, t^O} - непрерывная сверточная полугруппа вероятностных мер на группе G, такая, что lim \it = Ье, где Ьс - вырожденное в единице е группы G распределение вероятностей. Каждой мере \it при t>0 сопоставляется вероятностный оператор где функция f принадлежит банахову пространству @5 (G) непрерывных ограниченных функций на группе G. Семейство операторов St, t>0, при ограничении на банахово пространство @5W(G) всех ограниченных равномерно непрерывных действительных функций на G образует сильно непрерывную полугруппу сжимающих операторов. И. о. N этой полугруппы St, t>0, определенный соотношением Nf(x):=\im t~\Stf(x)-f(x)) для всех /"из нек-рого плотного в @5U(G) подпространства DN называется инфинитезимальным оператором сверточной полугруппы мер {ц,, t^O} на группе G. С И. о. тесно связан порождающий функционал сверточной полугруппы мер, определяемый по правилу Af: = Nf(e). Легко видеть, что Nf(x)=A(Zxf), где Zx - линейный оператор на пространстве @5 (G), порожденный левым сдвигом на элемент х на ipynne G. Оператор N и функционал А определяют полугруппу St, t>0 (а следовательно, и полугруппу \it), однозначно. См. также Сверточная полугруппа мер; каноническое представление. Лит.: [11 И ос и да К., Функциональный анализ, пер. с англ., М., 1967; [2] Хейер X., Вероятностные меры на локально компактных группах, пер. с англ., М., 1981. Ю. С. Хохлов. ИНФОРМАНТ (informant) - градиент логарифмической правдоподобия функции. Понятие И. возникает в так наз. параметрич. задачах математич. статистики. Имеется априорная информация, что наблюдаемое случайное явление описывается распределением вероятностей Р (б/со) из семейства {Р*, £е0}, где t - числовой или векторный параметр, однако истинное значение в неизвестно. Проведенное наблюдение (серия независимых наблюдений) явления привело к исходу со (серии а>(,) cow) ). По исходам наблюдения требуется оценить в. Пусть семейство {Р*} задается семейством плотностей р(со; i) относительно меры |i(<ico) на пространстве Q всех исходов явления. Когда Q. дискретно, за /;(со; t) можно принять сами вероятности РЧсо) исходов. При фиксированном со величина р(со; t) как функция параметра t = (tx> ..., tm) называется функцией правдоподобия, а ее натуральный логарифм -логарифмической функцией правдоподобия. Для гладких семейств удобно вводить И. как вектор grad, In /Дсо; t) = _ ( t Э/Дсо; t) 1 ф(со; t) Л ~ {рЫ; О Э*, ' '"' р(ы; t) Ып / к-рый в отличие от логарифмич. функции правдоподобия не зависит от выбора меры (X. И. содержит всю существенную для задачи оценки в информацию, как получаемую из наблюдений, так и известную ранее. Кроме того, он аддитивен: при независимых наблюдениях, то есть когда р(а><0 mw);t) = YlNk_]PllUk);t), И. суммируется: gradlnp(co(1), ..., co(N); t) = TN gradln/^co00; t). В теории статистич. оценивания существенны свойства И. как случайной вектор-функции. В предположении, что логарифмич. функция правдоподобия регулярна, в частности дважды дифференцируема, ее производные интегрируемы и что дифференцирование по параметру перестановочно с интегрированием по исходам, справедливы для всех/, k тождества Р Э21пр(со;0 _ _ д\пр д\пр < dtptk ~ J'k = l~dt~ ~Ы^' Ковариационная матрица |//*(0|^л_ t называется информа ционной матрицей. Через эту матрицу выписывается неравенство информации, дающее границу точности статистич. оценок параметра в. При оценке в методом максимума правдоподобия наблюденному исходу со (или серии со , ..., со ) сопоставляется наиболее правдоподобное, то есть максимизирующее функцию правдоподобия и логарифмич. функцию правдоподобия, значение £ = в*(со). В точке экстремума И. должен обращаться в нуль. Однако возникающее уравнение правдоподобия gradlnp(co; 0 = 0 может иметь лишние корни сверх £ = в*, к-рые отвечают локальным максимумам (или минимумам) логарифмич. функции правдоподобия и к-рые следует отбрасывать. Если в нек-рой окрестности значения t = в det |/,»(*) |# О, то из приведенных свойств И. следует асимптотич. оптимальность оценки 6^ максимума правдоподобия при возрастании числа N используемых наблюдений. Лит.: [1] У ил кс С, Математическая статистика, пер. с англ., М., 1967. Н.Н. Ченцов. ИНФОРМАНТ 201
ИНФОРМАТИВНОСТЬ (amount of information) - см. Информационная мера. ИНФОРМАТИВНОСТЬ НАБОРА переменных (infor mativity of set of variables) - свойство набора р переменных z = (zv ..., zp), представляющих собой признаки исходного (априорного) множества q признаков х = (х^, ..., xq) и их комбинации, количественно измеряемое нек-рым критерием информативности Ip(z). Критерии информативности в зависимости от содержательной постановки задачи статистич. исследования тем или иным способом формализуют И. н. переменных. Существуют три основные группы критериев информативности. К первой относятся критерии, оценивающие качество регрессионного прогноза количественной переменной у по набору г. Во вторую группу попадают критерии, оценивающие качество решения задачи отнесения объекта к одному из классов по набору г. И, наконец, в третью группу входят критерии, оценивающие точность воспроизведения исходных признаков х по набору г при р < q. Лит.: [1J Айвазян С. А. и др., Прикладная статистика. Классификация и снижение размерности, М., 1989. Ю. П. Юрачковский. ИНФОРМАЦИИ КОЛИЧЕСТВО (amount of information) - теоретико-информационная мера величины информации, содержащейся в одной случайной величине относительно другой. Пусть X и У - случайные величины, определенные на нек-ром вероятностном пространстве (Q, .V, Р) и принимающие значения в измеримых пространствах (&\ S' 1}) и (#, SJ соответственно, а РХУ(С), СeSjxS//f РХ(А), AeS ^Ру(В), В е Stn~ их совместное и маргинальные распределения вероятностей. Количество информации /(X: У) определяется формулой /(X: У) = f aXY(x, у) log aXY(x, y)Px(dx)PY(dy) (лш.фифмм обычно берутся по основанию 2 или е), если PXY абсо.iioiiio непрерывно относительно прямого произведения мер РА здесь аху - плотность по Радону-Никодиму меры PXY относительно меры Рх*Ру- Если же мера Рху не является абсолютно непрерывной относительно произведения мер Рхх Ру, то, по определению, полагают /(X: У) = °°. В случае дискретных случайных величин X и У выражение для И. к. /(X: У) приобретает вид HX:Y) = ^ijPiM^-, где {/?,}, {qj}, {р^} - распределения вероятностей X, У и пары (X, У) соответственно. В частности, /(Х:Х) = Я(Х) является энтропией случайной величины X. Если пара (X, У) имеет абсолютно непрерывное распределение вероятностей с плотностью PXY(x, у), то I(X:Y) = jpXY(x,y)\og-^-: Рху<<х'У) dxdy, (1) ' px(x)pY(y) где рх(х), pY(y) ~ плотности распределения вероятностей X и У соответственно. Известно, что в общем случае /(X:y) = sup/(<p(X):\|/(y)), (2) где верхняя грань берется по всем измеримым функциям <р() и \|/() с конечным числом значений. Часто используется также условное количество информации /(X:Yr|Z), определяемое для дискретных случайных величин X, У и Z равенством Pij]k I(X:Y\z) = ^krk^.pi)]k\og 202 ИНФОРМАЦИИ Pi\kcij\k где {pj\k}, {qj\k)> {Pij\ki СУТЬ соответственно условные распределения вероятностей X, У и пары (X, У) относительно Z, а {rk} - распределение вероятностей Z. Для /(X: Y\Z) справедливы утверждения, аналогичные (1) и (2). Из основных свойств И. к. выделяют следующие: 1) /(X: У) = КУ:Х)^0, причем равенство имеет место лишь в случае независимости X и У; 2) для дискретных случайных величин X и У справедливо равенство /(X: У) = Я(Х) + Ж У) - Я(Х, У) = = Я(Х) - Я(Х| У) = H(Y)- Я(У|Х), связывающее И. к. и энтропию, а в случае, когда пара X и У имеет абсолютно непрерывное распределение, справедливо аналогичное равенство /(Х:У) = ЮО + МУ)-МХ, У) = = MX) - МХ| У) = МУ) - МУ |Х), связывающее И. к. и дифференциальную энтропию] 3) справедлива формула «условной информации» ЖХ, Y):Z) = I(X:Z) + I(Y:Z\X) и формула «тройной информации» /((X, Z):Y) + I(X:Z) = I(X:(Z, У)) + I(Y:Z). В качестве примера явного вычисления И. к. ниже приведена формула для И. к. в гауссовском случае. Если X и У суть «-мерные гауссовские случайные величины, причем пара (X, У) также имеет гауссовское распределение, то где Dx, DY и DXY - определители корреляционных матриц величин (X, У) и пары (X, У) соответственно. В частности, в одномерном случае 7(Х:У)=--у1об(1-г2), где г - коэффициент корреляции X и У. Понятие И. к. играет существенную роль в теории информации. Лит.: [11 Галлагер Р., Теория информации и надежная снязь, пер. с англ., М., 1974; [21 Добру шин Р. Л., «Успехи матем. наук», 1959, т. 14, в. 6, с. 3-104; [31 Кол есн и к В. Д., Пол тырев Г. Ш., Курс теории информации, М., 1982; [4] Шеннон К., Математическая теория связи, в его кн.: Работы по теории информации и кибернегике, пер. с англ., М., 1963, с. 243-332. С. И. Гельфанд, В. В. Прелое. ИНФОРМАЦИИ СКОРОСТЬ ПЕРЕДАЧИ (rate of infor mation transmission) - величина, выражающая информации количество, содержащейся в сигнале на выходе канала связи относительно сигнала на входе канала в расчете на единицу времени. Скоростью передачи информации для канала, сигналами на входе и выходе к-рого служат случайные процессы У = {У(0, -оо<£<оо} И Y = {Y(t), -°°< t <00} соответственно, называется величина R= lim (T-t) T-t ->oo i[yJ:YJ} (*) где I(Yt:Yt) -количество информации между отрезками (t, T] процессов У и У. Существование предела (*) доказано, напр., для широкого класса каналов, сигналы на входе и выходе к-рых являются стационарными и стационарно связанными случайными процессами. В нек-рых случаях (напр., для гауссовских каналов) возможно явное вычисление И. с. и. Лит.: [11 Галлагер Р., Теория информации и надежная связь, пер. с англ., М., 1974; [21 Колесник В. Д., Полтырев Г Ш., Курс теории информации, М., 1982; [31 ПинскерМ.С, «Проблемы передачи информации», 1960, в. 7, с. 1-201. М. С. Пинскер, В. В. Прело».
ИНФОРМАЦИИ ТЕОРИЯ (information theory) - область прикладной математики, связанная с описанием, оценкой качества и оптимизацией методов передачи, хранения, обработки, извлечения и классификации информации. Термин «И. т.», возникший в 50-х гг. 20 в., не имеет единого общепринятого толкования, а при попытке логич. толкования приведенного определения И. т. в нее нужно было бы включать многие разделы науки, традиционно являющиеся самостоятельными, напр. всю математич. статистику. Ядром И. т. принято считать теорию оптимальной передачи информации, часто называемую в математич. литературе просто И. т., и такое толкование термина «И. т.» имеется в виду в дальнейшем. Возникновение И. т. связано с именем К. Шеннона (С. Shannon), предложившего в 1948 общее решение проблемы возможности передачи и хранения информации при заданном качестве с использованием оптимальных методов кодирования и декодирования. Задачи, связанные с передачей и хранением информации, по существу не отличаются друг от друга: хранение можно рассматривать как передачу информации, но не в пространстве, а во времени. Основные теоремы теории передачи информации первоначально носили характер теорем существования, в к-рых доказывалось существование методов кодирования и декодирования, но не указывались способы построения и практич. реализации таких методов. В дальнейшем получили широкое развитие направления И. т., посвященные построению конкретных и относительно простых алгоритмов кодирования и декодирования, приближающихся по своим характеристикам к оптимальным алгоритмам, существование к-рых было доказано ранее. В связи с этим возникло и получило развитие новое направление И. т. - теория кодирования, изучающая методы конкретного построения кодов, допускающих не слишком сложные и поэтому практически реализуемые методы кодирования и декодирования. Помимо статистич. методов решающее место в современной теории кодирования заняли комбинаторные методы, методы современной алгебры (теория групп, теория конечных полей, а затем и алгебраич. геометрия), и поэтому в основном теория кодирования лежит вне рамок тематики данной энциклопедии. В технич. литературе к И. т. относят всю совокупность исследований, посвященных выбору и преобразованию сигналов на входе и на выходе канала, в частности кодирование и декодирование в каналах связи рассматриваются в сочетании с модуляцией и демодуляцией сигналов. С современной точки зрения исследования этого направления можно трактовать как применение теории случайных процессов и статистики случайных процессов к задачам техники связи, причем здесь прикладная специфика этих задач не приводит к принципиально новым математич. постановкам, к-рые могли бы оправдать выделение этих исследований как особого раздела математики. Немалый интерес представляет подход к проблемам И. т., основанный на идеях теории алгоритмов и связанный с именем А. Н. Колмогорова [7]. Общую схему передачи информации, впервые рассмотренную К. Шенноном, можно представить следующим образом. Сообщений источник вырабатывает сообщения, подлежащие передаче по каналу к получателю (адресату). Обычно предполагается, что сообщение является случайной величиной X, определенной в нек-ром вероятностном пространстве (£1, .</, Р) со значениями из нек-рого измеримого пространства (зГ, Sj) и с распределением вероятностей р(). Напр., X = {X(t), a^t^b) - случайный процесс с дискретным или непрерывным временем, a X(t) принимает значения в нек-ром измеримом пространстве (:i , 5у>). В случае дискретного времени наборы Хп = (Х\, ..., Хп), принимающие значения в измеримом пространстве (Л*, Sгп), то есть в w-кратном произведении пространства (У* , 5,л), называют отрезками сообщений длины п на входе, а Xk, k=\, ..., п, называют компонентой сообщения, или просто сообщением, вырабатываемым источником в момент времени k. Аналогично определяются соответствующие понятия и в случае, когда сообщение - случайный процесс с непрерывным временем. Сообщение на выходе (воспроизводимое сообщение), получаемое адресатом,- это также случайная величина k, определенная на том же вероятностном пространстве (Q, у/, Р) и принимающая значения в измеримом пространстве (йГ, 5;). Если X является случайным процессом с дискретным или непрерывным временем, то аналогично сообщению на входе вводятся понятия его компонент со значениями в пространстве (9С , Sjo). Мерой качества передачи сообщения по каналу связи является сообщений точность воспроизведения. Как правило, когда передача ведется по каналу связи с помехами, даже если множества З'и .^'совпадают, нельзя добиться абсолютной точности, то есть полного совпадения посылаемого и воспроизводимого сообщений. В И. т. обычно требования, предъявляемые к точности, трактуют статистически, выделяя класс W допустимых совместных распределений для пары (X, X) из передаваемого и воспроизводимого сообщений в произведении измеримых пространств (jTx.-f, SjxSj). Класс W обычно задается при помощи измеримой неотрицательной m-мерной вектор-функции р(х, х), х е Ж, х е 9', и вектора е = (et, ..., £т) положительных чисел е , /=1, ..., т. Полагают, что распределение вероятностей пары (X, X) принадлежит W лишь тогда, когда Ер;(Х, Х)^е;,/=1, ..., т (1) (обычно считают т = 1). Таким образом, условие точности воспроизведения показывает, насколько воспроизводимые сообщения могут отличаться от переданных, в частности условие (1) указывает, что отличие не превосходит е. Сообщения, вырабатываемые источником, передаются по каналу связи (Q, V). Канал (Q, V) задается совокупностью двух измеримых пространств (f, S,), (S^, f), переходной функцией Q(y, А), уef, AeSz, измеримой относительно а-алгебры Sz при фиксированном А и являющейся вероятностной мерой на (f, Sz) при фиксированном у е у, и множеством V вероятностных мер в пространстве (f, 5J. Пространства (?/, SJ, {§, Sz) называются соответственно пространствами сигналов на входе и выходе канала; Q(y, А) задает условное распределение сигналов на выходе, при условии, что на вход канала поступил сигнал у, V задает ограничение на распределение сигнала на входе канала. Говорят, что две случайные величины У и У, определенные на вероятностном пространстве Ш, М, Р), связаны каналом (Q, V), если они принимают значения в пространствах (f, Sz) и (f, Sz) соответственно; для любого множества A eSz P{YeA\Y} = Q(Y, A) (2) с вероятностью 1 и распределение вероятностей У принадлежит V. Обычно V задается с помощью измеримой вектор-функции к(у) = (к^у), ..., яДг/)), г/е^, и вектора у=(у1, ..., у{); полагают, что распределение У принадлежит V лишь в случае, если Enj(Y)^yf,j=\, ..., /. (3) ИНФОРМАЦИИ 203
В случае дискретных каналов (множество у конечно) V, как правило, совпадает с совокупностью всевозможных распределений вероятностей, то есть какие-либо ограничения отсутствуют. С наглядной точки зрения f представляет собой совокупность передаваемых сигналов, a f- совокупность принимаемых сигналов (для широкого круга задач пространства у и f совпадают). Если задано распределение сигнала У на входе, то соотношение (2) позволяет найти распределение сигнала У на выходе. Введение ограничения V вызвано тем, что во многих случаях нельзя считать распределение входного сигнала произвольным (типичен, напр., случай, когда предполагается, что среднее значение квадрата входного сигнала не превосходит заданной константы, то есть задано ограничение на мощность или энергию входного сигнала). В приложениях особенно важен случай, когда сигналы на входе и выходе канала представляют собой случайные процессы Y = {Yit)}, Y = {Yit)} дискретного или непрерывного аргумента (с дискретным или непрерывным временем), определенные на нек-ром конечном или бесконечном интервале действительной оси и принимающие значения в измеримых пространствах (у, S,a>) и iy , S^) соответственно. Если Y=iYv ..., У„,...) и Y = (Yj, ..., У",...)-случайные последовательности, обладающие тем свойством, что при любом л=1, 2,... тройки У, Уп = (Уи ..., Yn), У" = (Уи ..., У„) образуют цепь Маркова, то соответствующий канал называется каналом без предвосхищения; с ним связывается естественным образом последовательность каналов (в указанном выше смысле), называемых отрезками первоначального канала. Их сигналами на входе и выходе служат случайные векторы Уп = (У), ..., У„) и Yn = (Yv ..., Yn) соответственно. Для того чтобы преобразовать сообщения на входе в сигнал, передаваемый по каналу связи, а сигнал, принятый на выходе канала,- в воспроизводимое сообщение, следует произвести кодирование и декодирование сообщений. Кодированием называют измеримую функцию f(x) от xeJCco значениями в у, а декодированием- функцию <р( г/), определенную на у, со значениями в d\ Множество значений функции fix), хе&\ часто называют кодом, а отдельные элементы кода - кодовыми словами [обычно fix) представляет собой последовательность символов нек-poro конечного множества - алфавита кода]. Использование кодирования fix) и декодирования <p(#) означает, что если источник выработал сообщение х е Ж, то по каналу передается сигнал у = fix); если на выходе канала принят сигнал у, то его декодируют в воспроизводимое сообщение х = <р(г/). В И. т. часто рассматривают случайное кодирование, когда кодовые слова выбираются в результате нек-рого статистич. эксперимента. Чаще всего это статистически независимый выбор с заданным распределением вероятностей. Сообщение с распределением вероятностей pi), вырабатываемое источником, может быть передано с точностью воспроизведения W по каналу iQ, V) с использованием кодирования /"(•) и декодирования <р(), если могут быть построены (существуют) случайные величины X, У, У, X, образующие цепь Маркова, такую, что X имеет распределение вероятностей pi), распределение вероятностей (X, X) принадлежит W, пара (У, У) связана каналом iQ, V) и Y = fiX), Х = ф(У). (4) В силу (4) предположение, что X, У, У, X образуют цепь Маркова, сводится к предположению, что условное распреде- 204 ИНФОРМАЦИИ ление У при заданных значениях X и У зависит лишь от У, то есть оно означает, что при передаче сигнал на выходе зависит лишь от сигнала на входе, а не от того, какое значение сообщения им закодировано. Основную проблему, изучаемую в И. т., можно сформулировать следующим образом. Предполагаются заданными источник, порождающий сообщения с распределением вероятностей pi), условия точности воспроизведения W, канал связи iQ, V). Задача состоит в том, чтобы установить, когда передача возможна, то есть при каких условиях существуют кодирование /"(•) и декодирование <р() такие, что сообщение, вырабатываемое источником, может быть передано с точностью воспроизведения W по каналу (Q, V). Решения этой задачи при различных предположениях на pi), W, iQ, V) называются теоремами кодирования, или Шеннона теоремой. Естественно, возникнет и другая проблема, как в случае, когда передача возможна: построить простым и эффективным образом кодирование и декодирование, осуществляющие эту передачу. К. Шеннон [151 ввел величины, позволяющие сформулировать ответ на первую из поставленных проблем. Главными среди них являются информации количество /(•:•), пропускная способность канала С = CiQ, V) = supIiYiY), где верхняя грань берется но всем парам случайных величин (У, У), связанных каналом iQ, V), и \У-энтропия Hwip) = 'mf IiXiX) [в случае условия (1) вводится е-энтропия Htip) = Hw(p)\, где нижняя грань берегся по всем парам (X, X) таким, что совместное распределение вероятностей нары (X, X) принадлежит W, pi •) - распределение вероятностей X. Справедлива следующая теорема Шеннона (обратная теорема Шеннона): если сообщение с распределением вероятностей pi-) может быть передано по каналу iQ, V) с условием точности W, то Hwip)^CiQ, V). (5) Достаточные условия для возможности передачи информации при выполнении условия (5) сложнее. Они верны лишь в нек-ром асимптотич. смысле, а главным является предположение о том, что Ям/(р)-><», так что условие (5) может стлгь необходимым и достаточным лишь, грубо говоря, применительно к задаче о передаче довольно большого количества информации. Остальные нужные предположения носят характер предположений регулярности (типа законов больших чисел), к-рые в конкретных случаях обычно выполняются. Для формулировки достаточных условий возможности передачи в точных терминах требуются нек-рые дополнительные понятия. Последовательность каналов {iQ*, V1), t-\, 2,...} с CiQt,Vt)<°° называется информационно-устойчивой, если существует информационно-устойчивая последовательность пар случайных величин (У', Yl), связанных каналом iQ*, V1), такая, что lim |(У?=1- Последовательность сообщений с распределением вероятностей //(•) и условиями точности Wt с Н^ipY <оо называется информационно-устойчивой, если существует последовательность пар (Xf, л ) такая, что X1 имеет распределение вероятностей //(•), распределение пары (X*, X*) принадлежит W1vl lim/(*';*;>-l. t-*°° Hwt(pl) Информационная устойчивость последовательности сообщений и каналов всегда имеет место в большом числе практиче-
ски интересных частных случаев, напр. информационно-устойчивы последовательности гауссовских каналов и гауссов- ских источников с C(Qf, V1) -><*>, Hw'(pf) -><*> при £-><*>. Пусть Vs - множество распределений вероятностей, для к-рого справедливо (3) с заменой у на у+8, а \У§ - условие точности, задаваемое (1), в к-ром е заменено на е + 8, 8>0. Имеет место теорема кодирования (теорема Шеннона): пусть заданы информационно-устойчивая последовательность сообщений с распределением вероятностей //(•) и условием точности W* и информационно-устойчивая последовательность каналов (Q1, V*) такие, что функции яЧ-) и рЧ-, •) равномерно ограничены по t, #uf(//) —>°° при t—>°° и t-*oo HWt(pl) тогда для любого 8>0 существует столь большое t{), что при всех t^tQ сообщение с распределением вероятностей //(•) может быть передано по каналу (Q*, V^) с точностью воспроизведения We*. Эта формулировка прямого утверждения теоремы кодирования является довольно общей. Предположение об ограниченности функций яЧ-) и рЧ-) может быть существенно ослаблено. Наконец, при нек-рых условиях в сформулированной теореме можно заменить W£* на W* и V/ на V*. Так, это имеет место в случае гауссовских источников и каналов. Для приложений наиболее интересными являются ситуации, когда последовательность каналов является последовательностью отрезков фиксированного канала, а последовательность сообщений - это последовательность отрезков сообщений фиксированного источника с растущим числом компонент (растущей длиной). Ниже для этой ситуации сформулированы вариант теоремы кодирования и ее обращение в несколько отличной от предыдущей форме. Пусть дискретный стационарный источник U вырабатывает сообщение X = {Xk, k= ..., -1,0, 1, ...} со скоростью передачи один символ в единицу времени, причем отдельные компоненты (символы Xk) принимают значения из нек-рого алфавита .''объема М. Компоненты сообщения X = {Xk, k= ..., -1, 0, 1,...}, получаемого адресатом, принимают значения из того же алфавита :*" (то есть Л' =Л' ). Пусть, далее, используется дискретный стационарный канал без памяти, передача по к-рому ведется со скоростью один символ в нек-рый интервал времени г. Ограничение на распределение сигнала на входе канала отсутствует. Пусть отрезок сообщения X =(Xt, ..., XL) длины L = L v передается по отрезку канала длины N = = [LL/x](\x] - целая часть числа х) с помощью нек-рых методов кодирования описанного выше типа (см. [4]). Если при этом XL = Xv ..., XL) - соответствующий отрезок сообщения, полученный адресатом, а Ре - средняя вероятность ошибки на букву источника, определяемая по формуле то справедлива следующая теорема. Обращение теоремы кодирования: пусть Н (U) - скорость создания сообщений данным дискретным стационарным источником и С - пропускная способность канала (на передаваемый символ); тогда при всех L справедливо неравенство Pe\og(M-\) + h(Pe)^H(U)-T^C, где h(x) = -jdog2*-(l -*)log2(l -x). Таким образом, если скорость создания сообщений Н (U) больше т~ С (пропускной способности канала на букву источника), то средняя вероятность ошибки на букву источника при любом L и для любых методов кодирования и декодирования ограничена снизу отличной от нуля константой и значит не стремится к нулю при L -> <*>. Для формулировки прямого утверждения теоремы удобно ввести величину _ log2 MLs' RN~ Jf—- В случае, когда LN/x - целое число, RN/x совпадает со скоростью создания сообщений Н (U) источником U с алфавитом Л/ и с независимыми и равномерно распределенными компонентами; кроме того, если М = 2, то RN = x- число двоичных символов, вырабатываемых источником за время передачи одного символа но каналу. Вероятность ошибки и средняя вероятность ошибки на блок источника определяются соответственно формулами рсх,, =Px,.{xL*xL}, Ре = I,/- ?{XL = *L)Pe, XL = P{XL *XL), где Pxl {} - условная вероятность при условии X =х е.$' . Справедлива следующая теорема кодирования: для всех N и любых R<C существует метод кодирования и декодирования такой, что при RN^R для всех х eJ' имеет место оценка PcxL^exp{-NE(R)} (оценка справедлива и для Ре), причем функция E(R) выпуклая, положительная и убывает с ростом R (см. Ошибочного декодирования вероятность). Таким образом, эта теорема устанавливает, что для всех R<C вероятность ошибки с ростом N стремится к нулю, и притом экспоненциально быстро. В условиях, указанных в этой теореме, справедлива усиленная обратная теорема кодирован и я: для всех R > С Ре -> 1 при N -> оо. В случае канала без шумов, то есть когда y=*j, Q(y, {у}) = 1 и С= log25, где S - мощность алфавита символов канала связи, теоремы кодирования переходят в теоремы кодирования источника сообщений. В реальных системах передачи информации кодирование и декодирование сочетаются е модуляцией и демодуляцией, то есть построением сигналов, рассматриваемых как кодовые символы на входе и выходе канала. Теоремы Шеннона обобщаются на каналы и сообщения с неизвестными параметрами. Интерес к подобным обобщениям вызван тем, что обычно на практике нельзя считать полностью известными статистич. параметры источника сообщений и канала связи, тем более что эти параметры могут меняться в процессе передачи. Поэтому приходится предполагать, что источник сообщений и канала связи принадлежат нек-рому классу возможных источников сообщений и каналов связи. При этом вводится минимаксный критерий качества передачи, качество данного метода передачи оценивается для наихудших возможных источников и каналов, принадлежащих рассматриваемому классу. Теоремы Шеннона распространяются также на сети источников и каналов, в частности источников и каналов с многими пользователями-терминалами. Напр., для источников с k+\ терминалами X , X , ..., f.(X J ) ставится задача раздельного кодирования Y3 = fAX}) каждого источника X } , /= 1, ..., k, так, чтобы по (У , ..., Y ) можно было воспроизвести источник X с заданной точностью. Среди каналов с многими пользователями-терминалами можно выделить каналы множественного доступа, Широкове- ИНФОРМАЦИИ 205
щательные каналы, каналы с обратной связью, каналы со случайными параметрами. Наличие полной обратной связи в обычной схеме передачи означает, что в момент времени t на входе канала считаются известными точные значения сигналов на выходе канала для всех моментов времени t'<t. В частности, для каналов без памяти с обратной связью основной результат состоит в том, что наличие обратной связи не увеличивает пропускную способность канала без памяти, хотя может существенно уменьшить сложность кодирующих и декодирующих устройств. Из других обобщений следует отметить передачу информации по каналам с ошибками синхронизации, в к-рых возникают случайные сбои синхронизации, в результате чего нарушается однозначность соответствия между сигналами на входе и выходе канала. Лит.: [1] Возенкрафт Дж., Джекобе И., Теоретические основы техники связи, пер. с англ., М., 1969; [2] Вольфовиц Дж., Теоремы кодирования теории информации, пер. с англ., М., 1967; 13j Галлагер Р., Теория информации и надежная связь, пер. с англ., М., 1974; [4] Добру тин Р. Л., «Успехи матем. наук», 1959, т. 14, в. 6, с. 3-104; [5] Колесник В. Д., Полтырев Г. Ш., Курс теории информации, М., 1982; [6] Колмогоров А. Н., в кн.: Теория информации и теория алгоритмов, М., 1987, с. 29-58; [7] его же, там же, с. 213-23; [8] Key papers in the development of information theory, N. Y., 1974; [9) Левин Б. Р., Теоретические основы статистической радиотехники, 2 изд., кн. 2, М., 1975; [10) Пинскер М.С., «Проблемы передачи информации», 1960, в. 7, с. 3-202; [11) Файн- стейн А., Основы теории информации, пер. с англ., М., 1960: (12) Фа но Р., Передача информации. Статистическая теория связи, пер. с англ., М., 1965; [13] Харкевич А. А., Борьба с помехами, 2 изд., М., 1965: [14] Чисар И., Кернер Я.. Теория информации. Теоремы кодирования для дискретных систем без памяти, пер. с англ., М., 1985; [15] Шеннон К., Работы но теории информации и кибернетике, пер. с англ., М., 1963, с. 243-332. Р. Л. Добрушин, М. С. Пинскер, В. В. Прелое. ИНФОРМАЦИОННАЯ МАТРИЦА (information matrix), информация по Фишеру,- матрица ковариаций информанта. Для доминированного семейства распределений вероятностей Р*(с1(й) с плотностями р((й; t), достаточно гладко зависящими от векторного (в частности, числового) параметра t = (tx, ..., tm)eQ, элементы И.м. при t = Q определяются как г Э1п р((о; t) Э1п рЫ\ t) Jo Ve> = dt- Ыь р((й\ 6)ф, (О где;', k=\,...,m. При скалярном параметре t И. м. описывается единственным числом - дисперсией информанта. И.м. /(в) определяет неотрицательную дифференциальную квадратичную форму X,iJkVe)<V* = Ae- (2) снабжающую семейство {Р*} римановой метрикой. Когда пространство Q исходов со конечно, Др = Х; (.dpjf/pf, Pj = Р(со;), со, е ii. Дифференциальная квадратичная форма Фишера (2) является единственной (с точностью до постоянного множителя) дифференциальной квадратичной формой, инвариантной относительно категории статистич. решающих правил. Ввиду этого она возникает в формулировке многих статистич. закономерностей. Любое измеримое отображение f пространства £1 исходов порождает новое гладкое семейство распределений Q' = Р'/^с И.м. /мв). При этом И.м. монотонно не возрастает: 206 ИНФОРМАЦИОННАЯ каковы бы ни были zx, ..., zm. И.м. обладает также свойством аддитивности. Если / (6) -И.м. для семейства с плотностью рг(со'; t), то для семейства р(со(1), ...,co(N);0 = n^^>r°^) будет /^(в) = £./Г,)(в). В частности, /N(6) = NI(Q) при N независимых одинаково распределенных испытаниях. И.м. позволяет охарактеризовать точность решающих правил в задаче оценки параметра закона распределения. Для дисперсии любой несмещенной оценки т(со) = т(со , ...,со ) скалярного параметра t справедливо Dex^ [М(в)] . Аналогичное матричное неравенство информации выполняется для оценок векторного параметра. Его скалярное следствие Eel"»., [т/(а>)" fyM*) - е*|/д(е) > «лг1 (3) показывает, что несмещенное оценивание нигде не может быть слишком точным. Для произвольных оценок последнее неверно. Однако остаются ограничения, напр., на среднюю точность M0,Ee<x-e|/(e)|x-e>^mN"1 + o(N"1), (4) где усреднение М левой части (3) проведено по инвариантному объему V любой компактной подобласти 0' <z 0 </У(6) = Vdet/(в) dQx ... dQm; остаточный член зависит от размеров 0'. Неравенства (4) асимптотически точны, и асимптотически оптимальной в этом смысле оказывается оценка максимума правдоподобия. В точках вырождения det /(в) = 0 совместная оценка параметров затруднена; если det/(0) = O в нек-рой области, то совместная оценка вообще невозможна. Таким образом, следуя Р. Фишеру [1], с известной осторожностью можно сказать, что И.м. описывает среднее количество информации о параметрах закона распределения, содержащееся в случайной выборке. Лит.: [1| Fisher R.A., «Proc. Cambr. Phil. Soc», 1925, v. 22, p. 700-25; [2) Барра Ж.-Р., Основные понятия математической статистики, пер. с франц., М., 1974; [3] Ченцов Н. Н., Статистические решающие правила и оптимальные выводы, М., 1972. Я. Я. Ченцов. ИНФОРМАЦИОННАЯ МАТРИЦА (information matrix) регрессионного эксперимента- матрица М = Ф \УФ для регрессионного эксперимента г/ = Ф6 + е, уек, eeR , в е №р, Ее = 0, cove= W~\ обратная к cov 9 (если det М*0), где 0 - наилучшая линейная несмещенная оценка для в. Ставится задача максимизации И. м. в подходящем смысле (см., напр., Регрессионных экспериментов планирование, Последовательное планирование эксперимента). м. Б. Малютов. ИНФОРМАЦИОННАЯ МЕРА (information measure) - мера информативности случайного события или случайной величины. В зависимости от конкретной ситуации можно использовать различные И. м. Общая схема, по к-рой вводится И. м. в дискретном случае, состоит в том, что каждому элементарному случайному событию А приписывается его информативность 1(A), то есть количественное выражение той информации, к-рую получают, узнав о том, что событие действительно наступило, и затем эти величины 1(A) каким-либо образом усредняются. При этом в основе теоретико-информационного понятия И.м. лежит предположение о том, что 1(A) зависит лишь от вероятности Р(А) = р наступления события Afil(A) = f(p). Функция f(p) должна удовлетворять естественным требованиям положительности lf(p) ^ 0 при 0 ^ р ^ 1: не существует отрицательной информации] и монотонности [f(p) убывает: менее вероятное событие более информативно]. И.м. дискретной случайной величины X, принимающей конечное число значений хх, ..., хп
с вероятностями рх, ..., рп, определяется путем нек-рого усреднения величин /С4,), где А{ - событие, состоящее в том, что Х = х{. Наиболее обычна в теории информации И. м. X - это шенноновская энтропия #(Х) = - \ рг log2 pit равная ма- тематич. ожиданию величины f(p) = - log2 p. Различные обобщения этой энтропии приводят к ряду других И. м. Так, в статистич. задачах оценивания неизвестного распределения вероятностей по конечной выборке часто встречается /"-расходимость: V(P||Q) = £.<7,/W<7,>- здесь Р = (/?,, ..., /;„), Q = («7i» •••» Яп) - два распределения вероятностей, fit) - произвольная выпуклая функция. При f(t) = Hog t получают так наз. расходимость Куль6а- ка - Лейб л ера, при f(t) = (t-\)2 имеют ^-расходимость, при f(t)=\t- \\ - расстояние по вариации между двумя распределениями вероятностей. Беря вместо математич. ожидания другие усреднения, можно получить энтропию Реньи порядка аф 1: ИМ pJ = ^g2{^jPf) (обычно считают, что Нх= Н - энтропия Шеннона). При а = 0 энтропия Реньи #<М» ->Pn> = lo&2N(P\> ->Рп>> где M/?j, ..., рп) - число ненулевых величин среди р]у ..., рп. Иногда Я0 называют энтропией Хартли. Энтропия Репьи порядка а появляется в теории кодирования источников сообщений, если в качестве характеристики кода рассматривать среднее значение а-й степени длины кодового слова. В качестве дальнейших обобщений можно упомянуть также энтропию порядка а и типа |$: я(^«.Р)=^[1,(,гГ)/<а-0-1] а>0, р>0, а*р, а*1, Р*1. Большинство рассматриваемых И. м. могут быть определены и для непрерывных распределений. Так, роль шенноновской энтропии играет дифференциальная энтропия, а /"-расходимость //-(P||Q) определяется формулой If{Р||Q) = j qlx)f(p(x)/q(x))diL(x), где р(х), q(x) - плотности распределений Р и Q по мере |1 (определение не зависит от выбора |i). Лит.: [1] Acze] J., Daroczy Z., On measures of information and their characterizations, N. Y., 1975; [2] Csiszar I., «Trans. 7th Prague Conf. Inform. Theory, Statist. Decis. Funct., Random Process. Eur. Meet. Statist., 1974», 1978, v. B, p. 73-86. С. И. Гельфанд, В. В. Прелое. ИНФОРМАЦИОННАЯ МЕТРИКА риманова (Riemann information metric) - см. Риманова информационная метрика. ИНФОРМАЦИОННАЯ ПЛОТНОСТЬ (information den sity) - см. Информационная устойчивость. ИНФОРМАЦИОННАЯ ПОСЛЕДОВАТЕЛЬНОСТЬ (information sequence) - см. Сверточный код. ИНФОРМАЦИОННАЯ УСТОЙЧИВОСТЬ (information stability) - теоретико-информационный аналог закона больших чисел. Последовательность пар случайных величин (Z", Z") с 0<I(Zn:Zn)<°° называется информационно-устойчивой, если для произвольного 8 > О здесь I(Zn:Zn) - количество информации, iz». £«(•:•)- информационная плотность, то есть г^и.^и (•:•) = = log az>i. 2n (•; ), где aznzn ^'» '^ ~ производная Радона - Никодима вероятностной меры Pz". %" пары (Zn, Zn) относительно произведения мер Р?п х Р^п случайных величин Z" nZn. Наличие И. у. установлено в достаточно общих ситуациях. Напр., информационно-устойчива последовательность пар отрезков (Z", Z") = ((Z1, Zt), ..., (Z„, Zn)) стационарной эрго- дич. пары процессов (Z, Z) = {(Z., Z;), j = 1, 2,...} с конечным числом состояний. Условие I(Zn:Zn) -><*> является необходимым и достаточным для И. у., если пары (Z", Zn) гауссовские. В случае когда Zn = Zn, I(Zn:Zn) = H(Zn) - энтропия случайной величины Z", энтропийная устойчивость переходит в свойство асимптотич. равнораспределенности: для произвольных 8, х>0 существует п0(8, х) такое, что при всех п>п0 (8,х) -\ogP(Zn) H(Zn)\ >8 к limP *z'1, z" ^ :Zn) l(Z":Zn) -1 <8 }-' Пусть задан источник сообщений Un, вырабатывающий сообщение Хп со значениями в измеримом пространстве (Jt'n, Sjn), с распределениями вероятностей Px"()=/J„(')» (у}' п, Sjn) - измеримое пространство значений воспроизводимого сообщения. Пусть, далее, Не (X") есть е,г-энтропия (см. Эпсилон-энтропия) сообщения X". Условие точности задается неравенством Ерп(Хп,Хп)^еп, е„^0, (*) где неотрицательная измеримая функция pn(xr\ xn), xneJn, хпеЛ'п,- мера искажения. Последовательность источников Un называется информационно-устойчивой, если существует информационно-устойчивая последовательность пар случайных величин (X", X") с Рхп (•) =рп(), удовлетворяющая (*) и такая, что Нт/(*"^>=1. п->оо Н^(Хп) Пусть задан канал связи (Qn,Vn) с измеримыми пространствами (fn, S#n) и (f ", Szti) сигналов на входе и выходе, переходной функцией Q(yn, А), у efn, A eSzn, и множеством Vn распределений вероятностей на входе (f", Sf/n), и пусть C(QP, Vn) - пропускная способность канала (Q", V"). Случайные величины У"иУ" связаны каналом, если для любого множества А е Sjm имеет место равенство P{YneA\Yn} = Q(Yn, А) почти наверное. Последовательность каналов (Qn, Ап) называется информационно-устойчивой, если существует информационно-устойчивая последовательность пар случайных величин (Уя, У"), связанных каналом, такая, что lim /(У"^> =1. „_,„о C(Qn,Vn) И. у. имеет место для широкого класса последовательностей источников и каналов, сообщения и сигналы к-рых являются отрезками случайных процессов. ИНФОРМАЦИОННАЯ 207
Если е-энтропия сообщения меньше пропускной способности канала, то И. у. источников и каналов является достаточным условием (в асимптотич. смысле) возможности передачи сообщений по каналу. Лит.: [1] Вольфовиц Дж., Теоремы кодирования теории информации, пер. с англ., М., 1967; [21 Добру шин Р. Л., «Успехи матем. наук», 1959, т. 14, в. 6, г. 3-104; [3] Пинскер М.С., «Проблемы передачи информации», 1960, в. 7, с. 1-201; [4] Файн- стейн А., Основы теории информации, пер. с англ., М., 1960. М. С. Пинскер. ИНФОРМАЦИОННОЕ КОЛИЧЕСТВО непараметри- чес кое (non-parametric Fisher information) - см. Непараметрическое оценивание. ИНФОРМАЦИОННОЕ РАССТОЯНИЕ (information distance) - величина /(P,Q), характеризующая «непохожесть» случайных явлений, описываемых распределениями вероятностей Р и Q с одним и тем же пространством элементарных исходов Ш,л), и определенная для всех таких пар. И. р. может рассматриваться как специальный случай вероятностного расстояния. Простейшими примерами И. р. являются такие вероятностные метрики, как полной вариации метрика 5(Р, Q) = jj^ | Р(г/со) - QWa>)j (1) и расстояние Рао - Бхаттачарья в информационной римановой метрике Фишера 5(P,Q) = 2arccos J VP (<ico) Q (da>) . (2) Наиболее интересны И. р., связанные с мерами информативности эксперимента в задаче различения Р и Q по независимым наблюдениям (см. Статистических гипотез проверка). В любой конкретной задаче статистик, обработав материалы наблюдений, должен сделать выводы о наблюденном случайном явлении. Эти выводы не будут, вообще говоря, совершенно точными, поскольку исходы наблюдений случайны. Интуитивно понятно, что каждая выборка несет какое-то количество полезной информации, причем: А) при обработке информация может только теряться, Б) информация, доставляемая независимыми источниками, напр. независимыми выборками, суммируется. Таким образом, если ввести информативность эксперимента как среднее количество информации в наблюдении, то для информативности выполнены аксиомы А) и Б). И хотя понятие информации остается интуитивным, иногда можно указать величину У, удовлетворяющую аксиомам А) и Б), к-рая описывает асимптотику средней точности выводов в задаче статистич. решения при росте числа наблюдений и к-рую потому естественно принять за информативность. Информативность может быть как числовой, так и матричной величиной. Важный пример - информационная матрица Фишера в задаче оценки параметра закона распределения, задающая сферич. метрич. тензор римановой метрики (2). Согласно теории Неймана - Пирсона, вся полезная информация о различии распределений вероятностей Р и Q на общем пространстве £1 исходов со с алгеброй событий ^содержится в отношении правдоподобия или его логарифме /(со) = In -^ (со), (3) определенном с точностью до значений на множестве исходов вероятности нуль. Математич. ожидание величины в WP:Q)=f PW»)-J f^ln^lQ(rfo) (4) Jo Jo lQ(d(d) Q(£/a))J 208 ИНФОРМАЦИОННОЕ (здесь принимается, что 01п0 = 0) называется средней информацией различения в пользу Р против Q, а также относительной энтропией, Кульбака - Лейб- лера информационным количеством, информационным уклонением Кульбака - Лейблера - Санова. Неотрицательная (хотя, быть может, бесконечная) величина 7(P:Q) удовлетворяет аксиомам А) и Б). Она характеризует точность одностороннего различения Р от Q, определяя максимальный порядок убывания вероятности PN ошибки 2-го рода (то есть ошибочного принятия гипотезы Р, когда она неверна), при росте числа N независимых наблюдений: lnpiV~-N/(P:Q) при любом фиксированном уровне значимости - вероятности а^ ошибки 1-го рода, 0<a0^aN^ax < 1. Аналогичная величина /(Q: Р) определяет максимальный порядок убывания aN при 0<60^Pn^^i < 1- Отношение «сходства», в частности «сходства» случайных явлений, вообще говоря, несимметрично, и, как правило, /(P:Q) */(Q:P). Естественная симметричная характеристика непохожести Р и Q возникает при их минимаксном тестировании. Для оптимального теста In aN = ln|JN~ -NIpQ, /pQ = -In min J [Р(гУсо)]а [CKrfco)](1-a) = = minmax{/(R:P), /(R:Q)}. R Одним из следствий аксиомы А) является неравенство У(Р,0)^У(РП,ОП), (5) где П - любое статистич. решающее правило, применимое к исходам со из (Q, .</). Оно показывает, что информационное количество J, удовлетворяющее аксиоме А), является монотонным инвариантом относительно статистических решаю щих правил категории. Полную систему таких инвариантов пары {Р, Q} задают вариации \i4z) = sup (Р](Л) - zQ(A) : A е .с/, U~G) = -1пНР]04)-гСКЛ)Мб.е/, полностью задающие при 0^г^°° случайную величину /(со) из формулы (3), с распределением Р (или Q) исходов. Все остальные монотонные инварианты, включая (1) и (2), а также информационные дивергенции Чисара (см. [3]), могут быть выражены через \1*(г) и ц~(г) = \i (г) + г- 1, напр.: I(P:Q)=fQ iL(-\z)z-]dz + j~ iii+\z)z-'dz. Всякое И. р. У порождает равномерную структуру и наделяет каждую совокупность сарШ, .«■/) всех вероятностных мер на (Q, ic/) соответствующей равномерной топологией Ту. Если J удовлетворяет соотношению (5), то эта топология мажорирует топологию та, порожденную расстоянием но вариации (1). В частности, если X - монотонная информационная метрика, то Х(Р, Q) >-±- X(RQ 5,Д0 2s)6(P> О), о ' ' * где Rq - распределение вероятностей на двухатомном пространстве е = {et, е2}, Яв(е!) = в, tfe(e2) = l-6, O^CKl. Согласно аксиоме Б), ортогональные информативности складываются как квадраты длин катетов. Ни сами И. р., ни их квадраты подобной аддитивностью не обладают. Выполнение аксиомы Б) для относительной энтропии (4) позволяет интерпретировать /(P:Q) как несимметричный аналог половины квадрата расстояния от Q до Р. Такая геометрич. интерпретация оказалась естественной в ряде вопросов статистики. В частности, в теории экспоненциальных семейств распреде-
лсний для относительной энтропии устанавливается несимметричный вариант теоремы Пифагора: 7(R:P) = /(R:Q) + /(Q:P) при «несимметричной» ортогональности: Г /(со)[Шсо) + 0(^со)1 = hi = Г [In P(rfco) - In QUco)|[RWo>) - Q(rfco)l = 0. hi Сходное свойство было обнаружено в [4] для ряда других информационных количеств, возникающих в теории эквива- риантных линейных связностей совокупностей cap(Q, .</). Для неограниченно сближающихся Р и Q главная часть инвариантного информационного количества У(Р, Q), гладкого на диагонали P = Q, задается с точностью до постоянного множителя с(У) квадратичной формой Фишера. Для относительной энтропии с(1) = 0,5. Лит.: [1] Кульбак С, Теория информации и статистика, пер. с англ., М., 1967; [2J Чепцов Н.Н., Статистические решающие правила и оптимальные выводы, М., 1972; [3| Чисар И., Кернер Я., Теория информации, пер. с англ., М., 1985; [41 Amari Shun-ichi, Differential-Geometrical methods in statistics, В., 1985; [5] Moro- zova E.A., Cencov N.N., в кн.: Probability theory and mathematical statistics, v. 2 (Vilnius, 1985), Utrecht, 1987, p. 287-310. H. H. Ченцов. ИНФОРМАЦИОННОЕ УКЛОНЕНИЕ Куль бака - Л ей 6 л ера - Санова (Kullback - Leibler - Sanov infor- mation) - см. Относительная энтропия. ИНФОРМАЦИОННЫЙ КОЭФФИЦИЕНТ КОРРЕЛЯЦИИ (informational correlation coefficient) - мера зависимости между двумя случайными величинами X и У, определяемая как функция от величины информации количества в одной случайной величине относительно другой: R(X, Y) = Vl-e2'<A':V), где /(X: У) - количество информации. Свойства И. к. к. R(X, У) как меры зависимости полностью определяются свойствами величины I(X:Y), к-рая сама служит характеристикой зависимости случайных величин X и У. Однако использование И. к. к. R в качестве самостоятельной меры зависимости как информационного аналога обычного коэффициента корреляции р оправдано тем, что для произвольных случайных величин И. к. к. R имеет преимущество перед р, так как в силу свойств количества информации /? = 0 тогда и только тогда, когда X и У независимы. Если X и У имеют совместное нормальное распределение, то эти два коэффициента совпадают, так как в этом случае / = - 2" 1п(1 - р ). Практич. исследование зависимости с помощью И. к. к. равносильно анализу количества информации в таблицах типа таблиц сопряженности признаков. Выборочным аналогом R служит коэффициент R=v\ - е~ , вычисляемый через информационную статистику где п - число наблюдений, s и t - числа классов группировки но двум признакам, п1} - число наблюдений в классе (t, /), Таким образом, вопрос о распределении выборочного И. к. к. сводится к вопросу о распределении выборочной информации. Анализ выборочной информации как меры зависимости затрудняется тем, что / сильно зависит от группировки наблюдений. Лит.: [11 Lin foot Е., «Information and Control», 1957, v. 1, № 1, p. 85-89; [21 Кульбак С, Теория информации и статистика, пер. с iiiivi., М., 1967. А. В. Прохоров. ИНФОРМАЦИЯ (information) - см. Информации теория. ИНФОРМАЦИЯ априорная (prior information) - см. Априорная информация в статистических задачах. ИОНЕСКУ ТУЛЧИ ТЕОРЕМА (Ionescu Tulcea theorem) - теорема, лежащая в основе построения вероятностной меры в счетном произведении измеримых пространств по набору условных распределений. Пусть (£„, Лп) - произвольные измеримые пространства, рп(х0, Х\, ..., dxn+{) - вероятности перехода (переходная функция, стохастич. ядро) из (Е0хЕ1х...хЕи,.^0:.«/1х...х.г/я) в (Ея+1, .с/я+1), п = 0, 1, 2,... И. Т. т., доказанная в [1], утверждает существование для каждого х е Е0 единственной вероятностной меры Р (х, б/со) на бесконечном произведении (Q, s/) = (EQxE\ x ..., .r/0x.r/j x ...), такой, что при каждом п ее проекция на Е0х ... х Еп совпадает с мерой \хЫх0)р0(х0, dx^p^XQ, хх, rfx2).../Vi(*o> ri> •••> -V-i> dxn>- Мера P(x, dm) ^-измерима по х. И.Т.т. используют для построения меры в пространстве траекторий случайного процесса с дискретным временем £ = 0, 1, 2,... как марковского, так и с произвольной зависимостью от прошлого, в частности управляемого случайного процесса с дискретным временем при заданной стратегии. Если проинтегрировать Р(х, б/со) по вероятностной мере \i(dx) на Е0, то получится мера процесса с начальным распределением |i и данным набором переходных вероятностей. Лит.: [\ ] Ionescu Tulcea С. Т., «Atti Acad. Naz. Lincei Rend.», 1949, v. 7, p. 208-11; 121 Неве Ж., Математические основы теории вероятностей, пер. с франц., М., 1969. А. А. Юшкевич. ИРДЖИНЫ ПРОЦЕСС (Jirina process) - марковский процесс с множеством состояний [0, °°), у к-рого семейство переходных операторов за время t > 0 удовлетворяет условию ветвления, то есть образует однопараметрическую полугруппу относительно операции свертки (параметром является исходное состояние, принадлежащее аддитивной полугруппе неотрицательных чисел). Этот процесс, введенный М. Ирд- жиной [1], является предельным для обычных ветвящихся процессов в нек-рых схемах серий. Дальнейшими обобщениями в этом направлении являются ветвящиеся случайные процессы со значениями в пространстве мер на заданном пространстве. Лит.: [11 Jirina M., «Чехосл. матем. ж.», 1958, т. 8, № 2, с. 292-313. A.M. Зубков. ИРРЕГУЛЯРНАЯ ТОЧКА (irregular point) - см. Регулярная точка для множества, Предельные теоремы для отношений, отвечающих марковскому процессу. ИСКАЖЕНИЯ МЕРА (distortion measure) - см. Информационная устойчивость, Сообщений источник. ИСКЛЮЧЕНИЯ МЕТОД (exclusion method) - см. Включения и исключения метод, Моделирование случайных величин и функций. ИСПРАВЛЯЮЩИЙ ОШИБКИ КОД (error correcting code) - см. Код. ИСПЫТАНИЕ (trial) - один из основных терминов классической теории вероятностей. При аксиоматич. подходе определяется как любое разбиение пространства элементарных событий на попарно непересекающиеся события, к-рые называются «исходами испытания», а элементы порождаемой ими а-алгебры - «событиями, связанными с данными испытаниями». Термин «И.» употребляется в основном в сочетаниях «повторные И.», «независимые И.», «И., связанные в цепь Маркова». Ю. В. Прохоров. ИСПЫТАНИЕ 209
ИСТОЧНИК СООБЩЕНИЙ (source) - см. Сообщений источник. ИСТОЧНИКОВ И КАНАЛОВ СЕТИ (source channel net works) - понятие, используемое при математич. описании систем передачи информации, реализующих обслуживание многих абонентов. Один из вариантов описания И. и к. с. включает многокомпонентный источник сообщений U с М компонентами, множество кодирующих устройств Ех, ..., Ек> множество декодирующих устройств Dx, ..., Dj и многокомпонентный канал с К входами и L выходами, соединяющий кодирующие и декодирующие устройства. Для каждого из кодирующих устройств Ek, \^k^K, задано подмножество Ak<z{\, ..., М) (компоненты источника U, кодирующие устройство Ek). Для каждого из декодирующих устройств D., 1^У^У, заданы подмножества Б.с{1, ..., М) (компоненты источника U, к-рые должны восстанавливаться данным устройством Dj) и С.<={1, ..., L} (выходы сети каналов, к-рые наблюдает данное устройство Dj). Многокомпонентный канал (дискретный, стационарный, без памяти) с К входами и L выходами задается К входными алфавитами 2ft, ...,$fc; L выходными алфавитами ijx, ..., j/L (все fk, yt являются конечными множествами) и набором переходных вероятностей р($\> •••> УЛУ\>~"Ук>> У1*§1 Для 1^/^£, Ук*1/к Для X^k^K (вероятность получить на выходах символы ух, ..., yL при входных символах ух, ..., уК). Пусть для любого N переходные вероятности р \ух, ..., yi\y\, ..., Ук)> У[€?/1 , Ук^Ук (?/l » У к СУТЬ ^"е Декартовы степени соответствующих пространств), заданы формулой p(N)(yv • ••, yL\y\> •>#*) = = ГГ, Р(У*п> •••» hn\y\n> •••> Укп>> <*> ■■■ л-п=\ гдеу/ = (ул, .... УiN) *§"> Ук<Ук\> •••> Ук^^Ук- Код с параметрами (Л^, N2) для И. и к. с. задается набором К кодирующих функций ф£, 1 ^ k ^ /С, и У декодирующих функций \|/;-, 1 ^У^У. Кодирующая функция ф^ для устройства Ek - это отображение где П означает декартово произведение, j*^ - алфавит т-й компоненты источника U. Декодирующая функция у. - это отображение Набор функций ф^, \|/у вместе с переходными вероятностями (1) и вероятностями р (хх, ...,xm) источника задают совместное распределение вероятностей случайных величин Х%\ \^т^М; Y^2, \^k^K; у/Ч 1^/^L; X^, \^f^J, meBj \Xm\ X -m| принимают значения в jfw '; Yk 2; - в fk 2; У/ 2 - в ^/ 2), по формуле р(Л^Ц,..., xM)pN2(yv...,yj \ ух,...,ук),если _ J ер* (*,„ ,meAk) = yk для всех fc; \|/;(^, / eCj) = (Xjm, me Bj ) для всех ;'; [О в противном случае. 210 ИСТОЧНИК Вероятность ошибки Рг(ф, \|/) И. и к. с. при использовании кодирующих функций ф= {ф/j}, у = {у,} определяется формулой Ре=\- P{Xjm = хт для всех у, X^j^J для всех теВ}). Говорят, что замедление в достижимо для данной И. и к. с, если при любом е>0 существует код (ф, у) с параметрами (Nx, N2) для этой И. и к. с. такой, что N2^(Q + e)Nx и Ре(ф, у) <е. Одна из основных задач теории кодирования для И. и к. с- вычислить нижнюю грань 0 достижимых замедлений. В настоящее время эта задача далека от своего решения. Нек-рые известные результаты приведены в ст. Широковещательный канал, Интерференционный канал, Множественного доступа канал, Кодирование источника с дополнительной информацией. Частными случаями задачи о кодировании для И. и к. с. являются задачи кодирования для многокомпонентного источника сообщений и для многокомпонентного канала. В первом случае считается, что отдельные компоненты многокомпонентного канала независимы, то есть К- L, и переходные вероятности имеют вид р(у\,.... yL[y\> •••' уО^р^уАу^'-р^уЛуО* (2) где рх, ..., pL - переходные вероятности дискретных стационарных каналов без памяти. Пусть Rx, ..., RL - пропускные способности этих каналов. Говорят, что набор R = (RX, ..., Rj ) является достижимым для многокомпонентного источника U со схемой кодирования, задаваемой кодирующими устройствами Е[ и декодирующими устройствами D/ (то есть подмножествами Л/, В[, С/), если замедление 6=1 достижимо для данной И. и к. с. Из теоремы Шеннона следует, что для канала вида (2) достижимость данного значения в зависит лишь от R, а не от конкретного набора переходных вероятностей рх, ..., pL. Множество всех достижимых наборов R = (RX, ..., RL) называется областью допустимых скоростей кодирования & для многокомпонентного источника U при данной схеме кодирования. В случае M-L-X (один источник, один канал) получают обычную теорему кодирования для источника: & = {R^H(X)}, где Н(Х) - энтропия случайной величины X. При/С = 1 = 2, /=1, Л,={1}, Л2 = {2}, tf,=C,= = {1,2} получают теорему .#={(#,, Д2), RX>H(XX\X2), R2>H(X2\XX), RX+R27*H(XX,X2)} (см. также Кодирование источника с дополнительной информацией). Аналогично, рассматривая источник с независимыми компонентами, для к-рого р(хх, ..., хм) = р(хх)...рм(хм), полагают Rm-H{Xm), где Хт - случайная величина, задаваемая распределением вероятностей рт (то есть энтропия т-й компоненты источника U). Говорят, что набор R = (RX, ..., RM) является достижимым для сети каналов, задаваемой переходными вероятностями р(ух, ..., у^\у\, ..., у к) приданной схеме кодирования, если замедление 6=1 достижимо для данной И. и к. с. Снова из теоремы Шеннона вытекает, что эта достижимость зависит лишь от R, а не от распределений вероятностей рх, ...,рм. Область всех достижимых наборов R = :=(R\, ..., Rm), Rw^0, называется областью пропускной способности ^ данной сети каналов. Для одноком- понентного канала связи получают Л={0^/?^С}, где С- пропускная способность канала с переходными вероятностями р(у | у). Другие результаты см. в ст. Широковещательный канал, Множественного доступа канал, Интерференционный канал. Можно рассматривать несколько более сложные И. и к. с. Так, иногда в сеть вводят промежуточные устройства и допол-
нительные каналы, цель к-рых - помочь передавать информацию от источника к получателю (так наз. сети сретранс- ля горами). В И. и к. с. можно вводить обратную связь (от декодирующих устройств D. к кодирующим устройствам Ek), а также различные тины связи между кодирующими устройствами (так наз. кодирование с подглядыванием). В качестве критерия сообщений точности воспроизведения можно рассматривать не вероятность ошибки, а среднее искажение (но нек-рой векторной мере искажения). Можно включить в систему каналы, по к-рым информация может передаваться в нескольких направлениях (так наз. многосторонние каналы). Наконец, можно рассматривать И. и к. с. с непрерывным алфавитом и с непрерывным временем (особый интерес здесь представляют гауссовские источники и каналы). Лит,:\\\ Колесник В. Д., Полтырев Г. Ш., Курс теории информации, М., 1982; [2] Чисар И., Кернер Я., Теория информации, пер. с англ., М., 1985. С. И. Гельфанд. ИТО ПРЕДСТАВЛЕНИЕ (Ito representation) - представление стохастически непрерывного почти наверное непрерывного справа случайного процесса с независимыми приращениями Х(/), t^O, со значениями в IRr/ в виде Х(0 = ХМ) + Г Г , x{\i - vXdt, dx) + с JO J\x\<\ ^ + f' f x\i(dt,dx), (•) где Xc(0 - непрерывный гауссовский процесс с независимыми приращениями, независимый от пуассоновской меры ц((0, dt, dx) на (IR+ х |Rrf, .Л (В?+ х В?'')), построенной по скачкам процесса X(t): U<0), A) = ^Q I(AX(t)*0) Kit, AX(t))eA), AX(t) = X(t) - X(t - 0), vU) = Euico, A). Исследование структуры процесса с независимыми приращениями с помощью меры скачков |i было предложено К. Ито [11; им впервые было получено представление, близкое к представлению (*). Лит.: 11] Ito К., «Japan. J. Math.», 1942, v. 18, № 2, p. 261-301; [2] Гихман И.И., С к о pox од А. В., Введение в теорию случайных процессов, 2 изд., М., 1977. л. А. Гущин. ИТО ПРОЦЕСС (Ito process) - случайный процесс вида Х, = Х0 + /0 a(s' ^^Jo fe(s' ^dws> *el°' ГЬ (*> где w - винеровский процесс, согласованный с нек-рым потоком а-алгебр fc =(.-/t), а и Ь - согласованные с It процессы такие, что а(-, со) е L ([0, Г]), Ы-, со) е L ([0, Т]) при почти всех со. При этом винеровский процесс считается согласованным с потоком Ik, если помимо того, что при всех t е [0, Т] величина w(t) является ./^-измеримой, выполняется условие независимости приращений w(s + h)-w(s) при /г>0, 5б[0, Т -h] от а-алгебры y/s. При этом условии второй интеграл в правой части равенства (*) - стохастический интеграл Ито. Лит.: [11 Липце рР. ILL, III и ря ев А. П., Статистика случайных процессов, М., 1974. Ю.М. Кабанов. ИТО СТОХАСТИЧЕСКИЙ ИНТЕГРАЛ (Ito stochastic integral) - см. Стохастический интеграл. ИТО ФОРМУЛА (Ito formula), формула замены переменных,- представление случайного процесса (f(Xt))t^Q, где (Xt)t^Q - семимартингал, траектории к-рого непрерывны справа, имеют пределы слева, feC (II?1), в виде f(Xt) = f{X0) +1 Г (X, )dXs + i £ f'{X,_)d(Xc, Xе )s + +IS «, № > - Л**- > - f'U*- **, - x,- »• Последняя сумма справа содержит не более счетного числа слагаемых, и ряд абсолютно сходится с вероятностью 1, интеграл по dX является стохастич. интегралом по семимартин- галу X, интеграл по d{Xl, Xе) есть интеграл Лебега - Стилть- еса по процессу {Xе, Xе). Процесс (Xе, Xе) - возрастающий процесс из разложения Дуба - Майера для субмартингала те , где те - непрерывная составляющая мартингала т из разложения семимартингала Х = т + А, А - процесс ограниченной вариации. В случае, когда X - винеровский процесс (тогда (Xе, Xe)t = t), формулу доказал К. Ито (см. [1]). Лит.: [lj Ито К., «Математика», 1959, т. 3, № 5, с. 131-41; [2] Del lac her ie C, Meyer P. A., Probabilites et potentiel, pt. 2, ch. 5-8. Theorie des martingales, P., 1980. Л. И. Гальчук. ИТО ~ ВЕНТЦЕЛЯ ФОРМУЛА (Ito - Wentzel formula) - формула для вычисления стохастического дифференциала семимартингала, зависящего от параметра, при подстановке в него другого семимартингала. Пусть fit, x) - семимартингал, допускающий стохастич. дифференциал df(t, x) = J(t, x)dt + H(t, x)dw(t), где w(t) - винеровский процесс относительно семейства а-алгебр {.-/J, a J(t, x) и Hit, x) - случайные (измеримые) функции, согласованные с этим семейством. Пусть, далее, t,(t) - семимартингал, допускающий стохастич. дифференциал (относительно {.^}): dZ,(t) = b(t)dt + oti)dw(t). Тогда при естественных предположениях о гладкости f, J и Я справедлива формула df(t,#t)) = Jit,ZtUy)dt + + {X/ н^> $(0)^,(о+х. ь{и)^-ги, ф))+ +^.lGU(t)^-Hl(t,^t))}dt + +J^tlcuU)£ №,#№*>,№. Эта формула является обобщением Ито формулы. Лит.:\\\ Вснтцел ь А. Д., «Теория вероятн. и ее примен.», 1965, т. 10, в. 2, с. 390-93; [2] Розовский Б. Л., Эволюционные стохастические системы, М., 1938, с. 208. Б. Л. Розовский. ИТО ~ НИСИО ТЕОРЕМА (Ito - Nishio theorem) - см. Случайный процесс; регулярность траектории. ИЕИТСА ПОПРАВКА (Yates correction) - поправка на непрерывность, предназначенная для уточнения хи-квадрат аппроксимации с одной степенью свободы. Первым такого типа поправку рассмотрел Ф. Йейтс в [1] в связи со следующей задачей (см. [2], с. 482). Пусть N элементов, среди к-рых имеется ровно М, обладающих признаком А, случайным образом разбиваются на две группы из п и N-n элементов соответственно. Результаты этого разбиения принято представлять в виде так наз. таблицы 2x2, где т обозначает количество элементов, обладающих признаком Л в 1-й группе. 1-я группа 2-я группа всего с признаком т М-т М без признака п-т N -п-М + т N-M всего п N-n N Спрашивается, как по данным таблицы 2x2 можно проверить гипотезу Я0, согласно крой разбиение на две группы действительно осуществлено случайным образом без учета наличия ИТО 211
или отсутствия у элементов данного признака А? Очевидно, что при справедливости гипотезы Я0 число т можно трактовать как реализацию случайной величины X, подчиняющейся гипергеометрич. распределению: Р{Х = т\Н0} = _\cmcn-m/cn> если max(0, M + n-N)^т^ттШ, я), I 0 в остальных случаях; при этом EX = nM/N, DX = NM(N-n)(N-M)/ST2(N-\), а сама гипотеза Я0 в терминах X задается равенством Е(Х/я- (М- X)/(N -п)) = 0. Если N велико и ни одна из величин я, М, N -я, N - М не слишком мала (ОХ>д), то при справедливости Я0 статистика У = (X - EX) /DX приближенно распределена по закону хи-квадрат с одной степенью свободы, то есть Р{У2>дг|»о).Р{х,2>*} -Р,Ы, чем и пользуются на практике для проверки гипотезы Я0. При малых N рекомендуется вместо У вычислять статистику y2 = (|y|-i/2VDX)2 (1) и руководствоваться правилом: если Р1(У])с)^а, то гипотеза случайности отвергается, если же Pt(y2)>a, то следует считать, что наблюденное значение гипотезе случайности не противоречит (а - уровень значимости критерия, 0<а<0,5). В формуле (1) вычитаемое 1/2 VDX и есть поправка Йейт- са на непрерывность аппроксимирующей функции распределения Р^(х). Для я = 3( 1 )20 и N-п = 2(\)п существуют таблицы точных критич. значений для М- X (точный критерий Фишера), к-рыми можно воспользоваться для проверки гипотезы случайности при малых значениях N (см. [3], [4]). Если же N^21, то критич. области приближенных односторонних критериев задаются неравенствами (с очевидными поправками на непрерывность): (Х- EX)/VDX>0~4l -a) + l/2>/DX", (Х-ЕХ)/>Л5хЧ-Ф~1(1 -а)- 1/2 VDZ, где Ф(х) - функция распределения стандартного нормального закона, и, следовательно, критич. область приближенного двустороннего критерия с уровнем значимости а задаегся неравенством y2 = (X-EX)2/DX^(0H(l-a/2) + l/2>/DX")2. (2) Таким образом, приближенные формулы для критич. значений точного критерия Фишера приводят к результату, к-рый отличается от тех выводов, к-рые записаны в виде формулы (1). Действительно, согласно (1) статистика У* распределена приближенно как Xi» а согласно (2) статистика У распределена приближенно по закону хи-квадрат с одной степенью свободы и параметром нецентральности (1/4) DX. Если DX -> ©о, то распределения статистик У и У 2 становя гея асимптотически эквивалентными. Лит.: [1] Yates F., «J. Roy. Statist. Soc.», 1934, Suppl. 1, p. 217-35; [21 Крамер Г., Математические методы статистики, пер. с англ., 2 изд., М., 1975; 13] Бол ьшев Л. Н., Смирнов Н. В., Таблицы математической статистики, 3 изд., М., 1983; [41 Оуэн Д. Б., Сборник статистических таблиц, пер. с англ., М., 1966; [51 G г; п - wood P.E., NikulinM.S., A Guide to Chi-squard testing, N.Y., 1996. M.C. Никулин.
КАЛИБРОВОЧНАЯ МОДЕЛЬ статистической механики (gauge model of statistical mechanics) - решетчатая модель квантового евклидова калибровочного поля, изучение к-рого редуцируется к построению и изучению подходящего гиббсовского статистического ансамбля. Конфигурацией решетчатого калибровочного поля с компактной группой калибровок G называется функция д = {дх}, определенная на множестве (ориентированных) ребер х d-мерной решетки Ж!, принимающая значения в группе G и удовлетворяющая условию д-х = дх'\ где (-х) - ребро Ж , противоположное по ориентации ребру х. Для любого конечного множества ребер Л «действие ноля» S^(g) в Л определяется формулой где суммирование происходит по двумерным (ориентированным) граням р решетки Ж! , граница к-рых принадлежит Л, 9» ~ ГТ 9х> произведение берется в порядке какого-либо обхода грани р, a f - функция на G, постоянная на классах сопряженных элементов G и такая, что fig) = fig ). С помощью действия (*) вводится конечное распределение Гиббса (ХЛ в пространстве Q. конфигураций поля по формуле фЛ/ф°=у-ехр{-5Л(^)}, где </ц° = Y[ dxx - произведение (по всем неориентированным ребрам) счетного числа экземпляров нормированной меры Хаара х на G (распределения независимого калибровочного поли), 2Л - нормировочный множитель. Предельное распределение Гиббса |i= lim (хЛ и задает калибровочное поле с действием (*) (поле Янга-Миллса; см. [1]). Функцию f в (*) чаще всего выбирают в виде где ха ~ характер какого-либо «простейшего» неприводимого представления группы G, е - константа взаимодействия (действие Вильсона; см. [2]). Подобным образом вводят и исследуют более общие калибровочные модели, описывающие взаимодействие калибровочного поля с «полем материи» <р= {фх, х е Ж }, где фх принимает значения из какого-либо пространства М, в к-ром действует представление д -+U' группы G (модель X и г г с а; см. [ 1 ]). Калибровочное поле Янга - Миллса (а также поля в моделях Хиггса) инвариантно относительно группы калибровочных преобразований ^-►Y^iW1^)' x={xvx2} (и ф.г->w (v) <pr для «поля материи» в моделях Хиггса), где у={уг, хеЖ } - произвольная функция на решетке Ж со значениями в G. Из-за наличия столь богатой группы симметрии в калибровочных моделях возникает ряд специфич. явлений, позволяющих объяснить многие физич. эффекты квантовой теории поля (удержание, «конфайнмент» кварков, спонтанное возникновение массивного бозона, монополь Дирака и т.д.). Лит.: [1] Зайлер Э., Калибровочные теории, пер. с англ., М., 1985; [21 Wilson К., «Phys. Rev.», D., 1974, v. 10, № 8, p. 2445-59; [31 Osterwalder K., Seiler E., «Ann. Phys.», 1978, v. 110, № 2, p. 440-71. P. А. Минлос. КАЛМАНА ФИЛЬТР (Kalman filter) - алгоритм для вычисления оптимальной в среднеквадратичном смысле оценки Kt(Y) для Xt - гауссовского диффузионного процесса Х = = (Xt\}zO> определяемого стохастическим уравнением Ито dXt = a(t)Xtdt + b(t)dwt относительно винеровского процесса w- (wt\>0 по наблюдениям Ys, O^s^t. При этом процесс У=(У;)^о Допускает дифференциал Ито (относительно независимого от w винеровского процесса w =(wt)t^Q) dYt = A(t)Xtdt + B(t)dwt и является гауссовским совместно с X, при условии f [\a(s)\+A2(s)]ds<oof t>0, inf£2(O>0; задается с помощью уравнений Р A(f) dnAY) = a{t)%t(Y)dt + -±^P—[dYt - A(t)nt(Y)dt], (1) ^ = 2ait)Pt,b4t)-^. (2) dt l B2(t) Уравнения (1) и (2) решаются при начальных условиях Р -cov(X у) соу2(Х0,У0) P0-cov(X0,X0) соу(Уо>У()) , (3) где -у = 0. При этом Pt = Е(Х, - щ( У))2. Если процессы X и У определяются теми же соотношениями с некоррелированными процессами w, w, являющимися вине- ровскими процессами в широком смысле, и случайные величины Х0, У0 имеют второй момент и не коррелированы w, w, то уравнения (1) и (2) с начальными условиями (3) определяют лишь линейную оптимальную в среднеквадратичном смысле оценку nt(Y) и среднеквадратичную ошибку оценивания Pt. См. также Линейный фильтр. Лит.:[\] КалманР. Е., Бьюс и Р. С, «Технич. механика», сер. Д, 1961, № 1, с. 123-41; [2] Липцер Р.Ш., Ширяев А. Н., Статистика случайных процессов, М., 1974. Р. Ш. Липцер. КАЛМАНА ~ БЬЮСИ МЕТОД (Kalman - Bucy method) - см. Случайный процесс; фильтрация. КАЛМАНА 213
КАНАЛ асимметричный (asymmetric channel) - см. Широковещательный канал. КАНАЛ асинхронный (asynchronous channel) - см. Множественного доступа канал. КАНАЛ без памяти (memoryless channel) - канал связи, для к-рого статистические свойства сигнала на выходе в любой фиксированный момент времени определяются только сигналом на входе, переданным в этот момент времени. Точнее, К. связи с дискретным временем, сигналами на входе и выходе к-рого служат случайные последовательности У = (Yt, У2, ...) и Y =(Y]t У2, ...) (У$ и У., i,j = l, 2, ..., принимают значения из конечных множеств у и у соответственно), называется каналом без памяти, если имеют место равенства P{?i=U У,-Уп\У\=У\ Y„ = yn} = = P{Yx=y,\Yx=yx)...P{Yn = yn\Yn = yn) для любого п и любых y{€f, У{^% i = 1, •••» п. Название «без памяти» подчеркивает тот факт, что при очередной передаче К. как бы не помнит результатов предыдущих передач. К. без памяти называется стационарным (или однородным), если условные вероятности Р{Уг-ух;|У,■ = уг) не зависят от i. Стационарный К. без памяти с конечными или счетными множествами у и у полностью задается матрицей переходных вероятностей ЫУ>уЦ>уе& уеу, rzeqiy, y) = P{Yi = y\Yi = y}1 г = 1,2, ... Лит.: [1] Галлагер Р., Теория информации и надежная связь, пер. с англ., М., 1974; [2] Шеннон К., Работы по теории информации и кибернетике, пер. с англ., М., 1963, с. 243-332. В. В. Прелое. КАНАЛ без предвосхищения (non-anticipating channel) - см. Информации теория. КАНАЛ гауссовский (Gaussian channel) - см. Гауссов- ский канал. КАНАЛ двоичный симметричный (binary symmetric channel) - см. Двоичный симметричный канал. КАНАЛ детерминированный (deterministic channel) - см. Детерминированный канал. КАНАЛ интерференционный (interference channel) - см. Интерференционный канал. КАНАЛ многокомпонентный (multiterminal channel) - см. Многокомпонентный канал. КАНАЛ многосторонний (multi-way channel) - см. Многосторонний канал. КАНАЛ множественного доступа (multiple access channel) - см. Множественного доступа канал. КАНАЛ однородный (homogeneous channel) - см. Канал без памяти. КАНАЛ полудетерминированный (semideterministic channel) - см. Широковещательный канал. КАНАЛ; пропускная способность (channel capacity) - см. Пропускная способность канала. КАНАЛ с аддитивным шумом (channel with additive noise) - канал связи, в к-ром на передаваемый сигнал налагается независимая аддитивная помеха. В случае К. с аддитивным шумом сигнал на выходе К. имеет вид У = Y + Z, где У - сигнал на входе К., a Z - не зависящая от У случайная величина (или случайный процесс), называемый аддитив- 214 КАНАЛ ным шумом. Особенно часто рассматривают К. с аддитивным шумом, в к-рых Z имеет нормальное распределение (или Z является гауссовским процессом). Аналогично определяется широковещательный К. с аддитивным шумом и К. с аддитивным шумом множественного доступа. Напр., К. с аддитивным шумом множественного доступа (имеющий два входа) определяется равенством У = У1 + У2 + £, где У,, У2 - сигналы на первом и втором входах К. соответственно, aZ - не зависящий от У1( и У2 аддитивный шум. Лит.: [11 Галлагер Р., Теория информации и надежная связь, пер. с англ., М., 1974; [2] Ко л есн и к В. Д., Пол ты рев Г. III., Курс теории информации, М., 1982. М. С. Пинскер, В. В. Прелое. КАНАЛ с конечной памятью (finite-memory channel) - канал связи, для к-рого статистические свойства сигналов на выходе на интервале времени [t, t + x] при любых г и т>0 зависят лишь от сигналов на входе в интервале времени (t-m, t + x], при этом события, разделенные интервалом времени длиной по крайней мере т, условно независимы (при заданных значениях сигналов на входе). Ниже дан пример строгого определения стационарного К. с конечной памятью в случае К. с дискретным временем, сигналами на входе и выходе к-рого служат случайные последовательности У = (..., y1f У0, У,, ...) и У = (..., У,, У0, Yv ...), компоненты к-рых принимают значения в конечных множествах у и у соответственно. Такой К. называется каналом с конечной памятью, если выполняются следующие два условия. 1) Существует фиксированное положительное число т такое, ЧТО ДЛЯ ЛЮбых yv ..., yt+n_\ €?/ И При ЛЮ6ЫХ у'; = у((:1?/, i = t-m, ..., t + n-\, имеет место P{Yt = yt, ..., У<+„_1 = = yt+n-l\Yk = yk, * = ..., -1, 0, 1, ...} = P{Yt = y, У,+„_,= = yt+n-\\Yk = y'k, *=..., -1,0, 1,...}. 2) Для любых yv ..., jjjtf/ и yk, ..., yne$ таких, что j + m<k, справедливо соотношение P{Yi = y Yf = yf; Yk = yk Y„ = yn\Y, = yh /=..., -1, 0, 1, ...} = = P{Yi = yi Yj = gj\Y, = y„ /=..., -1,0, 1, ...}x хР{У* = У* Y„ = yn\Yi = yi, /=..., -1,0,1...} при всех У/tf, /=.., -1, 0, 1, ... Наименьшее т, для к-рого данный К. удовлетворяет этим двум условиям, называется величиной (длительностью) памяти канала, К. с нулевой памятью (т = 0) есть просто канал без памяти. Лит.: 11] Вольфовиц Дж., Теоремы кодирования теории информации, пер. с англ., М., 1967; [21 Файнстсйн А., Основы теории информации, пер. с англ., М., 1960; [31 Хинчин А. Я., «Успехи матем. наук», 1956, т. 11, в. 1, с. 17-75. С. И. Гельфанд, В. В. Прелое. КАНАЛ с конечным числом состояний (channel with finite number of states) - канал связи, для к-рого статистические свойства сигнала на выходе в момент времени t определяются сигналом на входе в этот момент времени и состоянием канала в предыдущий момент времени, причем множество возможных состояний канала конечно. Можно также определить К. с конечным числом состояний как К., заданный конечным вероятностным автоматом. Ниже приведено строгое определение однородного канала с конечным числом состоянийс дискретным временем и конечными пространствами у и у значений компонент сигналов на входе и выходе соответственно. Пусть заданы функция q(y, s'; у, s"), yey, y^y, s', s" e.</; где if- конечное множество, называемое множеством состоя-
ний К., и распределение вероятностей {ps , sQe!f}. Наглядно, функция q(y, s'; у, s") определяет условную вероятность того, что в момент времени k на выходе К. с конечным числом состояний появится сигнал у и К. перейдет в состояние s" при условии, что передавался сигнал у и в предыдущий момент времени (k-\) К. находился в состоянии s'. Распределение {ps , sQ g У) трактуют как распределение вероятностей начального состояния К. (то есть состояния К. в начальный момент времени 0). Пусть функция Qn(yn, sQ; yn, sn) определяется рекуррентным образом с помощью равенств ОЛЛ*ь; у ",*„) = Qx(yt s0; y, S\) = q(y, s0; у, s,), где £" = <£i. ■чУп>'УП~{ = (<У\' ->Уп-\)>У(е?/> у{е?/, t=1, ..., и; 5Ле^, /г = 0, 1, ..., и. Пусть То-да переходная функция Qn(yn, yn) = P{Yn = yn\Yn = yn} отрезка длины п К. с конечным числом состояний при любом и, по определению, равна здесь У" = (Ур ..., Yn) и Уя = (7t, ..., Yn) - отрезки длины п сигналов на входе и выходе К. Лит.: [1] Галлагер Р., Теория информации, нер. с англ., М., 1974; [21 Вольфониц Дж., Теоремы кодирования теории информации, пер. с англ., М., 1967. С. И. Гельфанд, В. В. Прелое. КАНАЛ с нулевой ошибкой (zero-error channel) - см. Пропускная способность канала. КАНАЛ с обратной связью (channel with feedback) - канал связи, на входе к-рого в любой момент времени известна нек-рая информация о сигналах, полученных на его выходе до этого момента времени; эта информация может быть использована для выбора очередного сигнала, подлежащего передаче по каналу. Для К. без памяти пропускная способность К. с обратной связью совладает с пропускной способностью этого же К. при отсутствии обратной связи. В общем случае наличие обратной связи может увеличить пропускную способность К. Для нек-рых многосторонних К. наличие обратной связи может увеличить область пропускной способности даже при отсутствии памяти. Наличие обратной связи позволяет значительно упростить построение высокоэффективных алгоритмов кодирования и декодирования. Лит.: [11 Шеннон К., Работы по теории информации и кибернетике, пер. с англ., М., 1963, с. 464-87; [2] Турин Дж., Лекции о цифровой связи, пер. с англ., М., 1972. в. В. Прелое. КАНАЛ с ошибками синхронизации (channel with synchronization errors) - канал связи, в к-ром нарушается правильное чередование сигналов на входе и выходе канала. Для К. связи с дискретным временем к ошибкам синхронизации относят вставки, выпадения и перестановки символов. Говорят, что в последовательности (y]t ..., уп), поступившей на вход К. связи, при передаче i-ro символа произошло его выпадение (вставка символа а), если на выходе К. связи получена последовательность (#t, ..., уп>), где п =п-с и с = 1, У; = У) при У < i и jj:_c = yj при j> i (соответственно, с = -1 и у{ = а, ум = у{). Одной из простейших является модель К. с ошибками синхронизации, в к-ром в моменты времени £(£ = 0, 1, ...) независимо с вероятностями р, р_ и р+ разыгрывается одно из трех событий относительно символа yv подлежащего передаче: правильная передача символа; его выпадение; вставка символа а с вероятностью р(а), при этом символ у{ подлежит передаче в момент t + 1. Более сложные модели К. с ошибками синхронизации содержат случайный выбор подлежащего передаче элемента (что соответствует перестановкам символов), а также искажения передаваемого символа. В силу ряда причин К. с ошибками синхронизации мало изучены, в частности по причине сложности вычисления переходных функций уже для простейших К. с ошибками синхронизации (однако теорема Шеннона доказана для произвольных К. с ошибками синхронизации без памяти; см. [6], [7]). Относительно кодов для К. с ошибками синхронизации также известны лишь отдельные результаты. Так, предложена метрика, позволяющая через соответствующее кодовое расстояние определять способность блокового кода исправлять многократные вставки и выпадения, и построены асимптотически оптимальные двоичные коды, исправляющие одиночные вставки или выпадения (см. [2]). К., в к-ром приемнику не известен момент начала передачи сообщения, также принято относить к К. с ошибками синхронизации, рассматривая ошибочное определение начала сообщения (то есть сдвиг синхронизации) как результат серии вставок или выпадений. Известны блоковые коды, к-рые в К. со сдвигом синхронизации способны восстанавливать синхронизацию кодовых слов и исправлять в них t ошибок (см. [3]). Эти коды асимптотически оптимальны по избыточности при я->оо и t = const. Другой метод восстановления синхронизации состоит в передаче перед сообщением специальной последовательности с «хорошей» апериодич. автокорреляционной функцией (см. [4]). Как математич. модель К. с ошибками синхронизации находит применение в различных областях науки и техники: в технике связи, в информатике (при работе оператора ЭВМ наиболее распространенными ошибками являются вставки, выпадения и перестановки соседних символов), в сетях ЭВМ, где при передаче сообщения, разбитого на пакеты, возможны потери пакетов, обгоны и появление «чужих» пакетов, при распознавании речи и др. Лит.: [1] Стиффлер Дж. Дж., Теория синхронной связи, пер. с англ., М., 1975; [2] Левенштейн В. И., «Докл. АН СССР», 1965, т. 163, № 4, с. 845-48; [31 его же, «Проблемы передачи информации», 1969, т. 5, № 2, с. 3-13; [41 Barker R. H., Group synchronizing of binary digital systems in communication theory, Butterworth, 1953; [5] МизинИ.А., Богатырев В. А., Кулешов А. П., Сети коммутации пакетов, М., 1986; [61 Добру шин Р. Л., «Проблемы передачи информации», 1967, т. 3, № 4, с. 18-36; [71 Стамблер С.З., там же, 1970, т. 6, № 3, с. 43-49. г. А. Кабатянский. КАНАЛ связи (communication channel) - теоретико-информационный термин, используемый при математическом описании реального канала связи, то есть совокупности технических устройств, обеспечивающих передачу сообщений от передатчика к приемнику по физической линии связи, и среды, в к-рой распространяются сигналы от передатчика к приемнику. К. связи является одним из основных составных частей систем передачи информации, рассматриваемых в теории передачи информации (см. Информации теория). К. связи с одним передатчиком и одним приемником, используемый для передачи информации в одном направлении (от передатчика к приемнику), задается совокупностью двух измеримых пространств (.#; S^), (,#; 5j) (то есть пространств сигналов, передаваемых и принимаемых приемником соответ- КАНАЛ 215
ственно), переходной функцией Q(x, A), xeJ\ AgSj., измеримой относительно а-алгебры Sf при фиксированном А и являющейся вероятностной мерой на (JT, S j) при фиксированном хеХ [функция Q(x, А) задает условное распределение сигнала, получаемого приемником при условии, что передатчик передал сигнал х], и подмножеством V в пространстве всех вероятностных мер в пространстве (.9*, S j) (V задает ограничение на распределение сигнала, передаваемого передатчиком). Говорят, что две случайные величины X и X, определенные на нек-ром вероятностном пространстве (Q, .<У, Р), связаны К. (Q, V), если они принимают значения в пространствах (.-*; Sj) и (J\ Sx) соответственно, и для любого AeS^ почти наверное условная вероятность Р{.ТеА\Х = х} = Q(x, A) и распределение X принадлежит V. В приложениях часто рассматривают К. связи, для к-рых {,>)', Sj) и (.#', Sj) являются пространствами измеримых функций, определенных на отрезке [а, Ь] и принимающих значения в нек-рых измеримых пространствах (#, SJ и (f, Sx) соответственно, с а-алгеброй, порожденной измеримыми цилиндрич. множествами. В этом случае вводят обозначения (.#; S,) = (*[«, ft], S,/yb), (.#" 5,) = (у [в, ft], S-nab) и говорят о К. связи с непрерывным временем на отрезке [а, Ь], для к-рого Y = {Y(t), te[a, b]} и Y = {Y(t), te [a, b]} - случайные процессы со значениями в пространствах (f, SJ и (f, SJ соответственно; значения Y(t) и Y(t) трактуются тогда как переданный и полученный сигнал в момент времени t. Аналогично, в случае дискретного времени сигналами на входе и выходе К. связи служат случайные векторы Ykn=(Yk, Yk+„ ..., Yn) и Y£ = (Yk, Yk+„ ..., Yn), компоненты к-рых принимают значения в измеримых пространствах (#, S,) и ($, St) соответственно; при этом У; и Yj трактуются как переданный и полученный сигналы в момент времени jx, где т = const - промежуток времени между двумя последовательными передачами сигналов по К. связи. Часто рассматривают также К. связи с непрерывным или дискретным временем t на полубесконечном или бесконечном в обе стороны интервале. Напр., под К. связи (Q, V) с непрерывным временем на полубесконечном интервале [0, °°) подразумевают обычно совокупность описанных выше К. связи (Q\o, т\> У|0, л)» заданных на всех конечных интервалах [О, Т] и удовлетворяющих нек-рым условиям согласованности. Каждый К. связи (Qm, т\> ^(0, Т]) называют в этом случае отрезком [0, Т] К. связи (Q, V). Пусть г/[о, г] ~ произвольная функция из f[Q, T]; пусть #|0 rj = (#[o,.s-j> У\з,т\) Для нек-рого s, 0<s<T, где #[o,s]GjKO» s], y[s,T]G#(s> T\. Один из возможных вариантов условий согласованности, наложенных на переходные функции Q|0 Г], состоит в требовании, чтобы для любого конечного отрезка [0, Т], любых s, 0<s<T, множества An cie5,7 и функции #[0 rj = (#[о,.ф y[s, ту выполнялось равенство Q\Q,T]lly\Q,s]> У\з,Т}>> A[Q,s\*#(s> ТП = О\0,*]1У[0,*\> A[Q,s\>> где Л|0<s]*f (s, T] - цилиндрич. множество в пространстве %[0, Т], порожденное множеством A^Qs^ из пространства у[0, s]. Ограничения Vjo.rj» 0<Т<<*>, накладываемые на вероятностные меры в пространствах (%[0, Т], S^ ), также должны удовлетворять нек-рым условиям согласованности. Аналогично вводятся понятия К. связи (Q, V) с непрерывным временем на бесконечном в обе стороны интервале 216 КАНАЛ (-оо, оо). Условия согласованности, необходимые при задании такого К. связи, формулируются обычно специально для каждого типа этого К. связи. Иногда в конкретных ситуациях понятие К. связи на бесконечных интервалах [0, °°) или (-оо, оо) вводится и непосредственно (без рассмотрения конечных отрезков этих каналов) с помощью явного описания преобразования, совершаемого над входным сигналом К. связи при получении сигнала на выходе К. связи (см., напр., Гауссовский канал, Канал с аддитивным шумом). Все сказанное о К. связи (Q, V) с непрерывным временем на интервалах [0, ©о) или (-оо, оо) сохраняет силу и для аналогичных К. связи с дискретным временем. К. связи делятся на различные классы в зависимости от типов условных распределений Q и ограничений V (см., напр., Канал без памяти, Канал с конечной памятью, Канал с конечным числом состояний, Гауссовский канал, Симметричный канал). Основной характеристикой К. связи является пропускная способность канала, к-рая характеризуется максимально возможной скоростью передачи информации но этому К. связи (см. Информации скорость передачи). Возможны различные обобщения приведенного выше определения К. связи, соответствующие более общим и сложным системам передачи информации (см., напр., Канал с обратной связью, Многокомпонентный канал, Многосторонний канал). Лит.: [1] Вольфов и ц Дж., Теоремы кодирования теории информации, пер. с англ., М., 1967; [2] Галл a rep P., Теория информации и надежная связь, пер. с англ., М., 1974; [3] Добру - шин Р. Л., «Успехи матем. наук», 1959, т. 14, в. 6, с. 3-104; [4] Колесник В. Д., Полтырев Г. Ш., Курс теории информации, М., 1982; [5] Фа и неге и и А., Основы теории информации, пер. с англ., М., 1960; [6J Фа но Р., Передача информации. Статистическая теория связи, пер. с англ., М., 1965; [7] Ч исар И., Кернер Я., Тегрия информации, пер. с англ., М., 1985; [8] Шеннон К., Работь по теории информации и кибернетике, нер. с англ., 1963, с. 243-332. Р. Л. Добру шин, В. В. Прелое. КАНАЛ связи квантовый (quantum communication channel) - см. Квантовый канал связи. КАНАЛ; сеть (network of channel) - см. Источников и каналов сети. КАНАЛ симметричный (symmetric channel) - см. Симметричный канал. КАНАЛ синхронный (synchronous channel) - см. Мно жественного доступа канал. КАНАЛ стационарный (stationary channel) - см. Капал без памяти. КАНАЛ ухудшенный (degraded channel) - см. Широковещательный канал. КАНАЛ широковещательный (broadcast channel) - см. Широковещательный канал. КАНОНИЧЕСКАЯ ВЕЛИЧИНА (canonical variable) - см. Канонических корреляций анализ. КАНОНИЧЕСКАЯ И НАТУРАЛЬНАЯ ПАРАМЕТРИЗАЦИЯ (canonical and mean-value parametrization) экспонентного семейства распределений вероятностей - определенные с точностью до аффинного преобразования две его параметризации, связанные между собой преобразованием Лежандра. Доминированное мерой \1 семейство у распределений вероятностей {Ps, se Domycz IP"} на измеримом пространстве (£1, ^/) исходов со называется экспонентным с каноническим параметром s и направляющими статистиками ^(со), ..., t/„(co), если семейство плотностей dPs/d\i представимо в канонич. виде: р(со; s) = р0(ы) exp [s'^Xco) - T(s)J, (1)
где но совпадающему верхнему и нижнему индексам предпо- ла1ается суммирование, Ч/СО - логарифм нормирующего делителя 44.s) = In J p0((o) exp \slqi(v))\\i{d(i)}, (2) и Dorn у состоит из всех знамений .«fed?", при к-рых интеграл в (2) конечен. Множество Dom у обязательно выпукло, так как выпукла (аналитическая) функция Ч/СО (см. [1)), хотя может быть dim Dom у<п и даже Dom у=0. Семейство (1) невырождено, когда dim Domу= и и статистики 1(со) = 1, q\((o), .... qn((o) линейно независимы mod|i, так чго соответствие между плотностью и канонич. параметром взаимно однозначно. На- т у ральным параметром^, связанным с представлением (1). называется вектор t = (t]t ..., tn)(s): • tjM= \n qj{(o)PG{d<o} = (d/dsJms)\s = G. (3) По строгой выпуклости 4/(s) соответствие между s и t взаимно однозначно в IntDoniy. Статистич, смысл натуральной параметризации вскрывается следующей теоремой: если параметр t = (t]t ..., tn) гладкого семейства распределений-вероятностей Р,{-} допускает эффективную оценку г/((о), то семейство является экспонентным (2) с канонич. направляющей статистикой <7(<о) = (^(ю), ..., <7„(о))), a t - отвечающая <7(ш) по (3) его натуральная параметризация (см. [2], [3]). Наиболее проста стандартная запись плотностей, когда Ое Dom у, чего всегда можно добиться сдвигом канонич. параметризации s -> s' = s - о: p(<u;s)=p(<o; 0)ехр[б^(а), 0) - /(Р0: PS)], (4) где логарифм нормирующего делителя совпадает с относите чъной энтропией Р0 относительно Ps, a qt((u; 0) = = (d/ds1)\np((a; s)|s = o отличаются от исходных qt((x)) на постоянное слагаемое. Если натуральная параметризация t экспонентного семейства сопряжена стандартной канонич. параметризации, то переход от переменных s , ..., sn и выпуклой функции э СО = /(P0: P) к переменным t\, ..., tn и функции /(Р:Р0), где Р = Р^ Р$(*>» будет преобразованием Лежандра sktk = /(Р0: Р) + /(Р: Р0), tk~=(d/dshl(P0:P), sk = = {d/dtk)I(P:P0). Экспонентные семейства являются вполне геодезич. многообразиями в нек-рой избранной аффинной связности на совокупностях распределений вероятностей. Она эквивариантна относительно категории статистич. решающих правил, а также относительно перехода к условным распределениям. При этом канонич. параметризация является геодезической. К. и н. п. совпадают только у семейств нормальных распределений с фиксированной ковариационной матрицей и параметром - вектором средних. Более широкий класс образуют произвольные экспоненциальные распределения с плотностями вида рЫ; в) = ^0(со)ехр[5'(е)^(а))-4/(5(в))], 6б0. Они являются подсемействами экспонентных со своей специальной параметризацией, поэтому их иногда называют кривыми экспоненциальными семействами (см. [3], где построена теория дуальных аффинных связностей в применении к широким классам семейств распределения вероятностей). Названия К. и н. и. следуют терминологии статистич. физики, где рассматривается одномерное семейство канонич. распределений Гиббса (см. [5], [6]) и канонич. параметр принято обозначать через р. Естественный параметр (средняя энергия) пропорционален температуре, kl = (3 , где k - постоянная Больцмана. Последняя связь формально позволяет рассматривать отрицательные температуры. Экспонентные семейства распределений возникают также в теории проверки статистич. гипотез (см. [1]-[3]), однако натуральная параметризация здесь не интересна. Поэтому в соответствующей литературе канонич. параметризация иногда также называется естественной, или натуральной. Лит.: [1] Леман Ж., Проверка статистических гипотез, пер. с англ., 2 изд., М., 1979; [2] Ченцов Н. Н., Статистические решающие правила и оптимальные выводы, М., 1972; [3] Barndorff- Nielsen О., Information and exponential families in statistical theory, N.Y., 1979; [4] Amari S., Differential-geometrical methods in statistics, N. Y.- L., 1985; [51 Хинчин А.Я., Математические основания статистической механики, М.- Л., 1943; [6J Уленбек Дж., Форд Дж., Лекции по статистической механике, пер. с англ., М., 1965. И. И. Ченцов. КАНОНИЧЕСКАЯ КОРРЕЛЯЦИЯ (canonical correla tion) - корреляция между линейными функциями множеств случайных величин, характеризуемая максимально возможными значениями коэффициентов корреляции. В теории К. к. случайные величины Х\, ..., Xs и Xs+1, ..., Xs+t, s^t, линейно преобразуются в так наз. канонич. случайные величины Ур ..., Ys и Ys+\, ..., Ys+t такие, что: а) все величины У имеют нулевое математич. ожидание и единичную дисперсию, 6) внутри каждого из двух множеств величины У не коррели- рованы, в) любая величина У из 1-го множества коррелирова- на с одной величиной из 2-го множества, г) ненулевые коэффициенты корреляции между величинами У из разных множеств имеют максимальное значение. В частном случае s = 1 К. к. представляет собой множественную корреляцию между Х{ и Х2, ..., Xi+t. Преобразование к канонич. случайным величинам соответствует алгебраич. задаче приведения квадратичных форм к канонич. виду. В многомерном статистич. анализе с помощью метода К. к. при изучении взаимосвязи двух множеств компонент вектора наблюдений осуществяется переход к новой системе координат, в к-рой корреляция между Xt, ..., Xs и Xs+\, ..., Xs+t проявляется наиболее отчетливо. В результате анализа К. к. может оказаться, что взаимосвязь между двумя множествами полностью описывается корреляцией между несколькими канонич. случайными величинами. См. также Канонических корреляций анализ. Лит.: [1] Hotel ling H., «Biometrica», 1936, v. 28, p. 321-77; [2] Андерсон Т., Введение в многомерный статистический анализ, пер. с англ., М., 1963; [3] Кендалл М., Стьюарт А., Многомерный статистический анализ и временные ряды, пер. с англ., М., 1976. А. В. Прохоров. КАНОНИЧЕСКИЕ КОРРЕЛЯЦИИ И ВЕЛИЧИНЫ (canonical correlations and variables) для случайных процессов - см. Случайный процесс; канонические корреляции и величины. КАНОНИЧЕСКИЕ КОЭФФИЦИЕНТЫ КОРРЕЛЯЦИИ (canonical correlation coefficients) - максимальные значения корреляции коэффициентов между парами линейных функций от двух множеств случайных величин Х\, ..., Xs и Х9+1, ..., Xs+t, для к-рых U и V являются каноническими случайными величинами (см. Каноническая корреляция). Задача определения максимума коэффициента корреляции между U и V при условиях EU=EV = 0 и EU =EV =1 решается с помощью метода неопределенных множителей Лагранжа. К. к. к. являются корнями Х\ ^ ... ^ \s > О уравнения |-АХп si2| = 0 где 2^ j и £22 - соответственно ковариационные матрицы величин Хх> ..., Xs и Xs+1, ..., Xs+t, a Z12 = £2i ~ матрица ковариа- ций между величинами 1-го и 2-го множеств. При этом г-й корень уравнения называется r-м каноническим коэффициентом корреляции между этими множествами и КАНОНИЧЕСКИЕ 217
равен максимальному значению коэффициентов корреляции между парой линейных функций U и V канонич. случайных величин, каждая из к-рых имеет единичную дисперсию и некоррелирована с первыми г- 1 парами величин U и V. Коэффициенты а = (а ■W = i Jr) а{р)\ (г) (г) линейных функций U и V удовлетворяют уравнению р,г;=(рг ект рр -XX. 11 -12 = 0 при условии X = Хг. И. О. Сарманов. КАНОНИЧЕСКИЙ ПАРАМЕТР (canonical parameter) экспонентного семейства распределений - см. Каноническая и натуральная параметризация. КАНОНИЧЕСКИХ КОРРЕЛЯЦИЙ АНАЛИЗ (canonical correlation analysis) - исследование взаимосвязи между двумя подвекторами х\ = (*,, ..., хп)Т и jcJ = (xn+i, ..., xn+m)T вектора случайных признаков jct = (x], х\) с нулевым математическим ожиданием и ковариационной матрицей с=Е(хх ). В К. к. а. строятся так наз. канонические величины- линейные комбинации £ = х\а и Т) = х\Ь элементов каждого подмножества и коэффициент парной корреляции между ними, то есть каноническая корреляция Е(§л) _ <*1с\2ь Р = у1е(^2)Е(ц2) J(aTcua)(bTc22b) ' (1) где си и с22 - матрицы внутригрупповых, а с12 - матрица межгрупповых ковариаций, то есть блоки матрицы с, соответствующие разбиению вектора х на два подвектора. Коэффициенты а =(в1, ..., ап) и Ь =(£>!, ..., Ьп) определяются так, чтобы корреляция (1) между агрегированными признаками (1) была максимальна при нормировании их дисперсий на единицу. Тогда (1) сводится к функционалу р = атспЬ - - (aTct ха -1) - -t (Ьтс22Ь -1) -> max, (2) где X и (х - неопределенные множители Лагранжа. Решение (2) приводит к соотношениям Х = [1 и где с21=с12. В связи с (3) ставятся задачи на собственные значения (4) спЬ,. а ~ ^СПС12' Ь, Ь = vc22c2ia' (3) г11с12с22с21а_^ а' С22С21СПС12''_^ "• = VxT=«3 Экстремальные значения (1) и (2) равны р, При упорядочении Х2^Х^.. .^Х^О первый коэффициент канонич. корреляции равен pt = v^ , соответствующие векторы ах и Ь{ образуют первые канонич. величины ^ и ч\х. Вторая и последующая канонич. корреляции определяются линейными комбинациями, не коррелированными с предыдущими комбинациями и имеющими следующий по величине коэффициент корреляции, объясняющий оставшуюся межгрупповую корреляцию (см. Каноническая корреляция). Всего имеется не более чем min(w, m) ненулевых канонич. корреляций. В практике используются выборочные аналоги матриц ковариаций, решается одна из задач (4) меньшей размерности, по (3) находится второй набор векторов. Разработан ряд модификаций К. к.а. (см. [3]—[5J). Лит.: [1] Hotel ling N.. «Biometrika», 1936, v. 28, p. 321-77; 12] Кендалл М., Стьюарт А., Многомерный статистический анализ и временные ряды, пер. с англ., М., 1976; [3] Van den 218 КАНОНИЧЕСКИЙ Wo 11 en berg A. L., «Psychometrika», 1977, v. 42, № 2, p. 207-19; 14] Дубровский С.А., Прикладной многомерный статистический анализ, М., 1982; [5] Л и и овецки й С. С, «Заводская лаборатория», 1984, № 10, с. 50-56. С. С. Липовецкий. КАНОНИЧЕСКОЕ ИЗМЕРЕНИЕ (canonical measurement) - см. Квантовая теория проверки гипотез и оценивания. КАНОНИЧЕСКОЕ РАСПРЕДЕЛЕНИЕ (canonical distribution) - синоним термина Гиббса распределение. Различают распределение Гиббса в малом канонич. ансамбле, возникающее как условное распределение при фиксации числа частиц, и в большом канонич. ансамбле, где это число случайно. Р. Л. Добрушин. КАНОНИЧЕСКОЕ СПЕКТРАЛЬНОЕ УРАВНЕНИЕ (canonical spectral equation) - уравнение для преобразования Стилтьеса предельной спектральной функции \i(x) для симметрических случайных матриц. Пусть для каждого значения п случайные элементы tf.i>j.i.j=i я, симметрич. матрицы нн=1^-<1 где а<?> = \ xdP{^(n)<x}, т>0 - постоянное число, независимы, заданы на одном вероятностном пространстве, бесконечно малы по вероятности (при п—>°°), функции Кп(и, v, z) слабо сходятся к функции К(и, v, г), где Кп(и, v, г) = „£ -£pd?{%f -a\f <y} при i/n ^ и < (i + 1 )/п, j'/n ^ v < (/ + 1 )/п; функция К(и, i, z) неубывающая и ограниченной вариации по z, непрерывна по и и v в области 0^7/^1, 0^ г;^ 1, F(y) = 0 при у ^ 0, F(y) = 1 при у < 0, Хк - собственные значения матрицы Еп. Тогда lim \in(x) = \i(x) с вероятностью 1 в каждой точке непрерывности неслучайной спектральной функции ii(x), преобразование Стилтьеса к-рой равно f(l + itx)-*d\L(x) = lim f f xdGAx, z, t)dz, где Ga(x, z, t) - функция распределения но x (O^x'^1, O^z^l, И <0°), удовлетворяющая в точках непрерывности каноническому спектральному уравнению Ga(x, z, t) = P{[\+t\(Ga(-, ., t), z)]~x<x)\ для случайных величин ^a(Ga(-, -, t), z) находится преобразование Лапласа (см. [1]). Решение К. с. у. существует и единственно в классе L ф>нк- ций G(x, z, t), являющихся функциями распределения но х (O^x^l) при любых фиксированных O^z^l, Ы.<с>э и таких, что для любого целого k>0 и 0^z^\ функции f0 xkdG(x, z, t) являются аналитическими по t (за исключением, быть может, точки нуль). Лит.: [1] Гирко В. Л., Теория случайных детерминантов, Киев, 1980. " В. Л. Гирко. КАНТОРА РАСПРЕДЕЛЕНИЕ (Cantor distribution) - непрерывное сингулярное распределение, сосредоточенное на интервале (0, 1) и определяемое как распределение случайной величины y=3IZ,AV22i.
где Лг, - взаимно независимые случайные величины, принимающие значения 0 и 1 с вероятностью /2. Такое же распределение имеет и случайная величина Z = (3/2)£°1,AW22'-'. Распределения случайных величин вида AY + В, где Л *0 и В постоянные, относятся к канторовгкому типу и являются сингулярными непрерывными распределениями, сосредоточенными на конечном интервале в IR . Равномерное распределение на (0, 1) можно представить как свертку двух К. р.; величина u = ^J° XJ21 равномерно распределена на (0, 1) и в то же время и = У/3 + 2Z/3. Лит.: [1] Фсллер В., Введение в теорию вероятностей и ее приложения, пер. г англ., т. 2, М., 1984. С. Я. Шоргин. КАНТОРОВИЧА МЕТРИКА (Kantorovich metric) - простая вероятностная метрика, определяемая следующей конструкцией. Пусть (X, У) - измеримое пространство и г/ - метрика на X такая, что совокупность борелевских относительно d множеств принадлежит </'. Пусть Р - пространство всех вероятностных мер на (А", У). При Р, QeP метрика (расстояние) Канторовича определяется как ц(Р, 0) = \nfjXxXd(xv x2)H(dxv dx2), (1) где нижняя грань берется по совокупности всех вероятностных мер Н на (А, Т) х (А, У) таких, что соответствующие маргинальные меры равны Р и Q. Таким образом, |i является минимальной метрикой по отношению к сложной метрике, представляемой интегралом из соотношения (1). Это расстояние было введено Л. В. Канторовичем в [1] в связи со следующей интерпретацией в терминах транспортной задачи линейного программирования. Если Р - распределение грузов в точках отправления, Q- в точках прибытия, a d(xv x2) характеризует стоимость перевозки из пункта л:1 в пункт х2, то и. задает стоимость перевозки для оптимального плана перевозок. При слабых дополнительных ограничениях расстояние Канторовича может быть записано в двойственной форме: ц(Р, Q) = supl f fixXP(dx) - Q(dx)) I (2) где верхняя грань берется по всем ограниченным функциям f на X, удовлетворяющим условию Липшица вида \f(x)- -/"(?/)| ^d(x, у), х, уеХ. В случае если А - компакт и Ф- борелевская а-алгебра на А, метрика \1 метризует топологию слабой сходимости. Для этого случая представление (2) было доказано Л. В. Канторовичем [1]. Сейчас теоремой Канторовича часто называют утверждение (2), доказанное при значительно более общих предположениях (см. И1. [2]). Примеров, когда значение \i может быть найдено явно, немного. Так, если d - евклидово расстояние на II?" и Р(А) = 0(А-а), flelR, торХР, 0) = а. Если d(x, у) = 1(х*у) (/ - индикаторная функция), то ц сводится к полной вариации метрике. Тем не менее расстояние Канторовича оказалось очень полезным для многих вероятностных построений, так как его легко оценивать сверху: достаточно предъявить нек-рую меру Я. Напр., оно применяется в критериях единственности гиббеовских случайных полей (см. [3]). К. м. использовалась и иереоткрывалась многими авторами. В связи с этим она встречается в математич. литературе под многими разными названиями. Лит.: [1] Канторович Л. В., «Докл. АН СССР», 1942, т. 37, .\° 7-8, с. 227-29; (2) Рачев СТ., «Теория вероятн. и ее примен.», 1984, т. 29, в. 4, с. 625-53; [3] Dobruschin R. L., Shlos- man S.B., «Progr. in Phys.», 1985, v. 10, p. 347-70; [4] Szulga A., «Теория вероятн. и ее примем.», 1982, т. 27, в. 2, с. 401-05. Р. Л. Добрушин. КАНТОРОВИЧА РАССТОЯНИЕ (Kantorovich distance) - см. Канторовича метрика. КАНТОРОВИЧА ТЕОРЕМА (Kantorovich theorem) - см. Канторовича метрика. КАРАТЕОДОРИ ТЕОРЕМА о м е р а х (Caratheodory theorem) - см. Мера, Продолжение мер. КАРЛЕМАНА КРИТЕРИЙ (Carleman criterion) - см. Степенная проблема моментов. КАРЛЕМАНА УСЛОВИЕ (Carleman condition) - см. Момент. КАРУНЕНА ТЕОРЕМА (Karhunen theorem) - теорема об обобщенном спектральном разложении случайных функций: если корреляционная функция Bit, s) = EX(t)X(s) комплексной случайной функции X(t), заданной на произвольном множестве T = {t}, допускает представление B(t, s)=jA \\f(t; a)y(s; a) m(da), (1) где m(S), S е.Д- неотрицательная мера на нек-ром измеримом пространстве (А, .У?, т), а {\|/(£; а)} - семейство функций переменного аеА, принадлежащих пространству L (т) и зависящих от параметра t e T, то тогда X(t) допускает представление в виде стохастического интеграла X(t) = jAyU; a)Z(da), (2) где Z(da) - случайная мера на А такая, что EZ(SX)Z{S2) = = m(S]C\S2). Обратно, из представимости случайной функции X(t) в виде (2) следует, что ее корреляционная функция B(t, s) допускает представление (1). Значения случайной меры Z(S) принадлежат линейной оболочке Нх значений X(t), t eT, тогда и только тогда, когда семейство функций {\|/(£; а), teT} полно в L (т). Сформулированная теорема принадлежит К. Карунену [1] (см. также [2]-[4]). Имеется многомерное обобщение этой теоремы (см. [2], 13]). Другим обобщением К. т. является Крамера теорема о представлении случайных функций. Примеры. 1) Пусть X(t) - стационарный случайный процесс с дискретным временем £ = 0, ±1, ... такой, что EX(t + x)X(t) = В(т) = 0 при |т|^я. В таком случае всегда существуют комплексные числа b0, bv ..., bn, удовлетворяющие соотношениям В(х) = |Х1>*+Л при х = 0,1 п, (3) [0 прит>« (см. [5]). Учитывая, что В(-х) = В(х), формулу (3) можно переписать в виде ЕХ(ОВД = Ж*-а) = Х^ VA-7' t = 0> ±!' - (где bs = 0 при 5<0 или s>n), являющемся частным случаем (1), в к-ром оба множества Т и А - это множества всех целых чисел. В силу К. т. X(t) = Y"bkZ(t-k),t = Q, ±1,..., где EZ(t)Z(s) = bts (то есть Z(t) - белый шум с дискретным временем). Если Жт) = 0 при |т| >п, то X(t) - скользящего среднего процесс с дискретным временем. 2) Пусть X(t), -oo<t<oo,- стационарный случайный процесс с непрерывным временем, имеющий спектральную плотность f(X), a д(Х) - произвольная функция такая, что \g(X)\2 = f(\). Пусть bit) - преобразование Фурье функции g(s) (принадлежащей пространству L ); в таком случае, вое- КАРУНЕНА 219
пользовавшись спектральным разложением корреляционной функции Bit) процесса Xit) и теоремой Планшереля, можно показать, что EXiOXis) = Bit - s) = £° bit - u)bis - u)du. (4) 1ется частным случаем (1) v, поэтому Xit) = J2obit-u)dZiu), Формула (4) является частным случаем (1), где А = ( - <», <»), am- мера Лебега; поэтому где EdZiu)dZ(v) = Ыи - v)dudv, то есть Ziu) - это стандартный винеровский процесс. Стационарный процесс, имеющий спектральную плотность, всегда является двусторонним процессом скользящего среднего с непрерывным временем. Если fiX) удовлетворяет условию J2oi\+X2)~]\ogfiX)dX> -оо, (5) то в силу теоремы Пэли-Винера (см. [6]) функция giX) может быть выбрана таким образом, чтобы ее преобразование Фурье bit) обращалось в нуль на отрицательной полуоси; при условии (5) стационарный случайный процесс со спектральной плотностью fiX) может быть представлен в виде одностороннего процесса скользящего среднего. Имеются и другие приложения К. т. (см., напр., Спектральное разложение случайной функции). Лит.: [1] Karhunen К., «Ann. Acad. Sci. Fennicae. Ser. A», 1947, Bd 1, № 37, S. 3-79; [2] Гихмаи И. И., Скороход А. В., Теория случайных процессов, т. 1, М., 1971, с. 292-4; [3] их же, Введение в теорию случайных процессов, 2 изд., М., 1977, с. 269-71; [4] Rao М.М., в кн.: Handbook of Statistics, v. 5, Amst., 1985, p. 279-310; [5] Андерсон Т., Статистический анализ временных рядов, пер. с англ., М., 1976, с. 252-53; [6] Винер Н., Пэли Р., Преобразование Фурье в комплексной области, пер. с англ., М., 1964, с 32. A.M. Яглом. КАРУНЕНА-ЛОЭВА РАЗЛОЖЕНИЕ (Karhunen - Loeve expansion), ортогональное разложение, разложение в ортогональный ряд, случайного процесса - представление произвольного непрерывного в среднем квадратичном комплексного случайного процесса Xit), заданного на конечном интервале a^t^b, в виде *('>=Х1,^*(о^ (о где сумма в правой части сходится в среднем квадратичном, \\fkit), k=\, 2, ...,- ортонормированная система собственных функций интегрального уравнения jbaBit, s)y(s)ds = X\vit), a^t^b (2) [Bit, s) = EXit)X(s) - корреляционная функция Xit)], Xk, k=\, 2, ...,- соответствующие функциям Уд(0 собственные значения, а 1, 2, Zk=iXkYx/2 \a Xit) \>?k{t)dt, k-- - случайные величины, удовлетворяющие условию EZkZ: = bkj: К.- Л. р. представляет собой обобщение на бесконечномерный случай разложения по главным компонентам, используемого в многомерном статистич. анализе; оно было независимо получено несколькими исследователями (см., напр., [ 1 ]—[6], по имени двух из к-рых обычно и называется. В формулах (1) и (2) заданный на конечном интервале a^t^b случайный процесс Xit) может быть заменен случайной функцией Xit), teT, где Т - произвольное связное компактное топологич. пространство, а мера Лебега ds - произвольной мерой mids) на Т такой, что все открытые подмножества Т измеримы и имеют положительную меру. В частности, под 220 КАРУНЕНА Xit) можно понимать случайное поле, заданное на связном ограниченном множестве пространства IR", а под ds - меру mis)ds = misv ..., s„)rfs1 ... dsn, где mis) - произвольная непрерывная положительная функция. Если Xit) - это вещественный гауссовский процесс с нулевым средним значением, то величины Zk, k=\, 2, ...,- независимые нормально распределенные случайные величины; при этом ряд в правой части (1) оказывается уже сходящимся и с вероятностью 1 (см., напр., [7], [8]). Имеется ряд инженерных приложений К.-Л. р. (см., напр., [9]—[13]). Широкое применение эти разложения находят также в задачах метеорологии (см. Эмпирические ортогональные функции). Примеры. 1) Пусть Bit, s) = min(£, 5), а = 0, b=\. Тогда уравнение (2) может быть сведено к дифференциальному уравнению X\\f"it) + \\fit) = 0 с граничными условиями \|/(0) = 0, \/(1) = 1, откуда следует, что здесь К.- Л. р. имеет вид s\n(k-\/2)M X(t)-J2\°° slT**-V*m 7 (3) В частном случае винеровского процесса Xit) разложение (3) в немного иной форме было получено Н. Винером (N. Wiener) в начале 30-х гг. (см., напр., [14]). 2) Если Bit, s) = exp[ -ait-s)], a- -T, b = T, то уравнение (2) сводится к дифференциальному уравнению у"(г) + + [ai2-aX)/X]\\iit) = 0 с граничными условиями \|/'(Г) + + а\|/(Г) = 0, \\f'i-T)-ayi-T) = 0. Поэтому здесь К.-Л. р. имеет вид *<*>=1Г=о (л*cos v4°+fl*sin v42)). где Ak и Bk - нормировочные постоянные, EZkp Zq = bJJ(lbkj, a ak и bk, k=\, 2, ...,- корни трансцендентных уравнений aktg Tak = a, bkctgTbk = a. Нек-рые другие примеры см. в |9]-[13], [15|, [16]. В применении к стационарным случайным процессам Xit) с рациональной спектральной плотностью fiX) общий метод решения интегрального уравнения (2) был предложен в [17), а затем упрощен в работах [1.5] и [18]. Лит.: [1] Kosambi D. D., «J. Indian Math. Soc», 1943, v. 7, p. 76-88; [2] Karhunen K., «Ann. Acad. Sci. Fennicae. So*. A», 1946, Bd 1, № 34, p. 3-7; [3| Loeve M., «Rev. Sci.», 1946, v. 84, p. 195-206; 14] Лоэв М., Теория вероятностей, пер. с англ., М.. 1962, с. 499-502; 15] Пугачев B.C., «Изв. АН СССР. Сеэ ма- тем.», 1953, т. 17, № 5, с. 401-20; [6] Обухов A.M., «Тр. ГЧ-офиз. ин-та АН СССР». 1954, в. 24, с. 3-42; [7] Гихман И. И., Скороход А. В., Введение в теорию случайных процессов, 2 изд., М., 1977, с. 257-58; [8] их же, Теория случайных процессов, т. 1, М., 1971, с. 275-79; [9] Пугачев В. С, Теория случайных функций и ег применение к задачам автоматического управления, 3 изд., М., 1962; [10] Давен порт В. Б., Рут В. Л., Введение в теорию случайных сигналов и шумов, пер. с англ., М., 1960; [11] Миддлтон Д., Введение в статистическую теорию связи, пер. с англ., т. 1, М., 1961; [12] Хелстром К., Статистическая теория обнаружения сигналов, пер. с англ., М., 1963; (13] Ван Трис Г., Теория обнаружения, оценок и модуляции, пер. с англ., т. 1, М., 1972; [14] Винер II., Пэли Р., Преобразование Фурье в комплексной области, пер. с* am л., М., 1964, с. 215-29; [15] Форту с М. И., «Изв. АН СССР. Сер. физики атмосф. и океана», 1973, т. 9, № 1, с. 34-46; [16] се же, «Теория вероятн. и матем. статистика», 1977, в. 16, с. 135-41; [17] Гельфанд И. М., Яглом А. М., «Успехи матем. наук», 1957, т. 12, в. 1, с. 3-52; [18] Slepian D., Kadota Т. Т.. «SIAM J. Appl. Math.», 1969, v. 17, p. 1102-17. л. М. Яглом. КАРУНЕНА - ЛОЭВА РАЗЛОЖЕНИЕ дискретное (discrete Karhunen - Loeve decomposition) - разложение слу чайного вектора по собственным векторам ковариационной матрицы. Используется в задачах выбора признаков, то есть для преобразования исходных измерений в более эффективные. Пусть х - «-мерный случайный вектор. Тогда имеет место разложение
где (Ф = Ф1, ..., Фп), у = (у\, ..., уп)Т. Матрица Ф является детерминированной и состоит из п линейно независимых вектор-столбцов, то есть det Ф*0. Таким образом, линейные комбинации столбцов Ф образуют «-мерное пространство, содержащее х. Столбцы Ф называются базисными векторами. Пусть они ортонормированы, тогда компоненты вектора у определяются так: г/- = Фг-х, £=1, ..., п. Следовательно, у представляет собой ортогональное преобразование случайного вектора х и тоже является случайным вектором. Каждая компонента вектора у является признаком, к-рый вносит вклад в представление х. Пусть определено м, т<п, компонент вектора у. Если (для оценивания х) заменить невычисленные компоненты у константами, то . Ошибка оценивания определяется выражением В качестве критерия для измерения эффективности подмножества из т компонентов используется средняя величина квадрата Дг: e4m) = E{\\Ax\\2} = Z!__m+iE{(yi-bl)\ Каждому набору базисных векторов и значений констант соответствует нек-рое значение е (т). Оптимальный выбор констант Ъг производится следующим образом: ьг = Еуг = Ф]Ех. Срсднеквадратич. ошибка тогда имеет вид г2(т) = У1 ф[1Фг, где I - ковариационная матрица. Оптимальный выбор матрицы Ф удовлетворяет условию 1Ф, = л,Ф-, то есть оптимально базисные векторы - это собственные векторы матрицы I. Таким образом, минимальная среднеквадратич. ошибка eo,>>=x;LM+lx,. Лит.: 11] Фуку нага К., Введение в статистическую теорию распознавания образов, иер. с англ., М., 1979. Т. В. Павленко. КАСКАДНАЯ ДЕЦИМАЦИЯ (cascade decimation) - см. Децимация. КАСКАДНЫЙ КОД (cascade code) - блоковый код над алфавитом Л, получающийся из блокового кода V над алфавитом В заменой букв на слова блокового кода U над алфавитом Л. При этом замены, то есть кодирования В в коды U, могут быть различными (как и сами коды СО для букв, стоящих на разных позициях кода Г. Доказано существование К. к., обеспечивающего линейный (по длине п кода) рост кодового расстояния и экспоненциальное (по п) убывание ошибочного декодирования вероятности (для всех скоростей, меньших пропускной способности канала без памяти) при полиномиальной (по п) сложности кодирования и декодирования (гм. 11 j, 12]). Многие из лучших известных кодов являются К. к. или их обобщениями (см. 13]) и широко применяются в системах передачи и хранения информации. К. к. были введены Д. Форни [ 11. Лит.: [1] Форм и Д., Каскадные коды, пер. с англ., М., 1970; 12| Зяблов В. В., «Проблемы передачи информации», 1971, т. 7, № 1, с. 5-13; [3] Зиновьев В. А., там же, 1976, т. 12, № 1, с. 5-15. Г. А. Кабатянский. КАТЕГОРИЧЕСКИЙ ПРОГНОЗ ПОГОДЫ (categorical weather forecast) - прогноз, к-рый не содержит указаний о возможных ошибках, а указывает лишь предсказываемое значение метеорологической величины или ожидаемый тип погоды (напр., наличие или отсутствие осадков). К. п. п., не обладающие стопроцентной оправдываемостью, называются условными. Практически все известные методы прогноза погоды позволяют давать лишь условные прогнозы. Отсутствие информации о возможных ошибках и об известных прогнозисту вероятностях появления других типов (фаз) погоды вместо предсказанного типа значительно снижает ценность К. п. п. Поэтому делаются попытки разработки методов вероятностных прогнозов погоды, использование к-рых более обосновано при планировании производственной деятельности. Г. В. Груза. КАХАНА ПРИНЦИП СЖАТИЯ (Kahane's contraction principle) - принцип сравнения для случайных рядов: если {Xk} - последовательность независимых симметричных случайных элементов в сеиарабельном банаховом пространстве В, {Xk} - ограниченная последовательность действительных чисел и ряд ХГ-1 ^k сходится в В почти наверное, то ряд JT, ^-k^k также сходится в В почти наверное. Если последовательность {£ Xk, n^\} ограничена в В почти наверное, то последовательность {£?_. ^/Л> п^\) также ограничена в В почти наверное. Для случайных последовательностей Радемахера К. п. с. был установлен и систематически применялся Ж.-П. Каханом [1] при изучении проблем сходимости и ограниченности случайных рядов Фурье. В дальнейшем этот принцип уточнялся и обобщался многими учеными. Лит.: [1] Кахан Ж.-П., Случайные функциональные ряды, нер. с англ., М., 1973; [2) Вахания Н.Н., Тариеладзе В.И., Чо- банян С. А., Вероятностные распределения в банаховых пространствах, М., 1985; [3) Hoffmann-j0rgensen J., «Studia Math.», 1974, v. 52, Ко 2, p. 159-89. В. В. Булдыгин. КАЧЕСТВЕННАЯ РОБАСТНОСТЬ (qualitative robust ness) - см. Робастная оценка. КАЧЕСТВЕННАЯ УСТОЙЧИВОСТЬ стохастических моделей (qualitative stability of stochastic models) - понятие, используемое в аипроксимационных задачах теории вероятностей. Эти задачи прямо или косвенно связаны с соответствующими задачами характеризации, к-рые имеют следующее описание. Пусть Ж={х} и f={y}~ какие-либо два множества, элементами к-рых могут быть случайные величины, их наборы или соответствующие им распределения. Пусть задано отображение /:jT—>^ и нек-рые множества %cz.)\ 8 cz f, a J~ 8 обозначает полный прообраз в ,?'множества 8. Если множество 8 = $СП(/~ 8) обладает какими-либо требуемыми свойствами, то его описание можно осуществить в форме соотношения Jteg^Ue», JxeZ). (1) Если в Ж и у заданы расстояния и/*', х") и \(у'', #"), то* соотношение (1) записывается в виде ф, %) = 0<*ф, 3C)+v(/.r, 8) = 0, ГДе ф, 8) = inf(nU *'):*'€8). Задача характеризации множества Ф = (У$С)П8 формально несколько иная, однако она перестает отличаться от задачи описания 8, если отображение J не предполагается однозначным. К. у. описания 8 в модели (j\ y\ J, $С, 8) означает, что ф, 8) -> 0 <t=> ф, Ю + v(Jx, 8) -► 0. (2) Двусторонняя импликация в (2) соответствует устойчивости характеризации множества 8. Наличие или отсутствие свойства (2) целиком зависит от свойств выбранных расстояний. КАЧЕСТВЕННАЯ 221
Уточнением эффекта К. у. являются отвечающие ему количественные оценки (см. Устойчивость стохастической модели; количественные оценки). Лит.: [1] Золотарев В. М., «Матем. сб.», 1976, т. 101, № 3, с. 416-54. в. М. Золотарев. КВАДРАТИЧЕСКАЯ ВАРИАЦИЯ мартингала (quad ratic variation of a martingale) - см. Мартингал; квадратиче- ская вариация. КВАДРАТИЧЕСКАЯ ФУНКЦИЯ ПОТЕРЬ (quadratic loss function) - см. Потерь функция. КВАДРАТИЧЕСКАЯ ХАРАКТЕРИСТИКА мартинга- л a (quadratic characteristic of a martingale) - см. Мартингал; квадратическая характеристика, Ссмимартингал. КВАДРАТИЧНАЯ ОШИБКА (mean squared error/quadratic error) - см. Квадратичное отклонение. КВАДРАТИЧНО ИНТЕГРИРУЕМЫЙ МАРТИНГАЛ (square intergrable martingale) - мартингал M=(Mt)t>Q такой, что EMt <oo для каждого t^O. В случае sup EMt <oo имеет место неравенство Е sup М,2 < оо и М является равномерно квадратично интегрируемым мартингалом. Процесс М называется локально квадратично интегрируемым мартингалом, если М " = (MtAT ),250 является равномерно К. и. м. для каждого п^1и нек-рой неубывающей последовательности марковских моментов (Тп)п^х с lim Tn = оо(Р-почти наверное). п Всякий локально К. и. м. является локальным мартингалом и допускает разложение М = Мс + М(, где Мс - локально К. и. м. с непрерывными траекториями и A/q-O, M( - чисто разрывный локально К. и. м. Для всякого локально К. и. м. М с М0 = 0 определяется квадратич. характеристика (M) = ({M)t)t^0 как предсказуемый возрастающий случайный процесс такой, чго А/ -(А/) является локальным мартингалом. Лит.: [11 Kunita H., Watanabe S., «Nagoya Math. J.», 1967, № 30, p. 209-45; [2) Мей ер П. А., Вероятность и потенциалы, пер. с англ., М., 1973; [3J Лиицер Р. Ш., Ширяев А. П., Теория мартингалов, М., 1986. р. Щ. Лшщер. КВАДРАТИЧНО СБАЛАНСИРОВАННАЯ МОДЕЛЬ (quadratically-balanced model) - линейный регрессионный эксперимент R(y, F6, /), F = f(xx), ..., f(xN), f:X-+W\ для к-рого совпадают все диагональные элементы матрицы F(F F) F , что эквивалентно равенству дисперсий величины f Cr-)9, i=l, ..., N, где 9 - оценка в по методу наименьших квадратов. Если план £ = {xt, ..., xN} D-оптимален, то соответствующий регрессионный эксперимент есть К. см. Устойчивость F-критерия проверки гипотезы 0 = 0 по отношению к нарушению нормальности распределения ошибок измерений заключается в том, что в больших выборках первый член разложения уровня значимости F-критерия для К. с. м. для всех распределений с конечными четвертыми моментами не зависит от коэффициента асимметрии и эксцесса. А/. Б. Малютов. КВАДРАТИЧНОЕ ОТКЛОНЕНИЕ (quadratic/standard deviation), квадратич ное уклонение, стандартное 222 КВАДРАТИЧЕСКАЯ отклонение, - среднее квадратичное отклонение величин x]f ..., хп от заданной величины а: \(х<-а)2+...+(х„-а)2 а = {- п^— Наименьшее значение К. о. имеет при а = х, где х - среднее арифметич. величин х = (х, +...+.гп)/п. В этом случае К. о. может служить мерой рассеяния системы величин xv ..., хТГ Употребляют также более общее понятие взвешенного квадратичного отклонения: I р^х^-а)2 +...+рп(хп-а)2 # числа />1( ..., рп называются при этом весами, соответствующими величинам Xj хп. Взвешенное К. о. достигает наименьшего значения при а, равном взвешенному среднему В теории вероятностей К. о. 0\ случайной величины X (от ее математич. ожидания) называется квадратный корень из дисперсии: VDX. К. о. употребляют как меру качества стати- стич. оценок и называют в этом случае квадратичной ошибкой. В. II. Бшпю^ков. КВАДРАТИЧНОЕ УКЛОНЕНИЕ (quadratic/standard deviation/mean squared error) - см. Квадратичное отклонение. КВАДРАТИЧНЫЙ РИСК (quadratic risk) - см. Планирование эксперимента. Линейная интерполяция функции регрессии. КВАДРАТУРНАЯ СПЕКТРАЛЬНАЯ ПЛОТНОСТЬ (quad rature spectral density) - см. Коспектр и квадратурный спектр. КВАДРАТУРНАЯ СПЕКТРАЛЬНАЯ ФУНКЦИЯ (ч iad rature spectral function) - см. Коспектр и квадратурный спектр. КВАДРАТУРНЫЕ ФОРМУЛЫ с о с.«у ч а н и ы м и у з лам и (quadiatu:e formulae with random nodes) - сопоставление интегралу случайной квадратурной суммы в качестве оценки его величины. Здесь jj - перпяшоггная > ера на заданном множеччие Л', 1,. / - 1 Л\ - ладанные на Л'' функции (коэффициент!м формулы), Xi xv (ее узль ) •- случайные величмчы с заданным на V распределением >/. Функции Л, и распре-к. кчте у выбираются пз условия минимума критерия качества формулы, к рым обычно служит первый абсолютный или второй момент остатка R\f}~- - I\f]~x[f]. Если /'принадлежит ктасеу функций F, имеющих частные производные ладанного порядка, X - гиперьуб, р - мера Лебега и х выбирается случайно из нек-рого множества :Н квадратурных (кубатурных) сумм, то возможен такой выбор .Я и у, что Е|/?|/'|| убывает на F в V.V раз быстрее, \ем \R[f\\. Для фиксированного набора {(p2}J'=:1 ортонормирогап- ных в Z/(p) функций при n = N условия /?[ф, J = 0 одиозна то определяют интерполяционно-квадратурную формулу, если определитель A- det||(pj(xy)||^.=1 отличен от нуля. Выбор ty(dxx, ..., dxN) = A p(£b,1)...p(<lvv)/«! обеспечивает несмещенность х: Ex[f] = jip(x)fW\i(dx). Существует бесконечно много плотностей у, содержащих А в качестве сомножителя и обеспечивающих несмещенность ин-
терполяционно-квадратурной суммы. Если W - множество пар (.г, д) таких, что х не смещена и Q(x, g) - заданный критерий качества, то в W, как обычно в статистич. теории оценивания, определяется понятие доминируемости и допустимости относительно этого критерия и класса F интегрируемых функций. Для FdL~([i) простейшая процедура метода Монте-Карло доминируется методом слоистой выборки относительно DjcI/'I, to есть не является допустимой. Допустимые относительно дисперсии пары (х, д), как правило, имеют зависимые узлы. В частности, допустимой пара (х, д) будет то1да, когда один из узлов выбирается случайно, а остальные функционально от него зависят (К. ф. с одним свободным узлом; см. [2]). К. ф. со случайными узлами являются обобщением простейшей процедуры метода Монте-Карло. Сочетая классич. и теоретико-вероятностные численные методы, они позволяют повысить эффективность последних и часто являются единственным средством вычисления интеграла от функции многих переменных при сложном характере меры \i. Лит.: [1] Бахвалов Н.С., Численные методы, 2 изд., М., 1975; [2] Ермаков СМ., Me год Монте-Карло и смежные вопросы, 2 изд., М., 1975; [3] Соболь И. М., Численные методы Монте-Карло, М., 1973. С М. Ермаков. КВАДРАТУРНЫЙ СПЕКТР (quadrature spectrum) - см. Коспектр и квадратурный спектр. КВАЗИВАРИАЦИОННОЕ НЕРАВЕНСТВО (quasi-variational inequality) - см. Вариационные неравенства в стохастическом управлении. КВАЗИВАРИАЦИОННОЕ НЕРАВЕНСТВО; задачи импульсного управления диффузионными процессами (quasi-variational inequality; impulse control/correction of diffusion processes) - неравенство n(U, V-U)^L(V-U), UeK, (1) где к - билинейная симметричная форма и L - линейная форма, К - множество функций, UeK- искомая функция и К зависит от U |если К не зависит от U, неравенство (1) называется вариационным). Если я - эллиптический (параболический) оператор, то (1) называется эллиптическим (параболическим) неравенством. Неравенства вида (1) используют в механике, теории импульсного управления и наблюдения, задачах со свободной границей и др. Задача импульсного управления системой уран нений И то: dx(l) = a(OUdt + bU)dwU), O^t^T, xelR", Uell?", (2) где d^O, b>0 - скалярные функции, w e IRW - стандартный виперовский процесс, х(0) задан, состоит в выборе управления, удовлетворяющею ограничению (обусловленному ограничением по расходу топлива) и минимизирующего EF(KD), r= \х\, где F^O - заданная скалярная функция. Функция Беллмана V(x, r, q) определяется в области D = {t. r, qix^O, r^O, q^O), где x = j\\s)ds. Пусть Dx- ia часть D, где Q = a(x)Vr+Vq<0, Vr = dV/dr, D) = D\D\, a(x) = a(t) и Г- граница областей Dx и D2. Функция Q^O всюду в D. В D, управление (7 = 0, то есть движение системы (2) происходит в Dx только под действием случайных возмущений. В D2 производится импульсная коррекция и система из положения (т, г, q) перемещается вдоль характеристик r-a(x)q = const уравнения Q = 0 в сторону уменьшения г и q, при этом либо система попадает на Г (в этом случае возможен скользящий режим, при к-ром отслеживается Г, либо q = О в конце импульса. Функция V и граница Г определяются уравнениями V =1(V + —Vr] в й; 0 = 0 в D,; ] т 2\ гг г г) !' v 2' L (3) У(0, г, q) = F(r\ Vr(x, 0,q) = 0; Q = 0, Qr = 0 на Г.J Автомодельные решения. Пусть F(r) = rl, <х(т) = Лт*. (4) Тогда уравнения (3) инвариантны относительно однопарамет- рич. группы (с параметром С) г _> Сг, х -► С2т, q -► C1-2V V -> dv. (5) Поэтому решение задачи (3) представимо в виде V = T1/2co(#, z), y = Aqxk-W2, г = пГх/2. (6) При этом число независимых переменных уменьшается до двух, что существенно для точного или численного решения. Коррекция при заданном числе импульсов. Пусть дополнительно задано максимально возможное число N импульсов, производимых в марковские моменты s,. Тогда x(si + 0) = x(si-0) + a(si)qi. Моменты s- и векторы qr,elR", Х_ 1 1*7*1 ^*7о> подлежат определению. При каждом i область D = DjUD2, причем в D\ импульс не подается, а в Dl2 производится первый из i импульсов. Граница Г* областей D\ и D\ не известна. Функция Беллмана V (т, г, q) и граница Г1 определяются из уравнений V((x, г, q)= minVM(T, r-a(x)y, q-y) в DjJ yeY > (7) Y{y:0^y^q, a(x)y^r}; Fr'(x, 0, qr) = 0, Vl(x, r, 0) = V°(t, r, 0), Vj(0, r, q) = F(r) J и условия непрерывности V1 и Vlr на Г'. Если выполнены требования (4), то (7) инвариантны относительно группы (5) и решение уравнений (7) можно искать в виде, аналогичном (6). Импульсное управление процессом наблюдения. В задачах управления процессом наблюдения за линейной стохастич. системой при ограничении на суммарное число наблюдений оптимальный закон наблюдения может иметь импульсный характер. Последнее означает, что все наблюдения производятся в нек-рые дискретные моменты времени. Лит.: [11 Гловински Р., Лионе Ж. Л., ТремольерР., Численное исследование вариационных неравенств, пер. с франц., М., 1979; [21 Bensoussan A., Lions J. L., Controle impulsionnel..., P., 1982; [3] ЧерноуськоФ.Л., Кол мановски й В. Б., Оптимальное управление при случайных возмущениях, М., 1978; [41 Дюво Г., Лионе Ж. Л., Неравенства в механике и физике, пер. с франц., М., 1980. В. Б. Колмановский. КВАЗИГЛАДКИЙ МАРКОВСКИЙ ПРОЦЕСС (quasi smooth Markov process) - .^согласованный случайный процесс {Xt, t^ 0} на стохастическом базисе (Q, Л, & , Р) со значениями в полном сепарабельном метрическом пространстве (Л\ В (.4')); при этом для всех 0^s <t, ВеВ(Л'), Р-почти наверное P{XteB\Fs} = P{Xt*B\Xs) и можно указать такое подмножество D ограниченных на J' функций, разделяющее точки Л\ что для всех т, <pj, ..., <pm e D и дважды непрерывно дифференцируемой функции F на IRW КВАЗИГЛАДКИЙ 223
выполнено включение F(yv ..., фт)еО, а для <peD существует такая ограниченная функция я(<р, х, t), что процесс <p(X,)-J^ a(q>, Xs, s)ds, t^O, является (Р, $)-мартингалом. Примерами К. м. п. могут служить классич. диффузионные процессы с ограниченными коэффициентами сноса и диффузии. Лит.: [1) ГихманИ. И., Скороход А. В., Стохастические дифференциальные уравнения и их приложения, К., 1982. Б. И. Григелионис. КВАЗИДИФФУЗИОННЫЙ ПРОЦЕСС (quasi diffusion process) - непрерывный марковский процесс в И? с квазиин- финитезимальным оператором L = Yd. аи(х)-^ + У" bi(x)-X--c(x). См. также Стохастическое дифференциальное уравнение; марковские решения. А. Ю. Веретенников. КВАЗИДОСТАТОЧНАЯ СТАТИСТИКА (quasi sufficient statistic) - см. Вспомогательная статистика. КВАЗИИНВАРИАНТНАЯ МЕРА (quasi-invariant measure) - мера на нек-ром пространстве, остающаяся эквивалентной себе при «сдвигах» этого пространства. Более точно: пусть Ф, *«/) - измеримое пространство (то есть множество Q с выделенной а-алгеброй d его подмножеств) и G - нек-рая группа его автоморфизмов (то есть взаимно однозначных преобразований g: О. -> Q, измеримых вместе со своими обратными д~х относительно а-алгебры Л). Мера \i на Ш, d) называется квазиинвариантной (относительно G), если при любом geG преобразованная мера g\i(A) = \i(g A), А е *<•/, эквивалентна мере и, (то есть эти меры взаимно абсолютно непрерывны). В случае, когда Q, - топологич. однородное пространство с непрерывной локально компактной группой автоморфизмов G [то есть группа G действует на С1 транзитив- но и снабжена такой топологией, что отображение G x Q -> ->Q:(<7, x)-+gx непрерывно относительно произведения топологий в GxQ], а d — борелевская а-алгебра относительно введенной в £1 топологии, существует единственная с точностью до эквивалентности К. м. (см. [1]). В частности, мера в пространстве 1РП квазиинвариантна относительно всех сдвигов х^>х + а, х, eelR", в том и только в том случае, когда она эквивалентна мере Лебега. В случае, когда группа преобразований не локально компактна, К. м. может не существовать; это имеет место, напр., у широкого класса бесконечномерных топологич. векторных пространств (см. [2]). См. также Пространство с мерой. Лит.: (1) БурбакиН., Интегрирование. Векторное интегрирование. Мера Хаара. Свертка и представления, пер. с франц.. М., 1970; [2] Гельфанд И. М., Виленкин Н.Я., Некоторые применения гармонического анализа. Оснащенные гильбертовы пространства, М., 1961. - Р.А.Минлос. С-КВАЗИИНВАРИАНТНАЯ МЕРА (a quasi invariant measure) - см. Пространство с мерой. КВАЗИИНФИНИТЕЗИМАЛЬНЫЙ ОПЕРАТОР (quasi- infinitesimal operator) непрерывного марковского процесса Xt, t^Q, - оператор L, область определения к-рого включает пространство функций С0, и такой, что для любых /"еС0, t^Q, справедливо равенство Exf(Xt)-f(Xa) = Exj'0 Lf(Xs)ds. Лит.: [1] ДынкинЕ. Б., Марковские процессы, М., 1963; [2) Крылов Н.В., «Изв. АН СССР. Сер. матем.», 1973, т. 37, с. 691-708. А. Ю. Веретенников. 224 КВАЗИДИФФУЗИОННЫЙ КВАЗИКОМПАКТНОСТИ УСЛОВИЕ (quasi compactness condition) - см. Эргодические теоремы для марковских процессов. КВАЗИМАРКОВСКОЕ ПРИБЛИЖЕНИЕ в теории турбулентности (quasi-Markovian approximation in the theory of turbulence) - метод конструирования для изотропного спектра энергии Е (k, О из бесконечной цепочки моментных гидродинамич. уравнений Фридмана - Келлера замкнутого интегро-дифференциального уравнения. Лит.: [1] Математическая физика. Энциклопедия, М., 1998, с. 241-42. А. П. Мирабель. КВАЗИМАРТИНГАЛ (quasimartingale) - случайный процесс X = (Xt)t e Т, согласованный с неубывающим семейством а-алгебр (Ft)teT, для к-рого при любом teT конечна величина var(0,(1(X) = supEl^|E(X(4ti-X(J^)|, где sup берется по всевозможным разбиениям 0 = ^^/^... ... ^tn = t<°°, n^O, tQ, ..., tneT; множество Г={0, 1,...} либо Т=\0, о°]. В частности, мартингал и процесс интегрируемой вариации являются К. В случае непрерывного времени К. обладает теми же свойствами регулярности, что и мартингал; почти все его траектории имеют пределы слева (при t>0) и справа по множеству рациональных чисел. Если семейство (Ft) непрерывно справа, то К. X имеет модификацию, траектории к-рой непрерывны справа, имеют пределы слева. Для непрерывного справа (или опционально измеримого) К. выполняется аналог неравенства Колмогорова- Дуба: АР{ sup Х$2Х}^ХЕ\Х„\+улт{0а]{Х),к>0. Каждый К. представляется в виде разности двух неотрицательных супермартингалов. Лит.: [1] Del I acherie С, Meyer P.-A., Probabilites vt pot«*n- tiel. Theorie des martingales, t 1-2, P., 1975-80. Л. И. Галъчик. КВАЗИМЕРА (quasimeasure) -- см. Цилиндрическая мера КВАЗИМЕТРИКА (quasimetric) - понятие, используемое ь топологии, функциональном анализе и теории вероятностен. Неотрицательный функционал \\(х, у), определенный на тарах элементов из нек-рого множества U, называется квазч- метрикой в U, если он обладает свойствами: 1) (X (х, у) = 0, если д =;/; 2) цЧг, г/> = рО/, х); 3) [i(x, y)^\i(x, z)i-u.(i. у). Понятие «К.у обобщает понятие метрики в U, для к-рой условие 1) заменяется более жестким требованием: \l(x, у)-0<=>х-у. В. М. Золотарев. КВАЗИНЕПРЕРЫВНОСТЬ СЛЕВА потока о алгебр (quasi left-continuity of a family of a-algebras/of a filtration) - см. Предсказуемый марковский момент. КВАЗИНЕПРЕРЫВНЫЙ СЛЕВА ПРОЦЕСС (quasi left-continuous process) - см. Стандартный марковский процесс. КВАЗИРАЗМАХ выборки (sample quasirange) - см. Размах выборки. КВАЗИРЕГУЛЯРНАЯ СИСТЕМА (quasi regular system) - см. К-система. КВАЗИСИММЕТРИЧНОЕ РАСПРЕДЕЛЕНИЕ (quasi-symmetric distribution) - невырожденное распределение вероятностей случайной величины X, обладающее свойством иР{Х> х}- vP{X<— x}, х>0, где и, v - неотрицательные постоянные, и + v >0. Понятие «К. р.» введено в [ 1 ]. К. р. играет
особую роль в схеме перемножения независимых случайных величин, поскольку возникающие в ней аналоги саморазложимых распределений всегда являются К. р. Случайная величина X имеет К. р. тогда и только тогда, когда элементы wQ(t), w}(t) соответствующего ей характеристич. преобразования связаны равенством (и+ v)w^(t) = (и- i')w0(t), te$\ В случае Р{Х = 0} = 0 (и только в этом случае) критерием квазисимметричности распределения X является свойство независимости случайных величин |Х| и sign X. Лит.: [1| Зол отарев В. М., «Теория вероятн. и ее примен.», 1957, т. 2, в. 4, <*. 444-69; [2] Бакштис Л., «Лит. матем. сб.*, 1972, т. 12, №1, с. 23-39; [3| Абрамов В. А., «Теория вероятн. и ее примеч.», 1986, т. 31, в. 4, с. 717-29. В. А. Абрамов. КВАНТИЛЬ (quantile) - числовая характеристика случайной величины и соответствующего распределения вероятностей; К. порядка р, 0</;<1, - любое число К такое, что Е{Кр)^р, F (Кр + 0)^р, где F(x) - функция распределения случайной величины X. К. любого порядка всегда существует, не», вообще говоря, определяется неоднозначно. Если F (х) - непрерывная строго монотонная функция, то существует единственная К. любого порядка. К. Ку2 совпадает с медианой случайной величины X. К Км/п, где /// = 1, ..., п - 1, дают в случае единственности тем лучше представление о виде функции F (х), чем больше число п. При п = 4 К. Км/п называются квартилями, при п = 10 - д еци л я ми, при п- 100 - перцентилями. Величины (КуА - /С,/4)/2 и K9/]Q - /ч/ю иногда используются в качестве характеристик рассеяния и называются соответственно семиинтерквартильной широтой и интердецильной широтой. Знание К. для достаточно представительного множества значений р, ()</?< 1, позволяет получить представление о виде функции распределения. Напр., для функции нормального распределения Ф(х) = -1= Г е^/'Чг V2rt J-°° график Ф(.г) можно получить по децилям (см. рис.): где хр и ур являются решениями уравнений Ф(хр) = 1 - р и Fn(yp) = 1 -р соответственно, Rk(x) - нек-рые многочлены, зависящие от pj, ..., [ik, \ii = E{Xx-m)1. В частности, Д:()1=-1,28, К02 = -0,84, /С03 = -0,52, /С04 = -0,25, /С05 = 0, /С06-0,2Г), /С07 = 0,52, £()8 = 0,84, К09=\,28. Квартили нор- n ального распределения Ф(х) равны Кх/4 = -0,67, /С3/4 = 0,67. Лит.: [1| Крамер Г., Математические методы статистики, мер. с англ., 2 и.и., М., 1975. С. Я. Шоргип. КВАНТИЛЬ; асимптотические формулы (quantile; asymptotic formulae for) - асимптотические разложения для фикции, обратной к функции распределения. Пусть случайные величины X]t X2, ..., Хп независимы и одинаково распределены, \9 EX, = m, DX1=a2, 5„ = Х"=1 (X,-w)/(V^a). Если чрункция распределения Fn(x) величины Sn при п -> °° допускает представление /--„(.г)=Ф(.г) + <р(*) ^ п-и/ш+' Qk(x) + o(n-U/2)r+<), где ф(.г)=Ф'(х), Ф(х) означает функцию стандартного нормального распределения, а Qk(x) - нек-рые многочлены, то при п -> оо ^+XU"~<,/2,*+,**4>+o<''~<,/2)r+,>. ^(.)=(^-304) _^3_ 6а3 (*2-1), (х3-3х)- 4 (2хА - 5х). 24а4 36а° Лит.:\\] Большее Л. Н., «Теория вероятн. и ее примем.», 1959, т. 4, в. 2, с. 136-49; [2) его же, там же, 1963, т. 8, в. 2, с. 129-55; 131 Справочник по специальным функциям, пер. с англ., М., 1979. В. И. Пагурова. КВАНТОВАНИЕ ВО ВРЕМЕНИ (time-quantization) - см. Временная дискретизация. КВАНТОВАНИЕ СООБЩЕНИЙ (messages quantization) - разбиение множества возможных значений сообщений, вырабатываемых источником сообщений, на конечное (или счетное) число неперекрывающихся подмножеств А{ так, чтобы нек-рый, специально выбранный элемент этого подмножества а% е Аг представлял сообщения из Лг- с заданной точностью воспроизведения сообщений. К. с. представляет собой один из способов кодирования источника сообщений. Нахождение оптимального в том или ином смысле К. с. является одной из важнейших задач кодирования непрерывных источников. Лит.: [1] Галлагср Р., Теория информации и надежная связь, пер. с англ., М., 1974; [2] ХарксвичА.А., Борьба с помехами, М., 1965; 13) Berger Т., Rate distortion theory, Englewooct Cliffs (N.J.), 1971. А/. С. Пинскер, В. В. Прелое. КВАНТОВАЯ ДИНАМИЧЕСКАЯ ПОЛУГРУППА (quan- turn dynamical semigroup) - полугруппа марковских отобра жений, задающая в общем случае необратимую эволюцию открытой квантовой системы в пространстве этой системы. Пусть Л - произвольная \У*-алгебра с единицей (см. Алгебра наблюдаемых). Марковской динамической полугруппой в некоммутативной теории вероятностей называется семейство {Ф^, t е IRJ нормальных марковских отображений, в Л такое, что 1) 0,°Os = 0,+s, t, 5 6IP+, 2) ФДХ)->Х при £->0 для всех ХеЛ в смысле слабой *-топологии Л. Если Л - коммутативная алгебра функций на нек-ром «фазовом» пространстве Е, то это понятие сводится к полугруппе переходных операторов, отвечающей классич. марковскому процессу со значениями в Е. Если же Л = ЛОд - алгебра всех ограниченных операторов в гильбертовом пространстве Жнек-рой квантовомеханич. системы, то говорят о К. д. п. Если К. д, и. {Ф,} непрерывна по норме, то определяемый обычным образом инфинитезимальный оператор L ограничен и имеет вид L(X) = i[H, X] + 2,°°=1 (V/XVj-iV/VjX + XV/V^/2), где [Н,Х] = НХ-ХН и Я, £°°=i VjVi<e#C*) (см. [2]). Проблема характеризации инфинитезимального оператора К. д. п. в общем случае остается открытой. Другой проблемой является изучение расширений марковской полугруппы до группы автоморфизмов, то есть представление необратимой марковской динамики открытой квантовой системы в виде проекции обратимой динамики «большой» системы. В классич. коммутативном случае этот вопрос сводится к построению марковского процесса по данной полугруппе переходных отображений и решение его дается конструкцией Колмогорова - Даниеля. В общем случае для любой марковской полугруппы [Ф,| в ^существует унитарное расширение, то есть вложение /0 алгебры Л в нек-рую С*-алгебру .< КВАНТОВАЯ 225
группа *-автоморфизмов (движений) {at} алгебры .с/и условное математич. ожидание £0 из Л на .с/0=/0(,#) такие, что <bt=Jo*EoatJo (CM- Квантовый случайный процесс). Представляет интерес построение расширений, обладающих более специальными и физически мотивированными свойствами непрерывности (нормальности), марковости, стационарности и т.д. Лит.: [1] Davies E., Quantum theory of open systems, L., 1976; |2] Lindblad G., «Comm. Math. Phys.», 1976, v. 48, p. 119-30; [3] ХолевоА. Секи.: Итоги науки и техники. Современные проблемы математики. Фундаментальные направления, т. 83, М., 1991, с, 3-132, А. С. Холево. КВАНТОВАЯ ТЕОРИЯ ВЕРОЯТНОСТЕЙ (quantum pro bability theory) - см. Некоммутативная теория вероятностей. КВАНТОВАЯ ТЕОРИЯ ПОЛЯ аксиоматическая (axiomatic quantum field theory) - см. Аксиоматическая квантовая теория поля. КВАНТОВАЯ ТЕОРИЯ ПОЛЯ евклидова (Euclidean quantum field theory) - см. Евклидова квантовая теория поля. КВАНТОВАЯ ТЕОРИЯ ПОЛЯ конструктивная (constructive quantum field theory) - см. Конструктивная квантовая теория поля. КВАНТОВАЯ ТЕОРИЯ ПРОВЕРКИ ГИПОТЕЗ И ОЦЕНИВАНИЯ (quantum hypotheses testing and estimation theory) - статистическая теория, изучающая принципиальные квантовомеханические ограничения на точность измерений и качество основанных на них процедур принятия решений. Для описания статистич. неопределенности К. т. п. г. и о. использует математич. аппарат квантовой механики - теорию операторов в гильбертовом пространстве. Таким образом, К. т. п. г. и о. является «некоммутативным» аналогом обычной теории статистич. решений, основанной на классич. вероятностной модели неопределенности, и вместе с ней может быть включена в более общую схему (см. Некоммутативная теория вероятностей, Статистических решений общая теория). К. т. п. г. и о. возникла в 1970-х гг. из решения задач теории оптич. связи, однако ее результаты носят универсальный характер и применимы к любой проблеме, касающейся экстремальной точности физич. измерений. Как и в классич. теории статистич. решений, имеется множество значений 0 неизвестного параметра в, множество U решений (исходов измерений) и (обычно U = 0) и задана функция отклонения WQ(u), определяющая качество решения и при данном значении параметра в. Принципиальное отличие состоит в способе задания статистич. неопределенности: считается, что каждому значению в соответствует плотности оператор 5е в гильбертовом пространстве Н рассматриваемой квантовомеханич. системы, задающий статистич. состояние этой системы. Решающее правило определяется квантовым измерением с исходами в множестве U. В физич. задачах квантовой системой является носитель информации, напр. когерентное электромагнитное излучение, параметры к-рого зависят от «полезного сигнала» в. Квантовое измерение осуществляется нек-рым прибором - приемником излучения. Речь тогда идет об отыскании принципиальных квантовых ограничений на качество измерения и о его оптимизации. Пусть 0 и U - конечные множества, что соответствует проверке гипотез. Квантовое из м ерени е с множеством исходов U описывается разложением единицы в Я, то есть семейством операторов М = {Ми, ueU}, удовлетворяющих условиям \)Ми>0, 2)£цеиМ„ = /, (1) 226 КВАНТОВАЯ где / - единичный оператор. Вероятность исхода и в состоянии Sq полагается равной \i^(u) = trSeMu. Среднее отклонение, отвечающее измерению М, равно Таким образом, возникает семейство {RQ{M}, ве0} аффинных функционалов, определяющих качество измерения М и заданных на выпуклом множестве Ш(Ю всевозможных разложений единицы (1). Это позволяет по аналогии с обычной теорией статистич. решений сформулировать ряд определений - допустимого, минимаксного, бейесовского измерения и т. п. Специфика К, т, п, г, и о. заключается в существенно более сложной структуре множества решающих правил т(и). Бейесовская задача проверки гипотез. Пусть к = {тсе} - априорное распределение вероятностей на 0, Бей- есовское отклонение ЫЩ = Хвев ^ReW = tr I„€l, Wiu)Mu, где - операторная апостериорная функция отклонения, является аффинным функционалом на выпуклом множестве 3R (С/). Бейесовское измерен ие, минимизирующее Rn {А/}, всегда существует и может быть найдено среди крайних точек 3R(L0. Имеет место следующий критерии: измерение является бейесовским тогда и только тогда, когда существует ядерный оператор Л такой, что A°^W(u), ueU; (Л°- W(u))Mu = 0, ueU. (2) При этом имеет место соотношение двойственности min R. {М} = max {trA:A^W(u), ueU) м и Л является (единственным) решением двойственной задачи. Бейесовская задача допускает явное решение в ряде интересных случаев: в случае двух гипотез; в случае, когда все операторы W(u) - W(u') коммутируют; в ковариантных задачах, симметричных относительно нек-рой группы преобразований (см. [3] - [5]). Принципиальная трудность состоит в отсутствии явного описания крайних точек множества квантовых измерений 3R(U). В классич. случае крайними точками множества всех решающих правил являются детерминированные правила и только они. Формальным некоммутативным аналогом детерминированных правил являются простые измерения, описываемые ортогональными разложениями единицы Е = = {Еи, ие U), для к-рых операторы Еи - проекторы на взаимно ортогональные подпространства в Н. Всякое простое измерение является крайней точкой множества 9R(t/). Следует отметить, что только такие измерения и рассматривались н стандартной формулировке квантовой механики, начиная с ее создания (см. [1]). Однако для всякого разложения единицы М = {MJ найдется (см. [2], [5]) гильбертово пространство Я0, оператор плотности 50 в 7/0 и ортогональное разложение единицы Е = {Еи} в тензорном произведении гильбертовых пространств Н <8> Я0 такое, что для любого оператора плотности S в Н trSMu = tr(S®S0)Eu, ueU. На физич. языке это означает, что всякое измерение в смысле К. т. п. г. и о. статистически эквивалентно простому измерению над нек-рым расширением исходной системы, включаю щим независимую квантовую систему в состоянии 50. Пара доксальным с классич. точки зрения является тот факт, что
подобная «квантовая рандомизация» может дать решающее правило, к-рое несет больше информации о состоянии исходной системы, нежели любое простое измерение. Это является следствием того, что среди крайних точек множества 3R(U), ее/и U состоит более чем из двух элементов, всегда имеются неортогональные разложения единицы (см. [5]). Таким образом, К. т. п. г. и о. дает существенный аргумент для принципиального расширения понятия квантового измерения (с другой стороны, к подобному расширению и приводит так наз. операционный подход к квантовой механике; см. [6]). В задачах оцениванияЭи (7 являются непрерывными параметрич. множествами. Пусть U - измеримое пространство с а-алгеброй ifi(U)\ измерением с исходами в U называется разложение единицы на U, то есть семейство операторов М = {М(В), Be.fiiU)} в Я со свойствами: 1) М(В)^0, ВеЖи); 2) для любого измеримого разбиения [В } пространства U выполняется V. М (#,) = /, где ряд сходится в сильной операторной топологии. Распределение вероятностей измерения М в состоянии 5е определяется соотношением ц^(В), trSQM(B), BeJi(U). Большая часть результатов квантовой теории проверки гипотез, в частности решение бейесовской задачи, обобщается на случай достаточно произвольных множеств 0 и U путем замены сумм на надлежащим образом определенные интегралы (см. [4]). Явные решения получены для ковариантных задач и для семейств гауссовских (квазисводных) состояний (см. [3|-[5|. [7]). Далее рассматривается случай 0=l7 = IR". Пусть Xt, ..., Хг - совместимые квантовые наблюдаемые, то есть набор коммутирующих самосопряженных операторов в Я (см. Наблюдаемая). Такому набору однозначно сопоставляется совместная спектральная мера Е = {Е(В), В е .ЖИ?")}, к-рая описывает точное совместное измерение наблюдаемых Xit ..., Хп. Всякое измерение М с исходящими в II?" статистически эквивалентно точному совместному измерению п совместных наблюдаемых в нек-ром расширении Я <8> Я0 исходной системы. Пусть дано семейство состояний {5е}, где в = [et, ..., в„] е IR". И шереиис М с исходами в II?" называется несмещенным, если \ ... \ Xj\$(dxx...dxn)mjt ; = 1, .... я. При определенных условиях регулярности для матрицы ковариации несмещенного измерения De{M| = [J.../Ц -в;)(х, -ek)^(dxv..dxn)]n)kM имеет место некоммутативный аналог неравенства Рао - Крамера De{M}>JQ-\ (3) где Je=[trSe(LJe°LQ)]J ^, a LJQ _ операторы симметричных логарифмич. производных, удовлетворяющие уравнениям S^l£ = asyde>f; = l, ..., п. ЗдесьХ°У = (ХУ + УХ)/2 - йорда- ново произведение операторов. Кроме этого, имеет место другое неравенство: DB{M)>f;\ (4) где Jq] = [tr SqL{ (Lq) *\j\ k=\> a ^e ~ операторы правых логарифмич. производных, удовлетворяющих уравнениям Sq°Ljq = -dSo/dQ:, j = 1, ..., п. Неравенства (3) и (4) дают две существенно разные, несравнимые границы для DQ{M} (см. [3]). Известна более сложная общая граница, из к-рой вытекает как (3), так и (4) (см. [5]). Наиболее законченную форму рекомендации К. т. и. г. и о. принимают для гауссовских состояний, когда удается дать не только достижимые границы качества квантовых измерений, но и довольно полно описать оптимальное решающее правило. Пусть набор квантовых наблюдаемых Q, Р, /=1, ..., s, образует регулярное представление канонич. коммутационных соотношений для системы с s степенями свободы: Юг Pk] = ibjkI, lQjt Qk] = lPjt Pk] = 0,j, k=\, .... 5, (5) и пусть где г = [х\, г/j, ..., xs, ys]. Соотношения (5) эквивалентны следующим: [R(z),R(z')] = -iA(z,z')I, где s - невырожденная кососимметрич. форма. Состояние с оператором плотности S называется гауссовским, если его квантовая характеристич. функция имеет вид trS exp [iR(z)]=exp [im(z) - a(z, z)/2], (6) где т (г) - линейная, а а (z, z) - положительная квадратичная форма от г. Необходимым и достаточным условием того, чтобы правая часть формулы (6) была квантовой характеристич. функцией, является выполнение неравенства la(zJfzk)]^ilA(zJfzk)]/2 для любых г.-. Форма m(z) имеет смысл среднего значения, аа(г, г)- корреляционной функции семейства наблюдаемых {R(z)} в состоянии 5. Измерение М с исходами в II?" называется каноническим, если его операторная характеристич. функция имеет вид f...f exp[iJ™HtjXf)MUxv..dxn) = где [>cik] - действительная матрица. Для того чтобы это соотношение определяло измерение, необходимо и достаточно, чтобы выполнялось Канонич. измерение эквивалентно точному совместному измерению набора наблюдаемых в расширенном пространстве H®Hq\ Xj = R(2j)^I0 + I^rJ, /= 1, ..., п, где Д;° - канонич. наблюдаемые в пространстве Я0 с гауссовским оператором плотности 50 такие, что [rJ, R®] = iA(zj, zk)IQ', trS0#y=0; trS0(K<4R°)=x,v Пусть {Sq} - семейство гауссовских состояний с фиксированной корреляционной функцией и средним значением вида т(г) = в1т1(г)+ ... + Qnmn(z), и пусть ищется несмещенное измерение М параметра в = [et ..., вя], наилучшее в смысле минимума взвешенной среднеквадратичной погрешности tr GDq{M}, где G - фиксированная положительная весовая матрица. Общая теорема К. т. п. г. и о. утверждает, что равномерно по 6 е IR" наилучшее несмещенное измерение существует и находится в классе канонич. измерений (см. [5]). Параметры наилучшего измерения г., x.k в общем случае удовлетворяют нек-рому нелинейному уравнению, зависящему от G. К. т. п. г. и о. предоставляет общие методы вычисления фундаментальных пределов точности физич. измерений, к-рые могут служить эталонами для оценки качества существующих КВАНТОВАЯ 227
процедур. Что касается другой стороны проблемы - построения оптимальной измерительной процедуры, то с точки зрения приложений К. т. п. г. и о. не дает окончательного ответа, поскольку не существует универсального способа синтеза измерительного прибора по описанию его статистики в терминах разложения единицы (или наблюдаемых). Вопрос этот по существу выходит за рамки К. т. п. г. и о. и относится к известной «проблеме измерений» в квантовой теории. Тем не менее в ряде конкретных случаев рекомендации К. т. п. г. и о. проливают свет и на эту физич. сторону проблемы оптимального измерения (см. [3], [5], [7]). Лит.: [1] Нейман Дж., Математические основы квантовой механики, пер. с нем., М., 1964; [2] Наймарк М. А., «Изв. АН СССР. Сер. матем.», 1940, т. 4, Ко 3, с. 277-318; [3] ХелстромК., Квантовая теория проверки гипотез и оценивания, пер. с англ., М., 1979; [4] ХолевоА. С, Исследования по общей теории статистических решений, «Тр. Матем. ин-та АН СССР», 1976, т. 124; [5] его же, Вероятностные и статистические аспекты квантовой теории, М., 1980; [6| Da vies E., Quantum theory of open systems, L. - [a. o.], 1976; [7J Stratonovich R. L., «Stochastics», 1973, v. 1, p. 87-126. А. С. Холсво. КВАНТОВОЕ БРОУНОВСКОЕ ДВИЖЕНИЕ (quantum Brownian motion) - см. Квантовое стохастическое исчисление. КВАНТОВОЕ ДЕКОДИРОВАНИЕ (quantum decoding) - см. Квантовый канал связи. КВАНТОВОЕ ЕВКЛИДОВО ПОЛЕ (quantum Euclidean field) - см. Конструктивная квантовая теория поля. КВАНТОВОЕ ИЗМЕРЕНИЕ (quantum measurement) - см. Наблюдаемая, Квантовая теория проверки гипотез и оценивания. КВАНТОВОЕ КОДИРОВАНИЕ (quantum coding) - см. Квантовый канал связи. КВАНТОВОЕ СОСТОЯНИЕ (quantum state) - см. Плотности оператор. КВАНТОВОЕ СТОХАСТИЧЕСКОЕ ДИФФЕРЕНЦИАЛЬНОЕ УРАВНЕНИЕ (quantum stochastic differential equation) - см. Квантовое стохастическое исчисление. КВАНТОВОЕ СТОХАСТИЧЕСКОЕ ИСЧИСЛЕНИЕ (quantum stochastic calculus) - операторное обобщение стохастического дифференциального исчисления, в основе к-рого лежит процесс квантового броуновского движения {At\ t^O}, то есть процесс {At}, являющийся семейством операторов в нек-ром гильбертовом пространстве, удовлетворяющий соотношениям коммутации [At, As] = 0, [а% Л+] = 0, [Av Л+] = min (t, s), (1) где [А, В]=АВ-ВА - коммутатор операторов А, В, a A - сопряженный оператору А. Кроме того, задается состояние, относительно к-рого {At} имеет квантовое гауссовское распределение (в частности, семейства {At + A^} и {Г (At-A+S)} эквивалентны по распределению обычному винеровскому процессу, но не коммутируют между собой). Разработана теория квантовых стохастических дифференциальных уравнений dX = dA+F+GdA + Hdt, (2) где {Xt, Ft, Gt, Ht} - семейства операторов, согласованные с потоком W*-алгебр, порожденных процессом {At}. Имеет место следующее обобщение формулы Ито для произведений: если {Mt}, {Nt} - процессы, определяемые уравнениями типа (2), то dMN = dMN + MdN + dMdN, где произведения базисных дифференциалов dA , dA, dt считаются равными нулю, за исключением dAtdA* = dt (в слу- 228 КВАНТОВОЕ чае квантового броуновского движения с минимальной дисперсией). В схему К. с. и. естественно включается интегрирование по пуассоновскому процессу и его некоммутативным обобщениям. Соотношения коммутации (1) характерны для бозонных систем; если коммутатор [А, В] заменяется на антикоммутатор {А, В}=АВ + ВА, то получается фермионное квантовое броуновское движение, для к-рого имеет место соответствующее стохастич. исчисление. К. с. и. находит приложения в теории расширений квантовых динамических полугрупп (см. также Квантовый случайный процесс), в теории мартингалов и в теории стохастич. интеграла. Лит.: [1] Parthasarathy К., An introduction to quantum sio- chastic calcules, Basel, 1992; [2] Meyer P.,Quantum probability tor probabilists, В., 1993; [31 Квантовые случайные процессы и открытые системы, пер. с англ., М., 1988. д С. Холеоо. КВАНТОВЫЙ КАНАЛ СВЯЗИ (quantum communication channel) - система передачи (преобразования) информации, использующая в качестве носителя сообщений квантовомеха- нический объект. Так, любой электромагнитный канал связи, строго говоря, является квантовым и рассматривается как классический лишь в рамках той или иной аппроксимации. В 1940-х гг. в работах Д. Габора (D. Gabor), заложивших физич. основы голографии, впервые был поднят вопрос о кван- товомеханич. ограничениях на возможности передачи информации. Математич. исследование этих принципиальных ограничений и составляет предмет теории К. к. с. В отличие от классич. сообщения, описываемого распределением вероятностей на пространстве сигналов 0, квантовое сообщение представляется плотности оператором (состоянием) в гильбертовом пространстве Я, соответствующем данному квантовомеханич. объекту. Всякий канал связи можно рассматривать как аффинное (сохраняющее выпуклые комбинации) отображение множества сообщений на входе в множество сообщений на выходе. В некоммутативной теории вероятностей отображение, описывающее канал связи, возникает как сопряженное к переходному отображению алгебры наблюдаемых на выходе в алгебру наблюдаемых на входе канала свя;ш (см. Марковское отображение). В частности, квантовое кодирование есть аффинное отображение С множества J*(Q) распределений вероятностей на пространстве входных сигналов 0 в множество @(Я) всех операторов плотности в Я. Чтобы задать кодирование, достаточно указать образы SQ распределений, сосредоточенных в точках ве0. Собственно К. к. с. есть аффинное отображение L из @(Я) в @(Я'), где Я и Я' - гильбертовы пространства, описывающие соответственно вход и выход канала. Квантовое декодирование есть аффинное отображение D из @(Я') в ,HU), где U - пространство сигналов на выходе. Декодирование удобно задавать разложением единицы в Я', то есть измерением M(du) со значениями в U по формуле (DS)(du) = tr SMidu). Передача сообщений, как и в классич. теории информации, описывается схемой Л0)Я@(Я)^@(Я')^Д(С7), (*) причем условное распределение сигнала на выходе относительно сигнала на входе дается формулой PCD(du\Q) = trL(SQ)M(du). Важной задачей является нахождение оптимального способа передачи сообщения по заданному квантовому каналу L. Вводится нек-рый функционал качества Q{PC D(du\Q)} и требуется найти экстремум этого функционала по С и D. Наиболее полно изучена задача, когда С фиксировано и варьируется
только D (см. Квантовая теория проверки гипотез и оценивания). Пусть j(p,c,d)=\ I P(rfe)PrDto|e)in^ ^— JeJu CD I J pcD(dl<|e0p(de0 - информации количество, Сх = sup /(P, С, D), L" есть и-я степень канала L: 'C' Ln:®(H)®...®®(H)-+®W)®...®®(H'). Для канала Ln можно рассмотреть диаграмму, аналогичную (*), и определить соответствующую величину Сп. Средняя пропускная способность канала L определяется как C = sup (Сп/п). Необычным с классич. точки зрения свойст- воч К. к. с. является наличие «памяти» в этой ситуации, так что в общем случае Сп > пСх и C>CV Явное выражение для пропускной способности дает квантовая теорема кодирования: с= sup [я(/sep(de))-J h(Sq)pw), где H(S) = ~trS ln S - энтропия квантового состояния S. В частности, для квантового гауссовского канала с ограничением на среднюю мощность сигнала с=Ч,+^г)+[(£+л')1п(1+1^)-лПп(14Й где Е - мощность сигнала, N - среднее число квантов гауссовского К. к. с. Лит.: [1| Хслстром К., Квантовая теория проверки гипотез и оценивания, пер. с англ., М., 1979; [21 ХолевоА. С., Квантовые теоремы кодирования, «Успехи матем. наук», 1998, т. 53. А. С. Холево. КВАНТОВЫЙ СЛУЧАЙНЫЙ ПРОЦЕСС (quantum stochastic process) - математическая модель для описания стохастической эволюции открытой (квантовой) системы средствами некоммутативной теории вероятностей. Принципиальная трудность теоретич. определения понятия К. с. н. состоит в отсутствии однозначного некоммутативного аналога конечномерных распределений. Наблюдаемые, отвечающие разным моментам времени, могут быть некоммутирующими и, таким образом, не имеющими совместного распределения вероятностей. В силу этого возможны различные определения К. с. п., отвечающие разным некоммутативным обобщениям понятия случайного процесса. Наиболее близким к классическому является определение, предложенное в [1], согласно к-рому К. с. п. задается тройкой (.с/, (jt)t ей?, <р), где *</есть *-алгебра с единицей (обычно С*- или \У*-алгебра), jt (для каждого t е Ю - *-гомоморфизм (отображение, сохраняющее алгеб- раич. операции и инволюцию) фиксированной *-алгебры & с единицей в *-алгебру .Y, <р - состояние на .г/ (см. Алгебра наблюдаемых). В классич. случае ,<*/и Ш - коммутативные алгебры измеримых ограниченных функций соответственно на пространстве элементарных исходов 1) и на фазовом пространстве Е, jt определяется семейством случайных величин на С1 со значениями в Е, а ф - математич. ожидание, соответствующее вероятностной мере на £1. При естественных условиях регулярности К. с. п. однозначно с точностью до эквивалентности восстанавливается по корреляционным ядрам Wt^...,tn(Xv...,Xn,Yv...,Yn) = = <p(;,i (X,)*...jt(Xn)*jt(Yn)...jt{ (У,)), (•) где п=\, 2,...; tv ..., *„€»?, Xv ..., Хп, Y]f ..., Ynetf (некоммутативный аналог теоремы Колмогорова). С К. с. п. связываются семейства *-подалгебр «прошлого», «настоящего» и «будущего»: К. с. п. называется марковским, если существует согласованное с ф семейство условных математич. ожиданий (E,j)fe|p из .<4 на .с/ц такое, что E,j C^j) cz dt, £eltf. Для марковского К. с. п. соотношение Фл5^)=УГ1 Е„;5(Х), XeJ},t<s, определяет цепное семейство марковских отображений, к-рое в стационарном случае превращается в квантовую динамическую полугруппу, задающую «редуцированную динамику» квантовой системы в алгебре ,#. Наиболее изучены марковские К. с. п., к-рые порождаются решениями стохастич. дифференциальных уравнений для бозе- и фермисистем, подчиняющихся соответствующим соотношениям коммутации. Для таких уравнений разработан (см. [1], [2]) некоммутативный аналог стохастич. исчисления Ито (см. Квантовое стохастическое исчисление). Хотя вся совокупность корреляционных ядер (*) в принципе определяется динамикой «большой» системы, описываемой *-алгеброй &, непосредственный физич. смысл имеют лишь хронологически упорядоченные ядра с t\ < ... <tn, описывающие статистику последовательных измерений в соответствующие моменты времени. Первое определение К. с. п., данное в [3], основывалось на хронологически упорядоченных корреляционных ядрах. Если вышеприведенное определение лучше приспособлено для исследования конкретных систем, определяемых, в частности, стохастич. дифференциальными уравнениями, то это определение позволяет исследовать ряд общих вопросов, связанных с необратимостью, эргодичностью и хаосом в квантовых системах. Лит.: [11 Квантовые случайные процессы и открытые системы, М., 1988; [2] Quantum probability and applications II, «Lect. Notes Math.», 1985, v. 1136; 13] Lindblad C, «Comm. Math. Phys.», 1979, v. 65, p. 281-94; [4] Холево А. С, в кн.: Итоги науки и техники. Современные проблемы математики. Фундаментальные направления, т. 83, М., 1991, с. 3-132. А. С. Холево. КВАПЕНЯ ТЕОРЕМА (Kwapien theorem) - см. Банахово пространство типа р. КВАПЕНЯ - ШВАРЦА ТЕОРЕМА (Kwapien - Schwartz theorem) - см. Радонизующий оператор. КВАРТИЛЬ (quartile) - частный случай квантили', квантиль Кр порядка р = т/4, где т=\, 2, 3. К. К^2 совпадает с медианой. Используется для ориентировочного представления о распределении случайной величины. Величина (/С3/4 -/С1/4)/2 иногда используется как характеристика рассеяния и называется семиинтерквартильной широтой. С. Я. Шоргии. КЕМЕНИ МЕДИАНА (Kemeny median) - выборочное среднее в пространстве {С} бинарных отношений определенного вида (толерантностей, ранжировки, разбиений и др.), определяемое с помощью Кемени расстояния. Для выборки At, A2, ..., Апе {С} медианой Кемени является бинарное отношение А* е {С} такое, что где d(Ai, A) - расстояние Кемени между бинарными отношениями А} и Л из {С}. К. м. была первоначально введена (см. [1]) для пространства ранжировок. К. м. - один из основных объектов изучения в бинарных отношений статистике (см. [2]). КЕМЕНИ 229
Лит.: [1J КемениДж., СнеллДж., Кибернетическое моделирование. Некоторые приложения, пер. с англ., М., 1972; [2] Орлов А. И., в кн.: Анализ нечисловой информации в социологических исследованиях, М., 1985, с. 58-92. А. И. Орлов. КЕМЕНИ РАССТОЯНИЕ (Kemeny distance) - расстояние между бинарными отношениями Л и Б на конечном множестве X = {xv x2, ..., xk}. Для определения К. р. используется взаимно однозначное соответствие между совокупностью {С} бинарных отношений С на множестве X и совокупностью (0,1)-матриц |/i,-(C)|| порядка kx k, при к-ром fAC) = 1 тогда и только тогда, когда х{ и х.- находятся в отношении С, и fij(C) = 0 в противном случае. К. р. rfU,B) = I*>=, |/^С4)-/у(В)| было введено в пространство ранжировок с помощью нек-рой системы аксиом (см. [1]). Аналогичные системы аксиом, дающие К. р., позже были предложены для пространств толерант- ностей, разбиений и др. (см. [2]). К. р. широко используется в статистике объектов нечисловой природы. Лит.: [1] КемениДж., СнеллДж., Кибернетическое моделирование. Некоторые приложения, пер. с англ., М., 1972; [2] Орлов А. И., Устойчивость в социально-экономических моделях, М., 1979. А. И. Орлов. КЕНДАЛЛА КОЭФФИЦИЕНТ ранговой корреляции (Kendall rank correlation coefficient) - одна из выборочных мер зависимости двух случайных величин (признаков) X и У, основанная на ранжировании элементов выборки (Xt, Yj), ..., (Хп, Yn). К. к. ранговой корреляции относится, таким образом, к ранговым статистикам и определяется фор- МУЛ0Й т = 25(г, г>(Л-1), где г, - ранг У, принадлежащего той паре (X, У), для к-рой ранг X равен t, S = 2N- n(n- 0/2, N - число элементов выборки, для к-рых одновременно j>i и rJ>ri. Всегда -l^x^l. В качестве выборочной меры зависимости К. к. ранговой корреляции широко использовался М. Кендаллом (М. Kendall, см. [1]). К. к. ранговой корреляции применяется для проверки гипотезы независимости случайных величин. Если гипотеза независимости верна, то Ет = 0 и Dx = 2(2п + 5)/9п(п- 1). При небольшом объеме выборки (4^и^10) проверка статистич. гипотезы независимости производится с помощью специальных таблиц (см. [3]). При п>\0 пользуются нормальным приближением для распределения т: если | т |>иа/2 j2(2n + 5)/9n(n-\), то гипотеза о независимости отвергается, в противном случае принимается. Здесь а - уровень значимости, иа/2 есть 100а/2-ироцентная точка нормального распределения. К. к. ранговой корреляции, как и лТобая ранговая статистика, может использоваться для обнаружения зависимости двух качественных признаков, если только элементы выборки можно упорядочить относительно этих признаков. Если X, У имеют совместное нормальное распределение с коэффициентом корреляции р, то связь между К. к. ранговой корреляции имеет вид Ex = 2rt_1arcsin p. См. также Спирмена коэффициент ранговой корреляции, Ранговый критерий. Лит.: 11] Кендэл М., Ранговые корреляции, пер. с англ., М., 1975; J2] Ван дер ВарденБ.Л., Математическая статистика, пер. с нем., М., 1960; 13] БольшевЛ.Н., Смирнов Н. В., Таблицы математической статистики, 3 изд., М., 1983. А. В. Прохоров. КЕПСТР (KEPSTR - Kolmogorov Equation Power Series Time Responce) регулярного стационарного случайного процесса с дискретным временем X(t), t = 0, 230 КЕМЕНИ ±1, ..., - последовательность чисел {vk}, k = 0, I, ..., определяемых из условия ехр{г>0 + г>|2 +...} = tf0 + fl12+..., (1) где {ak}, k = 0, l, ..., - коэффициенты разложения Вольда для X(t), z - комплексное переменное, \г\ < 1. Последовательность {vk} введена в рассмотрение Д. Сегё и А. Н. Колмогоровым (см. [1]-[3]) при построении теории стационарных случайных последовательностей. Соотношение (1) играет в этой теории важную роль и называется уравнением Колмогорова. Пусть f(X) - спектральная плотность регулярного стационарного случайного процесса X(t). Тогда имеет место представление fix)- 2л |Ф(е-*)|2, ФО) = £>4г (2) (3) где {ak} - коэффициенты разложения Вольда для X(t). Подставляя (2) в (1), можно определить К. как последователь ность коэффициентов разложения функции 1пФ (z) в степей ной ряд Разложение (3) называется степенным рядом уравнения Колмогорова. Соотношение (3) позволяет интерпретировать {vk} как импульсную переходную функцию нек-рого линейного фильтра, a In Ф(г) - как соответствующую частотную характеристику. Начиная с 60-х гг. К. стал привлекать внимание многих специалистов не только в связи с его использованием в фундаментальной теории случайных последовательностей, но и как полезный инструмент для решения многих задач, и в первую очередь задач цифровой обработки геофизич. данных. Основное свойство К., полезное в приложениях, состоит в следующем: пусть наблюдаемый сигнал представляет собой свертку двух последовательностей Тогда К. сигнала R(t) равен сумме К. последовательностей X(t) и Y(t): v{kR) = v{kX) + v{kY\ k = 0, 1,... Если, напр., необходимо решать так наз. задачу к о н в о л ю ц и и, то есть восстановления по наблюдениям одной из компонент свертки [скажем, X(t)], то последовательность оценок К. {vQ , подвергают фильтрации (в кепстральной области), подавляя слагаемое vk . Затем переходят от отфильтрованного К. обратно во временную область (см. [4], [5]). Часто в литературе, посвященной прикладным исследованиям, кепстром называют, следуя [4], коэффициенты разложения в ряд Фурье, функции In f(X) = 21n | Ф(е~г ) |. Лит.: [1] Szego G., «Math. Ann.», 1915, Bd 76, S. 490-f>03; [2] Kolmogorov A.N., «C. r. Acad, sci.», 1939, t. 208, p. 2043-45; 13] Колмогоров А. Н., Теория вероятностей и математическая статистика, М., 1986, с. 215-63; HI BogertB., Healy M., TukeyJ., «Proc. Simp. Time Ser. Analysis», N. Y., 1963, p. 209-43; 15] Оипси- гейм А., Шафер Р., Цифровая обработка сигналов, пер. с англ., М., 1979. /о. Г. Баласаиов. КЕПТЕЙНА РАСПРЕДЕЛЕНИЯ (Kapteyn distribution) - се- мейство распределений, предложенное Дж. Кептейном (1916) для описания распределения случайных величин, значения к-рых являются результатом действия большого числа слабо зависимых причин, но непосредственно не являющихся суммой большого числа величин. При весьма общих условиях распределение величины X принадлежит семейству К. р., если нек-рая функция G (X) имеет нормальное распределение. Напр., если эффект действия данной причины пропорционален уже достигнутому значению случайной величины, то
G(X) = \nX и получается логарифмически нормальное распределение. Лит.: [1J Ар лей Н., Бух К., Введение в теорию вероятностей и магматическую статистику, пер. с англ., М., 1951. М. И. Войцеховский. КЕСТЕНА КРИТЕРИЙ АМЕНАБЕЛЬНОСТИ (Kesten con dition/criterion of amenability) - см. Случайное блуждание на группе. КИНЕТИЧЕСКОЕ УРАВНЕНИЕ ПЕРЕНОСА для одно частичной функции рас предел ен и я (kinetic transfer equation for one-particle distribution function) - одно из основных уравнений кинетической теории в неравновесной статистической физике. Важнейшими К. у. п. являются уравнение Больцмана в кинетич. теории газа, уравнение Власова, уравнение Ландау, уравнение Балеску - Ленарда в физике плазмы, различные уравнения переноса частиц: нейтронов, фотонов, электронов и т. д. В случае, когда фазовое пространство частицы является областью евклидова пространства II?", многие К. у. п. в среде частиц малой примеси асимптотически можно записать в виде Af=g для стационарного [и, обычно, (d/df)f+Af=g для нестационарного] процесса переноса с нек-рым линейным оператором А: -jf(x').X(x', x)dx' = (Af)(x) (*) при соответствующих граничных условиях для плотности вероятности f или же для потока. Члены 1-го и 2-го порядка дифференциального оператора D из разложения А = D + А-К описывают гладкое (среднее) движение и, соответственно, непрерывную диффузию частиц, оператор Л умножения на частоту столкновений Х(х) задает стохастич. закон обрыва непрерывного движения (в акте поглощения, рассеяния или деления частиц), ядро .х(х', х) интегрального оператора К - закон рассеяния и деления (если оно есть). Сопряженный оператор А* (см. Сопряженная задача переноса) при естественных ограничениях на коэффициенты и ядро является ин- финитезимальным оператором однородного во времени обрывающегося марковского процесса X(t) в II?", возможно ветвящегося. При этом оператор D служит инфинитезимальным оператором непрерывного марковского процесса Y(t). Траектории X(t) состоят из (прямолинейных в отсутствие диффузии и внешних полей) отрезков траектории марковского процесса Y(t), tn-i<t<tn, между двумя последовательными скачками (вызванными столкновениями с частицами среды в моменты ^, ..., tn ...). Статистика величины скачков X(tn-Q) -+X(tn + 0) (и рождений) определяется ядром J( (или его декомпозицией на соответствующие слагаемые), а статистика времен хп = tn- tn_{ между скачками - мультипликативным интегралом на траекториях марковского процесса Y(t) (см. выше) при условии Y(tn^) = X(tn_x +0): Р{тя >*} = expj-jj %mtn_x +s))ds}. Таким образом, для неветвящихся процессов оператор Л* = 0*+Л-/С дает полное стохастич. дифференциальное описание процесса переноса (см. [4]). Подобная вероятностная трактовка К. у. п. служит основой для статистического моделирования задач переноса. С К. у. и. (*) связано описание переноса (обобщенным) уравнением Пайерлса. Как правило, в приложениях в К. у. п. (*) часть членов отсутствует, напр. рассеяние принимается либо чисто скачкообразным, либо чисто диффузионным. Лит.: 11] А х и е з е р А. И., ПелетминскийС. В., Методы статистической физики, М., 1977; [2] Силин В. П., Введение в кинетическую теорию газов, М., 1971; [3] Метод Монте-Карло в атмосферной оптике, Новосиб., 1976; [4] Фролов А. С, ЧенцовН.Н., в кн.: Метод Монте-Карло в проблеме переноса излучений, М., 1967, с. 5-52; 15] Кинетическое уравнение, Матем. энц., т. 2, М., 1979; [6] Переноса уравнения, там же, т. 4, М., 1984; 171 Переноса излучения теория, там же. Ю. К. Кочубей, Н. И. Ченцов. КИ ФАН МЕТРИКА (Ку Fan metric) - сложная вероятно стная метрика, реализующая топологию сходимости по вероятности. Для случайных величин X, Y со значениями из нек-рого сепарабельного метрич. пространства (U, d) эта метрика определяется так: .Х(Х, y) = inf{e:PW(X, У)>е)<е}. По отношению к Леей - Прохорова метрике К. Ф. м. является протоминимальной метрикой (см. также Штрассена теорема). В. М. Золотарев. КИФЕРА ~ ВЕЙСА ЗАДАЧА (Kiefer - Weiss problem) - см. Последовательная проверка гипотез. КИФЕРА - ВОЛЬФОВИЦА ПРОЦЕДУРА стохастической аппроксимации (Kiefer - Wolfowitz procedure of stochastic approximation) - процедура, предназначенная для нахождения точки экстремума неизвестной функции регрессии. Основываясь на идее Роббинса - Монро процедуры стохастич. аппроксимации, Дж. Кифер и Дж. Вольфовиц рассмотрели (см. [1]) следующую задачу, связанную с нахождением точки максимума неизвестной функции регрессии. Пусть R(x), дгей?, - непрерывно дифференцируемая функция регрессии, имеющая единственный максимум в точке х = х0. Задача состоит в том, чтобы по независимым измерениям Y(n, x) = R(x) + G(n, x), *eff?t n=\, 2, ..., где G(n, x)- случайные величины с нулевым средним, определить величину х0. Для решения этой задачи была предложена следующая процедура (К. - В. п.): Х(\) = х, Х(п + \)-Х(п) = = 4^ [Y(n +1, Х(п) + с(п)) - Y(n +1, Х(п) - с(п))], (») с(п) где х - произвольная начальная точка, а а(п) и с(п) - нек-рые специальным образом выбираемые последовательности. Было доказано, что при нек-рых условиях на R(x) и G(n, x) К. - В. п. (*) сходится к х0 по вероятности с ростом п. Процедура (*) подробно изучалась позднее (см., напр., [2]). В частности, была доказана сходимость Х„ к #0 с вероятностью 1 (см. [3]). Исследовались свойства распределений нормированного определенным образом процесса Х(п) - х0 (см. [4]-[6]). Лит.: [1] Kiefer J., WolfowitzJ., «Ann. Math. Statist.», 1952, v. 23, № 3, p. 462-66; [2] Вазан М., Стохастическая аппроксимация, пер. с англ., М., 1972; [3] Blum J., «Ann. Math. Statist.», 1954, v. 25, № 4, p. 737-44; [4] DcrmanC, «Ann. Math. Statist.», 1956, v. 27, № 2, p. 532-36; 15] Dupac V., «Casopis pestov. mat.», 1957, v. 82, p. 47-75; [61 Sacks J., «Ann. Math. Statist.», 1958, v. 29, № 2, p. 373-405. M. Б. Невельсоп. КЛАРКА ФОРМУЛА (Clark formula) - формула, выражающая гладкий функционал f(w) от винеровского процесса и>= (a>f)f6[o,ii в виде стохастического интеграла. Если функционал f на пространстве непрерывных функций Cj0]j дифференцируем по Фреше и удовлетворяет нек-рым условиям на рост, a X(dt, х) - мера на [0, 1 ], отвечающая по теореме Рисса линейному функционалу fix) (производной Фреше в точке х), то f(w) = Ef(w) + £ E[X([t, 1], w) | J°>]dwr Иногда К. ф. называют представление rl КЛАРКА 231
справедливое для любой квадратично интегрируемой случайной величины £) = g(w), где согласованный процесс ф=(ф^) определен однозначно при условии, что Лит.: [1] Clark J.M. С, «Ann. Math. Statist.», 1970, v. 41, № 4, p. 1282-95. Ю. M. Кабанов. КЛАССИФИКАТОР (classifier) - частный случай статистического решающего правила, возникающий в задачах классификации, дискриминантного анализа и распознавания образов. В более узком смысле слова К. - технич. устройство, осуществляющее классификацию сигналов, образов и т. п. И. С. Енюкоа. КЛАССИФИКАЦИОННАЯ ПЕРЕМЕННАЯ (nominal van- able) - см. Предиктант. КЛАССИФИКАЦИОННЫЙ ПРИЗНАК (nominal test) - см. Многомерный статистический анализ. КЛАССИЧЕСКОЕ ОПРЕДЕЛЕНИЕ ВЕРОЯТНОСТИ (classical definition of probability) - см. Вероятностей теория. КЛАСТЕР (cluster) - см. Иерархические процедуры классификации. КЛАСТЕР-АН АЛ ИЗ (cluster analysis) - множество вычислительных процедур, к-рые формируют либо выявляют иерархии (разбиения), лежащие в основе тех или иных совокупностей данных. Реализующие эти разбиения алгоритмы, как правило, состоят из двух основных шагов: вычисление метрики или показателей сходства и пошаговое построение кластеров. Различают два основных типа задач К.-а. Первый заключается в разбиении множества /, состоящего из п объектов на т кластеров, т<п, то есть число кластеров может быть выбрано априорно и наперед задано. Во втором число кластеров определяется в процессе разбиения множества на кластеры, исходя из оптимизации нек-рой целевой функции. Лит.: [\] ДюранБ., О дел л П., Кластерный анализ, пер. с англ., М., 1977; 12) Классификация и кластер, пер. с англ., М., 1980. К. Ю. Репин. КЛАСТЕРНАЯ МОДЕЛЬ (cluster model) - см. Многомерных данных модель структуры. КЛАСТЕРНЫХ РАЗЛОЖЕНИЙ МЕТОД (method of cluster expansion) - один из аналитических методов исследования физических систем и полей, применяемый в статистической физике и квантовой теории поля. Пусть {ф^, te№ (или t е T )} - случайное поле, определенное в d-мерном пространстве II? (или на ^-мерной решетке ld), и fA, А с IRr/G4 ald),- локальный функционал от поля (то есть функция от конфигурации ноля, зависящая лишь от значений конфигурации на ограниченном множестве Л). Кластерным разложени- е м среднего (fA) этого функционала называется представление вида где суммирование происходит по нек-рому «хорошо обозримому» набору индексов R, а величины bR(fA) «достаточно явно» выражаются через значения fA и значения «параметра», задающего поле. (Напр., в наиболее типичном случае гиббсовского случайного поля «параметром» служит потенциал взаимодействия; см. [1].) Кластерные разложения, аналогичные (1), могут быть получены и для других характеристик случайного поля (напр., удельная энтропия, удельная свободная энергия - для гиббсовских случайных полей), а также (в случае квантового поля) и для средних (•) по вакуумному состоянию (см. [2]). 232 КЛАССИФИКАТОР Простейшие примеры кластерных разложений таковы. 1. Высокотемпературные разложения в модели Изинга. Это - гиббсовское случайное поле на решетке Ж со значениями ф; = ±1, задаваемое взаимодействием спинов в ближайших точках tx> t2 вида Yq>t q>t , \tx -12\ = 1. Среднее (<ps, ф^), где г и sel - произвольные точки решетки, при достаточно больших значениях температуры Т может быть представлено I п I <ч>л>=2Ц-т) ^<<рл.ПХ'>о. (2) где суммирование происходит но всевозможным целочисленным неотрицательным финитным функциям п = {пх], определенным на ребрах Т , таким, что 1) подграф G(n) = suppw cz Т графа Т связен и множество его вершин содержит точки t и s\ 2) для любой точки и е Ж сумма V пх четна, если u*s, t, и нечетна, если u = s или u = t. В формуле (2) 1"1=1х"т."!=Пх"г. для ребра т = (^, t2) обозначено <р, = ф, фг и - семиинвариант, вычисленный по распределению ноля с независимыми одинаково распределенными значениями {ф,}, причем Р{ф, = 1} = Р{ф, = -1} = 1/2, X], ..., xk - ребра из supp n, занумерованные в каком-либо порядке. 2. Вириальные разложения для разреженного однокомпо- нентного газа. Всякий такой газ описывается точечным гибб- совским случайным полем в II? , задаваемым парным потенциалом взаимодействия Ф(х), хgV , и положительным параметром Z (активность) (см. [1], [3]). Предельная плотность этого газа Р- и» VQ. \'Wl |Л| где NK- число частиц в конечной области Лс1?, а |л| - объем этой области, при малых Z >0 допускает представление "Х,. Ц-, П„И„ (ехр{-7-'Ф(*, -X))}-yXr..dx„, (3) где суммирование происходит по всем связным графам уп с вершинами в точках 1, ..., п, а произведение берется по всем ребрам этого графа [интеграл в (3) не зависит от переменного х^]. 3. Разложение по феймановским диаграммам. Ряды теории возмущений в квантовой теории поля также имеют вид (1). Напр., для случая скалярного бозонного ноля ф^ в евклидовой области (см. [2]) ряд для преобразования Фурье от функции Грина <Ф*,Фх2> = JR2 ехР {*'<Р.<*1 -*2»}С (p)dp имеет вид с(0)-—!_ + !Y il^LAly _J х х(Пг -гЧП",8(Х. e^.ln <Ч- <4> J Т£Г» <^+m2ll'=1 {*«--iet 'Л '*) 1 ltwlyrp '* Здесь X - константа взаимодействия, m - масса «свободной» частицы, а сумма берется по всем связным ориентированным
диаграммам (то есть графам с повторяющимися ребрами), построенным на множестве 1,2 и,я+1,я + 2и таким, что 1) из вершин п+ 1 ий + 2 (назовем их внешними) выходят ровно но одному ребру (их также назовем внешними ребрами, а остальные - внутренними); 2) число ребер, инцидентных каждой из остальных (внутренних) вершин 1, ..., п, равно в точности 4. В формуле (4) ту - число ребер в Г„, соединяющих г-ю и /-ю вершину Г„, произведение ГТ берется по всем ребрам Ги, а ГТ - по всем его внутренним вершинам, qx = р, qx =~P> где Tlmieill ~ внешнее ребро, инцидентное вершине 1, а Т2»пеш - внешнее ребро, инцидентное вершине 2, II, если г-конецребрах, О, если i не инцидентно т, -1, если i-начало т. Ряд (4) не сходится к О(р), а является, по-видимому, лишь асимптотич. рядом (при малых X) (см. [2], [4]). Разложения вида (1) полезны как для приближенных подсчетов, так и для качественного исследования свойств поля | оценка убывания зависимости переменных поля на больших расстояниях, аналитич. зависимость от параметров, изучение спектральных свойств трансфер-матрицы (см. [2]), разного рода оценки средних и т. д.]. Общие методы построения кластерных разложений вместе с разнообразными применениями изложены в книге [ 1 ], содержащей обширную библиографию. Отметим, что все изученные в настоящее время кластерные разложения включает «малый параметр», то есть по существу являются рядами теории возмущений. Так, в приведенных примерах гиббсовское случайное поле при высоких температурах можно рассматривать как возмущение независимого поля, что и отражено в формуле (2), разреженный газ при малых значениях активности является возмущением вакуума и т. д. Лит.: [ 1 ] МалышевВ.А., М и и л о с Р. А., Гиббсовские случайные поля, М., 1985; [2] ГлиммДж., ДжаффсА., Математические методы квантовой физики, пер. с англ., М., 1984; (3] РюэльД., Статистическая механика. Строгие результаты, пер. с англ., М., 1971; J4J ИциксонК., ЗюберЖ.Б., Квантовая теория поля, пер. с англ., т. 1-2, М., 1984. Р. А. Минлос. КЛАСТЕР-ПРОЦЕДУРА (cluster procedure) - процедура объединения двух наиболее близко расположенных (в смысле заданной метрики) объектов (кластеров) в один кластер. Это приводит к тому, что первоначальное число п объектов уменьшается и становится равным п-\, причем один кластер будет содержать два объекта, ап-2 остальных - по одному. К.-п. применяется для одношагового построения кластеров. Лит.: [1J Дюран Б., Оделл П., Кластерный анализ, пер. с англ., М., 1977; [21 Классификация и кластер, пер. с англ., М., 1980. К. Ю. Репин. КЛИМАТ (climate) - статистический ансамбль состояний, проходимых климатической системой (включающей в себя атмосферу, водную оболочку Земли и верхний деятельный слой суши) за периоды времени порядка нескольких десятилетий. Это определение учитывает то обстоятельство, что на поведение атмосферы (с состоянием к-рой всегда связывается понятие погоды) за достаточно длительное время существенное влияние оказывает гидросфера (в первую очередь океаны), криосфера (ледовый и снежный покровы земли) и почвенный покров (иногда в состав климатич. системы включают также и биосферу). Вследствие существенной пространственной неоднородности атмосферы, океана и суши для достаточно полной характеристики их мгновенных состояний надо использовать функции от пространственных координат, то есть поля. Таким образом, мгновенное состояние климатич. системы представляет собой многокомпонентное поле, а К. можно рассматривать как многокомпонентное случайное поле. Полным описанием К. было бы указание всех конечномерных распределений вероятностей для значений компонент этого поля на всевозможных конечных множествах точек пространства-времени. На практике, однако, при описании К. обычно ограничиваются лишь данными о первых и вторых моментах климатических временных рядов, то есть об их средних значениях, дисперсиях и корреляционных функциях. К., по определению,- понятие глобальное, относящееся ко всей Земле в целом. Локальные климаты, то есть распределения вероятностей в точках нек-рой ограниченной области, являются проявлениями глобального К. Под колебаниями К. понимаются отклонения месячных, сезонных и годовых средних величин за конкретные годы от многолетних средних - климатических норм. Изменения К. определяются как различия между многолетними средними и другими эмпи- рич. характеристиками климатич. системы, полученными за разные периоды наблюдений продолжительностью не менее нескольких десятилетий. Лит.: 11) Монии А.С., Ш и ш ков Ю. А, История климата, Л., 1979; [2) М о н и н А. С, Введение в теорию климата, Л., 1982; [3) Физические основы теории климата и его моделирования, пер. с англ., Л., 1977; [41 The global climate, Camb., 1984. г. В. Груза. КЛИМАТА СТОХАСТИЧЕСКИЕ МОДЕЛИ (stochastic models of climate/climatic stochastic models) - см. Стохастические модели климата. КЛИМАТИЧЕСКАЯ НОРМА (climatic norm/long-range averaged value) - статистическая характеристика климата, оцененная по климатическим временным рядам за многолетний период. Чаще всего понятие «К. н.» прилагается к средним многолетним значениям нек-рых среднемесячных, средне- сезонных или среднегодовых характеристик (напр., среднемесячной температуры воздуха, годовой суммы атмосферных осадков и т.д.); однако иногда рассматриваются и К. н. экстремальных значений метеорологич. величин, повторяемостей (эмпирич. вероятностей) явлений погоды и т.д. Оценивание К. н. обычно производится по данным за период в 30-100 лет. В целях унификации Всемирная метеорологич. организация рекомендовала повсеместно определять К. н. за тридцатилетний период 1931-60. Лит.: [1] Методы климатологической обработки метеорологических наблюдений, Л., 1957. г. В. Груза. КЛИМАТИЧЕСКАЯ СИСТЕМА (climate system) - см Климат. КЛИМАТИЧЕСКИЕ ВРЕМЕННЫЕ РЯДЫ (climatic time series) - данные наблюдений о климате, то есть о физических величинах, характеризующих состояние климатической системы за весь многолетний период проводившихся инструментальных наблюдений. Большинство имеющихся К. в. р. относится к характеристикам атмосферы (являющейся наиболее изменчивой частью климатич. системы) и океана. К. в. р. наблюдений на отдельных метеорологич. станциях охватывают период порядка 250 лет, нек-рые характеристики Северного полушария в целом известны на протяжении 100 лет, данные, относящиеся к Южному полушарию и атмосфере на высотах, имеются за срок порядка 30 лет. Объем гидрометео- рологич. информации, накопленной в мире (без спутниковых наблюдений), оценивается в xtf2-^ байт и быстро возрастает. Хранение данных о К. в. р. осуществляется мировыми и национальными метеорологич. центрами. Лит.: [1) Груза Г. В., Рейтенбах Р. Г., Статистика и анализ гидрометеорологических данных, Л., 1982. Г. В. Груза. КЛИМАТИЧЕСКИЕ 233
КЛИМАТИЧЕСКИЙ ПРОГНОЗ (climate forecast) - см Прогноз погоды. КОВАРИАЦИИ ЧАСТНОЙ ФУНКЦИЯ (partial covari- ance function) - см. Автокорреляции частной функция. КОВАРИАЦИОННАЯ МАТРИЦА (covariance matrix) - матрица, элементами к-рой являются попарные ковариации компонент случайного вектора. Пусть X = (Xt, ..., Хп) есть «-мерный случайный вектор, компоненты к-рого X]t ..., Хп имеют конечные дисперсии. Ковариационной матрицей вектора X называется квадратная матрица S=IKII' *''/=1' •••' *• где Oj. = cov (X,, X.) - ковариация случайных величин X, и X.. Элементы главной диагонали I равны дисперсиям величин Х(. К. м. - симметрич. неотрицательно определенная матрица, причем она положительно определена тогда и только тогда, когда X имеет невырожденное распределение. К. м. является диагональной тогда и только тогда, когда компоненты случайного вектора попарно некоррелированы. Каждая симметрическая неотрицательно определенная матрица порядка п является К. м. нек-рого я-мерного нормального распределенного случайного вектора. Для случайных векторов К. м. играет такую же роль, как дисперсия для случайных величин. Ее иногда называют матрицей вторых моментов. Понятие К. м. тесно связано с понятием корреляционной матрицы. Лит.: [1] Крамер Г., Математические ;четоды статистики, пер. с англ., 2 изд., М., 1975. Н. Г. Ушаков. КОВАРИАЦИОННАЯ МАТРИЦА; спектральное разложение (spectral decomposition of covariance matrix) - представление ковариационной матрицы X в виде Х = Я,1а1а1т +... н-^а^а^, где X]t ...,Хр - собственные числа I, а at, ..., a.; - собственные векторы, соответствующие им. Лит.: [1] Jolliffe I., Principal Component Analysis, N. Y., 1986. И. В. Степахно. КОВАРИАЦИОННАЯ ФУНКЦИЯ (covariance function) - см. Корреляционная функция, Моментов функция, Спектральная плотность стационарного случайного процесса. КОВАРИАЦИОННАЯ ФУНКЦИЯ взаимная (crossco variance function) - см. Взаимная корреляционная функция. КОВАРИАЦИОННАЯ ФУНКЦИЯ выборочная (sample covariance function) - см. Выборочная корреляционная функция. КОВАРИАЦИОННОЕ ОКНО (lag window) - см Спектральная плотность; непараметрическая оценка. КОВАРИАЦИОННЫЙ АНАЛИЗ (analysis of covariance) - совокупность методов математической статистики, относящихся к анализу моделей зависимости среднего значения нек-рой случайной величины У от набора неколичественных факторов F и одновременно от набора количественных факторов х. По отношению к У переменные х называются сопутствующими; факторы F задают сочетания условий качественной природы, при к-рых получены наблюдения У и л, и описываются с помощью так наз. индикаторных переменных; среди сопутствующих и индикаторных переменных могут быть как случайные, так и не случайные (контролируемые в эксперименте); если случайная величина У является вектором, то говорят о многомерном К. а. Основные теоретич. и прикладные проблемы К. а. относятся к линейным моделям. В частности, если анализируется схема 234 КОВАРИАЦИОННАЯ из п наблюдений Yv ..., Yn с р сопутствующими переменными и k возможными типами условий эксперимента, то линейная модель соответствующего К. а. задается уравнениями y.- = XjL, A/VIL MFi)x?+ t,(Ft\ i = \ n, <*) где индикаторные переменные /)• равны 1, если j-e условие эксперимента имело место при наблюдении У,, и равны 0 в ином случае; коэффициенты в. определяют эффект влияния j-ro условия; х{ - значение сопутствующей переменной х , при к-рой получено наблюдение У,, г = 1, ..., п; s=1, ..., р; ps.(F^) - значения соответствующих коэффициентов регрессии У по х , вообще говоря, зависящие от конкретного сочетания условий эксперимента, то есть от вектора ^ = (/^, ..., fik); e,(F,) - случайные ошибки, имеющие нулевые средние значения. Основное содержание К. а. - в построении статистич. оценок для неизвестных параметров et, ..., в^; pj, ..., Р/; и статистич. критериев для проверки различных гипотез относительно значений этих параметров. Если в модели (*) постулировать априори pt = ... = р = 0, то получится модель дисперсионного анализа; если из (*) исключить влияние неколичественных факторов (положить в^... ... = 6^ = 0), то получится модель регрессионного анализа. Своим названием К. а. обязан тому обстоятельству, что в его вычислениях используются разбиения ковариации величин У и х точно так же, как в дисперсионном анализе используются разбиения суммы квадратов отклонений У. Лит.: [11 Шеффе Г., Дисперсионный анализ, пер. с англ., М., 1963; [21 Ксндалл М.Дж., СтьюартА., Многомерный статистический анализ и временные ряды, пер. с англ., М., 1976; [31 «Biometrics», 1957, v. 13, JMb 3. С. А. Айвазян. КОВАРИАЦИОННЫЙ ОПЕРАТОР вероятностной меры (covariance operator of a probability measure) - аналог понятия дисперсии случайной величины. Пусть В - действительное сепарабельное банахово пространство, \i - вероятностная мера, имеющая слабы й второй поря док, то есть удовлетворяющая условию j[b*(x)]2dii(x)<+oo для любого линейного непрерывного функционала Ь*иВ*. Существует единственный линейный непрерывный оператор R-.B*-*B, определяемый равенством *>1 (VP = \ Ь\{х)ЬЦх)йф)-\ b^x)cl\i(x)\ Ь*2(х)(1ф),(*) где Ь}, Ь2еВ*, к-рый и называется ковариационным оператором меры \i. К. о. Rx случайного элемента X со слабым 2-м порядком определяется как К. о. его вероятностного распределения. Другими словами, RX:B*^>B есть линейный непрерывный оператор, определяемый единственным образом из соотношения b*(Rxb2) = Eb*(X)b*2(X)-Eb*(X)Eb*2(X), b*, b2eB*. Из определения К. о. вытекают следующие свойства. 1) К. о. симметричен и положителен, то есть для всех Ъ\, Ь*2еВ* bl(Rb*2)=b2(Rb*), b*(Rb])>0. 2) Если А' и У - случайные элементы (со слабым 2-м порядком) и а, Р - действительные числа, то RaX+pY = a2Rx +V2RY + ар(ЯХУ + RXY ), где RXY - взаимной ковариации оператор элементов X и У, a RXY - оператор, сопряженный к RXy- В частности, К. о. суммы двух независимых случайных элементов (свертки двух вероятностных мер) есть сумма соответствующих К. о.
3) Если X - случайный элемент в В со слабым 2-м порядком и А - линейное непрерывное отображение из В в 5j( то RAX=ARXA*, где Л* - оператор, сопряженный к Л. Справедливо также следующее свойство К. о. (лемма о факторизации): для любого К. о. R существует такое гильбертово пространство Я и такой линейный непрерывный оператор А: Н -> В, что R =АА* и АН плотно в В. Определение и основные свойства К. о. остаются в силе и для случая более общих локально выпуклых топоюгич. векторных пространств (см. [5]). В случае несепарабельного пространства К. о. R^ определяется как отображение сопряженного пространства во второе сопряженное. Однако если ц - Радона мера, то R^B* с В. Первоначально К. о. был определен и использован для случая мер с сильным вторым порядком (то есть со свойством в сепарабельном гильбертовом пространстве; в этом случае R„ является ядерным оператором (см. [1], 12]). При общем определении с естественным необходимым требованием слабого 2-го порядка класс К. о. значительно шире. Для случая произвольного сепарабельного банахова пространства В он совпадает с классом всех линейных симметричных неотрицательных отображений из В* в В (см. [3], 14]). Иногда встречается также понятие К. о. /С, или Кх, к-рое отличается от приведенного выше тем, что при его определении не происходит центрирования, так что вместо (*) определяющим соотношением для /С является следующее: Ь\ (к^Ь*2) = j b\{x)b\{x)d\i{x), где Ь], Ь*2еВ*; так что /См = #м, если мера \1 центрирована (поскольку тогда JV(x)r/ub) = 0 для всех b* e В*). Лит.: [1] Mourier E., «Ann. Inst. H. Poincare», 1953, t. 19, p. 161-244; [2] Прохоров Ю. В., «Теория вероятн. и ее примен.», 1956. т. 1, в. 2, с. 177-238; [3] Вахания Н. Н., Вероятностные распределения в линейных пространствах, Тб., 1971; [4] Вахания Н.Н., Тариеладзе В. И., Чобанян С. А., Вероятностные распределения в банаховых пространствах, М., 1985; [5] Вахания Н.Н., Тариеладзе В. И., «Теория вероятн. и се примен.», 1978, т. 23, в. 1, с. 3-26. Я. Я. Вахания. КОВАРИАЦИЯ (covariance) - числовая характеристика совместного распределения двух случайных величин X, и Х2 с конечными дисперсиями: cov(Xt, Х2) = Е[(Х, - EXt)(X2- ЕХ2)]. При этом cov(Xt, X2) = cov(X2, Xt); cov(X, X) = DX. С помощью К. можно выразить дисперсию суммы случайных величин: D(Xt + Х2) = DX] + DX2 + 2cov(X1, Х2). Если величины Xj, X2 независимы, то cov(X1, X2) = 0. Из того, что cov(X1( X2) = 0 (некоррелированные случайные величины), вообще говоря, не следует независимость Х{ и Х2. Для нормальных Х{ и Х2 из некоррелированности следует независимость. Попарная некоррелированность случайных величин Xt, X2, ..., Хп, ... является достаточным условием выполнения закона больших чисел в форме Чебышева: при любом е и п -> о© р Л *1+•••+*»« _ ЕХ1+...+ЕХ„|> 1 II и я I J ►О, если DX; равномерно ограничены. С помощью К. определяется корреляции коэффициент. В математич. статистике оценкой К. служит выборочная ковариация; вычисляемая по формуле rae(X,(i),xf),i=l,2 Х2 -- арифметич. средние. п,- независимые величины, аХ,и С. Я. Шоргин. КОВАРИАЦИЯ случайного замкнутого множества (covariance of random closed set) A - функция cov^, сопоставляющая паре точек x^, x2 базового пространства S (см. Случайное множество) величину cov/4U1, х2) = P({xt, х2) с А) = TA({xi}) + ТА({х2}) - Тл({ху, х2}), где Тл - сопровождающий функционал А. К. случайного замкнутого множества по существу определяется точечным законом распределения случайного множества А. Если S - векторное пространство и А стационарно (см. Стационарное случайное множество), то cov^ зависит лишь от разности (х^-х2). При этом функцию CA(h) = соул (x}x+h) называют стационарной ковариацией множества А. Я. Я. Ляшенко. КОГЕРЕНТНОСТИ КОЭФФИЦИЕНТ (coherence coefficient) - см. Когерентность. КОГЕРЕНТНОСТИ СПЕКТР (coherence spectrum) - см. Ко герентность. КОГЕРЕНТНОСТЬ (coherence) - характеристика согласованности двух стационарных случайных процессов X(t) и Y(t), -oo<t<oo, измеряющая отклонение от линейной зависимости (см. Линейный фильтр) между этими процессами. Ряд ошибок Z(t)=Y(t)-Y° a(t-u)X(u), t = 0, ±1, ..., Z\a(u)\<oc (в случае дискретного времени) и Z(t) = Y(t) - j°^ a(t-u)X(u)du, -oo<t<oo, j \a(u)\du<oo (в случае непрерывного времени) характеризует отклонение от линейной зависимости между рядами Y(t) и X(t). Спектральная плотность процесса Z(t) определяется формулой fzza) = fYYa) \fYXM\ fxxWYYM *<\<с где fxx(X), /уу(^)>0 и fYX(X) - соответственно спектральные плотности и взаимная спектральная плотность скалярных процессов X(t) и Y(t). Функция Kvy(X) = fYX(X) [fxxa)fyYa)}^2' *<Х<с называется функцией когерентности или спектром когерентности, иногда в литературе она называется также когерентностью. Если KYX(X) = \ или KYX(X) = -1, то ряд ошибок Z(t) отсутствует, это означает, что временные ряды X(t) и Y(t) связаны линейно. Если же KYX(X) = 0, то ряд Y(t) на выходе фильтра совпадает с рядом ошибок Z(t) и линейная связь отсутствует. В случае 0 < |/Сух(>.)| < 1 имеет место промежуточное положение. Функция KYX(X) является комплексным обобщением корреляционной функции в частотной области и может быть представлена в виде JFYX(X) KYX(X)=\KYX(X)\eli ><Х<< где функция л, v а> = arctg(-lm^an Re fYX(X) ) КОГЕРЕНТНОСТЬ 235
называется фазой. В случае линейной зависимости между процессами X(t) и Y(t) фаза принимает значения FYX(X)=0 или FYX(X)= ±к, а при отсутствии линейной зависимости FYX(X) = ±я/2. Состоятельная и несмещенная оценка функций К. по выборкам X(t) и Y(t), t = 0, 1, ..., N - 1, имеет вид kYXa)=fYXa)ifxx a)fYY шг1/2, (о где fYX(X), fxx(^> fyyiX) - асимптотически состоятельные и асимптотически несмещенные непараметрич. оценки спектральной плотности. Коэффициент когерентности, или квадрат модуля спектра когерентности, характеризует корреляцию на частоте X между двумя частотными составляющими скалярных процессов X(t) и Y(t) и удовлетворяет неравенствам Асимптотически состоятельная и асимптотически несмещенная оценка коэффициента К. по выборкам X(t) и Y(t), t = 0, ±1, ..., N-\, определяется формулой |Кух(М2= \fvx Mftfxx Mbr <«Г- (2) Множественная когерентность определяется для одномерного процесса Y(t) (или каждой отдельно взятой компоненты многомерного процесса) и r-мерного векторного процесса X(t), -oo<£<«>, задается следующим выражением: \KYX(x)\2=fYXa)fxx a)fXYa)f;Y а), о) где fYX(X), /ху(^) ~ матрицы взаимных спектральных плотностей процессов X(t) и Y(t), /xx(k) - невырожденная матрица спектральной плотности процесса X(t), a fYY(X)>0- спектральная плотность процесса Y(t). Оценка множественной К. строится аналогично оценке К. коэффициента для каждого элемента матрицы (3) и обладает теми же свойствами, что и оценка (2). Частная когерентность- функция, определяющая линейную зависимость между компонентами s-мерного ряда У(0, £ = 0, ±1, ..., после удаления линейного воздействия r-мерного ряда X(t) из Y(t) с помощью линейного фильтра, то есть Z(t) = Y(t)-T°° a(u)X(t-u), t = 0, ±1, ..., EY(t)=0,Jj~=_oo \a(u)\<oo. Если ковариационные функции Схх(и) и CYY(u) абсолютно суммируемы, а матрица спектральной плотности fxx^M невырождена, то частная К. определяется формулой KYaYhX (^=fyaYbX (W[/Veyex(W/Vbyftx(Wl где fY.Y.x (k)=fzz.x (W» *» j = a> b>- частная спектральная плотность, a Ya(t) и Yb(t) - компоненты s-мерного ряда Y(t). Функции Ky(JYbx (W» fyaYbX (W» fyayax ^» fybYbx ^ П0Ка" зывают, в какой мере существование инвариантного во времени соотношения между рядами Ya(t) и Yb(t) обязано наличию линейных связей каждого из них с рядом X(t). Оценка частной К. строится аналогично К. по формуле (1) для рядов Z(t) и У(0 и обладает теми же свойствами. Лит.: [11 Андерсон Т., Статистический анализ временных рядов, пер. с англ., М., 1976; [2] Бриллинджер Д., Временные ряды. Обработка данных и теория, пер. с англ., М., 1980; [31 Джен- кинс Г., Ватте Д., Спектральный анализ и его приложения, пер. с англ., в. 2, М., 1972; [4] Отнес Р., Эноксон Л., Прикладной анализ временных рядов, пер. с англ., М., 1982; [5] Хеннан Э., Многомерные временные ряды, пер. с англ., М., 1974. И. А. Кожевникова. 236 КОД КОД (code) - произвольное подмножество множества всех слов в алфавите А. В теории информации в качестве алфавита А выбирают множество f сигналов на входе канала связи и исследуют задачи оптимизации нек-рых функционалов от К. при определенных ограничениях на рассматриваемые К. Основными задачами являются: 1) минимизация средней длины К. при условии его однозначной декодируемое/™; 2) минимизация ошибочного декодирования вероятности] 3) максимизация кодового расстояния на различных классах К. Чаще других рассматривают двоичные К., то есть в алфавите А = {0, 1}. Первая задача относится к проблематике кодирования источника сообщений. Ниже указаны нек-рые принципиальные моменты в ее решении на примере двоичного кодирования дискретного источника сообщений без памяти, к-рый порождает сообщения Х\, ..., хт независимо друг от друга с вероятностями р\, ..., рт. Каждому сообщению #, ставится в соответствие (кодируется) кодовое слово ух■ = (у\ , ..., у{' ) длины /,. Из условия однозначной декодируемости (то есть любая последовательность может быть не более чем одним способом разбита на подряд идущие кодовые слова) следует, что У 2 '^1 (неравенство Крафта - Мак-Миллана) и средняя длина / = £ /?,/, не меньше энтропии источника Н = -y£pi\og2pi. Хотя известные конструкции, предназначенные для приближения / к Я, и называют кодами, но их правильно рассматривать как кодирования, так как для функционала средней длины К. существенно, какому сообщению какое кодовое слово соответствует. При решении второй задачи важную роль играют К., исправляющие ошибки. Так, в случае канала с аддитивным шумом (когда входной алфавит совпадает с выходным и наделен структурой абелевой группы) говорят, что при передаче сигнала у произошла ошибка е = у-у*0, где у - сигнал на выходе канала связи. Тогда, по определению, К. С исправляет нек-рое множество ошибок Е, если из равенства с + е==с'+е' (с, с' е С, е, е' е Е) следует с = с'. Для таких каналов построение К. с малой вероятностью ошибочного декодирования сводится по существу к построению К., исправляющего «типичное» для данного канала множество ошибок Е. В частности, для двоичного симметричного канала в качестве «типичного» можно рассмотреть множество Et ошибок, искажающих не более t позиций кодового слова. Исправление К. С множества ошибок Et равносильно тому, что его кодовое расстояние в метрике Хемминга не меньше 2t +1, и такой К. принято назвать кодом, исправляющим t ошибок. Для скорости #§ лучшего двоичного блокового К. длины я, исправляющего t^bn ошибок, справедливо неравенство Варша- мова-Гилберта: Rb>\-h2(b), где hq(x) = x\og2(q-\)-(x\og2x + (\-x)\og2(\-x)). Если граница Варшамова-Гилберта асимптотически точна (что является популярной гипотезой), то для любого дискретного канала без памяти с двоичным входным алфавитом отсюда будет следовать точность известной нижней границы функции надежности (см. Ошибочного декодирования вероятность). Для многих типов каналов связи решение второй и отчасти третьей задачи основывается на вычислении среднего значения исследуемого функционала на подходящем ансамбле (вероятностном пространстве) К. (см. Случайное кодирование). При этом довольно типичной является ситуация, когда конст- I руктивными методами пока не удается достичь тех значений
вероятности ошибочного декодирования и кодового расстояния, к-рые справедливы «в среднем» и даже более того - для «почти всех» К. Исключением является улучшение границы Варшамова-Гилберта для q-ичных (Л = {0, 1, ..., q - 1}) К. при 7^49, хотя эта граница R^ ^ 1 - /гЛ2Ь) и точна для «почти всех» линейных К. Это улучшение получено с помощью конструкции К., ассоциированных с дивизорами на алгебраич. кривых. Лит.: [1] Кол ее ни к В. Д., По л ты рев Г. Ш., Курс теории информации, М., 1982; [2] Галлагер Р., Теория информации и надежная связь, пер. с англ., М., 1974; [3] Ч и cap И., Кернер Я., Теория информации, пер. с англ., М., 1985; [4] Мак-Вильяме Ф.Дж., Слоэн Н.Дж. А., Теория кодов, исправляющих ошибки, пер. с англ., М., 1979; [5] Гоппа В. Д., «Докл. АН СССР», 1981, т. 259 № 6, с. 1289-90; [6] Влэдуц С. Г., Кацман Г. Л., Цфасман М.А., «Проблемы передачи информации», 1984, т. 20, N° 1, с. 47-55. Г. А. Кабатянский. КОД блоковый (block code) - см. Блоковый код. КОД групповой (group code) - см. Блоковый код. КОД; длина (code length) - см. Блоковый код. КОД древовидный (tree code) - см. Древовидный код. КОД каскадный (cascade code) - см. Каскадный код. КОД линейный (linear code) - см. Блоковый код. КОД неравномерный (variable-length code) - см. Неравномерный код. КОД; память (code memory) - см. Сверточный код. КОД рекуррентный (recurrent code) - см. Сверточный код. КОД решетчатый (trellis code) - см. Сверточный код. КОД решетчатый линейный (trellis linear code) - см. Сверточный код. КОД сверточный (convolutional code) - см. Сверточный код. КОД; скорость (code rate) - см. Сверточный код. КОД циклический (cyclic code) - см. Блоковый код. КОДЕР (coder) - см. Сверточный код. КОДИРОВАНИЕ (encoding) - отображение множества А' в множество слов из алфавита у. В теории информации К. исследуются в ситуации, когда :)'- нек-рое множество, порождаемое источником сообщений, а у- множество сигналов на входе канала связи. В зависимости от решаемых задач в теории информации используют различные К.: кодирование источника сообщений, случайное кодирование, универсальное кодирование. Лит.: [1] Колесник В. Д., Полтырев Г. Ш., Курс теории информации, М., 1982. Г. А. Кабатянский. КОДИРОВАНИЕ вероятностное (stochastic source encoding) - см. Кодирование источника сообщений. КОДИРОВАНИЕ источника с дополнительной информацией (source encoding with side information) - одна из задач кодирования многокомпонентного источника сообщений. В терминах общей схемы (см. Источников и каналов сети) эта задача формулируется следующим образом. Рассматривается двухкомпонентный источник С7 = (Х1, Х2) (М = 2). Имеются два кодирующих устройства (К = 2), задаваемых множествами ^t = {l}, A2 = {2}, и одно декодирующее устройство (/=1), задаваемое множествами Вх={\}, Ct = {1, 2}. Таким образом, декодирующее устройство должно восстанавливать лишь компоненту Хх, а компонента Х2 является вспомогательной (дополнительная информация). В случае когда U - дискретный стационарный двухкомпонентный источник без памяти, задаваемый распределением вероятностей p(xv х2), область допустимых скоростей кодирования & = {(#}, R2)} была вычислена следующим образом. Пусть $) - множество троек случайных величин (Xt, X2, V) таких, что распределение (Xt, X2) есть р(хи х2)у Хх-Х2- V образуют цепь Маркова (то есть Xt, V условно независимы при заданном Х2) и V принимает не более а+ 2 значения, где а- число значений компоненты Х2 источника U. Для (Xt, Х2, V) е $) пусть ЖХ,, Х2, V) = {(RV R2):R^H(XX\V), R2^I(X2; V)}, где Н - условная энтропия, / - взаимная информация (см. Информации количество). Тогда т=со(и(Х] Х2 ^ш,, х2, v)), где со обозначает выпуклую оболочку. Исследовался также ряд обобщений описанной задачи. В частности, рассматривались К. источника с дополнительной информацией для гауссовских источников и восстановление с общим критерием точности воспроизведения сообщений. Лит.: [1] Гельфанд СИ., Прелов В. В., в кн.: Итоги науки. Сер. Теория вероятностей. Математическая статистика. Теоретическая кибернетика, т. 15, М., 1978, с. 123-62; [2] Колесник В. Д., Полтырев Г. Ш., Курс теории информации, М., 1982; [31 Ahls- wede R., Korner J., «IEEE Trans. Inf. Theory», 1975, v. IT 21, № 6, p. 629-37; [4) Wyner А., там же, № 3, p. 294-300. С. И. Гельфанд. КОДИРОВАНИЕ источника сообщений (source encoding) - раздел теории информации, изучающий сжатие (компактное представление) информации. Источники сообщений подразделяют на комбинаторные, порождающие нек-рое подмножество множества всех слов входного алфавитам вероятностные, порождающие эти слова с нек-рыми вероятностями. К. источника сообщений - это разнозначное (инъективное) отображение порождаемых слов в слова выходного алфавита, стоимость С - это среднее для вероятностного и максимальное для комбинаторного источников число выходных букв, приходящихся на одну входную. Основной факт теории К. источника сообщений: инфимум стоимости С равен энтропии Н источника (inf С = #); он доказан для широких классов источников и К. Разработаны методы построения кодов, стоимость С к-рых близка к энтропии Н. Теория К. источника сообщений используется в практике связи и при размещении информации в компьютерах. Лит.: [1] Галлагер Р., Теория информации и надежная связь, пер. с англ., М., 1974. Р. Е. Кричевский. КОДИРОВАНИЕ комбинаторное (combinatorial encoding) - см. Кодирование источника сообщений. КОДИРОВАНИЕ с подглядыванием (eribbing encoding) - см. Источников и каналов сети. КОДИРОВАНИЕ; сложность (compexity of coding) - см. Сложность кодирования и декодирования. КОДИРОВАНИЕ случайное (random encoding) - см. Случайное кодирование. КОДИРОВАНИЕ универсальное (universal encoding) - см. Универсальное кодирование. КОДИРОВАНИЯ ТЕОРЕМЫ (coding theorems) - см. Ин формации теория. КОДОВАЯ ПОСЛЕДОВАТЕЛЬНОСТЬ (code sequence) - см. Сверточный код. КОДОВОЕ РАССТОЯНИЕ (code distance) - минимальное из расстояний между разными словами кода. В канале связи с совпадающими входным и выходным алфавитами код способен правильно восстановить (декодировать) сообщение, если расстояние d(y, у) между сигналами у на входе и у на выходе канала меньше половины К. р. КОДОВОЕ 237
Исследуемые в теории кодирования метрики на пространствах слов связаны с определенными каналами связи. Так, метрика Хемминга dH (у, у), определяемая как число несовпадающих позиций в словах у = (у^, ..., уп) и у = (г/j, ..., уп), и переходная функция р(у\у) двоичного симметричного канала связаны соотношением откуда следует, в частности, совпадение при р< /2 декодирований по максимуму правдоподобия и по минимуму расстояния. Изучались К. р. ив других метриках - евклидовой, Ли, асимметрической, вставок и выпадений, пакетной, арифметической. Асимптотич. поведение К. р. при фиксированной скорости кода тесно связано с характером экспоненциального убывания ошибочного декодирования вероятности, К настоящему времени точная асимптотика К. р. неизвестна ни для одной из этих метрик (хотя, напр., в случае метрики Хемминга она известна для «почти всех» линейных кодов). Лит.: [\] Дискретная математика и математические вопросы кибернетики, т. 1, М., 1974; [2] Левен штейн В. И., «Проблемы кибернетики», 1983, в. 40, с. 43-110; [3] Чисар И., Кернер Я., Теория информации, пер. с англ., М., 1985. Г. А. Кабатянский. КОДОВОЕ СЛОВО (code word) - см. Информации теория. КОКРАНА ТЕОРЕМА (Cochran theorem) - см. Дисперсионный анализ. КОКСА ПРОЦЕСС (Сох process) - см. Геометрический процесс. КОКСА ТОЧЕЧНЫЙ ПРОЦЕСС (Сох point process) - случайный точечный процесс, к-рый является смесью пуассонов- ских точечных процессов. Пусть Рл() - вероятностное распределение на множестве локально ограниченных считающих мер (М, Ш), определяющее пуассоновский точечный процесс с моментной мерой Л(), a G() - распределение вероятностей на множестве всех локально ограниченных мер на фазовом пространстве (А, $С). Тогда смесь распределений Q(-) = JPA(-)GWA) определяет К. т. п.; его можно понимать как дважды стоха- стич. пуассоновский точечный процесс, то есть пуассоновский точечный процесс, у к-рого моментная мера Л является случайной мерой. Если распределение Q случайного точечного процесса при любом с е (0, 1) может быть получено в результате операции независимого прореживания с вероятностью с точек реализации нек-рого случайного точечного процесса, то Q определяет К. т. п. Лит.: [11 Керстан Й., Маттес К., Мекке Й., Безгранично делимые точечные процессы, пер. с англ., М., 1982; [2] Gran dell J., Doubly stochastic Poisson processes, В.- [а. о.J, 1976. Ю. К. Беляев. КОЛИЧЕСТВЕННАЯ РОБАСТНОСТЬ (quantitative robust ness) - см. Робастная оценка. КОЛИЧЕСТВЕННАЯ УСТОЙЧИВОСТЬ стохастических моделей (quantitative stability of stochastic models) - см. Устойчивость стохастической модели; количественные оценки. КОЛМОГОРОВА АКСИОМАТИКА теории вероят- н осте й (Kolmogorov's axiomatics of the probability theory) - наиболее распространенный и общепринятый подход к математическому описанию вероятностных моделей, придавший вероятностей теории стиль, принятый в современной математике. Проблема аксиоматизации теории вероятностей формулировалась в 6-й проблеме Д. Гильберта (D. Hilbert) в его 238 КОДОВОЕ знаменитом докладе 8 августа 1900 на II Международном конгрессе математиков в Париже. Д. Гильберт, включая (как это было принято в то время) теорию вероятностей в физику, так формулировал (см. [1]) 6-ю проблему «Математическое изложение аксиом физики»: «С исследованиями по основаниям геометрии близко связана задача об аксиоматическом построении по этому же образцу тех физических дисциплин, в которых уже теперь математика играет выдающуюся роль: это в первую очередь теория вероятностей и механика. Что касается аксиом теории вероятностей, то мне казалось бы желательным, чтобы параллельно с логическим обоснованием этой теории шло рука об руку строгое и удовлетворительное развитие метода средних значений в математической физике, в частности в кинетической теории газов». Различные попытки аксиоматич. изложения теории вероятностей предпринимались многими учеными: Г. Больман (1908, [2]), С. Н. Бернштейн (1917, [3]), Р. Мизес (1919, [4]; 1928, [5]), А. Ломницкий [1923, [6]; на базе идей Э. Бореля (Е. Borel) о связи теории вероятностей с теорией меры]. В 1929 (см. [7]) и в окончательной форме в 1933 (см. [8]) А. Н. Колмогоров под влиянием общих идей теории множеств, теории меры и интегрирования, а также теории функций сформулировал понятие вероятностной модели (систему аксиом, с логич. точки зрения не являющуюся, вообще говоря, единственно возможной), оказавшейся при этом столь же простой, сколь и общей, и настолько, что она позволила охватить не только классич. разделы теории вероятностей, но и открыть путь к развитию ее новых глав, в частности теории случайных процессов. В основе колмогоровской системы аксиом лежит понятие вероятностного пространства (£1, .V, Р), состоящего из трех объектов, где 1) Q = {co} - пространство элементарных исходов, описывающее мыслимые исходы в «аксиоматизированной вероятностной модели»; 2) .г/- совокупность подмножеств Л£й, интерпретируемых как события и обладающих нек-рыми естественными требованиями замкнутости относительно взятия счетных объединений, пересечений и операции дополнения (то есть ./есть а-алгебра подмножеств Q); 3) Р - счетно-аддитивная неотрицательная и нормируемая до единицы функция множеств, Р = Р(Л), А е.г/ [то есть hXZi^iJ = X~i P(^i)» Л,-е.г/, и попарно не пересекаются, 0^ Р(Л) ^ 1, Р(Ш = 1 ], называемая вероятностью (события Л). [В ряде случаев рассматривают расширенные вероятностные модели Ф, .</, Р), в к-рых .^/предполагается алгеброй, а Р - конечно-аддитивной неотрицательной нормированной функцией, Р = Р(Л), А €.</.] Система аксиом Колмогорова дала теории вероятностей математич. фундамент, позволяющий использовать весь арсенал современной математики, в частности теорию меры, мет- рич. теорию функций. В 60-е гг. по инициативе А. Н. Колмогорова начаты работы, дающие новый подход к одному из основных понятий теории вероятностей - понятию «случайности» с позиций теории алгоритмов, с привлечением, в частности, понятий алгебраич. сложности (см. [8]—[ 10]). Лит.: [11 Проблемы Гильберта, М., 1969; [21 Boh 1 man г G., «Atti IV Congr. Intern. Math. (Roma, 6-11 Apr., 1908)», 1909, v. 3, p. 244-78; [31 Бернштейн С. Н., «Сообщ. Харьк. матем. общества», 1917, т. 15, с. 209-74; [41 Mises R., «Math. Z.», 1919, Bd 5, S. 52-99; [51 его же, Wahrscheinlichkeit Statistik und Wahrheit, W., 1928; [61 Lomnicki A., «Fundam. math.», 1923, t. 4, p. 34-71; [7J Колмогоров А. Н., в кн.: Теория вероятностей и математическая статистика, М., 1986, с. 48-57; 18J его же, Основные понятия теории вероятностей, 2 изд., М., 1974; [91 его же, Теория информации и теория алгоритмов, М., 1987; [101 Колмогоров А. Н., Успенский В. А., «Теория вероятн. и ее примен.», 1987, т. 32, в. 3, с. 425-55. а. Н. Ширяев.
КОЛМОГОРОВА ГИПОТЕЗА ПОДОБИЯ (Kolmogorov's similarity hypothesis) - см. Колмогорова закон двух третей. КОЛМОГОРОВА ЗАКОН ДВУХ ТРЕТЕЙ (Kolmogorov two-thirds law) - соотношение (*), являющееся следствием гипотезы подобия Колмогорова, согласно к-рой статистическая структура развитой турбулентности в инерционном интервале масштабов г [много меньшем масштаба течения в целом, но много большем внутреннего масштаба (v /е) ' , где е - средняя скорость вязкой диссипации турбулентной энергии, v - кинематический коэффициент вязкости] определяется одним параметром е. В частности, D(r) = ([u(x + r, t.)-u(x, 0]2>=С(ег)2/3, (*) где С - числовая константа, а угловые скобки означают осреднение. Многократные эмпирич. проверки К. з. д. т. показали хорошее согласие теории с экспериментом. Лит.: [1] Колмогоров А. Н., «Докл. АН СССР», 1941, т. 30, № 4, с. 299-303; т. 31, № 2, с. 99-101 (Избранные труды. Математика и механика, М., 1985, с. 281-87; Теория вероятностей и математическая статистика, М., 1986, с. 264-67). М. М. Любимцев. КОЛМОГОРОВА КРИТЕРИЙ (Kolmogorov test) - статистический критерий для проверки гипотезы о том, что скалярная выборка извлечена из генеральной совокупности с известной и полностью определенной непрерывной функцией распределения [скажем, F (•)]. Пусть Fn{) обозначает функцию распределения выборки, п - объем выборки, G() - истинная функция распределения. К. к. служат для проверки гипотезы G = F. Статистика Колмогорова (статистика К. к.) есть D„ = sup \Fn(x)-F(x)\. При указанной гипотезе распределение случайной величины Dn не зависит от того, каково истинное распределение выборки. (Как говорят, статистика Dn при гипотезе распределена свободно - имея в виду от влияния G = F.) При гипотезе и w-*o° статистика Dn стремится к 0, поэтому чаще используют VnD„, распределение к-рой имеет невырожденный предел. Как было установлено (1933) А. Н. Колмогоровым (см. [1]), lim P(V^D„ <z) = У~ (-1)V2*2*2 для 2 >0. Если G&F, то при п —> °° статистика D„->sup \G(x)-F(x)\ >0, так что VhD„ -><». Из этих свойств следует правило: отвергать гипотезу G = F, если наблюденное значение статистики Dn чрезмерно велико. Таблицы процентных точек статистики Dn (или VhD„) при гипотезе в настоящее время рассчитаны как для малых, так и для больших объемов выборок (см., напр., [2]). Предложена (см. [3)) модификация статистики Dn, распределение к-рой при гипотезе практически не зависит от п, и даны таблицы процентных точек. Лит.: [1] Колмогоров А. Н., Теория вероятностей и математическая статистика, М., 1986, с. 134-41; [2] Большее Л.Н., Смирнов Н.В., Таблицы математической статистики, 3 изд., М., 1983; [3] Pearson E.S., Hartley H.O. (eds), Biometrlka tables for statisticians, v. 2, Camb., 1972. Ю. Н. Тюрин. КОЛМОГОРОВА МЕТРИКА (Kolmogorov metric) - см. Равномерная метрика. КОЛМОГОРОВА МОДЕЛЬ (Kolmogorov model) - модель, обобщающая как схему нормированных нарастающих сумм независимых случайных величин, так и схему, использовавшуюся в теореме Пуассона (см. Предельные теоремы). Предложена А. Н. Колмогоровым в 1932-33. КОЛМОГОРОВА НЕРАВЕНСТВО (Kolmogorov inequality): если Xj, ..., Хп, ...- независимые случайные величины с конечными дисперсиями, то Р< max XL(X*-Ex*>i^ Ре2 Z*=l DXk. Xl: Обратное К. н.: если независимые случайные величины Х„,... ограничены почти наверное числом c:\Xk\^c, k = 1, 2, ..., то для любого е > 0 Pi max \Y'y ЛХк~ЕХА>* ^1- (е+2с)2 XL,0** В приведенной форме оба неравенства доказаны А. Н. Колмогоровым в 1928 (см. [1]). К. н. и обратное К. н. находят многочисленные применения при выводе усиленного закона больших чисел, закона повторного логарифма, при выяснении условий сходимости почти наверное рядов, составленных из независимых случайных величин. В частности, с их помощью доказывается Колмогоро ва теорема о трех рядах. 1) Обобщения К. н. Имеется целый ряд обобщений К. н., из к-рых ниже приводятся два. Для любых г<п и 0<с„^с„.1<...<с, P{,2S.C-|2L.(X*-EJ4* Это обобщение К. н. впервые было опубликовано в [3J (см. также [2]). Другим обобщением является неравенство (см. [4]) р{ ™2 |хг-1(**-Е**>|*е+сН ^ "&<**■ ЕХЬ) >е }• lis. (X, -EX.)\>с Л^а <1, 2)К.н. для случайных элементов- обобщение К. н. (и обратного К. н.) для случайных элементов в банаховом пространстве. Оба эти неравенства остаются в силе при переходе к случаю гильбертова пространства (в формулировках нужно лишь абсолютное значение заменить нормой, см. [6]). Однако в общем случае банахова пространства формулировки несколько изменяются. Пусть Xj, ..., Х„,... - независимые сепарабельнозначные случайные элементы с сильным вторым порядком в банаховом пространстве В, то есть E||Xfe|| <<», k=\, 2,... Тогда для каждого е>0 имеет место К. н. (см. [8] и [7]) P{im«|X^(Xt-EXt)|>e}^E|2^1Xt|2. Отсюда следует, что если В - банахово пространство тина 2 с константой типа, равной С, то p{,SS.|2I.<x*-EJf»)l>e}< Верно и обратное: если для нек-рой константы С>0 и для каждой последовательности сенарабельнозначных независи- КОЛМОГОРОВА 239
мых случайных элементов Xv Хп,... с сильным вторым порядком в В верно неравенство (1), то В - пространство типа 2. Поэтому для пространств типа 2 (и только для них) остается в силе теорема Колмогорова о трех рядах в части достаточности. Пусть Xj, ..., Хп,...- независимые сепарабельнозначные случайные элементы в банаховом пространстве В такие, что почти наверное \\Xk\\ ^г, k= 1, 2, ..., для нек-рогос>0. Тогда для любого е>0 имеет место обратное К. н. (см. 19], 17]): }{ max 5T-1 (Xh -EX,)^e Y (e+c)2+e2 У" Из этого неравенства вытекает, что если В - банахово пространство котипа 2 с постоянной котипа, равной К, то }J max У"" \-К- (X. -ЕХ.)ЬеЬ (е+г)2+е2 Х^ЫР (2) верно и обратное: если банахово пространство В таково, что существует постоянная /С>0, что для каждой последовательности Xt, ..., Хп>... независимых сепарабельнозначных случайных элементов в В, \\Xk\\ К 1, k= 1, 2,..., верно неравенство (2) с с= 1, то В - пространство котипа 2. Поэтому теорема Колмогорова о трех рядах в части необходимости верна для пространств котипа 2 (и только для таких пространств). Лит.: [1] Колмогоров А. Н., Теория вероятностей и математическая статистика, М., 1986, с. 20-34; [2] Петров В. В., Суммы независимых случайных величин, М., 1972; [3] Hajek J., Renyi A., «Acta Math. Acad. Sci. Hung.», 1955, t. 6, № 3-4, p. 281-83; [4] Гих- ман ИИ., Скороход А. В., Теория случайных процессов, т. 1, М., 1971; [5] Липцер Р. Ш.. Ширяев А. Н., Статистика случайных процессов, М., 1974; [6] Кахан Ж.-П., Случайные функциональные ряды, пер. с англ., М., 1973; [7] Вахания Н. Н., Тарие- ладзе В. И., Чобанян С. А., Вероятностные распределения в банаховых пространствах, М., 1985; [8] Jain N. С, в кн.: Probability in Banach spaces. Proceedings 1975, B.-fa.o.l, 1976, p. 113-30; [9] A cost a A d e, Samur J., «Studia Math», 1979, v. 66, p. 143-60. В. М. Круглое, С. А. Чобанян. КОЛМОГОРОВА РАСПРЕДЕЛЕНИЕ (Kolmogorov distribution) - предельное распределение, к к-рому стремится при п —> о© распределение статистики X=Jn max • < ЛГ<оо \FJx)-F(x)\ 1.5 1.0 _- i L .2 .4 .6 .8 1.0 1.2 1.3 1.6 1.8 Графики плотности и функции распределения для распределения Колмогорова. 240 КОЛМОГОРОВА где функция выборочного распределения Fn(x) - несмещенная точечная статистическая оценка для непрерывной функции теоретического распределения F(x). К. р. не зависит от F. М. И. Войцеховский. КОЛМОГОРОВА СРЕДНИЕ (Kolmogorov means) для действительных чисел xv х2, ..., хп- величины вида MUp х2, ..., хп) = v[-L—!——- :-—u-i (*) где ф - непрерывная строго монотонная функция, а у - функция, обратная к ф. При ф(.г) = # получают среднее арифметическое, при ф(д") = log .r - среднее геометрическое, при <р(х) = х~] _ среднее гармоническое, при <р(х) = х - среднее квадратическое, при (р(х) = ха, а*0,- степенное среднее. В 1930 А. Н. Колмогоров показал (см. [1]), что любая средняя величина - функция М(хх> х2, ..., хп), являющаяся непрерыв ной, монотонной по каждому x-v i = 1, 2, ..., п, симметрической и такой, что среднее от одинаковых чисел равно их общему значению, а нек-рую группу значений можно заменить их собственным средним, не меняя общего среднего,- имеет вид (*). Лит.:[\] Колмогоров А. Н., Математика и механика, М., 1985, с. 136-38. а. И. Орлов. КОЛМОГОРОВА СТАТИСТИКА (Kolmogorov statistic) - см. Колмогорова критерий, Колмогорова-Смирнова кри терий. КОЛМОГОРОВА ТЕОРЕМА о конечномерных распределениях (Kolmogorov theorem on finite dimensional distributions/Kolmogorov extension theorem) - одна из основных теорем теории случайных процессов. Пусть Т - произвольное множество индексов, и пусть для каждого индекса t еТ символ IP, обозначает числовую прямую IP. Пусть всякому непустому конечному множеству a = {t], ..., tn}cz T, состоящему из попарно различных индексов tit \^i^n, соответствует вероятностная борелевская мера [ia, заданная на евклидовом пространстве IPa = IP, х ... х IP, , причем для семейства всех этих мер выполнено следующее условие согласованности: каковы бы ни были множества $ = {их, ..., uk}czT, y={f1, ..., vM}cT такие, что ре у, и каково бы ни было борелевское множество X в евклидовом пространстве Иг, имеет место равенство Up({(xWi, ..., xUf):(xU], ..., xUf)eX}) = = M7({Ur,1, .-, xvJ:(xUit ..., xUf)eX}). Тогда на цилиндрич. a-алгебре пространства IP существует и притом единственная вероятностная мера |i такая, что V({xe№T:(xh, ...,xtUY}) = \ia(Y) для любого непустого множества а={^, ..., tn} попарно различных индексов из Г и для любого борелевского множества Ycz|Pa. Меры |ia называются конечномерными распределениями меры \i. К. т. не является теоремой собственно теории меры. При ее доказательстве используют соображения, связанные с тополо- гич. компактностью. Однако введение понятия абстрактного компактного класса множеств позволяет сформулировать и доказать обобщение К. т. для чистой теории меры. Если в К. т. множество индексов Т счетно, то мера ц определена на борелевской a-алгебре пространства IP . Лит.: [1] Колмогоров А. П., Основные понятия теории вероятностей, 2 изд.. М., 1974; [2J Неве Ж., Математические основы теории вероятностей, пер. с франц., М., 1969. А. Б. Харазишвили. КОЛМОГОРОВА ТЕОРЕМА о непрерывности выборочных функций (Kolmogorov theorem on continuity of sample functions) - доказанная А. Н. Колмогоровым в 1934 и опубликованная в 11] следующая теорема: пусть X(t) -
опрелеленная на [0, 1] случайная функция, удовлетворяющая условию Колмогорова E|X(*)-X(s)|^*|*-s|*f С) где р>0, q>\, k>0 - константы; тогда существует эквивалентная X(t) случайная функция X(t), траектории к-рой непрерывны почти наверное (то есть P{X(t) = X(t)} = 1 для всех <*). Большое значение этой теоремы объясняется тем, что, во-первых, в ней отмечен фундаментальный факт теории случайных процессов, а во-вторых, условие (*) этой теоремы очень удобно для проверки. Последнее привело к очень важным приложениям К. т. в различных разделах теории вероятностей, особенно в предельных теоремах. То что условие (*) лишь достаточно, но не является необходимым, стимулировало целую серию работ, авторы к-рых стремились «улучшить» это условие, то есть приблизить его к необходимому. Позднее (см. [6]-[8]) была вскрыта связь результатов такого типа и теорем вложения для классов гладких функций. Это позволило в ряде работ получить окончательные условия, напр.: пусть <р(Л) - неотрицательная неубывающая непрерывная функция, <р(0) = 0, <р(Д, + h2) ^ ф(Л1) + ф(Л2) и pV : {x(0:suPE^| AkhX(t)\P = 0(ф(8)), 6vo}, где супремум определяется при 0 < h < 8, t, t + kbe [0, 1 ], a AhX(t) = XU+h) - X(t), Akh = Ah(Ak^X(t)) - класс сепарабельных случайных процессов X(t) на [0, 1]; тогда для того, чтобы выборочные функции любого процесса X(t) е #!f k были непрерывны с вероятностью 1, необходимо и достаточно условие fi ф(А) Jo нм/р dh<c В частности, при <р(/г) = h(\+a)/p, а>0, k= 1 утверждение о достаточности содержится в К. т. (см. также Выборочная непрерывность случайного процесса). Лит.: [1] Slutsky E., «Giorn. Inst, italiano degli Attuari», 1937, №8, p. 193-96; [2) Крамер Г., Лидбеттер М., Стационарные случайные процессы. Свойства выборочных функций и их приложения, пер. с англ., М., 1969; [3] Dudley R., «Ann. Probab.», 1973, v. 1, № 1, p. 66-103; [4) Fernique X., Regularite des trajectoires des fonctions aleatolres gaussiennes, в кн.: Lecture Notes in Mathematics, v. 480, В.- Hdlb.-N.Y., 1975; [5] Pisier G., «Sem. d'anal. fonct.», 1979-1980, Exp. X1II-XIV, [P., 1980); [6] Ибрагимов И.А., «Теория вероятн. и ее примен.», 1973, т. 18, в. 3, с. 468-80; [7] Ibragi- mov I., «С. г. Acad, sci.», 1979, t. 289A, p. 545-47; [8] Ибрагимов И. А., «Теория вероятн. и ее примен.», 1983, т. 28, в. 2, с 229-49. Ю. Г. Баласанов. КОЛМОГОРОВА ТЕОРЕМА о согласованных распределениях (Kolmogorov theorem on consistent distributions) - см. Вероятностное пространство. КОЛМОГОРОВА ТЕОРЕМА о трех рядах (Kolmogorov three-series theorem): для сходимости почти наверное ряда £ Хп, составленного из независимых случайных величин Хп, необходимо (для всех р>0) и достаточно (для нек-рых Р>0), чтобы сходились следующие три ряда: Хр<|х„|>Р), ^E\XnIl\Xn\^)-EXJ[\Xn\^)\2' где 1А - индикатор события А. Теорема доказана в 1928 А.Н.Колмогоровым (см. [1]). К. т. о трех рядах доказывается с помощью Колмогорова неравенства. К. т. переносится без изменений на случай гильбертова пространства (нужно лишь заменить абсолютные значения на нормы; см. [3], [4]). Для банаховых пространств типа 2 К. т. о трех рядах справедлива в части достаточности, а для банаховых пространств котипа 2 - в части необходимости (см. [3]). Лит.: [1] Колмогоров А. Н., Теория вероятностей и математическая статистика, М., 1986, с. 20-34; [2] Петров В. В., Суммы независимых случайных величин, М., 1972; [3] Acosta A. de, Samur J., «Studia Math.», 1979, v. 66, p. 143-60; [4) Baxa- нияН. Н., ТариеладзеВ. И., ЧобанянС.А., Вероятностные распределения в банаховых пространствах, М., 1985. С. А. Чобанян. КОЛМОГОРОВА УРАВНЕНИЕ обратное (Kolmogorov backward equation) - см. Колмогорова уравнения, Случайный процесс с независимыми приращениями, Статистическая гидромеханика. КОЛМОГОРОВА УРАВНЕНИЕ прямое (Kolmogorov forward equation) - см. Колмогорова уравнения, Статистическая гидромеханика. КОЛМОГОРОВА УРАВНЕНИЯ (Kolmogorov equations) - уравнения, выражающие производные по времени переходной функции или переходной плотности марковского процесса через значения этих функций в данный момент времени и инфинитезимальные характеристики процесса. Уравнения получены А. Н. Колмогоровым в 1931 (см. [1]), где были заложены основы теории марковских процессов с непрерывным временем. Нек-рые частные случаи были известны раньше (см. ниже пример 2). К. у. были главным средством построения и исследования марковских процессов с непрерывным временем до привлечения методов теории полугрупп и стохастич. дифференциальных уравнений. В приложениях марковских процессов К. у. поныне сохраняют первостепенное значение. Для марковских процессов различного строения К. у. являются линейными уравнениями разных видов. Это могут быть системы обыкновенных дифференциальных уравнений 1-го порядка, дифференциальные уравнения с частными производными 2-го порядка параболич. типа, интегро-дифференци- альные уравнения (см. примеры 1-3). Возможны также комбинации перечисленных вариантов и вырожденные случаи (напр., если процесс детерминированный). Следующая общая схема охватывает К. у. для марковских процессов разных типов. Пусть Es x обозначает математич. ожидание относительно меры Psx в марковском процессе X=(Xt, .«//, PStX) с фазовым пространством (Е, £9). Для широкого класса процессов X функция u(s, x) = Es ХФ, s^t, хеЕ (1) (время t фиксировано), при произвольном ограниченном ^""-измеримом функционале Ф от траекторий процесса X удовлетворяет обратному уравнению Колмогорова _ди ds где Ls - линейный оператор (называемый иногда инфини- тезимальным оператором, или производящим оператором, или генератором процесса X в момент времени s), действующий на функции аргумента х. Если процесс X однороден, то Ls не зависит от s. В «хороших» случаях семейство операторов {Ls} однозначно определяет переходные вероятности процесса X. В частности, если Ф=1Г(Х,), Ге#, то и(s, х) = Ps>x{Xter}=p(s,x>,t,V) (3) КОЛМОГОРОВА 241 L u(s, x), s<t, x eE, (2)
и (2) становится обратным К. у. для переходной функции р. При s = t из (1) получается конечное условие u(t, x) = ir(x), х g Е, для решения (3) уравнения (2), так что для переходной вероятности р как функции s и х возникает задача Коши (в обратном времени -s). Обратное К. у. для переходной плотности * v p(s, х; t, dy) r/ j. \ с u(s,x) = - ——— - f (s, х; t, у), уеЕ, \i(dy) (4) процесса X [относительно «стандартной» меры \1 на Е, по отношению к к-рой все меры p(s; х; t, •), s<t, x e Е, абсолютно непрерывны] формально получается дифференцированием по \i обеих частей уравнения (2) для переходной функции р. Конечным условием для решения (4) уравнения (2) является обращение меры с плотностью u(s, x) при s->£ в единичную меру, сосредоточенную в точке у. На самом деле формула (1) дает решение уравнения (2) с соответствующими граничными условиями не только в полупространстве s<t, но и в более общих пространственно-временных областях. На этом основано вероятностное решение дифференциальных уравнений. Прямое уравнение Колмогорова, двойственное обратному, имеет вид — = L*tv(t, у), t>s, у е Е, (5) где L\ - оператор, сопряженный к Lt (время s фиксировано). Прозрачное вероятностное истолкование имеет здесь более узкий класс решений, чем в случае уравнения (2). Пусть семейство мер {vt}, t^-s, на пространстве (Е, &) согласовано с процессом X в том смысле, что vt(D=j PStX{XteT}vs(dx), t^s,Ve&. Тогда для широкого класса процессов X уравнению (5) удовлетворяет функция v(t, у) = vt({y}) = \E p(s, x; t, y)vs(dx) (6) (если пространство Е дискретно) либо функция «ья-^-Уь-^ъш [если Е непрерывно и наделено «стандартной» мерой \i, относительно к-рой абсолютно непрерывны все меры p(s, х; t, •) с t>s]. Если vs - единичная мера, сосредоточенная в точке х, то в (6) v(t, y)-p{s, х; t, у), а в (7) v(t, x)=f(s, х; t, у) и (5) становится прямым К. у. для переходной вероятности или переходной плотности; в первом случае к уравнению (5) присоединяется начальное условие v(s, x)-ir(x), во втором - мера с плотностью f(s, х; t, •) при £->s обращается в единичную меру, сосредоточенную в х. Уравнение (5) распространяется также на согласованные с процессом X потоки мер {vt}, не имеющие начальной меры vs (иногда называемые законами входа для процесса X). Пример 1 (конечный или счетный процесс X). Если пространство Е конечно или счетно, то переходная функция процесса X сводится к переходной матрице P(s, 0= ||р™(5> 0||, где pxy(s, t) = Psx{Xt -у}, s^t, xgE, ye E. Инфинитезималь- ными характеристиками процесса X являются плотности вероятностей выхода q(s, x) = -qxx(s) = \im—Psx{Xt*x}, x e E, (8) tis t-s и плотности вероятностей перехода ЯХу(s) = lilm7T" Ps,xixt = У)> хфУ tis l s 242 КОЛМОГОРОВА б£. (9) В регулярном случае £ qxy{s)-0. Каждое из К. у., (2) или (5), распадается на замкнутые системы обыкновенных дифференциальных уравнений для семейств переходных вероятностей {pXy(s, t)}, s^t, хеЕ, с фиксированными t и у или соответственно {pxy(s, t)}, t^s, уеЕ, с фиксированными s и х, к-рые все вместе компактнее записываются в матричной форме. Пусть Q(s)=\\qxy(s)\\. Обратная система К. у. имеет вид 9P(s, t) ~, Чп/ ,ч = Q(s)P(s, t), dt s^t, (10) с конечным условием P(t, 0 = 1, прямая система ■ ЭР(5, t) dt •P(s,t)Q(t), t&S, (11) с начальным условием P(s, s) = I (I - единичная матрица). Вопросы о существовании пределов (8) и (9), справедливости каждой из систем (10) или (11), а также о существовании и единственности их решений для наперед заданных матриц Q наиболее полно исследованы для однородных процессов (см. Марковский процесс с конечным множеством состояний, Марковский процесс со счетным множеством состояний) Пример 2 (диффузионный процесс X). Пусть Xt = (Xt(0, ..., Xn(t)) - марковский процесс в IP" с переходной плотностью f(s, х] t, у), s<t, x=(xv ..., *„)elR", y = (y]f ..., ytl) elR" (относительно меры Лебега). При условии, что для любого е > 0 равномерно no s и х 1 n f\Xt-x\7*E}-- lim tis t-s = 0, процесс Х можно считать непрерывным, и его инфинитези- мальными характеристиками служат (не зависящие от числа е>0) коэффициенты сноса к[Х(и)-х.]г, .г ell?", i = l я, (12) 1 aXs, х) = lim — Ес tis t-s s' и коэффициенты диффузии 1 *= дх^о-^ух/о-дгд b-(s, x) = lim V tis t-s (13) .7 = 1. где Ме {с при|с|^е, 0 при|с|>е. В предположении равномерной сходимости в (12) и (13) и достаточной гладкости плотности f эта плотность как функция от s и х при фиксированных t и у удовлетворяет обратному К. у. Э5 ^1 = 1» ЭХ; !E-S«V»>3& s<t, *elR", (14) с конечным условием f(t,x;t,y) = b(x-y), где 8(д)- обобщенная функция Дирака в IR", и как функция от t и у при фиксированных s и х удовлетворяет прямому К. у. (уравнение Фоккера - Планка) 4l"=ii;=ia^7[M^>A ««.».»". (15) с начальным условием f(s, x; s, у)-Ь(у-х). На языке дифференциальных уравнений с частными производными плотность f является фундаментальным решением параболич. уравнений (14), (15). Интегрируя по у, можно получить из (14) обратное К. у. для переходной вероятности: p(s, x; t, r)=Jr/4s, x; t, y)dy.
В частном случае, когда п-\, #1=0, Ьхх-\, X является винеровским процессом, его переходная плотность равна f(s, х; t, у) = - 0-(y-x)2/2(t-s) <j2n(t-s) и К. у. (14) и (15) сводятся к классич. уравнению теплопроводности: ds 2 Эх2 ' 3* 2 э*/2 ' Вопрос о существовании и единственности решения К. у. впервые обстоятельно исследован В. Феллером [2]. Можно задавать диффузионный процесс не условиями (12) - (14), а строить его по коэффициентам а{ и bi}- с помощью стохастич. дифференциальных уравнений. На этом пути получаются и новые результаты о существовании решений К. у. Исторические замечания. До основополагающей работы А. Н. Колмогорова в 1931 (см. [1]) уравнения (14) и (15) с коэффициентами, зависящими только от времени, без достаточно строгого обоснования были рассмотрены и разрешены Л. Башелье [4], [5]. С другой стороны, прямое уравнение (15) до А. Н. Колмогорова появилось в ряде физич. работ: А. Эйнштейна [6] и М. Смолуховского [7] по броуновскому движению; А. Фоккера [8) о поведении электрич. диполя в поле излучения; М. Планка [9] по квантовой теории. В физике уравнение (15) связывают с именами двух последних ученых. Пример 3 (скачкообразный процесс X). Здесь, как в примере 1, существуют конечные пределы (8), а вместо плотностей вероятностей перехода (9) постулируется существование локальных мер скачков: PStX{Xt*x,XteD n(s, х, Г) = lim - tis Ъ,х{Ъ**) x e E, ГеД и требуется, чтобы это были вероятностные меры по Г. В регулярном случае для переходной функции р справедливы интегро-дифференциальное обратное К. у. -?E- = q(s,x)\ f p(s,z,t,r)n(s,x,dz)- ds I JE -pis, x; t, Г)1 s^£, xeE, с конечным условием pit, x; t, Г) = ir(x) (t и Ге 33 фиксированы) и прямое К. у. ^ = -lrq(t,z)p(s,x;t,dz) + +J q(t, z)n(t, z, T)p(s, x; t, dz), t^s, Г е 33, с начальным условием p(s, x\ s, Г) = 1г(#). В абсолютно непрерывном случае при соответствующих условиях эти уравнения можно заменить аналогичными уравнениями для переходной плотности (4). В марковских процессах с диффузией между скачками операторы Ls из (2) являются линейными комбинациями операторов из примеров 2 и 3. Лит.: [1) КолмогоровА. Н., Теория вероятностей и математическая статистика, М., 1986, с. 60-105; [2] Феллер В., «Успехи матем. наук», 1938, в. 5, с. 57-96; [3] ГихманИ.И., Скороход А. В., Теория случайных процессов, т. 2, М., 1973; [4] Bache- lier L., «Ann. sci. Ecole norm, super.», 1900, t. 17, p. 21-86; [5] его же, там же, 1910, t. 27, p. 339-60; [6) Einstein A., «Ann. Phys.», 1905, Bd 17, S. 549-60; [7) Smoluchowski M., «Bull. Intern. Acad. Sci. Cracovie (A)», 1913, p. 418-34; [8] Fokker A.D., «Ann. Phys.*, 1914, Bd 43, S. 810-20; [9) Planck M., «Sitzungsber. Akad. Wiss.», 1917, S. 324-41. А. А. Юшкевич. КОЛМОГОРОВА УРАВНЕНИЯ для вторых моментов (Kolmogorov equations for second moments) - уравнения, связывающие продольные (относительно г) структурные функции {[uL(x + r, t)-uL(x, t)]n) поля скорости локально изотропной турбулентности при п = 2 и 3: DLLL(r)-vdDLL(r)/dr=-4$r/5. Здесь У - скорость диссипации турбулентной энергии, v - вязкость (А. Н. Колмогоров, 1941, см. [1]). Без допущения изотропности это утверждение доказано А. С. Мониным [2]. Лит.: [1] Кол м о гор о в А. Н., Математика и механика, М., 1985, с. 290-93; [2] Монин А. С, «Докл. АН СССР», 1959, т. 125, № 3, с. 515-18. А. С. Монин. КОЛМОГОРОВА УСЛОВИЕ (Kolmogorov condition) - см. Больших размерностей эффект, Колмогорова теорема о непрерывности выборочных функций. КОЛМОГОРОВА ФОРМУЛА (Kolmogorov's formula) - частный случай Леей - Хинчина канонического представления, выделяющий из множества ® безгранично делимых распределений подмножество ®0 распределений с конечными вторыми моментами. Если f - характеристич. функция распределения F, то Fg®0 тогда и только тогда, когда /"имеет вид fit) = ехр{йу + J (eitx -1 - itx) ^f- J, где ye II? , K(x) = \U(x), ^0и U - нек-рая функция распределения на IP. К. ф., доказанная в 1932 (см. [1]), была первым серьезным продвижением в решении проблемы описания множества ®, поставленной Б. де Финетти [2J. Если Fe®0, то jxdF(x) = у, jx2dF(x) - у2 = X. Лит.: [\] Колмогоров А. Н., Теория вероятностей и математическая статистика, М., 1986, с. 117-23; [2) Finetti B. de, «Rend. Reale Accad. naz. Lincei», ser. 6, 1929, v. 10, p. 163-68. В. М. Золотарев. КОЛМОГОРОВА - АРАКА ТЕОРЕМА (Kolmogorov - Arak theorem) - оценка близости p(F"*, ®) (в смысле равномерной метрики р) я-кратной свертки Fn* любой функции распределения F к множеству ® безгранично делимых распределений. Задача об оценке величины A„ = sup{p(F"*, ®):F} поставлена А. Н. Колмогоровым в [1]. Там же было доказа- но-что д^ог"5, где С - абсолютная постоянная. В дальнейшем эта оценка улучшалась и уточнялась рядом авторов, в том числе и самим А. Н. Колмогоровым. В частности, Л. Д. Мешалкин показал, что An^Cn-2/3(\ognr\ Т. Арак [2] в определенном смысле закрыл проблему, доказав, что Сп -2/3 ^А„^Сп -2/3 где С - положительная абсолютная постоянная. По поводу развития этой и аналогичной ей проблематики см. [3], [4]. Лит.: [1] Кол моторов А. Н., «Теория вероятн. и ее примен.», 1956, т. 1, в. 4, с. 426-36; [2] Арак Т., там же, 1981, т. 26, в. 2, с. 225-45; [3] Арак Т., Зайцев А. Ю., Равномерные предельные теоремы для сумм независимых случайных величин, «Труды Матем. ин-та АН СССР», 1986, т. 174, с. 3-212; [4] Золотарев В. М., «Теория вероятн. и ее примен.», 1989, т. 34, в. 1, с. 178-89. В. М. Золотарев. КОЛМОГОРОВА - ДЕЕВА УСЛОВИЕ (Kolmogorov - Deev condition) - см. Общий статистический анализ наблюдений. КОЛМОГОРОВА - ДУБА НЕРАВЕНСТВО для квазимартингалов (Kolmogorov - Doob inequality for quasi- martingales) -см. Квазимартингал. КОЛМОГОРОВА - ОБУХОВА ЗАКОН ПЯТИ ТРЕТЕЙ (Kolmogorov - Obukhov five-thirds law) - эквивалентное Кол- КОЛМОГОРОВА 243
могорова закону двух третей утверждение о структуре развитой турбулентности, формулируемое в спектральных терминах. Впервые получено A.M. Обуховым [1], [2], а позже также Л. Онсагером [3], К. Вайцзеккером [4] и В. Гейзенбер- гом [5J. Согласно теории локально изотропной турбулентности, поле скорости развитой турбулентности в несжимаемой жидкости, характеризуемой достаточно большим числом Рей- нольдса, является соленоидальным векторным локально однородным и локально изотропным случайным полем, так что тензор вторых моментов поля относительной скорости Аги = и(х + г) - и(х) определяется на равных правах продольной структурной функцией DLL(r), поперечной структурной функцией DNN(r), трехмерным спектром турбулентности E(k), продольным Ex(k) или же поперечным E2(k) одномерным спектрами (здесь k - волновое число). При этом гипотеза автомодельности автономной части вихревого каскада развитого турбулентного потока дает E(k) = %2/3k-5/3<?>E(kj),kL) (*) (где й - удельная скорость диссипации энергии, Г) - внутренний колмогоровский масштаб длины, L - внешний масштаб потока) и аналогичные соотношения для Ex(k) и E2(k) (см. Локально изотропная турбулентность). Согласно основной гипотезе А. Н. Колмогорова [6] (см. также Колмого- ровская автомодельность), имеет место полная автомодель- ность вихревого каскада в инерционном интервале волновых чисел: L~ « k«Т|~ , то есть существует конечный ненулевой предел Ф£(0, °о) = С. Отсюда и из (*) получается асимптотич. К. - О. з. т. для трехмерного спектра в инерционном интервале: Ш) = СЯ2/3*~5/3 и аналогичные законы для одномерных спектров E\(k) и E2(k), отличающиеся лишь значениями числовых коэффициентов: С, = [55/27Г(7з)]С*0,76С, С2 = (4/з)С„ заменяющих коэффициент С. Лит.: [1] Обухов A.M., «Докл. АН СССР», 1941, т. 32, № 1, с. 22-24; [2] его же, «Изв. АН СССР. Сер. геогр. и геофиз.», 1941, №4-5, с. 453-66; [3) Onsager L., «Phys. Rev.», 1945, v. 68, № 11—12, p. 286; [4) Weizsacker С F., <Z. Phys.», 1948, Bd 124, №7-12, S. 614-27; [5] Heisenberg W., там же, S. 628-57; [6] Колмогоров А. Н., Математика и механика, М., 1985, с. 281-87. Г. И. Баренблатт. КОЛМОГОРОВА - ПЕТРОВСКОГО ЗАДАЧА (Kolmo gorov - Petrovsky problem) - см. Граничные задачи для случайных блужданий. КОЛМОГОРОВА - СМИРНОВА КРИТЕРИЙ (Kolmo gorov - Smirnov test) - собирательное название для статистических критериев, статистики к-рых выражаются через максимальное (минимальное) значение разности между выборочной и теоретической функциями распределения или их оценками. Различают К. - С. к. для одной, двух и нескольких выборок. К. -С. к. для одной выборки. Пусть Fn(x) обозначает эмпирич. функцию, построенную по скалярной выборке объема п из непрерывного распределения с функцией G(x). Пусть F(x) - заданная функция распределения. Предполагается, что нужно проверить гипотезу H:G(x)=F(x). Статистиками Колмогорова- Смирнова называются Dt = sup[Fn(x)-F(x)h X 244 КОЛМОГОРОВА D; = -inf [Fn{x)-F{x)\, X D„ = max(D„+,D„-) = sup \Fn(x)-F(x)\. X Точнее: D*, D~ - (одновыборочные) статистики Смирнова (см. [4]), Dn - статистика Колмогорова (см. [2]). Гипотезу Н следует отвергнуть, если полученное в эксперименте значение статистики слишком (неправдоподобно с точки зрения Я) велико. При гипотезе Н законы распределения D*, D~, Dn не зависят от того, какова конкретная функция исходного распределения (если она непрерывна); при этом распределения D„, D~ совпадают. Для D*, Dn (при гипотезе) существуют таблицы процентных точек (см., напр., [1]). Критерий, основанный на Dn, состоятелен против всех альтернатив G*F; критерий, основанный на D*, состоятелен против альтернатив G^F (аналогично, D" против G^F). При больших п (я ^ 100) для вычисления процентных точек D*, D~, Dn можно использовать результаты асимптотич теории, к-рая дает (для р>0) НтР{л/^0;>р} = бГ2Р2, lim P{V^D„ >Р} = 2 УГ , (-1)*+1 е-^2. Кроме проверки указанной выше гипотезы, статистики Колмогорова - Смирнова позволяют получать для истинной функции распределения доверительные границы. Напр., двусторонние доверительные границы для G (с коэффициентом доверия 1 - а) имеют вид {G(x):\Fn(x)-G(x)\<Dn^a}, где D„ j_a - квантиль уровня 1 - а случайной величины Dn. С помощью статистик D*, D" аналогично можно указать для G односторонние доверительные границы. На практике часто возникает потребность проверить гипотезу о том, что данная выборка подчиняется распределению того или иного заданного типа, то есть ее функция распределения известна с точностью до конечномерного параметра (если эта гипотеза верна, для дальнейших статистич. выводов можно использовать подходящие аналитич. формулы). Пусть F(x, в) - гипотетич. функция распределения, в - неизвестный параметр, 9 - его оценка по имеющейся выборке. Чаще всего в качестве 9 берут оценку наибольшего правдоподобия. Модифицированные статистики Колмогорова - Смирнова вводятся по аналогии с классическими: D+n =sup[Fn(x)-F(x, в)], х D„ = sup \Fn(x)-F(x, 6)|. X Следует отметить, что распределения D„, Dn не совпадают с распределениями их классич. прототипов. Более того, они зависят от вида функции F(x, в) и, вообще говоря, от значения истинного параметра в. Для ряда практически важных семейств распределений (нормальное, показательное и др. масштабно-сдвиговые семейства) и естественных (эквивариант- ных) оценок параметра зависимость от истинного значения в исчезает. Общих методов для аналитич. расчета процентных точек и функций распределения £>*, D~, Dn не существует. Существующие для ряда семейств F(x} в) таблицы получены (в основном) с помощью моделирования на ЭВМ (методом Монте-
Карло) с использованием в качестве 8 оценок наибольшего правдоподобия. Для больших п применимы результаты асим- птотич. теории. Так, получены (см. [5]) приближенные формулы lim P '}■ JnD+^^ae-W2 дляр>0, где я, Ь - определенные постоянные. Сопоставление с имеющимися таблицами показало, что для п^ 100 и вероятностей ^0,20 эти формулы дают приемлемую точность (возрастающую с увеличением р). В частности, для выборки из нормального распределения Ф, оба параметра к-рого оцениваются по выборке, для нахождения верхних критич. значений при больших п можно использовать приближенную формулу р|^етр|^(х)-ф(-^-)|>р}» Здесь х} s - соответственно среднее и дисперсия выборки, по к-рой построена эмпирич. функция Fn(x). Двувыборочные и многовыборочные К.- С. к. предназначены в основном для проверки гипотез об однородности. Пусть Fm(x) и Gn(x) - две выборочные функции распределения, построенные по двум независимым выборкам (объемов тип), теоретич. функции распределения к-рых обозначены F(x) и G(x) соответственно. Гипотеза однородности H:F(x)=G(x). Двувыборочный критерий Смирнова основан на статистике х (аналогично вводятся статистики D* „, D" „). Гипотезу Н следует отвергнуть при чрезмерно больших значениях Dm „, полученных в опыте. Критерий состоятелен против всех альтернатив F*G. Распределение Dmn при гипотезе свободно от влияния общей функции распределения F = G, если она непрерывна. Вычисление процентных точек в этом случае представляет сложную комбинаторную задачу, решению к-рой было отдано много усилий. Сейчас существуют подробные таблицы, а также алгоритмы и программы для ЭВМ. Асимптотически при т,и->°° статистики -\j-^- Dmn и *Jn Dn распределены одинаково (при соответствующих гипотезах). Асимптотич. распределение этой последней было указано выше. Многовыборочные К. - С. к. для проверки однородности строятся аналогично. Лит.: [1] Бол ьшев Л. Н., См и рнов Н. В., Таблицы математической статистики, 3 изд., М., 1983; [2] Колмогоров А. Н., Теория вероятностей и математическая статистика, М., 1986, с. 134-41; [3] СмирновН. В., Теория вероятностей и математическая статистика, Избр. труды, М., 1970, с. 117-27, 133-59; [4] Тюрин Ю.Н., «Изв. АН СССР. Сер. матем.», 1984, т. 48, № б, с. 1314-43; [5] Ти- монинВ. И., ЧерномордикО. М., «Теория вероятн. и ее примени 1985, т. 30, в. 3, с. 572-73; [6] Pearson E.S., Hartley Н. О. (eds.), Biomctrika tables for statisticians, v. 2, Camb., 1972. Ю. H. Тюрин. КОЛМОГОРОВА - СМИРНОВА СТАТИСТИКА (Kolmo- gorov - Smirnov statistic) - см. Колмогорова - Смирнова критерий. КОЛМОГОРОВА - ЧЕПМЕНА УРАВНЕНИЕ (Kolmogo- rov - Chapman equation) - уравнение для переходной функции марковского процесса, отражающее марковское свойство независимости будущего от прошлого при известном настоящем. Пусть Т - область изменения временного параметра, (£, &) - пространство состояний необрывающегося марковского процесса Х = (Xt, .4» Ps,x)- Если s<t<ueT, xe E} Те&, то по свойствам условных математич. ожиданий PSi.c{X„er} = ESi:rP,,,{XBelV,}, (D по марковскому свойству процесса X PStX{Xuer\^t} = PttX {ХиеГ} (Рлд.-почти наверное), (2) по смыслу переходной функции процесса Psx{XueV} = p(s, х\ и, Г), PttXt {XueV} = p(t, Xt\ и, Г). (3) Подстановка (2) и (3) в (1) приводит к равенству p(s, x; uf V) = Esxp(t, Xt\ и, Г), развернутая запись к-рого p(s} x\ и, T) = jEp(s} x; t, dy)p(t} у; и, Г), (4) s<t<u, xeE, Ге#, и представляет собой уравнение Колмогорова - Чепмена. В случае, когда Е = 1Р1 и процесс X имеет переходную плотность f относительно меры Лебега, так что p(s, x\ t, dy) = f(s, x\ t, y)dy при s<t, для справедливости уравнения (4) достаточно, чтобы г400 /4s,- x; и, ^) = J_oo f(s, x; t, у) fit, у; s, z)dy, (5) s<t<u, *el?\ г6В?1. Уравнение (5) впервые в 1928 рассмотрено К. Чепменом [1], уравнение (4) введено в 1931 А. Н. Колмогоровым (см. [2]) под названием характеристического как составная часть определения переходной функции. Оно справедливо и для обрывающегося марковского процесса X [у к-рого p(s,x; t, E)^\]. В случае дискретного времени, когда Г={0, 1, 2,...}, все решения уравнения (4) описываются просто: р(гп} х\ п,Г) = (ри+1»ри+2»...»ря)(*,Г), ?п<п} где ♦ - оператор свертки: (p*q)(x, T) = jEp(x, dy)q(y,V), а рп(х} Г) - произвольные переходные вероятности из X в X. В случае непрерывного времени, когда Т- [0, <*>), лишь при определенных предположениях регулярности решения К. - Ч. у. удается описать в терминах инфинитезимальных характеристик процесса (напр., плотностей вероятностей выхода и перехода для конечного или счетного множества состояний или коэффициентов диффузии и сноса для диффузионных процессов), а само К. - Ч.у. заменить дифференциальными Колмогорова уравнениями. Лит.: [1] Chapman S., «Proc. Roy. Soc. Ser. A», 1928, v. 119, p. 34-54; [2] Колмогоров А. Н., Теория вероятностей и математическая статистика, М., 1986, с. 60-105; [3] Гихман И. И., Скороход А. В., Теория случайных процессов, т. 2, М., 1973. А. А. Юшкевич. КОЛМОГОРОВСКАЯ АВТОМОДЕЛЬНОСТЬ (Kolmo gorov selfsimilarity) - независимость от формы течения и его числа Рейнольдса Re статистической структуры мелкомасштабных компонент развитой турбулентности, к-рая определяется только вязкой диссипацией турбулентной энергии и кинематическим коэффициентом вязкости. Лит.: [1] Математическая физика. Энциклопедия, М., 1998, с. 278-80. М. М. Любимцев. КОЛМОГОРОВСКИЙ ВНУТРЕННИЙ МАСШТАБ ТУРБУЛЕНТНОСТИ (Kolmogorov internal scale of turbulence) - см. Турбулентность. КОЛМОГОРОВСКИЙ СПЕКТР (Kolmogorov spectrum) - спектральная плотность кинетической энергии в инерционном КОЛМОГОРОВСКИЙ 245
интервале волновых чисел к. Как следствие колмогоровской автомоделъности спектральная плотность кинетич. энергии в инерционном интервале волновых чисел k определяется только скоростью спектрального переноса энергии Ш и потому имеет вид E(k) = C]$ ' k~ ' , где Сх - числовая константа. Термин «К. с.» применяют и к другим спектрам, определяемым каскадными процессами спектрального переноса сохраняющихся величин. Лит.: [1] КолмогоровА. Н., Математика и механика, М., 1985, с. 281-87; [2] его же, Теория вероятностей и математическая статистика, М., 1986, с. 264-67; [3] Обухов A.M., «Изв. АН СССР. Сер. геогр. и геофиз.», 1941, № 4-5, с. 453-66. М. М. Любимцев. КОЛЬЦО МНОЖЕСТВ (ring of sets) - см Мера. G-КОЛЬЦО МНОЖЕСТВ (a-ring of sets), a-кольцо, - см. Мера. КОМБИНАТОРИКА (combinatorics) - см. Комбинаторный анализ. КОМБИНАТОРИКА ВЕРОЯТНОСТНАЯ (probabilistic combinatorial) - см. Вероятностная комбинаторика. КОМБИНАТОРНАЯ ИНТЕГРАЛЬНАЯ ГЕОМЕТРИЯ (combinatorial integral geometry) - см. Интегральная геометрия. КОМБИНАТОРНАЯ КОНФИГУРАЦИЯ (combinatorial configuration) - см. Комбинаторный анализ. КОМБИНАТОРНАЯ МАТЕМАТИКА (combinatorial mathematics) - см. Комбинаторный анализ. КОМБИНАТОРНОЕ КОДИРОВАНИЕ (combinatorial coding) - см. Кодирование источника сообщений. КОМБИНАТОРНЫЕ ЗАДАЧИ классические (classical combinatorial problems) - задачи выбора и расположения элементов конечного множества, имеющие в качестве исходной нек-рую формулировку развлекательного содержания типа головоломок. Одной из классических К. з., фигурирующей еще в мифах Древнего Востока, является построение магического квадрата, то есть расположение первых п натуральных чисел в квадрате пхп так, чтобы все суммы по строкам, столбцам и диагоналям были равны одному и тому же числу. Напр., 4 9 2 3 5 7 8 1 6 - магич. квадрат при п = 3. Известен ряд методов построения таких квадратов (см., напр., [1]). Определение числа магич. квадратов порядка п при п>4 представляет трудную еще нерешенную задачу. Ряд К. з. был рассмотрен Л. Эйлером (L. Euler). Одна из них - задача о 36 офицерах, состоящая в том, чтобы указанное число офицеров 6 различных воинских званий и из 6 различных полков так расположить в ячейках квадрата 6x6 (каре), чтобы каждая колонна и каждая шеренга содержали одновременно одного и только одного офицера каждого ранга и каждого полка. Квадрат размером п*п, содержащий в ячейках элементы 1, 2, ..., п, называется латинским, если элементы в каждой строке и каждом столбце различны. Два латинских квадрата называются ортогональными, если при их наложении все п пар элементов в ячейках различны. Задача о 36 офицерах эквивалентна задаче о существовании нары ортогональных латинских квадратов порядка 6. Л. Эйлер высказал гипотезу о несуществовании ортогональ- 246 КОЛЬЦО ных латинских квадратов порядка n = 4k + 2, /г = 1, 2,... В 1900 Г. Тарри (G. Таггу) подтвердил эту гипотезу для л = 6 и тем самым доказал, что задача о 36 офицерах не имеет решения. В 1959-60 была доказана теорема о существовании пары ортогональных латинских квадратов для каждого n = 4k + 2, k = 2,3,... (см. [2]). Другая задача, рассмотренная Л. Эйлером, - задача о кенигсбергских мостах, формулируемая следующим образом. Имеется семь мостов, соединяющих берега реки, протекающей через город, и два острова, расположенные на ней. Спрашивается, можно ли обойти все мосты, проходя по каждому только один раз, и возвратиться в исходную точку. Полагая, что вершины соответствуют районам суши, а ребра - мостам, эту задачу можно сформулировать в виде вопроса о возможности последовательного обхода графа, изображенного на рис. 1, с условием однократного использования его ребер и возвращения в исходную точку. Если в графе такой обход возможен, то говорят, что он обладает эйлеровым циклом. Л. Эйлер установил, что такой цикл в графе существует тогда и только тогда, когда он связен и число ребер, инцидентных каждой вершине, четно. Так как граф на рис. 1 не удовлетворяет этому требованию, то задача о кенигсбергских мостах неразрешима. Она неразрешима и в том случае, если отбросить требование совпадения точек начала и конца обхода. В этом случае решается вопрос о существовании эйлеровой цепи в графе. Граф обладает эйлеровой цепью тогда и только тогда, когда он связен и число вершин, инцидентных нечетному числу ребер, равно 0 или 2. Граф на рис. 1 не удовлетворяет и этому условию (см. [3]). Рис. 1. Рис. 2. В 1859 У. Гамильтон (W. Hamilton) придумал игру «Кругосветное путешествие», состоящую в отыскании такого пути, проходящего через все вершины (города) графа, изображенного на рис. 2, чтобы посетить каждую вершину однократно и вернуться в исходную. Пути в графах, обладающие таким свойством, называются гамильтоновыми циклами. Необходимые и достаточные условия существования гамиль- тонова цикла в графе пока неизвестны (см. [3]). Задача о гамильтоновых циклах в графе получила различные обобщения. Одно из этих обобщений - задача коммивояжера, имеющая ряд приложений в исследовании операций, в частности при решении нек-рых транспортных проблем. Она состоит в следующем: имеется нек-рое количество городов, расстояния между к-рыми известны; нужно найти кратчайший путь, проходящий через все города и возвращающийся в исходный. В 1847 Р. Киркман (R. Kirkman) поставил и решил задачу о 15 школьницах. Они должны были гулять ежедневно пятью группами по трое в каждой группе. При этом необходимо было так составить расписание для их прогулок, чтобы каждая школьница в течение семи дней смогла точно один раз попасть в одну группу с каждой из остальных. Эта задача связана с задачей построения системы троек, поставленной Я. Штейнером (J. Steiner, 1853). Системой троек Штейнера порядка v называется такой набор троек из
множества, содержащего v элементов, что каждая пара элементов входит точно в одну тройку. Системы троек Штейнера описаны для а^ 15. Оказывается, что для v = 3, 7, 9 системы троек единственны с точностью до эквивалентности (подстановка v элементов, перестановка троек); для v=\3 существуют две неэквивалентные системы троек; при v = 15 таких троек 80. Для v> 15 число различных систем троек Штейнера пока неизвестно. При v>3 система троек Штейнера является частным случаем неполной частично уравновешенной блок-схемы. Классич. задача о встречах состоит в следующем. Имеются две одинаковые колоды из п различных карт каждая. Необходимо определить Dnr, r = 0, 1, ..., п, - число расположений карт во второй колоде таких, что при сравнении соответствующих карт первой и второй колоды число совпадений равно-г, г = 0, 1, ..., п. Частный случай этой задачи при г = 0 впервые был сформулирован П. Монмором (P. Montmort, 1708). Л. Эйлер рассматривал задачу отыскания числа членов определителя, не имеющих общих элементов с главной диагональю, эквивалентную определению DnQ. Задача о встречах была исходным пунктом для возникновения раздела комбинаторного анализа, связанного с исследованием перестановок с ограниченными позициями. На совокупности Sn подстановок степени я, действующих на множестве X, можно ввести расстояние р, полагая p(s, s')= \{x:s(x) *s'(x), xeX}\, s, s' eSn. Тогда Dnr=\{s:p(s, s') = n-r,seSn}\, причем o^iz^vy-^ "■ В терминах расстояний между подстановками можно сформулировать и другую классич. К. з., называемую обычно задачей о супружеских парах. Она состоит в определении числа Мп рассаживаний п супружеских пар на 2п местах за круглым столом так, чтобы ни один муж не сидел рядом со своей женой. Тогда М„ = 2-и! Un, Un=\{s:p(s, е) = п, p(s, с) = п, seSn}\, где е - единичная подстановка, а с=(1, 2, ..., я). Получена формула Если t/„(s,, 52)= |{s:p(s, sx) = n, p(s, s2) = n, seSn}\, то величина Un(sv s2) зависит только от цикловой структуры s]]s2 и может быть выражена в виде формулы с использованием многочленов Чебышева (см. [4]). Тесную связь с приведенными задачами имеет проблема определения числа Lkn латинских прямоугольников Ьп и числа Ln латинских квадратов. Латинский прямоугольник k х п может рассматриваться как упорядоченный набор подстановок Sj, 52, ..., sk степени п таких, что p(Sj, S:) = n, i*j. Показано, что Lln = n\, L2„ = Dnn\,Dn = Dn0, L3n = nl^2]C^DkDn.kU^2kf U0 = DQ=\. Установлено, что при k<nx' ~e, e>0, !,„ = (»!)* е-С|(1+6„), где 5„->0 при я->°°. Число латинских квадратов порядка п известно до я = 9 включительно. Задача о числе разбиений натурального числа п на слагаемые впервые появилась в письме Г. Лейбница (G. Leibniz) к Я. Бернулли (J. Bernoulli) в 1669. Однако разработка методов решения целого класса задач такого типа была осуществлена Л. Эйлером, к-рый эффективно использовал для этой цели производящие функции, задаваемые в виде бесконечных произведений. Он, в частности, установил, что число разбиений т + п на п слагаемых равно числу разбиений т на не более чем п слагаемых, равно числу разбиений т на слагаемые, не превосходящие п, и равно числу разбиений т + С„+1 на п различных слагаемых. Классич. задача размещения состоит в определении числа Спт(г) способов размещения т различных предметов в п различных ячейках с заданным числом г пустых ячеек. Получено, что CnJr) = C№~r0m, г = 0, 1, .... л, где А*0т = Х^о <-1>Ус*<* -/>"- Исследования здесь велись в плане теоретико-вероятностных приложений, включая разнообразные обобщения и модификации. Наиболее интересная часть этих исследований касается получения различных асимптотич. результатов, когда т и п неограниченно возрастают. Лит.: [1] Постников М.М., Магические квадраты, М., 1964; [2] Холл М., Комбинаторика, нер. с англ., М., 1970; [3] Оре О., Теория графов, пер. с англ., М., 1968; [4] Риордан Дж., Введение в комбинаторный анализ, пер. с англ., М., 1963; [5] X ар ар и Ф., Теория графов, пер. с англ., М., 1973. В. Н. Сачков. КОМБИНАТОРНЫЕ ЧИСЛА (combinatorial numbers) - термин, объединяющий большую совокупность числовых величин, возникающих в разнообразных перечислительных задачах комбинаторики. Как правило, эти величины имеют наглядную интерпретацию (зачастую неоднозначную), выражаемую в терминах числа способов выбора и расположения элементов нек-рого, обычно конечного, множества, приводящих к конфигурациям данного класса (или числа объектов из нек-рого множества объектов, обладающих тем или иным выделенным свойством). Простейшими примерами К. ч. являются числа сочетаний, размещений и перестановок. Если имеется множество X из N различных элементов, то его подмножества называются сочетаниями; число различных сочетаний объема п множества X равно Cj5 = 0=MJV-l)...(iV-n+l)/n!. Упорядоченные наборы из различных элементов X называются размещениями; число различных размещений объема п равно AnN = n\ CZl = (N)n = N(N-\)...(N-n + \). В случае п = N размещения называются перестановками; число всех перестановок из N элементов равно PN = N\. Если допускаются неограниченные повторения элементов, то число всех сочетаний объема п из N различных элементов равно Ctf+n_i, а число всех упорядоченных наборов объема п равно Nn. Эти числа широко используют при нахождении вероятностей различных событий в схеме классич. определения вероятности. Напр., если имеется урна с N шарами, занумерованными числами 1, 2, ..., М, причем шары с номерами 1, 2, ..., М белого цвета, а остальные - черного, то КОМБИНАТОРНЫЕ 247
вероятность получить ровно т белых шаров при случайном выборе из урны п шаров равна если выбор производится без возвращения шаров, и равна C™Mm(N-M)»-m _ / м у»/ _ м \п-т для выборки с возвращением. Из ряда более специальных К. ч. наиболее часто используют числа МорганаДО"[Д- оператор разности: Д/Х х) = = /•(*+1)-/■(*)]: числа Стирлинга 1-го и 2-го рода S(n, k) и о(п, k) соответственно, числа Белла Одна из комбинаторных интерпретаций чисел Белла: Вп есть число различных разбиений множества из п элементов на непересекающиеся подмножества. При исследовании свойств К. ч. широко используют метод производящих функций параллельно с методами рекуррентных соотношений и конечноразностных уравнений. Во многих случаях на рассматриваемом множестве объектов удается построить подходящую вероятностную модель и тем самым комбинаторную задачу перечислительного характера сформулировать как задачу изучения распределения соответствующей случайной величины. Такая интерпретация дает возможность применять при изучении К. ч. различные методы (в частности, предельные теоремы) теории вероятностей. Лит.: [1] Сачков В. Н., Комбинаторные методы дискретной математики, М., 1977; [2] его же, Вероятностные методы в комбинаторном анализе, М., 1978; [31 Комбинаторный анализ. Задачи и упражнения, М., 1982. г. И. Ивченко. КОМБИНАТОРНЫЙ АНАЛИЗ (combinatorial analysis), комбинаторная математика, комбин аторика,- раздел математики, посвященный решению задач выбора и расположения частей нек-рого, обычно конечного, множества в соответствии с заданными правилами. Каждое такое правило определяет характерные свойства нек-рой конструкции из элементов исходного множества, называемой комбинаторной конфигурацией. Поэтому можно сказать, что целью К. а. является изучение комбинаторных конфигураций. Это изучение включает в себя вопросы существования комбинаторных конфигураций, алгоритмы их построения, оптимизацию таких алгоритмов, а также решение задач перечисления, в частности определение числа конфигураций данного класса. Простейшими примерами комбинаторных конфигураций являются сочетания, размещения и перестановки. Множество X из п элементов называется я-множеством; любое его w-подмножество, т^п, называется сочетанием объема т. Число сочетаний объема т из п различных элементов равно С(п, m) = C„w = ^)=n(n-l)...(n-m+l)/m!. Имеет место формула (|+()'=^с;с,с,° = 1, обычно называемая формулой бинома Ньютона. Числа С™ называются биномиальными коэффициен- 248 КОМБИНАТОРНЫЙ там и. Упорядоченное w-подмножество называется размещением объема т. Число размещений объема т из п различных элементов равно А(п, т)=А™ = п(п-\)..Хп-т + \). При т = п размещение представляет собой перестановку элементов множества X. Число таких перестановок равно Р(п) = Рп = п\. Возникновение основных понятий и развитие К. а. шло параллельно с развитием других разделов математики, таких, как алгебра, теория чисел, теория вероятностей, с к-рыми К. а. тесно связан. Еще математикам Древнего Востока были известны формула, выражающая числа сочетаний через биномиальные коэффициенты, и формула бинома Ньютона с натуральным показателем я. Мистич. значение придавалось магич. квадратам, примеры к-рых также были найдены в глубокой древности. Рождение К. а. как раздела математики связано с трудами Б. Паскаля (В. Pascal) и П. Ферма (P. Fermat) по теории азартных игр. Эти труды, составившие основу теории вероятностей, одновременно содержали принципы определения числа комбинаций элементов конечного множества, устанавливая тем самым ставшую затем традиционной связь К. а. с теорией вероятностей. Большой вклад в систематич. развитие комбинаторных методов был сделан Г. Лейбницем (G. Leibniz) в его диссертации «Ars combinatoria» («Комбинаторное искусство»), где, по-видимому, впервые появился термин «комбинаторный». Большое значение для становления К. а. имела работа Я. Бернулли (J. Bernoulli) «Ars conjectandi» («Искусство предположений»), посвященная основным понятиям теории вероятностей, где обстоятельно изложен ряд комбинаторных понятий и указаны их применения для вычисления вероятностей. Можно считать, что с появлением работ Г. Лейбница и Я. Берн>лли комбинаторные методы выделились в самостоятельную часть математики. Большой вклад в развитие комбинаторных методов сделал Л. Эйлер (L. Euler). В его работах по разбиениям и композициям натуральных чисел на слагаемые было положено начало одному из основных методов перечисления комбинаторных конфигураций - методу производящих функций. Возрождение интереса к К. а. относится к 50-м гг. 20 в. в связи с бурным развитием кибернетики и дискретной математики и широким использованием электронно-вычислительной техники. В этот период активизировался интерес к кпас- сич. комбинаторным задачам и было поставлено много новых проблем. На формирование направлений исследований в дальнейшем оказывают влияние два фактора: с одной стороны, выбор объекта исследования, с другой - формулирование его цели, зависящей, в конечном счете, от степени сложности изучаемого объекта. Если исследуемая конфигурация определяется системой условий, выполнимость к-рых не очевидна, то целью исследования становится выяснение условий ее существования и разработка алгоритмов построения. Большой развивающийся раздел К. а. составляет теория блок-схем (см. также [2], [3], [11]); основные проблемы этого раздела связаны с вопросами классификации, условиями существования и методами построения нек-рых классов блок-схем. Частным случаем блок-схем являются так паз. уравновешенные неполные блок-схемы, или (b, v, r, k, ^-конфигурации, к-рые определяются как совокупности из Ь, ^-подмножеств нек-рого ^-множества, называемых блоками, с условием, что каждый элемент появляется точно в г блоках, а каждая пара различных элементов - точно в X блоках. При b = v и, следовательно, r=k(b, v, r, k, ^-конфигурация назы-
вае/ся (v, k, Х)-к о и ф и г у р а ц и е й, или симметричной уравновешенной неполной блок-схемой. Даже для (v, k, ^-конфигураций вопрос о необходимых и достаточных условиях их суи,ествования остается пока открытым. Для существования (v, k, ^-конфигураций необходимо, чтобы при v четном k-X было квадратом, а при v нечетном уравнение z = (k-X)x +(- \yv~"' Ху имело решение в целых числах х, и, 2, одновременно не равных нулю. При v = n +n+\, k = n+\, Х=\ (v, k, ^-конфигурация представляет собой проективную плоскость порядка п, являющуюся частным случаем конечной геометрии, содержащей конечное число точек и прямых с заданными условиями их инцидентности. Каждой проективной плоскости порядка п - 1 можно поставить во взаимно однозначное соответствие полное множество из п - 1 попарно ортогональных латинских квадратов порядка п. Для существования проективной плоскости порядка п необходимо, чтобы при w = l,2 (mod 4) существовали целые числа а и Ь, удовлетворяющие равенству п = а + Ь . Вопрос о существовании проективных плоскостей порядка п решен положительно только для п = ра, где р - простое, а а - натуральное числа. Даже для «=10 этот вопрос является открытым. К этому кругу вопросов относится результат, опровергающий при k > 1 гипотезу Эйлера о несуществовании пары ортогональных латинских квадратов порядка n = Ak + 2, k=\, 2, .... Другое направление К. а. связано с теоремами выбора. В основе целого ряда результатов этого направления лежит теорема Холла о существовании системы различных представителей (трансверсалей) семейства подмножеств (Xt, .... Хп) множества X, то есть системы элементов (xv ..., хп) такой, что XjeXj и хгФХ: при i*j: трансверсаль существует тогда и только тогда, когда для любых iv ..., ik таких, что 1 ^ ix < ... < ik ^ п, 1 ^ k ^ п, справедливо неравенство \Xt U...UX, | ^k, где \Y\ - число элементов в множестве У. И: теоремы Холла вытекает теорема о существовании латинского квадрата, состоящая в том, что любой латинский прямоугольник размера kxn, \ ^k^n- \, можно дополнить до латинского квадрата порядка п. Другое следствие теоремы Холла: любую неотрицательную матрицу А = \\а(Л, i, /= 1, ..., п, такую, что можно представить в виде А = а1П1 + ... + а,П5, где П^ ..., П5 - матрицы подстановки порядка п и 5«г(я-1) +1. Из теоремы Холла следует также теорема о том, что минимальное число строк и столбцов неотрицательной матрицы, содержащих все положительные элементы, равно максимальному числу таких ее положительных элементов, что никакие два из них не расположены в одной и той же строке или в одном и том же столбце. Экстремальное свойство частично упорядоченных множеств, аналогичное этой теореме, устанавливает теорема, утверждающая, что минимальное число непересекающихся цепей совпадает с мощностью максимального подмножества, состоящего из попарно несравнимых элементов. Экстремальный характер носит также следующий результат (теорема Рам сея): если для «-множества X составить все Сгп сочетаний по г элементов и разбить их на k непересекающихся классов, то для целого т существует число щ = п0(т, г, k) такое, что при и^и0 найдется подмножество из т элементов УСХ, для к-рого все Сгт сочетаний принадлежат одному классу. Экстремальной является задача коммивояжера, заключающаяся в составлении кратчайшего маршрута посещения п городов с возвращением в исходный пункт при условии, что расстояния между городами известны. Эта задача имеет приложения к изучению транспортных сетей. Комбинаторные задачи экстремального характера возникают в теории потоков в сетях и в теории графов. Значительную часть К. а. составляют перечислительные задачи. При их решении либо указывается метод перебора комбинаторных конфигураций из данного класса, либо определяется их число, либо делается то и другое. Типичные результаты перечислительных задач: число подстановок степени nek циклами равно \S(n, k)\, где S(n, k) - числа Стирлинга 1-го рода, определяемые равенством *(*-1)...(л:-л + 1) = У?А S(n, k)xk; число разбиений множества из п элементов на k непустых подмножеств равно числу Стирлинга 2-го рода <**.л>=^ 5* <-«'<#*-/>"; число размещений т различимых предметов в п различимых ячейках, когда пустых ячеек нет, равно п\о(т, п). Полезным инструментом для решений перечислительных задач является перманент матрицы. Перманент матрицы А = ||я;/||, i=l, ..., п, j=\, ..., т, п^т, с элементами из нек-рого кольца определяется равенством где суммирование производится по всевозможным размещениям объема п из т различных элементов. Число трансверсалей произвольного семейства подмножеств конечного множества равно перманенту соответствующей матрицы инцидентности. К вычислению перманентов сводится целый класс задач по определению числа перестановок с ограниченными позициями. Эти задачи для удобства иногда формулируются как задачи о расстановке взаимно неатакующих фигур на шахматной доске размером п х п. С определением перманентов нек-рых классов матриц связаны варианты задачи о димерах, возникающей при изучении явления адсорбции и заключающейся в определении числа способов объединения атомов в двухатомные молекулы на нек-рой поверхности. Ее решение может быть также получено через пфаффианы - нек-рые функции от матриц, близкие к определителям. Проблема о числе латинских прямоугольников (квадратов) также связана с разработкой эффективных методов вычисления перманентов нек-рых (0, 1)-матриц. Для вычисления перманентов применяют формулу P^A = ^lm_n(-\)k-m+nCrSk, Sk = Zii<j\ < ... <jk <m ГХ=1 (Z/=l aU ~ Xr=l% J* Имеется большое число неравенств, дающих оценку величины перманента в нек-рых классах матриц. Представляет интерес определение экстремальных значений перманента в тех или иных классах неотрицательных матриц. Для класса дважды стохастич. матриц такая задача была решена в 1980 Г. П. Егорычевым, а также Д. И. Фаликманом (см. [7]), доказавшими, что минимум перманента дважды стохастич. матрицы порядка п равен п\/пп\ это подтвердило знаменитую гипотезу, высказанную еще в 1926 Б. Ван дер Варденом (В. van der Waerden). КОМБИНАТОРНЫЙ 249
Большую роль в решении перечислительных задач играет метод производящих функций. Производящая функция ставится в соответствие последовательности (я0, av ...) с элементами из нек-рого поля и рассматривается как формальный степенной ряд. При таком определении производящие функции эффективно используют для решения перечислительных задач параллельно с методами рекуррентных соотношений и конечноразностных уравнений. При получении асимптотич. формул в качестве производящих функций обычно используют аналитич. функции действительного или комплексного переменного. В последнем случае для отыскания выражений коэффициентов применяют интегральную формулу Коши. Имеются результаты в направлении возможной унификации методов перечисления, связанные с рассмотрением так наз. алгебр инцидентности и использованием функции Мебиуса на частично упорядоченных множествах (см., напр., [11]). При решении перечислительных задач существенную роль играет формализация понятия неразличимости объектов. Использование для этих целей понятия эквивалентности объектов относительно нек-рой группы подстановок в сочетании с применением метода производящих функций было положено в основу так наз. теории перечисления Пойа (см. [11]). Сущность этой теории состоит в следующем. Рассматривается Ух - множество конфигураций f: X -> У, |X\ = т, | У | = п. На множестве X действует группа подстановок А, определяющая на Ух отношение эквивалентности ~, при к-ром f~f\, если существует такое аеЛ, что f(a(x)) = fa(x) для всех хеХ; /", /^ е У . Каждому у е У ставится в соответствие характеристика [y] = (sv ..., sk), где Sj, t=l, ..., k,- элементы абелевой группы. Характеристика конфигурации /"задается равенством Если д($1, ..., sk) - число элементов у е У с заданным значением характеристики и bm(s\, ..., sk) - число неэквивалентных конфигураций /"е У , Яу, yk)= X,s, Sk)a(-Si **>W-J#. Фт(#1 ^) = X(S| s„) b>»(Sl Skty'-y'k"' то основная теорема Пойа утверждает, что Фт(Уи ->Ук> = = z(F(yv ..., yk\ F(y2v ..., y\)t ..., F(<, ..., #)), где Z есть циклический индекс группы Л, определяемый равенством Z(tv...,tm,A) = = Zy1+2;2+...+,„/m=n C(''l' ■- Jm> A)tlX ~Лт> C0i> •••» Jm» A) - число элементов циклового класса {\lx2l2...mim} группы А. Эта теорема основана на лемме Бернсайда: число классов эквивалентности N(A), определяемых на множестве X группой подстановок А, дается формулой где/j(ос) - число единичных циклов аеА. Теория Пойа имеет применения при решении перечислительных задач теории графов и перечислении углеродных химич. соединений. Име- 250 КОМБИНАТОРНЫЙ ется обобщение теории Пойа на случай, когда эквивалентность конфигураций определяется двумя группами G и Я, действующими на X и У соответственно (см. [4], [11]). В таком виде она применяется, напр., для определения числа неизоморфных абстрактных автоматов. Если Х = {\, ..., т}, У={д1, ..., ап} и o:X-+Y, где а} используется а, раз в качестве образа, то выражение [а] = [д1а,...в"я], ах+...+ап = т, называется первичной спецификацией а. Если числа оц, а2, ..., а„ содержат р0 нулей, ^ единиц и т. д., то выражение [[0Mi...m4]. Po + ... + Pm = «. Р1 + 2р2 + ... + шРт = ш, называется вторичной спецификацией. При нек-рой специализации групп G и Я, определяющих эквивалентность конфигураций o:X-+Y, можно указать способ построения производящих функций для перечисления неэквивалентных конфигураций. Этот способ, называемый общей комбинаторной схемой, подразделяется на четыре частных случая в соответствии с тем, принимают группы G и Я значения единичной Е или симметрической Sn групп соответствующих степеней. Эти частные случаи являются моделями для большинства известных комбинаторных схем (см. [ю], [П]). 1. Коммутативный несимметричный «-базис: G = Sm, Н = Е. Моделирует схемы сочетаний, заполнений одинаковых предметов в различные ячейки и др. Производящая функция для перечисления неэквивалентных конфигураций а таких, что aI-eAI-eN0={0, 1,...}, A = (Alf ..., АЙ), имеет вид 2. Некоммутативный несимметричный «-базис: G = E, H = E. Моделирует схемы размещений, заполнений различных предметов в различные ячейки и др. Производящая функция для перечисления неэквивалентных конфигураций а таких, что л = (л, л„), имеет вид Ф(*;лг, *„;Л) = ГГ У д — *?>■ 3. Коммутативный симметричный w-баз и с: G = Sm, H = Sn. Моделирует схемы заполнения одинаковых предметов в одинаковые ячейки, перечисления разбиений натуральных чисел и др. Перечисление конфигураций а таких, что [[a]] = [[0P°l^..m4L РуеЛу, Л = (Л„ Л2, ...), основано на использовании производящей функции вида ^;*,....;а) = ГГ;15:^(х/Д 4. Некоммутативный симметричный «-базис: G = E, H = Sn. Моделирует схемы разбиений конечных множеств на блоки, заполнения различных предметов в одинаковые ячейки и др. Перечисление конфигураций а таких, что [1о]] = [[0*°№...тЩ, Р,£Л;, Л = (Л,, Л2,...),
основано на использовании производящей функции вида Значительное место в К. а. занимают асимптотич. методы. Они применяются как для упрощения сложных конечных выражений при больших значениях входящих в них параметров, так и при получении приближенных формул обходными путями, когда точные формулы неизвестны. Комбинаторную задачу перечислительного характера иногда удобно формулировать как задачу отыскания характеристик распределения нек-рой случайной величины. Такая интерпретация дает возможность применять развитый аппарат теории вероятностей, а для отыскания асимптотик - предельные теоремы. Детальному исследованию с этих позиций подвергнута классич. схема случайных размещений предметов в ячейки, случайные разбиения множеств, цикловая структура случайных подстановок, а также различные классы случайных графов, включая графы отображений (см. [9], [10]). Вероятностный подход применяется при изучении комбинаторных свойств симметрич. групп и полугрупп. Исследовано предельное распределение порядка случайного элемента симметрич. группы Sn при п -><*>, а также асимптотика вероятности порождения ее случайными элементами. Для нек-рых классов случайных неотрицательных матриц изучались распределения числа нулевых линий в матрице и перманентов, даны оценки вероятности примитивности таких матриц. Для доказательства существования комбинаторных конфигураций без их конструирования иногда используется нек-рый специ- фич. вероятностный прием. Сущность этого приема заключается в установлении существования конфигурации с помощью оценки вероятности нек-рого события (см. [7]). См. также Вероятностная комбинаторика. Лит.: [1] Риордан Дж., Введение в комбинаторный анализ, пер. с англ., М., 1963; |2] Райзср Г.-Дж., Комбинаторная математика, пер с англ., М., 1966; |3| Холл М., Комбинаторика, пер. с англ., М., 1970; 14] Харари Ф., Теория графов, пер. с англ., М., 1973; [5| Харари Ф., Пал мер Э., Перечисление графов, пер. с англ., М., 1977; [6] Эрдеш П.. Спенсер Дж., Вероятностные методы в комбинаторике, пер. с англ., М., 1976; 17] Мин к X., Перманенты, пер. с англ., М., 1982; [8] Гулден Я. П., Джексон Д., Перечислительная комбинаторика, пер. с англ., М., 1990; [9] Кол чин В.Ф., Чистяков В. П., в кн.: Итоги науки и техники. Сер. Теория вероятностей. Математическая статистика. Теоретическая кибернетика, т. 11, М., 1974, с. 5-45; [10] Сачков В. Н., в кн.: Вопросы кибернетики. Тр. семинара по комбинаторной математике, М., 1973, с. 146-64; fll| его же, Комбинаторные методы дискретной математики, М., 1977. В. Н. Сачков. КОМПАКТ (compact) - подмножество топологического пространства, каждое счетное открытое покрытие к-рого имеет конечное подпокрытие. Пусть К - подмножество в топологич. пространстве (ж, ©), и пусть счетный набор открытых множеств {G,} с ® является покрытием К, то есть К ^ U; G,-. Если К есть компакт, то существует п такое, что К^ U,=i Gf-. Это свойство эквивалентно тому, что каждое бесконечное подмножество из К. имеет предельную точку. Множество К называется относительно компактным, если замыкание К компактно. Для случая, когда (:)\ ©) - а-топологич. пространство, определение К. не меняется; однако здесь К. не обязательно замкнутое множество и, более того, может не принадлежать борелевской а-алгебре. Иногда термин «компактность» используют для обозначения бикомпактности. Для метрич. пространств оба понятия совпадают. Лит.: [1] Александров П. С, Введение в теорию множеств и общую топоюгию, М., 1977. Е. А. Печерский. КОМПАКТИФИКАЦИЯ ФАЗОВОГО ПРОСТРАНСТВА (state space compactification) - см. Марковский процесс; ком- нактификация фазового пространства. КОМПАКТНАЯ МЕРА (compact measure) - см. Совершенная мера. КОМПАКТНОСТЬ семейства мер (compactness of a family of measures) - компактность мер в слабой топологии. Пусть (Ж, ®) - нормальное а-топологическое пространство и Ж - пространство мер на нем. Семейство &Q ж вероятностных мер компактно, если любая сеть мер (Ре), образованная мерами из 3, имеет подсеть, слабо сходящуюся к нек-рой мере Р е 3*. Семейство & называется относительно компактным, если любая сеть мер (Ре) из 3> имеет подсеть, слабо сходящуюся к нек-рой мере Р из Л\ мера Р называется предельной точкой^. Если рассмотреть пространство @ всех зарядов на борелевской алгебре а-пространства Ж, то любое семейство &Я @ вероятностных мер является относительно компактным в @ в том смысле, что каждая сеть из &> имеет подсеть, слабо сходящуюся к нек-рому заряду из @. При этом предельные точки у & могут оказаться не счетно-аддитивными мерами. Этот факт есть следствие теоремы о *-слабой К. сферы в сопряженном пространстве (см. [1]). Таким образом, вопрос о слабой К. семейства мер J> сводится к изучению счетной аддитивности предельных для 3* точек. Следующее условие гарантирует счетную аддитивность всех предельных точек. Это условие основано на критерии счетной аддитивности положительных зарядов (см. [2]). Для того чтобы все предельные точки семейства мер 3 были счетно-аддитивными, необходимо и достаточно, чтобы для любого счетного покрытия открытыми множествами {Gt} ^ % а-пространства X выполнялось равенство limsuPp{x\l f t G:} = 0. (*) Условие (*) есть требование равномерной счетной аддитивности всех мер из 9>. Сеть вероятностных мер (Ре) называется слабо компактной, если из любой подсети исходной сети можно извлечь сходящуюся. Для К. сети мер (Ре) можно сформулировать критерий, аналогичный приведенному для семейства мер. При этом равенство (*) следует заменить на lim lim sup Ре \Ж \ \J* G-} = 0. Одним из наиболее применяемых условий, обеспечивающих счетную аддитивность предельных точек семейства или сети мер, является условие плотности этого семейства или сети. К. сети вероятностных мер не означает К. семейства мер, из к-рых составлена рассматриваемая сеть. Однако в случае, когда сеть является последовательностью (Р„), К. этой последовательности и К. семейства мер, из к-рых составлена последовательность, эквивалентны. Лит.: [1] Данфорд Н., Шварц Дж., Линейные операторы, пер. с англ., ч. 1, М., 1962; [2] Ерохин В. Д., «Успехи матем. наук», 1961, т. 16, в. 3, с. 175-80; [3] Borovkov А. А., Ресег- ski E. A., «Z. Wahr. und vervv. Geb.», 1973, Bd 28, № 1, S. 5-22; [4] Боровков А. А., «Успехи матем. наук», 1976, т. 31, в. 2, с. 3-68. £•, дш Печерский. |1-КОМПАКТНОСТЬ (^-compactness) - свойство подмножества $С множества Ж случайных величин, заданных на одном вероятностном пространстве, состоящее в том, что из любой последовательности {Хп} <= Ч можно выделить подпоследовательность {Хп>} и найти Х0еЖ такие, что в смысле выбранной вероятностной метрики |i в Ж имеет место (х(Х„/, Х0)->0, и->°°. В силу специфики ряда задач теории вероятностей, где используется понятие (Х-К., принадлежность КОМПАКТНОСТЬ 251
Xq к $С не требуется в отличие от аналогичного понятия компактности в метрических пространствах. Если \i - простая вероятностная метрика, то ц-К. описывает в действительности свойство множества маргинальных распределений &>Х = {РХ-Х еЩ. В случае когда \i реализует слабую топологию в пространстве &= {Рх: X е £}, ц-К. равносильна понятию слабой относительной компактности. В. М. Золотарев. КОМПАКТНЫЙ ЗАКОН ПОВТОРНОГО ЛОГАРИФМА (compact law of the iterated logarithm) - см. Повторного логарифма закон в банаховом пространстве. КОМПЕНСАТОР (compensator), дуальная предсказуемая проекция,- характеристика, играющая в современном стохастическом анализе роль, аналогичную роли среднего значения в теории случайных процессов с независимыми приращениями, и являющаяся, в определенном смысле, его обобщением. Пусть v0 - множество непрерывных справа возрастающих процессов A = (At)t^.Q, А0 = 0, определенных на полном вероятностном пространстве (Q, ,*/, Р) с непрерывным справа потоком а-алгебр ^=(^)^о таким, что «*/0 содержит все множества из Л нулевой вероятности. Процесс А называется локально интегрируемым, если существует последовательность марковских моментов (Тп), Г„?°о, для любого члена к-рой ЕАТ <<». Пусть А\ос 0 - множество всех локально интегрируемых процессов из vQ. Тогда для любого ЛеЛ1ос0 существует и притом единственный предсказуемый процесс A = (At)t^Q, A0 = 0, такой, что Е Г YtdAt = El YtdAt ло, «о г 1 ло, «о с f J[0, oo) t t j{0 „,) для любого предсказуемого неотрицательного процесса У. Процесс А называется компенсаторомЛ. В случае когда А - согласованный процесс, разность А - А является локальным мартингалом. Если А - процесс с независимыми приращениями, а поток А порожден Л, то К. совпадает со средним значением, то есть At = EAt. В теории семимартингалов К. используется в аналогах закона больших чисел, центральной предельной теоремы и т. п. Простейшим результатом, иллюстрирующим связь свойств К. со свойствами исходного процесса, является следующее утверждение: пусть А еЛ|ос 0, Esup (At-At)<°o, t>o тогда Иоо< °°} = {А оо< °°} почти наверное. ( * ) Для случая дискретного времени (к-рый включается в общую схему, если доопределить процессы и поток так, чтобы они были постоянными на интервалах [п, п+ 1)) К. возрастающего процесса A = (An)n^v А0 = 0, может быть задан явной формулой: ^=IL1EU*-A*-ii"/*-i)- Если (Tk) - последовательность измеримых множеств, .<4 = а{Г1, ..., Tk}, то из (*) следует, что РГ5\ /р =<*>}= 1 тогда и только тогда, когда Р{Т P(^|-^-i) = °°}=1 (лемма Б о - реля-Кантелли-Леви, переходящая в классич. лемму Бореля - Кантелли для независимых в совокупности Г^). Для процесса А, представимого в виде разности двух процессов Л и Л из Л1ос 0, К. А полагается равным разности их 252 КОМПЕНСАТОР Для случайной меры |i = |x(co; dt, dx) на (IR+x£, ,&'+x#) компенсатором называется случайная мераv = v(co; dt, dx) такая, что для любой неотрицательной ^х й-измеримой функции Y=Y((u, t, x) (#>- предсказуемая а-алгебра в QxB?+) процесс JJffW1^(5> x)v(ds, dx) предсказуем (то есть V- предсказуемая случайная мера) и является К. возрастающего процесса J j Y(s, x)[i(ds, dx). К. меры скачков семимартингала X входит в состав триплета предсказуемых характеристик X. См. также Возрастающий случайный процесс, Стохастический интеграл по мартингальной мере. Лит.: [\] Деллашсри К., Емкости и случайные процессы, пер. с франц., М., 1975; [2] Кабанов Ю.М.,Липцер Р. Ш., Ширяев А. Н., «Матем. с6>, 1978, т. 107, № 3, с. 364-415; [3] Jacod J., Calcul stochastique et probleme de martingales, B.-[a. o.J, 1979. Ю. M. Кабанов. КОМПЕНСАТОР точечного процесса (compensator of a point process) (Tn) - предсказуемый непрерывный справа возрастающий точечный процесс A = (At)t^.Q, являющийся компенсатором считающего процесса Nt = \ >1 /\т ^t} (в слУчае мультивариантного точечного процесса - предсказуемая случайная мера V, являющаяся компенсатором меры скачкой |i). В мартингальной теории точечных процессов К. играет важную роль. Он представляет собой удобную характеристику, в широком классе случаев однозначно определяющую распределение процесса, а также сходимость распределений. Величина скачка К. точечного процесса AAt=At-At не превосходит единицы. Если поток а-алгебр (At)t^Q, относительно к-рого вычисляется К., порожден самим считающим процессом, то имеется явная формула, выражающая К. через условные распределения Fn(dt) = Fn(dt, Тх, ..., Тп_х) моментов Тп при условии, что фиксированы Тх, ..., Тп_х\ именно, А =У f Fn(ds) 1 **п>\ Wt;+1] Fn([s,oo)j- Считающие процессы с независимыми приращениями и только они обладают К., являющимися детерминированными функциями, совпадающими со средним значением: At = ENt. В терминах К. получены простые выражения для оценок расстояния между распределениями, условия абсолютной непрерывности, слабой и сильной сходимости, формулы для производных Радона - Никодима одного распределения относительно другого и т. п. Если Р и Р - две вероятностные меры в пространстве реализаций считающих процессов, отвечающие К. А и А, то ЫР(Р абсолютно непрерывна относительно Р) тогда и только тогда, когда Р-иочти наверное выполнены следую цие три условия: \)А«А, 2)Zt>oV4,=1,A^<ir0' 3)Лвв<оо, где С = (А+А)/2, X = dA/dC, X = dA/dC. Справедливы следующие оценки для расстояния по вариации между мерами Р и Р: 2(l-VEexp{-uJKvar(P-PK4E^ var(P-P)^2E varJA-A).
Пример предельной теоремы: пусть Л - среднее значение считающего процесса N с независимыми приращениями, Лп - К. считающего процесса Nn и для каждого t e IR+ в смысле слабой сходимости распределений случайных величин. Тогда конечномерные распределения процессов Nn слабо сходятся к конечномерным распределениям процесса N. Подход к исследованию точечных процессов, основанный на использовании понятия К., оказался весьма плодотворным в ряде задач математич. статистики, массового обслуживания, теории надежности, теории оптимального управления и т. д. Лит.: [1] Jacod J., «Z. Wahr. und verw. Geb.», 1975, Bd 31, H.3, S. 235-53; [2] Кабанов Ю.М., Липцер Р.Ш., Ширяев A. H., «Теория вероятн. и ее примен.», 1983, т. 28, в. 2, с. 288-319; [3] их же, «Докл. АН СССР», 1984, т. 278, № 2, с. 265-68; [4] Hrcmaud P., Point processes and quenes martingale dynamics, N.Y.-[a.o.|, 1981; [51 Липцер P. III., Ширяев А.Н., Теория мартингалов, М., 1986. ЮМ. Кабанов. КОМПЛЕКСНАЯ ДЕМОДУЛЯЦИЯ (complex demodulation) - прием, используемый для получения из низкочастотного линейного фильтра новых фильтров, центрированных на произвольной частоте Х0. Передаточные функции <р(>.) и срДА.) с импульсными функциями отклика а(и) и а(и)е ° связаны соотношением ц>1(Х) = ц>(Х+Х0). Если на вход линейного фильтра с импульсной функцией отклика а(и), ^°°_ |я0/)|<°о подается стационарная случайная последовательность X(t), t = 0, ±1, ..., EX(t) = 0, DX(t) = o , то на выходе такого фильтра получается ком- плекснозначная последовательность с модулем RU, X0) = [(ReY(t, XQ))2 + (\mYU, Х0))2]]/2 и фазой л/ * v ( lmYKtt\n)\ e(^«>) = arCt<-ReT(7^)) Функция \R(t, X0)\ представляет собой мгновенную спектральную плотность (мгновенный спектр, мгновенный амплитудный спектр), a Q(t, X0) - мгновенную фазу, к-рые отличаются от спектральной плотности и фазы зависимостью от времени. Лит.: [11 Бриллинджер Д., Временные ряды. Обработка данных и теория, пер. с ан1Л., М , 1980; 12] Гренджер Г., Хатана- ка М., Спектральный анализ временных рядов в экономике, пер. с англ, М., 1972; 13] Крамер Г.. Лидбеттер М., Стационарные случайные процессы. Свойства выборочных функций и их приложения, пер. с англ., М., 1969. И. А. Кожевникова. КОМПЛЕКСНЫЙ ГАУССОВСКИЙ ПРОЦЕСС (complex Gaussian process) - см. Гауссовский процесс. КОМПОЗИЦИЙ МЕТОД (method of compositions/convolutions) - один из методов (наряду с методом характеристических функций) доказательства предельных теорем теории вероятностей. Используется преимущественно для построения оценок скорости сходимости. Пусть Н, Fj, G]t ..., Fn, G„ - меры на вероятностном пространстве (Q, .< Р) и меры Н, Gt, ..., G„ абсолютно непрерывны относительно Р. Оценивание (гг., f.-it.. °.)(л) для нек-рого Ле.</ проводится по индукции. С помощью неравенства сглаживания переходят к оценке разности (m^.-n^G^HU), а затем применяют соотношение (й-,р«-п;.,в«)*н" +1;=,^-е.)*ц:=1о>ое;*н+ При оценке слагаемых используют индуктивное предположение и абсолютную непрерывность мер Н, Gt, ..., G„ относительно Р. Лит.: [l]Bergstrom H., Limit theorems for convolutions, N. Y.- L., 1963; [2] Sazonov V.V., Normal approximation-some recent advances, В., 1981 (Lecture Notes in Math., v. 879). В. В. Ульянов. КОМПОЗИЦИЯ распределений (composition of distributions) - см. Свертка. КОМПОНЕНТНЫЙ АНАЛИЗ (component analysis) - см Дисперсионный анализ. КОНЕЧНАЯ ВАРИАЦИЯ (finite variation) - см. Вариация меры, Векторная мера. КОНЕЧНАЯ МЕРА (finite measure) - см. Мера. а-КОНЕЧНАЯ МЕРА (а-finite measure) - см. Мера. КОНЕЧНАЯ ЦЕПЬ МАРКОВА (finite Markov chain) - 1) в широком смысле - марковский процесс с конечным множеством состояний. 2) К. ц. М. в узком смысле - однородная Маркова цепь с конечным множеством состояний. Свой исток теория К. ц. М. в случае конечного числа состояний берет, как и вся теория зависимых случайных испытаний и величин, с серии основополагающих работ А. А. Маркова (1906, 1907). Изучение цепей с бесконечным множеством состояний было начато в 1936 АН. Колмогоровым. См. также Счетная цепь Маркова. Лит.: [1] Романовский В. И., Дискретные цепи Маркова, М.-Л., 1949; [2] Феллер В., Введение в теорию вероятностей и ее приложения, пер. с англ., т. 1, М., 1984, гл. 16; [3] Кемени Дж., Снелл Дж., Конечные цепи Маркова, пер. с англ., М., 1970. М. Г. Шур. КОНЕЧНО-АДДИТИВНАЯ ФУНКЦИЯ МНОЖЕСТВ (finitely additive set function) - функция, определенная на нек-ром классе множеств и обладающая свойством конечной аддитивности (свойством аддитивности для конечного числа слагаемых). Точнее, пусть К - нек-рый класс множеств, и пусть G - коммутативная группа, взятая в аддитивной записи (то есть внутренний закон композиции в G обозначается символом +). Тогда функция \i: K-+G называется конечно-аддитивной функцией, если для любого конечного дизъюнктного семейства (Х{)^<{^т элементов из класса К таких, что их объединение тоже принадлежит классу К, обязательно выполняется равенство Всякая К.-а. ф. м. одновременно является аддитивной функцией множеств. Обратное утверждение, вообще говоря, неверно, но имеет место при нек-рых ограничениях на класс К (напр., в том случае, если сам класс К является аддитивным). К.-а. ф. м. встречаются в самых различных областях математики. Среди таких функций особую роль играют числовые счетно-аддитивные функции множеств, задаваемые на разных а-алгебрах или а-кольцах множеств. Примером числовой КОНЕЧНО 253
К.-а.ф. м., являющейся счетно-аддитивной, служит функция классич. жорданова объема, определяемого для всех измеримых в смысле Жордана подмножеств я-мерного евклидова пространства. Вопрос о том, при каких условиях данная К.-а.ф. м. одновременно представляет собой и счетно-аддитивную функцию множеств, является одним из основных вопросов теории меры. В теории вероятностей часто рассматривается аналогичный вопрос о том, при каких условиях данное слабое распределение представляет собой распределение (в соответствующем пространстве). Лит.: [1] Халмош П., Теория меры, пер. с англ., М., 1953; [2) Прохоров Ю. В., Розанов Ю. А., Теория вероятностей. Основные понятия. Предельные теоремы. Случайные процессы, 3 изд., М., 1987; [3] Гихман И. И., Скороход А. В., Введение в теорию случайных процессов, 2 изд., М., 1977. А. Б. Харазишвили. КОНЕЧНОЕ ПРЕОБРАЗОВАНИЕ ФУРЬЕ (finite Fourier transform) - преобразование, определяемое соотношением ^) = S^lo1 *(7>exp{-ity}. -oo<^<oo, где x(j), / = 0, ..., N-\,- комплексная последовательность. При этом dx(X) - периодич. функция с периодом 2я. При анализе временных рядов в частотной области такие преобразования представляют собой важные статистики. Вычисление значений dx (X) в S равноотстоящих точках X = 2nn/S, п = 0, ..., 5-1, на интервале 0^\^2к можно производить с помощью эффективных алгоритмов дискретного преобразования Фурье (см. Быстрое преобразование Фурье, Винограда метод) последовательности y(j), j = 0, ..., 5-1, полученной с помощью преобразования *о->=х;;__ *</+«>.>=о 5-1, где полагается x(j) = 0, при j<Q, j^N. При 5> Т эта процедура сводится к вычислению 5-точечного преобразования последовательности x(j), доопределенной нулевыми значениями при j = N, ..., 5-1. Лит.: [1] Бриллинджер Д., Временные ряды. Обработка данных и теория, пер. с англ., М., 1980. Ю. С. Романчук. КОНЕЧНОЕ РАЗБИЕНИЕ (finite partition) - см. Разбиение. КОНЕЧНОЕ СЛУЧАЙНОЕ МНОЖЕСТВО (finite ran dom set) - случайное подмножество конечного множества. Более точно К. с. м. определяется следующим образом. Пусть (Q, с*/, Р) - нек-рое вероятностное пространство, где £1 - пространство элементарных исходов, .«/- а-алгебра событий, Р - вероятностная мера на d\ пусть С - конечное множество, 2 - множество всех его подмножеств. Конечным случайным множеством называется отображение К:£1 ->2 , измеримое относительно .</. Распределение К. с. м. задается набором вероятностей Р{К = D) для всех DQC. Важным частным случаем К. с. м. является К. с. м. с независимыми элементами (см. Люсиан), обладающее свойством: для любого k и любых элементов сх, ..., ckeC события {с.еК}, /= 1, ..., k, с{ФС: при i*j, независимы. Лит.: [1) Орлов А. И., Устойчивость в социально-экономических моделях, М., 1979. А. И. Орлов. КОНЕЧНОЙ МЕРЫ МНОЖЕСТВО (set of finite measure) - см. Мера. О-КОНЕЧНОЙ МЕРЫ ПОДМНОЖЕСТВО (set of a finite measure) - см. Мера. КОНЕЧНОМЕРНОЕ РАСПРЕДЕЛЕНИЕ (finite -dimensional distribution) - см. Вероятностей теория, Совместное распределение. 254 КОНЕЧНОЕ КОНЕЧНЫЙ ВЕРОЯТНОСТНЫЙ АВТОМАТ (finite probabilistic automation) - см. Вероятностный автомат. КОНКОРДАЦИИ КОЭФФИЦИЕНТ (concordance coefficient) - см. Ранговая корреляция. КОНСЕРВАТИВНАЯ МАТРИЦА (concervative/infinitesi- mal matrix) - см. Марковский процесс со счетным множеством состояний. КОНСЕРВАТИВНАЯ ПЕРЕХОДНАЯ ФУНКЦИЯ (Mar kov/conservative transition function) - см. Переходная функция для марковского процесса. КОНСЕРВАТИВНАЯ ПОЛОСА (conservative band) - см Доверительная полоса. КОНСТРУКТИВНАЯ КВАНТОВАЯ ТЕОРИЯ ПОЛЯ (constructive quantum field theory) - область современной математической физики, занимающаяся построением и исследованием различных моделей квантового поля. Современная квантовая теория поля возникла в нач. 50-х гг. 20 в. из работ Р. Фейнмана, Ф. Дайсона, Ю. Швингера и др. (см. [1]) по квантовой электродинамике - теории, описывающей взаимодействие электромагнитного поля с полем электронов. Поскольку величина этого взаимодействия мала, различные его эффекты (амплитуды процессов рассеяния, спектр масс связанных состояний и т.д.) вычислялись в этих работах с помощью теории возмущений. Однако формальные ряды теории возмущений для так наз. операторов рассеяния, введенные впервые Р. Фейнманом (см. [2]), в каждом своем слагаемом содержат «расходимости» (расходящиеся интегралы), и основное достижение упомянутых работ состоит в <физическом» истолковании этих «расходимостей» и построении последовательной процедуры «перенормировки» - устранения «расходимостей» во всех слагаемых ряда теории возмущений. Эти приемы в последующие годы были усовершенствованы и применены к другим полевым моделям (см. [3]). И хотя с помощью развитой здесь виртуозной техники были объяснены и предсказаны многие интересные явления в теории элементарных частиц, вопрос о том, что же такое квантовое поле как математич. объект, и, в частности, какова математич. природа расходимостей, оставался неясным. Попытки ответить на него привели в 60-х гг. к возникновению двух направлений в математич. физике - аксиоматической и конструктивной теориям поля. При аксиоматич. подходе'квантовое поле вводится совершенно абстрактно как квантовая физич. система с нек-рым постулированным набором атрибутов и свойств, и затем из этих постулатов извлекается ряд далеко идущих следствий (см. [4]). В конструктивной же теории поля строятся и изучаются конкретные модели квантовых полей - поначалу упрощенные, как правило двумерные (одномерное пространство плюс время), с тем, чтобы на этом материале приблизиться к пониманию более сложных четырехмерных моделей квантового поля. В начальный период конструктивной теории в ней следовали обычной так наз. гамильтоновой стратегии: построение гамильтониана поля (каксамосопряженного полуограниченного оператора в надлежащем гильбертовом пространстве) и исследование динамики и рассеяния, порождаемых этим гамильтонианом. Потом в нач. 70-х гг. возник другой, очень мощный и плодотворный подход к изучению квантовых полей, называемый обычно марковской стратегией и соединивший в себе ряд отдельно существовавших ранее идей и приемов. Начальный шаг этой программы был сделан в работах [5] и [6]: в них квантовое поле в четырехмерном пространстве Минковского заменялось его «продолжением» в мнимое время - нек-рым вспомогательным объектом, связанным уже с четырехмерным евклидовь м пространством и называемый квантовым евклидовым полем. Позже было замечено (см. [7]), что евклидово поле
напоминает по своим свойствам обобщенное случайное поле в IR4, и затем было показано (см. [8]), что всякое марковское обобщенное случайное поле (обладающее свойствами трансляционной инвариантности и ковариантности) образует евклидово квантовое поле. Было подробно исследовано гауссовское марковское ноле с ковариационным оператором (-А+1)-1 (А - оператор Лапласа), соответствующее свободному (невзаимодействующему) скалярному бозонному квантовому полю, а затем было построено самодействующее евклидово квантовое бозонное поле в II? как марковское обобщенное случайное поле полученное в виде гиббсовской перестройки свободного (гауссовского) поля с помощью взаимодействия [ ф dx (так наз. поле <р2, построенное ранее на основе гамильто- нона подхода). Этот прием - построение «взаимодействующего» случайного поля с помощью гиббсовской перестройки «свободного» поля, образующий основу марковской стратегии,- подсказывается, с одной стороны, формулой Фейнма- на - Каца (см. [3]), то есть описанием квантового поля в терминах функционального интеграла К<ф)ги^(*> [5<ф) - классич. действие поля], к-рое на формально-эври- стич. уровне применялось в теории поля с сер. 50-х гг. С другой стороны, этот метод следует рассматривать как точный и содержательный вывод формулы Фейнмана - Каца. Наконец, само понятие гиббсовской перестройки случайных полей, заимствованное из статистич. физики, позволило ввести в квантовую теорию поля ряд приемов и идей из нее. После этих работ появился большой поток исследований, в к-рых, следуя марковской стратегии, были построены и изучены многие двумерные модели квантовой теории поля (см. [12]). С помощью дополнительных ухищрений удалось затем построить и нек-рые трехмерные модели, но «истинные» четырехмерные модели остаются пока недоступными. Делаются попытки построения случайных полей, соответствующих четырехмерным моделям, с помощью метода ренормализационных преобразований (см. [10]). Лит.. [1] Боголюбов Н. II , Ширков Д, В., Введение в теорию квантованных полей, 4 изд., М., 1984; [2] Новейшее развитие квантовой электродинамики, [пер. с англ.], М., 1954; [3] Ицик- ссн К., Зюбер Ж.-Б., Квантовая теория поля, пер. с англ., т. 1-2, М.. 1984; [4] СЗбщие принципы квантовой теории поля, М., 1987; [5| Schwinger J., «Proc. Nat. Acad. Sci. USA», 1958, v. 44, p. 956-65; [6] Nakano Т., «Progress Theor. Phys.», 1959, v. 21, p. 241-59; [7] Simanzik K., «J. Math. Phys.», 1966, v. 7, p. 510-25; [8] Nelson E., «J. Funct. Analysis», 1973, v. 12, p. 97-112, 211-27; [9] Глимм Дж„ Джаффе А., Спенсер Т., в лн.: Конструктивная теория поля, пер. с англ., М., 1977, с. 169-258; [10] Малышев В. А., в кн.: Итоги науки и техники. Сер. Теория вероятностей. Математическая статистика. Теоретическая кибернетика, т. 24, М., 1986, с. 111-86; [11] Саймон Б., Модель Р(ср)2 эвклидовой квантовой теории поля, пер. с англ., М., 1976; [12] Глимм Дж., Джаффе А., Математические методы квантовой физики, пер. с англ., М., 1984. Р. А. Минлос. КОНТАКТОВ ПРОЦЕСС (contact process) - см. Марковский процесс с взаимодействием. КОНТИГУАЛЬНОСТЬ (contiguity) последовательностей вероятностных мер - свойство асимптотической близости последовательностей вероятностных мер, отражающее эквивалентность асимптотической малости вероятностей, определяемых этими последовательностями мер, последовательностей произвольных событий. Пусть (£, Лп) - последовательность измеримых пространств, {Р„} и {Р'п} - последовательности вероятностных мер на этих пространствах. Эти последовательности называются контигуальными, если для любой последовательности событий {Ап е .«/„} при п-+оо соотношение Рп{Ап} -> 0 выполнено тогда и только тогда, когда Р^{ЛЯ} -> 0. Приведенное свойство асимптотич. близости последовательностей мер {Р„} и {PJj} слабее свойства их близости в L -норме: если | Ря - PJi || -> 0 при п -> °° (| Ря - Р'п | - расстояние по вариации между мерами Р„ и Р„), то последовательности мер {Р„} и {Р„} контигуальны; обратное в общем случае неверно. Из К. последовательностей мер {Р„} и {Р^} не следует также абсолютная непрерывность мер Ря и Р„ (хотя бы для больших п), однако можно построить последовательности взаимно абсолютно непрерывных мер {Q„} и {О^}, для к-рых |ри-ол + цр;-о;||->оприп^~. Существует ряд эквивалентных определений К. последовательностей мер, связанных с поведением отношения правдоподобия этих мер. Пусть рп и р'п - плотности мер Ря и Р'п относительно нек-рой доминирующей их меры (напр., меры Ря и Р'„) и Л„ - статистика логарифма отношения правдоподобия, равная In p'n /рп на множестве, на к-ром эти плотности положительны, и определяемая произвольным (измеримым) образом на дополнении к этому множеству. Тогда К. последовательностей мер {Р„} и {Р„} эквивалентна относительной компактности последовательностей распределений 1„ = 8{Л„|Р„} и 1^ = 8{Л„|Р„} статистики Л„ при распределениях Ря и Р„ соответственно (последнее означает, что из любых подпоследовательностей из {Ln} и {L'n} можно выделить подпоследовательности, слабо сходящиеся к нек-рым вероятностным распределениям L и L'). Другая характеризация К. заключается в относительной компактности только последовательности распределений {Ln}, но при этом для соответствующего предельного распределения L выполнено соотношение |ехр(А.)ША.)=1. Понятие «К.» широко используется в асимптотич. матема- тич. статистике. Напр., в асимптотич. задачах различения статистич. гипотез Нп и Н'п (о распределениях Ря и Р^ наблюдений) нахождение асимптотич. (при и-»<*>) распределения различных статистик при справедливости альтернативной гипотезы Н'п (и, как следствие, нахождение асимптотич. мощности критериев, основанных на этих статистиках) существенно облегчается (в условиях К. последовательности мер {Рп} и {Р„}) с использованием так наз. третьей леммы Ле Кама. Пусть {Тп} - последовательность статистик такая, что последовательность векторов (Г„, Л„) при справедливости гипотез {Нп} имеет асимптотич. нормальное распределение с параметрами ((if, |i2, CTt, а2, <т12), причем \i2= — о2/2 (следствие К.). Тогда при справедливости альтернативных гипотез {Яя} последовательность этих векторов также имеет асимптотич. нормальное распределение, но уже с параметрами (|it +a12, ~Й2» Gj, a2, а12;. Понятие «К.» было введено Л. Ле Камом (см. [1]). Лит.: [1] Le Cam L., «Univ. Calif. Publ. in Statist.», 1960, v. 3, № 2, p. 73-98; [2] его же, Asymptotic methods in statistical decision theory, N. Y., 1986; [3] Pycac Дж., Контигуальность вероятностных мер. Применения к статистике, пер. с англ., М., 1975; [4] Гаек Я., Шидак 3., Теория ранговых критериев, пер. с англ., М., 1971. А. В. Бернштейн. КОНТИГУАЛЬНЫЕ АЛЬТЕРНАТИВЫ (contiguous alter natives) - свойство последовательностей альтернативных гипотез в асимптотической задаче различения гипотез, заключающееся в контигуальности последовательности вероятност- КОНТИГУАЛЬНЫЕ 255
ных мер, соответствующих различаемым гипотезам. Рассмотрение в асимптотич. задаче различения гипотез К. а. позволяет существенно упрощать решение задачи и получать наглядные законченные результаты. Для иллюстрации рассмотрим асимптотич. задачу различения параметрич. статистич. гипотез, в к-рой свойство контигуальности альтернатив выполняется при определенной скорости сближения значений параметров, соответствующих различаемым гипотезам (см. [1], [2]). Пусть Хп = {Xt, Х2, ..., Хп} - повторная выборка из распределения Р^, зависящего от неизвестного ^-мерного параметра £. По выборке проверяется нулевая гипотеза Я0: £ = 0 против альтернативной гипотезы Я^^О. В асимптотич. постановке исходную задачу различения гипотез (Я0, Н\) (при фиксированном объеме выборки п) рассматривают как один из членов последовательности задач различения гипотез {Я0, Я1я}, отвечающих растущим объемам выборки пив к-рой выборка Х( (при справедливости альтернативной гипотезы Я1я) получена из распределения Р* , £„*0. Последовательности мер {Р[|} и {Pt }, являющиеся распределениями выборки X при гипотезах Я0 и Я1 соответственно, будут контигуальными при определенной скорости стремления значения параметра £я к нулю. Обычно в регулярном случае и тогда в качестве К. а. рассматривают последовательность гипотез Я1и:5 = 5я = А,хп""1/2, где ХеА^ IR*\{0}. В условиях К. а. в рассматриваемой задаче достаточно ограничиться рассмотрением последовательности критериев {<р„(Х )}, зависящих от выборки X только через значение асимптотически достаточной статистики У =У„(Х<»>): 1 SL, „</2 плотность меры Р ain/?us)| э£ где р(х, £) - плотность меры М* относительно нек-рой а-ко- нечной меры, доминирующей семейство мер {Р*, £е1Р }. Статистика Уп имеет (при распределении Р^ -i/2 выборки) асимптотич. нормальное распределение с параметрами (IX, I), где 1=Е{(г/(Х1))(г/(Х1)) }- ковариационная матрица Фишера при нулевой гипотезе. Наряду с исходной асимптотич. задачей можно рассмотреть предельную задачу различения гипотез: по одному наблюдению у над случайным вектором Y, имеющим /г-мер- ное нормальное распределение с параметрами (IX, I), проверить гипотезу Я0:А, = 0 против альтернативной гипотезы Н^ЛеАс Иг\{0}. Если ф(#) - оптимальный в нек-ром смысле критерий в предельной задаче, то соответствующими асимптотич. оптимальными свойствами будет обладать последовательность критериев {<р„(Х( )=<р(У„(Х( ))} в исходной асимптотич. задаче (см. [3] — [5]). Более общие результаты (с учетом асимптотич. разложений и в задачах с мешающими параметрами) содержатся в [6]-[8]. Лит.: [1] Le Cam L., «Univ. Calif. Publ. in Statist.», I960, v. 3, № 2, p. 73-98; [2] его же, Asymptotic methods in statistical decision theory, N. Y., 1986; [3] Чибисов Д. М., «Теория вероятн. и ее примени, 1967, т. 12, в. 1, с. 96-111; [4] Рус ас Дж., Контигуаль- ность вероятностных мер. Применения'к статистике, пер. с англ., М., 1975; [5] Боровков А. А., Математическая статистика, М., 1984; [6] Берн штейн А. В., «Изв. вузов. Математика», 1983, Х° 11, с. 3-18; [7] его же, «Теория вероятн. и ее примен.», 1985, т. 30, в. 1, с. 78-91; [8] его же, там же, 1986, т. 31, в. 1, с. 67-80. А. В. Берпштейн. КОНТИНУАЛЬНЫЙ ИНТЕГРАЛ (path integral), функциональный интеграл, интеграл по траекториям, - обобщенный интеграл по пространству траекторий {X(t), 0^£^Г} с квазимерой, заданной семейством согла- 256 КОНТИНУАЛЬНЫЙ сованных конечномерных весовых функций q(xx, ..., хп\ t\, ..., tn), необязательно неотрицательных, в подпространствах X' 1 "' значений Х\ = X(t\), ..., xn = X(tn). Определяется как предел (по фильтру всех упорядоченных наборов {0< *!<...< £я < Г}, яеМ) кратных интегралов $ ... J F[x(-\xiti; ...; xn,tn)]x xq(xv ..., хп; tx, ..., tn)dxx...dxn, где F[] - интегрируемый функционал, x(|j:1f1; ...; хп, tn) - кусочно линейная функция с вершинами (^xt), ..., (tn,xn) (или иное вложение X* 1 в'вХ1 ' '). Когда все q неотрицательны и нормированы, К. и. является обычным интегралом Лебега по вероятностной мере в пространстве траекторий х( ). Таков винеровский интеграл с мерой, задаваемой плотностями q(xx, ...,xn, tx, ..., tn) = Y["^p(xj-xrl; tj-tj^), где tQ = 0, *о = 0» p(y,Q) = (2nQ)~ ' ехр(у /2в) - интеграл по траекториям одномерного броуновского движения (процесса). При формальной замене времени г в показателе экспоненты на мнимое it он превращается в интеграл Фейнмана, широко используемый в квантовой физике. Для подсчета К. и. наряду с аналитич. вычислениями применяют метод Монте-Карло. Лит.: [1] Винер Н., Нелинейные задачи в теории случайных процессов, пер. с англ., М., 1961; [21 Фейнман Р., Хибс Л., Квантовая механика и интегралы по траекториям, пер. с англ., М., 1968; [3] Мигдал А. А., «Ж. эксиерим. и теоретич. физики», 1975, т. 69, с. 810-22; [4] Янович Л. А., Приближенное вычисление континуальных интегралов по гауссовым мерам, Минск, 1976. Н. Н. Чепцов. КОНТРАСТ (contrast)-линейная форма £;;=1 /Д-, ^ /, = 0, компонент параметра в регрессионного эксперимента (см. также Блочный шан). М. Б. Малютов. КОНТРОЛИРУЕМЫЕ ПЕРЕМЕННЫЕ регрессионно го эксперимента (controlled variables/factors in design of a regression experimen4) - аргументы функции регрессии, значения к-рых известны точно (в противоположность конфлю- энтному анализу). М. Б. Малютов. КОНТРОЛЬНАЯ КАРТА (control chart) -- см. Статистический контроль качест-ш. КОНТРОЛЯ ПЛАН (inspection plan) - система правил, определяющих способ oi6opa изделий (объектов) для контроля из контролируемой партии изделий (совокупности объектов) $), признак классификации, правила остановки контроля и принятия решения. Широко используют случайный отбор изделий без возвращения (см. Выборка, Выборочный метод). При контроле но альтернативному признаку изделия классифицируются на годные и дефектные. При контроле по каче( г- венному признаку изделия об^являн-цзя принадлежащими одному из т возможных классов (w>2). Если классификация изделий осуществляется но косвенным признакам, то возможны ошибочные решения. Напр., дефектное изделие может быть ошибочно объявлено годным. При контроле по количественному признаку у контролируемых изделий измеряют параметры, принимающие вещественные значения. Одноступенчатый план контроля совокупности ь$ по альтернативному признаку характеризуется заданием объема п случайной выборки без возвращения и приемочным числом с. Если число d обнаруженных в выборке дефектных изделий не более с, то $) принимается, если же d >c, то $Р бракуется. В зависимости от вида изделий решение о браковке может означать либо сплошную проверку всех изделий из ф, не попавших в выборку, либо снижение сортности, и т. п. В принятых государственных стандартах наряду с одноступенчатыми планами допускается использование двухступенчатых, многоступенчатых и последовательных планов.
Двухступенчатый план характеризуется заданием объемов П\ и п2 первой и второй выборок, приемочных чисел ct и с2, браковочных чисел rv r2(r1>c1 + l, г2 = с2+\). Если число дефектных изделий в первой выборке d^c^ то $) принимается, если dx ^ rt, то ф бракуется. В том случае, когда q < d\ <Гр берется вторая выборка. Если J2 - число дефектны* изделий во второй выборке и d\ + d2^c2, то ф принимается, если d\ + d2^r2, то ф бракуется. Многие показатели К. п. можно рассчитывать на основе его оперативной характеристики. Для контроля непрерывного потока изделий, не объединенных в партии, используют другие типы К. п. Лит.: [1] Беляев Ю. К., Вероятностные методы выборочного контроля, М., 1975. Ю. К. Беляев. КОНФИГУРАЦИЯ (configuration) - см. Комбинаторный анализ, Калибровочная модель статистической механики, Ос нов нос состояние. КОНФЛИКТ (conflict) - см. Множественный доступ. КОНФЛЮЭНТНЫЙ АНАЛИЗ (confluence analysis) - совокупность методов математической статистики, относящихся к анализу априори постулируемых функциональных связей между количественными (случайными или неслучайными) переменными X ,...,Х р в условиях, когда наблюдаются не (s) сам л переменные А , а случайные величины X?~x® + tf>.i=i п, (1) где е|5 - случайная ошибка измерения Xs переменной X в 1-м наблюдении, п - общее число наблюдений. При этом обший вид исследуемых функциональных («структурных») соотношений между ненаблюдаемыми переменными X > Х<г> считается заданным. В задачу К. а. входит построение статистам, оценок для неизвестных значений параметров, участвующих в уравнениях исследуемых «структурных» соотношений, а также статистич. критериев, предназначенных для проверки различных гипотез о природе анализируемых связей. Разработка теоретических и прикладных аспектов К. а. ведется главным образом применительно к линейному (или линеаризуемому с помощью подходящих преобразований исходных переменных) виду исследуемых структурных соотношений. В рамках линейной модели К. а. априорное постулирование т линейных связей между ;;, т<р, переменными может быть сформулировано как допущение о существовании р-т «общих» факторов Y , ..., Y р таких, что Xb) = ks_yo + ... + \SiP-.mY(»-m\s=\ p, (2) причем матрица Л= \\Xsk\\, s = 1, ..., р, к- 1, ..., р-т, имеет ранг р-т. Параметризация модели К. а. в виде (1) - (2) позволяет сформулировать основные задачи в терминах статистич. оценивания неизвестных значений параметров Xsk и статистич. проверки гипотез, с ними связанных. Формально модель (1)-(2) выглядит так же, как модель факторного анализа, однако задачи К. а. и факторного анализа почти не пересекаются: если цель К. а. состоит в описании структурных соотношений, существующих между переменными Х(1\ .... Х(р), то в факторном анализе основной задачей является построение и интерпретация общих факторов Y , ..., у р . В то же время можно говорить о родственном характере задач К. а. и регрессионного анализа: нек-рые частные схемы К. а. укладываются в рамки схемы регрессионного анализа [напр., если по наблюдениям (1) надо выявить единственную зависимость переменной X , измеряемой с ошибкой, от остальных переменных, измеряемых без ошибок]. Лит.: [1] Frisch R., Statistical Confluence Analysis by Means of Complete Regression Systems, Oslo, 1934; [2J Koopmans Т. С, Linear Regression Analysis of Economic Time Series, Haarlem, 1937; [31 Кендал л М. Д ж., Стьюарт А., Статистические выводы и связи, пер. с англ., М., 1973, гл. 29; [41 Маленво Э., Статистические методы эконометрии, в. 1, пер. с франц., М., 1975, гл. 10; [5] Айвазян С. А., Енюков И. С, Мешалкин Л. Д., Прикладная статистика: исследование зависимостей, М., 1985, § 7.5. С. А. Айвазян. КОНЦЕНТРАЦИИ ФУНКЦИЯ (concentration function), функция концентрации Л е в и, случайной величины с функцией распределения F - функция, определяемая равенством QU,F) = sup{F(* + / + 0) -F(x) : * е IR1}. Каждая К. ф. Q(x;F) является нек-рой функцией распределения G(x) на полуоси х^О, удовлетворяющей неравенству G(x + у) ^ G(x) + G(y), x,y ^ 0. Верно и обратное заключение (см. [1]). К. ф. используют при исследовании свойств распределений сумм независимых случайных величин (см. [2]). К. ф. введена П. Леви в [3]. Лит.:[\] Хенгартнер В., Теодореску Р., Функции концентрации, пер. с англ., М., 1980; [2] Esseen C.-G., «Z. Wahr. und verw. Geb.», 1968, Bd 9, № 4, S. 290-308; [31 Levy P., Theorie de l'addition des variables aleatoires, P., 1937. В. М. Золотарев. КОРЕНЬ случайного дерева (root of a random tree) - см. Случайное дерево. КОРВИНА ГРУППА (Korvin group) - см. Характеризаци онные теоремы для вероятностных распределений на абеле- вых группах. КОРНЕ-КОМПАКТНАЯ ГРУППА (root compact group) - локально компактная группа G, обладающая следующим свойством: для любого натурального п и любого компактного C^G существует компактное Cn<^G такое, что все конечные последовательности {xv ..., хп) в G, для к-рых хп = е и Cxfix C\Cxi+J*0 для всех i+j^n, содержатся в СП. Группа G называется сильно корне-компактной, если для любого компактного С с G существует компактное С0 с G такое, что для любого натурального п все конечные последовательности {х\, ..., хп} в G, для к-рых хп = е и Сх±Сх П С* ,+.,-* 0 для всех i+j^n, содержатся в С0. Всякая сильно корне-ком- пактная группа является и корне-компактной, но обратное не верно. Ю. С. Хохлов. КОРНИША-ФИШЕРА РАЗЛОЖЕНИЕ (Cornish - Fisher expansion) - асимптотическое разложение разности между квантилью и нормальной квантилью по степеням малого параметра; изучено Э. Корнишем и Р. Фишером [1]. Если F(x,t) - функция распределения, зависящая от параметра t, Ф(х) - функция нормального распределения с параметрами (0, 1), причем F(x, t) ->Ф(х) при £->0, то при определенных условиях на F(x, О разложение Корни ш а - Фишера функции * = F_1[OU), t] (F-1 - функция, обратная к F) имеет вид x = * + IZ* S^t' + OW"), (l) где Sj(z) - нек-рые многочлены от г. Аналогично определяется К.- Ф. р. функции z = <&~][F(x, О] (Ф-1 - функция, обратная к Ф) по степеням х: г = х + 2£* 0{Ш + О(П, (2) где Qi(x) - нек-рые многочлены от х. Формула (2) получается при разложении функции Ф~ в ряд Тейлора в точке Ф(х) и использовании Эджуорта - Крамера разложения. Разложение (1) является обращением формулы (2). Если X - случайная величина с функцией распределения F(x, t), то величина Z-ZOO-Ф' [F(X, t)\ имеет нормальное распределение с параметрами (0, 1) и, как следует из (2), функция распределения величины КОРНИША 257
лучше аппроксимируется при £->0 функций Ф(х), чем функция F(x, t). Если X имеет нулевое математич. ожидание и единичную дисперсию, то первые члены разложения (1) имеют следующий вид x = z + [yxhx(z)] + [y2h2(z) + у?Л3(*)]+ .... где У1=хз/Х2 » Y2 = x4/X2» хг есть г"и семиинвариант X, hx(z)=± H2(z), Л2(г)=-^- Я3(*), Л3(*) = ~^[2Щ(г)+Hx{z)\, Hr(z) - многочлены Эрмита, определяемые соотношением ф)Нг(г) = (-\У^, Ф(г)=ФЧг). dz О разложениях для величин с предельными законами из семейства распределений Пирсона см. [3]. Лит.: [1] Cornish E. A., Fisher R. A., «Rev. Inst, internat. statist.», 1937, v. 5, p. 307-20; [2] Кендалл М. Дж., Стьюарт А., Теория распределений, пер. с англ., М., 1966; [3] Большее Л. Н., «Теория вероятн. и ее примен.», 1963, т. 8, в. 2, с. 129-55. В. И. Пагурова. КОРОЛЮКА ТЕОРЕМА (Korolyuk theorem) - см. Интенсивность. КОРРЕКТИРОВКИ ПРАВИЛА (adjustment rules) - см. Статистический приемочный контроль. КОРРЕЛОГРАММА (correlogram) - термин, используемый для обозначения последовательностей значений нормированной корреляционной функции (автокорреляции) дискретного стационарного процесса {Х(0}, t= ± 1, ..., и ее статистической оценки (выборочной корреляционной функции). В первом случае говорят о теоретической корре- лограмме, к-рая представляет собой последовательность значений коэффициентов автокорреляции р^: E(Xt-EXt)(Xt+k-EXt+k) р*= ш; • k = l2-- Во втором случае говорят о выборочной коррело- грамме, представляющей собой последовательность значений выборочных (сериальных) коэффициентов rk, вычисленных по отрезку Xt, ..., Хп длины п процесса {Xt}, где ~^k K=i+* Xt X"=i Xt }■ /"<*> = ХП- p*eftt- р* = -р-*- р* = i J0Va)*-'"^. Теоретич. К. имеет тесную связь со спектральной функцией F(X) и спектральной плотностью f(X) процесса {Xt}, а именно: Fa) = X + 2Y~ t -p, sinX/г, «.-К**'*. P*="P-*. P*=^J0 Эта связь объясняет полезность К. при изучении внутренней структуры процесса {Xt}. Часто термин «К.» применяют и по отношению к графикам теоретической и выборочной К. Лит.: [1] Гренджер К., Хатанака М., Спектральный анализ временных рядов в экономике, пер. с англ., М., 1972; [2] Кендалл М. Дж., Стьюарт А., Многомерный статистический анализ и временные ряды, пер. с англ., М., 1976; [3] Холево А. С, Корре- лограмма, в кн.: Математическая энциклопедия, т. 3, М., 1982. М. С. Никулин. КОРРЕЛОМЕТР (correlator/correlograph), коррелятор,- прибор, позволяющий автоматически определять оценку корреляционной функции стационарного случайного процесса Х(0 [или взаимной корреляционной функции двух таких процессов Xj(0 и Х2(0] по одной реализации этого процесса (или процессов), задаваемой в виде флуктуирующего электри- 258 КОРНИША ческого сигнала (или сигналов). См. Корреляционная функция; оценивание. А. М. Яглом. КОРРЕЛЯТОР (correlator) - см. Коррелометр. КОРРЕЛЯЦИИ КОЭФФИЦИЕНТ (correlation coefficient) - числовая характеристика совместного распределения днух случайных величин, выражающая их взаимосвязь. К. к. р = р(Х1,Х2) для случайных величин Хх и Х2 с математическими ожиданиями й1 = ЕХ1 и й2 = ЕХ2 и ненулевыми дисперсиями erf = DXj и а2 = DX2 определяется равенством Е{Хх-ах){Х2-а2) р(ХрХ2) = - °1°2 К. к. для Хх и Х2 совпадает с ковариацией для нормированных величин (Хх -ах)/ох и (Х2-й2)/а2. К. к. симметричен относительно Х| и Х2 и инвариантен относительно изменения начала отсчета и масштаба. При этом - 1 ^р^ 1. Значение К. к. как одной из возможных мер взаимосвязи определяется следующими его свойствами: 1) если величины Хх и Х2 независимы, то p(Xj, X2) = 0 (обратное утверждение в общем случае неверно), о величинах, для к-рых р = 0, говорят, что они некорре- лированы; 2) |р|=1 тогда и только тогда, когда величины связаны линейной функциональной зависимостью: Х2 = р —- (Хх-ах)+а2. Трудность интерпретации р как меры взаимозависимости заключается в том, что равенство р = 0 может иметь место как для независимых, так и для зависимых случайных величин, в общем случае для независимости необходимо и достаточно равенство нулю их максимального коэффициента корреляции. Таким образом, К. к. не исчерпывает все виды связи между случайными величинами и является лишь мерой линейной зависимости. При этом степень линейной зависимости характеризуется следующим образом: величина Х2 = р— (Хх-ах) + а2 дает линейное представление Х2 по Хх, наилучшее в том смысле, что E(X2-X2)2 = min E(X2-c1X1-c2)2 cvc2 (см. также Регрессия). Характеристиками корреляции между несколькими случайными величинами служат частный коэффициент корреляции и множественный коэффициент корреляции. А. В. Прохоров. КОРРЕЛЯЦИИ РАДИУС (correlation distance) - числовая характеристика скорости убывания с ростом расстояния г= \г\ пространственной корреляционной функции Ж г) = fi(r) = Е[Х(р + г) - ЕХ(р + г)][Х(р) - ЕХ(р)1 пространственно однородного случайного поля Х(г). К. р. определяется либо как наименьшее расстояние г0, при к-ром B(r0) =B(0)/k, где k - заранее выбранное число (напр., k-e или k= 10), либо как расстояние г1 = (1/Ж0)) \~ВШг (в этом случае гх называют также интегральным масштабом корреляции). Для часто используемой корреляционной функции B(r) = Cexp {-r/rQ} оба определения (при k = e) совпадают. На практике К. р. является удобной характеристикой всего хода функции В (г) только для неотрицательных функций В(г). Для анизотропных случайных полей корреляционная функция В(г) зависит от направления вектор* г,
поэтому К. р. также зависит от направления, и эта его зависимость может служить характеристикой анизотропии. Лит.: [1] Ганди н Л. С, Каган Р. Л., Статистические методы интерпретации метеорологических данных, Л., 1976. М. И. Фортус. КОРРЕЛЯЦИИ ФУНКЦИЯ (correlation function) - см. Корреляционная функция. КОРРЕЛЯЦИЙ МАТРИЦА (correlation matrix) - см. Корреляционная матрица. КОРРЕЛЯЦИОННАЯ ЗАВИСИМОСТЬ (correlation de pendence) - связь между случайными величинами, не имеющая, вообще говоря, строго функционального характера, но являющаяся наилучшим приближением (чаще всего средне- квадратическим) случайной величины У величиной вида /X.Yj, ..., Хп), где /"принадлежит заданному функциональному классу. См. Корреляция, Криволинейная корреляция, Линейная корреляция. Т. В. Ляшенко. КОРРЕЛЯЦИОННАЯ МАТРИЦА (correlation matrix), матрица корреляций, ковариационная матрица, матрица ковариаций, - матрица, образованная из попарных ковариаций компонент случайного вектора Х = «, Щ, то есть Я=||^|*=1, где ^ = Е[Х,- - EXJ[X.- ЕХЛ, i,j-\, ..., k. Для того чтобы К. м. была определена, необходимо, чтобы каждая случайная величина X, имела конечный второй момент ЕХг. На главной диагонали К. м. находятся дисперсии DX; случайных величин Xj. Для того чтобы матрица В порядка k x k была К. м. нек-рого случайного вектора Х=(Х1, ..., Х^), необходимо и достаточно, чтобы эта матрица была симметричной и неотрицательно определенной, то есть Ь^ = Ь}-, i,j=\, ..., k, и £. ._. ^ijziz} ^ О для любых 2t, ..., 2леВ?, или, что эквивалентно, существовала бы матрица А (порядка /гхг, 1 ^r^k) такая, что В=АА*. Если К. м. положительно определена, то гауссовский случайный вектор X имеет невырожденное распределение, в противном случае - вырожденное. Иногда термины «корреляционная матрица» и «ковариационная матрица» различают. При этом ковариационная матрица/? определяется так же, как и ранее, а корреляционной матрицей называют матрицу коэффициентов корреляции нескольких случайных величин (Xj, ..., Xk) с ненулевыми дисперсиями DXj, ..., DXk, то есть считается, что *=М*;-1.где _ Е[Х,-ЕХ,][Х;-ЕХ;] 9ij VDX; VDX; Матрица R на диагонали имеет элементы, равные 1. Свойства матрицы R определяются свойствами матрицы В в силу соотношения В = DRD, где D - диагональная матрица с диагональными элементами vDXj, ..., VDXfe. Если Х(0 = [Xj(0, ..., XfXt)], teT, - векторная случайная функция такая, что Е |Xti t)\ < °° для каждого t e T, i = 1, ..., k, то матрица Bit, s) = \\В^, s)||£;-=1, где Вци, s) = Е[Х;(0 - EX,(01[X/s) - EXj(s)], также называют К. м. случайной функции Xit). К. м. обладает свойствами: \)Bit,t) является неотрицательно определенной матрицей; 2) \В^Ц,8)\^Вна, t)Bjj(s,s), i,j=\, ...,k; 3) для любых п, t\, ..., tneT и любых комплексных векторов ах, ..., ап См. также Корреляционная функция. Лит.: [1] Шеффе Г., Дисперсионный анализ, пер. с англ., М., 1980; [2] ГихманИ. И., Скороход А. В., Введение в теорию случайных процессов, 2 изд., М., 1977. Н. Н. Леоненко. КОРРЕЛЯЦИОННАЯ МЕРА (correlation measure) - см. Корреляционная функция. КОРРЕЛЯЦИОННАЯ ТАБЛИЦА (correlation table) - см. Корреляция. КОРРЕЛЯЦИОННАЯ ТЕОРИЯ (correlation theory), теория второго порядка, случайных фу нкций - часть общей теории (вообще говоря, комплексных), случайных функций Xit), teT, изучающая те их свойства (иногда называемые свойствами в широком смысле), к-рые определяются одними лишь моментами первых двух порядков EXit) = mit) и ЕХ(ОХ(5) = Bit, s) функции Xit). Центральную роль в К. т. играет рассмотрение гильбертова пространства Нх - замкнутой (относительно оболочки всевозможных линейных комбинаций ^._ ctjX(tj) (где щ, ..., а„ - комплексные числа, ^, ..., tn - точки Т) со скалярным произведением (У, Z) = EYZ (или (У, Z) = E[Y-EY][Z-EZ]). При этом случайная функция X (О обращается в совокупность точек (в кривую - при действительном непрерывно меняющемся t, поверхность или гиперповерхность - при t, пробегающем область в II? , где k > 1, и т. д.) пространства Нх и К. т. сводится [за вычетом свойств, существенно зависящих от mit)] к исследованию геометрич. свойств этой совокупности точек. В частности, относящиеся к К. т. свойства непрерывности в среднем квадратичном и дифференцируемости в среднем квадратичном функции Xit) оказываются эквивалентными соответственно сильной непрерывности и сильной дифференцируемости множества точек Xit), teT (напр., кривой или поверхности), в Нх. Центральное место в К. т. занимает изучение различных спектральных разложений случайных функций Х(0, как правило, определяемых только видом соответствующей корреляционной функции Bit, s) (см., напр., Карунена теорема об ортогональном представлении случайных функций, Крамера теорема о представлении случайных функций). А. М. Яглом. КОРРЕЛЯЦИОННАЯ ФУНКЦИЯ (correlation function), автокорреляционная функция, функция корреляции, ковариационная функция, автокова- риация, автоковариационная функция, комп- лекснозначного случайного процесса или случайной функции {Xit), teT} - функция Bit, s) аргументов t, seT, определяемая равенством Bit, s) = E[Xit) - EX(0][X(s)-EX(s)]. Для того чтобы К. ф. была определена, необходимо, чтобы функция Х(0 имела при всех teT конечный второй момент Е|Х(0| . Если положить t = s, то Bit, t) - дисперсия случайной функции Xii). В случае действительных случайных функций К. ф. естественно задается как Bit, s) = E[Xit) - EXit)][Xis) - EXis)] и является центральной (или центрированной) моментов функцией 2-го порядка. Класс всевозможных К. ф. совпадает с классом всевозможных неотрицательно определенных ядер на множестве Т, на к-ром задана функция X it). К. ф. обладает следующими свойствами: 1) Bit, 0^0; 2) Bit, s) = B(s, t); 3) |fi(*f s)|2^fi(*f t)Bis, s); 4) \B(ti, t3)-Bit2, t3)\2^Bit3, t3)[Bitv tx) + Bit2, t2)- -2ReBitx, t2)]. КОРРЕЛЯЦИОННАЯ 259
Термин «К. ф.» наиболее часто прилагается к стационарным случайным процессам в широком смысле, для к-рых К. ф. B(t, s) = B(t - s), t, s g II? , являющаяся функцией одного переменного, называется стационарной корреляционной функцией, а также к однородным случайным полям в широком смысле, для к-рых К. ф. B(t, s) = B(t -s), t, se IP", зависящая лишь от t-seW1, называется однородной корреляционной функцией, или к случайным полям однородным и изотропным, для к-рых К. ф. B(t,s) = = B(\t-s\), t, selR", зависит лишь от евклидова расстояния \t-sI и называется однородной изотропной корреляционной функцией. Если X(t) = [X^(t), ..., Xr(t)], t eT, - многомерная случайная функция такая, что Е|Х;(0| <со для каждого teT, i= l, ..., г, то его К. ф. называется матричнозначная функция B(t,s)=\\Bif(t,s)\\ri<H, где Bif(t, s) = Е[Х,(0 - EXiWttXjis) - EXft)] -взаимная корреляционная функция случайных функций Xft) и XXs). Иногда B(t,s) называется корреляционной матрицей случайной функции X^t). Часто под К. ф. случайной функции {Х(0, teT} понимают второй смешанный момент EX(t)X(s) случайных величин Х(0 и X(s), связанный с К. ф. B(t,s), к-рая называется еще центрированной корреляционной функцией, соотношением Bit, s) = ЕХ(0Х(5)-ЕХ(0ЕХ(5). Иногда термин «К. ф.» в применении к действительным случайным функциям X(t), teT, таким, что Е[Х(0- - ЕХ(0] >0 при каждом teT, понимается более узко - как корреляции коэффициент случайных величин Х(0 и X(s), то есть считается, что К. ф. задается равенством вц су = E[X(t)-EX(t)][X(s)-EX(s)) ' ^ {E[X(0-EX(0]2E[X(5)-EX(5)]2}V2 [такая функция называется еще нормированной корреляционной функцией случайной функции X(t)]. К. ф. определяет так наз. свойства 2-го порядка случайных функций (см. Корреляционная теория случайных функций). Для нек-рых классов случайных функций разработаны методы статистич. оценивания К. ф. (см. Статистический анализ случайных полей). Лит.: [1] ГихманИ. И., Скороход А. В., Теория случайных процессов, т. 1, М., 1971. ц.Н. Леоненко. КОРРЕЛЯЦИОННАЯ ФУНКЦИЯ в статистической механике (correlation function in statistical mechanics) - производная Радона - Никодима корреляционной меры, к-рая определяется следующим образом. Пусть Р - конфигурационное состояние непрерывной модели статистич. механики в II? (то есть вероятностная мера на пространстве Q локально конечных подмножеств II? или, в «традиционной» вероятностной терминологии, точечное случайное поле в Иг). Корреляционной мерой и-го порядка, или и-й («-частичной и т.п.) корреляционной мерой состояния Р, п^\, называется неотрицательная мера Кр' на множестве (^ ={,<"> = (,, qje&iqt «...«</„} (символ ^ означает лексикографич. порядок на II? ), определяемая равенством 260 КОРРЕЛЯЦИОННАЯ [при п = 0 полагают К (0) = 1)], а производная Радона - Никодима (если она существует) этой меры по лебеговой мере на №d)n: и будет корреляционной функцией и-го порядка. При п = 0 принято считать, что рр =1. Иногда удобно рассматривать Рр как симметричную функцию на (II? )", то есть Рр (Я ) задает своеобразную «инфинитезимальную» вероятность того, что в точках qx, ..., <7„е1к находятся частицы. В теории точечных случайных процессов и полей (см. [2]) фун- кцию Рр называют интенсивностью процесса или поля. Будучи удобными характеристиками состояния, К. ф. играют важную роль в ряде вопросов статистич. механики (см. Боголюбова цепочка уравнений). В этой связи интерес представляет задача об однозначном восстановлении состояния Р по последовательности {рр , п ^ 0} или {Кр, п ^ 0}. Достаточные условия, предложенные в [1], [3], навеяны решением обшей проблемы моментов и состоят в том, что значения Крп (I П(В?)^) при любом ограниченном борелевском множестве /с И?* не растут «слишком быстро». Аналогичные понятия вводятся при рассмотрении состояний непрерывной системы частиц в II? (то есть вероятностных мер на фазовом пространстве М или маркированных точечных случайных полей в II? с марками из II? ). Здесь в качестве п-\\ К. ф. выступает неотрицательная симметрич. функция ррп\х(п)), x(n) = ((q„p,), ..., (qn,pn))e№dxMd)n. Именно эта функция фигурирует в цепочке уравнений Боголюбова. Лит.: [1] Lenard A., «Comm. Math. Phys.», 1973, v. 30, Jsf> 1, p. 35-44; [2]КерстанЙ., МаттесК., Мекке Й., Безгранично делимые точечные процессы, пер. с англ., М., 1982; [3] Zessin П., «Z. Wahr. und verw. Geb.», 1983, Bd 62, № 3, S. 395-409. Ю. М. Сухов. КОРРЕЛЯЦИОННАЯ ФУНКЦИЯ взаимная (crosscor- relation function) - см. Взаимная корреляционная функции. КОРРЕЛЯЦИОННАЯ ФУНКЦИЯ выборочная (sample correlation function) - см. Выборочная корреляционная функция. КОРРЕЛЯЦИОННАЯ ФУНКЦИЯ гармонизируемая (harmonizable correlation function) - см. Гармонизуемоапи условия. КОРРЕЛЯЦИОННАЯ ФУНКЦИЯ знаковая (sign corre lation function) - см. Полярная корреляционная функция. КОРРЕЛЯЦИОННАЯ ФУНКЦИЯ обобщенная (gene ralized correlation function) - см. Обобщенный стационарный процесс. КОРРЕЛЯЦИОННАЯ ФУНКЦИЯ о с р е д н е н н а я (aver aged correlation function) - см. Осредненная корреляционная функция. КОРРЕЛЯЦИОННАЯ ФУНКЦИЯ; оценивание (estimation of correlation function) - приближенное определение значений корреляционной функции Жт) = Е[Ха + т)Х(0] или b(x) = E[X(t + x)-EX(t + x)][X(t)-EX(t)] действительного стационарного случайного процесса X(t) с дискретным или непрерывным временем t по наблюденным значениям отрезка одной его реализации x(t) [или нескольк \х
независимых таких реализаций x^t), i=\, ..., п] при t=\, 2, ..., Т или O^t^T. Простейшей оценкой К. ф., определяемой по одной реализации процесса X(t), является выборочная корреляционная функция В^М или Ь^(х), в случае дискретного t задаваемая равенствами BfW = 7Zr-i'tlx(t + lxl)x(t) или же Ь'т(t) = ^ J^'l'' № +1 х |) - хЫО - х\ *=-f2,r-.*(t)- где |т|=0, 1, ..., Т-\ [при |т|^Г удобно считать, что Bj{x) = Ь*т(т) = 0], аналогично же задаваемая (с заменой сумм интегралами) в случае непрерывного t. При наличии отрезков нескольких реализаций xx(t), ..., xn(t) оценку функции В(х) или Ь(х), определенную по одной реализации, можно улучшить, осреднив оценки, построенные по отдельным реализациям. Выборочная К. ф. обычно оказывается состоятельной (даже сильно состоятельной, то есть сходящейся при Г-><» к оцениваемой функции с вероятностью 1) оценкой К. ф.; при широких условиях эта оценка будет также асимптотически нормальной (см., напр., [1]-[10]), но она всегда является смещенной. В случае оценивания функции В(х) [или функции Ь(х) при известном среднем значении ЕХ(0 = х] легко построить также несмещенную оценку значений В (т) или Ь(х), заменив в определении выборочной К. ф. множитель \/Т на 1/(Г-|т|); однако такая замена на самом деле ухудшает свойств л получаемой оценки, и поэтому обычно она не применяется (см., напр., [8], [11]). Оценки Bj{x) и Ь*т(х) оказываются малонадежными при относительно больших значениях |т| (превышающих 10-5-20% от Г); поэтому при оценках К. ф. часто полезно дополнительно умножить значения выборочной К. ф. на так наз. корреляционное окно ат(х), представляющее собой зависящую от Т четную монотонно убывающую функцию аргумента т (см. [8]). Умножение Ь*т(х) на ат(х) необходимо, в частности, при использовании оценивания К. ф. в качестве первого шага при оценивании спектральной плотности процесса (см. Блэкмана - Тьюки метод). Если x(t) - это реализация случайного процесса Х(0 с непрерывным временем t, заданная в виде флуктуирующего электрич. сигнала, то оценивание К. ф. часто осуществляется при помощи специальных автоматич. вычислительных устройств, называемых коррелометрами или корреляторами (см., напр., [11]-[19]). Широкое внедрение в практику современной вычислительной техники сделало, однако, и в таких случаях часто более удобным применение цифровых методов оценивания К. ф. Нек-рые несложные упрощения методов расчета эмпирич. корреляционных функций были предложены в [20], [21]; более кардинальные и эффективные модификации используемых при этом алгоритмов, опирающиеся на широкое использование «бинарной арифметики», см. в [22]-[25]. Развитие эффективных вычислительных алгоритмов быстрого преобразования Фурье привело к тому, чтс во многих случаях стало удобным вычислять эмпирич. К. ф. как преобразование Фурье предварительно подсчитанной периодограммы рассматриваемого процесса. Распространение современной вычислительной техники уменьшило также значение ранее широко использовавшихся упрощенных методов оценивания К. ф., опирающихся на привлечение предварительной оценки релейной корреляционной функции или же полярной корреляционной функции. Под оцениванием К. ф. часто понимается также приближенное определение значений взаимной К. ф. двух стационарных и стационарно связанных случайных процессов Xj(0 и X2(t) по одновременно наблюденным значениям отрезков реализаций обоих этих процессов (см., напр., [3]-[7], [ 12]—[ 19]). Еще одной задачей, тесно примыкающей к задачам оценивания К. ф. и рассматриваемой в [1]-[8], является задача оценивания нормированной К. ф. л(т) _ E[X(t+x)-EX(t+x))E[X(t)-EX(t)) E[X(t)-EX(t)}2 в этом случае роль эмпирич. К. ф. играет коррелограмма процесса X(t) (в формуле, определяющей коррелограмму, снова часто удобно заменить в числителе множитель 1/(Г-х) на \/Т). Коррелограмма при широких условиях является состоятельной и асимптотически нормальной оценкой функции R(x). Условия асимптотич. нормальности в этом случае оказываются даже более широкими, чем те, к-рые гарантируют асимптотич. нормальность оценки bj{t) (см., напр., [3], [26]). Лит.: [1] ДубДж.Л., Вероятностные процессы, пер. с англ., М., 1956; [2) Барт л етт М. С, Введение в теорию случайных процессов, пер. с англ., М., 1958; [3] Андерсон Т., Статистический анализ временных рядов, пер. с англ., М., 1976; [4] БендатДж., Пир- сол А., Прикладной анализ случайных данных, пер. с англ., М., 1989; [5] Хеннан Э., Анализ временных рядов, пер. с англ., М., 1964; [6] его же, Многомерные временные ряды, пер. с англ., М., 1974; [7] КендаллМ., СтьюартА., Многомерный статистический анализ и временные ряды, пер. с англ., М., 1976; [8] Яглом A.M., Корреляционная теория стационарных случайных функций, Л., 1981; [9] HannanE.J., «Ann. Statist.», 1974, v. 2, № 4, p. 803-06; [10) его же, там же, 1976, v. 4, № 2, p. 396-99; [11] SchaerfM. С, Estimation of the covariance and autoregressive structure of a stationary time series, Tech. Rep. 12, Stanford, 1964; [12) Корн А., Моделирование случайных процессов на аналоговых и аналого-цифровых машинах, пер. с англ., М., 1968; [13] Балл Г. А., Аппаратурный корреляционный анализ случайных процессов, М., 1968; [14] Грибанов Ю.И., Весел ова Г. П., АндреевВ.Н., Автоматические цифровые корреляторы, М., 1971; [15] Куроч- кинС. С, Многоканальные счетные системы и коррелометры, М., 1972; [16] МирскийГ. Я., Аппаратурное определение характеристик случайных процессов, 2 изд., М., 1972; [17] Жовин- скийВ.Н., Арховский В. Ф., Корреляционные устройства, М., 1974; [18] Макс Ж., Методы и техника обработки сигналов при физических измерениях, пер. с франц., т. 1-2, М., 1983; [19] Jordan J.R., «Proc. IEEE», PtG, 1986, v. 133, № 1, p. 58-74; [20] Kendall W. В., «IEEE Trans. Compts», 1974, v. 23, № 1, p. 88-90; [21] Blankinsh ip W. A., «IEEE Trans. Acoust., Speech, Sign. Proc», 1974, v. 22, № i, p. 76-77; [22] Ahmed N., Natarajan Т., «IEEE Trans. Electromag. Compat.», 1974, v. 16, № 3, p. 177-83; [23] Lop rest i P. V., SuriH.L., «IEEE Trans. Acoust., Speech, Sign. Proc», 1974, v. 22, № 6, p. 449-53; [24] Larsen H , «IEEE Trans. Acoust., Speech, Sign. Proc», 1976, v. 24, № 5, p. 432-34; [25] АнишинН.С, Тивков A.M., «Автометрия», 1978, № 3, с. 37-40; [26] HannanE.J., HeydeC.C, «Ann. Math. Statist», 1972, v. 43, № 6, p. 2058-66. A. M. Яглом. КОРРЕЛЯЦИОННАЯ ФУНКЦИЯ полярная (polar cor relation function) - см. Полярная корреляционная функция. КОРРЕЛЯЦИОННАЯ ФУНКЦИЯ релейная (relay cor relation function) - см. Релейная корреляционная функция. КОРРЕЛЯЦИОННАЯ ФУНКЦИЯ частная (partial cor relation function) - см. Частная корреляционная функция. КОРРЕЛЯЦИОННОЕ ОКНО (lag window), окно запаздывания, - зависящая от Т четная функция ат(х) целочисленного или произвольного действительного аргумента т, определенная при |т|^Г и используемая для постррения оценок корреляционной функции В (т) = EX(t + x)X(t) и спектральной плотности f(X) стационарной случайной последовательности или процесса X(t) по известным из наблюдений значениям одной реализации x(t) случайной функции X(t) при t=\, 2, ..., Т КОРРЕЛЯЦИОННОЕ 261
или, соответственно, O^t^T. Простейшая оценка В(х) - выборочная корреляционная функция Bf<t> = 7XT="iN*(t+lxl):e(t) или же В9ТМ = J- f~]xx(t + \%\Mt)dt при малых по сравнению с Т значениях |т| обладает неплохими статистич. свойствами, но при недостаточно малом \х\/Т среднеквадратичная ошибка этой оценки обычно значительно превосходит истинное значение В(х), так что использование Bj{x) в качестве оценки В(х) здесь теряет смысл. Поэтому в тех случаях, когда нужна оценка значений функции В(х) на широком интервале значений т, выборочную корреляционную функцию Вт(т) целесообразно умножить на дополнительную функцию ат(х) такую, что |дг(х)|^1 при всех т, ат(0) = \, ат(х) мало отличается от единицы при |т|/Т« 1, но |йг(т)| много меньше единицы при всех не слишком малых значениях \х\/Т (напр., при |т|/Т^0,1). Эта функция ат(х) и называется корреляционным окном (или окном запаздывания), а функция Bj.(т) = ат(х)Вт(х) - оценкой корреляционной функции В(х), отвечающей К. о. ат(х). К. о. удобно выбирать так, чтобы функция ат(х) [доопределенная условием ат(х) = О при |т|>Г] была положительно определенной функцией аргумента т; в таком случае и функция Bj\x) будет положительно определенной [истинная корреляционная функция В(х) всегда является положительно определенной]. В течение 50-60-х гг. 20 в. обычно считалось, что практически полезными могут быть только К. о. ат(х), тождественно обращающиеся в нуль при |т| > kT, где kT составляет лишь небольшую долю от Т (напр., kT=0,\T). Оценка Bj\x) обычно использовалась в первую очередь для построения оценки спектральной плотности f(X), в качестве к-рой принималось преобразование Фурье функции Bj (т) (см. Блэкмана - Тьюки метод). В таком случае обращение функции Bj{x) в тождественный нуль за пределами нек-рой относительно небольшой «точки обрезания» |т|=/гг существенно упрощало и убыстряло расчет соответствующего преобразования Фурье. Однако последнее обстоятельство потеряло свое значение после того, как широкое распространение получили алгоритмы быстрого преобразования Фурье, повлекшие за собой кардинальное изменение практич. методов оценивания спектральных плотностей. К. о. были введены в рассмотрение Дж. Тьюки под названием «окон запаздывания» (см., напр., [1]). На практике в качестве К. о. очень часто выбираются функции вида аТ(х) = a(x/kT), где e(0)=l, \a(s)\ ^1 при всех 5, kT может варьировать в ходе расчетов; в таком случае К. о. ат(х) называется корреляционным окном масштабного типа, а функция a(s) - генератором корреляционного окна ат(х). Примерами широко использующихся К. о. масштабного типа являются корреляционное окно Бартлетта, отвечающее «треугольному генератору» tf(s) = max{l - |s|, 0}; корреляционное окно Парзена, для к-рого a(s)=1-6s2 + 6|s|3 при 0^Ы^1/2, a(s) = 2(\-\s\)3 при 1/2 ^ Ы ^ 1 и a(s) = 0 при Ы>1; и корреляционные окна Тьюки, задаваемые формулой вида Г(1 - 2а) + 2а cosns при | s | ^1, 262 КОРРЕЛЯЦИОННОЕ где а-0,25 («окно ханни нг») или я = 0,23 («окно хэм- минг») (см., напр., [1] - [9]). Большое число дополнительных примеров К. о. можно найти в работах [1] - [15]. Преобразование Фурье АТ(Х) К. о. ат(х) называется спектральным окном; оно представляет собой весовую функцию сглаженной периодограммы случайной функции Х(0, получаемой при применении преобразования Фурье к функции В5?(т) (см. [1]-[9]). Лит.: [1] В lackman R. В., Tukey J.W.. The measurement of power spectra, N. Y., 1959; [2] Джен к и не Г., Bai i с Л., Спектральный анализ и его приложения, пер. с англ., в. 1-2, М., 1971-72; [3] Андерсон Т., Статистический анализ временных рядов, пер. с англ., М., 1976; [4] Хеннан Э., Многомерные временные ряды, пер. с англ., М., 1974; [5] Бриллинджер Д., Временные ряды. Обработка данных и теория, пер. с англ., М., 1980; [6] Грибанов Ю. И., Мальков В. Л., Спектральный анализ случайных процессов, М., 1974; [7] Отнес Р., Эноксон Л., Прикладной анализ временных рядов. Основные методы, пер. с англ., М., 1982; [8] Ж у р- бенко И. Г., Спектральный анализ временных рядов, М., 1982; [9] Яг л ом A.M., Корреляционная теория стационарных случайных функций, Л., 1981; [10] Хэррис Ф. Дж., «Тр. Ин-та инж. электро- техн. радиоэлектрон.», 1978, т. 66, № 1, с. 60-96; [11] Мир- с к и й Г. Я., Аппаратурное определение характеристик случайных процессов, 2 изд., М., 1972; [12] Макс Ж., Методы и техника обработки сигналов при физических измерениях, т. 1, М., 1983; [13] Пален- скис В., Лаучюс Ю., Шоблицкас 3., «Литов. физ. сб.», 1985, т. 25, № 3, с. 98-104; [14] Левин В. А., «Радиотехн. и электрон.», 1986, т. 31, К? 3, с. 515-25; [15] Palmer D. F., «IEEE Trans, on Inform. Theory», 1969, v. IT-15, № 5, p. 613-15. A. M. Яглом. КОРРЕЛЯЦИОННОЕ ОТНОШЕНИЕ (correlation ratio) - характеристика зависимости между случайными величинами. Именно, корреляционным отношением случайной величины У по случайной величине X называется выражение ^|X=1-E[D(Y|X)/DY], где DY - дисперсия У, D(Y|X) - условная дисперсия Y при данном X, характеризующая рассеяние У около условного математич. ожидания Е(У|Х) при данном значении X. Всегда 0 ^ Г)уи, ^ 1. Равенство r\x\ Y = 0 соответствует некоррелированным случайным величинам; Лу|х= * Т0ГДа и только тогда, когда имеется точная функциональная связь между У и X; в случае линейной зависимости У от X К. о. совпадает с квадратом коэффициента корреляции. К. о. несимметрично относительно X и У, поэтому наряду с Цу\х РассматРивается Лх|у ~ К. о. X по У, определяемое аналогичным образом. Между t\y\x и ^xIy нет какои-ли6Ъ простой зависимости. См. также Корреляция. А. В. Прохоров. КОРРЕЛЯЦИОННОЕ ПОЛЕ (correlation diagram) - см. Корреляция. КОРРЕЛЯЦИОННЫЕ НЕРАВЕНСТВА (correlation inequalities) - неравенства между моментами функционалов от случайных полей. К. н. являются мощным орудием изучения случайных полей, а в нек-рых случаях - даже единственным. К. н. различаются по классам полей, для к-рых они справедливы. Основная часть К. н. имеет место для Гиббса случайных полей, соответствующих ферромагнитным моделям. Ниже перечисляются наиболее популярные К. н. для случая решетчатых гиббеовских случайных полей с действительными значениями, задаваемых гамильтонианом ЯА^)=1ЛСЛ,|Л|^2^Л+1(€Л^ и свободной мерой т на IP. Здесь Л - конечное подмножество d-мерной решетки 1 , х = ГТ xv J,\^0. Символом ( ) обозначаются средние значения по соответствующему распределению Гиббса. Во всех приводимых ниже неравенствах возможен предельный переход Л->2 , после к-рого они ока-
зываются применимыми и к гиббсовским случайным полям на Zd. 1 Корреляционное неравенство ФКЖ (For- tuin - Kasteleyn - Ginibre; см. [1 ]). Функция f(xA) на множестве конфигураций ФЛ = {#д: Л -> IR} называется возрастающей, если для любой пары конфигураций хк, хА такой, что (xA)f^(xA)t для всех £еЛ, имеет место неравенство f(x[)^f(xA). Пусть f,g- возрастающие функции на Фл. Тогда №> (П(9)- (О Неравенство ФКЖ - одно из немногих, для к-рых не существен знак параметров ht (магнитных полей). Ограничение JA > О также можно несколько ослабить. Так как функции xs, xt на ФЛ являются возрастающими, то, в силу (1), ^-<*(> = <*Л>-<г,Х*,»0, то есть среднее значение (xs) есть возрастающая функция параметров {ht, teA). 2. Корреляционные неравенства ГКШ (Griffiths- Kelley - Sherman; см. [2], [3]). Пусть ht^0, teA, и мера т симметрична относительно преобразования замены знака х -> -х. Тогда для любых В, С с: А имеет место (х )> О (I неравенство ГКШ), {х х )^{х ){х ) (II неравенство ГКШ). При \В\^2 функция х на ФЛ не является возрастающей. Нижеследующие К. н. справедливы для свободных мер т, принадлежащих так наз. классу Саймона - Гриффитса Ф (см. [4]). Он порождается распределениями случайных величин Xk, нредставимых в виде суммы X = V Xtxv где Xt ^ О, а случайные величины т, образуют гиббсовское случайное поле, соответствующее ферромагнитной Изинга модели с параметром h = 0. Класс #замкнут относительно операций свертки и взятия предела. Он содержит равномерное распределение на отрезке [-а, а], а^О, нормальное распределение и нек-рые другие. 3. Корреляционное неравенство ГХШ (Griffiths- Hurst - Sherman; см. [5]). Пусть 7,4 = 0 при |л| >2, htz'0, те Ф. Тогда для всех г, s, teA имеет место u3(r, s, О = (xrxsxt) - (xr){xsxt) - - (xs)(xrxt) - (xt)(xrxs) + 2{xr)(xs)(xt) ^ 0. 4. Знаки семиинвариантов симметричных ферромагнитных моделей. Пусть JA = 0 при | А | > 2, ht = 0, те <£. Тогда из соображений симметрии следует, что семиинварианты un(tx, ..., tn) с я = 26 + 1 равны нулю. Для n = 2k оказывается, что (-1)*_1И2*^0- <2> При k = 2 К. н. (2) называется неравенством Лебови- ца [6]. Общий случай рассмотрен в [7]. 5. Корреляционное неравенство Н (Newman; см. [8]). Пусть A cz Л, |л|=2Л. Семейство М разбиений Р множества Л на подмножества четной мощности называется допустимым, если всякое разбиение на пары множества А является измельчением хотя бы одного разбиения из М. Тогда в предположениях п. 4 для любого допустимого семейства разбиений М множества А С помощью К. и. можно изучать вопросы о единственности и неединственности распределения Гиббса (см. [9]), доказывать для них центральную предельную теорему (см. [10]), устанавливать факт сходимости распределений Гиббса в различных предельных переходах (см. [3]), проверять гауссо- вость нек-рых полей (см. [11]) и т. д. Лит.: [1] Fortuin С, Kasteleyn P., Ginibre J., «Comm. Math. Phvs.», 1971, v. 22, № 2, p. 89-103; [2] Griffiths R., «J. Math. Phys.», 1967, v. 8, № 3, p. 478-89; [3] Kelly D., Sherman S., там же, 1968, v. 9, № 3, p. 466-84; [4] Simon В., Griffiths R., «Comm. Math. Phys.», 1973, v. 33, № 2, p. 145-64; [5] Griffiths R., Hurst C, Sherman S., «J. Math. Phys.», 1970, v. 11, № 5, p. 790-95; [6] LebowitzJ., «Comm. Math. Phys.», 1974, v. 35, № 2, p. 87-92; [7] Ш л осман СБ., «Докл. АН СССР», 1987, т. 292, № 5, с. 1074-77; [8] Newman С, «Z. Wahr. und verw. Geb.», 1975, Bd 33, К? 2, S. 75-93; [9] Lebowitz J., Martin-Lof A., «Comm. Math. Phys.», 1972, v. 25, № 2, p. 276-82; [10] Newman С, там же, 1983, v. 91, К? 1, p. 75-80; [11] Aizenman M., там же, 1982, v. 86, № l, p. 1-48. с. Б. Шлосман. КОРРЕЛЯЦИОННЫЕ УРАВНЕНИЯ (correlation equations) - линейные уравнения, связывающие между собой корреляционные функции. Впервые К. у. были строго выведены Н. Н. Боголюбовым и Б. И. Хацетом в 1949. Вообще говоря, можно вывести различные системы К. у., но наиболее известны две из них - система уравнений Кирквуда - Зальцбурга и система уравнений Майера - Монтролла. К. у. для контуров были использованы в [3] при исследовании фазового перехода 1-го рода в модели Изинга. Близкие к ним К. у. использованы В. А. Малышевым для доказательства сходимости кластерного разложения. Лит.:[\] Боголюбов Н. Н., Хацет Б. И., «Докл. АН СССР», 1949, т. 66, № 3, с. 321-24; [2] Рюэль Д., Статистическая механика. Строгие результаты, пер. с англ., М., 1971; [3] Минлос Р. А., Синай Я. Г., «Труды Моск. матем. об-ва», 1968, т. 19, с. 113-78; [4] Малышев В. А., «Успехи матем. наук», 1980, т. 35, в. 2, с. 3-53; [5] его же, Элементарное введение в математическую физику бесконечночастичных систем, Дубна, 1983. с. А. Пирогов. КОРРЕЛЯЦИОННЫЙ АНАЛИЗ (correlation analysis) - см. Корреляция. КОРРЕЛЯЦИОННЫЙ ПРИЕМ (correlation reception) - один из методов различения (декодирования) сигналов St(t), i= 1, ..., N, te [0,Г], имеющих одинаковую энергию и передаваемых по каналу связи с шумами. При наблюдаемом процессе x(t), ie[0, Т], решение о том, что был передан сигнал Sm(t), принимается, когда f Sm(t)x(t)dt= max f S^tMOdt. J° i = 1, ...,N J° Вычисление интегралов, входящих в это выражение, часто реализуется с помощью набора согласованных фильтров, представляющих собой линейные фильтры с импульсными характеристиками 51(Г-т), г=1, ..., N. При аддитивном гауссовском белом шуме в канале связи и одинаковых априорных вероятностях сигналов К. п. минимизирует среднюю ошибочного декодирования вероятность. Лит.: [1] Вудворд Ф. М., Теория вероятностей и теория информации с применениями в радиолокации, пер. с англ., М., 1955; [2] Возенкрафт Дж., Джекобе И., Теоретические основы техники связи, пер. с англ., М., 1969. р. К. Голубев. КОРРЕЛЯЦИОННЫЙ ФУНКЦИОНАЛ (correlation functional) - см. Обобщенный стационарный процесс. КОРРЕЛЯЦИЯ (correlation) - зависимость между случайными величинами, не имеющая, вообще говоря, строго функционального характера. В отличие от функциональной зависимости, К., как правило, рассматривается тогда, когда одна из величин зависит не только от данной другой, но и от ряда случайных факторов. Зависимость между двумя случайными событиями проявляется в том, что условная вероятность одного из них при наступлении другого отличается от безусловной вероятности. Аналогично влияние одной случайной величины КОРРЕЛЯЦИЯ 263
на другую характеризуется условными распределениями одной из них при фиксированных значениях другой. Пусть X и У - случайные величины с заданным совместным распределением вероятностей, ах и aY - математич. ожидания X и У, ох и ау - дисперсии X и У, р - коэффициент К. между X и У. Если для каждого возможного значения Х = х определено условное математич. ожидание у(х) = Е[У |Х = х] величины У, то функция у(х) называется регрессией величины У по X, а ее график - линией регрессии У по X. Зависимость У от X проявляется в изменении средних значений У при изменении X, хотя при каждом фиксированном значении Х = х величина У остается случайной величиной с определенным рассеянием. Для выяснения вопроса, насколько точно регрессия передает изменение У при изменении X, используется условная дисперсия У при данном значении X = х или ее средняя величина (мера рассеяния У около линии регрессии): 4|Х=Е[У-Е(У|Х = *)]2. Если X и У независимы, то все условные математич. ожидания У не зависят от х и совпадают с безусловным: у(х) = aY, при этом GY\x = cY' ^Ри точнои функциональной зависимости У от X величина У при каждом данном Х = х принимает лишь одно определенное значение и CJyix = 0. Аналогично определяется х(у) = Е[Х|У = у] - регрессия X по У. Естественным показателем концентрации распределения вблизи линии регрессии у(х) служит корреляционное отношение Лу|х=1-ст£|х/ау. Величина Лу|х = 0 Т0ГДа и только тогда, когда регрессия имеет вид y(x) = aY, в этом случае коэффициент К. р равен 0 и величина У не коррелирована с X. Если регрессия У по X линейна, то есть линия регрессии - прямая у(х) = aY + p— (х - ах), то ау|х = а2у(1-р2)иЛу|х = Р2> если, кроме того, |р| = 1, то У связана с X точной линейной 2 2 зависимостью, если же Лу|х=Р <^» т0 межДУ У и X нет функциональной зависимости. Точная функциональная зависимость У от X, отличная от линейной, имеет место тогда и 2 2 только тогда, когда р <Лу|х=^- Практич. использование коэффициента К. в качестве меры отсутствия зависимости справедливо (за редким исключением) лишь тогда, когда совместное распределение X и У нормально (или близко к нормальному распределению), так как в этом случае из равенства р = 0 следует независимость X и У. Использование р как меры зависимости для произвольных случайных величин X и У приводит часто к ошибочным выводам, так как р может равняться 0 даже при функциональной зависимости между величинами. Если двумерное распределение X и У нормально, то обе линии регрессии суть прямые и р полностью определяет концентрацию распределения вблизи линий регрессии: при |р| = 1 прямые регрессии сливаются в одну, что соответствует линейной зависимости между X и У, при р = 0 величины независимы. При изучении связи между несколькими случайными величинами Xj, ..., Хп с заданным совместным распределением пользуются множественными и частными корреляционными отношениями и коэффициентами К. Последние вычисляются с помощью обычных коэффициентов К. между X; и Х;, в 264 КОРРЕЛЯЦИЯ совокупности образующих корреляционную матрицу. Мерой линейной связи между Xj и совокупностью всех остальных величин Х2, ..., Хп служит множественный коэффициент корреляции. Если взаимосвязь величин Xj и Х2 предположительно определяется влиянием остальных величин Х3, ..., Хп, то показателем линейной связи между Xj и Х2 при исключении влияния Х2, ..., Хп является частный коэффициент корреляции Xj и Х2 относительно Х2, ..., Хп. О мерах К., основанных на ранговых статистиках, чм. в ст. Кендалла коэффициент ранговой корреляции, Спирмена коэффициент ранговой корреляции. В математич. статистике разработаны методы оценки коэффициентов, характеризующих К. между случайными величинами или признаками, и методы проверки гипотез об их значениях, использующие их выборочные аналоги. Совокупность таких методов называется корреляционным анализом. Корреляционный анализ статистич. данных заключает в себе следующие основные практич. приемы: 1) построение корреляционного поля и составление корреляционной таблицы; 2) вычисление выборочных корреляционных отношений или коэффициентов К.; 3) проверка статистич. гипотезы значимости связи. Дальнейшее исследование может заключаться в установлении конкретного вида зависимости между величинами (см. Регрессия). Вспомогательными средствами при анализе выборочных двумерных данных являются корреляционное иоле и корреляционная таблица. При нанесении на координатную плоскость выборочных точек получают корреляционное поле. По характеру расположения точек поля можно составить предварительное мнение о форме зависимости случайных величин (напр., о том, что одна величина в среднем возрастает или убывает при возрастании другой). Для численной обработки результаты обычно группируют и представляют в форме корреляционной таблицы. В каждой клетке этой таблицы приводятся численности п1?- тех пар (х, у), компоненты к-рых попадают в соответствующие интервалы группировки по каждой переменной. Предполагая длины интервалов группировки (по каждому из переменных) равными между собой, выбирают центры х{ (соответственно у{) этих интервалов и числа щ,- в качестве основы для расчетов. Более точную информацию о характере и силе связи, чем картина корреляционного поля, дают корреляции коэффици ент и корреляционное отношение. Выборочный коэффициент корреляции определяется по формуле ^.Щ(х(-х)2 ^fnf(yf-y)2 ГДе х- х- *=X, 4xi/n> y=^Lj п.}У)1п' При большом числе независимых наблюдений, подчиненных одному и тому же распределению, близкому к нормальному, р близок к истинному коэффициенту К. р. Во всех других случаях в качестве характеристики силы связи рекомендуется использовать корреляционное отношение Лу|л> ин" терпретация к-рого не зависит от вида исследуемой зависимости. Выборочное значение T\Y\x вычисляется по данным корреляционной таблицы:
где числитель характеризует рассеяние условных средних значений yt около безусловного среднего у (аналогично определяется выборочное значение Лу|х). Величина Чу\х~Р ис~ пользуется в качестве индикатора отклонения регрессии от линейной. Проверка гипотезы значимости связи основывается на распределениях выборочных корреляционных характеристик. В случае нормального распределения величина выборочного коэффициента К. р считается значимо отличной от нуля, если выполняется неравенство (р)2>1\ + (п-2)/£г\ где ta есть критич. значение £-распределения Стьюдента с (п-2) степенями свободы, соответствующее выбранному уровню значимости а. В случае р Ф О обычно используют так наз. 2-преобразование Фишера, заменяя величину р на z по формуле Ухе при сравнительно небольших п распределение величины z хорошо приближается нормальным распределением с мате- матич. ожиданием, равным !iniip+_p_, 2 1-р 2(л-1) и дисперсией, равной 1/(я-3). Исходя из этого можно опре- де!ить приближенные интервалы для истинного коэффициента К. р. О распределении выборочного корреляционного отношения и о способах проверки гипотез о линейности регрессии см. в 13]. Лит.: [1] Крамер Г., Математические методы статистики, пер. с англ., 2 изд., М., 1975; [2] Ван дер Варден Б. Л., Математическая статистика, нер. с нем., М., 1960; [3] КендаллМ., Стью- арт А., Статистические выводы и связи, пер. с англ., М., 1973; [4| Айвазян С. А., Статистическое исследование зависимостей, М., 1968. А. В. Прохоров. КОСИНОР-АНАЛИЗ (cosinor analysis) (от «косинус» и «нормальный») - совокупность методов среднеквадратического приближения экспериментальных кривых графиками уравнений вида у = A cos (art - а), а также построения доверительных областей заданного уровня в предположении нормальности ошибок данных. Т. В. Ляшенко. КОСОЙ ВИНЕРОВСКИЙ ПРОЦЕСС (skew Wiener pro cess) - см. Винеровский процесс в полупрямой. КОСОУГОЛЬНОЕ ВРАЩЕНИЕ факторных осей (oblique rotation of factorial axes) - см. Факторных осей вращение. КОСПЕКТР И КВАДРАТУРНЫЙ СПЕКТР (cospectrum and quadrum spectrum), коспектральная плотность и квадратурная спектральная плотность,- соответственно действительная и мнимая части спектральной плотности ffoCk), -oo<^<oo, двух компонент XAk) и Xk(t) r-мерного стационарного случайного процесса Х(0 = {Х1(0, .... Xr(t)}T, k*j, 1^/, k^r. Коспектр cjk(X) = Refjk(X), j*k, является четной функцией, а квадратурный спектр qjbfX) = lmfjk(X),j*k,- нечетной функцией. Если взаимная ковариационная функция Bjk(t) удовлетворяет условию I \B k(t)\dt<°° (для непрерывного времени) или 1 (*) £ _ \В k(t)\ <oo (для дискретного времени), то К. и к. с. соответственно выражаются следующим образом: cjk(X) = | £1 [Bjk(t) + Bjk(-t)] cos Xtdt, qjk(X) =\JZo lBjkW ~ Я;**"') 1 sin Xtdt (для непрерывного времени) и с;*(W = \ 5Г= — Щ№ + Я;*(-*> 1 cos Xt> Ъ№ = \ ХГ= -о» [BJk(t) ~ V"°] sin Xt (для дискретного времени). При условии (*) К. и к. с. выражаются через коспектральную функцию C.k(X) и квадратурную спектральную функцию Oj^iX) следующим образом: cjk(X) = Cjk(X), qjk(X) = QJk(X). Функции Cjk(X) и Qjk(X) являются абсолютно непрерывными и представляют собой действительную и мнимую части взаимной спектральной функции Fjk(X): Cjk(X) = ReFjka), Ojk(X) = lmFJka). Лит.: [1] Андерсон Т., Статистический анализ временных рядов, пер. с англ., М., 1976; [2] Бриллинджср Д., Временные ряды. Обработка данных и теория, пер. с англ., М., 1980; [3] Джен- кинс Г., Ватте Д., Спектральный анализ и его приложения, пер. с англ., в. 2, М., 1972. И. А. Кожевникова. КОСПЕКТРАЛЬНАЯ ПЛОТНОСТЬ (cospectral density) - см. Коспектр и квадратурный спектр. КОСПЕКТРАЛЬНАЯ ФУНКЦИЯ (cospectral function) - см. Коспектр и квадратурный спектр. КОТЕЛЬНИКОВА ТЕОРЕМА (Kotelnikov/sampling theorem): непрерывная функция ДО, t e (-°°, °°), с ограниченным спектром, сосредоточенным в полосе частот [-F, F], допускает разложение ao=i;:.^(m)1^^>, л=1/2,. К. т. имеет тесную связь с задачей аппроксимации целых функций (см. [2]). Важную роль К. т. играет в технике и теории передачи непрерывных сообщений, так как позволяет установить минимальную частоту дискретизации (1/(2F)), при к-рой подавляющая часть информации об исходном сообщении fit) содержится в его отсчетах f(k/2F), k = 0, ±1, ... Лит.: [1] Котельников В. А., О пропускной способности эфира и проволоки в электросвязи, М., 1933 («Всесоюзный энергетический комитет. Материалы к I Всесоюзному съезду по вопросам технической реконструкции дела связи и развития слаботочной промышленности»); [2] ХургинЯ.И., Я ков л ев В. П., Методы теории целых функций в радиофизике, теории связи и оптике, М., 1962. Г. К. Голубев. КОТЕЛЬНИКОВА - ШЕННОНА ФОРМУЛА (Kotel- nikov-Shannon formula) - см. Дискретизации проблема. КОШИ РАСПРЕДЕЛЕНИЕ (Cauchy distribution) - непрерывное, сосредоточенное на (-°°, °°) распределение вероятностей с плотностью (см. рис.) р(х;Х, ц) = 1—-* -. Функция распределения F(*;A.,n) = | + -Urctg^, 2 К К где Х>0, -oo<jj,<oo- параметры. Часто под К. р. понимают случай ц = 0. К. р. унимодально и симметрично относительно точки х - ц, являющейся модой и медианой этого распределения. Характеристич. функция f(t)=el[it~ . Моменты целого положительного порядка, в том числе и математич. ожидание, не существуют. Класс К. р. замкнут относительно линейных преобразований: если случайная величина X имеет К. р. с КОШИ 265
параметрами X и ц,, то случайная величина Y = aX + b, a*0, также имеет К. р. с параметрами X'= \а\Х и \\! = a\i + b. Класс К. р. замкнут относительно операции свертки р(х; \i,\ii):..*p(x; Хп, ц„) = = р(х; Xx + ... + \nt\Lx + ...+\in), (*) 2 3 -2-10 1 2 Плотности распределения Коши: при ц = 0 и (1) А. = 0,5; (2) Х= 1; (ЗП = 2. иначе, сумма независимых случайных величин с К. р. снова имеет К. р. Так же, как нормальное распределение, К. р. принадлежит к классу устойчивых распределений, а именно: К. р. есть симметричное устойчивое распределение с показателем 1. Следствием соотношения (*) является следующее свойство К. р.: если случайные величины Xv ..., Хп независимы и имеют одно и то же К. р., то арифметич. среднее (Xj +... + Хп)/п имеет такое же распределение, как и каждая величина Xk. Еще одна особенность К. р. состоит в том, что в семействе К. р. распределение суммы случайных величин может быть задано формулой (*), даже если величины зависимы; так, если X и У независимы и имеют одинаковое К. р., то случайные величины Х + X и X+Y имеют одно и то же распределение Коши. К. р. с параметрами Х=\ и |i = 0 есть распределение Стьюдента с числом степеней свободы, равным 1. К. р. с параметрами (X, ц,) совпадает с распределением случайной величины U. + X/Y, где X и У независимы и нормально распределены с параметрами (0, X ) и (0, 1) соответственно. Такое же К. р. имеет функция ц,+ XtgZ случайной величины Z, равномерно распределенной на отрезке [-тс/2, к/2]. Если X имеет К. р. и если X СJLA. + п /4) = 1, то Х~ имеет К. р. с теми же параметрами (X, ц,). К. р. определяется также и в пространствах размерности большей единицы. К. р. в случае ц, = 0 впервые рассматривалось С. Пуассоном [2]. Сопоставление с именем О. Коши является историч. ошибкой, возникшей, по-видимому, следующим образом. Функции р(х; X, 0) соответствует преобразование Фурье \eitxp(x\ X, 0)dx = exp(-X\t\). О. Коши исследовал свойства функций д(х; X, а), преобразования Фурье к-рых имеют вид exp(-X\t\a), X>0, а>0 (см. [3]). Они получили название функций Коши. Какие из них являются плотностями (кроме случая а=1 и случая а = 2, соответствующего нормальному закону), стало известно только в начале текущего столетия благодаря работам Д. Пойа (G. Polya, 0<а<1) и П. Леви (P. Levy, 1<а<2). Эта часть 266 КОШИ функций Коши стала называться распределениями Коши. Однако после введения П. Леви класса устойчивых распределений, частью к-рых они являются, термин К. р. закрепился лишь за случаем а = 1. Лит.: [1] Феллер В., Введение в теорию вероятностей и ее приложения, пер. с англ., т. 2, М., 1984; [2] Poisson S. D., Sur la proba- bilite des resultat meyons des observation, P., 1832; [3] Cauchy A. L., «C. r. Acad, sci.», 1853, t. 37, p. 198. А. В. Прохоров. КОШИ - БУНЯКОВСКОГО НЕРАВЕНСТВО (Cauchy - Bunjakovsky inequality) - см. Буняковского неравенство. КРАЙНЯЯ ФУНКЦИЯ (extreme function) - см. Потенциала теория для марковского процесса. КРАМЕРА НЕРАВЕНСТВО (Cramer inequality) для характеристической функции- соотношение, дающее верхнюю оценку модуля характеристической функции внутри интервала 11\ ^В на основании ее поведения вне этого интервала. Пусть ДО - характеристич. функция, обладающая свойством \f(t)\ ^А< 1 для \t\ ^В, тогда при \t\ ^B имеют (см. [1], [3]). Доказательства такого типа неравенств основываются на выборе положительно определенного тригоно- метрич. полинома. Таким образом получено и уточнение К. н. в работе [21: если \f(t)\^A<\ при B^t^B + b, причем 0<Ь^В, то |Л0|<(^)W <t _ 0-л»2 <t _ (1-л»2 (B+tV (в+ьУ для 0<t<b (см. [3], с. 37). Лит.: [11 Кра м ер Г., Случайные величины и распределения вероятностей, пер. с англ., М., 1947; [21 Heatcote С. R., Pitman J.W., «Bull. Austral. Math. Soc», 1972, v. 6, p. 1-9; [31 Петров В. В., Предельные теоремы для сумм независимых случайных величин, М., 1987. Н. Г. Гамкрелидзе. КРАМЕРА ПРЕОБРАЗОВАНИЕ (Cramer transform) функции распределения F - функция #F(fl) = sup [aX-y(X)], tfell?1, где \|/U) = In £ eMdF(x), если £ eMdF(x) <<*>, и yW = <*> в противном случае. Под К. п. случайной величины X подразумевается К. п. ее функции распределения Fx:Hx(a) = = HF (а). К. п. выпукло вниз. Если случайная величина X удовлетворяет Крамера условию, то есть для нек-рого Х>0 Еехр{Ь|Х|}<°°, то min #л-(д) = 0, причем arg min Нх(а) = EX. В терминах К. п. удобно записывается оценка скорости сходимости в усиленном законе больших чисел. А именно, если случайные величины Xt, X2, ... независимы, одинаково распределены и удовлетворяют условию Крамера, Sn = Xt + ... +Хп, то для любого е > 0 pJsupUs^-ExJ^eU ^2exp{-wmin(#x (EXj -e), Hx (EXj +e))}. Лит.: [ 1J КрамсрГ, Случайные величины и распределения вероятностей, пер. с англ., М., 1947; [2J Петров В. В., Суммы независимых случайных величин, М., 1972; [3] Ширяев А. П., Вероятность, 2 изд., М., 1989, с. 428-31. В. Ю. Королев. КРАМЕРА РЯД (Cramer series) - см. Крамера теорема. КРАМЕРА ТЕОРЕМА (Cramer theorem) - 1) см. Леви-Кра- мера теорема. 2) К. т. для вероятностей больших уклонений: пусть Xj, X2,... - последовательность независимых
одинаково распределенных случайных величин такая, что ЕХ^О, ЕХ^~ = о >0 и производящая функция моментов Ее ' конечна в нек-ром интервале \t\ <а (последнее условие называется условием Крамера); пусть ф(х)= 1 Г е-<2/2^ •ш J-~ если х> 1, х = о(^п) при п->°°, то Здесь М0 = 5Т_П с^ - ряд, сходящийся для всех достаточно малых t, коэффициенты к-рого зависят только от моментов случайной величины Xj (этот ряд называется рядом Крамера). Несколько более слабый результат получен Г. Крамером [1]; приведенное выше уточнение К. т. получено В. В. Петровым [2]. Лит.: [11 Cramer H., «Actual, sci. et industr.», 1938, № 736; [21 Петров В. В., «Успехи матем. наук», 1954, г. 9, в. 4, с. 195-202; [3] Ибрагимов И. А., Л и нн и к Ю. В., Независимые и стационарно (вязанные величины, М., 1965; [41 Петров В. В., Суммы независимых случайных величин, М., 1972. в. В. Петров. 3) К. т. о гауссовских распределениях- см. Вероятностных распределений арифметика. 4) К. т. о представлении случайных функций: если корреляционная функция EX(t)X(s) = B(t, s) комплексной случайной функции X(t) с нулевым средним значением, заданной на произвольном множестве T = {t), допускает представление вида Bit, s)=j j \\f(t, a)\\f(s, a')m(da, da'), (1) где А - нек-рое локально компактное пространство с заданной на нем а-алгеброй 33 подмножеств SczA, m(S^, S2), S^eg), S2 g Зв,- комплексная мера на А х А, имеющая локально конечную вариацию (то есть конечную вариацию на всех «квадратах» 5x5, где 5 компактно) и являющаяся неотрицательно определенным ядром [так что YJ"Mm(-srsk^~k^0 (2) при любых целом положительном п, комплексных с{, ..., спи множествах 5j, ..., Sn, принадлежащих J9], то тогда X(t) допускает представление в виде стохастич. интеграла X(t) = \Ay(t,a)Z(da), (3) где Z(S) - заданная на 33 случайная функция такая, что EZ(51)Z(52) = m(5j, 52), а интеграл в правой части (3) определяется как предел в среднем квадратичном соответствующей последовательности интегральных сумм. Обратно, если случайная функция X(t), teT, представима в виде (3), то ее корреляционная функция B(t, s) допускает представление (1). Значения Z(S), Se&, принадлежат гильбертову пространству Нх, натянутому на векторы X(t), teT (см. Корреляционная теория случайных функций), тогда и только тогда, когда семейство функций {\\f(t, a), teT} аргумента а полно в гильбертовом пространстве L (т) функций ф(б0, аеА, со скалярным произведением (<Pi> <P2^ = J/4 )A <Pi(^)<P2(fl')w(<fo> da') и нормой Ы\ = \\ \ <р(а)у(а')тШ, da')} <«». К. т. была доказана Г. Крамером [1J для случая, когда Л = В?1 = (-вв, ее). Она является обобщением Карунена теоремы об ортогональном представлении случайных функций; важнейшее ее приложение относится к случаю, где t пробегает все действительные (или все целые) числа, то есть X(t) - это случайный процесс или случайная последовательность Л = (-оо, оо) (или же А = [-к, тс)), и \y(t, a)-elta (см. Гармонизуемый случайный процесс). В этом частном случае требование положительной определенности ядра m(5j, 52) может быть опущено, так как условие (2) здесь автоматически следует из справедливости представления (1). Обобщение К. т. на случай более широкого класса комплексных мер m(da, da') опирается на использование более общего определения стохастич. интеграла в правой части (3) (см. [2]). Лит.: [1J Cramer Н., в кн.: Proc. 2-nd Berk. Symp. Math. Stat. Probab., Berk. - Los Ang., 1951, p. 329-39; [2J Rao M.M., в кн.: Handbook of Statistics, v. 5, Amst., 1985, p. 279-310. A. M. Яглом. КРАМЕРА УСЛОВИЯ (Cramer conditions) - введенные Г. Крамером два условия, играющие важную роль в теории вероятностей. Пусть X - случайная величина с функцией распределения Fix) и характеристич. функцией ДО. Одно из К. у. состоит в том, что lim sup|/X*)|<l; kl->~ оно выполнено, если F(x) содержит отличную от нуля абсолютно непрерывную компоненту. Другое К. у. означает, что Ее1 <о° для \t\ <a и нек-рого а>0. Последнее условие равносильно существованию таких положительных постоянных Ъ и с, что Р{|х| >х)^Ье~сх для всех *>0. Лит.: [1] Крамер Г., Случайные величины и распределения вероятностей, пер. с англ., М., 1947; [2] его же, «Успехи матем. наук», 1944, в. 10, с. 166-78. В. В. Петров. КРАМЕРА - ВОЛДА ТЕОРЕМА (Cramer - Wold theorem) - утверждение о том, что распределение вероятностей в евклидовом пространстве однозначно определяется своими значениями на всех полупространствах. Опубликована в [1]; см. также [2], гл. 9; в [3] сказано, что она независимо получена И. М. Гельфандом. Пусть t = (tv t2, ..., tk) - какая-либо фиксированная точка евклидова пространства IP иа- действительное число. Полупространство Sta- это совокупность всех точек х=(х^, х2, ..., xk) пространства (Р , для к-рых txX\ + t2x2+ ... + ^.г^а. В соответствии с К.- В. т. из выполнения при всех Ьф 0 и а равенства P\(St a) = P2(Sta), где Pj и Р2 - два распределения вероятностей в IP , вытекает Pj =P2. Доказательство получается весьма кратким, если использовать метод характеристич. функций. В самом деле, если X:=(X:]t Х.-2, ..., Xjk) - случайный вектор с распределением P., j = 1, 2, то по условию К.- В. т. при любом t распределения вероятностей случайных величин Vx = t^Xu + t2X[2 + ... + t^Cxk и V2 = t\X2{ + t2X22 + ... + tkX2k совпадают. Следовательно, совпадают их характеристич. функции Ее1 v « = Ее1 2, где X - любое действительное число. При X = 1 отсюда вытекает равенство характеристич. функций векторов Х1 и Х2, к-рое влечет равенство распределений Р1 и Р2. В [3] была поставлена задача дать «доказательство, не прибегающее к характеристическим функциям». Вариант решения этой задачи предложен в [4]. При этом, в частности, используется Абеля интегральное уравнение. КРАМЕРА 267
Лит.: [1] Cramer Н., Wol d H., «J. London Math. Soc», 1936, v. 11, part 4, p. 290-94; [2] Крамер Г., Случайные величины и распределения вероятностей, пер. с англ., М., 1947; [3] Колмогоров Л. Н., «Успехи матем. наук», 1938, в. 5, с. 233; [4] Хачату- ров А. А., там же, 1954, т. 9, в. 3, с. 201-12. Ю. В. Прохоров. КРАМЕРА - МИЗЕСА КРИТЕРИЙ (Cramer - von Mises test) - непараметрический критерий для проверки гипотезы Я0, согласно к-рой независимые одинаково распределенные случайные величины Xv ..., Хп имеют заданную непрерывную функцию распределения F(x). К. - М. к. основан на статистике вида 0)2[T(FW)] = J^ [<n~(Fn(x) - F(x))]MF(x))dF(x), где Fn(x) - функция эмпирич. распределения, построенная по выборке Xj, ..., Хп} *Р(0 - нек-рая неотрицательная функция, определенная на отрезке [0, 1] и такая, что *Р(0, P¥(i) и t *¥(t) интегрируемы на [0, 1]. Критерии такого типа, основанные на квадратичной метрике, впервые были рассмотрены Г. Крамером [1] и Р. Мизесом [2]. Н. В. Смирнов [3] предложил выбрать ЧЧО = 1 и показал, что в этом случае при справедливости гипотезы Я0 и я->°о статистика со =со„ (см. [1]) имеет в пределе омега-квадрат распределение, не зависящее от гипотетич. функции распределения F(x). Стати- стич. критерий для проверки гипотезы Я0, основанный на статистике со„, называется критерием со (критерием Крамера-Мизеса-Смирнова), при этом для нахождения численного значения статистики coj; пользуются следующим ее представлением: п 12л ^7 = 1 L (j) 2л J где Х(1)^... ^Х(„) - вариационный ряд, построенный по выборке Xj, ..., Хп. Согласно критерию со с уровнем значимости а, гипотеза Я0 отвергается, коль скоро со„^соа, 2 2 где соа - верхняя а-квантиль распределения со , то есть Р{со <соа}= 1 -а. Аналогично устроен критерий, предложенный Т. Андерсоном и Д. Дарлингом (см. [5]), основанный на статистике со2 [1/F(*)(1 -Fix))]. Лит.: [1] Cramer H., Sannolikhetskalkylen och nagra av dess anvandningar, Stockh., [1926]; [2] Mises R. v., Wahrschein- lichkeitsrechnung und ihre Anwendung in der Statistik und theoretischen Physik, Lpz.- W., 1931; [3] Смирнов Н.В., «Матем. сб.», 1937, т. 2, № 5, с. 973-93; [4] Большее Л. Н., Смирнов Н. В., Таблицы математической статистики, 3 изд., М., 1983; [5] Anderson T. W., Darling D. A., «Ann. Math Stat.», 1952, v. 23, p. 193-212. M. С. Никулин. КРАМЕРА - МИЗЕСА - СМИРНОВА КРИТЕРИЙ (Cramer - Mises - Smirnov test) - см. Крамера - Мизеса критерий. КРАМЕРА - РАО НЕРАВЕНСТВО (Cramer - Rao inequality) - неравенство, устанавливающее нижнюю границу среднеквадратических погрешностей статистических оценок параметра. Получено независимо и почти одновременно Г. Крамером [1], С. Рао [2] и М. Фреше [3]. Пусть по выборке Xv ..., Хп с плотностью распределения f(x, в) требуется оценить неизвестный скалярный параметр в. Пусть 74Xj, ..., Хп) - оценка этого параметра такая, что ЕеГ = 6 + Мб), где Ь- нек-рая дифференцируемая функция, называемая смещением оценки Т. Тогда при определенных условиях регулярности, наложенных на семейство f(x, в), справедливо неравенство Ее(Г-в)2 ^ (1 + 6Чв))2М(в) + &2(в). 268 КРАМЕРА Здесь /(в) = E^dln Д Xj, 6)/56) - информационное количество Фишера, к-рое предполагается положительным и конечным. Об обобщениях и уточнениях К. - Р. н. см. [4], [5]. См. также Статистические задачи теории случайных процессов, Статистическое оценивание. Лит.: [1] Cramer H., «Skand. Aktuarietidskr.», 1946, v. 29, p. 85-94; [2] RaoC.R., «Bull. Calcutta Math. Soc.», 1945, v. 37, p. 81-91; [3] Frechet M., «Rev. Inst. Intern. Statist», 1943, v 11, p. 182-205; [4] Боровков А. А., Математическая статистика, М., 1984; [5] Ибраги мов И. А., Хасьми иски й Р. 3., Асимптотическая теория оценивания, М., 1979. Я. Ю. Никитин. КРАМПА - МОДА ~ ЯГЕРСА ПРОЦЕСС (Crump - Mode - Jagers process) - см. Общий ветвящийся процесс. КРАСНЫЙ ШУМ (red noise) - стационарный в широком смысле случайный процесс (или последовательность), спектральная плотность /Тсо) к-рого возрастает с уменьшением частоты в интервале частот со, представляющем основной интерес для данного исследования. Термин «К. ш.» широко применяется в геофизике. Обычно считается, что /Тсо) у К. ш. обязательно возрастает при со->0; если при этом /"(О) = С<<», то в области очень низких частот К. ш. практически переходит в белый шум (процесс с постоянной спектральной плотностью). В прикладных работах иногда красным шумом называют простейший стационарный процесс с монотонно возрастающей (с уменьшением со) спектральной плотностью /"(со), для к-рого Дсо) = С1/(со +а ) (и, следовательно, корреляционная функция пропорциональна exp{-otf}). М. И. Фортус. КРАТНОЕ ПЕРЕМЕШИВАНИЕ (multiple mixing), перемешивание кратности г,- свойство динамической системы, выражаемое в случае эндоморфизма Т вероятностного пространства Ш, л/, Р) равенством „'™[р{п;=огЧ("Ч}-п;=ор(А>]=о. где Л0, ..., Аг - любые множества из Ли {k((n), n- 1, 2, ...}, i = 0, 1, ..., г,- любые последовательности натуральных чисел, для к-рых lim min \к{(п) - k:(n)\ = 0. Для динамич. еис- темы с непрерывным временем К. п. определяется аналогично. Перемешивание кратности 1 есть просто перемешивание; термин «К. п.» обычно употребляется по отношению к перемешиванию кратности г ^ 2. Вопрос о совпадении или несовпадении классов r-кратно и (г+ 1)-кратно перемешивающих динамич. систем не решен ни при одном г (очевидно, первый из этих классов содержит второй). Лит.: [1] Рохлин В. А., «Изв. АН СССР. Сер. матем», 1949, т. 13, № 4, с. 329-40; [2] Корнфел ьд И. П., Синай Я. Г, Фомин СВ., Эргодическая теория, М., 1980. Б. М. Гуревич. КРАТНЫЙ ВИНЕРОВСКИЙ ИНТЕГРАЛ (multiple Wiener integral), кратный стохастический интеграл,-интеграл '»</>=,(••• J A'l t„)dwtr..dwtri от (неслучайной) функции fe L (IR") по винеровскому процессу. Особенность предложенной Ито конструкции состоит в том, что интеграл от ступенчатой функции совпадает с интегральной суммой только для функций /*, обращающихся в нуль при совпадении хотя бы двух аргументов. К. в. и. обладает следующими свойствами: 1) Е/„ф = 0, п>\; 2) Eln(f) = E/„(/*), где f симметризация функции f\ 3) Eln(f)Im(g) = 0, m*n\ 4) Eln(f)In(g) = n\{f, g)n, где <•, •)„ - скалярное произведение в L2(IR?);
.')) любая случайная величина rj e L2(.c/), где ^/- а-алгебра, порожденная w, представима в виде T\ = ^°_Jn(f„), причем указанное разложение однозначно, если fn - симметричные функции. К. в. и. используют в стохастич. анализе, в частности в конструкциях расширенного стохастического интеграла и стохастической производной. Лит.: [1] По К., «J. Math. Soc. Jap.», 1951, v. 3, p. 157-69. Ю. М. Кабанов. КРАТНЫЙ СТОХАСТИЧЕСКИЙ ИНТЕГРАЛ (multiple stochastic integral) - см. Кратный винеровский интеграл. КРАФТА - МАК-МИЛЛАНА НЕРАВЕНСТВО (Kraft - MacMillan inequality) - см. Код. КРЕЙНА ТЕОРЕМА (Krein theorem) о представлении положительно определенных фу н кций: для того чтобы определенная на интервале (-я, а) функция ДО совпадала с характеристической функцией нек-рого вероятностного распределения Р, то есть чтобы /"(*) = £ eitxPUx), -a<t<a, необходимо и достаточно, чтобы f была непрерывной положительно определенной функцией, нормированной условием /*(()) = 1. Этот результат принадлежит М. Г. Крейну [1]. В случае а = <*> он совпадает с Бохнера-Хинчина теоремой. Лит.: [1] Крейн М. Г., «Докл. АН СССР», 1940, т. 26, № 1, с. 17-21; [2] Ахиезер Н. И., Классическая проблема моментов, М., 1961. И. А. Ибрагимов. КРИВОЛИНЕЙНАЯ КОРРЕЛЯЦИЯ (поп linear correla tion/curvilinear correlation) - принятие гипотезы о связи случайных величин У и X в рамках параметрической модели вида ДУ)=Л0 + Л1в1и) + ...+Л„в„(Х), где fy в,, ..., в„- известные функции, а коэффициенты Aj находятся с помощью метода наименьших квадратов. Напр., если f(x) = \nx, и = 2, &i(x)=x, Q2(x)=x » то У связана с X приближенным соотношением вида У = ехр(Л0 + Л1Х + Л2Х ), к-рое имеет нелинейный характер; в то же время задача отыскания Л. является линейной. Лит.: [1] Бард Й., Нелинейное оценивание параметров, пер. с англ., М., 1979; [21 Прохоров Ю. В., Розанов Ю. А., Теория вероятностей. Основные понятия. Предельные теоремы. Случайные процессы, 3 изд., М., 1987. Т. В. Ляшенко. КРИВОЛИНЕЙНАЯ РЕГРЕССИЯ (curvilinear regression) - то же, что нелинейная регрессия. КРИВОЛИНЕЙНЫЙ СТОХАСТИЧЕСКИЙ ИНТЕГРАЛ (stochastic curve integral) - см. Стохастический интеграл вдоль линии в случайном поле. КРИККЕБЕРГА РАЗЛОЖЕНИЕ (Krickeberg decomposition) - представление мартингала X = (Xt)t^Q в виде X=Y-Z, где Y=(Yt), Z = (Zt) - неотрицательные мартингалы, а время дискретное te{0, 1,...} или непрерывное t*z[0, <»]. К. р. очевидно, когда X - равномерно интегрируемый мартингал (то есть Xt = ElXj^l почти наверное для всех t, где Х^ - интегрируемая случайная величина, тогда У, = E[X^L<4], Zt = E[X~|.«4] почти наверное). Для произвольного мартингала X К. р. выполняется тогда и только тогда, когда X ограничен в It, то есть ||Х|| t = sup E|X^| <°°. К. р. единственно и, более того, |Х| j = || Y\\ j + \\Z\\ t. Мартингалы У и Z являются наименьшими неотрицательными мартингалами, мажорирующими X и —X соответственно. Разложение впервые получил К. Криккеберг [1]. Лит.: [1] Krickeberg К., Wahrscheinlichkeitstheorie, Stuttg., 1963; [2] Del lacherie С, Meyer P.-A., Probabilites et potentiel. Theorie des martingales, t. 1-2, P., 1975-80. Л. И. Гальчук. КРИПТОГРАФИЯ (cryptography) - наука о способах преобразования информации с целью ее защиты от посторонних. В современной К. находят применения многие области математики: алгебра, теория чисел, дискретная математика, теория вероятностей, математич. статистика. С другой стороны, потребности К. порождают нетривиальные математич. задачи, что существенно (хотя это и не всегда заметно) влияет на процесс развития чистой математики. Связям К. с теорией вероятностей и математич. статистикой ниже будет уделяться большее внимание, чем связям с другими областями математики. До последнего времени К. использовалась, как правило, для защиты военных и государственных секретов. В последние десятилетия в связи с процессами концентрации капитала и широким распространением спекулятивных способов его увеличения, обострением конкурентной борьбы и развитием электронных средств связи расширился спрос на криптографич. методы защиты информации со стороны коммерческих организаций, что привело к возникновению новых направлений и методов: К. с открытым ключом, методов разделения секрета, электронной подписи, идентификации и т. п. Получаемые в теоретич. К. результаты регулярно обсуждаются на международных ежегодных криптографич. конференциях (CRYPTO, EUROCRYPT, ASIACRYPT и др.); труды этих конференций публикуются в серии Lecture Notes in Computer Science издательством Springer-Verlag. Криптографич. способы защиты информации создавались почти одновременно с письменностью. Способы шифрования информации отправителем и ее дешифрования адресатом должны допускать сравнительно простую реализацию, а способы вскрытия информации посторонним лицом (к-рое принято называть противником или злоумышленником) при существующем научно-технич. уровне должны быть практически нереализуемы за разумное время. Например, в Европе вплоть до Средних веков использовался так наз. шифр Цезаря: каждая буква текста заменялась другой буквой алфавита в соответствии с подстановкой, нижняя строка к-рой - алфавит, циклически сдвинутый на три буквы влево. Такой шифр может считаться надежным только при условии, что противник малограмотен. Примеры вскрытия более сложных шифров, в к-рых каждая буква алфавита заменяется другой буквой или символом, описаны в рассказах Э. По «Золотой жук» и А. Конан-Дойля «Пляшущие человечки». Классич. схемы шифрования имеют следующий вид. Пусть М - множество исходных сообщений (открытых текстов); T={Tk, ke К) - множество шифрующих (обычно обратимых) отображений Tk: М -> Е} где Е - множество шифрованных текстов. Параметр k} определяющий конкретный вид используемого преобразования, называется ключом и не должен быть известен никому, кроме отправителя и получателя; множество Т всех шифрующих отображений может быть известно и противнику. Чтобы отправить сообщение теМ, отправитель применяет к т отображение Tk (ключ k передается получателю заранее) и отправляет шифрованное сообщение e = Tkm по каналу связи, доступному и для противника (напр., по радио). Получатель, применяя к е обратное отображение Г^"1, находит исходное открытое сообщение т = Т^е. Противник, к-рому значение ключа k не известно, может найти исходное сообщение, перебрав все возможные значения m(r) = T~*e, reK\ однако если число элементов множества К велико, то для проведения такой работы может потребоваться слишком много времени. КРИПТОГРАФИЯ 269
Одна из главных проблем при выборе способа шифрования состоит в том, что противник может использовать дополнительные данные о передаваемых открытых текстах или свойствах множества шифрующих отображений для того, чтобы вскрывать зашифрованные сообщения, не перебирая все множество ключей. Так, в упоминавшихся выше рассказах Э. По и А. Конан-Дойля их персонажи вместо перебора всех 26! « 4,03-10 подстановок на множестве 26 знаков латинского алфавита использовали дополнительную информацию о соотношениях между частотами разных букв в английском тексте, что позволило выявить символы, заменяющие наиболее частые буквы, а затем подбирать остальные элементы ключа так, чтобы при этом получались осмысленные куски текста. Строгие математич. утверждения, обосновывающие совершенную секретность, то есть невозможность вскрытия зашифрованной информации любым противником, состоят в описании условий, в рамках к-рых такое вскрытие невозможно. Условие такого типа, содержащееся в работе К. Шеннона [14], сформулировано в вероятностных терминах. Пусть на множестве М всех открытых текстов т и на множестве К ключей k заданы вероятностные распределения Рм и Рк, причем ключ не зависит от открытого текста. Отображение m^>Tkm = e порождает распределение Рн на множестве шифрованных текстов. Тогда необходимым и достаточным условием совершенной секретности является выполнение равенства Р{т|е) = Р{т) для всех теМ и ееЕ. (1) Иными словами, знание шифрованного текста е не должно давать противнику никакой дополнительной (по сравнению с распределением Рм) информации об открытом тексте т. Обозначим \S\ число элементов какого-либо множества 5. К. Шеннон показал, что необходимым условием для выполнения равенства (1) является соотношение \к\ ^ \м\ и что если это условие выполняется, то можно построить систему шифрования, удовлетворяющую условию (1). Таким образом, в совершенной системе шифрования число возможных ключей должно быть не меньше числа потенциально возможных сообщений, что фактически означает необходимость заблаговременной передачи получателю ключа, объем к-рого не меньше объема планируемой секретной переписки. Если объем секретной переписки очень велик, то это условие практически невыполнимо. Согласно теореме Шеннона, совершенное шифрование сообщения m = (w1, ..., mt), записанного знаками алфавита А = {0, 1, ..., а - 1}, можно осуществить с помощью реализации а=(а1, ..., at) последовательности независимых случайных величин, равномерно распределенных на А, по формуле е- (тх -Kx/modtf), ..., mt + oit (mod а)). Получатель, имеющий ту же реализацию а, что и отправитель, легко восстановит т по е, а противник, не знающий а и пробующий все возможные значения этой последовательности, получит все возможные комбинации t букв алфавита А (в том числе и т), но у него не будет оснований выделить т из множества всех остальных осмысленных комбинаций букв. Этот пример показывает, что для К. большое значение имеют две задачи: построение случайных последовательностей (или хотя бы псевдослучайных, к-рые трудно отличить от «настоящих» случайных последовательностей) и обнаружение отличия свойств наблюдаемых последовательностей от свойств случайных последовательностей (наличие таких отличий приводит к нарушению условия (1), что дает возможность получать те или иные сведения о зашифрованной информации). 270 КРИПТОГРАФИЯ Задачи второго типа являются типичными задачами теории вероятностей и математич. статистики; о задачах первого типа этого сказать нельзя. Классич. теория вероятностей изучает лишь различные свойства вероятностных мер, к-рые формулируются в терминах случайных величин. Теория вероятностей не дает конструктивных способов построения реализаций последовательностей независимых случайных величин; и вопрос о том, является ли конкретная последовательность а=(щ, ..., at)eAt реализацией последовательности независимых случайных величин, равномерно распределенных на Л, с вероятностной точки зрения не вполне корректен, поскольку каждая последовательность заданной длины может при проведении случайных равновероятных испытаний появляться с такой же вероятностью, как и любая другая. Задачи первого типа (возникавшие не только в связи с криптографич. применениями, но и, напр., в связи с задачей построения «типичного» действительного числа) стимулировали разработку различных определений понятия случайности: частотного (Р. Мизес [11], А. Черч [5]), сложностного (АН. Колмогоров [1]), количественного (П. Мартин-Леф); обзор этих подходов можно найти в [4]. Исследования определений случайности привели к естественному выводу, к-рый (нестрого говоря) состоит в том, что получить «случайную» последовательность детерминированными методами (напр., с помощью программы для ЭВМ) невозможно. Начиная с 70-х гг. интенсивно велись поиски способов, позволяющих обосновать возможность построения «псевдослучайных» последовательностей чисел, для к-рых можно строго доказать их практич. неотличимость от случайных последовательностей. В рамках теории сложности алгоритмов большой группой математиков и криптографов был разработан подход, сводящий задачу доказательства такой близости к задаче существования датчиков псевдослучайных битов (нулей и единиц), а последнюю - к задаче существования однонаправленных функций (то есть относительно просто вычисляемых функций, для к-рых вычисление «обратной» функции не может быть простым); описание этого подхода можно найти в [8]. При этом под датчиком псевдослучайных битов понимается последовательность {Fn} таких алгоритмов, что: (a) Fn по п начальным битам ft, ..., ft за t(n) = n операций строит последовательность Х(р,, ..., Р„) = {Х1, ..., XL} битов, где L = L(n) = noU\ (б) если ft, ..., ft, и У(«) = {У1, ..., У;)- последовательности независимых случайных битов, принимающих значения 0 и 1 с вероятностями 1/2, и статистика Qn: {0, 1} ->{0, 1} такова, что |Р{0„ШР, р„)) = П-Р{0„(П«)) = 1}|=8Ы, то C(Qrl)/b(n) >S(n), где C(Qn) - число операций, необходимое для вычисления функции Qn в наихудшем случае. Датчик, обладающий указанными свойствами, называется 5(«)-стойким. Аналогичные термины используются для определения 5(«)-секретной однонаправленной функции f, то есть последовательности функций /"„: {0, 1}"->{0, \}Ш\ 1(л) = л0(1), вычислимых за полиномиальное число операций, обладающей следующим свойством: если X" - случайный двоичный вектор, имеющий равномерное распределение на {0, 1}", и статистика Rn: {0, l}L(n) _> {0, 1}", вычисляемая в наихудшем случае за C(Rn) операций, такова, что P{/-„(Rn(/-„(Xn))) = /-„(Xn)} = 8(n), то C(Rn)/b(n) >S(n). Пока что ни для одной функции не доказано, что она является однонаправленной в нужном для К. смысле.
Практич. потребности в защите государственной, военной, деловой и т. п. информации обеспечиваются специальными устройствами - шифраторами, к-рые лишь приближенно соответствуют теоретич. принципам совершенного шифрования. Описание большого числа таких устройств можно найти, напр., в [10], [13]. Современные шифраторы делятся на два больших класса: потоковые и блочные. Потоковые шифраторы представляют собой конечные автоматы (детерминированные устройства с несколькими ячейками памяти и простыми процессорами), вырабатывающие последовательности знаков, к-рые используются вместо последовательности независимых равномерно распределенных случайных величин в описанной выше схеме Шеннона совершенного шифрования. Последовательность, вырабатываемая потоковым шифратором, однозначно определяется ключевыми параметрами, задающими начальные состояния ячеек памяти конечного автомата и выбор тех или иных вариантов работы процессоров; это позволяет отправителю и получателю, согласовавшими заранее значения ключевых параметров, вырабатывать одну и ту же последовательность а={а1> а2, ...}. Блочные шифраторы осуществляют взаимно однозначные отображения (подстановки) М ->М множества М блоков информации заданной длины (напр., по 64 или по 128 битов); такие подстановки на множестве М реализуются с помощью многократных итераций функций, зависящих как от преобразуемого блока информации, так и от ключа (определяющего структуру итерируемых функций). Примером блочного шифратора является шифратор DES (Data Encryption Standard), принятый правительством США в 1977 в качестве обязательного стандарта для деловой переписки, не содержащей государственных секретов. Он осуществляет взаимно однозначные отображения множества В ={0, 1} блоков информации по 64 бита в себя за 16 итераций сложной функции (включающей, кроме операций над отдельными битами шифруемого блока и ключа, функции Su .... 58: {0, 1}6->{0, I}4, заданные табличным образом). Количество двоичных ключевых параметров DES равно 56, так что общее число ключей есть 2 « 7,2-10 . Нахождение ключа по известным исходному и шифрованному блокам с помощью перебора всех ключей при уровне техники начала 90-х гг. требовало затраты порядка миллиона долларов на построение специального вычислительного устройства, к-рое должно было работать несколько лет. Такие затраты времени и средств для вскрытия обычной коммерч. переписки считаются чрезмерными (см. [10], [13]). Стандартная задача оценки качества шифраторов, как правило, сводится к оценке сложности нахождения ключа по известным открытому и шифрованному текстам. Ввиду сложной аналитич. структуры шифрующего отображения прямое решение системы нелинейных уравнений относительно элементов ключа, как правило, невозможно. Одной из других возможностей является использование вероятностных моделей шифрующих отображений, что позволяет свести нахождение элементов ключа к задаче различения большого числа статистич. гипотез (соответствующих конкретным наборам нескольких ключевых параметров); при этом реализации пар отрезков исходного и шифрованного текстов считаются независимыми случайными величинами. Пример такого подхода к анализу DES содержится в [9], где описан способ, позволяющий по 2 «9-10 парам исходных и шифрованных блоков находить ключ за число операций порядка 10 . Правильность этих оценок была подтверждена 50-дневным компьютерным экспериментом, однако практически такое количество информации о реальном шифраторе получить невозможно. Таким образом, статистич. методы позволяют сократить трудоемкость определения секретного ключа. Классич. схемы шифрования связаны с предварительной передачей секретного ключа, что можно осуществить, если число абонентов невелико. Потребности защиты обширной переписки между большим числом фирм и организаций привели к созданию качественно новых принципов шифрования. Схема шифрования с открытым ключом, предложенная в 1976 году У. Диффи и М. Хеллманом [6], состоит в построении семейства {Ее, е е К) шифрующих отображений и семейства {Dd, deK) дешифрующих отображений конечного множества сообщений М в себя, обладающих следующими свойствами: (а) для каждого ее К существует такое de К, что Ее и Dd - взаимно обратные отображения, (б) задача определения исходного случайного сообщения т е М по отображению Ее и шифрованному тексту с = Ее(т) вычислительно неразрешима за заданное время, (в) существуют относительно простые способы построения пар взаимно обратных отображений (Ее, Dd). Если такие семейства построены, то каждый абонент А может выработать пару взаимно обратных отображений (Ее, Dd), сообщить всем отображение Ее (открытый ключ), а значение d (секретный ключ) держать в секрете. Любой абонент В, чтобы передать абоненту А информацию т в виде, защищенном от посторонних, может воспользоваться отображением Ее и передать по общедоступному каналу связи с-Ее{т)\ абонент Л, знающий отображение Dd, сможет восстановить т по с, а посторонние, не знающие Dd и не имеющие возможности построить Dd по Ее, не смогут этого сделать. Свойство (б) означает фактически, что функция Е - однонаправленная. У. Диффи и М. Хеллман предложили использовать для построения систем шифрования с открытым ключом алгоритмически сложные задачи, удовлетворительные алгоритмы решения к-рых еще не построены. В настоящее время предложен ряд систем шифрования с открытым ключом, основанных на сложности решения задач типа разложения натуральных чисел на простые множители, вычисления квадратного корня в мультипликативной группе вычетов по составному модулю, дискретного логарифмирования (то есть решения сравнения вида a* = b (mod и), где п - достаточно большое натуральное число), аналогичных задач для эллиптич. кривых над конечными полями и нек-рых других (см., напр., [2], [7]). Проще всего описать систему шифрования RSA, предложенную К. Рабином, А. Шамиром и Л. Адлеманом [12]. Для построения пары взаимно обратных отображений абонент А должен построить два больших простых числа р и q примерно одного порядка (не менее 10 ), вычислить n = pq и функцию Эйлера <р(и) = (р- \)(q - 1); после этого выбрать такое натуральное число е е {2, 3, ..., <р(и) - 1}, что НОД (<?, <р(и)) = 1 и найти единственное решение d, \<d<q>(n), сравнения ed = 1 (mod <р(и)). В этом случае открытым ключом будет пара (и, е), а секретным - значение d. Чтобы зашифровать сообщение те{2, ..., п- 1}, нужно вычислить с = те (mod п). Согласно теореме Эйлера (яф = 1 (mod и), если НОД (а, п) = 1) имеет место сравнение т = с (mod и) (вероятность того, что НОД (w, я)>1, имеет порядок 0(р~] +q~]), если т имеет равномерное распределение на {0, 1, ..., п-\})\ таким образом, абонент А может расшифровать сообщение с, а посторонним для того, чтобы найти секретный ключ d, нужно или решить задачу восстановления d по п и е, к-рая, по-видимому, эквивалентна задаче разложения п на простые множители, или (если кроме с каким-либо образом стало известно сообщение т) решить сравнение с =т (mod п). Разработка и исследование систем шифрования с открытым ключом в последние десятилетия стимулировали интенсивное КРИПТОГРАФИЯ 271
развитие алгоритмич. и аналитич. вопросов теории чисел и алгебры. Практически все предложенные за это время алгоритмы факторизации чисел, дискретного логарифмирования и т. п. являются вероятностными, то есть используют датчики случайных чисел для получения большого объема информации, позволяющей составить алгоритмически решаемую систему уравнений относительно неизвестных параметров (напр., систему линейных уравнений относительно дискретных логарифмов первых простых чисел - в случае дискретного логарифмирования). Оценки числа операций в таких алгоритмах, как правило, используют эвристич. предположения о распределении тех или иных характеристик «случайных» числовых или алгебраич. объектов. Потребности коммерч. и финансовых организаций, а также электронных средств связи и хранения данных привели к разработке ряда новых направлений использования крипто- графич. методов: защите информации в компьютерных сетях, электронной подписи (способов дополнения документов, передаваемых по цифровым сетям связи, блоком информации, к-рый не допускал бы внесения изменений в документ и имел бы то же юридич. значение, как обычная подпись), идентификации пользователя (имеющей большое значение как при деловой переписке, так и при использовании электронных кредитных карточек), методов разделения секрета (напр., способов разделения информации между группой п лиц, не допускающих доступа к этой информации, если одновременно не соберется хотя бы k лиц из этой группы) и т. п. Практически все способы шифрования информации являются детерминированными и разрабатываются на основе глубоких результатов дискретной математики, теории чисел, алгебры, комбинаторики. Анализ же способов шифрования ввиду их сложности часто проводится с помощью вероятностных методов, применяемых к вероятностным моделям детерминированных криптографич. алгоритмов. Лит.: [1] Колмогоров А.Н., Теория информации и теория алгоритмов, М., 1987; [2] Саломаа А., Криптография с открытым ключом, пер. с англ., М., 1996; [3] Соболева Т. А., Тайнопись в истории России, М., 1994; [4] Успенский В. А., Семенов А. Л., ШеньА. X., «Успехи матем. наук», 1990, т. 45, в. 1, с. 105-62; [5] Church A., «Bull. Amer. Math. Soc.», 1940, v. 46, № 2, p. 130-35; [6] DiffieW., HellmanM.E., «IEEE Trans. Inform. Theory», 1976, v. 22, p. 644-54; [7) KoblitzN.,A Course in Number Theory and Cryptography, 2 ed., N. Y., 1994; [8] Luby M., Pseudoran- domness and Cryptographic Applications, Princeton, 1996; [9] Mat- sui M., Advances in Cryptology - CRYPTO'94, «Lect. Notes in Computer Science*, 1994, v. 839, p. 1 — 11; [10] Menezes A.J., Oor- schot P. C. van, Vanstone Scott A., Handbook of Applied Cryptography, New York - London - Tokyo, 1997; [11] MisesR. von, «Math. Z.», 1919, Bd 5. S. 52-89; [12] Rivest R. L., Shamir A., Adleman L.M., «Commun. ACM», 1978, v. 21, p. 120-26; [13] Schneier В., Applied Cryptography: Protocols, Algorithms and Source Code in C, 2 ed., N.Y., 1996; [14] Shannon C, «Bell System Techn. J.», 1949, v. 28, № 4, p. 656-715 (рус. перев.: Шеннон К., Работы по теории информации и кибернетике, М., 1963, с. 333-402). А. М. Зубков. КРИТЕРИЙ с татистический (statistical test) - см. Статистический критерий. Л-КРИТЕРИИ (Л-test) - см. Регрессионных экспериментов планирование. D-КРИТЕРИИ (D-test) - см. Регрессионных экспериментов планирование. ^-КРИТЕРИИ (E-test) - см. Регрессионных экспериментов планирование. FPf-КРИТЕРИЙ (FPE-test) - см. Наилучшего подмножества предикторов выбор. ЬС-КРИТЕРИИ (Lc-test) - см. Регрессионных экспериментов планирование. 272 КРИТЕРИЙ ^-КРИТЕРИЙ (£-test) - см. Стьюдента критерий. Г2-КРИТЕРИЙ (r2-test) - см. Хотеллинга критерий. X-КРИТЕРИЙ (X2-test/chi -square test) - см. Хи-квадрат критерий. (^-КРИТЕРИЙ (co2-test) - см. Крамера-Мизеса критерий. КРИТИЧЕСКАЯ ВЕРОЯТНОСТЬ (critical probability) - см. Просачивания процесс. КРИТИЧЕСКАЯ ОБЛАСТЬ (critical region) - измеримое подмножество S выборочного пространства (£, .*/), определяющее нерандомизированный критерий, к-рый отвергает (принимает) нулевую гипотезу, если результат наблюдений попадает в S (£\5); этому критерию соответствует кригич. функция - индикатор 5 (см. Статистических гипотез проверка). Д. М. Чибисов. КРИТИЧЕСКАЯ ТОЧКА (critical point) - точка в пространстве термодинамических параметров Гиббса распределения - температуры, внешнего поля и др., в к-рой корреляционные функции распределения неаналитичны, хотя и непрерывны, как функции термодинамич. параметров. В типичных случаях корреляционные функции имеют степенные особенности в К. т. Показатели степеней, входящих в эти особенности, называются критическими индексами. Распределение Гиббса в К. т. характеризуется сильной зависимостью случайных величин, проявляющейся в медленном убывании корреляционных функций на бесконечности. К. т. является обычно концевой точкой линии фазовых переходов 1-го рода. П. М. Блехср. КРИТИЧЕСКАЯ ФУНКЦИЯ (critical function) - измеримая функция ф, 0^<р^1, определенная на выборочном пространстве (£, ,j/). К. ф. задает статистический критерий, согласно к-рому гипотеза Я0 отвергается (принимается) с вероятностью ф(#)(1 -ф(#)), зависящей от результата наблюдений х е H. Д. М. Чибисов. КРИТИЧЕСКИЙ ВЕТВЯЩИЙСЯ ПРОЦЕСС (critical ban ching process) - процесс, занимающий промежуточное положение между докритическим и надкритическим ветвящимися процессами и характеризующийся рядом признаков, основным из к-рых является неэкспоненциальный рост среднего числа частиц в процессе с течением времени и отдаленность этого среднего от нуля. Пусть Z(t) - число частиц в ветвящемся процессе с одним типом частиц в момент t, если процесс начался в момент t = 0 с одной частицы нулевого возраста, а N - случайное число непосредственных потомков одной частицы. Такой процесс будет критическим, если EN = 1, DN>0. Для критич. процесса Гальтона - Ватсона и марковского ветвящегося процесса с непрерывным временем при DiV<°° выполнены соотношения lim tP{Z(t)>0} = 2(DNy\ (1) lim pJ Цй <*|Z(0>oj = l-6T*, x>0. (2) Равенства вида (1), (2), как правило, справедливы и для других моделей ветвящихся процессов. Однако возможен и иной характер поведения процесса при t—>°°. Так, если G(t) = P{x^t) - функция распределения длительности жизни т частицы в процессе Беллмана - Харриса, причем lim £2(l-G(O) = Ce(0, °°), t -><» то (см. [1]) lim E[sz(t)\Z(t)>0] = t-*oo EtW(Et)2+4C
и для любого х е (0, °°) Л z(t) <х\ Z(t)>0\ = р(1) + (1 - р(1))(1 - е~х). limP^ t->~ [E[Z(t)\Z(t)>0\ Пусть NtJ; i,j=\, 2, ..., k,- число непосредственных потомков типа /, производимых частицей типа г ветвящегося процесса с k типами частиц, М= \\ЕЫг.\\г,= х. Такой процесс будет критическим, если перронов корень матрицы М равен 1 и в процессе нет финальных классов. Для критич. апериодич. ветвящихся процессов с несколькими типами частиц справед- 2 ливы аналоги соотношений (1), (2). Так, если D[^.. Ni,• ] <°° для процесса Гальтона - Ватсона с k типами частиц, то распределение вектора ZXU) ZAt) >0]J lvE[Z,(t)\ZXU)+...+Zk(t)>0] " " E[Zk{i)\Zx(t)+...+Zk(t) при условии Zt(0 + ... +Zk(t)>0 сходится при t->°° к распределению случайного вектора (W, W, ..., W), где P{U/:^x} = 1 -е~ х, х>0, а величина Б определяется моментами ENij и ENijNlk. См. также Ветвящийся процесс с зависимостью от возраста, Неразложимый ветвящийся процесс, Разложимый ветвящийся процесс. Лит.: [1| Ватутин В. А., «Матем. сб.», 1979, т. 109, № 3, с. 410-52; [2] Севастьянов Б. А., Ветвящиеся процессы, М., 1971; [3J Коваленко И. П., Кузнецов Н. Ю., Шуренков В. М., Случайные процессы. Справочник, К., 1983. В. А. Ватутин. КРИТИЧЕСКИЙ ИНДЕКС (critical exponent) - показатель степени, характеризующий особенность корреляционной функции гиббеовского поля в критической точке как функции температуры, химического потенциала и других термодинамических параметров. К. и. обладают двумя замечательными свойствами: во-первых, они универсальны, то есть зависят только от общих характеристик распределения Гиббса - размерности и группы симметрии, во-вторых, они связаны системой универсальных линейных соотношений - так наз. скей- линговых соотношений, позволяющих выразить все К. и. через любые два из них. Достаточно общая математич. теория, оправдывающая эти утверждения, пока еще не создана. К. и. вычислены точно для небольшого числа моделей статистич. физики: двумерной Изинга модели, сферич. модели, иерархич. модели Дайсона и нек-рых других. Доказан также ряд неравенств для К. и. /7. М. Блехер. КРИТИЧЕСКИЙ УРОВЕНЬ, ^-значение, наблюдаемый размер (critical level/actually attained level//?-va- lue),- статистика, представляющая собой размер наименьшей критической области (из заданного монотонного семейства критических областей), содержащей результат наблюдений х. Если гипотеза Я0:6 е 0О отвергается при больших значениях статистики Т, то К. у. равен a(*) = sup PQ{T^T(x)}. 9б0о При этом #0 отвергается критерием размера а, когда d(x) ^ a, а если критерий нерандомизированный, то Я0 принимается, когда a(x)>a. К. у. рассматривается как показатель того, насколько результаты наблюдений подтверждают или опровергают (при малых а) гипотезу Я0. д м цибисов, КРИТИЧЕСКОЕ ЗНАЧЕНИЕ (critical value) - константа С, определяющая вместе со статистикой критерия Т нерандомизированный критерий, к-рый отвергает нулевую гипотезу Я0, когда Т^С (верхнее критическое значение) или Г^С (нижнее критическое значение). При заданном уровне значимости а за (верхнее) К. з. принимается наименьшее число С, удовлетворяющее условию Р{Т^С}^а при всех Р е Я0. Для практич. применения критериев составляются таблицы К. з. Если распределение Т не зависит от Р е Я0, то К. з. определяются его квантилями (к-рые в данном контексте называются также процентными точками в связи с обыкновением выражать а в процентах). См. Статистических гипотез проверка. Д. М. Чибисов. КРОСС-ПЕРИОДОГРАММА (cross-periodogram) - см. Периодограмма. КРОСС-СПЕКТРАЛЬНАЯ ПЛОТНОСТЬ (cross spectral density) - см. Спектральная плотность стационарного случайного процесса. КРУГОВОЙ ЗАКОН (circular law) - предельный закон для нормированных спектральных функций случайных матриц с независимыми элементами. Пусть для каждого значения п случайные элементы ^;, i, j= l, ..., п, комплексной матрицы Нп= \\^уП~^2\\ порядка п независимы, Е^; = 0, Е|^;|2 = а2, 0<а<°°, и у величин Re^;, Im^y существуют плотности распределения рЛх) и qAx), удовлетворяющие условию: для нек-рого р > 1 sup sup I \p*Xx) + qrXx)\dx<°o1 n i,j=\,...,nJ l J J J для нек-рого 8 > 0 sup sup E|^|2+6<~. n i,j = \,...,n Тогда для любых х и у имеет место круговой закон: р lim vn(x, y) = \(x, у), где d2v(x,y) _ fa 2к 1 при*2 +у2<о2, 0 дхду при х + у Xk - собственные значения матрицы Нп, F(y) = 1 при у<0, F(y) = 0 при у^О. Лит.: [1] Гирко В. Л., «Теория вероятн. и ее иримен.», 1984, т. 29, в. 4, с. 669-79. В. Л. Гирко. КРУТОГО ВОСХОЖДЕНИЯ МЕТОД (steepest ascent) - см. Экстремальных экспериментов планирование. КРЫЛОВА ОЦЕНКИ РАСПРЕДЕЛЕНИЯ (Krylov distribution estimates) - см. Стохастический интеграл', оценки распределения. КУБО - АНДЕРСОНА ПРОЦЕСС (Kubo - Anderson pro cess) - см. Точечный случайный процесс с присоединенными случайными величинами. КУЛЬБАКА УКЛОНЕНИЕ (Kullback information) - см. Последовательное планирование эксперимента. КУЛЬБАКА - ЛЕЙБЛЕРА ИНФОРМАЦИОННОЕ КОЛИЧЕСТВО (Kullback - Leibler information), относительная энтропия, информационное количество,- информационная мера различия между двумя вероятностными распределениями Р и Q, где Р абсолютно непрерывно относительно Q на пространстве С1 исходов со: /(Р Q)=f Г^- JQ L dQ (со)1п-^(со)Ъ(<Ы. dQ J Впервые рассмотрено в [1J. К.- Л. и. к. всегда неотрицательно (но может быть бесконечным) и, как правило, ЯР, Q)*/(Q, P). Далее, ЯР, Q) = 0 тогда и только тогда, когда P = Q; ЯР, Q)^p(P, Q), где р(Р, Q) - Хеллингера расстояние между Р и Q. КУЛЬБАКА 273
Если Р = Р1хР2, Q = Qj x Q2 (что соответствует распределениям независимых наблюдений), то ЯР, Q) = I(P\, Qj) + + /(Р2, Ог)- Если {Р0} есть параметрич. семейство, беИ?, Р = Р0, Q = Ре+д, то при широких условиях д->0 А2 2 где /(в) - информация по Фишеру. Другие свойства К.-Л. и. к. см. в [4], [5]. К.- Л. и. к. играет важную роль при описании вероятностей больших уклонений в математич. статистике, в частности при описании больших уклонений для эмпирич. функции распределения. Используется также в задачах последовательного анализа и планирования экспериментов. Лит.: [1] Ки 11 back S., Lei bier R. A., «Ann. Math. Statist.», 1951, v. 22, № 1, p. 79-86; [2) Кульбак С, Теория информации и статистика, пер. с англ., М., 1967; [3] Ченцов Н.Н., Статистические решающие правила и оптимальные выводы, М., 1972; [4] Б урна ше в М. В., «Изв. АН СССР. Сер. матем.», 1979, т. 43, № 6, с. 1203-26; [5] Боровков А. А., Математическая статистика, М., 1984. М. В. Бурнашев. КУЛЬБАКА-ЛЕЙБЛЕРА ИНФОРМАЦИОННОЕ РАССТОЯНИЕ (Kullback-Leibler information) - см. Большие уклонения для эмпирической функции распределения. КУЛЬБАКА - ЛЕЙБЛЕРА РАСХОДИМОСТЬ (Kullback - Leibler divergency) - см. Информационная мера. КУЛЬБАКА - ЛЕЙБЛЕРА - САНОВА ИНФОРМАЦИОННОЕ УКЛОНЕНИЕ (Kullback - Leibler - Sanov information) - см. Относительная энтропия. КУМУЛЯНТ (cumulant) - см. Семиинвариант. КУМУЛЯНТА (cumulant) - см. Случайный процесс с независимыми приращениями. КУМУЛЯТИВНАЯ СПЕКТРАЛЬНАЯ ПЛОТНОСТЬ (cumulative spectral density) - см. Спектральный семиинвариант. КУМУЛЯТИВНАЯ СПЕКТРАЛЬНАЯ ФУНКЦИЯ (cumu- lative spectral function) - см. Спектральный семиинвариант. КУМУЛЯТИВНЫЙ СПЕКТР (cumulative spectrum) - см. Спектральный семиинвариант. КУНИТЫ - ВАТАНАБЭ НЕРАВЕНСТВА (Kunita - Wata nabe inequality) - неравенства для квадратично интегрируемых мартингалов X, Y и измеримых случайных функций Н, К, утверждающие, что почти наверное fo\H\\K\\d(X,Y)\< *$H2d(X,X)J ^K2d(Y,Y)J, (1) jTo\H\\K\\d[X,Y]\< =£(jo tf24X, X]J ^oK2d[Y,Y]J , (2) где Т - момент остановки, (X, X), (Y, Y) - такие возрастающие предсказуемые процессы, что X -(X, X), У - (У, У) - мартингалы (X, У> = -у «Х+У, Х+У>-(Х, Х>-(У, У», [X,X]t = (Xc, *'>, + !< (AXS)2, [x, Y]t = (xc, yV£s!S((Axs)№. Неравенство (2) справедливо и для локальных мартингалов. Впервые К. - В. н. вида (1) со знаком математич. ожидания 274 КУЛЬБАКА перед Всеми интегралами доказано в [1]. Неравенства (1), (2) установлены в [2]. К.- В. н. справедливы и для опциональных мартингалов. Лит.: [1] Kunita H., Watanabe S., «Nagoya Math. J.», 1967, v. 30, p. 209-45; [2] Meyer P. A., «Lect. Notes in Math.», 1976, № 511, p. 246-400. Д. И. Гальчук. КУСОЧНО ЛИНЕЙНЫЙ АГРЕГАТ (piecewise linear aggre gate) - см. Кусочно линейный процесс. КУСОЧНО ЛИНЕЙНЫЙ ПРОЦЕСС (piecewise linear pro cess) - термин, под к-рым понимается несколько разновидностей однородного марковского процесса X(t) со следующими общими чертами. Процесс Х(0 имеет вид X(0 = (v(0; ^(0,^(0, ...,1U(0), где v(0 - процесс с конечным или счетным множеством возможных значений [v(0 - основная компонента процесса X(t)], £,-(£) - числовые компоненты, изменяющиеся по кусочно линейному закону, k= |v(0l [ранг состояния v(0] - переменная целочисленная величина. Скачки процесса Х(0 происходят либо спонтанным образом, либо в момент достижения вектором дополнительных компонент (^(0, ..., £^(0) границы нек-рого многогранника в соответствующем пространстве. Наиболее распространенная разновидность К. л. п. характеризуется тем, что £•(£) ^Ои при v(0 = i имеют место равенства £.-(0= "«у-, где Щ: - неотрицательные постоянные. В этом случае £.•(£) интерпретируется как величина работы от момента t до окончания нек-рой операции, (Х;у - как темп выполнения данной операции. Скачки такого процесса происходят либо спонтанным образом с интенсивностью, определяемой текущим состоянием v(0, либо в момент достижения какой-либо дополнительной компонентой значения 0. К. л. п. был введен как обобщенная модель обслуживания систем и положен в основу моделирования систем обслуживания; были исследованы свойства устойчивости К. л. п. Ввиду громоздкости прямого описания систем обслуживания с помощью К. л. п. предпочтительнее использовать подход кусочно линейных агрегатов, позволяющих описывать систему по частям и затем объединять их по формальным правилам. Кусочно линейный агрегат - это случайный преобразователь, воспринимающий сигналы извне и в интервалах между ними ведущий себя как К. л. п. Кусочно линейный агрегат вырабатывает также выходные сигналы, определяв мые упомянутым К. л. п. (его состоянием). Если в системе, состоящей из кусочно линейных агрегатов, сигналы передаются только от одних агрегатов к другим, но не поступают извне системы, то такая система описывается К. л. п. При интерпретации систем обслуживания входные и выходные сигналы агрегатов связаны с поступлением и окончанием обслуживания требований. Лит.: [1] Бусленко Н.П., Калашников В. В., Коваленко И. Н., Лекции по теории сложных систем, М., 1973; [2] Калашников В. В., Качественный анализ поведения сложных систем методом пробных функций, М., 1978; [3] Аврамч у к Е. Ф. [и др.Ь Технология системного моделирования, М. - Берлин, 1988. ц. //. Коваленко. КЭМПБЕЛЛА МЕРА (Campbell measure) - числовая характеристика случайного точечного процесса, обобщающая мо- ментную меру точечного процесса. Пусть Ф(.) = У Ф(М)8в(.) - реализация случайного точечного процесса Ф на прямой, 5Ф = {а:Ф({а}) >0}с II? , где 8fl() - единичная мера, сосредоточенная в точке а. Рассматривается новый случайный точечный процесс, реализации к-рого имеют вид фЛ(-)=1в£5фф({а})5«а*<»()-
Процесс Фл можно понимать как маркированный точечный процесс на IR1, у к-рого в каждой точке а е 5Ф в качестве метки рассматривается вся реализация Ф(). Процесс Ф определен на ограниченных подмножествах а-алгебры $СА = ЛАПЯЗх Ш, где ЛА={(а, ф(-)):веВ?1, <р()еМ, д е 5ф} с И?1 х ЗК, » есть а-алгебра борелевских множеств на II? , М - множество локально ограниченных считающих мер ф( •) на (И? , 83), ЗК есть а-алгебра подмножеств в А/, порожденная подмножествами {<р():<р(Я) = /г, ВеЩаМ. Пусть случайный точечный процесс Ф определяется распределением вероятностей Р на (М, Ш), Ер - символ математич. ожидания по распределению Р. Мера Кэмпбелла СР() есть моментная мера процесса Ф , то есть для любого К е $С величина СР(К) равна среднему числу точек процесса Ф , находящихся в подмножестве К. Если К = ААГ\ВхМ, то Ср(К) = ЕрФ(В), то есть Ср(/С) равно среднему числу точек исходного случайного точечного процесса Ф, попавших в К. Для любой неотрицательной $С -измеримой функции Дс), с=(д, Ф)еЛА, ЕР jK /"(c)OWe) = J /■(c)Cp(rfc), что является обобщением Кэмпбелла теоремы. Понятие К. м. обобщается на маркированные точечные процессы, у к-рых фазовое пространство состояний является полным сепарабельным метрич. пространством. Лит.: [1] Керстан Й., Маттес К., Мекке Й., Безгранично делимые точечные процессы, пер. с англ., М., 1982. Ю. К. Беляев. КЭМПБЕЛЛА ТЕОРЕМА (Campbell theorem) - теорема, определяющая среднее значение стохастического интеграла по реализации случайного точечного процесса. Пусть Л() - моментная мера случайного точечного процесса Ф, Л(#)<°° для ограниченных измеримых множеств В фазового пространства (А, $С0) состояний процесса Ф. Тогда для любой $С-изме- римой неотрицательной функции f(a), aeA, Be$t, Е\ f(a)<b(da) = ]Bf(a)\{da). См. также Дробового шума процесс. Лит.: [11 Керстан Й., Маттес К., Мекке Й., Безгранично делимые точечные процессы, пер. с англ., М., 1982. Ю. К. Беляев.
ЛАГ (lag) - см. Задержка. ЛАГОВ РАСПРЕДЕЛЕННЫХ МОДЕЛЬ (distributed lags model) - см. Распределенных запаздываний модель. ЛАНЖЕВЕНА УРАВНЕНИЕ (Langevin equation) - дифференциальное уравнение, в к-рое входит случайная быстро флуктуирующая функция времени. Рассматривая движение взвешенной частицы массы т в жидкости, П. Ланжевен [1] предполагал, что на нее действуют две силы: 1) сила торможения за счет вязкого трения, к-рая при допущении, что применим результат макроскопич. гидродина- dx мики, равна -бтшг) —, где x(t) - положение частицы, t - время, Т| - вязкость, а - диаметр частицы, предполагаемой сферической; 2) флуктуационная сила X(t), обусловленная постоянными точками со стороны молекул жидкости, к-рая с равной вероятностью может быть положительной и отрицательной. Согласно закону Ньютона, dt2 dt Уравнение (*) (уравнение Ланжевен а)- первый пример стохастич. дифференциального уравнения. Умножая (*) на x(t), учитывая, что согласно статистич. механике, 2 dt2 2 (Т - абсолютная температура, k - постоянная Больцмана), и считая, что EX(t)x(t)=0 из-за «нерегулярности величины Х(0», П. Ланжевен нашел Ex (t): ±Ex4t) = ^^- _„ ,_, - + Сехр\-6каг\—>, С = const dt 3m\a v \ m J Спустя 40 лет К. Ито (К. ltd) дал строгую концепцию стохастич. дифференциальных уравнений. Л. у.- линейное [для -jA стохастич. дифференциальное уравнение типа dY(t)= -yY(t)dt + dw(t), где w(t) - стандартный винеровский процесс. Решение этого уравнения известно как процесс Орнштейна-Улен- бека: Y(t) = e-V(У(0) + £ eVdwlsA Ковариация процесса У(0 равна EY(t)Y(s) = (о2* \/2y)e-yU+s) + e-y(t~s)/2r t>s, в предположении, что 7(0) имеет гауссовское распределение с параметрами (0, а2). Лит.: [1] Langevin Р., «С. г. Acad, sci.», 1908, t. 146, p. 530-33 (рус. пер. - Ланжевен П., Избранные труды, М., 1960, с. 338-41); [2] Гар д и н ер К. В., Стохастические методы в естественных науках, пер. с англ., М., 1986; [3] Ватанабэ С, Икэда Н., Стохастические дифференциальные уравнения и диффузионные процессы, пер. с англ., М., 1986. С. Я. Махно. 276 ЛАГ ЛАПЛАСА МЕТОД (Laplace method) - совокупность приемов вывода асимптотических формул для интегралов типа Г6 I Ft(x)dx при £-><», когда основной вклад в асимптотику дает лишь малая окрестность точки максимума подинтеграль- ной функции. Применение Л.м. сводится к исследованию подинтегральной функции в окрестности точки максимума и к оценке интеграла по дополнению к этой окрестности. Примеры асимптотич. разложений (см. [1)): 1) если <р(х) - аналитич. функция, регулярная в точках отрезка (-а, а), 2) если ц>(х) - аналитич. функция, регулярная в точках полуинтервала (0, а], и <p(#) = ха(а0 + а^х+ ...) в правой окрестности х = 0, где а > - 1, то JO т *-*п=\ tn + a и-1 Для использования Л.м. необходимо располагать довольно детальной информацией о свойствах подинтегральных функций. Л.м. является составной частью метода характеристич. функций; он применяется, напр., при доказательстве предельных теорем для сумм независимых случайных величин. Лит.: [1] Евграфов М.А., Асимптотические оценки и целые функции, 3 изд., М., 1979. А. М. Зубков. ЛАПЛАСА РАСПРЕДЕЛЕНИЕ (Laplace distribution) - то же, что двустороннее показательное распределение. Впервые было введено П. Лапласом [1] и часто называется «первым законом распределения Лапласа», в отличие от «второго закона распределения Лапласа», как иногда называют нормальное распределение. Лит.: [1] Laplace P., Theorie analvtique des probabilites, P., 1812. * А. В. Прохоров. ЛАПЛАСА ТЕОРЕМА (Laplace theorem) - теорема об аппроксимации биномиального распределения нормальным распределением; первый вариант центральной предельной теоремы теории вероятностей. Доказана П. Лапласом (1812) независимо от А. Муавра (A. Moivre, 1730). Формулировку и историю вопроса см. в ст. Муавра - Лапласа теорема. в. И. Битюцков. ЛАПЛАСА - ГАУССА РАСПРЕДЕЛЕНИЕ (Laplace - Gauss distribution) - см. Гаусса - Лапласа распределение. . ЛАТИНСКИЙ КВАДРАТ (Latin square) - квадратная матрица порядка п, каждая строка и каждый столбец к-рой являются перестановкой элементов конечного множества 5, состоящего из п элементов. Говорят, что Л. к. построен на множестве 5; обычно 5 = {1, 2, ..., п). Л. к. существует для любого п; напр., А = Щ;||, где a^^i+j- Kmod n), i, /= 1, 2, ..., п, есть Л. к. По двум Л. к. А= \\akl\\ порядка п и В= \\brs\\ порядка т можно всегда построить Л. к. C=||ci;-f порядка тп, напр., следующим образом: Сц = brs + (akl - 1 )w, i = r+m(k-\), j = s + m(l-\). Для числа Ln Л. к. порядка п верна оценка снизу: 1я^л!(л-1)!...2!1!.
Л. к. называется редуцированным (или Л. к. стандартного вида), если элементы его первой строки и первого столбца расположены в натуральном порядке. Для числа Ьп редуцированных Л. к. порядка я верны соотношения 1я = я!0|-1)!/я, /я^1ия = (л-2)!(л-3)!...2!1!. Дна Л. к., построенные на одном и том же множестве S} называются эквивалентными, если один из другого получается перестановкой строк, столбцов и переименованием элементов. Пусть kn - число классов эквивалентности Л. к. порядка я. Известны следующие первые значения /„, kn и тп: п к с тп 3 1 1 1 4 2 4 2 5 2 56 12 6 22 9408 288 7 563 16942080 34560 8 1676257 535281401856 24883200 Кроме того, /9 = 377 597 570 964 258816. Задача получения оценок для /„ остается нерешенной. В теории планирования экспериментов требуется строить Л. к с различными ограничениями на расположения элементов в них. Л. к. называется полным, если для любых натуральных а, р, а*р, 1 ^а, р^ и, существуют такие i, /, /г, /, что Цу, ef)y+1) = (a, P) и (аы, ak+il) = (a, P). Известны алгоритмы построения полных Л. к. только в случаях четных я, для нек-рых нечетных п имеются примеры полных Л. к. Латинским подквадратом данного Л. к. порядка п называется такая его подматрица, что она сама является Л. к. порядка k} k<n. Любой Л. к. порядка k может быть латинским подквадратом Л. к. порядка п при n^2k. Два Л. к. Л=||я;у|| и #=||Ь;у|| порядка п таких, что (а-ф Ьф ф (akl, bkl) при (i, j) ф (fc, /), i, /, /г, / е 5", называются ортогональными латинскими квадратами. При построении ортогональных Л. к. существенную роль играет понятие трансверсали Л. к. Частичной трансвер- салью длины t Л. к. А = \\а(А\ называется такое множество 7\ состоящее из t клеток Л. к. T = {(ivj\), (i2,j2)> •••> 0"*.Л». что ikфхь jkФ)ь а{ },*в{ j. при kф/, 1 ^/г, /^t. Всегда t^и; при t = п частичная трансверсаль называется трансвер- салью. Существование в Л. к. порядка п множества из п непересекающихся трансверсалей является необходимым и достаточным условием существования для него ортогонального соквадрата. Л. к. 6-го порядка 012 120 201 345 453 534 345 453 534 012 120 201 не имеет ни одной трансверсали. В любом Л. к. порядка и^7 существует по крайней мере одна частичная трансверсаль длины t^(2n + l)/3. При я^4 всегда можно построить Л. к. такой, что обе его главные диагонали являются трансверсалями. Несколько обобщений Л. к. Частичным, или неполным, Л. к. порядка п называется матрица порядка я, у к-рой только часть клеток заполнена элементами множества S мощности и, но в каждой строке и в каждом столбце элементы S встречаются не более одного раза. Существуют частичные Л. к., к-рые нельзя дополнить до Л. к., напр.: 1 . . . .234 Неполный Л. к., содержащий точно п- 1 элементов, может быть дополнен до Л. к. Известно, что две таблицы Кэли двух разных групп порядка п отличаются друг от друга по крайней мере на 2п местах. Бесконечным Л. к. называется бесконечная матрица, элементы к-рой - натуральные числа, встречающиеся в каждой строке и в каждом столбце точно один раз. Имеется несколько обобщений понятия Л. к. на многомерный случай (см. Латинский куб, Ортогональные кубы). Лит.: [1] Сачков В. Н., Комбинаторные методы дискретной математики, М., 1977; [2] Denes J., К ее dwell A. D., Latin squares and their applications, Bdpst, 1974; [3] Холл М., Комбинаторика, пер. с англ., М., 1970; [4] Райзер Г.-Дж., Комбинаторная математика, пер. с англ., М., 1966. в. М. Михеев. ЛАТИНСКИЙ КУБ (Latin cube) первого порядка размера s - трехмерная матрица порядка s > 1, заполненная s различными символами и такая, что в любом из 3s ее двумерных сечений каждый символ встречается ровно s раз. Л. к. второго порядка размера s - трехмерная матрица порядка s, заполненная s различными символами и такая, что в любом из 35 ее двумерных сечений каждый символ встречается ровно один раз. Л. к. первого (второго) порядка размера s соответствует план четырехфакторного эксперимента, предназначенный для проведения s измерений, в к-ром первые три фактора принимают значения на s уровнях, а четвертый - на s или s уровнях в зависимости от порядка Л. к. Такое соответствие получается, если в (i, /, /г)-м измерении первый фактор зафиксировать на г-м уровне, второй - на /-м, третий - на /г-м, а четвертый - на уровне, определяемом символом, находящимся на (i, /, k)-M месте Л. к. В планировании эксперимента используют также ортогональные Л. к. (см. Ортогональные кубы). Лит.: [1] Маркова Е. В., Лисенков А. Н., Комбинаторные планы в задачах многофакторного эксперимента, М., 1979. В. 3. Бродский. ЛАТИНСКИЙ ПОДКВАДРАТ (Latin subsquare) - см Латинский квадрат. ЛАТИНСКИЙ ПРЯМОУГОЛЬНИК (Latin rectangle) - прямоугольная матрица размера тихи, т^п, каждая строка к-рой является перестановкой (без повторений) элементов множества 5\ состоящего из п элементов, причем в столбцах каждый элемент встречается не более одного раза. При т = п Л. п. является латинским квадратом порядка п. Обычно 5=0, 2, ..., и), и о Л. п. говорят, что он построен на множестве S. Л. п. существует при любых натуральных w, я, т^п. Примером Л. п. может служить матрица, первая строка к-рой есть (1, 2, ..., «), а все последующие получаются из предыдущей циклич. сдвигом на один шаг. Л. п. размера тих я, т<п} всегда может быть дополнен до латинского квадрата порядка п так, что первые т строк латинского квадрата будут совпадать со строками Л. п. Для числа L(w, n) Л. п. размера тхп верна следующая оценка снизу: L(w, п)^пКп-\)\...(п-т+\)\. Л. п. называется нормализованным, если его первая строка есть (1, 2, ..., п). Число К(т} п) нормализованных Л. п. связано с L(w, n) соотношением L(m} n) = n\K(m} п). Подсчет L(w, п) при т = 2, 3 связан с классич. комбинаторными задачами: о числе беспорядков и о супружеских парах. Так, число беспорядков Dn = K(2} я), а число размещений Un ЛАТИНСКИЙ 277
в задаче о супружеских парах есть число Л. п. размера Зх п, первые две строки к-рых суть (12 3... п\ [п\2...п-\]. Для Un верны формулы ".-E-.<-»'^(i7L)<-*H Un~nle-^--L 1 ' 2!(и-1)2 '" *!( (m)k = m(m-\)...(m-k+ 1). Число К(3, п) выражается через Dk и Uf. где т = [п/2], С/0 = 1. Верна также следующая асимптотика: 1 . bs К(3,пНп\)2е-3(\-±- 2!(«Ь :!(«), где bs = Hs(- 1/2), Hs(t) - многочлен Эрмита. Известно также, что K(3,r + s) = 2rK(3, s)(mod г). Задача о перечислении Л. п., имеющих более трех строк, не решена. При т<п' ~ , где Ь = Ь(п)^> + 0 так, что п~ ->0, получена асимптотика: Urn, «)~(«!)M ехр{--^р!Ц. На Л. п. распространяются нек-рые понятия и теоремы, связанные с латинскими квадратами. Так, два Л. п. \\а{\\ и ||Ъц|| размера тхп называются ортогональными, если все пары вида (я; , Ь-) различны. Множество Л. п., в к-ром любые два Л. п. ортогональны, имеет не более т- 1 Л. п. Часто под Л. п. понимают следующее обобщение Л. п.: латинским прямоугольником размера rxs, построенным на множестве S, состоящем из п элементов, называется матрица размера rxs с элементами из S, встречающимися в каждой строке и каждом столбце не более одного раза. Л. п. размера rxs, построенный на п символах, может быть расширен до латинского квадрата порядка п тогда и только тогда, когда каждый символ встречается в Л. п. не менее r + s-n раз. Лит.: [1]Риордан Дж., Введение в комбинаторный анализ, пер. с англ., М., 1963. См. также лит. при ст. Латинский квадрат. В. М. Михеев. ЛЕБЕГА МЕРА (Lebesgue measure) - см. Мера. ЛЕБЕГА РАЗЛОЖЕНИЕ (Lebesgue decomposition) функции распределения F - традиционно используемое в теории вероятностей представление F в виде линейной комбинации трех распределения функций: F = p]F]+p2F2+p3F3, (*) где Pi^O, р\ +Р2 + Рз= * ~ постоянные, a F- - функции распределения. При этом Fj - дискретная (то есть носитель меры supp Fj функции Fj - не более чем счетное множество), F2- сингулярная (то есть supp F2 - несчетное множество, имеющее нулевую меру Лебега),F3- абсолютно непрерывная (то есть F3 обладает плотностью распределения) функции распределения. Разложение (*) каждой функции F единственно. В теории меры сингулярными принято называть линейные комбинации P\F\+p2F2. Вместо меры Лебега при построении разложения (*) можно использовать другие меры на 278 ЛЕБЕГА прямой (см. [1], с. 169). Разложение (*) вытекает из общей теоремы Лебега о разложении мер (см. [2], с. 134). Аналоги разложения (*) имеются и для вероятностных распределений на пространствах различной природы (евклидовых, гильбертовых, банаховых и т. д.). Лит.: [1) Феллер В., Введение в теорию вероятностей и ее приложения, пер. с англ., т. 2, М., 1984; [2] Халмош П., Теория меры, пер. с англ., М., 1953. В. М. Круглое. ЛЕБЕГА ТЕОРЕМА (Lebesgue theorem) - см. Борелевская функция. ЛЕБОВИЦА НЕРАВЕНСТВО (Lebowitz inequality) - см. Корреляционные неравенства. ЛЕВЕНБЕРГА-МАРКВАРДТА МЕТОД (Levenberg-Маг- quardt method/algorithm) - один из наиболее распространенных в вычислительной практике методов оценивания параметров в нелинейных моделях измерений на основе наименьших квадратов метода. Пусть «-мерный вектор измерений У =(у\, ..., уп) связан с ^-мерным вектором неизвестных, но вполне определенных параметров в = (6t, ..., 6р) соотношением y = F(6) + e, где F- известное дифференцируемое отображение IR^->IP", е - вектор независимых случайных ошибок измерений координатных функций /i(6) отображения F. Пусть приближение 0 известно; раскладывая функцию регрессии F в окрестности 0 в ряд Тейлора до линейных членов, получают линеа- грессию ризованную регрессию Y = F(0a)) + P*(e-0a)),/W- lae^W (О Применяя метод наименьших квадратов к линеаризованной регрессии (1), находят следующее значение оценки 0: 6(k*» = 6(k) + (pTpS* PTk(Y-F(6(k))). (2) Полученную рекуррентную процедуру часто называют методом Гаусса-Ньютона. Исследуются (см. [1], [2]) условия ее сходимости и выбор начального приближения; наибольшие вычислительные трудности при этом связаны с возможной плохой обусловленностью матрицы P^k- Моди- фикация метода состоит в замене этой матрицы под знаком обращения в (2) матрицей (PTkPk +III) (см. [3]) или матрицей (nT+*WA). Dk =diag{p?Pk), с последующим управлением параметром регуляризации [ik (см. [4]). Обычно выбирают (х^«0,01, а затем постепенно уменьшают \ik до нуля. Более сложные схемы управления параметром iik приведены в [3], [4]. Основная идея .тгого метода родственна идеям хребтовой регрессии и Джеймса - Стейна оценок. Лит.: [1] Дем иденко Е. 3., Линейная и нелинейная регрессии, М., 1981; [2] Бард Й., Нелинейное оценивание параметров, пер. с англ., М., 1979; [3] Дем иденко Е.З., Нелинейная регрессия, зкн.: Математические методы решения экономических задач, сб. 7, М., 1977; [4] Marquardt D. W., «J. Soc. Industr. Appl. Math.», 1963, v. 11, p. 431-44; [51 Levenberg K., «Quarterly Appl. Math.», 1944, v. 2, p. 164-68; [6] Дем иденко E. 3., Оптимизация и регрессия, М., 1989. А. В. Макшанов. ЛЕВИ КАНОНИЧЕСКОЕ ПРЕДСТАВЛЕНИЕ (Levy canonical representation) - найденное П. Леви (см. [1]) явное выражение характеристических функций ДО безгранично делимых распределений: ' Их 4 itx fit) = exp Каждому безгранично делимому распределению в этой формуле соответствуют свои значения ye IR , с ^0и спектральная функция Леви Н(х), к-рая обладает свойствами:
1) не убывает на полуосях х < О, х > 0; 2) стремится к нулю при Ы ->°о; 3) jx2dH(x)<oo, 0<x2^\. Иногда функцию Н рассматривают как совокупность двух функций М(х) = Н(х), х<0, и N(x) = H(x), x>0, равных нулю на дополнительных полуосях. При этом Н = М + N. Аналоги Л. к. п. имеются для безгранично делимых распределений и в пространствах более общей природы (евклидовых, гильбертовых и т.д.). См. также Леви - Хинчина каноническое представление. Лит.: [1] Levy P., «Ann. scuola norm. sup. Pisa», ser. 2, 1934, v. 3, p. 337-66; [2] Колмогоров А.Н., ГнеденкоБ.В., Предельные теоремы для сумм независимых случайных величин, М.- Л., 1949; [3] ParthasarathyK. R., Probability measures on metric spaces, N. Y.- L, 1967. В. M. Золотарев. ЛЕВИ КАНОНИЧЕСКОЕ ПРЕДСТАВЛЕНИЕ вбанахо- вом пространстве (Levy canonical representation in Ba- nach space) - выражение характеристического функционала безгранично делимого распределения v в банаховом пространстве.1 В в виде Щ) = ехр|г/(*0)-уФ(Л P + IB MA *>HW*>|. Здесь feB*, xQeB, Ф - Гаусса ковариация, hx(f, x) = exp{if(x)}-\-if(x)I{ixi<x}(x), (*) /л (.г) - индикаторная функция множества Л,|1-мера Леей, то есть такая а-конечная мера на В, что для нек-рого т>0 выражение exp |J hx(f, x)[i (dx)\ является характеристич. функционалом нек-рой вероятностной меры на В. В конечномерном пространстве в качестве Ф и \i могут выступать любая симметрич. неотрицательно определенная квадратичная форма и мера, удовлетворяющая условию Jmin(l,|M|2)^*)<~- В общем банаховом пространстве это не так. К настоящему времени полного описания ковариаций Гаусса и мер Леви нет. Лит.: [1] AraujoA., Gine E., The central limit theorem for real and Banach valued random variables, N. Y., 1980; [2) Linde W., Infinitely divisible and stable measures on Banach spaces, Lpz., 1983. В. И. Паулаускас. ЛЕВИ КЛАСС (Levy class) - см. Саморазложимое распределение, Серий схема. ЛЕВИ МЕРА (Levy measure), мера скачков, - мера U(t, А) в представлении характеристической функции случайного процесса с независимыми приращениями, значение U(t, А) равно математическому ожиданию числа скачков процесса X с независимыми приращениями, происшедших до момента t и попавших во множество А, то есть таких, что X(s + 0)-X(s-0)eA. К. А. Боровков. ЛЕВИ МЕТРИКА (Levy metric) - простая вероятностная метрика, определяемая на множестве .#'действительных случайных величин X или на множестве ^"соответствующих им функций распределений Fx как L(X, Y) = L(FX,FY) = = inf {е: Fx(x - е) - е^ FY(x) ^ Fx(x + е) + е, х е IR1}. Введена П. Леви [ 1 ], индуцирует в ^"топологию слабой сходимости распределений. Определение Л. м. без изменений переносится на множество М всевозможных неубывающих функций на II? (при этом допускаются бесконечны? значения метрики). Важнейшие свойства Л. м. &. 1) Метрич. пространство (&, L) является сепарабельным и полным. 2) Если FeM и Г\х) = inf {t:F(t) <x), то L(F,G) = = L(F~\ G"1) для любых F, GeM. 3) Л. м. является регулярной по отношению к операциям свертки и умножения функций распределения, что равносильно соответствующим свойствам полуаддитивности L: для любых пар независимых случайных величин Xit Y{ UXX + YU X2+72)^L(X1, X2) + L(71, У2), L(max(X1, Yj), max(X2, 72))^L(X1, X2) + L(YV Y2). 4) Если a^O и Fk, Gke&, k=\, 2, ..., то L{Hk «Л-Хк0*0*)^8^1'!* a^maxL(F*,G*). 5) Для любого г>0 и любой случайной величины X L(X, 0)^(Е|х|г)1/(1+г). 6) Связь Л.м. L(F, G) с равномерной метрикой p(F, G) выражается соотношением L**p**L + min{QFU)t QGU)}, где QF(x) - функция концентрации функции F е # Одним из следствий этого соотношения, в случае существования плотности распределения G, является неравенство p^(l+sup G'(x))L, X другим - известная теорема об эквивалентности слабой и равномерной сходимости распределений, если предельное распределение непрерывно. 7) Связь с Леви - Прохорова метрикой к и средней метрикой X] выражается неравенствами 8) Для любых случайных величин X, У и яеИ? , Ь>0 справедливы соотношения UX + a; Y + a) = L(X, У), L(bFx, bFY)^bL{X/b, Y/b), lim UX/Ь, У/Ь) = р(Х, У), lim ЬЦХ/Ь, Y/b) = p(Fx\ F^). 9) Если fx - характеристич. функция случайной величины X, то для любой пары случайных величин X, У и любого Т > 0 .1п(1+П L(X,Y)^^ \fx(t)-fy(t)\^ + 5,66- причем от присутствующего во втором слагаемом лога- рифмич. сомножителя освободиться в общем случае нельзя (см. [6]). Об аналогах Л. м. в многомерных пространствах см. в ст. Леви-Прохорова метрика. Лит.: [1] Levy P., Theorie de l'addition des variables aleatoires, P., 1937; 2 ed., P., 1954; [2] Золотарев В. М., «Тр. Матем. ин-та АН СССР», 1971, т. 112, с. 224-31; [3] его же, «Зап. науч. семинара ЛОМИ АН СССР», 1979, т. 87, с. 18-35; [4] его же, Современная теория суммирования независимых случайных величин, М., 1986; [5] ЛинникЮ. В., Островский И. В., Разложения случайных величин и векторов, М., 1972; [6] Popov V. A., Lecture Notes in Math., 1987, v. 1233, p. 114-24. #. м> Золотарев. ЛЕВИ НЕРАВЕНСТВО (Levy inequality) - 1) Л. н. для распределения максимума сумм независимых случайных величин, центрированных соответствующими медианами. Пусть Х\, ..., Х„- независимые случайные величины, Sfc = Xj +... +Xk и тХ - медиана случайной величины X, тогда для любого t имеет место Л. н. Р{ max (Sk-m(Sk-Sn))^t}^2P{Sn^t} ЛЕВИ 279
P{ max \Sk-m(Sk-Sn)\>t)<2P{\Sn\>t}. Непосредственным следствием этих неравенств являются Л. н. для симметрично распределенных случайных величин Xj, ..., Хп\ Р{ max Sk>t)^2P{S„>t) Р{ max \Sk\Zt)*2P{\SH\*t). Л. н. было получено П. Леви [1] при изучении общих проблем сходимости распределений независимых случайных величин. Существуют обобщения Л.н., связанные с выбором в качестве центрирующих констант соответствующих квантилей (см. [2]), а также обобщения Л. н. для зависимых Xv ..., Хп. 2) Л.н. для распределения максимума независимых случайных величин, центрированных медианами. Приведено в работе П. Леви [3] и строго доказано с уточнением констант, входящих в неравенство, Б. А. Рогозиным [4]. В уточненном варианте Л. н. имеет следующий вид: Р{ max \Xk-mXk\>t)*k%P{\Sn-mSn\>tfi)t где Xj, ..., Хп - независимые случайные величины, 5„ = Xt + ... + Х„, mXk - медиана случайной величины Xk. Если Xj, ..., Хп симметрично распределены, то имеет место следующее неравенство: Р{ max \Xk\>t)^2P{\Sn\>t). 3) Л.н. для случайных элементов - неравенство, расширяющее классич. Л. н. для симметрично распределенных случайных величин на случайные элементы в векторных пространствах. Впервые это неравенство встречается у Ж.-П. Кахана [5] в связи с изучением случайных рядов в банаховых пространствах. В более общем виде оно допускает следующую формулировку (см. [6]). Пусть Xj, ..., Хп - независимые симметричные случайные элементы в измеримом векторном пространстве (£, .#), Sk = Xx +... + Xk. Тогда для любого множества Сеэв такого, что С + СеЗ), имеют место неравенства p{lL, <5* «(C + C)/2)J«2P{S„ г с}, р{Ц=) (Х,г(С + С)/2)}«2Р{5пеС(. Отсюда вытекает, что для произвольной ^-измеримой полунормы || • || имеют место Л.н. Р{ max |£*| >'}<"><№.!>'}> 1 ^k^n Р{ max lX„[>Q<2P{\S„[>t\. Указанные неравенства выполняются также при нек-ром ослаблении требования независимости случайных элементов Xt, ..., Хп. Существуют обобщения Л.н. для случайных элементов в банаховых пространствах без предположения симметричности Xj, ..., Хп. Лит.: [1] Levy P., Theorie de Г addition des variables aleatoires, 2 ed., P., 1954; [2] Петров В. В., «Теория вероятн. и ее примен.», 1975, т. 20, в. 1, с. 140-44; [3] Levy P., «Bull. sci. math.», 1953, t. 77, p. 9-40; [4] Рогозин Б. А., «Теория вероятн. и ее примен.», 1968, т. 13, в. 4, с. 701-07; [5] Кахан Ж.-П., Случайные функциональные ряды, пер. с англ., М., 1973; [6] Вахания Н.Н., Тарие- ладзеВ. И., ЧобанянС.А., Вероятностные распределения в банаховых пространствах, М., 1985. В. В. Булдыгин. ЛЕВИ ОТОБРАЖЕНИЕ (Levy mapping) - см. Каноническое представление сверточных полугрупп мер. 280 ЛЕВИ ЛЕВИ ПОЛЕ (Levy field), многопараметрическое броуновское движение, - центрированное гауссовокое случайное поле {Х(0, teT), индексированное элементами метрического пространства, структурная функция к-рого E|x(0-X(s)|2 совпадает с метрикой Т. Поле введено П. Леви [ 1 ] как обобщение броуновского движения на случай векторного параметра и изучено им для евклидова пространства г и сферы S> размерности d^°°. Л. п. определено локально над любым гладким риманоным многообразием. Носителями Л. п. в целом являются: а) двумерные односвязные поверхности отрицательной кривизны (см. [2]); б) те и только те линейные нормированные пространства, к-рые допускают изометрич. вложение в Lt(Q, ц), в частности пространства ЬрШ, |i), 1 ^р^2 (см. 13]); в) три из девяти типов симметрич. пространств М ранга 1 - сфера, действительное и комплексное гиперболич. пространства. На остальных гиперболич. пространствах М Л. п. определено как обобщенное на подпространстве финитных гладких функций вида D0<p, где D0 - полином от оператора Лапласа-Бель- трами на Md (см. [4], [5]). Над проективными пространствами М , где все геодезические у замкнуты, существует модификация Л. п. - броуновский мост 7(0 (см. [4], [5]). По определению, сужениям Y(t) на у отвечают условные броуновские траектории с равными значениями на концах разомкнутой геодезической при натуральной параметризации у. Броуновский мост над сферой содержит Л. п. в качестве нечетной компоненты: X(t) = c(Y(t)-Y(t)), где t - антипод t. Поэтому полусферу естественно считать носителем, а броуновский мост - расширением Л. п. на S . Широкий класс Л. п. порождают случайные гауссовские ортогональные меры (белый шум) Ь(А), E\b(A)\ =[l(A), на классах подмножеств измеримого пространства (Q, |i) с метрикой (х(Л1АЛ2^ ~ мерой симметрич. разности множеств. Для многих примеров Л. п. известно вложение в схему белого шума: Xt = b(At), At с Q, обнаруженное впервые Н. Н. Ченцо- вым для В схеме Ченцова, пригодной для всех пространств Т постоянной кривизны, С1 - пространство ориентированных геодезич. гиперповерхностей коразмерности 1 в Г с инвариантной относительно движений Т мерой \i, a At - множество гиперповерхностей, отделяющих teT от фиксированной точки О е Т. Расширением этой конструкции для сферы является представление броуновского моста через комплексный однородный белый шум Ь*(б/со) на Sr: Yt = \ d ln[V=TU, co)]fc*(rfco), teS*, где (t, со) - скалярное произведение (см. [5]). Л. п. оказалось важным примером, на к-ром формировалась концепция марковского свойства случайного поля и теория гауссовских полей этого типа (см. [7], [8]). Л. п. над пространствами М и обладает марковским свойством в смысле Мак-Кина для ограниченных областей, если только размерность d нечетна, то есть в случае нечетномерных пространств постоянной кривизны (см. [9]). Над пространствами M°° и Lp(Q, |i), 1 <р^2, бесконечной размерности Л. п. восстанавливается по любой окрестности точки и, следовательно, марковское свойство Л. п. вырождено (см. [3], [10]). Изучены локальные свойства Л. п. для & (см. [1], [11]). Гельдеровское условие Леви для ограниченных областей в II? : P{Hrn|X(0-X(s)|/V2dp|lnp| =1> = 1, р = |*-4 Лит.: [1] Леви П., Стохастические процессы и броуновское движение, пер. с франц., М., 1972; 12] Морозова Е. А., Ченцов Н. Н., «Теория вероятн. и ее примен>, 1968, т. 13, в. 1, с. 152-55; [3] Вге- tagnollej., Dacunha-Castel le D., Kr i v ine J.-L., «Ann. Inst.
H. Poincare», 1966, t. 2, № 3, p. 231-59; [4] Мол чан Г. М., «Теория вероятн. и матем. статистика», 1979, в. 21, с. 123-47; [5J его же, там же, 1987, в. 36, с. 88-101; [6] ЛифшицМ.А., «Теория вероятн. и ее примем.», 1979, т. 24, в. 3, с. 624-28; [7] Мс Kean H. Р., там же, 1963, т. 8, в. 4, с. 358-78; [8] Молчан Г. М., «Докл. АН СССР», 1971, т. 197, Ко 4, с. 784-87; [9] его же, там же, 1975, т. 221, № 6, с. 1276-79; 110] BermanS. M., «Ann. Probab.», 1980, v. 8, № 6, p. 1093-106; [11] SiraoT., «Nagoya Math. J.», 1960, v. 16, p. 135-56. Г. M. Молчан. ЛЕВИ РАЗЛОЖЕНИЕ случайных процессов с независимыми приращениями (Levy decomposition of random processes with independent increments) - представление случайного процесса с независимыми приращениями в ниде суммы неслучайной функции, дискретного процесса с независимыми приращениями и стохастически непрерывного процесса с независимыми приращениями. Лит.: [1] Levy P., «Ann. scuola norm. sup. Pisa. Sci. prs. e mat.», 1934, v. 3, p. 337-66; 1935, v. 4, p. 217; [2] Скороход А.В., Случайные процессы с независимыми приращениями, 2 изд., М., 1986. Э. Д. Сильвестрова. ЛЕВИ СИСТЕМА марковского процесса (Levy system of a Markov process) - пара, состоящая из ядра в фазовом пространстве и аддитивного функционала от марковского процесса и предназначенная для описания широкого класса вполне разрывных аддитивных функционалов. Пусть Ханта процесс X=(Xt, dt, Рх) задан в фазовом пространстве (Е, 93). Тогда существуют (см. [1], [2]) такие непрерывный аддитивный функционал B = Bt, t^0, от X и ядро N(x, dy) в (Е, УЗ) [точнее, функция N(-, •), определенная в ЕхуЗ, почти боре- левская по первому аргументу и являющаяся мерой по второму], что для любой борелевской в ЕхЕ функции f(x, у)^0 выполнено равенство = E.c[£rfBjEA4Xs,<W«5.</)} С) в к-ром суммирование ведется по моментам разрыва траектории Xt. Пара (N, 33) и есть система Леви для X. Широкий класс вполне разрывных аддитивных функционалов от X представим в виде сумм, фигурирующих в (*) (см. [1], [2]). Изучался (см. |2]) случай правого марковского процесса. Лит.: [1] Watanabe S., «Japan J. Math.», 1964, v. 34, № 1, p. 53-70; [2] Ben veniste A., Jacod J., «Invent, math.», 1973, t. 21, № 3, p. 183-98. M. Г. Шур. ЛЕВИ СПЕКТРАЛЬНАЯ ФУНКЦИЯ (Levy spectral function) - см. Безгранично делимое распределение, Леви каноническое представление. ЛЕВИ ТЕОРЕМА (Levy theorem) - см. Бакстера теорема, Винеровский процесс, модуль непрерывности, Винеровский мартингал, Характеристическая функция. ЛЕВИ-КРАМЕРА ТЕОРЕМА (Levy-Cramer theorem), теорема Крамера: если сумма двух независимых непостоянных случайных величин нормально распределена, то и каждое из слагаемых распределено нормально; высказана П. Леви [1] и доказана X. Крамером [2]. Эквивалентные формулировки: 1) если композиция двух собственных распределений является нормальным распределением, то и каждое из них является нормальным распределением; 2) если q>t(0 и Ф2(0 - характе- ристич. функции и фДОф2(0 = exp (-yt2 + i$t), (*) у^О, -оо<р<оо, то фу(0 = ехр(-у/2 + груО, Уу^О, -оо<р;.<оо. В формулировке 1) Л.- К. т. допускает обобщение на композицию двух знакопеременных мер с ограничениями на отрицательную вариацию; в формулировке 2) - на случай, когда вместо условия (*) рассматривается условие H™=i{4>j(t)}aJ = ex?(-yt2 + iVt), у^О, -оо<р<оо, teE, где q>t(0, ..., Фт(0 - характеристич. функции, at, ..., ат - положительные числа, Е - множество действительных чисел с точкой сгущения в нуле. Имеются обобщения Л.- К. т. на случайные величины в евклидовых пространствах и в локально компактных абелевых группах. Л.- К. т. обладает свойством устойчивости, то есть близость распределения суммы независимых случайных величин к нормальному влечет близость распределения каждого из слагаемых к нормальному; известны количественные оценки устойчивости (см. |5]). Теоремы, аналогичные Л,- К. т., получены для распределения Пуассона (см. Райкова теорема), для композиции распределения Пуассона и нормального, для других классов безгранично делимых распределений (см. [6]). Лит.: [1] Levy P., «J. math, pures et appl», 1935, t. 14, p. 347-402; [2] Cramer H., «Math. Z», 1936, Bel 41, S. 405-14; [3] Крамер Г., Случайные величины и распределения вероятностей, пер. с англ., М., 1947; [4] ЛинникЮ.В., «Теория вероятн. и ее иримен», 1957, т. 2, в. 1, с. 34-59; [5] СапоговН.А., «Вестн. Ленингр. ун-та. Сер. матем., механ. и астр.», 1959, № 19, с. 78-105; [6] ЛинникЮ.В., Островский И. В., Разложения случайных величин и векторов, М., 1972. И. В. Островский. ЛЕВИ - ПАРЕТО РАСПРЕДЕЛЕНИЕ (Levy - Pareto distribution) - устойчивое негауссовское распределение вероятностей с конечным математическим ожиданием, задаваемое своим двусторонним преобразованием Лапласа: если р(и) - плотность распределения вероятностей Леви - Парето, то интеграл G(s)=\loe~sup(u)du конечен для любых s > 0 и имеет вид G(5)=6TMs + ("*s)a, где м M = \°L up(u)du, и* > 0, \<а<2. Характеристич. функция Л.- П. р. имеет вид f(t) = exPl[iMt-\«'t\a(\-±tgfjcosf\}. Если М = 0 и и* = \, то Л.- П. р. называется нормализованным. Плотность Л.- П. р. р(и) с параметром а, 1<а<2, обладает свойством ра(и) ~ С(а)и~ при м-><*>. В этом смысле Л.- П. р. аналогичны Парето распределения^. Л.- П. р. введено в [1] и применялось как модель для широкого класса эмпирич. наблюдений, относящихся, напр., к распределению дохода, размера городов или частоты слов в языке. Лит.: [1] Mandelbrot В., «Int. Econ. Rev.», 1960, v. 1, p. 79-106; [2] Феллер В., Введение в теорию вероятностей и ее приложения, пер. с англ., т. 2, М., 1984. С. Я. Шоргин. ЛЕВИ - ПРОХОРОВА МЕТРИКА (Levy - Prokhorov metric) - простая вероятностная метрика к, определяемая для случайных величин со значениями из нек-рого метрического пространства (U, d) равенством к(Х, У) = = inf{e:PxU)^PyC4e) + e, Ру(Л)^Рх(Ле) + е, А е»}, (*) где 83 - система борелевских множеств из U и A£ = {x:d(x, y)<E, уеА). . ЛЕВИ 281
Л.- П.м. введена в [1] как обобщение Леви метрики. Величина п в (*) не изменится, если в определении оставить одно из двух неравенств и заменить 83 системой всех замкнутых борелевских множеств (см. [2]). Важнейшие свойства Л.- П.м. 1) Пусть М - пространство всех вероятностных мер на (U, d). Тогда пространство (М, тс) сепарабельно тогда и только тогда, когда сепарабельно пространство (U, d). 2) Полнота пространства (М, d) влечет за собой полноту пространства (U, d). Однако обратное верно, если меры из М имеют сепарабельные носители. 3) Л.- П.м. обладает свойством регулярности по отношению к операции свертки распределений (для линейных пространств U) и эквивалентным ему свойством полуаддитивности, то есть для любых пар независимых случайных величин n(Xx + YXt Х2+У2)^тс(Х1, Х2) + тс(У1, У2). Будучи обобщением метрики Леви, Л.- П. м. сохраняет ряд ее свойств или обладает их аналогами. Напр., для любых ае U, Ь>0 и любых случайных величин X, У справедливы соотношения к(ЬРх, ЬРу)^Ьк(Х/Ь + а, Y/b + a), lim n(X/b, Y/b) = o(X, У), где а(Х, У) - полной вариации метрика. Л.- П. м. является минимальной метрикой для Ки Фан метрики, определенной для случайных величин со значениями из того же пространства (U, d). Структура Л.- П.м. позволяет получать широкий спектр других метрик за счет замены системы 83 другими наборами борелевских множеств. Метрика Леви получается в случае (7 = 11?, d=\x-y\, если вместо 83 в определении к взять систему всех полупрямых {(t< х) : х eIR }. Для тех многомерных пространств, в к-рых удается ввести понятие полупространства, естественным аналогом метрики Леви является конструкция Л.- П.м., содержащая вместо 83 систему всех полупространств на U. Лит.: [1] Прохоров Ю. В., «Теория вероятн. и ее примен.», 1956, т. 1, в. 2, с. 177-238; [2] Dudley R. M., «Ann. Math. Statist.», 1968, v. 39, № 5, p. 1563-72; [3] Би л л и нгсл и П., Сходимость вероятностных мер, пер. с англ., М., 1977; [4] Золотарев В. М., Современная теория суммирования независимых случайных величин, М., 1986. В. М. Золотарев. ЛЕВИ - ХИНЧИНА КАНОНИЧЕСКОЕ ПРЕДСТАВЛЕНИЕ (Levy-Khinchin canonical representation) - предложенная А. Я. Хинчиным в 1937 модификация Леви канонического представления. Имеет вид fit) = expjity + J fsU, x)dG(x)}, (*) где Ш, х) ■■ (« •-1- \+x' -П 2 если x * 0, 0, yell?, G(x) - спектральная функция Хинчина, неубывающая на II? с предельными значениями G(-°°) = 0, G(oo)<oo. Л. - Х.к.п.- частный случай канонич. представления общего вида (см. Безгранично делимое распределение). Перед канонич. представлением Леви Л. - Х.к.п. имеет нек-рые преимущества аналитич. характера. Формула (*) обобщает Колмогорова формулу для характеристич. функций безгранично делимых распределений, имеющих конечные вторые моменты. 282 ЛЕВИ Известны аналоги Л.- Х.к.п., описывающие безгранично делимые распределения в пространствах более общей природы (см. [2]). Лит.: [1] Гн еден ко Б. В., Колмогоров А. Н., Предельные распределения для сумм независимых случайных величин, М.- Л., 1949; [2] ParthasaratyK. R., Probability measures on metric spaces, N. Y.- L., 1967. В. М. Золотарев. ЛЕВИ-ХИНЧИНА ФОРМУЛА для семимартинга- лов (Levy-Khinchin formula for semimartingales) - см. Семи- мартингал. ЛЕВИНСОНА АЛГОРИТМ (Levinson algorithm), Левин- сона-Дербина алгоритм,- ускоренный метод рекуррентного решения систем линейных уравнений Z;.lV; = Я;, i=l, (1) с симметрической и теплицевой матрицей коэффициентов (то есть Aij- = Aji и А-г: зависят только от i-j). Уравнения такого типа возникают, напр., при решении задачи линейной экстраполяции стационарной случайной последовательности Xt по наблюденным значениям конечного числа ее элементов Хм, Xt_2, ..., Xt_m, при построении максимальной энтропии спектральной оценки такой последовательности на основе решения системы Юла - Уокера уравнений V™ * а А-1j i = i, (2) относительно неизвестных ft, ..., Pw, айв ряде других задач теории вероятностей и математич. статистики. При использовании Л. а. вместо системы т уравнений (1) последовательно решается ряд «обрезанных систем» k уравнений, где k=\, 2, ..., т, получаемых из исходной системы с помощью отбрасывания всех уравнений (1) с i > k и приравнивания неизвестных xk+i, ..., хт нулю; при этом решения системы k-vo порядка непосредственно использу- „(*) „<*) (k+\) (Ы) xl , xk+i после- ■*1 ' -' ■** ются при определении решений #j , ..., ^k дующей системы (k + 1 )-го порядка. В результате на т-м шагу выполняемой рекуррентной процедуры приходят к искомым решениям х\\ -хх, ..., х™ -хт исходной системы (1). В частном случае системы уравнений Юла - Уокера (2) первый шаг рекуррентной процедуры приводит к значениям f»{° ■~г\ /го 41) •\*-№2};. (3) а решения системы /г-го порядка, где k = 2, ..., т, последовательно определяются по формулам р<»=р' k (*-о а(*)о(*-1) ; = !.. ч*> '[i-lfffH-o- Аналогично выглядит Л. а. и в случае общей системы (1). Нетрудно показать, что Л. а. позволяет найти искомое решение системы т линейных уравнений при помощи т арифме- тич. операций, в то время как обычный метод решения, опирающийся на прямое обращение матрицы коэффициентов системы, требует около т арифметич. операций (см., напр., Ш-[5]). Л. а. был впервые предложен Н. Левинсоном [6] в применении к задаче о линейной экстраполяции стационарных последовательностей; позже его модифицировал Дж. Дербин [7]. В дальнейшем ряд авторов развили и нек-рые другие родствен-
ные рекуррентные методы решения систем линейных уравнений с теплицевой (но не обязательно симметричной, а, напр., комплексной эрмитовой или еще более общей) матрицей коэффициентов и обращения таких матриц (см., напр., [8]—[ 10]). Существуют также аналогичные методы решения систем линейных уравнений, возникающих в теории многомерных стационарных последовательностей (см., напр., [11]). Линейные уравнения с теплицевой, но не симметричной матрицей коэффициентов возникают, в частности, при расчете авторегресси- очных коэффициентов, входящих в так наз. АРСС-оценки спектральной плотности стационарной последовательности (см. Параметрическая спектральная оценка, а также [10]). Лит.:[\] КейС. М., М арп л С. Л., «Тр. ин-та инж. электротехн. р.щиозлектр.», 1981, т. 69, № И, с. 5-51; [2] Кэдзоу Дж.А., там же, 1982, т. 70, № 9, с. 256-93; [3J Nonlinear methods of special analysis, 2 ed., В., 1983; [4] Papoulis A., Probability, random variables and stochastic processes, 2 ed., N. Y., 1984; [5] его же, «5IAM Rev.», 1985, v. 27, № 3, p. 405-41; [6] LevinsonN., «J. Math, and Phys.», 1947, v. 25, № 4, p. 261-78; [7] Durbin J., «Rev. Inst, intern, statist.», 1960, v. 28, № 3, p. 233-44; [8] Del- sarteP., GeninY.V., KampY.G., «IEEE Trans. Acoustics, Speech. Sign. Process», 1985, v. ASSP-33, H> 4, p. 964-71; [9] De- meureC.J., ScharfL. L., там же, 1987, v. ASSP-35, № 1, p. 29-42; [10] Zohar S., там же, 1979, v. ASSP-27, p. 656-58; [11] Inouye Y., «IEEE Trans. Automat. Contr.», 1983, v. AC-28, № 1, p. 94-95. A. M. Яглом. ЛЕВИНСОНА - ДЕРБИНА АЛГОРИТМ (Levinson-Dur- bin algorithm) - см. Левинсона алгоритм. ЛЕВОЕ РАСПРЕДЕЛЕНИЕ ПАЛЬМА (left Palm distribution) - см. Точечный процесс на группе. ЛЕВОЕ СЛУЧАЙНОЕ БЛУЖДАНИЕ (left random walk) - см. Маркова цепь. ЛЕКСИКОГРАФИЧЕСКОЕ ОТНОШЕНИЕ (lexicographi- cal relation) - см. Полезностей теория. ЛЕМАНА - ШЕФФЕ ТЕОРЕМА (Lehmann - Scheffe theorem) - см. Подобный критерий. ЛЕНАРД-ДЖОНСА ПОТЕНЦИАЛ (Lenard-Jones potential) - см. Потенциал гиббсовского поля. ЛЕС случайный (random forest) - см. Случайный лес. ЛЕСТНИЧНАЯ ВЫСОТА (ladder point/height) - см. Эксцесс блуждания. ЛЕСТНИЧНАЯ ПАРА (ladder pair) - см. Эксцесс блуждания. ЛЕСТНИЧНЫЙ МОМЕНТ (ladder time/index/epoch) - момент времени, когда случайное блуждание в II? достигает значения, рекордного по отношению к своей предыстории. Пусть дано случайное блуждание {Sn}, SQ = 0, порожденное суммами независимых одинаково распределенных случайных величин, k-й Л. м. определяется как момент k-го осуществления неравенств Sn > S;•, j = 0, 1, ..., n - 1. Значение траектории Sn в k-и Л. м. можно представить в виде суммы Xj + ... + Xk, где X: независимы и распределены как значение блуждания в первый Л. м. или, что го же самое, как первая положительная сумма в последовательности St, 52, ... (см. также Эксцесс блуждания). Лит.: [1] Феллер В., Введение в теорию вероятностей и ее приложения, пер. с англ., т. 2, М., 1984. А. А. Боровков, М. С. Сгибнев. ЛИНДЕБЕРГА УСЛОВИЕ (Lindeberg condition) - см. Линдеберга - Феллера теорема. ЛИНДЕБЕРГА УСЛОВИЕ для случайных матриц (Lindeberg condition for random matrices) - см. Полукруговой закон. ЛИНДЕБЕРГА - ФЕЛЛЕРА ТЕОРЕМА (Lindeberg - Feller theorem) - один из основных результатов классической теории предельных теорем. В начальном варианте Л.- Ф. т. была связана со схемой нарастающих сумм независимых случайных величин Zn = B„-,YjJXra)) = Xni + ... + Xm,n>\, (1) относительно к-рых предполагается, что й; = ЕХ, о• = DX. конечны и что равномерно по k ^ п <U=a*X2^0, «->-. (2) Пусть Fn, Fnj и Ф обозначают соответственно функции распределения случайных величин Zn, Xn}• = (X. -а:)/Вп и стандартного нормального закона. Л.-Ф. т. утверждает, что для сходимости Fn к Ф в равномерной метрике р необходимо и достаточно, чтобы для каждого е>0 5п<е)= У Г , x2dFnAx)-+0,n-+oo. (3) ^j J\x\>£ nJ Достаточность этого условия доказана Дж. Линдебергом [1], а необходимость В. Феллером [2]. В 30-х гг., когда основным объектом внимания в предельных теоремах стала модель А. Н. Колмогорова (см. Предельные теоремы), утверждение Л.- Ф. т. было естественным образом расширено. Именно, в новом варианте (модель Линдеберга - Феллера) независимые слагаемые XnJ- в суммах Zn уже не обязаны иметь какой-либо определенной структуры и лишь подчинены условиям EXnj- = 0, о*.• = ОХп. конечны, ая1 + о„2 + ... = 1 и условию (2). Само утверждение при этом полностью сохраняется, то есть p(F^)->0<^>8„(e)->0 (4) для любого £>0. Модель Линдеберга - Феллера можно еще более расширить, сохраняя (4), за счет следующих ее изменений. 1) Количество слагаемых, в Zn может быть бесконечно. В этом случае предполагается, что ряд из независимых случайных величин сходится по распределению. 2) Условие (2) заменяется менее ограниченным бесконечной малости условием: для каждого е>0 supP{|X„;|>e}->0, л->~. (5) В этой модели условие (3) эквивалентно (см. [3]) условию: для каждого е > 0 £.Р{|Хп;|>е}->0, и-»-. (6) Как критерий нормальности предельного распределения в модели Колмогорова, в предположении, что предельное распределение существует, условие (6) было известно уже А. Я. Хинчину [4] и повторяется в [5]. Однако эквивалентность (6) условию (3) в рамках модели Линдеберга - Феллера в то время замечена не была. С. Н. Бернштейн [6] в 1926 доказал достаточность условия (3) в расширенной модели Линдеберга - Феллера, а в 1946 он сумел показать, что Л.- Ф. т. в ее первоначальном варианте является следствием теоремы Ляпунова (см. [7]), это отмечается и в [5]. Л.- Ф. т. имеет разнообразные аналоги и обобщения в моделях, отличных от модели Колмогорова (см., напр., [8]). Одно из таких обобщений связано с отказом от условия (5). В этом случае характер условий сходимости Fn к Ф существенно меняется, так как в суммах Zn могут появиться слагаемые, по своей значимости сравнимые со всей суммой. Пусть V = {v = (Gu G2, ...): Gk(x) =Ф(х/ок), ^ + 0% + ...= = 1}, то есть G1*G2*... =Ф для каждого набора veV. Тогда для того, чтобы p(Fn, Ф)->0, и->°°, необходимо и достаточно ЛИНДЕБЕРГА 283
существования такой последовательности наборов vn = (GnX, Gn2, ...), для к-рой фп, vn) = sup L(Fnj, Gnj) + l{f*, G„*)-> 0, (7) un = (FnX, Fn2, ...), L - метрика Леви, F* и G* строятся по соответствующим наборам согласно правилу В частности, в качестве такой последовательности ип можно выбрать наборы (Фи1, Фп2, ...), в к-рых Фя;-(.г) = Ф(.г/ая;-). Существует множество других функционалов |i в пространстве U наборов u = (F]f F2, ...), jxdFk(x) = 0, ]Г. jVrfF;W = l, с помощью к-рых можно сформулировать критерий сходимости в форме (7) (см. [9]-[11]). Эта форма позволяет интерпретировать Л.-Ф. т. в неклассич. постановке (7) как теорему устойчивости разложений предельного закона Ф в композицию. Пусть W - множество функций распределения F таких, что J xdF(x) = 0 и J x dF(x) = 1. Множество Б нормальных распределений из W состоит лишь из одной функции Ф. Пусть J и = F1*F2*...- отображение J: U -> W; полный прообраз Б в U есть множество V. Утверждение (7) равносильно следующему утверждению: р(/и, Я)->0 » \i(u, У_1В)->0. Расстояние от элемента до множества понимается здесь в общепринятом смысле. Такая интерпретация предельных теорем в неклассич. постановке, то есть без использования условия (5), возможна в самом общем случае (см. [10]). Лит.: [1] Lindeberg J.W., «Math. Z.», 1922, Bd 15, S. 211-25; [2] Feller W., там же, 1935, Bd 40, S. 521-59; [3] Лоэв М., Теория вероятностей, пер. с англ., М., 1962; [4] Хин чин А. Я., Предельные законы для сумм независимых случайных величин, М.-Л., 1938; [5] Гнеденко Б. В., Колмогоров А. Н., Предельные распределения для сумм независимых случайных величин, М.-Л., 1949; [61 Бернштейн С. Н., Собр. соч., т. 4, М., 1964, с. 121-76; [7] его же, там же, с. 434-47; [8] Липцер Р. Ш., Ширяев А. Н., Теория мартингалов, М., 1986; [9] Золотарев В. М., Современная теория суммирования независимых случайных величин, М., 1986; [10] его же, «Теория вероятн. и ее примен.», 1989, т. 34, в. 1, с. 178-89; [11] Ротарь В. И., «Матем. заметки», 1975, т. 18, К? 1, с. 129-35. в. М. Золотарев. ЛИНДЕЛЕФА СВОЙСТВО (Lindelof property) - см. Мера. ЛИНЕЙНАЯ АЛГЕБРА стохастическая (stochastic linear algebra) - см. Стохастическая линейная алгебра. ЛИНЕЙНАЯ АППРОКСИМАЦИЯ (linear approximation) - см. Линейная интерполяция функции регрессии. ЛИНЕЙНАЯ ГИПОТЕЗА (linear hypothesis) - статистическая гипотеза, согласно крой математическое ожидание а «-мерного нормального закона Nn(a, а /) (где / - единичная матрица), лежащее в линейном подпространстве ns<zlR" размерности s<n, принадлежит линейному подпространству Пгс IIs размерности r^s. Многие задачи математич. статистики можно редуцировать к задаче проверки Л. г., края часто формулируется в следующем так наз. канонич. виде. Пусть Х = (Xj, ..., Хп) - нормально распределенный вектор, компоненты к-рого независимы, и EXj = tfj для г = 1, ..., s, ЕХ; = 0 для i = s+ 1, ..., п и ОХ( = с2 для 1=1, ..., п, причем величины ах, ..., as, а неизвестны. 284 ЛИНЕЙНАЯ Тогда гипотеза Я0, согласно к-рой а^ = ...=ar = 0, r<s<n, является канонической линейной гипотезой. Пример. Пусть Уj, ..., Уп и Zt, ..., Zm суть п + т независимых случайных величин, подчиняющихся нормальным распределениям N^(a, a ) и N^(b, а ) соответственно, причем параметры а, Ь, а неизвестны. Тогда гипотеза Я0: а = Ь = 0 является Л. г., в то время как гипотеза a = aQ, b = bQ при aQ r- bQ не является таковой. Лит.: [1] Леман Э., Проверка статистических гипотез, пер. с англ., 2 изд., М., 1979. М. С. Никулин. ЛИНЕЙНАЯ ИНТЕРПОЛЯЦИЯ функции регрессии (linear interpolation of a regression function) - результат линейного преобразования наблюдаемого случайного вектора с целью построения линейного прогноза для значения другого случайного вектора. Л. и. называется также линейной аппроксимацией функции регрессии. Пусть регрессия Е(У|Х) случайного вектора У = (У\, ..., Уп)Т на случайный вектор X=(Xt, ..., XW)T задается с помощью функции f(x) = (^(х), ..., fn(x))T, x=(x]f ..., хт) е ell?w, то есть уравнение регрессии У на X имеет вид Е(У|Х) = ДХ). Статистику У = ДХ) называют регрессионным прогнозом значения случайного вектора У по наблюденному значению случайного вектора X с помощью функции регрессии f{x). Если функция регрессии fix) очень сложна, то для прогнозирования значения случайного вектора У можно построить линейный прогноз У по вектору X, определяемый как результат линейного преобразования У = БХ, где Б - матрица из множества 5В всех прямоугольных матриц размерности тхи. Разность Ь=У -У=У - БХ называется ошибкой линейного прогноза по вектору X с весом В. Качество линейного прогноза определяется его квадратичным риском, к-рый вычисляется по формуле 2ТЕ(65т)2 = гтЕ{(У- У)(У-У)Т}г для любого 2 = (Zj, ..., 2п) eIR". В качестве линейного прогноза для У естественно выбрать такой линейный прогноз У, квадратичный риск к-рого является минимальным, то есть ;ня к-рого выполняется неравенство 2ТЕ{(У- У)(У- У)т}г^гтЕ{(У- У)(У- У)Т}2 для любого z e IR". Можно показать, что минимальным квадратичным риском обладает линейный прогноз У = ВХ при Б= 4, где матрица регрессионных коэффициентов А определяется из уравнения ЛЕ(ХХТ) = Е(УХТ), ЛеЖ. В случае, если дисперсионная матрица D = Е(ХХ ) невырождена, матрица регрессионных коэффициентов наилучшего (в смысле минимума квадратичного риска) линейного прогноза задается формулой Л = Е(УХ )D~ . Таким образом, наилучший линейный прогноз определяется той же матрицей регрессионных коэффициентов, с помощью к-рой записывается уравнение регрессии в том случае, когда регрессия линейна. В этом смысле выражение АХ можно трактовать как линейную аппроксимацию функции регрессии ДХ) = Е(У|Х). Такая Л. и. функции регрессии f(X) приводит к тому, что прогноз У=АХ обладает следующими свойствами: 1) Е8 = 0 (нулевой вектор размерности п ); 2) Е(8ХТ) = 0 (нулевая матрица из SB). В случае произвольной регрессии вектор У всегда можно представить с помощью Л. и. в виде суммы У = АХ + Ь, причем линейный прогноз АХ некоррелирован с ошибкой 8 и Е8 = 0. См. также Регрессионный анализ, Линейная регрессия, Регрессии уравнение, Регрессия. м. С. Никулин. ЛИНЕЙНАЯ КОРРЕЛЯЦИЯ (linear correlation) - корреляционная зависимость, между случайными величинами X и У,
для к-рой корреляционные отношения Лу|х и Лх|у равны абсолютной величине коэффициента корреляции |р|, то есть когда линия регрессии будет прямой. Аналогично определяется Л. к. между несколькими случайными величинами, когда поверхность регрессии оказывается плоскостью. М. И. Войцеховский. ЛИНЕЙНАЯ ОЦЕНКА (linear estimator) - линейная функция от наблюдаемых случайных величин, используемая (при подстановке в нее конкретных значений наблюденных величин) в качестве приближенного значения (оценки) неизвестного параметра анализируемой стохастической схемы. Специальное выделение класса Л. о. оправдано, прежде всего, простотой вычислений, что было особенно существенно в «докомпьютерную эру» и остается желательным при вычислении семейства оценок, зависящих от параметров, и последующего выбора из них наиболее приемлемой. Далее, Л. о. легче поддаются статистич. анализу, в частности исследованию на состоятельность, несмещенность, эффективность, построению соответствующих доверительных интервалов и т. п. В то же время в достаточно широком диапазоне случаев поиск «наилучших» (в определенном смысле) оценок не выводит за пределы класса Л. о. Так, напр., статистич. анализ линейной регрессионной модели вида У = XQ + г дает в качестве наилучшей (в смысле метода наименьших квадратов) оценки параметров 0 оценку 0=(Х'Х)~ X'Y, к-рая является линейной относительно наблюденных значений исследуемой случайной величины У. Здесь У есть я-мерный вектор-столбец наблюденных значений yit i=\, ..., п, исследуемого результирующего признака (случайной величины), Х- матрица размера пхр (ранга р) наблюденных значений xi■, , г = 1, ..., п, k= 1, ..., р, р неслучайных факторов-аргументов, от к-рых зависит результирующий признак У, 0 есть р-мерный вектор-столбец неизвестных параметров Qk, k=\, ..., р, и е есть «-мерный случайный вектор-столбец остаточных компонент, удовлетворяющий условиям Ее = 0, Е(ее') = а 1(1- единичная матрица). Лит.: [ 1 ] Крамер Г., Математические методы статистики, пер. с англ., 2 изд., М., 1975; [2] Рао С. Р., Линейные статистические методы и их применения, пер. с англ., М., 1968; [3] Закс Ш., Теория статистических выводов, пер. с англ., М., 1975; [4] Шеффе Г., Дисперсионный анализ, пер. с англ., М., 1980. д/, £, Малютов. ЛИНЕЙНАЯ ОЦЕНКА допустимая (admissible linear estimator) - см. Допустимая оценка линейная. ЛИНЕЙНАЯ ОЦЕНКА с наименьшей дисперсией (linear minimum variance estimator) - несмещенная оценка линейной формы / 0 параметров линейного регрессионного .эксперимента R(Y, Фп, a w) с положительно определенной матрицей w ковариаций наблюдений (называемая также наилучшей линейной несмещенной оценкой), к-рая существует при условии Ф/ = 0 и равна в этом случае оценке наименьших квадратов / 9, где 9 - любое решение системы нормальных уравнений Ф w~ Ф = Ф w~ Y. М. Б. Малютов. ЛИНЕЙНАЯ РАНГОВАЯ СТАТИСТИКА (linear rank statistic) - см. Ранговая статистика. ЛИНЕЙНАЯ РЕГРЕССИЯ (linear regression) - частный случай параболической регрессии, в к-рой функция регрессии является линейной. Регрессия случайного вектора Y = (Y], ..., Yn)T на случайный вектор X = (X]t ..., Хт)Т называется линейной, если функция регрессии ДХ) = Е(У|Х) имеет вид f(X) = a+AX, где a = EY-AEX, /l=|flj| - так наз. регрессионная матрица размерности п х т. Если ЕХ и ЕУ суть нулевые векторы размерности т и п соответственно, то в случае Л. р. У на X функция регрессии fiX) имеет особенно простой вид: f(X) =AX. Без ограничения общности можно считать, что уравнение Л. р. всегда имеет вид Е(У|Х)=ЛХ, (1) ибо если E(Y\X) = a+AX, то, полагая Z = (\,Xi, ...,Xm)T,B=\\a:A\\ (2) (то есть матрица В получается в результате добавления столбца а к матрице А слева), приходят к уравнению E(Y\x) = E(Y\z) = BZ вида (2). Допущение (1) равносильно допущению, что ЕХ = От и ЕУ = 0„. Далее, если регрессия У на X линейна, то, как и в общем случае, регрессионный прогноз У значения случайного вектора У выражается формулой У = АХ, и ошибка b=Y - У такого прогноза обладает свойствами: 1) Е(8|Х) = Е8 = 0„; 2) Е(Х8т|х) = Е(Х8Т) = Отхп, где Отхп - прямоугольная матрица порядка тхп, все элементы крой равны 0 (это означает, что прогнозируемый вектор Y =Y + Ь выражается в виде суммы двух некоррелированных векторов с нулевыми математич. ожиданиями). Вероятностный смысл регрессионной матрицы А раскрывает уравнение ЛЕ(ХХТ) = Е(УХТ), к-рому она удовлетворяет. Если дисперсионная матрица D = Е(ХХ ) случайного вектора X невырождена, то регрессионная матрица А задается формулой А = Е( YXT)D~]. Л. р. - очень часто применяемая на практике модель для построения наиболее простого прогноза значения ненаблюдаемого случайного вектора У по наблюденному значению вектора X. См. также Регрессии уравнение, Регрессия, Линейная интерполяция функции регрессии. Т. В. Лященко, М. С. Никулин. ЛИНЕЙНАЯ СИСТЕМА (linear system) - см. Линейный фильтр. ЛИНЕЙНАЯ ФУНКЦИЯ, допускающая несмещенную оценку (estimable linear function),- линейная форма неизвестного параметра линейного регрессионного эксперимента . у = Фв + Е, г/еПЛ ееПЛ 9el^, Ee = 0, cove = a2/, для к-рой существует форма а у, Ей у = 1 9. Если матрица регрессионного эксперимента Ф имеет максимальный ранг p<N, то таковы (оцениваемы) все формы /т6. Условия: /тв оцениваема и Ф/ = 0 эквивалентны. Если /тв оцениваема и 9 - любое решение системы нормальных уравнений ФтФ9 = Фтг/, то Е/Т9Т = /т9, D/T6 = ст2/т(ФтФ)~/ - наименьшая среди линейных несмещенных оценок. Здесь А~ - любая ^-обратная к А, то есть удовлетворяющая условию АА~А=А. Напр., для одно- факторной модели уj - 90 + 9j + е; при / = 1, ..., N и гл = 90 + 92 + £у при /=и+1, ..., 2п оцениваемость формы /j9j +^02 эквивалентна равенству /^^ = 0 (такую форму называют контрастом). Лит.: [1] Шеффе Г., Дисперсионный анализ, пер. с англ., М., 1980; [2] Себер Д ж., Линейный регрессионный анализ, пер. с англ., М, 1980. М.Б. Малютов. ЛИНЕЙНО ПРЕДСТАВИМЫЙ СЛУЧАЙНЫЙ ПРОЦЕСС (linear filter of a random process) - см. Спектральные теории нестационарных случайных процессов. ЛИНЕЙНО РЕГУЛЯРНЫЙ СТАЦИОНАРНЫЙ ПРОЦЕСС (linear regular stationary process) - см. Линейный фильтр. ЛИНЕЙНО 285
ЛИНЕЙНОЕ СТОХАСТИЧЕСКОЕ ДИФФЕРЕНЦИАЛЬНОЕ УРАВНЕНИЕ (linear stochastic differential equation) - см. Стохастическое дифференциальное уравнение. ЛИНЕЙНОЕ СТОХАСТИЧЕСКОЕ ДИФФЕРЕНЦИАЛЬНОЕ УРАВНЕНИЕ; устойчивость решений (linear stochastic differential equation; stability of solutions) - свойство стремления к нулю решения стохастического дифференциального уравнения при t ->°o. Для Л. с. д. у. Ито в 1РЯ, то есть уравнения вида <ШО = ЖОХ(0^ + £*=1 ortt)X(t)dwr(t), (*) где Б и аг - матрицы пхп, X(t) - вектор-столбец в IP", wr(t) - независимые стандартные винеровские процессы, справедливы аналоги многих теорем детерминированной теории устойчивости. Прежде всего, известно, что моменты решений уравнения (*) удовлетворяют системе обыкновенных дифференциальных уравнений. Поэтому задача ^-устойчивости Л. с. д. у. при четном р сводится к задаче устойчивости детерминированной системы. Далее, для экспоненциальной ^-устойчивости решения уравнения (*) достаточно и (при минимальных условиях на коэффициенты) необходимо, чтобы существовала однородная по х порядка р функция V(t, x), для к-рой при нек-рых k{ > О выполнены условия [L - производящий дифференциальный оператор процесса (*)]: kx\x\p*kV(t, x)^k2\x\p; LV(t, x)^-k3\x\p; Для уравнения (*) с независящими от t коэффициентами доказано, что из устойчивости по вероятности следует ^-устойчивость при достаточно малом р>0. Этот результат доказан и для равномерно устойчивых в целом неоднородных по t уравнений. Для Л. с. д. у. проблема устойчивости по вероятности сводится к исследованию знака интеграла от нек-рой функции по инвариантной мере вспомогательного диффузионного процесса на сфере | х\ = 1 в 1РЯ. В случае п = 2 это позволяет получить необходимые и достаточные условия устойчивости по вероятности в терминах коэффициентов уравнения (см. [1]). Для уравнения и-го порядка, коэффициенты к-рого возмущены белыми шумами, известен (см. [1]) аналог критерия Рау- са-Гурвица устойчивости в среднем квадратичном. Лит.: [1] Хасьминский Р. 3, Устойчивость систем дифференциальных уравнений при случайных возмущениях их параметров, М., 1969. Р. 3. Хасьминский. ЛИНЕЙНОЕ СТОХАСТИЧЕСКОЕ ПАРАБОЛИЧЕСКОЕ УРАВНЕНИЕ второго порядка (linear stochastic differential parabolic equation of second order) - линейное стохастическое дифференциальное уравнение с частными производными второго порядка, эквивалентное нек-рому стохастическому эволюционному уравнению, обладающему свойством диссипативности. К числу Л. с. п. у. второго порядка относятся многие известные уравнения, напр. Лиувилля стохастическое дифференциальное уравнение, уравнение для ненормализованной фильтрационной плотности. Для стохастич. уравнения du(t,x)= У. . a- (t, x)uxx (t, x) + [*m*l,J = \ lJ XiXj +£ b{(t, x)ux (t, x) + c(t, x)u(t, x)\dt + +]U=i [Xti °«"/('» *>"*,-«» *> + ¥'. *Mt, x)]dwtU), 286 ЛИНЕЙНОЕ где w(t) - винеровский процесс, а коэффициенты - измеримые ограниченные функции, параболичность эквивалентна условию неотрицательной определенности матрицы 11^-(1/2)Х/а^1- Б. Л. Розовский. ЛИНЕЙНОЕ УРАВНЕНИЕ; решение методом Монте-Карло (linear equation; Monte Carlo solution of) - численное моделирование случайных величин Xv i = 1, 2, ..., m, являющихся оценками (несмещенными, асимптотически несмещенными) заданных функционалов от решения линейного уравнения. Наиболее распространены алгоритмы решения уравнений вида Ф = Ку + /*, где К - интегральный оператор, к к-рым сводятся многие задачи математич. физики, экономики и др. Построение оценок Х^ основано на: 1) связи последовательных приближений ф" = /Сф" + /"и их модификаций с однородной цепью * Маркова; Х± являются функционалами на траекториях последней - схема Неймана - Уламаиее обобщения; 2) связях между уравнениями (в частных производных) и стохастич. дифференциальными уравнениями; 3) непосредственно на численной симуляции случайного явления, описываемого Л. у. Лит.:[\] Ермаков С. М., Метод Монте-Карло и смежные вопросы, М., 1975; [2] Ермаков СМ., Некруткин ВВ., Си- пин А. С, Случайные процессы для решения классических уравнений математической физики, М., 1984. СМ. Ермаков. ЛИНЕЙНЫЙ КОД (linear code) - см. Блоковый код. ЛИНЕЙНЫЙ КРИТЕРИЙ (linear test) - один из основных критериев регрессионных экспериментов планирования. ЛИНЕЙНЫЙ РЕГРЕССИОННЫЙ ЭКСПЕРИМЕНТ (linear regression experiment) - см. Регрессионный эксперимент. ЛИНЕЙНЫЙ ФИЛЬТР (linear filter), линейная система,- линейное преобразование стационарного случайного процесса как функции параметра t со значениями в гильбертовом пространстве L (Ф, к-рое определяется следующим образом: 7(0 = Л(Х(0) = У°° aU - s)X(s) (в случае дискретного времени) и 7(0 = Л(Х(0) =\°loa{t- s)X(s)ds (в случае непрерывного времени), где a{t) суть (г х 6)-мат;>и- цы [г- размерность процесса 7(0, k- размерность Х(0] такие, что V a{t^)B{t2-tx)a (t2) <°° (дискретное время), JJ a{tx)B{t2-tx)a{t2)dtxdt2<00 (непрерывное время), а Ж О - матричная корреляционная функция процесса Х(0. Комплекснозначная функция a(t) называется импульсной переходной функцией (временной характеристикой, функцией отклика фи л ьтра), связана со спектральной (матричной) характеристикой фильтра фЦ) соотношениями ф(^) = Х°°— e~l t<2(t) (дискретное время), <рШ = J e'1 la(t)dt (непрерывное время). Стационарный процесс 7(0 можно представить в виде У(0=\еи\а)ФЫХ),Ц>еЬ2,
используя спектральное представление процесса X(t): X(t)=jeltX<t>(dX). Слектральная мера FY (матричная) связана со спектральной мерой Fx процесса X(t) соотношением dFY(X) = случае абсолютной непрерывности этих мер их спектральные плотности соотносятся аналогичным образом: fY(X) = <p(X)fx(X)<p (Я,). В частности, если X(t), Y(t) - скалярные процессы, то fY(X) = \<p(X)\2fx(X), где |<рШ| называется коэффициентом усиления фильтра на частоте X, arg <р(Я) - фазой фильтра, |ф(Я)| - коэффициентом усиления мощности. Л.ф. называется физически осуществимым, если a(t) = 0, t<0. Стационарный процесс называется линейно регулярным, если он получается физически осуществимым линейным преобразованием У('> = ЕГ=_00 aU-sMs) из стандартной некоррелированной последовательности белого шума е(0: Ее(О = 0, E|e(Ol2 = 5, Ee(Oe(s) = 0, t*s. Последнее представление процесса Y(t) называется разложением Вольда. Стационарный процесс Y(t) со спектральной мерой F является линейно регулярным в том и только в гом случае, когда F абсолютно непрерывна и ее спектральная плотность удовлетворяет условиям j_ \nf(X)dX>-°° (дискретное время), J \nf(X) 2 >-°° (непрерывное время). Применение Л. ф. с импульсной переходной функцией a(t), равной нулю вне отрезка [0, р], к процессу белого шума е(0 приводит к процессу X(t), к-рый в таком случае называется процессом скользящего среднего порядка р: X(t) = Yt+pa(t-s)X(s), спектральная плотность к-рого равна Если применение Л. ф. с импульсной переходной функцией, равной нулю вне отрезка [0, q], к стационарному в широком смысле процессу 7(0 приводит к процессу белого шума е(0, то такой процесс Х(0 называется процессом авторегрессии порядка q. Таково, напр., стационарное решение уравнения X(t) + bxX(t- 1) + ... + bqX(t-q) = a2e(0, к-рое существует, если нули многочлена Q(z) = 1 + b^z + ... +b zq лежат вне единичного круга; спектральная плотность в этом случае равна fx(X) = c2/2n\0(e'iX)\2. Процесс авторегрессии 1-го порядка является марковским процессом. Комбинирование моделей авторегрессии и скользящего среднего приводит к уравнению X(t) + b^X(t- \) + ... + bqX(t- q) = ^Pk=QqkE(t- k). Если нули многочлена Q(z) лежат вне единичного круга, то последнее уравнение имеет стационарное решение, называемое смешанным процессом авторегрессии и скользящего среднего порядка (q, р), сокращенно - процессом АР С С порядка (q, p). В практике цифровой фильтрации сигналов часто используют многочисленные Л.ф., полученные за счет выбора конкретных коэффициентов процесса АРСС (см. [4]-[8]). Таким является, напр., фильтр Калмана, определяемый уравнениями X(t) = ФЦ- \)XU- \) + г^- \), У(0 = Я(0Х(0 + е2(0. Задача состоит в получении наилучшей линейной оценки для Х(0 но наблюдениям Y(t) (см. [7]). Многочисленные технич. и другие приложения, связанные с цифровой линейной фильтрацией сигналов, см. в [9], [Ю]. Лит.: [1] Прохоров Ю.В., Розанов Ю. А., Теория вероятностей, 3 изд., М., 1987; [2] Кор о люк B.C. [и др.], Справочник по теории вероятностей и математической статистике, 3 изд., М., 1987; [3] Розанов Ю. А., Стационарные случайные процессы, М., 1963; [4] Ширяев А. Н., Вероятность, М., 1980; [5] Яглом A.M., Корреляционная теория стационарных случайных функций, Л., 1981; [6] Андерсон Т., Статистический анализ временных рядов, пер. с англ., М., 1976; [7] Хеннан Э., Многомерные временные ряды, пер. с англ., М., 1974; [8] Отнес Р., Эноксон Л., Прикладной анализ временных рядов, пер. с англ., М., 1982; [9] Раб и н ер Л., Голд Б., Теория и применение цифровой обработки сигналов, пер. с англ., М., 1978; [10] Handbook of statistics, v. 5, Time series in the time domains, Amst,- [a. o.], 1985. И.Г. Журбенко. ЛИНЕЙЧАТЫЙ МАРКОВСКИЙ ПРОЦЕСС (Markov line-wise process) - марковский процесс X(t) = {Y(t), Z(t)}, у к-рого первая компонента Y(t) = t-tk соответствует времени, прошедшему с момента tk скачка первого типа, tk^t<tk+i, a вторая компонента Z(t) на каждом интервале (tk, tk+]) соответствует однородному марковскому процессу с дискретным множеством состояний #={*}. В моменты tk изменения второй компоненты определяются вероятностями Р{ перехода из состояния X(tk+i - 0) = (у, i) в состояние (0, /). Класс Л. м. п. является естественным обобщением класса полумарковских процессов. Расчет стационарных вероятностей, распределения времен первого вхождения не сложнее расчета аналогичных характеристик для полумарковских процессов. Л. м. п. описывают эволюцию состояний нек-рых систем обслуживания и систем с восстанавливаемыми элементами. Лит.: [1] Беляев Ю. К., Линейчатые марковские процессы и их приложение к задачам теории надежности, в кн.: Тр. VI Всесоюзн. совещания по теории вероятностей и матем. статистике, Вильнюс, 1962, с. 309-23. Ю. К. Беляев. ЛИННИКА ДИСПЕРСИОННЫЙ МЕТОД (Linnik dispersion method) - см. Дисперсионный метод в теории чисел. ЛИННИКА ЗОНЫ СХОДИМОСТИ (Linnik zones of con vergence) - введенные Ю. В. Линником [1] области вида О^х^А(п), в к-рых имеют место соотношения при и->°о, где Fn(x) - распределения функция нормированной суммы п независимых одинаково распределенных случайных величин, удовлетворяющих нек-рому ослаблению Крамера условия, Ф(х) - стандартная нормальная функция распределения, А(п) -> оо при п -> оо. Лит.: [1] Л инн и к Ю. В., «Теория вероятн. и ее примен.», 1961, т. 6, в. 2, с. 145-63; [2] Ибрагимов И. А., Линник Ю. В., Независимые и стационарно связанные величины, М., 1965. В. В. Петров. ЛИННИКА КЛАСС (Linnik class) - класс безгранично делимых распределений, у к-рых спектральная функция G(x) в Леей - Хинчина каноническом представлении является функцией скачков с точками роста в множестве вида Где Йт1>0» Йт2<0 и Числа Hm+1,rAW <r=1' 2> W = 0' ±1, ...) - натуральные, отличные от 1. Л. к. играет важную ЛИННИКА 287
роль в теории разложений безгранично делимых распределений (см. Безгранично делимое распределение', разложение). Лит.: [1] Л инн и к Ю. В., «Теория вероятн. и ее иримен.», 1958, т. 3, в. 1, с. 3-40. И. В. Островский. ЛИТТЛА ФОРМУЛА (Little formula) - см. Обслуживания систем теория. ЛИУВИЛЛЯ СТОХАСТИЧЕСКОЕ ДИФФЕРЕНЦИАЛЬНОЕ УРАВНЕНИЕ (Liouville stochastic differential equation) - уравнение для первого интеграла обыкновенного стохастического дифференциального уравнения. Различают прямое и обратное Л. с. д. у. Прямому удовлетворяет первый интеграл, зависящий от «прошлого» винеровского процесса, порождающего исходное стохастич. дифференциальное уравнение, а обратному - первый интеграл, зависящий от «будущего» этого процесса. Оба Л. с. д. у. являются линейными стохастическими параболическими уравнениями второго порядка. Лит.: [1] Розовский Б. Л., Эволюционные стохастические системы, М., 1983. Б. Л. Розовский. ЛИ - ЯНГА ТЕОРЕМА (Lee - Yang theorem) - теорема о расположении нулей статистической суммы для ферромагнитных моделей статистической механики, находящая важные приложения в теории фазовых переходов. В случае ферромагнитной Изинга модели Л.-Я. т. утверждает, что для любого конечного объема статистич. сумма, рассматриваемая как функция параметра намагниченности h, принимающего комплексные значения, не обращается в нуль при Reh*0. Отсюда следует, что предельная свободная энергия является при Re/**0 голоморфной функцией от /г, откуда выводится отсутствие для такой модели фазовых переходов при /г*0. Аналогичный результат верен и для общего класса ферромагнитных моделей. Лит.: [1] Lee Т., Yang С, «Phys. Rev.», 1952, v. 87, p. 410-19; [21 Рюэль Д., Статистическая механика. Строгие результаты, пер. с англ., М., 1971. Р. Л. Добру шин. ЛОГАРИФМИЧЕСКАЯ ФУНКЦИЯ ПРАВДОПОДОБИЯ (logarithmic likelihood function/log-likelihood) - см. Правдоподобная функция. ЛОГАРИФМИЧЕСКИ НОРМАЛЬНОЕ РАСПРЕДЕЛЕНИЕ (lognormal distribution), логнормальное распределение,- непрерывное, сосредоточенное на (0, °°) распределение вероятностей с плотностью (рис.) Р(Х): -(1пд:-а)2/2о2 (*) ах42к где -оо<д<оо> а- параметры. Случайная величина X подчиняется Л. н. р. с плотностью (*), если ее логарифм 1пХ имеет нормальное распределение с параметрами а и с Таким образом, а = Е\пХ и a =DlnX. Л. н. р. является унимодальным распределением и имеет положительную асимметрию. Моменты случайной величины X с Л. н. р. с параметрами а и а выражаются формулой ЕХ = е а ' , математич. ожида- 2 2 2 ние и дисперсия равны соответственно еа + а' ие а + а (еа -1). Л. н. р. служит одним из простейших примеров распределения, крое не определяется однозначно своими моментами. Свойства Л. н. р. определяются свойствами соответствующего нормального распределения. Важнейшее свойство Л.н. р.: произведение независимых случайных величин с Л. н. р. снова подчиняется Л. н. р. Имеет место аналог центральной предельной теоремы: распределение произведения п независимых положительных случайных величин при нек-рых общих условиях стремится к Л.н. р. при и-><*>. Как предельное распределение Л. н. р. возникает и в нек-рых других схемах (напр., в моделях дробления частиц, моделях роста). 288 ЛИННИКА t "t- ¥ к t 3 -j. х ^ ^ S ^ ~"3 .2 .4 .6 1.0 1.2 1.3 1.6 1. .6 .3 2 2) .9 1.2 1.5 1.8 2.1 2.4 2.7 Плотности логарифмически нормального распределения при: 1) а=() и (1) о = 0,5; (2)о = 1; (3)о = 2; и 2)о=1 и (1)в = -0,5; (2) а = 0: (3) а = 0,5. Лит.: [1] Колмогоров А. Н., «Докл. АН СССР», 1941, т. 31, jNJb 2, с. 99-101 (в его кн.: Теория вероятностей и математическая статистика, М., 1986, с. 264-67); [2] Крамер Г., Математические методы статистики, пер. с англ., 2 изд., М., 1975; [31 Ait ch is on J., Brown J., The lognormal distribution, Camb., 1957. А. В. Прохоров. ЛОГАРИФМИЧЕСКОЕ РАСПРЕДЕЛЕНИЕ, логарифмического ряда распределение (logarithmic series distribution), - дискретное распределение вероятностей случайной величины X, принимающей целые положителы ые значения k = \, 2, ... с вероятностями (рис.) Pk=P{X = k} = - 1 0<q<\. M\-q) k Производящая и характеристич. функции Л. р. задаются соответственно формулами \n{\-qelt) P(Z): M\-qz) \n(\-q) ' fit) = - \n(\-q) 0.1' 1 2 3 4 5 6 7 8 9 10 11 12 Логарифмическое распределение при q = 0,4 и 67 = 0,9. Математич. ожидание и дисперсия равны соответстверно aq/(\ -q) и aq{\ +ag)/(l ~q)2, где a = -l/ln (1 -q). Впервые Л. р. введено в [11 в связи с задачами экологии. При отлове больших групп особей разных видов число отловленных особей одного вида хорошо описывается распределением Пуассона со средним, зависящим от вида, а среднее число особей случайно взятого вида - гамма-распределением. Отсюда следует, что число отловленных особей случайно выбранного вида хорошо описывается отрицательным биномиальным распределением Р{У = k} = (1 -qVq , k = 0, 1, ..,
0<q<\, и малым параметром г>0. Так как имеет смысл рассматривать только те виды, из к-рых поймана хотя бы одна особь, следует перейти к условному распределению P{Y = k\Y>\) = qk(\-qy/[\-(\-qY]t k=\, 2, ... Приг->оо это распределение сходится к Л. р. Сумма случайного числа независимых случайных величин Xj, ..., Хп, имеющих Л. р. с общим параметром q, где п имеет распределение Пуассона с параметром X, распределена по отрицательному биномиальному закону с параметрами р= 1 -q, r = X/\np (см. [2]). Лит.: [1] Fisher R., Corbet A., Wil 1 iams С, «J. Animal Ecology», 1943, v. 12, p. 42-57; [2] Quenouille M., «Biometrics», 1949, v. 5, p. 162-64; [3] КендаллМ., СтьюартА., Теория распределений, пер. с англ., М., 1966; [4] Moran P., An introduction to probability theory, Oxf., 1968. С. Я. Шоргин. ЛОГИСТИЧЕСКОЕ РАСПРЕДЕЛЕНИЕ (logistic distribution) - непрерывное, сосредоточенное на (-°°, °°) распределение вероятностей с плотностью (рис.) pW = l/4pch2(*-a)/2p, где а, Р - параметры, -оо<а<°°, Р>0. Функция распределения 1+ехр{(д:-а)/р} ' Л. р. симметрично относительно своего математич. ожидания х = а; его дисперсия равна п Р /3, характеристич. функция ДО = Л|к/8п(7фО. Л. р. известно в связи с многочисленными необоснованными попытками применения его для описания разнообразных законов развития в биологии, экономике, социологии и т. п. Л. р. мало отличается от нормального распределения, в нек-рых случаях оказывается более удобным и используется в стати- стич. исследованиях медико-биологич. объектов. Плотности логистического распределения при: а = 0 и (1) р = 0,5; (2)р=1;(3)р = 2. При моделировании Л. р. используется следующая связь его с равномерным распределением: если Z - случайная величина, имеющая равномерное на отрезке [0, 1] распределение, то случайная величина X = a+pinZ/(l -Z) имеет Л. р. с параметрами аир. Лит.: [1] Феллер В., Введение в теорию вероятностей и ее приложения, пер. с англ., т. 2, М., 1984. Н. Г. Ушаков. ЛОГНОРМАЛЬНОЕ РАСПРЕДЕЛЕНИЕ (lognormal distribution) - то же, что логарифмически нормальное распределение. ЛОЖНАЯ КОРРЕЛЯЦИЯ (spurious correlation) - термин, означающий явление, возникающее при рассмотрении некоррелированных случайных величин и указывающее на их приближенную взаимосвязь. Напр., если xv x2, х3 - взаимно некоррелированы и имеют положительные средние и малые коэффициенты вариации v^, v2, v3, то корреляция между Х\/х$ и х2/х3 приблизительно равна Р = vl/yltf+vl №+vl >0- По-видимому, это обусловлено тем, что некоррелированность еще не означает независимости. М. И. Войцеховский. ЛОКАЛЬНАЯ ТЕОРЕМА ВОССТАНОВЛЕНИЯ (local re newal theorem) - см. Восстановления теорема. ЛОКАЛЬНАЯ ЭРГОДИЧЕСКАЯ ТЕОРЕМА (local ergodic theorem) - утверждение, характеризующее локальное поведение траекторий измеримого потока {Т1, te№), действующего в вероятностном пространстве (Q, **/, Р): для любой функции feL (Ф при Р-почти всех coeQ выполняется равенство lim 1 Г f(T{(o)dt = /*(co). Эквивалентная формулировка: если Xt - стационарный в узком смысле измеримый процесс с конечным первым моментом, то почти наверное lim \*Xtdt=X«. Доказана Н. Винером [1]. Эта теорема, как и другие эргоди- ческие теоремы, обобщается на широкий класс групп преобразований, сохраняющих а-конечную меру. Лит.: [1] Wiener N., «Duke Math. J.», 1939, v. 5, № i, p. 1-18; [2) Petersen K., Ergodic theory, Camb., 1983. Б.М. Гуревич. ЛОКАЛЬНО ИЗОТРОПНАЯ ТУРБУЛЕНТНОСТЬ (locally isotropic turbulence) - концепция локальной структуры развитых турбулентных течений, в основных чертах созданная в работах А. Н. Колмогорова и A.M. Обухова (1941 и 1962). При больших значениях основного параметра, определяющего режим течения, - числа Рейнольдса UL/\ (где U - типичная скорость, L - типичный масштаб длины, v - кине- матич. вязкость жидкости) - турбулентный поток содержит большое число вихрей. Взаимодействие вихрей носит двоякий характер. С одной стороны, вихри растягиваются, или, располагаясь параллельно вблизи друг друга, соединяются, образуя большие вихри. Чаще вихри пересекают друг друга или сами себя (перекручиваясь восьмеркой). При этом в малых областях пересечений скорость деформации велика и энергия вихревого движения быстро диссипирует в тепло. Образующиеся обрывки вихрей замыкаются, формируются вихри меньших масштабов, к-рые снова вовлекаются во взаимодействие. Развитый турбулентный поток обладает каскадом взаимодействующих вихрей, масштабы к-рых различаются на много порядков. Качественные представления о каскаде вихрей в развитом турбулентном потоке были указаны в 1922 Л. Ф. Ричардсоном (L. F. Richardson). Вихри больших размеров испытывают влияние общей неоднородности и анизотропии потока, и их вклад в случайное поле скоростей турбулентного потока неоднороден и анизотропен. Основная идея А. Н. Колмогорова состояла в том, что с уменьшением масштаба вихрей стати- стич. структура вихревого каскада становится автономной, универсальной для всех турбулентных потоков. Универсальность означает одинаковость всех безразмерных статистич. характеристик. Из автономности следует статистич. однородность и изотропия мелкомасштабной части вихревого каскада, поскольку среди всех развитых турбулентных потоков имеются однородные и изотропные. Таким образом, поля скорости, ЛОКАЛЬНО 289
давления и других гидродинамич. характеристик любых развитых турбулентных течений можно считать локально однородными и локально изотропными случайными полями. Из малости масштаба однородных и изотропных вихрей сравнительно с масштабом L основного потока следует малость их характерных времен сравнительно с характерным временем основного потока L/U, влекущая за собой статистич. стационарность структуры автономной части вихревого каскада. Для исключения влияния больших вихрей и использования автономности мелкомасштабной части вихревого каскада рассматриваются статистич. характеристики не поля абсолютных скоростей и(х, t), а поля относительных скоростей Аги = и(х + г, t) - и(х, t) в окрестности данной точки потока х в момент t. Положение точки окрестности определяется радиус-вектором г. В частности, теория Колмогорова - Обухова дает универсальные выражения моментов вектора Аги первых трех порядков. Из изотропии следует, что E(Arw) = 0. Тензор вторых моментов Аги - изотропный однородный тензор валентности 2, откуда следует, что Dij= E(ArMiAr«;) = (DLL(r) -DNN(r))rirj/r2 + DNN(r)bij (1) (Aru{, r{ - компоненты векторов Aru, г; 8i; - компоненты единичного тензора). Здесь DLL = E(AruL) и DNN = E(AruN) - соответственно продольная и поперечная структурные функции поля скорости (AruL - компонента вектора Аги в направлении вектора г, a AruN - по любому перпендикулярному к г направлению). Кинематич. уравнение неразрывности к вектору Аги непосредственно неприменимо. Однако среди развитых турбулентных потоков имеются однородные и изотропные, а мелкомасштабная часть вихревого каскада автономна. Поэтому соотношение между DNN и DLL DNN = DLL + (r/2)dDLL/dr, (2) к-рое легко получить, считая все поля скорости однородными и изотропными, будет справедливо для всех развитых турбулентных потоков. При пересечении вихрями друг друга или самих себя и формировании меньших вихрей из больших область пересечения вихрей, где энергия быстро диссипирует в тепло, мала по сравнению с общей протяженностью этих вихрей. Поэтому для больших вихрей диссипация энергии в тепло в самом вихревом движении мала. Отсюда следует, что в крупномасштабной части автономного вихревого каскада энергия передается от больших вихрей к меньшим, практически не уменьшаясь. Ввиду статистич. стационарности каскада в целом скорость передачи энергии по каскаду равна средней скорости е диссипации энергии в тепло, к-рая осуществляется вихрями малых масштабов. Влияние вязкости начинает сказываться с вихрей масштаба rj (колмогоровский внутренний масштаб турбулентности), к-рый определяется только средней скоростью передачи энергии по каскаду е и кинематич. вязкостью V. Соображения подобия (инвариантность относительно группы подобия величин с независимыми размерностями) указывают, что ц ~v3'4/e^4- В автономной части вихревого каскада структурная функция DLL(r) и, следовательно, весь тензор D^ определяются только величинами г, е, Т| и L; влияние внешнего масштаба потока L априори исключить нельзя. Соображения подобия дают DLL(r) = (tr)2'4LL(r/x\, r/L). (3) 290 ЛОКАЛЬНО Во всей автономной части вихревого каскада r/L« 1. В развитом потоке существует инерционный интервал автономной части вихревого каскада, где имеется диапазон масштабов Т| « г « L, так что г/ц » 1. Основная гипотеза Колмогорова соответствует предположению о полной автомо- дельности вихревого каскада в инерционном интервале по параметрам r/ц и r/L, то есть в данном случае о существовании конечного, отличного от нуля предела lim Фи(г/% r/L)=<t>LL(oot 0) = C, r/т^-^оо, r/L ->0 где при сделанных предположениях С - универсальная постоянная. Отсюда и из соотношения (3) для инерционного интервала масштабов Т| « г« L получается Колмогорова закон двух третей: DLL = C(Er)2/3, (4) определяющий в силу (1) и (2) тензор D{j с точностью до универсальной постоянной С (эквивалентную спектральную формулировку этого закона дал А. М. Обухов в 1941; см. Колмогорова - Обухова закон пяти третей). Тензор третьих моментов Dijk(r) = E{AruiArUjAru^) в автономной части вихревого каскада аналогично определяется одной скалярной функцией DLLL = E{AruL). Соображения подобия дают DLLL(r) =Ei^LLL(r/r[, r/L). В предположении полной автомодельности в инерционном интервале автономного вихревого каскада получается Фщ(г/г\, r/L)» ~Ф^ц(°°, 0) = const *0. Выражение для постоянной находится с привлечением динамич. уравнений Навье - Стокса: DLLL = -(A/b)tr. (5) В области масштабов г«г\ определяющее влияние на поле относительных скоростей оказывает вязкость, так что относительная скорость - гладкая функция пространственных координат. Это дает в силу соотношения (2) DLL=Ar , DNN = 2Ar , DLLL = Br . Используя эти выражения и раскрывая выражение для средней скорости диссипации энергии £= (v/2)E(daMp + dpMa)(daMp + dpMa), где да - производная по ха, а под дважды встречающимися индексами подразумевается суммирование, А. Н. Колмогоров (1941) нашел, что A=e/\5v. Теория Колмогорова - Обухова позволила, исходя из тех же предположений автономии и автомодельности и их естественных обобщений, получить другие важнейшие статистич. характеристики развитых турбулентных течений. Для среднего квадрата ускорения частицы жидкости А в турбулентном потоке было получено (см. [9], [10]) соотношение Е(Л2) = const e3/2/v1/2. Поскольку е ~ U3/L (это следует из тех же соображений подобия), отсюда следует, что Е(Л2)~ lf'2/l?'2\x'2. Численные оценки привели к неожиданному результату: при сильных, но вполне обычных для земной атмосферы ветрах ускорение частиц воздуха имеет порядок ускорения силы тяжести. Для пространственных разностей давления Arp = p(x + r, t) -p(x, t) А.М.Обухов (1949) получил соотношения Е(\р ) = Dpp = const р е '" г ' в инерционном интервале и D „ = const р е ' v~ ' г при г « rj, где р - плотность жидкости. Особо важное значение для приложений (прежде всего для расчета рассеяния электромагнитных волн в атмосфере) имело исследование локальной структуры поля температуры. Здесь, помимо предположения о большом числе Рейнольдса Re » 1, делается такое же предположение о большом числе Пекле Ре = UL/x » 1 (ч - коэффициент температуропроводности), так что поток считается не только динамически, но и термически развитым. Наряду со скоростью диссипации вводится важное понятие с к о -
рости выравнивания температурных неодно- родностей N = хЕ(VT) , играющее для баланса среднего квадрата пульсаций температуры Т(х, i) ту же роль, какую играет скорость диссипации энергии е для баланса кинетич. энергии турбулентного потока. В простейшем предположении, что число Прандтля Pr = v/x имеет порядок единицы, для структурной функции пространственной разности температуры ArT = T(x + r, t)-T(x, t) получается общее соотношение подобия: Огг(г) = Е(АгГ)2 = №"1/2х1/2Фгг(г/т1> r/L), так что в инерционном интервале rj« г « L из тех же предположений, что и раньше, получается закон двух третей (для температуры): DTT(r) = const Mf1/3r2/3 (А. М'. Обухов, 1949). Эквивалентный спектральный закон пяти третей (для температуры) получен в [12]. При г«г\, раскрывая выражение для N аналогично тому, как это делалось для е, можно получить DTT(r) = Nr2/3x (А. М. Обухов, 1949). Подобным же образом получается родственное (5) выражение для третьего смешанного момента (AT)2 и Агм (см. [9], [10]). Последующее развитие теории выяснило принципиально важный, но не имевший количественных последствий факт: предположение о полной автомодельности вихревого каскада по параметру r/L не справедливо из-за существенного вклада флуктуации скорости диссипации энергии в масштабах основного потока. По-видимому, здесь имеет место неполная авто- мсдельность, так что, напр., функция Ф^, входящая в (3), при r/r|->°°, r/L->0 не имеет конечного, отличного от нуля предела, но имеет степенную асимптотику: Ф^ ~ const (r/L)a. Поэтому, напр., (4) заменяется соотношением DLL = (CL-a)e2/3r2/3+a. Поскольку, согласно экспериментальным данным, а много меньше 2/3 (по-видимому, а«0,05), отличие показателя степени при г от 2/3 экспериментально неощутимо, но постоянная в законе двух третей перестает быть универсальной. В работах А. Н. Колмогорова (1962), А. М. Обухова (1962) и A.M. Яглома (1966) были предложены различные стати- стич. модели перемежаемости скорости диссипации, приводящие к соотношениям неполной автомодельности для структурных функций (см. [3], [4], [11]). Лит.: [1] Колмогоров А. Н., «Докл. АН СССР», 1941, т. 30, № 4, с. 299-303 (Избранные труды. Математика и механика, М., 1985, с. 281-87); [2] его же, там же, 1941, т. 32, № 1, с. 19-21 (Избранные труды. Математика и механика, М., 1985, с. 290-93); [3] его же «J. Fluid Mech.», 1962, v. 13, № 1, p. 82-85; [4] Обухов A.M., «Докл. АН СССР», 1941, т. 32, № 1, с. 22-24; [5] его же, «Изв. АН СССР. Сер. геогр. и геофиз.», 1949, т. 13, № 1, с. 58-69; [6] его же, «Докл. АН СССР», 1949, т. 66, № 1, с. 17-20; [7] его же, «J. Fluid Mech.», 1962, v. 13, № 1,р. 77-81; [8] Монин А. С, Яглом A.M., Статистическая гидромеханика, ч. 2, М., 1967; [9] Яглом A.M., «Докл. АН СССР», 1949, т. 67, № 5, с. 795-98; [10] его же, там же, 1949, т. 69, № 6, с. 743-46; [И] его же, там же, 1966, т. 166, № 1, с. 49-52; [12] Corrsin S., «J. Appl. Phys.», 1951, v. 22, № 4, p. 469-73. Г. И. Баренблатт. ЛОКАЛЬНО ИЗОТРОПНОЕ СЛУЧАЙНОЕ ПОЛЕ (locally isotropic random field) - см. Случайное поле с изотропными приращениями. ЛОКАЛЬНО ИНТЕГРИРУЕМЫЙ ПРОЦЕСС (locally inte- grable process) - см. Компенсатор. ЛОКАЛЬНО КОНЕЧНАЯ МЕРА (locally finite measure) - см. Радона мера. ЛОКАЛЬНО НАИБОЛЕЕ МОЩНЫЙ КРИТЕРИЙ (locally most powerful test) - статистический критерий <р0, имеющий для каждого критерия <р с тем же уровнем такую окрестность нулевой гипотезы, в к-рой функция мощности критерия <р0 не меньше функции мощности критерия Точнее, пусть d(Q) - мера расхождения между альтернативой в и гипотезой Я, |$(<р, в) - функция мощности критерия ф. Критерий фо уровня а называется локально наиболее мощным в классе критериев Ф, если для каждого критерия <реФ уровня а найдется такое А, что Р(<р0в)^р(<р, в) при всех в с 0<d(6)<A. Л. н. м. к. в классе ранговых критериев называется локально наиболее мощным ранговым критерием, в классе несмещенных критериев-локально наиболее мощным несмещенным критерием и т.д. Ниже приводятся примеры, в к-рых в действительно и d(Q) = inf |в-60|. е0ея Пример 1. Если функция мощности каждого критерия непрерывно дифференцируема в точке 60, то Л. н. м. к. для проверки Я:6 = 60 при альтернативе /С:в>в0 существует в классе всех критериев для этой задачи и определяется тем, что среди всех критериев уровня а он максимизирует — р(ф, 6)|0 . В частности, если об 0 Р(ф, в) = J фОфеЫфС*) и для любой критич. функции ф возможно дифференцирование по в под знаком интеграла, то ^ Р<<Р. в>|в0 = J <P<*> ^ log рв(х)\во Р%(*)ф(*) и по лемме Неймана - Пирсона максимум последнего выражения при условии р(ф, 60) = а достигается, когда почти всюду по мере (I ф(#) есть индикатор множества вида {*:^logp0(*)|eo^}. Пример 2. Если функция мощности каждого критерия дважды непрерывно дифференцируема в точке в0, то существует локально наиболее мощным несмещенный критерий уровня а для Я: в = в0 при альтернативе К: в * в0, к-рый определяется тем, что максимизирует —j р(ф, в)|0 среди всех несмещенных критериев уровня а для Я. Если Р(ф, e)=jq>(x)pQ(x)dvi(x), то при возможности двойного дифференцирования по в под знаком интеграла критич. область локально наиболее мощного несмещенного критерия имеет вид Пример 3. Пусть f(y) - плотность относительно меры Лебега на II? , причем f абсолютно непрерывна и \\f'(y)\dy<o°. И пусть наблюдается выборка Xj, ..., Хт, Хт+], ..., Хт+п с совместной плотностью Щ, **<-•> 1Г::+,л*,>. •**■ Рассматривается задача проверки гипотезы Я:в = 0 против К: в > 0. Пусть am+n(i, /), 1 ^ i: ^ т + п,- метки, соответствующие плотности f, R{ - ранги Xit l ^i^m + n. Тогда критерий с критич. областью IT.. «—<*<•/■»* является локально наиболее мощным ранговым критерием для проверки Я против К. ЛОКАЛЬНО 291
Лит.: [1] Леман Э., Проверка .статистических гипотез, пер. с англ., 2 изд., М., 1979; [2] Кокс Д., Хинкли Д., Теоретическая статистика, пер. с англ., М., 1978; [3] ГаекЯ., ШидакЗ., Теория ранговых критериев, пер. с англ., М., 1971; [4] Neyman J., «Bull. Soc. math. France», 1935, v. 63, p. 246-66; [5] Lehmann E., «Ann. Math. Statist.», 1955, v. 26, № 3, p. 399-419. A. H. Тюлягин. ЛОКАЛЬНО ОДНОРОДНОЕ СЛУЧАЙНОЕ ПОЛЕ (locally homogeneous random field) - см. Случайное поле с однородными приращениями. ЛОКАЛЬНО ОДНОРОДНЫЙ СЛУЧАЙНЫЙ ПРОЦЕСС с независимыми приращениями (locally homogeneous random process with independent increments) - см. Случайный процесс с независимыми приращениями. ЛОКАЛЬНЫЕ ПРЕДЕЛЬНЫЕ ТЕОРЕМЫ (local limit theorems) - предельные теоремы для плотностей, то есть теоремы, устанавливающие сходимость плотностей последовательностей распределений к плотности предельного распределения (если указанные плотности существуют), или классический вариант - локальные теоремы для решетчатых распределений. Пусть {Х{}, i=\, 2, ..., - последовательность независимых одинаково распределенных невырожденных случайных величин, принимающих только значения вида b + Nh, где Л>0 и Ь - постоянные, N еЖ (то есть X,- имеют решетчатое распределение с шагом h). Л. п. т. для решетчатых распределений показывает асимптотич. поведение вероятности ^>=p{X"=i *■• = »*+"*}• Пусть ЕХ( = а, DX( = а2 > 0. Для того чтобы Jyfn Р„(Л0- 42к ехр -- Inb+Nh- "2[ а>/^ h-na п J ► 0 при и->°о равномерно относительно N, необходимо и достаточно, чтобы шаг h был максимальным (теорема Гнеденко; см. [1]). Здесь приведена Л. п. т. для наиболее простого случая одинаково распределенных случайных величин и нормального предельного распределения. Частные случаи этой теоремы для величин, принимающих только два значения, были известны еще А. Муавру (A. Moivre, 1730) и П. Лапласу (P. Laplace, 1812). Пусть {X;}, i=l, 2, ..., - последовательность независимых случайных величин с общей функцией распределения F(x), ЕХ{ = а, DXf = a2>0 и Z„ = (1/(Wh)X"=1 (Х(-а). Л. п. т. для плотностей показывает асимптотич. поведение плотности распределения рп(х) случайной величины Zn. Для того чтобы при п —> оо равномерно относительно х, необходимо и достаточно существование такого N, что плотность pN(x) ограничена (Б. В. Гнеденко; см. [2]). В настоящее время изучена не только сходимость к нормальному закону, но и скорость сходимости, получены уточнения Л. п. т. в смысле асимптотич. разложений (см. [4]). В качестве предельного рассматриваются произвольные устойчивые распределения (см. [3]). Л. п. т. перенесены также на случай разнораспределенных случайных величин и векторов (см. 12], [4]). См. также Случайное блуждание на группе; локальные теоремы. Лит.: [1] Гнеденко Б. В., «Успехи матем. наук», 1948, т. 3, в. 3, с. 187-94; [21 Петров В. В., Суммы независимых случайных вели- 292 ЛОКАЛЬНО чин, М., 1972; [3] Ибрагимов И. А., ЛинникЮ. В., Независимые и стационарно связанные величины, М., 1965; [4] Статуляви- чус В. А., «Теория вероятн. и ее примен.», 1965, т. 10, в. 4, с. 645-59. А. А. Миталаускас. ЛОКАЛЬНЫЙ МАРТИНГАЛ (local martingale) - случайный процесс, для к-рого найдется неубывающая последовательность марковских моментов такая, что «остановленные» процессы являются равномерно интегрируемыми мартингалами. Пусть X = (Xt)t^Q- процесс с непрерывными справа и имеющими пределы слева траекториями, согласованный с непрерывным справа семейством (потоком) & =(^\*--0 а-алгебр dt. Процесс X называется мартингалом, если Е|Х,| <°° и Р-почти наверное E(Xt\.«fs) = MS, s^t. При выполнении условия равномерной интегрируемости семейстна (Xt)t^0, то есть условия lim supE|X,|/(|A/,|>c) = 0, мартингал X называется равномерно интегрируемым мартингалом. Локальным мартингалом называется процесс М такой, что «остановленный» процесс МТ =(MtAT)t^0 является равномерно интегрируемым мартингалом при каждом п ^ 1 для нек-рой неубывающей последовательности марковских моментов (Г„)„^1 с ПтГ„ = эо п (Р-почти наверное). Л. м. М называется чисто разрывным, если процесс MN является Л. м. для любого ограниченного мартингала N с непрерывными траекториями, согласованного с ^. Всякий Л.м. с траекториями, являющимися функциями локально интегрируемой вариации, является чисто разрывным. Л.м. М допускает два разложения: М = М + М , М = Мс + 1^Г. В первом разложении А/1 -Л.м. с траекториями локально интегрируемой вариации, М - локально квадратично интегрируемый мартингал. Во втором разложении Мс - Л. м. с непрерывными траекториями (непрерывная мартингальная составляющая) и Mq = 0, являющийся локально квадратично интегрируемым мартингалом, М - чисто разрывный Л.м. С Л.м. М обычно связывают возрастающие случайные процессы М* =(sup|Afs|),>0, (ДМ)* =(sup|AM9)^0, I <^>2 =(IsS( (ДМ5)2Цо, где AMS = MS- lim Mu. При этом процессы А/* и (ДА/)* явля- ются локально интегрируемыми, а процесс £ (AM) обладает свойством У (AMs)2<oo(p -почти наверное), t>0. Для Л. м. М определяется квадратич. вариация [А/, М]~ = ([М, А/],)^0с [М, M]t = {Af\ + ^s<t(AMs)2, где^Г)- квадратич. характеристика локально квадратично интегрируемого мартингала Мс, участвующего в разложении Лит.: [1] 11о К., Watanabe S., «Ann. Inst. Fourier», 1965, v. 15, p. 13-30; [2] Jacod J., «Lect. Notes Math.», 1979, v. 714; [31 Л ипцер P. III., Ill и ря ев А. Н., Теория мартингалов, М., 1986. Р. Ш. Липцрр. ЛОКАЛЬНЫЙ МАРТИНГАЛ; интегральное пред ставление (local martingale; integral representation of). Пусть (Q, со/, A = (.«4)*^o» P) ~ стохастич. базис, Х= (Xt)t>() - семимартингал относительно (^, Р) с триплетом предсказуемых характеристик Т = (В, С, v), непрерывной мартингальной составляющей Xе = (X^)t^0 и мерой скачков \i = \i(dt, dx). Локальный мартингал М = (Mt)t^0 относительно (А, Р) с непрерывными справа и имеющими пределы слева траектори-
ями допускает интегральное представление, если существуют ^измеримая (предсказуемая) функция Л = Л(со, t) и &х #КН?)-измеримая [а0(11?)-борелевская а-алгебра на Щ функция #=//(со, t, х), удовлетворяющие условиям существования стохастич. интегралов по непрерывному Л. м. Xе и мартингал ьной мере |i-v, такие, что для М существует интегральное представлениев виде суммы М0 и стохастич. интегралов: Mt = MQ + hXct+H*(vi-v)t. С) Условия существования интегрального представления для М связаны с семейством вероятностных мер ^Р = {Р:Р«Р, Р0 = Ро, Т = Т), характеризующимся тем, что всякая мера Р из !£р абсолютно непрерывна относительно Р, ее сужение на **/0 совпадает с сужением Р на с</0 и триплет Т = (В, С, v) (^, Р)-семимартин- гала X (при абсолютно непрерывной замене меры Р« Р семимартингальное свойство процесса X сохраняется) является Р-неразличимым с триплетом Т. Существование интегрального представления (*) для любого Л.м. М [относительно (^, Р)] с непрерывными справа и имеющими пределы слева траекториями эквивалентно условию (fP = {P), то есть #Р состоит из одной точки. Простым примером для этого случая служит мера Р, относительно к-рой семи мартингал X является процессом с независимыми приращениями. Лит.: [1] Jacob J., «Proc. of Symp. in Pure Math.», 1977, v. 31, p. 37-53; [2] ЛипцерР.Ш., Ш и ря ев А. Н., Теория мартингалов, М., 1986. Р.Ш. Липцер. ЛОРЕНЦА ГАЗ (Lorentz gas) - динамическая система, отвечающая движению по инерции бесконечного числа невзаимодействующих между собой точечных частиц в d-мерном евклидовом пространстве на дополнении к бесконечному числу ограниченных замкнутых множеств (рассеивателей), от границ к-рых частицы отражаются по закону: «угол падения равен углу отражения» (см. [1]). Если рассеиватели выпуклы, то для их конфигураций общего вида Л. г. является К-сьстемой (см. [2]), а в случае периодич. конфигурации Л. г. сводится к Синая бильярду. Лит.: [1] Lorentz H., «Proc. Koninkl. ned. akad. wet. A», 1904-05, v. 7, p. 438-53, 585-93, 684-91; [2] Синай Я. Г., «Функц. анализ и его прилож.», 1979, т. 13, в. 3, с. 46-59. Л. А. Бупимович. ЛЮСИАН (ljusian), вектор Бернулли,- случайный вектор, координатами к-рого являются результаты независимых Бернулли испытаний, вообще говоря, разнораспределен- ных то есть конечная последовательность независимых случайных величин Xj, Х2, ..., Xk, принимающих значения 0 и 1, причем числа Р{Х,= 1} могут различаться. Понятие Л. (см. [1]) широко используется в статистике объектов нечисловой природы. К Л. сводятся случайные толерантности (рефлексивные и симметричные бинарные отношения), конечные случайные множества с независимыми элементами, последовательности независимых парных сравнений. Л. применяют в статистич. методах управления качеством продукции, при обработке медицинских, социологич., экспертных, психологич. данных. Лит.: [1] Орлов А. И., в кн.: Алгоритмическое и программное обеспечение прикладного статистического анализа, М., 1980, с. 287-308; 12] его же, в кн.: Экспертные оценки в задачах управления, М., 1982, с. 58-66; [3] Рыданова Г. В., в кн.: Случайный анализ, М., 1987, с. 68-81; 14] ее же, «Вестн. МГУ. Вычисл. матем. и киберн.», 1987, № 2, с. 54-58. А. И. Орлов. ЛЯПУНОВА ДРОБЬ (Lyapunov fraction/ratio) - см. Ляпунова теорема. ЛЯПУНОВА НЕРАВЕНСТВО (Lyapunov's inequlity) - неравенство между абсолютными моментами случайной величины X: (Е|хЬ1/5^(Е|х|<)1А неположительно. Для марковских процессов с непрерывным временем оператор L есть инфинитезимальный оператор соответствующего процесса, и потому проверка условия LV(t, д:)<0в конкретных случаях не вызывает затруднений. Л. с. ф. есть обобщение классич. функции Ляпунова для обыкновенного дифференциального уравнения, в к-рую она переходит, когда процесс детерминирован. Часто Л. с. ф. называют и такие, с помощью к-рых легко можно сформировать супермартингал. Ниже приведены два типичных критерия в терминах Л. с. ф., широко используемых при исследовании качественного поведения траекторий случайных процессов. 1. Марковский процесс Х(0 в II? почти наверное не уходит в оо за конечное время, если существуют Л. с. ф. V(t, л:)^0и постоянная с^О такие, что inf V(t, *)-><*> при Д->оо; LVU, x)^cV(t, x). t^O, \x\>R 2. Траектория X(t)=0 марковского процесса устойчива по вероятности в сильном смысле, если существует положительно определенная в смысле Ляпунова Л. с. ф., для к-рой LV(t, х)^0 в нек-рой окрестности точки х = 0 (подробнее см. в[1]-[3]). Лит.: [1] Кушнер Г. Дж., Стохастическая устойчивость и управление, пер. с англ., М., 1969; [2] Хасьм и иски й Р. 3., Устойчивость систем дифференциальных уравнений при случайных возмущениях их параметров, М., 1969; [3] Калашников В. В., Качественный анализ поведения сложных систем методом пробных функций, М., 1978. Р.З. Хасьминский. ЛЯПУНОВА ТЕОРЕМА (Lyapunov theorem) - первое значительное продвижение в обобщении Муавра - Лапласа теоремы. Современная формулировка Л. т. такова; пусть Sn = Xi + ... + Хп, п^\,- последовательность сумм независимых случайных величин с конечными математич. ожиданиями ak = EXk и центральными абсолютными моментами $k(r) = E\Xk-ak\r порядка 2<г^3. Если выполнено условие Ляпунова: e„(r) = tf-r(P1(r) + ... + p„(r))->0 при л->°°, где B* = DXi + ... + DXn, то A„ = p(F„, 0) = sup |f„(*)-0(*)| ->0, и->°°, .г где F„ - функция распределения суммы ЛЯПУНОВА 293 при 0<s<t. В частности, при s = 1, t = 2 (е|х|)Чех2. Л. н.- частный случай Иенсена неравенства. /% Лит.: [1] Л я п у нов А. М., Собрание сочинений, т. 1, М., 1954. Б. А. Севастьянов. ЛЯПУНОВА СТОХАСТИЧЕСКАЯ ФУНКЦИЯ (Lyapunov stochastic function) - неотрицательная функция V(t, x), для к-рой пара (V(t, х), dt) является супермартингалом', здесь X(t) - нек-рый случайный процесс, dt есть а-алгебра событий, порожденная событиями X(s)^A, s^t. Если X(t) - марковский процесс с дискретным временем, то Л.с.ф. есть функция, для к-рой выражение LV(t, x) = E{V(t+\, X(t+\))\x(t)=x}-V(t, x)
Эта теорема была доказана новым для теории вероятностей характеристических функций методом (см. [2], [3]). Постановка проблемы и возможный путь ее решения моментов методом были предложены П. Л. Чебышевым [1]. Результат А. М. Ляпунова этим методом был повторен А. А. Марковым [4]. В работах [2] и [3] в действительности была доказана не только равномерная сходимость Fn к Ф, но и получены оценки скорости сходимости, зависящие от нескольких свободных параметров. Вытекающие из них упрощенные варианты оценок скорости сходимости указаны в [5]: Д„< м ■ехр[-А е„(г), 2<г<3 С) ! 3-г \г-2 [Me„(r)|loge„(r)|, если г = 3, где М - числовая постоянная. Усилиями А. Берри [6], К. Эс- сеена [7] (случай г = 3) и М. Каца [8] эти оценки были уточ- А„^Се„(г), 2<г<3, где С - числовая постоянная. В настоящее время известно, что С^0,4097... (К. Эссеен [9]) и что С^0,7915 (И. С. Шига- нов [10]). Ставшее традицией выделение случая г = 3 как предпочтительного, если е„(3) <°°, обосновано лишь для одинаково распределенных слагаемых Xk (на это указывал А. М. Ляпунов [2], построив пример, когда £„(5/2) = о(е„(3)); см. [5]). Хотя Л. т. формально связана со схемой нарастающих сумм независимых случайных величин, оценки (*) указывают на то, что она остается справедливой и в случае серий схемы. О дальнейшем развитии Л. т. см. в ст. Центральная предельная теорема. Лит.: [1] Чебышсв П. Л., «Зап. имп. Акад. наук», 1887, т. 55, № 6, Приложение; [2] Liapounoff А., «Изв. имп. Акад. на}к», 5 серия, 1900, т. 13, № 4, с. 359-86; [3] его же, «Зап. имп. Акад. наук», 8 серия, 1901, т. 12, № 5, с. 1-24; [4] Марков А. А., Исчисление вероятностей, 4 изд., М., 1924; [5] Зол отаре в В. М., «Труды Матем. ин-та АН СССР», 1988, т. 182, с. 24-47; [6] Berry A.C., «Trans. Amer. Math. Soc», 1941, v. 49, p. 122-36; [7] Esseen C.G., «Acta Math.», 1945, v. 77, p. 1-125; [8] Katz M., «Ann. Math. Statist.», 1963, v. 34, № 3, p. 1107-08; [9] Esseen C.G., «Skand. Aktu- arientidskr», 1956, v. 39, № 3-4, p. 160-70; [10] Шиганов И. С, в сб.: Проблемы устойчивости стохастических моделей, Тр. семинара, М., 1982, с. 109-15. В. М. Золотарев, В. М. Круглое. ЛЯПУНОВА УСЛОВИЕ (Lyapunov condition) - см. Ляпунова теорема.
МАГИЧЕСКИЙ КВАДРАТ (magic square) - см. Комбинаторные задачи классические. МАКСВЕЛЛА РАСПРЕДЕЛЕНИЕ (Maxwell distribution) - непрерывное, сосредоточенное на (0, °°) распределение вероятностей с плотностью (рис.) V к <г* 2/2о2 С) где а>0. Функция распределения Л*) = 2Ф(*/а)- Д^бГ*2/2о2 _lf V тс а где Ф(#) - функция стандартного нормального распределения. М.р. имеет положительный коэффициент асимметрии; оно унимодально, мода находится в точке х = ^2о. М.р. имеет конечные моменты любого порядка; математич. ожидание и дисперсия равны соответственно 2 л/Гаи Зтс-8 2 тс 1.0 .8 .2 —, i / / /, к t\ _! / / i \ \ \ \ ** dL L \ -**> — L ч 3 •^ "-*■. »- ^■v. ■^J 1.0 1.5 2.0 2.5 3.0 3.5 4.0 4.5 Плотности распределения Максвелла при: (1) а = 0,5; (2)а=1; (3)а = 2. Если Xv Х2, Х3 - независимые случайные величины, име- 2 ющие нормальное распределение с параметрами 0 и а , то случайная величина \Xj + Х2 + Х3 имеет М. р. с плотностью (*). То есть М.р. может быть получено как распределение длины случайного вектора, координаты к-рого в декартовой системе координат в трехмерном пространстве независимы и нормально распределены с параметрами 0 и а . М. р. при а= 1 совпадает с распределением квадратного корня из величины, имеющей хи-квадрат распределение с тремя степенями свободы (см. также Рэлея распределение).М.р. играет важную ротъ в теории кинетич. уравнений, особенно Больцмана уравнения. В частности, оно дает стационарное решение уравнения Больцмана; исследование линеаризованного уравнения в «малой окрестности» этого решения позволяет доказать локальную разрешимость задачи Коши. Впервые установлено Дж. Максвеллом (1859) при решении задачи о распределении скоростей молекул идеального газа. Лит.: [1] Феллер В., Введение в теорию вероятностей и с»* приложения, пер. с англ., т. 2, М., 1984. А. В. Прохоров, /О. ЛЛ Сухов. МАКСВЕЛЛА - БОЛЬЦМАНА СТАТИСТИКА (Мах well - Boltzmann statistic) - см. Больцмана распределение. МАКСИМАЛЬНАЯ ЭНТРОПИЯ; спектральная оценка (maximum entropy; spectral estimator), авторегрессионная спектральная оценка, - оценка f*(X) спектральной плотности f(X) стационарного случайного процесса с дискретным временем такая, что фиксированное число q отвечающих ей автокорреляций низших порядков совпадает с соответствующими значениями выборочной корреляционной функции, подсчитанными по данным наблюдений, и при этом удельная энтропия гауссовского случайного процесса со спектральной плотностью f*iX) оказывается наибольшей из возможных. Если из наблюдений известны N выборочных значений xt, t=\, 2, ..., N, представляющих собой отрезок одной реализации вещественного стационарного процесса X(t), имеющего спектральную плотность f(X), то оценка f*(X) определяется соотношениями (1) (2) f_ncoskXf;(X)dX = rlEN-'^k xjxj + kf k = 0, 1, ... J log fq(X)dX = max, где знак Е означает «равно по определению». Спектральная оценка М. э. была предложена Дж. Бергом (J. Burg) в 1967 в докладе на геофизич. конференции (см. [1]); она имеет вид /■;<»= г» (3) 4 2я| 1+pj exp(iA.)+...+P<7 exp(iqX)\z где коэффициенты Pj, ..., |L, а определяются из q + 1 уравнений (1). Формула (3) показывает, что спектральная оценка f*(X) совпадает с так наз. авторегрессионной спектральной оценкой, независимо предложенной Э. Парзе- ном [2] и X. Акаике [3]. Положительное целое число q в применении к М. э. играет роль, родственную той, к-рую играет обратная ширина спектрального окна в случае непара- метрич. оценивания спектральной плотности с помощью сглаживания периодограммы; о ряде специальных методов оценивания оптимального значения q по данным наблюдений см. в ст. Параметрическая модель; выбор порядка. Значения коэффициентов Pj Р , а могут быть найдены, напр., с помощью решения системы Юла - Уокера уравнений r**+2£.i Р/[**-л=°.fe=1 ч. 'о*+52-1Р//=°2 (см. Юла - Уокера оценки параметров авторегрессии). Существуют также и другие, вычислительно более удобные методы расчета этих коэффициентов (см. Берга метод оценивания параметров авторегрессии, а также [4]-[6]). МАКСИМАЛЬНАЯ 295
М. э. спектральных оценок и обобщающие их параметрич. спектральные оценки в случае относительно небольшого объема выборки N или спектральных плотностей сложной формы обладают определенными преимуществами перед непа- раметрич. оценками функции f(X): они обычно имеют более правильную форму и обладают заметно лучшей разрешающей способностью, то есть позволяют лучше различать близкие пики графика спектральной плотности (см., напр., [1], [4]-[7]). Поэтому спектральные оценки М. э. широко используют в прикладном спектральном анализе стационарных случайных процессов. Лит.: [1] Modern spectrum analysis, N. Y., 1978; [2] Parzen E., «Radio Sci», 1964, v. 68D, № 9, p. 937-51; [3] Akaike H., «Ann. Inst. Statist. Math.», 1969, v. 21, p. 407-19; 14] Nonlinear methods of spectral analysis, 2 ed., B.-[a. o.], 1983; [5J КейС. М., МарплС.Л., «Тр. Ин-та инж. электротехн. радиоэлектр.», 1981, т. 69, № 11, с. 5-51; [6] Методы спектрального оценивания, там же, 1982, т. 70, № 9; [7] П исаренко В. Ф., в сб.: Вычислительная сейсмология, в. 10, М., 1977, с. 118-49. А. М. Яглом. МАКСИМАЛЬНОГО ПРАВДОПОДОБИЯ МЕТОД (maximum likelihood method), наибольшего правдоподобия метод, - один из наиболее распространенных методов нахождения статистических оценок. Пусть наблюдается выборка Х=(Х1, ..., Хп) из параметрич. семейства {Р0} с неизвестным параметром ве0 и пусть все распределения Р0 имеют плотность распределения dPQ{x) fa(x) = — относительно нек-рой меры \i, так что функция правдоподобия Ш)=ПД, W- М. п. м. рекомендует выбрать в качестве оценки для параметра 0 то значение в аргумента функции L(0), на к-ром она достигает наибольшего значения на 0; L(6) = maxL(6). Оценка (161) называется оценкой максимального правдоподобия. В широком классе случаев оценка максимального правдоподобия является состоятельной и асимптотически эффективной. Если параметрич. множество 0 с: IR", то удобно для отыскания в составить и решить уравнение правдоподобия —-—— = 0, i= 1, 2, ..., k, в = (в1, ..., в^), среди корней к-рого и содержится оценка максимального правдоподобия 6. Примеры. 1) Пусть (Хг) - выборка из нормального закона с плотностью распределения (27с)"1/2а_1ехр {-(х- а)2/2о2} с неизвестными параметрами а, а. Уравнения правдоподобия: х;и<х;-*>=о, 4+^i:^-<o2=° и оценки максимального правдоподобия: п *-<ii=A l п **г = \ г 2) Пусть X; принимают значения 0, 1 с неизвестными вероятностями 1 -в, в соответственно, 0<6< 1. Функция правдоподобия : 1.(в) = пя ex'(i-e)1-x', 1 xt=i и оценка максимального правдоподобия: Ь = -Т" . х,. п *-ч = \ 1 М. п. м. как общий метод для нахождения оценок предложил Р. Фишер [ 1 ]. Этот метод употребляется и в более общей 296 МАКСИМАЛЬНОГО ситуации: если X - наблюдение, к-рому соответствует ф)нк- ция правдоподобия £(в), то опять М. п. м.^рекомендует оценки максимального правдоподобия - точку в, где £(в) достигает наибольшего значения. Напр., если наблюдение X есть решение стохастич. уравнения dX(t) =QS(t)dt + dw, в - неизвестный параметр, w - винеровский процесс, S - известная функция, то 1(8) = expjej1 ЯиШХм)-— J1 S2(u)du\, и оценка максимального правдоподобия: 6= \] S(u)dX(u)/( S2(u)du. Jo Jo См. также Асимптотическая теория оценивания. Лит.: [1] Fischer R., «Mess, of Math.», 1912, v. 41, p. 155-60; [2] Боровков А. А., Математическая статистика, М., 1984; [3] Ибрагимов И. А., ХасьминскийР. 3., Асимптотическая теория оценивания, М., 1979; [4] Крамер Г., Математические методы статистики, пер. с англ., 2 изд., М., 1975. И. А. Ибрагимов. МАКСИМАЛЬНОГО ПРАВДОПОДОБИЯ ОЦЕНКА (maximum likelihood estimator) - статистическая оценка, построенная в соответствии с максимального правдоподобия методом. И. А. Ибрагимов. МАКСИМАЛЬНОГО ПРАВДОПОДОБИЯ ПРИНЦИП (maximum likelihood principle) - см. Наибольшего правдоподобия принцип. МАКСИМАЛЬНОГО ПРАВДОПОДОБИЯ СПЕКТРАЛЬНАЯ ОЦЕНКА (maximum likelihood spectral estimator) - оценка спектральной плотности f(X, k) однородного пространственно-временного случайного поля X(t, x), где Хе [0, 2л] - нормированная круговая частота, kell?" - волновое число, feZ - дискретное время, JCeIR" - пространственные координаты. Если известна выборочная функция поля в точках пространства х^, ..., хм и на интервале времени \^t^N, то М. п. с. о. вычисляется по формуле /а *) = {5£;=1 Фм,,а)ехР[,*т(*и -*;.)i} , (о где [фт,,(^)] = /? (А,) - выборочная оценка матрицы R~ Ck), обратной для ЯШ = I pm>/U) = J f(X, k)eikT(x'n~x^dk, 1^;, т^м\. Матрица R(k) является матрицей спектральных плотностей М-мерного стационарного процесса Y(t) = (X(t, x^), ..., X(t, xM)). Выборочная оценка R~\X) получается по реализации У(0, наблюдаемой на интервале \^t^N в соответствии с одним из известных методов оценивания спектра многомерного стационарного процесса. Название М. п. с. о. связано с тем, что выражение £", = 1 Рт,;^0>еХр[^0Т^,« -*;>]} . (2) представляет собой дисперсию оценки максимального правдоподобия для амплитуды а гармоники a exp[iX0t +tklxJ] в случае, когда эта оценка получается по реализации поля X(t, x)+ a exp[iXQt + ikTx], наблюдаемой в точках xv ...,xM и на интервале i^t^N. При этом предполагается, что N достаточно велико, а X(t,x)=jeiXt + ikTxdza,k),. где z(k, k) - ортогональная спектральная мера, есть гауссов- ское поле со спектральной плотностью f(k, k). Оценка максимального правдоподобия а обладает в данном случае свой-
ством эффективности, поэтому содержащиеся в поле X(t, x) гармонии, составляющие вида exp[iXt + ikTx]dz(X, k) вносят при k*kQ, X*\q минимально возможный вклад в дисперсию (2), и эта величина определяется в основном составляющими с k = kQ и X = Xq. Поэтому (2) и ее выборочный вариант (1) используют в качестве оценки для f(k, к). М. п. с. о. была введена Д. Кейпоном [1], [2], она является частным случаем оценок, рассмотренных в [3]. Лит.: [1] Кейпон Д., «Тр. Ин-та инж. электротехн. радио- электр.», 1969, т. 57, № 8, с. 69-79; [2] Кейпон Д., Грин- фллд Р., Колкер Р., там же, 1967, т. 55, № 2, с. 66-83; [3] Pi- sarenko V. F., «Geophys. J. Roy. Astron. Soc\», 1972, v. 28, p. 511-31. В. Ф. Писаренко. МАКСИМАЛЬНОЙ МАССЫ МЕТОД (maximum mass method) - см. Писаренко спектральная оценка. МАКСИМАЛЬНЫЙ КОЭФФИЦИЕНТ КОРРЕЛЯЦИИ (maximal correlation coefficient) - характеристика взаимозависимости случайных величин X и Y, определяемая как точная верхняя грань значений корреляции коэффициентов между действительными случайными величинами <Pj(X) и Ф2(У) - функциями от случайных величин X и У такими, что Е(р1(Х) = Еф2(У) = 0и 0ф,(Х) = 0ф2(У) = 1: р*(Х, У) = 8ирЕ[ф1(Х)ф2(У)]. Если эта верхняя грань достигается при cp^cpjXX) и фм = Ф2*(У), то М. к. к. между случайными величинами X и У равен коэффициенту корреляции между величинами cpjXX) и ф2(У). М.к. к. обладает тем свойством, что равенство р*(Х, У) = 0 необходимо и достаточно для независимости случайных величин X и У. При линейной корреляции между величинами М. к. к. совпадает с обычным коэффициентом корреляции. Лит.: [1] Сарманов О. В., «Докл. АН СССР», 1958, т. 120, № 4, с. 715-18; [21 его же, там же, 1946, т. 53, № 9, с. 781-84; 13] Прохоров Ю. В., Розанов Ю.А., Теория вероятностей, 3 изд., М., 1987. и. О. Сарманов. МАКСИМАЛЬНЫЙ ШАГ распределения (span of a distribution) - см. Решетчатое распределение. МАКСИМИННЫЙ КРИТЕРИЙ (maximin test) - статистический критерий для проверки сложной гипотезы Я: в е (йн против сложной альтернативы /С: в е со^, минимальное значение мощности к-рого максимально в классе критериев проверки Н против К, имеющих один и тот же размер а. Другими словами, критерий <р уровня а называется макси- минным критерием уровня а, если для любого критерия £ уровня а inf EqCJ)^ inf E0£. Если семейство распределений {Р0, в е с% U^%} на измеримом пространстве (iJJT, .J) доминируемо а-конечной мерой |i и ^ обладает счетным множеством образующих, то М.к. существует для любого ае(0, О. Если задача проверки Н против К остается инвариантной относительно преобразований нек-рой группы G, то существует тесная связь между максиминным свойством и инвариантностью. Теорема. Пусть 33 есть а-поле подмножеств группы G и {v„} - последовательность вероятностных мер на (G, 33) такие, что: 1) для любого Ле.«/ множество пар (х, д) с дх^М принадлежит Ах33; 2) ВдеЗВ для любых В е 33 и д е G; 3) lim \\п(Вд) - v„(£) | = 0 для любых # е G, В е 33. Тогда для любого схе(0,1) существует почти инвариантный критерий уровня а, к-рый является максиминным. Условиям теоремы удовлетворяют следующие типы групп преобразований: 1) группа переносов bR"^:(jcj, ..., хп) -> ->(х^+д, ..., хп + д); 2) группа изменений масштаба в II?" g:(xv ..., хп) -> (дх^, ..., дхп), 0<<7<°°; 3) группа ортогональных преобразований IP"; 4) группа преобразований подобия в IP"; 5) конечные группы; 6) прямое произведение конечного числа групп типа 1) - 5). Отысканию М.к. в конкретных задачах помогает кроме соображений инвариантности также тот факт, что в широком ряде случаев М. к. совпадает с решением надлежаще подобранной бейесовской проблемы. Теорема. Пусть плотности р$(х) = б/РеД/|1 измеримы относительно Сс/х 33н) и (^/х <Bk), где &н и % - заданные а-иоля в соя и щ. Пусть А, и А/ - любые распределения на &н и 33k и ф^д. - наиболее мощный критерий уровня а для проверки гипотезы ЛЫ=[ pB(x)dU9) J<oH при альтернативе h'lx)=\ peCrMA'(e). J(0k И пусть Р^дг - мощность этого критерия при альтернативе h!. Если существуют А и А' такие, что SUP Ee<Pu-(*) ^ a' inf ЕеФхд'^> = Рх,Х'. т0 Фх.А/ ~ М.к. уровня а для проверки Н против К\ он является единственным критерием с этим свойством, если единствен наиболее мощный критерий уровня а для проверки h при альтернативе Ы. Лит.: [1] Леман Э., Проверка статистических гипотез, пер. с англ., 2 изд., М., 1979; [2] Гаек Я., Шидак 3., Теория ранговых критериев, пер. с англ., М., 1971. А.Н. Тюлягин. МАКСИМУМА СЛУЧАЙНЫХ ВЕЛИЧИН СХЕМА (maxi- mum scheme for random variables) - аналог суммирования случайных величин схемы, в к-рой рассматриваются наборы максимумов Sn = max (Xj, ..., Хп). М. с. в. с. находит применение в математич. статистике, поскольку Sn является крайним членом вариационного ряда. Анализ распределений в М.с. в.с, в том числе и асимптотический, располагает большим числом результатов (см., напр., [1] - [3]). Лит.: 11] ГаламбошЯ., Асимптотическая теория экстремальных порядковых статистик, пер. с англ., М., 1984; 12] ПанчеваЕ., «Теория вероятн. и ее примен.», 1986, т. 31, в. 4, с. 730-44; 13] ее же, там же, 1988, т. 33, в. 1, с. 167-70. В. М. Золотарев. МАЛЛЯВЕНА ИСЧИСЛЕНИЕ (Malliavin calculus), исчисление стохастических вариаций, - вероятностный подход, к-рый предложил П. Маллявен (см. [1], [2]) для доказательства гладкости переходной вероятности диффузионного процесса или теоремы Хермандера и ги- поэллиптичности дифференциальных операторов 2-го порядка. Позднее были предложены (см. [3] - [5]) иные интерпретации М. и. Пусть на вероятностном пространстве (О, .*/, Р) задан d-мерный винеровский процесс w = (w(t)), O^t^T. Рассматривается N-мерный диффузионный процесс (Х(0), являющийся решением уравнения Ито X(t)=x+ f0 o(X(s))dw(s) + j'Q b(X(s))ds,xe№N, где a= \\oik\\ - матрица N*d, b = (b{) - N-мерный вектор, a, b и их производные -—, -— бесконечно дифференцируемые и ограниченные. ' ' МАЛЛЯВЕНА 297
Утверждение теоремы Хермандера в вероятностных терминах означает, что при любом t>0 распределение Pt(x,) величины X(t) имеет гладкую плотность, если алгебра Ли, натянутая на векторные поля V , ..., V , [V , U], ..., [ V , U], имеет размерность N в каждой точке дгеВ?я, где коэффициенты Ui - нек-рые функции от oik, bi и их производных, [X, Y] - скобки Ли векторных полей X и Y. В силу условий на коэффициенты а и Ь уравнение имеет сильное решение и является функционалом от винеровского процесса. Поэтому теорема Хермандера означает, что нек-рый ^-измеримый функционал A[w] с Е|Л[а>]| <<*> имеет гладкую плотность распределения, гдеdw = o{ws, O^s^T} - а-ал- гебра, порожденная процессом w. (Далее считается d= \.) Основные понятиям, и. (см. [5]). Функционал A [w] представим в виде ряда из кратных винеровских интегралов где W < < <t1^s< sn)dw dw fneL2(K"+} Вводятся понятия производной Маллявена: производной по направлению и eL (Q, .«/"', Р): г\ л\ 1 1 • Л[ан-еы]-Л[а>] D,.A[w] = 1.1. m. —- ——L, eiO e квадратичной формы: (Ш, Ш; = £~=1ШЛЛ)2, где (rj,) - ортонормированный базис в L ([О, Г]), билинейной формы: (DAX, ОЛ2)=-^-[(0(Л1+Л2), 0(Л,+Л2))- -(D(Ax-A2)tD(Ai-A2))]. Основные правилам.и.: LAXA2 = AXLA2+ A2LAX-2(DAX, DA2) (1) (в интегральном виде это равенство называется формулой интегрирования по частям), L<pC4) = <р'С4)1Л - ф"С4)(Ш,Ш). (2) Доказательство существования плотности распределения функционала Л[а>] сводится (в силу теории преобразований Фурье для мер) к получению оценки \E9U)\<KMc,VsC^), к-рая выводится на основе соотношений (1), (2) (см. [5]). Значительное расширение области применения М. и. и углубление этой теории сделали С. Кусуока и Д. Струк [6], Дж. Норрис [7] (стохастич. дифференциальное уравнение в общих условиях Хермандера), Ж. Бисмут [8], [9] и др. (стохастич. дифференциальное уравнение со скачками, асимпто- тич. задачи и большие уклонения), С. Ватанабэ [10], [11] (создание «обобщенного» М. и.), Д. Нюалар и М. Закаи [12] выяснили глубокие связи М.и. с теорией расширенного стохастического интеграла (см. [13], [14]). С основными понятиями М.и. можно познакомиться по работам С. Ватанабэ, Н. Икэды [15], Д. Белла [16], А. Ю. Веретенникова [17]. 298 МАЛЛЯВЕНА Лит.: [1] Malliavin P., в сб.: Proceedings of the international conference on"stochastic differential equations (Kyoto, 1976), Tokyo, 1978, p. 195-263; [2] его же, в кн.: Stochastic analysis, N. Y. -[а. о.], 1978, p. 199-214; [3] Stroock D.W., «Math. Systems Theory», 1981, v. 14, № i, p. 25-65; № 2, p. 141-71; [4] Bismut J.-M., «Z. Wahr. und verw. Geb.». 1981, Bd 56, S. 469-505; [5] Zakai M., «Acta Appl. Math.», 1985, № 3, p. 175-207; [6] KusuokaS., Stroock D., в кн.: Stochastic analysis. Proceedings of the Taniguchi international symposium on stochastic analysis (Katata and Kyoto, 1982), Amst. - [a. o.], 1984, p. 271-306; [7] Nor r is J. L., «Lect. Notes in Math.», 1986, v. 1204, p. 101-30; [8] Bismut J.-M., Large deviations and the Malliavin calculus, Boston - [a. o.], 1984; [9] его же, «Ann. sci. Ecole norm, super.», 1984, ser. 4, t. 17, p. 507-622; [10] WatanabeS., Lectures on stohastic differential equations and Malliavin calculus, B. - [a. o.], 1984; [11] его же, «Ann. Probab.», 1987, v. 15, № l, p. 1-39; [12] NualartD., Zakai M., «Probab. Theory and Related Filds», 1986, v. 73, № 2, p. 255-80; [13] Скороход А. В., «Теория вероятн. и ее примен.», 1975, т. 20, в. 2, с. 223-38; [14] Кабанов Ю.М., Скороход А. В., в сб.: Труды школы-семинара по теории случайных процессов, Друскининкай, 25-30 нояб. 1974, Вильнюс, 1975, с. 123-67; [15] Ватанабэ С, Икэда Н., Стохастические дифференциальные уравнения и диффузионные процессы, пер. с англ., М., 1986; [16] Bell D. R., The Malliavin calculus, L., 1987; [17] Веретенников А. Ю., «Успехи матем. наук», 1983, т. 38, в. 3, с. 113-25. А. Ю. Веретенников, Л. И. Гальчук. МАЛЛЯВЕНА СТОХАСТИЧЕСКАЯ ПРОИЗВОДНАЯ (Malliavin stochastic derivative) - см. Стохастическая производная. МАЛЫЕ УКЛОНЕНИЯ для случайных процессов и блужданий (small deviations for random processes and walks) - события вида {Y eeG}, где У - случайный элемент в измеримом пространстве (X, &), соответствующий случайному процессу или блужданию, Gg^ и P{Ye£G}->0 при £->0. Теоремы о вероятностях М. у. играют роль локальных теорем в функциональных пространствах и существенны для доказательств утверждений типа закона повторного логарифма в форме Чжуна (см. [1]). Наиболее изучены вероятности М. у. для областей G, являющихся полосами G = G(g-,g+) = {f=f(t):g-(t)<f(t)<g+(t)}, где g~(0)<0<g+(0), g~(t)<g+(t), O^t^i. Если Y = w = w(t) - стандартный винеровский процесс на отрезке [0, 1] и функции g±(t) достаточно гладкие, то P{^eeG(^-,^+)hcexp|--^-|J (g+(О - g~ (t))~2 dt\, где константа c = c(g", g+) найдена явно (см. [2], [4]). Пусть Y = sn = sn(t) - случайная ломаная, построенная по точкам (k/n, Sk/o^ln), k = 0, 1, ..., п, где S0 = 0, Sk = Xi +... +Xk и слагаемые Xk независимы и одинаково распределены, EXj=0, a2 = DX1, 0<a2<°°. Если g±{i)-^. = а± = const, то асимптотика P{s„(eG)} в широких предположениях найдена для всего спектра уклонений e = e„->0, ел/^_>оо (см. [1]): P{za~^n<Sk<za+Jn, k=\, ..., n}~c\\vfn(a+-а~)/2), где Х(а) есть максимальное по модулю собственное число оператора Тау(х) = Е{ф(Х1/й + х), \Х^/а + х\ < 1}; при этом In \(а) ~ -к2о2/8а2 при а -> °°. Если же границы д± (О криволинейные, то для грубой (логарифмической) асимптотики вероятностей М. у. справедливо утверждение InP{snеzG(g~, g+)}~\nP{wezG(g~, g+)} при любых £->0, е>/й~->°° (см. [3], [5]). Асимптотика вероятностей М.у. для полос известна также для нек-рого класса гауссовских случайных процессов (см. [4], [6]) и для сфер в гильбертовом пространстве (см. [7]).
Лит.: [1] Mo тульский А. А., «Тр. Ин-та матем. СО АН СССР», 1985, т. 5, с. 45-56; [2] его же, «Сиб. матем. ж.», 1982, т. 23, К? 3, с. 161-74; [3] его же, «Теория вероятн. и ее примен.», 1974, т. 19, в. 4, с. 755-65; [4] Новиков А. А., «Матем. заметки», 1981, т. 29, № 2, с. 291-301; [5] его же, «Изв. АН СССР. Сер. матем.», 1980, т. 44, № 4, с. 868-85; [61 Сытая Г. Н., в кн.: Аналитические методы в теории вероятностей, К., 1979, с. 95-98; [7] ее же, в сб.: Теория случайных процессов. Республиканский межведомственный сборник, К., 1974, в. 2, с. 93-104. А. А. Могульский. МАЛЫЙ КАНОНИЧЕСКИЙ АНСАМБЛЬ (small canonical ensemble) - см. Гиббса распределение. МАЛЬТУСОВСКИЙ ПАРАМЕТР (Malthusian parameter) общего ветвящегося процесса - действительное число а, являющееся корнем уравнения EJ~ e-atdN(t) = \, где N(t) - случайное число потомков, производимых в промежутке [0, t] частицей, родившейся в момент £ = 0. Если EN(oo)<\t то М. п. может не существовать. Пусть Z(t) - число частиц в момент t в общем ветвящемся процессе. При нек-рых ограничениях на характеристики процесса N(t) EZ(t)~ceat, c>0, £-><*>. Это асимптотич. выражение аналогично закону Мальтуса роста численности популяции. См. также Ветвящийся процесс с зависимостью от возраста. Лит.: [11 Ватутин В. А., Зубков A.M., в сб.: Итоги науки и техники. Сер. Теория вероятностей. Математическая статистика. Теоретическая кибернетика, т. 23, М., 1985, с. 3-67; [2] Jagers Р., Branching processes with biological applications, L.-[a. o.j, 1975. В. А. Ватутин. МАННА - УИТНИ КРИТЕРИЙ (Mann - Whitney test) - статистический критерий для проверки гипотезы Я0 об однородности двух выборок Xt, ..., Хп и Yj, ..., Ym, все п + т элементов к-рых взаимно независимы и подчиняются непрерывным распределениям. Этот критерий, предложенный X. Манном и Д. Уитни [1], построен на статистике U = W-±m(m + \) = Y t Y" <b.., 2 <fc*i=l *-*j=\ lJ где W - статистика Уилкоксона критерия, предназначенного для проверки этой же гипотезы Я0, численно равная сумме рангов элементов второй выборки в общем вариационном ряду, а ft, если Х,<У,, 8.7 =\ 1 [0 в противном случае. Таким образом, статистика U считает общее число тех случаев, в к-рых элементы второй выборки превосходят элементы первой выборки. Из определения статистики U следует, что если гипотеза Я0 верна, то EU = nm/2, DU = nm(n + m+\)/\2, (*) и, кроме того, эта статистика обладает всеми свойствами статистики Уилкоксона W, в том числе асимптотич. нормальностью с параметрами (*), чем и следует пользоваться при использовании М. - У. к. на практике, если только т'т{п, т}>25. Лит.: [1J Mann H. В., Whitney D.R., «Ann. Math. Statist.», 1947, v. 18, p. 50-60. M. С. Никулин. МАРГИНАЛЬНАЯ ФУНКЦИЯ ПРАВДОПОДОБИЯ (marginal likelihood function) - см. Правдоподобия функция. МАРГИНАЛЬНАЯ ФУНКЦИЯ РАСПРЕДЕЛЕНИЯ (mar ginal distribution function) - см. Маргинальное распределение. МАРГИНАЛЬНОЕ РАСПРЕДЕЛЕНИЕ (marginal distribution), частное распределение, - проекция многомерного распределения на координатную ось на подпространство, порожденное нек-рым набором координатных векторов. Точнее, пусть F(x]t ..., хп) - функция распределения «-мерного случайного вектора (Xj, ..., Хп). Функция распределения любого набора (Хг , ..., X, ), 1 ^ij <... <im^n, m<n, называется маргинальной функцией распределения по отношению к F, а соответствующее распределение вероятностей - маргинальным распределением. М. р. просто выражаются через распределение F, так, напр., функция распределения Xj (одномерное М.р.) имеет вид FjOfj) = F(xu °о, ..., оо). Лит.: [11 Крамер Г., Математические методы статистики, пер. с англ., 2 изд., М., 1975; [2J Феллер В., Введение в теорию вероятностей и ее приложения, пер. с англ., т. 2, М., 1984. Н. Г. Ушаков. МАРДЖИНАЛИСТСКИЙ ПОДХОД (marginal approach) - см. Полезностей теория. МАРКИРОВАННЫЙ ТОЧЕЧНЫЙ ПРОЦЕСС (marked point process) - случайная последовательность (tn, kn), где £я е И? - момент события, kneK - «метка», то есть дополнительный признак данного события (К - измеримое пространство, называемое пространством меток, пеЖ). Пусть tn^tn+i для всех п и £„(т) + т - момент п-го события после момента т, kn (т) - метка этого события. М. т. п. называется стационарным, если распределение (tn(x), kn(x)) не зависит от т. На стационарные М. т. п. переносятся основные свойства точечных процессов (существование параметра, интенсивности, функций Пальма - Хинчина). М. т. п. (tn, kn) называется ординарным, если точечный процесс (tn) ординарен. Спейсингом называется стационарная последовательность (zn, kn), где zne№+, kneK. Между стационарными ординарными М. т. п. и спейсингами устанавливается взаимно однозначное соответствие, допускающее следующую интерпретацию. Если в момент т происходит событие М. т. п., то tn(x) = zx + ... + zn, kn(x) = kn, где (zn, kn) - спейсинг. Теория M. т. п. позволила обосновать эргодич. соотношения между характеристиками систем массового обслуживания, в том числе сложной структуры (приоритетных, многофазовых), управляемых произвольными стационарными входными последовательностями. Лит.: [1] Очереди и точечные процессы, пер. с англ., К., 1984. И. Н. Коваленко. МАРКОВА АВТОМОРФИЗМ (Markov automorphism) - см. Маркова сдвиг. МАРКОВА НЕРАВЕНСТВО (Markov's inequality) - см. Чебышева неравенство. МАРКОВА СДВИГ (Markov shift) - сдвиг Т на измеримом пространстве (Q, d) двусторонних последовательностей со={..., у„х, у0, У\,.}, где j/jg7, (У, Ю - измеримое пространство, а мера |i на пространстве (Q, J) определяется стохастическим оператором Р(у, С), yeY, Ce$t, и инвариантной мерой а этого оператора и задается на цилиндрических множествах А = {сое Q:уг е С0, yi+ieCv ..., yi+r e Cr}, где Ct e 9C, г ^ 0, -оо < i < оо, равенством ц(Л) = JCo rfa(</,)JCi Piyitdyt+l)...^ P{yi+r_vdyi+r). Эта мера по теореме Колмогорова может быть продолжена на всю а-алгебру .*/. Часто Т называют автоморфизмом Маркова. В случае конечных пространств М.с. допускает полное исследование эргодич. свойств. Так, если М.с. имеет один класс и один подкласс, то он является /С-автоморфизмом и изоморфен Бернулли сдвигу. Лит.: [1] Рохлин В. А., «Успехи матем. наук», 1967, т. 22, в. 5, с. 3-56; [2] Корнфельд И. П., Синай Я. Г., Фом и н С. В., Эр- годическая теория, М., 1980. Е. И. Динабург. МАРКОВА 299
МАРКОВА ЦЕПЬ (Markov chain) - марковский процесс с дискретным временем, заданный в измеримом пространстве. Основы теории М. ц. (во всяком случае М.ц. с конечными множествами состояний) заложил А. А. Марков [1]. Путь к рассмотрению цепей в пространствах состояний более сложной природы был открыт в 1931-37, прежде всего, работами А. Н. Колмогорова (см. [2]-[4]) и В. Деблина [5]-[6]. Основная задача общей теории М.ц. видится в выявлении структуры и асимптотич. свойств как самих М. ц., так и связанных с ними величин (см. [7]—[ 14]), и если к настоящему моменту теория однородных М. ц. со счетными или конечными множествами состояний достигла определенной степени законченности, то в общей теории М.ц. еще возможны существенные продвижения. М. ц. представляют математич. интерес не только сами по себе, но и как, напр., средство исследования нек-рых сложных зависимостей и процессов; весьма примечательны и их разнообразные приложения вне математики (см. [7], [15], [16]). Цепи Маркова и вероятности перехода. Имеются различные варианты точного определения М.ц., и наиболее простой и интуитивно ясный состоит в следующем. На вероятностном пространстве (Q, Л, Р) задается случайная последовательность {Х„ = Х„(со); п^О) со значениями из измеримого пространства (Е, 33) (для определенности все числовые параметры типа п, т и т.д. считаются целозначными). Эта последовательность называется цепью Маркова в классическом смысле, если она обладает марковским свойством: при любом п^\ а-алгебры «прошлого» dn-i=o(XQ, ..., Х„н) и «будущего» ^/"+1=а(Х„+1, Х„+2,...) условно независимы при известном «настоящем», то есть при известном Хп [здесь, напр., а(Аг0, ..., X„_j) обозначает а-ал- гебру в Q, порожденную величинами Х0, ..., X„H]. Указанное свойство равносильно выполнению почти наверное равенства Р{Х„еГи„_1} = Р{Х„еГ|Х„_1} при любых п^\ и ГеЗв. Измеримое пространство (Е, 33) (или само множество Е, если выбор 33 очевиден) называется фазовым пространством, или пространством состояний цепи; под состояниями понимаются точки из Е. Начальным распределением М.ц., по определению, служит мера v(T) = = Р{Х0еГ}, Ге#. Траектория М.ц. определяется как последовательность {Х„(со); п^О) с фиксированным coeQ. Следующий пример указывает обычный способ задания М. ц. и служит основой для последующего изложения. Пример 1. Пусть имеется семейство стохастич. ядер {рт(х, Г); т^О) на измеримом пространстве (Е, Зв) [функция р(х, Г), хеЕ, Г е.99, называется стохастическим ядром в (Е, Зв), если при фиксированном Г она .^-измерима, а при фиксированном х является вероятностной мерой в 33]. Задав в 93 вероятностную меру V, можно построить М. ц. {Хп; п^О) с начальным распределением v, конечномерные распределения к-рой даются формулой P{xoer0,...,x„er„> = при любых Г0, ..., ГпеЗЗ, п^\ (см. [9], [13]). Ввиду (1) (см. также [4]) ядра рт(х, Г) называются одношаговы- ми вероятностями перехода как этой М.ц., так и любой другой М. ц. с теми же конечномерными распределениями. Полный набор вероятностей перехода р(т, х\ п, Г), где 0^т<п, х еЕ, ГеЗв, вводится с помощью рекуррентной процедуры: полагают р(т, х; т+\, Г) = рт(х, Г) 300 МАРКОВА и, далее, р(т, х',п+\,Г)= | р(т, х; п, dy)pn(y, Г), JE коль скоро значения р(т, х; п, •) уже известны. Функция р(т} х; п, Г) при заданных тип является стохастич. ядром и при любых ху Г и m<k<n удовлетворяет Колмогорова - Чепмена уравнению р(т, х; п, Г) = [ р(т, х; k, dy)p(k, у; п, Г). JE Она управляет вероятностным механизмом рассматриваемой М. ц. в том числе, что почти наверное Р{ХпеГ\Хт} = р(т, Хт\ п, Г) (2) при всех т < п и Г, и последнее обстоятельство оправдывает обычную интерпретацию р(т} х; п, Г) как условной вероятности Р{ХпеГ\Хт = х). Пример 1 показывает, что для широкого класса М.ц. в классич. смысле можно указать вероятности перехода (напр., если Е - полное метрич. сепарабельное пространство, 33 - борелевская а-алгебра в нем). С другой стороны, в рамках примера 1 по ядрам рт(х, Г) можно сконструировать не одну цепь, а целый класс М. ц. в классич. смысле, согласованных друг с другом (см. [13]). Точнее, можно предъявить набор X = {Q, М, Хп, Pkx; k,n^0,xeЕ), (3) в к-ром пара (Q, .^) - нек-рое измеримое пространство, Хп - измеримые отображения (Q, .*/) в (Е, Зв), a Pkx - вероятности, заданные на а-алгебре Л =o(Xk, Xfe+1,...) так, что Р^-почти наверное: а) при п> m^k справедливы равенства Pkx{X„zr\Xk Хт} = Рь[ХяеГ\Хя) = 1*ж, Хя; п, Г) (4) и б) Х^еГ, если хеГ (ГеЗЗ). Коль скоро 33 содержит все одноточечные множества в Е, условие б) означает просто, что Xk = x с Р^-ночти наверное, а потому, обобщив первоначальное определение М. ц. на случай цепей, начинающихся в момент k^\, можно охарактеризовать набор {Х„; n^k) по отношению к мере Pkx как М. ц. в классич. понимании, исходящую в момент времени k из точки х и отвечающую одноша- говым вероятностям перехода рт( •, •) с m^k. В последующем набор (3) будет называться цепью Маркова, а при желании подчеркнуть отход от предыдущего определения - цепью Маркова в развернутой форме. При этом по мере надобности будут указываться соответствующие фазовое пространство (Е, зв) и одношаговьш вероятности перехода рт(х, Г) или весь ансамбль вероятностей перехода р(т, х; п, Г). Отказ от предварительного задания ядер рт(х, Г) и от последнего из равенств (4), но при постулировании ^измеримости по х функций Pnn{Xm+i еГ}, Г е зв, ведет к тому же самому определению с одношаговыми вероятностями перехода рт(х, Г) = Ртх{Хт+х е Г}. М. ц. с одинаковыми вероятностями перехода считаются эквивалентными. Подробная запись (3) обычно заменяется более короткой: х = (хп,?тх). Если же речь идет о М. ц. с начальным распределением v и нек-рыми вероятностями перехода, то имеют в виду соответствующую цепь в классич. смысле. Она легко строится по М.ц Х=(Х„, Ртх) с теми же вероятностями перехода: достаточно рассмотреть {Xw; и^О} на вероятностном пространстве (Q, ,е/ Pv), положив PV{A} = J P0x{A}v(dx) для Ле^. Поскольку на рассматривавшиеся М. ц. пока не налагались условия однородности по временному параметру п, такие цепи называются неоднородными.
Однородные цепи Маркова. Однородная по времени ситуация представляет особый интерес. Пусть в (£, J9) задана либо М. ц. в классич. смысле, либо М. ц. в развернутой форме, одношаговые вероятности рт(х, Г) к-рой не зависят от т: рт(х, Г)=р(х,Г). Тогда и вся совокупность вероятностей перехода р(т, х; п, Г) обладает свойством однородности, или стационарности: р(т, х; п, Г)=р(0, х; п-т, Г) и вероятностный характер эволюции цепи на отрезке времени [т, п] зависит только от длины п-т этого отрезка и, разумеется, от Хт. Поэтому такие М. ц. называют однородными. Однако имея дело с однородной М. ц. (3) и учитывая возникшую в этом случае связь между мерами Ртх и Р0х, обычно предпочитают иметь дело с редуцированным набором {П,Л,Хп,Рх,п^О,хеЕ}, (5) где (временно) положено Рх = Р0:г Набору (5) присущи следующие свойства: 1) Хп есть измеримое отображение измеримого пространства (Q, л) в (Е, 9$)\ 2) Рх есть вероятностная мера на ее/; 3) равенство р(х, Г) = Р;с{Х1еГ>, ГеЗЗ, (6) определяет стохастич. ядро в (Е, 3$)\ 4) Р^-почти наверное (см [1]); обозначение Лп сохраняет ранее введенный смысл). За набором (5) резервируется прежнее обозначение X [пишут также Х = (Х„, Рх) или просто Х = (Х„)], и, если нет особых оговорок, любой набор (5) со свойствами 1) - 4), какое бы конкретное происхождение он не имел, называют однородной цепью Маркова в развернутой форме, имеющей вероятности (одношаговые) перехода р(х, Г). Соответствующие вероятности перехода р(п, х, Г) за п шагов определяются либо формулой р(п, х, Г) = Р;с{Х„еГ}, хеЕ, ГеЗЗ, либо с помощью рекуррентной процедуры типа описанной в примере 1; при этом р(\, х, Г)=р(х, Г). Для них справедлив при т, и^О однородный вариант уравнения Колмогорова - Чепмена: р(т + п, х, Г) = | р(т, х, dy)p(n, у, Г). Равенство же (4) теперь несколько видоизменяется: Р,{ХпеТ№ = Рх{ХяеГ\Хт)=р(г,-т, Хт, Г) (Рд-почти наверное), где п>т^0. Строго марковское свойство- усиление марковского свойства (2) однородной М. ц. X (полное звучание строго марковское свойство получает в рамках общей теории марковских процессов). Пусть функция x:Q->[0, °°) является марковским моментом для X, то есть {х ^ п) е *«/я при п ^ О (примеры: х = т, т^О, или xr=inf{w>0; Х„еГ}- момент первого достижения Ге j3 после начального момента времени; здесь, по определению, inf 0 = °°). Множество ЛсАт = {т<«>( относят к семейству Л^ (последнее интерпретируется как совокупность событий, наступающих не позже х), если ЛП{х^и}есг/„ при и^О. В простейшей форме строго марковское свойство (см. [12]) сводится к выполнению Рг-почти наверное на множестве £1^ равенства Рх{Хп+ТеГ\лх}=р(п, Хт, Г). Для неоднородных цепей справедлива соответствующая модификация этого утверждения. Пример 2. Важнейшие примеры однородных М. ц. доставляются однородными конечными цепями Маркова и счетными цепями Маркова. Для них соответствующее пространство Е тем или иным способом отождествляется с конечным или счетным набором {1, ..., N) или {1, 2,...}, где N^ 1, а в роли а-алгебры & берется совокупность всех подмножеств Е. По традиции, говоря о вероятностях перехода таких цепей, имеют в виду не полный набор мер (6), а лишь набор {р^; х, j gE), в к-ром р^ = р(\, х, {j}) - вероятность за один шаг перейти из состояния i в состояние /. В большинстве относящихся к этой ситуации формул (напр., в уравнении Колмогорова - Чепмена) интегрирование удается заменить суммированием. Пример 3. В качестве Е берется топологич. группа, в качестве & - ее борелевская а-алгебра. Произвольная вероятностная мера \i, заданная на 33, порождает одношаговые вероятности перехода р(х, Г) = |i(#~ Г), х е Е, Ге 38, нек-рой однородной М. ц., где х~] - элемент, обратный к х, а х~хТ={х~ху\ у е Г}. Эта однородная М. ц. называется правым случайным блужданием в Е или М.ц. вЕ, инвариантной относительно левых сдвигов, посколькур(ух, уГ) = = р(х, Г) при любом уеЕ. Аналогично определяются иле- вые случайные блуждания. Введенные понятия непосредственно связаны с понятием стохастич. группы (см. [12], [17]). Пример 4. Известен прием, позволяющий исследование неоднородной М.ц., заданной в измеримом пространстве (Е, 33) и имеющей одношаговые вероятности перехода рт(х, Г), в прчнцгпе свести к изучению нек-рой однородной М.ц. в фазовом пространстве (Е, 33)-(ЕхТ, 38x33Q), где Т={0, 1,...}, а 330 - совокупность всех подмножеств Т. Одно- шаговые вероятности перехода р(х, Г), хеЕ, Ге^, последней цепи определяются равенством р(х, Г)=рт(х, Г), если х = (х, т), хеЕ, теТ, а Г = {уеЕ; (у, т+1)еГ}. Таким образом, проекции на Т состояний, пробегаемых траекторией новой цепи в ЕхТ, меняются детерминированным образом. Неразложимые однородные цепи Маркова. Перенесение на общий случай определений и результатов, относящихся к хорошо исследованным М.ц. с не более чем счетными множествами состояний, потребовало значительных усилий (см. [5|, [6], [9], [11], [12], [25]). Пусть заданная в измеримом пространстве (Е, 9$) однородная М. ц. Х = (Х„, Рх) имеет вероятности перехода за п шагов р(п, х, Г), и пусть v - а-конечная мера на 38. Цепь X, по определению, v-н е раз ложи ма, если inf {p(n, х, Г)}>0 или, что равносильно, Рдг{хг<о°}>0 при любых хеЕ, коль скоро у(Г)>0 (определение хг см. выше). Классич. понятие неразложимой цепи Маркова отвечает конечному или счетному множеству Е и мере V, наделяющей каждую точку из Е положительной массой; в этой ситуации все неравенства из последнего определения заведомо осуществляются для любых одноточечных множеств Г, что серьезно упрощает теорию. В общей же ситуации роль таких множеств, хотя бы и отчасти, удается возложить на так наз. С-множества. Последнее название присваивается любому Л е 38, для к-рого у(Л)>0 и существуют такие положительное Ь и натуральное п, что р(п, х, ВПЛ)^бу(ВПЛ) при Be38, хеА. Если а-алгебра 3) порождена не более чем счетным набором своих элементов, то всякое Ге^с v(D >0 содержит в себе нек-рое С-мно- жество (см. [11], [12], [25]). Из v-неразложимости цепи X вытекает существование конечного набора натуральных чисел d, для каждого из к-рых можно указать попарно непересекающиеся множества С^ЗЗ, i^i^d, такие, что, во-первых, р(х, С-+1) = 1, если хеС{ и i<d, и р(х, Cj) = 1, если хе Cd, а, во-вторых, дополнение D МАРКОВА 301
их объединения имеет v-меру О и представимо в виде объединения счетного набора транзитивных множеств D{, i ^ 1 (транзитивность D{ означает, что при всяком х е Е Рх-почти наверное XneD{ только для конечного набора значений п). Сохраняя обозначение d лишь за наибольшим из чисел с указанными свойствами, период цепи принимают равным d (при d = 1 цепь называется непериодической). Соответствующие множества Cj, ..., Cd, по определению, являются циклическими классами М.ц. Разложение же множества состояний E = DU[U1^i^rfCJ в сумму множеств указанного вида единственно с точностью до множеств v-меры О (см. [11]). Каждое С-множество Г содержится (с точностью до подмножества v-меры 0) в одном из циклич. классов, и p(nd, х, Г) > 0 сразу для всех хеГ при достаточно большом п. Возвратность по Харрису. Одно из центральных понятий теории дискретных М.ц.- понятие возвратной цепи Маркова — при перенесении его на общий случай трансформируется по-разному, в зависимости, напр., от выбора измеримой структуры или возможного наличия топологии в Е. Следующее широко применяемое определение вызвано к жизни работой [18]. Пусть в (Е, 35) задана однородная М.ц. Х=(Хп, Рх) с вероятностями перехода р(х, Г), и пусть v - а-конечная мера на 95. Цепь X называется возвратной по Харрису, или v-возвратной, если тг<°° Р^-поч- ти наверное при всех х еЕ, коль скоро у(Г) > 0. Такая цепь v-неразложима, обладает единственной с точностью до постоянного множителя а-конечной инвариантной мерой (1^0 [мера (х, определенная на £5, инвариантна для X, если J р(х, Г)[i(dx) = [i(V) при всех Ге^]и является (Х-воз- вратной. Частое применение находит и тот факт, что |х(Г) >0 для нек-рого Ге& тогда и только тогда, когда (каково бы ни было х еЕ) точка Х„ Рх-почти наверное попадает в Г при бесконечно многих значениях п, и зачастую именно это обстоятельство кладется в основу определения возвратности по Харрису (см. [12]). Возвратность по Харрису цепи X обеспечивает наличие у X ряда важных эргодич. свойств (см. [12]). Так, если f, g - функции в Е, интегрируемые по \i, причем \ь(д) = \ gd^i^O, то Рх-почти наверное х е Е, i™ [XL «xm )/i:=1 g(xj] = МЫд) (7) и |1-почти всюду в Е „'™ [XL, P^/XL. Pm9\ = U<f >/H<<7>. (8) где, напр., Ртд(х) = ]Е д(у)р(т, х, dy), т>\. В действительности соотношение (8) действует всюду в Е, если fug извлекаются из нек-рого специального, но достаточно широкого класса функций (см. [12]). В важном частном случае, когда (х(£) <°°, (7) сводится к закону больших чисел; Рх-почти наверное х е Е, limk,X"m-.'f<x")W('f)^(1)- Согласно теореме Орея для любых вероятностных мер vz, i=l, 2, на 35 дополнительное требование непериодичности X влечет стремление к 0 полной вариации заряда, vtPn - v2P" при п ->о°, где vlP\-)=\p{n,y, -fyWy) 302 МАРКОВА [в частности, стремится к 0 полная вариация VjP" - Д, если \l(E) <оо и iJL = a\L с а = \Г](Е)]. Помимо условия возвратности по Харрису, в общей теории М. ц. встречаются и иные требования, напр. Деблина условие, позволяющее охарактеризовать структуру и предельное поведение соответствующих цепей. Понятие М.ц. допускает ряд непосредственных обобщений. Так, можно было бы считать временнбй параметр п пробегающим множество {..., -1, 0} с отношением порядка, обратным обычному или обычным (см. Обращенная цепь Маркова), можно п заставить пробегать множество всех целых чисел и т. д. По аналогии с теорией марковских процессов вводят также М. ц. со случайными моментами рождения и обрыва или с множеством состояний, зависящим от времени. См. также Сложная цепь Маркова, Полу марковский процесс. Новейшая проблематика общей теории М. ц. направлена в основном на исследование асимптотич. поведения М. ц. При этом значительное внимание уделяется постановкам задач, связанным как с предельными теоремами классического для теории вероятностей стиля (см. [21], [24]), так и с эргодич. теоремами и предельными теоремами для отношений (см. [22], 123], а также Предельные теоремы для цепей Маркова, Предельные теоремы для отношений, отвечающих цепи Маркова). Имеются работы по теории неоднородных цепей Маркова (см. [20]). Иногда под М.ц. понимается марковский процесс с конечным или счетным множествами состояний. Лит.: [1] Марков А. А., «Изв. физ.-мат. об-ва Казан, ун-та», 1906, т. 15, с. 135—56; [2] Колмогоров А. Н., Теория вероятностей и математическая статистика, М., 1986, с. 60-105; [3] его же, «Ма- тем. сб.», 1936, т. 1, с. 607-10; [4] его же, Теория вероятностей и математическая статистика, М., 1986, с. 183—97; [5] DoeblinW., «Bull. Math. Soc. Roum. Sci», 1937, t. 39, № l, p. 57-115; № 2, p. 3-61; [6J его же, «Ann. sci. Ecole norm, sup.», 1940, t. 57, p. 61-111; [7] Феллер В., Введение в теорию вероятностей и ее приложения, пер. с англ., т. 1, М., 1984; [8] Чжун Кай-лай, Однородные цепи Маркова, пер. с англ., М., 1964; [9] Дуб Дж., Вероятностные процессы, пер. с англ., М., 1956; [10] С ары м саков Т. А., Основы теории процессов Маркова, М., 1954; [11] Orey S., Lecture notes on limit theorems for Markov chain transition probabilities, N. Y.- [a. o.], 1971; [12] Revuz D., Markov chains, Amst.- Oxf.- N. Y., 1975 (рус. пер.- Ре в юз Д., Цепи Маркова, М., 1997); [13] Неве Ж., Математические основы теории вероятностей, пер. с франц., М., 1969; [14] Гихман И. И., Скороход А. В., Теория случайных процессов, т. 1, М., 1971; [15] Бару ча-Рид А. Т., Элементы теории марковских процессов и их приложения, пер. с англ., М., 1969; [16] Королюк В. С, Турбин А. Ф., Математические основы фазового укрупнения сложных систем, К., 1978; [17] ГренандерУ., Вероятности на алгебраических структурах, пер. с англ., М., 1965; [18] Harris Т.Е., в сб.: Proceeding of the Third Berkeley Symposium on Mathematical Statistics and Probability, v. 2, Berk/- Los Ang., 1956, p. 113-24; [19] TweedieR.L., «Ann. Probab.», 1974, v. 2, № 5, p. 840-78; [20] Mukherjea A., «Math. Z.», 1983, Bd 183, № 3, S. 293-309; [21] С и раж д и нов С. X., Форманов Ш. К., «Теория вероятн. и ее примени, 1983, т. 28, в. 2, с. 219-28; [22] Шур М.Г., там же, 1984, т. 29, № 4, с. 692-702; 1985, т. 30, № 2, с. 241-51; [23] Кар- ташов Н. В., там же, 1985, т. 30, № 2, с. 230-41; [24] Мал и невский В. К., там же, 1986, т. 31, № 2, с. 315-32; [25] Нумме- лин Э., Общие неприводимые цепи Маркова и неотрицательные операторы, пер. с англ., М., 1989. М. Г. Шцр. МАРКОВА ЦЕПЬ; абсолютное распределение (Markov chain; absolute probabilities) - см. Абсолютное распределение цепи Маркова или марковского процесса. МАРКОВА ЦЕПЬ ациклическая (aperiodic/nonpe- riodic/non-cyclic Markov chain) - см. Ациклическая цепь Маркова. МАРКОВА ЦЕПЬ в классическом смысле (Markov chain in the classical sense) - см. Маркова цепь. МАРКОВА ЦЕПЬ в развернутой форме (Markov chain in the expanded form) - см. Маркова цепь.
МАРКОВА ЦЕПЬ вложенная (embedded Markov chain) - см. Вложенная цепь Маркова. МАРКОВА ЦЕПЬ возвратная (recurrent Markov chain) - см. Возвратная цепь Маркова. МАРКОВА ЦЕПЬ возвратная по Харрису (Harris recurrent chain), v-воз в ратная,- см. Маркова цепь. МАРКОВА ЦЕПЬ; гармоническая функция (Markov chain; harmonic function) - см. Гармоническая функция для цепи Маркова. МАРКОВА ЦЕПЬ диссипативная (dissipative Markov chain) - см. Диссипативная цепь Маркова. МАРКОВА ЦЕПЬ; классификация состояний (Markov chain; classification of states) - разбиение на классы состояний однородной Маркова цепи с конечным или счетным фазовым пространством Е по арифметическим свойствам и асимптотике вероятностей перехода за п шагов. Предложена в 1937 А. Н. Колмогоровым (см. [1]) (для конечного Е независимо получена В. Деблином [2]). Пусть Pijtt, У e£) - переходные вероятности цепи, матрица Р- \\р{]-\\. Матрица \\Ру(п) \\, где Рц(.п) - вероятности перехода за п шагов, равна Рп. По определению, |^.(0)| =/. Первый этап классификации, исчерпывающий для цепей с конечным Е, но распространяющийся и на счетный случай, определяется исключительно расположением нулей в матрице Р. Состояние У называется достижимым из состояния i, если рЛп)>0 при нек-ром и^О, и недостижимым из i, если рАп) = 0 при всех п^0. Состояние i называется несущественным, если найдется достижимое из i состояние j такое, что i недостижимо из /. Совокупность R всех несущественных состояний называется несущественным классом состояний. В конечной цепи множество £\# всегда непусто, в счетной цепи все состояния могут быть несущественными. Состояния, принадлежащие множеству E\R, называются существенными. Состояния i и j называются сообщающимися, если i достижимо из / и j достижимо из i. Свойство состояний сообщаться друг с другом рефлексивно, симметрично и транзитивно. Поэтому множество E\R существенных состояний представляет собой объединение непересекающихся существенных классов Са таких, что в пределах каждого класса все состояния сообщаются между собой, а состояния различных существенных классов недостижимы друг из друга. В пределах каждого класса Са так что на каждом классе Са получается самостоятельная М ц. Для существенного состояния i число d = н.о.д.{и: п ^ 1, p{i(n)>0] называется периодом состояния i. Периоды всех состояний существенного класса Са равны между собой; поэтому d называется также периодом класса Са. Состояние i называется периодическим (или циклическим), если d>\, и непериодическим (ациклическим), если d=\. Существенный класс Са периода d является объединением попарно непересекающихся под- С ~* таких, что если ieC„, то классов С„, С„ -;еС / Pif = 1 при l-k = \ (modd), [О при l-k& 1 (modrf). Таким образом, траектория с вероятностью 1 с каждым шагом переходит из подкласса Са в подкласс Са+ (из Са~ в С('х). Если подкласс Са содержит конечное число состояний, то при всех достаточно больших натуральных т pAmd) > 0 для любой пары I, У е Са. Если существенный класс Са содержит единственное состояние г, то г называется поглощающим состоянием; для поглощающего состояния Рц(п) = 1 при всех п. Дальнейшая классификация важна для счетного фазового пространства Е, хотя формально остается в силе и для конечного Е. Она связана с вероятностью и средним временем возвращения в данное состояние. Пусть {+°о, если Xt * i при всех t^\, m'm{t:t^\, Xt=i) в противном случае. Вероятность возвращения в i определяется как /■й=р,-{т,-<ч=ХГ.,/"«<»). где 4Ы = ?i{Xt * i при 0 < t < п, Хп = i}. Состояние ieE называется возвратным, если fa=h и невозвратным, если /",-,-< 1. В конечной цепи множество невозвратных состояний совпадает с множеством несущественных состояний, в счетной цепи несущественное состояние невозвратно, обратное же, вообще говоря, неверно (см. ниже пример 2). Если состояние i возвратно, то вероятность возвращения в него траектории бесконечное число раз равна 1, а если i невозвратно, то - нулю. Чтобы состояние г было возвратным, необходимо и достаточно, чтобы математич. ожидание числа возвращений в i было бесконечным, то есть чтобы расходился ряд ^ р^(п). В пределах одного класса Са либо все состояния возвратны, либо все невозвратны; соответственно возвратным или невозвратным называется класс Са. Среднее время во звр а щения в состояние г равно _ П/ , nf-(n), если i возвратно, [+«>, если i невозвратно. Состояние i называется нулевым, если т{{ = °°, и положительным, если ти < оо. В пределах одного класса Са все состояния одновременно нулевые или одновременно положительные; соответственно Са называется нулевым либо положительным классом состояний. Существенный класс Са, состоящий из конечного множества состояний (в частности, любой существенный класс цепи с конечным пространством £), обязательно возвратен и положителен. С принадлежностью состояний к тем или иным классам связана асимптотика вероятностей перехода за большое число шагов. Если состояние j несущественное, невозвратное или нулевое, то lim рЛп) = 0 при любом i e E. Я-»оо Для состояний i, / из одного и того же положительного класса Са существуют положительные пределы по Чезаро: яу-.^!:..^)-^.!^^ 1; если, кроме того, период класса Са равен 1, то предел по Чезаро можно здесь заменить обычным пределом. В случае, когда период d положительного класса Са больше 1, при i e Ca, У g Са имеет место lim p^U - k + nd) = d/mjj и Pij(t) = 0, если t&l- Hmodd). Если состояние / e Ca положительное непериодическое, а состояние i несущественное, то lim pij(n) = KiJmJJ, П —» oo где nia - вероятность поглощения траектории, выходящей из i, существенным классом Са; при периоде d>\ то же верно для предела в смысле Чезаро. МАРКОВА 303
С положительными классами цепи связаны стационарные распределения - такие наборы чисел Ц = {щ-Ь€£ с |Х,^0, У \it= 1, что Каждому положительному классу Са отвечает единственное стационарное распределение ц", сосредоточенное на Са, a именно: \i<i=\ii = mji\ геСа. Множество всех стационарных распределений является выпуклой оболочкой векторов ц", где а пробегает совокупность всех положительных классов цепи. Стационарное распределение существует, если в цепи есть положительные классы (напр., если Е конечно); оно единственно, если такой класс единствен. Каждому возвратному классу Са соответствует единственная с точностью до постоянного множителя, сосредоточенная на Са инвариантная м е р а ца: ненулевая неотрицательная конечная функция на Е, удовлетворяющая (1); если класс Са положителен, то \ia пропорциональна стационарному распределению, если класс Са нулевой, то £. |i? = °°. Инвариантных мер на невозвратном существенном классе Са или на бесконечном несущественном классе R (а также на объединении R и бесконечных существенных классов) может быть больше, их описание связано с построением границы цепи Маркова. Пример 1 (случайное блуждание на полупрямой). Пусть £ = {0, \,2,...},pi<l+i=p,Pi>i-] = q=\-p,i=\,2,...,0<p<\. При /?01 = 1 блуждание имеет отражение в нуле. Здесь все состояния образуют один существенный класс С, распадающийся на два циклич. подкласса: С = {0, 2, 4,...}, С ={1,3,5,...}. Класс С невозвратный при р>\/2 (с вероятностью 1 WmXt = +°° при £->оо), возвратный и нулевой при р=\/2, возвратный и положительный при р< 1/2. Инвариантные меры jla. имеют вид Uo = tf, ь = а-£, i^l, (2) Ч где я>0. При р< 1/2 ряд \ \it сходится, и (2) дает стационарное распределение при а = (q -p)(q -р + 1)~ . Если положить pQQ = 1, /?01 = 0 (сохраняя остальные р~ прежними), то получается блуждание с поглощением в нуле. Здесь имеется несущественный класс R = {\, 2,...} и существенный положительный класс С = {0}; состояние 0 поглощающее. Любая инвариантная мера равна \\^ = а, |Х, = 0 при i^l, где а>0. Пример 2 (случайное блуждание на прямой). Если Е = = {0, ±1, ±2, ...}, pl<i+i=p, Pll_t=q=\-p, 0<p<\, i = 0, ±1, ±2, ..., то имеется один существенный класс С = Е (состоящий из двух циклич. подклассов), к-рый невозвратен при рф\/2 и возвратен и является нулевым при р=\/2. Любая инвариантная мера имеет вид \i = a$L + a2\L , где ах ^ 0, а2 ^ 0, а] + а2 > 0, \1{}} = 1, uf} = (p/qY, i e E. В возвратном случае \i = jlx . Лит.: [1] КолмогоровА. Н., Теория вероятностей и математическая статистика, М., 1986, с. 183-97; [2] DoeblinW., «С. г. Acad, sci.», 1936, t. 203, p. 24-26; [3] Феллер В., Введение в теорию вероятностей и ее приложения, пер. с англ., т. 1, М., 1984; [4] Чжун Кай-лай, Однородные цепи Маркова, пер. с англ., М., 1964; [5] Ширяев А. Н., Вероятность, М., 1980. А. А. Юшкевич. МАРКОВА ЦЕПЬ конечная (finite Markov chain) - см. Конечная цепь Маркова. 304 МАРКОВА МАРКОВА ЦЕПЬ невозвратная (transient/nonrecurrent Markov chain) - см. Невозвратная цепь Маркова. МАРКОВА ЦЕПЬ недиссипативная (non-dissipative Markov shain)- см. Недиссипативная цепь Маркова. МАРКОВА ЦЕПЬ неоднородная (inhomogeneous Markov chain) - см. Неоднородная цепь Маркова. МАРКОВА ЦЕПЬ непериодическая (aperiodic Markov chain) - то же, что ациклическая цепь Маркова (см. также Маркова цепь). МАРКОВА ЦЕПЬ неприводимая (irreduciable/inde- composable Markov chain) - то же, что неразложимая цепь Маркова. МАРКОВА ЦЕПЬ неразложимая (indecomposable/irreducible Markov chain) - см. Неразложимая цепь Маркова. МАРКОВА ЦЕПЬ; несущественный класс состояний (Markov chain; non-essential set/class of states) - см. Маркова цепь; классификация состояний. МАРКОВА ЦЕПЬ; нулевой класс состояний (Markov chain; null set/class of states) - см. Маркова цепь; классификация состояний. МАРКОВА ЦЕПЬ обращенная (reversed Markov chain) - см. Обращенная цепь Маркова. МАРКОВА ЦЕПЬ однородная (homogeneous Markov chain) - см. Маркова цепь, Однородная по времени цепь Маркова. МАРКОВА ЦЕПЬ; переходная вероятность (Markov chain; transition probability) - см. Вероятность перехода. МАРКОВА ЦЕПЬ периодическая (cyclic/periodic Markov chain) - см. Циклическая цепь Маркова. МАРКОВА ЦЕПЬ; повторного логарифма закон (Markov chain; law of iterated logarithm) - см. Повторного логарифма закон для цепей Маркова. МАРКОВА ЦЕПЬ; поглощающее состояние (Markov chain; absorbing state) - см. Маркова цепь; классификация состояний. МАРКОВА ЦЕПЬ; подкласс состояний (Markov chain; cyclic subclass of states) - см. Маркова цепь; классификация состояний. МАРКОВА ЦЕПЬ; положительный класс состояний (Markov chain; positive class/set of states) - см. Маркова цепь; классификация состояний. МАРКОВА ЦЕПЬ; предельные теоремы (Markov chain; limit theorems) - см. Предельные теоремы для цепей Маркова. МАРКОВА ЦЕПЬ; предельные теоремы для отношений (Markov chain; ratio limit theorems) - см. Предельные теоремы для отношений, отвечающих цепи Маркова. МАРКОВА ЦЕПЬ приводимая (reducible/decomposable Markov chain) - то же, что разложимая цепь Маркова. МАРКОВА ЦЕПЬ разложимая (decomposable/reducible Markov chain) - см. Разложимая цепь Маркова. МАРКОВА ЦЕПЬ регулярная (regular Markov chain) - см. Регулярная цепь Маркова. МАРКОВА ЦЕПЬ сложная (high-order Markov chain) - см. Сложная цепь Маркова. МАРКОВА ЦЕПЬ; сообщающиеся состояния (Markov chain; communicating states) - см. Маркова цепь, классификация состояний.
МАРКОВА ЦЕПЬ; среднее время возвращения (Markov chain; mean recurrence time) - см. Маркова цепь; классификация состояний. МАРКОВА ЦЕПЬ; статистическое моделирование (Markov chain; statistical modelling) - см. Статистическое моделирование цепей Маркова. МАРКОВА ЦЕПЬ; существенный класс состоя- н и и (Markov chain; essential class/set of states) - см. Маркова цепь; классификация состояний. МАРКОВА ЦЕПЬ счетная (countable Markov chain) - см. Счетная цепь Маркова. МАРКОВА ЦЕПЬ; теория потенциала (Markov chain; the potential theory) - см. Потенциала теория для цепей Маркова. МАРКОВА ЦЕПЬ транзитивная (transitive Markov chain) - см. Невозвратная цепь Маркова. МАРКОВА ЦЕПЬ; укрупнение состояний (Markov chain; mergence of states) - представление Маркова цепи, к-рое возможно, когда существует такое разбиение фазового пространства состояний на репересекающиеся классы состояний Хи, при к-ром функция укрупнения и(х) = и для хеХи определяет цепь Маркова уп = и(хп), п^О, в фазовом пространстве U. В приложениях наиболее эффективно асимптотическое укрупнение состояний М.ц. х*, п^О, в схеме серий (е- параметр серии), когда процесс у* = и(х*), п^О (вообще говоря, не марковский), в пределе при е -> О сходится к М.ц. уп, и^О, в фазовом пространстве состояний U. Лит.: [1] Кемени Дж., Сне л л Д ж., Конечные цепи Маркова, пер. с англ., М., 1970; 12] КоролюкВ. С, Турбин А. Ф., Математические основы фазового укрупнения сложных систем, К., 1978. В. С. Королюк. МАРКОВА ЦЕПЬ управляемая (controlled Markov chain) - см. Управляемая цепь Маркова. МАРКОВА ЦЕПЬ; фазовое пространство (state space of a Markov chain) - см. Фазовое пространство цепи Маркова или марковского процесса. МАРКОВА ЦЕПЬ; фундаментальная матрица (Markov chain; fundamental matrix) - в однородной Маркова цепи с конечным или счетным числом состояний и (суб) стохастической переходной матрицей Р - матрица z = / + Y~ , (Р"-р~) ( = [/-(р-р°°)Г1), где, вообще говоря, ряд суммируем по Абелю (или по Чезаро); в том же смысле понимается и предел Р°°. В конечной цепи фундаментальная матрица всегда существует. Через фундаментальную матрицу удобно выражаются первый и второй моменты случайного числа попаданий в одно множество состояний до первого попадания в другое множество (или до обрыва процесса); предельные при и->оо разности ожидаемых чисел попаданий в данное множество при разных начальных состояниях, когда сами эти ожидания стремятся к °°, и т. п. Фундаментальные матрицы находят применение в теории потенциала и в управляемых М. ц. Лит.:[\] Кемени Дж., Снелл Дж., Конечные цепи Маркова, пер. с англ., М., 1970. А. А. Юшкевич. МАРКОВА ЦЕПЬ циклическая (cyclic Markov chain) - см. Циклическая цепь Маркова. МАРКОВА ЦЕПЬ; циклическое состояние (cyclic/periodic state of a Markov chain) - см. Маркова цепь; классификация состояний. МАРКОВА ЦЕПЬ; эксцессивная мера (Markov chain; excessive measure) - см. Эксцессивная мера для цепи Маркова. МАРКОВА ЦЕПЬ; эксцессивная функция (Markov chain; excessive function) - см. Эксцессивная функция для цепи Маркова. МАРКОВА ЦЕПЬ эргодическая (ergodic Markov chain) - см. Эргодическая цепь Маркова. МАРКОВА ЦЕПЬ; эргодический класс (ergodic class/set of a Markov chain) - то же, что положительный класс состояний однородной цепи Маркова с конечным или счетным множеством Е состояний (см. Маркова цепь; классификация состояний). Название объясняется тем, что в М. ц., все состояния к-рой образуют один эргодич. класс, существует единственное стационарное распределение {pj}JeE и справедлива эргодическая теорема (закон больших чисел): при любом начальном распределении lim —У," . f(Xt) = y\. _ f(j)Pi (почти наверное) для любой функции f на Е} для к-рой ряд в правой части абсолютно сходится. См. также Эргодическая цепь Маркова. Лит.: [\] Кемени Дж., Снелл Дж., Конечные цепи Маркова, пер. с англ., М., 1970; [2] Чжун Кай-лай, Однородные цепи Маркова, пер. с англ., М., 1964. А. А. Юшкевич. МАРКОВОСТЬ В ШИРОКОМ СМЫСЛЕ (wide sense Markov property) - см. Случайная функция; свойство в широком смысле. МАРКОВСКАЯ ДИНАМИЧЕСКАЯ ПОЛУГРУППА (Markov dynamical semigroup) - см. Квантовая динамическая полугруппа. МАРКОВСКАЯ МЕРА (Markov measure) - см. Случайная мера. МАРКОВСКАЯ МОДЕЛЬ (Markov model) - см. Управляемый случайный процесс с дискретным временем. МАРКОВСКАЯ ПЕРЕХОДНАЯ ФУНКЦИЯ (Markov con servative transition function) - см. Переходная функция для марковского процесса. МАРКОВСКАЯ ПОЛУГРУППА (Markov semigroup) - свя занное с однородным марковским процессом X=(Xt, dv Px) семейство операторов в пространстве ограниченных измеримых функций, определяемых формулой Ptf(x) = Exf(Xt), t>0. С переходной функцией p(t, х, Г) процесса X операторы Pt связаны соотношением Pt№=jE p(t,x,dy)f(y). Согласно уравнению Колмогорова - Чепмена, операторы Pt образуют полугруппу: Pt + s = PtPs,s,t>0. Операторы Pt являются сжимающими: \\ptf\<\\fl где 1/11= s"P 1А*>|. МАРКОВСКАЯ 305
а также удовлетворяют условию неотрицательности: Р,/>0, если />0. Для необрывающихся процессов выполнено также условие консервативности: Pti = \, t>0. В общем случае Р,1^1; такие полугруппы иногда называются субмарковскими. Пусть Е - локально компактное метрич. пространство. М. п. называется феллеровской, если операторы Pt переводят в себя пространство непрерывных функций. Если М. п. является феллеровской, то процесс X можно считать непрерывным справа и строго марковским (точнее, существует стохастически эквивалентный ему процесс, обладающий этими свойствами). Другой важный класс процессов возникает, когда операторы Pt переводят в себя пространство непрерывных функций, стремящихся к нулю на бесконечности. В этом случае процесс X можно считать стандартным (см. Стандартный марковский процесс). В терминах операторов Pt формулируются также свойства непрерывности траекторий (см. Марковский процесс). С М. п. связана резольвента - семейство операторов R^, Х^О, определяемых по формуле *х = % e~Up*dt Операторы R^ при X > 0 ограничены и удовлетворяют так наз. резольвентному уравнению Дх-Дц = (й-ШхДц, А., д>0. Оператор R = RQ называют также потенциалом; этот оператор, вообще говоря, неограничен. Его свойства связаны, в частности, со свойствами возвратности процесса X. Важную роль в исследовании М.п. играет инфинитези- мальный оператор. Лит.: [1] ДынкинЕ. Б., Марковские процессы, М., 1963; [2) ГихманИ.И., Скороход А. В., Теория случайных процессов, т. 2, М., 1973. С.Е. Кузнецов. МАРКОВСКАЯ СТРАТЕГИЯ (Markov strategy/policy) - см. Стратегия, Управляемый скачкообразный процесс, Управляемый случайный процесс с дискретным временем, Конструктивная квантовая теория поля. МАРКОВСКИЙ ГАУССОВСКИЙ ПРОЦЕСС (Markov Gaussian process) - см. Гауссовский марковский процесс. МАРКОВСКИЙ ИСТОЧНИК СООБЩЕНИЙ (Markov source) - источник сообщений дискретного времени, характеризуемый тем, что последовательность случайных величин Xk, представляющих сообщения, вырабатываемые источником, образует конечную Маркова цепь. Для дискретного стационарного М. и. с. U (когда эта цепь Маркова стационарна и все Xk принимают значения в одном и том же конечном множестве Ж) скорость создания сообщений при точном воспроизведении равна где k - порядок цепи Маркова, XZl={Xb-k<l^-\)} Н - энтропия. Лит.: [1] Галлагер Р., Теория информации и надежная связь, пер. с англ., М., 1974; [2] Колеси и к В. Д., Пол тырев Г. Ш., Курс теории информации, М., 1982. С. И. Гельфанд, В. В. Прелое. МАРКОВСКИЙ МОМЕНТ (Markov/stopping time) - см. Остановки момент. МАРКОВСКИЙ ПРОЦЕСС (Markov process) - случайный процесс, эволюция к-рого после любого фиксированного момента времени t (будущее) и до момента t (прошлое) является условно независимой при известном положении процесса в момент t (настоящем). Определяющее М.п. свойство услов- 306 МАРКОВСКАЯ ной независимости будущего и прошлого принято называть марковским свойством - впервые оно было сформулировано А. А. Марковым [1] для случайных последовательностей. Однако уже в работе Л. Башелье [2] можно усмотреть не вполне строгую попытку трактовать броуновское движение как М. п.: правомерность такого подхода была обоснована Н. Винером [3]. Основы общей теории М. п. с непрерывным временем были заложены в 1931 А. Н. Колмогоровым (см. [4]), где было показано, что переходная функция М. п. удовлетворяет нек-рому параболич. дифференциальному уравнению. Этот факт послужил основой для использования теории дифференциальных уравнений 2-го порядка при построении и анализе М. п.; значительный вклад здесь был сделан В. Феллером [5], [6]. На этом первоначальном этапе развития теории М.п. в основном исследовались свойства переходной функции М. п., а не его траекторий. Однако ряд задач привел к необходимости исследования траекторий М. п., ив связи с этим возникла необходимость распространить марковское свойство и на нек-рые классы случайных моментов времени {строго марковское свойство). Такое распространение является сложной проблемой для процессов с непрерывным временем; строго марковское свойство изучалось Дж. Дубом (J. Doob), а в общепринятой ныне форме было доказано Е. Б. Дынкиным и А. А. Юшкевичем [7]. Развитие теории М. п. в 50-х гг. привело к выделению в самостоятельные направления нек-рых разделов теории М.п., в первую очередь диффузионных процессов и ветвящихся .процессов. Возникла также необходи мость определения М. п. с тем, чтобы иметь возможность варьировать начальное состояние процесса; важный вклад в связанную с этим перестройку теории внес Е. Б. Дынкин [8], [9]. Изменился и характер связи теории М.п. с теорией дифференциальных уравнений: если раньше речь шла лишь об использовании аналитич. методов для исследования М.п., то теперь появилась возможность строить решения дифференциальных уравнений методами теории М.п., представляя их как математич. ожидания специальных функционалов от процесса. Ряд важнейших идей и методов, связывающих теорию М.п. с дифференциальными уравнениями, таких, как стоха- стич. интегралы Ито и стохастич. дифференциальные уравнения (см. [10]), был распространен далее и на немарковские процессы. Теория М.п. послужила одним из стимулов для создания необходимого технич. аппарата - так наз. «общей теории случайных процессов», нашедшей затем широкие приложения в теории мартингалов и теории управляемых случайных процессов. На развитие теории М. п. в 60-70-х гг. оказали заметное влияние указанные Дж. Дубом (см. [11], |12]) связи с классич. теорией потенциала (см. Потенциала теория для марковского процесса). Класс М. п. является одним из важнейших классов случайных процессов, к-рый имеет большое прикладное значение. Аппарат М.п. используется для описания и исследования многих реальных объектов, напр. для описания систем массового обслуживания, для моделирования процессов радиосвязи. Прикладное значение М.п. определяется, во-первых, тем, что М.п. являются достаточно адекватной формой описания многих реальных процессов; случайные процессы, не являющиеся М. п., нередко можно достаточно просто свести к М. п. за счет усложнения структуры самого процесса - добавления дополнительных координат (см., напр., Полу марковский процесс). Во-вторых, для М.п. имеется развитый математич. аппарат, позволяющий находить нужные характеристики процесса и решать многие задачи, возникающие в приложениях. Прикладные вопросы теории М. п. освещены в [13], [14]. Настоящая статья посвящена главным образом основным определениям; дальнейшая информация содержится в серии статей, названия к-рых начинаются со слов «марковский про-
цесс», а также в следующих статьях: Марковское свойство, Маркова цепь, Марковская полугруппа, Диффузионный процесс, Ветвящийся процесс, Переходная функция, Колмогорова - Чепмена уравнение, Инфинитезимальный оператор, Характеристический оператор, Строго марковское свойство, Строго марковский процесс, Феллеровский процесс, Ханша процесс, Мартина граница марковского процесса, Вероятностное решение дифференциальных уравнений. Марковское свойство. Формализация упомянутого выше марковского свойства может быть осуществлена различными способами, что приводит к существенно различным определениям М. п. Одним из простейших и наиболее естественных является следующее определение. Пусть на вероятностном пространстве (Q, И, Р) задан случайный процесс Xt = X(t), teTQ(-o°} оо), со значениями в измеримом пространстве (Е, j9) - пространстве состояний. Для каждого teT вводятся а-алгебры прошлого Jt = o{Xs, s^t) и будущего Jt = o{Xu, u^t). Процесс Xt называется марковским процессом, если для любого t е Т и любых событий А е Jt, В eJx имеет место Р-ночти наверное марковское свойство: P(AB\Xt) = P(A\Xt)P(B\Xt). (1) В этом определении прошлое и будущее симметричны: при переходе к обращенному процессу Yt = X-t марковское свойство сохраняется. Наиболее интересными и часто встречающимися являются случаи, когда Т - интервал действительной прямой [случай непрерывного времени; наиболее употребительны 7 = [0, оо) или Г=(-о°, оо)] или подмножество совокупности целых чисел (случай дискретного времени; как правило, рассматривают Г={0, 1, 2,...} и иногда Т = {..., -1, О, 1,...}). М.п. с дискретным временем называют Маркова цепью. Важнейший подкласс цепей Маркова образуют те из них, для к-рых пространство состояний Е не более чем счетно. (М.п. с непрерывным временем, для к-рого пространство состояний не более чем счетно, также называется цепью Маркова с непрерывным временем.) Примерами М.п. с непрерывным временем могут служить диффузионные процессы, случайные процессы с независимыми приращениями, в том числе винеровский процесс и пуассоновский процесс. Марковский процесс. Приведенное выше определение М.п., основанное на свойстве (1), естественное и удобное с точки зрения приложений, оказывается неудобным для по- сгроения теории. Именно, требуется иметь возможность «выпускать» М. п. в произвольный момент времени из произвольного начального состояния, то есть фактически работать уже с семейством случайных процессов, определенным образом согласованных между собой. Эта идея также может быть формализована различными способами. Наиболее работоспособным оказалось следующее определение (ср. [8], [9]). Пусть (Q, .с/) - измеримое пространство и каждым s<t, s, te[-o°, H сопоставлена а-алгебра ^сд интерпретируемая как совокупность событий, наблюдаемых на отрезке [s, t]. При этом предполагается, что .<//£.</", если [s, t]Q(u, v]. Пусть ХДсо), te (-оо, оо),- случайный процесс со значениями в измеримом пространстве (Е, 33), причем Xt измеримо относительно jt* при t е [s, и]. Пусть, наконец, для каждых хеЕ, te(-oof оо) задана вероятностная мера Ptx на а-алгебре ^ такая, что функция Ptx(A) измерима по х при каждом Ле^. Набор X=(Xt, ^, Ptx) называется (необрывающим- ся) марковским процессом в пространстве (Е, 33), если для любых s ^ t, s, te (-<», <*>), х е Е, А е *«/£ Psx [А|.<//( = Ptx (A) (Ps,-почти наверное). (2) Мера Psx интерпретируется как соответствующая процессу, начинающемуся в момент s в состоянии х; в связи с этим обычно предполагают, что Psx {Xs еГ( = 1Г(х) - индикаторная функция множества Г. Ниже рассматриваются лишь необрывающиеся процессы; однако ряд естественных конструкций приводит к появлению процессов, определенных не при всех моментах времени, а лишь до нек-рого случайного момента (см. Обрыва момент, Обрывающийся марковский процесс). Пусть Х = (Xt, .<//, Ptx) - М. п. в смысле определения (2). Для любых фиксированных s0, xQ случайный процесс Xt, t^sQ, является М. п. в смысле определения (1) по отношению к мере Р5 х . Однако, в отличие от определения (1), данное определение не является инвариантным относительно обращения времени. Это обстоятельство оказывается очень неудобным при исследовании свойств траекторий процесса в обращенном времени, а также при изучении дуальных М.п. Поэтому иногда более удобным оказывается следующее, уже симметричное определение. Пусть (Q, d, P) - вероятностное пространство, Xt - случайный процесс со значениями в пространстве состояний Е, и пусть а-алгебры ^ такие же, как и в определении (2). Пусть, далее, каждым £е ( -«>, °°) и хеЕ отвечает вероятностная мера Pt х на ^ и вероятностная мера Ptx на ^°°. Набор X=(Xt, ^, P, Psx, Pt,x) называется двусторонним марковским п роцессом, если для любых s<u, хеЕ, Ле..^, Be.<V^° выполняются следующие соотношения: Р^Л^"00} = PU x (А) (Р-почти наверное),] Р5,Л4<} = Р«,хи(Л) <Р5,*-П0ЧТИ наверное), p{B\^} = Ps'Xs(B) (Р-почти наверное), Pu>x{b\^} = Ps>X*(B) (Р"'*- почти наверное).] Так же, как и в случае определения (2), в ряде задач возникают двусторонние М.п., определенные на случайном временном интервале; при этом приходится считать случайными как финальный, так и начальный моменты движения (см. [15]). Другим важным обобщением определения (3) является замена условия РШ) = 1 на условие а-конечности одномерных распределений Р{Х^ е Г}; такие процессы естественно возникают при рассмотрении дуальных М.п. (см. Дуальный марковский процесс), а также при нек-рых преобразованиях двусторонних М.п. (см. [15], [16]). Наконец, нек-рые важные конструкции приводят к процессам, для к-рых пространство состояний зависит от времени: XteEt при каждом t. Приводимый ниже результат показывает, что определения (О, (2),(3) достаточно близки друг к другу. А именно, пусть Xt - М.п. в смысле определения (1). Пусть С1 является пространством всех траекторий {(ut}t€T в пространстве Е, и ХДсо) = со^ Пусть также пространство (Е, 33) является боре- левским, то есть изоморфным борелевскому подмножеству полного сепарабельного метрич. пространства с борелевской а-алгеброй. Оказывается, что при этих условиях, полагая cc/J = G{Xt, s^t^u), можно построить два семейства вероятностных мер {Ptx} и {Р*'х} таких, чтобы выполнялось (3). Далее под М.п. понимается М.п. в смысле определения (2). Для М. п. X = (Xt, cc/^, Psx) и любой вероятностной меры (X на Е определяют меру Ps ц формулой р5,ц(Л) = |ц№)Р5>;сС4). МАРКОВСКИЙ 307
Мера Р5 „ соответствует процессу с начальным моментом времени s и начальным распределением \1. Функцию p(s, х; t, Г) = Ps x{Xt e Г} называют переходной функцией М.п. Переходная функция удовлетворяет уравнению Колмогорова-Чепмена J p(s} х\ t} dy)p(t, у; и, T)=p(s, x\ и, Г) (4) для любых s<t<u} хеЕ, Ге&. В свою очередь, если функция p(s, x; t, Г) является измеримой по х} вероятностной мерой по Г и удовлетворяет уравнению (4), а пространство состояний Е - борелевское, то функция р является переходной функцией нек-рого М.п. Более того, пусть Е - полное сепарабельное метрич. пространство, и пусть lim CL^h) = 0 для любого е>0, где ae(/i) = sup{p(5, x; t, Ve(x)):xeE, s^t^s + h}, а Ve(x) - дополнение е-окрестности точки х. Тогда существует М. п. с переходной функцией рис траекториями, непрерывными справа и имеющими пределы слева. Существование непрерывного М. п. обеспечивается условием ae(h) = o(h) при /*!0(см. [8], [18]). Однородный марковский процесс. Основное внимание в теории М.п. уделяют однородным (по времени) М.п. Для однородных М.п. переходная функция однородна, то есть зависит лишь от разности аргументов t - s: p(s, x\ t, T)=p(t-s, x; Г). В свою очередь, меры Psx жестко связаны при разных s, что позволяет рассматривать лишь меры Рх = Р0 и о-алгебры ^t = rf. Формальное определение: пусть Ш, J) - измеримое пространство, {^t}t>Q, ^tQ^}- нек-рый поток a-алгебр несогласованный с dt случайный процесс со значениями в (£, .#). Пусть каждому хеЕ отвечает вероятностная мера Рх на Ш, Л) такая, что функция РХ(Л) является измеримой для любого A = <d. Пусть, наконец, пространство Q однородно в том смысле, что для любых со е С1 и h > О найдется такое со' е Q, что Х^+А(со)=ХДсо') [это условие часто накладывают в еще более жесткой форме: для любого h > О существует оператор сдвига - отображение 9A:Q->Q такое, что Xt+h((o) = = ХД9лсо)]. Говорят, что набор X=(Xt, dv Px) образует однородный марковский процесс, если для любых t} /г>0, ГеЯ, хеЕ Px{Xt+h е Г|^} = Рх {Xh e Г} (Р^-почти наверное). (5) Пусть Л - наименьшая о-алгебра, относительно к-рой измеримы случайные величины Xt, t^O. Благодаря постулированной однородности пространства С1 для событий AeJ/ можно определить их сдвиги в^ЛеЛ' таким образом, чтобы ej~ {Xt е Г} = {Xt+h g Г} (если существуют операторы сдвига вл, то вд являются обратными к вА). С использованием операторов в^1 свойство (5) может быть переписано в виде Р^в^Л \dt) = Рх (Л) (Р^-почти наверное). (6) Важной характеристикой однородного М.п. является ха- рактеристич. оператор, описывающий поведение М. п. в бесконечно малой окрестности начальной точки. В его терминах определяется, напр., класс диффузионных процессов, являющихся «в малом» процессами броуновского движения (со сносом и нек-рой ковариационной матрицей). 308 МАРКОВСКИЙ Одним из важнейших классов М.п. являются строго марковские процессы, для к-рых свойство (2) [или (6) для однородных процессов] распространяется с детерминированных моментов t на марковские моменты т(со). В классе строго марковских процессов выделяются различные подклассы процессов, с «хорошими» свойствами траекторий (см., напр., Стандартный марковский процесс, Правый марковский процесс). Лит.: [1] Марков А. А., «Изв. физ.-матем. об-ва Казан, ун-та», 1906, т. 15, № 4, с. 135-56; [2) Вас he lier L., «Ann. sci. Ecole norm, super.», 1900, t. 17, p. 21-86; [3] Wiener N., «J. Math. Phys>, 1923, v. 2, p. 131-74; [4] Колмогоров А. Н., Теория вероятностей и математическая статистика, М., 1986, с. 60-105; [5] Feller W., «Ann. Math.», 1952, v. 55, p. 468-519; [6] его же, там же, 1954, v. 60, p. 417-36; [7] Дынкин Е. Б., Юшкевич А. А., «Теория вероятн. и ее примен.», 1956, т. 1, в. 1, с. 149-55; [8] Дынкин Е. Б., Основания теории марковских процессов, М., 1959; [9] его же, Марковские процессы, М., 1963; [10] Ito К., «Ргос. Imp. Acad., Tokyo», 1944, v. 20, p. 519-24; [11] Doob J.L., «Bull. Soc. math. France», 1957, v. 85, p. 431-58; [ 12] X а н т Д ж. А., Марковские процессы и потенциалы, пер. с англ., М., 1962; [13] Бару ча-Рид А.Т., Элементы теории марковских процессов и их приложения, пер. с англ., М., 1969; [14] Тихонов В. И., Миронов М.А., Марковские процессы, М., 1977; [15] Кузнецов С. Е., в кн.: Итоги науки и техники. Современные проблемы математики, т. 20, М., 1982, с. 37-178; [16] Mitro J. В., «Z. Wahr. und verw. Geb.», 1979, Bd 47, H. 2, S. 139-56; [17] Кузнецов С. E., «Теория вероятн. и ее примен.», 1980, т. 25, в. 2, с. 389-93; [18] Kinney J.R., «Trans. Amer. Math. Soc.», 1953, v. 74, p. 280-302; [19] Blumenthal R. M., Getoor R. K., Markov processes and potential theory, N. Y.-L., 1968; [20] Getoor R. K., Markov processes: Ray processes and right processes, В., 1975; [21 ] Г и х - ман И. И., Скороход А. В., Теория случайных процессов, т. 2, М., 1973; [22] их же, Стохастические дифференциальные уравнения и их приложения, К., 1982; [23] Чжун Кай-лай, Однородные цепи Маркова, пер. с англ., М., 1964; [24] Вентцель А. Д., Фрейд- лин М. И., Флуктуации в динамических системах иод действием малых случайных возмущений, М., 1979; [25] Ито К., Маккин Г., Диффузионные процессы и их траектории, пер. с англ., М., 1968; [26] Маккин Г., Стохастические интегралы, пер. с англ., М., 1972; [27] Севастьянов Б. А., Ветвящиеся процессы, М., 1971; [28] Хинчин А. Я., Работы по математической теории массового обслуживания, М., 1963; [29] Гнеденко Б. В., Коваленко И.Н., Введение в теорию массового обслуживания, М., 1966; [30] Вентцель А. Д., Предельные теоремы о больших уклонениях для марковских случайных процессов, М., 1986. С. Е. Кузнецов. МАРКОВСКИЙ ПРОЦЕСС; абсолютное распределение (absolute probabilities of a Markov process) - см. Абсолютное распределение цепи Маркова или марковского процесса. МАРКОВСКИЙ ПРОЦЕСС; аддитивный функционал (Markov process; additive functional of) - в широком смысле любой функционал <р = <р^ s^t, от марковского процесса (см. Марковский процесс; функционал), обладающий свойством аддитивности: <pj + <pj, = <(>5, при s^£^h, где s, t, n пробегают совокупность значений временного параметра. Если же Х= (Xt, dv Рх), £^0,- однородный М. п. в измеримом пространстве (£, ^?), имеющий операторы сдвига в^, то при отсутствии надлежащих оговорок функционал ф от X именуется аддитивным функционалом лишь тогда, когда он не только аддитивен, но и неотрицателен, и однороден [то есть <^(вАсо) = <р^(со), где s, t, h^0]. Пример: q>st = у g(Xu)du, где функция g^0 выбрана такой, чтобы интеграл имел смысл. Если аддитивный функционал ф от процесса X конечен (то есть ф^<°° почти наверное при всех 0 ^s^ t), то он однозначно восстанавливается по непрерывному справа процессу A=At = <pt, t^0, обладающему свойствами: а) Л0 = 0 и At не убывает с ростом t\ б) Д,+5(со) =ЛДсо) +As(Qt(o) при 0^s^ t\ в) семейство {At}, £^0, является функционалом от X. По традиции любой непрерывный справа процесс At, t^0, со
значениями из [0, °°], обладающий свойствами а)-в), также называется аддитивным функционалом от X; иногда требуют лишь, чтобы а) и б) выполнялись почти наверное (подразумевается, что при любом начальном распределении). Аддитивный функционал А считается вполне разрыв- н ы м, если при любом t > О значение ЛДсо) совпадает с суммой величин скачков функции Л „(со), O^u^t. Естественным образом вводят непрерывные аддитивные функционалы, являющиеся частным случаем натуральных аддитивных функционалов (последние определяются как аддитивные функционалы с траекториями, почти наверное непрерывными во все моменты разрывов траекторий X). Аддитивные функционалы А и В называются эквивалентными, если At = Bt, t^O, почти наверное. Аддитивные функционалы входят в основной инструментарий теории М. п. (см. Марковский процесс; преобразования, а также [1]-[6]). В частности, общий подход к описанию связей между нек-рыми классами мер и аддитивными функционалами предложен в [4]. Пусть A(t), t^O,- аддитивный функционал от стандартного процесса X, заданного в измеримом пространстве (£, ^?), подчиненном надлежащим требованиям. С каждой эксцессивной мерой т (см. Потенциала теория для марковского процесса) связывается мера v^ (мера Ре вуз а), заданная на ^посредством равенства для ограниченных ^-измеримых функций />0, где положено Ет() =) Ex()m(dx). Если аддитивный функционал A-A{i)<oo натурален, а процесс X обладает а-функциями Грина га(-,), а^О, то при всех а^Ои всех /"указанного вида Е, £ e-atf(Xt)dAt = jE ra{x, y)f(y)vA{dy). О вполне разрывных аддитивных функционалах см. в ст. Леей система марковского процесса. С семейством аддитивных функционалов тесно связано семейство мультипликативных функционалов, определения к-рых получают из приведенных определений аддитивного функционала <р и Л, заменой операции сложения умножением. Если A=At, t^Q}- аддитивный функционал, то а = а, = ехр At, t^O,- мультипликативный функционал. Для обрывающихся процессов в рассмотренные определения вносят естественные изменения. Лит.: [1] Дынкии Е. Б., Марковские процессы, М., 1963; [2] Blumenthal R. M., Getoor R. К., Markov processes and potential theory, N. Y.-L., 1968; [3] Волконский В. А., «Тр. Моск. матем. об-ва», 1960, т. 9, с. 143-89; [4] Revuz D., «Trans. Amer. Math. Soc.», 1970, v. 148, № 2, p. 501-31; [5] Dynkin E. В., «Ann. Probab.», 1977, v. 5, № 5, p. 653-77; [6] Getoor R. K., Sharpe M.J., «Z. Wahr. und verw. Geb.», 1984, Bd 67, № 1, S. 1-62; [7] Dynkin E. В., Getoor R. K., «J. Funct. Anal.», 1985, v. 62, № 2, p. 221-65. M. Г. Шур. МАРКОВСКИЙ ПРОЦЕСС в широком смысле (wide-sense Markov process) - случайный процесс X(t), обладающий тем свойством, что Е|Х(0| <°° при всех t и E{XUn)\XU0> .... хи„-^) = Е{Хип)\хи„-0) при любых *,<...<*„_,<*„, где Ё{Х(0|Х(^), ..., Х(^)} = Х*=1 а{Х(ф - линейная комбинация случайных величин Х(^), ..., X(tk), для к-рой Е|Х(0-^. ДгХ(^)| принимает наименьшее значение [то есть Е{Х(0|Х(^), ..., X(tk)} - это наилучшее в смысле минимума квадрата ошибки приближение к X(t), линейно зависящее от X(tx),..., X(tk)]. Понятие М. п. в широком смысле принадлежит Дж. Дубу [1]. Это свойство накладывает ограничения только на корреляционную функцию случайного процесса Х(0, и гауссовский М. п. в широком смысле будет уже марковским в обычном смысле (см. Случайная функция; свойство в широком смысле, Гауссовский марковский процесс). Имеются обобщения понятия М.п. в широком смысле на многомерные случайные процессы X(t) = {Xt(О, ..., Х„(0> (см. [2], [3]). Лит.: [1] Дуб Дж. Л., Вероятностные процессы, пер. с англ., М., 1956; [2] Beutier F., «Ann. Math. Statist.», 1963, v. 34, № 2, p. 424-38; [3] Mandrekar V., «Nagoya Math. J.», 1968, v. 33, p. 7-19. А.М.Яглом. МАРКОВСКИЙ ПРОЦЕСС; внутренние свойства траекторий (Markov process; intrinsic properties of paths) - свойства траекторий, зависящие лишь от совокупности точек, посещаемых траекторией марковского процесса и от порядка этих посещений во времени. Точнее, пусть правый марковский процесс X=(Xt, dt, Px) принимает значения в измеримом пространстве (£, &). Траектории co^OsX^cOj) и ©2(0 = ХДа^), где £^0, а со1 и ©2 берутся из множества элементарных событий Q, считаются эквивалентными друг другу на промежутках времени [flt, b\) и [а2, ^2^» лежащих в [0, «О, если существует непрерывное взаимно однозначное отображение <р: [а2, Ь2)^>[а\, Ь\), при к-ром со2() ^со1(ф()) на [а2у Ь2). Нек-рое свойство траектории ХДсо), coeQ, называется ее внутренним свойством, если оно присуще всем эквивалентным ей траекториям (пример: свойство, состоящее в посещении траекторией нек-рого фиксированного множества состояний или нескольких таких множеств в заданном порядке). Теорема Чекона - Джемисона (см. [2], [3]) в форме, предложенной в [4] (см. также [5]), утверждает: пусть в Е нет задерживающих состояний процесса X, то есть таких точек х} для к-рых Рх-почти наверное ХДсо) = х при всех достаточно малых t>0. Тогда существует измеримое множество Q1 cz Q, имеющее вероятность 0 при любом начальном распределении данного процесса и такое, что если coj, a^gQj и траектории Хь(щ), ХДа^) эквивалентны на нек-рых промежутках времени [et, bx) и [а2, Ь2)} то b\ -ax = b2-a2. В наглядных терминах: если со1 и сс^ выбраны указанным способом, то каждый участок траектории Xt((0\) при д1<^<61 «проходится с той же скоростью», что и соответствующий участок второй траектории, то есть «способ прохождения» того или иного участка траектории можно отнести к числу внутренних свойств. Аналогичным образом трактуется и случай обрывающихся М. п. Приведенная теорема позволила обобщить (см. [2]-[5]) результаты, характеризующие пары М.п., получаемых друг из друга с помощью либо случайной замены времени, либо случайной замены и убивания (см. Марковский процесс; преобразования). Лит.: [1] Blumenthal R. M., Getoor R. К., Markov processes and potential theory, N.Y., 1968; [2] Chacon R.V., Jamison В., «Israel J. Math.», 1979, v. 33, p. 241-69; [3] их же, «Z. Wahr. und verw. Geb.», 1981, Bd 58, S. 169-82; [4] Le Jan Y., «Adv. Math.», 1981, v. 42, p. 136-42; [5] Walsh J. В., «Z. Wahr. und verw. Geb.», 1984, Bd 68, S. 9-28. M. Г. Шур. МАРКОВСКИЙ ПРОЦЕСС возвратный (reccurent Markov process) - см. Возвратный марковский процесс. МАРКОВСКИЙ ПРОЦЕСС; граничное условие (Markov process; boundary condition) - условие, к-рому удовлетворяют на границе я-мерной (и^1) области достаточно гладкие функции, принадлежащие области определения инфи- нитезимального оператора марковского процесса, заданного в замыкании этой области. Рассматриваемый процесс обычно предполагается однородным и ведущим себя до выхода на границу области подобно нек-рому диффузионному процессу, МАРКОВСКИЙ 309
причем в общем случае его траекториям разрешается иметь скачки в моменты пребывания на границе и ухода с нее. Одномерный случай был рассмотрен В. Феллером в цикле, начавшемся со статьи [1]. Инициатором подобных исследований в многомерном случае является А. Д. Вентцель. При п ^ 2 обсуждаемые граничные условия возникают следующим образом. На замыкании D ограниченной «-мерной области D, обладающей достаточно хорошей границей dD, задается эллиптич. оператор Аи(х) = a-4x)J%M [aij\xMx)u'xJ. (*)£, + +Xi=i bi(<x>)u'xi (x) + c(x)u(x), где и(х) - достаточно гладкая функция, коэффициенты alJ(x), bl(x)> c(x) также ведут себя регулярным образом, причем с(*)^0, а матрица .»•= |ву(д:)| симметрична и положительно определена, и где а(х) = det~ ' .4. Пусть в D существует феллеровский процесс указанного выше типа, являющийся продолжением (см. Марковский процесс, продолжение) нек-рого диффузионного в области D процесса, инфинитезимальный оператор к-рого на достаточно гладких в D функциях совпадает с оператором Л. Тогда для каждой гладкой в D функции и(х) (см. [3]), входящей в область определения инфинитезимального оператора процесса в D, выполняется граничное условие Lu(x) = О, х edD, называемое ныне условием Вент цел я. Здесь Lu(x) = &и(х) + а(х)и(х) + $(х)Аи(х) - -у(х) р- (х) + Жи(х), xedD, (*) дп где & - нек-рый, возможно, вырождающийся оператор эллиптич. типа, Ж- интегральный оператор специальной структуры, а, р, у - неположительные функции, заданные на dD, ди о аг. а производная в направлении внутренней нормали к dD. дп При 33=0 и JK=0 условие (*) принимает вид, хорошо известный из теории уравнений с частными производными. В случае Ж=0, то есть в случае непрерывности процесса в D, условие (*) можно истолковать как означающее, что диффундирующая в D частица, прибыв на 3D, может остановиться, исчезнуть, отразиться от границы или нек-рое время блуждать по ней, а может совершить и нек-рую комбинацию перечисленных действий; если она не остановилась и не исчезла, то возвращается в D, затем вновь попадает на границу и т. д. Если граничное условие (*) принимает вид -— (х) = О, х edD, — дп соответствующий ему процесс в D называется диффузионным процессом в D с отражением на границе. Значительный интерес вызвала и обратная задача построения по оператору А и граничному условию (*) отвечающего им М.п. в£> (см. [4], [5Н7]). Весь этот круг вопросов может рассматриваться с более общих позиций задачи описания возможных продолжений М. н. произвольного вида (см. Марковский процесс; продолжение). См. также Одномерная диффузия. Лит.: [1] Feller W., «Ann. Math.», 1952, v. 55, p. 468-519; [2] Вентцель А. Д., «Докл. АН СССР», 1956, т. 111, с. 269-72; [3] его же, «Теория вероятн. и ее примен.», 1959, т. 4, в. 2, с. 172-85; [4] его же, «Успехи матем. наук», 1960, т. 15, с. 202-04; [5] Ueno Т., «Proc. 5th Berk. Symp. Math. Statist, and Probab.», 1967, v. 2, pt 2, p. 111-30; [6] Kunita H., «J. Math. Kyoto Univ.», 1970, v. 10, p. 273-335; [7] Silverstein M. L., «Lect. Notes Math.», 1976, v. 516. м. Г. Шур. 310 МАРКОВСКИЙ МАРКОВСКИЙ ПРОЦЕСС двойственный (dual Markov process/Markov process in duality) - см. Дуальный марковский процесс. МАРКОВСКИЙ ПРОЦЕСС двусторонний (two-sided Markov process) - см. Марковский процесс. МАРКОВСКИЙ ПРОЦЕСС дуальный (dual Markov process) - см. Дуальный марковский процесс. МАРКОВСКИЙ ПРОЦЕСС; закон больших чисел (Markov process; law of large numbers) - см. Больших чисел закон для марковских процессов. МАРКОВСКИЙ ПРОЦЕСС; инфинитезимальные характеристики (Markov process; infinitesimal characteristics of) - те или иные наборы характеристик, описывающих поведение однородного марковского процесса в «малом». Марковские процессы со счетным пространством состояний. Пусть X = (Xt, ^/t, Рх) - непрерывный справа однородный М.п. в счетном (или конечном) пространстве состояний £" = {1, 2,...}. Переходная функция процесса X фактически задается (бесконечной) матрицей \\Pij(t)\\itJ-eE, где Pij(t) = Pi{Xt=j). В качестве инфинитези- мальных характеристик здесь выступают производные Oij = Pij(t)\t = Q. Матрица А= \\а{.\\ задает характеристич. оператор процесса. При этом ( - ai{) имеет смысл среднего времени выхода траектории из точки i, а величины Ку= -а{:/а{{ (при а„Ф -°°) задают распределение вероятностей состояния процесса после первого скачка. Такое описание можно распространить и на скачкообразные М. п. в более общих состояниях. Процессы с независимыми приращениями. Пусть Х= (Х^, *4t, Рх) - непрерывный справа процесс с независимыми приращениями в II? . В качестве инфинитезималь- ных характеристик здесь выступают коэффициент диффузии а, коэффициент сноса Ь и мера скачков \{dy), входящие в характеристич. оператор следующим образом: %f(x) = ±af"{x) + bf\x) + +JRl (f(x + y)-f(x)-yf'(x)Ily^Mdyl где я^0, а мера v удовлетворяет условию J iV Диффузия а и снос Ь характеризует непрерывную составляющую процесса, а мера скачков v определяет соотношение у(Г)^ = Е0(Х5£((о,(о+л)/г\(о,(^)) и задает среднюю интенсивность скачков и их распределение. Это описание распространяется и на неоднородные (по времени) процессы. Диффузионные процессы. Для диффузионных процессов в II? инфинитезимальной характеристикой является матрица диффузии аЛх) ^0, вектор сноса Ь{(х) и коэффициент убивания с(#)^0(=0 для необрывающихся процессов). Соответствующий характеристич. оператор имеет вид При этом матрица a(Xt)dt имеет смысл ковариационной матрицы приращения, b(Xt)dt - математич. ожидание приращения, c(Xt)dt - условная вероятность обрыва (при условии, что момент обрыва £> i). Лит.: [1J Чжун Кай-лай, Однородные цепи Маркова, пер. с англ., М., 1964; [21 Гихман И. И., Скороход А. В., Теория слу-
чайных процессов, т. 2, М., 1973; [3] Скороход А. В., Случайные процессы с независимыми приращениями, 2 изд., М., 1986; [4] И то К., Маккин Г., Диффузионные процессы и их траектории, пер. с англ., М., 1968; [51 Маккин Г., Стохастические интегралы, пер. с англ., М., 1972. С. Е. Кузнецов. МАРКОВСКИЙ ПРОЦЕСС квазигладкий (quasi smooth Markov process) - см. Квазигладкий марковский процесс. МАРКОВСКИЙ ПРОЦЕСС; компактификация фазового пространства (Markov process; phase/state space compactification) - операция пополнения пространства состояний марковского процесса в нек-рой связанной с процессом метрике, позволяющая получить в расширенном пространстве процесс, обладающий теми или иными хорошими свойствами. Практически используются компактификация Рэя - Найта и компактификация Мартина, применяемые к однородному М. п. X = (Xt, .</t, Рх). Используемая при компактифика- ции Рэя - Найта метрика подбирается таким образом, чтобы обеспечить равномерную непрерывность функций вида Rxf(,x) = jrx(X,dy)f(y) для широкого класса функций f[r^- резольвента процесса X; предполагается, что функции R-^f(x) разделяют точки пространства состояний Е]. Доказывается, что в расширенном пространстве Е существует нек-рый непрерывный справа без разрывов 2-го рода строго М. п., резольвента к-рого является продолжением по непрерывности резольвенты исходного процесса и является резольвентой Рэя (см. также Рэя процесс). Траектории нового процесса являются в нек-ром смысле правыми пределами траекторий исходного процесса, взятыми по счетному всюду плотному множеству. Компактификация Мартина осуществляется при значительно более жестких условиях; она используется при исследовании финального поведения М. п. и разложении эксцессивных функций по крайним. Подробнее см. в ст. Мартина граница марковского процесса. Лит.: [1] Ray D., «Ann. Math.», 1959, v. 70, p. 43-72; [2] Martin R.S., «Trans. Amer. Math. Soc», 1941, v. 49, p. 137-72; [3] Knight F., «111. J. Math.», 1965, v. 9, p. 548-52; [4] Ge- toor R. K., Markov processes: Ray processes and right processes, В., 197.5; [51 Engelbert H.J., «Math. Nachr.», 1978, Bd 85, S. 235-66; 161 Дынкин Е. Б., «Успехи матем. наук», 1969, т. 24, в. 4, с. 89-152; [71 Jeulin Т., «Z. Wahr. und verw. Geb.», 1978, Bd 42, H. 3, S. 229-60. С. Е. Кузнецов. МАРКОВСКИЙ ПРОЦЕСС линейчатый (Markov line- wise process) - см. Линейчатый марковский процесс, Полумарковский процесс. МАРКОВСКИЙ ПРОЦЕСС; локальное время (Markov process; local time of) - неотрицательный аддитивный функционал от марковского процесса, определяющий случайную временную шкалу на множестве моментов пребывания процесса в заданном состоянии. Локальное время для винеров- ского процесса было введено и исследовано П. Леви [1 ]; более широкий класс одномерных процессов рассмотрел Э. Бойлан (Е. Boylan; 1964), а с работы [4] началось изучение локального времени стандартных процессов. Пусть необрывающийся стандартный процесс Х= (Xt, stt, Pr) задан в пространстве состояний (Е, 33), и пусть множество Ег образовано из всех состояний, каждое из к-рых регулярно для порожденного им одноточечного множества. Тогда [4] для каждой точки хеЕг существует локальное время в этой точке, то есть непрерывный аддитивный функционал Lxt = Lxt(o) от процесса X, к-рый (почти наверное при любом начальном состоянии процесса) не испытывает приращений на множестве {t^0:Xt*x}, но Рг-почти наверное положителен при t>0. В предположении существования локального времени в каждой точке хеЕ большой интерес представляет задача описания условий, при к-рых существует вариант Lx, играющий роль плотности времени пребывания в том смысле, что для всех В е33 и t^O j'otBas)ds=lBL*z,ux) о при подходящем выборе меры £ на 33, где iB - функция-индикатор множества В. Известно (см. [5]), что осуществление (*) гарантировано, если при а>0 все а-меры Грина (см. Потенциала теория для марковского процесса) абсолютно непрерывны относительно нек-рой а-конечной меры £, заданной на 91, и если функция у(х, у) = Ехе~ у является борелевской в пространстве ЕхЕ, где Т(у) - момент первого достижения точки у. Соотношение (*) можно рассматривать как нормирующее при выборе варианта Lxt [другой распространенный способ нормировки (см. [4]) состоит в постулировании равен- ства Ех J e dLxt = 1 при х е Ег]. В случае одномерного винеровского процесса локальное время Lxt можно считать непрерывным по совокупности переменных (t, х) (см. [3]). Так же обстоит дело, когда для X избирается второй способ нормировки локального времени, в качестве Е = ЕГ берется интервал действительной оси и налагается условие г1 -1 I р(и)и du<oof где 4 /о р(и) = sup [1 -у(х,у)у(у,х)] ' \х-у\^ и (см. [5]). Случай обрывающегося процесса X аналогичен рассмотренному. Теория локального времени получила важные приложения, напр., при исследовании одномерных диффузий, случайных множеств уровня вида {t^O; Xt = x), где х - фиксированное состояние процесса, и интегральных разложений аддитивных функционалов (см. [2], [8]). Успешно применяется теория локального времени в случае винеровского процесса (см. [1], [2], [9]). Предметом интенсивных исследований являются также способы аппроксимации локального времени различными простыми функционалами от траекторий соответствующих процессов (см. [1]). Обобщения. Представление (*) послужило отправной точкой для многих обобщений приведенного выше понятия локального времени. Так, если для нек-рого марковского процесса X, заданного в измеримом пространстве (Е, 33), и любого х е Е можно указать разрывный (возможно) аддитивный функционал Lx, для к-рого выполнено (*) при подходящем выборе меры £ и Л и всех В е 33, то Lx снова называется локальным временем в точке х. Примеры разрывных локальных времен см. в [5]. Сходное определение принимается и для гауссовских процессов и полей (см. [6], [8]). С работы [7] началось исследование локального времени в рамках теории семимартингалов. Иногда термин «локальное время» используют в следующем смысле. Пусть в замыкании Е нек-рой «-мерной, п^2, области D с достаточно гладкой границей 3D задан диффузионный процесс с отражением на границе (см. Марковский процесс; граничное условие). Тогда при широких условиях существует локальное время на границе, понимаемое как такой непрерывный аддитивный функционал МАРКОВСКИЙ 311
Lt от X, к-рый Рх-почти наверное при всех х edD совпадает с пределом lim tifiD(.Xs)ds,t>0, коль скоро числа р„|0 выбраны подходящим образом, а множество Dn составлено из тех и только тех х е Е, расстояние к-рых до 3D не превышает р„. Лит.: [1] Levy P., Processus stochastiques et mouvement brownien, 2 ed., P., 1965 (в рус. пер. - Л ев и П., Стохастические процессы и броуновское движение, М., 1972); [2] Ито К., Маккин Г., Диффузионные процессы и их траектории, пер. с англ., М., 1968; [3] Trotter H.F., «111. J. Math.», 1958, v. 2, p. 425-33; [4] Blumenthal R.M., Getoor R. K., «Z. Wahr. und verw. Geb.», 1964, Bd 3, S. 50-74; [5] Getoor R.K., Kesten H., «Composite math.», 1972, t. 24, p. 277-303; [6] Berman S. M., «Trans. Amer. Math. Soc», 1969, v. 137, p. 277-99; [7] Meyer P. A., «Lect. Notes Math.», 1975, v. 511, p. 245-400; [8] Gem an D., Horowitz J., «Ann. Probab.», 1980, v. 8, p. 1-67; [9] Knight F. В., Essentials of Brownian motion and diffusion, Providence, 1981; [10] Насыров Ф. С, «Теория вероятн. и ее примен.», 1995, т. 40, в. 4, с. 798-812. М. Г. Шур. МАРКОВСКИЙ ПРОЦЕСС необрывающийся (non- killed Markov process) - см. Обрыва момент. МАРКОВСКИЙ ПРОЦЕСС нормальный (normal Markov process) - см. Нуль-единица закон для марковских процессов, Обрыва момент. МАРКОВСКИЙ ПРОЦЕСС; нуль-единица закон (Markov process; zero-one law) - см. Нуль-единица закон для марковских процессов. МАРКОВСКИЙ ПРОЦЕСС обращенный (reversed Markov process) - см. Обращенный марковский процесс. МАРКОВСКИЙ ПРОЦЕСС обрывающийся (killed Markov process) - см. Обрывающийся марковский процесс. МАРКОВСКИЙ ПРОЦЕСС однородный (homogeneous Markov process) - см. Марковский процесс. МАРКОВСКИЙ ПРОЦЕСС; переходная функция (Markov process; transition function) - см. Переходная функция. МАРКОВСКИЙ ПРОЦЕСС правый (right Markov process) - см. Правый марковский процесс. МАРКОВСКИЙ ПРОЦЕСС; предельные теоремы (Markov process; limit theorems) - см. Предельные теоремы для марковских процессов. МАРКОВСКИЙ ПРОЦЕСС; предельные теоремы для отношений (Markov process; ratio limit theorems) - см. Предельные теоремы для отношений, отвечающих марковскому процессу. МАРКОВСКИЙ ПРОЦЕСС; преобразования(Markov process; transformations) - преобразования марковского процесса, сохраняющие марковское свойство неизменным. К числу наиболее употребительных из них относятся случайная замена времени, обращение времени (см. Обращенный марковский процесс) и убивание, то есть переход к нек-ро- му подпроцессу. Преобразования М. п. широко используют как средство построения новых М. п. по заданным. Так, последовательное осуществление убивания и случайной замены времени при широких условиях позволяет получить из исходного М. п. X новый, выходные вероятности к-рого (то есть распределения в моменты первого выхода из множеств F е&) не превышают выходных вероятностей М. п. X. Наоборот для М. п. У (опять же при определенных ограничениях) с выходными вероятностями, мажорируемыми таковыми для X, можно указать эквивалентный М.п., конструируемый из X посредством указан- 312 МАРКОВСКИЙ ных операций (см. [3], [6]). Случай совпадения выходных вероятностей М.п. X и У не требует использования убивания (см. Случайная замена времени). Структура инфи- нитезимальных операторов процессов типа У хорошо описывается в терминах характеристик упомянутых преобразований (см. [4]). Весьма употребительны следующие преобразования. Преобразование фазового пространства. Исходными являются (обрывающийся) однородный М.п. X = (Xt, £, 1*4, Рх) в фазовом пространстве (Е, &) с переходной функцией p(t, x; Г) и такое измеримое отображение у:(Е, JG)->(£, Л), что у(Е) = Ё, у(Л)<^Л и p(t, х; y-1f) = = p(t, у; у Г), коль скоро f c .J0, у(х)=уу(х, уеЕ). Равенство pit, х, f)=p(t, y^f.y^f), xeE, f ei, определяет переходную функцию в (Е, :£), к-рой соответствует нек-рый М.п. X, рассматриваемый как образ X. Можно считать, что X и X имеют общее пространство элементарных событий (см. [1]), а в качестве траекторий X взять функции yXt, 0^£<£. Описанная конструкция используется, напр., при построении непрерывных М.п. на отрезках действительной прямой. Восстановление марковского процесса - операция, позволяющая заданный обрывающийся процесс продолжить до необрывающегося (см. [5], [7]). Склеивание марковского процесса - операция, сопоставляющая паре М. п. X и Х1( заданным соответстзенно в (Е, &) и (Ev &i), третий М.п. в (EUEj, Щ), где У32 - нек-рая а-алгебра в E[)EV к-рый, грубо говоря, ведет себя как X до покидания Е и как Xt до покидания £1 (см. [7]) (осуществимость склеивания зависит от нек-рых условий, включая условие согласованности X и Хх в ЕГ\Е\). Существует ряд других преобразований М.п. Лит.: [1] Дынкин Е. Б., Марковские процессы, М., 1963; [2] Blumenthal R. M., Getoor R. К., Markov processes and potential theory, N. Y.-L., 1968; [3] Шур М. Г., «Теория вероятн. и ее примен.», 1966, т. 11, в. 2, с. 260-82; [4] его же, «Изв. АН СССР. Сер. матем.», 1967, т. 31, № 4, с. 731-62; (5] Ikeda N.. Na- gasawa M., Watanabe S., «Proc. Japan Acad.», 1966, v. 42, № 4, p. 370-75; [6] Shih СТ., «Trans. Amer. Math. Soc», 1967, v. 129, № l, p. 157-79; [7] Meyer P.-A., «Ann. Inst. Fourier», 1975, t. 25, № 3-4, p. 465-97. M. Г. Шур. МАРКОВСКИЙ ПРОЦЕСС принятия решений (Markov decision process) - см. Управляемая цепь Маркова, Управляемый марковский процесс, Управляемый случайный процесс с дискретным временем. МАРКОВСКИЙ ПРОЦЕСС; продолжение (Markov process; extension of) - марковский процесс, часть к-рого на нек-ром множестве (см. Марковский процесс; часть) эквивалентна исходному марковскому процессу, то есть имеет ту же переходную функцию. Первоначально строились лишь продолжения процессов, диффузионных внутри нек-рой области DcilR", n^\, до процессов, заданных в замыкании области (см. Марковский процесс; граничное условие). Общий подход разработан М. Мотоо и Е.Б. Дынкиным в работах [1]-[3]. Пусть стандартный М.п. X=(Xt, C„.^t,Px) задан в пространстве состояний (Е, ЭЗ), а М.п. X = (Xt, £, Mv Рх) эквивалентен его части на открытом множествеD с Е. Множество V\Vr, где V = E\D, a Vr - совокупность регулярных точек для V, предполагается полярным. Тогда резольвента процесса X (см. [2]) разлагается в сумму двух операторов. Первый из них - резольвента X (точнее, ее линейное расширение, переводящее функции, заданные вне D, в константу 0). Для однозначного описания второго оператора необходимо задать: а) так наз. распределение входов b(x, dy),
x g Vr, являющееся по второму аргументу мерой в нек-ром пополнении множества D; б) коэффициент задержки 1(х), xeVn - нек-рую ограниченную измеримую функцию; в) локальное время Ф(0, t^O, на Vr - непрерывный аддитивный функционал от X, почти наверное сохраняющий постоянство на интервалах времени, на к-рых Xt g Vr. Обычно Фпредпочитают заменять граничным процессом X* на множестве Vr, получаемым из X посредством случайной замены времени, порожденной Ф. Между элементами граничной системы (Ь, I, X*) имеются определенные связи. Исследована и более общая ситуация (см. [3]). Рассмотрена также обратная задача построения процесса X по X и по заданной граничной системе (см. [1], [2]). Лит.: [1] Motoo М., «Ргос. 5th Berk. Symp. Math. Statist, and Probab.», 1967, v. 2, pt 2, p. 75-110; [2] Дынкин Е. Б., «Теория вероятн. и ее примен.», 1968, т. 13, в. 4, с. 708-13; [3] его же, там же, 1971, т. 16, в. 3, с. 409-36; [4] Meyer P. A., «Ann. Inst. Fourier, Grenoble», 1975, t. 25, № 3-4, p. 465-97; 15] Silverstein M.L., «Lect. Notes Math.», 1976, № 516. M. Г. Шур. МАРКОВСКИЙ ПРОЦЕСС; резольвента (Markov process; resolvent) - преобразование Лапласа переходной функции однородного марковского процесса. Точнее, пусть Х- (Xt, л0 Рх) - однородный М. п. и pit, х\ Г) = Px{Xt еГ(- его переходная функция. Предполагается, что процесс ХДсо) измерим по совокупности t и со (напр., так будет, если процесс непрерывен справа по t). Тогда функция pit, x; Г) измерима по t, х и можно определить резольвенту формулой гх(х, П=|~ e~Xtp(t, x; Y)dt, Х>0. Функции гх(х, Г) являются ядрами, то есть измеримы по х при фиксированном Г, и (конечными) мерами по Г при фиксированном х. С ядрами гх можно связать операторы Rx по формуле ЛлЛ*> = J£ r^x, dy)f(y) = Ех \1 e-uf{Xt)dt, где £ = £(со) - момент обрыва процесса X (для необрывающе- гося процесса £ = °°). Резольвента гх обладает следующими свойствами: а) \\XRxf\\ ^ ||Л1 > ^>0> где \\f\\ =sup \f(x)\; для необрыва- ющихся процессов XRX\ = 1; б) RX = R^+ (\1-Х)Ях^, X, \i>0 (резольвентное уравнение). Не любому семейству ядер rx(x, dy), удовлетворяющему условиям а) и б), соответствует какая-либо переходная функция р (и М.п. X). Однако если Е- метрич. компакт, а семейство ядер гх образует резольвенту Рэя (в частности, это означает, что операторы Rx переводят непрерывные функции в непрерывные), то семейство ядер гх является резольвентой для нек-рого строго марковского непрерывного справа процесса. Резольвента гх связана с инфинитезимальным оператором А процесса X соотношением RX=(A-XI) (/ - тождественный оператор) или, что то же самое, равенством ARxf-XRxf=f, Х>0, для ограниченных измеримых функций f. Для строго М. п. X справедливо также соотношение E^RJ(X,)-Rxf(x) =-Ej0T e~**f(Xs)ds (формула Дынкин а). В терминах резольвенты удобно формулировать свойства регулярности траекторий (см. Правый марковский процесс). Резольвента - один из инструментов построения границ Мартина, исследования граничного поведения процессов, исследования дуальных М. п. и др. Такая роль резольвенты частично объясняется свойствами случайного процесса zt = Rxf(Xt), t>0: 1) процесс zt однороден, то есть ^+s(co) =2,(6S, со), где 6S - оператор сдвига; 2) процесс е~ xzt - супермартингал относительно а-ал- гебр ,sdt. Лит.: [1] Дынкин Е.Б., Марковские процессы, М., 1963; [2] Bl u men thai R. M., Ge too r R. К., Markov processes and potential theory, N.Y.- L., 1968; [3] ГихманИ.И., Скороход А. В., Теория случайных процессов, т. 2, М., 1973. С. Е. Кузнецов. МАРКОВСКИЙ ПРОЦЕСС с взаимодействием (interaction Markov process) - марковский процесс с пространством состояний, являющийся бесконечным произведением пространств-компонент, обладающих нек-рыми свойствами типа локальности. В простейшем случае конечного пространства X значений компонент процесса и счетного множества 7\ параметризующего его компоненты, пространством-состояний процесса является пространство X (с естественной а-алгеброй, порожденной цилиндрич. подмножествами), так что значением процесса в данный момент является случайное поле. Рассматриваются как процессы с дискретным временем (см. [1], [3]), так и с непрерывным временем (см. [1], [2], [8]). В случае однородного по времени процесса с дискретным временем предполагается, что переходная вероятность Р{-|*}, x=(xt, teT)eX , это продактмера на X . При этом в чаще всего рассматриваемом случае Т = Ж , где Ж есть ^-мерная целочисленная решетка, обычно предполагается, что все индуцируемые мерой Р{|^} условные одномерные распределения Ps{*s'|*s} для компоненты х^, seZ , зависят лишь от значений хи таких, что |M-s|^r, где г>0- константа, называемая радиусом зависимости (свойство локальности), и выполнено естественно формулируемое условие трансляционной инвариантности относительно сдвигов по Z . Простейший нетривиальный пример -модель Ставской, где Т = Ъ, X - {0, 1} и при нек-ром р0, 0<р0<\, 1, xs - xs+] = 1, ps(l\xs) = < [pQ в остальных случаях (в наглядной интерпретации лампочка в точке s загорается с вероятностью pQ и гаснет с вероятностью 1 - р0 независимо от остальных лампочек, но с тем исключением, что она не может погаснуть, если горит соседняя с ней справа лампочка). В случае непрерывного времени процесс определяется набором переходных плотностей Х(х^\х), x^xs, задающих (наглядно) инфинитезимальную вероятность того, что за время dt s-я компонента изменит свое значение с xs на х^ при заданном состоянии остальных компонент. Предполагается снова, что T-TL и выполнены условия локальности: Xs(x^\xu) зависит лишь от компонент хи с |м-$|^г. Можно описать М.п. на X при помощи предельного перехода. Сначала задается скачкообразный М.п. с конечным пространством состояний X ", где Qn = {ue1 :\и\ ^п}, при помощи переходных вероятностей \K(x's I х> *п)> еСЛИ *' *' € Оп> хи = К> \(х'\х) = \ п ф s, xs ф xs, s € Qn, О для остальных пар. Существует предел при и->оо (в слабом смысле) последовательности переходных вероятностей такого процесса, задаю- ld - та щий М. п. на X , и он не зависит от выбора хп еХ \Q„. Примеры: процесс голосования, где Х = {0, 1} и Xs(x^\xs) равно числу индексов u*s таких, что |w-s|^r и МАРКОВСКИЙ 313
xn*x's (субъект случайно меняет мнение на противоположное в зависимости от числа соседей, имеющих это противоположное мнение); процесс контактов, где Х = {0, 1} и Xs{x's\x) = X, если х^ = 0, а АХх^*) снова равно числу индексов u*s, \u-s\^r таких, что хи = 1, если х^ = 1 (организм выздоравливает за время dt с постоянной вероятностью и заболевает с вероятностью, пропорциональной числу больных соседей). Иногда допускается и одновременное изменение состояний нескольких компонент. Таков процесс с запретами, где Х = {0, 1}, и тот факт, что хи= 1, интерпретируется как наличие частицы в позиции и. В наглядном описании за время dt частица с вероятностью p(s-u)dt перескакивает из позиции s в позицию и, если только эта позиция не была уже занята. Основным объектом исследования в теории М. п. с взаимодействием является описание совокупности стационарных (по времени) распределений процесса и их областей притяжения. Эта совокупность всегда является выпуклым множеством, так что достаточно указать ее крайние точки, являющиеся регулярными случайными полями. Возникающие здесь ситуации весьма разнообразны, появляются явления типа фазовых переходов, и каждый класс моделей требует своих индивидуальных методов исследования. Так, в модели Ставской есть стационарное распределение, сосредоточенное на реализации х = (хп = 1, п е 1 ). Однако при нек-ром рсг, 0<рсг<\, и всех р < рсг существует еще одно нетривиальное экстремальное стационарное распределение. Само значение рсг явно не найдено. В модели голосования есть два нетривиальных стационарных состояния, сосредоточенных на реализациях хп = 0 и хп=\. При d = 1, 2 других таких состояний нет, а при d ^ 3 есть еще зависящее от параметра р, 0 < р < 1, семейство нетривиальных трансляционно-инвариантных стационарных распределений, причем р равно вероятности того, что хп=\. В процессе контакта, кроме нетривиального стационарного распределения, сосредоточенного в хп = О при нек-ром Xd > О и всех X > Xd, есть еще одно нетривиальное стационарное распределение, а при X < Xd их нет. В процессе с запретами при дополнительном условии симметрии р(и)=р(-и) стационарными являются бернуллиевские меры и только они. Более общий подход возможен при исследовании обратимых (во времени) М.п., так как здесь класс стационарных распределений совпадает с классом гиббсовских случайных полей с потенциалом, явно выраженным через переходные плотности процесса. Этот класс процессов был уже давно (1963) введен в физич. литературе, где он назван моделями Глаубера. М.п. с взаимодействием применяются также для построения моделей биологич., химии., экономии., социологии, природы. Лит.: [1] Васи л ьев Н. Б., Д обру ш и н Р. Л., Пятецкий- Шапиро И. И., Советско-японский симпозиум по теории вероятностей - Хабаровск, 1969, Новосиб., 1969, с. 4-30; [2] Добру - шин Р. Л., «Проблемы передачи информации», 1971, т. 7, с. 57-66; [3] СтавскаяО.Н., Пятецкий-ШапироИ.И., «Проблемы кибернетики», 1968, в. 20, с. 91-106; [4] Glauber R., «J. Math. Phys.», 1963, v. 4, p. 294-307; [5] Griffeath D., «Lect Notes in Math.», 1979, № 724; [6J Liggett Т., Interacting particle systems, N. Y. - [a. o.], 1985; [7] Toom A. L., Vasilyev N. В., Kurdu- mov D. L., в кн.: Stochastic cellolar system. Ergodicity, memory, morphogenesis, Manchester, 1988; [8] SpitzerF., «Lect. Notes in Math.», 1969, v. 89, p. 201-23. P.M. Добрушин. МАРКОВСКИЙ ПРОЦЕСС с конечным множеством состояний (Markov process with finite state space) - марковский процесс Х с непрерывным временем, принимающий значения из конечного множества (фазового пространства) Е. Все подмножества множества Е считаются измеримыми. Принято отождествлять элементы множества Е с натуральны- 314 МАРКОВСКИЙ ми числами 1, 2, ..., п. Обычно предполагают процесс X необрывающимся (случай обрывающегося процесса сводится к необрывающемуся введением дополнительного поглощающего состояния п+ 1). М. п. с конечным множеством состояний, однородные и неоднородные, введены в 1931 А. Н. Колмогоровым (см. [1]) как первый, самый простой пример марковских (по терминологии [1] - стохастически определенных) процессов. В неоднородном случае процесс X рассматривают на произвольном интервале Т действительной оси. В соответствии с общим современным определением М.п. считают, что случайный процесс Xt = X(t) может начинаться в любой момент времени s e T в любом состоянии i e Е; отвечающее этим условиям распределение вероятностей на основном пространстве Q обозначают через Р5 ±. Вместо начального состояния иногда рассматривают начальное распределение (Х = ((Х1, ..., |i„), где ц^0, \Li + ...+\in=\. (1) Соответствующая мера равна Основная характеристика М. п. - переходная функция p(s, i; t, Г) = Р^{Х,еГ} в случае конечного (или счетного) множества Е состояний определяется своими значениями на одноточечных множествах: pis, i',t,r) = ^jerp(s, i;t,j). Величины Pijis, 0=p(s, i; t, /), s^teT, ieE, jeE, называются вероятностями перехода процесса. Они неотрицательны, рьИ,0 = Ь{], (3) и поскольку процесс не обрывается, то I,.€£V*.'>-1.*e£. (4) Вероятности перехода удовлетворяют уравнению Колмогорова - Чепмена Pifa u) = yLkeE^(s' *H(<» ^s<t<ueT. (5) Матрица P(s, t) = |^.-(s, t)| называется переходной матрицей процесса. Матрица P(s, О стохастическая, условия (3) и (5) записываются с ее помощью как P(t, 0 = 1, P(s, u) = P(s, t)P(t, и). Для процессов с конечным (или счетным) множеством состояний марковское свойство также достаточно постулировать лишь для одноточечных множеств; оно выражается соотношением ?s.[i{XUm+i) = in»i\XUl) = iil .... X(tm) = im} = = Pimim+Stm> tm+l),s^tt<t2<...<tmeT, (6) it, ..., 7ш+1 e E, m = 2, 3,... Используя умножение и сложение вероятностей и формулы (2) и (6), при данном начальном распределении |1 можно через вероятности перехода выразить вероятности произвольных цилиндрич. множеств PSi|i{Xal)6rlf .... XitJeTj, tk>s, rkQE. (7) Теорема Колмогорова о существовании случайного процесса с данными согласованными конечномерными распределениями (7) позволяет построить нужную меру Ps|i на основном пространстве Q. так, чтобы выполнялись все условия, входящие в определение М. п. X, и чтобы функции pl}(s, О действительно были вероятностями перехода процесса X. Таким
образом, 1) неотрицательные функции p^is, t), s^t, seT, teT ie E, j eE, могут быть вероятностями перехода тогда и только тогда, когда выполнены условия (3) - (5); 2) любому такому набору функций отвечает М. и. {Xt}te т на Е. Описанное построение обладает следующим недостатком: многие «хорошие» множества, с наглядной точки зрения естественные для «типичного» случайного процесса на Е, остаются неизмеримыми; напр., при числе состояний п ^ 2 и pu(s, 0 = 1 не определена Р5 j-вероятность, казалось бы, достоверного события \Xt = \, te[s, s + h]} при /z>0. Указанная трудность устраняется с помощью конструкции так наз. сепарабель- ной версии процесса X или иных способов «чистки» пространства элементарных исходов (см. [3], [6]). Эволюция абсолютного распределения (х(0 = {|Х1(0, ..., \in(t)} состояний во времени, где ц,(0 = Р{Х, = г}, тоже выражается через вероятности перехода: или в матричной записи u(0 = u.(s) Ps,u.(s> *)• Дальнейшая теория строится при допущении той или иной регулярности вероятностей перехода процесса. Требование стохастич. непрерывности справа для М. п. с конечным (или счетным) Е сводится к условию lim ptjU, t + h) = bijt teT, ieEJeE, (8) или в матричной записи P(t, t + 0) = I. Более сильные условия состоят в предположении непрерывности функций Puis, О всюду, к-рое охватывает требование (8), и существования у них конечных частных производных при s*t. Из этого предположения в [1] выведено существование <онечных пределов .. \-p.At,t+h) lim—— hio h Plj(t,t+h) lim— = qi(t) = -qii{t)>0, (9) (10) и справедливость двух систем дифференциальных уравнений для вероятностей перехода. Наглядно, q{At)dt есть вероятность перехода из i в j за время от t до t + dt, a qxdt есть вероятность выхода из состояния i за то же время. Число <7,у, г */, называется плотностью вероятности (или интенсивностью) перехода из i в у, число qi - плотностью вероятности (интенсивностью) выхода из г. В конкретных задачах они находятся из физич. соображений. Из (4) следует, что = 0), еЕ. (11) Иначе (9)—(10) можно записать как где Q(t)= ||^i;(0||. Первая, или прямая («направленная вперед»), система дифференциальных уравнений Колмогорова имеет вид dpjAs, t) __ вторая, или обратная («обращенная назад»), - dpiAs, t) _ в матричной записи соответственно (12) dP(s, t) dt P(s, t)Q(t) и dP(s, t) ds -Q(s)P(s,tl Уравнения (12) при каждом фиксированном г представляют замкнутую систему для неизвестных pix, ..., pin\ аналогично устроены обратные уравнения при фиксированном /. Если функции qtj(t) непрерывны, то система (12) с начальными условиями (3) имеет единственное решение. Более того, для любых ограниченных непрерывных функций q^W^O, teT, i*j, и полученных из (11) функций q^t) решение системы (12) с начальными условиями (3) существует и на самом деле задает переходные вероятности нек-рого необрывающегося процесса X. При сделанных предположениях у сепарабельной версии процесса с вероятностью 1 траектории кусочно постоянны (являются ступенчатыми функциями с конечным числом скачков на любом конечном отрезке времени). Если плотности qij(t) неограниченны или не существуют, то траектории процесса, вообще говоря, устроены сложнее. Изучены условия, при к-рых траектории будут ступенчатыми, и обобщения дифференциальных уравнений Колмогорова на случай недиффе- ренцируемых вероятностей перехода (см. [7], [8]). В случае однородных М. п. с конечным множеством состояний, вероятностная структура к-рых инвариантна относительно сдвигов времени, теория упрощается. Для однородных процессов считают Т=[0, °°), меры Ps г(или PSt„) рассматривают лишь для 5 = 0 и обозначают Рг (Р„). Основной характеристикой однородного М. п. с конечным (или счетным) пространством Е являются вероятности перехода из состояния i в состояние ; за время t: рМ) = P{{Xt=j}, t^0, i,jeE. Вероятностями перехода рЛг) могут служить любые функции, удовлетворяющие условиям PiJ(t)>0, PijW = bijf t,/eE; ^eEPij(t) = \, ieE, (13) и уравнению Колмогорова - Чепмена Pij(s + t) = ^keEpik(s)pkJ(t), 5^0, t>0, i,jeE. (14) Матрицу P(t), t^0, с элементами рЛО называют переходной матрицей однородного процесса X. Соотношения (13), (14) означают, что P(t) - стохастич. матрица и Р(0) = /, P(s + t) = P(s)P(t) (15) [P(t)t>Q- полугруппа стохастич. матриц]. Абсолютное распределение |i(0 в момент t выражается через начальное распределение |i = |i(0) формулой \i(t) = \iP(t). Из соотношений (13), (14) выводится, что функции Pij(t) измеримы и непрерывны по t при t>0 и имеют пределы /?;,(+0) при tiO (см. [2]). Но эти пределы могут не совпадать с 5i;, как, напр., в случае переходной матрицы «0) = t>0. 10 , ч 0,5 0,5 |0 11| I 0,5 0,51| В этом примере при любом начальном состоянии все случайные величины Xt с t > 0 взаимно независимы и имеют распределение ц<О = (0,5; 0,5). Траектории случайного процесса Xt крайне нерегулярны. Во избежание подобных патологий всегда предполагают стохастич. непрерывность процесса X, к-рая эквивалентна непрерывности функции рЛ+) в нуле, то есть условию Р( + 0) = /. (16) При условии (16) матричная функция P(t), t^0, дифференцируема справа в нуле (см. [2]). Элементы q^ и н фи ни те- зимальной матрицы Q = P'(0) имеют тот же смысл плотностей вероятностей перехода ^-qii-qi - плотности веро- МАРКОВСКИЙ 315
ятности выхода), что в неоднородном случае, и удовлетворяют тем же соотношениям (11), но теперь не зависят от t. Прямая и обратная системы дифференциальных уравнений Колмогорова принимают вид или в матричной записи Pl(t)=PU)Q,P,(t) = QPU). Это линейные системы с постоянными коэффициентами, каждая из них при начальных условиях (16) имеет единственное решение. С точки зрения конечномерных распределений однородный М. п. с п состояниями полностью определяется п -п неотрицательными постоянными q-, i*j [qi{ выражается через них по формулам (11)]; их значения могут быть произвольными. Сепарабельная версия однородного М. п. с конечным множеством состояний имеет кусочно постоянные траектории без накопления разрывов (скачков); в точках разрыва можно считать траекторию непрерывной слева или справа. Предпочитают выбирать пространство С1 элементарных исходов так, чтобы процесс был непрерывен справа, при этом он обладает строго марковским свойством. Непрерывная справа версия процесса X с начальным состоянием i устроена следующим образом. Момент х = inf {t:te [О, +°°], Xt*i) первого выхода из начального состояния имеет экспоненциальное распределение с параметром q{: Р,-{т> £} = exp (-q(t), t^O. При qi = 0 будет т = <*> почти наверное и состояние называется поглощающим. Если ^>0, то т почти наверное конечно, случайное значение Хх не зависит от т и имеет распределение вероятностей Pi{Xx=j} = qij/qi, j*i, jeE. Далее, по строго марковскому свойству та же картина повторяется с отсчетом времени от момента тис начальным состоянием Хх и т. д.; при этом последовательно меняющиеся состояния процесса X образуют (быть может, обрывающуюся) цепь Маркова с вероятностями перехода _[4ijhi ПРИ J*** 4i>0> lJ [О в остальных случаях, ее называют вложенной цепью по отношению к процессу X. У однородного М. п. с конечным множеством состояний всегда есть стационарное распределение, то есть такое начальное распределение \i, к-рое со временем не меняется: \i = \iP(t). Для стационарности необходимо и достаточно, чтобы |iQ = 0. Это уравнение вместе с (1) используют для нахождения \i. Вопрос о единственности стационарного распределения связан с классификацией состояний и асимптотикой рЛО при £-><*>. У М. п. с конечным множеством состояний при данных i и j либо р{.(О=0 при всех £>0, либо рМ)>0 при всех t>0. Поэтому, в отличие от дискретного времени, у таких процессов не может быть циклич. подклассов (в остальном классификация аналогична случаю дискретного времени; см. Маркова цепь; классификация состояний). В связи с отсутствием цикличности всегда существуют пределы Pij(t) при t ->о° и сходимость здесь экспоненциально быстрая. Каждому существенному классу Са соответствует единственное стационарное распределение ц" процесса X, сосредоточенное на Са; при этом |1,а>0 для всех j e Са. Кроме того, limPii(.t) = \' 316 МАРКОВСКИЙ где числа nia имеют смысл вероятностей поглощения классом Са системы, начинающей движение в состоянии i из несущественного класса R. Вероятности nia при данном а представляют единственное решение системы уравнений с «граничными условиями» [О, 1бЕ\(СаПЯ), Среднее время до поглощения т{ = Е-т, т = inf{t: t>О, Xt eE\R), i e E, находится из системы уравнений с «граничными условиями» mt = 0, ieE\R. Множество всех стационарных распределений совпадает с выпуклой оболочкой векторов ц". Стационарное распределение единственно тогда и только тогда, когда число существенных классов равно 1. В последнем случае справедлива эргодическая теорема (усиленный закон больших чисел): для любой действительной функции f на Е почти наверное Гш1 Ц f(Xs)ds = ^E ,/(/). Имеют место также центральная предельная теорема для марковских процессов и повторного логарифма закон. Применение вложенных цепей Маркова позволяет переносить предельные теоремы подобного рода с дискретного на непрерывное время. М. п. с конечным множеством состояний используют в задачах теории массового обслуживания и исследования операций; они применимы, когда потоки заявок можно считать пуассоновскими, а время обслуживания - экспоненциальным. Лит.: [1] Колмогоров А. II., Теория вероятностей и математическая статистика, М., 1986, с. 60-105; [2] Doeblin W., «Bui . sci. math.», 1938, t. 62, p. 21-32, 1940; t. 64, p. 35-37; [3] Дуб Дж., Вероятностные процессы, пер. с англ., М., 1956; [4] ФеллерВ., Введение в теорию вероятностей и ее приложения, пер. с англ., т. 1 -2, М., 1984; [5] Кар л и н С, Основы теории случайных процессов, пер. с англ., М., 1971; [6] Дынкин Е. Б., Основания теории марковских процессов, М., 1959; [7] Добру шин Р. Л., «Матем. сб.», 1953, т. 33, с. 567-96; [8] его же, там же, 1954, т. 34, с. 541-56. А. А. Юшкевич. МАРКОВСКИЙ ПРОЦЕСС; система Леви (Markov process; Levy system) - см. Леви система марковского процесса. МАРКОВСКИЙ ПРОЦЕСС с качкообразный (Markov jump process) - см. Скачкообразный марковский процесс. МАРКОВСКИЙ ПРОЦЕСС; случайная замена времени (Markov process; random time change) - монотонное преобразование времени на каждой отдельно взятой траектории марковского процесса, при к-ром сохраняется марковское свойство. Пусть, напр., Х= (Xt, £, ^t , Рх), t^O, - обрывающийся правый М. п. в фазовом пространстве (Е, Л), а At = At((o) - непрерывный аддитивный функционал от X, строго возрастающий при te[Q, £(со)). Пусть £ (со) =Л^-((о), тДсо) = inf{s:/ls(co) > t) при 0 ^ t < £ (со) и Jt - совокупность всех событий A<^{xt<Q, для к-рых {A, T^t<Qe.-/t. Тогда (см. [1], [2]) семейство Х=(ХТ, £, ,/t, Рд), t^O, является непрерывным справа строго М. п. в фазовом пространстве (£, 5?*), где Л* - пересечение пополнений a-алгебры Л по всем конечным мерам, заданным на Л (достаточно ч.кгто оказывается возможным Л* заменить на Л). Принято говорить, что процесс X получен из исходного в результате случайной замены времени.
Теорема Блюменталя- Гетура- М аккина (1962) показывает, что при широких условиях два М. п. с общим фазовым пространством и одинаковыми распределениями в моменты первого достижения любых компактов получаются друг из друга с помощью случайной замены времени указанного вида (см. [2]). Рассматриваются и несколько иные случайные замены времени (см. [5]). Впервые случайная замена времени была рассмотрена в [4]. Лит.: [1] ДынкинЕ.Б., Марковские процессы, М., 1963; [2] Bl u men thai R. M., Getoo r R. К., Markov processes and potential theory, N. Y. - L., 1968; [3] И то К., Маккин Г., Диффузионные процессы и их траектории, пер. с англ., М., 1968; [4] Волконский В. А., «Теория вероятн. и ее примен.», 1958, т. 3, с. 332-50; 15) Glover J., «Ann. Probab.», 1981, v. 9, № 6, p. 1019-29. M. Г. Шур. МАРКОВСКИЙ ПРОЦЕСС со счетным множеством состоя ний( Markov process with a countable/denumer- able state space) - необрывающийся марковский процесс X с непрерывным временем, принимающий значения в счетном множестве (фазовом пространстве) Е. Впервые понятие введено в 1931 А. Н. Колмогоровым (см. [1]) как естественное обобщение М. п. с конечным Е. М. п. со счетным множеством состояний находит широкое применение в теории массового обслуживания, исследовании операций, физике, биологии, описании технологич. процессов. К ним относятся, в частности, пуассоновский процесс, рождения и гибели процесс. Начальные понятия теории М. и. со счетным множеством состояний отличаются от марковских процессов с конечным множеством состояний лишь тем, что индексы г, /,... пробегают не конечное, а счетное число значений. Сказанное относится к переходным вероятностям р~ (s, t) [или р^ (О в однородном случае], переходной матрице P(s, t) [или Pit)], марковскому свойству, уравнению Колмогорова - Чепмена, построению мер Ps x (или Рх) по теореме Колмогорова, формуле для абсолютного распределения в момент t, смыслу плотностей вероятностей выхода qi и перехода q^, записи прямых и обратных дифференциальных уравнений Колмогорова. Специфика счетного случая проявляется в нарушении соотношений для инфинитезимальных характеристик, всегда верных в конечном случае, в неединственности решения систем дифференциальных уравнений Колмогорова или несправедливости их для переходных вероятностей, необычном поведении траекторий. Изучение примеров, воспринимавшихся поначалу как «патологические», стимулировало развитие теории М. п. со счетным множеством состояний и составило заметную долю ее содержания. В счетном неоднородном случае для выполнения обратной системы дифференциальных уравнений Колмогорова достаточно, чтобы: 1) плотности вероятностей выхода fh(t) = .-llnU)=Um,-pi'(tJt+h\ ieE, (l) НО " были непрерывными и сходимость в (1) была равномерной по t при каждом t; 2) плотности вероятностей перехода p:At,t+h) q (t) = \\m^— , i*jeE, (2) 1 U0 h были непрерывны и сходимость в (2) была равномерной по t при любых i, /; 3) выполнялось условие X;*,-^; = <fc<ee' ieE (3) Для прямой системы приходится дополнительно предполагать равномерность по i при каждом j стремления к пределу в (2) (см. [1], [14]). Наиболее развита теория однородных М.п. со счетным множеством состояний, основы к-рой заложены в [2] - [5]. В случае счетного числа состояний решение уравнения Колмогорова - Чепмена р^8 + 0 = %кеЕр^5)рк;(», s>0, t>0, iJeE, (4) удовлетворяющее начальным условиям Рц(0) = % (5) и дополнительным требованиям М'»0, 5^(0-1, (6) не обязательно измеримо. Измеримость по Лебегу всех функций Pij(t) эквивалентна равномерной непрерывности их на любом интервале (s, °°), s>0, а также эквивалентна существованию пределов /?;.(+0), быть может, отличных от (5). Допущение об измеримости переходных вероятностей приводит к альтернативе: при любых г, / Pij(t)=0t t>0, или^(О>0, t>0. (7) Вся дальнейшая теория строится в предположении Pij( + 0) = bijt i,jeE, (8) усиливающем как (5), так и требование измеримости; переходные матрицы Р(0=\\ру(0\\, удовлетворяющие (8), называются стандартными. Существуют конечные пределы lim = а и ^ 0, i*jeE, tW t J и конечные или равные +°° пределы Нш X-Pa{t) = -q =q.^0, ie E, (9) tio t причем I,-. ,•*«,•<*• (10) Примеры показывают, что обращение q{ в бесконечность и нарушение равенства в (10) действительно возможны. Пример 1. Е = {1, 2,...}, 9!=°°, qXj=\(j>2), ^ = ^>0 (г'^2), причем 1Г=2^,<0°' (И) остальные q{: равны 0. Наглядно, за сколь угодно малое время из состояния 1 происходит бесконечно много скачков в другие состояния и обратно (число скачков в каждое фиксированное состояние j^2 конечно). Условие (11) позволяет построить соответствующие функции Pyit). Пример 2. Е = {0, 1, 2,...}, ^. = ^м>0 при i>2, ^=0, qQ = 1, остальные q^ = 0 и выполнено (11). Здесь <7о>б7о1 + <7о2 + ••• =0. Благодаря условию (11) система за конечное время успевает последовательно пройти бесконечную цепочку состояний..., i, ..., 2, 1. В состоянии 1 происходит поглощение, а из состояния 0 с интенсивностью 1 совершается скачок в бесконечно удаленное начало этой цепочки. Пример 3. Здесь для простоты не требуется равенство в (6) (разрешается обрыв процесса). Е совпадает с множеством всех рациональных чисел г{, г ^ 1, система пробегает их в порядке возрастания от -°° до +<*>. Такой процесс возможен при том же условии (11). Здесь все ^. = 0 при i*j, все <7г>0 и конечны. Состояния х с qi<°° называются устойчивыми, с qr- = oo - мгновенными. Инфинитезимальные матрицы МАРКОВСКИЙ 317
Q = ||qi}||, удовлетворяющие (З), называются консервативными. Для процесса, у к-рого есть мгновенные состояния, системы дифференциальных уравнений Колмогорова теряют смысл. Для справедливости обратной системы Pv(0 = X*s£ ЧаР^), *>0, 1,/еЕ, (12) необходимо и достаточно, чтобы матрица Q была консервативной. Даже в случае консервативной матрицы Q прямая система л><*>-£».£л*<'><ау. <>0- ''>g£' (13) может не иметь места и вероятности Py-(t) могут не определяться однозначно матрицей Q = P'(0), однако формулы (12) и (13) всегда верны при замене в них знака = на ^. При ограниченных плотностях q± описанные «патологии» исключены, наблюдается полная аналогия со случаем конечного числа состояний. Доказывается, что требование ограниченности производных p'ii(Qi) = -qi эквивалентно любому из условий: \)рц№-*\ при tiO равномерно по г, 2) стремление к пределу в (9) равномерно по г. Переходные функции рЛЬ) при t>0 дифференцируемы (см. [61 - [9]). Производные Pij(t) непрерывны всюду, за исключением, быть может, р\{ в точке £ = 0 при qi = °° (см. [10]). Вторая производная p(j(t) может обращаться в <*> при г>0 (см. [8]), абсолютные вероятности |ij(0 = PpQ = г} могут быть не дифференцируемы при t>0 (см. [11]). Была высказана гипотеза, что все состояния процесса не могут быть мгновенными (см. [5]). Опровергающие примеры были построены независимо в [12] и [13]. Имеются детальные конструкции примеров с мгновенными состояниями (см. [17]); полное описание всех возможных матриц Q с qi = °° (см. [22], [23]). Получена характеризация функций f(t), t^O, к-рые могут быть переходными вероятностями ри(0 или Pij(t) (см. [21]). Пусть X - сепарабельный процесс, a Si((o) = {t:t'^0, X(t,(u) = i) - множества пребывания в состояниях i e Е. Для устойчивого состояния i почти наверное множество S- состоит из не имеющих общих граничных точек промежутков S{, S{,...; их левые концы т,- <тг < ... называются моментами первого, второго и г. д. попадания в I. Длины всех S/" не зависят друг от друга и от остального течения процесса, они имеют распределения Р{|5™| >£} = ехр(-<7гО. Для каждого устойчивого i число таких промежутков на любом конечном отрезке времени почти наверное конечно. В случае мгновенного состояния i почти наверное множество S{ нигде не плотно; однако для любого t > 0 при условии Xt = i почти наверное lim QerWsfS.na-e, t + e)} = \ [при t = 0 нужно заменить (~е, е) на (0, 2е)]. Для мгновенного состояния i определен лишь момент первого в него попадания T = inf{£:£eS;}; моменты второго и т.д. попадания в i смысла не имеют. Для получения сепарабельной версии процесса, вообще говоря, приходится использовать фиктивные состояния. Так, в примере 3 у почти каждой реализации существует несчетное множество значений t, при к-рых процесс не находится ни в одном из состояний гг\ наглядно - это множество моментов перескока Xt через иррациональные точки; оно подобно канторову совершенному множеству, если считать множества S{ открытыми. Самый простой способ (применяемый ниже, где не оговорено противное) - ограничиться 318 МАРКОВСКИЙ единственным фиктивным состоянием °°, полагая его пределом любой последовательности состояний {ik} с возрастающими номерами. Множество пребывания 5^ почти наверное имеет лебегову меру 0. Можно положить pioo (О =0 при г >0, вероятности же p^tt), вообще говоря, смысла не имеют [в примере 3 разумно определять pai (О для фиктивных состояний а, отвечающих всем иррациональным числам, а не для единственного а = ©о]. В любой точке t^0 разрыва траектории при sit (а также при stt, если t>0) почти наверное имеет место одна из альтернатив: 1) Xs = i, i - устойчивое состояние; 2) Xs—>°° (принимая, быгь может, фиктивное значение <»); 3) Xs имеет ровно две предельные точки i и <*>, где i - мгновенное состояние. Строго марковское свойство для М. п. со счетным множеством состояний справедливо не полностью; оно заведомо верно для моментов остановки т лишь с Хт*«>, а также для времен pi(co) = inf{^:i^O, Xt*i) - моментов первого выхода из устойчивого состояния г (см. [8], [15]). Возможна такая компактификация фазового пространства Е, при к-рой на расширенном пространстве Е строится непрерывный справа строго М. п., след к-рого на Е дает исходный процесс X, но при этом вводится существенно больше фиктиьных состояний, чем предсказывает интуиция (см. И8|). При ограниченных плотностях qt для получения непрерывной справа строго марковской версии процесса фиктивные состояния не нужны. В терминах разрывов траекторий даются необходимые и достаточные условия справедливости обратных или прямых дифференциальных уравнений Колмогорова (см. [15]). Уравнения (12) для данного i и всех / верны тогда и только тогда, когда состояние i устойчиво и почти наверное первый раирыв траектории, начинающийся из /, является скачком р нек-рое состояние k (это значит, что при f|p: либо Xt±k, где к- устойчивое состояние, либо X, имеет две продельные точки к и «о, где к - мгновенное состояние). Уравнения (13) длч данного j и всех i верны тогда и только тогда, когда / устойчиво, и при каждом t>0 при условии Xt-j с услогной вероятностью 1 последний перед t разрыв траектории не является скачком из *> в у (то есть является скачком из устойчивою состояния к в j, так как вероятность скачка из мгновенного состояния k равна 0) Как следствие получается, что обе гистемп (12) и (13^ справедливы при всех i и / тогда и только тогда, когда все состояния устойчивы, и при любом начальном состоянии почти наверное траектории обладают следующим свойств»»!: ее ш Я,->«> при tis, то Xt-+<*> при t^s, и наоборот. Пусть X - процес/ ^ /"(0) = Q, i до (J - данная матрица с 0 ^ q-ц < оо, i*-j\. . qv ^ - <jii - Я% ^ °°- Если все q{ конечны, то существует минимальная полустохастич. полугруппа матриц Р(0- \\Pij(t)\\ с Р(0) = /, P'(0) = Q. Числа ptJ(t) имеют смысл вероятностей перехода из i в j за время t посредством конечного числа скачков [для любого процесса X с Р'(0) = О]. Функции рг!(0 удовлетворяют обеим системам (12) и (!3). Если £.pv<t) = l.*>0, ieE, то P(t) - единственная стохастическая (а также единствен чая полустохастическая) полугруппа с P(0) = I, P'(0) = Q, а функции рЛО образуют единственное решение систем (12) и (13) при начальных условиях (5); матрица Q в этом случае обязательно консервативна. С другой стороны, если матрица Q консервативна, а минимальное решение PijU) не является стохастическим, то существует бесконечно много различных стохастич. полугрупп P(t) с P'(t) - Q. Все они удовлетворяют
обратной и не удовлетворяют прямой системе дифференциальных уравнений Колмогорова. Описание всех этих процессов требует предварительного построения границы-выхода (наглядно - существенно различных способов накопления скачков минимального процесса или способов ухода его траектории в бесконечность), а также границы-входа, если такая имеется (в примере 2 граница-вход состоит из одной точки <*>). Затем выходы «склеиваются» с состояниями из Е или со входами с помощью граничных условий (см. Марковский процесс, граничное условие). Сколько-нибудь обозримая конструкция получается лить когда граница-выход конечна (см. [19], [20]). Классификацию состояний М. п. со счетным множеством состояний X можно провести, либо переходя к дискретному во времени приближению УЬг) = X(nh), h>0, n = 0, 1, 2,..., процесса X, либо непосредственно в непрерывном времени. Классификация состояний цепи Маркова У (см. Маркова цепь', классификация состояний) не зависит от Л, и при первом подходе, по определению, переносится на процесс X. Ввиду альтернативы (7) существенные классы состояний не распадаются на циклич. подклассы. При втором подходе вводят моменты Ту = inf{t:t>pif Xt=j или £ = <*>} первого попадания из i в У (xti называется моментом первого возвращения в i после выхода из О, их распределения и средние значения FlJ(t) = Pi{Tij<t}, iTtdEXtX если Fr(+oo) = l, т.. =Ех • =\*о J J +°o, если /^(+°°)<1. Состояние у достижимо из г, если Fy(O>0 при нек-ром t>0 (или, что эквивалентно, при всех £>0). Отправляясь от этого понятия, как при дискретном времени, получают разбиение множества Е на класс R несущественных состояний и классы Са сообщающихся друг с другом существенных состояний. Существенное состояние i называется возвратным, если i устойчивое и /*'„( + °°) - 1 либо если i мгновенное и Fi/(+oo) = Fl/(+ee)f;j(+ee) для любого У*/ [при мгновенном г F{i{t) = \, t>0]. Возвратное состояние i называется положительным, если i устойчивое и п1ц<°о либо i мгновенное и т^ + ?п^<оо для любого у с ЕАО>0 (при мгновенном i mit = 0). Неположительное возвратное состояние называется нулевым. Свойство состояний быть возвратными, невозвратными, положительными, нулевыми является свойством класса. Состояние i возвратно тогда и только тогда, когда Г Pli(t)dt=r. оо, и положительно в том и только в том случае, когда iim pu(t)>0. Для устойчивого состояния i Г Pli (t)dt = --—J-—-, lim Pli (0 = Jo '" ?* [!-/•« (+~)J ,_,„/" 4imii Стационарные распределения М. п. со счетным множеством состояний и любого его приближения в дискретном времени одинаковы и описываются в терминах классов состояний, как при дискретном времени. При нек-рых условиях регулярности (напр., если плотности qi ограничены) стационарное распределение (X удовлетворяет уравнению |iQ = 0, всегда верному в случае конечного Е. Лит.: [1] Ко л моторов А. Н., Теория вероятностей и математическая статистика, М., 1986, с. 60-105; [2] DoobJ.L., «Trans. Aner. Math. Soc», 1942, v. 52, p. 37-64; [3] его же, там же, 1945, v. 58, p. 455-73; [4] Кол моторов А. Н., Теория вероятностей и математическая статистика, М., 1986, с. 363-70; [5] Levy P., «Ann. sci. Ecole norm, super», 1951, t. 68, p. 327-81; [6] Austin D.G., «Proc. Amer. Math. Soc», 1956, v. 7, p. 751-61; [7] его же, «Duke Math. J.», 1958, v. 25, p. 625-29; [8] Юшкевич А. А., «Уч. зап. МГУ», 1959, в. 186, с. 141-59; [9] Ornstein D., «Bull. Amer. Math. Soc», 1960, v. 66, p. 36-39; [101 Smith G., «Trans. Amer. Math. Soc», 1964, v. 110, p. 185-95; [11] Orey S., «Quart. J. Math.», 1962, v. 13, p. 252-54; [12] Добру шин Р. Л., «Теория вероятн. и ее примен.», 1956, т. 1, в. 4, с. 481-85; [13] Fe I ler W., McKeanH.P., «Proc. Nat. Acad. Sci. USA», 1956, v. 42, p. 351-54; [14] Феллер В., Введение в теорию вероятностей и ее приложения, пер. с англ., т. 1, М., 1984; [15] Чжун Кай-лай, Однородные цепи Маркова, пер. с англ., М., 1964; [16] Freed- raan D., Markov chains, San Francisco, 1971; [17] его же, Approximating countable Markov chains, N. Y., 1983; [18] DoobJ.L., «Z. Wahr. und verw. Geb.», 1968, Bd 10, S. 236-51; [19] Williams D., там же, 1964, Bd 3, S. 227-46; [20] Дынкин Е. Б., «Теория вероятн. и ее примен.», 1967, т. 12, в. 2, с. 222-57; [21] Kingman J. F. С, «Z. Wahr. und verw. Geb.», 1967, Bd 7, S. 248-70; Bd 9, S. 1-9; [22] Williams D., «Lect. Notes in Math.», 1976, v. 511, p. 216-34, 505-20; [23] его же, там же, 1978, v. 649, p. 310-31; [24] ГихманИ.И., Скороход А. В., Теория случайных процессов, т. 2, М., 1973. А. А. Юшкевич. МАРКОВСКИЙ ПРОЦЕСС стандартный (standard Markov process) - см. Стандартный марковский процесс. МАРКОВСКИЙ ПРОЦЕСС; статистические задачи (Markov process; statistical problems) - см. Статистические задачи теории случайных процессов. МАРКОВСКИЙ ПРОЦЕСС стационарный (stationary Markov process) - см. Стационарный марковский процесс. МАРКОВСКИЙ ПРОЦЕСС топологически воз вратный (topologically recurrent Markov process) - см. Возвратный марковский процесс. МАРКОВСКИЙ ПРОЦЕСС управляемый (controlled Markov process) - см. Управляемый марковский процесс. МАРКОВСКИЙ ПРОЦЕСС условный (conditional Markov process) - см. Условный марковский процесс. МАРКОВСКИЙ ПРОЦЕСС; устойчивость (Markov process; stability) - см. Устойчивость марковских процессов. МАРКОВСКИЙ ПРОЦЕСС; фазовое пространство (Markov process; state space of) - см. Фазовое пространство цепи Маркова или марковского процесса. МАРКОВСКИЙ ПРОЦЕСС; форма Дирихле(Markov process; Dirichlet form) - симметричная билинейная замкнутая марковская форма #= # [и, v], определенная для элементов и, v плотного линейного многообразия D = D(%) вещественного пространства L =L (Е, т) и такая, что % [и, и]^0 для ugD [говорят также, что пара (D, #) образует пространство Дирихле]. Здесь Е - локально компактное сепарабельное хаусдорфово пространство с борелевской а-ал- геброй &, а т - мера Радона в Е с носителем Е. Условие замкнутости # предполагает полноту D(#) как метрич. пространства с метрикой, порожденной нормой || • || j = [8[•,] + (•,)] , где (•,•) - скалярное произведение в L . Марковость же £ заключается в том, что v = m'm(u , l)eD и &[v, v]^%[u, и] для и gD, где и =max(w, 0). Со всяким однородным, вообще говоря, обрывающимся марковским процессом X = (Xt, £, ^/t, Px), t^0, заданным в (£, ^?), имеющим непрерывные справа траектории и w-сим- метричным (то есть дуальным самому себе относительно т), канонич. образом связывают нек-рую форму Дирихле (см. [2]). Именно, переходная функция X естественным образом порождает сильно непрерывную полугруппу линейных операторов в L , и, приняв за D область определения МАРКОВСКИЙ 319
порождающего оператора А этой полугруппы, полагают #(и, v) = (V -Ли, V -Av) для и, veD. Впервые, но в несколько иной форме, пространства Дирихле были введены в 1958-59 А. Бейрлингом и Ж. Дени [1] с целью обобщения классич. интеграла Дирихле. Используемая здесь терминология принадлежит М. Фукусиме [2], вскрывшему связи между обсуждаемыми понятиями и теорией М. п. Теория форм Дирихле дает новый способ построения широкого класса М. п. (см. [2], [5]). Пусть # регулярна, то есть C0C\D плотно в D относительно | • || t и в С0 относительно равномерной нормы, где С0 - совокупность непрерывных в Е функций с компактными носителями. Тогда в фазовом пространстве (Е, 33) существует Ханта процесс, с к-рым # связана вышеописанным образом. Пример. Пусть Е - область в II?", т - лебегова мера в Е. Для функций и и v класса С°°, заданных в Е и имеющих компактные в Е носители, вводится форма %o[u,v] = Y. . f аЛх)и'хц'х(1х, ^^i,] JE J * j где х = (х\, ..., xn), a a(x) = a{Ax) - локально интегрируемые в Е функции, 1 ^ i, j^ п. Если ^.^te/^Xj? при нек-ром 8>0 и всех (yv ..., yn) ell?", то форма #0 может быть доопределена до регулярной формы Дирихле, к-рой отвечает непрерывный w-симметричный М. п. в Е. Создана теория несимметричных форм Дирихле (см. [3], [6]). Лит.: [1] BeurlingA., Deny J., «Proc. Nat. Acad. Sci. USA», 1959, v. 45, p. 208-15; [2] Fukushima M., Dirichlet forms and Markov processes, Amst. - N. Y. - Oxf., 1980; [3] Carrillo-Me- nendez S., «Z. Wahr. und verw. Get», 1975, Bd 33, № 2, S. 139-54; [4] Le Jan Y., там же, 1977, Bd 37, № 4, S. 297-319; [5] Fukushima M., OshimaY., Takeda M., Dirichlet forms and symmetric Markov processes, B.-N. Y., 1994; [6] MaZ.M., Rock- ner M., Introduction to the theory of (non-symmetric) Dirichlet forms, В., 1992. М.Г.Шур. МАРКОВСКИЙ ПРОЦЕСС; функционал (Markov process; functional of) - семейство случайных величин <р = {<р^}, s^ t, или 4* = {4*t}, в к-ром каждая величина <р* или 4?t определяется по течению марковского процесса до момента времени t, причем s и t пробегают множество значений временного параметра. Пусть, напр., в фазовом пространстве (Е, 33) задан однородный М. п. X = (Xt, dt, Рх), t^O, с пространством элементарных событий Ш, л). Семейство случайных величин Ф = {<р£}, 0 ^ s ^ t < оо (соответственно Ч* = {¥t), t^Q), со значениями из [-оо, оо] является функционалом от X, коль скоро при 0^s^ £ (при t^O) величина q>J(4^) измерима относительно а-алгебры GfW^ (а-алгебра G порождена величинами Xt, t^ 0, a G - пересечение всех пополнений G по всевозможным мерам Рх, хеЕ). Для обрывающегося процесса приведенное определение функционала модифицируется естественным образом. Особый интерес представляют аддитивные и мультипликативные функционалы. Рассматриваются также функционалы с векторными и иными значениями. См. также Марковский процесс; аддитивный функционал. М. Г. Шур. МАРКОВСКИЙ ПРОЦЕСС; центральная предельная теорема (Markov process; central limit theorem) - см. Центральная предельная теорема для марковских процессов. 320 МАРКОВСКИЙ МАРКОВСКИЙ ПРОЦЕСС; часть (Markov process; part of) - марковский процесс, получаемый в результате убивания заданного марковского процесса в момент его первого выхода из фиксированного множества состояний (см. Марковский процесс; преобразования, Первого достижения момент). Пусть, напр., X = (Xt, £, Mt, Р^.) - стандартный М. п. в фазовом пространстве (Е, 33), ах- момент его первого выхода из открытого множества Da Е. Тогда процессX = (Xt, т, ,*/f, Px), где х пробегает D, служит частью X на множестве D, если ХДсо) = ХДсо) при 0^£<т(со), а каждая а-алгебра J"V t^O, является следом dt на множестве {со:т>£} (предполагается также, что измеримая структура в множестве D задается набором всех его борелевских подмножеств). При этом X является стандартным процессом, а процесс X трактуется как его продолжение с множества D (см. Марковский процесс; продолжение). Лит.: [1] Дынкин Е. Б., Марковские процессы, М., 1963. М. Г. Шур. МАРКОВСКИЙ ПРОЦЕСС; экскурсия (Markov process; excursion of) - см. Экскурсия марковского процесса. МАРКОВСКИЙ ПРОЦЕСС; энергия (Markov process; energy of) - теоретико-вероятностный аналог понятия энергии, используемого в теории потенциала (см. 11]). Вероятностная трактовка энергии в рамках теории М. п. предложена П. А. Мейером [3]; им же введено соответствующее понятие в теорию мартингалов (см. [2]). Пусть в локально компактном сепарабельном хаусдорфовом пространстве Е задан необрыва- ющийся процесс Ханта Х=(Х^, «4» ^о)- Для натурального аддитивного функционала A~AV t^Q, от этого процесса (см. Марковский процесс; аддитивный функционал) справедлива (см. [2]) формула энергии* Ех(л*) = 2Ея[Г; ЛлОГ,_)«ц] + Ед [X *At]\ (*) в к-рой хеЕ, Л00= lim At, RA(x) = ExA^ - потенциал функционала А. а суммирование ведется по тем моментам времени f >0, д т к-рых скачки А.4^ - Л,-.4,_0 отличны or 0. Если функционал А непрерывен, рторо*; слагаемое в правой части (*) можно опустить. Функция VA(x) = ЕД (AJ) называется э н е р г о т и ч е с к о и функцией функционала А или его потенциала. Если эксцессивная мера £; является потенциалом-мерой нек-рои борелевской в Е меры |Л (см. Потенциала теория для марковского процесса), то величина еЛА)- ] VAdn называется энергией функционала А относительно £. В ряде ситуаций, напр. в случае симметричных, то есть дуальных самим себе, процессов Ханта, используются иные определения энергии функционала (см. [4], [5]). Введенная выше терминология оправдывается тем, что классич. энергия меры V (см. [1]), где v пробегает широкий класс борелевских мер в IR", я^З, сколь угодно точно аппроксимируется энергией <?р (А), я^1, где меры <^п не зависят от выбора v, a A - непрерывный аддитивный функционал от пинеровского процесса, выбранный так, чтобы его мера Ревуза относительно лебеговой меры (см. Марковский процесс; аддитивный функционал) совпадала с v. Пусть найдется процесс Ханта, сильно дуальный исходному процессу X относительно нек-рой борелевской меры. Если для нек-рого натурального аддитивного функционала А от процесса X функция VA(x) конечна, то она совпадает с потенциалом RB(x) нек-рого функционала B-Bt, t^O, того же типа и полная масса меры Ревуза последнего называется энергией, или энергетической нормой, функции VA(x).
Для обрывающихся процессов вводятся аналогичные определения. В рамках теории М. и. энергетич. понятия используются в связи с рассмотрением аддитивных функционалов, равновесных распределений, сходимости, порожденной энергетич. нормой, и т.п. (см. [2]-[6]). Лит.: [1] Ландкоф Н.С., Основы современной теории потенциала, М,, 1966; [2] Dellacherie С, Meyer P.-A,, Probabilites et potentiel. Chap. 5-8. Theorie des martingales, P., 1980; [3] Meyer P.-A., in: Seminaire Brelot - Choquet - Deny, Inst. H. Po- incare. Theorie du potentiel (1962/1963, № 2), P., 1964; 14] Chung K. L., Rao M., «Probab. and Math. Statist.», 1980, v. 1, .V 2, p. 99-108; 15] Graversen S. E., Rao M., «Nagova Math. J>, 1M3, v. 100, p, 163-80; 16] Pop-St oj anovic Z. R., Rao M., «Z, Wahr. und verw. Geb», 1985, Bd 69, S. 593-608. M. Г. Шур. МАРКОВСКИЙ СКАЧКООБРАЗНЫЙ УПРАВЛЯЕМЫЙ ПРОЦЕСС (controlled Markov jump process) - см. Управляемый скачкообразный процесс. МАРКОВСКОГО ВОССТАНОВЛЕНИЯ ПРОЦЕСС (Маг kov renewal process) - см. Полу марковский процесс. МАРКОВСКОГО ВОССТАНОВЛЕНИЯ УРАВНЕНИЕ (Markov renewal equation) - см. Полу марковский процесс. МАРКОВСКОЕ ОТОБРАЖЕНИЕ; динамическое отображение (Markov, dynamical map) - отображение, описывающее конечное изменение наблюдаемых, или состояний системы в результате, вообще говоря, необратимой эволюции в алгебраической формулировке статистической механики, а также в некоммутативной теории вероятностей. Пусть % и S3 - нек-рые С*-алгебры с единицами (см. Алгебра наблюдаемых ). Переходным отображением называется с полые положительное отображение Ф из % в 83, переводящее единицу из алгебры % в единицу из алгебры ЯЗ. Если % = 83, то переходное отображение называется марковским отображением. Для всякого переходного отображения существует сопряженное Ф*, к-рое аффинно и слабо*-непрерывно отображает множество состояний @й в ®%. Если Ч и 83 являются U""-алгебрами, а отображение нормально в том смысле, что sup Ф (Ха) = 0(sup Ха) для любого ограниченного направленного множества самосопряженных элементов {Ха} <= Ч, то Ф* переводит нормальные состояния в нормальные же. Примеры. 1) Пусть $С = 83 - коммутативная алгебра ограниченных измеримых функций на измеримом пространстве £1 и Р{г/о)|а)'} - переходная вероятность в £1. Соотношение Ф(Х)(а/)= JnP{rfw|a/}X(co),Xe$C, определяет М. о. При этом Ф* порождает аффинное отображение в выпуклом множестве всех вероятностных мер на Q. 2) Пусть $С = 83 = ЯЗ(Ю - алгебра всех ограниченных операторов в гильбертовом пространстве Н. Всякое нормальное М. о. имеет вид где 1/,е9С(#), V V*V( = I - единичный оператор. В теории квантового измерения важную роль играет понятие операции (субмарковского отображения) - шюлне положительного отображения Ф в С*-алгебру $С тако- ю, что Ф(7) </. Лит.:[\] Kadison R., «Topology», 1965, v. 3, suppl. 2, p. 177-98; [2| Stermer E., «Lect. Notes in Phys.», 1974, v. 29, p. 85-106; [3] Морозова Е. А., Чепцов Н. Н., Матрицы вероятностей и стохастические суперматрицы, М., 1973 (ИПМ АН СССР, препринт № 84). Л. С. Холево. МАРКОВСКОЕ РАЗМЕЩЕНИЕ ЧАСТИЦ (Markov allocation of particles) - процесс последовательного размещения частиц по ячейкам, в к-ром номера ячеек, куда попадают 1-я, 2-я, ... частицы, образуют Маркова цепь. Изучаются распределения чисел состояний, появившихся в отрезке траектории цепи Маркова заданное количество раз. М. р. ч. обобщает полиномиальное размещение частиц. Лит.: 11] Зубков А. М., «Матем. сб.», 1979, т. 109, № 4, с. 491-532; 12] Иванов В. А., Ивченко Г. И., Медведев Ю. И,, Итоги науки и техники. Сер. Теория вероятностей. Математическая статистика, 1984, т. 22, с. 3-60. А. М. Зубков. МАРКОВСКОЕ СВОЙСТВО (Markov property) случайного процесса- свойство условной независимости эволюции случайного процесса после какого-либо момента времени t (будущего) и эволюции до этого момента (прошлого) при условии, что известно состояние процесса в сам момент t (настоящее). Впервые М. с. рассматривалось А. А. Марковым [1] для случайных последовательностей. Пусть (Q, .с/, Р) - вероятностное пространство и ХДсо), £еГс(-оо, оо), - случайный процесс со значениями в нек-ром измеримом пространстве (Е, 3i). Для каждого teT определяется а-алгебра прошлого Л] = o{Xs, s ^ t) и а-алгебра будущего Л* = о{Хи, u^t). Говорят, что случайный процесс Xt обладает марковским свойством, если для любого tеТ и любых событий А е,\], P{AB\Xt) = P{A\Xt}P{B\Xt) (Р-почти наверное). (1) Свойство (1) эквивалентно также соотношению P{Xt+h е Г|л;} = P{Xt+h е Г|Х,} (Р-почти наверное) (2) для любых h>0, TgjS. Случайные процессы, обладающие М. с, называются марковскими процессами. Пусть в пространстве Q задан поток а-алгебр & = {«4Ьег и процесс Xt согласован с /h (то есть Ль с ,,-/(; см. Согласованный случайный процесс). Обобщением свойства (2) является следующее условие, также называемое марковским свойством: для любых h>0, ГеЗЯ P{Xt+h е ГЦ} = P{Xt+h б T\Xt) (Р-почти наверное). (3) В отличие от (1), в свойстве (3) прошлое и будущее уже не являются равноправными. В ряде случаев М. с. допускает усиление, так наз. строго марковское свойство, состоящее в распространении формул (2) и (3) с детерминированных моментов t на остановки моменты т((о). Понятие М. с. можно распространить на случайные ноля. Говорят, что для случайного поля выполнено М. с, если для любой области из нек-рого класса (напр., для любой замкнутой области с компактной границей) значения поля на области и значения поля вне области условно независимы при заданных значениях поля на границе области (или в ее инфините- зимальной окрестности). Формализация этого определения может быть осуществлена различными способами, что приводит к существенно различным определениям; этот вопрос является предметом интенсивного изучения. Наиболее интересный класс полей возникает, если в значения поля на границе области включаются и значения в бесконечно малой окрестности границы, в том числе нормальные производные поля на границе. См. также Марковское случайное поле. Лит.: 11] Марков А. А., «Изв. физ.-матем. об-ва Казан, ун-та», 1906, т. 15, № 4, с. 135-57; 12] Дуб Дж. Л., Вероятностные процессы, пер. с англ., М., 1956; [3] ГихманИ.И., С короход А. В., Теория случайных процессов, т. 2, М., 1973; (4] Розанов Ю. А., Марковские случайные ноля, М., 1981. С. Е. Кузнецов. МАРКОВСКОЕ СЛУЧАЙНОЕ БЛУЖДАНИЕ (Markov random walk) - см. Многомерное случайное блуждание. МАРКОВСКОЕ СЛУЧАЙНОЕ ПОЛЕ (Markov random field) - случайная функция X(t), обладающая марковским МАРКОВСКОЕ 321
свойством по отношению к фиксированной системе упорядоченных троек (St, Г, S2) непересекающихся подмножеств своей области определения Т. Марковское свойство означает, что для произвольного измеримого подмножества В из области значений функции X(t) почти наверное выполнено равенство P{X(tQ)eB\X(t), teSiUr} = P{X(t0)eB\X(t), teT) при любом ^oG^2 (образно говоря, будущее 52 не зависит от прошлого Sj при фиксированном настоящем Г). Пример 1. Пусть Т = 11?", {Г} - семейство всех сфер в IR", Sj - внутренность Г, S2 - внешность Г. Однородное и изотропное гауссовское случайное поле X(t) обладает марковским свойством по отношению к {St, Г, 52} тогда и только тогда, когда X(t) =£, где £ - нек-рая случайная величина (см. [1]). Нетривиальные примеры однородных и изотропных М. с. п. появляются при переходе к обобщенным полям. Пример 2. В условиях предыдущего примера в классе обобщенных гауссовских однородных и изотропных случайных нолей М. с. п. является так наз. свободное поле (поле Нельсона) (см. [2]) со спектральной плотностью fa) = xn~i/al+x2). Пример 3. Пусть {S, dS, S) - семейство всевозможных троек, у к-рых S - область в IR", dS - ее граница, S - дополнение ее замыкания. Однородное обобщенное гауссовское случайное поле Х(<р), <р е C^°(IR"), со спектральной плотностью f(X) является марковским относительно {S, dS, S) тогда и только тогда, когда \/f(X) - полином (см. [3]). П р и м е р 4. Пусть в условиях предыдущего примера S или S - ограниченная область. Леей поле в В?" является М.с. п. тогда и только тогда, когда п - нечетное число. Помимо приведенного, известны также определения М. с. п. в терминах расщепляющих а-алгебр и L-марковского свойства (см. [3]). Класс М.с. п. полностью описан для однородных гауссовских полей на IP, многомерных однородных обобщенных гауссовских полей на пространстве C^°(IRW), а также для многомерных однородных и изотропных обобщенных гауссовских случайных полей. Понятие М. с. п. находит важные применения в статистич. физике и квантовой теории поля (см. [2]). См. также Гиббса случайное поле. Лит.: [1] ЯдренкоМ.И., Спектральная теория случайных полей, К., 1980; [2] Глимм Дж., Джаффе А., Математические методы квантовой физики, пер. с англ., М., 1984; [3] Розанов Ю. А., Марковские случайные поля, М., 1981; [4] его же, Случайные поля и стохастические уравнения с частными производными, М., 1995. А. А. Маляренко, М. И. Ядренко. L-MAPKOBCKOE СЛУЧАЙНОЕ ПОЛЕ (I-Markov ran dom field) - см. Случайное поле. МАРТИНА ГРАНИЦА марковского процесса (Martin boundary for a Markov process) - граница фазового пространства марковского процесса или его образа в нек-ром компакте, конструируемом по схеме, восходящей к Р. Мартину (см. [1], [9]). Среди центральных вопросов теории М. г. - описание финального поведения марковского процесса и структуры конуса эксцессивных функций (по поводу терминологии см. в ст. Потенциала теория для марковского процесса). Впервые вероятностная трактовка схемы Мартина была практически одновременно предложена Дж. Дубом [2] и Т. Ватанабэ [3]. Разработана теория М. г. для цепей Маркова (см. [8]). Пусть в измеримом пространстве (Е, 3d), где Е - сепара- бельное локально компактное пространство, а 33 - семейство 322 МАРКОВСКОЕ его борелевских множеств, задан однородный марковский процесс Х=(Х0^, .<4t, Рх), хеЕ, t^0,c переходной функцией pit, х; Г). Предполагается, что для него, отправляясь от нек-рой а-конечной меры т, заданной на 33, можно построить а-функции Грина ра(-,), а^О, и что потенциал ^(•) = J£ p0(*, -)y(dx) нек-рой а-конечной меры у, определенной на 3), конечен и положителен. При широких условиях (см. [6]) существуют компакт 8 (компакт Мартина), меры K^(dx), а^О, у е #, на & и отображение i: Е -> #, для к-рых: а) образ Е плотен в #, б) функции Ка'(у) = f f(x)K^(dx) разделяют точки и непрерывны в #, если f пробегает семейство всех непрерывных в Е функций с компактными носителями; в) K?(y)(dx)=ky(x)m(dx)AJViyeE, где/г"0г) = paCr, y)q~Uy). Дополнение множества i(E) в й'и называется границей Мартина (ее называют также границей-выходом, памятуя о наличии двойственного объекта - границы-входа) (см. [2], [7]). Свойства &' описываются в терминах А-процессов [под h подразумевается эксцессивная функция, а под А-процессом - марковский процесс в (Е , 33') с переходной функцией p\t, x; r) = h-\x)jrh(y)p(t, x; dy), где Eh={xeE:0<h(x)<oo}, a 33h = {A е зЗ:А с £*}]. Все А-нроцессы, включая и X, реализуются на общем для них пространстве элементарных событий, так что они различаются лишь семействами мер Рг В й имеется такой непрерывный слева процесс zt, 0 < t< С,, для к-рого Р^'-почти наверное zt = i(Xt) и существует предел Zr = zr-(t^0, heL (у)) В £ выделяется множество # («пространство выходов») со следующими свойствами: 1) Zre£ Р^-почти наверное, если А е L (у); 2) мера К^Ых) при у е й имеет плотность &" отио сительно меры т\ 3) любая функция А е L (у) допускает единственное разложение вида h(x)=j_k°y(x)iL(dy) (мера (х называется спектральной мерой функции А); 4) функция ky, ye£, эксцессивна и ее спектральная мера сосредоточена в точке у. См. также Марковский процесс; компактификация фазового пространства. Лит.: [1] Martin R.S., «Trans. Amer. Math. Soc», 1941, v. 49, p. 137-72; [2] DoobJ.L., «J. Math, and Mech.», 1959, v. 8, № 3, p. 433-58; [3] WatanabeT., «Mem. Coll. Sci. Univ. Kyoto. Ser. A», 1960, v. 33, № 1, p. 39-108; [4] Kunita H., Watanabe Т., «fll. J. Math.», 1965, v. 9, № 3, p. 485-526; [5] Шур М. Г., «Теория веро- ятн. и ее примен.», 1968, т. 13, в. 1, с. 170-75; [6] ДынкинЕ. Б., «Успехи матем. наук», 1969, т. 24, в. 4, с. 89-152; [7J его же, «J. Fac. Sci. Univ. Tokyo. Ser. 1A», 1970, v. 17, pt 1-2, p. 87-100; [8] Ре в юз Д., Цепи Маркова, пер. с англ., М., 1997; [9] DoobJ.L., Classical potential theory and its probabilistic counterpart, N. Y. - B. - Hdlbg, 1984. м. Г. ILLjp. МАРТИНА КОМПАКТ (Martin compactum/bundary) - см. Мартина граница. МАРТИНГАЛ (martingale) - случайный процесс с действительными значениями следующего типа. Пусть задано полное вероятностное пространство (Q, ..«/, Р) с неубывающим семейством а-алгебр fr = (^), teT, sttс:.с/, где Т = Ы = {0, 1, ...} или Г = 11?+ [параметр teT часто называется временем, семейство
/f - фильтрацией или потоком, a &=(Q, k = (^t)teT, P)- стохаслич. базисом]. Случайный процесс Х=(А',), t e Т, называется мартингалом (относительно потока fr и меры Р), если X fr согласован (то есть Xt ^-измеримы, teT), E\Xt\<oo, teT, E[Xj.c/J = Xs(P-no4TH наверное), s^£<oo. (1) Родственным понятием является понятие супермартингала (субмартингал а), определение к-рого отличается от определения М. лишь тем, что в (1) знак = заменяется на Если о процессе X = (Xt) говорится, что он М., и не указывается, относительно какого семейства а-алгебр, то подразуме- ьается, что семейство ^ = (^) является естественным, то есть ./t = o{(XseB),s^t, Be MS)}. Примеры, а) Пусть £0, ..., ^п, ... - последовательность г.езависимых случайных величин с Е£„ = 0, пеЫ. Тогда процесс Х„ = £0 + ... +£„ есть М. В случае непрерывного времени аналогом такого М. является процесс с независимыми прира- нениями X = (Xt) с ЕХ, = 0, t е Т. б) Пусть w = (wt), teT, - винеровский процесс, h - гармонии, функция на IP. Тогда h(w) является М. В теории М. важную роль играют предсказуемая (;/) и спциональная (^) а-алгебры на произведении пространств £2 х Т, где J>=o{Ax]s, t]:Ae^s, s<t, s, teT), ^ = а{(ш, t):S(w)^t<oo, Setf), S- множество всех моментов остановки (относительно А) со значениями в Т. Множества из &(€) называются предсказуемыми (опциональными). Процесс называется предсказуемым (опциональным), если он ./(^)-измеримый. В случае Т=Ы процесс X = (Х„) является предсказуемым (опциональным) тогда и только тогда, когда случайные величины Хп сс/гг_1-измеримы (Хп ./„-измеримы), пеЫ. В случае Т = №+ предсказуемым (опциональным) процессом является любой /^-согласованный непрерывный слева (непрерывный справа, имеющий пределы слева) процесс. Любой М. (супермартингал) имеет опциональную модификацию. Важным является свойство сохранения мартингальности при случайной замене времени (теорема о преобразовании свободного выбора): если опциональный супермартингал X = (Xt), teT, удовлетворяет условию замкнутости справа, то есть существует интегрируемая случайная величина £, такая, что Х^Е[£|^](Р-ночти наверное), teT, то для любых конечных моментов остановки (/, V е У величины Х^, Xv интегрируемые и Xt,^E[Xv|.c/c,](P-no4TH наверное) для U^V, (2) где и vrc/r - наименьшая а-алгебра, порожденная ,«/t, teT. В случае М. условие замкнутости справа выполнено, если семейство (X,), teT, равномерно интегрируемое. Из (2) вытекает, что если Х = (Х^), teT, - опциональный М., Sc:f, то процесс X = (XSAt), teT, где Sa£ = min(S, t), является М. (относительно ^, Р). Процесс X называется остановленным мартингалом. Из (2) следует тождество В а льда: если £q, £t, ... - последовательность интегрируемых независимых одинаково распределенных случайных величин, то Е[£0 +...+У = ESE£0, где S- конечный интегрируемый момент остановки относительно семейства Выполняются фундаментальные неравенства: 1) если Х = (Х^), teT,- замкнутый справа опциональный супермартингал, то ХР{ sup |X^| ^AJ^3 sup E|Xj, где X - положительная постоянная, г^оо; 2) если Х=(Х^), teT,- неотрицательный опциональный субмартингал, то (ElsupXJO1^^- sup(EX^)1^, p>\. teT P-I teT l Многочисленные применения имеет теорема о сходимости: если Х=(Х^), teT, - опциональный супермартингал, ограниченный в L , то есть sup E|X,| <°°, teT то существует интегрируемая случайная величина £ такая, что £ = lim Xt (Р-почти наверное); если Х = (Х,), teT, - равномерно интегрируемый М., то сходимость имеет место в L и Р-почти наверное, и Х^ = Е[^|.^] (Р-почти наверное), teT. В случае Т = IR+ почти все траектории опционального супермартингала имеют в каждой точке хеТ пределы слева при t>О и справа при t^O. Свойства мартингалов с непрерывным временем. Пусть семейство а-алгебр /k = (.«4), t e IR+, удовлетворяет так наз. обычным условиям пополненности и непрерывности справа: ,</0 содержит все Р-нулевые множества, ,г^ = .</5+, s e IR+, где ^s+ = C\t>s dt. Если для супермартингала X=(Xt), t еИ?+, функция t -> ЕХ^ непрерывна справа, то X имеет модификацию, у к-рой все траектории непрерывны справа при ^Ои имеют пределы слева при t>0. В частности, при выполнении обычных условий любой М. имеет такую модификацию. Пусть траектории рассматриваемых процессов непрерывны справа при ^Ои имеют пределы слева при t > 0. Пусть М - пространство равномерно интегрируемых М. Х=(Х,), £elR+, Х0 = 0; М2 - пространство М. Х = (Х,), te№+, X0 = 0, с Е sup |X^| <о° (пространство равномерно квадратично интегрируемых М.); V+ - пространство возрастающих /^-согласованных процессов A = (At), te№+, A0 = 0, V=V+-V+, А+= (А = (At) e V+:EA00<°°}, A=A*-A+. Если С- нек-рое пространство случайных процессов, то запись X е С\ос означает, что существует такая последовательность (Тп)пeW e&, что Тпt°o (Р-почти наверное) и остановленный процесс X п= \ХТ )te |р еС, пеЫ. Элементы пространства Д/1оо называются локальными мартингалами. Подпространство N с Д/1ос называется устойчивым, если X е N влечет X € N и 1ВХ е N для любых Т е .Уи В е ,с/0, где 1В - индикатор множества В. Пространство М1ос разлагается в прямую сумму устойчивых подпространств М{ос и М^, где М{ос - подпространство непрерывных локальных М., М1ос состоит из локальных М., называемых чисто разрывными. Любые М. X € М{ос и У € М1ос ортогональны в том смысле, что произведение XY е М1ос. Каждый локальный М. X допускает ряд разложений: X = M + N,MeMl2oc,Ne Л|осЛМ|ос; X = Xе + Xd, Xе е М,ск, Xd б М?ж; МАРТИНГАЛ 323
Xе называется непрерывной мартингальной составляющей М. X, X - чисто разрывной составляющей X; X = M + N} ЛГеЛ1осПМ1ос, Ме М1ос> |дм| ^К, где ДМ = (AMt)te |p , ДМ, = Mt-Mt_ при £>О, АМ0 = М0, К - предсказуемый возрастающий процесс. В различных приложениях теории М. важную роль играют стохастич. интегралы jfdX no M. ХеМ1ос, или XeMjoc. Определение этих интегралов опирается на вводимые ниже процессы [X, X], <Х, Х>. Каждому X е М|О0 соответствует единственный предсказуемый процесс (X, Х)еЛ^ос такой, что разность X -(X, Х)еМ1ос. Процесс (X, X) (обозначаемый также (Х>) называется предсказуемой характеристикой М. X. Если X, У € М|ос, то им соответствует единственный предсказуемый процесс (X, У)еЛ1ос (ХУ-(Х, У)еМ1ос), определяемый равенством <Х, Y) = ({X+Y, X+Y)-{X-Y, Х-У»/4 и называемый взаимной предсказуемой характеристикой процессов X и У. Каждому X € М1ос соответствует процесс [X, X] € V , определяемый формулой [X, x]t = (xc, xVI0<1<t (ДХ5>2. дх5 = х5-х,_, где Xе - непрерывная составляющая М. X, ряд справа сходится Р-почти наверное при любом £elR+. Процесс [X, X] называется квадратической вариацией мартингала X. Каждой паре X, У € М1ос ставится в соответствие процесс [X, У] е V, называемый квадратической ковариа- ц и е й процессов X и У, по формуле IX, Y]t = (Xc, П + 10<5<( (AXS)(AYS), где ряд справа сходится Р-почти наверное. В теории стохастич. интегралов по М. важную роль играют неравенства Кунта- Ватанабэ: 110ЧМ<Х, Y)s | «[Г"*^*'X>s] [Jo°X2^. Y>s] . \^HsKsdlX,Y]s\^H2sdlX,X]sJ2[^K2sd[Y,Y]sY. где Я, К - Лх .99(11?+)-измеримые функции. Пусть Xе М|ос, Яе^и процесс Гн^(Х,Х)еА{ж Тогда существует единственный процесс УеМ|ос, обладающий свойствами {Y,Z)t= Цн^{Х, Z)s,te®+, для любого Z € М,„с, AYt = HtAXf, t е IR+. Процесс У называется стохастическим интегралом от функции Я по X € М1ос и обозначается Yt= Ц HsdXs,te®+. Если Яб^и EJ~H2d(X, X)s <°°, то Y = j HdXeM2. Конструкция этого интеграла по существу совпадает с конструкцией стохастич. интеграла по винеровскому процессу. 324 МАРТИНГАЛ Пусть X € М1ос, функция Я € &>и такая, что Тогда существует единственный процесс YeMioc, обладающий свойствами [У,2], = £я^[Х,2],, *el?+, для любого Z € М,ос, AYt = HtAXt, te№+. Процесс У называется стохастическим интегралом от функции Я по локальному М. X и обозначается Yt = f0HsdXs,te«+. Важную роль играют неравенства Буркхольдера- Ганди- Дэ виса: если ХбМ|ос, то сЕ[Х,Х]р/Ые{х*т)Р ^СЕ[Х,Х]?/2, р>\, где X* = sup |XJ, Те J, с, С - универсальные постоянные Для установления связи теории М. с функциональными пространствами существенными оказались пространства Нр, р^\, и ВМО (bounded mean oscillation). Через Нр, р^\, обозначается пространство локальных М. X таких, что Е[Х, Х]£; <<*>. Это полное нормированное пространство с нормой |Х| ,,= Е[Х, X\PJ2. Эта норма эквивалентна норче, определяемой величиной Efxjj . Пространство М1ос совпадает с Я,^с. Пусть X - равномерно интегрируемый М. Говорят, чте X принадлежит пространству ВМО, если EllX^-XH |.«^]^с (Р-почти наверное) для любого Те./. Наименьшая постоянная с, удовлетворяющая для всех Т eJэтому неравенству, обозначается |Х|вмо. Пространство ВМО является двойственным к пространству Я . А именно, если /(X) - линейный непрерывный функционал на Я1, то существует Ye ВМО, || У||вмо^ ^||/1|, такой, что /(X) = ЕХ^У^. Более того, \KX)\^c\\X\\Hi\\Y\\BMO, где с - постоянная (неравенство Феффермана). Использование возрастающих процессов, связанных с М., позволило уточнить сформулированные выше результаты о сходимости. Пусть {Х->} = {со:ХДсо) -►Х^Дсо)} при t-+°°, Хм (со) - конечная случайная величина и X € М2ос. Тогда 1) «X, Х)00<оо}с{Х->} (Р-почти наверное), 2) если для любого SeJ E|aXs| /{s<00}<0°, to {(X, Х)00<оо) = {{Х, XL <oo} = {X->> (Р-почти наверное). В случае X € М1ос справедливы утверждения: О Иоо <00>^{Х->} Р-почти наверное, 2) если для любого Setf E\AXs\I^s<00^<oof To {Л ^ <<*>} = = {[Х, XL<oo} = {X->} (Р-почти наверное), где Л = {Xе, Xе) + + В, В e&OV , и такой, что разность у (АХ,)2 Ё A)<s^ \+\AXs\ ' является локальным М. Имеется ряд направлений, обобщений теории М.: теория векторнозначных М. (напр., теория банаховозначных М.) и операторнозначных М.; теория М. с Г-частично упорядочен-
ным множеством (напр., Г = 11^, Т=Ы2; случай Т = И?+ наиболее разработан, см. [11]) и др. Лит.: [1] Дуб Дж., Вероятностные процессы, пер. с англ., М., 1956; [2] Мей ер П.-А., Вероятность и потенциалы, пер. с англ., М., 1973; [3] DellacherieC, Meyer P.-A., Probabilites et potentiel. Theoriedes martingales, t. 1-2, P., 1975-80; [4] Jacod J., «Lect. Notes Math.», 1979, № 714; [5] Липцер Р. Ш., Ширяев А. Н., Теория мартингалов, М., 1986; [6] ГихманИ.И., С короход А. В., Стохастические дифференциальные уравнения и их приложения, К., 1982; [7] Григел ионис Б., Микулявичюс Р., «Лит. матем. сб.», 1981, т. 21, № 3, с. 1-24; [8] ГальчукЛ.И., «Матем. сб.», 1980, т. 112, К? 4, с. 483-521; [9] Lenglart E., «Lect. Notes Math.», 1980, № 784, p. 500-46; [10] Metivier M., Semimartingales, B.-N. Y., 1982; [11] CairoliR., Walsh J.B., «Acta math.», 1975, t. 134, № 1-2, p. 111-83; [12] Жакод Ж., Ширяев А.Н., Предельные теоремы для случайных процессов, пер. с англ., М., 1994. Л. И. Гальчук. МАРТИНГАЛ; квадратическая вариация (martingale; quadratic variation of), опциональная квадратическая вариация, - вариация [X, X] (локального) мартингала X=(Xt), te№+, определяемая равенством [X, Х], = <ХС>,+ У (ДХ,)2, где (Хг) - квадратическая характеристика непрерывной составляющей Xе локального мартингала X, AXS = XS-XS_; ряд У (ДХ5) сходится с вероятностью 1 для любого t e IR+. Если X, У - локальные М., то квадратическая ковариа- ц и я [X, У] определяется равенством [X, У] = ([Х+У, Х+У]-[Х-У, Х-У])/4 (см. [1], [2]). Лит.: [1] Meyer P.-A., «Lect. Notes in Math.», 1976, № 511, p 246-400; [2] Липцер Р. Ш., Ширяев А. Н., Теория мартингалов, M., 1986. д. И. Гальчук. МАРТИНГАЛ; квадратическая характеристика (martingale; quadratic characteristic of), предсказуемая квадратическая вариация квадратично интегрируемого мартингала X=(Xt), te T (E sup |Xj2<°°), - такой t процесс (X), (Х)о = 0 (обозначаемый также (X, X», возрастающий ({X)s^{X)t, s^t), предсказуемый, интегрируемый (Е(Х)00<о°), что разность X -(X) - равномерно интегрируемый М. Квадратич. характеристика (X) определяется и для локально квадратично интегрируемого мартингала X. Для локально квадратично интегрируемых М. X, У их взаимной квадратической характеристикой (или предсказуемой квадратической ковариацией) называется процесс (X, У), определяемый равенством <Х, Y)=({X+Y, Х+У>-<Х-У, Х-У»/4. Лит.: [1] Meyer P.-A., «Lect. Notes in Math.», 1976, № 511, p 246-400; [2] Липцер Р. Ш., Ширяев А. Н., Теория мартингалов, M., 1986. л. И. Гальчук. МАРТИНГАЛ квадратично интегрируемый (squa- re-integrable martingale) - см. Квадратично интегрируемый мартингал. МАРТИНГАЛ локальный (local martingale) - см. Локальный мартингал. МАРТИНГАЛ; моментные тождества (moment identifies for martingale) - соотношения между моментами мартингала и его характеристиками. Пусть mt - одномерный М. относительно потока а-алгебр .rft, t^0. При нек-рых условиях на (предсказуемые) характеристики М. можно определить локальный М. Vn(mt, t), к-рый является полиномом порядка п относительно mt с коэффициентами, определяемыми по характеристикам mt. Если же остановленный процесс Vn(mtAT, саТ), где Т- марковский момент относительно потока а-алгебр rft, является равномерно интегрируемым по параметру t, то справедливо моментное тождество ElVn(mT, T)-Vn(mQ, 0)] = 0. (») В частности, Vx(mt) = mt, У2(щ) = (mt)2 - {m)t, где (m)t - квадратич. характеристика М.; при этом достаточными условиями для выполнения (*) являются, соответственно, условия Е«т>г)1/2<оо и Е<т)г<°°. Вид процесса Vn(mt, t) при п > 2 для случая, когда mt - М. типа стохастич. интеграла с непрерывным по t компенсатором меры скачков, описан в [1] - [2]. В частности, если mt - стохастич. интеграл по стандартному винеровскому процессу, то V„(mt, t) = H„{mt/(m)\'2) {m)"/2, я=1, 2 где Нп{х) - многочлен Эрмита (с весовой функцией ехр{-# /2}); при этом для справедливости тождества (*) достаточно выполнения условия E{m)j < <». Лит.: [1] Маккин Г., Стохастические интегралы, пер. с англ., М., 1972; [2] Новиков А. А., «Матем. заметки», 1984, т. 35, в. 3, с. 455-71. А. А. Новиков. МАРТИНГАЛ остановленный (stopped martingale) - см. Мартингал. МАРТИНГАЛ; предельные теоремы (limit theorems for martingales) - см. Предельные теоремы для мартингалов и семимартингалов. МАРТИНГАЛ; предсказуемая характеристика (martingale; predictable characteristic of) - см. Мартингал. МАРТИНГАЛОВ ПРОБЛЕМА (martingale problem) - эквивалент проблемы существования слабых решений стохастических дифференциальных уравнений. Пусть заданы: 1) измеримое пространство Ш, V) с фильтрацией & = (^t)t^Q; 2) вероятностная мера Рн на нек-рой а-алгебре Jf'Q ^; 3) ^-согласованный (векторный) процесс Х= (Xt)f^Q с траекториями из пространства Скорохода D[0, °°]. Вероятностная мера Р на измеримом пространстве (Q, .^) называется решением проблемы мартингалов, если сужение меры Р на а-алгебру Л? совпадает с мерой Рн, а процесс X на стохастич. базисе (Q, d, fr, P) является локальным мартингалом. Простейшими решениями М. п. являются винеровская и иуассоновская меры. В этих случаях Ж= (0, Q); винеровская мера Рю характеризуется тем свойством, что X - непрерывный локальный мартингал и У = (Yt)t^. 0 с Yt = Xt - t - локальный мартингал на стохастич. базисе (Q, Д ^, Pw), а ггуассоновская мера Рк имеет носитель D{\) - пространство кусочно постоянных функций из D[Q, ©о), стартующих из точки нуль, имеющих скачки размера единица, и характеризуется тем свойством, что Y=(Yt)t^.0 с Yt = Xt- t является локальным мартингалом на стохастич. базисе Ш, *</, fc, Pn). Эти и другие примеры суть частные случаи решения М. п. для семимартингалов в терминах триплета его предсказуемых характеристик (В, С, v), где B=(Bt)t^Q -^-предсказуемый непрерывный справа процесс конечной вариации на каждом конечном интервале, С = (Ct)t^Q - ^-согласованный непрерывный возрастающий процесс (квадратич. характеристика непрерывной мар- тингальной составляющей семимартингала), \ = \(dt, dx) - А-компенсатор меры скачков семимартингала. Пусть (В, С, v) - триплет предсказуемых характеристик с указанными выше свойствами и Рн - вероятностная мера на (Q, Ж'). Решением М. п. для X, Ж и (Рн; В, С, v) является вероятностная мера Р на (Q, Л) такая, что сужение Р на Ж совпадает с Рн и X=(Xt)t^Q является семимартингалом на МАРТИНГАЛ 325
стохастич. базисе (С1, у/, ^, Р) с триплетом предсказуемых характеристик (В, С, v). В частности, если v = 0 и Bt = f b(s, Xs)ds, Ct = j* c(s, Xs)ds, c( •, •) ^ 0, где b(s, x) и c(s, x) - измеримые функции, то решение М. п. эквивалентно проблеме существования слабого решения стохастич. дифференциального уравнения Ито dt,t = b(t, ^t)dt + c]/2(t, \t)dwt относительно винеровского процесса w = (wt)t^.0. Лит.:[\] Stroock D. W., Varadhan S. R. S., Multidimensional diffusion processes, B.-[a. o.], 1979; [2] Jacod J., «Lect. Notes in Math.», 1979, № 714; [3]Жакод Ж., Ширяев А.Н., Предельные теоремы для случайных процессов, пер. с англ., М., 1994. Р. III. Липцер. МАРТИНГАЛЬНОЕ ПРЕОБРАЗОВАНИЕ (martingale trans formation) мартингала (с дискретным временем) (Хп, •</„)„ j*о с помощью предсказуемой последовательности (Vn, ^п~\)п^о ~ это последовательность случайных величин (V-Xn)n^Q такая, что При непрерывном времени аналогом М. п. является стохастич. интеграл по мартингалу. В случае дискретного времени и нулевых начальных условий совокупности М.п., локальных мартингалов и обобщенных мартингалов совпадают между собой. Лит.: [1] Ширяев А. Н., Вероятность, М., 1980. Л. И. Гальчук. МАССЕ КРИТЕРИИ (Masset criterion) - см. Полезностей теория. МАССОВОГО ОБСЛУЖИВАНИЯ ТЕОРИЯ (theory of queues) - см. Обслуживания систем теория. МАСШТАБА ПАРАМЕТР; оценка (estimator of scale parameter) - любая статистическая оценка параметра а>0, полученная на основе наблюдений вида Xj = ae;-, j = 1, ..., п, где е.- - независимые одинаково распределенные случайные величины. Если величины е. положительны, то параметр а удобно рассматривать как элемент мультипликативной группы положительных действительных чисел IR+. В связи с этим часто рассматриваются эквивариантные оценки М.п., наилучшей среди к-рых является Питмена оценка. В силу изоморфизма группы IR+ аддитивной группе II? действительных чисел многие результаты, полученные для оценок сдвига параметра, справедливы и для оценок М.п. Лит.: [1] Закс Ш., Теория статистических выводов, пер. с англ., М., 1975; [2] Каган A.M., Линии к Ю. В., Рао СР., Характе- ризационные задачи математической статистики, М., 1972; [3] Кен- далл М., Стьюарт А., Статистические выводы и связи, пер. с англ., М., 1973; [4) Хьюбер П., Робастность в статистике, пер. с англ., М., 1984. Л. Б. Клебанов. МАСШТАБНОЕ ПРЕОБРАЗОВАНИЕ (scale transformation) - см. Ренормализационная группа. МАСШТАБНЫЙ ПАРАМЕТР (scale parameter) - параметр Ь в семействе функций Fb(x), ЬеВа№, b>0, .reXclR, удовлетворяющих следующему условию: Fh(x) = Fx(x/b) для любых be В, хеХ. Если распределение в II? с функцией распределения F(x) принадлежит к тому же типу, что и распределение с функцией распределения FQ(x), то F(x) = F0((x-a)/b). Здесь b>0- М.п., а дей? - сдвига параметр. С. Я. Шоргин. МАТЕМАТИЧЕСКАЯ СТАТИСТИКА (mathematical statistics) - раздел математики, посвященный математическим методам сбора, систематизации, обработки и интерпретации ста- 326 МАРТИНГАЛЬНОЕ тистических данных, а также использованию их для научных или практических выводов. Правила и процедуры М. с. опираются на вероятностей теорию, позволяющую оценить точность и надежность выводов, получаемых в каждой задаче на основании имеющегося статистич. материала. Под статистич. данными традиционно понимают прежде всего сведения в масштабе страны о распределении каких-либо социально-экономич. или демографич. объектов (напр., граждан, семей, земельных наделов, фабрик) по тем или иным показателям или признакам (соответственно, напр., по полу и возрасту, составу и уровню дохода, площади и стоимости, объему производства и численности персонала), а также сведения о динамике такого распределения, полученные систематизацией результатов переписей населения, земельного кадастра и других видов фискального учета или повсеместного обследования (см., напр., Демографическая статистика). Такое «изображение состояния государства в числах» близко первоначальному (18 в.) употреблению слова Statistik (нем.- государство - знание, от средневекового лат. status - государство). В 19 в. этот термин распространили на данные о расслоении любых больших коллективов по каким-либо признакам (звездная статистика, статистика дорожно-транспортных происшествий и пр.). Возникающее при этом статистич. описание коллектива (напр., класса по уровню успеваемости ученлков по геометрии: 12 отличников, 11 четверочников, 6 троечников, 3 двоечника) вскрывает важные его особенности как целого через части и несет более подробную существенную информацию о его состоянии, чем описание лишь по общим суммарным и средним характеристикам (в классе 32 ученика, средний балл по геометрии - четыре), опуская в то же время не связанные с рассматриваемыми признаками или связанные, но менее значимые детали индивидуальных описаний каждого из членов коллектива (включая последовательные отмотки ученика раздельно за письменные работы и устные ответы и т. п.), к-рые, впрочем, могут быть учтены в более подробных статистич. моделях. В настоящее время статистическими данными называют также числовую информацию, извлекаемую из результатов выборочных обследований, выборки из любых генеральных совокупностей, результаты серии неточных измерений и, вообще, любую систему данных, взаимно однозначно описываемую эмпирич. распределением. В математич. моделях современной М. с. статистич. данные, будь то результаты наблюдений, испытаний или измерений, интерпретируют как реализации нек-рого (иногда нескольких) соответствующего постановке задачи массового случайного явления (JT, с/, Р), в частности случайной величины, скалярной, когда £'= IR, и многомерной (векторной) при J'= IR", с не полностью известным распределением вероятностей Р исходов. В этом аспекте задачи интерпретации статисгич. данных в М. с. выступают как обратные задачи теории вероятностей. Напр., одна из первоначальных задач теории вероятностей состоит в том, чтобы, зная вероятность р появления «герба» при однократном бросании монеты, определить вероятность появления т «гербов» при п (независимых) бросаниях монеты. В соответствующей задаче М.с, исходя из того, что в п бросаниях монеты «герб» появился т раз, требуется оценить неизвестную вероятность р. Следует отметить, что характерная для М. с. вероятностная модель описанного выше типа может возникнуть и при статистич. изучении массового явления, не относящегося к категории вероятностно случайных, в том случае, когда вероятностным закономерностям подчинены приемы исследования этого явления (см. Выборочный метод, Ошибок теория). Необходимым этапом исследования статистич. данных является их предварительный анализ с целью выявления в них статистич. закономерностей, а также аномалий. В ряде при-
нормальное распределение со средним |1 = 0 и дисперсией а . Тем самым вся совокупность наблюдений есть реализация случайного вектора X = (Xj, ..., Х„), имеющего распределение N(ai, с I), то есть (многомерное) нормальное распределение в II?" с вектором средних ai и ковариационной матрицей а2Д1 = (1,...,1), / - единичная матрица]. Пример 2. В опыте получено, что в 100 частях воды растворяется следующее число условных частей азотнокислого натрия при соответствующих температурах: 0° 4° 10° 15° 21° 29° 36° 50° 68° 66,7 71,0 76,3 80,6 85,7 92,9 99,4 113,6 125,1 Статистич. модель: на основе теоретич. положения, что растворимость вещества линейно зависит от температуры воды, данные считаются реализацией случайных величин Xj, ..., Хп (п = 9) вида Х{ = а + Ы( + е{, i=l, ..., п, (2) где а и Ь - коэффициенты линейной зависимости, t{ - значения температуры воды, а ei - ошибки измерений с теми же свойствами, как в примере 1. Совокупность данных есть реализация случайного вектора X=(Xt, ..., Хп) в IP", имеющего распределение N(al + bt, с21), где t=(tx, ..., t„). Пример 3. При испытаниях долговечности подшипников получены следующие наработки на отказ (в часах): 375 377 438 472 480 580 638 690 728 786 1016 1078 1215 1276 1399 1647 1726 2734 3096 3767 Статистич. модель: на основе теоретич. соображений, подтверждаемых характером данных как настоящего эксперимента, так и проведенных ранее над подшипниками того же типа, принимается, что полученные значения суть расположенные в порядке возрастания реализации независимых случайных величин Xj, ..., Хп (и = 20), имеющих плотность распределения рЦа,Ь) = 1Ь~'еХ*[-(х-а)2/Ь]' Х>а' (3) 1 [О, х^а, где а^0иЬ>0 - параметры, в частности а - гарантированная длительность безотказной работы. Вектор X=(Xj, ..., Хп) имеет в И?я плотность распределения p(xv..„ хп\а, Ъ) = J~J=l р(х{\а, Ъ) = _ lb'" ехр{-^=1 (х{ -a)2/b], min(i,-)>fl, (4) [О, min{#-}^tf. Пример 4. Из партии в N изделий случайным образом выбираются для контроля п изделий, среди к-рых обнаружено т дефектных. Статистич. модель: пусть М - число дефектных изделий в партии. В предположении, что процедура обеспечивает равно- возможность всех С^ выборок объема п, число т является реализацией случайной величины X, имеющей распределение кладных задач изучение конкретной совокупности данных может иметь самостоятельное значение. Его задачей тогда является описание данных, позволяющее получить сжатое и по возможности наглядное представление о свойствах совокупности данных, и анализ данных, дающий возможность исследовать структуру данных, в особенности многомерных, в к-рых каждый объект характеризуется большим числом наблюдаемых признаков. Основными приемами описания являются построение гистограмм, диаграмм рассеяния и другие графич. средства представления данных, а также вычисление выборочных характеристик, таких, как выборочные среднее, медиана, дисперсия, а также размах, асимметрия и др. Анализ данных направлен на выявление зависимостей, классификацию и т. п. На более поздних этапах обработки данных иногда приходится также прибегнуть к анализу выделяющихся наблюдений с целью их исключения. Существенную роль при обработке многомерных массивов данных играет вычислительная техника. Как отмечалось выше, методы собственно М. с. основываются на предположениях о вероятностном характере статистич. данных. Исследование данных на этапе их описания и анализа вместе с теоретич. знаниями о природе изучаемого явления, сведениями о механизме возникновения статистич. данных и предшествующим опытом обработки аналогичных данных используется для построения статистической модели - описания выборочного пространства (#', ^/) всех мыслимых исходов X наблюдаемого случайного явления, выделения семейства J всех теоретически могущих встретиться в данной стагистич. задаче распределений вероятностей Р этих исходов и определения другой полезной (на этапах обработки и интерпретации) априорной информации об этом семействе. Часто выделенное семейство & естественно параметризуется каким-либо параметром ве0, дискретным или непрерывным; тогда ^={Р0, 6е0}. Наиболее важные и распространенные классы задач М. с. связаны с обработкой однородных независимых выборок Х- (Хр ..., Хп) конечного объема п. Такая выборка реализует представление о независимых повторениях в неизменных условиях эксперимента, связанного с наблюдением (измерением) нек-рой случайной величины X с каким-то теоретич. распределением вероятностей Р е & на алгебре событий ></ пространства .^'реализаций X. В этой схеме статистич. модель естественно описывается выборочным пространством (#'я, .г/") и семейством ^ = {P":Pg^}, в частности ^п = {Р^, ве0}, а сама выборка X - отвечающим ей эмпирич. распределением В то же время в современной М.с. достаточно часто встречаются последовательности стохастически зависимых наблюдений, являющиеся реализациями какого-либо случайного процесса: марковского, стационарного (в статистич. анализе временных рядов) и пр. Данные X могут представлять собой и реализацию случайного процесса с непрерывным временем; напр., быть суммой 5(0 + е(0 полезного сигнала S и шума е. Ниже приводятся простые примеры статистич. данных и возможные статистич. модели. Пример 1. В геодезич. съемке повторные измерения азимута одного и того же направления дали следующие результаты: 62°01'11",46; 11",01; 12",29; 13" ,47; 14,,,07; 10",60; 10",76; 14МЗ; 12",99; 10",46; 11",25; 12",02 (значения градусов и минут - общие). Статистич. модель: данные рассматриваются как реализация случайных величин Х\, ..., Хп (п= 12) вида Xi = a + eit i=l, ..., п, (1) где а - истинное значение угла, ех> ..., еп- случайные ошибки измерений, независимые между собой и имеющие одно и то же Р{Х = т} = СХ}С£?т/Сй, 111 = 0, 1, ..., п (5) (гипергеометрич. распределение). Пример 5. Результаты измерения момента трения для подшипников марок А и Б: Марка АI 1,94 1,63 1,60 1,95 1,78 1,64 1,92 1,88 1,67 1,98 Марка Б I 1,53 1,52 1,76 1,57 1,72 1,73 1,77 1,45 1,25 1,65 Статистич. модель: из соображений условий проведения эксперимента данные могут рассматриваться как реализации независимых случайных величин Xj, ..., Хт (w=10, МАТЕМАТИЧЕСКАЯ 327
марка A), Yv ..., Yn (и=10, марка Б), причем величины Х( (соответственно У{) одинаково распределены с функцией распределения F (соответственно G). В зависимости от имеющейся информации F и G могут предполагаться принадлежащими какому-либо параметрич. семейству распределений (ср. примеры 1, 3) либо только удовлетворяющими каким-либо общим условиям, напр. непрерывности. Постановка статистич. задачи во многом определяется целями, стоящими перед статистиком, к-рые диктуют и методы ее решения (начиная с этапа сбора данных и планирования экспериментов). Так, если 12 измерений азимута в примере 1 были проведены для более точного определения истинного значения угла а, то его наилучшей, то есть эффективной, оценкой будет выборочное среднее д = (Х, + ... + Хя)/л. (6) Иными будут процедуры обработки данных, если их набрали, чтобы тестировать угломер, то есть оценить среднеквадратичную величину а случайных погрешностей при отсчетах, или если усомнились в независимости последовательных измерений на этом приборе (впрочем, экспериментов для надежного ответа на последние вопросы следовало бы провести больше). Соответственно, для формализованного описания статистич. задачи, как задачи решения, кроме статистич. модели наблюдений, требуется, по Вальду (см. [13]), еще указать нек-рое измеримое пространство (Ф, 3$) возможных действий или выводов 8еФ, а также предложить способ мерить качество решений. В рассмотренном выше примере выводом является оценка угла а, то есть пространство возможных выводов совпадает с областью изменения параметра распределения. В ситуации примера 4, возникающей при статистич. контроле качества продукции, необходимо разрушаемой при контроле (такой, как спички, патроны и т. п.), можно столкнуться со следующими тремя альтернативными действиями: 1) продать проконтролированную партию изделий по обычной цене, 2) признать из-за высокого процента дефектных изделий продукт второсортным и продать партию по сниженной цене, 3) счесть, что доля брака недопустимо велика, и воздержаться от продажи партии (см. [12]). В различных задачах прикладной статистики приходится делать выводы о сравнительной эффективности каких-либо медицинских препаратов и о динамике внешней торговли, находить эмпирич. функциональные зависимости и статистич. связи тех или иных факторов, напр. курения и заболевания раком. Любая измеримая функция 8: И -> Ф определяет детерминированное решающее правило, то есть нек-рую процедуру обработки данных X и построения вывода 8:8 = 8(Х). В общем случае статистич. решающее правило задается переходной функцией П(Х;) = ПХ() - марковским переходным распределением вероятностей из (£, J) в (Ф, 38) (см. Статистических решений теория). Переходное распределение здесь задает лишь рецепт решения. Процедура же состоит в том, что после наблюдения исхода X делается дополнительный независимый «розыгрыш» вывода 8еф путем имитации случайного явления (Ф, 3$, Пх). В частности, когда переходное распределение П вырождено, существует такое 8(), что для всех X, П(Х; 8(Х)) = 1, оно отвечает детерминированному правилу - решающей функции 8. Несколько более сложный вид имеют решающие правила в последовательном анализе, когда после каждого очередного наблюдения решается, перейти ли к построению окончательных выводов или же продолжать набор данных (см. [13]); такие процедуры позволяют существенно сократить в среднем необходимое число испытаний. 328 МАТЕМАТИЧЕСКАЯ Как правило, в статистич. задаче дать достоверный ответ или сделать достоверный вывод можно, только располагая полной информацией о наблюдаемом случайном явлении (£, Л, Р), а она как раз и отсутствует. Имеющиеся же нек-рая априорная информация и данные наблюдений для достоверного ответа обычно недостаточны. Если истинное, неизвестное статистику распределение выборки описывается законоч P0g^, то теоретич. вероятностный закон, по к-рому распределены выводы, сделанные по решающему правилу П, есть РеП(0 = 9<ПЧ)=/Рв(<даП(Х;0, 6е0. (7) Пусть функция потерь /(6,8) задает потери, к к-рым приводит вывод 8 при истинном законе Рв. Тогда априорной характеристикой качества каждого правила П будет функция риска - математич. ожидание потерь: Д(6;П) = //(е, b)Q{"\db), (8) то есть чем меньше средние потери /?(0; П), тем лучше правило П. Однако «истинное» значение, при к-ром проведены наблюдения, неизвестно, так что приходится минимизировать риск «вообще», напр.: #тах(П) = sup9#(6; П). Правило П0 = argminn{#max(n)} называется минимаксным (см. Mv- нимаксностъ статистической процедуры). В массовых задачах прикладной статистики, когда приходится решать одну и ту же статистич. задачу каждый раз со своим теоретич. распределением PeG.^, встречающиеся неизвестные значения 6 сами могут считаться случайными реализациями с нек-рым априори заданным распределением вероятностей G(dQ) на 0. Тогда, естественно, оптимальное П должно минимизировать усредненную функцию риска 3iG см. Бейесоа ский подход к статистическим задачам, а также Бейесовский подход эмпирический, в к-ром распределение G() заранее не известно]. Оценка качества решающего правила по функции риска связана с идеями теории статистич. игр. Еще П. Лаплас [2] уподобил получение статистич. оценки азартной игре с природой, в к-рой статистик терпит поражение, если его оценки плохи. Однако, если в прикладной статистике вид функции потерь зачастую диктуется условиями задачи, в проблемах интерпретации и оценивания важную роль может играть математич. простота подхода. Так, в задаче оценивания неизвестного параметра а нормального распределения N(a, a ) по выборке X объема п (пример 1) П. Лаплас предложил в качестве оценки выборочную медиану m = argmin^ \Xk-x\. К. Гаусс (см. [4]) заметил, что построения сильно упрощаются, если принять за оценку a = argmin^ |X*-*|2 (см. Наименьших квадратов метод), и получил уже тогда хорошо известное правило (6). Оно оптимально относительно функции потерь |а-я| . Естественным, но несимметричным обобщением этой функции в общей задаче оценки Рт закона Pt из произвольного гладкого семейства i?={Pt, teT} будет (см. [15]) удвоенное уклонение 2/(Р,:Рт) (см. Относительная энтропия), где -±-/(*f x) = /(P£:PT)=Jln[P,WX)/PTWX)]P£WX). (9) Эта величина, может быть обращающаяся в + °о, не изменяется при перепараметризации семейства. Как и в теории вероятностей, в М.с. весьма существенную роль играют асимптотич. закономерности, возникающие при
неограниченном увеличении объема выборки, времени наблюдения реализации случайного процесса или при неограниченном убывании уровня шума и т. д. Дело в том, что оптимальные решения можно явно построить лишь для крайне ограниченного (хотя и очень важного) круга задач М.с: в предположении, что априорное распределение данных принадлежит очень специфич. семействам (Гаусса - Лапласа, Пуассона и т. п.) распределений. Асимптотические же закономерности носят более универсальный характер. Конечно, в приложениях объемы выборок всегда конечны, и асимптотич. методы дают решения, лишь близкие к оптимальным. Во многих вопросах такие решения удается построить, рассматривая для априорного семейства J>= {Р^, t e T) функцию правдоподобия \\k(t; X) = (dPt/dPo)(X) как функцию t при известном из эксперимента значении X. Здесь dPt/dPQ - гладкая по t производная Радона - Никодима и фиксировано нек-рое 6 = £0е7\ Так, максимального правдоподобия метод рекомендует в качестве оценки X параметра t правило П : nM:X->x(X) = argmax,lika; X). (10) Одним из наиболее важных классов задач М. с. являются задачи точечной статистич. оценки, когда по материалам независимых испытаний требуется оценить сам «наблюдаемый» закон PeJ>, или, что часто эквивалентно, параметр t этого закона: i?={Pt, teT). Решение Pt задачи точечной статистич. оценки иногда выступает как промежуточный этап построения окончательных выводов, напр. при статистич. контроле качества продукции и т. п. (правда, в иных классах задач, напр. с мешающим параметром, такой образ действия может быть не лучшим или вообще неосуществим). Постановка задачи точечной статистич. оценки и методы ее решения существенно зависят от того, насколько обширно априорное семейство d> могущих встретиться распределений вероятностей, выступающее в этих задачах так же, как множество всех возможных выводов. Если ^={Р0, PJ, то говорят о проверке простых гипотез (см. [9]). В процессе проверки можно или прийти к правильному решению, или совершить одну из двух ошибок: отвергнуть гипотезу Я: Р = Р0, когда она верна (ошибка первого рода), или принять гипотезу Я, когда она неверна, а верна альтернатива /С:Р = Р1 (ошибка второго рода). Последствия этих ошибок часто оказываются совершенно различными. Когда число испытаний задано, вероятности обеих ошибок не могут быть одновременно достаточно малыми. Обычно задают границу а вероятности Р0П{К] ошибки первого рода и минимизируют вероятность Р1П{Я} второй ошибки. По лемме Неймана - Пирсона наиболее мощный (то есть оптимальный в этом смысле) критерий строится по значениям отношения правдоподобия lik(X) = (dP\/dP0)(X). A именно, если непрерывна монотонная функция распределения FW = P0{lik(X) <z) статистики lik(X) по мере Р0, то критич. область Жк исходов, при к-рых гипотеза Я отвергается (а К принимается), имеет вид Л'={Х: lik(X) >&}, где критич. значение k является решением уравнения F(k) = 1 -а. Если F(z) имеет скачки, то находят k так, чтобы F(k) ^ 1 - a, P0{lik(X) > k) ^ а. При исходных X:lik(X)=fc устраивают «розыгрыш» вывода (см. [9]). В схеме независимых испытаний, когда объем выборки и->°°, для логарифма вероятности ошибки второго рода lim n~hnPnA^ }=/(P0:P1) [см. (9)]. я Если &={Pt, teT}, где Т- область в IR", а отображение t—>Pt дифференцируемо в римановой информационной метрике на совокупности распределений вероятностей, то такую задачу точечной статистич. оценки называют задачей оценки гладкого параметра. Одна и та же статистика т(Х) может быть по Ргвероятности близка к t при одних t e T и далека от t при других teT. В нек-рой степени этого недостатка лишены несмещенные оценки т(Х): Etx(X)=\x(X)Pt(dX) = t, teT. Несмещенные оценки не могут быть очень точными. Грубая нижняя граница величины Et\\x(X)-t\\2^c(t)n-\ где п - объем выборки, может быть получена из Крамера-Рао неравенств. Говорят, что последовательность решающих правил П„ по выборкам объема п = \, 2,... задает состоятельную оценку т„ (безразлично, смещенную или несмещенную), когда lim Pnt Пя{||тя-*||^е} = 0, e>0, teT. n Для гладких семейств полученная по правилу П % максимального правдоподобия оценка [см. (10)] будет не только состоятельной, но и асимптотически эффективной (то есть оптимальной) оценкой. При использовании вместо l(t, x)=|x-dl естественной, не зависящей от параметризации семейства функции потерь lim n~\%{n")=dimT, (11) n где в качестве функционала от функции риска R(t; П), можно брать как ее верхнюю по t e T грань #тах(П), так и усреднение #0(П) при распределениях G() с гладкой плотностью g(t). Следует отметить, что для семейств &>= {Pt} с дифференцируемой зависимостью Pt от t в более слабом смысле средний квадрат погрешности оценки может зависеть от п совершенно иным образом (см. [20]). При решении отдельных (не серийных) задач оценки параметра вместо средней точности или риска предпочитают пользоваться доверительной границей (см. Доверительное оценивание). Напр., пусть Р?Пп{|х„-*НО„(е;0} = 1-е, где Q„(e; t) - квантиль порядка 1 - е теоретич. распределения случайной величины ||хи- t\\ при распределении Р"П„ исходов х„, е = 0,05 илие = 0,01 и т. п. Область 0Т = {£: ||хя-*| <Q„(e; 0} будет соответственно доверительной областью, построенной по полученному значению хп оценки (см. [14]). Необходимо отметить, что при фиксированном объеме п выборки точность max Q„(e; i) ~ Q„(e; т„) и надежность 1 - е связаны между te в собой: чем надежнее границу мы хотим получить, тем большую область 0Т приходится указывать. Для (сильно) асимптотически нормальных оценок асимптотика квантили Оп(г; i) = q(e; i)n~ ' может быть выражена через асимптотику риска относительно функции потерь ||т- t\\ , а зависимость q(e; i) от t - через ряд Тейлора. Пусть априори известно лишь, что распределение наблюдаемой ограниченной скалярной величины X имеет плотность р(х), принадлежащую функциональному пространству С . Соответствующее семейство #>={Р }, заданное функциональным параметром /?(•), можно гладко координатизировать также счетным числом скалярных параметров ak (напр., коэффициентов какого-либо разложения) с уменьшающейся при уве- МАТЕМАТИЧЕСКАЯ 329
личении k областью своего изменения. Задачу точечной статистич. оценки в этой ситуации называют непараметрическим оцениванием (точнее, счетно-параметрическим) плотности. В силу (11) средняя погрешность локализации закона Р убывает с увеличением объема п выборки медленнее, чем в (конечно) параметрич. случае. Для гистограмм п(х), увеличивая вместе с п число т интервалов разбиения по закону т~п ' , можно в лучшем случае достичь Epj\n(x)-p(x)\2dx~n-2/:\ а для полигона частот ~ п 'J при т ~п ' . Для более гладких плотностей существуют более точные оценки (см. [15]). Если всякая априорная информация о возможном законе Р распределения наблюдаемой случайной величины полностью отсутствует, задача точечной статистич. оценки не допускает состоятельного решения. Точнее, не существует последовательности решающих правил П„, строящих по выборке (Xj, ..., Хп) оценку Р* закона Р так, чтобы J|P»-P|P"n„{rf[P*(-)]}->0 при любом исходном распределении вероятностей на P(IR, $), где |Р*-Р| - расстояние в метрике полной вариации, к-рое может быть заменено в формулировке на любую другую инвариантную информационную метрику или инвариантную (относительно статистич. решающих правил категории) функцию потерь, напр. (9). Более того, по независимой выборке растущего объема п нельзя состоятельным образом распознать, является ли Р абсолютно непрерывным или сингулярным распределением на алгебре # лебеговых подмножеств из R. Возможно лишь оценивание Р в слабых метриках, не позволяющее локализовать Р как вероятностную меру. Эти результаты об оценках Р*(), строго устанавливаемые в рамках теории случайных мер Прохорова - Ченцова, позволяют трактовать способы использования априорной информации в задаче точечной статистич. оценки как методы регуляризации некорректно поставленной обратной задачи теории вероятностей (см. [15], дополнение 2). Одним из основных разделов М. с. со своими постановками задач и методами решения является статистических гипотез проверка. В наиболее распространенной постановке этой задачи бывают даны два непересекающихся априорных семейства .Ж и Ж распределений вероятностей на (£, .с/), при нек-ром неизвестном теоретич. распределении Р е#>= Ж1)Ж проводится выборка, и по ее результатам требуется решить: Р € Ж (то есть принять статистич. гипотезу Я) или же Р е Ж (то есть принять ее альтернативу К). Если семейства Жи Ж отделимы в информационной метрике, а задача точечной статистич. оценки для априорного семейства J* разрешима, то асимнтотич. техника проверки этих гипотез обобщает таковую для простых гипотез. Совершенно иная ситуация имеет место при проверке простой гипотезы Я: Р = Р0 против альтернативы К: Р Ф Р0. Здесь статистич. данные бессильны помочь отличить Р0 от сколь угодно близких альтернативных Р. Но они могут свидетельствовать против гипотезы Я, если при анализе выборки X объема п будет обнаружено какое-либо ее простое свойство Хе££, весьма маловероятное при P = Pq, напр. P^{1£nK}<tm~ . Для надежности такого вывода (поскольку маловероятных событий очень много) необходимо, чтобы оно принадлежало к заранее заданному конечному списку длины т или, как это принято при тестировании случайных и псевдослучайных чисел, длина его описания в битах была меньше log2w. Зачастую 330 МАТЕМАТИЧЕСКАЯ эту задачу проверки решают в суженной постановке, принимая заранее, что Ре^, где для семейства х? задача точечной статистич. оценки допускает состоятельное решение в нек-рой метрике р (может быть, слабой или же навязанной параметризацией семейства #"). Тогда тестируют Я против какой-либо близкой гипотезы, напр. альтернативы Р € Жъ = {Р: Р € 3>, р(Р, Р0) ^ 8} (см. также Стьюдента критерий). Сходная ситуация имеет место при проверке однородности двух независимых выборок, то есть совпадения их статистич. моделей (£, с</, Pj) и (£, Л, Р2), для чего, в частности, используют Колмогорова критерий. В последней задаче возможен еще один тип суженной постановки (см. Уилкоксона критерий). О других, не упоминавшихся выше постановках статистич. задач, см. в ст. Дисперсионный анализ, Многомерный статистический анализ, Планирование эксперимента, Регрессионный анализ, Статистический анализ случайных процессов, Факторный анализ. Внедрение в статистич. практику вычислительной техники позволило при решении задач М. с. использовать методы статистического моделирования (Монте-Карло). Методы М.с. широко используются в приложениях, являясь основой статистич. методов исследования и контроля массового производства, статистич. методов в области физики, биологии, медицины, метеорологии; их также применяют при обработке результатов статистич. моделирования в различных задачах науки и техники. Целью статистич. теории является выработка наиболее эффективных методов обработки данных, дающих «наиболее точные» утверждения с «наибольшей или заданной надежностью». Точный смысл этих выражений зависит от постановки задач, и, как отмечалось выше, при конечном объеме выборки поиск оптимальных процедур приводит к сложным вариационным проблемам. В то же время в асимптотич. теории для многих задач удалось построить асимптотически точные неравенства информации, связанные с геометрич. структурой статистич. моделей, и показать асимптотич. оптимальность ряда известных процедур. Исследования в этом направлении стимулировали в последние годы так наз. геометрич. подход к изучению структур самой М.с. (см. Геометризация статистической теории). Семейства распределений вероятностей трактуются здесь как геометрич. фигуры (в том числе линии, поверхности), движения к-рых описывают по (7) статистич. решающие правила, образующие алгебраич. категорию (см. Статистических решающих правил категория и лит. при этой статье). В рамках этого подхода естественно возникают такие понятия, как эквивалентность но Блэкуэллу статистич. моделей; достаточные статистики, позволяющие осуществить максимальную без потери полезной информации редукцию статистич. данных; информационная матрица Фишера, через к-рую выписываются информационные неравенства Крамера - Рао и к-рая определяет единственную с точностью до множителя инвариантную дифференциальную квадратичную форму, экспоненциальные семейства распределений-и пр. Возникающий геометрич. язык М.с. позволяет экономно записывать многие ее основные асимптотич. закономерности [ср. (И)]. Историческая справка. Первые исследования ю М.с. встречаются уже у Д. Бернулли (D. Bernoulli) и Л. Эйлера (L. Euler), обсуждавших в 70-х гг. 18 в. методы построения оценок. Ряд основных понятий М.с. был введен в нач. 19 в. в знаменитой работе П. Лапласа «Аналитическая теория вероятностей» и в связи с развитием метода наименьших квадратов и теории ошибок в работах А. Лежандра и особенно К. Гаусса. Большое значение имели работы английских статистиков кон. 19 - нач. 20 вв. Ф. Гальтона (F. Gal- ton), К. Пирсона (К. Pearson). Основы современной теории
оценивания и проверки гипотез были заложены в 20-30-х гг. в работах Р. Фишера (R. Fisher) и Ю. Неймана (J. Neyman). Формальное объединение ряда задач М. с. в терминах теории статистич. решения осуществил в 40-х гг. А. Вальд (A. Wald). Большое влияние на современное развитие М.с. оказала монография Г. Крамера [20]. В России первые исследования по М.с. связаны с именами Л. Эйлера и позднее М. В. Остроградского. Фундаментальный вклад в развитие метода наименьших квадратов осуществил А. А. Марков. Представление о развитии М. с. в России к началу 20 в. дает переписка А. А. Маркова и А. А. Чупрова. Большую роль в развитии отечественной М.с. сыграли работы В. И. Романовского. Исследования в 30-х гг. А. Н. Колмогорова и Н. В. Смирнова заложили основы современной .непараметрич. статистики. Е. Е. Слуцкому принадлежат пионерские работы но статистике случайных процессов (анализ стационарных рядов наблюдений). Работы Ю. В. Линника обогатили М. с. новыми мощными аналитич. методами. Важную работу по созданию таблиц М. с. проводили Е. Е. Слуцкий, Н. В. Смирнов и Л. Н. Большее. Лып.: Классики науки. [1] Euleri L., Opera omnia, v. 7, 1923 (англ. nep.-«Biometrika», 1961, v. 48, pt 1-2); [2] Laplace P. S. de, Theorie analytique des probabilites, 2 ed., P., 1820, 3 ed., P., 1886; [3] Legend re A., Nouvelles methodes pour la determination des or- bites des comefes, P., 1806; [4] Gauss C.F., Werke, Bd IV, Gottingen, 1980; [5] Марков А. А., Исчисление вероятностей, 4 изд., М., 1924; [6] его же, О теории вероятностей и математической статистике (переписка А. А. Маркова и А. А. Чупрова), М., 1977; [7] Колмогоров А. Н., Теория вероятностей и математическая статистика, М., 1986. Учебники и справочники. [8] Смирнов Н.В., Дунин-Бар- ковский И. В., Курс теории вероятностей и математической статистики для технических приложений, 3 изд., М., 1969; [9] Боровков А. А., Математическая статистика. Оценка параметров. Проверка гипотез, М., 1984; [10] его же, Математическая статистика. Дополнительные главы, М., 1984; [11] Большее Л.Н., Смирнов Н.В., Таблицы математической статистики, 3 изд., М., 1983. Монографии. [12] Вальд А., Последовательный анализ, пер. с англ., М., 1960; [13] его же, Основные идеи общей теории статистических решений, пер. с англ., дополн. к кн. [12]; [14] Ван дер Варден Б.Л., Математическая статистика, пер. с нем., М., 1960; [15] Деврой Л., Дьерфи Л., Непараметрическое оценивание плотности, пер. с англ., М., 1988; [16] Кендал л М., Стьюарт А., Теория распределений, пер. с англ., М., 1966; [17] их же, Статистические выводы и связи, пер. с англ., М., 1973; [18] их же, Многомерный статистический анализ и временные ряды, пер. с англ., М., 1976 [19] Кокс Д., Хинкли Д., Теоретическая статистика, пер. с англ , М., 1978; [20] Крамер Г., Математические методы статистики, пер. с англ., 2 изд., М., 1975; [21] Le Cam L., Asymptotic methods in statistical decision theory, В., 1986; [22] У илкс С, Математическая статистика, пер. с англ., М., 1967. //. А. Ибрагимов, Ю. В. Прохоров, Н. Н. Чепцов, Д. М. Чибисов. МАТЕМАТИЧЕСКАЯ СТАТИСТИКА; асимптотические методы (asymptotic methods of mathematical statistics) - методы, основанные на поведении статистических процедур при неограниченном возрастании объема наблюдений (реже при иных предельных Переходах, отвечающих увеличению достижимой точности статистического вывода). Задачи М.с, в к-рых применяются асимптотич. методы, можно условно разделить на две категории: а) исследование свойств заданных статистич. процедур; б) отыскание процедур, обладающих требуемыми статистич. свойствами (оптимальности, допустимости и т. п.). Задачи первого типа сводятся к изучению распределений статистик заданного вида. Асимптотич. методы позволяют получать для распределений (или их характеристик, требуемых в данной задаче) предельные (асимптотические) выражения, используемые как приближенные формулы при применении к конкретным задачам с фиксированным количеством наблюдений. Необходимость применения асимптотич. методов обусловлена тем, что сложность вычислений, требуемых для прямого получения «точного» решения, как правило, быстро возрастает с ростом объема наблюдений. Используемые в задачах этого типа асимптотич. методы - это в основном методы предельных теорем теории вероятностей. В задачах второго типа используют статистич. методы построения оптимальных процедур (см. Оптимальность статистической процедуры) или методы статистических решений теории. Мощным средством является асимптотич. анализ последовательностей статистич. моделей, позволяющий осуществить предельный переход к достаточно простой предельной модели, при к-ром сохраняются свойства, существенные для данной задачи. Во многих случаях асимптотич. методы дают возможность строить процедуры, обладающие требуемыми свойствами оптимальности в подходящем асимптотич. смысле (напр., асимптотически эффективная оценка или асимптотически наиболее мощный критерий), в то время как процедур, оптимальных в точном смысле, не существует. В конкретных задачах с данным количеством наблюдений асимптотически оптимальные процедуры используют как приближенно оптимальные, то есть если и уступающие каким-либо другим процедурам по своим характеристикам качества, то ненамного (как, напр., дисперсии оценок, мощность критериев). Пример. Пусть наблюдаются независимые одинаково распределенные случайные величины Х^, ..., Хп, имеющие плотность распределения p(x-Q), где веН?- неизвестный параметр, ар(х) - известная плотность, симметричная относительно нуля [то есть р(х) -р( -х)] и удовлетворяющая не оговариваемым явно условиям регулярности (существование моментов, дифференцируемость). Применение асимптотич. методов будет проиллюстрировано на задачах оценивания параметра в и проверки гипотезы #0:в = 60. Оценивание. Оценками в могут служить, напр., среднее арифметическое X = п~ Vп_ Х{ и выборочная медиана X. Обе они являются несмещенными: Е0Х=Е0Х = в. Среди возможных оценок желательно выбрать более точную, то есть, скажем, обладающую меньшей дисперсией. Как известно, DX -<5 /п, где a =DX1, a для дисперсии медианы, вообще говоря, может быть получено лишь асимптотич. соотношение DX~(Ap (0)и)~ . Из этих соотношений можно вывести, напр., что в случае нормального распределения наблюдений lim DX/DX = 2/tc* 0,637, а в случае р(х) -е~ /2 (распределение Лапласа) HmDX/DX = 2, П —><» то есть X точнее в первом случае, а X - во втором, если п достаточно велико. Относительно распределений X И X также имеются, вообще говоря, лишь асимптотич. результаты такие, как асимптотич. нормальность. Подобным образом исследуются различные классы оценок. Напр., М-оценка 9„ определяется как корень уравнения £"=1 Mxf-e) = o, (О где h(x) - нечетная функция, удовлетворяющая нек-рым условиям регулярности. Тогда 6„ несмещена, асимптотически нормальна и имеет дисперсию Оёп-п^ОИ(Х^//Ш, (2) где /(/*) = Еф\Хх) = -J h(x)p'(x)dx (3) МАТЕМАТИЧЕСКАЯ 331
[в частности, X и X - М-оценки, отвечающие h{x)-x и M#) = sign x]. Формула (2) позволяет сравнивать различные Л/-оценки; минимизируя по /К) правую часть (2), можно найти оценку, асимптотически наилучшую в классе М-оценок. Это оценка максимального правдоподобия в*, отвечающая htr) = \\f(x), где у(х) = -р'(х)/р(х). (4) Перечисленные результаты, описывающие свойства отдельных оценок (или заданных классов оценок), не позволяют выделить оценку, асимптотически наилучшую в классе всех оценок. Для решения такой задачи требуются статистич. результаты, опирающиеся на свойства семейства распределений {р(х - в)}. Примером такого результата служит неравенство Крамера - Ра о: для любой несмещенной оценки Г„ = Г„(Х1, ..., Хп), удовлетворяющей нек-рым условиям регулярности, DTn>\/(nI), (5) где / - информация Фишера: / = EoV2(X1). Вместе с (2)-(4) оно позволяет утверждать, что оценка максимального правдоподобия имеет асимптотически минимальную дисперсию и в классе регулярных несмещенных оценок. В данном примере были наложены упрощающие условия (симметрия плотности, одномерный параметр сдвига), при к-рых, в частности, представляется естественным требование несмещенности оценок. При отсутствии таких условий и отказе от ограничений на класс оценок (регулярность, несмещенность) требуется уточнение понятия асимптотич. оптимальности и применение более тонких асимптотич. методов. Так, напр., устанавливается, что оценка максимального правдоподобия обладает свойством локальной асимптотич. минимаксности (см. [2]). Для дальнейшего сравнения оценок, имеющих одинаковые асимптотич. характеристики, приводится уточнение асимптотики этих характеристик, напр., путем построения асимптотич. разложений (см. [3], [10]). Проверка гипотезы Я0:в = в0. Асимптотич. исследование тех или иных критериев сводится к изучению асимптотич. поведения распределений соответствующих статистик. Напр., при односторонних альтернативах Я1:в>в0 может использоваться критерий, основанный на оценке максимального правдоподобия в*, отвергающий Я0 при в*>с*. Пусть требуется, чтобы критерий имел асимптотич. размер а>0, то есть чтобы Р0 {в* >с*}->а. Из асимптотич. нормальности в* и (2) следует, что можно положить с* = 90 + (nl)~ ' za, где za = Ф (1 - а), Ф - функция стандартного нормального распределения. Для мощности Р*(в) = Р{в* >с*} при «сближающихся альтернативах» имеет место сходимость р:>о+'"-,/2)-+ф(',/2<-0- (6) Можно установить, что правая часть (6) дает наибольшую возможную предельную мощность путем сравнения ее при каждом t>0 с мощностью наиболее мощного критерия. Пусть ™ (х,-<е0+*п-1/2)) L>-<=L^ *»> = '"ПГи ,(х,_ео) ■ По лемме Неймана - Пирсона критерий L„,t>c„it (7) 332 МАТЕМАТИЧЕСКАЯ - наиболее мощный для проверки гипотезы 6 = в0 против в = в0 + trf ' . Если Р„(в0 + tn~ ' ) - мощность какого-либо критерия размера а„->а, то при сп t таких, что pe0{4f>c«,t} = a*>^eT Р„(в0 + ta~1/2) ^ Р„(в0+ tn~]/2), (8) где р„ - мощность критерия (7). [Поскольку, вообще говоря, равномерно наиболее мощного критерия, то есть наиболее мощного одновременно для всех t>0, не существует, Р„(в0 + tn~ ' ) при различных t - мощности различных критериев (7); см. Огибающая функция мощности.] Применением центральной предельной теоремы к Lnt доказывается, что Р„(в0 + */Г1/2) -> (КО = Ф(/1/2г - га). (9) Из(8)и(9) следует, что для любых критериев размера ап -> а lim supp„(e„ + ta"1/2)^p(0. Тем самым, если мощность какого-либо критерия сходится к Р(0, то он - асимптотически равномерно наиболее мощный критерий. Примерами таковых служат критерии, основанные на оценке максимального правдоподобия в* (см. (6)) и на Y«-»~t/2ZH.t*Xi-90). (10) В более сложных ситуациях (напр., при двусторонних альтернативах 6*60, в случае векторного параметра) указанный прием сравнения с наиболее мощным критерием неприменим. В данном примере при Нх :в*60 асимптотич. упрощение статистич. модели достигается на основе свойства локальной асимптотич. нормальности, при выполнении к-рого Yn (см. (10)) является асимптотически достаточной статистикой. Это означает, что можно ограничиться критериями, зависящими только от Уп. Ввиду того что распределение Уп при 6 = в0 + tn~ ' сходится к N(tl, I) (нормальное со средним tl и дисперсией /), свойства таких критериев могут быть выведены из свойств критериев проверки гипотезы ^ = 0 по наблюдению Y~N(tI, I) (предельная модель). Критерий Y>ca, са-1 ' га- равномерно наиболее мощный при альтернативе t>0. При альтернативе £*0 критерий \Y\ >ca/2 - равномерно наиболее мощный несмещенный, а критерии {Y<-ca }U{Y >ca }, (Xj +a2 = a, образуют полный класс. При подстановке Yn вместо У получаются критерии, обладающие соответствующими асимптотич. свойствами. Подобным образом и в более общих схемах при выполнении свойства локальной асимптотич. нормальности статистич. задачи приводятся к задачам, связанным с семействами (многомерных) нормальных распределений, зависящих от параметра сдвига. Этот метод используется и в задачах оценивания, в частности при установлении свойства локальной асимптотич. минимаксности. Сравнительное изучение критериев, имеющих одинаковую предельную мощность, проводится путем построения асимптотич. разложений для их мощности и исследования в них членов высших порядков малости (см. [10]). Асимптотич. изучение распределений статистик использует в основном методы предельных теорем теории вероятностей. В ряде случаев задача может быть сведена к применению известных теорем (закон больших чисел, центральная предельная теорема). Однако, как правило, в М. с. возникают нетрадиционные для теории вероятностей объекты, требующие самостоятельного исследования. Ниже дается краткий обзор характерных для М.с. направлений.
Для обширного класса статистик имеет место асимптотич. нормальность, обусловленная возможностью аппроксимации статистики суммой случайных величин. К таким статистикам относятся: выборочные моменты, многие оценки параметров (напр., максимального правдоподобия оценка, бейесовская оценка, М-оценка), статистики параметрич. критериев (напр., критериев С(а), ранговая статистика, (У-статистики, порядковая статистика и их линейные комбинации). Эффективный метод нахождения предельных распределений такого рода статистик при «сближающихся альтернативах» связан со свойством локальной асимптотич. нормальности (контигуаль- ность, третья лемма Ле Кама). В 70-80-х гг. были разработаны новые, специфические для различных классов статистик методы, позволявшие получить уточнения асимптотич. нормальности (скорость сходимости, асимптотич. разложения) для указанных статистик (см. [10], [11]). Исследования непараметрических критериев, основанных на эмнирич. функции распределения, начатые в 30-х гг. в работах В. И. Гливенко [6], А.Н.Колмогорова [8], Н. В. Смирнова [4], [5], были продолжены начиная с конца 40-х гг. на основе теории сходимости случайных процессов, послужив одним из стимулов ее развития. Аппарат сходимости случайных процессов используется также в задачах непара- метрич. оценивания, последовательного анализа и др. (см. [12]). В исследованиях асимптотич. эффективности статистич. процедур получили применение и дальнейшее развитие методы теории больших уклонений. Значительный раздел составило изучение распределений функций от выборочных частот при одновременном возрастании объема выборки и числа классов разбиения. Большинство подходов здесь основано на том факте, что полиномиальное распределение частот совпадает с условным распределением набора пуассоновских случайных величин при фиксированной их сумме. Близкие по методам исследования проведены для функций от спейсингов (см. [И]). В получении предельных теорем для функционалов от эм- пирич. функции распределения, функции от частот и спейсингов успешное применение нашли методы теории мартингалов (см. [12]). Своеобразные свойства обнаруживают процедуры многомерного статистического анализа в асимптотике «большой размерности», когда размерность пространства растет с ростом числа наблюдений (классификация, дискриминантнъш анализ). Глубокая теория сходимости статистич. моделей и построения асимптотич. оптимальных процедур развита Л. Ле Камом [9]. Его идеи послужили основой развития асимптотич. теории оценивания, проверки гипотез и других направлений. Важным шагом в асимптотич. теории оценивания явилось доказательство Я. Гаеком [7] свойства локальной асимптотич. минимаксности оценок максимального правдоподобия (и других асимптотически эффективных оценок). Это свойство оптимальности и метод его доказательства были впоследствии распространены на широкий класс задач оценивания, включая непараметрич. и семипараметрич. задачи (см. [2], [3]). В теории проверки параметрич. гипотез первые результаты об асимптотич. оптимальности критериев, основанных на оценках максимального правдоподобия, получены А. Вальдом [13]. Общие методы построения асимптотически оптимальных критериев дает теория Ле Кама. В задачах, в к-рых не существует асимптотически равномерно наиболее мощных критериев, описание асимптотически полных классов критериев получается на основе методов Ле Кама и методов теории статистич. решений Вальда (см. [1]). Потребности практич. приложений привели к разработке статистич. методов, не опирающихся на точное знание параметрич. модели. В этих условиях применяют непараметрич. методы и робастные методы. Построение асимптотически оптимальных процедур достигается адаптивными методами, основанными на извлечении необходимой информации о неизвестном распределении из самих наблюдений. Полезный аппарат для описания свойств семейств распределений и их связи с характеристиками статистич. процедур дают методы дифференциальной геометрии в М. с. Лит.: [1] Бернштей н А. В., «Изв. вузов. Математика», 1983, № И, с. 3-18; [2] Ибрагимов И. А., Хасьмински й Р. 3., Асимптотическая теория оценивания, М., 1979; [3] Левит Б. Я., «Теория вероятн. и ее примен.», 1985, т. 30, в. 2, с. 309-38; [4] Смирнов Н. В., «Матем. сб.», 1937, т. 2, № 5, с. 973-93; [5] его же, «Бюлл. Моск. гос. ун-та», 1939, т. 2, в. 2, с. 3-14; [6] G 1 i v e n k о V., «G. 1st. Ital. attuari», 1933, v. 4, № 1, p. 92-99; [7] Hajek J., «Proc. Berk. Symp. Math. Statist, and Probab.», 1972, v. 1, p. 175-94; [8] Колмогоров А.Н., Теория вероятностей и математическая статистика, М., 1986, с. 134-41; [9] Le Cam L., Asymptotic methods in statistical decision theory, N. Y., 1986; [10] Pfanzagl J., «Lect. Notes in Statist.», 1985, № 31; [11] Ser f 1 i ng R. J., Approximation theorems of mathematical statistics, N. Y., 1980; [12] Shorack G. R., Wei 1 ner J. A., Empirical processes with applications to statistics, N. Y., 1986; [13) Wald A., «Trans. Amer. Math. Soc», 1943, v. 54, p. 426-82. д, м. Чибисов. МАТЕМАТИЧЕСКАЯ СТАТИСТИКА; непараметрические методы (nonparametric methods of statistics) - методы, не предполагающие знания функционального вида генеральных распределений. Они используются в задачах, где возможные распределения вероятностей задаются условиями какого-либо общего характера типа непрерывности, гладкости, симметрии, независимости и т. п. Термин «непараметрические» подчеркивает их отличие от традиционных «параметрических» методов, предполагающих, что генеральное распределение известно с точностью до конечного числа параметров, и разработанных детально для «стандартных» семейств распределений таких, как нормальное, экспоненциальное, Пуассона и т. п. Задачи, решаемые с помощью непараметрич. методов, можно условно разделить на две большие части: задачи проверки гипотез и задачи оценивания. Непараметрическая проверка гипотез - наиболее развитая область применения непараметрич. методов. Наибольшее развитие и применение получили ранговые методы и методы, основанные на эмпирич. функции распределения, включая сюда их модификации и обобщения. Использование ранговых процедур основано на следующем соображении. Поскольку вектор рангов вместе с вектором порядковых статистик содержит всю информацию, содержащуюся в выборке, то нек-рая доля этой информации содержится только в ранговом векторе. Поэтому можно строить статистич. процедуры, основываясь только на рангах и не используя знание самих выборочных значений. Преимуществом таких процедур является вычислительная простота, следующая из целочисленности рангов. Другой важной особенностью ранговых процедур является их применимость и в тех случаях, когда наблюдения носят не количественный, а качественный характер, лишь бы они допускали упорядочение, что особенно важно в приложениях. Наконец, распределения ранговых статистик при основной гипотезе не зависят от генерального распределения, что позволяет вычислить эти распределения и затабулировать их. По мере развития ранговых методов в 40-50-х гг. 20 в. выяснилось, что доля информации, содержащаяся в векторе рангов, может оказаться значительной, что обеспечивает ранговым процедурам высокую асимптотич. относительную эффективность. Асимптотич. теория ранговых статистик исгюль- МАТЕМАТИЧЕСКАЯ 333
зует тонкие аналитич. методы, а также методы теории сходимости случайных процессов и полей. Ранговые методы разработаны для широкого класса задач, в к-рых традиционно использовались «параметрич.» предположения, в основном о нормальности распределений (см., напр., Ранговая корреляция). Большая группа непараметрич. критериев основана на использовании эмпирич. функции распределения. Пусть Fn - эмпирич. функция распределения, построенная по выборке объема п с генеральной функцией распределения F. В силу теоремы Гливенко - Кантелли sup \Fn(t) -F(t)\ ->0 почти наверное t при п—><*>. Таким образом, на мере близости Fn и F можно основывать критерии согласия с гипотезой об истинной функции распределения. Первыми критериями этого типа были Колмогорова критерий и Крамера - Мизеса критерий, предложенные в начале 30-х гг. Распределения соответствующих статистик не зависят от генеральной функции распределения, если только последняя непрерывна. Их предельные распределения, найденные в середине 30-х гг. А. Н. Колмогоровым и Н. В. Смирновым, табулированы, что позволяет приближенно найти границу критич. области, отвечающей заданному уровню значимости. Существуют разнообразные модификации этих статистик, предназначенные для проверки гипотезы согласия в многомерном случае, для гипотезы о принадлежности параметрич. семейству, а также гипотез симметрии, однородности и независимости. При исследовании их применяются комбинаторные методы, методы теории слабой сходимости и методы теории мартингалов. Общим свойством большинства непараметрических критериев, основанных на эмпирич. функции распределения, является состоятельность против любых альтернатив. Выбор той или иной статистики при больших объемах выборок можно основывать на значениях асимптотич. относительной эффективности, вычисленных для наиболее употребительных статистик. Непараметрическое оценивание представляет собой раздел М. с, имеющий дело с задачами оценивания, носящими бесконечномерный характер. Важнейшим примером является «оценивание кривых» - плотностей распределения, спектральных плотностей, кривых регрессии, функций, наблюдаемых со случайными ошибками («сигнал на фоне шума»), а также функционалов от них. Для корректной постановки задачи непараметрич. оценивания необходима дополнительная априорная информация о функциональном классе, к к-рому принадлежит оцениваемая «кривая». При этом точность оценивания существенно зависит от геометрич. характеристик «массивности» этого класса. Поэтому существенную роль в задачах непараметрич. оценивания играют функционально-аналитич. методы. См. также Непараметрическая проверка гипотез, Непараметрическое оценивание, Порядковая статистика, Робаст- ность, Толерантный интервал, Адаптивная оценка. Лит.: [1] Большее Л.Н., См и рнов Н. В., Таблицы математической статистики, 3 изд., М., 1983; [2] Боровков А. А., Математическая статистика. Оценка параметров. Проверка гипотез, М., 1984; [3] Гаек Я., Шидак 3., Теория ранговых критериев, пер. с англ., М., 1971; [4] ЧенцовН.Н., Статистические решающие правила и оптимальные выводы, М., 1972; [5] Ибрагимов И. А., Хасьмин- ский Р. 3., Асимптотическая теория оценивания, М., 1979; [6] Хетт- м а нс п е р rep Т., Статистические выводы, основанные на рангах, пер. с англ., М., 1987; [7] WalshJ.E., Handbook of nonparametric statistics, v. 1-3, Princeton, 1962-68; [8] Lehmann E., Nonparametrics: statistical methods based on ranks, S. F., 1975; [9] Handbook of statistics, v. 4. Nonparametric methods, ed. by P. R. Krishnaiah, P. K. Sen, Amst.- la.o.], 1984. я.Ю. Никитин. 334 МАТЕМАТИЧЕСКАЯ МАТЕМАТИЧЕСКАЯ СТЕРЕОЛОГИЯ (mathematical stereo logy) - направление в стохастической геометрии, изучающее случайные сечения фигур, множеств или сечения случайных геометрических процессов прямыми или плоскостями. Задача М.с. - делать выводы о геометрич. свойствах многомерных объектов, располагая лишь информацией о сечениях. Результаты М. с. применяют в прикладных дисциплинах (см. [1J, [2]). Многие алгоритмы М. с. основаны на результатах интегральной геометрии, где изучаются интегралы от таких величин, как число N(g) точек пересечения прямой g с нек-рой плоской кривой / или длина х(#) «хорды» gf)D нек-рого множества D и др. Напр., интегралы по пространству прямых могут вычисляться по мере dg, инвариантной относительно группы А/ евклидовых движений. Тогда имеет место \N(g)dg = 2L,jx(g)dg = nS, (•) где L - длина кривой I, S - площадь множества D. Подобные результаты используют для статистич. оценивания геометрич. параметров фигуры путем ее сечения случайными прямыми (плоскостями). Обычно рассматривают независимые случайные прямые дх, д2, ..., дп с одинаковым распределением, пропорциональным сужению меры dg на множество прямых, пересекающих круг Кг радиуса г (фигура лежит целиком в Кг). Из (*) получаются статистич. оценки: Аналоги формул (*) существуют и для сечений фиксированными прямыми М-инвариантных случайных множеств. Из (*) следует, что средняя одномерная мера Лебега пересечения случайного множества с единичным отрезком равна средней двумерной мере Лебега случайного множества в области с единичной площадью. Рассматриваются также так наз. процессы волокон - случайные множества, реализации к-рых состоят из кусков гладких кривых (отрезков, круговых дуг и т. д.). На прямой, пересекающей М-инвариантный процесс волокон, получается однородный случайный точечный процесс пересечений. Его интенсивность равна 2Х/к, где А, - средняя суммарная длина волокон, лежащих в области с единичной площадью (X называется интенсивностью процесса волокон). Распределение «типичного» угла между секущей прямой и волокном имеет плотность /2sina. Если случайный процесс волокон однороден, но не изотропен, то интенсивность #(<р) точечного процесса пересечений зависит от направления <р секущей прямой, #(<р) называется интенсивности розой. Зная розу интенсивности, можно найти интенсивность X и плотность т розы направлений процесса волокон: X = -Ц* ЖфМф, ш(ф) = ± (Жф) + /Г(ф)Х Для прямолинейных волокон имеются результаты по сте- реологии второй моментной меры (см. [6J, [4]). Напр., пусть имеется инвариантное относительно группы евклидовых движений случайное поле отрезков {s{} на плоскости, и пусть L(B) обозначает общую длину отрезков из {s,} (или их частей), попадающих в борелевское множество Вс И? . Пусть, но определению, mx(B) = EL(B), w2(B1xB2) = E[L(B1) L(B2)]; тх называется первой, а т2 - второй моментной мерой случайной меры L. Пусть wt и т2 локально конечны. Тогда тх(В) = у\\в\\, где || • || - мера Лебега на И?2, а у>0- нек-рая постоянная. Если рассматривается точечный процесс пересечений {хг} = {з{Г\д0} процесса {s(} с фиксированной прямой #0 cz И? , то решение стереологич. задачи для тх дается
соотношением у=кХ/2, где А, - интенсивность {xj; m2 не может быть вычислена только в терминах точечного процесса {#,}. Если рассматривается маркированный точечный процесс {х{, у-}, где \\fj - угол, под к-рым происходит пересечение в точке х{, то при широких условиях общего характера, накладываемых на процесс {s(}, вторая моментная мера v2 процесса {х{, \\f{} вместе с функцией распределения F длины типичного отрезка из {s,} однозначно определяют т2 с помощью нек-рых интегральных формул (см. [4]). Имеется ряд результатов, позволяющих при наличии распределения процесса пересечений определять не только средние величины, но и распределения «типичных» элементов геометрич. процессов. Так, распределение диаметра «типичного» круга, возникающего при пересечении фиксированной плоскости со случайным процессом шаров, связано с распределением диаметра «типичного» шара интегральным уравнением Абеля (см. [5]). Распределение длины «типичного» отрезка М-инвариантного случайного процесса отрезков нельзя вычислить в терминах точечного процесса пересечений отрезков с прямой. Однако эта задача имеет решение, если отрезки процесса с вероятностью 1 образуют случайную мозаику. См. также Стохастическая геометрия, Случайное сечение многогранника. Лит.: [1] Салтыков С. А., Стереометрическая металлография, М. 1976; [2] Geometrical probability and biological structures, B.- [a. o.], 1978; [3] Сантало Л. А., Введение в интегральную геометрию, пер. с англ., М., 1956; [4] Амбарцумян Р. В., Мекке Й., Штойян Д., Введение в стохастическую геометрию, М., 1989; [5] Кендалл М., Моран П., Геометрические вероятности, пер. с англ., М., 1972; [6] Mecke J., «Probab. and Math. Statist.», 1981, v. 2, p. 31-35. Г. С. Сукиасяп. МАТЕМАТИЧЕСКОЕ ОЖИДАНИЕ (expectation/mean value/expected value), среднее значение, случайной величины - числовая характеристика распределения вероятностей случайной величины. Самым общим образом М. о. случайной величины Х(со), (йеО. [обозначается ЕХ(ш), иногда МХ(о))], определяется как интеграл Лебега по отношению к вероятностной мере Р в исходном вероятностном пространстве (Q, .«/, Р): ЕХ(со) = |дХ(со)Р(<Ы. (*) М о. может быть вычислено и как интеграл Лебега от х по распределению вероятностей Рх величины X: EXW = \rxPx(dx), где Л'- множество всех возможных значений X. М. о. функций от случайной величины X выражается через распределение РА-: напр., если X - случайная величина со значениями в IR и fix) - однозначная борелевская функция х, то ЕДХ)=|дДХ(со))Р(^со) = /|?1 f(x)Px(dx). Если F(x) - функция распределения X, то М. о. представимо интегралом Лебега - Стилтьеса (или Римана - Стилтьеса): ЕХ=Г°° xdF(x), J—oo при этом интегрируемость X в смысле (*) равносильна конечности интеграла f_°° xdF(x). В частных случаях, если X имеет дискретное распределение с возможными значениями xk, k= l, 2, ..., и соответствующими вероятностями pk = Р{со: Х(со) = xk), то если X имеет абсолютно непрерывное распределение с плотностью вероятности р(х), то EX = f°° xp(x)dx; при этом существование М. о. равносильно абсолютной сходимости соответствующего ряда или интеграла. Основные свойствам, о.: а) EX^EX2, если Х^со) ^Х2(со), сое О; б) ЕС = С для любого действительного С; в) Е(аХ1 + РХ2) = aEXj + PEX2 для любых действительных г) Е(ЕГ=1Хя]=1,Г=1 ЕХп> если сходится ряд£Г=1 Е|Х„|; д) д(ЕХ) ^ Ед(Х) для выпуклых функций д(х)\ е) любая ограниченная случайная величина имеет конечное М. о. Кроме того, ж) Е( Y[n, _.Xk ]= Yil-i ^k для взаимно независимых случайных величин Xj, ..., Хп. Естественным образом можно определить понятие случайной величины с бесконечным М. о. Типичным примером служат времена возвращения в нек-рых случайных блужданиях (см., напр., Бернулли блуждание). С помощью М. о. определяются многие числовые и функциональные характеристики распределения (как М. о. соответствующих функций от случайной величины), напр. производящая функция, характеристическая функция, моменты любого порядка, в частности дисперсия. М. о. есть характеристика расположения значений случайной величины (среднее значение ее распределения). В этом качестве М.о. служит нек-рым «типичным» параметром распределения и его роль аналогична роли статич. момента - координаты центра тяжести распределения массы - в механике. От прочих характеристик расположения, с помощью к-рых распределение описывается в общих чертах, - медиан, мод - М.о. отличается тем большим значением, к-рое оно и соответствующая ему характеристика рассеяния - дисперсия - имеют в предельных теоремах теории вероятностей. С наибольшей полнотой смысл М. о. раскрывается законом больших чисел (см. также Чебышева неравенство) и усиленным законом больших чисел. В частности, для последовательности взаимно независимых и одинаково распределенных случайных величин Xj, ..., Хп с конечными М.о. a = EXk при и->°° для любого е > О Р{ | (ДГ| + ... +Хп)/п-а\>Е}^0, и, более того, (Xj + ... +Хп)/п -+а почти наверное. Понятие М. о. как ожидаемого значения случайной величины впервые наметилось в 18 в. в связи с теорией азартных игр. Первоначально термин «М.о.» был введен как ожидаемый выигрыш игрока, равный V xkpk для возможных выигрышей Х\, ..., хп и соответствующих вероятностей рх, ..., рп. Особые заслуги в обобщении и использовании понятия М. о. в современном значении имеет П. Л. Чебышев. Лит.: [1] Колмогоров А. Н., Основные понятия теории вероятностей, 2 изд., М., 1974; [2] ФеллерВ., Введение в теорию вероятностей и ее приложения, пер. с англ., т. 1-2, М., 1984; [3] Л оэв М., Теория вероятностей, пер. с англ., М., 1962; [4] Крамер Г., Математические методы статистики, пер. с англ., 2 изд., М., 1975. А. В. Прохоров. МАТЕМАТИЧЕСКОЕ ОЖИДАНИЕ случайного множества (expectation of a random set) A - множество E/l = {Ecx:cxeSelC4)}, МАТЕМАТИЧЕСКОЕ 335
где А - почти наверное компактное и непустое подмножество векторного пространства, Sel (A) - семейство измеримых селекторов А, то есть таких случайных величин а, что Р{аеА}= 1 (оно по необходимости непусто). В векторном метрич. пространстве с метрикой р М. о. случайного множества является компактом в том и только в том случае, если Е sup p(x, 0) <+<*>. Если А почти наверное хе А выпукло, то Б4 выпукло; если вероятностное пространство (Q, .</, Р), на к-ром задано Л, таково, что вероятностная мера Р не имеет атомов (то есть для любого coeQ событие {со} имеет нулевую вероятность), то ЕЛ выпукло без предположения о выпуклости А. М. о. является одной из важнейших характеристик распределения случайного множества наряду со средним значением случайного множества и может быть выражено через Стилть- еса - Минковского интеграл и псевдоинтеграл. Лит.: [1] Матерон Ж., Случайные множества и интегральная геометрия, пер. с англ., М., 1978; [2] АркинВ. И., Евстигнеев И. В., Вероятностные модели управления и экономической динамики, М., 1979. Я. Н. Ляшенко. МАТЕМАТИЧЕСКОЕ ОЖИДАНИЕ случайного эле мента (expectation of a random element), среднее значение случайного элемента - интеграл jXdP, определенный тем или иным образом, если он существует. [Здесь под случайным элементом понимается измеримое отображение X вероятностного пространства (Q, &, Р) в линейное топологич. пространство Т\. Напр., если Е - банахово пространство, то под j XdP понимают обычно Петтиса интеграл или Бохнера интеграл. Смысл и значение М. о. случайного элемента такие же, как и классич. понятия математического ожидания случайной величины. М.о., будучи «типичным» значением случайного элемента, является характеристикой расположения значений случайного элемента. Оно широко используется для нормировки в предельных теоремах теории вероятностей для случайных элементов. Лит.: [1] ВаханияН.Н., Тариеладзе В. И., ЧобанянС. А., Вероятностные распределения в банаховых пространствах, М., 1985; [2] AraujoA., Gine E., The central limit theorem for real and Banach valued random variables, N. Y., 1980. В. В. Сазонов. МАТЕМАТИЧЕСКОЕ ОЖИДАНИЕ эмпирического распределения (expectation of empirical distribution) - см. Выборочное среднее. МАТЕМАТИЧЕСКОЙ СТАТИСТИКИ ТАБЛИЦЫ (tables of mathematical statistics/statistical tables) - численные таблицы, применяющиеся для получения статистических выводов при анализе конкретных данных, а также для промежуточных статистических расчетов. Необходимость специальных таблиц для методики стати- стич. выводов была осознана давно. В нач. 20 в. основатели английского журнала «Biometrika», в частности К. Пирсон (К. Pearson), поставили одной из своих целей создание численных таблиц, к-рые «уменьшают труд статистической арифметики». В 1914 многие таблицы, опубликованные ранее в различных номерах этого журнала, а также нек-рые неопубликованные, были объединены в 1-м томе «Tables for Statisticians and Biometricians». В 1931 К. Пирсон выпустил второй том таблиц того же названия, объединивший многие таблицы, опубликованные в журнале «Biometrika» в 1914-30. Быстрое развитие теории статистич. выводов и появление новой вычислительной техники стимулировали создание большого числа новых, более современных таблиц. Одним из наиболее попу- 336 МАТЕМАТИЧЕСКОЕ лярных в международной практике сборников статистич. таблиц является сборник Э. Пирсона и X. Хартли [1], отразивший, с одной стороны, основные достижения английской школы Р. Фишера (R. Fisher), а с другой - школы Ю. Неймана и Э. Пирсона (J. Neyman, E. Pearson). В СССР издан другой, ставший классическим сборник таблиц Л. Н. Болыиева и Н. В. Смирнова [2]. М. с. т. по характеру довольно разнообразны, но в основном это все же таблицы различных распределений (напр., распределение Колмогорова, х -распределение, биномиальное распределение, гипергеометрич. распределение), таблицы их обратных функций - так наз. таблицы процентных точек, графики и номограммы. Табулирование распределений чаще всего требует составления целого набора таблиц в зависимости от различных значений параметров, напр.: набор таблиц х -распределения, соответствующих различному числу степеней свободы, таблицы биномиальных распределений, соответствующих различным значениям вероятности «успеха» и числа наблюдений, или, наконец, набор таблиц гипергеометрич. распределения, зависящего от трех параметров. Таким образом, составление хороших таблиц сопряжено с построением удобной интерполяции и экстраполяции не только по основной переменной, но и по параметрам. Задача экстраполяции но параметрам прямо связана с предельными теоремами для распределений, и поэтому составление таблиц распределений нуждается в оценке точности предельных теорем и в построении различных асимп- тотич. формул. Напр., при табулировании функции Г-рас- пределения (в частности, х -распределения) Г(т, х) при больших т можно воспользоваться приближенным равенством Г(т, х)=Ф((х-т)/^1'2т), к-рое основано на классич. предельной теореме lim Г(т, yyl'2m +т) = Ф(у), где Ф(у) обозначает подробно табулированную функцию стандартного нормального распределения, но гораздо точнее и экономнее использовать видоизменение этого равенства Г(т, х)=Ф{<2х-<2т) и табулировать разность Г(т, (у + <2т)2/2)-Ф(у). Авторский комментарий в сборнике [2] дает образец разнообразного использования таких улучшенных асимитотич. выражений. В связи с возросшими запросами практики возникает необходимость увеличения точности таблиц. Это связано с повышением роли таблиц в промежуточных вычислениях и в использовании их для прикидочных расчетов в теоретич. исследованиях. Напр., вычисление критич. значений критерия резко выделяющихся наблюдений требует знания квантилей распределения Стьюдента с несколькими запасными десятичными знаками; квантили бета-распределения можно оценить по квантилям гамма-распределения, вычисленным с большой точностью. Относительно новым вычислительным средством матема- тич. статистики служат пакеты статистич. программ для ЭВМ. Часто эти пакеты содержат и программы, предназначенные для вычисления определенных распределений и их квантилей. От таких программ требуется обычно быстродействие. В отличие от них программы, предназначенные для составления таблиц, не обязаны обладать быстродействием, но зато должны вычислять с большой точностью; часто они основаны на специальных приемах вычислений. В ряде случаев таблицы сами являются частью пакета.
Существуют случаи, когда табулирование вовсе не имеет альтернативы ни в виде приближенной формулы, следующей из предельной теоремы, ни в виде простых быстродействующих программ в пакете. Так, для вычисления вероятностей невыхода эмпирич. процесса за криволинейные границы существуют предельные теоремы (см. [3]) при числе наблюдений и—>°°. Однако табулирование этих вероятностей при конечных п показало, что они сколько-нибудь близки к предельным выражениям лишь при п порядка нескольких тысяч (см. [4|). Для меньших п необходимо табулирование. С другой стороны, включать программу, с помощью к-рой вычислялись эти вероятности невыхода, в пакет малоцелесообразно - сложность вычисления быстро возрастает с ростом п и уже при п~ 100-150 требуется заметное машинное время. В сборнике [2] приведена комментированная библиография но М. с. т. Лит.: 111 Pear son E. S., Hartley H. О. [eds], Biometrika tables for statisticians, 3 ed., v. 1, Camb., 1966; [2] БольшевЛ.Н., Смирнов Н. В., Таблицы математической статистики, 3 изд., М., 1983; [3] Jaeschke D., «Ann. Statist», 1979, v. 7, № 1, p. 108-15; [4] КотельниковаВ.Ф., Х м ал адзе Э. В., «Теория вероятн. и ее примен.», 1982, т. 27, в. 3, с. 599-607; [5] Оуэн Д. В., Сборник статистических таблиц, пер. с англ., М., 1966; [6] Johnson N. L., Kotz S., Continuous univariate distributions, v. 1-2, N. Y., 1970; [7] их же, Discrete distributions, Boston, 1969; [8] их же, Continuous multivariate distributions, N. Y., 1972; [9] ХастингсН., Пи- кок Д., Справочник но статистическим распределениям, пер. с англ., М., 1980; [10] М ар гы нов Г. В., в кн.: Итоги науки и техники. Сер. Теория вероятностей. Математическая статистика. Теоретическая кибернетика, т. 26, М., 1988, с. 151-203. В. И. Пагурова, Э. В. Хмаладзе. МАХАЛАНОБИСА МЕТРИКА (Mahalanobis metric) - см. Махаланобиса расстояние. МАХАЛАНОБИСА РАССТОЯНИЕ (Mahalanobis distance) - величина, характеризующая расстояние между двумя распределениями: оМц.-ц^гЧц,-^), где ц^, |i2 ~ векторы средних, I - ковариационная матрица, предполагаемая одинаковой для обоих распределений. Введено П. Махаланобисом [1]. Если распределения нормальны, то величина М. р. функционально связана с вероятностью ошибочной классификации при использовании линейной дискриминантной функции. Выборочная оценка D М. р. получается подстановкой оценок векторов средних и матрицы ковариаций. Эта оценка с точностью до множителя совпадает со статистикой Хоттелинга. В случае если выборки извлекаются из нормальных распределений, несмещенной оценкой М. р. будет £2 _ Щ+п2-р-2 (f)2__P___P_>\ щ +п2 -2 ^ щ п2 ) где nif i=\, 2, - объем выборки для г-го распределения, р - размерность пространства. Если матрицы ковариаций неодинаковы, иногда применяют аналоги М. р. вида D2 = (ц2 - u^al, + ps2)"1(|x1 - \i2), где a, P - нек-рые неотрицательные константы. В многомерном статистич. анализе, напр. в кластер-анализе, используется также метрика Махаланобиса, основанная на расстоянии типа М. р. между парой векторов X и У: d2(X, Y) = (X-Y)TIT\X-Y), где X - нек-рая положительно определенная матрица, напр. оценка матрицы ковариаций. Лит.: [1] Mahalanobis Р. С, «Proc. Nat. Inst. Sci. India», 1936, v. 12, p. 49-55; [2] Андерсон Т., Введение в многомерный статистический анализ, пер. с англ., М., 1963. ц^ q Енюков. МГНОВЕННАЯ СПЕКТРАЛЬНАЯ ПЛОТНОСТЬ (instantaneous spectral density) - см. Спектральные теории нестационарных случайных процессов. МГНОВЕННОЕ СОСТОЯНИЕ (instantaneous state) - такое состояние х однородного марковского процесса, что плотность вероятности выхода из х бесконечна: ,. /, ч А ,. \-pit, х, х) hm p{t, x, x) = 1, q = hm— = +°°, tiO tiO t где p(t, x, x) - вероятность перехода из х в х за время t. Существование М.с, обнаруженное в 1951 А. Н. Колмогоровым и независимо П. Леви (P. Levy), послужило толчком к дальнейшему развитию теории марковских процессов со счетным множеством состояний. Термин «М.с.» принадлежит П. Леви. Множество моментов t пребывания траектории в М. с. либо почти наверное пусто, либо имеет положительную лебегову меру (и даже метрически плотно в себе), но нигде неплотно. М.с. противопоставляется устойчивому состоянию. Лит.: [1] Чжун Кай-лай, Однородные цепи Маркова, пер. с англ., М., 1964. А. А. Юшкевич. МЕДИАНА (median) - числовая характеристика распределения вероятностей случайной величины на прямой. Пусть X - случайная величина с функцией распределения Fix). Медианой случайной величины X (или распределения F) называется любое число т такое, что Р{Х^т}^ 1/2 и Р{Х^ т}^ 1/2. М. всегда существует, но, вообще говоря, определяется неоднозначно. Наряду с математич. ожиданием М. служит важной характеристикой расположения случайной величины и часто используется для центрирования. В математич. статистике для оценки М. по независимым результатам наблюдений Xj, ..., Хп используют выборочную медиану-М. соответствующего вариационного ряда Х(1), ..., Х(гг): величину Х(^+1), если и = 2/г+1 нечетно, и (X(£) + X(£+1))/2, если п-lk четно. Лит.: [1] Крамер Г., Математические методы статистики, пер. с англ., 2 изд., М., 1975. В. Г. Ушаков. МЕДИАННО НЕСМЕЩЕННАЯ ОЦЕНКА (median-unbiased estimator) - статистическая оценка, медиана к-рой совпадает с оцениваемой величиной. Пусть по реализации случайного элемента X, принимающего значения в выборочном пространстве (£, 91, Р0), в 6 0, надлежит оценить параметр в. Далее, пусть Т= Т(Х) - статистич. оценка для в, построенная по наблюдениям X, и пусть med074X) - медиана оценки Т. Если med0r(X) = 6 при всех в е 0, то Т называется медиан- но несмещенной о ц е н к о й параметра в. Оценка Т параметра в называется, согласно [1], несмещенной относительно функции риска EQL(T, в), если EQL(T, e)^E0L(7\ в') при всех в'*в, где L(T, в) - заранее выбранная функция потерь. Пусть, напр., L=\T-Q\, тогда для любой оценки Т, для к-рой Е0|Г| <°°, понятия медианной несмещенности и несмещенности относительно функции риска Е0|Г-в| совпадают. Лит.: [1] Леман Э., Проверка статистических гипотез, пер. с англ., 2 изд., М., 1979; [2] VoronovV.G., NikulinM.S., Un- baised Estimators and their Application, v. 1 - Univariale Case, Dord- rect, 1993. M. С. Никулин. МЕДЛЕННОЕ ЗАМИРАНИЕ (slow fading) - см. Замирания в канале. МЕЙЕРА РАЗЛОЖЕНИЕ (Mayer expansion) - см. Урселла функции. МЕЛЛИНА - СТИЛТЬЕСА ПРЕОБРАЗОВАНИЕ (Mellin - Stieltjes transform) - интегральное преобразование функции МЕЛЛИНА 337
распределения Fx неотрицательной случайной величины X вида рассматриваемое для комплексных s из нек-рой полосы -а ^ Re s ^ р, где а, Р ^ 0. Для значений s = it, t e IP1, М.- С. п. существует всегда и в случае Р {X = 0} = 0 совпадает с характе- ристич. функцией случайной величины logX. Если Fx имеет плотность рх, то \ix(s - 1) совпадает с используемым в теории аналитич. функций преобразованием Меллина функции рх. В схеме перемножения случайных величин, для неотрицательных случайных величин М.- С. п. выполняет ту же роль, что и характеристич. преобразование в общей ситуации. С преобразованием Лапласа - Стилтьеса <px(q) = Eexp (—qX) функции распределения Fx М.- С. п. связано равенством r(l-s)^ix(s)+J~ x~sdyx(x) = Q, -a^Res^mind, p). Лит.: [1] Титчмарш Е., Введение в теорию интегралов Фурье, пер. с англ., М. - Л., 1948; [2J Ф ел л ер В., Введение в теорию вероятностей и ее приложения, пер. с англ., т. 2, М., 1984; [3] Золотарев В. М., «Теория вероятн. и ее примен.», 1957, т. 2, в. 4, с. 444-69. В. М. Золотарев. МЕРА (measure) - обобщение понятия длины отрезка, площади плоской фигуры и объема тела на множества более общей природы. В самом общем виде М. представляет собой счетно-аддитивную функцию множеств. Однако наиболее важную роль как в теоретич. плане, так и в приложениях играют числовые меры (то есть М., принимающие числовые значения). Областями определения таких М., как правило, служат различные полукольца, кольца и а-кольца множеств. Пусть S - нек-рая непустая система частей основного базисного пространства X. Говорят, что S является полукольцом множеств (в X), если справедливы соотношения О YeS&ZeS^YOZeS; 2) каковы бы ни были YeS и Z eS такие, что YcZ} всегда найдется конечное дизъюнктное семейство (У;)к;<т элементов из 5", объединение к-рого совпадает с Z и у к-рого 7t = У (причем w^2). Пустое множество принадлежит любому полукольцу множеств S в пространстве X. Если к тому же Хе5\ то S называется полуалгеброй множеств вХ. Кольцом множеств вХ называется всякая непустая система S частей основного базисного пространства X, обладающая следующими свойствами: 1) YeS&ZeS^YUZeS; 2) YeS&ZeS^>Y\ZeS. Наименьшее по включению кольцо множеств, содержащее данное полукольцо множеств, совпадает с классом всевозможных объединений и1<-<шУу, где (Уу)1 </<т — произвольное конечное дизъюнктное семейство элементов данного полукольца. Если кольцо множеств S в пространстве X таково, что X е 5, то S называют алгеброй множестве пространстве X. Кольцо множеств называют а-кольцом множеств, если оно замкнуто относительно всевозможных счетных объединений своих элементов. Частным случаем понятия а-кольца является понятие а-алгебры. Пусть S - произвольное полукольцо множеств в X, а |Х - нек-рая функция, определенная на 5 и принимающая значения в расширенной действительной прямой IP. Говорят, что функция |х представляет собой (числовую положительную) меру, если: 338 МЕРА 1) ц(У)^0, YeS, 2) функция \i счетно-аддитивна, 3)д(0) = О. Для любого YeS значение \i(У) называется |х-мерой множества У (или, просто, мерой множества У, если из контекста ясно, что речь идет о |х). Говорят, что У есть множество конечной меры, если |х( У) < +<*>. Множество УсХ называется множеством а-конечной меры, если У представимо в виде объединения счетного семейства множеств конечной М. Мера |Х называется а-к онечной, если основное базисное пространство X является множеством а-конечной М. Сходным образом, М. |Х называется конечной, если ц(У) < +°о для всякого YeS [в том случае, когда Хе5, последнее условие равносильно условию |х(Х) < +<»]. Говорят, что \iесть нормированная (или вероятностная) мера, если X е S и |х(Х) = 1. Пусть |х - М. на нек-ром полукольце S частей основного базисного пространства X; H(S) - класс всех тех частей пространства X, каждую из к-рых можно покрыть счетным семейством элементов из полукольца S. Для любого множества Z е H(S) полагают U'(Z) = inf{XI.e/n(y,):(Vi)1£/ есть счетное покрытие множества Z элементами из S. Тем самым на классе H(S) определяется функция |Х*, к-рую обычно называют внешней мерой, ассоциированной с исходной М. |Х. Множество У еH(S) называют |х*-измеримым, если для произвольного множества Z e H(S) выполняется равенство u*(Z) = u*(Zny) + u*(Z\y). Совокупность 5* всевозможных |Х*-измеримых множеств представляет собой а-кольцо, к-рое целиком содержит в себе исходное полукольцо S. Сужение функций |Х* на а-кольцо 5* представляет собой полную меру, служащую продолжением М. |Х (теорема Каратеодори). В частности, исходная М. (X всегда допускает продолжение на а-кольцо, порожденное данным полукольцом S. Если исходная М. |Х является а-конечной, то такое продолжение единственно (см. Продолжение мер). Без существенного ограничения общности, можно рассматривать только такие М., к-рые определены на а-кольцах множеств. Обычно рассматривают упорядоченные тройки вида (X, 5, |х), где X - основное базисное пространство, S - нек-рое а-кольцо подмножеств пространства X, а |Х - нек-рая М., определенная на а-кольце S. Всякая тройка такого вида называется пространством с мерой. Всякая пара вида (X, 5), где X - основное базисное пространство, a S - нек-рое а-кольцо частей от X, называется измеримым пространством. Если (X, 5, |х) - пространство с М., то пара (5, |х) представляет собой структуру вполне определенного рода (структуру М.) на основном базисном множестве X. Таким образом, теорию М. в общих чертах можно охарактеризовать, как математич. теорию, изучающую структуры указанного рода. Однако на практике весьма часто встречаются ситуации, в к-рых структура М. тесно взаимодействует со структурами различных других родов. Напр., если само основное базисное множество X наделено нек-рой топологией, а а-кольцо S каким-то образом связано с этой топологией, то имеет смысл говорить о топологич. свойствах М. ц, задаваемой на а-кольце S. Типичным примером подобной ситуации является тот случай, когда S представляет собой борелевскую а-алгеб- ру топологич. пространства X. В этом случае М. |Х, задаваемая
на S, называется борелевской мерой. Свойства такой М. существенно зависят от топологич. свойств самого пространства X. Другим типичным примером взаимодействия структуры М. со структурами иного рода (именно, алгебраич. структурой) может служить тот случай, когда основное базисное множество X наделено нек-рой группой (или даже полугруппой) своих преобразований, относительно к-рых М. |i в определенном смысле устойчива. В этом случае можно говорить об алгебраич. свойствах М. |i: о ее квазиинвариантности или о ее инвариантности относительно данных преобразований (см. Пространство с мерой). Встречаются и такие ситуации, когда основное базисное множество X одновременно наделено тремя структурами: мерой, топологией и алгебраич. структурой, тесно связанными между собой. Так будет, напр., когда пространство X представляет собой локально компактную топологич. группу, а (х - борелевскую меру Хаара на Ху инвариантную относительно переносов этой группы. Для общих пространств с М. естественным образом вводится понятие морфизма (гомоморфизма), а для общих измеримых пространств соответственно вводится понятие измеримого отображения (см. Пространство с мерой), С помощью этих исходных понятий, в терминах инициальных и финальных структур, по обычной схеме вводятся такие понятия, как произведение мер, образ М. при отображении, прообраз М. относительно отображения и т.п. Основные вопросы общей теории М. концентрируются именно вокруг этих понятий, причем главное внимание уделяется изучению таких свойств М., к-рые в определенном смысле сохраняются при гомоморфизмах или измеримых отображениях (напр., гомоморфный образ любой вероятностной М., очевидно, является вероятностной М., в то время как гомоморфный образ а-конечной М., вообще говоря, не будет а-конечной М.). Исходными моделями для построения абстрактной теории М. послужили такие классич. математич. объекты, как мера Жордана и мера Лебега в обычном евклидовом пространстве IP". Определение меры Жордана исторически предшествовало определению меры Лебега, причем оно естественно сформировалось в рамках евклидовой геометрии и классич. математич. анализа. Для того чтобы определить меру Жордана, как правило, исходят из класса простейших геометрич. фигур в евклидовом пространстве IP" - класса всевозможных многогранников в этом пространстве. (Многогранником называют всякое подмножество пространства II?", ггредставимое в виде объединения конечного семейства замкнутых и-мерных симплексов в IP"; в частности, пустое множество является многогранником в IP".) Обычным способом определяется объем произвольного многогранника в IP". Множество У с: IP" называется измерим ым в смысле Жордана, если, каково бы ни было действительное число е>0, найдутся многогранники Z с IP" и Z' с IP" такие, что Z с У с Z', v(Z') - v(Z) < e, где v - стандартная функция объема в пространстве IP", заданная на классе всех многогранников. Совокупность всевозможных измеримых по Жордану подмножеств пространства IP" представляет собой кольцо множеств. На это кольцо функция v продолжается с помощью формулы v(Y) = sup{v(Z) :Z с У и Z есть многогранник в IP"}, где У - любое измеримое по Жордану подмножество пространства IP". Полученная таким образом функция v и называется мерой Жордана (жордановым объемом) в пространстве IP". Жорданов объем является конечно-аддитивной функцией множеств, инвариантной относительно изомет- рич. преобразований пространства IP". Однако было замечено Э. Борелем (Е. Borel), что жорданов объем одновременно является и счетно-аддитивной функцией множеств. Это обстоятельство позволило в дальнейшем ввести определение меры Лебега, к-рую коротко можно охарактеризовать как наименьшую (по включению) полную М. в пространстве IP", заданную на а-кольце множеств и служащую продолжением жорданова объема. Мера Лебега также инвариантна относительно изометрич. преобразований пространства IP". Множества, принадлежащие области определения меры Лебега, называются измеримыми в смысле Лебега. Всякое боре- левское подмножество пространства IP" оказывается измеримым в смысле Лебега, но существуют измеримые по Лебегу множества, не являющиеся борелевскими (существуют даже измеримые по Жордану множества, не являющиеся борелевскими). Совокупностью измеримых по Лебегу множеств не исчерпывается класс всех подмножеств пространства IP". В свое время различными методами было установлено существование таких подмножеств пространства IP", к-рые неизмеримы в смысле Лебега. Все эти методы в основе своей опирались на аксиому выбора. Последнее обстоятельство оказалось не случайным. Было доказано (Р. Солловеем, R. Sol- lovay, 1970), что без использования несчетных форм аксиомы выбора невозможно установить существование неизмеримых по Лебегу множеств в пространстве IP". В пространстве IP" можно строить М., инвариантные относительно его изометрич. преобразований и служащие строгими продолжениями меры Лебега (см. [8]). Вопрос о существовании аналога меры Лебега в бесконечномерном векторном топологич. пространстве решается отрицательно уже для бесконечномерного сепарабельного гильбертова пространства (см. [5]). Говоря точнее, имеет место следующее утверждение: если Е - бесконечномерное сепарабельное банахово пространство и G - подгруппа аддитивной группы Еу не содержащаяся в объединении счетного семейства компактов из Е, то на борелевской а-алгебре пространства Е нельзя определить ненулевую а-конечную М., квазиинвариантную относительно параллельных переносов из G. При G-E это утверждение непосредственно вытекает из того факта, что замкнутый единичный шар (а также любое ограниченное выпуклое тело) в пространстве Е является неизмеримым по отношению ко всякой ненулевой а-конечной Е-квазиинвариан- тной М., заданной на какой-либо а-алгебре частей пространства Е. Если Е - несепарабельное банахово пространство, а G - всюду плотная подгруппа аддитивной группы Е, то даже на а-алгебре, порожденной всевозможными шарами в Е} нельзя определить ненулевую а-конечную М., квазиинвариантную относительно параллельных переносов из G. С другой стороны, если Е - бесконечномерное сепарабельное гильбертово пространство, то в Е существуют ненулевые а-конечные боре- левские М., инвариантные (а следовательно, и квазиинвариантные) относительно нек-рых всюду плотных векторных подпространств в Е. Если отказаться от требования, что М. должна быть борелевской, то с помощью несчетных форм аксиомы выбора в бесконечномерном сепарабельном гильбертовом пространстве Е можно построить М., изоморфную обычной мере Лебега на действительной прямой IP и инвариантную относительно всех параллельных переносов пространства Е (см. [9]). Основным объектом исследования абстрактной теории М. является общее пространство с М., то есть тройка вида (X, 5, |i). Среди таких пространств особо выделяются вероятностные пространства, то есть тройки вида (X, S, |i), где XeS и 1x00 = 1. Вероятностные пространства служат основным объектом исследования теории вероятно- МЕРА 339
стей. Одним из важных вопросов для абстрактной теории М. является следующий: насколько богатым может быть а-кольцо S при условии, что на нем можно задать вероятностную М., принимающую нулевые значения на всех одноэлементных подмножествах пространства X? В частности, может ли при этом условии а-кольцо S совпадать с множеством всех подмножеств пространства X? Если предположить справедливость нек-рых теоретико-множественных гипотез (в какой-то степени ограничивающих мощность базисного пространства X), то удается доказать, что а-кольцо S всегда отлично от совокупности всех подмножеств пространства X (в этом случае говорят также, что мощность пространства X неизмерима в широком смысле). Если предположить, что выполняется гипотеза континуума, то можно даже построить такую счетно-порож- денную а-алгебру частей отрезка [0, 1], на крой нельзя определить вероятностную М., принимающую нулевые значения на одноточечных подмножествах этого отрезка (см. [9]). Для М., рассматриваемых в (отделимых) топологич. пространствах, важнейшим понятием является понятие регулярности меры (в том или ином смысле). Пусть X- топологич. пространство, а |Х - числовая положительная функция, заданная на нек-ром классе частей пространства X, обозначаемом dom (|х). Говорят, что функция |Х внутренне регулярна, если для любого множества Уеdom (|х) справедливо равенство ц<У) = sup{uXZ):Zedom(^i), Zc У и Z замкнуто в X}. Говорят, что функция |Х внешне регулярна, если для любого множества У е dom(|x) справедливо равенство ц{У) = inf{u<Z):Zedom(u), Ус Z и Z открыто в X}. Говорят, что функция |Х регулярна, если она одновременно является и внутренне, и внешне регулярной функцией множеств. Пусть |Х - произвольная конечная положительная аддитивная функция, определенная на нек-рой алгебре частей топологич. пространства X. Тогда соотношения: 1) (X внутренне регулярна, 2) (X внешне регулярна, 3) \i регулярна эквивалентны между собой. Имеет место следующая теорема Александрова: всякая конечная положительная аддитивная регулярная функция, заданная на какой-либо алгебре частей компактного топологич. пространства, является счетно-аддитивной функцией (то есть представляет собой М. на этой алгебре). Числовая положительная функция |Х, определенная на нек-ром классе подмножеств топологич. пространства X, называется внутренне компактно регулярной, если для каждого множества У е dom(jx) выполняется равенство \i(Y) = sup{uXZ):Zedom(uX Zc У и Z есть компакт в X}. Мера Бореля |Х в топологич. пространстве X называется мерой Радона, если она внутренне компактно регулярна и локально конечна [последнее означает, что любая точка х из X обладает открытой окрестностью U(x), для к-рой |х(£/(#))< +<*>]• Пусть Х- произвольная локально компактная топологич. группа. Тогда на борелевской а-алгебре группы X можно задать единственную (с точностью до постоянного коэффициента) ненулевую меру Радона |х, инвариантную относительно всех (левых) переносов этой группы. Указанная М. (X называется (левой) мерой Хаара топологич. 340 МЕРА группы X. Обратно, если на борелевской а-алгебре топологич. группы X существует хотя бы одна ненулевая мера Радона, инвариантная относительно всех (левых) переносов этой группы, то X представляет собой локально компактную топологич. группу (А. Вейль, A. Weil). Классич. меру Лебега в евклидовом пространстве II?", можно рассматривать как пополнение такой меры Хаара в II?", к-рая принимает значение 1 на единичном координатном кубе пространства II?". Отделимое топологич. пространство называется радоновым (соответственно сильно радоновым), если каждая конечная (соответственно локально конечная) борелевская М. в нем является внутренне компактно регулярной. Радоново топологич. пространство, обладающее свойством Линделефа, всегда сильно радоново (свойство Линделефа, для топологич. пространства означает, что из любого открытого покрытия этого пространства можно выделить счетное подпокрытие). Важнейшими примерами сильно радоновых пространств служат суслинские пространства, то есть такие метризуемые топологич. пространства, к-рые являются непрерывными образами польских топологич. пространств. В частности, всякое польское пространство будет сильно радоновым (С. Улам, S. Ulam). Если X - произвольное метрич. пространство, мощность к-рого неизмерима в широком смысле, то для каждой а-конечной меры Бореля |Х в X сущестьует сепарабельный носитель, то есть такое сепарабельное замкнутое множество F<=X, что |x(X\F) = 0. Если указанное пространство X полно, то оно будет радоновым (без каких-либо ограничений на мощность метрич. пространства X можно утверждать лишь, что всякая конечная борелевская М. в X является регулярной). Радоновы топологич. пространства обладают также рядом других замечательных свойств, одно из к-рых состоит в их универсальной измеримости (см. [1]). Примером компактного топологич. пространства, не являющегося радоновым, может служить множество всех ординальных чисел, не превосходящих со1 (где coj - первый несчетный ординал), наделенное обычной порядковой топологией. Помимо М., принимающих положительные числовые значения, часто рассматриваются знакопеременные числовые М. (заряды), а также М., принимающие значения в поле комплексных чисел. В более общих ситуациях рассматривают М. со значениями в топологич. векторных пространствах. Пусть (X, 5) - измеримое пространство, причем S - нек-рая а алгебра частей базисного множества X, и пусть Е - топологич. векторное пространство. Говорят, что отображение |х: S ~> Е есть векторная мера, если для любого непрерывного линейного функционала д:Е->№ функция множеств <7о|х: У ->#(|х(У)), Y eS, представляет собой числовую знакопеременную М. с конечной полной вариацией. Во многих важных с точки зрения приложений случаях можно доказать счетную аддитивность векторной М. |Х. В частности, если Е - банахово пространство, то |х представляет собой счетно-аддитивную функцию множеств, принимающую значения в Е. Для того раздела теории М., к-рый связан с бесконечномерными векторными пространствами, особую роль играют понятие измеримого векторного пространства (то есть такого основного базисного множества X, в к-ром векторная структура согласуется со структурой измеримого пространства) и понятие цилиндрической о-алгебры. Сюда же относятся различные теории интегрирования векторнознач- ных отображений (слабое интегрирование по Петтису, сильное интегрирование по Бохнеру и т. д.). Большой раздел в современной теории М. составляет совокупность различных теорем представления: теорема Рисса о представлении непрерывных линейных функционалов посредством интегралов по знакопеременным М. в локально компакт-
ных топологич. пространствах, результаты типа теоремы Шоке о представлении точек выпуклого метризуемого компакта как центров тяжести (барицентров) относительно вероятностных М., сосредоточенных на множестве экстремальных точек этого компакта, нек-рые результаты о метрич. изоморфизмах между М., задаваемыми на абстрактных алгебраич. структурах (напр., на булевых кольцах), и М., задаваемыми на обычных измеримых пространствах, и т. д. Другой большой раздел теории М. связан с введением тех или иных топологий в различные классы М., определяемых на одном и том же а-кольце S частей базисного множества X, и с рассмотрением различных видов сходимости М. Здесь важнейшим понятием является понятие слабой (узкой) сходимости борелевских М. и одним из основных результатов является Прохорова теорема, устанавливающая критерий относительной компактности (в слабой топологии) семейства радоновых вероятностных М., задаваемых на вполне регулярном (то есть тихоновском) топологич. пространстве X. В качестве более специальных вопросов современной теории М можно отметить вопросы о связях между структурой М. и свойством Бэра в топологич. пространствах (см. 110]), а также различные результаты об измеримых селекторах, имеющие многочисленные применения в анализе, общей топологии и теории вероятностей (в частности, в теории случайных процессов и теории стохастич. дифференциальных уравнений). О других М., используемых в теории вероятностей, см. в ст. Случайная мера [винеровская случайная М., гауссовская М., марковская М., М. с независимыми значениями, М. с ортогональными значениями, иуассоновская М., регулярная (рассеяния, диффузная) М., структурная М., считающая М., эмиирич. случайная М.]. См. также Пополнение меры, Продолжение мер, Проективные системы мер, Эквивалентные меры, Элементарная мера. Лит.: [1J Бурбаки Н., Интегрирование. Меры на локально компактных пространствах. Продолжение меры. Интегрирование мер. Моры на отделимых пространствах, пер. с франц., М., 1977; [2] X а л - мош П., Теория меры, пер. с англ., М., 1953; [3] Неве Ж., Математические основы теории вероятностей, пер. с франц., М., 1969; [4| Гихман И. И., Скороход А. В., Введение в теорию случайных процессов, 2 изд., М., 1977; [5] Скороход А. В., Интегрирование в гильбертовом пространстве, М., 1975; [6] Прохоров Ю. В., «Теория вероятн. и ее примем.», 1956, т. 1, в. 2, с. 177-238; [7) Дан- форд Н., Шварц Дж., Линейные операторы. Общая теория, пер. с англ., ч. 1, М., 1962; [8] Харазишви л и А. Б., Инвариантные продолжения меры Лебега, Тб., 1983; [9J его же, Топологические аспекты теории меры, К., 1984; [10] Окстоби Дж., Мера и категория, пер. с англ., М., 1974. А. Б. Харазишвили. МЕРА; вариация (variation of a measure) - см. Вариация меры. МЕРА; допустимый сдвиг (admissible shift of a measure) - см. Допустимый сдвиг меры. МЕРА; носитель (measure; support of) - см. Носитель меры. МЕРА одномерной диффузии (measure of one-dimensional diffusion) - см. Одномерная диффузия. МЕРА с независимыми значениями (measure with independent values) - см. Случайная мера. МЕРА с ортогональными значениями (measure with ortogonal values) - см. Случайная мера. МЕРА случайная (random measure) - см. Случайная мера. а-МЕРА (а-measure) - см. Мера. МЕТЕОРОЛОГИЧЕСКИЙ ПРОГНОЗ альтернатив ный (forecast of meteorological binary variables or event) - см. Альтернативный метеорологический прогноз. МЕТЕОРОЛОГИЧЕСКИХ ИЗМЕРЕНИЙ СТАТИСТИЧЕСКАЯ ТЕОРИЯ (statistical theory of meteorological measurement) - теория измерений параметров турбулентной атмосферы, основывающаяся на статистическом описании турбулентности и статистических критериях оценки точности получаемых результатов. В М.и.с.т. измеряемая величина x = x(t) (температура, влажность воздуха, скорость ветра и т.п.) рассматривается как реализация случайного процесса X(t) определенной ста- тистич. структуры. Обычно для этой цели используются модели стационарных случайных процессов; реже применяются нестационарные модели, учитывающие, напр., суточный ход измеряемой величины. В силу особых свойств метеорологич. спектров (см., напр., [1]) процесс X(t) в ряде случаев может считаться представимым в виде суммы двух статистически независимых составляющих с существенно различными частотными характеристиками: «быстрой» компоненты турбулентных пульсаций и относительно «медленной» компоненты, описывающей заметно более длительные изменения рассматриваемого метеорологич. элемента. Процедура измерения метеорологич. характеристик часто интерпретируется в М.и.с.т. как прохождение случайного метеорологич. процесса X(t) через фильтр Ф, осуществляющий преобразование X(t) в результат измерения Z(t) (см. [2]-[4]). В общем случае преобразование Z(t) =Ф{Х(т)} может включать в себя помимо физич. операций, осуществляемых измерительной системой, также и ряд операций, связанных с обработкой данных, напр. сглаживание, временную дискретизацию, квантование по уровню, интерполяцию, специальную статистич. обработку дискретных отсчетов и т. д. Простейшей моделью, описывающей установившийся режим измерения процесса X(t) линейным прибором, является модель, в к-рой Z(t) представляется в виде Z(O=J0~ h(x)X(t-x)dx, (l) где Мт) - весовая (импульсная переходная) функция соответствующего измерительного прибора. Для многих метеорологич. приборов (см., напр., [2], [5]) можно принять, что Мт)=^-ехр(-т/Г0). (2) 1 о В этом случае величина Г0 характеризует инерцию измерительного прибора и называется его постоянной времени. Для оценки точности получаемых результатов в М.и.с.т. обычно используется средний квадрат ошибки EA2(0 = E[Z(0-G(0]2, (3) где G(t) =А{Х(т)} - величина, к-рую требуется определить в ходе измерения [напр., при измерении мгновенных значений метеорологич. элемента G(t) = X(t); если определяется среднее значение метеорологич. элемента за время Т, то С(0 = (1/п£_гХ(т)</т, и т.д.]. В тех случаях, когда ошибка ЕА (t) зависит от t, точность измерений часто оценивается максимальным (ЕА )тах или средним (ЕА )ср значением величины ЕА (О, определяемым для нек-рого периода [tu t2]. С помощью М. и. с. т. удается достаточно просто решать многие задачи оптимизации измерений и, в частности, находить оптимальные параметры измерительной системы. Другой класс оптимизационных задач, решаемых на основе М. и. с. т., связан с так наз. оптимальной интерпретацией результатов метеорологич. измерений (см. [5]). В этом случае характеристики измерительной системы (то есть оператор Ф), а также общий вид оператора А считаются известными и ставится МЕРА 341
задача отыскания таких параметров Л, для к-рых величина G(t) = Л{Х(х)} будет наиболее близка к Z(0 = O{X(x)}. Типичной задачей такого рода является оптимальная интерпретация результатов измерений, выполняемых с помощью инерционного метеорологич. прибора. В частности, если целью измерений является воспроизведение мгновенных значений стационарного случайного процесса X(t) с экспоненциальной корреляционной функцией гхх(х) = ехр( - |т|Тд.), то, согласно [7], минимум среднего квадрата ошибки (3) будет достигаться в случае, когда показание z линейного прибора с весовой функцией (2) в текущий момент времени t приравнивается к значению в более ранний момент времени V' = t-At, где At = (-*-1„-Ц: {х-1 x + lj TJTX (4) При использовании того же прибора для определения среднего по интервалу [t-T, t] значение Т для широкого класса метеорологич. процессов целесообразно принять приблизительно равным 1,7 Г0. В общеметодич. отношении М. и. с. т.* следует рассматривать как одно из приложений общей статистич. теории физич. измерений (см., напр., [8]—[ 10]). Конкретные результаты, касающиеся использования М. и. ст., см. в [4]-[7]. Лит.: [1] Ламли Дж., Пановский Г., Структура атмосферной турбулентности, пер. с англ., М., 1966; [2) Hall F., «J. Meteor.», 1950, v. 7, № 2, p. 121-29; [3] Petersen D.P., Middleton D., «Tellus», 1963, v. 15, № 4, p. 387-405; [4] Персии СМ., Основы теории и проектирования автоматических измерительных систем, Л., 1975; [5] Яглом A.M., «Труды Геофиз. ин-та АН СССР», 1954, в. 24 (151), с. 112-62; [61 Гандин Л. С, Каган Р. Л., Статистические методы интерпретации метеорологических данных, Л., 1976; [7] Жуковский Е.Е., Киселева Т.Л., Мандельштам С. М., Статистический анализ случайных процессов в приложении к агрофизике и агрометеорологии, Л., 1976; [8] McCom- bie С. W., «Rep. Progress Phys.», 1953, v. 16, p. 266-320; [9] Неми- ровский А. С, Вероятностные методы в измерительной технике, М., 1964; [10) Новицкий П. В., Основы информационной теории измерительных устройств, Л., 1968. Е. Е. Жуковский. МЕТЕОРОЛОГИЧЕСКИХ ПОТЕРЬ ФУНКЦИЯ (meteorological loss function) - неотрицательная функция r(F, d), показывающая, в какой степени снижается выигрыш или возрастают убытки потребителя метеорологической информации, когда вместо наиболее выгодного по отношению к погодным условиям F хозяйственного решения dQ(F) принимается нек-рое другое решение d e Qd, где Qd - множество допустимых решений (см. [1], [2]). М.п. ф. определяет ущерб, возникающий из-за отклонения фактич. погодных условий от ожидаемых, на к-рые осуществлялось планирование. М.п.ф. r(F} d) однозначно связана с функцией полезности m(F, d), устанавливающей для конкретного потребителя определенную шкалу предпочтительности на множестве парных событий (F, d). Если с увеличением и полезность возрастает, то r(F} d) = u(F} d0) - u(F} d)} где u(F} d0) = = max u(F}d); если же с увеличением и полезность падает, "с/ то r(F, d) = u(F, d) - m(F, d0), где m(F, dQ) = min m(F, d). В "с/ ряде случаев М. п. ф. может быть представлена в виде г = г(х} а)} где х - фактич. значение влияющего метеорологич. элемента X (температура, осадки, ветер и т.п.), а а- значение X, в расчете на к-рое принимается решение. Интересен класс разностных М.п.ф., для к-рых г(х} а) = = ф(#-я). Такова, напр., функция г(х-а) - А^а-х) А2(х-а) при х^а} при х>а} 342 МЕТЕОРОЛОГИЧЕСКИХ где А]} А2 - весовые коэффициенты, характеризующие хозяйственную значимость единичных отклонений Д = х - а разных знаков. Средние метеорологические потери R = Er(F, d) [где осреднение производится по распределению вероятностей парных случайных событий (F, d)] обычно используются как показатель качества для сопоставления различных стратегий принятия решений на основе метеорологич. информации. Выбор оптимальной стратегии осуществляется из условия минимизации величины R. М.п.ф. и средние метеорологич. потери являются аналогами общих понятий «функция сожаления» и «средний бейесов- ский риск», используемых в статистических решений теории (см., напр., [3], [4]). Лит.: [1] Гандин Л. С, Жуковский Е. Е., «Метеорология и гидрология», 1973, № 2, с. 18-26; [2] Жуковский Е. Е., Чуд- новский А. Ф., Методы оптимального использования метеорологической информации при принятии решений, Л., 1978; [3] Чернов Г., Мозес Л., Элементарная теория статистических решений, пер. с англ., М., 1962; [4] Де Гроот М., Оптимальные статистические решения, пер. с англ., М., 1974. Е. Е. Жуковский. МЕТЕОРОЛОГИЧЕСКОЙ ИНФОРМАЦИИ ОПТИМАЛЬНОЕ ИСПОЛЬЗОВАНИЕ (optimal use of meteorological information) - согласование формы представления или (и) процедуры усвоения метеорологич. информации с хозяйственными требованиями потребителя, обеспечивающее максимальную результативность принятия решений в условиях погодной неопределенности. С М.и. о. и. тесно связаны вопросы специализации и оценки экономич. эффективности метеорологич. информации. Алгоритмы М. и. о. и. базируются на теории статистич. решений и других статистич. методах, применяемых к анализу систем «погода - метеорологич. информация (прогнозист) - потребитель». При математич. описании определяются: множество метеорологич. состояний F, к изменениям к-рых чувствителен потребитель; множество возможных решений d потребителя; функция выигрыша (ущерба) u-u{Fy d)\ множество допустимых стратегий 5, каждая из к-рых устанавливает определенное правило использования метеорологич. информации; критерий оптимальности. Выбор оптимальной стратегии, как правило, основывается на бейесовском подходе, то есть максимизируется средний в статистич. смысле выигрыш или минимизируется средний ущерб потребителя. Инвариантный критерий - минимизация средних метеорологич. потерь (см. Метеорологических потерь функция). К примеру, оптимальная стратегия использования регрессионного прогноза х* нормально распределенного метеоэлемента х для потребителя с разностной линейной функцией потерь сводится к принятию решений, ориентированных на нек-рые отличные от прогноза rVT^i 2. х* значения а = х* + t0o "VI - р'; здесь а - стандартное отклонение х; р - коэффициент корреляции между х и х*\ t - параметр сдвига, зависящий от отношения хозяйственных «весов» ошибок А = х-а разных знаков. Теория и методы М.и. о. и. позволяют: 1) оптимизировать решения потребителя; 2) разрабатывать оптимальные технологии специализированного метеорологич. обеспечения; 3) формулировать хозяйственно обоснованные требования к оправдываемости прогнозов; 4) оценивать потенциальную эффективность различных видов метеорологич. информации (см. Полезность прогноза). Перечисленные задачи могут рассматриваться как самостоятельная область прикладной метеорологии (экономическая метеорология). Лит.: [1] Багров Н.А., «Метеорология и гидрология», 1966, № 2, с. 3-12; [2] Жуковский Е. Е., Чудновский А. Ф., Методы оптимального использования метеорологической информации при принятии решений, Л., 1978; [3] Жуковский Е. Е., Метеорологическая информация и экономические решения, Л., 1981; [4] Мо- нин А. С, «Изв. АН СССР. Сер. геофиз.», 1972, Х« 2, с. 218-28;
[5] Обухов A.M., там же, 1955, № 4, с. 339-49; [6] Омшан- ский М. А., «Ж. геофизики», 1933, в. 4, с. 489-99; [7) Murphj A. H., «Мои. Wea. Rev.», 1977, № 7, p. 803-16. Е. Е. Жуковский. МЕТКА (score) - см. Ранговая корреляция. МЕТОК ПРОСТРАНСТВО (mark space) - см. Маркированный точечный процесс. МЕТРИЧЕСКАЯ ТРАНЗИТИВНОСТЬ (metric transitivity) - см. Эргодичность. МЕТРИЧЕСКАЯ ЭНТРОПИЯ динамической системы (metric entropy of a dynamical system) - см. Энтропия динамической системы метрическая. МЕТРИЧЕСКИ ТРАНЗИТИВНЫЙ СТАЦИОНАРНЫЙ СЛУЧАЙНЫЙ ПРОЦЕСС (metrically transitive stationary process) - см. Стационарный случайный процесс. МЕТРИЧЕСКИЙ ИЗОМОРФИЗМ (metric isomorphism) - см. Изоморфизм динамических систем. МЕТРИЧЕСКИЙ ИНВАРИАНТ (metric invariant) - см. Изоморфизм динамических систем. МЕТРИЧЕСКИХ РАССТОЯНИЙ МЕТОД (metric distans method) - собрание разнообразных приемов построения предельных соотношений и неравенств в задачах аппроксимаци- онного типа, использующих вероятностные метрики и псевдомоменты, обладающие нужными свойствами. Идея метода состоит в том, что при решении поставленной задачи привлекаются вероятностные метрики, специфич. свойства к-рых хорошо согласуются со структурой рассматриваемой стоха- стич. модели, благодаря чему существенно облегчается решение этой задачи. Возможная «экзотичность» используемых при этом вероятностных метрик в расчет не принимается. Переход к другим метрикам опирается на вероятностных метрик сравнение, в частности на неравенства между вероятностными метриками. Разделение решения на указанные два этапа, не уничтожая естественной сложности задачи, переносит основную часть сложности на второй этап. Один из примеров таких приемов дает минимальных метрик метод, другой - связан с использованием идеальных метрик (построение оценок скорости сходимости в предельных теоремах) (см. [4], [5]). М. р. м. широко используют в уточнениях предельных теорем (см., напр., [2], [3]), в задачах устойчивости характеризации распределений и ряде других задач. Иногда использование М. р. м. называют также метрическим подходом. Лит.: [1] Золотарев В. М., «Матем. сб.», 1976, т. 101, № 3, с. 416-54; [2] Сенатов В. В., «Теория вероятн. и ее примен.», 1984, т. 29, в. 1, с. 108-13; [3] его же, там же, 1988, т. 33, в. 3, с. 573-77; [4] Золотарев В. М., Современная теория суммирования независимых случайных величин, М., 1986; [5) его же, «Lect. Notes in Math.», 1983, v. 982, p. 7-17. В. М. Золотарев. МЕТРИЧЕСКОЕ МНОГОМЕРНОЕ ШКАЛИРОВАНИЕ (metric multidimensional scaling) - см. Многомерное шкалирование. МЕТЫ ТЕОРЕМА (Mehta theorem) для случайных детерминантов -см. Случайный детерминант. МЕШАЮЩИЙ ПАРАМЕТР (nuisance parameter) в статистической задаче - неизвестный параметр, от к-рого зависит распределение наблюдений, но относительно значения к-рого в данной задаче не требуется делать статистических выводов. Напр., в задаче Стьюдента проверки гипотезы о среднем значении нормальной случайной величины дисперсия наблюдений является М.п.; в Беренса - Фишера проблеме проверки гипотез о равенстве средних значений двух нормально распределенных выборок дисперсии наблюдений являются М.п. В теории оценивания при оценивании части неизвестных параметров остальные параметры являются мешающими. В качестве М.п. могут выступать и бесконечномерные объекты, напр. в задаче оценивания параметра а по независимым наблюдениям yi = a + Ei, i'=l, 2, ..., п, функция распределения ошибок е,, ..., е„ может являться М. п. (бесконечномерным). В задачах с М.п. обычно используют различные методы исключения таких параметров. В неасимптотич. задачах иногда используют переход к условным задачам (см., напр., Условный критерий), в к-рых статистич. выводы делаются в условной задаче относительно параметров условного распределения при данном (наблюдаемом) значении статистики, являющейся достаточной для М. п. В других случаях с самого начала ограничиваются рассмотрением процедур, основанных на статистиках, распределения к-рых не зависят от М. п. (так наз. свободных процедурах). В асимптотич. задачах иногда для исключения М. п. строят случайные величины, зависящие от выборки и неизвестного значения М.п., асимптотич. распределение к-рых не зависит от М.п. и не изменяется при замене М.п. его статистич. оценкой [см., напр., Статистический критерий C(oc)J. Понятие М.п. введено X. Хотеллингом [1]. Лит.:[\] Hotel ling H., «Ann. Math. Statist.», 1940, v. 11, № 3, p. 271-83; [2] Линник Ю. В., Статистические задачи с мешающими параметрами, М., 1966; [3] его же, Избранные труды. Математическая статистика, Л., 1982, с. 217-32; [4] Basu D., «J. Amer. Statist. Assoc», 1977, v. 72, № 358, p. 355-66; [5) его же, «J. Statist. Plann. and Inference», 1978, v. 2, № 1, p. 1-13. А. В. Бернштейн. МИГРАЦИЯ в ветвящемся процессе (migration in a branching process) - см. Ветвящийся процесс с миграцией. МИЗЕСА НЕРАВЕНСТВО (Mises'inequality) - неравенство, устанавливающее связь между абсолютными моментами дискретного распределения. Пусть случайная величина X принимает целочисленные значения X: и v^= E|X- Ех| <°°, тогда 2\k^c\k_x для любого натурального k, где c = min \х--х.-+х\ (см. [2], с. 33). Если случайная величина X принимает два значения Х\ и х2 с вероятностями р и q = 1 -р соответственно, то в этом случае \\ = 2pqc, v2 = c pq и, следовательно, М.н. обращается в равенство. Лит.: [1] Mises R., «Skand. aktuarietidskr.», 1939, t. 22, X? 1, S. 32-36; [2] Петров В. В., Предельные теоремы для сумм независимых случайных величин, М., 1987. Н. Г. Гамкрелидзе. МИКРОКАНОНИЧЕСКОЕ РАСПРЕДЕЛЕНИЕ (microca- nonical distribution) - Гиббса распределение, возникающее при фиксации как числа частиц, так и суммарной их энергии. Р. Л. Добрушин. МИНИМАКСНАЯ ОЦЕНКА (minimax estimator) - статистическая оценка, минимизирующая наибольшее значение риска функции (см. Минимаксный подход). Если М.о. единственна, то она допустима. Пример. М.о. вероятности в успеха в биномиальной схеме испытаний с объемом выборки п при квадратич. функции потерь L(6, d) = (Q-d)2 равна (v + Vw/2)/(h + Vi-T), где v- число успешных испытаний: именно для этой оценки в* выполняется неравенство sup EeL(e, e*)^ sup EeL(e, 6„), 0<в<1 0<в<1 какова бы ни была оценка 6„ параметра в. Стандартная частотная оценка v/n является М.о., 0 при функции потерь 1(в, d) = (в-d)2/Q( 1 -в), учитывающей относительную ошибку оценивания. См. также Априорной информации учет, Асимптотически минимаксная оценка, Статистическое оценивание. Лит.: [1] Боровков А. А., Математическая статистика, М., 1984; [2] Закс Ш., Теория статистических выводов, пер. с англ., М., 1975. И.Н. Володин. МИНИМАКСНАЯ СТРАТЕГИЯ в теории статистических игр (minimax strategy in the game theory) - стратегия МИНИМАКСКАЯ 343
статистика {решающая функция), минимизирующая максимальные (по неизвестному «параметру») потери (см. Игра двух лиц, Статистическая игра). А. А. Боровков. МИНИМАКСНОЕ РЕШЕНИЕ (mm.max dicision) - решение, принятое на основе минимаксных решающих функций (см. Статистических решений теория). А. В. Бернштейн, И.Н. Володин. МИНИМАКСНОСТИ КРИТЕРИЙ (minimax criterion) - см. Игра двух лиц. МИНИМАКСНОСТЬ статистической процедуры (minimax property of a statistical procedure) - один из вариантов оптимальности в математической статистике, согласно к-рому статистическая процедура объявляется оптимальной в минимаксном смысле, если она минимизирует максимальный риск. В терминах решающих функций понятие М. статистич. процедуры определяется следующим образом. Пусть случайная величина X принимает значения в выборочном пространстве (.#', ЭЗ, Ре), ве0, и пусть А = {8}- класс решающих функций, с помощью к-рых по реализации случайной величины X надлежит выбрать решение d из пространства решений D, то есть 8(): #*->D, при этом задана нек-рая функция потерь L(e, d), определенная на 0xD. В таком случае статистич. процедура 8* е А называется минимаксной в задаче принятия статистич. решения относительно функции потерь L(e, d), если при всех бе А выполняется соотношение sup E0L(e, 8*(X))^sup E0L(6, 8(X)), 9e0 6e0 EeL(e, 8(x)) = K(e, 8) = j^ Me, 8ЫМРеы - функция риска, отвечающая статистич. процедуре (решающему правилу) 8, при этом решение d* = b*(x), отвечающее наблюденной реализации х и минимаксной процедуре 8*, называется минимаксным. Так как величина sup Е0Мб, 8(Х)) показывает ожидаемые потери, к-рые можно понести при использовании процедуры ОеА, то М. статистич. процедуры 8* означает, что если руководствоваться процедурой 8* в задаче выбора решения d из пространства решений D, то наибольший ожидаемый риск sup /?(в, 8*) будет на- 9е0 столько малым, насколько это возможно. Принцип М. статистич. процедуры не всегда приводит к разумным выводам (см. рис.); в данном случае следует ориентироваться на процедуру 81( а не на 82, хотя sup /?(в, 8j)>sup /?(в, 82). Понятие М. статистич. процедуры является полезным в задачах принятия статистич. решений в условиях отсутствия априорной информации относительно параметра в. А/?(в,б) 344 МИНИМАКСНАЯ Лит.: [1] Леман Э., Проверка статистических гипотез, пер. с англ., 2 изд., М., 1979; [2] Закс Ш., Теория статистических выводов, пер. с англ., М., 1975. М.С. Никулин. МИНИМАКСНЫЙ КРИТЕРИЙ (minimax test) - статистический критерий, минимизирующий максимальное значение вероятности ошибки 2-го рода (по всевозможным альтернативам) среди всех критериев с заданным уровнем значимости. М. к. иногда называют максиминным критерием, имея в виду, что этот критерий максимизирует минимум мощности. Понятие М. к. является конкретизацией (в теории проверки статистич. гипотез) общего понятия минимаксной решающей функции в теории статистич. решений. Пусть X - наблюдаемая случайная выборка с распределением Р0, зависящим от неизвестного параметра ве0. По X проверяется нулевая гипотеза //0: в е 0О против альтернативной гипотезы Н]'. 0G0J, здесь 0о и 01 - непустые непересекающиеся подмножества 0, и пусть |$(6; <р) = Е0<рСг) - функция мощности критерия <р(). Критерий <р() называется минимаксным критерием уровня а, если sup Р(в; <р)^а, 9е0о и среди всех таких критериев {<р} inf P(6; <p) = sup inf (Кб; ф). Общий результат о М.к., установленный А. Вальдом (см. [1]), заключается в том, что М.к. при весьма общих условиях существует и является бейесовским критерием относительно наименее благоприятных априорных распределений. М. к. является несмещенным. Лит.: [1] Вальд А., Статистические решающие функции, л сб.: Позиционные игры, пер. с англ., М., 1967; [2] Леман Э., Проверка статистических гипотез, пер. с англ., 2 изд., М., 1979; [3] Боровков А. А., Математическая статистика, М., 1984. А. В. Бернштейн. МИНИМАКСНЫЙ ПОДХОД (minimax approach) - один из подходов к определению оптимальности статистических процедур, предписывающий выбирать решающую функцию 6 из условия минимизации sup R(Q, 6) - наибольшего значения функции риска /?(в, 8). См. Статистических решений теория. А. В. Бернштейн, И. Н. Володин. МИНИМАКСНЫЙ РИСК (minimax risk) - нижняя грань по всем решающим функциям супремума функции риска. Если существует минимаксная решающая функция, то М. р. равен супремуму функции риска минимаксной решающей функции. См. Статистических решений теория. А. В. Бернштейн, И. Н. Володин. МИНИМАЛЬНАЯ ДОСТАТОЧНАЯ СТАТИСТИКА (mini mal sufficient statistic), необходимая достаточная статистика, - статистика Т(х), являющаяся достаточной статистикой для семейства распределений .У>= {Р0, в е в} и такая, что Т(х) - измеримая функция любой другой статистики, достаточной для if. M. д. с. принимает так наз. постоянное значение на множествах тех х, на к-рых постоянна- любая достаточная статистика. Достаточная статистика минимальна тогда и только тогда, когда порождаемая ею достаточная а-алгебра минимальна, то есть содержится в любой другой достаточной а-алгебре. Используется также понятие ^минимальной достаточной статистики (а-алгебры). Достаточная а-алгебра X (и соответствующая достаточная статистика) называется У*-м и н и - мал ь ной, если .Щ содержится в пополнении Л любой о-ал- гебры J3, достаточной для S*. Если семейство & доминируется а-конечной мерой \i, то а-алгебра Щ, порождаемая семейством плотностей We) = -^W, в ев},
является достаточной и ^-минимальной. Последнее утверждение дает общий способ построения ^-минимальных достаточных а-алгебр. Пусть рассматривается разбиение выборочного пространства на классы эквивалентности, при к-ром две точки х и х' принадлежат одному классу тогда и только тогда, когда отношение р(х, Q)/p(x', в) не зависит от в. Порождаемая этим разбиением а-алгебра будет достаточной и ^-минимальной, и М. д. с. постоянна на этих классах эквивалентности. Пример 1. Для экспоненциального семейства распределений с плотностью р(х, в) = С(в)ехр{Х"=1 <?,(в)7}Ы} статистика Т(х) = (Т\(х), ..., Тп(х)) является М.д. с. Пример 2. При выполнении нек-рых условий регулярности для семейства У оценка максимального правдоподобия §(х) в случае, когда она единственна и является достаточной статистикой, является М.д. с. Лит.: [1] Барра Ж.-Р., Основные понятия математической статистики, пер. с франц., М.. 1974; [2] Боров ков А. А., Математическая статистика, М., 1984; [3] Соле Ж.-Л., Основные структуры математической статистики, пер. с франц., М., 1972; [4] Шметтерер Л., Введение в математическую статистику, пер. с нем., М., 1976. А. В. Бернштейн, И. Н. Володин. МИНИМАЛЬНАЯ МЕТРИКА (minimal metric) - простая вероятностная метрика в пространстве совместных распределений пар случайных величин, совпадающая с нижней гранью значений другой метрики (так наз. протоминимальной метрики) по множеству всех совместных распределений с фиксированными маргинальными распределениями. Напр., для случайных величин X и Y полной вариации метрика а(Х, Y) = sup|P{Xe/l}-P{Ye,4}| является М. м. для индикаторной метрики т(Х, Y) = P{X*Y}, а средняя метрика х,(Х, Y)=j\P{X<x)-P{Y<x}\dx - минимальной для сложной метрики Е|Х-У|. Переход от неравенств для какой-либо метрики к неравенствам для М. м. в ряде случаев позволяет получать нетривиальные оценки. Лит.: [1] Золотарев В. М., Современная теория суммирования независимых случайных величин, М., 1986. A.M. Зубков. МИНИМАЛЬНАЯ РЕШАЮЩАЯ ФУНКЦИЯ (minimal decision function) - см. Статистических решений теория. МИНИМАЛЬНАЯ ЦЕПЬ ГРАФА (minimal path of a graph) - см. Минимальных цепей и разрезов метод. МИНИМАЛЬНАЯ ЭКСЦЕССИВНАЯ ФУНКЦИЯ (mini mal excessive function) - см. Потенциала теория для марковского процесса. МИНИМАЛЬНОГО РАССТОЯНИЯ ФУНКЦИОНАЛ (minimum distance functional) - см. Робастная оценка. МИНИМАЛЬНЫЙ ПОЛНЫЙ КЛАСС критериев (minimal complete class of tests) - см. Статистический критерий] полный класс. МИНИМАЛЬНЫЙ ПОЛНЫЙ КЛАСС стратегий (minimal complete class of strategies) - см. Игра двух лиц. МИНИМАЛЬНЫЙ РАЗРЕЗ графа (minimal cut of a graph) - см. Минимальных цепей и разрезов метод. МИНИМАЛЬНЫХ МЕТРИК МЕТОД (minimal metric method) - один из приемов метрических расстояний метода, основанный на использовании соответствующих пар минимальных метрик и протоминимальных метрик. В простейшем варианте идея М. м. м. сводится к следующему. Пусть Д - нек-рая простая метрика в пространстве случайных векторов X = (Xj, ..., Х„)е1Р" и \i - какая-либо отвечающая ей прото- минимальная метрика. Нередко оценки сложных метрик осуществляются проще, чем простых. Если имеется оценка вида ц(Х, 7)^\|/(v1(X1, Yj), ..., v„(X„, У„)), (*) где у^ - нек-рые вероятностные метрики в пространстве действительных случайных величин и v^- соответствующие им минимальные метрики, a \\f(u^ ..., ип) - неубывающая и непрерывная справа по всем переменным функция, то из (*) следует оценка* Д(Х, 7)^\|/(v1(X1, Yj), ..., vn(X„, У„)). Пример. Минимальными метриками для Ки Фан метрики К и метрики v(X, У) = Е|Х-У|, X, Ye IP1, являются Леей - Прохорова метрика к и средняя метрика xt. Поскольку v(X, У)^Е|х-У|/(|х-У|>е)>е2длялюбогое</С(Х, У), то при £->/С(Х, У) получается неравенство /С2(Х, У) ^v(X, У). Переход к минимальным метрикам дает в общей ситуации неулучшаемое неравенство л2(Х, Y)^Xj(X, У). Лит.: [1] Золотарев В. М., «Матем. сб.», 1976, т. 101, № 3, с. 416-54; [2] его же, Современная теория суммирования независимых случайных величин, М., 1986. В.М. Золотарев. МИНИМАЛЬНЫХ ЦЕПЕЙ И РАЗРЕЗОВ МЕТОД (mini mal paths and cuts method) - метод оценки надежности, используемый для получения верхних и нижних границ для показателей надежности систем, имеющих сетевую структуру. Система описывается двухполюсным графом G(X), где X = (хх, ..., хп) - множество всех ребер графа. Минимальной (простой) цепью а графа называется такое подмножество его ребер, к-рое обеспечивает связность входной и выходной вершин, а исключение любого из них приводит к нарушению связности (при условии исключения остальных ребер графа, не входящих в состав минимальной цепи). М и - нимальным (простым) разрезом графа называется такое подмножество его ребер, исключение к-рого из графа приводит (при условии наличия всех остальных ребер) к нарушению связности, но введение любого из ребер этого подмножества обеспечивает связность входной и выходной вершин графа. Развиты два основных класса оценок: через полное множество минимальных цепей и минимальных разрезов и через множества реберно-непересекающихся минимальных цепей и минимальных разрезов. Первый способ (см. [1]) дает оценки для вероятности Р связности вида Здесь (Ху - минимальная цепь; рл - минимальный разрез; N - число минимальных цепей и М - число минимальных разрезов в графе G; г{ - вероятность существования 1-го ребра графа G. Второй способ (см. [2]) дает оценки для вероятности Р связности вида max A la,- € At I 1 li € a • ^p^ Здесь At - нек-рые подмножества реберно-непересекающихся цепей, то есть a,-Da;- = 0, если о^еЛ, и (ХуеЛ,; Bs - нек-рые подмножества реберно-непересекающихся разрезов, то есть РjПРу = 0, если Р;е#5 и руе#5; Т и S - число различных МИНИМАЛЬНЫХ 345
подмножеств реберно-непересекающихся цепей и подмножеств реберно-непересекающихся разрезов соответственно. Последняя оценка является более конструктивной с вычислительной точки зрения (см. [3]). Кроме того, она допускает естественное обобщение (см. [2], [3]), позволяющее получать уточнение оценок за счет непосредственного использования целых фрагментов исходного графа. Рассмотренные оценки могут быть использованы и для нахождения других параметров двухполюсных графов (см. [4]). Лит.: [1]БарлоуР., ПрошанФ., Статистическая теория надежности и испытания на безотказность, пер. с англ., М., 1984; [2] ЛитвакЕ. И., Ушаков И. А., «Изв. АН СССР. Техн. кибернетика», 1984, № 3, с. 3-17; [3] Ушаков И. А., Литвак Е. И..Обобщенные показатели при исследовании сложных систем, М., 1985; [4] их же, «Изв. АН СССР. Техн. кибернетика», 1977, № 1, с. 72-79. И. А. Ушаков. МИНКОВСКОГО НЕРАВЕНСТВО (Minkowski's inequality) в теории вероятностей- неравенство для абсолютных моментов случайных величин X, Y и X+Y: (е\х+у\рУ/р^(е\х\рУ/р + (е\у\рУ/р для любого р ^ 1. Б. А. Севастьянов. МИНКОВСКОГО ОЖИДАЕМАЯ МЕРА (Minkowski expected measure) порядка^- одна из характеристик распределения почти наверное выпуклого случайного замкнутого множества Л в IP", представляющая собой функционал вида заданный на множестве непрерывных функций ф из II?" в IP. Символ Wk обозначает меру, удовлетворяющую тождеству справедливому для всех <р, ПА - оператор из IP" в IP", сопоставляющий каждой точке #е1Р" ближайшую к ней точку уеА, 0 - сложение по Минковскому (см. Минковского операции), В - единичный шар в IP". Плотность меры WQ совпадает с индикатором множества А, а для k>0 меры w£ сосредоточены на границе А. Лит.: [1] Матерой Ж., Случайные множества и интегральная геометрия, пер. с англ., М., 1978. Н. Н. Ляшенко. МИНКОВСКОГО ОПЕРАЦИИ (Minkowski operations) - операции сложения Ф, вычитания 0 подмножеств евклидова пространства IP", умножения на число Я,е1Р, определяемые по правилам: А®В = {а + Ь:аеА, ЬеВ},А, Я е1Р"; AQB = (Ac®Bc)c,Ac = ®n\A; ХА = {Ха:аеА). С помощью М. о. определяются многие конструкции теории случайных множеств. Так, законы больших чисел представляют собой теоремы о сходимости последовательностей — (А^е...ФАп) п ' " к вырожденному случайному множеству (здесь А. - случайные множества); исследование асимптотич. распределения последовательности -jL- Ut0...0^„) при независимых одинаково распределенных A.-, j= 1, ..., п, составляет основное содержание центральной предельной теоремы (см. Предельные теоремы для случайных множеств). 346 МИНКОВСКОГО Наиболее распространенными преобразованиями случайного множества А, с помощью к-рых строятся новые случайные множества, являются: АЭ(-\)В - дилатацияЛ посредством В; Л0(-1 )В - эрозияЛ посредством В; (А0(-1 )В)0В - заполнение/! посредством В; (Л0(-1 )В)®В - пополнение^ посредством В. В частности, для выпуклых В заполнение А посредством ХВ (Х>0) представляет собой типичный пример гранулометрии: ^(л) = (ле(-ш)Ф(Ш. Между распределениями случайного множества А и его различных преобразований, как правило, существует простая связь, напр.: тАФВ(Ю = тА(кев), где А - замкнутое случайное множество, В - детерминированное компактное множество, К - компакт, Т - сопровождающий функционал. Лит.: [1] Матерон Ж., Случайные множества и интегральная геометрия, пер. с англ., М., 1978. А. Г. Катранов. МИНКОВСКОГО ПРОСТРАНСТВО (Minkowski space) - векторное подпространство пространства C(S) непрерывных функций на нек-рой сфере S a IP". M. п. состоит из всевозможных разностей функций вида fK(a) = sup (а, х), где К - компакты в IP", aeS, (a, х) - скалярное произведение векторов а, х. С помощью отображения, сопоставляющего компакту К функцию fK, задачи об асимптотич. свойствах последовательностей компактных случайных множеств сводятся к аналогичным задачам о случайных элементах М.п., что позволяет использовать известные свойства распределений и предельные теоремы в банаховых пространствах (см. Предельные теоремы для случайных множеств). Лит.: [1] Матерон Ж., Случайные множества и интегральная геометрия, пер. с англ., М., 1978; [2] Рокафеллар Р., Выпуклый анализ, пер. с англ., М., 1973. Н. Н. Ляшенко. МИНКОВСКОГО ФУНКЦИОНАЛ (Minkowski functional) - функция множеств, обобщающая различные интегральные характеристики гладких многообразий (такие, напр., как длина кривой и площадь поверхности). Использование М. ф. в теории случайных множеств позволяет сопоставить случайному геометрич. объекту набор действительных случайных величин, имеющих естественную геометрич. интерпретацию. Пусть М(А; г) - объем r-окрестности выпуклого компакта А в евклидовом пространстве IP". Значение М.ф. М на компакте А определяется как коэффициент при гр в разложении производящей функции М(Л; г) по степеням г. Так, в трехмерном случае для компакта с С -границей коэффициент М0(Л) - это объем выпуклого тела Л, М{(А) - площадь его поверхности, М2(Л) - ее интегральная средняя кривизна, а последний ненулевой коэффициент М3(А) вообще не зависит от А: это объем единичного шара. С точностью до постоянных множителей М. ф. МЛ А) совпадают с интегральными поперечными размерами А, то есть с изотропно усредненными объемами ортогональных проекций А на подпространства IP" коразмерности р. Универсальность М. ф. подчеркивается следующим их свойством: конус всевозможных положительных возрастающих С-аддитивных иньа- риантных относительно движений IP" функционалов на частично упорядоченном по включению множестве всех выпуклых компактов в IP" порождается функционалами М . М.ф. распространяются на конечные объединения выпуклых компактов, оказываясь при этом тесно связанными с их топологич. инвариантом - характеристикой Эйлера - Пуанкаре. Они участвуют в ряде интегральных представлений, ре-
куррентных соотношений и неравенств. Теория М. ф. обобщается в геометрии смешанных объемов (см., напр., [3]). Лит.: [1] СанталоЛ., Интегральная геометрия и геометрические вероятности, пер. с англ., М., 1983; [2] Матерон Ж., Случайные множества и интегральная геометрия, пер. с англ., М., 1978; [3] Александров А. Д., «Матем. сб.», 1937, т. 2, К? 5, с. 947-72; К? 6, с. 1205-38; 1938, т. 3, № 1, с. 27-46; № 2, с. 227-51. В. И. Полищук. МИНЛОСА ТЕОРЕМА (Minlos theorem) - см. Сазонова топология. МНОГОВЕРШИННОЕ РАСПРЕДЕЛЕНИЕ (multimodal distribution) - см. Мультимодальное распределение. МНОГОВХОДОВАЯ ТАБЛИЦА СОПРЯЖЕННОСТИ (multiway contingency table) - см. Многомерная случайная величина. МНОГОКАНАЛЬНАЯ СИСТЕМА ОБСЛУЖИВАНИЯ (multichannel queueing system) - см. Многолинейная система обслуживания. МНОГОКАСКАДНАЯ СИСТЕМА ОБСЛУЖИВАНИЯ (multicascade queueing system) - см. Обслуживания система с отказами. МНОГОКОМПОНЕНТНЫЙ ИСТОЧНИК СООБЩЕНИИ (multicomponent source) - теоретико-информационный термин, используемый для математического описания нескольких зависимых источников сообщений. Ниже дано определение дискретного стационарного многокомпонентного источника сообщений без памяти. Источник U с М компонентами задается М конечными множествами Щ, ..., Жм (алфавиты компонент источника) и распределением вероятностей р(хи ..., хм), хтеЖт. Каждый элемент хт интерпретируется как элементарное сообщение w-й компоненты источника U. Стационарность и отсутствие памяти у источника выражаются в том, что распределение вероятностей р индуцирует распределение вероятностей р на блоках сообщений длины N: p(N\x]t ..., *м) = ПГ=1 Р(*\«* •- хмп)' где хт = кхт], ..., xmN) € Ят. Можно рассматривать также более общие М. и. с. (нестационарные, с памятью, с непрерывным пространством сообщений и т. д.); определения аналогичны соответствующим определениям для обычного источника сообщений. Задача кодирования для М. и. с. может рассматриваться как частный случай задачи кодирования для сетей источников и каналов. См. также Кодирование источника с дополнительной информацией. Лит.: [1] Колесник В. Д., П о л ты рев Г. Ш., Курс теории информации, М., 1982; [2] Чисар И., Кернер Я., Теория информации, пер. с англ., М., 1985. С. И. Гельфанд, В. В. Прелое. МНОГОКОМПОНЕНТНЫЙ КАНАЛ (multiterminal channel) - канал связи, для к-рого возможна передача от нескольких передатчиков к нескольким приемникам. Общий многокомпонентный канал с К входами и L выходами можно определить как канал связи {(#; SP, (.#, Ss), Q(x, А), V), в к-ром вероятностное пространство сигналов на входе представлено в виде прямого произведения К пространств: (a; sj = (sr,, s^)x...х(%, sTf), вероятностное пространство сигналов на выходе представлено в виде произведения L пространств: (i\ Sj) = (9CXt S#) x ... x (£L, S# ) и подмножество V вероятностных мер на (ЗГ, 5^-), задающих ограничения на возможные сигналы на входе, также является прямым произведением: \ieV тогда и только тогда, когда \ik е Vk, где [Lk - проекция у. на (3Tk, Sj. ), Vk - нек-рое подмножество вероятностных мер на (Щ, SA). Интуитивно 3Ck, \^k^K,- это множество значений k-й компоненты входного сигнала М. к., а Щ, 1 ^/^L,- множество значений 1-й компоненты выходного сигнала. В частном случае дискретного М. к. без памяти сигналами на входе и выходе являются последовательности элементов конечных множеств fk, fk. Такой М. к. задается набором переходных вероятностей р(уи ..., У\\у\, ..., #*-), где y^§i, Особенность кодирования для М. к. состоит в том, что кодирование для каждой из входных компонент осуществляется отдельным кодером, сообщения к-рого предназначены для одной или нескольких выходных компонент М. к. Помехоустойчивость канала характеризуется его областью пропускной способности, определяющей максимально достижимые скорости передачи информации от входов М. к. к его выходам (подробнее см. в ст. Источников и каналов сети). Частными случаями М. к. являются широковещательный канал (при К=\), множественного доступа канал (при L = \), интерференционный канал (при K = L = 2). При специальной организации кодеров и декодеров, когда нек-рые из кодеров могут использовать информацию на нек-рых из выходов канала, получают многосторонний канал. Лит.: [1] Колесник В. Д., По л ты ре в Г. Ш., Курс теории информации, М., 1982; [2] Чисар И., Кернер Я., Теория информации, пер. с англ., М., 1985. С. И. Гельфанд. МНОГОЛИНЕЙНАЯ СИСТЕМА ОБСЛУЖИВАНИЯ (multichannel queueing system), многоканальная система обслуживания,- математическая модель процесса образования очереди при возможности одновременного обслуживания нескольких требований (по одному в каждом канале, линии, приборе). М. с. о. обычно описывается многомерным марковским процессом (см. Кусочно линейный процесс). Основные виды М. с. о.- многоканальная обслуживания система с ожиданием и обслуживания система с отказами. Различают полнодоступные и неполнодоступные М. с. о., смотря по тому, может ли любое требование попасть на любой канал. Основной метод исследования М. с. о.- статистическое моделирование систем обслуживания. И. Н. Коваленко. МНОГОМЕРНАЯ ПЛОТНОСТЬ (multivariate density) - см. Многомерное распределение, Плотность вероятности. МНОГОМЕРНАЯ СЛУЧАЙНАЯ ВЕЛИЧИНА (multidi- mensional random variable) - упорядоченная совокупность фиксированного числа р (р > 1) одномерных случайных величин. Таким образом, М. с. в. может быть представлена в виде ^-компонентного вектора, Х= (Xv ..., Хр)Т, каждая из компонент Х{ к-рого является случайной величиной. Реализацией М. с. в. является многомерное наблюдение. Наиболее часто рассматривается случай, когда компоненты Х{ являются непрерывными или дискретными случайными величинами, возможные значения к-рых определены на числовой прямой. Изучение таких М. с. в. представляет собой предмет многомерного статистического анализа. Если все компоненты М. с. в. суть непрерывные случайные величины, то ее распределение задается функцией плотности распределения вероятностей. В случае, когда все компоненты М. с. в. дискретны, ее распределение определяется путем задания вероятностей событий Н гР l M V ГДе U: .: = (U<: , ..., U': ) И U:: - ОДНО ИЗ ВОЗМОЖНЫХ Ч' "■' р 1 Plp Jlj значений случайной величины /. Совокупность значений МНОГОМЕРНАЯ 347
Р{ г представляет собой так наз. многовходовую таблицу соп ряжен ноете й. Основными числовыми характеристиками М.с. в., используемыми в практич. целях, являются средних вектор и ковариационная матрица, а также устойчивые аналоги этих характеристик. Лит.: [ 1 ] Андерсон Т., Введение в многомерный статистический анализ, пер. с англ., М., 1963; [2] Айвазян С. А., ЕнюковИ.С, Мешалкин Л. Д., Прикладная статистика. Основы моделирования и первичная обработка данных, М., 1983. И. С. Енюков. МНОГОМЕРНОЕ БЕТА-РАСПРЕДЕЛЕНИЕ (multidimensional beta distribution) - распределение, к-рое имеет случайная величина X, определяемая следующим образом. Пусть Н~о%т , Е~охт и Н и Е статистически независимы. Функции плотности для Т = Н/Е и v = Т/( 1 + Т) = Н/(Е + Я) суть ЛтИ/2)-\ П0 = t—^- ~( ш, 0^<оо; В(тн/2, тЕ/2)(Ш)(тЕ+тнУ2 q(v) = J — t/w"/2H (1 - v)imE/2)^ , 0*^1, B(mH/2,mE/2) соответственно, где В(й, Ь) - бета-функция. Для удобства используется обозначение v~B(mH/2, mE/2) и говорится, что X имеет бета-распределение типа I с тн/2 и тЕ/2 степенями свободы соответственно; аналогично применяется обозначение тЕТ/тн ~ F(mH, mE) и говорится, что Т имеет бета-распределение типа II с W///2 и тЕ/2 степенями свободы соответственно. См. также Дирихле распределение. И. В. Степахно. МНОГОМЕРНОЕ НАБЛЮДЕНИЕ (multidimesional observation) - упорядоченная совокупность р (р>\) одномерных наблюдений, относящихся к одному и тому же объекту. С вероятностно-статистич. точки зрения М. н. является реализацией многомерной случайной величины. Компоненты М.н. могут быть, вообще говоря, измерены в разных шкалах. Лит.: [1] АйвазянС.А., БежаеваЗ.И., Староверов О. В., Классификация многомерных наблюдений, М., 1974. И. С. Енюков. МНОГОМЕРНОЕ НОРМАЛЬНОЕ РАСПРЕДЕЛЕНИЕ (multivariate normal distribution) - см. Нормальное распределение. МНОГОМЕРНОЕ РАСПРЕДЕЛЕНИЕ (multivariate distribution) - распределение вероятностей на а-алгебре борелев- ских множеств 5-мерного евклидова пространства В?5. О М. р. обычно говорят как о распределении многомерной случайной величины или случайного вектора X=(Xt, ..., Xs), понимая под этим совместное распределение действительных случайных величин Х^со), ..., Xs(co), заданных на одном и том же пространстве элементарных событий О. (можно рассматривать Х1, ..., Xs как координатные величины в пространстве £1 = IR5). М. р. однозначно определяется функцией распределения - функцией F(*1f ..., xs) = P{Xx<xit ..., Xs<xs} действительных неременных хх, ..., xs. Так же, как и в одномерном случае, наиболее распространенными М.р. являются дискретные и абсолютно непрерывные распределения. В дискретном случае М.р. сосредоточено на конечном или счетном множестве точек (xi , ..., xi ) пространства IR\ так что 348 МНОГОМЕРНОЕ (см., напр., Полиномиальное распределение). В абсолютно непрерывном случае почти всюду (по мере Лебега) в № to, дх, -pU« Х'}' где р(х\, ..., xs) ^0 - плотность многомерного распределения (многомерная плотность) Р{ХеЛ} = | р(Х), ..., xs)dx\...dxs для любого А из а-алгебры борелевских множеств пространства (R5 и . }^p(xv ...,xs)dx\...dxs=\. Распределение любой случайной величины Хг (а также при любом т<п распределение величин Хг , ..., X, ) по отношению к М. р. называется частным или маргинальным распределением. Маргинальные распределения полиостью определяются заданным М. р. В том случае, когда величины X,, ..., Xv независимы, F(xv ..., xs) = F1(j:1)...Fv(xs) и р(х{, ..., xs) = = P\(x\)...ps(xs), где F((x) и pj(x) - соответственно маргинальные функции распределения и плотности случайных величин X,. Математич. ожидание любой функции f(X{, ..., X) от Xj, ..., Xs определяется интегралом от этой функции no M. р., в частности в абсолютно непрерывном случае интегралом ЕДХ^ ..., Xs)=j . /"(.г,, ..., xs)p(xu ..., xs)dx\...dxs Характеристич. функция М. р. есть функция вектора t=(tXt ..., ts), равная y(t) = Eeltx , где tx'= txX\ + ... + t,xy Основными характеристиками М.р. служат смешанные моменты EX K..X s и центральные смешанные моменты E(X1-EX1)*i...(Xi.-EXs)\ где k{ + ... + ks- порядок соответствующего момента. Роль математич. ожидания и дисперсии для М. р. выполняют вектор ЕХ= (ЕХ^ ..., EXS) и совокупность центральных смешанных моментов 2-го порядка, образующих ковариационную матрицу. Если Е(Х— EXjXXy- EX;) = 0 при всех г, j, i*j, то случайные величины Х|, ..., Xs называются попарно некоррелированными (ковариационная матрица диагональна). Если ранг т ковариационной матрицы меньше s, то М. р. называется вырожденным распределением; в этом случае М. р. сосредоточено на нек-ром линейном многообразии в 11?s размерности т. О методах исследования зависимости между Х\, ..., Х^ см. в ст. Корреляция, Регрессия. А. В. Прохоров. МНОГОМЕРНОЕ СЛУЧАЙНОЕ БЛУЖДАНИЕ (multidi- mensional random walk) - случайное блуждание, фазовым пространством к-рого является евклидово J-мерное пространство II? и, в частности, с/-мерная решетка Т , d> 1. Простейшие М. с. 6. в пространстве II? , d>\, определяются следующим образом. Частица выходит из начала координат и перемещается за один шаг на расстояние 1 в одном из направлений, параллельных осям координат. Таким образом, возможными положениями блуждающей частицы являются все точки (R с целочисленными координатами. Чтобы задать М.с 6., надо определить 2d вероятностей, соответствующих различным переходам. Мы получим симметричное М.с. б., если каждая из этих вероятностей равна d/2. Для таких М. с. б. справедлива следующая теорема Пойа (см. [1]): для симметричного М.с. б. при d = 2 частица почти наверное рано или поздно вернется в свое начальное положение (один, а возможно и бесконечное число раз). При d = 3 эта вероятность равна приближенно всего лишь 0,35 (а при d>3 она еще меньше).
I между ними, измеренных с помощью приписываемых им вспомогательных координат, в среднем наименее отличалась бы от заданной (см. [1]). Формальный аппарат для решения задачи пространственного представления стимулов путем анализа данных о субъективных различиях между ними впервые был | разработан в 1952 (см. [2]) и назван метрическим М.ш. Метод опирается на условия, необходимые для отображения данных о различиях в виде реальной конфигурации стимулов в метрич. пространстве. Он осуществляет переход от матрицы расстояний к матрице скалярных векторов, соединяющих точки с центром тяжести конфигурации. Ранг матрицы совпадает с размерностью пространства. Распространение метода на пси- хологич. различия, не являющиеся точными расстояниями, достигается подбором аддитивной константы. Соображения, что субъективные различия не могут в достаточной мере совпадать с расстояниями, привели (см. [3]) к созданию нового подхода к отображению психологич. структур, учитывающего не сами различия, а их порядок. К реше- | нию предъявляются два требования: монотонности и минимальной размерности. Подход получил название анализа близостей, или неметрического М.ш. Методы такого М.ш., основанные на минимизации нелинейного функционала, дают отображение, оптимальное в смысле нек-рого критерия. Для изучения соотношений между психологич. пространствами разных субъектов предназначены методы шкалирования индивидуальных различий. Наиболее рас- I пространенная модель состоит в том, что все субъекты при I оценке близостей между стимулами опираются на одни и те же факторы, но учитывают их в разной степени. Модель реализована итеративным методом наименьших квадратов (см. [4]). Предположения о том, что шкалы всех субъектов совпадают только с точностью до порядков или определяются на номинальном уровне (см. [5]), приводят к более точному отображению субъективных данных. В основу соответствующих методов положена процедура нелинейной минимизации. М.ш. включает также область, называемую анализом предпочтений (см. [6]). Методы предназначены для выявления свойств стимулов путем совместного анализа предпочтений нескольких субъектов. Методы дифференцируются в зависимости от предположений о том, каким образом субъекты измеряют предпочтения на множестве стимулов. Лит.: [1] Дэйвисон М., Многомерное шкалирование, пер. с англ., М., 1988; [2] Торгерсон У. С, в кн.: Статистическое измерение качественных характеристик, пер. с англ., М., 1972, с. 95-118; [3] Shepard R.N., «Psychometrika», 1962, v. 27, № 2-3, p. 125-40, 219-46; [4] Carroll J.D., ChangJ.J., там же, 1970, v. 35, № 3, p. 283-319; [5] Терехина А.Ю., Анализ данных методами многомерного шкалирования, М., 1986; [6] Coombs С. Н., A theory of data, N. Y., 1964. а. Ю. Терехина. МНОГОМЕРНЫЙ ВИНЕРОВСКИЙ ПРОЦЕСС (multidimensional Wiener process), многомерный процесс броуновского движения, - непрерывный однородный случайный процесс с независимыми приращениями X(0 = (Xj(0, .., Xm(t)), t^O, со значениями в ИГ. М.в.п. служит одной из математич. моделей для многомерного броуновского движения. Характеристич. функция такого процесса имеет вид Наиболее исследованы М.с.б., к-рые представляют собой цепи Маркова с множеством состояний Ж или Ж+ (множество точек с неотрицательными целочисленными координатами). Основные задачи, изучаемые для таких М.с.б.,- эргодичность, возвратность, явное вычисление стационарных распределений, их асимптотик и др. Наиболее универсальным методом получения условий эргодичности и невозвратности для Ж+ и подобных областей является метод функций Ляпунова (мажорирующих полумартингалов). Для блужданий с ограниченными скачками и свойством максимальной однородности, то есть инвариантности относительно сдвигов внутри области и относительно сдвигов вдоль граней вблизи от этих граней, дана полная.классификация для d = 2, 3 (см. [4]). Вопрос об эргодичности в Ж+, d>3, в ряде случаев сводится к вычислению нек-рых стационарных вероятностей в2+~ . Трудность явных вычислений для блужданий со свойством максимальной однородности определяется максимальной коразмерностью х граней рассматриваемой области (напр., х= 1 для Ж+хЖ и x = d для Ж+). Для коразмерности 1 решение получается методом Винера - Хопфа (метод факторизации; см. [5]). Для х = 2 решение представляется в виде абелевых интегралов (см. 15]). В нек-рых случаях возможны более простые решения (см. [5] и более поздние работы в [3]). В общем случае максимальной однородности блужданий в Ж(+ явные решения получаются индукцией по d с использованием на каждом шаге факторизации оператор-функций вида 1 + К(г), где K(z) - компактный оператор для всех z, Ы = 1 (су. [5]). Асимптотич. результаты в основном укладываются в рамки более общих теорий (напр., предельных теорем для сумм независимых случайных величин). В случае Ж+ есть и специ- фич. результаты (см. [5]). Идеи теории гиббеовских случайных нолей оказали большое влияние на получение новых результатов и новых постановок задач для блужданий без самопересечений и взаимодействующих блужданий (см. [6]). С другой стороны, многомерные блуждания используются в представлении гиббеовских случайных полей, выводе корре- ляаионных неравенств, исследовании спектра трансфер-матриц и т. д. (см. 17]). Развитием теории блужданий без самопересечений является теория самонепересекающихся случайных поверхностей, связанная с теорией струн. Другим направлением является изучение многомерных блужданий в случайной ергде. Лит.: [1] Спицер Ф., Принципы случайного блуждания, пер. с англ., М., 1969; [2] Боровков А.А., Вероятностные процессы в теории массового обслуживания, М., 1972; [3] Когэи Дж., Бокс- м и О., Граничные задачи в теории массового обслуживания, пер. с англ., М., 1987; \А] Малышев В. А., Меньшиков М.В., «Тр. Моск. матем. об-ва>, 1979, т. 39, с. 3-48; [5] Малышев В. А., в кн.: Итоги науки и техники. Сер. Теория вероятностей. Математическая статистика. Теоретическая кибернетика, т. 13, М., 1976, с. 5-35; Гв| Le Call J.-F., «Comm. Math. Phys.», 1986, v. 104, p. 471-528; [7| ChayesJ.T., Chayes L., там же, 1986, v. 105, p. 221-38; [8| BricmontJ., Frohlich J., «Comm. Math. Phys.», 1985, v. 98, p. 553-78. #. л. Малышев. МНОГОМЕРНОЕ ШКАЛИРОВАНИЕ (multidimensional scaling) - совокупность методов, позволяющих по заданной информации о мерах различия (близости) между объектами рассматриваемой совокупности приписывать каждому из этих объектов вектор (заданной размерности) характеризующих его количественных показателей; при этом размерность искомого координатного пространства задается заранее, а «погружение» в него анализируемых объектов производится таким образом, чтобы структура взаимных различий (близостей) Eexp{i(z, X(t))} = exp{t[i(a, z)-(Bz, z)/2]}, вектор бб^ называется вектором сноса, а оператор В в №т - оператором диффузии. Оператор Б является симметричным неотрицательным оператором. Простым преобразованием М. в. п. t^O может быть преобразован в «стандартный» М.в.п. w(t), t^O , для к-рого а = 0, В = I (I - единич- МНОГОМЕРНЫЙ 349
ный оператор в IRW). Процессы X(t), t^O, w(t), t^O, связаны соотношением X(t) = ta + B ' w(t), где В ' - неотрицательный квадратный корень из В. Координаты М.в. п. w(t), t^O, независимы и являются одномерными винеровскими процессами. Почти все траектории М.в. п. нигде не дифференцируемы (см. [1]). При w = 2 винеровская траектория почти наверное попадает в любой круг положительного радиуса (винеровская траектория всюду плотна на плоскости). При тп^З Р{ lim |о>(*)1=+~}=1, при этом для всех X > 1 (1пГ)Х/т-1/2 lim 4Т inf \w(i)\>\ \. Лит.: [1] ИтоК., Маккин Г., Диффузионные процессы и их траектории, пер. с англ., М., 1968; [2] ГихманИ.И., Скороход А. В., Теория случайных процессов, т. 2, М., 1973. Н. Н. Леоненко. МНОГОМЕРНЫЙ ПРОЦЕСС БРОУНОВСКОГО ДВИЖЕНИЯ (multidimensional Brownian motion process) - см. Многомерный винеровский процесс. МНОГОМЕРНЫЙ СЛУЧАЙНЫЙ ПРОЦЕСС (multidimensional random process) - см. Случайный процесс. МНОГОМЕРНЫЙ СТАТИСТИЧЕСКИЙ АНАЛИЗ (multivariate statistical analysis) - раздел математической статистики, посвященный математическим методам построения оптимальных планов сбора, систематизации и обработки многомерных статистических данных, направленным на выявление характера и структуры взаимосвязей между компонентами исследуемого многомерного признака и предназначенным для получения научных и практических выводов. Под многомерным признаком понимается ^-мерный вектор jc= (jcj, ..., хр) показателей (признаков, переменных) xv ..., хр, среди к-рых могут быть количественные, то есть скаляр- но измеряющие в определенной шкале степень проявления изучаемого свойства объекта; порядковые (или ординальные), то есть позволяющие упорядочивать анализируемые объекты по степени проявления в них изучаемого свойства; и классификационные (или номинальные), то есть позволяющие разбивать исследуемую совокупность объектов на не поддающиеся упорядочиванию однородные (по анализируемому свойству) классы. Результаты измерения этих показателей {*•(}" ={{Х\г>Х2г>->ХРЖ (О на каждом из п объектов исследуемой совокупности образуют последовательность многомерных наблюдений, или исходный массив многомерных данных для проведения М. с. а. Значительная часть М. с. а. обслуживает ситуации, в к-рых исследуемый многомерный признак х интерпретируется как многомерная случайная величина и соответственно последовательность многомерных наблюдений (1) - как выборка из генеральной совокупности. В этом случае выбор методов обработки исходных статистич. данных и анализ их свойств производятся на основе тех или иных допущений относительно природы многомерного (совместного) закона распределения вероятностей Р(х). По содержанию М. с. а. может быть условно разбит на три основных подраздела: М. с. а. многомерных распределений и их основных характеристик; М. с. а. характера и структуры взаимосвязей между компонентами исследуемого многомерно- 350 МНОГОМЕРНЫЙ го признака; М. с. а. геометрич. структуры исследуемой совокупности многомерных наблюдений. Многомерный статистический анализ многомерных распределений и их основных характеристик охватывает лишь ситуации, в к-рых обрабатываемые наблюдения (1) имеют вероятностную природу, то есть интерпретируются как выборка из соответствующей генеральной совокупности. К основным задачам этого подраздела относятся статистич. оценивание исследуемых многомерных распределений, их основных числовых характеристик и параметров; исследование свойств используемых статистич. оценок; исследование распределений вероятностей для ряда статистик, с помощью к-рых строятся статистич. критерии проверки различных гипотез о вероятностной природе анализируемых многомерных данных. Основные результаты относятся к частному случаю, когда исследуемый признак х подчинен многомерному нормальному закону распределения AL(|A, V), функция плотности к-рого f(x\\i, V) задается соотношением ехр Н ш^у, —(x-\i)'V-4x-\i)\, (2) \1р)Т - вектор математич. ожиданий компонент f(x\\i,V) = гдец=(ц!, ..., случайной величины х, то есть Ц/=Е^/, /=1, 2, ..., р, а V= |^;y||f; = 1 ~ ковариационная матрица случайного вектора х, то есть vij = E(xi-\Li)(xj-\Lj) - ковариации компонент вектора х (рассматривается невырожденный случай, когда ранг У-р\ в противном случае, то есть при ранге V = p'<p, зсе результаты остаются справедливыми, но применительно к подпространству меньшей размерности р\ в к-рой оказывается сосредоточенным распределение вероятностей исследуемого случайного вектора х). Так, если (1) - последовательность независимых наблюдений, образующих случайную выборку из Np(\i, V), то оценками максимального правдоподобия для параметров |А и V, участвующих в (2), являются соответственно статистики (см. [1],[2]) _ 4 ~~" (3) _L V" п « = ' - Л Vя (х, - |l)(.r i - |i)', (4) причем случайный вектор fl подчиняется ^-мерному нормальному закону Np(\i,—V) и не зависит от V, а совместное распределение элементов матрицы Q=nV описывается так наз. распределением Уишарта (см. [4]), плотность к-рого со(0|У;и) = .(я-р-2)/2 expj-^tr V~{Q 2С»-1)р/2 ярСр-1>/41 v |<—1)/2 Ц> Г{<я-»/2> О в если 0 положительно определена; противном случае. В рамках этой же схемы исследованы распределения и моменты таких выборочных характеристик многомерной случайной величины, как коэффициенты парной, частной и множественной корреляции, обобщенная дисперсия (то есть статистика |v|), обобщенная Г-статистика Хотеллинга (см. [5]). В частности (см. [1]), если определить в качестве выборочной матрицы Sn подправленную «на несмещенность» оценку V, а именно: sn= — v, п п-\ (5)
то распределение случайной величины ^fn(\Sn\/\ V\ - 1) стремится к N/0, 2р) при и->°<\ а случайные величины п-р _T2=^IP7rn(ii_ ^5-ЧА-ц) (6) p(n-l) /?(я-1) n^+^-^-l WjW2 nt+n2-p-l -2 _ Ц+л2-2)/? Ц+„2-2)Р „1+„2 ^-^^U^-A.,) (7) подчиняются F-распределениям с числами степеней свободы соответственно (р, п-р) и (р, п^+п2-р- 1). В соотношении (7) П\ и я2 ~ объемы двух независимых выборок вида (1), извлеченных из одной и той же генеральной совокупности N}{\i\ V), |i„ и5„,- оценки вида (3) и (4) - (5), построенные по i-й выборке, а - общая выборочная ковариационная матрица, построенная по оценкам Sn и Sn . Многомерный статистический анализ характера и структуры взаимосвязей компонент исследуемого многомерного признака объединяет в себе понятия и результаты, обслуживающие такие методы и модели М.с. а., как множественная регрессия, многомерный дисперсионный анализ и ковариационный анализ, факторный анализ и метод главных компонент, анализ канонич. корреляций. Результаты, составляющие содержание этого подраздела, могут быть условно разделены на два основных типа. 1) Построение наилучших (в определенном смысле) стати- стич. оценок для параметров упомянутых моделей и анализ их свойств (точности, а в вероятностной постановке - законов их распределения, доверительных областей и т.д.). Так, пусть исследуемый многомерный признак х интерпретируется как векторная случайная величина, подчиненная ^-мерному нормальному распределению Np(\i, V) и расчленен на два под- вектора-столбца х и х размерности q и р - q соответственно. Это определяет и соответствующее расчленение вектора математич. ожиданий ^теоретической и выборочной ковариационных матриц V и V, а именно: ^ = W 1<01 (2) *\\ У\1 и V = r21 ^ 22II Vh ^12 v21 v2 22 Тогда (см. [1], [2]) условное распределение подвектора х (при условии, что второй подвектор принял фиксированное значение х ) будет также нормальным Л' (и/ + В(х - ц ), 1). При этом оценками максимального правдоподобия Д и! для матриц регрессионных коэффициентов В и ковариаций I этой классич. многомерной модели множественной регрессии E(*(,)U(2>)=n(,) + fi(*(2)-n(2)) (8) будут взаимно независимые статистики соответственно в =v12V22hz=v11-v12V221^2i; здесь распределение оценки В подчинено нормальному закону Nq(p_q)(B, VB), а оценки и£ - закону Уишарта с параметрами Ей n-(p-q) (элементы ковариационной матрицы VB выражаются в терминах элементов матрицы V). Основные результаты по построению оценок параметров и исследованию их свойств в моделях факторного анализа, главных компонент и канонич. корреляций относятся к анализу вероятностно-статистич. свойств собственных (характеристических) значений и векторов различных выборочных ковариационных матриц. В схемах, не укладывающихся в рамки классич. нормальной модели и тем более в рамки какой-либо вероятностной модели, основные результаты относятся к построению алгоритмов (и исследованию их свойств) вычисления оценок параметров, наилучших с точки зрения нек-рого экзогенно заданного функционала качества (или адекватности) модели. 2) Построение статистич. критериев для проверки различных гипотез о структуре исследуемых взаимосвязей. В рамках многомерной нормальной модели [последовательности наблюдений вида (1) интерпретируются как случайные выборки из соответствующих многомерных нормальных генеральных совокупностей] построены, напр., статистич. критерии для проверки следующих гипотез. I. Гипотезы ц=ц* о равенстве вектора математич. ожиданий исследуемых показателей заданному конкретному вектору ц*; проверяется с помощью Т -статистики Хотеллинга с подстановкой в формулу (6) \i =ц*. II. Гипотезы \i =(i о равенстве векторов математич. ожиданий в двух генеральных совокупностях (с одинаковыми, но неизвестными ковариационными матрицами), представленных двумя выборками; проверяется с помощью статистики Т (см. [7]). III. Гипотезы ц, -\1 =...=ц =ц о равенстве векторов математич. ожиданий в нескольких генеральных совокупностях (с одинаковыми, но неизвестными ковариационными матрицами), представленных своими выборками; проверяется с помощью статистики U p,k-\,n-k ъи^ф'-^)^-^) Z--XL{*?-t){*?-t) в к-рой xJ. есть i-e ^-мерное наблюдение в выборке объема П:, представляющей ;-ю генеральную совокупность, а р, ; и р, - оценки вида (3), построенные соответственно отдельно по каждой из выборок и по объединенной выборке объема п = щ +... +nk. IV. Гипотезы ц(1) = ц(2) = ... =цШ = ц и Vx =... = Vk= V об эквивалентности нескольких нормальных генеральных совокупностей, представленных своими выборками {х. }"*, j- 1, 2, ..., k\ проверяется с помощью статистики Х = - п 7-1 njVj (пу-1)/2 ъип^-*){*?-*) <я-*)/2 в к-рой V: - оценка вида (4), построенная отдельно по наблюдениям /-й выборки, У=1, 2, ..., k. V. Гипотезы о взаимной независимости подвекторов- столбцов х , X , ..., х размерностей соответственно ри Р2> •••» Рт> на к"Рые расчленен исходный ^-мерный вектор исследуемых показателей х, рх +р2 + ... +рт = р', проверяются с помощью статистики ..._ I»v| IT.,h*ii МНОГОМЕРНЫЙ 351
в к-рой V и V{ - выборочные ковариационные матрицы вида (4) для всего вектора х и для его подвектора х соответственно. Многомерный статистический анализ геометрической структуры исследуемой совокупности многомерных наблюдений объединяет в себе понятия и результаты таких моделей и схем, как дискриминантный анализ, смеси вероятностных распределений, кластер-анализ и таксономия, многомерное шкалирование. Узловым во всех этих схемах является понятие расстояния (меры близости, меры сходства) между анализируемыми элементами. При этом анализируемыми могут быть как реальные объекты, на каждом из к-рых фиксируются значения показателей х [тогда геометрич. образом 1-го обследованного объекта будет точка х.{ = (хи, ..., xpi) в соответствующем ^-мерном пространстве], так и сами показатели xh /= 1, 2, ..., р [тогда геометрич. образом /-го показателя будет точка JC/= {хц, ..., х1п) в соответствующем «мерном пространстве]. Методы и результаты дискриминантного анализа (см. [1], [2], [7]) направлены на решение следующей задачи. Известно о существовании определенного числа k ^ 2 генеральных совокупностей, и у исследователя имеется по одной выборке из каждой совокупности («обучающие выборки»). Требуется построить основанное на имеющихся обучающих выборках наилучшее в определенном смысле классифицирующее правило, позволяющее приписать нек-рый новый элемент (наблюдение х) к своей генеральной совокупности в ситуации, когда исследователю заранее неизвестно, к какой из совокупностей этот элемент принадлежит. Обычно под классифицирующим правилом понимается последовательность действий: по вычислению скалярной функции от исследуемых показателей, по значениям к-рой принимается решение об отнесении элемента к одному из классов (построение дискриминантной функции); по упорядочению самих показателей по степени их информативности с точки зрения правильного отнесения элементов к классам; по вычислению соответствующих вероятностей ошибочной классификации. Задача анализа смесей распределений вероятностей (см. [7]) чаще всего (но не всегда) возникает также в связи с исследованием «геометрической структуры» рассматриваемой совокупности. При этом понятие r-го однородного класса формализуется с помощью генеральной совокупности, описываемой нек-рым (как правило, унимодальным) законом распределения Р(л"|вг), так что распределение общей генеральной совокупности, из к-рой извлечена выборка (1), описывается смесью распределений вида ры=Х* *гр(*|ег), где кг - априорная вероятность (удельный вес элементов) г-го класса в общей генеральной совокупности. Задача состоит в «хорошем» статистич. оценивании (по выборке {л\г}") неизвестных параметров вг, лг, а иногда и /г. Это, в частности, позволяет свести задачу классификации элементов к схеме дискриминантного анализа, хотя в данном случае отсутствовали обучающие выборки. Методы и результаты кластер-анализа (классификации, таксономии, распознавания образов «без учителя», см. [2], [6], [7]) направлены на решение следующей задачи. Геометрич. структура анализируемой совокупности элементов задана либо координатами соответствующих точек (то есть матрицей Цлг^-Ц, i= 1, ..., р', j= 1, ..., п), либо набором геометрич. характеристик их взаимного расположения, напр. матрицей попарных рас- 352 МНОГОМЕРНЫЙ стояний || Pj; || ",■=!• Требуется разбить исследуемую совокупность элементов на сравнительно небольшое (заранее известное или нет) число классов так, чтобы элементы одного класса находились на небольшом расстоянии друг от друга, в то время как разные классы были бы по возможности достаточно взаимоудалены один от другого и не разбивались бы на столь же удаленные друг от друга части. Задача многомерного шкалирования (см. [6]) относится к ситуации, когда исследуемая совокупность элементов задана с помощью матрицы попарных расстояний |pf| ";=1 и заключается в приписывании каждому из элементов заданного числа (р) координат таким образом, чтобы структура попарных взаимных расстояний между элементами, измеренных с помощью этих вспомогательных координат, в среднем наименее отличалась бы от заданной. Следует заметить, что основные результаты и методы кластер-анализа и многомерного шкалирования развиваются обычно без каких-либо допущений о вероятностной природе исходных данных. Прикладное назначение многомерного статистического анализа состоит в основном в обслуживании следующих трех проблем. Проблема статистического исследования зависимостей между анализируемыми показателями. Предполагая, что исследуемый набор статистически регистрируемых показателей х разбит, исходя из содержательного смысла этих показателей и окончательных целей исследования, на g-мерный подвектор х предсказываемых (зависимых) переменных и (р-^-мерный подвектор х предсказывающих (независимых) переменных, можно сказать, что проблема состоит в определении на основании выборки (1) такой g-мерной векторной функции fix ) из класса допустимых решений F, к-рая давала бы наилучшую, в определенном смысле, аппроксимацию поведения подвектора показателей х . В зависимости от конкретного вида функционала качества аппроксимации и природы анализируемых показателей приходят к тем и/jH иным схемам множественной регрессии, дисперсионного, ковариационного или конфлюэнтиого анализа (см. [8]). Проблема классификации элементов (объектов или показателей) в общей (нестрогой) постановке заключается в том, чтобы всю анализируемую совокупность элементов, статистически представленную в виде магрнцы !|х1у||, /'= 1, ..., р\ 7 = 1, ..., п, или матрицы |jpy||, i, j=\, ... п, разбить на сравнительно небольшое число однородных, в определенном смысле, групп (см. [7J). В зависимости от природы априорной информации и конкретного вида функционала, задающего критерий качества классификации. приходят к тем или иным схемам дискриминантного анализа, кластер-анализа (таксономии, распознавания образцов «без учителя»), расщепления смесей распределений. Проблема снижения размерности исследуемого факторного пространства и отбора наиболее информативных показателей заключается в определении такого набора сравнительно небольшого числа т«р показателей z = (z{> z2, ..., >zm)'■ найденного в классе допустимых преобразований Z(x) исходных показателей х = (х^, х2 х), на к-ром достигается верхняя грань нек-рой экзогенно заданной меры информативности w-мерной системы признаков (см. [7]). Конкретизация функционала, задающего меру автоинформативности [то есть нацеленное на максимальное сохранение информации, содержащейся в статистич. массиве (1) относительно самих исходных признаков], приводит, в частности, к различным схемам факторного анализа и главных компонент, к методам экстремальной группировки признаков. Функционалы, задающие меру внешней информативности, го есть нацеленные на извлечение из (1) максимальной информации относительно нек-рых других, не содержащихся неиосред-
ственно в х показателей или явлений, приводят к различным методам отбора наиболее информативных показателей в схемах статистич. исследования зависимостей и дискриминантно- го анализа. Основной математический инструментарий М. с. а. составляют специальные методы теории систем линейных уравнений и теории матриц (методы решения простой и обобщенной задачи о собственных значениях и векторах; простое обращение и псевдообращение матриц; процедуры диагонализации матриц и т. д.) и нек-рые оптимизационные алгоритмы (методы покоординатного спуска, сопряженных градиентов, ветвей и границ, различные версии случайного поиска и стохастич. аппроксимации и т.д.). Лит.: [1] Андерсон Т., Введение в многомерный статистический анализ, пер. с англ., М.. 1963; [2] Ке н да л л М. Д ж., СгьюартА., Многомерный статистический анализ и временные ряды, пер. с англ., М., 1976; [3] Большее Л.Н., «Bull. Int. Stat. Inst.», 1969, № 43, p. 4 25-41; [4] Wishart J., «Biometrika», 1928, v. 20A, p. 32-52; [51 tlotelling H., «Ann. Math. Stat.», 1931, v. 2, p. 360-78; [61 KruskalJ.B., «Psychometrika», 1964, v. 29, p. 1-27; 17] Айвазян С. А., БухштаберВ. М., ЕнюковИ.С, Мешал- кин Л.Д., Прикладная статистика; классификация и снижение размерности. М., 1989; [8] Айвазян С. А., ЕнюковИ.С, Мешалки н Л. Д., Прикладная статистика: исследование зависимостей, М., 1985. С. А. Айвазян. МНОГОМЕРНЫХ ДАННЫХ ВИЗУАЛИЗАЦИЯ (visual! zation of multivariate data) - метод анализа совокупности многомерных наблюдений, основанный на их отображении в точки одно-, двух- и трехмерного пространства с минимальной, в определенном смысле, потерей информации и на нос педующем визуальном анализе геометрической конфигурации полученной совокупности точек (одномерных и двумерных гистограмм, полигонов частот, двумерных и трехмерных диаграмм рассеяния, линий уровня плотности, поверхности плотности в трехмерном пространстве и т. д.). Эффективность подобного подхода основана на том, что человек при визуаль- hoiv анализе нек-рого множества точек на плоскости или пространстве хорошо распознает присущие этому множеству сipyктурные особенности, напр. наличие кластеров, группирования точек в окрестности нек-рой кривой линии, наличие выбросов и аномальных наблюдений. Для М.д. в. используются все методы сокращения размерности - главных компонент анализ, метрическое многомерное шкалирование, целе- награвленпое проецирование. М.д. в.- один из основных приемов так паз. разведочного статистич. анализа данных. И. С. Енюков. МНОГОМЕРНЫХ ДАННЫХ МОДЕЛЬ СТРУКТУРЫ (model of structure of multivariate data) - статистическая модель данных, описываемая следующим образом. Пусть данные, подлежащие статистич. обработке, заданы в виде матрицы данных X размера п хр, где п - число объектов, р - число переменных. Объекты можно представить в виде точек в многомерном (р-мерном) пространстве. Для описания структуры этого множества точек в разведочном статистическом анализе данных обычно используется одна из следующих статистич. моделей: (а) мо дел ь «облака» точекпример- но эллипсоидальной конфигурации; (6) кластерная модель, то есть совокупность нескольких «облаков» точек, достаточно далеко отстоящих друг от друга; (в) моде ль «засорен и я», то есть компактное «облако» точек, при к-ром присутствуют далекие выбросы; (г) модель носителя точек как многообразия (линейного или нелинейного) более низкой размерности, чем исходное, типичный пример - выборка из вырожденного распределения; (д) ди- скриминантная модель, когда исследователю известно, что точки разделены нек-рым образом на несколько групп и дана информация об их принадлежности к той или иной группе. В рамках модели (г) можно рассматривать и регрессионную модель, когда соответствующее многообразие допускает функциональное представление ХП = F(Xj) + е, где Х7 и Хц - две группы переменных из исходного набора (переменные из ХИ носят тогда название прогнозируемых переменных, а из Xj - предсказывающих переменных), е- ошибка предсказания. Разумеется, реальные данные обычно лишь приблизительно могут следовать этим моделям, более того, структура данных может не подходить ни под одну из указанных в описании моделей даже приближенно. Способы анализа и интерпретации результатов разведочного статистич. анализа данных в значительной степени зависят от выбранной модели и метода обработки. Однако можно выделить ряд приемов и подходов к анализу результатов, к-рые в значительной степени определяют специфику собственно разведочного анализа. Это - преобразование переменных, анализ остатков, визуализация данных (графич. отображение данных), манипуляция с данными на основе графич. отображения, использование аппарата активных и иллюстративных переменных и объектов. Преобразование переменных. Обычно используются преобразования переменных, приводящие в результате либо к нормальному распределению (в многомерном случае р > 1 - к многомерному нормальному распределению преобразованных переменных), либо к максимальному увеличению степени линейной связи между всеми или нек-рыми переменными. В качестве показателей линейной связи используется, напр., сумма квадратов коэффициентов корреляции. К преобразованным данным затем применяют хорошо разработанные методы, такие, как факторный анализ, линейный регрессионный анализ и др. Анализ остатков. Используется для выявления систе- матич. отклонений обрабатываемых данных от принятой модели их описания (напр., проверки адекватности линейной модели зависимости между переменными после проведения линеаризующего преобразования). Визуализация данных. Она предполагает получение тем или иным способом графич. отображения данных или графич. отображения остатков при подгонке той или иной модели, так что исследователь может просто путем непосредственного визуального анализа этого изображения определить, имеет ли место одна из моделей структуры данных (см. также Многомерных данных визуализация). Манипуляции с данными на основе графического отображения. Под этим понимается следующее. Часто с помощью одной гистограммы или диаграммы рассеивания нельзя полностью выделить структуру данных, напр. все кластеры. Однако возможна ситуация, когда данные разделились на две резко разграниченные группы. В этом случае один из эффективных способов проведения дальнейшей обработки состоит в удалении одной из частей матрицы данных и в дальнейшей работе с оставшейся частью как с новой матрицей данных. Использование аппарата активных и иллюстративных переменных и объектов. Разделение объектов на активные и иллюстративные достаточно широко используется и соответствует разделению имеющейся выборки на обучающую и экзаменующую выборки. Другим полезным приемом, помогающим в интерпретации результатов и в проверке их устойчивости при применении, напр., методов кластер-анализа является разделение исходного множества переменных на две части - активные, к-рые используются на МНОГОМЕРНЫХ 353
стадии обработки, и иллюстративные, к-рые используются только на стадии интерпретации. Напр., пусть по тем или иным соображениям исследователь разделил переменные на активные и иллюстративные и затем использовал какие-либо из кластерных процедур. Один из способов интерпретации состоит в том, чтобы проанализировать средние значения и разброс иллюстративных переменных в каждом из кластеров. Если средние различаются существенно, то уверенность в объективном существовании кластеров возрастает и появляется дополнительная возможность их интерпретации (разумеется, для этого используют и активные переменные). Более тонким способом является получение решающих правил в пространстве иллюстративных переменных (напр., линейных дискриминантных функций), рассматривая выделенные кластеры как обучающие выборки. Лит.: [1] Tukey J.W., «Ann. Math. Statist.», 1962, v. 33, p. 1-67; [2) его же, Exploratory data analysis, Reading, 1977; [3] Lebart L., MorineauA., WarwickK.M., Multivariate descriptive statistical analysis, N. Y., 1984; [4] Interpreting multivariate data, N. Y., 1981. И. С. Енюков. МНОГОПАРАМЕТРИЧЕСКИЙ ВИНЕРОВСКИЙ ПРОЦЕСС (multiparameter Wiener process) - см. Винеровский лист. МНОГОПАРАМЕТРИЧЕСКОЕ БРОУНОВСКОЕ ДВИЖЕНИЕ (multiparameter Brownian motion) - см. Леей поле. МНОГОСТОРОННИЙ КАНАЛ (multi-way channel) - канал связи, описывающий передачу информации в системе с несколькими терминалами, каждый из к-рых является одновременно отправителем и получателем сообщений. Ниже приведена схема передачи информации по дискретному стационарному М. к. без памяти. Пусть задан дискретный стационарный многокомпонентный канал без памяти с К входами и К выходами, имеющий входные алфавиты fu ..., fk, выходные алфавиты fu ..., fk и переходные вероятности р(уt, ..., у^\У\у •••» #*)• Пусть предполагается, что /г-й вход и k-й выход канала объединены в k-й терминал, 1 ^k^K. На k-м терминале имеется (К- 1) сообщений mki, l^t^/C, i^k^K, i*k, причем сообщение mki, 1 ^mki^Mki, предназначено для передачи с k-vo терминала на t-й. Блоковый код длины N задается NK кодирующими функциями <р„£ и К декодирующими функциями щ. Кодирующая функция <pnk(y]k, ..., уп]у mkv ..., mkN)e% определяет п-й символ для передачи на k-м входе канала в зависимости от сообщений mki, i Ф k} подлежащих передаче с /г-го терминала, и символов у xk, ..., у , k, принятых на k-м выходе к моменту п. Декодирующая функция щ(уxk, ..., у N^) определяет оценки т1Л, ..., mKk всех сообщений mxk, ..., mKk, посылаемых на k-й терминал со всех других терминалов. Вероятность ошибки Ре для данного кода определяется равенством 1 - Ре = P{mki = mki для всех i*k) (передаваемые сообщения mki считаются независимыми друг от друга и равномерно распределенными на соответствующих множествах сообщений). Область пропускной способности 3i M. к. состоит из всех наборов R = {Rki} таких, что при любом е>0 и при достаточно большом N существует код длины N с Mki^ 2 кГ для всех 1 ^ i, k ^ /С, i * k и с Ре< е. Вычисление области пропускной способности Л для М. к. проведено лишь для нек-рых весьма специальных классов. В общем случае для 01 получены лишь верхние и нижние оценки. 354 МНОГОМЕРНЫХ Задача об исследовании М. к. (в частном случае К = 2) была введена К. Шенноном (С. Shannon) в 1961 (для двустороннего канала). Лит.: 11] Van der Meul en E. С, A survey of multi-way channels in information theory. 1961-1976, «IEEE Trans. Inform. Theory», 1977, v. 23, № 1, p. 1-37; [2) Шеннон К., Работы по теории информации и кибернетике, пер. с англ., М., 1963, с. 622-63. С. И. Гельфанд, В. В. Прелое. МНОГОЭКСТРЕМАЛЬНЫХ ЭКСПЕРИМЕНТОВ ПЛАНИРОВАНИЕ (design of multiextremal experiments) - выбор точек проведения вычислений неизвестной функции f: X -> II? из нек-рого класса F многоэкстремальных функций (то есть функций, имеющих несколько локальных экстремумов) с целью приближенного вычисления глобального экстремума (без ограничения общности - максимума) этой функции и точки #* = arg max fix), в к-рой этот максимум достигается. хеХ Пространство X является компактным метрическим, а функция f может вычисляться со случайной ошибкой (то есть являться функцией регрессии). Существуют описания и классификации подходов к решению сформулированной задачи (см. [1]-[3]). Большое число эффективных алгоритмов М.э. п. (то есть алгоритмов глобальной оптимизации) имеется для случаев Xc|R ; X cz IR", где п мало, a F есть множество функций, удовлетворяющих условию Липшица, для нек-рых редко встречающихся на практике классов функций F (напр., класса сепарабельных функций). При решении сложных задач М. э. п. (напр., при X cz IR", п ^ 5, F - достаточно широкий класс функций) наибольшую популярность завоевали вероятностные методы М. э. п. Эти методы делятся на два основных класса (см. [1]):а) методы ветвей и вероятностных границ, 6) методы поколений. Методы группы а) основаны на разбиении множества поиска X на подмножества Z{. на случайном (напр., равномерном) выборе в X конечного числа точек хх, х2,... и на проведении статистич. выводов о значении величины Mz = sup fix) для Z-Z{ по повторным xeZ выборкам {xv ..., xN} = 3 из распределений Pidx) w\Z. После преобразования Л^А*;)» 1=1» •••» N» задача проведения статистич. выводов о Mz по выборке 5 сводится к задаче проведения статистич. выводов о значении vrai sup Г) верхней границы случайной величины с функцией распределения по выборке {т|;}, 1=1, ..., N (см. Случайная величина', оценивание границ). Методы класса б) состоят в последовательном моделировании вероятностных мер, конструируемых на основе использования результатов предшествующих вычислений и сходящихся к мере, сосредоточенной в окрестности точек глобального экстремума. Лит.: [1) ЖиглявскийА. А., Математическая теория глобального случайного поиска, Л., 1985; [2) Жил и иска с А. Г., Глобальная оптимизация, Вильнюс, 1986; [3] Стронгин Р. Г., Численные методы в многоэкстремальных задачах, М., 1978. А. А. Жиглявский. МНОЖЕСТВЕННАЯ КОГЕРЕНТНОСТЬ (multiple coherence) - см. Когерентность. МНОЖЕСТВЕННАЯ РЕГРЕССИЯ (multiple regression) - регрессионный эксперимент с многомерным неизвестным параметром. М. Б. Малютов. МНОЖЕСТВЕННОГО ДОСТУПА КАНАЛ (multiple access channel) - один из примеров многокомпонентного канала, описывающий систему связи с несколькими передатчиками и одним приемником. Ниже дано описание кодирования для
дискретного стационарного М. д. к. без памяти с двумя входами (см. также Источников и каналов сети). Такой канал задается двумя входными алфавитами f\,f2, одним выходным алфавитом § (%, f2> § ~ конечные множества) и набором переходных вероятностей р(у\у\У2)< Код длины N и объема (Mt, М2) для рассматриваемого канала - это набор с^в у]П] ef?, yl2ef?> i^mk^Mk} k=\}2 (здесь у** есть N-я декартова степень конечного множества $^), а также набор пересекающихся областей Ст т <^$N, 1 ^mk^Mk, k=\, 2 (области декодирования), покрывающих все множество § . Наглядно, Ст т - это множество тех у efN} при получении к-рых на приемном конце декодер выносит решение о том, что передавались кодовые слова ухт , ут (то есть сообщения w1( т2). Вероятность ошибки при передаче сообщений Wj, m2 оп[>еделяется по формуле где P(N)(y\yv #2> = ГСн 1*Уп\У\п' У2п> для у =(уи ..., yN)efN} ук=(уки ...,ук^> k=i> 2. (Средняя Рср и максимальная Ртах вероятности ошибки кода для М. д. к. определяются соответственно формулами Ргп = „Jw X PAmvm2\ Pmax = max PAmv m2). CP M\M2 *-*mxm2 e \ I max ^ ^ e 1 l Набор скоростей R=(RV R2) называется достижимым (при средней вероятности ошибки), если для любого е>0 существует код длины N с Mk^2 * , k=\, 2, Рср<е. Область #,ср пропускной способности М. д. к. при критерии по средней вероятности ошибки определяется как множество всех достижимых наборов R. Аналогично (с Ртах вместо Р ) определяется область #тах пропускной способности при максимальной вероятности ошибки. Область &ср совпадает с областью пропускной способности для рассматриваемой сети каналов. Область # для дискретного стационарного М. д. к. без памяти имеет вид где со означает выпуклую оболочку, ри р2 - распределения вероятностей на ^, у.2 соответственно, задающие вместе с р(у \yv y2) тройку случайных величин Yj, У2, Y с совместным распределением Р\(у\)р2(у2)р(у\у\, у2) и ^1,р2) = {(Л1,/?2):0^Л1^/(У1; У|У2), 0^/?2^/(У2;У|У1), Rx+R2KI(Yi, Y2;Y)}, где / - информации количество. Область #тах , вообще говоря, не совпадает с 91 (в отличие от случая канала связи с одним входом и одним выходом). Рассмотренная простейшая модель М. д. к. допускает многочисленные обобщения. Так, помимо М.д. к. с L выходами рассматривалось кодирование для гауссовского М. д. к. с дискретным временем и ограничением мощности на каждом из входов. Рассматривался также М.д. к. с коррелированными источниками и М.д. к. с обратной связью. Оказывается, что обратная связь, вообще говоря, увеличивает область пропускной способности М. д. к. Можно также исследовать схемы кодирования, когда нек-рые из кодеров частично знают сообщения, выданные другими кодерами (кодирование с подглядыванием). Описанная выше модель канала называется синхронным каналом множественного доступа. Асинхронный канал множественного доступа возникает в случае, когда границы кодовых блоков на входах канала смещены друг относительно друга и величины этих смещений неизвестны ни при кодировании, ни при декодировании. В этом случае также можно вычислить область пропускной способности ^срас. Она оказывается невыпуклой и задается формулой, аналогичной (*); единственное отличие состоит в том, что для вычисления ^срас не нужно брать выпуклую оболочку. Лит.: [1] Колесник В. Д., По л ты рев Г. Ш., Курс теории информации, М., 1982; [2] Ч и cap И., Кернер Я., Теория информации, пер. с англ., М., 1985; [3] Van der Meulen E. С, «IEEE Trans. Inform. Theory», 1977, v. 23, № 1, p. 1-37. С. И. Гельфанд, В. В. Прелое. МНОЖЕСТВЕННЫЕ СРАВНЕНИЯ (multiple comparisons) - группа статистических методов, направленных на управление вероятностью совместного осуществления ряда событий (напр., одновременного накрытия средних двух совокупностей двумя 95%-ными доверительными интервалами) и более широко - на выполнение совместных (одновременных) выводов таких, как проверка гипотез, построение доверительных интервалов. М. с. хорошо разработаны для совместных выводов о групповых средних (эффектах обработок) в схеме однофакторного и двухфакторного дисперсионного анализа как при гауссов- ской, так и при непараметрической моделях. М.с. охватывают категоризованные данные таблиц сопряженности, регрессионный анализ, многофакторный дисперсионный анализ. Лит.: [11 Шеффе Г., Дисперсионный анализ, пер. с англ., М., 1980; [2] ХоллендерМ., Вулф Д., Непараметрические методы статистики, пер. с англ., М., 1983; [3] М i 11 е г R., в кн.: Encyclopedia of statistical sciences, v. 5, N. Y., 1985, p. 679-89; [5] его же, «J. Amer. Statist. Assoc», 1977, v. 72, p. 779-88. Д. С. Шмерлинг. МНОЖЕСТВЕННЫЙ ДОСТУП (multiple access) - организация коллективного использования ресурса многими пользователями (см. также Множественного доступа канал). Простейший пример М. д. дает радиовещание: здесь ресурс - это диапазон радиоволн, пользователи - радиостанции. Организация использования ресурса состоит в закрепленном соглашением разделении диапазона частот и времени передачи между станциями. В более сложных случаях радиовещания станции передают без разделения по частоте или времени. М.д. при этом заключается в подходящем кодировании информации. Методы теории вероятностей применяют здесь для отыскания области пропускной способности системы связи и оптимальных кодов. Множество примеров М.д. дают системы массового обслуживания. Там ресурсом является обслуживающий прибор (или приборы), пользователи - это требования, вызовы, клиенты, а типичная организация использования прибора состоит в упорядочении требований и обслуживании следующего по очереди требования после окончания предыдущего. Теория вероятностей используется для таких систем М.д. при изучении распределений различных их параметров (длина очереди, время ожидания начала обслуживания и т.д.). В приведенных примерах организация использования ресурса происходит без затраты времени или мощности самого ресурса. Однако это не всегда так. Напр., в локальных сетях ЭВМ ресурсом служит общий канал связи, соединяющий пользователей с ЭВМ. Часто этот канал используется как для передачи данных между ЭВМ (основная работа), так и для выяснения того, какие из пользователей имеют требующиеся для передачи данные, для упорядочения этих пользователей и извещения всех пользователей сети о порядке установленной очередности и других деталей упорядочения (вспомогательная работа). Средняя доля времени основной работы ресурса во МНОЖЕСТВЕННЫЙ 355
всем времени его работы называется эффективностью ресурса. Задача исследований состоит в вычислении эффективности ресурса для различных способов М.д. Исходными данными в этой задаче являются вероятностные характеристики маркированных точечных процессов возникновения требований на ресурс со стороны пользователей. Существует М. д. с конфликтами. Конфликтом называется одновременные требования на ресурс со стороны двух или более чем двух пользователей в случае, если в любой момент ресурс может принимать на обслуживание не более одного пользователя. Требования, попавшие в конфликт, не получают никакого допуска к использованию ресурса, и пользователи должны их повторить. Если все требования повторяются через одно и то же время, то они опять образуют конфликт. Во избежание этого применяют методы случайного множественного доступа. При случайном М.д. требования, попавшие в конфликт, повторяются через случайные промежутки времени, напр. независимые для различных требований, тем самым образуется ненулевая вероятность бесконфликтного использования ресурса, то есть разрешения конфликта. Метод разрешения конфликта является главной составной частью алгоритма случайного М. д. Лит.: [1] Клейнрок Л., Вычислительные системы с очередями, нер. с англ., М., 1979; [2] BertsekasD., Gallager R., Data Networks, N. Y., 1987. Б. С. Цыбаков. МНОЖЕСТВЕННЫЙ ДОСТУП случайный (random multiple access) - см. Случайный множественный доступ. МНОЖЕСТВЕННЫЙ КОЭФФИЦИЕНТ КОРРЕЛЯЦИИ (multiple correlation coefficient) - мера линейной зависимости между одной и нек-рой совокупностью случайных величин. Точнее, если (Xj, ..., Xk) - случайный вектор со значениями в II? , то М.к. к. между Xj и Х2, ..., Xk определяется как обычный корреляции коэффициент между Xj и наилучшим линейным приближением Xj по Х2, ..., Xk, то есть регрессией Е(Х1|Х2, ..., Xk) величины Х{ по Х2, ..., Xk. M. к. к. обладает тем свойством, что если при EXt = ... = EXk = О х,*=з2х2+...+рл есть регрессия Xj по Х2, ..., Xk, то среди всех линейных комбинаций величин Х2, ..., Х^ величина Xj* имеет наибольшую корреляцию с Xj; в этом смысле М.к. к.- частный случай канонического коэффициента корреляции. При k = 2 М. к. к. равен обычному коэффициенту корреляции р12 между Xj и Х2. М. к. к. между Xj и Х2, ..., Xk обозначается Р|-(2...л) и выражается через элементы корреляционной матрицы Р= IIPi;II» *'» /= 1» •••» k, следующим образом: РИ2..*)=1-|Р1/РИ. где |Р| - определитель матрицы Р, а Рп - алгебраич. дополнение элемента рп = 1; при этом 0^р1.(2 £)^ 1. Если р1>(2 ь) = \, то величина Xj с вероятностью 1 равна нек-рой линейной комбинации величин Х2, ..., Xk, то есть совместное распределение величин Xj, ..., Х^ сосредоточено в нек-рой гиперплоскости пространства II? . С другой стороны, р1>(2 ^) = 0 тогда и только тогда, когда р12= ... = р^ = 0, то есть когда Х1 не коррелирована ни с одной из величин Х2, ..., Хп. Для вычисления М. к. к. можно также использовать формулу РК2..*) = 1 " а1 -(2...Л) / а1 * где at - дисперсия Xt, a <2...*)=Еа,-Е(Х1|Х2 Xk))2 - дисперсия Xj относительно регрессии. 356 МНОЖЕСТВЕННЫЙ Выборочным аналогом М. к. к. pj.(2 k) является Pl-(2...*) = V1~SH2...*)/S1 ' где s1#(2...fc) и .st - оценки а1>(2...£) и at по выборке объема п. Для проверки гипотезы об отсутствии связи используются выборочные распределения Pi-(2...*>- ^ри условии, что выборка произведена из многомерной нормальной совокупности, величина р j.^ ^ имеет бета-распределение с параметрами ((/г- 1)/2, (n-k)/2), если р1<(2 Л) = 0; если Рн2...*)*0, то величина ир2.(2.../г) при и->°° имеет в пределе нецентральное хи-квадрат распределение с k - 1 степенями свободы и параметром нецентральности яр^ k). Лит.: [1] Крамер Г., Математические методы статистики, пер. с англ., 2 изд., М., 1975; [2] Кендалл М., Стьюарт А., Статистические выводы и связи, пер. с англ., М., 1973. А.В. Прохоров. МНОЖЕСТВЕННЫЙ КОЭФФИЦИЕНТ РАНГОВОЙ КОРРЕЛЯЦИИ (multiple rank correlation coefficient) - см. Ранговая корреляция. ОМНОЖЕСТВО (C-set) - см. Маркова цепь. МНОЖИТЕЛЬНАЯ ОЦЕНКА ФУНКЦИИ РАСПРЕДЕЛЕНИЯ (product-limit estimator/Kaplan - Meier estimator) - см. Надежности математическая теория. МОДА (mode) - числовая характеристика вероятностного распределения на прямой. Если распределение абсолютно непрерывно с плотностью р(х), модой называется каждая точка х0 локального максимума р(х). Для решетчатого распределения, приписывающего вероятности pk точкам xk = a + hk, k = 0, ±1, ±2,..., точка хт называется модой, если рт>рт. \ и рт^рт+\. Распределения, имеющие единственную М.,- унимодальлые распределения - играют наиболее важную роль в теории вероятностей и математич. статистике. Для унимодальных распределений М. является, в нек-ром смысле, наиболее вероятным значением. В. Г. Ушаьов. МОДАЛЬНО НЕСМЕЩЕННАЯ ОЦЕНКА (mode unbiased estimator) - точечная статистическая оценка, мода к-рой совпадает с оцениваемой величиной. Пусть по реализации случайного элемента X, принимающего значения в выборочном пространстве (5Г, 35, Р0), 0е0, надлежит оценить параметр в, и пусть mod07YX) - мода статистики Т, построенной в качестве оценки параметра в. Если mod07YX) = в при всех 0 6 0, то оценка Т называется модально несмещенной. Пример. Пусть Х= (Xj, ..., Хп) - случайный вектор, компоненты к-рого суть независимые случайные величины, подчиняющиеся одному и тому же равномерному закону, плотность вероятностей к-рого есть д,в) = |е-\о<*<е,е>о, [О в противном случае. В этом случае достаточная статистика Х(п\= max X. и яв.ш- ется М. н. о. параметра 0. Использование М. н. о. представляет определенный интерес в задачах статистич. оценивания, в к-рых требуется минимизировать вероятность Р {| Т - 01 > е} отклонения от оценивае чо- го параметра 0. Лит.: [1] Wasan M.T., Parametric estimation, NY., 1970; [2] Воинов В. Г., Никулин М.С., Несмещенные оценки и их применения, М., 1989. М. С. Никулин. Р[ф]2-МОДЕЛИ КВАНТОВОЙ ТЕОРИИ ПОЛЯ (P[<p]2-models of quantum field theory) - простейшие модели скалярного нейтрального бозонного самодействующего ноля в двумерном пространстве Минковского А/ . Формальный лагранжиан такой модели имеет вид 1(<рЫ, я/(0)Ы, Ф^(1)Ы) = = -<Я>*«» >2 + Ко) )2 + m V (х) + *Лф(*>>. <*>
где х = (.г(0), х )еМ2, <р(*) - поле, т2>0, Х>0- константы, а Pi) - многочлен четной степени, большей двух, со старшим коэффициентом, равным 1. По любому лагранжиану вида (*) (с достаточно малым X) можно построить квантовое поле {<р(0, t eSiM )} в пространстве М . Это построение осуществляется с помощью так наз. евклидова подхода: сначала строится Р[<р]2-евклидово поле в li? , а затем с помощью хорошо разработанной процедуры оно «продолжается на мнимое время» (то есть в пространство М ). Евклидово же Р[<р]2-поле является обобщенным случайным марковским полем; оно конструируется как термо- динамич. предел (при Л^И? ) гиббсовских перестроек в ограниченных областях Лс|? гауссова обобщенного поля {Х(<р), cpelR2} с ковариационным функционалом. (Х(ф1)Х(ф2)> = = ii'-A+m )_1ф1»Ф2^ rip2v Ф1» Фге^(^ ) [свободное евклидово поле, соответствующее квадратичной части лагранжиана (*)]. Перестройка осуществляется с помощью действия UAiX) = XJ :PiXix)):d2x; : : означает Вика упорядочение многочлена PiXix)). Лит.: [1] Саймон Б., Модель Р1ф]2 эвклидовой квантовой теории поля, пер. с англ., М., 1976; [2J Глимм Дж., Джаффе А., Математические методы квантовой физики. Подход с использованием функциональных интегралов, пер. с англ., М., 1984; [3] Конструктивная теория ноля, пер. с англ., М., 1977. Р. А. Минлос. МОДЕЛИРОВАНИЕ СЛУЧАЙНЫХ ВЕЛИЧИН И ФУНКЦИЙ (simulation of random variables and functions) - имитирование соответствующих выборочных значений для реализации метода статистического моделирования (Монте-Карло метода). I. Моделирование случайных величин, как правило, осуществляется путем преобразования независимых значений случайного или псевдослучайного числа а, равномерно распределенного в (0,1), то есть по моделирующей формуле: Х = ср(а1, ..., а„). (1) Последовательности выборочных значений а обычно получают на ЭВМ с помощью теоретико-числовых алгоритмов, среди к-рых наиболее часто используют метод вычетов в таком виде: и0= 1, ип = ип_^5 p+ (mod2w), an = un2~m, где т - число разрядов мантиссы ЭВМ, а р = max{g: 5 q+ < 2т). Числа такого вида называются псевдослучайными. Длина периода для указанного варианта метода вычетов равна 2т~ . Стандартный метод моделирования дискретной случайной величины X с распределением Р{Х = хп) =pk, k = 0, l, ..., состоит в следующем: полагают Х = хт, если для выбранного значения а выполняется соотношение Стандартный метод моделирования непрерывной случайной 1{еличины (иначе - метод обратной фу нкци и) состоит в использовании представления X = F (а), где F - функция распределения с заданной плотностью fix). Иногда полезна рандомизация (иначе -метод суперпозиции) на основе выражения fix) =\ Pkfk^x^- При использовании рандомизации сначала выбирают номер с распределением Р{т = k} = pk, а затем получают выборочное значение X из распределения с плотностью fmix). Другим общим способом моделирования непрерывной случайной величины является метод исключения (иначе - метод отбора), в основе к-рого лежит утверждение: если точка (X, У) распределена равномерно в области G = {ix, y):0^y^gix)} площади |g|, to fxix) =gix)/\G\. В методе исключения выбирают точку (Х0, У) равномерно по области Gj > G и полагают X = Х0, если (Х0, У) е G, в противном случае повторяют выбор, и т. д. Для выбора точки (Х0, У) равномерно по области Gj = {ix, у) : О ^ у ^gxix)} достаточно выбрать Х0 из распределения с плотностью ^t(j:)/|G| и положить У = а<71(Х0). Функцию g^ix) ^gix) целесообразно подобрать так, чтобы случайную величину Х0 можно было моделировать стандартным методом. Напр., если а^Х^Ь и gix) = cfix)^R, то можно полагать XQ = a + ib-a)ax и с = Ra2. Среднее число операций в методе исключения пропорционально величине |Gt|/|G|. Величину п обычно называют размерностью моделирующей формулы (1). Требуемое распределение случайной величины Х=ф(а1, ..., а„) является следствием того, что вектор щ, ..., ап распределен равномерно в соответствующем гиперкубе, то есть следствием и-мерной равномерности используемых случайных чисел. Поэтому целесообразно использовать моделирующие формулы малой размерности. Стандартный метод обратной функции, однако, практически редко применяется из-за сложности реализации функции F~ , особенно при наличии параметров, меняющихся в процессе решения задачи. Далее приведены специальные моделирующие формулы для ряда вероятностных распределений (см. [1]). 1) Геометрическое распределение с параметром р: X = [1па/1п(1 -р)], где [х] - целая часть х. 2) Равномерное дискретное распределение на множестве чисел 1, ..., п. Х- [an] + 1. Эту формулу можно использовать для улучшения моделирования произвольных дискретных распределений путем равномерного «расслоения» вероятностей и повторения соответствующих возможных значений (см. [2]). 3) Стандартное нормальное распределение NiO, 1): X=(-21na1)1/2cos(27ta2), У = (-21na1)1/2sin(27ta2). Случайные величины X, У независимы и распределены но закону NiO, 1). 4) Бета-распределение с параметрами р и целым q = m на интервале (0, 1): Рандомизация последней формулы дает возможность моделировать бета-распределение с произвольными параметрами (см. [1]). 5) Гамма-распределение с параметром v: х = -1п[ПГ=1 a*)-Vna«+p где m = [v], а Хц - бета-распределенная случайная величина с параметрами р-\-т, q= \ +m-v. II. Моделирование случайных вектор о в. Стандартный алгоритм моделирования непрерывного случайного вектора X=(Xt, ..., Х„) состоит в последовательном выборе значений его компонент из условных распределений соответственно представлению: fx = f(*i> -' xn>=fi(xiWx2\x\)-fn<xn\xi> ••> *п-1>- Метод исключения и метод суперпозиции переносятся на многомерный случай без изменений, надо лишь в их формулировке рассматривать Хил: как векторы. Так, гауссов- ский вектор X = (Xj, ..., Хп) не слишком большой размерности можно моделировать по формуле Х = ЛУ+ЕХ, где У=(У1, ..., У„) - совокупность независимых стандартно-нор- МОДЕЛИРОВАНИЕ 357
мальных случайных величин, А - треугольная матрица, элементы к-рой вычисляются известным рекуррентным способом (см. [1]). Для построения специальных случайных векторов с заданными одномерными распределениями (одинаковыми для всех компонент) и неотрицательными ковариациями разработан «метод повторения» (см. [3]), при использовании к-рого моделируются случайные разбиения множества компонент вектора на группы одинаковых значений, независимых для фиксированного разбиения. III. Моделирование случайных функций. Если спектральная плотность стационарного гауссовского процесса X(t) задана в виде отношения двух многочленов a»-£:&v*(*>yx.o «*<*>*• (2) где д0= 1, ak, bk - действительные постоянные, а нули многочлена в знаменателе лежат в верхней полуплоскости, то процесс X(t) можно построить в виде линейной комбинации случайной функции Ф(0 и т- 1 ее первых производных: x(t) = bQ<t>(m-*\t) + ... + bm<t>(t), где Ф(0 - решение линейного стохастич. уравнения с постоянными коэффициентами ФЫ(0 + Й1Ф(""°(0 + ...+апФ(0 = W(t), (3) a W(t) - процесс белого шума (см. [1]). Аналогичные представления могут быть получены для случайных полей со спектральными плотностями специального вида; напр., случайное поле с гауссовской спектральной плотностью может быть получено как решение задачи Коши для уравнения теплопроводности с белым шумом в качестве начального значения (см. [4]). Для получения реализаций стационарных процессов в дискретные моменты времени (временных рядов) обычно пользуются приближенной заменой уравнения (3) его конечноразно- стным аналогом. Точную реализацию временных рядов с дробно-рациональной спектральной плотностью (2) можно построить на основе смешанной модели авторегрессии и скользящего среднего (см. [1]). Ряд моделей гауссовских случайных полей рассмотрен в [5]. Известна специальная модель £(£; k) стационарного случайного процесса с заданной выпуклой корреляционной функцией /г(О^0 и одномерной функцией распределения F?(t), основанная на стационарном точечном потоке Пальма {т^} с вероятностью kit) нуля точек в интервале длины t. Процесс £(£; k) моделируется следующим образом: а) строится {т^} в (О, Т)\ б) для каждого интервала (тм, т,-) полагается £(£) = £,•, где {£г} - независимые случайные величины с функцией распределения Fz(x). Эту модель можно улучшить [в предположении, что для каждого натурального m справедливо пред- ставление q = q^ +...+q^', где <;\ независимы и одинаково распределены] с помощью формулы ^m(t) = £._! s/" (t, k). Реализации процесса ^m(t) улучшены сравнительно с £(£; k) в смысле близости к непрерывным функциям. Имеет место слабая сходимость соответствующих <^m(t) конечномерных распределений к распределениям, совокупность к-рых удовлетворяет условиям согласованности, и на основе критерия Колмогорова - Ченцова доказана теорема. Если U"(Ol<c<oo на [О, Т] и £^0, то процессы ^m(t) слабо (относительно метрики D) сходятся к процессу, определяемому предельными конечномерными распределениями, с 358 МОДУЛЯЦИЯ корреляционной функцией k(t) и функцией FAx) одномерного распределения. Аналогичные £,(t, k) модели однородных полей £(r, k) строятся на основе случайных решеток, получаемых прямым перемножением потоков Пальма по различным координатным осям; довольно естественные модели изотропных полей получаются с помощью случайного вращения и суммирования реализаций £(r, k) (см. [5]). Лит.: [1] Ермаков СМ., Михайлов Г. А., Статистическое моделирование, 2 изд., М., 1982; [2] Кнут Д. Я., Яо Э., «Киберне- тич. сб.», 1983, № 19, с. 97-158; [3] Михайлов Г. А., «Теория вероятн. и ее примен.», 1974, т. 19, в. 4, с. 873-79; [4] Марченко А. С, Огородников В. А., «Журн. вычислит, матем. и матем. физики», 1984, т. 24, № Ю, с. 1514-19; [5] Михайлов Г. А., там же, 1983, т. 23, № 3, с. 558-66. Г. А. Михайлов, Н. Н. Ченцов. МОДЕЛИРУЮЩАЯ ФОРМУЛА (simulation formula) - см. Моделирование случайных величин и функций. МОДЕЛЬ (model) - см. Управляемый случайный процесс с дискретным временем. F-МОДЕЛЬ (F-model) - см. Обобщенный регрессионный эксперимент. ХУ-МОДЕЛЬ (XY-model) - см. Гейзенберга модель. XYZ-МОДЕЛЬ (XYZ-model) - см. Гейзенберга модель. МОДУЛИРОВАННЫЙ СИГНАЛ (modulated signal) - см. Модуляция и демодуляция. МОДУЛЯЦИЯ И ДЕМОДУЛЯЦИЯ (modulation and de modulation) - понятия теории информации, описывающие метод передачи сигналов по физическому каналу связи. Модуляция (М.) - это изменение одного или нескольких параметров периодич. функции v(t, X) (несущий сигнал) в соответствии со значениями передаваемого сигнала ait). В результате М. образуется модулированный сигнал Vit) = vit, Bait)), где В - нек-рый, вообще говоря нелинейный, оператор. Демодуляция (Д.) - это выделение сигнала ait) из модулированного сигнала, прошедшего по каналу связи. При М. происходит сдвиг спектра передаваемого сигнала и тем самым появляется возможность наиболее адекватным образом использовать канал связи и осуществлять по нему передачу сигналов с минимальными искажениями. В качестве несущего сигнала часто используется гармонич. колебание V2P cos[co0£ + <p0]. При этом модулированный сигнал имеет вид V2P A(t)cos[Q(t)] и возможны: амплитудная М. A(t) = 1 + mait), e(0 = G)0£ + <Po, фазовая М. А it) = 1, 6(0 = со0£ + ф0 + Дфй (О, частотная М. A(t) = 1, е(О = со0£ + ф0 + Дсок ais)ds. Широкое применение в технике связи находит дискретная (цифровая) М., используемая для передачи по каналу связи последовательности символов из нек-рого алфавита. При этом изменения параметра X несущего сигнала vit, X) могут происходить только в дискретные моменты времени kT, k = 0, l, ..., а сам параметр X может принимать только конечное число определенных значений. Простейшей формой дискретной М. является двухфазная фазовая манипуляция, с помощью крой передаются двоичные символы г/ге{0, 1}. Модулированный сигнал имеет вид Vit) = ^2Psm[(a0t + ^dfiTit + iT)]f Гц, te[0,T), етШ-\о, t*[o,n Математич. постановки задач Д. обычно просты. Напр., для Д. сигнала с двухполосной амплитудой М., прошедшего по
кана/iy связи с аддитивным белым шумом n(t), нужно построить по наблюдениям случайного процесса x(s)=yJ2P tf(s)cOs[G)(yS] + n(s), Sg(-oo, oo), оценку d(t) гауссовского стационарного процесса a(t). При этом предполагается, что оптимальная оценка d(t) должна минимизировать среднеквадратичный риск E[d(t)-a(t)] . Спектральная плотность Gfl(co) процесса д() и спектральная плотность гауссовского белого шума Nq/2 считаются известными, причем Gfl(co) = 0 при |со|>а>о. Оптимальная оценка является линейной и имеет вид a(t) - J— J hit - s)cos[(uQs]x(s)ds, С+~„-ш N0/2P где hit) _\_ 2тс б/со. Ga((d)+NQ/2P В реальных каналах связи, как правило, наряду с аддитивным шумом появляются и флуктуации фазы несущего гармонии, колебания. Поэтому при Д. возникает важная задача слежения за этими флуктуациями. В простейшем случае она может быть сформулирована следующим образом: по наблюдениям случайного процесса x(s) = JlP cos[co0s + <p(s)] + n(s), se[0, t], где ф(-) - гауссовский стационарный процесс, я(-) - гауссов- ский белый шум, требуется построить оценку ф(0, минимизирующего Е[ф(0~ф(0] . Решение этой задачи можно получить в рамках марковской теории оптимальной нелинейной фильтрации (см. [4], [5]). На практике один из распространенных подходов к ее решению основан на принципе фазовой синхронизации (см. [8]). Этот принцип реализуется в технике связи с помощью систем фазовой автоподстройки частоты (ФАПЧ). Математич. теория ФАПЧ является одним из основных элементов статистич. теории Д. (см. [5]-[8]). Лит.: [1] Котельников В.А., Теория потенциальной помехоустойчивости, М.-Л., 1956; [2] Сакрисон Д., Лекции по аналоговой (вязи, пер. с англ., М., 1974; [3] Возенкрафт Дж., Джекобе И., Теоретические основы техники связи, пер. с англ., М., 1969; [4] Стратонович Р. Л., Условные марковские процессы и их применение к теории оптимального управления, М., 1966; [5] Тихонов В. И., Кульман Н. К., Нелинейная фильтрация и квазикогерентный прием сигналов, М., 1975; [6] Витерби Э. Д., Принципы когерентной связи, пер. с англ., М., 1970; [7] Ван Трис Гарри Л., Теория обнаружения, оценок и модуляции, пер. с англ., т. 1-2, М., 1972-75; [8] Л индсей В., Системы синхронизации в связи и управлении, пер. с англ., М., 1978. ft к Голубев. МОЗАИКА (tessellation/mosaic) - см. Случайная мозаика. МОЛОДЕЮЩЕЕ РАСПРЕДЕЛЕНИЕ (beneficial aging distribution) - см. Стареющее распределение. МОМЕНТ (moment) - числовая характеристика распределения вероятностей. Момент mk порядка k (k>0 - целое) случайной величины X определяется как математич. ожидание ЕХ , если оно существует. Если F(x) - функция распределения случайной величины X, то Щ ■•EXk = £oaxhdF(x). С) При определении М. в теории вероятностей используется прямая аналогия с соответствующим понятием, играющим важную роль в механике: формулой (*) определяется М. распределения масс. М. 1-го порядка (статич. М. в механике) случайной величины X - математическое ожидание т = EX. Величина Е(Х - а) называется моментом порядка/г относительно а, щ = Е(Х-ЕХ) - центральным моментом порядка к. Центральный М. 2-го порядка сг = Е(Х-ЕХ) называется дисперсией DX (М. инерции в механике). Величина Vfc = E|x| называется абсолютным моментом порядка к (абсолютный М. определяется и для нецелых к). Аналогично определяется М. совместного распределения случайных величин Xj, ..., Хп (см. Многомерное распределение)', для любых целых /гг-^0, k\ + ... + kn = k, математич. ожидание Е(Х1,, ..., Хпп) называется смешанным моментом порядка k, а Е(Х1-ЕХ1) ^..(Х^-ЕХ^) " - центральным смешанным моментом порядка к. Смешанный М. E(Xj -EX1)(X2- ЕХ2) называется ковариацией и служит одной из основных характеристик зависимости между случайными величинами (см. Корреляция). Многие свойства М. (в частности, неравенства для М.) являются следствием того факта, что для любой случайной величины X функция g(k) = \ogE\X\ выпукла по k в каждом конечном интервале, где эта функция определена; (Е|х| ) ' является неубывающей функцией от k. М. ЕХ и Е(Х-д) существуют тогда и только тогда, когда Е|х| <°°. Из существования М. Е|х| ° вытекает существование всех М. порядка k^kQ. Если Е|х,-|*<оо при всех t=l, ..., п, то существуют смешанные М. EXt,, ..., Хпп для всех целых k^O, k\ + ... + kn^k. В нек-рых случаях для определения М. бывает полезна так наз. производящая функция моментов- функция M(t), для к-рой М. распределения служат коэффициентами при разложении ее по степеням: для целочисленных случайных величин эта функция связана с производящей функцией P(s) соотношением М&) = Р(е*). Если Е|х| <<*>, то характеристич. функция f(t) случайной величины X имеет непрерывные производные до порядка k включительно, при этом М. порядка k является коэффициентом при (it) k\ в разложении f(t) по степеням t: ЕХ* '<-o*£-*flU Если существует производная характеристич. функции порядка 2k в нуле, то Е|Х|2 <<*>. О связи М. с семиинвариантами см. в ст. Семиинвариант. Если известны М. распределения, то можно сделать нек-рые утверждения о вероятностях отклонения случайной величины от ее математич. ожидания в терминах неравенств; наиболее известны Чебышева неравенство Р{\Х-ЕХ\>*)^Щ-, е>0, е и его обобщения. Задача, состоящая в определении распределения вероятностей последовательностью его М., носит название проблемы моментов. Впервые эта задача была рассмотрена П. Л. Чебышевым (1874) в связи с исследованиями по предельным теоремам. Для того чтобы распределение вероятностей случайной величины однозначно определялось своими М. ak = ЕХ , достаточно, напр., выполнение условия Карле- мана: IL («2*)-,/2*=~. Аналогичное утверждение справедливо и для М. случайных векторов. Использование М. при доказательстве предельных теорем основывается на следующем факте. Пусть Fn, n=\, 2, ...,- последовательность функций распределения, все М. к-рых mk(n) конечны, и пусть при каждом целом k^ 1 имеет место сходимость mk(n)^>mk при и->°°, где mk конечны. Тогда существует подпоследовательность Fn , слабо сходящаяся к МОМЕНТ 359
функции распределения F, имеющей mk своими М. Если М. определяют F однозначно, то последовательность Fn слабо сходится к F. На этом основан так наз. моментов метод, используемый, в частности, в математич. статистике при изучении отклонений эмпирич. распределения от теоретического и для статистич. оценки параметров распределения (о выборочных М. как об оценках М. нек-рого распределения см. в ст. Эмпирическое распределение). А. В. Прохоров. МОМЕНТ лестничный (ladder epoch) - см. Лестничный момент. МОМЕНТ остановки (stopping time) - см. Остановки момент. МОМЕНТНАЯ МЕРА точечного процесса (moment measure of a point process) - мера, значение к-рой на боре- левском множестве В равно среднему числу точек (с учетом их кратностей) случайного точечного процесса, находящихся в В. Если Ф - случайный точечный процесс, определенный на фазовом пространстве (А, Ю, то М. м. Л точечного процесса Ф определена на множествах В еЧ соотношением Л(Я) = ЕФ(Я). Пусть S = {tv i = О, ± 1, ± 2, ...} - случайная последовательность точек t{ на прямой II? , tt<tl+i. Пусть рассматривается случайный точечный процесс Ф; Ф(В) для борелевского множества В равна числу t^B. M. м. процесса Ф равна среднему числу точек tit попавших в В. Для вычисления моментов ЕФ(В)к, ЕФ(В\)1Ф(В2)т используются факториальные М.м. точечного процесса Ф. В случае k = 2, 1 = т=\ используется вторая факториальная М.м. Л(2), для определения к-рой рассматривают все пары (tit t.-), t^t.-, t{, t.- - точки исходной случайной последовательности S. Для борелевского множества С на плоскости II? полагают Л(2)(С) равным среднему значению суммы произведений кратностей Ф({^})Ф({^}) точек (tj, tj), попавших в С, t^tj. Если S = {ti^0, i=l, 2, ...} соответствует процессу восстановления, то для C<=IR xIR Л(2)(С)= ff dH(t2-L)dH(L) + + ff , dH(tx-t2)dmt2\ где H(t) - функция восстановления. Если Bv B2 - непересекающиеся отрезки на II? , то ЕФ(#1)Ф(#2) = Л(2>(В1 х В2), где В\хВ2- прямоугольник со сторонами Bv B2. Второй факто- риальный момент ЕФ(В1)[Ф(В1) - 1J = A(2)(#1 хб2). М. м. используются при исследовании пересечений уровня реализациями случайных процессов. См. также Геометрический процесс. Лит.: [1] Крамер Г.,Лидбеттер М., Стационарные случайные процессы, пер. с англ., М., 1969, с. 341-78. Ю. К. Беляев. МОМЕНТНАЯ СПЕКТРАЛЬНАЯ ПЛОТНОСТЬ (moment spectral dencity) - см. Моментный спектр. МОМЕНТНЫИ СПЕКТР (moment spectrum), моментная спектральная плотность, порядка k - преобразование фурье-момента порядка k одномерного стационарного случайного процесса X(t), EX(O = 0. М.с. порядков k = 2, 3 совпадают с соответствующими семиинвариантными спектрами (см. Спектральный семиинвариант, Спектральная плот ность). Фурье-анализ старших моментов временных рядов был предложен в [1], однако в дальнейшем большее развитие получил фурье-анализ старших семиинвариантов. 360 МОМЕНТ Лит.: [1] Blanc-Lapierre A., Fortet R., Theorie des fonc- tions aleatoires, P., 1953; [2] Хеннан Э., Многомерные временные ряды, пер. с англ., М., 1974. И. А. Кожевникова. МОМЕНТОВ МЕТОД (moments, method of) - предложенный П. Л. Чебышевым метод доказательства центральной предельной теоремы (см. [1]). Этим методом А.А.Маркову [2] удалось доказать утверждение Ляпунова теоремы (сходимость к нормальному закону). Основная идея доказательства состояла в том, что при определенных условиях сходимость моментов целых степеней сумм независимых случайных величин к соответствующим (предельным) моментам нек-рого закона распределения влечет за собой сходимость отвечающих этим суммам распределений к тому же закону. М. м. имеет естественную связь со степенной проблемой моментов. Усовершенствовав метод Чебышева, А. А. Марков впервые использовал «урезания» случайных величин, позволившие ему оперировать со случайными величинами, для к-рых существуют моменты любого порядка. В последующем М. \i. не получил широкого использования, поскольку в технпч. отношении он оказался много сложнее, чем конкурировавший с ним характеристических функций метод. Лит.: [1] Чебышев П. Л., Поли. собр. соч., т. 3, М.-Л., 1948, с. 229-39; [2] Марков А. А., Исчисление вероятностей, 4 изд., М., 1924. В. М. Золотарев. МОМЕНТОВ МЕТОД (moments, method of), в математической статистике - один из общих методов построения статистических оценок параметров вероятностных распределений. Создателем М.м. является К. Пирсон (К. Pearson). Процедура М. м. такова: выборочные моменты в количестве, равном числу оцениваемых параметров, приравниваются к соответствующим моментам генеральной совокупности; полученная система уравнений решается относительно параметров, и найденные решения представляют собой требуемые оценки. Вычисления, связанные с М. м., обычно довольно просты. При весьма общих условиях регулярности оценки М. м. являются асимптотически несмещенными и, после должной нормировки, имеют асимптотически нормальное распределение (см. [1]). Недостатки М.м.: 1) оценки М.м. не являются наилучшими среди всех оценок в смысле их асимптотич. эффективности; 2) точность оценок М.м. не может быть увеличена. Частично от этих недостатков позволяет избавиться так наз. корректный вариант М.м. (см. [2]). Этот метод дает возможность привлекать для определения оценок большее, по сравнению с количеством оцениваемых параметров, число выборочных моментов. Для распределен ли с определенной проблемой моментов при увеличении числа привлекаемых выборочных моментов корректный вариант М. м. переходит в максимального правдоподобия метод. Имеется иная модификация М.м., обладающая достоинствами корректного варианта М.м., но имеющая «линейную структуру» (см. [3]). Оценки корректного и модифицированного вариантов М.м. также асимптотически не смещены и (после нормировки) имеют асимптотически нормальное распределение. Лит.: [1] Крамер Г., Математические методы статистики, iep. < англ., 2 изд., М., 1975; [2] Каган A.M., «Проблемы передали информации», 1976, т. 12, в. 2, с. 20-42; [3] Какосян А. В., Клебанов Л. Б., Меламед И. А., Проблема построения моделей в :тати- стической теории оценивания параметров, Т6., 1986. Л. Б. Клебанов. МОМЕНТОВ ПРОБЛЕМА (moment problem) - см. Mo мент. МОМЕНТОВ ПРОБЛЕМА степенная (power moment problem) - см. Степенная проблема моментов. МОМЕНТОВ ФУНКЦИЯ (moment function) действительного случайного процесса, или случайной
функции {X(f), te T) - функция аргументов t]y ..., tkeT, определяемая равенством = E[X(ti)]Jnx(t2)]J2...[X(tk)]ik, ;v>0, v = l, ...,*. Величина q=jx + ---+Jk называется порядком М.ф. Для того чтобы М. ф. порядка q была определена, следует предположить, что функция Х(0 при всех teT имеет конечный момент Е|Х(Ог порядка q. В этом случае определены все М. ф. порядка p^q. М. ф. может быть найдена по формуле = foo...foQXJ^xJ2'...xJkkdP{X(t])<xv...,X(tk)<xk}. Если известна характеристич. функция случайного вектора (ХЦ), .... X(tk)) Ф\ .,гк; tx ^) = Еехр{*Х*=12уХ(Ц> тс М.ф. с целочисленными индексами ]\, ..., jk может быть найдена по формуле mi :Atv...,tk) = (-Oi , г1=.. = г,=0 М.ф. первого порядка /я, (О = m(t) = EY(f) = £ xdP{X(t) <x) называют математическим ожиданием или средним значением случайной фу н кции; М. ф. второго порядка m2(tXt t2) = EX(t])X(t2)=j°^ £ xxx2dP{X(tx) <*\X(t2)<x2) часто называют ковариационной функцией (или корреляционной функцией) случайной функции х<0. Рассматриваются и центральные функции моментов VJv.,jkUu .... ^) = E[X(^)-EX(^)];i... [X(tk)-EX(tk)]h, ;v>0, v=l, ..., k, к рые являются М. ф. центрированной случайной функции Xj(0 = Х(0 - mx(t), имеющей при любом teT нулевое мате- матич. ожидание. Величина q=j\ + ..-+]\ также называется порядком центральной функции моментов. Так, центральная функция моментов второго порядка \il2Ui, t2) = Btti, t2) = E[X(tx) -EX(tx)][X(t2) -EX(t2)] называется корреляционной функцией случайного процесса (или случай ной фу нкции) {Х(0, te Т). Если {Х(0, teT) - гауссовская случайная функция, то ее первые две М.ф. mx(t) и m2(tx, t2) однозначно определяют конечномерные распределения случайной функции {Х(0, teT), а значит, и саму случайную функцию {Х(0, t е T) в целом. В общем случае знание первых двух М.ф., как и любого другого конечного набора М.ф., недостаточно для полного описания случайной функции. Если {Х(0, teT] - стационарный в узком смысле случайный процесс, у к-рого для каждого t е Т конечен момент Е|Х(0 г, то М.ф. rrij j (t]f ..., tk) = rrij j (tx+h, ..., tk + h) для любого h g T такого, что h + t.eT, j=\, ..., k. Между М. ф. порядка q и функциями семиинвариантов порядка q существуют конечные формулы связи Леонова - Ширяева (см. [1]). Лит.: [1] Леонов В. П., Некоторые применения старших семиинвариантов к теории стационарных случайных процессов, М., 1964; [2] Гихман И. И., Скороход А. В., Введение в теорию случайных процессов, 2 изд., М., 1977. Н. Н. Леоненко. МОНИНА - ОБУХОВА ТЕОРИЯ ПОДОБИЯ (Monin - Obukhov similarity theory) - теоретическая модель плоскона- раллельного стационарного течения стратифицированной по температуре (плотности) жидкости (газа) с развитой турбулентностью в полупространстве над однородной поверхностью z = 0, предложенная А. С. Мониным и A.M. Обуховым [1], [2]. Лит.: [11 Монин А. С, Обухов A.M., «Докл. АН СССР», 1953, т. 93, К? 2, с. 223-26; [21 их же, «Тр. Геофиз. ин-та АН СССР», 1954, № 24, с. 163-87; [31 Монин А. С, Яг- лом A.M., Статистическая гидромеханика. Механика турбулентности, ч. 1, М., 1965, гл. 4; [41 Математическая физика. Энциклопедия, М., 1998, с. 368. Р. В. Озмидов. МОНОТОННАЯ СТРУКТУРА СИСТЕМЫ (monotone struc- ture of a system) - см. Надежности математическая теория. МОНОТОННОЕ ОТНОШЕНИЕ ПРАВДОПОДОБИЯ (monotone likelihood ratio) - свойство семейства рас пределений, заключающееся в монотонности отношения правдоподобия относительно нек-рой статистики. Пусть if= {Ре, 0е0с1Р}- семейство распределений, зависящих от действительного параметра в и обладающих плотностью р(х, в) относительно нек-рой а-конечной меры. Семейство if обладает монотонным отношением правдоподобия, если для любых значений 8 и 0' > 0 распределения Ре и Р# различны и существует функция Т(х) такая, что отношение правдоподобия р(х, Q')/p(x, в) монотонно относительно Т(х). Важным свойством семейств с М. о. п. является существование равномерно наиболее мощного критерия в задаче различения гипотез Я0: в ^ в0 и Я1: в > в0 по одному наблюдению х над случайной выборкой X с распределением Рее^. Считая для определенности, что отношение правдоподобия является возрастающей функцией от Т(х), показано, что равномерно наиболее мощный критерий в этой задаче имеет вид [О при Т(х)<С, <p(.r) = jy при Нх) = С, (1) [1 при Т(х)>С, где при заданном уровне значимости а константы С и у в (1) определяются из условия Е6оф(Х) = а. (2) Функция мощности р(в) = Ее<р(Х) этого критерия возрастает во всех точках в, для к-рых |$(в) < 1, и при любых значениях в<в0 критерий (1) минимизирует [среди всех критериев, удовлетворяющих соотношению (2)] вероятность ошибки 1-го рода 1-р(в). При выполнении весьма общих условий регулярности верен и обратный результат (см. [91, [4]): если в рассмотренной выше задаче различения гипотез Я0 и Нх об одномерном параметре распределения существует равномерно наиболее мощный критерий, то семейство & обладает свойством М. о. п. Указанное свойство семейств распределений с М.о. п. позволяет строить равномерно наиболее мощные критерии не только для однопараметрич. семейств; они используются, напр., для построения равномерно наиболее мощных подобных критериев в задачах с мешающими параметрами (после сведения исходной задачи различения гипотез к задаче отно- МОНОТОННОЕ 361
сительно условных распределений) или для построения равномерно наиболее мощных инвариантных критериев (после перехода к максимальным инвариантам). Если в рамках теории статистич. решений описанная выше задача сформулирована как задача с двумя решениями {d{: принять гипотезу Н{, i = 0, 1} и с функцией потерь /(в, d), то при выполнении соотношения (/(в, ^)-/(в, </0))(е-е0)^о семейство критериев вида (1) (при различных Сиу) образует существенно полный класс, к-рый будет минимальным, если носитель распределения Ре не зависит от в. Этот результат является частным по отношению к установленному в рамках теории статистич. решений общему результату: для семейств с М.о. п. (или с нек-рыми более общими свойствами монотонности) существенно полный класс составляют монотонные процедуры; этот результат конкретизируется для различных статистич. проблем - теории оценивания, проверки гипотез, различения многих гипотез и т. п. (см. [3] - [8]). Свойство М. о. п. порождает весьма сильное упорядочивание в семействе #*и является частным случаем более слабого свойства стохастич. упорядоченности семейства распределений: семейство с М.о. п. относительно функции Т(х)=х является стохастически упорядоченным; обратное утверждение в общем случае неверно. Примером семейства с М.о. п. служит однопараметрич. экспоненциальное семейство распределений, определяемых плотностью Р(х, e) = c(e)M*)exp{Q(e)74*)}, в к-рой Q(e) - строго монотонная функция параметра 6е0с:11?1. Литп.:[\] Боровков А. А., Математическая статистика, М., 1984; [2] Леман Э., Проверка статистических гипотез, пер. с англ., 2 изд., М., 1979; [3] Закс Ш., Теория статистических выводов, пер. с англ., М., 1975; [4] Шметтерер Л., Введение в математическую статистику, пер. с нем., М., 1976; [5] Ferguson Т. S., Mathematical statistics: a decision theoretic approach, v. 1, N.Y., 1967; [6] Karlin S., Rubin H., «Ann. Math. Statist.», 1956, v. 27, № 2, p. 272-99; [7] Brown L., Cohen A., Strawderman W., там же, 1976, v. 4, Jsfe 4, p. 712-22; [8] Ruschendorf L., «Math. Operationsforsch. und Statist. Sec. Statist», 1983, Bd 14, № 2, S. 243-50; [9] Pfanzagl J., «Z. Wahr. und verw. Geb.», 1962, Bd 1, № 2, S. 109-15. А. В. Бернштейн. МОНОТОННОЕ РАСПРЕДЕЛЕНИЕ (monotone distribution) - распределение случайного элемента X со значениями в конечном пространстве £, для к-рого существуют х0е% и близости мера р такие, что из р(х, х0) > р(г/, х0) следует Р{Х = х) < Р{Х = у) для любых х, у из И. Если И - изотропное пространство (см. ниже), то средняя величина Е(Х, р) для X относительно р совпадает с х0 - модой распределения X; более того, Е(Х, /Хр)) = *о для любой строго возрастающей функции f: [0, + оо) _> [0, +оо), /Х0) = 0. Если же И не является изотропным, то Е(Х, р) может не совпадать с х0 (см. [ 1]). Пространство И называется изотропным, если для любого х^И множество чисел {р(х, у), у е %,} является одним и тем же, при этом если при нек-ром х е И равенство р(#, у) = t выполнено ровно для k элементов у е £, то и при любом другом z e X равенство p(z, y) = t также выполнено ровно для k элементов у е £, и так для всех неотрицательных t. Пространства ранжировок, линейных порядков, разбиений, толерантностей, подмножеств конечного множества изотропны. Понятия М. р. и изотропного пространства широко используют в статистике объектов нечисловой природы. Лит.: [1] Орлов А. И., Устойчивость в социально-экономических моделях, М., 1979. А. И. Орлов. 362 МОНОТОННОЕ МОНОТОННЫЙ ИНВАРИАНТ (monotone invariant) - см. Статистических решающих правил категория. МОНОТОННЫЙ КЛАСС МНОЖЕСТВ (monotone class of sets) - непустой класс множеств, обладающий свойством: какова бы ни была монотонная (возрастающая или убывающая) по включению последовательность множеств, принадлежащих этому классу, ее предел также принадлежит этому классу. Монотонные классы имеют важные применения в теории меры и теории вероятностей, поскольку в различных процессах рассуждений и доказательств с ними гораздо удобнее оперировать, чем с а-алгебрами и с а-кольцами. Для того чтобы данная алгебра множеств была а-алгеброй, необходимо и достаточно, чтобы она представляла собой монотонный класс, а-алгебра множеств, порожденная данной алгеброй множеств, совпадает с монотонным классом, порожденным этой алгеброй (то есть с наименьшим по включению монотонным классом, содержащим эту алгебру). Аналогичным образом для того, чтобы данное кольцо множеств было одновременно и а-кольцом, необходимо и достаточно, чтобы оно было монотонным классом. Наконец, а-коль- цо множеств, порожденное данным кольцом, совпадает с М.к. м., порожденным этим кольцом. В частности, если нек-рый М. к. м. содержит в себе данное кольцо множеств, ю он целиком содержит и а-кольцо множеств, порожденное этим кольцом. С понятием М. к. м. тесно связано понятие нормального класса множеств, то есть такого класса множеств, к-рый замкнут относительно пересечений убывающих последовательностей его элементов и относительно объединений дизъюнктных последовательностей его элементов. Для нормальных классов имеют место утверждения, аналогичные приведенным выше. Напр., всякое кольцо множеств, являющееся нормальным классом, представляет собой а-кольцо; нормальный класс, порожденный данным кольцом множеств, совпадает с а-кольцом, порожденным этим кольцом, и т.д. Нормальные классы множеств также часто используются в различных вопросах теории меры и теории вероятностей. Лит.: [1] Халмош П., Теория меры, пер. с англ., М., 1953; [2] Неве Ж., Математические основы теории вероятностей, пер. с франц., М., 1969; [3] Прохоров Ю. В., Розанов Ю. А., Теория вероятностей. Основные понятия. Предельные теоремы. Случайные процессы, 3 изд., М., 1987; [4] ГихманИ.И., Скороход А. В., Введение в теорию случайных процессов, 2 изд., М., 1977. А. Б. Харазишаили. МОНТЕ-КАРЛО МЕТОД (Monte Carlo method), метод статистических испытаний,- статистическое моделирование случайных величин и случайных функций с целью вычисления характеристик их распределений. Простейшая процедура метода основана на законе больших чисел и использует для оценивания математич. ожидания случайной величи- ны X среднее — У X;, где X; - моделируемые независимые реализации X. Если ЕХ <<*>, то вследствие центральной предельной теоремы при достаточно больших N с вероятностью, близкой к единице, имеет место где у- константа, определяемая заданными условиями доверия. Использование иных предельных законов позволяет строить другие процедуры М.-К. м. Исходными при моделировании случайных величин и функций являются наборы случайных битов, то есть независимых случайных величин, принимающих значения 0 или 1 с вероятностью 1/2. Биты, обладающие (приближенно) такими свойствами, получают в ЭВМ с помощью датчика случайных чисел1. Далее используются алгоритмы моделирования, качество
к-рых имеет важное значение. Предпочтение отдается алгоритмам, для к-рых оценка сложности моделирования распределения близка к оптимальному значению. С помощью М.-К. м. возможно исследование сложных вероятностных моделей, используемых в различных областях науки и техники, чем и определяется его важное значение. Наиболее распространены применения М.-К. м. для решения задач статистич. физики, вычислительной математики (вычисление интегралов, решение уравнений), моделирования систем обслуживания. Важное значение для развития М.-К. м. имели его применения для решения линейных и нелинейных задач переноса, в связи с чем возникли различные приемы повышения его эффективности. Рассматривая М.-К. м. как средство вычисления интеграла J f(x)\i(dx) по вероятностной мере \i, можно указать следующие способы улучшения его простейшей процедуры: 1) использование квадратурных формул со случайными узлами, 2) метод существенной выборки (замена меры), основанный на равенстве j f(x)diL(dx) = j fix) ^(xMdx), справедливом в предположении, что существует производная Радона - Никодима d\i/d\; это приводит к оценке где ух независимы и распределены по закону V, а удачный выбор v обеспечивает малость дисперсии оценки; 3) методы, основанные на выполнении интегрирования по нек-рым переменным с помощью аналитич. или классич. численных средств; 4) использование зависимых испытаний при вычислении интегралов, зависящих от параметра. Перечисленные приемы часто приводят к реализации на ЭВМ «фиктивной» модели (отличной от исходной) и рассматриваются как методы планирования имитационного эксперимента. Лит.: [1] Соболь И. М., Численные методы Монте-Карло, М., 1973; [2] Ермаков СМ., Метод Монте-Карло и смежные вопросы, 2 изд., М., 1975; [3] МарчукГ. И. и др., Метод Монте-Карло в атмосферной оптике, Новосиб., 1976; [4] ЕрмаковС.М., Михайлов Г. А., Статистическое моделирование, 2 изд., М., 1982; [5] Ермаков СМ., НекруткинВ. В., Си пин А. С, Случайные процессы для решения классических уравнений математической физики, М., 1984. СМ. Ермаков. М.-К. м. широко применяется в рандомизированных алгоритмах решения различных экстремальных задач, напр. поиска максимумов или минимумов функции многих переменных, построения комбинаторных объектов или геометрич. конфигураций, обладающих экстремальными свойствами. Примерами такого применения М.-К. м. являются метод моделируемого остывания и генетич. алгоритмы. Лит.: [6] Aarts Е., Korst J., Simulated annealing and Boltzmann machines (A stochastic approach to combinatorial optimization and neural computing), Chichester, 1989; [7] Fishman G. S., Monte Carlo: concepts, algorithms, and applications, В., 1996; [8] Gol d berg D. E., Genetic algorithms in search, optimization and machine learning, Ad- dison-Wesley, 1989; [9] van Laarhoven P. J. M., Aarts E.H.L., Simulated annealing: theory and applications, Dordrecht - Boston, 1987; [10] Winkler G., Image analysis, random fields and dynamic Monte Carlo methods (A mathematical introduction), В., 1995; [И] Эволюционные вычисления и генетические алгоритмы. Обозрение прикладной и промышленной математики, 1996, т. 3, в. 5; [12] Бати щев Д. И., Генетические алгоритмы решения экстремальных задач, Воронеж, 1995. А. М. Зубков. МОНТЕ-КАРЛО МЕТОД; гарантируемая точность алгоритма (Monte Carlo method; quaranteed accuracy of an algorithm) - число bN/п, вероятность превышения к-рого случайной погрешностью А алгоритма (в зависимости от числа N смоделированных испытаний) не меньше какого-либо уровня доверия 1 - ц, близкого к 1. Обычно Т| выбирают в пределах 0,01-0,05. В основной для метода Монте-Карло задаче приближения математич. ожидания средним N [/XcOj) + ... + f((oN)] по независимым испытаниям сог- грубая доверительная оценка погрешности получается из неравенства Чебышева 5^ ^ (Df/r\N)i/2. При достаточно большом N и не слишком малом Т| можно пользоваться асимптотически точной оценкой по центральной предельной теореме: bj^^xx^iDf/N)^2. Обычно принимают хц = 3, отвечающее Т| = 0,027 (правило трех сигм), а заранее неизвестное Df=Ef -(E/*) также приближают по экспериментальным средним. Лит.: [1] ЕрмаковС. М., Метод Монте-Карло и смежные вопросы, 2 изд., М., 1975. И. И. Чепцов. МОНТЕ-КАРЛО МЕТОД; объем необходимой работы (Monte Carlo method; required amount of work) - количество шагов работы алгоритма или ЭВМ, необходимое для решения задачи с заданной гарантируемой точностью е. В теоретич. вопросах за шаг работы принимают одну операцию над числами, арифметическую или логическую, либо же одну унарную или бинарную операцию над битами. На практике вместо числа тактов компьютера измеряют потребное машинное время. Последняя величина зависит не только от качества алгоритмич. реализации аналитич. метода, но и от свойств компьютера. В основной для М.-К. м. задаче подсчета математич. ожидания Ef= j /Xco)P(rfco) по среднему арифметич. N независимых наблюдений /Хсог) объем необходимой работы, равный Nx, пропорционален xD/e~ , где Df- дисперсия, т - средняя работа (время вычисления) одной реализации /Хсо), е - требуемая гарантируемая точность алгоритма в М.-К. м. Лит.: []] Фролов А. С, Чен цов Н. Н., в сб.: Методы программирования и решения задач на цифровых вычислительных машинах, Ногинск, 1959, с. 140-47; [2] Бусленко Н. П., Ш рейдер Ю. А., Метод статистических испытаний (Монте-Карло) и его реализация на цифровых вычислительных машинах, М., 1961. Н. Н. Чепцов. МОНТЕ-КАРЛО МЕТОД; оценка неизвестной плотности (Monte Carlo method; unknown density estimation) - совокупность алгоритмов построения и обработки результатов имитационных экспериментов, по исходам к-рых можно оценить искомую плотность распределения вероятностей или плотности расположения случайных точек. Если результатом имитационного эксперимента также являются случайные точки (напр., значения числовой или векторной случайной величины, плотность распределения к-рой требуется найти), применяют обычные статистич. методы обработки (см. Плотность распределения; оценка по наблюдениям). По порядку более точными оказываются (см. [1]) специфич. алгоритмы, в к-рых имитируемое случайное явление модифицировано так, чтобы для искомой плотности р(у) существовало интегральное представление р(х) = Е/Хсо; х), где со - случайный элементарный исход моделируемого явления. Так, в модели марковских перескоков {xq-*^ ->... -> ^} в области D с переходной плотностью q(x, у) и поглощением при уходе из D плотность частиц, испущенных источником из точки х0, можно оценить по смоделированным вплоть до поглощения траекториям {xQ, £t •, ..., Ол ,■}, напр., построив гистограмму по точкам £л •. Однако выгоднее оценки типа используемые при решении статистическим моделированием задач переноса (ср. Столкновений метод; оценки, см. также [2], [3]). Лит.: [1] Фролов А. С, Чен цов Н. Н., в кн.: Тр. VI Всесоюзн. совещания по теории вероятн. и математич. статистике, Вильнюс, 1962, с. 425-37; [2] Kalos M., «Nuclear Sci. and Eng.», 1963, v. 16, p. 111-17; [3] ЕрмаковС.М., Метод Монте-Карло и смежные вопросы, 2 изд., М., 1975. я. И. Чепцов. МОНТЕ-КАРЛО 363
МОНТЕ-КАРЛО МЕТОД; решение линейных уравнений (Monte Carlo method; solution of linear equations) - см. Линейное уравнение; решение методом Монте-Карло. МОНТЕ-КАРЛО МЕТОД; решение нелинейных уравнений (Monte Carlo method; solution of non-linear equations) - см. Нелинейное уравнение; решение методом Монте-Карло. МОНТЕ-КАРЛО МЕТОД; решение эллиптических уравнений (Monte Carlo method; solution of elliptic equations) - см. Эллиптическое уравнение; решение методом Монте-Карло. МОРГАНА ЧИСЛА (Morgan numbers) - см. Комбинаторные числа. МОСТ броуновский (Brownian bridge) - см. Винеров- ский мост. МОЩНОСТИ КРИТЕРИЯ ФУНКЦИЯ (power function of a test) - функция, характеризующая качество статистического критерия. Пусть но реализации х случайного вектора X, принимающего значения в выборочном пространстве (£, Л, Р0), ве0, надлежит проверить гипотезу Я0, согласно к-рой распределение вероятностей Ре случайного вектора X принадлежит подмножеству Яо = (Ре,ее0ос0(, против альтернативы Я1, согласно к-рой РвбЯ, = {Рв.вбв1=в\вь}. и пусть ф(-) - критич. функция статистич. критерия, предназначенного для проверки #0 против Ну Тогда Р(в) = \ж q>(*wpew, eе0 = e0uelf (*) называется функцией мощности статистического критерия, имеющего критич. функцию <р. Из (*) следует, что М.к. ф. р(в) показывает, с какими вероятностями статистич. критерий, предназначенный для проверки Я0 против Ну отклоняет проверяемую гипотезу Я0, если X подчиняется закону Р0, в е 0. В теории проверки статистич. гипотез, основанной Ю. Нейманом (J. Neyman) и Э. Пирсоном (Е. Pearson), задача проверки сложной гипотезы Я0 против сложной альтернативы Я1 формулируется в терминах М. к. ф. и заключается в построении статистич. критерия, максимизирующего М.к.ф. Р(6), когда ве01 при условии, что |}(6)^а для всех ве0о, где число а(0<а< 1), называемое уровнем значимости критерия, - заданная допустимая вероятность ошибочного отклонения гипотезы Я0, когда она в действительности верна. Лит.: [1] Леман Э.Л., Проверка статистических гипотез, пер. с англ., 2 изд., М., 1979; [2] Крамер Г., Математические методы статистики, пер. с англ., 2 изд., М., 1975; [3J Ван дер ВарденБ.Л., Математическая статистика, пер. с нем., М., 1960. М. С. Никулин. МОЩНОСТИ СПЕКТР (power spectrum) - см. Стационарный случайный процесс. МОЩНОСТЬ статистического критерия (power of a statistical test) - вероятность, с к-рой статистический критерий, предназначенный для проверки простой гипотезы Я0 против сложной альтернативы Ну отклоняет Я0, когда в действительности верна гипотеза Ну В случае когда гипотеза Ну конкурирующая с проверяемой гипотезой Я0, является сложной (при этом сама гипотеза Я0 может быть как простой, так и сложной, что символически записывают следующим образом: Яо:ве0ос0, Я1 :ве 0j =0\0O), M. статистич. критерия, предназначенного для проверки Я0 против Ну определяется как сужение функции М. (Кб), 66 0 = 00110^ этого статистич. критерия на множество 0t. 364 МОНТЕ-КАРЛО Кроме этого определения широко распространено следующее: М. статистич. критерия, предназначенного для проверки гипотезы Я0: в е 0О с: 0 против сложной альтернативы Я1:6е 0« = 0\0О, есть inf (Кб), где |}(6) - функция М. этого 96 0, статистич. критерия (см. Мощности критерия функция). Лит.: [1 ] Л е м а н Э. Л., Проверка статистических гипотез, пер. с англ., 2 изд., М., 1979; [2] Гаек Я., Шидак 3., Теория ранговых критериев, пер. с англ., М., 1971; [3] Ван дер ВарденБ.Л., Математическая статистика, пер. с нем., М., 1960; 14] Крамер Г., Математические методы статистики, пер. с англ., 2 изд., М., 1975. М. С. Никулин. МУАВРА - ЛАПЛАСА ТЕОРЕМА (de Moivre - Laplace theorem) - исторически одна из первых предельных теорем теории вероятностей. Пусть Sn - число успехов в п Бернулли испытаниях с вероятностью успеха р, 0<р<\, q=\-p, тогда для вероятности Р{5„ = т} = С„" справедливо равенство Р{5„ =т} = pmqn~m, О^т^п, т - целое, *2/2(l + a), С) yj2nnpq где а„->0 при и->°° равномерно для всех т, для к-рых х = (m-np)/^npq принадлежит какому-либо конечному интервалу. Из равномерных нормальных аппроксимаций биномиального распределения наиболее сильным является, по-видимому, следующее приближение: х2/2 li^^-pXx*- P{Sn=m). -Зх) где ^'lunpq |_ 6yfnpq |A[<0,15fO,25b-<y| {c-3,2j^ (npq)3/2 + д, при условии, что npq^25. А. Муавр доказал теорему в общем виде. Основные результаты относительно приближения биномиального распределения нормальным содержатся в пятой книге [1] и в работе «А Method of approximating the Sum of the Terms of the Binomial (a + b)n expended into a Series, from whence are deduced some practical Rules to estimate the Degree of Assent which is to be given to Experiments» (1733). Латинский оригинал этого сочинения, как считает К. Пирсон [3], был приплетен в виде дополнения к нераспроданным к 1733 году экземплярам «Аналитических этюдов» (см. [1]) и поэтому имеется лить в нескольких экземплярах этюдов. Английский вариант дополнения в авторском переводе появился несколько позднее - в 1738 в «Доктрине шансов» (см. [21). П. Лаплас заново доказал теорему Муавра и его результат стал широко известен благодаря его книге [5]. Более подробно историю доказательства М. - Л. т. можно найти в работах |3], [4J, [9] ив комментариях к книге [8]. Следует добавить, что к утверждению М. - Л. т. вплотную подошел Н. Бернулли [10]. Представление (*) принято называть локальной М. - Л. т. в отличие от интегральной М. - Л. т., к-рая может быть получена как следствие первой: £ Р{5„ = т:а<х<Ь) = -JL, £ ехр(-^-]л*1 + а„). Разделение на локальные и интегральные теоремы, к-рые П. Лаплас и А. Муавр не проводили, относится к более позднему времени (см. [6]). Лит.: [\\ Moivre A. de, Miscellanea analytica seriebus et quadraturis. L., 1730; [2] его же, Dextrine of chances, L., 1718; 2 ed., L„ 1738; 3ed„ L., 1756; [31 Pearson K., «Biometrika», 1924, v. 16, № 3-4, p. 402-04; [4J Todhun- ter J., History of the mathematical theory of probability from the time of Pascal to that of Laplace, Camb.-L., 1865; [5J Laplace P.S.,The)rie analytique des probabilites, P., 1812; [6J Mises R., «G. 1st. Ital. attuari», 1934, Anno V, № 4, p. 483-95; [7J Uspensky J., Introduction to mathematical probability, N.Y. - L., 1937; [8J Бернулли Я., О законе больших чисел, пер. с лат., М., 1986; [9] Шейнин О.Б., К истории предельных теорем Муавра - Лапласа, в кн.: История и методология естественных наук, в. 9, [М], 1970, с. 199-211; [101 Юшкевич А. П., «Теория верояти. и ее примем.», 1986, г. 31, в. 2, с. 333-52. Н. Г. ГамкрелшЪс.
МУДА КРИТЕРИЙ (Mood test) - критерий, основанный на статистике _ п9 ir=,h-i(w+"+i)]' где R; - ранг наблюдений X,- в общем вариационном ряде, построенном но двум независимым повторным выборкам Xt, ..., Хт и Уt ..., Yn из непрерывных функций распределения F и G соответственно. М.к. введен в [2] и предназначен для проверки гипотезы однородности: F = G против альтернативы: F и G абсолютно непрерывны и отличаются лишь параметрами масштаба. Лит.: [1] Гаек Я., Ш и да к 3., Теория ранговых критериев, пер. с англ., М., 1971; [2] Mood A.M., «Ann. Math. Statist.», 1954, v. 25, X° 3, p. 514-22; 13] Suk h at me B. V., там же, 1957. v. 28. № 1, p. 188-94. Э. M. Кудлаев. МУЛЬТИВАРИАНТНЫЙ ТОЧЕЧНЫЙ ПРОЦЕСС (multi- variate point process) - маркированный точечный процесс (Tn, Xn)n^x, у к-рого моменты Тп появления «событий» образуют возрастающую последовательность. Мера скачков М. т. п. (X определяется равенством ц([0, ^]хГ) = ^пЭ|/(0(1хГ(Г„,Х„). где Г - измеримое множество в фазовом пространстве «меток». В мартингальной теории предполагается, что Тп - марковские моменты относительно нек-рого потока а-алгебр С*()^о» а случайные величины Хп Лт -измеримы. Для М т. н. при широких предположениях компенсатор меры скачков является характеристикой, однозначно определяющей распределение процесса. JIum.:\\\ Jacod J., «Z. Wahr. und verw. Geb.», 1975, Bd31, H. 3, S. 235-53. Ю. M. Кабанов. МУЛЬТИКОЛЛИНЕАРНОСТЬ (multicollinearity) - понятие, употребляемое в регрессионном анализе для описания ситуации, когда матрица данных предикторных переменных X имеет полный ранг [то есть rank(X) = min (п, р), где п - число строк (наблюдений) матрицы X, р - число столбцов (предикторных переменных) матрицы X], но ее столбцы «почти» линейно зависимы. Тогда матрица системы нормальных уравнений X X близка к вырожденной, одно или более ее собственных значений очень малы и оценка коэффициентов уравнения регрессии методом наименьших квадратов будет весьма неустойчивой за счет вклада собственных векторов, соответствующих малым собственным значениям. В частности, небольшие ошибки (типа ошибок в округлении) в элементах матрицы X могут привести к существенному изменению величины и даже знака коэффициентов в уравнении регрессии. Крайней формой М. является случай, когда матрица X имеет неполный ранг. Одной из наиболее удачных мер, измеряющих степень М., является число обусловленности матрицы X X, то есть 8 = ^maxAmin ~ отношение максимального собственного значения к минимальному. Для преодоления разрушающего влияния М. на оценки по методу наименьших квадратов используются гребневая регрессия, регрессия на главные компоненты, пошаговая регрессия и нек-рые другие подходы. Лит.: [1] СеберДж., Линейный регрессионный анализ, пер. с англ., М., 1980; [2] Айвазян С. А., ЕнюковИ.С, Мешалки н Л. Д., Прикладная статистика. Исследование зависимостей, М., 1985. И. С. Енюков. МУЛЬТИМОДАЛЬНОЕ РАСПРЕДЕЛЕНИЕ (multimodal distribution), многовершинное распределение,- распределение вероятностей, имеющее две или более моды, то есть распределение, плотность вероятности к-рого имеет две или более точки локального максимума. Примером М.р. может служить распределение арксинуса. В приложениях М. р. встречаются относительно редко, гораздо реже унимодальных распределений, и обычно возникают как смеси нескольких унимодальных распределений. Н. Г. Ушаков. МУЛЬТИНОМИАЛЬНОЕ РАСПРЕДЕЛЕНИЕ (multinomial distribution) - см. Полиномиальное распределение. МУЛЬТИПЛИКАТИВНАЯ МОДЕЛЬ (multiplicative model) - одна из моделей, описывающих сезонные изменения случайных процессов. Пусть в поведении случайной последовательности Zt, t = 0, ±1, ..., присутствует сезонный эффект с периодом S. М. м. для Zt записывается следующим образом: vp(B)<bP(B?)zt = eq(B)eQ(Bs)et, (*) где BZt = Zt_v nZt = Zt_s, р, q, P, Q - нек-рые натуральные числа, <р/;(#), Qq(B), ФР(£5), 0q(#5) - многочлены от соответствующих аргументов степеней р, q, Р, Q соответственно, е, - гауссовский белый шум с нулевым средним. Если разбить всю область изменения параметра t на сезонные циклы длины S, то последовательность Zt можно представить в виде матрицы {Xi}}, /=1, ..., S, г = 0, ±1, ..., где моменту времени t соответствует пара индексов i = [t/S], j=t-Si+ 1. Тогда (*) означает, что для каждого фиксированного / последовательность X,;, г = 0, ±1, ±2,..., в /-м столбце матрицы является авторегрессии - скользящего среднего (АРСС) процессом: 0P{Bs)xij = eQ(Bs)aijt где В Xij = Xl_i,-. В то же время «внутри цикла», то есть в каждой строке, значения аг. являются тоже процессом АРСС: Лит.: [1] Бокс Дж., ДженкинсГ., Анализ временных рядов, пер. с англ., в. 1, М., 1974. Ю. Г. Баласанов. МУЛЬТИПЛИКАТИВНАЯ ФУНКЦИЯ (multiplicative function) - см. Арифметическое моделирование случайных процессов, Вероятностная теория чисел. МУЛЬТИПЛИКАТИВНАЯ ЭРГОДИЧЕСКАЯ ТЕОРЕМА (multiplicative ergodic theorem) - утверждение об асимптотическом поведении произведений случайных матриц, взятых вдоль реализаций эргодических стационарных случайных процессов. Пусть (Q, ,<4, Р) - вероятностное пространство, точками к-рого являются бесконечные последовательности со={со„}, пеЖ, где все 0)п - элементы нек-рого множества /, Т - сохраняющее меру эргодич. преобразование сдвига в £1, Л=Л(со) - случайная величина со значениями в пространстве квадратных матриц порядка m ^ 1, для к-рой мате- матич. ожидание Е(1п |л|) конечно. Тогда почти наверное существует (см. [1], [2]) предел А(со) = lim (Иы(со)]*[Лы(а))])1/2", где Л(")(а))=Л((о) А(Т(й)...А(Тп~*(й), a [•]* - сопряженная матрица. Многочисленные применения М. э. т. связаны с теорией гладких динамич. систем, спектральной теорией дифференциальных операторов со случайными коэффициентами, теорией случайных блужданий в случайных средах. Другие доказательства см. в [3], [4]. Лит.: [1] Оселедец В. И., «Тр. Моск. матем. об-ва», 1968, т. 19, с. 179-210; 12] Миллионщиков В. М., «Матем. сб.», 1969. т. 78, № 2, с. 179-202; [3] Raghunathan M., «Isr. J. Math.», 1979, v. 32, p. 356-62; [4] Зах аревич М. И., «Вести. Ленингр. ун-та», 1978, № 7, с. 28-34; [5] Krengel U., Ergodic theorems, В.-NY., 1985. И. П. Корнфелъд. МУЛЬТИПЛИКАТИВНЫЙ ФУНКЦИОНАЛ (multiplicative functional) - см. Марковский процесс, аддитивный функционал. МУРА ГРУППА (Moore group) - локально компактная группа, все неприводимые представления к-рой конечномерны. Ю. С. Хохлов. МУСТАФЫ ТЕОРЕМА (Moustafa theorem) - см. Обслуживания систем теория. МЭЛЛОУСА ^КРИТЕРИЙ (Mallows Cycriterion)- см. Наилучшего подмножества предикторов выбор. МЭЛЛОУСА 365
НАБЛЮДАЕМАЯ (observable) - одно из основных понятий некоммутативной теории вероятностей. При алгебраич. подходе Н. является первичным понятием: ограниченной действительной Н. считается всякий самосопряженный элемент С*-алгебры, описывающей данную систему (см. Алгебра наблюдаемых). Для коммутативных алгебр понятие Н. переходит в понятие случайной величины. В квантовой механике действительная Н. задается произвольным самосопряженным оператором X в гильбертовом пространстве Н системы. Точки спектра (лежащего на действительной прямой) интерпретируются как значения, к-рые могут быть получены при измерении наблюдаемой X. Исход измерения данной Н. в произвольном статистич. состоянии является, вообще говоря, случайным; среднее значение этих исходов для состояния, описываемого оператором плотности 5, равно E5{X} = trSX. Из этих положений, к-рые принимаются в квантовой механике как постулат, следует, что распределение вероятностей исходов измерения Н. X есть u|(tf) = trSE(tf); ЯеЖИ?), где Зв(Ю - а-алгебра борелевских подмножеств действительной прямой IP, а Е = {Е(В); Ве&(Ю) - спектральная мера оператора X, так что X = f_ooxE(dx). (*) Поскольку соответствие (*) между самосопряженными операторами и их спектральными мерами взаимно однозначно, квантовая Н. альтернативно может быть определена как ортогональное разложение единицы в Я, то есть как семейство ортопроекторов {Е(В); В е &(Ю) такое, что для любого измеримого разбиения {В{} прямой выполняется равенство V Е(В^ =/, где / - единичный оператор, и ряд сходится в сильной операторной топологии. Кроме среднего значения ES{X) важную роль играет дисперсия Н. Ds{X) = j(x-Es{X})2^(dx)=trS(X-Es{X}I)2, дающая меру неопределенности исходов измерения Н. X в состоянии 5. Н. Хр ..., Хп называются совместимыми, если соответствующие операторы коммутируют (имеют коммутирующие спектральные меры Et, ..., Еп). В этом случае соотношение Е(В]х...хВп) = Е](В])...Еп(Вп), B]t ..., ВпеЯ(Ю, определяет совместную спектральную меру Е на &Шп) такую, что Х; = j..JXjE(dxu..dxn), /=1, ..., п. Распределение вероятностей исходов совместного измерения Н. Xj, ..., Хп полагается тогда равным д*1.....*я (tf) = trSE(tf), ЯеЯО?"). Несовместимые Н. рассматриваются в квантовой механике как дополнительные, то есть принципиально не допускаю- 366 НАБЛЮДАЕМАЯ щие точного совместного измерения (см. Неопределенностей соотношение). Изложенная концепция Н., хотя и является достаточной для большинства вопросов квантовой механики, приводит к известным трудностям, напр. при попытках определения «циклических» Н. типа угла или фазы. Эти трудности устраняются обращением к более общему понятию квантового измерения, допускающему рассмотрение произвольных, а не только ортогональных, разложений единицы. Лит. см. при ст. Квантовая теория проверки гипотез и оценивания ([1], [5]). А. С. Холево. НАБЛЮДАЕМЫЙ РАЗМЕР (attained size/level) - см. Критический уровень. НАБЛЮДЕНИЙ ОБРАБОТКА (processing of observations) - различные способы преобразований результатов наблюдений с целью компактификации их, а также для представления в виде наиболее пригодном для проведения статистического анализа. Методы математич. статистики используют при анализе наблюдений в тех случаях, когда эти наблюдения можно трактовать как реализации нек-рых случайных величин, то есть в случаях, когда можно построить вероятностную модель изучаемого явления. В этом смысле термин «наблюдение» является синонимом термина «реализация случайной величины». Иногда термин «наблюдение» используют и по отношению к самой случайной величине, при этом часто говорят о наблюдаемой случайной величине. Как правило, статистич. выводы получают не непосредственно по реализациям наблюдаемых случайных величин, а по наблюденным значениям нек-рых, подходящим образом подобранных функций от них, к-рые, в свою очередь, называют статистиками. В математич. статистике термин «статистика» традиционно используют по отношению к любому преобразованию над наблюдаемыми случайными величинами. В каждом конкретном случае выбор преобразования диктуется своими требованиями, к-рые предъявляет сама задача обработки наблюдений, напр. задача проверки гипотез или статистич. оценивания. Ком- пактификацию наблюдений осуществляют за счет перехода к так паз. достаточным статистикам, если таковые существуют, в результате чего во многих случаях количество наблюдений, подлежащих обработке, удается существенно сократить без потери полезной информации. Вопрос выбора преобразования самих исходных наблюдений или уже выраженных в терминах достаточных статистик (то есть компактифицированных) с целью получения статистик с желаемыми свойствами является одним из центральных вопросов математич. статистики. Пример. Пусть Xj, ..., Хп, Yj, ..., Ym- независимые случайные величины, причем все Х{ подчиняются нормальному закону с параметрами цх = ЕХ( и a^ = DX-(|u^| <<*>, с2>0), а все Y: подчиняются нормальному закону с параметрами \iy = EY ио„ = DYX |uj <оо, а > 0). Предполагается, что параметры ц^, (1„, ох, су неизвестны. В данном примере максимально возможную редукцию данных можно осуществить, переходя от п + т наблюдений Xj, ..., Х„, Yv ..., Ут к 4-мерному вектору
являющемуся минимальной достаточной статистикой. Если задачей обработки наблюдений Х\, ..., Хп, Yj, ..., Ym является построение точечных статистич. оценок для неизвестных параметров \ix, ох, \iy, а„, то статистики *„ = *„«•>=£1,"., ** • S2=S2<n__L2'- X2.JLX2, S2 = 52(Г) = —V У2 — У2 выраженные в терминах достаточной статистики Г, представляют собой наилучшие (в смысле минимума квадратичного риска) несмещенные огценки параметров \ix, ox, \лу, о соответственно. Далее, пусть, напр., надлежит проверить гипотезу Н0:ох=оу. Можно показать, что наилучший статистич. критерий для проверки #0 основан на статистике F = SX /Sy. В случае справедливости гипотезы #0 можно рассмотреть задачу проверки гипотезы #! '•\Lx = \iy, решение к-рой осуществляется с помощью статистики . _ / ти(я+т-2) Хп~^т 1 п+т J(n-\)S2x+(m-\)S2y ' См. также Статистических гипотез проверка, Статистическое оценивание. Лит.: [1] Ван дер Варден Б. Л., Математическая статистика, пер. с нем., М., 1960; [2] Воинов В. Г., Н ику л ин М. С, Несмещенные оценки и их применения, М., 1989. М. С. Никулин. НАБЛЮДЕНИЯ ОШИБКА (observation error) - ошибка эксперимента, в к-ром результат измерения неизвестной детерминированной величины а трактуется как реализация нек-рой случайной величины (наблюдения) х. Пусть в эксперименте результат измерения нек-рой величины а трактуется как наблюденная реализация случайной величины х. Тогда случайная величина Х-х-а называется ошибкой наблюдения х, при этом само наблюдение х = а + Х представляет собой сумму неизвестной измеряемой величины а и ошибки наблюдения X. Пусть Ь - ЕХ - матема- тич. ожидание ошибки наблюдения X. Если Ъ отлично от 0, то говорят, что Н. о. X содержит систематическую ошибку Ь. Разность 8 = X-Ъ называют случайной ошибкой эксперимента, причем Е8 = 0. Таким образом, Н. о. X = b + b представляет собой сумму систематич. ошибки Ъ и случайной ошибки 8, причем Е8 = 0, а само наблюдение х допускает представление х = а + Х = а + Ь + Ь в терминах измеряемой величины а, ошибки наблюдения X, систематич. ошибки Ъ и случайной ошибки 8 (см. Случайная ошибка, Систематическая ошибка). М. С. Никулин. НАВЬЕ - СТОКСА СТОХАСТИЧЕСКОЕ ДИФФЕРЕНЦИАЛЬНОЕ УРАВНЕНИЕ (Navier - Stokes stochastic differential equation) - система уравнений вида du(t, x) + (u(t, x), V)u(t, x)dt = = -Vp(t, x)dt + vAu(t, x)dt + dw(t), (1) (V,u(t,x)) = 0, (2) где w(t) - нек-рый векторный семимартингал, а уравнение (1) понимается в смысле стохастического дифференциального исчисления. Для случая, когда w(t) - винеровский процесс со значениями в L , исследованы вопросы существования и единственности решения первой начально-краевой задачи для системы (1)-(2) (см. [3]). Лит.: [1] Новиков Е. А., «Ж. эксп. и теор. физики», 1964, т. 47, № 5, с. 1919-26; [2] МонинА.С, Яглом А. М., Статистическая гидромеханика, ч. 1-2, М., 1965-67; [3] ВишикМ.И., Фурси- ков А. В., Математические задачи статистической гидромеханики, М., 1980; [4] Viot M., Solution faibles d'equations aux derivees partielles stochastiques non-1 ineaires, [P., 1976]. Б.Л. Розовский. НАДАРАЯ - BATCOHA ОЦЕНКА (Nadaraya - Watson estimator) - см. Непараметрический регрессионный анализ. НАДЕЖНОСТИ МАТЕМАТИЧЕСКАЯ ТЕОРИЯ (mathematical theory of reliability) - инженерное направление применений математических методов, в к-ром разрабатываются: 1) методы расчета и обеспечения надежности элементов и систем на этапе их проектирования; 2) методы получения обоснованных выводов о надежности изготовленных элементов и систем на основе данных как специальным образом спланированных испытаний, так и по результатам эксплуатации; 3) способы обеспечения и повышения надежности работы систем и составляющих их элементов в процессе эксплуатации, хранения и транспортировки (см. [1]). В Н. м. т. используют методы из различных разделов математики. Основными в Н. м. т. являются методы теории вероятностей и математич. статистики. Широко применяют методы теории оптимизации, математич. логики и др. При построении математич. моделей в Н. м. т. исходят из того, что все возможные состояния технич. системы (элемента) образуют множество состояний Х = {х). Изменение состояний системы (элемента) с течением времени t описывается процессом X(t). В X задается подмножество состояний Х0, соответствующее потери работоспособности. Отказ- потеря работоспособности - соответствует попаданию траектории X(t) в подмножество Х0. Анализ реальных данных показывает, что события, связанные с наступлением отказов, можно рассматривать как случайные события. Безотказность- способность системы сохранять работоспособность - является одним из основных требований обеспечения надежности. Повышению надежности способствует ремонтопригодность, то есть возможность быстрого и экономного проведения ремонтных работ. Способность системы (элемента) сохранять работоспособность с учетом необходимых перерывов на ремонт и проведение восстановительных работ, профилактич. работ при условии экономич. целесообразности дальнейшей эксплуатации называется долговечностью системы (элемента). Пусть система состоит из п элементов. Состояние i-го элемента описывается переменной х{ при этом х{ = 1, если этот элемент работоспособен; #; = 0, если он отказал. Пусть по набору (.Xj, ..., хп) определяется, работоспособна система или нет. Функция ф = ф(#1, ..., хп) называется структурной функцией, если <р = 1, когда система работоспособна, и <р = 0, когда система неработоспособна (отказала). Примеры. Если отказ любого элемента ведет к отказу системы, то ее структурная функция Пусть xv x2, х3- состояния линий связи, связывающих пункт А с В, пункт В с С и пункт Л с С. Систему связи считают работоспособной, если все пункты связаны. При этом допускается отказ не более одной линии связи. Структурная функция такой системы ф= тах(^1^2, х2х3, *1*з)= = xix2 + x2x3 + xix3-2xix2x3. Если при определенном сочетании отказов элементов состояние работоспособности системы определяется состоянием #г t'-го элемента, то 1-й элемент называется существенным. Система имеет монотонную структуру, если каждый ее элемент существенный и ф(#[, ..., х£)^у(х", ..., х£), когда х'{^х", t=l, ..., п. Пусть состояния элементов х{ являются взаимно независимыми случайными величинами и определены вероятности pi= P{#;= 1}. Тогда определена вероятность работоспособности системы h(pv ..., рп) = Р{ф= 1}. Анализ функции h(p{> ..., рп) может выявить элементы, от к-рых более всего НАДЕЖНОСТИ 367
зависит вероятность безотказной работы системы. Если продолжительность тг безотказной работы i-го элемента является случайной величиной с функцией распределения FtU) = Р{т, ^ t), то рг = Р{х{ = 1} = Ft(t), Ft(t) = 1 - Ft(t). В таком случае вероятность безотказной работы системы с монотонной структурой и невосстанавливаемыми _элементами в течение времени t равна F(t) = h(F\(t), ..., Fn(t)). Расчет вероятности работы или соответствующей интенсивности отказа функции системы, имеющей сложную структуру, требует большего объема вычислений. Здесь могут быть использованы неравенства, связанные со свойствами старения, а также неравенства, связанные с минимальных цепей и разрезов методом. Для анализа надежности системы используют графич. представление структуры системы в виде отказов дерева. С целью улучшения показателей надежности системы (вероятности безотказной работы, коэффициента готовности и др.) на этапе проектирования исследуется влияние введения дополнительных элементов (структурное резервирование) (см. [4]). Возможны и другие типы резервирования: функциональное, временное, нагрузочное (см. Резервирование, On тимальное резервирование). Надежности системы показатели улучшаются при введении возможности восстановления отказавших элементов. Расчет показателей надежности систем с восстановлением во многом аналогичен расчету показателей систем массового обслуживания (см. Обслуживания систем теория). Моментам поступления заявок в систему соответствуют моменты отказов, а длительностям обслуживания - длительности ремонта или замены отказавших элементов. Простейшая математич. модель с мгновенным ремонтом соответствует процессу восстановления (см. Восстановления теория). Пример. Система состоит из двух идентичных элементов (управляющих ЭВМ). В начальный момент t = О оба элемента исправны. В каждый момент t используется лишь один работоспособный элемент, второй элемент, если он работоспособен, находится в ненагруженном резерве. Отказавший элемент немедленно начинает восстанавливаться, а резервный включается в работу. Длительности безотказной работы и{ и длительности восстановления V{ предполагаются взаимно независимыми случайными величинами с функциями распределения, равными соответственно F(s) и G(s). Отказ системы наступает в тот момент, когда впервые при отказе работающего элемента еще не завершено восстановление отказавшего элемента. Среднее время до момента отказа такой системы равно Т= m + 7^/(1 -у), где т = Е11{- среднее время безотказной работы элемента, m1 = Emin(f/I, V-), у = Р{Кг^ £/,-} - вероятность того, что восстановление отказавшего элемента заканчивается к моменту отказа работающего элемента. Для расчета показателей надежности наряду с аналитич. методами широко используют методы статистич. моделирования (методы Монте-Карло). Сокращение времени ремонта улучшает показатели надежности с восстанавливаемыми элементами. Для сокращения ремонта разрабатывают специальные методы поиска отказавших элементов (см. Отказов поиск). Поскольку основные математич. модели Н. м. т., учитывающие восстановление отказавших элементов, не допускают явных аналитич. решений, в Н. м. т. широко используют асимп- тотич. методы. При этом предполагается, что восстановление является «быстрым», то есть заданные показатели восстановления (напр., среднее время) становятся бесконечно малыми по отношению к аналогичным показателям интервалов безотказной работы. Для повышения надежности систем и элементов в процессе эксплуатации проводят профилактич. работы 368 НАДЕЖНОСТИ (см. Профилактика), целью к-рых является предупреждение возможных отказов. Существенное место в Н. м. т. занимают задачи получения статистич. выводов (оценок, доверительных интервалов, статистич. гипотез) о фактич. значениях показателей надежности. Типичными являются задачи оценки надежности системы по результатам испытаний составляющих систему элементов (компонент). Пример. Допустим, что система состоит из п различных элементов. Отказ любого элемента не зависит от отказов других элементов и приводит к отказу системы, то есть резервирования нет. Пусть при испытаниях тг элементов г-го типа отказы не наблюдались, г = 1, ..., п. В таком случае нижняя у-доверительная граница вероятности работоспособности системы равна нижней у-доверительной границе вероятности работоспособности элементов того типа k, для к-рого ть = min m-. Выводы о показателях надежности элементов (систем) делаются на основе данных о результатах специальным образом спланированных стендовых испытаний. Пусть N - число ячеек для испытаний элементов. Каждый элемент занимает одну ячейку. Различают два класса стендовых испытаний: класс испытаний Б, когда отказавшие в процессе испытаний элементы не заменяют на годные, и класс В, когда отказавшие элементы заменяют на годные. Продолжительность стендовых испытаний определяется правилом остановки, напр. заданием предельного времени испытаний Т, предельного числа г наблюдаемых отказов. Существенной характеристикой испытаний является суммарная наработка 5(0, то есть сумма времен безотказной работы всех испытываемых элементов за время испытаний t. При стендовых испытаниях по плану [N, Б (г)\ испытывают N элементов, к-рые при отказах не заменяются на новые, наблюдения продолжаются до момента регистрации г-го отказа. Плану [N, Б, (г)] соответствует полная суммарная наработка S(tr) = t{ + ... + tr_ \ + (N- r+ \)tr, где tit ..., tr - моменты наступления отказа, t\<t2< ... < tr. При испытаниях по плану [N, Б, (г)] несмещенная оценка параметра X экспоненциальной функции распределения F(t) = \-e~ f имеет вид Х= (г- \)/S(tr). Если испытания были проведены по плану [Ы, Б, Г], когда все N элементов испытывают в течение времени Т, то выражение для несмещенной оценки параметра X оказывается очень сложным. Выражения для точечных оценок, доверительных интервалов и критериев проверки гипотез о значениях характеристик надежности испытанных элементов определяются типом плана и выбранным семейством функций распределения продолжительности безотказной работы, что обусловливает разнообразие статистич. методов обработки результатов стендовых испытаний (см. [1J, [5], [6]). Если возможны любые функции распределения продолжительности безотказной работы, то есть рассматривается непа- раметрич. семейство функций распределения, то многие статистич. выводы могут быть найдены на основе следующей схемы накопления неполных (цензурированных) данных. Набор чисел х.- = {х , у-., г = 1, ..., Ы называется порцией данных, если х^ - наблюденное время безотказной работы г-го элемента в j-vi порции, yi} - метка, отмечающая причину, по к-рой были прекращены наблюдения над г-м элементом. Метка Уу = 1, если наблюдения были прекращены в связи с отказом г-го элемента; у{. = О, если наблюдения были прекращены по другим причинам, не связанным с отказом г-го элемента. Порция данных обладает свойством дискретной разделимости, если для любых чисел р ■ > О l£!v.
найдется такая функция распределения F() со скачками AF(xl) = F(xi}) - Fixjj - 0) = р{: > 0 и нек-рое значение мешающего параметра в, что вероятность получения порции данных х;, определяемая F() и в, равна П*^ [AH*iy)]Y" [1 - F(Xijy\X-y4 CU;, 6)>0. Порции данных, обладающие свойством дискретной разделимости, получаются: а) при проведении испытаний по планам типа Б, когда прекращение испытаний является остановки моментом; 6) при наблюдении альтернирующих процессов с независимыми периодами работ и ремонта с функциями распределения, равными соответственно F(s) и G(s) [G(s) играет роль мешающего параметра в]; в) при наблюдении полумарковских процессов, а также для ряда других схем сбора данных о надежности. Пусть jCj, ..., хт— последовательность взаимно независимых, не обязательно одинаково распределенных порций данных, обладающих свойством дискретной разделимости, тогда обобщенная оценка максимального правдоподобия для функ- циь распределения F(s) имеет вид Я,) = 1-П< [l-^r?| О где ДО(м) = D(u) -D(u-0), D(u) равно числу всех х{.^и, у к-рых у =1; iV(m) равно числу всех хг^и, г=1, ..., kj, /=1, ..., т. Оценка (*) называется множительной оценкой функции распределения F(s). Ксли порции JCj, ..., хт соответствуют перечисленным выше примерам наблюдений а), 6), в), то при т->°° оценка (*) обладает свойствами состоятельности и асимнтотич. нормальности, для функции распределения F(s) можно получить простые выражения границ асимптотически у-доверительных интервалов и полос (см. [71~[8]). При объединении данных о надежности следует учитывать соответствующие им режимы. Под режимом а-испытаний или эксплуатации понимают набор основных параметров нагрузок (температуры, амплитуды вибраций и т.п.). Если системы (элементы) эксплуатируются в различных режимах а, то испытания на надежность проводят таким образом, чтобы получить оценки показателей надежности системы в виде функций от режима работы. Ужесточение режима испытаний путем повышения нагрузок приближает моменты наступления отказов. Разработка методов пересчета показателей надежности системы с одних режимов на другие является одной из важнейших задач Н. м. т. Сложность этой задачи обусловливается разнообразием возможных режимов. На практике часто используют режимы испытаний со ступенчатым или линейным ростом нагрузок. Наиболее просты методы пересчета в условиях применимости модели аддитивного накопления повреждений. В этой модели предполагается, что при нек-ром номинальном режиме а0 с постоянными нагрузками момент отказа является случайной величиной R с функцией распределения F0(t) = P{R^t). Переход от режима а0 к другому режиму а с постоянными нагрузками задается функцией г(а0, а)^0, г(а0, а0)=1. Для любого режима а1 = 0^(0 момент отказа т определяется равенством J r(aQ,a^s))ds = R. Функция распределения продолжительности безотказной работы в режиме at: F(t, at) = р{ Г r(a0, a^s))ds>R\ = FQ( Г r(a0, a/sWsl. Таким образом, для пересчета в модели аддитивного накопления повреждений нужно предварительно оценить функцию r(a0, a) и функцию F0(s). В Н. м. т. используют и другие более общие модели пересчета (см. [1]). Лит.: [1] Вопросы математической теории надежности, М., 1983; [2] Гнеденко Б. В., Беляев Ю. К., Соловьев А. Д., Математические методы в теории надежности, М., 1965; 13] Барлоу Р., Прошан Ф., Статистическая теория надежности и испытания на безотказность, пер. с англ., М., 1984; [4] Надежность технических систем, М., 1985; [5) Kal bf 1 ei sch J., Pren ti се R. L., The statistical analysis of failure time data, N. Y.-fa. o.], 1980; [6] Lawless J.E., Statistical models and methods for lifetime data, N. Y.- fa. o.], 1982; [7] Беляев Ю. К., «Изв. АН СССР. Техническая кибернетика», 1985, № 4, с. 45-59; [8] Беляев Ю. К., Замятин А. А., в сб.: Вероятностные процессы и их приложения, М., 1985, с. 3-17; [9] Надежность и эффективность в технике, т. 8, М., 1990. Ю. К. Беляев. НАДЕЖНОСТИ ОПТИМИЗАЦИЯ (reliability optimiza- tion) - комплекс инженерно-технических мероприятий, позволяющих добиться заданных показателей надежности при затрате на это минимальных средств или достижения максимальных показателей надежности при ограничениях на суммарные затраты. При решении задач Н. о. широко используют мате- матич. методы оптимизации. В теории надежности различают несколько основных направлений оптимизационных задач: оптимальное резервирование, оптимальный поиск неисправностей и отказов, оптимальные проверки и оптимальные профи- лактич. замены. Задачи оптимального резервирования относятся к классу задач нелинейного целочисленного программирования. Суть задачи оптимального резервирования заключается в том, чтобы достичь максимума выбранного показателя надежности системы при заданных ограничениях на ресурсы (или наоборот - добиться заданного значения показателя надежности при минимально возможных затратах ресурсов). В большинстве практич. задач оптимального резервирования показатель надежности является сепарабельным и квазивыпуклым по каждому из аргументов, а показатель затрат ресурсов - линейным. Это позволяет для решения большинства задач оптимального резервирования использовать стандартные методы решения задач на дискретную оптимизацию: метод динамич. программирования, модифицированный метод множителей Лагранжа, метод покоординатного наискорейшего спуска и т. п. Задача оптимальной технич. диагностики состоит в наискорейшей (или при минимальных затратах) идентификации состояний системы и локализации отказа. Пусть известны вероятности того, что каждый из элементов находится в состоянии отказа, а также задано множество тестов, позволяющих обнаруживать неработоспособность в соответствующих подмножествах элементов системы. Задача оптимальной диагностики состоит в нахождении такого порядка проведения тестов, к-рый обеспечил бы наискорейшее в среднем обнаружение хотя бы одного отказа системы или наискорейшее в среднем устранение всех отказов системы. (В случае отсутствия информации о надежности элементов обе задачи решаются при использовании минимаксных критериев.) Задачи оптимальных проверок и оптимальных профилактик относятся к классу задач оптимального управления случайными процессами (задача об оптимальной остановке). В первом случае определяются моменты проверок, минимизирующие потери за счет простоя от момента отказа до момента его обнаружения. Во втором случае решается задача, близкая по постановке к задаче оптимальной остановки случайного процесса: если штраф за аварийный ремонт больше штрафа за НАДЕЖНОСТИ 369
профилактич. ремонт, то может быть найден оптимальный момент проведения профилактич. ремонта, минимизирующий суммарные потери. Все математич. задачи Н. о. можно в определенном смысле разделить на два типа: управление фазовым пространством (расширение пространства работоспособных состояний) и управление самим процессом блуждания в фиксированном фазовом пространстве (управление с целью увеличения времени пребывания процесса в подмножестве состояний работоспособности и сокращение времени пребывания в подмножестве состояний отказа). Лит.: [1] Вопросы математической теории надежности, М., 1983; [2] Надежность технических систем. Справочник, М., 1985; [3] Ушаков И. А., Методы решения простейших задач оптимального резервирования при наличии ограничений, М., 1969; [4] Паш ков- ский Г. С, Задачи оптимального обнаружения и поиска отказов в радиоэлектронной аппаратуре, М., 1981; [5] Барзилович Е. Ю., Каштанов В. А., Некоторые математические вопросы теории обслуживания сложных систем, М., 1971. И. А. Ушаков. НАДЕЖНОСТИ СИСТЕМЫ ПОКАЗАТЕЛИ (system reliability indices) - количественные характеристики, описывающие определенные свойства, к-рые обусловливают надежность конкретной системы. Сама надежность - это свойство системы сохранять во времени в установленных пределах значения всех параметров, характеризующих способность выполнять требуемые функции в заданных режимах и условиях применения, технич. обслуживания, ремонта и хранения. Надежность является сложным свойством, к-рое в зависимости от назначения технич. системы и условий ее применения состоит в сочетании свойств безотказности, долговечности, ремонтопригодности и сохраняемости. Безотказностью называется свойство системы непрерывно сохранять работоспособное состояние в течение нек-рого времени. Безотказность является основным свойством надежности, расчету показателей безотказности посвящены основные работы по математич. теории надежности. Основными показателями безотказности являются следующие. Вероятность безотказной работы, то есть вероятность того, что в пределах заданной наработки £0 отказ не возникнет. Если через X обозначить случайную наработку до отказа, то этот показатель можно записать так: ра0) = р{х^0>- Средняя наработка до отказа есть математич. ожидание ЕХ наработки системы до первого отказа. Гамма-процентная наработка до отказа^есть наработка, в течение к-рой отказ системы не возникнет с вероятностью у, то есть Р(0 = у. Средняя наработка на отказ определяется как отношение наработки восстанавливаемой системы к математич. ожиданию числа ее отказов в течение этой наработки. Важной характеристикой безотказности является интенсивности отказа функция. Основными показателями ремонтопригодности являются вероятность восстановления работоспособного состояния за заданное время и среднее время восстановления работоспособного состояния. Очень часто используют комплексные показатели надежности, характеризующие несколько свойств надежности. Основными являются показатели, характеризующие безотказность и ремонтопригодность. Коэффициент готовности -вероятность того, что система окажется в работоспособном состоянии в произвольный момент времени (без учета запланированных периодов времени, когда использование системы по назначению не предполагается, напр. во время профилактич. работ). Коэффициент оперативной готовно- 370 НАДЕЖНОСТИ с т и - вероятность того, что объект окажется в произвольный момент времени в работоспособном состоянии и, начиная с этого момента времени, будет работать безотказно в течение заданного интервала времени. Поскольку не все системы характеризуются только двумя видами состояний: работоспособность или отказ, а могут находиться и в состоянии частичного отказа, когда эффективность функционирования лишь определенным образом снижается, часто при исследовании надежности рассматривают различные показатели эффективности функционирования. В этом случае собственно надежность удобно характеризовать так наз. коэффициентом сохранения эффективности -отношением показателя эффективности за определенную продолжительность эксплуатации к номинальному значению этого показателя, вычисленным при условии, что отказы системы в течение того же периода времени не возникают. Этот показатель характеризует степень влияния отказов различных элементов системы на эффективность ее применения по назначению. Расчет надежности заключается в вычислении количественных показателей надежности систем на основе информации о структуре и принципах функционирования с учетом данных о надежности элементов. Для априорного расчета показателей надежности используют методы теории вероятностей и теории случайных процессов. При эмпирич. оценке показателей надежности по результатам эксплуатации или специальных испытаний используют методы математич. статистики. Лит.: [1] Надежность в технике. Термины и определения. ГОСТ 27.002-83, М., 1983; [2] Надежность технических систем. Справочник, М., 1985; [3] Вопросы математической теории надежности, М., 1983. И. А. Ушаьов. НАДЕЖНОСТИ ТЕОРИЯ; аналитико-статистиче- ский метод (reliability theory; analytical-statistical method/combined simulation method) - вычислительный метод, состоящий в предоставлении характеристики надежности, подлежащей вычислению, в виде аналитического выражения f от математических ожиданий случайных величин Хх> ..., Xk. Вычислив Хх> ..., Xk по Монте-Карло методу и подставив в выражение f соответствующие приближенные значения ЕХХ, ..., ЕХ^, находят приближенное значение оцениваемой характеристики. Выбор ее представления через f, ЕХг осуществляют исходя из минимума дисперсии конечной оценки (;>та задача обычно решается на основе эвристич. соображений). Была рассмотрена схема аналитико-статистич. метода, основанная на представлении надежности системы в виде ряда по степеням малого параметра е - общего нормирующего множителя интенсивностей отказов элементов системы. В рамках кусочно линейного процесса оказывается, что коэффициенты указанного степенного ряда допускают вероятностную интерпретацию, позволяющую легко их моделировать. Модификациями аналитико-статистич. метода являются так наз. методы ускоренного моделирования непосредственно на модели системы. При этом определение искомых вероятностных характеристик системы сводится к моделированию (ста- тистич. часть метода), вычислению и усреднению нек-рых функционалов от ее траекторий (аналитич. часть). Аналитико-статистич. метод эффективен при исследовании нестационарных характеристик систем (вероятности безотказной работы, нестационарного коэффициента готовности, коэффициента оперативной готовности). Аналитико-статистич. метод позволяет строить количественные оценки близости искомых показателей надежности систем с незначительно отличающимися характеристиками. На первом этапе метода для разности искомых характеристик двух систем строят аналитич. формулу, в к-рую входят нек-рме параметры, не вычисляющиеся в явном виде; на втором этапе
методом статистич. моделирования строят несмещенные оценки данных параметров и подставляют их в аналитич. формулу. Аналитико-статистич. метод и его модификации получили широкие практич. приложения при расчете характеристик надежности сложных технич. систем. Для высоконадежных систем применение этих методов позволяет на несколько порядков уменьшить дисперсию оценки по сравнению с методом непосредственного статистич. моделирования. Аналитико-статистич. метод и его модификации реализованы на ЭВМ. Лит.: [1] Коваленко И.Н., Исследования по анализу надежности сложных систем, К., 1975; [2] его же, Анализ редких событий при оценке эффективности и надежности систем, М., 1980; [3] его же, Расчет вероятностных характеристик систем, К., 1982; [4] Коваленко И. П., Кузнецов Н.Ю., Методы расчета высоконадежных систем, М., 1988. И. Н. Коваленко, Н. Ю. Кузнецов. НАДЕЖНОСТИ ФУНКЦИЯ (reliability function) - 1) Н. ф.- функция R = R(P], ...,Pn), ьыражающая вероятность безотказной работы системы в зависимости от значений р{, ..., рп надежности ее элементов. Для последовательной системы R=(p^ ... рп), для параллельной системы R= 1 - (1 -р^)...(\ -pn). В случае систем сложной структуры исследование Н. ф. производится комбинаторными методами (напр., методом минимальных цепей и минимальных разрезов). 2) Н. ф.- функция P(t), выражающая вероятность безотказной работы какого-либо объекта в интервале времени (0, О. Н.ф. связана с интенсивностью отказов данного объекта соотношением P(0 = exp|-J^ Uu)du\. И. Н. Коваленко. НАДЕЖНОСТИ ФУНКЦИЯ, коэффициент надеж н ост и (reliability function, reliability coefficient),- коэффициент при п в показателе экспоненты, с к-рым убывает вероятность ошибки оптимального блокового кода с ростом длины п блока для данного канала связи. Н.ф. E(R) для данного канала определяется равенством E(R) = lim sup{--logPe(w,/?)}, где Рс(п, R) - нижняя грань значений средней вероятности ошибки по всем блоковым кодам с заданными п (длина блока) и R (скорость кода). Для достаточно широкого класса каналов точное значение E(R) известно лишь в области Rcr^R^C, где С - пропускная способность канала, a Rcr - так наз. критич. скорость. В области 0^R<Rcr известны лишь верхние и нижние оценки для E(R) (см. Случайное кодирование; граница, Плотной упаковки граница). Лит.: [1] Галла rep P., Теория информации и надежная связь, нер. с англ., М., 1974; [2] Фа но Р., Передача информации. Статистическая теория связи, пер. с англ., М., 1965; [3] Чисар И., Кернер Я., Теория информации, пер. с англ., М., 1985. В. В. Прелое. НАДЕЖНОСТЬ (reliability) - см. Надежности системы показатели, Надежности теория. НАДКРИТИЧЕСКИЙ ВЕТВЯЩИЙСЯ ПРОЦЕСС (super critical branching process) - ветвящийся процесс, в к-ром среднее число т потомков одной частицы больше единицы. Характерными особенностями Н.в. п. являются положительность вероятности невырождения, то есть бесконечного продолжения процесса, и (при т<°°) асимптотически экспоненциальный рост числа частиц Z(t) при t ->°° (см. [1], [2]): если I <m<°°, то существуют такие последовательность ct и неотрицательная случайная величина W, что lim ct/ct+i = m, E\V=\ и Р{ lim Z(t)ct=W}=\. (*) Неразложимый ветвящийся процесс с несколькими типами частиц является Н. в. п., если р > 1, где р - максимальное собственное число (перронов корень) матрицы М = \\ тЛ, а mjj - среднее число непосредственных потомков типа j, порожденных одной частицей типа i. При 1 <р<оо P{lim(Z1(0, ...,Zn(t))ct=(vt, ..., vn)W}=\, где lim ct/ct+i = p, Z{(t) - число частиц типа i в момент t, a (г>1, ..., vn) - положительный левый собственный вектор матрицы М, соответствующий ее перронову корню р, случайная величина W неотрицательна и EW= 1. Существуют модификации Н. в. п., в к-рых рост числа частиц имеет качественно другой вид. Так, при т = °° (см. [3], [4]) вместо (*) выполняется соотношение Р{ lim L(Z(t))ct= W}=\, НАИБОЛЕЕ 371 где функция L(x) медленно меняется при *-»°о, а lim ct/ct+i g (0, оо). В нерегулярных ветвящихся процессах (см. [1]) траектории Z(t) почти наверное за конечное время уходят в оо. Н. в. п. обычно используется как вероятностная модель начального этапа процессов интенсивного размножения частиц, когда число частиц сравнительно невелико и взаимодействие между ними не оказывает заметного влияния на процесс размножения. Лит.: [1] Севастьянов Б. А., Ветвящиеся процессы, М., 1971; [21 Athreya К. В., Ney P. E., Branching processes, B.-Hdlb - N.Y., 1972; [3] Cohn H., «Z. Wahr. und verw. Geb.», 1977, Bd 38, H. 1, S. 73-81; [4] Grey D. R., «J. Appl. Probab.», 1977, v. 14, № 4, p. 702-16. A.M. Зубков. НАИБОЛЕЕ МОЩНЫЙ КРИТЕРИЙ (most powerful test) - статистический критерий, имеющий наибольшую мощность среди всех критериев с заданным значимости уровнем. Пусть по результатам наблюдений надлежит проверить простую гипотезу Я0 против простой альтернативы Hv и пусть задана допустимая вероятность а ошибки 1-го рода, к-рую можно совершить в результате отклонения проверяемой гипотезы #0 по статистич. критерию, построенному для проверки Я0 против Нх, когда в действительности гипотеза Я0 справедлива. В теории проверки статистич. гипотез наилучшим критерием среди всех статистич. критериев, предназначенных для проверки Я0 против Я1 и имеющих одну и ту же вероятность ошибки 1-го рода или, что то же самое, один и тот же уровень значимости а, является тот критерий, к-рый имеет наибольшую мощность; то есть наилучший критерий с наибольшей вероятностью отклоняет проверяемую гипотезу Я0, когда справедлива конкурирующая гипотеза Нх. Именно этот наилучший критерий называется наиболее мощным критерием уровня а среди всех статистич. критериев уровня а, предназначенных для проверки простой гипотезы Я0 против простой альтернативы Н\. Так как мощность статистич. критерия равна дополнению до единицы вероятности ошибки 2-го рода, к-рую можно совершить, принимая Я0, когда она в действительности неверна, то понятие Н. м. к. часто формулируют в терминах вероятностей ошибок 1-го и 2-го рода: Н. м. к.- статистич. критерий, предназначенный для проверки простой гипотезы против простой альтернативы и имеющий наименьшую вероятность ошибки 2-го рода среди всех статистич. критериев с заданной вероятностью ошибки 1-го рода. Решение задачи о построении Н. м. к. в случае простых гипо-
тез дается Неймана - Пирсона леммой, согласно к-рой отношения правдоподобия критерий является Н. м. к. В случае, когда конкурирующие гипотезы Я0 и Я1 являются сложными, задача построения Н. м. к. формулируется в терминах равномерно наиболее мощного критерия, если таковой существует. Лит.: [1] Леман Э.Л., Проверка статистических гипотез, пер. с англ., 2 изд., М., 1979; [2] Neyman J., Pearson E., «Phil. Trans. Roy Soc. London», Ser. A, 1933, v. 231, p. 289-337; [3] Никулин M.C., в кн.: Исследования по математической статистике, в. 8, Л., 1988, с. 129-42. М. С. Никулин. НАИБОЛЕЕ СЕЛЕКТИВНОЕ ДОВЕРИТЕЛЬНОЕ МНОЖЕСТВО (most selective confidence set) - см. Наиболее точное доверительное множество. НАИБОЛЕЕ СТРОГИЙ КРИТЕРИЙ (most stringent test) - см. Огибающая функция мощности. НАИБОЛЕЕ ТОЧНАЯ ГРАНИЦА (most accurate bound/limit) - граница наиболее точного доверительного интервала (см. Доверительный интервал, Наиболее точное доверительное множество). М. С. Никулин. НАИБОЛЕЕ ТОЧНОЕ ДОВЕРИТЕЛЬНОЕ МНОЖЕСТВО (most accurate confidence set), наиболее селективное доверительное множество, - доверительное множество из класса доверительных множеств, имеющих один и тот же коэффициент доверия, минимизирующее вероятность накрытия любого ложного значения неизвестного параметра вероятностного распределения. Пусть X - случайный элемент, принимающий значения в выборочном пространстве (£, 83, Р0), 6е0, и пусть А = {С(Х)} - класс доверительных множеств для параметра в, имеющих один и тот же коэффициент доверия Р, то есть для любого С(Х) из А inf Pe{6eC(X)} = P. Множество С (X) из А называется Н. т. д. м. для параметра в в классе А, если для любого С(Х) € А Р0{в' € С°(Х)} ^ Р0{в' € С(Х)>, 6*6'. См. Доверительный интервал, Доверительное множество. Лит.:[\\ Боровков А. А., Математическая статистика, М., 1984. М. С. Никулин. НАИБОЛЕЕ ТОЧНОЕ ИНВАРИАНТНОЕ ДОВЕРИТЕЛЬНОЕ МНОЖЕСТВО (most accurate invariant confidence set) - наиболее точное доверительное множество в классе инвариантных доверительных множеств одного и того же уровня. Пусть X - случайный элемент, принимающий значения в выборочном пространстве (£, 83, Р0), 6е0, и пусть А= {С(Х)} - класс всех доверительных множеств для параметра 6, имеющих один и тот же коэффициент доверия Р, 0<Р< 1. Далее, пусть на И задана группа G = {g) измеримых преобразований g пространства И на себя, относительно к-рой семейство {Р0} является инвариантным. Доверительное множество С(Х) из А называется инвариантным относительно группы G, если С(дХ) = дС(Х) для всех д е G, где д - элемент индуцированной группы G ={д} преобразований д пространства 0 в себя. Инвариантное доверительное множество С0(Х) из А называется наиболее точным, если для любого другого инвариантного множества С(Х) из А выполняется соотношение Р0{6' € С0(Х)} ^ Р0{6' € С(Х)}, 6*6'. 372 НАИБОЛЕЕ См. также Доверительный интервал, Наиболее точное доверительное множество. Лит.:[\] Боровков А. А., Математическая статистика, М., 1984. М. С. Никулин. НАИБОЛЬШЕГО ПРАВДОПОДОБИЯ МЕТОД (maximum likelihood method) - см. Максимального правдоподобия метод. НАИБОЛЬШЕГО ПРАВДОПОДОБИЯ ПРИНЦИП, максимального правдоподобия принцип (maximum likelihood principle),- эвристический принцип статистического вывода, согласно к-рому в качестве значения неизвестного параметра в статистической модели следует выбирать наиболее «правдоподобное» значение, доставляющее супремум правдоподобия функции. Пусть х - наблюдение над случайной выборкой X, распределение к-рой зависит от неизвестного значения 6 € 0, и р(х; 6) - функция правдоподобия (функция параметра 6 е 0), определенная с помощью а-конеч- ной меры ц, доминирующей семейство распределений случайной выборки. Из двух возможных значений 6j и 62 параметра 6, согласно Н. п. п., наиболее правдоподобным (то есть боле? всего согласующимся с наблюдением х) является то значение, к-рое соответствует большему значению функции правдоподобия. Такой вывод не зависит от того, с помощью какой доминирующей а-конечной меры определялась функция правдоподобия. В теории оценивания Н. п. и. конкретизируется как максимального правдоподобия метод, в соответствии с к-рым в качестве оценки для неизвестного параметра 6 выбирается статистика 6(.г), доставляющая супремум функции правдоподобия. В теории проверки статистич. гипотез при различении двух сложных гипотез #о:6е0о и Я^бе©, Н. п. п. приводит к отношения правдоподобия критерию, принимающему гипотезы //j или Я0 в зависимости от того, велико или мало отношение правдоподобия sup p(x; 6)/ sup p(x; 6) бе 0j бе 0О [в случае двух простых гипотез ЯО:6 = 0О и Я116 = 0! Н. п. п. приводит к наиболее мощному критерию Неймана - Пирсона, основанному на отношении правдоподобия р(х; 6t )//?(#; 60)]. Следует отметить, что хотя в общем случае не существует строгих формальных обоснований Н.п.и., но построенные с его помощью статистич. процедуры часто обладают многими оптимальными (или асимптотически оптимальными) свойствами (см. Отношения правдоподобия критерий, Максимального правдоподобия метод). Наряду с Н. п. п. в общей теории статистич. вывода рассматривают и более общие принципы - слабый принцип правдоподобия и усиленный принцип правдоподобия. Согласно первому принципу, по двум различным наблюдениям х^ и х2 над одной и той же выборкой X надлежит сделать одинаковые статистич. выводы, если их функции правдоподобия пропорциональны: р(х\, Q) = h(x\, х2)р(х2', 6). Второй принцип касается наблюдений х и у над двумя различными выборками X и У с функциями правдоподобия Рх^х> в) и Ру(у, 6), зависящими от одного и того же неизвестного параметра 6. Согласно этому принципу, на основании наблюдений х и у надлежит сделать одинаковые статистич. выводы о параметре 6, если соответствующие функции правдоподобия пропорциональны: pxix; 6) = h(x, у)ру(у> 6). Лит.: [\] Кокс Д., Хинкли Д., Теоретическая статистика, пер. с англ., М., 1978; [21 Кендал л М.Дж., Стьюарт А., Статистические выводы и связи, пер. с англ., М., 1973. А. В. Бернштейн. НАИЛУЧШАЯ ЛИНЕЙНАЯ НЕСМЕЩЕННАЯ ОЦЕНКА (best linear unibiased estimator, BLUE) - см. Линейная оценка с наименьшей дисперсией.
НАИЛУЧШЕГО ПОДМНОЖЕСТВА ПРЕДИКТОРОВ ВЫБОР (best predictor subset selection) - совокупность эвристических приемов понижения размерности функции регрессии линейного регрессионного эксперимента по результатам измерений с целью улучшения прогноза функции регрессии. Лишние предикторы ведут к повышению дисперсии прогноза, а недостаток предикторов приводит к его смещению. Всех регрессий метод есть ускоренный поиск подмножества предикторов заданной мощности с наименьшей остаточной суммой квадратов, использующий специальные приемы экономии памяти компьютера. Среди методов частичного перебора подмножеств различают методы последовательных включений и исключений, а также нек-рые их комбинации. Имеются примеры, где каждый из таких методов не выбирает наилучшего подмножества. Ряд методов предназначен для Н. п. и. в. в случае упорядоченного множества предикторов (напр., в полиномиальной регрессии). Выбор осуществляется лишь между множествами номеров предикторов {1}, {1,2}, {1,2,3}, ..., так что число подмножеств, подлежащих перебору, снижается от 2 до N (N - максимальный допустимый объем подмножества, N ^п, п - объем выборки). Выбирают множество предикторов с номерами {\,2,...,рп}, где рп = arg min Jp (J - нек-рый кри- р=\,2 N терий). В основном используют критерии RSSp J=—о" +^Р (С.;-критерий Мэллоуса), ' а ' Jp = RSSp(n + p)/(n-p) (FPE-критерий), Jp = RSS ,exp(2p/n) (информационный критерий Акаике, AIC). Здесь RSS - остаточная сумма квадратов для модели с первыми /; предикторами, а - оценка дисперсии ошибок. При определенных условиях имеет место асимптотич. эквивалентность среднеквадратичных ошибок прогноза для методов Н. и. и. в. с критериями вида / = RSSp(\ + v(p/n)), где функции v(0, t>0, таковы, что v(t)/2t-±\, t-+0 (см. [2]). Эти методы также асимптотически эквивалентны методу, основанному на С;;-критерии Мэллоуса, и методу кросс-проверки, заключающемуся в минимизации по р предсказанной суммы квадратов. Лит.: [1] Себер Дж., Линейный регрессионный анализ, пер. с англ., М., 1980; [21 По л я к Б. Т., ЦыбаковА.Б., «Докл. АН СССР», 1989, т. 304, № 2, с. 297-301. м. Б. Малютов. НАИЛУЧШИЙ ЛИНЕЙНЫЙ ПРОГНОЗ (best linear pre diction) - см. Случайный процесс; каноническое представление. НАИМЕНЕЕ БЛАГОПРИЯТНОЕ РАСПРЕДЕЛЕНИЕ (least favorable distribution) - априорное распределение, максимизирующее функцию риска в статистической задаче принятия решения. Пусть по реализации случайной величины X, принимающей значения в выборочном пространстве (£, ф$, Ре), ве0, надлежит принять решение d из пространства решений (Ф, $%), при этом предполагается, что неизвестный параметр в является случайной величиной, принимающей значения в выборочном пространстве (0, ф0, щ), teT. Пусть функция L(0, d) выражает потери, к-рые возникают при принятии решения d, если истинное значение параметра есть в. Априорное распределение nt* из семейства {щ, teT), называется наименее благоприятным для решения d в статистич. задаче принятия решения при бейесовском подходе, если sup p(nt, d) = p(Kf, d)\ teT p(nt,d)=\ f Ш, d(x))dPQ(x)dnt(e) - функция риска, выражающая средние потери от принятия решения d. Н. б. p. nt* позволяет вычислить самые «тяжелые» (в среднем) потери p(nt*, d), возникающие при принятии решения d. В практич. деятельности ориентируются, как правило, не на Н.б. р., а наоборот, стараются принять такое решение, к-рое предохранило бы от максимальных потерь при изменении параметра в, что приводит к поиску минимального решения d*, минимизирующего максимальный риск, то есть inf sup p(nt, d)=sup p(nt, d*). rfeD teT teT В задаче проверки сложной статистич. гипотезы против простой альтернативы при бейесовском подходе Н. б. р. определяется с помощью редукции Вальда, к-рая заключается в следующем. Пусть по реализации случайной величины X надлежит проверить сложную гипотезу Я0, согласно к-рой закон распределения принадлежит семейству #0 = {Р9, ве0}, против простой альтернативы Нх, согласно к-рой случайная величина X подчиняется закону Q, и пусть pQ(x) = dP9(x)/d\i(x) и q(x) = dQ(x)/d[i(x), где ц( •) - нек-рая а-конечная мера на (£, $ж), {nt, teT}- семейство априорных распределений на (0, $0). Тогда для любого teT сложной гипотезе Я0 можно сопоставить простую гипотезу Ht, согласно к-рой случайная величина X подчиняется вероятностному закону, имеющему плотность вероятности ft(x) = \ pQ(x) = dntW. Согласно Неймана - Пирсона лемме, для проверки простой гипотезы Ht против простой альтернативы Нх существует наиболее мощный критерий, построенный на отношении правдоподобия. Пусть $t - мощность этого критерия, тогда Н. б. р. есть то априорное распределение nt* из семейства {nt, teT), для к-рого выполняется неравенство $t* ^ $t для всех teT. Н. 6. р. обладает тем свойством, что плотность вероятности ff(x) случайной величины X при гипотезе Ht* «наименее удалена» от альтернативной плотности q(x), то есть гипотеза Ht* является самой «близкой» из семейства {Ht, teT) к конкурирующей гипотезе Нх. См. Бейесовский подход к статистическим задачам, Игра двух лиц. Лит.: [1] Леман Э., Проверка статистических гипотез, пер. с англ., 2 изд., М., 1979; [21 Закс Ш., Теория статистических выводов, пер. с англ., М., 1975. М. С. Никулин. НАИМЕНОВАНИЙ ШКАЛА (name scale) - см. Измерений теория. НАИМЕНЬШАЯ ЭКСЦЕССИВНАЯ МАЖОРАНТА (mini mal excessive majorant) - см. Оптимальная остановка случайного процесса. НАИМЕНЬШИХ КВАДРАТОВ ВЗВЕШЕННЫЙ МЕТОД (weighted least squares/generalized least squares) - см. Наименьших квадратов метод. НАИМЕНЬШИХ КВАДРАТОВ МЕТОД (least squares method) - один из наиболее распространенных общих методов ошибок теории и статистического оценивания, состоящий в том, что оценка неизвестных параметров определяется из условия минимума нормы вектора ошибок (вектора невязок). Метод имеет аналоги в теории аппроксимации функций и в теории приближенного решения операторных уравнений. Н. к. м. введен в работах К. Гаусса (С. Gauss, 1794-95) и А. Лежандра (A. Legendre, 1805-06). О. Коши (A. Cauchy, 1836) первый указал на важность для Н. к. м. идеи ортого- НАИМЕНЬШИХ 373
нальности. П. Л. Чебышев (1858) разработал различные аспекты применения Н. к. м. в моделях полиномиальной регрессии. К. Пирсон (К. Pearson, 1896) обнаружил связь линейной модели с многомерным нормальным законом и вывел законы распределения различных статистик, связанных с Н. к. м. А. А. Марков (1898) и А. Н. Колмогоров (1946) дали строгое обоснование Н. к. м. и установили границы его применимости. А. Эйткен (A. Aitken, 1935) сформулировал метод в современных матричных обозначениях. Р. Фишер (R. Fisher, 1922-25) развил идеи ортогональности, заложив основы современной теории дисперсионного анализа и планирования регрессионных экспериментов. А. Н. Колмогоров (1946), Дж. Дербин и М. Кендалл (J. Durbin, M. Kendall, 1951), У. Крускал (W. Kruskal, 1961) развили геометрич. (бескоординатный) подход к Н. к. м. С. Pao (S. Rao, 1962) рассмотрел различные вырожденные варианты линейной модели. А. Херл (A. Hoerl, 1962) применил к процедурам Н. к. м. общий подход Ч. Стейна (Ch. Stein, 1956), введя обобщенную схему хребтовой регрессии, имеющую глубокие связи с методами регуляризации при решении некорректных операторных уравнений, развитыми А. Н. Тихоновым (1963). Н.к. м. в линейной модели измерений. Пусть «-мерный вектор измерений У = (ух, ..., уп) имеет следующую структуру: У = Х6 + е, где Х=(х{:) - известная матрица размерности пхр и ранга р, р^п (ее называют матрицей регрессионных коэффициентов, а матрицу Л = Х Х- матрицей плана); в = (6t, ..., 6„) - вектор неизвестных, но вполне определенных параметров; е есть «-мерный случайный вектор погрешностей, имеющий нулевое математич. ожидание. Компоненты (et, ..., е„) вектора е предполагаются независимыми случайными величинами, одинаково распределенными с общей симметричной функцией распределения F(x) = P{et < x), F(x) = 1 -F( -x). На основе измерений У требуется оценить векторный параметр в. Согласно Н.к. м., оценка в параметра в получается из условия минимизации квадратичной формы: 5(в)=||У-Хв|2=(У-Хв)Т(У-Хв) = Х"=1 (^-Х;в)2 = тт, где Х{ есть г-я строка матрицы X. Форма 5(в) представляет собой многочлен второй степени относительно переменных et, ..., Qp. Он достигает минимума при таком значении 6, при к-ром обращается в нуль вектор первых частных производных: dS/dd = 0, откуда следует, что оценка 6 должна удовлетворять нормальных уравнений системе (ХТХ)6 = ХТУ. По предположению, X - матрица полного ранга, поэтому матрица л = хтх имеет обратную и, следовательно, 6 = (X Х)~ X У. Эта оценка является линейной функцией от измерений У = (ух, ..., уп) . Ее статистич. свойства существенно зависят от функции распределения F(x). В частности, при весьма общих ограничениях на вид F(x) оценка оказывается состоятельной, несмещенной и эффективной в классе всех несмещенных оценок, линейных по ух, ...,уп (см. Несмещенная оценка, Эффективная оценка), причем эффективность здесь может пониматься как оптимальность по отношению, по крайней мере, к любой из четырех мер качества: 1) дисперсия произвольной линейной комбинации УР Л Х.,-6,- минимальна в классе ЛшЛ)-\ J J всех линейных несмещенных оценок величины ^Р._. А..-8.-, в частности минимальна дисперсия каждой из компонент в., j= 1, ..., р; 2) det (cov &) = min (определитель ковариационной матрицы оценки в, называемый обобщенной 374 НАИМЕНЬШИХ дисперсией); 3) cov 6 = min, то есть разность между ковариационными матрицами любой оценки из заданного класса и оценки по Н. к. м. всегда является положительно определенной матрицей; 4) tr(cov6) = Е(6 - Е6)Т(6 - Е6) = min, Её = е. Важным свойством оценки по Н. к. м. является также еле дующее. Пусть дисперсия а = Det погрешностей измерений является одним из неизвестных параметров, и пусть А=У-Х6- вектор остатков (вектор кажущихся ошибок). 5 = А А. Тогда S - несмещенная оценка а . п-р При очень широких предположениях о законе распределения погрешностей F(x) оценки по Н. к. м. асимптотически нормальны: Q~Np(Q, a2(XTX)_1), и-"►<*>, или, в более удобной записи, а "Чхтх)1/2(е-е)~жо, о, и->°°. При неизвестном а этот же результат имеет место, если вместо а подставить его оценку 5. Для нормально распределенных погрешностей ef, где £;еЖ0, о ), справедливы гораздо более сильные утверждения: 1) оценка по Н. к. м. эффективна в классе всех оценок, а не только линейных и несмещенных; 2) статистики 6 и S независимы и вместе являются достаточной (см. Достаточная статистика) и асимптотически эффективной оценкой вектора неизвестных параметров (в , а ) = (6t, ..., в„, а ); 3) при известной а оценки по Н. к. м. подчиняются нормальному закону N (в, а (ХТХ) ) не только при п ->°°, но и при любом конечном п. Независимость статистик 6 и S при конечных п является характеристич. свойством нормального закона: при всех других распределениях F(x) эти статистики зависимы. В то же время для любого симметричного закона распределения погрешностей при п ->о°, /= 1, ..., р коэффициенты корреляции г(6,, S ) ->0, так что асимптотически эти статистики оказываются некоррелированными. Важным следствием приведенных результатов будет тот факт, что для любой матрицы G размерности kxp, имеющей максимальный ранг, величина С6 является оценкой по Н. к. м. вектора H = GQ, свойства такой оценки легко выводятся из свойств оценки 6. Во многих практич. задачах матрица регрессионных коэффициентов X оказывается априори заданной, однако существуют постановки, в к-рых исследователь имеет возможность спланировать эксперимент, выбрав матрицу X из нек-рого известного класса (см. Планирование эксперимента). Один из очевидных принципов выбора матрицы состоит в минимизации ковариационной матрицы оценок Р = а (X XV , то есть в максимизации (в том или ином смысле) матрицы плана Л = X X. Другой важный принцип планирования регрессионных экспериментов связан с понятием ортогональности. Пусть в рассматриваемой задаче требуется оценить вектор GQ = H={hx, ..., hk)T. План называется ортогональным по отношению к иараметрич. функциям hx, ..., hk, если оценки по Н. к. м. h\, ..., hk компонент вектора Н некоррелированы: Е(п{- п{)(п.- hj) = 0; i,j=\, ..., k, i*j. Основное преимущество ортогональных планов состоит в том, что оценка /г для каждого h: может быть вычислена так, как будто известно, что все остальные /^ = 0, i*j. Этот прием, в частности, значительно снижает вычислительные трудности Н.к. м., так как в явной формуле для оценок в этом случае требуется обращение диагональной матрицы. Простейшим обобщением рассмотренного подхода является взвешенный метод наименьших квадратов, предусматривающий введение матрицы весов W размерности
пуп и получение оценки 6 из условия минимума взвешенной суммы квадратов: (У-Хв) W(Y-XQ) = min, откуда 6 = (X WX)~ X WY. Обычно этот метод применяют в линейной модели с коррелированными погрешностями измерений и известной ковариационной матрицей вектора е: cov е = X. Полагая в этих условиях W=1L , получают оценку, обладающею всеми приведенными выше свойствами оценок по Н. к. м. В частности, условие асимптотич. нормальности принимает вид 0~N (в, (X I" X) ), п->°°, а для нормального закона распределения погрешностей и eeN„(0, I) это соотношение выполняется не только асимптотически, но и при всех конечных п. Если ковариационная матрица I известна с точностью до постоянного множителя: Х = о 10, то \У=1д1 и статистика 5 = А^^А, где А = Y - Х8 - вектор остатков (кажущих- п- р и ся ошибок), является несмещенной оценкой параметра а , a пара (6, 5 ) - достаточной статистикой для (в, а ). Другое применение взвешенный Н. к. м. находит при построении рекуррентных численных алгоритмов, реализующих более сложные нелинейные методы оценивания. Случай одного неизвестного. Пусть для оценки значения неизвестной величины в произведено п независимых измерений, давших результаты г/г = в + е^ г=1, ..., п, где et, ..., гп - случайные ошибки (по определению, принятому в теории ошибок, случайные ошибки - независимые случайные величины с нулевыми математич. ожиданиями, Eef = 0; если Eefф0, то ошибки называются систематическими). Пусть Ог{ = о dj, где d{>0- известные величины, а а - неизвестный масштабный параметр. Этой постановке отвечает линейная модель вида У=1в + е, где У = (у\, ..., уп) , а матрица регрессионных коэффициентов представляет собой вектор 1 = (1, ..., 1) размерности 1 х п, е = (et, ..., е„)т. Согласно взвешенному Н. к. м., оценка в параметра в получается из условия 5(в) = Х"=1 ^(^-e)2 = min, w{ = d;\ откуда Для а2 получается оценка 52 =^7 XL-.<*.•-«>2- При нек-рых общих предположениях относительно распределений погрешностей et, ...,£„ и при достаточно большом п 6-Мб, c2/w), что можно использовать для построения приближенных доверительных интервалов и для проверки гипотез о значении в. Если погрешности е, подчиняются нормальному закону, Е'сМО, a dj), можно найти точные законы распределения случайных величин 5 и (6-в)/5 для любого п, а именно: (п - 1)5 /а подчиняется х распределению с (п - 1) степенью свободы, а (6-в)/5- ^-распределению Стьюдента с (и-1) степенью свободы. Пример 1. У 20 изготовленных на токарном автомате осей контролировались отклонения посадочных размеров от номинального. Полученные в результате независимых равноточных измерений значения уклонений (в микронах) приведены в таблице (здесь и7 - число измерений, в к-рых наблюдалась величина уклонения у{, ^._1 п{■ = п = 20). У, п1 39 2 40 4 41 4 42 1 43 6 2 44 1 46 1 Так как все измерения являются независимыми и равноточными, веса отдельных измерений следует положить пропорциональными их количеству, т{ = п{, так что матрица весов имеет вид W = d\'dg(nv ..., nk) и в качестве оценки для неизвестного уклонения в получается величина 6 = £ и^/£, я* = 41,50. Задавшись надежностью у=0,95, по таблицам распределения Стьюдента с 19 степенями свободы можно найти, что £ =2,09, поэтому в качестве предельной абсолютной погрешности приближенного равенства 0*6 = 41,50 следует принять величину *yS = M2u=i ni(yi "в)2 Д("-0 = 0,80. Таким образом, доверительный интервал для 0 надежности у=0,95 имеет вид 40,70 ^6^42,30. Пример 2. Пусть на вход приемника поступает сигнал y(t) = Qx(t) +z(t), представляющий собой смесь полезного сигнала вида Qx(t), где x(t) - известная функция, и нестационарной помехи е(0 со средним 0 и корреляционной функцией his, i). Амплитуда сигнала y(t) измеряется в моменты времени ^, ..., tn. Требуется оценить неизвестную амплитуду полезного сигнала в. Этой постановке отвечает линейная модель У = Хв + е, Y=(y(t]),..., y(tn))T, Х= (*(*,),...,x(tn))T,z= (e(^),..., е(^))т, где е - случайный вектор со средним 0 и ковариационной матрицей 1=(<Уу), af. = ^(^, tj). Согласно взвешенному Н.к. м., оценка 6 получается из условия 5(0) = ( У - Хв) I ( У - Хв) = = min и имеет вид в = (ХТ1Г*Х)~*ХТ1Г* У. Обозначив через av элементы матрицы X , можно выписать оценку в более простом явном виде: Величина 6 асимптотически нормальна со средним в и дисперсией D = ИГ. olJx(x■ . Если шум гауссовский, то это соотношение выполняется при любом h:(6-6)/VD еМО, 1). В случае некоррелированных измерений постоянного сигнала x(t) = \, Х = 1 = (1, ..., 1)т, X = diag(a2, ..., а„2), формула (1) принимает вид Hxl*,/°2]/[x;=1<4 в частном случае X = а Проверка гипотез и доверительное оценивание. При весьма общих предложениях оценки по Н. к. м. параметров линейной модели асимптотически нормальны, поэтому в качестве границ доверительных множеств и критич. областей выгодно использовать поверхности ^-мерных эллипсоидов вида (в - 0) X Х(в - 0) = const, к-рые являются поверхностями уровня плотности предельного нормального закона (см. Рассеивания эллипсоид). Пусть 0(с) = {ве11?Мв-е)тХтХ(в-е)^с}, О О. Тогда в случае нормально распределенных погрешностей £;, £; € МО, а ), для любых с>0 имеют место следующие результаты: при извест- 2 ной дисперсии а Р{0(са-2)эв} = Р{х^с}, НАИМЕНЬШИХ 375
2 о 2 где хр ~ случайная величина, подчиняющаяся х -распределению с р степенями свободы; при неизвестной а и использовании ее оценки S : P{Q(cS-2)B()} = P{Fpn_p<c}, где Fр>п-р ~ случайная величина, подчиняющаяся F-распреде- лению с параметрами р, п-р. Пример 3. При калибровке измерительного прибора с его помощью измеряют набор эталонов, параметры к-рых flj, ..., ап известны заранее, а затем исследуются отклонения у{ измеренных значений А{ от истинных: у{-Аг-а{. Если прибор не имеет систематич. ошибки, то Еу{ = 0, постоянна и служит характеристикой точности прибора. Если систематич. ошибка имеется, то ее пытаются приближенно представить в виде Eyi = a+$al = (a + $d) + $(ai-a), а= — £"=1 а{, что соответствует линейной модели у=хе + е, e = (elf e2)T, е,=а+рд, е2 = р, _|| 1 1 ... 1 II I й\ — а й2 - а ... ап — а ||' где погрешности ef обычно считают независимыми случайными величинами, нормальными (О, а2). Переход к параметрам в1( в2 обеспечивает диагональный вид матрицы X X. Оценка наименьших квадратов здесь легко выписывается в явном виде: Оценки в! и в2 некоррелированы, поэтому доверительными областями для 8j и в2 являются эллипсы Q(c)Jee^l^+(9^)24 [ DOj D02 J где De^^, De2=a2/i;=14-«)2; Р{в€0(са"2)} = Р{х2^с} = 1-ехр(-с/2). При неизвестной дисперсии а вместо нее подставляют ее оценку 52=^1"=11^-в,-в2ц-в)]2, при этом P{QeQ(cS2)} = P{F2n-2^c}. Полученные в этой модели оценки исходных параметров а и Р коррелированы, поэтому доверительными областями для вектора (a, P) является семейство эллипсоидов более сложного вида: 0(c) = {в € IR2: п(а- а)2 + 2па(а - a)(|J - р) + +(p-p)2x;=1«Nc>. Вычислительные трудности Н.к. м. Оценка 0 по взвешенному Н. к. м. является решением системы нормальных уравнений Л8 = Х 1~ У; ее ковариационная матрица covQ = P = A . Основные трудности возникают, когда матрица I или обобщенная матрица плана плохо обусловлена, что указывает, вообще говоря, на необходимость изменения плана эксперимента. Во многих случаях, однако, предпочитают заменить обычное обращение матриц одним из вариантов псевдообращения. Другая проблема, также связанная с плохой обусловленностью, возникает, когда машинное вычисление А не вызывает затруднений, но ее вид не обес- 376 НАИМЕНЬШИХ печивает нужной точности оценивания 8. В этом случае часто оказывается целесообразным ввести в оценку искусственное смещение, заменив матрицу А на А^ = А + Х1, где X - нек-рое малое число (при дисперсиях измерений, близких к 1, обычно берут X порядка 0,01). Такая оценка обычно оказывается намного предпочтительнее по критерию минимума среднеквад- ратич. ошибки. Возможна также оптимизация параметра X на основе критерия минимума среднеквадратич. ошибки (см. Хребтовая регрессия). Еще одна трудность реализации Н. к. м. связана с необходимостью хранения больших объемов информации и сложностью обращения матрицы I из-за ее большой размерности. Обращение матриц Л и I выгодно производить рекуррепт- но по мере поступления новых измерений, напр. методом окаймления. Это приводит к рекурсивным процедурам вычисления оценки 8 и ее ковариационной матрицы Р на основе начальных значений 8 и Р . В частности, в случае I = diag(a1, ..., a„) эта процедура имеет вид в(*+,) = вш + К(*+,>[^+1-Х*+1ёда]; к<*+1) = яША,Т+№+лхТ+|+02г1; P(k+° = [l-Klk+i)Xk+]]Plk\ где Xk есть k-я строка матрицы X; вектор К размерности р х 1 называется коэффициентом передач и (см. Кал- мана фильтр). Выравнивание (сглаживание) измерений на основе Н.к. м. Один из наиболее типичных случаев применения Н. к. м.- выравнивание результатов измерений yv i = 1, ..., п} вида где <pj ф - известные функции нек-рого параметра t (если t - время, то ^ tn - те моменты, в к-рые производились измерения). Эта схема соответствует линейной модели с матрицей регрессионных коэффициентов Х=(ф,(^)). Особенно часто встречается в приложениях случай параболич. интерполяции, когда ф.-(О - многочлены [напр., ф1(0 = 1, ф2(0 = £, Ф3(0 = £ ,...]. Другой важный для приложений случай - гармония, интерполяция, когда в качестве ф;(£) выбираются тригонометрич. функции [напр., фу(£) =cos(;- \)t, / = 1 р\. В современных пакетах стандартных программ обычно предусматривают использование в качестве ф.Ш различных комбинаций многочленов, экспонент и тригонометрич. функций. В задачах выравнивания измерений особое значение имеют идеи ортогонализации, к-рые здесь сводятся к выбору в качестве фу(0, /= 1, ••-, р, ортогональных систем функций. Помимо вычислительных преимуществ, ортогонализация обеспечивает простую связь между оценками, полученными при различных значениях параметра р (см. Форсайта метод), что позволяет уменьшить объем вычислений, напр. при выборе правильной степени аппроксимирующего многочлена. Пример 4. Результаты опытов по определению сопротивления, оказываемого воздухом движущемуся автомобилю, приведены в таблице, где у - площадь испытывающей сопротивление лобовой поверхности автомобиля (м ), а v - ею скорость (км/ч). Требуется установить между этими величинами приближенную зависимость вида y = av +by + с. Уг 4,28 г\ 1 88,7 3,53 98,0 3,16 100,0 2,98 102,8 2,60 106,7 2,23 115,8 2,05 118,9 1,67 130,2 1,49 138,9 1,12 146,; Минимизируя сумму квадратов ошибок: S(a, b, с) = ]£._, [#, -av2 -bi^ -с] = min,
получают значения а = 0,0007; b = -0,205; с= 16,84. Вычисления упрощаются, если перейти от системы функций {1, v, v } к системе {С0Ы = 1; G](v)=a0 + a^v; G2(v) = р0 + р^ + р2г;2}, коэффициенты к-рой определяются из условий ортогональности: X,'!, Gj(v,)Gk(vl)) = 0, j, k = 0, 1, 2 j*k, обеспечивающих диагональность матрицы плана, к-рую приходится обращать. Обе процедуры алгебраически эквивалентны, но переход к ортогональным многочленам проще в вычислительном отношении, приводит к меньшим ошибкам округления и не требует коррекции найденных коэффициентов при G(„ Gj, G2 в случае изменения степени аппроксимирующего м? огочлена. Н. к. м. в нелинейных моделях измерений. Пусть w-мерный вектор измерений У = (уи ..., уп) связан с р- черным вектором неизвестных параметров системой соотношений ^ = /■,(8,, .... е„)+е„ i=l, .... я, (2) где с, - независимые случайные ошибки, а ft - известные координатные функции дифференцируемого отображения F:№p—>IR" (в общем случае, нелинейные). Согласно Н. к. м., в качестве оценок в; принимают такие значения 6;, для к-рых минимальна норма вектора невязок (ошибок): 5(e) = ||y-F(e)||2 = X"=1l^-/',(e, e;;)]2 = min. Так как функции fx нелинейны, решение системы нормальных уравнений dS/dQ = 0 может оказаться достаточно трудным делом. Иногда удается найти нелинейное преобразование вектора У, после к-рого соотношения (2) сводятся к линейной модели. Метод допускает очевидные обобщения на случай измерений с различной дисперсией (гетерогенных) и коррелированных. Пример 5. Коэффициент трения |1 в подшипнике связан (при постоянной скорости) с температурой t эмпирич. формулой |i = pexp (уО. Таким образом, |i зависит от р и у нелинейно, однако его логарифм In (X является линейной функцией от In р и от у. Применение Н. к. м. к исходному и к преобразованному равенствам дает, вообще говоря, различные оценки для Р и у, но нетрудно заметить, что если ошибки малы по сравнению с измеряемой величиной, то дисперсия D(ln |i) * ц~ D|i. Это дает основание приписать измерениям 1п|1г в линеаризованной модели веса zi\ = \i~ . После этого различия оценок в исходном и в линейном случаях окажутся несущественными. Рекуррентная линеаризация. В тех случаях, когда не удается подобрать функциональное преобразование, сводящее нелинейную модель измерений к линейной, поступают следующим образом. Выбирают нек-рое начальное приближение 0 , вводят вектор X = в - 0 и записывают соотношения (2) в виде V = F(0 )Х + е. Разлагая правую часть в ряд по степеням компонент Xv ..., X вектора X и ограничиваясь линейными членами, получают приближенную линейную модель измерений с неизвестным вектором X: у-Яё(0)) = [!£(в(0>)]х + 8, то есть У, -/-,(ё(0)) = Х;=, -^ (в(0))Х, +5„ г = 1 п, (3) где 6= (8t, ..., 6„) - вектор погрешностей. Применяя Н. к. м. для нахождения оценок параметра Х = (Х]( ..., Хр) , получают первое приближение 0 ' = ё + X. Эту операцию можно повторять рекуррентно, при этом если дисперсия погрешностей ОЬ{ от шага к шагу уменьшается, то процесс сходится: в -> 0, п->°°, хотя полученное значение 0 может быть определено неоднозначно и зависеть от начального приближения 0 . В этом методе часто предпочитают с самого начала ограничиваться 1-2 шагами итерации. Вычисления в линейных моделях (3) на каждом шаге итерации выгоднее проводить также в рекуррентной форме, используя идеи хребтовой регрессии, чтобы обезопасить себя от возможной плохой обусловленности какой-либо из обращаемых матриц (см. Левенберга - Марквардта метод). См. также Наименьших квадратов метод с оцененной ковариационной матрицей, Наименьших квадратов метод с ограничениями. Лит.; [ 1 ] Л и н н и к Ю. В., Метод наименьших квадратов и основы математико-статистической теории обработки наблюдений, 2 изд., М., 1962; [2] Seal H.L., «Biometrika», 1967, v. 54, М> 1-2, p. 1-24; [3] Демиденко Е.З., Линейная и нелинейная регрессии, М., 1981; [4 J Pao СР., Линейные статистические методы и их применения, пер. с англ., М., 1968; [5] Алберт А., Регрессия, псевдоинверсия и рекуррентное оценивание, пер. с англ., М., 1977; [6] Бахшиян Б. Ц., Назиров Р. Р., Эльясберг П.Е., Определение и коррекция движения, М., 1980; [7] Планирование оптимальных экспериментов, М., 1975; [8] Arnold S. F., The theory of linear models and multivariate analysis, N.Y., 1981; [9] Демиденко Е.З., Оптимизация и регрессия, М., 1989; [10] Большее Л.Н., Наименьших квадратов метод, в кн.: Математическая энциклопедия, т. 3, М., 1982. А. В. Макшанов, М.С. Никулин. НАИМЕНЬШИХ КВАДРАТОВ МЕТОД с ограничениями (constrained least squares method) - совокупность статистических процедур в задаче точечного оценивания по наименьших квадратов методу при наличии ограничений на множество допустимых значений оцениваемого параметра. Наиболее полно исследованы случаи ограничений, имеющих форму линейных (квадратичных) уравнений или неравенств, возникающих из таких условий, как, напр., выпуклость множества допустимых значений оцениваемого параметра, положительность или монотонность оцениваемой функции от параметра. Пусть «-мерный вектор измерений Y = (yv ..., уп) подчиняется линейной модели У = Х6 + е (1) с известной матрицей X размерности п х р ранга р^ии вектором некоррелированных случайных ошибок z=(£]t ..., е„) , п. Требуется оценить по методу наименьших квадратов неизвестный параметр 6 = (6^ ..., 6„) , удовлетворяющий ограничению 9е0с IRP. Соответствующую оценку 0 иногда называют рестриктивной оценкой, е=(в, ер)т Линейные ограничения в виде равенства. Пусть ограничение имеет вид Нв = Ь, (2) где Н - известная матрица размерности тхр и ранга т^р, b = (b]t ..., bm) - известный вектор. Геометрически это означает, что неизвестный вектор в принадлежит m-мерной гиперплоскости в IRP, заданной уравнением (2). В этом случае оценка fi=(fi1, ..., 6„) , минимизирующая норму невязок вектора при ограничениях (2), имеет вид 6 = 0+ (ХТХ)"1ЯТ5(6 - Я0), (3) где S=[H(XTXr]HT]~\ а 0= (ХТХ)_1ХТУ - обычная (без ограничений) оценка по Н. к. м. вектора в (см. [ 1 ]-[3]). Оцен- НАИМЕНЬШИХ 377
ка 6 является эффективной в классе линейных несмещенных оценок, удовлетворяющих условию (2). Ее ковариационная матрица есть covfi= У[/-ЯТ5Я(ХТХ)~1], где = cov 0. Несмещенная оценка для а имеет вид s2 =—!—(У-хе)т(У-хе). п-р+т Формулы для определения 6 в рекуррентной форме (а также для случаев, когда X и Я не являются матрицами полного ранга) см. в [5]. Линейные ограничения в виде неравенств. Пусть ограничение имеет вид ТОеСТЬ Шв)^, i=lf ...f m. (4) Соответствующая оценка 6 определяется единственным образом и либо совпадает с обычной оценкой по Н. к. м. 0, если для 0 выполняются все неравенства (4), либо попадает хотя бы на одну из гиперплоскостей (#в); = bit то есть превращает в равенство хотя бы одно из неравенств (4). В связи с этим оценка 6 с ненулевой вероятностью принимает граничные значения и оказывается смещенной (см. [5]). При использовании в качестве критерия для сравнения полного квадрата ошибки Е[(в-в)т(в-в)] = Ху=1 °в;+Х>-1 [Е(в;-е;.)]2 обычная оценка Н. к. м. без учета ограничений (4) может оказаться предпочтительнее рестриктивной оценки 6 (см. [5]). Найдены вычислительные алгоритмы для построения ре- стриктивных оценок в случаях линейных и нелинейных моделей, а также линейных и нелинейных систем ограничений (см. [6], [7]). Для линейных моделей и линейных ограничений типа (4), а также нек-рых их обобщений соответствующие рестриктивные оценки могут быть получены в рекуррентной форме (см. [8], [9]). Лит.: [1] ChipmanJ.S., Rao M.M., «Econometrica», 1964, v. 32, № 1-2, p. 198-209; [2] Liew C.K„ «J. Amer. Statist. Assoc», 1976, v. 71, № 355, p. 746-51; 13] Pao С. Р., Линейные статистические методы и их применения, пер. с англ., М., 1968; [4] Демиден- коЕ. 3., Линейная и нелинейная регрессии, М., 1981; [5] Ал- берт А., Регрессия, псевдоинверсия и рекуррентное оценивание, пер. с англ., М., 1977; [6] Бард Й., Нелинейное оценивание параметров, пер. с англ., М., 1979; [7] ЛоусонЧ., Хенсон Р., Численное решение задач метода наименьших квадратов, пер. с англ., М., 1986; [8] Оценивание в условиях неопределенности, Свердловск, 1982; [9] Д ем и ден ко Е. 3., Оптимизация и регрессия, М., 1989. А. В. Макшанов, М.С. Никулин. НАИМЕНЬШИХ КВАДРАТОВ МЕТОД с оцененной ковариационной матрицей (least squares method with estimated covariance matrix) - совокупность статистических процедур, связанных с использованием в обобщенном (взвешенном) наименьших квадратов методе состоятельной оценки ковариационной матрицы вектора измерений. Пусть в модели линейной регрессии У = Хв + £ вектор случайных ошибок £=(£!» ..., £„) удовлетворяет условиям Е£ = 0, cov£ = Z. Если матрица X известна, то оценка б параметра в по обобщенному Н. к. м. имеет вид е(1) = (Хт1"1Х)"1ХтГ1У (1) и при выполнении простейших предположений обладает изве стными свойствами оптимальности. Если X неизвестна, но имеется ее состоятельная оценка £, то оценка 0(£) = (ХТГ1Х)"1ХТГ1У (2) 378 НАИМЕНЬШИХ имеет асимптотически то же распределение, что и оценка 6(1), основанная на истинной ковариационной матрице X (см. [1]). В то же время конечновыборочные свойства оценки (2) и связанных с ней статистик значительно отличаются от аналогичных свойств оценки (1), и их исследование даже в случае нормальных измерений часто приводит к очень трудным задачам. В частности, весьма простые схемы сводятся к задачам, являющимся многомерными обобщениями классич. Беренса - Фишера проблемы (см. [2]-[5]). При различных структурных предположениях относительно матрицы £ получены (см. [6]) обобщенные оценки по Н. к. м., более эффективные, чем оценки (2). Для матриц £ специальной структуры (определенных с точностью до небольшого числа подлежащих оцениванию параметров) рассматриваются многошаговые схемы вида где оценки £ получаются каждый раз на основе анализа регрессионных остатков А -Y-X9 . Одна из наиболее исследованных схем такого вида - схема псевдонезависимых регрессий, введенная в [1J (см. также [7]). Подобные задачи широко распространены в теории временных рядов - АРМАХ-модели (см. [8]). Много внимания уделяется оценкам типа (2) в линейных моделях с распределенными лагами, в к-рых эти оценки не являются даже асимптотически эффективными; их свойства существенно зависят от способа построения £ (см., напр. [9]). Лит.: [1] Zellner A., «J. Amer. Statist. Assoc», 1962, v. 57, p. 348-68; [2] James G.S., «Biometrika», 1951, v. 38, p. 324-29; [3] RaoC.R., «Proc. 5-th Berk. Symp. Math. Stat. Probab.», 1967, v. 1, p. 355-72; [4] Han nan E.J.. «Econometrica», 1976, v. 44 № 4, p. 713-23; [5] Шалаевский О. В., «Тр. Матем. ин-та АН СССР», 1968, т. 104, с. 189-214; [6] Макшанов А. В., «Зап. науч сем. ЛОМИ», 1979, г. 85, с. 137-57; [7] Шалаеве ки й О. В., «Докл. АН СССР», 1979, т. 247, № 3, с. 565-69; 18] Демиденко Е. 3., Линейная и нелинейная регрессии, М., 1981; |9] Анализ авгорегрессий. Сб. ст., пер. с англ., М., 1978. а. В. Макшанов. НАИХУДШЕЕ РАСПРЕДЕЛЕНИЕ (worst distribution) см. Игра двух лиц. НАЙКВИСТА ЧАСТОТА (Nyquist frequency) - см. Дискре тизации проблема. НАКОПЛЕНИЯ МЕТОД (scoring method) - предложечный Р. Фишером (R. Fisher) метод повышения эффективности статистических оценок, основанный на линеаризации градиента правдоподобия функции в окрестности состоятельной оценки. Пусть 0„ - какая-либо состоятельная оценка параметра 0 по п независимым наблюдениям Х1( ..., Хп с плотностью fix, в), 1п/ххы, е) = £"=1 /вЧх,, в)/дх„ в), xin) = (xv .... хп), /(в) - информационное количество плотности f. Тогда процедура Н.м. дает оценку в* =6„-м~,/~,(6я)1п/"(ХЫ, ё„.), к-рая часто оказывается асимптотически эффективной. Н.м. применяется также к оценке многомерных параметров, для зависимых наблюдений и т.д. Он используется во всех случаях, когда оценка определяется из уравнения типа ф„(А" " , 6) = 0. Лит.: [1] Le Cam L., в кн.: Proceeding 3-d Berkeley simposium on mathematical statistics probability, v. 1, Berk., 1956. p. 12!>—56; [2] Джапаридзе К., Оценка параметров и проверка гипотез в спектральном анализе стационарных временных рядов, Тб., 1981 Р. 3. Хасьмит'кии. НАЛОЖЕНИЕ ЧАСТОТ (aliasing), подмена час от, элайзинг,- явление, возникающее при наблюдении стационарного случайного процесса Х(0, -оо<£<оэ, в дискретной последовательности точек 1= ..., -А, 0, А, 2А,... Для ста шо-
нарнгго случайного процесса известно его спектральное представление х(0 = £ ЛФШ. (1) При наблюдении процесса Х(0 с интервалом времени А выражение (1) преобразуется следующим образом: X(kA) = f eiXMA dq>tt) = = !„=-„ Jo e " <М* + 2я*/Д). (2) Из (2) следует: J°° е'ш rfcpU) = j^V^ ]£__ rfq>(X. + 2яя/А). (3) Мера ^Ш = ХГ=_оо ^ф(^ + 2яя/Д), Ес/ф^» = О, является ортогональной случайной мерой такой, что E\d^(X)\2 = ХГ--00 E|^<p(X.-h27Cw/A)|2. Равенство (3) означает, что гармоники с частотами X и X + 2tm/A, n = 0, ±1, ..., для стационарного процесса Х(0 не отливаются друг от друга. Если Х(0 - действительный стационарный процесс, то не отличаются друг от друга гармоники с частотами -X и X, поэтому гармонику с частотой X нельзя отличить от гармоник с частотами ±Х+2пк/А, п = 0, + 1, ... Частоты -Х + 2пп/А и Х+2пк/А, я = 0, ±1, ..., называются сопутствующими частотами. Двои ни кам и называются частоты X и Х + 2пк/А, О^Х^к/А, п = 0, ±1, ..., причем X называется главным двойником. Эффект Н.ч. наиболее наглядно описывается формулой связи между спектральными функциями последовательности FA(X) и процесса F(X): FA(X) = ]£"_ [Ftt.+ 2лл/Д) - Ж2я- 1)тс/А)], к-рая в случае существования спектральной плотности f(X) ■= F'(X) записывается в виде &а>=2£._..л».+2п>с/д>. Лит.: [1] Бри л л и нджср Д., Временные ряды. Обработка данных и теория, пер. с англ., М., 1980; [2] ДженкинсГ., Ватте Д., Спектральный анализ и его приложения, пер. с англ., в. 1, М., 1971; [3] Яглом A.M., Корреляционная теория стационарных случайных функций, Л., 1981. И. А. Кожевникова. НАПРАВЛЕНИЯ РОЗА (rose of direction) - см. Геометрический процесс. НАПРАВЛЕННОЕ МНОЖЕСТВО (directed set) - см. Сеть мер. НАПРАВЛЯЮЩАЯ СТАТИСТИКА (direction statistic) - см. Каноническая и натуральная параметризация. HAT (nat) - натуральная единица информации количества, получаемая, когда в определении количества информации используются натуральные логарифмы («Н.» - сокращение от английского natural digit). Формула перехода: 1Н. = 1/1п 2 бит* 1,44 бит. ВВ. Прелое. НАТУРАЛЬНАЯ ЕДИНИЦА количества информации, нат,- см. Энтропия, Бит. НАТУРАЛЬНАЯ ПАРАМЕТРИЗАЦИЯ (natural parametri- zation) - см. Каноническая и натуральная параметризация. НАТУРАЛЬНЫЙ АДДИТИВНЫЙ ФУНКЦИОНАЛ (natural additive functional) - см. Марковский процесс; аддитивный функционал. НАТУРАЛЬНЫЙ ПАРАМЕТР (natural parameter) - см. Каноническая и натуральная параметризация. НАТУРАЛЬНЫЙ ПСЕВДОМОМЕНТ (natural pseudomo- ment) - см. Псевдомомент. НАЧАЛЬНОЕ РАСПРЕДЕЛЕНИЕ цепи (процесса) Маркова [initial distribution of a Markov chain (process)] - распределение вероятностей состояния Xs цепи (процесса) Маркова в момент s, где s = m'm{t:t еТ}, Т- совокупность значений временного параметра цепи (процесса). Н. р. вместе с вероятностями перехода определяет конечномерные распределения цепи (процесса), то есть распределения вектора {Xt , ..., Xt }, tt e Т. а.А. Юшкевич. НЕАНТИСИПАТИВНАЯ ФУНКЦИЯ (nonanticipating function) - см. Неупреждающая функция. НЕАТОМАРНОЕ РАСПРЕДЕЛЕНИЕ (поп atomic distribution) - см. Стилтьеса - Минковского интеграл. НЕАТОМИЧЕСКАЯ МЕРА (non-atomic measure) - см. Атомическая мера. НЕВОЗВРАТНАЯ ЦЕПЬ МАРКОВА (nonrecurrent/ transient Markov chain) - однородная счетная цепь Маркова, все состояния к-рой невозвратны (см. Маркова цепь; классификация состояний). В общей теории цепей Маркова термину «Н.ц.М.» соответствует термин «транзитивная цепь Маркова». Он применяется всякий раз, когда вероятности перехода за п шагов р(п, х, Г) однородной цепи Маркова, заданной в нек-ром измеримом пространстве (Е,&), позволяют выбрать такие множества Е^ЗЗ, i^l, с объединением, равным Е, что сумма любого из рядов V р(п, •, £•) ограничена в Е. М. Г. Шур. НЕВОЗВРАТНОЕ СОСТОЯНИЕ цепи Маркова (nonrecurrent/transient state of a Markov chain) - см. Маркова цепь; классификация состояний. НЕВОЗМОЖНОЕ СОБЫТИЕ (impossible event) - событие, к-рое в рамках данных условий не осуществляется ни при каких обстоятельствах. Если (Q, .</, Р) - вероятностное пространство, то Н.с- это событие 0et< не наступающее ни с одним из элементарных исходов coeQ (пустое множество). Н.с. является дополнением к достоверному событию Q в рассматриваемой вероятностной модели, и поэтому Н.с. приписывают вероятность нуль: Р(0) = 0. См. также Алгебра событий. А. В. Прохоров. НЕВЫРОЖДАЮЩИЙСЯ ВЕТВЯЩИЙСЯ ПРОЦЕСС (nondegenerate branching process) - см. Ветвящийся процесс; вырождение. НЕВЫРОЖДЕННОЕ РАСПРЕДЕЛЕНИЕ (nondegenerate distribution), собственное распреде лен ие,- см. Вырожденное распределение. НЕДИССИПАТИВНАЯ ЦЕПЬ МАРКОВА (nondissipative Markov chain) - конечная или счетная Маркова цепь, траектории крой, исходящие из любого состояния, почти наверное рано или поздно попадут в один из положительных возвратных классов цепи и останутся там навсегда (см. Маркова цепь; классификация состояний). Другими словами, цепь Маркова X с не более чем счетным набором состояний Е={\, 2, ...} недиссииативна, если и только если V. РЩ;= 1 для всех состояний i e E, где a Pij(m) - вероятность перехода из i в j за т шагов. Конечность Е влечет недиссипативность X. Особой значимостью среди Н. ц. М. выделяются эргодические цепи Маркова. НЕДИССИПАТИВНАЯ 379
Лит.: [1] Foster F.G., «Proc. Camb. Phil. Soc», 1952, v. 48, № 3, p. 587-91; [2] Бару ча- Рид А. Т., Элементы теории марковских процессов и их приложения, пер. с англ., М., 1969. М. Г. Шур. НЕДОПУСТИМАЯ ОЦЕНКА (inadmissible estimator) - см. Статистическое оценивание. НЕДОСКОК (defect) rj(0 - время, прошедшее с момента последнего (перед i) восстановления полу марковского процесса ХМ: Л (О = t - sup {s < t: Xts) Ф X(t)}. H. вместе с полумарковским процессом образует линейчатый марковский процесс (Х(0, f\(t)', t^O). В частности, для процесса восстановления с функцией распределения G(t) = P{Qk ^t}c конечным EQk = т существует стационарный Н. с функцией распределения G*(0=j! (1 - G(s))ds/n В. С. Королюк. НЕДОСТИЖИМАЯ ГРАНИЦА (unattainable boundary) - см. Одномерная диффузия; классификация границ. НЕДОСТИЖИМОЕ СОСТОЯНИЕ цепи Маркова (nonaccessible state of a Markov chain) - см. Маркова цепь', классификация состояний. НЕЗАВИСИМОЕ ПРОРЕЖИВАНИЕ точечного про цесса (independent thinning of a point process) - см. Точечный процесс. НЕЗАВИСИМОСТИ КРИТЕРИЙ (test of independence) - критерий проверки статистической гипотезы о независимости каждой группы от всех остальных. Пусть дана выборка объема п из р-мерной нормальной совокупности и задано нек-рое разбиение компонент наблюденного вектора на q групп, содержащих pv ..., р элементов. Если теоретич. ковариационная матрица X разбита на q частей '11 "12 то проверяемая гипотеза состоит в том, что G.k = 0, )фк. Статистика отношения правдоподобия имеет вид где \\djk\\ - эмпирич. ковариационная матрица, или /"/2 _ , ^, /гт? *т Если гипотеза справедлива, статистика / не зависит от ее знаменателя, а \6..\ не зависит от |а^|, то Е(/Г) Щ,г(?д)СЩ,^) Поэтому - 21п/ распределено приблизительно как % с f = {(*p+i>-X'=1p,-(jv+i>} При более точной аппроксимации получается 2(Р3-ХР;3)-9(„2-ХР;2) р = 1- 6«(Р2-Х^2) 380 НЕДОПУСТИМАЯ В случае р.= 1 для всех /, то есть в случае, когда проверяется независимость всех р компонент, f=p(p- \)/2. Второе приближение равно р = 1 - (2р + 11)/6и. Статистика в этом случае равна возведенному в степень п/2 отношению \д\ к произведению диагональных элементов, то есть дисперсий, или, что эквивалентно, возведенном)' в степень п/2 корреляционному определителю. Лит.:[\] Кендалл М., С ть юарт А., Многомерный с га гистиче- ский анализ и временные ряды, пер. с англ., М., 1976. И. В. Степа.хно. НЕЗАВИСИМОСТЬ (independence) - одно из важнейших понятий теории вероятностей. Иногда используют термины статистическая независимость, стохастическая независимость. Предположение о Н. рассматриваемых событий, испытаний и случайных величин было обычно предпосылкой в задачах, к-рые рассматривались в теории вероятностей со времени ее возникновения. Для двух случайных событий понятие Н. вводится следующим образом. Пусть А и В - два случайных события, Р(Л) и Р(В) - их вероятности. Условную веро яти ост ь события А при условии В с Р(В) >0 определяют формулой Р(А\В) = Р(ЛПД) Р(Я) ' где Р(АПВ) - вероятность совместного осуществления событий А и В. События А и В называются независимыми, если РШВ) = РШР(В). При Р(В) >0 это равносильно соотношению Р(Л|Ю = РС4). (1) Смысл данного определения Н. можно пояснить следующим образом. Предполагая, что производится большое число ;V испытаний, и переходя в (1) от вероятностей к частотам, можно заключить, что между частотой события А во всех N испытаниях и частотой его появления в тех испытаниях, в к-рых наступает В, должно иметь место приближенное равен ство. Н. событий указывает таким образом либо на отсутствие связи между наступлением одного из этих событий и наступлением другого, либо на несущественный характер этой свяли. Так, событие, заключающееся в том, что наудачу выбранное лицо имеет фамилию, начинающуюся, напр., с буквы «А», и событие, заключающееся в том, что этому лицу достанется выигрыш в очередном тираже лотереи, независимы. Определение Н. п случайных событий А], А2, ..., Ап, п>2, может быть дано в нескольких равносильных вариантах. Согласно одному из них, эти события называются независимыми, если для любого т, 2^т^п и для произвольных попарно различных натуральных чисел kv k2, ..., km^n вероятность совместного осуществления событий Ak , .., Ак равна произведению их вероятностей Р(АкП..ЛАк) = Р(А^..Р(Ак). ■ (2) Отсюда, как и ранее, можно вывести, что условная вероятность каждого из рассматриваемых событий при условии, что какие-либо из остальных наступили, равна его «безусловной» вероятности. Иногда наряду с Н. (взаимной Н.) событий Av A2. ..., АИ рассматривают так паз. попарную Н., означающую, что любые два из этих событий Ai и А , i*j, независимы. Н. событий влечет их попарную Н., а обратное, вообще говоря, неверно. В период, предшествовавший аксиоматич. построению теории вероятностей, содержание понятия Н. не воспринималось достаточно отчетливо. «Понятие о независимых событиях
можно считать вполне ясным в известных теоретических вопросах; в других же вопросах это понятие, конечно, может совершенно затемняться вместе с затемнением основного понятия о вероятности», - писал А. А. Марков (см. [1], с. 24). В рамках аксиоматич. подхода понятие Н. наиболее естественно вводится следующим образом. Пусть Ш, .< Р) - какое-либо вероятностное пространство, где Q - множество элементарных событий, у/- а-алгебра событий, Р - определенная на ./ вероятностная мера. Сначала определяют Н. классов событий (здесь будут рассмотрены только классы J3, являющиеся а-подалгебрами а-алгебры .</). Классы Щ, Щ, ..., &п называются независимыми (относительно Р), если любые события .я/j s.'jfy, ..., ,</пеУЗп независимы в смысле равенства (2); классы jdt(teT, где Т - произвольное множество индексов) называются независимыми, если при любом целом п^2 и любых попарно различных t\, ..., tneT классы JSt , .. , Jit независимы. Н. событий Ak, \^k^n, равносильна Н. классов % = {0,Ak,Ak,Q}. Для испытаний Н. - это Н. порождаемых ими а-алгебр. Для случайных величин Xt, teT, Н. определяют как Н. о-подалгебр se(Xt), где d(Xt) - прообраз относительно отображения Xt а-алгебры борелевских множеств на числовой прямой. Н. случайных событий Ах, ..., Ап равносильна Н. их индикаторов 1А , то есть случайных величин, определяемых формулами 1Л (со) = 1 для соеAk 1Л (о)) = 0 для u>£Ak. Для Н. случайных величинХ|, ..., Хп необходимы и достаточны следующие условия. 1) Для любых действительных чисел ах, а2, ..., ап функция распределения Fx ..х (fli» •••» й„) = Р{со:Х1(о))<д1, ..., ХпЫ)<ап) равна произведению соответствующих функций распределения: Fx} .ха<а\> ■ - an> = Fx(a{) -. ?хУ,)- 2) При наличии плотностей рх х^а\^ •••» аг) плотность для почти всех по лебеговой мере в И?" значений (а^, ..., ап) равна произведению рх (ах)...рх (ап) соответствующих плотностей. 3) Характеристич. функция /х,хлЧ «„) = Ее'".*—Л для всех действительных чисел uv и2, ..., ип равна произведению fx (u{)...fx (ип), fx (uk) = EelUfi k соответствующих характеристич. функций. На гипотезе Н. тех или иных событий и случайных величин основаны важнейшие схемы теории вероятностей: последовательности независимых случайных величин (см., напр., Вернул iu блуждание, Больших чисел закон, Предельные теоремы), случайные процессы с независимыми приращениями (см., напр., Винеровский процесс, Случайный процесс) и т.д. См. также Нуль - единица закон. Общие замечания к понятию независимости. 1) Независимость функций от независимых случайных величин. Из данной Н. случайных величин Xj, ..., Хп можно вывести довольно очевидные (и вполне соответствующие интуитивно ожидаемым от понятия Н.) следствия; напр., функции от X, ХЛ и от Xk+V ..., Хп, \^k<n, будут независимыми случайными величинами. Н. другого типа функций может иметь место только при специальных дополнительных предположениях и может быть средством характеризации определенных классов распределений. Напр., если Х\, ..., Хп независимы, одинаково распределены и имеют нормальное распределение, то функции х = х'+-+х" (з) п is;.,«/-«2 (4) (статистич. оценки математич. ожидания и дисперсии Xk соответственно) являются независимыми случайными величинами. Верно и обратное утверждение: из Н. функций (3) и (4) вытекает нормальность распределений Xk. Точно так же, если известно, что две линейные формы у1=1;=1вл-иу2=1;.1ьл являются независимыми случайными величинами и ни один из коэффициентов а. и Ь. не равен нулю, то все X.- имеют нормальное распределение (из подобного рода теорем может быть при минимальных допущениях выведен, напр., закон Максвелла для распределения скоростей молекул). Приведенные утверждения служат примерами так наз. характери- зационных теорем, наиболее полно изученных Ю. В. Линни- ком и его школой. 2) Существование независимых случайных величин на заданном вероятностном пространстве. Если множество элементарных событий £1 состоит из трех элементов, каждому из к-рых приписана вероятность, равная 1/2, то на Q не существует независимых случайных величин, отличных от констант. Если в качестве вероятностного пространства взят отрезок [0, 1] с мерой Лебега т, то для любой последовательности функций распределения F^x), F2(x), ... найдутся определенные на [0, 1] измеримые функции Х^(со), являющиеся по отношению к т независимыми случайными величинами и такие, что w{co:0^co^l, Xk(a)<x} = Fk(x). Простейшим примером такого рода статистически независимых функций на [0, 1 ] служат знаки двоичного разложения со, О^со^ 1, или связанные с ними функции Радемахера rk((a) = sign s'm(2n2k~](u), k=\, 2,... Следует отметить, что существование какого-нибудь вероятностного пространства, на к-ром определены независимые случайные величины с заданными распределениями, вытекает из теоремы Колмогорова о вероятностях в бесконечномерных пространствах (см. [3], гл. III, § 4). 3) Независимые случайные величины как источник других схем. Пусть У0, Yv Y2, ..., Yn, ... - последовательность независимых случайных величин и h(x, у) - (борелевская) функция двух переменных. Полагая Х1=/г(У0, yt), Х2 = /г(Х1, У2), ..., ХЯ = «ХЯ_1, У„), .... получают последовательность случайных величин, образующих Маркова цепь. Подобным же образом можно получать марковские процессы, напр. из винеровского процесса при помощи стохастич. дифференциальных уравнений. Из гауссовских случайных мер с независимыми значениями можно, используя преобразование Фурье, построить гауссовские стационарные случайные процессы и т. д. НЕЗАВИСИМОСТЬ 381
4) Слабая зависимость. Асимптотич. законы теории вероятностей, установленные для последовательностей независимых случайных величин, обычно могут быть распространены и на последовательности так наз. слабо зависимых величин, то есть на последовательности Х^, Х2, ..., Хп, ..., где надлежащим образом измеренная зависимость между «удаленными» друг от друга отрезками последовательности «мала» (в простейших случаях это могут быть последовательности w-зависимых величин, где Xk и X/ при \k-l\>m независимы, или последовательности величин, образующих эргодическую цепь Маркова, и т.п.). Один из основных приемов доказательства соответствующих теорем - сведение рассматриваемого случая к случаю Н. 5) Независимость в теории чисел. Пусть р^'1 и q^2 - два взаимно простых натуральных числа. Пусть N - натуральное число, и пусть наудачу выбирают одно из чисел от 1 до N (вероятность для каждого считают равной \/N). Пусть А (соответственно Aq) событие, состоящее в том, что выбранное число делится нацело на р (соответственно q). Тогда рЧ>-с P(V = ir PUpf~M. ' N[pq\ и при N -> oo события Ар и А становятся «почти независимыми». Значительно более глубокий факт, состоящий в том, что при N-+oo можно выбрать S = SN^>°° так, что события А2, А3, ..., А (р. есть j-e простое число) в совокупности «почти независимы», служит основой для исследования распределения значений арифметич. функций. Имеются и другие разделы теории чисел, где идея Н. явно или неявно присутствует. 6) О проверке гипотезы Н. по результатам наблюдений см. в ст. Статистических гипотез проверка. Лит.: [1] Марков А. А., Исчисление вероятностей, 4 изд., М., 1924; [2] Ко л м огоро в А. Н., Основные понятия теории вероятностей, 2 изд., М., 1974; [3] его же, Теория вероятностей, в кн.: Математика, ее содержание, методы и значение, М., 1956; [4) Кац М., Статистическая независимость в теории вероятностей, анализе и теории чисел, пер. с англ., М., 1963; [5] Феллер В., Введение в теорию вероятностей и ее приложения, пер. с англ., т. 1-2, М., 1984; [6] Кубилюс Й.П., Вероятностные методы в теории чисел, 2 изд., Вильнюс, 1962. Ю. В. Прохоров. НЕЗАВИСИМЫЕ ИСПЫТАНИЯ (independent trials) - испытания, в к-рых события, относящиеся к разным испытаниям, независимы. Каждое испытание Sk можно рассматривать как вероятностное пространство (Clk, ^k, Pk). Н. и. можно описывать с помощью вероятностного пространства (Q, .«/, Р) - прямого произведения вероятностных пространств (Qk, .<4, Pk). В этом случае любые события А{е^, г=1, ..., п, будут независимы, то есть Р(Л1ПЛ2П...ПЛ„)=р["= Р(А{). При построении вероятностной модели Н. и., описывающей нек-рые реальные случайные объекты, обычно используется принцип: причинно независимые реальные события независимы и в теоретико-вероятностном смысле. Лит.: [1] Севастьянов Б. А., Курс теории вероятностей и математической статистики, М., 1982. Б. А. Севастьянов. НЕЗАВИСИМЫЕ СОБЫТИЯ (independent events) - события А и В, для к-рых имеет место равенство РС4ПЯ) = РС4)Р(Я). (*) Если Р(Л)>0, то (*) эквивалентно равенству условной Р(#|Л) и безусловной Р(В) вероятностей: Р(в\А) = Р(В). Обычно равенством (*) пользуются не для доказательства независимости А и В, а для вычисления Р(АПВ) по вероятно- 382 НЕЗАВИСИМЫЕ стям Р(Л) и Р(В), если известно, что А и В независимы. Предположение о независимости А и В основывается на принципе: причинно независимые реальные события соответствуют независимым (в теоретико-вероятностном смысле) событиям в связанной с этими событиями вероятностной модели. События Аи А2, ..., Ап называются независимыми, если для любых 2^т^п и \^i\<i2<... <in Р(Л,- ПД2 П...ПAim) = PU,- )Р(Л,2 )."PU,„, >• Б. А. Севастьянов. НЕЗАВИСИМЫЙ СДВИГ точечного процесса (independent translation of a point process) - см. Точечный процесс. НЕЗАВИСИМЫЙ СПЕКТРАЛЬНЫЙ ТИП МЕР (independent spectral types of measures) - см. Сингулярность мер. НЕЗАВИСИМЫХ ИСПЫТАНИЙ ЭКВИВАЛЕНТНОЕ ЧИСЛО (effective number of independent trials), независимых наблюдений эквивалентное число, - число независимых испытаний (или наблюдений), позволяющее оценить фиксированную статистическую характеристику с той же точностью (то есть с той же среднеквадратичной ошибкой), что и заданная выборка, состоящая из зависимых испытаний (наблюдений). Важный частный случай - Н. и. э. ч. при oipe- делении среднего значения т = EX(t) по выборке, представляющей собой отрезок длины Т одной реализации стационарного случайного процесса X(t) с непрерывным или дискретным временем (O^t^T или же t=\, 2, ..., Т). Если в качестве оценки величины тп используется среднее арифметическое т\ имеющихся наблюдений, то E(mf - mf = olT = (2/Г2) £ (Т - x)b(x)dx в случае непрерывного t и Е(/4 - mf = а2тт = а/Т2) %:[ (Г - тЖт) - М0)/Г в случае дискретного t. Здесь b(x) = E[X(t + т) - m\[X(t) - in] - центрированная корреляционная функция процесса X(t) [так что МО) - дисперсия X(t)]. Так как средний квадрат ошибки оценки m*N = ЛГ1^ X, величины m = EX no N независимым наблюдениям Х\, ..., XN равен ox/N, где ох - дисперсия X, то Н. и.э. ч. здесь равно Nef=fe(0)/o^2 . В частности, если корреляции радиус процесса X(t), определяемый как T{ = (\/b(0))f~ ЬШт в случае непрерывного t (и аналогично в случае дискретного t), конечен и отличен от нуля, то Nei&T/2T\, при Г» Г, Аналогично находится Н.и.э. ч. при определении m2 = EX2(t) или ox = E[X(t)-EXU)f, или mf< = EXk(t) по отрезку одной реализации стационарного процесса Х(0 длины Т. Значения Н. и. э. ч. при определении величин т, т2 и о2х по значениям Х(1), ..., Х(Т), где Х(0 - гауссовский стационарный процесс с корреляционной функцией Ь(х) - = Се~а| cospx, при ряде значений Т затабулированы в работе [ 1 ]. Лит.: [1J Bay ley G. V., Hammersley J. M., «J. Roy. Statist. Soc. SuppU, 1946, v. 8, X« 2, p. 184-97. A. M. Яглом. НЕИЗМЕРИМОЕ МНОЖЕСТВО (nonmeasurable set) - множество, к-рое не принадлежит области определения рассматриваемой меры. Напр., множество всех рациональных точек из единичного интервала (0, 1) неизмеримо относительно классич. меры Жордана, заданной на действительной прямой.
Исторически термин «Н.м.» утвердился в математике в связи с доказанной в 1905 теоремой Витали, состоящей в том, что любое измеримое в смысле Лебега множество со строго положительной мерой содержит в себе континуальное подмножество, не являющееся измеримым по Лебегу. В основе доказательства теоремы Витали лежало свойство инвариантности меры Лебега относительно параллельных переносов евклидова пространства (см. [2]). Позднее были предложены и другие конструкции, также приводящие к существованию неизмеримых в смысле Лебега множеств, среди к-рых, однако, независимыми от конструкции Витали оказались лишь методы, предложенные Ф. Бернштейном (F. Bernstein, 1908) и С. Уламом (S. Ulam, 1930). Все эти методы существенно использовали несчетные формы аксиомы выбора и долгое время служили поводом для дебатов среди математиков о природе Н.м. В 1970 Р. Солловею (R. Sollovay) удалось доказать, что без использования несчетных форм аксиомы выбора невозможно установить существование неизмеримых по Лебегу множеств. Известны различные обобщения указанной выше классич. теоремы Витали. Напр., пусть X - основное базисное множество, a G - нек-рая группа преобразований множеств X, содержащая несчетную подгруппу, действующую свободно в X Тогда произвольная а-конечная G-квазиинвариантная мера \i, заданная на любом G-инвариантном а-кольце частей множества X, обладает свойством: каково бы ни было ц-измеримое множество У с (х(У)>0, найдется множество Ус У, являющееся неизмеримым относительно меры |1 (см. [4]). Для инвариантных и квазиинвариантных мер имеются различные понятия абсолютно Н. м. (см. [3], 14]). В бесконечномерных пространствах весьма часто примеры Н. м. (относительно тех или иных конкретных мер) строятся гораздо проще, чем в конечномерных пространствах. Аналогичную ситуацию наблюдают и при построении абсолютно Н.м. Лит.: [1] Халмош П., Теория меры, пер. с англ., М., 1953; [2] Натан сон И. П., Теория функций вещественной переменной, 3 изд., М., 1974; [3] Хадвигер Г., Лекции об объеме, площади поверхности и изопериметрии, пер. с нем., М., 1966; [4] Харази- швили А. Б., Инвариантные продолжения меры Лебега, Тб., 1983. Г. В. Нижарадзе. НЕЙМАНА С(а)-КРИТЕРИЙ (Neyman С(а) test) - см. Статистический критерий С(а). НЕЙМАНА МЕТОД ДОВЕРИТЕЛЬНЫХ ИНТЕРВАЛОВ (Neyman's method of confidence intervals) - один из методов доверительного оценивания, позволяющий получать интервальные оценки для неизвестных параметров вероятностных законов по результатам наблюдений. Предложен и развит Ю. Нейманом (см. 11 j, [2]). Суть метода заключается в следующем. Пусть Хр ..., Хп - случайные величины,совместная функция распределения к-рых F(x, в) зависит от параметра ВеЭсК1, х=(х\, ..., хп)е№п. Далее, пусть в качестве точечной оценки параметра в используется статистика T = T(XV ..., Хп), функция распределения к-рой есть G (t ,в), 6е0. Тогда для любого числа Р из интервала 0,5<Р<1 можно определить систему из двух уравнений относительно переменной в: С(Г,в) = |^р (*) При определенных условиях регулярности функции F(x, в), к-рые выполняются почти во всех интересных для практики случаях, система (*) имеет единственное решение Q = Q(T), 6 = 6(7), ё, 9е0, такое, что Р{е<в<6 |в}^2Р- 1. Множество (в, в) € 0 называется доверительным интервалом для неизвестного параметра в с доверительной вероятностью 2Р - 1. Статистики вив называются соответственно нижним и верхним доверительными пределами, отвечающими выбранному коэффициенту доверия Р. В свою очередь, число р = inf Р{6 < в < в I в} называется к о э ф ф и- циентом доверия доверительного интервала (в, в). Таким образом, Н.м. д. и. приводит к интервальным оценкам, коэффициент доверия к-рых р ^ 2Р - 1. Н. м. д. и. существенно отличается от бейесовского метода и метода, основанного на фидуциальном подходе Фишера. В Н.м. д. и. неизвестный параметр в функции распределения F(x,Q) трактуется как постоянная величина, а сам доверительный интервал (в (Г), в (Г)) строится до эксперимента, в ходе к-рого вычисляется значение статистики Т. Следовательно, согласно Н. м. д. и. вероятность одновременного выполнения неравенств в < в < в есть априорная вероятность того, что доверительный интервал (в, в) «накрывает» неизвестное истинное значение параметра в. Очевидно, что на самом деле доверительный метод Неймана остается в силе, если в является случайной величиной, так как в Н.м. д. и. интервальная оценка строится до проведения эксперимента и, следовательно, не зависит от априорного распределения параметра. Н. м. д. и. выгодно отличается от бейесовского и фидуциаль- ного подходов своей независимостью от априорной информации о параметре в, и при этом, в отличие от метода Фишера, логически безупречен. В общем случае Н. м. д. и. приводит к целой системе доверительных интервалов для неизвестного параметра, в связи с чем возникает задача построения оптимальной интервальной оценки, обладающей, напр., свойствами несмещенности, селективности или подобия, края находит свое решение в рамках теории проверки статистич. гипотез. Лит.: [1] Neyman J., «Ann. Math. Stat.», 1935, v. 6, p. 111-16; [2) его же, «Philos. Trans. Roy. Soc. London. Ser. A.», 1937, v. 236, p. 333-80; [3] Большее Л. Н., С мирное Н. В., Таблицы математической статистики, 3 изд., М., 1983; [4) Большее Л.Н., «Теория вероятн. и ее примен.», 1965, т. 10, № 1, с. 187-92; [5] Леман Э., Проверка статистических гипотез, пер. с англ., 2 изд., М., 1979. М. С. Никулин. НЕЙМАНА СТРУКТУРА (Neyman structure) - структура, определяемая статистикой, не зависящей от достаточной статистики. Понятие Н. с. введено Ю. Нейманом (J. Neyman, см. [1]) в связи с задачей построения подобных критериев в теории проверки статистич. гипотез, при этом сам термин «Н.с.» употребляют по отношению к структуре статистич. критерия, если его критич. функция имеет Н. с. Пусть по' реализации случайной величины X, принимающей значения в выборочном пространстве (£, 83, Р0), 6е0, надлежит проверить сложную гипотезу Яо:6е0ос:0, причем для семейства {Ре, 6 € 0О} существует достаточная статистика Т с распределением из семейства {Р0, 0 € 0О}. В этом случае любой статистич. критерий уровня а, предназначенный для проверки гипотезы Я0, имеет Н.с, если его критич. функция ф удовлетворяет условию Е{ф(Х) | Т = t) = а почти всюду по мере Р0, в € 0О. (1) Очевидно, что если статистич. критерий имеет Н.с, то он является подобным по отношению к семейству {Р0, в € 0О}, так как Ев{фШ} = Ее{Е{ф(Х)|г = т = а для всех 0 € 0О. Выполнение условия (1) по существу сводит задачу проверки сложной гипотезы Я0 к задаче проверки простой гипотезы Я0 при каждом фиксированном значении t достаточной статистики Т. НЕЙМАНА 383
Пример. Пусть независимые случайные величины Хх и Х2 подчиняются законам Пуассона, параметры к-рых Х\ и Х2 неизвестны, и пусть проверяется гипотеза Н0'Л]=Х2 против альтернативы Н{ :\х *\2. В силу независимости Х{ и Х2 статистика Т = Хх + Х2 подчиняется закону Пуассона с параметром Х\ +^2> а условные распределения случайных величин Хх и Х2 при условии Т = t суть биномиальные распределения с параметрами t, Х\/(к\+Х2) и t, Х2/(Х^+Х2) соответственно, то есть **■ =*Р--'»-<*(х^ГО-х^гГ'*-w f (2) При справедливости гипотезы Я0 статистика Т является достаточной для неизвестного общего значения Х = Х^=Х2, а из (2) следует, что если гипотеза Я0 имеет место, то условное распределение случайной величины Xt при фиксированном значении достаточной статистики Т = t является биномиальным с параметрами t и 1/2, то есть при Я0 Р{Х, = k\T = t} = С* (1/2/, k = 0,1,..., t. Таким образом, в этом случае задача проверки сложной гипотезы Я0 свелась к задаче проверки простой гипотезы Я0, согласно к-рой условное распределение случайной величины Хх (при фиксированной сумме Х1+Х2 = 0 является биномиальным с параметрами t и 1/2. Для проверки гипотезы Яд можно воспользоваться, напр., знаков критерием. Понятие Н. с. имеет большое значение в задаче проверки сложных статистич. гипотез, так как именно среди критериев, имеющих Н. с, часто находится наиболее мощный критерий. Э. Леман (Е. Lehmann) и Г. Шеффе (Н. Scheffe) показали, что статистич. критерий для проверки сложной гипотезы Я0:6 g 0О имеет Н. с. по отношению к достаточной статистике Т тогда и только тогда, когда семейство {Ре , в е 0О}, индуцированное статистикой Т, является ограниченно полным. На основе понятия Н. с. разработаны общие методы построения подобных критериев. См. Полное семейство распределений, Подобный критерий. ~ Лит.: [1] Нейман Дж., Текущие задачи математической статистики, [пер. с англ.]. Международный математический конгресс в Амстердаме. 1954, М., 1961; [2] Леман Э., Проверка статистических гипотез, пер. с англ., 2 изд., М., 1979; [3] Л инник Ю. В., Статистические задачи с мешающими параметрами, М., 1966. М. С. Никулин. НЕЙМАНА ЭРГОДИЧЕСКАЯ ТЕОРЕМА (von Neumann ergodic theorem) - исторически первая статистическая эргоди- ческая теорема; установлена Дж. Нейманом [1]. Пусть Х0, Xj, ... - стационарная в широком смысле случайная последовательность над вероятностным пространством (Q, Л, Р); Нх - подпространство в L (Q, Л, Р), являющееся замыканием множества случайных величин вида £ ai^k 0^^<°°, ах - константы); U - изометрич. линейный оператор в Нх, определенный условиями UXt = Xi+j, i = 0, 1, ..., Jx = {у: уе Нх, Uy = y}> Е(Х0|УХ) - ортогональная проекция случайной величины Х0 на подпространство Jх. Тогда НтЕ|1£:о*.--Ё(*о|.М2=0- Аналогичное утверждение справедливо и для стационарных в широком смысле процессов Х(0, t^O, при этом вместо суммы —Xt-n ^k рассматриваются случайные величины —J X(t)dt при Г-><*>. В дальнейшем эта теорема была обоб- 384 НЕЙМАНА щена на однородные случайные поля на группах и полугруппах и на различные полугруппы операторов в банаховых пространствах. Лит.: [1] Neumann J. von, «Proc. Nat. Acad. Sci. USA», 1932, v. 18, p. 70-82. Л. А. Темпелъган. НЕЙМАНА - ПИРСОНА ЛЕММА (Neyman - Pearson lemma) - лемма, утверждающая, что в задаче статистической проверки простой гипотезы Я0 против простой альтернативы #! отношения правдоподобия критерий является наиболее мощным критерием среди всех статистических критериев, имеющих один и тот же заданный значимости уровень. Н. - П. л. доказана Ю. Нейманом и Э. Пирсоном [11. Н. - П. л. часто называют фундаментальной леммой математической статистики. См. также Статистических гипотез проверка. Лит.: [1] Neyman J.. Pearson E., «Phil. Trans. Roy. Soc. London», Ser. A, 1933, v. 231, p. 289-337; [21 Л емам Э.Л., Проьер- ка статистических гипотез, пер. с англ., 2 изд., М., 1979. М. С. Никулин. НЕЙМАНА - УЛАМА СХЕМА (von Neumann - Пат scheme) - см. Линейное уравнение; решение методом Монте-Карло. НЕКОММУТАТИВНАЯ ТЕОРИЯ ВЕРОЯТНОСТЕЙ (noncommutative probability theory) - математическая дисциплина, изучающая вероятностные структуры квантовой теории. Н. т. в. имеет ряд принципиальных особенностей; важнейшая из них - наличие несовместимых наблюдаемых (случайных величин), для к-рых невозможно задать совместное распределение вероятностей. Математич. языком квантовой механики является теория операторов, причем несовместимые наблюдаемые описываются некоммутирующими операторами. Это обстоятельство является отражением глубокого физич. принципа дополнительности, присущего кванго- вомеханич. описанию (см. Неопределенностей соотношение. Возникновение Н. т. в. связано с поисками аксиоматич. оазиса квантовой механики в 1930-50-х гг. в работах Дж. Неймана (J. Neumann), И. Сигала (I. Segal), Дж. Макки (J. Mucci). В настоящее время, говоря о Н. т. в., имеют в виду обобщения понятий и результатов «классической» теории вероятностей на произвольные алгебры наблюдаемых. В 70-х гг. возникли новые направления, мотивированные конкретными проблемами в теории квантового измерения (см. Квантовый канал связи, Квантовая теория проверки гипотез и оценивания) и в статистич. механике (см. Квантовый случайный процесс, Квантовая динамическая полугруппа). В эгой связи принято говорить о квантовой теории вероятностей. В квантовой механике каждой системе сопоставляется гильбертово пространство Ж. Состояние системы описывается плотности оператором S в Ж, к-рый является положительным оператором с единичным следом, а наблюдаемые - самосопряженными операторами А в Ж. Результат измерения наблюдаемой А в состоянии S является случайным; его сре/ц ее значение дается формулой (A) = trSA. (1) Для полного описания распределения вероятностей наблюдаемой А необходимо задание спектрального разложения {GiX) : -oo<^<oo} оператора А. Вероятность обнаружить значение наблюдаемой А в интервале 1а, р) есть Р[а, p) = trS(G(|J)-G(a)). (2) Одной из задач Н. т. в. является вычисление или оценивание квантовых средних и вероятностей при наличии нек-рой информации об операторе плотности S и наблюдаемой А. Важные примеры состояний и наблюдаемых доставляют модели квантовой статистич. механики, напр. решетчатая мо-
дель. Пусть Zv - целочисленная решетка размерности V, У - конечное множество индексов. Каждому конечному подмножеству Ac2v сопоставляется конечномерное гильбертово пространство Ж{А), состоящее из функций ф(#), xe{jz}zeA, где /ге/, со скалярным произведением (<р, ф) = Т ф(х)\|/(х). Е(ли ЛстГ, то оператор В, действующий в Ж(А), естественно продолжается до оператора, действующего в Ж(Г). Взаимодействием (парным) для систем рассматриваемого вида называется набор U(zx, z2), Z\, z2 e Zv, линейных самосопряженных операторов, причем U(zv z2) действует в пространстве JC(zv z2); аналогично определяются и белее сложные (не обязательно парные) взаимодействия. Для заданного конечного множества A<=ZV энергия взаимодействия представляет собой линейный самосопряженный оператор ЯЛ = У U(z\tz2), собственные значения к-рого называются у ровня м и энергии системы. Состояние, описываемое оператором плотности 5= [1г(ехр(-рЯЛ))Г1ехр(-рЯЛ), (3) где р - числовой параметр (обратная температура), называется конечным состоянием Гиббса. Важнейшее положение квантовой статистич. механики состоит в том, что среднее значение всех величин А в состоянии термодинамич. равновесия вычисляется подформуле (Л)= [1гехр(-рЯЛ)]"Чг(ехр(-рЯЛМ). (4) Если А = ЯЛ - энергия, то ее среднее значение <ял >=[2» е*р(-р£* >Г I*£* ехр<-Р£* >• (5> и вероятность того, что рассматриваемая система пребывает в состоянии с энергией Ет, равна Р{ЯЛ =£„,} = ехр(-Ц£„,)[1* ехр(-рЕ,)]"'. Если взаимодействие тривиально, U(z\, z2) = U(z^) + U(z2), то состояние Гиббса является продакт-состоянием: для любых конечных пересекающихся подмножеств Av A2el? и операторов Av A2, действующих в Ж(А{) и Ж(А2), соответственно выполняется (Аи А2) = (А\)(А2). Системы статистич. механики характеризуются очень большим числом степеней свободы, и проведение для них точных расчетов по формулам типа (4) не представляется возможным. Поэтому используют «термодинамический предельный переход», когда AtZv. При математич. рассмотрении такого предельного перехода возникают предельные состояния Гиббса на алгебрах квазилокальных наблюдаемых. Пусть $С(Л) - конечномерная *-алгебра всех операторов в пространстве Ж(А); поскольку 9С(Л)с:ЗС(Г) при Л с Г, то $С0= (JAcZv 9С(Л) является *-алгеброй (локальных) наблюдаемых. Пополнение ЗС0 по операторной норме является абстрактной С*-алгеброй, называемой алгеброй квазилокальных наблюдаемых. Если существует предел lim {A) для всех Лс^, то он называется предельным состоянием Гиббса. В Н.т. в. часто используется конструкция Гельфанда - Наймарка - Сигала (ГНС), позволяющая реализовать абстрактную С*-алгебру ЗС как алгебру операторов в нек-ром гильбертовом пространстве. Пусть (•) - состояние на $С, тогда формула (А, В) = (А*, В) задает псевдоскалярное произведение на $С. Факторизация и пополнение приводят к гильбертову пространству Ж', причем каждому элементу Ае% сопоставляется ограниченный оператор А в Ж, так что (Л)=Ш, А, Q), где £1 - выделенный единичный вектор в Ж. Операторы А образуют С*-алгебру операторов в Ж. Основной класс операторных алгебр, используемых в Н.т. в., составляют алгебры Неймана (\У*-алгебры с единицей), к-рые являются алгебрами операторов, действующих в нек-ром гильбертовом пространстве Ж, замкнутыми относительно слабого предельного перехода [говорят, что операторы Аа сходятся к оператору А слабо, если lim (Aa, ф, \|/) = а = (Лф, \|/) для всех ф, уеЖ]. Каждое состояние (•>, заданное на алгебре ЗС квазилокальных наблюдаемых, позволяет при помощи конструкции ГНС определить гильбертово пространство Ж'и алгебру операторов ЗС, слабое замыкание к-рой есть алгебра Неймана. Общая аксиоматика Н.т. в. состоит в том, что выделяется нек-рая алгебра Неймана ЗС, а также состояние (•) на ЗС, обладающее свойством нормальности: (Х„.4х) = Х0<4х> (6) для любых Аае%, Ла^0. Классич. система аксиом теории вероятностей, принадлежащая А. Н. Колмогорову, укладывается в указанную схему, отвечая тому случаю, когда алгебра ЗС является коммутативной. Общие свойства состояний на алгебрах Неймана изучаются некоммутативной теорией интегрирования. Важнейшие элементы этой теории представляют собой пространства L и L па алгебре Неймапа $С с заданным состоянием (•). Имеется комплекс результатов, называемый некоммутативными теоремами Радона- Никодима, к-рые позволяют реализовать элементы пространства L и L при помощи исходного состояния (•) и нек-рых неограниченных операторов. Другой комплекс вопросов, изучаемых некоммутативной теорией интегрирования, составляют исследование множества if всех операторов ортогонального проектирования, входящих в данную алгебру Неймана ЗС, и изучение связи между состояниями на алгебре $С и определенными действительными функциями (мерами) на ^. Операторы, входящие в множество ^, характеризуются условиями р* = р = р а множество if играет в Н.т. в. роль алгебры событий. Для каждого проектора Р е & определен дополнительный проектор Р1 = I - Р, а для любой системы проекторов {Ра} существует точная верхняя (нижняя) грань (лаРа). Операции v, л, _L связаны обычными соотношениями двойственности: (vofPpj)1 = лаР^, (лаРа) = vaP£, однако закон дистрибутивности: (P^vP2)aQ= (P1aQ)v(P2aQ), вообще говоря, не имеет места. Абстрактное, частично упорядоченное множество с такими операциями называется логикой. Действительная неотрицательная функция \i, заданная на множестве .f, называется (вероятностной) мерой, если она обладает следующими свойствами: 1) uXv,P,) = V |i(P,) для любой системы {Р,} попарно ортогональных проекторов Р, е ^, 2)ц(/) = 1. Мера, заданная на множестве &>, однозначно продолжается до нек-рого нормального состояния на алгебре Неймана Ч, исключая определенный класс случаев, в к-рых продолжение заведомо невозможно (см. Глисона теорема). Значительное место в проблематике Н.т. в. занимают предельные теоремы, в к-рых исследуются асимптотич. свойства сумм вида Sn = ]£\ Ak при п -> °°, где Ak - нек-рые линейные НЕКОММУТАТИВНАЯ 385
самосопряженные операторы, принадлежащие заданной алгебре 9С с выделенным нормальным состоянием. Здесь имеются результаты, относящиеся к центральной предельной теореме, эргодич. теоремам, сходимости условных математич. ожиданий, усиленному закону больших чисел. Сюда же примыкают исследования по регулярности марковских отображений, действующих в операторных алгебрах. Центральная предельная теорема. Пусть задано гильбертово пространство Ж, состояние <•>, а также линейные ограниченные самосопряженные операторы Ах> Л2,... Рассматривается функция распределения Fn(x) для оператора ^ = ^IL^-<4>/). Основное требование на операторы Av A2, ... представляет собой условие их «слабой» зависимости, один из вариантов к-рого (условие Розенблатта) выглядит следующим образом. Через Ч(М) для заданной системы М ограниченных линейных самосопряженных операторов в Ж обозначается множество операторов вида ^ = X, = i \AixAi2...Aim, где Л|:еМ11{/}, X - скаляры. Рассматриваются величины a(fl) = sup ЫГЦяГкЛ, В)-(А)(В)\, А,В где A eKCdj, •••» ^л), В e%(Ak+n+v...), || • || - норма оператора, и предполагается, что lim a(w) = 0. Приведенное условие П —>оо слабой зависимости выполняется в ряде случаев для предельных состояний Гиббса одномерных систем (в многомерных системах имеет место слабая зависимость другого вида). Другой важной характеристикой, используемой в исследовании распределений Fn(x), является величина Р(и) = sup |Л,Лу-Л Л,|. При определенных требованиях \i-j\Zn на скорость убывания величин а(п) и |}(и) (а также нек-рых других естественных предположениях об операторах Ak) можно утверждать, что lim Fn(x) = Ф(х), где Ф(х) - нормальное распределение. Так же, как и в классич. предельных теоремах, основным методом доказательства является метод характери- стич. функций, а также близкий к нему метод преобразования Лапласа. Характеристич. функция распределения заданного самосопряженного оператора А может быть вычислена по формуле <р(0 = (exp(ik4)), te (-00, 00). Анализ характеристич. функций для сумм операторов использует формулу Ли - Троттера - Като для экспоненты от оператора ехр(Л + В) = lim [ехр(т~*А)ехр(т~*В)]т. Центральная Прети ->оо дельная теорема установлена также для нек-рых неограниченных операторов, в частности для оператора энергии непрерывных систем квантовой статистич. механики в определенных областях изменения основных параметров системы. Эргодические теоремы для марковских отображений. Рассматривается алгебра Неймана Ч, на к-рой задано нормальное состояние (•>, обладающее свойством точности (А )>0 для любого самосопряженного оператора А е $С, А Ф 0. Рассматривается линейное отображение Т: 9С -> 9С, обладающее свойствами: 1)Г(/)=1; 2) Г(Л)^0, если только А ^0. Некоммутативные эргодич. теоремы изучают асимптотич. поведение итераций Тп, а также средних Чезаро оп = — X"-i Tm при и->°о. Основные виды сходимости составляют сходимость по норме пространств L и L , а также 386 НЕКОММУТАТИВНАЯ сходимость почти всюду: говорят, что операторы Апе% сходятся почти всюду к оператору ЛеЭД, если для каждого е>0 можно указать проектор Е еЧ такой, что (1-Е)<£ и lim I (Ап-А)Е\\ = 0 (в коммутативном случае это совпадает со сходимостью почти всюду в силу теоремы Егорова). В предположении, что (7X4)) = (А) для любого Л е $С, установлено, что а„(Л) сходятся в среднем и почти всюду к нек-рому оператору Л е$С (статистич. и индивидуальная эргодич. теоремы). Простейшее условие, обеспечивающее сходимость в среднем итераций Тп (регулярность), имеет следующий вид (аналог условия Маркова для классич. цепей): можно указать состояние veL и число 8>0 такое, что для каждого состояния [ieL] имеет место неравенство \i(T(A)) ^bv(A) для всех Условные математические ожидания и их сходимость. Пусть 9С, 83 - алгебры Неймана, ЯЗс$С, и пусть (•> - точное нормальное состояние на $С. Условным математическим ожиданием из % на 83 называется линейное ограниченное отображение <р:$С->83, обладающее свойствами: 1) <р(Л)^0, если Л^О; 2) {АВ) = (у(А)В) для всех A е 9C, В е ЯЗ. Условное ожидание при заданном состоянии (•> определено не для любой подалгебры 83 с Ч (в отличие от классич. вероятностных пространств), однако имеются содержательные примеры, когда условное математич. ожидание существует. Напр., если (•) - продакт-состояние на алгебре квазилокальных наблюдаемых, Л - конечное подмножество, то существует условное математич. ожидание <р:$С->$С(Л). Известны некоммутативные обобщения понятия мартингала и соответствующих теорем сходимости. Многие вопросы некоммутативной теории интегрирования и теории вероятностей исследованы для схем, в к-рых рассмат риваются нормированные йордановы алгебры (к-рые коммутативны, но не ассоциативны). Лит.: [1] Neumann J. von, BirkhoffG., «Ann. Math.», 1936 v. 37, p. 823-43; [2] Segal I., там же, 1953, v. 57, p. 401-57 [3] Mopoзова Е. А., Ченцов Н. Н., Матрицы вероятностей и его хаотические суперматрицы, М., 1973 (Препринт ИПМ АН СССР) 14] Синай Я. Г., АншелевичВ.В., «Успехи матем. наук», 1976 т. 31, в. 4, с. 151-67; [5] Шерстнев А. Н., «Изв. вузов. Математика», 1982, № 8, с. 20-35; 16] Браттели У., Робинсон Д., Опера торные алгебры и квантовая статистическая механика, пер. с англ., М. 1982; 17] С ар ым саков Т. А., Введение в квантовую теорию вероят ностей, Таш., 1985; 18] Jajte R., Strong limit theorems in non commutative probability, B. - [a. o.], 1985; [9] Goldstein M. S. «J. Statist. Phys.», 1985, v. 40, p. 329-60. Т. А. Сарымсаков, М. Ш. Гольдштейн. НЕКОММУТАТИВНАЯ ТЕОРИЯ ИНТЕГРИРОВАНИЯ (non-commutative integration theory) - см. Некоммутатив пая теория вероятностей. НЕКОРРЕЛИРОВАННЫЕ СЛУЧАЙНЫЕ ВЕЛИЧИНЫ (uncorrelated random variables) - действительные или ком плексные случайные величины Xj, Х2 второго порядка такие что EXjX2 = EXjEX2. Если Xj и Х2 имеют нулевые средние то некоррелированность равносильна ортогональности. Если Xj и Х2 - независимые случайные величины, то они некорре лированны. Обратное не всегда верно, однако в двух важных частных случаях обратное все же верно. Во-первых, если X, и Х2 принимают не более двух значений и некоррелированны то они независимы. Во-вторых, если (Xj, ..., Хп) - гауссов ский случайный вектор в II?" и Xj, ..., Хп попарно некоррели рованны, то Xj, ..., Х„ независимы. Дисперсия суммы попарно Н. с. в. равна сумме дисперсий слагаемых. в. И. Тариеладзе. НЕЛИНЕЙНАЯ РЕГРЕССИЯ (nonlinear regression)-регрес сия У( = д(х{; оО + е-, i= 1, ..., п, где д - нелинейная функция Ее, = 0, #,elR - контролируемые детерминированные (или случайные, но независимые от £;) величины, aelR™ - неизвест
ный вектор параметров. В случае когда д линейна по параметрам, но нелинейна по xit H. р. сводится к линейной. Тогда а(хг; а) = д^{х{)щ + ... + дт(х()ат, поэтому, введя обозначения «//(.г,-) -2цу приходят к линейной регрессии. Если распределение величин е, известно, то для оценивания а можно использовать метод максимального правдоподобия. На практике, однако, чаще применяют метод наименьших квадратов. Оценкой метода называется то значение параметров, к-рое доставляет сумме квадратов отклонений У (г/, - д(х{\ а)) минимум. Существуют специальные методы решения этой оптимизационной задачи: их основой служит итеративный метод Гаусса - Ньютона, суть к-poro заключается в линеаризации функции регрессии по параметрам и применении стандартной формулы для нахождения оценки метода Наименьших квадратов в линейной регрессии. Важнейшей характеристикой качества оценок метода наименьших квадратов служат их стандартные ошибки, к-рые в случае Н. р. получаются на основе линейной регрессии - разложения д по параметрам в точке - оценке метода наименьших квадратов. Статистич. свойства оценки метода наименьших квадратов в Н. р. изучены только в асимптотике: при нек-рых условиях регулярности оценка метода наименьших квадратов является состоятельной и асимптотически нормальной. Теория малых пыборок для Н. р. не развита. Лит.: 11] АйвазянС.А., ЕнюковИ.С, МешалкинЛ.Д. Прикладная статистика. Исследование зависимостей, М., 1985 |2] Д ем и денко Е. 3., Линейная и нелинейная регрессия, М., 1981 [3] его же, Оптимизация и регрессия, М., 1989. Е.З. Демиденко. НЕЛИНЕЙНАЯ ФИЛЬТРАЦИЯ случайных процессов (nonlinear filtering of random processes) - построение для каждого момента t оптимальной (напр., в среднеквадратиче- ском смысле) оценки для случайного процесса Yt по наблюдениям <XS, O^s^O, [(Y, X) = (Yt, Xt)t^Q- двумерный случайный процесс]. Если ЕХ^ <°°, то оптимальной в среднеквадратич. смысле является апостериорное среднее nt(Y) = E(Yt\**(t ), где ,dt - а-алгебра, порожденная случайными величинами Xs(0^s^t). В принципе условное математич. ожидание nt(Y) можно вычислить по формуле Бейеса. Однако даже в сравнительно простых случаях выражение для л^У) является слишком громоздким. Поэтому обычно рассматриваются случаи, когда Y и X являются согласованными с семейством £ = C«/)t>o ^-алгебр ,<4 процессами, допускающими представление Yt=Y0 + \[ Hsds + Mt,Xt = X0 + j'0 Asds + Wt, где H=(Ht)t^Q, A- (At)t^Q = ^ - согласованные процессы, M=(Mt)t^0 и W=(Wt)t^0- квадратично интегрируемый мартингал с непрерывными справа и имеющими пределы слева траекториями и винеровский процесс относительно ^ соответственно. При условиях Ге(Яс2 +A*)ds<oo, t>0, устанавливается, что процесс (nt(Y))t>0 допускает представление nt(Y) = nQ(Y)+ fQ ns(H)ds + + Ц lns№) + ns(YA)-ns(Y)nsW№Xs-ns(A)ds)t (1) где (M, W) - взаимная квадратич. характеристика мартингалов М и W, Dt = d(M, W)t/dtt3iKt(D), щ(Ю, nt(YA), nt(A) - оптимальные в среднеквадратич. смысле оценки величин Dt, Ht, Y(At, At no наблюдениям (Xs, O^s^t), называемое основным уравнением оптимальной нелинейной фильтрации. В марковском диффузионном случае, когда (У, X) определяются уравнениями Ито dYt = a(Yt)dt + dWt, dXt = = A(Yt)dt + dWt относительно независимых винеровских процессов W и W, из представления (1) выводится уравнение для апостериорной плотности d?{Yt^y\^} Рг (</> = - dy £«*,.<,»♦!*£ P,(#) = Po^> + J0 +Ц Р5 (у)\Му) - £ Ж*)р, (x)dx xL/Xs-([°° A(x)ps(x)dx)ds ds + (2) к-рое в отличие от (1) является замкнутым уравнением. Для марковского процесса У с конечным или счетным числом состояний ((Xj, Р, у, ...) и матрицей интенсивностей перехода |^ар(0|| в том случае, когда Xt = j* A(Ys)ds+Wt, из (1) выводится замкнутая система уравнений для апостериорных вероятностей лДР) = P{Yt = P|.</f}: %t (p) = Р{У0 = ю +1 XY ЧР(*Ч<y№ + +£ к, (|фф) - ^ А(у)ж$ (y)){dXs - J^ A(y)ns (yWs). Величины pt(y) и тсДР) позволяют вычислять любые апостериорные характеристики и, в частности, лДУ). Представление (1) используется также в ряде других частных случаев. Так, напр., если (У, X) - диффузионный процесс вида dYt = a(Xt)Ytdt + dWt, dXt=A(Xt)Ytdt + dWt относительно независимых винеровских процессов W и W и условное распределение Р{У0^г/|Х0} является гауссовским Р-почти наверное, то при ограниченных а = а(х), А=А(х) условное распределение P{Yt^y\^} является гауссовским Р-почти наверное, а оптимальная в среднеквадратич. смысле оценка nt( У) и условная среднеквадратич. оценка фильтрации РДУ) = Е((У,-тс,(У))2и?) определяются нелинейными уравнениями dnt(Y) = a(Xt)nt(Y)dt + Pt(Y)A(XtKdXt-A(Xt)nt(Y)dt), ^р- =2a(Xt)Pt(Y) + 1 - (Л(Х,)РДУ))2 условно гауссовской фильтрации. Лит.: [1] Fujisaki М., К a Hi an pur G., Kunita H., «Osaka J. Math.», 1972, v. 9, № 1, p. 19-40 (в рус. пер.: «Математика», 1973, т. 17, № 2, с. 108-28); [2] Липцер Р.Ш., Ширяев А. Н., Статистика случайных процессов, М., 1974. р jjj Дипцер. НЕЛИНЕЙНОЕ ПРОГНОЗИРОВАНИЕ случайных процессов (nonlinear prediction/extrapolation of random processes) - построение оптимальной в среднеквадратическом - смысле оценки nts(Y) для величины Yt при t^s и условии, что величины Yu, O^u^s, доступны наблюдению, где У = (Yt)t>0 - случайный процесс с EYt <<*>. В другой постановке оценка nts(Y) вычисляется для величины Yt при t^s и НЕЛИНЕЙНОЕ 387
условии, что величины Хи, O^u^s, доступны наблюдению, где (У, X) = (Yt, Xt)t^Q - двумерный случайный процесс. Оптимальная оценка nts(Y) = E(Yt\^J) или nts(Y) = E(Yt\^f*), где Л$ и ds - а-алгебры, порожденные величинами Yu, O^m^s, и Хи, O^u^s, соответственно. Оценка щ 9( У) зависит от двух временных параметров t и s и определяет два типа случайных процессов: при фиксированном t и фиксированном s. При фиксированном t процесс (KttS(Y))0<s<t является квадратично интегрируемым мартингалом относительно семейства (^J)o^s^t или (-^s^o^s^t. Этот факт позволяет использовать для nts(Y) представление в виде стохастич. интеграла по обновляющему мартингалу. Известны случаи эффективного построения оценок nt S(Y), когда У является марковским диффузионным процессом или марковским процессом со счетным числом состояний. В этих случаях процесс (itts(Y))t-^s определяется следующим образом: где y/s обозначает ^у или <c/s . Условное распределение P{Yt ^ ^y\s/s} определяется при фиксированном s с помощью прямого уравнения Колмогорова: в случае диффузионного процесса с помощью уравнения для плотности pt(y) = dP{Yt^y}/dy; в случае марковского процесса со счетным числом состояний с помощью уравнений для P{Yt = a}, где (а, Р, у, ...) - множество состояний Yt. Начальными значениями ps(y) и P{Ys = a} в случае Z=Y служат соответственно 5-функция b(y-Ys) или 8(а, Ys) = I(Ys = a), a в случае Z=Х-условная плотность dP{Ys^у\Л*}/dy или P{Ys = a\^*}, вычисляемые с помощью уравнений нелинейной фильтрации. Лит.: [1] Лиицер Р. Ш., Ширяев А. Н., Статистика случайных процессов, М., 1974. Р. Ш. Липцер. НЕЛИНЕЙНОЕ УРАВНЕНИЕ; решение методом Монте-Карло (nonlinear equation; Monte Carlo solution technique) - алгоритмы статистического моделирования случайных явлений и вычисления таких функций от их исходов, математическое ожидание к-рых равно (может быть, приближенно) значениям в точках или другим характеристикам искомого решения. Как правило, методом Монте-Карло решают нелинейные кинетические уравнения переноса или уравнения, допускающие подобное истолкование. Для решения моделируют поведение ансамбля частиц (каскадов частиц, пакетов частиц), взаимодействующих между собой или непосредственно и (или) через воздействие на частицы окружающей среды (см. Статистическое моделирование задач переноса). В последнем случае возможно решать уравнение итерациями, моделируя каждый раз перенос невзаимодействующих частиц и вычисляя состояние среды по потокам из предыдущей итерации, то есть сводя задачу к решению последовательности линеаризованных уравнений. Эффективное моделирование ансамбля взаимодействующих частиц возможно лишь на компьютерах с большой памятью. Несколько проще моделирование процесса рождения и гибели (то есть поведение каскадов частиц), однако применимость этого класса моделей ограничена (см. [1]). Лит.: [11 Ермаков СМ., Некруткин В. В., Сипин А.С, Случайные процессы для решения классических уравнений математической физики, М., 1984; [2] Я н и цк и й В. Е., Теоретико-вероятностный анализ прямого статистического моделирования столкновительных процессов в разреженном газе, в кн.: Бёрд Г., Молекулярная газовая динамика. Дополнение I, пер. с англ., М., 1981, с. 279-302. С. М. Ермаков, Н. Н. Ченцов. 388 НЕЛИНЕЙНОЕ НЕЛИНЕЙНОЙ АВТОРЕГРЕССИИ ПРОЦЕСС (nonlinear autoregressive process) - стационарный случайный процесс Xt с дискретным временем £ = 0, ±1, ±2, ... (то есть стационарная случайная последовательность), удовлетворяющий уравнению *t = A*t-i X(-*> + et. О где /"С*!, ..., xk) - нек-рая функция k переменных, a {et} - последовательность независимых и одинаково распределенных (или некоррелированных и имеющих одинаковые средние значения и дисперсии) случайных величин таких, что величина et независима от всех Xs, s<t (или некоррелирована со всеми такими Xs). Процесс Xt, удовлетворяющий (*), часто называют нелинейным процессом авторегрессии порядка k\ в предположении, что k=\, такие процессы были введены в рассмотрение Д. Джонсом [1] (см. также [2]), а в случае когда фунция f(x^, ..., xk) линейная, Xt обращается в обычный процесс авторегрессии порядка k. При использовании кусочно линейной аппроксимации функции f(x^, ..., xk) класс Н. а. п. переходит в класс пороговых моделей случай ных процессов; вообще же говоря, класс Н. а. п. представляет собой важный подкласс общего класса нелинейных моделей случайных процессов. Заметное место в теории Н. а. п. занимает изучение так наз экспоненциальных авторегрессионных про цессов (или экспоненциальных авторегрессионных моделей, или EXPAR-моделей), введенных в рассмотрение Т. Озаки (см., напр., [3], [4]) в связи с нек-рыми задачами теории нелинейных колебаний и описываемых уравнениями Xt=AtiXt^ + ... + AtkXt^k + ct, где Ау = а. + b.exp(-c Xt_^), j= 1, ..., k, a a., b и ct - нек-рые постоянные (см. [3]-[6]). Лит.: [11 Jones D. A., «Proc. Roy. Soc. London», Ser. A, 1978, v. 360, p. 71-95; [21 Hognas G., «J. Time Series Analys.», 1986, v. 7, № 3, p. 205-11; [3] Osaki Т., Oda H., в кн.: Information and systems, Oxf., 1978, p. 83-91; [41 Priestley M.B., Nonlinear and nonstationary time series analysis, L., 1988; [5] Tong H., в кн.: Proceedings 1-st World Congress of Bernoulli Society, Utrecht, 1987; [61 Chan W. S., Tong H., «J. Forecasting», 1986, v. 5, № A, p. 217-28. A.M. Ягло*. НЕЛИНЕЙНЫЕ МОДЕЛИ случайных процессов (nonlinear models of random processes) - модели случайных процессов Xt с дискретным временем £ = 0, ±1, ±2, ... (обычно предполагаемых стационарными), задаваемые нелинейными уравнениями, связывающими значения процесса Xt со значениями случайного процесса Yt с известными (и достаточно простыми) распределениями вероятностей. В качестве процесса Yt чаще всего выбирается дискретный белый шум, то есть последовательность независимых одинаково распределенных случайных величин. К числу наиболее широко используемых частных классов Н. м. случайных процессов относятся нелинейной авторегрессии процессы, билинейные модели случайных процессов и пороговые модели случайных процессов (см., напр., [1]-[4]). Важными направлениями теории Н. м. случайных процессов являются выяснение условий существования стационарных решений заданного уравнения модели, оценки параметров модели (см. [1]-15]) и проверка гипотез о нелинейности (см. [6], [7]). Лит.: [11 Priestley M. В., Nonlinear and nonstationary time series analysis, L., 1988; [21 Rao T. S., Gabr M. M., An introduction to bispectral analysis and bilinear time series models, В., 1984; [31 Tong H., Threshold models in nonlinear time series analysis, N. \., 1983; [41 его же, в кн.: Proceedings 1-st World Congress of Bernoulli Society, Utrecht, 1987; [51 Tj»sthem D., «Stoch. Processes and their Appl.», 1986, v. 21, № 2, p. 251-73; [6] Chan W. S., Tong II., в кн.: Advances in statistical analysis and statistical computing, v. 2, Greenwich (USA), 1987; [7] их же, «J. Forecasting», 1986, v. 5, № 4, p. 217-28. A.M. Я/лоч.
нелинейный регрессионный эксперимент (nonlinear regression experiment) - последовательность y,=i\(xr 6) + е, независимых измерений с Еег = 0, Ог{ = с2 и Е:|е,|т < оо для нек-рого т>2. Описание асимптотич. свойств оценки ev наименьших квадратов метода: оценка где QN eargmin Q(6), 0 Q<e> = I,1,lft-n<*,.e)| Если такое определение для 6N неоднозначно, то выбирается какая-либо его измеримая регуляризация [напр., ищется arg min Q(6)) по последовательности сужающихся е-сеток и 0с= IR7'. (О численном поиске 6 см. в ст. Гаусса - Ньютона метод.) При условиях регулярности 6V - состоятельная асимптотически нормальная оценка: pv = VN46N - в) сходится слабо к ЖО, т_,(8)); здесь ш(в) = lim mv(6), miV(6) = N"1^i УоП(^, в)(У0ли„ в))т, и существование предела следует из условий регулярности. Доказана сходимость моментов pv до порядка т - 2 к моментам предельного распределения. При совпадении распределений гг получены асимптотич. разложения вероятностей P{pN е С) до порядка N~ т~ ' равномерно по выпуклым множествам С и асимптотич. разложение ^x(6)JV-*/2 ln(*+1)/2 N\ = 0(Ы-(т-2Щ, где k определяется гладкостью rj(-, в). С помощью таких разложений можно найти, напр., преобразования 6->^(в), аннулирующие главный член смещения порядка N оценки наименьших квадратов для д. Соответствующая система координат является полугеодезической в метрике, определяемой информационной матрицей mN(Q). Аналогичные преобразования упрощают члены второго порядка разложения дисперсии оценки наименьших квадратов. Найдены условия, эквивалентные существованию преобразования параметров в->#(в), после к-рого матрица ковариаций наименьших квадратов оценки д постоянна. Лит.: \\\ Математическая теория планирования эксперимента, М., 1983; 12] Григорьев Ю.Д., Иванов А. В., «Заводская лаборатория», 1987, т. 53, № 5, с. 57-61. М. Б. Малютов. НЕЛЬСОНА ПОЛЕ (Nelson field) - см. Марковское случайное поле. НЕМЕТРИЧЕСКОЕ МНОГОМЕРНОЕ ШКАЛИРОВАНИЕ (non-metric multidimensional scaling) - см. Многомерное шкалирование. НЕОБРЫВАЮЩИЙСЯ МАРКОВСКИЙ ПРОЦЕСС (non-killed Markov process) - см. Обрыва момент. НЕОБХОДИМАЯ ДОСТАТОЧНАЯ СТАТИСТИКА (не cessary sufficient statistic) - то же, что минимальная достаточная статистика. НЕОБХОДИМАЯ СТАТИСТИКА (necessary statistic) см. Минимальная достаточная статистика. НЕОБХОДИМАЯ ТОПОЛОГИЯ (necessary topology) - топология в пространстве Г*, сопряженном к локально выпуклому пространству Т, в к-рой непрерывен характеристический функционал Д любой плотной цилиндрической вероятности Д на Т. Д. X. Муштпари. НЕОГРАНИЧЕННОЕ СЛУЧАЙНОЕ БЛУЖДАНИЕ (ип bounded random walk) - см. Случайное блуждание. НЕОДНОРОДНАЯ ЦЕПЬ МАРКОВА (inhomogeneous Markov chain) - цепь Маркова, не обладающая свойством однородности. Любую Н. ц. М. можно превратить в однородную цепь Маркова с помощью соответствующего изменения фазового пространства (см. Маркова цепь, а также [1J, с. 136). Лит.: [1] Гихман И. И., Скороход А. В., Теория случайных процессов, т. 2, М., 1973. А. Б. Балтрунас. НЕОДНОРОДНЫЙ ВО ВРЕМЕНИ ВЕТВЯЩИЙСЯ ПРОЦЕСС (time inhomogeneous branching process) - ветвящийся процесс, в к-ром законы превращения частиц, существующих в данный момент t, зависят от t. Н. во в. в. п. Z(t) определяется как марковский процесс со счетным множеством состояний 0, 1,2, ..., переходные вероятности к-рого Pi;-(s,0 удовлетворяют условию ветвления. В терминах производящих функций 7М| F(s, t,x) = E(xz(t)\z(s)=\) условие ветвления может быть записано в виде F(s, ti+t2\ x) = F(s, tx\ F{tv t2\ x)). Состояния процесса интерпретируются как числа частиц. Для процессов с непрерывным временем обычно предполагается, что при h -> О Р1я(*, t + h)=pn(t)h + o(h), Р,я(*-Л, t)=pn(t)h + o(h), л*1, Pu(t, t + h) = \+p^t)h + o(h), Pu(t-h, t) = \+p^t)h + o(h) и что Х°°-п Pn^fi = 0. В этих условиях F(t{, t2\ x) удовлетворяет дифференциальному уравнению dF(t t2;x)= _^ ^ ^ f^ t^.x)=Xt at. или линейному уравнению с частными производными где at2 ' *' Эх f^x) = j;n^pnU)x\ Если при всех t конечно а^)=~^1—I , то существует EZ(0 и определяется формулой Х ,дг=1 EZ(0 = ехр |£ аШи\. Предельное поведение Н. во в.в. п. более разнообразно по сравнению с обычными однородными процессами и не укладывается в обычные рамки классификации на докритические, критические и надкритические процессы. Лит.: [1] Севастьянов Б. А., Ветвящиеся процессы, М., 1971. В. П. Чистяков. НЕОПРЕДЕЛЕННОСТЕЙ СООТНОШЕНИЕ (uncertainty relation) - фундаментальное неравенство, связывающее дисперсии (неопределенности) двух квантовых наблюдаемых X, Y в произвольном состоянии S. Оно гласит DS{X)DS{Y}>±-\ES{HX, У]}2, где DS{X), DS{Y) - дисперсии, а [X, Y] = XY-YX - коммутатор наблюдаемых X, Y. Н. с. показывает, в частности, что не НЕОПРЕДЕЛЕННОСТЕЙ 389
существует квантового состояния, в к-ром все наблюдаемые имели бы точно определенные значения, и тем самым демонстрирует принципиальное отличие квантовой статистики от классической. Н. с. дает количественное выражение принципа дополнительности. Физич. измерения над микрообъектами осуществляются экспериментальными установками, каждая из к-рых предполагает сложную специфич. организацию макроскопич. пространственно-временной среды. Разные способы такой организации являются, вообще говоря, взаимно исключающими, хотя и относятся к одному и тому же микрообъекту, то есть дополнительными. Это обстоятельство отражается в математич. формализме тем, что соответствующие наблюдаемые X, У описываются некоммутирующими операторами. Для таких наблюдаемых всегда найдется состояние S, в к-ром правая часть Н. с. строго положительна. Канонич. пример дополнительных наблюдаемых дают положение и скорость квантового объекта. А. С. Холево. НЕОТРИЦАТЕЛЬНО ОПРЕДЕЛЕННАЯ ФУНКЦИЯ (positive semi-definite/nonnegative definite function) - см. Положительно определенная функция. НЕПАРАМЕТРИЧЕСКАЯ КЛАССИФИКАЦИЯ (nonpara- metric classification) - см. Непараметрический дискриминант- ный анализ. НЕПАРАМЕТРИЧЕСКАЯ ОЦЕНКА спектральной плотности (nonparametric estimator of spectral density) - см. Спектральная плотность; непараметрическая оценка. НЕПАРАМЕТРИЧЕСКАЯ ПРОВЕРКА ГИПОТЕЗ (поп parametric hypotheses testing) - раздел математической статистики, имеющий дело с непараметрическими методами статистических гипотез проверки. Название «непараметрические» противопоставляет их традиционным «параметрическим» методам, предполагающим знание функционального вида генеральных распределений с точностью до конечномерного параметра. Характерным примером непараметрич. задачи проверки гипотез служит задача проверки однородности двух выборок. Имеется N = m + n независимых наблюдений Х{, ..., XN, причем Xj, ..., Хт (Xw+1, ..., XN) одинаково распределены с функцией распределения F(G). Проверяется гипотеза однородности HQ:F = G против альтернативы сдвига, то есть гипотезы Н\: G(t) = F(t - в) для всех t и нек-рого в ■*■ 0. В классич. варианте этой задачи предполагается, что функции распределения F и G нормальны, и для проверки рассматриваемой гипотезы используется Стьюдента критерий. При непараметрич. постановке задачи о виде F и G не делается никаких предположений, кроме непрерывности. Типичным непараметрич. критерием для проверки гипотезы Я0 против Н\ является Уилкоксона критерий, основанный на статистике W =Tm R где /?j, ..., RN - ранги величин Xj, ..., XN. Гипотезу о равенстве распределений отвергают, если вычисленная по наблюдениям статистика Wmn оказывается слишком большой или слишком малой. Соответствующие критич. значения определяются распределением Wmn при Я0, не зависящим от общей функции распределения F, поскольку от F не зависит распределение вектора рангов R = (R^, ..., RN) (оно равномерно на множестве всех перестановок чисел 1, ..., N). На этой основе вычислены таблицы критич. значений; при больших т и п используется нормальная аппроксимация. Для проверки 390 НЕПАРАМЕТРИЧЕСКАЯ Я0 против Нх часто используется и Смирнова критерий, основанный на статистике £V* = sup \Fm(x)-Gn(x)\, х где Fm и Gn - эмпирич. функции распределения 1-й и 2-й выборок. Статистика Dm n также определяется набором рангов R\, ..., Rm. Другими примерами задач Н. п. г. являются задачи проверки согласия, симметрии, независимости и случайности. Задача проверки согласия состоит в том, что по выборке с генеральной функцией распределения G требуется проверить гипотезу о том, что G = F, где F- заданная непрерывная функция распределения. Непараметрич. характер задачи проявляется здесь в непараметричности альтернативы, к-рая может быть сформулирована, напр., в одностороннем варианте (F<G или F>G) либо в двустороннем (F*G). Задача проверки симметрии заключается в проверке симметрии генеральной функции распределения G относительно заданной точки х0, то есть равенства G(xQ + x) + G(xQ - х) = 1, х е IR1. В качестве альтернативы могут выступать односторонние условия G(x0 + x) + G(x0-х)^\, G(x0 + x) + G(x0-x)^\ со строгим неравенством хотя бы для одного х либо двустороннее условие того же типа. Задача проверки независимости возникает тогда, когда необходимо проверить, являются ли независимыми два признака, наблюдаемые у одного и того же объекта, по независимым наблюдениям над такими объектами. Сходным образом формулируется и гипотеза случайности, когда предполагается, что элементы выборки - независимые и одинаково распределенные величины. Наибольшее развитие и применение в задачах Н. п. г. получили ранговые методы и методы, основанные на эмпирич. функции распределения. Ранговые методы, использующие ранги наблюдений, а также их знаки, ранги абсолютных величин и др., применяются, когда проверяемая гипотеза носит непараметрич. характер. В рассмотренном выше примере проверки гипотезы однородности ранговые критерии являются подобными относительно гипотезы Я0 (см. Подобный критерий), то есть сохраняют постоянный размер а независимо от распределения из Я0. Общий метод построения подобных относительно Я0 критериев опирается на тот факт, что вектор порядковых статистик XN) = (X(0' -' X(N))> гДе х(\)<х(2)<-'-<х(Ю~ упорядоченные по возрастанию элементы объединенной выборки, является при Я0 полной достаточной статистикой. Тогда всякий подобный критерий имеет Неймана структуру, то есть имеет один и тот же условный размер а при (почти каждом) фиксированном значении Х^ . При Я0 векторы Х^ и R независимы между собой, поэтому такой критерий может быть задан критич. функцией <р(Х^ , R), удовлетворяющей условию — Л.ф(Х^,п = а почти наверное, где суммирование производится по всем возможным перестановкам г=(г\, ..., rN) чисел 1, ..., N. Критерии такой структуры называются критериями перестановок. Ранговые критерии получаются как частный случай, когда критич. функция ф не зависит от X. Реализация критерия перестановок общего вида связана с вычислительными трудностями, поэтому наибольшее применение находят ранговые критерии.
Несмотря на потерю информации, вызываемую отказом от использования числовых значений наблюдений, в 50-60-х гг. выяснилось, |что ранговые критерии в определенном классе задач обладают высокой асимптотич. относительной эффективностью. Так, в задаче двух выборок для нормальных наблюдений асимптотич. относительная эффективность критерия Уилкоксона по отношению к критерию Стьюдента равна 3/л = 0,955. Если же генеральное распределение отлично от нормального, то указанная асимптотич. относительная эффективность может быть сколь угодно большой, но никогда не опускается ниже значения 0,864. Более того, существует ранговый критерий (так наз. критерий нормальных меток), асимптотич. относительная эффективность к-рого по отношению к критерию Стьюдента равна 1 в нормальном случае и превосходит 1 при любом отклонении от нормальности. Таким образом, этот критерий асимптотически оказывается предпочтительнее критерия Стьюдента. Другой пример связан с проверкой гипотезы симметрии. Пусть выборка Хх, ..., Хп извлечена из совокупности с генеральной плотностью f и проверяется гипотеза о симметричности f относительно нуля при альтернативе сдвига. Наиболее простым критерием в этой задаче является знаков критерий, основанный на числе положительных значений среди X,-. Зна- ково-ранговый критерий Уилкоксона основан на статистике У Rj, где Яг - ранг элемента Хг в вариационном ряду для \ХХ\, ..., \XN\. Статистика этого критерия использует как информацию о знаках наблюдений, так и информацию об их величине. Поэтому следует ожидать, что критерий Уилкоксона является более эффективным, чем критерий знаков. Действительно, асимптотич. относительная эффективность этих критериев по отношению к критерию Стьюдента равна соответственно 3/л = 0,955 и 2/л = 0,637 в случае нормальных наблюдений. Таким образом, критерий Уилкоксона в 1,5 раза превосходит критерий знаков и мало уступает критерию Стьюдента. Еще один пример связан с проверкой гипотезы независимости. Пусть имеется ряд объектов, каждый из к-рых обладает двумя признаками, качественными или количественными, причем наблюдения над качественными признаками могут быть упорядоченными. Требуется по п независимым наблюдениям над объектами проверить гипотезу независимости признаков против, напр., их положительной зависимости. Пусть Rl и St - ранги признаков, соответствующие i-му наблюдению. Широко распространенный критерий для проверки независимости основан на коэффициенте ранговой корреляции Спир- мена rs, к-рый может быть вычислен по формуле rs=l-6£. (Ri-Si)2/(n3-n). Гипотеза независимости отвергается при больших, то есть близких к 1, значениях г,. Критич, значения при малых п находят по таблицам, при больших п пользуются нормальной аппроксимацией. Асимптотич. относительная эффективность критерия, основанного на rs, по отношению к критерию, основанному на выборочном коэффициенте корреляции, снова оказывается довольно высокой и равна для нормальных наблюдений 9/л2 = 0,912. Исследования 70-х гг. обнаружили еще более сильные свойства эффективности ранговых критериев. Оказалось, что типичным образом асимптотически наиболее мощные критерии рангового типа имеют конечный дефект, то есть такой критерий требует N + о( 1) наблюдений для достижения той же мощности, что и наилучший критерий, использующий N наблюдений [само свойство асимптотич. эффективности означает, что критерию в той же обстановке требуется N + o(N) наблюдений]. Классич. примером непараметрич. задачи, где применяются критерии, основанные на эмпирич. функции распределения, служит задача проверки согласия с заданной непрерывной функцией распределения F0. Факт равномерной сходимости эмпирич. функции распределения FN, построенной по N независимым наблюдениям, к их общей функции распределения при N ->оо (теорема Гливенко - Кантелли) позволяет строить состоятельные критерии на основе той или иной меры уклонения FN от F0, напр. DN = sup \FN(x)-FQ(x)\, (l) X °й = П lFN(x)-F0(x)]2dFQ(x). (2) Предельные распределения N ' DN и Na>N при N -> °° были найдены в 30-х гг. А. Н. Колмогоровым и Н. В. Смирновым (см. Колмогорова критерий, Крамера - Мизеса критерий; другие критерии такого типа - Ренъи критерий, критерий Андерсона - Дарлинга). Структура статистик (1) и (2) такова, что их распределения при Я0 не зависят от F0. Действительно, Wdn = sup \vN(t)\tNa?N = jQvt,tt)dt, (3) где vN(u) = N ' [GN(t) -1], te[0, 1] - «эмпирический процесс», построенный по эмпирич. функции распределения GN величин t7z = F0(Xz), i=\, ..., N, имеющих при Я0 равномерное распределение на [0, 1] (независимо от F0). «Свобода» от распределения F0, достигаемая включением известной функции распределения F0 в статистику критерия, не носит здесь того принципиального характера, как независимость распределений ранговых статистик от неизвестной функции распределения F. Однако это свойство, позволяющее применять, скажем, одни и те же таблицы в разных задачах проверки согласия, важно для приложений. Развитая в 50-х гг. теория сходимости случайных процессов позволила устанавливать сходимость эмпирич. процесса vN(t) к броуновскому мосту v(t) и получать на этой основе предельные распределения функционалов от vN таких, как (3), как распределения соответствующих функционалов от v: sup \v(t)\, \\2(t)dt. (4) Этот подход открыл принципиальную возможность получения предельных распределений для широкого класса функционалов от эмпирич. функций распределения. Кроме того, при альтернативах, надлежащим образом сближающихся с Я0 при N -*<*>, vN сходится к процессу вида v(t) + a(t), где a(t) - неслучайная функция, определяемая последовательностью альтернатив. Этот факт дает возможность изучать асимптотич. мощность критериев. Подобные же методы применимы для асимптотич. изучения критериев, основанных на эмпирич. функциях распределения, в задачах проверки однородности двух выборок (напр., критерия Смирнова), симметрии и независимости. Для приложений основной интерес представляет проверка согласия с заданным параметрич. семейством 9r= {F(x, в), в е 0с И?5}, то есть проверка сложной гипотезы Я0: Feif (напр., проверка нормальности распределения). В этой задаче возможно использование статистик типа (1), (2) с заменой F0 на F(x, бдг), где QN - нек-рая оценка неизвестного параметра в, напр. оценка максимального правдоподобия. Подстановка оценки приводит к существенному изменению распределений НЕПАРАМЕТРИЧЕСКАЯ 391
статистик. В этом случае они представляются как функционалы от нек-рого случайного процесса un(t), сходящегося к предельному процессу u(t), отличному от v(t). При этом, однако, возникают значительные сложности: во-первых, процесс un(t) и его предел и зависят от семейства & и, вообще говоря, от неизвестного значения в, и, во-вторых, вызывает затруднения вычисление распределений функционалов от и. Так, для каждого конкретного if нахождение распределения Г1 2 J и (t)dt требует большой вычислительной работы. Это распределение вычислено и табулировано для ряда основных семейств У (нормальное, экспоненциальное и др.). Способы вычисления распределения sup |w(0| неизвестны. Аналогичные трудности возникают в задачах проверки согласия с многомерными распределениями в случае векторных наблюдений. Свойство свободы от распределения F0 здесь отсутствует даже в случае простой гипотезы Я0. Иной метод в задачах такого рода, развитый на основе теории мартингалов в начале 80-х гг., состоит в преобразовании процесса uN в процесс wN, сходящийся к стандартному винеровскому процессу w. Реализация этого преобразования, зависящего от семейства &, достаточно проста в вычислительном отношении. В качестве статистик критерия тогда могут быть использованы функционалы от w типа (3), распределения к-рых хорошо известны. Этот метод распространяется и на многомерный случай. Асимптотич. теория критериев согласия, основанная на сходимости соответствующих эмпирич. процессов, разработана и для задач, относящихся к более общим схемам наблюдений, таким, напр., как проверка гипотез о распределениях в схемах линейной регрессии или авторегрессии - скользящего среднего. Известная статистика хи-квадрат также представима как функционал от эмпирич. функции распределения, и ее предельное поведение при N ->°°, когда число интервалов разбиения фиксировано, может изучаться описанными выше методами. Недостатком критерия хи-квадрат является его несостоятельность против отклонений распределения внутри интервалов разбиения, чем, в частности, мотивировалось введение критериев типа (1)-(2). Состоятельная последовательность критериев хи-квадрат получается при возрастании числа интервалов разбиения с ростом N. Такие критерии отличаются по своим асимптотич. свойствам от критериев, основанных на непрерывных функционалах от эмпирич. процесса типа (1)-(2). Последние различают более «близкие» альтернативы (с большей скоростью приближающихся к Я0 при N->°°), когда эта «близость» измеряется в терминах расхождения между функциями распределения, в то время как мощность критериев хи-квадрат при мелком разбиении определяется расхождением плотностей распределения. Такие критерии менее чувствительны к «гладким» альтернативам (таким, как, напр., асимметрия при проверке нормальности), но лучше обнаруживают «негладкие» или «локальные» отклонения (такие, как осцилляция плотности или ее резкое изменение на малом участке). Аналогичными свойствами обладают критерии, использующие иные, отличные от хи-квадрат, функции от частот при мелком разбиении (см. Разделимая статистика), а также критерии, основанные на выборочных промежутках (см. Спейсинг). Лит.:[\] Большее Л.Н., Смирнов Н. В., Таблицы математической статистики, 3 изд., М., 1983; [2] Боровков А. А., Математическая статистика. Оценка параметров. Проверка гипотез, М., 1984; [3] Гаек Я., Шидак 3., Теория ранговых критериев, пер. с англ., М., 1971,(4] Кендалл М., Стьюарт А., Статистические выводы 392 НЕПАРАМЕТРИЧЕСКАЯ и связи, пер. с англ., М., 1973; 15] Кендэл М., Ранговые корреляции, пер. с англ., М., 1975; [6] Мартынов Г. В., Критерии омега-квадрат, М., 1978; [7] Хеттмансиергер Т., Статистические иы- воды, основанные на рангах, пер. с англ., М., 1987; ^8] Хмалад- зе Э. В., «Успехи матем. наук», 1982, т. 37, в. 6, с. 193-212; [9] Холлендер М., Вулф Д., Непараметрические методы статистики, пер. с англ., М., 1983; [10] Fraser D.A. S., Nonparametric methods in statistics, N. Y.-L., 1963; [11] Krishna i ah P. R., Sen P. K., [eds], Nonparametric methods, Handbook of Statistics, v. 4, N. Y.-[a.o.], 1984; [12] Lehmann E., Nonparametrics: statistical methods based on ranks, S.F.-N.Y., 1975; [13] Shorack G. R., Wellner J.A., Empirical processes with applications to statistics, N. Y., 1986. Я. Ю. Никитин, Д. М. Чибисов. НЕПАРАМЕТРИЧЕСКАЯ СПЕКТРАЛЬНАЯ ОЦЕНКА (nonparametric spectral estimator) - см. Спектральная плотность; непараметрическая оценка. НЕПАРАМЕТРИЧЕСКИЙ ДИСКРИМИНАНТНЫЙ АНАЛИЗ (nonparametric discriminant analysis), не параметр и- ческая классификация, - раздел непараметрического регрессионного анализа, в к-ром рассматривается случай, когда значения зависимой переменной У принадлежат конечному множеству {1, ..., А/}. Числа 1, ..., М интерпретируются ьак номера классов. Пусть XeIR - случайный вектор и имеется выборка Z„=((X1, Yx), ..., (Х„, Yn)), состоящая из п независимое реализаций пары (X, У). Задача Н.д. а,- построить по выборке Zn решающее правило Тп, ставящее в соответствие вектору xelR элемент множества {1, ..., М}. Н. д. а. выделяется в дискриминантном анализе тем, что решение Тп не опирается на предположение о принадлежности распределения пары (X, У) какому-либо параметрич. семейству. В сга- тистич. теории распознавания образов задача Н.д. а. называется задачей обучения с учителем, векторы X, - наборами признаков, величины У,- указаниями учителя, Zn- обучающей выборкой, х- контрольной выборкой (к-рая в данном случае содержит один элемент). Точность решающего правила измеряется условной вероятностью ошибки Pn = P{Tn(x) = Y\Zn}, причем всегда Рп^Р* = min Р{Г(Х) = У} почти наверное, где минимум берет- т ся по всем измеримым функциям Т: IR ->{1, ..., М}, и достигается на бейесовском решающем правиле: r*(r) = arg max P{Y = i\X = x}. i= 1,...,M Величина Р* называется бейесовским рис ком. Решающее правило называется асимптотически оптимальным, если Рп—>Р* (я—>°°) почти наверное. Асимптотически оптимальные решающие правила ищут в виде Г„Ы = arg max Pn{Y = i\X = x}, i= 1, ..., M где Рп - нек-рая достаточно хорошая оценка вероятности P{Y = i\X = x), построенная по выборке Zn. Методы построения таких оценок Рп хорошо разработаны для случая,, когда распределение случайного вектора X имеет плотность и существуют условные плотности X при фиксированном Y--i, i = l, ..., М (см. [1], гл. 10). Лит.: J1] Деврой Л., Дьерфи Л., Непараметрическое оценивание плотности. Lj-подход, пер. с англ., М., 1988. А. Б. Цыбаков. НЕПАРАМЕТРИЧЕСКИЙ КРИТЕРИЙ (nonparametric test) - статистический критерий для проверки гипотезы У/0: в е 0О cz 0 против альтернативы Нх: в е 0t = 0\0О, когда сама задача статистической проверки Я0 против Н{ является непараметрической, то есть по крайней мере одно из двух параметрических множеств 0О и 0j не является топологически эквивалентным подмножеству евклидова пространства. Наряду с этим определением широко распространено другое, согласно
к-рому статистич. критерии называется не параметрическим, если статистич. выводы, получаемые с помощью этого критерия, не зависят от распределений вероятностей случайных величин, но результатам наблюдений к-рых проверяют Я0 против Нх. В этом случае вместо термина <<Н. к.» часто употребляют термин «критерий, свободный от распределения». Колмогорова критерий является классич. примером Н. к. См. также Математическая статистика; непараметрические методы, Колмогорова - Смирнова критерий, Хи-квад- рат критерий. Лит.: [1] Рао С. Р., Линейные статистические методы и их применения, пер. с англ., М., 1968; [2] Большее Л. II., Смирнов Н.В., Таблицы математической статистики, 3 и.чд., М., 1983; [3] Ибрагимов И. А., Хасьми некий Р.З., Асимптотическая теория оценивания, М., 1979; [4] Кен дал л М., Стьюарт А., Статистические выводы и связи, пер. с англ., М., 1973; [5] Greenwood Р. Е., Nikulin M.S., A guide to chi-squared testing, N. Y., 1996. M. С. Никулин. НЕПАРАМЕТРИЧЕСКИЙ РЕГРЕССИОННЫЙ АНАЛИЗ (nonparametric regression analysis) - раздел математической статистики, занимающийся статистическими выводами о функциях регрессии, принадлежащих (согласно априорной информации) какому-либо бесконечномерному подмножеству функционального пространства. Пусть A'eIR' - случайный вектор, У е IR1 - случайная величина. Традиционной и наиболее изученной задачей Н. р. а. является оценивание функции регрессии f(x) = E{Y\X = х} на нек-ром множестве #£lR по независимым реализациям (Xv Fj), ..., (Хп, Yn) пары (X, У) при априорной информации вида fetf. В качестве класса ^"рассматриваются: а) множество всех измеримых функций; б) множество всех непрерывных функций; в) какие-либо узкие классы функций, определяемые ограничениями на дифференциальные и интегральные свойства, напр. классы Гельдера jf=#"(|$, p, L), где 0<L<°o, d<p<oo> р - натуральное число [класс ^"(р, р, L) есть множество функций, непрерывных на И= [0, 1 ] , частные производные к-рых (в смысле теории обобщенных функций) порядка р образуют вектор-функцию Гг с ||Dv||^^L, где || • L - норма в ЬР(Ю]. Другие примеры - классы монотонных и выпуклых функций регрессии. Рассматривается также примыкающая к теории приближений постановка, в к-рой X, не случайны, Yt = f(Xt) + ^it £f - независимые случайные величины. Основные непараметрич. оценки функции регрессии линейны по Уг и могут быть записаны в виде f„(x) = JJliW,„(x,Xt,...,X„)Yv (О где Wni - нек-рые весовые функции. Регрессограмма - наиболее очевидная непараметрич. оценка функции регрессии. Пространство В? разбивается на непересекающиеся подмножества. Регрессограмма определяется как кусочнопостоянная функция, значение к-рой на подмножестве разбиения равно среднему наблюдений Уг, для к-рых предикторы Xt попали в это подмножество. Соответствующая весовая функция равна Wt IUx1,...,x„) = XJ=1 l-^ У- (0/0 = 0), H ,'«i«V где Ап: - непересекающиеся множества лебеговской меры Хп такие, что II? = (J =1 An.t I - индикаторная функция, >.„->0, Х„>0. Ядерная оценка (оценка Надарая - В атсо на) определяется весовой функцией Wjx, Xj, ..., Xn) = K«x-Xi)/Xn)/%l.= ] K((x-Xt)/Xn), где К - ограниченная абсолютно интегрируемая функция на II? (ядро). Здесь и далее а/0 = 0, д s И? . Величина Хп называется шириной окна ядерной оценки. Оценка ближайших соседе й определяется так же, как ядерная оценка, с тем отличием, что ширина окна зависит от х, Xj, ..., Хп и равна расстоянию от точки х до kn-ro ближайшего к х элемента выборки Х\, ..., Хп. Здесь &„-><*> - заданная последовательность натуральных чисел. Пусть {ф.}, /=1, 2, ...,- ортонормальная система функций на £, по к-рой разложима f. Находя оценки коэффициентов разложения и подставляя их в начальный отрезок ряда, получают проекционную рценку для f. Весовая функция имеет вид Wni(x, X,, ..., Хп)=К(х, Xi)/£"al К(х, Х(), где К(х,у) = ^%(х)ф). Сплайн-оценка функции регрессии на И = [а, Ь\ определяется как решение задачи на минимум: Y- i <У, - Д*,-»2 +*■„ Г <f(f>)<*))2</*-> min . 1-1 Ja fe\\f[a,b] Здесь Р^2 - натуральное число и WJfia, b] - пространство Соболева. Обычно рассматривается случай Р = 2, когда решением задачи является кубич. сплайн с узлами в точках Хг. Сплайн-оценку можно представить в виде (1). В случае, когда Х{ равномерно распределены на отрезке, ядерная оценка и оценка ближайших соседей асимптотически эквивалентны, а проекционная оценка с тригонометрич. системой {<р:} и сплайн-оценка асимптотически эквивалентны специальным случаям ядерной оценки. Точность непараметрич. оценок регрессии зависит от выбора параметра сглаживания Хп (или соответственно kn). Для состоятельности непараметрич. оценки функции регрессии необходимы условия: 1) Хп -> 0 (&„/и->0) и 2) пХп^> оо (&„-><*>), обеспечивающие стремление к 0 при и->°° смещения и дисперсии. Если априорная информация задана в виде а), то существуют оценки (1), состоятельные в метриках Lp, р < <*>. Имеет место свойство универсальной состоятельности (см. [9]): существуют оценки (1) такие, что Е{|У|(/}<оо^Е{|/*„(Х)-ДХ)|^}->0, /i->~, q>\, где Е - математич. ожидание по X, Xj, ..., Хп. При априорной информации вида б) достигается поточечная и равномерная на компактах состоятельность определенных типов оценок. Априорная информация вида в) позволяет исследовать асимптотику риска оценок и исходя из нее оптимизировать параметр сглаживания. Существует два подхода к оптимизации параметра сглаживания - адаптивный и минимаксный. При адаптивном подходе выбирается случайный, зависящий от (Xj, yt), ..., (Х„, Yn) параметр сглаживания такой, что получаемая оценка асимптотически эквивалентна оптимальной оценке из данного класса. Адаптивный выбор параметра сглаживания осуществляется либо методом подстановки (входящие в выражение для асимптотики оптимального параметра сглаживания неизвестные, напр. производные функции f, заменяются своими состоятельными оценками), либо путем оптимизации нек-рого критерия (критерия Акаике, Мэллоуза, кросс-проверки и др.). При минимаксном подходе отыскивается такая оценка fn, что при п ->°о sup*L(f, /„binf suptf (/\ Tn) sa'W. (2) НЕПАРАМЕТРИЧЕСКИЙ 393
Здесь aq(f, Tn) = E{\\f-Tn\\2q} - риск оценки Тп, 1 ^g^°°, mf берется по всевозможным оценкам Тп и знак ~ обозначает асимптотич. эквивалентность (в точном смысле или по порядку величины). Минимаксная оценка fn и ее параметр сглаживания зависят от параметров класса Л Оценка fn, для к-рой в (2) имеет место точная асимптотич. эквивалентность, найдена при q = 2, ^"=^(p, 2, L) (см. [7]). Асимптотич. эквивалентность по порядку получена при \^q^oo для &{$, р, L) и для нек-рых других классов (см. [2], 13], [10]). В частности, #*Ыр, р, L))XЯ'2Й/(2И), и->°°, при p/q>d/{2$ + d), \ ^q^oo (см. [3]). Оптимальный порядок п Vl v достигается при Хп X п ' v для ядерной и сплайн-оценок (для регрессограммы лишь при Р= 1). В ряде случаев предпочтительны непараметрич. оценки функций распределения, нелинейные по У): при робастном оценивании функции регрессии на фоне шума, содержащего выбросы (см. [4], [5]), при необходимости обеспечить заданные функциональные свойства оценки [напр., монотонность, выпуклость (см. [4])] или одновременную оптимальность по порядку для всех q (см. [3]). При адаптивном выборе параметра сглаживания оценки тоже оказываются нелинейными. В задаче робастного оценивания непараметрич. регрессии предполагается, что fix) - нек-рый функционал от условного распределения F{Y ^у\Х = х) (напр., его медиана); условное среднее E{Y|X = #} при этом может не существовать. Оценка fnix) ищется в виде такого же функционала от оценки условного распределения (см. [5], [9]): F„(.Y^y\X = x) = j;j=Wni(x, X„ ..., Х„ЖУ,<у) или в виде решения экстремальной задачи (см. [4]): У" ЯУ;-ДХ,.))->тт, (3) где F - заданная выпуклая функция. Решение задачи (3) обладает правильными функциональными свойствами - сама оценка принадлежит ,и7. Основные результаты Н. р. а. переносятся на задачи оценивания производных регрессии (см. [3], [10]), непараметрич. предсказания временных рядов (см. [6], [8]). Специфич. случаем Н. р. а. является задача непараметрического дискри- минантного анализа. Лит.: [1] Надарая Э. А., Непараметрическое оценивание плотности вероятностей и кривой регрессии, Тб., 1983; [2] Ибраги мов И. А., Хае ьм и не кий Р. 3., «Докл. АН СССР», 1980, т. 252, № 4, с. 780-84; [3] Немировский А. С, «Изв. АН СССР. Тех- нич. кибернетика», 1985, № 3, с. 50-60; [4] Немировский А. С, Поляк Б. Т., Цы баков А. Б., «Проблемы передачи информации», 1985, т. 21, № 4, с. 17-33; [5] Цыбаков А. Б., там же, 1982, т. 18, № 3, с. 39-52; [6] Collomb G., «Int. Statist. Rev.», 1981, v. 49, № 1, p. 75-93; [7] Nussbaum M., «Ann. Statist.», 1985, v. 13, № 3, p. 984-97; [8] Hardle W., Applied nonparametric regression, Camb., 1990; [9] Stone C.J., «Ann. Statist.», 1977, v. 5, № 4, p. 595-645; [10] его же, там же, 1982, v. 10, № 4, p. 1040-53. А. Б. Цыбаков. НЕПАРАМЕТРИЧЕСКОЕ ИНФОРМАЦИОННОЕ КОЛИЧЕСТВО (nonparametric Fisher information) - см. Непараметрическое оценивание. НЕПАРАМЕТРИЧЕСКОЕ ОЦЕНИВАНИЕ (nonparametric estimation) - раздел теории статистического оценивания, имеющий дело либо с оценкой бесконечномерного параметра, либо с оценкой конечномерного параметра в присутствии бесконечномерного мешающего параметра. Процедуры Н. о. для частных случаев изучались еще А. Лежандром (A. Le- gendre), К. Гауссом (С. Gauss) и П. Лапласом (P. Laplace). В. И. Гливенко, Р. Мизес (R. Mises), A. H. Колмогоров и Н. В. Смирнов в 30-х гг. 20 в. внесли важный вклад в анализ 394 НЕПАРАМЕТРИЧЕСКОЕ эмпирич. распределений. Хотя нек-рые оценки плотности распределения, оценки по наблюдениям (гистограмма, частот полигон) известны давно, систематич. изучение таких оценок было начато в 50-х гг. Н. В. Смирновым, М. Розенблаттом (М. Rosenblatt) и Н. Н. Ченцовым. Наиболее типичные результаты и методы Н. о. иллюстрируются ниже на следующих важных моделях статистич. экспериментов. Модель 1. Наблюдается выборка Xv ..., Хп, состоящая из независимых случайных величин с неизвестной функцией распределения F{x), jcelR1. Модель 2. Наблюдается отрезок Yj, ..., У„ стационарной гауссовской случайной последовательности с неизвестной спектральной функцией F{X), \Х\ ^п. Модель 3. Наблюдается неизвестный сигнал f(t), 0 ^ £ ^ 1, в смеси с i ауссовским белым шумом интенсивности е2, е->0, то есть I XEit) = F{t) + Ew{t), F(t)=Jl f{s)ds, wit) - стандартный винеровский процесс. Далее рассматриваются нек-рые типы задач для этих моделей. I. Оценивание неизвестного закона в слабой то по л о г и и. Для задачи оценки Fix) в модели 1, F(X) в модели 2, F(t) в модели 3 характерно существование состоятельных в сильном смысле (при я->°° или е->0 соответственно) оценок при весьма общих условиях. Кроме того, для этих задач существуют простые и, как правило, хорошо изученные оценки, к-рые в естественном смысле неулучшаемы. Для Fix) такой оценкой является выборочная эмпирич. функция распределения Fnix) = и1/(_„«, г)(Хг), для F{X) - интеграл | от периодограммы 1п{Х), то есть оценка вида Fna) = -±-\X |У" , Yke-isk\2ds=(X Inis)ds. Для Fit) естественно рассматривать оценку Xeit). В этих примерах распределения нормированных разностей yfniFTlix)- Fix)), yfniFniX)- FiX)) асимптотически (при п -> оо) сходятся к распределению гауссовских случайных процессов с нулевым средним и корреляционными функциями FixAy) - Fix)Fiy), 2% j^ iFis))2ds, где алЬ = т'т{а, b), a z~\Xs{t) -Fit)) = wit). Эти оценки асимптотически минимаксны. Существует обширная литература, в к-рой обсуждаются качество приближения процесса ап{х) = ^fn{Fn{x)- Fix)) предельным гауссовским процессом (броуновским мостом или так наз. процессом Кифера [1]) и предельные распределения sup|a„Cr)| {Колмогорова paenve- X f 9 ' деление) и J anix)dF{x) {Смирнова распределение). По ю- | воду сильной аппроксимации а„(л:) последовательностью гауссовских процессов см. [1]. II. Оценивание неизвестного закона в силь- I ной топологии. Важные примеры нерегулярных задач оценивания доставляют оценки плотности fix) = F'ix) в модели 1, оценка спектральной плотности f{X) = F'{X) в модели 2 и оценка сигнала fit) в модели 3. Эти задачи родственны некорректным задачам математич. физики, так как малое изменение модели [то есть функций Fix), F{X), Fit)] в равномерной метрике и даже в метрике полной вариации может вызвать большое изменение оцениваемых функций f. Поэтому для возможности состоятельного оценивания необходима дополнительная априорная информация об оцениваемой I функции типа feF (как минимум, что наблюденный закок F
обладает плотностью; см. [2|, [3]). Как правило, для возможности равномерно в if состоятельного оценивания необходимо, чтобы множество ^/было компактным в соответствующем функциональном пространстве, а точность оценивания зависит от качества приближения f конечномерными подпространствами. Впервые оценки точности качества оценивания плотности f в информационной метрике в терминах «-мерного внутреннего радиуса (снизу) и «-мерного поперечника множества ^/(сверху) даны Н. Н. Ченцовым [3] (см. Точечная статистическая оценка). Эти результаты были обобщены и на другие перечисленные задачи и более общий класс функций потерь. Наиболее часто применяемыми способами оценивания в нерегулярных задачах являются ядерные оценки Розенблатта - Пар- зена и проекционные оценки Ченцова. Ядерные оценки. Пусть К(х) -интегрируемая функция, для k-рой (K(x)dx = 1 (область интегрирования - прямая И?1, [-тс, я], fb, 1] в моделях 1, 2, 3 соответственно), a hn, /ге->0 (при и->°°, £->0) - функции, причем h/z„->°o (И->оо), £ lh (е->0). Ядерными оценками/* в моделях 1, 2, 3 называются оценки вида (см. [4]) '.<<>=rH?K(ft (1) (*) С помощью выражений вида (1) можно, выбирая функцию К(х) и весовую последовательность hn(he) подходящим образом, получить оценки, сходящиеся к оптимальной по порядку величины при и->°о (е_>0) скоростью сходимости в различных классах ,/. Типичный результат в этом направлении следующий. Пустьf^' L) (P = & + а, 0^а^ 1, k^O - целое) множество k раз дифференцируемых функций таких, что f удовлетворяет условию Гельдера в II? с показателем а и константой L. Пусть К(х) ограничена, достаточно быстро убывает на °°, \Kdx=\ и, кроме того, f . xJK(x)dx = 0, J -г / = 1, ..., k. Тогда при hn = cri~x' * оценка (1) сходится к f(x) со скоростью ~п~^' ^ . Точнее, для любой положительной, монотонной при х>0, не слишком быстро растущей при х- функции 1(х) справедливо неравенство sup sup п feJW supEl(rfl№l)\fn(x)-f(x)i д-ell?1 С другой стороны, оценок, сходящихся с более высокой скоростью равномерно в достаточно «массивном» подмножестве & *' , не существует (см. [6]). Этот результат обобщался в различных направлениях; напр., он остается в силе, если вместо уклонений в точке измерять потери в Lp-нормах, 2^р<со, однако для /? = °° скорость сходимости оказывается равной (л/1пл)р/(2р+,) (см. [4], [6J, [7]). Аналогичные результаты получены для оценки спектральной плотности, для оценки, сигнала в гауссовском белом шуме, для оценок производных этих функций, для оценки регрессии и т. д. Для нек-рых множеств f, когда функция потерь представляет собой квадрат £2-нормы разности оценки Тп и оцениваемой функции, удается найти оценки /„*, асимптотически минимаксные не только по порядку величины скорости сходимости риска, но и в том смысле, что infsupE, |ГЯ-/Г sup I/;-/ii2 fs.f (2) Первые такие оценки построены в [8] для оценивания сигнала в гауссовском шуме (см. также [9]). Проекционные оценки. Пусть плотность распределения fix), х е IP", разложена в ряд по нек-рой ортонормирован- ной системе функций tyix) e L (|i), так что /"=У.С|ф|, Ограничиваясь конечным числом членов ряда N и оценивая каждый из коэффициентов Фурье с{ выражением с! = [cpj<iF„, приходят (см. [4]) к семейству оценок (3) Увеличение N ведет к уменьшению смещения оценки, но увеличивает ее дисперсию. Для конкретных множеств J часто можно так выбрать N, что получающаяся оценка имеет оптимальную по порядку величины скорость сходимости к / (см. [2]). В [8] для случая, когда if- бесконечномерный эллипсоид, показано, что (2) имеет место на модифицированных проекционных оценках, когда вместо с{ в (3) входят величины xinct , где множители xin заключены между 0 и 1 и зависят, конечно, от параметров эллипсоида. В [9] предложен вариант таких оценок, когда параметры эллипсоида заранее неизвестны (то есть неизвестна степень гладкости оцениваемой функции /). Другие подходы к задачам оценивания / (в частности, метод «решета» Гренандера) см. в [8]. III. Свое место в Н. о. занимают методы исследования связей между случайными величинами по статистич. данным (регрессионный анализ и др.) типа оценки по наблюдениям (X,, Yt) функции регрессии д(х) = Е(У |Х = х) для двумерного случайного вектора (X, У). Ее естественная формулировка использует существование двумерной плотности f(x, у) распределения (X, У), и методы ее оценки близки к оценкам плотности (см. [9]). Типичной задачей с бесконечномерным мешающим параметром является оценка параметра сдвига в1-в2 двух выборок Xj0, ...,Х^иХ^\ ...,Х^2), отвечающих соответствующим неизвестным распределениям F(x-Q ) и Я*-е(2)). IV. Классич. задачами математич. статистики являются оценки по выборке таких функционалов от функции распределения F, как медиана, квантили, среднее, дисперсия и моменты. Обычно в их качестве выступают соответствующие функционалы от эмпирич. функции распределения (напр., выборочная медиана, выборочная квантиль). В настоящее время развивается теория Н. о. скалярных и векторных функционалов *Р от неизвестной плотности / в моделях 1, 2, 3 и им подобных, не представимых в виде функционалов от первообразной F. В модели 1 такой задачей будет, напр., оценка моды, не имеющая смысла для F с дискретной или сингулярной компонентами. Общий метод нахождения минимаксных нижних границ качества И.о., предложенный в [10], состоит в «отыскании» наименее информативного параметрич. семейства {/е, ве0}, /0 = /, 0 cz IR1, удовлетворяющего условию ¥(/е) = 6, и использовании минимаксной нижней границы для этого наиболее трудно оцениваемого параметрич. семейства. Информационное количество Фишера /(/) для такого семейства называется непараметрическим информационным количеством в «точке» /. Доказано, что в случае дифференци- руемости функционала *Р в соответствующем смысле и достаточной «обширности» множества if в окрестности данной точки /непараметрич. информационное количество существует, и его вид для моделей 1, 2, 3 таков. НЕПАРАМЕТРИЧЕСКОЕ 395
Если в модели 1 функционал ¥(/) дифференцируем по Фреше в L2(ll?1), а его производная ¥'(/*,•) € 12(/),то nf) = [h< |Ч"(Л *>-Е^'<Л X)\2nx)dxj\ Если в модели 2 функционал ¥(/*) дифференцируем по Фреше в L2[0, тс] и sup |^4/*,-)|L2(0,ю<00> то HP = = 1Л-тл-)|-2210§я1. Если в модели 3 функционал ¥(/) дифференцируем по Фрешев12[0, 1], то /(/")= IIЧ'Ч/',-) II^10, ц- Оценка Ч*п называется асимптотически эффективной непараметрической оценкой функционала ¥(/*) на множестве U &J по отношению к функции потерь w, если lim sup {E,o>(Vn (Фп- ТС^-Е^СУ"1/2(/"))} = О, где £ - гауссовская случайная величина с параметрами 0, 1 (в модели 3 следует положить п ' = е~ ). Естественность данного определения вытекает из упомянутой минимаксной границы снизу, утверждающей, что для симметричной монотонной при х>0 функции w левая часть неотрицательна для любой последовательности оценок *РЯ и любой достаточно обширной окрестности U э f. Во многих случаях асимптотически эффективные непара- метрич. оценки для конкретных функционалов построены. Так, для оценивания линейных функционалов M/*) = J , vMfMdx, L2(f) = J*q>a)/UWA., L3(f)= \lv(t)f(t)dt в моделях 1, 2, 3 асимптотически эффективные непараметрич. оценки строятся однообразно: It=J , <p(x)dFn(x), L2 = jK0q>a)Ina)dX, L:i = f04>(t)dXe(t), где Fn(x), Fn(k), Xe(t) - оценки из н. I. Для нелинейных функционалов нек-рых конкретных типов асимптотически эффективные непараметрич. оценки были предложены в [7]. Общий прием построения асимптотически эффективных непараметрич. оценок достаточно гладких функционалов основан на приближении значения ¥(/*) нелинейными функционалами с помощью формулы Тейлора и оценки соответствующих полилинейных функционалов. Реализация этой идеи, в частности для функционалов, имеющих лишь первую производную, приводит к оценкам Ч\!1) = W„) + J , Ч"(/"и, x)(dFn(x)-fn(x)dx), ^2)=ччл.)+С ч^д,, шяа) - ЛА>ш. ^3) = We)+ Jo^/e» t)(dX£(t)-fe(t)dt), где fn, fz - H. o. f, см. п. П. Оценки *F^ (точнее, нек-рые их модификации) при нек-рых условиях суть асимптотически эффективные непараметрич. оценки (см. [11, 12]); напр., аналогичные концепции развиты для функционалов *F:^"->IR (см. 111]). Они приводят к понятию непараметрич. информационной матрицы и соответствующим минимаксным 396 НЕПАРАМЕТРИЧЕСКОЕ нижним границам. Более того, в [ 12 ] рассмотрено обобщение этих концепций на задачу оценивания функционала Ч/: &-+ Я, где 33 - нек-рое банахово пространство. Построен соответствующий бесконечномерный аналог информационной матрицы и с его помощью доказан локально асимптотически минимаксный характер оценок п. I. Развитие этих идей см. в [13|. К тематике Н. о. относятся также проблемы построения адаптивных оценок, рекуррентного оценивания, рангового оценивания, бутстрапа метода оценивания, складного ножа метода, «перекрестного экзамена» и т. д. Современный подход к построению робастных оценок также основан на концепциях Н. о. Лит.: [1] Csorgo M., Revesz P., Strong approximations in probability and statistics, Bdpst, 1981; [2] ЧенцовН.Н., «Теория вероятн. и ее примен.», 1981, т. 26, в. 1, с. 15-31; [3] его же, Статистические решающие правила и оптимальные выводы, М., 1972; [4] Parzen E., «Ann. Math. Statist.», 1962, v. 33, № 3, p. 1065-76; [5] Ибрагимов И. А., ХасьминскийР. 3., Асимптотическая теория оценивания, М., 1979; [6] Пинскер М.С., «Проблемы передачи информации», 1980, т. 16, в. 2, с. 52-68; [7] NussbaumM., «Ann. Statist.», 1985, v. 13, № 3, p. 984-97; [8] GrenanderU., «Abstract Inference», N. Y. - la. o.], 1981; [9] НадараяЭ.А., Не- нараметрическое оценивание плотности вероятностей и кривой регрессии, Тб., 1983; [10] Levit В.J., в кн.: Proseeding of the Prague symposium on asymptotic statistics, v. 2, Praha, 1973, p. 215—38; [И] КошевникЮ. А., Левит Б. Я., «Теория вероятн. и се примени, 1976, т. 21, в. 4, с. 753-74; [12] Левит Б. Я., там же, 1978, т. 23, в. 2, с. 388-94; [13] Millar P., The minimax principle in asymptotic statistical theory, В., 1983; [14] Pfanzagl J., Contributions to a general asymptotic statistical theory, N. Y. - [a. o.], 1982. P. 3. Хасьминский. НЕПАРАМЕТРИЧЕСКОЕ ОЦЕНИВАНИЕ плотности вероятности (nonparametric estimation of probability density) - статистическое оценивание при условии, что неизвестна структура плотности. Нек-рые методы Н. о. могут использоваться даже тогда, когда полностью отсутствует априорная информация о плотности вероятности. Ее Н. о., напр., используется при решении задач классификации наблюдений, когда требуется применить отношение правдоподобия для построения решающего правила. Пустьхх, ..., хп - независимые и одинаково распределенные наблюдения над нек-рой w-мерной случайной величиной X. Оценка плотности распределения определяется следующим образом: где h - нек-рое число, h'k (y/h) - ядро оценки. В общем случае р (.г) можно представить в виде p^iiluu h,V *«*i -*w y*i <*„ -*„•>/*»>• Таким образом, задача оценивания плотности вероятности может быть сведена к задаче выбора числа h и ядра k(y/h). Оценка р(х) является состоятельной и асимптотически несмещенной, если функция k(y/h) и h удовлетворяют условиям jk(y/h)dy/h"' = \k(z)dz=\, j\k(y/h)\dy/hm = j \k(z)\dz <oo, sup \k(y/h)\ =sup \k(z)\ <°°, у * lim \(y/h)k(y/h)\= Vim U(2)|=0, y/h Z{ -► oo а также условию асимптотич. несмещенности lim hm--0, условию состоятельности lim nhm = °° и условию равномерной сходимости lim nh w = °°. п -> «> Лит.: 11] Фу к у нага К., Введение в статистическую теорию распознавания образов, пер. с англ., М., 1979. Т. В. Павленко.
НЕПЕРИОДИЧЕСКАЯ ЦЕПЬ МАРКОВА (noncyclic/ape- riodic Markov chain) - то же, что ациклическая цепь Маркова (см. также Маркова цепь). НЕПЕРИОДИЧЕСКОЕ СОСТОЯНИЕ цепи Маркова (noncyclic/aperiodic state of a Markov chain) - см. Маркова цепь; классификация состояний. НЕПОЛНОДОСТУПНАЯ СИСТЕМА ОБСЛУЖИВАНИЯ (partially available queueing system) - см. Обслуживания система с отказами. НЕПОЛНЫЙ БЛОЧНЫЙ ПЛАН (incomplete block de- sign) - см. Блочный план, Дисперсионный анализ. НЕПОЛНЫЙ ЛАТИНСКИЙ КВАДРАТ (incomplete Latin square). - см. Латинский квадрат. а-НЕПРЕРЫВНАЯ ФУНКЦИЯ (a-continuous function) - см. о-Измеримая функция. НЕПРЕРЫВНОЕ РАСПРЕДЕЛЕНИЕ (continuous distribution) - распределение вероятностей, не имеющее атомов (см. Атомическое распределение). Вероятностное распределение на прямой непрерывно тогда и только тогда, когда непрерывна соответствующая функция распределения. Н. р. может быть абсолютно непрерывным (это наиболее важный подкласс Н.р.), сингулярным либо смесью абсолютно непрерывного и сингулярного распределений. Иногда Н.р. называют абсолютно непрерывное распределение. Н. Г. Ушаков. НЕПРЕРЫВНОЕ СВЕРХУ СЛУЧАЙНОЕ БЛУЖДАНИЕ (random walk continuous from above) - см. Граничные задача для случайных блужданий. НЕПРЕРЫВНОЕ СНИЗУ СЛУЧАЙНОЕ БЛУЖДАНИЕ (random walk continuous from below) - см. Граничные задачи для случайных блужданий. НЕПРЕРЫВНЫЙ ПОТОК (continuous flow) - семейство автоморфизмов {Т*, te№} пространства с мерой (X, Л, |i), являющееся потоком и удовлетворяющее условию: для любой функции feL (X, .с/, ц) отображение И?-»/. (X, .с/, |i), при к-ром t е IP, переходит в g(x) = f(Tfx), x e X непрерывно. Б. М. Гуревич. НЕПРИВОДИМАЯ ЦЕПЬ МАРКОВА (irreducible Markov chain) - то же, что неразложимая цепь Маркова. НЕРАВНОВЕСНАЯ СТАТИСТИЧЕСКАЯ МЕХАНИКА (nonequilibrium statistical mechanics) - см. Статистическая механика. НЕРАВНОМЕРНЫЙ КОД (variable length code) - код, имеющий неравномерное входное или выходное кодовое множество (см. ниже). При кодировании источника сообщений порождаемая им последовательность разделяется на слова, образующие нек-рое входное префиксное множество (то есть множество, в к-ром никакое слово не является началом другого). Кодирование состоит в замене этих слов словами другого - выходного префиксного множества. Если длины всех слов входного (или выходного) множества равны между собой, то оно называется равномерным или блочным, в противном случае - нерав ном ер н ы м. Соответственно, код называется равномерным или неравномерным по входу или выходу. Неравномерные по входу и выходу коды имеют меньшую стоимость кодирования при той же средней длине слов входного множества, чем коды, равномерные лишь по входу. Существуют неравномерные по входу, но равномерные по выходу коды, стоимость к-рых сколь угодно близка к энтропии источника. Лит.: [1] ХодакГ.Л., Проблемы передачи информации, 1972, т. 8, № 2, с. 21-32. Р. Е. Кричевский. НЕРАЗЛОЖИМАЯ ЦЕПЬ МАРКОВА (indecomposable Markov chain), неприводимая, - конечная или счетная цепь Маркова, все состояния к-рой сообщаются друг с другом (см. Маркова цепь; классификация состояний). Все состояния Н. ц. М. одновременно либо существенны, либо несущественны и либо возвратны, либо невозвратны. В общей теории цепей Маркова понятие Н. ц. М. имеет соответствующий аналог (см. Маркова цепь). М. Г. Шур. НЕРАЗЛОЖИМОЕ РАСПРЕДЕЛЕНИЕ (indecomposable distribution) - распределение вероятностей, не представимое в виде свертки двух невырожденных распределений. Примерами Н.р. на прямой могут служить распределение арксинуса, смесь нормального и пуассоновского распределений. В IP", п ^ 2", неразложимым является любое распределение, носитель к-рого представляет собой объединение конечного числа прямых, пересекающихся в одной точке, или совпадает с нек-рой строго выпуклой замкнутой гиперповерхностью. В настоящее время неизвестно полное описание множества Н.р., однако известно, что класс Н. р. достаточно широк - множество Н.р. плотно в множестве всех вероятностных распределений в сильной топологии, порожденной расстоянием по вариации. В полугруппе вероятностных распределений с операцией свертки в качестве умножения множество Н. р. можно рассматривать как нек-рый аналог множества простых чисел в множестве натуральных чисел. Лит.:[\\ Л инн и к Ю. В., Острове кий И. В., Разложения случайных велич! н и лекторов, М., 1972; [2] Ушаков В.Г., Ушаков Н. Г., «Теория иероятн. и ее примен.», 1984, т. 29, в. 2, с. 348-51. Н. Г. Ушаков. НЕРАЗЛОЖИМЫЙ ВЕТВЯЩИЙСЯ ПРОЦЕСС (indecom- posable branching process) - ветвящийся процесс с конечным числом типов частиц, в к-ром частица каждого типа с положительной вероятностью может иметь своим потомком (непосредственным или отдаленным) частицу любого типа. Асимпто- тич. поведение Н. в. п. с п типами частиц Z(0 = (Z1(0, ..., Zn(t)), где Zk(t) - число частиц /г-го типа в момент времени t, аналогично поведению ветвящегося процесса с одним типом частиц. Пусть имеется процесс с дискретным временем. Если положить Aij(t) = E(Zj(t)\Zk(0) = btk, k = \, ..., п), A(t) = (Лу-Ш), то A\t) =ЛЧО. Для неразложимых процессов матрица л(1) неразложима. Пусть, кроме того, Л(1) непериодична. Тогда Л1-|(0 = м1-вуА,* + о(А/), £-><*>, где Х- корень А(\); (щ, ип), (и. ) перронов правый и левый собственные векторы Л(1), соответствующие X. Н. в. п. называется докритическим, если Х<\; надкритическим, если Х> 1; критическим, если X = 1, и множество типов не образует финального класса. Нек-рые результаты об асимптотич. поведении Н. в. п. получаются в предположении конечности вторых моментов Z(t). Вероятность продолжения процесса OI(O = P{Z1(rt + ...+Z„(O>0|Z/k(0) = 6l-/kf k=\, ..., п} для докритич. процессов при любом i и t->°° убывает экспоненциально, а для критич. процессов убывает пропорционально \/t. При t->°° распределения Z«(t)-<xn\Zk(0) = bik, k = \,...,n; X"=1Z,(0>ol Ain(t) для докритич. процессов сходятся к дискретным распределениям, для критических и надкритических - к распределениям, сосредоточенным на диагонали х^ = х2 = ... =хп. В критич. случае распределение на диагонали является показательным. Аналогичные результаты получены для Н. в. и. с непрерывным временем. Лит.: [1] Севастьянов Б. А., Ветвящиеся процессы, М., 1971. В. П. Чистяков. НЕРАЗЛОЖИМЫЙ 397
НЕРАНДОМИЗИРОВАННАЯ РЕШАЮЩАЯ ФУНКЦИЯ (nonrandomized decision function) - см. Статистических решений теория. НЕРАНДОМИЗИРОВАННАЯ СТРАТЕГИЯ (nonrandomized strategy/policy) - см. Стратегия, Управляемый случайный процесс с дискретным временем. НЕРАНДОМИЗИРОВАННОЕ РЕШЕНИЕ (nonrandomized decision) - решение, принятое согласно нерандомизированной решающей функции (см. Статистических решений теория). Л. В. Бернштейн, И. Н. Володин. НЕРАНДОМИЗИРОВАННЫЙ КРИТЕРИЙ (nonrandomized test) - статистический критерий, критическая функция ф к-рого принимает только значения 0 и 1. Н. к. задается критич. областью S = {х:у(х) = \}, при попадании в к-рую результата наблюдений нулевая гипотеза отвергается. В практике используют только Н. к. Размер Н. к. может (для дискретных распределений) не достигать заданного уровня значимости. В этом случае принято указывать фактич. размер такого критерия. См. Статистических гипотез проверка. Д. М. Чибисов. НЕРЕГУЛЯРНЫЙ ВЕТВЯЩИЙСЯ ПРОЦЕСС (nonregular branching process) - см. Ветвящийся процесс; регулярность. НЕСИММЕТРИЧЕСКАЯ СЛУЧАЙНАЯ МАТРИЦА (поп symmetric random matrix) - квадратная таблица, элементы к-рой являются случайными величинами. Собственные значения действительной Н. с. м. Еп = ||1Ы| порядка п равны Xk + i\ik, Xk-i\ik, k = 1, ..., s, и X{, / = s + 1, ..., n - 2s, а собственные векторы zk = xk+iyk, zk = xk-iyk, k= 1, ..., s и zt = xt, l = s+\, ..., и-2s, где xk, yk и Х[- действительные векторы. Комплексные собственные значения матрицы Еп упорядочивают в порядке возрастания их модулей. Если у комплексных значений (среди к-рых нет сопряженных) совпадают модули, то их упорядочивают в порядке возрастания аргумента. Среди пар сопряженных собственных значений на первое место ставят то, у к-рого мнимая часть больше нуля. Действительные собственные значения упорядочивают в возрастающем порядке. Если у матрицы Еп существует плотность распределения, векторы xk, yk, k=\, ..., s, xh / = s+l, ..., и-2s, единичной длины и первая ненулевая компонента каждого вектора больше нуля, то они с вероятностью 1 будут определены однозначно. Матрица Еп с вероятностью 1 равна - -TdiatJI *1 Ml II ^ Й5 II X X Ir"1 III ^1 Л1 II II ^5 Л5 II J Тп - действительная невырожденная с вероятностью 1 матрица, вектор-столбцами к-рой являются векторы xk, yk, k = 1, ..., s, X[, / = s + 1, ..., n-2s. Пусть К - группа «-мерных невырожденных действительных матриц, В есть а-алгебра борелевских подмножеств группы К, a Qk = Xk±i[ik, k=\, ..., s, 6W, m = s+\, ..., и-2s, - собственные значения матрицы Еп, выбранные вышеуказанным способом. Если существует плотность распределения р случайной матрицы Еп, то для любого подмножества L еВ и любых действительных чисел а,, ру, /= 1, ..., п, можно вычислить (см. [1]) P{TneL, Re6;<a;, 1тв;<Р;, ;=1, ..., п}. Пусть Еп= ||§sk+ it)sk\\ - комплексная матрица п-го порядка и у случайных величин §sk и r\sk, s, k=\, ..., п, существует совместная плотность распределения, собственные значения X.-, j = 1, ..., п, матрицы Еп упорядочены в порядке возрастания 398 НЕРАНДОМИЗИРОВАННАЯ их аргументов, h\, ..., hn - собственные векторы, соответствующие собственным значениям Х\, ...,Хп, а Нп- матрица, у к-рой вектор-столбцы равны векторам hlt 1= \, ..., п. Матрицу Еп с вероятностью 1 можно представить в виде Еп = = НпАпН~\ где Ля= ||A.,6/m||. Если (hk, hk) = \ и argh]k = ck, k=\, ..., п, где ck (0^ck^2n) - произвольные действительные числа, то матрица Нп определена однозначно с вероятностью 1. Пусть К - группа невырожденных комплексных матриц п-то порядка, В есть a-алгебра борелевских подмножеств группы К. Если у матрицы Еп существует плотность распределения, то для любого подмножества L еВ и любых комплексных чисел а., р., /=1, ..., п, можно подсчитать (см. [1]) P{HneL, Rea^<Re^<ReP^, Ima*<Im^<IiruV k=\, .... n}. Если А - комплексная случайная квадратная матрица порядка п, то существует унитарная матрица U порядка п такая, что Т= U AU является верхней треугольной матрицей и элементами главной диагонали матрицы Т служат собственные значения матрицы А. Если А - действительная матрица и имеет действительные собственные значения, то матрицу U можно выбрать действительной ортогональной матрицей. Матрица А нормальна тогда и только тогда, когда Т - диагональная матрица Если собственные значения матрицы А различны и каким-либо образом упорядочены, а аргументы любой ненулевой компоненты каждого вектора-столбца матрицы U фиксированы, то представление Шура матрицы А в виде UTU единственно. Пусть Еп - комплексная Н. с. м. порядка п и у ее элементов существует плотность распределения; Еп= USU - ее представление Шура, диагональные элементы Sy, /=1, ..., п, матрицы выбраны так, чтобы их аргументы были упорядочены в невозрастающем порядке, argM1; = c, /=1, ..., п, где с (О^с ^2л) - произвольные действительные числа, Г - группа унитарных матриц п-го порядка, В есть а-алгебра борелевских подмножеств группы Г, v - нормированная мера Хаара, заданная на группе Г. Тогда для любого подмножества L е В и любого измеримого множества С «-мерных комплексных верхних треугольных матриц можно подсчитать PR/eL,SeC}(cM. [1]). Лит.: [1] ГиркоВ.Л., Теория случайных детерминантов, К., 1980. В.Л.Гирко. НЕСМЕЩЕННАЯ В СРЕДНЕМ ОЦЕНКА (mean unbiased estimator) - см. Несмещенная оценка. НЕСМЕЩЕННАЯ ЛИНЕЙНАЯ ОЦЕНКА (unbiased linear estimator) - линейная оценка функции /*(0) параметра 0 семейства распределений Рв, среднее к-рой по распределению Рв тождественно равно Дв) при всех в. Наиболее популярны Н.л.о. для линейных регрессионных экспериментов, где условие несмещенности оценки а у для линейной формы / в неизвестных параметров 0 € №р имеет вид Фа = /, Ф - матрица эксперимента. д/. б. Малюпюв. НЕСМЕЩЕННАЯ ОТНОСИТЕЛЬНО ФУНКЦИИ РИСКА ОЦЕНКА (risk unbiased estimator) - см. Несмещенная оценка. НЕСМЕЩЕННАЯ ОЦЕНКА (unbiased estimator) - статистическая оценка, математическое ожидание к-рой совпадает с оцениваемой величиной. Пусть X - случайный элемент, принимающий значения в выборочном пространстве (£, Л, Р0), ве0, и пусть Т(Х) - статистич. оценка параметра в, построенная по наблюдению X. Статистика Г(Х) называется несмещенной оценкой параметра в, если Е0Г(Х) = в при
всех в € 0. Часто такая Н. о. Г(Х) называется несмещенной в среднем, желая подчеркнуть, что речь идет об оценке, среднее значение (математич. ожидание) к-рой совпадает с оцениваемой величиной. Пример. Пусть Х=(Х1, ..., Хп) - случайный вектор, компоненты к-рого суть независимые случайные величины, подчиняющиеся одному и тому же показательному закону, плотность вероятности к-рого есть г< пч [в"1*-"79, если х^О (в>0), / U, в) = < [О в противном случае. В этом случае статистика Хп = (Xj + ... + Хп)/п является Н. о. параметра в. С развитием математич. статистики и формализацией ее идейна языке теории статистич. решающих функций (правил) Э. Леманом (Е. Lehmann, см. [1]) было дано определение понятия несмещенности статистич. решающего правила, выраженное в терминах функции риска E0L(7\ в) статистич. оценки Т(Х) параметра относительно выбранной функции потерь L(T, X). Оценка Г(Х) называется несмещенной относительно функции риска E0L(7\ в), если E0L(7\ Х)^ ^E0L(7\ в') при всех в'*6. Классич. определение несмещенной (в среднем) оценки является частным случаем этого определения. Именно, пусть L(T, Х) = (Г-в) . Статистика Т будет несмещенной оценкой параметра 0 относительно квадра- тич. функции риска Е0(Г-6) тогда и только тогда, когда 7(Х) является несмещенной в среднем оценкой параметра в. Если в качестве функции потерь выбрана L(T, в) = |Г-в|, то оценка Т будет несмещенной относительно функции риска Е0|Г-0| тогда и только тогда, когда медиана статистики med0r = e, ве0, где тес10Г- медиана статистики Т. Такая оценка часто называется медианно несмещенной. Напр., в условиях примера статистика является медианно Н. о. параметра в, где X =(Х(1), ..., Х(и)) - вектор порядковых статистик, построенный по выборке X = (Xj, ...,Х„). В инженерной практике большую роль играют статистич. оценки, несмещенные относительно функции риска Р0{|Г-в| ^е}, где е - заранее фиксированное положительное число. Эта функция риска отвечает функции потерь ит, е) = Г [о,|г-е|<е. Наконец, на практике иногда пользуются модально несмещенными оценками - так называется оценивающая параметр в статистика, если mod0r = e при всех ве0, где modQT - мода статистики Т. Йапр., в условиях примера статистика 2 п_{ Z*l = \ i n_{ n является модально Н.о. параметра в. Если оценки Т2 и Хп сравнить относительно функции потерь L(T, в) = (1/Т- 1/6), то E0L(7\ 6)>E0(X„, в) при всех в, то есть в этом случае модально Н.о. лучше, чем несмещенная в среднем оценка. Если же эти оценки сравнить относительно функции потерь L(T, в) = (Г/в + в/Г- 2), то окажется, что в этом случае оценки Т2 и Хп имеют один и тот же риск при всех в, хотя Хп стохастически меньше статистики Т2, то есть Р0{Х„ < Т2) = 1. См. также Асимптотически несмещенная оценка. Лит.: [1] Леман Э., Проверка статистических гипотез, пер. с англ., 2 изд., М., 1979; [2] Wasan Т., Parametric estimation, N. Y. - [а. о.], 1970; [3] VoronovV.G., NikulinM.S., Unbiased estimators and their application, v. 1-2, Dordrecht, 1993-96. M. С. Никулин. НЕСМЕЩЕННАЯ РЕШАЮЩАЯ ФУНКЦИЯ (unbiased decision function) - см. Несмещенность статистической процедуры. НЕСМЕЩЕННОЕ ДОВЕРИТЕЛЬНОЕ МНОЖЕСТВО (unbiased confidence set) - доверительное множество, накрывающее неизвестное истинное значение параметра с вероятностью, не меньшей вероятности накрытия любого другого значения параметра. Пусть X - случайный элемент, принимающий значения в выборочном пространстве (£, 33, Р0), ве0, и пусть С(Х) е 0 - доверительное множество, построенное по наблюдению X, причем, коэффициент доверия этого множества равен Р, то есть Р= inf Р0{6еС(Х)}. Если С(Х) таково, что Р^Р0{в'g С(Х)} для любого в'=^в, его называют несмещенным. Лит.: [1] Боровков А. А., Математическая статистика, М., 1984. М. С. Никулин. НЕСМЕЩЕННОЕ ИЗМЕРЕНИЕ (unbiased measurement) - см. Квантовая теория проверки гипотез и оценивания. НЕСМЕЩЕННОСТЬ в теории статистических игр (unbiasedness in statistical game theory) - принцип сужения класса всех решающих правил за счет использования лишь несмещенных правил (несмещенных оценок в теории оценок и несмещенных критериев в задачах проверки гипотез). Пусть D и 0 соответственно суть множество решений и параметрич. множество, w(b, в), beD, ве0, - функция потерь, X е&- выборка из распределения Р0. Решающая функция 8(X):^*->D называется несмещенной, если ЕваК6ЧХ),е)^Е0аК8(Х),в') при любых 6,6Vв. Другими словами, при v = Q достигается min Е0а>(8(Х), v). Это означа- V ет, что 8(Х) в среднем находится ближе всего [в смысле расстояния w(,)] к неизвестному в, чем к какой-нибудь другой точке. Определения несмещенных оценок и несмещенных критериев являются частными случаями этого определения. А. А. Боровков. НЕСМЕЩЕННОСТЬ статистической процедуры (unbiasedness of a statistical procedure) - свойство статистической процедуры, состоящее в том, что принимаемые ею решения находятся ближе (с точки зрения величины средних потерь) к правильному решению, чем к любому из неправильных. Общее определение Н. в рамках теории статистич. решений было дано Э. Леманом [1]: решающая функция 8 = 8(.х) называется несмещенной при заданной функции потерь Ш, d), если E0L(6', 8(Х))^Е0Ш, 5(Х)) для всех точек в, 0' параметрич. пространства 0. Это определение включает как частные случаи известные ранее и широко используемые в статистич. практике определения Н. параметрич. оценки 0: Е06 = в (L - квадратич. функция потерь; см. Несмещенная оценка) и Н. статистич. критерия: мощность критерия больше его размера (L - функция потерь типа 0-1). Сужение класса всевозможных решений функций до класса несмещенных часто позволяет (при наличии полных достаточных статистик) отыскать в этом классе решающие функции с равномерно минимальным риском. Однако лемановское определение Н. несовместимо с бейесовским подходом к задачам параметрич. оценки (см. [2], [3]): бейесовские оценки оказываются, как правило, смещенными, а несмещенными могут быть лишь бейесовские оценки, априорный риск к-рых равен нулю. Лит.: [1] Lehmann E. L., «Ann. Math. Statist.», 1951, v. 22, p. 587-92; [2]Блекуэлл Д., Гиршик М. А., Теория игр и стати- НЕСМЕЩЕННОСТЬ 399
стических решений, пер. с англ., М., 1958; [3] В ickel P. J., В 1 ас k- well D., «Ann. Math. Statist.», 1967, v. 38, p. 1907-11. И. H. Володин. НЕСМЕЩЕННЫЙ КРИТЕРИЙ (unbiased test) - статистический критерий, мощность к-рого не меньше, чем его размер. Если 0 = 0ои0! - нараметрич. пространство и проверяется гипотеза Я0:0 € 0О против альтернативы #j: 0 е 0j, то для Н. к. вероятность (ошибочно) отвергнуть Я0 при любом 0е0о не превосходит вероятности (правильно) отвергнуть Я0 при любом 0 е 0j. Если существует равномерно наиболее мощный критерий, то он - Н. к. В ряде задач при отсутствии равномерно наиболее мощного критерия (в классе всех критериев) может быть найден равномерно наиболее мощный Н. к. в классе Н. к. Это в основном задачи проверки гипотез об одномерном параметре экспоненциального семейства распределений (при возможном наличии мешающих параметров). Лит.: [1] Лсман Э., Проверка статистических гипотез, пер. с англ., 2 изд., М., 1979. ДМ. Чибисов. НЕСМЕЩЕННЫЙ ПЛАН (unbiased plan) - см. Последовательное оценивание. НЕСОБСТВЕННОЕ РАСПРЕДЕЛЕНИЕ (improper destribu tion) - см. Вырожденное распределение. НЕСОВМЕСТИМЫЕ НАБЛЮДАЕМЫЕ (incompatible ob servables) - см. Некоммутативная теория вероятностей. НЕСОВМЕСТНЫЕ СОБЫТИЯ (disjoint/mutually exclusive events) - события А и В, к-рые не могут произойти одновременно. Если А и В - Н. с, то PC4UB) = Р(Л) + Р(В). События A ]t A2, ..., Ап образуют пол ну ю группу событий, или разбиение, если они попарно несовместны и событие Л1иЛ2и...иЛ„ достоверное. Понятия Н.с. и полной группы событий широко используют при выводе многих вероятностных утверждений (см., напр., Бейеса формула, Полной вероятности формула). В.А. Ватутин. НЕСТАЦИОНАРНОСТИ РАНГ (rank of nonstationarity) - см. Спектральные теории нестационарных случайных процессов. НЕСТАЦИОНАРНЫЙ ПОТОК (nonstationary input) - входящий поток, не являющийся стационарным (см. Стационарность потока). Наибольшее применение получил пуассонов- ский Н. п.- входящий поток без последействия, для к-рого число событий в полуинтервале [t, s) распределено по закону Пуассона с параметром A(s)-A(t), где Л(0 - неубывающая функция, называемая ведущей функцией потока. При нек-рых условиях Н. и. обладает мгновенной интенсивностью X(t) и мгновенным параметром \i(t) - абсолютно интегрируемыми неотрицательными функциями, в точках непрерывности к-рых X(t)dt и [i(t)dt обозначают среднее число событий и вероятность хотя бы одного события в интервале (t, t + dt) соответственно. И.Н. Коваленко. НЕСТАЦИОНАРНЫЙ СЛУЧАЙНЫЙ ПРОЦЕСС; закон больших чисел (nonstationary random process; law of large numbers) - см. Больших чисел закон для нестационарных случайных процессов. НЕСТАЦИОНАРНЫЙ СЛУЧАЙНЫЙ ПРОЦЕСС; спек тральные теории (nonstationary random process; spectral theories) - см. Спектральные теории нестационарных случайных процессов. НЕСУЩАЯ ЧАСТОТА (carrier frequency) - см. Амплитудная модуляция. НЕСУЩЕСТВЕННОЕ СОСТОЯНИЕ цепи Маркова (nonessential state of a Markov chain) - см. Маркова цепь; классификация состояний. 400 НЕСМЕЩЕННЫЙ НЕСУЩЕСТВЕННЫЙ КЛАСС СОСТОЯНИЙ цепи Маркова (nonessential set of states of a Markov chain) - см. Маркова цепь; классификация состояний. НЕСУЩИЙ СИГНАЛ (carrier signal) - см. Модуляция и демодуляция. НЕУКЛОННО ОПТИМАЛЬНАЯ СТРАТЕГИЯ (persis tently optimal strategy) - см. Управляемый случайный процесс с дискретным временем. НЕУПРЕЖДАЮЩАЯ СТРАТЕГИЯ (nonanticipating stra tegy) - см. Стратегия, Управляемый случайный процесс с дискретным временем. НЕУПРЕЖДАЮЩАЯ ФУНКЦИЯ, неантисипатив- ная функция (nonanticipating/.^-adapted function), .*/- с о - гласованная функция,.'/-адаптированная функция, - функция f(t, со), (oel), £elR+, задаваемая на вероятностном пространстве (Q, .</, Р) с фильтрацией fr = (,«/t), t e |R+, и обладающая тем свойством, что f(t, со) - .^-измеримая для любого t. Л. И. Гальчук. НЕУПРЕЖДАЮЩИЙ СЛУЧАЙНЫЙ ПРОЦЕСС (nonan- ticipating random process) - см. Согласованный случайный процесс. НЕЦЕНТРАЛЬНОЕ ХИ-КВАДРАТ РАСПРЕДЕЛЕНИЕ (noncentral chi squared distribution), нецентральное Х"-раси ре деление, - непрерывное, сосредоточенное на (О, ©о) распределение вероятностей с плотностью _ g-(x+X)/2jr(>i-2)/2 - ^2 г(1/2+г) РХ 2"/2Г(1/2) ^г=0 (2г)! Г(я/2+г)' где г - число степеней свободы, А, - параметр нецентралыю- сти. При Х = 0 эта плотность совпадает с плотностью обычного (центрального) х~-РасиРеДеления- Математич. ожидание и дисперсия равны соответственно п + X и 2(п + 2Х), характери- стич. функция fit) = (\ -2it)~n/2exp{Xit/(\ -2it)}. U. хи-к p. принадлежит классу безгранично делимых распределений. Обычно Н. хи-к. р. появляется как распределение суммы квадратов независимых случайных величин Хх, ..., Хп, имеющих нормальное распределение с отличными от нуля средними т{ и единичными дисперсиями, точнее, сумма Х\+ ... + X* имеет Н. хи-к. р. си степенями свободы и параметром нецентральности Х = тх + ... + -тп. Сумма нескольких в**аимно независимых случайных величин с Н. хи-к. р. имеет распределение этого же типа, и его параметры суть суммы соответствующих параметров слагаемых. Если п четно, то функция распределения Н. хи-к р. Fn(x; X) раина F ( г V - Y~ V00 IL <V2>W<*/2>* p-(X+x)/2 гп\х, М-^^о Z* = in 2 m\k\ Эта формула устанавливает связь между Н. хи-к. р. и распределением Пуассона. Именно, если X и У имеют распределение Пуассона с параметрами х/2 и Х/2 соответственно, то Р{А" - У ^ s} = F2s(x; X) для любого целого s > 0. Н. хи-к. р. часто возникает в задачах математич. статистики, посвященных исследованию мощности критериев типа хи-квадрат. Так как существующие таблицы Н. хи-к. р. недостаточно полны, то в статистич. приложениях используют различные приближения с помощью % -распределения и нормального распределения. Лит.:[\] Больше в Л. Н., Смирнов Н. В., Таблицы математической статистики, 3 изд., М., 1983; [21 Кендал л М., Стью- арт А., Статистические выводы и связи, пер. с англ., М., 1973; [3] Pat n ai k P., «Biometrika», 1949, v. 36, p. 202. Л. В. Прохоров. НЕЦЕНТРАЛЬНОЕ ^-РАСПРЕДЕЛЕНИЕ (noncentral Т -distribution) - см. Хотеллинга Т '-распределение.
НЕЦЕНТРАЛЬНОЕ ^-РАСПРЕДЕЛЕНИЕ (noncentral X -distribution) - см. Нецентральное хи-квадрат распределение. НЕЦЕНТРАЛЬНОСТИ ПАРАМЕТР (noncentrality parameter) - см. Нецентральное хи-квадрат распределение. НЕЦЕНТРАЛЬНОСТИ ПАРАМЕТР хи-квадрат кри- тер и я (noncentrality parameter of chi squared test) - возрастающая функция мощности хи-квадрат критерия. Если Xk~U{ak, 1) независимы и А = "V"_ ak, то Y" Xk имеет X -распределение с п степенями свободы и Н. п. А. При проверке х -критерием гипотезы <р = 0 для регрессионного эксперимента с независимыми ошибками е,~1К1(0, а ) для Н. п. А имеются два выражения: a2A = min TN (gT(xi)^ + fT(xi)Q)2tX = {xlt...txN}t и MX, ф) = фТ0"1(Х)ф, где D{X) = Mg-MTfgMf{Mfg и Mfx предполагается существующей. Здесь Н.п. F-критерия и х критерия совпадают. О максимизации А(Х, ф) выбором X см. в ст. Дискриминирующих экспериментов планирование. М. Б. Малютов. НЕЧЕТКИХ МНОЖЕСТВ СТАТИСТИКА (statistics of fuzzy sets) - раздел статистики объектов нечисловой природы, в к-ром результаты наблюдений Av i=l, 2, ..., являются нечеткими множествами, то есть задаются так наз. функциями принадлежности |Ал:С/->[0, 1], где U - нек-рое множество. Основное содержание Н. м. с. - применение результатов статистики в пространствах общей природы к пространству нечетких множеств (см. [1]). Так, если U---[a, fcjcll?1, то рС4„ 42)=Je \iiAM-[iA2(u)\du можно использовать как меру близости между нечеткими множествами А\ и А2. Лит.: [1] Орлов А. И., Задачи оптимизации и нечеткие переменные, М., 1980; [2] его же, «Заводская лаборатория», 1990, т. 56, № 3, с. 76-83. А. И. Орлов. НЕЧЕТКОЕ МНОЖЕСТВО (fuzzy set) - основное понятие теории нечеткости, раздела прикладной математики, развитие к-рого началось в 1965 со статьи Л. Заде [1]. В простейшем случае нечеткое подмножество А множества X задается так наз. функцией принадлежности дл:Х->[0, 1]. Если \1А принимает только значения 0 или 1, то А - обычное подмйожество X. Для нечетких подмножеств А и В множества X пересечение АПВ, произведение АВ, объединение AUB, сумма А + В, отрицание А задаются соответственно функциями принадлежности: Mrf+fiW=М*>+М*> - М*>М*>» М*> =1 - ^W.х е х- Используют и другие операции над множествами. Нек-рые свойства операций над множествами справедливы и для Н.м.; напр., верны (см. [2]) законы де Моргана. Однако А +А *Л, за исключением случая, когда Л - обычное множество; равенство А(В + С)=АВ + АС справедливо тогда и только тогда, когда (\ifo)-\iA(x))\iB(x)\ic(x) = Q для всех х € X. С внутриматематич. точки зрения понятия «нечеткое множество» и «функция принадлежности» - синонимы. Однако при обсуждении прикладных задач предпочтительнее термин «Н. м.». Подход Л. Заде предназначался для анализа систем, в к-рых участвует человек, и опирался на предпосылку о том, что элементами мышления человека являются не числа, а элементы нек-рых Н.м. или классов объектов, для к-рых переход от «принадлежности к классу» к «непринадлежности» не скачкообразен, а непрерывен (см. [3]). Дальнейшие работы показали, что подходы, основанные на теории Н.м., являются плодотворными практически во всех областях математики и ее приложений (см. [4]-[11]). Этой тематике посвящены (1998) более пяти тысяч публикаций и журналы «Fuzzy Sets and Systems», BUSEFAL и др. Одни авторы отстаивают независимость теории нечеткости от теории вероятностей (см. [12]), другие доказывают, что Н. м. в определенном смысле сводятся к случайным множествам (см. [2], [9]). Лит.: [1] Zadeh L., «Information and control», 1965, v. 8, p. 338-53; [2] Орлов А.И., Устойчивость в социально-экономических моделях, М., 1979; [3] Zadeh L., «IEEE Trans. Syst., Man. Cybern», 1973, v. SMC-3, № 1, p. 28-44; [4] Заде Л., Понятие лингвистической переменной и его применение к принятию приближенных решений, пер. с англ., М., 1976; [5] Орлов А. И., Задачи оптимизации и нечеткие переменные, М., 1980; [6] Орловский С. А., Проблемы принятия решений при нечеткой исходной информации, М., 1981; [7] Кофман А., Введение в теорию нечетких множеств, пер. с франц., М., 1982; [8] Кузьмин В.Б., Построение групповых решений в пространствах четких и нечетких бинарных отношений, М., 1982; [9] Нечеткие множества и теория возможностей, пер. с англ., М., 1986; [10] Нечеткие множества в моделях управления и искусственного интеллекта, М., 1986; [11] Борисов А. Н. [и др.], Обработка нечеткой информации в системах принятия решений, М., 1989; [12] Белл- ман Р., Заде Л., в кн.: Вопросы анализа и процедуры принятия решений, пер. с англ., М., 1976, с. 172-215. А. И. Орлов. НЕЧИСЛОВОЙ ПРИРОДЫ ОБЪЕКТОВ СТАТИСТИКА (statistics of non-numerical type objects) - см. Статистика объектов нечисловой природы. НЕЧУВСТВИТЕЛЬНОСТИ ПРОБЛЕМА (insensitivity/in- variance problem) в теории систем обслуживания - см. Обслуживания систем теория; проблема инвариантности. НИЖНИЙ ГРАНИЧНЫЙ ФУНКЦИОНАЛ (lower boundary functional) - см. Факторизационные тождества. НИЖНЯЯ ДОВЕРИТЕЛЬНАЯ ГРАНИЦА (lower confi dence bound) - см. Доверительная полоса. НИЖНЯЯ ЦЕНА ИГРЫ (lower value of a game) - см. Игра двух лиц. НОМИНАЛЬНАЯ ШКАЛА (nominal scale) - см. Измерений теория. НОМИНАЛЬНЫЙ ПРИЗНАК (nominal criterion) - см. Многомерный статистический анализ. НОМОГРАММА (nomogram) - чертеж, служащий для геометрического изображения функциональлой зависимости. Н. применяют как для вычислительных целей, так и для исследования зависимости, положенной в ее основу. С помощью Н. можно исследовать экстремальные свойства, влияние переменных на ответную переменную, область существования решений. Известны различные типы Н. (из выравненных точек, из равноудаленных точек, циркульные, барицентрические и др.). Каждый тип изображает отвечаю- НОМОГРАММА 401
щий ему вид зависимости - канонич. форму. Применяют также приближенные Н., в основу к-рых положены канонич. формы, полученные путем аппроксимации ими заданных зависимостей (напр., таблиц с несколькими входами). Разработаны методы построения Н. (см. [1], [2]). Для нек-рых статистич. зависимостей построены точные и приближенные Н. Примеры таких Н.: приближенная Н. из выравненных точек для уравнения с четырьмя переменными - модели управления запасами в случае стохастич. спроса (см. [3D; точная барицентрич. Н. системы двух уравнений с тремя переменными параметрами для определения интервальной оценки параметра пуассоновского распределения (см. [4]). Н. применяют в теории вероятностей и математич. статистике (библиографию см. в [5]). Лит.: [1] Хованский Г. С, Основы номографии, М., 1976; [21 его же, Номография сегодня, М., 1987 (Новое в жизни, науке, технике. Математика. Кибернетика, № 12); 13] Козлова Е. Г., Подлевских Л. В., Синько В. И., Применение номограмм в управлении запасами на машиностроительном предприятии, М., 1981; 14] Степанова Н. В., Номографический метод определения доверительной оценки параметра распределения Пуассона. Приложение «Надежность и контроль качества», 1986, № 5, с. 3-5; 15] ее же, Обзор номограмм, применяемых в теории вероятностей и математической статистике. Межвузовский семинар «Современные проблемы номографии» 24-30 мая 1981 г. (Программа и тезисы докладов), М., 1981, с. 42-44. Г. С. Хованский. НОРМА случайного элемента (norm of a random element) X(co) - отображение со-> |х(со)|, где значения Х(со) принадлежат нормированному пространству В с нормой | • |. Для измеримости Н. необходимо и достаточно, чтобы прообразы X~\SR), R^O, шаров SR = {xeB: \х\ <R] были измеримы. В. В. Сазонов. НОРМАЛИЗОВАННАЯ МАТРИЦА АДАМАРА (normal! zed Hadamard matrix) - см. Адамара матрица. НОРМАЛИЗОВАННЫЙ ЛАТИНСКИЙ ПРЯМОУГОЛЬНИК (normalized Latin rectangle) - см. Латинский прямоугольник. НОРМАЛЬНАЯ АППРОКСИМАЦИЯ (normal approximation) - аппроксимация распределения случайной величины нормальным распределением. Пример. Пусть Хп, п=\, 2, ...,- последовательность независимых случайных величин, ЕХ„ = 0, * в« = 1".. ЕХ/>0' Sn = BnmTM Х>' тогда, согласно центральной предельной теореме, Р {Sn < х) -> Ф(х) при п -> оо, где Ф(х) - функция стандартного нормального распределения. Если предположить, что Е|Х„| <<*>, то |Р{5„<*}-ФЫ|<С1„, где Ln = B~ ' Y? Е|Х.| , а С - абсолютная постоянная. В том случае, когда Н. а. для Sn дает все еще большую погрешность, следует рассмотреть асимптотич. разложение, основанное на нормальном распределении (см. Распределения функция', асимптотическая формула, Асимптотически нормальное преобразование ). В качестве другого примера Н. а. можно указать Фишера z-преобразование * = ±l„Jzl 2 1+г для выборочного коэффициента корреляции г в двумерной нормальной выборке. Лит.: 11] Феллер В., Введение в теорию вероятностей и ее приложения, пер. с англ., т. 1-2, М., 1984. в. И. Пагурова. 402 НОРМА НОРМАЛЬНАЯ ПЕРЕХОДНАЯ ФУНКЦИЯ (normal transition function) - см. Переходная функция для марковского процесса. НОРМАЛЬНАЯ СЛУЧАЙНАЯ ВЕЛИЧИНА (normal ran dom variable) - см. Гауссовская случайная величина. НОРМАЛЬНОГО ПРИТЯЖЕНИЯ ЗОНА (zone of normal attraction) - см. Нормальной сходимости зона. НОРМАЛЬНОГО ПРИТЯЖЕНИЯ ОБЛАСТЬ у с т о й ч и - вого закона G (domain of normal attraction of a stable law) - множество распределения функций F таких, что (а - характеристический показатель закона G) Fn\an]/ax + An)^G(x), w->°o, где п* означает и-кратную свертку, при всех х и нек-ром выборе а>0 и центрирующей последовательности Ап. Н. п. о.- часть притяжения области закона G. Каждый устойчивый закон принадлежит своей Н. п. о., при этом а-\. Для того чтобы функция распределения F(x) принадлежала Н.п.о. устойчивого закона G с показателем а, 0<а<2, и с последовательностью Вп = an , необходимо и достаточно, чтобы F(x) = (C]aa+o(\))\x\'a, *-» -оо, и F(x) = \-(C2aa + o(\))x-a, .r-»oe, где С^О, С2^0, С^ + С2>0. Для того чтобы функция распределения F(x) принадлежала Н. п. о. нормального закона, необходимо и достаточно, ч^обы F(x) имела конечную дисперсию. О Н. п. о. операторно устойчивого распределения см. При тяжения область операторно устойчивого распределения. Лит. см. при ст. Притяжения область. В. В. Сенатов. НОРМАЛЬНОГО ТИПА ПРОЦЕСС (normal type pro cess) - см. Спектральные теории нестационарных случайных процессов. НОРМАЛЬНОЕ ПРОСТРАНСТВО (normal space) - кит- логическое пространство, в к-ром каждая пара непересекающихся замкнутых множеств отделима открытыми. Пусть Ft и F2 - замкнутые множества в топологич. пространстве (.)', ®), и пусть Ft DF2 * 0. Если (.)', ®) н о р м а л ь н о, то существуют открытые множества Ux такие, что F.c: U U^C)U2^0. Это определение справедливо как для «обычных» топологических, так и для а-топологических пространств Лит.: 11] Келл и Дж., Общая топология, пер. с англ., 2 изд.. М., 1981. Е. А. Печерский. НОРМАЛЬНОЕ РАСПРЕДЕЛЕНИЕ (normal distiibu- tion) - одно из важнейших распределений вероятностей. Термин «Н. р.», принадлежащий К. Пирсону (К. Pearson) (более старые названия - Гаусса закон, Гаусса - Лапласа распределение, гауссовское распределение), применяют как по отношению к распределениям вероятностей случайных величин, так и по отношению к совместным распределениям вероятностей нескольких случайных величин (то есть к распределениям конечномерных случайных векторов), а также случайных элементов и случайных процессов. Общее определение Н. р. сводится к одномерному случаю. Распределение вероятностей случайной величины X называется нормальным, если оно имеет плотность вероятности (см. рис. 1) р(х; а, а) = У2яа -(.tw/)2/2o2 С) Семейство Н. р. (*) зависит, таким образом, от двух пара чет- ров а и а>0.! При этом математич. ожидание X равно а, дисперсия X равна а , а характеристич. функция имеет вид
Кривая Н. р. у = р(х; а, а) симметрична относительно ординаты, проходящей через точку х = а, и имеет в этой точке единственный максимум, равный 1/V2rca. С уменьшением a кривая Н.р. становится все более островершинной. Изменение а при постоянном а не меняет форму кривой, а вызывает ли ль ее смещение по оси абсцисс. Площадь, заключенная под кривой Н.р., всегда равна единице. При я = 0, а= 1 соответствующая функция распределения равна ФСг)=-=^Г e~u2/2du. В общем случае функция распределения Н.р. (*) F(x; a, a) может быть вычислена но формуле Fix; а, а)=Ф(0, где t = (x-a)/o. Для функции Ф(0 (и нескольких ее производных) составлены обширные таблицы (см., напр., [1], [2] и ст. Интеграл вероятности). Для Н.р. вероятность неравенств \Х-а\> ко, равная 1 -Ф(&) +Ф( - k), убывает весьма быстро с ростом k (табл.). k 1 2 Вероятность 0,31731 0,45500-10"1 k 3 4 Вероятность 0,26998-10"2 0,63342-1О"4 Во многих практич. вопросах при рассмотрении Н. р. пренебрегают поэтому возможностью отклонений от а, превышающих 3 а, пользуясь так наз. правилом трех сигм (соответствующая вероятность, как видно из таблицы, меньше 0,003). Вероятное отклонение для Н. р. равно 0,67449 а. Н. р. встречается в большом числе приложений. Издавна известны попытки объяснения этого обстоятельства. Теоретич. обоснование исключительной роли Н.р. дают предельные ^ ^ / / L Т / г \ \ А Т \ ^ V _к^ \J -2 Рис. 1. Плотности одномерного нормального распределения при а = 0 и (1) а = 0,5; (2) о=1; (3) о = 2. Рис. 2. Плотности двумерного нормального распределения при й1 = а2 = 0 и <*i 1 = ^22 = * > °12 = ®- теоремы теории вероятностей (см. также Лапласа теорема, Ляпунова теорема). Качественно соответствующий результат может быть объяснен следующим образом: Н. р. служит хорошим приближением каждый раз, когда рассматриваемая случайная величина представляет собой сумму большого числа независимых случайных величин, максимальная из к-рых мала по сравнению со всей суммой (см. Центральная предельная теорема). Н. р. может появляться также как точное решение нек-рых задач (в рамках принятой математич. модели явления). Так обстоит дело в теории случайных процессов (в одной из основных моделей броуновского движения). Классич. примеры возникновения Н. р. как точного принадлежат К. Гауссу (С. Gauss, закон распределения ошибок наблюдения) и Дж. Максвеллу (J. Maxwell, закон распределения скоростей молекул) (см. также Независимость, Характеризационные теоремы). Распределение случайного вектора X = (Xv Х2, ..., Хп) в IR" или совместное распределение случайных величин Х\, Х2, ..., Хп называется многомерным нормальным, если при любом фиксированном £е1Р" скалярное произведение (t, X) имеет или Н.р., или равно константе (как иногда говорят, имеет Н. р. с дисперсией, равной нулю). Для случайных элементов со значениями из какого-либо векторного пространства Е это определение сохраняется с заменой t на любой элемент / сопряженного пространства Е* и скалярного произведения (t, X) на линейный функционал /(X). Совместное распределение нескольких случайных величин Х\, Х2, ..., Хп имеет характеристич. функцию /"(*) = exp{iEU, X)-^Q(0}, t=Ui, t2, ..., *я)бП?и, где E(*f X) = tyEXy + t2EX2 + ... + t„EX„ - линейная форма, QU)rE«, X-Exf-'X^OutA - неотрицательно определенная квадратичная форма и ||о^/| - ковариационная матрица вектора X. В случае положительной определенности соответствующее Н. р. имеет плотность вероятности (см. рис. 2) p(xv х2, ..., хп) = Сехр{- Q~ (xy -ах, х2-а2, ..., хп-ап)}, где Q~ - квадратичная норма, обратная Q, параметры ах, а2, ..., ап равны математич. ожиданиям Х}, Х2, ..., Хп соответственно, а постоянная С = 1 (2n)n/2Jdet\\okl\\' Общее количество параметров, задающих Н.р., равно (п + 1 )(п + 2)/2 - 1 и быстро растет с ростом п (оно равно 2 при п = 1, 20 при п = 5 и 65 при п = 10). Многомерное Н. р. служит основной моделью многомерного статистического анализа. Оно используется также в теории случайных процессов (где рассматриваются Н.р. в бесконечномерных пространствах; см. Случайный элемент, а также Винеровская мера, Винеров- ский процесс, Гауссовский процесс). Из важных свойств Н. р. необходимо отметить следующие. Сумма X независимых случайных величин Х1 и Х2, имеющих Н. р., имеет Н. р.; обратно, если X = Х1 + Х2 имеет Н.р. и Хх и Х2 независимы, то Хх и Х2 имеют Н.р. (теорема Крамера). Это свойство обладает определенной «устойчивостью»: если распределение X «близко» к Н. р., то и распределения Х1 и Х2 «близки» к Н. р. С Н. р. связаны нек-рые НОРМАЛЬНОЕ 403
другие важные распределения (см. Логарифмически нормальное распределение, Нецентральное хи-квадрат распределение, Стъюдента распределение, Уишарта распределение, Фишера z-распределение, Хотеллинга Т -распределение, Хи-квадрат распределение). Для приближенного представления распределений, близких к Н.р., широко применяются ряды типа Грама - Шарлье рядов и Эджуорта рядов. О вопросах, связанных с оценкой параметров Н.р. по результатам наблюдений, см. в ст. Несмещенная оценка. О проверке гипотезы нормальности см. в ст. Математическая статистика; непараметрические методы. Лит.:[\] Болыиев Л.Н., Смирнов Н. В., Таблицы математической статистики, 3 изд., М., 1983; [2] Таблицы нормального интеграла вероятностей, нормальной плотности и ее нормированных производных, М., 1960; [3] Гнеденко Б. В., Курс теории вероятностей, 6 изд., М., 1988; [4] Крамер Г., Математические методы статистики, пер. с англ., 2 изд., М., 1975; [5] Кендал л М.Дж., Стью- арт А., Теория распределений, пер. с англ., М., 1966; [6] их же, Статистические выводы и связи, пер. с англ., М., 1973. Ю. В. Прохоров. НОРМАЛЬНОЙ СХОДИМОСТИ ЗОНА (zone of normal convergence), зона нормального п ритяже ния,-последовательность интервалов 0^x^\\f(n), n=\, 2, ..., для к-рых равномерно по .г справедливы соотношения Р{^ ->1, P{Zn<-x) -> 1, п -> < ..,..,, (*) 1-ФЫ Ф(-х) где Zn = (Х1 + ... + Хп)/\п - нормированные суммы независимых и одинаково распределенных случайных величин с EXj =0, EXj = 1 и Ф - функция распределения стандартного нормального закона. Функция \у(х) в Н. с. з. предполагается непрерывной и неограниченно возрастающей при #->°°. Н.с.з. были введены и изучены в [1J (см. также [2]). Это понятие допускает распространение на последовательности случайных величин Zn более общей структуры, в частности на случай сумм независимых случайных величин с различными распределениями (см. [3], а также Больших уклонений вероятности). Н.с.з. можно рассматривать как в двустороннем, так и в одностороннем варианте (см., напр., [5] - случай односторонней версии теоремы Крамера о больших уклонениях). Из центральной предельной теоремы следует, что в рассматриваемом случае Н.с.з. существует. Выполнение (*) для функций \\f(x) определенного порядка роста требует привлечения дополнительного условия на поведение P{|Xj >t) при t—>°°. Так, для того чтобы можно было выбрать \\f(x) = Vglogx, q>0, необходимо и достаточно, чтобы P{|X1|>^ = o(r2^(logO(1+r/)/2),^->oo. Н. с. з. такого типа называются зонами умеренных уклонений (см. [4]). Из Крамера теоремы следует, что (*) могут выполняться лишь для функций \|/(х), порядок роста к-рых не превосходит оСг1' ). Лит.: [1] Лин ни к Ю. В., «Теория вероятн. и ее примен.», 1961, т. 6, в. 2, с. 145-63; в. 4, с. 377-91; 1962, т. 7, в. 2, с. 121-34; [2] Ибрагимов И. А., Линник Ю. В., Независимые и стационарно связанные величины, М., 1965; [3] Петров В. В., Суммы независимых случайных величин, М., 1972; [4] Сластников А. Д., «Теория вероятн. и ее примен.», 1978, т. 23, в. 2, с. 340-57; [5] Золотарев В. М., «Лит. матем. сб.», 1965, т. 5, N° 2, с. 233-50. В. М. Зодотарев. НОРМАЛЬНЫЙ КЛАСС МНОЖЕСТВ (normal class of sets) - см. Монотонный класс множеств. НОРМАЛЬНЫЙ МАРКОВСКИЙ ПРОЦЕСС (normal Markov process) - см. Нуль - единица закон для марковских процессов, Обрыва момент. 404 НОРМАЛЬНОЙ НОРМАЛЬНЫЙ СЛУЧАЙНЫЙ ЭЛЕМЕНТ (normal ran dom element) - см. Случайный элемент. НОРМАЛЬНЫХ УРАВНЕНИЙ СИСТЕМА (system of nor mal equations) - система выражающая тот факт, что предсказание Фб функции регрессии Ф6 метода наименьших квадратов есть ортогональная проекция вектора измерений у линейного регрессионного эксперимента у = Фе + Е, ye$N, ееП?л', GelF, Ee = 0, cove=W~\ на подпространство, натянутое на столбцы матрицы регрессионного эксперимента Ф (в метрике 1Ы1 = xTWx). Если матрица Ф имеет ранг р, то оценка по методу наименьших квадратов 6 = (ФТ\УФ)~ <t>TWy определена однозначно, в противном случае определены однозначно оценки / 6 линейных функций / 6, допускающих несмещенную оценку, где 0 - любое решение Н. у. с. м. Б. Малньпов. НОРМИРОВАНИЕ последовательностей случайных величин (norming of sequences of random variables) - см. Центрирование и нормирование последовательностей случайных величин. НОРМИРОВАННАЯ БУЛЕВА АЛГЕБРА (normalized Boolean algebra) - см. Случайное событие. НОРМИРОВАННАЯ ВЗАИМНАЯ КОРРЕЛЯЦИОННАЯ ФУНКЦИЯ (normalized cross-correlation function) - см. Взаимная корреляционная функция. НОРМИРОВАННАЯ КОРРЕЛЯЦИОННАЯ ФУНКЦИЯ (normalized correlation function) - см. Корреляционная функция. НОРМИРОВАННАЯ МЕРА (normed measure) - см. Мора. НОРМИРОВАННАЯ СЛУЧАЙНАЯ ВЕЛИЧИНА (standardized random variable) - случайная величина X , связанная с исходной случайной величиной X линейным преобразованием X* = (X-EX)/VDX (предполагается, что ЕХ и DX конечны). Для Н.с.в. X* всегда ЕХ* = 0, DX* = 1. Если X имеет нормальное распределение с ЕХ = а, ОХ = с , то переход к Н. с. в. X* = (Х-а)/о позволяет вероятности Р{д:1^Х^д:2} = Ф(Сг2-й)/а)-Ф((.г1-й)/а) любых неравенств х^Х^х2 сводить к табличной функции ~du. Б.А. Севастьянов. НОСИТЕЛЬ меры (support of a measure) - одна из характеристик меры в топологическом пространстве. Говорят, что борелевская вероятностная мера \1 в топологич. пространстве Т обладает Н., если пересечение 5^ всех замкнутых подмножеств F czT, для к-рых |i(F) = 1, само имеет меру 1: uXS^) = 1. В таком случае 5„ называется носителем (или с у п портом) меры \i. Точка teT принадлежит S„ в том и только в том случае, если для любого открытого подмножества U, ее содержащего, |i(LO>0. В сепарабельном метрич. пространстве (или, более общо, в любом топологич. пространстве со счетной базой) каждая борелевская мера обладает Н. Каждая т-г.тд- кая вероятностная мера в топологич. пространстве, в частности каждая радонова вероятностная мера в хаусдорфовом пространстве, обладает Н. С другой стороны, существуют компактные хаусдорфовы пространства, в к-рых не каждая борелевская вероятностная мера обладает Н. Лит.: [1J Вахания Н.Н., Тариеладзе В. И., Чобанян С. А, Вероятностные распределения в банаховых пространствах, М., 1985. //. //. Вахания.
НУЛЕВАЯ ГИПОТЕЗА (null hypothesis) - одна из двух статистических гипотез в задаче статистических гипотез проверки. Н. г. обычно обозначается Я0 и имеет смысл некоего основного предположения, подлежащего проверке. Формально Н. г. выделяется требованием, чтобы вероятность совершить ошибку 1-го рода (ошибочно отвергнуть Н. г.) не превосходила заданного (малого) числа а>0 (уровня значимости). Д. М. Чибиса^. НУЛЕВОЕ СОСТОЯНИЕ цепи Маркова (null state of a Markov chain) - см. Маркова цепь; классификация состояний. НУЛЕВОЙ КЛАСС СОСТОЯНИЙ цепи Маркова (null set of a Markov chain) - см. Маркова цепь; классификация состояний. НУЛЬ - ЕДИНИЦА ЗАКОН (zero - one law) - утверждение о том, что при определенных условиях вероятность каждого остаточного события равна нулю или единице. Совокупность остаточных событий, связанных с последовательностью случайных величин {Хп}, определяется как пересечение а-ал- гебра(Х„, Х„+1,...), п=\,2, ..., каждая из к-рых порождается указанными в скобках величинами. Общая теорема была впервые доказана А. Н. Колмогоровым (см. 11], с. 116-17). Пусть f(Xx, Х2,.) - бэров- ская функция бесконечного числа аргументов. Если для каждого п условная вероятность Р{/ХХ{, Х2,...) = 01Xj, ..., Хп) при известных Xj, X2, ..., Хп равна безусловной вероятности Pf/XXj, X2, ...) = 0}, то эта последняя равна 0 или 1. Для последовательности независимых и одинаково распределенных случайных величин Н. - е. з. справедлив для более широкого класса событий, чем для а-алгебры остаточных событий (см. [3]). В ряде случаев Н. - е. з. может быть получен в качестве следствий теорем о сходимости мартингалов (см. [2], гл. 7). Лит.: [1) Колмогоров А. Н., Основные понятия теории вероятностей, 2 изд., М., 1974; [2] Дуб Дж., Вероятностные процессы, пер. с англ., М., 1956; 13] Hewitt E., Savage L.J., «Trans. Amer. Math. Soc», 1955, v. 80, № 2, p. 470-501. В. М. Круглое. НУЛЬ - ЕДИНИЦА ЗАКОН для марковских процессов (zero - one law for Markov processes) - теорема, согласно к-рой вероятности определенных событий, связанных с марковскими процессами, принимают лишь значения 0 или 1. Для однородного марковского процесса X = (Xt, dt, Px), t^O, с совокупностью состояний Е Н- е. з. утверждает, что коль скоро X нормален (то есть Рх{Х0 = х}= 1), то Рд.{Л} = 0 или 1 для всех событий Лс©0, где положено ©£ = а{Х5, 0^s^£}. Это утверждение распространяется и на события из а-алгебры ©*=.*/0П®, где © = а{Х5; s^O}, a .*/0 и © определены как пересечения пополнений .Ц) и © соответственно по мерам Рц, отвечающим любым начальным распределениям \i (см. [2]). Для правого марковского процесса ^/0= Q dk, что позволяет чаще всего трактовать ©* как совокупность событий, реконструируемых по течению процесса на бесконечно малом промежутке времени, содержащем t = 0. Н.- е. з. сформулирован Р. Блументалем (R. Blumenthal) в 1952. Лит.: [ 1J Дынкин Е. Б., Основания теории марковских процессов, М., 1959; 12] его же, Марковские процессы, М., 1963. М. Г. Шур.
ОБЕСПЕЧЕННОСТЬ (accumulated probability), кривая обеспеченности,- термин, к-рым иногда обозначается вероятность G(x) превышения случайной величиной X нек-ро- го критического уровня х, рассматриваемая как функция от х. О. связана с функцией (интегральным законом) распределения F(x) случайной величины X очевидным соотношением G(x) = 1 - Fix). Отвечающая G(x) эмпирич. зависимость G*(x), к-рая получается в результате статистич. обработки конечного числа наблюдений, называется эмпирической функцией обеспеченности. Понятие О. широко используют при статистич. исследованиях в области прикладной климатологии, агрометеорологии, гидрологии (напр., говорят об О. определенных сумм температур или осадков, величины речного стока, урожая). В отдельных работах О. отождествляется с F(x). Лит.: [1] Брукс К., Карузерс Н., Применение статистических методов в метеорологии, пер. с англ., Л., 1963; [2] Рождественский А. В., Чеботарев А. И., Статистические методы в гидрологии, Л., 1974. Е. Е. Жуковский. ОБЕСПЕЧЕННОСТЬ в гидрологии (accumulated probability in hydrology) - дополнение функции распределения до единицы. Гидротехнич. сооружения в зависимости от их класса проектируются для различных нормативных значений О. стока или других гидрологич. характеристик (см. [1]). Для описания годового стока в гидрологии чаще всего используют распределение Пирсона III типа (в частности, двух- и трехпа- раметрич. гамма-распределения) и трехпараметрич. степенное гамма-распределение Крицкого и Менкеля [2] с плотностью р{х) = Н^ г^1- ехр{-«Я)УР}, *>0, где х - среднее значение распределения, х = х/х, Н = = Г(а+ р)/Г(а), Г(а) - гамма-функция. Употребляются также распределения Гумбеля, Джонсона, логнормальное и др. (см. [31, [4]). Лит.: [1] Гидротехнические сооружения, М., 1983; [2] Криц- кий С. Н., Мен кс ль М.Ф., Гидрологические основы управления речным стоком, М., 1981; [3| Раткович Д. Я., Многолетние колебания речного стока, Л., 1976; [41 Сванидзе Г. Г., Математическое моделирование гидрологических рядов, Л., 1977. В. Е. Привальский. ОБЕСЦЕНИВАНИЕ (discounting) - см. Вариационные неравенства в стохастическом управлении. ОБНАРУЖЕНИЯ РАЗЛАДКИ ЗАДАЧА (changepoint problem) - определение (оптимальное в том или ином смысле) момента изменения вероятностных характеристик случайных процессов. Различают обычно две постановки задачи - последовательную и апостериорную (ретроспективную). В первом случае предполагают, что наблюдаемый процесс X=(Xt), t^O, имеет вид _U<°, *<e, 406 ОБЕСПЕЧЕННОСТЬ где 0- случайный момент (момент разладки), характеризующий смену процесса X на процесс X ' . Если т - момент остановки [относительно семейства а-алгебр (■'/*), ^0, .r/t = o(Xs, sKt)], то величина <х=Р{т<6} характеризует вероятность ложной тревоги, а, напр., величина /?(т) = Е(т-в|О0) может служить характеристикой времени запаздывания и обнаружения разладки, когда сигнал тревоги т подается правильно, то есть после момента 0. В широком классе случаев довольно подробно изучена (см. [1]) задача об отыскании правил т* е {т: Р{т<0}^й}, доставляющих минимум времени запаздывания /?(т*) = inf/?(x), где inf берется по классу {т: Р(т < 0) < а). В апостериорной постановке предполагается, что заданы все наблюдения Xt, t^T, и требуется решить вопросы типа различения гипотез (0^Г или 0>Г), оценивания параметра 9 и т.д. В сущности, этот класс задач относится к классич. задачам теории статистич. выводов (см. [2]). Лит.: [11 Ширяев А. Н., Статистический последовательный анализ, 2 изд., М., 1976; [21 Кол м ого ров А. Н., II ро хоров Ю. В., Ширяев А. Н., «Тр. Матем. ин-та АН СССР», 1988, т. 182, Н 5, с 4-23. А. Н. Ширусв. ОБНОВЛЯЮЩЕЕ СОБЫТИЕ (renovating event) - множество элементарных исходов, относящееся к траектории случайного процесса на интервале времени (n-L, n), L ^ О, такое, что попадание в него делает траекторию процесса в моменты т > п частично не зависящей от траектории в моменты m^n-L. Пусть {vrl} - последовательность со значениями в произвольном измеримом пространстве, к-рая определяется начальной величиной vx и рекуррентными соотношениями vn+\ =f(vtv ип), п^ 1, где {ип} - заданная случайная последовательность, f - измеримая функция. Пусть Fn есть а-алгебра, порожденная случайными величинами v]t u]t u2, .... ип, п^ 1, a L^O- фиксированное число. Событие AtleFn при я^max (1, L) называется обновляющим на интервале {n-L, n) для последовательности {vn}, если случайные величины ^„+1(со), ^rt+2(co),... при 0)еЛ„ допускают представление ия+;-(ю) = Фу(м|1_л(ю) мя+г,(ю)), где вид функции ср. зависит лишь от числа аргументов L+j и от последовательности {Ап}. Попадание vn в любую фиксированную точку х (регенерация, если ип независимы) представляет собой О. с. (при 1 = 0). Понятие О. с. помогает выяснять условия, при к-рых последовательность {vTl+k\ /е^О} сходится при w->°° к нек-рой стационарной последовательности {wk\ k^O}, находить оценки скорости сходимости, выяснять условия устойчивости этой второй последовательности (или последовательности {vn}) при малых изменениях управляющей последовательности {ип} и получать оценки устойчивости. Лит.: [11 Боровков А. А., Асимптотические методы в теории массового обслуживания, М., 1980; [2] Калашников В.В., «Изв. АН СССР. Сер. Техническая кибернетика», 1979, № 5, с. 85-89. А. А. Боровков, С. Г. Фосс.
ОБНОВЛЯЮЩИЕ КОМПОНЕНТЫ (innovation components) - см. Случайный прогресс, каноническое представление. ОБНОВЛЯЮЩИЙ ПРОЦЕСС (innovation process) - см. Случайный процесс; каноническое представление. ОБОБЩЕННАЯ БЕЙЕСОВСКАЯ ОЦЕНКА (generalized Bayes estimator) - регулярный (поточечный) предел последовательности бейесовских оценок, к-рый является формальной бейесовской оценкой относительно нек-рой не обязательно вероятностной а-конечной меры на параметрическом пространстве 0. Напр., выборочное среднее х есть предел при т-»°° бейесовских оценок (пхо~ +цт~ )/(по~ +т~ ) параметра в нормального (в, а) распределения с нормальным (|1, т) априорным распределением в при квадратич. функции потерь и, в то же время, х есть формальная бейесовская оценка 0 при алриорной лебеговой мере б/в на 0 = IP. О. 6. о. играют важную роль при отыскании минимаксных оценок. Лит.: [1| Закс Ш., Теория статистических выводов, пер. с англ., М., 1975. И. И. Володин. ОБОБЩЕННАЯ ДИСПЕРСИЯ (generalized variance) - одна из характеристик качества регрессионного эксперимента. Пусть задана регрессионная модель y = eT/U) + e.e~(0. а2/„), /■(*) = (/",(*) fm(x))T, где 0 - параметр регрессии, и пусть ЕХ= \р f(P)fT(p)X(dp) - нормированная информационная матрица плана X (здесь Р - множество планирования). Тогда обобщенной дисперсией называется величина G = max/T(^)(EX)"V(/>). План X, на к-ром О. д. принимает наименьшее значение, называется G-oптимальным. На нем максимум дисперсии но всем точкам ре Р наилучших линейных несмещенных оценок регрессионного прогноза принимает наименьшее значение. В соответствии с теоремой эквивалентности Кифера - Вольфо- вица G-онтимальный план является также и D-оптимальным. См. также Наименьших квадратов метод. Лит.: [1] ЕрмаковС. М., ЖиглявскийА.А., Математическая теория оптимального эксперимента, М., 1987. Ю. П. Юрачковский. ОБОБЩЕННАЯ КОРРЕЛЯЦИОННАЯ ФУНКЦИЯ (ge neralized correlation function) - см. Обобщенный стационарный процесс. ОБОБЩЕННАЯ МЕРА (generalized/signed measure/charge) - см. Заряд. ОБОБЩЕННАЯ СПЕКТРАЛЬНАЯ ПЛОТНОСТЬ (gene ralized spectral density) - см. Спектральные теории нестационарных случайных процессов. ОБОБЩЕННАЯ СТОХАСТИЧЕСКАЯ СВЕРТКА (generali- zed stochastic convolution) - полугрупповая операция на множестве В(Х) вероятностных мер, определенных на нек-ром измеримом пространстве (X, J). Понятие О. с. с. возникает при аксиоматизации свойств ряда известных вероятностных операций, таких, как свертки К. Урбаника [1], Б. М. Левитана [21, Р. Аски, Дж. Гаспера [3], гипергрупповые свертки и др. Наиболее употребима следующая модель: 1) X - сепара- бельное полное метрическое (локально компактное) пространство, J- а-алгебра его борелевских множеств; 2) (ЖХ), °) - нолутопологич. коммутативная полугруппа с единицей вида 6Й (6rt - мера, сосредоточенная в точке аеХ); 3) операция • дистрибутивна по отношению к выпуклой комбинации вероятностных мер; 4) имеется непрерывное отображение xh+x* пространства X на себя, для к-рого ц*(Л) = цХЛ*), \ieB(X), обладают свойствами ц** = ц. и (ц^ • д2^*=й1 ° Й2- Название «стохастическая» обусловлено тем обстоятельством, что, как правило, мера [L = bu°bv (и, veX) оказывается неточечной. О. с. с. называется слабо регулярной, если имеются сепара- бельное локально компактное пространство М и измеримая ограниченная на ХхМ функция cog L](XxM), для к-рых отображение Ф(д, т) = )х (u(m)\i(dx) есть алгебраически инъективный симметрич. гомоморфизм (ЖХ), °, *) в Ь\М). Идея применения интегральных преобразований с измеримыми ядрами высказана К. Урбаником, к-рый показал, что любая ранее введенная им стохастич. свертка слабо регулярна. Если со непрерывна по совокупности переменных, то свертку • называют регулярной. Необходимые и достаточные условия регулярности могут быть выражены в терминах топологизации определяемого ею симметрич. кольца зарядов. В качестве двойственного объекта к регулярной стохастич. свертке также вводится нек-рая регулярная стохастич. свертка. Для таких двойных операций возможно построение вероятностной теории положительно и отрицательно определенных функций. О. с. с. называют правильной (см. [4]), если множество делителей любого относительно компактного подмножества В а ЖХ) также относительно компактно. Для регулярной О. с. с. в этом случае при тождественном инволютивном отображении * получены аналоги формулы Леви - Хинчина, введены аналоги распределений Пуассона и Гаусса, а для двойных регулярных сверток даны уравнения для нахождения последних. Арифметич. свойства регулярных О. с. с. исследованы пока только для конкретных реализаций. Здесь в ситуациях, отличных от групповых, в основном с помощью теории дельфийских полугрупп Д. Кендалла [5] были получены аналоги факторизационных теорем А. Я. Хинчина (см., в частности, [6], [7]). Стохастичность обобщенных сверток часто дает возможность решить для рассматриваемых сверток проблему описания класса /0 всех распределений из ЖХ) без неразложимых компонент (см. [7] - [9]). Аналоги характеризаций безгранично делимых распределений как предельных для схем серий О. с. с. бесконечно малых мер были даны в общей модели (см. [4]). Здесь же рассматривались условия сходимостей к гауссовским законам. Нахождение аналогов многих классич. предельных теорем в общем случае сталкивается с проблемой общего определения операций центрирования и нормирования последовательностей О. с. с. мер. Для решения этой задачи могут быть привлечены общие принципы изучения О. с. с, высказанные в [ 10] (гл. 2, 5). Естественным инструментом для нахождения оценок скоростей сходимостей в предельных теоремах для О. с. с. и устойчивостей в характеризационных задачах О. с. с. представляются идеальные метрики общего тина. Лит.: [1] Urban! k К., «Studia Math.», 1964, v. 23, p. 217-45; 1984, v. 80, p. 167-69; 1986, v. 83, p. 57-95; [21 Левитан Б. М., «Вестник ЛГУ», 1960, т. 7, К? 2, с. 81-115; [3] Askey R., Gasper G., «J. analyse math.», 1977, t. 31, p. 48-68; [4] Волько- ви ч В. Э., в кн.: Проблемы устойчивости стохастических моделей. Тр. семинара, М., 1985, с. 15-24; М., 1987, с. 19-32; [5] Kendall D., «Z. Wahr. und verw. Geb.», 1968, Bd 9, S. 163-95; [61 Bingham N. H., «Proc. Camb. Phil. Soc», 1973, v. 73, p. 145-56; [71 Трухи на И. П., в кн.: Теория функций, функциональный анализ и их приложения, т. 34, Хар., 1980. с. 136-46; [8] ее же, «Зап. науч. сем. ЛОМИ», 1979, т. 87, с. 143-58; [91 Островский И. В., «Матем. физ. и функц. анализ», 1973, т. 4, с. 3-12; [10] Золотарев В. М., Современная теория суммирования независимых случайных величин, М., 1986. В.Э. Волькоаич. ОБОБЩЕННАЯ 407
ОБОБЩЕННОЕ РАСПРЕДЕЛЕНИЕ АРКСИНУСА generalized arcsine distribution) - см. Арксинуса распределение. ОБОБЩЕННОЕ РАСПРЕДЕЛЕНИЕ ПУАССОНА (Pois son compound distribution) - см. Пуассона распределение обобщенное. ОБОБЩЕННОЕ РАСПРЕДЕЛЕНИЕ УИШАРТА (Wishart generalized distribution) - см. Уишарда распределение обобщенное. ОБОБЩЕННОЕ СЛУЧАЙНОЕ ПОЛЕ (generalized random field) - случайная функция на гладком многообразии G, типичными реализациями к-рой являются обобщенные функции, заданные на этом многообразии. Иными словами, для таких случайных полей, вообще говоря, не определены их значения f(x) в точках х е G, а определены «средние» /■,-/сфЫД*>Лг С) для достаточно богатого запаса сглаживающих пробных функций <p(#) на многообразии G. Точнее, пусть G - бесконечно гладкое многообразие и D(G) - пространство бесконечно дифференцируемых финитных функций, определенных на G, с обычной топологией равномерной сходимости последовательностей равномерно финитных функций и всех их производных. Тогда на G определено О. с. п., если задано непрерывное линейное отображение D(G) -»L0(Q, % uj, ф->/*ф, <peD(G), пространства D(G) в пространство L0(Q, У, |i) случайных величин, определенных на нек-ром вероятностном пространстве С1 с выделенной а-алгеброй его подмножеств # и вероятностной мерой (X, определенной на <Р; L0(Q, #, \зд снабжено топологией сходимости по мере (см. [7]). В случае, когда вероятностным пространством является пространство D'(G) обобщенных функций на G с а-алгеброй &, порожденной цилиндрич. множествами в D'(G), а отображение (*) задается формулами /*ф(Т) = (7\ ф), TeD'(G), <peD(G), О.с.п. {/*ф, <peD(G)} называется каноническим. Оказывается, что любое О. с. п. на конечномерном многообразии G вероятностно изоморфно нек-рому (единственному) канонич. случайному полю на G (см. [2]). Приведенное здесь определение допускает ряд естественных модификаций: напр., можно рассмотреть О. с. п. с векторными значениями или вместо пространства D(G) использовать в определении какое-нибудь более обширное пространство основных функций на G [напр., в случае G = IP",h = 1,2,3, - пространство 5(11?") бесконечно дифференцируемых функций, убывающих на бесконечности вместе со всеми производными быстрее любой отрицательной степени |„т| , k = -\, -2, -3, ..., хе№]. Понятие О. с. п. включает в себя классич. случайные поля и процессы, реализациями к-рых являются обычные функции. Это понятие возникло в середине 50-х гг. 20 в., когда обнаружилось, что многие естественные стохастич. образования не могут быть достаточно просто выражены в терминах классич. случайных полей, а на языке О. с. п. имеют простое и изящное описание. Напр., любая положительно определенная билинейная форма на D(IR"), n=\, 2, ..., (ф,, ф2)=|р?« JR« W(xu х2)ф^)ф2)(1х^х2, фр ф2еО(И?п), где W(x\, x2) - положительно определенная симметрич. обобщенная функция двух переменных, однозначно определяет гауссовское О. с. п. {/L, <peD(IR")} на II?" (с нулевым средним) так, что ковариация этого поля 408 ОБОБЩЕННОЕ [|1 - соответствующая этому полю вероятностная мера в D'(!Rn)\. Это О. с. п. оказывается классическим лишь при достаточно хорошей функции W(x]t x2) (напр., непрерывной и ограниченной). Другие примеры: О. с. и. на И?" с независимыми значениями (см. [2]) или так наз. автомодельные случайные поля на IR" (см. [6]), среди к-рых вообще пет классич. полей. Интерес к исследованию О. с. п. (особенно марковских случайных полей) возрос из-за обнаруженной в начале 70-х гг. связи между задачей построения квантового физич. поля и построением марковских О. с. п. на IR" при п> 1 (см. [5]). Другой важной областью, стимулирующей исследования О. с. п., является теория стохастич. дифференциальных уравнений (особенно стохастич. уравнений с частными производными). Лит.: [1] Ге л ьфан д И. М., Шилов Г. Э., Пространства основных и обобщенных функций, М., 1958; J2J Ге л ьфанд И. М, Виленкин Н.Я., Некоторые применения гармонического анализа. Оснащенные гильбертовы пространства. М., 1961; [3] Гель- фандИ.М., «Докл. АН СССР», 1955, т. 100, № 5, с. 853-56; [4] Kiyosi Ito, «Mem. Coll. Sci. Univ. Kyoto. Ser. A», 1954, v. 28, N° 3, p. 209-23; [5] Саймон Б., Модель /Ч(р)2 эвклидовой квантовой теории поля, пер. с англ., М., 1976; [6| Д обру ш и и Р. Л., в сб.: Многокомпонентные случайные системы, М.-Л., 1978, с. 179-213: [7] Д обру ши н Р. Л., М и н л ос Р. А., «Успехи матем. наук», 19/7, т. 32, в. 2, с. 67-122. р. л. Мин.гж. ОБОБЩЕННЫЙ БЛОЧНЫЙ ПЛАН (generalized block design) - см. Блочный план. ОБОБЩЕННЫЙ ГАУССОВСКИЙ ПРОЦЕСС (general! zed Gaussian process) - см. Гауссовский процесс. ОБОБЩЕННЫЙ ПУАССОНОВСКИЙ ПРОЦЕСС (со-п- pound Poisson process) - случайный процесс вида где v(t) - пуассоновский процесс, X,, Х2, ... - независимая от процесса v(0 последовательность независимых случайных величин. Процесс Х(0 является процессом с независимыми приращениями со скачкообразными траекториями. Обратно, для любого процесса с независимыми приращениями со скачкообразными траекториями Х(0, t^0, процесс X(t) - Х(0), t^0, является О. п. п. Процесс Х(0 однороден, если однороден процесс v(0 и величины X,, Х2, ... одинаково распреле- лены. В этом случае характеристич. функция процесса Ее**™ = exp {ita \ (elXx - 1 )<IF(x)}t где а- параметр процесса v(0 (Ev(0 = tfO, F - функция распределениях,. э. Д. Сильвестров а. ОБОБЩЕННЫЙ РЕГРЕССИОННЫЙ ЭКСПЕРИМЕНТ (generalized regression experiment) - совокупность независимых измерений y{ = x\(xv 8) + е?, Ее, = 0, De, = a (л*,, в); на функции Г|(*,)> <*(•»•) наложены условия регулярности, и 2*--1 Wxi> 6)-Г|(.хг, 6')) >0 при 8*8'. Последнее условие не выполнено там, где от части неизвестных параметров зависит только а(-,). Однако если в последнем примере третьи и четвертые моменты распределения измерений суть функции первых двух моментов, то вектор (у{, уг ) описывается двумерным О. р. э. Аналогичная редукция полезна для дисперсионного анализа смешанной модели. Рассматривались асимптотич. свойства оценок параметра 8 О. р. э. (см. Последовательное планирование эксперимента). Следует отметить, что если распределение уг вложено в экспонентное семейство (напр., полиномиальное с параметрами, зависящими от хг, 8), то итерационные оценки Ирджина, основанные на первых двух моментах измерений, асимптотн-
чески эквивалентны оценкам наибольшего правдоподобия при росте числа итераций. Лит.: [!] Малююв М.Б., «И.ш. вузов. Математика», 1983, .\о 11, с. 19-41. М. Б. Малютов. ОБОБЩЕННЫЙ СЛУЧАЙНЫЙ ПРОЦЕСС (generalized stochastic/random process) - случайный процесс X, зависящий ■>т непрерывного временного аргумента t, и такой, что его шачения в фиксированные моменты времени, вообще говоря, не существуют, а существуют только «сглаженные значения процесса» Х(ф), описывающие результаты измерений значений этого процесса при помощи всевозможных линейных измерительных приборов, имеющих достаточно гладкую весовую (то есть импульсную переходную) функцию <р(0. Процесс Х(ф) представляет собой непрерывное линейное отображение пространства О^ бесконечно дифференцируемых финитных функций ф (или какого-либо другого пространства основных функций, используемого в теории обобщенных функций) в пространство L0 случайных величин X, определенных на нек-ром вероятностном пространстве; его реализации х(ф) являются обычными обобщенными функциями аргумента t. Классические (то есть обыкновенные) случайные процессы Х(0 также можно рассматривать как специальные О. с. п., для к-рых Х(ф)-|"ооф(ОХ(0^^; такое рассмотрение может быть полезным, в частности, в связи с тем, что для О. с. п. X всегда существуют производные X любого порядка п, к-рые можно определить с помощью равенства А (<р) = (-1)"Х(<р п ) (см., напр., Случайный процесс со стационарными приращениями). Важнейший пример О. с.п., не являющегося классич. случайным процессом, - процесс белого шума, входящий в класс стационарных обобщенных процессов. Обобщением понятия О. с. и. является понятие обобщенного случайного поля. Лит.: И| Гельфанд И.М., «Докл. АН СССР», 1955, т. 100, № 5, с. 853-56; [2] И то К., «Математика», 1957, т. 1, X? 3, с. 139-51; [3] Гельфанд И. М., В и л е н к и н Н. Я., Некоторые применения гармонического анализа. Оснащенные гильбертовы пространства, М., 1961. A.M. Яглом. ОБОБЩЕННЫЙ СТАЦИОНАРНЫЙ ПРОЦЕСС (genera lized stationary process) - обобщенный случайный процесс Х(ф), заданный на нек-ром векторном пространстве D достаточно гладких основных функций <р(0 такой, что или распределение вероятностей случайного вектора {X(V^q>|), X(V^<p2), ..., X(Vrtq>w)}, где Vaq>(0 = y(t + a), при любых целом положительном я, действительном а и функциях фр <р2, ..., <р„ из D совпадает с распределением вероятностей вектора {X(<Pj), Х(ф2), ..., Х(ф„)> (О. с. п. в уз ком смысле), или же ЕХ(ф) = ЕЖ1», ЕХ(ф,)Х(ф2) = EX(VVP,)X(V>2) при всех действительных я (О. с. п. в широком смысле). При D = D^ (ив ряде других случаев) функционал среднего значения ЕХ(ф) = т(<р) и корреляционный фу н кционал ЕХ(ф1)Х(ф2) = -В(ф1, ф2) процесса Х(ф) имеют вид т(ф) = т0,ф(О^, <1) Жф,, ф2) = Я[ J_ Ф, (s)<p2 (s -Ods\ = Жф, *ф2 ), (2) где *- знак свертки, ф(0 = ф(-£)» так ЧТ0 ю(ф) однозначно определяется постоянной т, называемой средним значением О. с. н. Х(ф), а Жфр ф2) определяется обобщенной функцией Жф) (комплекснозначным линейным функционалом на D), называемой обобщенной корреляционной функцией процесса Х(ф). При этом сам О. с. и. Х(ф) и его корреляционный функционал Жфр ф2) допускают спектральные разложения вида *(Ф)=ПоФ<шга), фш= £ ek\u)dt, (з) Жф1,ф2) = <[ввввФ,Шф2а)^а), (4) где F(X) - действительная неубывающая спектральная функция О. с. п. Х(ф), к-рая в случае, когда D = DM) удовлетворяет условию £(1 + X2VpdF(X) <oo (5) при нек-ром р^О, a ZAX) - случайная функция с некоррелированными приращениями такая, что E|r/Z(^)| = dF(X) (см. [1] - [3]). Выбирая в качестве D нек-рое пространство целых аналитич. функций, можно также прийти к О. с. п. Х(ф) с экспоненциально возрастающей на бесконечности спектральной функцией F(X) (см. [4]). Разложения (3) и (4) обобщают родственные им спектральные разложения стационарных случайных процессов; в частном случае О. с. п. белого шума F(X) = a^X + a2, где fl,>0 и а2 - постоянные. Обобщением понятия О. с. п. является понятие однородного обобщенного поля в пространстве IR", то есть обобщенного случайного поля Х(ф) [где ф(0 = ф(^, ..., tn) - функция, принадлежащая пространству D^ финитных бесконечно дифференцируемых функций п переменных], удовлетворяющего тем же условиям, к-рые определяют О. с. п., но при Vay(i) = q>(t + a) = ф(^ +av ..., tn + an), где t = (t\, ..., tn) и а = (а\, ..., ап) - векторы в В?и. Для однородного обобщенного поля Х(ф) в II?" справедливы формулы, полностью аналогичные (1) - (5); в частности, спектральные разложения Х(ф) и Жф], ф2) здесь имеют вид X(q>)=\^q>(X)ZAdX), где ф(» = |к„е,иф(*)</*, A.= tt,, ..., Хп), tX=t^+ ... + tn\n, Жф,,ф2) = J ф,Мф2(ШЯи где F(dX) - неотрицательная мера на IP" такая, что }р?„(1 + |х|2Г''ЯЛ)<оо, М=(х] + ... + Х2пУ/2, при нек-ром р>0, a Z(dX) - случайная мера на II?" такая, что E\z(dX)\2 = F(dX) (см. [3], [5]). Лит.: [1] Гельфанд И. М., «Докл. АН СССР», 1955, т. 100, К? 5, с. 853-56; [2] Ито К., «Математика», 1957, т. 1, № 3, с. 139-51; [3] Гельфанд И. М., Виленкин Н.Я., Некоторые применения гармонического анализа. Оснащенные гильбертовы пространства, М., 1961; [4] Onoyama Т., «Mem. Fac. Sci. Kyushu Univ., Ser. A», 1959, v. 13, X? 2, p. 208-13; [5] Яглом A.M., «Теория вероятн. и ее примен.», 1957, т. 2, в. 3, с. 292-338. А. М. Яглом. ОБРАЗУЮЩАЯ (generator) - см. Эргодическая теория. ОБРАТНОЕ НЕРАВЕНСТВО КОЛМОГОРОВА (reverse Kolmogorov inequality) - см. Колмогорова неравенство. ОБРАТНОЕ СТОХАСТИЧЕСКОЕ ДИФФЕРЕНЦИАЛЬНОЕ УРАВНЕНИЕ (backward stochastic differential equation) - уравнение, к-рому удовлетворяет гладкая модифика- ОБРАТНОЕ 409
ция Xxs(t) решения стохастического дифференциального уравнения Xxsti)=x + \. Мт, Хг,(тШт+[ .о(тДи(х)Шт), где w - винеровский процесс, если рассматривать ее как функцию х, s при фиксированном t. О. с. д. у. - это обратная задача Коши для стохастич. дифференциального уравнения с частными производными следующего вида: -dv(s, х) =Г— troo*(s, x)&xxv(s, x) + + b(s, x)(Jxv(s, x)\ds + o(s, x)tfxv(s, x)*dw(s), s<t; v(t, x) =x, где соответствующий стохастич. интеграл понимается как обратный интеграл Ито. Лит.: [1] Розовский Б. Л., Эволюционные стохастические системы, М., 1983. Б. Л. Розовский. ОБРАТНОЕ УРАВНЕНИЕ ДИФФУЗИИ (backward diffusion equation) - см. Стохастическое дифференциальное уравнение с частными производными. ОБРАТНОЕ УРАВНЕНИЕ КОЛМОГОРОВА (backward Kolmogorov equation) - см. Диффузионный процесс, Колмогорова уравнения, Случайный процесс с независимыми приращениями, Стохастическая дифференциальная геометрия. ОБРАТНЫХ ФУНКЦИЙ МЕТОД (inverse distribution function method) - см. Моделирование случайных величин и функций. ОБРАЩЕНИЕ ВРЕМЕНИ (time reversal) - см. Обращенный марковский процесс. ОБРАЩЕНИЯ ФОРМУЛА (inversion formula) - формула, позволяющая по характеристической функции f(t) определить соответствующую распределения функцию F: F(a + h)-F(a) = lim -1- f? ^^-e-itaf{t)dt, Г->оо 2к J-T it где ana + h - точки непрерывности F, h > 0. Если /"абсолютно интегрируема, то F абсолютно непрерывна и имеет непрерывную ограниченную производную (О.ф. для плотности). Другие формулы обращения см. в [11 — [3J. Лит.: [11 Лукач Е., Характеристические функции, пер. с англ., М., 1979; [21 Феллер В., Введение в теорию вероятностей и ее приложения, пер. с англ., т. 2, М., 1984; [31 Петров В. В., Предельные теоремы для сумм независимых случайных величии, М., 1987. В. М. Круглое. ОБРАЩЕННАЯ ЦЕПЬ МАРКОВА (reversed Markov chain), цепь Маркова, обратная заданной, - Маркова цепь, развитие к-рой во времени соответствует эволюции заданной цепи в обращенном времени. Для всякой цепи Маркова Х = (Хр X2,...) в классич. смысле семейство У = (..., У_р У0) с Y-n = Xn, и^О, обладает марковским свойством в соответствующей форме (см. [11); У и есть О. ц. М. но отношению к X. Понятию О. ц. М. придается и несколько иное содержание. Если однородная цепь Маркова X с вероятностями перехода Ру задана на конечном или счетном множестве Е = {\, 2,...} и имеет начальное стационарное распределение |i = (u^, jjl2» ) с и->0, то цепи У отвечают вероятности перехода ^=Р{У-.=У|У-.-| = «'} = йаМ- (,) 410 ОБРАТНОЕ где i, УеЕ, п^О. В этом случае всякую цепь Маркова с теми же вероятностями перехода именуют О. ц. М. по отношению к | X. Это же название сохраняется и тогда, когда вероятности j перехода pi} нек-рой цепи задаются последним из выражений (*) в предположении, что |i - произвольная инвариантная для X мера с |ij>0. Цепь Хобратима, если р = р . Лит.: [11 Дуб Дж., Вероятностные процессы, пер. с англ., М., 1956; [21 Кемени Дж., С не л л Дж., Конечные цепи Маркова, пер. с англ., М., 1970; [3] ГихманИ.И., Скоро ход А. В., Теория случайных процессов, т. 1, М., 1971. д/. г. Шур. ОБРАЩЕННЫЙ МАРКОВСКИЙ ПРОЦЕСС (reversed Markov process) - процесс, полученный из исходного марковского процесса изменением направления отсчета времени на противоположное. Пусть Хп t е (-«>, оо) - случайный процесс, обладающий марковским свойством. Обращенным марковским процессом называется процесс Yt = Х_р также обладающий марковским свойством ввиду симметрии прошлого и будущего. При рассмотрении однородных марковских процессов симметрия прошлого и будущего пропадает, и под обращенным процессом понимают процесс Yt = Хгч, t ^ £, де £- момент обрыва процесса X, [или же нек-рый случайный момент такой, что £(6/г0)) = тах{£(о)) - h, 0}, h > 0, 6/, - оператор сдвига!. Такой процесс, вообще говоря, можег не быть марковским; достаточным условием марковости процесса Y, является строгая марковость процесса Xt. При нек-рых доиол- I нительных предположениях процесс Yt может рассматриваться как однородный марковский процесс, дуальный к Xt. Лит.: [\] Chung К. L., Wa I s h J. В., «Acta math.», 1969, t. 123, p. 225-51; [21 SmvtheR.T., Walsh J. В., «Invent, math.», 1973. t. 19, p. 113-48; [3] Nagasawa M., «Nagoya Math. J.», 1964, v. 24, p. 177-204; [41 Jeulin Т., «Z. Wahr. und vervv. Gel).», 1978, Bd 42, H. 3, S. 229-60. с. E. Kyjwuoe. ОБРЫВА МОМЕНТ (killing time) - правый конец С, интервала жизни обрывающегося марковского процесса. Если Х=(Хр £, .с/р PJ - однородный процесс, то £ = £(о)), coeQ, принимает значения из [0, + °°|, {(^^e.r/Д^ является оста новки моментом), и траектория X(t, со) определена при £е[0, £(о))). Процесс X называется необры вающи мс я, если £ = + оо, и нормальным, если ^(ш) > 0 для всех О) € Q (см, [11). В общей теории неоднородных марковских процессов (см. [2]) вводят дуальный к £ случайный момент рож- д е н и я а процесса X, а^ С, и считают X заданным па интер- | вале (а, £), открытом только справа, либо только слева, либо с обеих сторон. Лит.: [II Дынкин Е.Б., Марковские процессы, М., 19ьЗ; [21 Кузнецов С. Е., в кн.: Итоги науки и техники. Современные проблемы математики, т. 20, М., 1982, с. 37-178. а. А. Юшкевич. I ОБРЫВАЮЩИЙСЯ МАРКОВСКИЙ ПРОЦЕСС (killed Markov process) - марковский процесс, траектории которого определены не при всех значениях времени, а лишь I на нек-ром случайном интервале. Именно, пусть (£, иП) - j измеримое пространство и пространство (£д, ,/\) получено присоединением к Е изолированной точки AgE. Пусть ХА = (Хл, ,7p Рг) - необрывающийся однородный марковский процесс в пространстве ЕА, для к-рого точка Д явлнек'я поглощающей: из ХА(со) = А следует Хл((о) = А при всех t > s. Пусть £((о) = inf {t:Xf(to) = А}, а ХДсо) =Хл((о) на множес!ве {Xf (со) ф А}. Набор X = (Хр С,, Mv Pv) называют о б р ы в а ю - щимся (однородным) марковским процессом в пространстве F. Величину £ называют обрыва моментом и'Ш временем жизни О. м. п. X; обычно предполагают, что £>0 и j X? = А. Говорят, что О. м. и. X обладает каким-либо свойством (напр., строго марковским), если этим свойством обладг ет ! процесс ХА; иногда свойства в момент С, должны быть указаны
специально. Функциюp(t, х; Г) = Px-{Xt е Г} называют переходной функцией процесса X; она является субмар- ковской переходной функцией. О. м. п. возникают в результате применения к необрывающимся марковским процессам простых преобразований, при построении подпроцесса и др. (см. Марковский процесс; преобразования). Введенные понятия естественно распространяются и на неоднородные процессы. Лит.: [1] Гихмаи И.И., С короход А. В., Теория случайных процессов, т. 2, М., 1973; [2\ Д ы и к и н Е. Б., Марковские процессы, М., 1963; [3] Blumenthal R.M., Get oor R. К., Markov processes and potential theory, N. Y. - L., 1968. С. E. Кузнецов. ОБСЛУЖИВАНИЯ ДИСЦИПЛИНА (queueing disci pline) - совокупность правил, определяющих распределение требований по каналам обслуживания и организацию очередей в системе обслуживания (см. Очередь). О. д. отражает логич. сторону процесса ее функционирования. В математич. моделях систем обслуживания О. д. обычно описывается конечным вероятностным автоматом, то есть выбор требования и прибора зависит только от наличного состава требований в каналах обслуживания и в очереди. В более сложных системах учитываются также качественные характеристики (прошедшее время ожидания, обслуживания и т.н.). О. д. в узком смысле - порядок выбора требования из очереди при освобождении канала обслуживания. Различают О. д.: п р я м у ю (в порядке очереди), инверсную (в порядке, обратном поступлению требований), случайную (требование выбирается из очереди но равновероятному закону). И. Н. Коваленко. ОБСЛУЖИВАНИЯ СЕТЬ (queueing network) - совокупность взаимодействующих обслуживания систем (узлов, станций). Взаимодействие определяется заданием маршрутов движения вызовов (заявок, требований) между узлами; типов систем обслуживания, действующих в узлах; обслуживания дисциплин; распределений времен обслуживания и т. д. Различают открытые и замкнутые О. с. Открытые О. с. характеризуются тем, что для них существуют входной поток вызовов, поступающих в сеть извне, и возможность для вызовов покидать сеть. В замкнутых С), с. оба эти элемента отсутствуют, в них постоянно циркулирует заданное фиксированное число вызовов. Простейшие замкнутые сети можно описать следующим образом. В системе, состоящей из N станций (узлов) обслуживания, постоянно находится п вызовов. Станция обслуживания с номером j является одноканальной системой с ожиданием, управляемой последовательностью независимых случай- пых величин {т }, 6=1,2,... (времен обслуживания), с функцией распределения G.(x) = P{x <x}, j = \, ..., N. Перемещение вызовов с одной станции на другую определяется неприводимой матрицей переходных вероятностей П=||лг-,|| порядка N. Вызов после обслуживания на станции i с вероятностью Щ: направляется на обслуживание на станцию /. Если станция занята, то он становится в очередь. Таким образом, распределение эволюции сети как случайного процесса полностью определяется тройкой п, П, G, где G-{G{, ..., GN) есть вектор функций распределения, и начальным состоянием сети. Наиболее изучены О. с, для к-рых времена обслуживания экспоненциальны: Gt(x) = 1 -е~^х. В этом случае процесс <j(t) = [<72(0, •••» <7,v(£)]i гДе 9/(0 ~ длина очереди на станции j в момент t, qx(t) = n- q2(0 - ... - q^M), будет марковским. Для него всегда существует lim P{q(t) = k} = pn(k), k = (k2, ..., kN), (1) /_>oo 'ж рв(»=сПГ.1<"./и,)*'.хГ_1*.=п> с - нормирующий множитель, щ - финальные вероятности матрицы П (см. [1] - [4]). Простейшие открытые О. с. при тех же матрице П и векторе G отличаются от замкнутых наличием входного потока вызо- bob, прибывающих через интервалы т[ , k = 1, 2, ..., и поступающих на станцию с номером j, j^2, с вероятностью щ.-. Каждый раз после обслуживания на станции j вызов покидает сеть с вероятностью n.v В остальном обслуживание на N - 1 станциях (с номерами от 2 до N) происходит так же, как в замкнутой сети. Эволюция такой открытой сети полностью определяется парой П, G и начальными условиями. Ее можно представлять себе как «замкнутую сеть», в к-'рой принято <7j(£)=oo. Если GAx) = \-e ^x, то процесс q(t), как и для замкнутой сети, будет марковским. Если к тому же Ttj/Uj > тг^/Цу при всех j ^ 2, (2) то существует lim P{q(t) = k}=p(k), (3) где с - нормирующий множитель (см. [1] - [4]). Результаты (1), (3) могут быть распространены на сети, состоящие из многоканальных систем (см. [1] - [4]). Само существование пределов (1), (3) может быть доказано и без предположения экспоненциальности GAx) (см. [6], [9]), заменив условие (2) неравенствами TCjEij >л/Ет/, j^2. При этом условии может быть доказана также сходимость pn(k) ->p(fc) при п ->о°, то есть сходимость в известном смысле замкнутых сетей к открытым (см. [9]). Получены и другие асимптотич. результаты (см. [8], [9]). О. с, встречающиеся в приложениях, могут иметь более сложную природу - вызовы бывают нескольких типов (каждому типу соответствует свое распределение времени обслуживания), бывают иные дисциплины обслуживания, вероятности переходов от узла к узлу могут зависеть от более глубокой предыстории и т. д. Теория О. с. - новый, быстро развивающийся раздел обслуживания систем теории. Она возникла в 60-х гг. и сформировалась к 70-м гг. 20 в. в связи с проблемами информатики - задачами определения вероятностно-временных характеристик функционирования аппаратуры, задачами программного обеспечения вычислительных систем, сетей передачи информации, сетей ЭВМ и др. Наряду с уже сложившимися методами теории систем обслуживания в теории О. с. используются и свои специфич. подходы, индуцирующие новые вероятностные модели и задачи (см. [10]-[13]). Лит.: [1] КлейнрокЛ., Теория массового обслуживания, пер. с англ., М., 1979; [2] его же, Вычислительные системы с очередями, пер. с англ., М., 1979; [3] Kelly F. P., Reversibility and stochastic Networks, N. Y., 1979; [4] Башарин Г. П., Толмачев А. Л., в кн.: Итоги науки и техники. Сер. Теория вероятностей. Математическая статистика. Теоретическая кибернетика, т. 21, М., 1983, с. 3-119; [5lGnedenkoB., Konig D., Handbuch der Bedienungstheorie, Bd 2, В., 1984; [6] Fran ken P. [a. o.], Queues and point processes, В., 1981; [7] Goodman J., Massey W., «J. Appl. Probab», 1984, v. 21, p. 860-69; [8] Боровков А. А., Асимптотические методы в теории массового обслуживания, М., 1980; 19] его же, Теория вероятностей, 2 изд., М., 1966; [10] его же, «Теория ве] оятн. и ее примен.», 1986, т. 31, в. 3, с. 474-90; 1987, т. 32, в. 2, с. 282-98; [11] Кель- бертМ.Я., Сухов Ю. М., в кн.: Итоги науки и техники. Сер. Теория вероятностей. Математическая статистика. Теоретическая кибернетика, т. 26, М., 1988, с. 3-96; [12] Башарин Г. П., Бочаров П. П., Коган Я. А., Анализ очередей в вычислительных сетях, М., 1989; [13] Dai I.G., «Ann. Appl. Probab.», 1995, v. 5, p. 49-77. Г. П. Башарин, А. А. Боровков, В. В. Калашников. ОБСЛУЖИВАНИЯ 411
ОБСЛУЖИВАНИЯ СИСТЕМ СТАТИСТИЧЕСКОЕ МОДЕЛИРОВАНИЕ (statistical simulation of queueing systems) - см. Статистическое моделирование систем обслуживания. ОБСЛУЖИВАНИЯ СИСТЕМ ТЕОРИЯ (queueing theory), теория массового обслуживания, теория очередей, - прикладная теоретико-вероятностная дисциплина, изучающая случайные процессы в обслуживания системах с приложением к рациональному построению этих систем. Практич. направленность О. с. т. определил А. Я. Хинчин: «В пауке, практической деятельности людей и в быту каждодневно создаются такие положения, когда возникает массовый спрос на обслуживание какого-либо специального вида, причем обслуживающая организация, располагая лишь ограниченным числом обслуживающих единиц, не всегда способна немедленно удовлетворить все поступающие заявки... перед теорией встает, в сущности, одна основная задача: установить с возможной точностью взаимную зависимость между числом обслуживающих единиц и качеством обслуживания» (см. [1]). Первые работы по О. с. т. были выполнены А. Эрлангом (A. Erlang) в 20-х гг. 20 в.; они были посвящены расчетам телефонных систем. А. Я. Хинчин в 1932-33 решил основные задачи обслуживания систем с ожиданием и одним каналом. А. Н. Колмогоров в 1931 исследовал обслуживания систему с ожиданием многоканальную. Б. В. Гнеденко решил (1934) задачу о простое станков. А. Я. Хинчин создал научные основы О. с. т. (1955), указав аналитич. методы решения ее основных задач (см. [1]). В любой задаче О. с. т. задается система обслуживания - математич. модель, обычно описываемая с помощью интуитивно понятных терминов, заимствованных из реальных систем. Эта модель включает описания входящего потока требований (заявок, потребителей), подлежащих обслуживанию; обслуживающих каналов (приборов, линий), каждый из к-рых способен одновременно обслуживать одно требование; распределения длительности обслуживания требования и обслуживания дисциплины. Как правило, рассматриваются и о л подо с ту п н ы е системы: любое требование может занять любой свободный канал. В большинстве работ принято предположение об обслуживании требований в порядке их поступления (исследованы также инверсный порядок и случайный порядок выбора требования из очереди). В зависимости от числа каналов т системы подразделяются на одно- канальные (т = 1) и многоканальные (т > 1). Рассматриваются также системы с бесконечным числом каналов. Если в момент поступления требования все каналы заняты, это требование направляется в устройство для ожидания, включающее г мест для ожидания. При занятости всех мест требование получает отказ (теряется). Особо распространены системы с ожиданием (г = оо) и с отказами (г = 0). Возможности аналитич. исследования системы обслуживания существенно зависят от аналитич. предположений о входящем потоке и распределении длительности обслуживания требования. С середины 50-х гг. повсеместно распространилась классификация систем, предложенная Д. Кендаллом (D. Kendall). Систему обслуживания кодируют символами Л|#|т|г, где т и г определены выше, А - символ входящего потока, В - символ распределения времени обслуживания. Вместо A|#|m|°° обычно пишут: A|£|m. Символ A = GI (сокращение от general independent) обозначает входящий поток с ограниченным последействием, символ B = G (от general) означает, что длительность обслуживания имеет произвольное 412 ОБСЛУЖИВАНИЯ распределение. Символы М, Ek, D на месте А\в\ означают, что интервалы между поступлением требований (длительности обслуживания) имеют соответственно показательное распределение, Эрланга распределение. Во всех случаях предполагается, что интервалы между поступлением требований гп и длительности обслуживания г\п - независимые в совокупности случайные величины. Элементарная теория систем МIМI т \ г строится с помощью рождения и гибели процессов. Пусть v(t) - число требований в системе (на обслуживании и в устройстве для ожидания) в момент г. Тогда v(0 - процесс рождения и гибели с параметрами Xk = X при k<m + r, Xk = 0 при k^m + r, Ц* = /гц при k^m, \ik = m\i при k>m, где X - параметр входящего потока, (X - параметр экспоненциального распределения длительности обслуживания. Если г<°о либо /я = оо, то вероятность p^t) наличия k требований в системе в момент t сходится при t —> °° к пределам к^, образующим эргодич. распределение. В частности, для системы с отказами для него выполняется Эрланга формула. Вероятность отказа, равная эргодич. среднему числа отказов для первых N требований входящего потока при N —>о°, равна пт+г. Для систем с отказами эта характеристика является важнейшей. При г = °° эргодич. распределение существует лишь в случае р<т, где р = Х/\1\ при pfw среднее число требований в системе в случае стационарного процесса v(0 стремится к °°. Этот результат имеет принципиальное прикладное значение: в условиях неравномерного спроса и обслуживания невозможно планирование системы на основании уравнения Х = т\1\ необходим нек-рый запас возможностей системы по сравнению с потребностями. При р<т эргодич. распределения величины очереди v(0 и длительности ожидания даются формулами Колмогорова (см. Обслуживания система с ожиданием многоканальная). Метод вложенных цепей Маркова (открытый Д. Кендаллом в 1953) намного расширил круг задач О. с. т., допускающих аналитич. решение: оказалось, что с помощью ценен Маркова можно исследовать многие процессы в системах обслуживания, не являющиеся марковскими. Фактич. применение этого метода осуществил впервые А. Я. Хинчин в начале 30-х гг. при построении теории системы M|G|l. 0. с. т. развивается в следующих направлениях. 1. Аналитическое исследование структурно-сложных систем. Это направление тесно связано с необходимостью дать математич. теорию сложных систем техники, физики, исследования операций. Разработаны основные схемы случайных процессов, описывающих поведение систем обслуживания (марковский процесс со счетным множеством состояний, полумарковский процесс и связанный с ним линейчатый процесс и нек-рые другие), в рамках к-рых существуют алгоритмы вывода формул для основных характеристик процесса обслуживания, интерпретируемых как стационарные распределения, распределения времени пребывания в множестве состояний и др. Особенно распространены формулы в виде рациональных выражений от производящих функций случайных величин, определяющих процесс обслуживания (длительностей обслуживания, интервалов между поступлением требований). Подобные формулы (а в более общих случаях и подходы к их нахождению) указаны для многих классов приоритетных систем обслуживания с одним обслуживающим каналом. Изучены системы обслуживания с динамич. приоритетами, служащие моделью обработки информации в ЭВМ. В связи с проектированием памяти ЭВМ исследованы приоритетные системы с ограниченным числом мест ожидания (с раздельными или общей очередью). В связи с задачами надежности математической теории изучаются системы обслуживания с
lit надежным каналом: отказ канала интерпретируется как поступление приоритетного требования. Исследуются системы с полумарковски-зависимыми интервалами между поступлением требований и длительностями обслуживания. Циклы работ посвящены системам с повторяющимися вызовами, системам с «разогревом» (требование, обслуживаемое в начале интервала занятости, характеризуется особым распределением дли- кльности обслуживания). Рассматривается функционирование систем с дисциплинами обслуживания, отличными от обычной очередности. В то время как в классич. системах условие эргодичности процесса интуитивно понятно (см. Обслуживания система с ожиданием многоканальная), для бо- лое сложных систем вывод этого условия весьма сложен. Характерным примером таких систем является система последовательного обслуживания с блокировкой, служащая моделью различных технологии, процессов. Из неклассич. систем обслуживания, имеющих большое прикладное значение, педует отметить систему с временными ограничениями. Достаточно общая схема ограничений состоит в том, что при времени ожидания, равном х, требование занимает канал в течение случайного времени с функцией распределения B(z\x). Исследованы условия эргодичности таких систем, указаны случаи явного решения уравнений для стационарного распределения. Широкий класс задач О. с. т. решается метолом граничных задач в теории систем обслуживания (см. также Обслуживания система с ожиданием и одним каналом обслуживания). 2. Асимптотические результаты. С усложнением системы, даже в случае принципиальной возможности вывода явных выражений для ее характеристик, эти выражения становятся мало пригодными для анализа и вычислений. Поэтому приобрели особую роль асимптотиЧ. методы О. ст., приспособленные к изучению процесса обслуживания при критич. значениях тех или иных параметров. Наиболее полная теория развита для нагруженных систем обслуживания. Начавшись с асимптотич. анализа случайных блужданий, связанных с системой G/|G|1, в к-рых Ю.В.Прохорову принадлежит развитие метода диффузионного приближения, теория пополнилась собирательными предельными теоремами \. А. Боровкова, раскрывшими инвариантность определенных предельных соотношений относительно структуры системы обслуживания. А. А. Боровков получил также результаты по аппроксимациям процесса обслуживания в системах с большим числом каналов. Нрактич. интерес представляют также исследования систем с малой загрузкой, в к-рых отношение среднего времени обслуживания к среднему времени между поступлением требований рассматривается как малая величина. Подобные системы служат основой построения приближенных методов расчета высоконадежных систем (см. Надежности математическая теория, Резервирование). Развиваются также численные методы решения задач О. с. т. Мощным вычислительным методом исследования систем обслуживания является метод малого параметра. Замечая, что одни характеристики системы малы но отношению к другим (напр., среднее время восстановления в высоконадежной системе мало по сравнению со средним временем безотказной работы), можно отделить «быстрые» процессы от «медленных», что приводит к значительному упрощению модели. Большим вкладом в теорию метода малого параметра как метода О. с. т. явились результаты, касающиеся идеи укрупнения (см. Маркова цепь; укрупнение состояний, а также Обслуживания система с отказами). 3. Проблемы инвариантности. Система обслуживания может рассматриваться как случайный оператор, преобразующий входящий ноток в выходящий (множество моментов окончания обслуживания требований). Весьма важной оказывается инвариантность вероятностных свойств потока относительно преобразования системой. Так, система m|g|°° при конечном среднем времени обслуживания преобразует простейший поток в простейший с тем же параметром. Этим же свойством обладает система М\м\т при р^т. Свойство инвариантности потока служит основой анализа сетей обслуживания - систем, в к-рых требования после обслуживания одними каналами поступают на другие. Другая проблема - проблема инвариантности в теории систем обслуживания - связана с выяснением условий, при к-рых характеристики обслуживания зависят лишь от средних значений определяющих случайных величин. Начавшись с фундаментального результата Б. А. Севастьянова (см. Севастьянова формула), теория инвариантности (нечувствительности) была доведена до получения необходимых и достаточных условий в ряде обобщенных схем и, с другой стороны, оказалась связанной с возможностью вывода простых анали- гич. формул для характеристик систем обслуживания (в том числе описывающие процессы теории надежности). 4. Исследование потоков событий. Теория входящего потока была создана А. Я. Хинчиным (1955). В частности, им было дано исчерпывающее описание входящего потока без последействия и входящего потока с ограниченным последействием, введены Пальма функции и обоснованы Пальма формулы. Дальнейшее развитие связано с разработкой целого ряда конструктивных схем потоков (вторичных пуассонов- ских, полумарковских и т.п.) и созданием общих классов потоков (см. Маркированный точечный процесс). Современный подход к потокам позволяет построить на базе маркированных точечных процессов эргодич. О. с. т., заменив классич. предположение о независимости определяющих последовательностей значительно более общим свойством стационарной случайной последовательности. В рамках указанной схемы получили обоснование: закон сохранения интенсивности, простейший пример к-рого был указан А. Я. Хинчиным в 1932 (совпадение распределений числа требований в системе M|G|l в момент, предшествующий поступлению требования, и непосредственно после окончания обслуживания требования); формула Литтла L = Xw, где L - средняя величина очереди (не считая обслуживаемых требований), А, - параметр входящего потока, w - среднее время ожидания требования; свойство, названное А. Я. Хинчиным «основным законом стационарной очереди»: при простейшем входящем потоке распределение процесса, связанного с обслуживанием (числа требований в системе, виртуального времени ожидания и т. п.), в произвольный момент времени в установившемся режиме совпадает с распределением в момент поступления требования. 5. Эргодические теоремы, теоремы об устойчивости. При исследовании систем обслуживания эргодичность обычно выводится из теории эргодич. цепей Маркова. Во многих случаях применима теорема Мустафы: достаточным условием эргодичности непериодич. счетной цепи Маркова с сообщающимися состояниями и вероятностями перехода pik является соотношение V (fk~ fi)Pik^~г^ £>0, для нек-рой неотрицательной последовательности {fk} при всех i, кроме, возможно, конечного числа значений. При этом £ fkPik<oc Для всех *• Для систем, описываемых многомерными марковскими процессами, эргодичность устанавливается теоремой Севастьянова (1956). Системы с вложенным восстановления процессом (типа M|G|m|r) исследуются на эргодичность методом процессов восстановления. Свойства устойчивости систем обслуживания ОБСЛУЖИВАНИЯ 413
типа ограниченности Ef(x(t)), t^O, где x(t) - процесс, связанный с системой, f(x) - неотрицательная функция, fix) ->«> при Ы —>о°, исследуются методом пробных функций (см. Устойчивости теорема; метод пробных функций). К изучению непрерывности характеристик системы обслуживания относительно определяющих (управляющих) последовательностей кроме перечисленных эффективно применяется метрич. подход. Метод обновляющих событий определил единый подход к проблемам эргодичности, устойчивости и непрерывности. См. также Устойчивости теорема в теории систем обслуживания. 6. Конструктивные классы случайных процессов. Для решения многих задач, в частности для моделирования систем обслуживания, полезно построение конструктивно задаваемых (то есть выражаемых с помощью рекуррентной формулы через последовательность величин) случайных процессов. Такова, напр., схема кусочно линейного процесса - модель, позволяющая описывать все классич. и многие неклассич. системы обслуживания. См. также Обслуживания систем теория; метод дополнительных переменных. 7. Аналитические и численные методы О. с. т. служат в конечном счете оптимизации систем обслуживания, методы к-рой, основанные на управляемых цепях Маркова и управляемых марковских процессах, интенсивно используют, в частности, для оптимизации эксплуатации технич. систем. Лит.: [1] ХинчинА. Я., Работы по математической теории массового обслуживания, М., 1963; [2] Гнеден ко Б. В., Коваленко И. Н., Введение в теорию массового обслуживания, 2 изд., М., 1987; [3] Климов Г. П., Стохастические системы обслуживания, М., 1966; [4] Боровков А. А., Асимптотические методы в теории массового обслуживания, М., 1980; [5] Гнеден ко Б. В. [и др.), Приоритетные системы обслуживания, М., 1973; [6] Ивченко Г. И., Каштанов В. А., Коваленко И.Н., Теория массового обслуживания, М., 1982; [7] Клейнрок Л., Теория массового обслуживания, пер. с англ., М., 1979. И.Н. Коваленко. ОБСЛУЖИВАНИЯ СИСТЕМ ТЕОРИЯ; асимптотические методы (asymptotic methods of queueing theory) - использование асимптотических законов (в том числе предельных теорем теории вероятностей) для изучения обслуживания систем. Можно выделить (весьма условно) следующие направления исследований, основная цель к-рых - изучение процессов обслуживания путем отыскания для них подходящих приближений. 1. Асимптотич. анализ явных формул или уравнений, описывающих распределение (обычно стационарное) той или иной характеристики системы. Для осуществления такого анализа предполагается само наличие таких явных формул или уравнений и, кроме того, неограниченное сближение системы с каким-нибудь своим критич. состоянием. Именно на этом пути были получены первые результаты о поведении однока- нальных систем в нагруженном состоянии (см. [1]), изучено поведение систем с отказами при большом числе каналов обслуживания (см. [2], [3]). Закономерности, подмеченные при этом на сравнительно простых примерах, оказываются справедливыми в значительно более общих условиях, в к-рых явные формулы уже отсутствуют. 2. Второе направление, значительно более широкое, связано с изучением предельного поведения самих случайных процессов, характеризующих систему (опять при сближении системы с каким-нибудь ее критич. состоянием). Было установлено (см. [4]), что в основе явлений, возникающих в упомянутых нагруженных системах, лежит принцип инвариантности Донскера - Прохорова. Этот принцип позволяет с помощью винеровского процесса приближенно описывать процессы, порожденные суммами случайных величин. Основной 414 ОБСЛУЖИВАНИЯ целью второго направления является установление так наз. собирательных предельных теорем и выяснение максимально широких и общих условий, при к-рых действуют эти собирательные асимптотич. законы (напр., закон о сходимости нормированной длины очереди к диффузионному процессу). Методы этого направления существенно отличаются от методов п. 1 и основаны, как правило, на использовании общих теорем сходимости для процессов. Примером может служить изучение многоканальных систем обслуживания, когда число каналов велико, а входной поток является интенсивным. В зависимости от соотношения между интенсивностью входного потока и числом каналов возможны I три режима работы: «надкритический» (когда число каналов I асимптотически эквивалентно бесконечности), «докритиче- ский» (постоянно загружены почти все каналы) и «критический» - промежуточный между ними. В этих условиях асимптотич. поведение процесса, описывающего число занятых линий, может быть изучено довольно полно. В качестве пре- I дельных процессов получаются процессы довольно сложной природы, при этом закономерности, обнаруженные в названных трех режимах, оказываются существенно различными. В качестве предельных процессов в теории систем обслуживания, по-видимому, чаще других возникают диффузионные марковские процессы. При изучении сходимости к диффузии можно рассматривать более общие матемагич. модели процессов обслуживания, не связанные с конкретной их природой, и определять их, напр., как трехмерный случайный процесс S(t) = (e(t), КО, s(t); t^O), где все компоненты неотрицательны, монотонны и обладают свойством I r/(0 = КО - КО - КО ^ 0. Компонента КО имеет смысл чис- j ла вызовов, поступивших в систему к моменту t, компонента ! г (О - числа вызовов, получивших отказ, и компонента s(0 - I числа вызовов, обслуженных системой. Изучаются обычно , гакие характеристики системы, как «процесс очереди» q(t) и I «процесс отказов» л(0 = г(0/КО. | В реальных системах совместное распоеделение компонент е, г и s задается путем указания их «локальных» свойств I (распределение времени обслуживания и др.), а также нек-рых алгоритмов, определяющих природу процессов обслуживания. С точки зрения асимптотич. подхода оказывается досга- | точным характеризовать процесс S(c) с помощью свойств j приращений компонент е, г, s за сравнительно большие иро- I межутки времени. Условия, налагаемые на эти приращения, I имеют обычно простую и доступную проверке форму. Достигаемая при этом общность результатов составляет несомненное преимущество асимптотич. подхода (см. 15]). I 3. Третье направление носит несколько специальный харак- I тер и связано с так паз. устойчивости теоремами (или теоремами непрерывности). I lo существу здесь также рассматриваются предельные теоремы для процессов, но уже не «собирательные*, а «индивидуальные». Именно, выясняются условия, при к-рых системы обслуживания будут близки (в смысле распределения того или иного процесса, характеризующего систему) к данной конкретной системе. Термин «устой- I чивость» связан с тем, что такого рода теоремы позволяют I делать заключения о малых изменениях стационарных характеристик при малых отклонениях, испытываемых параметрами системы. Исследования по устойчивости ведутся с помощью нескольких существенно разных подходов. В частности, используются I теория точечных процессов (см. [6]), общий метрич. подход (см. [7]), метод пробных функций Ляпунова (см. [8]), метод построения «точек близости» (см. [9]), метод обновлений | (см. [5]). 4. Следует отметить также подход, связанный с построени- I ем так наз. жидкостных моделей (пределов) для сложных
смтем (сетей) обслуживания (см. 110]-[11J). Пусть, напр., q(t) = (q](t) q^iO) - вектор длин очередей на станциях обслуживания 1, ..., d и /V = ^\ "(0)->°°. Жидкостным пределом называют процесс Х(и) = (Х\(и), ..., X,t(u)), являющийся предельным для последовательности процессов — q(uN) при N —>°°. Процессы Х(и) часто оказываются детерминированными, кусочно линейными, могут служить для описания динамики объемов жидкости в системе сообщающихся сосудов и оказываются очень полезными при изучении условий эргодичности процессов q(t). При более широком понимании асимптотич. методов к ним можно отнести предельные теоремы для входного потока, эргодич. теоремы, задачи отыскания стационарных распределений и др. Лит.: [1J Kingman J. F. С, «Proc. Camb. Phil. Soc», 1961, v. 57, p 902-04; [2] Боровков А. А., Вероятностные процессы в теории массового обслуживания, М., 1972; [3| его же, «Теория вероятн. и ее примен.», 1972, т. 17, в. 3, с. 458-68; [4] Прохоров Ю. В., «Лит. млтем. сб.», 1963, т. 3, № 1, с. 199-205; [5] Боровков А. А., Асимптотические методы в теории массового обслуживания, М., 1980; [6| Fran ken P., «Operationsforschung unci Math. Stat.», 1970, № 2, S. 9-23; [7] Зо л отарев В. М., «Теория вероятн. и ее примен.», 1475, I. 20, в. 4, с. 834-47; [8] Кал a in н и ков В. В., там же, 1977, т 22, в. 1, с. 89-105; [91 его же, в кн.: Проблемы устойчивости стохастических моделей, М., 1980, с. 52-56; [10J DaiJ.G., «Ann. Appl. Probab.», 1995, v. 5, p. 49-77; [11] РыбкоА.Н., Столяр АЛ., «Проблемы передачи информации», 1992, т. 28, с. 3-26. А. А. Боровков. ОБСЛУЖИВАНИЯ СИСТЕМ ТЕОРИЯ; метод дополнительных переменных (queueing theory; supplementary variables method) - метод построения модели функционирования обслуживания системы в виде многомерного марковского процесса £(0 = (v(0; Z,\(0, £>2(^> •••)» гДе v(^) ~ основная переменная (макросостояние системы), £,(0 - до- 1 олнительные переменные, характеризующие выполнение операций, происходящих в момент t. Напр., для системы обслуживания А/|с|и (n-линейной системы с ожиданием при простейшем входящем потоке и произвольном распределении времени обслуживания) марковский процесс ^(0 может быть определен следующим образом: £(0 = (v(£); £i(0, ..., £„(0), где v(t) - число занятых линий, §t(t) - время, прошедшее с начала обслуживания на i-й линии, если она занята; ^(0 = 0 в противном случае. Метод обоснован Д. Р. Коксом (D. R. Сох, 1955), дальнейшее развитие получил в работах Б. А. Севастьянова (см. Севастьянова формула) и др. И. Н. Коваленко. ОБСЛУЖИВАНИЯ СИСТЕМ ТЕОРИЯ; проблема и н - вариантности (queueing theory; insensitivity problem/in- variance problem), проблема нечувствительности,- задача, состоящая в нахождении условий, налагаемых на характеристики обслуживания системы, при к-рых стационарные вероятности состояний не зависят от вида исходных функций распределения, а определяются в терминах средних характеристик системы. Первые результаты в этой области были получены для системы Эрланга (см. [1]). И. Н. Кова- пенко получил (1961) необходимое и достаточное условие инвариантности стационарных вероятностей состояний достаточно общей схемы теории надежности относительно вида функций распределения длительностей обслуживания. Получены также алгебраич. критерии нечувствительности стационарных вероятностей состояний систем обслуживания с зависимыми интервалами между поступлениями требований и зависимыми длительностями обслуживания. Лит.: [1] Очереди и точечные процессы, пер. с англ., К., 1984. Н. Ю. Кузнецов. ОБСЛУЖИВАНИЯ СИСТЕМА (queueing system) - устройство, состоящее из некоторого числа т (1^т^°°) каналов, предназначенных для обслуживания требований (заявок, потребителей); основной объект исследования математической теории систем обслуживания. Модель О. с. обычно включает модель входящего потока; удобно представлять входящий поток как последовательность случайных сигналов, вырабатываемых нек-рым источником требований. Если действие этого источника независимо от функционирования остальной части системы, О. с. называется разомкнутой. В противоположность ей в замкнутых системах требования постоянно существуют и проходят различные фазы состояния (обслуживание, ожидание и т.п.). Большинство результатов теории О. с. относится к разомкнутым системам (см. Обслуживания систем теория, где дана классификация простейших из них, называемых классическими). Теория неклассич. О. с. начала развиваться в 50-х гг. 20 в. Наибольшее значение для приложений имеют так наз. приоритетные системы. В них требования принадлежат нескольким классам: 1, 2, ..., т\ требование класса i является приоритетным по отношению к требованиям классов i + 1, ..., т. Требования каждого класса образуют собственную очередь. Основные виды приоритетов - абсолютный и относительный. При абсолютном приоритете в момент поступления требования более высокого приоритетного класса обслуживание требования с более низким приоритетом прерывается и начинается обслуживание вновь поступившего. Прерванное обслуживание возобновляется, когда все приоритетные требования обслужены. При этом либо все обслуживание начинается заново (абсолютный приоритет с повторением), либо засчитывается затраченное ранее время обслуживания (абсолютный приоритет с запоминанием). При относительном приоритете приоритетное требование принимается к обслуживанию первым после окончания текущего обслуживания требования более низкого приоритетного класса. ВО. с. с чередующимися приоритетами предпочтение того или иного класса требований меняется в процессе обслуживания. Напр., приоритет данного класса может сохраняться до тех пор, пока в системе имеются требования этого класса. Динамические приоритеты- вид чередующихся приоритетов, при к-ром предпочтение требований определяется в зависимости от какого-либо критерия текущей обстановки: напр., в случае требований, пребывающих в зоне действия канала ограниченное время, предпочтение может отдаваться требованию с минимальным ресурсом времени ожидания. Многофазовые системы, в к-рых требование последовательно проходит несколько приборов,- частный случай обслуживания сетей (см. также Обслуживания система с ожиданием и одним каналом обслуживания, Обслуживания система с ожиданием многоканальная, Обслуживания система с отказами). Многие приложения теории О. с. привели к развитию специфич. моделей О. с: коммуникационных систем; различных видов транспорта; поточных линий; теории управления запасами; вычислительных систем; теории надежности и др. Лит.: [1] Гнеден ко Б. В., Ковал ен ко И. Н., Введение в теорию массового обслуживания, 2 изд., М., 1987; [2] Саати Т., Элементы теории массового обслуживания и ее приложения, пер. с англ., 2 изд., М., 1971; [3] Боровков А. А., Вероятностные процессы в теории массового обслуживания, М., 1972; [4] Клейн рок Л., Теория массового обслуживания, пер. с англ., М., 1979; [5] его же, Вычислительные системы с очередями, пер. с англ., М., 1979. И. Н. Коваленко. ОБСЛУЖИВАНИЯ СИСТЕМА замкнутая (closed queueing system) - см. Обслуживания система. ОБСЛУЖИВАНИЯ 415
ОБСЛУЖИВАНИЯ СИСТЕМА многоканальная (multichannel queueing system) - см. Многолинейная система обслуживания. ОБСЛУЖИВАНИЯ СИСТЕМА многокаскадная (mul- ticascade queueing system) - см. Обслуживания система с отказами. ОБСЛУЖИВАНИЯ СИСТЕМА многолинейная (multilinear queueing system) - см. Многолинейная система обслуживания. ОБСЛУЖИВАНИЯ СИСТЕМА неполнодоступная (partially available queueing system) - см. Обслуживания система с отказами. ОБСЛУЖИВАНИЯ СИСТЕМА одноканальная (sin- gle-server/-channel queueing system) - см. Однолинейная система обслуживания. ОБСЛУЖИВАНИЯ СИСТЕМА однолинейная (sin gle-server/-channel queueing system) - см. Однолинейная система обслуживания. ОБСЛУЖИВАНИЯ СИСТЕМА полнодоступная (fully accesible queueing system) - см. Обслуживания систем теория. ОБСЛУЖИВАНИЯ СИСТЕМА разомкнутая (open queueing system) - см. Обслуживания система. ОБСЛУЖИВАНИЯ СИСТЕМА с ожиданием и одним каналом обслуживания (single-server queueing system) - математическая модель процесса образования очереди при возможности одновременного обслуживания не более одного требования. Теория системы Midi с прямым порядком обслуживания (здесь и далее используется символика Кендалла; см. Обслуживания систем теория) в установившемся режиме была исследована А. Я. Хинчиным (1932). Пусть X - параметр входящего потока, \\f(s) = Eexp{-st|}, где г\ - длительность обслуживания требования. Тогда преобразование Лапласа стационарного распределения времени ожидания требования при р = Хх< 1, где т = Ет|, определяется формулой Хинчина: ф(5) = (1-р)/(1-1(1-¥(5))), Re^O. Пусть, далее, T(s) = Eexp{-sC}, где £ - занятости период обслуживающего прибора. При произвольном р функция F(s) однозначно определяется как единственное ограниченное при Res^O и вещественное при s>0 решение функционального уравнения T(s) = \|/(s + Х- XT(s)). Методом вложенных цепей Маркова исследованы стационарные и нестационарные характеристики систем M|G|l, GI\m\\, Ek\o\\, Gl\Ek\\ при различных обслуживания дисциплинах. Система G/|G|l изучена аналитич. методами теории случайных блужданий (см. Факторизации метод). Связь между поведением данной системы и случайным блужданием устанавливается при помощи рекуррентного соотношения, приведенного в ст. Однолинейная система обслуживания. Многие результаты для рассматриваемых О. с. найдены методом виртуального времени ожидания. Развиты также асимптотич. методы анализа систем обслуживания. Исследована проблема устойчивости систем обслуживания. Для класса систем, у к-рых входящий поток и длительности обслуживания суть произвольные стационарные случайные последовательности, развита эргодич. теория. Лит.: [11 Климов Г. П., Стохастические системы обслуживания, М., 1966; [21 Боровков А. А., Вероятностные процессы в теории массового обслуживания, М., 1972; [31 Очереди и точечные процессы, 416 ОБСЛУЖИВАНИЯ | пер. с англ., К., 1984; [4] Ивченко Г.И., Каштанов В. А., Ко- I вален ко И. Н., Теория массового обслуживания, М., 1982. И. Н. Коваленко. ОБСЛУЖИВАНИЯ СИСТЕМА с ожиданием мною канальная (multi-server queueing system) - математическая I модель процесса образования очереди при возможности одно- I временного обслуживания требований в нескольких каналах (линиях, приборах). Классич. О. с. такого рода является система GI \ G \ т (обозначения см. в ст. Обслуживания систем теория). Процессы, характеризующие величину очереди (число требований в системе) и время ожидания в этой системе, описываются многомерными ограниченными случайными блужданиями. Так, длительность wn ожидания п-го требования равна m'm{wn\, ..., wnm}, где wm - время от момента ! поступления п-го требования до освобождения г-го канала от требований до п-ю включительно. Случайные векторы (о>„1, ..., wnm) образуют вложенную цепь Маркова процесса обслуживания. Пусть а - средняя длительность интервала между поступлением требований, т - средняя длительность обслуживания требования. При х<та существует эргодич. распределение указанной случайной последовательности; длительность ожидания wn имеет при п —> °° собственное предельное распределение. При х^та длительности да,?->°о по вероятности за исключением случая, когда с вероятностью 1 интервалы между поступлением требований равны а и длительности обслуживания равны та. | Основные характеристики системы Gl\G\m не выражаются в замкнутом аналитич. виде, хотя исследованы эргодич. соотношения между такими характеристиками процесса обслуживания, как, напр , распределение числ;; требований в системе | в произвольный момент времени, в момент начала обслужива- | ния и в момент окончания обслуживания требования. В част- ' ных случаях (системы GJ\M\m, G/I/tJw, A/|g|1, i:Jo|l и др.) существуют аналитич. формулы. Так, стационарная веро- j ятность рк наличия k требований в системе Gl\M\m в момент, I предшествующий поступлению иск-рого требования, при | k^-m -1 определяется формулой pk = A(o , где А - постоян- I ная, со - корень уравнения | О)"-" J И1 ш)'^а'Л(л), I р - параметр экспоненциальною распределения времени об | служиванпя, АО ) - функция распределение интервала между | поступлением требовании в систему. Стационарная вероят- I ность nk наличия k требовании в системе М\м\т при р = х/а<т и слационарное распределение времени ожида- I ния w задаю.ся формулами Колмокгхжа; в частноети, тсл = (1-р)р при т-\, k<=.Z+, а среднее время ожидания равно рт/(1 - р). Основной вычислительный мет-д для многоканальных О. с- статистическое моделирование систем обслуживания. Лит.: [\\ Гн е д ен ко Б. В., Ко за лен ко И. Н., Введение в тео рию массового обслуживания, 2 изд.. М.. 1987; [2| Коров к о в А А., Вероятностные процессы в теории массового обслуживания, М., 1*372; [3] Cooper R. В., Introduction to queueing theory, 2 ed., L . 1981. И. Н. Коваленко. ОБСЛУЖИВАНИЯ СИСТЕМА с отказами (queueing loss/ balk/blocking system) - обслуживания система, в к-рой требование, поступающее в момент занятости всех доступных для него каналов (линий), получает отказ (теряется для системы). I Основная характеристика О. с. с отказами (О. с со.)- вероятность отказа требованию в стационарном режиме системы. I Система A/|A/|m|0, первоначально исследованная А. Эрлан- I гом (A. Erlang) и К. Пальмом (С. Palm) (см. Эрланга формула), стала основой многочисленных приложений обслужива- I ния систем теории к расчету систем связи, особенно телефон-
ibix. Другая класеич. модель - замкнутая система обслуживания (см. Энгсета формула). Имеются обобщения этих и подобных им формул для стационарных характеристик системы и вероятности отказа (см. Севастьянова формула, Обслуживания систем теория; проблема инвариантности). В простейших аналнтич. предпосылках (входящий поток без последействия, показательное распределение времени обслуживания) системы Эрланга и Энгсета исследуются методами рождения и /ибели процессов. Существенные трудности появляются при исследовании н е п о л и о д о с т у и н ы х систем, характеризующихся тем, что в системе имеется несколько типов требований, каждому из к-рых соответствует множество доступных ему каналов. Эти множества, как правило, пересекаются; задаются приоритеты занятия каналов для различных типов требований; возможно переключение требований с одного канала на другой при его освобождении, а также отказ одним требованиям при поступлении других. Изучаются многокаскадные О. с. с о.: требование одновременно занимает каналы нескольких систем (каскадов). Эти и другие особенности математич. моделей О. с. с о. отражают процессы в реальных сложных системах связи. Теория О. с. с о. используется также в качестве модели функционирования вычислительного комплекса, решающего задачи в реальном масштабе времени. Создана теория (см. [2]) расчета сложных коммуникационных сетей на основании использования приближенных моделей укрупнения состояний описывающего систему случайного процесса (см. Маркова цепь', укрупнение состояний). Большую роль в исследовании О. с. с о. играют комбинагорно-алгебраич. методы, позволяющие, напр., выяснять принципиальную возможность осуществления одновременного включения в телефонную сеть со сложной структурой коммутации заданного числа абонентов. Развиты асимптотич. методы исследования вероятности отказа при большом числе каналов. К решению задач расчета О. с. с о. применяется статистическое моделирование систем обслуживания, обычно после точного или приближенного укрупнения состояний процесса. Лит.: [ 1 ] X и н ч и и А. Я., Работы по математической теории массового обслуживания, М., 1963; [2J Башарин Г.П., Харке- вич А. Д., Шнепс М.А., Массовое обслуживание в телефонии, М., 1968; (3] Боровков А. А., Асимптотические методы в теории массового обслуживания, М., 1980. И. И. Коваленко. ОБСЛУЖИВАНИЯ СИСТЕМА; устойчивость (stability of a queucing system) - см. Устойчивость систем обслуживания. ОБУСЛОВЛЕННОСТИ ЧИСЛО (condition number) - см. Мультиколлинеарность. ОБУЧАЮЩАЯ ВЫБОРКА (training sample) - в дискриминантом анализе и в задачах распознавания образов выборка, для к-рой известно, что все ее элементы принадлежат одному и тому же из имеющихся альтернативных классов и что известен номер этого класса. Обычно количество О. в. совпадает с количеством разделяемых классов, хотя возможны ситуации, когда О. в. имеются не для всех классов. В задачах регрессии О. в.- это выборка, по к-рой оцениваются параметры уравнения регрессии. Лит.: (11 Айвазян С. А., БежаеваЗ.И., Староверов О. В., Классификация многомерных наблюдений, М., 1974. И. С. Енюков. ОБЩАЯ ВЗАИМНАЯ СТРУКТУРНАЯ ФУНКЦИЯ (ge neral cross-structure function) - см. Структурная функция. ОБЩАЯ СТРУКТУРНАЯ ФУНКЦИЯ (general structure function) - см. Структурная функция. ОБЩИЙ ВЕТВЯЩИЙСЯ ПРОЦЕСС (general branching process), процесс Крампа - Мода - Ягерса, - случайный процесс, описывающий эволюцию совокупности независимо развивающихся частиц, каждая из к-рых живет случайное время и может порождать новые частицы несколько раз в течение своей жизни. Модель О. в. п. используется в применениях теории ветвящихся процессов к биологии и демографии (см. [1]). См. также Ветвящийся процесс. Лит.: [1] Jagers P., Branching processes with biological applications, N. Y. - L., 1976. A. M. Зубков. ОБЩИЙ СТАТИСТИЧЕСКИЙ АНАЛИЗ НАБЛЮДЕНИЙ (general statistical analysis of observation), G-анализ,- математическая теория, изучающая нек-рые сложные системы 5, число параметров тп математических моделей к-рых может расти вместе с ростом числа наблюдений п над системой S. Задачи этой теории заключаются в нахождении по наблюдениям над системой S таких ее математич. моделей (G-o ненок), к-рые сближались бы с системой S в нек-ром смысле с заданной точностью сближения при минимальном числе наблюдений и при общих предположениях о наблюдениях: не требуется существования плотностей распределений наблюдаемых случайных векторов, матриц, требуется лишь, чтобы существовали несколько первых моментов их компонент, при этом числа тпи п удовлетворяют G-y с л о в и ю: lim f(mn, n) <<*>, (*) где f(x, у) - нек-рая положительная функция, возрастающая по х и убывающая по у. В большинстве случаев функция fix, у) равна ху . В этом случае G-условие называется еще условием Колмогорова - Деева. В О. с. а. п. предполагаются выполненными два условия: 1) при увеличении числа параметров тп математич. моделей системы S размерность (число параметров) оцениваемых характеристик этой системы не меняется; 2) при увеличении числа наблюдений п над системой S размерность тп математич. моделей может возрастать, и наоборот: при увеличении тп число наблюдений п зависит от тп и не может расти как угодно быстро. Идею нахождения G-оценок в О. с а. н. можно пояснить на следующем примере. Пусть в И?"'" задана борелевская функция fix), хе№т", у к-рой существуют непрерывные ограниченные частные производные 2-го порядка, £ - случайный /и„-мерный вектор, распределенный по нормальному закону N(a, Rm ), где а - вектор средних, a Rm - ковариационная матрица. Задача заключается в том, чтобы по наблюдениям xk, k=\, ..., п, над вектором £ найти при выполнении G-yc- ловия (*) состоятельную G-оценку величины f(a) (в качестве состоятельной оценки вектора а можно взять величину а = п~15^?_1 xk). В О. с. а. н. предполагается, что состоятельные оценки ограниченного числа параметров существуют. Их находят, напр., с помощью методов моментов, максимального правдоподобия либо с помощью метода стохастич. аппроксимации. Широкий круг прикладных задач связан с оцениванием функций, зависящих от вектора средних а и ковариационной матрицы Rm , состоятельные оценки к-рых соответственно равны " a, Rmn=(n- 1)~1X^ = 1 (xk-a)(xk-d)T. Если f(x) непрерывна в точке а, то f(a)-f(d)Ao при фиксированном т. В общем случае это будет не так, если т зависит от п. Основная задача заключается в поиске оценок G(d), лучших, чем f(d), таких, чтобы при выполнении (*) выполнялось соотношение f(a) - G(d) -4- 0. Для решения этой задачи вводятся функции u(z, t) = Ef(a + z + (Rmitn])]/\), ОБЩИЙ 417
где Г| - случайный вектор, распределенный по нормальному закону /V(0, 1), 2elRw", t^O,- действительный параметр. Функции u(z, t) удовлетворяют G-yравнению ———=Au(z, t), at где А = (2пГ'Уп» .r..-^-, u(z,0) = f(a + z\ RmH=\\njh *>/=1> -. "V Если предположить, что p lim [Дя+z) - E/X«+z)] = О для и-» 00 любого ограниченного z при выполнении (*), то задача сведется к нахождению начального значения f(a + z) решения u(z, 0) для G-уравнения по заданному его значению u(z, \) = f(d + z) при t=\, то есть по существу сведется к обратной задаче для дифференциальных уравнений, к-рую можно решить, используя либо метод квазиобращения, либо метод преобразования Фурье. Этот момент нахождения G-оце- нок является основным. Идея доказательства заключается в том, что разность f(d + z) - Ef(a + z) можно представить в виде суммы мартингал-разностей. Далее к этой сумме можно применить центральную предельную теорему и таким образом найти асимптотически нормальные G-оценки. Примечательной особенностью О. с. а. н. является то, что в нем на основании аналитич. методов теории вероятностей вместо G-уравнения для G-оценок можно найти нек-рые нелинейные уравнения, имеющие более простой вид. Основная задача G-анализа - задача оценивания преобразований Стилтьеса нормированных спектральных функций ковариационных матриц Rm по наблюдениям хх хп над случайным вектором £ с ковариационной матрицей Rm , где Хк - собственные числа матрицы Rm . Многие аналитич.'функции от ковариационных матриц, к-рые используются в многомерном статистич. анализе, можно выразить через спектральные функции \im (х). Напр., m-nhrf(Rm) = \~u fix)dvm{x), где f - аналитич. функция. Преобразованием Стилтьеса функции \im (x) называется выражение Я>(*. Rm) = fc(\ + txV*d\imU) = m-hTU + tRmnV\ t>0, при этом С2-оценкой преобразования Стилтьеса <р(£, Rm) называется выражение G2(t, RTtl ) = <p(6„(0, Rm ), где 6„(0 - неотрицательное решение уравнения efl-^ + -^<p(e,/L )) = t, t>0, m<n-\. \ П-\ П-\ тн J Положительное решение этого уравнения при t > 0 существует и единственно. При нек-рых условиях доказывается, что если t>0, lim -^-<1, то Г2->ов П~\ lim?{[G2(t,Rm )-<p(t,RTfl )]J(n-\)mn an(t) + cn(t)<x} = J—oo где an(t) и с„(0 удовлетворяют (см. [2]) условию SUP[|fl„(0| + |c„(0|]<C<oo. п 418 ОБЩИЙ Лит.: [1] Гирко В. Л., «Вычисл. и прикл. математика», 1986, в. 60, с. 115-21; [2] его же, «Теория вероятн. и матем. статистика», 1986, в. 35, с. 28-31; [3] его же, «Вести. Киевского ун-та. Моделирование и оптимизация сложных систем», 1987, в. 6, с. 40-44; [4] его же, Многомерный статистический анализ, К., 1988. В. Л. Гирко. ОБЪЕДИНЕНИЕ событий (union of events) - то же, что сумма событий. ОБЪЕМ ВЫБОРКИ (sample size) - см. Выборка. ОГАВЫ КОНСТРУКЦИЯ (Ogawa construction) - см. Расширенный стохастический интеграл. ОГИБАЮЩАЯ СИГНАЛА (signal envelope) - неотрицательная функция времени, характеризующая модуляцию гармонического колебания по амплитуде. Для сигнала x(t), имеющего ограниченную энергию, О. с. г (О можно определить как КО = <Jx2(t) + i2U), где x(t) - преобразование Г и л ьберта сигнала x(t): Я J-oo t-X здесь интеграл понимается в смысле главного значения. Понятие О. с. имеет прозрачный физич. смысл и часто используется в технич. задачах для узкополосных сигналов, то есть сигналов, основная часть энергии к-рых сосредоточена в полосе частот [/q-F, /o + F], причем fQ » F. Такой сигнал с высокой степенью точности может быть представлен в виде r(t)cos[2nfQt + <p(t)], где О. с. г (О и фаза <р(0 медленно меняются но сравнению с колебаниями частоты fQ. Лит.: [1] Райе CO., «Тр. ин-та инженеров по электротехнике и радиоэлектронике», 1982, т. 70, № 7, с. 5-13; [2] Рыто в С. М., Введение в статистическую радиофизику, ч. 1, М., 1976. Г. К. Голубев. ОГИБАЮЩАЯ СЛУЧАЙНОГО ПРОЦЕССА (envelope of a random process) - см. Случайный процесс; пересечения. ОГИБАЮЩАЯ ФУНКЦИЯ МОЩНОСТИ (envelope of a power function) - наибольшая мощность статистического критерия, достижимая при данной альтернативе. Точнее, если 0 = 01U02 - параметрич. пространство и проверяется гипотеза #0: в е 0О против #j: в е 0t при заданном значимости уровне а, то О.ф. м. есть P^(6) = sup Рф(6), ве0,, где Рф(6) - мощность критерия ф и sup берется но всем критериям <р размера а (либо, в зависимости от контекста, по нек-рому подклассу таких критериев). При очень общих условиях sup достигается. Если sup доставляет одна и та же критич. функция при всех ве0j, то она определяет равномерно наиболее мощный критерий. Критерий, минимизирующий sup [$*а (в)- Рф (в)], называется наиболее строгим кри- тер нем. В ряде задач при отсутствии равномерно наиболее мощного критерия могут быть найдены критерии, мощность к-рых сближается с О. ф. м. при росте числа наблюдений (см. Асимптотически наиболее мощный критерий). Асимптотич. поведение разности между О. ф. м. и мощностью асимптотически наиболее мощного критерия позволяет сравнивать между собой различные асимптотически наиболее мощные критерии. Лит.: [1] Л ем а» Э., Проверка статистических гипотез, пер. с англ., 2 изд., М., 1979. Д. М. Чибисов. ОГРАНИЧЕННАЯ ВАРИАЦИЯ (bounded variation) - см. Вариация меры, Векторная мера. ОГРАНИЧЕННОСТЬ ПО ВЕРОЯТНОСТИ (boundness in probability) - см. Стохастическая ограниченность. ОГРАНИЧЕННЫЙ ВЕТВЯЩИЙСЯ ПРОЦЕСС (bounded branching process) - ветвящийся процесс, в к-ром число частиц Z(t) в момент t зависит как от суммарного потомства всех Z(t- 1) частиц, существовавших в предыдущий момент времени, так и от значения «ограничивающей» (возможно, случай-
ной) функции g(t). Напр., пусть при любых t, i число \tti непосредственных потомков i-й частицы t-ro поколения имеет производящую функцию F(s) = Es^tl, причем ^, независимы и Е£/ , > 1, а ^ = F(^) e [О, 1) - вероятность вырождения соответствующего ветвящегося процесса Гальтона - Ватсона. Если о1раииченный ветвящийся процесс Z(t) определяется соотношениями Z(0) = 1, Z(t + \) = mm{gU),^)^til t>0, (*) где g(t) - детерминированная функция, то (см. [1]) lim P{Z(0 = 0} = 1 » Y°\ qgU) = «е. Рассматривались и другие варианты соотношений (*) (см. И. ГЗ]). Лит.: [1] Зубкон A.M., «Матем. заметки», 1970, т. 8, № 1, с. 9-18; |2] Севастьянов Б. А., «Докл. АН СССР», 1978, т. 238. -\» 4, с. 811 — 13: 13] Bruss F.T., «J. Appl. Probab.», 1978, v. 15, .N» 1, p. 54-64. A. M. Зубков. ОГРАНИЧЕННЫЙ ЗАКОН ПОВТОРНОГО ЛОГАРИФМА (bounded law of the iterated logarithm) - см. Повторного логарифма закон в банаховом пространстве, Повторного логарифма закон для эмпирических мер. ОГРАНИЧЕННЫЙ СЛУЧАЙНЫЙ ЛИНЕЙНЫЙ ОПЕРАТОР (bounded random linear operator) - см. Случайный линейный оператор. ОГРАНИЧИТЕЛЬ (clipper) - см. Бинарный случайный процесс. ОДНОВЕРШИННОЕ РАСПРЕДЕЛЕНИЕ (unimodal distribution) - см. Унимодальное распределение. ОДНОВЫБОРОЧНЫЙ КРИТЕРИЙ СТЬЮДЕНТА (one-sample Student's test) - см. Стьюдента критерий. ОДНОГО ВЕРОЯТНОСТНОГО ПРОСТРАНСТВА МЕТОД (common probability space method coupling) - метод доказательства предельных теорем (в том числе для случайных процессов) и получения оценок скорости сходимости в них, состоящий в замене изучаемых случайных элементов другими, одинаково с ними распределенными, заданными на одном вероятностном пространстве и близкими между собой в подходящей метрике. Пусть Хп, п = 0, 1, ...,- случайные элементы со значениями в метрич. пространстве (.#", d), заданные, быть может, на разных вероятностных пространствах. Пусть А'*, и = 0, 1, ...,- также случайные элементы со значениями в (.*', d), однако все они заданы на одном и том же вероятное гном пространстве, причем X* одинаково распределен с Xtl, п-0, 1, ... Если удается так подобрать случайные эпементы {Х*п}, что 6/(X*,Xq)->0 почти наверное или по вероятности, то Рп=>Р0, где Рп - распределение случайного эпемента Хп, и = 0, 1, ... Этот подход применен для доказательства общих предельных теорем для случайных процессов (см. [1|). Такой прием использовался также при получении оценок скорости сходимости, поскольку для расстояния Леви - Прохорова к(Рп, Р0) справедливо неравенство л(Р„, /p^inf maxfe, P{d(x*t Х*)>е}1 (*) е J Па широкие возможности О. в. п. м. в случае полного сепара- бельного пространства (J\ d) указывает теорема Штрас- сена о том, что в (*) достигается равенство при «наилучшем» выборе совместного распределения случайных элементов X* и Xq, а также тот факт, что из слабой сходимости Рп => Р0 вытекает существование таких элементов {X*}, что d(X*n, Xq)->0 почти наверное (см. [11). Известен пример О. в. п. м. для действительных {Х„}, в к-ром Xl = F~\Y), n = Q, 1, ..., где Fn( ) - функция распределения величины Хп, а случайная величина У равномерно распределена на [0, 1]. Широкое применение О. в. п. м. получил при изучении скорости сходимости в принципах инвариантности Донскера - Прохорова и Штрассена. Наиболее известны здесь метод Прохорова [2], представление Скорохода [3], его обобщение на мартингалы (см. [4]), метод Комлоша - Майора - Тушнади [5] и метод Филиппа [6]. Лит.: [11 Скороход А. В., «Теория вероятн. и ее примен.», 1956, т. 1, в. 3. с. 289-319; [21 Прохоров Ю. В., там же, 1956, т. 1, в. 2, с. 177-238; [31 Скороход А. В., Исследования по теории случайных процессов, К., 1961; [41 Strassen V., «Ргос. 5th Berk. Symp. Math. Stat. Probab.», 1967, v. 2, № 1, p. 315-43; [51 Komlos J., Major P., Tusnady G., «Z. Wahr. und vcrw. Geb.», 1975, Bd 32, № 1, S. 111-31; 1976, Bd 34, № 1, s. 33-58; [61 Berkes I., Philipp W., «Ann. Probab.», 1979, v. 7, № 1, p. 29-54. А. А. Боровков, А. И. Саханеико. ОДНОКАНАЛЬНАЯ СИСТЕМА ОБСЛУЖИВАНИЯ (single-channel queueing system) - то же, что однолинейная система обслуживания. ОДНОЛИНЕЙНАЯ СИСТЕМА ОБСЛУЖИВАНИЯ (single-server queueing system), одноканальная система обслуживания,- система обслуживания, в к-рой невозможно одновременное обслуживание более одного требования. Основной тип О. с. о,- обслуживания система с ожиданием и одним каналом обслуживания. Обычно функционирование О. с. о. характеризуется последовательностью (гп), задаваемой рекуррентным соотношением где (£„) - управляющая последовательность. Так, в системе с ожиданием для длительности wn ожидания и-го требования ?<VM=max{°> »« + Ля-"я}. где г\п - время обслуживания п-го требования, ип - время между поступлением и-го и (и + 1)-го требований. И. Н. Коваленко. ОДНОМЕРНАЯ ДИФФУЗИЯ (one-dimensional diffusion) - стандартный марковский процесс с непрерывными траекториями, заданный на промежутке действительной прямой. Частным случаем О. д. служит любой одномерный однородный диффузионный процесс. Детальное изучение О. д. началось с основополагающих работ В. Феллера (см. [1J, [2р, применявшего в основном аналитич. методы. Доминирующий в настоящее время вероятностный подход был разработан Е. Б. Дынкиным (см. [3], [4]). Теория О. д.- одна из самых законченных глав теории случайных процессов (см. [4], [5]). О. д. X = (Xt, с,, ,r/t, Pr), заданная на промежутке fell? произвольного вида, называется регулярной на промежутке DczE, если ее траектория, вышедшая из любойъ точки xeD, с положительной вероятностью достигает до момента обрыва любой другой фиксированной точки из D. Если О. д. регулярна на всем Е, а Е является либо отрезком, либо интервалом, то она образует феллеровский процесс. Переходная функция, а следовательно, и характер поведения необрывающейся (см. Обрыва момент) О. д. X, регулярной на отрезке Е = [с^, с2], однозначно определяются ее каноническими (или естественными) шкалой р(х) и мерой п(х), хеЕ. Первая из них задается равенством р(х) = Рх{Хх =с2}, где xt - момент первого выхода X из I = (c]tC2), и является непрерывной и возрастающей функцией на Е. Вторая на / приравнивается к -D* т(х), где т(х) = Ед.т1 < оо (правая производная D* т(х) принимается ylx р(у)-р(х) ' ОДНОМЕРНАЯ 419
двусторонняя производная D т(х) определяется аналогичным образом). По определению, полагают и(с,) = - Р,, i = 1, 2, где Pj (соответственно |$2) ~ математич. ожидание времени до попадания в точку c2(q) для траекторий, начинающихся в сх(с2). Функция п(х) возрастает в Е и непрерывна внутри /. Инфинитезимальный оператор А процесса X задается формулой Феллера Af(x) = DnD*f(x), где хеЕ. Структура функций f из области определения оператора А полностью описана (см. [4], [5]); известно, в частности, что они непрерывны в Е и на концах q и с2 отрезка Е удовлетворяют граничным условиям v/DwD^Y(c/) + (-l)'D/(c/) = 0, t=l, 2, где vt = п(с\ + 0) - h(cj), v2 = п(с2) - п(с2 - 0). Инфинитезимальные операторы необрывающихся О. д., заданных на нек-ром интервале и регулярных на нем, также описываются с помощью обобщенных дифференциальных операторов второго порядка указанного выше типа, однако без привлечения граничных условий (см. [4], [5]). Вопросу о построении продолжений подобных О. д. до О. д., заданных в замкнутых промежутках, уделялось много внимания, начиная с работ [1], [2]. Подробно исследован случай обрывающихся и нерегулярных О. д. (см. [4], [5]). Известно (см. [4]-[6]), что многие О. д. можно получить из одномерного винеровского процесса, подвергая его преобразованиям типа убивания, случайной замены времени и т.д. (см. Марковский процесс; преобразования). См. также Одномерная диффузия; классификация границ. Лит.: fll Feller W., «Ann. Math.», 1952, v. 55, p. 468-519; [2] его же, там же, 1954, v. 60, p. 417-36; [3] Дынкин Е. Ь., «Докл. АН СССР», 1955, т. 105, с. 206-09; [4] его же, Марковские процессы, М., 1963; [5J И то К., Маккин Г., Диффузионные процессы и их траектории, пер. с англ., М., 1968; [6] Волконский В. А., «Тр. Моск. матем. о-ва», 1960, т. 9, с. 143-89. М. Г. Шур. ОДНОМЕРНАЯ ДИФФУЗИЯ; классификация границ (one-dimensional diffusion; classification of boundaries) - классификация граничных точек интервала E = (c]f c2)<=IP1 в зависимости от поведения одномерной диффузии Х = = (Xt, 5» .'/t, Pr), заданной в Е, вблизи этих точек. Точка сх называется: а) притягивающей или отталкивающей границей в зависимости от положительности или обращения в 0 вероятности Рг{Хе = с1}, где X? = \im Xt; б) дости- ж и м о й или недостижимой границей в зависимости от положительности или обращения в 0 вероятности Px{X^ = cv £<°°}; в) финитной или нефинитной границей в зависимости от конечности или бесконечности математич. ожидания Еххс, где хс. - момент первого выхода из интервала (q, с) [см. Первого достижения момент; в определениях а) и 6) точка х пробегает Е, а в определении в) - интервал (c]f с), сеЕ]. Аналогичные определения принимаются и в случае точки с2. Каждая из границ сх или с2 является или притягивающей, или отталкивающей. Любая отталкивающая граница недостижима. Притягивающая граница достижима или нет в зависимости от того, финитна она или нефинитна. По различным свойствам классифицируют также граничные точки промежутка EclR1 любого вида, на к-ром задана О. д. Напр., если q e E и точка сх недостижима из остальных точек промежутка Е, а последние недостижимы из нее, то q называется естественной границей; если С|б£и диффузия X регулярна на промежутке /Г\{с2}, то q - отражающая 420 ОДНОМЕРНАЯ граница. Для винеровского процесса с отражением в точке с] = 0, получаемого из обычного винеровского процесса в ре зультате преобразования у:#-> \х\ его фазового пространства (см. Марковский процесс; преобразования), указаннаа^точка служит отражающей границей. Впервые классификация границ интервала Е в терминах, непосредственно связанных с соответствующей канонич. ме рой, была предложена В. Феллером [3]. Лит.: [1] Дынкин Е.Б., Марковские процессы, М., 1963, [2] Ито К., Маккин Г., Диффузионные процессы и их траекто рии, пер. с англ., М., 1968; [3] Feller W., «Ann. Math.», 1952, v. 55, К» 2, p. 468-599. M. Г. Шур ОДНОМЕРНЫЙ СЛУЧАЙНЫЙ ПРОЦЕСС (one-dimensional random process) - см. Случайный процесс. ОДНОМЕРНЫЙ СПЕКТР турбулентности (one-dimensional turbulence spectrum) - см. Спектр турбулентности. ОДНОПАРАМЕТРИЧЕСКИЕ ЧИСЛА ЭЙЛЕРА (one parameter Euler numbers) - см. Эйлера числа. ОДНОРОДНАЯ ИЗОТРОПНАЯ КОРРЕЛЯЦИОННАЯ ФУНКЦИЯ (homogeneous isotropic correlation function) - см. Корреляционная функция. ОДНОРОДНАЯ КОРРЕЛЯЦИОННАЯ ФУНКЦИЯ (ho mogeneous correlation function) - см. Корреляционная функция. ОДНОРОДНАЯ МЕРА (homogeneous measure) - см. Случайная мера. ОДНОРОДНАЯ ПЕРЕХОДНАЯ ФУНКЦИЯ (homoge neous/stationary transition function) - см. Переходная функ ция для марковского процесса. ОДНОРОДНАЯ ПО ВРЕМЕНИ ЦЕПЬ МАРКОВА (time homogeneous Markov chain) - Маркова цепь, характер эволюции к-рой не меняется с течением времени. Для цепи Маркова Х=(Хп), заданной в измеримом пространстве (Е, Л) и имеющей одношаговые вероятности перехода рп(х, Г), я^0, это означает независимость рп(х, Г) от п. В случае цепи ■* не более чем счетным множеством состояний £" = {1, 2, ...} требование однородности сводится к независимости PjAn, п+ \) = pn(i, {/}) от n(i, jeE). О. по в. ц. М.- основной объект изучения в теории цепей Маркова. Термины «цепь Маркова» и «О. по в. ц. М.» зачастую употребляют как синонимы. М. Г. Шур. ОДНОРОДНАЯ ПУАССОНОВСКАЯ МЕРА (homoge neous Poisson measure) - см. Пуассоновская мера. ОДНОРОДНОЕ И ИЗОТРОПНОЕ СЛУЧАЙНОЕ ПОЛЕ (homogeneous and isotropic random field) - случайная функция на евклидовом пространстве, определенные характеристики которой инвариантны относительно группы С изометрических преобразований пространства (параллельных переносов, вращений и симметрии). Действительнозначная случайная функция Х(0, teW1, такая, что Е|Х(0| <+<*>, называется однородным и изотропным случайным полем, если EX(t) не зависит от t, a EX(t)X(s) = B(\t-s\) зависит только от расстояния \t-s\ между точками t и s. Сформулированное требование означает инвариантность относительно группы G первых двух моментов (среднего и ковариационно)! функции). Важной особенностью О. и и. с. п. является наличие так наз. спектральных разложений как корреляционной функции, так и самого поля. Ковариационная функция В(г) непрерывного в среднем квадратичном случайного поля допускает представление «r)=J0"yB(WrfO(», (О где \2) х{"'2)12
- так иаз. сферич. бесселева функция, а Ф(Х) - ограниченная неубывающая функция на [0, + °°), называемая спектральной функцией случайного поля X(t). Само иоле X(t) представимо в виде (см. [1]) К)о пЛп-2)12 ZmW), (2) JO (Xr)(""2)/2 г;,е (г, et. ..., 6„_2, ф) - сферич. координаты точки t, Sllt(Qv ..., в„_2, ф) - ортонормированные сферич. гармоники степени т, ;/ \ /о , ->\ (т + п-3)\ h(m, п) = {2т + п- 2) - (п-2)\т\ - число таких гармоник, Z,H(-) - набор случайных мер с оргогонильными значениями, удовлетворяющих условию E^V<(s2) = 8;;;'s;<<j>(s,ns2) «> для любых борелевских Sx и 52 [здесь Ф(5) = J а'Ф(Х) - мера Лебега - Стилтьеса, индуцированная спектральной функцией ФСК), г^ = 2"-1Г(и/2)я"/2, 5{; - символ Кронекера]. Интегралы в (1) - так наз. стохастич. интегралы но ортогональной мере; ряд (2) сходится в среднем квадратическом. Большой интерес для приложений (в частности, в теории турбулентности; см., напр., [2]) представляют О. и и. с. п. на IP2 и И? . Спектральное разложение О. и и. с. п. на И? имеет вид Х(г, ф) = £~=о cos *q> \l°°Yk{Xr)Zlk{dX) + +ir.,sin*4>iTy*(Xr)z*wx)» где Zk(), /=1, 2, - набор ортогональных случайных мер, удовлетворяющих условию (3). В приложениях важную роль играют также многомерные случайные ноля (напр., поле скоростей). Векторная случайная функция X(t) = {X]{t), ..., Xn(t)} называется векторным однородным и изотропным случайным полем, если ЕХ(О = 0, EX'{t)X(s)=gEX'{gt)X{gs)g' для любого (/еС Ковариационная матрица B(r) = EX'U + r)X(t) = (Bij(r)) выражается через две скалярные функции: Btj(r) = 1й„(г) - Bkk(r) | ^ + Btt(r)8/. Функции Вц(г) и Bkk{r) называются соответственно продольной и поперечной корреляционными функциями и имеют следующий смысл: B„{r) = EX,{t + r)Xt(t), Bkk(r) = EXk{t + r)XkU), где Xt{t) - проекция вектора X{t) на направление г, a Xk{i) - р$1оекция этого же вектора на нек-рое направление, перпендикулярное г. Для ковариационных матриц векторных О. и и. с. н. также известны спектральные разложения (см. [3]). Лит.: (1] Ядренко М.И., Спектральная теория случайных полей, К., 1980; [21 Мопип А.С, Яглом А. М., Статистическая гидромеханика, ч. 1-2, М., 1965-67; [3] Яглом A.M., «Теория веро- ятн. и ее примем.», 1957, т. 2, в. 3, с. 292-338. М. И. Ядренко. ОДНОРОДНОЕ ОБОБЩЕННОЕ ПОЛЕ (homogeneous generalized field) - см. Обобщенный стационарный процесс. ОДНОРОДНОЕ СЛУЧАЙНОЕ ПОЛЕ (homogeneous ran dom field) - случайное поле X{s), заданное на однородном пространстве S = {s} точек s, снабженное транзитивной группой G = {g} преобразований, переводящих пространство S в себя, и обладающее тем свойством, что определенные статистические характеристики значений этого поля не меняются при применении к аргументам s произвольного преобразования группы G. Различают два разных класса О. с. п.: поле X{s) называется О. с. п. в у з к о м смысле, если при любых «=1,2, ... и <7е G конечномерное распределение вероятностей значений поля в произвольных п точках sv...,sn совпадает с распределением вероятностей значений того же поля в точках gsv ..., gsn\ если же E|x(s)|2<°° и EX{s) = EX(gs), EX(s)X(s1) = EX(gs)X(gs]) при всех se5, s] eS и ge G, то X(s) называется О.с.п. в широком смысле. Важный частный случай - О. с. п. на евклидовом /г-мерном пространстве Я? (или на решетке Ж точек И? с целочисленными координатами), отвечающее выбору группы всевозможных параллельных переносов в качестве группы G; иногда даже под О.с.п. вообще понимают лишь поле этого последнего типа. О. с. п. на И? , отвечающее группе G всевозможных изометрич. преобразований IP (порожденных параллельными переносами, вращениями и симметриями), часто называют однородным и изотропным случайным полем. Понятие О. с. и. представляет собой естественное обобщение понятия стационарного случайного процесса; как и в случае стационарного процесса и само О. с. п., и его ковариационная функция допускают спектральное разложение специального вида (см., напр., [1]-[3]). О.с.п. и нек-рые их обобщения часто возникают в различных прикладных вопросах; в частности, в статистич. теории турбулентности важную роль играют как однородные и изотропные случайные поля на И? (скалярные и векторные), так и так наз. локально однородные и локально изотропные случайные поля (иначе - ноля с однородными и изотропными приращениями), представляющие собой простое обобщение однородных и изотропных полей (см., напр., [4]), а в современной теории физич. квантованных полей и в статистич. физике применяется теория обобщенных О.с.п., также включающих О.с.п. в качестве частного случая (см. Обобщенное случайное поле). Лит.: [1] Yaglom А. М., в кн.: Proceedings of 4-th Berkeley symposium mathematical statistics and probability, v. 2, Berk. - Los. Ang., 1961, p. 593-622; [2] Хеннан Э., Представления групп и прикладная теория вероятностей, пер. с англ., М., 1970; [3] Ядренко М. И., Спектральная теория случайных полей, К., 1980; [4] Монин А.С, Яглом A.M., Статистическая гидромеханика, ч. 2, М., 1967. А. М. Яглом. ОДНОРОДНЫЙ ГЕОМЕТРИЧЕСКИЙ ПРОЦЕСС (homo geneous geometric process) - см. Геометрический процесс. ОДНОРОДНЫЙ И ИЗОТРОПНЫЙ ГЕОМЕТРИЧЕСКИЙ ПРОЦЕСС (homogeneous and isotropic geometric process) - см. Геометрический процесс. ОДНОРОДНЫЙ КАНАЛ (homogeneous channel) - см. Ка нал без памяти. ОДНОРОДНЫЙ КЛАСС ФУНКЦИЙ по Репьи (Renyi's homogeneous class of functions) - класс функций ./на конечном множестве Л мощности п, задаваемый условием: для любых X и (X из Л число функций /"е./, для к-рых f(X) = /X|i), есть число R2, не зависящее от X, ц. Доказано, что мощность ./не превосходит 2R2(n - 1 )/{п - 2). Найдены границы сверху и снизу для вероятности совпадения последовательности значений N случайно выбранных элементов &в каких-то X и \i из Л. Лит.: [1] Математическая теория планирования эксперимента, М., 1983. М. Б. Малютов. ОДНОРОДНЫЙ 421
ОДНОРОДНЫЙ МАРКОВСКИЙ ПРОЦЕСС (homogeneous Markov process) - см. Марковский процесс. ОДНОРОДНЫЙ ПО ВРЕМЕНИ СЛУЧАЙНЫЙ ПРОЦЕСС (time homogeneous random process) - см. Стационарный случайный процесс. ОДНОРОДНЫЙ СЛУЧАЙНЫЙ ПРОЦЕСС С НЕЗАВИСИМЫМИ ПРИРАЩЕНИЯМИ (homogeneous random process with independent increments) - см. Случайный процесс с независимыми приращениями. ОДНОРОДНЫЙ ХАОС (homogeneous chaos) - термин для обозначения (см. [1]) случайной меры в пространстве IR", п^\, конечномерные распределения которой инвариантны относительно сдвигов. Существенную роль в теории О. х. играет приближение интегрируемых с квадратом функционалов от винеровского процесса кратными интегралами Винера - Ито (полиномиальный однородный хаос). Лит.: [1] Wiener N.. «Amer. J. Math.», 1938, v. 60, p..897-936; [2] Хида Т., Броуновское движение, пер. с англ., М., 1987. В. И. Колчинский. ОДНОСТОРОННЕЕ БЕЗГРАНИЧНО ДЕЛИМОЕ РАСПРЕДЕЛЕНИЕ (one-sided infinitely divisible distribution) - безгранично делимое распределение, целиком сосредоточенное на полупрямой [г, °°) (или (-«>, г\); |г|<о°. Пусть для функции распределения F(x) lext F = inf {х:х - точка роста F), rext F = sup {x:x - точка роста F). Распределение F одностороннее, если lext F > - <*> или rext F < <*>. Пусть F - безгранично делимая функция распределения, ха- рактеристич. функция fit) к-рого имеет Леей - Хинчина каноническое представление со спектральной функцией G(x). Для того чтобы lext F> -°° (rext F<°°), необходимо и достаточно, чтобы функция G была постоянна на полуоси х^О (*>0) и При этом j~x~]dG<oo (J_ U|-1</G<oo). lext F = y-j~x~]dG, rext F = y- J^ x~{dG. В частности, О. 6. д. р. не может иметь гауссовской компоненты. Лит.: [1] Л им ник Ю. В., Островский И. В., Разложения случайных величин и векторов, М., 1972; [2] Рамачандран Б., Теория характеристических функций, пер. с англ., М., 1975. И. А. Ибрагимов. ОДНОСТОРОННИЙ КРИТЕРИЙ СТЬЮДЕНТА (one sided Stydent's test) - см. Стьюдента критерий. ОДНОСТОРОННИЙ СДВИГ БЕРНУЛЛИ (one sided Ber- noulli shift) - см. Бернулли сдвиг. ОДНОСТОРОННЯЯ ОБРАЗУЮЩАЯ (one sided gene rator) - см. Энтропия динамической системы метрическая. ОДНОТИПНЫЕ РАСПРЕДЕЛЕНИЯ (distributions of the same type) - см. Распределений тип. ОДНОШАГОВАЯ ВЕРОЯТНОСТЬ ПЕРЕХОДА (one step transition probability) - см. Маркова цепь. ОЖИДАЕМАЯ ПОЛЕЗНОСТЬ (expected utility) - см. По лезностей теория. ОЖИДАЕМОГО ДОХОДА КРИТЕРИЙ (expected reward criterion) - см. Управляемый случайный процесс с дискретным временем. ОЖИДАНИЯ ДЛИТЕЛЬНОСТЬ (waiting time) - время пребывания требования в обслуживания системе за вычетом времени его обслуживания. В системе, где не допускается прерывание обслуживания, О. д. равна времени от поступле- 422 ОДНОРОДНЫЙ ния до начала обслуживания требования. Основные методы исследования О. д.: метод полу марковских процессов, метод виртуального времени ожидания, метод многомерного случайного блуждания (см. также Хинчина теорема). В системе обслуживания с ожиданием стационарные средние Ew, Ev О. д. и величины очереди, если они существуют, связаны равенством Ev = X(Ew + x), где Х- интенсивность входящего потока, х- средняя длительность обслуживание требования. И. Н. Коваленко. ОМЕГА-КВАДРАТ РАСПРЕДЕЛЕНИЕ, со2 рас преде ление (со-distribution),- распределение вероятностей случайной величины (02=\* Z4t)dt, где Z(t) - условный винеровский процесс. Характеристик, функция «•>-iu,0-*r- В математич. статистике О.-к. р. встречается в связи со след>- ющим обстоятельством. Пусть X]t ..., Хп- независимые сл\- 1) L .1 .2 .3 .4 .5 .6 .6 2) С /II ikl 1 / / 1 1 Графики: 1) плотности и 2) функции распределения для распределения омега-квадрат. чайные величины, равномерно распределенные на [0, 1], но к-рым построена функция эмпирич. распределения Fn(-). В этом случае процесс Zn(t) =Jn(Fn(t)- t) слабо сходится к условному винеровскому процессу, откуда следует, что lim PJJ1 Z$(t)dt<x\ = Р{со2 <Х} = л^и = 1 J(2*-l)ic V^^hii См. также Крамера - Мизеса критерий.
Лит.: [1] Смирнов Н.В., «Матем. сб>, 1937, т. 2, с. 973-93; 2] Anderson Т., Darling D., «Ann. Math. Statist.*, 1952, v. 23, э. 193-212. M. С. Никулин. ОПЕРАТИВНАЯ ХАРАКТЕРИСТИКА критерия (operating characteristic of a test) - дополнение до 1 функции чощности статистического критерия (ошибка 2-го рода). О. х. традиционно используется в последовательном анализе. Д. М. Чибисов. ОПЕРАТИВНАЯ ХАРАКТЕРИСТИКА плана контроля по альтернативному признаку (operating characteristic of a sampling inspection plan on alternative attribute) - вероятность приемки контролируемой партии р из N изделий, рассматриваемая как функция числа D (или доли q = D/N) дефектных изделий, D = 0, 1, ..., N. Для одноступенчатого плана контроля (см. Контроля план) со случайной выборкой объема п и приемочным числом с О. х. равна где hn^ D - вероятности гипергеометрич. распределения. Двум заданным значениям чисел дефектных изделий Dx <D2 соответствует вероятность а= 1 -PfDJ ошибочного забракования р и вероятность р = P{D2) ошибочного принятия р. Числу £>о,5» при к-ром P{D05> = 0,5 или наиболее близко к 0,5, соответствует доля дефектных q05 = D05/N, называемая безразличной долей дефектных изделий. Ю.К.Беляев. ОПЕРАТИВНОЙ ГОТОВНОСТИ КОЭФФИЦИЕНТ (availability index) - см. Надежности системы показатели. ОПЕРАТОРНАЯ МЕРА (operator measure), оператор- нозначная мера,-см. Векторная мера. ОПЕРАТОРНО УСТОЙЧИВОЕ РАСПРЕДЕЛЕНИЕ (operator stable distribution) - распределение вероятностей в конечномерном евклидовом пространстве Иг, к-рое является слабым пределом последовательности распределений случайных векторов Yn=An(Sn-an), (1) где Sn = ХХ + ... + Хп - сумма независимых одинаково распределенных случайных векторов, ап е Иг, Ап - линейные операторы в IP . Если А - линейный оператор в Иг, ц - вероятностная мера в IR , то через Ар обозначается такая вероятностная мера в Иг, для к-рой A\i(E) ~ \1(А~Х(Е)). Через 8Х обозначается вырожденное в точке х g 1^ распределение. Распределение вероятностей р в IP называется полным, если оно не сосредоточено ни на какой гиперплоскости размерности d - 1. Всякое О. у. р. либо является полным в IR , либо, после соответствующего сдвига, становится полным в нек-ром подпространстве пространства IP** (см. [1]). Поэтому без ограничения общности можно рассматривать только полные О. у. р. Любое О. у. р. является безгранично делимым распределением в 1^. Если р, - характеристич. функция О. у. р. р, то для любого t>0 функция р* также является характеристической для нек-рого распределения вероятностей рЛ Совокупность {рЛ t>0} распределений вероятностей на Иг образует непрерывную однопараметрич. полугруппу мер относительно операции свертки ♦, то есть р'»р5 = р'+5 для любых t, s>0 и р'->80 в слабом смысле при £->0. Полное безгранично делимое распределение вероятностей р будет О. у. р. тогда и только тогда, когда существуют однопараметрич. группа невырожденных линейных операторов t = exp(ZMnO в Иг и векторы xte$c такие, что ц' = ^(ц).8 (2) Оператор В называется экспонентой О. у. р. р. Спектр оператора В лежит в полуплоскости Re z ^ 1/2, причем все его собственные значения, лежащие на прямой Rez =1/2, простые. О. у. р. р допускает разложение р^Щ'р^, где \i{ и р2 сосредоточены на подпространствах ^и^ соответственно, /?1П/?2 = {0}, Я^ФЯ2:=:к . Распределение щ является полной гауссовской мерой на R{, а р2 ~ полным безгранично делимым распределением на R2f не имеющим гауссовской компоненты. Подпространства R{ и R2 В-инвариантные (а значит, и ^-инвариантные для любого t>0). Эти два подпространства определяются оператором В однозначно. Если Вх и В2 - ограничения оператора В на подпространства ^и^ соответственно, то спектр оператора Вх лежит на прямой Re 2= 1/2, а спектр оператора В2 лежит в полуплоскости Rez > 1/2 (см. [2]). Как и для всякого безгранично делимого распределения, характеристич. функция р О. у. р. р допускает Леей - Хитина каноническое представление с тройкой (я, С, М), где ее Иг, С- неотрицательно определенный самосопряженный линейный оператор в Иг (ковариационный оператор), М - а-конечная мера в Иг \{0} (спектральная мера Леви). Мере р' соответствует тройка (ta, t-C, t-M), а из соотношения (2) следует, что t*C(t*)* = t-C, t*M = t-M. Спектральная мера М О. у. р. р, к-рому соответствует однопараметрич. группа линейных операторов t8, имеет представление М(Е) = f Г IE(tBx)t~2dtKBUx), JLB «'О где 1Е - индикатор множества Е} LB = {xetic : \\х\\ = 1 и \\tBx\\ >1 для всех t>\), KB(F)=M({tBx:xeF, t>\)). При описании структуры и свойств О. у. р. р важную роль играет группа симметрии (или группа инвариантности) S(\i) = {A e GL(d) :A\L*o*a = р для нек-рого а е где GL(d) - группа всех невырожденных линейных операторов в IP . Напр., р - полное распределение тогда и только тогда, когда группа 5(р) компактна. Если Жр) - множество всех экспонент О. у. р. р, то £(р) =В + Г5(р), где В - нек-рая фиксированная экспонента, а Г5(р) - касательное пространство группы 5(р), то есть множество всех предельных точек последовательностей (An-J)/cn, Лп->/, сп->0 при п->оо, AneS(\i), сп еИ?1, / - единичный оператор. Среди всех экспонент О. у. р. р существуют такие, к-рые коммутируют с любым элементом группы 5(р). Более того, если Ес(ц) обозначает множество всех таких коммутирующих экспонент, С5(р) - центр группы 5(р), то £с(р)=В + ГС5(р). Во многих случаях коммутирующие экспоненты имеют особенно простой вид (см. [3]). Распределение вероятностей р называется G-y с т о й ч и - вым, где G- нек-рая подгруппа группы GL(d)} если для любых Av A2eG существуют A3eG и ае такие, что А^\1*А2\1 = А3\1*Ьа (см. [1]). Каждое G-устойчивое распределение для подгрупп G, отличных от единичной, будет оператор- но устойчивым или полуустойчивым (см. ниже). Если G - достаточно богатая по своей структуре группа, то G-устойчивое распределение будет обладать теми или иными дополнительными свойствами. В частности, для G = GL(d) распределение р нормальное (см. [4]). Безгранично делимое распределение р называется опера- торно полуустойчивым, если оно возникает как слабый предел нек-рой подпоследовательности распределений случайных векторов Yn вида (1), где подпоследовательность индексов nk удовлетворяет условию: (nk+{/nk) -» qr, fc -><», \^q<oo. Операторно полуустойчивое распределение удовлетворяет соотношению (2) для нек-рой группы {t , £>0}, но уже не для всех t>0, а только для t = kt0, где t0>0, k>\ (см. [5], [6]). ОПЕРАТОРНО 423
Лит.: [1] Schmidt К., «Z. Wahr. und verw. Geb.», 1975, Bd 33, S. 19-31; [2] Sharpe M., «Trans. Amer. Math. Soc», 1969, v. 136, p. 51-65; [3] Hudson W.N., JurekZ.J., VeehJ.A., «Ann. Probab.», 1986, v. 14, № 3, p. 1014-23; 14] Parthasarathy K. R., «Sankhya», 1973, v. 35, Ser. A, p. 35-38; [5] Круг лов В. М., «Теория вероятн. и ее примен.», 1972, т. 17, в. 4, с. 723-32; [6] J a j te R., «Studia Math.», 1977, v. 61, p. 29-39; [7] J u rek Z. J.,' Mason J.D., Operator-limit distributions in probability theory, N. Y., 1993. /О. С. Хохлов. ОПЕРАТОРНОЕ СТОХАСТИЧЕСКОЕ ДИФФЕРЕНЦИАЛЬНОЕ УРАВНЕНИЕ (operator stochastic differential equation) - стохастическое дифференциальное уравнение вида dX(t) = a(t, X(t))dt+A(t, X(t))dw(t), t0^t^x, (1) описывающее диффузионный случайный процесс X(t) в нек-ром гильбертовом пространстве Я'. Здесь w(t) - простейший векторный диффузионный процесса (винеровский процесс), канонически связанный с гильбертовым пространством Я, a(t, х) (коэффициент переноса) и A(t, x) (коэффициент диффузии) - определенные на [£0, т]х#' функции со значениями соответственно в пространстве Я' и в пространстве ,Ж(Я, Я') операторов Гильберта - Шмидта, действующих из Я в Я'. При A(t, x) = 0 уравнение (1) переходит в обыкновенное дифференциальное уравнение — = a(t, X) в гильбертовом пространстве Я'. Уравнение (1), по определению, эквивалентно интегральному стохастич. уравнению Ито X(O = X0+f a(s, X(s)Ms+f' A(s, X(s))dw(s), t0^t^x. (2) Последний интеграл в этом уравнении - операторный стохастич. интеграл по векторному винеровскому процессу w(t). Процесс w(t) можно определить как сумму ряда w(t) = Y°: 1 e.wit), (3) где {Bj)°°_ - ортобазис в Я, {Wj(t)}°°_ - последовательность определенных на одном и том же вероятностном пространстве £1 попарно независимых скалярных винеровских процессов: Ewj(t) = 0, Ewj(t)wk(s) = bjkm\n(t; s). Ряд (3) сходится в среднем квадратичном смысле в норме гильбертова пространства Н_^> Н, в к-рое Я вложено оператором Гильберта - Шмидта: 2°°, И^/Ця <0°- Однако при AeJf(H, Я') процесс Aw(t) принадлежит пространству Я' (почти наверное). С процессом w(t) обычным образом связывается поток stt а-алгебр подмножеств основного вероятностного пространства и понятие неупреждаемости случайной функции (по отношению к этому потоку). Стохастич. интегралы вида | A(s, w)dw(s) со значениями в Я' (почти наверное) определяются для неупреждающих операторных случайных функций A(s, со) еЖ(Н, Я') и подчиняются соотношениям еГ A(s)dw(s) = 0; К е(Т Ar(s)dw(s\ I* A2(s)dw(s)] =f tr A^UU^ds. Процесс X(t) € Я', по определению, обладает стохастич. дифференциалом dX(t) = a(t, w)dt + A(t, (u)dw(t), если он представим в виде XU) = XUQ)+ Г a(s, (o)ds+ V A(s, a)dw(s) с неуиреждающими a(t, со) еЯ', A(t, со) еЖ(Н, Н'). 424 ОПЕРАТОРНОЕ Пусть и(х) - определенная в области G <= Я' функция со значениями в гильбертовом пространстве Я". Отнесем ее к классу C2(G, Я"), если она обладает непрерывными в G производными u(x + h)-u(x) = u'(x)h + ju"(xKh, h) + o(\\h\\2), u'(x)gL{(H\ Я"), м"Ые/_2(Я', Я"), где L/Я', Я") - пространство /-линейных ограниченных операторов, действующих из Я' в Н"'. Для стохастич. дифференциалов справедлива формула Ито: если dX = a(t, (u)dt + A(t, (u)dw(t) и Y = f(X), feC2W, Я"), то dY = (fXXtt)Mt) + jtrf"(X(tmA(t)-,AU)))dt + + f'(X(t))A(t)dw(t), где trflXKA-, A-) = Y^=] f"(X)(Aev Ae^ {e } - ортобазис в Я. Решением (сильным) О. с. д. у. (1) называется неупреж- дающий случайный процесс X(t), стохастич. дифференциал к-рого определяется его подстановкой в правую часть уравнения, то есть процесс, подстановка к-рого в уравнение (2) превращает последнее в тождество (почти наверное). Классич. условия, обеспечивающие существование и единственность решения задачи Коши О. с. д. у. (1) с .^-измеримым начальным значением Х0, - непрерывность коэффициентов a(t, x), A(t, x) по совокупности переменных (t, x) е [£0, т] х Я' и условия Липшица \\a(t, x2)-a(t, х^)\\н, ^а\\х2 -aJ^.1 ||A(t, х2) - Л(*. хх )\\ж{^ю ^а\\х2 -хх1н..} При этих условиях доказательство теоремы сущестно- вания и единственности проводится классич. методом сжимающих отображений в пространстве случайных функций с нормой ||x||2 = supE||X(Ofl2„.. t Более общая ситуация, интересная в связи с приложениями к стохастич. дифференциальным уравнениям с частными производными, возникает в том случае, когда коэффициент переноса - неограниченный оператор вида a(t, x) =aQ(t)x + a^it, x), где a0(t) - неограниченный итератор в Я' с постоянной плотной областью определения 3), порождающий эволюционное семейство операторов U(t, s) в Я': dU% S) =aQ(t)UU, s), U(s, s) = I, U(t, s) = U(t, GK/(e, s), В этом случае задача Коши для (1) эквивалентна интегральному уравнению X(t)=U(t, *0)*o + f u^> 5Ч<*> X(s))ds + + Г UU, s)A(s, X(s))dw(s). Последнее уравнение исследуется теми же методами, что и выше, если его коэффициенты удовлетворяют условиям типа (4) при ^>5и имеют интегрируемые особенности при t = s При описанных условиях решение X(t) уравнения (1) является марковским случайным процессом в фазовом пространстве Я' и его переходные вероятности определяются формулой P(s, t, х, .с/) = Р{Х9Д.(0 е./}, где XS r - решение уравнения (1) при начальном условии X(s)=x.
Процессу Xit) сопоставляется эволюционное семейство VU, t) линейных операторов в пространстве С(Н') непрерывных ограниченных функций на Я': I Vis, t)fix) = EfiXsxit))=\ ,fiy)Pis, t, x, dy), s<t. I ' * H I Производящий оператор этого семейства I v(t)=£svu.t)\iml j есть эллиптич. дифференциальный оператор 2-го порядка mt)f(x)=jtrf4x)(A(tt х)-, Ait, x)) + iait, х), f'(x))H, Дифференциальное уравнение параболич. типа ^- + %it)u = 0 I at называется обратным уравнением Колмогорова для случайного процесса X(t). Решение задачи Коши для этого уравнения в функциональных производных при началь- | ном условии uix, х) = fix) е С2Ш', Ю и гладких коэффициен- I тах определяется формулой uit, x) = Vit, x)fix), t^x, и также принадлежит классу С2Ш', IR). I Аналогичным образом определяется сопряженное эволюционное семейство в пространстве борелевских мер на Я' и связанное с ним дифференциальное уравнение в пространстве мер -прямое уравнение Колмогорова. i Методы исследования стохастич. уравнений распространяются на О. с. д. у. типа (1) со случайными неупреждающими коэффициентами. В частности, это относится к линейному уравнению вида dYit) = bit, (a)Yit)dt +Bit, <o)Yit)dwit), l где bit, со), Bit, со) - случайные линейные операторы, действующие из пространства Я" соответственно в пространства Я" и JfiH, Я"). Такое уравнение определяет случайное линейное эволюционное семейство в пространстве Я": Sit,x):Yit)h+Yix), Sit, x)=Sit, 6)5(6, т), ^в^т (почти наверное). Пусть, в частности, коэффициенты bit, со) = bit, Xit, со)); Bit, со) = Bit, Xit, со)) являются неслучайными функциями случайного процесса Xii). Тогда семейство операторов Sit, x) называется операторным мультипликативным функционалом от процесса Xit). Формула Vit,s)fix) = ES*is,t)fiXsJt)) (5) определяет эволюционное семейство в пространстве .*(//', Я") ограниченных функций на Я' со значениями в Я". Вычисление производящего оператора этого семейства, к-рое можно проделать с помощью формулы Ито, приводит к векторному варианту уравнений Колмогорова. Напр., при В = О для решения задачи Коши ^- + 4it)u + bit,x)u = 0 at получается представление uit,x) = Eexpj*b*is, Xis))dsfiXtxix)); t^x, крое в скалярном случае (Я" = 11?) называется формулой Фейнмана- Каца. Соображения, связанные с формулой типа (5), в скалярном случае приводят к теоремам об абсолютной непрерывности мер в пространстве траекторий, отвечающих стохастич. уравнениям с различными коэффициентами переноса. Лит.: [1] Далецки й Ю. Л., Фомин СВ., Меры и дифференциальные уравнения в бесконечномерных пространствах, М., 1983; [21 Крылов И. В., Розовски й Б. Л., в сб.: Итоги науки и техники. Современные проблемы математики, т. 14, М., 1979, с. 71-146. | Ю. Л. Далецкий. \ ОПЕРАТОРНОЗНАЧНАЯ МЕРА (operator valued measure), операторная мера, - см. Векторная мера. ОПЕРАТОРНЫЙ МЕТОД (operator method) - аналитический метод, основанный на теории операторов в функциональных пространствах. Напр., марковской переходной функции pix, А), хеХ, Л е.с/, где (X, ,</) - измеримое пространство, соответствует линейный оператор Р в пространстве BiX, .-/) измеримых относительно ^/ограниченных функций, определяемый формулой Pg(x)=jxg(y)pix, dy),geBiX, ../) (см. [11, [21). Характеристич. функция суммы ^" fiX.), где X. - однородная цепь Маркова с переходной вероятностью pi-, •), выражается в терминах оператора PiQ)gix)=jx elQMgiy)pix, dy). Спектр оператора Р(6) исследуется с помощью теории возмущений (см. [1]). К марковским процессам с непрерывным временем применима теория полугрупп линейных операторов (см. [3[). О. м. используют также при доказательстве предельных теорем для сумм независимых случайных величин (см. [4], [5]). Лит.: [11 Нагаев СВ., «Теория вероятн. и ее примен.», 1957, т. 2, N° 4, с. 389-416; [2] Неве Ж., Математические основы теории вероятностей, пер. с франц., М., 1969; [31 И ос и да К., Функциональный анализ, пер. с англ., М., 1967; [4] Феллер В., Введение в теорию вероятностей и ее приложения, пер. с англ., т. 2, М., 1984; [51 Ламперти Дж., Вероятность, пер. с англ., М., 1973. С. В. Нагаев. ОПОРНАЯ ТОЧКА ПЛАНА (supporting point of a design) - см. Регрессионных экспериментов планирование. ОПТИМАЛЬНАЯ ИНТЕРПОЛЯЦИЯ в метеорологии (optimal interpolation in meteorology) - линейная относительно наблюдений в п точках интерполяция метеорологического элемента в произвольную «нулевую» точку: обеспечивающая минимизацию среднего квадрата ошибки: ел2о=е[/о-х:=,/>,/,]2. Здесь fQ, /о - соответственно истинное и интерполированное значения f в выбранной «нулевой» точке, f{ - наблюденное значение f в г-й точке наблюдения, к-рое отличается от истинного значения f в этой точке случайной ошибкой 5; = fj - ficEb{ = 0), a pi - весовые коэффициенты. Обычно при О. и. вместо абсолютных значений метеороло- гич. элемента fi рассматриваются его аномалии, то есть отклонения /7 = ft - Е/*, от соответствующего среднего значения Ef{. При этом условии оптимальные веса р{, минимизирующие EAq, находятся как решение системы п линейных уравнений вида где \ai} = E{flf;), yv = E(/75;) и с^ = Е(8ф). Минимальная ошибка (EA0)min = min EAq вычисляется по формуле Pi При решении практич. задач часто можно принять нек-рые гипотезы, существенно упрощающие вычисления. Так, напр., ОПТИМАЛЬНАЯ 425
во многих случаях допустимо считать, что поле аномалий f является однородным и изотропным, а ошибки наблюдения 5, имеют неизменную для всех точек дисперсию а§ и не коррелируют ни между собой, ни со значениями измеряемого метео- рологич. элемента. В таком случае уравнение (1) и формула (2) приобретают соответственно вид «2„ (Ед2о)т1П = ^[1-1;=1^(/0()], п, /С,) rffyiij/ ~ ноРмиРованная корреляционная функция поля метеорологич. элемента f, зависящая только от расстояния 1{. между рассматриваемыми точками, оу - одинаковая для всех точек поля дисперсия элемента /*, Т| - мера ошибки наблюдения, определяемая как отношение а§ ка/. Иногда для оценки точности О. и. вместо абсолютной величины ЕД0 используют относительный показатель е0 = EAq/cj?, к-рый по аналогии с rj называют мерой ошибки интерполяции. Обобщением процедуры О. и. является процедура оптимального согласования метеорологических полей, края состоит в получении (или уточнении) информации о метеорологич. элементе f не только по результатам наблюдений над /*, но и путем привлечения данных о других метеорологич. элементах. О согласовании принято говорить также и в тех случаях, когда речь идет о полях одного метеоэлемента, полученных с помощью разных систем наблюдений, или если одно поле представляет собой фактич. наблюдения, а другое - результат прогноза. По аналогии с О. и. процедура оптимального согласования метеорологич. полей сводится к нахождению приближенного значения метеоэлемента f в интересующей нас «нулевой» точке как линейной комбинации результатов т наблюдений над f в точках i=\ т и результатов п наблюдений над нек-рым другим метеоэлементом <р в (частично или полностью) совпадающих с первыми точках k = 1 п. Формула согласования при этом имеет вид /o = XJ1,p/; + X,Li ?***• где весовые элементы рь qk находятся из условия минимизации величины п2 ЕД20=Е /■o-[xr=i^^+K=i^**]J Как и при О. и., процедура оптимального согласования метеорологич. полей обычно реализуется по отношению к нолям отклонений от норм fj = f{ - Ef{ и <р^ = <рл - Еф^. В предположениях однородности и изотропности этих полей, неизменности от точки к точке дисперсий случайных ошибок наблюдений о£ =E[f(-ft]2 = ol и а62 = Е[фк-щ]2 = og , a /, / <о* Ф также некоррелированности ошибок 5/ и оф самих с собой в разных точках, между собой и с измеряемыми метеорологич. элементами /"и ф оптимальные весовые коэффициенты pi и qk находятся из системы т + п линейных уравнений вида IJ=1 pW + XXL «7*Ч««) + Я2/'? = г/г«(м), i = 1 т. IT., />?'лА*> + *K-i <7vV*v> + ЪЧ ='„«»>. * = 1 «• 426 ОПТИМАЛЬНАЯ Здесь г(А1ц) и гфф(^у) ~ нормированные корреляционные функции полей метеорологич. элементов f и <р, зависящие от расстояния между соответствующими точками, rfy(hk) = E(fi<p'k)/GfG(? ~ нормированная взаимная корреляционная функция этих полей, также зависящая только от расстояния между i-й и k-й точками, rj2 = а| /о2, £2 = о£ /о2, "к = а«р/оу. Мера ошибки оптимального согласования метеорологич. полей определяется выражением ео=1 -IT., pIV'w>-* XL <?*%,««>• Идея О. и. в метеорологии восходит к работам А. Н. Колмогорова [6] и Н. Винера [8] (см. также [7]). В настоящее время О. и. и оптимальное согласование метеорологич. полей составляет основу объективного анализа - автоматизированной вычислительной процедуры, к-рая предшествует численному прогнозу и имеет своей целью восстановление по данным в отдельных точках приближенных значений поля метеорологич. элемента в узлах иек-рой регулярной сетки или представление его в виде семейства изолиний (см. [1], [9]). Другие применения О. и. в метеорологии связаны с решением задач рационального планирования наблюдательной сети, контроля и оценки точности результатов метеорологич. наблюдений, осреднения метеорологич. полей (см., напр., [1], [3], [4], [5]). Широкое распространение получили также методы С), и. при разработке эффективных схем усвоения спутниковой метеоинформации (четырехмерный анализ, см. [2], [10]). Лит.: [1] Ганди н Л. С, Объективный анализ метеорологичегких полей, Л., 1963; [2] его же, Четырехмерный анализ метеороло!иче- ских полей, Л., 1976; [3] Гандим Л.С., Каган Р. Л., Статистические методы интерпретации метеорологических данных, Л., 1976; [4| Дроздов О. А., Ш е не л евс к и й А. А., «Тр. научно-иссле/ова- тельских учреждений Главного управления Гидрометеослужбы», 1946, сер. 1, в. 13, с. 65-115; [5] Каган Р. Л., Осреднение метсоролшиче- ских полей, Л., 1979; [61 Колмогоров АН., «Изв. АН СССР. Сер. матем», 1941, т. 5, № 1, с. 3-14 (Теория вероятностей и математическая статистика, М., 1986, с. 255-63); [7\ Яглом A.M., «Успехи матем. наук», 1952, т. 7, в. 5, с. 3-168; [8] WienerN., Extrapolation, interpolation and smoothing of stationary time series, N. Y., 1949; |9] Panofsky H.A., «J. MeteoroU, 1949, v. 6, № 6, p. 386-92; [10] Miyakoda K., Talagrand O., «Tcllus», 1971, v. 23, № 4-5. p. 310-17. E. E. Жуковский. ОПТИМАЛЬНАЯ ОСТАНОВКА случайного про ц е с с a (optimal stopping of a random process) - задача отыскания цены S = sup Ед(Хх) оптимальных моментов т*. для к-рых Eg(Xx*) = sup Е#(ХТ), теЗЯ если таковые существуют, или е-оптимальных моментов те, для к-рых Eg(Xx)>sup Ед(Хх)-г. е теЗЯ В этой (простейшей) формулировке задачи предполагается заданным стохастич. базис ./?= (Q, .с/, С^)^0, Р), нек-рый случайный процесс X=(Xt, <</t)t^Q, и семейство Ш = {х) марковских моментов, то есть таких случайных величин т со значениями в [0, °°], что {x^t}eFt при каждом t^O. Существуют два (по существу равносильных) подхода - «мартингальный» и «марковский». В «мартингальном» подходе процесс X может быть довольно произвольным, в «марковском» подходе предполагается, что X является марковским процессом с достаточно общим пространством состояний. В первом случае для характеризации цены S привлекаются понятия типа супермартингала. Во втором случае соответствующая характеризация использует понятие эксцесгнвных функций. Типичный результат теории О. о. однородных марковских процессов Х=(хП1, .</„, Рх),
n = 0, 1 с дискретным временем и фазовым пространством (£, В) следующий. Пусть sCt) = sup Exgixx). Тогда оказывается , что six) есть наименьшая эксцессивная мажоранта функции gix), то есть наименьшая из функции f=fix), удовлетворяющая условиям gix) ^ fix), E/ix^^fix). При этом six) удовлетворяет уравнению Беллмана - Вальда six) = max {gix), EKfix\)} и момент Te=inf{w^0; sixn)^gixn) +e} является е-оптимальным для всякого е > 0 в том смысле, что Exgix£) ^ six) - е для всех х еЕ. Общая теория оптимальных правил остановки как в случае дискретного, так и непрерывного времени изложена в Ш-[4]. JTum.: 111 Робби и с Г., Сигму ид Д., Чао И., Теория оптимальных правил остановки, пер. с англ., М., 1977; [2] Ширя- евЛ. П., Статистический последовательный анализ, М., 1976; [3] К р-ы лов Н. В., Управляемые процессы диффузионного типа, М., 1977; [41 ГихманИ.И., С коро хо д А. В., Управляемые случайные процессы, К., 1977. А. Н. Ширяев. ОПТИМАЛЬНАЯ РЕШАЮЩАЯ ФУНКЦИЯ (optimal decision function) - см. Оптимальность статистической процедуры. ОПТИМАЛЬНАЯ СТРАТЕГИЯ (optimal strategy/policy) - см. Планирование эксперимента, Управляемый диффузионный процесс, Управляемый случайный процесс с дискретным временем. 8-ОПТИМАЛЬНАЯ СТРАТЕГИЯ (e-optimal strategy/policy) - см. Управляемый диффузионный процесс, Управляв мый случайный процесс с дискретным временем. ОПТИМАЛЬНОЕ РЕЗЕРВИРОВАНИЕ (optimal redundancy) - способ повышения структурной надежности системы за счет использования дополнительных (резервных) элементов при наличии ограничений на суммарные расходуемые ресурсы (стоимость, вес, габариты и пр.). Математич. задача О. р. представляет собой задачу нелинейного целочисленного программирования. Для случая нескольких ограничений задача О. р. записывается в виде тах{я(Х):С,(Х)^С?; j = \,...,n}, х J J где Х = (х\, х2, ..., хп) - совокупность п типов резервных элементов в системе, RiX) - заданный функционал, характеризующий надежность системы при условии, что у нее имеется резерв из х-% элементов i-го типа, i = 1, ..., п, СХХ) - функционал затрат/-го типа, связанных с наличием в системе резерва X, N - число типов ресурсных ограничений, С\ - допустимые ресурсные затраты /-го типа. Обычно задача О. р. ставится для одного ограничивающего фактора. В этом случае естественным образом формулируется и обратная задача О. р.: min {CiX): RiX) ^R0}, x где R - заданное ограничение по показателю надежности системы. Традиционная постановка задачи (см. [1]) О. р. предполагает рассмотрение системы, состоящей из взаимно независимых подсистем, каждая из к-рых обеспечивается своим типом резервных элементов. В этом случае для показателей, таких как вероятность безотказной работы или коэффициент готовности, можно записать RiX) = T] RiixJ, где Riixi) - соответствующий показатель надежности i-й подсистемы при наличии у нее xi резервных 'элементов. Ограничения, как правило, рассматриваются линейные, то есть CiX) = У eft, где Г; - стоимость одного элемента i-го типа. При такой традиционной постановке задачи точное решение может быть получено с помощью динамич. программирования или его модификацией. В этом случае строится последовательность так наз. доминирующих векторов Xk=ixf г*) таких, что RiXk) <tf(X*+1), и для любого л среди всего множества допустимых решении не существует такого вектора X*, для к-рого выполнялись бы одновременно условия RiX*)>RiXk), CiX*)^CiXk). Подпоследовательность полной последовательности доминирующих векторов для задачи О. р. может быть построена с использованием покоординатного наискорейшего спуска. Хорошие оценки решений могут быть получены обобщенным методом множителей Лагранжа (см. [3]). Решение задачи О. р. существенно усложняется, если целевой функционал RiX) не носит мультипликативного характера (напр., является средней наработкой до отказа). В этом случае для решения может быть рекомендован либо приближенный метод (см. [3]), либо метод, использующий оптимизацию по результатам статистич. реализации (см. [2]). Лит.: [11 Бар л о у Р., Прошан Ф., Статистическая теория надежности и испытания на безотказность, пер. с англ., М., 1984; [21 Вопросы математической теории надежности, М., 1983; [3] Надежность технических систем. Справочник, М., 1985. И. А. Ушаков. ОПТИМАЛЬНОСТИ ПЛАНА ПРОВЕРКА (checking of the optimality of a design) - проверка оптимальности плана £* по критерию: по выпуклой функции Ф от информационной матрицы ш(£) регрессионного эксперимента, дифференцируемой в ш(£*). Эта О. п. п. сводится по теореме эквивалентности к проверке условия max \\fTix) = trTmi^*), хе X где \\fTix) = fTix)Tfix), Г = Ф(т(£*)) - матрица градиента функции Ф(ш), fix) - вектор предикторов (см. Регрессионных экспериментов планирование). М. Б. Малютов. ОПТИМАЛЬНОСТИ ПРИНЦИП стохастический (stochastic optimality principle) - см. Стохастическое динамическое программирование. ОПТИМАЛЬНОСТИ УРАВНЕНИЕ (optimality equation) - см. Стохастическое динамическое программирование, Управляемый скачкообразный процесс, Управляемый случайный процесс с дискретным временем. ОПТИМАЛЬНОСТЬ статистической процедуры (optimality of a statistical procedure) - свойство статистической процедуры доставлять экстремум (в рассматриваемом классе процедур) некоторому функционалу, характеризующему эффективность статистической процедуры. Эффективность статистич. процедуры - понятие, позволяющее определить качество статистич. процедуры с точки зрения достоверности статистич. выводов, сделанных на основании этой процедуры, и затрат на проведение статистич. эксперимента, определяемого этой процедурой. Понятие О. статистич. процедуры не совсем четко определено, но оно приобретает строгий математич. смысл в конкретных определениях (напр., оптимальность в минимаксном смысле, оптимальность в среднем и т. п.). Обычно в теории статистич. решений в качестве меры эффективности процедуры выступает ее полный риск. В случае когда статистич. эксперимент определен заранее и статистич. процедура отождествляется с решающей функцией, под О. статистич. процедуры понимают оптимальность соответствующей решающей функции. Пусть К - рассматриваемый класс решающих функций. Если в К существует равномерно лучшая решающая функция 8*, доставляющая минимум (по бе/С) функции риска RiQ, 8) ОПТИМАЛЬНОСТЬ 427
сразу во всех точках в € 0 параметрич. пространства 0, то эта решающая функция называется о п т и м а л ь н о й в классе К. Иногда термин «оптимальная решающая функция» употребляется безотносительно данного класса рассматриваемых решающих функций - либо для краткости, когда рассматриваемый класс фиксирован, либо когда этот класс совпадает с классом всех решающих функций. Однако во многих задачах математич. статистики равномерно лучшие решающие функции существуют лишь в достаточно узких классах решающих функций, и поэтому приходится пользоваться более слабыми критериями О.; при этом в определении оптимальной решающей функции иногда указывается, в каком смысле понимается эта О. При таком подходе определяется мера эффективности решающей функции (обычно - ее риск) как функционал Ф(8) от функции риска Жб, 5), выражающий средние потери, к-рые несет статистик при использовании решающей функции 8 для принятия решения о неизвестном значении параметра в € 0, характеризующего исследуемый объект. Пример 1. Ф1(8) = Л(в0, 8), где в0 - фиксированное значение параметра 0 (то есть Ot - вальдовский риск). Решающая функция Ь*еК, доставляющая (в данном классе К) минимум функционалу Ф^ называется оптимальной в точке в0. Если при этом она доставляет минимум (по 8е К) функции риска /?(в, 8) сразу для всех в, лежащих в нек-рой окрестности точки 0О, то такая решающая функция называется локально оптимальной в точке 0О. Пример 2. Ф2(6) = sup #(6, 8). Такой функционал соот- ветствует понятию О. в минимаксном смысле. Решающая функция 8*, доставляющая минимум функционалу Ф2(8), называется оптимальной в минимаксном смысле решающей функцией [величина Ф2(8*) равна минимаксному риску]. Пример 3. Ф3(8) = | Я(6, 8)G(rfG), гдевО - нек-рая заданная на 0 мера. Этому функционалу соответствует понятие О. в среднем (с весовой функцией G), а решающая функция 8*, минимизирующая Ф3(8), называется оптимальной в среднем. Если в качестве меры G выступает вероятностная мера, рассматриваемая как априорное распределение параметра 0 (см. Бейесовский подход к статистическим задачам), то эта решающая функция 8* называется оптимальной бейесовской (или просто бейесов- ской) решающей функцией и величина Ф3(8*) равна бейесов- скому риску. Если класс К решающих функций, участвующий в определении оптимальной решающей функции, определен с помощью нек-рого свойства решающих функций (напр., класс несмещенных решающих функций, класс инвариантных решающих функций), в название оптимальной решающей функции иногда вводится соответствующее уточнение (напр., оптимальная несмещенная решающая функция, оптимальная инвариантная решающая функция). В ситуации, когда статистич. эксперимент заранее не определен, понятие О. решающей функции связывают обычно с минимизацией затрат на проведение статистич. эксперимента, определяемого данной процедурой, при заданных ограничениях на качество окончательных решений. Напр., в последовательном анализе в задаче различения двух простых гипотез О. решающей функции минимизирует среднее время наблюдения (до момента остановки), к-рое требуется для того, чтобы с помощью данной процедуры различить эти гипотезы с вероятностями ошибок первого и второго родов, не превышающих заданные значения. В задаче интервального оценивания параметра 6 (в последовательной схеме наблюдений) можно на- 428 ОПТИМАЛЬНОСТЬ звать оптимальной такую статистич. процедуру, к-рая минимизирует среднее количество наблюдений, необходимых для построения доверительного интервала заданной длины, «накрывающего» 6 с заданной доверительной вероятностью. В конкретных статистич. задачах могут встречаться и другие определения О. Напр., в задаче наискорейшего обнаружения разладки в качестве оптимизируемой характеристики процедуры служит среднее время от момента разладки до момента ее обнаружения; при этом задано ограничение на вероятность «ложной тревоги». В асимптотич. задачах математич. статистики, в к-рых обычно объем выборки п или время наблюдения Т неограниченно возрастают, в качестве меры эффективности статистич. процедуры выступает предельное (при п -> °° или Т -> <*>) значение соответствующей характеристики, вычисленной при конечных п или 7\ и естественным образом вводится одноименное понятие асимптотич. О. статистич. процедуры (напр., асимптотически оптимальная в минимаксном смысле процедура). Обычно получение оптимальных статистич. процедур является весьма сложной задачей, но в то же время при асимптотич. подходе в тех же задачах удается получить асимптотически оптимальные процедуры. Для многих конкретных задач удается доказать асимптотич. О. (в том или ином смысле) обычно применяемых процедур (напр., отношения правдоподобия критерий является асимптотически минимаксным, асимптотически бейесовским), в то же время зачастую эти же процедуры при конечных п или Т не обладают никакими свойствами О. (другим примером такого рода может служить максимального правдоподобия оценка в теории оценивания). В конкретных разделах математич. статистики встречаются и другие меры эффективности статистич. процедур и связанные с ними понятия оптимальных процедур. А. В. Бернштейн. ОПТИМАЛЬНЫЙ КРИТЕРИЙ (optimal test) - статистический критерий, имеющий «наилучшую» мощность в каком-либо смысле, уточняемом в конкретном контексте. Это могут быть, напр., равномерно наиболее мощный критерий или бейесовский критерий, отвечающий какому-либо априорному распределению, и др. См. Оптимальность статистической процедуры. Д. М. Чибисов. ОПТИМАЛЬНЫЙ МОМЕНТ (optimal stopping time) - см. Оптимальная остановка случайного процесса. ОПЦИОНАЛЬНАЯ ПРОЕКЦИЯ ПРОЦЕССА (optional projection of a process) - см. Вполне измеримая проекция процесса. ОПЦИОНАЛЬНОЕ МНОЖЕСТВО (optional set) - см Мартингал. ОПЦИОНАЛЬНЫЙ ПРОЦЕСС (optional process) - см Вполне измеримый процесс, Мартингал. ОРДИНАЛИСТСКИЙ ПОДХОД (ordinal approach) - см. Полезностей теория. ОРДИНАЛЬНЫЙ ПРИЗНАК (ordinal criterion) - см. Многомерный статистический анализ. ОРДИНАРНАЯ МОДЕЛЬ (ordinary model) планирования отсеивающих эксп ериме нтов - такое условное распределение измерений (канал), что наибольшая асимптотическая скорость планов с произвольно малыми вероятностями ошибки равна максимальному значению информации Шеннона между входом и выходом канала. Если выход z есть [х(Хх) + х(Х2) + x(X3)\(mod 2) + x(^4), .*(•) = О или 1, то модель неординарна. Даны достаточные условия ординарности в терминах условных энтропии. Если, в частности, канал симметричен, то есть распределение выхода не меняется при перенумерации входов, то он ординарен.
Лит.: [1| Математическая теория планирования эксперимента, М., 1983, гл. 15; |2| МалюговМ.Б., МатеевП.С, «Матем. заметки», 1980, т. 27, № 1, с. 109-27. М. Б. Малютов. ОРДИНАРНОСТЬ ПОТОКА (simplicity of a flow) - свойство входящего потока, состоящее в том, что с вероятностью 1 1иоменты tn событий потока различны. О. п. в случае стационарного входящего потока (см. Стационарность потока) следует из свойства: вероятность более одного события потока в фиксированном интервале времени длины А есть о(А) при Д-»0. Это свойство и принимается в качестве определения О. п. при элементарном изложении теории входящих потоков. О. п. следует из тождественного совпадения мгновенной ин- теьсивности и мгновенного параметра (см. Нестационарный поток). Лит.: [1] Франком II. и др., Очереди и точечные процессы, пер. с англ., К., 1984. И. Н. Коваленко. ОРДИНАРНЫЙ ТОЧЕЧНЫЙ ПРОЦЕСС (ordinary point process) - случайный точечный процесс Ф, у к-рого для любого е > 0 найдется такое разбиение Зе = {ZaJ фазового пространства состояний, что XaPN>(Zae> >1}<Е. О. т. п. является простым точечным процессом. Если для стационарного случайного точечного процесса Ф на прямой Р{Ф((*. t + h])>\} = o(h), /*->0, то Ф является О. т. п. Ю. К. Беляев. ОРЕЯ ТЕОРЕМА (Orey theorem) - эргодическая теорема для возвратных по Харрису цепей Маркова, принадлежащая С. Орею (S. Огеу). См. Маркова цепь. А. А. Юшкевич. ОРНСТЕЙНА МЕТРИКА (Ornstein metric), d-метрика, - метрика на множестве стационарных в узком смысле случай ных процессов х = {xtl, n e Z) с дискретным временем и конечным числом состояний (точнее, на множестве бесконечномерных распределений таких процессов), введенная Д. Орн- стейном (см. [1], 12)). Она определяется равенством d(x, jy) = lim dn(\)Ln, vn), где \in, vn - распределения Случайна °o ньх векторов (.rp ..., хп) и (г/j, ..., уп) соответственно, а dn - расстояние в смысле Канторовича [3] (см. также [4]) между этими распределениями, отвечающее нормированной метрике Хэмминга на пространстве последовательностей длины п. Множество стационарных в узком смысле случайных последовательностей, к-рые можно почти наверное взаимно однозначно и с сохранением меры перекодировать в последовательность независимых одинаково распределенных случайных величин, замкнуто в О. м. (см. [2]). В терминах этой метрики формулируется также необходимое и достаточное условие на отдельно взятую стационарную случайную последовательность, для к-рой такая перекодировка возможна (см. [2]). Имеются обобщения О. м. на случай процессов с произвольным множеством состояний (см. [5], [6]). Лит.: [1] Орнстсйн Д., «Успехи матем. наук», 1975, т. 30, в. 3, с. 125-46; [21 его же, Эргодическая теория, случайность и динамические системы, пер. с англ., М., 1978; [31 Ка нторов и ч Л. В., «Докл. АН СССР», 1942, т. 37, № 7-8, с. 227-29; [41 Канторович Л. В., Рубинштейн Г. Ш., там же, 1957, т. 115, № 6, с. 1058-61; [51 Gray R., NeuhoffD., Shields P., «Ann. РгэЬаЬ.», 1975, v. 3, № 2, p. 315-28; [61 Schwarz G., «J. Math. Analysis and AppU, 1980, v. 76, № 1, p. 146-58. Б. М. Гуревич. ОРНШТЕЙНА - УЛЕНБЕКА ПРОЦЕСС (Ornstein - Uhlenbeck process) - гауссовский стационарный случайный процесс V(t) с нулевым математическим ожиданием и экспоненциально затухающей корреляционной функцией вида EV(t)V(t + x) = B(x)=c2exp(-a\x\), a>0. О.-У. п. может быть также определен как стационарное решение стохастич. уравнения (уравнения Ланжевена) вида mdV(t) + $V(t)dt = dW(t), (*) где w(t) - винеровский процесс (так что dw(t)/dt - обобщенный случайный процесс белого шума), а т и р - положительные постоянные, причем Р/т = а. Уравнение (*) приближенно описывает одномерное броуновское движение свободной частицы; при этом V(t) интерпретируется как скорость частицы, т - ее масса, -$V(t) - пропорциональная скорости сила «вязкого трения» (для сфе- рич. частицы радиуса а коэффициент Р равен 6тсг|я, где г\ - коэффициент вязкости, в силу гидродинамич. формулы Сто- кса), а белый шум w'(t) - это «случайная сила», порожденная хаотич. толчками молекул среды, находящихся в тепловом движении, и являющаяся основной причиной броуновского движения. В первоначальной теории броуновского движения, развитой А. Эйнштейном (A. Einstein) и М. Смо- луховским (М. Smoluchowski) в 1905-06, пренебрегалось инерцией частицы, то есть считалось, что т = 0; при этом уравнение (*) приводило к выводу, что координата броуновской частицы Х(0 = Ц V(t')df равна р_1да(0, то есть представляет собой винеровский процесс. Таким образом, винеровский процесс описывает модель Эйнштейна - Смолуховского броуновского движения (отсюда другое его название - процесс броуновского движения); так как этот процесс недифференцируем, то в теории Эйнштейна - Смолуховского частица, совершающая броуновское движение, не имеет конечной скорости. Уточненная теория броуновского движения, опирающаяся на уравнение (*), где ш*0, была предложена в 1930 Л. Орнштейном и Г. Уленбеком (см. [1], [2]); позже та же теория в 1934 была выдвинута С. Н. Бернштейном [3] и А. Н. Колмогоровым (см. [4]), использовавшими другие, чем в работе [1], методы. В теории Орнштейна - Уленбека скорость V(t) броуновской частицы является конечной, но ее ускорение бесконечно (так как О. - У. п. недифференцируем); для того чтобы и ускорение оказалось конечным, надо еще уточнить теорию, учтя отличие случайной силы от идеализированного белого шума w'(t). Уравнение (*) можно использовать и для описания одномерного броуновского движения гармонич. осциллятора, если пренебречь его массой и считать, что V(t) - это координата осциллятора, -т —— сила вязкого трения, -pV - регулярная упругая сила, удерживающая осциллятор, a w'(t) - случайная сила, создаваемая молекулярными точками. Таким образом, О. - У. п. доставляет также модель пульсаций координаты гармонич. осциллятора, совершающего броуновское движение, родственную модели Эйнштейна - Смолуховского броуновского движения свободной частицы. О. - У. п. является однородным по времени марковским процессом диффузионного типа; наоборот, процесс V(t), являющийся одновременно стационарным случайным процессом, гауссовским процессом и марковским процессом, обязательно представляет собой О. - У. п. Как марковский процесс О. - У. п. удобно характеризовать его переходной плотностью вероятности p(t, x, у), представляющей собой фундаментальное решение соответствующего уравнения Фоккера - Планка (то есть прямого уравнения Колмогорова) вида Эр Э(г/р) т д2р Bt by Ъу1 и задаваемой формулой /* \ 1 J (у-хе-*)2 1 ОРНШТЕЙНА 429
Многие свойства О. - У. п. V(t) (включая и его марковость) можно вывести из известных свойств винеровского процесса, воспользовавшись тем, что процесс 41., -1, 2к>\, ? ■><•>-£"(£) является стандартным винеровским процессом (см. [5]). В частности, отсюда следует, что реализации О. - У. п. непрерывны и нигде недифференцируемы почти наверное и что почти наверное \V(t)-V(0)\ lim (4аЛ1п1п-) 1/2 = 1, 77- \V(t)\ lim ' ' 3(2а2ы) 1/2 = 1. См. также Ланжевена уравнение. Лит.: [1] Uhlenbeck G.E., Or n ste i n L. S., «Phys. Rev.», 1930, v. 36, № 3, p. 823—41; 12] Ч андрасекар С, Стохастические проблемы в физике и астрономии, пер. с англ., М., 1947; [3] Берн- штейн С. Н., «Докл. АН СССР», 1934, т. 1, № 1, с. 1-9, № 7, с. 361-65; [4] Колмогоров А.Н., Теория вероятностей и математическая статистика, М., 1986, с. 168-70; [5] DoobJ.L., «Ann. Math.», 1942, v. 43, p. 351-69. A. M. Яглом. OPPA - ЗОММЕРФЕЛЬДА УРАВНЕНИЕ (Or - Som merfeld equation) - дифференциальное уравнение <pIV - 2tffy' + fl4<p = iaRe{(w - c)(<p" - oAp) - w"<p) для амплитуды двумерных возмущений плоскопараллельного течения вязкой жидкости, имеющих вид распространяющихся волн: ф(г/)ехр(га(х-сО). Здесь Re - число Рейнольдса течения, w(y) - профиль скорости, с - собственное значение, подлежащее определению. Обычно на плоскости параметров а, Re строится кривая нейтральной устойчивости, соответствующая Imc = 0. Для плоского течения Пуазейля установлено наличие неустойчивости. Теория численного интегрирования О. - 3. у. построена с использованием ВКБ-асимптотик (см. [3]). Лит.: [1] Orr W. Mc F., «Proc. Roy Irish. Acad., A», 1906-07, v. 27, p. 9-27, 69-138; \2] Sommerfeld A., «Atti del IV Congr. intern, dei niatem. Roma», 1909, v. 3, p. 116-24; 13] Линь Цзя-цзяо, Теория гидродинамической устойчивости, пер. с англ., М., 1958. Л. Л. Дикий. ОРТОГОНАЛЬНАЯ РЕГРЕССИЯ (orthogonal regression) - регрессионный эксперимент, в котором предикторы ортогональны на плане эксперимента. Компоненты оценки 6 метода наименьших квадратов для О. р. суть нормированные скалярные произведения векторов измерений и предикторов; не меняются при расширении множества предикторов; информационная матрица диагональна. Проста проверка значимости нескольких компонент 6, независимых при нормальном распределении измерений. См. также Линейная регрессия. М. Б. Малютов. ОРТОГОНАЛЬНАЯ СЛУЧАЙНАЯ МАТРИЦА (orthogo nal random matrix) - случайная матрица Нп порядка п, для к-рой транспонированная матрица Нп совпадает с обратной k= (п-\)/2, и 1, если п - нечетное; здесь ^-действительные числа, 0^>^<2л. Собственные векторы uk, соответствующие несопряженным собственным значениям, ортогональны. Собственные значения О. с. м. Нп упорядочиваются следующим образом: {е'Ч e~iX\ ..., eiX"/2, e~iX»/2, 2к>Х^ ... ^^/2^0>, если п - четное, причем возможен случай, когда нек-рые собственные значения равны ± 1, и тогда они упорядочивают- + 1, Собственные значения матрицы Нп равны ехр(±г^), 1,..., и/2, если п - четное, и ехр(±г^), k=\,..., ся следующим образом: {е1 \ е 430 ОРРА -а, еЛ(«-2)/2( е~гХ (/(-2)/2 ^^(„_2)/2^0}; для нечетного п собственные значения упорядочивают так: e-iX(n-\)/2t £f 27C>^ ... >\„_{ л. -л. {е'"\ е 'л', .... е"V'-n/2, ! ^ ... ^/у„_ i)/2^0}, последнее собственное значение £ есть нек-рая случайная величина, к-рая принимает значения + 1 или -1. О. с. м. Нп с вероятностью cos^j sinX.1 -sin^cos^ для четного п, q = (n- 2)/2, и нредставима в виде Нп = ^„diag- cosK sink -sinA, cosA, + 1,-1 w: "„=t'„diag. coskj sinAJ -sinkjcoskj | cosAv sinAs -sinAxosA. %\ul для нечетного n, s = (n- l)/2, где Un - ортогональная матрица, вектор-столбцы к-рой равны Reuk, lmuk. Если п четное иуО.с.м. Я„ нет собственных значений - 1 и -1, то полагают uls = cs, s = 2, 4, ..., п\ если п - четное и у матрицы Нп есть собственные значения +1 и -1, то полагают ii\s = cs,s = 2, 4, ..., п-2, Mi и_1 ^0, uUj^0, где и1т - элементы матрицы Un. Если п- нечетное, то полагают uls = cs, s = 2, 4, п-\, ,^0. Пусть G - группа и-мерных ортогональных действительных матриц, (X - нормированная мера Хаара на ней, В есть а-ал- гебра борелевских подмножеств группы G, п - нечетное число. Если распределение О. с. м. Нп абсолютно непрерывно относительно меры |i, то для любого множества L е Б и действительных чисел ос.-, 3,, 7 = 1» можно подсчитать (см. [1]) ., (я-0/2, 0^аД<2л, (я-1)/2, $=±1}. P{U„eL,aJ^XJ<VJ,j=\, Лит.: [1] Гирко В.Л., «Успехи матем. паук», 1985, т. 40, в. 1, с. 67-106; [2] Мурнаган Ф. Д., Теория представлений групп, пер. с англ., М., 1950; [3] Шевалле К., Теория rpvmi Ли, пер. с анп., т. 1, М., 1948. " В. Л. Гирко. ОРТОГОНАЛЬНАЯ ТАБЛИЦА (orthogonal table) - см. Факторный эксперимент. ОРТОГОНАЛЬНОЕ ВРАЩЕНИЕ факторных осей (orthogonal rotation of factorial axes) - см. Факторных осей вращение. ОРТОГОНАЛЬНОЕ ПЛАНИРОВАНИЕ (orthogonal design) - см. Адамара матрица. ОРТОГОНАЛЬНОЕ РАЗЛОЖЕНИЕ случайного про цесса (orthogonal expansion of a random process) - см. Kapy- нена - Лоэва разложение. ОРТОГОНАЛЬНЫЕ БЛОКИ (orthogonal blocks) - непересекающиеся подмножества D0, ..., Ds_j факторного плана эксперимента D такие, что любая точка плана входит только в одно из подмножеств Dv г = 0, 1, ...,s-l, и выполняется следующее условие ортогональности. Пусть F - блоковый фактор, то есть фактор, принимающий значение i для опытов подмножества D(, i = 0, 1, ..., s- 1, и пусть X - матрица коэффициентов плана D для заданной линейной по параметрам модели. Пусть, далее, из X вычеркнуты столбцы, отвечающие блоковому фактору F, и полученная матрица обозначена через X'. Тогда условие ортогональности блоков D0, ..., D9_j заключается в том, что любой вектор главного эффекта фактора F ортогонален любому столбцу матрицы X'. Ортогональность блоков позволяет исключить влияние аффектов блоков на оценки остальных параметров или парамет- рич. функций, так как эта ортогональность влечет некоррелированность оценок эффектов исследуемых факторов от блоковых эффектов. Лит.: [11 Бродский В.З., Введение в факторное планирование эксперимента, М., 1976. В. 3. Бродский.
ОРТОГОНАЛЬНЫЕ КВАДРАТЫ (orthogonal squares) - п квадратов одного и того же размера s > 1, то есть квадратных матриц порядка s, заполненных s различными символами, таких, что для любых двух из них (Л = |fli;|| и В = |Ьу|) для каждой упорядоченной пары символов (а, Ь) существует ровно одна пара индексов (г, /) такая, что ai} = a, b =b. Особый интерес представляют ортогональные латинские квадраты- латинские квадраты с указанным условием ортогональности. Пара ортогональных латинских квадратов называется греко-латинским квадратом, а множество более чем из двух ортогональных латинских квадратов называется гипергреко-латинским квадратом. Если Xs - максимальное число ортогональных латинских квадратов • размера s, то справедливы неравенства Xs^s-\, \s'£m\n (pj>-\), где я = ГТ pji - канонич. разложение числа s, при этом рг - простые, а /г, - натуральные числа, г=1, ..., г. Если5 - целая степень простого числа, то Xs = s- 1. Существование ортогональных латинских квадратов и их построение при заданном значении s - вопросы не простые. Так, в 1782 Л. Эйлер (L. Euler) предположил, что для всех s=4/e + 2, k=\, 2, ..., ортогональных латинских квадратов не существует. Это предположение было опровергнуто только в 1959 (см. [1]): оказалось, что ортогональные латинские квадраты существуют для всех s, кроме s = 2 и s = 6. Каждому набору из п О. к. соответствует план (и-^^факторного эксперимента, в к-ром все факторы имеют s уровней, а общее число измерений равно s . Такое соответствие получается, если в (г, /)-м измерении первый фактор зафиксировать на г-м уровне, второй - на ;-м, а (/г + 2)-й, /г= 1, ..., п, - на уровне, определяемом символом, находящимся на (г, /)-м месте k-vo квадрата. Лит.: [11 Parker E.T., «Proc. Nat. Acad. Sci. USA», 1959, v. 45, p. 859-62; [21 Бродский В. З., Введение в факторное планирование эксперимента, М., 1976; |3] Холл М., Комбинаторика, пер. с англ., М., 1970. В. 3. Бродский. ОРТОГОНАЛЬНЫЕ КУБЫ (orthogonal cubes) - трехмерные матрицы /Cj, ..., Кп одного и того же размера sxsxs, заполненные символами из множеств Sj, ..., Sn соответственно, и такие, что для любых двух из них Кр = \\ait-k\\, Kq = \\b^k\ (р, q= \, ..., п\ p*q\ i, j, k=\, ..., s) для каждой упорядоченной пары символов (a, b), aeSp, beSq, число троек индексов (i, /, k) таких, что al:k = a, bilk = b, постоянно для заданных р и q. О. к. используются в планировании эксперимента аналогично ортогональным квадратам. Основной интерес представляют ортогональные латинские кубы. Пара ортогональных латинских кубов называется греко-латинским кубом, а множество более чем из двух ортогональных латинских кубов носит название гипергреко-латинского куба. Максимальное число ортогональных латинских кубов первого по- 2 рядка размера s x s x s не превосходит s + s + 2, причем если s - степень простого числа, то имеет место равенство. Не существует ни одной пары ортогональных латинских кубов 2-го порядка, но существуют множества из нескольких латинских кубов 1-го порядка и одного латинского куба 2-го порядка, являющихся попарно ортогональными. Лит.: [1] Маркова Е. В., Лисенков А. Н., Комбинаторные планы в задачах многофакторного эксперимента, М., 1979; [2) Бродский В. 3., Введение в факторное планирование эксперимента, М., 1976; [31 Математическая теория планирования эксперимента, М., 1983. В. 3. Бродский. ОРТОГОНАЛЬНЫЕ ЛАТИНСКИЕ КВАДРАТЫ (orthogonal Latin squares) - см. Латинский квадрат, Ортогональные квадраты. ОРТОГОНАЛЬНЫЕ ЛАТИНСКИЕ ПРЯМОУГОЛЬНИКИ (orthogonal Latin rectangles) - см. Латинский прямоугольник. ОРТОГОНАЛЬНЫЕ ФУНКЦИИ эмпирические (empirical orthogonal functions) - см. Эмпирические ортогональные функции. ОСНОВНАЯ ГИПОТЕЗА (null hypothesis) - см. Статистических гипотез проверка. ОСНОВНАЯ ТЕОРЕМА ВОССТАНОВЛЕНИЯ (key renewal theorem) - см. Восстановления теорема. ОСНОВНОЕ СОСТОЯНИЕ (ground state) - аналог понятия Гиббса распределения для предельного случая нулевой температуры. Поскольку распределение Гиббса в конечном объеме Л с: Т для решетчатой системы с обратной температурой Р задается как p\(xtt te\) = exp{ - рЯЛ(х„ t е A)}/ZJJ, где Ял - гамильтониан системы и ZJJ - статистич. сумма, то пределом рА при Р -» °° распределения р\ является равномерное распределение, сосредоточенное на множестве конфигураций (xt, teA), для к-рых гамильтониан ЯЛ принимает минимальное значение. Это подсказывает следующее определение, применимое к Гиббса случайному полю на всем бесконечном множестве индексов Т. Фиксировав потенциал U решетчатой системы для любого конечного Л cz Г, обозначим через еЛ(х^\Л) совокупность конфигураций л:лвЛ таких, что при фиксированном значении хт\А конфигурации в Т\А условный гамильтониан Я(#Л|.хг\Л) принимает минимальное значение. Случайное поле (Х^, t еТ) называется основным состоянием для потенциала U, если при любом конечном Л с: Г почти всюду условное распределение для {Xt, teA) при заданном значении конфигурации (Xt, t e Г\Л) вне Л является равномерным распределением на множестве £A[(Xt, t е Г\Л)]. Если О. с. сосредоточено на одной конфигурации (xt, teA), то эта конфигурация называется основной. Эквивалентно, конфигурация (xt, t e А) называется основной, если при любом конечном Л множество еЛ[(^, £еГ\Л)] состоит из единственной конфигурации (xt, teA). Оправданием этому определению служит тот легко доказываемый факт, что если Р^ - распределение вероятностей гибб- совского случайного поля с обратной температурой Р и потенциалом U, то любая предельная при |$->°о (в смысле слабой сходимости) точка семейства распределения Р^ является О. с. Обратная к этой теореме, вообще говоря, не верна. Исследование совокупности О. с. для многих конкретных ситуаций (напр., для Изинга модели и Гейзенберга модели) является существенно более простой задачей, чем исследование совокупности гиббсовских состояний. Поэтому важное в теории фазовых переходов место занимает выделение О. с, для к-рых есть семейство сходящихся к ним при |$->°о гиббсовских состояний. Наиболее общий из результатов такого рода - Пирогова - Синая теорема. Лит.: [1] Синай Я. Г., Теория фазовых переходов, М., 1980; [2] Dobrushin R. L., Shlosman S. В., «Sov. Sci. Rev., Sec. C», 1985, v. 5, p. 53-195. p. л. Добрушин. ОСРЕДНЕННАЯ КОРРЕЛЯЦИОННАЯ ФУНКЦИЯ (averaged correlation function) случайного процесса X(t) с дискретным (целочисленным) или непрерывным временем и непрерывной корреляционной функцией Bit, s) = EX(t)X(s) -функция Bav(x) целочисленного или, со- ОСРЕДНЕННАЯ 431
ответственно, произвольного действительного аргумента т, задаваемая при т ^ О равенством Вю(х) = Urn^ f Х[Го Ш + т'° ИЛИ Яяг(т) = lim \r f7_T B(t + x,t)dt, m T^ooT Jo а при т<0- равенством Bav(x) = Bav{-t). Класс процессов, для к-рых существует О. к. ф., был введен в [1] и [2], а позже рассматривался, в частности, и в работах [3]—[8]. Этот класс называется классом случайных процессов с осредпенным спектром, он включает все стационарные процессы [для к-рых Bav(x) совпадаете обыкновенной корреляционной функцией Жт)] и многие категории нестационарных случайных процессов (см. Случайный процесс с осред- ненным спектром, где попутно указаны и другие предлагавшиеся названия таких процессов). Оценка В'тЮ = у Х,Г_~0Т x(t + xMt) или В*т(х) = у \T~*x{t + x)rtt)dt [где x(t) - реализация случайного процесса Х(0, обладающего осредненным спектром] функции Bav(x) является состоятельной оценкой, если зависящий от параметра т случайный процесс Yx(t) = X(t + x)X(t) удовлетворяет больших чисел закону для нестационарных случайных процессов (см. также [5], [6]). О. к. ф. Bav(x), если она существует, является непрерывной неотрицательно определенной функцией т; поэтому в силу теоремы Бохнера (или, в случае дискретного т, теоремы Герглотца) эта функция может быть представлена в виде интеграла Фурье - Стилтьеса относительно ограниченной неубывающей функции Fav(X), называемой осредненной спектральной функцией случайного процесса X(t) [и являющейся, в случае когда Fav(X) - абсолютно непрерывная функция, неопределенным интегралом от неотрицательной осредненной спектральной плотности fat(X)]. Лит.: [1]Бунимович В. И., Флюктуационные процессы в радиоприемных устройствах, М., 1951; [2] В 1 an с- Lap i er re A., Fortet R., Theorie des fonctions aleatoires, P., 1953; [3] Fortet R., «L'onde electrique», 1954, t. 34, № 329/330, p. 683-87; [4] Харке- вич А. А., «Радиотехника», 1957, т. 12, в. 5, с. 5-11; [5] его же, Спектры и анализ, 4 изд., М., 1962; [6] Розанов Ю. А., «Теория вероятн. и ее примен.», 1959, т. 4, в. 3, с. 291-310; [71 Kam pe de Feriet J., Frenkiel F. N.. «Math. Comput», 1962, v. 16, № 77, p. 1-21; [8] Parzen E., «Bull. Inst. Int. Statist.», 1962, v. 39, livre 2, P- 87-103. а. м. Яглом. ОСРЕДНЕННАЯ СПЕКТРАЛЬНАЯ ПЛОТНОСТЬ (ave raged spectral density), осредненный энергетический спектр, осредненный спектр мощности,- неотрицательная функция fav(X) (где -п^Х<п в случае случайных процессов с дискретным временем и -оо<^<оов случае процессов с непрерывным временем), являющаяся преобразованием Фурье осредненной корреляционной функции Bav(x) случайного процесса Х(0, обладающего осредненным спектром и допускающего преобразование Фурье [то есть такого, что Ва1(х) достаточно быстро стремится к нулю при |х| -><»]. Если Fav(X) - осредненная спектральная функция процесса Х(0, то favi.X) = F^v{X). Осп. была введена в рассмотрение в [1], [3] (см. также [4]-[8]). В литературе, предназначенной для инженеров (напр., в [4], [51), О. с. п. часто называют просто спектральной плотностью (или, еще короче, - спектром) нестационарного случайного процесса X(t). 432 ОСРЕДНЕННАЯ Многие результаты о спектральных плотностях стационарных случайных процессов могут быть перенесены и на О. с. п. случайных процессов Х(0, обладающих осредненным спектром. Так, напр., если подать такой процесс Х(0 с О. с. п. fav(X) на вход линейной инвариантной во времени системы % то процесс на выходе этой системы также будет обладать осредненным спектром и иметь О. с. п. |.Ж(А,)| fav(X), 1де Л(X) - передаточная функция системы У;. Также и почти вся теория непарамегрич. оценивания спектральных плотностей f(X) стационарных процессов может быть приложена к оцениванию О. с. п. fav(X), если только вместо оценки корреляционной функции стационарного процесса использовать оценку Bj(x) функции Bav(x) (см. Осредненная корреляционная функция), а периодограмму 1Т(Х) стационарного процесса заменить периодограммой нестационарного процесса Х(0, обладающего осредненным спектром (см., напр., [8]). Лит.: [11 Бунимович В. И., Флюктуационные процессы в радиоприемных устройствах, М., 1951; [21 Bl anc-Lapierrc Д., Fortet R., Theorie des fonctions aleatoires, P., 1953; [31 Розанов Ю. А., «Теория вероятн. и ее примен.», 1959, г. 4, в. 3. с. 291-310; [41 Харкевич Л. А., Спектры и анали.), 4 изд., М., 1962; [51 Kampe de Feriet J., Frenkiel F.N., «Math. Corn- put.», 1962, v. 16, № 77, p. 1-21; [61 Parzen E., «Bull. Inst. Int. Statist.», 1962, v. 39, livre 2, p. 87-103; [71 Rao M.M., в кн.: Developments in statistics, v. 1, N. Y., 1978, p. 171-225; [8] Chang D. K., Rao M.M., в кн.: Real and stochastic analysis, N. Y., 1986, p. 2-118. A. M. Яглом. ОСРЕДНЕННАЯ СПЕКТРАЛЬНАЯ ФУНКЦИЯ (averaged spectral function) - ограниченная монотонно неубывающая функция F(IV(X) аргумента X [пробегающего полуинтервал [-тс, п) в случае случайного процесса X(t) с дискретным временем и вещественную ось (-<*>, «>) в случае процесса с непрерывным временем), входящая в представление Фурье - Стилтьеса вида где A = [-7t, к) или же (-<*>, °°) осредненной корреляционной функции Baz(x) случайного процесса Х(0 с осредненным спектром. О. с. ф. была введена Ю. А. Розановым [1], к-рый называл ее просто спектром процесса X(t) [а сам процесс Х(О - процессом, обладающим спектром]. Позже в [2] было предложено назвать эту же функцию проинтегрированным спектром нестационарного процесса Х(0, в [3] и [4] - спектром Форте- Харкевича - Розанова, а в [51 - присоединенным (или ассоциированным) спектром п роцесса X(t). Состоятельной оценкой О. с. ф. Fav(X) при широких условиях будет интеграл в пределах от -тс (или от -«>) до X от периодограммы 1Т(Х') процесса X(t) (см., напр., [6]). Лит.: [1J Розанов Ю. А., «Теория вероятн. и ее примен.», 1959, т. 4, в. 3, с. 291-310; [2] Kampe de Feriet J., Frenkiel F. M., «Math. Comput.», 1962, v. 16, X? 77, p. 1-21; [3] Драган Я. П., Структура и представление моделей стохастических сигналов,* Киев, 1980; [41 Драган Я.П., Яворский И. Н., Ритмика морского в )л- нения и подводные акустические сигналы, Киев, 1982; [51 Chang D. К., Rao М. М., в кн.: Real and stochastic analvsis, N. Y., 1986, p. 7-118; [61 Parzen E., «Bull. Inst. Int. Statist.», 1962, v. 39, p. 87-103. A.M. Яглом. ОСРЕДНЕННЫЙ СПЕКТР МОЩНОСТИ (averaged power spectrum) - см. Осредненная спектральная плотность. ОСРЕДНЕННЫЙ ЭНЕРГЕТИЧЕСКИЙ СПЕКТР (averaged energy spectrum) - см. Осредненная спектральная плотность. ОСТАНОВКИ МОМЕНТ (stopping time), марковский момент, - определенная на вероятностном пространстве (Q, .с/, Р) с потоком а-алгебр (.^)^0 неотрицательная случай-
пая величина т = т(со) (конечная или нет), удовлетворяющая условию {со:т(со) ^t}e./t при всех t^O. Если неотрицательная случайная величина т/ такова, что {со:т'(со) < t) e^/t при всех t^O, то т'- О. м. относительно потока L^t+\>o* где 4+= р| .'/,. Примером О. м. относительно непрерывного справа потока полных а-алгебр (*^\>о может служить величина Tr(co) = inf{^0:Xa, со)еГ} (как обычно, полагается inf{0}= + °°), где случайный процесс X(t, со) в фазовом пространстве (А/, 83) прогрессивно измерим относительно С^)^о» а ГеЯЗ. Лит.: [1J Деллашери К., Емкости и случайные процессы, пер. |* франц., М., 1975; [2| Гихман И. И., Скороход А. В., Стохастические дифференциальные уравнения и их приложения, К., 1982. Н. И. Портенко. ОСТАТКИ (residuals) в регрессионном анализе - невязки аппроксимации измерений регрессионного экспери- чента но наименьших квадратов методу. По величине максимальных О. судят о наличии выделяющихся измерений. Графики О. в зависимости от предикаторов и от подогнанных значений позволяют судить об адекватности модели. Лит.: [1] Д рей и ер Н., Смит Г., Прикладной регрессионный анализ, пер. с англ., 2 изд., кн. 1-2, М., 1986; [21 Ссбер Дж., Линейный регрессионный анализ, пер. с англ., М., 1980. М. Б. Малютов. ОСТАТОЧНАЯ СУММА КВАДРАТОВ (residual sum of squares) - сумма квадратов невязок от аппроксимации измерений регрессионного эксперимента по наименьших квадратов методу. О. с. к., деленная на число степеней свободы, является оценкой дисперсии измерений а при адекватности регрес- 2 сионного эксперимента, а при неадекватности превышает а на величину квадрата систематич. погрешности. Поэтому сравнением О, с. к. с независимой оценкой дисперсии получают F-критерий адекватности регрессионного эксперимента, к-рый является основной статистикой дисперсионного анализа. Лит.: [1] Шеффе Г., Дисперсионный анализ, пер. с англ., М., 1980; [21 Себер Дж., Линейный регрессионный анализ, пер. с англ., М.. 1980. М. Б. Малютов. ОСТАТОЧНОЕ СОБЫТИЕ (remote event) относительно последовательности (Хп)пeV случайных элементов или случайных величин - событие, определяемое последовательностями (остатками) (Х„, Х„+1,...) для любого п. Точнее, если Rn - наименьшая а-алгебра, относительно к-рой измеримы Хп, Хп+{, ..., то О. с. есть событие, к-рое принадлежит всем Rn, п=\, 2,... Совокупность О. с. образует остаточную а-алгебру (см. Нуль- единица закон). Лит.: [\\ Лоэв М., Теория вероятностей, пер. с англ., М., 1962; [21 Гихман И. И., Скороход А. В., Теория случайных процессов, т. 1, М., 1971; [3J Вахания Н.Н., Тариеладзе В. И., Чо- банян С. А., Вероятностные распределения в банаховых пространствах, М., 1985. В. И. Тариеладзе. ОСЦИЛЛИРУЮЩИЙ СЛУЧАЙНЫЙ ПРОЦЕСС (oscillatory random process) - см. Спектральные теории нестационарных случайных процессов, Эволюционирующее спектральное представление. ОТБОРА МЕТОД (rejection method) - см. Моделирование случайных величин и функций. ОТКАЗ (failure) - см. Дублирование в технике, Надежности математическая теория. ОТКАЗОВ ДЕРЕВО (fault tree) - графическое представление структуры системы (см. Надежности математическая теория), упрощающее выявление сочетаний отказов элементов, ведущих к отказу системы. На рис. показано О. д. для дублированной системы, состоящей из двух пар элементов 1, состояние системы состояние 1-й пары состояние 2-й пары 2 и 3, 4. Система отказывает, когда в каждой паре откажет хотя бы один элемент. О. д. используют при расчете надежности показателей систем. Лит.: [1] Барлоу Р., Прошан Ф., Статистическая теория надежности и испытания на безотказность, пер. с англ., М., 1984. Ю. К. Беляев. ОТКАЗОВ ПОИСК (failure hunting) - диагностическая процедура обнаружения и локализации отказавшего элемента (или элементов). Процедура реализуется как последовательность или комбинация тестов, результатом применения каждого из к-рых является определение работоспособности всех элементов из нек-рого множества затрагиваемых тестом элементов или того, что хотя бы один из них неработоспособен (отказал). Обычно проведение тестов увязывается с потерями времени или стоимости и решается задача оптимизации нек-рого критерия в зависимости от вероятностных характеристик надежности элементов, входящих в систему. При решении задачи используют метод динамич. программирования, рекурсивный метод, метод последовательных поэлементных проверок и др. Лит.: 11] Надежность технических систем, М., 1985. В. А. Каштанов. ОТКЛИКА ФИЛЬТРА ФУНКЦИЯ (response of a filter) - см. Линейный фильтр. ОТКЛИКА ФУНКЦИЯ (response function), функция регрессии, регрессионного эксперимента - среднее измерений как функция контролируемых переменных. М. Б. Малютов. ОТКРЫТОЕ СЛУЧАЙНОЕ МНОЖЕСТВО (open random set) - случайный элемент в топологическом пространстве ^ открытых множеств, топология к-рого Jg определяется следующим образом. Пусть S - сепарабельное хаусдорфово локально компактное топологич. пространство, J ~ множество его открытых подмножеств. Тогда Jg есть наименьшая топология, содержащая классы <SG = {M:Me<S, МГЮ = 0}, $К = {М:Ме$, МПК*0), где Ge^, а К- всевозможные компакты в 5. См. также Случайное множество. Н. Я. Ляшенко. ОТКРЫТОЕ 433
ОТНОСИТЕЛЬНАЯ КОМПАКТНОСТЬ семейства мер (relative compactness of a family of measures) - см. Компактность семейства мер. ОТНОСИТЕЛЬНАЯ ТУРБУЛЕНТНАЯ ДИФФУЗИЯ (relative turbulent diffusion) - см. Ричардсона закон четырех третей. ОТНОСИТЕЛЬНАЯ ЧАСТОТА (frequency ratio) - см Гистограмма, Частота. ОТНОСИТЕЛЬНАЯ ЭНТРОПИЯ (relative entropy) одно го распределения вероятностей относительно другого - одно из основных информационных количеств (информационных расстояний) в математической статистике. О. э. определяется для любых двух распределений вероятностей Р и Q на одной и той же алгебре .г/ событий измеримого пространства (Q, .«/) интегралом /(P:Q) = J [lnP(rfG))-lnQ(rfG))]P(rfco) с условием раскрытия неопределенностей вида OlnO = 0 в интегральных суммах. О. э. всегда неотрицательна, хотя и может быть бесконечной. О. э. называется также информационным количеством (уклонением, расстоянием и т.п.) Кульбака - Лейблера - Санов а; впервые рассмотрена в [1]. О. э. естественно возникает в теории больших уклонений (см. [2]). Она обладает свойством аддитивности в схеме независимых испытаний: если Q = Q,' xQ", .c/=.c/<g>.o/", P = P'<g>P", Q = Q'<8>Q", то 7(P:Q) = /(P':Q') + /(P":Q"). В теории проверки простых гипотез Р против Q О. э. определяет асимптотику убывания вероятности $N ошибки 2-го рода с ростом числа N независимых наблюдений при фиксированном уровне а0 вероятности av ошибки 1-го рода, lnPjy~NI(P:Q). Для гладких семейств распределений вероятностей {Р,, t € 0 £ II? } асимптотически 2/(Рв:Рв+Д(Ь£*.=]д<'дЛ;,.(е), где (/; ;(6))г- ,=1 - информационная матрица Фишера в точке Ре семейства. В теории экспонентных семейств с канонич. параметризацией О. э. играет особую роль, выступая несимметричным аналогом половины квадрата евклидова расстояния, фигурирующего в гауссовом наименьших квадратов методе; для нее справедлив несимметричный вариант теоремы Пифагора. При использовании количества 2/(R:Pe) в качестве универсальной потерь функции при сделанном выводе R в задаче статистич. точечной оценки соответствующий риск у асимптотически эффективных оценок параметра в € 0 асимптотически равен N_1dim0, где N - число использованных независимых наблюдений. Когда Р - совместное распределение пары случайных величин, а Q = P1(2)P2- произведение маргинальных распределений Pj и Р2 величин X] и Х2, О. э. переходит в (симметричное) информации количество, содержащееся в одной величине относительно другой,- специфич. вероятностное расстояние между случайными величинами, используемое в теории передачи информации. См. также Кульбака - Лейблера информационное количество. Лит.: [11 Kul 1 back S., Lei bier R. A., «Ann. Math. Statist.», 1951, v. 22, p. 79-86; 12] Санов И.Н., «Матем. сб.», 1957, т. 42, в. 1, с. 11-44; 13] Кульбак С, Теория информации и статистика, пер. с англ., М., 1967; 14] Ченцов Н. Н., Статистические решающие правила и оптимальные выводы, М., 1972; 151 Ч и cap И., Кернер Я., Теория информации, пер. с англ., М., 1985. Н. Н. Ченцов. 434 ОТНОСИТЕЛЬНАЯ ОТНОСИТЕЛЬНАЯ ЭФФЕКТИВНОСТЬ критерия (relative efficiency of a test) - см. Асимптотическая эффективность критерия. ОТНОСИТЕЛЬНО БИКОМПАКТНОЕ МНОЖЕСТВО (relatively bicompact set) - см. Бикомпакт. ОТНОСИТЕЛЬНО КОМПАКТНОЕ МНОЖЕСТВО (rela tively compact set) - см. Компакт. ОТНОШЕНИЯ ПРАВДОПОДОБИЯ КРИТЕРИЙ (likeli hood ratio test, LRT) - статистический критерий, построенный с использованием эвристического наибольшего правдоподобия принципа и основанный на статистике отношения правдоподобия, равной отношению супремумов правдоподобия функций на множестве распределений, составляющих нулевую гипотезу, и соответственно на множестве всех рассматриваемых распределений. О. п. к. введен Ю. Нейманом и Э. Пирсоном (см. [1], [2]). Пусть X - случайная выборка с распределением Ре, зависящим от неизвестного параметра в € 0 и обладающим плот но- стью р(х, в) относительно нек-рой а-конечной меры. По наблюдению х над X проверяется нулевая гипотеза Я0: в е 0О против альтернативной гипотезы Я^беб], где 0О и 0j - непустые непересекающиеся подмножества 0, 0QU0J-0. О. п. к. <р() основан на статистике отношения правдоподобия: >.(.*) = sup p(x, 6)/sup р(х, 6) (1) е € 0О в е 0 и отвергает гипотезу Я0 при малых значениях статистики (1); в связи с общепринятым обозначением (1) О. п. к. называется иногда ^-критерием. В случае различения двух простых гипотез, в к-рых 0г = {в,}, г = 0,1, статистика (1) равна р(х, 60)/max{pU, 60); р(х, 61)} = min{l; p(x, %)/р(х, в,)} и О. п. к. совпадает с наиболее мощным критерием Неймана - Пирсона в этой задаче. Для определения порога Ха критич. области {х:Х(х)<Ха} О. п. к. <p(#) уровня значимости а и вычисления функции мощности р(в; ф) = Еф(Х) необходимо уметь вычислять распределение статистики отношения правдоподобия (1). Для нек-рых конкретных семейств {Ре; ве0}, связанных в основном с нормальным распределением, распределение статистики отношения правдоподобия удается получить в явном виде, а пороги Ха и значения функции мощности табулированы. Однако в общем случае в этом направлении получены линь асимптотич. результаты. Пусть выборка X представляет собой совокупность X =(Х1, ..., Хп) независимых одинаково распределенных случайных величин с общим распределением Ре, ве0. П/от- ность распределения этой выборки X объема п равна а статистика (1) принимает вид Хп(х(п)) = sup pn(xn, 6)/sup pn(xin), в). (2) е е G0 e e 0 Если множество 0О является w-мерным подпространством параметрич. множества 0c|R с r= k-m>0, то случайная величина Ln= -2\nXn(X ) имеет при гипотезе Ял (при всех в € 0О) асимптотически (при п -> °°) центральное х -распределение с г степенями свободы, и тем самым О. п. к. является асимптотически подобным критерием. При вычислении функции мощности О. п. к. обычно рассматривают сближающн?ся альтернативы Ни: в е в]п = {в = в0 + \/<п\ в0 е0оДе П?*\0О},
где, как и ранее, 0О - m-мерное подмножество 0^1Р . Тогда статистика Ln имеет асимптотически нецентральное х -распределение с г степенями свободы и нек-рым явно выписываемым параметром нецентральности, являющимся квадратичной формой от параметра X с коэффициентами, зависящими от в0 е 0(). Этот результат, принадлежащий А. Вальду, а также его частный случай и их уточнения и обобщения см. в [3]-[6]. Большой прогресс в исследовании асимптотич. поведения статистики отношения правдоподобия и получении соответствующих результатов об О. п. к. связан с асимптотич. по1ходом к статистич. задачам (см. [6]-[9]); кроме того, по пучено асимптотич. разложение распределения статистики (2) (см. [101-[11р. Статистика (1) [и соответственно (2)] может быть записана в пиде Х(х)=р(х, %)/р(х, в), гд<> 0 = 0(х) - оценка максимального правдоподобия параметра 0 для семейства {Ре, 0е0}, а 0О=0О(^) - оценка максимального правдоподобия параметра 0, при нулевой гипотезе (для семейства {Ре, 0 е 0q>). Тем самым построение статистики О. н. к. связано с вычислением двух оценок максимального правдоподобия 0О и 0. Однако имеется ряд критериев, асимптотически эквивалентных О. п. к., но построение к-рых проще в вычислительном отношении, напр. Валъда критерий, Рао критерий, Статистический критерий С(а) и др. (см. [6]). Сам по себе принцип наибольшего правдоподобия, положенный в основу статистич. вывода, не имеет строго формальных достоинств, но полученный на его основе О. п. к. во многих ситуациях обладает рядом свойств, в основном асимптотических (хотя имеются и примеры, когда О. п. к. не является даже допустимым критерием). Для широкого класса задач установлены общие свойства О. п. к,- несмещенность, инвариантность (относительно подходящей группы преобразовали), состоятельность. О. п. к. обладает асимптотически наибольшей средней мощностью (при усреднении функции мощности на эллипсоидах, порожденных информационной матрицей) (см. [3]); является асимптотически равномерно наиболее мощным инвариантным критерием (относительно подходящей группы линейных преобразований). О. п. к. является асимптотически оптимальным по Бахадуру [12], асимптотически минимаксным критерием и асимптотически бей- есоаским критерием (для широкого класса гладких априорных распределений) (см. [ 13J> и т. п. Лит.: [1] Neyman J., Pearson E. S., «Biometrika», 1928, pt 1, p. 175-240; pt 2, p. 26.3-94; [2] их же, «Phil. Trans. Roy. Soc. London», 1933, v. A 231, p. 289-337; [3] Wald A., «Trans. Amer. Math. Soc.», 1943, v. 54, № 3, p. 426-82; [4] Wilks S. S., «Ann. Math. Statist.», 1938, v. 9, X? 1, p. 60-62; [5] Уилкс С, Математическая статистика, пер. с англ., М., 1967; [6] Бернштейн А. В., в кн ; Итоги науки и техники. Сер. Теория вероятностей. Математическая статистика. Теоретическая кибернетика, т. 17, М., 1979, с. 3-56; [7] Le Cam L, в кн: Proceedings of the 3-ed Berkeley symposium mathematical statistics and probability, v. 1, Berk. - Los. Ang., 1956, p. 129-56; [8] его же, «Univ. Calif. Pubis. Statist.», 1960, v. 3, № 2, p. 37-98; [9] Pycac Дж., Коптигуальность вероятностных мер. Применения к статистике, пер. с англ., М., 1975; [10) Chibisov D.M., van Zwett W. R., «Теория вероятн. и ее примен.», 1984, т. 29, в. 3, с. 417-39; [И] Pfanzagl J., в кн.: Developments in statistics, N. Y., 1980, v. 3, p. 1-97; [12] Bahadur R. R., Some limit theorems in statistics, Phil., 1971 (SIAM); [13) Боровков А. А., Математическая статистика, М., 1984; [14] Леман Э., Проверка статистических гипотез, иер. с англ., 2 изд., М., 1979. А. В. Бернштейн. ОТРАЖАЮЩАЯ ГРАНИЦА (reflecting boundary) - см. Одномерная диффузия; классификация границ. ОТРАЖАЮЩИЙ БАРЬЕР (reflecting barrier/boundary) - см. Винеровский процесс в полупрямой. ОТРАЖЕНИЯ ПРИНЦИП (reflection principle) - специальный случай строго марковского свойства, относящийся к моменту т первого достижения винеровским процессом w(t) нек-рого уровня а и состоящий в симметрии распределения процесса w(x + s), s ^ 0, относительно точки а. Пусть w(Q) = 0, <?>0 и М(0= max w(s), t^0, тогда P{M(t)>a) = P{x<t) (l) (см. рис.). Согласно О. п., распределение траектории w() ^—-Aw(t) = 2a-x 0 т. t после момента т симметрично относительно а (на рис. сплошная и пунктирная линии одинаково вероятны): Р{а>(0>*|т<*} = Р{а>(*)<д|т<*}=1/2. (2) При w(t) > а необходимо х < t, P{w(t) >a) = P{x<t}P{w(t) >a\x<t). (3) Согласно (1)-(3), справедлив так наз. отражения принцип Андре: P{M(t)>a} = 2P{w(t)>a}. Плотность величины М(0 равна p(t, у) = 2ф, y) = ^[Te-«2/2t, у>0, где <р(£, х) - плотность величины w(t). Те же соображения дают совместный закон распределения w(t) и M(t), а также формулы для плотностей винеровского процесса с поглощением в точке а [то есть вместе с условием M(t) <a\. pit, x) = q>(t, x)-y(t, 2a-x), x<a, или с отражением в точке а: pit, x) = q>(t, x) + y(t, 2а-х), х<а. Многократное применение О. п. позволяет найти совместное распределение трех величин w(t), M(t) и m(t) = min wis) и плотности винеровского процесса с поглощением в точках а>0 и -с<0 [то есть вместе с условиями -c<m(t), M(t) <a]: p(t, *) = ХГ-~ [q>(*. x-2k(a + c))- -<р(£, 2а-x-2k(a + c))\, -c<x<a, или с отражением в точках - с и а: p(t, х) = ХГ=-оо ^tf х ~ 2k(<a + с)) + + q>(£, 2a-x-2k(a + c))], -c<x<a. Лит.: [1] Леви П., Стохастические процессы и броуновское движение, пер. с франц., М., 1972; [2] И то К., Маккин Г., Диффузионные процессы и их траектории, пер. с англ., М., 1968; [3] Дын- кин Е. Б., Юшкевич А. А., Теоремы и задачи о процессах Маркова, М., 1967. А. А. Юшкевич. ОТРАЖЕНИЯ 435
ОТРИЦАТЕЛЬНАЯ КОРРЕЛЯЦИЯ (negative correlation) - такая корреляционная зависимость между двумя случайными величинами, при к-рой рост значений одной величины приводит к уменьшению условных средних значений другой. Если существует коэффициент корреляции р для данных случайных величин, то О. к. означает, что р<0. С. Я. Шоргин. ОТРИЦАТЕЛЬНО ОПРЕДЕЛЕННАЯ ФУНКЦИЯ (negative definite function), отрицательно определенное ядро,- понятие, дуальное понятию положительно определенной функции. Именно, функция р:ЛхЛ->С (Л- непустое множество) называется отрицательно определенной, если для каждого натурального п, каждого набора Xv Х2, ..., Хп элементов из Л и каждого набора ct, c2, ..., сп комплексных чисел cY ck = О справедливо неравенство Если Х(Х), ХеЛ, - случайная функция второго порядка, то функция p(s, i) = E|X(s) - X(t)\ , s, t e Л, отрицательно определенная. Если р эрмитова [то есть p(s, t) = p(t, s)], то р есть О. о. ф. тогда и только тогда, когда ехр{-ар} - положительно определенная функция при всех а>0 (Шенберга теорема). В случае когда Л - группа, функция Т:Л->С называется О. о. ф., если функция (s, t) i-> *F(s- t) отрицательно определенная (в первоначальном определении). Лит.: [1] Вахания Н. Н., Тариеладзе В. И., Чоба- нян С. А., Вероятностные распределения в банаховых пространствах, М., 1985. В. И. Тариеладзе. ОТРИЦАТЕЛЬНО ОПРЕДЕЛЕННОЕ ЯДРО (negative definite kernel) - см. Отрицательно определенная функция. ОТРИЦАТЕЛЬНОЕ БИНОМИАЛЬНОЕ РАСПРЕДЕЛЕНИЕ (negative binomial distribution) - дискретное распределение случайной величины X, принимающей целочисленные значения /г = 0, 1, 2, ... с вероятностями (см. рис.) Pk = P{x=k) = ckrtk_,A\-P)k, о 0.1 Ll 0123456789 10 Отрицательное биномиальное распределение при р = 0,3, г= 1 и ^ = 0,6, г = 6. где 0<р<\ и г>0. Производящая и характеристич. функции О. б. р. задаются соответственно формулами P(z)=pr(i -qzTr, fU) = prU -qeilV, где q-\-p. Математич. ожидание и дисперсия равны соответственно rqlp и rq/p , асимметрия yt = (2 -p)/Vr(l - р), эксцесс у2 = 6/г + р /г(\ -р). Функция О. б. р. определяется через значения функции бета-распределения в точке р следующим соотношением: где B(r, k+\) - бета-функция. Происхождение термина «О. б. р.» объясняется тем, что это распределение порождается биномом с отрицательным показателем, а именно, вероят- 436 ОТРИЦАТЕЛЬНАЯ в свою очередь имеет гамма-распределение х^~ е~ах, х > 0, (X > 0, то распределение У будет О. б. \ ности (*) являются коэффициентами разложения pr(\ -q2)~r по степеням z. О. б. р. встречается во многих приложениях теории вероятностей. При целом г>0 О. б. р. интерпретируется как распределение времени ожидания r-го «успеха» в схеме испытаний Бернулли с вероятностью «успеха» р\ в такой форме оно обычно называется распределением Паскаля и является дискретным аналогом гамма-распределения. При г-\ О. б. р. совпадает с геометрич. распределением. Часто О. б. р. появляется в задачах, связанных с рандомизацией параметров распределений: напр., если У - случайная величина, имеющая распределение Пуассона со случайным параметром X, к-рый с плотностью с параметрами r = (i и р = а/(\ +а). О. б. р. служит предельной формой распределения Пойя. Сумма независимых случайных величин Хр ..., Хп, имеющих О. б. р. с параметрами риг1( ..., гп соответственно, имеет О. б. р. с параметрами риг, + ... + гп. При больших г и малых q, когда rq ~ X, О. б. р. приближается распределением Пуассона с параметром X. Многие свойства О. б. р. определяются тем фактором, что оно представляет собой обобщенное распределение Пуассона. Лит.: fl] Феллер В., Введение в теорию вероятностей и ее приложения, пер. с англ., т. 1, М., 1984. А. В. Прохоров. ОТРИЦАТЕЛЬНОЕ ГИПЕРГЕОМЕТРИЧЕСКОЕ РАСПРЕДЕЛЕНИЕ (negative hypergeometric distribution) - дискретное распределение вероятностей случайной величины X с целочисленными значениями k = 0,\,2,...,N - М с вероятностями (см. рис.) 0.1 п И II И ll A .1.1 .1 i ■О ,п 01 23456789 10 И 12 Отрицательное гипергеометрическое распределение при N = 20, М= 10, т = 3 и /и = 5. PkmP{X~k) = . n-Y^N-m-k С) где N, М, т- целые неотрицательные числа, m^M^N. О. г. р. обычно возникает в схеме выбора без возвращения. Если в нек-рой генеральной совокупности объема N имеется М «отмеченных» и N-M «неотмеченных» элементов и если выбор (без возвращения) производится до тех пор, пока число «отмеченных» элементов в выборке не достигает фиксированного числа w, то случайная величина X - число «неотмеченных» элементов в такой выборке - подчиняется О. г. р. (*). Случайная величина X + т - объем выборки - также имеет О. г. р. Распределение (*) названо по аналогии с отрицательным биномиальным распределением, к-рое возникает подобным образом при выборе с возвращением. Математич. ожидание и дисперсия О. г. р. равны соответст- N-M (N+\)(N-M) (. _т_\ ^ KJ венно т——- и т — -——— 1 - ——- . При Л/->°°, М + 1 (М+1)(М + 2) V М+\) * Л/->°°, N-M->«>, так что M/N^p, (N - M)/N -+\ - р, О. г. р. стремится к отрицательному биномиальному распределению с параметрами тир. Функция распределения F(n) О. г. р. с параметрами N, Л/, т связана с функцией гипергеометрич. распределения G(m) с параметрами N, М, п соотношением F(n) = 1 -G(w- 1). Это
позволяет при решении задач в математич. статистике, связанных с О. г. р., пользоваться таблицами гипергеометрич. распределения. О. г. р. применяется, напр., при статистич. контроле качества. Лит.: [1] Беляев Ю. К., Вероятностные методы выборочного контроля, М., 1975; [2] Большее Л. Н., Смирнов Н. В., Таблицы математической статистики, 3 изд., М., 1983. А. В. Прохоров. ОТРИЦАТЕЛЬНОЕ ПОЛИНОМИАЛЬНОЕ РАСПРЕДЕЛЕНИЕ (negative multinomial distribution) - совместное распределение вероятностей случайных величин Xt, ..., Xk, принимающих целые неотрицательные значения тх, ..., mk с вероятностями K{Aj -mv...,Ak -mk)- r^w, _ , PoPi Pk Щ <•) Г(г)т1 \...mk\ где r>0, 0<р{< 1, i = 0, ..., k, р0+ ... + /?£ = 1. О. п. р. является многомерным дискретным распределением случайного вектора (Xj, ..., Xk) с неотрицательными целочисленными компонентами. Производящая функция О. п. р. с параметрами г, р0 ..., pk имеет вид P(zx, ..., zk) = р0г(1 -£*=1 2^)г. О. и. р. возникает в следующей полиномиальной схеме. Производятся последовательные независимые испытания, и в каждом из них возможны к + 1 различных исходов с индексами 0, 1, ..., к, к-рым соответствуют вероятности pQ, pif ..., pk. Испытания продолжаются до r-го появления исхода с индексом 0 (здесь г - целое). Если X, - число появлений исхода с индексом i, t=l, ..., к, за время до конца испытаний, то формула (*) выражает вероятность появления исходов с индексами 1, ..., к соответственно ровно тх, ..., mk раз до г-го появления исхода 0. В указанном смысле О. п. р. служит обобщением отрицательного биномиального распределения, сонпадая с последним при к = 1. Если случайный вектор (Х0, ..., Xk) имеет полиномиальное распределение с параметрами п > 1, pQ, ..., pk и параметр п сам является случайной величиной, имеющей отрицательное биномиальное распределение с параметрами г>0, 0<я<1, то распределение вектора (Xv ..., Xk) при условии Х0 = г является О. п. р. с параметрами г, р0(\ -я), ..., pk(\ -я). А. В. Прохоров. ОТСЕИВАЮЩИХ ЭКСПЕРИМЕНТОВ ПЛАНИРОВАНИЕ (design of screening experiment) - раздел планирования экспериментов, изучающий методы минимизации вероятности ошибки различения (дискриминации) большого числа гипотез о распределении измерений. Наиболее изучена следующая модель О. э. п. Пусть зафиксирован план J - набор (xv ..., хы) допустимых значений вектора х = (х(\), ..., x(t)), и пусть измеряют (возможно, со случайными ошибками) значения г{ функции Г)(#,-), i=l, ..., N, из класса У всех функций вида у\(х) = f(x(X)), где Х=(\\, ..., Xs) - набор натуральных чисел, l^A,j<...< <Xs^t, x(X) = (x(X\), ..., x(Xs)), причем /"(•) либо известна, либо принадлежит нек-рому множеству F. Требуется найти s-набор Х и функцию /"(•) (если она неизвестна) с заданной вероятностью ошибки за возможно меньшее число измерений N. Это - одна из формализации часто полезного предположения, что из большого числа факторов существенно влияет на изучаемое явление лишь небольшая часть «значимых», а влияние остальных факторов сравнимо с ошибками измерений. Пример. Вместо индивидуального обследования крови большого числа t доноров для выявления редкого заболевания проверяют совокупную кровь нек-рых групп доноров. Это позволяет обнаружить наличие хотя бы одного больного в группе. Полному обследованию затем подвергается кровь доноров лишь из групп, где замечено заболевание. При умеренном числе 5 больных и большом t такой план экономичен. В этом случае О. э. п. проводится следующим образом. Пусть доноры занумерованы числами от 1 до t, проверки крови - от 1 до N, а их результаты - числами 1, если заболевание обнаружено, и 0, если нет. В этом примере план J't есть (iVx О-матрица из элементов #;(/) = 1 (соответственно 0), если кровь /-го донора участвовала (соответственно не участвовала) в t-й проверке. Если t'-я строка х{ зависит (соответственно не зависит) от T|J~ =(t|i> ..., Т|1-_1), то план является последовательным (соответственно статическим; см. Планирование эксперимента). Пусть больные доноры обозначены номерами Хх < ... <XS, тогда ni = sign£y=1 x^Xj), либо r)j является дизъюнкцией х^Х}), /=1, ..., s. Такую модель называют дизъюнктивной. Скорость плана J't есть /?(.*) = In t/N. Если фиксировать множество А наборов X, то & называется Л-р азделяющим планом, если разным X еА соответствуют разные наборы Г|1 и так, что X еА можно восстановить, зная Г|1 . Обычно либо A = A(s, i) - множество s-наборов, либо A = T(s, t)=\J A(u, i). Желательно найти Л-разделяющий план с наибольшей скоростью. Достаточно легко строится последовательный 74s, 0-разделя- ющий план с R^\/s (напр., при £=10 , 5=10, Af^lO2). Рассмотренная выше задача допускает следующее полезное обобщение. Пусть измеряются независимые величины yi с заданным симметричным условным распределением Р^яДА,)}, то есть зависящим только от ^_1 х^Х:) на конечном множестве Z, #,(/) е В = {0, 1}, а на A = A(s, t) задано априорное распределение Q. Плану Л'и произвольному решению d:zx ->Л соответствует средняя вероятность ошибки где е(Х) = {z?:d(zy)*X}. Тогда \P{.r, d, Q)-P{.r, d, Q}k£joa)-Q00l, m'mP{.r,d,Q} = P{J\ 8, Q>, где 5 - решение наибольшей апостериорной вероятности. Наибольшая асимптотич. скорость есть такое число C(s), что при любых Qt и R < C(s) существуют планы У\ с любым достаточно большим t, R(3Tt)^R и Р{^, 5, Qt}^t~a для нек-рого a = a(R)>0, тогда как при R(.rt)>C(s) и достаточно большом t P{J't, 5, U^>Y>0, где U, - равномерное распределение на Л. Пусть на произведении В1 х Z введены совместное распределение случайной строки £ и результата £ измерения п: P^ = x,i; = z} = P^x)P{z\x(s)}, где Pp(x) = Y\.p(x(j)), p(l) = l-p(0) = p, * = (1, ..., s), и информация Шеннона /р = Ща^($)) = ЕРр1п [РрК |««)>/W1. Тогда C(s) = max /R. 0<р<1 м Более сложные выражения для наибольшей асимптотич. скорости через условные информации Шеннона найдены для несимметричных моделей, распределений для S и при неизвестных вероятностях Р{-|дг(А,)} с конечным носителем. Эти ОТСЕИВАЮЩИХ 437
результаты родственны нахождению области пропускных способностей канала связи с множественным доступом (см. [2]). Решение 8 использует сравнение вероятностей Р{-1#(>.)} для всех X € A(s, t), требующее ~ const £sln£ операций, что при умеренных s и больших t перестает быть доступным для ЭВМ. Меньшего перебора порядка const tint операций требует по- факторное решение f, проверяющее значимость влияния каждого из факторов на результат измерения, считая влияние остальных факторов случайным фоном (см. [1], [3]). Наибольшая скорость статистич. планов, обеспечивающих вероятность ошибки, стремящуюся к нулю при £-><*>, равна max max |/Р (£л£Ш)ц{б/р), це[0, If keS J P где А* - пространство мер над А. Иногда значимый фактор принципиально не может быть выделен этим методом или отличен от другого значимого фактора. Для этих ситуаций получены эквивалентные условия в терминах распределения р{|>. Теоремы существования планов с заданными скоростью и P{J't, 8, Q} доказываются методом случайного планирования: они следуют из устанавливаемой оценки для средней (по надлежащему ансамблю планов) вероятности ошибки. Верхние теоретико-информационные границы для /?(#) следуют из аддитивности информации Шеннона для независимых измерений и вариантов Фано неравенства для Р{.^, d, \Jt). Заслуживают упоминания также следующие частные результаты. Для Л-разделяющих планов #'(Р{.#; 8, } = 0) оценка метода случайного планирования груба. Здесь выражение для наибольшей асимптотич. скорости не найдено, кроме известного из теории информации случая z = £s х(к{)(то6р), р - простое. Для нек-рых моделей верхние границы для скорости Л-раз- деляющих планов найдены специальными комбинаторными методами. Напр., для 74s, ^-разделяющих планов Э\ дизъюнктивной модели (см. пример) lim R(d't) ^Ks^2(\ns)/(s- 1) , для 74 2, 0-разделяющего плана аддитивной модели (* = £* лгО,-)) Ito RU})^3/5. Теория О. э. п. развивает более элементарную комбинаторную теорию поиска, в крой, напр., изучались однородные классы стратегий, возможные при поиске одного значимого фактора. Один из результатов этой теории - нахождение минимального числа строк N двоичной (N х О-матрицы, в каждой строке крой не больше k единиц и все столбцы различны. Построены последовательные T(s, О-разделяющие планы для дизъюнктивной модели со скоростью, отличающейся от наибольшей асимптотич. скорости (ln2)/s на асимптотически прснебрежимую величину. Имеется ряд теорем о среднем числе групповых проверок t элементов, каждый из к-рых независимо от других дефектен с заданной вероятностью (см. [Ц). Для линейного регрессионного эксперимента 2, = вТДл'/) (среди компонент в не более 5, отличных от 0) два свойства статич. плана (дГ|, ..., xN) эквивалентны: 1) любые 2s строк матрицы (/XjCj), ..., f(xN)) имеют ранг 2s, и 2) различным наборам номеров Х\, ..., Xs значимых компонент 0 отвечают разные наборы (z^ ..., zN). Получены верхние и нижние оценки для наибольшей асимптотич. скорости планов нек-рых регрессионных экспериментов, обладающих свойствами 1) и 2) (см. [1]). 438 ОТСЕИВАЮЩИХ Лит.: [1] Математическая теория планирования экспериментов, М., 1983, гл. 15; [2] Чисар И., Кернер Я., Теория информации, пер. с англ., М., 1985; [3] Мал ютов М. Б., МатеевП.С, «Матем. заметки», 1980, т. 27, N° 1, с. 109-27. М. Б. Малютов. ОТТАЛКИВАЮЩАЯ ГРАНИЦА (repulsive boundary) - см. Одномерная диффузия', классификация границ. ОЦЕНКА КАЧЕСТВА прогноза погоды (weather forecast evoluation) - см. Прогноз погоды; оценка качества. ОЦЕНКА МИНИМАЛЬНОГО РАССТОЯНИЯ (minimum distance estimate) - см. Робастпная оценка. ОЦЕНКА СТАТИСТИЧЕСКАЯ (statistical estimator) - см. Статистическая оценка, Адаптивная оценка, Асимптотически минимаксная оценка, Асимптотически несмещенная оценка, Асимптотически нормальная оценка, Асимптотиче ски эффективная оценка, Бейесовская оценка, Джеймса - Стейна оценка, Допустимая оценка, Достаточная оценка, Инвариантная оценка, Интервальная оценка, Линейная оценка, Медианно несмещенная оценка, Минимаксная оценка, Модально несмещенная оценка, Несмещенная линейная оценка, Несмещенная оценка, Обобщенная бейесовская оценка, М-Оценка, Питмена оценка, Последовательная оценка, Рандомизированная оценка, Робастная оценка, Сверхэффек тивная оценка, Смещенная оценка, Состоятельная оценка, Точечная оценка, Эквивариантная оценка, Эмпирическая бейесовская оценка, Эффективная оценка. L-ОЦЕНКА (L-estimator) - см. Робастная оценка. М-ОЦЕНКА (M-estimator) - статистическая оценка 6„, определяемая соотношением Х"=1р(Х„ 6„) = min (1) либо как решение системы уравнений X;'=1vU„e„) = o, (2) где р - действительнозначная функция на множестве J х 0, Л- выборочное пространство наблюдаемых величин Хг, 0 - открытое подмножество евклидова пространства №, \|/(х, e) = V0p(*, в). Классич. примерами МО. являются: выборочное среднее Х = и-1£" X, (здесь \|/ = х-6); в линейной модели У1 = ^Р_. •*j,-8.- + eI оценки наименьших квадратов p=^-i;=,*>A>2; выборочная медиана ц„(у = sign (x - в)). Если решение задачи (1), (2) неединственно, то пользуются дополнительными правилами выбора одного из решений. Так, при четном п выборочная медиана доопределяется равенством |Х„= (6*+ в**)/2, где в*, в** - соответственно наибольшее и наименьшее решения (1), либо полагают |Х„ = 6* или в** с равными вероятностями. При \у(х, в) = \|/(х-в) получают МО. параметров сдвига, при \|/(х, в) = \|/(в_1х), в>0, - М-О. параметров масштаба. М-О. параметров сдвига сохраняют присущее оценке Хп свойство инвариантности относительно преобразования масштаба, если \|/(#-в) заменить на \\f(x-Q)/s, где s- произвольная М-О. масштаба. Так, в случае действительных X, в качестве оценки s рекомендуется использовать медиану абсолютных отклонений |jt,-(X„| величин X, от их общей медианы \in. Пусть Xj, ..., Хп - независимые одинаково распределенные случайные величины с распределением F, принадлежащим заданному семейству ./. При нек-рых общих предположениях
М-О., определенная соотношением (1), состоятельно оценивает параметры в = 6(F) распределения F, определяемые системой уравнений XF(e) = JyU, eMFCr), Fe* Если при этом функция \|/ удовлетворяет нек-рым общим условиям регулярности, а \р(-) имеет невырожденную матрицу производных Л в точке 6(F) и 1^(6)1 ^e(min (e, |6-6(F)|)) для нек-рого £>0, то величина VaT(6„-6(F)) асимптотически но])мальна со средним 0 и ковариационной матрицей Л~ СЛ, где C = J\|/U16(F))\|/TU, 6(F))</«*). Для асимптотич. эффективности МО. достаточно, а при нек-рЫх дополнительных условиях и необходимо, чтобы вместе с каждым распределением F е./ множество J содержало такую последовательность параметрич. семейств Fk(x, 6), Fk(x, 0) = F(x), k=\, 2, ..., с плотностями fk(x, 6), что функции - V0ln/^(x, 6) аппроксимируют при /г->оо функцию \\f(x, 6(F)) (см. [2]). В частности, в случае параметрич. семейства ./= {F(x, 6)} с плотностью fix, 6) МО. асимптотически эффективна лишь в том случае, когда она совпадает с оценкой максимального правдоподобия: \\f(x, 6) = У01пД^, 6). При использовании численных методов решения уравнения (1) типа метода Ньютона за один шаг итерации получают оценки с асимптотич. свойствами, аналогичными свойствам М-О. М-О. с неклассич. функциями \|/ активно используются в теории робастного оценивания. Пусть .fQ - выпуклое подмножество семейства симметричных распределений F в В?1, имеющих конечное информационное количество /(F), и ./={F(#-6)|Fe./0, 6бИ? }. При весьма общих предположениях существует единственное распределение F0 с плотностью RQ, минимизирующее информационное количество /(F) в классе &0. Асимптотич. дисперсия М-О. 6„ параметра 6, соответствующей функции у(#-6) = -Valn/*0(.x-6), не превосходит величины /_1(F0) при всех Fe&. Таким образом, оценка 6„ устойчиво оценивает параметр 6 но отношению к семейству J, а также асимптотически минимаксна: в классе всех оценок параметра 6, имеющих асимптотич. дисперсию V(6, F), оценка 9„ доставляет минимум выражению sup 1/(6, F). Так, если Jq - так наз. е-з а г р я з н е н н а я окрестность стандартного нормального распределения Ф(х): ./0 = {F/F = (l-e)O + etf}, где Я - произвольное симметричное распределение, то отвечающая распределению F0 функция \|/ имеет вид max {-k, min {k, .r-6}}, где 2ф(/г)Д - 2Ф(-&) = е/( 1 -е), <р = Ф\ Устойчивость соответствующей М-О. обеспечивается уменьшением влияния резко выделяющихся наблюдений, достигаемым усечением функции \|/=.г-6, отвечающей оценке Х„. Последняя, хотя и является эффективной оценкой для семейства Ф(х-д), весьма неустойчива но отношению к окрестности е-загрязнения нормального распределения, в к-рой ее дисперсия l7(6, F) не ограничена. Лит.: [1 j Хьюбср П., Робастность в статистике, пер. с англ., М., 1984; [21 Кошевн и к Ю. А., Левит Б. Я., «Теория вероятн. и ее примен.», 1976, т. 21, в. 4, с. 759-74. Б. Я. Левит. /{-ОЦЕНКА (/^-estimator) - см. Робасшная оценка. G-ОЦЕНКА (G-estimator) - см. Общий статистический анализ наблюдений. G2-OI4EHKA (G2-estimator) - см. Общий статистический анализ наблюдений. ОЧЕРЕДЕЙ ТЕОРИЯ (queueing theory) - см. Обслуживания систем теория. ОЧЕРЕДЬ (queue) - одно из основных понятий обслуживания систем теории. О. есть совокупность требований, ожидающих начала или окончания какой-либо операции. Организация очередей включает возможные ограничения на величину очереди, правила выбора требований из О. (в порядке поступления, в инверсном порядке, в случайном порядке), доступность каналов для данной О., приоритетные правила. Различают общую О., раздельные О. для каналов или их групп и др. Большое разнообразие типов О. возникает в задачах обслуживания кибернетич. систем. Лит.: [1] КлейнрокЛ., Вычислительные системы с очередями, пер. с англ., М., 1979. И. Н. Коваленко. ОЧЕРЕДЬ; величина (length of queue), длина очереди, в теории систем обслуживания - число v(0 требований, присутствующих в системе в момент t. Величина О. равна сумме числа занятых каналов и числа требований, ожидающих обслуживания. В системах обслуживания с простейшим входящим потоком и экспоненциальным распределением длительности обслуживания величина О.- процесс размножения и гибели. К исследованию распределения величин О. в более сложных системах применяют методы полу марковских процессов. В теории приоритетных систем обслуживания исследуется многомерный процесс (v,-(0), где v,-(0 - число наличных требований i-го приоритетного класса. И. Н. Коваленко. ОЧЕРЕДЬ; длина (length of queue) - см. Очередь; величина. ОШИБКА систематическая (systematic error) - см. Систематическая ошибка. ОШИБКА случайная (random error) - см. Случайная ошибка. ОШИБКА средняя квадратическая (mean root square error) - см. Средняя квадратическая ошибка. ОШИБКА стандартная (standard error) -см. Стандартная ошибка. ОШИБКА эксперимента (error of experiment) - см. Систематическая ошибка, Случайная ошибка. ОШИБОК ВЕКТОР (vector of errors) - см. Факторный анализ. ОШИБОК ИНТЕГРАЛ (error function) - см. Интеграл вероятности. ОШИБОК ТЕОРИЯ (theory of errors), гауссова теория ошибок,- традиционное название ряда классических результатов математической статистики, связанных с задачей обработки нормальной выборки. Основы О. т. разработаны К. Гауссом (С. Gauss). Решающий вклад в нее внесли также статистики английской школы У. Госсет (W. Gosset; псевдоним Стьюдент, Student, 1908) и Р. Фишер (R. Fisher, 1925). Свое начало О. т. получила в связи с поисками решения следующей физич. задачи. Пусть имеются результаты измерений x]t x2, ..., хп детерминированной величины а, рассматриваемой как неизвестное истинное значение (постоянное значение) нек-рого наблюдаемого физич. параметра. В предположении, что результаты измерений xv ..., хп получены в серии независимых идентичных опытов, требуется построить приближение к неизвестному истинному значению параметра а, лучшее, чем каждое отдельное измерение х{. Для решения этой задачи К. Гаусс предложил воспользоваться вероятностной моделью, в рамках к-рой результаты ОШИБОК 439
измерений xv ..., хп трактуются как реализации независимых одинаково распределенных случайных величин Xv ..., Хп. При таком подходе каждое наблюдение Xj можно представить в виде суммы Xi = a + b + bit i=l, 2, ..., п, самой измеряемой величины а, так наз. систематической ошибки (смещения) Ь = Е(Х{-а), обусловленной метрологич. несовершенством прибора, и случайной ошибки 5г, возникающей под действием многих незначительных по отдельности и слабо зависимых неконтролируемых факторов таких, как дрожание стрелки прибора, погрешность считывания данных и т. п., причем все b]t ..., 8„ суть независимые одинаково распределенные случайные величины, имеющие нулевые математич. ожидания E8j = 0 и одну и ту же неизвестную дисперсию а =0Ь^ =... = D8„. Исходя из природы возникновения случайных ошибок 8j, ..., 8„, К. Гаусс сделал принципиальное для О. т. допущение об их нормальной распределенности, что во многих практич. случаях оправдывается выполнением условий применимости центральной предельной теоремы. Как правило, систематич. ошибку Ь удается исключить, измеряя эталонные значения параметра и вводя соответствующие поправки, что позволяет рассмотреть модель, в крой наблюдения лишены систематич. ошибок (6 = 0), то есть Х{ = а + Ь{, i= 1, 2, ..., п. В силу сделанных выше предположений в этом случае функция правдоподобия p(Xt, ..., Хп\а, а ), построенная по наблюдениям Хх, ..., Хи, выражается формулой p(Xv..., Хп\а,о2)= J_ exp(--L.yw , «, -*)2}. И 1 и| (72яо)я 1 2а2 ^I=1 l J В современной математич. статистике такую вероятностную модель О. т. называют гауссовой моделью независимых равноточных наблюдений. Основной задачей О. т. в рамках этой модели является построение наилучших статистич. оценок для а и а . В гауссовой модели независимых равнотбчных наблюдений статистика является достаточной. Статистики х„ =1Т , X: и sl =-!-У", а, -хп)\ являющиеся функциями от достаточной статистики Т, суть наилучшие в смысле минимума квадратичного риска несмещенные оценки для а и а соответственно. Оценки Хп и Sn стохастически независимы, причем Хп подчиняется нормаль- а2 п-1 J ному закону с параметрами а и —, а —~Sn подчиняется 2 п С X -распределению с и - 1 степенями свободы. Случайная величина подчиняется распределению Стьюдента с п-\ степенями свободы, что используется на практике для построения интервальной оценки (доверительного интервала) для неизвестного истинного значения параметра а. Гауссова модель независимых равноточных наблюдений обобщается на многовыборочные и неравноточные наблюдения. Наиболее полное развитие О. т. получает в методе наименьших квадратов, также созданном К. Гауссом. Лит.: [1] Ван дер ВарденБ.Л., Математическая статистика, пер. с нем., М., 1960; [2] Линник Ю. В., Метод наименьших квадратов и основы математико-статистической теории обработки наблюдений, 2 изд., М., 1962; [3] Большее Л. Н., Ошибок теория, в кн.: Математическая энциклопедия, т. 4, М., 1984. М. С. Никулин, В. И. Полищук. ОШИБОЧНОГО ДЕКОДИРОВАНИЯ ВЕРОЯТНОСТЬ (probability of error decoding) - одна из возможных мер характеризации сообщений точности воспроизведения, передаваемых по каналу связи. Пусть сообщение X, вырабатываемое источником сообщений U, принимает М различных значений 1, ..., М с вероятностями рт = Р{Х = т}, т=\, ..., М. Пусть это сообщение передается по каналу связи с помощью нек-рых фиксированных методов кодирования и декодирования. О. д. в. Рст при передаче сообщения т задается равенством Ре,т = Р{Х *т\х = т}, где X - декодированное сообщение на выходе канала. Средней вероятностью ошибки называется величина Ре = Р{Х*Х} = ^ртР(,ш. Максимальной вероятностью ошибки называется величина Pmax= max P,iW. 7/1=1,...,А/ Особый интерес представляет изучение оптимальной О. д. в. P?* = infPr, где нижняя грань берется по всем возможным методам кодирования и декодирования. В общем случае точное выражение для P°pt получить очень сложно, так что интерес представляет изучение асимптотич. поведения P°pt при возрастании длительности передачи по каналу и соответствующем росте числа значений М сообщения X. Точнее, рассматривается случай, когда для передачи сообщение X с М = [2" ] равновероятными (рт= 1/М) значениями используется отрезок длины N канала связи с дискретным временем и исследуется асимптотич. поведение P°pt при R = const, N->°°. Типичной является такая ситуация, при к-рой P°pt экспоненциально убывает при R<C (С- пропускная способность канала) и 1 - P°pt экспоненциально убывает при R>C. Существующая скорость убывания характеризуется коэффициентом надежности, для к-рого имеются верхние и нижние границы (см. Случайное кодирование', граница, Плотной упаковки граница). Такое поведение P°pt доказано для очень широкого класса каналов, в частности для всех стационарных эргодич. каналов с дискретным временем. Лит.: [1] ГаллагерР., Теория информации и надежная связь, нер. с англ., М., 1974; [2] Колесник В. Д., Полтырев Г. Ш., Курс теории информации, М., 1982; [3] ЧисарИ., Кернер Я., Теория информации, пер. с англ., М., 1985. С. И. Гельфанд, В. В. Прелое.
ПАЙЕРЛСА УРАВНЕНИЕ (Peierls equation) - интегральное уравнение, получающееся из стационарного линейного кинетического уравнения переноса Af= g интегрированием по участкам непрерывности траекторий переносимых частиц. Пусть А = D + А- К - разложение оператора А в уравнении переноса на дифференциальный оператор D непрерывного движения, на интегральный оператор К скачка с ядром Жх', х) и на столкновительный оператор Л умножения на частоту столкновений частиц со средой Х(х), задающее стохастич. дифференциальное описание процесса переноса (см [4]). Если ^{х\ х) есть функция Грина оператора D + Л, | (D + A)~]h](x) = \ h(x')^(x', x)dx', то (обобщенное) П. у. для плотности /z = Kf записывается в виде h - B(h + д) с интегральным оператором В = K(D + Л) с ядром Жх', x)=j^(x', х)Ж(у, x)dy. При этом f= (D + Л)~ (Л + у). Пусть 0 < t < т - интервал непрерывности траектории переноса x(t), вообще говоря случайный. П. у. связывает положения х(+0) и .г(т + 0). Когда ядро Жу, х) зависит лишь от части £ , ..., £ нек-рых криволинейных координат точки xelR, k<n, переход к П. у. для h(x) = h(£) , ..., £ ) понижает размерность задачи. П. у. впервые получено в [ 1 ] для случая односкоростного переноса со скоростью v в однородной среде и изотропного рассеяния; зависящее только от пространственных координат г ядро Л пропорционально |/-гГ2ехр(-||г'-г|]. Можно также рассматривать обобщение конструкции П. у. на более детальное расщепление оператора и на нестационарный перенос. Лит.: [1] Peierls R., «Proc. Camb. Philos. Soc», 1939, v. 35, p. 610-15; [2] Дэвисон Р., Теория переноса нейтронов, пер. с англ., М., 1960; [3] Владимиров B.C., «Тр. Матем. ин-та АН СССР», 1961, т. 61, с. 1-158; [4] Фролов А.С, ЧенцовН.Н., в кн.: Ме-од Монте-Карло в проблеме переноса излучений, М., 1967, с 25-52. Ю. К. Кочубей, Н. Н. Ченцов. ПАЙЕРЛСА УСЛОВИЕ (Peierls condition) - см. Пирогова - Синая теорема. ПАЛЬМА ПОТОК (Palm input) - стационарный ординарный входящий поток с ограниченным последействием (см. также Ординарность потока, Стационарность потока). П. п. является рекуррентным потоком, для к-рого функция распределения F0(O времени от произвольного момента £0 до первого после этого момента события потока и функция распределения F(t) интервалов между последующими событиями связаны соотношением F0(O=JJq 11-F(*)]rf*, где т< оо - математич. ожидание длительности интервала между последовательными событиями потока. Среднее число событий П. п. в интервале длины t равно t/x. Определение П. и. принадлежит А. Я. Хинчину [2]; впервые потоки типа П. п. исследовались К. Пальмом [1]. Лит.: fl] Palm С, «Ericsson Technics», 1943, v. 44, № 1, p. 1- 189; [2] Хинчин А. Я., Работы по математической теории массового обслуживания, М., 1963. И. Н. Коваленко. ПАЛЬМА РАСПРЕДЕЛЕНИЕ (Palm distribution) - см. Точечный процесс, Точечный процесс на группе. ПАЛЬМА ФОРМУЛЫ (Palm formulas) - формулы для ординарного стационарного потока (см. Ординарность потока, Стационарность потока) с конечным параметром X, устанавливающие связь между Пальма функциями фдШ, k = 0, 1, 2, ..., и вероятностями Р*(0 того, что за промежуток времени t поступит k требований. В дифференциальной форме П. ф. имеют вид ^(0=-tap*(0, k = 0, l, 2, ..., где г^(О = ]£\_0 Я,(0, а в интегральной форме Р0(О = 1-^<р0(г)^, Рки) = хЦ[Щ-,(2)-щ(2)]с12,к=\,2, ... П.ф. выведены в случае /г = 0 К. Пальмом [1], а в случае k^\ А. Я. Хинчиным [2]. Лит.: [1] Palm С, «Ericsson Technics», 1943, v. 44, № \t p. 1-189; [2] Хинчин А. Я., Работы по математической теории массового обслуживания, М., 1963. А. А. Левитская. ПАЛЬМА ФУНКЦИИ (Palm functions) - однозначно определенные для любого стационарного потока (см. Стационарность потока) с конечным параметром функции вида <p*(0 = Hm ^^,* = 0, 1,2, ..., ™ т_>0 о)(т) где hk(x, t) - вероятность того, что: 1) в промежутке т поступит не менее одного требования, 2) в промежутке t, непосредственно следующем за т, поступит ровно k требований; со(т) - вероятность события 1). Определение П.ф. принадлежит А. Я. Хинчину и является в нек-ром роде уточнением и расширением понятия функции ф0(О, введенного К. Пальмом (С. Palm). П.ф. служат удобным аппаратом при исследовании стационарных потоков. В частности, Пальма поток полностью определяется заданием функции ф0(О. См. также Пальма формулы и лит. к этой статье. А. А. Левитская. ПАЛЬМА - ХИНЧИНА ТЕОРЕМА (Palm - Khinchin theorem) - предельная теорема, обосновывающая возможность приближения суммы стационарных ординарных потоков малой интенсивности простейшим потоком (см. Ординарность ПАЛЬМА 441
потока, Стационарность потока). П.- X. т. утверждает: для сходимости последовательности процессов k где xnr(t) - независимые стационарные ординарные потоки с соответствующими параметрами Хпг, к пуассоновскому процессу с параметром Л необходимо и достаточно, чтобы при каждом фиксированном t lim Z\ Wo4W<0,ttW« = A*f Hm Sr-1 XnrL<Pnr^> U)du = 0, где ф„г(/г, О, /г = 0, 1,- Пальма функции <рЛ(0 для потока xnr(t). П. - X. т. доказана А. Я. Хинчиным [2], первая попытка ее доказательства принадлежит К. Пальму [3]. Лит.: [1] Гнеден ко Б. В., Кова лен ко И. Н., Введение в теорию массового обслуживания, 2 изд., М., 1987; [2] Хинчин А.Я., Работы по математической теории массового обслуживания, М., 1963; [3] Palm С, «Ericsson Technics», 1943, v. 44, № 1, p. 1-189. А. А. Левитская. ПАЛЬМА - ХИНЧИНА УРАВНЕНИЯ (Palm - Khinchin equations) - см. Точечный процесс. ПАМЯТЬ кода (code memory) - см. Сверточный код. ПАРАБОЛИЧЕСКАЯ ИНТЕРПОЛЯЦИЯ (polynomial interpolation) - модель регрессионного анализа, в к-рой функции регрессии суть многочлены. Пусть X=(XV ..., Хт) и Y =(YV ..., Yn) - случайные векторы, и пусть имеются основания предполагать, что уравнения регрессии У на X имеют вид EiYAXi-Xi, .... Хт = хт) = Х1, а{фхг i= 1, ..., п, где ax(t), ..., ат(0 - заданные функции регрессии, зависящие от нек-рого параметра t. Если a^it), ..., am(t) - многочлены, то говорят, что имеют П. и. Лит.: [1] Большее Л. Н., Наименьших квадратов метод, в кн.: Математическая энциклопедия, т. 3, М., 1982; 12] П рохоров А. В., Регрессионный анализ, в кн.: Математическая энциклопедия, т. 4, М., 1984. А. В. Славов. ПАРАБОЛИЧЕСКАЯ РЕГРЕССИЯ (polynomial regression), полиномиальная регрессия, - модель регрессии, в к-рой функции регрессии суть многочлены. Точнее, пусть X=(Xt, ..., Хт)Т и Y = (YV ..., Yn)T - случайные векторы, принимающие значения х=(л1, ..., xm) elRw и у = = (У\> • ••» У г) G "?"» и пусть существует Е{У|Х} = /Ш = (/,00, ..., fn(X))T [то есть существуют Е{У, \X) = fx(X), ..., E{Yn\X} = fn(X)]. Регрессия называется параболической, если компоненты вектора E{Y\X} = f(X) суть многочлены от компонент вектора X. Напр., в простейшем случае, когда У и X- обычные случайные величины, уравнение П. р. имеет вид г/ = Р0 + Р,Х+... + $рХр, где Р0, ..., Р - коэффициенты регрессии. Частный случай П. р.- линейная регрессия. Добавлением к вектору X новых компонент можно всегда свести П.р. к линейной. Лит.: [1] Крамер Г., Математические методы статистики, пер. с англ., 2 изд., М., 1975; 12] Себер Дж., Линейный регрессионный анализ, пер. с англ., М., 1980. М. С. Никулин. ПАРАМЕТРИЧЕСКАЯ МОДЕЛЬ; выбор порядка (order determination for a parametric model) - определение параметров р, d, q при подгонке параметрической модели АРПСС 442 ПАЛЬМА (р, d, q) к временному ряду xt, t=\, ..., п\ при этом предно- | лагается, что рассматриваемый ряд представляет собой реали- I зацию авторегрессии - проинтегрированного скользящего среднего процесса (АРПСС-процесса), описываемого уравнением вида (1 - В) y(B)(xt - Ext) = Q(B)af, где at - последовательность независимых и одинаково распределенных случайных величин с нулевым средним и дисперсией ofr <р(#) =, 1 - <Pj# - ... - <ррВр - оператор авторегрессии, Q(B) = 1 - Q^B- ... - QqBq - оператор скользящего средьего, Вх^ =xt_i, Ext - среднее значение ряда xt. Существуют два подхода к выбору порядка П.м.: с помощью критериев, содержащих штрафную функцию, минимум к-рой определяет выбираемое значение порядка модели, и на основе методов диагностич. проверки (см. Диагностическая проверка по Боксу и Дженкинсу). Подход, опирающийся на ту или иную критериальную функцию, наиболее широко используется для выбора порядка простейших АР-моделей, предполагающих, что xt - процесс авторегрессии. Критерий А к а и к е окончательной ошибки прогноза (см. [ 1 ]) имеет вид п-р-\ где оа(р) - оценка дисперсии art, отвечающей модели АР(р), полученная из решения Юла - Уокера уравнений или другим способом (см. также Бокса - Дженкинса метод). Если )тот ряд не центрируется, то единицу в числителе и знаменателе дроби следует опустить, как и в критерии Парзена CAT (см ниже). Критерий основан на минимизации среднего квадрата ошибки одношаговой линейной экстраполяции последовательности xt. Величина FPE связана асимптотически линейно с интегральной относительной среднеквадратичной ошибкой оценивания спектральной плотности. Критерий асимптотически завышает порядок авторегрессии, но при малых п и сложном спектре возможно занижение порядка, хотя вероятность занижения невелика. Разновидностью FPE является критерий Шибаты (см. [2], где рассмотрен ряд критериев для случая двумерных и трехмерных рядов): Sn(p) = (N + 2p)6p2,p=\, ...,P, ГДе .2 1 w»-l , ч GP=^Lt=p (^+1-ф1^--"Ф^--^1). N = n-P, ф; - оценки коэффициентов авторегрессии. Допускается замена N на п в выражении для Sn(p). Обобщенный критерий Ш ибаты (см. [3]): FPEa(p) = пдр + ардр или GFPEa(/;) = пдр + др £._ а; | где ор= [п/(п- Р)]6р . Значения а или а. выбираются с помощью специального приема. Критерий авторегресс и онпой передаточной функции Парзена (см. [А]): cmP) = ZM^o;4f)-^o:4p) несостоятелен, распределение оценки порядка неизвестно. Критерий пол>чен из условия минимизации интегральной относительной среднеквадратичной ошибки спектральной плотности. Используется также группа критериев для выбора оГоих порядков р и q; они имеют вид А1Са(р, q) = Ino«(p, q) + а(р + q)/n, где а может зависеть от п (см. [2|). Эта группа включает I критерий А к а и к е AIC(a = 2), критери и Шварца-
Рис сане и а В1С(а=1пи) и критерий Хеннана - Куй н на Ф(а = с1п1п/?, с>2). Ни один из критериев не является состоятельным в общем случае, но критерии Ф(р, 0) и В1С(/>, 0) состоятельны при d = 0 и слабо состоятельны при (1ф0(см. [5]). Перечисленные критерии связаны рядом соотношений (см. [2], [4]): FPE(p)=Sn(p) + o(n~l), \п¥РЕ(р) = А\С(р; 0) + 2/n + o(n~2), САТ(/;Кехр{-А1С(/;, 0)}, /3(В1С)^/3(А1С), я ^8, /3(В1С)^р(Ф), р(Ф)^рШС), и 2*16, где /}(■) - оценка суммарного порядка (j) + q) по соответствующему критерию. Не рекомендуется принимать модель, для к-рой (p + q)> и/10. При выборе порядка П. м. в случае р*0, q*0 и особенно при наличии близких к единичному кругу корней уравнения ф(г) = 0 на комплексной плоскости z существует опасность выбрать ошибочную модель (см., напр., [6]); в таких случаях рекомендуется прибегать к диагностич. проверке по Боксу и Дженкинсу. Использование критериев типа А1Са для выбора порядка П. м. АРСС(/>, (]) с зависящей от времени дисперсией рассмотрено в [7]. Оценка порядка будет состоятельной, если а/п -> 0 при а -> оо, п -» °о. Эти критерии могут применяться также для выбора порядка П. м. авторегрессии процесса (АР-нроцесса) АР(Р) неполного порядка р<Р,в к-рой не все коэффициенты авторегрессии огличны от нуля (см. [8]). При <7*0 проблема выбора порядка П. м. существенно усложняется и в общем случае, особенно многомерном, следует прибегать к итеративной процедуре, включающей в себя выбор порядка [в том числе разностного оператора (1 - В) ], оценивание параметров методом максимального правдоподобия и диагностич. проверку (см. [9]). В случае скользящего среднего процесса (СС-процесса) предложен следующий способ выбора порядка П. м. (см. [10]): для каждого значения q=\, ..., О строится оценка спектральной плотности LqCX), отвечающая модели АР(р), p^Q (см. Параметрическая модель; идентификация спектральной плотности), и обратная корреляционная функция rip(k) = Rip(k)/Rip(0), k = 0, ±1, ..., ±р, где Rip(k) - обратное преобразование Фурье функции /*~q (X). Выбирается модель, для к-рой достигается минимум критерия FPERa(?) = ofaX 1 + aq/n), a > 1, /(я,а|)=1|уи xte~l2M\ а р,q(j) - решение системы уравнений Zj_0Pw</4<*-»=0'*=1 •••••*• В случае СС (2) наилучшие результаты при « = 50, 100 и 200 получаются при а = 1пи. При этом подходе нет необходимости подгонять к ряду модели СС-процесса, что требует больших вычислительных затрат, а идентифицированный процесс обязательно будет обратимым. Группа критериев выбора порядка П. м. и предварительного оценивания ее параметров (в частности, методы угла и обобщенной выборочной корреляции; см. [11J, [12 j) базируется на проверке гипотезы о равенстве нулю разности между оценкой корреляционной функции r(k) при k = p + q + \ и теоретич. значением, отвечающим модели АРСС (р, q): Урд = r(p + q+\)- 5^=1 ф7Кр + q + 1 -/), где ф. - коэффициенты авторегрессии. Метод наименьшей канонич. корреляции (см. [12]) позволяет выбирать порядок разностного оператора, максимальный порядок (Р, Q) и получить состоятельные оценки коэффициентов авторегрессии. Для окончательного выбора проверки П. м. при р*0, д*0 рекомендуется также прибегать к диагностич. проверке по Боксу и Дженкинсу, сопоставляя различные модели. Выбор порядка d разностного оператора (1 - В) осуществляется также на предварительном этапе анализа временного ряда (см. также Бокса - Дженкинса метод). Рассматривался многомерный случай выбора проверки П.м. (см. [2], [9]). Лит.: [1] Akaike H., «Ann. Inst. Statist. Math.», 1971, v. 23, № 2, p. 163-80; [2] Lutkepohl H., «J. Time Series Analysis», 1985, v. 6, № 1, p. 35-52; [3] Shibata R., «Biometrika», 1984, v. 71, № 1, p. 43-49; [4] Parzen E., в кн.: Multivariate Analysis IV, Amst., 1977, p. 283-95; [5] Tsay R., «Ann. Statist.», 1984, v. 12, № 4, p. 1425-33; [6] П ри вал ьский В. Е., Климатическая изменчивость (стохастические модели, предсказуемость, спектры), М., 1985; [7] Tjas- theim D., Paulsen J., «J. Time Series Analysis», 1982, v. 3, № 4, p. 265-82; [8] Haggan V., Oyetunji О., там же, 1984, v. 5, № 2, p. 103-13; [9] TiaoG., Box G., <*J. Amer. Statist. Assoc», 1981, v. 76, № 376, p. 802-16; [10] Bhansali R., «J. Time Series Analysis», 1983, v. 4, № 3, p. 137-61; [11] GlasbeyC, «Technometrics», 1982, v. 24, № 3, p. 223-28; [12] Tsay R., Tiao C, «Biometrika», 1985, v. 72, № 2, p. 299-315. В. Е. Привальский. ПАРАМЕТРИЧЕСКАЯ МОДЕЛЬ; идентификация спектральной плотности (parametric spectral density identification) - процедура определения модели спектральной плотности, отвечающей заданному временному ряду, состоящая из четырех этапов: выбор порядка параметрич. модели и оценивание ее параметров по имеющимся данным наблюдений xt, t=\, ..., п, вычисление оценки спектральной плотности и построение доверительных границ для этой оценки. В качестве модели чаще всего используют модель смешанной авторегрессии - скользящего среднего процесса (АРСС-процесса), к-рому отвечает спектральная плотность вида *2|'-x;.,v~e,*i2 где оа - дисперсия обновляющей последовательности (белого шума), отвечающей модели АРСС-порядка (р, q), <р, 6.- коэффициенты авторегрессии и скользящего среднего соответственно, X - безразмерная циклич. частота. Иногда, однако, привлекается и более общая модель авторегрессии - проинтегрированного скользящего среднего процесса (АРПСС-процесса), в случае к-рого спектральная плотность (*) отвечает ряду разностей d-ro порядка (где d - нек-рое положительное число) исходного ряда xt. Выбор порядка модели сводится к нахождению оптимальных значений р и q или же р, d, q (см. Параметрическая модель; выбор порядка). Параметры ф., в, и аа оцениваются обычно на основе метода наименьших квадратов или одного из вариантов метода наибольшего правдоподобия. Подстановка в (*) оценок неизвестных параметров вместо их истинных значений позволяет получить оценку fpqiX) спектральной плотности fpq(X). ПАРАМЕТРИЧЕСКАЯ 443
При q*0 распределение оценки fpqiX) неизвестно, поэтому задача построения доверительного интервала для этой оценки до сих пор не решена. При q = О, больших пир оценка fpQ(k) асимптотически нормальна, не смещена и имеет дисперсию (2/v)fp20(X), где \-п/р (см., напр., [1], [2]). Поэтому в первом приближении доверительный интервал для f^iX) может строиться так же, как и для непараметрич. оценок спектральной плотности (см., напр., [3]). Точные доверительные границы для fpftiX) вычисляются по значениям точных доверительных границ для оценки правой части знаменателя (*), опирающихся на точное распределение вероятностей оценки этого знаменателя (см. [4]-[б]). При наличии острых максимумов спектральной плотности ширина доверительного интервала для оценки fp^iX) может быть бесконечной. Распределение вероятностей параметрич. оценок спектральной плотности многомерного временного ряда неизвестно, но есть основания полагать, что точность параметрич. оценивания функций когерентности и частотных характеристик не ниже, чем точность соответствующих непараметрич. оценок (см. [7]-[9]). Лит.: [1] UlrychT., Bishop Т., «Rev. Geophys. Space Phys.», 1975, v. 13, № 1, p. 183-200; [2] Яглом А. М., Корреляционная теория стационарных случайных функций, Л., 1981; [3) Бен дат Дж., Пирсол А., Измерение и анализ случайных процессов, пер. с англ., М., 1974; [4] Koslov J., Jones R., «J. Time Series Analysis», 1985, v. 6, № 3, p. 141-51; [5] Tomasek L., там же, 1987, v. 8, № 4, p. 469-77; [6] Burshtein D., Weinstein E., «IEEE Trans, on Acoustics», «Speech and Signal Processing», 1987, v. 35, № 4, p. 504-10; 1988, v. 36, № 5, p. 826; [7] Akaike H., «Ann. Inst. Statist. Math.», 1969, v. 21, № 1, p. 225-46; [8] Privalsky V., Protsenkol., Fo- gel G., «Proc. First World Congress of the Bernoulli Soc.», v. 2, Utrecht, 1987, p. 651-54; [9] Привал ьский В. Е., «Водные ресурсы», 1989, № 4, с. 14-25. в. Е. Привальский. ПАРАМЕТРИЧЕСКАЯ СПЕКТРАЛЬНАЯ ОЦЕНКА (para metric spectral estimator) - оценка спектральной плотности fiX) стационарного случайного процесса, отвечающая нек-рой фиксированной параметрической модели f(X) [то есть гипотезе о том, что функция f(X) принадлежит определенному семейству спектральных плотностей, определяемому конечным числом параметров]. При нахождении П. с. о. данные наблюдения над процессом используют лишь для оценки неизвестных параметров модели, то есть задача оценивания спектральной плотности здесь сводится к статистич. задаче оценки параметров. Наиболее широко используемой на практике П. с. о. в случае процессов X(t) с дискретным временем является спектральная оценка максимальной энтропии, отвечающая допущению, что функция [f(X)]~ представляет собой квадрат нек-рого тригонометрич. многочлена, порядок к-рого обычно предварительно оценивается по данным наблюдений. Более общий класс П. с. о. процессов с дискретным временем, сравнительно часто применяющийся в прикладных задачах, это класс так наз. АРСС-оценок, опирающихся на предположение о том, что изучаемый стационарный процесс относится к числу смешанных авторегрессии - скользящего среднего процессов (АРСС-процессов), так что f(X) представляет собой отношение квадратов модулей двух тригонометрич. многочленов. Задача нахождения оптимальной АРСС-оценки спектральной плотности f(X) естественно разбивается на две части - сперва данные наблюдений используются для выбора подходящих значений порядков р и q многочленов в числителе и знаменателе выражения для f(X) (см. Параметрическая модель; выбор порядка), после чего коэффициенты этих многочленов оцениваются в предположении, что их порядки уже известны. 444 ПАРАМЕТРИЧЕСКАЯ Лит.: [1] Non-linear methods of spectral analysis, 2 ed., B. - la. o.J, 1983; [2] КейС.М., МарплС.Л., «Тр. Ин-та инж. электротехн. радиоэлектр.», 1981, т. 69, № 11, с. 5-51; [3] Методы спектрального оценивания, там же, 1982, т. 70, № 9. А. М. Яглом. ПАРЕТО МНОЖЕСТВО ПЛАНОВ (Pa ret о set of desig nes) - множество планов по системе {Фа} критериев оптимальности для регрессионного эксперимента, для к-рых нет {Фа}-доминирующих критериев. Говорят, что план £{Фа}- доминирует план £', если Фа(£)^Фа(£') для всех а, причем неравенство не есть тождество. Лит.: [1) Математическая теория планирования эксперимента, М., 1983. М. Б. Малютов. ПАРЕТО РАСПРЕДЕЛЕНИЕ (Pareto distribution) - непрерывное, сосредоточенное на (х0, <*>) распределение вероятно- 1.6 1.2 .8 .5 1.0 1.5 2.0 2.5 3.0 3.5 Плотности распределения Парето при х0=1 и (1)<х = 0,5; (2)<х= 1; (3)а = 2. стей с плотностью (см. рис.) р(х) = (а/х0)(х0/х)а+\ где #0>0иа>0- параметры. Функция распределения Fix) = 1 - (xQ/x)a. В такой «усеченной» трактовке П. р. выделяется как самостоятельное распределение из семейства бета-распределении 2-го рода с плотностью 1 *М В(ц, а) (1+1.)Ц+а , \l, а>0, 0<х<оо, при |i=l. Для любого фиксированного х0 П. р. сводится преобразованием x = xQ/y к бета-распределению 1-го рода. В системе Пирсона распределений П. р. принадлежит к распределениям типа VI и типа XI. Математич. ожидание П. р. конечно при а> 1 и равно а#0/(а- 1); дисперсия конечна при а>2 и равна а#0/(а- 1)(а-2), медиана равна 21'ах0. П. р. получило распространение в различных задачах эко- номич. статистики, начиная с работ В. Парето (W. Pareto, 1897) о распределении доходов. Считалось, что П. р. достаточно хорошо описывает распределение доходов, превышающих нек-рый уровень в том смысле, что это распределение должно иметь хвост порядка \/ха при #-><*>. Лит.: [1] Крамер Г., Математические методы статистики, пер. с англ., 2 изд., М., 1975. А. В. Прохоров. ПАРЗЕНА КОРРЕЛЯЦИОННОЕ ОКНО (Parzen lag win dow) - см. Корреляционное окно. ПАРЗЕНА КРИТЕРИЙ авто per пес сионной передаточной функции (Parzen criterion of autoregressive transfer function; CAT) - см. Параметрическая модель; выбор порядка.
ПАРЗЕНА ОЦЕНКА (Parzen estimator) - см. Спектральная плотность] непараметрическая оценка. ПАРНОЙ КОРРЕЛЯЦИИ КОЭФФИЦИЕНТ (paired cor relation coefficient) - см. Канонических корреляций анализ. ПАСКАЛЯ РАСПРЕДЕЛЕНИЕ (Pascal distribution) - дискретное распределение вероятностей случайной величины X, принимающей целочисленные значения k = 0, 1, ... с вероятностями Pk=P{x=k}=crr;l-tpru-p)k. где 0<р< 1 и целое г>0. П. р. - то же, что отрицательное биномиальное распределение. А. В. Прохоров. ПАССИВНЫЙ ЭКСПЕРИМЕНТ (passive experiment) - совокупность измерений, не спланированных заранее, что ведет обычно к сложности анализа и малости извлекаемой информации (см. также Планирование эксперимента).М. Б. Малютов. ПАТНАЙКА ПРЕОБРАЗОВАНИЕ (Patnaik transformation) - аппроксимация нецентральных х - и F-распределений соответствующими центральными распределениями. Пусть Х2{а) означает величину, имеющую нецентральное х -распределение с п степенями свободы и параметром нецентральности Я"Х?=Х«(0)- Если k = (n + a)2/(n + 2a), то Х2п(а)*1(п + 2а)/(п + а)]Х1 где приближенное равенство понимается в смысле равенства математич. ожиданий и дисперсий левой и правой частей. Тогда Р{х^(й)<^} = р{ха<^} + 0(^"1/2) »РИ е-»-, Р{х2п(а)<х} = Р{х1<х} + (Ха2) при в-*0. Если y&ia) и Хт независимы и FnJa> = (X2M)/n)/(xl/m), то Fnm(a)*l(n + a)/n]Fkjn(0). Лит.: [1| Patnaik Р. В., «Biomctrika», 1949, v. 36, p. 202-32. В. И. Пагурова. Т-ПАЧКА (т-раск/т-batch) - см. Случайный процесс; пересечения. ПЕРВОГО ВОЗВРАЩЕНИЯ МОМЕНТ (first return time) - см. Марковский процесс со счетным множеством состояний. ПЕРВОГО ВЫХОДА ВРЕМЯ (first exit time/hitting time) - см. Граничные задачи для случайных блужданий. ПЕРВОГО ВЫХОДА МОМЕНТ (first exit time) - см Марковский процесс с конечным множеством состояний, Марковский процесс со счетным множеством состояний. ПЕРВОГО ДОСТИЖЕНИЯ МОМЕНТ (first passage time/hitting time) - точная нижняя грань семейства моментов пребывания траектории марковского процесса в заданном множестве состояний. Пусть Е служит совокупностью состояний однородного, вообще говоря, обрывающегося марковского процесса Х = (Х,, £, .c/t, Pt), t>0. П. д. м. множества Лс£ определяется как ТА = inf {t ^ 0; Xt е Л}, а П. д. м. множества А после £ = 0- как хА = inf{£>0:X, еЛ} (здесь положено inf 0 = С). Для правого марковского процесса и почти борелев- ского А (см. Потенциала теория для марковского процесса) эти моменты являются марковскими (см. [1]). Термин «П. д. м. множества Л» эквивалентен термину «первый момент выхода из Е\А*. Для вещественного процесса X важным примером П. д. м. служит 7\eife), где (я, Ь) с: IR, в частности Т^аоо)- первый момент выхода X за уровень а. Лит.: [1] Getoor R. К., «Lect. Notes in Math.», 1975, v. 440. M. Г. Шур. ПЕРВОГО ПОПАДАНИЯ МОМЕНТ (first arrival time) - см. Марковский процесс со счетным множеством состояний. ПЕРВОГО ПРОХОЖДЕНИЯ ГРАНИЦЫ ВРЕМЯ (bounda ry hitting time/first passage/time for a boundary) - случайная величина Г| = inf{£>0:Sf^g(t)}} где St- рассматриваемый случайный процесс, 50 = 0, a g(t) - заданная неслучайная функция (граница), ^(0)>0. Наиболее полно П. п. г. в. изучено для прямолинейных границ и для случайного блуждания 50, 5,, ..., 5„, порожденного суммами 50 = 0, Sk = Xj + ... + Xfc, независимых одинаково распределенных случайных величин Xk. Пусть ц(х) = inf{Де^ 1 :Sk^х) - П. п. г. в. прямолинейной границы g(t) = * = const. Для Ы < 1, Im>.<0 справедливы (см. [1] - [3]) формулы E(zn(0+); л(0 + )<~) = 1-Л + 0?, 0), (1) J~ ^ХЕ(^Ы; л<*)<-) = * -а + Ь> о)/л+(2, х), где есть положительная компонента факторизации функции \-zEe1 ! (см. Факторизационные тождества). Из формулы (1) следует, что момент Г|(0 + ) появления первой положительной суммы (так наз. лестничный момент) конечен почти наверное тогда и только тогда, когда расходится ряд ХГ-1 ^"1Р{^/г>^Ь Для расходимости этого ряда достаточно, чтобы ЕХ1^0(см. [1], [2]). Если момент Г|(0+) конечен, то: а) необходимым и достаточным условием принадлежности Т|(0 + ) области притяжения спектрально положительного устойчивого закона с показателем а, 0 < а < 1, является существование предела a-lim £" P<S,,>0); б) необходимым и достаточным условием принадлежности момента Г|(0 + ) области нормального притяжения этого же распределения является (см. [6]) сходимость ряда i;=1^(P{5,>0}-a). Функция Н(х) = Ет|(дг) называется функцией восстановления. Если все слагаемые Xk неотрицательны, то Если д=ЕХ1>0, то ц(х)/х-> \/а почти наверное и #(*)/*-И/я при д:-><» (см. [1] - [3]). С помощью соотношения {г|(л:)^и} = { max Sk^x) установлено (см. [12]), что при х = х(п) -><» Р{лЫ^я} = №*Га^ e-t2l2dt + o(\\ где оценка о(1) равномерна по х. Пусть выполнено условие Крамера, а именно: существует 8>0 такое, что Еехр(ХХ^) <<» при|х|^8. Тогда при ПЕРВОГО 445
x -> оо и нек-рых ограничениях на гладкость распределения Xt справедливо равенство Р{п(*) = я} = -^*~иЛ(л/и)Е(1//1, х/п), (2) где Л(а) = sup {аХ- InEe *}— функция уклонений, 2(1/я, х/п) - ряд по неотрицательным степеням 1/я, х/п, обладающий в решетчатом случае арифметич. структурой (см. [4], [5]). Если ЕХ, = 0, a2 = DXlf 0<ст2<оо, х/^п->0} то пА(х/п) ~х2/(2па2) ->0 и из (2) следует Р{г\(х) = п}~Сх/п3/2. Это соотношение справедливо и в более широких условиях (см. [7], [8]). Весьма подробно изучена асимптотика распределения П. п. г. в. т\хд для границы xg{t)-xf{t/x), где fit)- достаточно гладкая функция, *-><». Если д = ЕХ1>0, О < a = DXt < «в, кривые у = at и у = f(t) пересекаются в точке z и Ь = /"'(г) < я, то случайная величина т^ имеет то же самое предельное распределение, что и П. п. г. в. r\(xaz) для блуждания 50 = 0, S< =S< , 5Ь = Х1 + + Xk-kb, порожденного слагаемыми Xk-b. Это есть нормальное распределение с параметрами xaz/(a-b), xazo /(а-ЬУ (ср. [1], [3]). Если ух <z<y2, то, очевидно, РОЬ <#!*>-> О, Р{Л*г>У2*>->0- И) Задачи об асимптотике вероятностей (3) суть задачи о больших уклонениях в граничных задачах, исследованные весьма полно. Изучены также задачи о П. п. г. в. для цепей Маркова (см. [9], [10]). Отдельные результаты имеются для многомерных случайных блужданий (см. [11], [13]), гауссовских процессов и других объектов. Лит.: [1] Феллер В., Введение в теорию вероятностей и ее приложения, пер. с англ., т. 2, М., 1984; [21 Боровков А. А., Вероятностные процессы в теории массового обслуживания, М., 1972; [3J его же, Теория вероятностей, М., 1976; [4] его же, «Сиб. матем. ж.», 1962, т. 3, № 5, с. 645-94; [5] его же, «Теория вероятн. и ее примен.», 1960, т. 5, в. 2, с. 137—71; [6] Рогоз и н Б. А., там же, 1971, т. 16, в. 4, с. 593-613; [7] Нагаев А. В., там же, 1984, т. 29, в. 2, с. 410-11; [8) Ал ешкяви чене А. К., «Лит. матем. сб.», 1975, т. 15, № 1, с. 23-66; [9] ПресманЭ.Л., «Изв. АН СССР. Сер. матем.», 1969, т. 33, № 4, с. 861-900; [10] Королюк B.C., Шу- ренковВ.М., «Укр. матем. ж.», 1977, т. 29, № 4, с. 464-71; [Щ ГафуровМ.У., «Докл. АН СССР», 1980, т. 254, № 5, с. 1042-44; [12] Erdos Р., Кае М., «Bull. Amer. Math. Soc.», 1946, v. 52, № 4, p. 292-302; [13] Боровков А. А., «Докл. РАН», 1997, т. 353, № б, с 711-13. А. А. Боровков, А. А. Могулъский. ПЕРВОЙ ЗНАЧАЩЕЙ ЦИФРЫ ЗАКОН (first significant digit law), закон Бенфорда, - эмпирическая закономерность, наблюдаемая в ряде обширных собраний статистических данных, в соответствии с крой первая значащая цифра принимает значение d=\, 2, 3, ..., 9 с частотой, примерно равной lg (см. табл. 1)" d + 1 где lg обозначает десятичный логарифм d ъ& 1 0,3010 2 0,1761 3 0,1249 4 0,0969 5 0,0792 6 0,0669 7 0,0580 Табл. 1. 8 0,0512 9 0,0458 История открытия, попытки обоснования П. з. ц. з. детально описаны в [2] и [3], где дан обширный список относящейся к этому закону литературы. В отдельных случаях математич. обоснование П. з. ц. з. может опираться на следующие соображения. Если У, 0 ^ У < 1, - случайная величина с равномерным на отрезке 446 ПЕРВОЙ [0, 1] распределением вероятностей, то случайная величина V - 10у имеет первую значащую цифру, равную d с вероятностью lg . Если теперь X - случайная величина, дробная часть У = {л} к-рой распределена приблизительно равномерно на [0, 1], то первая значащая цифра 10 принимает значение d с вероятностью, близкой к lg . При этом часто приближенная равномерность распределения дробной части X может быть установлена с помощью Пуассона формулы суммирования. Пример 1. Пусть случайная величина V имеет логарифмически нормальное распределение с плотностью pv(v) = —^expj- <ln^™>2 1 v>0, pv(v) = 0, v^O. Тогда lgV имеет нормальное распределение с параметрами m\ge и a lg e и вероятность того, что первая значащая цифра равна d, имеет значение ^^ + 21Г=1 exp(-2*Va2lg2e)x sin[2kn(\g(d+\)-m\ge)]-s\n[2kK(\%d-m\}>e)} Х 2Ы " Для /и = 0,46, a= 1 (параметры взяты из книги [4], с. 246) - + /?rf; значения Rd см. в табл. 2. Табл. 2. Pd имеем, напр., pfi = ig - 1,187-Ю"2 "1 3,007 1(Г3 | -3,146 10 • т --4,391 -10"' ^t M^'i?. 4-1,275 10-у 3,254-10- 4| 3,767-lQ-4 -3,674-Ю-'*! Пример 2. Р;*ссмо1рим последовательность степеней 2", я = 1, 2 Лг. Если N достаточно велико, скажем N -100, то первая значащая цифра 2" принимает значение d с ча- стотои, примерно равной lg——. г)то связано с тем, d что 2"= 10{"lg2}-Wl,,,g21. где И - целая часть числа г, а {?) - его дробная часть, и /тройные части {по}, п~\. 2, ..., Ы, при a иррациональном распределены асимптотически равномерно на [0, 1 j при N->oo. Лит.: [1| Феллер В., Введение и теорию вероятностей и *? приложения, пер. с англ., т. 2, М . 1984: [2J Raimi R. A., «Amer. Math. Monthly*, 1976, v. 83, № 7, p. 521-37; [31 Hill Т. Р.. -Statist. ScU, 1995, v. 10, .NP> 4, p. 354-63; [4] Крамер Г., Математические м* .оды статистики, пер. с англ., 2 изд.. М., 1975. А. А. ПсрегуО*мш, Ю. П. Прохором. ПЕРВЫЙ ЗАКОН ЛАПЛАСА (Laplace law/distribution) см. Лапласа распределение. ПЕРЕДАТОЧНАЯ ФУНКЦИЯ (transfer function) линейной системы (или линейного фи л ьтра) У - комплексная функция //(со) круговой частоты со, определяемая условием, что функция et(t>t, подаваемая на вход системы, преобразуется системой cf в функцию 1 \emt) = Н(ю)егШ. Абсолютная величина А(со) = |#(со)| П. ф. называется коэффициентом усиления (или амплитудной ч а г т о т - ной характеристикой) системы (f, a 4/(co) = arg//(co) [при Ж со) ~Л(со)ег4'((0)] называется ее фазовым сдвигом (или просто фазой, или фазовой частотной характеристикой). Допущение, что функция x(t) на входе системы может быть представлена в виде интеграла Фурье (или интеграла Фурье - Стилтьеса).. позволяет преобразовать функцию x(t) системой #в функцию y(t) = 9f{xU)) = j0° h(u)x(t-u)du,
где h(u) - обыкновенная или обобщенная импульсная переходная функция системы #, связанная с П. ф. соотношением h(u)=— Г е-{(йиН(Ша, 2я J-«>o то есть являющаяся преобразованием Фурье функции #(со). См. также Линейный фильтр. А. М. Яглом. ПЕРЕДАЧИ КОЭФФИЦИЕНТ (transfer coefficient) - см. Наименьших квадратов метод. ПЕРЕМЕННЫЙ ВО ВРЕМЕНИ КОД (time varying code) - см. Сверточный код. ПЕРЕМЕННЫХ РАЗНОСТЕЙ МЕТОД (variate-difference method) - метод, первоначально предложенный для оценивания дисперсии случайной составляющей Xt при гладком характере • тренда f(t) в случае модели временного ряда Yt = f(t) + Xt, t = 0, ±1, ..., где Xt- некоррелированы, ЕХ^ = 0, DXt = o . В дальнейшем он стал использоваться для решения вопроса о степени гладкости тренда. В основе применения П. р. м. лежит тот факт, что если f(t) - многочлен от t степени, меньшей, чем г, то ДГ/ХО = 0, где [Af(0=fU)-f(t-\), A7(0 = A(Ar"V(0)] и ЕДгУ, = 0. При этом несмещенной оценкой для а служит K-if;1r<A%>2/<r-r>c/, где Т - длина временного ряда. Для произвольного тренда Е^ = а2 + ^=~г (Arf(t))2/(T- r)Cr2r (о вычислении DV^ см., напр., в [1]). Оценка Vr состоятельна, ее распределение при широких предположениях асимптотически нормально с параметрами (0, 1). С ростом г величина DV^ возрастает. Задача о выборе подходящей степени многочлена для выделения тренда путем сглаживания [в предположении, что эта степень г изменяется в нек-рых разумных пределах (w, q), 0^m<q] сводится к задаче о выборе одной из гипотез: Hq:AqfU)*0; Hq^:A(>fU) = 0,Acr]fU)*0; Hm+]:AM+2f(t)=0,Am+]f(t)*0; Hm:Am+]f(t) = 0. Критерий для решения этой задачи основан на статистике вида ivr-vr+s)/v^. Лит.: [1| Андерсон Т., Статистический анализ временных рядов, пер. с англ., М., 1976; [2] Кен дал л М., Стьюарт А., Многомерный статистический анализ и временные ряды, пер. с англ., М., 1976; [4] Кендэл М., Временные ряды, пер. с англ., М., 1981. Ю. Г. Баласанов. ПЕРЕМЕШИВАНИЕ (mixing) - свойство стационарного случайного процесса Xt, состоящее в том, что lim Р(ЛП6,Г) = Р(Л)Р(Г) для всех Л, TeSt (обозначения см. в ст. Эргодические теоремы). П. влечет эргодичность процесса. Существуют различные модификации понятия П. Напр., слабое П. стационарного случайного процесса Xt с непрерывным временем состоит в том, что lim f [' Р(ЛПеиГ)</и = Р(Л)Р(Г) для всех Л, Ге9С. Слабое П. также влечет эргодичность процесса. Сильное П., по Розенблатту, усиливает свойство П. до следующего: lim sup | Р(ЛГ) - Р(Л)Р(Г) 1=0, *->- AeXS,TeXs+t где 31s (3>У есть наименьшая а-алгебра, порожденная течением процесса Xt до (после) момента времени s. Равномерно сильное П., по определению, означает, что lim sup |р(г|л)-Р(г)|=о. Лит.: [11 ГихманИ. И., Скороход А. В., Теория случайных процессов, т. 1, М., 1971; [2] Ибрагимов И. А., Линник Ю. В., Независимые и стационарно связанные величины, М., 1965. В. М. Шуренков. ПЕРЕМЕШИВАНИЕ кратное (multiple mixing) - см. Кратное перемешивание. ^-ПЕРЕМЕШИВАНИЕ (/C-mixing) - свойство автоморфизма Т вероятностного пространства (Q, Д Р), состоящее в том, что для любого натурального k и любых множеств AQ,A]t .... Л*€.</ lim sup |Р(Л0ПЛ)-Р(Л;)РС4)|=0, "-~ Ae,,~(At Ak) где ji~(Ax> ..., Ап) - наименьшая а-алгебра, содержащая множества ТтА{, т^п, г=1, ..., k. Свойство K-U. равносильно тому, что Т является К-ъ.втоморфизмом (этим и объясняется название). Лит.:[\] Корнфельд И. П., Синай Я. Г., Фом ин С. В., Эр- годическая теория, М., 1980. Б.М. Гуревич. ПЕРЕМЕШИВАНИЯ УСЛОВИЯ для случайного поля (mixing conditions for random fields) - условия, выражающие слабую зависимость (в определенном смысле) а-алгебр, порожденных случайным полем на достаточно удаленных друг от друга множествах. Пусть случайное поле X(t) задано на вероятностном пространстве (Q, Л, Р) для teTc:№n. Множеству U<^№n сопоставим %x(U) = G{X(t), te UC\T} - наименьшую а-алгебру, порожденную полем X на U ($СХ( (У) = {0, Q] при UOT = 0). Коэффициенты зависимости (перемешивания) используются для описания связей а-алгебр ^(C/j), ..., **((/*), fceN, (/.cR", г'=1, ..., k. При этом существенно, как выбрана мера зависимости для набора а-алгебр и как учтено «пространственное расположение» этих а-алгебр, то есть расположение множеств £/t, ..., Uk. Широко употребительными являются парные коэффициенты перемешивания, введенные первоначально для случайных процессов (см. Перемешивания условия для случайного процесса). Однако перенесение этих коэффициентов перемешивания с процессов на поля должно учитывать многомерную специфику параметрич. множества Т (см. [1]-[6]). Пусть v($C, 83) - нек-рая мера зависимости, то есть неотрицательная функция от а-алгебр $С, 83 с ^ такая, что v($C, 83) = 0, если $С и 83 независимы. Положим vx(V^ V2) = v(4x(Vi),%x(V2)), VvV2a№n. П. у. (парные) означают, что v^(Vt; V2)-*0, если ^1 и ^2 «раздвигаются». Простейший вариант этого требования состоит в m-зависимости поля, то есть ^(Vj) и ^(V^) независимы при d(V\,V2)^m, где d - расстояние между множествами. В общем случае налагаются ограничения на поведение v^CVj; V2), к°гДа d(Vif V2) = r растет и при этом Vt и V2 удовлетворяют нек-рым дополнительным условиям. Напр., можно требовать, чтобы V\ и V2 отделялись слоем ширины г между парой гиперплоскостей или между концентрич. шарами (кубами), можно налагать ограничения на диаметры Vj и V2, на число элементов ^, и У2 (в дискретном случае) и т. п. Зависимость поля можно описывать, не обращаясь к а-алгеб- рам событий, а оперируя системами событий (связанных, ПЕРЕМЕШИВАНИЯ 447
напр., с пересечением нек-рого уровня) или применяя функционалы, заданные на системах случайных величин. Напр., оценивается сверху |cov(/XX(0, tel), g(X(t), tej))\ для непересекающихся конечных множеств I,JaT и функций f, g определенных классов. Эта оценка учитывает не только d(I, J), количество элементов I и J, но и характеристики используемых функциональных классов. О перемешивании стационарных полей в спектральных терминах см. в [7]. О непарных коэффициентах перемешивания и П. у., в том числе используемых в эргодич. теории, см. в [8]-[10]. Так (см. [10]), кратное перемешивание для X означает, что при любом k и любом наборе локальных ограниченных функций FA , ..., FA E(F.+AX)...FA.tb (X))-*EF. (AX.EF, {X\ A+l(X) = FA(TtX), когда min d(tit £)->oo; здесь Ki<;^* J (xtX)(s) = X(s + t). Важным примером непарных коэффициентов перемешивания являются семиинварианты (см. [11]). Если нек-рая группа из величин X(t\) X(tk) независима от остальных величин в наборе, то семиинвариант cum(X(^) Х(^)) = 0. Таким образом, близость к нулю указанного семиинварианта характеризует степень зависимости величин Х(^), i=l к. При этом, оценивая сверху cumig^iXit])) #*(Х(^))) для определенного семейства функций git i=l k (см. [10]), расположение точек £j, ..., tk удается учитывать в терминах теории графов. Заметим также, что описание зависимости поля может основываться на свойствах случайной функции Х( •) безотносительно к ее поведению на «удаленных» подмножествах пространства параметров. См. в этой связи о конечнозависимых полях в [12], многопараметрич. мартингалах в [13], марковских полях в [14], системах ассоциированных величин в [15], гиббсовских полях в [10], [16]. Лит.: [1] Добрушин Р.Л., «Теория вероятн. и ее иримен.», 1968, т. 13, № 2, с. 201-29; [2] Журбен ко И. Г., Спектральный анализ временных рядов, М., 1986; [3] Булине кий А. В., Предельные теоремы в условиях слабой зависимости, М., 1989; [4] ЕЬсг- lein E., Taqqu M.S. (eds), Dependence in probability and statistics, Boston, 1986; [5] Bradley R.C., «Statist. Probab. Letters», 1989. v. 8, p. 489-91; [6] Doukhan P., Mixing properties and examples, «Lect. Notes in Statist.», v. 85, B. etc, 1995; [7] Bradley R.C., Utev S. A., in: «Proc. sixth. Vilnius conf.», Utrecht, 1994, p. 99-120; [8] Корнфел ьд И. П., Синай Я. Г., Фомин СВ., Эргодиче- ская теория, М., 1980; [9] Brad lev R. С, Br у с W., «J. Multivar. Analys», 1985, v. 16, № 3, p. 335-67*; [10] Малышев В. А., Мин- лос Р. А., Гиббсовские случайные поля, M., 1985; [И] С ay лис Л., Статулявичус В., Предельные теоремы о больших уклонениях, Вильнюс, 1989; [12] Chen L.N. Y., «Z. Wahr. und verw. Gcb.», 1978, Bd 43, S. 223-43; [13] ГихманИ. И., «Успехи матем. наук», 1982, т. 37, в. 6, с. 3-28; [14] Розанов Ю. А., Марковские случайные поля, М., 1981; [15] Newman С. М., in: «Inequalities in Statist, and Probab.». Hayward, 1984, p. 127-140; [16] Георги Х.-О., Гиббсовские меры и фазовые переходы, пер. с англ., М., 1992. А. В. Булипскии. ПЕРЕМЕШИВАНИЯ УСЛОВИЯ для случайного процесса (mixing conditions for random process) - условия перемешивания для случайного процесса (случайного поля на одномерном параметрическом множестве Tc:|R). Наличие линейного порядка в II? позволяет ограничиться при рассмотрении vx(V1; V2) (см. Перемешивания условия для случайного поля, формула (О) множествами Vt, V^^IR, связанными тем дополнительным условием, что Vx относится к «прошлому», a V2 ~ к «будущему» процесса, то есть V\ лежит на числовой оси левее V2. Обычно в качестве Vj и V2 берут полупрямые. Тогда коэффициент перемешивания процесса X(t) есть vx(r) = sup v{9Cx(( -оо, t]), $Сх([£ + г, оо))} и П. у. состоит в том, что vx(r)->0 при г->°°. По традиции коэффициенты 448 ПЕРЕМЕШИВАНИЯ перемешивания обозначают греческими буквами. Если положить для %, 83 cz .г/ Vy>6 (*,») = \Р(АВ)-Р(А)Р(В)\ ■ sup (Р(А))У(Р(В))° -:АеЪ, tfe», P(A)P(B) * 0 то при у=8 = 0 получаем а-коэффициент Розенблатта (коэффициент сильного перемешивания), при у=1, 8 = 0 имеем ф-коэффициент Ибрагимова (коэффициент равномерно сильного перемешивания), выбор у = 5=1 дает \|/-коэффициент (Блюма - Хэисона - Купменса). Часто используются также максимальный коэффициент корреляции (Гебелейна) и коэффициент абсолютной регулярности (Колмогорова). Они получаются соответственно при использовании мер зависимости р{*. »} = sup{corr(/", g):feL2(Q, Ч, Р), д е L2(Q, 0, Р)}, где согг(-, •) - коэффициент корреляции, и т, т=т«ф2£, 1/„, \p(a,bj)-p(a1)p{Bj)\, где верхняя грань берется по всем А,е%, /= 1, ..., /, /?,-€$, j=\ J, образующим конечные разбиения Q. Об упомянутых выше и других коэффициентах перемешивания сч. в [1]-[6]. Если процесс является w-зависимым |понятие, введенное С. Н. Бернштейном и означающее независимость 9Сд-(( -°°, t\) и %x([t + m, <*>)) при каждом t], то vA(r) = 0 для всех г^т при любой мере зависимости v. Для каждой пары а-алгебр в .</ имеем 4а<р^2ср' , ос < р ^ <р ^ у. В нек-рых случаях можно указать более точные соотношения. О II. у. для марковских процессов см. в [7]. Примеры последовательностей с заданным поведением различных коэффициентов перемешивания содержатся в [б], |8]. О связи П. у. для процессов и маргинальной техники см. в [9|. О П. у., использующих семиинварианты, см. также в [10]-[12|. С) том, как соотносятся П. у. с другими понятиями регулярности (напр., с требованием тривиальности а-алнбры ^~ П Я\'^-°°» t\)\, см. в !1]-|^|. О гиперперемешивании, учитывающем не ю 1ько парные связи, см. в 11.3|. Лит.: [1] Ибрагимов И. Д., Л и и и и к К). В . Независим ьи- и стационарно свяланные величины. М , 1965; |2| Ибрагимов I-f. \ , Розанов К). А.. 1а\чсовскнс случайною процессы, М., "970; [3] Розанов Ю Д.. Оацпонарные случайные процессы, М. !963; [4]jPhil ipp W St ой i \V., «Mem* Amer. Math. Soc». '97o, v. 161; [5| Rosenblatt M . Stationary sequences and nuidom Fields. Birkhauses, 1**83' [6| Yocliihava K.. Wraklj dependent stoclastic sequences and then application, v. 1-4. Tokyo. 1992-96; [7] Давыдов Ю. А., «Тсирия вероятн. и ne примен.», 1973, г. 18, в. 2. г. 32 -38; [8] Bradley R., «Probab. Theory Reiaied Fields», 1987, \. 74. p. 497-503, [9] Л и п цер Р. Ш.. 1!1 иряев А. П.. Теория мартингалов, М., 1986; 110] Леонов В. П., Некоторые применения старших семиинвариантов к теории стационарных случайных процессов, М.. 1964; [И] Stat u 1 е v ic i us V. А.. * Pi ос. Int. Congr. Math. Vancouver», 1975, v. 2, p. 173-81; [12J Бриллинджер Д., Временные ряды. Обработка данных и теория, пер. с англ., М., 1980; [13| П« nschel , П., S.troock D.W.. Large Deviations, Boston, 1989. А. В. Бу пинский. ПЕРЕМНОЖЕНИЯ СЛУЧАЙНЫХ ВЕЛИЧИН СХЕМА (multiplication scheme for random variables) - аналог суммы - рования случайных величин схемы, в к-рой рассматриваю!ся наборы проилнедений случайных величин Stl = Х\Х2...Хп. Эта модель рассматривалась для случая независимых сомножителей (см. [1]-[3|). Роль характеристич. функций в П. с. в. с. играют характеристич. преобразования. П. с. в. с, связанные с нею аналитич. аппарат и предельные теоремы для произведений независимых случайных величин находят применение в вероятностной теории чисел. Лит.: [1) Золотарев В. М., «Докл. АН СССР», 1962, т 142. № 4, с. 788-91; |2] Бакнпис А., «Лит. матем. сб.», 1971, т 11, № 4, с. 727-44; [3| Абрамов В. А., в кн.: Проблемы устойчиьости стохастических моделей. Тр. семинара, М., 1984, с. 12-21; |4] его же, там же, М., 1986, с. 4-10. В. М. Золотарев.
ПЕРЕНОСА ЗАДАЧА; статистическое моделирование (transfer problem; statistical simulation of the) - см. Статистическое моделирование задач переноса. ПЕРЕНОСА КИНЕТИЧЕСКОЕ УРАВНЕНИЕ (transfer ki netic equation) - см. Кинетическое уравнение переноса. ПЕРЕНОСА КОЭФФИЦИЕНТЫ (drift coefficients), сноса коэффициенты, - коэффициенты при первых производных производящего оператора диффузионного процесса. П к. образуют вектор переноса. Если диффузионный (или квазидиффузионный) процесс является решением стохастич. дифференциального уравнения dx(t) = a(t, x(t))dt + o(t, x(t))dw(t) (см. Диффузии коэффициенты), то П. к. этого процесса (в данном базисе) являются координаты вектора a(t, x) (в этом базисе). Физич. смысл вектора переноса a(t, х): среднее смещение х( t + At) - x(t) диффузионного процесса за время от t до t + At при AtlO с точностью до o(At) представимо в виде a(t, x)At, если x(i)=-x (когда указанное смещение не имеет момента, нужно взять усеченное смещение). Другими словами, ait, x) - это макроскопич. скорость движения среды (в к-рой диффундирует частица) в момент времени t в точке х. Н. И. Портенко. ПЕРЕНОСА СОПРЯЖЕННАЯ ЗАДАЧА (transfer dual problem) - см. Сопряженная задача переноса. ПЕРЕНОСА ТЕОРЕМА (trasfer theorem): при п ->°° рЕ:, *.*<*}-^^ <•> (слабая сходимость), если для каждого натурального п случайные величины v„, Xnk, k- 1, 2, ..., независимы, v„ принимают целые неотрицательные значения, Xnk, k=\, 2, ..., одинаково распределены, существует неограниченно возрастающая последовательность натуральных чисел {kn} такая, что при и->°° Р(К"=1 Хпк<х}^Ф(х), Р &<*}-=»Ж*). Характеристич. функции у и <р, соответствующие функциям распределения *Р и Ф, связаны между собой функцией распределения А(и) следующим образом: \|/(0=J~<p(0<M(M). П. т. доказана в [ 1 ]. Ей предшествовали аналогичные утверждения менее общего характера. В [2] содержится обзор предельных теорем для сумм независимых случайных величин со случайным числом слагаемых, независимым от слагаемых. Лит.: |1] Гнеденко Б. В., Фахим Г., «Докл. АН СССР», 1969, т. 187, № 1, с. 15-17; [21 Круглое В. М., Королев В. Ю., Предельные теоремы для случайных сумм, М., 1990. В. М. Круглое. ПЕРЕОЦЕНКИ ОПЕРАТОР (revaluation operator) - см. Управляемый случайный процесс с дискретным временем. ПЕРЕСЕЧЕНИЕ событий (intersection of events) - см. Произведение событий. ПЕРЕСКОК (excess/overshoot) y(t) - время, оставшееся после данного момента t до следующего ближайшего момента восстановления полумарковского процесса X(t): y(t) = inf {5 > t:X(s) *X(t)} - t. II. вместе с полумарковским процессом образует линейчатый марковский процесс (X(t), y(t); t^O). В частности, для процесса восстановления тя = 'V _ 1 вЛ, п ^ 1, с функцией распределения G(t) = Р{6$ ^ t) и с конечным Е6Л = т существует стационарный!!, у*, предельный для у(0 = TV(,)+1 - £ (v(0 = птах{и:т„^ t}), с функцией распределения G*(0=f*(l-G(s)Ws/if!. р n v JO ' B.C. Королюк. ПЕРЕСКОКА ВЕЛИЧИНА (value of overjump) - см. Полумарковский процесс, Случайный процесс с независимыми приращениями. ПЕРЕСКОКА МОМЕНТ (first passage time/hitting time) - см. Случайный процесс с независимыми приращениями. ПЕРЕСТАНОВКА случайная (random permutation) - см. Случайная перестановка. ПЕРЕСТАНОВКА элементов конечного множест- в a (permutation of elements of a finite set) Xn = {xx, x2, ..., xn) - вполне упорядоченное множество, состоящее из всех элементов Хп. Число п называется порядком П. Количество П. порядка п равно п\. Обычно в качестве Хп берется множество {1, 2, ..., п). Пусть а= ((Jj, а2, ..., а„) есть П. чисел {1, ..., п). Одной из важнейших характеристик а является ее сигнатура q = (qv q2, ..., <?„_,), где ^. = sign(al41 - af), i=\, 2, ..., n-\. Подсчитано количество П. с данной сигнатурой (см. [4J). В частности, если Сп - число П. порядка п с сигнатурой q = (\, -1, 1, -1, ...), а А(г, s) - число П., сигнатура каждой из к-рых содержит ровно г единиц и s-n- \-г минус единиц, то £°° Спхп = tg х + sec х -\- х, V- A(r,s)-^-= еХ~еУ . ^r,s=0 (r+5+1)! хеУ-уе* Величины г + 1 и s+1 называются соответственно числом возрастаний и числом убываний П. Пара элементов аг- и а;- образует инверсию, если i<j, а Gj<ci. Пусть Bn(k) - количество П. порядка nek инверсиями. Производящая функция последовательности Bn(k), k = 0, 1, ..., Сп, имеет вид i*1o^<*>^=«-*>-,,n;io<,-*'>- Каждой П. а можно сопоставить таблицу инверсий (bj, b2, ..., bn), где bj - число элементов в а, больших / и расположенных левее j. Таблица инверсий единственным образом определяет соответствующую П. Вектор R = (r^, r2, ..., гп), где г.- = Ь:+\, называется вектором рангов а. Свойства сигнатуры, таблицы инверсий (или вектора рангов) используются при построении многих статистич. критериев, таких, как критерий Уилкоксона, медианный критерий, критерий перестановок и др., а также при анализе различных алгоритмов сортировки и поиска. П. порядка п можно рассматривать как размещение п различимых частиц по п различимым ячейкам. Такая интерпретация позволяет естественным образом распространить понятие П. на случай, когда среди элементов Хп есть неразличимые (см. [1J). Лит.: [1] Кнут Д., Искусство программирования для ЭВМ, пер. с англ., т. 1-3, М., 1976-78; [2] Риордан Дж., Введение в комбинаторный анализ, пер. с англ., М., 1963; [3J Сачков В. Н., Введение в комбинаторные методы дискретной математики, М., 1982; [4J Саг- litz L., «Math. Nachr.», 1973, Bd 58, H. 1/6, S. 31-53. В. А. Ватутин. ПЕРЕСТАНОВОК КРИТЕРИЙ (permutation test) - см. Рандомизации критерий. ПЕРЕХОДА ИНТЕНСИВНОСТЬ (infinitesimal transition rate) - см. Плотность вероятности перехода. ПЕРЕХОДА 449
ПЕРЕХОДА ПЛОТНОСТЬ ВЕРОЯТНОСТИ (transition rate/density) - см. Плотность вероятности перехода. ПЕРЕХОДНАЯ ВЕРОЯТНОСТЬ в цепи Маркова (transition probability in a Markov chain) - см. Вероятность перехода. ПЕРЕХОДНАЯ МАТРИЦА (transition matrix) - квадратная матрица Р= \\Pij\\ из вероятностей перехода однородной цепи Маркова с конечным или счетным множеством состояний. Множество П. м. совпадает с множеством стохастических матриц, определяемых условиями Pij^O, ]£ Pj/=1 ПРИ лю~ бом 1. Для однородной цепи элементами натуральных степеней Рп П. м. являются вероятности рЛп) перехода из г в/ за п шагов. Если множество Е состояний цепи конечно и состоит из существенных классов Ct, ..., Ck и несущественного класса R, то за счет перенумерации состояний П. м. приводится к виду К о| II Q II где Pj, ..., Pk- переходные матрицы цепей Маркова на соответствующих классах Cj, ..., Ck, а строки блока Q отвечают несущественным состояниям. Иногда П.м. называют также переходную функцию марковского процесса с конечным или счетным множеством состояний и непрерывным временем. а. Л. Юшкевич. ПЕРЕХОДНАЯ ПЛОТНОСТЬ (transition density) - производная Радона - Никодима f(s, х; t, у) переходной функции марковского процесса или вероятности перехода цепи Маркова p(s, х; t, Г) по отношению к нек-рой а-конечной мере Х(Г), в предположении, что меры p(s, х; t, •) при s<t абсолютно непрерывны относительно X[s<t принадлежат области Т изменения временного параметра, хеЕ, у еЕ, Г € 33, где (Е, 33) - фазовое пространство процесса]. Таким образом, p(s, x; t, r)=jrf(s, x; t, y)X(dy), s<t, хеЕ, ГеЗЗ; (1) в частности, )Е f(s, x; t, yMdy) ^\,s<t,xeE. (2) Обычно требуют, чтобы: 1) П. п. была неотрицательна; 2) П. п. была &х^-измерима по (х, у); 3) П. п. удовлетворяла уравнению Колмогорова - Чепмена f(s, х; и, у)=]Е f(s, x; t, z)f(t, z; и, y)\(dz) (3) при всех s<t<u, хеЕ, уеЕ [из определения переходной функции условия 1) и 3) вытекают для k-почти всех у]. Любой функции f, обладающей свойствами (2), при условиях 1)-3), отвечает по формуле (1) переходная функция. В однородном случае П. п. называется f(t, x, у) =f(s, x; s + t, у). Л. Л. Юшкевич. ПЕРЕХОДНАЯ ФУНКЦИЯ (transition function) марковского процесса - функция, задающая вероятность попадания марковского процесса в множество в зависимости от начального момента времени и начального состояния. Точнее, пусть (Е, 33) - измеримое пространство. Функция p(s, x; t,V), s<tе (-°°, °°), хеЕ, ГеЗЗ, называется переходной функцией, если она измерима по х, является субвероятностной мерой по Г и для любых s<t<u, хеЕ, Г € 33 удовлетворяет уравнению Колмогорова - Чепмена jp(s, x; t, dy)p(t, у; и, T)=p(s, x; и, Г). (*) 450 ПЕРЕХОДНАЯ П. ф. называется марковской или консервативной, если p(s, x; t, E)=\, и субмарковской в противоположном случае. Если lim p(s, x;t, E)=\, то П. ф. называется нормальной. ^s Пусть Xt - случайный процесс со значениями в (£, &), заданный на (Q, Л, Р) и обладающий марковским свойством. Говорят, что марковская П.ф. p(s, x; t, Г) является переходной функцией процесса Xt, если P{XteT\Xs} = p(s, Xs; t} Г) Р-почти наверное. Если (£, 33) - полное сенарабельное метрич. пространство с борелевской а-алгеброй, то любой марковской П. ф. отвечает нек-рый марковский процесс и, наоборот, любому марковскому процессу отвечает нек-рая П.ф. (см. [1]-[3]). Эти утверждения распространяются и на субмарковские П.ф., если включить в рассмотрение обрывающиеся процессы. Условия существования для данной П.ф. марковского процесса с заданными свойствами траекторий см. в [4], [5] (см. также Марковский процесс). В случае, когда Е счетно или конечно, П.ф. задают в виде матрицы P(s, t) = \\Pij(s, t) J, i, j e E, где p^s, t) = p(s, i; t, {/}). Понятие П.ф. очевидным образом распространяется на функции, определенные лишь при s, t из нек-рого подмножества /с ( -оо, оо), напр. множества целых чисел. С П.ф. p(s, x; t, Г) можно связать операторы Pst, s<t, действующие на ограниченные измеримые функции по формуле Pstf(x)=jEp(s,x;t,dy)f(y) и на а-конечные меры |1 по формуле liPst(r)=jEiL(dx)p(s, x; t, Г). П. ф. называется однородной, если она зависит лить от разности аргументов s, t, то есть представима в виде p(s, x; t, Г) =p(t-s, x; Г). Для однородной П. ф. обозначают Pst=Pt_s; в терминах операторов Pst уравнение (*) записывается в виде PstP^ = P^, а в однородном случае PtPs = Pt+s> TO есть операторы Pt образуют марковскую полугруппу. Пусть Е - топологич. пространство и 33 - борелевская а-ал- гебра в Е. П.ф. называется стохастически непрерывной, если для любого открытого U и любого хе U предел lim p(s, x; t, U) = 1. П.ф. называется феллеровской (со- tis ответственно сильно феллеровской), если отвечающие ей операторы Pst переводят ограниченные непрерывные функции в непрерывные (соответственно ограниченные измеримые - в непрерывные). Феллеровским П. ф. отвечают строго марковские процессы. Важным элементом описания и исследования однородной П. ф. является ее инфинитезимальный оператор и резольвента (см. Марковский процесс; резольвента). Лит.: [1] Неве Ж., Математические основы теории вероятностей, пер. с франц., М., 1969; [2] Колмогоров А. Н., Основные понятия теории вероятностей, 2 изд., М., 1974; [3] Кузнецов С. Е., «Теория вероятн. и ее примен.», 1980, т. 25, в. 2, с. 389-93; [4] Д ы и - кин Е. Б., Марковские процессы, М., 1963; [5] Гихман И. И , Скороход А. В., Теория случайных процессов, т. 2, М., 1973. С. Е. Кузнецос. ПЕРЕЧИСЛИТЕЛЬНЫЕ ЗАДАЧИ в комбинаторном анализе (enumerative problems in combinatorial analysis) - см. Комбинаторный анализ. ПЕРИОД ЖИЗНИ (life period) - см. Ветвящийся процесс с иммиграцией. ПЕРИОДИЧЕСКАЯ ЦЕПЬ МАРКОВА (cyclic/periodi: Markov chain) - см. Циклическая цепь Маркова.
ПЕРИОДИЧЕСКИ КОРРЕЛИРОВАННЫЙ СЛУЧАЙНЫЙ ПРОЦЕСС (periodically correlated random process), периодически нестационарный (в широком смысле) случайный процесс, циклостационарный (в широком смысле) случайный процесс, - случайный процесс (с непрерывным или дискретным временем t), первые и иторые моменты к-рого конечны и инвариантны относительно сдвига по оси t на время, пропорциональное заданному периоду Т0 (причем Т0 - целое, если t пробегает лишь целочисленные значения). Если X(t) - П. к. с. п., то функции EX(t) = m(t) и EX(t)X(s) = B(t, s) ограничены и удовлетворяют соотношениям m(t + T0) = m(t), B(t + TQ, s + T0) = B(t, s). Вместо функции B(t, s) в теории П. к. с. п. можно использовать функцию v8(t, т) = B(t + x, О, периодическую по t. П. к. с. п. играют важную роль в метеорологии и океанологии, где наличие суточного (а также и годового) хода природных явлений часто приводит к появлению у наблюдаемых временных рядов четко выраженного периода (см. [1], [8]). Годовая периодичность часто возникает и во временных рядах экономич. и биологич. происхождения. В радиофизике часто приходится иметь дело с системами с периодически меняющимися параметрами, сигналы на выходе к-рых хорошо описываются Н.к. с. п., и с модулированными импульсными П. к. с. и. вида х(0=1Г=-га-"7'о)х»' где Г(0 - заданная (детерминированная) функция, а {Хп} - стационарная случайная последовательность (вообще говоря, многомерная), описывающая неупорядоченные вариации амплитуды и (или) формы импульсов (см. [2], [3], [9]). П. к. с. п. яв/тяется также амплитудно-модулированное периодич. колебание вида X(t)=A(t)P(t), где A(t) - стационарный случайный процесс, a P(t) - заданная периодич. функция, и многие другие встречающиеся в приложениях типы случайных процессов. Класс средних значений ЕХ(0 = m(t) П. к. с. п. Х(0 совпадает с классом всевозможных периодич. функций периода Т0; можно также считать, что m(t) = 0, рассматривая вместо исходного П. к. с. п. процесс X(t) - m(t). П. к. с. п. с дискретным (целочисленным) временем t всегда является гармонизуемым случайным процессом (см. [4]), то есть функция B(t, s) представима в виде B(t, s)=jjA em~m)d2F{X, со), (*) где Л - квадрат {— 7С ^ Л., со^тс}, a F(X, со) - функция ограниченной вариации. Процесс X(t) с корреляционной функцией является П.к. с. п. с дискретным временем тогда и только тогда, когда спектральная мера d F(X, со) = F(dX, б/со) целиком сосредоточена на 2Г+1 отрезках прямых X-(u=2nk/T, k-- -TQ, -Tq+\, ..., T0, заключенных внутри квадрата Л. П. к. с. н. с непрерывным временем t, вообще говоря, может быть и негармонизуемым (см. [5]); найдено общее условие, определяющее класс корреляционных функций B(t, s) таких процессов (см. [5], 110]). Однако при широких условиях регулярности [напр., если существует непрерывная вторая производная д Bit, s)/dt , а также если функция 33(t, т) от t может быть представлена своим рядом Фурье] П. к. с. п. X(t) допустимо считать гармонизуемым, то есть использовать формулу (*), где теперь уже Л - это вся плоскость - <*>< X, со<°°. При этом процесс X(t) с корреляционной функцией (*) будет П.к. с.п. тогда и только тогда, когда мера d F(X, со) = F(dX, б/со) целиком сосредоточена на семействе нряхмых X-(u=2nk/TQ} к- ..., - 1, 0, 1, ..., так что функция Bit, s) здесь допускает представление в виде BU, s) = ХГ=_У*/Го Л eM'-s)dFk(X), где FQ(X) - ограниченная монотонно неубывающая функция, a Fk(X), /г*0,- комплексные функции ограниченной вариации такие, что В практически важном случае, когда 3B(t, х) быстро убывает с ростом |т| (напр., если j \&(t, x)\dx<°° при всех t), все функции Fk(X) являются абсолютно непрерывными, так что B(t, s) = Y°k=-oo e2niks/T° J~ eiX(t~s)fk(X)dX, причем функции fk(X) в случае действительного П.к. с.п. удовлетворяют условиям f0a)^o,fQ(-x)=fa)^ka)=7^x)=f-ka-2nk/TQ). Функции Fk(X) и fk(X) иногда называют k-й спектральной функцией и k-й спектральной плотностью (или k-и спектральной компонентой) П.к.с.п. Х(0; при этом функции FQ(X) и fQ(X) совпадают с осреднен- ной спектральной функцией и осредненной спектральной плотностью X(t). Примеры нахождения функций fk(X) для конкретных моделей П. к. с. п. см., напр., в [2] (§ 59). Значения B(t, s) и fk(X) обычно удается сравнительно точно оценить по одной наблюденной реализации П. к. с. п. X(t) достаточной длины (см. [6], [7]). Лит.: [1] Драган Я. П., Яворский И. Н., Ритмика морского волнения и подводные акустические сигналы, К., 1982; 12] Ры- тов СМ., Введение в статистическую радиофизику, ч. 1, М., 1976; [3] Френке Л., Теория сигналов, пер. с англ., М., 1974; HI Гла- дышев Е. Г., «Докл. АН СССР», 1961, т. 137, № 5, с. 1026-29; 15] его же, «Теория вероятн. и ее примен.», 1963, т. 8, в. 2. с. 184- 89; [6] Яворский И. Н., в сб.: Отбор и передача информации, в. 67, К., 1983, с. 22-28; 17] Драган Я. П., Мезенцев В. П., Яворский И.Н., там же, в. 69, К., 1984, с. 29-35; 18] Monin A. S., в кн.: Proceedings of the symposium on time series analysis, 1962, N.Y. - L., 1963, p. 144-51; 19] Gardner W.A., Franks L.E., «IEEE Trans, on Inform. Theory», 1975, v. 21, № 1, p. 4-14; {10] Hurd H. L., «Теория вероятн. и ее примен.», 1974, т. 19, в. 4, с. 834-38. А. М. Яглом. ПЕРИОДИЧЕСКИ РАСПРЕДЕЛЕННЫЙ СЛУЧАЙНЫЙ ПРОЦЕСС (periodically distributed random process), периодически нестационарный (в узком смысле) случайный процесс, циклостационарный (в узком смысле) случайный про ц ее с,- случайный процесс X(t), все распределения вероятностей к-рого инвариантны относительно сдвигов оси значений t на время, пропорциональное заданному периоду 7'0. Таким образом, если Ft t(xv..., xn) - функция распределения случайных вели- 1' п чин {Х(^), ..., X(tn)}, то в случае П. р. с. п. Ftx *„(*!' •••» XJ=Ft]+kT0 tn+kT0(x\> •••» xr) при любом целом k. Понятие П. р. с. п. является понятием в узком смысле. Соответствующее ему понятие в широком смысле - понятие периодически коррелированного случайного процесса. Встречающиеся на практике периодически коррелированные случайные процессы почти всегда являются также и П. р. с. п.; однако обычно изучается только корреляционная теория П. р. с. п., совпадающая с теорией периодически коррелированных случайных процессов. А. М. Яглом. ПЕРИОДИЧЕСКОЕ СОСТОЯНИЕ цепи Маркова (periodic state of a Markov chain) - см. Маркова цепь; классификация состояний. ПЕРИОДИЧЕСКОЕ 451
ПЕРИОДОГРАММА (periodogram) - функция 1Ы(Х), где -оо<А,<оо, М- целое положительное число, определяемая по выборке Х(1), ..., Х(ЛО стационарного случайного процесса X(t)} £ = 0, ±1, ..., следующим образом: гДе /у\ м 4v <*>вХГ-1 exp{-tU}X(0. П. является периодической по X функцией с периодом 2я. Дифференцируемая спектральная плотность f(X) стационарного процесса X(t) со средним c = EX(t) может быть оценена с помощью я при А,£0(тос12я): einш = да.)+(2*ло-' sin2,Aa/2 с2 + o(n-< ). sirr Х/2 В то же время П. не является состоятельной оценкой f(X)} так как DIN(X)~f2(X) (см. Спектральная плотность; непараметрическая оценка). Состоятельные оценки спектральной плотности могут быть получены на основе нек-рых дальнейших построений, использующих асимптотич. некоррелированность П. разных частот: ХХ*Х2, \ХХ -Х2\ -2nk/Ny 0<k<N} cov{IN(Xi), /iV(X2)> = OW"1), так что осреднение IN(X) по близким к X частотам может привести к асимптотически состоятельной оценке. В случае я-мерного случайного процесса X(t) = {Xk(t)}, k-\, ..., я, матрица П. (кросс-периодограмм) IN(X) определяется своими элементами I%J\X) = (2тсЛ/)-1 d^\x)d^\x) и так же, как в одномерном случае, служит основой для построения статистич. оценок различных характеристик многомерных случайных процессов. Наряду с IN(X), к-рую еще называют периодограммой второго порядка, иногда рассматривают П. w-ro порядка: при Ут A- = 0(mod2K) /"' *и) а, к >=(2я)'-т лг< ггд, dxNki a j), к-рую используют для построения оценок спектральной плотности w-ro порядка (см. Спектральный семиинвариант). Часто пользуются понятием модифицированной П., соответствующей ряду со сглаженными значениями и определяемой выражением |^=1 exp{-itX}a(t)X(t)\ , где a(t) - нек-рое временное окно со спектральной характеристикой »лА>-1Г-1в(')»""'Л- В достаточно широких условиях математич. ожидание модифицированной П. равно (£ |ep„(a)|2da) *£ \<?N(a-\)\2f(a)da, где /Xa) - спектральная плотность процесса X(t), ЕХ(О = 0. Лит.: [1] Бриллинджер Д., Временные ряды. Обработка данных и теория, пер. с англ., М., 1980; [2] Хеннан Э., Многомерные временные ряды, пер. с англ., М., 1974. // р Журбенко. ПЕРИОДОГРАММНАЯ СТАТИСТИКА спектра ль ной плотности (periodogram/Grenander- Rosenblatt statis- 452 ПЕРИОДОГРАММА tic) - см. Спектральная плотность; непараметрическая оценка. ПЕРКОЛЯЦИИ ТЕОРИЯ (percolation theory), теория просачивания, теория протекания,- теория однородных случайных множеств на Т* (дискретные модели) или на IR^ (непрерывные модели), d>2. Изучаются глобальные топологич. свойства этих множеств, в первую очередь структура связных компонент. Возможны обобщения на более сложные регулярные графы или пространства. П. т. в ряде проблем близка к статистич. механике и заимствует из нее ряд понятий (фазовый переход, критич. индекс и пр.) и методов (напр., контурный метод Пайерлса). Наиболее интересный эффект теории - перколяционный фазовый переход по параметру р, определяющему распределение вероятностей случайного множества S. Он состоит в качественной топологич. перестройке S: при р<рсч все связные компоненты S почти наверное компактны, а при р > рсч почти наверное появляется бесконечная связная компонента (возникает просачивание на бесконечность, или перколяция). Простейшие «базовые» модели перколяции были предложены в [1]. Это модели связей и узлов на решетках Ж , d^2. В модели узлов каждая точка хеЖ отмечается (то есть входит в 5) независимо от остальных с вероятностью р, и модели связей аналогичное предположение относится к ребрам решетки. Связность задается отношением соседства. Пусть w{x)dS - связная компонента S (кластер), содержащая фиксированную вершину хеЖ , |гК#)| - число вершин в кластере. Функции тх(р) -E\w{x)\ (средний объем кластера) и Q(p) = P{\w(x)\=°o) (плотность бесконечного кластера)- естественные аналоги термодинамич. функций. В [1| доказано, что существуют рх(d) и p2(d), 0 < рх(d) < p2(d) < 1, такие, что Q(p)=Q при p<px(d) и в(р)>0 при p>p2(d), чем устанавливается сам факт существования фазового перехода. Порог перколяции рсч определяется по-разному: рн = sup [р: Q(p) = 0}; рТ = sup{р: тх(р) < °°}. Совпадение различных определений, в частности равенство Рц-pj, впервые было установлено в случае двумерных мозаичных решеток (см. [2]). Там же были подтверждены точные значения рсч для ряда двумерных моделей, ранее полученные «на физич. уровне строгости»; напр., было показано, что в задаче связей на квадратной решетке рсч=\/2. В [3] доказано равенство для общих однородных графов и установлена аналитичность производящей функции F(exp{2|a>|}) л круге \z\ <c(p) при р<рсч в случае решеток любой размерности. Следующий важный вопрос П. т. относится к структуре бесконечных кластеров при р>рсч. В [4] установлена единственность бесконечного кластера при р > рсч для любой размерности d ^2, а также доказана непрерывность функции Q(p) при р>рсч. Критич. индексы в П. т. вводятся для описания поведения различных характеристик множества S при /?->рсч. Предполагается, что в(р)~Сх(р-рсч)*, Р>0,р|/>сч, тх(р) ~ С2(рсч-р)~\ у>0, ptpC4- В [2] доказаны для в(р) и тх(р) степенные оценки сверху и снизу при р-*рсч для двумерных мозаичных решеток. В [5| для этих же решеток доказано, что из существования степенных асимптотик для Q(p) и тх(р) при р^>рсч вытекает существование аналогичных асимптотик для ряда других естественных характеристик кластера W.
При этом соответствующие степени (критич. индексы) рационально выражаются через р и у в соответствии с так наз. гипотезой подобия. Основные из перечисленных выше результатов переносятся на широкий класс непрерывных пуассоновских моделей. В простейшей из них - модели шаров в 1^, d>2,- множество S является объединением шаров фиксированного радиуса R, центры к-рых образуют пуассоновский ансамбль точек с интенсивностью X (евклидова связность). Вопрос о перколяции S решается в терминах безразмерного координационного числа В - Cd(2R)d\ где Cd - объем шара единичного радиуса в IPrf. Существует константа J5C4 такая, что при В^ВСЧ все связные компоненты S почти наверное компактны, а при В>ВСЧ появляется (причем ровно одна) бесконечная компонента. При B<BQ4 объем связной компоненты S, содержащей фиксированную точку х0 е IP , имеет конечный экспоненциальный момент (см. [3]). Более общие постановки непрерывных перколяционных задач связаны с изучением множества уровня непрерывных однородных случайных полей Х(х), #е1Р . Величина я = ясч называется уровнем перколяции, если при h>hC4 множество A*h = {x:X(x)^h} распадается на компактные связные компоненты, а при h<hC4 в А\ имеется (хотя бы одна) бесконечная компонента. Существование конечного уровня перколяции Лсч доказано для широкого класса полей, имеются содержательные примеры, когда лсч = °° (см. [3]). Лит.: [1] Broadbent S., Hammersley J., Percolation processes, «Proc, Camb, Phil. Soc.», 1957, v. 53, p. 629-45; 12] Kec- тен X., Теория просачивания для математиков, пер. с англ., М,, 1986; [31 Меньшиков М. В., Молчанов С. А., Сидоренко А.Ф., в кн.: Итоги науки и техники. Сер. Теория вероятностей. Математическая статистика. Теоретическая кибернетика, т. 24, М., 1986, с. 53- 110; 141 Aizenman M., Kesten H., Newman С, «Comment. Math. Phys.», 1987, v. Ill, № 4, p. 505-31; 15] Kesten H., там же, 1989, v. 107, № 1, p. 109-56. м. В. Меньшиков, С. А. Молчанов. ПЕРКОЛЯЦИЯ (percolation) - просачивание, протекание (см. Перколяции теория). ПЕРРОНОВ КОРЕНЬ (principal root) - см. Докритиче- ский ветвящийся прогресс, Надкритический ветвящийся процесс. ПЕРЦЕНТИЛЬ (percentile) - частный случай квантили; квантиль Кр порядка р- т/100, где т- 1, ..., 99. П. дают (в случае единственности) весьма хорошее представление о виде функции распределения. П. называется также проценти- л я м и или центилями. с. Я. Шоргин. ПЕТТИСА ИНТЕГРАЛ (Pettis integral) - одно из обобщений интеграла Лебега на функции со значениями в банаховом пространстве Е. Пусть Ф, &} \i) - пространство с мерой, где .Я - а-алгебра, а ц- конечная мера на 33. И пусть X - слабо измеримое отображение из Q в Е; функция X называется интегрируемой по Петтису на множестве Ае&, если существует элемент хА е Е такой, что x*(xA)=jAx*(X)dii для всех х* еЕ*. Функция X называется интегрируемой по Петтису, если она интегрируема по Петтису на всех АеЗЗ. Если Е рефлексивно, то для интегрируемости X по Петтису необходимо и достаточно интегрируемости х*(Х) при всех х*еЕ*. Основное свойство П. и. состоит в следующем: если Т - ограниченный линейный оператор из £ в банахово пространство F и если X - £-значная интегрируемая по Петтису функция, то функция ТХ интегрируема по Петтису и Лит.: [1J Pettis В., «Trans. Amer. Math. Soc.», 1938, v. 44, № 2, p. 277-304; [2] Хилле Э.,Филлипс Р., Функциональный анализ и полугруппы, пер. с англ., 2 изд., М., 1962. В. В. Сазонов. ПЕТТИСА ТЕОРЕМА (Pettis theorem) - см. Сильно измеримое отображение. ПИРОГОВА - СИНАЯ ТЕОРЕМА (Pirogov - Sinai theorem) - общий результат о возможности построения Гиббса случайных полей при малых значениях температуры. Пусть U = {UA(xA), АеЖ}- трансляционно инвариантный финитный потенциал поля Гиббса, и пусть для этого поля есть конечный набор х , ..., хп основных конфигураций (см. Основное состояние), являющихся периодическими с общим периодом d е Ж . Конфигурация х - (xt, teZ ) называется периодической с периодом /=(/\ ..., г), /*>(), если xt-xt + l при всех l% = (k^l\ ..., kdr)} И{еЖ . Пусть выполнено следующее условие Пайерлса (или условие Герцика - Пирогова - Синая): х - конфигурация, почти всюду совпадающая с одной из основных конфигураций .о xJ , j - 1, ..., п. Ее г р а н и ц е й дх называется совокупность всех точек t = (tv ..., td) еЖ таких, что сужение х на параллелепипед Wt = {s=(sv ..., srf):^l^si<^ + /1', i=l, ..., d) не совпадает с сужением на этот параллелепипед ни одной из основных конфигураций xJ, /= 1, ..., п. Тогда условие Пайерлса состоит в существовании константы р>0 такой, что для всех х ЪЛагЛил(*А)-иАШ>р\дх\. Здесь хА и хА - сужения на А конфигураций х и *;, |д*| - число точек в границе дх. Пусть теперь задано семейство потенциалов С/ц=С/ + щС/, + ...+цп_11/п_1,ц = (ц1 Щм)**""1. где Uv ..., (7Я_1 - нек-рые трансляционно инвариантные потенциалы, и - средняя энергия основной конфигурации xJ, вычисленная для потенциала (/„. Пусть это семейство таково, что отображение |i-> (Лц, ..., Лр е1Ря, где h^-h^ -min h* i= 1, ..., n, переводит пространство параметров на всю границу я-мерного положительного октанта. Это условие выполняется для семейства потенциалов «общего положения». П.- С. т. (см. [1]-[3]) вместе с ее уточнением (см. [4]) утверждает, что существуют константы р0, £q>0 такие, что при всех Р ^ Ро существует гомеоморфизм За окрестности нулевой точки границы я-мерного положительного октанта оп в пространстве параметров \i такой, что если точка этой границы хедоп имеет q нулевых координат, то для потенциала (/„ с \i - &Лх) существует ровно q различных регулярных периодич. состояний с обратной температурой р. В случае, когда потенциал U обладает нек-рыми симметри- ями, то аналогичной симметрией обладают и гиббсовские состояния с потенциалами U^. Для такой ситуации результат П.- С. т. был известен и ранее (см., напр., [5], [6]). Известны также обобщения П.- Ст. на более сложные ситуации (см. [7]-[9]). Лит.: [1) Пирогов С. А., Синай Я. Г., «Функц. анализ и его прилож.», 1974, т. 8, № 1, с. 25-31; [2] их же, «Теоретич. и матема- тич. физика», 1975, т. 25, № 3, с. 358-69; [3) Синай Я. Г., Теория \ATXd» = T{xA). ПИРОГОВА 453
фазовых переходов, М., 1980; [4] Zahradnik M., «Comm. Math. Phys>, 1984, v. 93, p. 559-81; [5] Герцик В. М., Добру- шин Р. Л., «Функц. анализ и его прилож.», 1974, т. 8, в. 3, с. 12-25; [6] Герцик В. М., «Изв. АН СССР. Сер. матем.», 1976, т. 40, с. 448-62; [7] Динабург Е. И., Синай Я. Г., «Тр. конф. по ма- тем. физике», Дубна, 1984; [8] Imbrie J. Z., «Comm. Math. Phys.», 1981, v. 82, p. 261-304; [9] Dobrushin R.L., Zahradnik M., в кн.: Mathematical problems of statistical mechanics and dynamics, Dordrecht - Boston, 1986, p. 1-123. Р.Л. Добрушин. ПИРСОНА КОЭФФИЦИЕНТ РАНГОВОЙ КОРРЕЛЯЦИИ (Pearson rank correlation coefficient) - см. Ранговая корреляция. ПИРСОНА КРИВЫЕ (Pearson curves) - название графиков Пирсона распределений. ПИРСОНА ПРЕОБРАЗОВАНИЕ (Pearson transformation) - преобразование Г=Г(х^Ш) случайной величины Х„(А.), подчиняющейся нецентральному хи-квадрат распределению с п степенями свободы и параметром нецентральности X (>.>0), задаваемое формулой Математич. ожидание ЕГ = -т, дисперсия ОТ и третий (п + ЗА.)2 центральный момент Е(Г- ЕГ) статистики Т относятся друг к другу как 1:2:8; в таком же отношении находятся соответствующие моменты любой случайной величины Х/* = Х/*(0)» подчиняющейся х -распределению с f степенями свободы. Учитывая это обстоятельство, а также тот факт, что Exf = f, Э. Пирсон [1] предложил аппроксимировать нецентральное х -распределение случайной величины Хп^ с помощью центрального х -распределения с f= ЕТ= (п + 2Х) /(п + ЗХ) степенями свободы. Имеются таблицы (см. [2]) х -распределения с дробными степенями свободы. Лит.: [1] Pearson E. S., «Biometrika», 1959, v. 46, p. 364; [2]Мардиа К.,Земроч П., Таблицы F-распределений и распределений, связанных с ними, пер. с англ., М., 1984; [3] Greenwood Р. Е., Nikulin M.S., A Guide to chi-squared testing, N. Y., 1996. M. С. Никулин. ПИРСОНА РАСПРЕДЕЛЕНИЯ (Pearson distributions) - название семейства непрерывных распределений вероятностей, плотности к-рых р(х) удовлетворяют дифференциальному уравнению ^ = "-^—jP, О ах Ьц+Ь^х+Ы^х* где a, bQ, bj, b2- действительные числа. Введено К. Пирсоном (К. Pearson, 1894). Графики зависимости р(х) от х называются кривыми Пирсона. Распределения, являющиеся решениями уравнения (*), суть предельные формы гипергеометрического распределения. П. р. классифицируются в зависимости от характера уравнения bQ + b^x + b2x = 0. Семейство П. р. составляют 12 типов и нормальное распределение. Многие важные распределения в математич. статистике могут быть получены с помощью преобразований решений уравнения (*). Систематич. описание типов П. р. дано У. Элдертоном (W. Elderton, 1938). В упрощенном виде классификация по типам такова. Тип I: p(x) = k(\ + x/a^(\-x/a2)m^, -a{^x^a2, тх,т2>-\\ частный случай - бета-распределение 1-го рода. 454 ПИРСОНА Тип II: p(x) = k(\-x2/a2)m, -а^х^а,т^-\ (вариант П. р. тина I); частный случай - равномерное распределение. Тип III: р(х) = Ш+ х/а)^е~^, -а^х<оо, yi>0, а>0; частные случаи - гамма-распределение, хи-квадрат распределение. Тип IV: p(x) = k(\ +x2/a2yme-^rctg(x/a\ -00^*^00, а>0, д>0. Тип V: p(x) = kx~qe~a/x, 0^*<°°, a>0, q>\ (сводится преобразованием к типу III). Тип VI: p(x) = kx~qi(x-a)q\ a^x<oo, qx>q2-\\ частные случаи - бета-распределение 1-го рода, Парето распределение, Фишера F-распределение. Тип VII: р(х) = Ш+ х2/а2Ут, — < х < «в, т > 1/2; частный случай - Стьюдента распределение. Тип VIII: р(х) = Ш+х/аУт, -а^х<0, O^w^l. Тип IX: р(х) = Ш+х/а)т, -а^х^О, т>-\. ТипХ: p(x) = ke-(x-m)/o, m^x<oo,o>0, суть показательное распределение. Тип XI: р(х) = kx~m, b^x<oo, m>0; частный случай - Парето распределение. Тип XII: p(x)Jh^Tt -a^x^a,, \т\>\ {\-х/а2) (вариант типа I). Наиболее важны в приложениях типы I, III, VI, VII. Всякое П. р. однозначно определяется своими первыми четырьмя моментами (k= 1, 2, 3, 4): mk = j x p(x)dx, если они конечны. Это свойство используют для приближенного описания эмпирических распределений. Метод подгонки П. р. к нек-рому эмпирич. распределению состоит в следующем: по независимым результатам наблюдений вычисляют первые четыре выборочных момента, затем определяют тип подходящего П. р. и находят значения неизвестных параметров искомого П. р. В общем случае метод моментов не является эффективным методом получения оценок П. р. Более точная аппроксимация распределений с помощью П. р. получена Л. Н. Большевым (1963) в работах по асимптотич. преобразованиям. Лит.: [1] Elderton W., Frequency curves and correlation, 4 ed., Camb., 1953; [2] КендаллМ., Стьюарт А., Теория распределений, пер. с англ., М., 1966; [31 Крамер Г., Математические методы статистики, пер. с англ., 2 изд., М., 1975; [4] Большее Л. Н., «Теория вероятн. и ее примен.», 1963, т. 8, и. 2, с. 129-55. А. В. Прохоров. ПИРСОНА ТЕОРЕМА (Pearson theorem) - см. Хи-квадрат критерий.
ПИСАРЕНКО СПЕКТРАЛЬНАЯ ОЦЕНКА (Pisarenko spectral estimator), метод гармонического разложения, - оценка спектральной меры dFs((n) комплексного стационарного процесса хп, п = 0, ..., N - 1, с дискретным временем, основанная на предположении, что он состоит из конечного числа некоррелированных гармоник и белого шума, то есть dF,(»)/*o = -J + 21M<,P*8(m-<D4), С) -к<щ^к', pk, mQ>0. Оценка введена в геофизич. практику В. Ф. Писаренко [1] для выделения скрытых периодичностей и локализации пиковых частот сигналов. В основе П. с. о. лежит следующий результат Каратео- дори - Сеге (см. [2]): любая корреляционная функция Rk, \k\ ^p, всегда допускает продолжение на всю целочисленную прямую в классе корреляционных функций со спектральной мерой вида (*). Мера единственна, если s^p; при этом тп0 - минимальное собственное значение матрицы Rp~\\R(k-l)\\, k, / = 0, ...,р, s = T2Lnk(Rp-m0I), (Hk = 'argzk, где zk - корни многочлена а023 + а^~ + ... +as, коэффициента (а0, ..., as)T = a к-рого отвечают собственному вектору матрицы Rs с собственным значением w0. Остальные параметры модели определяются из спектрального представления У pkexp(i(okt) = R(t) -mQb°t, t = 0, ...,s-l. С [юстом р меры dFs((u), s(p)^p, слабо сходятся к спектральной мере корреляционной функции R(t). Эмпирич. П. с. о. строится указанным путем с заменой R состоятельной оценкой R , сохраняющей свойство теплицевости и неотрицательной определенности. Порядок модели s определяется как первое значение р, после к-рого оценка w0 слабо меняется. Часто используют асимптотически эквивалентную нетеплице- ву оценку Rs вида ЛГ'£ X„x;,X„ = Un+s *„)т. В этом случае П. с. о. тесно связана с методом ортогональной регрессии: оценка вектора а определяет плоскость L, Х*а = 0 в С5+1, к-рая минимизирует сумму квадратов расстояний точек Хп до L. Если хп отвечает модели (*) и число s известно, метод Писаренко приводит к >/^-состоятельным оценкам пиковых частот {(uk) при N-><*>; стандартные отклонения ok оценок частот (uk сильно зависят от геометрии всех частот (см. [3]): где yfm^/\Ak\ - отношение шум/сигнал на частоте щ. Метод наименьших квадратов в аналогичной ситуации приводит к величинам ok°cN~3/2Jm^/\Ak\. Для повышения эффективности П. с. о. необходима предварительная узконолосная фильтрация {хп}. Метод Писаренко разрешает близкие частоты a)t, 0)2, если только VN~ |о)1 - о)2| » 1. Иначе говоря, в указанных условиях ю,-- со,-= о^( |со1 -0)2|) (см. [3]). В то же время предельная разрешающая способность для методов, теряющих начальную разность фаз пиковых гармоник, определяется (см. [4]) соотношением N7^6|a)1 -о)2| » 1. Лит.: [1| Pisaren ко V. F., «Geophys. J. Roy. Astr. Soc», 1973, v. c'3, p. 347-66; 12] Гренам дер У., Сеге Г., Теплицевы формы и их приложения, пер. с англ., М., 1961; [3] Молчан Г., Нью- ман У., в кн.: Теория и алгоритмы интерпретации геофизических данных, в. 22, М., 1989, с. 179-93; [4] Молчан Г., там же, с. 160-79; [5J Кей СМ., Марпл С. Л., «Тр. Ин-та инж. электро- техн. радиоэлектр.», 1981, т. 69, № 11, с. 5-51. Г. М. Молчан. ПИТМЕНА ОЦЕНКА (Pitman estimator) - эквивариантная статистическая оценка параметра сдвига относительно группы вещественных сдвигов, имеющая минимальный риск при квадратичной функции потерь. Пусть компоненты Xt, Х2, .., Хп случайного вектора Х = (ХХ, X2, ..., Х„) суть независимые случайные величины, подчиняющиеся одному и тому же вероятностному закону, плотность вероятности к-рого принадлежит семейству {f(x-Q), \x\ <<*>, 6е0=(-оо, +оо)}, причем EqX,2 = j*2 *V<* ~ e>>dx < °° для любого в g 0. Далее, пусть G = {д} - группа вещественных сдвигов, действующая в пространстве реализаций Ц^^-оо, +оо) случайной величины Xf-(i= 1, 2, ..., п): G = {g:gXi = Xi + g,\g\<00}. В таком случае задача оценивания параметра 0 будет инвариантной относительно квадратичной функции потерь L(6, Й) = (6-Й) , если в качестве 0=9(Х) выбрать эквивариантную оценку. Э. Питмен [1] показал, что эквивариантная оценка 0(Х) параметра сдвига 6 относительно группы G, имеющая минимальный риск при квадратичной функции потерь, имеет вид \+00xf(x)TVl_f(x + Yi)dx 6<х> = хш) "i=r ^^ . (т) -+оо __„ Lf(x)lX=2fix+^)dx где yf = X(„i)-X(„1); X(ni) есть i-я порядковая статистика, построенная по вектору наблюдений X. П. о. - несмещенная оценка, она является минимаксной в классе всех оценок параметра сдвига в при квадратичной функции потерь, если все эквивариантные оценки параметра в имеют конечные функции риска (см. [2]). Пример 1. Если f(x-Q) = e-(x-e\ x^Q, то есть Xj, i=l, 2, ..., п, подчиняется показательному закону с неизвестным параметром сдвига в, то П. о. в(Х) для в выражается формулой в(Х) = Х(гг^ - 1/я, причем ее дисперсия равна \/п . Пример 2. Если д*_е)= * <г<*-е)2/2, И<оо, V2rc то есть X,, г = 1, 2, ..., п, подчиняется нормальному Мб, 1) закону с неизвестным математич. ожиданием в, то в этом случае среднее арифметическое X = (Xj + Х2 + ... + Хп)/п является П. о. Лит.: [1] Pitman E., «Biometrika», 1939, v. 30, p. 391-421; 12] Закс Ш., Теория статистических выводов, пер. с англ., М., 1975; [3] Ибраги мов И. А., Хае ьм и некий Р. 3., Асимптотическая теория оценивания, М., 1979; [4] Каган A.M., Клебанов Л. Б., Финту шал СМ., «Зап. науч. сем. ЛОМИ», 1974, т. 43, с. 30-39; [5] Воинов В. Г., Н ику л ин М. С, Несмещенные оценки и их приложения, М., 1989. М. С. Никулин. ПЛАН (design) - см. Планирование эксперимента. ПЛАНА МАТРИЦА (design matrix) - см. Наименьших квадратов метод. ПЛАНИРОВАНИЕ ИМИТАЦИОННОГО ЭКСПЕРИМЕНТА (design of simulation experiment) - специальный выбор модели (параметров) изучаемого с помощью имитационного эксперимента случайного явления, к-рый обеспечивает ПЛАНИРОВАНИЕ 455
минимальное количество вычислительной и затрачиваемой на имитацию работы. Включает методы, разработанные для планирования статистич. эксперимента, и специальные методы, основанные на возможности введения статистич. весов при соответствующем изменении распределений (метод существенной выборки). См. также Монте-Карло метод', объем необходимой работы. Лит.: [1] Ермаков СМ., Мел ас В. Б., Математический эксперимент с моделями сложных систем, СПб., 1993; [2] Математическая теория эксперимента, М., 1983. СМ. Ермаков. ПЛАНИРОВАНИЕ МНОГОЭКСТРЕМАЛЬНЫХ ЭКСПЕРИМЕНТОВ (design of multiextremal experiments) - см. Многоэкстремальных экспериментов планирование. ПЛАНИРОВАНИЕ ОТСЕИВАЮЩИХ ЭКСПЕРИМЕНТОВ (design of screening experiments) - см. Отсеивающих экспериментов планирование. ПЛАНИРОВАНИЕ ЭКСПЕРИМЕНТА (design of experiment) - раздел математической статистики, изучающий рациональное управление измерениями, подверженными случайным ошибкам. При использовании П.э. анализ измерений и его интерпретация существенно упрощаются, значительно повышается точность и надежность выводов при тех же экспериментальных затратах. Изучение сравнительной информативности измерений становится содержательной задачей по мере усложнения используемых статистич. моделей. К первым исследованиям такого типа можно отнести работы Р. Фишера по применению дисперсионного анализа смешанных моделей в генетике и К. Смита о планах полиномиальной регрессии, минимизирующих максимум по интервалу дисперсии предсказания отклика (см. [3], [5]). Значительный импульс развитию теории П. э. дали исследования блочного, факторного и ран- домизованного планирования Р. Фишера (см. [4]), проведенные в рамках агробиологич. программ. В частности, Р. Фишер ввел понятие об информации, получаемой в эксперименте, и установил, что поочередное варьирование факторов (рекомендованное тогда в экспериментальных руководствах) обеспечивает приблизительно в k раз худшую дисперсию главных эффектов fc-факторной линейной модели, чем предложенный им полный факторный план (см. ниже пример 2), к-рый вдобавок позволяет эффективно оценить взаимодействия факторов. Далее обнаружилось, что уже в простейших задачах дискриминации простых гипотез или оценивания среднего (при неизвестной дисперсии) остановка измерений в случайный момент, определяемый выборкой (см. Последовательный анализ), эффективней фиксированного окончания измерений. Упомянутые исследования легли в основание математич. теории П. э., сложившейся во 2-й половине 20 в. на фундаменте статистических решений теории и рассматриваемой ниже в общих чертах (при этом многие прикладные аспекты П.э. остаются в стороне; см. [2]). Пусть при фиксированном управлении хе X распределение измерения у есть Pq(). Последовательность (хи ..., Хц) = ^ называется планом. Ему соответствует семейство Pq(-) вероятностных мер последовательности г/1 = (у\, ..., у^). В результате полученной информации принимается решение 8(г/1 ) о неизвестном параметре в е 0 со значением в множестве Л. На 0хЛ задана функция потерь со(6, X). Средние потери #q = E^G)(6, 8(г/1 )) называются риском стратегии (£,8). Стратегия, минимизирующая риск (или нек-рый функционал от него), называется оптимальной. 456 ПЛАНИРОВАНИЕ Пример 1. а) Если ©=(Jf=1©;, 0гП0; = 0 при г"*/, А={\,...,т), О)о(вД) - индикатор события {в£0д}, со( •, •) = со0( •, •) + cN, то риск стратегии есть сумма вероятности ошибки дискриминации гипотез и среднего числа измерений, умноженного на с > 0. б) Если 0 = Л = IRW и со(в ,Х) = (в - X)(Q - Х)Т, то получается задача оценивания с квадратичным риском. Различают статическое и последовательное П.э. План £ называется статическим, если N и хп, n=\,...,N,- постоянные, фиксированные до начала измерений. Для статич. плана независимых измерений Р^(•) = ]~T/V Ре'О)- Последовательное планирование эксперимента состоит в следующем. После каждого измерения уп можно принять решение о завершении наблюдений - в этом случае принимается решение о параметре в на основе у". Если измерения решено продолжать, то определяют хп+^(у"). Так продолжают до конца наблюдений. Важнейшим объектом в П. э. являются регрессионные эксперименты, в к-рых изучают функцию регрессии {отклика функцию) Т|(•,•), измеряя величины yi = T\(x{, в) + £;, f=l, ...,N. (1) Вместо задания меры Р£ на ошибки ег- накладывают легко проверяемые в приложениях условия в терминах их первых двух моментов, делая теорию в определенном смысле непараметрической. Простейшим является статич. план линейных регрессионных экспериментов, для к-рых Г[(х, в) = вт<р(г), веН?^, Ее" = 0, cov(e1, ...,zN) = o W~\ В этом случае за риск принимают функцию от матрицы ковариаций а (Ф \¥Ф)~ наилучшей линейной несмещенной оценки 6 для в, где ФТ = (<р(*1), ..., ф(*дг)) [см. Регрессионных экспериментов планирование, где описаны методы минимизации такого риска, и Дискриминирующих экспериментов планирование, где описаны задачи проверки гипотез о tj(•,•), а также [1], гл. 16]. Позднее стали изучать П. э. в задачах непараметрич. регрессии (1), где про Г|(-,) известна ее принадлежность бесконечномерному компактному (для состоятельности оценки) классу ^известной информационной емкости. Методы П.э. зависят от пространства действий X. Обычно Х£ IR" и поиск оптимального плана сводится к оптимизации в II?" (быть может, итерационной). Большое число прикладных задач приводит к бесконечномерному (обычно банахову) X (см. Планирование эксперимента для обратных задач математической физики, а также [1], гл. 7, 9). Другой крайний случай - дискретное пространство действий X = Xj x ... xXk, где Х{ есть множество уровней 1-го фактора x(i). Пример 2. Пусть надо определить веса 6j, в2, 63 трех грузов на весах с двумя чашками, если результат w-ro эксперимента есть разность веса содержимого второй и ттерной чашек плюс случайная ошибка гт со средним 0 и дисперсией a2; covef = а2/, ут = £3_ xmU)Q{ + гт, при этом xm(i) = (-1 )\ если i-й груз был на /г-й чашке в т-м эксперименте, и xm(i) - 0, если t-й груз не взвешивался в т-м эксперименте (i= 1, 2, 3). Взвесив каждый груз отдельно п раз (N = 3n), получают для его веса наилучшей линейной несмещенной оценки й-="",1!' .»«*««) *~* т = \ с дисперсией а /п. При N = Sr та же точность достигается после взвешивания по г раз всех 8 различных комбинаций грузов, в к-рых каждый из них лежит либо на одной, либо на
другой чашке, причем наилучшая линейная несмещенная оценка равна 6ί=Ν~Έΐ.«»(0''=1'2'3- Такой план Р. Фишер и назвал полным факторным. Геометрически он расположен в вершинах трехмерного куба X = {„v:max|o:l| = 1} и позволяет получить наилучшую линейную несмещенную оценку более общей модели: + 6123-rm(lXrw(2Xrm(3)+£ml описывающей и взаимодействия факторов; наилучшие линейные несмещенные оценки всех параметров Qh θ, (ι\ j- 1, 2, 3) и 912з некоррелированы и имеют дисперсию σ /Ν. При Ы = 4 четыре вершины К, образующие правильный тетраэдр, составляют дробный факторный план, для к-рого наилучшие линейные несмещенные оценки параметров θ]( θ2, θ3 некоррелированы и имеют дисперсию σ /4 (см. Факторный эксперимент, Блочный план). Особо рассматривают частный случай факторных экспериментов, когда функция потерь зависит от точности оценки лишь одного из факторов. Специфическим для факторного П. э. является постановка многих его задач не в статистических, а в комбинаторных терминах. Статистич. осмысление накопленных здесь результатов представляет собой активно развивающуюся область П. э. В рамках регрессионных экспериментов выделяют два важных раздела: экстремальных экспергшентов планирование (см. [1], гл. 14), где функция потерь учитывает точность нахождения экстремума функции регрессии, и Н.э., робаст- ное к выбору модели η(·,·) €./(см. Робастность). Большинство исследований второго направления учитывают квадратичный риск выбранной оценки η(·,·), обычно линейной, слагающийся из смещения Β(ξ)=5ΐιρ f(nCr)-En(.r))Wt) пеУ и случайной погрешности Ο(ξ) = Ej(EiiOc) - x\(x))\(dx), где ν - нек-рая мера. Основное внимание в этом разделе уделяют построению планов, минимизирующих смещение £(ξ), что, являясь разделом теории приближения функций, налагает определенные условия на носитель плана ξ. Среди таких планов стандартными (для планирования регрессионных экспериментов) методами отбираются узлы и кратности (веса) измерений, минимизирующие нек-рую функцию от 0(§)(см. [1], гл.6). Для понимания структуры и связей П. э. полезна теоретико-информационная схема: шум преобразователь управление -г*- решение δ обратная связь «Сообщение природы» θ кодируется в блоке «преобразователь» при участии управления х{ в измерении #,· с распределением Ρθ'. Анализ измерений у{, ..., yN используется при последовательном П. э. для управления следующим измерением г/„+1 и т.д. до момента N принятия решения δ о параметре Θ. Аналогией схем П. э. и теории информации объясняется плодотворность аппарата и идей последней в теории П. э. Особенно отчетлива эта связь при проверке большого числа гипотез (см. Отсеивающих экспериментов планирование). Планирование отсеивающих экспериментов можно считать ответвлением теории передачи сообщений по каналу с множественным доступом (см. [1], гл. 15). Один из приемов теории информации для определения — с наименьшего среднего числа измерений Νθ = Е^N при заданном риске R стратегии состоит в определении информационного количества .% растущего не более чем аддитивно при добавлении измерений. Оценив тт.У= l(R) при заданном риске R и max.f= /j в одном измерении, получают оценку вида Νθ **/(/»//, (2) для любой стратегии 5 с риском R. Если доказать существование стратегии 5 с риском R, обращающей (2) в равенство (хотя бы асимптотически при /?-»оо), то ясна точность оценки (2) и оптимальность s в указанном смысле (см. Последовательное планирование экспериментов, Отсеивающих экспериментов планирование, а примеры - в [1], гл. 15). Лит.: [I] Математическая теория планирования эксперимента, М., 1983; [21 Η а л и м о в В. В., Ч е ρ и о в а Η. Α., Статистические методы планирования экстремальных экспериментов, М., 1965; [31 Fisher R. Α., «Trans. Roy. Soc. Edinb.», 1918-19, v. 52, p. 399-433; [41 его же, Design of experiments, Edinb. - L., 1935; [51 Smith K., «Biometrika», 1918, v. 12, p. 1-85. м. Б. Малютов. ПЛАНИРОВАНИЕ ЭКСПЕРИМЕНТА для обратных задач математической физики (design of experiment for inverse problems of mathematical physics) - выбор условий проведения измерений физических характеристик с целью повышения информативности эксперимента. Типичная измерительная обратная задача часто естественным образом формулируется как регрессионный эксперимент в подходящем функциональном пространстве F путем сопоставления определенного элемента feF состоянию измеряемого объекта. Эксперимент состоит в наблюдении значений случайных величин yt = xt(f) + Et, teT, (l) где t - индекс, нумерующий наблюдения, xt(f) - линейный функционал от /"<= F, то есть элемент сопряженного пространства функционалов F*, {zt\ - попарно некоррелированные случайные величины Εε, = 0, Εε} = σ}>0. В конкретных задачах элементы feF могут быть решениями того или иного уравнения математич. физики (прямой задачи). Функционалы {xt} выбираются из нек-рого множества допустимых функционалов Xcf* (пространства действия), к-рое задается либо непосредственно условиями физич. эксперимента, либо оказывается множеством решений соответствующего сопряженного уравнения (см. [1]). Цель эксперимента (1) состоит в оценивании состояния f или нек-рой функции состояния θ(/") с помощью статистик (функций наблюдаемых случайных величин {yt:t<= Τ} из иек-рого фиксированного класса статистик). Как правило, используются наилучшие в определенном смысле статистики из данного класса. При этом часто необходима та или иная априорная информация о неизвестном состоянии /", иначе риск наилучшей оценки может оказаться неограниченным (см. [2]). Способы априорной информации учета в обратных задачах в принципе аналогичны стандартным приемам, принятым в регрессионном анализе. ПЛАНИРОВАНИЕ 457
Критериями оптимизации эксперимента (1) служат, как правило, характеристики точности наилучших оценок, к-рые при заданной априорной информации однозначно определяются набором {xt, ot, teT). Учитывая, что для обеспечения регулярности семейства наблюдаемых случайных величин (см. [2]) набор дисперсий {of} обычно подчинен условию вида У о^ = const, а также ввиду аддитивности обратных дисперсий повторяющихся наблюдений в регрессионном анализе, дисперсии в описании эксперимента (1) заменяют весами наблюдений wt~c^ , У wt-const. После этого план эксперимента (1), то есть набор £ = {xt, wt], становится дискретной мерой на пространстве действия X, относящей вес wt элементу xteX, teT. Задача П.э., то есть выбора оптимального плана £* из множества допустимых планов в соответствии с выбранным критерием оптимизации, оказывается нетривиальной, если пространство действия X ограничено в сопряженном пространстве F*. Пусть рассматривается случай линейной параметризации '=Х£-,РЛ' (2) где P=(pt, ..., р„) - вектор неизвестных параметров, e^F, i~ 1, ..., р, - известные базисные элементы. С точки зрения оценивания параметров Р эксперимент (1)-(2) эквивалентен линейному регрессионному эксперименту с оценками наименьших квадратов в качестве наилучших линейных несмещенных оценок. Информационная матрица М(£) эксперимента (1) - (2) имеет элементы Mi^O = J^teTwtxSei>xt(ek)t i,k=\,...,p. Непрерывным линейным отображением (piF*-»!^, сопоставляющим каждому функционалу х е F* вектор значений этого функционала на базисных элементах z~ (х(е^), ..., х(ек))т, задача П.э. (1)-(2) сводится к планированию соответствующего линейного регрессионного эксперимента (см. Регрессионных экспериментов планирование): yt = pz, + Et, zt = q>(xt), teT, с пространством действия Z = ф(х) с: №р. Если пространство X ограничено и замкнуто в F*, то Z - компакт и существует оптимальный план £z, сосредоточенный в конечном числе точек 2*, ..., 2^ на границе пространства Z. Проблема восстановления функционалов х-, соответствующих точкам г.-, j- 1, ..., N, оптимального плана, состоит в решении системы уравнений в пространстве F*: x*(et) = z*{:, i = 1, ..., р, j = 1, ..., N. (3) Для D-оптимального плана (detA/(£*) = sup detM(Q) система (3) эквивалентна набору линейных экстремальных задач */(/;) = sup x(ff),j=\, ..., ЛГ. (4) хеХ где элемент f- е F однозначно определен точкой z : a M* = M(£Z)- информационная матрица D-оптимального плана (см. [3]). Относя веса точек {z } из плана £z соответствующим функционалам {х }, получают D-оптимальный план £* для области действия X в пространстве функционалов F*. Выбор различных пар сопряженных функциональных пространств дает широкий класс задач П.э., соответствующих 458 ПЛАНИРОВАНИЕ реальным измерительным задачам в различных областях физики. Классич. ситуации оптимального выбора отсчетных точек при наблюдении непрерывной функции регрессии (см. Регрессионных экспериментов планирование) соответствует выбор в качестве F пространства C(s) функций f(s), непрерывных на компакте 5, а в качестве Xcz С(5)* - множества функционалов вида xs (f) = f(sQ), s0eS. Ситуация F = F* = L (S) также рассматривалась (см. [4]). В указанных ситуациях восстановление функционалов затруднений не вызывает. Для обратных задач относительно распределений аддитивных физич. величин (напр., потоков излучения от различных источников) целесообразно в качестве F выбрать пространство L (5, X), содержащее плотности изучаемых распределений относительно фиксированной меры X на 5, чаще всего меры Лебега. В качестве пространства действия Ха L (5)* = L^iS) естественно в этом случае рассматривать положительную часть единичного шара, состоящую из функционалов вида x(f)=\a(s)f(s)dUs), O^a(s)^MmodX). Тогда экстремум (4) достигается на индикаторе a (s) множества положительности в разложении Жордана - Хана распределения с плотностью где {ek(s)\ - базисные плотности. Задачи этого типа были рассмотрены достаточно подробно (см. [3]), изучались и применения их к оптимальному выбору спектральных каналов систем дистанционного зондирования (см. [5]). Лит.: [I] МарчукГ. И., Методы вычислительной математики, 2 изд., М., 1980; [2] Математическая теория планирования эксперимента, М., 1983; [31 Козлов В. П., в кн.: Математические методы планирования эксперимента, Новосиб., 1981, с. 74-101; [4] М а люто в М.Б., в кн.: Планирование оптимальных экспериментов, в. 48, М., 1975, с. 164-66; [5] Козлов В. П., Ти мофеев Ю. М., «Изв. АН СССР. Сер. Физика атмосферы и океана», 1979, т. 15, № 12, с. 1253-61. В. II. Козлов. ПЛАНИРОВАНИЕ ЭКСПЕРИМЕНТА для проверки гипотез (design of experiment for hypotheses testing) - см. Дискриминирующих экспериментов планирование. ПЛАНИРОВАНИЕ ЭКСПЕРИМЕНТА п о с л е д о п а тельное (sequential design of experiment) - см. Последовательное планирование эксперимента. ПЛАНИРОВАНИЕ ЭКСТРЕМАЛЬНЫХ ЭКСПЕРИМЕНТОВ (design of extremal experiments) - см. Экстремальных экспериментов планирование. ПЛАНШЕРЕЛЯ ТОЖДЕСТВО (Plancherel identity) - см. Плотность вероятности. ПЛОСКО КОНЦЕНТРИРОВАННОЕ СЕМЕЙСТВО вероятностных мер (flatly concentrated family of probability measures)-семейство вероятностных мер в банаховом пространстве, равномерно сконцентрированных на малых окрестностях конечномерных подпространств. Точнее, семейство . И радоновых вероятностных мер в банаховом пространстве В называется плоско концентрированным, если для любого е > 0 существует такое конечномерное подпространство 5с В} что inf {|i.(Se) :|i е Ж) > 1 - е, где 5е обозначает е-окрест- ность множества S. Понятие «П. к. с.» введено А. Акостой [ 1 ]. С помощью этого понятия можно конкретизировать применительно к случаю банахова пространства общий критерий Прохорова слабой относительной компактности семейства вероятностных мер в метрич. пространстве. Именно, семейство .И радоновых вероятностных мер в банаховом пространстве В слабо относительно компактно тогда и только тогда, кода выполнены следующие два условия: (а) для любого непрерывного линейного функционала у на В семейство {у~х ° |i: (i. e .7/,}
мер 1 а числовой оси слабо относительно компактно; (б) семейство Л - П. к. с. Лит.: [1] Acosta A. de, «Trans. Amer. Math. Soc», 1970, v. 152, № 1, p. 273-98; [2] ВаханияН.Н., Тариеладзе В. И., Чоба- няи С. А., Вероятностные распределения в банаховых пространствах, М, 1985. С. А. Чобанян. ПЛОТНАЯ МЕРА (tight measure) - борелевская вероятностная мера \л в хаусдорфовом топологическом пространстве Т, удовлетворяющая следующему условию; для каждого е>0 найдется такое компактное подмножество КЕс^Т, что цХКе) > 1 - е. В польском пространстве (в частности, в полном сепарабельном метрич. пространстве) каждая борелевская вероятностная мера является П. м. Лит.: [1] Биллингслей П., Сходимость вероятностных мер, пер. о англ., М., 1977; [2] ВаханияН.Н., Тар ие л ад зе В. И., Чобанян С. А., Вероятностные распределения в банаховых пространствах, М., 1985. И. Н. Бахания. ПЛОТНОЙ УПАКОВКИ ГРАНИЦА (sphere packing bound) - нижняя граница для ошибочного декодирования вероятности при передаче сообщений по дискретному каналу без памяти. Пусть для дискретного стационарного канала без памяти с входным алфавитом |Г, выходным алфавитом § и множеством переходных вероятностей р(у\у) определена функция £sp(/?), R>0, называемая показателем экспоненты плотной (или сферической) упаковки: £SD^) = sup max {£0(p, q)-pR), к р>о я где (] = {q(y), ye%} - произвольное распределение вероятностей на $, а £0(р, q) ~ функция Галлагера (см. Случайное кодирование; граница). Тогда средняя вероятность Ре ошибочного декодирования при передаче по данному каналу с помощью любого блокового кода длины N, имеющего скорость R, оценивается снизу: Pe^exp{-N[Esp(/? + aW)) + p(A0]}, где и(Ю и р(Л0 стремятся к 0 с ростом N. П. у. г. можно рассматривать также как оценку сверху для надежности функции E(R) данного канала: E(R)^Esp(R). Известно, что Esp(R) - положительная выпуклая и, монотонно убывающая функция от R при 0 < R < С, где С - пропускная способность канала. При Rcr^R<C справедливо равенство Esp(R) = E(R). Лат.: [1] Галлагер Р., Теория информации и надежная связь, пер. с англ., М., 1974; [21 Ко л есн и к В. Д., П олты ре в Г. Ш., Курс теории информации, М., 1982; [3] ЧисарИ., Кернер Я., Теория информации, пер. с англ., М., 1985. С. И. Гелъфанд. ПЛОТНОСТИ ОПЕРАТОР (density operator) - самосопряженный оператор S в гильбертовом пространстве Я, положительный и с единичным следом. Более подробно, (у, Sy)^0 для всех векторов уеЯи Х.Ц.Ч> = 1 для любого ортонормированного базиса {е{} с: Я. В квантовой механике П. о. описывает статистич. состояние системы, то есть несет всю существенную информацию о приготовлении данного статистич. ансамбля индивидуальных квантовомеханич. систем, к-рое непосредственно предшествует измерению той или иной наблюдаемой величины. При этом среднее значение наблюдаемой X в статистич. состоянии, описываемом П. о. S, равно ES{X) = trSX. Говоря о квантовом состоянии, обычно имеют в виду соответствующий П. о. S. Соотношение <р(Х) = trSX устанавливает взаимно однозначное соответствие между П. о. и нормальными состояниями <р на алгебре всех ограниченных операторов X в Я (см. Алгебра наблюдаемых). Таким образом, П. о. можно рассматривать как своего рода производную Радона - Ыикодима состояния ф относительно следа в некоммутативной теории вероятностей. Если S{, i=l, 2, ..., -П. о., то любая их смесь, то есть выпуклая комбинация S = Xf/>Л где Pi^0, ]£. р,-=1, также является П. о. В квантовой механике считается, что И.о. S описывает соответствующую смесь статистич. ансамблей, задаваемых П. о. S. Таким образом, совокупность @(Я) всех П. о. в гильбертовом пространстве Я является выпуклым множеством. П. о. S есть крайняя точка множества @(Я), если он не представим в виде смеси других П. о. Соответствующие состояния называются чистыми. Для того чтобы П. о. S представлял собой чистое состояние, необходимо и достаточно, чтобы он являлся ортопроектором на нек-рый единичный вектор у пространства Я, называемый вектором состояния. При этом Es{X} = (\\f, Ху). Соответствие между чистыми состояниями и векторами у взаимно однозначно с точностью до комплексного множителя, равного по модулю единице. Всякий П. о. S представляется в виде смеси одномерных ортопроекторов, причем такое представление неоднозначно; выделенное представление, для к-рого компоненты смеси взаимно ортогональны, дается спектральным разложением П. о. Лит. см. при ст. Квантовая теория проверки гипотез и оценивания ([1], [5]). А. С. Холеао. ПЛОТНОСТЬ ВЕРОЯТНОСТИ (probability density), плотность распределения вероятностей,- производная распределения функции, отвечающей абсолютно непрерывной вероятностной мере. Пусть X - случайный вектор, принимающий значения в л-мерном евклидовом пространстве IR^Oz^l), F(xv ..., хп) - его функция распределения, и пусть существует неотрицательная функция /"С*!, ..., хп) такая, что F(xv ■■^n)=\^...\^of{ub ..., un)dU] ... dun для любых действительных хх> ..., хп. Тогда f(x]t ..., хп) называется плотностью вероятности случайного вектора X (многомерной плотностью) и для любого борелевского множества А <= IP" Р{Х*А) = \А ... \А /"(«„ .... ипЧщ ... dun. Любая неотрицательная интегрируемая функция f(xlt ..., хп), удовлетворяющая условию J ... J fU\, ..., xjdxy ... dxn= 1, является П. в. нек-рого случайного вектора. Если случайные векторы X и У, принимающие значения в IR", независимы и имеют П. в. f(x^, ..., хп) и д(хи ..., хп) соответственно, то случайный вектор X+Y имеет П. в. h(xx, ..., хп), к-рая является сверткой функций f и д: h(xv .... *„) = ]_ ••• J_ fixx-uXt ..., xn-un)x *g(uv ..., u^dU] ... dun = xdu\ ... dun. Пусть X=(Xt, ..., Xn) и Y = (YV ..., Y„)- случайные векторы, принимающие значения в И?" и IPm (л, w^l) и имеющие П. в. f(xu ..., хп) и д(у\, ..., ут) соответственно, и пусть Z = (X1, ..., Хп, У1( ..., Ут) - случайный вектор в IR"+W. Тогда если X и У независимы, то Z имеет П. в. h(tit ..., tn+m), ПЛОТНОСТЬ 459
называемую совместной плотностью распределения вероятностей случайных векторов X и У, причем AC'i tn + m) = f(tv ..., t„)9(tn+i, .... tn+m). (1) И обратно, если Z имеет П. в., удовлетворяющую соотношению (1), то X и У независимы. Характеристич. функция <p(£t, ..., tn) случайного вектора X, имеющего П. в. f(x\, ..., хт), выражается формулой xf(xv..., xn)dxv..dxn, причем если <p(£t, ..., tn) абсолютно интегрируема, то f(x\, ..., хп) является ограниченной непрерывной функцией и Кх,,...,хя) = -!—Г ...Г e-fei + "+f^>x Хф(^,..., tn)dtv..dtn. П. в. f(x]t ..., хп) и соответствующая характеристич. функция ф(^ tn) связаны также следующим соотношением (тождество Планшереля): функция f (xit ..., хп) интегрируема тогда и только тогда, когда интегрируема функция [ф(^, ..., tn)] , и в этом случае L. - L. f2^1, ••"Xn)dx* -'dXn= = ТЬГ ""Г №tv-,tn)\2dt,...dtn. {in) -ee — Пусть (Q, **/) - измеримое пространство, v и \i суть о-конеч- ные меры на (Q, <*/), причем v абсолютно непрерывна относительно ц, то есть из равенства [i(A) = 0 следует равенство vC4) = О, A е ^. В этом случае на (Q, ^/) существует неотрицательная измеримая функция /"такая, что vGO-k fdii для любого A е.*/. Функция f называется производной Радона - Никодима меры v по мере ц, а в случае, когда v - вероятностная мера, также П. в. v по отношению к \i. Лит.: [1] Прохоров Ю. В., Розанов Ю. А., Теория вероятностей, 3 изд., М., 1987; [2] Феллер В., Введение в теорию вероятностей и ее приложения, пер. с англ., т. 1-2, М., 1984; [3] ЛеманЭ., Проверка статистических гипотез, пер. с англ., 2 изд., М., 1979. Н. Г. Ушаков. ПЛОТНОСТЬ ВЕРОЯТНОСТИ выхода (exit rate) марковского процесса X из состояния х в момент t - такое число q(t, x) e [0, +°°], что ?t,xWt+h*x) lim- AiO h '■ q(t, x) C) [при q = +oo, помимо (*), требуют, чтобы вероятность в числителе стремилась к 0]. П. в. выхода используется в теории марковских процессов с конечным множеством состояний или марковских процессов со счетным множеством состояний и их обобщении - скачкообразных марковских процессов. См. также Мгновенное состояние, Устойчивое состояние. А. А. Юшкевич. ПЛОТНОСТЬ ВЕРОЯТНОСТИ перехода (transition density/rate) скачкообразного марковского процес- с а X в моменте из состояния х в множество Г, не содержащее х,- такое число q(t, х, Г) е [0, +«>], что Iim- Aio •• qU, xt Г), (О здесь Г - измеримое множество фазового пространства Е процесса X [при q= +°°, помимо (1), требуют, чтобы вероят- 460 ПЛОТНОСТЬ ность в числителе стремилась к 0). Частным случаем П. в. перехода при r = is\{*} является плотность вероятности выхода. П. в. перехода - основная инфинитезимальная характеристика скачкообразного марковского процесса. В случае конечного или счетного Е под П. в. перехода обычно понимают пределы для одноточечных множеств у е Е; в «регулярных* случаях qU,x,r)-%¥mrqU,x,y)t (2) но, вообще говоря, при счетном Е знак = в (2) нужно заменить на ^. См. также Марковский процесс с конечным множеством состояний, Марковский процесс со счетным множеством состояний. А. А. Юшкевич. ПЛОТНОСТЬ РАСПРЕДЕЛЕНИЯ; асимптотическая формула (asymptotic formula for a distribution density of) - см. Распределения функция; асимптотическая формула. ПЛОТНОСТЬ РАСПРЕДЕЛЕНИЯ; оценка по наблюдениям (estimation of the density of a distribution from observations) - случайная функция, применяемая в качестве статистического аналога теоретической плотности распределения. Пусть результаты наблюдений Хх Х„ взаимно независимые и одинаково распределенные случайные величины с неизвестной П. p. fix) и пусть Рп(-) - соответствующее эмпирич. распределение, то есть среднее арифметическое дельта-мер 5Х.(), сосредоточенных в точках Х±. Идея построения оценки П. р. следующая: «размазать» каждую наблюденную меру 8^.(0, то есть заменить ее мерой с нек-рой плотностью Кп(х, X}), и в качестве оценки П. р. по наблюдениям Xt, ..., Хп принять /.<*>-7L"-i *»<*.**>• (1) Один класс таких оценок П. р. (так наз. оценки Розен- блатта - Парзена, или ядерные оценки) был введен М. Розенблаттом (М. Rosenblatt, 1956) и Э. Парзеном (Е. Parzen, 1962). Другой класс (так наз. проекционные оценки) был введен Н. Н. Ченцовым (1962). 1) Оценка П.р. Розенблатта - Парзена порождается ядром Кп(х, у) = апК(ап{х - у)), то есть /»<*> = ^Х,"., *<«»<*-**>>. <2) где функция К абсолютно интегрируема и j K(u)du-\, a последовательность ап такова, что дп->оо, aJn-*Q. Оценка П. р. (2) при достаточно слабых ограничениях относительно f и К асимптотически несмещена, состоятельна и асимптотически нормальна, причем Efn(x)=f(x) + 0(a;2), Dfn(x) - (an/n)f(x)\ K\u)du + oiajn). Более того, sup \fn(x) - f(x)\ ->0 почти наверное, если К - X функция с ограниченным изменением, f равномерно непрерывна и п~ дп1пя->0 (см. [1]). Пусть Fn(-) и F(-) - распределения вероятностей, соответствующие fn и f. Имеется класс ядер К, для к-рых оценка П. р. (2) корректна в смысле сходимости по вариации: sup \Fn(A)-F(A)\->0 AgjS почти наверное для всякой П. p. f, где ЗВ - класс борелевских множеств. Асимптотика разных квадратич. мер погрешности оценок П. р. (2) хорошо изучена (см. [1], [2]). Для величины ,п-_ sup i^£l
при нек-рых общих условиях имеет место (3) где параметры ап и dn выписываются в явном виде (см. [1], [3]). Выражение (3) позволяет приближенно оценить вероятности заданных отклонений оценок П. р. (2) от /"и тем самым рассчитать границы, в к-рых с заданной вероятностью находится график f. Пусть Un = \{fn{x)-f{x)fr{x)dxt где rix) - нек-рая весовая функция. При нек-рых нормировках предельное распределение Un нормально. Тем самым можно строить основанный на статистике Un критерий для проверки гипотезы HQ:f=fQ. Оказывается, что при так наз. сингулярных альтернативах, когда fQ и альтернативная П. р. отличаются лишь на множестве малой меры, эти критерии мощнее, чем критерии типа Колмогорова - Смирнова. 2) Оценка П. р. Ч е н ц о в а порождается ядром Кп(х, #)=Xf-i Ф,-(*)ф,-(уМу), /■„<*> -ЗД а,.ф,<*), a, «i- X;=i cpf(Xy)r(Xy), где <pt, ф2, ... - ортонормированная с весом г(х) система функций, a Nn-+oo. Оценки такого типа полезны в задачах, когда необходимо добиться минимальной погрешности в метрике L2 (см. [4]). Предельное распределение статистики ||/я-/"[2 нормально и, в свою очередь, позволяет строить статистич. критерии для f (см. [1]). Примерами других оценок П. р., укладывающихся в схему (1), служат гистограмма, полигон частот, оценки, построенные по методу «ближайшего соседа», и др. Лит.: [1] НадараяЭ. А., Непараметрическое оценивание плотности вероятностей и кривой регрессии, Тб., 1983; [2] Ибрагимов И. А., Хасьминский Р. 3., «Зап. науч. сем. ЛОМИ», 1980, т. 98, с. 61-85; [3] Bickel P., Rosenblatt M., «Ann. Statist.», 1973, v. 1, Mb 6, p. 1071-95; [4] ЧенцовН. Н., Статистические решающие правила и оптимальные выводы, М., 1972; [51 Деврой Л., Дьёрфи Л., Непараметрическое оценивание плотности - Lj-подход, пер. с англ., М., 1988. Э.А. Надарая. ПЛОТНОСТЬ РАСПРЕДЕЛЕНИЯ решения стохастического дифференциального уравнения (density of the distribution of solution of a stochastic differential equation): решение стохастического дифференциального уравнения dXt = a(t, Xt)dwt + b(t, Xt)dt, XQ = x, 1) имеет плотность распределения при почти всех t>0, если а и Ъ измеримы и ограничены и аа* невырождена (см. Стохастический интеграл; оценки распределения); при всех t>0 плотности может и не быть (см. [1]); 2) имеет плотность распределения, если дополнительно функция GO*(t,) равностепенно непрерывна, причем плотность существует при всех t> 0 и является фундаментальным решением соответствующей задачи Коши для параболич. уравнения (см. [2]); 3) имеет плотность распределения, если функции а и b принадлежат классу С£°, и удовлетворяет условиям типа Хермандера, причем плотность существует для всех t > 0 и при аналогичных условиях эта плотность принадлежит классу С£° (см. Маллявена исчисление). Лит.: [1] С а ф о н о в М. В., в сб.: Тезисы докладов 3-й Между нар. вильнюсской конф. по теории вероятн. и матем. статистике, т. 2, Вильнюс, 1981, с. 133-34; [21 Stroock D. W., Varadhan S. R. S., Multidimensional diffusion processes, В.- [а. о.], 1979; [3] Веретенников А. Ю., «Успехи матем. наук», 1983, т. 38, в. 3, с. 113-25. Л. /О. Веретенников. ПЛОТНОСТЬ РАСПРЕДЕЛЕНИЯ с л у ч а й н о й матрицы (density of the distribution of a random matrix) - см. Случайная матрица. ПЛОТНОСТЬ СЕМЕЙСТВА МЕР (tightness of a family of measures) - свойство, обеспечивающее счетную аддитивность всех предельных мер семейства и состоящее в том, что все меры семейства «почти целиком» сосредоточены на нек-ром компакте. Одна из задач, к-рая возникает при изучении сходимости вероятностных мер и случайных процессов, - это вопрос о том, когда заданное семейство вероятностных мер слабо компактно? В свою очередь, задача компактности семейства вероятностных мер приводит к другому вопросу: когда предельные точки заданного семейства мер являются счетно-аддитивными? Свойство П. с. м. обеспечивает счетную аддитивность предельных точек. Пусть (ЗГ, ©) - нормальное а-пространство иМ- пространство мер, заданных на а(@). Семейство мер 9 из М называется плотным, если для любого е>0 существует компакт К с: эс такой, что для каждой окрестности Ge© компакта К имеет место неравенство sup P{ST\G}<e. (1) Компакт К не всегда принадлежит борелевской а-алгебре, но если К е а(@), то предыдущее условие превращается в следующее. Для любого е>0 существует компакт К такой, что sup Р{9Г\К}<е. (2) Если выполнено одно из условий (1) или (2), то каждая мера Ре ^плотна так же, как и все предельные меры семейства &. Сеть вероятностных мер (Рв) называется плотной, если для любого е>0 существует компакт Кяж такой, что для любой окрестности его G HmsupP0{5r\G}<e. е В случае, когда Кев((&), условие IimsupP0{^r\/C}<e (3) (4) не следует из (3), если (Р0) - не последовательность. Отличие (3) или (4) от (1) или (2) состоит в том, что (3) или (4) не гарантирует плотность мер Р0, хотя все предельные меры плотны. Лит.: [1] Прохоров Ю. В., «Теория вероятн. и ее примен.», 1956, т. 1, в. 2, с. 177-237; [2] Бил л и нгс л ей П., Сходимость вероятностных мер, пер. с англ., М., 1977; [3] Боровков А. А., «Успехи матем. наук», 1976, т. 31, в. 2, с. 3-68; [41 Боровков А. А., Пе- черский Е. А., «Докл. АН СССР», 1973, т. 208, № t, с. 18-20. Е.А. Печерский. ПОВТОРЕНИЯ в случайных последовательностях (matchings in random sequences) - наличие в случайных последовательностях полностью или частично совпадающих наборов элементов. Примерами П. в случайных последовательностях {Xt}t^x являются: П. s-цепочек, то есть выполнение условий Х,+/ = Хи+;,; = 1 s, (1) при нек-рых 0^t<u^N-s; неполные П. s-цепочек [когда в системе (1) выполняется не менее заданного числа k<s равенств] или П. подпоследовательностей в двух последовательностях {Х(}ы{ и {Yt}^Lu то есть выполнение условий Xt=Yu.J=\, ...,s, (2) ; j при нек-рых 1 ^ tx < ... < ts^N; 1 ^их < ... <м,^М. ПОВТОРЕНИЯ 461
Пусть X\t ..., XN - независимые одинаково распределенные случайные величины и р2 = Р{Хх=Х2}\ "Усть oW. s) - число пар (t, и), 0^t<u^N -s, удовлетворяющих условиям (1), a a*(N,s)- число таких же пар, удовлетворяющих, кроме (1), условию Xt*Xu(t>0). Тогда при N-><», См р2(\ - р2) ->А.>0, р2^>ре[0, 1), имеют место соотношения Ега^5)->еШ-°, Ега(^л)->ехр{Мг-1)/(1-рг)}; если z(s) = min {N: g(N, s) > 0} - момент первого П., то P{t(sW(1 -р2)р2 <х}^>\-е-х2/2,х>0, при р2 -*■ 0, а если |х(Л0 = max {5: o(N, s) > 0} - максимальная длина повторяющейся s-цепочки, то P{nW)-[2log1/p2W]<fe}^ ^exp{-i^pM2k*V»">}, * = 0,±1 при N-***>, p2->PG(0, Di гДе Ul и {х} суть целая и дробная доли числа х соответственно. Совокупности индикаторов событий вида (1) или (2) являются естественными, но нетривиальными примерами наборов зависимых случайных величин, а случайные величины типа o(N, s) и o*(N, s) - частными случаями так наз. (/-статистик. Лит.: [1] Зубков A.M., М и хай л о в В. Г., «Теория вероятн. и се примени, 1974, т. 19, в. 1, с. 173-81; 1979, т. 24, в. 2, с. 267-79; [2] Михайлов В.Г., 1ам же, 1975, т. 20, в. 4, с. 880-84; [3] Chvatal V., Sankoff D., «J. Appl. Probab.», 1975, v. 12, № 2, p. 306-15; [4] ArratiaR., Waterman M. S., «Adv. Math.», 1985, v. 55, № t, p. 13-23. Л. M. Зубков. ПОВТОРНОГО ЛОГАРИФМА ЗАКОН (law of the iterated logarithm) - предельная теорема теории вероятностей, являющаяся уточнением больших чисел усиленного закона. Пусть Xj, Х2} ...— последовательность случайных величин, 5„ = Х1+Х2+... + *„. В то время как теоремы об усиленном законе больших чисел указывают условия, при к-рых (Sn-an)/bn^>>Q почти наверное при и -> <*>, где {ап} и {Ьп} - числовые последовательности, теоремы о П. л. з. имеют дело с числовыми последовательностями {ап} и {сп} такими, что lim sup — — = 1 почти наверное (1) Я-»°° Сп ИЛИ .„ . lim sup —-—— - 1 почти наверное. (2) Л-»°° Сп Соотношение (1) равносильно равенствам Р{5п-дп>(1+е)сяб.ч.} = 0 И P{Sn-an>(\-e)cn6.4.} = \ для любого е>0, где запись «б.ч.» означает «бесконечное число раз». Впервые эффект П. л. з. был обнаружен в 1924 А. Я. Хин- чиным (см. [1]), исследовавшим случай, когда {Хп} представляла собой последовательность независимых случайных величин, подчиненных одному и тому же закону Бернулли. Первой теоремой общего типа о П.л.з. был опубликованный в 1929 следующий результат А. Н. Колмогорова (см. [2]). Пусть {Хп} - последовательность независимых случайных величин с математич. ожиданиями, равными нулю, и конечными дисперсиями, и пусть Bn=Y" ЕХ£. Если #„-><» 462 ПОВТОРНОГО при п -> <*> и существует такая последовательность положительных постоянных {М„}, что |Х„|<М„иМ„ = о((Вп/1п1пВ„),/2), то выполнены соотношения (1) и (2) при я„ = 0 и с„ = (2В>1пВ„)1/2. Если {Хп} - последовательность независимых одинаково распределенных случайных величин, удовлетворяющая условиям EXt=0 и EXj <<», то справедливы соотношения (1) и (2) при йн = 0ис„ = (2nb In In и)1/2, где Ь = ЕХ2 (см. [3]). Обобщения П. л. з. для широких классов последовательностей независимых случайных величин были получены У. Фел- лером [4], Ф. Штрассеном [5], А. И. Мартикайненом [6] и др. (см., напр., [7]). Теоремы о П.л.з. для последовательностей независимых случайных величин послужили отправным пунктом для многочисленных исследований применимости П. л. з. к последовательностям зависимых случайных величин и векторов и к случайным процессам. Лит.: [1] Хиичин А. Я., Избранные труды по теории вероятностей, М., 1955, с. 12-24; [2] Колмогоров А.Н., Теория вероятностей и математическая статистика, М., 1986, с. 34-44; [3] Hart- man Р., Wintrier A., «Amer. J. Math.», 1941, v. 63, p. 169-76; [4] Feller W., «Trans. Amer. Math. Soc.», 1943, v. 54, p. 373-402; [5] Strassen V., «Z. Wahr. und verw. Geb.», 1964, Bd 3, S. 211-26; [6] Марти кай йен А. И., «Теория вероятн. и ее иримен.», 1985, т. 30, в. 4, с. 694-705; [7] Петров В. В., Предельные теоремы для сумм независимых случайных величин, М., 1987. В. В. Петров. ПОВТОРНОГО ЛОГАРИФМА ЗАКОН в банаховом пространстве (law of the iterated logarithm in Banach space) - обобщение повторного логарифма закона для случайных величин, принимающих значения в банаховом пространстве (то есть для случайных элементов). В случае бесконечномерного пространства различают ограниченный П. л. з. (ОЗПЛ) и компактный П. л. з. (КЗПЛ). В скалярном и конечномерном случаях эти формы П.л.з. совпадают. Первоочередной интерес представляет случай, когда X, Х]у ..., Хп, ...- независимые одинаково распределенные случайные элементы в сепарабельном банаховом пространстве В. Пусть S„ = Xa- xk> a„=(2n\n\nn)U2, n = 3, 4, ... Говорят, что случайный элемент X удовлетворяет ОЗИЛ и пишут Хе ОЗПЛ (В), если sup \\Sn\\/an<oo почти наверное. п Говорят, что X удовлетворяет КЗПЛ и пишут Хе КЗПЛ (В), если последовательность Sjan почти наверное относительно компактна в В. 1. Ограниченный закон повторного логарифма. Если В = И? , то ХеОЗПЛ тогда и только тогда, когда а = ЕХ < <*> и ЕХ = 0. Если эти условия выполнены, то почти наверное множество предельных точек последовательности (Sn/an) совпадает с интервалом [-а, +а] (теорема Хартмана - Винтнера - Штрассена). Отсюда вытекают необходимые условия для справедливости ОЗПЛ в банаховом пространстве. Именно, если ХеОЗПЛ (В), то а) Е[Ь*(Х)] <оо для каждого непрерывного линейного функционала Ь* е В*, то есть X имеет слабый второй порядок и, следовательно, можно говорить о ковариационном операторе Rx; б) ЕХ = 0. Кроме того, если Хе ОЗПЛ(В), то в) Е||х||2/Ш11х||)<°о, где Lit) = max(1, In t), t>0, в частности Elixir <°° для каждого pt 0<p<2. Однако если В бесконечномерно, то существует ХеОЗПЛ(В) такой, что Е»Х||2 = ~.
Условия а), б), в) не влекут за собой ОЗПЛ. Существует пример случайного элемента X, сосредоточенного на единичной сфере пространства С[0, 1] (и имеющего гауссовскую ковариацию), но не удовлетворяющего ОЗПЛ. Вопрос об ОЗПЛ полностью решен для пространств типа 2 (см. Банахово пространство типа р). Если X - случайный элемент в пространстве типа 2, то он удовлетворяет ОЗПЛ тогда и только тогда, когда выполнены условия а), б), в) (см. [2]). Для общих банаховых пространств справедлив следующий результат: ХеОЗПЛ(В) тогда и только тогда, когда выполнены условия а), б), в) и последовательность (||S„||/tf„) стохастически ограничена (см. [2]). 2. Компактный закон повторного логариф- м а. Очевидно, КЗПЛ влечет за собой ОЗПЛ. Если X е КЗПЛ (В), то помимо условий а), б), в) выполняются еще следующие: г) ковариационный оператор Rx компактен, то есть множество Rx{°* е В* : IIЬ* 1 ^1} является относительно компактным подмножеством пространства В\ д) |5я|/а„Д0. В КЗПЛ можно конструктивно указать компакт К(^ В, к-рый для почти каждой последовательности (Sn/an) совпадает с множеством ее предельных точек. Именно, если ХеКЗПЛ (В), то /С = Л{ЛеЯ:М^1}, где А- оператор, действующий из нек-рого гильбертова пространства Н в В и участвующий в факторизации RX = AA*. Кроме того, почти наверное при п -> «> Р(5>„, Ю-О, где р(х, К) - расстояние от точки х до множества К. Как и ОЗПЛ, КЗПЛ хорошо изучен для банаховых пространств типа 2. Для такого пространства В случайный элемент X е КЗПЛ (В) тогда и только тогда, когда выполнены условия а), б), в) и г). В общем случае к этим условиям нужно добавить еще условие д) (к-рое не выражено явно в терминах распределения X) (см. [2]). Если В - банахово пространство котииа 2, то X е КЗПЛ (В), если X удовлетворяет условиям а), б) и имеет гауссовскую ковариацию (см. [1], [4]). Существует связь между КЗПЛ и центральной предельной теоремой (ЦПТ) в банаховом пространстве. Если X е ЦПТ (В) и выполнено условие в), то ХеКЗПЛ (В) (см. [3]). В частности, каждый гауссовский случайный элемент удовлетворяет КЗПЛ. С другой стороны, в любом бесконечномерном банаховом пространстве существует случайный элемент X такой, что ХеКЗПЛ (В), но X г ЦПТ (В). Лит.: [1] Pisier G., «Seminaire Maurey-Schwartz», 1975-76, exp. 3, 4; [2] Ledoux M, Talagrand M., «Ann. Probab.», 1988, v. 16, № 3, p. 1242-64; [3] Heinkel В., «Z. Wahr. und verw. Geb.>, 1979, Bd 49, № 2, S. 211-20; [41 Cobanjan S.A., Tarieladze V. I., «J. Multivar. Analis.», 1977, v. 7, p. 183-203. В. И. Тариеладзе, С. А. Чобанян. ПОВТОРНОГО ЛОГАРИФМА ЗАКОН для в и не ров ского процесса (law of the iterated logarithm for Wiener process) - общее название для ряда утверждений, описывающих асимптотическое поведение почти всех траекторий стандартного винеровского процесса w(t), t^O. Наиболее известен обычный П. л. з. (в форме X инчина): если Ш) = (2*1п|1п t\){/2, то почти наверное Iimsupa>(0/UO= -Hminf w(t)/L(t)= 1. (*) Локальный П.л. з.: так как tw(t~ ) вновь есть стандартный винеровский процесс, то (*) справедливо и при £->0. Сформулированный П. л. з. является следствием общего функционального П.л. з. (в форме Штрассена). Пусть К- множество в С[0, 1], состоящее из абсолютно непрерывных функций f(x), для к-рых ДО) = 0 и <*(f)=Jl (f'(x))2dx^\ [К - единичный шар в гильбертовом пространстве с воспроизводящим ядром min(s, О, то есть ковариацией винеровского процесса Wn{t)-w{nt)/L{t), 0^£^1]. Тогда последовательность функций (Wn(t)} относительно компактна в С[0, 11 и множество ее предельных точек совпадает с компактом К (п может меняться и непрерывным образом). Можно указать и как близко Wn «подходит» к функциям fe К: если, напр., f - функция ограниченной вариации, то при a(f) < 1 Iiminf sup \W(t)-f(t)\\ninn = = —(l-a(/*))-1/2 почти наверное 4 (при f- 0 это есть П. л. з. в форме Чжуна). Существуют специфич. варианты П.л.з. для описания поведения функционалов от винеровского процесса. Напр., если £Х0 = тах \w(s)\ и v(0 - момент достижения этого макси- мума, то есть E(t)=\w(v(t))\, то множество предельных точек семейства (r4lnln02v(0, Г1/2(Ып01/2ЖО), *->~, совпадает с расширяющейся полосой {(х,у):х^к2/А, у>0,у2/2х + к2/8у2^Ц. Имеются обобщения на случай винеровского процесса со значениями в общих пространствах и с многомерным временем (см. [3], [5]). Лит.: [\] Хин чин А.Я., «Fundam. math.», 1924, t. 6, p. 9-20 (в кн.: Избранные труды по теории вероятностей, М, 1995, с. 12-24); [21 Levy P., Theorie de 1'addition des variables aleatoires, 2 ed., P., 1954; [3} Леви П., Стохастические процессы и броуновское движение, пер. с франц., М., 1972; [41 Stout W. F., Almost sure convergence, N.Y.-[a.o.l, 1974; [51 Bingham N. H., «Bull. London Math. Soc», 1986, v. 18, № 5, p. 433-67; [6] Strassen V., «Z. Wahr. und verw. Geb.», 1964, Bd 3, S. 211-26; [71 Csaki E., Foides A., Revesz P., «Probab. Theory Relat. Fields», 1987, v. 76, № 4, p. 477-97. К. А. Боровков. ПОВТОРНОГО ЛОГАРИФМА ЗАКОН для цепей Маркова (law of the iterated logarithm for Markov chains): пусть Xn(n = 0, 1, ...) - однородная Маркова цепь со счетным множеством положительных состояний; f- действительная функция; S„ = ^n.'Jtf(Xj),ni = P{X0 = i}; xv(i) - момент v-ro достижения состояния i; /v(0 = [tv(0, iv+i(i)]; Если E{S*/VH nWW'T" и в>0- то множество предельных точек (5П-пМ)/(2Вп\п\пп) при п ->«> совпадает с [ - 1, 1] (см. 1). П.л.з. доказан для $U)/(2t\n\nt)i/2 при t->», £(0 (t^0) - решение стохастич. дифференциального уравнения (см. [2р. ПОВТОРНОГО 463
Имеется функциональный вариант П. л. з. для цепей Маркова (см. [3]). Лит.: [1] Сарымсаков Т. А., Основы теории процессов Маркова, М., 1954; [2] Чжун Кай-лай, Однородные цепи Маркова, пер. с англ., М., 1964; [31 Friedman A., «Trans. Amer. Math. Soc.», 1972, v. 170, p. 359-84; [4] Bhattacharya R.N., «Z. Wahr. und verw. Geb.», 1982, Bd 60, S. 185-201. Б.А. Ряуба. ПОВТОРНОГО ЛОГАРИФМА ЗАКОН для эмпирических мер (law of the iterated logarithm for empirical measures) - утверждение, уточняющее больших чисел усиленный закон для эмпирических мер. Пусть Рп-Рп(С) - эмпи- рич. распределение, построенное по выборке объема п с распределением Р=Р(С) в измеримом пространстве (ST, 9С), Се«,и щ,(С) = (Р„(С) - P(C))Vn~. Пусть #с И - фиксированный класс множеств, D{&) - пространство ограниченных функций Ч> = ЧЧС), Се 33. Различают обычно два типа П.л. з. (см. [1]). Первый тип (ограниченный П.л.з.): почти наверное lim sup supl^Hl = А, (*) я-*» Сел ijlnlnn где А=А(Р, ЗВ)<°° - константа. Второй тип (П.л.з. в форме Штрассена): почти наверное множество предельных «точек» последовательности u.n/Vin In n совпадает с К, где К = К(Р, 3i) - неслучайное компактное множество функций TeDU). Ограниченный П.л.з. следует из П.л.з. в форме Штрассена, причем 4 = sup sup ЫО\. VeKCeJB Напр., если Р есть равномерное на отрезке [0, 1] распределение (см. [2]), то имеет место П. л. з. в форме Штрассена для & = .<Я\ ={(-00, х), х еЩ; при этом K={4*(C)eD(^):4(C) = \ch(t)dt,jfoh2(t)dt<\}. Аналогично выглядит П.л.з. в форме Штрассена для непрерывных распределений в IR* (см. [31). Оба варианта П. л. з. являются частными случаями повторного логарифма закона в банаховом пространстве, где роль слагаемых выполняют центрированные индикаторные функции. Если определенные энтропийные характеристики класса 39 велики, то почти наверное выполняется lim sup sup|u,n(C)|/<y/lnlnn = °° я->оо CeJS и для справедливости утверждения типа (*) нужно выбрать другую нормирующую последовательность (см. [4]). П. л. з. распространен и на эмпирич. процессы (см. Сходимость эмпирических мер и эмпирических процессов, а также [5]). Определяющим в доказательстве вариантов П. л. з. является грубая (логарифмическая) асимптотика вероятностей больших уклонений для эмпирич. мер (см. [6]). Другой вариант П.л. з. (в форме Чжун а): почти наверное liminf p(\in)<J\nhin = В, п—>°° где р - полунорма в D(#0, В - константа. Напр., для равномерного на отрезке [0, 11 распределения SB = &V piy¥) = = sup |ЧЧС)| справедлив П.л.з. в форме Чжуна с £ = n/VcT Се 39 (см. [7]). Лит.: [1] Kueibs J., Dudley R., «Ann. Probab.», 1980, v. 8, H> 3, p. 405-18; [21 Finkeistein H., «Ann. Math. Statist.», 1971, v. 42, p. 607-15; [31 Richter H., «Manuscripta Math.», 1974, v. 11, 464 ПОВТОРНОГО p. 291-303; [41 Борисов И. С, «Сиб. матем. ж.», 1985, т. 26, Н> 1, с. 12-22; [5J Кол чи некий В. И., «Теория вероятн. и матем. статист.», 1981, т. 25, с. 40-47; [6] Боровков А.А., Могуль- ский А. А., «Сиб. матем. ж.», 1978, т. 19, Н> 5, с. 988-1004; 1980, т. 21, № 5, с. 12-26; [7] Могу лье кий А. А., «Теория вероятн. и ее примен.», 1979, т. 24, в. 2, с. 399-407. И. С. Борисов, А. А. Могульский. ПОГЛОЩАЮЩЕЕ СОСТОЯНИЕ (absorbing state) - см. Марковский прогресс со счетным множеством состояний. ПОГЛОЩАЮЩЕЕ СОСТОЯНИЕ цепи Маркова (absorbing state of a Markov chain) - см. Маркова цепь; поглощающее состояние, Маркова цепь; классификация состояний. ПОГЛОЩАЮЩИЙ БАРЬЕР (absorbing barrier/boundary) - см. Винеровский процесс в полупрямой. ПОГЛОЩЕНИЯ ВЕРОЯТНОСТЬ (absorbtion probability) - см. Вероятность поглощения. Марковский процесс с конечным множеством состояний. ПОДКЛАСС СОСТОЯНИЙ цепи Маркова (subclass of a Markov chain) - см. Маркова цепь\ классификация состояний. ПОДМЕНА ЧАСТОТ (aliasing) - см. Наложение частот. ПОДОБИЯ ТЕОРИЯ (similarity theory) - см. Монина - Обухова теория подобия. ПОДОБНАЯ ОБЛАСТЬ (similar region) уровня о по отношению к семейству вероятностных мер 3>= {Р} - область выборочного пространства, Р-вероятности к-рой равны а для всех вероятностных мер Р е &. В стати- стич. приложениях П. о. выступает как критич. область нерандомизированного подобного критерия в задаче различения сложных гипотез, в к-рой & есть множество распределений, составляющих нулевую гипотезу. Термин «П. о.» введен Ю. Нейманом и Э. Пирсоном (см. [1], [2]) и является сокращением выражения «область, подобная всему выборочному пространству»; это связано с тем, что выборочное пространство тривиальным образом является П. о. с а=1. Одна из основных проблем, связанных с П. о.,- проблема их существования и построения. Для случая, когда множество ^конечно, существование П. о. установил А. А. Ляпунов [3]; дальнейшее обобщение и расширение этих результатов содержится в работах Ю. В. Линника и его учеников. Наиболее распространенный метод построения П. о. по отношению к иараметрич. семейству распределений jp={P9, ве@} основан на использовании достаточной статистики Т для параметра 0. На каждом сечении {T = t} выборочного пространства строится область At, условная (при Г=£) вероятность к-рой (эта вероятность от в не зависит) равна а. Если удается «измеримо склеить» все области At для различных t> то получившаяся область будет П. о. уровня а. Таким образом построенная П. о. обладает структурой Неймана по отношению к семейству &\ если Т - ограниченно полная достаточная статистика, то структурой Неймана обладают все П. о. Иногда изучают «е-приближенно П. о. Л», для к-рых |Р(/4)-а|^е для всех Ре У. Лит.: [1] Neyman J., Pearson E. S., «Biometrika», 1928, v. 20A, pt 1, p. 175-240; pt 2, p. 263-94; [2] их же, «Philos. Trans. Roy. Soc, Ser. A», 1933, v. 231, p. 289-337; [31 Ляпунов А. А., «Изв. АН СССР. Сер. матем.», 1940, т. 4, № 6, с. 456-78; [4] Линии к Ю. В., Статистические задачи с мешающими параметрами, М., 1966; J5] Бернщтейн А. В., в кн.: Итоги науки и техники. Сер. Теория вероятностей. Математическая статистика. Теоретическая кибернетика, т. 17, М., 1976, с. 3-56. А. В. Бернштейн. ПОДОБНАЯ СТАТИСТИКА (ancillary statistic) - статистика, распределение к-рой одно и то же для всех элементов рассматриваемого семейства распределений. Если &= {Р9, ве 0} - семейство распределений на измеримом про-
странстве (J\ 90, а статистика Т отображает О)', Ю в друюе измеримое пространство (./, 83), то Т - подобная статистика относительно ./, если PQ(B) = const, 0е(), для В е 83. П. с. используется для построения подобных критериев (сложной) гипотезы о принадлежности искомого распределения семейству ./. П. с. позволяет также строить несмещенные оценки нуля, то есть статистики х(?0 со свойством Евх = 0, 6е0, в терминах к-рых формулируется условие оптимальности несмещенной оценки параметрич. функции. Дна важных класса П. с. образуют статистики, не зависящие от достаточной, и так наз. максимальные инварианты для семейства распределений, инвариантного относительно нек-оой группы преобразований. Лит.г [11 Ломан Э., Проверка статистических гипотез, пер. с англ., 2 изд., М., 1979. А. М. Каган. ПОДОБНЫЙ КРИТЕРИЙ (similar test) - статистический критерий в задаче различения сложных гипотез, функция мощности к-рого постоянна для всех распределений, составляющих нулевую гипотезу. Понятие «П. к.» введено Ю. Нейманом и Э. Пирсоном (см. [1], [2]). Пусть х - результат наблюдения над случайной выборкой X, распределение Рш к-рой зависит от неизвестного параметра coeQ. По л: проверяется сложь~я нулевая гипотеза #0:coeQ0 (множество Q0czQ содержит более одного элемента) против альтернативной гипотезы Н) :coeQ] = Q\Q0. Критерий ф(#) называется подобным критерием у ров ня а, если р(со|ф) = Еюср(Х) = а для всех cogQq. Часто в статистич. задачах различения сложных гипотез с самого начала ограничиваются рассмотрением только П. к., однако следует иметь в виду, что в общем случае в конкретных задачах возможно существование неподобного критерия, у к-рого р(со|ф)^а для всех coeQ0 и имеющего равномерно большую мощность по сравнению с наиболее мощным ГГ. к. [3J. Если П. к. является нерандомизированным, то его критич. область является подобной областью. К понятию П. к. иногда приходят в связи с рассмотрением несмещенных критериев ф уровня а, у к-рых р(со|ф)^а для всех cogQq и р(со|ф)^а для всех (ogQ,. Если множества Q0 и Qj имеют общую границу Г и р(со|ф) непрерывна на Г, то р(со|ф)=а при сое Г и критерий ф является подобным на границе Г. П. к. существуют всегда [напр., тривиальный критерий ф(#)=а], и проблема заключается в построении нетривиальных П. к. и нахождении среди них оптимальных. Наиболее полные результаты получены в задачах проверки гипотез об одномерном параметре экспоненциального семейства распределений при наличии мешающих параметров (см. [4]). Пусть семейство распределений Р?в зависит от (k+ 1)-мерного параметра со= (£, 6) с £ е Н d IP , 6 е 0с: IP , и определяется плотностью -^ = с($, №Ыехр{$и(х) + £. 6;7)Ы} (*) относительно а-конечной меры v. Проверяется нулевая гипотеза #0:£ = ^о относительно параметра ^ при односторонней альтернативе Н[\%>Ъ^ (или двусторонней //f :£*£0); параметр в- мешающий. Статистика Т(х) - (Тх(х), ..., Tk(x)) является достаточной для мешающего параметра в, и при фиксированном значении Т(х) = t условное распределение Р¥ (-\t) не зависит от 9. Поэтому при каждом t можно построить условный критерий ф(#|0 (равномерно наиболее мощный при альтернативе Н[ или равномерно наиболее мощный несмещенный при альтернативе Я") уровня а, основанный на U(x). Критерий \у(х) = у(х\т(х)), рассматриваемый как безусловный в исходной задаче, является равномерно наиболее мощным П. к. или, соответственно, равномерно наиболее мощным несмещенным П. к. В общем случае семейства Р^0 произвольного типа иногда также удается использовать аналогичный подход, если в условиях нулевой гипотезы (для семейства распределений {Рь 0;вб0}) существует достаточная статистика Т(х) для мешающего параметра 8. Тогда при каждом значении Т(х) = t возможно построение условного критерия уровня а, обладающего теми или иными оптимальными свойствами [напр., если семейство условных распределений Р¥ («|0 обладает моно тонным отношением правдоподобия], и этот критерий, рассматриваемый как безусловный, будет П. к. с теми же локально оптимальными свойствами. В описанных выше примерах безусловные критерии \\f(x) обладают свойством Ер 0(y(X)|T(X) = Osa для всех 9е 0 и почти всех значений t достаточной статистики Т(х), то есть они обладают Неймана структурой относительно достаточной статистики Т. Очевидно, все критерии, обладающие структурой Неймана, являются П. к.; верен и обратный результат, устанавливаемый теоремой Лемана - Шеффе: для того чтобы все П. к. обладали структурой Неймана относительно достаточной статистики Т(х) для семейства Р^ е, необходимо и достаточно, чтобы распределение Р\ 0 этой достаточной статистики было ограничено полным [для экспоненциального семейства распределений (*) условие ограниченной полноты эквивалентно тому, что множество 0 имеет непустую внутренность]. Использование структур Неймана является классич. методом построения П. к. В общем случае во многих задачах различения гипотез существуют только тривиальные П. к., и дальнейший прогресс в теории П. к. связан с рассмотрением асимптотич. задач, в к-рых наблюдение х представляет собой совокупность х =(Х], ..., хп) результатов п независимых наблюдений над случайной величиной с распределением Рю и изучается асимптотич. поведение при п -> <*> последовательности критериев {ф„(.г(гг)), я=1, 2, ...}. Если lim J ipn(xir,))dP^} = a для всех (И) П-Юо coeQq, где Рю -Рюх...*Рю (л раз), то последовательность критериев {ср„} называется асимптотически подобной уровня а. Такие последовательности критериев существуют уже в существенно более широком классе задач, в к-рых удается построить асимптотически оптимальные (в том или ином смысле) асимптотически подобные последовательности критериев (см., напр., Статистический критерий C(a), a также [9]). Лит.: [\] Neyman J., Pearson E. S., «Biometrika», 1928, v. 20A, pt 1, p. 175-240; pt 2, p. 263-94; [2] их же, «Philos. Trans. Roy. Soc. Ser. A», 1933, v. 231, p. 289-337; [31 Lehmann E. L., Stein C, «Ann. Math. Statist.», 1948, v. 19, № 4, p. 495-516; [4] Л ем ан Э., Проверка статистических гипотез, пер. с англ., 2 из*д., М., 1979; [5] Линник Ю. В., Статистические задачи с мешающими параметрами, М., 1966; [6] Боровков А. А., Математическая статистика, М., 1984; [7] Шметтерер Л., Введение в математическую статистику, пер. с нем., М., 1976; [81 Барра Ж.-Р., Основные понятия математической статистики, пер. с франц., М., 1974; [9] Берн- штейн А. В., в кн.: Итоги науки и техники. Сер. Теория вероятностей. Математическая статистика. Теоретическая кибернетика, т. 17, М., 1979, с. 3-56. А. В. Бернштейн. ПОДПРОЦЕСС (subprocess) - марковский процесс X, полученный из данного марковского процесса X сокращением времени жизни. Формально однородный П. X = (Xt, \, ,4t, Px) однородного процесса X = (Xt, £, ,^v Px) с фазовым про- ПОДПРОЦЕСС 465
странством (£, Л) и основным пространством (О, л) строится так: 1)(£, J) = (£, Ji)\ 2) Й-Ох/, /-[0, ~] и .7-а((Л, 5>*)х(*, ~], -Ае.с/, ^0); 3) £(&) = £(со, и)« = min[£(e>), и], соеО, м е /; 4) Ж£, &) =Х(£, со) при 0 ^ t < 1Ш, & = (со, и); 5) ^ = .,/х (*, оо]; 6) Рх {Л х /} = РХ(Л), Ле.< *е£; 7) Рг{£ > t\.^/} = at(co) при £(со)>£, где случайные величины at ^-измеримы, принимают значения между 0 и 1 и образуют мультипликативный функционал от процесса X (здесь a-алгебра At определяется как порожденная в {£> t) множествами {Xs e Г; t,>t}, O^s^t, Ге&). С точностью до эквивалентности все П. процесса X находятся во взаимно однозначном соответствии с такими функционалами. Переходная функция П. равна p(t, х, Г) = Ex[lr(Xt)at]. Лит.: [1] Дынкин Е.Б., Основания теории марковских процессов, М., 1959; [2] его же, Марковские процессы, М., 1963. А. А. Юшкевич. ПОДСЕТЬ (subnet) - см. Сеть мер. ПОДСТАНОВКА случайная (random permutation substitution) - см. Случайная подстановка. ПОДТВЕРЖДАЮЩИЙ АНАЛИЗ ДАННЫХ (confirmatory data analysis) - см. Разведочный статистический анализ. ПОДЧИНЕННАЯ СТАТИСТИКА (subordinate statistic) - статистика, являющаяся функцией другой, к-рой она подчинена. В частности, минимальная достаточная статистика является П. с. по отношению к любой достаточной статистике. Термин «П. о имеет довольно ограниченное употребление. А. М. Каган. ПОЙА РАСПРЕДЕЛЕНИЕ (Polya distribution) - дискретное распределение вероятностей случайной величины Хп, принимающей целочисленные значения 6 = 0, 1,2, ..., п с вероятностями Pk=P{Xn=k} = = rk b(b+c)-(fe+(fe-1)c>r(r+c>-(r+(w-fe-1>c> (<) (6+r)(6+r+c)...(6+r+(n-l)c) где целые л>0, b>0, r>0, c^ -1, или, что эквивалентно, - Ck p(p+y)-(p+(b-i)y)q(q+y)..Xq+(n-k-\)y) _ (l+Y)-(1+(n-l>y) ~ 4p/y)+k-&(q/y)+n-k-\ f ^(p/y)+n-\> KA) где целое л >0, 0<p< 1, q= \ -р, у>0. Связь между (1) и (2) устанавливается равенствами p = b/(b + r), q = r/(b + r), Y=c/(fo + r). Математич. ожидание и дисперсия П. р. равны соответственно пр и npq -——. Специальные случаи П. р.: Хп при с —0 имеет биномиальное распределение с параметрами п и ру при с= - 1 - гипергеометрическое распределение с параметрами M = b, N = b + г и п. При Ь, г -> °°, когда р = b/(b + г) постоянно, и у=с/(Ь + г) -> 0 П. р. стремится к биномиальному распределению с параметрами пир. П. р. было рассмотрено Д. Пойа (G. Polya, 1923) в связи с так наз. урновой схемой. Из урны, содержащей b черных и г красных шаров, осуществляется выбор с возвращением при условии, что каждый извлеченный шар возвращается в урну вместе с с шарами того же цвета. Если Хп - полное число черных шаров в выборке объема п, то распределение Хп задается формулами (1) или (2). Последовательность Х„, л- 1, 2, ..., представляет собой дискретный марковский процесс, причем состояния процесса определяются числом черных шаров в выборке в момент л, а условная вероятность 466 ПОДСЕТЬ перехода от состояния k в момент времени л в состояние k + 1 в момент времени л + 1 равна р {Хи+1 = k+\\Xk = k} = (b + kc)/(b + г + пс) = (р + ky)/( 1 + пу) (зависит от л). Предельным переходом из урновой схемы Пойа может быть получен процесс Пойа- неоднородный марковский процесс с непрерывным временем, принадлежащий классу процессов «чистого размножения». При условии, что за бесконечно малое время At происходит лишь одно извлечение шара, при л->°о, когда np-+t, ny-+at, выводится предельная условная вероятность перехода из состояния k в состояние k + 1 за время At: Р{Х(; + АО = k + 1|X(0 = k} = hBt-At + о(ДО. 1+otf При переходе от урновой схемы Пойа к процессу Пойа возникает важная предельная форма П. р. Именно, вероятность Pk(t) в момент времени t пребывать в состоянии k равна ""w=c^-.fc)"(i)"° "°(0)=1- Полученное предельное распределение является отрицательным биномиальным распределением с параметрами 1/а и 1/(1 + at) [соответствующее математич. ожидание равно t, a дисперсия t(\ +at)]. Урновая модель и процесс Пойа, в к-рых возникает П р. и его предельная форма, являются моделями с эффектом последействия (извлечение шара определенного цвета увеличивает вероятность извлечения шара того же цвета при следующем испытании). При стремлении параметра а к нулю процесс Пойа перехо дит в пуассоновский процесс, а И. р. имеет своим пределом распределение Пуассона с параметром t. Лит.: [1] Феллер В., Введение в теорию вероятностей и ее приложения, пер. с англ., т. 1-2, М., 1984. А. В. Прохоров. ПОЙА ТЕОРЕМА (Polya theorem) - см. Комбинаторный анализ. ПОИ А ТЕОРЕМА для неограниченных случайных блужданий (Polya theorem for unbounded random walks) - см. Многомерное случайное блуждание. ПОЙА ТЕОРИЯ ПЕРЕЧИСЛЕНИЙ (Polya theory of enumeration) - см. Комбинаторный анализ. ПОКАЗАТЕЛЬНОЕ РАСПРЕДЕЛЕНИЕ (exponential distribution), экспоненциальное расп ре деление, - непрерывное, сосредоточенное на [0, <*>) распределение вероятностей с плотностью (см. рис.) .3 . .6 .9 1.2 1.5 1.8 2.1 2.4 2.7 Плотности показательного распределения при: (1) Х = 0,5; (2) Х = 1; (ЗП = 2.
где А,>0 - параметр. Характеристич. функция f(t) = = (1 - it/A,)"1. Математич. ожидание и дисперсия равны соответственно 1/А и 1/А ; медиана 1п2/А, асимметрия Yi = 2, эксцесс У2 = 6. Пр. характеризуется свойством отсутствия последействия (марковским свойством): для того чтобы неотрицательная случайная величина X была распределена но показательному закону, необходимо и достаточно, чтобы для любых х, у>0 имело место равенство Р{Х> х + у\Х>у} = Р{Х>х}. П. р. относится к типу X семейства Пирсона распределений, является частным случаем гамма-распределения (а также Эрланга распределения и Вейбул- ла распределения). II. р. тесно связано с пуассоновским процессом: если поток событий описывается пуассоновским процессом, то промежутки времени между последовательными событиями представляют собой независимые случайные величины, имеющие П. р. Благодаря этому свойству П. р. находит широкое применение в теории массового обслуживания и в теории надежности. Дискретным аналогом П. р. является геометрическое распределение. Лит.: [lj Феллер В., Введение в теорию вероятностей и ее приложения, пер. с англ., т. 2, М., 1984. В. Г. Ушаков. ПОКОЛЕНИЙ МЕТОД (method of generations) - см. Многоэкстремальных экспериментов планирование. ПОЛЕЗНОСТЕЙ ТЕОРИЯ (utility theory) - теория, касающаяся способов описания и принципов формирования отношении предпочтения в пространствах, вообще говоря, произвольной природы. В конкретных задачах отношения предпочтения обычно увязываются с теми или иными характеристиками качества исследуемого объекта. Ниже в основном рассматриваются предпочтения в пространствах вероятностных распределений. В этом случае одна из основных задач состоит в том, чтобы одновременно учитывать как понимаемое в том или ином смысле среднее значение соответствующей случайной величины (математич. ожидание, медиана и т. п.), так и те или иные характеристики разброса значений случайной величины относительно среднего. Иными словами, следует учитывать как возможность изменения средних показателей, так и стабильность исследуемой системы. Предпосылки П. т. можно обнаружить еще у Д. Бернулли [1]. Введенное им при анализе «петербургской игры» понятие * нравственного ожидания» по существу совпадает с понятием ожидаемой полезности (см. ниже п. 4). Современная П. т. восходит к работам Дж. Неймана и О. Моргенштерна [2]. 1. Первичные понятия. Отношение предпочтения на непустом множестве М элементов произвольной природы есть нек-рое множество Тс: М . При этом говорят, что а>-Ь (а лучше Ь), если (а, Ь) еТ и Ь>:а (а не лучше Ь, или Ь не хуже а)у если (я, Ь) е Г. Ниже отношение >- считается слабым упорядочением, то есть асимметричным (аЪЬ => аЪЬ) и отрицательно транзитивным (flbfr, ЬЪс=> abc). По определению, а~Ь (а эквивалентно 6), если аЪЬ и ЬЪа. В силу асимметрии a>:b<=${ayb или а~Ь). Отношение > ~ нестрогое предпочтение, соответствующее >~. Пара {М, >:} называется полем предпочтений. Основываясь на отношении ~ , множество М можно разбить на классы эквивалентности и в пространстве А/' таких классов ввести соответствующее >- отношение у'. 2. Исчислимость. Отношение > называется исчислимым, если существует такой определенный на М функционал U, что аУЬс*1Ка)^и(Ь). Функционал U называется индикатором предпочтения или функцией иолезностей. Если U, V - два индикатора для {М, >:}, то существует строго возрастающая функция д(х) такая, что U(a) =g(V(a)). Исчислимость связана со следующим понятием. Отношение >- сепарабельно, если существует такое счетное множество Нcz М, что для любых а, ЬеМ и таких, что а>Ъу найдется элемент heH, для к-рого ayhyb. Справедлива теорема 1: отношение >: на М исчислимо тогда и только тогда, когда строгое предпочтение >-' на М' сепарабельно. Пример: отношение >- в пространстве пар чисел {(#, у)} называется лексикографическим, если {(Х, у)>-°(х{, у}) <=> Х> Хх ИЛИ Х = Х] И У>У\}\ в этом случае каждый класс эквивалентности состоит из одной точки, отношение у несепарабельно и, следовательно, неисчислимо. 3. Аффинный индикатор предпочтения. Пусть М - аффинное пространство или пространство смесей, то есть для любого числа осе [0, 1] и любых а, ЬеМ определена •«смесь» - элемент аа + (1 - a)b e M, причем 1-а+ 0-6 = а, аа + (\ -a)b = (\ -a)b + aa а(ра + (1 - p)b) + (1 - a)b = сфя + (1 - ap)fo для любого ре [0, 1]. Один из центральных результатов «линейной» П. т. представляет теорема 2: пусть выполнены следующие условия ~ Г (условие независимости) а>Ъг=> аа + (1 - a)c>rab + (l -o»)c для любых а е [0, 1 j и с е М; 2° (условие Архимеда) (ayb, byc)=>aa + (\- a)cyb, Ь>-$а + (1 - р)с для каких-либо чисел а, р е (0, 1); тогда отношение > исчислимо и среди его индикаторов найдется аффинный функционал, то есть такой функционал U, что U(aa + (1 - a)b) = aU(a) + (1 - a)U(b), (l) для любого a e [0, 1 ]. 4. Ожидаемая полезность. Пусть {X, .</} - измеримое пространство, причем a-алгебра Л содержит все одноточечные множества, и М = <?- нек-рое семейство вероятностных распределений на %. Отношение t порождает отношение предпочтения на X по правилу х>у <=> РХ>:Р„, где Рх - распределение, сосредоточенное в точке х. Семейство ^называется допустимым, если оно содержит все вырожденные распределения и замкнуто относительно образования счетных выпуклых комбинаций и условных распределений. В случае вероятностных распределений теорему 2 уточняет теорема 3: если семейство ./ допустимо, а слабое упорядочение Ь, помимо свойств Г-2°, удовлетворяет условию {Р(Л) = 1, уг<х для всех хеА}=> Р^Р, то отношение :< исчислимо и среди его индикаторов найдется аффинный функционал U(P) = ju(x)P(dx), где и - нек-рая измеримая функция на X. При сравнении вероятностных распределений фикцию и называют функцией полез ноете й, а сам функционал ПОЛЕЗНОСТЕЙ 467
U -ожидаемой полезностью (иные подходы и обсуждения см. в пп. 5, 7, 8). Теоремы 2-3 отражают так наз. ординалистский подход в П. т. Его сторонники считают, что разумно говорить лишь о сравнении рассматриваемых элементов и не приписывать им конкретные значения полезностей. При этом факт исчислимости отношения предпочтения не меняет дела, поскольку одному отношению соответствует бесчисленное множество индикаторов. В рамках указанного подхода условия теорем формулируются в терминах самих отношений, утверждение о существовании того или иного индикатора воспринимается лишь как характеризация отношения, а сам функционал не «фетишизируется». Сторонники другого - марджиналистского - подхода не исключают ситуации, когда существование функционала, «измеряющего качество» элементов, можно предполагать заранее. При этом вид функционала определяют исходя из тех или иных постулируемых свойств самого функционала. Напр., вполне возможны ситуации, когда непосредственная проверка выполнения условия аффинности (1), основанная как на качественном изучении природы явления, так и на анализе данных, может оказаться проще проверки условий Г-2°, тем более, что условие (1) допускает следующую простую интерпретацию: пусть при выборе элемента а из М возможны рандомизированные стратегии. Тогда (1) означает естественное во многих ситуациях требование на значения полезностей в случае, когда с вероятностью а выбирается стратегия, приводящая к а, и с вероятностью (1 -а) - приводящая к Ь. Последующие утверждения отражают второй из указанных подходов. 5. Условия непрерывности. Они связаны с представлением о близости полезностей при близости в том или ином смысле самих распределений. Пусть J- нек-рое семейство распределений F на числовой прямой; Ь - заданное на ./отношение предпочтения, а функционал U - индикатор отношения Ь. Ниже рассматриваются следующие условия. Условие А1: функционал U непрерывен относительно слабой сходимости распределений. Условие А 2: U(Fn) -» (7(F) при и -► °°, если F„C4) -> F(A) для любого борелевского А. Имеет место теорема 4: если семейство распределений У допустимо, а определенный на £ аффинный функционал U удовлетворяет А2, то U(F)=ju(x)F(dx). (2) Если выполнено и условие А1, то функция полезности и в (2) непрерывна. Еще более ослабляя топологию, в к-рой непрерывен функционал U, можно прийти к более определенным свойствам функции полезности в (2). Так, если ограничиться нек-рым семейством распределений с конечным математич. ожиданием, а в качестве U рассматривать аффинные функционалы, непрерывные в интегральной метрике I \F(x) -G(x)\dx, то функция полезности в (2) будет удовлетворять условию Липшица (при этом константа Липшица будет равняться норме функционала). 6. Условия иа «рост и стабильность». Ниже любое распределение F интерпретируется как распределение случайной величины будущего дохода. Такая интерпретация связана лишь с удобством рассуждений - на самом деле последующие утверждения используются в различных приложениях. 468 ПОЛЕЗНОСТЕЙ Пусть F(x) - функция распределения F. В рамках указанной интерпретации естественно вводятся следующие условия: условие В1 (условие стохастического доминирования 1-го рода): если F, Ge./и Fix) ^ G(x) для всех х, (3) то Fb G; условие В 2 («стремление к стабильности»): если F, Gejf являются симметричными распределениями с общим центром симметрии т и F(x)^G(x) при х^т, то FbG. [Распределение F симметрично с- центром т, если F(m - х) = 1 - F(m + х + 0) для всех х > 0. ] Пример. Пусть семейство £ состоит из всех нормальных распределений ФМ(У с математич. ожиданием т и дисперсией а . Тогда условия В1 - В2 сводят задачу к исследованию таких отношений предпочтения в пространстве пар (т, с ), к-рые не противоречат обычному частичному векторному упорядочению ^. При рассмотрении достаточно широких классов распределений дисперсия уже перестает быть «хорошей» характеристикой стабильности, что следует из следующего утверждения. Пусть Wp и ар - соответственно математич. ожидание и дисперсия распределения F, а функционал (7(F)=/XmF, aF), где функция /"такова, что df(x, у)/дх > 0, df(x, у)/ду < 0 (последнее естественно в свете В1 - В2). Тогда для любого распределения G найдется распределение F такое, что выполнено (3), но (7(F) < (7(G). Если верно (2) с какой-либо конкретной функцией полезности и,а/- семейство распределений, для к-рых правая часть (2) конечна, то условие В1 выполнено тогда и только тогда, когда функция полезности и не убывает, а условие В2 - тогда и только тогда, когда функция полезности и выпукла вверх. 7. Условия, связанные с «усреднением распределений». Поскольку исчислимое отношение предпочтения порождает индикатор с точностью до монотонного преобразования, естественно ослабить условие аффинности так, чтобы перейти к функционалам, аффинным с точностью до монотонного преобразования. Пусть рассматривается следующее условиеС: для любых распределений F, G таких, что (7(F) = (7(G), имеет место равенство t/((F + Q)/2) = t/((G + Q)/2) при любом распределении Q. Справедлива теорема 5: если ./- пространство всех распределений, а функционал U удовлетворяет условиям А2 В1 и С, то найдутся строго возрастающая функция z> и неубывающая функция и такие, что U(F) = v(ju(x)F(dx)y (4) Если выполнено А1, то функции v и и непрерывны. Если «полезность детерминированного дохода измеряется самим доходом», то есть (7(ЕГ) = х для всех х, (5) где Ех - распределение, сосредоточенное в х, то U(F)^u-^ju(x)F(dx)y (6) где и~ - функция, обратная и. Сужение У и введение дополнительных условий позволяют конкретизировать (4). Пример (критерий Массе). Пусть У- семейство распределений, сосредоточенных на одном и том же конечном отрезке, и и(х) =ехр{сх), где с>0. Тогда (6) перепишется в виде U(F) = Un(jccxF(dx)\
Последний критерий - единственный, удовлетворяющий условиям С, А1 и условию L4F*G) = U(F) + t/(G), где * - операция свертки. Непосредственно к математич. ожиданиям распределений приводит иная операция усреднения. Ниже символ F°G обозначает распределение случайной величины (£ + Г|)/2, где £и Т| - независимые случайные величины с распределениями F и G соответственно. Операцию ° можно назвать усреднением относительно свертки. Пусть рассматривается следующее условие D: если U(F)- (7(G), то L4F°G) = U(F). Имеет место теорема 6: пусть ./замкнуто относительно ° и для всех F е./ существует и конечно математич. ожидание wF; пусть определенный на ./ функционал U удовлетворяет условиям А1, В1 и D; тогда U(F) = v(mf), где v - пек-рая непрерывная неубывающая функция. Если выполнено (5), то в рамках последней теоремы L4F) = mF. Применение теоремы б продуктивно лишь в случае, когда множество jF«He слишком богато», напр. когда функционал wp непрерывен на У. На это указывает следствие теоремы 6: если У— множество всех распределений с конечным математич. ожиданием, а функционал U удовлетворяет условиям А1 и D, то U(F)- const. 8. Нелинейные функционалы и сравнительная полезность. Отношения предпочтения, описываемые аффинными индикаторами, составляют относительно узкий класс. Показательный пример отношения, не удовлетворяющего «условиям аффинности», дает Алле парадокс. Один из подходов к описанию более гибких, чем «аффинные», отношений предпочтения состоит в непосредственном переходе к нелинейным функционалам, напр. к формам и-го порядка: C/(F) = J... JiiGr,, ...,xn)Hdxx) ... F(dxn). (7) Одна из интерпретаций (7) состоит в следующем. Пусть соответствующий F вариант получения дохода используется независимо п раз, £,у- - случайная величина дохода, полученного в/'-й раз, и полезность последовательности детерминированных доходов (х]у ..., хп) измеряется функцией полезно-» стей и(х\, ..., хп). Тогда (7) - ожидаемая полезность последовательности (£j, ..., £Л). В частности, при ориентации на среднюю полезность u(x]t ..., хп) = (и(х^)+ ... +и(хп))/п, где u(z) - полезность детерминированного дохода г, форма (7) приводит к (2). Второй подход связан с введением на пространстве ХхХ пар (детерминированных) альтернатив (см. п. 4) функции сравнительной полезности и(хуу)> показывающей, насколько «альтернатива х лучше у». Одну из форм упорядочения на X можно задать соотношением хЪу <=> и(х, у) ^ w(y), где w - нек-рая «пороговая» функция. Одна из ее интерпретаций связана с представлением, что альтернативы различимы, если «интенсивность предпочтения превосходит нек-рый пороговый уровень». Другая, в нек-рых отношениях более важная интерпретация связана с устойчивостью выбора. В этом случае полагают w(y) = u(yt у), при этом величина и(х, у) интерпретируется как полезность замены у на ху величина и(у> у) - как полезность сохранения альтернативы у, а сама модель называется моделью относительной или условной полезности. Перенос этих понятий на случай семейства & вероятностных распределений на (X, х) (см. п. 4) состоит во введении правила PtQ^jj u(x, y)PUx)Q(dy) > j w(y)QUy) для общей модели ожидаемой сравнительной полезности и правила РУ Q <=> JJ u(xt y)Pidx)Q(dy) > JJ u(x, y)Q(dx)QUy) для модели ожидаемой относительной сравнительной полезности. Если пороговая функция w(y)=Q, то поиск вырожденного распределения, эквивалентного в вышеуказанном смысле распределению Р, связан с функцией g(y)-\ u(x} y)P(dx) средней сравнительной полезности детерминированной альтернативы у по отношению к распределению Р. Пусть, в частности, jf=.f - семейство распределений на числовой прямой (см. п. 5). Тогда решение уравнения ju(x, y)F(dx) = 0 (8) есть детерминированный доход, средняя сравнительная полезность к-рого по отношению к случайному доходу с распределением F равна нулю. Пусть семейство У допустимо (см. п. 4) и определенный на нем функционал U удовлетворяет условиям (5), Al, B1, а также следующему условию: если (7(F) = 17(G), то U((F + G)/2)=U(F) (ср. с условием С). Тогда (7(F) есть решение уравнения (8), причем функция и(х, у), непрерывная по обоим аргументам, возрастает по х и и(х, х) = 0. Лит.: [1] Bernoulli D., «Comment, acad. sci. imper. Petrop.», 1738, t. 5, p. 175-92 (англ. пер.: «Econometrica», 1954, v. 22, № l); [21 Нейман Дж., Моргенштерн О., Теория игр и экономическое поведение, пер. с англ., М., 1970; (3| Debreu G., Theory of value, N. Y. - L., 1959; [4] Фишбсрн П., Теория полезностей для принятия решений, пер. с англ., М., 1978; [5] КирутаА. Я., Рубинов A.M., Яновская Е. Б., Оптимальный выбор распределений в сложных социально-экономических задачах, Л., 1980; [6] Handbook of mathematical psychology, v. 1-3, N. Y. - L., 1963-65; [71 Al I a is M., «Econometrica», 1953, v. 21, Mb 4, p. 503-46; [8| Смоляк С. А., в сб.: Модели и методы стохастической оптимизации, М., 1983, с. 181-212. В. И. Ротарь. ПОЛЕЗНОСТЕЙ ФУНКЦИЯ (utility function) - индикатор отношения предпочтения. Точнее, пусть М - нек-рое множество элементов произвольной природы и b - заданное на М бинарное отношение предпочтения. Если существует такой определенный на М функционал U, что fl^6<=> U(a)^U(b), (l) то функционал U из (1) называется индикатором предпочтения или фу нкцией полезностей. Если U, V - два индикатора для поля предпочтений {А/, >:}, то существует строго возрастающая функция д(х) такая, что U(a)=g(V(a)). Если М - нек-рое множество вероятностных распределений на каком-либо измеримом пространстве {X, .V}, верно (1) и для любого распределения Р из М U(P) = ju(x)P(dx), (2) где и - нек-рая измеримая функция на X, то обычно П. ф. называют функцию и, а значение функционала (2) - ожидаемой полезностью (см. Полезностей теория). Понятие «П.ф.» впервые было определено Д. Бернулли (см. [1]): рассмотренное им при анализе «петербургской игры» понятие «нравственного ожидания» по существу совпадает с понятием ожидаемой полезности. Современные представления о П. ф. восходят к работам Дж. Неймана и О. Морген- штерна (см. [2]). Лит.: [1] Bernoulli D., Specimen theoriae novae de mensura sor- tis, «Comment, acad. sci. imper. Petrop.», 1738, t. 5, p. 175-92 (англ. нер.: «Econometrica», 1954, v. 22, >fe 1); [2] Нейман Дж., Моргенштерн О., Теория игр и экономическое поведение, пер. с англ., М., 1970; [3] Фишберн П., Теория полезностей для принятия решений, пер. с англ., М., 1978. В. И. Ротарь. ПОЛЕЗНОСТЕЙ 469
ПОЛЕЗНОСТЬ ПРОГНОЗА в метеорологии (efficen- cy/utility of meteorological forecast), эффективность метеорологического прогноза, - способность метеорологического прогноза обеспечивать потребителю (или нек-рой совокупности потребителей) получение определенного положительного экономического результата за счет повышения обоснованности принимаемых хозяйственных решений. В отличие от экономич. оценок единичных прогнозов П. п. является статистич. понятием, характеризующим средний выигрыш, к-рый достигается при многократном использовании соответствующей прогностич. информации. Наиболее важна так наз. потенциальная П.п., устанавливаемая в предположении, что прогноз используется оптимальным образом (см. [1]). Количественной мерой потенциальной П. п. может служить безразмерный показатель Xq={R_ -R+)/R_, где R+ и R_ средние метеорологич. потери потребителя (см. Метеорологических потерь функция), придерживающегося оптимальной стратегии соответственно при наличии прогноза и при его отсутствии. Показатель XQ всегда равен нулю для случайных прогнозов, не несущих полезной информации, и равен единице для идеальных прогнозов. Условие Я^ = 0 может иметь место и для неслучайных прогнозов, если их методич. успешность не достигает нек-рого порогового уровня, определяемого особенностями конкретной хозяйственной задачи. Таким образом, успешный в методич. отношении прогноз не всегда является хозяйственно полезным. Ввиду отсутствия однозначной связи между П. п. и его успешностью принципиально возможны ситуации, когда из двух метеорологич. прогнозов, обладающих разной успешностью, более ценным с точки зрения потребителя оказывается прогноз, успешность к-рого формально ниже. Лит.: [11 Ж у к о в с к и й Е. Е., Метеорологическая информация и экономические решения, Л., 1981; [2] Омшангкий М.А., «Журнал геофизики», 1933, т. 3, в. 4, с. 489-99; [3] Обухов А. М., «Изв. АН СССР. Сер. геофиз.», 1955, X? 4, с. 339-49; [4] Thompson J. С, в кн.: Weather forecasting and weather forecasts: models, systems and users, v. 2, Boulder (Colo.), 1976, p. 525-78. E.E. Жуковский. ПОЛИНОМИАЛЬНАЯ РЕГРЕССИЯ (polynomial recession) - см. Параболическая регрессия. ПОЛИНОМИАЛЬНАЯ СХЕМА (multinomial scheme) - схема независимых испытаний, в каждом из к-рых может появиться один и только один из k взаимоисключающих исходов Аи А2, ..., Ak, причем вероятности р^ = Р{Аг) этих исходов не зависят от номера испытания. Если п - число испытаний в П. с, то частоты Хг появлений исходов Ait i = 1, ..., k, имеют полиномиальное распределение р<*.-»..'•-' *> = ^Ev^^---^. где л, - целые числа и л1 + п2 + ... + nk = п. Лит.: [ 1 ] Севастьянов Б. А., Курс теории вероятностей и математической статистики, М., 1982. Б. А. Севастьянов. ПОЛИНОМИАЛЬНОЕ РАЗМЕЩЕНИЕ ЧАСТИЦ (mul tinomial allocation of particles) - вероятностная схема, согласно к-рой частицы размещаются но ячейкам независимо, причем вероятности попадания фиксированной частицы в 1-ю ячейку одинаковы для всех частиц. Пусть рхХрх;^0, 1=1, 2, ..., Ы, V р,-= 1) ~ вероятность попадания частицы в 1-ю ячейку. Частный случай П. р. ч., когда рг=\/М, z=l,...,7V, называется равновероятным размещением частиц. С П. р. ч. связаны случайные величины: иг = (х/и, р{у .... pN) - число ячеек, содержащих ровно г частиц; vm(fc) - наименьшее 470 ПОЛЕЗНОСТЬ число частиц, при размещении к-рых k ячеек будут содержать не менее т частиц каждая. Формулы для моментов случайных величин цг имеют простой вид; так, напр., Математич. ожидание и дисперсия величины ц(), используемой в пустых ящиков критерии, при равновероятном размещении имеют вид ' Euo = Ml-l/;vy\ Du^ = AKAm)(l-2/AO" + Euo-(Euo)2. Предельными распределениями для величин цг при п, N -+оо и определенных соотношениях между параметрами п, N, р\, ..., pN оказываются нормальное или пуассоновское распределения. Так, напр., в равновероятной схеме при п, N -> оо величина ц0 асимптотически нормальна с параметрами (Ец0, VDu0), если Ец0->«*>, Du0-><*>; величина ц0 распределена в пределе по закону Пуассона с параметром X, если EfX0 —> Л. и D(x0 —> X, при п, N->«>; величина u0-(N-n) распределена в пределе по закону Пуассона с параметром А,, если Ец0 -»ее, Duo -» A.. Исследование предельных распределений vm(k) сводится к исследованию предельных распределений ur, напр.: P{V\(k)<n} = P{\iQ(nf N)^N-k}. В качестве предельных распределений для цг(и, р\, ..., р^) могут появляться распределения, отличные от нормального и пуассоновского. Напр., для |10(и, р}, ..., pN) получено (см. [2]) предельное распределение, являющееся композицией пуассоновского и биномиального распределений. Предельные распределения для цг используются для приближенной оценки мощности различных статистич. критериев, основанных на величинах ц0, ц^ и2, ..., напр. для оценки мощности критерия пустых ящиков. Схема П. р. ч. обобщается на схему, в к-рой вводится несколько типов размещаемых частиц (см. [3]), и на схему, в к-рой вероятности Pj, i=l, 2, ..., N, зависят от номера частицы (см. [4|). Лит.: [1] Колчин В.Ф., Севастьянов Б. А., Чистяков В. П., Случайные размещения, М., 1976; [21 Чистяков В. П., «Матем. заметки», 1967, т. t, № I, с. 9-16; [3] Попова Т. Ю., «Теория вероятн. и ее примен.», 1968, т. 13, в. 3, с. 542-48; [4] Болотников Ю. В., там же, с. 534-42. В. П. Чистяков. ПОЛИНОМИАЛЬНОЕ РАСПРЕДЕЛЕНИЕ (multinomial distribution), мультиномиальное распределение,- совместное распределение вероятностей случайных величин Xj, ..., Xk, принимающих целые неотрицательные значения лр ..., nk, удовлетворяющие условию И] + ... +nk = n, с вероятностями р<*<="< **=п*>=^г^;'•••??■ (,) где Pj^Q, У р;= 1. П. р. является многомерным дискретным распределением случайного вектора (Xj, ..., Xk) такого, что Х1 + ... +Xk = n [это распределение являете^ по существу (k- 1)-мерным, так как в пространстве И? оно вырождено]. П. р. естественным образом обобщает биномиальное распределение и совпадает с последним при k = 2. Название «II. р.» объясняется тем, что вероятность (*) является общим членом разложения многочлена (полинома) (р\+ ... + /?/?)"• П. р. появляется в следующей вероятностной схеме. Каждая из случайных величин Х- есть число появлений одного из взаимоисключающих событий Л., j = 1, ..., k, при повторных независимых испытаниях. Если при каждом испытании вероятность появления события Л; равна р;, то вероятность (*) равна вероятности того, что при п испытаниях события А^ ..., Ak появятся Hf, ..., nk раз соответственно. Каждая из случайных величин Хг имеет биномиальное распределение с матемагич. ожиданием прх и дисперсией прг{\ -рг).
Случайный вектор (Xv ..., Xk) имеет математич. ожидание (пр\, ..., npk) и ковариационную матрицу В = \\Ь{:\\, где (ранг матрицы В равен k- 1 в силу того, что У_1 Я; = и). Характеристич. функция f(tv ..., £я) = (pte' ' + ...+pke h)n. ' При ?i->oo распределение вектора (у{у ..., yk) с нормированными компонентами у± = (Х- - пр{)/^пр{(\ - р{) стремится к нек-рому многомерному нормальному рапределению, а распределение суммы У. (1 ~Р()У{ (к-рая используется в математич. статистике для построения х -критерия) стремится к X -распределению с к- 1 степеням свободы. Лит.: [1) Крамер Г., Математические методы статистики, пер. с англ., 2 изд., М., 1975. А. В. Прохоров. ПОЛИНОМИАЛЬНЫЙ КОЭФФИЦИЕНТ (multinomial coefficient) - см. Биномиальный коэффициент. ПОЛИНОМИАЛЬНЫЙ ОДНОРОДНЫЙ ХАОС (poly nomjal homogeneous chaos) - см. Однородный хаос. ПОЛИСПЕКТР (polyspectrum) - см. Спектральный семиинвариант. ПОЛИСПЕКТРАЛЬНАЯ ПЛОТНОСТЬ (poiyspectral den sity) - см. Спектральный семиинвариант. ПОЛИСПЕКТРАЛЬНАЯ ФУНКЦИЯ (poiyspectral function) - см. Спектральный семиинвариант. ПОЛЛАЧЕКА - СПИТЦЕРА ТОЖДЕСТВО (Pollaczek - Spitzer identity) - см. Факторизационные тождества. ПОЛНАЯ ВАРИАЦИЯ (total variation) - см. Вариация меры. ПОЛНАЯ ГРУППА СОБЫТИЙ (partition complete set of disjoint events) - то же, что разбиение (см. также Несовместные события). ПОЛНАЯ МЕРА (complete measure) - см. Продолже ние мер. ПОЛНАЯ СТАТИСТИКА (complete statistic) - статистика, порождающая тривиальные несмещенные оценки нуля. Более точно, Т - полная статистика (ограниченно полная статистика) для семейства распределений 2Р- {Ре, 6 е 0}, если из Е0\|/(Г) = 0, в е 0 (и ограниченности у), следует, что \\f- О почти наверное Ре, в е 0. Говорят также, что & - полное семейство распределений относительно Т. Концепция полноты статистики Т оказывается полезной в том случае, когда Г - достаточная статистика. Наличие полной (ограниченно полной) достаточной статистики у семейства ^позволяет решить для этого семейства две важные статистич. задачи: 1) построить с помощью теоремы Рао - Блэкуэлла наилучшую несмещенную оценку заданной параметрич. функции, если последняя допускает какую-нибудь несмещенную оценку, и 2) описать все подобные области. Если достаточная статистика полная, то она также и минимальная достаточная статистика, так что с ее помощью выборочные данные редуцируются максимально возможным образом. Концепция П. с. принадлежит Э. Леману и Г. Шеффе [3]. Лит.: [1| Л ем а л Э., Проверка статистических гипотез, пер. с англ., 2 изд., М., 1979; [2] Lehman n E. L., Theory of point estimation, v. 1-2, N.Y., 19ЙЗ; [3] Lehman n E. L., ScheffeH., «Sankhya», 1950, v. 10, № 4, p. 305-40; 1955, v. 15, .Nb 3, p. 219-36. A. M. Каган. ПОЛНАЯ СХОДИМОСТЬ (complete convergence) - см. Сходимость вполне. ПОЛНОДОСТУПНАЯ СИСТЕМА ОБСЛУЖИВАНИЯ (fully accescible queneing system) - см. Обслуживания систем теория. ПОЛНОЕ ВЕРОЯТНОСТНОЕ ПРОСТРАНСТВО (com plete probability space) - см. Вероятностное пространство. ПОЛНОЕ СЕМЕЙСТВО РАСПРЕДЕЛЕНИЙ (complete family of distributions) - семейство распределений, для к-рого не существует нетривиальной несмещенной оценки нуля. Ограниченно П. с. р. - это семейство, для к-рого не существует нетривиальной ограниченной несмещенной оценки нуля. Если Г: (&\ Ю -> (:f, 85) - достаточная статистика для семейства распределений :f- {Р0, в е 0} на (ЗГ, И) и порождаемое ею семейство У>Т распределений на (d, 83) является П. с. р., то говорят, что if- полное семейство распределений относительно Г, а Г-полная статистика для семейства if. Для П. с. р. относительно Т в классе оценок, зависящих только от Т, существует самое большее одна несмещенная оценка заданной параметрич. функции, так что для такого семейства теорема Рао - Блэкуэлла полностью решает задачу наилучшего несмещенного оценивания. Для ограниченно П. с. р. относительно Т всякая подобная область имеет структуру Неймана, то есть ее индикатор не зависит от достаточной статистики Т (см. [1]). Грубо говоря, если размерность достаточной статистики Т равна размерности параметрич. множества 0, то J>- П. с. р. относительно Г; обычно первая размерность оказывается большей. См. также Экспоненциальное семейство распределений. Концепция П. с. р. введена Э. Леманом и Г. Шеффе |2]. Лит.: [11 Леман Э., Проверка статистических гипотез, пер. с англ., 2 изд., М., 1979; [21 Lehmann E. L., ScheffeH., «Sankhya», 1950, v. 10, № 4, p. 305-40; 1955, v. 15, >Jb 3, p. 219-36. A. M. Каган. ПОЛНОЙ ВАРИАЦИИ МЕТРИКА (total variation met ric) - простая вероятностная метрика a(X, Y) = sup{\Px(A)-PY(A)\:Aefb}, где Px - распределение вероятностей случайной величины X, принимающей значения из нек-рого сепарабельного метрического пространства (U, d), и 85 - система всех борелевских множеств из U. Важнейшие свойства П. в. м.: 1) П. в. м. является минимальной метрикой по отношению к индикаторной метрике, определенной для того же множества случайных величин. 2) Для любого измеримого отображения у: U -> U и любых случайных величин X, Y а(у(Х), у(УЖа(Х, Y), (*) причем в случае взаимно однозначного отображения у знак неравенства в (*) заменяется знаком равенства. 3) П. в. м. связана с Леей - Прохорова метрикой неравенством л<о\ 4) В случае U = №n для П. в. м. известны представления a(X, Y)^^j\d(Fx(x)~FY(x))\, где Fx - функция распределения случайной величины X; о(Х, Y) = sup{\Eg(X)-Eg(Y)\:g - непрерывна, 0^д^\); верхние оценки в терминах характеристич. функций fx случайных величин X (неравенства Берлинга) таковы: a2(X, Y)^j(\a(t)\2+\a'(t)2\)dt, a(X, Y)^j~ t\da'(t)\, rj&a(t) = fx(t)-fY(t). ПОЛНОЙ 471
Конструкция П. в. м. позволяет получать широкий набор метрик, индуцирующих различные по силе топологии. Это осуществляется за счет замены 83 менее богатой системой множеств. Напр., в случае (7 = 11? , заменяя 83 системой полупрямых [t <х:х е И? }, получают равномерную метрику. Лит.: [1| Золотарев В. М., Современная теория суммирования независимых случайных величин, М., 1986. В. М. Золотарев. ПОЛНОЙ ВЕРОЯТНОСТИ ФОРМУЛА (total probability formula) - соотношение, позволяющее вычислять безусловную вероятность события через его условные вероятности относительно событий, образующих разбиение. Точнее, пусть (CI, .<■/, P) - вероятностное пространство, А, А{ ^nG-r/ "" события, причем Л-ПЛ при i*j, i, j= 1, 2, ..., и, и P(Ak) > О для всех k. Тогда имеет место формула полной вероятности: Р0*)-^=1Р(Л|Л4)Р014). П.в.ф. верна и в том случае, когда число событий Av А2, ... бесконечно. Имеет место П. в. ф. для математич. ожиданий. Пусть Х(со), cog ft, - случайная величина на Ф, .Y, Р), ЕХ - ее математич. ожидание, a E(X\Ak) - условные математич. ожидания относительно событий Ak> образующих разбиение. Тогда EX = ZkE(X\Ak)P(Ak). я.гу_ ПОЛНОТА КЛАССА ФУНКЦИЙ по Хаусдорфу (Hausdorff completeness of a class of functions) - свойство класса функций, превращающего его в векторную алгебру и векторную решетку, замкнутую относительно равномерной сходимости. Класс функций 5» заданный на множестве X, называется полным по Хаусдорфу, если: 1) const е £; * 2) из g]t д2&<$ следует, что gi+g2&<$, 9\9г*Ъ и если д2(х) * 0 для всех х е X, то gjg2 e % 3) из ди д2^Ъ следует, что max {g\(x), д2(х)} & <$; 4) если дп е % и дп -*д равномерно на X, то д е <$. Основное свойство полных по Хаусдорфу классов определяет Хаусдорфа теорема. Лит.: [\] Хаусдорф Ф., Теория множеств, пер. с нем., М.-Л., 1937; [2] Боровков А. А., «Успехи матем. наук», 1976, т. 31, в. 2, с. 3~68. Е. А. Печерский. ПОЛНЫЙ БЕЙЕСОВСКИЙ ПОДХОД (full Bayes approach) - см. Бейесовский критерий. ПОЛНЫЙ ЕЛОЧНЫЙ ПЛАН (complete block design) - см. Дисперсионный анализ. ПОЛНЫЙ КЛАСС к ритериев (complete class of tests) - см. Статистический критерий; полный класс. ПОЛНЫЙ ЛАТИНСКИЙ КВАДРАТ (complete Latin square) - см. Латинский квадрат. ПОЛНЫЙ р-ПЛАН (complete p-design) - см. Дисперсионный анализ. ПОЛНЫЙ РАНДОМИЗИРОВАННЫЙ БЛОЧНЫЙ ПЛАН (complete randomized block design) - см. Блочный план. ПОЛНЫЙ РИСК (total risk) - см. Риск, Статистических решений теория. 472 ПОЛНОЙ ПОЛНЫЙ СТОХАСТИЧЕСКИЙ БАЗИС (complete stochastic basis) - см. Стохастический базис. ПОЛНЫЙ ФАКТОРНЫЙ ПЛАН (complete factorial design) - см. Планирование эксперимента. ПОЛНЫЙ ФАКТОРНЫЙ ЭКСПЕРИМЕНТ (complete factorial experiment) - см. Факторный эксперимент. ПОЛОЖИТЕЛЬНАЯ КОРРЕЛЯЦИЯ (positive cornla tion) - такая корреляционная зависимость между двумя случайными величинами, при к-рой рост значений одной величины приводит к увеличению условных средних значений другой. Если существует коэффициент корреляции р для данных случайных величин, то П. к. означает, что р >0. С. Я. Шор/ин. ПОЛОЖИТЕЛЬНО ОПРЕДЕЛЕННАЯ ФУНКЦИЯ (positive definite function), положительно определенное ядро, - отображение &:ЛхЛ->С (Л - непустое множество) такое, что для каждого натурального л, любого набора Я,|, ..., А,и, ^ е Л, и любого набора комплексных чисел С|, ..., сп имеет место неравенство П. о. ф. называют также функцией положительного типа, ядром положительного тина, неотрицательно определенной функцией, эрмитово го- ложительной функцией. Если Х(Х)У Хе Л, - случайная функция 2-го порядка, то Ks, t) = EX(s)J((t), s, te\, (*) является П. о. ф. Верно и обратное: каждая П. о. ф. предста- вима в виде (*) (Ароншайна - Колмогорова теорема). Другой способ получения П. о. ф. дается Шенберга теоремой (см. также Отрицательно определенная функция). Если Л - группа, то функция Х-Л —>С называется П. о. ф., если функция двух переменных (s, t) ->x(5- 0 есть По. ф. в определенном выше смысле. П. о. ф. играет важную роль в гармонич. анализе и теории вероятностей. Существуют различные обобщения этого понятия; напр., вместо комплексных П. о. ф. рассматриваются положительно определенные операторнозначные функции. Лит.: [1] ВаханияН.Н., Тарисладзе В. И., Чобанян С.А., Вероятностные распределения в банаховых пространствах, М., 19Н5; [2] Лоэв М., Теория вероятностей, пер. с англ., М., 1962; 13] Хью- иттЭ., Росс К., Абстрактный гармонический анализ, пер. с англ., т. 2, М., 1975; [4| Райков Д. А., «Тр. Матем. ин-та АН СССР», 1945, т. 14, с. 1-86; |5] Крейн М.Г., «Укр. матем. ж>, 1949, г 1, № 4, с. 64-98; 1950, т. 2, с. 10-59; [6] Stewart J., «Rockv Mountain J. Math.», 1976, v. 6, № 3, p. 403-34; [7] Sasvari Z.,* Positive definite and definable functions, В., 1994. В. И. Тарш'лаОзе. ПОЛОЖИТЕЛЬНО ОПРЕДЕЛЕННОЕ ЯДРО (positive definite kernel) - см. Положительно определенная функция. ПОЛОЖИТЕЛЬНОЕ СОСТОЯНИЕ (positive state) - см. Маркова цепь] классификация состояний, Марковский процесс со счетным множеством состояний. ПОЛОЖИТЕЛЬНЫЙ КЛАСС СОСТОЯНИЙ цени Маркова (class of positive states of a Markov chain) - см. Маркова цепь; классификация состояний. ПОЛУАДДИТИВНОСТЬ (semi-additivy) - см. Вероятностная метрика; регулярность. ПОЛУАЛГЕБРА МНОЖЕСТВ (semi algebra of sets) - см. Мера. ПОЛУВАРИАЦИЯ векторной меры (semi-variation of a vector measure) - см. Векторная мера. ПОЛУДЕТЕРМИНИРОВАННЫЙ КАНАЛ (semi-deterministic channel) - см. Широковещательный канал. ПОЛУКОЛЬЦО МНОЖЕСТВ (semi-ring of sets) - см. Мера.
ПОЛУКРУГОВОЙ ЗАКОН (semi-circular law) - предельный лакон для нормированных спектральных функций \1п(х) симметрических случайных матриц 5Л= ||^;|| с независимыми элементами £г;, i^j. Пусть для каждого значения п= 1, 2, ... случайные элементы ^ , i^j, i, j- 1, ..., п, симметрич. действительных матриц Ея=||1;1;| независимы, заданы на одном вероятностном пространстве, Е^=0, Dfcy-oV1, 0<о2<~, H„W = "",I^I F(\k-x), где Xk ~ собственные значения матрицы Stv F(y) = 1 при у < О, F(y) = Q при у>0. Тогда имеет место полукруговой закон: для того чтобы почти наверное lim y.n(x)=y.(x), где \л(х) = (2кс2У1 \D ylAc2~y2dy, D = {(-<*>, x)f)y: \y\ <2a)}, - П. з. распределения, необходимо и достаточно, чтобы выполнялось условие Линдеберга: для любого т>О „1^"",1"/иЕ1^12/7(т-|^1)=°- Мит.: 11] ГиркоВ.Л., Случайные матрицы, К., 1975. В. Л. Гирко. ПОЛУМАРКОВСКИЙ ПРОЦЕСС (semi Markov process) x(i) со значениями в измеримом фазовом пространстве состояний (X, Л) - случайный процесс, к-рый конструктивно задается процессом марковского восстановления {х„, 6П, п ^ 0} с помощью считающего процесса v(0 = max[n: хп ^ t}t хп = ^=1 в*, в виде x(0 = xv(f). При этом хп = х(хп) - вложенная цепь Маркова, хп - моменты восстановления (изменения состояний), в„ - времена пребывания в состояниях П. п. Конструктивно задаются регулярные П. п. с конечным числом восстановлений в каждом конечном временном интервале. Аналитически П. п. задается полумарковским ядром 0(х, А, 0 = Р{хл+1е/4, 8rt+1^^|x„ = ^}, xeX, АеЭГ, к-рое определяет переходные вероятности двумерной однородной цепи Маркова (х„, в„, и^О), однородной по второй компоненте. В частности, Q(x, А, +оо) = р(х, A) = P{xn+ieA\xn = x) - переходные вероятности вложенной цепи Маркова; Q(x, X, t) = Gx(t) = Р{6„+1 ^ t\xn = x) - функции распределения времен пребывания в состояниях. Если Q(x, Л, t) = P(x, A) Gx(t), то компоненты х„ и 8П процесса марковского восстановления условно независимы. В общем случае Q(x, dy, t) = Р(х, dy) Gxy(t), Gxy(t) = P{8„+1 ^ t\xn = x, x„+1 =y}. В частности, П. п. является скачкообразный (ступенчатый) марковский процесс с полумарковским ядром Q(x,A, t) = P(x,AX\-e-iix)t). П. п. можно задать компонентой линейчатого марковского процесса (x(t), y(t); t>0), у к-рого y(t) = mf{s^t:x(s)*x(t)}-t - величина перескока или оставшееся время пребывай и я. Аналитич. аппарат теории П. п. основан на уравнении марковского восстановления u(t, *)-\0\х Q(x, dy, ds)u(t-s, #)=cp(f, х) с известной правой частью ф(£, х). В частности, переходные вероятности П. п. F(t, x, А) = Р{х(0 еЛ|х(0) =х} удовлетворяют уравнению марковского восстановления с tp(t,x) = IA(x)(\-Gx(t)). Основные проблемы теории П. п.: условия регулярности, эргодичность, существования и единственности решения уравнения марковского восстановления, предельное поведение решения при Н»в схеме серий, когда полумарковское ядро зависит от параметра серий. П. п. используется при построении процессов с дискретным вмешательством случая, переключаемых процессов, случайных эволюции. П. п. служат естественными математич. моделями стоха- стич. систем со скачкообразным (мгновенным) изменением состояний во многих приложениях: в теории систем обслуживания, теории надежности, управления запасами и т.д. Лит.: [1] Гихман И.И., Скороход А. В., Теория случайных процессов, т. 2, М., 1973; [21 Королюк В. С, Турбин А. Ф., Полумарковские процессы и их приложения, К., 1976. В. С. Королюк. ПОЛУМАРКОВСКИЙ ПРОЦЕСС; время пребывания (semi-Markov process; sojourn time) в фиксированном состоянии- неотрицательная случайная величина, распределение к-рой зависит от данного состояния процесса и, возможно, следующего за данным. Для скачкообразных марковских процессов все времена пребывания имеют показательное распределение, зависящее только от данного состояния. Время пребывания в подмножестве состояний П. п. в анализе надежности стохастич. систем интерпретируется как время безотказной работы, или время восстановления, или время простоя и т. п. B.C. Королюк. ПОЛУМАРКОВСКИЙ ПРОЦЕСС принятия решений (serai-Markov decision process) - см. Управляемый полумарковский процесс. ПОЛУМАРКОВСКИЙ ПРОЦЕСС управляемый (con trolled semi-Markov process) - см. Управляемый полумарковский процесс. ПОЛУМАРКОВСКОЕ СЛУЧАЙНОЕ МНОЖЕСТВО (semi-Markov random set) - случайное замкнутое множество А, сопровождающий функционал Т к-рого обладает свойством Q(K\JK'\JC)Q(C) = Q(K{JC)Q(KVC), где Q=\-T; К, К', С ~ произвольные компакты базового пространства (см. Случайное множество) такие, что С разделяет К и К' (последнее означает, что для любых точек хеК, xf e К1 отрезок [х, х'\ пересекает С). Лит.: [1] Матер он Ж., Случайные множества и интегральная геометрия, пер. с англ., М., 1978. А. Г. Катранов. ПОЛУНЕПРЕРЫВНАЯ СВЕРХУ МОДЕЛЬ (upper semi continuous model) - см. Управляемый случайный процесс с дискретным временем. ПОЛУНЕПРЕРЫВНЫЙ ОДНОРОДНЫЙ СЛУЧАЙНЫЙ ПРОЦЕСС с независимыми приращениями (semicontinuous homogeneous random process with independent increments) - см. Случайный процесс с независимыми приращениями. ПОЛУНЕПРЕРЫВНЫЙ СВЕРХУ (СНИЗУ) БЕЗГРАНИЧНО ДЕЛИМЫЙ ПРОЦЕСС [upper (lower) semicontinuous infinitely divisible process] - см. Безгранично делимый процесс. ПОЛУПОЛЯРНОЕ МНОЖЕСТВО (semi polar set) - объединение не более чем счетного набора тонких (относительно фиксированного правого марковского процесса) множеств. Каковы бы ни были П. м. и начальное состояние процесса, это множество почти наверное посещается траекториями процесса ПОЛУПОЛЯРНОЕ 473
не более чем счетное число раз (см. [1]). Каждое полярное множество полу полярно. Лит.: [1] В 1 u mental R. M., GetoorR. К., Markov processes and potential theory, N. Y. - L., 1968. M. Г. Шур. ПОЛУПОТОК (semi-flow) - семейство {Т*\, t^O, измеримых преобразований измеримого пространства X, сохраняющих меру (X, такое, что 1) Т°х = х; 2) Tt+sx = TtT5x для всех t, s, x. Если для любой измеримой функции f(x) на X функция f(Tlx) измерима как функция от (t, x), то такой П. называется измеримым. Если же преобразования U*:f(x) -> f(T*x) образуют слабо непрерывную полугруппу операторов в L (X, |l), то П. называется непрерывным. В. И. Оселедец. ПОЛУСТОХАСТИЧЕСКАЯ МАТРИЦА (substochastic matrix) - см. Стохастическая матрица. ПОЛУУСТОЙЧИВОЕ РАСПРЕДЕЛЕНИЕ на группе (semistable distribution on a group) - см. Устойчивое распределение на группе. ПОЛУУСТОЙЧИВЫЙ ПРОЦЕСС (semistable process) - см. Автомодельный процесс. ПОЛУЭМПИРИЧЕСКАЯ ТЕОРИЯ ТУРБУЛЕНТНОСТИ (semi-empirical theory of turbulence) - теоретическое описание турбулентности по аналогии с описанием молекулярного хаоса в кинетической теории газов. Лит.:[\] Математическая физика. Энциклопедия, М., 1998, с. 454. А. С. Монин. ПОЛЬСКОЕ ПРОСТРАНСТВО (Polish space) - полное се парабельное метрическое пространство или топологическое пространство, гомеоморфное такому пространству. Примерами таких пространств являются открытые подмножества (или, более того, Gg-подмножества) полных сепарабельных метрич. пространств с индуцированной топологией, и эти примеры исчерпывают класс всех П. п. Лит.: [ 1 ] БурбакиН., Общая топология. Использование вещественных чисел в общей топологии. Функциональные пространства. Сводка результатов, пер. с франц., М., 1975. Я. Н. Вахания. ПОЛЯРНАЯ КОРРЕЛЯЦИОННАЯ ФУНКЦИЯ (polar/ signed correlation function), знаковая корреляционная функция, стационарного случайного процесса X(t) - корреляционная функция B(s\x) = Esgn X(t + x)sgnX(t) случайного процесса Xs(t) =sgnX(0, где sgn#= 1 при х^О и sgn* = -l при *<0. Аналогично этому взаимной П. к. ф. двух стационарных и стационарно связанных процессов X(t) и Y(t) называется взаимная корреляционная функция B$,(T) = EsgnX(t + T)sgny(0 случайных процессов Xs(t) -sgnX(t) и Ys(t) = sgnY(t). Так как Xs(t) принимает лишь два значения 1 или -I, то осреднение по времени t произведений Xs(t + т) Xs(t) и Xs(t + т) Ys(t), нужное для приближенной оценки П. к. ф. В (т) и В^у(х), является очень простой и легко осуществимой операцией. С другой стороны, так как для двумерного нормально распределенного случайного вектора (X, У) с ЕХ-ЕУ = 0, ЕХУ/[ЕХ2ЕУ2]1/2 = р, EsgnX sgny = 2л~ arcsinp, то в случае, когда процесс X(t) [или двумерный процесс X(t)-{X(t), Y(t)}] - гауссовский с нулевым средним значением, причем ЕХ(* + тШО = В(т), EX(t + x)Y(t) = BXY(x), B(5)(x) = 2^"1arcsin [р(х)], в£у(т) = 2я~ Vcsin [р*у(т)], 474 ПОЛУПОТОК где р(т) = Я(т)/Ж0) и рХУ(т) = ЯХУ(т)/[ЕХ2(ОЕУ2(0]1/2- нормированные корреляционные функции процессов X(t) и Х(0 = {Х(0, У(ОЬ Поэтому оценка значений П. к. ф. Bis\x) и в£у(х) может быть использована для приближенного определения значений корреляционных функции р(т) и рлу^1)- Методы оценки значений нормированных корреляционных функций по приближенным значениям П.к.ф. называются полярными (или знаковыми) методами корреляционного анализа; им посвящена большая литература (см., напр., [11-ЦО]). Если Х(0 [или {X(t), Y(t)}] - гауссовский стационарный процесс с неизвестным средним значением, наблюдающийся при O^t^T, то полярный метод оценки корреляционной функции может быть приложен к процессу X(t) - ХТ [или (X(t) - Хт, Y(t) - YT\], где Хт и У7 - средние по интервалу времени O^t^T значения Х(0 и Y(t). Полярный метод и нек-рые его модификации могут использоваться и для приближенной оценки нормированных корреляционных функций многих негауссовских случайных процессов (см., напр., [1], [8], [П]-[13]). Лит.: [1] Kedem В., Binary time series, N. Y.-Basel, 1980; [2] ГершманС. Г., Фейнберг Е. Л., «Акуст. ж.», 1955, т. 1, № 4, с. 326-38; [31 McNeil D. R., «J. Roy. Statist. Soc. Ser. B», 1967, v. 29, № 1, p. 180-95; [4[ Балл Г. А., Аппаратурный корреляционный анализ случайных процессов, М., 1968; [5] Грибанов Ю. И., ВеселоваГ. П., Андреев В. Н., Автоматические цифровые корреляторы, М., 1971; [6] Ми реки й Г. Я., Аппаратурное определение характеристик случайных процессов, 2 изд., М., 1972; [7] Жовинский В.Н., Арховск и и В. Ф., Корреляционные устройства, М., 1974; [8] Я г л ом А. М., Корреляционная теория стационарных случайных функций, Л., 1981; [9] Корн Г., Моделирование случайных процессов на аналоговых и аналого-цифровых машинах, пер. с англ., М., 1968; [10] Отнес Р., Эноксон Л., Прикладной анализ временных рядов, пер. с англ., М., 1982; [11] Vо 11 - man В.Р.Т., Kwakernaak H., «Regelungstechnik», 1961, Bd 9, S. 357-64; [12] Veltman B.P.T., van den Bos A , к кн.: Automatic and remote control. Proceeding of 2-nd Congress of the International federation of automatic control (IFAC), v. 1. L. - Munich, 1964, p. 620-27; [131 Berndt H., «IEEE Trans. Inform. Theorv», 1968, v. 14, № 6, p. 796-801. A. M. Я глох. ПОЛЯРНОЕ МНОЖЕСТВО (polar set) - множество, не достижимое ни из одного состояния марковского процесса. Точнее, пусть однородный, вообще говоря, обрывающийся марковский процесс X-(Xt, £, rft, Px), t^0, задан в фазовом пространстве (Е, эв), а почти борелевское множество (см. Потенциала теория для марковского процесса) А с: Е таково, что для него первого достижения момент после £ = 0 совпадает с £(Рг-почти наверное) при любых xgE. Тогда А называ ется полярным множеством; так же именуется и любое подмножество такого Л. Каждое П. м. автоматически является полуполярным множеством и тонким множеством. Прообразом понятия П. м. для марковского процесса служит одноименное понятие классич. теории потенциала (см. [1[). Лит.: [1] Doob J.L., Classical potential theory and its probabilistic counterpart, N. Y. - [a. o.], 1984. * M. Г. Шур. ПОЛЯРНЫЙ МЕТОД КОРРЕЛЯЦИОННОГО АНАЛИЗА (polarity coincidence method of correlation analysis) - см. Полярная корреляционная функция. ПОМЕХОУСТОЙЧИВАЯ ОЦЕНКА (robust estimator) - см. Робастная оценка. ПОМЕХОУСТОЙЧИВОСТЬ (noise immunity) - технический термин, характеризующий способность системы передачи информации противостоять искажающему действию помех. Предельно достижимую для оптимального метода передачи П. часто называют потенциальной помехоустойчивостью. В теории информации П. конкретной системы передачи информации характеризуют сообщений точностью воспроизведения и, в частности, ошибочного декодирования вероятностью переданного сообщения. В приложениях П. системы передачи информации принято также характеризовать сигнал/шум отношением.
Лит.: [1] Витерби Э. Д., ОмураД К., Принципы цифровой связи и кодирования, пер. с англ., М., 1982; [2] В озе н к рафт Д ж., Джекобе И., Теоретические основы техники связи, пер. с англ., М., 1969; J31 Харкеви ч А. А., Борьба с помехами, 2 изд., М., 1965. С. И. Гелъфанд, Р. Л. Добрушин, В. В. Прелое. ПОНИЖЕНИЕ РАЗМЕРНОСТИ (reduction of dimensionality) - см. Выделение признаков. ПОПАРНАЯ НЕЗАВИСИМОСТЬ (pairwise independence) - см. Независимость. ПОПЕРЕЧНАЯ КОРРЕЛЯЦИОННАЯ ФУНКЦИЯ (trans verse correlation function) - см. Однородное и изотропное случайное поле. ПОПОЛНЕНИЕ (completion) ~ см. Минковского операции. ПОПОЛНЕНИЕ вероятностного пространства (completion of a probability space) - см. Вероятностное про странство. ПОПОЛНЕНИЕ меры (completion of a measure) - конструктивный процесс, позволяющий расширить область определения любой наперед заданной меры и продолжить ее таким образом, чтобы продолженная мера оказалась полной, причем расширение области определения исходной меры происходит за счет всевозможных частей таких множеств, на каждом из к-рых эта мера принимает значение нуль. Пусть (X, S, ц) - пространство с мерой; S - класс частей оснонного базисного множества X, элементы к-рого имеют вид (ЛиЛ')\Л", где Л е 5, а Л' и Л" - части таких множеств N' е5 и N"eS, что ц(Лг') = ц(ЛГ') = 0. Любое множество вида (Лил')\Л" можно представить и в виде ВОВ', а также в виде С АС. 1дс BeS, CeS, а В' и С- подмножества таких множеств N'" е5и N"" е 5, что \i(N'") -\i(N"") = 0. Класс S частей основного базисного множества X представляет собой а-кольцо, содержащее в себе исходное а-кольцо S. На а-колfane 5 с помощью равенства Д[(ЛиЛ')\Л"] = р.(Л) корректным образом определяется действительнозначный функционал р, представляющий собой полную меру, к-рая является продолжением исходной меры |i. Полнота меры ji заключается в том, что соотношение У е 5&(х(У) =0&Z с У всегда влечет за собой соотношение Ze5&p(Z)-0. Мера Ц называется пополнением меры (X, а описанный выше процесс называется стандартным процессом пополнения меры (X. Напр., классич. меру Лебега / можно рассматривать как П. классич. борелевской меры Ъ. В частности, если обозначить через & класс всех борелевских множеств на действительной прямой, а через #- класс всех измеримых в смысле Лебега множеств на этой прямой, то, воспользовавшись введенными выше обозначениями, можно написать зв = Уи b~l. См. также Продолжение мер. Лит.: [1] Халмош П., Теория меры, пер. с англ., М., 1953; [2J Неве Ж., Математические основы теории вероятностей, пер. с франц.. М., 1969. Г. В. Нижарадзе. ПОПРАВКА НА НЕПРЕРЫВНОСТЬ (correction for continuity) - постоянная с = 0,5, используемая для улучшения нормальной аппроксимации биномиального распределения. Пусть Хп - случайная величина, подчиняющаяся биномиальному распределению с параметрами пир (0<р< 1). Если р = const и п->°о, то, согласно теореме Муавра - Лапласа, биномиальное распределение случайной величины Хп будет аппроксимироваться нормальным распределением Р{Х„ <*} = = Х*=ос«'/(1-',г"*=ф -пр+с 4щМ~р)\ ■4iJ (1) где с - произвольная постоянная. Случайная величина п-Хп тоже подчиняется биномиальному распределению, но с параметрами пи 1 -р, причем Р{Х„^х] + Р{п-Хп^п-х-\} = \, откуда в силу (1) Ф -пр+с \_^пр(\-р) J + ф х-пр+([-с) *Jnp(\-pj J «1. (2) Учитывая, что при всех действительных значениях z верно тождество Ф(г) + Ф(-г) = 1, представляется естественным выбирать константу с так, чтобы равенство (2) было не приближенным, а точным, то есть из условия Ф х-пр+с ^пр(\-р) J -ф х-пр+(\-с) yjnp(\-p) J Постоянная с 0, из к-рого следует, что с = 0,5. Постоянная с = 0,5 в формуле (1) и называется в математич. статистике поправкой на непрерывность аппроксимирующей функции нормального распределения Ф, а иногда - Йейтса поправкой на непрерывность аппроксимирующего распределения. Лит.: [1] Крамер Г., Математические методы статистики, пер. с англ., 2 изд., М., 1975; [2] Джонсон Н., Лион Ф., Статистика и планирование эксперимента в технике и науке, пер, с англ., 2 изд., т. 1-2, М, 1980-81. М. С. Никулин. ПОПУЛЯЦИОННОЙ ГЕНЕТИКИ РАСПРЕДЕЛЕНИЯ ВЕРОЯТНОСТЕЙ (probability distributions of populational genetics) - распределения вероятностей, используемые для изучения генетического строения и динамики генетического состава популяций. Основная концепция классич. генетики - ген - была введена Г. Менделем (G. Mendel) (под названием «константный признак», 1865) с целью объяснения наблюдаемой статистики наследования. В опытах с растениями гороха Г. Мендель скрещивал, в частности, желтые (ж.) с зелеными (з.) (имеется в виду окраска бобов). Все потомки первого поколения были желтыми, а при их скрещивании между собой возникало поколение с расщеплением признака ж.: з. » 3:1. Исходные желтые не расщеплялись при скрещивании между собой, зеленые не расщеплялись никогда (чистые линии). Г. Мендель предположил, что существуют два родственных (аллеальных) гена Л, а и каждое растение несет в себе либо пару Аа (гетерозигота), либо АА, либо аа (гомозиготы). Наличие хотя бы одного Л дает желтую окраску, отсутствие Л - зеленую (Л-доминантный аллель, а- рецессивный). При скрещивании родительские особи отдают потомку один из двух своих генов с вероятностью 1/2. Наблюдаемая картина соответствует коммутативной алгебре с таблицей умножения: АА^АА-ААу ААхаа=Аа, АА хАа = АА/2 + Аа/2, аахаа = аа, аахАа = аа/2 + Аа/2, АахАа- АА/4 + аа/4 + Аа/2. Статистич. закономерности наследования проявляются в достаточно больших совокупностях организмов, допускающих скрещивание друг с другом и, следовательно, относящихся к одному биологич. виду. Такие совокупности называются популяциями. В популяции возможны различные системы скрещивания. Простейшая из них - панмиксия, характеризующаяся статистич. независимостью партнеров. Типичные отклонения от панмиксии: инбридинг (предпочтение род- ПОПУЛЯЦИОННОЙ 475
ственников), ассортивное с к рещивание (предпочтение по тем или иным индивидуальным признакам). Ниже, если не оговорено противное, предполагается, что популяция панмиксна и бесконечна. Если в популяции нек-рый признак (фенотип) контролируется парой аллельных генов А, а и в нек-ром поколении генотипы АА, аа, Аа представлены с вероятностями хи х2, х3> то в следующем поколении их вероятности будут x\-j?, -*2~<72> хз=^РЯ (гДе р = х]+х3/2, q = x2 + x3/2) - вероятности генов в родительском поколении (закон Харди - Вайнберга). Распределение (р , q , 2pq) остается неизменным в последующих поколениях (принцип стационарности), согласно закону сох ранения генов: р'=р, q' = q- Предполагается, что гены не гибнут и не рождаются, не мутируют друг в друга и по данному признаку не происходит отбора. Закон Харди - Вайнберга включается в семейство распределений, для к-рых верен принцип стационарности: x{ = p2 + 2apq, X2 = q2 + 2$pq, x^-2ypq, (1) где р = хх + ах3, q-x2 + bx3> параметры а, Р, у, а, Ь неотрицательны и связаны соотношениями а + Ь=\, а + ау=$ + Ьу = 1/2. Для формул (1) существует генетич. модель. К ним также приводят нек-рые нарушения панмиксии. Напр., при а-Ь- 1/2, а=р= 1/2/, у- 1 -/"получаются формулы Райта для инбридинга с коэффициентом /". Естественный отбор, мутация и наследование являются основными факторами эволюции согласно классич. синтетической теории, соединяющей популяционную генетику с дарвинизмом. Селективные различия между генотипами АА, аа, Аа характеризуются коэффициентами приспособленности Х^} Х2, Х3. Отбор формально описывается как бейесовская процедура, в к-рой «гипотезы» соответствуют генотипам потомков. Их априорные вероятности равны р , q , 2pq, апостериорные - x{ = X]P2/W, x^ = X2q2/W, x$ = 2\3pq/W, где W=X^p + X2q + 2X3pq - средняя приспособленность популяции. Вероятности генов в следующем поколении описываются уравнениями Фишера p' = p(XiP + X3q)/W, q^qiXtf + X^/W. (2) При исключении селективно нейтрального случая Х^ = Х2 = Х3 и при предположении, что А^О, Х2>0, получаются три равновесных (pr-p, q'-q) распределения: (1, 0), (0, 1) - гомозиготные и (/?*, q*): р* = а2-Я.3)/(Я.1 + Х2- 2Х3У, q* = а, - Х3)/(Х^ +Х2-2Х3) - гетерозиготное, или полиморфное, к-рое существует при условии, что гетерозигота приспособлена лучше обеих гомозигот, то есть А3>тах (А1( Х2) (гетерозис), или хуже, то есть A3<min(A.1, X2) (дизрупция). Равновесный полиморфизм (p*t q*) при гетерозисе (и только в этом случае) устойчив для динамич. системы (2), причем ее траектории [итерации отображения (2)] сходятся к (/?*, q*) (стабилизирующий отбор), если в начале р>0, q>0. В случае дизрупции каждая траектория [отличная от равновесия (/?*, q*)] сходится к тому из гомозиготных распределений, к-рое ближе к начальному. В остальных случаях имеет место сходимость к более приспособленному гомозиготному распределению (направленный отбор, результатом к-рого является фиксация аллеля). В процессе отбора средняя приспособленность популяции возрастает (фундаментальная теорема Фишера). 476 ПОПУЛЯЦИОННОЙ Если А мутирует вас вероятностью т, а обратная мутация происходит с вероятностью а (в каждом поколении) ит, о достаточно малы (обычно а « т « 1), то распределение генотипов в популяции стремится к равновесному. Напр., при а = 0, 0<т« 1 и Х\ = Х3>Х2 (доминирование лучше приспособленного аллеля А) в пределе устанавливается полимор- физм с вероятностью рецессивного аллеля q* « \т(1 - s)~ , где s = X2X] (формула Холдейна). В процессе развития генетики феноменологич. концепция гена постепенно наполнялась реальным содержанием. Согласно современным представлениям, ген - это участок линейной молекулы нуклеиновой кислоты (ДНК или РНК), выделенной пунктуационно и, благодаря этому, функционально. Его наличие детерминирует синтез определенного белка (фермента, катализирующего то или иное звено биохимич. реакций в организме), благодаря чему совокупность признаков организма (полный фенотип) определяется набором его генов (полным генотипом) при фиксированных условиях внешней среды. Полный генотип представлен в ядре каждой соматической (неполовой) клетки организма, при этом гены локализованы в хромосомах. Последние формально можно представлять себе как прямолинейные отрезки, разделенные на участки - л о кусы, каждый из к-рых заполняется одним из семейства родственных (аллельных) генов (их может быть больше двух). Для данного биологич. вида существует определенный гаплоидный набор морфологически различных (не гомологичных) хромосом. В гомологичных хромосомах локусы соответственно отождествляются, после чего аллельные гены оказываются принадлежащими одному локусу. В простейшем случае каждая соматич. клетка (зигота) диплоидна, то есть содержит два гаплоидных набора хромосом, в то время как половые клетки (гаметы) гаплоидны. Это естественно, поскольку они образуются из зигот путем такого деления (мейоза), при к-ром каждые две гомологичные хромосомы независимо от остальных расходятся по дочерним гаметам. Гены, локализованные в одной хромосоме, называются сцепленными. Сцепление может нарушаться в мейозе, если случится кросс и н го вер, то есть разрыв гомологичных хромосом в идентичных местах и последующий обмен соответствующими участками. Напр., если в одной хромосоме . сцеплены гены Л, В, а в гомологичной ей - их аллели а, Ь, то при кроссинговере между данными локусами возникает новое сцепление: А Ь, аВ, то есть произойдет рекомбинация. Это простой кроссинговер. При одновременном разрыве в х местах говорят об i-kратном кроссинговере. Если вероятность i-кратного кроссинговера между двумя данными локусами равна rit то вероятность рекомбинации равна г = УТ_П ?2k+\ • Если го ^ Г\ ^ 7*2 ^ • • • (ro ~ вероятность того, что никакой кроссинговер не случится), то г^ 1/2. Генетическое расстояние между локусами измеряется матема- тич. ожиданием Х = У\°° гг{. Для распределения Пуассона г=(\-е~ )/2 (формула Холдей на). С экспериментальными данными лучше согласуется формула Косамби r-th2X/2. Эти формулы используются при построении генетич. карт, на к-рых изображается расположение генов в хромосомах. Признак, определяемый аллельными генами, называется простым. Напр., окраска бобов гороха - простой диаллель- ный признак; группы крови I—IV - простой триал дельный признак; резус-фактор - простой восьмиаллельный признак. В полиаллельной ситуации закон Харди - Вайнберга принимает вид х{( = р( , x{k - 2p{pk, i < k, где р{ - вероятность гена Л,; xik, x(k - вероятности генотипов AjAk, i^k, у родителей и потомков соответственно; р1 = xh; + ^-V. . xik, xki = xjk. Прин-
ции стационарности имеет место как для закона Харди - Вайнберга, так и для нек-рого объемлющего семейства распределений. Все стационарные полиаллельные распределения описаны и интерпретированы генетически. Среди них - кадрил ьный закон Берн штейн a: x\ = pxq^ *г = Р\Цъ ХЪ=РЯ\* *Л=Р2<12* гДе Р\=х\+Х2> Р2 = х3 + Х4> Ч\=х\+Х3> с/2 = л2 + х4- Его естественная интерпретация такова: имеются два мужских гена Av Л2 и два женских гена Bv B2, генотип каждой зиготы состоит из двух разнополых генов. Уравнения Фишера для генных вероятностей в ситуации т аллелей А< , Ат имеют вид p^pW/W, \^г^т, (3) где W} = V \kPk> \k ~~ коэффициент приспособленности генотипа -А^А^А^, W = ^.plWi^.ikXi^ipk - средняя приспособленность популяции ( Wt в этом подтексте есть средняя приспособленность аллеля Л{). Множество Е равновесных распределений в симплексе р{ ^ О, 1 ^ i ^ т, V. рх-,- 1, является объединением пересечений симплекса с нек-рыми плоскостями. Оно содержит все вершины симплекса (гомозиготные распределения). Если Е конечно, то |е|^2'"-1. Для этого достаточно, чтобы в матрице Л= flA^U^i все главные миноры были отличны от нуля. Равновесное распределение (pj)*1 называется полным полиморфизмом, если все р* > 0. Пусть Лу, \^i^m,~ матрица, получающаяся из Л заменой элементов i-io столбца единицами. Распределения />* = detA,/]£ detAfr, X^i^m, если det Л * 0 и эти формулы действительно определяют равновесный полный полиморфизм в том и только в том случае, когда sign (detЛ,) = sign (detЛ), \^i^?n. (4) Для отображения (3) имеет место неравенство W'^ W + — а2, где \i- -maxXik, t,k 4ц Oz - дисперсия средней приспособленности аллелей, то есть ■wr IV' "> IV для неравновесных распределений (фундаментальная теорема). Каждая траектория динамич. системы (3) сходится к нек-рому равновесному распределению с оценкой 0(и '") (п - число поколений) в общем случае и экспоненциально быстро при нек-рых дополнительных предположениях. Если выполнено условие (4), detA^O и квадратичная форма VV имеет положительный индекс \t — 1, то все траектории, начинающиеся внутри симплекса, сходятся к равновесному полному полиморфизму (экспоненциально быстро). В полилокусной ситуации (то есть для сложных признаков) к описанным выше механизмам добавляются рекомбинации. Статистика кроссинговеров на множестве локусов L = {1, ..., /} формализуется распределением сцеп л е ния, то есть распределением вероятностей r(U\V) на множестве всевозможных разбиений (/| V множества L. В случае попарно независимых локусов г (U\ V) = (1/2) для всех U\v. Ниже предполагается, что для каждой пары локусов i, j существует разделяющее их разбиение и\ V такое, что r(ll\ V) > 0 (отсутствие жестко сцепленных локусов). Пусть аллели г'-го локуса обозначены через а\, ..., а\п , тг^2. Тогда существует mx...mi гамет 9~Т\к < iа}-' 1 ^/j^mj. На множество Г всех гамет натягивается симплекс формальных выпуклых комбинаций А(г) = {G| Z,er "(^ (^)>0- 9 е D, 2^ р(д) = l}. то есть А(Г) - множество всех вероятностных распределений на Г. Для каждой гаметы д и каждого разбиения U \ V определены субгаметы 0С' = П»е1/*/,'^ = 1ЪеУ ?/V °тобРаже- ния gy-*g\]i g^>9v продолжаются на А(Г) по линейности. В этих терминах рекомбинационный процесс описывается уравнением G' = r(L)G + YdvW^r(U\V)GLrGv, где L=L\0. Равновесные распределения характеризуются статистич. независимостью локусов (несмотря на их физич. сцепление), то есть соотношениями (вероятность аллеля aj определяется как сумма вероятностей всех содержащих его гамет). Каждая траектория рекомбина- ционного процесса сходится к соответствующему равновесному состоянию. Оно определяется начальными генными вероятностями, ввиду сохранения последних в ходе процесса. Энтропия распределения в рекомбинационном процессе строго возрастает (Я-т ео р е м а). Скорость сходимости процесса экспоненциальна. Действие отбора на полилокусную систему определяется коэффициентами приспособленности Х(д, h) = X(h, g), д, ЛеГ. Средняя приспособленность гаметы д есть Wg(p)^hX(g,h)P(h). Средняя приспособленность всей популяции: динамич. уравнения: "Хд) = ^(i) {pW>> + lu,™ r(U\V)DulVg(P)}, (5) где *u\v* DV\V\9(P) = = Хл №9vhv> hugv)p(gvhv)p(hugv) -X(g, h)p(g)pih)}. Если коэффициенты приспособленности удовлетворяют уравнению Ш, gvhv) + X(k, hLrgv) = Ш, д) + Ш, И), (6) то справедлива фундаментальная теорема: W(p')^W(p), причем равенство имеет место для распределений, равновесных относительно входящего в (5) фише- ровского отображения p\-+p(g)Wg(p)/W(p), и только для них. Уравнению (6) удовлетворяет аддитивный отбор: Х(д, Л) = У. Ц^, Л;), где gif h{ - гены t'-ro локуса в гаметах д, /г. Это общий вид решений уравнения (6), подчиненных требованию рекомбинационной инвариантности: X(gL,hv, hLgv) = X(g, h). При аддитивном отборе все траектории сходятся благодаря фундаментальной теореме и Я-теоре- ме на множестве фишеровских равновесных распределений. Аддитивное действие достаточно большого числа независимых локусов приводит к формированию (в пределе) нормально распределенного коэффициента приспособленности. Это пример количественного признака (другие примеры: рост, вес). Выше предполагалось, что рассматриваемые гены не связаны с половой дифференциацией (аутосомны). В действительности среди хромосом в зиготе имеются две половые, а ПОПУЛЯЦИОННОЙ 477
именно: две Х-хромосомы у самок и Х-хромосома в комбинации с У-хромосомой у самцов. Динамика рекомбинационного процесса в половых локусах качественно такая же, как в аутосомном случае, действие отбора исследовано лишь для одного диаллельного Х-локуса. Реальные популяции конечны и бывают не очень большими. Изучая их эволюцию, необходимо учитывать случайные флуктуации генных частот (генный дрейф), то есть использовать теорию случайных процессов. В простейшей модели аутосомного локуса с двумя аллелями А, а предполагается, что: 1) популяция гаплоидна; ее численность во всех поколениях равна N\ 2) генофонд каждого индивида бесконечен и содержит аллели с вероятностями, пропорциональными их численностям в данном поколении. Тогда вероятность получения k экземпляров гена а в следующем поколении при условии, что их было; в предыдущем, равна Pkj = Ck(j/N)k(\ -j/N)N~k, 0<k,j<N. Эта цепь Маркова имеет ровно два поглощающих состояния: /г = 0, k = N. Популяция стремится к гомозиготности (точнее, к гомогенности) с предельными вероятностями 1 -j/N, j/N для состояний /г = 0, N при начальном состоянии j. Скорость стремления экспоненциальна и определяется спектральным радиусом матрицы ||pk]\\k 7 j. Он равен \-\/N; вообще же спектр этой матрицы есть XN k = ЛГ AN, 2 ^ k ^ N,- формула Феллера. Предельная (при N-><») диффузионная модель, в к-рой дискретная случайная величина j/N заменяется непрерывной (со значениями в [0, 1]), описывается уравнением Колмогорова (Фоккера - Планка) для плотности вероятности ф(#, t): Эср(*, О 1 э2 {*(1-*)ф(*, 0} (7) dt 2N дх2 (единицей времени служит средняя продолжительность жизни одного поколения - от рождения до момента репродукции). Из (7) получается так наз. формула К и муры для плотности ф(.г, t; у) при начальном распределении Ъ(х-у): ф(.г, t\ у)=у(\ -у)^° т(т + l)(2w+ l)x xF(\-m, т + 2, 2, y)F(\-m, w + 2, 2, х) exp (-т(т + \)t/2N), где F - гипергеометрич. функция. Генный дрейф в конечных популяциях приводит к случайным вариациям равновесных вероятностней. Общая формула Райта для плотности распределения равновесной вероятности аллеля а имеет вид e(<?) = q(\-q) exp 2NJ At? q(\-q) " dqV С — const, (8) где Aq - систематич. смещение вероятности (под действием отбора, мутаций и т. д.), N - численность гаплоидной популяции. Напр., если действует только отбор, то 6q-. и из (8) следует q(\-q) dW 2W dq e(q) = CWN/q(\-q). Неинтегрируемость функции в на [0, 1] возникает за счет того, что (8) является континуальной аппроксимацией (при N->°°) фактич. дискретного распределения со значениями qk = k/N, \^k^N - \. Крайние значения q = 0\ 1 исключаются, то есть речь идет об условных распределениях для гетерогенных состояний. 478 ПОПУЛЯЦИОННОЙ Для чисто мутационного процесса Aq = х(1 - q) - aq и Q(q)- В(а,Р) ^а,(1-^ где a = 2Nx, p = 2Na, B(a, (3) - бета-функция. При совместном действии мутаций и отбора можно считать, что систематич. давления этих факторов складываются и, соответственно, е(<?) = с^н(1-/ (эффект расходимости снимается мутационным процессом, препятствующим стремлению к гомогенности). Выдвинутая в конце 60-х гг. М. Кимурой нейтралистская теория эволюции (на молекулярном уровне) исходит из определяющей роли генного дрейфа, в результате к-рого в популяции происходит фиксация большого числа селективно нейтральных мутаций: однажды возникший селективно нейтральный мутантный аллель распространяется по всей популяции с вероятностью \/N. Если же он имеет селективное преимущество над диким аллелем, то вероятность его фиксации будет больше \/N. В одной из моделей такого рода, предложенной Кимурой, вероятность фиксации равна — jfexp (-Blx + B2x(\-x))dx\ , где Вх =2Npt, B2 = 2N$2 ~ константы, f},, p2 зависят от интенсивности отбора. Судьба единичного мутанта может изучаться методами теории ветвящихся процессов. В частности, классич. процесс Гальтона - Ватсона можно интерпретировать как распространение мутантов в бесконечной гаплоидной популяции. Если iPk)o ~ распределение числа потомков мутантного индивида, P(z) = Y~ п Pkz ~ производящая функция, то распределение числа потомков в п-м поколении дается п-й итерацией P„(z) = P(P„_1(z)). Если среднее число потомков k -P{\) не превосходит 1, то мутантная линия вымирает. Если же k > 1, то вероятность вымирания равна единственному заключенному в (0, 1) корню уравнения £ = Р(£). Вероятность £„ вымирания не позднее п-го поколения определяется итерациями ^w — i3(^„_1), ^0 = 0, сходящимися к £ (экспоненциально при k < 1 и со степенной скоростью при /г = 1). Для мутанта с небольшим селективным преимуществом распределение числа потомков хорошо аппроксимируется пуассоновским с параметром k> 1; тогда £ = exp(fc(£- 1)). Лит.: [1] КимураМ., Молекулярная эволюция: теория нейтральности, пер. с англ., М., 1985; [2] Ли Ч., Введение в популяционную генетику, пер. с англ., М., 1978; [3] Любич Ю. И., Математические структуры в популяционной генетике, К., 1983; [4] Моран П., Статистические процессы эволюционной теории, пер. с ашл,, М., 1973. Ю. И. Любич. ПОРОГОВАЯ МОДЕЛЬ (threshold model) случайного процесса, пороговый процесс авторегрессии, пороговая модель временного ряда,-нелинейная модель случайного процесса Xt с дискретным временем t = 0, ±1, ±2, ..., задаваемая линейным уравнением (связывающим значения Xt со значениями последовательности независимых одинаково распределенных случайных величии et) таким, что его коэффициенты скачкообразно меняются при пересечении значениями Xt в один или несколько моментов времени нек-рого «порога» (или «порогов»). Простейший пример П. м. случайного процесса задается уравнением X, = a{x)Xt_x +bU)et при Х,_, <с, при X,_t ^c, (1)
где Е(> = 0, Ее{ = \, a aU\ а(2\ Ьи), Ь{2) и с - нек-рые постоянные; такая модель была впервые рассмотрена в 1977 X. "Гонгом в связи с исследованием конкретной задачи стати- стич. гидрологии (см., напр., [1], [2]). Естественным обобщением модели (1) является П. м. случайного процесса, задаваемая уравнением вида Xt = afxt.y + ... + afxt-k + bi\ (2) при (*,_,, .... AVfe)etf(0, i=l, ..., /, где tf(1), ..., R(l) - нек-рые непересекающиеся /г-мерные области, заполняющие все k-мерное пространство векторов (Xt..]t ..., Xt_k). Уравнения вида (2) задают также и многомерные П. м. случайных процессов, но здесь уже {Xt} - это последовательность «-мерных случайных векторов, {et} - последовательность независимых (друг от друга и от векторов Xs при s<t), одинаково распределенных «-мерных случайных векторов с нулевым вектором средних значений и заданной ковариационной матрицей, aj а^ и Ь - нек-рые (их я)-матрицы, a R , ..., R - области я/г-мерного пространства векторов (Х^, ..., Xt_k). Имеются и более общие примеры П. м. случайных процессов (см., напр., [2]). П.м. случайного процесса вида (2), где 6 = ... = Ь , может рассматриваться как кусочно линейная аппроксимация общего нелинейной авторегрессии процесса, задаваемого уравнением вида x^fvc-t *«-») + «*„ где /"(.г1 хь) - функция k переменных, допускающая линейную аппроксимацию в пределах каждой из областей R , i=1, ..., /. Такого рода кусочно линейную аппроксимацию часто используют в нелинейной механике, с к-рой теория П.м. случайных процессов имеет много точек соприкосновения. П. м. случайного процесса применяется в широком круге разнообразных прикладных проблем (см. [2]). Рассматривались статистич. задачи теории П. м. случайных процессов (см., напр., [1]-[3]). Лит.: [11 Priestley M. В., Spectral analysis and time series, v. 2, L., 1981; [21 Tong H.T Threshold models in non-linear time series analysis, N.Y., 1983; 131 ChanW.S., Tong H., «J. Forecasting», 1986, v. 5, Nb 4, p. 217-28. A. M. Ягло.ч. ПОРОГОВАЯ ТОЧКА (breakdown point) - см. Робастная оценка. ПОРОГОВЫЙ ПРОЦЕСС АВТОРЕГРЕССИИ (threshold autoregressive process) - см. Пороговая модель случайного процесса. ПОРОЖДАЮЩИЙ ФУНКЦИОНАЛ непрерывной сверточной полугруппы мер (generating functional of a convolution semigroup of measures) - линейный функционал А на пространстве D(G) всех бесконечно дифференцируемых функций f с компактным носителем на локально компактной группе G, заданный iiq правилу Af:= limlff f(x)iLt(dx)-f(e)\ t-+0 t \.JG J где {и,,, t^O) - нек-рая непрерывная сверточная полугруппа мер на группе G. Функционал А можно однозначно продолжить на пространство 8(G) регулярных функций, то есть таких непрерывных ограниченных функций д, что fg e D(G) для любой fe D(G). П. ф. А однозначно определяет непрерывную сверточную полугруппу {и^, t^O). С помощью П.ф. можно описать сходимость в классе непрерывных сверточных полугрупп. Пусть \it и ц("\ t^\,- непрерывные сверточные полугруппы с П.ф. Л и Ап. Последовательность ц1^ слабо сходится к ц, при и->«> для любого фиксированного t^O тогда и только тогда, когда Aj^Af при и->°о для любой /е «(G) (см. [l]-[3]). Аналогом классич. результата о сопровождающих безгранично делимых законах является следующее утверждение. Пусть v„ - последовательность вероятностных мер на группе G, kn - последовательность целых положительных чисел, кп^°о, {\it, t^O) - непрерывная сверточная полугруппа с П. ф. А. Тогда следующие утверждения эквивалентны: \)vnn ->\it, t^O (сходимость дискретных полугрупп); 2) exp [tkn(vn-be)] ->u,, t^O (сходимость сопровождающих законов); 3) kn(vn-be) ->Л на P(G) (сходимость П. ф.). Этот результат является ключевым при описании притяжения областей устойчивых распределений на группах, позволяя сводить предельные теоремы для распределений вероятностей на группах к аналогичным задачам на соответствующих алгебрах Ли, то есть конечномерных векторных пространствах (см. [2]-[4]). Лит.: [11 Hazod W., «Теория вероятн. и ее применен.», 1995, т. 40, в. 4, с. 929-34; [21 Siebert E., «Adv. Math.», 1981, v. 39, p. 111-54; [31 Khokhlov Yu.S., in: Probability measures on groups X, N.Y., 1991, p. 239-47; [4] HazodW., Schef- f ler H.-P., «J. Theor. Probab.», 1993, v. 6, № 1, p. 175-86. Ю. С. Хохлов. ПОРЯДКОВАЯ ПЕРЕМЕННАЯ (ordinal variable) - см. Предиктант. ПОРЯДКОВАЯ СТАТИСТИКА (order statistic) - статистика Х(г), 1 ^r^n, определяемая как r-й член вариационного ряда X(j) ^ ... <Х(Г), построенного по выборке {Х{}"=]. Если величины Xt независимы и имеют общую функцию распределения F, то Fr(x) = P{XM<x} = = Х;=гС^(*)(1-Я*))"-' = /Ях)(г, и-г+1), где Iy(a, b)=J^e"4l-Ob"WB(e, Ь) - неполная бета-функция. Совместная функция распределения Frs П. с. Х(г) и Х(?) при r<s вычисляется по формуле f (r z/) = Y" Yn~l п] х гг5\л, у; ^. = r Zrf; = max(0,s-i) i\j\(n-i-j)\ xF,W(F(?/)e-F(^))>(l-F(?/))"-i->, -oc<x<y<oct и Frs(x, y) = Fs(y), если х^у. В асимптотич. теории при неограниченном увеличении объема выборки рассматривают П. с. с номерами г=г(и) такими, что существует lim г(и)/и = а, 0^а^1. Случаю 0<а<1 со- ответствуют центральные П.с, ао = 0иа=1 - крайние П. с. Центральные П. с. обычно асимптотически нормальны. Крайние П. с. обладают специфич. предельными распределениями. Напр., для независимых Xit t=l, 2, ..., с общей функцией распределения F при надлежащем выборе центрирующих и нормирующих последовательностей ап и bn, п-\, 2, ..., невырожденным предельным для величин (X^-an)/bn может быть только распределение одного из следующих трех типов: Аг(х) = ехр {-*~Ч, если х>0, и А^(х) = 0, если х^0\ А2(х) = exp {-(-x)^}t если х ^ 0, и Л2(*) = 1, если х > 0; Л3(*) = ехр {-ехр (-*)}, -oo<j:<oo) где параметр Р > 0. Б. В. Гнеденко получил необходимые и достаточные условия принадлежности F области притяжения предельного закона Л,-, l^t<3. В частности, F принадлежит области притяжения А] тогда и только тогда, когда функция 1 - F(x) правильно меняется при #->°о с показателем р, и F принадлежит области притяжения Л2 тогда и только тогда, когда ПОРЯДКОВАЯ 479
правильно меняется с показателем (3 при х -> + 0 функция 1 -F(x0-x)> где х0 - точная верхняя граница носителя распределения F. П. с. и функции от них используют для построения непара- метрич. доверительных и толерантных интервалов, получения «быстрых» и робастных оценок, при обработке цензурирован- ных данных, для выявления резко выделяющихся наблюдений и т. д. Наиболее простыми и часто используемыми функциями П. с. являются линейные комбинации П. с. Лит.: [\\ Большев Л.Н., См и рн о в Н. В., Таблицы математической статистики, 3 изд., М., 1983; [2] Дэйвид Г., Порядковые статистики, мер. с англ., М., 1979; [3] Галамбош Я., Асимптотическая теория экстремальных порядковых статистик, пер. с англ., М., 1984; (4] Гнеден ко Б. В., «Ann. Math.», 1943, v. 44, № 3, p. 423-53; [5] Смирнов Н. В., «Тр. Матем. ин-та АН СССР», 1949, т. 25, с. 5-59; [6] Чибисов Д. М., «Теория вероятн. и ее примен.», 1964, т. 9, в. 1, с. 159-65. В. А. Егоров, В. Б. Невзоров. ПОРЯДКОВАЯ ШКАЛА (order scale) - см. Измерений теория. ПОСЛЕДЕЙСТВИЕ (after-effect) - см. Вероятностей теория. ПОСЛЕДОВАТЕЛЬНАЯ ОЦЕНКА (sequential estimator) - статистическая оценка параметров распределения, построенная по выборке, объем к-рой не фиксирован заранее, а зависит от результатов наблюдений. А. Вальдом [ 1 ] было показано, что П. о. параметра сдвига прямоугольного распределения по независимым наблюдениям дает выигрыш при том же среднем числе наблюдений, тогда как в случае оценки среднего нормального распределения такого выигрыша нет. Этот результат обобщался на случай оценки параметра, нерегулярно зависящего от неизвестной плотности. Для регулярно зависящей от параметра последовательности экспериментов показано (см. [2]), что П. о. асимптотически не дает выигрыш в эффективности. В нек-рых случаях П. о. позволяет получить удобные несмещенные оценки там, где несмещенные оценки для выборки фиксированного объема не существуют. i Лит.: [1] Вальд А., Последовательный анализ, пер. с англ., М., , 1960; 12] И браги мои И. А., Хасьми не к и й Р. 3., «Теория перо- | ятн. и ее примен.», 1974, т. 19, в. 2, с. 245-56. Р. 3. Хасьминский. 1 ПОСЛЕДОВАТЕЛЬНАЯ ПРОВЕРКА ГИПОТЕЗ (sequen- j tial hypotheses testing) - метод статистических гипотез про ! верки у основанный на использовании случайного объема наблюдений. Решающим правилом (критерием) для ; П. п. г. Я,, г = 0, ..., k, называется пара (т, d), где х- ! марковский момент (момент остановки) относительно заданного неубывающего потока а-подалгебр {At}, Л, ^л/, на вероятностном пространстве {Q, .<■/, Р}, г/-Ат-измеримая функ- ! ция (функция заключительного решения), при- I нимающая значения 0, ..., k (номер принимаемой гипотезы). ' Использование случайного времени наблюдений позволяет | в нек-рых случаях существенно уменьшить среднее время ; наблюдений, необходимое для различения гипотез при задан- | ных вероятностях ошибочных решений. Для случая двух | простых гипотез относительно параметра семейства распреде- I лений {Р0} последовательности независимых одинаково рас- | пределенных случайных величин (далее обсуждается только ! этот случай) оптимальным решающим правилом, имеющим | минимальное среднее время наблюдений при выполнении л ю- | бой из гипотез, является последовательный критерий отно- \ шения вероятностей (см. [1 ]-[3]). Для случая двух сложных | гипотез вида Я0:0 ^ 80 и Нх: 0 ^ 8t относительно неизвестного параметра 0 семейства распределений {Р0} типичная картина зависимости среднего времени наблюдения Еет от 0 для последовательного критерия отношения вероятностей приведена на рис. (сплошная линия); штриховой линией отмечен уровень п(е,.е-,) и(0(), 0t) - объем наблюдений в тесте Неймана - Пирсона для различения гипотез Яо:0 = 0оиЯ,:9 = 6| с теми же ограничениями на вероятности ошибок, что и для последовательного теста [интервал (0О, 0^ считается зоной «безразличия» 1 В связи с тем, что среднее время наблюдений при 0 е (0,, 02) может сильно превышать даже величину я(01( e2), ставится задача (см. [41) нахождения решающего правила (т, J), на к-ром достигается инфимум величины sup Еет (задача К и - фера - Вейсса). Решение этой задачи известно только для случая, когда задачу минимизации sup Еет можно свести с 8 к к задаче минимизации Еет при нек-ром фиксированном 0 6 (01t 02) (м одифици рова н ная задача Кифера- Вейсса); решением последней задачи является так наз. обобщенный последовательный критерий отношения вероятностей- тест Вальда с нелинейными границами, определяемыми из решения нек-рой вспомогательной задачи об оптимальной остановке (см. [5J, 16]). Асимпт.)- тич. решение задачи Кифера - Вейсса (для случая малых вероятностей ошибочных решений и jm поненциальною семейства распределений) дает д войной последователь- н ы и критерий отношения в с р о ятн о с ген, обласч ь продолжения паблюдс ний для к-poio имеет форму треугольника (см. [7], [Су\). В задаче проверки гипотезы //о:0-() против Н^.втО в ситуации. KOi;ia при выполнении основной гипотезы Н{] нет необходимости принимать заключительно»* решение *а конечное время, а гри выполнении алыериагиьы //j, наоборот, нужно закончить наблюдения как можно скорее, можно построить последоватепьный тгЧ'т с мощностью единица (см. [8]). Напр., если наблюдаемые случайные величины Л\ имеют нормальное распределение \Ч0, 1), то можно в^ять момент остановки • = inf \n^ т: I ]£"_ АТ [(и + 1Х1г.(п + 1>+ «)]'" 480 ПОРЯДКОВАЯ и принимать 1ипотезу /Y, n случае, когда х <«>. За счет выбора соответствующих значений параметров т и а здесь мочло добиться выполнения неравенства Рь |т<°°}^а, а - заданное число, 0<а< 1 (асимптогич. формулы для вероятностей вида Р0{т<<*>} можно найти в [8]—[ 101); при этом будет выполняться равенство Ре{т<<эо}=1, 0*0. В литературе рассмотрены также модификации этого решающею правила с криволинейными границами при ограничении на длительность момента остановки (т^я. п - заданная константа) (см. [9|, [10]) Ряд результатов для случая многих гипотез можно пай ж. напр., в [11], [12]. Лит.:[\\ WaldA., Wolfowit7j . «Ann. Math Statist», 1948, v. 19. p. 326-39; [2] Вальд А., Последовательный анализ, пер. с англ., М., I960; [3] Ширяев А. П., Стагистичегкий последовательный анализ, М.. 1976; f4] KieferJ., Weiss L., «Ann. Math. St a tist.», 1957, v. 28, S» 1, p. 57-74; [5j Lord en ().. «Z. Wahi. uiui verw. Geb», 1980, Bd 51, Jv> 3, S 291-302; [61 Драгалин В П.. Hod и ко и А. А, «Теория вероятн. и ее примем.*, 1987. т. 32, v 4,
г. 679-90; [7] Lorden G., «Ann. Statist.», 1976, v. 4, № 1, p. 281-91; [8] Robbins H., «Ann. Math. Statist.», 1970, v. 41, № 6, p. 1397- 1409; [91 Siegmund D., Sequential analysis, B. - N.Y., 1985; (101 Woodroofe M., Nonlinear renewal theory in sequential analysis, Phil., 1982; [11] Lorden G., «Ann. Statist.», 1977, v. 5, № 1, p. 1-21; [12[ Голубев Г. К., Хасьмин- ский P. 3., «Теория вероятн. и ее примен.», 1983, т. 28, в. 3, с. 544- 554; [13J Павлов И.В., там же, 1987, т. 32, в. 1, с. 149-53. В. П. Драгалин, А. А. Новиков. ПОСЛЕДОВАТЕЛЬНОЕ ДЕКОДИРОВАНИЕ (sequential decoding) - общее название алгоритмов декодирования древовидных кодов (в частности, сверточных кодов), основанных на последовательном вычислении расстояния (метрики) между принятым сообщением и путями на кодовом дереве, причем уже обследованный сегмент пути (просмотренный узел) может быть продолжен на одно ребро, а решение о том, какой из уже просмотренных узлов должен быть продолжен, выносится исходя только из величин их метрик. Идея последовательного декодирования и первый алгоритм были предложены в 1957 (см. [1]). В настоящее время наиболее перспективными для применений считаются различные варианты стек-алгоритма (см. ниже) и алгоритма Фано (см. [3]). В качестве метрики используется обычно логарифм функции правдоподобия. В стек-алгоритме просмотренные узлы, включенные в стек, упорядочиваются по величине метрик, затем выбирается узел с максимальным значением метрики и вычисляются приращения метрики для всех ребер, выходящих из этого узла. Величины метрик вновь просмотренных узлов вносятся в стек, снова все узлы упорядочиваются, и т. д. Декодирование заканчивается, когда будет впервые просмотрен узел на заданном заоанее яоусе кодового деоева. Пои этом выносится эешение увеличение порога А [да J У переход вперед в 1 просмотренный узел Рис. 2. декодер находится в начальном узле (порог = 0) 1 f \ нет | \ понижение порога А 1 неудачное ■ пбг гтелпиянир i выбор первого по порядку ребра дачное обследование) неудачное обследование 1 А смотри вперед 1 4 отсутствие ребра выбор следующего по порядку ребра J [ смотри назад удачное обследование f возвращение назад в : просмотренный узел поместить в стек начальный узел с метрикой 0 просмотреть ближайшие необследованные узлы всех путей, выходящих из узла на вершине стека, и заменить ими этот узел упорядочить стек в соответствии с величинами метрик находящихся в нем узлов просмотрен узел на заданном ярусе кодового дерева? Г да вывести на выход путь для узла, находящегося на вершине стека; закончить декодирование Рис. 1. о первом информационном подблоке. Обычно максимальная длина просматриваемых путей выбирается равной или большей длины nD кодового ограничения сверточного кода (работа стек-алгоритма иллюстрируется на рис. 1). Схема алгоритма Фано приведена на рис. 2. В отличие от стек-алгоритма здесь узлы могут просматриваться несколько раз, однако в каждый момент алгоритм анализирует только один путь, что приводит к экономии памяти. Основными характеристиками П. д. являются функция распределения числа вычислений при декодировании, ошибочного декодирования вероятность и вероятность переполнения устройств памяти. Для стек-алгоритма функция распределения числа £ вычислений F(x) = P{^<x} удовлетворяет соотношениям А]Х~Р[ ^ 1 - Г(х)^А2х~р2, где константы Ах, А2, р\, р2 зависят от кода и параметров канала связи. При достаточно больших скоростях передачи pt = р2 = р, так что число вычислений подчиняется распределению Парето с параметром р. Вероятность ошибочного декодирования асимптотически убывает экспоненциально с ростом длины кодового ограничения. Устройства памяти нужны как для хранения принимаемой последовательности (б у - ферная память), так и для хранения метрик просмотренных узлов (с те к-память). Так как число ячеек памяти конечно, то возможно переполнение устройств памяти. Вероятность переполнения зависит от объема памяти степенным образом. Для алгоритма Фано результаты аналогичны. Лит.: fl] Wozencraft J.M., «IRE Nat. Conv. Rec», 1957, v. 5, pt 2, p. 11—25; [2] Зигангиров К. Ш., Процедура последовательного декодирования, М., 1974. Э. М. Габидулин. ПОСЛЕДОВАТЕЛЬНОЕ ОЦЕНИВАНИЕ (sequential estimation) - метод статистического оценивания параметров статистических моделей, основанный на использовании случайного объема наблюдений. Пусть на вероятностном пространстве {CI, a/, P} с неубывающим потоком а-подалгебр {At} с j/, t ^ 0, определен наблюдаемый процесс Xt с распределением, зависящим от параметра 8е0. Последователь- ПОСЛЕДОВАТЕЛЬНОЕ 481
ным планом оценивания называется пара (х, 0), где х - марковский момент (момент остановки) относительно потока {At}, оценка 0 - /^-измеримая функция. План (т, 9) называется замкнутым, если х < °° почти наверное для всех 06 0, и несмещенным, если Ев0 = 0 для всех 0е@, где Ее - символ математич. ожидания при фиксированном значении параметра 0. Для любого несмещенного замкнутого последовательного плана (х, 0) оценивания параметра распределения 0 последовательности независимых одинаково распределенных случайных величин при условиях регулярности того же типа, при к-рых выполнено Рао - Крамера неравенство, выполняется также неравенство (см. [1]) Ев(О-0)2^(/(0)ЕвхГ1, С) где /(G) - информационное количество Фишера (это неравенство называется иногда неравенством Рао - Крамера - Вол ьфов ица ). Если наблюдаемые случайные величины независимы и одинаково распределены с плотностью p(x-Q)} имеющей конечное число разрывов, то при ряде дополнительных условий [в частности, если не все скачки функции р(х) имеют один знак] существуют последовательные планы оценивания, имеющие большую эффективность при степенной функции потерь, чем планы с фиксированным объемом выборки (см. [3]); если же р(х) является непрерывной функцией, то асимптотически, в классе планов с Ее(х) ^ л, п -> <*>, оптимальные последовательные планы имеют ту же эффективность, что и (при степенных функциях потерь) процедуры с фиксированным объемом наблюдений. Существуют аналоги неравенства (•) для более общих моделей наблюдаемых процессов, в частности для процессов диффузионного типа (см. [2]). Лит.: [1] Wolfowitz J., «Ann. Math. Statist.», 1946, v. 17, №4, p. 489-93; [2] Липцер Р. III., Ширяев А. Н., Статистика случайных процессов, М., 1974; [3] И браг и мов И. А., Хасьмин- ский Р. 3., «Теория вероятн. и ее примен.», 1974, т. 19, в. 4, с. 700-13. А.А.Новиков. ПОСЛЕДОВАТЕЛЬНОЕ ПЛАНИРОВАНИЕ ЭКСПЕРИМЕНТА (sequential design of experiment) - метод проведения измерений (#t, ..., Уц) = У\ , при к-ром после каждого измерения уп либо принимают решение считать его последним (момент N остановки есть л), либо назначают условия Хп+\(У\) &Х для измерения уп+у При тождественных условиях измерений П.п.э. сводится к последовательному анализу или последовательному оцениванию. П.п.э. является разделом статистики случайных процессов и опирается на современный аппарат теории случайных процессов. Ниже дана формальная схема П. п. э. Основным объектом в П. п. э. является измеримое семейство взаимно абсолютно непрерывных мер Pq на измеримом пространстве (У, jr), отвечающих отдельному измерению. Семейство зависит от параметра 0 е 0 и управления х из пространства (X, 9С). Пусть заданы последовательность U-(x^f ..., хп, ...) измеримых управлений хп\ У"~ -> X, п > 1, распределение q(-) для хх на (X, ЗГ) и марковский момент N относительно потока а-алгебр Ап, натянутых на у". Пара £ = ((/, N) называется планом. Строится единственная мера Pq на X х У°°, удовлетворяющая для всех л = 1, 2 Вс^, 0е0 условию ри{упеВ\у^} = Р*п(В) (р£7-почти наверное). (1) Наглядно (1) означает, что величины уп при заданном хп независимы от у\~ . Рассматривают и более общие схемы: где случайные погрешности я-го измерения коррелируют с предыдущими погрешностями, где управления рандомизованы, и др. 482 ПОСЛЕДОВАТЕЛЬНОЕ Мера PqO, отвечающая плану £, есть сужение Ре на множестве YN={y^}. Если inf Pe(N<°°) = 1, то меры Pq взаимно абсолютно непрерывны, а плотность равна <„ (>=rfp| (-)/^(-)=пГ=. гв.'ф(л>- гдаг£,(.)-</Р,*(-)Д/Р;(-). Таким образом, измерения ух условно независимы при фиксированном х^. Решение 5 о параметре 0 есть отображение У в измеримое пространство Л, причем задана функция потерь о;(8, 6). Наконец, стратегия 5 есть тройка (U, N, 8). Ее риск есть E^wibiy^ ), 0). Следует заметить, что In ГЦ дает пример аддитивной статистики S(f) =]5\ t f '(#;)• Пусть Nq=e\n<oo и 7l = )P£(dy)fx(y). Для регулярной аддитивной статистики справедливы тождества Вальда: если Dq5(/*J) = 0, где статическая проекция Яд() плана 5 для Яс-Тесть к\(В) = ^в1Ц°°=1 Ре in^N> хпеВ}. Для поиска оптимальных стратегий проверки гипотез, оценивания и регрессии важны средние аддитивной статистики - информационные количества соответственно: 1) уклонение Кульбака /Cjj =Е^1пП^ ; 2) его главная часть при ф -> 0 е №р, определяемая информационной матрицей Фишера /e= Ejvin П*, (Vln П|ф )т = E|s(Vre, fvr£, >. не зависящей от <р (здесь и ниже V(p(0) - градиент (р(0)); 3) информационная матрица Е^5(/Ъ f ) линейного регрессионного эксперимента. Статистики /С, / не возрастают при отображении Ь:у —>Л; на Л существует плотность Фе(-) распределения Ь(ух ) и соответствующие статистики удовлетворяют неравенствам ^е,ф(фе) ^е,ф' ^е(фе) ^е 1Т0 есть h~h^^ неотрицательно определена]. Теоретико-информационный метод планирования эксперимента дает следующие границы. 1) При дискриминации двух гипотез Я,:0е0^ i~0, 1, 0OU01 = 0, 0QP10J *0, с вероятностями ошибок, не большими (X;; при Hi} (Xq + ol\ ^1: Л^0^со(а^, at_,)/sup inf К* , 0е0г, где m(ai} а1Ч) = ^а^ 1п[а^/(1 -at_;)]^ min /Свф(Фе), X* - пространство распределений над (X, 9Г). 2) Обобщение неравенств Хефдинга при дискриминации М распределений Pt Рм с вероятностями Р^ {8=/} = Фе(/) такими, что меры Фв(-) эквивалентны, но не совпадают, \<Q^M:N9> inf. sup Rl„.Rl9 = KB (%)/K*. яеХ феЭ/9 3) Неравенство maxAL^ inf sup/?£ . 9g0 яеХ* 9*ф ,ф 4) Обобщенное неравенство Рао - Крамера - Вольфовица для регулярных плотностей П^ и квадратично интегрируемой оценки 8 параметра 0 е IP*': EM8-0)(8-0)'^66'+(/ + Vb) pV?)~ (/ + Vb), b = Eg 8-0, / - единичная матрица, Vb- (Vbt, ..., V6J.
5) Границы для квадратичного риска естественного класса оценок параметра регрессионного эксперимента. II. п.э. обобщенного регрессионного эксперимента задается равенствами Е|(У„ \УГ) = Л<*я, в), оЦуп \уГ) = *хп, 6) (2) для N ^п. При г| = (х, в) = 6ТДх), &U, в) = &(*), N = const и S(m) = const, где mx-f(x)v~ (x)f (х), справедливо обобщение теоремы Гаусса: оценка e = S~\m)S(fTvy) (3) обладает наименьшей матрицей ковариаций среди несмещенных линейных оценок. Для регулярных последовательностей \п планов в модели (2) таких, что N{£ = «„-><», njj" слабо сходится к л0. Доказано, что среди линейных по невязкам уп = уп-х\(хп, в0) поправок к состоятельному начальному приближению в для в наименьший локально асимптотически минимаксный квадратичный риск имеет поправки (3), где /i)(*) = VtiCt, в0), у заменено на у. Стратегии, минимизирующие гладкую выпуклую функцию от такого риска, не лучше Ф-оптимальных статич. для линейного регрессионного эксперимента с функцией регрессии 6T/*oW и матрицей ковариаций измерений diag^O^), ..., v(xN)) (см. Регрессионных экспериментов планирование). Границы в 1)-3) асимптотически точны при малых вероятностях ошибки стратегии; уточнялись границы при M->°°, <?е(6) -> 1 (см. Отсеивающих экспериментов планирование); аналогичная теория для «планов», зависящих от в, развита в теории передачи сообщений по каналу с обратной связью (см. [2]). Границы в 4)-5) точны для больших выборок и регулярных последовательностей планов £„ таких, что a~*S(B$) ->J Бе(х)ле(б/х) по вероятности, где В$ = 1$ в 4) и Бе-те в 5). Если предельные в слабом смысле информационные матрицы случайны, то границы риска получаются усреднением по распределению информационной матрицы. Напр., пусть рассматривается задача 4) при дополнительном условии: существуют последовательность Тп марковских моментов относительно потока {Лт} и у{ "-измеримая матрица Lq такие, что /, ►О, 1 а а"1 V7"" h е Пг имеет место равенство О по вероятности Р^п. Тогда для In dP{ ,*- r-l/2 * (• )fdP%» (•) = AT8g - (1/2)Лт/еЧ + an, (4) где а„(в, h) -> 0 по мере Рд", a (8q, /|") слабо сходится к условно нормальной паре (£, /0) (то есть £~М0, Iq])) при фиксированном /8. Из (4) выводится локально асимптотически минимаксная граница для риска произвольной оценки, а при равномерности но хеХ условий регулярности на Р£ оценка максимального правдоподобия обращает в равенство эту границу и условно асимптотически нормальна. Лит.: [1J Математическая теория планирования эксперимента, М., 1983, гл. 5; [2] Бурнашев М.В., «Изв. АН СССР. Сер. матем.», 1979, т. 43, М б, с. 1203-26. М. Б, Малютов. ПОСЛЕДОВАТЕЛЬНЫЕ ДОВЕРИТЕЛЬНЫЕ ГРАНИЦЫ (sequential confidence bounds/limits) - вычисляемые по ходу наблюдений доверительные границы (интервалы) с заданным уровнем достоверности. Пусть задана нек-рая функция /"(6) от векторного параметра 6=(6t, ..., em)e0clf?m, значение к-рого неизвестно, и наблюдается последовательность независимых одинаково распределенных случайных величин Xt, ..., Хп, ... с плотностью распределения р(в, х), зависящей от в [носитель плотности р(в, х) не зависит от в]. Последовательность fn = fn(Xv •••» Хп), л=1, 2, ..., называется последовательной верхней у-доверительнои границей для Дб), если для любого марковского [относительно неубывающей системы а-подалгебр An = o(Xk), k^n] момента N Рв<Л>Лв)}>т при всех ве0 (где/^=Iim fn). Последовательность fn = fn (Xv ..., Хп), л=1, 2, ..., называется монотонной (убывающей) последовательной верхней у-доверительной границей для /"(6), если при любом 6е0 выполнено fn^fn+\, п=1, 2, ... (Ре-почти наверное) и P^if^ Дб)}^у. Аналогично определяются последовательные нижние доверительные границы и двусторонние доверительные интервалы. Скорость приближения верхней границы fn к истинному значению Дв) характеризуется моментом (достижения заданной точности) Tc = m\n{n:fn^c}, где константа с>Дв). Для нижних границ аналогичный смысл имеет момент Т'с = min{n: fn ^ с}, с < Дв). Для любой последовательной верхней (нижней) у-доверительной границы математич. ожидание указанного момента удовлетворяет неравенствам Eerc^n(l-y)~VVc),j при всех в и с>Дв) (с<Дв)), где Я0(с)= inf р(в, ф), Bq(c)= inf р(в, ф), Ф е Dc Ф е Dc р(в, ф) = Ее[1п р(в, хп) - In р(ф, хп)], Яс = {в:Дв)>с}, Яс' = {в:Дв)<с}. Последовательность fn= min /;, n = 1, 2, ..., (2) r=\ я дает монотонную последовательную верхнюю у-доверитель- ную границу для /*е, где /^«inf {c^^cX^-lnd-y)"1}, Фя(с)= sup X" , ,П^Ф, *г>> ^„ = 1" . lnp(flr_lf Хг) и e„ = 6n(Xt, ..., Хп) - оценка в по первым п наблюдениям, л=1, 2, ... . Последовательность (1) fn= max fr г=1, ...,я (3) дает монотонную последовательную нижнюю у-доверительную границу для Дб), где /„-5ир{с:Ф^(с)^Лгг-1п(1-уГ1}, o'„(c)=sup £я 1пр(ф, Хг). При нек-рых довольно широких условиях регулярности на р(в, #), Дб), б„ границы (2), (3) достигают указанные в (1) нижние границы показателей эффективности EqTc, EqT{. асимптотически при у-> 1. Последовательный у-доверительный интервал для Дв) длиной, не большей заданной константы а} задается тройкой (N, г{, 22), где N- марковский относительно системы Ап, ПОСЛЕДОВАТЕЛЬНЫЕ 483
л=1, 2, .,., момент остановки, Р8{ЛГ <<*>}= 1, z^z2- ^-измеримые функции такие, что при всех 0 е 0 Рв{г2 - г, « а) = 1, Рв{г, < /Хв) < z2) > у. Для любой такой тройки математич. ожидание момента остановки при у-* 1 удовлетворяет неравенству We(*) = inf max{Be[/X0) + fl-aBe[/X0)-t]}. (4) Основанная на_ границах (2), (3) процедура (TV*, 2^, г2), где TV* = min {n:f*-f*<a}, z\ =f*% z2* = f**, дает для /"(0) последовательный (2у- 1 )-доверительный интервал длины не больше а, асимптотически при у-> 1 достигающий указанную в (4) нижнюю границу средней продолжительности наблюдений. Еще один подход (метод «взвеси») использовался в [6] для случая параметра 0 экспоненциального семейства плотностей вида /?(0, х) = ехр[0*-&(0)], в е 0с IP. Последовательность интервалов /„= П"-1 h образует монотонно сужающийся последовательный у-Доверительный интервал для 0, где /п = {е:М„(е)<(1-у)Л л=1, 2, .... м«(в)==Щг=1 *<* *г)^(ф)/гГ=1 р(е* Xr) - неотрицательный мартингал, F - нек-рая вероятностная мера на 0. При условии F(I) > 0 на открытых интервалах /с0 последовательность /„, л = 1, 2, ..., является состоятельной (см. [6]). Пусть Xt Хп-~ ~ последовательность независимых одинаково распределенных случайных величин с нормальным распределением N(a, с ) с неизвестными параметрами а и а . Двухступенчатая процедура Стейна (см. [1]) позволяет в этом случае строить доверительный интервал заданной длины для а. Если дисперсия а известна, то наилучшей по средней продолжительности среди всех процедур, дающих удсшери- тельный интервал длины с для а, является процедура с детерминированным моментом остановки N = min {л: л > 4с"2/ф2}, (5) где Ку - квантиль уровня (1 +у)/2 стандартного нормального закона (см. [2]). Если дисперсия а неизвестна, то процедуры типа N = min {л: л ^ max(nt, c~2K2nS2n)} + k(y), z^aN-(c/2)t z2 = aN+(c/2), где Hj > 2, Kn -> Ky, an, Sn- выборочные среднее и дисперсия по первым л наблюдениям, k(y) - нек-рая константа, дают последовательный у-Доверительный интервал длины с для а, для к-рого указанная в (5) нижняя граница средней продолжительности наблюдений достигается асимптотически при с -> 0. Аналогичный результат справедлив в непараметрич. случае при Елг„4<оо (см. [3]-[5], [7]). Лит.: [1] Stein С, «Ann. Math. Statist», 1945, v. 16, p. 243-58; [2) Stein C, Wald А., там же, 1947, v. 18, p. 427-33; [3] Starr N., там же, 1966, v. 37, p. 36-50; [4) Chow Y., Rob- bins H., там же, 1965, v. 36, p. 457-62; [5] Simons G., там же, 1968, v. 39, p. 1946-52; [6] Lai Т., «Ann. Statist.», 1976, v. 4, p. 265-80; [7] Закс Ш., Теория статистических выводов, пер. с англ., М., 1975. И. В. Павлов. ПОСЛЕДОВАТЕЛЬНЫЙ АНАЛИЗ (sequential analysis) - раздел математической статистики, характерной чертой 484 ПОСЛЕДОВАТЕЛЬНЫЕ к-рого является то, что число производимых наблюдений (момент прекращения наблюдений) не фиксируется заранее, а выбирается по ходу наблюдений в зависимости от значений поступающих данных. Стимулом к интенсивному развитию и применению в статистич. практике последовательных методов послужили работы А. Вальда (A. Wald). Им было установлено, что в задаче различения (по результатам независимых наблюдений) двух простых гипотез так наз. последовательный критерий отношений вероятностей дает значительный выигрыш в среднем числе производимых наблюдений по сравнению с наиболее мощным классич. способом различения (определяемым леммой Неймана - Пирсона) с фиксированным объемом выборки и теми же вероятностями ошибочных решений. Основные принципы П. а. состоят в следующем. Пусть Хх> Х2} .-. - последовательность независимых одинаково распределенных случайных величин и функция распределения FQ(x) = Pe{X1 <*} зависит от неизвестного параметра 0, принадлежащего нек-рому множеству 0. Задача состоит в том, чтобы по результатам наблюдений вынести то или иное решение об истинном значении неизвестного параметра Э. В основе любой статистич. задачи решения лежат пространство D заключительных (терминальных) решений d (о значениях параметра 0) и правило т, определяющее момент прекращения наблюдений, в к-рый и выносится заключительное решение. В классич. методах наблюдений момент X является неслучайным и фиксированным заранее; в последовательных методах т является случайной величиной, не зависящей от «будущего» (марковский момент, момент остановки). Формально, пусть Лп = о{(й:Х], ..., Хп) есть а-алгебра, порожденная случайными величинами Х\} ..., Хп. Случайная величина т = т(со), принимающая значения 0, 1, ..., +оо, называется марковским моментом, если событие {т^л}е.<г/„ для каждого л^О (^) = {0, Q}). Пусть ^х - совокупность тех измеримых множеств А, для к-рых ЛП{т ^ л} е Мп для каждого л^О. Если а/п интерпретируется как совокупность событий, наблюдаемых до неслучайного момента л (включительно), то dx можно интерпретировать как совокупность событий, наблюдаемых до случайного момента т (включительно). Заключительное (терминальное) решение d = б/(со) есть а/х-измеримая функция со значениями в пространстве D. Пара 6 = (т, d) таких функций называется (последовательным) решающим правилом. Для выделения среди решающих правил «оптимального» задают функцию риска W(x, 0, d) и рассматривают математич. ожидание EeWXx, 0, d). Существуют разные подходы к определению понятия оптимального решающего правила 6* = (т*, d*). Один из них, бейесовский, основан на предположении, что параметр 0 является случайной величиной с априорным распределением n = n(dQ). Тогда имеет смысл говорить о л-риске /Aic)=J EeWd, 0, d)n(dQ) и называть правило 5* = (т*, d*) оптимальным бейе- совским решением (или л-оптим ал ьньгм), если для любого другого (допустимого) правила. Наиболее распространенной формой риска WXx, 0, d) является риск вида сх+ W\(Q, d), где константа с^О интерпретируется как стоимость единичного наблюдения, а И^(0, d) - функция потерь от заключительного решения. В бейесовских задачах отыскание оптимального заключительного решения d*, как правило, не вызывает трудностей, и основные усилия направлены на отыскание оптимального момента остановки т*. При этом большинство задач П. а. укладывается в следующую схему «оптимальных правил остановки».
Пусть Х = (хп, Лп, Рс), и^О, хеЕ,- цепь Маркова в фазовом пространстве (Е, 38), где хп - состояние цепи в момент времени п, а-алгебра ,dn интерпретируется как совокупность событий, наблюдаемых до момента времени п (включительно), а Рх - распределение вероятностей, отвечающее начальному состоянию хеЕ. Предполагается, что, прекращая наблюдение в момент времени п, получают выигрыш д(хп). Тогда средний выигрыш от остановки в момент т есть Ехд(х^)у где х - начальное состояние. Функцию s(x) = supExg(xx), где sup берется по всем (конечным) моментам остановки X, называют ценой, а момент ТЕ, для к-рого s(x) ^Ехд(хх ) +е для всех хеЕ, называют е-оптимальным моментом остановки; 0-оптимальные моменты называют оптималь- н ы м и. Основные вопросы теории «оптимальных правил остановки» таковы: какова структура цены s(x), как ее найти, когда существуют е-оптимальные и оптимальные моменты, какова их структура? Ниже приведен один из типичных результатов, касающихся поставленных вопросов. Пусть функция д(х) ограничена: |^(^)| ^с<<». Тогда цена s(x) является наименьшей эксцессивной мажорантой функции д(х), то есть наименьшей из функций fix), удовлетворяющих двум свойствам g(x)^f(x)t Tf(x)*^f(x), где Tf{x) = Ехд{хх). При этом момент те = inf{rc ^ 0: s(xn) ^ д{хп) + е} является е-оптимальным для всякого е > 0, цена s(x) удовлетворяет уравнению Вальда - Беллмана s(x) = тах{д(х), Ts(x)} и может быть найдена по формуле s(x) = lim Qng(x), где П—> ею Qg(x) = maix{g(x), Тд(х)}. В том случае, когда множество Е конечно, момент т0 = inf {п ^ 0: s(xn) = д(хп)} будет оптимальным. В общем случае момент т0 является оптимальным, если Рх{т0 < <»} = 1, хеЕ. Пусть C=[x:s(x)>g(x)}, Г= {x:s(x) =g(x)}. В соответствии с определением т0 = inf{п^ О: 1пеГ}. Иначе говоря, прекращение наблюдений следует производить при первом попадании в множество Г. В связи с этим множество С называется множеством продолжения наблюдений, а Г- множеством прекращения наблюдений. Иллюстрацией этих результатов может служить задача различения двух простых гипотез, на к-рой А. Вальд продемонстрировал преимущество последовательных методов по сравнению с классическими. Пусть параметр 8 принимает два значения 1 и 0 с априорными вероятностями л и 1 - л соответственно и множество заключительных решений D состоит также из двух точек: d-\ (принимается гипотеза Я1:в=1)иб/ = 0 (принимается гипотеза #0:8 = 0). Если функцию Wj(6, d) выбрать в виде (а, в = 1, d = О, ^(е,Ю = |м = о,</ = 1, [О, в остальных случаях, и положить W(x, в, d) = cz+ WX(Q, d), то для R (к) получают выражение R (л) = сЕдТ + 00^(8) + б/рп(5), где 0^(8) = = Pn{rf = 0|e=l}, Pn(S) = Pn{rf=l|8 = 0} - вероятности ошибок первого и второго рода, а Ря означает распределение вероятностей в пространстве наблюдений, отвечающее априорному распределению л. Если л„ = Р{6= 1 |а/„} - апостериорная вероятность гипотезы Я1:6=1 относительно а-алгебры ^„ = a{(o:4i, ...,У,то /?8(л) = Ел[ст + ^(лт)], где ^n) = min(fln, Ml-я)). Из общей теории оптимальных правил остановки, примененной к хп = (п, л„), следует, что функция р(л) = inf R (л) удовлетворяет уравнению t р(л) = тт{^(л), с+Гр(л)}. Отсюда, в силу выпуклости вверх функций р(л), д(к), Гр(л), можно вывести, что найдутся два числа 0^А<В^\ такие, что область продолжения С = {л: Л < л < В}, а область прекращения наблюдений Г=[0, 1]\С4, В). При этом момент остановки т0 = inf (п ^ 0: л„ е Г} является оптимальным (л0 — л). Если р0(х) и рх(х) - плотности распределений FQ(x) и Fx(x) по мере d\i= (dF0 + dFt)/2, а - отношение правдоподобия, то область продолжения наблю- -*' С - область продолжения наблюдений Рис. 1. дений (рис. 1) может быть записана в виде Г" 1-Л п ^п 1-Я к T0 = inf{n^0:(pn*C}. п ^ В 1 -Я , 4 При этом если фх ^ , то выносится решение d = 1, то есть принимается гипотеза #<: в = 1; если же ср. ^ , то - гипотеза Я0:в = 0. Структура этого оптимального решающего правила сохраняется и для задачи различения гипотез в условно экстремальной постановке, состоящей в следующем. Для каждого решающего правила 8 = (т, d) вводят вероятности ошибок a(8) = P1{rf = 0}, p(8) = P0{d= 1} и задают два числа а>0 и Р>0; и пусть, далее, А(а, р) - совокупность всех решающих правил с a(8)^a, p(8)^p и ЕоТ<°°, Ехх<°°. Следующий фундаментальный результат был получен А. Вальдом. Если а + р< 1 и среди критериев 8= (т, d), основанных на отношении правдоподобия (рп и имеющих вид fl, Фт >Ь, [О, Фх **а, найдутся такие а-а* и b = b*, что вероятности ошибок первого и второго рода в точности равны а и р, то решающее правило 8* = (т*,б/*) с а = а* и b = b* является в классе А(а, р) оптимальным в том смысле, что EqT* ^ Е^т, EjT* ^ EjT для любого 8еА(а, р). Преимущества последовательного решающего правила 8* = (т*, d*) по сравнению с классическим проще всего проиллюстрировать на примере задачи различения двух гипотез #0:6 = 0 и Нх :0= 1 относительно локального среднего значе- ПОСЛЕДОВАТЕЛЬНЫЙ 485 T = inf{rc^0:9„g (я, b))t d ■
ния 0 винеровского процесса §t с единичной диффузией. Оптимальное последовательное решающее правило 5* = (т*,б/*), обеспечивающее заданные вероятности ошибок аир первого и второго рода соответственно, описывается следующим образом: ft, А. . >Ъ\ f = inf{^0:?tfe(a*, *>*)}, d' = \ х где ^ = 1пф^ и отношение правдоподобия (производная меры, отвечающей 8=1, по мере, отвечающей 8 = 0) ab* = ln(l-a)/P, а* = 1па/(1-Р) (рис. 2). Рис. 2. Оптимальное классич. правило 5=(т, d) (согласно лемме Неймана - Пирсона) описывается следующим образом: Г1Д-^Мо, Р), }(U-</>(a,P), где r(a, p) = (ca + c^)2, h(a, p) = (cp-c«)/2, а су - корень уравнения -J_rV*2/2</* = Y. Лтс Jcy Поскольку E0x* = 2co(a, P), E1x* = 2co(p, a), где coU, y) = (1 - x)\n (1 - *)/# + * Inx/( 1 - #), TO E0x* _ (o(p, a) Etx* ^ (o(a,p) Ka,P)~ (ca+cp)2' Ka,p) (ca+cp)2" Численный подсчет показывает, что при a, p ^ 0,03 Е0т*/Ка, Р)^ 17/30, EjiVKa, P)^ 17/30. Иначе говоря, при рассматриваемых значениях ошибок первого и второго рода оптимальный последовательный метод различения требует примерно в два раза меньше наблюдений, чем оптимальный метод с фиксированным числом наблюдений. Более того, если а = р, то lim ЕоТ*Д(а, a) = lim Etx*/Ka, a) = 1/4. Лит.: [1] Вальд А., Последовательный анализ, пер. с англ., М., 1960; [2J Ширяев А. Н., Статистический последовательный анализ, М., 1976. А.Н. Ширяев. ПОСЛЕДОВАТЕЛЬНЫЙ КРИТЕРИЙ ОТНОШЕНИЯ ВЕРОЯТНОСТЕЙ (sequential probability ratio test) - решающее правило (т*, d*) определенного ниже вида в задаче последовательного различения двух простых гипотез 486 ПОСЛЕДОВАТЕЛЬНЫЙ HQ:p(x)-pQ(x) и Нх :р(х) =р{(х)} где р{х) - плотность распределения (относительно нек-рой а-конечной меры) наблюдаемых независимых одинаково распределенных случайных величин Хи Х2у ... Момент остановки т* П. к. о. в. определяется как момент первого выхода отношения правдоподобия из интервала (Л, В), 0 < А <\<В, то есть T* = inf{n^\:Lne(A, B)}\ заключительное решение d* = 0 (то есть принимается гипотеза Я0), когда LT. ^Л, и d* = \, когда L^^B. П. к. о. в. был предложен А. Вальдом [ 1 ] (см. также [2]), к-рый также вывел простые неравенства, связывающие вероятности ошибок первого и второго родов П. к. о. в. (а и р соответственно) со значениями уровней А и В. Л^р/(1 -а), В^(\ ~Р)/а. В [31 и [41 показано, что П. к. о. в. является оптимальным (при соответствующем выборе А и В) бейесовским решающим правилом для среднего бейесовского риска вида q[P0{d = \} + c0E0x] + (\-q)lPx{d = 0} + cxEiil где индекс i при Pi и Е{ указывает на предположение о справедливости гипотезы Hit i = 0, l, q - априорная вероятность гипотезы Я0, с0, Су - нек-рые положительные константы. П. к. о. в. также является оптимальным в условно экстремальной постановке, то есть он минимизирует значения величин Е0т и EjT среди всех решающих правил (т, d), для к-рых P0{d = 1} ^ PQ{d* = 1}, Р,{б/ = 0}^Р1{^ф =0}. Оптимальность П. к. о. в. для случая винеровского процесса доказана в [5J (см. также [2]), а для общих процессов с независимыми приращениями - значительно позже в [6]. Полные асимп- тотич. разложения для вероятностей ошибок П. к. о. в. (но параметрам А и В) с оценками остаточных членов приведены в [7], [8]. Лит.: [1J Вальд А., Последовательный анализ, пер. с англ., М., I960; [2] Ширяев А. Н., Статистический последовательный анализ, М., 1976; [31 Wald A., Wolfowitz J., «Ann. Math. Statist.», 1948, v. 19, № 3, p. 326-39; [4] их же, там же, 1950, v. 21, № 1, p. 52-99; [51 Миха л ев и ч В. С., «Вкник КиУвського утверситету», 1958, т. 1, № 1, с. 101-04; [6] I г 1 е A., Schmitz N.. «Math. Oper. und Statist.», 1984, Bd 15, № 1, S. 91-104; [71 Лотов В. И., «Теория вероятн. и ее примен», 1987, т. 32, в. 1, с. 62-72; [81 его же, там же, 1988, т. 33, в. 2, с. 295-304. А. А. Новиков. ПОСЛЕДОВАТЕЛЬНЫЙ ПЛАН ОЦЕНИВАНИЯ (sequential design of estimation) - см. Последовательное оценивание. ПОСЛЕДОВАТЕЛЬНЫЙ СИМПЛЕКСНЫЙ МЕТОД (sequential simplex method) - см. Экстремальных экспериментов планирование. ПОСЛЕДУЮЩИЕ ОЦЕНКИ (sequent estimators) - стати стикиу значения к-рых рассчитываются на основе результатов контроля партии $) изделий с учетом параметров контроля плана и принятого решения о забраковании или приемке. П. о. используются для оценивания входного брака- числа дефектных изделий D в партии ф, предъявленной на контроль, а также для оценивания принятого брака- числа дефектных изделий D"\ проникших к потребителю. Возможно построение П. о., на основе к-рых рассчитываются показатели эффективности статистического приемочного контро ля, если бы использовались другие планы контроля. Идея применения последующих оценок была предложена в 1950 А.Н. Колмогоровым (см. [1]). Пример. При контроле партии ф, содержащей N изделий, используют одноступенчатый план контроля с объемом п случайной бесповторной выборки и приемочным числом с. Если обнаруженное в выборке число дефектных изделий d ^ с, то $) принимается, а при d>c ф бракуется без дальнейшего
контроля. Требуется найти П. о. <р"' для числа D"\ Если d^ с, то D'" = D-d, если d>c} то D"' = 0. Задача упростится, если исходить из возможности использования пуассоновского приближения для вероятностей гипергеометрич. распределения 1?"у D*pVL(d)=\ide~il/d\, \,i = nD/N. В условиях применимости пуассоновского приближения <р'" = <р"ЧЮ находится из условия несмещенности XL. «TW4W)=S.o(Vя - rf4w> при любом ц>0. Искомая П. о. имеет вид ttN/n-\)d,d^c, <р"'(<0 = |м//я, </ = с + 1, [о, </>с + 1. Лит.: [1] Колмогоров А. Н., Теория вероятностей и математическая статистика, М., 1986, с. 340-63; (2) Беляев Ю. К., Вероятностные методы выборочного контроля, М., 1975; [31 Л умел ь- скийЯ.П., Статистические оценки результатов контроля качества, М., 1979. Ю.К. Беляев. ПОСТОЯННЫЙ ВО ВРЕМЕНИ КОД (time constant code) - см. Сверточный код. ПОСТОЯННЫЙ ТАКТОВЫЙ ИНТЕРВАЛ (constant inter pulse interval) - см. Импульсный случайный процесс. ПОТЕНЦИАЛ (potential) - см. Марковская полугруппа, Потенциала теория для цепей Маркова. ПОТЕНЦИАЛ в теории мартингалов (potential in martingale theory)- неотрицательный супермартингал (X,)t^0, для к-рого EXt->0 при £-><» (также Xt->0 почти наверное). Пусть (At)t^0 - возрастающий процесс с Е/40о<<», (.«4)^0 - неубывающее семейство а-алгебр на исходном вероятностном пространстве. Процесс (Zt)t^0 с Zt^ElA^-At\^t] (соответственно Zt-E[A^-A_t|dt\) называется потенциалом (соответственно левым потенциалом), порожденным процессом А. Для каждого П. существует единственный возрастающий предсказуемый процесс, его порождающий (см. Дуба - Мейера разложение). Существует определенная аналогия между теорией мартингалов и теорией гармония. функций. А именно, супермартингалам соответствуют супер- гармонич. функции, мартингалам - гармонические (напр., если f - гармонич. функция, отвечающая оператору Лапласа, (wt\zo ~ винеровский процесс, то процесс (f(wt))t^0 является мартингалом), потенциалам соответствуют потенциалы Грина для положительных мер (см. Рисса разложение). Лит.: [11 DellacherieC, Meyer P.-A., Probability et poten- tiel. Theorie des martingales, t. 1-2, P., 1975-80. Л. И. Гальчук. ПОТЕНЦИАЛ гиббсовского поля (Gibbsian field potential) - набор параметров, используемых для задания Гибб- са распределения и переходных вероятностей Гиббса случайного поля. В предположении, что задано измеримое пространство значений поля (X, D) и счетное множество Т (часто Т-1 есть d-мерная целочисленная решетка), П. решетчатой системы определяется как система U = {UA{xA)t AczT, |/4|<оо} измеримых действительнозначных функций от хА е ХА. Иногда для П. UA(xA) допускают и значение <». Обычно класс рассматриваемых П. ограничивают требованием, чтобы П. принадлежал нек-рому банахову пространству П. Напр., при Т-1? вводятся норма |c/||=sup У sup 1^(^)1 или teZdZ*Ait*A ^ при а>0-норма ||[/|a = sup У ea^'sup |t/^C*^)L где teld A:t*A ха IAI - мощность множества А. Зачастую вводится также требование инвариантности П. относительно группы сдвигов в Ж . П. называется финитнымс радиусом взаимодействия г<<», если UA = 0 при diam А > г. Класс гиббсовских случайных полей, соответствующих данному П., принято выделять при помощи ДЛР-условия. При этом в рамках применений к статистич. механике П. имеет физич. смысл потенциальной энергии. В квантовой теории поля роль П. играет лагранжиан системы. Часто рассматривают порождаемое П. U семейство П. Ua = {$UA, А с: Т), зависящее от действительного параметра р>0. В приложениях к статистич. механике параметр р обра- тен температуре. Другое важное семейство П- возникает, если пространство X конечно и в нем выделен специальный элемент 0еХ такой, что UA(xA) = 0, если xA = (xt> tsA) и xt = 0 при нек-ром teA. Здесь естественно положить U^(x) =-Ц^, где ц.г, #gX\{0} - действительные параметры, и рассматривать возникающее семейство П. С/ц, зависящее от векторного параметра ц=(щ., *gX\{0}). В физич. интерпретации это соответствует решетчатому газу, а событие xt = 0 интерпретируется как отсутствие частицы в точке t. Значение \ix называется химическим потенциалом частицы типа х. При рассмотрении точечного гиббсовского поля на евклидовом пространстве определяется как измеримая функция (7= {£/(/4)}, определенная на всех конечных подмножествах ЛсИ? . При этом снова рассматриваются семейства П. вида Щ=фи(А))и U^ где С/ЦС4) = C/U) при Ы ^2и С/ц(Л) = -ц при \А\ - 1, зависящие от обратной температуры р и (скалярного) химич. потенциала \i. Часто ограничиваются рассмотрением парного П., то есть П. U(A) такого, что £/С4) = 0 при (Л| ф2. Если предположить также, что этот П. трансляцион- но инвариантен и изотропен, то он задается функцией Ф(г) от ге(0, <») такой, что U({tv t2}) = <&(\t{-t2\). Примером (при d = 3) является потенциал Ленард-Джонса вида 0(r) = fctr~ ~ k2r~ , kXy k2>0, используемый при модельном описании одноатомных газов. Изображенный на рисунке гра- ф(г)А О фик такого П. отражает типичные черты П. взаимодействия. Его убывающая часть соответствует отталкиванию частиц на малых расстояниях, а возрастающая - притяжению на больших. Сила отталкивания стремится к <» при г->0, а сила притяжения - к 0 при г-><». Лит.: [11 Добру шин Р. Л., «Теория вероятн. и ее примен.», 1968, т. 13, в. 2, с. 201-29; 1970, т. 15, в. 3, с. 469-97; [2J его же, «Функц. анализ и его прилож.», 1968, т. 2, № 4, с. 31-43; [3] Ма- ПОТЕНЦИАЛ 487
лышев В. А., Мин л ос Р. А., Гиббсовские случайные поля. Метод кластерных разложений, М., 1985; [4] Престон К., Гиббсовские состояния на счетных множествах, пер. с англ., М., 1977; [5] Синай Я. Г., Теория фазовых переходов, М., 1980; [6] Preston Ch., Random fields, В.- [а. о.], 1976; [7] Ruelle D., Thermodynamic formalism, Reading (Mass.), 1978. Р.Л. Добрушин. а-ПОТЕНЦИАЛ (а-potential) - см. Потенциала теория для марковского процесса. ПОТЕНЦИАЛА ТЕОРИЯ для марковского процес- с a (potential theory for a Markov process) - вероятностный аналог как классической теории потенциала, так и ее современного варианта, развиваемый в рамках теории марковских процессов с непрерывным временем (ср. Потенциала теория для цепи Маркова). Систематич. обсуждение вопросов, лежащих на стыке теории случайных процессов и теории потенциала, началось с серии работ Дж. Дуба, открывшейся статьей [1] и посвященной кругу проблем, касающихся броуновского движения и его пространственно-временного аналога (см. [2]). Дж. Хант [3] выделил обширное семейство марковских процессов, названных позднее Ханта процессами, с каждым из к-рых связан класс эксцессивных функций, ведущих себя во многом подобно супергармонич. функциям. Это и позволило построить общую вероятностную П. т., давшую новую трактовку комплексу понятий и проблем той части аналитич. теории, к-рая ассоциируется с полным принципом максимума (см. ниже). В арсенале технич. средств, использованных в [3], видное место занимают теоремы об аппроксимации моментов первого достижения тех или иных множеств моментами достижения открытых множеств и компактов. После того как К. Ши (С. Shih, 1970) нашел удовлетворительную замену этим теоремам, стало возможным перенесение многих результатов Дж. Ханта на существенно более широкие классы марковских процессов (см. [9]). С другой стороны, удалось развить и новые важные аспекты теории (см. [5]-[7], [15], [16]), а в ряде случаев найти полезные аналогии в общей теории случайных процессов. Ощутимый выигрыш получила и собственно П. т., поскольку вероятностный подход пролил новый свет на многие из ее основных атрибутов и привел к разработке новых концепций теоретико-потенциального характера (см. [4]). Среди различных направлений вероятностной П. т. можно выделить направления, посвященные теории эксцессивных функций и мер, вопросам граничной теории, таким, как задача Дирихле и граница Мартина, вероятностной трактовке емкости, энергии и нек-рых других понятий и, наконец, описанию ядер потенциала, отвечающих тем или иным марковским процессам. Сюда же примыкает и теория форм Дирихле (см. Марковский процесс; форма Дирихле), связывающая теорию марковских процессов и теорию классич. интеграла Дирихле [10]. С вероятностной П. т. смыкается и ряд аспектов теории аддитивных функционалов от марковских процессов (см. Марковский процесс; аддитивный функционал). Имеются и исследования по П. т., ассоциирующейся с неоднородными марковскими процессами (см. [12]). Эксцессивные функции. Понятие эксцессивной функции занимает центральное место в обсуждаемой теории. Пусть Е - борелевское множество в нек-ром метризуемом компакте, а 33{33*) - совокупность его борелевских (соответственно универсально измеримых, то есть входящих в пополнение 33 по каждой конечной мере на 33) подмножеств. В измеримом пространстве (Е, 33) фиксируется, возможно, обрывающийся правый марковский процесс X-(Xtt £, dt> P^.), t^O, с переходной функцией p(tt х, dy). Функция /":£-> [0, «>] называется 488 ПОТЕНЦИАЛ а-эксцесси в ной для X, а^О, если она универсально измерима и если e~atPtf^f при всех ^0и lim Ptf-f> где [при а = 0 вместо «a-эксцессивная функция», «a-потенциал» (см. ниже) и т.д. говорят: «эксцессивная функция», «потенциал» и т. д.]. Совокупность a-эксцессивных функций обозначается Sa. Примеры. 1) Один из важнейших примеров эксцессивной функции доставляется равновесным потенциалом кТ(х), хеЕ, множества ГеЗЗ, а нередко и множества более общего вида, приравниваемым к Рх-вероятности когда-либо достичь Г после момента времени £ = 0. 2) При любом Г еЗЗ* функция a-эксцессивна, причем г0(х, Г), хеЕ, совпадает со средним временем, проведенным процессом в множестве Г, если Х0 = х. Функция га(х, Г), хеЕ, Те 33*, называется a-ядром потенциалов или a-мерой Грина. Для всякой .^-измеримой функции g ^0 ее a-потенциал ^(•) = JE»(»)ra(-,rf,) входит в Sa. Обобщая этот факт, можно заметить, что и a-п отенциал E^J e~atdAt любого аддитивного функционала A -A{t) ^ 0 от X также а-эксцессивен. 3) Нередко мера га(х> •) при любом хеЕ допускает такую плотность ра(*, •) относительно нек-рой а-конечной меры т на 35, что: а) функция ра(-, ♦) измерима относительно 33* хЗВ*, б) Ра(*» У) 6 $а ПРИ всех уеЕив) при всяком хеЕ функция ра(х, •) а-эксцессивна для нек-рого правого марковского процесса X в (Е, 33) (об этом условии см. в ст. Дуальный марковский процесс). Тогда ра(-, •) именуют а-функцией Гри- н^. В этом случае в Sa входит a-п отенциал *a^(-)=J£Pa(-,y)ll«y) любой a-конечной меры |1, заданной на 33. 4) Введенные выше понятия имеют хорошо известные классич. прообразы. Напр., если X - стандартное я-мерное броуновское движение (п ^ 3), обрываемое в момент первого выхода из нек-рой я-мерной области Е, то класс эксцессивных функций идентичен классу супергармонических в Е функций, дополненному функцией /"=«>, а конечные почти всюду в Е потенциалы мер суть не что иное, как обычные гриноны потенциалы (см. [2]). Эксцессивные функции (лишь для краткости берется случай а = 0) обладают многими полезными свойствами, в большинстве своем впервые доказанными в [3] для случая процессов Ханта (см. [5]-[7]), но позже перенесенными на правые марковские процессы (см. [9]). Так, а) минимум двух эксцессивных функций сам эксцессивен, б) класс 50 замкнут относительно предельного перехода по неубывающим последовательностям своих элементов, в) если p(t, x, E) ->0 для всех хеЕ при t-+°°, то всякая функция feSQ представима в виде предела неубывающей последовательности потенциалов нек-рых неотрицательных функций. Свойство же ^-измеримости, входящее в определение эксцессивной функции, допускает полезное уточнение: всякая функция ftS0 является почти борелевской, то есть при любом начальном распределении процесса и при подходящем выборе борелевских
функций fx и f2 оказывается, что f\^f^f2 и почти наверное Л(Х,) = /2(Х()приО<*<5. Важнейшие черты поведения эксцессивных функций вдоль траекторий процесса X описываются следующим образом. Каковы бы ни были начальное распределение процесса и feS{), случайная функция /XX,), доопределенная значением О при ^-^t<ooy является непрерывным справа (почти наверное) супермартингалом относительно нек-рого потока а-алгебр. Отсюда, в частности, вытекает непрерывность любых эксцессивных функций в тонкой или естественной топологии^ порожденной данным процессом и являющейся аналогом гонкой топологии А. Картана (Н. Cartan, см. [2]). При этом множество А с Е относят к if всякий раз, когда каждому х € А удается сопоставить такое Г е 33, что х е Г с А и ХЕ\Г > О Р^-почти наверное, где TtXr=:inf{£>0:X,eE\r} - первый момент выхода из Г или достижения Е\Г после начального момента времени (здесь положено inf0 = £). Значительные усилия предпринимались для изучения структуры конуса 50, в частности для установления существования и единственности интегральных разложений его элементов по крайним (эксцессивная функция f называется крайней или минимальной, если соотношение f]+f2~f с Л» /2е^о возможно лишь, когда fi~c{f при нек-рых постоянных с,-, i=l,2). Подобная проблематика, с одной стороны, примыкает к теории границы Мартина, а с другой - к теории выпуклых конусов. Наиболее законченные результаты см. в [8]. Наряду с а-эксцессивными функциями усиленно используются и а-эксцессивные меры (а^0). Последнее название относится к любой а-конечной мере |i, заданной на 33 или 33*, если е~а'цР, ^|1 при ^0и цР,->д при tiO, где \iPt() = jEp(t,x, -)\i(dx) (при а = 0 терминология упрощается подобно случаю эксцессивных функций). При а>0 и фиксированном х е Е а-меры Грина га(х} •) являются а-эксцессивными, и то же можно сказать о а-потенциале - мере v*e(.) = J£ra(*, .)vWx) любой меры v на л? или 33*, коль скоро мера v#a a-конечна. Теория эксцессивных мер в нек-рых аспектах проще теории эксцессивных функций, но зачастую оказывается не менее полезной (см. [3], [6]). Операторы гармонического усреднения. В аналитич. теории потенциала видное место отводится гармонич. мерам (см. [2]), роль к-рьгх при работе с марковским процессом X возлагается на распределения Kfj(x, dy) = РХ{ХТ € dy), xeE, этого процесса в момент т = т£Ч[7 его первого выхода из множества U<^E после начального момента времени. При этом U выбирается из нек-рого, достаточно богатого семейства множеств, а указанные распределения задаются либо на а-ал- гебре 33, либо на нек-ром ее расширении. Ради упрощения формулировок в дальнейшем X считается стандартным марковским процессом в сепарабельном локально компактном хаусдорфовом пространстве Е; как и прежде, в качестве 33 берется совокупность борелевских множеств в Е. Семейство всех открытых множеств в Е с компактными замыканиями обозначается U. На классе почти борелевских локально ограниченных снизу функций f определяются операторы гармонического усреднения П^: Uuf(x)^Ex{f(XT); x<Q = jEf(y)nu(x, dy), (1) где U е U, х е Е. С их помощью еще отчетливее оттеняются идейные связи между понятиями эксцессивности и классич. супергармоничности: функция /*^0 указанного типа эксцес- сивна тогда и только тогда, когда она тонко непрерывна (то есть непрерывна в тонкой топологии) и когда X\vf^f для всех U e U (см. [5]). Здесь класс U может быть заменен совокупностью дополнений всевозможных компактов в Е (см. [5]). Имеются локальные варианты и нек-рые модификации подобных результатов (см. [3]). Почти борелевскую локально ограниченную функцию f называют гармонической для X в открытом множестве V с Е, если она в нем тонко непрерывна и X\vf=fB V для всех подмножеств U e U этого множества (если процесс X непрерывен, то f не обязательно считать заданной вне V; следует учесть и то, что в случае цепи Маркова и V-E аналогичное определение звучит иначе) (см. Гармоническая функция). При сравнительно слабых ограничениях для гармонич. функций сохраняются результаты типа неравенства Гарнака и теорем о свойствах компактности классич. гармонич. функций (см. [11]). Если же X подчиняется нек-рым условиям, гарантирующим, в частности, существование функции Грина (см. выше), то каждый представитель широкого класса эксцессивных функций допускает единственное разложение Рисса, то есть разложение в сумму гармонич. функции и потенциала нек-рой меры (см. [6]). Стохастическая задача Дирихле. Начиная с относящейся к 1923 работы Г. Филлипса (Н. Phillips) и Н. Винера (N. Wiener), начал культивироваться вероятностный подход к решению классич. задачи Дирихле и ее обобщений. При этом до работ Дж. Дуба - исключение составляют, по-видимому, лишь работы С. Какутани (S. Kakutani) в 1944-45 - решение задачи Дирихле представлялось в виде предела решений дискретных вариантов задачи, при рассмотрении к-рых использовались подходящие цепи Маркова. Современная вероятностная трактовка задачи Дирихле предложена в работе [1] (см. также [2], [5]). Пусть X- непрерывный стандартный марковский процесс, £/<=£- открытое множество с границей дU, на к-рой задана нек-рая функция ф. Функция fix), xeU, по определению, является решением стохастич. задачи Дирихле с граничной функцией ф, если она гармонична для X на множестве U и если, каково бы ни было х е U, Пт/ХХ,)=ф(Хт) (2) t\x Р^-почти наверное на множестве {т<£}, где х = тЕГки. Если ф ограничена и является борелевской, то единственным ограниченным решением поставленной задачи служит функция /*=П(/ф, где по аналогии с (1) положено П^фОс) = fdu /X у)ки(х, dy), xeU. Закономерен вопрос: при каких требованиях указанное решение /"удовлетворяет классич. варианту условия (2): lim f(x)^(^(y),yedU? (3) ie U, х-* у Оказывается (см. [5]), что для широкого класса сильно фел- леровских процессов условие (3) реализуется всякий раз, когда ф непрерывна в точке у, а сама эта точка регулярна для E\U (тоестьРу{т = 0}=1). Оправданием употребления в настоящем контексте выражения «задача Дирихле» служит то обстоятельство, что для обширного семейства диффузионных процессов рассматриваемое решение f-Ujjip в множестве UaE = ^n удовлетворяет ПОТЕНЦИАЛА 489
уравнению Lf-Of где L - производящий дифференциальный оператор процесса, тогда как граничное условие (3) имеет тот же вид, что и в классич. теории (см. Вероятностное решение дифференциальных уравнений). В то же время требование регулярности граничной точки зачастую оказывается равносильным своему классич. двойнику (см. [5]). Для построения решений стохастич. задачи Дирихле могут быть использованы подходящие модификации таких известных методов, как, напр., метод выметания (см. [2]). При этом целесообразно пользоваться теоремой Дж. Ханта о выметании (см. [3], [6]), новейший вариант к-рой имеется в [9]. Соответствующий вариант стохастич. задачи Дирихле рассматривается в рамках теории границы Мартина. Обратные задачи вероятностной теории потенциала. Аналитик, интересующийся границами применимости вероятностной П. т., может поставить следующие вопросы. Пусть измеримое пространство (£, &) удовлетворяет тем же условиям, что и фазовое пространство стандартного марковского процесса, и пусть в (Е, &) задано нек-рое ядро r(x, dy) [функция г(х, Г), хеЕ, Ге&, называется ядром в (Е, Уд), если по первому аргументу она 50-измерима, а по второму является а-конечной мерой на эЗ]. При каких условиях r(x, dy) служит ядром потенциалов для какого-либо марковского процесса? Второй вопрос: как решить, является ли нек-рое семейство у неотрицательных функций, определенных на том же пространстве Е, совокупностью эксцессивных функций какого-нибудь марковского процесса? Разумеется, здесь предполагается, что f= 1 входит в у. Известен следующий ответ на первый вопрос (см. [3]). Пусть С0 - банахово пространство непрерывных в Е функций, обращающихся в 0 на бесконечности, с нормой \\f\\ =sup [/"), fe С0, а Ск - совокупность таких функций с компактными носителями. Пусть оператор R каждой функции feCK соотносит функцию Rf(*)=jEf(y)r(,dy)eCQ, и пусть R(CK) плотно в С0. Пусть, наконец, выполнен полный принцип максимума: если д^О постоянно, функции f, де Ск неотрицательны и а + Rf^Rg на носителе д, то последнее неравенство реализуется всюду в Е. Тогда ядро r(x, dy) является ядром потенциалов нек-рого процесса Ханта. Этот результат получил далеко идущие обобщения (см. [14]). Что касается второго вопроса, то им занимался ряд авторов, начиная с П.-А. Мейера (P.-A. Meyer, 1963). Употребляя язык теории гармонич. пространств, можно в общих чертах наметить следующий ответ: если Е наделено структурой достаточно хорошего гармонич. пространства, а семейство у является конусом гипергармонич. неотрицательных функций в нем, то у совпадает с совокупностью эксцессивных функций нек-рого стандартного процесса (см. [17]). См. также Емкость, Марковский процесс; энергия. Лит.: [1] DoobJ.L., «Trans. Amer. Math. Soc», 1954, v. 77, p. 86-121; [2] его же, Classical potential theory and its probabilistic counterpart, N.Y. - Hdlb. -В., 1984; [3] Hunt G. A, «111. J. Math.», 1957, v. 1, № 1, p. 44-93; M> 3, p. 316-69; 1958, v. 2, № 2, p. 151-213; рус. пер. - Хант Дж. А., Марковские процессы и потенциалы, М., 1962; [4] Del lacherie С, Meyer P. A, Probabilites et potentiel. Theorie discrete du potentiel, P., 1983; [5] Дынкин Е.Б., Марковские процессы, М., 1963; [6J В 1 umen t h al R. M., Getoor R. К., Markov processes and potential theory, N.Y. - L., 1968; [7J Meyer P.-A., Processus de Markov, N. Y., 1967; 18] Кузнецов С.Е., в кн.: Итоги науки и техники. Современные проблемы математики, т. 20, М., 1982, с. 37-178; [9] Getoor R. К., Markov processes. Ray processes and right processes, В., 1975; [10] FukushimaM., Dirichlet forms and Markov processes, Amst. - Oxf. - N. Y., 1980; [И] ШурМ. Г., «Матем. заметки», 1973, т. 13, в. 4, с. 587-96; [12] его же, «Теория вероятн. 490 ПОТЕНЦИАЛА и ее примен.», 1975, т. 20, в. 2, с. 267-91; [13] WatanabeT., «Ргос. Japan. Acad.», 1962, v. 38, № 8, p. 397-407; [14] Taylor J. С, «Ann. Probab.», 1975, v. 3, № 2, p. 355-57; [15] Chung K. L., Rao M., «Arm. Inst. Fourier», 1980, t. 30, № 3, p. 167-98; [16] Pop- Stojanovic Z. R., Rao M., «Prepr. Ser. Mat. Inst. Aarhus univ.», 1983-84, Ns 29; [17] Constantinescu C, Cornea A., Potential theory on harmonic spaces, В.- Hdlb.- N. Y., 1972. M. Г. Шур. ПОТЕНЦИАЛА ТЕОРИЯ для цепи Маркова (potential theory for a Markov chain) - вероятностный аналог аксиоматической и классической теорий потенциала. Ведет начало от серии работ Ж. Дени преимущественно аналитич. характера (см., напр., [1]) и одного вероятностного исследования Дж. Дуба [2]. Основные понятия и результаты вероятностной П. т. имеют хорошо известные классич. прообразы (см. Потенциала теория для марковского процесса). В нек-ром измеримом пространстве (£", 3&) задается однородная цепь Маркова X = (Хп, Рх) с вероятностями перехода за п шагов р(п, х, Г) (здесь и далее д:иГ пробегают соответственно Е и 38; под «функциями» понимаются id-измеримые отображения Е в (-«в, +<»]). Ее ядро потенциалов R(x, Г) = ir(*) + £^ t рЫ, х,Г), (*) где 1г - функция-индикатор множества Г, предполагается собственным, что подразумевает существование таких множеств Е{, Е2, ..., исчерпывающих в сумме Е, для к-рых функции /?(-, Еп) ограничены. Тем самым обеспечивается достаточное богатство семейства эксцессивных функций - одного из основных объектов и элементов аппарата теории. Потенциал Rf(-)=jEf(y)R(;dy) любой функции /"^0 эксцессивен, и каждая эксцессивная функция является предельной для нек-рой неубывающей последовательности ограниченных потенциалов неотрицательных функций. Особый интерес вызывает равновесный потенциал кг того или иного множества Г, где кг(х), хеЕ, приравнивается к Рл-вероятности когда-либо достичь этого множества (терминология несовершенна: тсг может не являться потенциалом какой бы то ни было функции). Справедливы модификации многочисленных принципов классич. теории потенциала (см. [4], [5]). Напр., для любых функций f, h ^ 0 и константы а ^ 0 из осуществления неравенства а + Rh^Rf на множестве А - {х: fix) >0} следует его справедливость всюду (полный принцип максимума). Если f принимает значения любых знаков, но /?[min (/*, 0)]>-°°, а множество {x:Rf(x) > 0} непусто, то sup{Rf(x); хе Е) = sup{Rf(x); хеА} (принцип положительного максимума). Основные направления исследований связаны с изучением эксцессивных мер, построением варианта теории для возвратных, напр. по Харрису, цепей (см. [5]). Имеются описания ядер, допускающих представление (*) для какой-либо цени Маркова [5]. Для счетных цепей Маркова теория значительно упрощается (см. [6]). П. т. для цепей Маркова является специальной главой дискретной П. т. (см. [4]), имеющей дело не только с ядрами более общего вида, но и с нек-рыми объектами («игорными домами») еще более сложной структуры. Лит.: [11 Deny J., «Ann. Inst. Fourier», 1952, t. 3, p. 73-101; [2] DoobJ.L., «J. Math. Mech.», 1959, v. 8, .N9 3, p. 433-58; [3] Мейер П.-А., Вероятность и потенциалы, пер. с англ., М., 1973; [4] DellacherieC, M eye г Р.-A., Probabilites et potentiel. Theorie discrete du potentiel, des martingales, t. 1-2, P., 1975-80; [5] Pe- в юл Д., Цепи Маркова, пер. с англ., М., 1997; [6] Хеннекен П,Л., Тортра Л., Теория вероятностей и некоторые ее приложения, нср. с франц., М., 1974. д/. /; ц]урт
ПОТЕНЦИАЛЬНАЯ ПОМЕХОУСТОЙЧИВОСТЬ (poten tial noise immunity) - минимально возможные искажения при приеме сообщения, переданного по каналу связи с шумами. | Напр., при передаче сообщения a(t) по каналу с независимым аддитивным белым шумом n(t) принимаемый сигнал имеет вид r(t) = S(t, a(t)) + n(t), te[Q, T], где S(t, a) - известная функция аргументов t и а. Нахождение П. п. приемника эквивалентно вычислению риска наилучшей оценки a(t) для a(t) по наблюдениям r(s), se[0, Т]. Выбор функции потерь может существенно зависеть от конкретных условий передачи. При передаче сообщений, являющихся элементами нек-рого конечного множества, риск оценки измеряют, как правило, максимальной или средней вероятностью ошибки. В других случаях, напр. когда сообщение a(t) - стационарный процесс, риск часто вычисляется при квадратичной функции потерь. Лит.: [1] Котельников В. А., Теория потенциальной помехоустойчивости, М.-Л., 1956. Г. К. Голубев. ПОТЕНЦИАЛЬНАЯ ФУНКЦИЯ (potential function) - функция, используемая в задачах классификации для измерения сходства между объектами, задаваемыми точками в признаковом пространстве 1РЯ. П. ф. представляет собой положительную функцию К(х, г) двух точек, стремящуюся к нулю при стремлении расстояния между ними р(х, г) к бесконечности. На использовании П.ф. основан метод классификации, получивший название метода потенциальных функций. Его суть основывается на следующей физич. аналогии. Пусть необходимо разделить два класса А и В, представленные выборочными образами xk. Если представить теперь выборочные образы как источники энергии, то в любой из точек xk потенциал достигает максимального значения и уменьшается при переходе во всякую точку, отстоящую от xk. На основе этой аналогии можно допустить существование эквипотенциальных контуров, описывающихся П.ф. К(х, xk). Можно считать, что кластер, образованный выборочными образами, принадлежащими классу Л, образует «горное плато» с «холмами», в вершинах к-рых расположены выборочные образы xk, принадлежащие классу Л. Аналогичные построения можно провести и относительно выборочных образов класса В. Эти два «плато» разделены «долиной», в к-рой, как считается, потенциал близок к нулю. Решающее правило, основывающееся на этих интуитивных доводах, следующее. Если принимается гипотеза xtA, а в противном случае - гипоте- i за*е£. Лит.: [1] Айзерман М. А., Браверман Э. М., Розоно- эр Л. И., Метод потенциальных функций в теории обучения машин, М., 1970. Ю. П. Юрачковский. ПОТЕРЬ ФУНКЦИЯ (loss function) - функция L(9, d) на прямом произведении 0 х D параметрического пространства 0 на пространство решений D, выражающая потери (в определенных единицах измерения), к-рые несет статистик от принятия решения deD, когда истинное значение параметра распределения наблюдаемой случайной величины равно 8 е 0. Традиционные П.ф.: в теории оценивания (D = 0) векторного параметра 8(0 £ И? )- квадратическая функция потерь L(8, d)- \\Q-d\\ ; в задачах различения гипотез #i: в е 0J, 1=1, ..., k,- функция потерь типа0-1: ч ГО, если в€0,, d = dit i = l, ...,*, [1 в противном случае, где di - решение об истинности гипотезы #f. См. также Статистическая игра. Лит.: [1] Вальд А., Статистические решающие функции, пер. с | англ., в сб.: Позиционные игры, М., 1967, с. 300-522. I А. В. Бернштейн, И. Н. Володин. \ ПОТОК (flow)- семейство автоморфизмов {Т1, fell?} пространства с мерой (X, Л, |i), удовлетворяющих условию: для любых t]t t2e№ имеет место Tt{+ 2х = Т**Т*2х при ц-почти всех хе X. Уточнение характера зависимости Т* от t приводит к понятиям непрерывного потока и измеримого потока. Б. М. Гуревич. ПОТОК Бернулли (Bernoulli flow) - см. Бернулли сдвиг. ПОТОК измеримый (measurable flow) - см. Измеримый поток. ПОТОК непрерывный (continuous flow) - см. Непре рывный поток. /С-ПОТОК (/C-flow) - см. К-система. ПОТОК G-АЛГЕБР (filtration/family of a-algebras) - семейство а-алгебр вероятностного пространства (Q, .*/, Р), удовлетворяющее нек-рым условиям. Пусть Т - упорядоченное множество, й пусть при каждом teT определена а-алгебра *4Ь подмножеств вероятностного пространства (Q, d, P). Семейство а-алгебр (**ft\eT называется потоком а-алгебр, если dt<^d при каждом teT и ^ — «Ч ПРИ 5» teT, s^t. С каждым случайным процессом X(t) в фазовом пространстве (А/, 85) связан естественный поток а-алгебр (9tt)tGT:$lt - минимальная а-алгебра подмножеств Q, содержащая множества вида {co:X(s, со) е Г} при всевозможных ГеЯЗ, ssTt s^t. Если Г = 1Р+, то обычными условиями на поток а-алгебр (^)^о являются: а) его непрерывность справа, то есть jft= p| ,</s при всех £^0; б) а-алгебра Л полна относительно меры Р и а-алгебра ^0 содержит все множества из .4 нулевой меры. Лит.: [1] Деллашери К., Емкости и случайные процессы, пер. с франц., М., 1975. Н. И. Портенко. ПОЧТИ БОРЕЛЕВСКАЯ ФУНКЦИЯ (almost Borel tunc tion) - см. Потенциала теория для марковского процесса. ПОЧТИ ИНВАРИАНТНЫЙ КРИТЕРИЙ (almost invariant test) - см. Инвариантный критерий. ПОЧТИ СЕПАРАБЕЛЬНОЗНАЧНОЕ ОТОБРАЖЕНИЕ (almost separably valued mapping) банаховых пространств - см. Сильно измеримое отображение. ПОЧТИ СТАЦИОНАРНЫЙ СЛУЧАЙНЫЙ ПРОЦЕСС (almost stationary stochastic process) - равномерно ограниченный линейно стационарный случайный процесс, случайный процесс, обладающий специальным свойством, родственным стационарности. Комплекснозначный случайный процесс Х(0, tsT, с Е|Х(0|2<~, где Г=(-оо, оо) или Т=(0, ±1, ±2, ...), называется почти стационарным в широком смысле, если существует постоянная К^ 1 такая, что при любых натуральном п, комплексных числах сх сп и s, t\, ..., tn^T выполняется неравенство Н х;и л-Н2 Н £,V/*42- Комплекснозначный процесс Х(0, teT, называется почти стационарным в узком смысле, если существует постоянная К ^ 1 такая, что при любых натуральном п, числах 5, th ..., tneT и борелевском множестве Г в «-мерном комплексном пространстве Р{Ш^+5), ...,Х(г„ + 5))еГ}^Л:Р{(Х(^), ...,*(*„)) 6 Г}. Для П. с. с. п. в широком смысле X(t) с ЕХ(О = 0 существуют линейный бинепрерывный положительный оператор А в гильбертовом пространстве Нх> представляющем собой замкнутую в среднем квадратичном линейную оболочку значений Х(0, te T (см. Корреляционная теория случайных функций) ПОЧТИ 491
и стационарный в широком смысле процесс Y(t), для к-рого ЯУ = ЯХ такие, что X{t) = AY(t), teT (см. [1]). Если X(t) - П. с. с. п. в узком смысле на вероятностном пространстве (Q, £8Х, Р), где ЗВХ ~ это о-алгебра, порожденная величинами X(t), te Т, то на (Q, 33х) существует эквивалентная Р вероятностная мера Р\ относительно к-рой X(t) является стационарным в узком смысле процессом, и \/K^dP'((u)/dP^K почти наверное (см. [2]). Лит.: [II Tjerstheim D., Thomas J.В., «IEEE Trans. Inform. Theory», 1975, v. 21, № 3, p. 257-62; [2] Tjestheim D., «Adv. Appl. Probab.», 1976, v. 8, № 4, p. 820-30. А. И. Пономаренко. ПРАВДОПОДОБИЯ ОТНОШЕНИЕ (likelihood ratio) - см. Отношения правдоподобия критерий, Правдоподобия функция. ПРАВДОПОДОБИЯ ОТНОШЕНИЕ для случайных процессов (likelihood ratio for random processes) - см. Статистические задачи теории случайных процессов. ПРАВДОПОДОБИЯ ОТНОШЕНИЕ монотонное (monotone likelihood ratio) - см. Монотонное отношение правдоподобия. ПРАВДОПОДОБИЯ ПРИНЦИП слабый (weak likelihood principle) - см. Наибольшего правдоподобия принцип. ПРАВДОПОДОБИЯ ПРИНЦИП усиленный (strong likelihood principle) - см. Наибольшего правдоподобия принцип. ПРАВДОПОДОБИЯ УРАВНЕНИЕ (likelihood equation) - уравнение для нахождения максимального правдоподобия оценки. И. А. Ибрагимов. ПРАВДОПОДОБИЯ ФУНКЦИЯ (likelihood function) - функция плотности р(х, в) (относительно нек-рой а-конечной меры и) случайной выборки X, рассматриваемая как функция параметра в, в к-рой аргумент х фиксирован и равен исходу статистического эксперимента, заключающегося в наблюдении над X. Функция \пр{х, 0) называется логарифмической функцией правдоподобия. При замене меры |i на другую эквивалентную а-конечную меру П. ф. (логариф- мич. П.ф.) изменяется на множитель (слагаемое), не зависящий от 0. Важную роль при статистич. выводах играет частный случай, когда в качестве меры |1 выступает распределение Рв случайной выборки X, относящееся к нек-рому фиксированному значению в0 параметра в; в этом случае П.ф. ,р (х) называется отношением правдоподобия. Если случайная выборка X разбита на две компоненты X=(Y, Z), то П.ф., получаемая с помощью маргинального распределения подвыборки Z, называется маргинальной функцией правдоподобия, а П.ф., получаемая с помощью условного распределения Y при фиксированном значении г компоненты Z, называется условной функцией п рав доподобия. Понятие «П.ф.» было введено Р. Фишером [1|. См. Статистические задачи теории случайных процессов. Лит.: [I] Ficher R. A., «Mess. Math.», 1912, v. 41, p. 155-60; [2] Крамер Г., Математические методы статистики, пер. с англ., 2 изд., М., 1975; 131 Боровков А. А., Математическая статистика, М., 1984; [4] Кокс Д., Хинкли Д., Теоретическая статистика, пер. с англ., М., 1978. А. В. Бернштейн. ПРАВИЛЬНАЯ ОЦЕНКА (proper estimator) - см. Эквива- риантная оценка. ПРАВОЕ РАСПРЕДЕЛЕНИЕ ПАЛЬМА (right Palm distribution) - см. Точечный процесс на группе. ПРАВОЕ СЛУЧАЙНОЕ БЛУЖДАНИЕ (right random walk) - см. Маркова цепь. 492 ПРАВДОПОДОБИЯ ПРАВЫЙ МАРКОВСКИЙ ПРОЦЕСС (right Markov pro cess) - марковский процесс, удовлетворяющий правым гипотезам Мейера, то есть непрерывный справа процесс, для к-рого все а-эксцессивные функции почти наверное непрерывны справа вдоль всех траекторий. Точнее, пусть X=(Xt, dv P^.) - однородный марковский процесс со значениями в борелевском подмножестве Е метрич. компакта, причем Px{Xq = x} = 1. Процесс X называется правым марковским процессом, если: а) его траектории непрерывны справа; б) поток а-алгебр Mt непрерывен справа и таков, что c4t— f] ^f (пересечение берется по всем вероятностным мерам |1 на Е), где df - наименьшая а-алгебра, содержащая c4t и все множества Р„-меры 0 из пополнения Л по мере |i; в) для любой а-эксцес- сивной функции f(x) (см. Потенциала теория для марковского процесса) случайный процесс f(Xt) непрерывен справа Рц-почти наверное для любой вероятностной меры [L на Е. П. м. п. является строго марковским процессом, и, более того, непрерывный справа строго марковский процесс, удовлетворяющий указанным условиям на поток ^t, является правым. П. м. п. были предложены в [ 1 ] в замену стандартным марковским процессам как наиболее широкий класс процессов, для к-рых осуществимы конструкции вероятностной теории потенциала; эти идеи развивались далее в [2], [3]. Аналогом П. м. п. для неоднородных марковских процессов Х= (Xt, dst, P, Psx, Pt,x) (см. Марковский процесс) являются процессы, удовлетворяющие условию: для любых s<ut Л g У", ВеЛ^° случайный процесс Pt>x(A) непрерывен справа на [s, и] Р5Ц-почти наверное, а случайный процесс Pt,xt(B) непрерывен справа на [s, и] Р5,"-почти наверное (см. [4]). Лит.: [1] Walsh J. В., Meyer Р.-А., «Invent. Math.», 1971, t. 14, p. 143-66; [2] Getoor R. K., Markov processes. Ray processes and right processes, В., 1975; f3] Engelbert H.J., «Math. Nachr.», 1978, Bd 84, S. 277-300; [4] Кузнецов С. Е., в кн.: Итоги науки и техники. Современные проблемы математики, т. 20, М., 1982, с. 37-178. С. Е. Кузнецов. ПРАНДТЛЯ ПРИаЕННЫЙ ЗАКОН (Prandtl wall law) - см. Пристенные законы в теории турбулентности. ПРЕБЫВАНИЯ ВРЕМЯ (sojourn/occupation time) - см. Полу марковский процесс. ПРЕДБЕЛИВАНИЕ (prewhitening) - процедура, используемая при спектральном анализе временных рядов. Если имеются предварительные сведения о пиках и впадинах спектральной плотности анализируемого временного ряда Yt, оказывается полезным перейти к новому ряду Zt с помощью преобразования Zt = Zloc'Y'-r't = 0' ±1'±2 При этом ряд будет иметь спектральную плотность aw-IXJLo^IVw. (,) где f(X) - спектральная плотность Yt (см. Линейный фильтр). Коэффициенты сг стараются подобрать таким образом, чтобы /г(Х) была как можно более гладкой (близкой к спектральной плотности белого шума). Поскольку гладкую спектральную плотность оценивать значительно легче, сначала оценивают h(X) по ряду Zt, а затем находят f(X) из (*). Ю. Г. Баласанов. ПРЕДЕЛЬНЫЕ ТЕОРЕМЫ (limit theorems) - общее название обширной группы теорем, составляющей одно из основных направлений исследований в теории вероятностей и несущей в себе ббльшую часть ее практической значимости. Начало создания этой науки как математич. дисциплины связывают с публикацией в 1713 первой П. т.- Бернупли теоремы. Ее уточнением стала доказанная в 1730-33 А. Му-
авром (A. Moivre) Муавра ~ Лапласа теорема. П. Лаплас (P. Laplace), закладывая совместно с К. Гауссом (С. Gauss) в начале 19 в. основы ошибок теории, осознал большую практич. значимость этой теоремы и не только способствовал ее популяризации, но и предпринял попытки к ее обобщению. Обе теоремы послужили в дальнейшем образцами для получения многочисленных их аналогов и обобщений, объединяемых в настоящее время в две группы под названиями больших чисел закона и центральной предельной теоремы. К началу 20 в. теория вероятностей обогатилась еще четырьмя П. т., из к-рых две относились к первой группе [С. Пуассон (S. Poisson), 1837, П. Л. Чебышев, 1867], одна - ко второй (А. М. Ляпунов, 1900-01) и стоящая особняком Пуассона теорема, явившаяся важным дополнением к теореме Муавра - Лапласа, Сейчас П. т. насчитываются многими сотнями. Основную идею построения и назначения П. т. можно коротко обрисовать следующим образом. Для многих задач теории вероятностей типичной является такая ситуация, когда решение описывается в терминах семейства вероятностных распределений {Pt, teT], заданных на нек-рой а-алгебре ^={Л}, не имеющих, как правило, явных и удобных для численных расчетов аналитич. представлений. При этом среди возможных значений параметра t наибольший интерес представляют те, к-рые в определенном смысле близки к нек-рому критич. значению в. В этой ситуации естественно искать для Р, (или определяющих их характеристик, таких, как функции распределения, плотности и т.д.) достаточно простые приближенные выражения. Пусть распределения Р, непрерывны в точке 6 относительно метрики ц, реализующей подходящим образом подобранную топологию сходимости, то есть существует такое распределение Ре (не обязательно принадлежащее семейству), что Ц(Рр Р8)->0, г->6. (1) В этом случае Ре может рассматриваться как искомое приближенное выражение наиболее интересной части распределений Р^ (f«6). Упрощение задачи связано с исключением из рассмотрения параметра t, а также с тем, что Ре во многих случаях оказывается распределением определенной аналитич. структуры, как, напр., безгранично делимое распределение. Однако описанного предельного распределения Ре может не существовать, даже если топология сходимости выбрана как можно более слабой. Тогда привлекается следующая дополнительная процедура. Пусть {3t> teT) - семейство взаимно однозначных отображений **/ в себя и Q - распределение на **/ такие, что преобразованные меры Pt(A) - Pt(3^A) сближаются с Q при t -> в в смысле выбранной метрики ц, то есть ц(Р(, Q)->0, г->6. (2) Естественно ожидать, что в этой ситуации роль приближений для Pt возьмут на себя распределения Qt(A) = Q(3tA). И это действительно будет так, если метрика ц обладает соответствующим свойством инвариантности: n(Pt,Q) = H(Pt,Qt),teT. (3) Исходная информация о распределениях Р^ входит в Qt через посредство Q и 3t в полном объеме (так что Pt восстанавливаются по Qt и 3t) или только частично. В последнем случае утрата части информации компенсируется за счет существенного упрощения ее учета (если, напр., 3t зависят лишь от t и конечного числа функционалов от Pt), в связи с этим см. Собирательность предельной теоремы. Поскольку П. т. рассматривают не одну, а множество последовательностей Pt, подчиненных нек-рой системе условий, то естественно возникают два типа вопросов, на к-рые всегда стараются найти ответы. I. Что представляет собой в рамках сделанных предположений множество J ={Q} возможных предельных распределений в (2)? II. Что является критерием сходимости (в терминах каких-либо характеристик, задающих распределения Р,) последовательности Pt к выбранному распределению Q из J? Этому вопросу обычно сопутствует другой вопрос - каков критерий существования предельного распределения для последовательности Р, в рассматриваемой топологии? Ответы на эти вопросы естественно зависят от того, какая топология сходимости (то есть метрика ц) используется в (3). В полном объеме ответы пока удается получать лишь в тех случаях, когда выбираемая топология в определенном смысле естественна для данной модели. Проиллюстрируем сказанное на примере одной из наиболее распространенной в теории вероятностей модели - суммирования случайных величин схеме. Свое начало она берет в работах П. Лапласа и К. Гаусса, а привычную нам форму приобретает в работах 2-й половины 19 в. (П. Л. Чебышев, А. М. Ляпунов, А. А. Марков и др.). Вплоть до начала 20-х гг. 20 в. рассматривался преимущественно ее частный случай - схема нарастающих сумм случайных величин 5„ = Xj + ... + Хп, п= 1, 2, ..., или еще более частный случай - схема нарастающих сумм независимых случайных величин. В качестве преобразований Зп функций распределения Un(x) сумм Sn привлекались исключительно линейные преобразования Sn = 3n~lSn = -В~ (Sn-An), где Ап, Вп*0 - последовательность пар действительных постоянных, Un(x) = и^ЗпХ) = Un(Bnx + Ап). Преобразования Зп осуществляют компактификацию последовательности Un в смысле полной сходимости. В случае, если слагаемые Х; независимы и имеют конечные математич. ожидания и дисперсии, обычно берут Ап- ESn, Вп - DSn. Во всех П. т. этого периода по сути дела использовалась топология сильной сходимости (что соответствует выбору на роль ц такой, напр., метрики, как равномерная метрика р), хотя для схемы суммирования случайных величин естественной является топология слабой сходимости. В П. т. того времени в качестве предельных распределений в схеме нарастающих сумм выступали только нормальные распределения. Поскольку они непрерывны, то связанные с ними слабая и сильная сходимости оказываются эквивалентными (теорема Гли- в е н к о). Вместе с тем метрика р инвариантна относительно Зп в смысле (3), благодаря чему задачи асимптотич. приближений функций Un и Un становятся равносильными. В 1932-33 в связи с началом изучения класса © безгранично делимых распределений А. Н. Колмогоровым была предложена новая модель, обобщавшая как схему нормированных нарастающих сумм независимых случайных величин, так и схему, использовавшуюся в теореме Пуассона. В модели Колмогорова рассматриваются суммы независимых случайных величин, образующих серий схему, центрированные нек-рыми постоянными Ап: Zn = Xnl + ... + Xnn-An,n=i,2,... (4) Слагаемые Хп;- предполагаются подчиненными бесконечной малости условию: для любого е > 0 sup Р{|Хя;|>е}->0, п-юс. (5) Специфика и оригинальность модели Колмогорова связаны исключительно с условием (5), поскольку суммы вида (4) для схемы серий рассматривались еще в 1922 С. Н. Бернштейном, ПРЕДЕЛЬНЫЕ 493
Пусть Fn и Fnj - функции распределения случайных величин Zn и Xnj. При построении П. т. в модели Колмогорова используется топология слабой сходимости (то есть в качестве (X можно брать Леей метрику L). А. Н. Колмогоров высказал предположение, что в предложенной им модели i2=® (ответ на вопрос I). Эта гипотеза для случая, когда Хп]- имеют конечные вторые моменты, была подтверждена Г. М. Бавли [3], доказавшим, что возможные предельные распределения образуют в © подкласс @0 безгранично делимых распределений с конечными вторыми моментами. В полном объеме гипотеза доказана А. Я, Хинчиным (1938). Описание ®0 получено А. Н. Колмогоровым (1932), а всего класса ® - П. Леви (Р, Levy, 1934) в терминах характеристич. функций f, соответствующих распределениям G из ©, а именно: f(f, G) = ехр {itY + J<«a • \-itsmx)±±£-dW(x) (6) где у - действительная постоянная и W - неубывающая на (1? функция, W(-°°) = 0t W(°°)<°°, то есть функция G определяется парой (у, W). Критерий слабой сходимости последовательности Fn к заданной функции G-G{x\ у, W) (ответ на вопрос II) найден Б. В. Гнеденко (1939). В модернизированной форме (см. [4]) он выглядит следующим образом. Пусть fnj - характеристич. функции слагаемых Лгп; и С|(Хяу) = 1т1п/"яу(1) - соответствующие им центры, существование к-рых при достаточно больших п обеспечивает условие (5). Выбирают Ап = у+£. Сх(Хп;) и образуют функции Wn W = I; £ -^dFnM + Wnj »• ">!• Тогда при п -+ оо Шп, G)-+0*>L(Wn, W)-+0. В 1949 вышла в свет книга Б. В. Гнеденко и А. Н. Колмогорова [1], в к-рой были подведены итоги исследований по П. т. в рамках модели Колмогорова. Результаты этих исследований вместе с ранее накопленными фактами иногда называют классической теорией предельных теорем. Развитие достижений этой теории в нашем столетии шло по нескольким направлениям, таким, как перенесение результатов с действительной прямой на случаи конечномерных и бесконечномерных пространств, на множества матриц и абстрактных групп (такое изменение пространства значений, естественно, влечет за собой необходимость своего определения суммы случайных величин), замена условия независимости слагаемых менее жесткими требованиями (см. Центральная предельная теорема в банаховом пространстве, Предельные теоремы для цепей Маркова, Перемешивания условия, Предельные теоремы для мартингалов и семимартингалов). Многочисленные усилия были направлены на разнообразные уточнения П. т. (см. Центральная предельная теорема, Локальные предельные теоремы, Повторного логарифма закон, Берри - Эссеена теорема, Эджуорта - Крамера разложение, Больших уклонений вероятности). На основе классич. теории П. т. возникли направления исследований, связанные с заменой схемы суммирования моделями нелинейного типа. Ниже приведены примеры таких «нестандартных» П. т., тесно связанных со схемой суммирования. 1) Пусть Sn - последовательность сумм независимых случайных величин с Е5„ = 0, a^ = D5„, УП = УП_1 Е |Ху пусть у, <оо и п/°я ~* О ПРИ я -► °°- Тогда (следствие результата из [5]) Р{тах|5л|< xoj -> Q(x) = k -^..(-^«р"»*»2*2/** 2А+1 494 ПРЕДЕЛЬНЫЕ 2) Пусть Sn - суммы независимых случайных величин, общая функция распределения к-рых имеет медленно меняющиеся «хвосты»: \-F(x)~h](x),F(-x)~h2(x), h{(x)/(h{x) + h2(x))->p, при х -» оо, 0<p<\-q< \. Если [1/(1-Я*)), х>\, вЫ = |6(0(1 + *)/2 + e(-i)(i-*)/2f |*|<i, [-1/FW, х^-\, то последовательность функций распределения P{Zn<x) случайных величин Zn-Q(Sn)/n тогда слабо сходится при п -»<*> к функции распределения V(x) = q + pexp( - \/рх), х>0, V(x) = q - q exp(\/qx), x<0 (см. |6], а также [4]). 3) Пусть Zn = Qn(X\, ..., Хп) - нек-рая последовательность однородных симметрич. многочленов степени k^2, аргументами к-рых являются независимые случайные величины с общей симметричной функцией распределения F(x), 1 - F(x) ~ сх~а, х -+ оо, где с > О, 0<а<2. Симметрич. многочлены могут быть записаны в виде On = A„(S„, S„,),5„m = xr + ... + X„m, l<m<*. где Ап - многочлен степени k, коэффициенты к-рого (как и у Qn) могут зависеть от п. Можно считать, что они по абсолютной величине не превосходят 1. Если при п —> <*> последовательность п~ 'aQn сходится по распределению к невырожденной случайной величине Z (то есть слабо сходятся их распределения), то последняя совпадает, в смысле равенства распределений, со случайной величиной Л(У), где Л - многочлен степени, не большей чем k, и Y е И? - случайный вектор, характеристич. функция к-рого имеет вид fit) = ехр и ¥\{0) {e{v -\-i[a\txw)\w\-x-adw\ ^ = Х*=1^;' * = (*!,..., *Л)б11?\ [•] - целая часть (см. [7]). Кажущаяся завершенность классич. теории не приостановила желания ряда математиков вернуться к пересмотру нек-рых ее фундаментальных концепций; прежде всего к отказу от условия (5) (см. по этому поводу соображения П. Леви, оформленные в виде теоремы 38 из [2]). Серьезный интерес к этой проблеме возник в 60-х гг. [Л. Ле Кам (L. Le Cam), Ю. В. Линник, В. М. Золотарев, Ю. Ю. Мачис, X. Бергстрем (Н. Bergstrom) и др.], завершившийся созданием в 1969 теории П. т. для сумм независимых случайных величин, не использующей условия (5) (см. [4]). Существенной особенностью новой теории является то, что в ней приходится рассматривать в качестве множества £ возможных предельных законов множество & всех распределений на II? [именно к этому приводит отказ от (5)]. В дальнейшем П. т. в неклассической постановке распространялись как на случаи многомерных пространств (см. [8]), так и на случаи, когда условие независимости слагаемых в суммах ослабляется (см. [9]). Появление П. т. в неклассич. постановке помогло формированию новой точки зрения на П. т. в схеме суммирования независимых случайных величин как на теоремы устойчивости разложений предельных распределений в композиции других распределений (см. Лин- деберга - Феллера теорема). Появились близкие по духу к этой точке зрения разнообразные уточнения П. т., использующие псевдомоменты. Сама концепция П. т. как теорем устойчивости нашла подтверждение в ряде конкретных линейных моделей (см. [10]).
Второе критич. соображение в отношении классич. теории П. т. связано с тем, что естественной топологией сходимости в модели Колмогорова является слабая топология, к-рая реализуется метриками ц, не обладающими свойством инвариантности (3) относительно линейных преобразований. Тем самым задачи построения приближений для Pt и Р^ оказываются неэквивалентными. Это хорошо видно на следующем примере. Пусть Xnj в суммах (4) имеют такие симметричные распределения, что Р{|Хп/| = 1} = (1-1/и);Р{|Х„;|=п^5}=1/и,;=1,2 п. Условие (5) для них не выполнено, и поэтому нужна масштабная нормировка Zn = Zjn^b". Тогда EZn = 0, DZ7i->l, л-><». Пусть ЕпУ Fn- функции распределения сумм Z„, Zn и G - функция распределения симметризованного закона Пуассона с характеристич. функцией exp(cos t - 1). Тогда L(Fn, G) -> О, га->оо, то есть G является асимптотич. приближением для Fn. Однако отсюда не следует, что Fn(x) можно приближать распределениями G„(x) = G(*/nV5), поскольку L(Fn, Gn)^ G( + 0)~ 1/2>0, n^l. Сама идея построения предельных приближений на основе (2) неизбежно исключает из рассмотрения те исходные ситуации, к-рые не подпадают под действие критериев сходимости к заданным Q e J. Выход из этого положения естественно искать в расширении постановки вопроса. Последовательность распределений Pt следует приближать не одним, а последовательностью распределений, но это по сути дела то же самое, что и приближения Pt нек-рым множеством распределений более обозримой аналитич. структуры. Такую постановку задачи имел в виду А. Н. Колмогоров, когда рассматривал приближения сверток распределений безгранично делимыми законами, то есть задачу об оценке величины A =sup inf p(F*", G). Ему удалось доказать (1956), что Д^сп ' , с- числовая постоянная. В дальнейшем этот результат улучшался (А. Н. Колмогоров, Л. Ле Кам, Ю. В. Прохоров). В 1981 Т. Арак закрыл проблему, доказав, что неулучшаемой оценкой является Ап^стГ2^ (по поводу этой и смежных с нею проблем см. в [12]). Другим интересным направлением в развитии классич. теории П. т. является изучение феноменов поведения сумм независимых случайных величин, происходящих с вероятностью 1. К числу таких феноменов относятся больших чисел усиленный закон и повторного логарифма закон. Имеются результаты, к-рые можно интерпретировать как своеобразную усиленную центральную предельную теорему (см. [11], а также подробнее в ст. Центральная предельная теорема). В 70-80-х гг. заметно повысился интерес к П. т. в разнообразных нелинейных моделях (см., напр., [13]), к П. т. для последовательностей случайных величин (в частности, для сумм независимых случайных величин), зависящих от случайного индекса (число слагаемых к-рых случайно, см. [14]); соответствующие П. т. называются переноса теоремами. Лит.: [1] Гнеденко Б. В., Колмогоров А. Н., Предельные распределения для сумм независимых случайных величин, М.-Л., 1949; [2] Levy P., Theorie de I'addition des variables aleatoires, P., 1937; [3] Bawl у G. M., «Матем. сб.», 1936, т. 1 (43), с. 917-30; [4] Золотарев В. М., Современная теория суммирования независимых случайных величин, М., 1986; [5] Колмогоров А. Н., Теория вероятностей и математическая статистика, М., 1986, с. 114-16; [6] Darling D. A., «Trans. Amer. Math. Soc.», 1952, v. 73, № 1, p. 95—107; [7] Сейдль Л., «Теория вероятн. и ее примен.», 1988, т. 33, в. 2, с. 266-78; [8] Круглов В. М., там же, 1972, т. 17, в. 2, с. 209-27; [9] J a cod J., Schiryaev A. N., Limit theorems for stochastic processes, B.-[a. o.], 1987; [10] Золотарев В. М., «Теория вероятн. и ее примен.», 1989, т. 34, в. 1, с. 178-89; [11] Komlos J., Major P., Tusnady G., «Z. Wahr. und verw. Geb>, 1976, Bd 34, H. 1,S. 33-58; [12] Арак Т., Зайцев А.Ю., «Тр. Матем. ин-та АН СССР», 1986, т. 174, с. 3-214; [13] Dynkin E.B., Mandelba- um A., «Ann. Statist.», 1983, v. 11, N° 3, p. 739-45; [14] Гнеденко Б. В., Курс теории вероятностей, 6 изд., М., 1988. В. М. Золотарев. ПРЕДЕЛЬНЫЕ ТЕОРЕМЫ для марковских процессов (limit theorems for Markov processes) - теоремы, к-рые условно можно разделить на две группы. К первой группе относятся те П. т., в к-рых, кроме условия марковости, на исходные случайные величины накладываются также определенные условия слабой зависимости (см., напр., [1], [2]). Эти П. т., как правило, являются прямыми обобщениями соответствующих П. т. для независимых случайных величин. Ко второй группе относятся П. т. о сходимости распределений функционалов от одних марковских процессов к распределениям функционалов от других марковских процессов (см. [1]), в частности к распределениям функционалов от диффузионных процессов. Лит.: [1] Гихман И. И., Скороход А. В., Теория случайных процессов, т. 1, М., 1971; [2] Rosenblatt M., Markov processes, В.-[а. о.], 1971. П. П. Гудинас. ПРЕДЕЛЬНЫЕ ТЕОРЕМЫ для мартингалов и се- мимартингалов (limit theorems for martingales and semi- martingales) - теоремы, устанавливающие условия сходимости последовательностей мартингалов или семимартингалов. Семимартингал Х = (Xt)t>0 есть случайный процесс, заданный на стохастич. базисе 3d- (ft, **/, (^)^о* Р)» такой, что Xt является ^-измеримым при каждом t^O и его траектории принадлежат пространству D действительных функций, являющихся непрерывными справа и имеющих пределы слева. Пространство D вместе с метрикой Скорохода на нем превращается в полное сепарабельное метрич. пространство, и поэтому один из естественных видов сходимости последовательности семимартингалов X", п>\, к семимартингалу X (обозначение: X" ^ X) может пониматься как слабая сходимость соответствующих распределений Р" семимартингалов X" к распределению Р (обозначение: Рп ^ Р) семимартингала X. (Распределения понимаются как распределения вероятностей на борелевской а-алгебре, порожденной соответствующей метрикой и совпадающей с а-алгеброй цилиндрич. множеств.) С каждым семимартингалом X связывается его триплет Т-{В, С, v) предсказуемых характеристик, во многих случаях полностью определяющих его распределение Р. В связи с этим естественная постановка задачи об условиях сходимости Х"^Х состоит в выяснении того, когда та или иная сходимость триплетов (Тп-±Т) обеспечивает эту сходимость: Тп -» Т => X" Я X. Представляет интерес также и отыскание условий на сходимость триплетов, гарантирующих сходимость всех конечномерных распределений X" к X (обозначение: Х"-4Х), или сходимость конечномерных распределений на множестве SEIR+ (обозначение: Х"^5х). Один из основных общих методов доказательства сходимости Хп ^>Х (то .есть слабой сходимости Р" ^ Р), выраженной в терминах сходимости Тп -> Т, состоит в привлечении следующих трех промежуточных этапов: I) установление плотности семейства распределений; II) характеризация всех слабых пределов; III) идентификация, то есть Г->Г=>Р'=Р для любой вероятностной меры Р' = со = Р". ПРЕДЕЛЬНЫЕ 495
Эти три этапа так или иначе присутствуют во многих доказательствах классич. предельных теорем теории вероятностей, напр. в методе характеристич. функций. Если X, Хп - случайные величины с характеристич. функциями T={fit), tefl?}, 7*= {/*(*), tefl?}, то сходимость Т" -> Г, понимаемая как поточечная сходимость характеристич. функций f4t) -*fit), £еП?, обеспечивает, как известно, слабую сходимость распределений Ри величин X" к распределению Р величин X и соответствующее доказательство проходит именно с привлечением трех этапов I, II, III. При этом плотность семейства {Р"} (в этапе I) вытекает из известной оценки Pw{fl?\[ - 1/д, \/a]}^7/afQ [\-Refnit)]dt и сходимости fnit)-+fit), is IP. В случае распределений на числовой прямой плотность семейства {Р"} равносильна его относительной компактности («из каждой подпоследовательности {Р"} можно выбрать подпоследовательность {Р"'}, слабо сходящуюся к нек-рому вероятностному распределению РЧ). Поэтому из сходимостей Р"' ^V P' и fn\t) -> fit), t е IP, вытекает следующая характеризация: Р' - распределение, характеристич. функция к-рого есть fit), £elP. Но характеристич. функция однозначно определяет распределение. Следовательно, Рг совпадает с Р (этап III). Таким образом, все слабые пределы w-\\mPn' совпадают с мерой Р, а значит, и вся последовательность {Рп} сходится к Р, то есть wAimP" существует и совпадает с Р. Идеология описанных трех этапов («плотность» Ф «характеризация» Ф «идентификация») используется на самом деле и при доказательстве (функциональных) предельных теорем, Хп^>Х, когда возможно (в качестве промежуточных результатов) установить плотность семейства распределений {Рп} и слабую сходимость всех конечномерных распределений Хп-4 X. Этот метод («плотность» ф «сходимость конечномерных распределений») позволяет дать такую характеризацию (этап II) распределений Рг: все конечномерные сужения мер Рг совпадают с конечномерными сужениями мер Р. В случае пространства D борелевская а-алгебра совпадает с а-алгеброй цилиндрич. множеств. Распределение Р на о-ал- гебре цилиндрич. множеств полностью определяется конечномерными распределениями. Поэтому этап III становится в этом методе тривиальным, то есть идентификация Р' с Р осуществляется просто через совпадение всех их конечномерных сужений. Метод доказательства сходимости Тп -> Т => X" ^> X через «плотность» Ф «сходимость конечномерных распределений» «работает» в основном тогда, когда предельный процесс имеет сравнительную простую структуру, напр., когда является процессом с независимыми приращениями. Во многих же случаях, напр. в вопросах функциональной сходимости к процессам диффузионного типа, отыскание условий сходимости конечно- Df мерных распределений X -Л X является трудной задачей, и приходится прибегать к другим методам. Один из таких методов, часто называемый мартингальным по причине используемых понятий и аппарата теории мартингалов и стоха- стич. исчисления, «работает» в том случае, когда рассматриваемые процессы X" и X являются семимартингалами. Суть этого метода (с привлечением этапов I, II, III) состоит в следующем. Пусть X" и X - семимартингалы с триплетами Tn = iBn, С", vw) и T=iB, С, v). Снова сначала устанавлива- 496 ПРЕДЕЛЬНЫЕ ется (на основе сходимости триплетов и с использованием мартингальных методов) плотность семейства {Р"}. Затем показывается, что предполагаемая сходимость триплетов Тп ->Т обеспечивает следующую характеризацию: все процессы X', распределения Р' к-рых являются слабыми пределами w-\\mPn', будут семимартингалами, триплет к-рых V в точности совпадает с Т. Наконец, этап III в этом методе состоит в установлении того, что триплет Т однозначно определяет распределение семимартингала X. Для рассмотрения конкретных случаев ниже предполагается, что X" - семимартингалы, п ^ 1, с триплетами Тп - iBn, Сп, vn) и кумулянтой, образованной следующим образом: G-<w = aB--£c-+j;j(. л\х \-iXhix))vnids,dx\ где h = hix) - непрерывная функция урезания ihix) = hi-x)} hix) = 0 вне нек-рого интервала [-а, а])\ и пусть -ДС"М »(Gn(»), =*'(}По<,« <1 + дс;а))* - стохастич. экспонента, построенная по GniX) и являющаяся решением уравнения d%(Gni\))t=HGna))t-dG?a). Теорема 1. Пусть X", п> 1, - семимартингалы с триплетами Тп и X - семимартингал, являющийся непрерывным по вероятности процессом с независимыми приращениями с триплетом 7\ Если $iGna))t-+$iGiX))t, teSSlR,, то имеет место слабая сходимость всех конечномерных распределений Р" (^> Pt t , t{eS, i=l,..., k [здесь Р" ? t и Pt t -распределения векторов (X" X") и (x(|,.!.. 4>i. Эта теорема, к-рую можно рассматривать как обобщение теорем метода характеристич. функций, позволяет получить «триплетные» условия сходимости. Теорема 2. Пусть Хп, л ^ 1, - семимартингалы с триплетами Г = (В", С", Vя): Я = СГ + [ t „ ,, hHxMds, dx) - Y <t (ab;)2 и выполнены следующие условия iTn -> Т): supv"({s}x(|*|^e))^0, Bnt^>Bt, C?Z*Ct, g*vrl^g*vt, teS, ge Ct, <7*v? - f gix)vids, dx), g*Vt = I qix)vids, dx) и С] - множество непрерывных ограниченных функций, имеющих пределы на бесконечности и равных нулю в окрестности нуля. Тогда X" -4 X. Формулировка этих теорем показывает, что присутствующие в них условия носят характер выполнения эргодич. теорем (типа законов больших чисел). Поэтому можно сказать, что по своему смыслу эти теоремы являются теоремами, редуцирующими проверку сходимости по распределению к выполнимости (более простых) условий типа закона больших чисел для триплетов. Относительно функциональной сходимости Х"^Х, когда X - непрерывный по вероятности процесс с независимыми приращениями, методом «плотность» Ф «сходимость конечно- где
мерных распределений» устанавливается следующий результат: пусть для всякого t > О suplaj-BJAo, suP|cs"-c5|Ao, sup\g*vns -g*vs\ АО, 0 6С,; тогда Xn^X. Отказ от предположения, что «предельный» процесс X является непрерывным по вероятности [это равносильно непрерывности детерминированных функций B=(Bt)t7>0, C=(Ct)t7>0, (g*v) = (<7*vt)^0' ^e^il» приводит [в предположении, что i*(G(A.)) не обращается в нуль] к следующему обобщению предшествующего результата: пусть Вп А В, Сп А С , g*vn ^>g*v в топологии Скорохода, ^е Cj; тогда Xя^ X. В более общих случаях, когда «предельный» семимартингал X=(X()t20 задан канонич. образом и его триплет T-(Bt С, v) определен на функциях x=(xs)s^0 из пространства D, имеет место следующий результат, устанавливаемый по схеме I®II®III: пусть Sk - метрика Скорохода, Sk(B", Box") АО, Sk(C", С°Х") А О, Sk(g*vn, (^v)°X")Ao и триплет Т - (В, С, v) определяет распределение семимартин- гала X однозначно; тогда Хп^>Х. Конкретизируя приведенные выше триплетные условия для частных случаев, можно из них вывести, напр., следующие результаты, выражаемые в более привычных терминах. 1) Пусть M=(Mt)t&Q- квадратично-интегрируемый мартингал, являющийся в то же самое время спиралью (то есть процессом со стационарными приращениями), и пусть X? = ^=-Mnt. Тогда Xn^y\w, где т\2 = E(Aft2 |/), / - система инвариантных множеств М, w - независимый от г\ стандартный винеровский процесс. Этот результат включает в себя принцип инвариантности Донскера для сумм независимых случайных величин ^, £2» ■■■ с конечным вторым моментом, Е£:2<~ и EL = 0 (если Mnt = \ %k, то Xn^w), a также аналогичный результат, когда ^, £2» ••• является стационарной эргодич. последовательностью, являющейся мартингал-разностью. 2) Пусть X"=(X")t^0 ~ точечные процессы с компенсаторами Ап- (A")t>0, X= (Xt)t^0 - точечный процесс с детерминированным компенсатором A=(At)t^Q (и, следовательно, являющийся процессом с независимыми приращениями). Тогда если Л|!АА|, £ (ДЛ")2А£ (ДЛ*)2 [равносильно: SkU",A)40],ToX"^X. 3) Пусть £" = (£pfc^t для каждого п ^ 1 - стохастич. последовательность такая, что £J являются ^-измеримыми, где .с/о={0, Q}Q^/"Q^2- ••■ Предполагается, что ILP{l^l>8W-.}^0, 86(0,1J, K.,[Efc*'(i5.*i<»k"-,}- -Efc.*/(|*J<«>l-<-,Fo2- Тогда Sn = ^ ^nk^>S} я->°°, где S - нормально распределенная случайная величина с ES = О, Е52 = ст2. Лит.: [1] Липце рР. Ш., Ширяев А. Н., Теория мартингалов, М., 1986; [21 Ж а код Ж., Ш и ря ев А. Н., Предельные теоремы для случайных процессов, пер. с англ., М., 1994; [31 Стохастическое исчисление, в кн.: Итоги науки и техники. Современные проблемы математики. Фундаментальные направления, т. 49, М., 1989. А. Н. Ширяев. ПРЕДЕЛЬНЫЕ ТЕОРЕМЫ для отношений, отвечающих марковскому процессу (ratio limit theorems for a Markov process), - теоремы о пределах при Г—»<» отношений вида f0PtfM)dt/f0Ptf2(b)dt (здесь а и Ъ берутся из множества Е состояний однородного марковского процесса X=(Xt, jft, Px); t^0\ fXl /2^0 ~ измеримые функции в Е\ Pt - операторы, отвечающие переходной функции процесса X). Случай не более чем счетного Е см. в [1]. В случае же множества Е более общей природы исследовался вопрос о существовании указанных пределов свиб^д, лежащими вне нек-рого «малого» множества (см. [2]-[5]), к-рое зачастую можно охарактеризовать как полуполярное множество (см. [3], [5]). Затрагивалась и аналогичная проблематика для аддитивных функционалов (см. [2], [6]). См. также Предельные теоремы для отношений, отвечающих цепи Маркова. Лит.: [1] Чжун Кай-лай, Однородные цепи Маркова, нер. с англ., М., 1964; [2] Azema J., Kaplan - D uflo M., RevuzD., *Z. Wahr. und verw. Geb.», 1967, Bd 8, № 3, S. 157-81; [3] Fukushima M., «J. Math. Soc. Japan», 1974, v. 26, № l, p. 17-32; [4] Шур М. Г., «Теория вероятн. и ее примен.», 1967, т. 12, в. 3, с. 493-505; [5] его же, там же, 1977, т. 22, в. 4, с. 712-28; [6] Д и рее в Ю. В., «Матем. заметки», 1980, т. 28, в. 1, с. 153-58. М. Г. Шур. ПРЕДЕЛЬНЫЕ ТЕОРЕМЫ для отношений, отвечающих цепи Маркова (ratio limit theorems for a Markov chain), - теоремы, позволяющие сравнивать средние длительности пребывания траектории Маркова цепи в различных множествах состояний на протяжении временного промежутка, длина к-рого неограниченно возрастает. Пусть счетная цепь Маркова задана на множестве {1, 2, ...} и имеет вероятность перехода за п шагов Pij(n), i, j, л^ 1. Тогда в числителе дроби X."-, V«VS.W., м«) <•> стоит средняя длительность пребывания траектории цепи в состоянии j на временном промежутке [1, Ы], N>\, при условии, что начальным состоянием служит !, а знаменатель имеет аналогичный смысл. Если состояния i, j, kt I сообщаются между собой (см. Маркова цепь; классификация состояний), то отношение (*) при N-><» стремится к нек-рому конечному пределу. В этом и состоит теорема Деблина (см. [1], [4]), первая по времени из п. т. для отношений. Значение указанного предела в 1950 вычислил Чжун Кай-лай (см. [4]). В наиболее интересном случае возвратной цепи для этого предела найдено несколько эквивалентных выражений, позволяющих, в частности, записать его в виде ц,-/ц/, где {и^; 1^1} - ненулевая инвариантная мера (см. Стационарное распределение; в данной ситуации эта мера единственна с точностью до числового множителя). Имеются обобщения этих результатов на случай цепей в произвольных измеримых пространствах (см. [2], [8], [9]), в частности на случай цепей, возвратных по Харрису (см. Маркова цепь). Вся эта тематика тесно связана с эргодич. теоремой Орнстейна - Чекона (см. [8], [9]). Самым известным из результатов типа так наз. сильных П. т. для отношений является следующий (см. [3], [8]). Пусть рассматривавшаяся выше цепь Маркова возвратна и непери- ПРЕДЕЛЬНЫЕ 497
одична, и пусть \ рн(п)>г для всех i^l и нек-рых е, N>0. Тогда lim [р^пУрь^п + О]**^/^ для всех состояний i> /, k, I и всех £ = 0, 1, ..., где величины \it имеют прежний смысл. Существуют аналоги этой теоремы для невозвратных счетных цепей определенного вида (см. [5], [6]) и для цепей в произвольных измеримых пространствах (см. [10], [11]). Впервые сильная П. т. для отношений была доказана в 1951 Чжун Кай-лаем (см. [4]) и П. Эрдешем (P. Erdos), изучавшими случайные блуждания по целочисленной решетке. Ныне же подобная проблема занимает видное место в рамках исследований случайных блужданий на более или менее произвольных группах (см. [7], [10]). Лит.: [\] Doeblin W., «Bull. Soc. math. France», 1938, t. 66, >fc 2, p. 210—20; [2] Нагаев С. В., «Теория вероятн. и ее примен.», 1957, т. 2, в. 4, с. 389-416; [3] Kingman J. F. С, Огеу S., «Ргос. Amer. Math. Soc», 1964, v. 15, № 6, p. 907-10; [4] Чжун Кай- лай, Однородные цепи Маркова, пер. с англ., М., 1964; [5] Pruitt W.E., «Ргос. Amer. Math. Soc.», 1965, v. 16, № 2, p. 196- 200; [6] Молчанов С. А., «Успехи матем. наук», 1967, т. 22, в. 2, с. 124-25; [7] Спицер Ф., Принципы случайного блуждания, пер. с англ., М., 1969; [81 Огеу S., Lecture notes on limit theorems for Markov chain transition probability, N. Y. - [a. o.], 1971; [91 Pe- вюз Д., Цепи Маркова, пер. с англ., М., 1997; [10] Guivarc'hY., «Asterisque», 1980, v. 74, p. 15-28; [11] ШурМ.Г, «Теория вероятн. и ее примен.», 1984, т. 29, в. 4, с. 692-702; 1985, т. 30, в. 2, с. 241-51. М. Г. Шур. ПРЕДЕЛЬНЫЕ ТЕОРЕМЫ для случайных матриц (limit theorems for random matrices) - общее название ряда теорем теории случайных матриц, указывающих условия возникновения тех или иных закономерностей в результате действия большого числа случайных факторов. Эти теоремы можно разбить на три большие группы. К первой группе относятся теоремы об асимптотич. распределении нек-рых функций от элементов случайных матриц при стремлении их порядка к бесконечности. Вторую группу составляют теоремы об асимптотич. распределении нек-рых функций от произведений случайных матриц, число к-рых стремится к бесконечности. К третьей группе относятся П. т. в так наз. схеме серий, когда распределения случайных матриц зависят от числа (номера серии) матриц. Теоремы первой группы возникли в связи с рассмотрением нек-рых моделей энергетич. уровней атомных ядер; это были П. т. для нормированных спектральных функций случайных матриц Ц„(*) = п~^=1х(^<*), где Xk - собственные значения квадратной действительной матрицы Е„ = ||£v|| порядка я, x(^-k<x^ " индикатор события ((o:Xk<x). Было доказано, что \1„(х) стремится по вероятности к нек-рой неслучайной функции, плотность к-рой имеет вид полуокружности. Это утверждение называется полукруговым законом. Дальнейшие исследования были направлены на нахождение общего вида предельных спектральных функций симметрических случайных матриц в предположении, что элементы случайных матриц, расположенные на диагонали и выше ее, независимы, бесконечно малы. При этих весьма общих условиях преобразования Стилтьеса предельных спектральных функций удовлетворяют каноническому спектральному уравнению. Кроме упомянутых П. т., были доказаны теоремы о предельном поведении нормированных спектральных функций 498 ПРЕДЕЛЬНЫЕ несимметрических случайных матриц Е„ = ||^,||. Было доказано, что плотность предельной спектральной функции равна константе на области, граница к-рой является эллипсом (см. Эллиптический закон). К первой группе теорем относятся также П. т. для собственных значений случайных матриц Еп. Эти теоремы доказаны при условии, что lim \imP{tr~.nS*n^h} = 0. Основной результат заключается в том, что при выполнении этого условия, а также при условии, что элементы случайной матрицы Е„ независимы и бесконечно малы, собственные значения матрицы Е„, упорядоченные по возрастанию их модулей, распределены так же, как и члены нек-рой порядковой статистики. Это дало возможность найти предельные распределения для собственных значений случайной матрицы (см. [1]). К числу важных теорем первой группы относятся также П. т. для детерминантов случайной матрицы. Доказаны теоремы типа центральной П. т. (см. Случайный детерминант), под к-рыми понимают любое утверждение о том, что при нек-рых постоянных ап и Ьп и нек-рых условиях, налагаемых на элементы матрицы Еп, справедливо равенство lim p{fe-t[ln|detEn|-flJ<Jc} = (2^)-1/2r e^dy. Следующим классом теорем первой группы являются П. т. для решений систем линейных алгебраич. уравнений Епхп = Ьп с независимыми случайными коэффициентами при стремлении их порядка к бесконечности. Центральное место здесь занимает так наз. закон арктангенса (см. [1]): пусть элементы £i;- случайной матрицы Вп= ||^;-||">; = 1 и вектора Ьп независимы, их математич. ожидания равны нулю, а дисперсии - единице и у них ограничены абсолютные моменты порядка 4 + 6, 8 > 0; тогда lim P {xk < z) - - + — arctg г, л-»» 2 тс где xk есть k-я компонента решения. Вторая группа П. т. отражает исследования по изучению предельных распределений нек-рых функций элементов произведений случайных матриц, к-рые ведутся по трем направлениям. В первом изучаются предельные распределения независимых случайных матриц, принимающих значения в компактной группе. В предположении, что распределения матриц абсолютно непрерывны относительно меры Хаара на этой группе, при нек-рых дополнительных условиях предельная мера для произведений таких независимых случайных матриц равна нормированной мере Хаара на этой группе (см. [2]). Второе направление связано с изучением предельных распре* делений и условий сходимости к ним распределений нормированных функций от произведений ГТ Л, независимых случайных матриц Ai со значениями в нек-рой локально компактной группе (см. [3]). В качестве нормированных функций, как правило, берутся следующие: произведение матриц Хп - J"p_t Л,- представляется в виде Хп= UX\U2> где U{ и U2 - ортогональные (унитарные) матрицы, Л= Ц^Д.Ц -диагональная матрица с неотрицательными элементами. Тогда в качестве нормированных функций матрицы Хп берут функции {[1пА^Хя)-дя]*Г\ i=l, .... mtU^Xn)tU2(Xn)}t где ап и Ьп - нек-рые нормирующие функции. Третье направление связано с изучением распределений решений рекуррентных уравнений вида X„ = F„(X„_t) + Bn_v где Fn(X) и Вп^ - соответственно независимые случайные матричные функции и
случайная матрица. В частности, к изучению таких уравнений приводят задачи оценивания параметров систем рекуррентных уравнений. К третьей группе П. т. относятся теоремы об асимптотич. поведении произведений случайных матриц в схеме серий при условии, что при стремлении номера серии к бесконечности каждая случайная матрица сближается по вероятности с нек-рой неслучайной матрицей (см. [6]). Лит.: [1] ГиркоВ.Л., Теория случайных детерминантов, К., 1980; [2] Гренандер У., Вероятности на алгебраических структурах, пер. с англ., М., 1965; f3] Тутубалин В. Н., «Теория вероятн. и ее иримен.», 1965, т. 10, в. 1, с. 19-32; [4] Андерсон Т., Введение в многомерный статистический анализ, пер. с англ., М., 1963; [5 J Дай с он Ф., Статистическая теория энергетических уровней сложных систем, пер. с англ., М., 1963; [6] Буцан Г. П., Стохастические полугруппы, К., 1977; [7] Mehta M. L., Random matrices and the statistical theory of energy levels, N. Y. - L., 1967; 18] Fursten- bergH., Kesten H., «Ann. Math. Statist», 1960, v. 31, p. 457-69. В. Л. Гирко. ПРЕДЕЛЬНЫЕ ТЕОРЕМЫ для случайных множеств (limit theorems for random sets) - теоремы об асимптотическом поведении распределений случайных множеств. Существует несколько разновидностей П. т. Первая из них связана с суммированием по Минковскому (см. Минковского операции) случайных компактов в банаховом пространстве. Теоремы о сходимости вида Нтр^ ©?., Л,, ± 0?., М,у 0, Ь„ >0 (где Ах - случайные компактные множества, Д/г - детерминированные компакты, р - метрика Хаусдорфа) по вероятности или почти наверное называются законами больших чисел. Теоремы об асимптотич. поведении при более слабых нормировках являются аналогами центральной предельной теоремы. Доказательства фактов такого рода, как правило, основаны на сведении к случаю выпуклых Ап, к-рым можно сопоставить (случайные) опорные функции и трактовать последние как элементы банахова пространства непрерывных функций на сфере. В частности, когда Ak - независимые одинаково распределенные случайные компакты, имеющие математич. ожидание (см. Математическое ожидание случайного множества), и Ьп = п, справедлив аналог теоремы Хинчина об усиленном законе больших ч и сел, причем в качестве М^ достаточно взять математич. ожидание /Ц (см. [1], [3], [5]). Для различных приложений обычно интересны следствия из П. т. об асимптотике распределений функционалов от сумм Ф"=1 A(-At напр.: о ширине множества Л - ЬгС4)= inf (хл(а) + хл(-сО), М = 1 диаметре А - diamC4)= sup ЫА(а) + хЛ-а)), Ы-1 степени асимметрии относительно точки х - 3symx(A) - sup (хл(а)-хл(-а)-2(а, х)) \\а\\ = 1 (где хл - опорная функция выпуклой оболочки Л, (а, х) - скалярное произведение). Второй тип П. т. появляется естественным образом в теории конечных случайных множеств. Напр., пусть (Ak) - последовательность независимых случайных подмножеств фиксированного конечного универсума, Мп(р) - эмпирич. среднее Av ..., Ля, а А/04}, р) - среднее значение Ах порядка р (см. Среднее значение случайного множества); тогда с вероятностью 1, начиная с нек-рого (случайного) номера, Мп(р)=М(Аир) (см. [4]). П. т. третьего типа рассматривают последовательности траекторий графиков случайных процессов как случайные множества и устанавливают различные признаки слабой сходимости распределений этих случайных множеств. Так, для слабой сходимости последовательности &п распределений замкнутых случайных множеств на плоскости к распределению & достаточно сходимости соответствующих сопровождающих функционалов на конечных объединениях прямоугольников [х, 2]x[t, у], где точки (х, у), (г, t) берутся из всюду плотного на плоскости множества. Пусть, в частности, исходная последовательность процессов имеет вид Xn(t) = bnX(nt), где X(t) = (Xjij + (t>lvv([t])(a[fj+1-a^]), a;-- независимые одинаково распределенные случайные величины, [t] - целая часть t, {t)=t-[t], lw_ индикатор множества Wy W^I^. Тогда класс возможных предельных распределений случайных множеств задается сопровождающими функционалами вида Г(/О = 1-ехр(-ц0(/О), причем ц0 = я(/)ц + (1 -я(/))ц*, где /= УП(У + 1),* Y-Il\W, n - асимптотич. плотность множества, u. = mest®v, mesj - одномерная мера Лебега, v - мера на прямой, задаваемая степенными монотонными функциями на полуосях, ц*(/0 = ц(/С*), К*= V(x,y)eK <M*[min(0, у), max (0, у)]). К кругу основных задач, решаемых здесь, относятся поиск условий сходимости к невырожденному распределению, к распределению без фиксированных точек (то есть точек х, почти наверное принадлежащих предельной реализации), а также сходимости распределений различных функционалов от исходных траекторий. Лит.: [1] Artstein Z., Vitale R. A., «Ann. Probab.», 1975, v. 3, № 5, p. 879-82; [2] Cressie N., «Z. Wahr. und verw. Geb.», 1979, Bd 49, № 1, S. 37-47; [3] «Lect. Notes in Math.», 1983, v. 990; [4] О р л о в А. И., Устойчивость в социально-экономических моделях, М, 1979; [5] Ляшенко Н. Н., «Зап. науч. сем. ЛОМИ», 1979, т. 85, с. 113-28; [6] его же, «Теория вероятн. и ее примен.», 1986, т. 31, в. 1, с. 81-90. Н. Н. Ляшенко. ПРЕДЕЛЬНЫЕ ТЕОРЕМЫ для случайных процессов (limit theorems for stochastic/random processes) - теоремы, устанавливающие условия, при к-рых случайные процессы сходятся в том или ином смысле к нек-рому предельному процессу. Пусть (ft, j/, Р) - вероятностное пространство и 3C=9C(J) - пространство действительнозначных функций x(t) на пара- метрич. множестве Т с а-алгеброй ЗЬ^, содержащей цилиндрич. множества {x(t)<u} при любых tel и и е IR. Измеримое отображение X (t, со) пространства (ft, о/) в (#", .%) есть случайный процесс, к-рый можно трактовать как семейство случайных величин X (tf со), заданных на (ft, **/, Р) [или на (#"(Т), ^r(j), P)] и зависящих от параметра teT. В качестве Т чаще всего рассматривают одномерный или многомерный интервал (процесс или поле с непрерывным временем) либо бесконечную последовательность (процесс с дискретным временем). В качестве вероятностного пространства удобно рассматривать само выборочное пространство (#"(Т), ##(т)> Р), где Р индуцирована отображением ft в 5Г(Т). Для множеств Т вида [0, Т], Т>0, в теории случайных процессов обычно рассматривают следующие пространства. 1. Ш) = (!Р)[0'П = П,еТ(11?)*, где (И?)' есть экземпляр действительной прямой (-оо,оо), являющийся множеством значений X(t, со). (Ю ' ' есть пространство всех действительных ПРЕДЕЛЬНЫЕ 499
функций на Т. Это пространство удобно рассматривать в паре с а-алгеброй 39q,q ту порожденной цилиндрич. множествами. 2. ЗС(Т) = С(0, Г) - пространство всех непрерывных на [О, Г] функций в паре с а-алгеброй ^с(О.г) борелевских [относительно равномерной метрики рс(*, y) = sup |х(£)-у(0|] множеств, совпадающей с цилиндрич. а-алгеброй. 3. 3T(T)=D(0, Г) - пространство всех функций x(t) на [О, Г], не имеющих разрывов 2-го рода и в каждой точке непрерывных либо справа, либо слева, д:(0) = дг( +0), х(Т)=х(Т-0). В качестве а-алгебры 3BD(QT) рассматривается борелевская а-алгебра относительно метрики pD Скорохода - Прохорова (см. ниже), совпадающая с цилиндрич. а-алгеброй. Можно выделить два типа П. т. для случайных процессов Хп(0, я=1, 2,... Первый, наиболее распространенный, не предполагает задания Хп на одном вероятностном пространстве и имеет дело со сходимостью распределений процессов Хп. Второй рассматривает сходимость траекторий Хп, когда процессы Хп заданы на одном вероятностном пространстве. Пусть дана последовательность Xn(t), п-\, 2, ..., случайных процессов в ЗГ, заданных, вообще говоря, не на одном и том же вероятностном пространстве. Говорят, что конечномерные распределения Хп сходятся (слабо) на множестве S с Т к конечномерным распределениям процесса X в ЗС, если для любого набора tx, ..., tk из S совместные распределения (X„(£t) Xn(tk)) слабо сходятся при я-><» к распределению (Х(^), ..., X(tk)). Это наиболее широкое понятие сходимости процессов. Однако оно оказывается недостаточным с точки зрения приложений, так как не обеспечивает, вообще говоря, сходимость распределений для сколько-нибудь широкого класса функционалов от Хп [таких, скажем, как Г6 I y(Xn(t))dt, sup Xn(t) и др.]. Теоремы сходимости для Ja t<=[a,b] случайных процессов всегда так или иначе связаны с тем классом функционалов от процессов, распределения к-рых изучаются. Можно различать общие теоремы о сходимости случайных процессов (не связанных с природой пространства ЗС, к-рое можно считать произвольным абстрактным топологич. пространством) и теоремы сходимости для процессов, заданных в конкретных пространствах [таких, как С(0, Г), D(0, Г)], или для специальных классов функционалов. Общие теоремы. Существует несколько подходов к получению общих П. т. для случайных процессов. I. Использование аппарата слабой сходимости мер в мет- рич. (или топологич.) пространствах. Этот подход был инициирован работой Ю. В. Прохорова [1]. Предполагается, что ЗС есть метрич. пространство с метрикой p^ix, у) и что а-алгебра ЗВ# борелевских множеств из ЗС содержит цилиндрич. множества. Изучается сходимость распределений f(Xn) для всевозможных непрерывных функционалов fe С(ЗС): P{f(Xn)<u}=>P{f(X)<u} прип-юо. (1) Эта сходимость эквивалентна слабой сходимости а-аддитив- ных мер в пространстве (ЗС, 9$л). Если Р„ и Р означают распределения в (ЗС, .%), соответствующие Хп и X (Р„С4) = = Р(ХП() е А)), то слабая сходимость Рп => Р означает J/№.->//ИР 500 ПРЕДЕЛЬНЫЕ для любого ограниченного функционала fe С(ЗС); это эквивалентно сходимости (1). Слабая сходимость Р„ => Р может быть охарактеризована также поведением Рп(А) на специально выбранных классах множеств А е 33^ Именно, Рп => Р тогда и только тогда, когда выполнено одно из эквивалентных условий (теорема Александрова): 1) РЛ(Л)->Р(Л) для класса Dp = {Ag33x: Р(5Л) = 0} всех Р-непрерывных множеств, где дА - граница множества Л; 2) lim sup Pn(F)<P(F) для всех замкнутых множеств F^9C\ 3) lim inf P„(G) >P(G) для всех открытых множеств вазе. Из условия 1) следует сходимость распределений f(Xn) для всех /"е СР(Х) => С(ЗС), где СР(Х) - класс Р-непрерывных функционалов, то есть непрерывных на множестве Л с #; РС4) = 1. Классы множеств, перечисленные в 1)-3), оказываются все же слишком широкими и неудобными для проверки. Положение существенно меняется, если рассматривать не произвольные, а лишь секвенциально компактные семейства {Р„}. Это не есть сужение постановки задачи, так как компактность {Рп} является необходимой для сходимости Рп => Р. Для компактных последовательностей {Рп} сходимость Р„ => Р обеспечивается сходимостью Рп(А) -> Р(Д) на значительно более узких классах множеств А. Говорят, что класс 9С определяет меру Р, если, какова бы ни была мера Q, равенства Р(Л) = 0(Л) для всех A g 9CDP влекут за собой Q = Р. Класс 9С определяет меру Р, если SC есть алгебра и a(3CDp) =3Bj. [условие о(%) = 3ix недостаточно]. Аналогично вводится класс Ф функционалов f, определяющих распределение Р процесса X: для любого Q совпадение распределений /XX) для fe ФПСр(лГ) влечет за собой P = Q. Для сходимости Р„ => Р необходимо и достаточно, чтобы: 1) последовательность Р„ была секвенциально компактной; 2) существовал класс событий SCc ЗВ, определяющий меру Р такой, что Рп(А) -> Р(Л) для каждого A eSCDp (см. [1], [2]). Альтернативой условию 2) может быть существование класса функционалов Ф, определяющего меру Р, такого, что Р{ДХ„) < и) -► Р{/ХХ) < и} для всех /"еФПСрСг). Если пространство траекторий ЗГ рассматривается как топологич. векторное пространство, то в качестве системы функционалов, определяющих меру, можно использовать пространство ЗС*, сопряженное к ЗГи состоящее из линейных непрерывных функционалов на ЗС. Характеристическим функционалом х(**» Р) меры Р называется значение X(x*,P)=jeix*ix)dP(x), где х*(х)еЗС*. Если ЗС локально выпукло, то характери- стич. функционалы однозначно определяют любую меру Р (см. [3]). При выяснении условий компактности {Рп} важную роль играет понятие плотности {Рп}. Семейство распределений {Рп} на .^называется плотным, если для любого е > 0 существует компакт К = К£азс такой, что Р„(Ю > 1 ~ е при всех п. Справедлива следующая теорема Прохорова: если семейство {Рп} плотно, то оно секвенциально компактно. Если ЗС- полное сепарабельное пространство, то верно и обратное утверждение (см. [2]). Так как компакты для многих функциональных пространств [в частности, пространств С(0, Г), D(0, Г)] явно описаны, то появляется возможность исследовать условия сходимости
РП=>Р в этих пространствах (см. ниже). Можно выделить класс гильбертовых пространств, в к-рых плотность {Рп} является следствием равностепенной непрерывности в нек-рой топологии семейства характеристич. функционалов Хп<**> = Хп(х*> Рп) в точке х* = ° <см- I3!)- Приведенные результаты в значительной мере могут быть перенесены и на произвольные топологич. пространства. Однако при этом возникают дополнительные трудности как технические, так и принципиальные, к-рые заставляют существенно сужать классы рассматриваемых пространств. Обходить эти трудности можно, используя иные подходы (см. разделы II-IV). II. Другой подход к П. т. для случайных процессов, к-рый нашел широкое применение, связан с именем А. В. Скорохода и называется методом одного вероятностного пространства. Этот метод относится к исследованию функционалов, непрерывных в нек-рой топологии в функциональном пространстве ЗГ=#"(0, Г), элементы к-рого однозначно определяются своими значениями на каком-нибудь счетном, всюду плотном множестве 5с: [О, Г], содержащем точки О и Г. Существо этого метода состоит в следующем. Пусть {Xn(t)t te[Q, T]} - последовательность процессов, заданных в 9С. Если есть сходимость на S конечномерных распределений процессов Xn(t) к распределениям X(t), то оказывается возможным на одном и том же вероятностном пространстве построить процессы Xn(t) и X(t) такие, что: 1) распределения Xn(t) и Xn(t); X(t) и X(t) совпадают, 2) P{Xn(t)->X(t) при всех teS}=\. Если теперь в зависимости от рассматриваемой топологии g в аГ наложить на последовательность Хп нек-рые дополнительные условия (см. условие 2 приведенного ниже утверждения), то наряду со свойством 2) почти наверное будет иметь место сходимость Хп -> X при п -> <*> в топологии д. Но это означает, что для g-непрерывного функционала f будет иметь место соотношение f(Xn) ->/"(Х) почти наверное, к-рое влечет за собой сходимость распределений f(Xn) к распределению f(X). Основные результаты, полученные таким методом, относятся к пространству D, в к-ром было рассмотрено пять различных топологий (так наз. топологии U, Jt, /2> Mit Д/2; см. [4]). Топологии U uj\ эквивалентны соответственно топологиям, индуцируемым метриками рс и pD в пространствах С и D. В пространстве D топологии J2 и М2 эквивалентны топологиям, порожденным соответственно метриками рЕ и pF (см. [5]). Каждой из этих пяти топологий отвечает ее модуль непрерывности w\(x) такой, что условия: 1) xn(t) ->*(0 при я->°° и teS, 2) lim lim w*(xn) = 0 необходимы и достаточны для g-cxo- д-> о п-> °° димости хп -»х при п -> °°. Пусть Xn(t) и X(t) заданы в пространстве D, Для любого fl-непрерывного функционала f распределение f(Xn) слабо сходится к распределению f(X) тогда и только тогда, когда: 1) конечномерные распределения Хп сходятся к распределениям X на нек-ром всюду плотном множестве 5", 2) lim lim P{w*(Xn) >е} = 0 при любом е>0 (см. [3]). Д-> 0 П-»оо III. Подход, излагаемый в этом разделе, является более элементарным и его можно назвать аппроксимативным. Суть его состоит в следующем (см. [5]). Пусть изучается сходимость распределений f(Xn) для измеримого функционала f и пусть на #"(Т) вместе с f заданы измеримые функционалы fN, совокупность к-рых (М~_< обозначают через Ф. Пусть, кроме того, JC={KM}°° есть совокупность множеств Функционал f называется (JC, Ф)-аппроксимируе- мым, если у (А/, ЛГ)= sup \f(x)-fN(x)\ ->0 при >/-><», Здесь функция у не обязана сходиться к 0, если неограниченно возрастает только одна из переменных М или N. Если пересечение OKj^ — K^ не пусто, то на К^ функционал f равномерно приближается fN: sup \f(x)-fN(x)\*ky(NtN). Если 9С= С(0, Г), /"е С(ЗС) и, следовательно, \f(x) -f(y)\ < <е(рс(дг, у)), е(а)->0 при а->0, то /"будет (JC, Ф)-аппрок- симируемым, если положить f\(x) = f(xN), где xN - непрерывная ломаная с узлами в точках (kT/N, x(kT/N)), fe = 0, 1, ..., N, а в качестве Км взять множества *„={*:«£(*)<8(A), А>\/М], где 5(A) ->0 при А->0, w^(x) - модуль непрерывности в С. Тогда у(М, JV)^supe(pcU, xN))^e(b(T/N)) км при N^M. Вместе с монотонностью Км это означает, что у (Л/, Л0->0 при Л/-><*>, N-*<*> и любой функционал из С(9С) (JC, Ф)-аппроксимируем при названных Ж и Ф. Здесь К00= n/CM есть компакт в С(0, Г). В качестве элементов множества Ф могут выступать и другие функционалы, напр. отрезки ряда Фурье. Для сходимости P{f(Xn)<u}^P{f(X)<u} (2) необходимо и достаточно, чтобы для всякого у> О существовали семейства 0Y=j/jJ| и ^YH^mIm = i такие» что: 1) /"является (JtY, Ф^-аппроксимируемым; 2) распределение f^(Xn) при каждых N и у слабо сходится к распределению fN(X)\ 3) для всякого М lim sup Р{хп е К}, } >1 - у, р{х е Кум } >1 - у (см. [5]). Я-»оо IV. Существует также следующий общий подход для получения П. т. для случайных процессов. Пусть исследуется задача о сходимости (2) для заданного функционала f или класса Этаких функционалов. Если (2) выполнено для всех /"е.У, то говорят о .У-сходимости распределений Рп к Р и обозначают это Pnj»P. Если ЗС(Т) наделено топологией и ,У=С(#"(Т)), то ^-сходимость превращается в слабую сходимость Рп => Р. Подход, излагаемый в этом разделе (см. [6], [7]), является обобщением подхода раздела I. Существенная разница состоит в том, что исходным для всей конструкции здесь является заданный класс функционалов Л По нему строится слабейшая а-топология (см. ниже; она может быть очень бедной, напр., если 9 состоит из одного функционала), относительно к-рой /"е^ непрерывны, и в полученном а-топологич. пространстве изучается слабая сходимость мер, к-рая часто оказывается эквивалентной #-схо- димости. ПРЕДЕЛЬНЫЕ 501
При таком подходе естественно рассматривать более общую постановку задачи и в другом плане: изучать сходимость не последовательностей распределений, а сетей {Р0}, 6 е 0, где 0 есть частично упорядоченное множество (соответствующее отношение порядка обозначается ^ ). Для определенности и для большей аналогии с последовательностями рассматривают множества 0, направленные вверх: для любых 6} и 62 из 0 найдется элемент 6 е 0 такой, что в ^ 6t, в ^ 62. Сети мер {Рв, бе 0} соответствует сеть случайных процессов {Xq, 6 е 0}. Сходимость PB{f(x)<u)=*Pif(x)<u), fe&, означает, что для любого е > 0 и любой точки и непрерывности P{f(x) < и) найдётся 6Е е 0, что для всех 6 ^ вЕ \PQ{f(x)<u)-P{f(x)<u}\<e. Примером сети Р0 может быть семейство мер, зависящих от параметра 6 = (а, р), принимающего значения в квадранте (а>0, р>0), с отношением порядка 62^6t, определяемом неравенствами а2 ^ аи р2 ^ pj (в, = (о^, р^)). Здесь сходимость мер по направлениям р = са при а -> «> не гарантирует, вообще говоря, сходимость сети. Пусть и есть система множеств из ЗС такая, что (#; u)G является су-топологическим пространством. Функционал /"непрерывен на (ЗС, и)0, если прообраз любого открытого множества на прямой является открытым (то есть принадлежит и). Если © - полный класс функционалов по Хаусдорфу на ЗС, то система g множеств вида {д(х) >0}, д е ©, образует а-топо- логич. пространство (ЗГ, g)0. Множество всех непрерывных на (я; g)0 функций совпадает с © (см. Хаусдорфа теорема). Исходный класс & всегда можно дополнить до полного класса (если он таковым не был), к-рый обозначают^. (^ есть минимальный полный класс, содержащий ^). Если обозначить через f совокупность множеств вида {/Х*)>0}, ft&c, то пара (#', f)0 будет a-топологич. пространством. Тем самым в 9С введена слабейшая а-топология, в к-рой ^содержится в классе непрерывных функционалов. Пусть далее 3fy = a(f) есть a-алгебра, порожденная классом f. Так как f-^c измеримы относительно 33^, то ^е 33^ Определение слабой сходимости сети мер в а-топологич. пространстве, по существу, ничем не отличается от обычного: Ре => Р в (JT, f)a, если J fdP$ -> J fdP для любого непрерывного ограниченного функционала f (или для любого е>0 и любой точки непрерывности P{f(x) <и) существует 6Е е 0 такое, что | Р0{Д*) < и) - P{f(x) < и) | < е для всех 6 ^ 6Е). Класс ^называется совместным, если: 1) feУвлечет за собой - fe&, f+ce&, с = const, 2) f] e &> f2 g .^"влечет за собой max (fv f2) e 9. Класс J называется линейным, если fx g 9% fi^& влечет за собой afx + p/*2 e ^при любых а, р. Если класс 9 совместный или линейный, то ^сходимость эквивалентна ^.-сходимости (см. [7]). Рассматриваемый здесь подход к П. т. для случайных процессов основан на изучении условий сходимости Ре=^Р в a-топологич. пространстве (ЗГ, f)a или, что то же самое, .^-сходимости Р0 => Р. Пусть L есть класс предельных точек сети {Р0}. Следующие два условия являются необходимыми и достаточными для слабой сходимости Ре=^Рв (ЗГ, f)a. 502 ПРЕДЕЛЬНЫЕ 1) Существует класс множеств % такой, что для любой меры Q е L класс 9<X)q определяет меру Р и для любого А е SCDp lim Ре(Л) = Р(Л). (3) еев 2) Из любого открытого счетного покрытия {G;} множества 5r(UGj = ЗС) и любого е > 0 можно выделить конечную совокупность Gt, ..., GN такую, что lim sup Pe{^\ иГ-1 °Л <е- Аналогичные условия можно привести в терминах классов функционалов, определяющих меру, а также в случае, когда заранее не известно о существовании меры Р такой, что выполнено (3). Условие 2) всегда выполнено, если сеть {Ре} является плотной, то есть для любого е > 0 существует компакт К такой, что для любой окрестности G(K) этого компакта lim sup PJsr\G(K)}<e; еев К ~ компакт, если для любого его счетного покрытия {GJ и любого В а К, Be 3d jimPJfln [<Г\Ц"=1С.]| = 0. (4) При выполнении (4) мера Р в (3) будет плотной. При изучении ^сходимости распределений сведение задачи к сходимости в a-топологич. пространствах более естественно, чем использование сходимости в обычных топологич. пространствах но следующим причинам. 1) Слабая сходимость мер в обычных топологич. пространствах (ЗС, g) обладает естественными свойствами (такими, как сходимость на Р-непрерывных множествах и функционалах и др.), если только (ЗГ, g) нормально, а предельная мера регулярна. Пространство (ЗС} f)a этими свойствами всегда обладает. 2) Изучение слабой сходимости мер в обычном топологич. пространстве (ЗС, g) происходит на (ЗС, ^g)), где 40(g) = a(g) - борелевская a-алгебра, в то время как сходимость PB{f(x) <u}^ P{f(x) <u)t fe C(X), можно изучать не выходя за рамки a-подалгебры 33* с: 33^, порожденной множествами {/*(*) >0}, feC(X) (так наз. бэ- ровская a-алгебра, совпадающая в совершенно нормальных пространствах, каким является (ЗС, f)a, с борелевской). Несовпадение в общем случае 33^ и 33* приводит в ряде случаев к трудной задаче продолжения меры с 33* на 33^. 3) Результаты о сходимости в a-топологич. пространствах позволяют получать теоремы сходимости для обычных топологич. пространств без ограничений на тип пространства. 4) Для совместных или линейных классов при рассматриваемом подходе получаются необходимые и достаточные условия ^-сходимости, чего не удается добиться, используя обычные топологич. пространства, где условия сходимости насыщены разнородными дополнительными условиями На рассматриваемые объекты (ср. с [10]). Каждый из названных выше четырех подходов дает возможность получать теоремы о слабой сходимости распределений в конкретных функциональных пространствах (для пространств типа L второй подход является исключением) и о сходимости распределений конкретных классов функциона-' лов. В наиболее общей форме П. т. для случайных процессов получаются при использовании подхода IV. Теоремы о сходимости специальных классов функционалов. Для простоты здесь рассматриваются последовательности (а не сети) процессов.
1. Сходимость к процессу в С(0, 1). Пусть процессы Хп и X заданы в пространстве (R* ' \ -Sftpio.ij) всех действительных функций на [0,1] и сепарабельны, w%(x)= sup \x(t)-x(t')\. к-Г|<А Рассмотрим класс &с функционалов /*, к-рые: а) измеримы относительно (IRt0,t\ 39 |o,ij), б) непрерывны в точках С (0, 1) в равномерной метрике рс. Для сходимости Рп => Р, Р{С (0, 1)} = 1 необходимо и доста- *с точно выполнение следующих условий: 1) для любого е > 0 lim limsupP{ay£(Xn)>e} = 0; 2) существует всюду плотное на [0, 1] множество S такое, что конечномерные распределения {Xn(t)f teS} сходятся к конечномерным распределениям {X(t), teS). В условии 2) множество S можно заменить на [0,1]. 2. Сходимость к процессу в D[0, 1]. Пусть процессы Хпи X заданы в IP* ' J и сепарабельны, w?(x)-sup min(w+(ttA), w~(t,A))t t w±(t,A)= sup \x(t)-xU±u)\. 0<ы<Д t±ue[0,]] Рассмотрим класс функционалов &D: а) измеримых относительно (lie ' , ЗВ \ол\), б) непрерывных в точках D в метрике Скорохода - Прохорова: Pd<*> y) = inf [sup \x(t)-y(X(t))\ + sup \X(t)-t\], где X(t) - непрерывные и строго возрастающие функции, отображающие отрезок [0, 1] в себя, АХ0) = 0, Х(\)-\. Для сходимости Рп => Р, P(D) = 1, необходимо и достаточно выполнение условий: D 1) для любого е > 0 lim \imsupP{w%(Xn)>e\ = 0; Д—»0 л—>«> 2) существует счетное всюду плотное множество S такое, что конечномерные распределения {Xn(t), teS) сходятся к конечномерным распределениям {X(t)f teS). 3. Процессы в пространстве L (0, 2л) с метрикой f>,7(x,y) = ±f\x(t)-y(t))2dt. L К JO Процессы Хп, X предполагаются измеримыми, их задание индуцирует соответствующие распределения Рп, Р в (L , 3d), & есть а-алгебра борелевских множеств из L . Для слабой сходимости Рп => Р в L необходимо и достаточно, чтобы: 1) конечномерные распределения последовательностей коэффициентов Фурье {ak(Xn), bk(Xn)}™=Qt где ah(x) = - f" x(t) coskt dtt bh(x) = - f* x(t) sin kt dt, R 71 J0 R n JO сходились к конечномерным распределениям {ak(X), bk(X)}°£=0; 2) для любого е > 0 lim lim sup P[w£ (Xn )>e} = 0, Д->0 я->~> где W=J0* Wt + A)-x(t))2dt, x(t + &) = 0 при t + A>2n. 4. Сходимость распределений интегральных функционалов. Выборочным пространством для Xn(t)f X(t) здесь может служить пространство М(0, 1) всех измеримых на [0, 1] функций с нек-рой а-алгеброй Я, содержащей цилиндрич. множества. Рассмотрим класс ^"функционалов вида fW = j0<p(x(t))dt, где фе С (-оо, °°). Для ^"-сходимости Р„ к Р необходимо и достаточно, чтобы: 1 ) ДЛЯ ЛЮбЫХ ф € С (-оо, оо) И £ > 0 lim lim sup Р\ f ф(Х„(0)^>е1 = 0; любом 2) при любом fl ft «^.../^{п^.^ауХиуВл,...^, где г;.-, ay е 5 с И? - Я, 5 - произвольное всюду плотное подмножество из 1Р\Я, Я - нек-рое не более чем счетное множество. Если конечномерные распределения Xn(t) сходятся, то условие 2) выполнено. Если класс £=^, порожден лишь функциями ф(#), |ф(#)) = о(\у(х)) при \х\ ->«>, то условие сходимости 1) может быть расширено в зависимости от скорости роста >р(#). 5. Сходимость распределений функционалов от процессов, заданных на всей оси. Досих пор рассматривались процессы Xn(t), заданные на конечном интервале (0, Г). Если Г = °°, то возникает проблема естественного выбора класса функционалов (рассмотрение функционалов, непрерывных в метриках рс и pD, здесь малосодержательно). Для простоты рассматривается случай, когда параметрич. множество Т есть последовательность Т = {0, 1, 2,...}, аг=ИГ\ Изучение таких важных в приложениях функционалов от сумм стационарно связанных величин, как /"(*) = sup *(*), f(x) = T°b bx{k\ (5) *>0 ^k=Q приводит к классам &а, к-рые определяются следующим образом. Пусть VNa = {x:x(k)/k<atk>N}, V«= IL.U* ^,a = {*: Hn^sup x(k)/k<a). Измеримый функционал f называется Va-Hепрерывным (fe&a)f если для любых xeVa, е>0 и любого р, удовлетворяющего условию xeVa_p, найдутся N = N(x, e, р) > 1 и Ь = Ъ(х, е, р)>0 такие, что если только x*VNta^,\f(x)-f(y)\<E, y*vN,a-a> max kO")-yO">l <8- Функционалы (5) являются Vo-непрерывными. Пусть Хп, XelR°°. Для ^-сходимости Р„ к Р [для сходимости распределений f(Xn) для ^-непрерывных функционалов f] необходимо и достаточно, чтобы: 1) при всех k совместные распределения (Хп(\), ..., Xn(k)) слабо сходились к распределению (Х(1), ..., X(k)), P{XeVa}=U _ 2) lim lim lim P{Xn * VN a») = 0 (см. [11]). ПРЕДЕЛЬНЫЕ 503
Следует отметить, что топология, индуцируемая ^-непрерывными функционалами, не метризуема, и подход п. I, основанный на использовании критерия Прохорова, здесь не применим. Сформулированное утверждение о сходимости получено с помощью подхода раздела III. Если У(1), У(2), ...; Уи(1), Yn(2), ••• -стационарные в узком смысле последовательности, X(k) = \. Y(j), Xn(k) = = Y Y„(j) и конечномерные распределения (Уп(1), ..., Yn(k)) сходятся при любом k к распределению (У(1), ..., Y(k)), Р{Х eVQ}= 1, то для .^-сходимости распределений Хп достаточно, чтобы при я->оо Е(УП(1); УП(1)^0)->Е(У(1); У(1)^0) (см. [11]). Аналогично обстоит дело с классом так наз. Л^ д-непре- рывных функционалов. Пусть задана положительная функция д на Т, *N,g,a = (*е 1Г : \x(k)/g(k)\<a,kZN), V=na>flU^V9,a = ^:,imsuP \x{k)/g{k)\<a). Функционал f на 1Р°° называется Л -непрерывным, если для любых хеАда и е>0 найдутся Р = р(*, e)^0, N = ЛЧ*, е) ^ 1, 5 = 5(*, е) > 0 такие, что *6 Vff,«+P' \f^)-f{y)\<Z} если только (см. [11]). Функционал y^AN,g,a+^ max |*(/)-Kf)| <& у <N '<*>=s»v |*(*)|-А Л9 й-непрерывен при ^(/г) = /г^, р ^ я > О, a < 1. Топология, порожденная Л ^-непрерывными функционалами, оказывается метризуемой. Для сходимости распределений А ^-непрерывных функционалов необходимо и достаточно, чтобы: 1) сходились конечномерные распределения Хп\ 2)lim ЙпТ Р{Х^Лй+м} = 0, Р>0. Введение вместо рассмотренной Л„д-топологии топологии, порожденной метрикой р(*, #) = sup |ЫО-у(0)/^(0|, приводит при рассмотрении процессов из С(0, <*>) с непрерывным временем к несепарабельности С(0, <») и к тому, что борелевская a-алгебра становится существенно богаче, чем порожденная цилиндрич. множествами. Кроме того, распределение в С(0, <*>) винеровского процесса оказывается невозможным продолжить с цилиндрич. a-алгебры на борелевскую (см. [12]-[14]). Лит.: [1] П рохоров Ю. В., «Теория вероятн. и ее примен.», 1956, т. 1, в. 2, с. 177-238; [2] Бил лил гелей П., Сходимость вероятностных мер, пер. с англ., М., 1977; [3] Сазонов В. В., «Теория вероятн. и ее примен.», 1958, т. 3, в. 2, с. 201-05; [4] Скороход А. В., там же, 1956, т. 1, в. 3, с. 289-319; [5] Боровков А. А., «Успехи матем. наук», 1972, т. 27, в. 1, с. 3-41; [6] Боровков А.А., П ечерский Е. A., «Z. Wahr. und verw. Geb.», 1973, Bd 28, № 1, S. 5-22; [7] Боровков А. А., «Успехи матем. наук», 1976, т. 31, в. 2, с. 3-68; [8] Александров А. Д., «Матем. сб.», 1940, т. 8, с. 307-48; 1941, т. 9, с. 563-628; 1943, т. 13, с. 169-238; [9] Хаусдорф Ф., Теория множеств, пер. с нем., М.-Л., 1937; [101 Topsee F., «Math, scand.», 1969, Bd 25, № l, p. 97-104; [И] Боровков А. А., «Тр. Матем. ин-та АН СССР», 1972, т. 128, с. 41-65; [12] Саханен ко А. И., «Сиб. матем. ж.», 1974, т. 15, № 1, с, 102-19; [13] Боровков А. А., СаханенкоА. И., «Теория вероятн. и ее примен.», 1973, т. 18, в. 4, с. 812-15; [14] Bauer H., «Z. Wahr. und verw. Geb.», 1981, Bd 58, № 2, S. 257-65. А. А. Боровков. 504 ПРЕДЕЛЬНЫЕ ПРЕДЕЛЬНЫЕ ТЕОРЕМЫ для случайных процессов; мартингальные методы (limit theorems for stochastic processes; martingale methods) - теоремы, устанавливающие условия слабой сходимости последовательностей случайных процессов, основанные на мартингалыюй характе- ризации предельных точек. Слабую сходимость случайных процессов к заданному предельному процессу определяет слабая сходимость начальных распределений, условия, обеспечивающие слабую относительную компактность последовательности соответствующих вероятностных мер в подходящем функциональном пространстве, и условия, при к-рых каждая предельная мера любой слабо сходящейся подпоследовательности обладает тем или иным характеризационным свойством предельного процесса. Эффективность и форма условий слабой сходимости случайных процессов сильно зависят от используемых критериев относительной компактности и способа характеризации предельного процесса. Традиционная характеризация вероятностных мер в функциональных пространствах конечномерными распределениями, как правило, приводит к трудно проверяемым условиям. Использование мартингальной характеризации предельных процессов охватывает единым и эффективным подходом большинство известных теорем о слабой сходимости последовательностей вероятностных мер в тонологич. пространствах. Пусть jr- топологич. пространство, .£($') - а-алгебра боре- левских подмножеств, 3={&t,t^Q}- нек-рое возрастающее семейство а-подалгебр &t с: ,#(#), t> 0, В + = {j9/+, t^0}t >fit+= (] ^+Е, Но ~ вероятностная мера на .л50, М ~{М!(х), t^0, хеЗГ, i е /} - семейство непрерывных справа и имеющих пределы слева по t функционалов, / - нек-рое множество индексов. И пусть &(\iQ, М) - класс таких вероятностных мер Р на ,#(#'), называемых решениями (|10, М)-проблемы мартингалов (см. [1]), что Р|^ =|1ф и 1м1 для каждого iel является (Р, В+)-локальным мартингалом. Если ^(щ, М) состоит из единственной точки Р, то ц0 и семейство М дают мартингаль- ную характеризацию меры Р на Я(уг). Напр., пусть S- C[0ioo) (Л?"1) есть пространство всех m-мерных непрерывных на [0, <») функций со(-) с топологией равномерной сходимости на компактах, ,Щ - а-алгебра, порожденная цилиндрич. множествами CS(T) = {co:co(s) еГ},^^, ГеЖ$т). Для заданных функций a(t, y) = (ax(t, у)> ..., am(t, у)) и неотрицательно определенных симметрич. матриц A(t, y)= ||fljy(£, у)\\™, f ^0, уе№т; решениями проблемы мартингалов, задаваемой семейством функционалов м|''(со) = (со(О-со(0), г)-^Ы5,ю(5)), z)ds, М^(со) = [М^(со)]2-<[0(г, A(s,o>(s))z)ds, t^Q.ze®7", будут вероятностные меры, соответствующие диффузионным процессам с начальным распределением |10, вектором сноса a(t, у) и матрицей коэффициентов диффузии A(t} у) (см. [2]). В частности, когда Ио = Ео (мера Дирака), a(t, y)=0 и A(t, у) есть единичная матрица, то единственным решением соответствующей проблемы мартингалов является винеров- ская мера. Пусть Хп - случайный йГ-значный элемент, определенный на вероятностном пространстве Ш", V1, Р") с заданным возрастающим семейством а-алгебр *" = {../?, tZ0}t^cjn, t^0, р»(В) = Рп{Хп еВ),Ве jff(.*)f \inQ= Р"Ц,
п^\. Условия слабой сходимости последовательности {Рп, п^\) к Pe^(u0, М) формулируются в терминах заданных семейств Un~{M "'*, t^O, i е /}, (Рм, Ап)-локальных мартингалов и включают слабую сходимость мер Uq к ц , условия слабой относительной компактности последовательности {Ря, л^1}, ограничения регулярности семейства В, непрерывности но х функционалов из М, равномерной интегрируемости процессов из М" и предположения близости семейств случайных процессов {M\(Xn)t t^O, ie/} н{М?\ t>0, iel}. Пусть J(lkn) - класс моментов остановки относительно семейства А" и для каждого Г>0, 1(Г) - класс всех таких последовательностей {Sn, п> \], что Sn=Sn(T) е/(Ая), 5"^Т и Iim P"{5"<7,} = 0. Пусть <? есть множество предельных точек последовательности {Ря, п^ 1} и /С есть класс таких возрастающих функций G: IR+ -> IR+, что G(t)/t -> <» при £ -> <*>; IR+= [(),<»). Предполагается, что для каждых v е & и ie/ существует такое счетное всюду плотное подмножество Q ~ Qv,f с |R+ и G = Gv'' е К, что выполнены условия: а) для всех teQ dBt = a{f:fsBt], где В, есть множество v-почти наверное непрерывных ограниченных функций; б) для всех teQ и ie I функционал М/() v-почти наверное непрерывен; в) для нек-рой последовательности {Tk, k^\}, О^Г/Д^, существуют такие последовательности {Sj, п > 1} е Z{Tk}, что для всех teQ, ie I и £ ^ 1 sup E"G M" Основу мартингальных методов в слабой сходимости вероятностных мер в топологич. пространствах составляет следующее утверждение (см. [3]). Пусть: 1) последовательность {Р", п^\} слабо относительно компактна; 2) для иек-рого подкласса множеств В е Щ, определяющего Но > lim \1п0(В)=\1о(ВУ, П-+оо 3) выполнены предположения а)-в); 4) для каждых е> 0, t e I I - QVI и ie I ПтР"{|м^-м;(Х")|>е} = 0. Тогда .^a^Uo' М). В большинстве приложений пространство .^является вполне регулярным топологич. пространством. Для таких пространств справедлив критерий Прохорова: последовательность {Р", и^1} слабо относительно компактна, если для каждого е > 0 существует такой компакт КЕ а ,#', что inf P"(K,)>l-e (см. [4]). Знание вида компактных подмножеств X дает возможность проверить слабую относительную компактность последовательностей вероятностных мер. Напр., если &= D[Qoo)(S) есть пространство Скорохода всех непрерывных справа и имеющих пределы слева на IR+ функций со значениями в полном сепарабельном метрич. пространстве (5\ р), а Хп = {Xn(t), t^O} есть согласованный случайный процесс с траекториями в D[Qoo^S), то для слабой относительной компактности последовательности {Р", п^ 1} достаточно, чтобы конечномерные распределения процессов Хп, п^\, были слабо относительно компактны и для всех е>0, Г>0 lim lim sup Р"{р(Хя((Г6)лП 8i0 и-к» Г"е.Г(А") Хп(ТялТУ)>г}=0 (условие Алдоуса - Реболледо) (см. [5]). Выбор семейства М" обычно не представляет трудности и определяется выбором семейства М, характеризующего предельную меру. В качестве иллюстрации применения мартингального метода можно рассмотреть условия слабой сходимости точечных процессов X", t^O, п^ 1, к пуассоновскому процессу с параметром X. Пусть IKI - класс ступенчатых функций со() на IR+, возрастающих лишь единичными скачками, со(0) = 0, .9r=D[0oo)(IR )ЛМ. Мера Р^, соответствующая предельному процессу, является единственным элементом &(Eq, М), где М состоит лишь из одного элемента Mf(co) = ш(0 -Xt, t>0 (теорема Ватанабэ). Если для нек-рого возрастающего про- цессаЛ?, t^O, M? = X?-Ant, t^O, является (Ря, А")-локаль- ным мартингалом, п ^ 1, и для всех t > 0 и е > 0 lim Ря{|л;-^|>е} = 0, И->оо то последовательность {Xя, t^O, n^\) слабо сходится к пуассоновскому процессу с параметром X. Мартингальная характеризация диффузионных процессов впервые найдена в работах П. Леви [6] и Дж. Дуба [7]. В задачах о слабой сходимости случайных процессов к диффузионным процессам мартингальные методы впервые явно использованы Д. В. Струком и С. Р. С. Вараданом в [8] (см. также [9], [10]). Лит.: [1] Jacod J., «Lect. Notes in Math>, 1979, № 714; [2] Stroock D. W., Varadhan S. R. S., Multidimensional diffusion processes, B. - [a.o.], 1979; [31 ГригелионисБ., Микуляви- чус Р., «Теория вероятн. и ее примен.», 1983, т. 28, в. 2, с. 320-32; [4] Бурбаки Н., Интегрирование, пер. с франц., М., 1977; [51 AI- dous*D., «Ann. Probab.», 1978, v. 6, № 2, p. 335-40; [6] Леви П., Стохастические процессы и броуновское движение, пер. с франц., М., 1972; [7] Дуб Дж., Вероятностные процессы, пер. с англ., М., 1956; [81 Stroock D.W., Varadhan S.R.S., «Comm. Pure Appl. Math.», 1969, v. 22, p. 345-400, 479-530; [91 Липцер Р. Ш., Ширяев А. Н., Теория мартингалов, М., 1986; [10J Жакод Ж., Ширяев А. Н., Предельные теоремы для случайных процессов, пер. с англ., М., 1994. Б. И. Григелионис. ПРЕДЕЛЬНЫЕ ТЕОРЕМЫ для стохастических дифференциальных уравнений (limit theorems for stochastic differential equations) - теоремы о предельном поведении решений стохастических дифференциальных уравнений в предположении, что элементы, образующие данное уравнение (то есть начальное условие, коэффициенты уравнения, входящие в него семимартингалы, мартингальные меры и т. п.), зависят от параметра (непрерывного или дискретного) и при его стремлении к пределу эти элементы ведут себя тем или иным образом (напр., сходятся в каком-либо смысле к элементам предельного стохастического дифференциального уравнения). Кроме того, в этот раздел включаются также утверждения о сходимости к решениям стохастич. дифференциальных уравнений случайных процессов более или менее произвольной структуры (напр., процессов, получающихся в результате решения последовательности конечноразностных уравнений и т. п.). В различных постановках П. т. для стохастич. дифференциальных уравнений доказывались многими авторами. Ниже описаны основные типы задач и приведены нек-рые результаты. ПРЕДЕЛЬНЫЕ 505
1. Сходимость решений стохастических дифференциальных уравнений по вероятности или в среднем квадратичном. а) На нек-ром вероятностном пространстве заданы не зависящие от параметра семимартингал, мартингальная мера и последовательность коэффициентов стохастич. дифференциального уравнения, содержащего интегралы по данному семимартинга- лу, мартингальной мере. Предполагается, что эта последовательность коэффициентов сходится в каком-либо смысле к коэффициентам предельного стохастич. дифференциального уравнения. Исследуется вопрос о сходимости в среднем квадратичном (или по вероятности) решений допредельных уравнений к решению предельного стохастич. дифференциального уравнения. На таком пути можно получать теоремы существования сильных решений стохастич. дифференциального уравнения с нелипшицевыми коэффициентами, отправляясь от теорем существования решений стохастич. дифференциального уравнения с достаточно «хорошими» коэффициентами и аппроксимируя последними исходные. Наоборот, факт существования сильного решения предельного стохастич. дифференциального уравнения может быть использован для доказательства сходимости к нему решений допредельных уравнений, как показывает следующий результат (см. [1], [2]). Пусть на нек-ром вероятностном пространстве с ^/-мерным винеровским процессом w{t) задана последовательность стохастич. дифференциальных уравнений dXn(t) = an(t, X„U))dt + onU, Xn(t))dw(t), Хп(0)=х, (1) с неслучайным начальным условием х е И? и коэффициентами an(t, у), on(t, у)у представляющими собой соответственно векторную (размерности d) и операторную (on(t, у) ~ линейный оператор в И? ) функцию на [О, Т] x|R . Относительно коэффициентов предполагается, что они равномерно ограничены, липшицевы по пространственной переменной (с константой, вообще говоря, зависящей от л); оператор опоп предполагается равномерно невырожденным. Если lim an(t, x) = a(t, x), lim on(t. x) = o(t, x) при почти всех t, x и уравнение dX(t) = a(t, X(t))dt + o(t, X(t))dw(t), X(0) = *, (2) имеет сильное решение, то lim Xn(t) = X(t) в смысле сходимости в среднем квадратичном равномерно по t е [О, Т]. б) Более общей является постановка задачи, подобная той, что и в пункте а), с тем отличием, что теперь семимартингал и мартингальная мера зависят от параметра. Ниже приведен весьма общий результат такого типа (см. [3]). Пусть на нек-ром вероятностном пространстве задана последовательность непрерывных ^-мерных семимартингалов (Z„(0)fG[ori> П==0, 1» 2, ..., таких, что Esup |Z„(i)| <°° при всех л = 0, 1, 2, ... Для функции о(х), xe№d, со значениями в пространстве линейных операторов в IP , трижды непрерывно дифференцируемой и ограниченной вместе со всеми своими производными, рассматривается уравнение X„(0=* + Joa(X„(s)WZn(s), (3) где интеграл справа - симметрич. стохастич. интеграл (интеграл Фиска - Стратоновича). Решение этого уравнения существует и единственно при всех п = О, 1, 2, ... Пусть для /, /=1, 2, .... d Zll«) = ±((z'n,zi)t-(zi,7JQ)t)- 506 ПРЕДЕЛЬНЫЕ -JjKw-<w]rf[4w-zi(5)], где (ZJ', Z ) - взаимная квадратич. характеристика мартин- гальных частей семимартингалов Z} и Z (ZJ - j-я координата вектора Z). Предполагается, что lim Esup \Zn(t)-Z0U)\2 = 0 и для всех г, / существует такой процесс A,J(t) ограниченной вариации, что lim Е sup\ZHt)- A^ti)? =0. Тогда, если выполнены еще нек-рые требования технич. характера (см. [3]), то lim Esup \Xn(t)-X0(t)\2 = Q, Я->ов t^f где XQ(t) - решение следующего уравнения (XqU) есть i-я координата вектора X{)(t)): Ц(0 = х* + X/-, J^l7(X0(.s))o^(s) + ft йа, Ajw-1 Jo -rf( хо<*>>°ы<*о<*»*»У'<*>. * = 1. 2 d. (4) Таким образом, предельный переход в стохастич. дифференциальном уравнении (3) приводит к возникновению дополнительных слагаемых в правой части уравнения. Нетрудно видеть, что всегда А1} --А}\ так что Л" = 0. Если к тому же А1}=0 при всех 1, У=1, 2, ..., d, то аппроксимация Zn(t) семимартингала Z0(O называется симметрической. В этом случае следствием приведенного результата является следующее утверждение: стохастич. дифференциальное уравнение (3) устойчиво по отношению к симметрич. возмущениям семимартингала Z0(t). Заслуживает быть отмеченным еще один частный случай приведенного выше результата. Именно, пусть d- 1, а уравнение вида (3) записано в виде стохастич. дифференциального уравнения Ито вида (2). Если в этом уравнении аппроксимировать винеровский процесс гладкими процессами ivn(t) так, чтобы Esup \wn(t)~w(t)\ =0, то для решения Xn(t) . уравнения l e T Хп(О=х + \10а(*, X„(s))rfs + J^a(s, X n(s))wn(s)ds справедливо соотношение lim Esup \Xn(.t)-XU)\2 = 0, где X(t) - решение уравнения Ито *<:>-* + { 2 ox ds -r + fa(s, X(s))dw(s\ к-рое в форме Стратоновича принимает вид X(t)=x + f0a(s, Xis^ds + j^ois, X(s))°dw(s). Этот результат показывает, что использование в таких теоремах интеграла Фиска - Стратоновича предпочтительнее. 2. Слабая сходимость решений стохастических дифференциальных уравнений. а) Пусть задана последовательность коэффициентов таких, что соответствующие стохастич. дифференциальные уравнения определяют слабо компактную последовательность мер в функциональном пространстве (пространстве непрерывных функций, пространстве Скорохода и т. п.). Исследуется вон-
рос об описании мер, предельных в смысле слабой сходимости для данной последовательности. Если дополнительно потребовать, чтобы коэффициенты допредельных уравнений сходились к предельным (в каком-либо смысле), то на этом пути можно получить теоремы существования слабых решений сто- хастич. дифференциальных уравнений с негладкими коэффициентами (впервые этот метод предложил А. В. Скороход [4] для доказательства существования решений стохастич. дифференциальных уравнений с непрерывными коэффициентами). Замечательно, что при нек-рых условиях предельная мера соответствует решению стохастич. дифференциального уравнения без предположения о сходимости коэффициентов, как показывает следующий результат (см. [5]). Пусть коэффициенты уравнения (1) равномерно ограничены, оператор опоп равномерно невырожден; пусть коэффициенты представляют собой гладкие функции с ограниченной при каждом п производной по х. Тогда последовательность мер в пространстве непрерывных функций, соответствующих решениям уравнения (1), слабо компактна и всякая мера, предельная для этой последовательности, сама отвечает решению нек-рого стохастич. дифференциального уравнения вида (2). Результаты такого типа связаны с понятием G-сходи- мости эллиитич. и параболич. операторов. Если отказаться от ограниченности коэффициентов, то ситуация может еще более осложниться, как показывает следующий пример (см. [6]). Пример. Пусть в уравнении (1) d=l, on(tt x) = \, an(t, x) = n cos nx. Можно показать, что последовательность мер, отвечающих таким уравнениям, слабо сходится к мере, соответствующей решению уравнения (2), в к-ром a(t, x) = 0, б) Часто приходится рассматривать стохастич. дифференциальные уравнения содержащие малый параметр е>0. Имеющиеся здесь результаты как теоретического, так и прикладного характера составляют значительную часть всех публикаций по стохастич. дифференциальным уравнениям. Ниже приведены качественные описания лишь нек-рых постановок задач этой области исследований. Если параметр е входит множителем при втором слагаемом правой части уравнения (2), то соответствующая система интерпретируется как динамич. система, описываемая обыкновенным дифференциальным уравнением 1-го порядка, на к-рую воздействует малое случайное возмущение. При этом интересуются либо поведением возмущенной системы на больших (сравнимых с е , е и т.п.) промежутках времени (см. [7]), либо асимптотикой при elO маловероятных событий, скажем, вероятностью выхода процесса (за счет малой диффузии) на границу данной области, если эта область содержит точку устойчивого равновесия (см. [8]). Важный класс систем, описываемых стохастич. дифференциальными уравнениями с малым параметром, образуют системы, часть компонент к-рых быстро меняется (эти компоненты функционируют в быстром времени £/е, t/z и т. п.). Задача состоит в описании влияния быстрых компонент на поведение всей системы. Оказывается (см. [7]), что при eiO это влияние приводит к системе, характеристики к-рой усредняются по эргодич. распределению быстрых компонент (их эргодичность предполагается). Это соответствует стохастич. варианту принципа усреднения Боголюбова. 3. Сходимость случайных процессов к решениям стохастического дифференциального уравнения. Термин «стохастическое дифференциальное уравнение» предложил С. Н. Берн- штейн [9], когда исследовал сходимость распределений цепей Маркова, возникающих в нек-рых конечноразностных схемах, к решению уравнения Фоккера - Планка. Весьма общие теоремы о слабой сходимости процессов, порождаемых цепями Маркова, к диффузионным процессам можно найти в [11], а к процессам, описываемым более общими стохастич. дифференциальными уравнениями, в [10]. Общие теоремы о сходимости процессов произвольной природы к решениям стохастич. дифференциальных уравнений имеются в [10]. Лит.: jl] Звонкий А. К., Крылов Н. В., в сб.: Труды школы-семинара по теории случайных процессов (Друскининкай, 25-30 ноября 1974 г.), т. 2, Вильнюс, 1975, с. 9-88; [2] Скороход А. В., «Теория вероятн. и ее примен>, 1980, т. 25, в. 4, с. 675-82; [3] Мац к яви ч юс В., «Литов. матем. сб>, 1985, т. 25, № 4, с. 72-84; [4] С к ор ох од А. В., «Сиб. матем. ж>, 1961, т. 2, № 1, с. 129-37; [5] АлюшинаЛ.А., Крыл о в Н.. В., «Теория вероятн. и ее примен.», 1988, т. 33, в. 1, с. 3-13; [б] Кулинич Г. Л., «Теория вероятн. и матем. статистика», 1976, в. 15, с. 99-114; [7] Скороход А. В., Асимптотические методы теории стохастических дифференциальных уравнений, К., 1987; [8] В ентце л ь А. Д., Фрейд- лин М. И., Флуктуации в динамических системах под действием малых случайных возмущений, М., 1979; [9] Бернштейн С.Н., «Тр. Физ.-мат. ин-та им. В. А. Стеклова», 1934, т. 5, с. 95-124; [10] Гих- манИ. И., Скороход А. В., Стохастические дифференциальные уравнения и их приложения, К., 1982; [111 StroockD.W., Varad- han S. R. S., Multidimensional diffusion processes, B. - Hdlb. - N. Y., 1979. H. И. Портенко. ПРЕДЕЛЬНЫЕ ТЕОРЕМЫ для цепей Маркова (limit theorems for Markov chains) - теоремы, изучающие структурные особенности вероятностей перехода за растущее число шагов (напр., эргодические теоремы) и теоремы, переносящие классические предельные теоремы теории вероятностей на случайные величины, связанные в Маркова цепь. К последним относятся закон больших чисел в сильной и слабой формах, центральная П. т., закон повторного логарифма и пр., а также функциональные варианты таких теорем. Представляют интерес уточнения (напр., оценки скорости сходимости и асимптотич. разложения в центральной П. т.) и расширения (напр., для величин со значениями из функциональных пространств, связанных в цепь) этих теорем. Специфич. П. т. для цепей Маркова (напр., теоремы устойчивости) возникают в многочисленных приложениях. Впервые П. т. для случайных величин, связанных в цепь, были получены А. А. Марковым в 1907-08 (см. [1]). Пусть X]t ..., Хп принимают конечное число значений и связаны в однородную цепь, причем все вероятности перехода за один шаг положительны. Тогда, если существует предел д = Пт ЕгГЧхх + ... + Хп), имеет место закон больших чисел: для любого е > 0 при п -> °° Р{\гГх(Х] + ... + Хя)-а\>Е)->0. Если, кроме того, 0<a2 = lim Erc"4xt + ...+X„-aH)2<°o, имеет место центральная П. т.: при п—>°° р{^~^(Х1+...+Х„ - ап)**х\ -» (2tc)-V2f* e^^dt. Закон больших чисел и центральная П. т. были получены А. А. Марковым также для неоднородных цепей (см. [1]). Многие известные методы доказательства П. т. для случайных процессов возникли в связи с исследованием П. т. для цепей Маркова. Так, в работах [2] впервые используется ослабление зависимости между величинами Xi и X; при увеличении разности |i-/|, что позволяет приблизить сумму 5M = V" Xi суммой независимых слагаемых (метод слабой зависимости). В основе метода работ [3], [4] лежит утверждение о том, что моменты попадания цепи в любое возвратное состояние А, Г0 - min (я > 0: Хп е Д), Tk = min (я > 7\н : Хп е Л), ПРЕДЕЛЬНЫЕ 507
k=\, 2, ..., являются моментами регенерации, то есть разбивают цепь на последовательность взаимно независимых отрезков - приращений на циклах регенерации. Такое разбиение позволяет приближать сумму Sn суммой случайного числа v(n) = max (k ^ 0 : Tk < п) независимых слагаемых (регенеративный метод). Одно из первых применений метода характеристич. функций к исследованию сумм зависимых слагаемых, связанных в дискретную цепь Маркова, содержится в [5]. Основной целью последующих исследований являлось уточнение и расширение имеющихся П. т., а также ослабление условий на эргодичность цепей, в том числе отказ от структурных ограничений типа дискретности пространства состояний. Следует отметить весьма значительный объем имеющейся в настоящее время журнальной и монографич. литературы, касающейся П. т. для цепей Маркова. Результаты, содержащие перенесение большинства П. т. теории вероятностей на цепи Маркова с произвольным пространством состояний, удовлетворяющие условию Деблина, см. в [6]. В основе этих результатов лежит развитие метода характеристич. функций, опирающееся на спектральную теорию линейных операторов. Однако условие Деблина, эквивалентное условию равномерного сильного перемешивания цепи, как известно, является жестким ограничением. Напр., этому условию не удовлетворяет часто возникающая в приложениях схема марковской авторегрессии. Применение теории возмущения операторов позволило ограничиться впоследствии условиями в терминах максимальных коэффициентов корреляции. П. т. для неоднородных цепей Маркова, удовлетворяющих условию типа условия Деблина, содержатся, напр., в [7]. Одним из наиболее известных условий эргодич. типа, расширяющим условие Деблина, является условие возвратности Харриса. Класс цепей, удовлетворяющих этому условию, обширен и достаточен для многочисленных приложений. Такие цепи допускают регенерирующее расширение, что позволяет переносить П. т., полученные регенеративным методом для цепей с дискретным пространством состояний (см., напр., [8]), на этот класс (см., напр., [9], [10]). О функциональных П. т. для цепей Маркова см., напр., [11]. Лит.: [1] Марков А. А., Избр. труды. Теория чисел. Теория вероятностей, М., 1951, с. 339-62; 363-98; 465-508; [2] Берн- штейн С. Н., Собр. соч., т. 4, М., 1964, с. 121-76, 177-96, 322-30; [3] Doeblin W., «Bull. Soc. Math. France», 1938, v. 66, № 2, p. 210-20; [4] Колмогоров А.Н., «Изв. АН СССР. Сер. матем.», 1949, т. 13, в. 4, с. 281-300; [5] Романовский В. И., Дискретные цепи Маркова, М.-Л., 1949; [6] Сираждинов С. X., Форманов Ш.К., Предельные теоремы для сумм случайных векторов, связанных в цепь Маркова, Таш., 1979; [7] СтатулявичюсВ. А., «Литов. матем. сб.», 1961, т. 1, в. 1-2, с. 231-314; [8] Чжун Кай- лай, Однородные цепи Маркова, пер. с англ., М., 1964; [9] Bolthausen E., «Z. Wahr. und verw. Geb.», 1982, Bd 60, H. 3, S. 283-89; [10] Малиновский В. К., «Теория вероятн. и ее нри- мен.», 1986, т. 31, в. 2, с. 315-32; 1989, т. 34, в. 2, с. 289-303; [И] Bhattacharya R.N., «Z. Wahr. und verw. Geb.», 1982, Bd 60, H. 2, S. 185-201. В. К. Малиновский. ПРЕДЕЛЬНЫЕ ТЕОРЕМЫ метрической теории диофантовых приближений (limit theorems of the metric theory of Diophantine approximations) - одно из направлений вероятностной теории чисел (в широком смысле), где устанавливаются предельные соотношения для функций от эндоморфизмов по отношению к мере Лебега. Эти теоремы дают возможность оценить меру множества точек из (0, 1), допускающих заданную точность аппроксимации. Наиболее исчерпывающие результаты получены для отображений интервала (0, 1) на себя Тх: а -> {ад} и Г2: а -> {1/а}, тесно связанных с разложением а в g-ичную и цепную дроби соответственно. 508 ПРЕДЕЛЬНЫЕ Одна из первых П.т. метрич. теории чисел - теорема Б о ре л я - утверждает, что дробные доли {ад"}, я=1, 2, ... (<7>0~ целое), равномерно распределены на интервале (0, 1). Она обобщалась во многих направлениях, при этом применялись различные, в том числе вероятностные методы, использующие независимость цифр 0, 1, ... в g-ичном разложении чисел ае(0, 1), интерпретируемых как случайные величины, в вероятностном пространстве, образованном отрезком (0, 1), а-алгеброй лебеговских множеств и мерой Лебега. Первая центральная П. т. для равномерного распределения дробных долей показательной функции - теорема Форте - Каца утверждает: пусть fit) - действительная, интегрируемая по Лебегу функция, коэффициенты ряда Фурье к-рой удовлетворяют равенству \Ьп\ ^М/п^ при постоянных Мир, тогда существует предел Ji^J^i::;^a)-b0))2da = a2 (1) и если а* 0, то при любом действительном х limmes{a:0^a^l, V"1 f{Txk (а) - bQ)< x Jn) = = 1 Г е-,Ч*аг. (2) V27T J-oo В последнем из этих соотношений изучена скорость сходимости [5]. Оценена мера множества точек из интервала (0, 1), для к-рых количество попаданий дробных частей {а2 }, /е = 0, 1, ..., 72-1, в отрезок Ле (0, 1) равно заданному числу (ло- кальная предельная теорема). Центральная П. т. установлена также для распределения дробных частей матричной показательной функции (см. [2]). Предложена теория эргодич. эндоморфизмов двумерного тора [4]. И. А. Ибрагимов, развивая метод суммирования слабозависимых величин, получил значительные усиления в центральной П. т. вышеупомянутого рода (см. [1]). Метрич. анализ параметров цепных дробей восходит к К. Гауссу (С. Gauss). Пусть ае(0, 1) и а=[0; av ...] - разложение в цепную дробь, qn((x) - знаменатель п-й подходящей дроби [0; flt, ..., ап], гп(а) = [<!„, ля+1, ...]. P.O. Кузьмин доказал следующее предположение К. Гаусса: sup|mes{a:r„(a)-flw<^} - In (1+^)/In 2) = 0(е~ь^), X>0, г к-рое было улучшено до 0(е~ ) П. Леви (P. Levy). Центральная П. т. для цепных дробей, представленная соотношениями (1) и (2) с заменой Тх на Г2, была установлена В. Деблином (W. Doeblin). Многие результаты метрич. теории цепных дробей, полученные А. Я. Хинчиным, имеют вид законов нуля и единицы. Изучалась также метрич. теория числовых систем, более общих, чем десятичные или цепные дроби. Лит.: [1] Ибрагимов И. А., Линник Ю. В., Независимые и стационарно связанные величины, М., 1965; [2J Леонов В. П. Некоторые применения старших семиинвариантов к теории стационарных случайных процессов, М., 1964; [3] Мисявичюс Г. A., «Ann. Univ. sci. Budapest. Sec. math.», 1971, v. 14, p. 77-92; [4] Москвин Д. А., «Изв. АН СССР. Сер. матем.», 1981, т. 45, № 1, с. 69-100; [5J Постников А. Г., «Тр. Матем. ин-та АН СССР», 1966, т. 82, с. 3-111 Г. А. Мисявичюс. ПРЕДЕЛЬНЫЕ ТЕОРЕМЫ на компактных группах (limit theorems on compact groups) - теоремы, описывающие условия сходимости и виды пределов композиций вероятностных распределений на компактных группах. Пусть G - компактная группа, {\1п} - нек-рая последовательность мер на ней. Последовательность {{!„} называется композиционно сходящейся, если для любого г^ 1 последовательность
v^ = \it\ii+i...\in слабо сходится при и->«> (см. [1]). Пусть Хн ~ мера Хаара на подгруппе Н группы G. Тогда при п -><» существует предел vj'\ равный Х//> где Я - наибольшая подгруппа, относительно к-рой инвариантны все v£\ то есть vnf)X// ~ vil)- Подгруппа Н (носитель меры X//) называется основанием композиционно сходящейся последовательности {|i„}. Практич. использование композиционной сходимости основано на том, что для всякой последовательности мер {[!„} на G найдется последовательность {а„} элементов G такая, что последовательность распределений {ц^}, где \i'n = a~r\Lna„+\, композиционно сходится. Можно сказать, что для композиционно сходящейся последовательности {ц„} произведение fijl^.-.|i„ сходится «по существу». Действительно, можно указать последовательности {Д„}, у к-рых произведение Д1р2...рп сходится, но эта сходимость композиций p2>..pLn мерой |ij. Напр., если pL^ равномерная мера на G, то последовательность pip2...pn сходится при любых р,, i > 1. Из последовательности {(!„} посредством сдвигов можно построить несколько различных композиционно сходящихся последовательностей с различными, вообще говоря, основаниями, однако все эти основания являются сопряженными группами. Говорят, что последовательность мер {(!„} на G имеет тип g(H), если можно найти элементы aneG такие, что последовательность {\i!^ = a~1\inan+^} композиционно сходится с основанием, сопряженным группе Н (см. [1]). Таким образом, каждая последовательность принадлежит нек-рому типу g(H). Наиболее важный случай - это тип а^), где ех - единица группы G. Напр., сходимость почти всюду произведения независимых случайных величин X], Х2 Хп, ... со значениями в G эквивалентна композиционной сходимости последовательности мер {\in} на G с основанием ех, где \хп - распределение случайной величины Хп. Для коммутативной G изучение сходимости последовательности тина о(Ю путем факторизации по подгруппе Н сводится к изучению последовательности мер типа о(е^) на группе G/H. Основные проблемы сходимости композиций неодинаковых распределений на компактных группах можно сформулировать следующим образом. 1. При каких условиях последовательность мер {(!„} будет композиционно сходящейся (в частности, интересны условия, выражающиеся через характеристики каждой меры в отдельности)? 2. Если известно, что последовательность мер {щ} композиционно сходится, то как найти основание {(!„}? Каковы условия, выражающие основание через свойства носителей мер \in? 3. Определить тип произвольных последовательностей мер {(!„} на G. Особое значение имеет случай типа а(е^). Важный результат о композиционной сходимости состоит в следующем. Если Н - основание композиционно сходящейся последовательности {ц„}, то для любой окрестности U(H)< подгруппы Н ряд ]£" {1 -\in(U(H))} сходится. Случай композиций распределений на группах степени свертки одной меры наиболее полно разработан для распределений на компактных группах (см. [2]). Для всякой меры \i на G пусть A(\i) - объединение всех предельных точек множества степеней {ц/7}, л^ 1, A([i) - компактная группа; и пусть suppjx- носитель меры |i, a [M] - группа, порожденная множеством М. Тогда если G - компактная группа, \х принадлежит полугруппе М (G) вероятностных мер на G, X - единица группы Л(ц), J^suppA., .#=[supp (fi)], то следующие утверждения эквивалентны: 1) lim ц" существует; 2) lim supp(u") *0; 3) последовательность supp(u"), w^ 1, сходится; 4) [ия>1 зирр(иПирР(иУТ = .*; 5) не существует замкнутой нормальной подгруппы группы Л в собственном смежном классе, по к-рой содержится supp(^i); 6) supp (|i) не содержится ни в каком собственном смежном классе группы Ж по Ж\ 7)Х = Х*- Отсюда следуют многие известные результаты. Напр., если jieM (G), то эквивалентны следующие утверждения: a) lim \1п = Хж> б) lim supp (u")=J£ Или если группа G свя- зана, а (х - симметричная Хс"а^солютно непрерывная мера из М (G), то Hm u" = Xg- Таким образом, если последователъ- ность степеней меры \i сходится, то ее пределом является идемпотентная мера, к-рая совпадает с мерой Хаара на Ж. Последовательность {цу}, /^1, мер в М (G) называется нормальной (в смысле Бореля), если для каждого и^ 1 мера \1п из {цу} встречается там бесконечное число раз. Пусть G - компактная группа, {|i}, j>\,- нормальная последовательность в М (G), {vn = (x1*...*(xn}, n>\,- последовательность сверточных произведений. Тогда эквивалентны утверждения: существует предел lim v„ и имеет место равенство [П;>, supp(^/)]" = [p|M^1 supp(^)... ... supp (\in) supp (u.„)_1...supp (д,)"1 ]". В случае сверток неодинаковых распределений {(!„} предельные меры могут не совпадать с мерами Хаара. Поэтому исследуются условия на меры, при к-рых последовательность {[in] композиционно сходится к мере Хаара с носителем на всей группе. Напр., если для плотностей рп(д) абсолютно непрерывных распределений имеет место рп^сп<°о и ряд Y°° с"1 расходится, то \р{*...*рп(д) = \\ ->0, где рх*...*рп(д) - плотность композиции \L\+...*\Ln (см. [4]). Для композиций неодинаковых распределений на конечных группах имеется следующий фундаментальный результат, специфичный для конечных групп и из к-рого вытекают П. т. (см. [5]). Пусть {\in} - последовательность распределений на конечной группе G, и пусть ц„(е1)>е>0, где ех - единица группы. Пусть, далее, Н - подгруппа G, порожденная теми элементами е(еС для к-рых ряд V \*Sei) расходится; тогда последовательность мер {\хп} композиционно сходится и группа Н является основанием данной последовательности. Лит.: [11 Хейер X., Вероятностные меры на локально компактных группах, пер. с англ., М., 1981; [2] Максимов В. М., «Теория вероятн. и ее примен.», 1971, т. 16, в. 1, с. 52-66; [31 его же, там же, 1968, т. 13, в. 2, с. 295-307; [4] Шлосман СБ., там же, 1980, т. 25, в. 3, с. 614-19; [5] Kawada Y., Ito К., *Proc. Phys.-Math. Soc. Japan», 1940, v. 22, p. 977-98. В. M. Максимов. ПРЕДЕЛЬНЫХ ПОРЕМ ПРОДОЛЖИМОСТЬ (continu ation of limit theorems) - распространение (без каких-либо дополнительных .предположений) слабой сходимости последовательности функций распределения Fn(x) к функции распределения F(х) с множества х е А с IP на всю действительную ПРЕДЕЛЬНЫХ 509
ось IP . В частном случае, когда Fn представляют собой распределения нормированных сумм независимых случайных величин, П. т. п. тесно связана с продолжимостью безгранично делимых законов. На возможность существования П. т. п. в случае последовательности функций распределения Fn(x) нормированных сумм независимых и одинаково распределенных случайных величин, сходящихся на полуоси х>0 к функции распределения стандартного нормального закона, было указано В. М. Золотаревым. Эта гипотеза получила подтверждение в работе Х.-И. Россберга [1]. Позже возможность продолжимости была установлена при менее ограничительных условиях для широкого класса предельных законов (см. [2]). П. т. п. имеет в своей основе аналитич. свойство восстановления распределений, если известны значения их конечной свертки на полуоси (см. [3]). Лит.: [[] RossbergH.-J., «Теория вероятн. и ее примем.», 1974, т. 19, в. 4, с. 824-28; [2] Rossberg H.-J., Jcsiak В., Siege! G., Analytic methods of probability theory, В., 1985; [3] Kruglov V. M., Titov A.N., «Lect. Notes in Math.», 1987, № 1233, p. 41-56. В. В. Сенатов. ПРЕДИКТАНТ (predictant) - предсказываемая величина при статистическом прогнозе (в частности, при статистическом прогнозе погоды). Предиктантом может быть количественная неременная, то есть скалярная метеорологич. величина (напр., температура воздуха, атмосферное давление), порядковая переменная, чаще всего возникающая как градации количественных величин (напр., балл облачности, балл скорости ветра по принятой в метеорологии шкале Бофорта или отклонение средней месячной температуры воздуха от климатической нормы, характеризуемое тремя значениями: «выше нормы», «около нормы» и «ниже нормы») или же классификационная переменная (напр., наличие или отсутствие какого-то погодного явления, тип погоды но той или иной классификации и т.д.). В случае когда в качестве П. используется порядковая или классификационная переменная, принимающая одно из двух возможных значений (напр., наличие или отсутствие осадков, летная или нелетная погода), соответствующий прогноз называется альтернативным метеорологическим прогнозом погоды. В настоящее время при статистических прогнозах погоды в качестве П. обычно используются многомерные величины (в частности, значения каких-либо характеризующих погоду функций или полей метеорологич величин в различных точках времени и пространства). Г. В. Груза. ПРЕДИКТОР (predictor) - используемая для статистического прогноза (в частности, для статистического прогноза погоды) известная величина. В метеорологии в качестве П. обычно используется многомерный вектор, включающий в качестве компонент ряд метеорологич. величин (напр., значения метеорологич. временных рядов или метеорологич. полей в различных пространственно-временных точках). Набор компонент вектора, являющегося П. (среди к-рых могут быть количественные, порядковые и классификационные величины; см. Предиктант) выбирается из физич. соображений о факторах, ответственных за предстоящие изменения погоды. Размерность этого вектора может быть снижена путем применения существенных предикторов отбора в процессе статистич. анализа данных. Г. В. Груза. ПРЕДПОЧТЕНИЙ АНАЛИЗ (preference analysis) - см. Многомерное шкалирование. ПРЕДПОЧТЕНИЯ ИНДИКАТОР (preference indicator) см. Полезностей теория. ПРЕДПОЧТЕНИЯ ОТНОШЕНИЕ (ordering relation) - см. Полезностей теория. 510 ПРЕДИКТАНТ I ПРЕДПОЧТЕНИЯ ПОЛЕ (ordering field) - см. Полезно стей теория. ПРЕДСКАЗУЕМАЯ КВАДРАТИЧЕСКАЯ ВАРИАЦИЯ мартингала (predictable quadratic variation of a martingale) - см. Мартингал] квадратическая характеристика. ПРЕДСКАЗУЕМАЯ ПРОЕКЦИЯ ПРОЦЕССА (predictable projection of a process) X(t) (действительного, заданного на полном вероятностном пространстве (Q,.«/, Р) с непрерывным справа потоком (.«/Д^о полных а-алгебр, при этом X(i) не I обязан быть согласованным с этим потоком) - это такой предсказуемый относительно потока С«//)г^о процесс pX(t), что для всякого предсказуемого марковского момента т. выполнено равенство ЕХ(т)/{т<_ГЕ"Х(х)/(т<+ч. П. и. и. ограниченного (или неотрицательною) существует и определяется однозначно. При этом ^(т)/{т,+оо} = Е{Жт)/{т<4ооГ/т_} для любого предсказуемого марковско! о момента т. Лит.: [1] Делл ашери К., Емкости и случайные процессы, пер. с франц., М., 1975, [2} Справочник по теории вероятностей и матечати- | ческой статистике, 2 изд., М., 1985. Н.М. Иорменко. | ПРЕДСКАЗУЕМАЯ ХАРАКТЕРИСТИКА мартингала (predictable characteristic of a martingale) -- см. Мартингал. ПРЕДСКАЗУЕМОЕ МНОЖЕСТВО (predictable set) - I см. Мартингал. | ПРЕДСКАЗУЕМЫЙ МАРКОВСКИЙ МОМЕНТ (predu | table stopping time) - чгркоаскии /ю.^гпт т, определенный | на полном вероятностном пространство Ш, ../, Р) с непрерыв- | ным справа потоком (•^t)t^o полных а-алгебр, такой, что существует ноубываюи.ая пос.юдоьатг'лытпь марковских мо- [ ментов (т„)„5*|, удовлетворяющих условиям: 1„<х на множе- j стве {о):т(о))>0} и Iim тг, = т vpw nce\ cocQ. I Последовательность (т?,)п^>^ в уюу определении назывг.епя ' последовательностью, и рол н'чцпюшеи моменч ' т. С помощью нредск.».ч\чиых моментов остановки вводи гея I понятие кв чз чпеч ре iw mi on и cm на w ото каста т- гебр С^),^о- Так называется поток, чля к-рого .«•/,_ -.<. | каким бы ни был П. м. м. т. I Лит.- ( I] Дс./лаи v\>i, К . Км;«х-;и i случгй им- прицетоы, in-j». с франц., М.. 1975, [2| Офаы/шик но теомич иероятоски и матс.-мш ческой пагипик'., 2 илд., М , 1985. //. //. j/opwitho. ПРЕДСКАЗУЕМЫЙ ПРОЦЕСС (predictable pmc^s) - см. Мартингал. I ПРЕДСКАЗУЕМЫЙ СЛУЧАЙНЫЙ ПРОЦЕСС (produ- table stochastic process") случайный процесс, обладающий свойством измеримости относительно а-алгебры предсказуемых множеств, к-рая определяется гж. Пусть (Q, ,-/, ?) - полное вероятностное пространство и (^()ti. q - непрерывный справа поточ полных а-алгебр. Минимальная а-адгебра иод- множества li?4xQ, содержащая все множества вида (s г|хД при Q^s<t, /le^ " в»да {0}хД при /1<=.'/0, называется а-алгеброй предсказуемых множеств и обознача- I ется if. Она содержится в о-алгебре вполне измеримых мно- I жеств и совпадает: 1) с минимальной а-алгеброй подмножеств I IP+xQ, относительно к-рой измеримы все действительные со- | гласованные и непрерывные (или только непрерывные слева) процессы; 2) с минимальной а-элгеброй подмножеств IR+ х£2, порожденной стохастич. интервалами вида [а, г[, где а, т - произвольные предсказуемые марковские моменты. Случайный процесс (X(t))t>0 в фазовом пространстве (М, 9?) называ- i ется предсказуемым, если измеримо отображение Х(-, )
измеримого пространства (1Р+ х(], эр) в измеримое пространство (М, #). Лит.: [1] ДеллашериК., Емкости и случайные процессы, пер. с франц., М.. 1975; [2] Справочник по теории вероятностей и математической статистике, 2 изд., М., 1985. Н. И. Портенко. ПРЕНЕБРЕЖИМОЕ МНОЖЕСТВО (negligible set) - множество, малое в смысле теории меры. Пусть (Х} S, ц) - произвольное пространство с мерой, У - подмножество основного базисного множества X. Говорят, что Y пренебрежимо (относительно меры |i), если |1*(У) = 0, где ц* - внешняя мера, ассоциированная с мерой ц. В том случае, когда (Х, S. ц) представляет собой пространство с полной мерой, класс всех ц-пренебрежимых множеств совпадает с классом всех множеств ц-меры нуль. Если X - топологич. пространство, а ц - борелевская мера на X, то множество Y с X называется локально п ре неб режим ым (относительно меры |i), если для всякой точки хеХ существует ее окрестность U(x), обладающая тем свойством, что пересечение Yf)U(x) является ц-иренебрежимым множеством в X. Каждое П.м. одновременно будет и локально пренебрежимым. Обратное утверждение, вообще говоря, неверно (см. 11]). Для инвариантных и квазиинвариантных мер имеется понятие абсолютно пренебрежимого множества (см. [3]), родственное понятию П.м. для обычных пространств с мерами. Напр., всякое компактное подмножество бесконечномерного банахова пространства Е абсолютно пренебрежимо по отношению к классу всех а-конечных мер, задаваемых на £ и квазиинвариантных относительно параллельных переносов Е. Лит.: [1] БурбакиН., Интегрирование. Меры на локально компактных пространствах. Продолжение меры. Интегрирование мер. Меры на отделимых пространствах, цер. с франц., М., 1977; [2) X а л- мош П., Теория меры, пер. с англ., М., 1953; [3] X а р а з и ш в и - л и А. Б., Топологические аспекты теории меры, К., 1984. Г. В. Нижарадзе. ПРЕФИКСНОЕ МНОЖЕСТВО (prefix set) см. Неравномерный код. ПРИВЕДЕННЫЙ РАЗМАХ (adjusted range) - см. Херста явление. ПРИВОДИМАЯ ЦЕПЬ МАРКОВА (reducible Markov chain) - см. Разложимая цепь Маркова. ПРИЕМОЧНОЕ ЧИСЛО (acceptance number) - предельно допустимое число дефектных изделий в выборке, при к-ром контролируемая совокупность изделий принимается (см. Статистический приемочный контроль). Ю. К. Беляев. ПРИНАДЛЕЖНОСТИ ФУНКЦИЯ (membership function) - см. Нечеткое множество. ПРИНЯТИЯ РЕШЕНИЯ ПРАВИЛО (decision rule) - то же, что решающее правило; см. Статистических решений теория. ПРИОРИТЕТ (priority) - см. Обслуживания система. ПРИОРИТЕТНАЯ СИСТЕМА (pruority queue) - см. Обслуживания система. ПРИСОЕДИНЕННЫЙ СПЕКТР ПРОЦЕССА (associated spectrum of a process) - см. Осредненная спектральная функция. ПРИСТЕННЫЕ ЗАКОНЫ (wall laws) в теории турбулентности- законы подобия, определяющие общий вид зависимости различных характеристик турбулентности в параллельном течении вдоль стенки [со средней скоростью U{у), всюду направленной вдоль фиксированной оси х и зависящей только от нормальной к стенке координаты у] от расстояния до стенки у. П. з. применимы как в случае плоской стенки, так и в случае искривленной стенки (напр., течение в круглой трубке) при значениях у, много меньших радиуса кривизны стенки. Важнейшим из П. з. является пристенный закон Прандтля [1]: dUiy) "2 uw-.jft) dy -НЯ описывающий профиль средней скорости над гладкой стенкой. Здесь f(y+) и ф(г/+) -fXy+) ~ универсальные функции, v - кинематич. коэффициент вязкости жидкости, а 1V2 fdU\ dy i/ = 0j - так наз. динамическая скорость (или скорость трения). Из уравнений гидромеханики выводится, что f(y+)xy+, U(y)*tu\ y/\ при малых значениях y+ = u+y/v (в так наз. вязком подслое течения) и что разложение f(y+) в ряд Тейлора по степеням у+ имеет вид f(y+) =у+-о>\У+ + ^5^+ + ■ • •» гДе а4^®- Экспериментальные данные показывают, что аА « 1 (по-видимому, близко к 0,001 или меньше). Иногда даже предполагается, что а4~0. При у+ » 1 коэффициент турбулентной вязкости vr= -(Euv)/- dU_ (где и и v - пульсации скорости в направлении осей х и у) намного превосходит V, так что значение dU/dy здесь не должно зависеть от v. Поэтому ф(у+) = -ЦМу) = -1п-^ + В при у+» 1 (в пределах так наз. логарифмического подслоя), где х и В- универсальные постоянные (х- постоянная Кармана, близкая к 0,4, а В«5). В случае стенки, покрытой однородной шероховатостью со средней высотой элементов шероховатости /г, П. з. для средней скорости U(y) имеет вид U(y) = umf{(y+> h+, a,, ..., а„), где y+ = yu+/\, hT=hu+/\t aO| о„- безразмерные параметры, описывающие типичную форму элементов шероховатости, их распределение по площади стенки и, если не все эти элементы являются одинаковыми, распределение их размеров и форм. При Л+. » 1 (то есть при режиме развитой турбулентности) зависимость от v становится несущественной и П. з. принимает вид U(y) = u*f2(y/h, at, .... a„). Если у+ » 1 и у//г » 1, то и(у) = (\/х)\п^%Вг(п, a„ ...,ая) или и(у) = Му/п) + В2(о1 оп) (последняя формула относится к случаю режима развитой шероховатости). В случае гладкой стенки и наличия тепло- или массообмена стенки с жидкостью П. з. для средней температуры [или концентрации переносной материальной субстанции В(у)] имеет вид ew-Q(y) = Q*fQ(yu*/v> Рг), где 0^ = 0(0) - значение 0 на стенке, dy\ j,=0 ПРИСТЕННЫЕ 511
- пристенный масштаб температуры (или концентрации), х ~ молекулярный коэффициент температуропроводности (или диффузии), a Pr = v/x - число Прандтля (или число Шмидта). При у » max(v|w», х|*0 /ёЫ = 1/*о1п*+ + Р<Рг), eB1-e(y) = eJl/x0In^ + p(Pr)l где х0 - универсальная постоянная (близкая к 0,47 по данным измерений), |$(Рг) - универсальная функция Рг (см. [3]). Аналогичные П. з. справедливы и в случае шероховатой стенки, а также и для других характеристик турбулентности (см. [3]). Напр., П.з. для момента Ем vwmQn~Mklmn (где и, v, w - пульсации трех компонент скорости, в - пульсация температуры или концентрации) в случае гладкой стенки имеет вид гДе fklmr,(y+> Pr) = flta = const при у » max(v|м»х|ит). Лит.: [1] Prandt! L., «Z. angew. Math. Mech.», 1925, Bd 5, S. 136-39; [2] Монин А.С, Яглом A.M., Статистическая гидромеханика, ч. 1, М., 1965; [3] Кадер Б. А., Яглом A.M., в кн.: Итоги науки и техники. Механика жидкости и газа, т. 15, М., 1980, с. 81-155; т. 18, М., 1984, с. 3-111. A.M. Яглом. ПРИТЯГИВАЮЩАЯ ГРАНИЦА (attracting boundary) - см. Одномерная диффузия; классификация границ. ПРИТЯЖЕНИЯ ОБЛАСТЬ (attraction domain) - см. Ренор- мализационная группа. ПРИТЯЖЕНИЯ ОБЛАСТЬ операторно устойчивого распределения (domain of attraction of an operator stable distribution) - совокупность всех распределений вероятностей v в IP для к-рых существуют последовательность {Ап} линейных операторов в IP и последовательность {ап} векторов из IP такие, что распределения нормированных сумм Yn = An(Sn - ап) слабо сходятся при п -> °° к заданному операторно устойчивому распределению ц, где Sn = X^ + ... + Хп - сумма независимых случайных векторов, имеющих одинаковое распределение v. Если в качестве Ап выбирают операторы вида п~ , где В - экспонента операторно устойчивого распределения ц, то получают определение области нормального притяжения операторно устойчивого распределения. Пусть ц - полное операторно устойчивое распределение в IP с экспонентой В. Распределение ц является безгранично делимым в IPrf, и его характеристич. функция Д допускает Леей - Хинчина каноническое представление с тройкой (а, С, М), где деИ? , С- ковариационный оператор, М- мера Леви. Известно, что любое операторно устойчивое распределение ц представимо в виде ц = (1^*(1р, где \ig - полная гауссова мера на подпространстве Rg, \ig - полное операторно устойчивое распределение без гауссовской компоненты на подпространстве Rp, подпространства R и Rp ^-инвариантны и R f)R -{0}, RJSR =1Р . Мера Леви имеет представление M(E)=jL J~ IE(tBx)r2dtK(dx), IE - индикатор множества Е cz IP , L = {x e IPrf: Ы1 = 1,1 Aril > 1 для всех t > 1}, K(A) = M(tBx:xeA} t>\),AcL. Фактически мера Леви сосредоточена на подпространстве R Пусть F и Fp - операторы проектирования на подпространства Rg и Rp соответственно, Dv(u) - нормальная П. о. операторно устойчивого распределения ц. Имеет место следу- 512 ПРИТЯЖЕНИЯ ющий результат: v e DN(\i) тогда и только тогда, когда Fg(v) е DN(\lg) и /^(v) g DN([ip). Более того, v е DN(\i) тогда и только тогда, когда для любого борелевского подмножества A a LC\Rp:K(dA) = 0, где дА - граница множества А, lim tv{s x:xgA, s>t} = K(A) и Fa(v) имеет ковариационный оператор, совпадающий с С (см. [1], [2]). В случае ненормального притяжения ситуация усложняется, так как теперь не указан вид нормирующих операторов. Пусть 5б/_1 = {ве1Рс/:||в|| = 1}. На S^"1 определены функции «„(6) = sup{«^0:wE«X1, 8>2лй2)^а2}, гдеялЬ = пип (а, Ь) и ы(в) = $ир1ы>0:1~^(у2лы2)Мвиу) + \\С42>™2\, где Се - ограничение оператора С, a Afe - проекция меры М на направление QeS ~ , (■,•)- скалярное произведение в IP . Говорят, что случайный вектор удовлетворяет равномерно- МУ (^п.е» ^П)в)~Условию на хвостах, где d„e>0, M„fl - спектральные меры Леви, если для любого у>0 lim sup \пР{(Х, е)>^щву)-МПгв{1у, оо)}| =0. Пусть /„(6) - последовательность векторов из S ~х и !иЯ|/я(е) = яЕ«Х, в>/{|(Х, 6)| ^й„(в)М/?,(в))})( где 1(A) - индикатор события А, ^,/п(в)-^пЛ(в)-«1(М/п, blt)an(Q)/uila(Q)), где bQ=(a, е>+J (u, е>[(1 +<«, в>2)-1 -(1 + ||м||2г,]м(^), J\U j^l J\u\>\ W Усеченные средние тп / (в) называются вектороподоб- ными относительно базиса {^п1, ..., ^nd), если Jim sup^ \h„jW-^mt hal{%nj)(Q, ^>|/«„(в) = 0 В этом случае распределение v принадлежит П. о. операторно . устойчивого распределения ц тогда и только тогда, когда существует базис {ynJ-, /=1, .., d) из единичных векторов такой, что для операторов Rn:Rn Yn; = 4^>V^e;>4 и векторов <7П(6) = #* 6/)|#* в|| имеет место: 1) случайный вектор Х\ удовлетворяет равномерному an(Q)/w(gn(Q)} Mg (в)) условию на хвостах; 2) lim sup |^(в)/(^я(в))||/?*"1в|Г1|=0; 3) усеченные средние mn(Q) = тпд (в) являются вектороио- добными относительно базиса Йт»" ■••» £т/Ь определяемого полярным разложением Rn : гДе {Vn\^ •■•! Vnd) также ортонормированный базис. Операторы Rn можно взять в качестве нормирующих для последовательности {Sn). Вопрос о конструктивном построении базиса {Уп\> •••» Ind) остается открытым (см. [3]). Если ц - чисто гауссовское распределение, то без ограничения общности его можно считать стандартным нормальным распределением, к-рое сферически симметрично. В этой ситуа-
ции распределение v случайного вектора Х1 принадлежит П. о. ц тогда и только тогда, когда lim sup t2P{\(Xu в>| >^}/Е«Х1, в>2л£2) = 0. При этом возможно в явном виде выписать нормирующие операторы Лп, используя функцию д„(в) (см. [4]). Условия притяжения к сферическим симметричным устойчивым законам с показателем а<2 также значительно упрощаются по сравнению с общим случаем (см. [4]). Лит.: [1] J u rek Z. J., «Теория вероятн. и ее примен>, 1982, т. 27, в. 2, с. 396-400; [2] Hudson W.N., Mason J.D., Vcch J.A., «Ann. РгоЬ.», 1983, v. 11, № 1, p. 178-84; [3] Hahn M. G., Klass M.J., «Z. Wahr. und verw. Get», 1985, Bd 69, S. 479-505; 14) их же, «Lecture Notes Math.», 1981, № 860, p. 187-218. Ю. С. Хохлов. ПРИТЯЖЕНИЯ ОБЛАСТЬ устойчивого закона (domain of attraction of a stable law) G - множество распределении F таких, что F*n(Bnx + An) -> G(*), n -> -, (*) где *п означает и-кратную свертку, для всех х при нек-ром выборе нормирующих последовательностей Ап и Вп>0. Условие (*) эквивалентно слабой сходимости функций распределения сумм (LV'-a.)/*.. где Хх - независимые одинаково распределенные случайные величины с функцией распределения F(x)} к функции распределения G(x). Все устойчивые законы и только они имеют непустые П. о. Области притяжения законов, принадлежащих одному типу, совпадают, в связи с чем иногда говорят об областях притяжения типов. Если закон принадлежит П. о. устойчивого закона с характеристич. показателем а, 0 < а ^ 2, то для любого 0 < 5 < а j\x\bF(dx) <оо и в (*) величины Вп-п 'ah(n), где h(n) - медленно меняющаяся функция. Каждый устойчивый закон G принадлежит своей П. о., при этом Вп = п 'а, где а - показатель закона G. Множество распределений F, для к-рых (*) выполняется с Вп-an 'a (а>0 постоянная), называется нормального притяжения областью. Для того чтобы функция распределения F(x) принадлежала П. о. устойчивого закона с показателем а, 0 < а^ 2, необходимо и достаточно, чтобы lim ЛW/Jo x2dX(x) = (2 - а)/а, гдех(г)=1 -F(z) + F( -z), 2>0 (теорема Саковича [3]). При 0<а<2 необходимыми и достаточными условиями являются также FW = (C1+o(l))U|-a«UI), *->-<*>, и F(*)=l-(C2 + o(l))*~°M*)f *->oo, где h(x) - медленно меняющаяся функция, С^О, С2^0, Cj + C2>0. При a = 2, то есть для притяжения к нормальному закону, необходимо и достаточно выполнение одного из условий: 1) Fix) имеет конечную дисперсию; 2) функция (1 -F(x) + F( - х))х - медленно меняющаяся при х -><». Критерии принадлежности распределения П. о. устойчивых законов известны и в многомерном случае (см., напр., [3]). Лит.: [1] Гнеденко Б. В., Колмогоров А. Н., Предельные распределения для сумм независимых случайных величин, М.-Л., 1949; [2] Ибрагимов И. А., Линник Ю. В., Независимые и стационарно связанные величины, М., 1965; [3] Сакович Г. Н., ♦Теория вероятн. и ее примен>, 1956, т. 1, в. 3, с. 357-61. В. В. Сенатов. ПРИТЯЖЕНИЯ ОБЛАСТЬ устойчивого распределения на группе (domain of attraction of a stable distribution on a group) - совокупность всех распределений вероятностей v на локально компактной группе G, для к-рых существуют последовательность {т„} непрерывных автоморфизмов группы G и последовательность {хп} элементов группы G такие, что распределения нормированных композиций Y„ = a„(S.«x„) (1) слабо сходятся при п -> <» к заданному устойчивому распределению ц на группе G, где о - групповая операция, 5„ = Х1°...оХп - композиция независимых случайных элементов со значениями в G, имеющих одинаковое распределение v. Если для каждого а из множества Aut(G) всех непрерывных автоморфизмов группы G и меры ц из множества М (G) всех борелевских вероятностных мер на G определить меру ац по правилу au(£') = u(a~t(£')) для любого борелевского £<= G, то соотношение (1) можно переписать на языке распределений: (^(v^bo^u, л->оо, (2) где v*" - л-я степень v относительно операции свертки, Ъх ~ вырожденное в точке хп распределение вероятностей. Пусть распределение ц устойчиво относительно непрерывной одно- параметрич. группы T = {tt, t>0} автоморфизмов группы G (см. Устойчивое распределение на группе). П. о. нормального устойчивого распределения ц на группе G определяется как совокупность тех veJl\G)} для к-рых имеет место (1) или (2) с автоморфизмами a„ = 1\/п. Пусть 2>(ц) и 2)N(\i) соответственно П. о. устойчивого и нормального распределения ц. Наиболее сильные результаты получены для П. о. в строгом смысле, когда в соотношениях (1) и (2) хп-е. В этом случае предельное распределение ц будет строго устойчивым распределением на группе G. (Всюду в дальнейшем и П. о. и устойчивые распределения понимаются в строгом смысле.) П. о. можно определить для произвольного распределения ue./rt(G). Но содержательным это понятие является только для устойчивых распределений в силу следующего результата. Если ц - полная вероятностная мера на G, то есть она не сосредоточена ни на каком классе смежности группы G по собственной связной подгруппе, то $(ц) непусто тогда и только тогда, когда мера ц устойчива (см. [1]). Любое строго устойчивое распределение ц на группе G сосредоточено на нек-рой замкнутой Г-инвариантной подгруппе С, к-рая изоморфна полупрямому произведению С0®у К, где С0 - односвязная нильпотентная группа Ли, К - компактная группа, у:К-> Aut (C0) - гомоморфизм, определяющий структуру полупрямого произведения. Устойчивое распределение ц допускает разложение [L = \Iq*<uk, где Ш) ~ устойчивое распределение на С0, <% - нормированная мера Хаара на К (см. [1]). Если G - односвязная нильпотентная группа Ли с алгеброй Ли й и ехр: 0 -» G есть экспоненциальное отображение, то для любого объекта на группе G (меры, автоморфизма, функции, порождающего функционала) можно определить аналогичный объект на алгебре Ли 0, используя экспоненциальное отображение. Будем обозначать каждый такой объект той же буквой, что и на группе, но со значком ° сверху (напр., ПРИТЯЖЕНИЯ 513
$ е Ж (fl), если v e л\0). Если |i - устойчивая мера на G, то, используя порождающий функционал А соответствующей сверточной полугруппы мер, можно определить порождающий функционал А сверточной полугруппы мер и меру А. на g. Мера X будет Т -устойчивой на 0. Заметим, что X* р,. Имеет место следующий результат: v g Ф(|х) тогда и только тогда, когда $g 9AX) (см. [2], [3]). В общем случае, когда устойчивое распределение |1 имеет идемпотентный множитель со^, описание П. о. получено только для специальных классов групп. Напр., для группы M(d) собственных движений евклидова пространства R пусть {Хп} - последовательность независимых М(б/)-значных элементов, имеющих распределение V. Каждый элемент Х{ можно представить в виде Xi = (Uiy У,-), где Ui g SO(d) - поворот вокруг начала координат, Yi обозначает сдвиг в (I? на вектор У^ е Л? . Обозначим через v распределение С/,-. Имеет место следующий результат: если (X - устойчивое распределение на M(d) с показателем а, то veO(|i) тогда и только тогда, когда: 1) \*п слабо сходится при л-><» к нормированной мере Хаара на группе SO(d); 2) Р{|У*| >x} = (c + o(\))x~ah(x), где с>0, h{x) - медленно меняющаяся функция при х ->«> (см. [4] - [6]). См. также Центральная предельная теорема на группах. Лат.: [1] Hazod W., «Lecture Notes in Math.», 1986, № 1210, p. 304-52; [2] Khokhlov Yu.S., In: Probability Measures on Groups, X, N.Y., 1991, p. 239-48; [3] Hazod W., Scheffler H.-P., «J. Theor. Probab.», 1993, v. 6, № 1, p. 175-86; [4] Хохлов Ю. С, «Теория вероятн. и ее применен.», 1982, т. 27, в. 2, с. 342-44; [5] Гринцявичус А. К., «Литов. матем. сб>, 1985, т. 25, № 3, с. 39-52; [6] его же, там же, 1990, т. 30, № \t c. 14-29. Ю. С. Хохлов. ПРОГНОЗ ПОГОДЫ вероятностный (probabilistic weather forecast) - см. Вероятностный прогноз погоды; оценка качества. ПРОГНОЗ ПОГОДЫ категорический (categorical weather forecast) - см. Категорический прогноз погоды. ПРОГНОЗ ПОГОДЫ; оценка качества (weather forecast evaluation; skill score) - количественная оценка (мера) практической ценности прогноза погоды, использующего имеющиеся данные наблюдений для определения предсказываемого значения У нек-рого предиктанта У. Каждая форма оценки качества представляет собой функцию С/, сопоставляющую значению у предиктанта У и значению у прогноза У нек-рое число U(y, у). Обычно предполагается, что У и У - случайные векторы и в качестве суммарной оценки качества применяемого метода прогноза используется математич. ожидание U=E(U(y, у)), оцениваемое как выборочное среднее. Оценка качества единичного прогноза U(y} у) характеризует сходство значений предиктанта и его прогноза, а средняя оценка качества П. п. выражает меру близости статистич. зависимости наблюдаемых предиктантов и соответствующих прогнозов. Особенно важное значение средние оценки качества имеют для статистических прогнозов погоды, так как от них зависит оптимизация метода прогноза. При выборе конкретной формы оценки качества П. п. можно ориентироваться на требования определенных потребителей и учитывать эффект (напр., экономический) от использования прогнозов, но можно исходить и из общих соображений информационной ценности прогнозов. Оценка U имеет положительную ориентацию и характеризует полезность прогноза, если значение U(y} у) возрастает при приближении у к у (то есть при улучшении прогноза), и отрицательную ориентацию, 514 ПРОГНОЗ если U{у, у) возрастает при удалении у от у (в этом случае U является мерой ошибочности или потерь). Для многомерных предиктантов У широко используются меры потерь, пропорциональные сумме квадратов ошибок прогнозов компонент вектора У, и связанные с ним показатели связи в многомерном статистич. анализе (относительная ошибка, множественный коэффициент корреляции и др.). Предлагались также меры потерь, опирающиеся на другие шкалы ошибок, напр. пороговые, 5-образные и др. Для дискретных предиктантов (фаз погоды) вводятся матрицы полезности (ошибочности) Uij- С/(Ф,-, Ф,), по к-рым подсчитывается средняя оценка С/, учитывающая повторяемости фаз погоды Ф, и прогноза Ф . Для суждения об эффективности нек-рого метода П. п. его обычно сравнивают с одним из стандартных (тривиальных) методов: инерционным прогнозом (когда будущее значение величины У приравнивается последнему ее наблюдаемому значению), климатическим прогнозом (когда предсказывается значение У, равное его климатач. норме) или случайным прогнозом. При этом вводится показатель мастерства: 5= (C/GC/CT)/([/max- t/cr), где C/max - максимальная возможная оценка, С/ст - средняя оценка стандартного метода, принимаемая за начало отсчета, a U - средняя оценка качества П. п. данного метода. Величина S меняется от 0 до 1; иногда ее выражают в процентах. Любой метод статистич. П. п. строится на основе анализа данных, относящихся к определенной выборке результатов наблюдений, к-рую называют тренировочной (или зависимой). Показатель мастерства, подсчитанный по данным зависимой выборки, называется обеспеченностью метода. При дальнейшей проверке (или при использовании) метода П. п. на материале контрольной (независимой) выборки, оценка качества, как правило, оказывается ниже той оценки, к-рая использовалась для подсчета обеспеченности. Степень завышения оценки качества прогноза, определяемой по зависимой выборке, для нек-рых методов П. п. может быть оценена теоретически (см., напр., [1]), но в общем случае это сделать невозможно и поэтому требуется обязательная проверка метода на независимом статистич. материале. В частности, при отборе существенных предикторов следует использовать оценку качества, найденную по независимым от тренировочной выборки данным. Для этой цели предложен алгоритм «скользящего контроля», при к-ром в качестве независимых данных используются поочередно все элементы выборки (см. также [2], [3]). Лит.: [1] Колмогоров А. Н., *Ж. геофизики», 1933, в. 1, с. 78-82 (Теория вероятностей и математическая статистика, М., 1986, с. 161-67); [2] Груза Г. В., «Тр. Среднеазиатского научно-исследовательского гидрометеорологического института», 1967, в. 29(44), с. 3-41; [3] Груза Г. В., Ранькова Э. Я., Вероятностные метеорологические прогнозы, Л., 1983. Г. В. Груза. ПРОГНОЗ ПОГОДЫ статистический (statistical weather forecast) - см. Статистический прогноз погоды. ПРОГНОЗИРОВАНИЕ СЛУЧАЙНЫХ ПРОЦЕССОВ (forecasting/prediction of random processes) - см. Случайный процесс, прогнозирование. ПРОГНОЗИРОВАНИЯ МЕТОД БРАУНА (Brown's method of forecasting/prediction) - см. Брауна метод прогнозирования. ПРОГРЕССИВНО ИЗМЕРИМЫЙ ПРОЦЕСС (progressively measurable process) - заданный на вероятностном пространстве (ft, j/, P) с потоком а-алгебр (.«/,)^0 случайный процесс X(t) = X(t, со) в фазовом пространстве (М, 83) такой, что при всяком t^O измеримо отображение Х(-, •) измеримого пространства ([0, t] xQ, JBj0 t^^t) в измеримое пространство (М, 83) (здесь 83[0т t\ есть ст-алгебра борелевских подмно-
жеств отрезка [0, t]). Если процесс X{t) прогрессивно измерим относительно потока (^)f>o и т ~ конечный марковский момент относительно того же потока, то случайный элемент Х(т) представляет собой измеримое отображение (Q, Лх) в (М, 83). Совокупность всех П. и. п. относительно фиксированною потока C«4)f^o порождает в 1Р+х£2 а-алгебру прогрессивно измеримых подмножеств IP+xQ, порожденную множествами вида {(£, со) :X(t, со) еГ( при всевозможных ГеЯЗ и П. и. п. Индикатор прогрессивно измеримого множества представляет собой П. и. п. jlum.: [1] Деллашсри К., Емкости и случайные процессы, пер. с франц., М., 1975; {2] Справочник по теории вероятностей и математической статистике, 2 изд., М., 1985. И. И. Портенко. ПРОДАКТ-СОСТОЯНИЕ (product-state) - см. Некоммутативная теория вероятностей. ПРОДОЛЖЕНИЕ МЕР (extension of measures) - распространение мер с одних классов множеств на другие, более широкие классы множеств. Пусть R - произвольное полукольцо множеств, и пусть \i - произвольная а-конечная мера на R. Тогда на а-кольце S(R), порожденном полукольцом R, существует и единственна а-конечная мера р, такая, что ]1(У) = цХУ) для всех множеств YeR (теорема Кара- теодори). При этом мера Д называется продолжением исходной меры ц. В общем случае, если даны две меры hv, то вторая мера называется продолжением первой при условии, что она, рассматриваемая как функция множеств, является продолжением функции X. Частным случаем процесса П.м. служит процесс пополнения меры. Мера X, заданная на нек ром а-кольце 5, называется полной мерой, если соотношения Уе5, X(Y)-0 и Z <z Y в совокупности влекут соотношение ZeS [и, следовательно, соотношение X(Z) = 0]. Какова бы ни была мера ц,, всегда существует наименьшая полная мера ц, являющаяся продолжением меры ц,. Область определения этой наименьшей полной меры состоит из всевозможных множеств вида (YUZf)\Z", где У- произвольное (Х-измеримое множество, a Z' и Z" - произвольные подмножества нек-рых ц-измеримых множеств, имеющих нулевую меру. Сама мера ]1 определяется с помощью равенства | p((yUZ')\£") = |i(y). Такое определение корректно, и мера ji называется (обычным) пополнением исходной меры \i. С пополнением меры тесно связано свойство однозначности множеств по отношению к этой мере. Пусть (X ~ какая-нибудь мера на основном базисном множестве X и пусть ZcX. Говорят, что множество Z обладает свойством одно- з н а ч н о с т и по отношению к мере ц, если: 1) найдется хотя бы одно продолжение меры \it в область определения к-рого входит Z; 2) для любых двух таких продолжений щ и \12 выполняется равенство u^(Z) = \L2(Z). Имеет место следующее утверждение: какова бы ни была а-конечная мера|х, совокупность множеств, обладающих свойством однозначности по отношению к |Х, совпадает с совокупное гью ]х-измеримых множеств, где р - обычное пополнение меры (X. Какова бы ни была а-конечная мера |х на основном базисном множестве X и каково бы ни было конечное семейство (Zj)x^j^m подмножеств множества X, всегда найдется продолжение Д меры |Х, содержащее в своей области определения каждое из множеств Z;-, 1 ^/^ m. Для счетных семейств подмножеств основного базисного множества X аналогичное утверждение, вообще говоря, уже не имеет места. Если исходная |х является квазиинвариантной (инвариантной) относительно нек-рой группы преобразований, то естественно рассматривать такие ее продолжения, к-рые квазиинва- риантны (инвариантны) относительно той же группы преобразований. Разработаны различные методы построения инвариантных продолжений инвариантных мер (см. [3]; там же показано, что многие вопросы, касающиеся П. м., тесно связаны с чисто теоретико-множественными вопросами об измеримости бесконечных кардинальных чисел). Лит.: [1] Халмош П., Теория меры, пер. с англ., М., 1953; [2] Неве Ж., Математические основы теории вероятностей, пер. с франц., М., 1969; [3] Харазишвили А. Б., Инвариантные продолжения меры Лебега, Тб., 1983. А. Б. Харазишвили. ПРОДОЛЬНАЯ КОРРЕЛЯЦИОННАЯ ФУНКЦИЯ (ion gitudinal correlation function) - см. Однородное и изотропное случайное поле. ПРОЕКТИВНЫЕ СИСТЕМЫ МЕР (projective systems of measures) - семейства множеств, отображений и мер, в определенном смысле согласованных между собой. Точнее, пусть / - нек-рое предупорядоченное (чаще всего упорядоченное) фильтрующееся вправо множество индексов, и пусть для каждого индекса ае/ задано пространство с мерой (Ха, 5а, ц,а), а для любых двух индексов ае/ и ре/ таких, что а^ р, задано отображение да^ множества Хр в множество Ха. Предполагается также, что выполняются следующие условия согласованности: 1) каков бы ни был индекс ае I, отображение даа представляет собой тождественное отображение множества Ха; 2) для всяких трех индексов ае/, ре/, yel таких, что а^р^у, имеет место равенство ПРОЕКТИВНЫЕ 515 3) для всяких двух индексов ае/ и ре/ таких, что а^р, отображение да^ измеримо относительно а-алгебр Sa и Sp; при этом имеет место равенство ца = №$°9^ф- Пара ((Ха, 5а, щ)ае/, (9а^а^^ называется проективной системой мер. Если не возникает никаких недоразумений по поводу отображений д^, а^ р, то само семейство мер (|1а)ае/ также называется П. см. Если каждое основное базисное множество Ха, ае/, представляет собой топологич. пространство, a Sa представляет собой либо бэровскую а-алгебру в Ха, либо борелевскую а-алгебру в Ха, то обычно предполагают, что все отображения д^, а ^ р, являются непрерывными. Пусть в декартовом произведении ТТ Xj рассматривается множество X, образованное теми элементами д: = (л:|-)|-е/, для к-рых выполняются равенства ха = 9а$(х$)> а^Р- Для любого индекса ае/ символом да обозначается сужение канонич. проекции рга: ГТ Х;-»-Ха на множество X. Тогда имеют место равенства да-дал°дп, а ^ р. Пусть 5 обозначает а-алгебру частей множества X, порожденную семейством отображений (да)ае /- Другими словами, 5 есть наименьшая по включению а-алгебра в X, относительно к-рой измеримы все отображения да, ае/. Если на 5 можно определить меру ц,, обладающую тем свойством, что №а = №°9а? ПРИ любом ае/, то пространство с мерой (X, 5, \i) называется проективным пределом П. см. (\1а)ае;- При этом используются следующие обозначения: (X, 5, д) = 1|т (Ха, 5а, йа)ае/, ц = Ит (ца)ае/. Если каждое отображение да, ае/, является сюръективным, то не могут существовать два различных проективных предела для проективной системы вероятностных мер (ца)ае/- Если же П. см. (|Ха)ае/ такова, что множество индексов / непусто,
каждое множество Ха, ael, представляет собой компактное топологии, пространство, все отображения д^, а^р, непрерывны и сюръективны, а каждая мера (ia, a^ p, представляет собой вероятностную меру Радона на борелевской а-алгебре Sa пространства Ха, то можно утверждать, что существует проективный предел Iim (|ia)aG/. Последнее утверждение непосредственно вытекает из следующего общего результата Ю. В. Прохорова [1]. Пусть / - непустое множество индексов, (Xa, Sa, fia)ae/ - проективная система мер с отображениями д^, а^р, X- нек-рое множество и для всякого а е / задано отображение да:Х ->Ха. Пусть выполняются условия: 1) каков бы ни был индекс a e /, множество Ха представляет собой отделимое топологич. пространство, а щ - вероятностную меру Радона на этом пространстве; 2) все отображения д^, а^р, непрерывны; 3) множество X также представляет собой отделимое топологич. пространство, и все отображения да, ае/, непрерывны; 4) семейство отображений (<7a)ae/ отделяет точки в X; 5) для любых двух индексов а е / и Ре/, таких, что а< р, имеет место равенство да = да$°дл. Тогда следующие утверждения эквивалентны: а) существует единственная вероятностная мера Радона ц на пространстве X, обладающая тем свойством, что ца = \1°да для каждого индекса a e /; 6) каково бы ни было е>0, существует такое компактное множество Ке с X, что |^ia(Xa\^a(/Ce)) < е для всякого индекса а е/. Соотношение б) называется условием Прохорова. Если множество индексов / содержит счетное конфиналь- ное подмножество, то любая проективная система вероятностных мер Радона (ца)ае/ имеет проективный предел. См. также Колмогорова теорема о конечномерных распределениях. Лит.: [1] П р ох о ров Ю. В., «Теория вероятн. и ее примен.», 1956, т. 1, в. 2, с. 177-238; [2] Бурбаки Н., Интегрирование. Меры на локально компактных пространствах, пер. с франц., М., 1977. А. Б. Харазишвили. ПРОЕКТИВНЫЙ ПРЕДЕЛ проективной системы мер (projective limit of а projective system of measures) - см. Проективные системы мер. ПРОЕКЦИОННАЯ ОЦЕНКА (orthogonal series estimator) - см. Непараметрический регрессионный анализ, Непараметрическое оценивание. ПРОЕКЦИЯ ранговой статистики (rank statistic projection) - см. Ранговая статистика. ПРОЕКЦИЯ случайного множества (projection of a random set) X - нечеткое множество В = Proj X, функция принадлежности к-рого \хв связана с X соотношением \хв(у) - Р {у & X}, y&Y. Понятие П. случайного множества используется для изучения связи между теорией случайных множеств и теорией нечетких множеств. Лит.: [1] Орлов А. И., Устойчивость в социально-экономических моделях, М., 1979; [2] его же, Задачи оптимизации и нечеткие переменные, М., 1980. А. И. Орлов. ПРОИЗВЕДЕНИЕ вероятностных пространств (product of probability spaces) - вероятностное пространство (12, of, P), получаемое из заданных вероятностных пространств (Qjl, ^/jl, Р^), ХеА, Л*0 следующим образом. Множество С1 есть декартово произведение ТТ Q^ множеств Q^, 516 ПРОЕКТИВНЫЙ ^.еЛ, алгебра ^есть произведение а-алгебр .«^, ^.еЛ, то есть а-алгебра, порожденная подмножествами А с О. вида где Ак * Qk лишь для конечного числа индексов X е Л, а Р есть произведение вероятностных мерР^ДеЛ, то есть вероятностная мера на d со свойством: на каждом множестве А ел/вида (*) имеет место равенство роо-г^р,^). Существование такой меры на Л составляет содержание теоремы Андерсона - Иессена. С помощью конструкции П. вероятностных пространств для произвольного семейства вероятностных мер Ц^, Х&А, удается указать одно вероятностное пространство (Q, л/, Р) и такое семейство Хк, ХеА, независимых случайных элементов на (ft, ^, Р), что при каждом ХеА случайный элемент Хк имеет распределение ц^. Обычно используют произведение не более чем счетного семейства вероятностных пространств. Лит.: [1] Лоэв М., Теория вероятностей, пер. с англ., М., 1962. В. И. Тариеладзе. ПРОИЗВЕДЕНИЕ измеримых пространстве product of measurable spaces) - см. Произведение мер. ПРОИЗВЕДЕНИЕ мер (product measure) - одна из основных конструкций теории меры. Пусть (Xt, St, \it)t^T ~ nP°" извольное семейство пространств с мерами, причем для каждого t&T выполняются соотношения XteSt и \it(Xt) = \ (другими словами, \it является вероятностной мерой). Измеримым параллелепипедом (или элементарным множеством) называется всякое подмножество в произведении ТТ Xf, имеющее вид ТТ Yf, где для любого ин- декса t e Г множество Yt принадлежит а-алгебре St и для всех, кроме конечного числа, индексов t e Г справедливо равенство Yt = Xt. Совокупность всевозможных измеримых параллелепипедов представляет собой полуалгебру множеств в ТТ Xt. Эта полуалгебра порождает а-алгебру множеств, называемую произведением семейства а-алгебр (St)tsT и обозначаемую символом ТТ St. Последнюю а-алгебру можно описать и по-другому: она является наименьшей с-ал- геброй в ТТ Xv относительно к-рой измеримы все проекции ргр t е Т. На а-алгебре ТТ St можно определить единственную меру ц, обладающую тем свойством, что для любого измеримого параллелепипеда ТТ Yt. Мера ц. называется произведением семейства мер (\itbeT и обозначается символом ТТ \xt. Таким образом, упорядоченная тройка (rLr*"H.r5»n,.rfc) представляет собой пространство с мерой, называемое произведением семейства пространств (Xt, St, \it)t 6T. Измеримое пространство (]~J Xt, ТТ Stj часто называется произведением измеримых пространств В том случае, когда множество индексов Т конечно, способом, аналогичным указанному выше, определяется произведение ТТ \xt и такого семейства мер (\xt)tGT, в к-ром каждая мера \xt, teT, является а-конечной. При этом мера ТТ \xt тоже будет а-конечной. В частности, классич.
n-мерную меру Лебега в евклидовом пространстве П?п можно рассматривать как пополнение произведения одномерных мер Лебега (число сомножителей, разумеется, равно л). В свою очередь, одномерную меру Лебега на единичном интервале можно рассматривать как образ пополнения нек-рой меры- произведения, задаваемой на канторовом дисконтинууме {О, \}N. Последняя мера есть ГТ \in> где для всякого индек- са п е N мера-сомножитель \in определена на двухэлементном множестве {0, 1} так, что m({0}) = jin({l}) = 1/2. В тесной связи с П. мер находится так наз. принцип Кавальери, позволяющий вычислять меры произвольных измеримых множеств, лежащих в произведении пространств, с помощью мер соответствующих сечений этих множеств. Сюда же относится и теорема Фубини, устанавливающая связь между интегралами по произведению пространств и интегралами по сомножителям. Лит.: [1] Халмош П., Теория меры, пер. с англ., М., 1953; [2] Неве Ж., Математические основы теории вероятностей, пер. с франц., М., 1969; [3] Данфорд Н., Шварц Дж., Линейные операторы. Общая теория, цер. с англ., ч. 1, М., 1962. А. Б. Харазишвили. ПРОИЗВЕДЕНИЕ семейства а-алгебр (product of a family of a-algebras) - см. Произведение мер. ПРОИЗВЕДЕНИЕ событий (product of events) Aj, A2, ..., An, совмещение событий, пересечение событий,- событие А-А\А2..Ап> к-рое означает одновременное осуществление событий Ait А2, ..♦, Ап; обозначает- i \п ся также Ui = t ^ В/*' ВатУтин- ПРОИЗВОДЯЩАЯ ФУНКЦИЯ вероятностная (pro bability generating function) - см. Производящая функция числовой последовательности. ПРОИЗВОДЯЩАЯ ФУНКЦИЯ моментов (moment generating function) - функциональная характеристика случайной величины X, все моменты к-рой существуют и подчинены соответствующим условиям роста. В общем случае П. ф. совпадает с двусторонним преобразованием Лапласа - Стилтьеса <p(s) = Eexp(sX), рассматриваемым в нек-ром замкнутом интервале А значений s, содержащем 5 = 0. Функция <p(s) может не существовать при s * 0, и поэтому понятие П. ф. моментов совмещается с предположением, что mesA>0. Название «П. ф.» моментов связано с равенствами ЕХ =ф (0), 6 = 0, 1, ..., где производные могут пониматься как односторонние. Если с вероятностью 1 случайная величина X ^ 0 (или же X ^ 0), то П. ф. моментов существует при 5^0 (соответственно при 5^0). См. также Момент, Производящая функция целочисленной случайной величины. Лит.: [1] Феллер В., Введение в теорию вероятностей и ее приложения, пер. с англ., т. 1-2, М., 1984. в. М. Золотарев. ПРОИЗВОДЯЩАЯ ФУНКЦИЯ случайного вектора (generating function of a random vector) - см. Производящая функция числовой последовательности. ПРОИЗВОДЯЩАЯ ФУНКЦИЯ случайной величи н ы (generating function of a random variable) - см. Производящая функция числовой последовательности. ПРОИЗВОДЯЩАЯ ФУНКЦИЯ целочисленной случайной величины (generating function of an integer-valued random variable) - частный случай интегрального преобразования Лапласа - Стилтьеса. Если случайная величина X принимает только целые неотрицательные значения, то ее производящей функцией называют функцию где z - комплексное число Ы ^ 1. П. ф. связана с характеристич. функцией fx(0 случайной величины X равенством fxU) = v(e*,X), tell?1. П. ф. находят широкое применение в теории ветвящихся процессов, в теории массового обслуживания и других разделах теории вероятностей. Лит.: [1] Феллер В., Введение в теорию вероятностей и ее приложения, пер. с англ., т. 1, М., 1984; [2] Севастьянов Б. А., Ветвящиеся процессы, М., 1971. В. М. Золотарев. ПРОИЗВОДЯЩАЯ ФУНКЦИЯ числовой последовательности (generating function of a sequence of numbers) «0» tfj, ..., an> ••• - степенной ряд где z - либо формальная переменная, либо комплексное или действительное число. Ситуация, в к-рой z воспринимается как формальная переменная, характерна для перечислительных задач комбинаторики. При исследовании асимптотич. свойств коэффициентов ап функции F(z) символ z интерпретируется как комплексное или действительное число. В зависимости от вида коэффициентов я0, а\* •••• ап> •••» связи между ними и, быть может, наличия комбинаторной интерпретации возможна дальнейшая конкретизация понятия П. ф. Примеры. 1) Пусть 60, 61т ..., Ьй, ... - последовательность чисел, перечисляющих нек-рые комбинаторные объекты; функция называется экспоненциальной производящей функцией. 2) Если X - случайная величина, у к-рой абсолютные моменты любого порядка конечны, то ряд называется производящей функцией моментов случайной величины X. 3) Если X - неотрицательная случайная величина, принимающая целочисленные значения, то равенства Fx(z) = Ezx^n=0P{X=n}zn задают вероятностную производящую функцию, или просто производящую функцию случайной в е л и ч и н ы X. П. ф. случайной величины X связана с ее характеристич. функцией фх(0 соотношением VxW^FxW). Многие характеристики случайной величины просто выражаются в терминах ее П. ф. Так, напр., Р{Х=я}=-^4п)(0), EX = F'X(\), DX = FX(\) + Fx(\)-F^(\)f EX(X-\)..XX-k+\) = F(x\\). 4) Пусть Х= (Хи ..., Х^) - случайный вектор, координаты к-рого суть целочисленные неотрицательные случайные величины. Функция Fx x/*i г*)-Ег*...г** называется производящей функцией случайного вектораХ. ПРОИЗВОДЯЩАЯ 517
С вероятностными П. ф. связан метод П.ф., к-рый был известен уже во времена А. Муавра (A. Moivre) и П. Лапласа (P. Laplace) и является одним из основных методов изучения свойств целочисленных случайных величин. Лит.: [ 1 ] Риордан Д ж., Введение в комбинаторный анализ, пер. с англ., М., 1963; [2] Сач ков В. Н., Вероятностные методы в комбинаторном анализе, М., 1978; [3] Феллер В., Введение в теорию вероятностей и ее приложения, пер. с англ., т. 1-2, М., 1984. B. А. Ватутин. ПРОИЗВОДЯЩАЯ ФУНКЦИЯ экспоненциальная (exponential generating function) - см. Производящая функция числовой последовательности. ПРОИЗВОДЯЩИЙ ОПЕРАТОР (generator/infinitesimal operator) - производная в нуле однопараметрической полугруппы операторов. Точнее, пусть Tt - полугруппа ограниченных линейных операторов в банаховом пространстве X:TtTs = Tt+s, t, s^O. Производящий оператор А определяется соотношением Af-XimStL ао t для тех fs X, для к-рых предел в правой части существует в смысле сильной сходимости (их множество обозначается через DA). Если полугруппа Tt непрерывна в смысле операторной нормы, то П. о. А ограничен и имеет место представление Tt = e .См. также Инфинитезимальный оператор, Хилле - Иосиды теорема. Лит.: [1]ДанфордН, Шварц Дж.Т., Линейные операторы. Общая теория, пер. с англ., ч. 1, М., 1962; [2] Феллер В., Введение в теорию вероятностей и ее приложения, пер. с апгл., т. 2, М, 1984. C. Е. Кузнецов. ПРОИЗВОДЯЩИЙ ОПЕРАТОР диффузионного процесса (generator of a diffusion process) - дифференциальный оператор 2-го порядка **Ч tJ дх1дх> « г Эх1 являющийся сужением на пространство Сь инфинитезималь- ного оператора процесса (см. Диффузионный процесс). Лит.: [1] Дынкин Е. Б., Марковские процессы, М., 1963. А. Ю. Веретенников. ПРОИЗВОДЯЩИЙ ОПЕРАТОР процесса (generator of a process) - термин, используемый иногда как синоним инфи- нитезимального оператора, иногда - в других, близких значениях. Напр., функция /"принадлежит области определения П. о. Л марковского процесса (Xt, Рх), если существует функция ф такая, что fiXt)-fo9<X,)ds - мартингал относительно семейства а-алгебр, порожденного процессом, и любой из вероятностей Рх; при этом принимается Л/"=(р. При таком определении П. о. является расширением инфинитезимального оператора. а. Д. Вентцель. ПРОИНТЕГРИРОВАННЫЙ СПЕКТР нестационарного процесса (integrated spectrum of a nonstationary process) - см. Осредненная спектральная функция. ПРОПУСКНАЯ СПОСОБНОСТЬ КАНАЛА (cannel capacity) - теоретико-информационная мера возможностей передачи информации по каналу связи. П. с. к. - одна из основных характеристик каналов связи, совпадающая при справедливости основной теоремы теории информации (Шеннона теоремы) с максимально допустимой скоростью передачи информации (см. Информации скорость передачи), при к-рой еще 518 ПРОИЗВОДЯЩАЯ возможно добиться заданной точности воспроизведения сообщений. Если Y и Y - случайные величины, связанные каналом связи (Q, V), то П. с. к. определяется равенством C = sup /(У; Y), где /(У; У) - информации количество в У относительно У, а верхняя грань берется по всем парам случайных величин (У, У), связанным каналом (Q, V). В случае, когда сигналы на входе и выходе канала Y = {Y(t), -oo<t<oo) и Y = {Y(t), -oo<t<°o] являются случайными процессами с непрерывным или дискретным временем, под П. с. к. обычно понимают среднюю П. с. к., приходящуюся на единицу времени или на один символ передаваемого сигнала, так что полагают С= lim (T-t)-* supi(y[,y[), (*) T-t^oo если такой предел существует; здесь верхняя грань берется по всем возможным парам случайных величин Yf={Y(s), t<s^T], Yf={Y(s), t<s^T], связанных соответствующим отрезком данного канала. Существование предела (*) доказано для достаточно широкого класса каналов, напр. для однородных каналов с конечной памятью и отличными от нуля переходными вероятностями. Оказывается также, что во многих случаях (напр., для каналов с конечной памятью) знаки sup и lim в определении (*) можно переставить, что позволяет трактовать П. с. к. как максимально возможную скорость передачи информации по заданному каналу. Явное вычисление П. с. к. оказывается возможным лишь в ряде частных случаев, в частности для каналов симметричных без памяти и гауссовских каналов. Иногда за определение П. с. к. принимают максимально допустимую скорость передачи информации, при к-рой еще возможно добиться заданной точности воспроизведения сообщений. В случае многокомпонентных каналов под П. с. к. понимают обычно область в многомерном пространстве (называемую областью пропускной способности канала), описывающую наборы скоростей, при к-рых возможна передача с заданной точностью воспроизведения сообщений. Простое описание области П. с. к. известно лишь для нек-рых типов многокомпонентных каналов, напр. для каналов с множественным доступом и ухудшенных широковещательных каналов. В общем случае простая характеризация области П. с. к. многокомпонентного канала неизвестна. В теории передачи информации иногда рассматривают также П. с. к. с нулевой ошибкой, определяемую как П. с. к. в случае, когда условия точности воспроизведения сообщений состоят в требовании полного совпадения передаваемого и воспроизводимого сообщений. Для дискретных каналов без памяти задача нахождения П. с. к. с нулевой ошибкой приводит к трудной и нерешенной в общем случае проблеме комбинаторики. Лит.: [1] Шеннон К., Работы по теории информации и кибернетике, пер. с англ., М., 1963, с. 243-332; [2] Колесник В. Д., Пол- ты ре в Г. Ш., Курс теории информации, М., 1982; [3] Вольфо- виц Дж., Теоремы кодирования теории информации, пер. с англ., М., 1967; [4] Галлагер Р., Теория информации и надежная связь, пер. с англ., М., 1974; [5] Фай не теин А., Основы теории информации, пер. с англ., М., 1960; [6] Фай о Р., Передача информации. Статистическая теория связи, пер. с англ., М., 1965; [7] Чисар И., Кернер Я., Теория информации. Теоремы кодирования для дискретных систем без памяти, пер. с англ., М., 1985. М. С. Пинскер, В. В. Пречов. ПРОРЕЖИВАНИЕ (decimation) - см. Децимация. ПРОСАЧИВАНИЯ ПРОЦЕСС (percolation process) - математическая модель распространения абстрактной жидкости по ребрам или по вершинам бесконечного графа G. Напр., в П. п.
по ребрам каждое ребро G независимо от остальных с вероятностью р является проводящим. Компонентой вершины U графа G называется множество всех вершин V, связанных с U проводящим путем, то есть последовательностью проводящих ребер. Существование в G бесконечной компоненты интерпретируется как наличие просачивания. Одной из задач, связанных с П. п., является нахождение такого числа p(G), называемого критической вероятностью, что при p<p(G) почти наверное в G нет бесконечной компоненты, а при p>p(G) бесконечная компонента существует с положительной вероятностью. Напр., в П. п. по ребрам квадратной решетки p(G) = 1/2. П. п. находят также применения в теории электрич. цепей. Лит.: [ 1 ] Кестен X., Теория просачивания для математиков, пер. с англ.,.М., 1986. В. Ф. Колчин. ПРОСАЧИВАНИЯ ТЕОРИЯ (percolation theory) - см. Перколяции теория. ПРОСТАЯ ГИПОТЕЗА (simple hypothesis) - см. Статистическая гипотеза, Статистических гипотез проверка. ПРОСТАЯ МЕТРИКА (simple metric) - см. Вероятностная метрика. ПРОСТАЯ ЦЕПЬ ГРАФА (ordinary path of a graph) - см. Минимальных цепей и разрезов метод. ПРОСТЕЙШИЙ ТОЧЕЧНЫЙ ПРОЦЕСС (simplest point process) - см. Пуассоновский точечный процесс. ПРОСТОЕ ОТОБРАЖЕНИЕ банахова пространст- в a (simple mapping of a Banach space) - см. Сильно измеримое отображение. ПРОСТОЙ РАЗРЕЗ ГРАФА (ordinary cut of a graph) - см. Минимальных цепей и разрезов метод. ПРОСТОЙ ТОЧЕЧНЫЙ ПРОЦЕСС (simple point pro cess) - случайный точечный процесс, у к-рого кратность любой его точки равна единице. В теории массового обслуживания простота точечного процесса, образованного моментами времен поступления требований, соответствует невозможности одновременного поступления требований группами. Пересечения уровня реализацией дифференцируемого в среднем квадратичном стационарного гауссовского процесса образуют П. т. п. Если Ф- П. т. п., имеющий локально ограниченную моментную меру, то Ф является ординарным точечным процессом. Ю. К. Беляев. ПРОСТРАНСТВЕННАЯ СТАТИСТИЧЕСКАЯ СТРУКТУРА (spatial statistical structure) - см. Статистическая структура. ПРОСТРАНСТВО МЕР (space of measures) - множество всех регулярных мер на борелевской а-алгебре нек-рого пространства, наделенное топологией слабой сходимости. Пусть (Ж, ®) - топологич. или а-топологич. пространство с классом открытых множеств ® и С{Ж) - банахово пространство всех ограниченных непрерывных на Ж функций с нормой \f\ =sup |Д*)|. Если (Ж, ®) - нормальное пространство, то сопряженное к С(#) пространство С*(Ж) есть пространство всех зарядов на алгебре множеств а(®), порожденной ®. Тем самым любой линейный функционал Ф на С(#) представим в виде ф(Л = //(*)^(*), где (х- заряд (см. [1]). Пусть на С*(#) рассматривается топология, в крой открытые окрестности любого заряда ц0 определяются наборами функций fat ...,/"„ из С(ж) и числом е>0 следующим образом: {Ц:|£. /;.ыфы-£ /;(*)Фо(*>Н}- Эта топология на С*(Ж) называется *-слабой топологией или sr-топологией (см. [2]). Каждый счетно-аддитивный заряд из С*(Ж) можно считать заданным на борелевской а-алгебре а(©), так как он единственным образом продолжается с а(©) на а(@). Множество всех неотрицательных счетно-аддитивных зарядов М с С*(ж)} снабженное топологией, индуцированной из '-слабой топологии на С*(#), называется пространством мер; полученная топология на М называется слабой топологией. Сходимость в этой топологии называется слабой сходимостью мер. Множество М в С* (Ж) не замкнуто. Это ведет к тому, что сеть мер из М может сходиться к заряду, не принадлежащему М. В случае когда (Ж, ©) - совершенно нормальное пространство, пространство мер М секвенциально замкнуто, следовательно, если последовательность мер (|in) из М слабо сходится кц, тоцеМ (см. [1]). Если (ж} ©) метризуемо, то в пространстве мер М возможно ввести метрику л(Р, Q), называемую Леей - Прохорова метрикой. Топология, порождаемая метрикой л, не всегда совпадает со слабой топологией. Если Р^М - плотное семейство мер, то на & слабая топология и топология, порожденная метрикой я, совпадают. Если Ж- полное сепарабельное мет- рич. пространство, то слабая топология и топология, порожденная метрикой к, совпадают на всем М. Лит.: [1] Александров А. Д., «Матем. сб.», 1940, т. 8, М° 2, с. 307-48; 1941, т. 9, № 3, с. 563-628; 1943, т. 13, № 2-3, с. 169-238; [2] Данфорд Н., Шварц Дж., Линейные операторы. Общая теория, пер. с англ., ч. 1, М., 1962; [3] Прохоров Ю. В., «Теория вероятн. и ее примен.», 1956, т. 1, в. 2, с. 177-238; [4] Биллинг- сли П., Сходимость вероятностных мер, пер. с англ., М., 1977; [5] Бурбаки Н., Интегрирование. Меры на локально компактных пространствах..., пер. с франц., М., 1977. Е. А. Печерский. ПРОСТРАНСТВО НЕПРЕРЫВНЫХ ФУНКЦИЙ (space of continuous functions) - множество С(Х) действительнозначных непрерывных функций на топологическом пространстве Ж; рассматриваются также П.н.ф. со значениями в нек-рых метрических пространствах. Пространство С(ж)} наделенное топологией равномерной сходимости на компактах из Ж, есть хаусдорфово локально выпуклое пространство. С(#) метризуемо, если существует возрастающая (счетная) последовательность компактов из Ж такая, что любой компакт содержится в одном из множеств этой последовательности (см. [1], [2]). Если К - компактное метрич. пространство, то С(К) - сепарабельное банахово пространство с нормой \\х\\ = = sup{\x(t)\:teK]. Сопряженное к (С(Ю, || • ||) пространство есть множество счетно-аддитивных мер на борелевской а-алгебре К (см. [3]). Компакты С(К) - множества равномерно ограниченных и равностепенно непрерывных функций. Боре- левская а-алгебра С(К) совпадает с цилиндрич. о-алгеброй (см. [4]). При К=[0, 1] П.н.ф. вкладывается в пространство функций без разрывов 2-го рода. Пространство С[0, 1] универсально в классе сепарабельных банаховых пространств, не рефлексивно, имеет базис, но не содержит безусловного базиса (см. [5]). Лит.: [\] Бурбаки Н., Общая топология, пер. с франц., М., 1975; [2] Kelley J.L., Namioka I., Linear topological spaces, N. Y.-[a. o.l, 1963; [3] Шилов Г.Е., Гуревич Б.Л., Интеграл, мера и производная, 2 изд., М., 1967; (4) Вахания Н. Н., Тарие- ладзе В. И., Чобанян С. А., Вероятностные распределения в ба наховых пространствах, М., 1985; [5] Дэй М.М., Нормированные линейные пространства, пер. с англ., М., 1961; [6] Функциональный анализ, 2 изд., М., 1972. В. В. Юринский. ПРОСТРАНСТВО РЕШЕНИЙ (decision space) - см. Статистических решений теория. ПРОСТРАНСТВО 519
ПРОСТРАНСТВО С МЕРОЙ (measure space) - упорядоченная тройка вида (X, S, ц), где X - основное базисное множество, 5 ~ нек-рое а-колыдо частей этого множества и \i - нек-рая мера, заданная на а-колыде 5. Пара (5\ \i) представляет собой определенного рода структуру на основном базисном множестве X. Пару вида (X, S) обычно называют измеримым пространством. При этом часто требуют, чтобы объединение всех элементов а-кольца S совпадало с множеством X. Пусть (X, S, \i) и (X', 5', ц') - два пространства с мерами \i и цг соответственно. Морфизмом (гомоморфизмом) пространства (X, St \i) в пространство (X', 5", и/) называется отображение /":Х->ХГ, обладающее следующими свойствами: 1) YeS'=>f~](Y)*S для любого У; 2) Уб5"^ц(Г1(У)) = цЧЮдля любого Y. Если отображение f\X-*X' обладает лишь свойством 1), то оно называется измеримым отображением измеримого пространства (X, 5) в измеримое пространство (X', 5'). Если гомоморфизм f пространства (X, 5, \i) в пространство (X', 5', цг) дополнительно удовлетворяет соотношению YeS'<*f~\Y)eS для любого У, то он называется сильным гомоморфизмом пространства (X, S, \i) в пространство (Xr, S\ \i'). В этом случае говорят также, что мера ц' служит образом меры \1 при отображении f. Два пространства с мерами (X, S, \i) и (X', S', и/) называются изоморфными, если существует хотя бы один биективный сильный гомоморфизм f:X-*X'. Такой сильный гомоморфизм и называется изоморфизмом пространства (X, 5, \i) на пространство (X', 5", \i'). Пусть теперь G - нек-рая группа преобразований основного базисного множества X. Говорят, что а-колыю S является инвариантным относительно группы G(G-hh- вариантным а-кольцом), если из соотношений У eS и geG вытекает соотношение g(Y)eS. Далее, говорят, что мера \i, заданная на G-инвариантном а-кольце 5, является G-квазиинвариантной, если, каково бы ни было множество Y е S и каково бы ни было преобразование geG, соотношение \i( У) = 0 эквивалентно соотношению \i(g( У)) = 0. Говорят, что мера ц, заданная на G-инвариантном а-колыде S, является G-и нвариантной, если для всякого множества У е S и для всякого преобразования g e G выполняется равенство \i(g( У)) = ц( У). Упорядоченная четверка вида (X, G, St \i) называется пространством с квазиинвариантной мерой (соответственно с инвариантной мерой), если мера ц квазиинвариантна (соответственно инвариантна) относительно группы преобразований G. В обоих случаях тройка (G, S, \i) представляет собой определенного рода структуру на основном базисном множестве X. В том случае, когда группа G тривиальна (сводится к одному единичному элементу), пространство (X, G, S, \i) можно отождествить с пространством (X, 5\ \i). В теории вероятностей типичными примерами пространств с мерами служат различные вероятностные пространства, то есть такие пространства (X, S, ц), для к-рых S является а-алгеброй и ц(Х) = 1. В этих случаях говорят, что X есть пространство элементарных событий, S есть булева а-алгебра событий, а \1 есть вероятностная мера (или просто вероятность) на а-алгебре событий 5. 520 ПРОСТРАНСТВО Лит.: [1] Халмош П., Теория меры, пер. с англ., М, 1953; [2] Прохоров Ю. В., Розанов Ю. А., Теория вероятностей. Основные понятия. Предельные теоремы. Случайные процессы, 3 изд., М., 1987; [3] Гихман И. И., Скороход А. В., Введение в теорию случайных процессов, 2 изд., М., 1977. А. Б. Харазишвми. ПРОСТРАНСТВО С о-ТОПОЛОГИЕЙ (space with a-topology) ~ см. ^-Топологическое пространство. ПРОСТРАНСТВО СОСТОЯНИЙ случайного процесса (state space of a random process) - см. Фазовое пространство. ПРОСТРАНСТВО СОСТОЯНИЙ цепи Маркова (state space of a Markov chain) - см. Потенциала теория для цепей Маркова. ПРОСТРАНСТВО ФУНКЦИЙ без разрывов 2-го рода (space of right-continuous functions with left limits/space of CADLAG functions) - класс функций на отрезке [я, b] со значениями в нек-ром метрическом пространстве, у к-рых в каждой точке [а, Ь) есть предел справа, а в точках (а, Ь\ - предел слева. Обычно предполагается, что значения функций из П. ф. без разрывов 2-го рода во внутренних точках совпадают с одним из односторонних пределов. При естественных ограничениях П. ф. без разрывов 2-го рода принадлежат выборочные функции марковских процессов. Многие важные предельные теоремы для случайных процессов являются утверждениями о слабой сходимости вероятностных мер в П. ф. без разрывов 2-го рода. Часто удобно сужать определение П.ф. без разрывов 2-го рода: ниже D - D[0, 1 ] - множество всех непрерывных справа на [0, 1) и имеющих предел слева в точках (0, 1] действительных функций с областью определения [0, 1]. Пространство D есть банахово пространство с нормой 1Ы1 =sup{|*(0| :te[0, 1)}, подпространством к-рого является пространство непрерывных функций С[0, 1]. В предельных теоремах D обычно наделяется Скорохода топологией (см. [1], [2]), порожденной метрикой d(x, y) = mf{\\xoX-y\\ + ||A,-i|| :ХеА), где xo\(t)=x(X(t)), i(t) = t, А- множество всех непрерывных возрастающих функций, отображающих [0, 1] на себя. Метрич. пространство (D, d) сепарабельно, но не полно. Доказана возможность задания на D метрики, порождающей топологию Скорохода и превращающей D в полное метрич. пространство, и дано явное описание такой метрики (см. [3], [4]). Пространство D - полное сепарабельное метрич. пространство с метрикой d0(x, #) = inf{e>0: найдется Хе А такое, что ||JtroX. — ^/1| ^е, sup {\\n((X(t)-X(s))/(t-s))\ :t*s}\ ^e}. Характеризация компактных подмножеств D получена в [3]. Множество Л <= D имеет компактное замыкание в топологии Скорохода тогда и только тогда, когда норма \\х\\ ограничена на Л, и равномерно по х е А стремятся к нулю при 8 --> О величины wx[0, 8), wx[\ -8, 1), и£(6), где wx(T) = sup{\x(s)-x(t)\:s, teT), o/4S) = sup{min{|*(0-^j)!, \x{t2)-x{i)\}\ t^t<t2> t2-ti<b, tu t, t2e[0, 1]}. Часто рассматривается также равномерная топология в D, порожденная нормой || • ||. Эта топология сильнее топологии Скорохода. В подпространстве С[0, 1] (пространстве непрерывных функций) равномерная топология и топология Скорохода индуцируют одну и ту же топологию. Банахово пространство (D, ||||) несепарабельно. Содержательные предельные теоремы о распределениях в нем можно получить, рассматри-
вая меры, определенные на а-алгебре J8, содержащей все шары (ока беднее борелевской), и понимая слабую сходимость как сходимость интегралов от ограниченных непрерывных .^-измеримых функций (см. [5]), можно выделять так наз. сепарабельные меры (см. [б]). См. также С-сходимостъ случайных процессов. Нек-рые топологии в П. ф. без разрывов 2-го рода со значениями в метрич. пространстве, более слабые, чем топология Скорохода, описаны в [2] (см. также [7]). Лит.: [1] Скороход А. В., «Докл. АН СССР», 1955, т. 104, в. 3, с. 364-67; 12] его же, «Теория вероятн. и ее примен.», 1956, т. 1, в. 3, с. 289-319; [3] Колмогоров А. Н., там же, 1956, т. 1, в. 2, с. 239-47 (в кн.: Теория вероятностей и математическая статистика, М., 1986, с. 384-93); [4] Прохоров Ю. В., там же, 1956, т. 1, в. 2, с. 177-238; [5] Dudley R.M.,«IH.J. Math.», 1966, v. 10, № l, p. 109-26; [6] Биллингсли П., Сходимость вероятностных мер, мер. с англ., М., 1977; [7] Боровков А. А., «Успехи матем. наук», 1972, т. 27, в. 1, с. 3-41; [8] Гихман И. И., Скороход А. В., Введение в теорию случайных процессов, 2 изд., М., 1977. В. В. Юринский. ПРОСТРАНСТВО ЭЛЕМЕНТАРНЫХ СОБЫТИЙ (space of elementary events) - см. Вероятностное пространство. S-ПРОСТРАНСТВО (S-space) - см. Банахово пространство со свойством Сазонова. О-ПРОСТРАНСТВО (a-space) - см. а-Топо.югическое пространство. ПРОТЕКАНИЯ ТЕОРИЯ (percolation theory) - см. Перко- ляции теория. ПРОТИВОПОЛОЖНОЕ СОБЫТИЕ (negation/complement of an event) - см. Дополнительное событие. ПРОТОМИНИМАЛЬНАЯ МЕТРИКА (protominimal met ric) - сложная вероятностная метрика в пространстве совместных распределений пар случайных величин, для к-рой минимальная метрика совпадает с заданной простой метрикой. Существуют простые метрики (напр., абсолютная величина разности между медианами), для к-рых множество сложных П. м. пусто. Примеры: П. м. для равномерной метрики р является метрика ц<Х, 7) = sup [Р{Х<*^ Y} + ?{Y <х^Х}]. Для Ле ей - Прохорова метрики л протоминимальной является Ки Фан метрика. А. М. Зубков. ПРОФИЛАКТИКА (preventive) - комплекс восстановительных технических мероприятий, реализуемых в процессе эксплуатации технической системы и направленных на предупреждение отказов и повышение эффективности ее функционирования. В надежности математической теории разрабатываются модели П. (или модели технич. обслуживания), в к-рых основной является проблема определения оптимальной периодичности проведения плановых предупредительных П., обеспечивающих экстремальное значение показателя качества (эффективности) функционирования технич. системы. В моделях математич. задача формулируется как задача дискретного управления случайным процессом, описывающим эволюцию системы во времени, а П. (и другие виды восстановительных работ) есть целенаправленное внешнее воздействие, то есть управление. Различают управление с полной информацией, если полностью известны характеристики безотказности элементов системы, и управление по неполной информации, если такая информация отсутствует (напр., известны лишь моменты распределений). Во втором случае решаются минимаксные задачи, решение к-рых позволяет определить гарантированный уровень эффективности (в теории игр - игра с природой). Разрабатываются модели П. с ошибками наблюдения состояний управляемого процесса, что соответствует ошибкам диагностики состояний технич. системы. Лит.: [1] Вопросы математической теории надежности, М., 1983; [2] Надежность и эффективность в технике, т. 2. Математические методы в теории надежности и эффективности, М., 1987; [3] Бар зилов и ч Е. Ю., Каштанов В. А., Организация обслуживания при ограниченной информации о надежности системы, М., 1975. В. А. Каштанов. ПРОФИЛЬТРОВАННЫЙ ПУАССОНОВСКИЙ ПРОЦЕСС (filtered Poisson process) - см. Импульсный пуассонов- ский процесс. ПРОХОРОВА КРИТЕРИЙ (Prokhorov criterion) - критерий относительной компактности, теорема Прохорова (в узкой топологии) семейства Радона мер, задаваемых на вполне регулярном топологическом пространстве. Этот результат имеет многочисленные применения в теории вероятностей и теории случайных процессов. Пусть X - произвольное вполне регулярное топологич. пространство, СЬ(Х) - множество всевозможных действительных ограниченных непрерывных функций, определенных на X, а МЬ(Х) - множество всевозможных действительных знакопеременных мер Радона, задаваемых на X и имеющих конечную полную вариацию. Стандартная билинейная форма <£ \l)^jf(x)d\l(x),feCb(X),\ieMb(X), устанавливает двойственность между векторными пространствами СЬ(Х) и МЬ(Х). Слабая топология в пространстве М6(Х), ассоциированная с указанной двойственностью, называется топологией узкой сходимости(или узкой топологией) в М6(Х). Символом МЬ(Х) обозначается замкнутый выпуклый конус положительных мер из МЬ(Х). Пусть Я - нек-рое подмножество в МЬ(Х). Говорят, что Я удовлетворяет условию Прохорова, если выполняются следующие два соотношения: а) sup |u|(X)< +oo; б) каково бы ни было число е>0, найдется компакт К£^ X такой, что для любой меры jietf имеет место неравенство \\i\(X\Kt)<e. П. к. представляет собой конъюнкцию следующих трех утверждений: 1) если X - вполне регулярное топологич. пространство, а Н - подмножество в М6(Х), удовлетворяющее условию Прохорова, то Н относительно компактно в узкой топологии; 2) если X - локально компактное топологич. пространство, а И - относительно компактное (в узкой топологии) подмножество из М6+(Х), то Н удовлетворяет условию Прохорова; 3) если X - полное сепарабельное метрич. пространство, а Н - относительно компактное (в узкой топологии) подмножество из М6+(Х), то Н удовлетворяет условию Прохорова. См. также Сходимость распределений. Лит.: [1] Прохоров Ю. В., «Теория вероятн. и ее примен.», 1956, т. 1, в. 2, с. 177-238; [2] Бурбаки Н., Интегрирование. Меры на локально компактных пространствах..., пер. с франц., М., 1977. А. Б. Харазишвили. ПРОХОРОВА МЕТРИКА (Prokhorov metric) - см. Леей - Прохорова метрика. ПРОХОРОВА ТЕОРЕМА для случайных процессов (Prokhorov theorem for stochastic processes) - критерий Прохорова слабой относительной компактности семейства вероятностных мер для распределений, порожденных случайными процессами. Необходимые и достаточные условия сходимости распределений в пространстве непрерывных функций С[0, 1] и пространстве функций без разрывов 2-го рода D[0, 1] получены в [1], для процессов без разрывов 2-го рода со значениями в метрич. пространстве - в [2]. См. также Предельные теоремы для случайных процессов, Прохорова критерий. ПРОХОРОВА 521
Лит.: [1] Прохоров Ю. В., «Теория вероятн. и ее иримен.», 1956, т. 1, в. 2, с. 177-237; [2] Скороход А. В., там же, 1956, т. 1, в. 3, с. 289-319; [3] Гихман И. И., Скороход А. В., Введение в теорию случайных процессов, 2 изд., М., 1977; [4] Биллингс- ли П., Сходимость вероятностных мер, пер. с англ., М., 1977. В. В. Юринский. ПРОХОРОВА УСЛОВИЕ (Prokhorov condition) - см. Прохорова критерий. Проективные системы мер. ПРОЦЕНТИЛЬ (percentil) - см. Перцентилъ. у-ПРОЦЕНТНАЯ НАРАБОТКА (gamma-percentile operating time to failure) - см. Надежности системы показатели. ПРОЦЕСС СЛУЧАЙНЫЙ (random/stochastik process) - см. Случайный процесс. {Е, /?)-ПРОЦЕСС (Е, Л-process) - то же, что Гальтона - Ватсона процесс; см. также Ветвящийся процесс. (G, /|)-ПРОЦЕСС (G, Л-process) - то же, что Беллмана - Харриса процесс; см. также Ветвящийся процесс. (Gf Ли)-ПРОЦЕСС (G, AM-process) - то же, что ветвящийся процесс с зависимостью от возраста. /г-ПРОЦЕСС (Л-process) - см. Мартина граница марковского процесса. (М^, /?)-ПРОЦЕСС (Мх, Л-process) - то же, что ветвящийся прогресс с непрерывным временем. ПРЯМОЕ УРАВНЕНИЕ КОЛМОГОРОВА (forward Ко) mogorov's equation), уравнение Фоккера - Планка- см. Диффузионный процесс, Колмогорова уравнения, Стохастическая дифференциальная геометрия. ПРЯМОУГОЛЬНОЕ РАСПРЕДЕЛЕНИЕ (rectangular distribution) - см. Равномерное распределение. ПСЕВДОИНТЕГРАЛ (pseudo-integral) - отображение /, к-рое каждой обладающей компактным носителем непрерывной неотрицательной функции и на локально компактном отделимом (по Хаусдорфу) сепарабельном пространстве Т сопоставляет содержащий нуль компакт J (и) евклидова пространства II?" так, что выполнены условия: 1) для произвольного р^О имеет место равенство Лри)-рЛи); 2) для любых и и v компакты J(u), Ли + v), J(u)@J(v), J(u)®J(v), J(u + v) возрастают по включению (здесь © означает векторное сложение подмножеств В?я, черта - выпуклое замыкание в IRn). В теории вероятностей П. (точнее, его естественное продолжение на так наз. псевдоинтегрируемые функции) применяется для построения случайных множеств и вычисления их ма- тематич. ожиданий: если 1/(0 - неотрицательный случайный процесс на Г с математич. ожиданием u(t), то при определенных условиях регулярности математическое ожидание случайного множества J(U) равно Ли). Лит.: [1] Матерон Ж., Случайные множества и интегральная геометрия, пер. с англ., М., 1978. В. И. Полищук. ПСЕВДОМОМЕНТ (pseudomoment) - числовая характеристика распределения, использование к-рой аналогично использованию момента. П., в отличие от момента, определяется на множестве пар распределений (Рх, Ру) случайных величин X и Y. Ниже приводятся наиболее распространенные П., используемые в теории вероятностей (случай действительных случайных величин). 1. Натуральные нсевдомоменты: qk(X, Y)=jxkd(Fx-FY)(x), А = 0, 1, ..., где Fx - функция распределения случайной величины X. Для характеристич. функций fx, fY случайных величин X, Y в 522 ПРОХОРОВА случае существования qn как интеграла Лебега - Стилтьеса имеет место разложение fx(t) - fY{t) = 2^0 ®£ q„(X, Y) + о(С), t -> 0. 2. Абсолютные псевдомоменты: vr(X, Y)=j\x\r\d(Fx-Fy)\,r>0. 3. Разностные псевдомоменты: xr(X, Y) = rj |Ar|^1|FxG0-FyG0|rf*, r>0. Перечисленные П. связаны неравенствами k*kx*, A = 0, 1, ...;xr^vr, r>0. Кроме того, отношения v^/v^ и [xr+y(r + s)]/[xr/r] в случае их существования можно рассматривать как абсолютные моменты порядка s нек-рого распределения вероятностей. Функционалы | qk |, vr и хг являются вероятностными метриками. Примеры применения П. см. в ст. Берри - Эссеена теорема. Понятие П. переносится на случай конечномерных и бесконечномерных пространств. Лит.: [1] Золотарев В. М., «Теория вероятн. и ее примен.», 1978, т. 23. в. 2, с. 284-94. В. М. Золотарев. ПСЕВДОСЛУЧАЙНОЕ ЧИСЛО (pseudo-random number) - см. Случайные и псевдослучайные числа. ПУАНКАРЕ ТЕОРЕМА о возвращении (Poincare recurrence theorem): для любого эндоморфизма Т пространства с конечной мерой (£2, d, Р) для почти каждой (по мере Р) точки со произвольного множества Ле^ положительной меры найдется такое п, что Тп(йе А; число таких п бесконечно. П. т. о возвращении имеет приложения в теории вероятностей и качественной теории дифференциальных уравнений. Лит.: [1] Poincare H., «Acta math.», 1890, t. 13, p. 1-270; [2) Корнфельд И. П., Синай Я. Г., Фомин СВ., Эргодиче- ская теория, М., 1980. Е. Н. Динабург. ПУАССОНА РАСПРЕДЕЛЕНИЕ (Poisson distribution) - дискретное распределение вероятностей случайной величины X, принимающей целые неотрицательные значения k = О, 1, 2, ... с вероятностями (см. рис.) р„-Р[Х = к}~е*£, где \>0. Производящая и характеристич. функции П. р. соответственно равны р(г) =.- в*('-1> и f(t) = ехр (Ш1 -О). || и ■ .П 0 12 3 4 5 6 7 1 1 1- «и ill, 1. J In.. 2) 0 t 2 3 4 5 6 7 8 9 10 И 12 Распределение Пуассона при: 1) А. = 0,8 и А, = 1,6 и 2) А. = 3 и А.= 6.
Математич. ожидание, дисперсия и все семиинварианты более высокого ранга равны X. Функция П. р. в точках fe = 0, 1, ... выражается формулой где Sk+^(X) - значение в точке X функции гамма-распределения с параметром k + t [или формулой F(k) = 1 -Я2й+2(2^), где Я2й+2(^) - значение в точке 2Х функции хи-квадрат распределения с2Н2 степенями свободы], откуда, в частности, следует соотношение P{X = k} = Sk(X) -Sk+i(X). Сумма независимых случайных величин Xiy ..., Хп, имеющих П. р. с параметрами ХА,...,Хп, подчиняется П. р. с параметром *., + ... + *.„. Обратно, если сумма Х{ + Х2 двух независимых случайных величин Х1 и Х2 имеет П. р., то каждая случайная величина Х\ и Х2 подчинена П. р. Имеются общие необходимые и достаточные условия сходимости распределений сумм независимых случайных величин к П. р. При X—>«> случайная величина (X - Х)/^1Х имеет в пределе стандартное нормальное распределение. П. р. было впервые получено С. Пуассоном [1] при выводе приближенной формулы для биномиального распределения в условиях, когда п (число испытаний) велико, ар (вероятность успеха) мало (теорема Пуассона). П. р. с хорошим приближением описывает многие физич. явления (см. [2]). П. р. является предельным для многих дискретных распределений таких, как, напр., гипергеометрическое распределение, отрицательное биномиальное распределение, Пойа распределение, для распределений, возникающих в задачах о размещении частиц по ячейкам при определенном изменении их параметров. В вероятностных моделях П. р. играет большую роль как точное распределение вероятностей. Природа П. р. как точного распределения вероятностей наиболее полно раскрывается в теории случайных процессов (см. Пуассонов- ский процесс), где П. р. появляется как распределение числа X(t) нек-рых случайных событий, происходящих в течение фиксированного интервала времени t: P{X(t) = k} = e-Xt(^~t А = 0, 1, 2, ... ft! (параметр X - среднее число событий в единицу времени), или, более общо, как распределение случайного числа точек в нек-рой фиксированной области пространства (параметр распределения пропорционален объему области). Наряду с П. р., как оно определено выше, рассматривают и так наз. обобщенное, или сложное, П. р. Так называют распределение вероятностей суммы Х{ + ...+ Xv случайного числа v одинаково распределенных случайных величин Xt, Х2, ... (при этом v, Xj, X2... считают взаимно независимыми и v - распределенным по П. р. с параметром X). Характери- стич. функция обобщенного П. р. f(t) = exp{X(g(t)-\)}, где g(t) - характеристич. функция Xv. Напр., отрицательное биномиальное распределение с параметрами пир является обобщенным П. р., так как для него можно положить ,,(»= <1п * , x-lnJL. Яш\-р. A. \-qen P Обобщенные П. р. безгранично делимы и каждое безгранично делимое распределение является пределом обобщенных П. р. (может быть «сдвинутых», то есть с характеристич. функциями вида exp {Xn(gn(t) - 1 -itan)}. Вместе с тем все безгранично делимые распределения (и только они) могут быть получены как пределы сумм распределений вида hn\Xn\ + ~' + bnknXnkH-An. гле Xnv •••■ xnkn образуют схему серий независимых случайных величин с П. p., hnk > 0 и Ап - действительные числа. Лит.: [1] Poisson S., Recherches sur la probabilite des jugements en matiere criminelle et en matiere civile, precedees des regies generates du calcul des probabilites, P., 1837; [2] Феллер В., Введение в теорию вероятностей и ее приложения, пер. с англ., т. 1-2, М., 1984; [31 Большее Л. Н., См и рн о в Н. В., Таблицы математической статистики, 3 изд., М., 1983; [4] Л инник Ю. В., Островски й И. В., Разложение случайных величин и векторов, М., 1972. А. В. Прохоров. ПУАССОНА РАСПРЕДЕЛЕНИЕ на локально ком пактной абелевой группе (Poisson distribution on a locally compact Abelian group) - сдвиг на группе G распределения n вида к = ехр{-ех}(Е0 +a£g +^E2g+... + ^Eng+..^, где а^О, a Eg— вырожденное распределение, сосредоточенное в точке g e G. Характеристич. функция распределения п имеет вид ft(O = exp{a[<0, 0-1]}. ГМг фельдман. ПУАССОНА РАСПРЕДЕЛЕНИЕ обобщенное (Poisson compound distribution) на локально компактной абелевой группе, ассоциированное с конечной мерой F,~ сдвиг на группе X распределения e(F) вида e(F) = exp{-F(X)}(EQ+F + ^+... + ^+.A где EQ - вырожденное распределение, сосредоточенное в нуле группы X. Характеристич. функция распределения e(F) имеет вид е1})(у) = ехр{\х[(х, y)-\]dF(x)}. Г. М. Фельдман. ПУАССОНА ТЕОРЕМА (Poisson theorem) - утверждение о сходимости распределений сумм независимых случайных величин в схеме Бернулли к Пуассона распределению. Укажем формулировку П. т. для схемы серий. Пусть {X }"=1, п - 1, 2, ...,- последовательность серий независимых в каждой серии случайных величин таких, что pn;SP{Xn;=l}=l-P{Xn; = 0}. Если Sn~Xn\ + ■'■+Хпп> lim max p =0, 0<^=lim У" pnj<°°, ТО 4 lim P{Sn = k} = e-^ для каждого k = 0, 1, 2, ... В частности, если рпХ - ... -рпп-рп, то П. т. устанавливает, что биномиальные распределения с параметрами п и рп сближаются с пуассоновским распределением с параметром X, если прп-*Х>0 при я-*«>. Первое утверждение такого типа сформулировал С. Пуассон [1]. Если случайные величины Хп]- интерпретируются как индикаторы событий Ап}- в схеме серий испытаний Пуассона, то, согласно П. т., число осуществившихся событий при большом числе испытаний и малой вероятности каждого из событий распределено приближенно по закону Пуассона. Этим объясняется, что П. т. иногда называют законом малых чисел или теоремой о редких событиях. ПУАССОНА 523
Имеет место оценка скорости сходимости в П. т.: где Хп = \._.РПу В частности, если рп] = ...=рпп = Х/п, то Хп = Хи правая часть (*) равна 2Х /п. П. т. положила начало изучению сходимости к распределению Пуассона в рамках задачи об описании безгранично делимых законов и отыскании условий сходимости к ним распределений Fn сумм независимых равномерно бесконечно малых случайных величин, центрированных нек-рыми постоянными Ап: S„ = Xni + ... + Xm-An, «=1,2, ... Соответствующий критерий слабой сходимости нетрудно извлечь из общего критерия (см. Предельные теоремы). Еще более общий критерий сходимости распределений Fn к закону Пуассона из теории предельных теорем в неклассич. постановке см. в [4]. Лит.: [1] Poisson S.-D., Recherches sur la probabilite des juge- ments en matiere crimineile et en matiere civile, precedees des regies generates du calcul des probabilites, P., 1837; [2] ГнеденкоБ.В,, Колмогоров A. H., Предельные распределения для сумм независимых случайных величин, М. - Л., 1949; [3] Л оэв М., Теория вероятностей, пер. с англ., М., 1962; [4] Золотарев В. М., Современная теория суммирования независимых случайных величин, М., 1986. В. Ю. Королев. ПУАССОНА ФОРМУЛА СУММИРОВАНИЯ (Poisson summation formula) - формула ^ZI=_„ Кап) = ^1Г=-~ ^ibn)> (1) где a > 0, b > 0, ab - 2л и функции f и g связаны преобразованием Фурье Формула приведена в 1827 в работе С. Пуассона [1]. П. ф. с. имеет многочисленные применения в теории вероятностей, позволяя оценить степень близости многих распределений вероятностей к равномерному распределению (см. [2], гл. XIX и [4]). Полагая в формуле (1) а-\7 Ь = 2к и заменяя функцию f(y) на f(x + y), где х - фиксированное действительное число, получим ХГ— А* + ") = IT— е2'"Х (Л my^dy. (2) Эта форма П. ф. с. наиболее употребительна в теории вероятностей. Следует заметить, что в (2) слева стоит периодическая по х функция с периодом 1, а справа - ее формальный ряд Фурье. Сходный вид имеют многомерные аналоги П.ф. с. (см. [5]и[6]);в этих же работах, а также в [3] даны условия, при к-рых верна формула (2). Если X - случайная величина, имеющая плотность распределения вероятностей f(x), то левая часть (2) представляет собой плотность распределения вероятностей дробной части У={Х}, 0^ У <1, случайной величины X. Тогда (2) задается в виде ру(х) = 1 + У°° е2пЫхЕе~2ппХ, 0^х<\. (3) Напр., если X имеет нормальное распределение с матема- тич. ожиданием т и дисперсией <г, то <х> -7 2 2 2 ру{х) = 1 + 2V~e n cos2nn(x- m), 0^x< 1. Отсюда, напр., при а>\ получаем \Ру(х) - 11 ^ 2^=1 е-2"'* <5,36Ю"9. 524 ПУАССОНА При меньших значениях а следует для достижения приемлемой точности брать несколько членов ряда (3). Так, при а^О сумма шести начальных членов ряда в правой части (3) аппроксимирует pY(x) с точностью до 10" . Возможности дальнейших широких обобщений П. ф. с. указаны в [7]. П. ф. с. позволяет в ряде случаев обосновать закон Бенфор- да (см. Первой значащей цифры закон). Лит.: [1J Poisson S.-D., «Mem. Acad. sci. Inst. France*, 1827, t. 6, p. 571-602; [2J Феллер В., Введение в теорию вероятностей и ее приложения, пер. с англ., т. 2, М., 1984; [3] Зигмунд А., Тригонометрические ряды, пер. с англ., т. 1, М., 1965; [4J Good I.J., «Statist. Sci.», 1986, v. 1, № 2, p. 157-70; [5] Стейн И., Вейс Г., Введение в гармонический анализ на евклидовых пространствах, пер. с англ., М., 1974; [6] Bochner S., Harmonic analysis and the theory of probability, Berk.-Los Angeles, 1955; [71 DiaconisP., Engel E., «Statist. Sci>, 1986, v. 1, № 2, p. 171-74. А. А. Перегудова, Ю. В. Прохоров. ПУАССОНОВСКАЯ БУЛЕВА МОДЕЛЬ (Poisson Boolean model) - см. Булева модель. ПУАССОНОВСКАЯ МЕРА (Poisson measure) - целочисленная случайная мера ц(со, А) на пространстве (IR+хЯ, .#(IR+)®#), где (Я, 8) - польское пространство, удовлетворяющая следующим свойствам относительно стохастического базиса (ft, .</, C*4)t^0» ^' 1) мера т(Л) = Ер(со, А) является а-конечной на (П?+х£, ЖИ?+)<ЗЮ; 2) m{{t) х Е) = 0 для любого t ^ 0; 3) для любого ^0 и для любого такого ЛеЖ^+)®8, что Л с (t, оо) х£, т(А) <оо, случайная величина р(«, А) не зависит от а-алгебры dt. Мера т называется мерой интенсивности П.м. р. Если т представляется в виде m{dt, dx) = dtxF(dx), где F - а-конечная мера на (Я, 8), то П.м. ц называется однородной. Если \i - П. м., Aj, ..., Ап - попарно непересекающиеся множества из ЖГС+)®&, т(А{)<оо, \^i^n, то случайные величины ц(-, А\)} ..., р(«, Ап) независимы в совокупности и имеют распределение Пуассона со средними тОЦ), ..., т(Ап). В частности, если для Ве& т([0, t]*B)<<*> для всех t>0, случайный процесс rct = p(u), [0, t]xB) является пуассонов- ским процессом (однородным пуассоновским процессом, если р - однородная П. м.): R{TCtf ^^ =ife> = t"«^^lx-P>l* g—К<Д,еД>с1»> 0^s<t, * = 0, 1, 2, ... Пусть (Х(О), t>0,- сепарабельный стохастически непрерывный процесс с независимыми приращениями со значениями в Вт. Тогда мера скачков процессов X(t), определяемая равенством р(со, dt, dx)^>QI(AX(s, a)#0)e(4AtfSie))(rftf dx), где &X(s, u)) = X(s +0, co)-X(s-0, со), e(5fl)(eft, dx) - мера Дирака, является П. м. (здесь Я = И^\{0}). Целочисленная случайная мера р является П. м. тогда и только тогда, когда ее компенсатор р/Чсо, •) почти наверное совпадает с а-конечной мерой т() на (IP+хЯ, #K[R+)®#), удовлетворяющей свойству 2); в этом случае т - мера интенсивности. Лит.;[1] ЖакодЖ., Ширяев А. Н., Предельные теоремы для случайных процессов, пер. с англ., М., 1997; [2] ГихманИ.И., Скороход А. В., Стохастические дифференциальные уравнения и их приложения, К., 1982; [3] Справочник по теории вероятностей и математической статистике, 2 изд., М., 1985. А. А. Гущин. ПУАССОНОВСКАЯ СЕТЬ (Poisson net) - замкнутое случайное множество, определяемое следующим образом. Пусть
S - единичная сфера в евклидовом пространстве IR", X - положительная мера на 5, mes - мера Лебега на неотрицательной полуоси, П - пуассоновский точечный случайный процесс, соответствующий мере A,®mes, и #(ы, г) = {х:(и, х) = г) - гиперплоскость в И?" (здесь ® - знак произведения мер), (и, х) - скалярное произведение и и х. Пуассоновской сетью называется случайное множество л =Ци,)6п "<«■'>• Если if- множество замкнутых подмножеств IR", К - компакт в ПЛ fK={F:F*if} Ff)K*0}} \y(K) = (X®mes)(H~4&K))} то сопровождающий функционал ТА П. с. Л может быть записан в виде ТА-\- ехр(-у). Литп.:\\\ Матерон Ж., Случайные множества и интегральная геометрия, пер. с англ., М., 1978; [2] Сантало Л., Интегральная геометрия и геометрические вероятности, пер. с англ., М., 1983. Н. И. Ляшенко. ПУАССОНОВСКИЙ ГЕОМЕТРИЧЕСКИЙ ПРОЦЕСС (Poisson geometric process) - см. Геометрический процесс. ПУАССОНОВСКИЙ ПОТОК (Poisson stream/flow/input) - то же, что пуассоновский процесс. Этот термин используют, как правило, в теории систем обслуживания. И. Н. Коваленко. ПУАССОНОВСКИЙ ПОТОК; ведущая функция (leading function of a Poisson process) - функция Л(0, задающая математическое ожидание числа событий потока на отрезке [0, t). Число событий в полуинтервале [а, Ь) есть пуассо- новская случайная величина с параметром А(Ь)-А(а). Согласно теореме Хинчина, вероятностная структура П. п. полностью определяется его ведущей функцией. В частности, для ординарности П. п. необходима и достаточна непрерывность ведущей функции. Для простейшего потока, и только для него, A(t)=Xt, где Х- параметр потока. Обобщение понятия ведущей функции на П. п. в измеримом (напр., многомерном евклидовом) пространстве есть пуассоновская мера А(А) - математич. ожидание числа событий потока в измеримом множестве А. И.Н. Коваленко. ПУАССОНОВСКИЙ ПРОЦЕСС (Poisson process) ~ случайный процесс Xt, t^O, с независимыми приращениями, к-рые имеют распределение Пуассона, то есть для всех 0^s^£, fe = 0, 1, ..., где Л(0, £^0,- произвольная неубывающая функция (так наз. ведущая функция П. п.). Если П. п. Xt, t>0, однороден, то необходимо Л(0 - Л(0) = Xt с нек-рой постоянной X > 0. Лит.: [1] ГихманИ.И., С коро ход А. В., Теория случайных процессов, т. 2, М., 1973. В. М. Шуренков. ПУАССОНОВСКИЙ ПРОЦЕСС импульсный (impulse Poisson process) - см. Импульсный пуассоновский процесс. ПУАССОНОВСКИЙ ПРОЦЕСС обобщенный (compound Poisson process) - см. Обобщенный пуассоновский процесс. ПУАССОНОВСКИЙ ТОЧЕЧНЫЙ ПРОЦЕСС (Poisson point process) - случайный точечный процесс, у к-рого числа точек (с учетом их кратностей) в любом наборе непересекающихся измеримых множеств фазового пространства являются взаимно независимыми случайными величинами, имеющими распределение Пуассона. Если N(t) - считающий процесс (см. Точечный процесс), соответствующий П. т. п. на прямой В?1, то N(t) является процессом с независимыми приращениями, имеющими распределение Пуассона (см. Пуассоновский процесс). В теории массового обслуживания часто предполагают, что входящий поток требований является П. т. п. Простейшим точечным процессом называется П. т. п. на прямой, у к-рого моментная мера Л пропорциональна мере Лебега; коэффициент пропорциональности X называется п а - раметром простейшего точечного процесса. Простейший точечный процесс характеризуется тремя свойствами: 1) стационарностью, 2) отсутствием последействия (взаимной независимости чисел точек, попавших в непересекающиеся интервалы), 3) ординарностью (см. Ординарный точечный процесс). Распределение вероятностей П. т. п. Ф, заданного на фазовом пространстве (Л, SC), полностью определяется его момент- ной мерой А(В) = ЕФ(В), Ве%. Если мера Л на SC рассеянная, то есть Л({я}) = 0 для любой точки а е А и для любого В е SC0» Р{Ф(Я) = *} = (Л(Я)*/*Оехр{-Л(Я)}, (*) то Ф является П. т. п. Реализацию П. т. п. на множестве В е%0 можно получить в два этапа. Сначала надо смоделировать значение случайной величины V, имеющей распределение Пуассона (*) со средним А(В). Если v = fe, то точки aiy i=\, ..., k, П. т. п., в к-рых Ф({д,}) >0, получаются в результате fe-кратного независимого «бросания» точек на Б с вероятностью попадания в любое СеЯ, Се*0, равной £>(С)=Л(С)/Л(Я), С^В\ Ф({д}) = ^, если результатом бгюсания ka раз являлась точка а. П. т. п. с рассеянной моментной мерой можно характеризовать вероятностями отсутствия точек на достаточно богатом классе подмножеств, порождающем %. Напр., если Л = 1Р и для любого набора непересекающихся интервалов {/t, ..., Im}> w-1, 2, ..., р{ф(щ1^)=о}=ехР{-л(и:=1/й)}, где Л - рассеянная мера, то Ф является П. т. п. на IR с моментной мерой Л. Свойство принадлежности классу П. т. п. сохраняется при нек-рых операциях над случайными точечными процессами (при суперпозиции независимых процессов, при независимом прореживании, при независимых сдвигах). Пусть Фх, Ф2 - взаимно независимые П. т. п. на (A, SC) с моментными мерами At и Л2. Тогда суперпозиция Ф = Ф! +Ф2 является П. т. п. с моментной мерой Л-Л| +Л2. Если Ф - П. т. п. с моментной мерой Л, а Фс - случайный точечный процесс, полученный независимыми сдвигами точек Ф с распределением сдвигов G, то Фс является П. т. п. с моментной мерой AG = A*G (* - оператор свертки мер). Если случайный точечный процесс Фс получен из П. т. п. Ф путем независимого прореживания с вероятностью прореживания, задаваемой SC-измеримой функцией С(д), 0^ С(а) ^ 1, то Фс является П. т. п. с моментной мерой ЛС(Я) = \в [ 1 - C(a)]A(da), Be%. Если в одноканальную систему массового обслуживания поступает поток требований, являющийся стационарным П. т. п. длительности обслуживания независимыми одинаково распределенными случайными величинами, требования обслуживаются в порядке, обратном поступлению, то выходящий поток обслуженных требований также является стационарным П. т. п. Этим же свойством обладает одноканальная система с неограниченным разделением процесса обслуживания (см. [6]). Пусть Л - моментная мера, а РЛ - соответствующее распределение вероятностей на измеримом пространстве (М, SR) локально ограниченных мер на (Л, SC), определяющее П. т. п. ПУАССОНОВСКИЙ 525
Если Л1 абсолютно непрерывно относительно Л2(Л1«Л2), At(£)<«>, Л2(В)<<», то Рл « Рл и соответствующая плотность равна = ехр{Л2(В)-Л1Ш)}1Х:ф((а,)>0 Л«>*в<М>. dh. где Фд(С) = Ф(С£), /"(й) -"77- (я) - плотность меры \х относительно меры Л2. 2 Если || V"t - V2\ означает вариацию разности мер Vy - V2, то IPa.-P^HZIA.-AjI. Лит.: [ 1 ] X и н ч и н А. Я., Работы по математической теории массового обслуживания, М., 1963; [2] Кокс Д., СмитВ,, Теория восстановления, пер. с англ., М., 1967; [3] Kali en berg О., Random measures, В. - [а.о.], 1983; [4J Керстан Й., Маттес К., Мекке Й., Безгранично делимые точечные процессы, пер. с англ., М., 1982; [5] Очереди и точечные процессы, пер. с англ., К., 1984; [6] Яш- ков С. Ф., Анализ очередей в ЭВМ, М., 1989. Ю. К. Беляев. ПУАССОНОВСКИЙ ШУМ (Poisson noise) - см. Импульс- ный шум. ПУАССОНОВСКОЕ СЛУЧАЙНОЕ ПОЛЕ (Poisson random field) - точечное случайное поле, для к-рого число точек, принадлежащих любому ограниченному множеству, имеет распределение Пуассона, и числа точек, принадлежащих непересекающимся множествам, взаимно независимы. Лит.: [1] Керстан Й., Маттес К., Мекке Й., Безгранично делимые точечные процессы, пер. с англ., М., 1982. Р. Л. Добрушин. ПУСТЫХ БЛОКОВ КРИТЕРИЙ (empty blocks test) - статистический критерий, основанный на числе jiy(nv n2) пустых выборочных блоков, образованных повторной выборкой объема пj из распределения Fj и заполняемых точками независимой от нее повторной выборки объема п2 из распределения F2. П. 6. к. является аналогом пустых ящиков критерия и предназначен для проверки гипотезы о совпадении непрерывных функций Fj, F2. Имеется связь между числом пустых блоков и статистикой общего количества серий (см. Серий критерий): и = -2ц(01)(п,, п2) + 2(щ + 1) + у= -2ц(02)(я2, щ) + 2(л2 + 1) + у, где у принимает значение 0 или 1, a |i0 (я2, пх) - число пустых блоков второй выборки при заполнении первой. Лит.: [\] У и л кс С, Математическая статистика, пер. с англ., М., 1967; [21 Кудлаев Э. М., в кн.: Итоги науки и техники. Сер. Теория вероятностей. Математическая статистика. Теоретическая кибернетика, т. 26, М., 1988; [3] Mood A.M., «Ann. Math. Statist.», 1940, v. 11, p. 367-92. Э. М. Кудлаев. ПУСТЫХ ЯЩИКОВ КРИТЕРИЙ (empty cells test) - статистический критерий для проверки гипотезы о виде распределения, основанный на статистике, равной числу интервалов числовой оси, в к-рые не попали наблюдения выборки. Пусть, согласно проверяемой гипотезе, независимые наблюдения выборки хи х2> ..., хп имеют одну и ту же непрерывную функцию распределения Fix). Точки zQ = -oo<2] < ... <2/v-i <zN-°o выбираются так, чтобы F(zk)-F(zk_x) = \/N, fe= 1, 2, ..., N. Пусть \i0 - число полуинтервалов (zk_v zk],B к-рые не попало ни одного наблюдения выборки. Критерий пустых ящиков состоит в следующем: проверяемая гипотеза принимается, если ц^С, и отвергается, если ц.0 > С. Расчет характеристик этого критерия связан со следующей классич. задачей о дробинках. Пусть в N ящиков независимо друг от друга бросают п дробинок, причем вероятность попадания любой фиксированной дробинки в любой фиксированный ящик равна 1/N. Число \LQ(n} N) пустых ящиков имеет такое же распределение, как статистика П. я. к. Критерий, основанный на статистике Щ)(я, N), можно использовать для проверки гипотезы о равномерности размещения частиц по ячейкам против конкурирующей гипотезы о полиномиальном размещении частиц по ячейкам. Инвариантность статистики \1q относительно перестановок номеров ячеек позволяет вместо фиксированной конкурирующей гипотезы рассматривать соответствующий класс конкурирующих гипотез. Естественным обобщением П. я. к. является критерий, основанный на величине Лг = сюйо"|"сг1Й1 + ••• ^Crr^r* гДе M-fe ~ число ячеек, содержащих ровно k частиц. Эта величина является разделимой статистикой. Лит.: [1] Колчин В.Ф., Севастья нов Б. А., Чистяков В. П., Случайные размещения, М., 1976. В. П. Чистиков. ПЯТИ ТРЕТЕЙ ЗАКОН (five-thirds law) - см. Колмогорова - Обухова закон пяти третей.
РАВНОВЕРОЯТНАЯ СХЕМА РАЗМЕЩЕНИЯ ЧАСТИЦ комплектами (equiprobable scheme for group allocation of particles-) - см. Размещение частиц комплектами. РАВНОВЕРОЯТНОЕ РАЗМЕЩЕНИЕ ЧАСТИЦ (equipro bable allocation of particles/uniform allocation of particles) - см. Полиномиальное размещение частиц. РАВНОВЕСНАЯ ДИНАМИЧЕСКАЯ СИСТЕМА (equilibrium dynamical system) - см. Динамическая система статистической механики, Идеальный газ. РАВНОВЕСНАЯ СТАТИСТИЧЕСКАЯ МЕХАНИКА (equilibrium statistical mechanics) - см. Статистическая механика. РАВНОВЕСНОЕ РАСПРЕДЕЛЕНИЕ (equilibrium distribution) - см. Динамическая система статистической механики. РАВНОВЕСНЫЙ ПОТЕНЦИАЛ (equilibrium potential) - см. Потенциала теория для цепи Маркова, Потенциала теория для марковского процесса. РАВНОМЕРНАЯ АППРОКСИМАЦИЯ СЕМИМАРТИН- ГАЛА (uniform approximation of a semimartingale) - см. Стохастическое дифференциальное уравнение в форме Стратоно- вича; устойчивость по отношению к возмущениям. РАВНОМЕРНАЯ ИНТЕГРИРУЕМОСТЬ (uniform inte grability) - свойство семейства случайных величин, определяемое следующим образом. Семейство случайных величин {Xt> teT), определенных на одном вероятностном пространстве Ш, d, Р), называется равномерно интегрируемым, если AmJpg>clx<lrfP=0- Критерий равномерной интегрируемости. Пусть {Хп}я2И - последовательность случайных величин, определенных на одном вероятностном пространстве, сходится почти всюду к случайной величине X и Е|ХП| <<*>, п= 1, 2, ... Следующие три утверждения эквивалентны: 1) последовательность {Хп}п>] равномерно интегрируема; 2) Е|Х|<~, lim Е|Хи-Х|=0; 3)lim Е|х/=¥|Х|. Каждое из трех утверждений влечет равенство lim EX„ = EX. Лит.: fl] Лоэв М., Теория вероятностей, пер. с англ., М., 1962. В. М. Круглое. РАВНОМЕРНАЯ МЕТРИКА (uniform metric), метрика Колмогорова, - одна из наиболее старых и наиболее часто используемых вероятностных метрик. Термин «метрика Колмогорова» в отечественной литературе используется редко, хотя А. Н. Колмогоров был первым, кто успешно использовал в статистике уникальные свойства P.m., определяемой для действительных случайных величин равенством р(Х, y) = sup \Fx(x)-FY(x)\, X где Fx - функция распределения случайной величины X. Эти свойства таковы: 1) p(G(X), G(y)) = p(X, У) для любой непрерывной и строго монотонной функции G(x) на IR ; 2) множество всех дискретных распределений на IR является плотным (в смысле равномерной сходимости) в множестве всех распределений на IR . Берри - Эссеена неравенство содержит верхнюю оценку Р. м. в терминах характеристич. функций. Существуют разнообразные аналоги Р. м. для распределений Рх многомерных случайных величин X. Обычно они имеют структуру р(Х, У; *) = sup{|P*C4) - РУ(Л)| :А е *}, где ЗС - какая-либо система борелевских множеств. Наиболее используемыми здесь до настоящего времени были та или иная система шаров, система всех выпуклых множеств и система всех борелевских множеств. В последнем случае получается полной вариации метрика. В. М. Золотарев. РАВНОМЕРНАЯ СХОДИМОСТЬ распределений (uniform convergence of distributions) - сходимость функций распределения Fn к функции распределения F, определяемая как p(F„, F) -> О при п -> <*>, где р - равномерная метрика. Сходимость в метрике р, так же, как и сходимость в полной вариации метрике, иногда называют сильной сходимостью. В случае, когда F является непрерывной, Р. с. эквивалентна слабой сходимости. В. М. Золотарев. РАВНОМЕРНАЯ СХОДИМОСТЬ эмпирических рас пределений (uniform convergence of empirical distributions) - утверждение типа sup | Pn(A) - P(A) | -► 0 почти наверное (1) при п -►<*>, где Рп - эмпирическое распределение, построенное по выборке объема п с распределением Р, 33 - нек-рый подкласс измеримых подмножеств произвольного измеримого пространства (9С, ^). В общем случае супремум в (1) может и не быть случайной величиной. Если 33 состоит из конечного числа подмножеств, то Р. с. эмпирич. распределений но классу 33 следует из больших чисел усиленного закона. Если £■=11?, 33= {(-оо, х)\ дгеП?}, то (1) представляет собой утверждение теоремы Гливен- ко - Канте л ли. В произвольных измеримых пространствах (ЗГ, Л) Р. с. эмпирич. распределений удобно описывать с помощью энтропийных характеристик класса iS£^/. Пусть #j(e, 33, Р) - логарифм минимального числа подмножеств Л,- е «</, удовлетворяющих следующим условиям: для любого В е 33 существуют РАВНОМЕРНАЯ 527
такие Ai , Л,- , что Л, с # с Л,- , Р{А; \Л, } ^ е. Если Нх(г, j8, Р)<°° при всех е>0, то (1) имеет место (см. [1]). Примерами классов 38, для к-рых #t(e, 38, Р)<°° при любом Р, могут служить множества fc-мерных шаров, /г-мерных параллелепипедов с гранями, параллельными координатным плоскостям, и др. Если J3 - класс всех замкнутых выпуклых подмножеств IR , k > 2, Р - абсолютно непрерывное распределение с ограниченной плотностью, то #j(e, 38, Р) <<*>. Если же Р - непрерывное распределение на поверхности шара в Я? , то (1) для указанного 38 не имеет места. Если Р - произвольное дискретное распределение в ЗС, то #|(е, 38, P) <°° для любого SBQjJ. При определенных условиях измеримости для выполнения (1) необходимо и достаточно, чтобы lim п~1Е1пА-39(Х1,...,Хп) = 0, (2) где {XJ - независимые одинаково распределенные случайные величины (Р - распределение Х^, A#(*],...,#„) - число различных подмножеств вида {xv ..., хп}ПВ, Be38 (см. [2]). В частности, Вапника - Червоненкиса класс 38 удовлетворяет (2) при любом Р (см. [2], [3]). Лит.: [1J Dehardt J., «Ann. Math. Statist.», 1971, v. 42, p. 2050-55; [2] ВапникВ. Н., Червоненкис А.Я., «Теория ве- роятн. и ее примени, 1971, т. 16, в. 2, с. 264-79; [3J Dudley R. М., «Lect. Notes in Math.», 1984, № 1097, p. 1-142. И. С. Борисов. РАВНОМЕРНО ИНТЕГРИРУЕМАЯ ФУНКЦИЯ (uniformly integrable function) - см. Равномерная интегрируемость. РАВНОМЕРНО КВАДРАТИЧНАЯ МЕТРИКА (uniformly quadratic metric) - простая вероятностная метрика, определяемая в случае действительных случайных величин X, У равенством p.2(X,Y) = sup^- f [P{|X-*|^r/2}-P{|Y-*|^r/2}]2rfx r>0 2r J P. к. м. имеет явное выражение в терминах характеристич. функций fx случайных величин X: Это свойство представляет особый интерес, поскольку Р. к. м. эквивалентна равномерной метрике р (в том смысле, что сходимость в Р. к. м. влечет за собой сходимость в р, и наоборот). С последней Р. к. м. связана неравенством р+<2р. Однако нижней оценки у(р)^р+ с отличной от нуля функцией у(р) не существует. Р. к. м. обладает свойством линейной инвариантности: для любых а е II? , Ъ > 0 и любых случайных величин X, У р,(ЬХ + а,ЬУ + а) = р^(Х,У). Определение Р. к. м. может быть распространено на случай пространств конечномерных случайных величин. Лит.: [1] Золотарев В. М., Современная теория суммирования независимых случайных величин, М., 1986. Q4 д/. Золотарев. РАВНОМЕРНО ЛУЧШАЯ РЕШАЮЩАЯ ФУНКЦИЯ (uniformly best decision function) - см. Решающая функция равномерно лучшая. РАВНОМЕРНО НАИБОЛЕЕ МОЩНЫЙ КРИТЕРИЙ (uniformly most powerful test) - статистический критерий с заданным уровнем значимости для проверки сложной гипотезы Я0 против сложной альтернативы Hv мощность к-рого не 528 РАВНОМЕРНО меньше мощности любого другого статистического критерия, предназначенного для проверки Я0 против Н\ и имеющего тот же уровень значимости. Пусть проверяется сложная гипотеза Н0:веЭ0а& против сложной альтернативы Я1 :ee0t = 0\во, и пусть задана верхняя грань а, 0<а<1, вероятностей ошибок 1-го рода, к-рые можно совершить, отклоняя проверяемую гипотезу Я0 с помощью статистич. критерия, когда она в действительности верна (число а называется уровнем значимости критерия, а про сам критерий говорят, что он имеет уровень а). Ограничение на вероятности ошибок 1-го рода сужает множество всех статистич. критериев, предназначенных для проверки Я0 против #i, до класса критериев уровня а. В терминах функции мощности р(6), 6€0 = 001)0!, статистич. критерия фиксирование уровня значимости а означает, что существует верхняя грань supb(6)^a. Если в классе всех статистич. e«=e0 критериев уровня а, предназначенных для проверки Я0 против #|, существует такой, что его функция мощности р*(в) удовлетворяет условию sup р*(6) = а, р*(в) > р(в), в е 0t, где еее0 р(в) - функция мощности любого другого критерия из этого же класса, то критерий называется равномерно наиболее мощным критерием уровня а для проверки Я0 против Ну. Р. н. м. к. является наилучшим критерием, если сравнение критериев производят в терминах мощности критериев. Число а называется размером этого критерия. Лит.: [11 Леман Э., Проверка статистических гипотез, нер. с англ., 2 изд., М., 1979. М. С. Никулин. РАВНОМЕРНО ОПТИМАЛЬНАЯ СТРАТЕГИЯ (uni- formly optimal strategy/policy) - см. Игра двух лиц, Управляемый случайный процесс с дискретным временем. РАВНОМЕРНО ОПТИМАЛЬНЫЙ ПЛАН (uniformly optimal design) - см. Регрессионных экспериментов планирование. РАВНОМЕРНО СОСТОЯТЕЛЬНОЕ ОЦЕНИВАНИЕ (uniformly consistent estimation) - см. Непараметрическое оценивание. РАВНОМЕРНОЕ РАСПРЕДЕЛЕНИЕ (uniform distribution) - общее название класса распределений вероятностей, возникающих при распространении идеи «равновозможности исходов» на непрерывный случай. Подобно нормальном} распределению Р. р. появляется в теории вероятностей как точное распределение в одних задачах, и как предельное - в других. P.p. на отрезке числовой прямой [а, Ь] (прямоугольное распределение)- непрерывное распределение вероятностей, имеющее плотность р(х) = \/(Ь-а), хе[а,Ь], р(х) = 0, х е [а,Ь\. Математич. ожидание и дисперсия Р. р. равны соответственно (Ь + а)/2 и (Ь-а) /12. Функция распределения F(x) = (x~a)/(b-a), характеристич. функция f(t)=—l (eitb-cita). 1 t(b-a) P. p. - частный случай типа II в системе Пирсона распределений. Случайную величину с Р. р. на [0, 1 \ можно построить, исходя из последовательности независимых случайных величин Xv X2, ♦.., принимающих значения 0 и 1 с вероятностями 1/2, полагая (Хп являются цифрами в двоичном разложении X). Случайное число X имеет P.p. на отрезке [0, 1]. Этот факт имеет
важные статистич. приложения (см., напр., Случайные и псевдослучайные числа). Понятие Р. р. на [а, Ь] соответствует представлению о случайном выборе точки на этом отрезке «наудачу». Если независимые случайные величины Xt и Х2 имеют Р. р. на [0, 1], то их сумма Х\ +Х2 имеет так наз. треугольное распределение на [0, 2] с плотностью р2(х) = 1 - |1 -я| для х е [О, 2]. Сумма трех независимых случайных величин с Р. р. на [0, 1] имеет распределение на [0, 3] с плотностью (см. р>ис.) \х2/2, 0^х<\, р3(х) = \(х2-3(х-\)2)/2, \^х<2, \(х2 ~3(х-\)2 + 3(*-2)2)/2, 2^*<3. 2 1.2 1.5 1.1 2.1 2.4 2.7 Графики плотностей: (1) трехкратной свертки равномерного распределения р^{х)\ (2) нормального распределения со средним а - 1 ,5 и дисперсией а = 1/4. В общем случае сумма Х1 + ...+Х„ независимых величин с Р. р. на |0, 1] распределена с плотностью р„(х) ■- 1 (л- 1)! *-k=0 XLV-1)^*-^ yi-l для 0 ^ х ^ и; здесь z+ = г при z > 0 и z+ = 0 при г ^ 0. Распределение суммы X) + ... + Хп, нормированной математич. ожиданием и/2 и среднеквадратич. отклонением Vn/12, с ростом п быстро сближается с нормальным распределением с параметрами 0 и 1 (уже при п - 3 приближение удовлетворительно для многих практич. целей). В статистич. приложениях процедура построения случайной величины с заданной функцией распределения F(x) основана на следующем факте. Пусть случайная величина У распределена равномерно на [0, 1] и функция распределения F(x) непрерывна и строго возрастает. Тогда случайная величина X = F~\Y) имеет функцию распределения Fix); в общем случае надо заменить в определении X функцию F~ (у) на нек-рый ее аналог, а именно: G(#) = inf {x;F(x)^y^F(x+0)}. X P.p. на отрезке как предельное распределение. Ниже приводятся типичные примеры возникновения P.p. на [0, 1] в качестве предельного (см. также Пуассона формула суммирования). 1) Пусть Хи Х2, ..., Х„, ... - независимые случайные величины, имеющие одну и ту же непрерывную функцию распределения. Тогда распределение их суммы Sn, приведенной по модулю 1, то есть, иными словами, распределение дробной части {Sn} суммы 5П, сходится к равномерному на [0, 1] распределению. 2) Пусть параметры аир имеют абсолютно непрерывное совместное распределение; тогда при t —> <» распределение {at + p} сходится к равномерному на [0, 1]. 3) Р. р. встречается как предельное распределение дробных долей нек-рых функций д(п) натурального аргумента п. Напр., при иррациональном а доля тех w, 1 ^ т^и, из и, для к-рых 0 ^ а ^ {па} ^Ь^\, имеет пределом при п —> <» величину Ъ - а. P.p. на подмножествах IP. Пример P.p. в прямоугольнике встречается уже в Бюффона задаче (см. также Геометрические вероятности, Стохастическая геометрия). Р. р. на нек-ром ограниченном множестве D в пространстве IP определяется как распределение, имеющее плотность р(х^, ..., хп) = С*0, где С обратна ^-мерному объему (или лебеговой мере) множества D. Рассматривают также и Р. р. на поверхностях. Так, «случайное направление» (напр., в IR ) определяют вектором, идущим из начала координат в случайную точку поверхности единичной сферы, равномерно распределенную в том смысле, что площадь поверхности ее попадания в какую-либо часть поверхности пропорциональна площади этой части. Лит.: [1] Феллер В., Введение в теорию вероятностей и ее приложения, пер. с англ., т. 2, М., 1984. А. В. Прохоров. РАВНОМЕРНОЙ БЕСКОНЕЧНОЙ МАЛОСТИ УСЛОВИЕ (uniform infinitesimality condition) - см. Бесконечной малости условие. РАВНОМЕРНЫЙ СПЕЙСИНГ (uniform spacing) - см. Вы борочные блоки. РАВНОМЕРНЫЙ ФАКТОРНЫЙ ЭКСПЕРИМЕНТ (uni form factorial experiment) - см. Факторный эксперимент. РАДЕМАХЕРА ПОСЛЕДОВАТЕЛЬНОСТЬ (Rademacher sequence) - последовательность функций гп, определенных на отрезке [0, 1]: , ч . п„ .. rn(t) = sign sin 2 Tit, n g IN. Введена X. Радемахером в [1 ]. P. п. представляет собой последовательность независимых случайных величин (на [0, 1] рассматривается борелевская а-алгебра подмножеств и лебе- говская мера), принимающих почти наверное два значения +1 и -1, каждое с вероятностью 1/2. Часто под Р. п. понимают любую такую последовательность случайных величин, определенных на произвольном вероятностном пространстве (иногда называемую также последовательностью независимых бер- нуллиевых случайных вел ич ин). Р. п. тесно связана с последовательностью числа «успехов» в схеме испытаний Бернулли, для к-рой первоначально были установлены многие важные закономерности теории вероятностей, относящиеся к суммам независимых случайных величин. В теории вероятностей и теории функций важны условия почти наверное сходимости ряда ХГ-, а»г* <*> со скалярными или векторными коэффициентами ап> п е Ы. Если апе& и £ ^1<00> то РЯД (*) почти наверное сходится (теорема Радемахера); если, наоборот, V ап = °°, то ряд (*) почти наверное расходится (теорема Хинчина- Колмогорова). В случае, когда коэффициенты ап берутся из общего банахова пространства В, эффективных необходимых и достаточных условий сходимости ряда (*) нет. Вопрос решен полностью для банаховых решеток с конечным котипом (см. [41). Типичным примером таких пространств являются пространства LP(S, I, (i), 1 ^р<<*>. Ряд J\ akrk(t) , akeLp, сходится в LP для почти всех £е[0, 1] тогда и только тогда, когда РАДЕМАХЕРА 529
В частности, если В - гильбертово пространство, то ряд (*) с ап € В почти наверное сходится тогда и только тогда, когда 1К12<~. Условия сходимости ряда (*) лежат в основе определения важных классов банаховых пространств (см. Банахово пространство типа р). Р. п. не является полной ортонормированной системой в L2[0, t]. Наиболее распространенной полной ортонормированной системой, содержащей Р. п., является система функций Уолша. Лит.: [1] Rademacher Н., «Math. Ann.*, 1922, Bd 87, S. 112—38; [2] Кашин Б.С, СаакянА.А., Ортогональные ряды, М., 1984; [3J Вахания Н.Н., Тарнеладзе В. И., Чоба- нян С. А., Вероятностные распределения в банаховых пространствах, М., 1985; [4] Маигеу В., в кн.: Seminaire Maurey-Schwartz, 1973-1974. Exp. № 24-25, P., 1974; [5] Кац М., Статистическая независимость в теории вероятностей, анализе и теории чисел, пер. с англ., М., 1963. С. А. Чобанян. РАДЕМАХЕРА ТЕОРЕМА (Rademacher theorem) - см. Ра демахера последовательность. РАДОНА МЕРА (Radon measure), радонова мера,- конечная мера ц на борелевской а-алгебре &(Т) хаусдорфова топологии, пространства Т такая, что для каждого множества Ве&(Т) справедливо соотношение ц(Я) = sup {\i(K):Ka В, К - компактно}. (*) Каждая Р. м. является т-гладкой, регулярной и плотной мерой. Каждая конечная борелевская мера в польском пространстве (в частности, в полном сепарабельном метрич. пространстве) радонова. Бесконечная мера на &(Т) называется радоновой, если для нее выполнено соотношение (*), и, кроме того, она локально конечна (то есть каждая точка хеТ имеет окрестность с конечной мерой). Знакопеременная (а также комплексная) мера на ЗВ(Г) называется радоновой, если ее вариация радонова в смысле данного выше определения. Лит.: [1] БурбакиН., Интегрирование, пер. с франц., М., 1977; [2] Вахания Н. Н., ТариеладзеВ. И., Чобанян С. А., Вероятностные распределения в банаховых пространствах, М., 1985; [3] Schwartz L., Radon measures on arbitrary topological spaces and cylindrical measures, L., 1973. H.H. Вахания. РАДОНА - НИКОДИМА ПРОИЗВОДНАЯ (Radon - Nikodym derivative) - см. Плотность вероятности. РАДОНА - НИКОДИМА СВОЙСТВО банахова пространства (Radon - Nikodym property of a Banach space) - свойство пространства, связанное со справедливостью Радона - Никодима теоремы для векторных мер со значениями в этом пространстве. Именно, говорят, что банахово пространство В обладает Р.- Н. с, если для произвольного вероятностного пространства Ш, Л, Р) любая векторная мера y:Q->B конечной вариации, абсолютно непрерывная относительно меры Р, представляется в виде интеграла: <p(A) = \AXdP, АеЛ, где X: Q -> В - сепарабельнозначный случайный элемент с сильным 1-м порядком. При фиксированном вероятностном пространстве Ш, Л, Р) говорят о Р. - Н. с. относительно пространства Ш, **/, Р). Пространство IP действительных чисел и пространство С комплексных чисел обладают Р. - Н. с. в силу теоремы Радона - Никодима. Если пространство В обладает Р. - Н.с. относительно вероятностного пространства [О, 1] с лебеговой мерой, то оно обладает Р.~ Н. с. Примерами банаховых пространств с Р.- Н. с. служат: рефлексивные пространства, сепарабельные пространства, являющиеся 530 РАДЕМАХЕРА сопряженными. Пространства с0 и L [0, 1] не обладают Р. - Н. с. Известны различные геометрич. условия, обеспечивающие Р. - Н. с. В случае, когда В - банахово пространство сР.-Н.с. (и только в этом случае), для мартингала в В имеет место аналог классич. теоремы Дуба о сходимости мартингала. Понятие Р. - Н.с. интересно и с точки зрения результатов, касающихся радонизирующих операторов. Лит.: [1] ВаханияН.Н., Тариеладзе В. И., ЧобанянСА., Вероятностные распределения в банаховых пространствах, М., 1985; [2] DiestelJ., Uhlj., Vector measures, Providence, 1977. С. А. Чобанян. РАДОНА - НИКОДИМА ТЕОРЕМА (Radon - Nikodym theorem) - одна из основных теорем теории меры, касающаяся интегральных представлений зарядов посредством мер, относительно к-рых эти заряды абсолютно непрерывны. Пусть (X, S, ц) - пространство с а-конечной мерой, и пусть X ~ произвольный а-конечный заряд, определенный на а-алгебре S и абсолютно непрерывный относительно меры ц [последнее означает, что для всякого YeS соотношение ц(У) = 0 влечет за собой соотношение Х( Y) = 0]. Тогда на X существует числовая конечная ц-измеримая функция f такая, что при любом Z eS справедливо равенство (теорема Радона - Никодима) Wz) = /z/tf|i. Функция ft единственная в том смысле, что если g - какая-нибудь другая ц-измеримая числовая функция на X, для к-рой X(Z)=\zgd\i,ZeS, то почти всюду (относительно меры ц) выполняется соотношение g(x)=f(x), xeX. Функция f называется производной (плотностью) Радона - Никодима з а р я д а А, относительно меры ц и обозначается символом -—. Если заряд X представши, ляет собой (положительную) меру, то его производная Радона - Никодима почти всюду положительна. Для полной вариации \Х\ заряда X справедливо соотношение k|(Z) = {z \f\d\LtZeS. В частности, производная Радона - Никодима заряда X интегрируема по мере ц тогда и только тогда, когда заряд X имеет конечную полную вариацию. Р.- Н. т. тесно связана с теоремой Рисса о представлении всякого непрерывного линейного функционала, заданного на гильбертовом пространстве (любая из этих двух теорем выводится из другой). В теории вероятностей с помощью Р,- Н. т. корректно вводятся понятия условной вероятности и условного математич. ожидания (см. [2]). Нек-рые обобщения Р.-Н.т. используют в функциональном анализе (см., напр., [3]). См. также Абсолютно непрерывное распределение. Лит.: [1] Халмош П., Теория меры, пер. с англ., М., 1953; [2] П рохоров Ю. В., Розанов Ю. А., Теория вероятностей. Основные понятия. Предельные теоремы. Случайные процессы, 3 изд., М., 1987; [3J ДанфордН., Шварц Дж., Линейные операторы. Общая теория, пер. с англ., ч. 1, М., 1962; [41 ГихманИ.И., Скороход А. В., Введение в теорию случайных процессов, 2 изд., М., 1977. А. Б. Харазишвили. РАДОНИЗУЮЩИЙ ОПЕРАТОР (Radonifying operator), радонифипирующий оператор, - непрерывный линейный оператор и из банахова пространства Вх в банахово пространство В2> переводящий каждую цилиндрическую меру в J5t с непрерывным характеристическим функционалом в цилиндрическую меру в В2, продолжаемую до радоновой меры.
Эквивалентное определение: u:Bi-J> B2 есть P.O., если для каждого вероятностного пространства (ft, **/, Р) и для каждого непрерывного линейного оператора Т:В*-+L0(Cl} л/} Р) оператор Ти*:В2 ->L0(ft, Л, Р) индуцируется нек-рым сепа- рабельнозначным случайным элементом Y;Q.-*B2. Из Сазонова теоремы следует, что если Я1 и Я2 - гильбертовы пространства, то непрерывный линейный оператор и:Я1 ->Я2 является Р. о. тогда и только тогда, когда он - оператор Гильберта - Шмидта. Само понятие «Р. о.» введено Л. Шварцем (L. Schwartz) в связи с обобщением этого утверждения на более общие пары банаховых пространств. С понятием Р. о. тесно связаны понятия (р, д)-радонизую- щего и р-радонизующего операторов (0^q^p<°°). Непрерывный линейный оператор и:Вх-*В2 называется (q, р)-радонизующим, если для каждой цилиндрич. меры ц в В{ с р-м типом ее образ \iu = \iou~ продолжается до радоновой меры в В2 с сильным q-м порядком, или, что эквивалентно, если для каждого вероятностного пространства Ш, ,rft P) и любого непрерывного линейного оператора T:B*->LP(Q, .< Р) операторном* индуцируется нек-рым сепарабельнозначным случайным элементом У: ft -> B2 с сильным q-м порядком (то есть Е|| Y\\q <<*>). Оператор, являющийся (р. р)-радонизующим, называется р-радонизующим оператором. Понятие О-радонизующего оператора совпадает с понятием Р. о. При 1 <р<оо непрерывный линейный оператор и:В^-+В2 является р-радонизующим тогда и только тогда, когда он является ^-суммирующим, то есть обладает свойством: для нек-рого Р >0 и всех я е N, b^f ..., bn&B{ YkJ«bk Г « Э SUP {XL,|b4>l": ^B,Vl <l} (теорема Квапеня - Шварца). Определение ^-суммирующего оператора имеет смысл и при 0 < р ^ 1. При р = 1 аналог приведенного выше утверждения сохраняется, если В2 ~ банахово пространство со свойством Радона - Никодима. При 0<р< 1 аналогичное утверждение верно, если В\ имеет свойство ограниченной аппроксимации и В2- банахово пространство со свойством Радона - Никодима. В последнем утверждении свойство ограниченной аппроксимации нельзя отбросить, даже если В2 - гильбертово пространство (см. [6]). Лит.: [1] Schwartz L., «С. г. Acad. sci>, Ser. A, 1967, t. 265, № 25, p. 832-34; [2] Seminaire L. Schwartz, Applications radonifiantes, P., 1969-70; [3] Kwapien S., «С. г. Acad. scU, Ser. A, 1969, t. 269, № 14, p. 590-92; [4] Пич А., Операторные идеалы, пер. с англ., М., 1982; [5] ВаханияН.Н., Тарие ладзе В. И., ЧобанянС.А., Вероятностные распределения в банаховых пространствах, М., 1985; [6] PisierG., «Asterisque», 1985, t. 131, № 1, p. 163-74. В. И. Тариеладзе. РАДОНИФИЦИРУЮЩИЙ ОПЕРАТОР (Radonifying operator) - см. Радонизующий оператор. РАДОНОВА МЕРА (Radon measure) - см. Радона мера. РАДОНОВО ПРОСТРАНСТВО (Radon space) - см. Мера. РАЗБИЕНИЕ (partition), конечное разбиение, - система попарно несовместимых событий Л|, Л2, ..., Ап такая, что где ft - пространство элементарных событий. Аналогично определяется счетное разбиение: XT-,*-* См. также Бинарных отношений статистика. Б. А. Севастьянов. РАЗБИЕНИЕ натурального числа (partition of a natural number) - см. Случайное разбиение. /С-РАЗБИЕНИЕ (K-partition) - измеримое разбиение % пространства Лебега ft с мерой и,, в к-ром действует динамическая система {Т*} tel или И?}, сохраняющая меру, такое, что: 1) Г'^для ^0; 2) \/f 7^ = e(mod0), где е - разбиение на отдельные точки; 3)\/ r^ = v(mod0), где V - тривиальное разбиение, единственным элементом к-ро- го является ft. К-р. есть аналог а-алгебры событий, зависящих от поведения стационарного процесса при £<0, в случае регулярных процессов. Динамич. системы, обладающие К-р., называются ^-системами. В. И. Оселедец. РАЗБРОС распределения (dispersion of distribution/dispersion of a distribution) - см. Разброс случайной величины. РАЗБРОС случайной величины (dispersion of a random variable), разброс распределения,- числовая характеристика вероятностного распределения случайной величины X, определяемая на основе соответствующей характеристической функции fx(0: Вг(Х) = -2^ Re log fx(t)\i(dt)/r2f0 t2ii(dt), где |i - нек-рая мера, для к-рой интеграл в знаменателе конечен и г - положительное число, меньшее индекса случайной величины. Р. обладает рядом свойств дисперсии, в частности он аддитивен для сумм независимых случайных величин. Вместе с тем он непрерывен в топологии слабой сходимости. Случаю, когда мера вырождена в точке t = 1, соответствует почти наверное легкий разброс, а случаю меры \i(dt) = dt - тяжелый разброс. Р. и его обобщения в многомерном случае оказываются полезным инструментом в моделях суммирования случайных величин и векторов. Лит. см. при ст. Центр случайной величины. В. М. Круглое. РАЗВЕДОЧНЫЙ СТАТИСТИЧЕСКИЙ АНАЛИЗ дан ных (exploratory data analysis) - этап статистической обработки данных, употребляемый, когда, с одной стороны, у исследователя имеется таблица многомерных данных, а с другой стороны, априорная информация о физическом (причинном) механизме генерации этих данных отсутствует или неполна. В этой ситуации Р. с. а. может оказать помощь в компактном и понятном исследователю описании структуры данных (напр., в форме визуального представления этой структуры и отклонений данных от этой структуры). Отталкиваясь от такого описания, исследователь уже может «прицельно» поставить вопрос о более детальном исследовании своих данных с помощью того или иного раздела статистич. анализа, обоснования полученной структуры данных с .помощью аппарата проверки статистич. гипотез, а также, возможно, сделать нек-рые заключения и о причинной модели данных. Этот этап называется подтверждающим анализом данных. Иногда выявление структуры данных с помощью Р. с. а. может оказаться и завершающим этапом анализа. С другой стороны, ряд методов Р. с. а. можно рассматривать и как методы подготовки данных для последующей статистич. обработки без какого-либо изучения структуры данных, к-рое предполагается осуществить на последующих этапах. В этом случае этап Р. с. а. играет роль нек-рого этапа перекодировки РАЗВЕДОЧНЫЙ 531
и преобразования данных (напр., путем сокращения размерности) в удобную для последующего анализа форму. В любом случае, с какой бы целью ни применялись методы Р. с. а., основная задача - переход к компактному описанию данных при возможно более полном сохранении существенных аспектов информации, содержащихся в исходных данных. Важно также, чтобы описание было понятным для пользователя. И. С. Енюков. РАЗДЕЛЕНИЯ ПРИНЦИП (separation principle) - принцип, относящийся к задачам управления случайными процессами, в к-рых управление осуществляется выбором управляемой статистики от наблюдений. Пусть в задаче управления случайным процессом У = (Yt)t^о с дифференциалом Ито dYt = iait)Yt + cit)ut)dt + Bit)dwt относительно винеровского процесса w=iwt)t^0 процесс управления u = (ut)t^0 согласован с потоком (&t ) а-алгебр &t , порожденных величинами Xs, О <s ^ t, где случайный процесс X - iXt)t> 0 имеет дифференциал Ито dXt = Ait) Ytdt + Bit)dwt относительно винеровского процесса ^-iwt)t^Q, независящего от о;, и выбирается с целью минимизации функционала Vt(u) = E{l(YT) + Jl Lit, Yt, ut)dt). При условии, что (Х0, Yq) - гауссовский вектор, имеет место следующий принцип разделения: где процессы intiY), Pit))t^Q определяются системой уравнений: dKt(Y) = (a(t)Kt(Y) + cU)ut)dt + ^^P^dwt, 1 t f Bit) l ^ = 2a(t)P<t) + b4t)-(Mt)P{t))2, dt \ Bit) ) w~ iwt)t^, q - обновляющий винеровский процесс с rt dXs-A(s)nAY)ds wt- — - , f JO Bis) согласно к-рому управление по неполным данным процессом Y сводится к задаче управления по полным данным процессом niY) = intiY))t^Q оптимальной в среднеквадратич. смысле оценкой Yt по наблюдениям Х5, 0^s<£. Лит.: [1] WonhamW.M., «SIAM J. Control», 1968, v. 6, № 2, p. 312-26. Р.Ш. Липцер. РАЗДЕЛИМАЯ СТАТИСТИКА (decomposable statistic) - случайная величина вида *.-х!".,л*(у-*-2»*)' (1) где Ynk и Znk - /-мерные и w-мерные случайные векторы соответственно, fnk - определенные на евклидовом пространстве II? +т действительные борелевские функции (вектор-функции). При этом совместное распределение Рп век- 532 РАЗДЕЛЕНИЯ торов Tnk-iYnk, Znk), k~\, ..., kn, совпадает с условным распределением нек-рых независимых случайных векторов 0и* = Ч,*, С*)» *=1. .... К пРи условии k k Здесь предполагается, что распределение случайного вектора Т|я абсолютно непрерывно по мере Лебега в IR , а распределение случайного вектора £л является решетчатым, сосредоточенным на w-мерной решетке с целочисленными координатами и максимальным шагом 1. Этот термин первоначально был введен (см. [1]) для наиболее важного и изученного класса Р. с. - аддитивных статистик полиномиальной схемы с п независимыми испытаниями и вероятностями 0<pnk<\ появления исходов, k=\, ..., kn. Этот класс включает в себя, напр., статистики критерия отношения правдоподобия, критерия хи-квадрат, критерия пустых ящиков. Для этой схемы в (1) отсутствует компонента Ynk, m-\, Znk = vnk- частота появлений /г-го исхода, распределение случайных величин Qnk = ^nk, k=\. ...,kn, является пуассоновским с параметрами npnk соответственно; в (2) zn = n. Важный подкласс образуют симметрические Р. с. полиномиальной схемы; при этом в (1) функции fnk не зависят от индекса k. Этот подкласс совпадает с классом линейных комбинаций У сгцг, где [НА) - индикатор события А]. Другой распространенный класс Р. с. - аддитивные функции от выборочных промежутков, связанных с равномерным на отрезке [0, 1] распределением. Ряд других примеров и обобщения Р. с. в различных направлениях содержатся в [2]—[6]. Наибольший интерес для приложений представляет изучение слабой сходимости Р. с. в ситуации п -> °°, kn -> <». Основываясь на представлении характеристич. функции Р. с. Хп через совместную характеристич. функцию суммы независимых случайных векторов (/"„^Сб,^), 6nfe), k= 1, ..., kn, и используя предельные теоремы для таких сумм, при широких условиях получено полное описание класса предельных распределений Р. с. в этой ситуации, включая исследование вопросов оценки скорости сходимости в центральной предельной теореме, поведение Р. с. при контигуальных к Рп альтернативах, а также асимптотич. эффективности статистич. критериев, основанных на Р. с. Лит.: [1] Медведев Ю.И., «Докл. АН СССР», 1970, т. 192, № 5, с. 987-89; [21 Иванов В. А., ИвченкоГ.И., Медведев Ю. И., в кн.: Итоги науки и техники. Сер. Теория вероятностей. Математическая статистика. Теоретическая кибернетика, т. 22, М., 1984; [3J Ивченко Г. И., Медведев Ю. И., Ронжин А.Ф., «Тр. Матем. ин-та АН СССР», 1986, т. 177; [4] Кудлаев Э. М., в кн.: Итоги науки и техники. Сер. Теория вероятностей. Математическая статистика. Теоретическая кибернетика, т. 26, М., 1988; [5] его же, там же, 1985, т. 30, № 1, с. 170-74; [6J Hoist L., «Ann. Probab.»,.1981, v. 9, № 5, p. 818-30. Г. И. Ивченко, Э. М. Кудлаев, Ю. И. Медведев. РАЗДЕЛИМОСТИ УСЛОВИЕ (separability condition) - см. Вероятность в квантовой физике. РАЗДЕЛИМЫЕ СЕМЕЙСТВА МЕР (disjoint families of measures) - семейства, состоящие из попарно сингулярных мер и обладающие нек-рыми дополнительными свойствами. Пусть (X, **/) - измеримое пространство. Семейство мер (1е, ве0, определенных нао-алгебре.</, называется слабо разделимым, если существует такое семейство измеримых множеств {Хе, б€0}, чтощ(Х-Хе*)*0, если 6 = 6', и |1е(Хе<) = 0, если в*в'. Семейство мер {(ie, 6e@}, определенных на а-алгебре **/, называется разделимым семейством, если сущее твует
такое семейство измеримых множеств {Хе, 0 е ©}, что ХвПХ9- = 0 при 0 * 8' и \lq(X - Х80 = 0 при 8 = 8'. Пример. Пусть X - квадрат на плоскости [0, 1]х[0, 1], .</- а-алгебра борелевских подмножеств этого квадрата, 0= [0, 1 ]U[2, 3]. Если 8 е [0, 1 ], то пусть щ - мера Лебега на отрезке 0^#^1, у = д, а если 8е [2, 3], то пусть щ - мера Лебега на отрезке # = 6-2, 0^#<1. Если Хе - указанные отрезки, то семейство мер {це, 8е[0, 1]U[2, 3]} слабо разделимо, а семейство мер {це, бе [0, 1]} разделимо (см. [2]). В работе [ 1 ] с помощью теоретико-множественной аксиомы Мартина (к-рая гораздо слабее гипотезы континуума) показано, что всякое слабо разделимое континуальное семейство борелевских мер, заданных на полном сепарабельном метрич. пространстве, является Р. с. м. Пусть X - множество мощности континуума, к-рое обозначено через с. Построено (см. [3]) такое минимальное семейство попарно сингулярных мер на X, к-рое имеет мощность 2 . Всякое слабо Р. с. м. на X имеет мощность не более чем 2 , а всякое Р. с. м. на X имеет мощность не более чем с. Следовательно, существуют слабо Р. с. м. на X, не являющиеся Р. с. м. Лит.: [1] ЗеракидзеЗ. С, «Сообщ. АН Груз. ССР», 1984, т. ИЗ, № 2, с. 273-75; [2] Ибрамхали лов И. Ш., Скороход Л. В., Состоятельные оценки параметров случайных процессов, К., 1980; [3] Харази ш в и л и А. Б., Некоторые вопросы функционального анализа и их применения, Тб., 1979. 3. С. Зеракидзе. РАЗДЕЛЬНОЕ РЕЗЕРВИРОВАНИЕ (separate redundun- су) - см. Резервирование. ^-РАЗДЕЛЯЮЩИЙ ПЛАН (Л separating design) - см. Отсеивающих экспериментов планирование. РАЗЛАДКИ МОМЕНТ (change point) - см. Обнаружения разладки задача. РАЗЛОЖИМАЯ ЦЕПЬ МАРКОВА, приводимая цепь Маркова (decomposable Markov chain),- конечная или счетная цепь Маркова, не являющаяся неразложимой цепью Маркова. Конечная цепь Маркова разложима в том и только в том случае, когда ее переходная матрица (возможно, после нек-рой перенумерации состояний) записывается в виде блочной матрицы is а где Р{ и Р2 - квадратные стохастич. матрицы, а 0 - нулевая матрица соответствующего размера. м.Г. Шур. РАЗЛОЖИМЫЙ ВЕТВЯЩИЙСЯ ПРОЦЕСС (decomposable branching process) - ветвящийся процесс с конечным числом типов частиц, в к-ром типы частиц образуют не менее двух классов. Состояние процесса с п типами частиц описывается вектором Z(t) = (Zj(О, ...i Zn(t)), гце Zk(t) - число частиц k-то типа, существующих в момент времени t. Представление об асимптотич. поведении Р.в.п. дает частный случай ветвящегося процесса с непрерывным временем Z(t) = (Zt(0, ..., Zw(0), у к-рого частица типа i порождает только частицы типов i и i +t(l->2->...->«). В этом случае множество типов распадается на п классов, каждый из к-рых содержит один тип. Пусть финальных классов нет (см. Ветвящийся процесс с конечным числом типов частиц) и вторые моменты Z(t) конечны. Асимптотич. поведение рассматриваемого процесса существенно зависит от поведения математич. ожиданий Л^(О = Е{7ДО^;(0) = 8£;-/=1, ...,и} = б>4 1=1,2, ...,я, где а^ - нек-рые постоянные. Если все а^<0, то процесс докритический и его вероятности продолжения O£(O = P{Z1(O + ...+ZfI(O>0|Z;.(0) = % /=1, .... п) экспоненциально убывают при t -> <». Если все аи > 0 и среди fln» •••» апп имеется р нулей (р> 1), то процесс критический и при t -> <*> Qi<0 = ?i*"2 "(l+o(l)), где qx>0- нек-рая постоянная. Если аи -... = апп = 0, то преобразование Лапласа y(s{} ..., sn) предельного при t->°° распределения для условных распределений fZ1(OQ1(Q< Z„(OQ„(Q |Z.(0 = 8., i;.,z/(t)>°} имеет следующий вид: Наиболее полное описание предельных распределений для Р. в. п. в предположении конечности вторых моментов Z(t) дано в [2]-[4]. Предельные распределения в случае, когда вторые моменты бесконечны, см. в [5]. Лит.: [1] Севастьянов Б. А., Ветвящиеся процессы, М., 1971; [2] Полин А. К., «Матем. сб.», 1976, т. 100, с. 420-35; [3] его же, там же, 1977, т. 104, с. 151-61; [4J Ogura Y., «J. Math. Kyoto Univ.», Ser. A, 1975, v. 15, № 2, p. 251-302; [5] Ватутин В. А., Зубков А. М., в кн.: Итоги науки и техники. Сер. Теория вероятностей. Математическая статистика. Теоретическая кибернетика, т. 23, М., 1985, с. 3-67. В. П. Чистяков. РАЗМАХ выборки (sample range) - разность Wn = =X(n)-X(1) крайних членов вариационного ряда {Х(-)}"=1, построенного по выборке {Xz}?=1. Для независимых Xif 1 ^ i ^ я, с общей функцией распределения F Р{]Уп<х} = пГ (F(x + t)-F(t))n'{dF(t), x>0. J—0O Р. выборки часто используют для оценивания параметра масштаба. В ряде ситуаций (цензурированные выборки, робаст- ное оценивание) вместо Р. выборки применяют квазиразмахи Wr5 = X(5)-X(r), i^r<s^n. В случае нормального распределения Р. выборки и квазиразмахи не зависят от выборочного среднего. Лит.: [1] Д эй вид Г., Порядковые статистики, пер. с англ., М., 1979; [2] Большее Л. Н., Смирнов Н. В., Таблицы математической статистики, 3 изд., 1983. В. А. Егоров, В. Б. Невзоров. РАЗМЕР критерия (size of a test) - верхняя грань вероятности ошибки 1-го рода по семейству распределений, отвечающему нулевой гипотезе. См. Статистических гипотез проверка. Д.М. Чибисов. РАЗМЕЩЕНИЕ (arrangement/permutation with repetitions), упорядоченная т-выбор ка с повторениями, размещение с повторениями, - последовательность Ъ- (а- , а,; , ..., я, ) элементов данного множества А = {д1, а2> ..., а„}. Если все члены а различны, то а называется размещением без повторений. Р. можно интерпретировать как Р. частиц, занумерованных числами 1, 2, ..., т, по ячейкам с пометками {1, 2, ..., п) (или {а^ а2> -., «„}). Такая интерпретация позволяет отождествить Р. а с отображением ф множестваZm-{\, 2, ..., т\ во множество Zn = {l, ..., я}, для к-рого y(k) = ik. Множество всех Р. можно разными способами разбивать на классы эквивалентных Р. в зависимости от того, рассматриваются ячейки и (или) частицы как различимые или как неразличимые объекты. При этом два Р. называются эквивалентными, если одно из них может быть получено из другого после соответствующей перенумерации неразличимых частиц и (или) ячеек. РАЗМЕЩЕНИЕ 533
В случае Р. без повторений (что соответствует размещению частиц по ячейкам, в каждую из к-рых может поместиться не более одной частицы) наибольший интерес представляют следующие Р. 1) Р. различимых частиц по различимым ячейкам. В этом случае каждый класс эквивалентности состоит из одного элемента, а число таких классов равно А™=(п)т = п(п-\)..Лп-т + \), т^п. См. также Полиномиальное размещение частиц, Размещение частиц комплектами. Лит.: \\\ Риордан Дж., Введение в комбинаторный анализ, пер. с англ., М., 1963; [2] Сачков В. Н., Комбинаторные методы дискретной математики, М., 1977; [3] Феллер В., Введение в теорию вероятностей и ее приложение, пер. с англ., т. 1, М., 1984. В. А. Ватутин. РАЗМЕЩЕНИЕ случайное (random allocation) - см. Случайное размещение. РАЗМЕЩЕНИЕ ЧАСТИЦ комплектами (group allocation of particles) - схема размещения частиц по ячейкам, в к-рой независимо размещаются группы (комплекты) частиц, причем частицы комплекта размещаются по одной по разным ячейкам. Обычно под схемой Р. ч. комплектами понимается схема с N ячейками, в к-рые бросают независимо п комплектов частиц по s частиц в каждом комплекте; все С^ 534 РАЗМЕЩЕНИЕ способов Р. ч. каждого комплекта считаются равновероятными. В этой схеме главным образом изучались предельные распределения случайных величин \хг (число ячеек, в к-рых оказалось по г частиц), v^ (число комплектов, при к-ром впервые оказались заполненными по крайней мере k ячеек) и ц (максимальное число частиц в ячейке). Предельное поведение этих случайных величин во многом аналогично поведению таких же величин в равновероятной схеме размещения ns частиц по N ячейкам (см. Полиномиальное размещение частиц). Для \xr, v^, ц доказаны предельные теоремы (см. [1]-[4]). Описанная схема Р. ч. комплектами иногда называется равновероятной схемой. Она допускает ряд обобщений, в частности следующие. Размеры комплектов Sj, s2, •■•» sn М0ГУТ быть различными. Для этого случая получен полный спектр предельных теорем для Цф (число пустых ячеек) с оценкой скорости сходимости к предельным распределениям - нормальному и пуассоновско- му (см. [5]). В другом случае размещение комплекта отождествляется со случайным выбором нек-рого подмножества из множества всех ячеек. В этом случае указаны достаточные условия сходимости распределения \хг к пуассоновскому распределению (см. [6]). Лит.: [1J Колчин В. Ф., Севастьянов Б. А., Чистяков В. П., Случайные размещения, М., 1976; [2] Михайлов В. Г., «Матем. сб.», 1980, т. 11, № 2, с. 163-86; [3] Ивченко Г.И., Медведев Ю.И., «Теория вероятн. и ее примен.», 1966, т. 11. в. 4, с. 701-08; [4] Хакимуллин Е. Р., «Матем. заметки», 1981, т. 30, в. 2, с. 277-89; [5] Ватутин В. А., М и хайл о в В. Г., «Теория ве- роятн. и ее нримен.», 1982, т. 27, в. 4, с. 684-92; [6] Михайлов В. Г., там же, 1977, т. 22, в. 1, с. 155-60. В. Г. Михайлов. РАЗМЕЩЕНИЕ ЧАСТИЦ марковское (Markov allocation of particles) - см. Марковское размещение частиц. РАЗМЕЩЕНИЕ ЧАСТИЦ полиномиальное (multinomial group allocation) - см. Полиномиальное размещение частиц. РАЗМЕЩЕНИЕ ЧАСТИЦ равновероятное (equiprobable allocation of particles) - см. Полиномиальное разчеще- ние частиц. РАЗНОСТЕЙ ШКАЛА (difference scale) - см. Измерений теория. РАЗНОСТНАЯ ФУНКЦИЯ МЕТЕОРОЛОГИЧЕСКИХ ПОТЕРЬ (difference function of meteorologic losses) - см. Метеорологических потерь функция. РАЗНОСТНЫЙ ПСЕВДОМОМЕНТ (difference pseudomo- ment) - см. Псевдомомент. РАЗОМКНУТАЯ СИСТЕМА ОБСЛУЖИВАНИЯ (open queueing system) - см. Обслуживания система. РАЗОРЕНИЯ ЗАДАЧА (ruin problem/gambler's ruin problem) - задача, связанная с выходом случайного блуждания из заданного интервала. Пусть Xit X2, ... - независимые одинаково распределенные случайные величины, $„ = *,+ ... + *„, N = N(a, b) = mm{n:Sne(-a, b)} - момент первого выхода последовательности 5t, 52 ... за пределы интервала (-a, b), -a<Q<b. Если Х;-зё0, то всегда Р{ЛГ<оо}=1. Р. з. связана с нахождением вероятностей P{SN^-a}, P{SN>b], а также совместных распределений P{S„eA, N = n), P{SneB,N>n), (*) Лс=(-оо, -fl]U[fe,oo), Ba(-a, b), При п = т такие Р. задают перестановки я-элементного множества. 2) Р. неразличимых частиц по различимым ячейкам. В этом случае Р. <р и у эквивалентны, если существует перестановка а элементов Zm, для к-рой <р(а(/г)) = у(/г) при всех k^Zm. Количество классов эквивалентности равно п\/т\(п-т)\> а каждый класс эквивалентности соответствует сочетанию без повторений из я элементов по т. При отсутствии ограничений на объемы ячеек классы эквивалентных Р. и их количество описываются следующим образом. 3) При Р. различимых частиц по различимым ячейкам каждый класс эквивалентности состоит из одного элемента, а количество классов равно пт. 4) При Р. неразличимых частиц по различимым ячейкам классы эквивалентных Р. описываются так же, как в 2). Количество классов эквивалентности равно (я + т- \)\/т\(п- 1)1, а каждый класс соответствует сочетанию с повторениями из я элементов по т. 5) При Р. различимых частиц по неразличимым ячейкам Р. Ф и \\f эквивалентны, если существует перестановка х элементов А, для к-рой т(<р(/г)) = \|/(/г) при всех keZm. Количество классов эквивалентности совпадает с числом разбиений множества Zm не более чем на я частей и равно Z»"., «»> *>• где о(т, k) - числа Стирлинга 2-го рода. 6) При Р. неразличимых частиц по неразличимым ячейкам Р. <р и у эквивалентны, если найдутся перестановки а и х элементов множеств Zm и А соответственно, для к-рых т(ф(а(6))) = \|/(6) при всех keZm. Количество классов эквивалентности совпадает с числом разбиений Qm(n) натурального числа т не более чем на я слагаемых, к-рое определяется из равенства
и их числовых характеристик. Важность этих исследований обусловлена большим количеством приложений в математич. статистике (Колмогорова критерий, Колмогорова - Смирнова критерий, последовательный анализ), обслуживания систем теории (системы с ограничениями), страховом деле, хранении запасов и т. д. Исторически задача возникла из рассмотрения азартной игры, состоящей из последовательности отдельных партий. В каждой партии, независимо от исхода других, игрок с вероятностью р выигрывает единицу у соперника и с вероятностью q-\-p ее проигрывает. Если X, - выигрыш игрока в j-й партии, то есть Р{ХгЦ=\-Р{Х}=-\} = р, то 5„ - выигрыш игрока за п партий. Пусть начальный капитал игрока составляет а единиц, а его соперника b единиц. Тогда событие {SN^ -а) означает разорение игрока, a {SN^b} - разорение его соперника. Вероятности этих событий: 1-(/У<7>Ь P{SN^-a} = P{S„^-a} = ь а+Ь ,а+Ь '' Р*Я> p = q = \/2 (вторая из этих формул показывает, что даже при p = q= 1/2 игра заканчивается разорением игрока с вероятностью, близкой к единице, если капитал соперника Ь велик по сравнению с а), и ЕЛГ: а а+Ь jAq/рУ q-p q-p \-(q/pY Справедливы формулы P{Su^-a, N = n} = , рФ q, EN = ab, p- q. 2^_ р(п-а)/2д(тн-а)/2у<1-'1 a+b P{N>n} = a-\ „_i nk.nk. Kdk cos sin sin , a+b a+b a+b (4W/»+'V2 va + b-lCOS"SSinS a+b \-2-J~pq с kit a+b Iff kbit ( q sin —- + -i- a+b \ p a/2 kan i a+b Известны также выражения этих вероятностей в терминах биномиальных коэффициентов (см. [3]), там же подробно изложена история получения этих формул, связанная с именами А. Муавра (A. Moivre), H. Бернулли (N. Bernoulli), Ж. Лагранжа (J. Lagrange), П. Лапласа (P. Laplace). Исследование распределений ( * ) в общем случае сопряжено с большими трудностями. Если распределение X.- таково, что Е(е /, X <0) или Е(е >, X >0) являются рациональными функциями (для целочисленных X - рациональными относительно ег ), то известны явные формулы для двойных преобразований над распределениями (*) (см. [4]). Примером такой ситуации является выполнение условий P{X^x)^Ce~<tx, С>0, а>0, х>0, или P{Xx = k) = Cp\~\ С>0, pt^0, /г=1,2, ..., в случае целочисленных Хх. Здесь Р\-\ при р^ = 0. Обращение двойных преобразований с целью получения точных выражений для вероятностей (*) представляет собой сложную аналитич. задачу и проделано только в нек-рых частных ситуациях. В то же время в широких предположениях относительно распределения Х- известны асимптотич. разложения для распределений (*) при а, Ь-><» (см. [1], [2]). Для многих из указанных результатов получены их аналоги при изучении выхода из интервала случайных процессов с непрерывным временем. Лит.: [1] Королюк B.C., «Теория вероятн. и ее примен.», 1962, т. 7, в. 4, с. 393-409; [2] Лотов В. И., там же, 1979, т. 24, в. 3, с. 475-85; в. 4, с. 873-79; [3] Takacs L., «J. Amer. Statist. Assoc», 1969, v. 64, № 327, p. 889-906; [4] К em per man J.H. В., «Ann. Math. Statist.», 1963, v. 34, № 4, p. 1168-93. В. И. Лотов. РАЗРЕЖЕННОЕ МНОЖЕСТВО (thin set) - см. Регулярная точка для множеств. РАЗРЕШАЮЩАЯ И ВЫЧИСЛИТЕЛЬНАЯ ПОЛОСА (resolution bandwidth and calculation bandwidth) не параметрической оценки спектральной плотности - понятия, определяемые расстоянием, на к-ром использованием данной оценки можно различить два пика истинной спектральной плотности. Если спектральное окно Ф^{х) оценки спектральной плотности, полученной для выборки объема N, представлено в виде Ф^х)=АыФ(Аых), Аы>\, Л^-><»; AN/N -> 0 при N -> оо, то величина \/AN дает ширину разрешающей полосы. Величина AN определяет ширину корреляционного окна Ьы(0 = ь(АыО, то есть является отрезком времени, на к-ром функция bN(t) не равна нулю либо существенно отлична от нуля. Имеется много способов определения ширины разрешающей полосы. Иногда она предполагается равной расстоянию между точками, в к-рых спектральное окно принимает половину своего максимального значения. Для сравнения по ширине спектральных окон различной формы введено (см. [4]) понятие нормированной эквивалентной ширины спектрального окна оценки спектральной плотности f^(X) по выборке длины N, определенное формулой W, (Е/уЩ)2 ^ ! С) В таблице приведены величины Wt для употребительных окон различной формы: окно W, спектральное окно равномерного осреднения 1 Ан окно Тькжи- Хэннин- га 1,33 Аы окно Парзе- на 1,86 Аы окно Барт- летта 0,75 As оптимальное окно а2(2ос+ 1) iA*v(2a2 + 2а + 1) Оптимальное окно вместе со своей разрешающей полосой зависит от показателя а, 0 < а ^ 1, входящего в условие Гель- дера и определяющего гладкость спектральной плотности f(X) в рассматриваемой точке X. Расстояние между точками, в к-рых вычисляются оценки спектральной плотности fN (X), называется шириной вычислительной полосы Ь. Если b = 1/Ajy, то при таком выборе шага оценки статистически независимы. Однако если необходимо предотвратить эффект наложения при построении временных функций по обратному преобразованию Фурье (см. Дискретное преобразование Фурье), необходимо выбрать РАЗРЕШАЮЩАЯ 535
b = \/2AN. Такой выбор шага достигается добавлением N нулей к последовательности длины N. Лит.: [1] Журбенко И. Г., Спектральный анализ временных рядов, М., 1982; [2] Отнес Р., Эиоксон Л., Прикладной анализ временных рядов, пер. с англ., М., 1982; [3] Я г лом А. М., Корреляционная теория стационарных случайных функций, Л., 1981; [4] Blackman R., Tukey J., The measurement of power spectra. From the point of view of communications engineering, N. Y., [1959]. И. А. Кожевникова. РАЗРЕШАЮЩАЯ СПОСОБНОСТЬ (resolution) - см Факторный эксперимент. РАЙКОВА ТЕОРЕМА (Raikov theorem): если сумма двух независимых непостоянных случайных величин распределена по закону Пуассона, то и каждое из слагаемых распределено по закону Пуассона (см. [1]). Из Р. т. следует, что распределение Пуассона принадлежит классу /0 (см- Безгранично делимое распределение; разложение). Известны обобщения Р. т. на случайные величины, принимающие значения в локально компактных абелевых группах (см. [2]). Свойства, описываемые Р. т., устойчивы: если сумма независимых случайных величин имеет распределение, близкое к распределению Пуассона, то близки к нему и распределения слагаемых; известны количественные оценки устойчивости (см. [3]). Лит.: II] Райков Д. А., «Докл. АН СССР», 1937, т. 14, № 1, с. 9-12; [2] Рухин А.Л., «Тр. Матем. ин-та АН СССР», 1970, т. 111, с. 52-109; [3] Чистяков Г. П., «Теория вероятн. и ее при- мен», 1986, т. 31, в. 3, с. 433-50. И. В. Островский. РАНГОВ ВЕКТОР (vector of ranks) - векторная статистика /?= (/?j, ..., Rn), построенная по случайному вектору наблюдений X = (Xt, ..., Хп), г-я компонента к-рой R( = R((X), i = 1, 2, ..., п, определяется по правилу ^; = Х/=1 ^[о, o„)(*i-*;■)> где I[Qoo)(x) - индикатор множества [0, +<*>), то есть fl, если *^0, W>U) = {0, если х<0 Статистика /?; называется рангом г-й компоненты Xiy i=l, 2, ..., л, случайного вектора X. Определение Р. в. будет корректным при выполнении следующего условия: P{Rt-R:}-0, i*j, к-рое заведомо выполняется, если распределение вероятностей случайного вектора X задается плотностью р(х)=р(хи ..., хп). В этих условиях из определения Р. в. следует, что статистика R принимает значения в пространстве Ш = {г} всех перестановок r=(r]t r2, ..., гп) чисел 1, 2, ..., л, при этом реализация ri (r-=l, 2, .... л) ранга R{ численно равна количеству компонент вектора X, наблюденные значения к-рых не превосходят реализации г-й компоненты Хг, i=l, 2, ..., л. Пусть Х()=(Х(л1), ..., Х(п„)) - вектор порядковых статистик, построенный по вектору наблюдений X. Тогда пара (Я,Х()) является достаточной статистикой для распределения вектора X, причем сам вектор X однозначно восстанавливается по достаточной статистике (R, Х(-)). Кроме того, при дополнительном предположении о симметричности плотности вероятности р(х) случайного вектора X относительно перестановок аргументов, компоненты R и Х() достаточной статистики (/?, Х(-)) независимы и Р{Я=г}=1/„|, геЯ. В частности, если p{x)=p{xitx2 *п> = П"=1 f^' (1) 536 РАЗРЕШАЮЩАЯ то есть компоненты Хи Х2 Хп случайного вектора X суть независимые, одинаково распределенные случайные величины (/"(■) - плотность вероятности случайных величин X,), то P{R. =*} = 1/л, г = 1,2,...,л,1 P{R, =k, R,:= ти} = 1/л(л-1), i*jt k*m\ 1 tii I (2) i, ;, k, m = 1, 2,..., л, ER( =(n + \)/2,DRi = (л2-0/12, i = 1, 2, ...,n] для любого k- 1, 2, ..., л. При выполнении условия (1) существует совместная плотность вероятности q(xit k), k=\, 2, ..., л, случайных величин X; и R{, к-рая выражается формулой qU- k) = (k-"mn-ky. \F(x,)\k-\\-F{x,)rkf{Xi). (3) где F() - функция распределения случайных величин X;. Из (2) и (3) следует, что условная плотность вероятности q(x\R{ = k) случайной величины X, при условии, что Rt = k (k=\, 2, ..., л), выражается формулой g(x|/t,- = *)-(t_J|t_t),lF(x,)|*-1[l-F(x,)rVU,-) <4) Последняя формула позволяет проследить внутреннюю связь, существующую между вектором наблюдений X, Р. в. R и вектором порядковых статистик Х( \ так как (4) есть не что иное, как плотность вероятности k-и порядковой статистики Х(п д), k- 1, 2, ..., п. Кроме того, из (3) следует, что условное распределение ранга Rt выражается формулой Р<*< = *1*.> = ( J"^,, [ЯХ,)Г| 1 -F(X,)rk. И, наконец, при допущении о существовании момеитон ЕХ, и DX; и выполнении (1) из (2) и (3) следует, что коэффициент корреляции р(Х,, И}) между X; и R{ равен В частности, если X; подчиняется равномерному распределению на отрезке [0, 1], то р(Х„ Ri) = yl(n-\)/(n+\). В случае, если Х- подчиняются нормальному распределению N(a, а2), то р(Х„ Я,) = ^3(л-1)/гс(л+ 1), причем p(Xj, R{) не зависит от параметров нормального закона. Лит.: [1] Hoeffding W., в кн.: Proceedings of the 2-d Berkeley symposium on mathematical statistics and probability, Berk.- Los Ang., 1951, p. 83-92; [2] Гаек Я., Шидак 3., Теория ранговых критериев, пер. с англ., М., 1971; [3] Тарасенко Ф. П., Непараметрическая статистика, Томск, 1976; [4} Voinov V. G., Nikulin M.S., Unbiased estimators and their applications, v. 2 - Multivariate case, Dordrecht, 1996. M. С. Никулин. РАНГОВАЯ КОРРЕЛЯЦИЯ (rank correlation) - статистическая связь между порядковыми случайными переменными, то есть такими переменными, к-рые позволяют упорядочивать статистически обследованные объекты по степени проявления в них анализируемого свойства (см. [1]). В статистич. практике эта связь анализируется на основании последних данных, представленных упорядочениями (ранжировками) стати- стически обследованных объектов но различным свойствам. Таким образом, речь идет о системе понятий и методов, позволяющих измерять и анализировать статистич. связь между двумя или несколькими ранжировками одного и того же множества объектов.
Наиболее распространенная математич. модель, описывающая механизм генерирования таких ранжировок, представляется (в случае парных зависимых) следующей схемой. Пусть (Л-,, Уг), i = l, .... п,- случайные величины из двумерного распределения Fix, у) с маргинальными функциями распределения F{ и F2. Далее, пусть Х{^ ...^Хп - вариационный ряд, построенный по наблюдениям X. Ранговые» меры зависимости измеряют, как правило, согласованность этого возрастающего порядка с порядком наблюдений У. Такие меры нечувствительны к монотонным преобразованиям наблюдений X и У и являются в этом смысле непараметрическими. Выборочные версии большинства таких мер являются статистиками свободных от распределения критериев, предназначенных для проверки гипотезы независ имости. Общая идея построения мер зависимости состоит в следующей. Сначала вводится нек-рый функционал, характеризующий отличие F от произведения FyF2. Затем строится ранговая статистика, являющаяся его оценкой. Распределение этой статистики при выполнении гипотезы независимости не зависит от F. Наиболее известными коэффициентами Р. к. являются коэффициент Спирмена р и коэффициент Кендалла т. Первый из них измеряет зависимость вида 9sp = 3\\[2Fl(x)-\][2F2(y)~\]dF(x, у). Коэффициент Кендалла является оценкой функционала: тА: = 2Р{(Х1-Х2)(У1-У2)>0}-1. Известно также (см. [5]), что линейная комбинация коэффициентов р и т является оценкой следующего функционала достаточно общего вида: rm = \j[F(x,y)-F^x)F2(y)]dF(x,y). Одной из наиболее известных мер зависимости является также мера Хефд и н га (см. [6]): AF = \\ [Fix, y)-F](x)F2(y)]2dF(x, у). Основанный на этой мере критерий независимости Хефдинга способен выявлять не только линейную зависимость. Статистики, являющиеся оценками всех перечисленных и многих других мер зависимости, являются (7-статистиками. Другой подход к построению мер зависимости состоит в применений методов теории линейных ранговых статистик (см. [2]). Соответствующие статистики имеют вид где (Rv S^), i= 1, ..., п,- ранги наблюдений X и У; «*(•), Ь(-) - нек-рые функции от рангов, так наз. метки. Доказана асим- птотич. нормальность таких статистик (см. [4]). Лит.: [1] Айвазян С. А., Енюков И. С, Мешалкин Л. Д., Прикладная статистика: исследование зависимостей, М., 1985; [2] Гаек Я., Шидак 3., Теория ранговых критериев, пер. с англ., М., 1971; [3) Хо л лен дер М., Вулф Д., Непараметрические методы статистики, пер. с англ., М., 1983; [41 Bhuchongkul S., «Ann. Math. Statist.», 1964, v. 35, p. 138-49; [5] Crouse C.F., «Biometrika», 1966, v. 53, № 1, p. 99-108; [6] Hoeffding W., «Ann. Math. Statist.», 1948, v. 19, p. 293-325, 546-57; [7J Joag- Dev К., в кн.: Handbook of Statistics, v. 4, Amst., 1984, p. 79-88. E. В. Кулинская. РАНГОВАЯ СТАТИСТИКА (rank statistic) - статистика, построенная по рангов вектору. Если R = (R^t ..., Rn) - вектор рангов, построенный по случайному вектору наблюдений X-(XV ..., Хп), то любая статистика T = T(R), являющаяся функцией отR, называется ранговой статистикой. Классич. пример Р. с. дает коэффи циент х ранговой корреляции Кендалла между векторами R и 1 = (1, 1, .... 1), к-рый определяется по формуле х = ^Ьу Ъ., siSn (i"»si8n (*i-*;>• В классе всех Р. с. особое положение занимают так наз. линейные Р. с, к-рые определяются следующим образом. Пусть А=||я(г, /)|| - произвольная квадратная матрица порядка п. Тогда статистика называется линейной ранговой статистикой. Напр., коэффициент р ранговой корреляции Спирмена между векторами R и 1, определяемый по формуле является линейной Р. с. Линейные Р. с, как правило, просто устроены в вычислительном отношении и их распределения вероятностей нетрудно находить. Именно поэтому в теории Р. с. играет большую роль понятие проекции Р. с. в семейство линейных Р. с. Если Т- нек-рая Р. с, построенная по случайному вектору Х} относительно распределения вероятностей к-рого высказана гипотеза Я0, то проекцией T-T(R) P. с. Г в семейство линейных Р. с. называют такую линейную Р. с, что Е(Г-Г) минимально при справедливости Я0. Как правило, проекция Т достаточно хорошо аппроксимирует Р. с. Т, и разность Т-Т пренебрежимо мала, когда п -> <*>. При справедливости гипотезы #0, согласно к-рой компоненты Хи ..., Хп случайного вектора X суть независимые случайные величины, проекция Г Р. с. Г определяется по формуле f = —Yn iaU-Ri)-(n-2)ET, (•) где a(i,j) = E{T\Ri = jl Ю\;^п(см. [1]). Существует внутренняя связь между Р.с. тир. Как показано в [1], при справедливости гипотезы Я0 проекция х коэффициента корреляции Кендалла т в семейство линейных Р. с. с точностью до постоянного множителя совпадает с коэффициентом ранговой корреляции Спирмена р, а именно: t = (2/3)(1 + 1/и)р. Из этого равенства следует, что коэффициент корреляции согг (р, т) между р и х равен согг(р, t) = VDt/Dx =2(n + l)/V2n(2n+5), то есть при больших п Р. с. р и т асимптотически эквивалентны (см. [2]). Лит.: [1] Гаек Я., Шидак 3., Теория ранговых критериев, пер. с англ., М., 1971; [2) Kendall M.G., Rank correlation methods, 4 ed., L., 1970. M. С. Никулин. РАНГОВОЙ КОРРЕЛЯЦИИ КОЭФФИЦИЕНТ (rank cor relation coefficient) - величина, измеряющая степень тесноты статистической связи между порядковыми случайными переменными. Ниже дан один из способов построения, парного Р. к. к. Пусть (как в [4]) обобщенный коэффициент корреляции Г вводится следующим образом: г-I-A A/I'll^ где а^~а{Х{, Х;), Ь{--ЫУ{, У;) - нек-рые функции пар наблюдений X и У соответственно. При a^-Xj- X",-, bi}:= Yj:- Уг; получают обычный коэффициент парной корреляции Пирсона. Пусть (/?z-, S{), i-\ п,- ранги случайных величин (X;, У{) при внутривыборочном ранжировании. Коэффициент Спирмена р получают, положив a^^Rj-Ri} РАНГОВОЙ 537
bi- = SJ--Si. Таким образом, р вычисляется как коэффициент парной корреляции с заменой наблюдений их рангами. Коэффициент Кендаллат получают, положив а^-1 при R± < R: и a{j = - 1 при /?, > Rj. Величины Ьц задаются аналогичными соотношениями с заменой рангов R{ на ранги 5", наблюдений У. Для измерения степени тесноты статистич. связи между более чем двумя (ти, где т>2) порядковыми переменными обычно используется множественный вариант Р. к. к.- так наз. коэффициент конкордации (согласованности) Кендалла W(т), выборочная версия к-рого определяется по формуле т2(л3-л) ~' = ! l^ = I ' 2 ) где Ri(j) - ранг i-го наблюдения j-й случайной переменной. Лит.: [1] Кендэл М.Дж., Ранговые корреляции, пер. с англ., М., 1975; [2] Холлендер М., Вульф Д. А., Непараметрические методы статистики, пер. с англ., М., 1983; [3) Л и кет И., Л я га Й., Основные таблицы математической статистики, пер. с чеш., М., 1985; [4] Daniels Н. Е., «Biometrika», 1948, v. 35, р. 416-17. Е. В. Кулинская. РАНГОВЫЙ КРИТЕРИЙ (rank test) - статистический критерий, основанный на ранговой статистике. Напр., критерии Уилкоксона и Манна - Уитни являются ранговыми. Р. к. инвариантны относительно группы G всех преобразований, задаваемых непрерывными строго возрастающими функциями и, следовательно, являются инвариантными относительно изменений параметров сдвига и масштаба. Кроме того, во многих задачах статистич. проверки гипотез наиболее мощные инвариантные критерии хорошо аппроксимируются Р. к. См. также Непараметрический критерий. Лит.:[\\ Гаек Я., Шидак 3., Теория ранговых критериев, пер. с англ., М., 1971; [2) Леман Э., Проверка статистических гипотез, пер. с англ., 2 изд., М., 1979. М. С. Никулин. РАНДОМИЗАЦИИ КРИТЕРИЙ, перестановок к р и - терий (randomization/permutation test), - статистический критерий у предназначенный для проверки гипотезы о симметричности плотности вероятности наблюдаемого случайного вектора относительно перестановки ее аргументов. Пусть по реализации x = (x]t ..., хп) случайного вектора X~(XV ..., Хп) надлежит проверить гипотезу #0, согласно к-рой неизвестная плотность вероятности р(х)-р(х^, ..., хп) случайного вектора X симметрична относительно перестановок своих аргументов, ToecTbp(*t, ..., хп) -р(хг , ..., xf ), где (?*1» ..., г„) - вектор, получающийся в результате произвольной перестановки координат вектора (1, 2, ..., я). Далее, пусть X и R - вектор порядковых статистик и вектор рангов соответственно, построенные по вектору наблюдений X, и пусть Т = Т(Х , R) такая статистика, что Е{ЧЧХ(), Я)|Х()} = а почти всюду для нек-рого а е (0; 1). В таком случае статистич. критерий с критич. функцией <р, связанной со статистикой *Р соотношением ф(Х) = Т(Х( , R), называется критерием рандомизации. В силу того что X является полной достаточной статистикой, при справедливости гипотезы #0 семейство подобных критериев совпадает с семейством критериев перестановок. Лит.: [1) Гаек Я., Шидак 3., Теория ранговых критериев, пер. с англ., М., 1971; [2] Леман Э., Проверка статистических гипотез, пер. с англ., 2 изд., М., 1979. М. С. Никулин. РАНДОМИЗАЦИЯ (randomization) - 1) одна из процедур, используемых в статистическом выводе и состоящих в проведении дополнительных независимых экспериментов для вынесения решений в рандомизированных статистических процедурах (об остановке статистического эксперимента, для выбора 538 РАНГОВЫЙ случайной величины, подлежащей наблюдению на следующем шаге статистического эксперимента, для принятия окончательного решения об исследуемом объекте и т.п.). В качестве случайного механизма, используемого в процедуре Р., обычно применяют датчики или таблицы случайных чисел (см. Статистических решений теория). 2) Основа для статистич. выводов при планировании статистич. экспериментов по изучению эффективности воздействия (способов обработки). Состоит в сопоставлении «наудачу» способов обработки с экспериментальными единицами. См., напр., Дисперсионный анализ. Лит.: [1] Леман Э., Проверка статистических гипотез, пер. с англ., 2 изд., М., 1979; [2] Fisher R. A., The design of experiments, Edin. - L., 1935. А. В. Бернштейн, И. И. Воподин. РАНДОМИЗАЦИЯ игры (randomization of a game) - см. Игра двух лиц. РАНДОМИЗИРОВАННАЯ ИГРА (randomized game) - см. Статистическая игра. РАНДОМИЗИРОВАННАЯ ОЦЕНКА (randomized estimator) - рандомизированная решающая функция в статистической проблеме оценивания. Р. о. определяется заданием распределения <р(*|лг) (здесь х- результат статистич. эксперимента) на измеримом пространстве оцениваемого параметра 8 и требует проведения отдельного дополнительного наблюдения случайной величины с распределением ф(|х); оценкой 8 служит результат этого наблюдения. В отличие от задач проверки гипотез в статистич. проблеме оценивания, оптимальные оценки являются, как правило, нерандомизированными решающими функциями. Лит.: [1] За кс Ш., Теория статистических выводов, пер. с англ., М., 1975; [21 Hodges J., Lehman E., «Ann. Math. Statist», 1950, v. 21, № 2, p. 182-97. Я. H. Володин. РАНДОМИЗИРОВАННАЯ РЕШАЮЩАЯ ФУНКЦИЯ (randomized decision function) - см. Статистических реше ний теория. РАНДОМИЗИРОВАННАЯ СТРАТЕГИЯ, смешанная стратегия [randomized (mixed) strategy],- правило выбора стратегий в игре двух лиц (или в статистической игре), состоящее в том, что стратегия выбирается случайно (с заданным распределением) из множества всех возможных «чистых стратегий». Выбранное распределение и представляет собой Р. с. А. А. Бороокоа. РАНДОМИЗИРОВАННОЕ РЕШАЮЩЕЕ ПРАВИЛО (randomized decision rule) - см. Статистическая игра. РАНДОМИЗИРОВАННЫЙ КРИТЕРИЙ (randomized test) - статистический критерий, критическая функция к-рого хотя бы в нек-рых точках выборочного пространства принимает значения, отличные от 0 и 1. Процедура проверки гипотез посредством Р. к. включает рандомизацию - проведение дополнительного случайного испытания, в зависимости от исхода к-рого принимается решение принять или отвергнуть гипотезу. См. Статистических гипотез проверка. Д. М. Чибисов. РАНДОМИЗИРОВАННЫЙ ПЛАН (randomized design) эксперимента -см. Дисперсионный анализ. РАНДОМИЗИРОВАННЫХ БЛОКОВ ПЛАН (randomized block design) - блочный план, в к-ром порядок проведения измерений над образцами в блоке случаен. М. Б. Малютоа. РАНЖИРОВКА (ranking) - см. Бинарных отношений ста тистика, Ранговая корреляция. РАО КРИТЕРИЙ (Rao test) - статистический критерий в задаче различения сложных статистических гипотез. Пусть X = (Xj, ..., Хп) - повторная выборка из распределения Рш, зависящего от неизвестного параметра сое ft и обладающего плотностью р(х; со) относительно нек-рой а-конечной меры.
По этой выборке проверяется нулевая гипотеза H0:coeQ0 против альтернативной гипотезы W^coeQj, где Ц> и Qt - непустые непересекающиеся подмножества Q. Р. к. основан на статистике ( i Л' \ ^л Э1п я(Х,-; со) v ' " ) и отвергает гипотезу #0 при больших значениях статистики (*); здесь со„ - оценка максимального правдоподобия, вычисленная по выборке X в условиях нулевой гипотезы (то есть при условии сое£20), а 1(со) - информационная матрица Фишера семейства Рш. Р. к. асимптотически эквивалентен отношения правдоподобия критерию, Вальда критерию, статистическому критерию С(а) и, следовательно, обладает соответствующими асимптотич. оптимальными свойствами (является асимптотически подобным критерием). Лит.: [1] Rao С. R., «Proc. Cambr. Philos. Soc», 1948, v. 44, № 1, p. 50-57; [2] Pao С. Р., Линейные статистические методы и их применения, пер. с англ., М., 1968. А. В. Бернштейн. РАО - БЛЭКУЭЛЛА ТЕОРЕМА (Rao - Black well theorem) - см. Достаточная статистика. РАО - БЛЭКУЭЛЛА - КОЛМОГОРОВА ТЕОРЕМА (Rao - Blackwell - Kolmogorov theorem) - утверждение из теории статистического оценивания, на основе к-рого построен метод улучшения несмещенных статистических оценок. Пусть X - случайная величина, принимающая значения в выборочном пространстве (£, &, Рб), 0е0, причем семейство вероятностных распределений {Ре, 0 6 0} обладает достаточной статистикой Т = Т(Х), и пусть ф = ф(Х) - нек-рая векторная статистика с конечной матрицей вторых моментов. В .этом случае математич. ожидание Ев{ф} статистики ф существует и, кроме того, условное математич. ожидание ф* = Ев{ф|7'} является несмещенной оценкой для Ев{ф}, то есть Ее{ф*} = Ее{Ее{ф]Г}} = Ее{ф}. В этих условиях Р. - Б. - К. т. утверждает, что квадратичный риск статистики ф* не превосходит квадратичного риска статистики ф равномерно по всем 0 6 0, то есть для любого вектора г, имеющего ту же размерность, что и статистика ф, выполняется неравенство гЕв{(ф-Ев{ф})т(ф-Ев{ф})}гт> ?гЕе{(ф* - Ее{ф*})т(ф* - Ее{ф*})}гт для всех 0 € 0. В частности, когда ф является одномерной статистикой, то при любом 0 е 0 дисперсия De{cp*} статистики Ф* не превосходит дисперсии De{cp} статистики ф. В самом общем случае Р.- Б.- К. т. утверждает, что операция осреднения по достаточной статистике не приводит к увеличению риска относительно произвольной выпуклой функции потерь, откуда следует, что хорошие статистич. оценки нужно искать только в терминах достаточных статистик, то есть в классе необходимых статистик. В случае, когда семейство {Ре} является полным, то есть когда единственной несмещенной оценкой нуля является функция, почти всюду равная нулю, несмещенная оценка с равномерно минимальным риском, получаемая с помощью Р. - Б.- К. т., является единственной. Таким образом, Р. - Б. - К. т. дает рецепт построения наилучших несмещенных оценок: нужно взять любую несмещенную оценку, а затем осреднить ее по достаточной статистике. Лит.: [11 Колмогоров А. Н., «Изв. АН СССР. Сер. матем.», 19.50, т. 14, № 4, с. 303-26; [2] Pao C.P., Линейные статистические методы и их применения, пер. с англ., М., 1968; [3) Ван дер Варден Б. Л., Математическая статистика, пер. с нем., М., 1960; [4] Blackwell D., «Ann. Math. Statist.», 1947, v. 18, p. 105-10; [5] Voinov V.G., Nikulin M.S., Unbiased estimators and their applications, v. 1-2, Dordrecht, 1993-96. M. С. Никулин. РАО - КРАМЕРА НЕРАВЕНСТВО (Rao - Cramer inequality), неравенство Фреше, неравенство информации,- неравенство, устанавливающее нижнюю границу риска в задаче статистического оценивания неизвестного параметра относительно квадратичной функции потерь. См. Крамера - Рао неравенство. РАО - КРАМЕРА - ВОЛЬФОВИЦА НЕРАВЕНСТВО (Rao - Cramer - Wolfowitz inequality) - см. Последовательное оценивание. РАСПОЗНАВАНИЕ ОБРАЗОВ (pattern recognition) - процедура, позволяющая по совокупности значений непосредственно измеряемых на исследуемом объекте характеристик (признаков, переменных) определить, к какому классу из нек-рого множества классов (образов) относится данный объект. Р. о. проводится с помощью решающего правила, осуществляющего отображение многомерных наблюдений на множество номеров или наименований классов (образов). И. С. Енюков. РАСПРЕДЕЛЕНИЕ (distribution) - то же, что вероятностная мера', см. также Распределение вероятностей. РАСПРЕДЕЛЕНИЕ вероятностей (probability distribution) - одно из основных понятий теории вероятностей и математической статистики. При современном подходе в качестве математич. модели изучаемого случайного явления берется соответствующее вероятностное пространство {Q, .< Р}, где Q - множество элементарных событий, .</- выделенная в Q о-алгебра подмножеств, Р - определенная на d мера со свойством P(Q) = 1 {вероятностная мера). Любую такую меру на {Q, л/} и называют распределением вероятностей (см. [1]). Однако это определение, являющееся основой аксиоматики А. Н. Колмогорова (1933), при последующем развитии теории оказалось чрезмерно общим и было, с целью исключения нек-рых «патологических» случаев, заменено более ограничительным, напр. требованием «совершенности» вероятностной меры Р (см. [2], особенно добавление к англ. переводу в [3] этой книги). От Р. вероятностей в функциональных пространствах требуют обычно выполнения нек-рого свойства регулярности, формулируемого как сепарабельность, но допускающего формулировку и в других терминах (см. Сепарабельный процесс, а также [4]). Р. вероятностей, встречающиеся в большинстве конкретных задач теории вероятностей и математич. статистики, весьма немногочисленны. Все они давно известны и связаны с основными вероятностными схемами [5]. Они описываются или вероятностями отдельных значений (см. Дискретное распределение), или плотностями вероятности (см. Непрерывное распределение). В необходимых случаях для них составлены таблицы (см. [6]). Из этих основных Р. вероятностей одни связаны с повторениями независимых испытаний (см. Биномиальное распределение, Геометрическое распределение, Полиномиальное распределение), а другие - с соответствующими этой вероятностной схеме предельными закономерностями, возникающими при неограниченном возрастании числа испытаний (см. Нормальное распределение, Пуассона распределение, Арксинуса распределение). Однако эти предельные Р. могут возникать и как точные: в теории случайных процессов (см. Винеровский процесс, Пуассоновский процесс) или как решения уравнений, возникающих в так наз. характеризационных теоремах (см. также Нормальное распределение, Показательное рас- РАСПРЕДЕЛЕНИЕ 539
пределение). Равномерное распределение вероятностей, принимаемое обычно как математич. выражение равновозможно- сти соответствующих исходов опыта, также может быть получено как предельное (напр., при приведении по какому-то модулю суммы большого числа случайных величин или каких-либо других случайных величин с достаточно гладкими «расплывающимися» Р.). Из упомянутых выше основных Р. вероятностей получают другие Р. вероятностей с помощью функциональных преобразований рассматриваемых случайных величин. Так, напр., в математич. статистике из нормально распределенных случайных величин получают величины, имеющие хи-квадрат распределение, нецентральное хи-квад- рат распределение, Стьюдента распределение, Фишера F-распределение и др. Важные классы Р. были открыты в связи с развитием асимптотич. методов теории вероятностей и математич. статистики (см. Предельные теоремы, Устойчивое распределение, Безгранично делимое распределение, Омега-квадрат распределение) . С теоретической и прикладной точек зрения важно умение определить понятие близости Р. Совокупность всех Р. вероятностей на {ft, <*/} может быть различными способами превращена в топологич. пространство. При этом основную роль играет слабая сходимость Р. вероятностей (см. Сходимость распределений). В одномерном и конечномерном случаях основным средством изучения сходимости Р. вероятностей является аппарат характеристических функций. Часто полное описание Р. вероятностей (напр., при помощи плотности вероятности или распределения функции) заменяют заданием небольшого числа характеристик. Из этих характеристик наиболее употребительны математическое ожидание (среднее значение), дисперсия, медиана и моменты в одномерном случае. О числовых характеристиках многомерных Р. см. в ст. Корреляция, Регрессия. Статистич. аналогом Р. вероятностей является эмпирическое распределение. Эмпирич. Р. и его характеристики могут быть использованы для приближенного представления теоре- тич. Р. и его характеристик (см. Статистическая оценка). О способах измерения степени согласия эмпирич. Р. с гипотетич. Р. см. в ст. Статистических гипотез проверка. Лит.: [1] Колмогоров АН., Основные понятия теории вероятностей, 2 изд., М., 1974; [2] Гнеденко Б.В., Колмогоров А. Н., Предельные распределения для сумм независимых случайных величин, М.- Л., 1949; [3] их же, Limit distributions for sums of independent random variables, Camb. (Mass.), 1954; [4] Прохоров Ю. В., в кн.: Ргос. fourth Berkeley symposium on mathematical statistics and probability, v. 2, Berk.- Los Ang., 1961, p. 403-19; 15] Феллер В., Введение в теорию вероятностей и ее приложения, пер. с англ., т. 1-2, М., 1984; [6] Большее Л. Н., Смирнов Н.В., Таблицы математической статистики, 3 изд., М., 1983; [7] Гнеденко Б. В., Курс теории вероятностей, 6 изд., М., 1988; [8] Крамер Г., Математические методы статистики, пер. с англ., 2 изд., М.р 1975; [9] Неве Ж., Математические основы теории вероятностей, пер. с франц., М., 1969. ю. В. Прохоров. РАСПРЕДЕЛЕНИЕ вероятностей на однородном пространстве (probability distribution on a homogeneous space) - вероятностная мера на топологическом пространстве М, на к-ром непрерывно и транзитивно действует нек-рая топологическая группа G. Если Н - стабилизатор нек-рой фиксированной точки х0еМ, то есть H = {g eG:gx0 = x0}, то М топологически изоморфно пространству G/H левых смежных классов группы G по замкнутой подгруппе Я. Всюду далее рассматривается случай, когда G - группа Ли, Н - ее компактная подгруппа; тогда однородное пространство М * G/H естественным образом наделяется структурой аналитич. многообразия. Каждой 540 РАСПРЕДЕЛЕНИЕ мере из множества Ж (М) борелевских вероятностных мер на пространстве М можно взаимно однозначно сопоставить вероятностную меру из множества ж (G/H) всех борелевских вероятностных мер на группе G, к-рые инвариантны относительно правого действия группы Н. Из Ж (М) выделяется подкласс Ж^(М) всех вероятностных мер на М, к-рые инвариантны также и относительно левого действия группы Н на М (или, что эквивалентно, на G). Для произвольных точки х е М и меры у,еЖ0(М) определим меру \ix по правилу \LX(E) = \i(g~* E), где д- элемент группы G, переводящий точку х0 в точку х. Мера ц^ не зависит от конкретного выбора элемента д в силу левой инвариантности меры \i. Для двух мер (X и чеж1(М) можно определить свертку u»v по правилу ViME) = \Mvx(EMdx), Е<^М. Определенная таким образом мера u»v опять будет элементом Ж0(М). Относительно операции свертки множество Ж0(М) будет топологич. полугруппой с единицей 8Х , где 6Х - вырожденное в точке х0 распределение, и топологией слабой сходимости (см. [1]). Всюду далее G - некомпактная связная полупросгая группа Ли с конечным центром, Н = К- ее максимальная компактная подгруппа. Функция ф на группе G называется JC-сферической (или просто сферической), если ty(gk) = ty(kg) = <р(д), д е G, ktK. Таким образом, ф фактически определена на М. Сферич. функция ф называется эле ментарной, если jK y(xky)(uK(dk) = ф(*)ф(#), где щ - нормированная мера Хаара на группе К и ф(е)= 1. Пусть {ф^, А.еЛ} - нек-рое множество элементарных сферич. функций, к-рые являются, кроме того, положительно определенными (подробнее см. в [2]). Каждая такая функция обладает свойствами ф^(е) = 1, Фх(<7 ) = Фх(<7)> |фх(#)| ^ 1 • Преобразованием Фурье меры [1еЖ0(М) называется функция ДШ=|мФхСгН1(</*), ХеЛ. Функция ДШ, ^,ёЛ, обладает всеми свойствами обычной харак- теристич. функции в IP . А именно: l)u*v(>.) = Д(А,)Ф(А,),Х е Л; 2) если £(A,)=v(A.), А,еЛ, то |х = v; 3) \i„ слабо сходится к \1, где |1п, я^1, и цеМ0(М) тогда и только тогда, когда ДпШ-»Ди), л-*<*>, ХеА. Так как для мер из Ж0(М) определена операция свертки, то понятие безгранично делимого распределения определяется обычным образом, аналогично тому, как это сделано на группе (см. Безгранично делимое распределение на группе). Если Ug^q(M) безгранично делимо, то ДШ#0 для всех ХеА. Множество всех безгранично делимых распределений из ж\>(М) слабо замкнуто. Имеет место полный аналог Леей - Хинчина канонического представления для характери- стич. функции безгранично делимого распределения.1 Если (Хе^о(Л/) безгранично делимо, то его характеристич. функция допускает представление цШ = ехр{р0Ш-_[и>о [1-ф,(х)]Шх)}, где Pq(X) - собственное значение, соответствующее собственной функции ф^ нек-рого эллиптич. дифференциального оператора D 2-го порядка на М, инвариантного относительно действия подгруппы К, и к-рый обращает константы в нуль, L - сферич. мера на М: \м \х\Ч\+\х\2ГхШх)<»,
Ul - расстояние от г0 до х в М, индуцированное с помощью формы Картана - Киллинга в G (см. [2]). См. также Гипергруппа. Лит.: [I] Hunt G. A., «Trans. Amer. Math. Soc», 1956, v. 81, № 2, p. 264-93; [2] Gangolli R., «Acta math.», 1964, t. Ill, p. 213-46. Ю. С. Хохлов. РАСПРЕДЕЛЕНИЕ квазисимметричное (quasi-symmetric distribution) ~ см. Квазисимметричное распределение. РАСПРЕДЕЛЕНИЕ случайного замкнутого множества (distribution of a random closed set) - см. Случайное множество. РАСПРЕДЕЛЕНИЕ случайного множества (distribution of a random set) - см. Сопровождающий функционал. РАСПРЕДЕЛЕНИЕ случайной матрицы (distribution of a random matrix) - см. Случайная матрица. РАСПРЕДЕЛЕНИЕ собственных чисел и собственных векторов эмпирической ковариационной матрицы (distribution of eigenvalues and eigenvectors of empirical covariance matrix) - совместная распределения функция собственных чисел Х^ ...^Хт и соответствующих им собственных векторов 81( ..., Вт, 8t, эмпирической ковариационной матрицы У" х- полученной по независимым наблюдениям xit i=\, ..., п, п>т, над случайным w-мерным вектором, распределенным по нормальному закону N(a, I). Эти совместные функции распределения абсолютно непрерывны относительно условной меры Хаара, заданной на группе ортогональных матриц U т-ю порядка при условии, что Uu>0, г=\, ..., т, и меры Лебега, ладанной на множестве у^ > ... >уп>0 с плотностью ^хГ/2п:Л^М¥)Г- Лит.: \\\ Гирко В. Л., Многомерный статистический анализ, К., 19Й8. В. Л. Гирко. РАСПРЕДЕЛЕНИЕ функции от случайных величин (distribution of functions of random variables) - распределение случайной величины нида Y = g(X*l> ..., Хп), где Xv ..., Хп - случайные величины на вероятностном пространстве (Q, Ч Р) со значениями в фазовых пространствах (Q^, ^), а функция g измерима относительно произведения а-алгебр ^: если g принимает значения п пространстве 4* с нек-рой а-ал- геброй .«Ар, то при Ае^у множество {(x]t ..., xn):g(x]t ..., хп) е /1} принадлежит а-алгебре j^x ... х^п. В этих условиях У является случайной величиной на вероятностном пространстве (Q, М, Р) со значениями в фазовом пространстве (4*, ^). Для функций от одной случайной величины Y = g(X), где д(и) - монотонная и непрерывная функция, функцию P. FyCr) = P{Y <x) можно выразить через функцию Р. Fx(x) = Р{Х <х) случайной величины X: ry(x) = P{g(Y)<x} = Fx(g-\x)). Если случайная величина X имеет непрерывную монотонную функцию P. Fx(x)y то Y=Fx(x) равномерно распределена на (0. 1). Если задана случайная величина X, равномерно распределенная на (0, 1), и требуется построить случайную величину У с заданной монотонной и непрерывной функцией P. FY(x), то следует положить У = Fy\x). с я Шоргин. F-РАСПРЕДЕЛЕНИЕ (F-distribution) - см. Фишера F-pac- пределение. ^-РАСПРЕДЕЛЕНИЕ (^-distribution) - см. Стьюдента распределение. ^-РАСПРЕДЕЛЕНИЕ (^-distribution) - см. Хотеллинга Т -распределение. (/-РАСПРЕДЕЛЕНИЕ ({/-distribution) - см. Уилксараспределение. VV-РАСПРЕДЕЛЕНИЕ (W-distribution) - см. Уишарта распределение. 2-РАСПРЕДЕЛЕНИЕ (^-distribution) - см. Фишера г-рас- пределение. В-РАСПРЕДЕЛЕНИЕ (B-distribution) - см. Бета-распределение. Г-РАСПРЕДЕЛЕНИЕ (Г-distribution) - см. Гамма-распределение. Х-РАСПРЕДЕЛЕНИЕ (x-distribution) - см. Хи-распреде- ление. Х2-РАСПРЕДЕЛЕНИЕ (x2-distribution) - см. Хи-квадрат распределение. «^-РАСПРЕДЕЛЕНИЕ (co2-distribution) - см. Омега-квадрат распределение. РАСПРЕДЕЛЕНИЙ КОМПОЗИЦИЯ (composition of distributions) - см. Свертка. РАСПРЕДЕЛЕНИЙ СВЕРТКА (convolution of distributions) - см. Свертка. РАСПРЕДЕЛЕНИЙ СМЕСЬ (muxture of distributions) - распределение вероятностей на IR1 вида ЯА) = /Рм(Л)у№), (*) где v и Рм - нек-рые распределения на И? , причем Ри(А) является измеримой функцией для любого борелевского множества А. Аналогично выглядят плотность и характеристич. функция, соответствующие Р (см. [1], [2]). Р. с. называется дискретной, если V- дискретная мера. Определение (*) обобщается на случаи пространств общего вида, на к-рых задаются меры Ри и значения параметра и. Р. с. появляются в моделях суммирования случайного числа случайных величин (см. Переноса теорема) и в моделях рандомизации. Лит.: [1] Лукач Е., Характеристические функции, пер. с англ., М., 1979; [21 Robbins H., «Ann. Math. Statist.», 1948, v. 19, p. 360-69. С. Н. Антонов. РАСПРЕДЕЛЕНИЙ СХОДИМОСТЬ (convergence of distributions) ~ см. Сходимость распределений. РАСПРЕДЕЛЕНИЙ ТИП (distribution type) - совокупность распределений вероятностей случайных величин, получаемых одна из другой каким-либо линейным преобразованием. Точное определение в одномерном случае таково: распределения вероятностей случайных величин Хх и Х2 называют однотипными, если существуют постоянные А и В > 0 такие, что распределения величин Х2 и ВХХ +А совпадают. Соответствующие функции распределения связаны при этом соотношением F2(x) = Fi((x-A)/B) = Fi(bx + a), где Ь=\/В и а= -А/В. Таким образом, множество функций распределения разбивается на попарно непересекающиеся типы. При этом, напр., все нормальные распределения образуют один тип, все равномерные распределения также образуют один тип. РАСПРЕДЕЛЕНИЙ 541
Понятие типа широко используют в предельных теоремах теории вероятностей. Распределение сумм Sn независимых случайных величин часто «неограниченно расплываются» при я-><» и сходимость к предельному распределению (напр., к нормальному) оказывается возможной только после линейной «нормировки», то есть для сумм (Sn - an)/bn, где ап и Ъп> О - нек-рые константы, Ь„->°° при л->°°. При этом если для каких-либо случайных величин Хп распределения величин (Хп - ап)/Ьп и (Хп - а'п)/Ь'п сходятся к невырожденным предельным распределениям, то эти последние обязательно однотипны. Поэтому можно дать следующее определение сходимости типов (А. Я. Хинчин, 1938). Пусть 74/0- тип, к-рому принадлежит функция распределения F (из дальнейшего изложения исключается вырожденный тип, то есть тип, к-рому принадлежат вырожденные распределения). Говорят, что последовательность типов Тп сходится к типу Г, если существует последовательность функций распределения FneTn, сходящаяся (слабо) к функции распределения Fe7\ Топологизиро- ванное таким образом множество типов есть хаусдорфово нерегулярное пространство и, следовательно, неметризуемо (В. Деблин, W. Doeblin, 1939). Пусть теперь Sn - суммы независимых одинаково распределенных случайных величин и Fn - соответствующие функции распределения. Тогда класс типов, предельных для T(Fn)} совпадает с классом всех устойчивых типов, то есть таких типов, что из Fx e T и F2 e Г вытекает, что свертка /^ и F2 принадлежит Т (иными словами, сумма двух независимых случайных величин с распределениями типа Г снова имеет тип Г; см. Устойчивое распределение). Понятие Р. т. может быть распространено на многомерный случай. Однако это распространение неоднозначно. Выбирая какую-либо подгруппу G полной группы матриц, можно получить соответствующее понятие Р. т. Случайные векторы Xj и Х2 со значениями из 1РП называют G-однотипными, если существует такое преобразование ge G, что Х2 и дХ\ имеют одно и то же распределение. Соответственно можно ввести понятие G-устойчивости Р. т. По отношению к полной группе матриц устойчивы только нормальные распределения (Г. Н. Сакович, 1960). Лит.: [1] Гнеденко Б. В., Колмогоров А.Н., Предельные распределения для сумм независимых случайных величин, М.-Л., 1949. Ю.В. Прохоров. РАСПРЕДЕЛЕНИЯ ЗАКОН (distribution law) - удобный описательный термин, могущий означать, в зависимости от контекста, распределение вероятностей (напр., какой-либо случайной величины), или соответствующую распределения функцию, или плотность вероятности. /о. В. Прохоров. РАСПРЕДЕЛЕНИЯ ИНДЕКС (index of a distribution) - см. Индекс случайной величины. РАСПРЕДЕЛЕНИЯ ПЛОТНОСТЬ; асимптотическая формула (asymptotic formulae for distribution density) - см. Распределения функция; асимптотические формулы. РАСПРЕДЕЛЕНИЯ РАЗБРОС (dispersion of a distribution) - см. Разброс случайной величины. РАСПРЕДЕЛЕНИЯ ФУНКЦИЯ; асимптотические формулы (asymptotic formulae for a distribution function) - асимптотические разложения распределения функции (плотности распределения) случайной величины по степеням малого параметра, главным членом к-рых является функция распределения (плотность распределения) соответствующего предельного закона. Пусть случайные величины Хр Х2, -.., Хп независимы и одинаково распределены, Е|Х11 <<*> и характе- 542 РАСПРЕДЕЛЕНИЯ ристич. функция \\fit) величины Х{ абсолютно интегрируема. Тогда для плотности распределения нормированной суммы при п -> оо справедливо разложение равномерно по х. Если, кроме того, lim |\|/(0|<1, то для Р. ф. Fn(x) величины Sn при п —> <*> справедливо разложение ^(я) = ФЫ + ФЫ£;=3 "-<1/2)*+10*(*> + °(»Ч1/2)г+'> равномерно по х. Здесь т = ЕХи a =DXj, cp(*) = Ф'СО, Ф(х) - функция стандартного нормального распределения, Р^(х) и Qk(x) - многочлены, зависящие от ц1 ц^, п/ = Е(Х1-ги)/, ip(x)Pk(x)=~~ip(x)Qk(x). В частности, Q,W =-i% (1 -д:2), у4(.т) JlAZ^p. (3дс_ дЗ) + 6а' 24а 2 + -^-(-;гЧ10*3-15;О. 72аь Асимптотич. формулы для асимптотически пирсоновских распределений построены в [2]. Лит.: 11] Фрл пер В.. Введение в теорию вероятностей и ее приложения, т. 2, пер. с ажл , М., 1984; |2] Ьолылев Л. II., «Теория вероятн. и ее примен.», 1963, т. 8, в. 2, о 129-55; [3] Справочник по специальным функциям, пер с англ., №.. 1979. В. И. Нагуропа. РАСПРЕДЕЛЕНИЯ ФУНКЦИЯ случайной величи- н ы (distribution function of a random variable/cumulative distribution function, d. f., c.d.f.) Х- фуикцяя действительного переменного .г, принимающая при каждом .v .значение, I равное вероятности неравенства Х<.г. ! Каждая Р. ф. Fix) обладает следующими свойствами* 1) FU'XKr") при х'<х"\ I 2) Fix) непрерывна слева при каждом х; I 3) lim F(.t) = 0, Ism F(x) = 1 x -> - «*> \-> ** I (иногда Р.ф. определяют как вероятность неравенства А'^.г, I и тогда она оказывается непрерывной справа,). | В математич. анализе Р. ф. называют любую функцию, для I к-рой имеют место свойстза 1)-3) Существует взаимно однозначное соответствие между распределениями вероятностей PF на а-алгебре Л борелевских подмножеств числовой прямой R и Р. ф. Это соответствие определяется формулой: для любого интервала [а, Ь^ | pF([a, b)) = Fib)-F(<rt. Каждая функция F, обладающая свойствами 1) - 3). может рассматриваться как Р.ф. нек-роЙ случайной величины .Y I [напр.. случайной величины Х(х)~х, заданной на вероятно стном пространстве (if? , 30, Pf.)\. Всякая Р.ф. может быть однознячно представлена в ыще | суммы Fix) = a^F^x) + a2F7(x) -f- u3F3(x)y где ax> a2, a-6 - неотрицательные числа, сумма к-рых равна 1, a F\, F2, F3 ~~ ^- Ф- такие» что /](■*) абсолютно непрерывна: FM)=\X^p{?.)d?, F2(x) - «ступенчатая функция»:
где xk - точки скачков F(x), a pk > 0 - величины этих скачков; F3(x) - «сингулярная» компонента (непрерывная функция, производная к-рой почти всюду равна нулю). Пример. Пусть Xk, k=\, 2, 3, ...,— бесконечная последовательность независимых случайных величин, принимающих значения 1 и 0 с вероятностями 0<pk^\/2 и qk-\ - pk соответственно. Пусть v_V°° JLt A~Lk=\ 2*' тогда: 1) если pk-qk-\j2 при всех k, то X имеет абсолютно непрерывную Р. ф. (с р(х) = 1 для 0 ^ х ^ 1, то есть X равномерно распределена на [0, 1]); 2) если Y~ Pk<00< T0 X имеет «ступенчатую» Р. ф. (она имеот скачки во всех двоично-рациональных точках отрезка [0,Ц); 3) если Y~ Pk~°°> Pk~*® ПРИ ^->°°. то X имеет «сингулярную» Р. ф. Эгот пример является иллюстрацией одной теоремы П. Леей (P. Levy), в соответствии с к-рой предел бесконечной свертки дискретных Р. ф. может содержать только одну из указанных выше компонент. «Расстояние» между распределениями Р и Q на числовой прямой часто определяют в терминах соответствующих Р. ф. F и S, полагая, напр., р,(Р, Q) = sup \F(x)-S(x)\ X ИЛИ р2(Р, Q) = var(F(*)-S(*)) (см Сходимость распределений, Леей метрика, Характеристическая функция). Р. ф. наиболее употребительных распределений вероятностей (напр., нормального, биномиального, пуассоновского распределения) табулированы. Для проверки гипотез о Р. ф. F по результатам независимых наблюдений используют так или иначе измеренное отклонение F ог эмнирич. Р. ф. (см. Колмогорова критерий, Колмогорова - Смирнова критерий, Крамера - Мизеса критерий). Понятие Р. ф. естественным образом распространяется на многомерный случай, но многомерные Р. ф. значительно менее употребительны, чем одномерные. О приближенном представлении Р. ф. см. в ст. Грама - Шарлье ряд, Эджворта - Крамера разложение, Предельные теоремы. Лит.: [1] Крамер Г., Случайные величины и распределения вероятностей, пер. с англ., М., 1947; [2] его же, Математические методы статистики, пер. с англ., 2 изд., М., 1975; [3] Феллер В., Введение в теорию вероятностей и ее приложения, пер. с англ., т. 1-2, М., 1984; [4] Большее Л. Н., Смирнов Н.В., Таблицы математической статистики. 3 изд., М., 1983. Ю. В. Прохоров. РАСПРЕДЕЛЕНИЯ ХВОСТ (tail of a distribution) - см. Хвост распределения. РАСПРЕДЕЛЕНИЯ ЦЕНТР (centre of a distribution) - см. Центр случайной величины. РАСПРЕДЕЛЕННЫХ ЗАПАЗДЫВАНИЙ МОДЕЛЬ (distributed lags model), распределенных лагов модель,- распространенная, особенно в экономике, линейная модель, связывающая временные ряды Z(n) = £J=Q b(j)y(n -;) + х(п), (*) где коэффициенты b(j) «сходятся к нулю» с определенной скоростью, а х(п) - стационарная последовательность, не зависящая в целом от у(п). Процесс х(п) обычно называют остаточным, у(п)-регрессорной последовательностью (не наблюдаемой), Z(n) - наблюдаемой последовательностью. Часто предполагают только, что Е(у(т)х(п)) =0. О построении оценок параметров модели (*) см. в [1], [2]. Лит.: [1] Хеннан Э., Многомерные временные ряды, пер. с англ., М., 1974; [2] Time series in the frequency domain, Amst. - [a. o.], 1983. Ю.Г. Баласанов. РАССЕИВАНИЕ выборки (dispersion of a sample) - количественная характеристика разброса элементов выборки относительно нек-рой выбранной точки, называемая центром рассеивания. В одномерном случае в качестве центра рассеивания обычно выбирают среднее, медиану или моду эмпирич. распределения, построенного по исходной выборке Х = (Х1, ..., Хп), а меру Р. выборки определяют с помощью подходящим образом подобранной статистики. Напр., часто в качестве меры Р. выборки относительно выборочного среднего рассматривают статистики называемые средним абсолютным отклонением выборки, выборочной дисперсией и средним квадратичным отклонением выборки соответственно. Важную информацию о Р. выборки несет статистика V-SjXn, называемая коэффициентом вариации или средним относительным отклонением выборки. Другими важными характеристиками Р. выборки являются коэффициенты асимметрии и эксцесса эмпирич. распределения. Лит.: [1] У и л кс С, Математическая статистика, пер. с англ., М., 1967; [2] Voinov V. G., Nikulin M.S., Unbiased estimators and their applications, v. 2 - Multivariate case, Dordrecht, 1996. M. С. Никулин. РАССЕИВАНИЯ ЭЛЛИПСОИД (ellipsoid of concentra- tion) - эллипсоид в пространстве реализаций случайного вектора, характеризующий сосредоточенность его распределения вероятностей возле нек-рого заданного вектора в терминах моментов 2-го порядка. Пусть случайный вектор X, принимающий значения х-{х^ хп) в я-мерном евклидовом пространстве (Rn, имеет невырожденную ковариационную матрицу В. В таком случае для любого фиксированного вектора а, а € [Rn, в пространстве реализаций 1РП можно определить эллипсоид (х-а)ТВ~ (х-а)-п + 2, хе№п, к-рый называется эллипсоидом рассеивания распределения вероятностей случайного вектора X относительно вектора а или эллипсоидом рассеивания случайного вектора X. В частности, если а = ЕХ, то Р. э. является геометрич. характеристикой концентрации распределения вероятностей случайного вектора X около его математич. ожидания EX. В задаче статистич. оценивания неизвестного я-мерного параметра 8 с помощью понятия Р. э. можно ввести отношение частичного упорядочивания на множестве т = {Т} всех несмещенных оценок Т параметра 8, имеющих невырожденные ковариационные матрицы, считая, что из двух оценок Тх, Т2 ет предпочтительней является оценка Тх, если Р. э. оценки Т] лежит целиком внутри Р. э. оценки Г2- Именно в этом смысле несмещенные эффективные оценки неизвестного векторного параметра являются наилучшими, то есть Р. э. несмещенной эффективной оценки лежит внутри Р. э. любой другой несмещенной оценки. Лит.: [1J Крамер Г., Математические методы статистики, пер. с англ., 2 изд., М., 1975; [2] Андерсон Т., Введение в многомерный статистический анализ, пер. с англ., М., 1963; [3] Ибрагимов И. А., Хасьминский Р. 3., Асимптотическая теория оценивания, М., 1979. м. С. Никулин. РАССЕИВАНИЯ 543
РАССЕЯННАЯ МЕРА (diffuse/non-atomic measure) - см. Пуассоновский точечный процесс. Случайная мера. РАССЛОЕННАЯ ВЫБОРКА (stratified sample) - выборка, разбитая на несколько выборок меньших объемов по нек-рым отличительным признакам. Пусть каждый элемент какой-то выборки объема N ^ 2 обладает одним и только одним из k ^ 2 возможных признаков. В таком случае исходную выборку можно разбить соответственно на k выборок объемов щ, ..., nk Х\\ Х\п^> Х2\> ••■» Х2п2> Xk\> •••» Xknk> исходя из принципа: в i-ю выборку Х^ Xin отнесены только те элементы исходной выборки, к-рые обладают i-м признаком. В результате такого разбиения первоначальная выборка оказывается как бы расслоенной на k слоев Xix, ..., Xin> i=l k, причем именно i-й слой содержит информацию об i-м признаке. К понятию Р. в. приходят, наблюдая, напр., реализации компоненты X двумерной случайной величины (X, У), вторая компонента к-рой У подчиняется дискретному распределению. Лит.: [1] У и л кс С, Математическая статистика, пер. с англ., М., 1967. М. С. Никулин. РАСШИРЕННЫЙ СТОХАСТИЧЕСКИЙ ИНТЕГРАЛ (extended stochastic integral) - интеграл от случайной функции по винеровскому процессу w> совпадающий для неупреждаю- щих функций с обычным стохастическим интегралом (Ито, Стратоновича и т.п.). Известны несколько конструкций Р. с. и. Конструкция Хицуды - Скорохода (см. [1], [2]) состоит в следующем. Пусть (ft, j/, P) - вероятностное пространство, ^=а{и>}, H-L (QxlR+). Для любой функции F- (Ft) из Н имеет место представление ^=1Г=<Л(/"('^ <«»• где (неслучайные) функции fn принадлежат (I2(IR"+1), ||'||n+i), а /„ - кратные винеровские интегралы. Пусть 3>W = (F:p2(F) = y(ii + l)!||/|2 <оЛ, где fn - симметризация fn по всем аргументам. Р. с. и. опреде ляется для F е 3)(^) равенством «■^-IT.o'^v.w.'i «.»• Из свойств кратных винеровских интегралов следует, что E^(F) = 0, Ek(F)|2 = p2(F). Если F- неупреждающая функция из Я, то Fe 2)(#) и &XF) совпадают с интегралом Ито \Ftdwt. Отображение F -> 9tF) является замкнутым линейным оператором из Я в L2(U). Оператор Э0 тесно связан со стохастической производной D. Если F еН, все случайные величины принадлежат области определения стохастич. производной 21(D) и J |DF,|tf dt<oo, то Fe3>(F) и E|<7{F)|2= \\F\\2H +E/J DFt(s)DFs(t)dsdt. Операторы & и D сопряжены в следующем смысле: если Л е 3>(D), Fe3){F), то E(Dr], F)=Er)F(F), где (., ) - скалярное произведение в L (IP+). Указанное тождество используется для определения Р. с. и. в теории дифференцируемых мер, где обычно (ft, &, Р) предполагается локально выпуклым пространством с мерой, функ- 544 РАССЕЯННАЯ ция F рассматривается как векторное поле на ft со значениями в I2(IR+), а стохастич. производная понимается как производная по направлению в нек-ром слабом смысле. При таком подходе Р. с. и. оказывается логарифмич. производной меры Р вдоль векторного поля F (см. [3]). Техника оснащенных гильбертовых пространств дает возможность распространить Р. с. и. и на более широкий класс подинтегральных функций, чем 2>(^). Следует отметить, что случайную константу нельзя выносить из-под знака У. Пример: F= wTI^Q ry Тогда &(F) = wj--T. Конструкция Огавы (симметрич. Р. с. и.; см. [4], [5]). Пусть FsH, {et} - полная ортонормированная система в L (В?+). Стохастич. интегралом объявляется сумма ряда £ (F, e^I^e^ в I2(ft), полученного формальным интегрированием по dwt ряда Фурье для F. Если ГЦ 9)Ft\H dt <°°, ядро 2>Ft(s) имеет конечный след почти наверное, то симметрич. Р. с. и. существует и совпадает с 3\f) + tr3>F. В случае, когда неупреждающая функция является процессом Ито, симметрич. Р. с. и. совпадает со Стратоновича стохастическим интегралом. Р. с. и. может быть определен и предельным переходом, исходя из интегралов от ступенчатых функций (см. [6]). Лит.: [1] Скороход А. В., «Теория вёроятн. и ее примен.», 1975, т. 20, в. 2, с. 223-37; [2] Кабанов Ю. М., Скороход А. В.. в сб.: Труды школы-семинара по теории случайных процессов (Дру- скининкай. 25--30 ноября 1974), ч. 1, Вильнюс, 1975. с. 123-67; [3] Норин Н.В., «Теория вероятн. и ее примен.», 1987, т. 32, в. 1, с. 114-24; [4]| Nualart D., Zakai M., «Probab. Theory arid Relaied Fields», 1986, v. 73, № 2, p. 255-80; [5] Мацкявичюг В., .Лиг. матем. сб.», 1984. т. 24, № 1. с. 121-130; [6] Далецкий Ю.Л., Парамонова СП., «Докл. АН СССР», 1У73, т. 208, № 3, с 512-15. Ю.М. Кабанов. РАСЩЕПЛЯЮЩИЙ МОМЕНТ (splitting Lime) - термин используемый для обозначения различных классов случайных моментов X, обладающих следующим основным свойством- «будущее» нек-рого заданного процесса Л",, t^O, после момента X не зависит от его «прошлого» до х при известном «настоящем» в момент х (см. Марковское свойство). «Настоящее» обычно описывается а-алгеброй, порожденной х и Х~: однако рассматриваются и друые определения (напр., г га а-алгебра может дополняться информацией о поведении процесса в инфшшгезимальной окрестности х). Ее ж X - строго марковский процесс, то соответствующий ему кл?рс Р м. содержит класс марковских моментов, хотя, вообще говоря, значительно шире последнего. Напр., момент, когда одномерный винеровский процесс достигает своего минимума на [0, 1], является расщепляющим, по не марковским. P.m., впервые рассматривавшиеся в [1|, стали объектом всестороннего изучения (см. [2]). Нек-рые их аналоги нашли применения ь теории случайных полей (см. 13]). Лшп.: [1] Jacobs en M., <Z. Wahr und ve.w. Ceb », 1974, Bd 30, H. 1, S. 27-44; [2] GetoorR.K., Shame M.J., там же, 1981. Bd 55, H. 3, S. 313-30; [3] Евстигнеев И. В., Овсеевич Л. И., «Теория вероягн. и се примен.», 1978, т. 23, в. 2. с. 433-38. И. В. Евстигнеев. РЕАЛИЗАЦИЯ (realisation) - гм. Выборочная функция. РЕАЛИЗАЦИЯ случайной функции (realization of a random function/sample function) - см. Случайная функция. РЕВУЗА МЕРА (Rcvuz measure) - см. Марковский процесс; аддитивный функционал. РЕГЕНЕРАЦИИ МОМЕНТ (regeneration time) - см. Регенерирующий процесс. РЕГЕНЕРАЦИИ ПЕРИОД (regeneration period) - см. Регенерирующий процесс. РЕГЕНЕРАЦИЯ (regeneration) - см. Обновляющее событие.
РЕГЕНЕРИРУЮЩИЙ ПРОЦЕСС (regenerative process) - измеримый случайный процесс Y(t) со значениями в фазовом пространстве (X, йв), для к-рого существует вложенный восстановления процесс (Хп,п^0) такой, что случайные элементы вида (т„, X(t + Xn.^), 0^t^xn) при я^1, образованные периодами регенерации хп = Хп-Хп-Х и траекториями процесса У(0 на этих периодах, независимы и одинаково распределены. Моменты Хп называются моментами восстановления (регенерации) процесса Y(t). Распределения Р. п. Y(t) при t^O однозначно задаются распределением величин ij и Y(t) при 0^t<T\, поскольку функции вида *(0 = Р{У(ОеЛ}, Ле<Я, являются решениями восстановления уравнения x(t) = y(t) + fQx(t- s)dF(s), где F(t) - функция распределения периода регенерации tj, a у(0 = P{Y(t) е A, Xj > t}. Аналогичному уравнению удовлетворяют также конечномерные распределения P{Y(t + t±) eАг, Одно из наиболее важных свойств Р. п. У(0 состоит в существовании финальных вероятностей: если функция распределения Fit) нерешетчата и Ext <°°, то IimE/-(y<f)) = -?-Ep f(YU))ds *-,- ETj JO для тех ограниченных ^-измеримых функций f, для к-рых случайный процесс f(Y(t)) стохастически непрерывен для почти всех г^О по мере Лебега; если же дополнительно нек-рая свертка Fn*(t) несингулярна с мерой Лебега, то последнее предельное соотношение имеет место для всех ограниченных измеримых функций /", в частности lim P{YU) е А} = -^- Г Р{У(0 е A, т, >t}dt г-»» Eij JO дчя всех А е J3. Лит.: [ 1 ] Ко к с Д. Р., С м и т В. Л., Теория восстановления, пер. с англ., М., 1967; [2] Коваленко И. Н., Ку зиецов Н. Ю., Шуре н ко в В. М., Случайные процессы, К., 1983. Н. В. Каргпашов, В. М. Шуренков. РЕГЕНЕРИРУЮЩИЙ ПРОЦЕСС; устойчивость (stability of a regenerative process) - см. Устойчивость регенерирующих процессов. РЕГРЕССИИ КОЭФФИЦИЕНТ (regression coefficient) - коэффициент при независимой переменной в уравнении ре- грессии. Так, напр., в уравнении линейной регрессии E(Y\X ~x) - Pq + pj.r, связывающей случайные величины У и X, Р. к. р0 и р1 равны Po=«2-P~-fll' Pi =P~' где р - коэффициент корреляции X и У, flt = EX\ a2~EY, а,2 - DX, с2 = D У. Вычисление оценок Р. к. (выборочных Р. к.) - основная задача регрессионного анализа. А. В. Прохоров. РЕГРЕССИИ КРИВАЯ (regression curve) - см. Регрессии линия. РЕГРЕССИИ ЛИНИЯ (regression line/curve) - график функции регрессии одной случайной величины по другой. Пусть X и У ~ случайные величины, и пусть для каждого х определено условное математич. ожидание E(Y\X = x). Функция у- у{х)- Е(У[Х = х) - регрессия У по X - определяет в И? нек-рую кривую, к-рая и называется линией регрессии или кривой регрессии У по X. Р. л. является частным случаем регрессии поверхности. В случае, когда функция у(х) линейна (этот случай наиболее важен для приложений), Р. л. называется прямой регрессии. В. Г. Ушаков. РЕГРЕССИИ МАТРИЦА (regression matrix) - матрица В коэффициентов регрессии р„, i= 1, ..., г, /= 1, ..., т, в многомерной линейной модели регрессии X = BZ + E. (*) Здесь X - матрица с элементами Xk> /= 1, ..., т, k=], ..., п (Xjk, k=\, ..., п, - наблюдения над/-й компонентой исходной ти-мерной случайной величины); Z ~ матрица известных регрессионных переменных zik, i=1, ..., г, k-\, ..., п; Е - матрица ошибок zjk, /=1, ..., т, k-\, ..., п, Ее;> = 0. Элементы Р;7г Р.м. неизвестны и подлежат оценке. Модель (*) является обобщением на ти-мерный случай общей линейной модели регрессионного анализа. Литп.:[\\ КендаллМ., Стьюарт А., Многомерный статистический анализ и временные ряды, пер. с англ., М., 1976. А. В. Прохоров. РЕГРЕССИИ ОЦЕНКА (regression estimator) метода наименьших квадратов- оценка функции регрессии подстановкой в ней оценки метода наименьших квадратов вместо истинного значения параметра. М. Б. Малютов. РЕГРЕССИИ ПЛОСКОСТЬ (regression plane) - график функции регрессии в линейном случае. Пусть У, Х\, ..., Хп - случайные величины и y-f{xx, ..., хп) - E(Y\X] = хх, ..., Хп = хп) - регрессия У по Хх, ..., Хп. Если функция /"линейна: у - а0 + а{Х\ + ... + апхп, то плоскость в IRn+1, определяемая этим уравнением, и называется плоскостью регрессии У по л^, ..., Хп. В случае п-\ Р. п. называется прямой регрессии. В. Г. Ушаков. РЕГРЕССИИ ПОВЕРХНОСТЬ (regression surface) - график функции регрессии. Пусть У, Хх, ..., Хп - случайные величины и y = f(x^, ..., хп) = Е(У|Х1 =x]f ..., Хп-хп) - регрессия У по Х]у ..., Хп. Это уравнение определяет в пространстве IR"+1 поверхность, называемую поверхностью регрессии. В случае л=1 Р. п. называется линией регрессии. Если функция f линейна по всем аргументам, то Р. п. называется плоскостью регрессии. В. Г. Ушаков. РЕГРЕССИИ ПРЯМАЯ (regression line) - см. Регрессии линия, Регрессии плоскость. РЕГРЕССИИ СПЕКТР (regression spectrum) - спектр случайного процесса, входящего в регрессионную схему для стационарных временных рядов. Именно, пусть случайный процесс У\, наблюдаемый при t=\, ..., п, представляется в виде Yt = at + Xt, (t) где Xt - стационарный процесс с ЕЯ^ = 0, а среднее значение EYt-at выражено в форме линейной регрессии где ф ' = (<(>! , ..., ф^}), k=\, ..., s, - известные регрессионные векторы, pj, ..., р5 - неизвестные коэффициенты регрессии. Пусть М(Х) - спектральная функция распределения регрессионных векторов ф , ..., ф . Спектром регрессии для М(Х) называется множество всех (X) таких, что М(Х2) - М(Я,1) > 0 для любого интервала (Х^, Х2), содержащего X, Х^ <Х<Х2. Р. с. играет важную роль в задачах оценки коэффициентов регрессии в схеме (1) - (2). В терминах элементов Р. с. выражается, напр., необходимое и достаточное условие асимп- РЕГРЕССИИ 545
тотич. эффективности оценок Р по методу наименьших квадратов. Лит.: [1] GrenanderU., Rosenblatt M., Statictical analysis of stationary time series, Stockh., 1956. А. В. Прохоров. РЕГРЕССИИ УРАВНЕНИЕ (regression equation) - уравнение, определяющее в терминах условного математического ожидания функцию, с помощью к-рой осуществляется прогноз значения одного случайного вектора по наблюденному значению другого случайного вектора. Пусть X=(X]t ...,Хт)Т и Y = (YU ..., Уп)т - случайные векторы, принимающие значения х- (х{, ..., *ш)теГСт и У~(У\> •••» Уя)Те(Р", совместное распределение к-рых задается плотностью р(х, у). Если существует математич. ожидание Е(У|Х) =/"(*) = (/■,(*), ..., fn(X))T, то равенство y = f(x) называется уравнением регрессии У на X, а саму функцию /"(•) называют просто регрессией или функцией регрессии. В регрессионном анализе Р. у. используют для построения так наз. регрессионного прогноза У случайного вектора У по наблюденному значению случайного вектора X, получаемого с помощью функции регрессии /"(•), а именно: полагают У = f(X). Разность 6 = У - У называется ошибкой регрессионного прогноза, причем Е6 = 0 (нулевой вектор в И?"), то есть регрессионный прогноз лишен смещения. Регрессия называется параболической, если компоненты f\(X), ..., fn(X) вектора Е(У|х) = /*(Х) суть многочлены от компонент Хь ..., Хт наблюденного вектора X. См. также Линейная регрессия, Линейная инте^оляция функции регрессии, Регрессионный анализ. Лит.: (11 Себер Дж. А.Ф., Линейный регрессионный анализ, пер. с англ., М., 1980. М. С. Никулин. РЕГРЕССИИ ФУНКЦИЯ (regression function) - зависимость математического ожидания случайной величины У от значений нек-рой (детермированной) величины x:E(Y\x) (см. Регрессия). А.В.Прохоров. РЕГРЕССИИ ФУНКЦИЯ; линейная интерполяция (linear interpolation of regression function) - см. Линейная интерполяция функции регрессии, Регрессии уравнение. РЕГРЕССИИ ФУНКЦИЯ; оценка по наблюдениям (regression function; estimation from observations) - функция результатов наблюдений, используемая в качестве оценки функции регрессии. Пусть (X, У) - двумерный случайный вектор с плотностью вероятности fix, у) и r(x) = E(Y\x = x) - функция регрессии У на X. В качестве оценки Р. ф. г(х) используется класс статистик r„U) = — , (1) где (Х-, У;), 1=1, ..., п, - независимые наблюдения вектора (X, У), функция К абсолютно интегрируема и ее интеграл по всем значениям х равен единице, а последовательность ап такова, что яя -><», ап/п ->0. Оценки Р. ф. (1) были введены в [1], [2] одновременно и называются оценками ядерного типа. Оценки Р. ф. (1) при достаточно слабых ограничениях на f и для широкого класса ядер К оказываются асимптотически нормальными, состоятельными и асимптотически несмещенными, причем Ег„(*) = г(х) + о{а;2), Dr,,(.r:)~D(y)*;*)^ f K2(u)du, 546 РЕГРЕССИИ где g(x) - плотность распределения случайной величины X. Более того, оценка Р. ф. равномерно по х, -оо<а^х^ <&<<*>, сходится почти наверное к г(х), если К - функция с ограниченным изменением, У ограничена почти наверное min g(x)>0 и п~ап\пп->0. Асимптотика разных квадратич. мер погрешности оценки Р. ф. (1) хорошо изучена (см. [3], [4]). Величина 5„« sup \гяЫ-«х)(ь£.Т, где может служить мерой уклонения гп(х) от г(х). При нек-рых довольно общих условиях имеет место P{a„i,n-d„<\}^e-2e~\ (2) где оп и dn - известные параметры, выписываемые в явном виде (см. [3], [5]). Статистич. приложения (2) состоят в решении двух задач: а) построение асимптотич. доверительной зоны для Р. ф. и б) построение тестов проверки гипотезы v = r0. В качестве другой меры уклонения гп(х) от г(х) используется величина Wn> определяемая так: Wn = j(rn(x)-r(x))2gfa)h(x)dxt где h - нек-рая весовая функция. При нек-рых условиях предельное распределение Wn нормально. Этот результат позволяет строить основанный на статистике Wn критерий для проверки гипотезы HQ:r^r0 против сближающихся к Я0 альтернатив Нп: 7„Ы = г0Ы + гГ1/2 + 6/47(*), 1/4<6<1/2. Лит.: [1J НадараяЭ.А., «Теория вероятн. и ее примем.», 1964, т. 9, в. 1, с. 157-59; [2J Watson G., «Sankhya, ser. A», 1964, v. 26, p. 359-72; [31 Надарая Э. А., Непараметрическое оценивание плотности вероятностей и кривой регрессии, Тбилиси, 1983; [4] Col- lomb G., «Ann. Sci. Univ. de Clermont», 1977, № 65, Math., fasc. 15, p. 24-46; [5J Li его Н., «Math. Operat und Statist.», 1982, Bd 13, № 2, S. 171-82; [6] Ко на ко в В. Д., «Теория вероятн. и ее примен.», 1977, т. 22, в. 4, с. 879-88. Э. А. Надарая. РЕГРЕССИОННАЯ МОДЕЛЬ (regression model)-см. Многомерных данных модель структуры. РЕГРЕССИОННАЯ ПЕРЕМЕННАЯ, регрессор (repressor), - случайная величина, выполняющая роль независимой переменной в регрессионной модели. Точнее, пусть А" и У - случайные величины, причем для каждого х определено условное математич. ожидание у = у(х) - E(Y\X = x) - регрессия У на X. В этой ситуации случайная величина X и называется регресс и онн ой переменной. В.Г.Ушаков. РЕГРЕССИОННОГО ПРОГНОЗА ОШИБКА (error of regression prediction) - см. Регрессии уравнение. РЕГРЕССИОННОГО ЭКСПЕРИМЕНТА МАТРИЦА (matrix of a regression experiment) - матрица, составленная из столбцов, в к-рых записаны значения предикторных функций в точках плана регрессионного эксперимента. М. Б. Малютов. РЕГРЕССИОННЫЙ АНАЛИЗ (regression analysis)-раздел математической статистики, объединяющий практические методы исследования регрессионной зависимости между величинами по статистическим данным (см. Регрессия). Проблема регрессии в математич. статистике характерна тем, что о распределениях изучаемых величин нет достаточной информа-
ции. Пусть, напр., имеются основания предполагать, что случайная величина У имеет нек-рое распределение вероятностей при фиксированном значении х другой величины, так что E(Y\x)-g(x, p), где р- совокупность неизвестных параметров, определяющих функцию д(х), и нужно по результатам наблюдений определить значения параметров. В зависимости от природы задачи и целей анализа результаты эксперимента (хх> ух), ..., (хп, уп) по-разному интерпретируются в отношении неременной х. Для установления связи между величинами в эксперименте используется модель, основанная на упрощенных допущениях: величина х является контролируемой величиной, значения к-рой заранее задаются при планировании эксперимента, а наблюдаемые значения у нредставимы в виде у{ -g(xit р) + ez, 2 = 1, ..., я, где величины е, характеризуют ошибки, независимые при различных измерениях и одинаково распределенные с нулевым средним и постоянной дисперсией. В случае неконтролируемой переменной результаты наблюдений (xit ух)у ..., (хп, уп) представляют собой выборку из нек-рой двумерной совокупности. Методы Р. а. одинаковы и в том и в другом случае, однако интерпретация результатов различается (в последнем случае анализ существенно дополняется методами теории корреляции). Исследование регрессии по экспериментальным данным производится методами, основанными на принципах средней квадратич. регрессии. Р. а. решает следующие основные задачи: 1) выбор модели регрессии, что заключает в себе предположение о зависимости функций регрессии от х и р, 2) оценка параметров Р в выбранной модели методом наименьших квадратов, 3) проверка статистич. гипотез о регрессии. Наиболее естественной с точки зрения единого метода оценки неизвестных параметров является модель регрессии, линейная относительно этих параметров: д(х, P) = Po£o(*) + - + Pm£m(*>- Выбор функций д,(х) иногда определяется по расположению экспериментальных значений (х, у) на диаграмме рассеяния, чаще - теоретич. соображениями. Предполагается также, что дисперсия а результатов наблюдений постоянна (или пропорциональна известной функции от х). Стандартный метод оценки регрессии основан на использовании многочлена нек-рой степени т, 1 ^т<п: <7(*)р) = р0 + Р,*+... + Р„,*т или в простейшем случае - линейной функции (линейная регрессия) <?(*. Р) = Ро + М- Существуют критерии линейности и рекомендации по выбору степени аппроксимирующего многочлена. В соответствии с принципами средней квадратич. регрессии оценка неизвестных коэффициентов регрессии р0 Pw и дисперсии о осуществляется методом наименьших квадратов. Согласно этому методу, в качестве статистич. оценок параметров р0 Pw выбираются такие значения р0> ..., Pw, к-рые обращают в минимум выражение It, (у,-0(*,-»2. Многочлен д(х) = $0+ ... + $тхт, построенный методом наименьших квадратов, называется эмпирической линией регрессии и является статистич. оценкой неизвестной истинной линии регрессии. При гипотезе линейности регрессии уравнение эмпирич. прямой регрессии имеет вид У\ (*,- - Х)(У{ ~ У) X - — У . X:; , У - — У . U:;. Случайные величины р0, ..., pw называются выборочными коэффициентами регресс и и. Несмещенная оценка параметра а дается формулой Если дисперсия зависит от ху то метод наименьших квадратов применим с нек-рыми видоизменениями. Если изучается зависимость случайной величины У от нескольких переменных хх> ..., xk, то общую линейную модель регрессии удобнее записывать в матричной форме: вектор наблюдений у с независимыми компонентами yv ..., уп имеет среднее значение и ковариационную матрицу E(Y\xx, .... **) = Хр, D(Y\xv ..., xk)=o2I, (•) где P = (Pi» ...» Р*) ~ вектор коэффициентов регрессии, Х= \xiA> г = 1 я, У=1, ..., k, - матрица известных величин, связанных друг с другом, вообще говоря, произвольным образом, / - единичная матрица n-го порядка; при этом п > k и |ХТХ| *0. В более общем случае допускается корреляция между наблюдениями у±\ E(Y\xu ..., xk) = X$, D(Y\xv ..., xk) = o2A, где матрица Л известна, но эта схема сводится к модели (*). Несмещенной оценкой р по методу наименьших квадратов является величина " •* $=(ХТХГ*ХТу, а несмещенной оценкой для а служит s2=-4(*vpTxv п - к Модель (*) является наиболее общей линейной моделью, поскольку она применима к различным регрессионным ситуациям и включает в себя все виды параболической регрессии У по хх xk [в частности, рассмотренная выше параболич. регрессия У по х порядка m может быть сведена к модели (*), в к-рой m регрессионных переменных функционально связаны]. При таком линейном понимании Р. а. задача оценки Р и вычисления ковариационной матрицы оценок Dp = a (ХТХ) сводится к задаче обращения матрицы ХТХ. Указанный метод построения эмпирич. регрессии в предположении нормального распределения результатов наблюдений приводит к оценкам для р и a , совпадающим с оценками наибольшего правдоподобия. Однако оценки, полученные этим методом, являются в нек-ром смысле наилучшими и в случае отклонения от нормальности, если только объем выборки достаточно велик. В данной матричной форме общая линейная модель регрессии (*) допускает простое обобщение на тот случай, когда наблюдаемые величины yi являются векторными случайными величинами. При этом никакой новой статистич. задачи не возникает (см. Регрессии матрица). Задачи Р. а. не ограничиваются построением точечных оценок параметров Р и а общей линейной модели (*). Проблема точности построенной эмпирич. зависимости наиболее эффективно разрешается при допущении, что вектор наблюдений У РЕГРЕССИОННЫЙ 547
распределен нормально. Если вектор У распределен нормально и любая оценка р является линейной функцией от Y, можно заключить, что величина р, распределена нормально со средним р; и дисперсией Dfy = G2biit где bu - диагональный элемент матрицы (X ХУ . Кроме того, оценка s для а распределена независимо от любой компоненты вектора р, а величина (n-k)s /о имеет хи-квадрат распределение с (n-k) степенями свободы. Отсюда следует, что статистика £ = (р,-Р;)/[$ b{i\ ' подчиняется распределению Стьюдента с (n-k) степенями свободы. Этот факт используют для построения доверительных интервалов для параметров Рг и для проверки гипотез о значениях, к-рые принимает величина Рг. Кроме того, появляется возможность найти доверительные интервалы для Е(У(лС|, ..., xk) при фиксированных значениях всех регрессионных переменных и доверительные интервалы, содержащие следующее (я+1)-е значение величины у (так наз. интервалы предсказания). Наконец, можно на основе вектора выборочных коэффициентов регрессии (J построить доверительный эллипсоид для вектора р или для любой совокупности неизвестных коэффициентов регрессии, а также доверительную область для всей линии или прямой регрессии. Р. а. является одним из наиболее распространенных методов обработки экспериментальных данных при изучении зависимостей в физике, биологии, экономике, технике и других областях. На моделях Р. а. основаны такие разделы матема- тич. статистики, как дисперсионный анализ и планирование эксперимента, эти модели широко используют в многомерном статистич. анализе. Лит.:\\] КендаллМ., С тью а рт А., Статистические выводы и связи, пер. с англ., М., 1973; [2} Смирнов Н. В., Дунин-Бар- ковский И. В., Курс теории вероятностей и математической статистики для технических приложений, 3 изд., М., 1969; [3] Айвазян С. А., Статистическое исследование зависимостей, М., 1968; [41 РаоС. Р., Линейные статистические методы и их применения, пер. с англ., М., 1968; [5] ДрейперН., Смит Г., Прикладной регрессионный анализ, пер. с англ., 2 изд., кн. 1-2, М.. 1986. А. В. Прохоров. РЕГРЕССИОННЫЙ ПРОГНОЗ (regression prediction) - см. Линейная интерполяция функции регрессии. РЕГРЕССИОННЫЙ ЭКСПЕРИМЕНТ (regression experiment) - последовательность измерений функции регрессии со случайными ошибками. Наиболее общая схема Р. э. состоит в том, что в точках х-, /=1, ..., N, из нек-рого множества X (называемого областью действия) наблюдаются значения случайных величин ур представимых в виде y. = g(Xj)+Zj} где д( •) - функция на X, называемая функцией регрессии (или функцией отклика) и принадлежащая нек-ро- му множеству функций &\ вектор случайных ошибок измерений е = (ег, ..., e,v) удовлетворяет условиям Ее-0, cove = a2U^, где XV - известная неотрицательно определенная (N x N)- матрица, а величина а может быть неизвестной. Линейный Р. э. характеризуется тем, что & является конечномерным линейным пространством функций. Выбрав базисные функции (Pj(), ..., фр(-) в этом пространстве, можно записать функцию регрессии в виде ^(*>=5Lf-i э*Ф|(*>=ртф<*>. 548 РЕГРЕССИОННЫЙ где p=(pt Рр) ~ вектор неизвестных параметров, cp(-) = (cpj(-), ..., фр(-))т. В матричном виде схема линейного Р. э. записывается в виде У = ФР + е, где Ее = 0, cove = o2W, Y=(yv .... yN)T, Ф= ||фАу)Ц;>1 " матрица Р. э., а также в виде упорядоченной тройки <й(У, ФР, a2UO. При линейном оценивании неизвестных параметров р ковариационная матрица оценок зависит только от первых двух моментов распределения случайного вектора е. В случае нелинейного Р. э. 3l(Y, i](xit $)t i = \, ..., N, o2W) функция регрессии зависит от неизвестных параметров р нелинейно. Для оценивания параметра р обычно используют метод наименьших квадратов. Для линейного Р. э. оценка наименьших квадратов р = М~ OtWY, Ep = p, cov p = a M , где М = Фт№ГФ, называемая информационной матрицей Р. э., предполагается невырожденной. Более общим, чем нелинейный Р. э., является понятие о б о 6 - щенногоР. э., или F-модели (см. [1], [2]), в к-рой допускается зависимость cov e от р и параметр р идентифицируется по набору (r\(x]f р), ..., г\(хы, р)). Оценки Р для F-модели находят итерационным методом Гаусса - Ньютона с уточняемыми весами (см. [1], [2]), разработанным ранее для численного анализа нелинейного Р. э. Находят также применение многомерные линейные Р. э. MR(yJt Ф;, р, V-, у = 1, ..., N), в к-рых результаты наблюдений у^еП? являются векторами, Еу. = Ф.р, cov(yit y,)=&l}Vt, где 6ij - символ Кронекера, а матрицы V\ неотрицательно определены. Оценивание неизвестных параметров Р в случае многомерных линейных Р. э. легко сводится к аналогичному оцениванию для линейных Р. э. См. также ст. Априорной информации учет. О Р. э. при известных ограничениях на параметр р см. в [4]. Лит.: [1] Математическая теория планирования эксперимента, М., 1983; [2] МалютовМ.Б., «Изв. вузов. Математика», 1983, № 11, с. 19-41; [31 ЕрмаковС. М., ЖиглявскийА. А., Математическая теория оптимального эксперимента, М., 1987; [4] Кор- хин А. С, Гинзбург М. И., «Экономика и математические методы», 1987, т. 23, No 3, с. 496-506. А. А. Жиглявский, М. Б. Малютов. РЕГРЕССИОННЫХ КОЭФФИЦИЕНТОВ МАТРИЦА (matrix of regression coefficients/regression matrix) - см. Наименьших квадратов метод. РЕГРЕССИОННЫХ ЭКСПЕРИМЕНТОВ ПЛАНИРОВАНИЕ (design of regression experiment) - выбор измерений в схеме регрессионного эксперимента для оптимизации решения о функции регрессии (см. также Дискриминирующих экспериментов планирование). Наиболее изучено планирование измерений по оцениванию функции регрессии линейных регрессионных экспериментов, описываемое ниже. Матрица ковариаций cov8 наилучшей линейной несмещенной оценки есть а М~1, где М = Ф1 WO называется информационной матрицей. При наличии информации о распределении погрешностей и для робастности выводов используют широкий класс оценок 7\ напр. минимального контраста. Матрица ковариаций их предельного нормального распределения имеет вид а(Т)М~\ где а - скаляр, не зависящий от плана %={х^ .... xN}, так что теория оптимальных обобщенных планов (называемых также непрерывными; см. ниже), аппроксимирующих реальные (точные) планы для больших выборок, относится и к таким оценкам. После преобразования z- W ' у, /"(•) - W1' ф(-) получают регрессионный эксперимент R(z, Fd, I) с матрицей регрегеи-
онного эксперимента F- ifix^), ..., fixN))T. Ниже рассматривается именно эта модель. Для нее информационная матрица имеет вид M(?s) = FTF = J£t\ mixi)f mix) ^ fix) fix). (1) И:$ (1) видно, что с точностью до множителя информационные матрицы определяют носитель плана (иногда называемый спектром, узлами или опорными точками плана) supp£={*(1), ...,*Ы}, x(i)zX, x(i)*x(j\ i*j, и веса плана р• = nJNt где п- ~ число xit совпадающих с х} , Pj^O, Vp=l. Первые и вторые моменты 6 не зависят от искомых параметров. Благодаря этому оптимальный план (рассматриваемый ниже) можно выбрать статистическим, так как квадратичный риск можно найти до проведения эксперимента (см. Планирование эксперимента, Последовательное планирование эксперимента). Если £ - дискретный план, то есть произвольная вероятностная мера с носителем в п точках * и весами pit то планы £ и £ с L Npi J и Г Мр{ ~1 измерениями в точках х (здесь |_ х J и V х~\ _ соответственно наибольшее целое ^* и наименьшее целое ^х) имеют не менее Ы-п (соответственно не более N + n) точек. Справедливы следующие неравенства: причем матричные элементы М(£), М(£), будучи величинами порядка О(Л0 при JV-»°°, отличаются Друг от друга на величины порядка Oin) и с этой точностью характеризуются матрицей m(£)=J mix)^idx). Если план £,0 = ^х0) сосредоточен в точке xQ, to w(^0) обозначает то же, что и mixQ). В асимптотической теории (излагаемой ниже) планами называют произвольные вероятностные меры на пространстве действий X, оставляя за ранее введенными последовательностями N измерений название точных планов, а за матрицами тГ (£) и т(£) сохраняя названия дисперсионной и информационной матриц соответственно. Множество X* планов выпукло и замкнуто. Справедливо следствие известной теоремы Каратеодори о выпуклых множествах: если множество Ш= {т(£), £ е X*} компактно (для чего достаточно компактности X и непрерывности /":Х-»(1?Р), то информационную матрицу любого плана £ можно представить в виде m(£) = £[=1 ftmUj), р^0,г^р(р+\)/2+\, х{ е X. Во многих конкретных случаях эту оценку для г можно усилить. Важную роль, напр. в доказательстве этого следствия, играет геометрич. интерпретация множества ЗК как выпуклой оболочки множества {mix), дгёХ), принадлежащего пространству (1?г. По аналогии с оптимальностью оценок наименьших квадратов (см. Регрессионный эксперимент) может возникнуть желание найти универсально оптимальный п л а н £*, то есть такой, что т(£*)^т(£) для всех £еХ*. Однако в содержательных задачах такого плана не существует (см. ниже). В симметричных случаях удается найти планы, в нек-ром более слабом смысле равномерно оптимальные, напр. по Шуру. Далее, И?тхр, Sp^ №pxp, Sp<^Spt XiiA) суть соответственно множества действительных im хр)-матриц, симметричных матриц порядка ру положительно определенных матриц и г-е по величине собственное значение матрицы А е S Говорят, что А>^В (Л ^В, по Шуру), Л, BeS, если X,r=i (*>М)-К(в))>о для всех г^р. Из m(£)>5m(r|) следует, что trm~a(^)^ ^ tr m~air\) для всех a> 0, включая a -» 0 и a -» °° [функцию (—trm-")1'" называют Фа- кр и тер и е м]. При а-»°° критерий Фа(т) превращается в Я-критерий X^im~ ). При a -» О критерий Фа(т) сводится к D-к р и т е р и ю (detm-1)VP=ff^=i InX^m)! . При а = 1 критерий Фа(т) есть А-к р и т е р и й, частный случай линейного 1с-критерия Е||с(6-в)| =trCTm~ С для СеП?/хр. План £ е X* и соответствующая ему информационная матрица т(£) такие, что из m(E;)^m(£), £eX*, следует w(£ ) = mit,), называются допустимыми. Допустимые планы принадлежат относительной границе д SR множества 3R. Допустимость есть свойство носителя плана: план, носитель к-рого содержится в носителе нек-рого дискретного допустимого плана, допустим. Если для нек-рой матрицы TeS* имеет место равенство £0{ЛГ}=1, где /lr = argmax yTix), т qTix)=f ix)Tfix), то план £0 допустим. Наоборот, из допустимости плана ^Q следует существование матрицы Г^О такой, что £0Иг}= *• Для одномерной полиномиальной функции регрессии (1, х, ..., ^)8, 8 е (1?р х!, на [-1, 1 ] план £ допустим, если мощность множества supp£n(-l, 1) меньше р. Если информационная матрица допустимых планов из X* не единственна, то универсально оптимального плана нет. Напр., для функции регрессии (1, *)8 на [-1, 1] обе матрицы mi ± 1) допустимы и различны. Обычно ищут план, минимизирующий нек-рую функцию Ф от т(£) (так наз. Ф-план). Предполагают, что множество Ш компактно, а Ф удовлетворяет всем или нек-рым из следующих условий. 1) Монотонность: Ф(Л)^Ф(В) при А^В. 2) Однородность: Ф(аЛ) = у(а)Ф(Л), где а>0, а у~Ча) строго возрастает вместе с а. 3) Выпуклость: Ф(та)^ (1 -а)Ф(т0) + аФ(т^, здесь и далее та = атх + (1 -а)т0, О^а^ 1. 4) Дифференцируемость в А е ЗК: существует такая матрица Ф(Л) еП?рх;?, что ФiA + B)-ФiA) = triФiA)B) + oiB) при ||#1 -*0, где ||#||2 = tr#T£ = £ В^, a oiB) есть матрица, все элементы к-рой суть о(||я||) при |#|| -»0. Важен широкий класс глобальных критериев, удовлетворяющих условию 3), конечных на 3R+~ S-jTlSPfc и стремящихся к оо при mneWt , mn -»me 3R\3R+. Такие критерии (как, напр., Фа, ае[0, <*>]) непрерывны на ЗК и достигают минимума. Для общих критериев Ф достаточным условием существования Ф-плана £* е argmin Ф(т) а* является полунепрерывность Ф снизу, то есть условие lim Ф(тп)^Ф( lim mn). Полунепрерывность снизу выпуклого критерия Ф эквивалентна условию Фim) = s\lp{aa + triBam), аае№, Ba^Sp, аеЛ}, то есть Ф(т) есть верхняя огибающая семейства линейных функций от т. РЕГРЕССИОННЫХ 549
Функции D(/T6) = Гт I в силу равенства 1т 1 = = max {2lTa-xTmx} полунепрерывны снизу. Таковы же сводящийся к £с-критерий Е||л(0-0)|2 для Лё1Ргхр,г^р, и критерий обобщенной Од-опти- мальности detG4Tm~Vl) для A elRsxp ранга s^p. Основой аналитич. результатов о Ф-оптимальности и численных методов построения Ф-планов является теорема эквивалентности, к-рая для выпуклой и дифференцируемой в т(£*) функции Ф гласит: Ф-оптимальность плана £* эквивалентна каждому из двух условий: max pr(^*) = tr7,m, suppt,* яАТ, где Г = <Ь (m(£*)). Наиболее популярен ее частный случай. D-оптимальность (оптимальность по D-критерию) плана £* эквивалентна его минимаксности: max d{x, £*) = » = min max d(x, £), где d(x, £)) = fT(x)m~(£))f(x)- нормированная дисперсия оценки &f(x) функции регрессии в точке х. С помощью теоремы эквивалентности доказана D-оптимальность планов с равными весами: а) в корнях многочлена (1 -х )L'(x) (где Lp - многочлен Лежандра) для полиномиальной регрессии порядка р на [ -1, 1]; б) в равноотстоящих N^2m+ 1 точках [О, 2л) для функции регрессии 60 + XyLi (e2/coS 3х + e2>+istn jx) и многих других. При изучении устойчивости дискретного плана полезны следующие утверждения: частный дифференциал Ф(тл) в точке т(£0) при фиксации весов дискретного плана £0 есть Y , р ф'г (я1)^*1! а частный дифференциал Ф(тл) при фиксации supp £, есть £ tpT(x )dpif где Г = <Ь (т(£)). Если rank т(£*) = &</?, а функция Ф дифференцируема в Ш , то Ф-оптимальность плана £* эквивалентна существованию такой матрицы Н е IR(p хр, что т + ННТ е 5^", и любому из условий 3), где Г = <Ь (т(£*) + ННТ). Теорема эквивалентности имеет менее эффективное обобщение в терминах субградиентов на недифференцируемый случай. Она является частным случаем теории двойственности критериев, с помощью к-рой получен ряд весьма глубоких результатов о вырожденных Ф-планах £ти(£) * ЗК+. Для £л-критерия получена так наз. обобщенная теорема эквивалентности Элфвинга: пусть 91 - выпуклая оболочка множества (рх^)-матриц вида f(x)aT, k^pf aeIR , Hall = 1, x&X; тогда условие £* g arg min tr(m~\^)ATA)f A e №kxf), эквивалентно существованию такой измеримой функции е:Х~>{± 1}, что: \)\f(xMx)^(dx) = ^A для нек-рого р>0; 2) рЛ принадлежит дЯ\ в этом случае p"2 = trfif46*MTi4. Прямая минимизация Ф(т) по весам и носителю плана обычно малоэффективна ввиду большой размерности задачи. Для численного построения Ф-планов имеются итерационные алгоритмы, основанные на теореме эквивалентности, из к-рых 550 РЕГРЕССИОННЫХ ниже описан простейший алгоритм, соответствующий выпуклой дифференцируем ости Ф(). Пусть имеется план £s, s= 1, 2, ..., и пусть план ^=(1-а)^ + а4, O^a^t. При достаточно малых а по формуле Тейлора справедливо соотношение г (а) = Ф(!и(6а)> " Ф(|и(65» ~ «''(О), где r'(0) = Jq>r(*f S06W*>-tr(rro)f Г = 6(т(^5)). План £ выбирается так, чтобы величина г'(0) была минималь- I на, для чего достаточно взять план £5(*) = Их ) с единичной мерой в точке х s e arg min фт(х, £*) и алгоритм 5ж = (1-оХ + а5«Л. <2) где as - числовая последовательность, выбираемая, как в классич. градиентном методе (см. [1], [2], [б]). Известны модификации этого алгоритма с более высокой скоростью сходимости. Для аппроксимации оптимальных точных планов из N точек наряду с округлением Ф-планов используют алгоритм типа (2), причем на каждой итерации добавляются и удаляются одинаковое число точек. Важны также следующие обобщения. Рассматривался случай, когда пространство действия X является бесконечномерным подмножеством банахова пространства (см. Планирование эксперимента для обратных задач математич. физики, а также [2], гл. 7, 9). При использовании оценок параметров регрессии, отличных от оценок минимального контраста, методы Р. э. п. часто родственны рассмотренным выше. Так, при использовании гребневой оценки (см. Априорной информации учет) основное отличие связано с тем, что вместо информационной матрицы (1) применяют ее аналоги m(£)+J5, где В- фиксированная неотрицательно определенная (рхр)-матрица (см. [1], [б]). Исследован также случай зависимых ошибок в схеме регрессионного эксперимента, в частности схема авторегрессионных погрешностей. Пусть V а$п^ = чп, а0= 1, уп - независимые случайные величины с распределением Р„. Пусть ия = (хя% ...,*„_*), F(Unt в) = £-=0 f<*„_., 0Ц, Yn = X*=0 "iVn-v где (х}; cpCty, в), у;) = 0 при/<0. Набор Yn~F(un, в), п= 1, ..., N, имеет распределение ГТ Р„()> откуда можно восстановить распределение Р^(-) для г/1 . Множество асимптотических планов, то есть пределов частот попадания точек ип в то или иное подмножество В^Х + при N-►<*>, совпадает с множеством распределений П на X + таких, что их маргиналы на первых k и последних k компонентах X + совпадают. Исследовано также квантование непрерывных измерений случайного поля у(х) со средним 6 фСг) и известной корреляционной функцией такое, что наилучшие линейные несмещенные оценки параметра в е № по квантованной и полной выборке имеют возможно близкие матрицы ковариаций (см. [2], гл. 8). Важным подклассом задач Р. э. п. являются задачи планирования эксперимента по оцениванию неизвестных параметров нелинейных (обобщенных) регрессионных моделей (см. [1]-[3]), где информационная матрица зависит от неизвестных параметров. Описаны планы, максимизирующие получаемую о неизвестных параметрах информацию (см. Последовательное планирование эксперимента). Лит.: [\\ Ермаков СМ., Жиглявский А. А., Математическая теория оптимального эксперимента, М., 1987; [2] Математическая теория планирования эксперимента, М., 1983; [3] Федороп В. В., I Теория оптимального эксперимента, М., 1971; [4] Малютов М.Б.,
Заи граев А. Ю., Современные задачи оптимального планирования регрессионного эксперимента, К., 1989; [51 Pukelsheim F., Titter in gt on D. M., «Ann. Statist.», 1983, v. 11, № 4, p. 1060-68; [6] Pazman A., Foundations of optimum experimental design, Dordrecht - [a.o.], 1986. М.Б. Малютов. РЕГРЕССИЯ (regression) - зависимость среднего значения какой-либо случайной величины от нек-рой другой величины или от нескольких величин. Если, напр., при каждом значении х = х{ наблюдается п{ значений у^, ..., yin случайной величины Y, то зависимость средних арифметических 'yi = (yiX + ... + yin )/ni этих значений от xi и является регрессией в статистич. понимании этого термина. При обнаруженной закономерности изменения ~у с изменением х предполагается, что в основе наблюдаемого явления лежит вероятностная зависимость: при каждом. фиксированном значении х случайная величина У имеет определенное распределение вероятностей с математич. ожиданием, к-рое является функцией х: Е(У|х) = а(х). Зависимость у~а{х), где х играет роль «независимой» переменной, называется регрессией (или функцией регрессии) в вероятностном понимании этого термина. График функции а{х) называется линией регрессии, или кривой регрессии, величины У по х. Переменная х называется регрессионной переменной, или ре- грессором. Точность, с к-рой линия Р. У по х передает изменение У в среднем при изменении х, измеряется дисперсией величины У, вычисляемой для каждого х: D(yU) = a2U). Графически зависимость дисперсии a (х) от х выражается так наз. скедастической линией. Если a (х) = 0 при всех значениях х> то с вероятностью 1 величины связаны строгой функциональной зависимостью. Если a (х) * 0 ни при каком значении х и а(х) не зависит от х> то Р. У по х отсутствует. В теории вероятностей задача Р. решается применительно к такой ситуации, когда значения регрессионной переменной х соответствуют значениям нек-рой случайной величины X и предполагается известным совместное распределение вероятностей величин X и У [при этом математич. ожидание Е(У|.х) и дисперсия D(y|*) будут соответственно условным математич. ожиданием и условной дисперсией случайной величины У при фиксированном значении Х = х]. В этом случае определены две Р.: У по х и X по у, и понятие Р. может быть использовано также для того, чтобы ввести нек-рые меры взаимосвязанности случайных величин X и У, определяемые как характеристики степени концентрации распределения около линий Р. (см. Корреляция). Функции Р. обладают тем свойством, что среди всех действительных функций fix) минимум математич. ожидания E(Y-f(x))2 достигается для функции f(x) = a(x), то есть Р. У по х дает наилучшее (в указанном смысле) представление величины У. Наиболее важным является тот случай, когда Р. У по х линейна, то есть E<yU) = po+M*>- Коэффициенты р0 и р1г называемые коэффициентами регрессии, легко вычисляются: Po = fly-p — ax> Pi = P — °х °х (здесь р - коэффициент корреляции Хи У, ах=ЕХ, aY=EY, &х = DX, a = D У ), и прямая регрессии У по* имеет вид y = aY+p — (х-ах) °х (аналогичным образом находится прямая Р. X по у). Точная линейная Р. имеет место в случае, когда двумерное распределение величин X и У является нормальным. В условиях статистич. приложений, когда для точного определения Р. нет достаточных сведений о форме совместного распределения вероятностей, возникает задача приближенного нахождения Р. Решению этой задачи может служить выбор из всех функций д(х), принадлежащих заданному классу, такой функции, к-рая дает наилучшее представление величины У в том случае, что минимизирует математич. ожидание Е(У-<7(Х)) . Найденная функция называется средней квадратической регрессией. Простейшим будет случай линейной средней квадратической регрессии, когда отыскивают наилучшую линейную аппроксимацию величины У посредством величины X, то есть такую линейную функцию д(х) = р0 + ри, для к-рой выражение Е(У-^(Х)) принимает наименьшее возможное значение. Данная экстремальная задача имеет единственное решение: p0 = fly-p1ax, Pi = P;r> °х то есть вычисление приближенной линии Р. приводит к тому же результату, к-рый получен в случае точной линейной Р.: y = aY + p-r(x-ax). °х Минимальное значение Е( У - д(Х)) при вычисленных значениях параметров равно a7(l -р ). Если Р. а(х) существует, то при любых Ро и pj имеет место соотношение E[Y-%-hX]2 = E[Y-a(X)]2 + E[a(X)-V0-№]2, откуда следует, что прямая средней квадратич. Р. у = р0 + $^х дает наилучшее приближение к линии Р. я(дг), если измерять расстояние вдоль оси у. Поэтому если линия а(х) есть прямая, то она совпадает с прямой средней квадратич. Р. В общем случае, когда Р. сильно отличается от линейной, можно поставить задачу нахождения многочлена д{х) = р0 + p!*+ ... + $тхт нек-рой степени т, для к-рого среднее значение E(Y - д(х)) имеет возможно меньшее значение. Такое решение задачи соответствует параболической (или полиномиальной) средней квадратич. Р. (см. Параболическая регрессия) порядка т. Кривая у = д(х) есть парабола w-ro порядка, дающая наилучшую аппроксимацию истинной линии Р. Обобщением параболич. Р. служит функция Р., выраженная линейной комбинацией тех или иных заданных функций: 0<*) = РоФо<*) + Pi<Pi<*) + ... + Ь,Ф«<*). Наиболее важное значение имеет случай, когда q>n(*) <рт(х) - ортогональные многочлены соответствующих порядков, построенные по распределению X. Другими примерами нелинейной (криволинейной) регрессии являются случаи тригонометрич. Р., показательной Р. и т. п. Понятие Р. естественным образом обобщается на тот случай, когда вместо одной регрессионной переменной рассматривается нек-рое множество переменных. Если случайные величины Xt, X2, ..., Хп имеют совместное распределение вероятностей, то множественная регрессия определяется, напр., как P. Xj по х2, ..., хп: Е(Х{\Х2=х2, ...tXn = xn) = ax(x2% ..., хп). Соответствующее уравнение определяет поверхность регрессии Xj по х2, ..., хп. Линейная Р. Хх по дг2, .... хп имеет вид E(X,|*2, .... хл) = р2х2 + ... + р1Ггя1 РЕГРЕССИЯ 551
где р2» •••» Рл ~ коэффициенты Р. (при ЕХл = 0). Линейная средняя квадратич. Р. величины Хх по х2, ..., хп определяется как наилучшая линейная оценка величины Х1 величинами Х2, ..., Хп в смысле обращения в минимум выражения Е(Х1-р2Х2- .-Р„Х„) . Соответствующая плоскость регрессии дает наилучшую аппроксимацию поверхности Р. х^=а(х2> ..., хп), если последняя существует. Если поверхность Р. есть плоскость, то она необходимо совпадает с плоскостью средней квадратич. Р. (так будет в случае, когда совместное распределение всех п величин нормально). Простым примером Р. У по X является зависимость между Y и X, к-рая выражается соотношением Y = u{x) + b, где u(x) = E(Y\x = x), а случайные величины X и 6 независимы. Это представление полезно, когда планируется эксперимент для изучения функциональной связи у = и(х) между неслучайными величинами у и х. Эта же модель Р. используется во многих приложениях при изучении характера зависимости случайной величины Y от неслучайной величины х. На практике выбор функции у = и(х) и оценку неизвестных коэффициентов Р. по экспериментальным данным производят методами регрессионного анализа. Лит.: [1] Крамер Г., Математические методы статистики, пер. с англ., 2 изд., М., 1975; [2] Кендалл М.Дж., Стьюарт А., Статистические выводы и связи, пер. с англ., М., 1973. А. В. Прохоров. РЕГРЕССОГРАММА (regressogram) - см. Непараметриче ский регрессионный анализ. РЕГРЕССОР (regressor) - см. Регрессионная переменная. РЕГУЛИРОВАНИЯ ГРАНИЦА (regulation limit/boundary) - см. Статистический контроль качества. РЕГУЛИРУЕМЫЙ ВЕТВЯЩИЙСЯ ПРОЦЕСС (controlled branching process) ~ модификация ветвящегося процесса, в крой законы размножения частиц зависят от состояния и предыстории процесса заранее предписанным образом. Примерами Р. в. п. являются фи-ветвящиеся процессы (см. [1]), управляемые ветвящиеся процессы (см. [2], [3]) и т. п. Сколько-нибудь общая теория Р. в. п. отсутствует ввиду разнообразия возможных модификаций. Лит.: [1] Севастьянов Б. А., Зубков A.M., «Теория веро- ятн. и ее примени, 1974, т. 19, в. 1, с. 15-25; [2] Лабков- ский В. А., там же, 1972, т. 17, в. 1, с. 71-83; [3] Бойко Р. В., «Укр. матем. ж>, 1982, т. 34, № б, с. 681-87. А. М. Зубков. РЕГУЛЯРНАЯ ГРАНИЧНАЯ ТОЧКА (regular boundary point) - Регулярная точка для множества. РЕГУЛЯРНАЯ МЕРА (regular measure) - мера \х на борелев- ской а-алгебре &(Т) топологического пространства Т, обладающая свойством: для каждого множества ВеЗВ(Т) справедливо соотношение \х(В) = sup {\x(F):F а В, F замкнуто}. В метрич. пространстве каждая конечная борелевская мера регулярна. Существует компактное хаусдорфово пространство, в к-ром не каждая борелевская вероятностная мера регулярна. См. также Случайная мера. Лит.: |1] Биллингсли П., Сходимость вероятностных мер, пер. с англ., М., 1977; [21 Вахания Н. Н., Тариеладзе В. И., Чо- банян С. А., Вероятностные распределения в банаховых пространствах, М., 1985. Н.Н. Вахания. РЕГУЛЯРНАЯ ОДНОМЕРНАЯ ДИФФУЗИЯ (regular one-dimensional diffusion) - см. Одномерная диффузия. РЕГУЛЯРНАЯ ТОЧКА для множества (regular point for a set) - точка в пространстве состояний однородного марковского процесса такая, что траектории процесса, начавшиеся в момент t = 0 в этой точке, почти наверное попадают в данное множество бесконечное число раз на любом промежутке времени [0, 6), 6>0. Если X=(Xt, £, dt, Рх) - стандартный 552 РЕГРЕССИЯ процесс в фазовом пространстве (£, Зв), то, каковы бы ни были х еЕ и борелевское множество Гс£, справедлива альтернатива: либо точка х регулярна для Г, либо Рх-вероятность указанного выше события равна 0. В последнем случае множество Г называется тонким или разреженным в точке х, а точку х именуют иррегулярной для Г. При определенных предположениях на функцию Грина процесса X (см. Потенциала теория для марковского процесса) справедливы необходимые и достаточные условия регулярности точки для борелевского множества, обобщающие классич. критерий Винера (см. [5], [6]). Рассматривая в открытом множестве U а Е стохастич. задачу Дирихле (см. Потенциала теория для марковского процесса) , под регулярной граничной точкой подразумевают точку, регулярную для E\U. При достаточно слабых дополнительных требованиях в такой точке реализуется граничное условие, соответствующее задаче Дирихле (см. [1]). Как и в классич. ситуации, критерий регулярности граничной точки может быть сформулирован в терминах существования так наз. барьера (см. [1]). Лит.: [11 Дынкин Е. Б., Марковские процессы, М., 1963; [2] Blumenthal R. M., Getoor R. К., Markov processes and potential theory, N. Y., 1968; [3] И то К., Маккин Г., Диффузионные процессы и их траектории, пер. с англ., М., 1968; [41 Doob J.L., Classical potential theory and its probabilistic counterpart, N. Y. - [а. о ], 1984; [5] Kanda M., «J. Math. Soc. Japan*, 1967, v. 19, p. 46-69; [61 Stoica L., «Stud, sj cere, mat.», 1986, t. 38, p. 389-91. M. Г. Шур. РЕГУЛЯРНАЯ УСЛОВНАЯ ВЕРОЯТНОСТЬ (regular con ditional probability) - см. Условная вероятность. РЕГУЛЯРНАЯ ФОРМА ДИРИХЛЕ (regular Dirichlet form) - см. Марковский процесс; форма Дирихле. РЕГУЛЯРНАЯ ЦЕПЬ МАРКОВА (regular Markov chain) - однородная Маркова цепь с конечным числом состояний, образующих один существенный класс, не распадающийся на циклические подклассы. Цепь Маркова регулярна тогда и только тогда, когда при нек-ром (а стало быть, и при любом достаточно большом) t все вероятности р«(0 перехода за t шагов отличны от нуля. В Р. ц. М. все финальные вероятности р■= lim Pij(t) существуют, отличны от 0 и образуют единст- венное стационарное распределение. Лит.: [1] Кемени Дж., Снелл Дж., Конечные цепи Маркова, пер. с англ., М., 1970. А. А. Юшкевич. РЕГУЛЯРНОЕ МНОЖЕСТВО (regular set) - см. Большие уклонения для случайного процесса. РЕГУЛЯРНОЕ СЛУЧАЙНОЕ ПОЛЕ (regular random field) - совокупность случайных величин Xt, teT, где Т - счетное множество такое, что а-алгебра р| ЯЗ(Г\1/) тривиальна (то есть состоит из событий вероятности 0 или 1). Здесь 83(r\VO - а-алгебра, порожденная величинами Xt, te V, и пересечение берется по всем конечным V <= Т. Р. Л. Добру шин. РЕГУЛЯРНОСТЬ МЕРЫ (regularity of a measure) - см. Мера. РЕГУЛЯРНОСТЬ ТРАЕКТОРИИ случайного про ц е с с a (regularity of trajectory of a random process) - см. Случайный процесс; регулярность траектории. РЕДУЦИРОВАННАЯ СХЕМА ЭКСПЕРИМЕНТА (reduced experimental scheme) - см. Априорной информации учет. РЕДУЦИРОВАННЫЙ ВЕТВЯЩИЙСЯ ПРОЦЕСС (reduced branching process) ~ ветвящийся процесс, образованный теми и только теми частицами исходного ветвящегося процесса, потомки к-рых существуют в заданный момент Т<°°. Р. в. п. называется докритическим, критическим или надкритическим в зависимости от того, явля-
ется ли таковым исходный ветвящийся процесс (см. Ветвящийся процесс, критичность). Понятие Р. в. п. было введено в [ 1 ] и явилось обобщением понятия ближайшего общего предка в ветвящихся процессах. Оба понятия используют в теории ветвящихся случайных полей. Р. в. п., построенный по марковскому ветвящемуся процессу, тоже является марковским процессом, но, вообще говоря, неоднородным во времени (см. [7]). Свойства Р. в. п. заметно отличаются от соответствующих свойств исходного процесса. Примеры. 1) Вне зависимости от критичности Р. в. п. не вырождаются. 2) Пусть ZT(t), O^t^T,- число частиц Р. в. п. [то есть число тех частиц исходного ветвящегося процесса Z(t), к-рые существуют в момент t и имеют непустое потомство в момент Т] и7г(0)=1. a) Если Р. в. п. докритический, то к предельному неоднородному во времени ветвящемуся процессу сходится последовательность Z,T(t) = ZT(T- а + t), Q^t^a, при любом а < °° и Г->оо (см. [6]). 6) Если Р. в. п. критический, то процессы vT(t) = ZT(tT), О < t < 1, при Т -> °° сходятся к неоднородному во времени процессу Юла с интенсивностью деления частицы в момент t, пропорциональной 1/(1 -1) (см. [2], [4]). Для критич. Р. в. п. с несколькими типами частиц в предельном процессе типы частиц, существующих в любые два момента времени tu t2t (О, 1), независимы и одинаково распределены (см. [5]). b) В надкритич. случае существует предел последовательности ZT(t) при Г->°° (см. [6]). В основном исследовались марковские Р. в. п. В частности, доказаны предельные теоремы о сходимости в Скорохода топологии, получен аналог принципа инвариантности Донске- ра - Прохорова (см. Инвариантности принцип для случайных процессов), изучены нек-рые структурные характеристики генеалогич. дерева Р. в. п. (см. [3]). Лит.: [1] Fleischmann К., Siegmund-Shultze R., «Math. Na(hr>, 1977, Bd 79, S. 233-41; [2] их же, «Serdica Bulgarical math. publ>, 1978, v. 4, p. 111-34; [3] Ватутин В.А., Зубков A.M., в кн.: Итоги науки и техники. Сер. Теория вероятностей. Математическая статистика. Теоретическая кибернетика, т. 23, М., 1985, с. 3-67; [4) Сагитов СМ., «Теория вероятн. и ее примен.», 1985, т. 30, в. 4, с. 737-49; [5] Якымив А. Л., там же, 1980, т. 25, в. 3, с. 593-96; [6] его же, там же, 1985, т. 30, в. 1, с. 183-88; [7] его же, в сб.: Вероятностные процессы и их приложения, М., 1984, с 24-31. АЛ. Якымив. РЕДУЦИРОВАННЫЙ ЛАТИНСКИЙ КВАДРАТ (reduced Latin square) - см. Латинский квадрат. РЕЗЕРВИРОВАНИЕ (redundancy) - метод повышения вероятности безотказной работы технической системы путем введения различных видов избыточности. В зависимости от видов избыточности различают следующие типы Р.: 1) структурное, при к-ром вводятся дополнительные резервные элементы, принимающие на себя функции основных при их отказах; 2) временное, при к-ром не каждый перерыв в работе системы вследствие потери ею работоспособности приводит к отказу (наличие избыточного времени); 3) информационное, при к-ром предусматривается накопление избыточной информации и ее частичная потеря не приводит к отказу системы; 4) функциональное, при к-ром предусматривается возможность передачи функций одних элементов системы, в случае их отказа, другим неотказавшим элементам. При построении математич. модели функционирования резервированных систем вводится новое пространство состояний X — {х} и заново определяется множество состояний отказа В зависимости от задействованности резерва различают нагруженный, облегченный и ненагруженный резерв. В зависимости от числа резервных элементов определяется кратность Р.: однократное (дублирование) и многократное. Если резервируется система в целом, то такое Р. называется общим; если резервируются отдельные элементы, то раздельным. В зависимости от того, фиксировано или нет место, на к-ром будет работать резервный элемент, Р. называется фиксированным или скользящим. Лит.: [1] Вопросы математической теории надежности, М., 1983; [2] Козлов Б. А., Ушаков И. А., Справочник по расчету надежности аппаратуры радиоэлектроники и автоматики, М., 1975; [3] Надежность технических систем, М., 1985; [4] Черкесов Г.Н., Надежность технических систем с временной избыточностью, М., 1974. В. А. Каштанов. РЕЗЕРВИРОВАНИЕ ОПТИМАЛЬНОЕ (optimal redun- dancy) - см. Оптимальное резервирование. РЕЗКО ВЫДЕЛЯЮЩИЕСЯ НАБЛЮДЕНИЯ, выбросы (outliers),- наблюдения, сильно отличающиеся от основной массы элементов выборки. Они обычно трактуются как грубые ошибки, возникающие в результате случайного просчета, неправильного чтения показаний измерительного прибора и т. п. Не будучи обнаруженными, они могут сильно исказить окончательные результаты. Наиболее целесообразный способ выявления и устранения грубых ошибок ~ непосредственный анализ наблюдений, тщательная их проверка. Статистич. методы следует применять лишь в сомнительных случаях. Существует два класса статистич. методов борьбы с грубыми ошибками. Первый (классический) содержит ряд критериев выявления грубых ошибок (аномальных наблюдений), второй (традиционный) - отбрасывание наблюдений, являющихся Р. в. н. с точки зрения нек-рого критерия, а затем оценивание интересующих параметров. Отбрасывание Р. в. н. при последующем оценивании параметров следует производить не на традиционных уровнях значимости, а на уровнях, к-рые дают оценки, оптимальные в нек-ром смысле. Обычно Р. в. н. не следует отвергать целиком, часто лучшие оценки получаются, если взять эти наблюдения с меньшим весом. Наиболее известные критерии исключения грубых ошибок в нормальных совокупностях принадлежат Э. Пирсону (Е. Pearson), Н. В. Смирнову, Ф. Граббсу (F. Grubbs), Ф. Анскомбу (F. Anscombe) (см. [1], [2]). Критерии отбраковки для экспоненциальных совокупностей разработаны А. Лорентом (A. Laurent) и А. Басу (A. Basu) (см. [1], [3]). Эти критерии основаны на порядковых статистиках, а также на статистиках где хх, ..., хп - наблюдаемая выборка. Другой способ борьбы с Р. в. н. основан на использовании оценок, мало чувствительных к Р. в. н.,- так наз. робастных оценок. В робастных процедурах Р. в. н., как правило, не отбрасываются, а получают меньшие веса, чем «типичные» наблюдения (см. [4]). В теории робастности для описания Р. в. н. используют модель грубых ошибок. Предложены критерии отбраковки, использующие робастные статистики медианного типа вместо традиционных х и s (см. [3]). Робастный вариант статистики Смирнова - Пирсона max \xi~x\fs имеет вид max|^-med{^}| med|xj-med{xj}|' где med {x{} - выборочная медиана наблюдений хх, ..., хп. Лит.: [1] Дэйвид Г., Порядковые статистики, нер. с англ., М., 1979; [2] Большее Л.Н., Смирнов Н.В., Таблицы математической статистики, 3 изд., М., 1983; [3] Смоляк С. А., Титарен- ко Б. П., Устойчивые методы оценивания, М., 1980; [41 Хьюбер П., Робастность в статистике, пер. с англ., М., 1984. Б. П. Титаренко. РЕЗКО 553
РЕЗОЛЬВЕНТА (resolvent) - см. Рэя резольвента. РЕЗОЛЬВЕНТА случайного процесса с независимыми приращениями (resolvent of a random process with independent increments) - см. Случайный процесс с независимыми приращениями; резольвента. РЕЗОЛЬВЕНТНОЕ ТОЖДЕСТВО (resolvent identity) - см. Рэя резольвента. РЕЗОЛЬВЕНТНОЕ УРАВНЕНИЕ (resolvent equation) - см. Марковская полугруппа. РЕЙНОЛЬДСА КРИТЕРИЙ (Reynolds criterion) - критерий механического подобия геометрически подобных течений жидкости, заключающийся в равенстве у них отношений сил инерции к силам вязкости: Re = v_1LC/, где L и U - масштабы длины и скорости, a v - кинематический коэффициент вязкости. При Re> ReK~3000 в результате гидродинамич. неустойчивости возникает турбулентность. Лит.: [1] Монин А.С, Яглом А. М, Статистическая гидромеханика, ч. 1, М., 1965. В. П. Красицкий. РЕЙНОЛЬДСА НАПРЯЖЕНИЯ (Reynolds stress) - допол нительные напряжения х;7=-р(и;.и;), возникающие при осреднении уравнений гидродинамики турбулентного течения из-за наличия в них квадратичных по скоростям слагаемых. Здесь м. - турбулентные флуктуации скорости, угловые скобки - осреднение, р - плотность. Добавляясь к основным неизвестным (и.) и (р), Р. н. создают свойственную теории турбулентности незамкнутость осредненных уравнений. Л. С. Монин. РЕЙНОЛЬДСА УРАВНЕНИЯ (Reynolds equations) - ос- редненные уравнения гидродинамики турбулентного течения (в простейшем случае - несжимаемой жидкости), имеющие вид Эр<«.) Э , , . , ч5 , . ч ~Э^ = " "д7 (Р<^ + ^>6>а + <а>а>" Т>а)' где угловые скобки - осреднение, а.а - вязкие напряжения, т.а - дополнительные Рейпольдса напряжения, делающие эти уравнения незамкнутыми. Р. у. упрощаются для ССГО-тече- ний (статистически-стационарных и горизонтально-однородных), но все же остаются незамкнутыми. а. С. Монин. РЕКУРРЕНТНАЯ ОЦЕНКА (recursive estimator) - см. Рекуррентное оценивание. РЕКУРРЕНТНОЕ ОЦЕНИВАНИЕ (recursive estimation) - раздел теории статистического оценивания, в к-ром изучаются рекуррентные оценки, то есть оценки оценки 8Л, связанные соотношением 8я+1 =fn(Qn, Хя+1), где Xv ..., Хп+Х - последовательность наблюдений. В нек-рых случаях Р. о. приводит к асимптотически эффективным оценкам неизвестных параметров. Процедуры стохастич. аппроксимации Роббинса - Монро и Кифера - Вольфовица (см. Кифера - Вольфовица процедура, Роббинса - Монро процедура) можно рассматривать как непараметрич. процедуры Р. о. для нахождения соответственно нуля или максимума функции регрессии. Однако обычно под Р. о. понимают рекуррентные методы решения парамет- рич. задач. Пусть, напр., Xv Х2, ..., Хп, ...- независимые наблюдения с плотностью распределения fix, 8) относительно пек-рой а-конечной меры v, зависящей от параметра в е В?, неизвестного статистику. Пусть моменты т1(в)=|дгДдг, e)v(rfjc), m2(e) = J(x-m,(e))2/(xl Q)v(dx) 554 РЕЗОЛЬВЕНТА конечны и mt(e) ~ строго возрастающая функция. Тогда процедура 6fc+1-6fe = —2— (Xfc+1-m,(efc)), 60 - произвольно, (1) дает асимптотически несмещенную и асимптотически нормальную оценку в, если выполнено условие 2am\(Q)>\. При нек-рых дополнительных условиях процедура е»+'-е* = ц+0/(8») f(xM,ekr ео-"Р°извольно, (2) где /(в) - информационное количество Фишера плотности f, оказывается асимптотически эффективной. Процедуры (1) и (2) обобщаются на случай оценивания параметра 8elR (см. [1]). Известен ряд модификаций процедуры (2) и ее многомерного обобщения, для к-рых удается доказать асимптотич. эффективность при более слабых ограничениях. Смысл этих модификаций состоит в том, что процедура (2) «усекается» в окрестности нек-рой вспомогательной состоятельной оценки (см. [2]). Р. о. применяют также для оценивания параметров линейной регрессии, в случае зависимых шумов, для непрерывных по времени процессов. Р. о. тесно связано с рекуррентными фильтрами типа Калмана фильтра. Лит.: [11 Невельсон М.Б., Хасьминский Р. 3., Стохастическая аппроксимация и рекуррентное оценивание, М., 1972; [2] Невельсон М. Б., «Теория вероятн. и ее примеп.», 1980, т. 25, ъ. 3, с. 577-87. р.з. Хасьминский. РЕКУРРЕНТНОЕ СОБЫТИЕ (recurrent event), возвратное событие,- см. Восстановления процесс. РЕКУРРЕНТНЫЙ КОД (recurrent code) - см. Сверточ- ный код. РЕКУРРЕНТНЫЙ МЕТОД НАИМЕНЬШИХ КВАДРАТОВ С КОНЕЧНОЙ ПАМЯТЬЮ (recursive least squares with finite memory) - вычислительный алгоритм получения точечной оценки на основе наименьших квадратов метода, позволяющий оперативно контролировать используемый объем данных при минимальных требованиях к используемой машинной памяти. Пусть в ситуации общей линейной модели оценка по методу наименьших квадратов 8(я, п + r) получена на основе измерений у„+\, .., #„+г с использованием строк матрицы регрессионных коэффициентов X с (я + 1)-й до (я + г)-й. Соответствующие массивы обозначают Y(n, ?i + r), Х(я, п+r) и вводят матрицу 1(я, я + г) = [Хт(я, п + г)Х(п, п + г)}~\ Тогда 8(я, я+г) = 1 (я, n + r)XT(n, n + r)Y{n, n + r), (1) cove (я, п + г) = а21 (я, п + г). Хорошо известно (см. [1]-[3]), как можно сделать эту оценку рекуррентной, организовав оператор введения нового измерения: bin, n + r+ 1) = 8(и, п + r) + + KU\n, n + r)[yn+r+]-xTn+r+fi(n, п + г)}, (2) где х^+г+1 есть (п + г+ 1)-я строка матрицы X, К - коэффициент передачи, к-рый рассчитывается по формуле KU\n, и + г) = |х(я, и + г)*п+гИх х[/ + *1+г+1 Х(я, я + г)хи+гИ]"\ (3) -KU\n, n+r)xTn+r+i 1(я, п + г). (4)
Используя те же методы, к-рые применяют при выводе формул (2)-(4), можно организовать для оценки (1) оператор забывания: &(и+1, и + г+1) = 6(я, я + г+1)- -К(2\п, п + г+\)[уп+1-хтп+]в(п} л + г+1)], где К(2\п, п + г+\) = = Е(и, я + г+1)*я+1[/-л£+1Е(п, п + г+\)хп+]] \ при этом 1(и + 1, п + г+ 1) = 1(и, и + г+ 1) + + /С(2)(я, п + г+1)л£+1Е(я, л + г+1). (5) Формула (5) позволяет повторять циклы введения нового измерения и забывания ранее введенного любое нужное число раз. Примеры применения подобных процедур при решении важных практич. задач см., напр., в [4]~[6]. Пример. Пусть имеющаяся эмпирич. зависимость y(s) локально на промежутке [х-/, х + /] удовлетворяет модели г,(5) = Рш(5) + £(*), s = x-/, T-/+1, ..., х + /, (6) где Pm(s) - многочлен степени тп\ а стационарный эргодический дискретный случайный процесс £(0 подчиняется схеме авторегрессии известного порядка р(р>1): ti(0 = p{Zi(t-\) + ... + pfi(t-p) + r)(t)> гдел(0- дискретный белый шум интенсивности а : Еф) = 0, Е[ф^)ф2)]=а2Ш{ -t2). Для оценивания неизвестных параметров я0, ..., ат> ри ..., рр используют метод Манна и Вальда (см. [7]-[8]). После преобразований ла)=5(о-р1^-о-...-р^-р) = = y(t)-Pm(t)-px[y(t-\)-Pm(t-\)]-... ...-9p[y(t-p)-Pm(t-p)} = коэффициенты plt .... рр, у0, ..., ут можно найти на основе стандартной процедуры метода наименьших квадратов из линейной модели У = Хв + #, где У = {у(т-/),у(т-/+1), .... */(т + /)}т; в=(р1, .... РР> Yo> ■■■■ Y«>T". Я={л(х-0, л(х-/+1) Л(х + 0}Т; Х = (Х„Х2)Т; Xi = {y(k-j)},T-l^k^x + l, i^j^p; X2 = {k,)t %-l^k^x + l, O^j^m. Величины у0, ..., ym связаны с искомыми параметрами а0, ..., ат системой соотношений у, = *А> + ^(-Пшсж\к"*А> 5 = o т. где60=1-р1-...-рр, 5у = р1+2ур2+...+р;рр, O^j^m. Способ построения ковариационной матрицы полученного вектора оценок предложен в [8]. В случае, когда коэффициенты авторегрессии plf ..., р при переходе от промежутка [х-/, х + /] к промежутку [х-/+1,х + /+1] остаются постоянными, приходят к классич. процедуре скользящего полиномиального сглаживания (см. [9]) с весами, зависящими от Pi, ..., рр. Тем не менее, даже в этом случае вычисления обычно выгодно проводить по рассматриваемой рекуррентной схеме с конечной памятью. В более сложных ситуациях, когда сглаживание измерений производится на фоне шума с переменной или случайной корреляционной структурой (см. [10]-[11]), схема с конечной памятью практически не имеет альтернатив. Лит.: [1] Современные методы идентификации систем, пер. с англ., М., 1983; [2] Алберт А., Регрессия, псевдоинверсия и рекуррентное оценивание, пер. с англ., М., 1977; [3] Адаптивные фильтры, пер. с англ., М., 1988; [4] Мон зи нг о Р. А., М и л л ер Т. У., Адаптивные антенные решетки, пер. с англ., М.р 1986; [5] Кузьмин С. 3., Основы теории цифровой обработки радиолокационной информации, М., 1974; [6] Kailath Т., Lectures on Wiener and Kalman filtering, W.- N.Y., 1981; [7] Mann H.B., Wald A., «Econometrica», 1943, v. 11, p. 173-220; [8] Rao С R., в кн.: Proceeding of the 5-th Berkeley Symposium on mathematical statistics, v. 1, Berk. - Los Ang., 1967, p. 355-72; [9] Андерсон Т., Статистический анализ временных рядов, пер. с англ., М., 1976; [10] Nichol is D. F., QuinnB.G., Random coefficient autoregressive models, B. - Hdlb. - N. Y., 1982; [11] Ledol ter J., в кн.: Applied time series analysis II, N. Y. - [a. o], 1981, p. 449-71. А. В. Макшанов. РЕКУРРЕНТНЫЙ ПОТОК (recurrent input) - см. Входя гций поток с ограниченным последствием. РЕЛЕЙНАЯ КОРРЕЛЯЦИОННАЯ ФУНКЦИЯ (relay correlation function) стационарного случайного процесса X(t) - взаимная корреляционная функция J9(r)(x) = EX(0sgnX(£ + x) процессов sgnX(t) и Х(0, где sgn#=1 при х>0, sgn# = 0 при ^ = 0и sgn# = -l при х<0. Аналогично этому, если X(t) = {Х(0, Y(t)} - двумерный стационарный случайный процесс, то называется взаимной Р. к. ф. процессов Х(О и Y(t). Если (X, У) - нормально распределенный двумерный случайный вектор с ЕХ = ЕУ = 0, д(х) - такая функция, что ЕХ#(Х)<ос, то ЕУ^(Х) = сХУ, с=ЕХ#(Х)/ЕХ2. (1) Так как в рассматриваемом случае 1/2 EXsgnX=E|x|={2EX7*} приближенное определение Р. к. ф. В (х) и В^у (х) гауссов- ских случайных процессов Х(0 и X(t) = {X(t), Y(t)} с нулевым средним значением может быть использовано для оценок корреляционных функций EX(t + х)Х(0 = Жх) = тсВ(г)(т)Я(г)(0)/2 (2) [или Жх) - Жх)/Ж0) = Я(г)(т)/Я(г)(0)] ЕХ(г + х)У(0 = ВХУЫ = пВ(ху (т)в££ (0)/2 (3) [илиИХу(т) = ВХу(т)/[Вхх(0)ВууШи2] процессов Х(0 и X(t) = {X(t), Y(t)}. В то же время определение выборочных значений Р. к. ф. В(г)(т) и В<*(т) требует нахождения сумм вида V x(kA)sgnx(kA + x) и V #(fcA)sgn x(kA + х) [где x(t) и y(t) - реализации процессов Х(0 и Y(t), а Д= 1, если t пробегает только целочисленные значения]; эти суммы не включают операций умножения и значительно проще подсчитываются, чем V x(kA)x(kA + x) и V y(kA)x(kA + T), входящие в выражения для выборочных корреляционных функций ВТ(т) и ВХУ т(х). По этой причине релейный метод определения корреляционных функций гаус- совских случайных процессов, опирающийся на предварительную оценку Р. к. ф. В (х) и В^у и формулы (2), (3), довольно часто применяют на практике (см., напр., [1]-[6]). РЕЛЕЙНАЯ 555
Вычисление среднего квадрата ошибки релейного метода определения корреляционных функций оказывается даже более точным (см. [7]-[9]), чем обычный метод, опирающийся на осреднение но времени t произведений x(t)x(t + i) или y(t)xtt + T). Релейный метод определения значений корреляционных функций и нек-рые его модификации могут использоваться и для оценки корреляционных функций негауссовских случайных процессов (см., напр., [6], с. 237; [10], [И]). Лит.: [1] Балл Г. А., Аппаратурный корреляционный анализ случайных процессов, М, 1968; [2J Грибанов Ю. И., Весе лова Г. П., АндреевВ. Н., Автоматические цифровые корреляторы, М., 1971; [3] Жовинский В. Н., Арховский В. Ф., Корреляционные устройства, М., 1974; [4J Ky рочкин С. С, Многоканальные счетные системы и коррелометры, М., 1972; [5] МирскийГ. Я., Аппаратурное определение характеристик случайных процессов, 2 изд., М., 1972; [6] Яглом А. М., Корреляционная теория стационарных случайных функций, Л., 1981; [7] ХавкинВ.П., Гринберг А. И., «Заводская лаборатория», 1970, т. 36, № 10, с. 1236-38; [8] Косякин А.А., Филаретов Г. Ф., в кн.: Труды к 5-му Всесо- юзн. симпоз. «Методы представления и аппаратурный анализ случайных процессов и полей». Секц. 3, Л., 1972, с. 144-50; [9] Iwase К., «Repts Statist. Appl. Res. Union Jap. Sci. and Eng.», 1973, v. 20, № 4, p. 113-17; [10] BognerR. E., «Electronics Letters IEE», 1965, v. 1, № 3, p. 53-54; [11] Knowlesj. В., Tsui H.Т., «J. Appl. Phys.», 1967, v. 38, № 2, p. 607-12. A. M. Яглом. РЕЛЕЙНЫЙ МЕТОД определения корреляционных функций (relay method of correlation analysis) - см. Релейная корреляционная функция. РЕМОНТОПРИГОДНОСТЬ (repairability) - см. Надежности математическая теория. РЕНОРМАЛИЗАЦИОННАЯ ГРУППА (^normalization group) - однопараметрическая группа (в нек-рых случаях полугруппа) преобразований пространства случайных полей, сопряженная группе (полугруппе) масштабных преобразований пространства реализаций случайного поля. Р. г. определяется для случайных полей с дискретным и непрерывным аргументами. Пусть вначале {X(j) е Г, / е Ж } есть случайное поле с дискретным аргументом на d-мерной целочисленной решетке со значениями в топологич. векторном пространстве Г. Вероятностное пространство этого случайного поля есть тройка yd Р = {Г , 33, ц), где (X есть вероятностное распределение на а-алгебре множеств 33, порожденных цилиндрическими береге левскими множествами в пространстве Г реализаций случайного поля. Масштабным преобразованием порядка или масштаба я =1,2, ... с показателем а>0 пространства Т называется линейное отображение Х(/)->Х(„а)(;) = где/ = (/j, ..., jd) e Ж . Случайное поле {X%(j), /e Ж } называется ренормализационным преобразованием случайного поля {Ж/), /eZ }. Вероятностное распределение ц^ случайного поля {Х<а)(/), j&T*} называется ренормализационным преобразованием вероятностного распределения JI случайного поля [X(j), /eZ }. Ренормали- зационные преобразования {#(„а):д-»ц^\ п- 1, 2, ...} образуют коммутативную мультипликативную полугруппу преобразований пространства вероятностных распределений на а-алгебре S3, называемую дискретной ренормализационной группой с показателем а. Понятие дискретной Р. г. было введено в теорию вероятностей в сер. 70-х гг. в работах Я. Г. Синая (см. [1]) и независимо Г. Галловотти (G. Gallo- 556 РЕЛЕЙНЫЙ votti) и Г. Иона-Ласинио (G. Jona-Lasinio), к-рые придали строгий смысл эвристич. определению физич. Р. г. Каданова. Дискретная Р. г. тесно связана с предельными теоремами для сумм случайных величин X(j). Предел lim Х*а)(/), j е Ж , если он существует в смысле слабой сходимости и не сосредоточен на одной реализации, называется автомодельным пределом распределения ji. Соответственно, случайное поле {Х*(/) = lim Х*а)(/),/е Zd}, определяемое вероятно- стным распределением ц», называется автомодельным пределом случайного поля {X(j), )'еЖ }. Тем самым автомодельный предел, если он существует, задает предельный закон совместного распределения нормированных сумм {XJ^ij), j е Ж } при я -» оо. Вероятностное распределение ц* на а-алгебре 33 называется автомодельным распределением вероятностей с показателем а, если #^а)|1*=Ф* для всех л= 1, 2, .... Отвечающее [im случайное поле {Xt(j), )'еЖ } называется в этом случае автомодельным случайным полем. Автомодельный предел lim /?^ц. = Щ| если он существует, является автомодельным распределением вероятностей с показателем а. Уравнения #„ |i* = M*> п = 1, 2, ..., называются уравнениями автомодельно- сти. Областью п р и т я ж е н и я автомодельного распределения вероятностей |1* называется множество тех распределений [i, автомодельный предел к-рых совпадает с |1». Метод Р. г. доказательства существования автомодельных пределов состоит в построении автомодельных распределений вероятностей, как решений уравнений автомодельности, и исследовании их областей притяжения. Частным случаем автомодельных случайных полей являются поля независимых гауссовских случайных величин с нулевым средним и одинаковой дисперсией. Показатель автомодельности этих полей равен 1/2. Сходимость к ним автомодельных пределов составляет содержание центральной предельной теоремы. Более общий пример автомодельных случайных полей дают поля независимых одинаково распределенных случайных величин, подчиненных устойчивым распределениям. Класс зависимых автомодельных случайных полей чрезвычайно широк, и полное его описание в настоящее время отсутствует. Описаны классы гауссовских автомодельных случайных полей и автомодельных функционалов таких полей (см. [1], [2]). Исследованы также нек-рые классы случайных полей, лежащие в области притяжения этих автомодельных полей. Пусть теперь {Х(х) е П?т, x e IRrf} есть обобщенное случайное поле с непрерывным аргументом в rf-мерном евклидовом пространстве со значениями в евклидовом пространстве IRm. Его вероятностное пространство есть {,£'([*), 33, ц), где 5'(Л? ) - пространство обобщенных функций умеренного роста и[1- вероятностное распределение на а-алгебре 33, порожденной борелевскими цилиндрич. множествами в S'(k). Масштабное преобразование порядка или масштаба ^>0 с показателем а>0 определяется для обобщенной функции Х{х) tS'iV1) с помощью формулы Х(х)-*х[ (х) = Х dX(x/X), где, по определению, (Х(х/Х), у(х))-Х (Х(х), <р(Ъ:)). Случайное поле {Х^(х), хеП? } называется ренормализационным преобразованием случайного пол я {Х(х), хе№*}. Вероятностное распределение ц" случайного поля {Х^(х), х е IR } называется ренормализационным преобразованием распределения в ероятн остей |1. Подробнее, если (X задается конечномерными распределениями рк(щ, ..., фД где ф,, ..., фле5(Я?£/), /?=1, 2, ..., то pk(X (р^(Хх), ..., X yk(Xx)) есть конечномерное распределение для \i^K Ренормализационные преобразования
{R^:\L-*\£*\ X>0} образуют однопараметрич. мультипликативную группу преобразований пространства вероятностных распределений на а-алгебре :Я. Пределы lim R, u и lim r[ (X, если они существуют в смысле слабой сходимости конечномерных распределений и не сосредоточены на одной реализации, называются соответственно крупномасштабным и мелкомасштабным автомодельными пределами распределения \i. Случайное поле {Х0(х), #е1Р } и его вероятностное распределение |i* называются автомодельными с показателем а>0, если /^ ц* = М-* для всех ^О. Крупномасштабный и мелкомасштабный автомодельные пределы случайных полей, если они существуют, являются автомодельными случайными полями. Автомодельные случайные процессы с непрерывным временем впервые рассматривались в работах А. Н. Колмогорова в начале 40-х гг. (см. [3]). Затем исследовались различные классы автомодельных случайных полей с непрерывным аргументом (см. библ. в [2], [4]). Сюда относятся автомодельные случайные процессы и поля с независимыми значениями, гауссовские автомодельные случайные поля, автомодельные функционалы гауссовских случайных полей, автомодельные функционалы устойчивых и пуассоновских случайных полей и нек-рые другие. Существует естественная связь между непрерывной и дискретной Р. г. Пусть х(*) - характеристич. функция единичного куба {#e[Jr|0^.xfe^l, k=\, ..., d) и x/*) = X(*~/)- Пусть {X(x),xe®d} - обобщенное случайное поле такое, что определены случайные величины X(j) ~ Жх;) г (Х(х), х;(*))> / е 2 . Такое обобщенное случайное поле называется дискрети- зируемым, а дискретное случайное поле {Х;, jе 1 } называется его дискретизацией. Тогда DR^епр = Я^HCKpD, гдеие2+, a D, R^Henp и #(„адИСкр соответственно оператор дискретизации, непрерывное и дискретное ренормализацион- ные преобразования. Отсюда, в частности, следует, что дискретизация автомодельного случайного поля автомодельна. Это даег общий метод построения автомодельных случайных полей с дискретным аргументом. Дискретная и непрерывная Р. г. широко применяются в статистич. физике и конструктивной квантовой теории поля при исследовании критич. точек и точек фазовых переходов, в гидродинамике при описании турбулентных течений, в теории сетей автоматов и др. Лит.: [\] Синай Я. Г., Теория фазовых переходов, М., 1980; [2] Major P., Multiple Wiener - Ito integrals, В.- [а. о.], 1981, p. 1-127; [3] Ко л моторов А. Н., Математика и механика, М., 1985, с. 274-77; [4] БлехерП.М., Сургайлис Д., в кн.: Итоги науки и техники. Сер. Теория вероятностей. Математическая статистика. Теоретическая кибернетика, т. 20, М., 1983, с. 3-51; [5] Добру- шин Р. Л., в кн.: Многокомпонентные случайные системы, М., 1978, с- 179-213. Я. А/. Блехер. РЕНОРМАЛИЗАЦИОННОЕ ПРЕОБРАЗОВАНИЕ (re normalization transformation) - см. Ренормализационная группа. РЕНЬИ КРИТЕРИЙ (Renyi test) - статистический критерий, применяемый для проверки простой непараметрической гипотезы #0, согласно к-рой независимые одинаково распределенные случайные величины Xt, ..., Хп имеют заданную непрерывную функцию распределения F(x) против альтернатив следующего вида: Hf: sup y[F(x)](EFn(x) - F(x))>0, ЯГ: inf y[F(x)](EFn{x)-Hx))<Ot tf,: sup y[F(x)]\EFn(x)-F(x)\>0, V[F(x)] = где Fn(x) - функция эмпирического распределения, построенная по выборке Xv ..., Хп, y(F), y^0,~ весовая функция. В случае, если fl/FOr) при F(x)^a, [О при F(x)<a, где а - любое фиксированное число из отрезка [0, 1 ], то Р. к., предназначенный для проверки Я0 против указанных альтернатив #Г, #Г> Н]Т основан на соответствующих им статистиках Реньи; я: <в, о» sup R-(a, 1) = - inf F(x)7?a R(a, 1)= sup - Fn(x)-F(x) Fix) Fn(x)-F(x) _ Fix) Fn(x)-F(x)\ _ Fix) max F<X(m) mln-F(X(m)) max F{X(m))Za ». HX(m)) F(Xin))Am-\)/n x {/?;(«,!), R~(a} »}. X, (1)' 42)' X(„) - члены вариационного где X( j) ^ X(2) ^ ... ^ X(n), построенного по наблюдениям Х1, ряда Статистики R*(a, 1) и Rn(a, 1) подчиняются одному и тому же вероятностному закону, и если 0<а^ 1, то IimP :2Ф(*)- Щкс о<х}= ]\mPlJ^R;t(a,\)<x\ = L(x\ x>0, х>0, (1) (2) где Ф(х) ~ функция распределения стандартного нормального закона, L(x) - функция распределения Реньи, определяемая формулой Ш)==АУ~ М)Йсхр( <2*+*>2*21 В случае если а = 0, то Р{д+ (0, 1)^*1 = 1—~, *>0. 1 п ' \+х Из (1) и (2) следует, что при больших значениях п для вычисления Q-процентных критич. значений (0% < Q<50%) для статистик R*(a, 1) и R~(a, 1) можно воспользоваться следующими приближенными значениями: /Ь^Ф"1 (1-0,0050) и Jb^L-1 (1-0,010) V па V па соответственно, где Ф~ (х) и LT (х) - функции, обратные Ф(х) и L(x) соответственно, при этом имеют в виду, что если О%<0<1О%, то Ф_1(1 -0,0050)«L"4l-0,020). Кроме того, если л;> 2,99, то при вычислении значений функции распределения Реньи L(x) рекомендуется пользоваться приближенным равенством Ш)*4Ф(*)-3, погрешность к-рого не превосходит 5-10 . Кроме рассмотренных Р. к., существуют аналогичные критерии, отвечающие весовой функции у[Л*)] = 1-Я*)' [0, если F(x)>a, где а - любое фиксированное число из отрезка [0, 1]. Лит.: [1] Renyi A., «Acta math. Acad. sci. hung.», 1953, v. 4, p. 191-231; [2] ГаекЯ., Шидак З., Теория ранговых критериев, пер. с англ., М., 1971; [3] Большев Л.Н., Смирнов Н. В., Таблицы математической статистики, 3 изд., М., 1983. А/. С. Никулин. РЕНЬИ СТАТИСТИКА (Renyi statistic) - см. Реньи при терий. РЕНЬИ 557 если F(x)^a,
РЕНЬИ ФУНКЦИЯ РАСПРЕДЕЛЕНИЯ (Renyi distribution function) - см. Ренъи критерий. РЕНЬИ ЭНТРОПИЯ (Renyi entropy) - см. Информационная мера. РЕПРЕЗЕНТАТИВНАЯ ВЫБОРКА (representative sam pie) - выборка из генеральной совокупности с распределением Fix), представляющая основные особенности генеральной совокупности. Необходимым условием этого является равно- возможность каждого элемента генеральной совокупности войти в выборку. В этом случае выборочная функция распределения Fix) дает при большом объеме выборки достаточно хорошее представление о функции распределения генеральной совокупности Fix). Лит.: [1] Крамер Г., Математические методы статистики, пер. с англ., 2 изд., М., 1975; [2] Айвазян С. А., ЕнюковИ.С, Мешалки н Л. Д., Прикладная статистика, М., 1983. Б. П. Титаренко. РЕСТРИКТИВНАЯ ОЦЕНКА (restrictive/constrained estimator) - см. Наименьших квадратов метод с ограничениями. РЕШАЮЩАЯ ФУНКЦИЯ (decision function) - стохастическое отображение выборочного пространства X в пространство решений 9). Стохастич. отображение определяет на пространстве решений i9), Ю распределение вероятностей ipemammee правило) (pi-\x), зависящее от результата х статистич. эксперимента. Р. ф. есть случайная величина Ъ=Ых) со значениями в 9), имеющая при каждом х распределение q>(- \x). Иногда Р. ф. отождествляют с решающим правилом ф. Практич. реализация Р. ф. в общем случае связана с процедурой рандомизации, проведение к-рой не требуется, если распределение ф(- U) сосредоточено в нек-рой точке d = dix). В связи с этим различают рандомизированные и нерандомизированные Р. ф., отождествляя последние со статистиками - измеримыми отображениями из I в 2>. Р. ф. в теории статистических игр- любое измеримое отображение выборочного пространства в множество всех возможных решений (см. Игра двух лиц, Статистиче екая игра). Лит.: [1] Вальд А., Статистические решающие функции, в сб.: Позиционные игры, М., 1967, с. 300-522. А. В. Бернштейн, И. Н. Володин. РЕШАЮЩАЯ ФУНКЦИЯ бейесовская (Bayes decision function) - см. Бейесовская решающая функция. РЕШАЮЩАЯ ФУНКЦИЯ допустимая (admissible decision function) - см. Допустимая решающая функция. РЕШАЮЩАЯ ФУНКЦИЯ инвариантная (invariantdecision function) - см. Инвариантность в теории статистических игр. РЕШАЮЩАЯ ФУНКЦИЯ минимальная (minimal decision function) - см. Статистических решений теория. РЕШАЮЩАЯ ФУНКЦИЯ; минимально полный класс (minimal complete class of decision functions) - см. Статистических решений теория. РЕШАЮЩАЯ ФУНКЦИЯ нерандомизированная (non-randomized decision function) - см. Статистических ре- шений теория. РЕШАЮЩАЯ ФУНКЦИЯ несмещенная (unbiased decision function) - см. Несмещенность статистической процедуры. РЕШАЮЩАЯ ФУНКЦИЯ оптимальная (optimal decision function) - см. Оптимальность статистической процедуры. РЕШАЮЩАЯ ФУНКЦИЯ; полный класс (complete class of decision functions) - совокупность решающих функ- 558 РЕНЬИ ций, рассмотрением к-рых достаточно ограничиться в данной статистической проблеме без потери качества принимаемых решений. Пусть К - нек-рый класс решающих функций (совпадающий, возможно, с классом всех решающих функций). Подкласс К* <= К называется полным в классе К у если для любой решающей функции be К найдется решающая функция 8* е К* такая, что #(8, б*)^Ж8, б) для всех 6 е 0; здесь Жв, б) - функция риска решающей функции б, используемой для принятия решения о неизвестном параметре в <= 0, характеризующем исследуемый объект. См. Статистическая процедура; полный класс. А. В. Бернштейн. РЕШАЮЩАЯ ФУНКЦИЯ равномерно лучшая (uniformly best decision function) - решающая функция, минимизирующая функцию риска равномерно во всех точках параметрического пространства. См. Статистических решений теория. А. В. Бернштейн, И. Н. Володин. РЕШАЮЩАЯ ФУНКЦИЯ рандомизированная (randomized decision function) - см. Статистических решений теория. РЕШАЮЩЕЕ ПРАВИЛО (decision rule), решающий критерий,- последовательный статистический критерий (т, d) для проверки гипотез //,-, 1 = 0, ..., k, относительно параметра в функции распределения наблюдаемых случайных величин. Здесь т - марковский момент (момент остановки) относительно заданного неубывающего потока а-алгебр {.e/J, j4t с: jf, на нек-ром вероятностном пространстве {£1, .«/, Р}, d - измеримая функция (функция заключительного решения), принимающая значения 0, ..., k (номер принимаемой гипотезы). В частности, если т - неслучайная величина, то Р. п. представляет собой обычный критерий для проверки статистич. гипотез. Р.п. (т*, d*) называется бейесовским (оптимальным бейесовским) для априорного распределения qid$), ве0, если на нем достигается минимум среднего значения бейесовского риска wix, в, d), то есть выполнено inf f E*w(xt в, d)qidQ)= f E^wix*, 6, d*)qide). Аналогом понятия Р. п. для задач последовательного оценивания параметров является последовательный план (оценивания). См. также Статистических решений общая теория. Лит.: [1] Ширяев А. Нм Статистический последовательный анализ, М., 1976. А. А. Новиков. РЕШАЮЩИЙ КРИТЕРИЙ (decision criterion) - см. Решающее правило, Последовательная проверка гипотез. РЕШЕТЧАТАЯ МОДЕЛЬ статистической механики (lattice model in statistical mechanics) - см. Статистическая механика. РЕШЕТЧАТОЕ РАСПРЕДЕЛЕНИЕ (lattice distribution) - дискретное распределение вероятностей случайной величины X, принимающей значения a + nh, h > О, -«> < а < «>? п - 0, ± 1, ±2, ... Число h называется шагом P.p. При я = 0 P.p. является арифметическим распределением. Примерами P.p. могут служить распределение Пуассона и биномиальное распределение. Р. р.- наиболее важный и часто встречающийся в приложениях представитель дискретных распределений. Шаг P.p. h называется максимальным, если ни при каких ах и h^> h распределение не сосредоточено на множестве точек вида a\ + nhx, я = 0 ±1, ... Класс P.p. может быть описан в терминах характеристич. функций: для того чтобы распределение вероятностей с характеристич. функцией fit) было решетчатьгм, необходимо и достаточно, чтобы при нек-ром
tQ ф О имело место равенство | /"(t0) | = 1, причем uiar h является максимальным тогда и только тогда, когда |/"(2л/Л)| = 1 и |/Х0|<1 при 0<t<2n/h. Формула обращения для P.p. может быть записана в виде рп = -М e-it{a"nk)f(t)dt, гп 2л J Id< л/А где рп - вероятность, к-рую P.p. приписывает точке a + nh. Свертка двух P.p., вообще говоря, может не быть P.p., она является Р. р. тогда и только тогда, когда отношение hjh2, где h\ и h2 - шаги распределений, является рациональным числом. Лит.: [1] Прохоров Ю. В., Розанов Ю. А, Теория вероятностей. Основные понятия. Предельные теоремы. Случайные процессы, 3 изд., М., 1987; [2] Петров В. В., Предельные теоремы для сумм независимых случайных величин, М., 1987. Н. Г. Ушаков. РЕШЕТЧАТЫЙ КОД (trellis code) - см. Сверточный код. РЕШЕТЧАТЫЙ ЛИНЕЙНЫЙ КОД (linear trellis code) - см. Сверточный код. РИДЖ-ОЦЕНКА (ridge estimator) - см. Хребтовая регрессия. РИМАНОВА ИНФОРМАЦИОННАЯ МЕТРИКА (Rie mann information metric) - единственная с точностью до множителя риманова метрика на совокупностях распределений вероятностей, инвариантная относительно статистических решающих правил категории. Для двух распределений вероятностей на одном и том же измеримом пространстве элементарных исходов (С1, Ю Р. и. м. задается сферическим расстоянием Бхаттачарья-Рао: s(P, Q) = 2 arccosj VP(rfcu)Q(rfco) . (1) Локально Р. и. м. определяется количеством информации (по Фишеру); для гладкого семейства {Р,, t е 0 с IP*} с cap (ft, 90 в «точке» Р8 df = yk.dedt?IiAti)t (2) где (7Z;(6)) - информационная матрица Фишера. Полной вариации метрика также принадлежит к классу инвариантных относительно категории статистич. решающих правил и является в этом классе минорантой с точностью до множителя (см. [5]). Несмотря на фундаментальное свойство (2), в «большом» метрика (1), как и другие инвариантные относительно категории статистич. решающих правил метрики, важной роли в теории не играет. В качестве характеристики «непохожести» распределений в математич. статистике обычно выступает относительная энтропия, являющаяся во многих отношениях, включая теорему Пифагора, несимметричным аналогом половины квадрата евклидова расстояния. Лит.:{\\ Bhattacharyya A., «Bull. Calcutta Math. Soc.», 1943, v. 35, p. 99-109; [21 RaoC.R., там же, 1945, v. 37, p. 81-91; [3] Козлов В. П., «Докл. АН СССР», 1966, т. 166, № 4, с. 779-82; [4] Ченцов Н, Н., Статистические решающие правила и оптимальные выводы, М., 1972; [5] его же, Дополнение 1, в кн.: Де- вройЛ., ДьёрфиЛ., Неиараметрическое оценивание плотности, пер. с англ., М, 1988; [6] Amari S., Differential-geometrical methods in statistics, В. - [а. о.], 1985. И. Н. Ченцов. РИСК (risk) - числовая характеристика качества статистической процедуры, выражающая средние потери, связанные с постановкой статистического эксперимента и принятием решения. Примерами Р. служат наибольшее значение риска функции , априорный риск, бейесовский риск, минимаксный риск (см. Статистических решений теория) и ряд других характеристик величины средних потерь, из условия минимизации к-рых находятся так наз. оптимальные статистич. процедуры. Иногда, желая подчеркнуть, что в рассматриваемой характеристике качества учитываются затраты на проведение статистич. эксперимента, вместо термина «Р.» используется термин «полный риск»; в этом случае под Р. понимается только числовая характеристика качества решающей функции (риск решающей функции). А. В. Бернштейн, И. Н. Володин. РИСК минимаксный (minimax risk) - см. Минимаксный риск. РИСК стратегии (risk of a strategy) - см. Планирование эксперимента. РИСКА ФУНКЦИЯ (risk function) - характеристика качества решающей функции 5, выражающая величину средних потерь, к-рые несет статистик от применения б. Пусть L(e, d) - функция потерь и Ь = Ь(х) - нек-рая решающая функция. Тогда величина /?(6, 5) = E8L(6, 5(X)), рассматриваемая как функция параметра 8 е 0 распределения Р8 случайного элемента X, называется функцией риска. См. Статистическая игра, Статистических решений теория. А. В. Бернштейн, И. Н. Володин. РИССА РАЗЛОЖЕНИЕ (Riesz decomposition) супер- мартингала Х=(Хп,^п), я^1, - разложение вида Хп-тп + кп, где М = (тп,Лт), я^-1,- мартингал, а П = (лп, Лп), я^1,- потенциал, то есть такой неотрицательный супермартингал, что Елп->0, п -> °°. Справедливость Р. р. доказывается для супермартингалов X, обладающих свойством мажор ируемости нек-рого субмартингала У-{Уп, Лп), п^\ (то есть Хп^Уп почти наверное, я^1). Р. р. супермартингала является аналогом теоремы Рисса из теории дифференциальных уравнений о представлении супер- гармонич. функции в виде суммы гармонич. функции и потенциала Грина нек-рой положительной моды. См. также Потенциала теория для марковского процесса. Лит.: [1] DellacherieC, Meyer P.-A., Probabilites et poten- tiel. Theorie des martingales, t. 1-2, P., 1975-80; [2] Липцер Р. Ш., Ширяев A.M., Статистика случайных процессов, М., 1974. Л. И. Гальчук. РИЧАРДСОНА ЗАКОН ЧЕТЫРЕХ ТРЕТЕЙ (foar-thirds Richardson law) в теории турбулентности- соотношение, описывающее зависимость скорости относительной турбулентной диффузии (то есть процесса взаимного удаления друг от друга пары частиц, перемешиваемых жидкостью, или рассеяния облака примеси, состоящего из большого числа частиц) от масштаба явления (то есть от расстояния / между рассматриваемыми двумя частицами или типичного размера / диффундирующего облака). Так как в развитой турбулентности присутствуют возмущения (вихри) разнообразных масштабов, процесс относительной диффузии убыстряется с ростом /, поскольку возмущения, к-рые при малых значениях / переносят все частицы как целое, при больших / начинают уже изменять их взаимное расположение. Л. Ричардсон [1] предложил характеризовать скорость относительной диффузии коэффициентом диффузии К, определяемым формулой где /(О - масштаб длины диффундирующей группы частиц в момент t\ после чего, обработав обширный эмпирич. материал о рассеянии примесей в атмосфере, он вывел Р. з. ч. т., согласно к-рому *(/,) = <4/3, где /# = [Е/ ] ' ,аа- размерный коэффициент. А. М. Обухов в [2] указал, что эмпирич. закон Ричардсона непосредственно РИЧАРДСОНА 559
следует из развитой им и А. Н. Колмогоровым теории локально изотропной турбулентности, согласно к-рой для значений /*, принадлежащих инерционному интервалу масштабов, должно выполняться соотношение где е - диссипация энергии турбулентности, ад- безразмерная универсальная постоянная (согласно имеющимся в настоящее время данным близка к 0,1). Лит.: [1] Richardson L.F., «Proc. Roy. Soc. London A», 1926, v. 110, № 756, p. 709-37; [2] Обухов А. M., «Изв. АН СССР. Сер. геогр. и геофиз.», 1941, № 4-5, с. 453-66; [3] Монин А.С., Яг- лом А. М., Статистическая гидромеханика. Механика турбулентности, ч. 2, § 24.3, М., 1967. А. М. Яглом. РИЧАРДСОНА ЧИСЛО (Richardson number) - число Ri, равное отношению квадрата частоты Вяйсяля - Брента N =ддр*/р*дг [р*(г) _ потенциальная плотность, д - ускорение силы тяжести] к квадрату сдвига скорости U' = 6U(z)/dz в стратифицированном течении: Ri = N2(C/')"2. Р. ч. служит критерием гидродинамич. неустойчивости течения: Ri < RiKp; в идеальных жидкостях RiKp= 1/4. Используют также динамическое число Ричардсона: Rf = aRi, a = Kp/K, где Кр и К - коэффициенты турбулентного массообмена и вязкости соответственно. А. С. Монин. РОБАСТНАЯ ОЦЕНКА (robust estimator) - статистическая оценка, нечувствительная к малым изменениям исходной статистической модели. В отечественной литературе Р. о. иногда называется устойчивой, стабильной, помехоустойчивой. Термин «робастный» введен Дж. Боксом (G. Box) в 1953 для обозначения методов, устойчивых к малым отклонениям от заданных предположений. Термин получил широкое распространение, и понятие Р. о. является частным его применением. Р. о. используют в задачах, где статистич. данные содержат грубые ошибки (большие выбросы, сбои). Традиционные не робастные процедуры, напр. метод наименьших квадратов, чувствительны даже к малому числу грубых ошибок. Дж. Тьюки [1] впервые привлек внимание к задаче робастного оценивания, показав на примерах, что грубые ошибки являются правилом в статистич. практике. Основы математич. теории Р. о. заложены П. Хьюбе- ром [2]. Задача робастного оценивания формализуется как частный случай задачи непараметрич. оценивания функционалов. Пусть 0 - параметрич. пространство, Ф = {фв, 6 е 0} - нек-рое семейство функций, U - нек-рая окрестность семейства Ф и при каждом ф е U и каждом натуральном п определена вероятностная мера Рп,ф. Исходная статистич. модель задается семейством вероятностных мер {Р„,ф, феФ}. Окрестность U описывает малые изменения исходной модели (напр., появление малой доли грубых ошибок). Пусть имеется выборка УП = (У\* •••! Уг)> распределенная согласно Р„,ф, где ф- неизвестный элемент окрестности U. Цель статистика - оценить значение параметра 6, «наиболее соответствующее» ф. Соответствие определяется функционалом Т со значениями в 0, заданным на U и удовлетворяющим условию 74фв) - в. Статистика Tn(Yn) есть робастная оценка параметра 0 на U, если при любых фе U она является хорошей (в смысле какого-либо критерия) оценкой для Г(ф). 560 РИЧАРДСОНА Наиболее изучена постановка, в к-рой Ф=^в, 6 е 0} ~ семейство функций распределения на Л?1, 0 - подмножество конечномерного евклидова пространства и yi - независимые случайные величины с одинаковой функцией распределения cp = F. Для этой постановки имеются следующие примеры окрестностей U, функционалов Т, критериев робастности и Р. о. Примеры окрестностей: 1) е-засоренные семейства (модель грубых ошибок) L7e={F:F=(1-e)Fe + etf, 6е0, Не Ж}, 0<е<1, где Ж- множество всех функций распределения на IP1 (при 6 е И? часто Ж-Щ - множество функций распределения, симметричных относительно 6); 2) метрические окрестности U£td = {F:diF, Fe)^e, 6е0}, е>0, где d - метрика на пространстве функций распределения. Примеры функционалов, а) Пусть 6 = 11? , тогда М-функционал T(F) определяется так: J4f(y-nF))FUy) = 0, где у - нек-рая нечетная монотонная функция. При у(у)=у и у (у) = sign у М-функционалами являются соответственно среднее значение и медиана F. Если функция \|/ ограничена и FQ(y) =Fe(#-6), где FQ(y) - симметричная функция распределения, то r(Fe) = 6. б) Функционал минимального расстояния (М Д-функционал) есть 7tF) = arg minrf(F, Fe). 0ее Примеры критериев робастности. 1) Качественная робастность (см. [3]). Пусть &f(Tn) - функция распределения оценки Тп в случае, когда у{ имеют функцию распределения F. Последовательность оценок {Тп} называют робастной для F, если для каждого 8>0 существует е>0 такое, что из d(F, F')^e следует, что A=lim d($F(Tn), $F'(Tn)) ^8. Для многих оценок существует л такое е*. что при d(F, F') <е* значения А малы, а яри d(F, F')>e* велики. Величина е* называется пороговой точкой оценки Тп. Это - предельный размер е, при к-ром оценка Тп приемлема для всех функций распределения из U j. 2) Количественная робастность (на примере А/-функционала). Пусть 0 = 1Р , {Fe} - симметричное сдвиговое семейство на И? , Т - М-функционал иГп = T(Fn), где F" - эмпирич. функция распределения у^, ..., уп. Тогда Тп есть решение уравнения L"-i*(3"-r->=0 и называется М-оценкой параметра сдвига. При определенных условиях величина \я(Гп-T(F)) асимптотически нормальна со средним 0 и нек-рой дисперсией V(\|/, F) (см. [2]). М-оценка Гя, соответствующая функции \|/ = \|/*, называется робастной на U, если sup V(y*f F) = min sup V(y, F). FeU V FeU Если U - симметричная е-засоренная окрестность нормального распределения, то при нек-ром а = а(г) будет \\f*(y)-mm (я, max (у, -а)). 3) Робастность как локальная асимптотическая минимаксность (см., напр., [6]). Оценка называется робастной, если lim(inf sup Ewn(PnFP F )- n Tn FeUn ' ' Tn -дЕю-(^'Ч))=0, (t)
где inf - нижняя грань по всем оценкам, wn(-, ♦) - функция потерь, {Un} - сужающаяся система окрестностей семейства {Fe}, напр. Un= U^yf^j id - метрика Хеллингера). Примерами Р. о. параметра сдвига являются М - о ц е н - ки, L-оценки (линейные комбинации порядковых статистик, напр. винзоризованное и усеченное средние), R - о ц е н - к и (ранговые оценки). О количественной и качественной робастности этих оценок, а также сопутствующих оценок масштаба см. в [8]. М-оценки допускают обобщение на задачи регрессии, оценивания параметров временных рядов, фильтрации и др. и имеют простые в численном отношении рекуррентные аналоги (см. [9]). Для общей задачи регрессии (в том числе нелинейной и непараметрической) М-оценки определяются как решения экстремальной задачи (см. [7]): Y рСу^-бСг,-)) ->min; здесь р - неотрицательная выпуклая функция (напр., первообразная у), 0 - заданный класс функций регрессии б(), х{ и у{ - соответствующие независимые и зависимые переменные регрессионной модели. Пример Р.о. дают также оценки минимального расстояния, имеющие вид Tn~T(Fn), где Т есть МД-функционал. При определенном выборе метрики d они являются робастны- ми в смысле (*) оценками МД-функционалов (см. [6]). Для Р. о. вида T(Fn) основной характеристикой является функция влияния ICprix) - ltm , где Ъх - функция вырожденного распределения, сосредоточенного в точке х. Функция 1С характеризует относительное влияние на оценку одного наблюдения, равного х и добавленного к очень большой выборке. Неограниченность функции влияния означает, что одиночные грубые ошибки могут сильно исказить оценку. Величина G(F)-sup \ICFT(x)\ называется чувствительностью к грубым ошибкам. На е-за- соренных семействах с малым е максимальное смещение оценки T(Fn) приблизительно равно eG(Fq), где в - истинное значение оцениваемого параметра. Если T(F) - среднее значение F, то G(F) = «>, что интерпретируется как отсутствие робастности выборочного среднего. В типичных случаях величина п~ J ICF T(x)F(dx) равна асимптотич. дисперсии оценки HF"). Лит.: [1] Tukey J., в кн.: Contributions to probability and statistics, Stanford, 1960, p. 448-85; [21 Huber P., «Ann. Math. Statist.», 1964, v. 35, № 1, p. 73-101; [3] Hampel F., там же, 1971, v. 42, № 6, p. 1887-96; [4] Ершов А. А., «Автоматика и телемеханика», 1978, № 8, с. 66-100; [5] Смоляк С. А., Титаренко Б. П., Устойчивые методы оценивания, М., 1980; [6] Millar P., «Z. Wahr. und verw. Geb.», 1981, Bd 55, H. 1, S. 73-89; [7] Немиров- ский А.С., Поляк Б. Т., Цыбаков А. Б., «Докл. АН СССР», 1983, т. 273, № б, с. 1310-14; [8] Хьюбер П., Робастность в статистике, пер. с англ., М., 1984; [91 Цып кии Я. 3., Основы информационной теории идентификации, М., 1984. А. Б. Цыбаков. РОБАСТНОСТЬ статистической процедуры (robustness of a statistical procedure) - достаточно «хорошее» поведение параметрической модели статистики, в рамках к-рой рассматривается эта статистическая процедура. Теория Р. в статистике в ее неформальном толковании обязана своим появлением тому факту, что многие общепринятые предположения в статистике (такие, как нормальность, линейное! ь, независимость) могут рассматриваться лишь как более или менее удачные приближения к действительности. Как и во всякой отрасли прикладной математики, такие предположения весьма полезны; при оценке обоснованности их применения обращаются к принципу непрерывности или устойчивости: малая ошибка в математич. модели не должна приводить к существенной ошибке окончательных выводов. Здесь и возникает та проблема, связанная с теориями классич. параметрич. статистики, что для точных параметрич. моделей этими теориями даются оптимальные процедуры, но для моделей, к-рые только близки (напр., в слабой метрике) к реальным, эти теории не дают ответа. Хотя проблематика Р. восходит к предыстории статистики, а многие выдающиеся статистики [С. Ньюком (S. Newcomb), К. Пирсон (К. Pearson), У. Госсет (W. Gosset, псевдоним - Student), Г. Джеффрис (Н. Jeffreys), Э. Пирсон (Е. Pearson) и др.] ясно осознавали наличие этой проблематики, попытки найти формально строгие и достаточно общие подходы увенчались успехом сравнительно недавно. Эти подходы связаны с именами П. Хьюбера [1] и Ф. Хампеля [2]. П. Хьюберу принадлежит минимаксный подход к робастно- му оцениванию. Он считает, что наблюдения имеют распределение F(x-Q) = (1 -e)G(x-Q) + e#(*-6). Здесь в- параметр сдвига, G - известное распределение (связанное с параметрич. моделью), е>0 - известное число, характеризующее долю больших ошибок с неизвестным распределением Н. Предполагается использовать М-оценки параметра в, то есть корни оценочного уравнения Z\jf(jC£ — Г) = 0. Оценочная функция у выбирается из условия min max J y^dF/i] w'dF)2. v н J J Для случая гауссовской функции распределения возникает оценка Хьюбера с \|/(*) = тах( -/?, min(/?, x)), где k зависит от е. При е -> 0 или е -> 1 получают соответственно в качестве оценки среднее арифметическое или медиану. Подробно подход Хьюбера изложен в [3]. Подход, обязанный своим происхождением Ф. Хампелю (инфинитезимальный подход), имеет в своей основе три центральных понятия: качественную Р., функцию влияния и пороговую точку. Они соответствуют непрерывности первой производной и расстоянию до ближайшей особой точки функции. Пусть хи ..., хп— повторная выборка из совокупности с функцией распределения FQ(x); Fn(x) - ее эмпирич. функция распределения. В инфинитезимальном подходе рассматриваются оценки вида Tn(xv ..., xn)-T(Fn)t где Т- нек-рый функционал на подпространстве вероятностных мер, содержащем все эмпирич. меры. Последовательность Тп называется робастной для F = F0, если последовательность отображений F->&F(Tn) равностепенно непрерывна в точке F0, то есть в пространстве вероятностных мер имеется подходящее расстояние d, порождающее слабую топологию, и для любого е>0 найдутся 8>0, я0>0, что при п > п0 d(F0> F)^b=*d($Fo(Tn), #F(r„))^e. Следует отметить, что имеется близкая аналогия между этим определением Р. и понятием качественной устойчивости стоха- стич. моделей (см. [4]). Функцией влияния IF функционала Г при распределении F называется функция IF(x: T, F) = hm - , tio t где Ех - мера, приписывающая точке х единичную массу. Функция влияния оценивает воздействие на оценку, оказываемое инфинитезимальным загрязнением в точке ху нормированным масой этого загрязнения. Функция влияния позволяет вычислять асимптотич. дисперсию оценки Тп; эта дисперсия равна J IF(x; T, F)2dF(x). Пороговая точка е* последовательности оценок Тп при распределении F определяется соотношением e*=sup{e<l: РОБАСТНОСТЬ 561
существует такое компактное множество Кг, что из неравенства d(F, G) < е следует сходимость G({Tn e Kt}) -» 1 при п -» <»}. Пороговая точка используется при исследовании правил удаления резко выделяющихся наблюдений. Подробно подход к Р. на основе функций влияния изложен в [5]. Лит.: [1] Huber P.J., «Ann. Math. Statist», 1964, v. 35, p. 73-101; 121 Ham pel F. R., Contributions to the theory of robust estimation. Ph. thesis, Berk., 1968; [3] Хьюбер П., Робастность в статистике, пер. с англ., М., 1984; [4] Zolotarev V. M., General problems of mathematical models, Proc. of the 41 St session of JSJ, New Delhi, 1977, p. 382-401; [5} Хампель Ф. [и др.], Робастность в статистике. Подход на основе функций влияния, пер. с англ., М., 1989. Л. Б. Клебанов. РОББИНСА - МОНРО ПРОЦЕДУРА стохастической аппроксимации (Robbins - Monro stochastic approximation procedure) - процедура, предназначенная для нахождения нуля неизвестной функции регрессии. Пусть R(x) - неизвестная функция регрессии, положительная при х^х0, отрицательная при х<х0, где х0 - нек-рая точка из II?. Пусть значения этой функции в каждый момент времени п- 1, 2, ... и в каждой точке х е В? измеряются с нек-рой аддитивной случайной ошибкой Gin, х), так что результаты измерений имеют вид Yin, x) = R{x) + G(n, х), я=1, 2, .... х е R, где случайные величины Gin, х) при фиксированных п и х имеют нулевое математич. ожидание, причем совокупности {Gin, х), х е Щ и {G(k, у), 1 ^ * < я, у е И?} независимы. Задача состоит в том, чтобы оценить корень х* уравнения R(x) = Q (см. Стохастическая аппроксимация), X. Роббинс и С. Монро предложили (см. [1]) метод решения этой задачи, названный ими методом стохастической аппроксимации. Точнее, они ввели следующую рекуррентную процедуру (процедуру Роббинса-Монро): Х(п+\)-Х(п) = -a(n)Y(n+\,X(n)), Х(\) = х, (1) где х - произвольная начальная точка, а а(п) - последовательность положительных чисел (шаговый множитель), для к-рой Y~ i в(я)=~, У~ я2Ы<ос. (2) Процедура (1) заставляет последовательность Х(п) двигаться в сторону х0, поскольку Е№+1)-х(я)1ад=-в(я)Ш(я)), и потому если Х(п) <х0, то разность Х(п+ 1) - А'(я) будет в среднем положительна; если же Х(п)>х0, то эта разность в среднем отрицательна. При этом первое из условий (2) необходимо для того, чтобы Х(п) сходилась к х0 при п -» °° (даже в отсутствие случайных помех), а второе из условий (2) имеет своей целью «погасить» влияние случайных ошибок измерений G(n, x). При нек-рых дополнительных условиях на R(x) и G(n, x) была доказана сходимость Х(п) кл;0 в среднем квадратичном. Исследовались также свойства сходимости процедуры (1) и ее многомерного аналога. Здесь одним из типичных является следующий результат: если выполнены соотношения (2) и условия sup R(x)(x-xQ)>0 для любого ее (0, 1), е<|х-*0|< 1/е R2(x) + sup EG2(ntx)^K(\+x2), K = const, то последовательность Х(п) сходится к х0 при п-*°° почти наверное для любой начальной точки х е В?. 562 РОББИНСА Другое направление, связанное с Р. - М.п., касается свойств ее распределений. В частности, было установлено (см. [3]), что если а(п) -ап~ , а>0, Х(п) ->х0 почти наверное при я-><», вектор R(x) дифференцируем в точке х0, причем матрица А = аВ+ 1/2/ (/ - единичная матрица) устойчива и, кроме того, А(п, x) = EG(n, x)GT(n, х) -»Л(°°, *0) при х->х0, а семейство {G(n, х), п-\, 2, ..., |*-*0|<6} равномерно интегрируемо для нек-рого 6>0, то вектор yfn(Xin) - х0) асимптотически нормален с нулевым средним и ковариационной матрицей а2\~ eAvA{~, x^'dv. Лит.: [1] Robbins H., Monro S., «Ann. Math. Statist.», 1951, v. 22, № 3, p. 400-07; [2] Гладыш ев Е. Г., «Теория вероятн и ее примен.», 1965, т. 10, в. 2, с. 297-300; [3] Невельсон М. Б., Хасьминский Р. 3., Стохастическая аппроксимация и рекуррентное оценивание, М., 1972; [4] В азан М., Стохастическая аппроксимация, пер. с англ., М., 1972; [5] Коростелев А. П., Стохастические рекуррентные процедуры, М., 1984. м. Б. Невельсон. РОЖДЕНИЯ И ГИБЕЛИ ПРОЦЕСС (birth and death pro cess) - марковский процесс с состояниями 0, 1,2, ..., в к-ром за время h -» 0 возможны переходы из состояния п в состояние я + 1 и я - 1 с вероятностями Xnh + o(h) и \inh + o(h) соответственно, а вероятность остальных переходов равна о(Л). При специальном выборе коэффициентов размножения Хп и гибели \1п получаются частные случаи, к-рые дают удовлетворительное описание различных реальных процессов: радиоактивных превращений, работы телефонных станций, эволюции биоло- гич. популяций и т. д. Использованию Р. и г. п. в приложениях способствует простота уравнений для переходных вероятностей, к-рые часто удается найти в явном виде. Частными случаями Р. и г. п. являются чистого размножения процесс, Юла процесс. Если Xn = nX + v, (i„ = H(i, то Р. и г. п. представляет собой ветвящийся процесс с иммиграцией,в к-ром состояние п означает число частиц, причем каждая частица за время Л-»0 с вероятностью цЛ + о(Л) погибает, с вероятностью Xh + o(h) делится на две и, кроме того, извне иммигрирует одна частица с вероятностью \h + o(h). Если v = 0, то получится бинарный ветвящийся процесс. Если Х = 0, a v>0, то этот вид процесса с иммиграцией можно применить к описанию работы телефонной системы с бесконечным числом линий. В этом случае состоянием является число занятых линий. Коэффициент размножения Хп - v характеризует поступающий поток вызовов, а (X - длительность разговора. Лит.: [1] Феллер В., Введение в теорию вероятностей и ее приложения, пер. с англ., т. 1, М., 1984; [2] Ивченко Г. И., Каштанов В. А., Коваленко И. Н., Теория массового обслуживания, М., 1982. в. П. Чистяков. РОЖДЕНИЯ МОМЕНТ (birth time) - см. Обрыва момент. РОЗА (rose) - см. Геометрический процесс, Интенсивно сти роза. РОЗЕНБЛАТТА - ПАРЗЕНА ОЦЕНКА плотности распределения (Rosenblatt - Parzen distribution density function estimator) - см. Плотность распределения; оценка по наблюдениям. РОССБЕРГА ТЕОРЕМА (Rossberg theorem) - теорема, содержащая положительное решение гипотезы Колмогорова: если безгранично делимая функция распределения и нормальная функция совпадают на нек-рой полуоси, то они тождественны (см, [1]). Р. т. положила начало интенсивным исследованиям по проблеме однозначного определения функций распределения по их значениям на подмножествах прямой. Обзор результатов по этой проблеме содержится в [2].
Лит.:[\] Rossberg H.-J., «Теория вероятн. и ее примен.», 1974, т. 19, в. 4, с. 824-28; [2] Rossberg H.-J., Jesiak В., Siege! G., Analytic meth(xls of probability theory, В., 1985. В. М. Круглое. РОСТА ТОЧКА (point of increase) функции распределения F ~ точка х такая, что для любого е > О F(x + e)-F(x-e)>0. Это равносильно тому, что соответствующая вероятностная мера положительна для каждой открытой окрестности точки х. В таком виде определение Р. т. допускает обобщение на случай распределений в топологич. пространствах (см. Носитель меры). Лит.: [11 Феллер В., Введение в теорию вероятностей и ее при.южения, пер. с англ., т. 2, М., 1984. В. М. Круглое. РЭЛЕЕВСКОЕ ЗАМИРАНИЕ (Rayleigh fading) - см. Замирания в канале. РЭЛЕЯ ПРОЦЕСС (Rayleigh process) ~ см. Бесселя процесс. РЭЛЕЯ РАСПРЕДЕЛЕНИЕ (Rayleigh distribution) - непрерывное, сосредоточенное на (0, <*>) распределение вероятностей с плотностью (см. рис.) сг где о - параметр, о>0. Функция Р. р. F(x) = \-e-x2l2°2 т .4 .8 1.2 1.6 2.0 2.4 2.8 3.2 3.6 Плотности распределения Рэлея при (1) а = 0,5; (2) а=1; (3) а = 2. Р. р. является частным случаем распределения с плотностью p(*)s_2 *n-V*2/202; И 2"/2а"Г(п/2) при п - 2 и, следовательно, при о = 1 Р. р. совпадает с распределением арифметич. квадратного корня из случайной величины, имеющей х распределение с двумя степенями свободы. Р. р. имеет положительную асимметрию, его единственная мода находится в точке х = о. Все моменты P.p. конечны, математич. ожидание и дисперсия равны соответственно Vh/2q и 2о (1 -л/4). Р. р. может быть интерпретировано как распределение длины вектора в прямоугольной системе координат на плоскости, компоненты к-рого независимы и имеют нормальное распределение с параметрами 0 и a . Аналогом Р. р. в трехмерном пространстве служит Максвелла распределение. Р. р. находит основное применение в теории стрельбы и статистич. теории связи. P.p. впервые рассмотрено Рэлеем (1880) как распределение результирующей амплитуды при сложении гармонич. колебаний. Лит.: [1] Стретт Дж. (лорд Рэлей), Волновая теория света, пер. с англ., М.- Л., 1940. А. В. Прохоров. РЭЯ ПРОЦЕСС (Ray process) - непрерывный справа без разрывов второго рода марковский процесс со значениями в компактном метрическом пространстве, резольвента к-рого является Рэя резольвентой. Р. п. является строго марковским процессом и обладает умеренно марковским свойством. Один из способов построения Р. п.- компактификация Рэя - Найта (см. Марковский процесс; компактификация фазового пространства). Лит.: [1] Ray D., «Ann. Math.», 1959, v. 70, p. 43-72; [2] Ge- toor R. K., «Lect. Notes in Math.», 1975, v. 440; [31 Engel- hert H.J., «Math. Nachr.», 1978, Bd 85, S. 235-66. С. E. Кузнецов. РЭЯ РЕЗОЛЬВЕНТА (Ray resolvent) - удовлетворяющее резольвентному тождеству семейство ядер г^(х, Г), Х>0, такое, что соответствующие ядрам г^ операторы R^ переводят непрерывные функции в непрерывные. Точнее, пусть Е - метрич. пространство и гх(х, Г) при каждом шаге Х>0 является ядром, то есть мерой по Г и измеримой функцией по х. Семейство ядер г^ называется резольвентой, если Xr^(x, E) ^ 1 и справедливо резольвентное тождество Rx-R[l=(\i-X)RxRii)X)\i>0, где оператор R^ определяется формулой RJix) = \Erx(x,dy)f(y). Резольвента г^ называется резольвентой Рэя, если операторы R^ переводят непрерывные функции в непрерывные и функции R^f(x) разделяют точки Е. Пусть Е - метрич. компакт. В соответствии с работой Д. Рэя [1] P. p. r^(xt Г) является резольвентой нек-рого однородного марковского процесса (см. Марковский процесс; резольвента), то есть представима в виде гх(х, Г) = J~ e~Xtp(t, x; T)dtt где p(t, x\ Г) ~ переходная функция (существование такого представления далеко не тривиально). Более того, можно считать соответствующий процесс непрерывным справа без разрывов второго рода, обладающим строго марковским свойством и умеренно марковским свойством. Лит.: [1] Ray D., «Ann. Math.», 1959, v. 70, p. 43-75; [21 Ge- toor R. K., «Lect. Notes in Math.», 1975, v. 440. С. E. Кузнецов. РЭЯ - НАЙТА КОМПАКТИФИКАЦИЯ (Ray - Knight compactification) - см. Марковский процесс; компактификация фазового пространства.
САЗОНОВА СВОЙСТВО банахова пространства (Sazonov property of a Banach space) - см. Банахово пространство со свойством Сазонова. САЗОНОВА ТЕОРЕМА (Sazonov theorem) - вариант Бох- нера - Хинчина теоремы для бесконечномерного гильбертова пространства: комплексный функционал % на гильбертовом пространстве Н служит характеристическим функционалом радоновой вероятностной меры в Я в том и только в том случае, если % положительно определен, х(0) = 1 и % непрерывен в Сазонова топологии. Эта теорема доказана В. В. Сазоновым [1]; независимо (но позже) получена также Л. Гроссом [2]. Эквивалентная формулировка Ст.: цилиндрич. мера |i в гильбертовом пространстве счетно-аддитивна тогда и только тогда, когда ее характеристич. функционал ц непрерывен в топологии Сазонова (см. также Банахово пространство со свойством Сазонова, Допустимая топология). Лит.: [11 Сазонов В. В., «Теория вероятн. и ее примен.», 1958, т. 3, в. 2, с. 201-05; [2J Gross L., «Mem. Amer. Math. Soc>, 1963, v. 46, p. 1-62; [3] Вахания Н.Н., Тариеладзе В. И., Чоба- ня н С. А., Вероятностные распределения в банаховых пространствах, М., 1985. в. И. Тариеладзе. САЗОНОВА ТОПОЛОГИЯ (Sazonov topology) - слабейшая векторная топология в гильбертовом пространстве Я, в к-рой непрерывны функционалы вида h -* (Sh, h), где S пробегает множество симметричных положительных операторов в Н с конечным следом (5-операторов). Множества вида {heH:(Sh} h)< 1}, где S пробегает множество 5-операторов в Я, образуют фундаментальную систему окрестностей нуля С. т. Для бесконечномерного пространства С. т. строго слабее исходной топологии. Бохнера - Хинчина теорема остается в силе с заменой исходной топологии на С. т. (см. также Сазонова теорема). Для относительной слабой компактности нек-рого семейства М вероятностных мер в Я достаточна (но не необходима) равностепенная непрерывность семейства {Д: [I е M) характеристич. функционалов в С. т. Если Т - локально выпуклое топологич. векторное пространство, то С. т. в сопряженном пространстве Г* определяется как слабейшая векторная топология, в к-рой непрерывны функционалы вида х* -* (Su*xm, u*x*)t где и пробегает множество непрерывных линейных операторов из гильбертова пространства Я в Г (можно считать, напр., Я = /2), а 5- множество 5-операторов в Я. В этом случае Ст.- достаточная топология. С. т. в исходном пространстве Г является слабейшей векторной топологией, в к-рой непрерывны функционалы вида х—>(Svx, vx), где v пробегает множество непрерывных линейных операторов из Г в гильбертово пространство Я (можно считать, что Я = / ), а 5 - множество 5-операторов в Я. С. т. пространства Г слабее исходной топологии и является достаточной топологией (Г отождествлено с сопряженным пространством к Г* с топологией Макки). Если же Т - ядер- 564 САЗОНОВА ное пространство, то Ст. пространства Г совпадает с его исходной топологией, таким образом исходная топология является достаточной (теорема Минлоса). Лит.: [1J Прохоров Ю. В., Сазонов В. В., «Теория вероятн. и ее примен.», 1961, т. 6, в. 1, с. 87-93; [2] Бурбаки Н., Интегрирование, пер. с франц., М., 1977; [31 Вахания Н. Н., Тариеладзе В. И., Чобанян С. А., Вероятностные распределения в банаховых пространствах, М., 1985. В. И. Тариеладзе. САМОРАЗЛОЖИМОЕ РАСПРЕДЕЛЕНИЕ (self-decomposable distribution) - представитель класса & (класса Л е в и) возможных предельных законов для нарастающих сумм Хя1 + ... + Хпп-АюХпк-Xk/Bn, n>\, независимых случайных величин, нормированных постоянными Ап и Вп. Предполагается, что Xnk подчинены бесконечной малости условию. Функция распределения G принадлежит классу У тогда и только тогда, когда она удовлетворяет функциональному уравнению G(x) = G(x\)*Gk(x), где хеП?\ Х>\ и G^~ нек-рая функция распределения. В классе безгранично делимых распределений подкласс $Р выделяется специальным свойством спектральной функции Н в Леей каноническом представлении: Н'(х) существует для всех точек х * 0 за исключением не более чем счетного числа из них и функция хН'(х) не возрастает на полуосях х < 0, х>0. Ср. абсолютно непрерывны и одновершинны. См. также Унимодальное распределение. Лит.: [1] Гнеденко Б. В., Колмогоров АН., Предельные распределения для сумм независимых случайных величин, М.- Л., 1949; [2] Золотарев В. М., «Литов. матем. сб.», 1963, т. 3, № 1, с. 123-40; [3] Fisz M., Varadarajan V. S., «Z. Wahr. und verw. Geb.», 1963, Bd 1, № 4, S. 335-39; [41 Yamazato M., «Ann. Probab.», 1978, v. 6, № 4, p. 523-31. В. М. Золотарев. САПОГОВА ТЕОРЕМА (Sapogov theorem) - см. Устойчивость характеризации распределений. СБАЛАНСИРОВАННЫЙ БЛОЧНЫЙ ПЛАН (balanced block desing) - см. Блочный план. СБЛИЖАЮЩИЕСЯ ГИПОТЕЗЫ (close hypotheses) - см. Близкие гипотезы. СВЕРТКА вероятностных мер (convolution of probability measures) щ и |i2 в измеримой группе (G, аб) - мера М-1 * М-2» являющаяся образом произведения ut xu2 при отображении (дх, д2) ь> д\ + д2, то есть ц1.ц2(В)=ц1хц2{(^1, g2)eGxG:g]+g2zB} для каждого В е 33. Точно так же определяется С. конечных мер. Имеют место равенства (к-рые часто принимаются за определение С): \i^\i2(B) = jc \Li(B-x)d\L2(x) = jc ^i2(-x + B)d^(x), Bed. Если Xj, Х2 - независимые случайные элементы в G с распределениями ц1 и |12 соответственно, то сумма Xt + X2 имеет распределение Щ*}^. С- ассоциативная операция; она коммутативна, если коммутативна группа G. Если G = fi?n, щ, |12 абсолютно непрерывны относительно лебеговой меры в В?" и имеют относительно нее плотности [^ и
f2 соответственно, то С. Щ*Ц2 также абсолютно непрерывна относительно лебеговой меры и имеет относительно нее плотность f, к-рая представляет собой С. плотностей fx и f2, то есть fix) = J „f\(x~ y)f2iy)dy для почти всех х е И?я. Понятие С. определяется также и для т-гладких и радоновых вероятностных мер в топологич. группе. Лит.: [1] Вахания Н.Н., Тариеладзе В.И., Чоба- нян С. А., Вероятностные распределения в банаховых пространствах, М., 1985. В. И. Тариеладзе. СВЕРТКА (convolution) функций распределения F\(x) и F2ix), композиция,- функция F(x) = (F,»F2)(x)=F1U)*F2U) = . =jZ>F^-y)dF2(y)=jloF2(x-y)dF{(y). С. является функцией распределения суммы двух независимых случайных величин, функции распределения к-рых Ft(.r) и F2ix). С. обладает основными свойствами операции умножения: ia{Fi+a2F2)*F3 = a{iF{*F3) + a2iF2*F3), a^elf?1, (Ft«F2)*F3 = Fj*(F2*F3). Аналогично определяется С. для плотностей. В. И. Битюцков. СВЕРТОЧНАЯ ПОЛУГРУППА вероятностных мер на группе (convolutional semigroup of probability measures on a group) - семейство S: = i\it, teD) вероятностных мер на локально компактной группе G такое, что \Lt*\Ls = \Lt+s, где t, seD; * - операция свертки вероятностных мер на группе G. Здесь D - плотная подполугруппа в полугруппе IR+ всех положительных действительных чисел с операцией сложения, такая, что для всех t} s e D из t <s следует, что s-teD. Обычно в качестве D выбирают множество Q+ всех положительных рациональных чисел или IR+. С. п. S называется непрерывной, если существует такая вероятностная мера ц0 на группе G, что \it -* \i0 в смысле слабой сходимости при t->0, teD. В этом случае можно заменить D на D0 = DU{0} и считать, что S: = i\Lt, t e D0). Мера |Xq будет идемпотентной мерой на группе G, и поэтому она совпадает с мерой Хаара сон нек-рой компактной подгруппы Н группы G. В этом случае говорят об Я-непрерывной сверточной полугруппе. Мера \l0 является единицей в полугруппе S, то есть Н-о*Ц* = \it+\iQ = \Lt для любого te D0. Если S - непрерывная С. п. на локально компактной группе G, то существует единственная непрерывная С. п. вероятностных мер v„ £elR+, на группе G такая, что vf = p.f для всех t e D0. Для непрерывной С. п. \Lt, t e D0, все меры \xt являются безгранично делимыми распределениями на группе G. С каждой С. п. {\it, te D] можно связать полугруппу линейных операторов St на банаховом пространстве Ч? (G) всех непрерывных ограниченных функций на группе G по правилу StfM = jG f(xy)iLt(dy), /-e^(G). Все St являются ограниченными линейными операторами с нормами, равными /. С. п. \it непрерывна тогда и только тогда, когда сильно непрерывна полугруппа St. Полугруппы {щ} и {St}, teD, однозначно определяют друг друга. См. также Инфинитезималъный оператор сверточной полугруппы мер, Безгранично делимое распределение на группе; проблема вложения. Лит.: [1] Хейер X., Вероятностные меры на локально компактных группах, пер. с англ., М., 1981. Ю. С. Хохлов. СВЕРТОЧНАЯ ПОЛУГРУППА МЕР; каноническое представление (canonical representation of convolution semigroups of measures) - представление порождающего функционала непрерывной сверточной полугруппы вероятностных мер на группе в виде, аналогичном Леей - Хинчина каноническому представлению логарифма характеристической функции безгранично делимого распределения в IR . Пусть G - локально компактная группа, DiG) - пространство всех действительных бесконечно дифференцируемых функций на G с компактным носителем, L - действительный линейный функционал на пространстве DiG). Функционал L называется почти положительным, если Lif)>0 для всех feDiG) таких, что f(x)>0, xeG, fie) = 0; примитивной формой, если L - почти положительный и Lifg*) = Lif)gie)~fie)Lig) для всех f, geDiG), где g*ix) = gix ); квадратичной формой, если L - почти положительный и Lifg) + Lifg*) = 2[Lif)gie)+fie)Lig)]\ нормированным, если для нек-рой окрестности U единицы группы G и пространства K = {feD(G):Iu^f^IG}, где 1Е - индикатор множества EaG, sup{Lif):fe K} = 0. Линейное отображение Г: D(G)->D(G) называется отображением Леви группы G, если выполнены условия: a) Lif~rif)) = 0 для любой примитивной формы L и любой feDiG); б) Г*(р = -Г(р для всех feDiG), где Г* - сопряженный оператор; в) функция f->T(f)(x) является примитивной формой на D(G) для всех xeG. Отображение Леви существует на каждой локально компактной группе. Мера "п на пространстве G* = G\{e} называется мерой Леви, если T\(G\U) <<*> для любой окрестности U единицы группы G и jG.f(x)T)(dx)<oo для всех fe DiG), fix) >0и fie) = 0. Пусть \it, t^O, - непрерывная сверточная полугруппа вероятностных мер на группе G такая, что \it -> Ье, t -> 0, с порождающим функционалом А. Тогда: 1) DiG) с: DA\ 2) А - почти положительный нормированный функционал на D(G); 3) если дано отображение Леви Г группы G, то существуют примитивная форма \|/j, квадратичная форма у2 на D(G) и мера Леви Т) на G такие, что А допускает канонич. представление с помощью тройки (yj, у2» л)» определяемое формулой Aif) = Viif) + y2if)+jG< [fix)-fie)-rif)ix)]T)idx) (•) для всех feDiG)', 4) Т] и у2 определяются полугруппой \it, t^O, единственным образом; 5) для всех непрерывных f на G* с компактным носителем ro./an-iimof/с/ащ. Представление (*) называется каноническим представлением Леви - Хинчина для порождающего функционала непрерывной сверточной полугруппы. Обратно, если для данных отображения Леви Г группы G, примитивной формы Yj, квадратичной формы у2 на DiG) и меры Леви т\ на G линейный функционал LeD*iG) определен формулой (*), то L - почти положительный и нормированный на DiG) функционал и существует единственная непрерывная сверточная полугруппа \it, t^O, с порождающим функционалом А и инфинитезимальным оператором N такая, что ограничение А на DiG) совпадает с L. Пусть G - группа Ли размерности d с алгеброй Ли #(G), имеющей базис {У^ ..., Yd). Множество {ух, ..., yd) функций СВЕРТОЧНАЯ 565
из D(G) называется системой координат на G относительно базиса {Ylt ..., У^}, если у\-~У{ и (Y {y Me) = Ь(.; г,/= 1 d. Для любых примитивной формы vj/j и квадратичной формы \|/2 на D(G) существуют аи .... ad e IP1 и симметричная неотрицательно определенная матрица \\а{|| такие, что v.</"> = [(if., °.у;)/"](е>- v2(/")=Xj,., «»(wxrt Для каждого отображения Леви Г на группе G существует такая система координат {у\>..-,у^} относительно базиса {Yu ..., Yd) алгебры Ли #(G), что Г(^=1-и^(У^)(е)' Для функций г/г существует такая окрестность единицы группы С/0, что функция Ханта, определяемая формулой •<*>=!?.., й2<*>.« i/o. строго положительна внутри U0. Вне С/0 ее можно доопределить так, чтобы она была дважды непрерывно дифференцируема на всей G, 0 < Ф(х) ^ 1, и Ф(х) = 1 вне нек-рого компакта [/, содержащего единицу группы G. Мера т\ на G будет мерой Леви тогда и только тогда, когда \ * Фс1г[ < °°. Если G - локально компактная абелева группа, G - ее группа характеров, то сужение полугруппы St линейных операторов, соответствующих сверточной полугруппе (ц^, £>0), на множество Gcz G (G) дает характеристич. функцию At(y), YeG, распределений вероятностей \it на абелевой группе G. Так как в рассматриваемом случае меры \it не имеют идемпо- тентных делителей, то Д,(у)*0 для y& G. Каждая примитивная форма может быть продолжена на пространство, содержащее G, и имеет вид 1пу(*0) для любого yeG, xQ(=G. Квадратичные формы также можно продолжить на пространство, содержащее G, ипри сужении на G они совпадают с функционалами \|/2 на G» обладающими свойством V2<YiY2> + V2<YiY21) = 2[у2(у1) + \|/2(у2)], у„ у2 е G. Для абелевой группы G существует отображение Леви L, к-рое может быть продолжено на пространство, содержащее G, и на множестве G определяет функцию д(х,у), JteG, yeG. Функция g(xt у) непрерывна по обеим переменным; sup{|<7(*, y)|, x&G} yeC}<<*> для каждого компакта CczG; fa* Yi» Y2^ = ^^> Yi)+0(*. Y2) и ^(■r~1. у) = -#(*, у) Для всех x e G, у, Y|, y2 g G. Кроме того, для любого компактного подмножества С с: G существует окрестность Uc единицы группы G такая, что у(х) = exp{ig(x, у)} для х е Uc> ye С, и функция д(х, у) стремится к нулю равномерно по y e С при стремлении х к единице группы G. Мерами Леви являются те и только те а-конечные меры г\ на G*, для к-рых J . Rey(x)T)(dx)<oo для любого YeG. В силу всего сказанного из канонич. представления (*) следует канонич. представление Леви - Хинчина для характеристич. функции р^ безгранично делимого распределения щ без идемпотентных делителей на абелевой группе G: frfy) = У(х0)ехр\\у2(у)- jG. [y(x)-\-ig(x,y)]T\(dx)\ (см. [2]). При G = H? получается канонич. представление Леви - Хинчина характеристич. функции безгранично делимого распределения в В? . 566 СВЕРТОЧНАЯ Лит.: [1] Хейер X., Вероятностные меры на локально компактных группах, пер. с англ., М., 1981; [2] Партасарати К. Р., РаоР. Р., Варадхан С. Р. С, «Математика», 1965, т. 9, в. 2, с. 115-46. Ю.С. Хохлов. СВЕРТОЧНЫИ КОД (convolutional code), древовидный линейный код, решетчатый линейный код, рекуррентный к од, - множество слов бесконечной длины с полем GF(q) в качестве алфавита (множество кодовых последовательностей), полученное в результате линейного отображения в себя множества всех полубесконечных последовательностей (информационных последовательностей). Линейное отображение должно обладать следующим свойством: найдутся такие натуральные k0 и л0^ k0, что для любого целого М две информационные последовательности, совпадающие в первых Mk0 символах, отображаются в две кодовые последовательности, совпадающие в первых А/я0 символах. Величина R = k0/n0 называется скоростью кода. Один класс линейных отображений строится следующим образом. Задаются матрицы G0, Gf, ..., Gm размера k0xn0 с элементами из GF(q). Информационные последовательности представляются в виде x = (x0,xv ...), где х• - векторы-строки размера kQ. Кодовые последовательности представляются в виде у = (у0, У\,...), где у{ - векторы-строки размера я0. Тогда У.^ХГ-о^0"1"350»1»2— <*) Таким образом, кодовая последовательность получается как результат вычисления свертки информационной последовательности и фиксированной последовательности матриц, чем и объясняется название «С. к.». Число т (при G0*0, Gm*Q) называется памятью кода, а величина л = (я!+1)л0- длиной кодового ограничения. Коды, определяемые (*), называются постоянными во времени. Более общими являются переменные во времени коды, для к-рых в (*) для каждого i используются различные наборы матриц Gsi(s-Q} 1, ..., т). На практике вычисления в (*) реализуются с помощью регистров и сумматоров, в связи с чем часто используется другое описание С. к. с помощью так наз. проверочных многочленов. С. к. можно рассматривать как древовидный код. В этом случае кодовое дерево является бесконечным; из каждого узла, начиная с начального (корня), выходят одинаковые наборы из q ° ребер, помеченных векторами длины л0; код является линейным, то есть сумма путей также является путем; любой путь, начинающийся в корне, является кодовой последовательностью. С. к. можно рассматривать как решетчатый код, то есть как совокупность путей на специально направленном графе, вершины к-рого расположены в узлах прямоугольной решетки, полубесконечной справа. Число узлов в каждом столбце решетки конечно. Каждый узел в столбце отождествляется с нек-рым состоянием кодера. Для объяснения этого понятия надо обратиться к (*) и для заданного набора матриц Gs найти, от каких предыдущих первых координат информационных блоков jcf-_lf ..., xt_m зависит блок г/,. Если фактически по первой координате есть зависимость от блока х{_т , но нет зависимости от блоков х{_т +1, ..., х-х_т% то говорят, что память кодера по первой координате равна wt или что при кодировании используется тгразрядный регистр для хранения первых координат. Аналогично определяется память т2, ..., mk для остальных координат информационных блоков. Таким образом, при кодировании хранится v = mi + m2+ ... + mk значений символов из предыдущих т блоков. Эта совокупность и называется состоянием кодера. Число различных состояний, а значит и число узлов в каждом столбце решетки, равно qv. Узел соединяется ребром
с у:*лом В следующем столбце, если возможен переход из соответствующих им состояний. Из каждого узла возможен переход в q ° узлов следующего столбца; в каждый узел входит q о ребер из предыдущего столбца (это не относится к первым т столбцам). Каждое ребро помечено нек-рым вектором длины и0, вычисленным по (*). Путь из верхнего узла первого столбца в любой другой достижимый узел дает начальный отрезок нек-рой кодовой последовательности. Представление С. к. как решетчатого кода используется в нек-рых процедурах декодирования, напр. в алгоритме декодирования Витерби (см. [1]), к-рый является одним из наилучших и широко используемых на практике при небольших длинах кодовых ограничений. Лит.: [1] Блейхут Р., Теория и практика кодов, контролирующих ошибки, пер. с англ., М.р 1986. Э. Г. Габидулин. СВЕРХЭФФЕКТИВНАЯ ОЦЕНКА (supe.efficient estimator) , суперэффективная оценка, - статистическая оценка, точность к-рой не уступает, а при нек-рых значениях параметра превосходит точность оценки, эффективной в некром классе оценок @. Точность оценивания обычно измеряется критерием качества #(в, 6), сопоставляющим каждому значению оцениваемого параметра 0 и произвольной оценке О значение в нек-ром частично упорядоченном множестве с определенным на нем отношением порядка ^. Пусть для нек-рого класса оценок @ существует огибающая критерия Я(в, в), то есть функция #(в) = inf{#(8, 6)/вЕ@}. Оценка О эффективна в классе @ по отношению к критерию Жв, в), если #(0, в)=#(в). Оценка в называется сверхэффек- тинной или суперэффективной по отношению к классу оценок @ и критерию Д(9, в), если Жв, 6)<Д(6) при всех в, причем #(в, в)</?(Э) на непустом множестве значений в, называемом множеством сверхэффективности оценки 9. Пусть Xt, ..., Хп - независимые одинаково распределенные случайные величины с плотностью R(x} 9), достаточно гладко зависящей от параметра 9 е 0, где 0 - область в 1^, и пусть /?„(§„, 9) = Еео;(>/п(0п-9)) - функция риска для произвольной оценки 0П = 9„(Х1 Хп) параметра 9, где w ~ заданная центрально-симметричная неотрицательная квазивыпуклая функция. В асимптотич. теории оценивания под оценкой 9 подразумевается произвольная последовательность 9={9„}, а в качестве критерия качества используется предельная функция риска Я(0, 9) = Iim Дя(0„,9). Пусть £(9) - гауссовская случайная величина в П?^ со средним 0 и ковариационной матрицей, обратной информационной матрице Фишера Для различных естественных классов оценок [напр., для класса таких оценок, что сходимость распределения величины >//Г(8„-в), индуцированного плотностью f(x, 9), к предельному распределению локально равномерна по 9, либо для класса таких оценок, что медиана или среднее значение предельного распределения каждой из компонент вектора >//Г(9„ - 9) равны нулю] огибающей критерия Д(8, 9) служит Д(9) = Ео;(£,(9)). В рассматриваемом случае множество сверхэффективности произвольной оценки (0) имеет меру нуль (см. [1]). Функция Д(9) служит огибающей и для модифицированного критерия r(9, 9)=Iim lim sup Д„(9„, 9'). 5-»0 л-»оо 1в'-6|<5 Относительно критерия Кб, 9) вовсе не существует С. о. Более того, в классе оценок, каждая компонента к-рых является эффективной относительно критерия г(0, 9) оценкой соответствующей компоненты вектора 9, Со. не существует и относительно критерия Жв, 9) (см. [2]). Первый пример С. о. принадлежит Ходжесу (Hodges, см. [1], [2]). Пусть Xi - гауссовские случайные величины со средним 9 и дисперсией 1, aX=n"U, + ... + Xn). Оценка Ход- жес а . _|Х, если |Х|>л-,/4, п [<хХ, если IXl^n"1'4, |а|<1, сверхэффективна в точке 9 = 0 относительно критерия Ж9, 9) [но неэффективна относительно г(9, 9)]. Если Х( - гауссовские случайные векторы в № со средним 9 и невырожденной ковариационной матрицей, то уже при р>2 существуют оценки, эффективные относительно критерия г(9, 9) и в то же время суперэффективные относительно критерия Жб, 9). Примером таких оценок является Джеймса - Стейна оценка. Лит.: [1] Le Cam L., «Univ. California Publ. Statist.», 1953, v. 1, p. 277-330; [2) Ибрагимов И. А., Хасьминский Р.З., Асимптотическая теория оценивания, М., 1979. Б. Я. Левит. СВОБОДНАЯ ЭНЕРГИЯ (free energy) - важнейшая характеристика моделей статистической механики, определяемая через статистическую сумму ZA(u) в объеме к Л как F% = -\nZA(U). (1) В случае когда рассматривается семейство потенциалов (7р = р(7, зависящее от обратной температуры р, С. э. определяется как FAy<P> —±lnZA. (2) В соответствии с теоремой Ван-Хова в широком классе случаев существует предел ДР) = lim -rjrFJtW, (3) Л->оо 1Л| называемый удельной свободной энергией соответствующего гиббсовского поля в бесконечном объеме. Важную роль в теории распределений Гиббса играет следующая формула. В случае поля с дискретным аргументом при хА - (xt, t € Л) е ХА и заданным семейством гамильтонианов НА(хА) = И(#Л) +А,ЧЧ#Л), где X - действительный параметр, хА= (xv t € Л) € ХА и ¥ - измеримая функция от реализации хА, [рА - плотность распределения Гиббса с гамильтонианом Н, т — мера, относительно к-рой рассматривается эта плотность, и FА - свободная энергия, определенная формулой (1) через статистич. сумму для гамильтониана НА]. Аналогичные формулы верны и в случае С. э., заданной формулой (2), а также в случае системы в сосуде Л<= (R и, наконец, для предельной С. э. (3), через к-рую выражаются средние значения функционалов от гиббсовского случайного поля. В теории фазовых переходов важное место занимает вопрос об аналитич. зависимости средних значений функционала (от гиббсовского поля) от параметров, от к-рых аналитически зависит потенциал поля, напр. обратной температуры р и химич. потенциала \i. В то время как статистич. сумма аналитически зависит от таких параметров, это уже неверно для СВОБОДНАЯ 567
С. э. и ее производных, что связано с тем, что для комплексных значений параметров статистич. сумма может обращаться в нуль. В предельном случае бесконечного объема такие особенности могут иметь место и при действительных значениях параметров, что обычно связано с тем, что комплексные нули статистич. суммы могут асимптотически приближаться при |л[ ->°° к вещественной оси. В связи с этим в теории гиббсов- ских случайных полей важную роль играют равномерные по Л оценки областей в комплексной плоскости, где не обращается в нуль статистич. сумма, напр. в условиях теоремы Ли - Янга. Лит.: [1] Рюэль Д., Статистическая механика. Строгие результаты, пер. с англ., М., 1971. р. л. Добрушин, С. Б. Шлосман. СВОБОДНОЕ МАРКОВСКОЕ ПОЛЕ (free Markov field) - стационарное гауссовское случайное поле на К с нулевым средним и со спектральной плотностью (k + т )~ (fceR? - спектральный параметр, т^О - число, называемое массой). При d = 1 и т > О - это стационарный марковский гауссовский процесс Орнштейна - Уленбека. При d ^ 2 спектральная плотность неинтегрируема и соответствующее поле не существует в обычном смысле. Однако при d = 2, тл > О и при d^3 интеграл от спектральной плотности расходится только на бесконечности. Это обстоятельство позволяет построить С. м. п. как распределение вероятностей на пространстве обобщенных функций 5'(В? ). Это поле обладает свойствами марковости и положительности при отражениях. Лит.: [1] Глимм Дж., Джаффре Ф., Математические методы квантовой физики. Подход с использованием функциональных интегралов, пер. с англ., М., 1984; [2] Саймон Б., Модель Р[фЬ эвклидовой квантовой теории поля, пер. с англ., М., 1976; [3] Добрушин Р. Л., М и н л о с Р. А., Исследование свойств обобщенных гаус- совских случайных полей, в сб.: Задачи механики и математической физики. Посвящается памяти академика И. Г. Петровского, М., 1976, с. 117-65; [4] Мол чан Г. М., «Докл. АН СССР», 1971, т. 197, № 4, с. 784-87; [5J Nelson E., «J. Funct. Anal.», 1973, v. 12, № 2, p. 211-27. С. А. Пирогов. СВОБОДНОЕ ПОЛЕ (free field) - см. Марковское случайное поле. СВОБОДНЫЙ ГАЗ (free gas) - см. Идеальный газ. СВЯЗЕЙ МОДЕЛЬ (bound model) - см. Перколяции теория. СВЯЗИ КАНАЛ (communication channel) - см. Канал связи. СВЯЗНОСТЬ МЕТЕОРОЛОГИЧЕСКИХ ВРЕМЕННЫХ РЯДОВ (connectedness of meteorological time series) - корре- лированность друг с другом (или, вообще, статистическая зависимость друг от друга) ряда последовательно наблюденных (или полученных с помощью обработки данных нек-рых наблюдений) значений х(£0), x{t\),... какой-то меняющейся во времени метеорологической величины x(t). Обычно x(t) рассматривается как реализация случайного процесса (к-рый часто можно считать стационарным); при этом См. р., как правило, приводит к тому, что имеющаяся в нашем распоряжении конечная выборка x(tQ)} • ♦» x(tn-0> используемая для оценки вероятностных характеристик процесса Х(0, оказывается менее информативной (то есть приводящей к менее точным оценкам), чем выборка того же объема, отвечающая последовательности независимых наблюдений. Так, напр., если X(t) - стационарный случайный процесс со средним значением EX(t) = ти, дисперсией E[X(t) - т]2 = Dr и нормированной корреляционной функцией E[X(t + x)-m] [X(t) - m]/Dx = r(x)t а значения x(t0), •••, x(tn_{), где tj=tQ + iAt, используются для построения среднеарифметич. оценки w*=(i/">i;:o*('/> 568 СВОБОДНОЕ значения т, то дисперсия т* будет задаваться формулой Dm. = DxHn)/n, Wn) = t+2^:] U-k/пМШ) (1) (см., напр.,[1], [3], [4]), где множитель Х(п), характеризующий отличие значения Dm* от дисперсии среднеарифметич. оценки, построенной по п независимым наблюдениям, почти всегда оказывается большим единицы. Формулу (1) для Dm» можно также переписать в виде Dm.Dx/ne, ne = n/X(n), (2) где пе - число независимых наблюдений, приводящее к той же дисперсии т*} что и наша выборка (см. Независимых испытаний эквивалентное число). В часто встречающихся на практике случаях, когда г(т) = ехр(-а|т|), из (1) следует, что Ш) = (1 + р)/(1-р)-2р(1-р")/и(1-р2), р = ^^ (3) (см., напр., [2], [6]). При больших значениях п вторым слагаемым в правой части (3) можно пренебречь, так что здесь Мя)»(1+р)/(1-р), яе*я(1-р)/(1+р). Для последовательностей среднесуточных значений метео- рологич. величин отвечающая им С. м. в. р. часто оказывается весьма значительной, так что значение пс здесь существенно меньше я (ср. [8], где рекомендуется считать, что для таких рядов пс=п/3). Более подробные данные, касающиеся учета С. м. в. р. при анализе точности статистич. оценок среднего значения, дисперсии и других характеристик флуктуирующих метеорологич. величин, можно найти в [3] - [7], [9]. Лит.: [1] ВиленкинС. Я., Статистические методы исследования стационарных процессов и систем автоматического регулирования, М., 1967; [2] Ганди н Л. С, Объективный анализ метеорологических полей, Л., 1963; [3] Жу ковс к и й Е. Е., Кисел ева Т. Л., Мандельштам СМ., Статистический анализ случайных процессом в приложении к агрофизике и агрометеорологии, Л., 1976; [4] Яг- лом A.M., Корреляционная теория стационарных случайных функций, Л., 1981; [5] Крылов Е. В., Марченко А. С, «Тр. науч- но-исслед. Ин-та аэроклиматологии», М., 1967, в. 48, с. 28-35; [6] Марченко А. С, «Изв. АН СССР. Физика атмосферы и океана», 1965, т. 1, № 9, с. 906-13; [7] Мата л ас Н., в сб.: Статистические методы в гидрологии, пер. с англ., Л., 1970, с. 177-213; [8] Панов с к и и Г. А., Б р а йе р Г. В., Статистические методы в метеорологии, пер. с англ., Л., 1967; [9] Поляк И. И., Численные методы анализа наблюдений, Л., 1975. Е. Е. Жуковский. СГЛАЖИВАНИЯ НЕРАВЕНСТВО (smoothing inequality) - общее название ряда неравенств, позволяющих оценивать близость между распределениями близостью более гладких распределений. С. и. имеют вид ц(Р, Q)^qi(P*<D£, 0*Фе) + С(е), где \i - нек-рая вероятностная метрика, с - постоянная, Р и Q - распределения, {Ф£, е>0} - параметрическое множество гладких распределений такое, что Фе слабо сходится при е -> 0 к распределению, вырожденному в нуле, С(е) - нек-рая функция, зависящая от ц, Р и Q и стремящаяся к нулю при е -»0. Обычно Ф£ (так наз. сглаживающее распределение) имеет вид Фе(х) = Ф(х/г). Для гладких Ф соответствующей гладкостью обладают и распределения Р*Фе и 0*Фе, что упрощает работу с ними. Примеры С. н. Ниже рассматривается одномерный случай, Ф - нормальный закон с нулевым средним и единичной дисперсией, Фе(х) =Ф(х/е), е^е0. 1. С. н. для равномерной метрики: р(Р, Ф)^С1р(Р*Ф£, Ф*Ф£)+с2е, где Cj и с2 - постоянные, Р - произвольное распределение. 2. С. н. для Леей - Прохорова метрики: а)тс(Р, 0)^тс(Р*Ф£, ОФ£) + сел^ 1/е,
делении времени обслуживания со средним временем обслуживания требования рД: Эта формула обобщает Эрланга формулу; установлена Б. А. Севастьяновым (1956) в качестве следствия его эрго- дич. теоремы для марковских процессов (см. также Обслуживания систем теория] метод дополнительных переменных). С. ф. послужила источником исследований проблемы инвариантности d теории систем обслуживания. И. Н. Коваленко. СЕЗОННАЯ МОДЕЛЬ ХАРРИСОНА (Harrison seasonal model) - см. Харрисона сезонная модель. СЕЗОННЫЕ ИЗМЕНЕНИЯ (seasonal effect), сезонный эффект, - особенность поведения случайного процесса при наличии систематической составляющей периодического характера. Чаще всего Си. вводится в модель временного ряда как сумма чисто случайной составляющей X(t) и неслучайной иериодич. составляющей g(t): где с - постоянная, Р и Q - произвольные распределения; б) л(Р, 0)^с1я(Р*Фе, ОФе) + с2(1+Г)Е, где Р - произвольное распределение, Q - абсолютно непрерывное распределение, плотность к-рого q(x) такова, что для всех п Г = sup {/Г1 f | q(x + /?) - q(x)\dx\ <oot ft J Cj и c2 - постоянные. 3. С. п. для идеальной метрики порядка 5, 0 <s^ 2: £,(Р, СЖ£,(Р*Фе, 0*Ф£) + се\ где с - постоянная, Р и Q - произвольные распределения. 4. Содержательные С н. для полной вариации метрики не существуют. В частности, не существует функций fix) и д(х), fix) --> 0, д(х) -+ 0 при .с -> 0. таких, что для всех Р и всех е, а(Р, Ф)^/"(а(Р*ФЕ, Ф*Фе)) + #(£). Лип.: \\\ Bergstrom П., «Skand. aktuarietidskr.», 1945, v. 28, ЛЬ 1/2, p. 106-27; [2] Esse en C.G., «Acta math.», 1945, t. 77, № 1, p. 3-125; [3| Sazonov V. V., «SANKHYA, scr. A», 1968, v. 30, pt. 2, p 181-204; (41 Po i арь Н. И., «Теория вероятн. и ее примел.», 1970, т. 15, j. 4, с. 647-65; [5] Юримский В. В., там же, 1975, т. 20, в. 1. <\ 3-12; [6] Абрамов В. А., там же, 1976, т. 21, в. 2, с. 406-10. В. В. Сенатов. СГЛАЖИВАНИЯ ПАРАМЕТР (smoothing parameter) - см. И('параметрический регрессионный анализ. СГЛАЖИВАЮЩЕЕ РАСПРЕДЕЛЕНИЕ (smoothing distribution) - см. Сглаживания неравенство. СДВИГА ПАРАМЕТР (location/shift parameter) - параметр а семейства функций Fa(x), я е А с И? , jr е X с И? , удовлетворяющего следующему условию: Fa(x) = F0(x - а) для любых а е Л, х е А'. Если распределение в И? с функцией распределения Fix) принадлежит к тому же типу, что и распределение с функ шей распределения Fq(.c), to F(x) = F0((.r- a)/b). Здесь а - С. п., а Ь>0 - масштабный параметр. С. Я. Шоргин. СДВИГА ПАРАМЕТР; оценка (estimator of a location parameter) - статистическая оценка параметра 6, полученная на основе наблюдений вида *у = е + еу,/=1 л, (*) где е.- - независимые одинаково распределенные случайные величины. Поскольку параметр 9 может рассматриваться как элемент аддитивной группы вещественных чисел, то часто испо, ьзуют его эквивариантные оценки. Наилучшей среди них является Питмепа оценка. Схема (*) является удобной теоретич. моделью. С ней связан ряд результатов по адаптивному, робастному, частично непараметрическому и другим видам оценивания. Рассмотрен ряд задач характеризацин распределений свойствами оценок Си. Так, напр., если выборочное среднее является допустимой оценкой С. п., то х} в (*) имеют нормальное распределение. Лит.: [1] За кс Ш., Теория статистических выводов, пер. с англ., М., 1975; [2| Каган A.M., Лин ник Ю. В., Рао С. Р., Характери- зациомные задачи математической статистики, М., 1972; [3] Кен- да.1.ч М., Стьюарт А., Статистические выводы и связи, пер. с англ., М., 1973; [4] Хыобер П., Робастиость в статистике, пер. с англ., М., 1984. Л.Б. Клебанов. СДВИНУТАЯ ЭКСКУРСИЯ (shifted excursion) - см. Экскурсия марковского процесса. СЕВАСТЬЯНОВА ПРОЦЕСС (Sevast'yanov process) - см. Ветвящийся процесс с зависимостью от возраста. СЕВАСТЬЯНОВА ФОРМУЛА (Sevast'yanov formula) - формула для стационарной вероятности pk занятости k линий в n-линейной обслуживания системе с потерями при простейшем входящем потоке с параметром X и произвольном распре- Y(t)=gU)+X(t). Таким образом, сезонный эффект фактически является иериодич. трендом. В литературе, однако, понятия тренда и С. и., как правило, различаются: под трендом обычно понимают устойчивое систематич. изменение в течение долгого периода, или, другими словами, систематич. колебания низкой частоты, а С. и. - это систематич. колебания более высокой частоты по сравнению с трендом. В нек-рых случаях, напр. когда анализ временного ряда производится с целью прогнозирования, бывает необходимо строить оценку функции git). Для этого обычно используется методика построения мультипликативной модели (см. [1]). В других случаях достаточно бывает устранить сезонный эффект, не оценивая его; для этого можно использовать скользящих средних метод (см. [2], [3]). Лит.: [1} Бокс Дж., Джен ки не Г., Анализ временных рядов. Прогноз и управление, пер. с англ., в. 1, М., 1974; [2] А н д среон Т., Статистический анализ временных рядов, пер. с англ., М., 1976; [3] Кендэл М., Временные ряды, пер. с англ., М., 1981. Ю. Г. Баласанов. СЕЗОННЫЙ ЭФФЕКТ (seasonal effect) - см. Сезонные из менения. СЕЛЕКТОР (selector) - см. Математическое ожидание случайного множества, Управляемый случайный процесс с дискретным временем. СЕМИИНВАРИАНТ (semi-invariant/cumulant), кумулянт, - числовая характеристика случайной величины или случайного вектора, родственная понятию момента и связанная с разложением логарифма соответствующей характеристической функции в ряд Тейлора. Точнее, пусть Х=(Х\У ..., Хт) - w-мерный случайный вектор, f(t\, .... tm) - его характеристич. функция. Если E|X;|"<°°, i=t, .... т, я$И, то логарифм \nf(t\ tm) (ветвь, равная нулю в нуле) имеет в нек-рой окрестности точки ij = ... = fOT = 0 непрерывные частные производные до порядка п включительно. Величины (коэффициенты разложения In/*(£t, ..., tm) в ряд Тейлора) называются семиинвариантами (порядка k = k] + ... + km) СЕМИИНВАРИАНТ 569
случайного вектора X. При сложении независимых случайных величин (векторов) соответствующие С. складываются: С. и моменты случайного вектора связаны между собой простыми соотношениями. Так, в одномерном случае (т= 1) ( и V1 ч h} \ l J ( ', Y *х ', f 1 Т ) где внутренняя сумма распространяется на все неотрицательные / и /, для к-рых lxjx + ... + lrjr = m. Выражение С. через моменты дается формулой где внутреннее суммирование производится по всем неотрицательным целым числам / и /, подчиненным условиям /,/, + ... + lrnr=n,ji + ...+jr=j. Лит.:[\] Прохоров Ю. В., Розанов Ю. А., Теория вероятностей, 3 изд., М., 1987. в. Г. Ушаков. СЕМИИНВАРИАНТ случайного процесса (semi-invariant of a random process) - см. Спектральный анализ случайных процессов и полей. СЕМИИНВАРИАНТНАЯ СПЕКТРАЛЬНАЯ ПЛОТНОСТЬ (semi-invariant spectral density) - см. Спектральный семиинвариант. СЕМИИНТЕРКВАНТИЛЬНАЯ ШИРОТА (semi-interquan- tile range) - см. Квантиль, Квартиль. СЕМИМАРТИНГАЛ (semimartingale) - случайный процесс, представимый в виде суммы локального мартингала и процесса ограниченной вариации. Строгое определение предполагает, что все рассмотрения ведутся на (полном) стохастич. базисе ЗвР=(С1, .V, ^ = (^)^о» ^)» то есть вероятностном пространстве Ш, «.«/, Р) с выделенным на нем непрерывным справа и пополненным по мере Р семейством а-алгебр * = С^Л^о» Ч£ А£^> S^L Процесс X = (Xt)t^0 с траекториями из пространства D (непрерывных справа и имеющих пределы слева функций), заданный на стохастич. базисе£?, называется семимартин- галом, если Xt при каждом t^O ^~измеРимы и он может быть представлен в виде Xt = X0 + Mt+At, где Х0 - ,<У0-измеримая случайная величина, M = (Mt, ^t)t^Q - локальный мартингал, A = (At, ^t)t^Q - процесс локально ограниченной вариации. С каждым С. X однозначным образом (с точностью до стохастич. неразличимости) связывается непрерывный локальный мартингал Xе такой, что МС = ХС для любого разложения Х = Х0 + М+Л. Этот процесс Xе называется непрерывной мартингальной составляющей семимартингалаХ. С. X называется специальным, если он допускает представление Xt = X0 + Mt + At с предсказуемым процессом А = (At, rft)t^Q. Представление Xt = Х0 + Mt +At с предсказуемым процессом A = (At)t^0 единственно и носит название канонического разложения процесса X. К классу специальных С. принадлежат процессы X-(Xt)t^0 с ограниченными скачками, |AXf|^c, t^O, где AXt = Xt_-Xt. Процесс X является специальным С. тогда и только тогда, когда 570 СЕМИИНВАРИАНТ Х-Х0 есть разность двух локальных субмартингалов (супермартингалов). Детерминированный процесс Xt((d)-f(t), t^O, является С. тогда и только тогда, когда функция f=f(t), t^O, принадлежит пространству D и имеет ограниченную вариацию на каждом конечном интервале времени. Класс С. инвариантен относительно абсолютно непрерывной замены меры (если Q«P и Х- С. на Звр, то X будет С. и на ^0q); если G = (^)^o- неубывающее непрерывное справа семейство а-алгебр <£, £^0, таких, что ^£ьс/(, Xt ^измеримы, ^0и X - С. на JBp, то он будет С. и на редуцированном стохастич. базисе 3i'p- (ft, V, ¥=(&)^>о» Р)- Класс С. устойчив относительно случайной замены времени x = (t,)f?s0. Именно, если т = (xt)t>0 ~ возрастающий случайный процесс такой, что при каждом t величины т, являются марковскими моментами, то процесс X = (Xxf(co)(u)))t^0 будет С. относительно потока В случае дискретного времени я = 0, 1, ... естественное определение С. Х = (Х„)П^0, заданного на «дискретном» стохастич. базисе 33= (ft, .< $ =(,^)n5.0> P), сводится к тому, что это такая случайная последовательность, что Хп .^/„-измеримы. С. X = (Хп)п^0 будет специальным тогда и только тогда, когда последовательность X - Х0 локально интегрируема. В кано- нич. разложении X = Х0 + М + А ^ = I,s^HE(X,-AV,k*-i). Для случая дискретного времени предсказуемая квадратич. ковариация (X, У) двух (локально) квадратично интегрируемых мартингалов X и У имеет вид <x'y>«=I1«^nEt(x*-x*-t)(v'*-y*-i)i-'-/*-ti' а квадратич. ковариация [X, У] задается формулой [х'у1"=11,^и1х*-х*--"у*-у*-11=1„^и^л>'- Последовательность (М) = {М, М) носит название квадра- тической характеристики, а [А/] = [М, А/] - квад- ратической вариации. Формула замены переменных Ито (для дифференцируемых функций f=f(x)) в случае дискретного времени принимает вид /•(x„) = /-(x0)+X,^„-|^-i)^ + +lK«,,[^X*>-^*-t)-f^»-t)AX*} В случае непрерывного времени t^O для двух локально квадратично интегрируемых мартингалов А/ и N их предсказуемая квадратич. ковариация (A/, N) определяется как таком единственный (с точностью до Р-пренебрежимости) предсказуемый процесс локально интегрируемой вариации, что MN-{M, N) - локальный мартингал. Процесс (М, М) обозначается (А/) и носит название квадратической ка- рактеристикиМ. Квадратич. ковариация [М, Лг] определяется как процесс [A/, N]t = (Mc, ЛО, + £ < Д^.,А^.,. где Мс и Мс - непрерывные мартингальные составляющие М иЫ. Если Х = (Х , ..., X ) - rf-мерный С. (то есть каждый из процессов X - С), a f=f(xx, ..., xd) - дважды непрерывно дифференцируемая функция, то действительный процесс
f\X)-{fix], ..., Xd))t^0 является С. и имеет место формула замены переменных Ито: где Dtf(x) = df/dxit Di]f(x)=d2f/dxidxj, и tf-X' - стодга- стичпский интеграл по С. Л"1, а Н(Х1С, Х}С) обозначает интеграл Стилтьеса по процессу (Х1С, Х]С). С каждым «/-мерным С. Х-{х\, ..., Xt)t^Q связывается триплет Т=(В, С, v) его предсказуемых характеристик, определяемых следующим образом. Пусть h = h(x) - ограниченная функция на IR и со значениями в IR' , имеющая компактный носитель и такая, что h(x)=x, х=(х , ..., х ) в окрестности нуля. Пусть ОД = X [ДХ4-МДХ5)], Ш), = Х,-*Ш,. Так как AX(h) = h(AX), то |ДХ(Л)Г| ^ С и С. ХШ является специальным. Пусть X(h) = X0 + M(h) + #Ш, где М(А) - локальный мартингал, a B(h) - предсказуемый процесс локально ограниченной вариации. Для каждой фиксированной функции h = h(x) (предсказуемыми) характеристиками С. X (относительно функции урезания h) называют триплет Т=(В, С, v), где В= (Вг)г^ц - предсказуемый процесс B(h); C= (Cl})ij^d - непрерывный процесс с Сг} = {Хгс} Х}С), где Х1С - непрерывная мартингальная составляющая С. Xl\ \ = \(dt, dx), x е И? , есть предсказуемая случайная мера на fR+ x [R* , являющаяся компенсатором меры \1 скачков процесса X: \i{dt, dx) = Y<s '(AXs*0)S(s, AXs)(dt, dx), где 5< а) - мера Дирака в точке а. Характеристики С и V не зависят от выбора функции урезания h = h(x). Характеристика же B(h) зависит, вообще говоря, от /г, при этом Bt(h)-Bt{h') = (h-h')*vt (=Г d(h(x)-h'(x)Mds,dx)\ С учетом определений процессов X(h) и X{h) можно найти, что Xt = X(h)t + X(h)t = X0 + M(h)t + B(h)t + и с учетом разложения M(h) = Xе + М (h) получить Xt = X0 + B(h)f + Xct + Md(h) + + ^t[AXs-h(AXs)l Для стохастич. интегралов по мартингальным мерам это выражение может быть переписано в виде Xt = XQ + B(h)t + X^ +U^*u)^-v)+Jff,,^u-*W)*- Если h(x)=xl(\x\ ^1), то получают (часто называемое каноническим) представление Xt = X0 + Bt + Xct + + \ t , , xd(iL-v)+ \ , , xd\i, J(0,flx{|.r|*Sl} J((Ulx{|*|>1} Пусть YjxeBt = Bt(xI{\x\^\)). Примеры С. и их характеристик. 1) Винеровский процесс w-(wt)t^0 имеет триплет Г = (0, t, 0) (относительно любой функции урезания h). 2) (/-мерный процесс с независимыми приращениями является С. тогда и только тогда, когда для каждого X е Л? функция Ее1 Xt имеет конечную вариацию на каждом конечном временном интервале. 3) Если X - «/-мерный С, Х0 = 0, то X является процессом с независимыми приращениями тогда и только тогда, когда существует детерминированная версия характеристик (В, С, v). 4) «/-мерный процесс X является однородным процессом с независимыми приращениями тогда и только тогда, когда он является С, допускающим версию характеристик {В, С, v) вида Bt = bt, Ct = ctt v(dt, dx) = dt-K(dx), где be$d, c- симметрич. неотрицательная (d х</)-матрица, К - положительная мера HaIRrf такая, что J (\х\2л\)кЫх) <°°, К({0}) = 0. При этом справедлива формула Леви - Хинчина: EeiXxt = expt\iX-b--X-c-X + -fjVXr -1- IX h(x))K(dx)\ A(X)t =iX-Bt--X-Ct-X + +j(elXx -\-iX- h(x)M[0, t] x dx). Следующие условия являются эквивалентными: а) X - С. с характеристиками (В, С, v); б) для каждого X е И? процессе1 - (ег ~)tA(X) является комплекснозначным локальным мартингалом; в) для каждой ограниченной дважды непрерывно дифференцируемой функции /"=/"(*), дгеП? , процесс fW-fiXj-Z.^Djnxj.B''- f(X_ +дг)-/XXJ-]T^rf D/(X_)M*)j*v является локальным мартингалом. С каждым комплексным С. X - X' + iX" связывается стоха- стич. экспонента »Ш, = {ехр(*( -Х0 -\{Х", X" )t+±{X". X" )t - -i(X", X"°)t^Yl<tl(l + AXs)e-^l являющаяся единственным решением (в классе ^-согласованных процессов с траекториями из D) уравнения Y=\ + Y_-X, У0=1. Процесс %(Х) - (%(X)t)t^Q также является С. При этом, если процесс X имеет локально ограниченную вариацию, то a<.X)t-exrx»Yl<tH-AXt)e- если С. - действительный, то Хг-Хп---IXе, Xе) Ги<1+Д*>~ Пусть G(X) = %(A(X)), ПХ) = Ы{Ь:АА(Х)= -1}. Тогда момент Т(Х) предсказуем, Т(Х) = \nf{t:G(X)t = Q) и процесс (ег ' /G(X))'In0 Т(щ является локальным мартингалом на СЕМИМАРТИНГАЛ 571
стохастич. интервале ЦО, Т(ХЦ = {(t, со): 0 ^ * ^ Т(к)}. Это свойство играет ключевую роль в методе стохастич. экспонент доказательств результатов о слабой сходимости С. (см. [2], [4]). Лит.: [1] Dellasherie С, Meyer P.-A., Probabilites et poten- tiel. Theorie des martingales, t. 1-2, P., 1975-80; [2] Липцер Р. Ш., Ширяев А. Н., Теория мартингалов, М., 1986; [3] Гихман И. И., Скороход А. В., Стохастические дифференциальные уравнения и их приложения, К., 1982; [4] Ж а код Ж., Ширяев А. Нм Предельные теоремы для случайных процессов, пер. с англ., М., 1994. А. И. Ширяев. СЕМИМАРТИНГАЛ; предельные теоремы (limit theorems for semi martingales) - см. Предельные теоремы для мартингалов и семимартингалов. СЕМИМАРТИНГАЛА ФИЛЬТРАЦИЯ (filtering of a semi martingale) - задача об отыскании оптимальной в среднеквад- ратическом смысле оценки для ненаблюдаемой компоненты по наблюдаемому процессу определенного вида. Пусть (X, Y) = (Xt, Yt)t^Q - двумерный семимартингал, где У - ненаблюдаемая компонента, X - процесс, подлежащий наблюдению. Пусть lkx-{^t ) t>0 -семейство а-алгебр .</;Y = a{X5, 0^s^£} и ^f = (.</£)- семейство a-алгебр Опциональная проекция n(Y) = (nt(Y))t>Q процесса У относительно &х определяет оптимальную в среднеквадратич. смысле оценку Yt по наблюдениям Xs, s^t, в том случае, когда EYt <оо и ^+-АХ. Структура л(У) устанавливается достаточно просто в том случае, когда У является специальным семимартингалом, то есть Yt=Y0 + Mt+At, где A = (At)t^Q - предсказуемый процесс локально ограниченной вариации [уагС4)^<<*> Р-почти наверное, t>0], М -(Mt)t^Q- локальный мартингал, X задается канонич. представлением, к-рому отвечает триплет предсказуемых характеристик Т=(В, С, v) [семимартингальное свойство X сохраняется относительно семейства !kX, триплет предсказуемых характеристик относительно А+ обозначается ТХ = (ВХ, СХ, Vх)]. В частности, при условиях: 1) Е(У02 + (уаг(Л),)2 + М,2)<~, £>0; 2) распределение случайной величины Х0 и триплет Тх однозначно определяют распределение процесса X; 3) процесс Г Г f x(v-vxy(dst dx)) !Л Jm«i >Uo имеет траектории локально ограниченной вариации, (v - v )f - непрерывная (по s) составляющая меры v - v ; ограниченной з s) сое 4) процесс L = (Lt)f^0 с Lf = (B-Bx)ct - |* f *(v- vx)cUs, dx) 1 JO J\x\^\ абсолютно непрерывен относительно C=(Ct)t^Q, (В - В У - у непрерывная составляющая функции В - В ; dU *н dCx rfC <<*>, t>0, семейства а-алгебр Ах и /fc+ совпадают, процесс л (У) является специальным семимартингалом, допускающим представление Jo Л?\(0| ^ С) 572 СЕМИМАРТИНГАЛ где A -(Ax)t>0 - ^ -предсказуемый процесс с E(varC4 )t) <°°, t>0, интегралы в правой части (*) являются стохастич. по непрерывному локальному мартингалу Xе-(X^)t^Q (непрерывной мартингальной составляющей семимартингала X относительно fcx) и мартингальной мере ц-v [\x = \x(dt, dx) - мера скачков Х\, а функции /2 = /К со, s) и tf = tf(co, s, х) вычисляются по триплетам Г и Т . Лит.: [1] Григелионис Б., «Литов. матем. сб.», 1972, т. 12, № 4, с. 37—51; [21 Ветров Л. Г., «Теория вероятн. и ее примен.», 1982, т. 27, в. 1, с. 24-35; [31 Липцер Р. Ш., Ширяев А. Н., Теория мартингалов, М., 1986. Р. Ш. Липцер. СЕПАРАБЕЛЬНАЯ а-АЛГЕБРА (separable а-algebra) - см. а-Алгебра множеств. СЕПАРАБЕЛЬНОЕ ОТНОШЕНИЕ (separable relation) - см. Полезностей теория. СЕПАРАБЕЛЬНЫЙ ПРОЦЕСС (separable process) - случайный процесс, поведение траекторий к-рого по существу определяется их поведением на нек-ром счетном множестве. Пусть на вероятностном пространстве (Q, М, Р) задан случайный процесс X(t) в метрич. фазовом пространстве (М, 83) (39 есть а-алгебра борелевских множеств), и пусть t изменяется также в нек-ром метрич. пространстве Т. Из определения случайного процесса вовсе не следует, что является событием множество Г) {со:Х(£, со) е Г}, где G - открытое подмно- жество Г, а Г - замкнутое подмножество М. В то же время с наглядной точки зрения кажется естественным говорить о вероятности того, что, напр., действительный случайный процесс в течение времени от момента t0 до момента tx не покидает промежутка [я, Ь]. В связи с этим Дж. Дуб [1] ввел понятие С. п. Случайный процесс X(t), teT, называется сеп арабе л ь н ы м, если существует такое счетное всюду плотное в Т множество S и такое множество N e.J, что Р(Л0 =0, и, кроме того, для всякого открытого G <= Т и всякого замкнутого Г<^М множества Л==П,е5по l^:X(tt<a)Gr)HB=f\tBG{<a:XUtai)er) отличаются друг от друга лишь на подмножество множества N. Множество А является событием, то есть А е. .7. Если пространство (Q, .«/, Р) полно, а процесс X(t) сепарабелен, то также Яё.</и Р(В) определено. Множество S в определении называется множеством сепарабельности процесса. Пусть Г сепарабельно, а М компактно; A(G, со) - замыкание множества значений функции X(t, со), когда t пробегает множество G0S, и пусть A(t, со)=ПЛ(0, со), где пересечение распространяется на все содержащие точку t открытые множества G из счетной базы топологии пространства Т. Для сепарабельности процесса X(t) необходимо и достаточно, чтобы существовало такое N е.«/, что Р(Ю = 0 и X(t, со)еЛ(£, со) для со*N при всех teT. Свойство процесса быть сеиарабельным или нет не зависит от конечномерных распределений процесса (при весьма общих предположениях о пространствах Т и М). Точнее, справедлива теорема (см. [1]): пусть Г- сепарабельное метрич. пространство, М компактно. Тогда всякий случайный процесс, заданный на Г и принимающий значения в М, стохастически эквивалентен пек-рому сепарабелыюму случайному процессу. Другими словами, можно при каждом t(=T так изменить значения заданного процесса на со-множестве меры нуль, что полученный процесс станет С. п. Если М локально компактно и М - его компактное расширение, то предыдущая теорема приводит к резулЕУгдту: для
всякого случайного процесса в М существует стохастически эквивалентный ему сепарабельный процесс со значениями в М. Здесь переход к сепарабельной модификации исходного процесса приводит к тому, что новый процесс может принимать «несобственные» значения (то есть не входящие в М). Происходит это при каждом t e T с нулевой вероятностью. Если процесс сепарабелен и стохастически непрерывен, то в качестве множества сепарабельности может быть взято любое счетное всюду плотное в Т множество. Лит.: {1 ] Дуб Д ж. Л., Вероятностные процессы, пер. с англ., М., 1956; [2J Гихман И. И., Скороход А. В., Введение в теорию случайных процессов, 2 изд., М., 1977. Н.И. Портенко. СЕРИАЛЬНЫЙ КОЭФФИЦИЕНТ КОРРЕЛЯЦИИ (serial correlation coefficient/sample autocorrelation coefficient) - статистика, к-рая служит оценкой автокорреляции (автокорреляционной функции) временного ряда. Именно, пусть #t, .г2, .... xN - временной ряд. Сериальным коэффициентом корреляции порядка k называется статистика rk> задаваемая формулой где В качестве С. к. к. используются статистики, близкие к (*) несколько упрощенного вида. Совокупность С. к. к. называется коррелограммой; этот термин употребляется также для обозначения графика rk как функции k. При различных предположениях относительно распределений Г; имеются точные и приближенные выражения для распределения С. к. к. и их моментов. С. к. к. используются в статистич. задачах для обнаружения зависимости членов временного ряда. Наряду с термином «С. к. к> используется термин «выборочная автокорреляция». Лит.: [1] Андерсон Т., Статистический анализ временных рядов, пер. с англ., М., 1976; [2] Кендалл М., Стьюарт А., Многомерный статистический анализ и временные ряды, пер. с англ., М., 1976; 13] Хеннан Э., Анализ временных рядов, пер. с англ., М., 1964. В. Г. Ушаков. СЕРИЙ КРИТЕРИЙ (runs test/Wald - Wolfowitz twosample test) ~ статистический критерий, основанный на общем количестве- серий и = Г\ + г2 в общем вариационном ряде, построенном но двум повторным выборкам. Здесь r, = Y. г^ (i= 1, 2), r(j - количество серий длины j, образованных из точен i-й выборки. С. к. введен в [4] и предназначен для проверки гипотез однородности и случайности двух выборок. Имеется простая связь (см. [5]) с пустых блоков критерием. Для случая независимых повторных выборок с одинаковой непрерывной функцией распределения существуют (см. [1)) таблицы критич. значений. Обобщения на случай серий, образованных из элементов k>2 типов, рассматриваются в 13), |51. Лит.:[\] Большев Л.Н., Смирнов Н. В., Таблицы математической статистики, 3 изд., М., 1983; 12] Уилкс С, Математическая статистика, пер. с англ., М., 1967; [31 Mood A.M., «Ann. Math. Statist.», 1940, v. 11, p. 367-92; [A] Wald A., Wolfowitz J., там же, р. 147-62; [51 Кудлаев Э. М., в кн.: Итоги науки и техники. Сер. Теория вероятностей. Математическая статистика. Теоретическая кибернетика, т. 26, М., 1988. Э. М. Кудлаев. СЕРИЙ СХЕМА (triangular array scheme) - модель, в рамках к-рой изучаются асимптотические свойства сумм действительных случайных величин Sn = Xn^ + Хп2 + ..., я = 1, 2, .... Наборы слагаемых Un = (Xni, Хп2,...) называются сериями случайных величин. Если число элементов в наборе Un бесконечно, то ряд Sn предполагается сходящимся с вероятностью 1. Основными объектами исследования в С. с. традиционно являются множество 8 возможных предельных вероятностных распределений величин Z„ = S„-An, где Ап - нек-рые постоянные, и условия сходимости вероятностных распределений этих величин к отдельным представителям множества 8. Впервые в столь общем виде С. с. рассматривалась С. Н. Берн- штейном в 1922 (см. [1]). До 30-х гг. в теории вероятностей превалировал частный случай С. с- модель нарастающих сумм случайных величин, в к-рой Xn--Xj/Bn, Bn>0, и число слагаемых в 5„ конечно при любом п. Рассматривались как случаи наборов независимых, так и зависимых случайных величин (см. [2], [1]). Наиболее полно изучен первый случай. Дополнительное бесконечной малости условие для слагаемых XnJ- выделяет здесь классич. теорию предельных теорем (см. [3]). Наибольший вклад в создание этой теории внесли А. Н. Колмогоров, П. Леви (P. Levy) (описание класса ® безгранично делимых распределений); Г. М. Бавли, А. Я. Хинчин (доказательство того, что 8 = ®); Дж. Линде- берг (J. Lindeberg), В. Феллер (W. Feller), А. Я. Хинчин, Б. В. Гнеденко (критерии слабой сходимости к законам класса ®, в том числе к вырожденному, нормальному и пуассоновско- му распределениям). Отказ от условия равномерной бесконечной малости слагаемых Xnj (при сохранении условия их независимости) позволил существенно расширить классич. теорию предельных теорем, поскольку в этом случае множество 8 совпадает с множеством всех распределений наГС1 (см. [4]). С. с. обобщалась как в направлении замены операции сложения слагаемых X ■ другими бинарными операциями в множестве действительных случайных величин (см. Максимума случайных величин схема, Перемножения случайных величин схема, Урбаника алгебра), так и замены пространства IR значений Хп: пространствами более общей природы. С моделью С. с. связаны многочисленные работы, в к-рых рассматриваются специальные случаи общих предельных теорем, принцип инвариантности, исследуются скорости сближения с предельными распределениями, сходимость распределений связывается с топологиями, отличными от слабой (см. [5]-[7]). Лит.:[\] Бернштейн С. Н., Собр. соч., т. 4, М., 1964, с. 66-70; [2] Марков А. А, Избр. труды, М., 1951, с. 339-398; [3] Гнеденко Б. В., Колмогоров А. Н., Предельные распределения для сумм независимых случайных величин, М. - Л., 1949; [4] Золотарев В. М., Современная теория суммирования независимых случайных величин, М., 1986; [51 Петров В. В., Суммы независимых случайных величин, М., 1972; [6] Зингер А. А., «Теория вероятн. и ее примени, 1965, т. 10, в. 4, с. 672-92; 1971, т. 16, в. 4, с. 614-37; [71 Круглов В. М., там же, 1972, т. 17, в. 4, с. 723-32. В. М. Золотарев, В. М. Круглов. СЕТЬ мер (net of measures) - отображение направленного множества в пространство мер. Множество 0 называется направленным, если на нем отношение < задает частичный порядок так, что для любой пары Qx и 62 е 0 найдется 0G0, к-рый следует за et и в2, то есть et^e и в2<0. Отображение из 0 в пространство мер называется сетью мер и обозначается символом (Ре)вевили (Ре). Подсетью сети (Ре)вев называется сеть (Рф(7))7€р где Г - направленное множество с частичным порядком < и ф - отображение из Г в 0 со свойством: для каждого 0е0 существует такое уеГ, что из Y^yt, следует в^ср^). Если 0 = N - множество натуральных чисел с естественным на нем порядком, то отображение N в пространство мер образует обычную последовательность мер. В конкретных вопросах, связанных с предельными теоремами для распределений, всегда достаточно рассматривать последовательности мер. Однако при изучении общих условий слабой сходимости СЕТЬ 573
вероятностных мер и случайных процессов часто полезно рассматривать сходимость сетей. Лит.: [1] Кслли Дж. Л., Общая топология, пер. с англ., 2 изд., М., 1981; [2] Borovkov A. A., Pecerski E. A., «Z. Wahr. und verw. Geb.», 1973, Bd 28, № 1, S. 5-22; [3] Боровков А. А., «Успехи матем. наук», 1976, т. 31, в. 2, с. 3-68. Е.А. Печерский. СЕТЬ распределений (net of distributions) - см. Предельные теоремы для случайных процессов. СИГМА-АЛГЕБРА МНОЖЕСТВ (sigma-algebra of sets) - см. а-Алгебра множеств. СИГМА-АЛГЕБРА СОБЫТИЙ (sigma-algebra of events) - см. Алгебра событий. СИГМА-ТОПОЛОГИЧЕСКОЕ ПРОСТРАНСТВО (sigma topological space) - см. ^-Топологическое пространство. СИГНАЛ/ШУМ ОТНОШЕНИЕ (signal/noise ratio) - отношением мощности сигнала на входе канала связи с аддитивным шумом к мощности шума. С./ш. о. характеризует помехоустойчивость каналов связи. Для каналов с гауссовским аддитивным шумом через С./ш. о. выражается и пропускная способность канала', если У = (..., Y-\, ^о> У\*---) и У = (..., У_1( У0, Уj,...) - стационарные случайные последовательности, являющиеся сигналами на входе и выходе канала с аддитивным гауссовским шумом Z = (..., ZH, Z0, Z]t...), где Zk, k=..., -1, 0, 1, ..., - последовательность независимых гауссовских случайных величин таких, что Z и У независимы, то пропускная способность С такого канала дается формулой Шеннона: C=(l/2)log[l+5/iV], (*) где N~EZk - мощность шума, при условии, что мощность сигнала на входе ограничена константой 5, то есть ЕУ^5, k=..., -1, 0, 1,.... Аналог формулы (*) справедлив и для более общих гауссовских каналов. Лит.; [1] Возенкрафт Д ж, Джекобе И., Теоретические основы техники связи, пер. с англ., М., 1969; [2] Колесник В.Д., Полтырев Г. Ш., Курс теории информации, М., 1982; [3] Харке- вич А. А., Борьба с помехами, М., 1965. В. В. Прелое. СИГНАТУРА перестановки (signature of a permutation) - см. Перестановка. СИДЖЕЛА - ТЬЮКИ КРИТЕРИЙ (Siegel - Tukey test) - ранговый критерий для проверки однородности двух скалярных выборок против их различия в масштабах. Точнее, альтернативой гипотезы об однородности двух генеральных совокупностей, представленных независимыми скалярными выборками, служит различие из разбросов при условии равенства медиан. Система назначения рангов: все наблюдения объединяются в одну совокупность; ранг 1 получает наименьшее из чисел этой совокупности; ранг 2 - наибольшее из оставшихся; ранг 3 - снова наибольшее из оставшихся; ранг 4 - наименьшее из оставшихся и т. д. Если выстроить все наблюдения в порядке возрастания, последовательность их рангов будет выглядеть так: 1, 4, 5 3, 2. Статистика С- Т. к.- сумма рангов одной из выборок. При нулевой гипотезе она распределена свободно и так же, как статистика ранговых сумм Уилкоксона. Поэтому для С. - Т. к. используют таблицы, предназначенные для этой последней (см. [1], [2], [3]). Для проверки по выборкам равенства масштабов двух генеральных совокупностей, медианы к-рых, возможно, не совпадают, Л. Мозесом предложен свободный от распределения (при нулевой гипотезе) критерий, похожий на ранговый (см. [2], [4]). В этом критерии используется искусственная рандомизация - случайное разбиение исходных выборок на подгруппы. 574 СЕТЬ Лит.: [1] Siegel S., Tukey J. W., «J. Amer. Statist. Assoc», 1960, v. 55, p. 429-45; [2] Холле ндер М., Вулф Д., Непараметрические методы статистики, пер. с англ., М., 1983; [3] Большее Л. Н., Смирнов Н. В., Таблицы математической статистики, 3 изд., М., 1983; [4] Moses L. E., «Ann. Math. Statist.», 1963, v. 34, p. 973-83. Ю. H. Тюрин. СИЛЬНАЯ ГАРМОНИЗУЕМОСТЬ случайного про цесса (strong harmonizability of a random process) - см. Гармонизуемый случайный процесс. СИЛЬНАЯ СХОДИМОСТЬ (strong convergence) - см. Равномерная сходимость. СИЛЬНО ИЗМЕРИМОЕ ОТОБРАЖЕНИЕ (strongly measurable mapping) - понятие измеримости для отображения в бесконечномерное банахово пространство. Пусть (Q, .V, ц) - пространство с полной мерой, В - банахово пространство. Отображение f:Q^>B называется простым, если оно принимает конечное число различных значений и каждое значение принимается на нек-ром множестве из А. Отображение f называется сильно измеримым (измеримым по Бохнеру), если существует такая последовательность простых отображений fn: Q -> В и такое множество Ц> е .<-/. что u.(&\&0) = 0 и lim j|/"„(co) -/"(со)|| = 0 для всех соеЦ). Ото- бражение /:£}->£ сильно измеримо тогда и только тогда, когда оно почти сепарабельнозначно[то есть найдется Q0eЭтакое, что u.(Q\Q0) = 0 и f(QQ) - сепарабелыюе подмножество В] и для каждого борелевского множества р<= В будет /"~1(р)е.^. Почти сепарабельнозначное отображение f:Q-+B сильно измеримо тогда и только тогда, когда оно слабо (скалярно) измеримо (теорема Петтиса). Лит.: [1J И оси да К., Функциональный анализ, пер. с англ , М. 1967; [2] Вахания Н.Н., Тариеладзе В. И., Чобанян С. А., Вероятностные распределения в банаховых пространствах, М., 1985. Н. Н. Вахания. СИЛЬНО ОДНОВЕРШИННОЕ РАСПРЕДЕЛЕНИЕ (strictly unimodal distribution) - см. Унимодальное распределение. СИЛЬНО УНИМОДАЛЬНОЕ РАСПРЕДЕЛЕНИЕ (strictly unimodal distribution) - см. Унимодальное распределение. СИЛЬНО ФЕЛЛЕРОВСКАЯ ПЕРЕХОДНАЯ ФУНКЦИЯ (strong Feller transition function) - см. Переходная функция для марковского процесса. СИЛЬНО ФЕЛЛЕРОВСКИЙ ПРОЦЕСС (strong Feller process) - частный случай феллеровского процесса. Пусть в измеримом пространстве (Е, 33), где Е - топологич. пространство, а 35 - совокупность борелевских множеств в нем, задан однородный марковский процесс X с переходной функцией p(t} х, Г), t ^ 0, х е Е, Г еЗв. Процесс X называется сильно феллеровским, если при любом t>0 функция Ptf()=jf(.y)P(,t,;dy) непрерывна всякий раз, когда функция f ^-измерима и ограничена. Каждый диффузионный процесс, удовлетворяющий сравнительно слабым ограничениям, является С. ф. п. (см. [2]). Свойства эксцессивных функций, отвечающих С. ф. п. и частям С. ф. п. на открытых множествах, близки свойствам классич. супергармонич. функций, и это предопределило успех (см. [2]) использования непрерывных С. ф. п. при вероятностной трактовке задачи Дирихле (см. Потенциала теория для марковского процесса). Впервые класс С. ф. п. был рассмотрен в [1]. По аналогии с С. ф. п. определяются сильно феллеров- ские цепи Маркова. Изучались цепи Маркова с переходными функциями, содержащими сильно феллеровскую компоненту (см. [3]).
Лит.:\\] Гирсанов И. В., «Теория вероятн. и ее примен.», I960, т. 5, в. 1, с. 7-28; [21 Дынкин Е. Б., Марковские процессы, М., 1963; |3] Tuominen P., Tweed le R., «Proc. London Math. Soo, 1979, v 38, p. 89-114. M. Г. Шур. СИЛЬНО ФЕЛЛЕРОВСКОЕ СВОЙСТВО марковских процессов (strong Feller property of a Markov processes) - однородная вероятность перехода Pit, x, Г) в фазовом пространстве (X, 83) (где X - топологическое пространство, 85 - а-алгебра его борелевских подмножеств) такая, что при всех Р0и/"е В(Х) имеет место включение Fix) = Ttf(x)=jx Pit, x, dy)f{y) e C(X), где B(X) ~ пространство ограниченных борелевских функций, С(Х) - пространство непрерывных функций. Марковский процесс с сильно феллеровской вероятностью перехода называется сильно феллеровским процессом. Примером сильно феллеровского процесса может служить винеровский процесс. Г. Л. Кулинич. СИЛЬНЫЙ ИНФИНИТЕЗИМАЛЬНЫЙ ОПЕРАТОР (strong infinitesimal operator/generator) - см. Инфинитези- мальиый оператор. СИЛЬНЫЙ СЛУЧАЙНЫЙ ЛИНЕЙНЫЙ ОПЕРАТОР (strong random linear operator) - см. Случайный линейный оператор. СИММЕТРИЗАЦИИ МЕТОД (symmetrization method) - метод доказательства теорем теории вероятностей, основанный на сопоставлении каждой случайной величине X из нек-рого семейства случайной величины Xs = X - У, где У не зависит от X и имеет то же распределение, что и X. Случайная величина X" имеет симметричное распределение с неотрицательной характеристич. функцией \fU)\ , где ДО - характеристич. функция случайной величины X. При переходе от симметри- зоваиных случайных величин к исходным случайным величинам существенную роль играют неравенства симметризации (см. [1]). Лит.: [1J Лоэв М., Теория вероятностей, пер. с англ., М., 1962. В. В. Петров. СИММЕТРИЧЕСКАЯ РАЗДЕЛИМАЯ СТАТИСТИКА (symmetric separable statistic) - см. Разделимая статистика. СИММЕТРИЧЕСКАЯ СЛУЧАЙНАЯ МАТРИЦА (symmetric random matrix) -квадратная случайная матрица Еп= ||£у|| порядка п, в крой любые два элемента, расположенные симметрично относительно главной диагонали, равны между собой. Пусть у элементов £•, i^j, i, j-U ..., я, существует совместная плотность распределения, Х^ ...^Хп- собственные значения матрицы Ew, ki - ее собственные векторы, у к-рых первые ненулевые компоненты неотрицательны. Собственные значения A,,, i=\, ..., я, матрицы Еп с вероятностью 1 различны. Если Нп - случайная матрица, вектор-столбцы к-рой равны kif i = l, ..., и, G - группа я-мерных действительных ортогональных матриц, В есть а-алгебра борелевских множеств «-мерных ортогональных матриц на ней и |i - нормированная мера Хаара на группе G, то для любого подмножества L е В и любых действительных чисел а,, р^, i= 1, .., я, можно вычислить (см. [1]) P{tf„GL,(X;<A,-<ft, 1=1, ...,«}. Если распределение матрицы [/„£„[/„ равно распределению матрицы Еп для всех ортогональных матриц Un e G и у элементов £,-, i^j, г, j = 1, ..., я, существует совместная плотность распределения р, то матрица Нп стохастически не зависит от собственных значений матрицы Еп и имеет следующее распределение D = {UneL<zG]n{uu>0, i=\, ..., и}, где ии; - элементы матрицы Un. Плотность распределения собственных значений матрицы Еп равна тсп(п+1)/4П-=1 {r[(fi-i+t)/2]}"V(y„)x Лит.: [1] ГиркоВ.Л., Теория случайных детерминантов, К., 1980. В.Л.Гирко. СИММЕТРИЧЕСКИЙ СТОХАСТИЧЕСКИЙ ИНТЕГРАЛ (symmetric stochastic integral) - см. Стратоновича стохастический интеграл. СИММЕТРИЧЕСКОЕ ПРОСТРАНСТВО ФОКА (symmetric Fock space) - см. Фока пространство. СИММЕТРИЧЕСКОЕ СТОХАСТИЧЕСКОЕ ДИФФЕРЕНЦИАЛЬНОЕ УРАВНЕНИЕ (symmetric stochastic differential equation) - см. Стохастическое дифференциальное уравнение в форме Стратоновича. СИММЕТРИЧНОЕ ГАУССОВСКОЕ РАСПРЕДЕЛЕНИЕ (symmetric Gaussian distribution) - см. Гауссовское распределение на локально компактной абелевой группе. СИММЕТРИЧНОЕ РАСПРЕДЕЛЕНИЕ (symmetric distribution) -распределениевероятностей, приписывающее одинаковые вероятности любым двум множествам, взаимное расположение к-рых относительно начала координат симметрично. Точнее, вероятностное распределение Р(Л) в И?" называется симметричным, если Р(Л) = Р(-Л) для любого борелев- ского множества Лс|Рп, где -А = {х е IP": -jc e А). Распределение симметрично тогда и только тогда, когда его характеристич. функция действительна (или, что то же самое, симметрична относительно нуля). Примером С. р. может служить нормальное распределение с нулевым математич. ожиданием. Все моменты Ср. нечетного порядка, если они существуют, равны нулю. Случайная величина X имеет С. р. тогда и только тогда, когда ее распределение совпадает с распределением случайной величины - X. Н. Г. Ушаков. СИММЕТРИЧНЫЙ КАНАЛ (symmetric channel) - канал связи, переходная функция к-рого обладает тем или иным свойством симметрии. Напр., стационарный канал без памяти с конечными множествами значений сигналов на входе и выходе называется симметричным, если и строки, и столбцы матрицы переходных вероятностей этого канала образованы перестановками одного и того же набора чисел. Для С. к. многие важные теоретико-информационные характеристики могут быть либо вычислены явно, либо их вычисление значительно упрощается по сравнению с несимметричными каналами. Лит.: [1] Галлагер Р., Теория информации и надежная связь, пер. с англ., М., 1974; {2] Ко л ее ник В. Д., По лтырев Г. Ш., Курс теории информации, М., 1982. В. В. Прелое. СИММЕТРИЧНЫЙ ФАКТОРНЫЙ ЭКСПЕРИМЕНТ (symmetric factorial experiment) - см. Факторный эксперимент. СИМПЛЕКСНЫЙ МЕТОД (simplex method) - см. Экстремальных экспериментов планирование. СИМПСОНА РАСПРЕДЕЛЕНИЕ (Simpson distribution) - см. Треугольное распределение. СИНАЯ БИЛЬЯРД (Sinai billiards) -динамическая система, отвечающая движению по инерции материальной точки в ограниченной замкнутой области Q (лежащей в евклидовом пространстве или на торе с евклидовой метрикой) с кусочно СИНАЯ 575
гладкой и строго выпуклой внутрь Q границей, от к-рой точка отражается по следующему закону: угол падения равен углу отражения. Сб. возникает в нек-рых моделях статистич. механики (см. Лоренца газ). С. 6. представляет собой пример динамич. системы с сильными стохастич. свойствами. Так, Сб. является К-системой (см. [1]) и метрически изоморфен Бернулли сдвигу (см. [2]). Лит.: [\] Синай Я.Г., «Успехи матем. наук», 1970, т. 25, в. 2, с. 141-92; [21 Gallavotti G., Ornstein D.. «Comm. Math. Phys.», 1974, v. 38, № 2, p. 83-101. Л.А. Бунимович. СИНГУЛЯРНАЯ СОСТАВЛЯЮЩАЯ МЕРЫ (singular component of a measure) - сингулярная компонента в Лебега разложении этой меры. Точнее, пусть Е - основное базисное пространство, S - нек-рая а-алгебра частей от £, a |i и X - две произвольные а-конечные меры, определенные на S. Тогда мера (X представима в виде суммы \ix + |i2, где мера \ix сингулярна относительно меры X (то есть \1^±Х), а мера (х2 абсолютно непрерывна относительно X (то есть [12«Х). Указанное представление единственно и называется разложением в смысле Лебега меры |1 (но отношению к X). При этом мера(х1 называется сингулярной составляющей меры (X, а мера |i2 называется абсолютно непрерывной составляющей меры |i. В частности, мера \1 абсолютно непрерывна относительно X тогда и только тогда, когда ее сингулярная составляющая (Х1 тождественно равна нулю. Для того чтобы получить сингулярную составляющую конечной мерьф, достаточно рассмотреть sup{(x(Z):Ze5&^(Z) = 0}. Пусть У - какое-нибудь множество А,-меры нуль, на к-ром достигается указанный супремум (такое множество всегда существует). Тогда сингулярная составляющая (Х1 меры \i определяется следующим образом: д1 (X) = рХХП У), X е S. При этом разность \i-\i^ дает абсолютно непрерывную составляющую \12 меры \1. Разложение в смысле Лебега, а также понятия сингулярной составляющей и абсолютно непрерывной составляющей допускают обобщение и на тот случай, когда вместо обычных мер рассматриваются знакопеременные меры (то есть заряды). Лит.: [1] Халмош П., Теория меры, пер. с англ., М., 1953; [2] Неве Ж., Математические основы теории вероятностей, пер. с франц., М., 1969. А. Б. Харазишвшш. СИНГУЛЯРНАЯ ФУНКЦИЯ РАСПРЕДЕЛЕНИЯ (singular distribution function) - см. Лебега разложение функций распределения. СИНГУЛЯРНОЕ РАЗЛОЖЕНИЕ (singular decomposition)- представление матрицы X в виде X=ULA , где (л хр)-матрица X есть матрица п наблюдений над р переменными, измеримыми их средними, U и А суть (их г)- и (рхг)- матрицы соответственно, каждая с ортогональными столбцами, так что UTU=Ir, ATA = Ir, L есть (гх г)-диагональная матрица, где г - ранг матрицы X. С. р. дает эффективный метод нахождения главных компонент. Лит.: [1] Jul iff с I., Principal component analysis, N. Y., 1986. И.-В. Степахно. СИНГУЛЯРНОЕ РАСПРЕДЕЛЕНИЕ (singular distribu- tion) - непрерывное распределение вероятностей в И?", сосредоточенное на множестве нулевой лебеговой меры. Примером С. р. на прямой может служить распределение Кантора. В 1РЛ, л^2, Ср. является, напр., равномерное распределение на сфере положительного радиуса. Лит.: \\\ Прохоров Ю. В., Розанов Ю. А., Теория вероятностей, 3 изд., М., 1987; [2] Феллер В., Введение в теорию вероятностей и ее приложения, пер. с англ., т. 2, М, 1984. В. Г. Ушаков. СИНГУЛЯРНОСТЬ МЕР (singularity of measures) - отношение между двумя мерами (иногда обозначается символом 576 СИНГУЛЯРНАЯ (ij-Lu^)' B нек-ром смысле аналогичное отношению ортогональности двух векторов в произвольном предгильбертовом пространстве. Точнее, пусть Е - основное базисное пространство, S - фиксированная а-алгебра частей этого пространства, а (х1 и |i2 _ меры, определенные па S. Говорят, что меры |it и |i2 являются (взаимно) сингулярными, если существует разбиение {Xj, Х2} пространства Е на два 5-измеримых множества таких, что il^(X2) = il2(X1) = 0\ иными словами, мера (Х1 сосредоточена на множестве Хи а мера \12 - на множестве Х2. При этом говорят также, что меры |it и |12 принадлежат независимым спектральным типам (или дизъюнктным спектральным т и и а м). Понятие сингулярности обычных мер можно обобщить и на знакопеременные меры (то есть заряды). Именно, два заряда называются (взаимно) сингулярными, если сингулярны их полные вариации. Можно также рассматривать понятие См. и в тех случаях, когда S представляет собой фиксированное а-колыдо частей основного базисного пространства Е. Пусть (|1|),-6/ - нек-рое семейство мер, определенных на одной и той же а-алгебре S. Меры этого семейства называются попарно сингулярными, если для каждых двух различных индексов I е / и / е / соответствующие им меры \\.г и \1 взаимно сингулярны. С помощью аксиомы выбора можно построить а-алгебру S подмножеств единичного сегмента [0,1] и на 5 определить семейство попарно сингулярных вероятностных мер (|ij)je/ таким образом, чтобы всякая мера |i2, iel, являлась продолжением классич. меры Лебега на [0,11 и чтобы мощность множества индексов / была наибольшей (то есть равнялась 2 , где с - мощность континуума). Лит.: [1] Халмош П., Теория меры, мер. с англ, М., 1<Ш; [2] Неве Ж., Математические основы теории вороячпостен, нор. <. франц., М., 1969. А. Б. Харазтичн.чи. СИНХРОННЫЕ ТОЧЕЧНЫЕ ПРОЦЕССЫ (synchronous point processes) - см. Точечный процесс. СИНХРОННЫЙ КАНАЛ (synchronous channel) - гм. Мно жественного доступа канач. /С-СИСТЕМА (AC-systcm) - динамическая система (авго морфизм Т. точнее, порождаемая им группа автоморфизмов {Ти, пеЖ}у или измеримый поток), определенная на вероятностном пространстве (ft, . /, Р) и обладающая К-свойгт- вом, к-рое в случае автоморфизма сое ют в следующем: найдется такая а-алгебра V0c.v, что: 1) 7Ц,=>../(); 2) и,^оГ"'г/Опорождагт"/; 3) (J Тп.<</{) = 91, где 3*1 есть а-алгебра, содержащая лишь множества меры 0 и 1 (тривиальная а-алгебра), а равенства между а-алгебрами считаются выполненными с точностью до множеств меры нуль. В случае потоков К-свойсгво формулируется так же, но с заменой дискретного параметра п на непрерывный. Понятие К-с. было введено Л. II. Колмогоровым [1], назвавшим такие системы к ваз и ре г у л я рн ым и. К -с. с ;шс- кретным временем называются К-автоморфи з м а ми, с непрерывным временем - К-п о т о к а м и. Примером К-с. может служить группа сдвигов в пространстве выборочных функций стационарного в узком смысле случайного процесса Xt, -°o<t<oot c дискретным или непрерывным временем, остаточная а-алгебра к-рого тривиальна (остаточная а-алгебра определяется как пересечение (J ^ >«#;>,, где JJ^t есть а-алгебра, порожденная случайными величинами Xs при всех s^t). Процессы с тривиальной остаточной а-ал- геброй называются регулярными по Колмогороьу или удовлетворяющими закону нуль-единица. Если Т* -
сдвиг, переводящий реализацию со регулярного процесса Xt в реализацию со, где co(s) = co(s + t) (сдвиг влево), то а-алгебра j0;bO удовлетворяет условиям, наложенным на .^ в определении К-с. В случае когда время дискретно, а разбиение, порожденное величиной Х0 (то есть разбиение на множества вит,а Х{) = const), имеет конечную энтропию, регулярность процесса Xt не только достаточна, но и необходима для наличия у системы {Т} /С-свойства (в общем случае это неверно; см. [2]). Помимо теории вероятностей К-с. встречаются также среди динамич. систем классич. и статистич. механики и в других областях. В классе необратимых преобразований (эндоморфизмов) аналогом /<С-автоморфизма служит точный эндоморфизм. В общей теории К-с. обычно предполагается, что (Q, Д Р) - пространство Лебега; тогда в определении К-с. а-алгебру lf/0 можно заменить отвечающим ей измеримым разбиением (АС-разбиением), а а-алгебры .<• и Ш - соответственно разбиением на отдельные точки и разбиением, единственный элемент к-рого - все Q. Впрочем, многие результаты (в особенности касающиеся АС-автоморфизмов) справедливы для более широкого класса вероятностных пространств. Любая К-с. эргодична, имеет положительную энтропию и счетнократный лебеговский спектр (см. [11, [3]), является перемешиванием любой кратности и, более того, обладает свойством АС-перемешивания, к-рое эквивалентно /С-свойству (отсюда термин «К-перемешивание»). Класс К-с. можно охарактеризовать в чисто энтропийных терминах (см. [5], [6]): динамич. система принадлежит этому классу в том и только в том случае, когда она имеет вполне положительную энтропию. Последнее означает, что любой нетривиальный гомоморфный образ (фактореистема) рассматриваемой системы (см. Изоморфизм динамических систем) имеет положительную энтропию. При переходе к такому гомоморфному образу АС-свойство сохраняется. Оно сохраняется также при смене «направления времени», то есть при переходе от динамич. системы {Т1} к динамич. системе {S1}, где S1 = Т~1. Всякий измеримый поток, содержащий хотя бы один АС-автоморфизм, является К-с. (см. (7|~|9|). Класс АС-с. распадается на подклассы систем с одинаковой энтропией, каждый из к-рых содержит Бернулли сдвиг (в случае дискретного времени) или его аналог - поток Ьерцулли (в случае непрерывного времени) (см. [10]). Системы из разных подклассов неизоморфны, но и среди АС-с. с одинаковой энтропией можно найти несчетное семейство попарно нсизоморфных (см. [10J, [11]). Лит.: [1] Колмогоров А. Н., «Докл. АН СССР», 1958, т. 119, N» С. с 861-64; [21 Перри В., там же, 1967, т. 173, Х° 2, с. 264-66; [31 Синай Я. Г., «Изв. АН СССР. Сер. матсм.», 1961, т. 25, № 6, с. 899-924; [4| Корн фе л ь д И. П., Синай Я. Г., Фомин СВ., Эргодичсская теория, М., 1980; [51 Рохлин В. А., Синай Я.Г., «Докл. АН СССР», 1961, т. 141, Ко 5, с. 1038-41; [6] Рохлин В. А., «Успехи матсм. наук», 1967, т. 22, в. 5, с. 3-56; [7] Rudolph D., «Mi.th. Z.», 1976/Bd 150, X? 3, S. 201-20; [8j BlanchardF., «Z. Wahr. und verw. Geb.», 1976, Bd 36, № 2, S. 129-36; [9] Гуре- вич Б. М., «Функц. анализ и его прилож.», 1977, т. 11, Mb 3, с. 20-23; [101 Орнстсйи Д., Эргодическая теория, случайность и динамические системы, пер. с англ., М., 1978; [11| OrnsteinD., Shields P., «Adv Math.», 1973, v. 10, № 1, p. 63-88. Б. М. Гуревич. У-СИСТЕМА (C-system) - то же, что Аносова динамическая система. Название введено самим Д. В. Аносовым для систем, рассмотренных им в 1967. Л. А. Бунимович. СИСТЕМАТИЧЕСКАЯ ОШИБКА (systematic error) - ошиб- ка, неизменно возникающая при проведении эксперимента и каждый раз приводящая к одним и тем же последствиям в результате действия определенных причин (неправильно отрегулирован прибор, влияние среды и т.п.). Напр., если при определении времени длительности химич. реакции секундомер отстает, то при повторении опыта будет систематически недооцениваться время реакции, а если секундомер спешит, то переоцениваться. Для выявления С. о. прибора обычно проводят специальный эксперимент по сравнению результатов измерений этого прибора с результатами нек-рого контрольного прибора. Следует отметить, что различие между С. о. и случайной ошибкой не всегда легко определить, тем более, что в нек-рых случаях оба вида ошибок могут возникнуть по одной и той же причине. Напр., в измерительной системе «человек + стрелочный прибор» из-за явления параллакса обязательно возникают случайные ошибки и могут появиться Co., в зависимости от положения прибора относительно головы человека. Пусть результат измерения нек-рой величины а можно трактовать как реализацию нек-рой случайной величины X. Тогда разность Х-а называется ошибкой эксперимента. Величину Ь = Е(Х - а) называют систематической ошибкой или смещением. В указанной схеме наблюдение X можно представить в виде суммы X = а + Ь + 8 самой измеряемой величины а, смещения Ь и случайной ошибки 6 = Х- а- Ъ, причем Е8 = 0. Если 6 = 0, то говорят, что Со. отсутствует или что прибор лишен С о. См. также Наблюдения ошибка, Наименьших квадратов метод, Смещенная оценка. Лит.: [11 Л и н н и к Ю. В., Метод наименьших квадратов и основы математико-статистической теории обработки наблюдений, 2 изд., М., 1962. М. С. Никулин. СКАЛЯРНО ВЫРОЖДЕННАЯ МЕРА (scalarly degenerate measure) - вероятностная мера в банаховом пространстве (или в общем локально выпуклом пространстве), относительно к-рой нек-рый непрерывный ненулевой линейный функционал равен нулю почти наверное. Если \i - вероятностная мера со слабым вторым порядком в сепарабельном банаховом пространстве В и К^:В* —> В - ее корреляционный оператор, то р - С в. м. в том и только в том случае, когда К^х* = 0 для нек-рого ненулевого х* е В*. В несепарабельном нормированном пространстве каждая вероятностная мера, заданная на цилиндрической о-алгебре, скалярно вырождена. Для гаус- совской меры ц. с нулевым средним в сепарабельном банаховом пространстве скалярная вырожденность ц. равносильна тому, что ее носитель не совпадает с В. Лит.: [1] ВаханияН.Н., ТариеладзеВ. И., Чоба- нян С. А., Вероятностные распределения в банаховых пространствах, М., 1985; [2] Vakhan i a N.N., «Nagoya Math. J.», 1975, v. 57, p. 59-63. В. И. Тариеладзе. СКАЛЯРНО ИЗМЕРИМОЕ ОТОБРАЖЕНИЕ (scalarly measurable mapping) - см. Слабо измеримое отображение. СКАЧКА МОМЕНТ (time of a jump) - см. Скачкообразный марковский процесс, Скачкообразный случайный процесс. СКАЧКОВ МЕРА (jump measure) - см. Леей мера. СКАЧКООБРАЗНЫЙ МАРКОВСКИЙ ПРОЦЕСС (jump Markov process) - марковский процесс, временной параметр t к-рого пробегает промежуток Г<=(-<», о©), и такой, что при всяком seT каждая траектория процесса сохраняет постоянство на нек-ром промежутке времени [s, s + h) случайной длины h = his) > 0 (при работе с обрывающимися марковскими процессами это и последующие определения модифицируются естественным образом). Число teT, исключая наименьший элемент 7\ если он существует, называется моментом скачка траектории См. п., если в любом интервале (£-е, t], e>0, нарушается постоянство этой траектории. С м. п. является ступенчатым, если множество скачков любой его траектории не имеет предельных точек внутри Т. К числу С. м. п. относятся многие процессы с независимыми СКАЧКООБРАЗНЫЙ 577
приращениями, в том числе пуассоновский процесс, марковские процессы с конечным множеством состояний и марковские процессы со счетным множеством состояний, траектории к-рых непрерывны справа. С. м. п., и в особенности ступенчатые С. м. п., доставляют удобную математич. модель для описания физич. систем, способных мгновенно, но не слишком часто менять свое состояние в предположении, что при каждой такой смене новое состояние зависит лишь от предыдущего и, возможно, от времени пребывания системы в предыдущем состоянии. Далее для определенности идет речь о случае Г=[0, <*>). Для установления ступенчатости марковского процесса (Xt, dt, Pt х), заданного в фазовом пространстве (Е, 3d) и имеющего переходные вероятности p(s, х; t, Г), удобно использовать следующий результат: если равномерно по t^ О и х € Е выполнено соотношение lim pit, х; t + h, Е\{х}) = 0, hiO то процесс X эквивалентен нек-рому ступенчатому С. м. п. При широких условиях С. м. п.- во всяком случае любой однородный С. м. п.- является строго марковским процессом (см. [3], [4]). Во многих практически и теоретически важных случаях переходная функция p(s, x; t, Г) С. м. п. X удовлетворяет прямому и обратному уравнениям Колмогорова (см. ниже) и однозначно ими определяется. Пусть при tis ч [\-a(s, x)(t-s)+o(t-s), хе Г, p(s, x; t, Г) = \ , [a(s, х, D(t - s) + o(t - s\ пГ, где a(s, x, ) - нек-рая мера на ЗВ при фиксированных значениях s^0hie£, приписывающая нулевую массу множеству [х}> и a(s, x) = a(s, х, Е). Тогда при выполнении нек-рых условий регулярности (см. [1], [2], [4]) справедливы уравнения: to8'«t'r> = -jraU,y)pk,x;t,dy) + + \Ea(t, у, Dp(s,x; t, dy) (1) -прямое уравнение Колмогорова; dp{st х; t, Г) , ч , . „ч —— - = a(s, x)p(s, x; t, Г)- ds -\Ep(s>y> *> Da(s,x,dy) (2) - обратное уравнение Колмогорова. Теоремы существования и единственности решений уравнений Колмогорова для С. м. п. начали рассматривать Б. Поспи- шил (В. Pospisil) и У. Феллер (W. Feller) в 1935-36. См. также Марковский процесс с конечным множеством состояний, Марковский процесс со счетным множеством состояний. Лит.:[\] Feller W., «Trans. Amer. Math. Soc>, 1940, v. 48, № 3, p. 488-515; [2] Дуб Дж. Л., Вероятностные процессы, пер. с англ., М., 1956; 131 Дынкин Е.Б., Основания теории марковских процессов, М., 1959; [4] ГихманИ.И., Скороход А. В., Теория случайных процессов, т. 2, М., 1973. д/. Г. Шур. СКАЧКООБРАЗНЫЙ ПРОЦЕСС управляемый (controlled jump process) - см. Управляемый скачкообразный процесс. СКАЧКООБРАЗНЫЙ СЛУЧАЙНЫЙ ПРОЦЕСС (ran dom/stochastic jump process) — случайный процесс Xt, t^ 0, со значениями в нек-ром измеримом пространстве (Е, 3d) такой, что найдется в вероятностном пространстве (Q, d, P) событие 578 СКАЧКООБРАЗНЫЙ QjE.</, для к-рого все траектории t-+Xt((u) с оеЦ непрерывны справа в дискретной топологии пространства Е. Это означает, что для всех 5^0 и (oeQt можно указать положительное 6 = 5(s, со) такое, что X(t + s) = X(s) при 0^t<b. Точка т>0 называется моментом скачка траектории t-+Xt((u), если найдется такая последовательность £„Тт, чго Xt (co)*Xt(q)). Моменты скачков скачкообразного процесса почти наверное образуют не более чем счетное, вполне упорядоченное множество на полупрямой [0, <*>). В частности, существует момент первого скачка Tj > 0, за к-рым следует момент второго скачка т2 >х1, и т. д. Если число скачков почти наверное конечно на каждом конечном интервале времени, то С. с. п. называется ступенчатым. Траектория ступенчатого процесса Xt, t^0, однозначно определяется последовательностью пар (хп, Хх), я ~0, 1, ..., где х0 = 0, а именно: XrXTnnPHXn^KV]n Наиболее интенсивно изучаются марковские и полумарковские скачкообразные процессы. Лит.: [11 ГихманИ.И., Скороход А. В., Теория случайных процессов, т. 2, М., 1973. В. М. Шуренков. СКЕДАСТИЧЕСКАЯ ЛИНИЯ (scedastic curve) - график зависимости условной дисперсии случайной величины от значений, принимаемых другой случайной величиной. Точнее, пусть X и Y- случайные величины. Скедастической линией называется линия, описываемая уравнением у-a (x) = D(Y\X = x). С. л. характеризует точность, с к-рой линия регрессии У и X передает изменение У в среднем при изменении значений, принимаемых X. Если о (х) = 0 при всех значениях х, то с вероятностью 1 величины X и У связаны функциональной зависимостью. В. Г. Ушаков. СКЕЙЛИНГОВОЕ СООТНОШЕНИЕ (scaling relation) - см. Критический индекс. СКЕЙЛИНГ-ПРОЦЕСС (scaling process) - см. Автомодельный процесс. СКЛАДНОГО НОЖА МЕТОД (jackknife method) - основанный на псевдозначениях метод, применяемый для: а) уменьшения смещения оценок; б) оценивания дисперсии статистик. Пусть х^, ..., хп - выборка из совокупности с функцией распределения Fe, где 0 - неизвестный параметр, и 0„(д:1, ..., хп) - оценка для 0. Тогда i-e псевдозначение оценки 8„ есть 8„; = и8„-(л-1 )©;,_,, i=\, ..., п, где 6^_t =6„_1(лг1 лг г_ | „ xi+i, ..., хп) - оценка, построенная на выборке, из крой исключено наблюдение х{. С. н. м. уменьшения смещения состоит в замене 0„ на Если смещение оценки 0„ допускает асимптотич. разложение E(Qn-Q) = bi/n + b2/n2 + o(n~3), n-+<*>, то 0„ имеет по порядку меньшее смещение: Е(0; - 8) = -Ь2/п2 + о(п~3), п -+ оо. Применяя С. н. м. т раз, можно устранить члены до порядка п~т в разложении смещения. Оценка С. н. м. для дисперсии статистики 8П определяется равенством Лит.: [1] Quenouille M., «Biometrika», 1956, v. 43, № 3-4, p. 353-60; [21 Tukey J., «Ann. Math. Statist.», 1958, v. 29, № 2, p. 614; [3] Miller R., «Biometrika», 1974, v. 61, № 1, p. 1-15. А. Б. Цыбаков. СКЛЕИВАНИЕ случайных процессов, капли и г (coupling of random processes), - специальный прием задания I двух или нескольких случайных процессов на одном вероятно-
стном пространстве так, что либо состояния, либо распределения этих процессов совпадают (склеиваются) на определенном множестве моментов времени. Данный прием является эффективным при доказательстве эргодич. теорем (существование и единственность), оценках скорости сходимости к стационарным распределениям, нахождении условий и оценок устойчивости случайных процессов и др. Наиболее широко метод склеивания используется при анализе цепей Маркова с произвольным множеством состояний, случайных гиббсовских полей, регенерирующих и обновляющихся процессов. Смысл приема склеивания заключается в вариации совместного распределения сравниваемых случайных процессов при фиксированных маргинальных, с тем чтобы добиться эффекта склеивания: Последний дает возможность судить о свойствах одного процесса по свойствам «склеенного» с ним процесса и получать соответствующие количественные оценки. См. также Марковский процесс; преобразования. Лит.: [11 Боровков А. А., Асимптотические методы в теории массового обслуживания, М., 1980; [2] Калашников В.В., Качественный анализ поведения сложных систем методом пробных функций, М.. 1978; [3] его же, Метод склеивания, его развитие и применения, в кн.; Нуммелин Э., Общие неприводимые цепи Маркова и неотрицательные операторы, пер. с англ., М., 1989. В. В. Калашников. СКОЛЬЗЯЩЕГО СРЕДНЕГО МЕТОД (moving average method) выделения тренда- метод выделения тренда при статистическом анализе временных рядов. Идея этого метода состоит в том, что нек-рая группа Yt> ..., Yt+2m+\ значений наблюдаемого временного ряда сглаживается многочленом и в качестве значения тренда в средней точке t + т + 1 этой группы выбирается значение многочлена. Затем та же процедура повторяется для Yt+], ..., Yt+m+2 и т. д. Фактически определение тренда в точке t сводится к вычислению скользящего среднего Zt+m X7 a:Yi} t=t-m l l* где коэффициенты я, зависят только от т и выбранной степени сглаживающего многочлена и могут быть подсчитаны раз и навсегда. Напр., для сглаживающего многочлена 3-го порядка и усреднения по семи точкам коэффициенты а± равны __2 3 6 7 6 3_ 2 21 ' 21 ' 21 ' 21 ' 21 ' 21 ' 21 ' Выделение тренда с помощью С. с. м. приводит к искажениям первоначального ряда (см. Слуцкого - Юла эффект). В частности, процедура Сем. включает в тренд случайные колебания низкой частоты. Поэтому при исключении тренда компоненты спектральной плотности, соответствующие малым частотам, уменьшаются. Лит.:[\] Кендалл М., С тьюарт А., Многомерный статистический анализ и временные ряды, пер. с англ., М., 1976; [2] Кен- дэл М., Временные ряды, пер. с англ., М., 1981. Ю. Г. Баласанов. СКОЛЬЗЯЩЕГО СРЕДНЕГО МОДЕЛЬ (moving average model) - модель скалярного комплекснозначного в общем случае случайного процесса {X(t), t^T}f T~{0t ±1,...}, удовлетворяющего уравнению X(t) -b0Z(t- 1) + ... + bZ(t-q), где bQ, bu ..., b - действительные числа, {Z(t)} teT}- стандартная некоррелированная последовательность комплек- снозначных в общем случае случайных величин, то есть величин таких, что EZ(O = 0, EZ(s)Z(t) = bs t, s,teT, число q называется порядком С. см. Сем. вместе с авторегрессии моделью и смешанной авторегрессии - скользящего среднего моделью полностью исчерпывает класс моделей стационарных скалярных комплекс- нозначных процессов с дискретным временем и дробнора- циональными спектральными плотностями. С. с. м. является адекватной стохастич. моделью многих встречающихся на практике процессов. Лит.: [1J Справочник по теории вероятностей и математической статистике, 2 изд., М., 1985; [2] Бокс Дж., Д же н к и н с Г., Анализ временных рядов. Прогноз и управление, пер. с англ., в. 1, М., 1974; [3J Кендалл М., СтьюартА., Многомерный статистический анализ и временные ряды, пер. с англ., М., 1976. /О. Я. Юрачковский. СКОЛЬЗЯЩЕГО СРЕДНЕГО ПРОЦЕСС (moving average process/MA-process) - стационарный случайный процесс (в широком смысле), к-рый может быть получен с помощью применения нек-рого линейного преобразования к процессу с некоррелированными значениями (то есть к процессу белого шума). Часто С с. п. называют также более частный процесс X(t) с дискретным временем t = 0, ± 1, ..., представи- мый в виде X(t)=Y(t) + b]Y(t-\) + ... + bqY(t-q), (1) где ЕУ(О = 0, EY(t)Y(s) -с bts, bts - символ Кронекера [так что Y(t) - процесс белого шума со спектральной плотностью а /2л], q - нек-рое целое положительное число, a bx, ..., bq - постоянные коэффициенты. Спектральная плотность f(k) такого С с. п. определяется формулой /,а) = (о2/2я)|ч'(ва)|2,Ч'(г) = 60 + 61г+... + 67Лб0=1, а его корреляционная функция r(k) = EX(t)X(t- k) имеет вид r(fc) = 0 при \k\ >q. Обратно, если корреляционная функция r(k) стационарного процесса X(t) с дискретным временем t обладает тем свойством, что r(k) = О при \k\ >q для какого-то целого положительного q, то X(t) - это С. с. п. порядка q, то есть он допускает представление вида (1), где Y(t) - белый шум (см., напр., [1], §5,7). Наряду со С с. п. конечного порядка qy представимыми в виде (1), существуют также два типа С. с. п. с дискретным временем бесконечного порядка, а именно: односторонние С. с. п., допускающие представление вида «O-IJ-o6./™-»' (2) где Y(t) - белый шум, а ряд в правой части (2) сходится в среднем квадратичном (и, значит, У°\ \ЬА <<*>), и более общие двусторонние С с. п., представимые в виде жо=Х7~-Ау('~А (3) где У(0 - белый шум, а ^1_оо |Ь;-| <<». Класс двусторонних С с. п. совпадает с классом стационарных процессов X(t), имеющих спектральную плотность f(\), а класс односторонних С. с. п. - с классом процессов, имеющих спектральную плотность f(X) такую, что £log/,a)rfA.>-oo (см. [1]-[3]). Односторонним или соответственно двусторонним С. с. п. с непрерывным временем называется стационарный процесс X(t), -oo<t<oot представимый в виде XU) = fcb(s)dYU-s), j~\b(s)\2ds<°o, или соответственно в виде Х(0 = £. b(s)dY(t~s), £ \b(s)\2ds<oo, СКОЛЬЗЯЩЕГО 579
где E[dY(t)] =a dt, то есть Y'(s) - обобщенный процесс белого шума. Класс двусторонних С. с. п. с непрерывным временем совпадает с классом стационарных процессов Х(0, имеющих спектральную плотность fCk), а класс односторонних С. с. п. с непрерывным временем - с классом процессов, имеющих такую спектральную плотность f(k), что Л(1+Л"1108Д5Ш>~оо (см. [3]-[5]). См. также Линейный фильтр. Лит.: [1] Андерсон Т., Статистический анализ временных рядов, пер. с англ., М., 1976; [2] Ко л м ого ров А. Н., Теория веротностей и математическая статистика, М., 1986, с. 215—55; [3] Дуб Дж., Вероятностные процессы, пер. с англ., М., 1956; [4] Karhunen К., «Ann. Acad. Sci. Fennicae. Ser. A, Math.-Phys>, 1947, № 37, p. 3-79; [51 Розанов Ю. А., Стационарные случайные процессы, М., 1963. А. М. Яглом. СКОЛЬЗЯЩЕЕ РЕЗЕРВИРОВАНИЕ (moving redun duncy) - см. Резервирование. СКОРОСТЬ кода (code rate) - см. Блоковый код, Сверточ- ный код. СКОРОХОДА СТОХАСТИЧЕСКАЯ ПРОИЗВОДНАЯ (Skorohod stochastic derivative) - см. Стохастическая производная, СКОРОХОДА ТОПОЛОГИЯ в пространстве функций без разрывов 2-го рода D [О, 1] (Skorohod topology in the space of CADLAG functions/Skorohod topology in the space of right-continiioiis functions with left limits) - топология, порожденная метрикой d(x, y) = inf{||X-i[ + ||:iroA.-y||:A.eA}l где Л - множество всех непрерывных строго возрастающих функций, отображающих [О, 1] на себя, i(t) = t,xoX(t)=x(X(t)), H=sup{|fl(O|:<e[0, 1]>. С. т. удобна в предельных теоремах для случайных процессов тем, что может быть задана метрикой dQ> для к-рой (D, d0) - полное сепарабельное метрич. пространство (см. Пространство функций без разрывов 2-го рода). С. т. в пространстве функций со значениями в метрич. пространстве (:#*, р) задается метрикой вида d с заменой ||.гоА,-у|| на sup{pGroM), y(t)):te[0, 1]}. Лит.: [11 С короход А. В., «Теория вероятн. и ее примен>, 1956, т. 1, в. 3, с. 289-319; [2] Биллингсли П., Сходимость вероятностных мер, пер. с англ., М., 1977. В. В. Юринский. СЛАБАЯ ГАРМОНИЗУЕМОСТЬ случайного про цесса (weak harmonizability of a random process) - см. Гармонизуемый случайный процесс. СЛАБАЯ ОТНОСИТЕЛЬНАЯ КОМПАКТНОСТЬ семейства вероятностных м ер (weak relative compactness of a family of random measures) - относительная компактность семейства вероятностных мер в слабой топологии пространства всех вероятностных мер. В случае метризуемого сепарабельного пространства Г С. о. к. семейства М вероятностных мер в Т равносильна слабой относительной секвенциальной компактности, то есть М слабо относительно компактно тогда и только тогда, когда из любой последовательности (\1п) элементов из М можно выделить слабо сходящуюся подпоследовательность (\Lk ). Условия С. о. к. дает Прохорова критерий: семейство М вероятностных мер в полном сепарабельном метрич. пространстве Т слабо относительно компактно тогда и только тогда, 580 СКОЛЬЗЯЩЕЕ когда оно плотно, то есть для каждого е>0 найдется такое компактное подмножество К а 7\ что ц(Ю ^ 1 - е для каждого В случае банахова пространства при изучении Со. к. используется понятие плоско концентрированного семейства вероятностных мер. Для многих конкретных пространств известны условия Со. к. различных семейств вероятностных мер. Лит.: [1] Прохоров Ю. В., «Теория вероятн. и ее примем.», 1956, т. 1, в. 2, с. 177-238; [2] Биллингсли П., Сходимость вероятностных мер, пер. с англ., М., 1977; [31 ВаханияН.Н., Тарне- ладзе В. И., Чобанян С. А., Вероятностные распределения в банаховых пространствах, М., 1985; [4] Нгуен Зуй Тиен, Тарие- ладзеВ. И., Чобанян С. А., «Теория вероятн. и ее примем.», 1977, т. 22, в. 4, с. 823-28. В. И. ТариелаОзе. СЛАБАЯ СХОДИМОСТЬ (weak convergence), сходимость в основно м,- основной тип сходимости, рассматриваемый в теории вероятностей и определяемый следующим образом. Последовательность распределений (вероятностных мер) {Рп} на борелевских множествах метрич. пространства 5 называется слабо сходящейся к распределению Р, если ^У^-У& <•> для любой действительной ограниченной непрерывной функции /"на 5. Обозначают С. с. обычно знаком ^ . Следующие условия равносильны С. с: 1) соотношение (*) выполняется для любой ограниченной равномерно непрерывной действительной функции f\ 2) соотношение (*) выполняется для любой ограниченной непрерывной Р-почти всюду действительной функции f\ 3) TirrTP„(F)^P(F) п для любого замкнутого множества Fez 5; 4) HmP(G)^P(G) п для любого открытого множества G<^ S; 5) lim P„C4) = PC4) и для любого борелевского множества Л с 5 такого, что Р(дА) = 0, где дЛ - граница А\ 6) lim я(Р„, Р) = 0, и где я - Леей - Прохорова метрика. Пусть U - замкнутый относительно пересечений класс подмножеств S такой, что всякое открытое множество из S есть конечное или счетное объединение множеств из U .кТогда если lim Р„С4) = РС4) при всех А е (У, то Ри ^> Р. В частности, если 5 = 11? и Fn, F - функции распределения, отвечающие Рм и Р соответственно, то Ри ^> Р тогда и только тогда, когда Fn(x) —> F(x) в каждой точке х непрерывности функции F. Если распределение Р абсолютно непрерывно по мере Лебега, то Р„ % Р тогда и только тогда, когда Р„С4) —> Р(Л) равномерно по всем борелевским выпуклым множествам А. Пусть Ря, Р - распределения на метрич. пространстве S, Рп %■ Р и h - непрерывное Р-почти всюду измеримое отображение S в метрич. пространство 5'; тогда Pnh~ ^ Р/г , где для любого распределения Q на S распределение Q/г есть его /г-образ на 5': Qh~{(A) = Q(/r\A)) для любого борелевского А е 5'. Семейство распределений /на 5 называется слабо относительно компактным, если всякая последователь ность его элементов содержит слабо сходящуюся подпоследовательность. Условие слабой относительной компактности дает теорема Прохорова. Семейство ^называется плотным, если для любого е>0 существует компакт KaS такой, что Р(/С)>1-е для любого Ре У. Теорема Прохорова: если if плотно, то оно относительно компактно, а если 5 сепарабельно и полно, то слабая относительная компактность
,f влечет его плотность. В случае, когда 5" = IP , семейство распределений J*слабо относительно компактно тогда и только тогда, когда соответствующее ^семейство характеристич. функций равностепенно непрерывно в нуле. Лит.: [ 1 ] Б и л л и и гс л и П., Сходимость вероятностных мер, пер. с англ., М., 1977; [2] Лоэв М., Теория вероятностей, пер. с англ., М., 19в2. В. В. Сазонов. Понятию С. с. иногда придается другой смысл, нежели изложенный выше. Именно, если #0, #t, ... - ограниченные и неубывающие функции на (1? , #„(-<*>) = 0, то слабой называется сходимость функций Нп к #0 при п -> оо в каждой точке непрерывности функции #0. Особенностью этой сходимости является то, что пределом последовательности функций распределения может быть неубывающая функция с полным изменением < 1 (в частности, постоянная). Критерием так понимаемой сходимости Нп к Н0 является следующее условие, записываемое в терминах преобразований Фурье - Стилтьеса этих функций hn, A0: для каждого м>0 , fQhn(Odt^fo h0(t)dt,n->oo (подробнее см. в [2], а также Сходимость вполне). В. М. Золотарев. СЛАБАЯ СХОДИМОСТЬ вероятностных мер (weak convergence of probability measures) - важнейший для теории вероятностей вид сходимости вероятностных мер. Последовательность \in, пеЫ, борелевских вероятностных мер в мет- рич. пространстве Г слабо сходитсяк борелевской вероятностной мере |1 в 7\ если lim Jr /йщ, = Jr /ац для каждого непрерывного и ограниченного действительного функционала f на Т. Каждое из следующих условий равносильно С. с. (|Х„) к \i: 1) lim supu„(F) ^ для каждого замкнутого F<= Г; п 2) lim itif \in(U) ^\i(U) для каждого открытого t/cr Г; п 3) lim iirXB) = \i(B) для каждого борелевского BczT, п ц-мера границы к-рого равна нулю. Для сепарабельного пространства Г С. с. метризуется Леей - Прохорова метрикой: 7с(ц, v) = inf {е>0:ц{Л) ^ vG4e) + e для каждого борелевского А с Г}, где Ле - е-окрестность множества А. Нсли Г =(!?", a Gn и G - функции распределения мер \1п и |1 соответственно, то С. с. |in к \1 равносильна сходимости Gn(x) к G(x) в каждой точке х elR", в к-рой G непрерывна. С. с. радоновых вероятностных мер во вполне регулярном хаусдорфовом пространстве определяется аналогично. Вместо термина «С. с.» иногда используют термины «узкая сходим ость», «пол ная с ходимость», «сходимость в смысле Б е р н у л л и». С. с. вероятностных мер есть сходимость в слабой топологии пространства мер. Лит.: [1] ГнеденкоБ. В., Колмогоров А. Н., Предельные распределения для сумм независимых случайных величин, М.- Л., 1949; 12] Лоэв М., Теория вероятностей, пер. с англ., М., 1962; [3] Билл и н гели П., Сходимость вероятностных мер, пер. с англ., М., 1977; [41 ВаханияН.Н., Тариеладзе В. И., Чоба- няп С. А., Вероятностные распределения в банаховых пространствах, М., 1985. В. И. Тариеладзе. СЛАБАЯ СХОДИМОСТЬ мер (weak convergence of measures) - см. Пространство мер. СЛАБАЯ СХОДИМОСТЬ сети мер в топологическом пространстве (weak convergence of a net of measures in a topological space) - сходимость сети мер, соответствующая слабой топологии в пространстве мер. Пусть (Ре)9е0 - сеть мер и Р - мера из пространства мер, заданных на борелевской а-алгебре пространства (d\ ®). Сеть (Ре) слабо сходится к Р, если для любой непрерывной ограниченной функции f, заданной на d\ имеет место равенство lim f f(x)dPQ(x)=( f(x)dP(x). Это равенство означает, что для любого £ > 0 существует ве € 0, что для всех 6 ^ 0Е if f(x)dPQ(x)-\ f(x)dP(x)\<z. Александрова теорема дает критерий слабой сходимости сети мер. Все сказанное выше справедливо как для топологических, так и для а-топологических пространств. Лит.: [11 ДанфордН., Шварц Дж., Линейные операторы, пер. с англ., ч. 1, М., 1962; [2] Бо ровков А. А., «Успехи матем. наук», 1976, т. 31, в. 2, с. 3-68. Е. А. Печерский. СЛАБАЯ ТОПОЛОГИЯ (weak topology), узкая топология, в пространстве мер - слабейшая топология в пространстве М(Т) всех радоновых вероятностных мер в метрическом или в более общем вполне регулярном хаусдорфовом топологическом пространстве Т, относительно к-рой непрерывны все функционалы \i -> j fd\i, где f пробегает множество всех ограниченных непрерывных действительных функционалов на Т. Сходимость в С. т. равносильна слабой сходимости вероятностных мер. Если Т - метрич. пространство, то С. т. в М(Т) метризуема. Условие относительной компактности подмножеств М(Т) дает Прохорова критерий слабой относительной компактности семейства вероятностных мер. Лит.: [1] БиллингслиП., Сходимость вероятностных мер, пер. с англ., М., 1977; 12J Бурбаки Н., Интегрирование, пер. с франц., М., 1977; [3] Вахания Н. Н., Тариеладзе В. И., Чоба- нян С. Ам Вероятностные распределениям банаховых пространствах, М., 1985. * В. И. Тариеладзе. СЛАБО ИЗМЕРИМОЕ ОТОБРАЖЕНИЕ (weakly measurable mapping), скалярно измеримое отображение, - понятие измеримости для отображения со значениями в банаховом или в общем локально выпуклом пространстве В. Пусть (Q, ..«/) - измеримое пространство, отображение X: ft -> В называется слабо (скалярно) измеримым, если для каждого непрерывного линейного функционала х* на В измерима числовая функция х*(Х()). Слабая измеримость равносильна измеримости относительно цилинд- рич. а-алгебры в В и а-алгебры .Vb ft. Если В метризуемо и сепарабельно, то слабая измеримость X равносильна тому, что для каждого борелевского множества рсЯбудетХ Чр)€.* Если (ft, ,«/, Р) - вероятностное пространство, то С. и. о. X называется случайным элементом со значениями в В. Лит.: [1] Иосида К., Функциональный анализ, пер. с англ., М., 1967; [2J ВаханияН.Н., Тар ие л ад з е В. И., ЧобанянС.А., Вероятностные распределения в банаховых пространствах, М., 1985. И. Н. Вахания. СЛАБО ИЗОМОРФНЫЕ ДИНАМИЧЕСКИЕ СИСТЕМЫ (weakly isomorphic dynamical systems) - см. Изоморфизм динамических систем. СЛАБО КОМПАКТНАЯ СЕТЬ вероятностных мер (weak compact net of probability measures) - см. Компактность семейства мер. СЛАБОЕ РАСПРЕДЕЛЕНИЕ (weak distribution) - см. Цилиндрическая мера. СЛАБЫЙ ПРИНЦИП ПРАВДОПОДОБИЯ (weak likelihood principle) - см. Наибольшего правдоподобия принцип. СЛАБЫЙ СЛУЧАЙНЫЙ ЛИНЕЙНЫЙ ОПЕРАТОР (weak random linear operator) - см. Случайный линейный оператор. СЛАБЫЙ 581
СЛЕПЯНА НЕРАВЕНСТВО (Slepian inequality) - неравенство сравнения для распределения максимума гауссовских процессов. Именно, если Xt, Yt, teT, - центрированные гаус- совские случайные процессы, заданные на конечном или счетном параметрич. множестве Т и EX? = EY?, teT; EXtX5^EYtYs, t*s, то для произвольной действительной функции at, teT, выполняется С. н. P{sup (X,-tf,)>0}^P{sup (Yt-at)>0). teT teT В частности, P{sup Xf>fl}^P{sup Yt>a), де (-<*>, <*>). teT teT С. н. имеет место и в том случае, когда параметрич. множество Т является сепарабельным метрич. пространством, процессы Xt, Yt сепарабельны и функция at непрерывна. С. н. было установлено Д. Слепяном [ 1] в связи с изучением вопросов о выходе реализаций гауссовских процессов за фиксированный уровень. С. н. показывает, что вероятность выхода гауссовского процесса за произвольный уровень является монотонной функцией от ковариаций процесса. Этот факт в различных частных случаях устанавливался и другими авторами. Имеются различные модификации и обобщения С. н. (см. [2], [3]). Лит.: [1] Slepian D., «Bell System Techn. J.», 1962, v. 41, № 2, p. 463-501; [2] Ферник К., в кн.: Случайные процессы. Выборочные функции и пересечения, пер. с франц., М., 1978, с. 63-132; [31 П итербарг В. И., Гауссовские случайные процессы, в кн.: Итоги науки и техники. Сер. Теория вероятностей. Математическая статистика. Теоретическая кибернетика, т. 19, М., 1982, с. 155-99. В. В. Булдыгин. СЛЕПЯНА ТЕОРЕМА СРАВНЕНИЯ (Slepian comparison theorem) - см. Стохастическое дифференциальное уравнение] теоремы сравнения. СЛОЖНАЯ ГИПОТЕЗА (composite hypothesis) - см. Статистическая гипотеза, Статистических гипотез проверка. СЛОЖНАЯ ЦЕПЬ МАРКОВА (high-order Markov chain) - случайный процесс {X(t)} с дискретным временем, у к-рого условное распределение X(t) при известных значениях траектории во все моменты времени, предшествующие t, совпадает с условным распределением X(t) при известных значениях X(t- 1), X(t~2), ..., X(t-s), где s - фиксированное натуральное число. Напр., чередование букв в тексте лучше описывается С.ц. М. с s-2 и тем более 3, нежели с s=l. При s = 1 С. ц. М. обращается в обычную Маркова цепь. С. ц. М. сводится к обычной цепи Маркова за счет усложнения фазового пространства: если положить Y(t) - [X(t), X(t+ 1), ..., X(t+s- 1)}, то последовательность {У(0} образует цепь Маркова. Л.Л.Юшкевич. СЛОЖНОСТЬ кодирования и декодирования (coding and decoding complexity) - общее название различных количественных характеризаций сложности алгоритмов и устройств, реализующих кодирование и декодирование. Единой универсальной меры С. кодирования и декодирования не существует, поскольку практич. реализация этих методов может быть проведена самыми разнообразными способами: на универсальных или специализированных ЭВМ, на схемах из функциональных элементов и т. д. В зависимости от практич. ситуации в качестве меры С. могут выступать: число операций, объем требуемой памяти, время работы, длина программы (при реализации на универсальных ЭВМ), число элементарных логич. элементов, глубина схемы (при использовании схем из функциональных элементов), число интегральных 582 СЛЕПЯНА схем, число связей между ними (при построении специализированных ЭВМ). Кодирование и декодирование можно также рассматривать как специальные классы алгоритмов и исследовать их сложность с точки зрения общей теории алгоритмов. С теоретич. точки зрения наиболее интересным является вопрос об асимптотическом (при больших п) поведении С. кодирования и декодирования блоковых кодов длины п. При этом оказывается, что это асимптотич. поведение, как правило, не зависит от используемой меры С. Доказано (см. [2]) существование двоичных линейных кодов большой длины п, имеющих ненулевую скорость передачи, полиномиально растущую (по п) С. кодирования и декодирования, обеспечивающих исправление линейного (по п) числа ошибок. Введенные Р. Галлагером [3] коды с низкой плотностью позволяют исправлять линейное число ошибок при С. кодирования и декодирования порядка п log п. Лит.: [1] Бассалыго Л. А., ЗябловВ.В., ПинскерМ.С, «Проблемы передачи информации», 1977, т. 13, № 3, с. 5-17; [2] ЗябловВ.В., там же, 1971, т. 7, N° 1, с. 5-13; [3] Галла- гер Р., Коды с малой плотностью проверок на четность, пер. с англ., М., 1966. Л. Л. Бассалыго, СИ. Гельфанд. СЛОЖНОСТЬ конечных объектов (algorithmic/Kol- mogorov complexity of finite objects) - см. Алгоритмическая энтропия. СЛОЖНОСТЬ моделирования распределения; оценка (complexity of non-uniform random number generation; evaluation of) - оценка длины или (среднего) времени выполнения алгоритма, перерабатывающего независимые равномерно распределенные на [0, 11 случайные или псевдослучайные числа в точки, распределенные по моделируемому закону (см. Моделирование случайных величин и функций, Монте-Карло метод; объем необходимой работы, Планирование имитационного эксперимента). В [1] С. моделирования распределения определяется как среднее число битов равномерно распределенной на 10, 1] случайной величины, необходимых для вычисления первых k битов заданной случайной величины. Оптимальный в смысле [1] алгоритм использует не более k+2 битов. Лит.: [11 Кнут Д., Я о Э., «Кибернетич. сб.», 1983, в. 19, с 97-158. С. М. Ермаков, Н. Н. Чепцов. СЛОЖНОСТЬ слова (algorithmic/Kolmogorov complexity a word) - см. Алгоритмическая энтропия. СЛОИСТОЙ ВЫБОРКИ МЕТОД (stratified sampling method) - прием Монте-Карло метода для вычисления интегралов, состоящий в том, что область интегрирования D предварительно разбивается на части {D,}, причем для г-й части строится своя статистическая оценка интеграла по пг случайным узлам, г=1, ..., т. Можно определить значения {я,}, минимизирующие дисперсию результирующей оценки интеграла или хотя бы уменьшающие ее сравнительно с простым методом Монте-Карло (см. [1]). Слоистая выборка для решения интегральных уравнений разработана в [2]. Лит.: [11 Соболь И. М., Численные методы Монте-Карло, М., 1973; [21 М и х а и л о в Г. А., Некоторые вопросы теории методов Монте-Карло, Новосиб., 1974. Г. Л. Михайлов. СЛОИ (stratum) - см. Выборочное статистическое обследование. СЛУЦКОГО ПРЕДЕЛЬНАЯ СИНУСОИДАЛЬНАЯ ТЕОРЕМА (Slutsky sinusoidal limit theorem): для любых Т>() и со0 из интервала 0<соо<л можно найти такую последовательность линейных преобразований &„, п = \, 2, ..., рядов наблюдений X(t), t = 0, ± 1,..., вида 2>nX(t) = Ymn aln)X(t-k), что значения последовательности yT}X0(t) = Y(t), где EXQ(t) = 0, EX0(t)X0(s) = 0 при t*s н равно 1 при t=s (так
что X^it) - дискретный белый шум), при достаточно большом п на любом интервале длины Т будут со сколь угодно близкой к единице вероятностью сколь угодно мало отличаться от значений нек-рой синусоиды частоты со0 [то есть функции Y(t) - A sin (c0g£ + 6), где Л и 0- постоянные]. Конкретно Е. Е. Слуцкий [1J, [2] рассмотрел последовательность линейных преобразований %=&"'*". } (#) VX(t) = Х(0- X(t -1), «Х(0 = X(t) + XU-1),J где mn/n^>\, О<Х<\, при л->°°. Он показал, что если X0(t) - дискретный белый шум, то любой конечный отрезок последовательности #>яХ0(О при л->°° будет стремиться к отрезку синусоиды круговой частоты со0 = агс cos[(l -Х)/{ 1 +Х)]. С. п. ст. (нек-рые обобщения к-рой были вскоре после появления работы [1] указаны В. И. Романовским [3], [4]) в свое время сыграла существенную роль, способствуя разъяснению того, что явно выраженный циклич. характер наблюдаемого временного ряда не обязательно указывает на наличие какого-то порождающего этот ряд периодич. механизма, а может объясняться, напр., влиянием линейных преобразований, производившихся над наблюдениями. После появления спектральной теории стационарных случайных процессов (см. Стационарный случайный процесс и Спектральное разложение случайных функций), показавшей, что любой стационарный временной ряд всегда может быть представлен в виде суперпозиции синусоид, выяснилось, что эта теория позволяет очень просто доказать результаты Е. Е. Слуцкого и В. И. Романовского и получить ряд новых утверждений, развивающих и дополняющих эти результаты. В частности, результат Слуцкого следует из легко проверяемого утверждения о том, что передаточная функция Нп(Х) надлежащим образом нормированного преобразования ^ формулы (*) стремится при я-><» к 5-функции 6(^-со0) (см. [5]-[7]). Белый шум Х0(О в формулировке С. п. с. т. может быть заменен произвольной стационарной последовательностью X(t), спектральная плотность к-рой отлична от нуля в точке ^ = со0; условие 0<со0<л в С. п. с. т. может быть заменено условием 0 ^ со0 < я (см. также [71, [8]). Лит.: [\\ Слуцкий Е. Е., «Вопросы конъюнктуры», 1927, т. 3, в. 1, с. 34-64; [2] его ж е, Избр. труды, М., 1960, с. 99-132; [3] Romano vsky V. I., «Rend. Circolo mat. Palermo», 1932, v. 56, p. 82-111; [4] его же, там же, 1933, v. 57, p. 130-36; [5] Мог an P. A. P., «Biometrika», 1949, v. 36, p. 63-70; [6] Кен дал л М., Стью- арт А., Многомерный статистический анализ и временные ряды, пер. с англ., М., 1976, с. 570-71; [7] Kedem В., «Ann. Statist.», 1984, v. 12, .No 2, p. 665-74; [8] Moran P. A. P., «Proc. Camb. Phil. Soc», 1950, v. 46, p. 272-80. A. M. Яглом. СЛУЦКОГО УСЛОВИЕ (Slutsky condition) - см. Больших чисел усиленный закон для стационарных случайных процессов. СЛУЦКОГО ЭРГОДИЧЕСКАЯ ТЕОРЕМА (Slutsky ergodic theorem): для стационарного случайного процесса (в широком смысле) X(t) с непрерывным или дискретным временем t выполнение условия lim 1 ГМтМт = 0 T^ooTk или же "П1 „ г->~ т Y >(т) = 0, С) где Мт) = Е[Х(£ + т)-ЕХ(£ + т)][Х(0-ЕХ(0] - корреляционная функция процесса X(t), необходимо и достаточно для справедливости соотношения 1л. т. —I7 X(t)dt = EX(t) T-S -> оо Т - S *-* -Ь где 1л.т. - предел в среднем квадратичном. Эта теорема принадлежит Е. Е. Слуцкому, рассмотревшему (см. [1], [2]) лишь случай непрерывного времени; позже было доказано, что условие (*) равносильно условию непрерывности спектральной функции F(X) процесса Xit)-EX(t) в точке А, = 0. См. также Больших чисел закон для стационарных случайных процессов. Лит.: [1] Slutsky Е. Е., в сб.: Actuaiites scientifiques et indust- rielles, P., 1938, № 738, p. 35-55; [2] Слуцкий Е. Е., Избр. тр., M., 1960, с. 252-68. AM. Яглом. СЛУЦКОГО - ЮЛА ЭФФЕКТ (Slutsky - Yule effekt) - искажения, возникающие при выделении тренда временного ряда с помощью сглаживания скользящих средних методом; обнаружен в 1927 (см. [2], [3]). Причина С.-Ю. э. состоит в том, что построенный с помощью скользящих средних тренд является сильно автокоррелированным случайным процессом, особенно для небольших значений задержек. В результате такой тренд приобретает излишнюю гладкость, и, кроме того, в нем появляются систематич. колебания, к-рые не были присущи первоначальному временному ряду. Лит.:[\\ КендаллМ., Стьюарт А., Многомерный статистический анализ и временные ряды, пер. с англ., М., 1976; [2] Слуцкий Е.Е., «Вопросы конъюнктуры», 1927, т. 3, в. 1; [3] YuleG., «Phil. Trans. A.», 1927, v. 226, p. 267-98; [4] Кендэл М., Временные ряды, пер. с англ., М., 1981. Ю. Г. Баласанов. СЛУЧАЙНАЯ БЕСПОВТОРНАЯ ВЫБОРКА (random sample without replacement) - см. Выборка статистическая. СЛУЧАЙНАЯ БУЛЕВА ФУНКЦИЯ (random Boolean function) - функция вида z = f(x^,..,txn; со), где х{, z - булевы, то есть принимающие значения 0 и 1, переменные, а со - элементарное событие. С. б. ф. может быть задана распределением вероятностей (Pf,feF), где F- множество всех 2 булевых функций от п переменных. Изучаются как вероятностные свойства Сб. ф. [напр., распределение «веса» |/*|=Y /"(■*!• ••■» хг)' вероятность монотонности f по переменным х{], так и реализуемость С. б. ф. заданными ло- гич. схемами. Доказано, что при равновероятностном распределении (Ру, fe F) отношение сложности реализации Сб. ф. в классе суперпозиций булевых функций двух переменных к 2п/п сходится по вероятности к 1 при «-><». Случайный вектор (fv f2, ..., fm), где /j-- С. б. ф., определяет нек-рое случайное отображение. #. я. Коваленко. СЛУЧАЙНАЯ ВЕЛИЧИНА (random variable) - одно из основных понятий теории вероятностей. Роль понятий С в. и ее математич. ожидания впервые ясно оценил П. Л. Чебышев (1867, см. [1]). Понимание того факта, что понятие Св. есть частный случай общего понятия функции, пришло значительно позднее. Полное и свободное от всяких излишних ограничений изложение основ теории вероятностей на основе теории меры дано А. Н. Колмогоровым (1933, см. [2]); оно сделало совершенно очевидным, что С. в. есть не что иное, как измеримая функция на каком-либо вероятностном пространстве. Это обстоятельство весьма важно учитывать даже при первоначальном изложении теории вероятностей. В учебной литературе эта точка зрения последовательно проведена впервые В. Феллером (см. предисловие к [3], где изложение строится на понятии пространства элементарных событий и подчеркивается, что лишь в этом случае представление о С в. становится содержательным). СЛУЧАЙНАЯ 583
Пусть Ш, .< Р) - вероятностное пространство. Однозначную действительную функцию Х = Х((о), определенную на ft, называют случайной величиной, если при любом действительном х множество {(о:Х(со) <#} входит в класс .</. Пусть X ~ какая-либо С. в. и Лх - класс тех С a [j? , для к-рых {со: Х(со) е С} (= *</; это будет а-алгебра. Класс J)x всех борелев- ских подмножеств числовой прямой IR во всяком случае содержится в Лх. Меру Рх, определенную на Л\ равенством РХ(В) = Р{(о:Х((о) е £}, Б е Jftj, называют распределением вероятностей С. в. X. Эта мера однозначно определяется по распределению функции С. в. X, то есть по функции Fx(x) = Рх{(-~, *)} = Р{со: Х(со) <*}. Значения вероятностей Р{со:Х((о) е С}, Се^/Х (то есть значения мерц, служащей продолжением распределения Рх на а-алгебру .*/х), по функции распределения Fx однозначно, вообще говоря, не определяются (достаточным для такой однозначности является так наз. условие совершенности меры Р; см. Совершенная мера, а также [4]). Указанное обстоятельство надо постоянно иметь в виду (напр., при доказательстве того, что распределение С. в. однозначно определяется его характеристической функцией). Если С. в. X принимает конечное или счетное число попарно различных значений xlf x2, ..., хп, ... с вероятностями pit ...>pn, ..; рп- Р{(о:Х((о) = *„}, то ее распределение вероятностей (называемое в этом случае дискретным) задается формулой Распределение Св. X называется непрерывным (или абсолютно непрерывным), если существует функция рх(х) (плотность вероятности) такая, что Px(B)=Jb px(x)dx для всякого интервала В (или, что то же самое, для любого борелевского множества В). В обычной терминологии матема- тич. анализа это означает абсолютную непрерывность Рл- по отношению к мере Лебега на И? . Ряд общих свойств распределения вероятностей Св. достаточно полно описывается небольшим количеством числовых характеристик. При этом медиана и квантили имеют то преимущество, что они определены для любых распределений, хотя наиболее употребительны математическое ожидание ЕХ и дисперсия DX Св. X. См. также Вероятностей теория. Комплексная Св. X определяется парой действительных С в. X] и Х2 по формуле Х((о) = Х1((о) + гХ2(со). Упорядоченный набор (Хи ..., Xs) С в. можно рассматривать как случайный вектор со значениями в IRS. Обобщением понятия Св. на бесконечномерный случай служит понятие случайного элемента. Следует отметить, что в нек-рых задачах математич. анализа и теории чисел целесообразно рассматривать участвующие в их формулировках функции как Св., определенные на подходящих вероятностных пространствах (см., напр., [5]). Лит.: [1] Чебышев П. Л., О средних величинах, в кн.: Полн. собр. соч., т. 2, М.-Л., 1947; [2] Колмогоров А. Н., Основные понятия теории вероятностей, 2 изд., М., 1974; [3] Феллер В., Введение в теорию вероятностей и ее приложения, пер. с англ., 2 изд., т. 1, М., 1967; [4] Гн еден ко Б. В., Колмогоров А.Н., Предельные распределения для сумм независимых случайных величин, М.-Л., 1949; 584 СЛУЧАЙНАЯ (5) Кац М., Статистическая независимость в теории вероятностей, анализе и теории чисел, пер. с англ., М., 1963. Ю. В. Прохоров. СЛУЧАЙНАЯ ВЕЛИЧИНА; моделирование (generation/simulation of random variable) - см. Моделирование случайных величин и функций. СЛУЧАЙНАЯ ВЕЛИЧИНА на конечной группе (random variable in a finite group) - обобщение понятия случайной величины на случай, когда она принимает значения в иек-рой конечной группе. Пусть (ft, .«■/, Р) - вероятностное пространство, G- {д^, ..., gs] - конечная группа. Всякую .</-измеримую функцию Х-Х((й), сое Л, принимающую значения из G, называют случайной величиной на G. Распределение X на G задается вероятностями р( = Р{(й:Х((й) = д{}, i=l, ..., s. В частности, композиция двух распределений на G, одно из к-рых равномерное (то есть /?,= l/s, i=l, ..., s), есть равномерное распределение на G. В теории предельных теорем для композиции распределений на G равномерное распределение играет ту же роль, что и нормальное распределение в теории суммирования С. в. на прямой. Распределения на G удобно отождествлять с элементами групповой алгебры U над нолем действительных чисел (элементами U являются всевозможные линейные формы ххдх + ... + xsgs, где xif i=\, ..., s, - действительные числа) по следующему правилу: распределению, для к-рого Р{Х-д{}-р1, г=1, ..., s, ставится в соответствие элемент (/, равный P\Q\ + •••+psgs- В этом случае композиции распределений на G соответствует произведение соответствующих элементов из U (см. [1]). Представление распределений на G элементами из U было использовано (см. |2], [3]) при установлении необходимых и достаточных условий сходимости композиции распределений на G. Для С. в. на G вводится понятие характеристич. функции (см. [4]). Это понятие имеет следующий вид. Пусть М (д), г=\, ..., t, - все унитарные неприводимые неэквивалентные представления группы G; значениями представлений М (д) являются нек-рые матрицы М (gt), i=1,...,\ (см. [5|). Под характеристической функцией для С. в. X на G понимается набор из t матриц Е|,,м%>£,г=1 t. о Если G - абелева группа, то в (*) t~s, a M (д) - гомоморфное отображение G в мультипликативную группу комплексных чисел, равных по модулю 1. Напр. для группы Z5 = {О, 1, ..., s- 1} вычетов по модулю s М(г)(^+1) = Д/(г)(у) = ехр[2я/—),;' = 0, ..., s- 1, г= 1, .... s. Характеристич. функция (*) обладает многими свойствами характеристич. функций Св. на прямой, чго позволяет успешно применять их при исследовании композиции распределений на G (см. [6], [7]). Введение для С. в. X на G таких основных понятий теории вероятностей, как математич. ожидание и дисперсия, не является очевидным. Аксиоматич. построение математич. ожидания и дисперсии для С. в. X на G исходит из основных свойств математич. ожидания и дисперсии на прямой, не обусловленных ее индивидуальными особенностями (см. [2], [8]). Напр., для С. в. X, распределенной на группе G2 = {г\ д] (е - единица, д =д) с вероятностями P{X = e}=pv P{X = д) = р2, р] */^, математич. ожидание равно е, если рх >р2, и д, если рх < р2 Оказывается, 4toG = {e} и группы, изоморфные прямой степени группы G2, являются единственными классами конечных групп, для к-рых существует математич. ожидание, что обедняет практич. ценность этого понятия.
О распространении на группы таких понятий, как случайный процесс, случайное блуждание (тесно связанных с понятием С. в. на группе), см. в [9] и [10]. Лит.: [1] Schwarz S., «Чехосл. матем. ж.», 1963, т. 13, с. 372-426; [2] Максимов В. М., «Теория вероятн. и ее примен.», 1967, т. 12, в. 4, с. 678-97; [3] его же, там же, 1968, т. 13, в. 2, с. 295-307; [41 его же, там же, 1970, т. 15, в. 2, с. 228-42; [5] его же, «Докл. АН СССР», 1972, т. 203, № 3, с. 524-27; [6] Кэртис Ч., Раин ер И., Теория представлений конечных групп и ассоциативных алгебр, нср. с англ., М., 1969; [7] Воробьев Н. Н., «Матем. сб.», 1954, т. 34, № 1, с. 89-126; [8] KawadaY., Ito К., «Ргос. Phys. Math. Soc. Japan», 1940, v. 22, p. 977-98; [9] Bogc W., «J. rcine und angew. Math.», 1959, Bd 201, № 3-4, S. 150-56; Ц0] Takacs L., «Acta Sri. Math.», 1983, v. 45, № 1-4, p. 395-408. Л. А. Лсвитская. СЛУЧАЙНАЯ ВЕЛИЧИНА нормированная (normed random variable) - см. Нормированная случайная величина. СЛУЧАЙНАЯ ВЕЛИЧИНА; оценивание границ (estimation of bounds of random variables) - построение оценок параметра М = vrai sup У, к-рый является верхней (аналогично - нижней) границей непрерывной случайной величины Y по повторной выборке # = {Уг}, i=t, ..., N, из значений этой С. в. Предполагается, что величина М конечна, а функция V(u) ~ 1 - F(M- \/v), v>0, правильно меняется на бесконечности с нек-рым показателем а, 0 <а<<*>. Здесь F - функция распределения С. в. У. При выполнении указанных условий последовательность Св. (М- Y(N))/(M-QN) слабо сходится при N-><*> к Св. с функцией распределения Фа(0 = ехр{-(-г)а}, t<0, при этом F(QN) = 1 -ЛГ1, У(1)*=:... ^ У(до ~~ порядковые статистики, соответствующие выборке Н. Наиболее распространен класс линейных оценок MNk- •_n ei^(iV-i) параметра А/, где k /N->0 при N -><*>. Для состоятельности оценок MNk необходимо выполнение условия У _fitf,= l. Качество оценки М измеряется величиной Е(М-М) . Известен явный вид асимптотически оптимальных линейных оценок (см. [1]). Эти оценки являются асимптотически нормальными и асимптотически эффективными (их асимптотич. дисперсия минимальна в множестве всех асимптотически нормальных оценок). Лит.: [1] Ж игл я веки й А. А., Математическая теория глобального случайного поиска, Л., 1985, гл. 7. д. д. Жиглявский. СЛУЧАЙНАЯ ВЕЛИЧИНА; преобразование (transformation of a random variable) - построение функций от случайных величин, распределения вероятностей к-рых обладают заданными свойствами. Напр., пусть случайная величина X имеет непрерывную и строго возрастающую функцию распределения F(x), тогда Y-F(X) имеет равномерное рас->' пределение на отрезке [0,1], aZ = 0" (F(X)) имеет нормальное распределение с параметрами (0, 1). Здесь Ф() означает ' функцию стандартного нормального распределения. И обратно, формула X = F ЧФШ) позволяет по нормально распределенной величине Z получить величину X, имеющую заданную функцию распределения F{x). Преобразования случайных величин используются в задачах математич. статистики как основа построения простых асимптотич. формул высокой точности (см. Асимптотически нормальное преобразование, Асимптотически пирсо- новское преобразование, Улучшающее сходимость преобразование, Аппроксимация сложных распределений более простыми). Лит.: [1] Больше в Л. Н., «Теория вероятн. и ее примен.», 1959, т. 4, в. 2, с. 136-49; [2] Большее Л. Н., СмирновН.В., Таблицы математической статистики, 3 изд., М., 1983. в. И. Пагурова. СЛУЧАЙНАЯ ВЕЛИЧИНА усеченная (truncated random variable) - см. Усеченная случайная величина. СЛУЧАЙНАЯ ВЕРОЯТНОСТНАЯ МЕРА (random pro bability measure) на а-алгебре .с/подмножеств А пространства О. элементарных событий - случайный элемент совокупности cap(Q, .r/) всех распределений вероятностей на (ft, .</), то есть вложенной в (несчетномерное при card .^ К) координатное пространство совокупности всех заданных на w нормированных неотрицательных счетно-аддитивных функций множеств. Теория ^(^)-измеримости семейств распределений вероятностей, где а-алгебра Х(.*/) индуцируется вложением cap(Q, d) в И?'*, построена в [1] и [2]. Если х- статистич. оценка параметра неизвестного закона распределения вероятностей Pst&={Pit teT} по выборке с распределением Ps(), то оценка Рт() самого закона Р5() является С. в. м. в указанном смысле. Лит.: [1] Прохоров Ю. В., «Докл. АН СССР», 1961, т. 138, с. 53-55; [2] Чеицов Н. Н., Статистические решающие правила и оптимальные выводы, М., 1972, § 31. Ю. В. Прохоров, Н. Н. Чснцов. СЛУЧАЙНАЯ КВАДРАТУРНАЯ ФОРМУЛА (random quadrature formula) - формула вида в к-рой узлы и веса квадратурной суммы выбираются случайно из нек-рого множества К квадратурных сумм в соответствии с определенной на К вероятностной мерой. Как правило, квадратурная сумма является при этом несмещенной или асимптотически несмещенной по п оценкой интеграла. Наиболее распространены так наз. квадратурные формулы со случайными узлами. Лит.: [1] Бахвалов И.С, Численные методы, 2 изд., М., 1975; [2] Е р м а к о в С. М., Метод Монте-Карло и смежные вопросы, 2 изд., М., 1975. СМ. Ермаков. СЛУЧАЙНАЯ МАТРИЦА (random matrix) - прямоугольная таблица состоящая из т строк и п столбцов, £,- являются случайными элементами, принимающими значения из нек-рого множества К. Если т-n, то Е называется квадратной См. порядка п. В наиболее важных случаях в качестве К выступают поле действительных чисел, поле комплексных чисел, кольцо многочленов, тело кватернионов. Понятие С. м. появилось в многомерном статистич. анализе и в статистич. физике. Пусть (X, В) - измеримое пространство квадратных С. м. Е порядка п, (ft, Л, Р) - вероятностное пространство. Распределением См. Е, принимающей значения из множества X, называется мера Р{со:Е(со) с Ra В} = у.(Ю. Если X - компактная группа матриц и \i(R) - нормированная мера Хаара на группе X, то говорят, что матрица Е распределена по мере Хаара (X и имеет инвариантное распределение. Если на X существует такая вероятностная мера V, что \i(R)=j q(X)vUx) для всех Re В, где q(X) - неотрицательная измеримая на X функция, то q(X) называется плотностью распределения (X См. Е относительно меры v. К основным типам См. относятся гауссовская случайная матрица, несимметрическая случайная матрица, ортогональная случайная матрица, симметрическая случайная матрица, унитарная случайная матрица. Наиболее изученными функциями С м. являются случайный детерминант, собственные значения и собственные векторы, обратная матрица. СЛУЧАЙНАЯ 585
Основное применение С. м. находят в многомерном стати- стич. анализе, в к-ром изучают эмпирические ковариационные матрицы Я = * = 1А*« -4S t('*-'Xxfc-i)Tf * = ± где *fe - наблюдения над m-мерным случайным вектором £. Если вектор £ распределен по нормальному закону N(a, Я), то распределение матрицы /? называется распределением Уишарта. Так как распределения См. при больших их размерностях имеют громоздкий вид, а в различных прикладных задачах используются матрицы большого порядка, то представляют интерес предельные теоремы для См. при росте их порядка к бесконечности. Лит.: [1] Андерсон Т., Введение в многомерный статистический анализ, пер. с англ., М., 1963; [2] Гирко В. Л., Теория случайных детерминантов, К., 1980; [3] Дай с он Ф., Статистическая теория энергетических уровней сложных систем, пер. с англ., М., 1963; [4] Mehta М. L., Random matrices and the statistical theory of energy levels, N. Y.- L., 1967. В. Л. Гирко. СЛУЧАЙНАЯ МАТРИЦА гауссовская (Gaussian random matrix) - см. Гауссовская случайная матрица. СЛУЧАЙНАЯ МАТРИЦА несимметрическая (non- symmetric random matrix) - см. Несимметрическая случайная матрица. СЛУЧАЙНАЯ МАТРИЦА ортогональная (orthogonal random matrix) - см. Ортогональная случайная матрица. СЛУЧАЙНАЯ МАТРИЦА; предельные теоремы (limit theorems for random matrix) - см. Предельные теоремы для случайных матриц. СЛУЧАЙНАЯ МАТРИЦА симметрическая (symmetric random matrix) - см. Симметрическая случайная матрица. СЛУЧАЙНАЯ МАТРИЦА; спектральная функция (spectral function of a random matrix) - см. Спектральная функция случайной матрицы. СЛУЧАЙНАЯ МАТРИЦА унитарная (unitary random matrix) - см. Унитарная случайная матрица. СЛУЧАЙНАЯ МАТРИЦА эрмитова (Hermit random matrix) - см. Эрмитова случайная матрица. СЛУЧАЙНАЯ МЕРА (random measure), стохастическая мера, случайный заря д,- аддитивная ел учайная функция множеств. Пусть X - нек-рое множество, 31 - а-ал- гебра подмножеств в X. Случайной мерой |Х на измеримом пространстве (X, 35) называется совокупность случайных величин |х(#), определенных для каждого множества В из & и таких, что для любой последовательности {Вп} попарно непересекающихся множеств на & выполнено следующее свойство: Киг=л)=х»><в»>- <» При рассмотрении различных классов С. м. предполагают разный характер сходимости ряда в правой части (1) (по вероятности, в среднем квадратическом, почти наверное). Часто в качестве значений |х(#) допускаются и символы +<*> и -«>. С. м. являются естественной формализацией многих прикладных задач; напр., |х(#) можно интерпретировать как урожай, выращенный на площадке В, запас нек-рого минерала, содержащегося в области В, количество звезд, расположенных в области В. Пусть Dp ..., Dn - борелевские множества на расширенной числовой прямой (компактифицированной добавлением символов + °°и - °о). Набор вероятностей р(В, В„; D, D^PftiCB^eD, ц(В„ЬО„} (2) 586 СЛУЧАЙНАЯ называется распределением вероятностей См. |Х. Конечномерные распределения (2) См. |Х удовлетворяют определенным естественным условиям согласованности (см. [5], с. 396). По каждому набору конечномерных распределений, удовлетворяющих условиям согласованности, можно построить См., для к-рой этот набор является распределением вероятностей. Ниже рассматриваются наиболее важные классы См. См. (X называется мерой с независимыми значениями, если для любых попарно непересекающихся множеств Ви ..., Вп из зВ случайные величины uXBj) №(Вп) независимы. Закон распределения С. м. с независимыми значениями однозначно определяется одномерными распределениями P{\i(B)eD}=p(Bt D). С м. (X называется гауссовской мерой, если для любого набора множеств Вх, ..., Вп из & случайный вектор {иХБ}), ..., [i(Bn)} имеет гауссовское распределение. Распределение вероятностей гауссовской С. м. |Х определяется заданием двух функций m(B) = E[i(B) и Q(BV B2) = E\i(B^\i(B2). Функция т{В) является мерой на 30, а функция Q(B^ B2) - положительно определенным ядром на Звх& и Q(#i> B2) при фиксированном В2(В{) из Л является мерой по В^(В2) на Л. С м. (X называется марковской мерой, если для любой конечной монотонной последовательности множеств Вх с: #2 с: ... с: Вп из J) случайные величины uX#t), ..., ц(#и) образуют цепь Маркова. Комплекснозначная С м. |х такая, что Е|х(#) = 0, Е ||Х (В) \ < < +<*>, называется мерой с ортогональными значениями, если существует неотрицательная числовая мера F(A) на dfl такая, что ЕдО?,)}!^) = F(B\C\B2) [это свойство означает, в частности, что для непересекающихся множеств Вх и В2 случайные величины \i(Bx) и |x(J52) ортогональны]; меру F(A) называют структурной мерой. См. с ортогональными значениями играют важную роль в спектральной теории случайных процессов и полей (см. Спектральное разложение случайной функции). Пусть Х = Р?И, Л- а-алгебра борелевских множеств на IP". Комплекснозначная См. |Х называется однородной мерой, если: а) E|uX#)|2< +°° для всех В из &\ б) Е(ггЯ) = Ец(Я), Ед(г^)д(ггЯ) = ЕдМ)Й5) для всех х из II?" и всех А и В из Я (здесь rxA = {y + x:y eА}). С м. и называется регул ярно й (рассеянной, диффузной), если |х((х}) = 0 для любого одноточечного множества {х}. Весьма важны следующие примеры С м. Пуассоновская случайная мера- целочисленная С. м. с независимыми значениями такая, что при каждом В е .Л случайная величина |х(#) имеет распределение Пуассона с параметром т(В), то есть Р{ц(В)-*}«!Шв-««». (3) Если для целочисленной С. м. |Х с независимыми значениями существует числовая мера т{В) такая, что: a) hm —*-——— = 1, т(й)_>0 тШ Р{ц(В)>1} б) lim го(0)->О т(В) 0, то С м. обязательно является пуассоновской (см. [2]). Марковские целочисленные С. м., удовлетворяющие условиям а) и б), см. в [2]. Пусть Х = 1РИ, J0 - а-алгебра борелевских множеств на И?", |д| - мера Лебега множества А(Ае./)). Винеровской
случайной мерой на |i называется гауссовская См. с незаиисимыми значениями такая, что Ец(£) = 0, Е\1(В^(В2)=\В{ПВ2\. П>сть существует случайный точечный процесс в X, то есть предполагается, что в X «разбросаны» случайные точки xit г= 1, 2, ..., и каждой точке приписана кратность Ф({х,}). С. м. называется считающей мерой точечного процесса (см. [4|, 18]). Пусть £ - случайный элемент в X с распределением Р(В) = P{£efi}, £i, ..., £я - независимые случайные элементы с распределением Р(£). Эмпирической случайной мерой называется мера где &„(#) - число ^, принадлежащих множеству В. См. ц* является марковской. При изучении С. м. важную роль играет аппарат характери- стич. функционалов. Характеристическим функционалом См. \1 называется C(f) = Eexp{i\xf(x)\i(dx)}, где f(x) - действительная ограниченная функция на Х} а J f(x)\i(dx) - так наз. стохастич. интеграл по См. \1. Распределение вероятностей С. м. \1 однозначно определяется значениями C(f) на простых функциях (см. [5]). Разработка общей теории См. начата в работах А. Преко- пы [1 ] и А. В. Скорохода [2]. С. м. с независимыми значениями изучены в [2], [3], [8], [9]; наиболее полное изложение содержится в [9]. Понятие марковской меры введено А. В. Скороходом в [2], там же описаны регулярные гауссов- ские марковские С. м. и нек-рые классы целочисленных марковских мер. Связь теории С. м. с теорией случайных точечных процессов отмечалась в [4] (см. также [7], [8], [10]). Систематизированное изложение основных фактов теории С. м. дано в [5]. Лит.: [1] Prekopa A., «Acta math. Acad. sci. hung.», 1956, \% 7, p. 215-63; 1957, v. 8, p. 337-400; [2] Скороход А. В., «Bjchhk КиТвськ. уи-ту. Сер. астр., матем., механ.», 1958, № 1( в. 1, с. 105-14; [3] Kingman ]., «Pacif. J. of Math.», 1967, v. 21, № 1, p. 59-78; [4] Беляев Ю. К., «Теория вероятн. и ее примен>, 1968, т. 13, в. 2, с. 333-37; [5] Севастьянов Б. А., Ветвящиеся процессы, М., 1971; [6] Tbornell M. L., «Stochastic processes and their appl.», 1979, v. 8, p. 323-34; [7] Керстан Й., Маттес К., Мекке Й., Безгранично делимые точечные процессы, пер. с англ., М., 1982; [8] Kallen- berg О., Random measures, 3 ed., В., 1983; [9] Скороход А. В., Случайные процессы с независимыми приращениями, 2 изд., М., 1986; [10] Кагг A., Point processes and their statistical inference, N. Y. - Basel, 1986. M. И. Ядрепко. СЛУЧАЙНАЯ МОЗАИКА (random tessellation) - случайный процесс многогранников в В?я, в реализациях к-рого с вероятностью единица внутренности многогранников не пересекаются, а объединение их замыканий дает все И?я. Примеры См.: 1) См., порожденные процессами гиперплоскостей (в частности, пуассоновскими процессами, управляемыми инвариантной мерой); 2) мозаики Вороного (см. [5]), к-рые строятся следующим образом: в II? задается случайный точечный процесс Xif каждой точке процесса соответствует множество всех точек из И? , расстояния к-рых до этой точки меньше, чем до любой другой точки процесса (часто процесс Хг берется однородным пуассоновским). Общие С м. впервые были рассмотрены Р. В. Амбарцумяном (см. |2], [3]). Ставятся задачи вероятностного описания так наз. «типичного» многоугольника мозаики, в частности числа его вершин, ребер и т. д., или же описания «типичных» узлов мозаики. Полное описание удается найти лишь в редких случаях, чаще удается найти моменты этих величин (см. [1]). Лит.: [1] Комбинаторные принципы в стохастической геометрии. [Сб. статей], Ер., 1980; [2] Stochastic geometry, L. - [а. о.], 1974; [3] Am bartzumian R. V., Combinatorial integral geometry, Chichester - [a. o.], 1982; [4] Stochastic geometry, geometric statistic, stereology, Lpz., 1984; [5] Сантал о Л., Интегральная геометрия и геометрические вероятности, пер. с англ., М., 1983; [6] «Acta Appl. Math.», 1987, v. 9, № 1-2. В. К.. Оганян. СЛУЧАЙНАЯ ОШИБКА (random error) - ошибка измерения, допущенная под влиянием случайных причин, действующих непредвиденным образом на результат измерения. Пусть результат измерения нек-рой величины а можно трактовать как реализацию нек-рой случайной величины X. Тогда разность Х-а называют ошибкой эксперимента, а величину Ь = Е (X - а) называют систематической ошибкой. Случайную величину Ъ = Х-а-Ь называют случайной ошибкой. Очевидно, что Е8=0. В рассмотренной схеме наблюдение X представимо в виде суммы X - а + Ь + 8 самой измеряемой величины а, систематич. ошибки Ъ и С о. 8. См. Наблюдения ошибка. Наименьших квадратов метод, Ошибок теория, Систематическая ошибка. Лит.: [ 1 ] Л и н н и к Ю. В., Метод наименьших квадратов и основы математико-статистической теории обработки наблюдений, 2 изд., М., 1962. М. С. Никулин. СЛУЧАЙНАЯ ПЕРЕСТАНОВКА (random permutation) порядка я - случайный элемент со значениями во множестве Sn всех перестановок порядка п. В качестве вероятностного распределения обычно выбирают равновероятное распределение на Sn, сопоставляющее каждой перестановке вероятность (и!)-1. Пусть g=(ov a2, ..., а„) есть С. п., Хп = Хп(а) - количество индексов i=l, 2, ..., я-1, для к-рых аг<а1+] (число возрастаний в a), a Yn- Yn(a) - количество nap индексов (г,/), г</, для к-рых Oj>o; (число инверсий в а). Если все перестановки Sn равновероятны, то ЕХ„ = я/2-1, DX„ = h/12, ЕУ„ = я(я-1)/4, ОУ„ = (2я3 + Зя2-5я)/72 и при я->» распределения случайных величин *:=<*„-ex„)/Vdx;, у„*=(у„-еу„)/7ш; сходятся к нормальному распределению с параметрами (0, 1). Случайные величины Хп и Yn естественным образом возникают при статистич. анализе качества псевдослучайных последовательностей, а также при вероятностном анализе нек-рых алгоритмов сортировки. Вектором рангов перестановки а порядка я называется я-мерный вектор R = (R{, R2, .... Rn), координаты к-рого определяются следующим образом: если j~omt то Rj равно числу таких i^m, что G^j. В случае равновероятного распределения на Sn основные свойства вектора рангов С. п. таковы: P{R. = k)=\/n, Р{Д,= *, Д; = *} = 1/я(я-1), i*j, k*t, ЕД, = (я + 1)/2, ОД^(я2-1)/12, i=l,2, ..., я. Вектор рангов С. п. служит основой при построении статистич. ранговых критериев (см. [1]). См. также Случайная подстановка. Лит.:[\] Гаек Я., Шидак 3., Теория ранговых критериев, пер. с англ., М., 1971; [2] Кпут Д., Искусство программирования для ЭВМ, пер. с англ., т. 1-3, М., 1976-78; [3] Сачков В. Н., Вероятностные методы в комбинаторном анализе, М., 1978; [4] Феллер В., Введение в теорию вероятностей и ее приложения, пер. с англ., т. 1, м-> 1984- В. А. Ватутин. СЛУЧАЙНАЯ 587
СЛУЧАЙНАЯ ПОДСТАНОВКА (random permutation/substitution) - случайный элемент а множества Sn всех подстановок степени п, то есть случайное взаимно однозначное отображение множества Хп= {1, ..., п] в себя, представимое в виде таблицы ( \ 2 ... п] в к-рой ak есть образ элемента k при случайном отображении a, fc=l, ..., п. Нижняя строка этой таблицы представляет собой случайную перестановку элементов множества Хп. С. п. а соответствует случайный граф Гп с множеством вершин Хп и п ребрами (k} ak)} k-\} ..., п. Компонентами связности графа Г„ являются циклы. Под С. п. из SQ:Sn обычно понимается С. п. а, для к-рой P{a = s}= \s\~ при любом seS, где \S\ ~ число элементов множества S. Пусть аг(5) обозначает число циклов длины г, v(5) - общее число циклов, rj(5) - число вершин в максимальном цикле С. п. из 5, On(S) - порядок С. п. из S, рассматриваемой как элемент симметрич. группы Sn. Наиболее полно эти характеристики изучены для С. п. из Sn (см., напр., [1]). Если целые неотрицательные числа nt\t ..., тп удовлетворяют соотношению тх + 2т2+ ... + птп = п, то P{ar(5n) = mr,r=l Я] = ^ш1-Л-; в остальных случаях Р{ar(Sn) ~mr, г = 1, ..., п] = 0. Для любо- го N = 1, ..., п имеет место равенство где суммирование проводится по множеству целых положительных чисел k{, ..., kN> для к-рых k\ +... +kN = n. При я->°° равномерно относительно целых N, для к-рых и = (Ы - In w)/Vln я лежит в любом конечном интервале, имеет место равенство P{v(5„) = ЛГ} = -*_<Г"2/2(1 + о(1)); Д/27С1ПП для любых фиксированных г= 1, 2 & = 0, 1, ... справедливо соотношение Р{аг(5„) = А}-4Щ*е-,/г; случайная величина Tj(5n)/« имеет достаточно сложное предельное распределение; случайная величина (ino„(sn)-iin2„)/^; при и->°о асимптотически нормальна с параметрами (0, 1) (см. [2]). Изучение аналогичных характеристик С. п. с распределением на Sn, отличным от равномерного, напр. С. п. с ограничениями на длины циклов, связано со значительными трудностями (см. [3], [4]). Если Рп есть вероятность того, что группа, порожденная независимыми С. п. Tj и т2 из Sn, совпадает либо с Sn, либо со знакопеременной группой Л„, то Р„->1 при я->°° (см. [5]). Имеются алгоритмы генерирования С. п. из Sn (см. [6]). Лит.: [1] Гончаров В.Л., «Изв. АН СССР. Сер. матем.», 1944, т. 8, № 1, с. 3-48; [2] Erdos P., Turan P., «Acta math. Acad. sci. hung», 1967, v. 18, № 3-4, p. 309-20; [3] Сачков В. Н., Вероятностные методы в комбинаторном анализе, М., 1978; [4] Павлов А. И., «Матем. сб.», 1984, т. 124, № 4, с. 536-56; [5] Dixon J. D., «Math. Z», 1969, Bd 110, № 3, S. 199-205; [6] Кнут Д., Искусство программирования для ЭВМ, иер. с англ., т. 3, М., 1978; [7] Степанов В. Е., «Теория вероятн. и ее примен.», 1969, т. 14, в. 4, с. 639-53; [8) Колчин В.Ф., Случайные отображения, М., 1984. В. Ф. Колчин. 588 СЛУЧАЙНАЯ СЛУЧАЙНАЯ ПОСЛЕДОВАТЕЛЬНОСТЬ (random sequence), случайный процесс с дискретным временем, временной ряд,- последовательность случайных величин Xk, k = 0, l, ..., на одном вероятностном пространстве (ft, л/, Р) с различными, вообще говоря, фазовыми пространствами (Ek, ^k), & = 0, 1,... Важность класса С. п. для общей теории случайных процессов объясняется двумя моментами: во-первых, большое число теоретико-вероятностных задач непосредственно приводит к понятию С. п. Во-вторых, дискретное время в технич. отношении гораздо проще непрерывного, так что изучение всякой новой проблемы (в рамках теории случайных процессов) обычно начинают с ее дискретного аналога. Вероятностные свойства С. п. Х0, Xv... однозначно определяются последовательностью вероятностных мер Р„ на (Е0хЕ1 х ... хЕп, .^х^ х... х.г/п), я = 0, 1,...: Ргг(Л0хЛ1х...хЛгг) = Р{^0еЛ0, X^gAv ..., ХпеАп], где Aj-e^j, / = 0, 1, ..., п. При различных п меры Р„ связаны очевидным условием согласованности: Ри^иохЛ1х...хЛяхЕя+1) = Ря(Л0хЛ1х...хЛя). Если все фазовые пространства (Ek, ,</л), k-0, 1, ..., являются борелевскими, то, как утверждает теорема Колмогорова, любая последовательность вероятностных мер Ря на (Е0 х ... х Еп> i</0 х ... х .с/п), п = 0, 1, ..., удовлетворяющая условию согласованности, отвечает нек-рой С. п. Хп} я = 0, 1,... Если меры Ря заданы как произведения условных распределений, то требование для фазовых пространств быть борелевскими в последнем утверждении может быть опущено. Точная формулировка составляет содержание следующего утверждения. Теорема Ионеску Тулчи: пусть P„(dx0x...xdxn) = P0(dx0)Yl}i=] Q(x0> ...tx^]dxk), где 0k^xo xk-\> А} ПРИ каждом фиксированном Ле.^ является С^х ... х.^_^-измеримой функцией на Е0х ...xEk^, а при всевозможных фиксированных х0, ..., xk_{ - вероятностей мерой на (Ek, .4k). Тогда найдутся вероятностное пространство (ft, i</, P) и С. п. Xk, & = 0, 1, ..., такие, что Р„(Лох...хЛ„) = Р{Х0еЛо ХпеА„) для всех я^0, Л. €.</,-; ; = 0, ..., п. Для борелевских фазовых пространств эта теорема как бы смыкается с теоремой Колмогорова, так как любая вероятностная мера на произведении борелевских пространств представима в виде произведения условных распределений. в. М. Шуренков. СЛУЧАЙНАЯ СУММА (random sum) - сумма случайного числа случайных величин. Пусть случайные величины Nt Xj, Х2,... заданы на одном вероятностном пространстве, причем N принимает только натуральные значения. Тогда случайная сумма- это случайная величина SN = XX + + ... + X;V. С. с. являются математич. моделями многих объектов в теории надежности, биологии, страховании и т.д. Моменты С.с. Если при каждом п^ 1 событие {N^п) и а-алгебра, порожденная величинами Х„+1, Хп+2, ..., независимы и £~=i P{N>n)E\Xn\<oof то Если величины Ы, Хи Х2,... независимы в совокупности, mj=EXJt of = DXj<°o,j^\, то DSjv = Eicf +... + а^) + ОЫ) + ... + mN).
Закон больших чисел для С. с. Пусть Х|, Х2,... - независимые одинаково распределенные случайные величины с ЕХг = т^0. Для определенности предположим, что т>0. Пусть натуральнозначные случайные величины {Njjk&i ПРИ каждом k^\ независимы от последовательности {X;};^lf Nk^>oo по вероятности, a F{x) - произвольная функция распределения. Тогда для сходимости -> F(x) (слабо при k -> оо), необходимо и достаточно, чтобы P[Nk<kx] -+F(x) (слабо при &->оо). Центральная предельная теорема для С.с. Пусть Xj, X2,... - независимые случайные величины с ЕХу = 0, /^1, удовлетворяющие условию Линдеберга. Пусть 0<a;2 = DXy<oo, y^i, в^ = а,2 + ...+а^ k&\t {dk}k>i - произвольная неограниченно возрастающая последовательность положительных чисел, Fix) - произвольная функция распределения, ФСг) - стандартная нормальная функция распределения. Предположим, что Nk-*<*> по вероятности при /г-><*>. Для того чтобы P\ — YN^Xj<x\^F(x) (слабо при *-><»), необходимо и достаточно существование неотрицательной случайной величины U такой, что F(x) - ЕФ(х/и), х е В?, и BN /dh^> U (слабо при /г-><~). Теорема переноса. Пусть {Х„;};>1, я = 1, 2,... - последовательность серий одинаково в каждой серии распределенных случайных величин, {N„}„;>1 - последовательность нату- ральнозначных случайных величин, причем при каждом п^ 1 случайные величины Nn, Xnl, Хп2>... независимы. Пусть {/гп}„^1 ~ последовательность натуральных чисел, а [ап}п^] и {сп}п>\ - последовательности действительных чисел. Предположим, что существуют случайные величины У, U и V такие, что У ." X„j- дп-> Y (слабо при п -»<*>), Nn/kn -> С/ и anNJkn - сп -> У (слабо при л -> «,). Тогда У =" Xnj -cn^>Z (слабо при л -> °°), где Z - случайная величина с характеристич. функцией f(0 = E[^'(Oexp{tW}], где h(t) = EeitY. При этом либо хотя бы одна из величин (7 или V является вырожденной, либо P{V-aU + b}= 1 для нек-рых действительных а или Ъ. Лит.: [1] Mogyorodi J., «Acta math. Acad. sci. hung.», 1966, t. 17, p. 401-09; [2] Биллингсли П., Сходимость вероятностных мер, пер. с англ., М., 1977; [3] Круглое В. М., Королев В. Ю., Предельные теоремы для случайных сумм, М., 1990; [4] Gne- d en ко В. V., KoroIevV.Yu., Random summation: limit theorems and applications, CRC Press, Boca Raton, FL, 1996. в. Ю. Королев. СЛУЧАЙНАЯ ФУНКЦИЯ (random function) - функция произвольного аргумента t (заданная на множестве Т его значений и принимающая или числовые значения, или более общие значения из какого-то векторного пространства) такая, что ее значения определяются с помощью нек-рого испытания и в зависимости от его исхода могут быть различными, причем для них существует определенное распределение вероятностей. В теории вероятностей основное внимание обычно уделяется числовым (то есть скалярным) С. ф. X(t)\ векторные же С. ф. X(t) можно рассматривать как совокупность скалярных функций Xa(t), где а пробегает конечное или счетное множество А номеров компонент вектора X, то есть как числовую С. ф., заданную на новом множестве Тх = Т<8)А пар (t, а), £е7\ аеД. Если множество Т конечно, то С. ф. X(t) на Т представляет собой конечный набор случайных величин, к-рый можно считать одной многомерной (векторной) случайной величиной, характеризуемой функцией распределения. Из числа С. ф. с бесконечным Т наиболее изучен случай, когда t принимает числовые (действительные) значения; в этом случае чаще всего t является временем, а С. ф. X(t) здесь называется случайным процессом (если же время t пробегает лишь целочисленные значения, то С. ф. также называют случайной последовательностью или временным рядом). Если значениями аргумента t являются точки нек-рого многомерного многообразия (напр., ^-мерного евклидова пространства В? ), то С. ф. X(t) называется случайным полем. Распределение вероятностей значений С. ф. X(t), определенной на бесконечном множестве Г, можно охарактеризовать совокупностью конечномерных распределений вероятностей для групп случайных величин {Х(^), X(t2), ..., X(tn)}, отвечающих всевозможным конечным подмножествам {^, t2, ..., tn] элементов 7\ то есть совокупностью соответствующих конечномерных функций распределения Ftvt2,...,tnlx\>x2> -.*„). удовлетворяющих следующим условиям согласованности: Ft t t t (x4,...,xnt°o§...too) = Ft t(xu...,xn), (1) где ij, ..., in - произвольная перестановка индексов 1, ..., п. Такое задание распределения вероятностей С. ф. X(t) достаточно во всех случаях, когда интересны лишь события, зависящие от значений X(t) на конечных множествах значений аргумента t. Однако такое задание С. ф. не позволяет определить вероятности свойств С. ф., зависящих от ее значений на бесконечном множестве значений t типа, напр. вероятности непрерывности или дифференцируемости С. ф. или вероятности того, что С. ф. X(t) на непрерывном множестве значений t будет удовлетворять неравенству X(t)<a (см. Случайный процессу Сепарабельный процесс). Более общее задание С. ф. связано с ее описанием как совокупности случайных величин Х = Х(со), заданных на одном и том же вероятностном пространстве (ft, Л, Р) (где ft - непустое множество точек со, .*/- выделенная а-алгебра подмножеств ft, a P - заданная на ^ вероятностная мера) и отвечающих всевозможным точкам t множества Т. При таком подходе под С. ф. на множестве Т следует понимать функцию X{ty со) двух переменных t е Т и сое ft, являющуюся ^-измеримой функцией со при каждом фиксированном значении t [то есть при фиксированном t обращающуюся в случайную величину, определенную на вероятностном пространстве (ft, j/, Р)]. Фиксируя значение аргумента со=со0 функции X(ty со), получают числовую функцию X(ty (oQ) = x(t) на Т, называемую реализацией (или выборочной функцией, или, если t- время, траекторией) С. ф. X(t); а-алгебра **/и мера Р при этом индуцируют а-алгебру подмножеств и определенную на ней вероятностную меру в функциональном пространстве IR ={x(t), teT) реализаций x(t), задание к-рой также можно считать эквивалентным заданию С. ф. Задание С. ф. как вероятностной меры, определенной на а-алгебре подмножеств функционального пространства В? всевозможных реализаций x(t)y можно рассматривать как СЛУЧАЙНАЯ 589
частный случай общего задания С. ф. как функции двух переменных X(t, со) [где со принадлежит вероятностному пространству (Q, Л, Р)], соответствующий условию, что Q = R? , то есть что элементарные события (точки со исходного вероятностного пространства) с самого начала отождествляются с реализациями x(t) С.ф. X(i)\ с другой стороны, можно также показать, что к такому заданию С.ф. с помощью указания вероятностной меры на II? сводятся и все другие способы задания С.ф. X(t). В частности, задание совокупности всевозможных конечномерных функций распределения Ft t (.Xj, ..., хп), удовлетворяющих условиям согласованности (1) и (2), в силу фундаментальной теоремы Колмогорова о согласованных распределениях (см. Вероятностное пространство) определяет вероятностную меру на а-алгебре подмножеств функционального пространства IP ~{x(t), ttT}, порожденной совокупностью цилиндрич. множеств вида {x(t) :[x(t\)t ..., x(tn)]e Вп}> где п - произвольное целое положительное число, а Вп - произвольное борелевское множество я-мерного пространства II?" векторов [x(t{), ..., x(tn)]. Лит. см. при ст. Случайный процесс. А. М. Яглом. СЛУЧАЙНАЯ ФУНКЦИЯ времени (random function of time) - то же, что случайный процесс. СЛУЧАЙНАЯ ФУНКЦИЯ; корреляционная теория (correlation theory of random functions) - см. Корреляционная теория случайных функций. СЛУЧАЙНАЯ ФУНКЦИЯ; моделирование (generation/simulation of a random function) - см. Моделирование случайных величин и функций. СЛУЧАЙНАЯ ФУНКЦИЯ; свойство в узком смысле (narrow sense property of a random function) - свойство случайной функции X(t), teT, определяемое отвечающим этой функции распределением вероятностей в функциональном пространстве ее реализаций и противопоставляемое родственному, но менее ограничительному свойству в широком смысле, определяемому уже только моментными функциями EX(t) = m(t) и EX(t)X(s) =B(t, s) первых двух порядков. А. М. Яглом. СЛУЧАЙНАЯ ФУНКЦИЯ; свойство в широком смысле (wide sense property of a random function) - свойство случайной функции X(t), teT, определяемое только ее моментами первых двух порядков EX(t) = m(t) и EX(t)X(s)-B(t} s) (то есть относящееся к корреляционной теории случайных функций) и противопоставляемое родственному, но более специальному свойству в узком смысле, определяемому уже всеми многомерными распределениями вероятностей величин X(t). Напр., стационарность в широком смысле случайного процесса Х(t) и однородность в широком смысле случайного поля X(t) на IP или 2k означает, что m(t + a) = m(t) и B(t + a, s + a) = B(t} s) при любом действительном числе или векторе а; марковость в широком с м ы с л е случайного процесса означает, что проекция вектора X(t) на подпространство пространства Нх (о нем см. в ст. Корреляционная теория случайных функций), натянутое на векторы XW) с t'^s< t, совпадает с проекцией X(t) на X(s) и т.д. Обычно га- уссовские С. ф. XU), обладающие нек-рым свойством в широком смысле, будут обладать также и соответствующим свойством в узком смысле; поэтому изучение класса С. ф., обладающих нек-рым свойством в широком смысле, тесно примыкает к изучению класса гауссовских С.ф., обладающих соответствующим свойством в узком смысле. д. м. Яглом. 590 СЛУЧАЙНАЯ СЛУЧАЙНАЯ ФУНКЦИЯ; спектральная мера (spectral measure of a random function) - см. Спектральное разложение. СЛУЧАЙНАЯ ФУНКЦИЯ; спектральное разложение (spectral decomposition/representation of a random function) - см. Спектральное разложение. СЛУЧАЙНОЕ БЛУЖДАНИЕ (random walk) - специального вида случайный процесс, к-рый можно интерпретировать как математическую модель перемещения частицы в нек-ром фазовом пространстве под воздействием нек-рого случайного механизма. Фазовым пространством обычно служит d-мерное евклидово пространство или целочисленная решетка в нем. Случайные механизмы могут быть различными; чаще рассматривают блуждания, порожденные суммированием независимых случайных величин или цепями Маркова. Термин «С. б.» используется также для обозначения марковских процессов на группах. Точного общепринятого определения Сб. не существует. Траектории простейших Сб. в случае d-\ описываются начальным положением 50 = 0 и последовательностью сумм Sn = X{ + ...+Xn, я=1,2,..., (1) где Xi независимы и имеют распределение Бернулли: Р{Х(=\}=р, Р{Х~-\}=д=\-р,ре(0,\). Значение Sn можно интерпретировать как выигрыш одного из двух игроков после п партий в игре, в к-рой этот игрок в каждой из партий выигрывает один рубль с вероятностью р и проигрывает его с вероятностью 1 -р. Если игра ведется с помощью подбрасывания симметричной монеты, то следует положить р=\/2 (симметричное блуждание). Пусть начальный капитал первого игрока равен Ь, а начальный капитал второго игрока равен а. В этих условиях игра закончится, когда блуждающая частица (с координатами Su 52,..) впервые коснется одного из уровней а или Ь. В этот момент один из игроков разорится. Это классич. разорения задача, в к-рой барьеры в точках а и Ь можно рассматривать как поглощающие. В приложениях, связанных с теорией систем обслуживания, частица вблизи барьеров а и Ь может вести себя иначе; напр., если й-оо, b-Оу то положение Zn+1 блуждающей частицы в момент и+1 в соответствии с (1) описывается соотношением Z„+1=max(0, Z„ + X„+1), (2) и барьер в точке 0 можно назвать задерживающим. Существуют, конечно, и другие возможности для поведения частицы вблизи барьеров. При а = оо получаются задачи для случайного блуждания с одной границей, а при а = Ь = °° - неог ра- ниченное случайное блуждание. Изучение таких С. б. проводится обычно с помощью аппарата дискретных цепей Маркова и, в частности, путем исследования соответствующих уравнений в конечных разностях. Для С. б. с одной границей (« = «>), описываемых соотношениями (2), при р < q и п -* оо существует стационарное распределение Z„, совпадающее с распределением случайной величины 5 = sup Sk; при этом P{S^k} = (p/q)\ * = 0, 1,... (3) Законы, описывающие неограниченное Сб., вытекают из теорем о поведении последовательных сумм Sn, я=1,2,... Один из этих законов утверждает, что для симметричного С б. (р= 1/2) частица почти наверное попадет (притом бесконечное число раз) в любую фиксированную точку а. При р<\/2 блуждание почти наверное уходит влево, при .этом случайная величина S [из (3)] почти наверное конечна.
Для симметричного С. б. время Кп> проведенное частицей на положительной полуоси (число положительных членов в последовательности Sv ..., 5„), будет с большей вероятностью ближе к 0 или я, чем к я/2. Это видно из так наз. закона арксинуса, в силу к-рого при больших я (см. [ 1 ]) Р {Kjn < х) * - arc sinVF. к Отсюда следует, напр., что Р{|К„/п-1/2|<1/4} = 1-2Р{К„<п/4} = 1/3 и что с вероятностью 0,2 частица проводит не менее 97,6% всего времени на одной стороне. Существуют соотношения, связывающие С. б. при наличии границ с неограниченными Сб. Напр., если положить Y(x)=mm{k:Sk>x), то (см. [2]) P{Y(x) = n)=fP{Sn = x). Положение Sn блуждающей частицы для неограниченного С. б. при больших я описывается законом больших чисел и центральной предельной теоремой. Если величины скачков ± 1 заменить на ± А при малом А и положить /? = (1+аД)/2, то положение частицы Sn после n=t/A скачков будет описывать приближенно (при А->0) поведение в момент времени t процесса диффузии со сносом а, коэффициентом диффузии t и с соответствующим поведением на границах а и -Ь (если таковые для С. б. Sn заданы). Существует много обобщений рассмотренных С. б. Простейшие С. б. в пространстве R? , d > 1, определяются следующим образом. Частица выходит из начала координат и перемещается за один шаг на расстояние 1 в одном из 2d направлений, параллельных осям координат. Таким образом, возможными положениями блуждающей частицы являются все точки R? с целочисленными координатами. Чтобы задать Сб., надо определить 2d вероятностей, соответствующих различным переходам. Симметричное Сб. получается, если каждая из этих вероятностей равна 2~ . В многомерном случае задачи с границами для Сб. значительно сложнее, так как при d>\ существенно усложняется форма границ (см. Многомерное случайное блуждание). Другое возможное обобщение простейших Сб. состоит в том, чтобы рассматривать в (1) произвольно распределенные независимые случайные величины Xit X2,... Основные качественные закономерности для неограниченных С б. и для блужданий с границами при этом сохраняются. Напр., блуждающая частица почти наверное достигает одну из границ а или -Ь. Если б = оо, то граница —Ь будет достигаться почти наверное, если EXj^O. Если Х{ целочисленны, ЕХ, = 0, то частица почти наверное вернется в исходное положение. Для произвольно распределенных Хх с ЕХ^ = 0 это утверждение сохранится лишь в случае, если рассматривать возвращение не в точку, а в интервалы. Решение задач, связанных с выходом С. б. за границы интервала (~Ь, а)} в общем случае оказывается значительно более трудным. В то же время эти задачи имеют многочисленные приложения в математич. статистике (последовательный анализ), в страховом деле, в теории систем обслуживания и др. При их исследовании определяющую роль играют методы граничных задач для случайных блужданий. Основные из них связаны с факторизационными тождествами (см. [3]), интегрально-разностными уравнениями, методами Вишика и Люстерника решения уравнений с малым параметром (см. [4]) и др. Исследование этих уравнений обнаруживает глубокие связи рассматриваемых задач с теорией потенциала. Многое из результатов о С б., порожденных суммированием независимых случайных величин, переносится и на С. б. с зависимыми скачками, когда случайные величины Sn связаны в цепь Маркова, а также на многомерные Сб. в IP , d > 1 (см. [5]). Лит.: [1] Феллер В., Введение в теорию вероятностей и ее приложения, пер. с англ., т. 1, М., 1984; [2) Боровков А. А., Теория вероятностей, М., 1976; [3] его же, Вероятностные процессы в теории массового обслуживания, М., 1972; [4] КоролюкВ.С., Боровских Ю. В., Аналитические проблемы асимптотики вероятностных распределений, К., 1981; [5] С п и це р Ф., Принципы случайного блуждания, пер. с англ., М., 1969. А. А. Боровков. СЛУЧАЙНОЕ БЛУЖДАНИЕ без самопересечений (self-avoiding random walk) - случайное блуждание, траектории к-рого посещают каждую точку решетки не более одного раза. С. б. без с ам опер ее е ч ен ий длины я называется последовательность Хп = {#(0), х(\), ..., х(п)} точек целочисленной решетки Ж , rf>l, такая, что #(0) = 0, \x(i)-x(i+ 1)1 = 1, x(i)*x(j) при i*j. Пусть с(п) - число различных таких С. б. длины я. На множестве всех С. б. без самопересечений определена вероятностная мера, если положить, что вероятности всех последовательностей Хп равны 1/с(я). Пусть (•>„ - усреднение по этой мере и d(n) = (х2(п))п, a Yn(t, Xn) = d~^2 x([n, г]), ге(0, 1). Основные задачи теории С. б. без самопересечений - исследование асимптотик функций с(я), d(n) при я -><*> и изучение предельного распределения для случайного процесса У„(г,Хя), я->«\ Проблемы, связанные с такими Сб., активно обсуждаются в физич. литературе в связи с задачами физики полимеров. При этом общепринята следующая картина. Считается, что с(п)~ const • p(d)VW)_1, d{n) ~ const- nx(n). При d>4 критич. индексы y(d)-x(d)= 1 и распределение Yn{ty Хп) слабо сходится к стандартно винеровской мере в R?d. При rf = 4 также имеется сходимость к винеровской мере, однако в асимптотики для с(п) и d(n) входят логарифмич. поправки. При d = 2,3 поведение Сб. негауссовское и сходимости к винеровской мере нет. Вычисления дают значения т(2) = 1,5, т(3)= 1,17. Строгие математич. результаты о Сб. без самопересечений немногочисленны. Так, показано, что существует lim c(n)1/w = p(rf)(cM. [1]); для достаточно больших раз- мерностей имеется сходимость к винеровской мере и критич. индексы y(d) = z(d)=\ (см. [2]); для самоотталкивающих С. б. или С. б. без самопересечений в слабом смысле имеется сходимость к винеровской мере (см. [3]). Лит.:[\] Kesten H., «J. Math. Phys>, 1964, v. 5, p. 1128-37; [2] Sla- de G., «Comm. Math. Phys.», 1987, v. 110, p. 661-83; [3J Bryd- ges D., Spencer Т., там же, 1985, v. 97, p. 125-48. К.М.Ханин. СЛУЧАЙНОЕ БЛУЖДАНИЕ в случайной среде (random walk in random enviromment) - случайное блуждание, в к-ром вероятности перехода (в случае блуждания с дискретным временем) или интенсивности перехода (для блужданий с непрерывным временем) являются реализациями нек-рого случайного поля. С физич. точки зрения С б. в случайной среде отвечает процессу диффузии в неоднородной среде. В простейшем случае блуждания по решетке Ж , d ^ 1, с возможными переходами в соседние точки решетки вероятности перехода определяются случайным полем {р±а(х), хеЖа} а= 1, ..., d) по формуле р(х, х±еа) =р±а(^), где еа - единичный вектор а-го направления. Обычно предполагают, что случайные величины р±а(х) являются независимыми для разных х или накладывают определенные условия убывания корреляций. В случае когда р±а(х) = \/2d + eq±a(x) и е мало, СЛУЧАЙНОЕ 591
говорят о малом случайном возмущении одного С. б. Обычно С. б. в случайной среде изучают или как общий случайный процесс, определенный на произведении вероятностных пространств, отвечающих среде и блужданию, или изучают условные распределения этого процесса при условии фиксированной реализации вероятностей перехода, то есть при фиксированной среде. Если при почти всех реализациях среды асимптотич. свойства Сб. не меняются, говорят, что Сб. в случайной среде обладает свойством самоусреднения. Различают симметричные С б. в случайной среде и несимметричные (или общие). 1. Симметричным Сб. в случайной среде называется С б., для к-рого почти наверное выполнено условие р(х, у)=р(у, х), x,yeld, или ра(х) =р_а(х+ еа). В этом случае для почти всех реализаций среды марковский оператор перехода на один шаг является самосопряженным. При достаточно широких предположениях (см. [1], [2]) симметричное С. б. в случайной среде является асимптотически нормальным с неслучайной (самоусредняющейся) матрицей ковариаций. По существу условия сводятся к тому, что вероятности перехода р±а(х) отделены от нуля. Если эти условия выполнены, то для почти всех реализаций случайной среды случайный процесс -=■ X([nt]), t € [0, 1], где Х(х) - положение блужда- ющей частицы в момент времени т, слабо сходится к вине- ровскому процессу с неслучайной невырожденной матрицей ковариаций а, для к-рой получено выражение в виде сходящегося ряда. Условие симметрии ра(х) = р~а(х + еа) может быть заменено другими условиями. Напр., ра(х)=р_а(х) или ра(х-еа)=р_а(х + еа), то есть равны вероятности выйти из точки в противоположных направлениях или вероятности войти в точку, используя противоположные направления. В этих случаях С. б. в случайной среде является асимптотически нормальным с неслучайной матрицей ковариаций. 2. Несимметричные Сб. в случайной среде достаточно полно изучены только в размерности d = 1. В простейшем случае рассматриваются только переходы на один шаг, и р(х, х + 1) = \/2 + гр(х), р(х, х- 1)= 1/2-е/?(*), где р(х), хеЖ , - совокупность независимых, одинаково распределенных случайных величин. Условие отсутствия сноса имеет вид ЕIn ~— ~- = 0 (см. [3]). Этот случай подробно 1/2 - гр{х) изучен в [4J. Оказалось, что в силу флуктуации вероятностей перехода на решетке образуются случайные запирающиеся области (ямы), в к-рых блуждающая частица проводит аномально большое время. Частица долго сидит вблизи дна соответствующей ямы, затем очень быстро перескакивает в следующую яму, где вновь находится очень долго, и т. д. При этом за время п частица смещается на расстояние порядка log2 л, а не как в случае обычной диффузии. В задаче не происходит самоусреднения в том смысле, что положение ям зависит от реализации случайного процесса р(х). Изучалось (см. [5J) распределение вероятностей, связанное с положением ям; в частности, дисперсия частицы, находящейся внутри ямы, оказалась конечной. Предыдущие результаты обобщаются на случай С. б. с переходами на конечное число шагов. Для размерностей d > 1 общие математически строгие результаты отсутствуют. В физич. литературе считается, что при d ^ 2 для достаточно малых случайных возмущений однородного Сб. запирающие области не приводят к существенному замедлению диффузии и случайный процесс -=- Xn([nt]), t e [0,1], слабо сходится к винеровскому процессу с неслучай- 592 СЛУЧАЙНОЕ ной матрицей ковариаций^ При d - 2 возможны логарифмич. поправки в нормировке Vw. Лит.: [1] Anshelevich V., Khan in К., Sinai Ya., «Comm. Math. Phys.», 1982, v. 85, p. 449-70; [2] Козлов СМ., Молчанов С. А., «Докл. АН СССР», 1984, т. 278, № 3, с. 531-34; [3] Kesten H., KozlovS., SpitzcrF., «Compos. Math>, 1975, v. 30, p. 145-68; [41 Синай Я. Г., «Теория всроятн. и се прнмен.», 1982, т. 27, № 2, с. 247-58; [5] Голосов А. О., «Успехи матсм. наук», 1986, т. 41, в. 2, с. 189-90. К. М. Ханин. СЛУЧАЙНОЕ БЛУЖДАНИЕ; возвратность (persistence/recurrence of a random walk) ~ свойство блуждающей частицы с вероятностью единица хотя бы раз вернуться в определенные ограниченные множества фазового пространства, из к-рого стартует случайное блуждание. Пусть случайное блуждание {5„} в В?1 порождается суммами Sn = Х1 + ... +Хп, п> 1, 50 = 0, независимых случайных величин в II? с общим распределением F. С. б. {5„} будет возвратным, если х;=ор^б/>=~ <•> для любого интервала / в случае нерешетчатого распределения F и для любого интервала /, содержащего точку вида к (k - целое) в случае арифметич. распределения с шагом 1. Распределение с математич. ожиданием m~EXk является возвратным, если ти = 0, и невозвратным, если т±0. Характе- ризация (*) возвратности Сб. в II? выглядит аналогично. Двумерное распределение с нулевыми математич. ожиданиями т и конечными дисперсиями является возвратным. Каждое невырожденное трехмерное С. 6. невозвратно. Если С. б. является цепью Маркова со счетным множеством состояний, то возвратность С. б. определяется через возвратность состояний цепи. Лит.: [1] Феллер В., Введение в теорию вероятностей и ее приложения, пер. с англ., т. 1-2, М., 1984; [21 Спицср Ф., Принципы случайного блуждания, пер. с англ., М., 1969. М. С. Сгибнев. СЛУЧАЙНОЕ БЛУЖДАНИЕ; граничный функционал (boundary functional of a random walk) - функционал от траектории случайного блуждания, связанный с достижением этой траекторией границы нек-рого множества. Для одномерного случайного блуждания XQ, X^, Х2, ... простейшими граничными функционалами являются: время первого достижения уровня х: г\(х) -m'm{k:Xk^x}, максимальные значения X„ = max Xk и X = sup Xk> величины эксцесса и дефекта блуждания (перескока и недо- скока) через уровень х\ X(*) = *n(*)-*> Y<*>=*-*n(*)-i и др. А. А. Боровков. СЛУЧАЙНОЕ БЛУЖДАНИЕ марковское (Markov random walk) - см. Многомерное случайное блуждание. СЛУЧАЙНОЕ БЛУЖДАНИЕ многомерное (multidimensional random walk) - см. Многомерное случайное блуждание. СЛУЧАЙНОЕ БЛУЖДАНИЕ на группе (random walk on a group) - специальный марковский процесс с дискретным или непрерывным временем, у к-рого марковский оператор перехода коммутирует с группой, транзитивно и свободно действующей на пространстве состояний. В случае дискретного времени п р а в о е случайное блуждание на группе есть однородный марковский процесс, у к-рого пространство состояний есть группа G, а оператор перехода за один шаг задается вероятностной мерой ц на G по формуле Р(*, Л) = Р(е, ^~1Л) = р,(дг_1Л), где с - единица группы. Если
G дискретна, то p(h\g) = uX<7 h). Для левого случайного блуждания на группе соответственно р{h\д) - Обычное С. 6. на решетке 1 или евклидовом пространстве П? , представляющее собой хорошо изученный простейший марковский процесс, есть частный случай С. 6. на группе. Рассмотрение более общего случая (напр., групп матриц) связано, во-первых, с различными приложениями (случайные среды, волноводы, уравнение Шредингера со случайным потенциалом), во-вторых, с общим гармонич. анализом на группах (теория потенциала, уравнение теплопроводности и диффузия на группах и однородных пространствах) и, наконец, с тем, что С. 6. на группах могут моделировать эффекты, встречающиеся в марковских процессах самого общего вида. Кроме того выяснилось, что изучение Сб. на группах полезно для изучения самих групп и их алгебраич. инвариантов. Основной вопрос теории Сб. на группах - вопрос о поведении траекторий на бесконечности. В неабелевом случае может возникать нетривиальная граница. Пусть G - дискретная группа, jlx — мера на ней, {#„}~=о есть Сб., у^-е} 9С~ - а-алгебра событий, измеримых относительно {г/^}~, % - Р 9С~ - хвостовая а-алгебра; соответствующее ей пространство (Г, v) называется граница-выход, здесь V - фактормера меры в пространстве реализаций. Если % - тривиальная а-алгебра, то Г - одноточечна и ее называют тривиальной границей. Граница Г тривиальна, если группа G абелева, нильпотентна или имеет субэкспоненциальный рост числа слов. Напротив, для классич. полупростых групп, свободных групп и даже для нек-рых разрешимых и локально конечных групп граница нетривиальна. Граница-выход совпадает с границей Пуассона, активной частью границы Мартина и в ряде случаев со стационарной границей. Явное вычисление границы тем самым равносильно нахождению всех ограниченных гармонич. функций jGf(gx)dil(x)=f(g), \fy)\*K, то есть нахождению асимптотики функций Грина на бесконечности. Для классич. групп граница тесно связана с границей в смысле теории симметрич. пространств. Напр., граница С. б. для широкого класса подгрупп группы SL(2, IP) есть абсолют плоскости Лобачевского. На аменабельной группе всегда существует мера, для к-рой С. 6. имеет тривиальную границу, хотя могут существовать меры, для к-рых С. 6. имеет нетривиальную границу. Напротив, на неаменабельных группах у С. 6. с невырожденной мерой граница всегда нетривиальна. Каждая точка границы Г порождает условный марковский процесс, однородный по времени, но уже неоднородный по пространству (то есть не являющийся С. 6. на группе). Его граница тривиальна, и для него можно ставить обычные вопросы о применимости центральной предельной теоремы и ее уточнений. Для изучения границ полезно понятие энтропии С. 6. на группе. Пусть \1 - мера с конечной энтропией на G; ц" есть п-я свертка ц, то есть распределение С. 6. уп. Тогда lim -Жи") = Л.. существует и называется энтропией случайного блуждания на группе. Условие Л^О равносильно тривиальности границы. Имеет место теорема Шеннона: ±1пцп(уп)^Ац для почти всех траекторий. Другое условие тривиальности границы в терминах равномерного распределения: для любого по вероятности. С. 6. на группах матриц GL(k, Ю связаны с показателями Ляпунова: теорема Оселедца утверждает, что для любого х е IR почти всюду существует предел Нт ±-\п\упх\=\(х), Л-> о© П где {уп} - С. 6. на GL(k, IR); Х(-) называется показателем Ляпунова для С. 6. на группе; они находят применение в разнообразных задачах теории динамич. систем, теории представлений и др. Граница С. 6. на фундаментальной группе связана с границей диффузионного процесса на накрывающем многообразии. Ряд вопросов о Сб. на группах связан с теорией групп. Напр., критерий аменабельности Кестена выражается в терминах Сб. на группах: вероятность возвращения в единицу \1п(е) на п-м шаге С. 6. с симметричной мерой jla. удовлетворяет условию lim -lnu"(e) = 0 тогда и только тогда, когда группа аменабельна. Лит.: [1] СазоновВ. В., Ту ту бал ин В. Нм «Теория вероятн. и ее примен.», 1966, т. 11, в. 1, с. 3-55; [2] Дынкин Е.Б., Юшкевич А. А., Теоремы и задачи о процессах Маркова, М., 1967; [3J Маргулис Г. А., «Докл. АН СССР», 1966, т. 166, с. 1054-57; [4} К est en H., «Trans. Amer. Math. Soc.», 1959, v. 92, p. 336-54; [5] FurstenbergH., там же, 1963, v. 108, p. 377-428; [6] Kaima- novichV., Vershik A., «Ann. Probab.», 1983, v. 11, >Jb 3, p. 457-90. Л. М. Вершик. СЛУЧАЙНОЕ БЛУЖДАНИЕ на группе; локальные теоремы (local theorems for a random walk on a group) - утверждения, дающие (или оценивающие) вероятность попадания за произвольное число п шагов случайного блуждания в фиксированную область локально компактной группы, выраженную в терминах свойств группы, геометрии, характеристик области и числа п. Понятие локальных теорем сначала возникло для случая аддитивной группы действительных чисел, а потом и П?*', одновременно с интегральными теоремами. Однако более тонкие результаты в (1? и (1? были получены позже в связи с развитием методов теории характеристич. функций и применениями в статистич. механике, аддитивных задач теории чисел. В настоящее время классич. теория локальных теорем приобрела в основном законченный вид (см. [1]). Необходимо подчеркнуть, что случаи непрерывных и дискретных распределений, в силу различий арифметич. природы носителей распределений, развивались независимо, но параллельно. Однако существует один замечательный результат, объединяющий эти два случая: если распределение Ft в И? нерешетчато, то есть \jemdF^x)\<\, в*0, последовательности констант Вп и Ап таковы, что Fn(Bn(x + Ап)) -► F, где F1 из области притяжения F, имеющего плотность, и Fn - п-я свертка Ft, a P(xt h) = F(x+h)-F(x), Pn(x, h) = Fn(x + h)-Fn(x), то имеет место (см. [2]): Рп(Вп(х+Ап), Bnh) = P(xt h) + on(\)(hd + B?} СЛУЧАЙНОЕ 593
Для случая групп рассматривают несколько типов локальных теорем: 1) локальные теоремы, описывающие поведение плотностей или вероятностей (дискретный случай), то есть локальные теоремы классич. типа; 2) локальные теоремы для отношений вероятностей попадания в две различные, но фиксированные области, к-рые в пределе стремятся к отношению инвариантных мер этих областей (так наз. относительно инвариантные локальные теоремы); 3) локальные теоремы на однородных пространствах, где действует рассматриваемая группа. Они могут быть как классическими, так и относительными локальными теоремами. В случае коммутативных групп, в частности для IR или IR , локальные теоремы типа 1) и 3) совпадают, так как в этих случаях однородное пространство совпадает с группой. Специфика локальных теорем особенно проявляется для некоммутативных случаев. Первоначально локальные теоремы в некоммутативном случае были получены для компактных групп и для однородных пространств таких групп. В этом случае предельные интегральные и локальные теоремы фактически эквивалентны и их разделение на локальные или интегральные зависит от точки зрения или от постановки задачи. Большое число работ посвящено относительным локальным теоремам для дискретных групп. Основной факт в этой группе теорем состоит в относительно одинаковой вероятности любого элемента дискретной группы (см. [4]). Локальные теоремы для некоммутативных локально компактных групп рассмотрены на примере групп евклидовых движений. Первым результатом в этом направлении является относительная локальная инвариантная предельная теорема для композиции одинаковых распределений с конечным и равнораспределенным носителем вида Л, В, Л~ , В' , где А - поворот плоскости относительно фиксированной точки на угол, несоизмеримый с 2я, а В - произвольный сдвиг плоскости (см. [5]). Позднее получена относительная инвариантная локальная теорема для группы M(d) движений d-мер- ного евклидова пространства для сверток одинаковых мер с достаточно общим видом распределений (см. [6]). Наиболее законченный результат при условии конечности вторых моментов у свертываемых распределений, заданных в группе евклидовых движений, получен в [7] в форме локальной предельной теоремы, предложенной Ч. Стоуном [2]. Более точно, если Xj, X2, ..., Хп, ...- независимые М(б/)-значные случайные величины с одинаковым распределением v, v - распределение поворота из SO(d), Fv - распределение сдвигов в IR , то при выполнении условий а)-в) (приводимых ниже) для всякой ограниченной жордановой измеримой области 2) € IR справедливо равенство Р{#„е 2>} = сmes(2)n~d/2 + o(n~d/2)f где <£п - случайная компонента сдвига произведения Х^Х2...Хп} mes (3>) - мера Лебега области 2>, с - константа, не зависящая от области и равная значению в нуле плотности предельного распределения для -=- #„. Эти условия таковы: а) п-я свертка v распределения v слабо сходится при и-><»к равномерному распределению на SO(d); б) распределение Fv на IRrf имеет конечные вторые моменты; в) существует целое я0>0 и множество К, KczSO(d)f меры v(K)>0 такое, что для каждого ае К носитель распределения v*n (а) [где v(а) - условное распределение v при фиксированном аеК] не содержится в конечном объединении гиперплоскостей. Отсюда вытекают все известные относительные инвариантные теоремы в группе M(d) для распределений с конечной дисперсией, в частности результаты, изложенные в [5], [6]. 594 СЛУЧАЙНОЕ Аналогичный результат получен для случая, когда в интегральной предельной теореме есть сходимость к устойчивому закону на группе M(d) (см. [8]). Лит.; [ 1 ] П е т р о в В. В., Суммы независимых случайных величин, М., 1972; [2] Stone Ch.J., «Ann. Math. Statist», 1965, v. 36, p. 546-51; [3] Арнольд В. И., Крылов А. Л., «Докл. АН СССР», 1963, т. 148, № 1, с. 9-12; [4] Gui varch Y., Keane M., Roynette В., «Lect. Notes in Math.», 1977, v. 624; [51 Каждая Д. А., «Тр. Моск. матем. об-ва», 1965, т. 14, с. 299-305; [6] BaldiP., Bougerol Ph., Crepe] P., «С. г. Acad, sci.», ser. A, 1976, t. 283, p. 53-55; [7] Maximov V.M., «Z. Wahr. und verw. Geb.», 1980, Bd 51, S. 27-38; [8] Хохлов Ю.С., «Докл. АН СССР», 1981, т. 260, № 2, с. 295-99. В. М. Максимов. СЛУЧАЙНОЕ БЛУЖДАНИЕ, непрерывное сверху (снизу) (continuous from above (below) random walk) - см. Граничные задачи для случайных блужданий. СЛУЧАЙНОЕ ВОЗМУЩЕНИЕ динамической сие темы (random perturbation of a dynamical system) - возмущение динамической системы, производимое тем или иным случайным процессом (как правило, с нулевым средним), напр. белым шумом. Изучение малых С. в. динамич. систем было начато в 30-х гг. (см. [1]). Основные задачи, связанные с поведением возмущенной системы на бесконечном, или безгранично возрастающем с уменьшением возмущений отрезке времени: об асимптотике инвариантной меры, о предельном поведении распределений времени и места выхода из области, из к-рой траектории невозмущенной системы не выходят, и т. п. Простейший, но важный результат здесь состоит в том, что предел инвариантной меры возмущенной системы при уменьшении возмущений есть инвариантная мера невозмущенной системы. Для изучения характеристик такого поведения оказывается существенной асимптотика вероятностей больших уклонений траекторий возмущенной системы от невозмущенной на конечных отрезках времени. Более всего изучалась схема однородных по времени С. в. динамич. систем x(t) - Ь(х(0) малым белым шумом, приводящих к диффузионному процессу с диффузией, пропорциональной малому параметру е; задачи, о к-рых говорилось выше, естественно переформулируются в терминах эллиптич. и параболич. уравнений, связанных с оператором 2-го порядка с малым параметром при старших производных: Вероятности больших уклонений траектории хЧО возмущенной системы от траекторий x(t) невозмущенной на конечном отрезке [Ти Т2] характеризуются так наз. функционалом действия: е"15(ф) = е"15ГгГ2(ф), где sTiJ2b)=s*> \ £.. ^<ф«»<ф'«»- -ЬЧф(0)(ф>(0)-6;(ф(0) (матрица а^ - обратная к аг} ). Более точно: вероятность того, что xz(t) будет на отрезке [Тх, Т2] близка к функций ф(0 при малых е, приближенно равна exp {-e~ ST j(<p)} (в предположении, что Xj =yT). Для проведения процесса xz{t) с малым е на больших отрезках времени оказывается существенным отношение эквивалентности между точками пространства, в к-ром действует динамич. система: х~у, если существуют функции Ф и у, соединяющие х с у и у с х (то есть ф0 = х, Фг ~У^ Уо = #» Vt ~хт) со сколь угодно малыми значениями 5(ф), 5(у). Если имеется конечное число компактов Kif состоящих из эквивалентных друг другу точек и содержащих все со-предельные множества невозмущенной системы, возмущенная система на больших отрезках времени в определенном смысле похожа на конечную цепь Маркова, зависящую от
параметра е с вероятностями перехода порядка exp {-e~ V{Л, где V,. - нижняя грань функционала S по функциям, соединяющим i-й компакт с ;-м. Это позволяет в случае «общего положения» указать, на каком компакте Ki будет прие>10 сосредоточиваться инвариантная мера, и решать задачи, связанные с выходом траектории возмущенной системы из области (см. [2]). Если на предельном компакте имеется более одной нормированной инвариантной меры невозмущенной системы, возникает вопрос, к какой из них сходится инвариантная мера возмущенной системы. Особенно интересен этот вопрос, когда невозмущенная система обладает сильными свойствами перемешивания и характеризуется сама по себе «стохастическим» поведением. Результаты, относящиеся к предельному поведению инвариантной меры в этом случае (для динамич. систем с дискретным временем), содержатся в [3], в последнее время появились такого рода результаты и для схемы непрерывного времени. Другая схема малых возмущений - возмущения, не зависящие от параметра, но убывающие с течением времени,- рассматривается в [4] с приложениями к процедурам стохастич. аппроксимации. Лит : [1] Понтрягин Л., Андронов А., Витт А., «Ж. экс- перим. и теор. фи:*.», 1933, т. 3, № 3, с. 165-80; [21 Вент- цель А. Д., Ф рей длин М.И., Флуктуации в динамических системах под действием малых случайных возмущений, М., 1979; [3] Ки- фер Ю. И., «Изв. АН СССР. Сер. матем.», 1974, т. 38, № 5, с. 1091-115; [4] Коростелев А. П., Стохастические рекуррентные процедуры. Локальные свойства, М., 1984. А. Д. Вентцель. СЛУЧАЙНОЕ ВЫПУКЛОЕ МНОЖЕСТВО (random con vex set) - см. Случайное множество. СЛУЧАЙНОЕ ДЕРЕВО (random tree) - случайный элемент нек-рого множества Т деревьев, имеющий равномерное распределение на Г, то есть с равными вероятностями принимающий любое значение из Т. Числовые характеристики С. д. являются случайными величинами. Пусть Тп - множество всех корневых деревьев с выделенной вершиной, называемое корнем, и п некорневыми вершинами с номерами 1, ..., п. Наиболее естественными характеристиками С. д. из Тп являются: \1г(Тп) - число вершин кратности г, \i(t, Tn) - число вершин высоты t, высота дерева T(Tn) = m'ax{t:\i(t} Tn)>0}. Если и-><*>, то для любого фиксированного г-0, 1, ... равномерно относительно целых k, для к-рых и - (k - npr)/(oT~Jn) лежит в любом конечном интервале, имеет место равенство P{\ir(Tn) = k} = \= е-"2/2 (1 + о(1)), Огу12т1П где Gr ~pr{\ -рт- (1 -г) рг) и рт = е~ /г\. Для любых фиксированных целых положительных k\, ..., kt при я —><» Pfti(l, rB) = *, n(t, ГЯ) = *(}-*Р{1 +$, = А,}х xP{l+5, + ...+ik-*2}...P{l+$l + ...+$*M = *f}. где £j, £2» •••" независимые одинаково распределенные случайные величины, для к-рых Р{^ =г} = е~ /г!, г-0, 1, ... Если я, t -> оо так, что f/V/T-> 0, то для любого фиксированного х > 0 Р {2ц (t, Tn)/t^ х] -» 1 - е~х - хе~х. При п -> о© для любого фиксированного х > 0 p{i(r„)/v^ ^ £Г=-~ (1-*2*2)е"*2'2/2- Пусть R - множество целых неотрицательных чисел, содержащее 0 и не совпадающее с {0, 1}; TnR- подмножество всех деревьев из Тп, кратности вершин к-рых принимают значения из R, Z,R(X) - случайная величина с распределением P{5»a) = fe}= Xk*~X ч, k€R, PU,fl) = Y D -^-. Существует такое XR, что E^R(XR)-\. Пусть BR = D£,R(XR). Ограничения на кратности не приводят к существенному изменению свойств С. д. по сравнению со С. д. из Тп. Напр., предельные распределения х(Тп)уп и t(Tn R)^lBR/n, где i(Tn R) - высота С. д. из TnRt совпадают. Пусть \irU, Tn R) обозначает число вершин высоты t и кратности r\ \i(t, R) ~ начинающийся с одной частицы однородный ветвящийся процесс Гальтона - Ватсона с дискретным временем £ = 0, 1, ..., в к-ром распределение числа потомков одной частицы совпадает с распределением ^R(X). Пусть, далее, \ir(t, R) обозначает число частиц в этом процессе в момент tt имеющих ровно г потомков, и v(#) - число частиц, существовавших в процессе \i(t, R) за все время его эволюции. Для матриц i\LrUtTntR)l, |и,г(г, Д)|, t, r = 0, 1, .... п и любой матрицы М того же размера при любом X > 0 имеет место соотношение Р{||цА гп>к)||=м}=Р{|Цга, K)|=M|v(K)=n + t}. Это соотношение сводит изучение распределений ряда характеристик С. д. из TnR к изучению условных распределений соответствующих характеристик ветвящегося процесса \iU, R). Свойства С. д. из других множеств (множества некорневых деревьев с занумерованными вершинами, множества деревьев с незанумерованными вершинами, множества плоских деревьев и др.) изучены мало. Лит.: [1] Кол чин В. Ф., Случайные отображения, М., 1984; [2] Сачков В. Н., Вероятностные методы в комбинаторном анализе, М., 1978. В.Ф. Колчин. СЛУЧАЙНОЕ КОДИРОВАНИЕ (random coding) - один из методов кодирования, при к-ром каждому возможному значению сообщения, вырабатываемому источником сообщений, ставится в соответствие случайно выбранное значение сигнала на входе канала связи. При этом на множестве возможных кодов (наборов значений сигналов на входе канала) задается нек-рое распределение вероятностей (так наз. ансамбль кодов). Часто предполагается, что каждый элемент кода (то есть значение сигнала на входе, соответствующее данному значению сообщения) выбирается независимо от других и в соответствии с данным распределением вероятностей. Иногда С. к. определяют так, чтобы каждая реализация С. к. была линейным кодом (см. Блоковый код). Важность рассмотрения С. к. связана с тем обстоятельством, что осредненная по всем реализациям ошибочного декодирования вероятность дает относительно легко исследуемую оценку сверху для вероятности ошибочного декодирования оптимального кода (см. Случайное кодирование; граница). С. к. используется таюке для кодирования источников и каналов сетей, являясь основным методом вычисления области пропускной способности многокомпонентных каналов. Лит.: [1] Галлагер Р., Теория информации и надежная связь, пер. с англ., М., 1974; [2] Добру шин Р. Л., «Успехи матем. наук», 1959, т. 14, в. 6, с. 3-104; [3] Колесник В. Д., Полты- рев Г. III., Курс теории информации, М., 1982; [4] Чисар И., Кернер Я., Теория информации, пер. с англ., М., 1985; [5] Шеннон К., Работы по теории информации и кибернетике, пер. с англ., М., 1963, с. 243-332. С. И. Гельфанд, Р. Л. Добрушин. СЛУЧАЙНОЕ КОДИРОВАНИЕ; граница (bound of ran dom coding) - верхняя граница для ошибочного декодирования вероятности при передаче сообщений по каналу без СЛУЧАЙНОЕ 595
памяти. Пусть показатель экспоненты случайного кодирования Er(R), R>0, для дискретного стационарного канала без памяти с входным алфавитом У, выходным алфавитом Y и множеством переходных вероятностей р(у \у) определяется равенством Er(R)= max max [E0(p, q) -pR], (*) o«p«i q где q-{q{y)y yeY}- произвольное распределение вероятностей на У, a Е0(р, q) - так наз. функция Галлагера: £0(р. ,) = -ln£^ [Xy€V qiy) ipiyW^Y ■ Тогда средняя вероятность ошибочного декодирования при передаче по данному каналу с помощью оптимального блокового кода длины N, имеющего скорость R, оценивается сверху (имеет границу случайного кодирования): P°pt ^ ехр { - NEr(R)}. Границу С. к. можно интерпретировать также как оценку снизу для надежности функции E(R) данного канала: E(R)>Er(R). Известно, что если все переходные вероятности р(у\у) положительны, то функция Er(R), определенная формулой (*), является положительной, выпуклой и, монотонно убывающей функцией при 0 ^ R < С, где С - пропускная способность канала. Если р(у \у) — О для нек-рых пар у, у, то может оказаться, что существует С0>О (называемое пропускной способностью канала при нулевой ошибке) такое, что Er(R) = оо при 0 ^ R < С0. Пусть через Rcr обозначено наименьшее значение R, для к-рого опорная прямая к выпуклой кривой Er(R) имеет тангенс угла наклона - t (Rcr называется критической скоростью). Тогда при Rcr<:R<C имеет место равенство Er(R)-Esp(R), где Esp- показатель сферич. упаковки (см. Плотной упаковки граница), являющийся верхней границей для E(R). Таким образом, при Rcr^R<C известно точное значение E(R), то есть совпадающие в главных членах асим- птотич. верхние и нижние границы для вероятности P°pt оптимального ошибочного декодирования. Существует и другая форма границы С. к. (см. [t]). Уточнение границы С. к. дает так наз. граница с выбрасыванием (см. [2], [4]). Лит.: [1] Галлагер Р., Теория информации и надежная связь, пер. с англ., М., 1974; [21 Колесник В. Д., Полтырев Г. Ш., Курс теории информации, М., 1982; [3] Чисар И., Кернер Я., Теория информации, пер. с англ., М., 1985; [4] Арутюнян Е. А., «Пробл. передачи информ.», 1968, т. 4, в. 4, с. 37-48. С. И. Гельфанд. СЛУЧАЙНОЕ КОМПАКТНОЕ МНОЖЕСТВО (compact random set) - см. Случайное множество. СЛУЧАЙНОЕ МНОЖЕСТВО (random set) - измеримое отображение А семейства элементарных исходов произвольного вероятностного пространства (Q, .*/, Р) в нек-рое пространство М, элементами к-рого являются множества. Существуют различные уточнения понятия С. м. в зависимости от структуры множества значений. Так, если М - топологич. пространство, то измеримость понимается в борелевском смысле. Наиболее распространенными являются случаи: 1) M = J- топологич. пространство замкнутых множеств (нек-рого топологич. пространства 5, называемого базовым), тогда См. есть замкнутое случайное множество] 2) М-Ф- топологич. пространство открытых множеств, тогда См. есть открытое случайное множество; 3) М = Ж- топологич. пространство пар (D, D), где D<^S, D - внутренность, aD - замыкание 596 СЛУЧАЙНОЕ D; здесь приходят к так наз. случайным физически различным множествам (см. [4]); 4) М-Ж (или Ж') - топологич. пространство компактных (соответственно непустых компактных) множеств, при этом получают случайное (непустое) компактное множество; 5) M = conv (Ю - подпространство выпуклых элементов Ж (или Ж'), при этом получают случайное выпуклое множество. Для задания распределения случайного замкнутого множества используется сопровождающий функционал, в терминах к-рого удобно описывать многие свойства С. м. Теория случайных открытых и физически различимых множеств с помощью стандартных переформулировок получается из теории случайных замкнутых множеств. Для решения нек-рых задач достаточно использовать значения сопровождающего функционала на конечных множествах - так наз. точечный закон распределения случайного множества, к-рый в общем случае не определяет однозначно распределение См. Существует, однако, класс сепарабель- ных См., для к-рых точечный закон полностью задает распределение: это С. м. со свойством A = AC\D, где D счетно и всюду плотно в 5. Важными частными классами См. являются безгранично делимые случайные множества, гауссовские случайные множества, изотропные случайные множества, полумарковские случайные множества, стационарные случайные множества, устойчивые случайные множества. Существуют и другие способы определения См., не требующие задания предварительной (базовой) топологии; важнейшие из них: способ Кендалла, основанный на понятии «ловушки» (см. [t]); метод сведения к случайным функциям (напр., опорным функциям в случае выпуклости множеств); способ, использующий метрику Колмогорова - Хемминга (меру сим- метрич. разности множеств). Особую разновидность представляет собой конечное случайное множество. Наиболее развитыми разделами теории С м. являются случайных множеств статистика, предельные теоремы для случайных множеств, методы вычисления различных характеристик распределений (см. Математическое ожидание случайного множества, Дисперсия случайного множества, Среднее значение случайного множества, Среднемерное множество). Лит.: [1) Kendall D.G., в кн.: Stochastic geometry, N. Y., 1974; [2] Choquet G., «Ann. Inst. Fourier», 1953-54, t. 5, p. 131-295; [3] Michael E., «Trans. Amer. Math. Soc», 1951, v. 71, p. 152-82; [4] Матерон Ж., Случайные множества и интегральная геометрия, пер. с англ., М., 1978. Н. Н. Ляьиенко. СЛУЧАЙНОЕ МНОЖЕСТВО безгранично делимое (infinitely divisible random set) - см. Безгранично делимое случайное множество. СЛУЧАЙНОЕ МНОЖЕСТВО га ус со в с кое (Gaussian random set) - см. Гауссовское случайное множество. СЛУЧАЙНОЕ МНОЖЕСТВО; дисперсия (variance of a random set) - см. Дисперсия случайного множества. СЛУЧАЙНОЕ МНОЖЕСТВО; закон больших чисел (law of large numbers for random sets) - см. Предельные теоремы для случайных множеств. СЛУЧАЙНОЕ МНОЖЕСТВО з амкнутое (closed random set) - см. Замкнутое случайное множество. СЛУЧАЙНОЕ МНОЖЕСТВО изотропное (isotropic random set) - см. Изотропное случайное множество. СЛУЧАЙНОЕ МНОЖЕСТВО конечное (finite random set) - см. Конечное случайное множество.
СЛУЧАЙНОЕ МНОЖЕСТВО; математическое ожидание (expectation of a random set) - см. Математическое ожидание случайного множества. СЛУЧАЙНОЕ МНОЖЕСТВО открытое (open random set) - см. Открытое случайное множество. СЛУЧАЙНОЕ МНОЖЕСТВО полумарковское (semi- Markov random set) - см. Полу марковское случайное множество. СЛУЧАЙНОЕ МНОЖЕСТВО; предельные теоремы (limit theorems for random sets) - см. Предельные теоремы для случайных множеств. СЛУЧАЙНОЕ МНОЖЕСТВО; проекция (projection of a (random set) - см. Проекция случайного множества. СЛУЧАЙНОЕ МНОЖЕСТВО; распределение (distribution of a random set) - см. Сопровождающий функционал. СЛУЧАЙНОЕ МНОЖЕСТВО; среднее значение (mean value of a random set) - см. Среднее значение случайного множества. СЛУЧАЙНОЕ МНОЖЕСТВО; статистика (statistics of a random sets) - см. Статистика случайных множеств. СЛУЧАЙНОЕ МНОЖЕСТВО стационарное (stationary random set) - см. Стационарное случайное множество. СЛУЧАЙНОЕ МНОЖЕСТВО; точечный закон рас пределения (point law of distribution of a random set) - см. Точечный закон распределения случайного множества. СЛУЧАЙНОЕ МНОЖЕСТВО устойчивое (stable random set) - см. Устойчивое, случайное множество. СЛУЧАЙНОЕ ОТОБРАЖЕНИЕ (random mapping) - случайный элемент а множества Т,п всех однозначных отображений множества Хп-{\, ..., п) в себя. Со. соответствует случайный граф Тп с множеством вершин Хп, в к-ром вершина k соединена дугой с ее образом ak при отображении а, k= 1, ..., п. Компонента связности каждой реализации случайного графа Гя содержит ровно один контур; вершины, принадлежащие контурам, называются циклическими. Под Со. из T.Q Zn обычно понимается С о. а, для к-рого P{a = s} =121" для любого seZf где |z| - число элементов в Z. Пусть аг(2) обозначает число компонент, содержащих ровно г вершин, v(Z) - общее число компонент, A.(Z) - число циклич. вершин в С о. из Z. Если в Гп убрать дуги, соединяющие циклич. вершины, то Гп превратится в лес. Пусть М-ДЕ) обозначает число деревьев в этом лесу, содержащих ровно г вершин, и т(Е) - высоту отображения, равную максимальной высоте деревьев этого леса. Наиболее полно изучены характеристики Со. из Ln. Для любого целого N-\, ..., п имеет место равенство P{Xa,n) = N} = N(n-\)\/(n-N)\nN. Если п—>°°, то равномерно относительно целых N, для к-рых z = N/<n лежит в любом интервале вида 0 < z ^ с < <», справедливо равенство 2 <пР{Ш„)/<п=г}=ге2/Ч\+о(\)). Циклич. вершины образуют в Г„ случайную подстановку, поэтому число компонент v(Z„) при п —> °° асимптотически нормально со средним и дисперсией, равными - In п. Для любого фиксированного г=0, 1, ... случайная величина ar(Z„) имеет в пределе распределение Пуассона с параметром -г . k К~~~ У,*-п ТГ* Если п—>оо, то для любого фиксированного г = 0, 1, ... равномерно относительно целых k, для к-рых z=k/{pr<n~) лежит в любом интервале вида 0<г0^г^г^<<х>, имеет место равенство Pr<h~P{iLraj/(py(n~) = z}=ze-z2/2(\+o(\)), где рг = (г+ 1)г е г+ /г\. При п -> °о для любого фиксированного х > О справедливо соотношение Пусть R - множество целых неотрицательных чисел, содержащее 0 и не совпадающее с {0, 1}, и 1я R есть подмножество всех отображений из 1п, для к-рых число прообразов каждого элемента из Хп принимает значение из R. Ограничения на число прообразов не приводят к существенному изменению свойств Со. Напр., предельное распределение для т(1п R)^Br/n, где Вг - нек-рая постоянная, совпадает с предельным распределением для t(I„)/VtT. В общем случае в Со. a-образы а{, ..., ап соответственно элементов 1, ..., п суть случайные величины с произвольным совместным распределением на (Хп)п. Для С. о. из 1я случайные величины Oj, ..., оп независимы и с равными вероятностями принимают любое значение из Хп. Ряд результатов получен для Co., в к-ром aj, ..., ап независимы и одинаково распределены, в частности выписана формула для вероятности того, что граф такого Со. содержит ровно одну компоненту (см. [3]). Лит.: [1] Колчин В. Ф., Случайные отображения, М., 1984; [2] Сачков В. Н., Вероятностные методы в комбинаторном анализе, М., 1978; [3] Степанов В. Е., «Теория вероятн. и ее примен.», 1969, т. 14, в. 1, с. 64-77; [4] Калугин И. Б., «Матем. заметки», 1983, т. 34, № 5, с. 757-71. " В. Ф. Колчин. СЛУЧАЙНОЕ ПЛАНИРОВАНИЕ (random desing) - см. Отсеивающих экспериментов планирование. СЛУЧАЙНОЕ ПОЛЕ (random field), случайный процесс с многомерным временем или с многомерным параметром, - случайная функция, заданная на множестве точек какого-то многомерного пространства. С п. представляет собой важный тип случайных функций, часто встречающийся в различных приложениях. Примерами С п., зависящих от трех пространственных координат х, у, z (a также от времени i) могут служить, в частности, поля компонент скорости, давления и температуры турбулентного течения жидкости или газа (см. Турбулентность, а также [1]); С п., зависящим от двух координат хну, будет высота z взволнованной морской поверхности или поверхности какой-либо шероховатой пластинки (см. [2]); при исследовании глобальных атмосферных процессов в масштабе всей Земли поля наземного давления и других метеорологич. характеристик иногда рассматриваются как С п. на сфере, и т. д. Теория С. п. общего вида фактически не отличается от общей теории случайных функций; более содержательные конкретные результаты удается получить лишь для ряда специальных классов С п., обладающих дополнительными свойствами, облегчающими их изучение. Одним из таких важных классов является класс однородных случайных полей, заданных на однородном пространстве S с группой преобразований G и обладающих тем свойством, что распределения вероятностей значений поля на произвольной конечной группе точек пространства S или же среднее значение поля и вторые моменты его значений в парах точек не меняются при применении к аргументам поля какого-либо преобразования из группы G. Однородные случайные поля на евклидовом пространстве IP , k = 2, 3 или на решетке Ж точек (1? с целочисленными координатами, отвечающие выбору в качестве группы G совокупности всевозможных (или всех целочисленных) параллельных переносов, являются естественным обобщением стационарных случайных процессов, на к-рое переносится большая часть результатов, доказанных для таких процессов; СЛУЧАЙНОЕ 597
большой интерес для приложений (в частности, для механики турбулентности; см. [1]) представляют также так наз. однородные и изотропные случайные поля на IP и IP , отвечающие выбору в качестве группы G совокупности всевозможных изометрич. преобразований соответствующего пространства. Важной особенностью однородных С. п. является существование спектральных разложений специального вида как самих таких полей, так и их корреляционных функций (см. [3], [4]). Другим, привлекающим много внимания классом С. п., является класс марковских случайных полей, заданных в нек-рой области J£ пространства IP . Условие марковости С. п. U(x), грубо говоря, означает, что для достаточно широкой совокупности открытых множеств Q, имеющих границу Г, фиксация значений поля U в е-окрестности Г6 границы Г при любом е>0 делает семейства случайных величин {U(x), х е QNr6} и {U(x)t х еТ\ТЕ}, где Т - дополнение замыкания О в Ж, взаимно независимыми (или, в случае марковости в широком смысле, взаимно некоррелированными; см., напр., 15]). Обобщением понятия марковского случайного поля является понятие L-м ар к о вс к о го случайного поля, для к-рого указанная выше независимость (или некоррелированность) имеет место лишь при замене границы Г области Q специальным образом определенной утолщенной границей Г + L. Теория марковских С. п. и L-марковских С. п. имеет ряд важных применений в физич. теории квантованных полей и в статистич. физике (см. [6], [7]). Еще одним интересным классом С. п., возникшим из задач статистич. физики, является класс Гиббса случайных полей, распределения вероятностей к-рых могут быть выражены через Гиббса распределение (см. [7], [8]). Удобным способом задания гиббсовских С. п. оказалось их задание с помощью совокупности условных распределений вероятностей значений поля в конечной области, отвечающих фиксированным всем его значениям вне этой области. С. п. на гладком многообразии S часто удобно рассматривать как частный случай обобщенного случайного поля, для к-рого могут не существовать значения в одной заданной точке, но имеют смысл сглаженные значения U(<p), представляющие собой случайные линейные функционалы, определенные на нек-ром пространстве D гладких основных функций <р(х). Обобщенные С. п. (особенно обобщенные марковские С. п.) широко используют в физич. приложениях; рассматривая лишь функции ф(дг) такие, что J <p(x)dx = 0, в рамках теории обобщенных С. п. легко определить также родственные случайным процессам со стационарными приращениями локально однородные (и локально однородные и локально изотропные) С. п., играющие важную роль в статистич. теории турбулентности (см., напр., [1], [9]). Лит.: [1] Монин А.С, Яглом А. М., Статистическая гидромеханика, ч. 1-2, М., 1965-67; [2] Хусу А. П., Витенберг Ю. Р., Пальмов В. А., Шероховатость поверхностей (теоретико-вероятностный подход), М., 1975; [3] Хеннан Э., Представления групп и прикладная теория вероятностей, пер. с англ., М., 1970; [4] Ядрен- ко М. И., Спектральная теория случайных полей, К., 1980; [5J Розанов Ю. А., Марковские случайные поля, М., 1981; [6] Саймон Б., Модель Р(ф)2 эвклидовой квантовой теории поля, пер. с англ., М., 1976; [7J Престон К., Гиббсовские состояния на счетных множествах, пер. с англ., М., 1977; [8] Малышев В. А., Мин л ос Р. А., Гиббсовские случайные поля, М., 1985; [9] Гель- фанд И.М., Вилепкин Н. Я., Некоторые применения гармонического анализа. Оснащенные гильбертовы пространства, М., 1961. А. М. Яглом. СЛУЧАЙНОЕ ПОЛЕ ветвящееся (branching random field) - см. Ветвящееся случайное поле. СЛУЧАЙНОЕ ПОЛЕ гармонизуемое (harmonizable random field) - см. Гармонизуемое случайное поле. 598 СЛУЧАЙНОЕ СЛУЧАЙНОЕ ПОЛЕ; закон больших чисел <law of large numbers for random fields) - см. Больших чисел закон для случайных полей. СЛУЧАЙНОЕ ПОЛЕ изотропное (isotropic random field) - см. Изотропное случайное поле. СЛУЧАЙНОЕ ПОЛЕ локально изотропное (locally isotropic random field) - см. Случайное поле с изотропными приращениями. СЛУЧАЙНОЕ ПОЛЕ локально однородное (locally homogeneous random field) - см. Случайное поле с однородными приращениями. СЛУЧАЙНОЕ ПОЛЕ на локально компактной группе (random field on a locally compact group) - случайная функция аргументов, изменяющихся на локально компактной группе. Наиболее изученным классом С. п. на локально компактной группе являются однородные поля. Поле Х(д), geG, на группе G называется левым (правым) однородным в узком смысле, если распределения значений поля на произвольных наборах элементов git ..., g„zG не меняются при левых (правых) сдвигах <7г->^ lgt->g^) этих элементов для любого seG; если же Е|Х(^)| <°° и среднее значение, а также второй момент поля Х(д) инвариантны относительно всех левых (правых) сдвигов аргументов, то поле Х(д) называется левым (правым) однородным в широком смысле. Левое однородное в широком смысле непрерывное в среднем квадратичном поле Х(д) с ЕХ(д) = 0 на сепарабель- ной локально компактной группе G типа 1 и его корреляционная функция B0 = EX(sg)X(s) допускают спектральные разложения Х(д)=\. tr[Ua(MZUMl B(g)=\. tr[t/„tt)F(rfA.)l, <>G JG * где G - дуальный объект группы G, Z(a"k) и F(dX) - меры на а-алгебре Макки в G, значениями к-рых служит соответственно случайные и неотрицательные неслучайные линейные операторы, действующие в тех же гильбертовых пространствах Н(к), что и непрерывные неприводимые унитарные представления g->Ug(X) группы G, причем след trF(G)<<*> и для любых хх, х2, у\, Уч е Н(к) E(Z(A1)j:1i x2)(Z(A2)yuy2) = (x]} y1)(F(A1nA2)y2, x,) (см. [1]). Для однородных в широком (узком) смысле полей Х(д), geG, имеют место статистич. (индивидуальные) эрго- дич. теоремы, обобщающие подобные утверждения для стационарных случайных процессов (см. [2], [3]). Классами С. п. на локально компактной группе, родственными однородным в широком смысле нолям, являются почти однородные поля; поля, обладающие осредненным спектром, а также гармонизуемые поля на абелевых группах (см. [4]-[6]). Наличие развитой теории обобщенных функций на локально компактных группах (см. [7]) позволяет рассматривать обобщенные С. п. на локально компактной группе, представляющие линейные непрерывные случайные функционалы на пространствах основных функций на соответствующих группах (см. [8]). Лит.: [1] Yaglom A.M., в кн.: Proceeding of the 4-th Berkeley Symposium Mathematical Statistic and Probability, v. 2, Berk. - Los Ang., 1961, p. 593-622; [2J Темпельман А. А., «Литов. матем сб.», 1962, т. 2, JSf? 1, с. 195-233; [3J его же, «Тр. Моск. матем. об-ва», 1972, т. 26, с. 95-132; [4] П ономаренко А. И., «Докл. АН СССР», 1982, т. 262, К» 6, с. 1316-18; [5J Vo-Khac Khoan, «Bull. Soc. math. France», memoire 6, 1966, p. 2-175; [61 Weron A., «Z. Wahr. undverw. Geb.», 1985, Bd 68, № 4, S. 473-91; [7] Maurin K., General eigenfunction expansions and unitary representations of topological groups, Warsz., 1968; [81 Пономаренко А. И., «Теория веро- ятн. и матем. статистика», 1983, в. 29, с. 100-09. А. И. Пономаренко.
СЛУЧАЙНОЕ ПОЛЕ обобщенное (generalized random field) - см. Обобщенное случайное поле. СЛУЧАЙНОЕ ПОЛЕ однородное (homogeneous random field) - см. Однородное случайное поле. СЛУЧАЙНОЕ ПОЛЕ однородное и изотропное (homogeneous and isotropic random field) - см. Однородное и изотропное случайное поле. СЛУЧАЙНОЕ ПОЛЕ пуассоновское (Poisson random field) - см. Пуассоновское случайное поле. СЛУЧАЙНОЕ ПОЛЕ per улярное (regular random field) - см. Регулярное случайное поле. СЛУЧАЙНОЕ ПОЛЕ с изотропными приращениями (random field with isotropic increments), локально изотропное случайное поле, - случайное поле X(s) = {X1(s), ...,Xk(s)} (вообще говоря, многомерное и комплексное), заданное на евклидовом пространстве IR" точек s = (su ..., sn) и обладающее гем свойством, что: или 1) распределение вероятностей любой совокупности разностей X(s2)-X(S]), X(s4)-X(s3), ..., X(s2m)-X(s2m-i) не меняется при произвольном параллельном переносе, вращении или зеркальном отражении g множества точек 8Х> s2, ..., s2m пространства IR", сопровождающемся линейным преобразованием U компонент Xv ..., Xk, отвечающим преобразованию g в нек-ром fc-мерном представлении °U группы G всевозможных изометрич. преобразований д, или же 2) ма- тематич. ожидания как разностей Xz(s2) -Xz(Sj), i=l, ..., k, так и произведений разностей [Х,(*2) - Xfa)] [X/*4)-X/Sj)] не меняются при любом преобразовании д пары точек st, s2 или соответственно четверки точек s{, s2, s3, s4, сопровождающемся линейным преобразованием Ug компонент Xj, ..., Xk. В случае 1) поле X(s) называется случайным полем с изотропными приращениями (или локально изотропным полем) в узком смысле величин X, преобразующихся по представлению i/G при преобразованиях д пространства II?" (напр., скаляров, векторов или тензоров определенного ранга); поле X тогда будет скалярным, векторным или тензорным С. п. с изотропными приращениями в узком смысле, а в случае 2) оно называется таким же полем в широком смысле. С.п. с изотропными приращениями иногда называется также случайным полем с однородными и изотропными приращениями (или же локально однородным и локально изотропным случайным полем). В таком случае полем с изотропными приращениями иногда называется поле, для к-рого в приведенном выше определении группа G = {д} заменяется более узкой группой вращений вокруг фиксированной точки О и отражений относительно плоскостей, содержащих О (см. Изотропное случайное поле). Средние значения E[X,(s2) -X,(st)] для С. п. с изотропными приращениями при широких условиях оказываются тождественно равными нулю; поэтому самыми важными статистич. характеристиками С. п. с изотропными приращениями в широком смысле являются структурные функции Е[Х;(5, +г,) -Х^ПХ^ + г2) - X;<jfc)] = Di;.(i, -ж2; г„ г2). Функция Dn(s; rlP r2) = D(s; rt, r2), отвечающая одномерному (то есть скалярному) С. п. с изотропными приращениями X1(s)-X(s), может быть просто выражена через функцию скалярного аргумента E|X(s + r) -X(s)|2 = D(r), r= |г|, допускающую спектральное представление вида D(r)=j~(\- cos kr)d<t>(k)+Ar2, (1) где А^О, O(fe) - неубывающая функция на полуоси (0, °°), удовлетворяющая условию £77^ФШ<" (2) (см. [1]-[4]). Структурный тензор Dijis, r„ r2) = E[X,-(*1+*+r1)-Xi(*1+*)][Xy(*1+r2)-X/(*2)] векторного С. п. с изотропными приращениями в широком смысле выражается через две неотрицательные функции одного переменного г, также допускающие спектральное представление, родственное (1), но включающее уже две неубывающие функции Oj(fe) и Ф2(6), удовлетворяющие условию типа (2). В важных частных случаях, когда векторное поле X(s) является либо соленоидальным, либо потенциальным, одна из этих двух функций тождественно обращается в нуль. С. п. с изотропными приращениями впервые появились в колмогоровской теории локально изотропной турбулентности, где такие поля (как скалярные, так и векторные) играют важную роль (см. [5] и гл. 6, 8 в [2]). Лит.: [1] ЯгломА. М., «Теория вероятн. и ее примем.», 1957, т. 2, в. 3, с. 292-338; [2] Монин А.С., Я г лом A.M., Статистическая гидромеханика. Механика турбулентности, ч. 2, М., 1967; [3] ГельфандИ. М., ВиленкинН.Я., Некоторые применения гармонического анализа. Оснащенные гильбертовы пространства, М., 1961; [4] Yaglom A.M., Correlation theory of stationary and related random functions, v. 1-2, N.Y. - [a.o.J, 1987; [5] Колмогорова. H., «Докл. АН СССР», 1941, т. 30, № 4, с. 299-303 (Избр. тр. Математика и механика, М., 1984, с. 281-87). ^ м. Яглом. СЛУЧАЙНОЕ ПОЛЕ с однородными приращениями (random field with homogeneous increments), локально однородное случайное п о л е, - случайное поле Х(*) = {*,(*), ...,ХЙЫ} (вообще говоря, многомерное и комплексное), заданное на конечномерном пространстве IR " = {*:$ = (s{, ..., sn)} и обладающее тем свойством, что или 1) распределение вероятностей любой совокупности разностей X(s2)-X(*t), X(s4)-X(*3), ..., Xis^-Xis^.,) не меняется при произвольном параллельном переносе 2т точек *], s2, ..., s2m, или же 2) математические ожидания как разностей Xr(s2) -X^Sj), i=l, ..., k, так и произведений разностей [Xi(«2)-Xt(s1)] [X;(s4) - Х<ф], i,/=l,..., k, не меняются при любом параллельном переносе пары точек s^, s2 или соответственно четверки точек jj, s2, S3» *4- В случае 1) поле X(s) называется случайным полем с однородными приращениями (или локально однородным) в узком смысле, а в случае 2) оно называется таким же полем в широком смысле. Понятие С. п. с однородными приращениями является обобщением понятия случайного процесса со стационарными приращениями, в к-рое оно обращается при л=1. Основными статистич. характеристиками С. п. с однородными приращениями в широком смысле являются средние значения приращений компонент поля Е[Х{(я + г)-Х{(1)] = т((г), i=l, ..., k, и структурные функции E[Xf(*,+r1)-XI.(*1)][X;.(^ + r2)-Xy(^)] = Di>(f1-*2; г„ г2), *\/=1, .... k. СЛУЧАЙНОЕ 599
В случае действительного одномерного С. п. с однородными приращениями Xj(s) функция Du(s; rv r2) = D(s; ru r2) может быть просто выражена через функцию одного переменного E[X^(s + r)-X^is)] =D(r) (см. Структурная функция). Для непрерывного в среднем квадратичном С. п. с однородными приращениями функции т{(г), i= 1, ..., /г, всегда являются однородными линейными функциями векторного аргумента г, а функции X(s), D^is; rx> r2) и D(r) могут быть заданы своими спектральными представлениями, включающими интегралы Фурье - Стилтьеса и обобщающими спектральные представления однородных С. п. на IR" и их корреляционных функций (см., напр., [1]-[4]). Лит.: [1] Яглом A.M., «Теория вероятн. и ее примен.», 1957, т. 2, в. 3, с. 292-338; [2] Монин А. С, Яглом A.M., Статистическая гидромеханика. Механика турбулентности, ч. 2, М., 1967; [3] ГельфандИ. М., ВиленкинН. Я., Некоторые нрименения гармонического анализа. Оснащенные гильбертовы пространства, М., 1961; [4] Yaglom A. М., Correlation theory of stationary and related random functions, v. 1-2, N. Y. - [a.o.], 1987. A. M. Яглом. СЛУЧАЙНОЕ ПОЛЕ; статистический анализ (statistical analysis of random fields) - см. Статистический анализ случайных полей. СЛУЧАЙНОЕ ПОЛЕ точечное (point random field) ~ см. Точечное случайное поле. СЛУЧАЙНОЕ РАЗБИЕНИЕ (random partition) - случайный объект со значениями во множестве разбиений множества Хп на непересекающиеся подмножества. Примерами разбиений являются разбиения множеств конечной мощности и разбиения натуральных чисел. Число разбиений множества Хп, состоящего из п различных элементов, равно Тп, где Тп, я = 0, 1, ..., суть числа Белла, определяемые соотношением tn 2Ln=o ■ exp{ef -1}. Пусть £п - число подмножеств (блоков), а Г)„ ~ число различных размеров подмножеств в Ср. Хп. Если все Ср. равновероятны, то где а(я, /) - числа Стирлинга второго рода. При я - место соотношения > имеют ■*»*£• *-- , Еу\п~е\пп, (Inn)2 распределение случайной величины <DU"1/2[5.-4/lnn] сходится к стандартному нормальному распределению и Т|п(Ег)п)_1 -> 1 по вероятности. Равновероятные Ср. конечных множеств без ограничений на размеры блоков являются частным случаем общей вероятностно-комбинаторной схемы Ср. (см. [1]). В такой схеме размеры блоков разбиений должны быть элементами последовательности А с {1 f 2, ...}, а каждому разбиению, удовлетворяющему этому условию, приписывается вероятность (Т„)~ , где Т* - общее число разбиений Хп, размеры блоков к-рых лежат в А. Разбиением натурального числа я называется представление п в виде суммы я- Х\ + Х2 + ... + Xk, в к-рой все слагаемые- натуральные числа, причем Х^ ^Х2^... ^Xk. Множество разбиений числа я находится во взаимно однозначном соответствии со множеством разбиений множества Хп, состоящего из неразличимых элементов. Если р(п) - число всех разбиений п, то 600 СЛУЧАЙНОЕ Пусть С,п и 0П - число слагаемых и число различных слагаемых соответственно в С. р. п. Если все разбиения равновероятны, то при п -►<*> ЕС~—л/^1пн,Е8 ~-^6я. Лит.: [1J Сачков В. Н., Вероятностные методы в комбинаторном анализе, М., 1978; [2] Erdos P., Leh пег J., «Duke Math. J.», 1941, v. 8, № 2, p. 335-45; [3] OdlyzkoA.M., Richmond L. В., «J. Comb. Theory», ser. A, 1985, v. 38, № 2, p. 170-81. В. А. Ватутин. СЛУЧАЙНОЕ РАЗМЕЩЕНИЕ (random allocation) - вероятностная схема, в к-рой п частиц случайно размещаются в N ячейках. В наиболее простой схеме равновероятных размещений каждая из п частиц независимо от других частиц может попасть в любую фиксированную ячейку с вероятностью \/N. Пусть цг = цг(л, N) ~ число ячеек, в к-рых после такого размещения оказалось ровно г частиц, и пусть 0 ^ г^ < г2 < ... < rs. Производящая функция -W Ф(г; *р ..., xs) = =i;=oi; ,=о^к=* имеет следующий вид: = ег + — (х< -1)+... + — (х -1) (0 Функция (1) позволяет вычислять моменты \ir и изучать асимптотич. свойства распределения \ir при n,N->°°. Эти асимптотич. свойства в значительной степени определяются поведением параметра а = n/N - среднего числа частиц на одну ячейку. Если я, N ->°° и a=0(N), то при фиксированных г и t E\Lr~Npr(a), cov(\ir, \it)~Nart(a), (2) где pr(a) = (ar/r])e~a и ort(o) = pr(o)[8rt -M«>-ft<«>(a~,'*a"t)]. Sr, - символ Кронекера. Можно выделить пять различных типов областей, в к-рых асимптотич. поведение \ir различно, Центральной областью называется такая область изменения я, N -> °°, для к-рой a = n/AfX 1. Область я, N -> <», в к-рой a-><*>, Е\ir->X, О<X<<*>, называется правой г - о б - ластью. Правой промежуточной r-областью называется область изменения h,N->°°, в к-рой a-><*>, Ецг-><*>. Для г^2 левой r-областыо называется область изменения я, N-***>, для к-рой а->0, Ецг->А., 0<\<оо. Левой промежуточной г-областью называется область, в к-рой а->0, Ецг-><*>. Левые и левые промежуточные r-области для г = 0, 1 считают совпадающими с соответствующими 2-областями. В равновероятной схеме размещения в правой r-области \ir имеет асимптотически пуассоновское распределение. В левой r-области \ir имеет при г^2в пределе также пуассоновское распределение; при г - О и г - 1 предельные пуассоновские распределения имеют \i0-N + n и (h-u^)/2. В левых и правых промежуточных r-областях \хг имеют асимптотически нормальное распределение. В центральной области доказана многомерная центральная теорема для р.г , ..., р.г; параметры предельного нормального распределения определяются асимптотич. формулами (2). Если частицы размещаются независимо друг от друга и вероятность каждой из частиц попасть в /-ю ячейку равна a , 1, то имеет место полиномиальное размещение частиц. % N
В схеме размещения частиц комплектами предполагается, что частицы размещаются в N ячейках комплектами по т частиц, причем частицы одного комплекта могут располагаться в ячейках только по одной, а расположения комплектов независимы. Лит.: [1] Кол чин В. Ф., Севастьянов Б. А., Чистяков В. П., Случайные размещения, М., 1976. Б. А. Севастьянов. СЛУЧАЙНОЕ СЕЧЕНИЕ многогранника (random section of a polyhedron) - многоугольник, получающийся при пересечении многогранника случайной плоскостью. Часто распределение случайной плоскости берется пропорциональным сужению меры плоскостей, инвариантной относительно группы движений. С. с. используется в математич. стереологии. В комбинаторной интегральной геометрии (см. [1]) получены удобные для вычислений формулы, к-рые выражают распределения {рп} числа п углов С. с. через растворы двугранных углов и длины ребер и диагоналей. Для прямых призм высоты h и N-угольным основанием периметра Н Ея_4 + (А,_4>_4_ В классе прямоугольных параллелепипедов (см. [2]) Ew = 4, Р4>Рз>Р5>Рв> причем для куба вероятности р3, /?5> Рв Достигают своего максимума, а р4 ~~ минимума. Мит.: [11 AmbartzumianR. V., Combinatorial integral geometry, N.\. - [а. о.], 1982; [2J Сукиасян Г. С, «Докл. АН СССР», 1982, т. 2вЗ, № А, с. 809-12. Г. С. Сукиасян. СЛУЧАЙНОЕ СОБЫТИЕ (random event) - любая комбинация исходов нек-рого опыта, имеющая определенную вероятность наступления. Пример 1. При бросании двух игральных костей каждый из 36 исходов опыта может быть представлен парой (i, /), где i - число очков на верхней грани первой кости, а j - на верхней грани второй. Событие «сумма выпавших очков равна 11» есть не что иное, как комбинация двух исходов: (5, 6) и (6, 5). Пример 2. При бросании наудачу двух точек на отрезок [0, 1] совокупность всех исходов опыта можно представить точками (л, у) (х - координата первой точки, у - второй) квадрата {(х, у) :0^х^ 1, 0^#^1}. Событие «длина отрезка, соединяющего х и у меньше а, 0 < а < 1» есть не что иное, как множество исходов - точек квадрата, отстоящих от диагонали, проходящей через начало координат, на расстояние, меньшее а/^2. В рамках общепринятой аксиоматики теории вероятностей (см. [1 ]), где в основе вероятностной модели лежит вероятностное пространство Ш, t< P) (Q - пространство элементарных событий, то есть совокупность всех исходов данного опыта, .</ есть о-алгебра подмножеств Л и Р - вероятностная мера, определенная на классеtV), случайные события- это множества, входящие в класс d. В первом из приведенных выше примеров пространство ft - это конечное множество, состоящее из 36 элементов - пар (i,/), l^f, j^6, .с/- класс всех 2 подмножеств ft (включая само ft и пустое множество 0) и для каждого А е.«/ вероятность РС4) равна ти/36, где т - число элементов А. Во втором примере ft есть множество точек единичного квадрата, .V- класс его борелевских подмножеств, Р- обычная мера Лебега на .<?/ (совпадающая для простых фигур с их площадью). Класс .«/событий, связанных с вероятностным пространством (ft, i< P), является по отношению к операциям /4 + #=С4\#)и(#\Л)(симметрич. разность) и АВ = АГ)В булевым кольцом ft с единицей, то есть булевой алгеброй. Определенная на этой булевой алгебре функция Р(Л) обладает всеми свойствами нормы, кроме одного: равенство Р(Л) = 0 не влечет Л = 0. Объявляя события эквивалентными, если Р мера их симметрич. разности равна нулю, и рассматривая вместо событий А классы эквивалентности А, приходят к нормированной булевой алгебре М классов А. На этом замечании основан другой возможный подход к аксиоматике теории вероятностей, при к-ром исходным является не вероятностное пространство, связанное с данным опытом, а нормированная булева алгебра С. с. (см. [2], [3]). Лит.: [1] КолмогоровА. Н., Основные понятия теории вероятностей, 2 изд., М., 1974; [2] ГнеденкоБ. В., КолмогоровА. Н., Теория вероятностей, в кн.: Математика в СССР за тридцать лет. 1917-47, М. - Л., 1948; [3] Kol mogor о v А. N.. в кн.: VI Zjazd Mathematyk6w Polskich, Krakow (1948), 1950, с. 22-30; [4] Хал- мош П., Теория меры, пер. с англ., М., 1953, Ю. В. Прохоров. СЛУЧАЙНОЕ УРАВНЕНИЕ алгебраическое (random algebraic equation) - см. Алгебраическое случайное уравнение. СЛУЧАЙНОЕ УРАВНЕНИЕ на группе (random equation in a group) ~ уравнение вида a(xv ..., xn)-b, где х{ - элементы группы X, а() - случайное отображение Хп в группу G (пусть для определенности G аддитивна), &eG. Задачи со Су. возникают в теории вероятностных автоматов и теории кодирования с приложением к построению помехоустойчивых кодов и вычислительных процессов. Пусть at(xv ...txn) = bit l^i^N, (•) - система Су. при случайных отображениях д,(), заданных на едином вероятностном пространстве. Основные задачи о системе (*): исследование распределения числа viWn решений из Хп или числа vN„(3D решений из нек-рого множества Ж <= X" и, в частности, вероятности разрешимости системы; взаимное расположение решений в пространстве Хп, напр. расстояния Хемминга между ними; вероятностные свойства (напр., средняя сложность) алгоритмов решения системы; соотношение между vNn и комбинаторными характеристиками типа числа циклов случайной подстановки. Многие свойства систем Су. выводятся из комбинаторных соображений. Так, если bi - независимые равновероятные элементы из G, причем вектор (b]t ..., bN) не зависит от (fljO), ..., aN()), то EvWll(W=|«|/|G|v,EvA,(I=|Jf|"/|G|A'. Если а{(хх, ..., хп) равновероятны и независимы в совокупности при различных i, хх, ..., хп, то при любом фиксированном векторе (Ьх, ..., bN) величина vNn(£) распределена по биномиальному закону. Однако большинство результатов о С. у. имеет асимптотич. характер: п, N —► <» обычно в схеме серий. Широко применяется представление где ^\гп(х) - индикатор решения системы С. у. вектором х = (хх, ..., хп). Это представление позволяет находить предельные распределения типа пуассоновских методом моментов. Системы линейных Су. Пусть K = G - конечное поле и число его элементов \G\ -r, а{(хх, .... *„) = *„*,+ ...+а,.яхя, где <iv - независимые равновероятные случайные величины в G и fy = 0. Вероятности Ра^Ш-Р^-Л kef, СЛУЧАЙНОЕ 601
интерпретируются как характеристики неоднородного случайного блуждания в четверть плоскости и задаются явной формулой; в частности, PiV„(0) = (l-r-1)(l-r-2)...(l-r-N). При независимых равновероятных а^, bk вероятность совместности системы Хп а х-Ъ X^i^N равна У rn pNn(k). В широком классе случаев (в частности, при независимых ai}} для к-рых P{af, = Z}>5>0, z e G) предельное распределение vNn для однородных систем при я-»°о, N-n - const существует и инвариантно относительно распределений ду. При этом для любого набора линейно независимых решений X* = [*(, ..., xfy i^t^k, частота тех/, для к-рых (Xjt ..., х- ) = (et, ..., ek), стремится по вероятности к г . Нек-рые свойства инвариантности исследованы для однородных и неоднородных уравнений в некоммутативных конечных кольцах, а также для систем Су. вида V.fly(*y) = = bt, где аЛ-) - случайные эндоморфизмы абелевых групп. Лит.:[\\ Ковал енко И. Н., Левитская А.А., СавчукМ.Н., Избранные вопросы вероятностной комбинаторики, К., 1986. И. Н. Коваленко. СЛУЧАЙНОЕ ЧИСЛО (random number) - см. Случайные и псевдослучайные числа. СЛУЧАЙНОЕ ЯВЛЕНИЕ (random phenomenon) - протекающее спонтанно или воспроизводимое в ходе эксперимента наблюдаемое явление, исход к-рого не предопределен в рамках его наблюдения (или постановки эксперимента). Основным объектом рассмотрения в теории вероятностей и ее приложениях является математич. модель для массовых явлений, обладающих свойством устойчивости частот. Каждое С. я. описывается по Колмогорову своим вероятностным пространством (ft, Л, Р), где Q - множество всех мыслимых исходов со наблюдения, называемое пространством элементарных событий,.»/ (алгебра событий) - нек-рая а-алгеб- ра подмножеств А £ £1. При наблюдении нек-рого элементарного исхода со осуществляются все события Лэоз. Принадлежность самих одноточечных множеств {со} к л/не постулируется. Количественную характеристику С. я. дает вероятностная мера Р на измеримом пространстве (ft, Л) - распределение вероятностей исходов явления. Вероятность Р(Л) приближенно предсказывает частоту \{А)/п наступления случайного события А в длинной последовательности п независимых случайных испытаний (наблюдений С. я.). Математически строгая характеризация точности и надежности такого предсказания vC4)/?2« PC4) может быть дана только на вероятностном языке (см. Больших чисел закон). Н. Н. Чепцов. СЛУЧАЙНЫЕ И ПСЕВДОСЛУЧАЙНЫЕ ЧИСЛА (ran dom and pseudo-random numbers) - числа %п (или цифры а„), последовательность к-рых обладает теми или иными статистическими закономерностями. Различают случайные числа (СЧ), генерируемые каким-либо стохастич. устройством, и псевдослучайные числа (ПЧ), конструируемые с помощью арифметич. алгоритмов. При этом обычно (с большим или меньшим основанием) принимают, что полученная (или построенная) последовательность обладает комплексом частотных свойств, «типичным» для последовательности независимых реализаций какой-либо случайной величины X с функцией распределения F(z), и говорят о (независимых) СЧ, распределенных по закону F(z). Наиболее употребительны равномерно распределенные на отрезке 602 СЛУЧАЙНОЕ [О, 1]СЧ^(РРСЧ), Р{*т<х) = х, 0^*^1,атакже равновероятные двоичные случайные знаки а,, (РДСЗ), Р{ая = 0} = Р{а„= 1}= 1/2 и нормальные СЧ т|„ с нормальным распределением со средним 0 и дисперсией 1. СЧ с произвольной функцией распределения, а также коррелированные СЧ могут быть построены по РРСЧ (см. Моделирование случайных величин и функций). Разряды двоичной записи РРСЧ являются РДСЗ; наоборот, группируя РДСЗ в последовательность бесконечных последовательностей, получают РРСЧ. С. и п.ч. используют в статистич. играх, математич. статистике, криптографии и кодировании для рандомизации, то есть конкретной реализации недетерминированных алгоритмов и поведения, предсказуемого лишь «в среднем». Напр., если очередное а„ = 0, то игрок выбирает первую стратегию, а если ап = 1, то вторую. Широко употребляемый в прикладных расчетах Монте-Карло метод полностью основан на статистическом моделировании случайных явлений и процессов с помощью СЧ или ПЧ. Для проверки гипотезы, что «данная конкретная последовательность чисел х , ..., хп является типичной независимой выборкой РРСЧ», используют критерии согласия. Выполнение одного или нескольких таких критериев согласия говорит о возможности использования этой последовательности в качестве случайной лишь в соответствующих аспектах (см. [2], [3]) и не дает универсальной гарантии. Строгий смысл понятию ПЧ удается придать только в рамках алгоритмич. теории вероятностей (см. [4]). Напр., пусть Н = 'Хп=\{хп:0^хп^: 1} - единичный счетномерный куб с лебеговым объемом V, V{Xn[an, bn]} = Xln\bn-an\. В Я существует наибольшее конструктивно описываемое измеримое множество G с V{G} - 0. Тогда любую бесконечную последовательность {хп} £ G можно считать типичной (то есть заведомо не имеющей никаких исключительных свойств) и принять за последовательность РРСЧ (см. [5]). Она автоматически будет вполне равномерно распределена в теоретико-числовом смысле (см. [6]). Аналогично может быть введено (см. [5], [7]) понятие последовательности РДСЗ в смысле алгоритмич. теории вероятностей. Из этого определения следует, что такая последовательность не может быть конструктивной и даже построение последовательностей, «близких» к случайным в этом смысле, требует чрезвычайно большого перебора. Поэтому на практике используют более просто устроенные алгоритмы (см. [8]), проверяя их статистич. «качества» небольшим числом тестов (ср. [9]). Созданы также таблицы СЧ и случайных знаков. Однако, по-видимому, нельзя гарантировать, что они удовлетворяют всем разумным статистич. тестам. Лит.: [1] Ермаков СМ., Методы Монте-Карло и смежные вопросы, 2 изд., М., 1975; [2] Соболь И. М., Численные методы Монте-Карло, М., 1973; [3] ЧенцовН.Н., «Ж. вычислит, матем. и матем. физики», 1967, т. 7, № 3, с. 632-43; [4] Колмогоров А. 1^., Теория информации и теория алгоритмов, М., 1987, с. 204—13; [S] Martin-Lof P., «Information and Control», 1966, v. 9, p. 602-19; [6] Коробов Н.М., «Изв. АН СССР. Сер. матем.», 1950, т. И, № 3, с. 215-38; [7] Шень А., «Семиотика и информатика», 1982, в. 18, с. 14-42; [8] Кн vt Д., Искусство программирования для ЭВМ, пер. с англ., т. 2, М.~ 1977; [9] Blum M., Micali S., «SIAM J. Computing», 1984, v. 13, p. 850-64. н.Н. Чепцов, A. X. Шень. В настоящее время интенсивно разрабатываются новые методы построения ПЧ, к-рые позволяют получать последовательности с большой длиной периода и/или допускают реализацию практически независимых отрезков ПЧ на большом числе параллельно работающих процессоров, и методы преобразования ПЧ, равномерно распределенных на отрезке [0, II, в псевдослучайные объекты более сложной структуры: случайные точки на многообразиях, случайные комбинаторные или геометрич. объекты и т. п. Исследуются статистич. свойстБ.а
различных конкретных датчиков ПЧ и находящиеся на стыке теории вероятностей и математич. логики принципиальные вопросы о том, в каком смысле и в какой степени детерминированные последовательности могут имитировать случайные. Лит.: [10] Dev roye L., Non-uniform random variategeneration, В., 19**6; 111] FishmanG. S., Monte Carlo: concepts, algorithms and applications, В., 1996; [12] Luby M., Pseudorandomnes.s and cryptographic applications, Princeton, 1996; [13] NiederreiterH., Random number generation and quasi-Monte Carlo methods, Philadelphia, 1992. A. M. Зубков. СЛУЧАЙНЫЙ АВТОМАТ (stochastic automaton) - см. Be роятностный автомат. СЛУЧАЙНЫЙ ВЕКТОР (random vector) - вектор X = (X1, ..., Xn), компоненты к-рого являются случайными величинами. Совместное распределение случайных величин Xj го есть функция Рх(В) = Р{ХеВ}, где В - борелевскос множество из В?п, называемое распределением вероятностей случайного вектора. Оно однозначно определяется многомерной функцией распределения Fx(xv ...,хп) = Р{Х^х{,1 = ) я}. Абсолютно непрерывное распределение С. в. X задается многомерной плотностью Рх^х\ хп^: Px(B)=jBpx(x{,...,xn)dxv..dxn. Дискретное распределение С. в. X определяется счетным числом вероятностей P[X~x(i)} так, что P{XeB} = Y . Р{Х = *«)}. *(t)€S Б. А. Севастьянов. СЛУЧАЙНЫЙ ВЫБОР без возвращения (random sampling without replacement) - см. Выборка статистическая. СЛУЧАЙНЫЙ ГРАФ (random graph) - случайный элемент нек-рого множества графов у. Характеристич. признак графов из у переносится и в название «С. г.». Так появляются С. г. ориентированные и неориентированные, с различимыми и неразличимыми вершинами, случайные деревья, случайные леса и т. п. Если класс § конечен и всем графам из <$ приписана одна и та же вероятность, то говорят о равновероятном С. г. Так, равновероятный С. г. ^n N с я различимыми вершинами и N ребрами без пегель и параллельных ребер определяется множеством всех указанных графов, каждому из к-рых приписана вероятность [ W Важный тип С. г. представляют С. г., получаемые из заданного графа G = (V, E) путем случайного независимого удаления из G нек-рых его ребер так, что ребро е е Е с вероятностью q{e) удаляется из G, а с вероятностью р(е) = 1 - q(e) сохраняется. Если G = Kn- полный я-вершинный граф и р(е)=р} то соответствующий С. г. обозначается <gn „. Основной задачей теории С. г. является изучение распределений случайных величин, характеризующих строение С. г.,— числа компонент связности, диаметра, хроматич. числа и т. п., а также, как частный случай, нахождение вероятностей того, что С. г. обладает тем или иным свойством. Для равновероятных С. г. эти задачи равносильны соответствующим комбинаторным задачам о подсчете числа графов того или иного типа. Отличительная черта теории С. г.- постановка и решение задач о предельных распределениях соответствующих случайных величин, когда характерный параметр, напр. число вершин, стремится к бесконечности. Наиболее полно исследовано кроение С. г. %tN и %tp. Строение С. г. yn ^ и уп „ в значительной мере определяется параметром t = 2N/n для ynN или t-{n-\)p для <§ . В обоих случаях t имеет смысл среднего значения степени произвольной вершины С. г. Интерпретируя t как «время», изменение строения С. г. %iN и <§ с ростом t при неизменном я можно трактовать как эволюцию этих графов во времени. При я->«о в одни и те же моменты времени t С. г. ^wiV и ^ асимптотически- устроены в основном одинаково. В следующем ниже описании эволюции С. г. <gn>N и <§п р все утверждения о том, что С. г. обладает нек-рым свойством, надо понимать так, что вероятность соответствующего события стремится к 1, когда я —> «о. При 0<t< 1 все компоненты С. г. имеют не более одного цикла; число компонент-деревьев распределено асимптотически нормально со средним ~я(1-£/2), а число компонент с одним циклом - по закону Пуассона с параметром - In -t-t /2\ число вершин в максимальной компоненте имеет порядок ~ (t-\nt- 1)_11пя. При 1 < t< °° в С. г. появляется единственная «гигантская» компонента, число вершин в к-рой распределено асимптотически нормально со средним ~я(1 -в/О. Здесь в = в(£е~') и .*-1 6(о;) = УТ —— w -главная ветвь функции, обратной к w~ze~z. Максимальный размер компоненты, отличной от «гигантской», имеет порядок ~ (в- 1пв- 1)~11пя, и все такие компоненты либо являются деревьями, либо имеют один цикл; число компонент-деревьев распределено асимптотически нормально со средним ~ яв(1 - 6/2)/£, а число компонент с одним 1 1 в2 циклом - по закону Пуассона с параметром - In 8--г-. Дисперсии нормальных распределений, к-рые упоминались выше, имеют порядок я, но различны для С. г. <§п ы и <$ При t - 1 параметры предельных распределений ряда случайных величин, характеризующих С. г. (§nN и ^яр при t- 1, обращаются в <*>, что отвечает особенностям в строении этих С. г. при переходе t через значение 1 (см. [3]). Изучалась также вероятность связности С. г. Для С. г. t§nN и ^пр при t-\v\n + xt x-0{\)t я-»°о вероятность связности равна Рсв. = ехр(-<?"*)( 1+о(1)). Для С. г. ^ при любом p-\-q имеет место неравенство pCB.«(i-„"-'г1, а при я-»°ои<7"^с<1 эта вероятность равна PCB^(\-qn + qninqn)(]-qnr-\]+q(\)). Если t- (1пя + Нп1пя) ->«>, то С. г. реберно и вершинно (г+ 1)-связен. Описано строение С. г. <$п^ и <§п и в более поздние моменты их эволюции (см. [4]). Лит.: [1] Erdos P., Renyi A., «Magyar tud. akad. Mat. kutat6 intez. kozU, 1960, v. 5, № 1-2, p. 17-61; [2] Степанов В. Е., «Теория вероятн. и ее примен.», 1972, т. 17, в. 2, с. 238-52; [3] Bol- lobas В., «Trans. Amer. Math. Soc», 1984, v. 286, >Jb 1, p. 257-74; [4] Коршунов А. Д., «Успехи матем. наук», 1985, т. 40, в. 1, с. 107-73. В. Е. Степанов. СЛУЧАЙНЫЙ ДЕТЕРМИНАНТ (random determinant) - определитель (детерминант) квадратной случайной матрицы Е= \\%ij\\ порядка я, равный сумме всех членов вида ( - 1)^i ♦♦♦ %„i , где (г*! in) - перестановка чисел 1, ..., я, at- число инверсий перестановки U\, ..., in). Впервые С. д. начали изучать в многомерном статистич. анализе, в к-ром было получено следующее утверждение: если xk, fc=l, ..., я, суть независимые наблюдения над w-мерным случайным вектором %, распределенным по нормальному закону N(a, R), п>т, то тя-1 Jl( det/?*det/?n tXn~\Y 1 lr=n-m Л1 СЛУЧАЙНЫЙ 603
где R - эмпирич. ковариационная матрица, х\ " независимые случайные величины, распределенные по х -закону с i степенями свободы. Случайным детерминантом Вандермонда называется детерминант случайной матрицы \\t\j.\\, 1=1 я, У = 0, ..., я-1. Доказаны следующие результаты. Теорема Меты: пусть т\., i = 1, 2, ..., независимы и распределены по нормальному закону N (0, 1); тогда для любых я^2 и 6 = 0, 1, 2, ... имеет место равенство ЕП->- • • 1 |Л;-Л;|* = [Г(1+*/2)Г"ГГ Г(1+*;/2). Пусть 0,, 1=1, ..., я,- независимые случайные величины, распределенные равномерно на интервале (0, 2я); тогда для любого целого k ^ 0 имеет место равенство ЕП \е*Р-еШ\к = Г(\+кп/2)[Г(\+к/2)]-п. А Арг/; р, 1 = \ ,...,п С. д. как функция элементов случайной матрицы весьма сложен для исследования его аналитич. методами теории вероятностей, в связи с чем для изучения распределений С. д. часто используют следующее выражение: n"/2det /i;,/2 = £ ...£. exp [ - С4Л, *„)]ГГ:=1 dxl С) [An - положительно определенная матрица я-го порядка, а хп = (х , ..., хп) - вектор], с помощью к-рого значительно упрощаются доказательства многих предельных теорем. Пусть Еп - последовательность действительных квадратных случайных матриц порядка п. Центральной предельной теоремой для С. д. называется любое утверждение о том, что при нек-ром подборе постоянных ап и Ъп и нек-рых условиях, налагаемых на элементы матрицы Е„, lim P{b^l\n\detSn\-an]<x} = (2nr42 Г e^^dy. Выбор логарифмич. функции в качестве нормирующей функции обосновывается тем, что ln|det 5„| равен сумме логарифмов модулей собственных значений случайной матрицы 5„, и лот факт подсказывает, что после соответствующей нормировки таких сумм можно получить центральную предельную теорему. Наметились три метода доказательства центральной предельной теоремы для С. д.: метод возмущений, метод ортого- нализации и метод интегральных представлений. Метод возмущений основан на формуле ln|det/l|-ln|dettf|=ln|det [I + В'1 (А-В)]\, где А, В - квадратные матрицы, det Л*0, det #*0. С его помощью в нек-рых случаях ln|detEn| можно представить в виде суммы слабо зависимых случайных величин, к к-рым можно применить центральную предельную теорему (см. [1]). Метод ортогонализации основан на следующем известном результате: если вектор-строки случайной матрицы 5„ = \\%ij\\. ._. независимы, то с помощью нек-рых ортогональных преобразований In det En можно представить в виде суммы я случайных величин, к к-рым применяется центральная предельная теорема. С помощью этого метода доказано следующее утверждение: пусть для каждого значения я случайные элементы матрицы Еи = ||£у1? независимы, ЕЙ^-0, D£? = l, Е[^;я)]4=3, t, ; = 1, ..., я, и для нек-рого 8>0 справедливо неравенство I ( \\А+Ь sup sup Eu;;.?' <°°; п i,j = \,...,n ' ' ' 604 СЛУЧАЙНЫЙ тогда | lndetS2-ln(n-l)! 1 *п г* 2п lim р » <х = (27c)-V2 f е-У /2dy. „_►<*, ^ V21nn J J-~ Метод интегральных представлений основан на формуле (*). С помощью этой формулы In|det A\ можно свести к сумме слабо зависимых случайных величин, к к-рым также можно после нек-рых преобразований применить центральную предельную теорему (см. [1]). Метод возмущений удобно применять тогда, когда существуют ЕЕ" , л= 1, 2, ... Метод ортогонализации дает хорошие результаты, когда элементы случайных матриц Еп независимы и принадлежат области притяжения нормального закона (0, 1). Метод интегральных представлений применяют в основном для С. д. матриц (7 + Е„) при условии, что lim lim P{|det(/ + En)|^/*} = 0. я-» <*> п-+°° С помощью этого метода доказана слабая сходимость распределений нек-рых С. д. к безгранично делимому закону (см. [1]). Лит.: [1] Гирко В. Л., Теория случайных детерминантов, К., 1980. В. Л. Гирко. СЛУЧАЙНЫЙ ЗАРЯД (random charge) - см. Случайная мера. СЛУЧАЙНЫЙ ЛЕС (random forest) - случайный элемент нек-рого множества F лесов, имеющий равномерное распределение на F, то есть с равными вероятностями принимающий любое значение из F. Числовые характеристики С. л. являются случайными величинами. Пусть FnN ~ множество всех лесов, состоящих из N корневых деревьев, корни к-рых занумерованы числами 1, ..., N, а остальные (некорневые) я верщин занумерованы числами 1, ..., п. Число лесов в FuN равно N(n + N)n~\ Такие леса входят в граф случайного отображения конечного множества в себя, и их свойства используют при изучении случайных отображений. Наиболее естественными характеристиками С. л. из Fn N являются: число \xr(FnN) деревьев, содержащих ровно г некорневых вершин; число \x(t, Fn N) вершин высоты t (высота вершины равна числу ребер, составляющих единственный пунь, соединяющий вершину с корнем), при этом высота леса равна x(FnN) = max{t:ii(t> Fn N) >0}; максимальное число некорневых вершин r\ (Fn N) в дереве С. л. Для этих случайных величин известны предельные распределения при я —> ©о и различных соотношениях между параметрами я и N. Напр., для высоты леса x(Fn N) справедливы следующие утверждения. Если я—>°° и n/N —>°°, то для любого фиксированного х > 0 Р {x(FnN )/ & <х) -» £~=оо (1 - k2x2 )e-^x2l2. При N = 1 из этого утверждения получается предельное распределение высоты случайного дерева. Пусть я, N —>о°. Если при этом n/N ->°°, n/N —>0, то для любого фиксированного х p{x(F„,„).n(l + ^-ln^^-*e-'; если n/N-±b и целые t = t(n, N) выбраны так, что где by p - положительные постоянные, Х = я/(я + Л0, то д/я любого фиксированного т P{T(FnN) <t + m}-+ exp{ - p/C(fc/(l + Ь)Уп), где К - нек-рая положительная постоянная; если n/N-+Q и целые t-t(n, N) выбраны так, что NXf -> °°, NXt¥l -> у, где у - неотрицательная постоянная, Х = я/(я + Л0, то P{t<FM,) = tf^«-*P{t<FlliA,) = t+n-+!-«•-*.
Аналогичные результаты частично получены для характеристик С. л. из множества FnN(R), содержащего все леса из Fn Л/, кратности вершин к-рых принимают значения из множества R целых неотрицательных чисел, содержащего 0. Существует связь между С. л. из Fn N(R) и нек-рым ветвящимся процессом, начинающимся с N частиц, аналогичная связи между случайным деревом и ветвящимся процессом, начинающимся с одной частицы. Лит.: [1] Кол чин В. Ф., Случайные отображения, М., 1984; [21 Сачков В. Н., Вероятностные методы в комбинаторном анализе, М, 1978; [31 Павлов Ю.Л., «Теория вероятн. и ее примен.», 1983, т. 28, в. 3, с. 449-57. Ю. Л. Павлов. СЛУЧАЙНЫЙ ЛИНЕЙНЫЙ ОПЕРАТОР (random linear operator) - линейный оператор, определяемый следующим образом. Пусть (Q, ^/, Р) - вероятностное пространство, X - сепарабельное гильбертово пространство над полем действительных чисел, L(X) - пространство ограниченных линейных операторов из X в X (при А е L(X)\\a\\ =sup|.Ax|). Под ограниченным случайным линейным оператором понимают отображение Л (со) из Q в L(X), для к-рого при всех х, у € Х(А((й)х, у) .^-измеримо. Множество таких отображений называется множеством ограниченных С. л. о. и обозначается L(Q, X). Однако такой объект оказывается слишком «бедным» для использования во многих конкретных ситуациях: в L(Q, X) нельзя без дополнительных ограничений осуществлять операцию предельного перехода [можно, напр., указать такую последовательность Лп(со) € L(Q, X), что для любого хеХ последовательность Х-значных случайных величин Ап((й)х сходится по вероятности, однако предельный объект в L(Q, X) «не помещается»]. В связи с этим возникает необходимость рассматривать множества «обобщенных» операторов (сильных и слабых). Пусть X (Q) - множество измеримых функций из Q в X (пространство X наделено а-алгеброй борелевских множеств) и А((й)х - отображение из X в X(Q), к-рое удовлетворяет следующим условиям (s): 1) А(<й)х линейно: для любых х{, х2 € X, с^, а2 е IR Р {Л(со)(а,^1 -(- ot2*2)= аИ(со).г, + а^АЫ)х2} = 1. 2) А((й)х непрерывно по вероятности на X: для любых е>0, {■z„}ee_1i хгГ>х lim Р{|Л(со)*п-Л(со)*|>е} = 0. хгГ>* Такие отображения называются сильными случайными линейными операторами, а их множество обозначается Ls(Cl, X). Еще более широким классом обобщенных случайных операторов служат слабые случайные операторы [их множество обозначают LW(Q, X)]. Под слабым случайным линейным оператором понимают отображение (Л(со)дг, у) из ХхХ в /?(Q) [/?(Q) - множество действительных случайных величин], удовлетворяющее следующим условиям (со): Г) (Л(со)*, у) линейно: ДЛЯ Любых Х\, Х2, У\у У2^Х, а1» а2» Pi» ?2G^ Р{(Л(со)(а1^1 + а2х2), P^i + $2у2) = = 1-;=1«Ди(со)^Ц))} = 1. 2') (А((й)х, у) непрерывно по вероятности на ХхХ: для любых е>0, {*X=i <*я->*). {Уп)~=\ (Уп^>у) lim ?{\(АШхп> yn)-(AWx, у)|>е} = 0. Любой .ограниченный С. л. о. Л((о) можно рассматривать как сильный С. л. в,, [нужно рассмотреть действие Л(со) на элементы из X], а любой сильный С. л. о. Л (со)* - как слабый [нужно рассмотреть скалярное произведение А((й)х как элементы уеХ, то есть (Л((о)*, у)], так что имеют место (в вышеуказанном смысле) вложения L(Q, X) <= LS(Q, X) с a LW(Q> X), причем оказывается, что все включения строгие. Лит.: [1] Скороход А. В., Случайные линейные операторы, К., 1978. Я. Ф. Виннишин. СЛУЧАЙНЫЙ МНОЖЕСТВЕННЫЙ ДОСТУП (random multiple access) - множественный доступ с конфликтом, при разрешении к-рого требования, ждущие обслуживания, пытаются выйти на ресурс через случайные времена. Одна из типичных вероятностных задач С. м. д. состоит в следующем. На отрезке [0, L] задан случайный точечный пуассоновский процесс X, 0^* '^;r '^...^L, с интенсивностью X. Пусть В - множество всех подмножеств отрезка [0, L]. Пусть множества В0> ..., Bt_\ - нек-рые элементы В, (О,- - число точек х ;) процесса X, принадлежащих Bit a е. Л03'-1' если (0*-1^1' 1 [2, если сом ^2. Пусть Tt - множество значений случайного вектора 0(0 = = (0j, ..., 0t), a ft - отображение ft:Tt->B. Отображение ft, действующее на 0(0, имеет своим значением случайное множество BteB. Совокупность В0 и ft, t-\, 2, ..., называется алгоритмом С . м. д. f. Множеством, просмотренным алгоритмом f к моменту t, называется Л, = U£f, где объединение берется по {i:0<i<*-l, 61+1^1}. Задержкой алгоритма/" называется величина D/= lim ЕШ.), где Q(L) = x(L) -1, x(L) = min {t: [0, L] с At] [x(D - момент остановки просмотра]. Скорость алгоритма/"определяется равенством Rf= lim" [L/Et(D] при X = 1. Если Rf>0, то алгоритм f называется устойчивым. Оптимальным называется такой алгоритм /"0, у к-рого Rf - С = max Rf} где максимум берется по всевозможным алгоритмам С. м. д. f. Задача С. м. д. состоит в отыскании оптимального или близкого к нему алгоритма, вычислении для него задержки D,, скорости R,= C и других более сложных характеристик. Известные алгоритмы См. д. имеют следующие скорости: древовидный алгоритм Rf- 0,375, стек-алгоритм /?/= 0,409, алгоритм дробления Rf= 0,487. Для скорости С справедливы границы 0,487 ^ С ^ 0,568. Лит.: [\] Клейнрок Л., Вычислительные системы с очередями, пер. с англ., М., 1979; [2] Бертсекас Д., Галлагер Р., Сети передачи данных, пер. с англ., М., 1989; [3] Tsybakov В. S., «IEEE Trans. Inform. Theory», 1985, v. 31, № 2, p. 143-65. Б. С. Цыбаков. СЛУЧАЙНЫЙ ПАРАМЕТР (random parameter) - см. Факторный анализ. СЛУЧАЙНЫЙ ПЛАН эк сперимента (random design of experiment) - см. Дисперсионный анализ. СЛУЧАЙНЫЙ ПОИСК (random search) - метод решения экстремальных задач как детерминированной, так и стохастической природы, основанный на искусственном введении случайности (рандомизации) в итерационный процесс определения точки экстремума. При переходе от л-го к (я+1)-му СЛУЧАЙНЫЙ 605
приближению в итерационном процессе случайно могут выбираться такие характеристики, как направление движения, величина шага и т.д. Теоретич. обоснование С. п. получил в рамках теории стохастической аппроксимации. Лит.: [11 Растригин Л. А., Статистические методы поиска, М., 1968. А. П. Коростелев. СЛУЧАЙНЫЙ ПРОБЕГ; экспоненциальное преобразование (exponential transformation of a random path) - см. Экспоненциальное преобразование случайного пробега. СЛУЧАЙНЫЙ ПРОЦЕСС (random/stochastic process), стохастический процесс, вероятностный процесс, случайная функция времен и,- процесс (то есть изменение во времени состояния нек-рой системы), течение к-рого зависит от случая и для к-рого определена вероятность того или иного его течения. Типичным примером С. п. может служить броуновского движения процесс. Другими практически важными примерами С. п. являются: процесс протекания тока в электрич. цепи, сопровождающийся неупорядоченными флуктуаииями силы тока и напряжения (шумами); распространение радиоволн при наличии случайных замираний радиосигналов (федингов), создаваемых метеорологическими или иными помехами, и турбулентность (то есть турбулентные течения жидкости или газа). К числу С. п. могут быть причислены и многие производственные процессы, сопровождающиеся случайными флуктуациями, а также ряд процессов, встречающихся в геофизике (напр., вариации земного магнитного поля, морское волнение или микросейсмы - высокочастотные беспорядочные колебания уровня земной поверхности), биофизике (напр., изменения биоэлектрич. потенциалов мозга, регистрируемые на электроэнцефалограмме) и экономике. Математич. теория С. п. рассматривает мгновенное состояние системы, о к-рой идет речь, как точку нек-рого фазового пространства (пространства состояний) R] при этом С. п. представляется функцией Х(0 (или Xt) времени t со значениями из R. Обычно считается, что R - векторное пространство, причем наиболее изученным (и в то же время наиболее важным с точки зрения приложений) является еще более узкий случай, когда точки R задаются одним или несколькими числовыми параметрами (обобщенными координатами системы), так что С. п. можно рассматривать или просто как числовую функцию времени X(t), в зависимости от случая могущую принимать различные значения, то есть допускающую различные реализации x(t) (одномерный случайный процесс), или как подобную же векторную функцию X(t) — {X^(t), ..., Xk(t)} (многомерный, или векторный случайный процесс). Изучение многомерных С. п. можно свести к изучению одномерных С. п. с помощью перехода от X(t) к вспомогательному процессу: Х,(0 = (Х(0, *) = Х*=1 a,-Xj(t), где fl = (flf, ..., ak) - произвольный fc-мерный вектор; поэтому центральное место в теории С. п. занимает исследование одномерных процессов X(t). Параметр t обычно принимает произвольные действительные значения или же значения из какого-то интервала действительной оси IP (когда хотят подчеркнуть это обстоятельство, то говорят о случайном процессе с непрерывным времен ем), но он может пробегать и только целочисленные значения - тогда X(t) называется случайным процессом с дискретным временем (или случайной последовательностью, или временным рядом). Задание распределения вероятностей в бесконечномерном пространстве всевозможных вариантов протекания С. п. А'(0 [то есть в пространстве реализаций *(0| не укладывается в рамки классич. методов теории вероятностей и требует привлечения специального математич. аппарата. Исключением являются лишь частные классы С. п., вероятностный характер к-рых полностью определяется зависимостью функции Х(0 = X(t, Y) от нек-рого конечномерного случайного вектора Y = ( Y{ , ..., Ym), так как в данном случае вероятность того или иного течения X(t) зависит только от конечномерного распределения вероятностей вектора Y. Практически важным примером С. п. такого рода может служить амплитудно-моду- лированное гармонич. колебание вида X(0=/4cos(co£ + «l>), где со - фиксированное число, А и Ф - независимые случайные величины. Широкий класс распределений вероятностей для С. и. чо- жет быть охарактеризован бесконечной совокупностью согласованных друг с другом конечномерных распределений вероятностей случайных векторов {Х(^), X(t2), ..., X(tn)}, отвечающих всевозможным конечным подмножествам (£t, t2, ..., tn) значений аргумента (см. Случайная функция). Однако задание всех этих распределений все же недостаточно для определения вероятностей событий, зависящих от значений Х(0 на бесконечном множестве значений t, го есть не определяет однозначно С. п. Х(0. Пример. Пусть Х(0 = cos(co£ + 0), 0^£<l, - гармонич. колебание со случайной фазой Ф, Z - случайная величина, равномерно распределенная на отрезке [0, 1], а С.п. Xj(0, O^t^l, задается равенством Х1(0 = Х(0 при t*Z, Xt(0 = X(0 + 3npH t = Z. Так как P{Z = tu или Z = t2> ..., или Z = tn}-0 для любой фиксированной конечной группы точек (tv t2, ..., tn), то все конечномерные распределения С. п. Х(0 и Xj(0 являются одинаковыми. В то же время процессы Х(0 и Xj(0 различаются между собой: в частности, Ftce реализации процесса X(t) непрерывны (имеют форму синусоиды), в то время как все реализации X^(t) имеют точку разрыва; все реализации X(t) не превосходят числа 1, но ни одна реализация X^(t) этим свойством не обладает. Заданной системе конечномерных распределений вероятностей могут отвечать различные модификации С. п., и по одним только конечномерным распределениям нельзя вычислить ни вероит ность того, что реализация С. п. будет непрерывной, ни того, что она будет ограничена нек-рой фиксированной постоянной. Задание совокупности конечномерных распределений вероятностей часто позволяет, однако, выяснить, существует ли хоть один С. п. Х(0, имеющий эти конечномерные распределения и такой, что его реализации являются непрерывными (или, напр., дифференцируемыми, или нигде не превосходя щими заданной постоянной) функциями с вероятностью 1, или же таких С. п. X(t) вообще не существует. Типичным примером общего условия, гарантирующего существование С. п. Х(0 с непрерывными с вероятностью 1 реализациями и имеющего заданные конечномерные распределения, является условие Колмогорова: если конечномерные распределения вероятностей С. п. Х(0, определенного на интервале [а, Ь], таковы, что при нек-рых а>0, 6>0 и С<°о для всех достаточно малых h выполняется неравенство E|x(t + A)-X<Ola<c|/i|,+8 С) [очевидно накладывающее ограничения лишь на двумерные распределения Х(0], то С. п. X(t) имеет модификацию с непрерывными с вероятностью 1 реализациями (см., напр., [1 ]~[6]). В частном случае гауссовского процесса X(t) условие (1) может быть заменено более слабым условием: 606 СЛУЧАЙНЫЙ Е|Х(* + А)-Х<*)Р'<С,|а|*< (?)
ллл нек-рых at > 0, 5t > 0 и Cj < оо; при at = 2, 51 = 1 условие (2) выполняется, напр., для винеровского процесса и Орн- штейна - Уленбека процесса. В случаях, когда при заданных конечномерных распределениях вероятностей существует модификация С. п. Х(0 такая, что ее реализации непрерывны (или, напр., дифференцируемы, или ограничены постоянной \в\) с вероятностью 1, все другие модификации этого же процесса обычно можно исключить из рассмотрения, потребован, чтобы С. п. Х(0 удовлетворял нек-рому очень общему условию регулярности, к-рое в прикладных задачах практически всегда можно считать выполняющимся (см. Сепарабель- ный процесс). Вместо того чтобы задавать бесконечную совокупность конечномерных распределений вероятностей С. п. Х(0, можно также определить Си., указав значение соответствующего характеристич. функционала Y[/] = Eexp{i/[X(0]}, (З) где /[Х(0] пробегает достаточно широкий класс линейных функционалов, зависящих от Х(0. Если Х(0, a^t^b, - непрерывный по вероятности С. п. [то есть P{|XU + A)-X(0| >е}->0 при А->0 для любого е>0], а g(t) - функция ограниченной вариации на [a, Ь], то jhaX(t)dgU) = №[X(t)] будет случайной величиной; при этом можно считать, что l[X] = li9>[X] в формуле (3) (иричем у[/ д ] здесь удобно обозначить символом у[#]). Во многих случаях можно еще сузить класс рассматриваемых линейных функционалов /[XI, ограничившись лишь функционалами вида £х(Оф(0^ = /ф[Х], где ф(0 - финитная бесконечно дифференцируемая функция t (интервал [а, Ь] при этом, разумеется, может быть и бесконечным). Значения 1|/[/ф] = у[ф] при широких условиях регулярности однозначно определяют все конечномерные распределения вероятностей С. п. Х(0- так как vM->ч^ ,и<в1. -.е„)> где у, { (вр .... в„) - характеристич. функция случайного вектора {X(t{), ..., X(tn)), при ф(0 ->Bfi(t-ti) + ...+ %b(t- tn) [зцесь 6(0 - это 6-функция Дирака, а сходимость понимается в смысле сходимости обобщенных функций]. Если же при таком предельном переходе функционал у[ф] не стремится к конечному пределу, то это означает, что для С. п. Х(0 не существует конечных значений в фиксированной точке, а имеют смысл лишь сглаженные значения IJX], то есть что характеристич. функционал у[ф] задает не обыкновенный («классический») Си. Х(0, а обобщенный случайный процесс Х = Х(ф). Задание совокупности конечномерных распределений вероятностей С. п. X{t) очень упрощается в тех случаях, когда все они однозначно определяются распределениями лишь немногих низших порядков. Важнейшим классом Си., для к-рых все многомерные распределения могут быть определены по значениям одномерных распределений случайных величин Х(0. являются последовательности независимых случайных величин (представляющие собой специальные С. п. с дискретным временем). Такие весьма частные С. п. могут изучаться в рамках классич. теории вероятностей, но существенно, что нек-рые важные классы С п. могут быть эффективно заданы в виде функции от последовательности Y(0, t = Q, ±1, ..., независимых случайных величин. Так, напр., значительный интерес представляют С п. *(t) = X~=o W'-Я или *«> = Х7=-~ 6;у((-»> где t = 0} ±1,... (см. Скользящего среднего процесс), и Ж0 = £°°=1УД(0, a^t^b, где hj(t), j- I, 2, ...,- заданная система функций на интервале [а, Ь\ (см. Карунена - Лоэва разложение). Весьма важны следующие четыре класса С п., для первых трех из к-рых все конечномерные распределения определяются одномерными распределениями значений Х(0 и двумерными распределениями пар {Х(^), X(t2)}. 1) Класс случайных процессов с независимыми приращениями Х(0, для к-рых X(t2) - X(^) и X(tA) - X(t3) при t\<t2^t3< tA являются независимыми случайными величинами. Здесь для задания С. п. Х(0 на отрезке [а, Ь] удобно использовать функции распределения Fa(x) и Ф, , (г), где a^ti<t2^by случайных величин Х(а) и Х( t2)-X(tx), причем функция Ot t-(z) очевидно должна удовлетворять функциональному уравнению £^2(*-ИМФ'2.<Э(и)=Ф'|.'з(2)' (4) Используя (4), можно показать, что если С. п. Х(0 непрерывен по вероятности, то его характеристич. функционал у[д\ может быть представлен в виде y[g) = exp\i^y(t)dg(t)- -\\bmi9(b)-g(t)]dg(t)- 2 Ja J-oo Ja giy[g(b)-g(t)\ _ j _ iy[g(b)-g{t)] \ + y* dtY\t(dy)\ где y(0 ~ непрерывная функция, [КО - неубывающая непрерывная функция такая, что р(а) ^0, и Ylt(dy) - возрастающая непрерывная по t мера на IP , определяющие процесс с независимыми приращениями Х(0- 2) Класс марковских процессов Х(0, для к-рых, в случае когда t] <t2, условное распределение вероятностей X(t2) при условии, что заданы все значения Х(0 при t^t^, зависит только от Х(^). Для задания марковского процесса Х(0, a^t^b, удобно использовать функцию распределения Fa(x) значения Х(а) и переходную функцию Ф^ t.(x, 2), где ^ < t2> равную условной вероятности того, что X(t2)<z, при условии, что Х(^) =х. Функция Ф, t.(x, г) должна удовлетворять родственному (4) функциональному уравнению Колмогорова - Чепмена, позволяющему при определенных условиях получить для нее более простые прямое и обратное уравнения Колмогорова и в ряде случаев дающему возможность определить эту функцию. 3) Класс гауссовских процессов Х(0, для к-рых все многомерные распределения вероятностей векторов {X(t\), ..., X(tn)} являются гауссовскими (нормальными) распределениями. Так как нормальное распределение однозначно определяется своими первыми и вторыми моментами, то для задания гауссов- ского процесса Х(0 достаточно указать значения функций СЛУЧАЙНЫЙ 607
EX(t) = m(t) и EXit)Xis)=Bit, s), где Bit, s) должно быть неотрицательно определенным ядром таким, что и b(t, s)-Bit, s) - m(t)m(s) также является неотрицательно определенным ядром. Характеристич. функционал у[д] гауссов- ского процесса Xit), где a^t^b, имеет вид Vlg] = exV>\ifarn(t)dg(t)-±-fafab(t, s)dgit)dgis)\. 4) Еще одним важным классом С. п. является класс стационарных случайных процессов Xit), статистич. характеристики к-рых не меняются с течением времени, то есть инвариантны относительно преобразования Xit) —>Xit + a), где а - произвольное фиксированное число. Многомерные распределения вероятностей общего стационарного С. п. Xit) не могут быть просто описаны, но для многих задач, касающихся таких процессов, достаточно знать лишь значения первых двух моментов ЕХ(0 = т и EXit + s)X(t) = Bis) [так что здесь оказывается нужным лишь предположение о стационарности в широком смысле, то есть о том, что от t не зависят моменты EXit) и EXit + s)Xit)]. Существенно, что любой стационарный (или хотя бы стационарный в широком смысле) С. п. допускает спектральное разложение вида Xit)=jc^eiadZiX), (5) где ZiX) - случайный процесс с некоррелированными приращениями; отсюда, в частности, следует, что Л«) = £ЛЯА.), (6) где FiX) - монотонно неубывающая спектральная функция С. п. Xit). Спектральные разложения (5) и (6) лежат в основе решения задач о наилучшей (в смысле среднего квадрата ошибки) линейной экстраполяции, интерполяции и фильтрации стационарных случайных процессов. Математич. теория С. п. включает также большое число результатов, относящихся к ряду подклассов или, наоборот, обобщений перечисленных выше классов С. п. (в частности, к Маркова цепям, диффузионным процессам, ветвящимся процессам, мартингалам, случайнъи* процессам со стационарными приращениями нек-рого порядка). Лит.:[\] Слуцкий Е. Е., Избранные труды, М., I960, с. 269-80; [2] Дуб Дж„ Вероятностные процессы, пер. с англ., М., 1956; [3) Гихман И. И., Скороход А. В., Введение в теорию случайных процессов, 2 изд., М., 1977; [4] их же, Теория случайных процессов, т. 1-3, М., 1971-75; [5] Крамер Г., Лидбет- тер М., Стационарные случайные процессы, пер. с англ., М., 1969; [6] Вентцель А. Д., Курс теории случайных процессов, М., 1975; [7] Розанов Ю. А., Случайные процессы, 2 изд., М., 1979; [8] И то К., Вероятностные процессы, пер. с япон., в. 1-2, М., 1960-63; [91 Скороход А. В., Случайные процессы с независимыми приращениями, М., 1964; [10] Дынкин Е. Б., Марковские процессы, М., 1963; [111 Ибрагимов И. А., Розанов Ю. А., Гауссовские случайные процессы, М., 1970; [12] Розанов Ю. А., Стационарные случайные процессы, М., 1963. А. М. Яглом. СЛУЧАЙНЫЙ ПРОЦЕСС ад аптированный (adapted random process) - см. Согласованный случайный процесс. СЛУЧАЙНЫЙ ПРОЦЕСС; ариф метическое моделирование (arithmetic simulation of a random process) - см. Арифметическое моделирование случайных процессов. СЛУЧАЙНЫЙ ПРОЦЕСС без разрывов второго рода (stochastic process without discontinuities of the second kind; CADLAG stochastic process). Пусть (Q, .< P) - вероятностное пространство; Т - конечный или бесконечный интервал на действительной оси; Е - метрич. пространство, 33 - 608 СЛУЧАЙНЫЙ а-алгебра его борелевских подмножеств. Говорят, что случайный процесс Xt, teT, со значениями в фаговом пространстве (Я, &) не имеет разрывов второго рода, если найдется событие Qt €,</ такое, что P(flt) = 1 и для всех соеftj, teT, существуют левый и правый односторонние пределы lim Х5Ы) и lim X5(co). Если интервал Т содержит stt sit свой левый (правый) конец и точка t совпадает с ним, то требуется существование только правого (левого) предела. Существует ряд критериев отсутствия разрывов второго рода. Лит.: [1] Гихман И. И., Скороход А. В,, Теория случайных процессов, т. I, М., 1971. В. М. Шуренков. СЛУЧАЙНЫЙ ПРОЦЕСС; билинейная модель (bilinear model for random process/bilinear time series model) - см. Билинейная модель случайного процесса. СЛУЧАЙНЫЙ ПРОЦЕСС бинарный (binary random process) - см. Бинарный случайный процесс. СЛУЧАЙНЫЙ ПРОЦЕСС возрастающий (increasing random process) - см. Возрастающий случайный процесс. СЛУЧАЙНЫЙ ПРОЦЕСС вполне измеримый (well-measurable/optional random process) - см. Вполне измеримый процесс. СЛУЧАЙНЫЙ ПРОЦЕСС гармонизуемый (harmo- nizable random process) - см. Гармонизуемый случайный процесс. СЛУЧАЙНЫЙ ПРОЦЕСС га рмонизуемыи в смысле Лоэва (Loeve's harmonizable random process) - см. Больших чисел закон для нестационарных случайных процессов. СЛУЧАЙНЫЙ ПРОЦЕСС га рмонизуемыи в смысле Розанова (Rozanov harmonizable random process) - см. Больших чисел закон для нестационарных случайных процессов. СЛУЧАЙНЫЙ ПРОЦЕСС двоично стационарный (dyadic stationary random process) - см. Спектральные теории нестационарных случайных процессов. СЛУЧАЙНЫЙ ПРОЦЕСС; диффер енцирование (differentiation of a random process) - операция вычисления производной случайного процесса Xit), определяемой как предел hmxu±hhm = X'(t). А->0 * Если предел понимается в смысле сходимости в среднем квадратическом (с вероятностью 1), то говорят о дифферен- цируемости Xit) в среднем квадратическом (с вероятностью 1). Для дифференцируемости процесса Xit) с ковариационной функцией Bit, s) в среднем квадратическом необходимо и достаточно существование предела ,. Bit+h,t+h')-Bit+h,t)-B(t,t+h')+B(t,t) lim ~т . л-»о пп А'-»0 При этом EX'(t)Jf'(*) = ^|^, EX(t)X'(s) = ^A dtas as (предполагается существование указанных частных производных). Если процесс Xit) дифференцируем в среднем квадратическом и процесс Х'(0 непрерывен в среднем квадратическом, то существует процесс, стохастически эквивалентный Xit), дифференцируемый с вероятностью 1. Для гауссовских процессов это условие и необходимо. Лит.: [1] Гихман ИИ., Скороход А. В., Теория случайных процессов, т. 1, М., 1971. М. И. Ядренко
емых компонент приводит к соответствующим уравнениям интерполяции (см. [3]). Лит.: [1] Колмогоров А. Н., Теория вероятностей и математическая статистика, М., 1986, с. 215-55; Розанов Ю. А., Стационарные случайные процессы, М., 1963; [3] ЛипцерР.Ш., Ширяев А. Н., Статистика случайных процессов, М., 1974. Ю. А. Розанов. СЛУЧАЙНЫЙ ПРОЦЕСС; канонические корреляции и величины (canonical correlations and variables of a random process) - канонические корреляции и величины для двух множеств случайных величин {Х(0, t е Г} и {У($), s e S), где X(t) и Y(s) - случайные величины, Т и S - нек-рые множества значений t и s. Пусть Я, Нх и Ну - гильбертовы пространства со скалярным произведением (zt, г2) = Ezxz2, натянутые соответственно на случайные величины {X(t), teT, Y(s), seS}, {X(t), teT] и {Y(s), seS}, где ЕХ(О = ЕУ(О = 0, а Px и PY - операторы проектирования в пространстве Я, отвечающие подпространствам Нх и Ну. Если множества {X(t), t е Г}, {Y(s), seS} конечные или счетные, то канонич. величины ~ собственные векторы операторов BX-PXPYPX и BY = PYPXPY, а канонич. корреляции - корни квадратные из их ненулевых собственных значений (положительных и одинаковых для обоих операторов). Если размерности М и L подпространств Нх и Ну конечны, то число канонич. корреляций и величин N^mm{M, L) и, в соответствии с общим определением (см. [1]-[3]), пары канонич. величин СЛУЧАЙНЫЙ ПРОЦЕСС дихотомический (binary random process) - см. Бинарный случайный процесс. СЛУЧАЙНЫЙ ПРОЦЕСС единичный (unit random process) - см. Бинарный случайный процесс. СЛУЧАЙНЫЙ ПРОЦЕСС импульсный( impulse random process) - см. Импульсный случайный процесс. СЛУЧАЙНЫЙ ПРОЦЕСС; интегрирование (integration of random process) - операция вычисления интеграла от случайного процесса. Интеграл \Ь XU)dt С) Ja от С. п. X(t), определенного на отрезке [а, Ь], с ковариационной функцией Bit, s) можно определить как предел в среднем квадратичном интегральных сумм при измельчении разбиения а = tQ< ti < ... < tn_1 <tn = b, где sk - произвольная (неслучайная) точка между tk и tk+{. Пусть X-m'dx (tk+i~tk). Для существования интеграла (*) необхо- 1 5Sfc*$7i димо и достаточно существование предела ,'™_ ml i":dв(х*- *г><*»+1 -**x'r+i - а В частности, интеграл (*) существует, если существует в смысле Римана двойной интеграл .ь Гь | | B(t,s)dtds. Ja Ja Если реализация процесса Х(0 почти наверное интегрируема в смысле Римана (Лебега) на отрезке [д, Ь], интеграл (*) можно определить как интеграл Римана (Лебега) от отдельной реализации процесса. Лит.: [1] ВснтцельА. Д., Курс теории случайных процессов, 2 изд., М., 1996. М. И. Ядренко. СЛУЧАЙНЫЙ ПРОЦЕСС; интерполяция (interpolation of random process) - задача об оценке значений случайного процесса X(t) на нек-ром интервале a<t<b по его наблюдаемым значениям вне этого интервала. Обычно имеют в виду интерполяционную оценку X(t), для к-рой среднеквадратичная ошибка интерполяции является минимальной в сравнении со всеми другими оценками: E|x(0-X(0|2 = min; интерполяция называется линейной, если ограничиваются линейными оценками. Одной из первых была поставлена и решена задача линейной интерполяции значения Х(0) стационарной последовательности, имеющая следующий аналог: в пространстве L интегрируемых в квадрате функций на отрезке -л ^ А, ^ п найти проекцию функции <р( А) е L на подпространство, порожденное функциями ег <р(А), k- ±1, ±2, ♦♦.; эта задача получила широкое обобщение в теории стационарных случайных процессов (см. [1], [2]). Примером для приложений может служить задача интерполяции С. п., возникающего в системе LX(t)= Y(t), t>tQ, с линейным дифференциальным оператором L порядка / и белым шумом У(0, t> tQ, в правой части; здесь при независимых от белого шума начальных значениях X (£0), k-0t ..., /-1, наилучшая интерполяционная оценка X(t), a<t<b, есть решение соответствующей краевой задачи L*L£(t) = 0, a<t<b, с формально сопряженным оператором L* и граничными условиями Xik\s) = X(k\s), k = 0, ..., /, в граничных точках s = д, Ь. Для систем стохастич. дифференциальных уравнений задача интерполяции одних компонент по значениям других наблюда- и соответствующие им канонич. корреляции р,- могут быть найдены из соотношений -pfST-i1»*^-'**»' (теГ> w=1 Ц (1) X", я™Ц. '*Ч* = р,Х>=, вуу(х/' x/)pv s,eS, / = 1 L, i = \ N, J = X"=, 1Г-1 *('*. tm)aim = \, i = \ N, (2) где Bxx(tk, tm) и Byy(sJt st) ~ автокорреляционные матрицы процессов X(t) и Y(s), a BXY(tm, s) и BYX(slt tk)- = BXY(tk, 5Z) - их взаимные корреляционные матрицы. Канонич. корреляции и величины нумеруются так, что pt > р2> ... Первые канонич. величины U{ и Vj можно также определить как случайные величины, принадлежащие соответственно Нх и Ну, коэффициент корреляции между к-рыми Pj =EC71 Vt максимален (равен косинусу минимального угла между подпространствами Нх и Ну). Для пар величин Ue Hx и VeHY> некоррелированных соответственно с t/j и Vj, их коэффициент корреляции р2 максимален при U= U2 и V=V2, и т.д. Все компоненты вектора {Uu U2, ..., UNt Vj, V2, ..., V^} в силу (2) имеют единичную дисперсию и попарно некоррели- рованы за исключением пар {Uit V,}, для к-рых Е[/^^ = р^, 1=1, ..., N. Определение канонич. корреляций и величин обобщается и на случай, когда размерности подпространств Нх и Ну бесконечны (напр., когда X(t) и Y(s) - интервалы). В этом случае совокупность канонич. корреляций образует спектр (один и СЛУЧАЙНЫЙ 609 39 ВИМС
тот же) операторов Вх и 5у, а канонич. величины - собственные функции этих операторов, к-рые не входят в пространство Я, если они отвечают точкам непрерывного спектра, и должны пониматься в смысле, принятом в спектральной теории операторов с непрерывным спектром [4]. При более общем определении канонич. корреляций и величин для С. п. вместо пространства линейных функционалов рассматривают более широкие классы функционалов [5]. В применении к задаче прогнозирования С. п. множество Г отвечает «прошлому», а5 - «будущему», напр. T=[t-TQ> t]\ S=[t + x, t+i + SQ], a Y(s)=X(s). Тогда канонич. величины V( - наилучшим образом прогнозируемые функционалы от «будущего» процесса X(t), a L/J — предикторы, по к-рым величины V; предсказываются по формуле У^ = р^. Пример 1. Пусть X(i) - С. п. со стационарными приращениями и спектральной плотностью /"(го) = С/соа, где 1/2<а<3/2, Г = (-оо,г), 5=(* + т, +°°). Тогда множество канонич. корреляций не зависит от t и т, является непрерывным и заполняет интервал О^р^ | sin тих I (см. [6]). Пример 2. Пусть X(t) - случайный стационарный процесс с рациональной спектральной плотностью где£>0, ImcifX), Imp^O; Г =(-«>, t)t S=(t + x, <*>). Тогда имеется ровно п пар канонич. величин (С/,-, V$) и канонич. корреляций р,, 1=1, ..., п, к-рые могут быть определены из системы 2я алгебраич. уравнений (см. [7], [8]). Лит.: [1] Hotelling H., «Biometrika», 1936, v. 28, p. 321-77; [2] Обухов A.M., «Изв. АН СССР. Отд. матем. и естеств. наук», 1938, № 3, с. 339-70; [3] Андерсон Т., Статистический анализ временных рядов, пер. с англ., М., 1976; [4] АхиезерН. И., Глаз- ман И. М., Теория линейных операторов в гильбертовом пространстве, 3 изд., Хар., 1978; [5] Han nan E.J., «J. Austral. Math. Soo, 1961, v. 2, p. 229-42; [6] Форту с М. И., «Докл. АН СССР», 1983, т. 271, К° 6, с. 1325-28; [7] Yaglom A.M., в кн.: Bernoulli- Bayes- Laplace anniversary volume, В. - [u.a.], 1965, p. 241-52; [8] Форту с M. И., в сб.: Физика атмосферы и проблема климата, М., 1980, с 139-61. М.И. Форту с. СЛУЧАЙНЫЙ ПРОЦЕСС; каноническое представление (canonical representation of a random process) - представление случайного процесса X(t), заданного на конечном или бесконечном интервале Г =04, В) (где А - действительное число или -<*>, В - большее А действительное число или оо) в виде суммы интегралов по случайным мерам, определяемым прошлыми значениями так наз. обновляющих компонент процесса X(t), описывающих структуру будущих приращений процесса X(t) и некоррелированных с его прошлыми значениями. Пусть X(t), teT,- комплексный С. п. с EX(t)=0, Е|Х(0| <°° такой, что для него при каждом teT существуют пределы (в среднем квадратичном) X(t-0) = \\mX(t-h) и Xa + 0) = lim X(t+h), причем hio hlo X(t-0) = X(t). Пусть Hx(t) - подпространство гильбертова пространства Н комплексных случайных величин У конечной дисперсии со скалярным произведением (У,, У2) = ЕУ1У2, натянутое на векторы X(s), 5 ^ t\ и пусть X(t) - регулярный (то есть полностью недетерминированный) процесс, для к-рого П т Hx(^ = Q- В таком случае всегда существует минимальный номер N (равный целому положительному числу или бесконечности), однозначно определяемый процессом X(t), te Т, и такой, что при tsT существует канонич. представление С. п. Х(0 вида П0 = ^\ВАдпи, u)dZn{u), 610 СЛУЧАЙНЫЙ где Zn(u), n-\, ..., N, - взаимно некоррелированные процессы с некоррелированными приращениями. При отом EdZn(u)dZm(v) = bnmb(u-v)dFn(u)dv, Fn(u), л=1, .... N- монотонно неубывающие непрерывные слева функции, обладающие тем свойством, что мера dFn(u) абсолютно непрерывна относительно всех предыдущих мер dFm(u), m<n, gn(t, и) - неслучайные функции, удовлетворяющие условию I^,Lsi^.«)i2^»<~. и пространство Hx(t) при любом ttT является прямой суммой взаимно ортогональных подпространств Нг (О, натянутых на векторы Zn(s) -Zn(A), s^t, то есть Hx(t) = Hz{t)®...®Hz (t). Процессы Zn(u), п=\ Nt называются обновляющими компонентами процесса X(t), многомерный процесс Z(u) = {Zn(u), я=1, ..., N},- обновляющим процессом для процесса X(f), a N- кратностью X(t). Канонич. представление С. п. является естественным обобщением представления Волда стационарного процесса ЖО с дискретным временем и родственного ему представления в виде одностороннего скользящего среднего процесса регулярного стационарного процесса Х(0 на оси (-<*>, °°), Любой стационарный С. п. всегда имеет кратность N-\. Однако уже в применении к более общему классу гармонизуемых С. п. кратность N может принимать любое (конечное или бесконечное) значение (см. [1]). По канонич. представлению С. п. легко определяется наилучший линейный прогноз X(t) значения X(t) но известным значениям X(tf) при A<t'^s<t: X(t) = ^fAgn(t,u)dZn(u). Канонич. представление С. п. было указано Г. Хидой |2] в применении к гауссовским С. п. X(t); случай произвольных регулярных процессов X(t) был изучен X. Крамером (см., напр., [1], [3]). Канонич. представление обобщается на случай многомерных (векторных) процессов Х(0 = {Х1(0, ..., Xm(l)} и на нек-рые еще более общие классы случайных функций (см. [4], [5]). Лит.: [1] Cramer Н., «Теория вероятн. и ее примени, 1964, т. 9, в. 2, с. 193-204; [2] Hid а Т., «Mem. Coll. Sci. Univ. Kyoto, A», 1960, v. 33, № 1, p. 109-55; [3] Cramer H., Structural and statistical problem for a class of stochastic processes, Princeton, 1971; [4] Kallian- pur G., Mandrekar V., «Теория вероятн. и ее нримен.», 1965, т. 10, в. 4, с. 614-44; [5) Розанов Ю. А., Теория обновляющих процессов, М., 1974. Л. М. Яглом. СЛУЧАЙНЫЙ ПРОЦЕСС квантовый (quantum random process) - см. Квантовый случайный процесс. СЛУЧАЙНЫЙ ПРОЦЕСС; конечномерные распределения (finite-dimensional distributions of a random process) - основные характеристики случайного процесса. Пусть на вероятностном пространстве (Q, •.«/, Р) задан Сп. X(t) с параметрич. множеством Т и фазовым пространством (М, 83). Совокупность совместных распределений любого конечного набора случайных элементов из семейства (X(t))tsT называется совокупностью конечномерных распределений процесса X(t). Другими словами, конечномерные распределения процесса X(t) образуют вероятностные меры на пространствах (Мп, 83"), задающие совместные распределения наборов (X(£j), X(£2)» ...» X(tn)) при всевозможных п = 1, 2, ... и^, t2, ..., tnsT. Здесь (Af", 83") - я-кратное произведение измеримого пространства (М, 83) самого на себя. Набор конечномерных распределений С. п. является основной характеристикой С. п. С конечномерными распределениями С. п. связано понятие стохастич. эквивалентности
в широком смысле (см. Стохастически эквивалентные случайные процессы). Важная проблема ~ вопрос о существовании С. п., конечномерные распределения к-рого совпадают с наперед заданными вероятностными мерами \it t (♦) на пространствах (М", SB") при всевозможных п= 1, 2, ... и tu t2, ..., tn e Т. Эта проблема решается теоремой Колмогорова о конечномерных распределениях. Лит.: [1] ГихманИ. И., Скороход А. В., Введение в теорию случайных процессов, 2 изд., М., 1977; [2] Справочник по теории вероятностей и математической статистике, 2 изд., М., 1985. Н. И. Портенко. СЛУЧАЙНЫЙ ПРОЦЕСС линейно представимый (linearly filter of a random process) - см. Спектральные теории нестационарных случайных процессов. СЛУЧАЙНЫЙ ПРОЦЕСС; максимум (maximum of a random process) - экстремальное значение выборочной функции случайного процесса. Одной из важных задач теории С. п. является изучение распределения функционала Z{T) -sup X(t, со), где X - сепарабельный С. п., Т - нек-рое параметрич. множество. Систематически исследован случаи, когда X(t, со) - гауссовский С. п. на произвольном параметрич. множестве Т либо на подмножестве евклидова пространства. Точное распределение величины Z{T) вычислено в нек-рых вырожденных случаях (напр., X - случайная синусоида), а также в случае, если X удовлетворяет дополнительно марковскому свойству [винеровский процесс w(t), марковский стационарный гауссовский С. п. на прямой, С. п. вида a(w(t + b)~w(i))t я>0, Ь>0, и т.п.] (см. [1]). Пусть X(t, со), teT,- гауссовский С. п. с нулевым средним, Т произвольно. Тогда P{Z(T) <оо} = 0 или 1 (закон 0 или 1) (см. ст. Случайный процесс; регулярность траекторий и обозначения -там же). В последнем случае Eexp(aZ(70 )<<*> тогда и только тогда, когда ае (-<*>, 1/2а ), где а = sup EX(t, со) . т Последнее утверждение с помощью методов пространств Ор- лича обобщено на широкий класс так наз. субгауссовских С. п. С помощью энтропийного подхода получено универсальное неравенство для хвоста распределения Z{T). Пусть \|/(1)<°° и EX(t, со) =0. Тогда для произвольного подмножества 5£ Т и всех и > 0 имеет место неравенство P{Z(T)>ou}^-7L-exp(-~u2 +X(S, u/o)\ V2tim V 2 ) где Х(5, и) = inf (2w V + H(S, e) + £>0 +4wsup Г/2 J2\nN{Sr\B(ttt\x)dx). Изучена структура точек разрыва функции распределения F(a) - P{Z(T) ^а) для гауссовского С. п. Пусть Z(T) <°° почти наверное, EX(t, co)^0, DX(t, co)*0 для всех teT. Тогда функция F{a) непрерывна всюду за исключением, быть может, точки aQ = inf {a: F{a) > 0} (возможно aQ — -<*>). На интервале (й0, +оо) F(a) абсолютно непрерывна, ее производная F'(a) определена и непрерывна во всех точках из (aQ, +<*>), кроме не более чем счетного числа точек, в к-рых она имеет скачки вниз; для любого а>а0 функция F'(a) имеет на множестве (я0, +оо) ограниченную вариацию. Найдена точная асимптотика хвоста распределения Z(T) для широкого класса стационарных и нестационарных га- уссовских С. п., функция d(t, s) к-рых ведет себя степенным образом при t->s. Пусть Г=[0, A], X(t, со) ~ стационарный гауссовский С. п. на прямой, EX(t, со) = 0, EX{t, со) = 1, ковариационная функция к-рого удовлетворяет условию r(t) = \-C\t\a + o(\t\a), £->0, r{t)<\, te(0,A]. (*) Тогда \\т^их~21аыр{и2 l2<52)P{Z{T)>u) = AC-xlaHat где Яа=Нт Ha(t)/t, 0<Яа< +~, Яа(0 = Еехр ( max Y(s)), Y(s) - гауссовский С.п., EY(s) = - |s|a, cov(y(s), Y(v)) = - \s\ + \v\a- \s- v\a (cm. [3]). Имеются обобщения на стационарные процессы и поля (см. [3], [4]). В частности, рассмотрены поля диффузионного типа, являющиеся предельными для статистики типа Колмогорова при наличии неизвестных параметров и в многомерном случае. В случае стационарных гауссовских С. п. с гладкими траекториями имеет место теорема сравнения. Если невырожденные гауссовские С. п. Xx(t, со) и X7(t, со) такие, что EXt(t, co) = 0, EX{(t, co)2 = EX-a, со)2 = 1 и EX- (t, со) <°°, i- 1, 2, то существуют константы С=С(Т) и р>0 такие, что I?{Zx(T) <u}- P{ZX2(T) <u}\^Сехр( - и2(\ + р)/2), Т=[0, А], и>0. Это неравенство и его обобщение на многомерный случай дает возможность получить асимптотич. разложение P\zx (T)>u}= r*e-*2l2dx + Ae-"2/2 + 1 *i J Ju V271 2я +o(exp(-w2(l + 6)/2)), 8>0 (для полей см. [3]). На основании вышеприведенных точек асимптотик получены предельные теоремы для максимума стационарного гауссовского С. п. или поля на расширяющемся интервале. Если кроме (*) выполнено условие r(t)\n £—>0 при t—>°°, то lim P{/G4, a)(Z(T)-l(A, a))<x} = e-e~\ T=[0, А],А = (2пУх/2НаА, КС, a)V2lnCr+(2/a-l)In у!Шс/у12\пС . Если, кроме того, для гауссовского С. п. X выполнены вышеприведенные условия гладкости и нормировки на X* и X", то скорость сходимости в этом предельном соотношении логарифмическая и неулучшаема, а также существует 8>0 такое, что равномерно по X при А —>°° P{Z(T)<l(A, 2) + x/KA, 2) = = ехр( - ехр( -х - х2/2КА, 2)2)) + 0(А~5), причем /04, 2) = л/21п(Л/2т). Этот результат обобщен на случай стационарного гауссовского поля (см. [3]). Лит.: [1] Slepian D., «Bell System Techn. J.», 1962, v. 41, p. 463-501; [2J Цирельсон Б.С, «Теория вероятн. и матем. статистика», 1975, т. 20, в. 4, с. 865-73; 1984, т. 31, в. 1, с. 44-50; [3] Пи- тербарг В. И., Асимптотические методы в теории гауссовских случайных процессов и полей, М., 1988; [4] Фаталов В. Р., «Докл. АН Арм. ССР», 1983, т. 77, № 1, с. 25-29; [5] Ф ерник К., в сб.: Случайные процессы. Выборочные функции и пересечения, М., 1978, с. 63-132; [6] Дмитровский В. А., в сб.: Случайные процессы и поля, М., 1979, с. 22-31. В. И. Питербарг. СЛУЧАЙНЫЙ ПРОЦЕСС; нелинейная фильтрация (nonlinear filtering of a random process) - см. Нелинейная фильтрация случайных процессов. СЛУЧАЙНЫЙ ПРОЦЕСС; нелинейное прогнозирование (nonlinear prediction/extrapolation of a random process) - см. Нелинейное прогнозирование случайных процессов. СЛУЧАЙНЫЙ 611 39*
СЛУЧАЙНЫЙ ПРОЦЕСС; нелинейные модели (nonlinear models of a random process) - см. Нелинейные модели случайных процессов. СЛУЧАЙНЫЙ ПРОЦЕСС неуп реж дающий (non- anticipating random process) - см. Согласованный случайный процесс. СЛУЧАЙНЫЙ ПРОЦЕСС; нули (zeros of a random process) - точки, в к-рых выборочная функция действительного случайного процесса принимает нулевое значение. Изучение нулей С. и. тесно связано с исследованием С. п. пересечений. Для приложений большой интерес представляет вероятность отсутствия нулей С. п. на заданном отрезке и распределение расстояний между последовательными нулями С. п. (см. [1]). Точные решения этих задач удается получить лишь для нескольких частных случаев, напр. для стационарных гауссов- ских процессов, имеющих нулевые средние и ковариационные функции жо=<гы (гауссовский марковский процесс) и ЖО = (3/2И^/Л(1-(1/3)е-2^1/Л) (процесс Уонга). Качественные результаты в отношении сравнения вероятностей отсутствия нулей на заданном отрезке для различных процессов основываются на лемме Слепяна (см. [21). Ряд асимптотич. результатов получен для нулей алгебраич. и тригонометрич. полиномов, коэффициенты к-рых являются независимыми случайными величинами, а степени неограниченно возрастают (см., напр., [3]-[6]). Лит.: [11 Мирошин Р.Н., Пересечения кривых гауссовскими процессами, Л., 1981; [2] Slepian D., «Bell System Techn. J.», 1962, v. 41, № 2, p. 463-501; [3] Dunnage J.E. A., «Proc. Lond. Math. Soc», 1966, v. 16, № 1, p. 53-84; [4] Logan B.F., Shepp L.A., там же, 1968, v. 18, № 1, p. 29-35; [5] Farahmand K., «Ann. Probab.», 1986, v. 14, № 2, p. 702-709; [61 его же, «Stoch. Anal, and AppU, 1987, v. 5, № 4, p. 379-86. Ю. К. Беляев, В. Я. Носко. СЛУЧАЙНЫЙ ПРОЦЕСС обобщенный (generalized random process) - см. Обобщенный случайный процесс. СЛУЧАЙНЫЙ ПРОЦЕСС; огибающая (envelope of a random process) - см. Случайный процесс, пересечения. СЛУЧАЙНЫЙ ПРОЦЕСС однородный по времени (homogeneous in time random process) - см. Стационарный случайный процесс. СЛУЧАЙНЫЙ ПРОЦЕСС опциональный (optional random process) - см. Вполне измеримый процесс. СЛУЧАЙНЫЙ ПРОЦЕСС; ортогональное разложение (orthogonal expansion of a random process) - см. Ка рунена - Лоэва разложение. СЛУЧАЙНЫЙ ПРОЦЕСС осциллирующий (oscillating random process) - см. Эволюционирующее спектральное представление. СЛУЧАЙНЫЙ ПРОЦЕСС; о тношение правдоподобия (random process; likelihood ratio) - см. Статистические задачи теории случайных процессов. СЛУЧАЙНЫЙ ПРОЦЕСС; пересечения (crossings of a random process) - точки пересечения графика выборочной функции случайного процесса с границей нек-рой выделенной области прямого произведения пространства временного параметра и фазового пространства. Для действительного С. п. X(t), fell?, пересечения у ро вня и - это точки, в к-рых X(t) = и. Пересечения уровня и = 0 называются нулями С. п. 612 СЛУЧАЙНЫЙ При рассмотрении пересечений уровня и действител >ным С. п. обычно предполагают, что: 1) выборочные функции процесса почти наверное непрерывны и не равны тождественно и ни в каком интервале области задания С. п.; 2) если область задания С. п. имеет конечные граничные точки, то почти наверное значения выборочных функций в этих точках отличны от и. Пересечения уровня и такими выборочными функциями классифицируются следующим образом (см. [11). Выборочная функция X(t) имеет в момент г() исин- ное пересечение уровня и, если в любой окрестности точки г0 найдутся такие точки t\ и г2> что (X(t{) - u)(X(t2) ~ - и) < 0. Все другие пересечения уровня и называются касаниями. Если Nu(a, b), Cu(a, b)t Tu(a, b) - число пересече ний, число истинных пересечений и число касаний урог.ня и на отрезке значений временного параметра [г/, h] соответственно, то Nu(a, b) -Cu(a, b) + Ttl(a, b). Истинное пересечение в момент г0 называется выходом за (входом под) уровень и, если существует такое е>0, что X(t) ^u(X(t) ^ и) для всех t из интервала (г0~е, *0) и X(t)^u(X(t)^u) для всех t из интервала (г0, *0 + e). В общем случае Си(а, b)>Uu(a, b) + Du(a, b), где Uti(a, b) и Du(a, b) - соответственно число выходов за и входов под уровень и на отрезке [а, Ь\. Однако если одномерная плотность Pi(x) С. и. X(t) равномерно ограничена по х на отрезке [а, Ь] и выборочная функция С. п. почти наверное непрерывно дифференцируемы, то почти наверное Ти(а, Ь)-0, число Nu(a, b) конечно и Nu(a, b) = Cu(a, b) = U„(at b) + Du(c, 6), то есть все пересечения являются истинными пересечениями и каждое из них является либо выходом либо входом. Если гауссовский С. п. X(t) имеет производную в среднем квадратичном X(t), непрерывную в среднем квадратичном, то при естественных условиях невырожденности (см. (1 j) ENu(a,b)=f'adtj'^\9\pt(u,y)dy, где pt(x, у) - совместная плотность вероятностей значений X(t) и X(t). Если, кроме того, для любых несовпадающих моментов времени rjt ..., tk совместное распределение случайных величин X(t\), ..., X(tfl), X(t\) X(tk) невмрождено и имеет плотность р((хь ..., xk, y]t ..., yk), то k-й факто- риальный момент Mk(a, b) = ENN(a, b)[Nu(a, b)-\\...[Nu(a, b)-k+U вычисляется по формуле (см. [2D Mk(a, b)=fa ...£ dty..dtk\^ ...£ \yy..yh\ x xpt(u, ..., u, yx yk)dylt .... dyk. Для конечности ENu(a, b) в случае, когда X(t) - стационарный гауссовский С. п., имеющий ковариационную функцию Bit), необходимо и достаточно конечности величины #"(0), что равносильно дифференцируемости С. п. X(t) в среднем квадратичном. При этом ENu(a, b) = K~\b~a)(-B"(0)/B(0))W2exv(-u2/2B(Q>)t EUu(a, b) = EDu(a, b) = (\/2)ENu(a, b). Вопрос о конечности факториальных моментов изучался многими авторами (см. [3]). Известны примеры С. п., к-рыс дифференцируемы в среднем квадратичном только один раз и имеют конечные факториальные моменты любого порядка к. Если ковариационная функция Bit) стационарного гауссов- ского С. п. X(t), EX(t)~0, удовлетворяет условию J~ t(\B(t)\ + \B'(t)\ + \B"(t)\)dt<oo
и дисперсия случайной величины NU(Q, Т) конечна при любом Г>0, то существует такое о~>0, что |imp|N„(0,r)-ENu(0,7-)<;rl 1 Г e^l2dz г->~ [ а2Т J V2nJ-~ Если среднее число пересечений ENu(ay Ь) конечно на любом конечном отрезке [а, b]t принадлежащем области задания С. п., то последовательность моментов пересечений этим С. п. уровня и удобно рассматривать как точечный случайный процесс. Такой подход приводит ко многим интересным результатам. Напр., если X(t) - стационарный гауссовский С. п., EX(t) -0, и его ковариационная функция Bit) допускает при £-»0 представление B(t) = B(0) - Ct2 + o(t2)t C>0 и B(t)h\ £->0 при t~>°°, то при согласованном изменении уровня и масштаба времени, сохраняющем среднее число выходов ЕС/ы(0, 1) постоянным и равным а, О < а <<*>, случайный точечный процесс выходов за уровень и сходится (при и->оо) по распределению к стационарному пуассоновскому точечному процессу, параметр к-рого равен а. В том случае, когда ENu(a, b) = + <*>, представляет интерес исследование размерности Хаусдорфа множества Аи(Х)П[а, Ь], где Аи{Х) = {t \X{t) - и) - множество уровня и С. п. X(t). Пусть центрированный сепарабельный гауссовский С. п. X(t), EX(t)~0, имеет ковариационную функцию B(s, t) = EX(s)X(t) и для каждой пары м, w существует отличный от нуля конечный предел Iim t~aB(tv, tw)=K(v, w). t->0 Тогда (см. [4]) почти наверное размерность Хаусдорфа множества Л0(Х)П[0, 1] равна 1-(а/2). Для винеровского процесса размерность этого множества равна 1/2. Другой путь изучения множеств уровня Аи(Х) в случае, когда среднее ENu(a, b) бесконечно на конечных отрезках, связан с введением так наз. т-пачек, то есть таких «компактных» групп пересечений уровня м, к-рые не содержат соседних пересечений, отстоящих друг от друга на расстояние, большее или равное т, т > 0, и в то же время удалены от других т-пачек на расстояния, превышающие т. Напр., для гауссов- ского стационарного С. п. X(t), EX(O = 0, имеющего ковариационную функцию Я(0=а2ехр(-аЫ), а>0, получено асимптотич. выражение при и -»<*> для средней длины т-пачки и исследован точечный С. п. т-точек, с к-рых начинаются т-пачки (см. [5]). В тесной связи с изучением пересечений С. п. находится исследование локальных экстремумов и стационарных точек С. п., выборочные функции к-рых почти наверное непрерывно дифференцируемы. Если гауссовский стационарный С. п. Х(0, EX(t) = 0, имеет вторую производную в среднем квадратичном X(t), то среднее число локальных максимумов С. п. X(t) на отрезке [а, Ь], имеющих высоту большую или равную и, равно vu(a, b) = (b-a)\" dxj*^ \z\p(x, 0, z)dzt где р(х, у, z) - совместная плотность распределения вероятностей случайных величин X(t), X(t), X(t). Пусть Yt=Y(t) = (Y\(t), ..., Ym(t)) - ти-мерный векторный С. п., принимающий значения в [Rт и имеющий почти наверное непрерывно дифференцируемые выборочные функции, и пусть Dc IPW - область с достаточно гладкой (см. [6]) границей 5Ф, задаваемой функцией Ф(у), у е [R ": 5ф = {г/еГСт:Ф(г/) = 0}, D = {y е№т:Ф(у) <0\. Выборочная функция С. п. Y имеет в момент т пересечение границы 5Ф, если Ф(Ут) = 0. Пересечение границы 5ф в момент 1 называется выходом из области D (входом в область D) через границу 5Ф, если существует такое е> 0, что Ф(Ут)<0 (Ф(Ут)>0) в интервале (т-е, т) и Ф(Ут)>0 (Ф(Ут)<0) в интервале (т, т + е). Все другие пересечения границы называются касаниями. Если у С. п. Y(t) существуют одномерные плотности pt(y) и эти плотности равномерно ограничены по у е IPW и по t, то: (а) с вероятностью 1 у С. п. Y(t) отсутствуют касания границы 5Ф области D; (6) общее число входов и выходов через границу 5Ф с вероятностью 1 конечно на любом конечном интервале времени. При нек-рых дополнительных условиях на процесс Y(t) в [б] получены формулы для факториальных моментов числа входов и числа выходов процесса У(0 через множество Гс5фв интервале времени s} ^ t^s2. Пусть Х(0, ЕХ(0 = 0,- вещественный стационарный С. п., имеющий ковариационную функцию B(t) = j~ cosXtdF(X) и спектральное представление Х(0 = J~ cosXt du(X) + J~ smXt dv(X), где и(Х) и v(X) - процессы с ортогональными приращениями, Eu(X) = Ev(X) = 0, Eu(XM\i) = 0, Eldu(X)]2 = E[dv(X)]2 = dF(X). Процесс X(t): X(t) = J~ smXtduiX) - J~ cosXtdv(t), называется преобразованием Гильберта С.п. X(t). Огибающей С.п. Х(0 называется С. п. Z(0 = [X2(0 + + Х (О]1' . Выходы за уровень и С. п. Z(t) соответствуют выходам векторного С. п. Y(t) = (X(t), Х(0) за границу круга D = {(#!, у2) *У\ + у2 <и }• Интенсивность точечного С. п. таких выходов можно вычислить в явном виде, если С. п. Х(0 гауссовский. Именно, если Х(0 - гауссовский С. п., ЕХ(О = 0, и для Im^o» *о>®* выполнено условие |£"(0)-£"(ONc/|lnU|1+e, С>0, е>0, то эта интенсивность равна К = ta - A r01)V2(2^0)-V2(w/ Xf)exp(_u2 /2XqX где Xk=j~XkcosXtdF(X). Использование такого подхода дает возможность исследовать различные характеристики выбросов С. п. Z(t) (см. Выброс случайного процесса и поля). Лит.: [1] Крамер Г., Лидбеттер М., Стационарные случайные процессы, пер. с англ., М., 1969; [2] Малевич Т. Л., в сб.: Случайные процессы и статистические выводы, в. 5, Таш., 1975, с. 73-79; [3J Мирошин Р. Н., Пересечепия кривых гауссовскими процессами, Л., 1981; [4] Островский Е. И., «Вестн. Моск. ун-та. Матем., механ.», 1973, № 2, с. 23-29; [5] Беляев Ю. К., Питер- барг В. И., «Теория вероятн. и ее примен.», 1970, т. 15, в. 2, с. 217-27; [6] Беляев Ю. К., там же, 1968, т. 13, в. 2, с. 333-37; [7] его же, в кн. [1], с. 341-78; [8] Питербарг В.И., в кн.: Случайные процессы. Выборочные функции и пересечения, пер. с англ., М., 1978, с. 258-80; [9] его же, в сб.: Итоги науки и техники. Сер. Теория вероятностей. Математическая статистика. Теоретическая кибернетика, т. 19, М., 1982, с. 155-99. Ю. К. Беляев, В. П. Носко. СЛУЧАЙНЫЙ ПРОЦЕСС периодически коррелированный (periodically correlated random process) - см. Периодически коррелированный случайный процесс. СЛУЧАЙНЫЙ 613
СЛУЧАЙНЫЙ ПРОЦЕСС периодически распределенный (periodically distributed random process) - см. Периодически распределенный случайный процесс. СЛУЧАЙНЫЙ ПРОЦЕСС; пороговая модель (threshold model of a random process) - см. Пороговая модель случайного процесса. СЛУЧАЙНЫЙ ПРОЦЕСС; предельные теоремы (limit theorems for random processes) - см. Предельные теоремы для случайных процессов. СЛУЧАЙНЫЙ ПРОЦЕСС предсказуемый (predictable random process) - см. Предсказуемый случайный процесс. СЛУЧАЙНЫЙ ПРОЦЕСС; принцип инвариантности (invariance principle for random processes) - см. Инвариантности принцип для случайных процессов. СЛУЧАЙНЫЙ ПРОЦЕСС; прогнозирование, экстраполяция (forecasting/extrapolation of a random process) - задача об оценке значений случайного процесса Х(0 в будущем t > s по его наблюдаемым значениям до текущего момента времени s. Обычно имеют в виду экстраполяционную оценку X(t), t>s, для к-рой среднеквадратичная ошибка E\X(t)-X(t)\ является минимальной в сравнении со всеми другими оценками, составленными по значениям рассматриваемого процесса в прошлом до момента s (прогнозирование называется линейным, если ограничиваются линейными оценками). Одной из первых была поставлена и решена задача линейного прогнозирования стационарной последовательности, имеющая следующий аналог: в пространстве L интегрируемых в квадрате функций на отрезке -я ^ X ^ я найти проекцию функции ф(Х) € L на подпространство, порожденное функциями е1 *<рШ, 6 = 0, -1, -2, ...; эта задача получила широкое обобщение в теории стационарных случайных процессов. Примером для приложений может служить задача прогнозирования С. п., возникающего в системе LX(t) = Y(t), t> tQ, с линейным дифференциальным оператором L порядка / и белым шумом Y(t), t>tQ, в правой части; здесь наилучший прогноз Х(0, t>s, по значениям в моменты £0<f<s при независимых от белого шума начальных значениях X (t0), k-0, ..., /- 1, может быть дан с помощью решения соответствующего уравнения LX(t) = 0, t>s, с начальными условиями Х( 4s) = X (s), k = 0, ..., /-1. Для систем стохастич. дифференциальных уравнений задача прогнозирования одних компонент по значениям других наблюдаемых компонент приводит к соответствующим стохастич. уравнениям экстраполяции. Лит. см. при ст. Случайный процесс; интерполяция. Ю. А. Розанов. СЛУЧАЙНЫЙ ПРОЦЕСС прогрессивно измеримый (progressively measurable random process) - см. Прогрессивно измеримый процесс. СЛУЧАЙНЫЙ ПРОЦЕСС; регулярность траекторий (regularity of trajectories/paths of a random process) - одно из свойств случайного процесса, характеризующее его непрерывность (гладкость). С. п. X(t, со), t е 7\ Т - нек-рое топологич. пространство, называется почти наверное непрерывным, если существует версия С. п. X(t, со) такая, что почти для всех со его траектории X(t) = X(t, со) непрерывны на Т. Условие почти наверное непрерывности сепа- рабельного С. п. X(t, со) на прямой, Т- [0, Т] £ IP, дает теорема Колмогорова. Пусть существуют неотрицательные моно- 614 СЛУЧАЙНЫЙ тонно убывающая функция g(h) и функция q(C, h)> h>0, такие, что Q(m,C) = Y~ 2nq(C,2-nT)<oo для нек-рых С и т. Тогда процесс X(t, со) почти наверное непрерывен на [0, Т]. Если, кроме того, Q(m} С)-*О для нек-рого m при С -> <», то существует почти наверное положительная случайная величина у=у(со) такая, что для любого е > 0 sup |х(*\ со)-Х(Г, ю)|^ t',t"&[0Jl\t'-r\<t ^Y(co)Q(ro, [log2r/2el). Для гауссовских С. п. условие этой теоремы может быть существенно ослаблено. Напр., если корреляционная функция г (О стационарного гауссовского С. п. удовлетворяет условию 1-г(/г) = 0(1/|1п|/г||р), /*-►(), прир>1, то процесс X(t, со) почти наверное непрерывен, тогда как условие теоремы Колмогорова выполнено лишь при р>3. При изучении свойств регулярности траекторий гауссонско- го С. п. существенную роль играет закон 0 или 1. Пусть X(t, со), teT, - гауссовский С. п., заданный на произвольном параметрич. множестве 7\ и пусть К - произвольное линейное подпространство пространства всех действительных функций на Т. Тогда траектории процесса X(t, со) либо почти наверное принадлежат К, либо почти наверное не принадлежат ему. В частности, траектории гауссовского С. п. либо почти наверное непрерывны, либо почти наверное разрывны; либо почти наверное дифференцируемы, либо почти наверное недиффе- ренцируемы; либо почти наверное ограничены и т. п. При исследовании почти наверное непрерывности гауссовских С. п. плодотворным оказался энтропийный подход Судакова - Дадли, позволивший ответить на поставленный в 30-х гг. А. Н. Колмогоровым вопрос: каковы необходимые и достаточные условия (в терминах ковариации процесса) почти наверное непрерывности гауссовского С. п.? Пусть ЕХ(£,со) = 0. Функция </(£, s) = (E(Xa, co)-X(s, co))2)1/2 является псевдометрикой на Г и задает на Т так наз. естественную топологию. Пусть Bit, e)-{s:d(s, t) <e, stT}- d-шар в Т радиуса е с центром в t, N(S, e), 5Q7\ - минимальное число d-шаров радиуса е, покрывающих 5, H(S у е) = log2 N(S, е) - е-э н т р о п и я (или энтропия по Колмогорову) множества 5. Теорема Судакова - Дадли. Если EX(t)=;0 и существует 8>0 такое, что v(6) = Jo yfH{S7x)dx<oo> то гауссовский С. п. X(t, со), t e 5, почти наверное непрерывен в топологии d. Более того, существует почти наверное положительная случайная величина е = е(со) такая, что для всех t, V таких, что d(t> ?) <е(со), имеет место неравенство |XU, со)- X(t', со)| <680|^} ,J\og2(\ + N(S,u)/u)du. Если на Т имеется другая топология т (напр., топология евклидова пространства в случае Т a IP") и ковариационная функция r(t, s) гауссовского С. п. X(t} со) непрерывна в этой топологии, то конечность интеграла у (5) влечет почти наверное непрерывность гауссовского С. п. X(t, со) в топологии т. Теорема Ферника. Пусть X(t, со) - однородное гаус- совское поле (процесс) с нулевым средним и непрерывной
ковариационной функцией. Тогда условие «\|/(8) <°° для любого 8 > О» является необходимым для почти наверное непрерывности гауссовского С. п. X{t, со). Изччено множество точек разрыва траекторий гауссовского С. н. Пусть 8 - метрика на Т. 8-осцилляцией действительной функции f{t) на Г называется функция WAt)=Um sup \f{s)-f{s')\. ' Е-+0 8(£,sKe,5(t,s'XE Если (Г, б) - метрич. сепарабельное пространство и X{t, со), t е Г,- гауссовский С. п. такой, что функция d{t, s) равномерно непрерывна на (Г, 8), то существует неслучайная функция a{t), t е Г, такая, что ^x(t ш)(0 = а(0 для всех t с вероятностью 1, причем для любого t почти наверное HmX(s, со) = Х(^,со)-^а(0, lim X(s, со) = X{t, со) + -а(0 *->* 2 (теорема Ито - Нисио). Из этого утверждения вытекает следующее замечательное свойство стационарных гаус- совских С. п. Альтернатива Беляева ~ Добрушина. Если функция a{t) не зависит от t, то либо a{t) =0, либо а(0 soo. То есть траектории стационарного гауссовского С. п. (поля) либо почти наверное непрерывны, либо почти наверное нео- граничены на любом открытом множестве. Энтропийный подход развивается для исследования негаус- совских С. п., являющихся элементами пространств Орлича; сюда входят так наз. субгауссовские и предгауссовские процессы (см. [3]). Локальные свойства траекторий исследуются также методом изучения сходимости рядов случайных величин со значениями в банаховом пространстве (см. [4]), методом теорем вложения (см. [6]). Лит.: [1] Ферник К., в сб.: Случайные процессы. Выборочные функции и пересечения, М., 1978, с. 63-132; [2] Дадли Р., там же, с. 7-62; [3] Коз а чем ко Ю. В., в сб.: Теория вероятностей и математическая статистика, К., 1984, в. 30, с. 92-107; в. 31, с. 44-50; [4] Булдыгин В. В., Сходимость случайных элементов в топологических пространствах, К., 1980; [5] ГихманИ.И., Скороход Л. В., Введение в теорию случайных процессов, 2 изд., М., 1977; [6} Ибрагимов И. А., «Теория вероятн. и ее примен.», 1983, т. 28, в. 2, с. 229-50. В. И. Питербарг. СЛУЧАЙНЫЙ ПРОЦЕСС с дискретной компонентой (stochastic process with discrete component) - пара случайных процессов {Xx{t)f X2{t)} на общем вероятностном пространстве (ft, .V, P), один из к-рых (пусть первый) является скачкообразным, рассматриваемая как единый случайный процесс в произведении фазовых пространств (£"1 х Е2, ^ х.*2), где (£"•, .*/■) - фазовое пространство процесса X{{t)t i=l, 2. Интерес к такого рода объектам обусловлен прежде всего тем, что, присоединяя к скачкообразному процессу Xx{t) дополнительную компоненту X2{t), его часто можно сделать однородным марковским. Типичный пример - полу марковский процесс. По этой причине подавляющее большинство работ по данной теме посвящено однородным марковским процессам с дискретной компонентой. Лит.: [1] ГихманИ.И., Скороход А. В., Теория случайных процессов, т. 2, М., 1973. В. М. Шуреиков. СЛУЧАЙНЫЙ ПРОЦЕСС с дискретным временем (discrete time random process) - см. Случайная последовательность. СЛУЧАЙНЫЙ ПРОЦЕСС с многомерным временем (random process with multidimensional time) - см. Случайное поле. СЛУЧАЙНЫЙ ПРОЦЕСС с многомерным параметром (random process with multidimensional parameter) - см. Случайное поле. СЛУЧАЙНЫЙ ПРОЦЕСС с независимыми приращениями (random process with independent increments) - случайный процесс X{t), для к-рого при любых натуральных п и значениях аргумента из области определения процесса t0<tx< ...<tn случайные величины X{t0), X{tx)-X{t^)> ..., X{tn) - X{tn^x) независимы. Фазовое пространство С. п. с независимыми приращениями должно быть аддитивной группой. Обычно рассматриваются процессы с числовыми или векторными значениями. Для задания конечномерных распределений процесса достаточно задать одномерные распределения процесса, а также распределение приращений процесса. Если tpt{z) - характеристич. функция X{t), yStt{z) - характе- ристич. функция приращения X{t)~ X{s), s<t, то эти функции связаны соотношением tpt{z) = (ps{z)\\rs t{z), а совместная характеристич. функция величин X{t0), X{tx), ..., X{tn) определяется равенством 1т W .) = Разложение Леви. Пусть фазовое пространство М - конечномерное евклидово пространство. Тогда всякий С. п. с независимыми приращениями представим в виде X{t) = a{t) + Xx{t) + X2{t), где a{t) - неслучайная функция, Xx{t) - дискретный С. и. с независимыми приращениями, X2{t) ~ стохастически непрерывный С. п. с независимыми приращениями; эти процессы независимы между собой. Дискретный С. п. с независимыми приращениями устроен следующим образом. Если Т - область определения процесса, Т - ее замыкание, то существует счетное подмножество Г0 <= Г и набор независимых в совокупности величин {£*, £~, s е Г0} со значениями в М такие, что ^+1,>Л+ (ряды в правой части сходятся почти наверное и их суммы не зависят от порядка суммирования). Для стохастически непрерывного процесса с независимыми приращениями X2{t) существуют такие функции: ax{t) со значениями в Л/, B{t) со значениями в пространстве L+{M) неотрицательных линейных операторов из М в Л/, Ut{dx) в пространстве конечных борелевских мер на А/, не имеющих атома в нуле, что характеристич. функция приращения процесса имеет вид ys л {z) = exp ii{z, ах (О - ах (*)) - i {{Bit) - B{s))z, z) + +i(ei(2-x)-,-i^)^i[n'№)-^(H}- s<t' (2) при этом функции Я](О, B{t), Ut{) непрерывны (П - по вариации), B{t) и П,() монотонно не убывают. Формула (2) показывает, что приращения стохастически непрерывного С. п. с независимыми приращениями имеет безгранично делимое распределение. Функции ax{t) и B{t) определяются по распределениям приращений процесса однозначно. Для стохастически непрерывного С. п. с независимыми приращениями всегда существует непрерывная справа и имеющая пределы слева модификация. Пусть область определения С. п. с независимыми приращениями X{t), непрерывного справа и имеющего пределы слева X{t_)} есть И?+. И пусть случайная мера для t e 1Р+ СЛУЧАЙНЫЙ 615
где А - борелевское множество из М; суммирование производится по точкам разрыва функции X(t) (их не более чем счетное множество). Это - мера скачков процесса. Она удовлетворяет следующим условиям: 1) vt(A) конечна для всех А, к-рые лежат на положительном расстоянии от точки О е X; 2) каковы бы ни были Ах, А2, ..., Ат, для к-рых AiC\AJ = 0 при i=j, случайные процессы vt(A^)t ..., vfC4m) независимы между собой; 3) если А лежит на положительном расстоянии от точки О, то уДЛ) является процессом с независимыми приращениями, величина vt(A) имеет пуассоновское распределение и функция Gt(A) = Evt(A) является конечной борелевской мерой по А на X, при этом 1+М2 JA Gt(A) = i -Ut(dx\ где Ut(A) - мера, входящая в формулу (2); 4) определен С. п. с независимыми приращениями XdU) = j: vt(dx)-~-^-Gt(dx) i+W (справа записан стохастич. интеграл), этот процесс обладает тем свойством, что X(t) - Xd(t) = Xc(t) является непрерывным С. п. с независимыми приращениями, этот процесс не зависит от Xd(t). У всякого непрерывного С. п. с независимыми приращениями приращения имеют гауссовские распределения, поэтому для такого процесса Хс(0 распределение Xc(O~Xc(0) полностью определяется математич. ожиданием и корреляционным оператором. Для процесса Хс(0 = Х(0 - Xd(t) величина Е(Хс(О-Хс(0)) = 01,(0, при z € Е E(Xc(O-Xc(0)-flt(O, z)2 = (B(t)z, г), где д^СО и B(t) - функции, входящие в формулу (2). С. п. с независимыми приращениями называют ступенчатым, если он постоянен между точками разрыва; таких точек конечное число на каждом конечном множестве. Если Х(0 - ступенчатый С. п. с независимыми приращениями, Х(0) = 0, то его характеристич. функция определяется равенством Eexp{i(z,X(t))} = exp{\(ei(zx)-\)Gt(dx)}, где Gt(-) - конечная мера на А/. Пусть А/= 11?. Для того чтобы С. п. с независимыми приращениями Х(О(Х(0) = 0) имел неубывающую модификацию, необходимо и достаточно, чтобы его характеристич. функция представлялась в виде Eexp{izX(t)} = exp{izy(t) + \~(eizx-\)Gt(dx)}, где у (О - неубывающая непрерывная функция, у(0) = 0, Gt(dx) ~ мера, для к-рой /; о i+* Gt(dx) <оо. Пусть М - конечномерное пространство. С. п. с независимыми приращениями X(t) имеет модификацию с локально ограниченной вариацией, если его характеристич. функция предста- вима в виде Eexp{i(2, Х(0)} = ехр{г(г, a(t))+jXJ(*lX)-\)Gt(dx)}, 616 СЛУЧАЙНЫЙ где а(0 - непрерывная функция ограниченной вариации, Gt(dx) - мера, для к-рой J -^~ Gt(dx) <oo. 1+Ы При этом процесс V(0 = varX() (это -вариация функции 10,£] Х() на отрезке [0, t]) будет одномерным стохастически непрерывным С. п. с независимыми приращениями, его характеристич. функция определяется формулой Еехр{г'Ш0} = expJiA.vara() + f (e*W - \)GAdx)\ { [o,t\ J J С. п. с независимыми приращениями является марковским процессом с вероятностью перехода P(s, х, t, B) = P{X(t)-X(s)<=B-x}, O^s^t, x&M, Bed, (B-x) - множество тех у, для к-рых х + уеВ. Это означает, что Х(0 как марковский процесс однороден по пространству. Стохастически непрерывный С. п. с независимыми приращениями Х(t) называется однородным, если он определен при t € R?+, X(0) = 0 и распределение X(t + h) - Х(0 не зависит от t. В этом случае он будет и однородным марковским процессом. Для однородного С. п. с независимыми приращениями Х(0 в конечномерном евклидовом пространстве М существуют такие сеМ, Be L+(M) и мера G(dx) на 33, для к-рой :G(dx) <oo, что характеристич. функция ф;(г) процесса определяется равенством Ф,(г) = ехр{Шг)}, где K(z)=i(z, a)-±(Bz, г)+ \ (е*г>х) -1 - ^1с(^), K(z) называется кумулянтой процесса. Как с марковским процессом с однородным Си. с независимыми приращениями можно связать уравнение Колмогорова? Пусть f(x) - дважды непрерывно дифференцируемая функция из М в II? с ограниченными производными первого и второго порядка. Пусть u(t, х) = Ef(x + Х(0). Тогда функция u(t, x) удовлетворяет интегро-дифференциальному уравнению параболич. типа du(t, х) r f ч —г—-= Lu(t, х), Bt (3) где ' *~Ч 1 ВХ: 2 «-* * дХ;ЭхЬ +J Ifb + yy-fM-Jt-^fMyi Ч*Г Gidyl xv a{ - координаты векторов хна, bik - элементы матрицы В в нек-ром ортонормированном базисе пространства М. Уравнение (3) следует решать с начальным условием ы(0, x) = f(x). Оно называется обратным уравнением Колмогорова. Однородный С. п. с независимыми приращениями является однородным марковским процессом, L - его производящий оператор на дважды непрерывно дифференцируемых функциях. Если Pit, х, В) - вероятность перехода процесса, то его резольвента Rx(x, B)^\~ e~XtP(t, х, B)dt
определяется соотношением Rxix, B) = rxiB-x), где [ eiUx\idx) = ?—- = J X X-Kiz) = expjj^l^ J (*«*■*> -1)P{X(0 e </*}</A, то есть - f\(fi) также имеет безгранично делимое распределение. Пусть SеМ - односвязная область с гладкой границей, х - момонт первого выхода процесса x + Xit) из области S, vit, x) = Ef(X(x))I{T<ty Если функция vit, х) дифференцируема по х дважды, то она удовлетворяет уравнению dv{t, х) _ at Lvit, х), xsS, и условиям vit, x) = fix), xe [S], v(0, *) = 0, xeS. Пусть gix) - ограниченная дважды непрерывно дифференцируемая функция из М в II? с ограниченными первыми и вторыми производными; <bxit)=\tQgiXis)+x)ds - аддитивный функционал интегрального типа от процесса Xit). Для нахождения его распределения можно использовать следующее уравнение для преобразования Лапласа величины Фх(0. Пусть wit, x) = Еехр{ХФх(0}. Тогда wit, x) удовлетворяв! уравнению а at wit, x) = Lwit, x) + Xgix)wit, x), t>0, и начальному условию wiO, x) = \. Стохастически непрерывный С. п. с независимыми приращениями называется локально однородным, если функции a^it), Bit) и Пг(£), определяющие его характери- стич. функцию по формуле (2), дифференцируемы по t. Пусть *,(*)=£ *•(*)</«, B(t)=\tQB*(s)ds, пдл)=]*0п;сш5, где функции a*is), B*is), П*(Л) измеримы и локально интегрируемы; Ltf - интегро-дифференциальный оператор на дважды дифференцируемых функциях f из М в IR, а*, xitB*k- координаты векторов а*, х и элементы матрицы оператора В* в нек-ром ортонормированном базисе пространства М. На локально однородные процессы распространяются результаты, приведенные выше для однородных процессов. Пусть fix) дважды непрерывно дифференцируема, /£, fxx ограничены " utis,x) = Efix + Xit)-Xis)), vtis, х) « Еехр {Х^ fix + Xit) ~ Xis))ds}. Тогда при 0 < 5 < t эти функции удовлетворяют уравнениям г- utis, x) + Lsutis, x) = О, as —vtis, x) + Lsvtis, x) + Xfix) vtis, x)-0 as и начальным условиям utit, x) = fix), vtit, x)=\. Пусть S<^M- односвязная область с гладкой границей,^- момент выхода из S процесса Xit)-Xis)+x, t>s. Тогда функция wtis, x) = P{xs<t} удовлетворяет уравнению —wtis, x) + Lswis, х) - О, х € 5, и дополнительным условиям wt(s, x) = \, xeS, 0^s<t, wtit, *) = 0, xeS, в предположении, что эта функция достаточно гладкая по х. Однородные С.п. с независимыми приращениями в (I?. Для таких процессов основную роль играют лестничные функционалы. Пусть Xit) - такой процесс, х>0, хх - момент первого попадания процесса в интервал ix, °°), yx = Xixx)~ x, эти величины называются соответственно моментом и величиной перескока через уровень х (см. Эксцесс блуждания, Перескок). Пусть Q+it, x) = Pfsup Xis) <х} = Р{хх > t), q+iX, x) = \~ e~XtQ+it, x)dt, q+iX, x) =\eizxdxq+iX, x). Тогда q.tX. г) = lexp{j;^ij; (e'~ - 1М/((Л(), где Ftix) = P{Xit)<x}. По функции q+iX, z) можно определить q+iX, x)} а значит, распределение xx; %х (*<0) определяется как момент первого попадания в ( -ее, х), yx = Xixx) - х. Если Qit, x) = P{inf Xis) >x} = P{xx < t), q.iX, *) = J~ e~XtQ_it, x)dt, q.iX, z) = J~ eizxdxq_iX, x), qAX, z) = ±exp{j~ ^ J~ ie«x - \)dxFtix)dt Пусть X+ = sup Xit) (возможно X+= + <»); P{X+<°o}=l тогда и только тогда, когда j~jP{XU)>0}dt<oo, при этом izX, Еегл+ = exp{j~ jj~ ieizx -\)dxFtix)dt\ Р{Х+ = 0} - P{supXaK0} =expl^P{Xit)>0}dt\. Если niX, у, х) = JQ~ e~XtdtP{xx<t,yxZy},x>0,y>0, TO niX, y, x)- = XJl(Jl>gGi[x + y-u-z,oo))dq_iX,z)yq+iX,z). Аналогичная формула справедлива при д:<0, у<0 iq_ и q+ меняются местами). Зная niX, у, х) для д:>0, у>0 и д:<0, у<0, можно определить меру Г(дг, dt, dy) = P{xx € dt, Xixx) e dy} (если х > 0, то мера Г сосредоточена на В?+ х [х, <»), если х < 0, то на И?+ х ( - оо, х]). Если положить Qit\ а, Ь\ а, Р) = Р{ inf Xis)^a, sup Xis)**b, a<Xit)<$}, СЛУЧАЙНЫЙ 617
где а<0<Ь, a<a<P^fc, Ft(a, p) = P{a<X(0 <Р), то QU; a, b; a, p) = = Ft(a, P)-Y~ n Г f f П6, d*„ dyx)x xV(a-yvdt2,dy2)... T(ck + ] -yk, dtk+v dyk+l)x xFt_tk+i(a-yk+v$-yk^) + TXatdtitdyl)x хГ(Ь-yv dt2, dy2)... V(ck -yk, dtk+v dyk+i)x xFt_^+i(a-^+1,p-^+1)j, где ck-a, если k четно, ck = b, если k нечетно. Полунепрерывные однородные С. п. с независимыми приращениями - это процессы, у к-рых нет либо положительных скачков (они полунепрерывны снизу), либо нет отрицательных скачков (они полунепрерывны сверху). Если процесс не имеет положительных скачков, то его характери- стич. функция имеет вид фг(г) = ехр {tK(z)}, К(г) = iaz - Ifo?2 + f° [ehx - 1 - -•" Ъ«*). 2 J-oo у \±xl) K(z) называется кумулянтой однородного С. п. с независимыми приращениями. Кумулянта аналитична при 1тг<0. Пусть Р{тх<°°} = \ для всех .г>0, это будет тогда и только тогда, когда х а-\ -G(dx)^0. Из полунепрерывности вытекает, что Х(тх)-х. Функцию хх можно рассматривать как случайную функцию х на 1Р+; т^ как С. п. является однородным С. п. с независимыми приращениями, это неубывающий процесс и его преобразование Лапласа определяется равенством Еехр{-Хтх) = ехр{- хВ(Х)}} Х>0} функция В(Х) определяется из равенства K(-iB(X)) = X. Для такого процесса распределение хх и X(t) связаны соотношением f j>{t,<*/y-j/;>,{*<*><»>. к-рое выполняется для всех s>0, для к-рых правая часть непрерывна по s. Для х < О справедлива формула P{inf X(s)<x) = P{X(t)<x} + + -^\t0~E[X(s)vO]P{X(t-s)<x)ds. Рост процесса на бесконечности. Если X(t)- симметричный однородный процесс в IP (это означает, что распределение X(t) совпадает с распределением Х(0), а ф(0 - непрерывная возрастающая функция на 1Р+, для к-рой q(t + s) ^ф(0 + ф($), £>0, s>0, то для выполнения соотношения pjlim-^-X(0^ll = l необходимо и достаточно, чтобы |~уР{Х(0>ф(0№<~. 618 СЛУЧАЙНЫЙ Если X(t) - однородный процесс в И?, для к-рого ЕХ(О = 0, DX(t) = bt, то выполнен закон повторного логарифма Р lim- x(t) 1=1. >J2bt\n\nt См. также Случайный процесс с независимыми приращениями; асимптотические свойства, Случайный процесс с независимыми приращениями; локальные свойства. Лит.: [1] Гихман И. И., Скороход А. В., Теория случайных процессов, т. 2, М., 1973; [2] Скороход А. В., Случайные процессы с независимыми приращениями, 2 изд., М., 1986. Л. В. Скороход. СЛУЧАЙНЫЙ ПРОЦЕСС с независимыми приращениями; асимптотические свойства (asymptotic properties of random process with independent increments) - свойства, характеризующие поведение случайного процесса с независимыми приращениями при t -> О или t -» <*>. Для однородных процессов асимптотич. свойства, полученные при t -»°°, справедливы в том же виде и при стремлении t к любому другому конечному моменту времени. Утверждения об асимптотич. свойствах процессов с независимыми приращениями имеют вид законов больших чисел или законов повторного логарифма. Характерным является следующее утверждение: если процесс X{t) является однородным и существует ЕХ(1), то P{lim *(*)/* = ЕХ(1)) = 1. t—► оо Лит.: [ 1 ] Скороход А. В., Случайные процессы с независимыми приращениями, 2 изд., М., 1986. О. И. Клесов. СЛУЧАЙНЫЙ ПРОЦЕСС с независимыми приращениями изотропный (isotropic random process with independent increments) - см. Изотропный случайный про цесс с независимыми приращениями. СЛУЧАЙНЫЙ ПРОЦЕСС с независимыми приращениями; локальные свойства (local properties of random process with independent increments) - свойства, характеризующие поведение случайного процесса X(t) и его приращений X(s + t)-X(s) при £-»0. Для однородных С. п. с независимыми приращениями исследование асимптотики X(s + t)-X(s) при фиксированном s сводится к изучению поведения процесса в нуле. Скорость локального роста однородного числового С. п. с независимыми приращениями удобно оценивать с помощью интегрального критерия (А. Я. Хин- чин, Б. В. Гнеденко): если ф(0 - неотрицательная непрерывная возрастающая функция, для к-рой limsup nii t когда (рЫ) ф) ■■ 1, P{X(t)>- £ф(0}^<?Е >0 для любого е>0, Р{НтХ(О/ф(0<1} = 1, tio l = ll^P{X{t)>^(t))dt< Р{ПтХ(О/ф(0>1} = 1, когда / = оо. Для конкретных типов С. п. с независимыми приращениями удается указать точную верхнюю границу локального роста. Примером служат закон повторного логарифма для винеров- ского процесса и его аналоги для полунепрерывных сниау устойчивых процессов (см. [1]). Для процессов без гауссов- ской компоненты P{limX(0/V*MM tio :0} = 1.
Если у С. п. с независимыми приращениями мера Леви G^O, то почти наверное если у>р, если у<р, где limrVY|X(0| = {°' p = inf|a:^HaG(^)<ocJ. Для устойчивых процессов р совпадает с параметром a е (0, 2) устойчивого закона. Для нижней границы роста устойчивого процесса с параметром ае (0, 2] справедливо P{lim(ln|lnt|/01/a sup |ХО?)1 = са} = 1, где 0<са<<*>. При а = 2 (винеровский процесс) с2 = 70^- Вид функции \у такой, что \imX(t)/yy(t) = const f-»0 известен и для возрастающих процессов (см. [2]). Равномерный модуль непрерывности существует только у винеровского процесса. Но равномерные нижние границы роста приращений можно указать и для полунепрерывных устойчивых процессов; так, при (3=1, а* 1 э J Iim inf ХЫО-XU) 1 1Уа(2\Ш\)(а~])1а <U M = 1. где 0<rfa<°° при 0<а<1 и -<*> < rfa < 0 при 1 <а<2 (см. [3]). Лит.: [1] ГихманИ.И., С к орох о д А. В., Теория случайных процессов, т. 2, М., 1973; [2] Fristedt В. Е., PruittW.E., «Z. Wahr. und verw. Geb.», 1971, Bd 18, №3, S. 167-82 [31 Mijnheer J. L., там же, 1973, Bd 27, №2, S. 153-70: [4J SamorodnitskyG., TagguM.S., Stabl non-Gaussian random process. Stochastic models with infinite variance, L., 1994. H. M. Зинченко. СЛУЧАЙНЫЙ ПРОЦЕСС с независимыми при ращениями; разложение Л е в и (Levi decomposition of a random process with independent increments) - см. Леви разложение случайных процессов с независимыми приращениями. СЛУЧАЙНЫЙ ПРОЦЕСС с независимыми приращениями; распределение верхней и нижней граней (random process with independent increments; distribution of the upper and lower bounds) - распределение верхней грани X+(t)= sup X(u) и нижней грани X~{0= inf X(u) случайного процесса X(t) с независимыми приращениями. Характеристич. функция однородного процесса X(t) обладает свойством безграничной делимости и определяется соотношением при этом кумулянта \у(а) имеет представление Леви - Хинчина 2 „, \jKa) = icw-ya2 + J [eicu-\-iaxS(\x\<\)]dn(x)t J |*|dn(*)<oo, |я|<°о, a2>0. Для однородных процессов их распределения определяются компонентами тождества безгранично делимой факторизации: lnEetaX*(*x) = ±J±0° ieiax .])dN±{xX р{вх >t] = e-U% N£(x) = -\~ e-ut~*P{X(t)^x}dt, x>0, N{(x)=\~ e'Xtt^P{X{t)<x}dt} *<0. Первое факторизационное тождество (*) называется тождеством безгранично делимой факторизации. Соотношение, определяющее характеристич. функцию для X (в^), является аналогом тождества Поллачека - Спитцера. Распределения почти всех граничных функционалов процесса X(t) выражаются в терминах распределений Х^б^), Х>0. Если процесс X(t) имеет скачки одного знака (такие процессы называются полунепрерывными), то распределение X (в^) или Х~(вх) является показательным. В частности, если X(t) имеет только отрицательные скачки (еШ(*) = 0 для #>0), то P{X\Qx>>x} = e~x?a) (*>0); рСК) - единственный положительный корень уравнения V(ip) = A.a>0). Лит.: [ 1 ] С к о р о х о д А. В., Случайные процессы с независимыми приращениями, 2 изд., М., 1986; [2] Справочник по теории вероятностей и математической статистике, 2 изд., М., 1985; [3] Братий- чукН.С, Гусак Д. В., Граничные задачи для процессов с независимыми приращениями, К., 1990. Д. В. Гусак. СЛУЧАЙНЫЙ ПРОЦЕСС с независимыми приращениями; распределение момента достижения и величины перескока (random process with independent increments; distribution of the first passage/hitting/crossing time and of the overshoot/excess) - распределение момента достижения и величины перескока уровня х ^ 0 для случайного процесса X(t) с независимыми приращениями T*=inf {t:X(t)>x}, у+(х) = Х(т+ + 0)-х, х^О. Распределение т^ связано с распределением X (0= sup X(u): P{x+>t} = P{X+(t)<x}. Для однородных процессов совместное распределение т* и у (х) определяется вторым факторизационным тождеством: Е[ехр{-^-^+(ец)}, т9;<~] = Eexp{-uX+(ex)}~ \L-ll 1-- Еехр{-иХ+(вх)}] Х>0, ц>0, м>0, ®Х> % ~ показательно распределенные случайные величины с параметрами X и р, соответственно. Аналогично определяются распределения момента достижения и величины перескока отрицательного уровня х < 0. Для полунепрерывного процесса X(t) с отрицательными скачками Е[е"Ч х+х<оо]=Р{Х+(дх)>х} = е-хра) (*>0), рШ - единственный положительный корень уравнения y(ip) = A, (Х>0), у - кумулянта процесса X(t). Лит.: [ 1 ] Скороход А. В., Случайные процессы с независимыми приращениями, 2 изд., М., 1986; [2J Справочник по теории вероятностей и математической статистике, 2 изд., М., 1985. Д, В. Гусак. СЛУЧАЙНЫЙ 619
СЛУЧАЙНЫЙ ПРОЦЕСС с независимыми приращениями; резольвента (resolvent of a random process with independent increments) - резольвента марковского процесса, частным случаем к-рого является случайный процесс с независимыми приращениями. Для однородного С. п. ХЦ) с независимыми приращениями резольвента Rk(x, В) = j~ e~ktP{X(t) + хе B)dt = гк(В -х), где КЦ) - кумулянта процесса ХЦ). Э. Д. Сильвестрова. СЛУЧАЙНЫЙ ПРОЦЕСС с независимыми приращениями устойчивый (stable random process with independent increments) - см. Устойчивый случайный процесс с независимыми приращениями. СЛУЧАЙНЫЙ ПРОЦЕСС с независимыми приращениями; характеристическая функция (characteristic function of a random process with independent increments) - функция ф(£, и) = Еехр{г(М, ХЦ)}, меГ, где ХЦ), tsT = [t0, t]],- стохастически непрерывный случайный процесс с независимыми приращениями со значениями в IRW и с X(t0) = 0, (-, •) - скалярное произведение в И?™. Функция ф(£, и) является характеристич. функцией безгранично делимого распределения и по формуле Леей канонического представления ln«p(t, и) = |(и, аЦ))-± (ВЦ)и, и) + *-\{0) ^ i+|x|2 ) функция а: Т -» И?™ непрерывна, ВЦ) непрерывна и не убывает как функция со значениями во множестве самосопряженных неотрицательных операторов в1Р™, функция ПЦ, Л)^0 определена, непрерывна и не убывает по t на каждом борелев- ском Ав№т с inf{UI :д:еЛ}>0, счетно-аддитивна по А при каждом t и Jr-MO} W2(t + W2)~1na dx)<~. Функции а, В и П определяются однозначно и имеют для сепарабельного процесса с независимыми приращениями следующий смысл: аЦ) характеризует неслучайный «снос» процесса ХЦ) [равный аЦ) - J x{\ + U| )~ Х\Ц, dx), если интеграл существует], ВЦ) - ковариационный оператор диффузионной компоненты ХЦ), П - мера скачков: ПЦ, А) равно математич. ожиданию числа скачков процесса, происшедших до момента t и попавших во множество А [то есть таких, что ХЦ + 0) - ХЦ - 0) еА]. При этом траектория ХЦ) почти наверное: 1) непрерывна, если и только если ПЦ, А)=0 [тогда X - гауссовский процесс со средним аЦ) и диффузионным оператором ВЦ)]\ 2) имеет ограниченную вариацию, если и только если а имеет ограниченную вариацию, B(t) = 0 и 3) ступенчатая, если и только если a(t) = 0, ВЦ)=0, ПЦ,№т\{0})<°о; teT; 620 СЛУЧАЙНЫЙ 4) не убывает (случай ХЦ) е И? ), если и только если ВЦ) = 0, П(£(-оо, 0))=0 и функция аЦ)-\х(\+х2)~*ПЦ, dx) не убывает. Для однородного процесса с независимыми приращениями ХЦ) [когда распределение ХЦ + п)-ХЦ) зависит только от /г] функции a(t)=at, B(t) = Bt и ПЦ,А) = 1П(А). К. А. Боровков. СЛУЧАЙНЫЙ ПРОЦЕСС с осредненным спектром (random process having average spectrum/ asymptotically stationary random process) - случайный процесс ХЦ) с дискретным или непрерывным временем, для к-рого существует осредненная корреляционная функция Bav(x) [а значит, и осредненная спектральная функция Fav(X)]. С. п. с осредненным спектром рассматривались в работах [1]-[8]; в [3] такие процессы ХЦ) называются процессами, обладающими спектром [а функция FaviX) ~ спектром процесса ХЦ)], в [5] они называются процессами, имеющими корреляционную функцию [а функция Bav(x) -корреляционной функцией нестационарного процесса ХЦ)], в [6] - асимптотически стационарными случайными процессами, а в [7], [8] - процессами класса KF (в честь авторов работы [5]). Все стационарные процессы ХЦ), для к-рых Bav(x) = = EX(t + x)X(t) = B(x), и процессы, для к-рых существует lim EX(t + x)X(t), являются С. п. с осредненным спектром. Кроме того, в класс С. п. с осредненным спектром входят все гармонизуемые случайные процессы, введенные М. Лоэвом (см. [3]), и все периодически коррелированные случайные процессы любого периода Г0, для к-рых BavW = у- \1° ЕХЦ + x)W) dt. Показано, что С. п. с осредненным спектром являются многие С. п., не являющиеся ни гармонизуемыми, ни периодически коррелированными (в частности, многие, хотя и не все определенные в ст. Гармонизуемый случайный процесс, процессы, гармонизуемые только в общем смысле Розанова, но не в смысле Лоэва) (см. [7], [8]). На С. п. с осредненным спектром переносятся многие результаты спектральной теории стационарных С. п. (см., в частности, Осредненная спектральная плотность). Лит.: [1] Бу нимович В. И., Флуктуационные процессы в радиоприемных устройствах, М., 1951; [2] В lane- Lapierre A., Fortet R., Theorie des fonctions aleatoires, P., 1953; [3] Розанов Ю. A., «Теория вероятн. и ее примен.», 1959, т. 4, в. 3, с. 291-310; [41 Харкевич А. А., «Радиотехника», 1957, т. 12, в. 5, с. 5-11; [51 Kampe de Feriet J., Fren kie 1 F. N.. «Math. Coin- put.», 1962, v. 16, № 77, p. 1-21; [6] Parzen E., «Bull. Inst. Int. Statist.», 1962, v. 39, livre 2, p. 87-103; [7] Rao M. M., в кн.: Developments in statistics, v. 1, N.Y., 1978, p. 171-225; [8] Chung D. K., Rao M. M., в кн.: Real and stochastic analysis, N. Y., 1986, p. 7-118 A. M. Яглом. СЛУЧАЙНЫЙ ПРОЦЕСС скачкообразный (jump random process) - см. Скачкообразный случайный процесс. СЛУЧАЙНЫЙ ПРОЦЕСС слабо гармонизуемый (weakly harmonizable random process) - см. Больших чисел закон для нестационарных случайных процессов. СЛУЧАЙНЫЙ ПРОЦЕСС со стационарными приращениями (random process with stationary increments) - случайный процесс ХЦ) с дискретным или непрерывным временем t такой, что статистические характеристики его приращений нек-рого фиксированного порядка не меняются во времени (то есть инвариантны относительно временных сдвигов t -» t + а). Как и в случае стационарных С. п., различают два типа С. п. со стационарными приращениями, а именно: С. п. со стационарными приращениями в узком смыс- л е, для к-рых все конечномерные распределения вероятностей
приращений X(t) заданного порядка в точках tv ..., tn и в точках tx + а tn + a при любом а совпадают друг с другом, и С. п. со стационарными приращениями в широком смысле, для к-рых средние значения приращения в момент t и вторые моменты приращений в моменты t и t + s не зависят от t. В случае процессов X(t) с дискретным временем t = 0f ± 1, ... всегда можно перейти от рассмотрения С.п.Х(Ок рассмотрению нового С. п. bnX(t) = Xti)-C*Xit-\) + ... + (-\)nCZXU-n)t где Сп - биномиальные коэффициенты. Если X(t) - С. п. со стационарными приращениями я-го порядка, то процесс AnX(t) будет уже стационарным в обычном смысле; поэтому в случае дискретного времени теория С. п. со стационарными приращениями сводится к теории более частных стационарных С. п. Однако с точки зрения приложений использование понятия С. п. со стационарными приращениями и дискретным временем t часто оказывается весьма удобным, так как для многих встречающихся на практике явно нестационарных временных рядов x(t), t=\, 2, ..., ряды их приращений Aux(t) нек-рого порядка п уже можно считать реализациями стационарного Си. Д"Х(0. В частности, Дж. Бокс (G. Box) и Г. Дженкинс (G. Jenkins) (см. [1]) указали, что при решении многих практич. задач реальные временные ряды часто можно считать реализациями так наз. авторегрессии - проинтегрированного скользящего среднего процесса, представляющего собой специальный Си. со стационарными приращениями и дискретным временем (см. также [2]-[4]). Примерами С п. со стационарными приращениями первого порядка (в узком смысле) с непрерывным временем t являются, в частности, винеровский процесс и пуассоновский процесс; оба эти процесса принадлежат также и к более узкому классу процессов с независимыми стационарными приращениями первого порядка. В случае непрерывного t теория С п. со стационарными приращениями уже не сводится непосредственно к теории более простых стационарных С п. Корреляционная теория (то есть теория соответствующих процессов в широком смысле) С. п. со стационарными приращениями первого порядка была развита А. Н. Колмогоровым (см. [5], [6]); подобная же теория С. п. со стационарными приращениями п-то порядка, где п - произвольное целое положительное число, рассматривалась в работах [7J- [9]. Центральное место в корреляционной теории С. п. со стационарными приращениями занимает вывод спектрального разложения таких процессов и их моментов 2-го порядка. Использование понятия обобщенного случайного процесса позволяет заметно упростить теорию С п. со стационарными приращениями; так как в рамках теории обобщенных С п. любой С п. X(t) имеет производные всех порядков (являющиеся, вообще говоря, обобщенными С. п.), то С. п. со стационарными приращениями я-го порядка можно также определить как С п. X(t), я-я производная к-рого X (О является (вообще говоря, обобщенным) стационарным С. п. (см. [9], [10]). Лит.: [\\ Бокс Дж., Д ж енки не Г., Анализ временных рядов: прогноз и управление, пер. с англ., в. 1-2, М., 1974; [2] Nelson С. R., Applied time series analysis for managerial forecasting, S. F., 1973; [3] Anderson O. D., Time series analysis and forecasting. The Box - Jenkins approach, L.- Boston, 1976; [4] Robinson E. A., Silvia M. Т., Digital foundations of time series analysis, v. 1. The Box - Jenkins approach, S. R, 1979; [51 Колмогоров А.Н., Математика и механика, М., 1985, с. 269-73; [61 Дуб Дж., Вероятностные процессы, пер. с англ., М., 1956; [7} Яглом A.M., «Матем. сб.», 1955, т. 37, № 1, с. 141-96; [8] Пинскер М.С., «Изв. АН СССР. Сер. матем.», 1955, т. 19, № 5, с 319-44; [9] И то К., «Математика», 1957, т. 1, № 3, с. 139-51; [101 Гел ьфанд И. М., Ви ленки и Н.Я., Некоторые применения гармонического анализа. Оснащенные гильбертовы пространства, М., 1961. А. М. Яглом. СЛУЧАЙНЫЙ ПРОЦЕСС согласованный (adapted random process) - см. Согласованный случайный процесс. СЛУЧАЙНЫЙ ПРОЦЕСС; ста тистический анализ (statistical analysis for random process) - см. Статистические задачи теории случайных процессов. СЛУЧАЙНЫЙ ПРОЦЕСС стационарный (stationary random process) - см. Стационарный случайный процесс. СЛУЧАЙНЫЙ ПРОЦЕСС; стох ас тическая эквивалентность (stochastic equivalence of a random process) - см. Стохастически эквивалентные случайные процессы. СЛУЧАЙНЫЙ ПРОЦЕСС стохастически непрерывный (stochastically continuous random process) - см. Стохастически непрерывный случайный процесс. СЛУЧАЙНЫЙ ПРОЦЕСС ступенчатый (step random process) - см. Скачкообразный случайный процесс. СЛУЧАЙНЫЙ ПРОЦЕСС считающий (counting random process) - см. Точечный процесс. СЛУЧАЙНЫЙ ПРОЦЕСС типа кенгуру (kangaroo random process) ~ разрывный однородный по времени марковский процесс Х(0, -°°<t<<*>, принимающий постоянные значения Хп на интервалах tn_x <t^tn между любыми двумя последовательными точками разрыва tn_x и tn и такой, что {Хп, п = 0, ±1, ...} - последовательность независимых одинаково распределенных случайных величин с заданным распределением вероятностей, а случайная величина tn=tn-tn_x имеет экспоненциальное распределение с плотностью вероятности рпМ = Хпе~ п при т ^ О, где Хп = Х(хп) зависит от значения хп, принимаемого случайной величиной Хп. Стационарное распределение вероятностей процесса X(t) может быть выражено через распределение вероятностей величин Хп и функцию Х(х); если распределение X(t0) для какого-то фиксированного £q совпадает с этим стационарным распределением, то X(t) - стационарный случайный процесс, корреляционная функция к-рого определяется распределением вероятностей величин Хп и функцией Х(х). В частном случае, когда X не зависит от х, С. п. типа кенгуру обращается в процесс Кубо - Андерсона (см. Точечный случайный процесс). С. п. типа кенгуру был введен в работе [ 1 ] в связи с рассмотрением специальной задачи статистич. оптики; имеются и другие физич. приложения этой модели (см., напр., [2], [3]). Лит.:[\] BrissaudA., FrischU., «J. Quant. Spectrosc. Radiat. Transfer.», 1971, v. 11, № 12, p. 1767-84; [2] их же, «J. Math. Phys.», 1974, v. 15, № 5, p. 524-34; [3] ШапироВ.Е., Логинов B.M., Динамические системы при случайных воздействиях, Но- восиб., 1983. A.M. Яглом. СЛУЧАЙНЫЙ ПРОЦЕСС точечный (point random process) - см. Точечный процесс. СЛУЧАЙНЫЙ ПРОЦЕСС управляемый (controlled random process) - см. Управляемый случайный процесс. СЛУЧАЙНЫЙ ПРОЦЕСС; фильтрация (filtering of a random process) - задача об оценке значения случайного процесса Z(t) в текущий момент t по каким-либо значениям другого, связанного с ним случайного процесса. Напр., речь может идти об оценке стационарного процесса Z(t) по значениям X(s), 5^ t, стационарно с ним связанного стационарного процесса (см., напр., [1]). Обычно имеют в виду оценку ZU) с наименьшей среднеквадратичной ошибкой E|z(0~Z(0l2. Употребление термина «фильтрация» восходит к задаче о выделении сигнала из «смеси» сигнала и случайного шума, одна из важных модификаций к-рой есть задача оптимальной СЛУЧАЙНЫЙ 621
фильтрации в схеме, когда связь Z(t) и X(t) описывается стохастич. дифференциальным уравнением dX(t)=Z(t)dt + dw(t), t>t0, где независимый от Z(t) шум представлен стандартным вине- ровским процессом w(t). Широкое распространение в приложениях получил метод фильтрации (метод Калмана - Бьюси), применимый к процессам Z(t), к-рые описываются линейными стохастическими дифференциальными уравнениями. Напр., если в указанной выше схеме dZ(t) = ati)Z(t)dt + dYi(t) при нулевых начальных условиях, то Z(t)=\l c(t,s)dX(t), jt0 где весовая функция c(t, s) находится из уравнений: jfc(t, s) = [a(t)-b(t)]c(t, s), t>st c(s, s) = b(s), ^bU) = 2a(t)b(t)-\b(t)]2+\, t>t0, fc(f0) = 0; обобщение этого метода на нелинейные уравнения приводит к общим стохастич. уравнениям фильтрации (см. [2]). В случае когда зависит от неизвестных параметров сх cn, интерполяционную оценку Z(t) можно дать, оценивая эти параметры по x(s), s^t,- здесь применим метод наименьших квадратов и его обобщения (см., напр., [3]). Лит.: [1] Розанов Ю. А., Стационарные случайные процессы, М., 1963; [2] ЛипцерР. Ш., Ширяев А. Н., Статистика случайных процессов, М., 1974; [3] И браги мов И. А., Розанов Ю. А., Гауссовские случайные процессы, М., 1970. Ю. А. Розанов. СЛУЧАЙНЫЙ ПРОЦЕСС эргодический (ergodic random process) - см. Эргодический случайный процесс. СЛУЧАЙНЫЙ ТЕЛЕГРАФНЫЙ СИГНАЛ (random tele graph signal) - заданный на оси -оо < t < оо случайный процесс, скачкообразно изменяющий свое значение в точках tk, k = 0, ±1, ±2, ..., образующих однородный пуассоновский точечный случайный процесс на прямой (то есть простейший поток), а в промежутках между точками tk поочередно принимающий значения +а и -а, где а - положительное число (к-рое часто приравнивается единице), и притом так, что Р{ЛЧ0) = а) = Р{Х(0) - -а) = 1/2. С. т. с. имеет нулевое среднее значение (то есть ELY(O = 0 при всех О и корреляционную функцию В(х) = EXU + x)X(t) = а2ехр (-2Х|х|), где к - интенсивность пуассоновского точечного процесса {tk} (то есть среднее число точек tk, приходящихся на единицу времени); он является (негауссовским) случайным стационарным процессом, разрывным марковским процессом и бинарным случайным процессом. Модель С. т. с. была предложена С. Райсом ([1], 12]). Процесс широко используется в приложениях теории случайных процессов. Лит.: [1] Rice S. О., «Bell System Techn. J.», 1944, v. 23, p. 282-332; 1945, v. 24, p. 46-156; [2] Райе С, в сб.; Теория передачи электрических сигналов при наличии помех, пер. с англ., М., 1953, с. 88-238. А. М. Яглом. СЛУЧАЙНЫЙ ТОЧЕЧНЫЙ ПРОЦЕСС (random point process) - см. Точечный процесс. 622 СЛУЧАЙНЫЙ СЛУЧАЙНЫЙ ШЕЙП (random shape) - случайная точка в пространстве форм геометрических объектов (треугольников, четырехугольников, r-точечников и т.п.). Исследованы так наз. евклидовы и аффинные шейпы r-точечных множеств в IP" (см. 11], [3]). Пусть рассматриваются упорядоченные последовательности (Pv P2, ..., Рг) точек из IP", r>2, причем случай РХ=Р2 = ... =РГ исключается (при Рх = Р2 = •• ~РГ ев" клидов шейп не определен). Две последовательности имеют одинаковый евклидов шейп, если с помощью перемещения, вращения и растяжения одну последовательность можно перевести в другую. Не нарушая общности, можно считать, что Pj^O, где 0 - начало координат в IP". Пространство евклидовых шейпов совпадает с факторпространством Гп = {Шпу-\0}/]¥пх[0, оо), где Wn - группа вращений IP", [0, оо) - группа растяжений IP". Пусть (Plf ..., Рг) - упорядоченные последовательности точек из IP", г^я + 1 и никакие п+\ точки из (Pt, ..., Рг) не лежат на одной гиперплоскости. Две последовательности имеют одинаковый аффинный шейп, если с помощью аффинного преобразования одну последовательность можно перевести в другую. Пространство аффинных шейпов совпадает с факторпространством F„r = {(Rn)r\Z}A4„x[0,~), где Z - множество исключенных последовательностей, Ап - специальная группа аффинных преобразований (с модулем детерминанта единица), [0, оо) - группа растяжений. Ряд вероятностных распределений в пространствах С. ш. получается при выделении мер Хаара соответственных групп из произведений обычных мер интегральной геометрии. Примеры. 1) Пусть dP - мера Лебега на плоскости. Тогда dP]dP2dP3 = dkh3dhPx(do), где dk - мера Хаара группы евклидовых движений, h - периметр треугольника РХР2Р3, Px(da) - вероятность в пространстве г*} имеет плотность Px(do) = (rc/21)Hsin ^! sin y2siny3(sin 4^ + + sin y2 + sin y3)~*dyidy2, где tyj, y2, y3 - углы треугольника PXP2P3. 2) Имеет место факторизация «по площади»: dPxdP2dP3 = dkSdS[i(dc), где S - площадь треугольника РХР2Р3, а \1 - мера в простран- v3 стве i2 c плотностью \i(do) = 2tf\y1</\|/2/sin yt sin y2sin y3; мера \i не является вероятностной, pXX2) = oo. 3) Пусть dg - инвариантная относительно евклидовых движений мера в пространстве прямых на плоскости. Тогда dgxdg2dg3 = dkm(dh)P2(do), где h - периметр получаемого треугольника, т - мера з \ в [0, оо), P2(do) - вероятность в пространстве Х2(аеХ'-,); Р2 имеет плотность P2(do) = с sin y1 sin y2sin V3^sin Vi + sin V2 + sin ¥3) ^Vi^V:!» где с - константа. 4) Пусть dP - мера Лебега в IP". Тогда
где dA - элемент меры Хаара в Ап, V - площадь минимальной выпуклой оболочки множества {Р^ Р2, ..., Рг}, Р„г - вероятностная мера в F„r (т € F„r), т описывается с помощью отношений объемов симплексов с вершинами из {Р1, ..., Рг} к объему (минимальной выпуклой оболочки) множества {Pt, ..., Рг}, спг - константы. В частности, Р2 4 есть равномерное распределение в пространстве F2, представляющем из себя объединение трех единичных квадратов и четырех прямоугольных треугольников с единичными сторонами. С. ш. появляются при рассмотрении «типичного» г-точечни- ка, выбираемого из однородного пуассоновского точечного процесса в fPw (см. Геометрический процесс). Лит.: [1] Ambartzumian R. V., в кн.: Stochastic geometry, geometrical statistics, stereology, Lpz., 1984, p. 14-33; [2] Kendall D.C, «Bull. London Math. Soc», 1984, v. 16, p. 81-121; [3J Амбар ц у м ян Р. В., «Изв. АН АрмССР. Сер. матем.», 1985, т. 20, № 4, с. 284-88. р. Г. Аранян. СЛУЧАЙНЫЙ ЭЛЕМЕНТ (random element) - обобщение понятия случайной величины. Термин «С. э.» был введен, по-нидимому, М. Фреше [1], отмечавшим, что развитие теории вероятностей и расширение области ее приложений привело к необходимости перейти от схем, где (случайные) исходы опыта могут быть описаны числом или конечным набором чисел, к схемам, где исходы опыта представляют собой, напр., ряды, функции, кривые, преобразования. Впоследствии термин «С. э.» стал употребляться в основном применительно к выбранным «случайным образом» элементам какого-либо линейного топологич. пространства, в первую очередь гильбертовых и банаховых пространств. Точное определение, напр. С. э. X в банаховом пространстве В, напоминает определение случайной величины. Пусть (Q, .J, P) - нек-рое вероятностное пространство, В - банахово пространство, В* - сопряженное к В пространство. Отображение Х = Х(со) пространства Q элементарных событий со в В называется случайным элементом, если всякий непрерывный линейный функционал #*(Х(со)) оказывается при этом случайной величиной, то есть .^измеримой функцией. Пусть У - наименьшая а-алгебра, относительно к-рой измеримы все непрерывные линейные функционалы. X есть С. э. в том и только в том случае, когда полные прообразы всех множеств из #\</-измеримы. В случае когда В сепарабельно, # совпадает с а-алгеброй борелевских подмножеств В. На С. э. могут быть распространены основные понятия теории вероятностей, такие, как характеристич. функция, математич. ожидание, ковариация и т.п.; С. э. X называется нормальным (г а у с с о в с к и м), если распределение вероятностей любого непрерывного линейного функционала х*(Х) является нормальным. На последовательности независимых С. :>. могут быть распространены закон больших чисел, усиленный закон больших чисел, закон повторного логарифма, центральная предельная теорема и другие вероятностные утверждения. Возможность перенесения этих теорем в их классич. форме на случай банаховых пространств тесно связана с геометрией пространства. Важно отметить, что эта связь носит взаимный характер, так как вероятностные свойства часто оказываются на самом деле вероятностно- геометрическими - их справедливость в данном банаховом пространстве не только определяется геомстрич. свойствами пространства, но и сама определяет эти свойства. Так, напр., для того чтобы для любой последовательности независимых одинаково распределенных С. э. Хх, X2, ... со значениями в В с нулевыми математич. ожиданиями и .. .. т л« + ... + л Е||Х || <оо распределение нормированных сумм — слабо сходилось к распределению нормального С. э., необходимо и достаточно, чтобы В было так наз. пространством типа 2 (см. [4]). Лит.: 11] Frechet M., «Ann. inst. H. Poincare», 1948, v. 10, p. 215-310; [2] Mourier E., Elements aleatoires dans un espace de Banach (These), P., 1955; [3] Вахания Н. Н., Тариеладзе В. И., ЧобанянС. А., Вероятностные распределения в банаховых пространствах, М., 1985; [4] Hoffmann-JergensenJ., PisierG., «Ann. Probab.», 1976, v. 4, p. 587-89. /О. В, Прохоров. СМЕСЕЙ ПРОСТРАНСТВО (space of mixtures) - см. Полез- ностей теория. СМЕСЬ состояний (mixture of states) - см. Плотности оператор. СМЕШАННАЯ АВТОРЕГРЕССИИ - СКОЛЬЗЯЩЕГО СРЕДНЕГО МОДЕЛЬ (autoregressive - moving average model) - модель скалярного комплекснозначного в общем случае случайного процесса {Х(0, £ е Г}, Г={0,±1,±2, ...}, удовлетворяющего уравнению X(t) + axX(t-\) + ...+apX(t-p) = = b0Z(t) + b]Z(t-\) + ... + bqZ(t-q), где av ..., ар, bQ, ..., bq - действительные числа, {Z(t), t eT} - стандартная некоррелированная последовательность комплекс- нозначных в общем случае случайных величин, то есть случайных величин таких, что EZ(O = 0, EZ(s)Z(t) = bst, s,teT, пара чисел (р} q) называется порядком С. а. - с. с. м. С. а. - с. с. м. является общей моделью стационарных скалярных комплекснозначных процессов с дискретным временем и дробно-рациональными спектральными плотностями. Эта модель является адекватной стохастич. моделью многих встречающихся на практике процессов. Примечательно то, что на практике адекватность описания достигается при р^2, q^2. Лит.: [1] Справочник по теории вероятностей и математической статистике, 2 изд., М., 1985; [2] Бокс Дж., Джен кипе Г., Анализ временных рядов. Прогноз и управление, пер. с англ., в. 1, М., 1974; [3] Кендалл М., Стьюарт А., Многомерный статистический анализ и временные ряды, пер. с англ., М., 1976, Ю. П. Юрачковский. СМЕШАННАЯ ИГРА (mixed game) - см. Статистическая игра. СМЕШАННАЯ МОДЕЛЬ дисперсионного анализа (mixed model in the analysis of variance) - см. Дисперсионного анализа смешанная модель. СМЕШАННАЯ СТРАТЕГИЯ (mixed strategy) - см. Рандомизированная стратегия. СМЕШАННЫЙ АВТОРЕГРЕССИИ - СКОЛЬЗЯЩЕГО СРЕДНЕГО ПРОЦЕСС (autoregrissive - moving average process, ARMA process), АРСС-процесс - стационарный в широком смысле случайный процесс X(t) с дискретным временем £ = 0, ±1, ..., значения к-рого удовлетворяют разностному уравнению X(t) + aiX(t-\)+... + apX(t-p) = = Y(t) + b^Y(t-\)+... + bqY(t-q), (•) где ЕУ(О = 0, EY(t)Y(s) = a2bts, bts - символ Кронекера [то есть Y(t) - процесс белого шума со спектральной плотностью а /2я], р и q - нек-рые неотрицательные целые числа, а в], ..., ар, bj, ..., bq - постоянные коэффициенты. Если все корни уравнения ф(г)= 1 + a^z +... + apzp = 0 по модулю отличны от единицы, то стационарный С. а.- с. с. п. X(t) существует и имеет спектральную плотность /•Ш = (а2/2я)1ч»(Л|2|(р(ел)1"2, СМЕШАННЫЙ 623
где у (г) = 1 + Ъхг + ... + Ъ zq. Однако для того чтобы решение уравнения (*) при фиксированных начальных значениях X(tQ- 1), ..., X(tQ-p) стремилось при t-tQ-±°° к стационарному процессу X(t), необходимо, чтобы все корни уравнения <р(г) = 0 располагались вне единичного круга U|^1 (см., напр., [1], [2]). Класс гауссовских С. а.- с. с. п. совпадает с классом стационарных процессов, имеющих спектральную плотность и являющихся одномерной компонентой многомерного марковского процесса (см. [3]). Частными случаями С. а. - с. с. п. являются авторегрессии процессы (при q = 0) и скользящего среднего процессы (при р = 0). Обобщением С. а. - с. с. п. являются часто используемые в прикладных задачах авторегрессии - проинтегрированного скользящего среднего процес сы - нестационарные процессы со стационарными приращениями такие, что их приращения нек-рого фиксированного порядка образуют С. а. - с. с. п. (см. [ 1 ]). Лит.: [1] Бокс Дж., Дженкинс Г., Анализ временных рядов. Прогноз и управление, пер. с англ., в. 1-2, М., 1974; [2J Андерсон Т., Статистический анализ временных рядов, пер. с англ., М., 1976; [3] Doob J. L., «Ann. Math. Statist.», 1944, v. 15, p. 229-82. A. M. Яглом. СМЕШАННЫЙ АВТОРЕГРЕССИИ - СКОЛЬЗЯЩЕГО СРЕДНЕГО ПРОЦЕСС; обратимости условие (in- vertibility condition for ARMA process) - условие представимости значения в момент t дискретного белого шума Y(t), входящего в разностное уравнение для АРСС-процесса X(t), в виде сходящейся суммы взвешенных (то есть умноженных на числовые коэффициенты) значений процесса X(t) в настоящий момент (ив прошлые моменты времени t-s, s>0. В случае АРСС-процесса, удовлетворяющего разностному уравнению X(t) + a^it- \) + ... + apX(t-р) = = Y(t) + bxYU-\) + ... + bqYV-q\ условием обратимости является условие отсутствия у уравнения у(z) = 1 + bxz + ... + bqzq - 0 корней, лежащих внутри и на границе единичного круга Ы^1 (см. [1]). В случае АРСС-процессов, не удовлетворяющих условию обратимости, значение У (О представляется в виде взвешенной суммы прошлых, настоящего и будущих значений процессов X(t), что в ряде случаев представляется физически малоестественным. Условие обратимости для АРСС-процесса обобщается и на класс более общих нестационарных авторегрессии - проинтегрированного скользящего среднего процессов (см. [1], гл. 4). Лит.: [1] Бокс Дж., Дженкинс Г., Анализ временных рядов. Прогноз и управление, пер. с англ., в. 1-2, М., 1974. дт м. Яглом. СМЕШАННЫЙ МОМЕНТ (mixed moment) - см. Момент, Многомерное распределение. СМЕШИВАНИЯ МЕТОД (confound method) - см. Факторный эксперимент. СМЕЩЕНИЕ (bias) - см. Систематическая ошибка. СМЕЩЕНИЕ оценки (bias of an estimator) - см. Смещенная оценка. СМЕЩЕННАЯ ОЦЕНКА (biased estimator) - статистиче екая оценка, математическое ожидание к-рой не совпадает с оцениваемой величиной. Пусть X - случайный элемент, принимающий значения в выборочном пространстве (ЭС, &, Рб), Gg0, и пусть Т=Т(Х) - статистич. оценка параметра Э. Оценка Т называется смещенной, если ЕбГ^6, 6е0. В этом случае функцию &(0) = ЕвГ - в называют смещением или систематической ошибкой оценки Г. 624 СМЕШАННЫЙ Пример. Пусть X=(XV ..., Хп) - случайный вектор, компоненты к-рого суть независимые случайные величины, подчиняющиеся нормальному закону с параметрами а = ЕХ( <<*>, а2 = DX{ > 0. Статистика где X„ = V" Xjn, является Со. дисперсии о , ибо Es„ =— а . Смещение Ь(а ) оценки s„ равно Es„ -а = -—. " П 2 п г n n В данном случае из С. о. sn получается несмещенная оценка Sn = n sn параметра а , ибо Esn = а при всех а и а . Из сравнения квадратичных рисков ГГ С. о. и несмещенной оценки видно, что при n ^ 2 R(t,j)<R(sZ.J\ Лит.: [1] Крамер Г., Математические методы статистики, пер. с англ., 2 изд., М., 1975; [2] Voinov V.G., Nikulin M.S., Unbiased estimators and their applications, v. 1-2, Dordrecht, 1993-96. M. С. Никулин. СМИРНОВА КРИТЕРИЙ (Smirnov test) - статистический критерий для проверки гипотезы о том, что две независимые скалярные выборки подчиняются общему (непрерывному) распределению. Пусть Fm(x) и Gm(x) - эмпирич. функции распределения выборок, т и п - их объемы, F(x) и G(x) - их теоретич. распределения. Проверке подлежит гипотеза однородности H:F(x) = G(x). Двувыборочный критерий Смирнова основан на статистике Dm,n = sup\Fm(x)-G„(x)\. X При гипотезе Н распределение случайной величины Dm n не зависит от теоретич. распределения, если последнее непрерывно. При гипотезе Ни т, я->«> статистика Dmn->0, поэтому Vmn ~ Dmrt, распределение к-рои имеет невырожденный предел. Н. В. Смирновым установлено (см. [1]): w,n->«» IV m+n J *^*~ Если G&F, то при т, n ->«> статистика Dm„->sup \F(x)-G(x)\>0> X Vmn j^ ,x итп—>°°. Из этих свойств следует правило: m+n отвергать H:F = G, если полученное в опыте значение Dmn чрезмерно велико. Таблицы процентных точек для Dmn к настоящему времени рассчитаны достаточно подробно (см., напр., [3], [4]). При больших w, n следует пользоваться указанным выше предельным распределением (к-рое также табулировано, см. [3]). С. к. состоятелен против всех альтернатив к гипотезе Н. Для альтернатив определенных типов (различие F и G в сдвиге, масштабе и т.д.) другие статистич. критерии могут превосходить С. к. по мощности. Критерий Смирнова для одной выборки тесно связан с Колмогорова критерием и предназначен для проверки гипотезы о том, что скалярная выборка имеет заданное теоретич. распределение [напр., Fix)]. Пусть Fn(x) - эмпирич. функция распределения выборки, п - объем выборки,
G(-) - истинная функция распределения. С. к. служат для проверки гипотезы H:F=G. Статистики Смирнова: D„+ = sup lFn(x)-F(x)], Dn" = sup [F(x)~ Fn(x)]. X X При гипотезе Н и дополнительном предположении, что G непрерывна, распределения статистик D* и D" одинаковы и не зависят от функции G. В этих условиях распределение и его аппроксимация были указаны Н. В. Смирновым (см. [2]). О процентных точках D* и D" см., напр., [3], [4]. С помощью избранного для этого С. к. гипотезу Н следует отвергнуть, если полученное в эксперименте значение статистики чрезмерно велико. Критерий, основанный на D*, состоятелен против альтернатив G^F; критерий, основанный на D~, состоятелен против альтернатив F^G. Лит.: [ 1 ] Смирнов Н.В., Теория вероятностей и математическая статистика, Избр. тр., М., 1970, с. 117-27; [2] его же, там же, с. 133-59; [3] Большее Л. Н., Смирнов Н. В., Таблицы математической статистики, 3 изд., М., 1983; [4] Тимонин В. И., Черно- мордик О. М., «Теория вероятн. и ее примен.», 1985, т. 30, в. 3, с. 572-73. Ю. Н. Тюрин. СМИРНОВА РАСПРЕДЕЛЕНИЕ (Smirnov distribution) - предельное распределение для последовательности величин где а„(х) - yfn(Fn(x)-F(x)), F- данное распределение, а Fn - эмпирическое распределение, приближающее F. Рассмотрено Н. В. Смирновым в 1944 при исследовании задач непара- метрич. оценивания. Ю. Я. Тюрин. СМИРНОВА СТАТИСТИКА (Smirnov statistic) - см. Колмогорова - Смирнова критерий, Смирнова критерий. СМИРНОВА ТЕОРЕМА (Smirnov theorem) - см. Граничные задачи для случайных блужданий. СНЕДЕКОРА РАСПРЕДЕЛЕНИЕ (Snedecor distribution) - см. Фишера F-распределение. СНОСА ВЕКТОР (drift vector) - см. Многомерный винеров- ский процесс. СНОСА КОЭФФИЦИЕНТ (drift coefficient) - см. Колмогорова уравнения, Переноса коэффициенты. СОБИРАТЕЛЬНОСТЬ предельной теоремы (collect- ness of a limit theorem) - термин, предложенный Ю. В. Лин- ником [1]. В каждой предельной теореме присутствует нек-рое множество Г={ф} исходных распределений, к-рые затем преобразуются в семейство распределений Pt. Суть предельной теоремы состоит в построении асимптотич. аппроксимации Pt соответствующим распределением Q при приближении параметра t к нек-рому критич. значению 0. В расширенном толковании (по сравнению с тем, какое имел в виду Ю. В. Линник) С. предельной теоремы означает, что Q одншначно определяется конечным числом заданных на Г функционалов q^t), ..., qm(t). Примером собирательной предельной теоремы служит центральная предельная теорема для сумм S„ — Xni + ... + Хпп независимых случайных величин с конечными при каждом я ^ 1 средними значениями ап = ES„ и дисперсиями о2 = OS„, поскольку Fn(*) = P{Sn<*} = <DU; an, оп) + Еп(х), где Ф(х; ап, ап) - функция распределения нормального закона со средним ап и дисперсией ап, еп(дг)->0 при я->°° равномерно по х. В задаче, рассматривавшейся Ю. В. Линни- ком в [1], С. действует не для любых х, а лишь для принадлежащих нек-рому растущему вместе с п интервалу. Существуют примеры предельных теорем, к-рые не являются собирательными даже в таком суженном смысле. Примером тому служат предельные теоремы для однородных ветвящихся процессов с одним типом частиц (см. [2]). Оказывается, что в докритич. и надкритич. случаях исходное распределение превращений одной частицы всегда восстанавливается по соответствующему предельному распределению. Лит.: [1] Линник Ю. В., «Теория вероятн. и ее примен.», 1960, т. 5, в. 2, с. 261-62; [2] Золотарев В. М., там же, 1957, т. 2, в. 2, с. 256-65. В. М. Золотарев. СОБСТВЕННОЕ РАСПРЕДЕЛЕНИЕ (proper distribution) - распределение случайной величины X такой, что Р{Х <<*>} = 1. СОБСТВЕННЫЕ ЧИСЛА крайние эмпирических ковариационных матриц (extreme eigenvalue of empirical covariance matrices) - минимальное и максимальное собственные числа эмпирической ковариационной матрицы 1ТО. Если 1.т получена по наблюдениям над ти-мерным нормальным вектором X и собственные числа Xi матрицы 1.т ограничены нек-рым числом, не зависящим от т, то при условии lim тп~ < 1, где п - число независимых наблюдений xk над вектором X, р lim (A,t(£)-at) = 0, p lim (Xw(Z)-a2) = 0, где a^Vi(\-y)+yvfm_1 y£"=](vi-Xp)~\ y=mn~\ i-\,2, V\, v2~ максимальное и минимальное по величине решения уравнения \-y+2yvm-'^(v'Xp)-^ -yv2m-^mp=](v-Xpy2,X^...^Xm, i=^IL(**-i)(**-i)T' i=^X*V>- Лит.: [1] Tip ко В. Л., «ДоповЫ Укр. РСР», сер. А, 1988, № 10, с. 9-12. В. Л. Гирко. СОБЫТИЕ (event) - см. Вероятностей теория, Случайное событие. СОВЕРШЕННАЯ МЕРА (perfect measure) - понятие, введенное Б. В. Гнеденко и А. Н. Колмогоровым в [1] с целью «достижения полной гармонии между абстрактной теорией меры и теорией меры в метрических пространствах». Дальнейшее развитие теории обнаружило другие аспекты ценности этого понятия: с одной стороны, класс С. м. весьма широк, с другой - в рамках С. м. не возможен ряд неприятных технич. осложнений, возможных в общей теории меры. Конечная мера (I на а-алгебре S подмножеств множества X называется совершенной, если для любой действительной измеримой функции f на X и любого множества £<= В? такого, что f~\E)^S, \1(Г\Е)) = inf{\i(f-\G)): G z>Е, G e ©>, где © - класс открытых подмножеств В?. Для совершенности (I достаточно, чтобы для любой действительной измеримой функции f на X существовало борелевское множество В <= В? такое, что \i(f~*(B)) = (i(X), и необходимо, чтобы для любой действительной измеримой функции f на X и любого множества fell?, для к-рого f~(E)eS, существовало бы такое борелевское множество В^Е, что \i(f~ (E)) = \i(f~ (В)). Всякая дискретная мера совершенна. Мера, заданная на а-алгебре подмножеств сепарабельного метрич. пространства, содержащей все открытые множества, совершенна тогда и только тогда, когда мера любого измеримого множества есть верхняя грань мер лежащих в нем компактов. Ограничение СОВЕРШЕННАЯ 625 40 ВИМС
См. (I на любую а-подалгебру а-алгебры S совершенно. Мера, индуцированная С. м. (I на всяком подмножестве Хх g5 с fl(Xt) > 0, совершенна. Образ С- м. \1 при измеримом отображении (X, S) в другое измеримое пространство совершенен. Мера совершенна тогда и только тогда, когда совершенно ее пополнение- Для того чтобы всякая мера на любой а-подал- гебре а-алгебры S подмножеств множества X была совершенна, необходимо и достаточно, чтобы для любой действительной измеримой функции f множество f(X) было абсолютно измеримым (то есть принадлежало области определения пополнения всякой борелевской меры на В?). Если XczIR и S есть а-алгебра борелевских подмножеств X, то всякая мера на S совершенна тогда и только тогда, когда X абсолютно измеримо. Всякое пространство (X, S, (l) с С. м. такое, что S имеет счетное число образующих {5J, отделяющих точки X (то есть для любых х, у е X, х * у, найдется i: х е Sit y€S{ или х е 5,-, yeS^), почти изоморфно нек-рому пространству (L, &, X), образованному мерой Лебега на конечном отрезке и не более чем счетной последовательностью точек положительной массы [существуют NeS с цХЛО = 0 и взаимнооднозначное отображение y:X\N на L такие, что ф и ф-1 измеримы и Х = ^ф~1]. Пусть / - произвольное множество индексов и каждому iel соответствует пространство с См. (Xit Sif ц^); X = l\iGlXi и пусть ,«/ - алгебра, порожденная классом множеств вида [х е X: х{ е А е SJ. Если на Л задана конечно-аддитивная мера ц/ такая, что цЧ{* е X:х± е Л}) = Щ-(А) для любых i е / и Л € £,, то: 1) \ir счетно-аддитивна на .«/, 2) продолжение |i меры ц/ на а-алгебру 5, порожденную алгеброй .</, совершенно. Пусть (X, 5, Р) - пространство с совершенной вероятностной мерой Р и Sj, S2 - две а-подалгебры а-алгебры 5, причем Sj имеет счетное число образующих. Тогда существует регулярная условная вероятность на 51 при условии 52, то есть существует функция /?(-,♦) на XxS{ такая, что: 1) при фиксированном х р(х, •) есть вероятностная мера на S{; 2) при фиксированном Е /?(-, Е) измерима относительно 52; 3) jf p(x, E)P(dx) = Р(£ПЯ для всех Е € 5j и F е 52« Более того, функцию р(-г) можно выбрать так, что меры р(х, •) будут совершенными. Пусть (X, 5), (У, dT) - два измеримых пространства и <?(♦,•) - переходная вероятность на Хх.% то есть q(>, E) измерима относительно S и q(x, •) есть вероятностная мера на if для любых хеХ, Ее if. Если q(xt •) дискретны и Р - совершенная вероятностная мера на S, то мера J q(x, -)P(dx) совершенна. С м. тесно связаны с компактными мерами. Класс подмножеств .Жназывается компактным, если К{еЖ, г-\, 2, ..., П~=< К{Ф& влечет за собой П"_1 ^»-0 Для нек-рого л. Конечная мера (I на (X, S) называется компактной, если существует компактный класс J*f такой, что для любых е> 0 и Е е S можно выбрать К е Ж и £teS так, чтобы Ех с= К с= Е и \i(E\Ex) <е. Всякая компактная мера совершенна. Для того чтобы мера была совершенной, необходимо и достаточно, чтобы ее ограничение на любую а-подалгебру со счетным числом образующих было компактным. Лит.: [1] Гнеденко Б.В., Колмогоров А. Н., Предельные распределения для сумм независимых случайных величин, М.-Л., 1949; [2] Marczewski E., «Fundam. math.», 1953, v. 40, p. 113-24; [3] Ryll-Nardzewski С, там же, р. 125-30; [41 Сазонов В. В., «Изв. АН СССР. Сер. матем.», 1962, т. 26, с. 391-414; [5] Ramachandran D., Perfect measures, pt 1 - Basic theory, pt 2 - Special topics, Delhi, 1979. В. В. Сазонов. 626 СОВЕРШЕННАЯ СОВЕРШЕННО НОРМАЛЬНОЕ ПРОСТРАНСТВО (completety normal space) - такое топологическое пространство (#, ®), что для любого открытого множества Ge® существует непрерывная на if функция f, для к-рой G-{x:f(x)>0}. Это определение одно и то же как для «обычных» топологич. пространств, так и для а-топологич. пространств. Следующее утверждение верно только для а-топологич. пространств. Если £ - нек-рый класс функций на произвольном множестве А' и ® - слабейшая а-топология, в к-рой непрерывны все функции из у, то (уГ, ®) - С. н. п. Лит.:[\] Келли Дж., Общая топология, пер. с англ., 2 изд., М., 1981; [21 Александров А. Д., «Матем. сб>, 1940, т. 8, № 2, с. 307-48; 1941, т. 9, № 3, с. 563-628; 1943, т. 13, № 2-3, с. 169-238; [3] Боровков А. А., «Успехи матем. наук», 1976, т. 31, в. 2, с. 3-68. Е. А. Пеиерский. СОВЕРШЕННОЕ ВЕРОЯТНОСТНОЕ ПРОСТРАНСТВО (perfect probability space) - см. Вероятностное пространство. СОВМЕСТИМЫЕ НАБЛЮДАЕМЫЕ (compatible observab- les) - см. Наблюдаемая. СОВМЕСТНАЯ ПЛОТНОСТЬ РАСПРЕДЕЛЕНИЯ ВЕРОЯТНОСТЕЙ (joint probability density) - см. Совместное распределение. СОВМЕСТНОЕ ИЗМЕРЕНИЕ (joint measurement) - см. На блюдаемая. СОВМЕСТНОЕ РАСПРЕДЕЛЕНИЕ (joint distribution) - общий термин, относящийся к распределению нескольких случайных величин, заданных на одном и том же вероятностном пространстве. Пусть случайные величины Хх Хп определены на вероятностном пространстве {Q,*«/, Р} и принимают значения в измеримых пространствах (JTk, J)k). Совместным распределением этих величин называется функция Рх % (£t Вп), определенная на множествах Вхе&и ..., Лп е &п как Px,...x„(S< В„) = Р№еВ, Х„еВ„). В связи с С. р. говорят о совместной функции распределения, совместной плотности распределения вероятностей. Если Х|, ..., Хп~ обычные действительные случайные величины, то Ср. есть распределение случайного вектора (Xlt ..., Хп) в пространстве 1ВЯ (см. Многомерное распределение). Если X(t), te T,- случайный процесс, то С. р. значений X(tx), ..., X(tn) при tx, ..., tntT называются конечномерными распределениями случайного процесса X(t). Литп.:[\] Прохоров Ю.В., Розанов Ю. А., Теория вероятностей, 3 изд., М., 1987. А. В. Прохоров. СОВМЕЩЕНИЕ событий (conjunction/intersection of events) - см. Произведение событий. СОГЛАСИЯ КРИТЕРИЙ (good ness of fit test) - статистический критерий, применяемый в задаче проверки согласия, суть к-рой заключается в следующем. Пусть Хх, Х2, ».., Хп - независимые случайные величины, подчиняющиеся одному и тому же вероятностному закону, функция распределения к-ро- го Fix) неизвестна. В таком случае задача статистич. проверки гипотезы Я0, согласно к-рой Fix) = FQ(x), где Fq(x) - нек-рая заданная функция распределения, называемая задачей проверки согласия. Напр., если F0(x) - непрерывная функция распределения, то в качестве С. к. для проверки Я0 можно воспользоваться Колмогорова критерием, Смирнова критерием. См. также Математическая статистика: непараметрические методы. Лит.: Боровков А. А., Математическая статистика, М., 1984. М. С. Никулин.
СОГЛАСИЯ КРИТЕРИЙ; детерминистическая интерпретация (deterministic interpretation of a goodness of fit test) - замена статистической задачи детерминистической, для к-рой рассматриваемый критерий согласия не только необходим, но и достаточен. Впервые получена в [1]. Пример. Гипотезу о том, что числа ^, ..., %п представляют собой независимые значения случайной величины, равномерно распределенной на отрезке 0 ^ х < 1, можно проверять с помощью критерия Колмогорова, основанного на статистике x = VrT sup \Fn(x)-x\t где Fn(x) - эмпирич. функция распределения выборки £i, ...» £„. Соответствующая детерминистич. задача: можно ли с заданной точностью оценить интеграл произвольной функции fix) из WX(L), осредняя значения f(Z,\) А£я)? Формула показывает, что это возможно тогда и только тогда, когда величина х достаточно мала. Лит.: [1] Соболь И.М., Детерминистическая интерпретация критериев согласия и проверка псевдослучайных чисел, М., 1968 (Препринт ИПМ АН СССР); [2] его же, Численные методы Монте-Карло, М., 1973. И.М. Соболь. F-СОГЛАСОВАННАЯ ФУНКЦИЯ (F-adapted function) - см. Неупреждающая функция. СОГЛАСОВАННОСТИ КОЭФФИЦИЕНТ (concordance coefficient) - см. Ранговая корреляция. СОГЛАСОВАННЫЕ РАСПРЕДЕЛЕНИЯ (consistent distributions) - совокупность функций множеств \it t (#t, ..., Вп) 1''""' я (где tit ..., tn- элементы нек-рого множества Г, Вх Вп принадлежат полукольцу .V подмножеств нек-рого множества Е), удовлетворяющих следующим условиям: функции U, t (Sj Btl) по каждому из аргументов Вх Вп представляют собой распределения на полукольце .</; \it t (fi, В{ ) = lit t(Bx Bn) при любой одновре- V" * 'в ! п 1 * менной перестановке tv...,tn и В\ Вп\ \it t t (Bv ..., Bn, E)= = lit t (Bu ..., Bn). Пусть Х = Е - совокупность всех функций x = x(t) на множестве Т со значениями в Е, и пусть \i = \i(A) - произвольное распределение на полукольце .*/ всех цилиндрич. множеств пространства X вида A = {xUx)eBlt ...tx(tn)eBn)y (•) где t{, ..., tneT и В^ Впе.*/. Тогда совокупность функций множеств ^ ,,<*!. -, Bn) = \L{xUi)eBv ...fxUn)eBn\ представляет собой С. р. Если Е - компакт, [it t (#j, ..., Вп) - Ср., причем \it(B) = \ittt t {В, Е} ..., Е)у teTt - регулярное распределение на полукольце .</, то существует единственная мера |i на а-алгебре измеримых по отношению к распределению |1 множеств пространства X такая, что для цилиндрич. множеств А вида ( * ) имеет место цМ>-|1(| ,/В, В„). JIum.:[\] Прохоров Ю. В., Розанов Ю. А., Теория вероятностей, 3 изд., М, 1987. С. Я. Шоргин. СОГЛАСОВАННЫЙ СЛУЧАЙНЫЙ ПРОЦЕСС (adapted random process to given filter) X(t) = X(t, со), заданный при teT (Г- упорядоченное множество) на вероятностном пространстве (С1, .</, Р) с потоком а-алгебр t^th>o и принимающий значения в фазовом пространстве (Л/, 83), - это такой процесс, что при всяком фиксированном teT является измеримым отображение X(t, •) измеримого пространства Ш, .-/,) в измеримое пространство (М, 83). Если процесс X(t) согласован с потоком а-алгебр L<ft)t£T таким, что каждая из а-алгебр Mt содержит все множества нулевой вероятности из .*/, то с этим же потоком согласован всякий процесс Y(t), стохастически эквивалентный процессу X(t) [то есть такой, что P{X(t)*Y(t)} = 0 при всяком teT]. Каждый процесс Х(0 согласован с нек-рым в определенном смысле минимальным потоком а-алгебр №t)t<=T> где ^ " это минимальная а-алгеб- ра подмножеств Q, содержащая все множества вида {со:X(s, со) е Г} при всевозможных Г е 83, seT, s<t. Лит.: [1] Деллашери К., Емкости и случайные процессы, пер. с франц., М., 1975; [2] Справочник по теории вероятностей и математической статистике, 2 изд., М., 1985. Н. И. Портенко. СООБЩАЮЩИЕСЯ СОСТОЯНИЯ цепи Маркова (communicating states of a Markov chain) - см. Маркова цепь; классификация состояний. СООБЩЕНИЕ (message) - см. Информации теория. СООБЩЕНИЙ ИСТОЧНИК (message source) - система, вырабатывающая сообщения. Сообщение X, вырабатываемое С. и. 9/, является случайной величиной, принимающей значения в измеримом пространстве (Ж, Sj) с распределением вероятностей Рх() = р(-). Как правило, (Ж, 5"j) представляется в виде прямого произведения измеримых пространств: СООБЩЕНИЙ 627 где (3Ef, Sj ) - экземпляры одного и того же измеримого пространства. Параметр t обычно принимает значения из нек-рого интервала действительных чисел (источник сообщений непрерывного времени), целых чисел (источник сообщений дискретного времени) или из области fe-мерного пространства. В этих случаях сообщениями являются случайные процессы (или случайные поля) Х={Х(0, £еД}, а Х(0 - сообщение, вырабатываемое в момент t, Х*={Х(т), s<x^t} - отрезок сообщения. Си. различают в зависимости от вида сообщения - случайного процесса. В частности, если X(t) - случайный процесс с независимыми значениями, марковский, стационарный, эрго- дический, гауссовский и т.д., то Си. называется соответственно С и. без памяти, марковским, стационарным, эргодиче- ским, гауссовским и т.д. Одной из основных задач теории информации является кодирование Си. (в приложениях нек-рые задачи кодирования Си. называются сжатием данных, квантованием сообщений и т.д.). Различают, в частности, кодирование С и. кодами фиксированной длины, переменной длины, последовательное кодирование, универсальное кодирование при неизвестной статистике сообщений, кодирование при заданной точности воспроизведения сообщений. Пусть, напр., рассматривается кодирование Си., вырабатывающего дискретный стационарный процесс без памяти с заданной точностью воспроизведения. Пусть XN = (X]t ..., XN) - отрезок такого сообщения; X.-, j = 1, ..., N, принимает значения из конечного множества I и I- другое конечное множество. Кодированием объема М отрезка сообщения X длины N называется отображение Л1 в множество из М элементов множества X' (X - прямое произведение N экземпляров множества Ю. Пусть, наконец, точность воспроизведения за-
дается неотрицательной функцией р(дг, х), хе Ж, х е Ж, - мерой искажения со средним искажением Р* ^-^(х^р^Ц Основная теорема кодирования формулируется на основе понятия эпсилон-энтропии, значение к-рой для Си. стационарного без памяти вычисляется по формуле tf^^inf/Ui, Xj), где /(•, •) - количество информации, а нижняя грань берется по распределениям пар (Х1; Х^), Хх е Ж, Xtei, с Рх()=^()иЕр(Х1,Х1)^е. Теорема кодирования Си.: пусть 9/ - стационарный без памяти С._и. и М= \_expNRj; тогда 1) при R >Не(9/) существует кодирование объема М такое, что _ lim Pw^e; 2) при R < #Е(9/) справедливо неравенство lim р„>е; При Е->0и pU х) = 1 О при х = х, при хФ х эта теорема переходит в теорему кодирования при точном воспроизведении сообщения. Лит.: [1] Berger Т., Rate distortion theory, Englewood Cliffs (N.J.), 1971; [2] Добру шин Р. Л., «Успехи матем. наук», 1959, т. 14, в. 6, с. 3-104; [3] Га л лаг ер Р., Теория информации и надежная связь, пер. с англ., М., 1974; [4J Колесник В. Д., Полты- рев Г. III., Курс теории информации, М., 1982; [5] Чисар И., Кернер Я., Теория информации, пер. с англ., М., 1985; [6] Шеннон К., Работы по теории информации и кибернетике, пер. с англ., М., 1963. м. С. Пинскер, В. В. Прелое. СООБЩЕНИЙ ИСТОЧНИК без памяти (memoryless message source) - источник сообщений дискретного времени, характеризуемый независимостью случайных величин Xk, представляющих сообщения, вырабатываемые в моменты k (k принимает целочисленные значения). В частности, дискретный стационарный С. и. без памяти характеризуется тем, что все Xk принимают значения в одном и том же конечном множестве Ж, независимы и имеют одно и то же распределение р(х) - P{Xk-x). Скорость создания сообщений дискретным стационарным С. и. без памяти ЗЕ при мере искажения р(дг, х), хеЖ, xei, равна /4(<*/) = inf/(X, X), где / - количество информации, а нижняя грань берется по всем парам случайных величин (X, X) со значениями^ ЗС и Ж соответственно, для к-рых Р{Х = х} = р(х) и Ер(Х, Х)^е. При точном воспроизведении #Е(9/) =Я(Х) - энтропия случайной величины X с распределением р(-). Лит.: [1] Галлагер Р., Теория информации и надежная связь, пер. с англ., М., 1974; [2] Колесник В. Д., Полтырев Г. Ш., Курс теории информации, М., 1982; [3J Чисар И., Кернер Я., Теория информации, пер. с англ., М., 1985. С. И. Гельфанд, В. В. Прелое. СООБЩЕНИЙ ИСТОЧНИК марковский (Markov message source) - см. Марковский источник сообщений. СООБЩЕНИЙ ИСТОЧНИК многокомпонентный (multiple-component message source) - см. Многокомпонентный источник сообщений. 628 СООБЩЕНИЙ СООБЩЕНИЙ КВАНТОВАНИЕ (messages quantization) - см. Квантование сообщений. СООБЩЕНИЙ СКОРОСТЬ СОЗДАНИЯ (rate-distorsion function), эпсилон-энтропия на единицу времени,- величина, описывающая информации количество в единицу времени при воспроизведении сообщений с заданной точностью. С. с. с. для источника сообщений 9/, вырабатывающего сообщение X-{X(t), -«> <£<«>}, образованное случайными величинами X(t), определяется формулой ЯЕ(9/)= lim (t-sr1//^), (l) если этот предел существует, где WE(Xsf) ~ эпсилон-энтропия сообщений Xls = {Х(т), s<x<£}. При точном воспроизведении С. с. с. для дискретного источника , вырабатывающего сообщения X = {Хп, - «> < п < <*>}, к-рые образованы случайными величинами Хп, формула (1) принимает вид Я(^)= lim (л-т)_1Я(Х£), (2) где Я(Х^) - энтропия случайной величины XJJ, = {X/, т < I ^ и}. Для стационарных источников предел (2) существует и равен lim н{х0\Х?) = н(х0\Х?). Явные формулы для #е(9/) выписываются для стационарных источников без памяти и гауссовских источников. Лит.: [1] Галлагер Р., Теория информации и надежная связь, пер. с англ., М., 1974; [21 Кол есни к В. Д., Пол тырев Г. III., Курс теории информации, М., 1982; [31 Чисар И., Кернер Я., Теория информации, пер. с англ., М., 1985. М. С. Пинскер, В. В. Прелое. СООБЩЕНИЙ ТОЧНОСТЬ ВОСПРОИЗВЕДЕНИЯ (accuracy of the message reproduction) - мера качества воспроизведения сообщений получателем (адресатом). С. т. в. обычно задают, выделяя класс W допустимых совместных распределений для пары (X, X), где X - передаваемое, а X - воспроизводимое сообщения. В частности, класс W часто задают с помощью измеримой неотрицательной вектор-функции р(х, ^) = (р1(дг, х), ..., р*(*, х)), хеЖ, х еЖ, где ЗЕ и Ж - пространства значений передаваемого и воспроизводимого сообщений соответственно и вектора £=(£! гь) положительных чисел е.-, /=1, .., k, полагая, что распределение вероятностей пары (X, X) принадлежит W, если Еру(Х, Х)<еу,/=1 k. Лит.: [1| Галлагер Р., Теория информации и надежная сиязь, пер. с англ., М., 1974; [2J Berger Т., Rate distortion theory, Englewood Cliffs (N. J.), [19711; [3J Кол есник В. Д., Полтырев Г. Ш., Курс теории информации, М., 1982. М. С. Пинскер, В. В. Прелое. СОПРОВОЖДАЮЩЕЕ БЕЗГРАНИЧНО ДЕЛИМОЕ РАСПРЕДЕЛЕНИЕ (accompanying infinitely divisible distribution) - распределение вероятностей, соотносимое с. произвольным распределением вероятностей F по правилу e(F*E) = e-* £п + х;- <fV k\ где Еа - распределение вероятностей, вырожденное в точке a, aelR1. Для свертки распределения вероятностей Ln = Ff...*Fn*EA , АяеП? С. 6. д. р. определяется равенством Rn = Q%frEa^eiFsEaJ....*e(Fn.EaJ. Главное свойство С. б. д. р., ради к-рого они и были введены в теорию вероятностей, состоит в том, что при подходящем выборе постоянных anj и Ап относительная компактность одного из множеств {Ln}, {Rn} влечет за собой относительную
компактность другого. С. б. д. р. являются важной составной частью аналитич. аппарата, используемого в теории предельных теорем для сумм независимых случайных величин (см [1]). Понятие С. 6. д. р. распространяется со случая распределений в И? на многие случаи абелевых групп и полугрупп. Лит.: [1J ГнеденкоБ. В., Колмогоров А. Н., Предельные распределения для сумм независимых случайных величин, М.- Л., 1949; [2] Круглое В. М., Дополнительные главы теории вероятностей, М., 1984; [3] Parthasarathy К., Probability measures on metric spaces, N. Y., 1967. В. M. Круглое. СОПРОВОЖДАЮЩИЙ ФУНКЦИОНАЛ (associated functional) - одна из характеристик распределения замкнутого случайного множества. Если А - замкнутое случайное множество в топологич. пространстве 5, то С. ф. ТА сопостав- ляег каждому компакту К в 5 число ТА(К) = Р{АГ\К*0]. С. ф. играет в теории случайных множеств ту же роль, что и функция распределения для случайных величин; он может быть продолжен на множество всех подмножеств 5 до Шоке емкости. Задание ТА на компактах полностью определяет вероятности вида Р{А е $)}, где $) - произвольное борелевское семейство в пространстве замкнутых множеств, то есть задает распределение случайного множества А. В нек-рых статистич. задачах (см. Случайных множеств статистика) полная информация о С. ф. отсутствует и известен лишь точечный закон распределения случайного множества. Лит.: [1] Матерон Ж., Случайные множества и интегральная геометрия, пер. с англ., М., 1978. И. И. Ляшенко. СОПРЯЖЕННАЯ ЗАДАЧА ПЕРЕНОСА (dual transport problem) - краевая задача для уравнения Л*ф = у, сопряженная к задаче для стационарного линейного кинетического уравнения переноса Af=g. Ее решение задает функцию ценности ср(*) относительно функционала Iyif) =J f(x)y(x)dx от потока /", напр., относительно интегрального потока или потока в детекторе с чувствительностью у(х). С. з. п. играет важную роль в теории возмущений уравнения переноса. При естественных ограничениях А* выражение _У» aiM(*L)-Yn. ЬЧх)(^-) + +Ш)фЫ - J JC(x\ x')q(x')dx = (А* ф)(*) является инфинитезимальным оператором марковского процесса, описывающего этот перенос. В специальном случае, когда для процесса справедлива теорема оптич. взаимности, формулировка С. з. п. позволяет легко проводить статистическое моделирование задач переноса от детектора к источнику, то есть обратным ходом. Лит.: [11 Map чу к Г. И. [и др.1, Метод Монте-Карло в атмосферной оптике, Новосиб., 1976; [2] МарчукПИ., Лебеде в В. И., Численные методы в теории переноса нейтронов, 2 изд., М., 1981. Г. А. Михайлов, Н. Н. Ченцов. СОПРЯЖЕННОСТИ ПРИЗНАКОВ ТАБЛИЦА (contingency table) - таблица частот /).-„, i = 1, ...,/, / = 1, ♦♦♦,/» ..., q- 1, ..., Q, попадания каких-либо элементов (объектов) в £-ю категорию по 1-му признаку (Л), /-ю категорию по 2-му признаку (В), ..., q-ю категорию по s-му признаку. Это значит, что имеют дело с категоризованными или качественными данными. Наиболее известны таблицы с s = 2, / = / = 2 и таблицы с s = 2, />2,/>2, называемые таблицами 2 х 2 и двумерными. Данные таблиц сопряженности возникают при невозможности или нежелании получения количественных данных, категории могут быть не упорядочены, тогда имеют дело с измерениями в номинальной шкале, и упорядочены, тогда измерения - в порядковой шкале. При анализе таблиц сопряженности различают три случая: 1) оба набора маргинальных частот {/"j., f2., ..., /}.} и {/"•!» f-2> •••> /"•/) фиксированы; 2) один набор фиксирован (этот случай - так наз. проверка однородности / выборок); 3) оба набора маргинальных частот случайны. Наиболее известные задачи анализа таблиц сопряженности - задачи проверки независимости признаков (переменных) и выяснения силы связи, если признаки независимы. Под независимостью для 1-]-2 понимается выполнение нулевой гипотезы HQipij-p^p.j, где piy- - вероятность попадания элемента (любого) в ячейку (£, /), то есть в i-ю категорию 1-го признака и /-ю категорию 2-го признака, Pi-mJn<j<jP^P-JmIii<i<iPV imi' ■- I'J'i J- Альтернатива Н : р^*р^р хотя бы для одной пары t, j, i- 1, ..., /, /= 1, ..., J. Существует множество критериев для проверки #0 против Н' со статистиками, называемыми мерами связи. Лит.: [1] Goodman L. A., Analyzing qualitative-categorical data. Log-linear models and latent-structure analysis, L. - [a. o.], 1978; [2J КендаллМ., Стьюарт А., Статистические выводы и связи, пер. с англ., М., 1973; [3J An тон Г., Анализ таблиц сопряженности, пер. с англ., Мм 1982; [4] Haberman S. J., Analysis of qualitative data, v. 1-2, N.Y.- [а. о.], 1978-79; [5] Goodman L. A., «Ann. Statist.», 1985, v. 13, p. 10-69; [6] KullbackS., Keegel J.C., в кн.: Handbook of Statistics, v. 4, Amst. - [a. o.J, 1984; [7 J МиркинБ.Г, Анализ качественных признаков и структур, М., 1980; [8J Fien- berg S. Е., в кн.: Encyclopedia of statistical sciences, v. 2, N. Y., 1982, p. 161-71; [9] Haberman S.Y., там же, v. 1, N.Y., 1980, p. 130-37; [10] ECTA (Everyman's Contingency Table Analysis) by L. A. Goodman, L. [e.a.], 1973; [11] Agresti A., Analysis of ordinal categorical data, N. Y. - [a.o.], 1984; [12] Plackett R. L., The analysis of categorical data, L., 1974; [13] Чесноков С. В., Детерминационный анализ социально-экономических данных, М., 1982. Д. С. Шмерлинг. СОПРЯЖЕННЫЕ РАСПРЕДЕЛЕНИЯ (conjugate distributions) - распределения F и G, удовлетворяющие следующим условиям: интеграл f(s)=\loesxF(dx) конечен при всех s из нек-рого интервала \s\ <s0 и для всех таких s G(dx)=esxF(dx)/f(s). Важным свойством С. р. является то, что для любого набора пар Ср. (Fj, Gj), ..., (Fn, Gn) справедливо соотношение G(n\dx) = esxF(n\dx)/f<n)(S)} где с(п)=и:=1с;. ^-н;.,^ /•<")<5) = ГТ;=1 /i(s), tfs)ш^еТ&х). С. р. широко применяются при изучении больших уклонений в предельных теоремах, в теории восстановления и в теории случайных блужданий. Лит.: [1] ФеллерВ., Введение в теорию вероятностей и ее приложения, пер. с англ., т. 2, М., 1984; [2] Петров В. В., Предельные теоремы для сумм независимых случайных величин, М., 1987; 13] Б о - ровковА.А., Рогозин Б.А., «Теория вероятн. и ее примени, 1965, т. 10, в. 1, с. 61-69. с. Я. Шоргин. СОСТОЯНИЕ (state) в некоммутативной теории вероятностей- функционал математического ожидания, сопоставляющий каждой наблюдаемой X данной системы ее среднее значение ср(Х) (см. Алгебра наблюдаемых). Матема- тич. понятие С. формализует в рамках алгебраич. подхода более широкое (и менее определенное) физич. понятие статистического состояния как совокупности условий, описывающих приготовление данного статистич. ансамбля ин- СОСТОЯНИЕ 629
дивидуальных систем, к-рое непосредственно предшествует измерению той или иной наблюдаемой величины. А. С. Холево. СОСТОЯНИЕ АВТОМАТА (automaton state) - см. Вероятностный автомат. СОСТОЯНИЯ ВЕКТОР (state vector) - см. Плотности оператор. СОСТОЯНИЯ ПЕРИОД цепи Маркова (period of a state of a Markov chain) - см. Маркова цепь; классификация состояний. СОСТОЯТЕЛЬНАЯ ОЦЕНКА (consistent estimator) - последовательность точечных оценок 0„, п= 1, 2, ..., сходящаяся при объеме выборки п -> «> к истинному значению оцениваемого параметра 0 и о вероятности (слабая состоятельность) или почти всюду (сильная состоятельность). Напр., последовательность выборочных средних Х=1У" Х-, « = 1,2,..., есть сильно С. о. среднего значения наблюдаемой случайной величины. Состоятельность оценок является одним из основных требований, предъявляемых к общим методам их построения (см., напр., о состоятельности оценок, построенных по методу моментов и методу максимального правдоподобия, гл. 1 в [2]). Лит.:[\] Боровков А. А., Математическая статистика, М., 1984; [2] Ибрагим о в И. А., Хае ьм и некий Р. 3., Асимптотическая теория оценивания, М., 1979. И. Н. Володин. СОСТОЯТЕЛЬНЫЙ КРИТЕРИЙ (consistent test), состоятельный тест, - статистический критерий, достоверно отличающий проверяемую гипотезу от любой альтернативы из класса альтернатив при неограниченном увеличении числа наблюдений. Пусть (3^, fbk, Р^е), 6ев, fc = 1, 2 - последовательность вероятностных пространств, где множество параметров 0 общее для всех пространств; (ЗГ , 85 , Р^2) - прямое произведение вероятностных пространств (Xk, 85^, Р^), k=\, 2, ..., п. Это соответствует наблюдению я независимых случайных элементов со значениями в пространствах 2t, Ж2. .., %п и распределениями Р1е, Р2е, ..., Рпв. Для каждого выборочного пространства X пусть фп - критич. функция для проверки гипотезы Н0:6 е 0О <= 0 против альтернативы Нх :6 е 0j <= 0\0О. Последовательность критич. функций {фи}, п = 1, 2, ..., часто, допуская определенную вольность, называется критерием. Пусть р(фп, 6) = J Ф^Ре"* ~ функция мощности критерия фп. Последовательность критериев {фп} называется состоятельным критерием уровня а (О <а< 1) для проверки Я0 против Нх, если Р(фя, 6Ха при 6е0о, lim р(фп, в) = 1 при 0G0J. Иногда (см. [1]) дается другое, в определенном смысле эквивалентное определение С. к.: критерий {фп} называется состоятельным, если lim Р(ф„, в) = 0 при6е0о и lim Р(ф„, 6) = 1 при в е 0^ Если р(ф„, в) -> 0 равномерно по ве0о и р(ф„, 6) -> 1 равномерно по Qe&{ при я->°°, то {фя} называется равномерно состоятельным критерием. Поскольку величина Р(фп, 6) при 6е0о является ошибкой 1-го рода критерия фя, а 1 - Р((р„, 0) при в е 0} - ошибкой 2-го рода критерия ф„, то состоятельность критерия означает, что ошибка 2-го рода может быть сделана как угодно малой, когда объем выборки стремится к бесконечности, и, следовательно, можно достоверно отличить проверяемую гипотезу от любой альтернативы при неограниченном увеличении числа наблюдений. Аналогично, равномерная состоятельность означает, что 630 СОСТОЯНИЕ при п -> <*> одновременно могут быть сделаны как угодно малыми ошибки 1-го и 2-го рода, причем независимо от неизвестного значения 0 е 0О U 0t. Идея С. к. была впервые введена в [3]; необходимые и достаточные условия существования равномерно С. к. подробно исследованы в [2]. Примером С. к., когда 0с|^, является отношения правдоподобия критерий. Примером непараметрич. С. к. является Колмогорова критерий. Лит.: [1] Encyclopedic dictionary of mathematics, v. 2, p. 1217, Camb.-L., 1977; [2] Hoeffding W., Wolfowitz J., «Ann. Math. Statist.», 1958, v. 29, p. 700-18; [3] WaldA., Wol f ow i tz J., там же, 1940, v. 11, p. 147-62; [4J Уилхс С, Математическая статистика, пер. с англ., М., 1967. А. Н. Тюлягин. СОХРАНЕНИЯ ЭФФЕКТИВНОСТИ КОЭФФИЦИЕНТ (efficiency preservation index) - см. Надежности системы показатели. СОЧЕТАНИЕ без повторений (combination without repetitions) - см. Сочетание. СОЧЕТАНИЕ (combination) из п элементов по т с повторениями - неупорядоченный ти-элементный набор, состоящий из элементов данного множества мощности п. Наборы, в к-рых все элементы различны, называются соче га- нием без повторений. Число С. из п элементов по т без повторений равно биномиальному коэффициенту U» (т) , п\ w = 0, 1, m!(n - m)! Число С. из п элементов по т с повторениями равно С™^). С. можно рассматривать как класс эквивалентности размещений, порождаемый размещениями т неразличимых частиц по п различимым ячейкам. Такая интерпретация С. без повторений (в каждой ячейке не более одной частицы) используется в статистике Ферми - Дирака, а С. с повторениями (объем ячеек не ограничен) - в статистике Бозе - Эйнштейна. Лит.: [1] Сачков В. Н., Комбинаторные методы дискретной математики, М., 1977; [2J Риордан Дж., Введение в комбинаторный анализ, пер. с англ., М., 1963; [3] Феллер В., Введение в теорию вероятностей и ее приложения, пер. с англ., т. 1, М., 1984. В. А. Ватутин. СПЕЙСИНГ (spacing) - расстояние между двумя соседними собственными значениями Xit A,M симметрической случайной матрицы. Пусть Х^ ...>Хп - собственные значения симмет- рич. случайной матрицы Еп порядка п. Для С. такой матрицы рассматривают спектральную функцию Хп(х) = (п-\У1^~1 ЕЯА*-А*+1-*), где F{у) = 1 при у<0, F(y) = 0 при у>0. Если матрица Еп такова, что у случайных величин А,; существует плотность распределения р(х{, ..., хп), х^> ...>хп, и функция \р\ симметрична, то есть не меняется при одновременной перестановке переменных, то э2 м*>=(«-о-'п: —— p(u,v)\ dydz, где р(м, v) - вероятность того, что все собственные значения А,,- лежат вне интервала (м, v). См. также Маркированный точечный процесс. Лит.: [1] ГиркоВ. Л., «Успехи матем. наук», 1985, т. 40, в 1, с. 67-106; [21 MehtaM. L., Random matrices and the statistical theory of energy levels, N. Y. - L., 1967. В. Л. Гирко. СПЕКТР (spectrum of a infinitely divisible distribution) безгранично делимого распределения - см. Безгранично делимое распределение. СПЕКТР взаимный фазовый (phase cross-spectrum) - см. Фаза. СПЕКТР динамической системы (spectrum of a dynamical system) - спектр группы унитарных операторов
Ut:f(x)^>f(Ttx) в L2(X, ц), где {Tt, tel или IR} -динамическая система в пространстве Лебега X, сохраняющая меру Ц. Как и для произвольной группы унитарных операторов, он полностью характеризуется парой (а, л), где а - мера максимального спектрального типа, п = п(Х) - функция кратности. Обычно С. рассматривают в подпространстве функций таких, что J f(x)d\i(x) - 0. Для /С-систем (а, л) = (dX, °°), то есть С. счетнократ- ный лебеговский. Такой С. может быть и у систем с нулевой энтропией (напр., у потока орициклов). Для эргодич. систем с чисто точечным С, где о - точечная мера, С. прост, то есть п(Х)~\, и является полным метрич. инвариантом. Первый пример системы с простым и непрерывным С, то есть с непрерывной мерой а, был построен в классе гауссовских динамич. систем. Существуют примеры систем с непростым и конечно-кратным С, где п(Х)<°°, пХф\, напр. в классе перекладываний конечного числа отрезков. Среди перекладываний есть система с простым и непрерывным С, не сопряженная своей обратной. Неизвестно, какие пары (а, л) возможны у эргодич. динамич. систем, напр. возможна ли пара (dX, 1), то есть возможен ли простой лебеговский С. Известно лишь, что существуют системы с двукратной лебеговской компонентой в С. Лит.: 11] Корнфельд И. П., Синай Я. Г., Фомин С. В., Эр- годическая теория, М., 1980; [21 Оселедец В. И., «Функц. анализ и его прилож.», 1971, т. 5, № 3, с. 75-79; [3J его же, «Матем. заметки», 1969, т. 5, в. 3, с. 323-326; [41 MathewJ., Nad- karni M, «Bull. Lond. Math. Soc>, 1984, v. 16, № 4, p. 402-06. В. И. Оселедец. СПЕКТР когерентности (spectrum of coherence) - см. Когерентность. СПЕКТР колмогоровский (Kolmogorov spectrum) - см. Колмогоровский спектр. СПЕКТР кумулятивный (cumulative spectrum) - см. Спектральный семиинвариант. СПЕКТР плана (spectrum of a design) - см. Регрессионных экспериментов планирование. СПЕКТР процесса (spectrum of a process) - см. (Усредненная спектральная функция. СПЕКТР случайного однородного поля (spectrum of a random homogeneous field) - см. Спектральная плотность. СПЕКТР случайного процесса (spectrum of a random process) - см. Спектральное разложение. СПЕКТР стационарного случайного процесса (spectrum of a stationary random process) - см. Спектральная плотность. СПЕКТР турбулентности (turbulence spectrum) - спектральная плотность E(k) соленоидального локально однородного и локально изотропного (или, в случае изотропной турбулентности, однородного и изотропного) случайного поля скорости !*(*, О = {Щ(Х, t), U2(X, t), U3(X, 0} развитого турбулентного течения несжимаемой жидкости (трехмерный С. турбулентности) или же спектральная плотность £](£) однородного (и инвариантного относительно отражений) случайного поля и^(х^ х2, х$, i) (где их - компонента вектора и в направлении оси х^) на прямой х2 - const, x3 = const (одномерный С. турбулентности). Лит.: Математическая физика. Энциклопедия, М., 1998, с. 559. А. М. Яглом. СПЕКТР фазовый (phase spectrum) - см. Фаза. СПЕКТРАЛЬНАЯ МЕРА (spectral measure) - см. Мартина граница, Спектральное разложение. СПЕКТРАЛЬНАЯ МОМЕНТНАЯ МЕРА (spectral moment measure) - см. Спектральный анализ случайных процессов и полей. СПЕКТРАЛЬНАЯ ПЛОТНОСТЬ взаимная (cross spectral density) - см. Спектральная плотность стационарного случайного процесса. СПЕКТРАЛЬНАЯ ПЛОТНОСТЬ кумулятивная (cumulative spectral density) - см. Спектральный семиинвариант. СПЕКТРАЛЬНАЯ ПЛОТНОСТЬ; непараметрическая оценка (non-parametric estimator of spectral density) - функция от наблюдения значений Х(1), ..., X(N) стационарного случайного процесса с дискретным временем, используемая в качестве статистической оценки спектральной плотности f(X) процесса. В качестве оценки С. п. f(X) стационарного процесса Х(0, £ = 0, ±1, ..., часто из соображений размерности используют построенные по выборке Х(1), ..., X(N) квадратичные формы с произвольными комплексными коэффициентами b\ t\ Асим- птотич. поведение при N-><*> первых двух моментов С. п. стационарного процесса в целом не ухудшается, если рас- л. ilW l(N) смотреть подкласс квадратичных форм, в к-ром bs t = bs t при Sj - tx =s2 ~ *2> что приводит к оценкам вида где есть выборочная оценка ковариационной функции стационарного процесса X(t). Оценку fN (X) можно представить также в виде fN(X)= \*я <PN(x)IN(x + X)dxt (1) где IN(x) - периодограмма, а Фы(х) - нек-рая непрерывная четная функция, определяемая своими коэффициентами Фурье: bN(t)=j*K<bN(x)eitxdx, t = -N+\, ...,N-\. Обычно рассматривают функции Фц(х) вида 0N Ы = АыФ(Аых) , AN -> «*>, и функциюФ(х) называют спектральным окном, полагая при этом, что Ф(х) - нек-рая непрерывная на (-<*>, <*>) функция такая, что \°°^(x)dx=\, а последовательность AN -> 0 так, что ANN~ -> 0. Аналогично рассматривают коэффициенты bN(t) вида 6N(0 = /CU"10, функцию К(х) называют ковариационным окном, а функцию bN(t) -окном запаздывания. Функции К(х) и Ф(х) связаны между собою преобразованием Фурье: K(t)=fa(x)eitxdxt СПЕКТРАЛЬНАЯ 631
вместе с коэффициентами AN они полностью определяют статистику (1), к-рую часто называют периодограммой, или статистикой типа Гренандера - Розен- бл атта. На практике обычно используют ковариационные и спектральные окна определенного вида: оценка Бартлетта \2 ^1, Б 2к{ х/2 )' оценка Парзена П 8к{ х/А ) Kn(t): \-6t + 6\tf, \t\^\/2, 2(1 -| *|)3, 1/2^^1, О, Ul^l; оценка Тьюки - Хеннинга Фт(х) KT(t) = 2ПХ л2_х2 ' 2"1 (1 + cositf), |*|^1, О, |*|>1; оценка равномерного спектрального осреднения Фр(х) = \ М^я/2, О, |*|>я/2, ,А _ sinnt/2 Решение задачи о поиске оптимального спектрального окна, минимизирующего средиеквадратич. уклонение minsupE(A,(»-/U))2 (2) ■1?1'Г+^М<1. в классе процессов х с С. п. f(X), удовлетворяющими при фиксированном X неравенству Гельдера с показателем а, О ^ а ^ 1, приводит к следующему виду спектрального окна: а+1 i [XI + ф0(*) = < la |*|>t при к-ром выражение (2) асимптотически равно CN~ a' + . На практике часто пользуются дискретным аналогом статистики (1), построенным посредством осреднения значений периодограммы IN(xk), xk = 2nk/N, при различных xk в окрестности точки X с весами Ф^(хк). Асимптотич. некоррелированность значений периодограммы Itf(xk) при различных k приводит к тому, что дисперсия оценки /м(Х) стремится к нулю: DL(Xh^f2(X)F <bl(x)dxt N->oo, k*0modnf (3) несмотря на тот факт, что DIN(X) ~f (X)t X*0 mod я, к нулю вообще не стремится. Асимптотич. несмещенность статистики fa (X) достигается за счет использования концентрирующихся в нуле весовых функций Ф^(х) (спектральных окон) и предположения непрерывности fix) в точке X. При этом усиление 632 СПЕКТРАЛЬНАЯ концентрации в нуле Фц(х) за счет выбора коэффициентов AN уменьшает смещение, но увеличивает дисперсию статистики fa(X). При достаточно слабых ограничениях на гладкость С. п. f(X) или на условия перемешивания случайного процесса X(t) для широкого класса спектральных или ковариационных окон оценка fa (X) оказывается асимптотически несмещенной и состоятельной. В случае многомерного случайного процесса для оценки элементов матрицы С. п. f^jiX) поступают аналогичным образом, используя соответствующие периодограммы В условиях перемешивания случайного процесса X(t) по Розенблатту с экспоненциальной скоростью убывания коэффициента перемешивания статистика fa (X) оказывается асимптотически нормальной со средним f(X) и дисперсией, определяемой выражением (3). Используя это, получают для нее доверительные интервалы. В несколько более ограничительных условиях статистика fa (X) сходится к f(X), Xe [-л, я], в метрике L (-л, л) или С(-л, л). Это позволяет проверять гипотезы о совпадении априори неизвестной С. п. f(X) с нек-рой заданной fo(X). Так, напр., можно проверять гипотезу о совпадении X(t) с белым шумом, С. п. к-рого f0(X) - const. Доверительные границы при этом находятся на основании закона распределения двойной экспоненты. С точки зрения асимптотики среднеквадратич. уклонения класс периодограммных статистик является достаточным среди всех статистик С. п., полученных в виде произвольных квадратичных форм от наблюдений процесса. Большинство используемых на практике статистик дает достаточно близкие значения среднеквадратич. уклонений с точки зрения конкретных приложений. В то же самое время среднеквадратич. уклонение не является единственным требованием, предъявляемым на практике к статистикам С. п. В многочисленных приложениях, где приводятся оценки спектров явлений самой различной природы, часто приходится сталкиваться с сильной изрезанностью спектра, со значительным временным трендом, с «уходом», «плаванием» частот, с сильными нестационарными шумами и т. д. Использование периодограммных статистик во всех этих ситуациях часто приводит к крайне нежелательным искажениям при оценке интересных особенностей в спектре, к неверной оценке показателя скорости спада спектра по частотам и т. д. Такие нежелательные эффекты при оценке реальных спектров значительно занижаются при использовании оценок спектра со слабой зависимостью от удаленных частот. Периодограммные статистики дают скорость убывания такой зависимости не лучше, чем CN~ , и сохраняют значительной «память» от сильного возмущения на сравнительно большом отрезке частот. К значительному ослаблению влияния далеких частот приводит процедура сглаживания по краям выборочной последовательности (применение временного окна), подробный анализ к-рой содержится в [1], [2]. Эта процедура значительно ослабляет влияние удаленных частот, но приводит при заданной длине выборки к заметному повышению уровня дисперсии, а вместе с ней и среднеквадратич. уклонения. Существенной выгоды можно добиться от применения глубокого сглаживания по краям временных отрезков с последующим осреднением модифицированных периодограмм, вычисленных таким образом по сдвинутым по времени отрезкам временного ряда. Применение полиномиального сглаживания с последующим осреднением по сдвигу по времени приводит к статистике со степенью зависимости от далеких частот порядка
exp(-b/v*E), b>0, e>0, и со среднеквадратич. уклонением, исключительно близким к оптимальному (см. [4]). В общем виде статистика С. п., полученная сдвигом по времени, определяется следующим образом: fN^=jil:l\<b^\2- <« где w£f(\) - модифицированная периодограмма wm <*•>=S7— а"и ~ е>е"х*('>. а целочисленные переменные L, М, Т, N связаны соотношениями N=(T-\)L+M+\, 4«Af«/v", LT~N. Неотрицательная функция (временное окно, окно данных) aM(t), t = Q, ±1 равна нулю вне отрезка [О, Л/],.через нее определяется спектральное ядро статистики для к-рого предполагается Г |ф&Ы|2Лс=1. J—к ' i В достаточно широких предположениях статистика (4) оказывается асимптотически несмещенной, состоятельной, нормальной с главным членом дисперсии DfN(X)~W^V^ \^M(x)\Adx, X * 0mod*. Явный вид выражения для дисперсии в условиях асимптотич. нормальности легко позволяет установить доверительные границы для статистики (4). Соединение в этой статистике таких качеств, как исключительно слабая зависимость от удаленных частот с использованием сдвига по времени, открывает широкие возможности для анализа и проверки ряда на стационарность в заданной полосе частот при отсутствии ограничений на поведение ряда в других частотах. Эта статистика удобна для применения с использованием ЭВМ, она экономит общее число операций и особенно объем памяти, необходимой для вычислений. Ее можно использовать для спектральных оценок, проводимых в режиме реального времени, она анализирует все изменения спектра, что позволяет изучить подробно на ЭВМ реальные процессы, возникающие в многочисленных приложениях. Лит.: [1] Бриллинджер Д., Численный анализ и теория временных рядов, пер. с англ., М., 1981; [2] Хеннан Э., Многомерные временные ряды, пер. с англ., М., 1974; [3] Андерсон Т., Статистический анализ временных рядов, пер. с англ., М., 1976; [4] Журбен- ко И. Г., Спектральный анализ временных рядов, М., 1982; [5] Time series in the frequency domain, Amst. - [a. o.], 1983; [6] Priestley M., Spectral analysis and time series, v. 1-2, L.-[a. o.], 1981; [7] Grenander U., Rosenblatt M., Statistical analysis of stationary time series, 2 ed., N. Y. - Stock., 1966. Ц. Г. Журбенко. СПЕКТРАЛЬНАЯ ПЛОТНОСТЬ осредненная (averaged spectral density) - см. Осредненная спектральная плотность. СПЕКТРАЛЬНАЯ ПЛОТНОСТЬ стационарного случайного процесса или однородного случайного п о л я в я-мерном пространстве (spectral density of a stationary random process or homogeneous random field in я-dimensio- nal space) - преобразование Фурье ковариационной функции стационарного случайного процесса (в широком смысле) или однородного случайного поля (в широком смысле). Процессы и поля такого рода, для к-рых существует преобразование Фурье ковариационной функции, называются процессами или полями, имеющими С. п. Пусть X(t) = {Xk(t)}k=^ п - я-мерный стационарный процесс, а - его спектральное представление (Ф^ - спектральная случайная мера, отвечающая k-й компоненте Xk(i) многомерного случайного процесса X(t); см. Стохастический интеграл). Интегрирование тут проводится в пределах -л^Х^яв случае дискретного времени t и в пределах -оо<£<оо в случае непрерывного времени t. Процесс имеет спектральную плотность л«={4,(х)}1:,1:.;п„, если все элементы Fkl(A) = E<bn(A)<t>l(A), k, /=1 я, спектральной меры F={Fk[}l~^ '^ абсолютно непрерывны и /i/(^) =———. Элемент fk^iX) называется спектральной плотностью одномерного процесса Xk(t), f^iX) - кросс- спектральной, или взаимной спектральной плотностью, a Fkl(X) - кросс-спектральной, или взаимной спектральной функцией временных рядов Xk(t), Xt(t). Матрица F(x) = \F(dX) называется спектральной функцией процесса X(t), a матрица ЖО = {Вы(0}£;;:"„ = {EXk(t + Х)хД1)>Ц:"„ называется ковариационной функцией процесса Х(0, она связана со спектральной мерой соотношением B(t)=jeiXt F(dX). Если для процесса X(t), t = 0} ± 1, ..., выполняется соотношение £"!__ \Bkl(t)\ <°°, k, /=1, ..., я, то XU) имеет С. п. и -oo<t<oot k,l = 1,..., Я. Аналогичное соотношение верно и для процессов с непрерывным временем. С. п. f(X) иногда еще называется спектральной плотностью второго поря дк а, в отличие от старших С. п. (см. Спектральный семиинвариант). Однородное я-мерное случайное поле X(t{, ..., tn) имеет С. п. f(Xu ..., Хп), если его спектральная функция F(Xb ..., Xk) обладает тем свойством, что ее смешанная произ- э¥ водная ——— существует почти всюду и равна почти всюду ftti V>a т,, ...д„) = = f, ' •••[/ ДЩ ДяМщ. ■••» d\Ln + const Лит.:[\] Прохоров Ю. В., Розанов Ю. А., Теория вероятностей, Зизд., М., 1987; [2J Розанов Ю. А., Стационарные случайные процессы, М., 1963. И. Г. Журбенко. СПЕКТРАЛЬНАЯ ФУНКЦИЯ (spectral function) - см Спектральная плотность стационарного случайного процесса. СПЕКТРАЛЬНАЯ ФУНКЦИЯ безгранично делимо го распределения (spectral function of a infinitely divisible distribution) - см. Безгранично делимое распределение. СПЕКТРАЛЬНАЯ ФУНКЦИЯ взаимная (cross spectral function) - см. Спектральная плотность стационарного случайного процесса. СПЕКТРАЛЬНАЯ ФУНКЦИЯ кумулянтная (cumulative spectral function) - см. Спектральный семиинвариант. СПЕКТРАЛЬНАЯ 633
СПЕКТРАЛЬНАЯ ФУНКЦИЯ передней пая (averaged spectral function) - см. Осредненная спектральная функция. СПЕКТРАЛЬНАЯ ФУНКЦИЯ; оценка (estimator of a spectral function) - функция от наблюденных значений Х(\), ..., Х(Ы) стационарного случайного процесса с дискретным временем, используемая в качестве оценки спектральной функции F(X). В качестве оценки С.ф. стационарного процесса X(t), t. = Q, ±1, часто используется функция вида где Itf(x) - периодограмма. В достаточно широких условиях гладкости С. ф. Fix) или условиях перемешивания случайного процесса X(t) эта оценка оказывается асимптотически несмещенной и состоятельной. Приведенная оценка является частным случаем оценки 2* Y л(2пк ]r f2nk] N *<-K<2Kk/N<* { N ) Ы{ N J Г71 функционала J(A) = J_ A(x)dF(x). В частности, к этому виду с функцией А(х), зависящей от длины выборки N и концентрирующейся около точки X, сводится оценка спектральной плотности f(X) (см. Спектральная плотность; непараметрическая оценка). Лит.: 11] Бриллинджер Д., Временные ряды. Обработка данных и теория, пер. с англ., М., 1980; [2J Хеннан Э., Многомерные временные ряды, пер. с англ., М., 1974. И. Г. Журбенко. СПЕКТРАЛЬНАЯ ФУНКЦИЯ случайной матрицы (spectral function of a random matrix) - функция собственных значений случайной матрицы, равная числу собственных значений, попавших в интервал (-<», х). Нормированной С.ф. симметрической случайной матрицы Еп, элементы к-рой равны ^., i^j, i» У- li ..., "» называется выражение ц„(дг) = П-1^=1т,-дг), 634 СПЕКТРАЛЬНАЯ Если для каждого значения п векторы (^г, ..., £,„), i= 1, ..., п} стохастически независимы, случайные величины ^.-, i, j, л=1, 2, ..., заданы на одном вероятностном пространстве, существует предел lim п~*Е1г\\1 + ИЕп\\~* = т(0 и функция т(0 непрерывна в нуле, то почти наверное lim \in(x) = v(x) П -Юс в каждой точке непрерывности неслучайной С. ф. v(x), преобразование Стилтьеса к-рой равно \(\+itx)~*dv(x) = m(t). Если для каждого значения п векторы-столбцы прямоугольной матрицы Нп- ||£s/ + irb/||> s~ I тп> '= * я» гДе п ~ число столбцов, а тп - число строк, независимы, случайные величины ^.-, Т|у, г, У, я= 1, 2 заданы на одном вероятностном пространстве, существует предел lim fi_1Etr| / + UHnH*n H= a(t\ где функция a(t) непрерывна в нуле, и ряд V". " тп сходится, то почти наверное lim [Ln(x) = a(x) в каждой точке непрерывности неслучайной С.ф. а(х), преобразование Стилтьеса к-рой равно J 1 + itx Если случайные элементы £,у, i^j, i, j= 1 л, случайной матрицы Н„= W^ifW для каждого значения п независимы и имеют плотности распределения р> lim supE^i„<^) = 0, «-»-« п то почти для каждого х р lim (\i„(x) - Ец„(^)) = 0, En„W = n-,X;=1 PfdetltH^-J^HdetllH'-Arll-^O}. =s=IIMUfdets0=1- Лит.: [11 Гирко В.Л., Теория случайных детерминантов, К., 1980; [2] Пасту р Л. А., «Успехи матем. наук», 1973, т. 28, в. 1, с 1-64. в. Л. Гирко. СПЕКТРАЛЬНАЯ ФУНКЦИЯ эволюционирующая (evolutionary spectral function) - см. Эволюционирующее спектральное представление. СПЕКТРАЛЬНОЕ ОКНО (spectral window) оценки спектральной плотности - функция круговой частоты X, определяющая весовую функцию, используемую при непараметрическом оценивании спектральной плотности f(X) стационарного случайного процесса X(t) с помощью сглаживания периодограммы, построенной по данным наблюдений за процессом. Обычно за оценку значения спектральной плотности в точке \$ принимают интеграл но dX от произведения периодограммы в точке X на выражение типа BNA(BN(X-Xq)), где А(Х) - фиксированная функция частоты, принимающая наибольшее значение в точке ^ = 0и такая, что ее интеграл по всем значениям X равен единице [именно эту функцию и называют спектральным окном, хотя иногда тот же термин прилагается и к функции BNA(BNX)]> a Вй - зависящая от размера выборки N [то есть от длины где F(x) = \ при х<0, F(x) = 0 при дг^О, Xi - собственные значения матрицы Еп. Предельные теоремы для \1п(х) доказываются с помощью преобразования Стилтьеса: j (Х-2У^11П(Х) = П^ tT\\En-2l\\-\ где г - любое комплексное число, Inri2*0, либо с помощью преобразования |(1+^)",фя(дг) = я"Чг||/ + ^Нп||~1. Формула обращения для преобразования Стилтьеса в точках стохастич. непрерывности хх и х2 функции \хп(х) имеет вид P{[in(x2)-\in(x])<u) = limP]*"1 p lm^n(y + iz)dy<u), £-►0 { J*\ J где £„(*)= J (х-г) d[Ln(x), Im z*0. Пусть \in(x) => \i(x) означает слабую сходимость конечномерных распределений случайных С.ф. \хп(х) к конечномерным распределениям случайной С.ф. ц(дг); a u.„(^)^ \i(x) означает слабую сходимость конечномерных распределений случайных С. ф. \1п(х) к конечномерным распределениям случайной С. ф. \i(x), взятым в точках стохастич. непрерывности последней. Если \in(x) - последовательность нормированных С.ф. и lim sup Едп(/г) = 0, то для того чтобы \l„(x) ^ \х(х), где ц(лг) - нек-рая случайная неубывающая функция ограниченной вариации, необходимо и достаточно, чтобы 6Я<*)=*6<*>. Im** 0,ф) =kx-zV*diL(x).
наблюдавшегося отрезка реализации процесса Х(0] и при N -+°° стремящаяся к нулю (но медленнее, чем N~ ) ширина С. о. Преобразование Фурье С. о. (а в случае дискретного времени t, когда -к^Х<к- совокупность коэффициентов Фурье С. о.) называется корреляционным окном оценки спектральной плотности; оно определяет весовую функцию дискретного или непрерывного аргумента (в зависимости от того, дискретно или непрерывно время О, на к-рую надо умножить эмпирич. автокорреляции, построенные по выборке, для того чтобы преобразование Фурье полученного произведения совпало с рекомендуемой оценкой спектральной плотности. См. также Спектральная плотность; непараметрическая оценка. Лит.: [1] Black man R. В., Tukcy J.W., The measurement of power spectra from the point of view of communications engineering, N.Y., 1959;'[2] Дженкинс Г., Ватте Д., Спектральный анализ и его приложения, пер. с англ., в. 1-2, М., 1971-72; [3] Бриллинд- жер Д., Временные ряды. Обработка данных и теория, пер. с англ., М., 1980; (4) Мари л С. Л., Цифровой спектральный анализ и его приложения, пер. с англ., М., 1990. А. М. Яглом. СПЕКТРАЛЬНОЕ РАЗЛОЖЕНИЕ ковариационной матрицы (spectral decomposition of covariance matrix) - см. Ковариационная матрица; спектральное разложение. СПЕКТРАЛЬНОЕ РАЗЛОЖЕНИЕ случайной функции (spectral decomposition/representation of random function) - 1) ортогональное представление случайной функции Х(0, то есть разложение случайной функции (в частности, случайного процесса или случайного поля) в ряд или интеграл по той или иной системе специальных функций такое, что коэффициенты этого разложения представляют собой взаимно некоррелированные случайные величины. Широкий класс Ср. комплекснозначных случайных функций X(t), teT, может быть представлен в виде *(*)=/ Ф«; Ш«», (1) где Л - нек-рое множество с заданной системой * измеримых подмножеств» (то есть измеримое пространство); <р(£; X), £ е Г, л. е Л,- система комплекснозначных функций на 7\ зависящих от параметра ^еЛ; Z(dX) - случайная мера на Л с некоррелированными значениями [так что EZ(A1)Z(A2) = 0 для любых двух непересекающихся измеримых подмножеств Л] и Д21, а интеграл в правой части (1) можно или определить как предел в среднем квадратичном соответствующей последовательности интегральных сумм Коши (см. [1]), или же понимать как более общий «интеграл по мере Z(dX)* (см., напр., [2]). Согласно общей Карунена теореме об интегральном представлении случайных функций (см. [1]), для существования Ср. (1) случайной функции Х(0 необходимо и достаточно, чтобы соответствующая корреляционная функция B(ty s) = EX(t)X(s) допускала представление вида B(t, s)=J ф; X)q>(s; X)F(dX), J л где F(dX) = E\z(dX)\2 - неотрицательная мера на Л. Наиболее известный класс Ср. случайных функций - представление стационарных случайных процессов X(t) в виде интеграла Фурье - Стилтьеса: Х(0=( eitkdZ(X), (2) где Z(X) - случайная функция X с некоррелированными приращениями, а Л - ось ( - ©о, оо) в случае процессов с непрерывным временем t или же интервал [-я, я], если время t дискретно (принимает целочисленные значения). Существование такого С. р. вытекает из общей теоремы Хинчина об интегральном представлении корреляционной функции B(s) = EX(t + s)X(t) (см. Стационарный случайный процесс); оно показывает, что любой стационарный случайный процесс можно рассматривать как наложение некоррелированных друг с другом гармонич. колебаний различных частот со случайными фазами и амплитудами. С. р. аналогичного вида, но с заменой гармонич. колебаний я-мерными плоскими волнами, имеет место для однородных случайных полей, заданных на евклидовом я-мерном пространстве 1РЯ или же на решетке Жп точек IR" с целочисленными координатами. В случае обобщенного стационарного процесса [линейного функционала Х(ф) на пространстве DM финитных бесконечно дифференцируемых функций ф(О] такого, что ЕХ(ф) = т(ф) и ЕХ(ф1)Х(ф2) = = Жф], ф2) инвариантны относительно замены функции ф(0 на функцию q>(t + a) при любом действительном а, Х^-^фаШШ, (3) где - преобразование Фурье функции ф(0. Формула (3) следует из того, что здесь Жф,, ф2)=^Ф1(^)ф2(^)^Я^), где функция F(X) = Е \Z(X) - Z( - <*>) | - монотонно неубывающая спектральная функция такая, что \2o(\+X2rpdF(X)<<*> при нек-ром неотрицательном р (см. [3]). Если же в качестве пространства функций ф(0 принять нек-рое пространство целых аналитич. функций, то можно прийти и к обобщенным стационарным случайным процессам Х(ф) с экспоненциально возрастающей спектральной функцией F(X) (см., напр., [4]). Ср. специального вида имеют место и для однородных случайных полей на группах G и однородных пространствах 5; этот факт в силу теоремы Карунена об ортогональном представлении вытекает из ряда имеющихся результатов об общем виде положительно определенных функций (или ядер - функций двух переменных) на множествах G и S. В частности, для однородного поля Х(д) на произвольной локально компактной коммутативной группе G С. р. поля Х(д) имеет вид (1), где роль функций ф(£; X) играют характеры х (д) группы G, а областью интегрирования Л является соответствующая группа характеров G (см., напр., [5], [6]). С р. более сложного вида при широких условиях имеют место и для однородных полей на некоммутативных положительных группах (см. [5], [7]). В случае однородных полей на однородных пространствах S = {s} Ср. поля X(s) включает сфе- рич. функции пространства S, а в выражение для корреляционной функции B(S), s2) = EX(s1)X(s2) входят соответствующие зональные сферич. функции (см. [5], [7], [8]). В частности, общее однородное поле Х(6, ф) на сфере 52 трехмерного пространства И?3 допускает С. р. вида Же, Ф)=£7,0 XL-; y/.m(e, 4>)z,.m, (4) где У/ те(6, ф) = e~""9P/"(cos в) - обычные сферич. функции, а случайные величины Ztm таковы, что EZimZ in-bmnfi, где 5/;- - символ Кронекера. Отвечающее формуле (4) выражение для корреляционной функции ЕХ(в1, ф1)Х(в2,ф2) = Жв12), СПЕКТРАЛЬНОЕ 635
где в12 ~ угловое расстояние между точками (6^, <Pj) и (б2, Ф2), имеет вид me)=x7=0[(2/+1)/2]/ip/(cose)' где Pt - многочлены Лежандра. Если же Х(г, <р) [где (г, <р) - полярные координаты] - однородное и изотропное поле на плоскости (I? [так что ЕХ(гх, ф1)Х(г2,ф2) =B(ri2), где г12- евклидово расстояние между точками (ru <pt) и (г2, Ф2)], то С. р. поля Х(г, ф) записывается в виде Х{г- »> - ZT— е'Ч" h^r)dZk{\), (5) где Д(дг) - функция Бесселя порядка k. Здесь Zk(X) - случайные функции с некоррелированными приращениями такие, что EZA(A1)Zw(A2)=5AwF(A1nA2), где ZA(A) = J^Z,a) - неотрицательная мера на полуоси [0, <»). С. р. (5) отвечает следующее выражение для корреляционной функции В(г): B(r) = j~Joa,r)dFa). Имеются и другие примеры С. р. однородных полей (см. [5]-[8]). С. р. случайных функций существуют не только для стационарных случайных процессов и однородных случайных полей. Так, напр., если X(t) - произвольный случайный процесс на интервале a^t^b с непрерывной по обоим аргументам корреляционной функцией B(t, s) = EX(t)X(s)} то процесс X(t) будет допускать Ср. вида *«>=ХГ-Л^*«)г*- (6) где ф^(0, k=\, 2, ..., и Xk, k= l, 2, ...,- ортонормированные собственные функции и собственные значения интегрального оператора с ядром B(t} s), а EZZ^=5;^. С. р. (6) случайного процесса Ж О, заданного на конечном интервале, представляет собой континуальный аналог разложения случайного вектора на его главные компоненты, часто используемого в многомерном статистич. анализе; оно было независимо получено целым рядом авторов и чаще всего называется Карунена - Лоэва разложением. Подобного рода С. р. широко используются во многих приложениях - в частности в теории автома- тич. управления (см., напр., [9]) и в геофизике (см. Эмпирические ортогональные функции). 2) Под Ср. случайной функции X(t), t e T, иногда понимают также общее разложение вида (1) по нек-рой стандартной (достаточно простой) полной системе функций <р(£; X). Особенно часто такое С р. рассматривается в применении к случайному процессу X(t) с непрерывным временем и функциям ф(£; X) = elt , так что равенство (1) обращается в (2). Функция Bit, s)-EX(t)X(s) допускает в таком случае представление в виде Bit, *) = £ £ ^ЯЛхф), (7) где F(dXxd\i) - комплекснозначная мера на плоскости (X, ji), задаваемая соотношением F(Aj x A2) = EZ(Aj)Z(A2). Обратно, из представимости B(t, s) в виде (7) следует и существование Ср. (2) (см., напр., [10], [11]). Случайные процессы, допускающие С. р. (2), где Z(X) не обязательно имеет некоррелированные приращения, называются гармонизуемыми случайными процессами; комплексная мера F(dXxd\i) в таком слу- 636 СПЕКТРАЛЬНОЕ чае называется спектральной мерой Х(0, а совокупность точек плоскости (X, |i), не имеющих окрестности нулевой спектральной меры, называется спектром процесса X(t). Спектр стационарного процесса X(t) сосредоточен на прямой X -\i. Гармонизуемыми при широких условиях будут и периодически коррелированные случайные процессы X(t), обладающие тем свойством, что EX{t + mTQ) = EX(t), EX(t + mT0)X(s + mT0) = EX(t)X^) при нек-ром Г0>0 и произвольном целом тп; спектр таких процессов сосредоточен на совокупности прямых X = \i + 2nk/T0, /е = 0, ±1, ±2,... Лит.: [1] Karhunen К., «Ann. Acad. Sci. Fennicae. Ser. A. Math.- Phys. I», 1947, № 37, p. 3-79; [21 Розанов Ю.А., «Теория вероятн. и ее примени, 1959, т. 4, в. 3, с. 291-310; [3] Гель- фанд И.М., Виленкин Н. Я., Некоторые применения гармонического анализа. Оснащенные гильбертовы пространства, М, 1961; [4] Onoyama Т., «Mem. Fac. Sci. Kyushu Univ. Ser. A», 1959, v. 13, № 2, p. 208-13; [51 Яг лом А. М., в кн.: Тр. 4-го Всесоюзного матем. съезда, Ленинград, 1961, т. 1, Л., 1963, с. 250-73; [6J его же, в кн.: Proceeding of the 4-th Berkeley symposium mathematical statistic and probability, v. 2, Berk. - Los Ang., 1961, p. 593-622; [7] Хеннан Э., Представления групп и прикладная теория вероятностей, пер. с англ., М., 1970; [8] Ядренко М. И., Спектральная теория случайных полей, К., 1980; [9] Пугачев B.C., Теория случайных функций и ее применение к задачам автоматического управления, 3 изд., М., 1962; [10] Л оз в М., Теория вероятностей, пер. с англ., М., 1962; [11] Rao М. М., в кн.: Handbook of statistics, v. 5, Amst., 1985, p. 279-310. A.M. Яглом. СПЕКТРАЛЬНЫЕ ТЕОРИИ нестационарных слу чайных процессов (spectral theories of nonstationary stochastic processes) - разделы теории случайных процессов, в к-рых изучение тех или иных классов нестационарных процессов основывается на спектральных разложениях процессов и их корреляционных функций или же на использовании спектральных характеристик этих процессов, в определенной степени подобных спектральным мерам и плотностям стационарных процессов. В С. т. нестационарных случайных процессов, допускающих спектральные разложения в виде стохастич. интегралов или рядов по специальным системам функций со случайными коэффициентами, входят, в частности, следующие теории. 1) Теория гармонизуемых случайных процессов, то есть процессов X(t), t&T} с Т = №=(-°°, °°) или же Г = 2 = {0, ±1, ±2, ...}, представимых в виде X(0=f eiktZ(dX), t*Tt (1) j л где Л = R? при Г = В? и Л = [ - тс, тс) при Т= 1, a Z - векторно- значная мера на Л со значениями в гильбертовом пространстве L (ft, л/, Р) комплекснозначных величин с конечными вторыми моментами на вероятностном пространстве (£1, ./, Р), имеющая конечную полувариацию (см. [1], [2]). При этом аддитивная функция F(A, А') = EZ(A)Z(A') борелевских множеств А, А'с Л, называемая спектральной мерой процесса X(t), также имеет конечную полувариацию и ЕЖОЗОД = |Л |л ei(Xt-^F(dXt d\L). - Подклассом гармонизуемых процессов являются почти стационарные процессы в широком смысле, то есть процессы X(t), teT, c_E\x(t)\2<oo [в случае Г-Н? функция Bx(t, s) = EX(t)X(s) предполагается непрерывной], для к-рых существует такое Кх ^ 1, что Е\Ъ'.лЩ+*{«к>£\Ъис'хиА2 для всех натуральных чисел ти, комплексных чисел q, с2, ..., ст и s, £1f t2, ..., tmeT (см. [15]). 2) Теория случайных процессов со стационарными приращениями нек-рого порядка я, то есть
таких нестационарных процессов X(t), te№, что их и-я разность Д(т">Х(0 = З£и0 ( - 1 )kCknX{t - kx), является зависящим от параметра х стационарным в широком смысле процессом аргумента t (см. [3], [4]). В этом случае А(Я)Х(0= Г eiXtU-e-iXx)n(X+iXr Z(dX), r J— (iX)n где Z - ортогональная случайная мера, и сам процесс X(t) определяется по Д^Х(х) с точностью до многочлена порядка п- 1 со случайными коэффициентами. 3) Теория непрерывных в среднем квадратичном случайных процессов X(t), a^t^b, допускающих Карунена - Лоэва разложение где cpfe, k=\, 2 - собственные функции интегрального оператора с ядром Bx(t, s), отвечающие собственным числам Xk, zZk - последовательность ортогональных случайных величин таких, что E|Zfe|2 = A,fe (см. [5]). 4) Теории ряда классов нестационарных линейно представим ых случайных процессов X(t), teT, где Г=[0, <») или Т = №, E\X(t)\ <<», то есть нестационарных процессов, представимых в виде (2) JtA X(t) = ellAX(0), teT, где А - линейный оператор в гильбертовом пространстве Нх, определяемом как замкнутая в среднем квадратичном линейная оболочка значений процесса. Спектр оператора А называется спектром процесса (2), а величина rx = dim [—j.— }НХ -его рангом нестационарности. Известны спектральные разложения нек-рых классов процессов вида (2) с диссипативными операторами А, для к-рых 1т{Е[(АУ)У]}>0 при всех YeHx (см. [6], [7]). 5) Теория гармонизуемых а-у стойчи вых процессов Х(О, teT, определяемых равенством (1), в к-ром Z является комплекснозначной случайной мерой с независимыми значениями на непересекающихся борелевских множествах Лис конечномерными распределениями, представляющими собой многомерные симметричные а-устойчивые распределения, 1<а<2 (см. [8], [9]). При изучении этих процессов используется специфическая корреляционная теория, основывающаяся на понятии а-ковариации комплекснозначных совместно симметричных а-устойчивых случайных величин. 6) Теория осциллирующих случайных процессов Х(О, tefc, допускающих эволюционирующие спектральные разложения вида X(t)=\1oeuxA(t, X)Z(dX), где Z- ортогональная случайная мера, E|Z(rfX)| = G(dX), G(li?)<oo, и A(t, М = £,Л/вЯх(е), причем \(IqH^(Q)\ имеет для каждого X максимум в точке 0 = 0 (см. [10], [11]). Эволюционирующая спектральная мера Ft(dX) процесса X(t) относительно семейства функций \ех tA{t, X)] определяется равенством Ft(dX)=\A(t,X)\2G(dX). 7) Теория двоично стационарных случайных процессов Х(0, teT, где Г=[0, °°) или Г = {0, 1, 2, ...}, то есть процессов, у к-рых Bx(s) = EX(t®s)X(t) для всех s, teT не зависит от t, а Ф обозначает операцию двоичного сложения чисел из Т (см. [12], [13]). Напр., если для процесса X(t) с дискретным временем lim 2-"^0,Bx(5)Vs(p-0) = 0 для каждого двоично рационального р е (0, 1), где у5 - функции Уолша, то имеет место разложение X(t)=\*o\vt(X)Z(dX), в к-ром Z является ортогональной случайной мерой. 8) Теория процессов нормального типа, то есть процессов X(t), t^O, с Е|х(01 <<х>, для к-рых операторы сдвига Vs, определяемые равенством VsX(t) = X(t + s), являются нормальными операторами в Нх (см. [14], [15]). Напр., для непрерывного в среднем квадратичном процесса X(t), te[Q, oo), нормального типа имеют место разложения X(t)=lreXtZ(dX), Bx(t,s) = jreXt + hF(dX), где Z - ортогональная случайная мера на борелевских множествах комплексной плоскости с носителем Г и F(dX) = = E|z(<a)l2 - спектральная мера процесса X(t). В приложениях теории случайных процессов употребляются и такие спектральные характеристики нестационарного процесса X(t), te$, Е|Х(0| <°°, как обобщенная спектральная плотность УХ(Х, \i), частотно- временная спектральная плотность ф^(£, ^), мгновенная спектральная плотность px(t, X), плотность физического спектра Sx(t, X, со), определяемые равенствами ух(Х, \i) = —Ц- Г Г ВЛх, s)ei(U~^dxdst х (2я)2 J— J— x Фх(*, X) = — £° Bx(t -x/2,t + x/2)e-iXxdx, 9x(t,X) = -^E\jtooX(x)e-iX4x\ , Sx(t, X, w) = ^E\j^w(t-x)X(x)e-iXxdx (3) при условиях, что выражения в правых частях этих равенств существуют [в (3) предполагается, что w(t), te$, является действительной функцией, для к-рой w(0)>0 и J-oo w (*)</*= 1], а также и нек-рые другие спектральные характеристики (см., напр., [11], [16] -[21]). Для процессов X(t), te№, с Е|Х(01 <°°, обладающих непрерывной осредненной корреляционной функцией Bx(s) = \im — \nBx(t + s, t)dt,se№, Л Х->оо Т J0 Л спектральной характеристикой служит (см. [1]) осредненная спектральная функция F(X), связанная с Bx(s) соотношением Я^(5) = £Лт). Лит.: [1] Розанов Ю. А., «Теория вероятн. и ее примен.», 1959, т. 4, в. 3, с. 291-310; [2] Miamee A. G., Salehi H., «Indiana Univ. Math. J.p, 1978, v. 27, № l, p. 37-50; [3] Яглом A.M., «Матем. сб.», 1955, т. 37, № 1, с. 141-96; [4] Пинскер М.С., «Изв. АН СССР. Сер. матем.», 1955, т. 19, с. 319-44; [5] Гихман И. И., Скороход А. В., Теория случайных процессов, т. 1, М., 1971; [6] Лившиц М. С, Янцевич А. А., Теория операторных узлов в СПЕКТРАЛЬНЫЕ 637
гильбертовых пространствах, Хар., 1971; [7J Кирчев К., «Сер- дика. Бълг. Мат. списания», 1975, т. 1, № 2, с. 199-217; [8] Weron A., «Lect. Notes in Math.», 1984, v. 1080, p. 306-64; [9] Pourahmadi M., «SIAM J. Appl. Math.», 1984, v. 44, № 5, p. 1023-30; [101 Priestley M. В., «J. Roy. Statist. Soc, ser. B», 1965, v. 27, № 2, p. 204-37; [HI его же, Spectral analysis and time series, v. 1-2, L., 1981; [12] Nagai Т., «Bull. Math. Statist», 1976, v. 17, p. 65-73; [13] Engels W., Splettstosser W., «IEEE Trans. Inform. Theory», 1982, v. IT28, № 4, p. 612-19; [14] Ge- toor R., «Duke Math. J.», 1956, v. 23, № 1, p. 175-87; [15] Tjes- theim D., «Stoch. Proc. and Appl.», 1980, v. 10, № 2, p. 145-60; [16] Silverman R. A., «IRE Trans. Inform. Theory», 1957, v. IT3, № 3, p. 182-87; [17] Loynes R. M., «J. Roy. Statist. Soc, ser. B», 1968, v. 30, № 1, p. 1-30; [18] Бен дат Д., Пирсол А., Измерение и анализ случайных процессов, пер. с англ., М., 1974; [19] Веп- dat J.S., Piersol AG., Random data. Analysis and measurement procedures, 2 ed., N. Y. - [a. o.], 1986; [20] Харкевич А. А., Спектры и анализ, 4 изд., М., 1962; [21] Рытов С. М., Случайные процессы, 2 изд., М., 1976 (Введение в статистическую радиофизику, ч. 1). А. И. Поначаренко. СПЕКТРАЛЬНЫЕ ТИПЫ дизъюнктные (disjoint spectral types) - см. Сингулярность мер. СПЕКТРАЛЬНЫЕ ТИПЫ меры (spectra] types of measure) - см. Абсолютная непрерывность мер, Эквивалентные меры. СПЕКТРАЛЬНЫЕ ТИПЫ независимые (independent spectral types) - см. Сингулярность мер. СПЕКТРАЛЬНЫЙ АНАЛИЗ временных рядов (spectra] analysis of time series) - раздел статистического анализа временных рядов, основной целью к-рого является исследование частотных характеристик стационарного случайного процесса с дискретным временем, или, как его принято называть в статистике, временного ряда. Анализ временных рядов в 80-х гг. 20 в. явился одной из наиболее бурно развивающихся областей теории вероятностей и математич. статистики. Отправляясь от глубоких теоретич. результатов теории стационарных процессов, анализ временных рядов превратился в одно из наиболее значимых в прикладном отношении направлений математич. статистики. В самых разнообразных исследованиях, включая физику и экономику, технику и лингвистику, биологию и социологию, приходится иметь дело или со стохастически стационарными рядами наблюдений, или отличающимися от стационарных наличием легко выделяемого тренда, сезонных изменений, периодич. составляющих и т. п. Можно выделить два основных подхода при изучении подобных явлений: первый связан с изучением стохастич. связей во времени, и его называют анализом временных рядов во временной области, второй - с исследованием частотных характеристик рассматриваемых рядов, и его называют спектральным анализом временных рядов. Первый подход, основываясь на изучении корреляционных функций рядов наблюдений, большей частью опирается на параметрич. многомерные методы исследования. Второй подход основывается на разнообразной спектральной, асимптотической, функциональной технике, к-рая во многих ситуациях исключительно сильно привязана к физич. сущности изучаемых явлений и обладает большой наглядностью. Одна из первых попыток статистич. изучения частотных характеристик принадлежит А. Шустеру [1], к-рый ввел определение периодограммы и использовал его для выделения скрытых периодичностей. Им же была отмечена статистич. неустойчивость периодограммы, не позволяющая использовать ее в качестве оценки спектральной плотности. Впервые идею об осреднении периодограммы с помощью спектрального окна для получения состоятельной оценки спектральной плотности предложил А. Эйнштейн [2], но эта его ранняя работа 638 СПЕКТРАЛЬНЫЕ в статистич. мире осталась незамеченной, и приоритет обычно отдают М. Бартлетту и Ф. Даниелу (см. [3], [4]). Первое подробное изучение периодограммных статистик (см. Спектральная плотность, непараметрическая оценка) принадлежит У. Гренандеру и М. Розенблатту [5]. Подробное изучение статистич. оценок старших спектров, или, как принято называть в отечественной литературе, спектральных семиинвариантов (см. [6]) принадлежит Д. Бриллинджеру и М. Розенблатту [7]. Существенным толчком для развития многочисленных применений С. а. временных рядов явились решения В. А. Ко- тельниковым и независимо К. Шенноном (см. [8]) дискретизации проблемы стационарного процесса с непрерывным временем. Оказалось, что любой процесс непрерывного времени со спектром, сосредоточенным в ограниченной полосе -л/Д< <(0^л/Д, можно выразить в виде линейной комбинации его дискретных отсчетов через интервалы времени А, таким образом, процесс с ограниченным спектром вместе со всеми своими характеристиками полностью определяется своими значениями x(kA), k = 0, + 1, ... (Котельникова теорема). И наоборот, это оказывается неверным, если спектр процесса сосредоточен в бесконечной полосе; так, при статистич. оценке спектра, априори сосредоточенного на бесконечной полосе, по значениям процесса в моменты времени ЛД происходит эффект наложения частот, и наибольшую круговую частоту, к-рую при этом можно определить, называют частотой Найквиста. Понимание этих эффектов играет важную роль в теории фильтрации временных рядов (см. Сезонные изменения, Линейный фильтр, Децимация, Комплексная демодуляция). Долгое время С. а. временных рядов не получал должного развития, в частности, исключительно из-за вычислительных трудностей, связанных с большим объемом вычислений, необходимых для реализации алгоритмов дискретного преобразования Фурье. Существенное изменение интереса к этому вопросу связано с появлением алгоритма быстрого преобразования Фурье (см. [9]). Этот алгоритм позволил существенно сократить объем вычислений конечного дискретного преобразования Фурье с обычных CN операций до СЛПп N операций, так что даже вычисление оценки ковариационной функции стало выгодно проводить путем двойного преобразования Фурье, отправляясь от исходного ряда наблюдений. Все это одновременно со значительным увеличением возможностей вычислительной техники привело к тому, что популярность спектрального подхода к изучению проблем стагистич. анализа временных рядов в последнее десятилетие необычайно возросла. Важное прикладное значение имеет многомерный С. а. временных рядов, где X(t) наблюдается в евклидовом пространстве [R ". Исследователи в этой области обычно не ограничиваются изучением кросс-спектров и уделяют большое внимание изучению коспектра и квадратурного спектра, когерентности, фазы, что нашло отражение в многочисленной литературе (см. [10]-[15]). Большое развитие получили методы непараметрич. оценки спектральной плотности, полученной осреднением по сдвигу во времени. Эта процедура, предложенная впервые Дж. Тыо- ки (J. Tukey) и подробно исследованная в [15], позволяет получать робастньге оценки спектров, устойчивые по отношению к сильным шумам, сосредоточенным в соседних частотах. Много внимания уделялось развитию методов С. а. случайных полей (см. [15], [16]). Обширная литература посвящена вопросам параметрич. С. а. временных рядов (см. [8], [17]-[21]). Значительное внимание уделялось разработке алгоритмов, реализующих статистич. процедуры С. а. временных рядов и построению соответствующего программного обеспечения ЭВМ (см. [23]).
Большое прикладное значение имеют работы по анализу нерегулярно наблюдаемых временных рядов. Так, очень часто на практике приходится иметь дело с ситуацией, когда процесс Kit) с непрерывным временем наблюдается в случайные моменты времени, то есть изучается процесс У (О, для к-рого Y(dO = XU)\i(dt), где \i - иек-рая случайная мера на прямой А. И таком случае спектральная плотность стационарного процесса X(t) связана с плотностью процесса F,,, и спектральной мерой \i(t) точечного процесса следующим образом: /УУШ = (Ц.СЛ)) VxxW-) +1 Ли<Ь - «) Vrfa)- Этот подход позволяет построить спектральную теорию процессов, наблюдаемых «иад» точечными процессами, что открывает широкие возможности как для теории точечных процессов, .так и для ее приложений (см. [24]). Бурное развитие в настоящее время претерпевает нелинейная теория анализа временных рядов. Начатая в [6] и продолженная в [7], [15], она приобретает все большее как теоретич., так и практич. значение. Лит.: [1] Shuster A., «Terr. Magn», 1898, t. 3, S. 13-41; [2] Einstein A., «Arch. Sci. Phys. et Nature», 1941, v. 37, p. 254-56; 13] Daniel F., «J. Royal Statist. Soc. SuppU, 1946, v. 8, № 27; [4] Bartlett M., «Nature», 1948, v. 161, p. 686-87; [5] Grenan- d e г U.. Rosenblatt M., Statistical analysis of stationare time series, N. Y , 1957; [6] Ширяев А. Н., «Теория вероятн. и ее примен.», 1960, т. 5, в. 3, с 293-313; [7] Brillinger D., Rosenblatt M., в кн : Spectral analysis of time series, N. Y. - [a. o.], 1967, p. 153-232; [8] Яглом A.M., Корреляционная теория стационарных случайных функций, Л., 1981; [9] Cooley J., Tukey J., «Math. Comput.», 1965, v. 19, p. 297-301; [10] Хеннан Э., Многомерные временные ряды, пер. с англ., М., 1974: [11| Андерсон Т., Статистический анализ временных рядов, пер. с англ., М., 1976; [12] Бриллинд- жер Д., Временные ряды. Обработка данных и теория, пер. с англ., М., 1980; [13] Отнес Р., Эноксон Л., Прикладной анализ временных рядов, пер. с англ., М., 1982; [14] Koopmans L., The speciral analysis of time series, N. Y. - [a. o.[, 1974; [15] Журбен- ko И. Г., Анализ стационарных и однородных случайных систем, М., 1987; [161 Ядренко М. И., Спектральная теория случайных полей, К., 1980; [17] Parzen E., Time series analysis papers. San Francisco - [a.o], 1967; [18] Бокс Дж., Дженкиис Г., Анализ временных рядов, пер. с англ., в. 1-2, М., 1974; [19] Кендэл М., Временные ряды, пер. с ашл., М., 1981; [20] Кендалл М., Стьюарт А., Многомерный статистический анализ и временные ряды, пер. с англ., М., 1976; [21] Priestley M., Spectral analysis and time series, v. 1-2, L. - [a.o.], 1981; [22] Джапаридзе К. О., Оценка параметров и проверка гипотез в спектральном анализе стационарных временных рядов, Тб.. 1981; [231 Robinson E., Multichannel time series analysis with digital computer programs, Houston, 1983; [24] Handbook of statistics, v. 3. Amst., 1983; [2J\ Time series analysis of irregularly observed data, ed. by E. Parzen, N. Y. - [a.o.], 1984; [26] Rao T. S., Gab г M. M., An introduction to bispectral analysis and bilinear time series models, В.- [a.o.], 1984; [27] Tong H.. Thcreshold models in non-linear time series analysis, N. Y.- [a.o.], 1983; [28] Handbook of statistics, v. 5, Time series in the time domains, Amst.- [a.o.], 1985; [29] Tukey J., The collected works, v. 1, Time series. 1949-1964, Belmont (Calif.), 1984. tf. Г. Журбенко. СПЕКТРАЛЬНЫЙ АНАЛИЗ случайных процессов и полей (spectra] analysis of a random processes and fields) - раздел теории стационарных случайных процессов и однородных случайных полей, изучающий их старшие спектральные характеристики; возник пол влиянием работ [1]-[3]. Пусть Т - класс случайных процессов Х(0, для к-рых e|x(0|*4c*<oo, a S - класс процессов X(t)eT таких, что для всех tx, ..., th 1^/^fc, -oo<x<oo, выполняется Е(Ш!)...Х(г/)) = Е(Ха1+т)...Ха/ + т)). Процессы класса S иногда называются стационарными в широком смысле порядка k. Пусть Мх (А) - комплексная вполне конечная мера (называемая спектральной моментной мерой), определенная на системе борелевских множеств евклидова пространства II?" такая, что где Mik)(tx tk) = E(X(tx)...X(tk)). Процесс X(t) принадлежит класу Ф( \ если для всех \^l^k имеет место соотношение M<V, tk)=\KleiitMM$(d\). Между классами Т \ S , Ф существуют следующие соотношения: s(k)czT(k\ ФШсГш. Известно, что 5(2)еф(2), причем пример процесса 7(0 = X(t) cos art, где X(t)eS , показывает, что класс Ф шире класса S . Однако для k > 2 построенный в [2] пример показывает, что существуют процессы класса S , не принадлежащие в то же время классу Ф , Во многих случаях оказывается естественным рассматривать не моментную спектральную меру Мх (А), а спектральную семииивариантную меру Fx (А), определяемую соотношением где &*% tk) = Мера Mx (А) часто называется спектральным моментом, а Fx (А)- спектральным семиинвариантом. Семиинварианты случайных величин иногда обозначаются 5ШШМ, .... X(tk))=Sik)(tit .... tk). Класс А , введенный по предложению А. Н. Колмогорова в [1], определяется как подкласс класса Ф П5 , к-рый характеризуется тем, что меры Fx (А), 1^/^fc, абсолютно непрерывны относительно меры Лебега на плоскостях Xt + ... +А,/ = 0. Условия существования плотности /fat w меры Fx (А) в условиях регулярности случайных процессов и полей изучены в [4] (см. Спектральный семиинвариант). Инициированные А. Н. Колмогоровым работы, в к-рых были определены и изучены классы А , открыли серию исследований в новом направлении, называемом теорией и статистич. анализом старших спектров стационарных случайных процессов и полей. Результаты этого направления работ носят фундаментальный характер, а кроме того, существенно используются для решения различных прикладных задач в астрономии, геофизике, при изучении турбулентности жидкости и газа и т.д. (см., напр., [5]). Основным инструментом практически любых асимптотич. исследований, связанных со случайными процессами, являются их старшие семиинварианты (кумулянты, см. [6]), к-рые повсеместно используются также и в С. а. процессов и полей. Ниже приводится ряд свойств семиинвариантов, последние три из к-рых показывают, что семиинварианты являются полезной мерой статистич. зависимости случайных величин: с<*>, 1) ^>!*1 flA)s«i-^w«i **>; 2) Sik\tt tk) - симметрич. функция; 3) sik\xx+z,.... xk)=s(k\xv .... xk) + s(k\z,..., xky, 4) 5(fe)(Xt + C Xk)=Sik)(Xit ..., Xk), C = const, k>2; 5) S(2)(X, 7) = cov(X, У); 6) 5(1)(X) = EX; 7) если случайные величины (Xj, ..., Xk) и (У1? ..., Yk) независимы, то S(k)(Xx + Yu ..., Xk+Yk) = S(k)(Xv ..., Xk) + S(k\Yv ..., Yk)\ 8) если нек-рая группа величин из Xt, ..., Xk не зависима от остальных в этом наборе, то 5Ш(Х,, ...,Х*) = 0; СПЕКТРАЛЬНЫЙ 639
9) если X(t)eT q , q>2, и, кроме того, удовлетворяет условию перемешивания по Розенблатту с коэффициентом перемешивания a(r)= sup \P(AB)-P(A)IKB)\, где 9Ce - а-алгебра, порожденная X(t), te[a,b], то при ^ ^ ... ^ tk имеет место \sik)(tv...t tk)\^CKk+iaiq-2)/4d), где d - максимальное расстояние между соседними координатами набора (£j, ..., tk). Пусть P^U...\JPm - разбиение множества элементов таблицы га1),...,ат,л Принадлежащие разбиению множества Рт. и Рт- зацепляются, если существуют элементы U], ]\)еРт> и (h'h^Pm" такие» чт° Ц = h> и сообщаются, если существует последовательность множеств Рт=Рт , Рт , .., Рт -Рт" такая, что Рт и Рт зацепляются прия=1, 2, ..., /V-1. Разбиение называется неразложимым, если все его множества Рт сообщаются. Пусть ХМ, /,) еА - случайные величины и У; = Т7 * Х„, тогда S(A)(>V ..., УА) = X* s(Al)(xi;a /) ^ pt)... s^x^i, f) 6 ям), A = P1U...UPm где суммирование ведется по всем неразложимым разбиениям таблицы Л, Л = Р1и... UPM и 5(*>)(Xi;.(i, >) еР;) - семиинвариант от случайных величин Х^ с индексами (i, /) еР-, /г- - число элементов множества Р-. Вычисление семиинвариантов от полиномиальных функций случайных величин см. в [7]. Все сказанное выше с очевидными изменениями имеет место для случайных однородных полей (см. [4], [8], [9]). О статистич. оценивании спектральных семиинвариантов см. в [4], [10]. Лит.:[\] Blanc-LapierreA., Fortet R., Theorie des fonctions aleatoires, P., 1953; [2] Колмогоров А.Н., Теория вероятностей и математическая статистика, М., 1986, с. 428-29; [3] Ширяев А. Н., там же, с. 293-313; [4] Жу рбенко И. Г., Анализ стационарных и однородных случайных систем, М., 1987; [5] Монин А.С., Яг- л ом A.M., Статистическая гидромеханика, ч. 1-2, М., 1965-67; [61 Леонов В. П., Некоторые применения старших семиинвариантов к теории стационарных случайных процессов, М., 1964; [71 Леонов В.П., Ширяев А. Нм «Теория вероятн. и ее примен.», 1959, т. 4, в. 3, с. 342-55; [8] ЯгломА. М., там же, 1957, т. 2, в. 3, с. 292-338; [9J ЯдренкоМ.И., Спектральная теория случайных полей, К., 1980; [10] Time series in the frequency domain, Amst. - [a. o.J, 1983. И. Г. Журбенко. СПЕКТРАЛЬНЫЙ АНАЛИЗАТОР стационарного случайного процесса (spectral analyser of a stationary random process) X(t), -oo<t<oof - линейный фильтр следующего вида: WU(X) = £ X(tMt-u)e~iXtdt, где а(и) - нек-рая интегрируемая с квадратом функция (временное окно С. а.), определяющая свою спектральную характеристику 9tt)«£fl(t)eftfdt. Используя С. а. случайного процесса, строят случайные функционалы, сходящиеся по вероятности к тем или иным спектральным характеристикам стационарного процесса X(t). Так, напр., при достаточно широком выборе временных окон a(t) 640 СПЕКТРАЛЬНЫЙ и нек-рых условиях гладкости спектральных семиинвариантов fn(X\y ..., Хп) функционал л*1 *.)-f f0wu(x,)-wuan)du сходится к fn(\\, ..., Хп) в смысле среднеквадратич. уклонения E|/"(A.f, .-., ^я)~/п(^1» •••» ^я)| при надлежащем выборе нормировочной константы с и вектора Х = (ХХ, ..., Хп), принадлежащего гиперплоскости Xj + ... + Х„ = 0, но не принадлежащего пересечению гиперплоскостей хю+...+ хю=о, где т>\, ki + ... + km = n, i\» i'" i\m) i'm)- 1 ' HI произвольная перестановка индексов 1, ..., п. Аналогично определяется С. а. однородного случайного поля Х(0, feB?", Хе®п: WU(X) = j^n X(t)a(t - u)ci{t'X)dt, где a(t) ~ интегрируемая с квадратом функция в IP" со спектральной характеристикой <p(X) = ^na(t)eiat)dt. Лит.: [1] Grenander U., Rosenblatt M., Statistical analysts of stationary time series, 2 ed., N. Y. - Stockh., [1966]; [2] Журбенко И. Г., Спектральный анализ временных рядов, М., 1982. И. Г. Журбснкб. СПЕКТРАЛЬНЫЙ МОМЕНТ (spectral moment) - см. Спектральный анализ случайных процессов и полей, Спектральный семиинвариант. СПЕКТРАЛЬНЫЙ СЕМИИНВАРИАНТ (spectral semiin- variant) - одна из характеристик случайного процесса, изучаемая в спектральном анализе случайных процессов и полей. Пусть Х(0, -oo<t<oot- действительный стационарный случайный процесс, для к-рого Е|Х(0г^ С<<*>. Семиинвариант этого процесса sin4tx,...,tn) = связан с моментами М (tu ..., tn) = E{X(t\)...X(tn)} соотношениями где / = (tj tn), I =(t( , ..., £z- ) e /, и суммирование ведется по всем разбиениям множества / на непересекающиеся подмножества /_. Если для всех 1 ^ k ^ п в пространстве IP существует мера М (А) ограниченной вариации такая, что M(k\tu ..., tk) = j^ei(t^+'M^Mik\dXx ...dXk) = = \kei(t'»M(k\dX) для всех tv ..., tk, то Х(ОеФ . Мера М (А) называется спектральным моментом случайного процесса X(t). Плотность этой меры можно определить только как обобщенную функцию. Мера F , определенная на системе борелев- ских множеств, называется спектральным семиинвариантом (полиспектром, кумулятивным спектром), если для всех t{} ..., tn Sin\ts t„) = \K„eKt-x)Fin\dX).
An) Мера F существует и имеет ограниченную вариацию, если X(t) е Ф . В случае стационарного процесса X(t) семиинва- tn) инвариантны по сдвигам ?<»V рианты 51ЯЧ^ An) 5wa,+x, 4tx г (л) и. а спектральные меры F и М сосредоточены многообразии Х\ + ♦♦. + А^ = 0. Если мера F абсолютно непрерывна относительно меры Лебега на этом многообразии, то существует семии нвариантная спектральная плотность я-го порядка (полиспектральная плотность, кумулятивная спектральная плотность) fniX\t ..., Хп), определяемая при всех tXt ..., tn равенством An)/ Ч t.)= где &(#) - дельта-функция, A^dA., ^Г^<*..»-^«)«р{«Х".Ла}- <2я)' суммирование в V проводится по ^, ..., tn, min £,= 0. i В достаточно широких условиях перемешивания процесса X(t) семиинвариантная спектральная плотность fn(X\, ..., Хп) является непрерывной ограниченной функцией своих переменных на многообразии А,| +...+ А,Я = 0. Смешанная производная |av„tti к)\ эх\К .ЭАГ" ^С, s, +... + s„ = s, s.-^O, ограничена, если существуют первые рп (р>2) моментов процесса XU) и коэффициент перемешивания по Розенблатту a(r)= sup \Р(АВ)-Р(А)Р(В)\, где 5Сд - а-алгебра, порожденная X(t), te[a,b], удовлетворяет условию ^г»*на(Га/Р(г)<00| Моментная спектральная плотность д„(Х^} ..., Хп) меры МЯ(Д), формально определяемая из соотношения MnUv...,tn) = = \пп VnMexvy^Mk}^ + - + *«>**. является обобщенной функцией на многообразии A,t + ... + Хп = = 0 и связана с семиинвариантной спектральной плотностью меры F'(Д) соотношениями ^a)5(IXI)=x/^i)s(|xt|)../ap)5(|Xp|), где суммирование производится по всем неупорядоченным разбиениям множества А, —(А,], ..., Хп) на неупорядоченные непересекающиеся наборы Хр = (\- , ..., ^ ), 1^гА^я, &= 1, ..., р, |XJ = ^ +... + А^ . Спектральную семиинвариант- ную плотность 2-го порядка, совпадающую в случае я = 2 с моментной плотностью /^(Aj, A2)=^2^1' А^) на прямой At+A2 = 0, называют просто спектральной плотностью 2-го порядка. Спектральная семиинвариантная плотность 3-го порядка /^(Aj, А2, А3) на двумерной плоскости А] + А2 + А3 = О называется биспектральной плотностью, а соответствующая ей мера - биспектральной функцией. В случае дискретного времени под 1РЯ во всех приведенных ниже формулах надо понимать я-мерный куб -тг^А^тг, £= 1 я„ а §-функцию заменить на «гребень» Дирака 5*(*) = УГ o(x + 2nk). В случае гауссовского процесса X(t) С. с. выше 2-го порядка все равны нулю. Асимптотически несмещенная и состоятельная оценка семиинвариантной спектральной плотности /^(Aj, ..., А^,) может быть получена осреднением значений периодограммы I^iX^, ..., А„), вычисленной в точках (X:-2nkj/N)t /=t, ..., я, плоскости JX. | = 0 таких, что ни одна из этих точек не принадлежит плоскости меньшей размерности |Ар|=0. Осреднение проводится с помощью весовой функции Фх(х-Х), концентрирующейся в точке X, как это делалось для непараметрич. оценки спектральной плотности 2-го порядка. Оценку семиинвариантной плотности /д/(А) можно также получить за счет осреднения значений периодограмм 1М(Х), вычисленных на М сдвинутых отрезках временного ряда (Ы = МТ). В случае дифференцируемости семиинвариантных спектральных плотностей до я-го порядка включительно справедлива формула где_ сумма_ берется по всем разбиениям X вида X = А^ + ... + Хт\ для каждого из векторов Xk сумма его отличных от нуля координат Y . Ал =0. Минимальное такое число т называется характеристикой вектора А.. Статистика fjsjiX) оказывается асимптотически несмещенной только в случае w=l. Последнее условие выполняется автоматически при размерности С. с. я = 2. При я>2 асимптотич. несмещенность будет достигаться только для точек А, принадлежащих главной гиперплоскости V . Х.=0 и не принадлежащих таким же плоскостям меньшей размерности. В [3] и [4] приводятся состоятельные оценки при всех значениях аргумента. Лит.: [1] Прохоров Ю. В., Розанов Ю. А., Теория вероятностей, 3 изд., М., 1987; [2] Леонов В. П., Некоторые применения старших семиинвариантов к теории стационарных случайных процессов, М., 1964; [3] Журбенко И. Г., Анализ стационарных и однородных случайных систем, М., 1987; [4] Time series in the frequency domain, Amst. - [a.o.J, 1983; [5] Subba RaoT., Gabr M., An introduction to bispectral analysis and bilinear time. Series models, N. Y. - [а. о.], 1984. И. Г. Журбенко. СПЕКТРОГРАММА (spectrogram) - функция 5(й)) = /(1/со), где /(A) - периодограмма, A = 1/со - длина волны, со - частота. В литературе термины «С.» и * периодограмма» взаимозаменяемы. Ю. Г. Баласаиов. СПЕЦИАЛЬНЫЙ СЕМИМАРТИНГАЛ (special semimartin- gale) - см. Семимартингал. СПЕЦИАЛЬНЫХ ПОЛУГРУПП АРИФМЕТИКА (arithmetic of special semigroups) - теория топологических полугрупп, в к-рых имеют место теоремы, аналогичные двум фундаментальным теоремам Хинчина из вероятностных распределений арифметики на прямой. С. п. а. изучает полугруппы, отличные от сверточной полугруппы всех вероятностных распределений в IP" или локально компактной абелевой группы. Развитие С. п. а. началось в 60-х гг. в связи с работами по дельфийским полугруппам Д. Кендалла и Р. Дейвидсона (см. [1]) и по обобщенным сверткам К. Урбаника. Основные результаты С. п. а. дают описание классов: / - безгранично делимых элементов (аналоги формулы Леви - Хинчина), /0 - элементов, не имеющих неразложимых делителей (для свер- СПЕЦИАЛЬНЫХ 641
точной полугруппы всех распределений в П?я это нерешенная проблема; см. Безгранично делимое распределение; разложение), N - неразложимых элементов. Исследуются также вопросы устойчивости разложений. Пример. Полугруппа ^-функций Кингмена У. Пусть X(t), t>0} - случайный процесс, принимающий значения 0 и 1 и удовлетворяющий условию при всех п и 0 = ^0<^ <...<tn. Функция p(t) = P{X(t)=\) такая, что p(t) -> 1 при ti(), называется р-ф у н к ц и е й . Множество 3* всех ^-функций является топологич. полугруппой относительно умножения и поточечной сходимости. В & имеют место аналоги обеих теорем Хинчина. Класс / состоит из функций вида где т - конечная борелевская мера на (0, ее]; класс /0 = {e~at: а > 0}; N - плотное в #> множество типа G5. В указанном выше смысле изучена арифметика следующих полугрупп. 1) Сверточные полугруппы распределений с топологией слабой сходимости: сферически симметричные распределения в П?я, я ^2; распределения на группе 50(п+1) вращений пространства П?я, я>2, двусторонне инвариантные относительно SO(n); распределения в пространстве Лобачевского, инвариантные относительно вращений. 2) Мультипликативные полугруппы последовательностей с топологией поэлементной сходимости: положительные последовательности восстановления; последовательности множителей Пойа - Шура; последовательности интегралов по многочленам Якоби. 3) Мультипликативные полугруппы функций с топологией равномерной сходимости на компактах: функции, представи- мые рядами с неотрицательными коэффициентами по многочленам Якоби, функциям Лежандра второго рода; характери- стич. функции Пойа; обобщенные характеристич. функции Левитана; функции, хребтовые в полосе. Лит.: [\] Stochastic analysis, L. - [а. о.], 1973; [2] Urba- nik К., «Stud, math.», 1964, v. 23, JSfe 3, p. 217-45; [3] Островский И. В., «Теория вероятн. и ее примен.», 1986, т. 31, в. 1, с. 3-30; [4] Чистяков В.П., там же, в. 3, с. 433-50; [5]RuzsaI., Szekeiy G., Algebraic probability theory, 1988. И. П. Ильинская, А. И. Ильинский. СПЕЦИФИЧЕСКИЙ ФАКТОР (specific factor) - см. Факторный анализ. СПИРАЛЬНАЯ ТУРБУЛЕНТНОСТЬ (helical turbulence) - случайное течение с отличной от нуля средней спирально стью Jt=(vrotv), где v(t, r) - случайное поле скорости, а угловые скобки означают усреднение по распределению этого поля. Лит.: [\] Математическая физика. Энциклопедия, М., 1998, с. 566. А. А. Рузмайкин. СПИРМЕНА КОЭФФИЦИЕНТ ранговой корреляции (Spearman rank correlation coefficient) - мера зависимости двух случайных величин (признаков) X и У, основанная на ранжировании независимых результатов наблюдений (Хх, У]), ..., (Хп, Уя). Если ранги значений X расположены в естественном порядке i- 1, ..., я, a Rt■ - ранг У, соответствующий той паре (X, У), для к-рой ранг X равен i, то С. к. ранговой корреляции определяется формулой ',---Г-Г 1"_, ('" (я + 1>/2)(Я,;-(я + D/2) п(п - 1) *-*г~1 642 СПЕЦИАЛЬНЫХ или, что равносильно, где di - разность между рангами Xi и У',-. Значение rs меняется от -1 до +1, причем г5 = + 1, когда последовательности рангов полностью совпадают, то есть i = Riti=\, ..., я, и rs - -1, когда последовательности рангов полностью противоположны, то есть i = (я + 1) - Rj, i = 1, ..., я. С. к. ранговой корреляции, как и любая другая ранговая статистика, применяется для проверки гипотезы независимости двух признаков. Если признаки независимы, то Ers = 0, Drs=\/(n-\). Таким образом, по величине отклонения rs от нуля можно сделать вывод о зависимости или независимости признаков. Для построения соответствующего критерия вычисляется распределение rs для независимых признаков X и У. При 4 ^ я^ 10 используют таблицы точного распределения (см. [2], [4]), а при я> 10 можно воспользоваться, напр., тем, что случайная величина ^я - 1 rs при я-»<*> распределена асимптотически нормально с параметрами (0, 1). В последнем случае гипотеза независимости отвергается, если \г5\ >м1_а/2/^я - 1, где их_^2 есть корень уравнения Ф(и)= 1 -а/2 [Ф(и) - функция стандартного нормального распределения]. В предположении, что X и У имеют совместное нормальное распределение с обычным коэффициентом корреляции р при достаточно больших я Ег. arcsin •—, 5 к 2 и поэтому величину 2sinr-r5 можно использовать в качестве оценки для р. С. к. ранговой корреляции был назван по имени психолога Ч. Спирмена [1], к-рый использовал его в исследованиях по психологии вместо обычного коэффициента корреляции. Критерии, основанные на С. к. ранговой корреляции и на Кендал- ла коэффициенте ранговой корреляции, асимптотически эквивалентны (при я = 2 соответствующие ранговые статистики совпадают). Лит.: [1] Spearman С, «Amer. J. PsychoL», 1904, v. 15, p. 72-101; [2] Кендэл М., Ранговые корреляции, пер. с англ., М., 1975; [3] Ван дер Варден Б. Л., Математическая статистика, пер. с нем., М., 1960; [41 Бол ьше в Л. Н., Смирнов Н. В., Таблицы математической статистики, 3 изд., М., 1983. А. В. Прохоров. СПИСОЧНОЕ ДЕКОДИРОВАНИЕ (list decoding), декодирование списком объема/,,- декодирование, при к-ром воспроизводимое сообщение представляется в виде списка, содержащего не более L > 1 возможных значений сообщения. Таким образом, если декодирование задается функцией Ф, то ее значениями являются подмножества мощности L множества всех значений сообщения. Качество воспроизведения сообщения определяется тем, что одно из L сообщений списка будет удовлетворять заданной получателем точности воспроизведения. В частности, максимальная вероятность ошибки Рт1 и средняя вероятность ошибки Ра L определяются как соответствующая вероятность того, что истинное сообщение не принадлежит списку из L воспроизводимых сообщений. Говорят, что при С. д. исправляются t ошибок, если при любом числе ошибок, не большем, чем t, список из L воспроизводимых сообщений содержит истинное сообщение. При С. д. фиксированного объема L остаются справедливыми прямая и обратная теоремы кодирования (см. Информации теория). Однако характеристики передачи такие, как вероятность ошибки, число исправляемых ошибок при заданной скорости передачи, могут быть существенно улучшены. Пусть, напр., рассматривается передача сообщений по двоичному симметричному каналу без памяти с Р{#; = #;} = 1 -е,
О < e < 1/2, где yJf у}- = О, 1, j = 1, ..., я, суть двоичные сигналы на входе и выходе соответственно. Пусть t = Low J. О < а < е, a р„(*Л уп) есть расстояние Хемминга между последовательностями уп = (у\, ..., уп) и уп-(у\, ..., #„), то есть число таких ;', /=1, .... я, в к-рых #;- и #; различны. Пусть Ра*=Р£1р ~ вероятность того, что р„(#", yn)>tt Esp(/?a) = lim (-firMogP^ , /?a = lim д£°, где /?^)=log2(27K/f")), V,(w)- объем шара радиуса t в пространстве последовательностей уп с метрикой Хемминга. Справедливо утверждение: для любых а и 5, 0 < 5, а<1/2, при нек-ром L (зависящем от а и 6) существуют кодирование и С. д..со списком объема L такие, что: О lim (.-пГ'\(ъР%1>Е,рШа)-Ь, 2) lim n~UnL^\-H(a'n)-b, П~*оо где tnI - число исправляемых ошибок, PJ£'L - максимальная вероятность ошибки при С. д. блока длины и, а H(x) = -x\og2x-(\-x)\o%2(\-x). Эти результаты переносятся на общий канал без памяти. С. д. используется при построении кодов (в частности, каскадных кодов) с малой сложностью декодирования (см. Сложность кодирования и декодирования). Лит.: [1] Зяб лов В. В., ПинскерМ.С, Списочное каскадное декодирование, «Проблемы передачи информации», 1981, т. 17, в. 4, с. 29-33; [2] ЧисарИ., Кернер Я., Теория информации, пер. с англ., М., 1985; [3] Elias P., «IRE WESCON Convent. Rec», 1957, v. 1, № 2, p. 94-104; [4] Forney G. D., Exponential error bounds for erasure, list and decision feedback schemes, «IEEE Trans. Inform. Theory*, 1968, v. 14, p. 206-20. м. С. Пинскер, В. В. Прелое. СПИТЦЕРА - РОГОЗИНА ТОЖДЕСТВО (Spitzer - Ro gozin identity) - см. Факторизации метод. СПЛАЙН-ОЦЕНКА (spline estimator) - см. Непараметрический регрессионный анализ. СПУТНИК (side frequency) - то же, что боковая частота (см. Амплитудная модуляция). СРАЩЕНИЕ МЕР (splicing of measures) - понятие теории меры, возникшее в связи со свойством «почти независимости» а-алгебр. Пусть .с/и зд - две а-алгебры подмножеств множества М и .</1)35 - наименьшая а-алгебра, содержащая .</ и J8. Говорят, что вероятностная мера Т| на (М, ли&) есть сращение мер ц на (М, .«/) и v на (М, 33)у если Т\(АГ\В) = ц(Л) v(#) для всех Ле^ВЕй. Для существования С. м. ц и v необходимо и достаточно выполнение условия: если Ап*Л, ВпеЛ(п=\, 2, ...)и U"=1 (АпПВп)=М,то Х;ш^(ляывя)>и Лит.: [1] Marczewski E., «Fund, math.», 1951, t. 38, p. 217-29; [2J Ramachandran D., Perfect measures, I—II, New Delhi, 1979, (ISI Lecture Notes, 5, 7); [3] S to rock D., «Colloq. Math.», 1976, v. 35, p. 7-13; [4} Kal 1 ianpur G., Ramachandran D., «Ann. Probab.», 1983, v. 11, p. 819-22. #. н. Вахания. СРЕДИННОЕ ОТКЛОНЕНИЕ (semi-interquartile range) - см. Вероятное отклонение. СРЕДНЕГО ДОХОДА КРИТЕРИЙ (average reward criterion) - см. Управляемый случайный процесс с дискретным временем. СРЕДНЕЕ вероятностной меры (mean/barycenter of a probability measure) ц, барицентр, - интеграл (в том или ином смысле) J Xd\i от тождественного отображения X пространства В на себя. Здесь мера jli определена на а-алгебре подмножеств пространства В. Пример. Пусть В- сепарабельное банахово пространство и jli - борелевская вероятностная мера на В такая, что L Ыд(</*)<0°. Тогда С. меры J1 есть интеграл Бохнера \в x\i(dx). В. В. Сазонов. СРЕДНЕЕ; оценка (estimator of mean) - статистическая оценка математического ожидания генеральной совокупности. В случае если хи ..., хп - выборка объема п из распределения, имеющего математич. ожидание в и дисперсию (Г, то выборочное среднее является линейной оценкой в с наименьшей дисперсией. Лит.: [1] У ил кс С, Математическая статистика, пер. с англ., М., 1967. Л. Б. Клебанов. СРЕДНЕЕ АБСОЛЮТНОЕ ОТКЛОНЕНИЕ (mean absolute deviation) выборки - см. Рассеивание выборки. СРЕДНЕЕ ВРЕМЯ возвращения (mean recurrence time) - см. Маркова цепь; классификация состояний, Маркова цепь\ среднее время возвращения. СРЕДНЕЕ ВРЕМЯ до поглощения (expected absorbtion time) - см. Марковский процесс с конечным множеством состояний. СРЕДНЕЕ ВРЕМЯ жизни (mean life time) - см. Страхования математическая теория. СРЕДНЕЕ ЗНАЧЕНИЕ случайного множества (mean value of a random set) X с реализациями в пространстве А - множество МеАсо свойством Ер(Х, Af)= inf Ер(Х, К), где р - нек-рая функция изЛхЛс действительными значениями (как правило, метрика, псевдометрика, симметрика и т. п.). Эмпирическим С. з. случайного множества X относительно р, построенным по реализациям Xt Хп> называется множество М е А со свойством Роль С. з. в статистике случайных множеств определяется справедливостью аналогов законов больших чисел (см. Предельные теоремы для случайных множеств, Статистика объектов нечисловой природы). Лит.: [1] Орлов А. И., Устойчивость в социально-экономических моделях, М., 1979. А. И. Орлов. СРЕДНЕЕ ЗНАЧЕНИЕ случайного элемента (mean/ expectation value of a random element) - см. Математическое ожидание случайного элемента. СРЕДНЕЕ ЗНАЧЕНИЕ случайной величины (expectation/mean value of a random variable) - см. Математическое ожидание случайной величины. СРЕДНЕЕ ЗНАЧЕНИЕ случайной функции (expectation/mean value of random function) - см. Моментов функция. СРЕДНЕЕ КВАДРАТИЧНОЕ ОТКЛОНЕНИЕ выборки (sample standard deviation, standard error) - см. Рассеивание выборки. СРЕДНЕЕ ОТНОСИТЕЛЬНОЕ ОТКЛОНЕНИЕ выборки (sample coefficient of variation) - см. Рассеивание выборки. СРЕДНЕЕ 643
СРЕДНЕЙ СВЯЗИ АЛГОРИТМ (average linkage algorithm) - частный случай иерархической процедуры классификации, характеризующийся тем, что мера близости между двумя классами определяется как среднее арифметическое мер близости для всех возможных пар, составленных из объектов, принадлежащих этим классам (объекты, образующие пару, должны быть из разных классов). Л. Т. Терехип. СРЕДНЕКВАДРАТИЧЕСКОЕ ОТКЛОНЕНИЕ (root mean square deviation, RMSD) - см. Квадратичное отклонение. СРЕДНЕМЕРНОЕ МНОЖЕСТВО (average measure set/medium-measured set) - аналог среднего значения случайного множества, определяемый следующим образом. Пусть К - конечное множество, М - совокупность всех его подмножеств, ц. - мера на алгебре М, принимающая положительные значения на одноточечных множествах, X - конечное случайное множество со значениями в М, <р(х) = Р{х е X}. Множество А называется экстремальным по отношению к X, если для всех ВеМ с мерой, равной ц(Л), выполнено неравенство Ец(ЛДХ) ^ Ец(ЯДХ), где Л - знак симметричной разности множеств. Пусть Л е [О, 1] и V(h) = {A\AeM, inf <p(x)>h, sup <p(x)<h}. xeA xeK\A Классом См. S(X) называется тот из классов экстремальных множеств V(h), для к-рого меры входящих в него множеств наиболее близки к числу X=E\i(X). Иными словами, S(X) = V(h*), где h* = (Я+ Л)/2, Н = sup {t\te [О, 1], v(t)~2\), A = inf{*|*e[0, 1], v(t)^X), v(t) = \i({x\xeK, фЫ^ф. Понятие класса См. может быть корректно определено и для случайного измеримого подмножества произвольного сепара- бельного пространства с конечной мерой. Лит.: [I] Воробьев О. Ю., Среднемерное моделирование, М., 1984. с. А. Ковязин. СРЕДНИЙ РИСК (average risk) - см. Статистических решений общая теория, Метеорологических потерь функция. СРЕДНИХ ВЕКТОР (vector of means) - характеристика центра группирования значений компонент многомерной случайной величины Х= (Хи ..., X ) . Теоретически Св. определяется как вектор математич. ожиданий EX = (EXt, ..., EX )T. Оценкой Св. по выборке ^-мерных наблюдений Xt, ..., Хп объема п является вектор X, каждая компонента к-рого представляет собой выборочное среднее (среднее арифметическое) наблюдаемых значений этой компоненты — I х^и — х = - у . . х{. Лит.: [[] Андерсон Т., Введение в многомерный статистический анализ, пер. с англ., М., 1963; [2] Айвазян С. А., Енюков И. С, Мешалкин Л. Д., Прикладная статистика. Основы моделирования и первичная обработка данных, М., 1983. # С Енюков. ^-СРЕДНИХ МЕТОД (A-means method) - одна из наиболее общих и наиболее исследованных последовательных процедур классификации п наблюдений на заданное число k (k « п) классов (см. [1]). Схема действия k-C. м. состоит в последовательном пересчете k эталонных точек с соответствующим пересчетом приписываемых весов. После того как пересчет эталонных точек и весов заканчивается, все наблюдения разбиваются на k групп. При этом в /-ю группу относятся 644 СРЕДНЕЙ наблюдения, для к-рых /-я эталонная точка - ближайшая (в смысле нек-рой метрики), /= 1, ..., k. Лит.: 11] MacQueen J., в кн.: Proceed. Fifth. Berk. Symp. Math. Stat, and Probab., v. 1, Berk. - Los Ang., 1967, p. 281-97; [2] Айвазян С. А., Бежаева З. И., Староверов О. В., Классификация многомерных наблюдений, М., 1974. з. И. Бежаева. СРЕДНЯЯ ВЕЛИЧИНА (mean value) - понятие в статистике объектов нечисловой природы, определяемое следующим образом (см. [1]). С. в. в пространстве общей природы Ж для случайного элемента X со значениями в Л относительно меры близости р: Ж2 -> [0, 1 ] есть Е(Х, p) = arg min Ер(Х, у), причем математич. ожидание берется по вероятностной мере, соответствующей X. Св. для выборки Xt, X2, ..., Х„е£ относительно меры близости р есть En(p) = arg mm Y" р(Х*, у). уе 2 <fc-1-1 Справедливы аналоги законов больших чисел: при некоторых условиях регулярности выборочное среднее Е„(р) сходится к теоретич. среднему Е(Х, р) при росте п (см. [2]). В случае £ = (1? средней величиной для выборки X], Х2, ..., X^elR1 называют функцию /":(!?"-►И?1 такую, что min Xj^/XXj, X2, ..., Хп)^ max Xn (см. Измерений теория, Кемени медиана, Колмогорова средние). Лит.: [[] Орлов А. И., в кн.: Вопросы кибернетики, М., 1979, в. 58, с. 17-33; [2] его же, в кн.: Анализ нечисловых данных в системных исследованиях, М., 1982, с. 4-12. дш ц Орлов. СРЕДНЯЯ КВАДРАТИЧЕСКАЯ ОШИБКА (standard error), средняя квадратическая погрешность,- среднее квадратическое отклонение несмещенной оценки. Пусть Т = Т(Х) - несмещенная оценка параметра 6, ЭеОсП?, построенная по наблюдению X, то есть ЕГ = 6, причем предполагается, что дисперсия DT-E(T-ET) оценки Т конечна, DT<<*>. Величину VD7\ являющуюся средним квадратич. отклонением оценки Т от оцениваемой величины 0 = ЕТ, часто называют средней квадратической ошибкой оценки Т, желая тем самым подчеркнуть, что Т лишь приближенно оценивает 6. м. С. Никулин. СРЕДНЯЯ КВАДРАТИЧЕСКАЯ ПОГРЕШНОСТЬ (mean square error/standard error) - см. Средняя квадратическая ошибка. СРЕДНЯЯ КВАДРАТИЧЕСКАЯ РЕГРЕССИЯ (mean square regression) - модель регрессии У по х, функция к-рой т(х) минимизирует математическое ожидание Е( У - т(х)) - среднее квадратич. отклонение У от т(х). ^ В. Прохоров. СРЕДНЯЯ МЕТРИКА (mean metric) - простая вероятностная метрика в множестве действительных случайных величин, определяемая как х<(Х, Y) = j\Fx(x)-FY(x)\dx, где Fx - функция распределения случайной величины X. Если Fx (О - sup {и :Fx(u) ^ t) - функция, обратная к Fx> то х,(Х, Y)=\l \Fx\t)-Fy\t)\dt. Естественным обобщением См. является средняя метрика с весом q ц(Х, Y) = j\Fx(x)-FY(x)\q(x)dx,
где q - нек-рая неотрицательная функция, интегрируемая в любом конечном интервале из R? . Наиболее интересным и употребимым является случай, когда q(x)>0 почти всюду. Пусть Q(x) = \* q(u)du, дгбП?1; метрики ц, х1 и Леей - Прохорова метрика к связаны соотношениями ц(Х, Y) = xi(Q(X), Q(Y))t я2(Х, Y)^x,(X, Y). См. служит минимальной метрикой по отношению к сложной метрике Е | X - Y \. По отношению к каждой из двух операций - суммирования и взятия максимума независимых случайных величин - вместе с системой преобразований Тсх-сх, хе$\ с>0, См. является идеальной метрикой первого порядка. В случае q(x)=s\x\s~ , s^l, метрика ц соипадает с разностным псевдомоментом порядка s. Для См. имеется аналог Берри ~ Эссеена неравенства (см. [1], [2]). Известны многомерные аналоги С м. и С м. с весом (см. [3]). Лит.: [1] Esseen С. -G., «Trans. Roy. Inst. Techn.», 1958, № 121, p. 1-31; [2] Золотарев В. М., Современная теория суммирования независимых случайпых величин, М., 1986; [3J его же, «Теория вероятн. и ее примен.», 1978, т. 23, в. 2, с. 284-94. В.М. Золотарев. СРЕДНЯЯ МОДУЛЬНАЯ РЕГРЕССИЯ (mean modular regression) - см. Линейная регрессия. СРЕДНЯЯ НАРАБОТКА (mean operating time) - см. Надежности системы показатели. СРЕДНЯЯ ПОЛЕЗНОСТЬ (mean utility) - см. Полезностей теория. СРЕДНЯЯ СПИРАЛЬНОСТЬ (mean helicity) - см. Спиральная турбулентность. СРЕДНЯЯ СХОДИМОСТЬ с весом (mean convergence with weigt) - топология сходимости распределений действительных случайных величин, порождаемая средней метрикой с весом (см. Средняя метрика): ц(Х, Y)=\ \Fx(x)-FY(x)\q(x)dx, где Fx - функция распределения случайной величины X и q - нек-рая неотрицательная функция, интегрируемая в любом конечном интервале из II? . В случае когда q положительна почти всюду, С. с. с весом q не слабее слабой сходимости. Это следует из неравенства ц(Х, Y)>n2(Q(X), Q(Y)), где я - метрика Леви - Прохорова и 0(x)=\XQq(t)dt,xe^. Критерий ^.-компактности нек-рого множества % распределений на IP1 состоит в выполнении условия sup {j > \Q(x)\dF(x):Fe*\^>0} Ы -> «>. В. М. Золотарев. СТАБИЛЬНАЯ ОЦЕНКА (stable estimator) - см. Робаст- ная оценка. СТАНДАРТИЗАЦИЯ (standardization) - метод демографической статистики, устраняющий влияние (возрастного) состава населения при расчете общих и интервальных коэффициентов рождаемости, смертности и др. Прямая С. состоит в расчете общего показателя интенсивности kcm при наблюдаемых возрастных показателях xkx и стандартном возрастном распределении ХСХ по формуле При косвенной С. по формуле где k0 и xkx - стандартные интенсивности, a k и ХСХ - наблюдаемые величины. Е. М. Андреев. СТАНДАРТНАЯ ОШИБКА (standard error) - среднее квад- ратическое отклонение статистики от ее математического ожидания. Происхождение термина «С. о.» связано с тем, что так называли среднее квадратич. отклонение или так наз. стандартное отклонение нормального закона, к-рый в 18-19 вв. был более известен как закон распределения ошибок. С развитием математич. статистики и введением понятия асимптотич. нормальности термин «Со.» стали применять и по отношению к средним квадратич. отклонениям статистик, асимптотич. распределение к-рых является нормальным. В современной литературе по математич. статистике термин «Со.» употребляется редко. Лит.: [1] Кендалл М. Дж., Стьюарт А., Теория распределений, пер. с англ., М., 1966. М. С. Никулин. СТАНДАРТНОЕ ОТКЛОНЕНИЕ (standard deviation) - см. Квадратичное отклонение. СТАНДАРТНЫЙ ВИНЕРОВСКИЙ ПРОЦЕСС (standard Wiener process) - см. Броуновского движения процесс, Вине- ровский процесс. СТАНДАРТНЫЙ МАРКОВСКИЙ ПРОЦЕСС (standard Markov process) - однородный обрывающийся марковский процесс X = {Xt, £, ^, Рх), удовлетворяющий следующим условиям: 1) фазовое пространство (£", &) процесса X является локально компактным метрическим пространством, причем а-алгебра ЗВ измеримых множеств порождена открытыми множествами в £; 2) процесс X нормален, то есть момент обрыва £(со)>0 при всех соеф 3) траектория X(t, (о), 0^£<£, непрерывна справа по t при каждом coeQ; 4) а-алгебры ^ полны относительно каждой из мер Рх, х е £; 5) а-алгебры ^ непрерывны справа, то есть ^= р| du\ 6) процесс X строго марковский; 7) процесс X квазинепрерывен слева, то есть для любых остановки моментов т и т„, п ^ 1, с т„Тт Р,{т<£, Х(т)= lim X(Tn)\ = Px{T<Q, x<=E. п-*<*> Класс С м. п. выделен в [1]. В [2] доказано, что если: а) пространство (£, 33) такое, как в 1), б) переходная функция p(ty х, Г) стохастически непрерывна справа: p(t, x, U) -> 1 при ti О для любой окрестности U точки х, в) отвечающие переходной функции операторы PtF(x) = \£F(y)p(t>x> dy)t t>0, переводят в себя класс непрерывных функций F на £, обращающихся в 0 в бесконечности, то соответствующий марковский процесс можно считать стандартным. Термин «См. п.» введен в [3]. Лит.: [1) Blumenthal R. M., «Trans. Amer. Math. Soc.», 1957, v. 85, p. 52-72; [2] Хант Дж. -А., Марковские процессы и потенциалы, пер. с англ., М., 1962; [3] Дынкин Е. Б., Марковские процессы, М., 1963. А. А. Юшкевич. СТАРЕЮЩЕЕ РАСПРЕДЕЛЕНИЕ (aging distribution) - распределение случайной величины Х^О такое, что при любом s > О условная вероятность P{Xe(t, t + s)\x>t) С) является неубывающей функцией аргумента t^O. Если случайную величину X понимать как продолжительность работы СТАРЕЮЩЕЕ 645
изделия до наступления отказа, то принадлежность распределения к классу Ср. соответствует росту вероятности появления отказа с увеличением времени работы t. Если величина X имеет С. р., то конечны все моменты ЕХ и при любом t>0 rjxeF(t) = P{X>t}, а=1-ЕХ2/2(ЕХ)2(см. [1]). Распределение случайной величины X является С. р. тогда и только тогда, когда - \nF(t) является выпуклой функцией на интервале [0, tF)} tF-'mf{t:F(t) = 0}. У С. р. на интервале [0, tF) существует плотность распределения и определена неубывающая по t интенсивности отказа функция X(t). В математич. теории надежности используются различные классы функциональных распределений. Для функциональных распределений из класса молодеющих распределений выражение (*) является невозрастающей функцией аргумента t. Обобщением класса С. р. является класс распределений стареющих в среднем, для к-рых FfO1'1 является неубывающей функцией аргумента t. Пусть все элементы невосстанавливаемой системы с монотонной структурой (см. Надежности математическая теория) имеют стареющие в среднем распределения. Тогда время безотказной работы такой системы также имеет стареющее в среднем распределение (см. [2]). Класс стареющих в среднем распределений является подмножеством класса распределений «новое лучше старого», для распределений к-рого при любых t, s^O выполняются неравенства F(t + s)^F(t)F(s). Встречаются сокращенные обозначения классов распределений: ВФИ (возрастающая функция интенсивности) - для класса стареющих распределений, У ФИ (убывающая функция интенсивности) - для класса молодеющих. В литературе на английском языке приняты сокращения: IFR (increasing failure rate) соответствует ВФИ, DFR (decreasing failure rate) соответствует УФИ, NBU (new better then used) - «новое лучше старого» и др. Лит.: [1] Вопросы математической теории надежности, М., 1983; [2J Барлоу Р., Прошан Ф., Статистическая теория надежности и испытания на безотказность, пер. с англ., М., 1984. Ю. К. Беляев. СТАТИСТИКА (statistic) - функция от результатов наблюдений. Пример 1. Пусть X = (Xlt ..., Хп) - случайный вектор, компоненты к-рого суть независимые одинаково распределенные случайные величины, и пусть Т(Х) = Т(Хи .... Хп) - произвольная функция, заданная на пространстве реализаций вектора X. Тогда Т(Х) является С. Напр., С. ak = ±Yn tX?tk=i,2 * п **t=\ г является fe-м моментом эмпирического распределения, построенного по вектору наблюдений X. Пример 2. Пусть наблюдается функция xtt) = B + XU), te[0, T]t где в - неизвестный параметр, 8elR , X(t) - случайный процесс, корреляционная функция к-рого есть r(t, s) = EX(t)X(s) = e-alt-sl, EX(O = 0. Тогда статистики 9 = j£x(t)dt и Ь = -±-[х(0) + х(Т) + аТ] представляют собой точечные статистич. оценки параметра 8. 646 СТАТИСТИКА См. также Наблюдений обработка. Лит.: [1] Гренандер У., Случайные процессы и статистические выводы, пер. с англ., М., 1961; [21 Voinov V. G., Niku l in M. S., Unbiased estimators and their applications, v. 1 - Unvariate case, Dordtrecht, 1993. M. С. Никулин. СТАТИСТИКА бинарных отношений (binary relations statistics) - см. Бинарных отношений статистика. СТАТИСТИКА вспомогательная (auxiliary statistic) - см. Вспомогательная статистика. СТАТИСТИКА дополнительная (auxiliary statistic) - см. Вспомогательная статистика. СТАТИСТИКА достаточная (sufficient statistic) - см. Достаточная статистика. СТАТИСТИКА инвариантная (invariant statistic) - см. Инвариантная статистика. СТАТИСТИКА интервальных данных (interval data statistics) - см. Интервальных данных статистика. СТАТИСТИКА квазидостаточная (quasi-sufficient statistic) - см. Вспомогательная статистика. СТАТИСТИКА критерия (test statistic) - статистика Т, используемая для определения статистического критерия с критической функцией вида Ф« [1,П*)>| [о,Пх)< с0(<с0), с0(>с0), или фЫ: 1, Т(х)<С< либо Т(х)>С7 [o,q<T(x)<c2 с возможной рандомизацией на множествах {х:Т(х) = (1) (2) Q, i=0, 1, 2. В практич. приложениях используют нерандомизированные критерии, имеющие критич. области вида {Пх)>С0}({Пх)<С0}) (3) или {Г(*)<С,}и{7Ч*)2*С2} (4) (либо, по соглашению, со строгими знаками неравенства). Встречающееся выражение «критерий, отвергающий Я0 при больших (малых) значениях статистики 74 означает критерий вида (1) или (3), имея в виду, что критич. значение С0 и необходимая рандомизация определяются по заданному уровню значимости. Аналогичные описания критериев вида (2) или (4) должны включать дополнительные требования, напр. симметрии, несмещенности и т. п. Решение задач проверки гипотез сводится, как правило, к отысканию подходящей статистики, по к-рой далее строится критерий вида (1) или (2). Употребление С. критерия обусловлено тем, что она определяет разбиение выборочного пространства, существенное для данной задачи различения гипотез. См. Статистических гипотез проверка. дт д/. Чибисов. СТАТИСТИКА необходимая (minimal sufficient statistic) - см. Минимальная достаточная статистика. СТАТИСТИКА нечетких множеств (statistics of'fuzzy sets) - см. Нечетких множеств статистика. СТАТИСТИКА объектов нечисловой природы (statistics of non-numerical type objects) - раздел математической статистики, в к-ром статистическими данными (результатами наблюдений) являются объекты нечисловой природы, то есть элементы множеств, не являющихся векторными пространствами. С. объектов нечисловой природы дополняет одномерную статистику (результат наблюдений - действительное число), многомерный статистич. анализ (результат наблюдения - конечномерный вектор), статистику случайных процессов и временных рядов (результат наблюдения - функция). Примерами объектов нечисловой природы являются
результаты измерений в различных шкалах (выделенных в измерений теории), бинарные отношения (ранжировки, разбиения, толерантности), множества (прежде всего из конечного числа элементов), нечеткие множества, интервалы, результаты парных и множественных сравнений. Наиболее общая модель результата наблюдения - случайный элемент в пространстве произвольной природы. Необходимость применения объектов нечисловой природы возникает во многих областях научной и практич. деятельности: в технич., соци- ально-экономич., медико-биологич., психологич., геологич., химич. и других исследованиях; при оценке, контроле и управлении качеством продукции; при изучении организационных и технологич. систем, в частности с помощью метода экспертных оценок, и т. д. В С. объектов нечисловой природы классич. задачи матема- тич. статистики - описание данных, оценивание, проверка гипотез - рассматривают для данных нечисловой природы, что приводит к своеобразию постановок задач и методов их решения. Наряду со специальными теориями для каждого отдельного вида объектов нечисловой природы (теория измерений, бинарных отношений статистика, нечетких множеств статистика, случайных множеств статистика, теории люсианов парных сравнений и др.) имеется и теория обработки данных, лежащих в пространствах общей природы, результаты к-рой применимы во всех специальных теориях, а также в классич. областях математич. статистики, в частности в многомерном статистич. анализе. С. объектов нечисловой природы объединяет ряд направлений математич. статистики и прикладной математики как классических, так и сравнительно недавно возникших (см. [1]). Результаты измерений по порядковым и номинальным шкалам с конечным числом градаций рассматривались в таких классич. направлениях математич. статистики, как анализ таблиц сопряженности и теория ранговой корреляции. В теории измерений установлено, что измерения в порядковой и номинальной шкалах приводят к анализу ранжировок и разбиений соответственно; данные, измеренные в порядковой шкале, следует обрабатывать ранговыми методами математич. статистики. Ранжировки, разбиения и иные бинарные отношения соответствуют подмножествам декартова квадрата множества, на к-ром определены рассматриваемые отношения, а потому их вероятностная теория тесно связана с теорией конечных случайных множеств. Статистич. методы, в частности теория случайных толерантностей, используются для оценки функций принадлежности нечетких множеств и отношений. В свою очередь, теория нечетких множеств может быть в определенном смысле сведена (см. [1]) к теории случайных множеств с помощью проекций случайного множества. Парные сравнения используют для получения случайных ранжировок и других бинарных отношений. Теории независимых парных сравнений, конечных случайных множеств с независимыми элементами, случайных толерантностей - частные случаи теории люсианов (конечных последовательностей независимых испытаний Бернулли). Перечисленные связи между различными видами объектов нечисловой природы были установлены к концу 1970-х гг. (см. [1]-[3]). Из-за отсутствия линейной структуры у пространства, в к-ром лежат данные, в С. объектов нечисловой природы среднюю величину для случайного элемента X (другими словами, теоретич. среднее) определяют как решение задачи минимизации функции, представляющей собой математич. ожидание близости меры между значением случайного элемента и фиксированным элементом пространства, то есть как решение нек-рой экстремальной статистической задачи. Аналогом этого определения в классич. математич. статистике является то, что для случайной величины X е IR минимум Е(Х-а) достигается при д = Е(Х), а минимум Е|Х-д| - когда а является медианой X. Выборочное среднее определяется как средняя величина, соответствующая эмпирич. распределению. Как решение экстремальной задачи средняя величина - не элемент, а множество, возможно пустое или содержащее более одного элемента. В пространствах общей природы получены аналоги законов больших чисел, согласно к-рым выборочное среднее независимых одинаково распределенных случайных элементов сходится к их теоретич. среднему при росте объема выборки (при соответствующем уточнении понятия сходимости, см. [4]). При различных мерах близости средние величины для одного и того же случайного элемента, вообще говоря, различны, подобно тому, как для случайной величины X е II? математич. ожидание, медиана и мода могут не совпадать между собой. Аналогом унимодальных симметричных распределений на IR являются монотонные распределения в изотропных пространствах, для к-рых теоретич. средние совпадают с центром распределения. Для них при выделенной мере близости оценку центра распределения целесообразно находить, минимизируя Колмогорова среднее мер близости между элементами выборки и элементом пространства, причем из результатов теории измерений следует, что можно использовать только степенные средние (см. [1]). Для пространств общей природы разработаны аналоги методов аппроксимации зависимостей и регрессионного анализа, дискриминантного и кластер-анализа, других методов классич. статистики (см. [3], [4]). Условное среднее, то есть среднее по условному распределению, определяют как решение соответствующей экстремальной задачи. При аппроксимации регрессионной зависимости элементом параметрич. семейства также решают экстремальные статистич. задачи, аналогичные используемым в методах наименьших квадратов, наименьших модулей, робастной регрессии (см. [5]). Непараметрич. теория в пространствах общей природы строится на основе непараметрич. оценок плотности распределения случайного элемента по нек-рой мере, прежде всего ядерных оценок плотности. Ядерные оценки используются для оценки условной плотности и непараметрич. оценки регрессии, в задачах классификации. Для проверки гипотез применяют, в частности, статистики интегрального типа (см. [6]). Многие методы С. объектов нечисловой природы используют меры близости. Пример аксиоматич. введения меры близости: пусть $С - алгебра множеств с единицей, а функция rf:*2-*!!?1 такова, что: a) d(A, B)^0; б) d(A, B) = d(B, А); в) если АПСсВсАиС, то d(A, В) + d(B, С) = d(A, С); г) если ЛПС = ДПС = 0, то d(A, B) = d(AUC, BUC) для любых А, В и С из $С. Тогда для меры близости d(A, В) существует (и единственная) мера ц на % такая, что d{A,B)- = \i(AAB), где ААВ - симметрич. разность А и В (подробнее см. [1]). Исторически первым аксиоматич. введением меры близости было введение Кемени расстояния (см. [7], [8]). Теория измерений как раздел С. объектов нечисловой природы изучает инвариантность статистич. выводов относительно допустимых преобразований шкал измерений (см. [1], [3]). Этот раздел прикладной математики развивался как теория психологич. измерений (см. [9]) и только в 70-х гг. стал рассматриваться самостоятельно. В отличие от классич. подхода (см. [10]), изучающего гомоморфизмы эмпирич. системы с отношениями в числовую систему с отношениями, в С. объектов нечисловой природы используют «прикладную теорию измерений» (см. [1]), в к-рой основное понятие - группа допустимых преобразований шкалы измерения. К теории измерений примыкают методы многомерного шкалирования СТАТИСТИКА 647
(см. [3]), позволяющие снизить размерность изучаемого пространства, в частности с целью визуализации. В статистике бинарных отношений как разделе С. объектов нечисловой природы центральное место занимают методы, связанные с Кемени медианой и расстоянием Кемени. Близкие разделы С. объектов нечисловой природы - изучение парных сравнений (см. [11]) и люсианов - связаны также с теорией статистич. контроля по альтернативному признаку (см. [12]). В основных постановках задач теории люсианов число неизвестных параметров растет пропорционально объему данных. Статистика нечетких множеств (см. [13]) как раздел С. объектов нечисловой природы представляет собой синтез теории нечеткости (см. [14]), случайных множеств статистики и статистики в пространствах общей природы. Результаты С. объектов нечисловой природы находят применение и в классич. разделах математич. статистики. Напр., при отборе информативных подмножеств признаков в регрессионном и дискриминантном анализах целью является оценивание подмножества, и в терминах С. объектов нечисловой природы формулируется понятие состоятельности метода отбора признаков. Учет погрешностей наблюдений, то есть описание результатов наблюдений не числами, а нечеткими множествами или интервалами, приводит к выводам, отличным от классических. Так, при оценивании параметров гамма-распределения оценки метода моментов оказываются лучше оценок максимального правдоподобия в обширной области параметров (см. [15], [16], а также Интервальных данных статистика). С. объектов нечисловой природы тесно связана с техническими, медицинскими, социологич. исследованиями, черпает из них постановки задач и применяется в этих областях научной и практич. деятельности (см. [17]). Лит.: [ 1 ] Орлов А. И., Устойчивость в социально-экономических моделях, М., 1979; [2] его же, в кн.: Вопросы кибернетики, М., 1979, в. 58, с. 17-33; [3] Анализ нечисловой информации в социологических исследованиях, М., 1985; [4] Орлов А. И., в кн.: Анализ нечисловых данных в системных исследованиях, М., 1982, с. 4—12; [5] Демиденко Е. 3., Линейная и нелинейная регрессия, М., 1981; [6] Орлов А. И., Вероятностные процессы и их приложения, М., 1989, с. 118-23; [7] Кемени Джм Снелл Дж., Кибернетическое моделирование. Некоторые приложения, пер. с англ., М., 1972; [8] Раушенбах Г. В., в кн.: Анализ нечисловой информации в социологических исследованиях, М., 1985, с. 169-203; [9] Суп- пес П., Зинес Дж., в кн.: Психологические измерения, пер. с англ., М., 1967, с. 9-110; [10] Пфанцагль И., Теория измерений, пер. с англ., М., 1976; [11] Дэвид Г., Метод парных сравнений, пер. с англ., М., 1978; [12] Беляев Ю.К., Вероятностные методы выборочного контроля, М., 1975; [13] Орлов А. И., Задачи оптимизации и нечеткие переменные, М., 1980; [14] Заде Л., Понятие лингвистической переменной и его применение к принятию приближенных решений, нер. с англ., М., 1976; [15] ГОСТ 11.011-83. Прикладная статистика. Правила определения оценок и доверительных границ для параметров гамма-распределения, М., 1985; [16] Орлов А. И., в кн.: Статистические методы оценивания и проверки гипотез. Межвуз. сб. науч. тр., Пермь, 1988, с. 45-55; [17] его же, «Заводская лаборатория», 1990, т. 56, № 3, с. 76-83; 1995, т. 61, № 3, с. 43-52; 1995, т. 61, № 5, с. 43-51; 1996, т. 62, № 1, с. 54-60. А. И. Орлов. СТАТИСТИКА подобная (ancillary statistic) - см. Подобная статистика. СТАТИСТИКА подчиненная (subordinate statistic) - см. Подчиненная статистика. СТАТИСТИКА полная (complete statistic) - см. Полная статистика. СТАТИСТИКА разделимая (separable statistic) - см. Разделимая статистика, Выборочная частота. СТАТИСТИКА ранговая (rank statistic) - см. Ранговая статистика. СТАТИСТИКА случайных м н о ж е с т в (statistics of random sets) - раздел математической статистики, в к-ром стати- 648 СТАТИСТИКА стическими данными являются множества. Для описания данных в С. случайных множеств применяют среднее значение случайного множества. В большинстве параметрич. задач оценивания С. случайных множеств оценки представляют как решения экстремальных задач, а их свойства устанавливают с помощью методов статистики объектов нечисловой природы (см. [1]). Непараметрич. оценивание моды, регрессионной зависимости, распознавание образов и т.д. проводят в С. случайных множеств с помощью различных типов непараметрич. оценок плотности распределений (см. [1]). Используемое в классич. постановках математич. статистики доверительное множество является случайным множеством. В различных областях теории случайных множеств используют специфич. постановки задач и методы С. случайных множеств. Так, для статистики случайных подмножеств конечномерного евклидова пространства основными объектами изучения являются измеримые отображения произвольного вероятностного пространства в множество непустых компактов, снабженное метрикой Хаусдорфа (см. [2]). При этом используются сложение случайных множеств по Минковскому (см. Минковского операции) и аналоги законов больших чисел и центральной предельной теоремы (см. Предельные теоремы для случайных множеств). В пространствах с мерой ц методы С. случайных множеств обычно основаны на введении мер близости множеств, в частности определяемых формулами dx(A, B) = \i(AAB); d2(A, Я) = ц(ЛДВ)/ц( AUB), если ц(ДШЗ)>0, и d2(A, В) = 0 в противном случае. Здесь ААВ - симметрич. разность множеств А и В. Такие меры близости являются псевдометриками (об их аксиоматич. описании см. [3], [1]). В задачах С. случайных множеств, связанных с интегральной геометрией, большую роль играет сведение соответствующих статистич. проблем к классическим с помощью различных способов параметризации (см. [4]). В теории конечных случайных множеств, и особенно случайных множеств с независимыми элементами (см. Люсиан), большое место занимают методы проверки гипотез в постановках, когда число параметров, описывающих вероятностную модель, растет пропорционально объему данных. Многие важные для приложений проблемы статистич. характера естественным образом формулируются в терминах нечетких множеств. С помощью проекции случайного множества такие задачи сводятся к С. случайных множеств (см. [5]). Лит.: [1] Анализ нечисловой информации в социологических исследованиях, М., 1985; [2] Ляшенко Н. Н., в кн.: Прикладная статистика, М., 1983, с. 40-59; [3] его же, Устойчивость в социально-экономических моделях, М., 1979; [4] Кендалл М., Моран П.. Геометрические вероятности, пер. с англ., М., 1972; [5] Орлов Л. И., Задачи оптимизации и нечеткие переменные, М., 1980. А. И. Орлов. Л/^-СТАТИСТИКА (Я/S-statistic) - см. Херста явление. Т -СТАТИСТИКА (^-statistic) - статистика, используемая для проверки гипотезы равенства векторов средних значений двух нормальных распределений по выборкам из них (двухвыборочная Т -с.) или гипотезы равенства вектора средних вектору заданному (одновыборочная Г -с). Т -с. Хотеллинга [1], является обобщением известной статистики t2 для одномерного случая. Пусть имеется выборка объема Ht(i=l, 2) из ^-мерных нормальных распределений AL(u^, £); Х^ и 5^ суть соответственно выборочные оценки вектора средних и матрицы ковари- аций для распределения М_(щ, £). Тогда двухвыборочная Т -с. определяется как п,+п2
где с/ = Х2-Х1, а с_ Ц-1)^+(«2-1)52 - оценка общей ковариационной матрицы I. Величина D -dS~d есть не что иное, как выборочная оценка Махаланобиса расстояния. Одновыборочная Т -с. используется, когда проверяется гипотеза о равенстве неизвестного вектора средних \it оцениваемого по выборке объема я из Np(\i, I), заданному вектору \iQ: Г2 = и(Х-щ)5Ч(Х-щ)- В случае истинности проверяемой гипотезы Т -с. подчиняется так наз. Хотеллинга Т -распределению. Распределение Т2-с. устойчиво к отклонениям от нормальности. Лит.: [1] Hotel ling H., «Ann. Math. Statist.», 1931, v. 2, p. 360-78; [2] Андерсон Т., Введение в многомерный статистический анализ, пер. с англ., М., 1963. И. С. Енюков. СТАТИСТИЧЕСКАЯ ВЫБОРКА (statistical sample) - см. Выборка статистическая. СТАТИСТИЧЕСКАЯ ГИДРОМЕХАНИКА (statistical hyd romechanics) - теория, в к-рой изучаются вероятностные свойства решений уравнений гидромеханики. Лит.: [1] Математическая физика. Энциклопедия, М., 1998, с. 569-72. М.И. Вишик, А. В. Фурсиков. СТАТИСТИЧЕСКАЯ ГИПОТЕЗА (statistical hypothesis) - определенное предположение о распределении вероятностей, лежащем в основе наблюдаемых случайных явлений. Результаты наблюдений представляются обычно в виде реализации нек-рой совокупности случайных величин, конечной или бесконечной, и С. г. формулируется как предположение о принадлежности их совместного распределения к нек-рому определенному классу распределений. Под С. г. понимают также сам этот класс распределений. Если он состоит из одного элемента, то С. г. называется простой, в противном случае- сложной. То есть простая С. г. выражает нек-рое однозначно определенное предположение о распределении наблюдений. Пример сложной С. г.- задание распределения с точностью до неизвестного параметра. С. г. входит в постановку задачи статистических гипотез проверки. Д. М. Чибисов. СТАТИСТИЧЕСКАЯ ИГРА (statistical game) - математическая модель, описывающая задачи математической статистики и основанная на использовании понятия игры двух лиц. Все задачи математич. статистики объединяет то обстоятельство, что статистик на основании экспериментальных данных должен принять нек-рое решение. В теории оценок эти решения могут иметь форму точечных оценок 0*, к-рые принимаются за значение неизвестного параметра 9; в теории проверки статистич. гипотез - форму утверждений, в к-рых говорится, какие предположения относительно природы исследуемого объекта являются верными, а какие нет. Эти решения, если они ошибочны, как правило, сопряжены с последующими потерями. Все это делает естественным построение игровой модели статистич. задач (см. Игра двух лиц). Выделяют следующие элементы такой модели. 1) Множество 0 состояний 0 исследуемого объекта. Если 0 известно, то необходимость построения статистич. решения отсутствует. Множество 0 называется также множеством параметров, хотя 0 могут допускать и более широкое толкование (напр., множество 0 может быть очень богатым и совпадать с множеством всех распределений на нек-ром пространстве 9С). 2) Чтобы получить информацию о неизвестном 0, статистик ставит эксперимент и производит наблюдения над нек-рой случайной величиной, распределение к-рой зависит от 0. Другими словами, статистик располагает выборкой X из распределения Ре. 3) В задачах статистики всегда определено множество D = {5} решений, к-рые может принимать статистик. В теории оценивания множество D обычно совпадает с 0; в задачах проверки гипотез множество D конечно, а число его элементов равно числу проверяемых гипотез. Если 0 известно, то решение 5 = ф(0) определяется однозначно. Если 0 неизвестно, то решение 5 желательно выбрать в известном смысле оптимально. Для сравнения решений вводится функция потерь. 4) Функция потерь w(b, 0) определена на D х 0; она указывает, какие потери влечет принятие решения 5, если исследуемый объект находится в состоянии 0. Предполагается, что w(b, 0)>O при 5*ф(0); о;(ф(0), 0) = О. Если из 1) - 4) исключить процедуру 2) о «зашумленном» наблюдении 0, то получится обычная игра двух лиц, где игрок I - статистик, а игрок II - природа. Итак, основные элементы С. и. образуются той же тройкой (D, 0, w), к-рая рассматривалась в играх двух лиц. Однако здесь появляются следующие особенности. В С. и. роль игрока I играет статистик (исследователь), а игрока II - природа (точнее, природа исследуемого явления). Последняя выбирает (или «загадывает») параметр (стратегию) 9, к-рый неизвестен статистику и к-рый определяет состояние исследуемого объекта. Большинство задач математич. статистики так или иначе связано с принятием таких решений 5, к-рые как можно более точно «угадывали» бы это неизвестное 0. При этом природа не выбирает своих стратегий целенаправленно, поэтому, не ограничивая общности, можно рассматривать лишь игры с нулевой суммой. В С. и. статистик имеет возможность «разведывать» стратегию природы с помощью экспериментов, к-рые дают информацию о неизвестном 0 в виде выборки X из распределения Ре, зависящего от 0. В этих условиях решение 5 должно выбираться в зависимости от X. Стратегиями статистика являются все функции 5(Х), отображающие выборочное пространство 9С в D. Эти функции 5(Х) называются решающими функциями, или решающими правилами, или просто решениями. Обычно D наделяется структурой измеримого пространства и рассматриваются лишь измеримые отображения (5Г, В) в (D, FD), где В, FD - подходящие а-алгебры в пространствах выборок и решений. Множество таких функций обозначено ниже 9). Множество стратегий игрока II (природы) 0 остается прежним. Потери при стратегии 5 принимаются равными риска функции W(b(), 0) = Eeo;(5(X), 9)=Jo;(5U), 0)Pe(cM, (*) где w - исходная функция потерь. Статистической игрой называется тройка (9, 0, W), где 0 есть множество стратегий природы, 9 - множество всех измеримых отображений пространства 9С в множество 9, W определено в (*). Для более полной характеризации Си. вместе с тройкой (9), 0, W) можно считать также заданной пару (X, Рв), где X - выборка из распределения Ре. Из приэеденного определения С. и. видно, что последняя обладает значительно более богатым множеством стратегий по сравнению с исходной игрой двух лиц (D, 0, w). Как и в случае обычной игры двух лиц, наряду с игрой (2>, 0, W), стратегии к-рой называют чистыми, рассматривают рандомизированные, или смешанные, игры (9), 0, W). Здесь множество решений 9) есть множество распределений л(Х), то есть отображений 9C-*D\ D, 0 - СТАТИСТИЧЕСКАЯ 649
множества всех распределений на (D, FD), (0, Fe). Распределение яе 9) выбирается так, чтобы значения w(n(x), e)=JD w(u, е)л(х, du) были случайными величинами на (0, Fe) [n(X, А) есть вероятность множества А с D в соответствии с решающим правилом л]. Риск при стратегии природы Q е 0 принимается равным w4*(.), Q)=J0 JJd ю(М| *>*(*, </ii)ptw*)QWO. Стратегия я(Х) называется рандомизированным решающим правилом, Q - рандомизированной (смешанной) стратегией природы. Отношения частичного порядка между стратегиями, равномерно наилучшие стратегии в подклассах, бейесовские и минимаксные стратегии, полные классы стратегий для С. и. определяются точно так же, как для игр двух лиц (с заменой множества D на Ф, а функций w, w на W, W). Напр., стратегию лq(•) называют бейесовской для априорного распределения Q, если W4ic0(.), Q)= inf Mn(),Q). яе<7 Стратегия л (•) мини макс на, если sup и>(я(), Q)= inf sup W(n(), Q). Q яеа О На С. и. полностью переносятся утверждения теории обычных игр, не связанные с природой множества D. С природой множеств D и 0 связана следующая классификация, выделяющая основные виды Си. 1) Если 0 = Л, D=A, где Л с IP* имеет внутренние точки, w(t, O = 0, w(t, м)>0 при t*ut то получают задачи теории точечного оценивания неизвестного параметра 8. 2) Если множества ©-{fy, .... 8r}, D = {5j, ..., 5Г} конечны и содержат одинаковое число элементов, w(bit 9f) = 0, w(bit вр > 0 при i */, то речь идет о проверке конечного числа простых гипотез. 3) Если 0c|R* - область с внутренними точками, D = {5j, 52} состоит из двух элементов, w(b{, 9) = О при 8 е 0j, w(b2, 8) = 0 при 8 е 02 (81 П 02 пусто) и w(bif 8) >0 в остальных случаях, то игра описывает задачу проверки сложных гипотез {8 е 0t} и {8 е 02}. Возможны и другие классы задач. Задачи 1) - 3) наиболее изучены и распространены. При этом в первой группе задач потери часто определяются среднеквадратич. уклонением, что соответствует функции потерь аЧ5, 8) = с(5-9)2, с = const. Во второй группе задач потери определяются вероятностью ошибиться, что соответствует функции То же относится и к третьей группе задач, в к-рой часто используют функцию потерь ч ГО при беЭ,, , ft при 8е0,, ,f \t при 8е02, 2' [0 при 8е02. Приведенная классификация показывает, что никакой принципиальной разницы между задачами теории оценивания и проверкой статистич. гипотез нет. Все дело лишь в природе множеств 0 и D и виде функций потерь. Ниже приведены два фундаментальных утверждения теории С. и. в предположениях не самых общих, но достаточно широких. 650 СТАТИСТИЧЕСКАЯ Условие А. Каждое из множеств 0 и D либо конечно, либо представляет собой компактное выпуклое множество в И? . Условие В. 1) Если Dc|R*, 0c|R*, то функция w(b, 9) непрерывна на 1)х0. 2) Если 0<= IR*, 1) = {51, ..., 5Г} конечно, то каждая из г функций w(bit 8), i- t, ..., г, непрерывна на 0. 3) Если 0 = {81, ..., 9Г} и D = {5t, ..., 5Г} конечны, то значения 0^(5,-, 8;) могут быть произвольными. Условие С. Распределение Ре непрерывно по вариации относительно 9, то есть sup | Рв (В) - PQ(B) | -► 0 при 9j -► 9. Первая фундаментальная теорема: если выполнены условия А, В, С, то усредненная игра (<#, 0, W) имеет цену и минимаксные стратегии я(Х) и Q: U'(nO, t) = inf supU>(n(), Q), * О U/(4,Q) = supinf W(n(), Q). 0 * Из теории обычных игр известно, что Q есть наихудшее распределение, U>(7l6(.), Q = sup W(nQ(), Q) = sup U>(4, Q) О О и я(Х) =7Cq(X) является бейесовской стратегией, соответствующей Q. Известно также, что для того, чтобы стратегия л(Х) была минимаксной, необходимо и достаточно, чтобы она была бейесовской (л(Х) = л0(Х) для нек-рого априорного распределения Q) и W (я(-), 9) = с = const почти всюду относительно Q, W(k(), 8)^c. Вторая фундаментальная теорема: при выполнении условий А, В, С класс всех бейесовских стратегий является полным. Задача отыскания бейесовских стратегий (а значит, полного класса и минимаксных стратегий) для С. и. может быть редуцирована в известном смысле к той же задаче для обычной игры двух лиц (D, 0, w) (см. Бейесовский принцип). Лит.:[\] БлекуэллД., Ги рш и к М. А., Теория игр и статистических решений, пер. с англ., М., 1958; [2] Боровков А. А., Математическая статистика. (Дополнительные главы), М., 1984; [3] Вальд А., Статистические решающие функции, в кн.: Позиционные игры, пер. с англ., М., 1967, с. 300-522; [4] Мак-Кинси Дж., Введение в теорию игр, пер. с англ., М., I960; [5] Ferguson Т. S., Mathematical statistics. A decision theoretic approach, N. Y. - L., 1967. А. А. Боровков. СТАТИСТИЧЕСКАЯ ИГРА; принцип достаточности (sufficiency principle for statistical game) - см. Достаточность в теории статистических игр. СТАТИСТИЧЕСКАЯ ИГРА; принцип инвариантности (invariance principle for statistical game) - см. Инвариантность в теории статистических игр. СТАТИСТИЧЕСКАЯ ИГРА; принцип несмещенности (unbiasedness principle for statistical game) - см. Несмещенность в теории статистических игр. СТАТИСТИЧЕСКАЯ МЕХАНИКА (statistical mechanics) - раздел физики, посвященный изучению статистическими методами поведения систем, состоящих из большого числа взаимодействующих частиц. Долгое время С. м. и теория вероятностей, несмотря на очевидную близость предмета интересов, развивались параллельно, почти не соприкасаясь друг с другом. Ситуация резко изменилась за последние два десятилетия, когда совместными усилиями специалистов по математич. физике и теории вероятностей было установлено, что все основные понятия См. могут быть математически переформулированы как естественные понятия теории вероятностей, а
все основные тезисы С. м. могут быть интерпретированы как математич. теоремы или достаточно четко формулируемые математич. гипотезы. Традиционно С. м. подразделяется на классическую, основанную на понятиях классич. ньютоновской механики, и квантовую, основанную на понятиях квантовой механики. Выяснилось, что классич. С. м. можно целиком трактовать на языке теории случайных полей и случайных процессов. Понятия квантовой С. м. естественно излагаются на языке нового раздела функционального анализа, к-рый часто называют некоммутативной теорией вероятностей из-за большого параллелизма в идеях и методах с обычной теорией вероятностей. Здесь рассматриваются более наглядные понятия классич. С. м. Другое традиционное деление См. - это деление ее на равновесную статистическую механику, описывающую статистич. свойства системы в равновесии, устанавливающемся в ходе достаточно долгого автономного развития пространственно однородной системы, и неравновесную статистическую механику, изучающую сам процесс установления такого равновесия, а также динамику неоднородных систем и, в частности, вопрос о выводе описывающих такую динамику на уровне макроскопич. масштабов кинетич. уравнений. Основная цель исследований в См. - описание макроскопич. свойств вещества на основе представлений о характере взаимодействия составляющих его микроскопич. частиц. Поскольку число частиц в макромасштабном объеме в типичных ситуациях огромно (при нормальных атмосферных условиях 1 см воздуха содержит ~10 молекул), то на первый план выдвигается изучение свойств системы, возникающей после термодинамического предельного перехода, при к-ром число частиц N ->°°. Пожалуй, главная методич. новизна, привнесенная математич. исследованиями последнего времени,- это явное рассмотрение объектов из бесконечного числа взаимодействующих частиц, вероятностные характеристики к-рых совпадают с термодинамич. пределами соответствующих характеристик конечных систем. Хотя переход к изучению бесконечно частичных систем связан с привлечением более сложного и более абстрактного математич. аппарата, это искупается тем, что при таком подходе основные понятия и идеи См. приобретают большую стройность и наглядность. В ситуации, рассматриваемой в классич. равновесной С м., состояние системы может быть описано как распределение вероятностей точечного случайного поля в евклидовом пространстве (I? . Реализациями этого поля являются счетные локально конечные подмножества в IP3. Точки задают положения частиц. Часто рассматривается несколько более общая модель маркированного точечного поля, где каждой частице сопоставляется дополнительно ее скорость, а если рассматривается система из частиц нескольких типов, то и тип частицы. Излюбленным объектом исследования являются также системы, описываемые математически как случайные поля с дискретным аргументом, принимающим значения на трехмерной целочисленной решетке 2 (часто рассматриваются и другие правильные решетки). Физически точкам t e 2 соответствуют узлы кристаллич. решетки, а значениям поля Xt, tel ,- нек-рые характеристики частиц, расположенных в этих узлах. Такие решетчатые модели возникают как упрощенные классич. аналоги более сложных в рассмотрении квантовых моделей. Интересен как случай, когда значения поля Xt принадлежат евклидову пространству, так и случай, когда пространство значений Xt счетно или конечно. В последнем случае значения Xt чаще всего интерпретируются физически как значения спина внешнего электрона соответствующей частицы, и поэтому такие модели называются спиновыми. Кроме трехмерных систем часто рассматривают и двумерные системы (на (1? и 2 ), используемые при описании тонких пленок, и одномерные системы (на И? и 2), используемые при описании нитей (в частности, длинных молекул полимера). Четырехмерные модели интересны как дискретное приближение к четырехмерным моделям квантовой теории поля, описываемым как обобщенные случайные поля на И? . Свойства случайных полей резко зависят от их размерности, и исследование этой зависимости составляет традиционный предмет внимания в См. Так, одномерный случай, приводящий к вероятностным процессам, часто трактуется как тривиальный, поскольку здесь возникают процессы, напоминающие марковские процессы, и для наиболее естественного случая локальных взаимодействий отсутствуют фазовые переходы. Ввиду сказанного, обычным стало рассмотрение систем произвольной размерности d с особым вниманием к качественному изменению свойств системы в зависимости от размерности. Основной результат равновесной См. - это постулат Гиббса, утверждающий в случае спиновых систем, что в состоянии равновесия в конечном сосуде Q макроскопич. размеров вероятность нек-рой конфигурации х частиц пропорциональна ехр{-Н(х)/Т), где Н(х) - энергия этой конфигурации частиц, а Т - абсолютная температура системы, измеренная в соответствующей системе единиц. В случае точечного случайного поля гиббсовское распределение задается плотностью, пропорциональной ехр{-Т~ (Н(х) -[iN(x))} относительно распределения пуассоновского точечного случайного поля в сосуде Q. Здесь М(х) - число частиц в конфигурации х, а (X - вещественный параметр, характеризующий среднюю плотность частиц и называемый химическим потенциалом. При переходе к бесконечномерным системам постулат Гиббса может быть переформулирован как утверждение о том, что равновесное распределение С м. - это распределение Гиббса случайного поля, выделяемое ДЛР-условием. Это условие выражает условные вероятности для реализации в конечных подобъемах при заданных реализациях во внешности этих подобъемов через потенциалы, задающие энергию системы. Постулат Гиббса может быть также переформулирован как вариационный принцип в С. м. Основные физически интересные макроскопич. свойства вещества выражаются через конечномерные распределения гиббсовского поля. В С. м. часто предпочитают описывать эти распределения при помощи специальным образом вводимых корреляционных функций. Поэтому фундаментальным представляется вопрос о возможности выразить конечномерные распределения через потенциал гиббсовского поля. К сожалению, случаев, когда это можно сделать на уровне явных аналитич. формул, немного. Это в основном случай одномерных полей, где эта проблема близка к известной задаче нахождения стационарного распределения цепи Маркова по ее переходным вероятностям. Самое известное явное решение - это решение Онсагера для двумерной Изинга модели, достигнутое за счет глубоких алгебраич. идей. Список интересных, хотя и частных, явно решаемых моделей продолжает расширяться, однако надежд на то, что такое явное решение может быть достигнуто в сколь-нибудь общей ситуации, остается немного. Для приближенного вычисления корреляционных функций традиционно используется метод разложения их в ряды типа высокотемпературного разложения, где удается эффективно вычислить несколько первых членов разложения. В последнее время быстро развиваются численные методы, основанные по существу на моделировании марковских процессов с взаимо- СТАТИСТИЧЕСКАЯ 651
действием, выбранных так, чтобы гиббсовское распределение было для них стационарным во времени. В связи со сказанным все больший интерес проявляется к качественному исследованию взаимосвязей между потенциалом и корреляционными функциями. К такого рода задачам приводит, в частности, проблема фазовых переходов. Физически фазовые переходы проявляются в скачкообразном изменении свойств вещества при непрерывном изменении его параметров и в возможности образования в веществе макроскопич. неоднородностей. Математически фазовый переход можно определить как ситуацию, когда при аналитически зависящих от параметра потенциале, температуре, химич. потенциале зависимость от этого параметра конечномерных распределений имеет особенности, напр. нарушения непрерывности или разрывы производных. Вопрос о фазовых переходах тесно связан с вопросом о числе разных гиббсовских полей с данным потенциалом. На границе, отделяющей область параметров, где такое поле единственно, от той, где оно неединственно, происходят фазовые переходы. Понимание ситуации на мате- матич. уровне строгости достигается пока что в основном методами типа теории возмущений (метод Пайерлса, метод Пирогова - Синая). Для нек-рых классов систем помогает метод корреляционных неравенств. В области достаточно высоких температур, а для точечных полей и в случае достаточно малых плотностей фазовых переходов нет, а единственность есть. При низких температурах возможна неединственность и возникающие здесь ситуации очень разнообразны. Существенным здесь оказывается исследование основных состояний, описывающих асимптотич. поведение системы при температуре, стремящейся к нулю. Особенно труден для математич. исследования случай «средних» температур, лежащих вблизи критич. температуры, разделяющей область единственности и неединственности. Ожидается, что при таких критич. значениях температуры могут возникать гиббсовские поля, для к-рых корреляции убывают столь медленно, что не верна центральная предельная теорема. Ожидается далее, что здесь при выборе ренормализационной группы с соответствующими параметрами в пределе будут возникать новые нетривиальные автомодельные случайные поля. Эта проблематика интенсивно обсуждается, но развиваемые при этом идеи и методы пока что лишь с трудом поддаются математич. осмыслению. С математич. разработкой проблем неравновесной См. дело обстоит много хуже. Основным объектом исследования здесь представляются динамич. системы статистич. механики. Это -динамич. системы, фазовым пространством к-рых являются реализации маркированного точечного случайного поля в евклидовом пространстве II? , где точки (частицы) маркированы вектором скорости, также принадлежащим II? . Движение реализации задается бесконечной системой дифференциальных уравнений, являющихся аналогом обычной системы уравнений ньютоновской механики. Уже сама задача построения такой динамики на достаточно богатом множестве реализаций решена пока что лишь для случая d*^2. Во всех размерностях удалось построить лишь ее равновесный вариант, то есть динамич. систему с инвариантной мерой, задающей соответствующее гиббсовское случайное поле. Можно ожидать и большего. Кажется, что при нек-рых дополнительных ограничениях типа регулярности гиббсовские распределения исчерпывают совокупность всех распределений, сохраняющихся при динамике бесконечно частичных систем, и что для достаточно широкого класса начальных распределений вероятностей в момент времени 0 распределение в момент времени 652 СТАТИСТИЧЕСКАЯ t -»<х> сходится к одному из гиббсовских. Однако пока что не видно даже подходов к доказательству такой гипотезы. Видное место в неравновесной См. занимают кинетич. уравнения (в частности, Больцнана уравнение, Власова уравнение, гидродинамич. уравнения). Это интегро-дифферен- циальные уравнения эволюционного типа, приближенно описывающие временную эволюцию нек-рых осредненных характеристик состояния динамич. системы См. В математизированных исследованиях последнего времени кинетич. уравнения интерпретируются как результат специальных предельных переходов, связанных с изменением временных и пространственных масштабов и потенциала взаимодействия. Здесь исследования в рамках строгой математики находятся лишь на начальном этапе. Для приближенного описания динамики зачастую вводятся модели, основанные на использовании случайных процессов. Так, напр., движение системы частиц иногда описывают как многомерный диффузионный процесс, в к-ром инфинитези- мальные характеристики приращений положения или скорости одной из частиц считаются зависящими от положений соседних частиц. После термодинамич. предельного перехода возникает бесконечномерный диффузионный процесс, относящийся к классу марковских процессов с взаимодействием. Развитие исследований по математич. проблемам С. м. оказалось плодотворным не только для обоснования и уточнения физич. понятий и результатов. В их ходе были выявлены естественные и красивые математич. понятия, к-рые в своем абстрагированном и выделенном из физич. реальности варианте нашли неожиданные внефизич. приложения. Напр., гиббсовские поля широко используются для описания случайных полей, возникающих в биологии и технике, а понятие гиббсов- ского распределения нашло свое место в общей теории динамич. систем. Лит.:[\] Добрушин Р. Л., СинайЯ.Г., Сухов Ю. М., вкн.: Итоги науки и техники. Современные проблемы математики. Фундаментальные направления, т. 2, М., 1985, с. 235-84; [2] Малышев В.А., Минлос Р. А., Гиббсовские случайные поля. Метод кластерных разложений, М., 1985; [3] Престон К., Гиббсовские состояния на счетных множествах, пер. с англ., М., 1977; [4] Р го- эль Д., Статистическая механика. Строгие результаты, пер. с англ., М., 1971; [5] СинайЯ.Г., Теория фазовых переходов, М.. 1980; [6] Ruel le D., Thermodynamic formalism, L. - [а. о.], 1978. Р. Л. Добрушин. СТАТИСТИЧЕСКАЯ МОДЕЛЬ (statistical model) - математическая конструкция, формализующая исходные объекты статистической задачи: статистические данные, имеющие случайный характер, связанные с ними события и возможные распределения вероятностей. Как правило, С. м. задается тройкой (Ж, Л, Р), где Л - множество, элементы к-рого (выборочные точки) представляют возможные реализации совокупности статистич. данных, *«/ - а-алгебра подмножеств Ж, интерпретируемых как события, доступные наблюдению, и Р - семейство распределений на выборочном пространстве (Ж, «.</). Напр., результаты п измерений величины в со случайными ошибками, к-рые предполагаются независимыми и имеющими нормальное распределение N(0, а ), описывают См. с £ = IR", *rf=3in (борелевская а-алгебра в (1?л) и р = рп = {ЛГ(в1, с21), Bell?1, а2>0}, где 1 = (1, ..., 1), a / - единичная матрица (яхп). Последовательное проведение измерений в этой схеме может описываться семейством С. м. (IR", j/„ Р,), t=\, ..., п, ^cz^c: ...<=.«/п = #", где ^ - а-алгебра множеств {x = (jrt, ..., хп): (х{, ..., хп)еВ), Ве&*, определяющих события, наблюдаемые после t измерений, Р^ - семейство сужений распределений из Р" на ,</f. Рассмотрение семейств См. характерно для задач статистики случайных
процессов. В литературе встречаются и другие формы См., имеющие аналогичный содержательный смысл. Д. М. Чибисов. СТАТИСТИЧЕСКАЯ НЕЗАВИСИМОСТЬ (statistical independence) - см. Независимость. СТАТИСТИЧЕСКАЯ ОЦЕНКА (statistical estimator) - измеримая функция от выборочного вектора; статистика, служащая приближением для исходного неизвестного значения оцениваемого параметра. Значениями Co., к-рые вычисляются по результатам статистич. эксперимента, служат или точки пространства оцениваемого параметра (точечная оценка), или его подмножества (интервальная оценка). Близость точечной оценки к истинному значению параметра при достаточно большом объеме выборки обеспечивается ее состоятельностью (если она есть), а надежность покрытия истинного значения интервальной оценкой - выбором достаточно высокого доверительного уровня. См. также Адаптивная оценка, Асимптотически минимаксная оценка, Асимптотически несмещенная оценка, Асимптотически нормальная оценка, Асимптотически эффективная оценка, Бейесовская оценка, Джеймса - Стейна оценка, Допустимая оценка, Достаточная оценка, Инвариантная оценка, Интервальная оценка, Линейная оценка, Медианно несмещенная оценка, Минимаксная оценка, Модально несмещенная оценка, Несмещенная линейная оценка, Несмещенная оценка, Обобщенная бейесовская оценка, М-оценка, Питме- на оценка, Последовательная оценка, Рандомизированная оценка, Робастная оценка, Сверхэффективная оценка, Смещенная оценка, Состоятельная оценка, Точечная оценка, Эквивариантная оценка, Эмпирическая бейесовская оценка, Эффективная оценка. Лит.: [1] Боровков А. А., Математическая статистика, М., 1984; [2] Кендалл М., СтыоартА., Статистические выводы и связи, пер. с англ., М., 1973. И. Н. Володин. СТАТИСТИЧЕСКАЯ ОЦЕНКА; полный класс (complete class of statistical estimators) - множество статистических оценок % обладающих тем свойством, что для любой оценки, не принадлежащей этому множеству, существует оценка из ^с равномерно небольшой риска функцией, причем между функциями риска выполняется строгое неравенство, хотя бы при одном значении оцениваемого параметра (см. Решающая функция; полный класс). Лит.: [1] Закс Ш., Теория статистических выводов, пер. с англ., М., 1975. И. Н. Володин. СТАТИСТИЧЕСКАЯ ПРОЕКЦИЯ ПЛАНА (projection of a design) - см. Последовательное планирование эксперимента. СТАТИСТИЧЕСКАЯ ПРОЦЕДУРА (statistical procedure) - процедура получения статистических выводов на основе результатов наблюдений. В современной математич. статистике статистич. выводы получают [в рамках теории статистич. решающих правил, разработанной А. Вальдом (A. Wald)] на основе решающего правила, отображающего пространство реализаций наблюдаемого случайного элемента в пространство возможных решений. Основной задачей математич. статистики является построение такой С. п., к-рая приводит к выбору оптимального в каком-то определенном смысле решающего правила. Лит.: [1J Леман Э., Проверка статистических гипотез, пер. с англ., 2 изд., М., 1979. М. С. Никулин. СТАТИСТИЧЕСКАЯ ПРОЦЕДУРА; допустимость (admissibility of a statistical procedure) - см. Допустимость статистической процедуры. СТАТИСТИЧЕСКАЯ ПРОЦЕДУРА; инвариантность (invariance of a statistical procedure) - см. Инвариантность статистической процедуры. СТАТИСТИЧЕСКАЯ ПРОЦЕДУРА; минимаксность (minimaxity of a statistical procedure) - см. Минимаксность статистической процедуры. СТАТИСТИЧЕСКАЯ ПРОЦЕДУРА; несмещенность (unbiasedness of a statistical procedure) - см. Несмещенность статистической процедуры. СТАТИСТИЧЕСКАЯ ПРОЦЕДУРА; оптимальность (optimality of a statistical procedure) - см. Оптимальность статистической процедуры. СТАТИСТИЧЕСКАЯ ПРОЦЕДУРА; полный класс (complete class of a statistical procedures) в данном множестве статистических процедур- совокупность статистических процедур (из данного множества), рассмотрением к-рых достаточно ограничиться в статистической проблеме без потери качества принимаемых решений. В общем случае в теории статистич. решений полный класс С. п. образует совокупность С. п., используемых для принятия решений о неизвестном параметре 8 € 0, характеризующем исследуемый объект и обладающих свойством: для произвольной С. п. найдется С. п. из полного класса С. п., имеющая при всех значениях 8 € 0 лучшие показатели качества (из заданного для данной статистич. проблемы набора показателей качества рассматриваемых С. п.); напр., средний объем выборки при последовательной схеме наблюдений, функция риска решающей функции и т. п. Однако большинство результатов о полном классе С. п. относится к более узкому понятию - полному классу решающих функций. Если в данной статистич. проблеме понятия С. п. и решающей функции совпадают, то совпадают и понятия полного класса решающих функций и полного класса С. п. Говорят, что решающая функция 8j доминирует 82, если R(Q, 8t) ^R(Q, 82) Для всех 8 е 0; если при этом для нек-рого значения 80 е 0 имеет место строгое неравенство, то говорят, что решающая функция 8t строго доминирует решающей функции 82[здесь /?(8, 8) - функция риска решающей функции 8]. Пусть К - нек-рый класс решающих функций. Подкласс JC* с: JC называется полным (существенно полным) в классе К, если для любой решающей функции be К найдется строго доминирующая (доминирующая) ее решающая функция 8*€/С*. Полный (существенно полный) класс JC* называется минимальным полным (существенно полным), если никакое собственное подмножество К* не является полным (существенно полным) классом. Если в качестве класса К выступает класс всех решающих функций, то слова «в классе всех решающих функций» в данных выше определениях обычно опускают. Как правило, переход к рассмотрению решающих функций только из полного класса решающих функций существенно упрощает изучаемую статистич. проблему, так как позволяет существенно сократить объем исходных данных без потери содержащейся в них информации и свести проблему отыскания оптимальной решающей функции в классе всех решающих функций к поиску такой процедуры лишь внутри полного класса (если процедуры из полного класса параметризованы нек-рым параметром, возможно бесконечномерным, то исходная проблема сводится к задаче оптимизации риска по этому параметру). Иногда процедуры из полного класса обладают нек-рыми свойствами регулярности, что упрощает анализ их свойств. Поэтому проблема нахождения и эффективного описания полного класса решающих функций является одной из основных в теории статистич. решений и, в частности, включает в себя отыскание равномерно лучшей решающей функции СТАТИСТИЧЕСКАЯ 653
(если таковая существует): в этом случае минимальный полный класс С. п. состоит из единственной решающей функции. При весьма общих условиях минимальный существенно полный класс решающих функций образует множество допустимых решающих функций. Наиболее важным общим результатом в изучаемой проблеме является установленный А. Вальдом [ 1 ] результат о полноте класса бейесовских решающих функций: совокупность бейесовских решающих функций и их пределов (в нек-рой естественной топологии слабой сходимости решающих функций), то есть обобщенных решающих функций, образует существенно полный класс. Тем самым в широком классе задач математич. статистики оптимальные процедуры достаточно искать в классе обобщенных бейесовских решающих функций. Этот результат часто используется и при небейесовском подходе, и априорные распределения выступают тогда в качестве величины, параметризующей решающую функцию из полного класса решающих функций. Достаточно общие результаты о полном классе решающих функций известны для широкого класса задач математич. статистики (теории оценивания, проверки статистич. гипотез и др.), сформулированных для семейств распределений, обладающих теми или иными свойствами монотонности (см., напр., Монотонное отношение правдоподобия),- здесь существенно полный класс решающих функций образует совокупность так наз. монотонных процедур (см. [4]-[6]). Другая общая характеристика полного класса решающих функций связана с понятием достаточности: во многих статистич. проблемах (теории оценивания, проверки статистич. гипотез и др.) можно ограничиться процедурами (соответственно оценками, критериями и др.), зависящими от выборки только через значение построенной по выборке достаточной статистики. В конкретных разделах математич. статистики известны и другие результаты о полных классах процедур для рассматриваемых там задач. В асимптотич. задачах математич. статистики, в к-рых объем выборки п или время наблюдения Т неограниченно возрастают, в качестве характеристик эффективности С. п. выступают предельные (при п—>°° или Т—><*>) значения соответствующих характеристик, вычисленных для конечных п или 7\ и естественным образом вводится понятие асимптотически полного класса С. п. Напр., соотношение R(Q, 81)^/?(8, 82), фигурирующее в неасимптотич. определении полного класса решающих функций, заменяется на #(8, 81)^/?(8, 82) + о(1) при п -> ©о (или Т -> ©о). Лит.: [1] Вальд А., в сб.: Позиционные игры, М., 1967, с. 300-522; [2J Le Cam L., «Ann. Math. Statist.*., 1955, v. 26, № 1, p. 69-81; [3] Блекуэлл Д., Г и рш и к М. А., Теория игр и статистических решений, пер. с англ., М., 1958; [4] Karlin S., Rubin H., ♦ Ann. Math. Statist.», 1956, v. 27, № 2, p. 272-99; [5] Brown L., Cohen A., Strawderman W., «Ann. Statist.*., 1976, v. 4, № 4, p. 712-22; [6] Ruse hen dor f L., «Math. Operationsforsch. und Statist. Ser. Statist.*., 1983, Bd 14, Mb 2, S. 243-50. а. В. Бернштейн. СТАТИСТИЧЕСКАЯ ПРОЦЕДУРА; робастность (robustness of a statistical procedure) - см. Робастность статистической процедуры. СТАТИСТИЧЕСКАЯ ПРОЦЕДУРА; устойчивость (stability of a statistical procedure) - см. Устойчивость статистической процедуры. СТАТИСТИЧЕСКАЯ ПРОЦЕДУРА; эффективность (efficiency of a statistical procedure) - см. Эффективность статистической процедуры. СТАТИСТИЧЕСКАЯ СТРУКТУРА (statistical structure) наблюдаемого беспорядочно меняющегося поля 654 СТАТИСТИЧЕСКАЯ i(f,r) или временного ряда х(t) - совокупность cma- тистических характеристик той случайной функции X(t, r) [соответственно X(t)], реализацией к-рой можно считать данное поле или ряд. Термин «С. с.» широко употребляется во многих прикладных исследованиях, особенно в метеорологии, океанологии и других разделах геофизики, имеющих дело с нерегулярно меняющимися наблюдениями и использующих статистич. подход к интерпретации и обработке. Наиболее важные элементы С. с- первые две моментные функции EX(t, r) = mtt, r) и EX(t\, rx)X(t2, r2) = B(t{> rt> t2, r2) или структурная функция D(tu ru t2> r2) = E[X(t2, r2)-X(tv rt)]2. В случае многомерного поля X = (Х1, ..., Хп) среднее значение т - векторная функция своих аргументов, а второй момент В - матричная функция. Для поля X(t, r), зависящего от пространственных координат г и времени t, характеристики m(t, г) и Bit у г) описывают общую пространственно-временную С. с. Частные случаи ~ пространственная С. с. (отвечающая значениям поля в фиксированный момент времени ) и временная С. с. (отвечающая временному ходу поля в фиксированной точке). Важным для приложений является тот частный случай, когда случайное поле X(t, r) статистически однородно по пространству и стационарно по времени. Тогда наряду с корреляционной функцией B(t2-tu г2~Г]) и структурной функцией D(t2-tx, r2 - г{) С. с. описывается также и соответствующей спектральной плотностью (спектром). На практике бывают известны лишь полученные из наблюдений оценки элементов С. с, неизбежно содержащие погрешности, связанные с ограниченностью используемой выборки и ошибками наблюдений. Изучаются величины этих погрешностей и способы уменьшения их влияния. Для повышения точности оценивания и удобства дальнейшего изучения и использования перечисленные выше функции иногда аппроксимируют простыми аналитич. выражениями, зависящими от небольшого числа параметров. Лит.: [1J ГандинЛ.С, Каган Р. Л., Статистические методы интерпретации метеорологических данных, Л., 1976; [21 Яглом A.M., Корреляционная теория стационарных случайных функций, Л., 1981. М. И. Фортус. СТАТИСТИЧЕСКАЯ СУММА (normalizing constant/factor) - нормирующий множитель, входящий в определение Гиббса распределения. В случае распределения Гиббса с дискретным параметром t € Л и значениями поля из пространства с мерой (X, &, ц) С. с. ZA определяется как интеграл ZA = jx,exp{-H(xt> ^АЩ(ДцЦ), где Н - гамильтониан соответствующего распределения Гиббса. В случае когда X - конечно или счетно и ц - считывающая мера, интеграл сводится, конечно, к сумме, с чем и связано происхождение термина. Для распределения Гиббса системы из N частиц в сосуде Л с IR С. с. определяется как интеграл z^A = JA;vexp{-tfG:t, ..., xN)}dxx...dxNt где Н - соответствующий гамильтониан. Аналогично определяются С. с. гиббеовского распределения в большом канонич. и микроканонич. ансамблях. Важное место, к-рое занимает Сев теории гиббеовских случайных полей, объясняется тем, что через нее выражается свободная энергия поля, через к-рую в свою очередь можно выразить конечномерные распределения гиббеовского поля. Лит.: [11 Рюэль Д., Статистическая механика. Строгие результаты, пер. с англ., М., 1971. Р. Л. Добрушин. СТАТИСТИЧЕСКАЯ ТЕОРИЯ ГРУПП (statistical group theory) - исследования групп с применением методов теории
вероятностей. Наиболее полно с этой точки зрения исследова- I ны симметрич. группы конечного порядка, в основном в сериях работ П. Эрдеша (P. Erdos), П. Турана (P. Turan), М. Са- лаи (М. Szalay). В них получены асимптотич. оценки распределений порядков элементов группы, оценивается количество делителей этих порядков и количество классов смежности группы, исследовано распределение характеров представлений групп. Доказана центральная предельная теорема (см. [1]): пусть п\ - порядок симметрич. группы, Oig) - порядок ее элемента д\ тогда имеет место соотношение f l»gO(g>-'°g2»/2 1 _j_ » e.v2l2dv I iog3/2«V3/3 J Ш3™ Лит.: \\) Erdos P., Turan P., «Acta Math. Acad. Sci. Hung.», 1967, t 18, № 3-4, p. 309-20; [2] Szalay M., Turan P., там же, 1978, t. 32, № 1-2, p. 129-55. Г.А. Мисявичюс. СТАТИСТИЧЕСКАЯ УСТОЙЧИВОСТЬ ЧАСТОТ (statist! cal stability of frequencies) - см. Вероятностей теория. СТАТИСТИЧЕСКАЯ ХАРАКТЕРИСТИКА (statistical characteristic) - термин, к-рый использовался в период становления терминологии математической статистики при получении статистических выводов по выборке применительно к реализациям простейших статистик, таких, как среднее, мода, медиана, среднеквадратическое отклонение, коэффициент вариации и др., построенных по эмпирическому распределению. М. С. Никулин. СТАТИСТИЧЕСКАЯ ЭРГОДИЧЕСКАЯ ТЕОРЕМА (mean ergodic theorem) - см. Эргодические теоремы. СТАТИСТИЧЕСКИЕ ЗАДАЧИ на группах и одно родных пространствах (statistical problems on groups and homogeneous spaces) - задачи математической статистики для инвариантных совокупностей на группе или однородном пространстве группы, методы решений к-рых опираются на алгебраические свойства совокупностей, а также эквивалентные им по постановке и методам решения. Статистич. структура (Ж,»./, 3) называется G-инвариантной, если всякий элемент geG определяет ^-измеримое отображение lej и индуцирует отображение д* множества вероятностных мер i/на себя. Отображение д часто называют левым (правым) сдвигом; результат левого сдвига точки х обозначают дх. Инвариантное пространство Л можно представить в виде объединения непересекающихся подмножеств {дх, geG} - орбит; если Ж состоит из одной орбиты, то оно называется однородным пространством. Напр., всякая группа является однородным пространством самой себя. Множество G* преобразований д* также образует группу. Ее можно считать группой преобразований параметрич. множества, если £Р= {Ре, QeQ} - параметрич. семейство мер. Говорят, что семейство ^зависит от параметра сдвига, если это параметрич. семейство мер Ре: Ре(Л) = Р(0~ Л), Ae^t 0 £ CI = G, где Р - нек-рая фиксированная вероятностная мера. Генеральная совокупность, представленная случайным элементом Ху называется инвариантной, если она порождает инвариантную статистич. структуру. Специфика статистич. задач для инвариантных совокупностей обычно отражается в требованиях к решающим правилам и функции потерь. А именно, если d - правильное решение при значении параметра 0, a gd - правильное решение для параметра g*Q, где д - нек-рое преобразование в пространстве решений D, индуцированное преобразованием д, то рассматривают эквивариантные решающие правила d(x) :d(gx) = gd(x) и инвариантные функции потерь r:r(gd, g*Q) = r(d, 0). В этом случае функция риска R(d, 0) = Еег(б/(Х), 0) постоянна на орбитах G* в(1. Если Q, однородно, то функция риска постоянна при всех 0 е Q I и в этом случае часто удается найти оптимальное решающее правило. В задачах проверки гипотезы Я0:0 е C1Q против альтернативы Я1:0 е Qj с инвариантными относительно G* множествами QQ и Qj разумно ограничиться лишь инвариантными критериями d :d(gx) = d(x) для всех д е G. Известно, что при нек-рых дополнительных ограничениях существует инвариантный критерий, к-рый является минимаксным в классе всех критериев. Метод нахождения его связан с сужением отношения правдоподобия на а-алгебру, порожденную максимальным инвариантом (см. [1]). Максимальный инвариант - это инвариантная статистика, то есть отображение Ь:Ж-> Т со свойством t(gx) - t(x), х&Лу д € G, принимающая различные значения на разных орбитах. С помощью максимального инварианта осуществляется не только редукция выборки, но и редукция параметрич. пространства, так как риск инвариантного решающего правила есть функция максимального инварианта в пространстве параметров. Другой способ редукции выборки связан с рассмотрением достаточных статистик. Изучалось также соотношение между понятиями инвариантности и достаточности (см. [2]-[4]). Наиболее хорошо изученной является задача оценивания параметра сдвига. В этом случае D — Q. — G и требование эквивариантности оценки d(X) сводится к равенству d(gx) = gd(x). Одним из первых примеров здесь являются оценки Питмена для параметров масштаба и сдвига распределений в ГС (см. [5], [6]). В случае абелевой группы G в качестве функции потерь предлагалось брать r(d, 0) = = |xW)-x(6)l , где х~ нек-рый фиксированный характер группы G. При нек-рых естественных ограничениях показано, что эквивариантная оценка на основе повторной выборки оптимальна тогда и только тогда, когда она является обобщенно бейесовской относительно инвариантной меры на G. Необходимым и достаточным условием существования оптимальной оценки относительно семейства всех функций потерь, когда х пробегает группу характеров, является условие сильной симметрии плотности распределения f выборки X по инвариантной мере: множество {x:f(x-Q) =/Ч* + 0), 0gG} имеет только одну общую точку с каждой орбитой в Ж (см. [7]). В случае неабелевых групп существенные результаты получены только для специальных групп. Напр., решена задача оценивания параметра сдвига из группы 50(ти) для инвариантных совокупностей на сфере, SO(m) и ГСт, рассмотрены вопросы устойчивости и непрерывности статистич. моделей на SO(m) (см. [8]). Из других задач следует отметить задачу эквивариантной оценки плотности распределения. Показано, что оптимальная эквивариантная оценка плотности с параметром сдвига при нек-рых условиях есть также обобщенно бейесовская относительно инвариантной меры на G (см. [9], [10]). Лит.: [\] Stein С, «Techn. Rept. Nat. Aeron and Space Admin.», 1956, J* 6; [2] Hall W.J., WijsmanR.A., Ghosh J.K., «Ann. Math. Statist.», 1965, v. 36, p. 575-614; [3] Максимов В. М., «Теория вероятн. и ее примен.», 1967, т. 12, в. 2, с. 307-21; [4) Сапожников П. Н., «Матем. заметки», 1970, т. 7, N° 6, с. 707-15; [5] Pitman E.J.G., «Biometrika», 1939, v. 30, p. 391-421; [6] Каган A.M., «Тр. Матем. ин-та АН СССР», 1968, т. 104, с. 19-87; [7] РухинА.Л., там же, 1970, т. 111, с. 52-109; [81 Никулин В. Н., в сб.: Проблемы устойчивости стохастических моделей. Труды семинара, М., 1984, с. 94-112; [9] Wcrtz W., «Met- rika», 1979, v. 26, с. 157-67; [10J Кондаков В. М., Сапожников П. Н., «Статистические методы оценивания и проверки гипотез», 1988, Jsfc 6, с. 25-30. я. Я. Сапожников. СТАТИСТИЧЕСКИЕ ЗАДАЧИ теории случайных процессов (statistical problems of theory of random pro- СТАТИСТИЧЕСКИЕ 655
cesses) - раздел математической статистики, посвященный статистическим выводам на основе наблюдений, представи- мых в виде случайного процесса. В самой общей постановке наблюдаются значения случайной функции X(t) для t e Г и на основании этих наблюдений надлежит сделать статистич. выводы о нек-рых характеристиках случайного процесса X(t). При столь широком определении сюда формально включается и вся классич. статистика независимых наблюдений. На самом деле под статистикой случайных процессов понимают только статистику зависимых наблюдений, исключая, напр., статистич. анализ большого числа независимых реализаций случайного процесса. При этом основания статистич. теории, основные постановки задач (статистическое оценивание, статистических гипотез проверка), основные понятия (достаточность, несмещенность, состоятельность и т. д.) - те же, что и в классич. теории. Однако при решении конкретных задач возникают порой значительные трудности и явления нового порядка. Частично эти трудности связаны с наличием зависимости, более сложной структуры наблюдаемого процесса, частично, в случае наблюдений с непрерывным временем,- с необходимостью рассматривать распределения в бесконечномерных пространствах. На самом деле при решении С. з. теории случайных процессов существенно используется структура наблюдаемого процесса и в соответствии с классификацией случайных процессов рассматривают С. з. гауссовских, марковских, стационарных, ветвящихся, диффузионных и т. д. процессов. При этом наиболее далеко продвинута статистич. теория стационарных процессов (анализ временных рядов). Необходимость статистич. анализа случайных процессов возникла в 19 в.: анализ метеорологич., экономич. рядов, исследование циклич. процессов (колебания цен, солнечные пятна). В настоящее время круг задач, связанных со статистич. анализом случайных процессов, чрезвычайно широк. Достаточно упомянуть статистич. анализ случайных шумов, вибраций, турбулентных явлений, морского волнения, кардиограмм, энцефалограмм и т.д. Теоретич. аспекты проблем выделения сигнала на фоне шума в значительной степени являются С. з. теории случайных процессов. В дальнейшем предполагается, что наблюдается отрезок 0<£<Г случайного процесса Х(0, причем параметр t пробегает либо весь отрезок [О, Г], либо целые числа этого отрезка. Обычно в С. з. о распределении Рг случайного процесса {XU), O^t^T} известно лишь, что оно принадлежит нек-рому семейству {Р } распределений. Это семейство всегда можно записать в параметрич. форме. Пример 1. Наблюдаемый процесс X(t) представляет собой либо сумму неслучайной функции s(t) («сигнал») и случайной функции Y(t) («шум»), либо одну случайную функцию Y(t). Надлежит проверить гипотезу HQ:X(t) = = s(t) + Y(t) против альтернативы H^:X(t)=Y(t) (задача обнаружения сигнала в шуме). Это - пример задачи проверки статистич. гипотез. Пример 2. Наблюдаемый процесс X(t) = s(t) + Y(t), где s(t) - неизвестная наблюдателю неслучайная функция (сигнал), a Y(t) - случайный процесс (шум). Надлежит оценить функцию 5 или ее значение s(tQ) в заданной точке tQ. Сходным образом можно предположить, что X(t) -s(t\ 6) + У(0, где 5 - известная функция, зависящая от неизвестного параметра 6, к-рый и нужно оценить по наблюдению X(t) (задача выделения сигнала на фоне шума). Это - примеры задач оценивания. Отношение правдоподобия для случайных процессов. В С. з. отношение правдоподобия и функция 656 СТАТИСТИЧЕСКИЕ правдоподобия играют большую роль (см. Неймана - Пирсона лемма, Статистических гипотез проверка). Отношением правдоподобия двух распределений Ри и Рс называют плотность р(Х(); и, v) = р(Х()) = ^г«(•)). Функцией правдоподобия называют функцию d?T L(e) = -~4xO), dM где \i есть а-конечная мера, относительно к-рой абсолютно непрерывны все меры Ре. В дискретном случае, когда t пробегает целые точки отрезка [О, Т] и Г<«, отношение правдоподобия, напр., всегда существует, если распределения Ри и Pv имеют положительные плотности распределения, совпадая с отношением этих плотностей. Если t пробегает весь отрезок [О, Г], то возможны случаи, когда меры Р^ и Р^ не абсолютно непрерывны относительно Друг друга; более того, встречаются ситуации, когда меры Р^ и Pj взаимно сингулярны, то есть для нек-рого множества А в пространстве реализаций X(t) Р^{ХеЛ} = 0, Р^{ХеЛ}=1. В этом случае р(Х; и, v) не существует. Сингулярность мер Ре приводит к важным и в какой-то степени парадоксальным статистич. следствиям, позволяя делать безошибочные выводы о параметре в. Пусть, напр., 0={О, 1}; сингулярность мер Pq , Pt означает, что с помощью критерия: «принять Я0, если ХёА, отвергнуть #0, если ХеА>, гипотезы #0:6 = 0 и #1:6= 1 разделяются безошибочно. Наличие таких совершенных критериев часто указывает, что С. з. поставлена не совсем удачно и из нее исключены какие-то существенные случайные возмущения. Пример 3. Пусть Х(0 = 6+ Y(t), где Y(t) - стационарный эргодич. процесс с нулевым средним, в - действительный параметр. Пусть реализации Y(t) почти наверное аналитич- ны в полосе, содержащей действительную ось. По эргодич, теореме lim ^ \lx(t)dt = Q у_> м J •'U и все меры Р^° взаимно сингулярны. Так как аналитич. функция X(t) полностью определяется своими значениями в окрестности нуля, параметр 6 оценивается безошибочно по наблюдениям [X(t), O^t^T} для любого Г>0. Вычисление отношения правдоподобия в тех случаях, когда оно существует,- трудная задача. Вычисления часто основаны на предельном соотношении р(Х(); и, v) = lim Pu(X(t<) X(tn)) Pv(X(tx) X(tn))' где pw pv - плотности распределения вектора (X(t*) X(tn)), a {tx, t2, ...} - плотное в [О, Г] множество. Исследование правой части последнего равенства полезно и при доказательстве сингулярности Ри, Pv. Пример 4. Пусть либо X(t) = w(t), где w(t) - винеров- ский процесс (гипотеза Я0), либо X(t) = m(t) + w(t), m- неслучайная функция (гипотеза Н*). Меры Р0, Pt взаимно абсолютно непрерывны, если m' e L (0, Г), и взаимно сингулярны, если т' &L (0, Т). Отношение правдоподобия ИР ( л т т 1 -^гШ = exp|-iJo [m'(t)]2dt + lo m'(t)dX(t)\.
Пример 5. Пусть X(t) = 0 + Y(t), где 8 - действительный параметр, a Y(t) - стационарный марковский гауссовский процесс с нулевым средним и известной корреляционной функцией r(t)-e, а>0. Меры Р0 взаимно абсолютно непрерывны с функцией правдоподобия ^4-(х) = ехР{-1ех(о) + 1ех(г) + dP0° 12 2 +±Qafx(t)dt-±Q2 ~-!-в2аг1 2 Jo 2 4 J В частности, - достаточная статистика для семейства Ре . Линейные задачи статистики случайных процессов. Пусть наблюдается функция х(о=5;*а1в/фУа) + у(«, о где Y(t) - случайный процесс с нулевым средним и известной корреляционной функцией r(t,s), фу- известные неслучайные функции, 0 = (в1 Qk) - неизвестный параметр (0у - коэффициенты регрессии), параметрич. множество 0 - подпространство В? . Линейные оценки для 0. суть оценки вида ]£ CjX(tj) или их пределы в среднем квадратичном. Задача отыскания оптимальных в среднем квадратичном несмещенных линейных оценок сводится к решению линейных алгебра- ич. или линейных интегральных уравнений, определяемых г. Именно, такая оптимальная оценка 0 определяется уравнениями Ее(0уУ) = О для любой величины У вида У = ]£б/Х(£у), ]£ bjtyAtj) = 0. В ряде случаев оценки 0, полученные по методу наименьших квадратов асимптотически (при Г-»«>), не хуже оптимальных линейных оценок. Оценки метода наименьших квадратов вычисляются проще и не зависят от г. Пример 6. В условиях примера 5 пусть fe=l, q>t(£) = l. Оптимальная несмещенная линейная оценка имеет вид 0=:—Ц(Х(0) + Х(Г) + ЛпГХ(г№). 2 + аТ J0 Оценка т в*= Г Jo X{t)dt имеет асимптотически ту же дисперсию. Статистические задачи гауссовских процессов. Пусть процесс {Х(0, O^t^T, Р0} - гауссовский при всех 0 е 0. Для гауссовских процессов имеет место альтернатива: любые две меры Рм, Pt> либо взаимно абсолютно непрерывны, либо сингулярны. Так как гауссовское распределение Р^ полностью определяется средним значением mQ(t) = = EQX(t) и корреляционной функцией rQ(s, £) = E0X(s)X(O, отношение правдоподобия dPu/dPv выражается через mu, mv, гц> rv сложным образом. Относительно прост тот случай, когда ru = rv = r,r - непрерывная функция. Именно, пусть 0 = {0, 1}, r0= r\ ~ r* ^j и Ф/ ~ собственные значения и соответствующие им нормированные в L (0, Г) собственные функции интегрального уравнения Xq>(s)=\lr(s, t)q>(t)dtt средние m0(£), щМ - непрерывные функции, и пусть ««,-£" |И,(*)ФУ(0А. Меры Р0, Pf абсолютно непрерывны в том и только в том случае, если i;_1<*o>-*«>2v;,<-- При этом Последнее равенство можно использовать для построения критерия для проверки гипотезы Я0: тп = ти0 против альтернативы Я1:ш = ш1 в предположении, что функция г известна наблюдателю. Статистические задачи стационарных процессов. Пусть наблюдение Х(0 - стационарный процесс со средним тп и корреляционной функцией r(t)\ f(X) и F(X) - его спектральная плотность и спектральная функция. Основные задачи статистики стационарных процессов относятся к проверке гипотез или оцениванию, касающихся тех или иных характеристик w, r, f, F. В случае эргодич. процесса X(t) состоятельными оценками (при Г-»«>) для тп и r(t) служат соответственно тп* = -1 \TX(t)dt, r* ft) = 1 \T~'XU + s)X(s)ds. т к т Jo Задачу оценки тп при известном г часто рассматривают в рамках линейных задач. К этому последнему кругу задач относятся и более общие задачи оценки коэффициентов регрессии по наблюдениям вида (*) со стационарным Y(t). Пусть Х(0 имеет нулевое среднее и спектральную плотность f(X; 0), зависящую от конечномерного параметра 0е 0. Если процесс X(t) - гауссовский, можно указать формулы для отношения правдоподобия dPJdP^ (если последнее существует), к-рые в ряде случаев позволяют найти оценки максимального правдоподобия или «хорошие» (при больших Г) приближения к ним. В достаточно широких предположениях эти оценки асимптотически нормальны (0, сЪ/^Т) и асимптотически эффективны. Пример 7. Пусть X(t) - стационарный гауссовский процесс с непрерывным временем и рациональной спектральной плотностью f(X)=\Q(XVP{\)\\ Р, Q - многочлены. Меры Р0, Pt, отвечающие рациональным спектральным плотностям fQt f\, абсолютно непрерывны в том и только в том случае, если lim /ott)/fitt) = l. Параметром 0 здесь служит совокупность всех коэффициентов многочленов Р, Q. Пример 8. Важный класс стационарных гауссовских процессов образуют процессы авторегрессии X(t): Х(я)(О + 0яХ(л_1)(О + ...+01Х(О = е(О, где е(0 - гауссовский белый шум единичной интенсивности, 0=(0t, ..., 0П) - неизвестный параметр. В этом случае спектральная плотность /•а;0) = (2к)"1|Р(а)|"2, где P(z) = 0t + Q2z + ... + 0ягл_1 + zn. Функция правдоподобия ^(Х)"Ук(е°Яехр1 т -\ 2"-1 [tye)-x,-<e0)] £[х«<*)рл_1(х(е)- ме°»|. Здесь Х.;(6), Х.(6) суть квадратичные формы от в, зависящие от значений X '\t), /=1, 2 (я-1), в точках < = 0, Г; К(8) - определитель корреляционной матрицы вектора (Х(0),Х(,)(0) Х(в"о(0)). СТАТИСТИЧЕСКИЕ 657
Оценки максимального правдоподобия для параметра авторегрессии 8 асимптотически нормальны и асимптотически эффективны. Теми же свойствами обладает и решение 8^ приближенного уравнения правдоподобия 2Г' , Э^в) Г ГО 1^<П( А=о Эв; Jo [1/2, * = и. Важную роль при статистич. исследовании спектра стационарного процесса играет периодограмма 1Т(Х). Эта статистика определяется как /ГШ: /ГШ: 1 2кТ е ' Х(0 (время дискретно), ^ = 0 \Te-itXX(t)dt JO (время непрерывно). Периодограмма широко используется для построения различного рода оценок для f(X), F(X) и критериев для проверки гипотез об этих характеристиках. В широких предположениях статистики jlT(XWX)dX являются состоятельными оценками для jf(XWX)dX. В частности, у IT(X)dX служат оценкой для F(p) - F(a). Если последовательность ц>т(Х; Xq) сходится подходящим образом к 5-функции 6(Х-Х0), то интегралы J qT(X; Xo)IT(X)dX будут состоятельными оценками для /XXq). Часто в качестве функций <pj(X; Xq) выбирают функции вида ат\у(ат(Х-Хо)), ат-><*>. Если X(t) ~ процесс с дискретным временем, эти оценки можно записать в виде e-ttKr*U)cTU\ 2л^ = -7ЧГ где эмпирическая корреляционная функция г*(0=тХ1=оЖм + ох(м)' а неслучайные коэффициенты cT(t) определяются выбором у, ат. Последний выбор в свою очередь зависит от априорных сведений о f(X). Аналогичное представление имеет место и для процессов с непрерывным временем. Иногда к задачам статистич. анализа стационарных процессов относят и задачи экстраполяции, интерполяции и фильтрации стационарных процессов. Статистические задачи марковских процессов. Пусть наблюдения Xq, Xt, ..., Хт связаны в однородную цепь Маркова. При достаточно широких предположениях функция правдоподобия (Х)=р0(Х0; Q)p(Xt\X0; Q)...p(XT\XT^; 0), где pQ> p - начальная и переходная плотности распределения. Это выражение сходно с функцией правдоподобия для последовательности независимых наблюдений, и при соблюдении условий регулярности (гладкость по 0 е 0 cz [R ) можно построить теорию оценивания и проверки гипотез, аналогичную соответствующей теории для независимых наблюдений. Более сложная ситуация возникает, если X(t) ~ марковский процесс с непрерывным временем. Пусть X(t) - однородный марковский процесс с конечным числом состояний N и дифференцируемыми вероятностями перехода р{Xt). Матрица вероятностей перехода определяется матрицей Q=|qrf;||, qij-p[f&), Я% - ~ Ягу Пусть в начальный момент Х(0) = t0 независимо от Q. Выбирая какую-нибудь матрицу Q0 находят ^Л-Л-и dPQo о „о хехр k k 'К -41 •<)}• JvJv+\ 658 СТАТИСТИЧЕСКИЕ Здесь статистики п(х), tv(x), jv(x) определяются следующим образом: п - это число скачков X(t) на интервале [0, Т), Tv - момент v-ro скачка, £v = Tv+t - Tv, zv = X(tv). Из указанного выражения выводятся оценки максимального правдоподобия для параметров qi::qi: = mij/\Li, где m(j - число переходон из i в j на интервале [0, Т), а щ- - время, проведенное процессом X(t) в состоянии х. Пример 9. Пусть Х(0 - рождения и гибели процесс с постоянными интенсивностями размножения X и гибели \х. Это значит, что q{ t+1 = iX, q{ M = i\i, qi}• = 1 - i (X + \i), q^ - 0, если It-/I > 1. В этом примере число состояний бесконечно. Пусть Х(0) = 1. Отношение правдоподобия 00 = ^) expj-a + u-Xo-u,,)^7"^)*}. Здесь В - общее число рождений (скачков размера + 1), D - гибелей (скачков размера - 1). Оценки максимума правдоподобия для X и |i: X* = -I [TX(s)ds, \iT= — {TX(s)ds. 7 В Jo ' Dk Пусть Х(0 - диффузионный процесс с коэффициентом сноса а и коэффициентом диффузии ft, так что X(t) удовлетворяет следующему стохастич. дифференциальному уравнению: dX(t) = a(t, X(t))dt + b(tt X(t))dw(t), Х(0) = Х0, где w(t) - винеровский процесс. Тогда при определенных ограничениях ^(Х) = expj- \T(b(t, X(t))-4aU, X(t))- PL I Jo -aQ(t, X(t))))dX(t) + ±jTQ№, X(t))-4a(t, X(t))- -aQ(t,X(t))2))dt\ (здесь a0 ~ фиксированный коэффициент). Пример 10. Пусть dX(t) = a(ttX(t>t Q)dt + dw, a - известная функция, 0 - неизвестный действительный параметр. Если обозначить через |i меру Винера, то функция правдоподобия лрТ ( т т ^ —ЧХ) = ехр f a(t,XU);®dx-±\ a2(t, X(t);B)di\} d\i [JO 2 JO J и при условиях регулярности выполняется неравенство Крамера - Р а о: для оценки т со смещением Д(0) = Еет-0 EJt-er»- (■•«Г ■ + д2(в). Если зависимость от 0 линейная, оценки максимального правдоподобия Q*T = fQa(t, X(t))dt(jTQa2(t, X(t))dt\ . Лит.: [ 11 Гренандер У., Случайные процессы и статистические выводы, пер. с англ., М., 1961; [21 Хеннан Э., Анализ временных рядов, пер. с англ., М., 1964; [31 Grenander U., Rosenblatt М., Statistical analysis of stationary time scries, Stockh., 1956; [4] Grenander U., Abstract inference, N. Y. - [a. o.], 1981; [5| Po-
.Я1Н0 1. Ю. А., Гауссовские бесконечномерные распределения, М., 1968; [б) Ибрагимов И. А., Розанов Ю. А., Гауссовские случайные процессы, М., 1970; [7] Бриллинджер Д., Временные ряды, пер. с англ., М., 1980; [8] Billings ley P., Statistical inference for Markov processes, Chi., 1961; [91 Липцер Р. III., Ширяев A. H., Статистика случайных процессов, М., 1974; [10) Яг- лом A.M., Корреляционная теория стационарных случайных функций, Л , 198!; [ 111 Андерсон Т., Стагистический анализ временных рядов, пер. с англ., М., 1976. И. Л. Ибрагимов. СТАТИСТИЧЕСКИЙ АНАЛИЗ случайных полей (sta tistical analysis of random fields) - раздел математической статистики, посвященный статистическим выводам на основе данных, представленных в виде одной или нескольких реализаций случайного поля. В самой общей постановке наблюдается случайное поле X(t) на нек-рой области ДсЦ?", и по результатам наблюдения необходимо сделать статистич. выводы о характеристиках случайного поля (напр., оценить неизвестное среднее поля, корреляционную функцию, проверить определенные статистич. гипотезы о распределении случайного поля). С. а. случайных полей находится в состоянии интенсивного развития. Значительная часть имеющихся в настоящее время результатов касается однородных, однородных и изотропных или изотропных случайных полей (см. [1]-[3]). Задачи С. а. случайных полей возникают в теории автоматич. регулирования, статистич. радиофизике, статистич. оптике, метеорологии, статистич. гидромеханике, геологии, теории распознавания образов, теории шероховатости поверхностей гидролокации (см., напр., [3]-[6]). Оценивание коэффициентов регрессии и неизвестного среднего случайного поля. Пусть на области А наблюдается случайное поле. A'(t)=XLe^'(t)+y(0> где <72< i) - известные, неслучайные функции, 8; - неизвестные параметры, Y(t) - случайное поле с ЕУ(О = 0, и необходимо оценить векторный параметр 8 = (8f, .,,, 8^). Сформулированная задача называется задачей оценки коэффициентов линейной регрессии случайного поля; она включает в себя в качестве частного случая (q~\t д\(0 = 1) задачу оценивания неизвестного среднего однородного случайного поля. Важный класс оценок составляют так наз. оценки метода наименьших квадратов, то есть оценки 8Д=(61Д, ..., 8,/Д) параметра 8 = (8t, ..., 8^), минимизирующие выражение Задача вычисления 8Д сводится к решению системы линейных уравнений и при широких предположениях оценка 8Д находится в явном виде. В частности, оценка 8Д неизвестного среднего ((7=1, g\{t) s 1) однородного случайного поля имеет вид где Ы - объем (площадь) области Л. Оценки метода наименьших квадратов являются несмещенными; их вычисление не требует знания никаких других характеристик случайного поля. Часто предполагают, что случайное поле X(t) наблюдается на системе {Л} областей, расширяющихся определенным образом к бесконечности. В [2] указаны условия, при выполнении к-рых оценки метода наименьших квадратов являются состоятельными и асимптотически нормальными. Там же исследованы свойства оценок метода наименьших квадратов в случае нелинейной регрессии, а также подробно изучены так наз. оценки метода наименьших модулей. Другой важный класс оценок параметров линейной регрессии - линейные (то есть линейно выражающиеся через результаты наблюдений) несмещенные оценки с минимальной дисперсией. Задача отыскания таких оценок сводится к решению линейных алгебраич. или линейных интегральных уравнений, определяемых с помощью корреляционной функции. Для изотропных случайных полей, наблюдаемых на сфере, в [1] указаны в явном виде линейные несмещенные оценки с минимальной дисперсией коэффициентов линейной регрессии. В частности, оценка неизвестного среднего изотропного случайного поля, наблюдаемого на сфере Sn(r) = {.relR"; |jc| = г} радиуса г, имеет вид где тп{) - лебегова мера на сфере S„(l), Q)„ - площадь поверхности 5„(1), г^О, и eS„(l) ~ сферич. координаты точки t e П?я. Таким образом, в этом случае линейная несмещенная оценка с минимальной дисперсией 8 совпадает с оценкой 8 метода наименьших квадратов. Непараметрическое оценивание корреляционной функции. Пусть X(t)> te№n,- однородное в широком смысле случайное поле с нулевым средним и неизвестной корреляционной функцией B(h), h e П?я, Л- ограниченное борелевское множество в В?я, К - компакт, содержащий начало координат. В качестве оценок B{h) при he К по наблюдению реализации поля X(t) используются статистики B<t>(A) = JLf XU)X(t + h)dtt si2)w = AL, Lx(ox(t+h)dt, Д |Д| JAfl(A-A) Д-Л={*еИ?л; t = s-h,seA}, к-рые являются непараметрич. оценками корреляционной функции В(/г), аналогичными коррелограмме случайного процесса. Оценка Вд проще оценки Вд , однако для ее определения при he К необходимо использовать наблюдения поля X{i) на множестве Д + К = {£ elR"; f = 5 + u,seA, we К). Для определения оценки Вд* нужно использовать наблюдения поля XU) при t е А. В [2] исследованы свойства оценок В& , i=\, 2, когда система областей {Л} определенным образом расширяется к бесконечности. В частности, найдены условия, при к-рых Р (sup М°Ш- B(h)\ -> о) = 1, i = 1, 2, Ык\ Л | J а также для К = П[0, H\ = {t ell?"; 0^-^Я,-, i=l, ..., п) указаны условия, при к-рых меры, порожденные в пространстве С(К) непрерывных на К функций с равномерной топологией полями Х<°(Л) = \А\У2(в«\п)-В(п)Х h € П[0,Я], и полями X^Xh) = | Д|1/2[ Bf{h)-EB™{h)\ h € П[0,Я], слабо сходятся при Д-»<*> к нек-рой предельной гауссовой мере в С(К). Это позволяет строить асимптотич. доверительные интервалы для неизвестной корреляционной функции В(/г), ЛеП[0, Я], однородного случайного поля X{t), t еП?п. Аналогичный подход использован в [2] и для построения асимптотич. доверительных интервалов неизвестной корреляционной функции однородного изотропного случайного поля. Рассмотрена также задача непараметрич. оценивания корреляционной функции однородного случайного поля в случае, когда множество Л фиксировано, но зато экспериментатор СТАТИСТИЧЕСКИЙ 659
располагает многими независимыми реализациями поля X(t), £еД. Здесь оценками B(h) могут служить усредненные по числу наблюдаемых реализаций оценки В^ , i= 1, 2. Используя эти оценки, можно также построить асимптотически доверительные интервалы для неизвестной корреляционной функции B(h) поля X(t), когда число независимых реализаций неограниченно возрастает. Проверка статистических гипотез. Важным примером задачи о проверке статистич. гипотез является задача обнаружения сигнала на фоне шума, состоящая в следующем. Имеются две гипотезы: Я1 - наблюдаемое на Д случайное поле X(t)t к-рое имеет вид f(t)+ Y(t), где f(t) - неслучайная функция (сигнал), Y(t) - случайное поле; Я0 - наблюдаемое поле X(t) = Y(t). На основе результатов наблюдений надо принять одну из гипотез. При решении задач проверки статистич. гипотез важную роль играют понятия абсолютной непрерывности и сингулярности мер ц* (•) и Ц2 (•)> индуцируемых случайными полями X{(t) = f(t)+Y(t), X0(t) = Y(t), teA, и производная Радона - Никодима (отношение правдоподобия) d^/d^ этих мер. Условия абсолютной непрерывности и сингулярности мер, индуцированных гауссовыми однородными, а также однородными и изотропными случайными полями, указаны в [1]. Напр., если Y(t) - гауссовское изотропное случайное поле, 5(г) - сфера радиуса г с центром в начале координат, f(t) зависит только от г- \t\, то *L = exptof У(г,МЧ(^)-1-^-^(г)1, rf|io Wr)Js» 2 60(r)' J где bQ(r) ~ коэффициент, фигурирующий в спектральном разложении Y(t). Лит.: [1] Ядренко М.И., Спектральная теория случайных полей, К., 1980; [2] Леоненко Н. Н., Иванов А. В., Статистический анализ случайных полей, К., 1986; [3] Vanmarcke E., Random fields: analysis and synthesis, Camb.- L., 1983; [4] Grenander U., Abstract inference, N.Y., 1981; [5] Ripley В., Spatial statistics, N. Y., 1981; [6] Ma тер он Ж., Основы прикладной геостатистики, пер. с франц., М., 1968. Н. Н. Леоненко, М. И. Ядренко. СТАТИСТИЧЕСКИЙ АНАЛИЗ случайных процессов (statistic analysis of random processes) - раздел математической статистики и теории случайных процессов, посвященный исследованию и решению статистических задач теории случайных процессов. И. А. Ибрагимов. СТАТИСТИЧЕСКИЙ КОНТРОЛЬ КАЧЕСТВА (statistical quality control) - раздел математической статистики, методы к-рого используют в промышленности для определения фактически достигнутого уровня качества, тенденций его изменений и выработки обоснованных воздействий на технологический процесс. Качество массовой промышленной продукции характеризуется совокупностью свойств, пред ставимых в виде набора чисел или функций. Требуемый уровень качества определяется государственными стандартами (ГОСТ), в к-рых даны правила оценки фактич. уровня показателей качества. Использование ГОСТа необходимо, так как принимаемые по результатам контроля решения связаны с реальными затратами и затрагивают интересы производственных коллективов. Методы С. к. к. играют важную роль в общей системе мероприятий по управлению качеством массовой промышленной продукции. Это обусловлено в первую очередь тем, что изменчивость числовых характеристик основных показателей качества изделий носит случайный характер. Стремление сделать контроль более объективным, не имеющим систематич. ошибок, приводит к необходимости методов рандомизации, что 660 СТАТИСТИЧЕСКИЙ также обусловливает необходимость использования вероятностных и статистич. методов. Математич. методы, применяемые в С. к. к., разнообразны. Для оценки годности исходных материалов и комплектующих изделий используют входной статистический приемочный контроль. Типичными являются задачи проверки возможности изготовления деталей на станках с заданным допуском точности. Для выявления причин ухудшения точности применяют дисперсионный анализ. Наиболее часто используют методы текущего С. к. к. непрерывного потока массовой продукции в процессе ее изготовления с целью выявления нежелательных отклонений и необходимости соответствующих подналадок оборудования. Пусть {Ot} - последовательность изделий, t-\y 2, ... В результате контроля изделию Ot сопоставляется число zt. При контроле по альтернативному признаку е, = 0, если изделие Ot годное, и £;= 1, если изделие Ot дефектное. Дефектные изделия исключаются. Текущий контроль по планам Доджа П(/", 0 описывается следующей системой правил. Контроль начинается сплошной проверкой изделий последовательности {OJ, к-рая проводится до тех пор, пока не встретится серия из i годных изделий. Далее каждое последующее изделие на контроль отбирается случайно с вероятностью /", 0 </"< 1. При первом обнаружении дефектного изделия вновь переходят к сплошному контролю до обнаружения серии из i годных изделий. Затем вновь переходят к выборочному контролю с вероятностью отбора f и т. д. Пусть tt является последовательностью Бернулли, P{tt = 1} = q. Тогда средняя доля контролируемых изделий по плану П(/", О равна fl<7> = W+<W>0-</>Т'. При выборе подходящих значений f, i используется L* - значение уровня предельного среднего выходного качества: L*=max Uq),r&Uq) = *U~№] - условная вероятность того, что изделие окажется дефектным при условии, что оно не было проконтролировано (см. [1], [2]). Значения f, i выбирают таким образом, чтобы L* не превышало заданной величины. Если в упорядоченной последовательности изделий возможно появление серий дефектных изделий, то при обнаружении каждого дефектного изделия проводят контроль соседних с ним изделий. В тех случаях, когда контроль последовательности изделий {Ot} ведется по количественному признаку, значения результатов контроля е, рассматриваются как случайный процесс. Возможны различные типы разладок, напр. в результате постепенного «ухода» значений параметров случайного процесса Et из области допустимых значений. Разладка может быть вызвана скачкообразным изменением параметров tt в случайный момент т. В задачах обнаружения разладки используют бейесовские методы (см. [3]). В основных ГОСТах исходят из допущения, что в отсутствие разладок значения {е^} образуют последовательность взаимно независимых нормально распределенных случайных величин. Проверка исходных допущений о типе закона распределения tt является необходимым предварительным условием эффективного использования контроля по количественному признаку. Наличие разладок приводит либо к появлению тренда - систематич. увеличения (или уменьшения) средних значений е,, либо к увеличению дисперсии zt и т. п. С целью выявления подобных нарушений (разладок) самое широкое применение находят методы С. к. к., использующие контрольные карты. На них (рис.) по оси абсцисс откладывается номер k контролируемой выборки Ot +1 Ot +M, по оси ординат откладывается значение
величины yk> определяемое значениями zt+\~x\> zt +n = xrr Обычно п невелико: я = Зч-5. В качестве показателей yk часто используются: среднее значение I 1 ^|И п «= медиана, оценка дисперсии „2_ 1 = —У. . кх{-ху размах = max X: 1 ^ i < п - mm x{ и т. д. На контрольной карте предварительно наносятся две линии: верхняя граница регулирования и нижняя граница регулирования. Если значение yk окажется выше или ниже этих границ, то требуется произвести воздействие на технологич. процесс с целью восстановления его стабильности. Контрольные карты были предложены в [4]. В настоящее время используют разнообразные варианты контрольных карт. Наличие различных типов контрольных карт обусловлено тем, что они не одинаково эффективны для выявления различных разладок. Так, для выявления скачкообразных изменений средних значений е^ более эффективными по сравнению с С. к. к., показанными на рисунке, могут оказаться так наз. контрольные карты накопленных сумм. О примерах применения различных типов контрольных карт см. в [5]-[7]. С целью быстрого обнаружения разладок разных типов рекомендуется применять двойные контрольные карты, на к-рые наносятся значения двух показателей, напр. х и R. Точный расчет различных характеристик контрольных карт, напр. среднего времени запаздывания в выявлении определенного типа разладок, является трудной задачей, требующей большого объема вычислений, что, как правило, возможно лишь с использованием ЭВМ. В тех случаях, когда контролируемая продукция разбита на совокупности - партии, широкое применение находят методы статистического приемочного контроля. Лит.: [1] Dodge Н. F., «Ann. Math. Statist.», 1943, v. 14, p. 264-79; [2] Беляев Ю. К., Вероятностные методы выборочного контроля, М., 1975; [3] Ширяев А. Н., Статистический последовательный анализ, 2 изд., М., 1976; [4] Shewhart W. A., Economic control of quality of manifactured product, N. Y., 1931; [5] Шмидовский Э., Шюрц О., Статистические методы управления качеством, пер. с нем., М., 1976; [6] Джонсон Н., Лион Ф., Статистикам планирование эксперимента в технике и науке, пер. с англ., 2 изд., т. 1, 1980; [7] Мердок Д., Контрольные карты, пер. с англ., М., 1986. Ю. К. Беляев. СТАТИСТИЧЕСКИЙ КРИТЕРИЙ (statistical test), статистический тест, - правило принятия решения о справедливости одной из статистических гипотез в задаче статистических гипотез проверки. В общем случае С. к. задается критической функцией; нерандомизированный критерий может быть задан критической областью, к-рая практически определяется посредством статистики критерия. Д. М. Чибисов. СТАТИСТИЧЕСКИЙ КРИТЕРИЙ; допустимость (admissibility of a statistical test) - см. Допустимость статистического критерия. СТАТИСТИЧЕСКИЙ КРИТЕРИЙ; полный класс (com plete class of a statistical tests) - совокупность статистических критериев в задаче статистических гипотез проверки, рассмотрением к-рых достаточно ограничиться в изучаемой задаче без потери качества принимаемых решений. Понятие полного класса С. к. является конкретизацией (в теории проверки статистич. гипотез) общего понятия полного класса статистических процедур в теории статистич. решений. Пусть X - случайная выборка с распределением Рш, зависящим от неизвестного параметра coeQ. По этой выборке проверяется нулевая гипотеза HQ:<ueQQ против альтернативной гипотезы Н] :(!)€&!, где QQ и Q^ - непустые непересекающиеся подмножества Q. Пусть К - нек-рый класс критериев в этой задаче. Подкласс К* cz К называется существенно полным в классе К, если для любого критерия ф е К существует критерий у еК* такой, что р(со|\|/)^р(со|ф) для всех сое Qq, (1) р(со|\|/)^р(со|ф) для всех cogQj, (2) где р(со|ф) = Емф(Х) - функция мощности критерия ф. Если при этом для каждой такой пары (ф, \|0 хотя бы при одном значении С0€ Q в (1) или (2) имеет место строгое неравенство, то подкласс К* называется полным в классе К. Если подкласс К* нельзя сузить с сохранением свойства полноты (существенной полноты), то К* называется минимальным полным (существенно полным) классом. Общие результаты о полных классах статистич. процедур переносятся и конкретизируются для полных классов С. к. в задачах проверки гипотез: совокупность допустимых критериев образует минимальный существенно полный класс, совокупность бейесовских критериев в широком смысле образует существенно полный класс и т. п. Однако для широкого класса задач проверки гипотез известны более детальные описания полного класса С. к. Наиболее полные результаты получены в задачах проверки гипотез о параметрах экспоненциального семейства распределений. Пусть со=(£, в), где ^€0с=||?*, Ge0€ll?w и О = Ех0. Семейство Рм = Рр в экспоненциального типа в IR + m определяется плотностью *А Ы = Ж£, 0) exp {%U(x) + в'Пх)} dP (3) относительно нек-рого вероятностного распределения Р в jpft+w y[0 наблюдению х над случайной выборкой X с распределением Р^е проверяется нулевая гипотеза #0:£ = 0, в ев, против альтернативной гипотезы H^cjeSNfO}, 6g0; параметр в в этой постановке - мешающий. При т = 0 (отсутствие мешающих параметров) установлено (см. [1]), что полный класс С. к. состоит из критериев с выпуклыми областями принятия гипотезы, то есть критериев x\f(x) = x\f(x\C) вида \|К*|С) = 0 при t/U) e IntC, 1 при U(x)*Cy (4) СТАТИСТИЧЕСКИЙ 661
где Cc|R - замкнутое выпуклое множество (Int С- внутренность С); на границе дС возможна (измеримая) рандомизация. Этот результат в дальнейшем уточнялся и обобщался в различных направлениях (см. [2]-[4]). Напр., если множество Н принадлежит нек-рому выпуклому конусу V, то полный класс составляют критерии вида (4), у к-рых выпуклые множества С рецессивны в направлениях из V - поляры конуса V. Если множество Е совпадает с IP или V, то соответствующие полные классы будут минимальными полными классами (см. [5]). При наличии мешающих параметров (при т>0) полный класс С. к. установлен в [6] и состоит из критериев с выпуклыми сечениями области принятия гипотезы, то есть критериев у(х) вида [О при «/(*); 7Х*)) е Int Д у(х)- 1 при «/(*>, П.«))«Д где DczIR +m - измеримое множество, все f-сечения к-рого C(t) = {U е IP ; (t/, t) e D) являются выпуклыми подмножествами IP*. В асимптотич. задачах проверки гипотез вводятся соответствующие понятия асимптотически полного класса. Пусть X = (Х1( ..., Хп) - повторная выборка из распределения Рс в, зависящего от неизвестных параметров £е1Р и 0 е 0 a IP™ [здесь Рс в - произвольное семейство, не обязательно вида (3)]. По выборке X проверяется гипотеза Я0:£ = 0, 0 е 0, против последовательности сближающихся альтернатив Я1п :% = £„ = yVw~, XeAQ IP*\{0}, 0с 0; параметр 0 - мешающий. Решающее правило в этой задаче задается последовательностью критериев {<р„}, где при каждом п критерий <р„(*") строится по выборке объема п и характеризуется функцией мощности р,Д, е|фя) = Е$ ср„(Х"). Пусть г ^ О - целое число, а К - нек-рый класс последовательных критериев. Подкласс К* с: К называется асимптотически полным классом порядка г, если для любой последовательности критериев {<р„} е К найдется последовательность критериев {уи} е К* такая, что при всех значениях X е Л и 0 е 0 при п -> «о Р„(0,в|¥в)«Р„(0,в|9в) + о(п-'/2), -ту Установлены асимптотически полные классы С. к. в классе всех последовательных критериев при различных значениях параметров (k, m, г): при k^\, m~0, г = 0 в [1]; при k = 0, w = 0, г=1 иг=2в[7] и [8]; при k>\, т = 0и г>0в[9]; при feSM, w>0, r=0 в [10]; при k**\, m>0, r>0 в [11]. Кроме того, изучались асимптотически полные классы С. к. в различных конкретных классах последовательных критериев (см., напр., [12], [13], а также Статистический критерий С(а) и обзор в [10]). Лит.: [1] Чибисов Д. М., «Теория вероятн. и ее примени, 1967, т. 12, в. 1, с. 96-111; [2] Eaton M.L., «Ann. Math. Statist.», 1970, v. 41, № 6, p. 1884-88; [3] Берн штейн А. В., «Теория вероятн. и ее нримен.», 1983, т. 28, в. 2, с. 404-10; [4] его же, там же, 1985, т. 30, в. 3, с. 576-80; [5) Stein Ch., «Ann. Math. Statist.», 1956, v. 27, Me 3, p. 616-23; [6] MatthesT. K., TruaxD. R., там же, 1967, v. 38, № 3, p. 681-97; [7] Ch ibisov D. M., в кн.: Proceeding of the Prague symposium on asymptotic statistics, 1973, v. 2, Prague, 1974, p. 37-68; [8] Pf anzagl J., в кн.: Statistical inference and related topics, v. 2, N. Y., 1975, p. 1—43; [9] Бернштейн А.В,, «Теория вероятн. и ее примен.», 1986, т. 31, в. 1, с. 67-80; [10] его же, «Изв. ВУЗов. Математика», 1983, № 11(258), с. 3-18; 111] его же, в сб.: Четвертая международная Вильнюсская конференция но теории веро- 662 СТАТИСТИЧЕСКИЙ ягностей и математической статистике, т. 1, Вильнюс, 1985, с. 77-79; [12] PfanzaglJ., We f el m су er W., «Z. Wahr. und vcrw. Oeb,», 1978, Bd 45, H. 1, S. 49-72; [13] Берн штей н А. В., «Теория вероятн. и ее примем.», 1985, т. 30, в. 1, с. 78-91. А. В. Бернштейн. СТАТИСТИЧЕСКИЙ КРИТЕРИЙ С{а) [statistical Г(а) test] - статистический асимптотически подобный критерий для различения сложных статистических гипотез при наличии мешающих параметров. Основные концепции построения таких критериев предложены Ю. Нейманом [1], и поэтому С. к. С(а) иногда называют С(а)-критериям и Неймана. Пусть X - (X)t .... Хп) - повторная выборка из распределения Рс в, зависящего от неизвестных параметров £eR и 6e0c:|Pw и обладающего плотностью p(x\^;Q) относительно нек-рой а-конечной меры. По этой выборке проверяется сложная гипотеза Я0:£ = 0 против сложной альтернативы Н{: £ * 0 при мешающем параметре 8. Пусть yUe)gam,(*ft;e) Z(x, 0) = - эе *-о £ = 0 (1) - соответственно fe-мерный и m-мерный векторы логарифмич. производных. Матрицу А = Л(0) порядка k x m коэффициентов регрессии (при гипотезе Я0) случайного вектора у(Х\; в) на компоненты случайного вектора z(X,; 8) определяют из условия E0ie(y(X,; 0) -Аг(Хх\ в))(г(Х,; 0))Т = О, (2) и пусть y*(x;Q)=y(x;Q)-A(QMx',Q), (3) а 1(8) = Еов(^(Х1; е))(г/*(Х,; 8))т (4) - ковариационная матрица случайного вектора у*(Х]; 8) в условиях гипотезы Я0; при k-\ дисперсию (4) обозначают о2(в). В одномерном случае (k=\) С. к. С(а) основан на статистике V =У(Х<">) = - -IL Г1Ъ*Л (5) yfna(Qn) в к-рой 9„ - 0„(Х ) - произвольная V/Г-состоятельная оценка параметра 0 в условиях нулевой гипотезы [при распределении Ы Pqq выборки] , построенная по выборке X . Статистика (5) в условиях гипотезы Я0 ПРИ всех ® G ® имеет асимптотически нормальное распределение с параметрами (0; 1). Тем самым критерии <р'„ и ф^, принимающие гипотезу Я0 при Yn^v(a) и, соответственно, \Yn\ ^v(a/2), являются асимптотически подобными уровня а; здесь v(a) =Ф~ (1 - а) ~ верхняя а-квантиль стандартного нормального распределения с функцией распределения Ф(>). Эти критерии используют для проверки гипотезы Я0 при односторонних И[:£>0 и, соответственно, двусторонних Я*:!;*0 альтернативах; критерий ф£ является при этом асимптотически несмещенным. При изучении свойств критериев ф'„ и ф^ рассматриваются последовательности сближающихся альтернатив асимптотич. аналогов альтернатив Н[ и Я*: (6) (7) соответственно при наличии мешающего параметра 0. Предельные функции мощности pa,e|{9;})=iimJ9;(x<"))rfP<»^e>
и р(Х, 6|{<pJJ}) соответственно равны: Ра>в|{ф;}) = 1-Ф(у(а)-Ха2(е)); Ра>в|{ф;'}) = 2(1-Ф(у(а/2)-Ха2(е))). В одномерном случае рассмотрен (см. [1]) класс критериев (названных С(а)-критериями], определяемых соотношениями типа (2)-(5), в к-рых вместо у(х\ в) и у*(х\ в) стоят произвольная функция f(x; 0) и вычисленная по ней по (3) функция /**(*; в) при условии, что Е0^(Х^\ 6) = 0 и Еов(ДХ1; 0)) <«. В классе таких критериев ф'„ и (pJJ имеют наибольшую предельную мощность при альтернативах соответственно (6) и (7) и являются (по терминологии Ю. Неймана) асимптотически локально оптимальными асимптотически подобными С(а)-критериями (с добавлением «асимптотически несмещенными» для критерия cpJJ). Доказана (см. [2]) асимптотич. оптимальность этих критериев в классе всех дифференциально асимптотически подобных критериев с учетом асимптотич. разложений до порядка о(я ' ). В дальнейшем (см. [3]) при разных нарушениях условий регулярности из [1] строились критерии типа С(а). В частности, если у(х; в) является линейной комбинацией компонент вектора z(x; в), то даже асимптотически оптимальные критерии ф'п (соответственно ф£) не в состоянии состоятельно различить гипотезы Я0 и Н[п (соответственно Я/J,); найден (см. [4]) лишь минимальный порядок s > 1, при к-ром возможно состоятельное различение гипотез Я0 и Н\^:^ = ^п = Хп $' , Х>0 (или Х*0), и в классе дифференциально асимптотически подобных критериев найден асимптотически оптимальный критерий ф^ (соответственно ф^я) для различения указанных гипотез, являющийся критерием типа С(а). В многомерном случае (k> 1) введен (см. [5]) класс Фс(а) многомерных асимптотически подобных С. к. С(а), в к-ром найден асимптотически оптимальный критерий ф„ в задаче различения гипотез Я0 и Я1„:£ = ^ = У>ЛГ, ХеЛ, (8) с Л = 1Р*\{0}; этот критерий принимает гипотезу Я0 при y,JI_1(en)yn^Xfc(a)» где Х*(а) - верхняя а-квантиль центрального % -распределения с k степенями свободы. Этот критерий ф„ (при A = IR*\{0}) асимптотически эквивалентен отношения правдоподобия критерию, Рао критерию, Вальда критерию, но в вычислительном отношении проще них. Предельная функция мощности критерия фя равна Ptt, е|{ф„}) = 1-СА(х^(а), Х'КеЮ, где Gk(-, a) - функция распределения нецентрального %2- распределения с k степенями свободы и параметром нецентральности а. Класс Фс(а) в РяДе случаев оказывается слишком узким [напр., если в (elAcycf?*, где(Уи{0}) - выпуклый конус в И? , все критерии из класса Фс(а) являются асимптотически недопустимыми]; введен более широкий класс многомерных обобщений С(а)-критериев, в к-ром выделен асимптотически полный подкласс (см. [61, [7]). Лит.: [1] Neyman J., в кн.: Probability and statistics, Stochl.- N.Y., 1959, p. 213-34; 121 Ch ibiso v D. M., «Lect. Notes in Math.», 1974, v. 330, p. 16-45; 13] Берн штейн А. В., в кн.: Итоги науки и техники. Сер. Теория вероятностей. Математическая статистика. Теоретическая кибернетика, т. 17, М., 1979, с. 3-56; [4] его же, «Теория вероятн. и ее примени, 1976, т. 21, в. 1, с. 34-47; [5] Buhler W.J., PuriP. S., «Z. Wahr. und vcrw. Geb>, 1966, Bd 5, Mb 1, S. 71-88; [6] Бернштейн А. В., «Теория вероятн. и ее примен.», 1980, т. 25, в. 2, с. 291-302; [7] его же, там же, 1985, т. 30, в. 1, с. 78-91. А. В. Бернштейн. СТАТИСТИЧЕСКИЙ ПЛАН (statistcai design) - см. Планирование эксперимента. СТАТИСТИЧЕСКИЙ ПРИЕМОЧНЫЙ КОНТРОЛЬ (statistical acceptance inspection/acception sampling) - совокупность методов статистического контроля качества массовой промышленной продукции с целью выявления ее соответствия заданным требованиям. С. п. к. ведется на основе государственных стандартов (ГОСТ), содержащих таблицы планов контроля и правила выбора планов из этих таблиц. Предусматривается возможность ведения контроля на разных уровнях жесткости. При выборе уровня жесткости и плана контроля учитывают объем контролируемой партии (число входящих в нее изделий), результаты контроля предыдущих партий и другие факторы. С. п. к.- действенное средство поддержания требуемого уровня качества продукции. При С. п. к., как правило, проверяется лишь часть изделий, составляющих выборку, поэтому возможны ошибочные решения. Если контроль изделий носит разрушающий характер (испытания на разрыв), то сплошной контроль всех изделий невозможен. При отборе изделий на контроль применяют различные методы. Широко используют случайный выбор без возвращения (см. Выборка статистическая, Выборочный метод). Наиболее часто применяют две разновидности С. п. к.- контроль по альтернативному признаку, когда контролируемые изделия классифицируются как годные или дефектные, и контроль по количественному признаку, когда у контролируемых изделий измеряются параметры, принимающие вещественные значения. В теории С. п. к. разрабатываются методы расчета вероятностных показателей как отдельных планов контроля, так и системы планов контроля, а также статистич. методы оценки фактич. эффективности С. п. к. на основе накапливаемой информации о ходе контроля. По результатам С. п. к. многих партий продукции можно построить так наз. последующие оценки (см. [ 1 ]) различных величин, отражающих эффективность используемого стандарта на С. п. к. Напр., можно найти несмещенные оценки для суммарного числа дефектных изделий, содержавшихся в предъявленных на контроль партиях; можно построить статистич. оценки суммарного числа дефектных изделий, принятых потребителем. Смещение этих оценок быстро убывает с ростом объема выборок. Основой стандарта на С. п. к. является таблица, содержащая параметры, определяющие планы контроля. В таблицы включаются планы контроля, обладающие (по крайней мере, приближенно) нек-рыми свойствами оптимальности. При этом используют оперативные характеристики планов контроля. Пусть q = D/N- доля дефектных изделий, qH - средняя доля дефектных изделий при стационарном процессе производства. Поиск оптимальных планов контроля можно проводить среди планов, имеющих одинаковые средние расходы при q-Цц. Средние расходы равны стоимости контроля изделий, составляющих выборку, и ущерба от напрасной забраков- ки годных изделий. Иногда целесообразно в сумму расходов включать ущерб от принятия дефектных изделий. В стандарте (см. [2]) содержатся таблицы одноступенчатых планов, обеспечивающих при заданном среднем уровне расходов на контроль и заданном qH приближенно наилучшую защиту потребителя от принятия партий, содержащих D дефектных изделий, в широком интервале значений D>N . Это означает, что оперативные характеристики таких планов для широкого интервала значений D близки к нижней огибающей оперативных характеристик всех одноступенчатых планов, имеющих при q-Цц одинаковые средние расходы на проведение конт- СТАТИСТИЧЕСКИЙ 663
роля. Составление таблиц планов, включаемых в стандарты, возможно только с использованием ЭВМ. Уровень жесткости С. п. к. меняется в соответствии с принятыми в стандарте правилами корректировки, на основе к-рых с учетом результатов контроля сохраняется или изменяется порядок выбора планов контроля из таблиц. Напр., увеличение жесткости контроля может быть обусловлено забраковыванием двух партий изделий из пяти последних проконтролированных партий изделий. Известны различные обобщения методов С. п. к. по альтернативному признаку (см. [3], [4]), в нек-рых приложениях целесообразно рассматривать С. п. к., при к-ром возможна ошибочная классификация дефектных изделий как годных и годных изделий как дефектных (см. [5]). В С. п. к. широко используют бейесовские методы (см. [6]). Стандарты на С. п. к. по количественному признаку основаны на допущении, что измеряемые при контроле характеристики изделий в выборке являются взаимно независимыми одинаково распределенными случайными величинами, функции распределения к-рых принадлежат нек-рому параметрич. семейству. Наиболее часто используют стандарты, в к-рых таким семейством являются нормальные (гауссовские) распределения. На практике выполнение указанных допущений требует тщательной проверки и должно предшествовать решению об использовании стандарта С. п. к. по количественному признаку. Только обоснованное использование С. п. к. по количественному признаку может дать более эффективные результаты по сравнению с С. п. к. по альтернативному признаку. Лит.: [1] Колмогоров А.Н., «Изв. АН СССР. Сер. матем.», 1950, т. 14, № 4, с. 303-26; [2] ГОСТ 24660-81; [3] Беляев Ю.К., Вероятностные методы выборочного контроля, М., 1975; [4] Лу- мельский Я. П., Статистические оценки результатов контроля качества, М., 1979; [5] Беляев Ю. К., «Докл. АН СССР*., 1976, т. 231, № 3, с. 521-24; [6] Hald A., Statistical theory of sampling inspection by attributes, L. - [a.o], 1981. Ю. К. Беляев. СТАТИСТИЧЕСКИЙ ПРОГНОЗ ПОГОДЫ (statistical weather forecast) - прогноз погоды, основанный на использовании статистических закономерностей развития атмосферных процессов, эмпирически установленных с помощью обработки имеющихся данных гидрометеорологических наблюдений. Статистич. методы прогноза погоды иногда называют также эмпирическими или (в случаях, когда выбор предикторов опирается на физич. соображения) физико-статистическими. При С. п. п. погода в каждый момент времени трактуется как многокомпонентное (векторное) случайное поле (то есть как набор случайных функций трех пространственных координат). Компонентами этого поля являются физич. характеристики состояния атмосферного воздуха (температура, давление, составляющие вектора скорости ветра и т. д.) и содержащейся в нем влаги (облачность, осадки и пр.). Традиционно прогнозы делятся на краткосрочные - от нескольких часов до 1-2 суток, среднесрочные (малой заблаго- временности) - 3-10 суток, долгосрочные (большой заблаго- временности) - на месяц и сезон. Часто вводят в рассмотрение сверхдолгосрочные прогнозы погоды - на год и более. В последние годы наметилась тенденция называть долгосрочные прогнозы на месяц и сезон прогнозами короткопериодных колебаний климата. Прогнозы погоды могут составляться для территории (обычно это область политико-административного деления или нек-рая физико-географич. область), для отдельных пунктов (город, аэропорт) или нек-рых магистралей (авиатрасса, автомобильная и железная дороги). Различают также специализированные прогнозы, то есть предназначенные для конкретных отраслей народного хозяйства, и прогнозы общего пользования - для населения и народного хозяйства без конкретизации отрасли. 664 СТАТИСТИЧЕСКИЙ Любой метод метеорологич. прогноза состоит в указании используемого (вообще говоря, многомерного) предиктора X и нек-рого оператора Р (правила, формулы, алгоритма, решающей функции), сопоставляющего любой реализации х вектора X одну из возможных формулировок прогноза [то есть определенное значение у = Р(х) рассматриваемого предиктанта У]. В случае С. п. п. X и У считаются случайными векторами, то есть Р(Х) также является случайным вектором, причем У = Р(Х) + 8, где 8 - случайная ошибка прогноза. Если метод прогноза опирается только на уравнения, выражающие общие законы физики, то прогноз называется динамическим. Если же при выборе метода прогноза используют и результаты статистич. обработки данных наблюдений над предикторами и предиктантами, то соответствующий прогноз называется или просто статистическим, или (в случае привлечения также и законов физики) физико-статистическим (иначе динамико-стохастическим). Роль С. п. п. в настоящее время существенно различна для прогнозов разной заблаговременности. Краткосрочные и среднесрочные прогнозы чаще всего опираются на численное решение системы нелинейных уравнений с частными производными гидротермодинамики атмосферы с заданными краевыми и начальными условиями (в последнее время не ограничиваются рассмотрением лишь линеаризованных уравнений, лежащих в основе метода эмпирических функций влияния). В связи с этим статистич. методы используют здесь, во-первых, для объективного анализа метеорологич. полей (то есть для оптимальной интерполяции имеющихся наблюдений иа нерегулярной сети станций в регулярные узлы сетки, применяемые для численного решения динамич. уравнений). Во-вторых, эти методы привлекают для так наз. инициализации данных, то есть для такого их преобразования (напр., сглаживания или взаимного согласования значений различных метеорологич. полей), к-рое оптимизирует оценку качества прогнозов (см. Прогноз погоды; оценка качества). Наконец, широкое распространение получили методы статистически оптимального непрерывного усвоения данных, заключающиеся в том, что на каждом шаге интегрирования по времени динамич. уравнений для объективного анализа используют как относящиеся к соответствующему моменту времени данные наблюдений, так и результаты прогноза на этот срок. Для решения всех перечисленных задач требуются сведения о статистич. структуре метеорологич. полей. Еще один метод внедрения статистич. методов в современную практику краткосрочных и среднесрочных прогнозов погоды связан с использованием так наз. статистич. интерпретации результатов динамич. прогнозов. В этом случае данные, получаемые при решении динамич. уравнений, используют в качестве предиктора X в схеме статистич. прогноза интересующего предиктанта У. Значениями X здесь могут быть как вычисленные на основе определенной динамич. модели значения У самого предиктанта У (отличающиеся от истинного значения у из-за неточности рассматриваемой модели, приближенного характера ее решения, ошибок наблюдений и т.д.), так и вычисленные значения каких-то характеристик атмосферы, отличных от У (напр., значения X интересующего поля в точках, отличных от нужной точки, или значения X атмосферного давления на заданной высоте, в то время как У - это более непосредственная характеристика погодных условий, интересующих потребителя прогноза). В качестве архива наблюдений, на основе обработки к-рого устанавливаются статистич. связи X с У (и метод прогноза У по X), могут использоваться как накопленные результаты прогнозов при помощи выбранной динамич. модели, так и фактич. данные наблюдений значений X (при условии, что X не совпадает с У). В первом случае прогноз величины У по значению X опирается
па статистич. анализ результатов численного моделирования (так наз. метод МОС, или MOS). Во втором случае используют синхронные связи между фактическими значениями вычисляемых полей X и предиктанта У (то есть неявно считается, что динамич. прогноз значений X является идеальным прогнозом). Статистич. связи, на применении к-рых основан С. и. п., могут быть эмпирически определены по нек-рой фиксированной выборке и затем считаться фиксированными, но могут и заново определяться в ходе каждого даваемого прогноза на осноне всей накопленной к этому времени информации, что соответствует использованию адаптивной схемы С. п. п. В случае долгосрочных и сверхдолгосрочных прогнозов погоды часто применяют чисто статистич. методы прогноза, никак не использующие динамич. уравнений. В этом случае большое значение могут играть дальние связи в метеорологии, включающие асинхронные переменные, разделенные значительными промежутками времени. Именно по этой причине временные дальние связи привлекают большое внимание исследователей, однако их изучение пока еще находится в начальной стадии развития. Решающее правило добычно выбирается из нек-ро- го заданного класса функций так, чтобы на основании данных архива его можно было бы считать оптимальным по отношению к той или иной оценке качества прогнозов (напр., в смысле минимума среднего квадрата ошибки, минимума потерь или максимума полезности). Для этого в искомую функцию вводят неизвестные параметры, оценка к-рых по эмпирич. данным в соответствии с принятым критерием оптимальности и составляет задачу построения решающего правила &. Указан ные параметры можно ввести в модель в явном виде, положив У = У'(Х, Л) -г 6' (где Л может быть, напр., вектором коэффициентов множественной регрессии; см. Эмпирическая функция влияния). Для ирактич. реализации С. п. и. применяют все известные стагистич. методы прогноза и современные методы обработки больших объемов данных на ЭВМ. Так как предикторы и иредиктанты обычно являются многомерными величинами, наиболее широко используются приемы многомерного статистич. анализа (главным образом регрессионного и дискрими- нантного). Вместо непрерывных полей часто рассматриваются коэффициенты их разложения по различным системам базисных функций, среди к-рых большую популярность завоевали эмпирические ортогональные функции. Такие разложения позволяют существенно уменьшить размерности предикторов и нредиктантов. Лит.: [1] Груза Г. В., «Труды Среднеазиатского научно-исследовательского гидрометеорологического института», 1967, в. 29(44), с 3-41; [2j Руководство по долгосрочным прогнозам погоды на 3-10 дней, Л., 1968; [3] Руководство по месячным прогнозам погоды, Л., 1972; [41 The global climate, Camb., 1984. Г. В. Груза. СТАТИСТИЧЕСКИЙ ТЕСТ (statistical test) - см. Статистический критерий. СТАТИСТИЧЕСКИХ ГИПОТЕЗ ПРОВЕРКА (testing statistical hypotheses) - проблема принятия решения о справедливости одной из сформулированных заранее статистических гипотез о распределении вероятностей, описывающем наблюдаемое случайное явление. Наиболее распространены задачи с двумя гипотезами, когда семейство &= {Рв, 0 е 0} возможных распределений Р на выборочном пространстве (£, .</) разбивается на два подмножества Я0 = {Рв, 0 е 0О} и Нх =./>\Я0 = {Рв, 0E0t}, 0t=0\0o, и по наблюдению случайного элемента X е £ требуется высказать одно из двух утверждений: Р t Я0 либо Р е Нх, Обозначения Я0 и Я1 часто переносят на сами гипотезы. Гипотезу Я0 обычно называют основной или нулевой, гипотезу Н\ - альтернативной или альтернативой. Эта терминология связана с несимметрией постановки задачи С. г. п. относительно Я0 и Н\ (см. ниже). Если Я^, j = 0t 1, содержит ровно один элемент, то такая гипотеза называется простой, в противном случае - сложной. Всякое правило принятия Я0 или Я1 по наблюдению X называется статистическим критерием. В практике обычно используют (нерандомизированные) критерии, определяемые заданием критич. множества 5cJ, при попадании в к-рое результата наблюдений X гипотеза Я0 отвергается, то есть принимается решение, что Ре Я}, в противном случае (если Xe£\S) принимается гипотеза Я0. Напр., при достаточно большом числе п испытаний Бер- нулли значительное отклонение относительной частоты «успехов» от 1/2 противоречит гипотезе о равновероятности исходов. То есть представляется разумным отвергать гипотезу Я0 = {0=1/2} в пользу Я] ={0*1/2} (0- вероятность «успеха») при попадании числа успехов v в множество 5 = {0, 1, ..., от, п-т, .... п), (1) где т выбирается так, чтобы P{veS|0= 1/2} была достаточно малой. Вообще для надежного различения Я0 и Н\ множество S должно выбираться так, чтобы попадание X в S было маловероятно при Р е Я0 и имело бы достаточно большую вероятность при Р е Нх. Это наглядное требование формализуется следующим образом. При применении критерия возможны двоякого рода ошибки. Принятие решения Р е Н{, когда на самом деле верна гипотеза Н0, называется ошибкой 1-го рода. Ошибкой 2-го рода называется принятие Я0, когда верна альтернатива Я^ Для критерия с критич. множеством S ошибка 1-го рода происходит, когда РеЯ0, а результат наблюдения X попадает в 5. Соответственно, когда Ре Я}, а Хе Ж \5, совершается ошибка 2-го рода. Критерий желательно выбрать так, чтобы вероятности ошибок были возможно малыми. Но неограниченно уменьшить обе ошибки, вообще говоря, невозможно: уменьшение одной из них ведет к увеличению другой. В С. г. п. наиболее распространен подход, когда вероятность ошибки 1-го рода ограничивается заданным (малым) числом а>0 (см. Значимости уровень) и в классе критериев, удовлетворяющих этому ограничению, отыскивается критерий с возможно меньшей вероятностью ошибки 2-го рода. Как правило, эту вероятность нельзя сделать малой равномерно по 0 е Нх. Поэтому в отличие от решения «отвергнуть Я0», надежность к-рого контролируется заданным уровнем а, решение «принять Я0» означает лишь, что гипотеза Я0 согласуется с данными наблюдений, а возможное отклонение Р от Я0 недостаточно велико, чтобы быть обнаруженным в данном эксперименте. В общем виде процедура С. г. п. задается критич. функцией ср:£ -> [0, 1 ] и состоит в том, что при наблюдении X производится дополнительное случайное испытание с двумя исходами, имеющими вероятности ф(Х) и 1-ф(Х): при выпадении первого исхода гипотеза Я0 отвергается, при выпадении второго - принимается. Тем самым класс всех критериев описывается как множество всевозможных измеримых функций ф на (£, d) со значениями в [0, 1]. Если ф принимает только значения 0 и 1, то критерий называется нерандомизированным, этот случай соответствует рассмотренному ранее с S = {x:q(x) = 1}. В противном случае критерий называется рандомизированным. Если X имеет распределение Рв, 0 е 0, то критерий с критич. функцией ф (или, короче, критерий ф) отвергает Я0 с вероятностью рф(0) = Евф(Х)=|Фи)Рв(^), 0е0. (2) СТАТИСТИЧЕСКИХ 665
Функция рф(8) при в€0о имеет смысл вероятности ошибки 1-го рода, отвечающей данному критерию ср, а величина 5ир[рф(6); 8е0о] называется размером критерия ф. Вероятность ошибки 2-го рода равна 1 -£L(8), 8e6j. Требование малости последней равносильно требованию близости к 1 самой функции (Зф(8), 8e0t, называемой функцией мощности критерия ф. Таким образом, в задачах С. г. п. выбор критерия ограничивают условием р (Э)^а, 8 ев,, (3) и в классе таких критериев стремятся найти критерии с наибольшей мощностью Рф(в),в€в,. (4) Имеется сравнительно узкий класс статистич. моделей, в к-рых задача максимизации семейства функционалов (4) при ограничении (3) имеет решение. Если Я0 и Я, просты, то конструктивное решение этой задачи дает Неймана - Пирсона лемма. Решение указанной задачи заведомо существует, если альтернатива Я1 проста. В случае сложной альтернативы Я, эта задача имеет решение только для весьма специальных семейств Я0 и Нх (см. Равномерно наиболее мощный критерий). Пример 1. По результатам я испытаний Бернулли с вероятностью «успеха» 8, 0<8^1, проверяется гипотеза Я0 = {8^ 1/2} против Я1 = {8> 1/2}. Практич. ситуацией, приводящей к такой задаче, может быть, напр., сравнение нового сорта семян с контрольным. На п однородных участках, разделенных надвое, высеваются новый и контрольный сорта и сравниваются их урожайности. Участки, где урожайность нового сорта выше, чем контрольного, отмечаются как «успехи». С учетом случайных флуктуации 8= 1/2 отвечает отсутствию различия в урожайности, а отклонение 8 от 1/2 свидетельствует о большей урожайности того или другого сорта. Гипотеза Я0 означает предположение об отсутствии преимущества нового сорта. Если Я0 отвергается, то тем самым делается заключение о большей урожайности нового сорта; это утверждение может оказаться ошибочным с вероятностью ^ а, контролирующей, таким образом, его надежность. В противоположном случае делается вывод, что преимущества нет либо оно мало для того, чтобы быть обнаруженным при данном числе опытов. В этом примере за пространство Ж можно принять множество, состоящее из 2" векторов х = (х{, ..., хп), где xi принимают значения 0 и 1. Наблюдаемый случайный вектор Х = (Х{, ..., Хп) принимает значение хеЖ с вероятностью рвИв} = вг*'(1-в)я-г^ 0€0=[О, 1]; во = [0, 1/2), в, = (1/2, 1]. Случайная величина v = ]£ X{ (число «успехов») имеет биномиальное распределение с параметрами (я, 8): P{v = *|e} = c*e*(i-e)""*f * = o, i,..., п. Представляется естественным отвергать Я0 при больших значениях v. Это значит, что если ограничиться нерандомизированными критериями, то следует отвергать Я0 при v> ka, где ka определяется по заданному уровню значимости а так, чтобы P{v>*Jl/2}=^ +1 + ...+/;я = а'«а, а P{v^*a|l/2} = a' + P/k >а, (5) где pk = P{v = k\ 1/2} = С*2~". Размер такого критерия равен a'^a. Если ar<a, то можно построить рандомизированный 666 СТАТИСТИЧЕСКИХ критерий размера а, имеющий ббльшую мощность. Он имеет критич. функцию [1, если v>fca, ф1(Х) = |у1, если v=fca> [О, если v<fca, где y^ = (a-a')/pk , то есть детерминированно отвергает Я0 при наблюдении числа «успехов» v>fca и отвергает Я0 с вероятностью у при v = ka. Его мощность равна Р» (Й = У" t C*a8* (1 - 8)"~* + yCkna8ft« (1 - 8)""*«. (Мощность указанного выше нерандомизированного критерия отличается отсутствием последнего слагаемого.) Можно показать, что этот критерий - равномерно наиболее мощный, то есть любой другой критерий размера а имеет при каждом 8> 1/2 не большую мощность. Тем самым задача максимизации мощности (4) при ограничении (3) имеет в этом случае окончательное решение. В большинстве же случаев указанная постановка задачи не приводит к решению и требуется ее уточнение или дополнение. Один из возможных подходов - сужение класса рассматриваемых критериев с помощью нек-рых дополнительных требований, выражающих те или иные желательные свойства критерия. Основные из них - подобие, несмещенность и инвариантность (см. Подобный критерий, Несмещенный критерий, Инвариантный критерий). Другие подходы состоят в максимизации нек-рых функционалов от функции мощности, напр. ее усреднения по нек-рой мере или ее минимума на нек-ром множестве альтернатив (см. Байесовский подход к статистическим задачам, Максиминный критерий). Пример 2. В той же статистич. модели проверяется гипотеза Я0 = {8= 1/2} против альтернативы Н\ ={8* 1/2}. «Естественный» нерандомизированный критерий отвергает Я0 при veS [см. (1)] с m = n-ka,2-\) где ka,2 определяется условиями P{v > ka/211/2} = a*/2 < a/2, P{v > ka/211/2} > a/2. Соответствующий рандомизированный критерий размера a имеет критич. функцию II, если Х^т либо Х^п-т, у2, если Х-?п + \ либо Х = п-т-\, О, если т + \<Х<п-т-\, k . В этой задаче не существует равномер- гцеу2 = (а-а")/2р1 но наиболее мощного критерия. Критерий ф2 является равномерно наиболее мощным в классе несмещенных критериев, то есть критериев ф размера а, обладающих тем свойством, что Рф(8) ^а при 8* 1/2. Критерий ф2 имеет также наибольшую среднюю мощность \1 рф(емс(в), (б) если мера G на [О, 1] симметрична относительно 1/2. Этот же критерий максимизирует минимум мощности вне симметричной «зоны безразличия», то есть на нем достигается max min Рф(8) (7) Ф 18-1/21*6 при любом 0 < 5 < 1/2. При отсутствии равномерно наиболее мощного критерия встает задача выделения возможно узкого полного класса критериев, то есть такого класса, к-рый для всякого критерия, не входящего в него, содержит критерий, имеющий не меньшую мощность. Эта задача тесно связана с исследованием допустимости критериев (см. Статистический критерий] полный класс, Допустимость статистической процедуры). В
такого рода задачах использукп методы статистических решений теории. Напр., и задаче примера 2 критерии вида fl, ССЛИ V<£j ЛИбо V>k2, <pC*) = |y,. если v=fc, i = 1,2. (8) [О, если kx <v<k2, где O^k] ^ k2^n, O^Yi- 72^ 1 таковы, что рф(1/2) = а, состав- лякут полный класс. Этот факт означает, что выбор конкретного критерия, основывающийся на значениях мощности, может быть ограничен критериями вида (8). Напр., можно ограничиться этим классом критериев при отыскании критерия, максимизирующего (6) или (7) с, вообще говоря, несимметричной мерой или зоной безразличия, что значительно облегчает задачу. За исключением узкого класса моделей специального вида (к к рым относятся примеры 1, 2), «точное* решение задач С. г. и. становится невозможным либо необозримо сложным при сколько-нибудь значительных объемах выборки п. Поэтому широко используют асимптотич. методы, дающие приближенные решения задач С. г. п. путем использования относительно простых предельных закономерностей и статистич. моделей (см. Математическая статистика; асимптотические методы). Выбор семейств 7/0 и Я} в практич. задачах определяется имеющейся априорной информацией о распределении Р, основывающейся на теорегич. анализе явления и (или) на полученных ранее данных. При недостатке априорной информации используют непараметрич. методы математич. статистики (см. Математическая статистика; непараметрические методы). Максимальное использование априорной информации имеет важное значение, поскольку сужение семейств Я0 и Н{ упрощает задачу и позволяет строить критерии с большей мощностью. С другой стороны, ввиду возможной неадекватности модели реальному явлению бывает желательно, чтобы свойства критериев, к-рыми они обладают в данной статистич. задаче, мало менялись при тех или иных отклонениях от модели (см. Робастность статистической процедуры). Выше подразумевалось, что статистик не может влиять на количество и структуру наблюдений. Во многих практич. ситуациях, однако, наблюдения получаются в результате эксперимента, к-рый может планироваться заранее с целью достижения заданных (или наилучших возможных при имеющихся ограничениях) характеристик критерия. Напр., для данных 6>0 и £>0 можно определить число испытаний п, при к-ром [ср. (7)] критерий ф2 отличал бы альтернативы, отстоящие от 1/2 не менее чем на 6, с мощностью, не меньшей 1 -е. Более сложные задачи включают: выбор точек (параметров, режимов), в к-рых проводятся наблюдения, задание правила продолжения или прекращения эксперимента (возможно, на основании полученных уже наблюдений) и т.п.; могут учитываться затраты средств или времени на проведение эксперимента (см. Планирование эксперимента). Задачи С. г. п. тесно связаны с задачами точечного и доверительного оценивания. Так, для проверки гипотез о значении параметра может использоваться какая-либо его оценка (напр., можно считать, что критерии в примерах 1, 2 основаны на оценке 0 = v/h параметра 0). С другой стороны, результаты теории С. г. п. могут использоваться для установления нижних границ точности оценивания. Напр., концентрация оценки 8 относительно 8 G0cz R характеризуется вероятностями Ре{1е-е|>м, л>о. (9) Пусть 8 - медианно несмещенная оценка 8, то есть Ре{8 < 8} = Рв{8 > 8} = 1 /2, 8 е 0. Тогда критерий проверки гипотезы Я0:8 = 80 + Л против Я1:8 = 80, отвергающий Я0, когда 8^80 + Л, имеет вероятности ошибок 1-го и 2-го рода соответственно: Ре0+/,{^е0 + Л}=1/2 И Р6о{8>е0 + Л}. (10) Следовательно, вероятность (10) не меньше, чем вероятность ошибки 2-го рода наиболее мощного критерия размера а= 1/2, к-рый строится с помощью леммы Неймана - Пирсона. Вместе с аналогичной границей для Ре {8 < 80 - h) это дает нижнюю границу для (9) по классу медианно несмещенных оценок 8. При доверительном оценивании доверительное множество включает значения параметра, «согласующиеся» с результатами наблюдений по заданному семейству статистич. критериев. При этом свойства оптимальности критериев и доверительных множеств связаны между собой. См. Доверительное оценивание, Наиболее точное доверительное множество. Лит.: [1] Крамер Г., Математические методы статистики, пер. с англ., 2 изд., М., 1975; [2} Леман Э., Проверка статистических гипотез, пер. с англ., 2 изд., М., 1979; [3] Кен да л л М., Стью- арт А., Статистические выводы и связи, пер. с англ., М., 1973; [4] Линкик Ю. В., Статистические задачи с мешающими параметрами, М., 1966; [5] Андерсон Т., Введение в многомерный статистический анализ, пер. с англ., М., 1963; [61 Нейман Ю., Вводный курс теории вероятностей и математической статистики, пер. с англ., М., 1968. Д.М. Чибисов. СТАТИСТИЧЕСКИХ ИСПЫТАНИЙ МЕТОД (statistical simulation method) - см. Монте-Карло метод. СТАТИСТИЧЕСКИХ РЕШАЮЩИХ ПРАВИЛ КАТЕГОРИЯ (category of statistical decision rules) - алгебраическая категория, образуемая всеми марковскими переходными вероятностями (описывающими как детерминированные, так и рандомизированные решающие правила в математической статистике), с естественной операцией композиции. Объектами С. р. п. к. служат совокупности cap (Q, .</) всех распределений вероятностей на каком-либо измеримом пространстве (Q, .г/). Каждый морфизм П: cap (ft, ,-/)-> cap(Q', .*/') задается переходной вероятностью П(со; .<-/'), «eft, л/'e.r/, по правилу (Pn){-} = JQP{d<D}n(<D; •). Кроме того, объекты С. р. п. к. можно (тензорно) перемножать (см. [6]). Эта категория была построена независимо в [3] и [4]. Она порождает геометрию, в к-рой семейства распределений вероятностей {Ре8 е 0} с cap(ft, ♦</) играют роль фигур, а морфизмы - роль аффинных преобразований. Два семейства {Рв} и {Qe} с общим параметрич. множеством 0 эквивалентны в теории статистич. вывода, если существуют два таких морфизма Ш и Ж, что (Рвя/){.} = ави, (0,ж)Н, еев. Многие основные понятия математич. статистики являются инвариантами, ковариантами и более сложными эквивариан- тами этой геометрии (напр., достаточная статистика). В отличие от геометрии с группой движений в категорией геометрии, кроме (скалярного) инварианта существует понятие монотонного (скалярного) инварианта. Напр., функционал /ХР, Q), определенный на квадратах всех объектов С. р. п. к., называется монотонным инвариантом, если /"(РП, 0П)^/"(Р, Q) при всех наборах Р, Q, П, для к-рых выражение /ЧРП, С)П) определено. К таким величинам относится, напр., относительная энтропия. Лит.: [II Вальд А., Последовательный анализ, пер. с англ., М., 1960 (добавление); [21 Ченцов Н.Н., Статистические решающие правила и оптимальные выводы, М., 1972; [3] его же, «Докл. АН СТАТИСТИЧЕСКИХ 667
СССР», 1965, т. 164, № 3, с. 511-14; [4] Morse N.. Sacksteder R., «Ann. Math. Statist.», 1966, v. 37, № 1, p. 203-14; [5] Martin F., Petit J., Pet i t-Li ttay e M., «Ann. Inst. H. Poincare», ser. B, 1971, v. 7, № 2, p. 145-76; [6] Cencov N.N., «Math. Operations Forsch. Statist., ser. Statistik», 1978, v. 9, № 2, p. 267-76. H. H. Чепцов. СТАТИСТИЧЕСКИХ РЕШЕНИЙ ОБЩАЯ ТЕОРИЯ (general statistical decision theory) - теория, изучающая оптимальные решающие правила в ситуации, когда статистическая неопределенность описывается абстрактными состояниями - точками нек-рого выпуклого подмножества @5 векторного пространства. Статистич. структура определяется заданием семейства состояний {5е: 0 е 0} с @5, где 0 - множество значений неизвестного параметра 0, измеримого пространства решений U и функции потерь WB(u), измеримой и ограниченной снизу по ueU при каждом 0€ 0. Абстрактным решающим правилом называется аффинное отображение М: S -> \xs(du) множества состояний 25 в множество &(U) распределений вероятностей на U. Средний риск решающего правила М при данном 0 определяется формулой и является аффинной функцией на множестве всех решающих правил. По аналогии с обычной (классической) теорией статистич. решений формулируются понятия допустимого, минимаксного, бейесовского и т. п. решающих правил. Значительная часть результатов классич. теории, в к-рой 25 есть множество распределений вероятностей на нек-ром пространстве наблюдений £2, при надлежащем обобщении переносится на случай произвольного множества состояний, достигая при этом своих естественных границ общности. В то же время С. р. о. т. охватывает практически интересную схему квантовой теории проверки гипотез и оценивания, для к-рой 25 есть множество плотности операторов в нек-ром гильбертовом пространстве и к-рая принципиально не сводится к классич. теории статистич. решений. Лит.: [ 1 ] X о л е в о А. С, Исследования по общей теории статистических решений, «Труды МИАН», 1976, т. 124; [21 Ozawa M., «Repts Math. Phys.», 1980, v. 18, p. 11-28. А. С. Холсво. СТАТИСТИЧЕСКИХ РЕШЕНИЙ ТЕОРИЯ (statistical deci sion theory) - общая математическая теория планирования статистических экспериментов, анализа их результатов и принятия определенных решений (суждений) об исследуемом объекте. С. р. т. с общей точки зрения рассматривает и формализует все основные проблемы математич. статистики: теорию статистического оценивания, статистических гипотез проверку, планирование эксперимента и др. Предполагается, что исследуемый объект характеризуется значением (неизвестным) нек-рого абстрактного параметра 0 (принадлежащим заданному параметрич. пространству 0), относительно к-рого требуется принять определенное решение d из множества Я) возможных решений, называемого пространством решений. Принятие каждого решения приводит к определенным потерям, зависящим от значения параметра 6, характеризующего объект. Считая, что на пространствах 0 и 9) заданы соответствующие а-алгебры & и 9С, определяют потерь функцию L(0, d) как неотрицательную измеримую функцию на 0 х 3). Для принятия решения проводится статистич. эксперимент, результатом х к-рого является наблюдение над нек-рым случайным элементом X (случайными величиной, вектором, функцией, выборкой), связанным с исследуемым объектом. Ис- 668 СТАТИСТИЧЕСКИХ пользование для принятия решений результата статистич. эксперимента выделяет С. р. т. из общей теории принятия решений (см. [6]). Распределение Ре на измеримом пространстве значений случайного элемента Ж [на так наз. выборочном пространстве (#; Ж) ] зависит от 0 - неизвестной характеристики исследуемого объекта. Семейство выборочных пространств ^-{{ЗС, Л\ Ре), 0€0} называется статистической структурой (вероятностной моделью). В тех случаях, когда объект исследования выбирается случайным образом (в соответствии с нек-рым распределением вероятностей) из нек-рого множества объектов, и тем самым значение 0 является реализацией нек-рой случайной величины тЭ, вероятностная модель дополняется классом возможных (так наз. априорных) распределений тЭ (см. Бейесовский подход к статистич. задачам). Определение (выбор) случайного элемента X, подлежащего наблюдению в статистич. эксперименте, с целью принятия рациональных решений составляет предмет теории планирования экспериментов, к-рая может рассматриваться как часть С. р. т. На начальном этапе развития математич. статистики решения принимались на основе измеримых отображений (статистик) d(x) из .Т в %\ если результат наблюдения X равен х, то принималось решение d = d(x) e Ф. Это отображение d:&:->9) в Ср. т. называется нерандомизированной решающей функцией. Дальнейшее развитие теории, связанное в основном с построением оптимальных процедур статистич. вывода, привело к необходимости введения более общего понятия рандомизированной решающей функции, определяемой стохастич. отображением из ^*в 91. В этом общем случае по результату х определяется не конкретное решение d(x), а нек-рое распределение вероятностей ф(|*) на (У,Ю, зависящее от результата х,- переходная вероятность из (.*; Ю в (9, Ю. Это распределение ф называют правилом принятия решения или, коротко, решающим правилом. Случайная величина 8=8(.х), имеющая при каждом фиксированном результате х статистич. эксперимента распределение ф(-|#), называется рандомизированной решающей функцией, к-рая иногда отождествляется с решающим правилом ф. Таким образом, после получения результата х принятие решения с использованием правила ф осуществляется путем проведения дополнительной процедуры, называемой рандомизацией. Эта процедура состоит в построении случайного механизма (напр., с помощью датчика или таблицы случайных чисел), генерирующего реализации случайной величины 5 с распределением ф(- \х). Реализация d случайной величины Ъ = Ъ(х) принимается за окончательное решение. Нерандомизированные решающие функции являются частным случаем рандомизированных решающих функций, соответствующим вырожденным (сосредоточенным в нек-рой точке d(x) пространства решений 9)) распределениям ф(|*), поэтому в С. р. т, под термином «решающие функции» обычно понимается рандомизированная решающая функция. Качество любой решающей функции 5 определяется величиной средних потерь Д(8, 5) = EeL(0, 50D)=J^Jr/L(e, a)q>(da\x)Pe(dx); (1) функция R(d, 5) аргумента 6е0 называется риска функцией решающей функции 5. В случае нерандомизированных решающих функций (1) принимает вид R(B,b) = \fL(B,b(x))PB(dx).
Основной задачей С. р. т. является построение решающей функции 5, минимизирующей величину средних потерь. Поскольку такие потери Ж6, 8) зависят от неизвестного истинного значения параметра 0, то желательно было бы иметь решающие функции, минимизирующие R(Q, 5) сразу для всех 0е0. Решающая функция 5*, для к-рой R(d, b*)^R(d, 5) для всех 0€0 и любой решающей функции 5, называется равномерно лучшей решающей функцией. Такие функции не всегда существуют в классе всевозможных решающих функций, и тогда в С. р. т. рассматриваются более узкие классы, в к-рых иногда удается найти равномерно лучшую решающую функцию. Примерами таких сужений являются классы несмещенных решающих функций и инвариантных решающих функций. Следует иметь в виду, что сужение класса рассматриваемых решающих функций может привести к потере качества принимаемого решения, однако в любом случае естественно ограничиться рассмотрением класса Ж* только таких решающих функций, что для любой решающей функции 5 существует 5* е X *, для к-рой Д(0, 5*)^Д(0, 5) (2) для всех 0 е 0. Такой класс Ж * называется полным классом решающих функций. Полный класс называется минимальным полным, если никакое его собственное подмножество не является полным классом. В весьма общей ситуации минимальный полный класс совпадает с классом допустимых решающих функций: решающая функция 5 называется допустимой, если не существует решающей функции 5*, для к-рой неравенство (2) выполняется для всех 0 е 0 со строгим неравенством хотя бы в одной точке параметрич. пространства 0. В тех случаях, когда минимальный полный класс содержит более одного представителя, то есть не существует равномерно лучшей решающей функции, необходимо иметь принцип выбора единственной решающей функции из этого класса. Этот принцип обычно основан на минимизации нек-рых числовых характеристик величины средних потерь, называемых (в отличие от функции риска) просто риском решающей функции 5 (или соответствующего решающего правила ф). В частности, значение функции риска в фиксированной точке называется вальдовским риском, причем в литературе иногда не различают понятий «функция риска» и «вальдов- ский риск»; последний иногда называется просто риском. Другими примерами риска служат наибольшее значение по 0 функции риска, априорный риск, апостериорный риск, а также связанные с ними характеристики соответствующих оптимальных решающих функций - минимаксный риск и бей- есовский риск. Риск иногда включает в себя в качестве аддитивной добавки величину издержек, связанных с проведением статистич. эксперимента, и в таком случае называется полным риском. С каждым видом риска связан соответствующий подход к построению оптимальных решающих функций. Рассмотрим несколько примеров. Бейесовский подход. Предполагается, что на измеримом параметрич. пространстве (0, S) задано так наз. априорное распределение G, с помощью к-рого вводится априорный риск любой решающей функции 5: *c(5)=Je/tte, 8)GWe), определяющий величину полных средних потерь. Решающая функция 5е, на к-рой достигается минимум априорного риска, называется бейесовской решающей функцией; априорный риск Rq(^g^ так°й оптимальной решающей функции называется бейесовским риском. В широком классе статистич. задач бейесовские решающие функции существуют, и совокупность всех бейесовских решающих функций, когда G пробегает множество всех вероятностных мер на (0, J), и их пределов (в определенной слабой топологии сходимости решающих функций) образует полный класс решающих функций. Следует различать два аспекта бейесовского подхода к статистич. задачам. В ряде конкретных статистич. исследований неизвестное значение параметра действительно является реализацией нек-рой случайной величины с распределением G (напр., статистический приемочный контроль). В таком случае априорный риск действительно характеризует величину полных средних потерь, однако практич. реализация бейесовского подхода к построению оптимальных решающих функций при неизвестном G возможна в основном в рамках бейесовского подхода эмпирического. С другой стороны, существует широкий класс статистич. задач (напр., задача оценки значения нек-рой физич. константы), в к-рых 0 нельзя рассматривать как реализацию случайной величины, и G выступает в роли весовой функции, а априорный риск является формальной числовой характеристикой качества решающей функции. В таком случае априорное распределение можно рассматривать как удобную параметризацию полного класса бейесовских решающих функций. Минимаксный подход предлагает выбирать решающую функцию из условия минимизации sup R(d, 5) - наи- е<=е большего значения функции риска. Решение такой экстремальной задачи называется минимаксной решающей функцией, а величина inf sup R(d, 5) - минимаксным риском. s 8 В весьма общей ситуации минимаксная решающая функция существует и является бейесовской (обобщенно бейесовской) решающей функцией относительно наименее благоприятного априорного распределения - априорного распределения G*, для к-рого inf RG+(b) = sup inf RG(b). 8 g 5 При этом функция риска минимаксной решающей функции постоянна и ее значение равно бейесовскому риску относительно наименее благоприятного распределения. Минимаксный подход часто используется при отсутствии априорной информации относительно параметра 0 и играет важную роль при планировании оптимального момента остановки статистич. эксперимента. Применение минимаксного подхода на практике не всегда оправданно, поскольку он ориентирует статистика на величину средних потерь в наихудшем случае, и минимизация таких потерь приводит, как правило, к резкому возрастанию валь- довского риска в других точках параметрич. пространства. О других подходах к выбору решающих функций см. в ст. Оптимальность статистической процедуры. Введенные понятия и методы С. р. т. можно проиллюстрировать на примере двух основных проблем классич. теории математич. статистики. Пример 1 (проблема оценки параметра). Статистич. проблема параметрич. оценивания обычно формулируется следующим образом: по результату х наблюдения случайного элемента X (выборки) с распределением Ре необходимо построить точечную оценку 0(лг) неизвестного значения конечномерного параметра 0 е 0. С точки зрения С.р.т. в качестве пространства решений здесь выступает параметрич. пространство 0, а в качестве решающей функции - оценка 0. Функция потерь обычно выбирается зависящей только от СТАТИСТИЧЕСКИХ 669
расстояния между 0 и принятым решением (оценкой) d-.Ш, </) = /( |e-rf|), причем /(0) = 0. Напр., 1{р) = р2 - квадратич. функция потерь и 1(р) = 0, если р<А, и 1{р)-\ в противном случае - функция потерь типа 0-1. В случае квадратич. функции потерь в качестве риска выступает средняя квадратич. ошибка оценки, а в случае функции потерь 0-1 - вероятность покрытия истинного значения 0 областью, лежащей вне интервала (8(Х)-Д, 8(Х) + Д). Основные понятия С. р. т.- бейесовская решающая функция, минимаксная решающая функция и т. д.- в проблеме оценивания конкретизируются в терминах «бейесовская оценка», «минимаксная оценка»,... Пример 2 (раз л ичение k^2 простых гипотез). Пусть в статистич. структуре & множество 0 состоит из конечного числа точек 01t ..., Qk. Статистич. проблема состоит в проверке справедливости одной из k гипотез Я^:0 = 0^, t=l, ..., k. В рамках С.р.т. данная статистич. проблема определяется конечным пространством решений 2)= (du .... dk), где d{ - решение о принятии гипотезы Я,, i - 1,..., k. Функцию потерь L(0,, dj) обычно полагают равной 0, если t =/, и равной 1, если i*/. Решающее правило называется критерием и определяется вектор-функцией ф(дг) = (cpjOt), ..., фА(дг)): t-я компонента pt-(x) равна вероятности, с к-рой в результате процедуры рандомизации принимается гипотеза Н{, когда результат наблюдения X равен х; V. ф,(дг)= 1. Функция риска критерия ф в точке 0^ равна вероятности отвергнуть гипотезу Я,, когда она верна. Здесь так же, как и в задаче оценки, соответствующие термины С. р. т. конкретизируются в бейе- совский критерий, минимаксный критерий и т. п. Рассмотренные выше проблемы С. р. т. касались в основном вопроса построения решающих функций, минимизирующих риск. Другой, более важной в практич. отношении задачей С. р. т. является построение гарантийных процедур статистич. вывода. Существо проблемы связано с тем фактом, что оптимальность решающих функций еще не гарантирует хорошего качества принятого решения - риск может быть неприемлемо велик. Однако величину риска можно уменьшить, спланировав статистич. эксперимент соответствующим образом, то есть выбрав наиболее информативные характеристики исследуемого объекта, подлежащие наблюдению в эксперименте, и назна чив достаточно большой объем наблюдений. Итак, проблема гарантийности статистич. вывода в рамках С. р. т. состоит в построении статистич. процедуры (схемы управления наблюдениями, момента остановки статистич. эксперимента и правила принятия решений), к-рая гарантирует выполнение заданных ограничений на величину риска и при этом минимизирует издержки, связанные с проведением статистич. эксперимента. Проиллюстрируем эту проблему С. р. т. на примере различения двух гипотез. Пример 3. Рассматривается статистич. проблема примера 2 с числом гипотез fe = 2, когда случайный элемент X формируется следующим образом. Пусть Xt, X2, ... - последовательность независимых одинаково распределенных случайных величин, распределение к-рых зависит от 0. Статистич. эксперимент состоит из ряда шагов: на каждом шаге с номером я( = 1, 2, ...) наблюдается случайная величина Хп, фиксируется результат хп ее наблюдения и решается вопрос продолжения наблюдений или их прекращения с последующим принятием одной из двух гипотез. Остановка эксперимента (прекращение наблюдений) осуществляется с помощью рандомизированного правила остановки ф5 = {ф*(лгп)), и=1, 2, ...}, где Ф*(* ) - вероятность, с к-рой останавливается (путем проведения про- 670 СТАТИСТИЧЕСКИХ I цедуры рандомизации) эксперимент на шаге п, коль скоро результат эксперимента к этому шагу равен х -{х^ хп). Правило остановки порождает марковский момент остановки v (случайный объем выборки), и случайный элемент X=(Xt, ..., Xv) есть обрывающийся дискретный случайный процесс. Статистич. процедура (критерий) в данном случае определяется парой ф(ф5, Ф<Д где cprf - правило принятия решения в момент окончания статистич. эксперимента. Проблема гарантийности состоит в построении такого критерия ф, что выполняются заданные ограничения (av а2) на вальдовский риск: R(Qit cp)^at, i~ 1, 2, и при этом минимизируется max(Ee v, Eejv) ~ наибольшее значение среднего объема выборки v (см. Последовательный анализ). Более сложные примеры, в к-рых на каждом шаге статистич. эксперимента решается не только вопрос о продолжении наблюдений, но и вопрос о выборе случайной величины, подлежащей наблюдению на следующем шаге, можно найти в теории планирования регрессионных экспериментов. В задачах такого рода статистич. процедура дополняется компокен- I той ф/ - правилом выбора: ф = (ф/, фя, cpf/). При построении гарантийных процедур в рамках беиесов- ского подхода иногда требуемые ограничения накладываются | не на полный априорный риск, а на величину средних потерь среди тех статистич. экспериментов, к-рые заканчиваются | принятием одного и того же решения d, напр., в статистич. I приемочном контроле ограничения накладываются на средние потери, связанные с приемкой партии продукции и (отдельно) с ее браковкой. Это так наз. {/-апостериорный подход I к проблеме гарантийности статистич. вывода (подход j Большева). I Лит.: [1] Вальд А., п сб.: Псмиционные игры, rtq), с англ., М., I 1967, с. 300-522; [2] его же, НиеледоБагельньш аналии, пер. с а«1гл., I М., I960; [3J Le Cam L., -Aim. Math. Statist >, 1955, v. 26, 1 p. 69—81; [4] Ferguson T S.. Mathematical sntislic*. A decision j theoretic approach. N. Y- L., 1967; [51 Berber Л. О., Statistical c.eci sion theory, N. Y. - [a.o.], 1980; [6| Де Гроот М., Опл и мольные | статистические решения, пер. с англ., М . 1974; (71 боровков А. А., j Математическая статистика, М., 1984; [8\ Чечцгв II. П., Статчети- j ческие решающие ирапил? и оптимальные Вп'ьо^ы, М.. 1972; |91 Хо- : лево А. С, Вероятноешыс и стаже гические аспекты квантовой геи- | рии, М.. 1980; (10) 3jkc ILL, Теория статис^ич^гких bv йодов, пер, с ! англ. М., 1975' [111 Погодин И Н., в ciV Ис^ледсиш'Я п" при | кладной математике, в. 10, [Каг* ]. 198^, с. 13 'V*. | Л. В. tJi'VHiurncfui. If H. ВолоОи*' | СТАТИСТИЧЕСКОЕ МОДЕЛИРОВАНИЕ (ytatisi к аЦ modelling) - построение Митсматичесьич имитаций сл\чайипх I явлений или процессов. С м. исполыуегсу з магг.матнч. ста- | тистике, статистич. и?р^\, криптографии и кодировании для j рандомизации, ю есть конкретной ^са.пи.\и;ии недетерминнро- | ванных алгоритмов и д/ы конструирования поведении, н^ед- I сказуемого лишь «в ередги^' >-. Возможности С м. i спо^.зуют- | ся также в прикладной и вычислительной математике для I расчетов но Монте-Карло методу (методу статистич. испыта- | ний). Последний состоит я том, что исчимые неизвестные интерпретируют как характеристики соответствующего слу- I чайного явления Ф; это случайное явление числение- модели- I руется, после чего искомые величины оцениьают из имитаций I случайного явления Ф (см. Импт*щим случайно."* явления, \ Численная симуляция с щчайчого явления). Этот метод широ- | ко применяют для изучение повеупня есхагтич. систем с | помощью «экспериментов» над их численными имитациями | (см., напр., Статиг тическое моделирование гисте ^ оОс л ужи - вания, Статистическое моделирование цепей Маркова). Часто в расчеты закладывают упрощенные модели реального явления (см., напр., Статистическое моОелирование задач ] переноса). Разработаны также стохастич. модели, позволяю- ! щие использовать метод Монте-Карло для решения задач I невероятностного происхождения, напр. задач теории упруго-
сти <см. Линейное уравнение, решение методом Монте-Карло, Эллиптическое уравнение', решение методом Монте-Карло). Обычно для С. м. какого-либо случайного явления строят более или менее естественное отображение /"единичного счет- номерного куба Н -'X.k=[{xk:0^xk^ 1} с лебеговым объемом r/V-ГР dxk на вероятностное пространство (Q, .< Р) ма- тематич. схемы этого случайного явления il-f(H), P-Vf Тогда исход со случайного явления «разыгрывается» по последовательности случайных или псевдослучайных чисел %k (СЧ) по формуле со = /"(£, %k, ...). Для моделирования скалярной случайной величины используют одно, редко два СЧ. Во всех задачах С. м. имитация СЧ рассматривается как массовая проблема: допускается, что «розыгрыш» может с нек-рой вероятностью привести к «типичному» исходу со. В зависимости от области приложения требования к сложности, точности и надежности С. м., в частности к «типичности» используемой последовательности cik, СЧ могут варьироваться. Так, в мате- матич. статистике недетерминированная стратегия (стохастич. решающее правило) описывается марковским переходным расi;ределением вероятностей П(ео; db) из пространства (Q, У) элементарных исходов со ситуации в измеримое пространство (Л, ifi) выводов 8. Здесь важна в первую очередь близость частот к вероятностям П(ео, В). Для этого существенна, если вывод разыгрывается по одному СЧ, только равномерность расположения чисел ^k на отрезке [0, 1]. В стати- стич. играх (в отличие от игр с природой) важна непредсказуемость для партнера хода, выбираемого в соответствии с недетерминированной стратегией по очередному СЧ; возникают требования к порядку появления точек ^ в различных частях отрезка [0, 1 j и т. и. В методе Монте-Карло, как правило, для неизвестной z, отыскивают представление в виде математич. ожидания 7 = EZ(eo) какой-либо случайной величины Z(eo) на вероятностном пространстве (П, .<■/, Р), описывающем используемое случайное явление Ф, и имитируют независимые наблюдения Ф. Тогда па основании jaKoiia больших чисел 2«^=[/((D(1)) + ...+/((0,N))l/N. С) В описанной выше стандартной схеме С. м. эта задача сводится формально к вычислению интеграла z=[4Z(f{x))dV=EZ((d) по i тростей шей квадратурной формуле (*) с равными весами и случайными абсциссами х п . При E|Z(co)| < <*> случайная погрешность этой формулы может быть грубо оценена по вероятности с помощью неравенства Чебышева или, асимптотически, на основании центральной предельной теоремы Р{|;'-Си|*•ло(г)Л'"1/:г}*егКй)> o2(Z) = E|z(co)|2- |EZ(co)!2. Математич. ожидание E|Z(co)| также может быть оценено «из экспериментов*, что позволяет дать апостериорную доверительную оценку точности расчета (см. Доверительное оценивание). Объем вычислительной работы, необходимой для достижения заданной точности в расчете z, определяется (см Монте-Карло метод] объем необходимой работы) при фиксированном уровне доверия erf(a) произведением № = e"Vo2(Z)x(Z), где t(Z) - магематич. ожидание объема вычислительной работы но построению одной реализации Z(co). Оно быстро рагтет с уменьшением е; поэтому большое значение имеет удачный выбор модели с достаточно малым а т. В частности, в первоначальной интегральной записи может оказаться выгоднее заранее аналитически проинтегрировать по части переменных .г,, сделать замену других неременных, разбить куб интегрирования на области, выделить главную часть интеграла, использовать группу зависимых узлов, задающих точную квадратурную формулу для какого-либо класса функций, и т. п. Особую осторожность следует проявлять, когда из имитационного «эксперимента» хотят оценить вероятность редкого события или, более общо, вычислить интеграл от функции, заметно отличающейся от нуля лишь в малой области. Здесь почти обязательно надо сделать преобразование имитируемого случайного явления, после к-рого интересующее нас событие перестанет быть редким. Лит.: [1] Ермаков СМ., Михайлов Г. А., Статистическое моделирование, 2 изд., М., 1982; [2] Франк-Каменецкий А. Д., Моделирование траекторий нейтронов при расчете реакторов методом Монте-Карло, М., 1978; [3) Методы Монте-Карло в статистической физике, пер. с англ., М., 1982; [4) Ермаков СМ., Некрутки н В. В., Си пин А. С, Случайные процессы для решения классических уравнений математической физики, М., 1984; [5) Михайлов Г. А., Сабельфельд К. К., Ченцов Н. Н., в кн.: Актуальные проблемы прикладной математики и математического моделирования, Новосиб., 1982, с. 69-82; (6) Forsythe G., Lei Ыег R., «Math. Tables and Other Aids Comp>, 1950, v. 4, p. 127-29; [7] Бёрд Г., Молекулярная газовая динамика, пер. с англ., М., 1981; [8] Ермаков С М., Метод Монте-Карло и смежные вопросы, 2 изд., М., 1975: [9] Пол ля к Ю. Г., Вероятностное моделирование на электронных вычислительных машинах, М., 1971; [10] Ми Пег М., «Ann. Math. Statist», 1956, v. 27, № 3, p. 569-89; [И] Ченцов Н. Н., Статистические решающие правила и оптимальные выводы, М., 1972. Н. Н. Ченцов. СТАТИСТИЧЕСКОЕ МОДЕЛИРОВАНИЕ задач пере носа (statistical simulation of transport problems) - численное решение задач теории переноса, к-рое осуществляется путем статистического моделирования случайных траекторий частиц, быть может отличных от таковых в исходной задаче переноса. В связи с приложениями наиболее развито случайное моделирование переноса в среде частиц малой примеси (напр., нейтронов, фотонов, электронов), описываемого стационарным линейным кинетическим уравнением переноса Af-g или его стационарным аналогом. При случайном моделировании оператор А, определяющий стохастич. дифференциальное описание процесса, обычно расщепляют, разделяя марковский процесс x(t) в пространстве IP" на чистый перенос (и, может быть, непрерывную диффузию) и на дискретное рассеяние, на частицах среды. Оцениваемые физич. величины (напр., интегральные потоки, показания детекторов) можно рассматривать как линейные функционалы от решения задачи переноса и вычислять их как средние значения соответствующих характеристик по ансамблю независимых случайных марковских траекторий, к-рые могут моделироваться последовательно. Такой линейный подход справедлив, пока можно пренебрегать непосредственным взаимодействием частиц примеси между собой или через посредство изменяемой под их воздействием среды. В общем же случае надо моделировать параллельно ансамбль траекторий. Для решения линейных задач разработан широкий арсенал методов преобразования модели, ускоряющих вычисления (см. Статистическое моделирование). Основной прием состоит в переходе к статистич. моделированию марковских траекторий фиктивных частиц с весом, для к-рых искомый поток приобретает смысл потока массы (ср. Линейное уравнение', решение методом Монте-Карло). Такое расширение фазового пространства от П?я до 1РПФ1Р+ позволяет (напр., вместо случайного поглощения уменьшать массу частиц) вместо моделирования каскада v частиц разыграть перенос одной частицы массы Ev. Эту же идею использует прием случайного моделирования с учетом ценности функции, то есть решения сопряженной задачи переноса, в частности, при экспоненци- СТАТИСТИЧЕСКОЕ 671
альном преобразовании случайного пробега. Введение весов позволяет, разыграв единственный марковский процесс переноса в IP", получить зависимые испытания в статистическом моделировании нескольких марковских процессов в [Р"ф1Р , отвечающих семейству процессов переноса в В?я. Дифференцируя веса по параметру семейства, можно построить эффективные оценки соответствующих производных от искомых функционалов по параметру задачи переноса. Для оценки потока /"кроме столкновений метода, дающего только усредненный по области поток, используются локальные оценки f. Алгоритм См. траекторий частиц в сложных средах иногда существенно упрощается методом «максимального сечения», когда вводится фиктивное «тождественное рассеяние», оставляющее вектор скорости частицы неизменным, а сумма сечений физич. и фиктивного рассеяний выбирается постоянной по пространству. Для задач переноса делящихся частиц, кроме задачи с источниками Af- g, интересны задачи отыскания максимального собственного значения Af=xf, определения критических, то есть отвечающих х= 1, размеров системы, и т. и. Для этой цели, в частности при нейтронно-физич. расчетах ядерных реакторов, используют специальные модификации метода поколений частиц [1]. Лит,: [1] Ермаков СМ., Михайлов Г. А., Статистическое моделирование, 2 изд., М., 1982; [2] Марчу к Г. И. [и др.], Метод Монте-Карло в атмосферной оптике, Новосиб., 1976; [3) Еленов Б. С. [и др.], Решение краевых задач методом Монте-Карло, Новосиб., 1980; [4] Франк-Каменецкий А. Д., Моделирование траекторий нейтронов при расчете реакторов методом Монте-Карло, М., 1978; [5] Фролов А. С, Ченцов Н. Н., в кн.: Метод Монте-Карло в проблеме переноса излучений, М., 1967, с. 25-52. Г. А. Михайлов, Н. И. Ченцов. СТАТИСТИЧЕСКОЕ МОДЕЛИРОВАНИЕ систем обслуживания (statistical simulation of queuing systems) - воспроизведение с помощью ЭВМ поведения во времени обслуживания системы. Алгоритмы, используемые при этом, строятся на основе вероятностных моделей, к-рыми такие системы описываются, и являются алгоритмами статистического моделирования случайных процессов. Важность См. систем обслуживания определяется практич. невозможностью аналитич. исследования обширных классов технич. систем (систем связи, транспортных и др.). Основные задачи таковы. 1) Задача удобного формального описания системы. Достаточно общий подход к проблеме состоит в расчленении системы на подсистемы-агрегаты (см. [1]). В частных случаях удается описать С. м. с помощью вложенного марковского процесса. Широко применяется приближенное описание, когда система просматривается через малые промежутки времени (Л^-принцип) и фиксируются события, произошедшие в каждый промежуток времени. В последнем случае для систем, у к-рых существует стационарный режим, возможно их приближенное описание с помощью векторного марковского процесса. Для удобного формального описания систем массового обслуживания создано много алгоритмич. языков моделирования (симула, симск-рипт, специальные средства моделирования на базе алгол-68 и др.). 2) Построение оценок и повышение эффективности алгоритмов (см. [2], [3]). Для оценивания характеристик систем обслуживания используют средства ма- тематич. статистики и специальные приемы, основанные на особенностях задачи. При оценке характеристик переходного режима до момента времени Т систему моделируют N раз, начиная с нулевого момента, что дает в качестве оценок соответствующие средние. Характеристики стационарного режима оценивают по одной достаточно длинной траектории, используя закон больших чисел и предельные теоремы для зависимых случайных величин (оценки при этом асимптотически несмещенные). Последнюю задачу полезно трактовать как задачу оценивания Монте-Карло методом функционалов от собственных мер сильно положительных линейных операторов, что дает возможность с единой точки зрения рассматривать задачу уменьшения дисперсии и смещения оценок и использовать приемы повышения эффективности, развитые общей теорией метода Монте-Карло. Лит.: [1J Бусленко Н.П., Математическое моделирование производственных процессов на цифровых вычислительных машинах, М., 1964; [2] Ермаков СМ., Мелас В. Б., Математический эксперимент с моделями сложных стохастических систем, СПб., 1993; {3] Коваленко И. Н., Кузнецов Ю. Н., Методы расчета высоконадежных систем, М., 1988. СМ. Ермаков. СТАТИСТИЧЕСКОЕ МОДЕЛИРОВАНИЕ цепей Map к о в a (statistical simulation of Markov chains) - раздел теории статистического моделирования, включающей методы имитации последовательностей марковских испытаний, принципы преобразования интегралов по пространству марковских траекторий и т. п. Пошаговое построение последовательности марковских переходов {Х0—>Х1 -►... -►Л",, -►...} с переходным распределением вероятностей Q(x; dy) для целочисленной или непрерывной координаты X положения осуществляется моделированием случайных величин У-Хп с распределением Q(Xn_f, dy) по последовательности независимых равномерно распределенных случайных или псевдослучайных чисел. Состоятельность такой симуляции гарантируется в [1J, когда псевдослучайные числа вполне равномерно распределены. Марковские траектории X(t) или моделируются для нек-рой последовательности tb = t$ + kAt, k е Ы, моментов времени t, или же проводится построение опорных точек этих траекторий, напр. положений рассеяния в задачах переигса (ср. также Блуждании по сферам метод для броуновских траекторий). Более сложно моделирование так нал. марковских полей. Различные марковские модели применяются для решения линейных уравнений методом Moure Карло (см. [3]), задач статиетич. физики (см. [4]), квантовой теории поля и теории элементарных частиц, в том числе вычисление континуальных интегралов (см. [5], |6]) и др. Лит.: \\] Ченцов II. В., «Ж. вычислит, матем. и матом фишки», 19в7, т. 7, с 632-43; [21 Kepi пес Д., «Успехи матом. »а"к». 1957, т. 12, в. 5, с. 149-74; [31 Ермаков С. М., Искру i- к и н В. В., Сииин А. С, Случайные процессы для решения класи- ческих уравнений математической физики, М.. 19с<4, |4] Методы Мон- го-Карло в статистической физике, пер. с ашл., М., 1982: [5] Г с ib- фанд И.М., Ченцов Н. Н., «Ж. эксперим и теорстич. физики». 1956, т. 31, с. 1106-07; [6| Applications of the Monlc Cirlo method in statistical physics, 2 ed., B. - [а. о J. 1987. //. H. Чепцов. СТАТИСТИЧЕСКОЕ ОЦЕНИВАНИЕ (statistic estimation) - один из основных разделов математической статистики, посвя щенный оцениванию по случайным наблюдениям тех и ни иных характеристик их распределения. Пример 1. Пусть Xt, ..., Хп - независимые случайные величины (наблюдения) с общим распределением ,/> на прямой, неизвестным наблюдателю. Эмпирич. (выборочное) распределение ?„*, приписывающее нагрузку 1/я каждой случайной точке Xit является оценкой для ;/". Эмпирич. моменты служат оценками для моментов о\, = J xvd;f. В частности, - оценка средней, 672 СТАТИСТИЧЕСКОЕ - оценка дисперсии.
Основные понятия. В общей теории оценивания наблюдение X есть случайный элемент со значениями в измеримом пространстве (Зс, Ю, неизвестное распределение к-рого принадлежит заданному семейству распределений 0». Семейство распределений всегда можно параметризовать и записать в виде {Уе, 0Е0}. Здесь форма зависимости от параметра и множество 0 предполагаются известными. Задача оценивания по наблюдению X неизвестного параметра 0 или значения g(Q) функции д в точке 0 заключается в том, чтобы построить функцию 0*(Х) от наблюдений, достаточно хорошо аппроксимирующую 0(г/(0)). I Сравнение оценок производится следующим образом. Пусть на множестве 0x0(^(0) xg(Q)) задана неотрицательная функция потерь w(yx\ у2), смысл к-рой состоит в том, что употребление оценки 0* при фактич. значении параметра 0 приводит к потерям о;(0*;0). Средние потери функции риска/?ц,(0*; 0) = Eeze>(0*;0) принимают за меру качества статистики 0* как оценки 0 при функции потерь w. Тем самим на множестве оценок вводится отношение частичного упорядочения; оценка 7^ предпочтительнее оценки Г2, если RTC('I\; 0) ^/?а,(^2; 6). В частности, оценка Т параметра 0 называется недопустимой (по отношению к функции потерь w), если найдется оценка Т' такая, что RW(T'; Q)^RW(T; 0) для всех 0е0, причем для какого-нибудь 0 имеет место знак строгого неравенства. При таком способе сравнения качества оценивания многие оценки оказываются несравнимыми, кроме того, выбор функции потерь в значительной степени произволен. Иногда удается найти оценки, оптимальные внутри нек-рого более узкого класса оценок. Важный класс образуют несмещенные оценки. Если исходный эксперимент инвариантен относительно нек-рой группы преобразований, естественно ограничиться оценками, не нарушающими симметрию задачи (см. Экоивариантная оценка). Оценки можно сравнивать по их поведению в «худших» точках: оценка Г0 параметра 0 называется минимаксной (см. Минимаксная оценка) по отношению к функции потерь, если sup RW(TQ; 0) = inf sup RW(T; 0) и нижняя грань берется в т в по ьсем оценкам Т=Т(Х). В бейесовской постановке задачи оценивания считается, что неизвестный параметр 0 представляет значения случайной величины с априорным распределением Q на 0. В этом случае наилучшая по отношению к функции потерь w оценка Г0 определяется соотношением г(е,(7,0) = Е„(Г0; 8)=JQE0rc(ro; 0)Q(tf0) = inf jQEQw(T; 0)Q(rf0) и нижняя грань берется по всем оценкам Т=Т(Х). Различают параметрич. задачи оценивания, когда 0 есть подмножество конечномерного евклидова пространства, и непараметрические. В параметрич. случае обычно рассматривают функции потерь вида /С|6i — в2|)» /- неотрицательная неубывающая функция на IR+. Особую роль играет наиболее часто употребляемая квадратич. функция потерь |е,-е2|2. Если Г=Г(Х) - достаточная статистика для семейства {^е, 0е0}, то часто можно ограничиться оценками 0* = Л(Г). Так, если 0с IR*, w(Q^ 02) = /(|01 -82|), / - выпуклая функция, и 8* - какая-нибудь оценка для 0, то найдется оценка h(T), к-рая не хуже 0*; если 0* - несмещенная, то h(T) можно выбрать несмещенной (теорема Блэкуэлла). Если Т- полная достаточная статистика для семейства {#q}, 0* - несмещенная оценка для <?(0), то найдется несмещенная оценка вида h(T) с минимальной в классе несмещенных оценок дисперсией (теорема Лемана - Шеффе). Как правило, в параметрич. задачах оценивания предполагается, что элементы семейства {£%, 0 6 0} абсолютно непрерывны по отношению к нек-рой а-конечной мере \1 и существу £*в вует плотность -т— = р(х; 0). Если р(х; 0) достаточно гладкая функция 0 и существует информационная матрица Фишера /(e) = Г Цив>(Цог,в)]Т-Й> J* эе ^ эе J р(х,в) задача оценивания называется регулярной. Для регулярных задач точность оценивания ограничивается снизу неравенством Крамера - Ра о: если 0 <= |R , то для любой оценки Т _ Ев|г-е|2^ f ' +ь2(е),ь(е) = Еег-е. /(8) Примеры задач оценивания. 2. Наиболее распространенная постановка, когда наблюдается выборка объема п; Xt, ..., Хп- независимые одинаково распределенные величины, принимающие значения в измеримом пространстве (Зс, Ю с общей плотностью распределения fix', 0) относительно меры v, 0G0. В регулярных задачах, если /(0) - информация Фишера на одно наблюдение, информация Фишера всей выборки /п(0) = л/(0). Неравенство Крамера - Рао принимает вид (н-Т Е«|г-е|2^Чш +ьЧд),т = пх, хя\ 2.1. Пусть Xj - нормальные случайные величины с плотностью распределения (2л)~х' ехр {-2~ а (х-а) }. Неизвестный параметр 0=(я, а2); оценками для а и а2 могут служить X и s . При этом (X, s ) - достаточная статистика. Оценка X - несмещенная, s - смещенная. Если а известна, X - несмещенная оценка минимальной дисперсии, X - минимаксная оценка по отношению к квадратичной функции потерь. 2.2. Пусть X - нормальные величины в II? с плотностью (2лГ*/2ехр{-2-1|.г-0|2}, 0еП?*. СтатистикаХ -несмещенная оценка 0, если fe^2, она допустима по отношению к квадратичной функции потерь, если k>2, - недопустима, 2.3. Пусть Х; - случайные величины в IR1 с неизвестной плотностью распределения /", принадлежащей заданному семейству F плотностей. Для достаточно широкого класса F это непараметрич. задача. Задача оценки значения плотности f(x0) в точке х0 - это задача оценки функционала g(f) = f(x0). 3. Линейная регрессионная модель. Наблюдаются величины £,- - случайные возмущения, t = 1, ..., я, матрица ||да,|| известна, оценке подлежит параметр (0j Qp). 4. Наблюдается отрезок гауссовского стационарного процесса X(t), O^t^T, с рациональной спектральной плотностью |X"!-nflA;| |Х"-1 ^A^l" ' оценке подлежат неизвестные параметры {fly}, {bj). Способы построения оценок. Наиболее распространенный максимального правдоподобия метод рекомендует в качестве оценки 0 оценку максимального правдоподобия б(Х), определяемую как точка максимума случайной функции СТАТИСТИЧЕСКОЕ 673
p(X\ 8). Если 0<=fP , оценки максимального правдоподобия содержатся среди корней уравнения правдоподобия 4г\ър(Х\ 8) = 0. ав Наименьших квадратов метод в применении к задаче примера 3 рекомендует в качестве оценки точку минимума функции Еще один способ построения состоит в том, что в качестве оценки для 8 выбирается бейесовская но отношению к нек-рой функции потерь w и нек-рому априорному распределению Q оценка 7\ хотя исходная постановка не является бейесовской. Напр., если 0 = 11? , можно оценить 8 посредством J2e^(^; eMefQ р(х-, e)deY'. Это - бейесовская оценка по отношению к квадратич. функции потерь и равномерному априорному распределению. Моментов метод заключается в следующем. Пусть 0cz R , и пусть имеется k «хороших» оценок ах(Х), ..., а^(Х) для 0^(6), ..., аА(6). Оценки метода моментов суть решения системы at(8) = av Часто в качестве at выбирают эмпирич. моменты (см. пример 1). Если наблюдается выборка Хх, ..., Хп, то (см. пример 1) в качестве оценки для д(з) можно выбрать д(&п ). Если функ- * df ция g(J*„) не определена [напр., д(&)=~— {х),\ - мера Лебега], выбирают подходящие модификации дп(&п ). Напр., для оценки плотности употребляется гистограмма или оценки вида \уп(х-уШ*(у). Асимптотическое поведение оценок. Пусть для определенности рассматривается задача примера 2, 0cR . Можно ожидать, что при л->°° «хорошие» оценки должны неограниченно сближаться с оцениваемой характеристикой. Последовательность оценок 8„(Xt, ..., Хп) называется состоятельной последовательностью оценок 8, если 8П -> 8 по Ре-вероятности для всех 8. Перечисленные выше способы построения оценок в широких предположениях приводят к состоятельным оценкам. Оценки примера 1 состоятельны. Для регулярных задач оценивания оценки максимального правдоподобия и бейесовские асимптотически нормальны со средним 8 и корреляционной матрицей (я/(9))~ . В этих же условиях эти оценки асимптотически локально минимаксны по отношению к широкому классу функций потерь и их можно рассматривать как асимптотически оптимальные (см. также Асимптотическая теория оценивания). Интервальное оценивание. Случайное подмножество Е = Е{Х) множества 0 называется доверительным множеством для оценки 8 с коэффициентом доверия у, если Ре{£'эв} = у( ^у). Обычно существует много доверительных областей с заданным у, и проблема заключается в том, чтобы выбрать ту, к-рая обладает нек-рыми оптимальными свойствами (напр., интервал минимальной длины, если 0czR ). Пусть в условиях примера 2.1 o=t, тогда интервал [X-X/Jn, X+X/JH], у = /1 J~ exp{-u2/2}du, является доверительным интервалом с коэффициентом доверия у (см. Интервальная оценка). 674 СТАТИСТИЧЕСКОЕ Лит.: [1] Fisher R., «Phil. Trans. Roy. Soc.» (A), 1922, v. 222, p. 309-68; [2] Колмогоров А. Н., Теория вероятностей и математическая статистика, М., 1986, с. 255-63; [31 Крамер Г., Математические методы статистики, пер. с англ., М., 1948; [4] Кон- даллМ., Стьюарт А., Статистические выводы и связи, пер. с англ., М., 1973; [5] Ибраги мов И. А., Хасьми н ский Р. 3., Асимптотическая теория оценивания, М., 1979; [6] Чепцов А. Н., Статистические решающие правила и оптимальные выводы, М., 1972; [7] ЗаксШ., Теория статистических выводов, пер. с англ., М.т 197.5; [8] Grenander U., Abstract inference, N. Y., 1981.Я. Л. Ибрагимов. СТАТИСТИЧЕСКОЕ СОСТОЯНИЕ (statistical state) - см. Состояние. СТАЦИОНАРНАЯ КОВАРИАЦИЯ случайною множества (stationary covariance of a random set) - см. Ковари- ация случайного замкнутого множества. СТАЦИОНАРНАЯ КОРРЕЛЯЦИОННАЯ ФУНКЦИЯ (stationary correlation function) - см. Корреляционная функ ция. СТАЦИОНАРНАЯ МЕРА (stationary measure) - см. Ста ционарное распределение. СТАЦИОНАРНАЯ СТРАТЕГИЯ (stationary strategy/policy) - см. Стратегия, Управляемый скачкообразный процесс, Управляемый случайный процесс с дискретным временем. СТАЦИОНАРНОЕ РАСПРЕДЕЛЕНИЕ (stationary/steady state distribution) - распределение вероятностей однородной Маркова цепи, не зависящее от времени. Пусть X(t) - однородная цепь Маркова со множеством состояний 5 и переходными вероятностями рМ) = P{X(t) =/|Х(0) = i}. С. р.- такси набор чисел {к}, jeS}, что Le5*^/°e*/''e5''>0- (2) Равенства (2) означают, что Ср. инвариантно во времени: если Р{Х(0) = i} = щ, i € S, то P {X(t) = i} = я,-, при любых i e S, t>0; более того, при любых t, t{, ..., tk>0, t{, ..., tkeS, P{X(i,+rt = iI, -., X(ik + t) = ik) = P{X(t{) = iu ..., X(tk) = ik\. Если ieS - такое состояние цепи Маркова X(t), что существуют пределы lim piAt) = n,(0>09 jeS, \. я;(0 = 1, то набор чисел {я;(0, / е 5} удовлетворяет (2) и является С. р. цепи X(t). Система линейных уравнений (2) относительно {яу} при дополнительных условиях (1) имеет единственное решение, если число положительных классов состояний цепи Маркова X(t) равно 1; если цепь имеет k положительных классов состояний, то множество ее Ср. является выпуклой оболочкой k стационарных распределений, каждое из к-рых сосредоточено на одном положительном классе (см. Маркова цепь] классификация состояний). Любое неотрицательное решение системы (2) называется стационарной мерой; стационарная мера может существовать и в случае, когда система (1), (2) несовместна. Напр., случайное блуждание на {0, 1, 2, ...}: Х(0)=0, X(t) = X(t-\) + YU), t=\, 2 где Y(l), Y(2) - независимые случайные величины такие, что Р{7(0 = 1} = у', Р{7(0 = -1} = 1-р, 0<р<1, 1=1, 2, ..., не имеет стационарного распределения, но имеет стационарную меру Я/=(р/(1-?))',/ = 0, ±1, ... Одна из возможных вероятностных интерпретаций стационарной меры {я.} цепи Маркова X{t) со множеством состояний 5 такова. Пусть имеется счетное множество независимых реализаций цепи X(t) и 7,(0 - число реализаций, для к-рых
X(t)~i. Если случайные величины YQ(t), ieS, независимы и подчиняются распределению Пуассона со средними тс,-, i е 5 соответственно, то при любом t > 0 случайные величины Yt(i), ie5, независимы и имеют те же распределения, что и Y{)(i), ieS. Лит.: [1] Чжун Кай-лай, Однородные цепи Маркова, пер. с англ.. М., 1964; [2] Карлин С, Основы теории случайных процессов, пер. с англ., М., 1971. дш м. Зубков. СТАЦИОНАРНОЕ РАСПРЕДЕЛЕНИЕ однородной цепи Маркова (stationary distribution of a homogeneous Markov chain) - вероятностная инвариантная мера в пространстве состояний однородной Маркова цепи. Пусть в измеримом пространстве (Е, .jff) задана однородная цепь Маркова (Л'„) с вероятностями перехода р(х, Е), хеГ, ГеД Мера ц, .заданная на J0, называется инвариантной для цепи, если она о-конечна и цР = |1. где \LP(')=jEp(x, -)\i(dx). В случае, напр., счетной цепи Маркова с состояниями 1, 2,... меру ц можно идентифицировать с последовательностью (U},u2,...) с элементами u., = u.({z}); тогда равенство цР = ц сводится к системе равенств ^#> р^\1{ = ц.;, ; ^ 1, где pij - вероятность перехода из i в j. Всякая инвариантная мера является эксцессивной мерой. Финальные вероятности для эргодической цепи Маркова доставляют пример С. р. и одновременно иллюстрируют важность понятия С. р. Если нек-рое С. р. выбрано в качестве начального распределения цепи (Х„), то последняя образует пац-юнарный процесс с дискретным временем: вероятность события {Хт е Г0 Xm+ft е Гк} не зависит от значения т ^ О, где /.'^0, Г;г_./?, O^i^k. В случае возвратной цепи Маркова все нулевые инвариантные меры отличаются друг от друга числовым множителем и имеют прозрачный вероятностный смысл (см. Предельные теоремы для отношений, отвечающих цепи Маркова). См. также Маркова цепь\ классификация состояний. Jlvm.: [\] Чжун Каи-лай, Однородные цепи Маркова, пер. с "ига., М., 1964; [2] Рев юз Д., Цепи Маркова, пер. с англ , М., 1997. М. Г. Шур. СТАЦИОНАРНОЕ СЛУЧАЙНОЕ МНОЖЕСТВО (stationary random set) - случайное множество А в векторном пространстве S, обладающее свойством: для любого xeS распределения случайных множеств А®{х} и А совпадают (здесь Ф - сложение по Минковскому; см. Минковского операции). А. Г. Катранов. СТАЦИОНАРНОСТЬ в широком смысле (stationariry in the wide sense) - см. Случайная функция; свойство в ши- рокс м смысле. СТАЦИОНАРНОСТЬ ПОТОКА (flow stationary) - свой ство, характеризующее неизменность вероятностного режима входящего потока во времени. Си. означает, что вероятность появления k требований в промежутке времени (7\ Т f t) не зависит от Г и является функцией только переменных к, г. Лит.: [1J Гн еден ко Б. В., Коваленко И.Н., Введение в теорию кассового обслуживания, 2 изд., М., 1987. А. А. Левитская. СТАЦИОНАРНЫЙ ГЕОМЕТРИЧЕСКИЙ ПРОЦЕСС (stationary geometric process) - см. Геометрический процесс. СТАЦИОНАРНЫЙ КАНАЛ (stationary channel) - см Канал без памяти. СТАЦИОНАРНЫЙ МАРКИРОВАННЫЙ ТОЧЕЧНЫЙ ПРОЦЕСС (stationary marked point process) - см. Маркированный точечный процесс. СТАЦИОНАРНЫЙ МАРКОВСКИЙ ПРОЦЕСС (stationary Markov process) - случайный процесс, являющийся и марковским процессом и стационарным случайным процессом. С. м. п. существует тогда и только тогда, когда марковская переходная функция р(х, г, Л) однородна по времени и существует стационарное начальное распределение ц(Л), то есть распределение, удовлетворяющее уравнению uC4) = JA, p(x, t, A)n(dx). Если фазовое пространство X - компакт, а функция E{f(X(t))\x(0)~x} непрерывна по х для любой непрерывной f(x), то См. п., отвечающий данной переходной функции р(х, t, А), существует всегда. Для процесса с дискретным временем и счетным множеством состояний X условие существования С. м. п. состоит в том, чтобы нашлось такое состояние х е X, что среднее время возвращения в него траектории было конечно (критерий Колмогорова). Для произвольного строго марковского процесса справедлив критерий: для существования С. м. п. достаточно существования компакта К<^Н такого, что математич. ожидание времени достижения К из х конечно для любого хеХ\К. В терминах стохастич. функций Ляпунова справедлив критерий Фостера: С. м. п., отвечающий данной марковской переходной функции р(х. t, Л), существует, если найдется функция V(x)^0, для крой Ц/(*)^-1 для хеХ\К (К - нек-рый компакт, L - производящий оператор процесса). Если стационарное начальное распределение ц. единственно, то соответствующий С. м. п. эргодичен. При нек-рых дополнительных условиях переходная вероятность слабо сходится к и. при t —> ©о. Стационарное распределение для процесса с конечным числом состояний и дискретным временем удовлетворяет уравнению u.P = ji, где Р ■- матрица переходных вероятностей. Если X(t) - аналогичный процесс с непрерывным временем, то цЛ = 0, где Л - матрица плотностей вероятностей перехода. Эти уравнения справедливы и для счетного числа состояний, если С. м. п. существует. Для общего случая ц удовлетворяет уравнению Фоккера - Планка - Колмогорова L*u. = 0, где L* - оператор, сопряженный инфинитезимально- му оператору процесса. Лит.: [1] Феллер В., Введение в теорию вероятностей и ее приложения, пер. с англ., т. 1-2, М., 1984; [2] Се вастьянов Б. А., «Теория вероятн. и ее примем.», 1957, т. 2, в. 1, с. 106-16. Р. 3. Хасьминский. СТАЦИОНАРНЫЙ ПРОЦЕСС обобщенный (generalized random process) ~ см. Обобщенный стационарный процесс. СТАЦИОНАРНЫЙ ПРОЦЕСС; статистические задачи (statistical problems for a stationary process) - см. Статистические задачи теории случайных процессов. СТАЦИОНАРНЫЙ ПУАССОНОВСКИЙ ПОТОК (stationary Poisson input) - см. Входящий поток с ограниченным последействием. СТАЦИОНАРНЫЙ СЛУЧАЙНЫЙ ПРОЦЕСС (stationary random process), однородный во времени случайный процесс, - случайный процесс X(t)} статистические характеристики к-рого не меняются с течением времени t, то есть инвариантны относительно временных сдвигов t^>t + a, X(t)-*X(t + a) при любом фиксированном значении а (действительном или целочисленном в зависимости от того, идет ли речь о случайном процессе с непрерывным или с дискретным временем). Понятие С. с. п. широко используется в приложениях теории вероятностей к различным разделам естествознания и техники, так как такие процессы с хорошей точно- СТАЦИОНАРНЫЙ 675
стью описывают многие реальные явления, сопровождающиеся неупорядоченными флуктуациями. Так, напр., пульсации силы тока или напряжения в электрич. цепи (электрич. «шум») можно рассматривать как С. с. п., если цепь находится в стационарном режиме; пульсации скорости или давления в точке турбулентного течения представляют собой С. с. п., если течение является установившимся, и т. д. В математич. теории С. с. п. важную роль играют моменты распределений вероятностей значений процесса X(t), причем особенно важны моменты первых двух порядков ~ среднее значение С. с. п. EX(t)-m и его корреляционная функция EX(t + x)X(t) -В(х). Во многих исследованиях по теории С. с. п. вообще изучаются только те их свойства, к-рые полностью определяются одними лишь характеристиками т и В(х) (так наз. корреляционная теория, или теория второго порядка С. с. п.). В связи с этим случайные процессы, для к-рых EX(t) и EX(t + x)X(t) не зависят от значения t, часто выделяют в особый класс и называют С. с. п. в широком смысле; в таком случае более частные случайные процессы, все характеристики к-рых не меняются со временем [так что функция распределения Ft t t (х^, х2 хп) л-мерной случайной величины {Х(^), X(t2) X(tn)} при любом п зависит только от и- 1 разностей t2-t\ tn-t^], называют С. с. п. в узком смысле. В соответствии с этим теория С. с. п. делится на теорию С. с. п. в узком смысле и теорию С. с. п. в широком смысле, использующие разный математич. аппарат. Теория С. с. п. в узком смысле может излагаться вне рамок теории вероятностей как теория однопараметрич. групп, сохраняющих меру преобразований измеримого пространства с мерой на нем; она близко соприкасается с общей теорией ди- намич. систем и эргодич. теорией. Важнейшей общей теоремой теории С. с. п. в узком смысле является Биркгофа ~ Хинчина эргодическая теорема (см., напр., [2], [3], [б], [7]), согласно к-рой для любого С. с. п. в узком смысле X(t), имеющего математич. ожидание [то есть такого, что Е|Х(0| <оа], почти наверное существует предел lim -±~-\T Y(t)dt = X (1) 7--5->~ T-S JS ИЛИ Нт 7"ЧЬГ . XW-X (1а) T-S->°° T-S *->t=S+\ [формула (1) здесь относится к С. с. п. с непрерывным временем, а (1а) - к процессам с дискретным временем]. В силу относящегося уже к теории С. с. п. в широком смысле результата Е. Е. Слуцкого [1], утверждающего, что предел (1) или (1а) существует в смысле предела в среднем квадратичном и совпадает с EX(t) тогда и только тогда, когда Нт ^Гб(т)</х = 0 (2) или соответственно Нт ^У7^1 Мт)=0, (2а) где Ь(т)=Жт)-т2 = Е[Х(£ + т)-ти][Х(0-/и], при условии (2) или (2а) [то есть, в частности, всегда, когда 6(т) -» О при !-><»] предел (1) или (1а) будет совпадать с EX(t). Теорема Биркгофа - Хинчина может быть приложена и к всевозможным С. с. п. в узком смысле вида Уф(0 =Ф[Х(0], где Ф[Х(0] - произвольный функционал от С. с. п. X(t), являющийся случайной величиной, имеющей математич. ожи- 676 СТАЦИОНАРНЫЙ дание; если для всех таких С. с. п. Уф(£) соответствующий предел Уф совпадает с ЕУФ, то С. с, п, X(t) называется метрически транзитивным. Для гауссовских С. с. п. X(t), условие стационарности к-рых в узком смысле совпадает с условием стационарности в широком смысле, метрич. транзитивность будет иметь место тогда и только тогда, когда спектральная функция F(X) процесса X(t) является непрерывной функцией X (см., напр., [2], [3]). В общем случае нет простых необходимых и достаточных условий метрич. транзитивности С. с. п. Кроме вышеуказанного результата, касающегося метрич. транзитивности, имеется также множество других результатов, относящихся специально к гауссовским С. с. п.; в частности, для таких процессов подробно изучен вопрос о локальных свойствах реализаций (то есть отдельных наблюденных значений) С. с. п. X(t)} о статистич. свойствах последовательности нулей или максимумов реализации С. с. п. X(t) и точек пересечения ею заданного уровня (см., напр., [3], [8]-[10]). Типичным примером результатов, касающихся пересечений уровня, является утверждение о том, что при широких условиях регулярности совокупность точек пересечения высокого уровня х-и гауссовским С. с. п. X(t) в нек-ром специальном масштабе времени (зависящем от и и быстро стремящемся к бесконечности при и -> °°) сходится при и -► °° к пуассоновскому потоку событий единичной интенсивности (см. [3], [9], [10]). При рассмотрении С. с. п. в широком смысле вводят в рассмотрение гильбертово пространство Нх всевозможных линейных комбинаций значений процесса X(t) и пределов в среднем квадратичном последовательности таких линейных комбинаций, скалярное произведение в к-ром задается формулой (yt, У2) = Eyty2. В таком случае преобразование Х(0-»Х(£ + я), где а~ фиксированное число, будет порождать линейный унитарный оператор Ua, отображающий пространство Нх на себя. При этом семейство операторов Ua удовлетворяет условию UaUb=Ua+b, а значения X(t) = UtX(Q) будут представлять собой совокупность точек (кривую, если время t непрерывно, и счетную последовательность точек, если время дискретно), переводимую в себя всеми операторами Ua. Соответственно этому теория С. с. п. в широком смысле может быть переформулирована в терминах функционального анализа как изучение совокупностей точек Х(О = ЦХ(0) гильбертова пространства Нх, где Ut - семейство линейных унитарных операторов таких, что иаиь=иа+ь. Центральное место в теории С. с. п. в широком смысле занимают спектральные рассмотрения, опирающиеся на разложение случайного процесса X(t) и его корреляционной функции В(х) в интеграл Фурье - Стилтьеса. В силу теоремы Хинчина [4] (являющейся простым следствием аналитич. теоремы Бохнера об общем виде положительно определенной функции) корреляционная функция В(х) С. с. п. с непрерывным временем всегда может быть представлена в виде жт)=/лЛ/т), (з) где F(k) - ограниченная монотонно неубывающая функция Х} а Л = (-о°, <»); теорема Герглотца об общем виде положительно определенных последовательностей аналогичным образом показывает, что такое же представление, но только с Л = [-я, я], имеет место и для корреляционной функции С. с. п. с дискретным временем. Если корреляционная функция В(х) достаточно быстро убывает при |т| -»<*> [как это чаще всего и бывает в приложениях при условии, что под X(t) понимается разность X(t)-m, то есть считается, что
EXit)=0], то интеграл в правой части (3) обращается в обыкновенный интеграл Фурье B(x)=j^eizXf(X)dX, (4) где f(X) = F'(X) - неотрицательная функция. Функция F(X) называется спектральной функцией С. с. п. X(t)} a функция f(X) [в случае, когда имеет место равенство (4)] - его спектральной плотностью. Сам процесс X(t) допускает спектральное разложение вида X(t) = \ eitXdZ(X), (5) J Л где Z(X) - случайная функция с некоррелированными приращениями [то есть такая, что EdZ(X^)dZ(X2)-0 при X^X2]f удовлетворяющая условию E|rfZ(A.)| = dF(X)} а интеграл справа понимается как предел в среднем квадратичном соответствующей последовательности интегральных сумм. Разложение (5) дает основание рассматривать любой С. с. п. в широком смысле X(t) как суперпозицию совокупности некоррелированных друг с другом гармонич. колебаний различных частот со случайными амплитудами и фазами; при этом спектральная функция F(X) и спектральная плотность f(X) определяют распределение средней энергии (или, точнее, мощности) входящих в состав X(t) гармонич. колебаний по спектру частот X [в связи с чем в прикладных исследованиях функция f(X) часто называется также энергетическим спектром, или спектром мощности, С. с. п. X(t)]. Спектральное разложение корреляционной функции В(т), задаваемое формулой (3), показывает, что отображение X(t) —>ег , переводящее элементы X(t) гильбертова пространства Их в элементы еп гильбертова пространства L (dF) комплексиозначных функций на множестве Л с интегрируемым но dF(X) квадратом модуля, является изометрич. отображением кривой (или счетной последовательности точек) X(t) пространства Нх в L (dF). Это отображение может быть далее продолжено до изометрич. линейного отображения М всего пространства Нх в пространство L (dF), что позволяет переформулировать многие задачи теории С. с. п. в широком смысле и виде задач теории функций. Значительная часть теории С. с. п. в широком смысле посвя- щеьа методам решения линейных аппроксимационных задач для таких процессов, то есть методам нахождения линейной комбинации каких-то «известных» значений X(t)} к-рая лучше всего (в смысле минимума среднего квадрата ошибки) приближает нек-рое «неизвестное» значение того же процесса или какую-то «неизвестную» случайную величину У. В частности, задача об оптимальной линейной экстраполяции С. с. п. X(t) состоит в отыскании наилучшего приближения X*(s) к значению X(s)} s>0, линейно зависящего от «прошлых значений» X(t) с £^0; задача об оптимальной линейной интерполяции - в отыскании наилучшего приближения к X(s)} линейно зависящего от значений X(t), где t пробегает все значения, не принадлежащие выделенному интервалу оси времени (к к-рому принадлежит s)\ задача об оптимальной линейной фильтрации может быть сформулирована как задача об отыскании наилучшего приближения У* к нек-рой случайной величине У, линейно зависящей от значений X(t) при tKO, причем чаще всего У - это значение при каком-то t = s корреляционно связанного с X(t) С. с. п. У(0, играющего роль «сигнала», a X(t) = Y(t) + N(t) - это известная из наблюдений сумма «сигнала» и искажающего его «шума» N(t). Геометрически все перечисленные задачи сводятся к задаче опускания перпендикуляра из нек-рой точки гильбертова пространства Нх (или его расширения) на заданное подпространство этого пространства. Опираясь на такую геометрич. интерпретацию и на изоморфизм пространств Нх и L (dF), А. Н. Колмогоров в 1941 (см. [5]) вывел общие формулы, позволяющие по спектральной функции F(X) С. с. п. X(t) с дискретным временем t определить средний квадрат ошибки оптимальной линейной экстраполяции или интерполяции, отвечающей случаю, когда значение X(t) неизвестно только при t = s (см. также [2], [6], [7]). В применении к задаче экстраполяции аналогичные же результаты для С. с. п. X(t) с непрерывным временем были позже получены М. Г. Крейном и К. Каруненом (К. Karhunen; см., напр., [2], [6], [7]). Н. Винер [11] показал, что нахождение наилучшего приближения X*(s) или У* = Y*(s) в случае задач об оптимальной линейной экстраполяции и фильтрации может быть сведено к решению нек-рого интегрального уравнения типа Винера - Хопфа или (в случае дискретного t) дискретного аналога такого уравнения, что позволяет применить здесь метод факторизации, разработанный для решения таких уравнений. Что касается задач об оптимальной линейной экстраполяции или фильтрации С. с. п. X(t) с непрерывным временем в случае, когда известны не все его прошлые значения при £^0, но лишь значения на конечном интервале - T^t^O, а также задачи оптимальной линейной интерполяции такого X(t), то они могут быть сведены к нек-рым задачам о восстановлении дифференциального уравнения специального вида («обобщенного уравнения струны») по его спектру (см. [12], [13]). Указанные выше подходы к решению задач об оптимальной линейной экстраполяции, интерполяции и фильтрации только в нек-рых исключительных случаях позволяют получить достаточно простые явные формулы для искомого наилучшего приближения X*(s) или У*, к-рые могут с успехом применяться на практике. Важный случай, когда такие явные формулы существуют,- это случай С. с. п. X(t) с рациональной относительно ег (если t дискретно) или относительно X (если t непрерывно) спектральной плотностью f(X), специально изученный (в применении к задачам экстраполяции и фильтрации по значениям при t^O) H. Винером [11]. Позже было показано, что для таких С.с. п. с рациональной спектральной плотностью просто находится явное решение и задач о линейной интерполяции или экстраполяции и фильтрации по данным на конечном интервале - T^t^O (см., напр., [2], [14]). Особая простота процессов с рациональной спектральной плотностью может быть объяснена тем обстоятельством, что такие С. с. п. (и практически только они) представляют собой одномерную компоненту многомерного стационарного га- уссовского марковского процесса (см. Гауссовский марковский процесс). Понятие С. с. п. допускает целый ряд важных обобщений. Одним из них является понятие обобщенного стационарного процесса; другими часто используемыми обобщениями С. с. п. являются случайный процесс со стационарными приращениями нек-рого порядка и однородное случайное поле. Лит.: [1] Слуцкий Е.Е., Избр. труды, М, 1960, с. 252-68; [2] Розанов Ю. А., Стационарные случайные процессы, М., 1963; [3] Крамер Г., ЛидбеттерМ., Стационарные случайные процессы. Свойства выборочных функций и их приложения, пер. с англ., М., 1969; [4] Хин чин А. Я., «Успехи матем. наук», 1938, в. 5, с. 42-51; [5] Кол могоров А. Н., Теория вероятностей и математическая статистика, М., 1986, с. 255-63; [6] Дуб Дж., Вероятностные процессы, пер. с англ., М., 1956; [7] ГихманИ. И., Скороход А. В., Теория случайных процессов, т. 1, М., 1971; [8] Случайные процессы. Выборочные функции и пересечения, пер. с англ. и франц., М., 1978; [9] П ите рба рг В. И., в кн.: Итоги науки и техники. Сер. Теория вероятностей. Математическая статистика. Теоретическая кибернетика, т. 19, М., 1982, с. 155-99; [10) Leadbetter M.R., Lindgren G., Rootzen H., Extremes and related properties of random sequences and processes, N. Y.- [a.o.], 1983; [111 Wiener N., Extrapolation, interpolation and smoothing of stationary time series, N. Y., [1949]; СТАЦИОНАРНЫЙ 677
112] Крейи М. Г., «Докл. АН СССР», 1954, т. 94, № 1, с. 13-16; [13] Dym H., McKean H.P., Gaussian processes, function theory and the inverse spectral problem, N. Y.- [a.o.j, 1976; [14] Яглом A.M., «Тр. Моск. матем. об-ва», 1955, т. 4, с. 333-74. А. М. Яглом. СТАЦИОНАРНЫЙ СЛУЧАЙНЫЙ ПРОЦЕСС; закон больших чисел (law of large numbers for a stationary random process) - см. Больших чисел закон для стационарных случайных процессов. СТАЦИОНАРНЫЙ СЛУЧАЙНЫЙ ПРОЦЕСС; у си ленный закон больших чисел (strong law of large numbers for a stationary random process) - см. Больших чисел усиленный закон для стационарных случайных процессов. СТАЦИОНАРНЫЙ ТОЧЕЧНЫЙ ПРОЦЕСС (stationary point process) - см. Точечный процесс. СТЕЙНА ЯВЛЕНИЕ (Stein effect) - см. Джеймса - Стейна оценка. СТЕК-АЛГОРИТМ (stack-algorithm) - см. Последователь нос декодирование. СТЕК-ПАМЯТЬ (stack-memory) - см. Последовательное декодирование. СТЕПЕННАЯ ПРОБЛЕМА МОМЕНТОВ (power moment problem) - проблема определения распределения вероятностей Р случайной величины X по моментам EXk. Пусть дана последовательность чисел aQ=\, ax> а2, ...', ищется вероятностная мера Р на прямой, удовлетворяющая уравнениям ak = j°^xkP(dx). Эта проблема разрешима не всегда. Разрешимая С.п.м. с единственным решением называется определенной, с неединственным решением - неопределенной. Необходимое и достаточное условие разрешимости - теорема Гамбургера: все ганкелевы формы £!*.о ******* должны быть неотрицательны, xi} лг^еР?1. Достаточное условие определенности -критерий Карлемана: (напр., нормальное распределение однозначно определяется своими моментами). Одна из первых задач типа С.п.м. поставлена и решена П. Л. Чебышевым [1]. Лит.: |1] Чебышев П.Л., Поли. собр. соч., т. 3. М., 1948; [2] Sti el t jes Т., «Ann. Fac. sci. Univ. Toulouse sci. math, et phys.», 1894, t. 8, p. 1-22; 1895, t. 9, p. 1-47; [3] Ахиезер Н. И., Классическая проблема моментов, М., 1961; 14] Феллер В., Введение в теорию вероятностей и ее приложения, пер. с англ., т. 2, М., 1984. И. А. Ибрагимов. СТЕПЕННОЙ РЯД у р а в нения Ко л могорова (Kolmo- gorov equation power series) - см. КЕПСТР. СТИЛТЬЕСА - МИНКОВСКОГО ИНТЕГРАЛ (Stieltjes - Minkowski integral) - рассматриваемый в теории случайных множеств аналог обычного интеграла Стилтьеса, обобщающий конструкцию последнего на функции, значениями к-рых являются компакты евклидова пространства. Пусть А(х), а*£х^Ь,- непрерывное в хаусдорфовой метрике однопара- метрич. семейство непустых (не обязательно выпуклых) компактов евклидова пространства, X - случайная величина со значениями на [a, b\, F - ее распределение. С. - М. и. от А(х) относительно F определяется как хаусдорфов предел векторной суммы компактов (см. Минковского операции} ®kF(Ak)A(xk), xk<=Ak, 678 СТАЦИОНАРНЫЙ взятый по фильтру разбиений сегмента [а, Ь] на промежутки Afe, и совпадает с математическим ожиданием случайного множества А(Х). В том частном случае, когда F неатомарно, то есть Р{Х = #} = 0 для любого х из [а, Ь\, значение С- М.и. с необходимостью выпукло. Лит.: [1] Матерой Ж., Случайные множества и интегральная геометрия, пер, с англ., М., 1978; [2] Aumann R.J., «J. Math. Analysis and AppU, 1965, v. 12, № 1, p. 1-12. В.И. Полищук. СТИРЛИНГА ЧИСЛА (Stirling numbers) - комбинаторные числа Sin, k) и a(n, k) (первого и второго рода соответственно), определяемые равенствами A? = (x)n = x(x-\)..Xx-n+\) = y£lk_QS(n,k)xk,n>\; введены Дж. Стирлингом [1]. Значения С. ч. могут быть вычислены из рекуррентных соотношений S(n, k)=S(n-\, k-\)-(n-\)S(n-\, k), n^\, o(n, k)=o(n-\, k-l) + ka(n-\, k), n^l, с начальными условиями 5(0, 0) = a(0, 0)=1, 5(0, k) = = a(0, k) = 0} k*0. Для С. ч. имеют место соотношения ортогональности: X;=i Sin, /)a(/. *) = IJ=/t a(», j)S(j, ft) = Snk, где bnk - символ Кронекера. В различных задачах используются производящие функции: У" . 5(П,Л)4 = тт1п*(1 + 0, ■"*=* л! ft! «*=* и! /?! и явные выражения: где А - оператор разности: Af(x) =f(x+ \) -f(x), «-•«-<-,>"**I,«i<J<...<^.-.iA-W Комбинаторная и теоретико-вероятностная интерпретации С. ч.: (-1)"+ 5(л, k) есть число подстановок степени п с k циклами, a(rc, k) равно числу разбиений множества из п элементов на k непустых подмножеств или числу способов размещения п различных предметов по k одинаковым ячейкам, при к-рых ни одна из них не остается пустой. Через С. ч а(я, k) выражается распределение числа пустых ячеек в клас сич. задаче о размещении, а именно, вероятность того, что при случайном и равновероятном размещении п частиц по Л ячейкам число пустых ячеек окажется равным ти, есть а(л, N-т). m\N" Одно из обобщений С. ч., связанное с задачей о размещении: klain, m, k)=Ak(m-k)nt есть число способов размещения п различных предметов в т различных ячейках, при к-рых ни одна из k выделенных ячеек не окажется пустой. Для асимптотич. вычислений используются различные приближенные формулы для С. ч. (см. [4]); напр., если я. /г-»°°. — = a = const > 1, то к k\ \ 1+6 ) Х " где Ь>0 - корень уравнения 1 +b = bea' .
Лит.: [1] Stirling J., Methodus differentials sive tractatus de summationc et interpolatione serierum infinitarum, L., 1730; [2] Сачков В. Н., Комбинаторные методы дискретной математики, М., 1977; (3] Комбинаторный анализ. Задачи и упражнения, М., 1982; [4) Медведей Ю. И., И вченко Г. И., «Теория вероятн. и ее примем.-, 1965, т. 10, в. 1, с. 151-56. Г. И. Ивченко, Ю. И. Медведев. СТОЛКНОВЕНИЙ МЕТОД оценки (collisions method of evaluation) - метод оценки функционалов (Л y)=jf(x)\v(x)dx от решения /"стационарного линейного кинетического уравнения переноса Af= g по значениям у в точках разрыва численно модулируемых фазовых траекторий x(t) переносимых частиц. Если Х(х) - частота столкновений частиц со средой, tn ~ случайные моменты скачков траектории частиц, то (/", у) равно среднему от случайной величины 1ГиУ^'(^-о))/Ш(^-о)) но пространству траекторий x(t) марковского процесса переноса с плотностью д(х) начальных положений х(0). Сходное выражение можно написать для случая ветвящегося процесса. Различные усовершенствования С. м. см. в [2]. Лит.: [1] Спанье Дж., ГелбардЭ., Метод Монте-Карло и задачи перенога нейтронов, пер. с англ., М., 1972; [2] Ермаков СМ., Михайлов Г. А., Статистическое моделирование, 2 изд., М., 1982. Ю. К. Кочубей, Н. Н. Ченцов. СТОХАСТИЧЕСКАЯ АППРОКСИМАЦИЯ (stochastic ар proximation) - метод решения широкого класса параметрических и непараметрических задач оценивания, основанный на последовательном (рекуррентном) уточнении оценки при увеличении числа наблюдений. Применительно к параметрич. задачам С. а. часто называется рекуррентным оцениванием. Первой процедурой С. а. явилась Роббинса - Монро процедура вида х„+1=х„+а„(у„(л:„)-а) (О для оценивания корня х* уравнения R(x) = а по наблюдениям Yn(Kn) функции регрессии R(x) в точках Хп с независимыми ошибками, имеющими нулевое математич. ожидание. Первой процедурой С. а. для определения точки максимума jcmax функции R(x) была Кифера - Вольфовица процедура вида X„u=X„ + anl(YK(X„ + c)-Yn(.X„-c„))/2cnl (2) где при сп->0 выражение, стоящее в квадратных скобках, служит аппроксимацией величины R'(Xn). К середине 60-х гг. 20 в. был в основном сформулирован круг проблем метода С. а. При изучении процедур С. а. рассматриваются два основных вопроса: определение условий сходимости и исследование асимптотич. поведения (скорости сходимости) процедуры аппроксимации. Если (л - x*)(R(x) - а) отрицательно и отделено от нуля вне сколь угодно малой окрестности точки х+ и Е[У(.г)] ^d(\+x ), d>0, то для сходимости процедуры (1) почти наверное и в среднем квадратическом достаточно, чтобы выполнялись условия а»>0-1Г=1а»=оо'1Г=1Л"<~- При соответствующих ограничениях на функцию R(x) условия, достаточные для сходимости процедуры (2): Хп->хтйХ (п->оо) почти наверное и в среднем квадратическом, имеют вид ап> с„->0 при и->~, £"в1 д„ = °°, 5T=tvn<->i:=t4/c«)2<o0- Наиболее характерным результатом, относящимся к асимптотич. поведению процедуры (1), является следующий. При нек-рых условиях, основными из к-рых являются предположения а„ = А/п, E[Y(x)]2->o2 при *->**, 1+2ЛД'(**)<0, случайные величины асимптотически нормальны с нулевым средним и дисперсией -о2А2/0 +2AR'(x+)). При этом наименьшее значение предельная дисперсия принимает при А- - \/R'(x*). Помимо исследований условий сходимости и асимптотич. поведения были проведены обобщения процедур (1) и (2) на многомерный случай, построены аналоги этих процедур для случая непрерывного времени, рассмотрены способы ускорения сходимости, многошаговые процедуры, получены неасимптотич. оценки дисперсии и т. д. (см. [1], (21). Большую роль сыграла в развитии метода С. а. обобщенная процедура С. а. вида (процедура Дворецкого) Xn+t = Tn(Xv...,Xn) + tn, (3) где £„ - мартингал-разность, удовлетворяющая условию Y°° Е£п <<*>. В предположении сжимаемости отображения Тп(хх хп), то есть при \Tn(xv ..., хп)-х*\ ^тах[д„;(1 + 6П)|*„-*,| -ся], условия ап -> 0 при п -> оо, £~=1Ь„ < ~ и ХГ=1С« " °° обеспечивают сходимость процедуры Дворецкого (см. [1]). С середины 60-х гг. одним из основных инструментов исследования С. а. становится техника теории мартингалов (см. [3]). Плодотворным оказался подход к изучению процедур С. а. как специального класса марковских процессов (цепей Маркова в случае дискретного времени), определяемых соотношением <Ш0 = а(0[ЖХ(0)+чК*, *(*))]</* +рШо(*. X(t))d%(t)AA) где R(x), у(t, jOgIP ; а(£, х) есть (d x б/)-матрица; y(t, x) - детерминированное смещение, возникающее при измерениях R(x), исчезающе малое при г-><*>. В случае дискретного времени в (4) следует положить dX(t) = X(t+1) - X(t), dt-\, a d\(t) - последовательность независимых случайных векторов в IP . При непрерывном времени (4) понимается как стохастич. дифференциальное уравнение Ито по ^-мерному квадратично интегрируемому процессу с независимыми приращениями £(0. При a(f) = p(0 =a(t) процедура (4) имеет вид (1), а при a(t) = a(t) и |3(0 = л(0/с(0~ вид (2). Условия сходимости процедуры (4) оказались тесно связанными с существованием функций Ляпунова для динамич. системы xs = R(xs) (5) и с такими понятиями теории динамич. систем, как устойчивость в целом, экспоненциальная устойчивость и т. д. При непрерывном времени процедура (4) наиболее детально изучена в случае, когда £(0 - винеровский процесс (см. [3]). Если в этом случае V(x) - функция Ляпунова системы (5): V(x)>0 и (R(x), grad V(x))<0 при x*xt, V(^) = 0; V(jc)->oo при Ы->ов; \o(t}x) grad V(jc)|2^ ^ C(l + V(x)), то для сходимости процедуры (4) почти наверное достаточно, чтобы J~ a(t)dt = ос и J~ aHOdt <°° СТОХАСТИЧЕСКАЯ 679 Для сходимости процедуры (4) в среднем квадратическом в случае равномерной экспоненциальной устойчивости системы (5) достаточно расходимости первого интеграла и условия
a(t)->0 при t-><*>. Исследовался также случай нескольких положений равновесия динамич. системы (5), что соответствует ситуации, когда уравнение R(x) = a в (1) имеет несколько корней или функция R(x) в (2) имеет несколько экстремумов. Получен ряд достаточных условий, при к-рых траектории процедуры (4) не могут почти наверное сходиться к неустойчивым положениям равновесия системы (5) (см. [3]). Если в процедуре (4) выбрать a(t) = $(t) = a/t; \\f(t, x) = 0 и если ott, xJE[d%(t)(d%(t))JW(tt x*)^S0dt при t-><*>, а матрица A = agradR(x*) + 1/2 устойчива (/- единичная матрица), то при выполнении нек-рых дополнительных требований случайный вектор ^lF(X(t) -x*) при £-><*> асимптотически нормален с нулевым математич. ожиданием и дисперсионной матрицей S = a2j~ exp (At)S0exp(AJt)dt, являющейся решением матричного уравнения AS" + SAJ = -a2SQ. Более того, оказался справедлив результат об асимптотич. нормальности в функциональном смысле (см. [3]): случайный процесс exp (t/2) (Х(е1)-х+) при t -><*> сходится к стационарному гауссовскому случайному процессу Z(t), являющемуся решением стохастич. дифференциального уравнения Ито: dZ(t)=AZ(t)dt + aSQ/2dw(t). В связи с исследованиями предельного поведения процедур С. а. возникает вопрос об асимптотически оптимальном выборе параметров процедуры. В процедуре (1) при выборе ап-А/п оптимальное значение параметра/!, минимизирующее предельную дисперсию, равно - \/R'(x+). Но величина R'(x*) неизвестна. Была предложена процедура, где эта величина заменяется оценкой, полученной по наблюдениям. Эта процедура может быть записана в виде двух рекуррентных соотношений: Xn+,=Xn-(2nWny'[yn(Xn + cri)+Yn(Xn-cn)l Wn+^n\n-\)Wn + {2ncny\Yn{Xn + cn)-Yn{Xn-cn)l Она была перенесена и на многомерный случай. Подобные процедуры получили название адаптивных процедур С. а. Способы построения (синтеза) адаптивных рекуррентных процедур изучаются самостоятельной областью кибернетики - теорией адаптивных систем (см. [4]). К важным применениям общих процедур С. а. относится рекуррентная процедура Х„+1=Х„ + Ы(Х„))-' £■ \nf(Yn\X„) (6) для оценивания параметра х плотности f(y\x) по независимым наблюдениям Y]t Y2, ... В процедуре (6) 1(х) - информационное количество Фишера плотности f(y\x). При нек-рых ограничениях на плотность f(y\x) процедура (6) определяет состоятельную и асимптотически эффективную оценку параметра х. Вид процедуры (6) указывает на глубокую связь оценки Хп с оценкой максимального правдоподобия параметра х. Развитие метода С. а. определяется несколькими тенденциями: на рекуррентные методы оценивания переносятся новые идеи в общих статистич. методах, привлекается аппарат теории случайных процессов и теории суммирования случайных величин для изучения тонких свойств траекторий процедур С. а. Следуя тенденции изучения робастных оценок в задачах 680 СТОХАСТИЧЕСКАЯ статистики, развивались робастные процедуры С. а., к-рые являются оптимальными в минимаксном смысле по отношению к априори задаваемому классу распределений случайных ошибок (см. [6]). Идеи построения эффективных в асимптотически минимаксном смысле оценок также находят отражение в методах С. а., где такие эффективные оценки строятся рекуррентно. Отчетливо прояснилась связь метода С. а. с теорией фильтрации, в частности с линейной фильтрацией Калмана - Бьюси (см. Калмана фильтр, а также [4]). Исследуются локальные свойства процедур С. а., то есть свойства траекторий в окрестности предельных точек. Если ввести для процедуры (4) замену времени, определяемую равенством ds-a(t)dty то процедуру X(t(s)) на конечных отрезках времени s можно рассматривать как случайное возмущение динамич. системы (5). Предлагая существование у системы (5) асимптотически устойчивою положения равновесия х+ с областью притяжения D, исследование сходимости процедуры (4) к точке х* можно свести к проверке возвратности ее траекторий в область D и малости возмущений, порождаемых случайным процессом ^(t). Для выяснения условий малости случайных возмущений в (4) удается привлечь аппарат классич. теории вероятностей. При этом условия сходимости процедур С. а. оказываются теоремами типа закона больших чисел, а асимптотич. нормальность связана с центральной предельной теоремой. Применение теории больших уклонений для сумм независимых случайных величин и для марковских процессов позволило получить в ряде случаев необходимые и достаточные условия сходимости почти наверное процедур С. а. Так, если случайные величины <7£(0 имеют степенную асимптотику функции распределения P{\d#t)\ >*} = 0(Urv), *-> +оо, V>2, а(О->0, р(О->0, р2(«/а(О->0 (t->«>). £а0 )</* = «>, то при нек-рых предположениях для сходимости процедуры (4) необходимо и достаточно, чтобы J pv(f)f/£<°°. В случае существования экспоненциального момента у величин d^U) это условие переходит в требование сходимости интеграла £a(0exp(-AP2(tf/a(tf№* для любого А.>0. Изучаются асимптотич. свойства процедур С. а., выполняемые почти наверное. Для процедур С. а. были найдены верхние и нижние функции и получены результаты, обобщающие классич. закон повторного логарифма (см. [Г>]). Процедуры С. а., соответствующие схемам с зависимыми наблюдениями, изучаются, как правило, в предположении стационарности ошибок. Исторически первыми процедурами такого вида были процедуры с непрерывным временем. Рассматривалась процедура вида dX(t) = a(t)(R(X(t)) + h(t))dt, в к-рой h(t) - эргодич. процесс с нулевым средним. При исследовании сходимости и скорости сходимости процедур С. а. с зависимыми возмущениями используются результаты типа закона больших чисел и центральной предельной теоремы для стационарных случайных процессов; были изучены условия на скорость убывания зависимости возмущений в терминах коэффициентов сильного и равномерно сильного перемешивания, а также привлекались идеи и методы стохастич. принципа усреднения в динамич. системах. Успешно применялась техника условных математич. ожиданий для вывода достаточных условий сходимости в сравнительно широких предположениях. Наиболее детально процедуры С. а. с зависимыми возмущениями изучены в ситуации, когда ьоз-
мушения образуют авторегрессии - скользящего среднего процесс (см. [4], [5]). С. а. является по существу разделом теории случайных процессов, изучающим специальный класс процессов, траектории к-рых сходятся к отдельным точкам фазового пространства. Лит.:[\] Вазан М., Стохастическая аппроксимация, пер. с англ., М., 1972; [21 Цыпкин Я. 3., Адаптация и обучение в автоматических системах, М., 1968; [3] Невельсон М. Б., Хасьминский Р. 3., Стохастическая аппроксимация и рекуррентное оценивание, М., 1972; f4l Фомин В. Н., Рекуррентное оценивание и адаптивная фильтрация, М., 1984; [5] Коростелев А. П., Стохастические рекуррентные процедуры, М., 1984; {61 Цыпкин Я. 3., Основы информационной теории идентификации, М., 1984. А. П. Коростелев. СТОХАСТИЧЕСКАЯ АППРОКСИМАЦИЯ в непрерывном времени (stochastic approximation in continuons time) -метод нахождения нуля неизвестной функции регрессии или точки ее экстремума по непрерывным наблюдениям. Пусть требуется найти корень уравнения регрессии R(x) = О по непрерывным измерениям Y(t,x) = R(x) + G(t, х), *^0, *еИ?, где при каждых t^ О, х е IP случайная величина G(t, x) имеет нулевое математич. ожидание. По аналогии с Роббинса - Монро процедурой естественно в качестве оценки X(t) величины *о взять решение дифференциального уравнения Х(0= -a(t)Y(t,X(t)), (1) . где непрерывная функция a(t) такова, что /~ a(t)dt = «в, j*~ a\i)dt < «е. (2) Для такой процедуры был установлен, в частности, следующий результат: если я(0=1Д, функция R(x) монотонно возрастает и при любом х е И? lim — Г G(u, x)du = 0 почти наверное, то Л (О->•*"() при £->« почти наверное. Изучался случай, когда ошибки измерений G(t, x) являются ошибками типа гауссовского белого шума, то есть G(t,x) = a(x)Z>(t), (3) где £(0 - стандартный винеровский процесс. При этом уравнение (1) понималось как стохастич. дифференциальное уравнение Ито. В рассматриваемом случае справедлив следующий результат; если ошибки измерений имеют вид (3), то процедура (1) сходится в х0 почти наверное при t -> ©о, если выполнены соотношения (2), функции R{x) и а (.г) непрерывны, удовлетворяют локальному условию Липшица и, кроме того, R{x) (х - х0) > 0 при х ф г0, sup a2(t, .r)<oo t>Q,\x-xQ\<6 для нек-рого 8>0. Для процедуры Роббинса - Монро и измерений вида (3), как и в дискретном случае, распределение величины VF(X(0 -xQ) при нек-рых дополнительных условиях на R(x) и с(х) сходится при £->°о к гауссовскому распределению (см. [3]). Аналогичные результаты о сходимости и асимптотич. нормальности имеют место и для непрерывной процедуры Кифера - Воль- фовица (см. [3], [4]). Лит.: [1] Driml M., Nedoma J., в кн.: Transactions of the second Prague conference on information theory, Prague, 1960, p. 145-58; [2] Хасьминский Р.З., Устойчивость систем дифференциальных уравнений при случайных возмущениях их параметров, М., 1969; [3] Невельсон М.Б., Хасьминский Р. 3., Стохастическая аппроксимация и рекуррентное оценивание, М., 1972; [4) Хасьминский Р. 3., «Проблемы передачи информации», 1972, т. 8, № 1, с. 81 -91. М. Б. Невельсон. СТОХАСТИЧЕСКАЯ АППРОКСИМАЦИЯ; модификации (modifications of stochastic approximation) - видоизмененные Роббинса - Монро процедура и Кифера - Вольфо- вица процедура, улучшающие свойства последних. Первой модификацией С. а. была модификация Х(п) процедуры Роббинса - Монро, получившая название процедуры ускоренной сходимости (см. [ 1 ]). Идея этой модификации состоит в том, что если разность Х(п) - Х(п - 1) сохраняет знак, то шаговый множитель а(п) не уменьшается, как в процедуре Роббинса - Монро, а остается постоянным до тех пор, пока эта разность не изменит знак. Была доказана сходимость такого рода процедур к корню л0 уравнения регрессии R(x) = 0 почти наверное. Другая модификация процедуры Роббинса - Монро - для случая наличия тренда, когда функция регрессии зависит от времени, причем ее нуль х0(п) определяется уравнением х0(п + 1) - (1 + 1/п)лг0(я) = 0(п~Ь), где Ь - нек-рая положительная постоянная, п—>°°. Еще одна модификация процедуры Роббинса - Монро связана с процедурой (см. [3]) Х(п+\)-Х(п) = -— Y(n+\, Х(п)), а>0. (1) п Известно, что для такой процедуры при определенных условиях величина ^fn(X(n)-xQ) асимптотически нормальна с нулевым средним и дисперсией a2(a) = a2S0(2aa-\), где a-R'(xQ), 50= lim EG (n, x). Функция а (а) дости- П -> °°, X -> Xq ~ гает минимального значения, равного 50/а при а-\/а. В связи с этим было предложено вместо (1) рассмотреть ее модификацию Х(п + \)-Х(п) = = 1 Y(n+\,Xin)+c(n))-Y(n,X(n)-c(n)) /2) nW(n) 2 где с(п) - нек-рая положительная последовательность, стремящаяся с ростом п к нулю, Win) - оценка неизвестной величины а, определяемая равенством Т1// ч 1 v" Y(i+\,X(i)+c(i))-Y(i+\,X(i)-c(i)) W(n) = — \. 4 — , если а*0, и W{n)-\, если а = 0. Было установлено, что при некоторых условиях для процедуры (2) величина \/Г(Х(п) - Xq) асимптотически нормальна с нулевым средним и дисперсией SqCX • Имеются усовершенствования процедуры (2) (см. [4]). Известен класс модификаций процедуры Роббинса - Монро, к-рый преследует цель ослабить условия на поведение функции регрессии R(x) при Ы -><*> (см. [б]-[8]). Модификация процедуры Кифера - Вольфовица была рассмотрена для случая, когда функция регрессии R(x) имеет в окрестности точки максимума xQ конечное число s производных. Показано, что эта модификация имеет тем большую скорость сходимости, чем больше 5. Кроме того, изучался вопрос об оптимальном выборе шаговых множителей, аналогичных последовательностям а(п) и с(п) в процедуре Кифера - Вольфовица (см. [5]). Лит.: [1] Kesten H., «Ann. Math. Statist.», 1958, v. 29, № 1, p. 41-59; [2] Dupac V., там же, 1965, v. 36, № 6, p. 1695-1702; [31 Venter J. H., там же, 1967, v. 38, № 1, p. 181-90; [4] Fabian V., там же, 1968, v. 39, № 4, p. 1327-32; [5] Rob- bins H., Siegmund D., в кн.: Optimizing methods in statistics, N.Y.-L., 1971, p. 233-57; [6] Komlos J., Revesz P., «Stud. sci. СТОХАСТИЧЕСКАЯ 681
math. Hung.», 1973, v. 8, p. 329-40; [7J Невельсон М. Б., «Теория верояти. и ее примен.», 1978, т. 23, в. 2, с. 383-88; [8] Fabian V., в кн.: Optimizing methods in statistics, N.Y.-L., 1971, p. 439-70. M. Б. Невельсон. СТОХАСТИЧЕСКАЯ ГЕОМЕТРИЯ (stochastic geometry) - прикладная математическая дисциплина, лежащая на стыке геометрии и теории вероятностей. Математич. аппарат С. г. включает интегральную геометрию и задачи о геометрических вероятностях] для С. г. характерно также привнесение идей и методов теории случайных процессов, в особенности теории точечных случайных процессов. В С. г. применяются статистич. методы исследования многоэлементных геометрич. объектов путем их стохастич. моделирования. При этом делается предположение, что исследуемый объект является реализацией (или ограниченной частью реализации) выбранного случайного геометрического процесса. Объекты могут быть весьма сложными, напр. структуры биологич. тканей, вкраплений металлов, геологич. разломов и т. д. Их координатное описание привело бы к обработке необозримой совокупности числовых данных, где трудно выявить какие-нибудь закономерности. Между тем, стохастич. моделирование иногда позволяет распознать известные из теории закономерности и описать рассматриваемые структуры малым числом параметров, напр. в случае стационарного пуассонов- ского процесса точек, прямых, плоскостей и т. д. достаточно одного параметра - интенсивности. Вследствие своей простоты основными моделями в С. г. служат пуассоновские процессы, а также вторичные процессы, порожденные пуассоновски- ми процессами, напр. случайные мозаики, булевы модели. Особенностью С. г. является интерес к геометрич. процессам с распределениями, инвариантными относительно групп, действующих в «основном» пространстве. Наиболее часто рассматриваются группа параллельных сдвигов, группа евклидовых движений и группа аффинных преобразований пространства И?". Можно выделить три главных направления развития С. г.: 1) теоретич. направление, изучающее геометрич. процессы; 2) статистич. направление, изучающее критерии согласия рассматриваемой реализации с выбранной стохастич. моделью, а также методы статистич. оценивания параметров модели (см. [3]); 3) прикладное направление, занимающееся применением результатов С. г. в задачах астрофизики, археологии, биологии и др. (см. [4]). Пример работ последнего направления - исследования Дж. Кендалла и др. (см. [5]), где понятие случайного шейпа применяется к решению вопроса о наличии повышенного процента почти линейно расположенных троек древних камней в Лендс-Энде (Англия). К С. г. примыкают также математическая стереология, геометрич. статистика (см. [6]), теория случайных множеств (см. [1]), в частности случайных множеств дробной размерности (см. [7]), процессы многообразий (см. [8]), математич. морфология и анализ изображений (см. [9]). Лит.: [II Матерон Ж., Случайные множества и интегральная геометрия, пер. с англ., М., 1978; [2] Комбинаторные принципы в стохастической геометрии, Ер., 1980; [3] Stoyan D., Kendall W., Mecke J., Stochastic geometry and its applications, В., 1987; [4] Geometrical probability and biological structures, B.-[a. o.], 1978; [5} Kendall D. G., Kendall W. S., «Advances Appl. Probab.», 1980, v. 12, p. 380-424; [61 Ripley B. D., Spatial statistics, N. Y. - [a.o.], 1981; [7] Mandelbrot В. В., Fractals. Form, chance and dimension, S. F., 1977; 181 Mecke J., «Probab. and Math. Statist.*, 1981, v. 2, p. 31-35; [91 Serra J., Image analysis and mathematical morphology, N. Y., 1982. p. в. Амбариумян. СТОХАСТИЧЕСКАЯ ДИФФЕРЕНЦИАЛЬНАЯ ГЕОМЕТРИЯ (stochastic differential geometry) - математическая дисциплина, изучающая поведение случайных процессов на глад- 682 СТОХАСТИЧЕСКАЯ ких многообразиях и смежные вопросы анализа. На гладком многообразии естественно рассматривать случайные процессы, характеристики к-рых связаны с его структурой, прежде всего - диффузионные процессы и их обобщения. Первые конструкции диффузионных процессов на гладких многообразиях были даны К. Иосидой [ 1 ] методами теории полугрупп и К. Ито [2] при помощи стохастич. дифференциальных уравнений. Метод стохастич. дифференциальных уравнений был развит Г. Мак-Кином [3]. Проблематика С. д. г. в значительной части основана (начиная с работ М. Каца [4], см. также [51) на связи геометрии многообразия с асимптотич. свойствами диффузионных процессов и спектральными свойствами соответствующих им дифференциальных операторов. Дополнительный стимул развитию С. д. г. был дан П. Маллявеном [6], предложившим новый подход к изучению гладкости переходных вероятностей диффузионных процессов (и термин «С. д. г.»). В связи с развитием анализа на бесконечномерных гладких многообразиях методы С. д. г. переносятся на бесконечномерный случай (см. [7]-[9}). Здесь они играют особую роль при построении гладких мер и решений дифференциальных уравнений, поскольку из-за отсутствия в бесконечномерном случае меры, подобной мере Лебега, классич. методы непригодны. Далее описываются основные конструкции, связанные с диффузионными случайными процессами, стохастич. дифференциальными уравнениями и дифференциальными операторами на гладких многообразиях. Это описание использует современный бескоординатный язык дифференциальной геометрии гладких многообразий, удобный благодаря своей компактности и независимости от размерности (см. [10]). I. Основные понятия дифференциальной геометрии гладких многообразий. Пусть 83, 83t, 832 ~ действительные банаховы пространства (конечномерные или бесконечномерные), Lk($b\, 852) ~ ИР°" странство непрерывных fe-линейных отображений из 83j в 832, 83 = Lt(83, И?), (х, ф) - канонич. спаривание элементов ж;83, фе83*. Пусть G - область в 83j. Отображение /":G->832 дифференцируемо в точке xgG, если существует производная /"'(*) eljCSBi, Я32), обладающая свойством: f(x + h)-f(x)~ - f'(x)h = o(\h||) при 1 hH -» 0. Старшие производные определяются последовательно: fik)(x) = (f{k-Uy(x) e Lk(®{, %2). Говорят, что /"g C„(G, 832), если это отображение обладает производными порядка k = 0, 1, 2,..., я, непрерывными ограниченными в G; при п ^ 2 отображения класса Сп кратко называются гладкими. Гладкое (действительное) многообразие Х~ это отделимое топологии, пространство, на к-ром определена гладкая структура, то есть указан обладающий естественными свойствами запас гладких функций. Эта структура вводится с помощью атласа {Ga, фа} - покрывающей X=UaGa системы открытых множеств (карт), гомеоморфных фа: Ga -> G% окрестностям G^^fS банахова пространства 83, называемого модельным. Размерность X это, по определению, размерность 83, при 83-11?" гладкое многообразие X конечномерно. Гомеоморфизмы фа:.г ->ха (координатные отображения) предполагаются согласованными в том смысле, что склеивающие отображения ^ар = Фа0Ф|5 -'Gfl^Ga (GanGp*0) гладки. Если X - гладкое многообразие с атласом {Сй, <рй} и моделью 85, то отображение f: X -> X называется гладким, если свойством гладкости обладают отображения
В конечномерном случае можно, выбирая базис в модельном пространстве, ввести на каждой карте Ga с помощью координатного отображения <ра криволинейные координаты и указать связь между разными системами координат на пересечениях карт с помощью склеивающих отображений. Векторное расслоение л = (л, X, е) определяется гладким многообразием X (базой векторного расслоения), тотальным пространством векторных расслоений е и гладким отображением л:е->Х (проекцией). Векторное расслоение называется тривиальным (со слоем - банаховым пространством Е)> если г-ХхЕ и n:xxEh+ х. В общем случае на векторном расслоении налагается требование локальной тривиальности: база X обладает атласом, для карт к-рого расслоения (na = n\GaJ Ga, e = 7r~1(Ga)) тривиализуемы, в том смысле, что определены тривиализу- ющие гомеоморфизмы (тривиализации) Фа: еа -> G£ x E, действующие послойно: Oa(#)=Oa|jf1(r):er = rc Ч*) -><p(#) хЕ. При этом предполагается, что склеивающие отображения S^xa) = Фа(х)Фр (х):Е-*Е линейны и вносят согласованным образом в слои ег структуру банахова пространства Е (типичного слоя векторного расслоения). Отображение векторного расслоения /":л->Л- эго пара (<р, Ф) гладких отображений <р: X -> X, Ф: е -> ё, действующая послойно Ф:гх-*£у(х) и линейная на каждом слое. Каждому гладкому многообразию X соответствует его к а - сательное расслоение xx=(xY, X, ТХ)> типичный слой к-рого 85 - модель X и склеивающие отображения 5a« = F^. При этом гладкому отображению многообразий f: X -> X отвечает производное отображение касательных расслоений Tf:TX^>TX, Tf=(f,f')t Tf\Tx=f'(x):TxX^>Tf(x)X. Расслоение ix = (xXt X, Т*Х) с типичным слоем 85 и склеивающими отображениями F^k называется кокасательным; расслоения, типичные слои к-рых образованы полилинейными отображениями пространств 85, 85*, называются тензорными. Сечение векторного расе л оени я (л, X, е) - гладкое отображение г:Х->е такое, что z(x) e ег. Сечение тривиального расслоения (л, X, ХхЕ) определяется главной частью £:Х->£, г(х) = ххг(х). Сечение г локально тривиального векторного расслоения изучают, рассматривая его локгшизации га=г\с и переходя с помощью тривиализации Фа к главным частям la:G*->£', связанным соотношениями ^a°^aB = ^aB^B (тензорный закон преобразований). Сечения векторного расслоения часто называются полями: для касательного - векторными, для тензорных -тензорными. Пространство сечений векторных расслоений л обозначают а(л). Гладкое многообразие X называется римановым, если на нем определен риманов тензор - поле невырожденных линейных отображений д(х):ТхХ -> Т*Х, положительных в смысле положительности билинейной формы на ГгХ:(<р, у)х = = (ф, д(х)хр). Эта форма определяет евклидову структуру в касательных пространствах ТХХ (гильбертову структуру в бесконечномерном случае) и метрику на многообразии X. Следует отметить, что на конечномерном римановом многообразии существует стандартная мера - объем v. Связность векторного расслоения л определяется линейной операцией ковариантного дифференцирования сечений Vz :а(л) ->а(л) вдоль векторных полей геа(т). Связность касательного расслоения хх (линейная связность X) однозначно определяет связности тензорных расслоений так, что операция V2 оказывается дифференцированием относительно тензорного умножения. Связность векторных расслоений можно описать при помощи системы локальных коэффициентов - отвечающих отдельным тривиализациям билинейных отображений Г" : 85 х Е->Е> связанных калибровочными преобразованиями ^ (^(*«>*. V*>) = V*a>r?o(A, e)-S^xaXh,e). Главная часть ковариантной производной поля е вычисляется но формуле (V)a = ^ia + r(fa, sa). Поле е называется параллельным вдоль кривой х:[0, 1]->Х, если Уд. е = 0. Для каждой локализации еа главная часть параллельного поля удовлетворяет линейному дифференциальному уравнению Из этих уравнений определяется семейство хх (t, s): ех(л) -> ег(,) линейных операторов параллельного переноса тензоров вдоль кривой, обладающее эволюционным свойством Tx(t^t2) = = Tx.(t\> t)zx(tl} t2) и не нарушающее тензорных соотношений. Кривая х на многообразии со связностью называется геодезической, если вдоль нее параллельно поле касательных х'. Каждая точка xQ е X и направление 20 е Тх X однозначно определяют (но крайней мере локально) геодезическую, к-рую можно вычислить, решая для какой-либо карты Ga э х{) задачу Коши: <(t) + Гха(0 «.<'>• *№) = °. *а«» = *0а:*а<°> = *ftr На римановом многообразии однозначно определяется связность (связность Леви-Чивиты), для к-рой риманов тензор параллелен вдоль любой кривой. Для этой связности линии, кратчайшие среди соединяющих пары точек, являются геодезическими. Отображение ехрх: Qx -> X} xQ ь-> х( 1), определенное и взаимно однозначное в нек-рой окрестности нуля Qx <= ТХХ называется экспоненциальным. Оно переводит отрезки лучей касательного пространства ТХХ, выходящие из нуля, в отрезки геодезических, выходящие из точки хеХ. Дифференциальные операции для скалярной гладкой функции w:X->IR определяют следующим образом. Так как и'(х) еТхХ, то каждому векторному полю аеа(тх) отвечает дифференциальная операция 1-го порядка: Vau(x) =(a(x), и'(х)) = (а(х), V) и(х), где V - дифференциальная операция, обладающая формальными свойствами элемента ТХХ. В случае когда Х = 85 - векторное пространство, и"(х) g L(85, 85*), эллиптич. дифференциальную операцию 2-го порядка можно определить следующим образом: пусть Н - гильбертово пространство (Я = IRW в конечномерном случае), А(х) е L(tf, 85), В(х) = А(х)А*(х) е 1(85*, 85), тогда /а(Я, uXx)=(B(x)Vy)u(x) = trA*(x)u"(x)A(x) (trК = Y (Kej, efi, где {е-} - ортобазис в Я). Для гладких многообразий X с линейной связностью определяют поле вторых производных V и(х) eL(TxX, T*X), главная часть к-рого при какой-нибудь тривиализации дается формулой Ы^)а(ха)у) = (ъиЧх^у)-(и'(ха), Г£(ф, V)>. Ковариантный аналог эллиптич. оператора 2-го порядка определяют при B{x)-A{x)A*{x)t A(x) e L(H, ТХХ), формулой lx(B, u) = trB(x)V2u(x), IxiB, «)(^)=tr^*aaV'Cra)ia4^)-<M'aa), tr r?jA(xayf А(ха)УУ СТОХАСТИЧЕСКАЯ 683
Если X - риманово многообразие и в касательный слой введена структура гильбертова пространства Н с помощью римановой метрики, можно положить А = /. Получаемый при этом оператор VxM = /x(/, M) = trV2M называется оператором Лапласа - Бельтрами. II. Диффузионные процессы и дифференциальные уравнения. Пусть £(0 - непрерывный однородный марковский процесс на гладких многообразиях X. Его характеристич. оператор определяется формулой «,(Х>_,,тЬ/&Ь£>, Gix EX1G где xG - момент 1-го выхода £(0 из окрестности G, содержащей точку х = £(0). Процесс называется диффузионным (см. [11]), если область определения 9)% содержит С2(Х). В этом случае И = «(Д, a, c) = lx(B)/2 + (a, V) + c - эллиптич. оператор 2-го порядка с коэффициентом диффузии B(x)eL(TxX, Т*Х), сноса а(х) е ТХХ и обрыва с(х) ^0. Этот оператор является сужением на С2(Х) производящего оператора SC порождаемой марковским процессом £(£) сжимающей полугруппы Ut:f\->\ f(y)P(t, x, dy) в пространстве С(Х). Для неоднородного процесса £(0 коэффициенты характеристич. оператора зависят от времени t. Этот процесс порождает двупараметрич. эволюционное семейство линейных отображений С/а, x)f(x) = E{f(£>(x))\£>(t)=x} = jxf(y)P(t, х, х, dy); U(t, x)=U(t, s)U(s, x)(t<s<x), в пространстве C(X). Формула u(t, x)= U(t, x)f(x) представляет при этом решение задачи Коши для параболич. уравнения $&£ + *(tMt,x) = 0, и(х, x)=f(x), t^x, at к-рое называется обратным уравнением Колмогорова данного диффузионного процесса (вообще говоря, обобщенное, для выяснения его гладкости нужны дополнительные предположения). Решения ряда других задач для дифференциальных уравнений 2-го порядка также выражаются через средние значения нек-рых функционалов от диффузионных процессов. Напр., решение задачи Коши ^^ + VUMt, х) + срЫма, х) = 0, и(х, х) = fix), at при нек-рых предположениях о потенциале ф дается формулой Фейнмана - Каца u(t,x) = E{et^b»"sf (£,(?»№) = х). Эта формула играет важную роль при исследовании спектральных свойств оператора $С + ф(#) (см. [5]), а также асимп- тотич. свойств решений параболич. задачи. Имеются также формулы для решений эллиптич. и параболич. краевых задач. Наоборот, если задача Коши для уравнения — + $£(t)u-0 ot корректна в классе С2(Х), то она порождает эволюционное семейство линейных операторов U(t, x):f^jxf(y)P(t, х, х, dy), где функция P(t, х, х, ■) обладает свойствами переходной вероятности марковского процесса в X. В конечномерном 684 СТОХАСТИЧЕСКАЯ случае при определенных требованиях гладкости коэффициентов и невырожденном коэффициенте диффузии корректность указанной задачи устанавливается классич. аналитич. методами (см. [1]). Независимое построение диффузионного процесса приводит к решению дифференциальных задач и при отказе от конечномерности и невырожденности. III. Стохастические дифференциальные уравнения на гладких многообразиях. Прямое построение широкого класса диффузионных процессов осуществляется при помощи стохастич. дифференциальных уравнений Ито. Пусть w(t) (t^Q) - канонически связанный с сепарабельным действительным гильбертовым пространством Я (В?я - в конечномерном случае) винеровский процесс - гауссовский случайный процесс с независимыми приращениями и параметрами Ew(t) = Q} E\(w(t + x) -w(t), ф)| =х||ф|| [при dim# = <>° траектории w(t) лежат почти наверное в нек-ром расширении Н_^>Н]. Стохастич. дифференциальные уравнения в гильбертовом пространстве ЯЗ (в частности, в R") определяются (вообще говоря, зависящими от времени) полями a(t, #) e 85, A(t, х) £ Lj2(tf, ЯЗ), где L12(tf, ЯЗ) - пространство операторов Гильберта - Шмидта, и записывается в виде d£>(t) = a(t, tytVdt+Mt, ^(t))dw(t), эквивалентном интегральной форме JtQ JtQ где второе слагаемое - стохастич. интеграл Ито. При классич. условиях непрерывности и липшицевости относительно х коэффициентов оно для неуиреждающего начального значения £о имеет единственное с точностью до стохастич. эквивалентности неупреждающее решение £(0 - диффузионный процесс в ЯЗ (в случае dim83 = oo, см. [12]) с коэффициентом сноса a(tt х) и диффузии B(tt x)=A(t, x)A*(t, x). Стохастич. дифференциальные уравнения на гладком многообразии X со связностью, моделью к-рого является гильбертово пространство ЯЗ, имеет вид </£(*) = ехр^) {a(t, W))dt+A(t, yOWw(t)}, где a(tt x) g TxXt A(t, x) e Li2(H, TXX) - гладкие поля коэффициентов сноса и диффузии. Уравнение локально, если носители коэффициентов содержатся в фиксированной карте G. В этом случае процесс £а(0 = фа(£(0) не выходит из окрестности G^c ЯЗ и удовлетворяет стохастич. дифференциальному уравнению <*$«<*> = {«„<*.$«('»- ~f-r£(()<4<U«<t»-. 4<*. $«<*»•>}* +Aa(t,ta(t))du(t). Это уравнение инвариантно относительно склеивающихся преобразований, если стохастич. дифференциалы преобразуются по формуле Ито, а коэффициенты связности - калибровочными преобразованиями. Таким образом, теория локального стохастич. дифференциального уравнения эквивалентна соответствующей теории в векторном пространстве. В общем случае построение решений уравнения проводится путем последовательной локализации на малых промежутках времени, склейки решений полученных локальных уравнений и предельного перехода по последовательности сгущающихся разбиений временного интервала. При этом возникает стохастический поток на многообразии X - семейство отображений Vp(x, О :£(0->£(х), обладающее почти наверное ЭВОЛЮЦИОННЫМ СВОЙСТВОМ Vt(l, t)= Vt(t, s)Ve(s, t)t t<S<X. Для изучения гладкости этого семейства относительно начальных значений или каких-нибудь параметров рассматривают
стохастич. дифференциальные уравнения, получаемые из исходного путем последовательного формального дифференцирования, - его дифференциальные продолжения. Это уже уравнения не на исходном многообразии X, а в тотальных пространствах его касательного расслоения ТХ и итераций последнего. Сгохастич. поток V порождает эволюционное семейство линейных отображений в пространстве функций С(Х). Его производящий оператор имеет вид Ъ(АА\ а, 0)и = 1хШ*, и)/2 + (а, V)u. IV. Стохастические уравнения на расслоениях. Диффузия тензоров. Если на гладком многообразии имеется дополнительная структура, естественно рассматривать конструкции, согласованные с ней. Для стохастич. дифференциальных уравнений такая согласованность определяется соответствующими свойствами коэффициентов. В этом смысле на тотальном пространстве векторных расслоений рассматриваются стохастич. дифференциальные уравнения, коэффициенты к-рых линейны на слоях и коммутируют с проекцией на базу. Такими свойствами, в частности, обладают на итерированных касательных расслоениях дифференциальные продолжения стохастич. дифференциальных уравнений на гладких многообразиях. Обладающее этими свойствами стохастич. дифференциальное уравнение порождает диффузионный процесс r\(i) на тотальном пространстве е, проекция к-рого ^(t) = nr\(t)- диффузионный процесс на базе X. Соответствующий случайный поток Уц(х, t):r\(t)->r\(x) линеен на слоях и обладает свойствами операторного мультипликативного функционала для процесса £(£). Его действие на тензор Г|0 е Е-„. порождает случайную эволюцию r\(t) = V^it, ^)Ло ~ явление, к-рое называется диффузией тензоров (см. [13], [14], [7]). Частным случаем диффузии тензоров является процесс параллельного переноса тензоров вдоль траектории диффузионного процесса £(0 на базе расслоения. Этот процесс при локализации, связанной с выбором конкретной тривиализации, описывается системой, в к-рой приведенное выше уравнение на базе дополняется уравнением *5„(*> = [*«<'. 5«<*»- -1сгГ£(()(Ла('. $«<'»•■ Лаи. $B<t)))]rft+ Aa(t, $о(0)<Ы0; = tr {г£(()С4аа, 5„<*)>. г£ши0а $а(ок лв(о>- ~ГС«МЛ 5«<*»-><4<*. *«<*»•. л« W)} и при /4 = 0 сводится к параллельному переносу вдоль траектории, определяемой векторным полем. Процессу диффузии тензоров отвечает линейное эволюционное семейство в пространстве сечений соответствующего векторного расслоения, определяемое формулой, представляющей собой обобщение формулы Фейнмана - Каца для решений параболич. уравнений в сечениях векторного расслоения, превращающихся для локализаций в параболич. системы в ковариантных производных. Гладкое многообразие, на к-ром определена структура группы, согласованная с гладкой структурой, называется группой Ли. На группе Ли рассматриваются стохастич. дифференциальные уравнения с коэффициентами, инвариантными относительно групповых сдвигов. Решения таких уравнений выражаются с помощью специальной конструкции стохастич. мультипликативного интеграла (см. [3], [8]). V. Гладкие меры. Прямое уравнение Колмогорова. Пусть 3R(X) - векторное пространство действительных конечных мер на гладком многообразии X. Его элементы порождают линейные непрерывные функционалы (ф, ц) = j(p(x)\i(dx) на пространстве гладких функций Сп(Х). Это позволяет распространить на меры различные операции над функциями, напр. операцию д н-> V^jx ковариантного дифференцирования вдоль векторного поля (Угф, ц)= -(ф, V,u). Если мера V2\i существует и абсолютно непрерывна относительно |i, то плотность р(ц, 2, х) -{Vz\i){dx)/\i{dx) называется логарифмической производной (X вдоль 2. Мера называется гладкой, если она обладает гладкой логарифмич. производной. В конечномерном римановом многообразии гладкая мера - это мера, обладающая гладкой плотностью относительно риманова объема р(х) -\i{dx)/v{dx). Множество гладких мер содержит гауссовы меры в векторных пространствах, и оно инвариантно относительно удовлетворяющих нек-рым условиям гладких отображений, а также относительно интегрирования с гладкой плотностью. Марковский процесс ^(t) порождает в пространстве мер ЗК(Х) линейное эволюционное семейство отображений U*(t, т):^ь->|хд(^)Р(^, т, х), сопряженное по отношению к эволюционному семейству U(t, т) в пространстве функций. Для диффузионного процесса производящий оператор этого семейства сопряжен по отношению к 9С и имеет на гладких мерах в качестве сужения дифференциальный оператор 2-го порядка 9С*. Мера [i(t)~ U*(tQ, t)\iQ ПРИ этом является решением задачи Коши для уравнения ^ = «ра)ц.ц(*о)-Мо. к-рое называется прямым уравнением Колмогорова (или уравнением Фоккера - Планка) данного диффузионного процесса, а переходная вероятность P(tQt t, x, •) - соответственно фундаментальным решением этого уравнения. В конечномерном случае рассматриваемое уравнение можно выписать в терминах переходной плотности вероятности p(tQ, t, x} y) = P(tQ, t, x, dy)/v(dy). Указанные решения являются, вообще говоря, обобщенными, дополнительно требуется выяснение условий их гладкости. Вероятностный подход к исследованию гладкости переходных вероятностей был указан П. Маллявеном [6]. Этот подход, вызвавший большой поток дальнейших исследований (см., напр., [ 15]—[ 17]), основан на том, что стохастич. уравнение порождает отображение пространства с гауссовой мерой на многообразие, к-рому принадлежит его решение; это отображение в определенном смысле является гладким, и потому образом гауссовой меры является гладкая мера. VI. К стохастической дифференциальной геометрии естественно отнести развитые Н. Н. Ченцовым и С. Амари исследования по применению методов дифференциальной геометрии в теории статистич. выводов (см. [18], [19]). Лит.: [1] И оси да К., Функциональный анализ, пер. с англ., М., 1967; [2] I to К., «Nagoya Math. J.», 1950, v. 1, p. 35-47; [3] Маккии Г., Стохастические интегралы, пер. с англ., М., 1972; [4] Кае М., «Amer. Math. Mon.», 1966, v. 73, p. 1-23; [5) Молчанов С. А., «Успехи матем. наук», 1975, т. 30, в. 1, с. 3-59; [6] Mal- liavin P., Geometrie differentielle stochastique, Montreal, 1978; [7] Белопольская Я. И., Далецкий Ю.Л., «Успехи матем. наук», 1982, т. 37, в. 3, с. 95-142; [8) Далецкий Ю.Л., Бело- польская Я. И., Стохастические уравнения и дифференциальная геометрия, К., 1989; [9] El worthy К. D., Stochastic differential equations on manifolds, Camb. - [a. o.], 1982; [10] Лен г С, Введение СТОХАСТИЧЕСКАЯ 685
в теорию дифференцируемых многообразий, пер. с англ., М., 1967; [11] Дынкин Е.Б., Марковские процессы, М., 1963; [12] Далецкий Ю.Л., Фомин С. В., Меры и дифференциальные уравнения в бесконечномерных пространствах, М.. 1983; [13] 11 о К., в кн.: Proceedings International Congress of Mathematicians, [Uppsala], 1963, p. 536-39; [14] Дынкин Е. Б., «Докл. АН СССР», 1968, г. 179, .No 6, с. 1264-67; [15] Вismut J.M., «Z. Wahr. unci verw. Get», 1981, Bd 56, S. 469-505; [16] Ватанабэ С, Икэда Н., Стохастические дифференциальные уравнения и диффузионные процессы, пер. с англ., М., 1986; [17] Далецкий Ю.Л., «Успехи матем. наук», 1983, т. 38, в. 3, с. 87-111; [18] Ченцов Н.Н., Статистические решающие правила и оптимальные выводы, М., 1972; [19] Amari S., «Lect. Notes in Statist.», 1985, v. 28, p. 1-290. Ю. Л. Далецкий. СТОХАСТИЧЕСКАЯ ЛИНЕЙНАЯ АЛГЕБРА (stochastic linear algebra) - линейная алгебра (над полем), наделенная вероятностной структурой, согласованной с операциями линейной алгебры, то есть с операциями сложения и умножения элементов алгебры и с операцией умножения элемента алгебры на элемент поля. Понятие С. л. а. естественным образом возникает, когда имеют дело со случайными величинами, принимающими значения в линейной алгебре. Впервые это понятие встречается в книге У. Гренандера [1]. Важный случай С. л. а. представляет собой алгебра случайных квадратных матриц М = {т{,}, 1=1, ..., *,/=1, .... k. Если для таких матриц определить норму как |М||-тах^ \тч\, то предел lim J-Elog liM^.-.AfJ существует (см. [2]), и если он конечен, то равен пределу lim IlQg|M1M2...M,|. Частью теории С. л. а. является теория случайных линейных уравнений (см. Алгебраическое случайное уравнение). Поскольку в линейной алгебре имеются две бинарные операции - сложение и умножение, то можно рассматривать два типа композиции вероятностных мер, один из к-рых соответствует сумме независимых случайных величин, а другой - их произведению. При определенных ограничениях на линейную алгебру установлена связь между предельными законами, соответствующими аддитивному и мультипликативному случаям. Лит.: [1] Гренандер У., Вероятности на алгебраических структурах, нер. с англ., М., 1965; [2] Furs ten berg П., Kesten H., «Ann. Math. Statist.», 1960, v. 31, № 2, p. 457-69. А. А. Левитская. СТОХАСТИЧЕСКАЯ МАТРИЦА (stochastic matrix) - квадратная матрица с неотрицательными элементами, в к-рой сумма элементов каждой строки равна 1. Любая См. Р размера пхп является матрицей вероятностей переходов нек-рой цепи Маркова X(t) с п состояниями, и многие алгеб- раич. характеристики См. допускают вероятностную интерпретацию. Все собственные значения См. Р лежат в круге {\z\ ^1}; единица является собственным значением любой См. Р, а кратность собственного значения 1 совпадает с числом финальных классов цепи Маркова X(t). Если все состояния цепи Маркова X(t) образуют единственный класс сообщающихся состояний с периодом d > 1, то множество всех характеристик, чисел См. Р инвариантно относительно умножения на е2пг/ . 686 СТОХАСТИЧЕСКАЯ Каждый левый собственный неотрицательный ненулевой вектор л = {л-} См. Р- \\pij\\, соответствующий собственному значению 1, то есть Kj = £ л, p(j при всех ;, ( * ) определяет стационарную меру цепи Маркова X(t). Каждый правый собственный неотрицательный ненулевой вектор к С м. Р, соответствующий собственному значению 1, то есть Л1 = Х;А;*> "ри всех У, определяет гармонич. функцию цепи Маркова X(t). Если цепь Маркова X(t) эргодична, то кратность собственного значения 1 равна 1, существует lim Р" = П, где П - матрица, все строки к-рои совпадают с вектором к, удовлетворяющим условиям (*) и V. лг-= 1. Скорость этой сходимости можно оценить сверху геометрич. прогрессией с любым знаменателем р, к-рый больше модулей всех собственных значении С. м. Р, отличных от 1. Квадратная неотрицательная матрица Р*, в к-рой сумма элементов каждой строки не превосходит 1, называется с у б - стохастической, или полустохастической. Такую матрицу можно дополнить до квадратной См. Р, к-рая соответствует цепи Маркова X(t), имеющей поглощающее состояние Е, а матрицу Р* можно тогда рассматривать как матрицу вероятностей переходов обрывающейся цепи Маркоча X(f), совпадающей с X(t) до момента попадания последней в со стояние Е. См. также Дважды стохастическая матрица. Лит.: [1] Гантмахер Ф. Р., Теория матриц, 3 изд., М., 1967 [2] Беллман Р., Введение в теорию матриц, пер. с англ., М., 1969 [3] Маркус М., Мин к X., Обзор по теории матриц и матричных неравенств, пер. с англ.. М., 1972; [4] Романовский В. И., Диск ретные цепн Маркова, М- Л., 1949. А. М. Зубков. СТОХАСТИЧЕСКАЯ МЕРА (stochastic measure) - см. Слу чайная мера. СТОХАСТИЧЕСКАЯ МОДЕЛЬ; устойчивость (stabi lity of a stochastic mode]) - см. Устойчивость стохастической модели. СТОХАСТИЧЕСКАЯ НЕЗАВИСИМОСТЬ (stochastic independence) - см. Независимость. СТОХАСТИЧЕСКАЯ НЕРАЗЛИЧИМОСТЬ (stochastic in distinguishability) - свойство двух случайных процессов Х = (ХДсо))^0 и У = (УДсо))^0, означающее, что случайное множество {X ф У} = {(со. t) :Xf(co) * У^(со)} является прене- брежимым, то есть вероятность множества {со: найдется такое t^O, что (со, t) е {X* У}} равна нулю. Если X и У стохастически неразличимы, то Xt = Yt (для всех t>0, то есть X и У - стохастически эквивалентны). Обратное, вообще говоря, неверно, но для процессов непрерывных справа (слева) из стохастич. эквивалентности следует С. и. Лит.: [1] ДеллашериК., Емкости и случайные процессы, пер. с франц., М., 1975. А. И. Ширяев. СТОХАСТИЧЕСКАЯ ОГРАНИЧЕННОСТЬ (stochastic boundedness) множества М случайных величин, заданных на вероятностном пространстве (Q, *</, Р), - ограниченность М в топологическом векторном пространстве L0(Q, .«/, Р) всех случайных величин с топологией сходимости по вероятности. Другими словами, М называется стохастически ограниченным, или ограниченным по вероятности, если для каждого е>0 найдется такое 3>0, что Р{соеП:|Х(со)|>Р}<£ для всех X е М. В. И. Тариеладзе. СТОХАСТИЧЕСКАЯ ПОЛУГРУППА (stochastic semi group)- двуиараметрическая система X/, Q^.s^t^T<°°,
случайных величин, определенных на вероятностном пространстве (Q, ,V, P), принимающих значение в нек-рой топологической полугруппе G и удовлетворяющих определяющему эволюционному уравнению 0<s^T^^r<oo:XsTX^ = X/. XTT = 7(modP), (1) где / - единица полугруппы G. С. п. была введена и изучена в [1] как стохастич. полугруппа случайных операторов. Основные свойства С. п. изучались в [1] с помощью ее инфинитезимальной полугруппы, определяемой при 0^s-t0^t]^...^tn = t^T, 8„ = max itk-tk^) соотношением lXXn=y,'=limXL(<_,-/),8n^0. С. п. Xg может быть определена и как решение эволюционного стохастич. интегрального уравнения x*t=i+\tx;dYi. (2) Здесь существенным является вопрос о представлении его решения в возмущенном случае Y*=V* +Wsl, когда определяющая инфинитезимальная полугруппа V* возмущается нек-рой другой инфинитезимальной полугруппой W*, к-рая не зависит от первой. В этом случае общее решение уравнения (2) получается в виде смешанного произведения его частных решений С// и Z\ для V/ и wj соответственно, В терминах С. п. можно построить общую теорию мультипликативного случайного процесса X(t) с независимыми приращениями Х~ (tk_x)X(tk)-Xtk вплоть до получения его разложения, соответствующего представлению Леви - Хинчина в клаесич. случае (см. [2]), но в терминах смешанного произведения соответствующих компонент. Понимая в уравнении (1) умножение как последовательное применение операторов, можно использовать понятие С. п. уже для решения нелинейных стохастич. уравнений эволюционного типа (см. [3], [4]). Если условие непрерывности не выполняется или полугруппы U* и Z\ могут быть зависимы, то смешанное произведение (t/@ZXf также существует при нек-рых дополнительных ограничениях на скачки или степень их зависимости. При этом формула для инфинитезимальной полугруппы принимает вид Y^DiURZy^V'+Wf+iVftW)*, где по определению, называют смешанной суммой полугрупп V^ и Ws*. Лит.: [1] БуцанГ. П., Стохастические полугруппы, К., 1977; [2) ГихмаиИ. И., С короход А. В., Введение в теорию случайных процессов, 2 изд., М., 1977; [3] Далецкий Ю.Л., «Успехи матем. наук», 1962, т. 15, в. 5, с. 3-115; [4] Скороход А. В., там же, 1982, т. 37, в. 6, с. 157-83. Г. П. Буцан. СТОХАСТИЧЕСКАЯ ПОСЛЕДОВАТЕЛЬНОСТЬ (stochas- tic/adapted sequence) - последовательность случайных величин Х- (Хп)п^и заданная на измеримом пространстве (Q, .«/) с выделенным на нем неубывающим семейством а-алгебр ('Чг^пгЯ* *Чг —,с/» обладающих свойством согласованности (адаптированности): Хп при каждом л>1 .«/„-измеримы. Для записи таких последовательностей часто используется обозначение X = (Хп, ^„)„> 1, подчеркивающее измеримость Хп относительно 1</я. Типичными примерами С. п., заданных на вероятностном пространстве (Q, .< Р), являются марковские последовательности, мартингалы, семимартингалы и др. В случае непрерывного времени (когда дискретное время п > 1 заменяется на £>0) соответствующая совокупность объектов X=(Xt, s/t)t^\ называется стохастическим процессом. А.Н.Ширяев. СТОХАСТИЧЕСКАЯ ПРОИЗВОДНАЯ (stochastic deriva tive) - линейное отображение пространства функционалов от винеровского процесса w в H-L (Qx|R+), совпадающее на гладких функционалах с обычным дифференцированием. Играет важную роль в теории расширенного стохастического интеграла и Маллявена исчислении. Пусть (Q, .V, Р) - вероятностное пространство, ,<~/=g{w}, TjeL (Q). По теореме Ито (см. [1]) 11 = 1Г=о/»(^ t»))' где 1п - кратные винеровские интегралы, fn - симметричные функции из а2Ю> II U- Стохастическая производная Скорохода- это замкнутый линейный оператор D из L (Q) в Я с областью определения *(D) = {:X("-l)!"2||/„l|^<~>, для к-рого (см. [2], [3]). Если (-, ■)- скалярное произведение в L (IR+), то D/lr\ = (Dr\, h) есть значение случайного линейного функционала Dr\ на элементе hеL (П?+). Величина Dhr\ (так наз. стохастическая производная М а л ля вен а; см. [4]) может быть определена и для всех тех г\, для к-рых ряд IxV.W. V.-). *<■>» сходится в L (Q). С. п. Маллявена связана с дифференцированием по направлению следующим образом. Пусть (Q, Д Р) - пространство непрерывных функций с винеров- ской мерой, аЧ(о) = (о, xt = j hsds, предел e_1(r|(w + £*) - -tj((d)) при е ->0 существует в смысле сходимости в L2(Q) и равен £. Тогда С.п. Маллявена существует и совпадает с £. Лит.: [1] I to К., «J. Math. Soc. Japan», 1951, v. 3, p. 157-69; [2] Скороход А. В., «Теория вероятн. и ее примен.», 1975, т. 20, в. 2, с. 223-37; [3] Кабанов Ю. М., Скороход А. В., в сб.: Труды школы-семинара по теории случайных процессов. (Друскининкай, 25-30 ноября 1974), ч. 1, Вильнюс, 1975, с. 123-67; [4] Nualart D., Zakai M., «Probab. Th. Rel. Fields», 1986, v. 73, № 2, p. 255-80. Ю. М. Кабанов. СТОХАСТИЧЕСКАЯ СВЕРТКА обобщенная (generalized stochastic convolution) - см. Обобщенная стохастическая свертка. СТОХАСТИЧЕСКАЯ ЭКВИВАЛЕНТНОСТЬ (stochastic equivalence) - отношение эквивалентности между случайными величинами, различающимися лишь на множестве нулевой вероятности. Точнее, случайные величины Хх и Х2, заданные на одном вероятностном пространстве Ш, .г/, Р), называются стохастически эквивалентными, если Р{Xi = Х2) = 1. В большинстве задач теории вероятностей имеют дело не с самими случайными величинами, а с классами эквивалентных случайных величин. Случайные процессы X^U) и X2(t), teT, определенные на одном вероятностном пространстве, называются стохастически эквивалентными, если при любом teT имеет место С. э. между соотвегствующими случайными величинами: P{X^(t)-X2(t)}=\. По отношению к случайным процессам Х^(0 и Х2(0, у к-рых совпадают соответственные конечномерные распределения, применим также термин «С. э. в широком смысле». А. В. Прохоров. СТОХАСТИЧЕСКАЯ 687
СТОХАСТИЧЕСКАЯ ЭКСПОНЕНТА (stochastic exponential) - случайный процессу являющийся решением линейного стохастического уравнения где Xt - семимартингал, заданный на нек-ром стохастическом базисе {Q, Л, (.4)» P}. Решением этого уравнения является процесс 688 СТОХАСТИЧЕСКАЯ модификация другого). Если же PJ[)tsT {Х^О *Х^и)}} = 0, то такие два процесса называются неотличимыми. Наряду с этим употребляется также термин «стохастич. эквивалентность в широком смысле»: так называют пару случайных процессов (заданных, возможно, на разных вероятностных пространствах, но на одном и том же параметрич. множестве и в одном и том же фазовом пространстве), у к-рых совпадают все конечномерные распределения. Лит.: [1] ГихманИ.И., Скороход А. В., Введение в теорию случайных процессов, 2 изд., М., 1977; [2] Справочник по теории вероятностей и математической статистике, 2 изд., М., 1985. Н. И. Портенко. СТОХАСТИЧЕСКИЕ МОДЕЛИ (stochastic models) в гидрологии - модели гидрологических явлений, задающие их в форме нек-рых случайных процессов. По-видимому, первые С. м. в гидрологии были введены для описания междугодичных колебаний речного стока (см. [1]). При годовом шаге по времени гидрологич. процессы представляются чаще всего в виде смешанных процессов авторегрессии - скользящего среднего невысокого порядка (см. [2]-[4]). Спектры таких гидрологич. процессов обычно медленно убывают с ростом частоты и чаще всего не содержат значительных максимумов (см. [5], [6]). В качестве С. м. в гидрологии применяют также процессы с бесконечной памятью (см. Херста явление) и нелинейные модели случайных процессов типа пороговой авторегрессии (см. [7]). Поскольку гидрологич. процессы, как правило, негауссовы, часто строят модели не самих процессов, а нек-рых их функций, напр. логарифма или обеспеченности (см. Обеспеченность в гидрологии), имеющих более близкие к гауссовским распределения вероятностей. В отечественной литературе приняты так наз. «обобщенные» модели, общий вид к-рых задается заранее, а значения параметров определяются либо по данным наблюдений, либо назначаются из других соображений (см., напр., [8], [9]). Многие гидрологич. процессы, d частности вариации величин речного стока, характеризуются наличием заметного сезонного хода, учет к-рого требует использования мультипликативных моделей Бокса и Дженкинса (см. [10]) или их модификаций (см. [2], [11]). Лит.: [11 КрицкийС. Н., МенкельМ.Ф., Расчеты реч ного стока, М.-Л., 1934; [21 Applied modelling of hydrologic time series, Littleton (Colo.), 1980; [3] BrasR., Rodriguez-1 tu r he I., Random functions and hydrology, Reading (Mass.), 1985; [4] McNeill., Umphrey G. (eds.), «Adv. Statist. Sci>, 1987, v. 4; [5] Yevjevich V., «Hydrology Papers», 1977, >h 94; [6) П ривал ьский В. Е., Климатическая изменчивость, М., 1985; [7) Tong Ы., Thanoon В., Gudmundsson G., «Water Research Bull.», 1985, v. 21, Jsfe 4, p. 651-61; [8] Раткович Д. Я., Многолетние колебания речного стока, Л., 1976; [91 Музы лев С. В., При- вальскийВ. Е., Раткович Д. Я., Стохастические модели в инженерной гидрологии, М., 1982; [101 Бокс Дж., Дженкинс Г., Анализ временных рядов. Прогноз и управление, пер. с англ., в. 1, М., 1974; [ 111 С в а н и д з е Г. Г., Математическое моделирование гидрологических рядов, Л., 1977. В. Е. Привалыжий. СТОХАСТИЧЕСКИЕ МОДЕЛИ климата (climatic stochastic models) - класс физико-математических моделей, описываемых дифференциальными уравнениями или системами уравнений (обыкновенных или с частными производными) относительно каких-то климатических характеристик Y(r, 0 = {У{(г, t), i- 1, .... т}, зависящих от пространственных координат г и времени t, причем нек-рые из коэффициентов уравнений (а следовательно, и их решения) являются случайными функциями. В качестве входящих в уравнения климатич. характеристик обычно рассматриваются такие величины, как температура океана и атмосферы, атмосферное давление, количество осадков, площадь ледяного покрова и т.п., осредненные по значительной области пространства (напр., по всему земному шару или по определенным широтным зонам) и по времени (скажем, по месяцу, сезону или году). Их изменение во времени зависит как от внешних et(X) = exp{Xt-XQ-(\/2XXc)t} Д^(1+ДХ5)ехр(-ДХ,), где (X )t - квадратич. характеристика непрерывной мар- тингальной составляющей процесса Xt, ДХ5 = Х5-Х5-. Это решение единственно (с точностью до неразличимости почти наверное) в классе семимартингалов (см. [1]). Если Xt и Yt - семимартингалы, то et(X)et(X) = et(X+ Y + [X, У]), где [X, У] - квадратич. ковариация этих процессов. С. э. играет важную роль при изучении вопросов абсолютной непрерывности вероятностных мер и слабой сходимости конечномерных распределений семимартингалов к распределениям процессов с независимыми приращениями (см. [2]). В случае когда Xt - непрерывный мартингал, достаточным условием для того, чтобы процесс et(X) был мартингалом при всех t ^ 0, является условие Еехр{(1/2)(Х)00}<<». Ряд дальнейших результатов в этом направлении приведен в [3]. Лит.: [11 Doleans-Dade С, «Z. Wahr. und verw. Geb», 1970, Bd 16, S. 181-94; [2] Липцер Р. Ш., Ширяев А. Н., Теория мартингалов, M., 1986; [31 Новикова. А., «Матем. заметки», 1984, т. 35, в. 3, с. 455-71. а. А. Новиков. СТОХАСТИЧЕСКИ НЕПРЕРЫВНАЯ ПЕРЕХОДНАЯ ФУНКЦИЯ (stochastically continuous transition function) - см. Переходная функция для марковского процесса. СТОХАСТИЧЕСКИ НЕПРЕРЫВНЫЙ СЛУЧАЙНЫЙ ПРОЦЕСС (stochastically continuous random process) - случайный процесс X(t), заданный на вероятностном пространстве (Q, I*/, Р) с параметрическим множеством Т и фазовым пространством (М, &), такой, что случайные элементы Х(0 сходятся по вероятности к случайному элементу Х(£0), когда t -> t0. Предполагается, что Г и М- метрич. пространства, причем .<# есть ст-алгебра борелевских подмножеств М. Это - определение С. н. с. п. в точке tQ. Иначе говоря, процесс X(t) стохастически непрерывен в точке t0 € Г, если для любых е > 0, 8 > 0 найдется такое у> 0, что Р{г(Х(0, Ха0))>8}<£ при всех таких teTt для к-рых р(£, tQ)<y (через г и р обозначены метрики вМиГ соответственно). Если процесс стохастически непрерывен в каждой точке множества Т с: Г, то его называют стохастически непрерывным на множестве Т. Лит.: [1J Гихман И. И., Скороход А. В., Введение в теорию случайных процессов, 2 изд., М., 1977. И. И. Портенко. СТОХАСТИЧЕСКИ ОПРЕДЕЛЕННЫЙ ПРОЦЕСС (sto chastically continuous transition function) - см. Марковский процесс с конечным множеством состояний. СТОХАСТИЧЕСКИ ЭКВИВАЛЕНТНЫЕ СЛУЧАЙНЫЕ ПРОЦЕССЫ (stochastically equivalent random processes) - заданные на одном и том же вероятностном пространстве (Q, i</, P) и на одном и том же параметрическом множестве Т случайные процессы X^U) и Х2(0, teT, со значениями в пространстве (М, Зв) такие, что P{Xt(0 *Х2(0} = 0, каково бы ни было t eT (говорят также, что один из них есть
факторов (светимости Солнца, флуктуации параметров орбиты Земли, вулканич. извержений), так и от погодных условий, то есть от метеорологич., океанологич. и гидрологич. характеристик X(r, t) = [Xj(r, t), j = 1, ..., «}, быстро меняющихся во времени и пространстве и играющих роль «шумов». Рассмотрение См. климата опирается на использование тех или иных достаточно простых физич. моделей, позволяющих приближенно описать зависимость климатич. переменных У от «погодных» переменных X. При этом существенно используется тот факт, что характерные временные масштабы т^ «погодных» переменных X на несколько порядков меньше, чем временные масштабы Ту климатич. переменных У, то есть т^<5" Ту. Поэтому можно предполагать, что вектор У зависит не столько от конкретной реализации вектора X, сколько от каких-то осредненных во времени характеристик этого последнего вектора (где период осреднения Т выбирается так, чтобы Тх^Т^Ту) (см. [3]). Указанные осредненные характеристики представляют собой оценки (построенные по реализации длины Т) соответствующих вероятностных средних значений, определенных по распределению вероятностей вектора X(r, t). Часто используется также дальнейшее упрощение (опирающееся на неравенство т^«Ту), согласно к-рому для временных масштабов порядка Ту «быстрые» переменные Х(г, О как функции t представляют собой белый шум (с распределением вероятностей, к-рое, вообще говоря, может зависеть от г и О. Такого рода «быстрые» переменные X(r, i) (случайные силы) включаются в макроскопич. «динамич. уравнения» для У(г, О. Параметры случайных сил, имитирующих влияние погодных флуктуации, оцениваются на основании данных наблюдений, дополненных нек-рыми правдоподобными гипотезами. Решение У (г, t) полученной См. при определенных условиях является векторным марковским процессом, а его многомерная плотность вероятностей {р,(г, О, i = 1, ..., m) удовлетворяет (прямому и обратному) Колмогорова уравнениям. Простейший пример См. климата опирается на упрощенное уравнение баланса тепла, записываемое в виде dY(t) dt = -XY(t) + X(t), (1) где У, напр.,- температура поверхности океана, а X - случайная функция с нулевым средним значением, описывающая быстро флуктуирующие из-за изменений погоды притоки тепла. Постоянный параметр Х>0, характеризующий отрицательную обратную связь, имеет смысл отношения коэффициента теплообмена данной системы с внешней средой к эффективной теплоемкости. Если X(t) - стационарный случайный процесс, то Y(t) - тоже стационарный случайный процесс со спектральной плотностью /"у (со) =/"х((о)/(А,2 + (02). Здесь /х(со) - спектральная плотность процесса X(t), равная постоянной, если X(t) - белый шум (см. [1], [3], [4]). Более сложные линейные энергобалансовые модели описываются системами уравнений dY{ ^e-E-i4V*.''=i....... (2) где Yi(t) (i = 1, ...» я) - значения температуры для i-й зоны (или i-й член разложения глобального поля температуры по нек-рому базису), Xi- - коэффициенты, характеризующие теплообмен между различными компонентами системы, а Х{(0 - флуктуирующие притоки тепла (обычно принимаемые за белые шумы с интенсивностью, зависящей от О (см. [4]). Модели типа (1) и (2) применяют иногда и для анализа малых флуктуации крупномасштабных течений под действием возмущений заметно меньшего масштаба (напр., флуктуации мощных океанских течений, вызываемых колебаниями скорости ветра; см. [2], [4]). К линейным С. м. типа (2) относятся также модели эволюции поля морских льдов, на к-рое воздействуют флуктуации скорости льдообразования или таяния (см. [5]). Для анализа больших случайных отклонений характеристик климата от их современных значений применяются нелинейные С. м. Так, напр., модель энергетич. баланса Северного полушария может быть описана системой стохастич. дифференциальных уравнений dTz(t) dt dt ••vxlTz,Tj + fzU\ (3) где Tz - температура поверхности полушария, Гд - разность температур экватор - функции от Т<£ и Гд полюс, vv v2- нек-рые нелинейные , a fiit), fb(t) - «случайные силы», описывающие синоптич. пульсации притоков тепла. Для этой модели была получена (см. [2]) оценка математич. ожидания времени случайного переброса из окрестности одного положения равновесия (отвечающего современному климату) в окрестности других возможных стационарных решений невозмущенных уравнений (3). Для получения грубых оценок в моделях такого типа применяются асимптотич. методы теории больших флуктуации динамич. систем. Аналогичные нелинейные модели применяют для анализа воздействия возмущений синоптич. масштаба (сотни км) на автоколебательные процессы в системе океан - морской лед - атмосфера (см. [6]) и для исследования больших флуктуации крупномасштабных атмосферных течений (см. [7]). Лит.: [1] Свирку нов Н. П., Статистические модели климата Земли. Обзор. Сер. Метеорология, в. 4, Обнинск, 1982; [2] Демченко П. Ф., «Изв. АН СССР. Физика атмосферы и океана», 1983, т. 19, № 12, с. 1259-66; [3] Hasselmann К., «Tellus», 1976, v. 28, >fe 6, p. 473-85; [4] Frankignoul C, «Dynamics of Atmosphere and Oceans», 1979, v. 3, № 2-4, p. 465-79; [5] LemkeP., TrinklE. W., Hasselmann K., «J. of Physical Oceanography», 1980, v. 10, N, 12, p. 2100-20; [6] SaltzmanB., SuteraA., Even son A., «J. of Atmospheric Sci.», 1981, v. 38, № 3, p. 494-503; [7] Egger J., там же, 1981, v. 37, № 12, p. 2606-18. П. Ф. Демченко, M. И. Фортус. СТОХАСТИЧЕСКИЙ АНАЛИЗ (stochastic analysis) - см. Стохастическое исчисление. СТОХАСТИЧЕСКИЙ АТТРАКТОР (stochastic attractor) - замкнутое инвариантное относительно динамической системы {S}, представляющей собой однопараметрическую группу диффеоморфизмов гладкого многообразия, множество А, обладающее следующими свойствами (см. [1]): 1) существует -~S4JQo>Ut при t>t< и окрестность UQ^>A такая, что Ut р| Ut = A; 2) для любой абсолютно непрерывной меры ц0 на Uq семейство мер \it = Sx ц0 сходится к инвариантной мере X (не зависящей от и0), сосредоточенной на А; 3) динамическая система (А, X, {S }) является перемешивающей (см. Перемешивание). Статистика типичных (по отношению к мере Лебега) траекторий в области притяжения С. а. определяется предельной мерой X. Лит.: [\] Синай Я.Г., в кн.: Нелинейные волны, М., 1979, с. 192-212. Л. А. Бунимович. СТОХАСТИЧЕСКИЙ БАЗИС (stochastic basis) - вероятностное пространство £Q, .< Р), снабженное фильтрацией А = (^)^о» то есть неубывающим (^Q^ — ^ s^t) и непрерывным справа (^ = р| 4 t^O) семейством а-подал- гебр j4\ #=(0, of, A = UA:*0, Р). СТОХАСТИЧЕСКИЙ 689
С. б. Л называется полным или удовлетворяющим обычным условиям, если а-алгебра ^ является полной (относительно меры Р) и каждая а-алгебра .^ содержит множества Р-меры нуль из .г/. Полный С. б. ЗВ часто обозначается #р, где индекс подчеркивает пополнение по мере Р. Лит.: [1] DellacherieC, Meyer P.-A., Probabilites et poten- tiel. Theorie des martingales, t. 2, P., 1980; [2] ЛипцерР.Ш,, Ширяев A. H., Теория мартингалов, М., 1986, с. 512; [3] Ж а код Ж., Ширяев А. Н., Предельные теоремы для случайных процессов, пер. с англ., М., 1994. а. Н. Ширяев. СТОХАСТИЧЕСКИЙ ВЫЧИСЛИТЕЛЬНЫЙ АЛГОРИТМ (stochastic computational algorithm) - вычислительный алгоритм, включающий операции со случайными числами, вследствие чего результат вычисления является случайным. Стохастическими являются алгоритмы статистического моделирования, используемые для численного исследования случайных процессов и явлений, и алгоритмы Монте-Карло метода для решения детерминированных задач: вычисления интегралов, решения интегральных уравнений, краевых задач и т. д. Особый класс С. в. а. составляют рандомизированные вычислительные процедуры интерполяционных и квадратурных формул со случайными узлами. Рандомизация здесь обычно производится так, чтобы математич. ожидание результата вычисления по С. в. а. равнялось искомой величине. Окончательная оценка строится путем осреднения результатов нескольких реализаций С. в. а. Для задач большой размерности рандомизация может дать существенную экономию памяти времени ЭВМ (см. [1]-[4]). Это показывают, в частности, оценки трудоемкости рандомизированного метода конечных сумм для решения интегральных уравнений 2-го рода (см. [4]). Особенно эффективны такие С. в. а. при использовании многопроцессорных вычислительных систем, к-рые позволяют строить одновременно несколько реализаций алгоритма. Специальные С. в. а. строятся для реализации случайного поиска глобального экстремума функции многих переменных. Такие алгоритмы сравнительно эффективны, если значение функции определяется со случайной погрешностью. Лит.: [1] Бахвалов Н. С, Численные методы, 2 изд., т. 1, М., 1975; [2] Ермакове. М., Метод Монте-Карло и смежные вопросы, 2 изд., М., 1975; [3] Соболь И. М., Численные методы Монте-Карло, М., 1973; [4] М ихайлов Г. А., Некоторые вопросы теории методов Монте-Карло, Новосиб., 1974; [5] Растри гин Л. А., Статистические методы поиска, М., 1968. р. А. Михайлов. СТОХАСТИЧЕСКИЙ ДИФФЕРЕНЦИАЛ (stochastic differential) - случайная функция интервала dX, определяемая формулой (dX)I = Xt-Xs,I = (s, t], для каждого процесса X=(Xt, *</,, Р) из класса семимартин- галов 5, рассматриваемых на стохастическом базисе (Q, ,г/, (-dptx)» P)- В семействе С. д. dS = {dX: X е 5} вводятся аддитивная (А), мультипликативная (М) операции и операция умножения (Р) соответственно по формулам (A) dX + dY = d(X+Y), (М) ШХНб, t)=jts<bdX [стохастич. интеграл, где Ф - локально ограниченный процесс, согласованный с потоком С</;);^о1» (Р) dXdY = d(XY) -XdY - YdX. При этом оказывается, что Ш-dYXs, t] = = l.i.p. ^ (X -X )(У -У, ), 690 СТОХАСТИЧЕСКИЙ где Д = (s = t0< tx < ... < tn = t) - произвольное разбиение интервала (s, t], l.i.p.- предел по вероятности, |Л| = max |^--^-_||. В стохастич. исчислении важное место принадлежит правилу «дифференцирования» случайных функций или формуле И то: если X1, ..., Х"е5 и функция f-f(xit ..., хп) е С , то процесс Y = f(X\ .... Х")е5 df(x\.... x") = ^1aJ/-ax4 где д± - частная производная по i-й координате. В частности, из (1) выводится, что если Хе5, то /rat)=Ax0)+J^'asjrfxs+ + So«,«t lf(Xs)-f(Xr-)-fXXsJbXs), (2) где Xе - непрерывная мартингальная составляющая X, AX5 = XS-XS_. Формуле (2) можно придать следующий вид: f(Xt) = f(X0) + f0 f\Xs.)dXs + \\[ f{Xs.)d\X, X]s -r + 2o<«<« [№ " f(x>J _ Г***-)**' ~ 1 Г<х*-Хлх5>2]. где [X, X] - квадратич. вариация X. Лит.: [1J Ito K., Watanabe Sh., в кн.: Proceedings of the International Symp. SDE Kyoto, 1976, N. Y. - [a.o.], 1978, p. 1-30; [2] ГихманИ.И., Скороход А. В., Стохастические дифференциальные уравнения и их приложения, К., 1982. А. Н. Ширяев. СТОХАСТИЧЕСКИЙ ИНТЕГРАЛ (stochastic integral) - интеграл, в наиболее общем виде «хорошо» определяемый по процессам, являющимся семимартингалами. Предполагается, что на стохастич. базисе аб= (Я, .с/, АСг/,), P) задан случайный процесс H = (Ht, sft)t^Q и семимартингал Х- (Xt, >^r)t^Q. Стохастическим интегралом от Н по X, обозначаемым называется процесс, конструируемый следующим образом. Пусть Н - простой процесс вида Н = У/|о1> гДе У ~ ограниченная .^-измеримая случайная величина, или Н- У/|г s|, r<s, где У - ограниченная ^-измеримая случайная величина и &0] = {(со, t):t = 0), ]г, 51 = {(ш, t):r<t^s). Тогда для семи- мартингала Х = (Хрг>0, заданного на стохастич. базисе .#, Си. НХ определяется посредством формулы ГО, если # = У/|п1, Н X = < (*) ' \ПХШ-Хгя1\ если Я = У,Г,,. • Отображение Н —>//Х, определенное формулой (*) для простых случайных функций Я, допускает расширение (снова обозначаемое Н-Х и называемое С. и. от Н по X) для всех локально ограниченных предсказуемых процессов Н, обладающее следующими свойствами: 1) Н-Х является согласованным процессом с траекториями из пространства D (функций, непрерывных справа и имеющих пределы слева); 2) Н->НХ является линейным, то есть процессы (аН + К)Х и аН'Х + КХ неразличимы; 3) если (Я")и>1 есть последовательность предсказуемых процессов, сходящихся поточечно к процессу Н, и если
\Ни ^К, где К- локально ограниченный предсказуемый процесс, то HnXt-^HXt по вероятности для всех £еП?+ и, более того, sup |ЯПХЧ-ЯХ5| 4 0; 4) отображение Н-+НХ является с точностью до стохастич. пренебрежимости единственным в том смысле, что если #-кх(#) есть другое расширение с выполнением предыдущих свойств, то а(Я) и ЯХ неразличимы. В случае когда X - локальный мартингал, данное определение совпадает с определением стохастического интеграла по локальному мартингалу. Если X - процесс локально ограниченной вариации, то НХ совпадает с точностью до стоха- стич. неразличимости с потраекторным интегралом Стилтьеса С и. Я-X от Я по семимартингалу X также является семи- мартингалом; (ЯХ)0 = 0, Н-Х = Н-{Х- Х0), Д(ЯХ) = ЯДХ; если X =Х0 + /|,0Г«Х, то (НХ) = (HLQT*)X для всех моментов остановки Г; К-(Н-Х) = (КН)-Х\ если Т - предсказуемый момент и У - .^-измеримая случайная величина, то (У/г7-ЛХ= УДХг/.|у. ■; если Х = Х0 + М + А - разложение семимартингала с процессом локально ограниченной вариации А и локально квадратично интегрируемым мартингалом М, то для всякого локально ограниченного предсказуемого процесса Я имеют Н-Х = Н-М + НА. Естественно, что для конкретных процессов X запас процессов Я, для к-рых определен Си. Я-Х, может быть и более широким, нежели класс локально ограниченных предсказуемых процессов. Так, напр., в случае винеровского процесса w = (wt)f^Q Си. J Hsdws, t^O, называемый стохастическим интегралом Ито, определенным для адаптированных процессов H = (Ht, ^th>0 таких» что Для каждого t > ° : P Iff) N*dS < °°} = 1' ЕСЛИ М = ^М*} ^ * " локальный квадратично интегрируемый мартингал, то Си. J HsdMs, t^ 0, определяется для тех предсказуемых Н- (Ht, .</;); ^ о» для к-рых процесс J H2d(M)s, t>0, является локально интегрируемым. В случае квадратично интегрируемых случайных процессов Х- (Xt)t>Q, Xq-0, EX, = 0, между классом процессов с независимыми приращениями (НП), мартингалами Ж и классом процессов с ортогональными приращениями (ОП) существует такая связь: (НП) £ Л2 £ (ОП). Естественно, что при определении Си. Я-Х по процессу Хе(ОП) на Я приходится налагать более жесткие условия, нежели чем для ХеЛ2. Так, напр., в L -теории стационарных в широком смысле процессов С и Я-Х определяют [в случае X е (ОП)] для детерминиро- ванных функций Н -H(t), t^Q, таких, что где/4s, *] = Е[Х,-Х5]2. В случае семимартингалов Х= (Xt)t^Q важную роль играет формула замены переменных Ито, дающая представление для процесса Y=(Yt)t^0 с Yt = f(xt>> где f=f(*) ~ Дважды непрерывно дифференцируемая функция. См. Семимартингал. Лит.: [1] ГихманИ.И., Скороход А. В., Стохастические дифференциальные уравнения и их приложения, К., 1982; [2) Лип- цер Р. Ш., Ширяев А. Н., Теория мартингалов, М., 1986; [3] Жа- кодЖ., Ширяев А. Н., Предельные теоремы для случайных процессов, пер. с англ., М., 1994. А. Н. Ширяев. СТОХАСТИЧЕСКИЙ ИНТЕГРАЛ в гильбертовом пространстве (stochastic integral in Hilbert space) -интеграл J HsdXs по семимартингалу Х со значениями в гильбертовом пространстве И от предсказуемого процесса Я со значениями в пространстве У(£, $) линейных непрерывных операторов из И в $• Си. в гильбертовом пространстве определен, если процесс |Я5|| локально ограничен. Построение Си. в гильбертовом пространстве может быть проведено так же, как и в скалярном случае, и его свойства аналогичны свойствам скалярного стохастич. интеграла. Важным частным случаем С и. в гильбертовом пространстве является изометрич. С и. в гильбертовом пространстве по квадратично интегрируемому мартингалу. Если X - мартингал в Ж и E||Xj <oo для любого t, то определен такой возрастающий предсказуемый процесс < X >,, для к-рого ||XJ -<X>t- мартингал. Кроме того, существует такой предсказуемый процесс Qt со значениями в пространстве ядерных операторов, что для любых х> у е Л квадратич. вариация {(X, х\ (X, y))t = J (Qsx, y)d < X >5 (почти наверное), причем Qt неотрицателен и самосопряжен при всех t. Пусть 9Pq - множество всех линейных операторов В, определенных на Q/ Ж, переводящих Q/ Ж в $ и таких что BQ/ является оператором Гильберта - Шмидта, и пусть [||-[|| - норма в пространстве операторов Гильберта - Шмидта. Если Ht € 9Pq для любого t и Мо,(]||1Я^/21||2(*<Х>*<00 для любого *' то Си. в гильбертовом пространстве является квадратично интегрируемым мартингалом в^и обладает свойством «изо- метрии»: = J |||#SQ^2||| d<X>s для любого t (почти наверное). Лит.: [1J Metivier M., Semimartingales. A course on stochastic processes, В. - N. Y., 1982. Б. Л. Розовский. СТОХАСТИЧЕСКИЙ ИНТЕГРАЛ вдоль линии в случайном поле (stochastic line integral) - стохастический интеграл, задаваемый случайным процессом X(t) - кривой интегрирования и интегрирующей функцией аДф, И) - случайным полем, значения к-рого рассматривают вдоль кривой интегрирования. Пусть (Qf.-V, dv Р), t>0,- стохастич. базис, Ф - функциональное пространство. Случайный я-мерный процесс X(t), траектории к-рого принадлежат Ф, предполагается ^-измери- мым. Случайное поле аДф, h) определено на О. х Ф х Ц?+ х [0, Л0], принимает значения из П?я, измеримо по совокупности переменных (в пространстве Ф выделена а-алгебра). Стохастическим интегралом вдоль линии в случайном поле ?0а,(Х, dt) (стохастическим криволинейным интегралом) называется предел по вероятности, если он существует, интегральных сумм и:.' *.<*■ *<*> при max Д^-»0, 0 = £0< ^ < ... <tk = T, Mk = tk+x-tk. Пусть k DT(№") - пространство 1Р"-значных функций, определенных на (-оо, Г], без разрывов 2-го рода, непрерывных справа, а в точке Т - слева, D(IP") - пространство 1Р"-значных функций, определенных на (-<*>, оо), без разрывов 2-го рода, непрерывных справа, Ds - а-алгебра в D, порожденная цилиндрич. множествами с основаниями над [0, s], X(t) - непрерывная возрастающая .^-измеримая функция, Л(ф, у) - определенная на Dq((R") неотрицательная непрерывная по совокупности переменных в топологии D0(IR") функция и Л(ф, ф) = 0. СТОХАСТИЧЕСКИЙ 691
Для cpeD определяют оператор Bt: Оператор Bt переводит функцию ф е D в функцию 8(фбО0(К"). Считают, что O = D0(IP"), поле а(ф, Л) вполне измеримо при фиксированной ф и аДф, Л) = а(ф, £ + Л) - -а(ф, О. Стохастич. криволинейный интеграл существует для следующих классов случайных процессов и полей. I. Непрерывное поле ограниченной вариации. Если при фиксированных ф поле а(ф, t) является непрерывным процессом ограниченной вариации и для всех t > О |а,(Ф, Л)-а,0|Г, Л)|<а(* + Л)-МО)Л(ф. V>, то криволинейный интеграл J at(QtX, dt) существует для произвольного ^-измеримого процесса со значениями в DT(g») (см. [1]). Для процессов X(t), Y(t) - ^-измеримых и принадлежащих Dr(li?n): |J0ra,(e,x, ^)-J0ra,(e, y, dt)\ ^|0гл(е^, е,к№М). В качестве примера можно рассмотреть поле <*,(Ф, /0=J'+Vs, е_5ф)<ш*). Здесь K(s) - непрерывная функция ограниченной вариации. Функция a(s, ф) определена на Q x [j?+ x D, измерима, предсказуема при фиксированной cpeD, при фиксированном s измерима относительно ^5х2>5, равномерно непрерывна по ф в топологии D относительно s. Для этого поля существует криволинейный интеграл J07a,(e,X, dt)=\l a(t, X(0) «(0. II. Локально квадратически интегрируемое случайное поле с непрерывной характеристикой. Пусть af(cp, h) как функция h является локально квадратически интегрируемым мартингалом относительно потока ^t+h. Пусть Bt(y, у, h) - взаимная характеристика о^(ф, h) и аДу, Л). Если выполнено неравенство |В,(ф, у, Л)-В,(ф, <р, А)Ц ^(Ш + А)-Ш))Л(ф, у), где Ц-11 - норма линейного оператора, то криволинейный интеграл J at(QtX, dt) существует вдоль любого ^-измеримого процесса X(t), принадлежащего Dr(IPn). Как функция верхнего предела этот интеграл является локально квадратически интегрируемым мартингалом с непрерывной характеристикой (см. [1]). Напр., для поля а*<Ф. Л)=|'+Ло(5, е_5фЫр(*)+£+Л \у c(s, е_5ф, y)y(dyxds), где p(s) - непрерывный мартингал, y(dyxds) - мартингаль- ная мера на произведении пространства УхИ?+| измеримые функции a(s, ф) и c(s, ф, у) (при фиксированном у е У) обладают теми же свойствами, что и функция a(s, ф) предыдущего пункта, существует криволинейный интеграл \TQat(etxt dt)=\TQc(t, х()) с/р(0 + + (jycft,«-),j/)y(rfj/xM. 692' СТОХАСТИЧЕСКИЙ III. Предсказуемые ступенчатые поля, не имеющие фиксированных разрывов. Пусть поле а(ф, h) представлено в виде суммы полей, каждое из к-рых имеет один скачок: а(Ф, А) = £па(п)(ф, h), хп(ф) - моменты скачков. Введены следующие условия. 1) Для множества Уя(Г) = {(со, ф): supa(n)(fyp, Л=0} Р{(0), X)c=(Jn Vn{T)} = \ для всех Т>0. '" 2) Для всех п функция хп(ф) обладает следующими свойствами. Для любого феО, Г>0 можно указать такое е>0. что тя(0,ф) =хп(8^) при sup |ф(£)~ y(t)\ ^е для всех t^T\ если фт е D0(IP") и фт -> ф в D, то начиная с нек-рого тп 3) Для всякой точки s стохастич. разрыва Х() и для всех фе!)0(1Рп) почти наверное lim Р{5^тя(ф)<5 + Ли5} = 0. При выполнении условий 1)-3) существует криволинейный интеграл J0ra,(e,x, dt) вдоль любого ^-измеримого процесса X(t), принадлежащего D. Как функция верхнего предела этот интеграл является предсказуемым непрерывным справа ступенчатым процессом (см. [1]). Поле ft+h с а,(ф, h)=\t \Yf(s, 8_,ф, y)b(dy*ds), где функция f(s, ф, у) обладает теми же свойствами, что и c(s, ф, у), а &(dyxds) - точечная мера на (У, В?+), имеющая на Ух [0, t] конечное число атомов для каждого t, удовлетворяет перечисленным в этом пункте условиям и fQat(9tX, dt)=fQlYf(s, X(-), yMdyxds). Лит.: [1] Гихман И. И., Скороход А. В., Стохастические дифференциальные уравнения и их приложения, К., 1982; [2] Вата- набэ С, Икэда Н., Стохастические дифференциальные уравнения и диффузионные процессы, пер. с англ., М., 1986. с. Я. Махно. СТОХАСТИЧЕСКИЙ ИНТЕГРАЛ кратный (multiple stochastic integral) - см. Кратный винеровский интеграл. СТОХАСТИЧЕСКИЙ ИНТЕГРАЛ криволинейный (stochastic line integral) - см. Стохастический интеграл вдоль линии в случайном поле. СТОХАСТИЧЕСКИЙ ИНТЕГРАЛ; оценки распределения (distribution estimators for a stochastic integral): для rf-мерного Ито процесса с условиями |о5| + |Ь5|^/С, infX*o5o54^vU|2(v>0), w,s и для любых измеримых функций fit, х), O^t^T, xe№d, и д(х),хе№ справедливы оценки Крылова: Ef0g(X,)ds<N[g\hi9), (1) ЕllfU, Xs)ds<N\\flLd^(lO, r]xRrf), N = N(v, d,K,T)>0, (2)
(J. где CJ)- область в lf?d\ х- \nf(t>Q:Xte 2). Из оценки (2) следует существование при почти всех t > О плотности распределения pit, у) процесса Xt, удовлетворяющей оценке Llop{t>y) dydt) ^ Справедливы более общие оценки для процессов с вырождением диффузии и убиванием (см. [1]), а также аналогичные оценки для процессов со скачками (см. [2]). Оценки вида (1), (2) в терминах уравнений с частными производными эквивалентны оценкам А. Д. Александрова (см. [3]). Лит.: [1] Крылов Н. В., Управляемые процессы диффузионного типа, М., 1977; [2] Анулова С, Прагараускас Г., «Литов. матем. сб.», 1977, т. 17, Н> 2, с. 5-26; [3] Крылов Н. В., Нелинейные эллиптические и параболические уравнения второго порядка, М., 1985. А. Ю. Веретенников. СТОХАСТИЧЕСКИЙ ИНТЕГРАЛ по локальному мартингалу (stochastic integral with respect to local martingale) - случайный процессу определяемый следующим образом. При фиксированном стохастич. базисе (Q, ..«/; | A = (^t)t>Q, Р) стохастическим интегралом H-Mt = \H(s)dMs от предсказуемой фу нкции Я = (H(t))t^Q по локальному мартингалу М = (Mt)t^Q называется случайный процесс Н-М = (H-Mt)t^Q> являющийся локальным мартингалом, определяемый различными способами зависимости от свойств Я иМ. а) Если М имеет траектории локально интегрируемой вариации и Ej0~ItfG0kvar(M)5<oo, то HMt совпадает с интегралом Лебега - Стилтьеса J H(s)dMs. При этом Н-М - равномерно интегрируемый мартингал с траекториями интегрируемой вариации и Esud |tf-M,|^Evar {H-M)00^EJ~ \H(s)\dvMM)s. Это же определение остается верным для случая, когда возрастающий процесс ]'0 |tf(s)|dvar(M)/) является локально интегрируемым. При этом Н-М - локальный мартингал с траекториями локально интегрируемой вариации. б) Если М - локально квадратично интегрируемый мартингал, (Л/> - его квадратич. характеристика и Я - простая функция: "w=Vioi<<)+X,v,(,^i<<>- где 0<£j <t2, ..., X,- - ^-измеримые случайные величины такие, что Ej~ H2(s)d(M)s <оо, то НМ - равномерно квадратично интегрируемый мартингал с (ряд в правой части равенства сходится в среднеквадратич. смысле). Если Я - предсказуемая функция и Ej~tf2(s)rf<M>5<oo, то можно указать последовательность простых функций Я", п ^ 1, такую, что (С E\~{Hn{s))2d(M)s<oo, n>\y Iim еГ(Ж5)-Я"(5))2<*<Л/>5 = 0, и определить случайную величину п зависящую лишь от Я и не зависящую от аппроксимирующей последовательности Я", я^ 1. Тогда Си. H-M = (HMt)t>0 определяется как равномерно квадратично интегрируемый мартингал с ЯЛ/^ = Е((ЯЛ/)00|^). Так определенный С. и. обладает следующим свойством: lim E sup (Я-Mt - HnMt) = 0, в силу к-poro устанавливается, что для любого марковского момента Г ЯД/7 = (ЯЛ/)7, где X - обозначение для процесса (XtAT)t>Q. Последнее свойство позволяет определить Си. Я-Л/, когда возрастающий процесс (j'0H4s)d(M)s)t>o является лишь локально интегрируемым. В этом случае Н-М - локально квадратично интегрируемый мартингал с квадратич. характеристикой {Н-М\ = \[н2Ш(М)$у t>0. в) Если М - локально квадратично интегрируемый мартингал с траекториями локально интегрируемой вариации и Я - предсказуемая функция такая, что возрастающий процесс {\[ H2(s)d(M)s + f' \H(s)\dvar(M)s) \J0 JO Jt^0 является локально интегрируемым, то Си., определенные в а) и 6), совпадают. г) Если М - локально квадратично интегрируемый мартингал, [Л/, М] - его квадратич. вариация, Я - предсказуемая функция и / \1/2 Е\)Н2Ш[М, М]Л <оо, то можно указать последовательность Я", я^1, предсказуемых функций таких, что EJ~(Hn(s))2d(M)s<oo, п>\, У2 YimE^(His)-Hn(s))2d[M, M]s) =0. При каждом п^\ Си. Нп-М определен и является равномерно квадратично интегрируемым мартингалом и значит существует Нп-М0О= lim HnMt. Последовательность случайных величин Я^Л/^, п^\, сходится в среднем к случайной величине (Я-Л/)^, зависящей от Я и не зависящей от аппроксимирующей последовательности Я", п^\. Под Си. Н-М понимается равномерно интегрируемый мартингал с Я-Л/( = Е((Я-М)00|1*4). Так определенный Си. обладает следующим свойством: lim E sup \H-Mt-Hn-Mt\=0, СТОХАСТИЧЕСКИЙ 693
в силу к-рого устанавливается, что НМ - (Н-М) для любого марковского момента Т. Это свойство позволяет определить С. и. Н-М, когда возрастающий процесс [(j'oH4sHM,M]sf)^ является локально интегрируемым. В этом случае Н-М - локальный мартингал. д) Если М - локальный мартингал с траекториями локально интегрируемой вариации, [Л/, М] - его квадратич. вариация и Я - предсказуемая функция такая, что Ф' Ш[М, М] ,Г- то можно указать последовательность Н", и^1, предсказуемых функций такую, что Е\о \Hn(s)\d\3ird(M)s<oot п>\, \im£(^(H(s)'Hn(s))2dlM} M]s) =0. При каждом и^1 Си. НпМ определен и является равномерно интегрируемым мартингалом и, значит, существует Я"Л/00= lim Hn-Mt. Конструкция Си. НМ в этом случае t -¥°о такая же, как и в случае г). е) Если М - локальный мартингал, то имеет место разложение М = Л/1 + М2, где М1 - локальный мартингал с траекториями локально интегрируемой вариации, М - локально квадратично интегрируемый мартингал. Си. Н-М определяется в этом случае для предсказуемых функций Я таких, что возрастающий процесс ((foH4sMM,M]sf)^ является локально интегрируемым, следующим образом: Н-М-Н-М f Н-М . Такое определение основано на двух фактах: 1) при указанном свойстве Н возрастающие процессы f H2(s)d[Mi, МЧЛ I ,1 = 1,2, U tzo являются локально интегрируемыми; 2) процесс Н-М не зависит от вида разложения Л/ = М1 + М2, то есть при другом разложении М = МХ + М2 имеет место равенство ЯЛ/1 +НМ2 = Н-М* + Н-М2. ж) Если М - локальный мартингал, то имеет место разложение М = Мс + М , где Мс - локально квадратично интегрируемый мартингал с непрерывными траекториями, М - чисто разрывный локальный мартингал. С. и. Н-М определяется в этом случае для предсказуемых функций Я таких, что возрастающий процесс (Д' HHsMM, M]S]V2 j ^ является локально интегрируемым, следующим образом: HM = H-Mc + HMd; при этом Н-М можно определить как чисто разрывный локальный мартингал такой, что A(HMa)t = H(t)AMt, t>0, где AXf = Xt-\imXs. 1 l stt 694 СТОХАСТИЧЕСКИЙ Данное определение и определение из е) приводят к одному и тому же С и. Локальный мартингал Н-М называется С и, от предсказуемой функции Я по локальному мартингалу М, обладает следующими свойствами: 1)Я-МГ=(М)Г, 2) A(HM)t = H(t)AMt, 3) в случае локально квадратично интегрируемых мартингалов М и Н-М (н-м\ = \[н2Ш(м\, t>o, 4) в разложении Н-М = (НМ)С+(НМ)1 непрерывная (Н-М)с и чисто разрывная (НМ) составляющие определяются следующим образом: (НМ)С = НМС, (H-M)d = H-Md, 5) если М, N - локальные мартингалы, для к-рых определены С. и. НМ и H-N, то Н-М + НЫ = Н-(М + Ю, 6) [Н-М, HM]t = jtQH2(s)d[M, M]v t>0. Лит.: [1] I to К., «Proc. Imp. Acad. Tokyo», 1944, v. 20, p. 519-24 [2] Дуб Дж.Л., Вероятностные процессы, пер. с англ., М., 1956; [3] Meyer P.-A., «Lect. Notes in Math.», 1967, № 39, p. 72-162 [4] Courrege Ph., «С. г. Acad. sci>, 1963, t. 256, p. 867-70; [5] Kunita H., Watanabe S., «Nagoya Math. J.», 1967, v 30, p. 209-45; [6) Jacod J., «Lect. Notes in Math.», 1979, № 714 [7] Гихмаи И. И., Скороход А. В., Стохастические дифферен циальные уравнения и их приложения, К., 1982; [8] Л ипцер Р. Ш., Ширяев А. Н., Теория мартингалов, М., 1986; [9| Жакод Ж., Ширяев А. Н., Предельные теоремы для случайных процессов, пер. с англ., М., 1994. Р. Ш. Лющер. СТОХАСТИЧЕСКИЙ ИНТЕГРАЛ по мартингалу!stochastic integral with respect to martingale) - см. Мартингал. СТОХАСТИЧЕСКИЙ ИНТЕГРАЛ по мартингальной мере (stochastic integral with respect to martingale measure) - случайный процесс, определяемый следующим образом. Пусть (Я, .с/, / = L<ft)t^Q, P) - стохастич. базис, .У>=./(^ ) - предсказуемая о-алгебра в О. х IR+, &(№+) - борелевская а-алгебра в IP+, (Е, #) - лузинское пространство (борелевское подмножество Е компактного метрич. пространства с борелевской а-алгеброн £), О. = О. х IR х Е, д*- ^®# и задана целочисленная случайная мера (1 = (1 (со; dt, dx) на (IR+x£, tf(IR+)®#) со свойством Е J_„ ц(со; dt, dx)<oot Й"е:?, я>1, и ЙпТЙ. У такой меры (I существует компенсатор v~v(co; dt, dx) - предсказуемая случайная мера на (IR+x£, afl(IR+)®#). Случайную меру (i- v = (fi- v)(co; dt, dx) называют мартингальной мерой. Стохастическим интегралом U*(\i-v) от ^имеримой функции U= U((u; t, x) по мартингальной мере (i-v называется случайный процесс U*(\i-v) = (U*(\i-v)t)t>0, являющийся чисто разрывным локальным мартингалом. В предположении, что \Е |с7(со, t, *)|v(co; W, dx) <<*>, чисто разрывный локальный мартингал U*(\i-v) конструируется по своим скачкам A(t7*(u.-v))t = J£U(oM, .г)(ц-у)(со; {t), dx), если возрастающий процесс (Хо<s<S^^*^ " у^)2)г>о яв~ ляется локально интегрируемым. Последнее условие имеет
место, если G(U) = (Gt(U))t^0 - возрастающий процесс с (символ со опускается ради простоты записи) JO J£ 1_|{/(5,^)_{/(5)| l+|(/(s)| где ^(^)-J£ ^(s, *) v({s), dx). Наряду с G(U) рассматриваются возрастающие процессы G'"<w = (G;«/))t>0, +Xo<,^ |U(s)|4l-v({*},£)), локальная интегрируемость к-рых влечет за собой локальную интегрируемость G(U). Чисто разрывный локальный мартингал U*(\i- v) обладает следующими свойствами: 1) [U* (ц - v)f (/• (ц - v)]. = f* \ Wis, х) - - 0«)2ц«* </*) + £0<f< f (У2 (,Х1 - Ц({5}, £)), 2) для любого марковского момента Т (Lr*(n-v))r«L7|0i71»(n-v), 3) если G (СО - локально интегрируемый процесс, локальный мартингал (/*(ц-v) имеет траектории локально интегрируемой вариации, 4) если G (СО - локально интегрируемый процесс, то C/*(|i-v) - локально квадратично интегрируемый мартингал с квадратич. характеристикой (£/*(u-v))=G (СО. У/шп.:[1] Jacod J., «Lect. Notes in Math.», 1979, № 714; [2} Кабанов Ю.М., Липцер Р.Ш., Ширяев А. Н., «Матем. сб.», 1978, т. 107, с 364-415; [3] Липцер Р. Ш., Ширяев А. Н., Теория мартингалов, М., 1986; [4] Ж а код Ж., Ширяев А. Н., Предельные теоремы для случайных процессов, пер. с англ., М., 1994. Р. Ш. Липцер. СТОХАСТИЧЕСКИЙ ИНТЕГРАЛ по семи мартингалу (stochastic integral with respect to semimartingale) - см. Семимартингал. СТОХАСТИЧЕСКИЙ ИНТЕГРАЛ по случайной мере (stochastic integral with respect to random measure) - интеграл от неслучайной измеримой функции fix) на измеримом пространстве (X, &) по случайной мере ц с ортогональными значениями, определяемый следующим образом. Пусть F(A), Д е :*в,- структурная мера ц, a L (dF) - гильбертово пространство интегрируемых с квадратом по мере F функций на X. Си. по случайной мере определяется сначала для простой функции из L (dF) с помощью равенства |х/гЫц(с/д:) = Х,с*ци,); ряд в правой части сходится в среднем квадратическом (см. [1]). Для любой функции из L2(dF) существует последовательность простых функций f„(x) из L2(dF) такая, что jxlf(x)-fn(x)]2F(dx)-+0 при я->оо. Тогда существует и не зависит от выбора {fn(x)\ среднеквадратич. предел последовательности случайных величин xfn(x)\i(dx). По определению, \х f(x)\i(dx) = l.i.m. jx fn(x)\i(dx). Кроме обычных свойств аддитивности и линейности, определенный таким образом С. и. обладает еще следующим свойством: Ejx f,(x)\i(dx)\x f2(x)\i(dx) = \х f](x)f2(x)F(dx). Интегрирование случайной функции fix) по случайной мере ц требует специальных предположений относительно f(x) и д; конструкция С. и. при этом существенно усложняется (см. [1]. [2]). Лит.: [1] Розанов Ю. А., Теория вероятностей, случайные процессы и математическая статистика, М., 1985; [2] Гихман И. И., Скороход А. В., Стохастические дифференциальные уравнения и их приложения, К., 1982; [3] Рrotter Ph., Stochastic integration and differential equations, B. etc, 1990; [4] Nuallart D., Mal- liavin P., Ca!cul and related topics, B. etc, 1995; [5J Mai- 1 i a v i n P., Stochastic Analysis, B. etc, 1997. M. И. Ядренко. СТОХАСТИЧЕСКИЙ ИНПГРАЛ расширенный (extended stochastic integral) - см. Расширенный стохастический интеграл. аОХАСТИЧЕСКИЙ ИНТЕГРАЛ симметрический (symmetric stochastic integral) - см. Стратонооича стохастический интеграл. аОХАСТИЧЕСКИЙ ИНТЕГРАЛ Стратоновича - см. Стратоновича стохастический интеграл. аОХАСТИЧЕСКИЙ ИНТЕРВАЛ (stochastic interval) - интервал одного из видов: 1<т, т! = {(со, t): Г& 0, о(со) < t <т(со)>, 1<т, т1 = {(со, 0:^0, о(а))^<т(ш)}, ]о, т] = {(ш, t):t^0, о(а))<^т(ш)}, Jo, т! - {(a), t)\t> О, о(ш) < t < т(ш)}, где о = о(со) и т = т(ш) - два марковских момента, определенных на измеримом пространстве (П, .</) с выделенным на нем неубывающим семейством £ = С</)^>0 под-о-алгебр ,JtQ Л. Лит.: [1] Деллашери К., Емкости и случайные процессы, пер. с франц., М., 1975. Л, Н. Ширяев. аОХАСТИЧЕСКИЙ ЛИНЕЙНЫЙ РЕГУЛЯТОР (stochastic linear controller) - понятие, описываемое процессом управления U=(Ut)t^Q с Ut = L(t)Xt в задаче управления векторным диффузионным процессом X = (Xt)t^Q с дифференциалом Ито dXt - (a(t)Xt + cU)Ut)dt + b(t)dwt относительно векторного винеровского процесса w= (w^t^o- При функционале качества (• - знак транспонирования) VT(U) = е(х'ИХт + JQr (x*H(t)Xt + U*R(t)Ut)dt\ h^O, ЖО^О, R(t)>0, оптимальный коэффициент усиления L°U) С. л. р. задается формулой L°(t)=-R-\t)c*(t)P(t), где P{t) - решение матричного уравнения Риккати -^=а*а)я(о+яамо+я(о- -P(t)c(t)R-\t)c*U)P(t), P(T) = h. СТОХАСТИЧЕСКИЙ 695
Лит.: [1] Med itch J. S., Stochastic optimal linear estimation and control, N.Y., 1970; [2] Красовский H. Н., Лидский Э., «Автоматика и телемеханика», 1961, т. 22, № 11, с. 1425-31. Р. Ш. Липцер. СТОХАСТИЧЕСКИЙ ПОТОК диффеоморфизмов (stochastic flow of diffeomorphisms), порожденный стохастическим дифференциальным уравнением,- семейство отображений X(t, •) гладкого многообразия Ж в гладкое многообразие Л, обладающее свойствами: а) для любых xe.fl X(t, x) - решение исходного стохастического дифференциального уравнения; б) для любых t X(t, •) - диффеоморфизм .К в! (почти наверное). Б. Л. Розовский. СТОХАСТИЧЕСКИЙ ПРОЦЕСС (stochastic process) - см. Случайный процесс, Стохастическая последовательность. СТОХАСТИЧЕСКОЕ ДИНАМИЧЕСКОЕ ПРОГРАММИРОВАНИЕ (stochastic dynamic programming) - метод решения задач стохастического оптимального управления путем последовательного, поэтапного принятия решений (выбора управляющих параметров). Основную идею метода С. д. п. составляет принцип оптимальности Беллмана (см. [1]), согласно к-рому на каждом шаге оптимально поступать так, как если бы этот шаг был завершающим, а целевой функционал равнялся своему оптимуму по всем возможным последующим управлениям. Типичная задача я-шагового С. д. п. может быть сформулирована в терминах условных математич. ожиданий (см. [7]); другой, операторный (общий) подход развит в [6]. Пусть даны вероятностное пространство Ш, со/, Р), поток а-алгебр j^ £ ^ £ ... £ ^п_{ £^ = ^ измеримое пространство А управлений (решений), измеримый наОхЛ" функционал Ф(со, ах, ..., ап), для простоты ограниченный. Здесь at интерпретируется как управление, выбираемое на шаге t, a .^-i - как информация в момент выбора at. Через а, обозначено произвольное ^_j-измеримое отображение С1 в А. Требуется максимизировать по всем отображениям at, ..., ап величину Е[Ф(со, aj(a)), ..., ап(со))|**/0]. Обозначим sup Ё[Ф|^] = wt((u). В предположении, что взятие супремума не нарушает измеримости, функция wt .^-измерима; тогда принцип оптимальности выражается уравнением оптимальности a^Cco^sup Е[^(а))К<4_!], t- 1, ..., п, (*) и утверждением, что если функции а*, ..., а„ доставляют супремум в (*), то иу0(со) = Е[Ф(0), а*, ..., а*п)|^)]. Постановка задачи и принцип оптимальности с нек-рыми дополнениями обобщаются на бесконечношаговые схемы и схемы с ограничениями на выбор функций at; в специальных случаях метод переносится и на случай непрерывно меняющегося t. Исторически название 4С. д. п.» закрепилось за более узким кругом задач, в к-рых поток {^} порождается управляемым случайным процессом с дискретным временем, чаще всего марковским, а функционал Ф аддитивно зависит от этого процесса. См. также Управляемая цепь Маркова. Лит.: [\] Беллман Р., Динамическое программирование, пер. с англ., М., I960; [2] Ховард Р.-А., Динамическое программирование и марковские процессы, пер. с англ., М., 1964; [3] Дынкин Е. Б., Юшкевич А. А., Управляемые марковские процессы и их приложения, М., 1975; [4] Флеминг У., Ришел Р., Оптимальное управ- 696 СТОХАСТИЧЕСКОЕ ление детерминированными и стохастическими системами, пер. с англ., М., 1978; [5] Bertsekas D. P., Dynamic programming and stochastic control, N. Y., 1976; [6] Бертсекас Д., Шрив С, Стохастическое оптимальное управление, пер. с англ., М., 1985; [7] Whittle P., Optimization over time, v. 1-2, N. Y., 1983. А. А. Юшкевич. СТОХАСТИЧЕСКОЕ ДИФФЕРЕНЦИАЛЬНОЕ УРАВНЕНИЕ (stochastic differential equation, SDE) - уравнение для выборочных функций случайных процессов, использующее стохастические дифференциалы и стохастические интегралы. Простейшие С. д. у. используют стохастич. дифференциалы по винеровскому процессу. Пусть X(t) - случайный процесс в фазовом пространстве (l?m, определенный для t бП?+ на вероятностном пространстве {Q, .«/, Р}, «.</, - а-алгебра, порожденная X(s),s^t, (^)^o ~ поток. Предполагается, что существуют измеримые функции a(t, х) из [K)+x[R)m в IRm и &(t, х) из IP+ x!Rm в L(IPm), а также винеровский процесс w(t) в 1РШ, согласованный с (^), такие, что при t0<t Х(0-Х(и)=\*a(s, X(s))ds+\ m(s, X(s))dw(s). (1) JtQ JtQ Тогда говорят, что процесс X(t) удовлетворяет стохастическому дифференциальному уравнению dX(t) = a(t, X(t))dt + $(t, X(t))dw(t). (2) Обычно считают заданными винеровский процесс w(t) и функции a(t, x) и &(t, x); изучаются условия, при к-рых существует решение уравнения (2), когда такое решение единственно при заданном начальном условии. Теорема 1. Пусть функции a(t, x) и 33(t, x) измеримы и удовлетворяют локальному условию Липшица: для каждого с>0 существует такая постоянная 1С, что при \х\ ^с, \y\^ctt*kc \a(t, x)-a(t, y)\ + \\Mt, x)-m(t, y)\\^lc\x-y\. Тогда решение уравнения (2) с начальным условием Х(0) = Х0, где Х0 не зависит от w(t), единственно с точностью до стохастич. эквивалентности, то есть каждые два решения стохастически эквивалентны между собой. Если выполнено условие линейной ограниченности: \a(t, х)\ + ||з0(£, *).|| <k(\ + \х\) при нек-ром k, то для любого Х(0)-Х0, не зависящего от w(t), существует решение X(t) уравнения (2), удовлетворяющее условиям: a) X(t) непрерывна почти наверное; б) для keZ+ существуют такие постоянные ck>0 и afe >0, что E(|x(OlfeU(0)|)^VV(H-U(0)|)fe; в) обозначим через Xt x(i), t0e№+, хе^т, решение уравнения (2) на промежутке [t0, °°), удовлетворяющее начальному условию X(t0)=x, тогда X(t) = Xt x(tn)(0 при 0^t{)<t; г) X(t) есть марковская случайная функция с вероятностью перехода p(tQt x> t> В)жР{х^и)^В): д) если дополнительно a(t, x) и &(t, x) непрерывны по t, то X(t) является диффузионным процессом, a(tf x) - его коэффициент переноса, а &(t, x)&*(t, x) - оператор диффузии. Замечание. Решение, существование к-рого гарантирует теорема 1, является измеримым относительно потока Ц(Х0, w), порожденного Х0 и процессом w(t). Такое решение называется сильным. Если оператор &(t, x) не вырождается, то всякое сильное решение единственно. В условиях теоремы 1 решение уравнения (2) можно получить методом последовательных приближений, полагая х0(О = х0, Xn(t)=Xn + \la(s, Xn_x(s))ds + | +jl®(s, Xn^(s))dw(s), n>\.
Эти последовательные приближения сходятся в среднем квадратичном к решению (2) с начальным условием Х(0) = Х0. Если a(t> x) и ;ti(ty х) непрерывны, то решение можно искать, заменяя дифференциальное уравнение конечноразностным: путь Xh(0 = Xh(kh), kh^t<(k+\)h,Xh(0) = Xo, X,l«k + 1 )Л) = Xh(kh) + a(khy Xh(kh))h + + a(kht Xh(kh))[w((k+\)h)-w(kh)], k^O, (3) тогда при h->0 X (kh) сходится в среднем квадратичном к X(t) (см. также Стохастическое дифференциальное уравнение; конечноразностная аппроксимация решений). Решения уравнения (2), не являющиеся, вообще говоря, сильными, называются слабыми (точнее - это такие решения, для к-рых вопрос о измеримости не обсуждается). Следует отметить, что если существует решение (2), к-рое не является сильным, то существует и бесконечное число подо- бнык решений. Решение (2) называется слабо единственным, если два любых решения Xt(0 и Х2(0 имеют одинаковые распределения. Теорема 2. Пусть функции a(t> x) n&(t, x) непрерывны но совокупности переменных, det JBU, х) *0, тогда решение уравнения (2) слабо единственно; если выполнено условие линейной ограниченности, то решение (2) существует и оно удовлетворяет условиям а), б), г), д) теоремы 1. Под решением (2) при рассмотрении слабых решений естественно понимать меру, соответствующую решению. Такую меру в условиях теоремы 2 можно получить как слабый предел мер цА, отвечающих процессам X (О, построенным по формулам (3). См. также Стохастическое дифференциальное уравнение; сильное решение, Стохастическое дифференциальное уравнение; сильная единственность решений, Стохастическое дифференциальное уравнение; слабое решение, Стохастическое дифференциальное уравнение; слабая единственность решений. Среди вопросов, относящихся к уравнениям типа (2), рассматривается характер зависимости решения от параметра, если от этого параметра зависят коэффициенты уравнения и начальное условие. В частности, изучается зависимость решения от начальных данных. Теорема 3. Пусть функции я(6, t, х), jfl(8, t, x), Be [8t, 82], удовлетворяют условиям: 1) существует такая постоянная k, что ке, *, *)1 + Ые, t,x)Hk(\ + \x\h 2) для всех с>0 существует такое /с>0, что при \х\ ^/с, \y\^tc,t<c |d(9, t, x)-a(Q, t, г/)| + |#(9, t, х)-.Ш, t, y)\\ ^lc\x-y\; 3) существуют производные ■J- д(е, t, x), ^- же, t, »), <(e, t, x)t ^;(e, t, *), до до являющиеся локально ограниченными функциями по t, x. Пусть Хе(0 - решение С. д. у. dXe(0 = a(e, t, Xe(t))</t + 4(e, t, XQU))dw(t) (4) с начальным значением Хе(0), для к-рого существует средне квадратичная производная — Х9(0). Тогда существует произ- л Эв водная —- Х9(0 в смысле сходимости по вероятности, она удовлетворяет линейному стохастич. интегральному уравнению A v (O = ^-Xe(0)+f a'(e,s,XAs))ds + эе и эе и Jo e '» +J' ^(е, s, XQ(s))dw(s) + J* a;(e, s, XQ(s))^~XQ(s)ds + +JJJ #;(e, s, xe(s))[Axe(s), <ы*)| (5) ([-, •] - билинейная форма со значениями в IRm). Замечание. Уравнение (5) для — Хе(0 есть линейное об уравнение со случайными коэффициентами, более общее, чем уравнение (2). Уравнение (5) можно получить, переписав (4) в интегральной форме, подобной (1), а затем формально продифференцировав его по 8. Если продифференцировать (5) еще раз формально по 8 и потребовать существования локальной ограниченности по s, x всех тех производных от Х0(О), я(8, s, х), .39(8, s, x)t к-рые при этом появятся, то —- Х9(0 в смысле сходимости по вероятности существует и удовлетворяет полученному уравнению. Этот процесс дифференцирования можно продолжать, пока существуют нужные производные и они локально ограничены. Общее линейное уравнение в IR™ со случайными коэффициентами имеет вид dY(t)=A(t)Y(t)dt + Mt)YU)dw(t), (6) где A(t) и ЗВ(0 - случайные процессы с фазовым пространством L(IRm), согласованные с потоком С<4), относительно к-рого w(t) есть винеровский процесс. Ищется (^-согласованный (Рт-значный процесс Y(t), удовлетворяющий (6) и .^-измеримому начальному условию У(0) = У0. Пусть t t Z(t) = JQ A(s)ds + JQ B(s)dw(s), относительно A(s) и B(s) предполагается, что интегралы существуют. Тогда решение (6) может быть записано с помощью кратных стохастич. интегралов: Y(t) = YQ + £ dZ(s)YQ + Ц dZ(s{)dZ(s2)YQ+... 0<si<s2<t + I...] dZ(si)...dZ(sn)Y0+... 0<sx<...<sn<t Непосредственным обобщением уравнения (2) являются уравнения диффузионного типа. Пусть Cr (IR™) - пространство непрерывных (Рт-значных функций на П?+ с топологией локально равномерной сходимости и а-алгеброй С борелев- ских множеств. Обозначим через CtczC а-алгебру, порожденную множествами {х(-) :x(s) е В), s^t, ВеЗВ^т. Функция fit, x()), измеримая относительно Л^ ®С, называется не- упреждающей, если для всех t>0 она Соизмерима. Рассмотрим уравнение для непрерывного процесса Х(0 со значениями в IRm: dX(t) = a(t, X())dt + &(t, X('X)dwU), (7) где a(t, x()) и 39(t, x(-)) - неупреждающие функции со значениями вИ?ии L(IRm). Решение (7) ищется при заданном начальном значении Х(0)=Хо, не зависящем от w(t). Теорема 4. Пусть a(t, x()) и £(t, x()) удовлетворяют условию: для всех с>0 существует такое /с>0, что 1) для всех *(•), у(-)еС$+Шт), для к-рых ||*()||с^с, ||г/(-)||с^с, будет И-, *(.»-*<-, у(-»|с + + |В(.,х(-))-В(.|У(.))|с<И.)-у(-)|с, здесь ||/"lc = sup ll^l; СТОХАСТИЧЕСКОЕ 697
2) |e(., x(.))|c+ ЦЖ-, х(.))|с</с(И')| + j> для всех jcCOeC^ (H?m). Тогда уравнение (7) имеет, и притом единственное, решение. Замечание. Это решение будет сильным. Если вместо условия 1) потребовать непрерывность коэффициентов по совокупности переменных и оставить условие 2), то можно доказать существование решения. Для уравнения вида (7) можно получить оценки моментов, а также рассмотреть уравнения (7), зависящие от параметра, и установить аналог теоремы 3. Другие обобщения уравнения (2) связаны с добавлением новых стохастич. дифференциалов, связанных со стохастич. интегралами по случайным мерам; такие уравнения позволяют получать траектории разрывных случайных процессов. Рассмотрим нек-рое вспомогательное измеримое пространство (U, У). На пространстве (#+х[/, £9R ®9/) рассмотрим две независимые пуассоновские меры pjidtxdu), i=l, 2, для к-рых E/?;№xdw) = mz(d£xdw), где mt - меры на 38^ ®<#, ?Wj([0, t] x U)<<*> для всех t>0, т{ - о-конечная мера, 4i = Pi~mv Пусть/",(£, х, и), t=l,2,- измеримые функции из IR+xlRmx U в IRm. Отыскивается процесс X(t) в IRm, не имеющий разрывов 2-го рода и непрерывный справа, для к-рого выполнено при tx < t2 соотношение: X(t2)-Xtix) = \t2a(s, X(s))ds + + £2.«(s, X(s))dw(s)+jtt2juft(st X(s), u) + q{(dsxdu) + + jtt2juf2(^ X(s), u)p2(dsxdu), (8) функции a(t, x) и &(t, x) такие же, как в уравнении (2), винеровский процесс w{t) в ^ не зависит от мер pif г = 1, 2. Соотношение (8) в дифференциальной форме имеет вид dX(t) = a(t, X(t))dt + iS(t, X(t))dw(t) + +jvf\^ X^> u)qx(dt^du)+jvf2(t, X(t), u)p2(dtxdu). (9) Решение (9) ищется при заданном начальном условии Х(0), оно должно быть таким, чтобы о-алгебры ,</f, порожденные X(s), s^tt не зависели от w(s)-w(t) при s>t и Meppj, p2 на [t,°o)xU. Теорема 5. Пусть выполнены условия: 1) для всякого с > О существует такое /с > 0, что при \х\ ^ с, \a(t, x)-a(t, y)\ + \a(t, x)-9Ht, //)|| + + (Jy |/,(t, *. «)-/,(*, у, и)\2,щШ))П<lc\x-y\; 2) f2(t, x, и) непрерывно по мере m2(du) относительно t, xy тогда решение уравнения (9) при заданном Х(0) единственно; 3) если, кроме того, при нек-ром k > О для всех х \a(t, х)\ + \m{t, х)\\ +[\и \fx(tt х, u)\2m{du)J\k(\ + |*|), то решение уравнения (9) существует. Это решение является марковской случайной функцией, вероятность перехода к-рой определяется равенством P(tQt х, tyB) = P{XtoiX(t)eB), где XtXt) есть решение уравнения (9) на [£0, <*>) с начальным условием Xt (tQ) = х, 698 СТОХАСТИЧЕСКОЕ Замечания. Решение в условиях теоремы 5 будет сильным, то есть X(t) измеримо относительно о-алгебры .</,, порожденной w(s), s^t, и значениями мер рг на [0, t\*U. В том случае, когда f2 = 0, решение можно построить методом последовательных приближений. Обозначим правую часть (8) через F(X(-), tv t2) и положим Х0(О = Х(0), X„(^) = X(0) + F(X„_i(-), 0, t). Тогда Xn{t) при n -> ~ сходится к решению Х(0 уравнения (9) (при f2-0). Если f2*0, то решение можно построить следующим образом. Обозначим через X(tQt х, t) решение уравнения (9) при /2 = 0 на [tQ, <*>) с начальным условием X(t0, x, t0)=x. Процесс р2([0, t] х U) является пуассоновским процессом с параметром w2([0, t]*U). Пусть т1<х2<... - все моменты скачков этого процесса. Тогда Х(О = Х(0, Х(0), t),t<xv Х(т,) = *(0, X(0), xx)+f2(xv Х(0, Х(0), хх)щ\ .... Х(0 = Х(т*, Х(т*), О, xk^t<xk+u Х(хы) = Х(хк, Х(хк), W + /2<W Х(Ч> X(xk), тж), иж), где м1т м2, ... - такие случайные точки из С/, что Точно так же, как для уравнения (2), можно рассмотреть слабые решения уравнения (9). Теорема 6. Пусть выполнены условия: а) функции a(s, x), j9(s, x) измеримы, локально ограничены и непрерывны по х; б) для всех s lim \ \f\(s, х, u)-f2(s, у, u)\2mx(du) = 0t в) выполнены условия 2) и 3) теоремы 5. Тогда уравнение (9) имеет решение при заданном Х(0). Приведем теперь условия слабой единственности решения уравнения (9). Введены меры на ^»«: nk(t, х, B) = mk({u:fk(t, x, u)eB}), Вб^«>, n(t,x,B) = j\y-x\2(\ + \y-x\2V] {nx(t,x,dy) + n2(t,xtdy)). Теорема 7. Пусть выполнены условия: а) a(t, x) и 3B(t, x) и #Tl(t, x) непрерывны; б) выполнено условие 3) теоремы 5; в) существуют такие меры n^{dz) и n2(dz) на IRm, что n{Ut xt •)««,(•) и \ 1г|2п1(£/г) + п2(11?,и)<вв| ~ локально ограниченная функция; г) для всех Г > 0, г > О loL\*rTUt>x>A-x)dtdx абсолютно непрерывен как функция А относительно меры Лебега. Тогда решение уравнения (9) при заданном Х(0) существует и слабо единственно; это решение является марковской случайной функцией, вероятность перехода к-рой определяется так же, как в теореме 5. Замечание. Пусть коэффициенты уравнения (9) не зависят от t. Тогда соответствующая вероятность перехода будет однородной. Если Tff— отвечающая однородному марковскому процессу с этой вероятностью перехода полугруппа, то ее производящий оператор А определен на всех дважды непре-
рывно дифференцируемых функциях, заданных на (!?'" ра- венст вом Л<р(*) = (а(х), <р'(*)) + j tr.tf(*)j0*(*)(p"Cr) + + J [(pGr+^U, ы))-ф(*)-(ф'(.х), fi + (x, u))]m^du) + + ) [y(x + f2(x, u))-y(x)]m2(du). Такие марковские процессы носят название локально безгранично делимых. Уравнение (9) допускает обобщение, когда коэффициенты уравнения являются неупрежда- ющими функциями. В этом случае рассматривается пространство DR (И?т) - пространство функций x(t) :В?+ ->Л?"\ не имеющих разрывов 2-го рода, непрерывных справа. В пространстве £>,р (Rm) можно ввести топологию, порождаемую /-сходимостью xn(t)-kx(t), если существует такая последовательность строго возрастающих функций Xn(t) :П?+ ->И?+, ^„(0) = 0, что |А.я(г) - t\ + \xn(t) -xn(k(t))\ ->0 локально равномерно. Пусть D - а-алгебра борелевских множеств в DR (fl?m), D(sD - а-алгебра, порожденная множествами {*(•) :x(s) е В), s^t, BsdB^m. В уравнение (9) можно подставить коэффициенты вида a(t, x()), .*?(£, x()), f{(t, x(), и). Условия существования сильного и слабого решений можно получать, комбинируя условия теорем 5, 6, 7. Наиболее общее С. д. у. получается, если рассматривать стохастич. интегралы по непрерывным мартингалам, мартин- гальпым мерам и неотрицательным согласованным мерам. При этом коэффициенты уравнения могут сами зависеть от случая. Пусть {Q, *»/, ,с/с, Р} - вероятностное пространство с фильтрацией (.с/г). Через М и У обозначим а-алгебры вполне измеримых и предсказуемых множеств в П?+ х О.. Пусть заданы: 1) непрерывный процесс ограниченной вариации a(t, со) в И?™, согласованный (а следовательно, ;У-измеримый); 2) непрерывный (I? т-значный мартингал р(£, со) с операторной характеристикой .#(0 [это ^-измеримый возрастающий процесс вШт)1; 3) числовая мартингальная мера с ортогональными значениями y(t, В) на Л?+х U, g(t, В), ее квадратич. характеристика предполагается непрерывной по t\ 4) конечная точечная мера 8(C) на R+ x U такая, что 5([0, t] х С) - .^-согласованный процесс, непрерывный справа, целочисленный и имеющий скачки, равные 1; g(t, В) и 5([0, г] х С) не имеют скачков одновременно; 5) a(t, со, х) -^® Л^т - измеримая функция из II?+ x CIx В?т в Г; 6) A(t, со, х) - &®&^т - 5-измеримая функция из РЪхПхП?"1 вШ™); 7) ф(£, со, х} и) и у(£, со, х, и) - S® .Я^т ® U- измеримые функции из [R,+ xQxll?",x^вlR,",; 8) '^-измеримая И? ^-значная функция Z(t). Ищется .^-измеримая функция Х(0, к-рая удовлетворяет соотношению XU>=Z(0 + Jo a(s, со, X(s))da(s, w)+fQA(st со, X(s))dp(s) + +jtQjq>(s,(u,X(s)>u)y(dsxdu)+jtQ y(s,(u,X(s),u)b(dsxdu). (10) Обозначим p(0= \a\(t) + trB(t, со) + J <p(u)g(t, du), гдеф>0 - такая функция, что pit) конечно. Тогда - это непрерывный возрастающий процесс. Положим rfp(s) Теорема8. Пусть выполнены условия: 1) Z(t) локально ограничено, 2) для всех с>0 существует ^-измеримая возрастающая функция Xr(t) такая, что при Ы ^ г, \у\ ^г \a(tt (0,x)-a(t, CO, y)\2+\\B(t, <utx)-Jb(tt СО, г/)||2 + + J |ф(^, со, х, ы)-ф(£, со, у, u)\2G(t, du)^Xr(t)\x-y\2. Тогда локально ограниченное ^-измеримое решение (10) единственно. Если, кроме того, выполнено следующее условие: 3) существует .^измеримая возрастающая функция x(t) такая, что |fl(£, со, x)\2+\\B(t, со, *)||2 + + J \ф, со, ху u)\2G(t, du)^x(t)(\ + \х\2)} то локально ограниченное ^-измеримое решение (10) существует. Лит.: [lj Гихман И.И., Скороход А. В., Стохастические дифференциальные уравнения и их приложения, К., 1982; [21 Friedman A., Stochastic differential equations and applications, v. 1-2, N.Y.- [a.o.l, 1975-76; [31 St roock D. W., Varadh a n S. R. S., Multidimensional diffusion processes, B. - [a.o.], 1979; [41 IkedaN., WatanabeS., Stochastic differential equations and diffusion processes, Amst. - [a. o.), 1981. А. В. Скороход. СТОХАСТИЧЕСКОЕ ДИФФЕРЕНЦИАЛЬНОЕ УРАВНЕНИЕ; абсолютная непрерывность мер, соответствующая решениям С. д. у. (stochastic differential equation; absolute continuity of measures corresponding to solutions). Пусть на [0, T]x№d заданы функции a{(t, x), a2(t, x), a(t, х) со значениями соответственно в II? , (1? , L(R? , H?rf). И пусть \iif i = 1, 2,- мера в пространстве С([О, Г], И? ) (непрерывных функций, заданных на [О, Т] и принимающих значения в II? ), соответствующая решению стохастического дифференциального уравнения dXiiO^atit, Xiti))dt + o(tt X{(t))dw(t), ts[0} T], с начальным условием Xt(0) = Xt , где w(t) - d-мерный вине- ровский процесс, а случайный вектор Х{ не зависит от вине- ровского процесса w(-). Мера (!• для борелевских множеств Л с С([0, Г], B?rf) определяется формулой д,(Л) = Р{Х,() е Л}. При нек-рых условиях меры ц^ и |i2 эквивалентны между собой, причем ^-Ы)) = рЫ0))ехр{/?гЫ))}, где р(х), х е II? ,~ плотность распределения Р{Х2 е dx) относительно распределения Р{Х: edx} (они предполагаются эквивалентными), а функционал RT(x()) определяется формулой /М*('))=/[(Ь"Чг, x(t))la2ti, x(t))-a^t, xU))], dxU)) + + \ fQ[(b-{ + U, xU))axU, xU)), a{U, x(t))) - -(b~\tt x(t))a2(t, x(t))} a2(t, x(t)))]dt. Здесь b~ - оператор, обратный оператору Ь = ас*. Первый из интегралов в правой части определяется следующим образом. Относительно меры щ процесс x(t) можно записать в виде jc(O=J0* fl,(s, x(s))ds + T)(t), где r\(t) - квадратично интегрируемый мартингал в И? с характеристикой (л)* =L b(s> x(s))ds. Поэтому указанный интеграл следует понимать как сумму двух интегралов: обычного j0(b-\t, x(t))[a2(t, x(t))-a^t} x(t))], ax(tt x(t)))dt, СТОХАСТИЧЕСКОЕ 699
и стохастического jlib^it, x(t))[a2(t, x(t))-a{(t, x(t))]dr\U)) по квадратически интегрируемому мартингалу r\(t) (заметим, что вектор я (0) по мере щ распределен так же, как вектор Xj ). Лит.: [1] ГихманИ. И., Скороход А. В., Стохастические дифференциальные уравнения и их приложения, К., 1982; [2] Справочник по теории вероятностей и математической статистике, 2 изд., М., 1985. Н. И. Портенко. СТОХАСТИЧЕСКОЕ ДИФФЕРЕНЦИАЛЬНОЕ УРАВНЕНИЕ в произвольных полях (stochastic differential equation in arbitraty fields) - стохастическое дифференциальное уравнение вида dX(t)=At(X, dt), (1) где At(<p, h) - случайное поле. Возможно выделить класс случайных полей, для к-рых уравнению (1) можно придать строгий смысл. Пусть (Q, Л, dt, Р), t^O,- стохастич. базис; Dr(IRw) - пространство (Ря-значных функций, определенных на (-оо, Т], без разрывов 2-го рода, непрерывных справа, а в точке Т - слева; D(IR") - пространство (Р"-значных функций, определенных на (-°°, °°), без разрывов 2-го рода, непрерывных справа. Для функций cpeDflR") определяем оператор в^: (в,ф)(*) : Полагаем <p(t + s), 5<0, ф(£-0), 5 = 0. о ф||=5ир|ф(5)|,||ф||2 = |_оо|ф(5)|2Ш5), 5<0 где К() - нек-рая конечная мера, определенная на борелев- ских множествах полупрямой (-<*>, 0], K((-oot 0]) <°°. Пусть at(q>, /г) = й(ф, t + h)-a(q>, t), рДф, /г) = р(ф, £ + /г)-р(ср, О, у,(ср, Л)=у(ф, t + h)-y(<p, t) определены на Qx|R+ xD0(IR") x [0, /г0], принимают значения из №", измеримы относительно произведения борелевских а-алгебр, вполне измеримы при фиксированной cpeD0(IRn) и при фиксированной ф а(ср, О - непрерывное поле ограниченной вариации, (3(ср, t) - локально квадратически интегрируемый мартингал относительно потока Mt, у(ср, t) - предсказуемое ступенчатое случайное поле, не имеющее фиксированных разрывов. Кроме того, пусть существуют стохастич. криволинейные интегралы f0at(etY, dt), Jorp((e,y, dt), jT0yt(etY, dt) вдоль любого .^-измеримого процесса Y(t), принадлежащего Dr(m. По определению, Jora((6(y, dt) = f0at(etY, dt) + f0Vt(etY, dt) + f0yT(etY, dt). Рассмотрим уравнение (1) со случайным полем At(<p, h) = = at(Qt<p, h). Под решением уравнения dX(t) = at(QtX, dt), (2) удовлетворяющим «начальному условию» X(t) = XQ(t), t^O, X0(t) g D0(IR") (почти наверное), понимают случайный ^-измеримый процесс X(t) такой, что почти наверное X(t)=X0(t), t^O, Х(О=Х(0) + ^а5(еД, ds), t^O. 700 СТОХАСТИЧЕСКОЕ Пусть введены условия: 1) существует непрерывная возрастающая предсказуемая функция х(0 такая, что для всех cpeD0(IR") справедливы неравенства \at(q>,h)\^[x(t + h)-x(t)](\ + \\q>\\), 11|в,<Ф, V, А)1Н<[ха + А)-хШ](1 + |ф|2)| где Bt(<p, у, h) - взаимная характеристика мартингалов (ЗДср, h), р((у, h), III-III - операторная норма; 2) для всякого R>0 существует возрастающая непрерывная предсказуемая функция XR(t) такая, что для ф, у е D0(IR") при ||ф|| ^R, || у || ^/?, t + h^R справедливы неравенства |д((ф, h)-at(y, h)\^[XR(t + h)-XRU)]\\q>-y\\, |||Я,(Ф, у, А)-В,(ф| ф, h)\\\<[XR(t + h)-XR(t)]\\q>-\v\\2; 3) существует предсказуемая функция \i(t) такая, что для всех cpeD0(IR"), t>0 и любого разбиения 0 = t0< tx <... < tn = t выполняется неравенство ljZ,t(ettq>,Att)<|l('>. где Z(cp, t) - число скачков процесса Z(cp, t) на интервале [О, t]. Если выполнены условия 1)-3) и ||Х0||<оо, то уравнение (2) имеет единственное решение (см. [1]). Рассмотрим уравнение (2) в предположении, что at(<p, h) - ct+h = 1 й(ф, s)ds, y-0. Для существования и единственности решения в условиях 1), 2) |ф|| можно заменить на ЦсрЦ^ (см. [2]). Лит,: [\] ГихманИ. И., Скороход А. В., Стохастически»^ дифференциальные уравнения и их приложения, К., 1982; [2] их же, Теория случайных процессов, т. 3, М., 1975. С. Я. Махно. СТОХАСТИЧЕСКОЕ ДИФФЕРЕНЦИАЛЬНОЕ УРАВНЕНИЕ в форме Стратоновича, симметрическое стохастическое дифференциальное уравнение (stochastic differential equation in the Stratonovich form),- стохастическое дифференциальное уравнение нида dXt = b(Xs)odZs, X0 = x, (1) где знак О перед dZs использован для обозначения Стратоновича стохастического интеграла, b= ||fy || - матрица, состоящая из функций b{je C2(IR"), i = 1, ..., n, j= 1, ..., d, Z = (z\ Z , ..., Z ) - rf-мерный непрерывный семимартингал (рассматриваемый на нек-ром стохастическом базисе), * е IR". Решением уравнения (1) называется случайный процесс (семимартингал) Х=(Х\ X2, ..., X"), для к-poro почти наверное Xt = x + \^ b{Xs)odZs, t&0, или в развернутом виде X't = х>+Х?=, Jo V *»>odZ!,t*0,i~i п. (2) Уравнение (2) эквивалентно С. д. у. Ито (3) В частности, вопрос о существовании и единственности решения уравнения (1) сводится к этому вопросу для уравнения (3). Достаточно, напр., чтобы Ьц имели ограниченные производные 1-го и 2-го порядков. Если для нек-poro/ процесс Z1 является процессом ограниченной вариации (напр., Z\ = t), то для соответствующих коэффициентов fy, достаточно требовать существования непрерывных ограниченных производных лишь 1-го порядка.
Так как стохастич. интеграл Стратоновича обладает свойствами, аналогичными свойствам обыкновенных интегралов, то и С. д. у. в форме Стратоновича обладает свойствами, аналогичными свойствам обыкновенных дифференциальных уравнений (для к-рых управляющие семимартингалы Z1 являются процессами ограниченной вариации). Поэтому С. д. у. в форме Стратоновича удобно использовать в задачах, в к-рых уже по самой постановке вопроса одновременно рассматриваются обыкновенные и стохастич. дифференциальные уравнения или, в более общем случае, стохастич. дифференциальные уравнения с управляющими семимартингалами, имеющими, возможно, разные мартингальные части (напр., аппроксимация стохастич. дифференциальных уравнений, предельные теоремы для обыкновенных дифференциальных уравнений со случайной правой частью, стохастич. геометрия, стохастич. вариационное исчисление, стохастич. механика). С. д. у. в форме Стратоновича часто используется в качестве хорошей адекватной модели физич. систем с реальным шумом, имеющим малое время корреляции и близким белому шуму (см., напр., [3]). Рассматривают также уравнения dXt = b(Xt_)odZt с разрывными семимартингалами Z. Лит.: [1] СтратоновичР. Л., «Вестник Моск. ун-та. Сер. матем., мех.», 1964, т. 1, с. 3-12; [2] Ватанабэ С, Икэда Н., Стохастические дифференциальные уравнения и диффузионные процессы, пер. с англ., М., 1986; [3] ХорстхемкеВ., ЛефеврР., Индуцированные шумом переходы, пер. с англ., М., 1987. В. Мацкявичюс. СТОХАСТИЧЕСКОЕ ДИФФЕРЕНЦИАЛЬНОЕ УРАВНЕНИЕ в форме Стратоновича; устойчивость по отношению к возмущен и я м (stochastic differential equation in the Stratonovich form; stability with respect to perturbations) - свойство решения стохастического дифференциального уравнения dXt = b(Xt)odZt,X0 = x> (*) характеризующее его непрерывную зависимость по отношению к так наз. симметрическим равномерным аппроксимациям управляющего непрерывного семимартингала Z = (Z ,Z , ..., Zr). Здесь Ь~ |Ьу| - матрица из «достаточно хороших» функций b{j: №"->!?, t= 1, ..., ntj= 1, ..., d, .re IP". Семейство d-мерных непрерывных семимартингалов {Z , 8>0} называется равномерной аппроксимацией семимартингала Z на интервале врем ен и / = [О, Г) (Г^+°°), если sup |z?-Z,|->0, 8->0, в нек-ром смысле (почти наверное, по вероятности или в Lp). Такая аппроксимация называется симметрической (для данного уравнения), если решения X , 8>0, «аппроксимирующих» уравнений dXt - b(Xt) о dZf , t е /, Xq =x, сходятся к X в соответствующем смысле. В одномерном случае (d = 1) для уравнения dXt = a(t, Xt)dt + b(t, Xt)odZt, t^O, X0 = x, любая равномерная аппроксимация является симметрической. Впервые это было показано в 1965 Э. Уонгом (Е. Wong) и М. Закаи (М. Zakai) в случае винеровского процесса. Одновременно была отмечена неустойчивость решения С. д. у. в форме Ито. Поэтому вопросы устойчивости подобного типа рассматриваются, как правило, для С. д. у. в форме Стратоновича. В многомерном случае (d>\) аналогичное свойство (симметричность любой равномерной аппроксимации) имеет место лишь при условии полной интегрируемости (Фробениуса) для коэффициентов уравнения (*). В общем случае (при нек-рых технич. ограничениях) равномерная аппроксимация [Z = (Z , Z , ..., Z ), 8>0} семимартингала Z является симметрической, если, напр., Z5'oZ5y-Z'oZy->0, 8->0, ff/=l, .... d. Здесь XoYt=\ XsodYs - Стратоновича стохастический интеграл. Важным примером симметрич. аппроксимации является аппроксимация типа свертки: Z? = Z*q>t=jttSZs<p\t-s)ds> t>0, где { cpeL2[0, 1], J^fcWs-lVto-S'V'S"1), te[0, 8]. Следует отметить важный класс, вообще говоря, несимметрич. аппроксимаций, для к-рых ' ^oZ^-Z'o^-^, 8->0, f,/=l, .... d, где Ajj - процессы ограниченной вариации. Для таких аппроксимаций решения X аппроксимирующих уравнений сходятся к решению С. д. у. в форме Стратоновича, к-рое отличается от (*) «поправками», явно выражающимися через интегралы по процессам А^. Пример несимметрич. аппроксимации: Z =Z + (Z-Z) , 8>0, где Z- фиксированный семи- мартингал, {(Z-Z) , 8>0}- симметрич. аппроксимация семимартингала Z-Z. В этом случае процессы А; = ((Z;, Z1)- - (ZJ, Z*))/2, вообще говоря, не равны 0. Другие примеры см., напр., в [1]. Лит.: II] Ватанабэ С, Икэда Н., Стохастические дифференциальные уравнения и диффузионные процессы, пер. с англ., М., 1986; [21 Мацкявичюс В., «Литов. матем. сб.», 1985, т. 25, № 4, с. 72-84; [3] Pi card J., «Probab. Th. Rel. Fields», 1989, v. 81, № 3, p. 383-452. в. Мацкявичюс. СТОХАСТИЧЕСКОЕ ДИФФЕРЕНЦИАЛЬНОЕ УРАВНЕНИЕ; дифференцируемость по параметру (stochastic differential equation; differentiability with respect to parameter) - дифференцируемость по параметру а решения стохастического дифференциального уравнения dXa(t) = aa(t, Xa(t))dt + Ba(t, Xa(t))dw(t) + + \Qfa(t, Xa(t),Q)n(dQxdt) + +Je0a(^ Xa(ti> e)vwex</*), xa(e) = xa. (*) В уравнении (*) w(t) - w-мерный винеровский процесс, \l(d$*dt) - центрированная пуассоновская мера на 6х[Р+, для к-рой Eu2(d8 х dt) = m^ddydt, m^(dd) - a-конечная мера на С, v(dQxdt) - пуассоновская мера с независимыми значениями, для к-рой Ev(dQxdt) = m2(d$)dtt m2(dQ) - конечная мера на С, (0, С) - нек-рое измеримое пространство. Винеровский процесс w(t), центрированная пуассоновская мера ц и пуассоновская мера v независимы между собой. Параметр a принадлежит нек-рому одномерному интервалу [а, Ь]. Измеримые функции aa(t, x), Ba(t, x) при каждом а определены на fP+x|Rn и принимают значения из IR" и L(H?m, IR") (пространство линейных операторов из IRW в fP"), соответственно измеримые функции fa(t, х, 8) и ga(t, x, 8) при каждом a определены на IP+x|Rnx0 и принимают значения из IR". Под производной dXa(t)/da понимают случайный процесс, к к-рому сходится по вероятности (Xa+h(t) -Xa(t))/h при /г->0. Производная dXa(t)/da определена тогда и только тогда, когда существует указанный предел. СТОХАСТИЧЕСКОЕ 701
Пусть введены следующие условия: 1) для каждого г>0 существует локально ограниченная функция kr(a), для к-рой при t^r выполнено неравенство \aa(t,x)\2 + \\Ba(t, x)f+jQ \fa(t, х,В)\2т^)^кг(а)(\ + |*|2), где II - В - операторная норма; 2) существуют производные г) г) г) г) — aa(t, х), — Ba(t, х), — aa(t, х), — Ba(t, x), являющиеся локально ограниченными по совокупности переменных функциями, принимающими значения в IR", MIR"1, IR"), 1(И?Я, И?"), 1(П?Я, I(H?W, В?")) соответственно; 3) существуют производные £ /■„<*, х, в), £ да«, х, в), £ /"„(г, х, в), £ *„(*, х, в), принимающие значения в П?я, И?", МИ?", И?"), Шп, П?я) соответственно, причем локально ограничена по a, t, x функция |£/.<*.*.» + 4) для г>0 lim sup sup Л—в (£,#)- а-ш |дг|«г |-v-y|<5 III Ъх 5->0 ^г т. W0); -£*<*.,> Ч1^а*'в)-^а*'в)1 wtwe) + +Jq arc tg IA sa(t, x, Q)—Lg-(tt y, 0)|| m2(rfG)J = 0; 5) случайная величина Xa дифференцируема по a. Если выполнены условия 1) - 5), то для всех t>0 существует производная dXa(t)/da = Ya(t) и она является решением следующего линейного уравнения (см. [1]): y«(t) = ya(0) + jj ±aa(s,Xa(s))ds + +££Ba(,,Xa(,)W«<s) + +JoJe £/"„<*. *«<*>. в*«ех</,) + +f' f -|- <7a (s, xa (s), e) vwe x d$) + +Jo' j-aa(s,Xa(s))Ya(s)ds + +Jo ["^ B«(X' Хо>(х))Уа(х)] <Ms) + +JoJe ^ ^U Xa (s)' е)У°(s)|x(de * ds) + +Jo Je £ *■(S' X«(s)' e)y»(s)vWe * rf5X j7«m.:[ll Гихман И.И., Скороход А. В., Стохастические дифференциальные уравнения и их приложения, К., 1982. С. Я. Махно. СТОХАСТИЧЕСКОЕ ДИФФЕРЕНЦИАЛЬНОЕ УРАВНЕНИЕ; закон повторного логари фма (law of the iterated logarithm for a stochastic differential equation): если Xt - решение одномерного стохастического дифференциального уравнения dXt = o(Xt)dwt + b(Xt)dt, Х0 = Х, 702 СТОХАСТИЧЕСКОЕ с ограниченными а, Ь и аеСХП?1), то справедлив закон повторного логарифма: P^lim J*'"*0' =|q(X0)l 1^° ^2Мп1п# = 1. Аналогичное равенство имеет место для процессов Ито с непрерывной диффузией и ограниченным сносом. Лит.: [1] Маккин Г., Стохастические интегралы, пер. с англ., М., 1972. а. Ю. Веретенников. СТОХАСТИЧЕСКОЕ ДИФФЕРЕНЦИАЛЬНОЕ УРАВНЕНИЕ; интегро-дифференциальный оператор (stochastic differential equation; integro-differential operator) - оператор L для уравнения dXt = a(t, Xt)dt + B(t, X.)dwt+j d f(t, Xt , u)(ii(u(dt, du)- -v(,)(f, du)dt) + j d h(t, Xt , u)\La\dt, du) [a(t, i)-(nxl)-мерная, B(t, x)-(n*т)-мерная функции на H?+x[R", fit, x, и), k(t, x, и)- («х 1)-мерные функции на [R)+xfP"x[R)rf, ш-(тх 1)-мерный винеровский процесс, р/'\ i=l, 2,- пуассоновские меры на Л(П?+) x.»(|Rrf) с непересекающимися носителями, E\i (dt, du) = v (t, du)dt], определяемый формулой Lv(t, x) = ~v(t, x) + (vl(t, x), a(t,x)) + dt + trv?x Bit, x)B*(t, x)/2 + j d [v(t, x + f(t, x, u))-v(t, x)- -(v;(t,x),f(t,x, u))]v(U(t,du) + + J rf [v(t, x + h(t, x, u))-v(t, .t)]v(2)(£, du), где функция v имеет две непрерывные производные по х и одну по t, * - знак транспонирования. При выполнении нек-рых условий интегрируемости коэффициентов уравнения (*) для его решения X выполняется равенство Ev(t, Xt) = ЕКО, Х0) + Е j'Q Lv(s, Xs)ds. Лит.: [1] Гихман И. И., Скороход А. В., Стохастические дифференциальные уравнения и их приложения, К., 1982. Л. И. Гальчук. СТОХАСТИЧЕСКОЕ ДИФФЕРЕНЦИАЛЬНОЕ УРАВНЕНИЕ, использующее понятие расширенного стохастического интеграла (stochastic differential equation with extended stochastic integral),- стохастическое дифференциальное уравнение вида х=дох)+лх + ф, где X, фе#=1 (ОхИ?+), Л- оператор в Н, Q - оператор, действующий из Н в L (Qx|R+). Расширенный интеграл (в смысле Хицуды ~ Скорохода или Огавы) на функцию переменных (a), s, t) действует по переменным (о), s). Ю. М. Кабанов. СТОХАСТИЧЕСКОЕ ДИФФЕРЕНЦИАЛЬНОЕ УРАВНЕНИЕ квантовое (quantum stochastic differential equation) - см. Квантовое стохастическое исчисление. СТОХАСТИЧЕСКОЕ ДИФФЕРЕНЦИАЛЬНОЕ УРАВНЕНИЕ; конечноразностная аппроксимация (finite difference approximation to a stochastic differential (equation) - основанная на дискретизации времени аппроксимация решения стохастического дифференциального уравнения случайной последовательностью или случайным процессом. Простейшей конечноразностной аппроксимацией является аппроксимация Маруямы (см. [1J), являющаяся стохастич. ва-
tion) - см. Лиувилля стохастическое дифференциальное уравнение. СТОХАСТИЧЕСКОЕ ДИФФЕРЕНЦИАЛЬНОЕ УРАВНЕНИЕ; локальные теоремы существования решения (lokal existence theorems for a stochastic differential equation) - теоремы о существовании решения С. д. у. до момента выхода его из нек-рой области или до момента взрыва. Такие теоремы имеют место тогда, когда условия существования (напр., ограниченности коэффициентов) выполнены лишь локально и процесс может взорваться за конечное время (см. Стохастическое дифференциальное уравнение; критерий взрыва). А. Ю. Веретенников. СТОХАСТИЧЕСКОЕ ДИФФЕРЕНЦИАЛЬНОЕ УРАВНЕНИЕ; марковские решения (Markov solutions of a stochastic differential equation): марковское свойство решения стохастического дифференциального уравнения dXt = o(Xt)dwt + b(Xt)dt, Х0 = Х, с ограниченными непрерывными коэффициентами или с измеримыми ограниченными коэффициентами и невырожденной диффузией следует из его слабой единственности (см. Стохастическое дифференциальное уравнение; слабая единственность решений). В отсутствие слабой единственности в обоих случаях из всей совокупности решений можно выбрать марковское (теорема Крылова о «селекции» марковского решения). Такое решение является квазидиффузионным процессом с квазиинфинитезимальным оператором риангом метода Эйлера аппроксимации решения обыкновенного дифференциального уравнения. Пусть дано С. д. у. dXt = a(t, Xt)dt + b(t, Xt)dwt, tz[0, T], Х0 = дг, где wt, £е[0, Г], - винеровский процесс. Пусть Д = = {Q = tQ<ti< ...<tn~T} - разбиение интервала [О, Г], |Д| = тах|£ж - ^|. Определим рекуррентно случайный процесс Xt> te[QtT\ (или случайную последовательность Xt> t&A): Х^х,Х^ = Х^ + а^-^) + Ь^-т0^), te[tif ti+ll ai = a(tit Х,>, = Ш,, Xt). Тогда для «хороших» а и b имеет место оценка Esup \xt-X?\2<c\A\ и, в частности, ХЛ->Х в среднем квадратичном при |д| -> 0. Используя Тейлора стохастическую формулу, можно получить более точные конечноразностные аппроксимации, для к-рых Esup \xt-Xf\2^c\A\k te Д при нек-ром положительном k, называемом порядком аппроксимации. Напр., конечноразностную аппроксимацию 2-го порядка можно определить равенствами Х% = х, ХЛ.+1 = Хл. + а, Д^ + b{Awt + + !б#(Да>?-Д*|-), г' = 0, 1, ..., п, Mi = ti+x-ti, &Wi = wtM-wtit b\ = b'x{tv XtX Метод конечноразностной аппроксимации обобщается на многомерный случай и С. д. у. с произвольными управляющими семимартингалами и случайными мерами. Конечноразност- ная аппроксимация удобна для реализации методом Монте-Карло на ЭВМ. Лит.: |1| Maruyama G., «Rend. Circolo mat. Palermo», 1955, v. 4, p. 48-90; [2] Гихман И. И.* Скороход А. В., Стохастические дифференциальные уравнения и их приложения, К., 1982; [31 Platen E., «Lect. Notes Cont. and Inf. ScU, 1987, v. 96, p. 187-93; [4] Gard Т. С, Introduction to stochastic differential equations, N. Y., 1988. В. Мацкявичюс. СТОХАСТИЧЕСКОЕ ДИФФЕРЕНЦИАЛЬНОЕ УРАВНЕНИЕ; критерий взрыва (explosion criterion for a stochastic differential equation), для момента £ взрыва (то есть отсутствия конечного предела при t^%) решения одномерного стохастического дифференциального уравнения dXt = o(Xt)dwt + b(Xt)dt, Х0 = Х} с a, b е С^, а * 0, справедлив критерий Феллера: Р{!; = ~}=1 тогда и только тогда, когда го уЫ-у(-оо) р у(~)-уМ d^x) где Jo 4 Jo a2(u)du) Установлен многомерный аналог (см. [2]). Лит.: [1] Feller W., «Ann. Math.», 1952, v. 55, p. 468-519; [21 Хасьми некий Р. 3., «Теория вероятн. и ее примен.», I960, т. 5, в. 2, с. 196-214; [3] Маккин Г., Стохастические интегралы, пер. с англ., М., 1972. А. Ю. Веретенников. СТОХАСТИЧЕСКОЕ ДИФФЕРЕНЦИАЛЬНОЕ УРАВНЕНИЕ Лиувилля (Liouville stochastic differential equa- Лит.: [\] Гихман И. И., Скороход А. В., Теория случайных процессов, т. 3, М., 1975; [2] Крылов Н.В., «Изв. АН СССР. Сер. матем.», 1973, т. 37, Jsfe 3, с. 691-708; [3] его же, Управляемые процессы диффузионного типа, М., 1977; [4J Stroock D.W., Varadhan S. R. S., Multidimensional diffusion processes, B. - [a. o.], 1979. А. Ю. Веретенников. СТОХАСТИЧЕСКОЕ ДИФФЕРЕНЦИАЛЬНОЕ УРАВНЕНИЕ; моменты решени я (moments of the solution of a stochastic differential equation): для моментов решения стохастического дифференциального уравнения dXt = a(t, Xt)dwt + b(t, Xt)dt, XQ = x, при условиях \\o(t, Xt)\\2<\2(t)(\ + \\Xt\\2c[0, t]), \b{t} Xt)\ *ШО(1 + \Xt\c[Q, t]), t>0, и при xN = \nHt^0'.X(t) >N) справедливы неравенства (г=1, 2,...): E\xtAzJ2r^C(N2+\x\2r + N2\x\2r)exp(CN2t),C>0. Лит.: [lj Гихман И. И., Скороход А. В., Теория случайных процессов, т. 3, М., 1975. А. Ю. Веретенников. СТОХАСТИЧЕСКОЕ ДИФФЕРЕНЦИАЛЬНОЕ УРАВНЕНИЕ на конечном пространственном интервале (stochastic differential equation on a bounded space interval) - см. Стохастическое дифференциальное уравнение с границами. СТОХАСТИЧЕСКОЕ ДИФФЕРЕНЦИАЛЬНОЕ УРАВНЕНИЕ Навье - Стокса (Navier - Stokes stochastic differential equation) - см. Навье - Стокса стохастическое дифференциальное уравнение. СТОХАСТИЧЕСКОЕ ДИФФЕРЕНЦИАЛЬНОЕ УРАВНЕНИЕ обратное (reverse stochastic differential equation) - см. Обратное стохастическое дифференциальное уравнение. СТОХАСТИЧЕСКОЕ 703
СТОХАСТИЧЕСКОЕ ДИФФЕРЕНЦИАЛЬНОЕ УРАВНЕНИЕ; обращение решения (reversed solution of a stochastic differential equation) - семейство отображений (гладких многообразий Л-> У), обратных к стохастическому потоку диффеоморфизмов X(t, •), порожденному исходным стохастическим дифференциальным уравнением (на У). Если X(t, х) является решением С. д. у. dXi(t,x) = bi(t,X(t,x))dt + + ]T/af/U, X(t, x))dw{(t), t>0, xe$d, ХД0, x) = xit i=l, ..., d (w - винеровский процесс), то i-я координата обращения этого решения является решением С. д. у. с частными производными: dv(s, x) = fc~rf~Mf-Se\s, x)v(s, x)ds- ~.Hl(s, x)v(s, x)dwl(s), (s, x)e(0, T]x$d, v(0, x) = xit где $(s, ri = iy, .. gu(s, x)gAs, x) -*— + У fe.(s, *) * Jll(s,x) = \ o\,(s, x)^-. *** tl dx{ Лит.: [1] Розовский Б. Л., Эволюционные стохастические системы, М., 1983. Б. Л. Розовский. СТОХАСТИЧЕСКОЕ ДИФФЕРЕНЦИАЛЬНОЕ УРАВНЕНИЕ операторное (operator stochastic differential equation) - см. Операторное стохастическое дифференциальное уравнение. СТОХАСТИЧЕСКОЕ ДИФФЕРЕНЦИАЛЬНОЕ УРАВНЕНИЕ, порождающее обобщенный диффузионный процесс (stochastic differential equation generating generalized diffusion process),- стохастическое дифференциальное уравнение, решение к-рого представляет собой обобщенный диффузионный процесс. При этом обобщенным диффузионным процессом (однородным во времени) называется марковский процесс с вероятностью перехода P(t, х, Г) (£>0, #е1Р , Г- борелевское подмножество И? ), удовлетворяющей условиям: 1) для всякого е>0 и любой феС0(Я?с') [через С0(П? ) обозначается множество всех действительных непрерывных финитных функций, заданных на И? ] выполнено соотношение lim f , |"JL f РШ, x, dy)] q>(x)cfr = 0; 2) для нек-рого е > 0, всех 8 e И? и любой ф е С0(Р? ) существуют пределы lim f . Ц- f (y-x, Q)P(At, x, dy)] q>(x)dx, lim f , |"JL f (y- x, в)2 РШ, xt dy)] q>(x)dx. Очевидно, если выполнено условие 1) и пределы в 2) существуют при нек-ром е>0, то они существуют и при всех е > 0 и не зависят от е. Первый из этих пределов можно записать в виде (Л(ф), 8), где Л(ф) - векторный (размерности d) линейный функционал на С0(П? ), второй - в виде (Жф)6, 8), где Жф) - операторный (Жф) - оператор из И? в П^) линейный функционал на С0(И? ), причем, очевидно, Жф) - неотрицательно определенный оператор, если ф^О. Примеры обобщенных диффузионных процессов, не являющихся, вообще говоря, обычными диффузионными и представляющих собой решения соответствующих С. д. у. 704 СТОХАСТИЧЕСКОЕ A. Пусть заданы: а) функция Ь(х), лгеИ? , значениями к-рой служат линейные операторы из И?г в (1? и к-рая удовлетворяет условию Гельдера по х, а также неравенствам с1|8|2^(6(дг)8, е)^с2|е|2, справедливым для всех 6elPrf, яеП? при нек-рых положительных постоянных Cj и с2; б) функция а(х), дгеР? , со значениями в И? , удовлетворяющая условию i«ip-(JB-k*)i'rf*)v*'<- при нек-ром р > d. Тогда существует обобщенный диффузионный процесс, для к-рого Л(ф)=|^ a(x)q>(x)dx, 5(ф) = |(рс/ b(x)q>(x)dx, а вместо условия 1) определения обобщенного диффузионного процесса выполнено условие Г) sup f P(t,x,dy) = o(t) при tlO, каким бы ни было е>0. Траектории этого процесса являются решениями С. д. у. dx(t) = a(x(t))dt + bS/2(x(t))dw(t), где w(t) - rf-мерный винеровский процесс, а Ъ ' - положительный квадратный корень из оператора Ь. Б. Пусть задана функция Ь(х), #е1Р , такая же как и в А, а также достаточно гладкая замкнутая гиперповерхность 5, разделяющая И? на две части: внутреннюю и внешнюю. Обозначим через у(дг) единичный вектор внешней нормали к поверхности в точке х е S. Вектор N(x) = b(x) v (x) называется конормалью к поверхности в точке xeS. Пусть на S задана непрерывная функция q(x), удовлетворяющая условию | q (х) | < 1 при всех xeS. Существует обобщенный диффузионный процесс, для к-рого при всех ф е С0(1Р ) Л(ф) = J N(x)q(x)q>(x)do, Жф) = Ld b(x)q>(x)dx, где первый из интегралов - поверхностный интеграл. При этом, как и в А, этот процесс удовлетворяет условию Г), так что его траектории можно считать непрерывными. Более того, эти траектории являются решениями С. д. у. dx(t) = N(x(t))q(x(t))bs(x(t))dt + b]/2(x(t))dw(t), где &s(х) - обобщенная функция на И? , действие к-рой на пробную функцию сводится к интегрированию последней по поверхности S. B. Особенно просто можно задать обобщенный диффузионный процесс в том случае, когда Ь(х) = 1 (/- единичный оператор), S - {х е И? : (х, v) = 0} - гиперплоскость в И? , ортогональная единичному вектору v е И? , q(x) - непрерывная функция на 5, удовлетворяющая условию |</(л:)|<1. Полугруппа операторов в пространстве функций, соответствующая такому процессу, определяется формулой Ttq>(x) = Г°фЫ + Г dx f g(t - т, х, у) -\^~ q(y)do, где внутренний интеграл - поверхностный по переменной у, д/д\ - производная по направлению V, g(t,x,y) = Ц^ exp(-l^Ji}, Tfa(x) = hd g(t, x, y)q>(y)dy. Эта полугруппа определяет непрерывный обобщенный диффузионный процесс в И? , для к-рого Л(ф)=-у|5.б/(дг)ф(д:)б/а, В(ф) = /||1?£/ q>(x)dx,
а траектории x(t) являются решениями С. д. у. dx(t) = vq(x(t))&s(xU))dt + dwU). При d=\ имеем 5 = {0}. Полагая q(0) = c( \с\ ^ 1), можно записать полугруппу Tt в виде Ttq>(x) = -L=r e-(y-x)2l\(y)dy + V27Ct J-°° + -1= fY(H x^2t [<p(y) - <?(-y)]dy. v27tf J0 Вероятность перехода этого процесса имеет плотность (Ht, х, у) = -±= [е<У-*21* + csigny ■ e-W+l-l>2/2'). V27tf Траектории процесса удовлетворяют С. д. у. dx(t) = cb(x(t))dt + dw(t)} где 5(х) - S-функция Дирака. При с= + 1 (с=-1) этот процесс представляет собой винеровский процесс с мгновенным отражением вправо (влево) в точке х = 0. При \с\ < 1 это косое броуновское движение (см. [1]). Лит.: [11 И то К., Маккин Г., Диффузионные процессы и их траектории, пер. с англ., М., 1968; [2] Портенко Н. И., Обобщенные диффузионные процессы, К., 1982. Н.И. Портенко. СТОХАСТИЧЕСКОЕ ДИФФЕРЕНЦИАЛЬНОЕ УРАВНЕНИЕ; предельные теоремы (limit theorems for stochastic differential equation) - см. Предельные теоремы для стохастических дифференциальных уравнений. СТОХАСТИЧЕСКОЕ ДИФФЕРЕНЦИАЛЬНОЕ УРАВНЕНИЕ; разложения по малому параметру (stochastic differential equation; expansion with respect to a small parameter): для одномерного диффузионного уравнения dX(t} e) = a(t, X(tt z))dt + zb(tt X(t, z))dw(t) (ee[0, e0], Eq>0, &>(0 ~ стандартный винеровский процесс) разложение имеет вид XU, e)=Y0(O + e>VO + ...+emym(O, если функции а{х> t, x), b(t, x) имеют тит-\ производных по X, соответственно удовлетворяющих условию Липшица. Процесс У0 является решением уравнения У0(О = а(1, У0(О), процессы Yt, ..., Ym- решениями диффузионных уравнений (см. [1]). Это разложение тесно связано с асимптотикой решения параболич. уравнения с малым параметром при старшей производной (см. [2]). Имеются обобщения разложения на уравнение с малой скачкообразной добавкой (см. [3]) и на диффузионные уравнения с двумерным временем. Лит.: [II Благовещенский Ю. Н., «Теория вероятн. и ее прямей.», 1962, т. 7, в. 2, с. 135-52; [2] его же, там же, 1964, т. 9, в. 2, с. 378-82; [3J Бродский Я. С, «Теория случайных процессов», 1973, в. 1, с. 35-43. Л. И. Гальчук. СТОХАСТИЧЕСКОЕ ДИФФЕРЕНЦИАЛЬНОЕ УРАВНЕНИЕ с границами (stochastic differential equation with boundaries)- 1) С.д.у. на конечном пространственном интервале (см. [ 1 ], гл. 5). Пусть числовые функции о(х) и Ь(х) определены на (0, 1) и для любого ее (0, 1) на II? существуют числовые функции ае и Ье такие, что сужения на [е, 1 -е] функций ае и а, bz и b совпадают, и С. д. у. dXf = aKxf)dwt + b*(Xf)dt имеет единственное решение. При е -> О получают нек-рый предельный процесс X. Можно сформулировать условия на функции а и Ь, определяющие достижимость граничных точек О и 1 процессом X. Продолжить процесс после достижения граничной точки можно следующими способами: оставить его в этой точке (поглощающая граница); вернуть его в (О, 1) скачком; непрерывно вернуть его в (0, 1) либо мгновенно (мгновенно отражающая граница), либо так, чтобы он проводил в граничной точке положительное время (задерживающая граница). В[1]в терминах функций а и b определяется возможный выбор способа продолжения, для различных способов выписываются соответствующие обратные уравнения Колмогорова. 2) С. д. у. с проницаемой границей в точке 0: dXt - a (Xt)dwt + b(Xt)dt + atpt(Xt), а - число, характеризующее проницаемость границы, ср - симметричное локальное время в точке 0 семимартингала X (неизвестного). Если \а\^\, о и b измеримы и ограничены, а равномерно положительна и имеет ограниченную вариацию, то уравнение имеет единственное решение (см. [2], [3]). При а=\ (- 1) процесс полностью отражается в (0, <*>) ((-<*>, 0)), при \а\ <\ имеют место промежуточные случаи. 3) С. д. у. с отражением в IP . Пусть даны rf-мерный винеровский процесс (Q, Л> А, Р; w) и борелевские функции; HaD = {*efP :х >0} а - (dx. </)-матрица, b - rf-мерный вектор, на dD = {*e(P :х =0} у~ rf-мерный вектор, у^О и р е И?+. Р е ш е н и е м С. д. у. с отражением dXt = ID(Xt)o(Xt)dwt + ID(Xt)b(Xt)dt + IdD(Xt)y(Xt)dvt называется пара Р-почти наверное непрерывных ^-согласованных процессов X, ф со значениями в D и И?+ соответственно такая, что ф - возрастающий процесс, d<pt = IdD(Xt)dytt IdD(Xt)dt = p(Xt)d(pt и Р-почти наверное Xt = XQ + Jo ID(Xt)c(Xt)dwt + + Ц ID{XtMXt)dwt + \[ IdD(Xt)yiXt)d^ t>0. Если а и b удовлетворяют условию Липшица, у равномерно положительна, ye Cb(dD), то решение существует и единственно (см. [4]). Соответствующие слабые решения изучены в [5]. Лит.: [\] Гихман И. И., Скороход А. В., Стохастические дифференциальные уравнения, К., 1968; [2) Le Gall J. F., «Lect. Notes in Math.», 1984, № 1095, p. 51-82; [3] Веретенников А. Ю., «Теория вероятн. и ее примен.», 1981, т. 26, в. 4, с. 685-701; [4] Lions P. L., Sznitman A. S., «Communs Pure and Appl. Math.», 1984, v. 37, № 4, p. 511-37; [5] Ватанабэ С, Икэда Н., Стохастические дифференциальные уравнения и диффузионные процессы, пер. с англ., М., 1986; [6] Портенко Н.И., Обобщенные диффузионные процессы, К., 1982. СВ. Анулова. СТОХАСТИЧЕСКОЕ ДИФФЕРЕНЦИАЛЬНОЕ УРАВНЕНИЕ с отражением (stochastic differential equation with reflection) - см. Стохастическое дифференциальное уравнение с границами. СТОХАСТИЧЕСКОЕ ДИФФЕРЕНЦИАЛЬНОЕ УРАВНЕНИЕ с проницаемой границей [stochastic differential equation with a (semi-) permeable boundary] - см. Стохастическое дифференциальное уравнение с границами. СТОХАСТИЧЕСКОЕ ДИФФЕРЕНЦИАЛЬНОЕ УРАВНЕНИЕ с частными п р о и з в о д н ы м и (stochastic partial differential equation) - уравнение вида Л(«, со) = 0, где А(-, со) - интегро-дифференциальный оператор, содержащий частные производные, а со - переменная, символизирую- СТОХАСТИЧЕСКОЕ 705
щая случай. Можно выделить два основных типа таких уравнений. I. Эволюционные С. д. у. с частными производными - уравнения вида du(tt x) = $u(tt x)dt + ,du(t_, x)dM(t), (1) где <£ и ,М - интегро-дифференциальные операторы (по х), М - семимартингал в нек-ром векторном пространстве, а равенство (1) понимается в смысле стохастич. дифференциального исчисления. П. Стационарные С.д.у. с частными производными - уравнения вида где SB- оператор эллиптич. типа, а Л/ - стационарное случайное поле (как правило, многопараметрич. белый шум). К С. д. у. с частными производными приводят многие задачи из различных областей естествознания и, в частности, нек-рые важные «внутренние» проблемы теории случайных процессов и полей, напр. следующие. 1) Пусть u(t, х, s) - диффузионный процесс, являющийся решением обыкновенного С. д. у. du(t) = b(u(t))dt + o(u(t))dw(t), t>s, u(s) = x, w(t) - винеровский процесс. Тогда при естественных предположениях о коэффициентах нек-рая модификация u(tt x, s) как функция х, s (при фиксированном t) является решением следующего уравнения: -du(t, х, s) = Г=- o2(x)uxx(t, x, s) + + b(x)ux(t, x, s)^\ds + o(x)ux(t, x, s)*dw(s), s<t, (2) u(t, x, t) = x. (3) Знак * перед dw(s) означает, что стохастич. интеграл следует понимать как обратный интеграл Ито. Уравнение (2)-(3) называют обычно о б р а т н ы м уравнением диффузии. 2) Один из простейших объектов релятивистской квантовой механики - свободное (бозонное) поле. Это поле является стационарным решением уравнения т —Au(t, x)dt + dw(t, x), где Л - оператор Лапласа, w(t, •) - винеровский процесс в L2, т - нек-рая физич. постоянная (см. [1]). 3) Модели популяционной генетики с географич. структурой приводят (см. [2]) к уравнениям типа du(t, x) = aAu(t, x)dt + ^u(t, x)(\-u(t, x)) dw(tt x), обозначения те же, что и в предыдущем примере. Важными и интересными примерами С. д. у. с частными производными являются также фильтрации уравнения (для фильтрационной плотности диффузионного процесса), прямое уравнение для обращения решения диффузионного процесса, Навье - Стокса стохастическое дифференциальное уравнение и др. Так же как в теории обыкновенных С. д. у., для эволюционных С. д. у. с частными производными различают два понятия решения- сильное и слабое. Грубо говоря, под сильным решением понимают решение, построенное на заданном вероятностном пространстве, для заданного семимартингала M(t, со), а под слабым - решение, к-рое существует для каких-нибудь вероятностного пространства и семимартингала на нем. Иными словами, в последнем случае вероятностное пространство и семимартингал на нем не заданы, а подлежат определению. Важным понятием, перешедшим в С. д. у. с 706 СТОХАСТИЧЕСКОЕ частными производными из детерминистич. теории уравнении с частными производными, является понятие обобщенного решения; решение называется обобщенным, если оно удовлетворяет уравнению в смысле определенного интегрального тождества, выполняемого для всех «пробных» функций. Как и в детерминистич. теории, это понятие дает возможность изучать уравнения, не имеющие решений в классич. смысле. С наибольшей обстоятельностью в теории С. д. у. с частными производными изучены линейные уравнения (см., напр., [3]-[5]). Это связано с тем, что именно к этому классу относятся уравнения для фильтрационной плотности диффузионного процесса, обратные уравнения диффузии и другие важные уравнения, изучение к-рых и инициировало развитие теории С. д. у. с частными производными. Отправляясь от линейных эволюционных уравнений, про иллюстрируем нек-рые основные проблемы теории С. д. у. с частными производными: соотношения между обобщенными и классич. решениями, условия для существования сильных решений, эффект «вырождения» и др. Рассмотрим линейное эволюционное уравнение 2-го порядка со старшим членом в самосопряженной форме: duit, х) = [jjyei Ц;.(г, x)uXj (t, x))X( + +Sli b'M* *K^> *) + c(f, x)u(t, *)1 dt + +X/[Xti °«7ft» xKM'^ + k'iUxMt, x)]dwlU), t^T. (4) Для простоты предполагают, что w - стандартный винеров ский процесс, и считают, что коэффициенты уравнения (4) ограничены, при этом допускается их зависимость от случая (предсказуемая). Условием, гарантирующим существование сильного обобщенного решения у задачи Коши и основных краевых задач для уравнения (4), является условие суперпарабо- личности (SP): существует такая константа 8 > О, что Существование сильного классич. решения требует определенной гладкости коэффициентов. Справедливы результаты о повышении гладкости решений, аналогичные тем, к-рые имеют место в детерминистич. теории. При определенной гладкости коэффициентов и начальных условий обобщенное решение имеет гладкую модификацию, к-рая является решением в классич. смысле. Рассматривая задачу Коши для уравнения (4) при нек-рой дополнительной гладкости коэффициентов и начального условия, можно доказать существование единственного сильного обобщенного решения, требуя вместо условия SP лишь неотрицательную определенность матрицы Последнее условие называется обычно алгебраическим условием параболичности (Р). Условие Р, по-видимому, близко к необходимому для существования сильного решения из L2. Переход от уравнений с условием SP к уравнениям с условием Р создает эффект, аналогичный эффекту вырождения детерминистич, параболич. уравнения. Поэтому уравнения типа (4), удовлетворяющие условию Р, называются иногда вырожденными параболическими С. д. у. Условие SP при естественных предположениях о гладкости коэффициентов гарантирует существование у уравнений типа (4) фундаментального решения, в то время как условия Р для этого недостаточно, а требуются дополнительные условия типа условий Хермандера. Условия Р и SP обобщаются на С. д. у. с частными производными произвольных (четных) порядков, в том числе и нелинейные (см. [6]).
Если отвлечься от конкретной природы операторов ^и.йи рассматривать уравнение (1) как эволюционное стохастич. уравнение в нек-ром векторном пространстве (то есть как обыкновенное стохастич. уравнение в этом пространстве), то молено сказать, что основным для существования и единственности сильного решения является условие типа условия монотонности оператора Я?+ \/2Л . Для существования слабого решения достаточна лишь непрерывность этих операторов (см. [2]). Условия типа Р и SP являются алгебраич. условиями, гарантирующими выполнение условий монотонности и коэрцитивности для соответствующего эволюционного стохастич. уравнения. Теория разрешимости стационарных С. д. у. с частными производными в основном параллельна детерминистич. теории стационарных краевых задач. Однако в этой теории удалось получить важные и глубокие результаты (см. [4]) относительно марковского характера решений. Для эволюционного случая такого рода результаты носят пока лишь фрагментарный характер. Лит.: Ш Hida Т., Streit L., «Nagoya Math. J>, 1977, v. 68, № 12, p. 21-34; [2] Viot M., Solutions faibles d'equations aux deri- vees partielles stochastiques nonlineaires; These doct. sci. Univ. Pierre et Marie Curie, P., 1976; [3JGrigelionisB., MikuleviciusR., «Leet. Notes Contr. and Inf. Sci.», 1983, v. 49, p. 49-88; [41 Розанов Ю. А., Марковские случайные поля, М., 1981; [5] Розовский Б. Л., Эволюционные стохастические системы. Линейная теория и приложения к статистике случайных процессов, М., 1983; [6) Крылов Н. В., Розовский Б. Л., в кн.: Итоги науки и техники. Современные проблемы математики, т. 14, М., 1979, с. 71-146. Б. Л. Розовский. СТОХАСТИЧЕСКОЕ ДИФФЕРЕНЦИАЛЬНОЕ УРАВНЕНИЕ; связь с детерминированными уравнениями с частными производными (stochastic differential equation; connection with deterministic partial differential equations) - связь между решениями стохастических дифференциальных уравнений и решениями уравнений с частными производными 2-го порядка параболического и эллиптического типов. Напр., если Xsx(t) - решение С. д. у. dXsx(t)=a(t, Xsx(t))dt + o(t, Xsx(t))dw(t) с начальным условием Xsx(s) = x (здесь a(t, x) и o(t, x) соответственно [К^-значная и L([Rrf*, ГС^-значная функции на [О, во) х IP , a w(t) - (ij-мерный винеровский процесс), то при нек-рых условиях функция u(s, ^) = Е[ф(Х5Г(0+|57(^М)^1 в области (5, х)е [0, i) хИ? является решением следующей задачи Коши: — +(a(s, x), ux(s, x)) + as + - tr(a(s, x)g*(s, x)uxx(s, x))- -f(s, x), lim u(s, *) = <p(*). Указанная связь носит двусторонний характер: если коэффициенты С. д. у. удовлетворяют условиям теоремы существования и единственности решения и при этом достаточно гладки, то с помощью свойства дифференцируемости решения С. д. у. по начальным данным устанавливается, что функция u(s, x) достаточно гладка и является решением приведенной задачи Коши. Важно подчеркнуть при этом, что оператор ос* может вырождаться. Наоборот, если есть теорема существования и единственности решения указанной задачи Коши (напр., из нек-рого пространства Соболева), то отсюда можно вывести факт существования и слабой единственности решения соответствующего С. д. у. Лит.: [\] Крылов Н. В., Управляемые процессы диффузионного типа, М., 1977; [2] Справочник по теории вероятностей и математической статистике, 2 изд., М., 1985. Н. И. Портенко. I СТОХАСТИЧЕСКОЕ ДИФФЕРЕНЦИАЛЬНОЕ УРАВНЕНИЕ; сильная единственность решений (strong/pathwise uniqueness of solutions of a stochastic differential equation): решение стохастического дифференциального уравнения dXt = o(t, X)dwt + b(t, X)dtt XQ = x, сильно единственно или единственно по траекториям, если любые два решения на одном (любом) вероятностном пространстве и с одним (любым) винеровским процессом совпадают (см. Стохастическое дифференциальное уравнение; слабая единственность решений). А. Ю. Веретенников. СТОХАСТИЧЕСКОЕ ДИФФЕРЕНЦИАЛЬНОЕ УРАВНЕНИЕ; сильное решение (strong solution of a stochastic differential equation): сильным решением стохастического дифференциального уравнения dXt = o(t, Xt)dwt + b(t, Xt)dt, X0 = x, называется непрерывный ^/^-согласованный процесс Xt, для к-рого Р \xt = х + Jjj o(s, Xt)dwx + j" 6(5, Xt)ds, t>o\ = \. Для существования сильного решения достаточно интегрального условия Липшица на а и 6. При наличии (слабого) решения существование сильного решения следует из сильной единственности (см. Стохастическое дифференциальное уравнение; сильная единственность решений). Уравнение dXt = o(t, Xt)dwt + b(t, Xt)dt, XQ = x, в И? с ограниченными измеримыми а и Ь и невырожденной матрицей а имеет сильное решение, если а удовлетворяет условию Липшица по х, а при d~\- условию Гельдера с показателем а =1/2. При а<1/2 сильного решения, вообще говоря, нет. Лит.: [11 Липцер Р.Ш., Ширяев А. Н., Статистика случайных процессов, М., 1974; [2] Yamada Т., Watanabe S., «J. Math. Kyoto Univ.», 1971, v. 11, p. 155-67; [3) Звонкий А. К., «Матем. сб.», 1974, т. 93, № 1, с. 129-49; [4] Веретенников А. Ю., «Матем. с6>, 1980, т. 111, № 3, с. 434-52; [51 Клеп- цына М.Л., «Теория вероятн. и ее примен.», 1984, т. 29, в. 2, с. 392-96; [6] Barlow M.T., «J. London Math. Soc.», 1982, v. 26, pt 2, p. 335-47; [7) Ци рельс он B.C., «Теория вероятн. и ее при- мен>, 1975, т. 20, с. 427-30. А. Ю. Веретенников. СТОХАСТИЧЕСКОЕ ДИФФЕРЕНЦИАЛЬНОЕ УРАВНЕНИЕ симметрическое (symmetric stochastic differential equation) - см. Стохастическое дифференциальное уравнение в форме Стратоновича. СТОХАСТИЧЕСКОЕ ДИФФЕРЕНЦИАЛЬНОЕ УРАВНЕНИЕ; слабая единственность решений (weak uniqueness of solution of a stochastic differential equation): решение стохастического дифференциального уравнения dXt = a(t, X)dwt + b(t, X)dt, XQ = x, слабо единственно, если единствен закон распределения решения. Если решение сильно единственно (см. Стохастическое дифференциальное уравнение; сильная единственность решений), то оно слабо единственно. Обратное неверно. Для уравнения dXt = o(t, Xt)dwt + b(t, Xt)dt, X0 = x, в И? с измеримыми ограниченными а и Ъ для слабой единственности решения достаточно невырожденности gg* и равностепенной непрерывности gg* по х, а при d = 1 - только невырожденности gg*. Проблема слабой единственности тес- СТОХАСТИЧЕСКОЕ 707
но связана с проблемой решения параболич. уравнений 2-го порядка с измеримыми коэффициентами, а также с проблемой марковских решений. Лит.: [1] Гирсанов И. В., «Тр. VI Всесоюзн. совещ. по теории вероятн. и матем. статистике», Вильнюс, 1962, с, 77-84; J2] Stroock D. W., Varadhan S. R. S., Multidimensional diffusion processes, B. - [a.o.j, 1979; [3] Krylov N. V., в сб.: Statistics and control of stochastic processes. Steklov seminar, 1984, N. Y., 1985, p. 214-29. А. Ю. Веретенников. СТОХАСТИЧЕСКОЕ ДИФФЕРЕНЦИАЛЬНОЕ УРАВНЕНИЕ; слабое решение (weak solution of a stochastic differential equation): слабым решением стохастического дифференциального уравнения dXt = b(t, X)dt + o(t, X)dwt, X0 = x, называется совокупность (Q, л/, Р, j4v wt, Xt> t^O), состоящая из вероятностного пространства (Q, .< Р), потока возрастающих а-алгебр (^), вложенных в л/, винеровского процесса wt (относительно jft) и (^-согласованного процесса Xt, для к-рого выполнено соотношение Р ixt = х + J* b(s, X)ds + J^ a(s, X)dws> t>o\ = \. Обычно для краткости слабым решением называется лишь сам процесс Xt> подразумевая при этом, что вероятностное пространство и винеровский процесс не фиксированы. Лит.: [\] Гихман И. И., Скороход А. В., Стохастические дифференциальные уравнения и их приложения, К., 1982; [21 Крылов Н. В., Управляемые процессы диффузионного типа, М., 1977; [31 Stroock D. W., Varadhan S. R. S., Multidimensional diffusion processes, B. - [a.o.], 1979; [4] Анулова СВ., Веретенников А. Ю., Крылов Н. В. [и др.], в кн.: Итоги науки и техники. Современные проблемы математики. Фундаментальные направления, т. 45. Теория вероятностей - 3, М., 1989. А. Ю. Веретенников. СТОХАСТИЧЕСКОЕ ДИФФЕРЕНЦИАЛЬНОЕ УРАВНЕНИЕ; теоремы сравнения (comparison theorems for stochastic differential equations) - теоремы о зависимости решений стохастических дифференциальных уравнений от их коэффициентов. Пусть Х\ i= 1, 2,- решения уравнений Х{Ы = х£(©) + ^ r((D,s, X'_(<d))ai4(<d) + +J g(w, s, Xi_((u))dms((u) + +\l J } Л(ш, s, u, XJ_(a>))Qi- v)(c/s, rf«) + +Jo Jfl«|>i> A'k *' "' Х1>>^№' *u) + +$'$ [*'"(<d, s, ut X;_(co)) + /'"(co, s, u, Xi_((u))]p(ds, duX где a, m - непрерывные процессы, а - возрастающий, т - локальный мартингал; (I, p - целочисленные случайные меры на 3B(IR+) x#(IR\{0}), порожденные скачками нек-рого семи- мартингала, ц (соответственно р) - скачками во вполне недостижимые (соответственно в предсказуемые) моменты, v - компенсатор меры ц; стохастич. интегралы J gdm, JJ Л(ц-v), JJ klp являются локальными мартингалами, интегралы J flda, J J Iх p - процессами локально интегрируемой вариации, J J hl\\. - процессом конечной вариации. Пусть выполняются условия, при к-рых определены все интегралы, а также o*o2>xd; 2) функции f*(s, x), (kl + ll)(s, и, х) непрерывны по (s, x), (s, и, х) соответственно и f4s,x)>fl(s,x), 708 СТОХАСТИЧЕСКОЕ (k2 + l2)(s, и, x)>(k*+llXs, и, х); 3) \g(s, x)-g(s, y)\^p(\x-y\)G(s), \h(s, u, x)-h(s, и, y)\<p(\x-y\)H(s, и), где (для простоты) р гельдеровская с показателем а> 1/2, J0 G(s)d(dm)s<oc} Jo J H2(s, uMds, du) <oo для любого V, 4) для у^х h(s, и, y)^h(s, и, x),y + h2(s, и, y)I\u\>\ >x + hl(st и,х)1\и\>{, y + h(s, u, y)I\u\^i + (k2 + l2)(s, u, y)> >x + h(s, u, x)l\u\^i + (k] +l])(s, u, x). Тогда Х2>Х] (см. [3]). Впервые теорему сравнения установил А. В. Скороход (см. [1]) для диффузионных уравнений; для уравнений Ито наиболее общий ее вид дан в [2]. В теории гауссовских процессов имеется теорема сравнения Слепяна (см. [4]). Пусть Т - сепарабельный мет- рич. компакт, X*(t), teT, i=l, 2,- сепарабельные гаус- совские процессы с ковариационными функциями Г{(£, s) = = ЕХ\0ХЪ). Пусть Г20, 0 = Г,0, О и r2(t,s)^r](t, s), t, seT. Тогда для любого действительного m P{X2(t, co)<m, teT}<P{X](t, co)<m, teT). Лит.: [1) Скороход А. В., Исследования по теории случайных процессов, К., 1961; [2] Ватанабэ С, Икэда Н., Стохастические дифференциальные уравнения и диффузионные процессы, пер. с англ., М., 1986; [3) Гальчук Л. И., «Теория вероятн. и ее примем.», 1982, т. 27, в. 3, с. 425-33; [4] Ферм и к К., в сб.: Случайные процессы, М., 1978. Л. И. Гальчук. СТОХАСТИЧЕСКОЕ ДИФФЕРЕНЦИАЛЬНОЕ УРАВНЕНИЕ; устойчивость решений (stability of solutions of a stochastic differential equation) - свойство решений стохастических дифференциальных уравнений сближаться с нек-рым выделенным решением С. д. у. при £-><*>. С. д. у. Ито в И?" dX(t) = b(t, X(t))dt + ^kr^C5r(tt X(t))dwr(t) (*) имеет тривиальное решение Х(0=0, если b(t, 0) = or(t, 0) =0. Решение уравнения (*) при начальном условии X(s) = x обозначается Xs'x(t) (предполагаются выполненными условия, гарантирующие единственность этого решения). Решение X(t)=zO уравнения (*) называется: а) устойчивым по вероятности при t>0, если для любых s ^ О, e > О Pfsup |X*"r(0|> el-> 0 при *->0; б) асимптотически устойчивым по вероятности, если оно устойчиво по вероятности и, кроме того, Р{ lim Xs'x(t) = 0\ -> 1 при х -> 0; в) устойчивым (асимптотически) в целом, если оно устойчиво по вероятности и, кроме того, lim Xs'x(t) = Q почти наверное для всех s^0, xe№n. Известны условия устойчивости в смысле этих определений в терминах Ляпунова стохастических функций. При этом в роли оператора Ляпунова - производной вдоль траектории детерминированной системы - выступает производящий дифференциальный оператор L для (*), то есть оператор
Напр., для устойчивости по вероятности решения X(t) = 0 достаточно существования положительно определенной в окрестности х = 0 функции, для к-рой LV(t, х)^0 в этой окрестности. Для исследования устойчивости линейного стохастич. уравнения, устойчивости по первому приближению и других задач полезно следующее понятие. Решение X(t)==Q уравнения (*) называется экспоненциально ^-устойчивым, если для нек-рой постоянной а>0 Е\Х*'х(0\р^А\х\р exp(-att-s)). Известны условия экспоненциальной ^-устойчивости в терминах стохастич. функций Ляпунова. Для С. д. у. доказаны теоремы об устойчивости по первому приближению (см. [1]). Лит.: [1] Хасьминский Р. 3., Устойчивость систем дифференциальных уравнений при случайных возмущениях их параметров, М., 1969; [2} Куш н ер Г.Дж., Стохастическая устойчивость и управление, пер. с англ., М., 1969. Р. 3. Хасьминский. СТОХАСТИЧЕСКОЕ ДИФФЕРЕНЦИАЛЬНОЕ УРАВНЕНИЕ; явные формулы для решений (explicit formulae for solutions of a stochastic differential equation) - формулы, выражающие решения стохастических дифференциальных уравнений через управляющие случайные процессы (семимартингалы). Напр., решение одномерного С. д. у. в форме Стратоновича dX = a(Xt)dt + b(Xt)odZtt X0 = *, задается равенством Xt = u(Dt, Zt), где u = u(tt z) - решение уравнения ^(U) = WU)), uit,Q) = t, дг a D = Dt - решение уравнения D; = exp {- JQ V(m(D,, s))ds} a(u(Dt, Xt)), D0 = x. Другим примером служит так наз. стохастич. экспонента X = e(Z) семимартингала Z, задаваемая равенством Xt = exp(Z,-Z0-|<Zc>^^(l+AZ>-*Z*, t>0, и являющаяся решением линейного С. д. у. dXt-Xt-dZt, Х0=1. Лит.: [1] Ватанабэ С, Икэда Н., Стохастические дифференциальные уравнения и диффузионные процессы, пер. с англ., М, 1986; 12] Линцер Р. Ш., Ширяев А. Н., Теория мартингалов, М., 1986. В. Мацкявичюс. СТОХАСТИЧЕСКОЕ ИНТЕГРАЛЬНОЕ УРАВНЕНИЕ по мартингалу и случайной мере (stochastic integral equation with respect to a martingale and a random measure) - уравнение вида Х,(а)) = Л^(со) + ^ «(а), s, Xs_(a))dKs(vi) + + Jo' b(co, 5, X5_(co))rfM5(co) + + J0 Г (<1 Да), 5, и, Х5_(о)))(ц-у)(а), ds, du) + + \o l\u\>\ ^(a)' 5' "' X5_(co»H(a)» ds, du), где N - заданный согласованный процесс, К - предсказуемый процесс конечной вариации, М - непрерывный локальный мартингал, ц. - целочисленная случайная мера, v - комплек- сатор меры ц. Интегралы по М и ц-v являются стохастич. интегралами, по К и ц. - интегралами Лебега - Стилтьеса. Если коэффициенты й(о), s, х), Ь(о), 5, х), /"(a), s, и, х) удовлетворяют условию типа Липшица по переменному х, то решение (сильное) существует и единственно. Этот результат справедлив и в случае, если коэффициенты зависят от «прошлого» [напр., д = д(со, s, Х(со))] предсказуемым образом. Уравнение такого вида (без случайных мер (I, v и без зависимости коэффициентов от со) было впервые рассмотрено в [1]-[2], а в [3] со случайными мерами и с коэффициентами, зависящими от со. Случай коэффициентов, зависящих от «прошлого», изучался в [4]-[5]. Слабые решения введены в [6]. Для гильберто- возначных мартингалов такие уравнения изучались в [7]. Лит.: [\] Do leans-Dade С, «Z. Wahr. und verw. Geb.», 1976, Bd 36, № 2; [2] Protter P., «Ann. Probab.», 1977, v. 5, № 2; [3) Гальчук Л. И., «Теория вероятн. и ее примен.», 1977, т. 22, в. 5; [4] Мельников А.В., «Матем. сб.», 1979, т. 110 (152), № 3(11); [51 Jacod J,, «Lect. Notes Math.», 1979, v. 714; [61 его же, там же, 1981, v. 851; [7J Metivier M., Semimartingales, B.- N.Y., 1982. л.И. Гальчук. СТОХАСТИЧЕСКОЕ ИСЧИСЛЕНИЕ (stochastic calculus), стохастический анализ,- вероятностный анализ моделей, заданных на фильтрованном вероятностном пространстве (стохастическом базисе) (Q, d> (^)^o, P). С. и. аксиоматизирует, что в основе всех рассмотрений лежит понятие стохастического базиса, характеризующегося введением на стандартном вероятностном пространстве (Qt d, P) дополнительной структуры - неубывающего потока а-алгебр (фильтрации) С^)^0, .^S^Q ^с ^ s<t, где Mt обычно интерпретируется как а-алгебра событий, наблюдаемых до момента времени t. К числу основных понятий Си. относятся такие объекты, как марковские моменты (моменты остановки), опциональные и предсказуемые а-алгебры и процессы, мартингалы и локальные мартингалы, семимартингалы и их локальные характеристики. Центральное место в С. и. занимают теория стохастического интеграла и И то формула замены переменных. Введение фильтрации как объекта, описывающего динамику развития случайного явления во времени, позволяет рассматривать различные вопросы теории случайных процессов с единой точки зрения. Осознание этого факта оказалось плодотворным как в теории случайных процессов, так и в ее многочисленных приложениях: фильтрация и управление случайными процессами, статистика случайных процессов, стохастич. аппроксимация, финансовая математика. В свою очередь, эти приложения оказали и продолжают оказывать значительное влияние на развитие С. и. Формирование основ Си. стало возможным благодаря трудам А. Н. Колмогорова по теории диффузионных марковских процессов и ее связи с теорией уравнений с частными производными, К. Ито (К. It6) по теории стохастич. интегрирования, по броуновскому движению и центрированной пуассонов- ской мере, Дж. Дуба (J. Doob) по теории мартингалов. Дальнейшее развитие С и. шло параллельно с развитием теории мартингалов, стохастич. интегрирования и стохастич. дифференциальных уравнений. Современная теория С. и. сложилась к концу 70-х гг., когда были созданы общая теория случайных процессов и единая теория стохастич. интегрирования как по непрерывным, так и по разрывным случайным процессам, охватывающая и случай дискретного времени. Лит.: [1J Анулова СВ. [и др.], Стохастическое исчисление, в кн.: Итоги науки и техники. Современные проблемы математики. Фундаментальные направления, т. 45, М., 1989; [2] Гихман И. И., Скороход А. В., Стохастические дифференциальные уравнения и их приложения, К., 1982; [3] Липцер Р. Ш., Ширяев А. Н., Теория мартингалов, М., 1986; [4] Ж а код Ж., Ширяев А. Н., Предельные теоремы для случайных процессов, пер. с англ., т. 1-2, М., 1994; [5} Jacod J., Calcul stochastique et problemes de martingales, В., 1979 (Lecture Notes in Math., v. 714). А. А. Гущин. СТОХАСТИЧЕСКОЕ ЛИНЕЙНОЕ ПАРАБОЛИЧЕСКОЕ УРАВНЕНИЕ второго порядка (stochastic linear parabolic equation of second order) - см. Линейное стохастическое параболическое уравнение второго порядка. СТОХАСТИЧЕСКОЕ 709
СТОХАСТИЧЕСКОЕ ОПТИМАЛЬНОЕ УПРАВЛЕНИЕ с дискретным временем (discrete time optimal stochastic control) - см. Управляемый случайный процесс с дискретным временем. СТОХАСТИЧЕСКОЕ РАЗЛОЖЕНИЕ оценок (stochastic expansion of estimators) - см. Асимптотическое разложение оценок. СТОХАСТИЧЕСКОЕ ЯДРО (stochastic kernel) - см. Веро ятностъ перехода, Маркова цепь. СТРАННЫЙ АТТРАКТОР (strange attractor) - инвариантное относительно динамической системы притягивающее множество со сложной структурой. С. а. может быть неоднородным, то есть содержать собственные притягивающие инвариантные подмножества. В численных экспериментах С. а. проявляется как носитель инвариантной меры ц, предельной для 8-мер, сосредоточенных на траекториях {flх), te[0, Т], где х принадлежит подмножеству положительного фазового объема. Однородности соответствует эргодичность ц. Важнейшие характеристики С. а. - размерность и показатели Ляпунова меры ц. Лит.: [1] Странные аттракторы, пер. с англ., М., 1981; [2] Итоги науки и техники. Современные проблемы математики. Фундаментальные направления, т. 2, М., 1985. М. В. Якобсон. СТРАТЕГИЯ (strategy/policy) - одно из фундаментальных понятий и один из основных терминов в исследовании операций, теории игр, теории оптимального управления и т. п. В широком смысле употребляется как синоним понятий плана, программы, последовательности действий, правила действий, правила остановки, решения, управления и т.п., преимущественно в многошаговых (динамических) процессах. Точные определения С. приводятся в контексте соответствующего раздела математич. теории. Напр., С. в теории игр - возможный в соответствии с правилами стратегич. игры способ действия игрока или коалиции действия. Важным примером использования понятия С. может служить теория управляемых марковских цепей (марковских процессов принятия решений). Для них С- последовательность вероятностных мер n„(da\h) на пространстве управлений А, зависящих от историй h = (x0, flj, х^ ап, хп), где xt - состояние управляемой марковской цепи, а, - управление, используемое в момент I. Основными вопросами, связанными с изучением С, являются: существование оптимальных и почти оптимальных С. по отношению к тому или иному критерию; необходимые и достаточные условия оптимальности в основном в терминах оптимальности уравнения (уравнения Беллмана) и функции (цены) выигрыша; построение, в том числе и численное, оптимальных и почти оптимальных С; рассмотрение различных классов С. Как правило, рассматриваются неупреждающие С., то есть не использующие в момент п информацию о поведении системы после этого момента. Наиболее часто рассматриваются следующие классы стратегий: нерандомизированные [для управляемой марковской цепи нерандомизированной называется С, для к-рой соответствующие меры Kn(da\h) при каждом п и h являются вырожденными], рандомизированные стратегии, играющие важную роль в теории игр; марковские, когда выбор управляющего воздействия зависит только от момента времени и текущего состояния и не зависит от прошлого поведения системы; стационарные, когда выбор управляющего воздействия зависит только от текущего 710 СТРАТЕГИЯ состояния системы; стационарные на том или ином множестве. Традиционно изучаются классы С, экстремум по к-рым совпадает с экстремумом по всевозможным С. Напр., в положительном динамич. программировании, то есть в задачах максимизации аддитивного неотрицательного функционала, таким свойством обладает класс стационарных С. В последнее время возрос интерес к рассмотрению и более узких классов С, обладающих теми или иными преимуществами. Важен вопрос о существовании в том или ином классе С, оптимальных (почти оптимальных) равномерно по всем начальным или даже по всем промежуточным точкам. Существование таких С. обеспечивает справедливость уравнения оптимальности для функции выигрыша, понимаемой как экстремум по рассматриваемому классу С. Большое число работ посвящено вопросам конструктивного построения С, оценке их близости к оптимальным и т, п. (см., напр., [3]). Принципиально новые классы С. изучаются в теории адаптивного управления, где оптимальность изучается для классов рассматриваемых систем. В моделях экономич. динамики большое внимание уделяется существованию С, приводящих к стационарным и эффективным в том или ином смысле траекториям (магистралям). Лит.: [1] Юшкевич А.А., Читашвили Р.Я., «Успехи ма- тем. наук», 1982, т. 37, в. 6, с. 213-42; [2] Карл и н С, Математические методы в теории игр, программировании и экономике, пер. г англ., М., 1964; [3] Federgruen A., Markovian control problems, Amst., 1983. И.М.Сопин. СТРАТЕГИЯ; полный класс (complete class of strategies) - класс стратегий (решающих функций), обладающий тем свойством, что для любой стратегии вне этого класса найдется стратегия, принадлежащая этому классу и не хуже, чем исходная (см. Игра двух лиц, Статистическая игра). А. А. Боровков. СТРАТОНОВИЧА СТОХАСТИЧЕСКИЙ ИНТЕГРАЛ (Stratonovich stochastic integral), симметрический стохастический интегра л,- интеграл J HodX от семимар- тингала Н по семимартингалу X, для к-рого верны обычные правила дифференцирования. Стохастический интеграл Стратоновича fQHs-odHs (или HoHt, или J Hs-odXs) равен, по определению, сумме jf0Hs~dX, + ±[Hc, Xе],. (1) В правой части этой суммы стоит стохастич. интеграл Ито, \ИС, X1 \-{Нс, Xе) - квадратич. ковариация (взаимная квад- ратич. характеристика) непрерывных мартингальных частей Нс, Xе семимартингалов Н и X соответственно. Для непрерывных Я и X С. с. и. равен \[Hs_odXs = \[HsodXs l.i.p. Y.Hs(xt. -*,.) = Ы->0 ■ Up. £±(Я/+Л, XX, -X,,), (2) где A-{0-t0<ti <... <tn- t) ~ произвольное разбиение интервала (0, t], l.i.p. - предел по вероятности, |д| = тах|^+1 - А-|, Sj-Uj + t^^/2 [ср. с обычным стохастич. интегралом f HsdXs, к-рый равен l.i.p. X ^t^t- ~^.)1- Иногда второй JU |Д|->0 ' м ' предел в (2) называют симметрическим стохастическим интегралом и для разрывных Н и X.
rt=EXt + Xt, где задаваемая, как правило, экзогенно характеристика Х>0 интерпретируется или как накладные расходы, или как доход фирмы в единицу времени. Предметом поиска может быть вероятность «выживания» фирмы ко времени Т, то есть величина При таком определении он равен hHs_dXs + \[H,X]t. Если/"еС3(П?"),Х,= (х/,Х,2, ..., X") - и-мерный семимар- тингал, то (формула Ито для С. с. и.) f(Xt) = № + X;=1 I Dkf(Xs_)odXks + +Xo<^, if^,)-nx,_)-^ml D„f{X,_)&Xi) и, в частности, j'0Xs-OdYs = XtYt-X0Y0- -j;^orfX,-20<i<tAX,Ay„ где AYS=YS-YS_, Dkf(x) = df(x)/dxk, то есть для С. с. и. справедливы такие же формулы дифференцирования и интегрирования по частям, как для процессов ограниченной вариации. Определение С. с. и. как первого предела в (2) в частных случаях было дано независимо Р. Л. Стратоновичем и Д. Фиском (D. Fisk). Поэтому С. с. и. иногда называют интегралом Фиска или интегралом Фиска - Стратоно- в и ч а. Вышеуказанное формальное определение принадлежит П. Мейеру (P. Meyer) и (для непрерывных семимартингалов) К. Ито (К. It6). С. с. и. удается определить и для более широкого запаса функций Я. Напр., если Ht = f(Y?} Y?, ..., Y?), где/"g С1 (Я?"), У - семимартингалы, то также может быть определена квад- ратич. ковариация [Я', Xе] и сумма (1) опять применима для определения С. с. и. с сохранением «хороших» свойств (см. [2]). Основной недостаток С. с. и.~ класс интегрируемых в смысле Стратоновича процессов остается более узким по сравнению с классом интегрируемых в смысле Ито процессов. Однако в нек-рых случаях использование С. с. и. является более предпочтительным и естественным. Вообще говоря, вопрос о предпочтительности стохастич. интеграла Ито или Стратоновича имеет смысл лишь по отношению к конкретной задаче и даже по отношению к конкретным предположениям в ней. Часто оба интеграла используются одновременно в зависимости от того, что важнее в данный момент - геометрич. свойства С. с. и. («хорошее» поведение при замене переменных и интегрировании по частям) или аналитич. свойства и общность интеграла Ито. Лит.: [1] Стратонович Р. Л., «Вестн. Моск. ун-та», 1964, № 1, с. 3-19; [2] Meyer P. A., «Lect. Notes in Math.», 1976, v. 511, p. 245-400; [2] Ватанабэ С, Икэда Н., Стохастические дифференциальные уравнения и диффузионные процессы, пер. с англ., М., 1986. В. Мацкявичюс. СТРАХОВАНИЯ МАТЕМАТИЧЕСКАЯ ТЕОРИЯ (mathematical insurance theory) - совокупность взаимосвязанных математических моделей экономических механизмов, стабилизирующих в условиях неопределенности величины доходов или иных благ страхователей. Большинство таких механизмов предусматривает создание страхового фонда, распределяемого по тем или иным правилам между страхователями после реализации экономич. ситуации. Первая модель страхования была построена, видимо, еще в 1834 Т. Барруа (Т. Barrois), современные модели страховых фирм восходят к Ф. Лундбер- гу (F. Lundberg, 1903). В большей части моделей фирм рассматривают характеристики: Xt - случайная величина суммарных выплат ко времени t и rt - суммарный страховой взнос ко времени t. Накопленный к тому же времени капитал равен St = sQ + rt-Xt, где sQ - начальный капитал. Обычно полагают д(5 T) = Pf min S^Ol или «предельная» величина R(s0)= lim R(sQ, T). Если, напр., Xt - обобщенный пуассоновский процесс, то задача допускает решение методом преобразований Лапласа (см., напр., [1], [2]). В рамках обычных условий St -► <*> почти наверное при t->°°. Этот факт отражает скорее упрощенность модели, и было предложено учитывать возможность выплаты дивидендов или иного использования дохода в случае, когда St превысит нек-рый уровень г. Если время дискретно, a Xt имеет независимые приращения, то модель сводится к случайному блужданию с поглощающим (5^ = 0) и упругим (St = z) экранами. Выбор z определяется желаемым средним временем жизни системы, то есть величиной D(s0, *) = Einftt:S^0}. Другой круг вопросов С. м. т. связан с интересами страхователя. Примером может служить поиск оптимальной величины страховой выплаты Y = У(со) при элементарном исходе со и заданных среднем значении ЕУ и системе предпочтений страхователя в пространстве распределений вероятностей значений доходов (обычно при заданной полезностей функции страхователя; см., напр., [3]). Еще один аспект теории - взаимоотношения между страхователями и фирмами. Простейшая модель включает одного страхователя и одну фирму, характеризуемых функциями полезностей их(х), и2(х) соответственно и первоначальными капиталами /j, /2. Пусть £ - случайная величина возможного ущерба страхователя, qx = sup {q: их(lx -q)> Ещ(1х - \)} — максимальный страховой взнос, приемлемый для страхователя, и q2 = inf {q : u2(/2) < Eu2(/2 + q - £)} - минимальный страховой взнос, приемлемый для фирмы. Если qx <q2> страхование невозможно. Если q^q2n страховая фирма единственна (монопольное страхование), страхователь вынужден внести взнос, близкий к q^. Если же имеется много фирм (конкуретное страхование), взнос близок к q2. Общие модели апеллируют к понятию экономич. равновесия и особенно сложны при наличии страхователей с различными распределениями вероятностей величин ущербов. Существенно иная ситуация возникает при отсутствии страховой фирмы, преследующей собственные интересы, когда страхователи объединяются в организацию взаимного страхования с целью стабилизировать свои доходы («перераспределение риска», «перестрахование»). В этом случае исчерпание страхового фонда может и не быть нежелательным, а задача состоит в поиске разумных правил распределения страхового фонда в зависимости от взносов страхователей, их предпочтений и реализовавшейся ситуации. Один из подходов связан с исследованием, вообще говоря, различно определяемого положения равновесия (см. [2], [4]). Другой подход - аксиоматический и требует обращения к теории кооперативных игр и СТРАХОВАНИЯ 711
формулировки общих принципов перераспределения доходов (см. [5]). Лит,: [1] Scandia Jubillee Volume, Stockh., 1955; [2] Borch К., The mathematical theory of insurance, Lexington, 1974; [3] Arrow K., «Scandinavian Acturial Journal», 1974, v. 1, p. 1-42; [4] Mossin J., «Econometrica», 1966, v. 34, Jsfc 4, p. 768-83; [5] Катышев П. К., Ротарь В.И., «Экономика и матем. методы», 1983, т. 19, в. б, с. 1042-52. В. И. Ротарь. СТРОГО МАРКОВСКИЙ ПРОЦЕСС (strong Markov pro cess) - случайный процессу обладающий строго марковским свойством. Общее понятие С. м. п. введено независимо в [1] и [2], частные случаи рассматривались ранее [счетный однородный С. м. п. - Дж. Дубом (J. Doob), затем А. А. Юшкевичем, однородный С. м. п. с независимыми приращениями - Дж. Хантом (J. Hunt)]. Любой марковский процесс с дискретным временем является С. м. п.; для непрерывного времени это неверно (см. [1]). Доказывается, что если: 1) все траектории однородного марковского процесса X = {Xt, ^, Рх} в метрич. пространстве Е непрерывны справа и 2) процесс X является феллеровским, то есть при любом t^O функция F(x)-Exf(Xt), хеЕ, непрерывна для любой непрерывной ограниченной функции f на £", то X является-С. м. п. (см. [1]). Результат остается верным при замене а-алгебр ^ на .Jt+ =Q ,</и и распространяется на неоднородные марковские процессы. Лит.: [1] ДынкинЕ. Б., Юшкевич А. А., «Теория вероятн. и ее примени, 1956, т. 1, в. 1, с. 149-55; [2] В I u men t ha I R., «Trans. Amer. Math. Soc», 1957, v. 85t p. 53-72; [3] Юшкевич А. А., «Теория вероятн. и ее примен.», 1957, т. 2, в. 2, с. 187-213; [4] Вент- цель А. Д., Курс теории случайных процессов, М., 1975. А. А. Юшкевич. СТРОГО МАРКОВСКОЕ СВОЙСТВО (strong Markov property) - свойство независимости «будущего» {Xt}t>x случайного процесса от его «прошлого» {Xt}t<x при известном «настоящем» Хх, в к-ром под х понимаются не только константы (как в случае марковского свойства), а любые моменты остановки. Пусть для простоты Х= (Xt> dt> Рх) - необрываю- щийся однородный марковский процесс в фазовом пространстве (£", 35) с переходной функцией pit, x} Г) на основном пространстве (Q, л), у к-рого имеют смысл операторы 6t, переводящие Xs в Xs+t> t^O, и пусть X - прогрессивно измеримый процесс (последнее условие обеспечивает ^-измеримость Хх). Процесс X обладает строго марковским свойством, если Px{Xx+teT\^x}=p(t, Хт, Г) Р^-почти наверное (*) для любых t^Q, xeE, ГеЛ и любого конечного момента остановки х (такой функции х на Q, что 0^х< <*> и {х^ t) e .<4» t^O; здесь Лх = {А:Ае Л, Af\{x^t}e^t> t^O}). Из (*) вытекают другие формы С. м. с: Рх{Хх+ц е Г\<*/х) = р(г\, Хх, Г) Р^-почти наверное, где т\ ^ 0 - любая конечная ^-измеримая функция, и E^et4r) = E^EXi4r), где £, у - ограниченные случайные величины, измеримые соответственно относительно dx и o(Xt), t^O. С. м. с. впервые сформулировано и доказано Дж. Дубом [1] для марковских процессов со счетным множеством состояний и таких случайных величин х^О, что ХТ+0 = ХТ и «события х<5, x>s определяются по значениям Xt с t<s» (см. [1]). Формулировка (*) с а-алгебрами Лх дана в [2], где х названо «случайной величиной, не зависящей от будущего». Другой вариант общего определения См. с. предложен в [3]. Случайный процесс, обладающий См. с, называется строго марковским процессом. С. м. с. переносится на неоднородные марковские процессы и случайные поля. 712 СТРОГО Лит.: [11 DoobJ.L., «Trans. Amer. Math. Soc>, 1945, v. 58, p. 455-73; [2] ДынкинЕ. Б., Ю шкевич А. А., «Теория вероятн. и ее примен.», 1956, т. 1, в. 1, с. 149-55; [3] В 1 u merit ha I R., «Trans. Amer. Math. Soc.», 1957, v. 85, p. 52-72; [4] ДынкинЕ. Б., Основания теории марковских процессов, М., 1959; [5] Вентцель А Д., Курс теории случайных процессов, М., 1975. А. А. Юшкевич. СТРОГО УСТОЙЧИВОЕ РАСПРЕДЕЛЕНИЕ (strictly stable distribution) - представитель подкласса SB класса устойчивых распределений, объединяющего всевозможные предельные распределения (при п-><*>) для сумм гя=я-Чх,+ ...+*„), n=i, 2,..., независимых и одинаково распределенных случайных величин, нормированных нек-рыми постоянными Вп>0. Функции распределения законов из SB образуют трехпараметрич. семейство G(x, а, 9, X), 0<а^2, |e|^min(l, 2/a-l), Х>0. Возможна стандартизация этих законов, поскольку G(x, a, dt\) = G(x\-)/ata, 8, 1). Функции G(x, а, 8) = G(x, а, 8, 1) связаны между собой многочисленными аналитич. соотношениями (см. [1]), в частности для них в наиболее широком варианте известна безгранично делимых распределений двойственность: если а^1, х > 0, то для любых 8 a(\-G(x, a, 8)) = G(*~a, a*, 8*)- (1 -8*)/2, гдеа* = 1/а, 1 + 8* = а(1-8). С. у. р. составляют множество решений функционального уравнения, упомянутого в ст. Устойчивое распределение. Лит.: [1] Золотарев В. М., Одномерные устойчивые распределения, М., 1983. В.М. Золотарев. ^-СТРУКТУРА вероятностной метрики 0,-sctructure of а probabilistic metric) - см. Вероятностная метрика; структура. ^-СТРУКТУРА вероятностной метрики (^-sctructure of a probabilistic metric) - см. Вероятностная метрика, структура. СТРУКТУРНАЯ МАТРИЦА (parastrophic/structure matrix) - матрица, образованная из попарных ковариаций приращений многомерного комплекснозначного случайного процесса X(t) = (X^(t), ..., Xr(t)), teTQto\ у к-рого E\X(t2) -X(£t)j <oo для любых t{> t2eT; точнее, структурной матрицей называется D(tlt tlt t3> U)^\\D.k(t,, t2, t3> t4)\\rjtk={, где ojkitXt t2, t3ttA)= = E{[X/(^2)-X/(^)-myai, t2)][Xk(tA)-Xk(t3)-mk(t3, *<)]}, m(t, s) = E[X(s) - X(t)] = [mx(ty s), ..., mr(t, s)}. Для случайных процессов со стационарными приращениями функции D(tv t2, t3> tA) и m(tv t2) не зависят от сдвига аргументов. Для действительных случайных процессов D(tly t2, t3> tA) может быть выражена через D(t{, t2) = = D(^, t2, tu t2). Если ^(Д) = (^(Д), ..., £Г(Д)) - элементарная векторная ортогональная случайная мера, определенная на полукольце ЙВ подмножеств нек-рого множества Т, такая, что 1) Е|£(Д)|2=Е^=1 |^(Д)|2<оо, 5(0) = 0; 2) 5(Д1иД2) = ^(Д1) + 5(Д2)(тос1Р), если Д,ПД2 = 0, Д,, Д2ейВ; 3) E^(A)^(A) = m/fe(AtnA2), Д,, Д2ейВ;;, /е=1, ..., г, то С. м. называется также матрица т(Д) = |т/,(Д)|^=1 = Е?(Д)С'(Д).
См. также Структурная функция. Лит.: [1] Яглом A.M., «Успехи матем. наук», 1952, т. 7, в. 5, с. 3-168; [2) Гихман И. И., Скороход А. В., Введение в теорию случайных процессов, 2 изд., М., 1977; [31 их же, Теория случайных процессов, т. 1, М., 1971. Н. Н. Леоиенко. СТРУЮУРНАЯ МЕРА (structure measure) - см. Случайная мера. СТРУКТУРНАЯ ФУНКЦИЯ (structure function) действительного случайного процесса или поля X(t) - средний квадрат разности значений X(t) в двух точках, то есть функция D(t,s) = E[X(t)-X(s)]2 Не®* или£еП?*, k>\). Если E[X(t)]2 <<х> при всех t, то D(t, s) = B(t, t) + Bis, s) - 2B(t, s), где B(ty s) = EX(t)X(s) - корреляционная функция процесса X(t) С. ф. часто используют при изучении случайных процессов со стационарными приращениями первого порядка и локально однородных случайных полей (то есть случайных полей с однородными приращениями), для к-рых D(t, s)~ -D(t-s). В корреляционной теории случайных процессов со стационарными в широком смысле приращениями и локально однородных в широком смысле случайных полей основной статистич. характеристикой случайной функции X(t) является корреляционная функция ее приращений AuX(t) = X(t + u)-X(t): EAuX(t)AvX(s) = D(t-s, и, v) [иногда называемая общей структурной функцией функции X(t)]. Она может быть представлена в виде DO; uy v) = [D(t + u)+D(t-v)-D(t+u-v)-D(t)]/2, (1) так что здесь достаточно рассматривать лишь простейшую С.ф. DM. Класс С. ф. D(t) процессов со стационарными приращениями совпадает с классом функций, допускающих спектральное разложение вида D(t)=£ (1- cos tX)dF(X) + at2, (2) где rt>0, a F(X) - монотонно неубывающая функция от X такая, что f~*° dF(X) + \X° X2dF(X) + Г dF(X) <- (3) J^o J-\Q J\Q при любом Xq>0. С помощью теоремы Карунена об ортогональном представлении случайных функций из (1) и (2) выводится спектральное разложение самого процесса со стационарными приращениями. Аналогичные (2) и (3) формулы [но с заменой интегрирования по скалярной переменной X интегрированием по векторной переменной Х = (Х\, ..., Xk)] справедливы и для С. ф. локально однородных случайных полей в пространстве И? (см. [6], [7]). В применении к многомерному процессу со стационарными приращениями или к локально однородному полю X(^) = {Xj(0, ..♦, Xn(t)} роль С.ф. D(t) играет матрица взаимных структурных функций (иначе, структурная матрица): D(0=||D;7ja)|J=lE[X;(^5)-X;(5)][XA(^5)-Xfe(0]||7. Взаимные С. ф. D}k(t) также допускают спектральное разложение, родственное разложению (2). Однако в многомерном случае общая взаимная структурная функция D]k(t\ и, v) = E[Xf(t + s + u)-Xj(t + s)][Xk(s + v)-Xk(s)] уже может быть выражена через более простые функции Djk(t) лишь при дополнительном условии: Dk(t; ы, v) = -Dk.(t\ uy v), часто выполняющемся в приложениях (см., напр., [6], [7]). Понятие С. ф. было введено А. Н. Колмогоровым в 1940 (см. [1]); им же получено спектральное разложение С.ф. случайного процесса со стационарными приращениями - формулы (2), (3). В другой связи этот результат был найден в 1941 Дж. Нейманом и И. Шенбергом [3]. В 1941 А. Н. Колмогоров [2] широко использовал С.ф. векторных локально однородных случайных полей в развитой им теории локально изотропной турбулентности. Термин «С.ф.» был введен A.M. Обуховым [4], [5J. Лит.: [11 Колмогоров А.Н., Математика и механика. Избранные труды, М., 1985, с. 269-73, 274-77; [21 его же, там же, с. 281-87, 290-93; [31 Neu mann J., Schoen berg I. J., «Trans. Amer. Math. Soc», 1941, v. 50, № 2, p. 226-51; [41 Обухов A.M., «Изв. АН СССР. Сер. геогр. и геофиз.», 1949, т. 13, № 1, с. 58-69; [51 его же, «Докл. АН СССР», 1949, т. 67, № 4, с. 643-46; [6] Яглом A.M., «Теория вероятн. и ее примем.», 1957, т. 2, в. 3, с. 292-337; [7J Монин А. С, Яглом A.M., Статистическая гидромеханика, ч. 2, М., 1967, § 13. А. М. Яглом. СТРУКТУРНЫЙ ПАРАМЕТР (structure parameter) - см. Структурных соотношений анализу Факторный анализ. СТРУКТУРНЫХ СООТНОШЕНИЙ АНАЛИЗ (structure relation analysis) - раздел многомерного статистического анализа у объединяющий статистические методы решения задач, связанных с построением модели следующего вида. Предполагается, что два случайных вектора w = (w]t ... wn)T и v=(V], ..., vm) связаны линейным соотношением W = Xq + Av, где Xq и Л суть пх 1 вектор и wxw матрица неизвестных коэффициентов соответственно. Вместо значений векторов w и v наблюдаются значения случайных векторов У = (у\, ..., у„) и Х = (х]у ..., xm)J, к-рые определяются в виде y = w + ey,x = v + ex, где еу=(еу\, .... eyn)J и ех=(ех1, ..., ехт)Т - случайные векторы ошибок измерений. Предполагается, что случайный вектор ошибок е = (еу, е[) имеет многомерное нормальное распределение с математич. ожиданием, равным нулю, и (n + m)*(n + m) неизвестной диагональной ковариационной матрицей Ч*2, и не зависит от V, то есть E(evJ) = 0. Дисперсии ошибок предполагаются конечными и различными, хотя частные случаи равенства нек-рых из них между собой или нулю не исключаются. Параметры Х0, Л и Ч* , общие для всех наблюдений, называются структурными, а значения «истинного» вектора V, связанные с отдельными значениями наблюдений векторов х и у,- случайными параметрами. К основным задачам, связанным с построением модели структурных соотношений, относятся задачи существования и идентификации (единственности) модели, статистич. оценивания неизвестных параметров и их алгоритмич. определения, а также статистич. проверки гипотез об адекватности модели наблюдаемым данным, о значениях структурных параметров и т. п. При условии п < m модель структурных соотношений идентифицируема. Получены результаты по идентификации модели (необходимые и достаточные условия для единственности модели) (см. [1]). Пусть (у{, х[)у ..., (y'N, x'N) - последовательность независимых одинаково распределенных случайных векторов, представляющих выборочные данные или выборку. В качестве оценок для ux, Xq можно выбрать х=(\/ыУ£._ х{ и у-Ах соответственно. Оценивание матриц структурных параметров Л и Ч* сводится к решению задачи оптимизации на собственные значения СТРУКТУРНАЯ 713
полной обобщенной проблемы определенного вида. Доказано, что полученные в результате такого решения оценки АиФ обладают свойством строгой состоятельности (то есть при N -> °° сходятся с вероятностью единица кЛиУ2 соответственно) при существенно слабых предположениях [напр., без предположения о виде распределения (у', х')Т]. Имеются также состоятельные оценки для случайных параметров модели (см. [1]). Лит.: [1] Банников В. А., в кн.: Статистика. Вероятность. Экономика, М., 1985, с. 20-31. В. А. Банников. СТУПЕНЧАТЫЙ МАРКОВСКИЙ ПРОЦЕСС (step/jump Markov process) - см. Скачкообразный марковский процесс. СТУПЕНЧАТЫЙ СЛУЧАЙНЫЙ ПРОЦЕСС (step random process) - см. Скачкообразный случайный процесс. СТУПЕНЧАТЫЙ СЛУЧАЙНЫЙ ПРОЦЕСС с независимыми приращениями (step/jump random process with independent increments) - см. Случайный процесс с независимыми приращениями. СТЬЮДЕНТА КРИТЕРИЙ (Student's test), Н< ритерий,- статистический критерий для проверки гипотез о средних значениях нормальных распределений, когда их дисперсии неизвестны. Различают одновыборочные и двувыбо- рочные С. к. Одновыборочные С. к. - критерии для проверки гипотез о среднем значении случайной выборки из нормального распределения. Двувыборочные С. к. - критерии для проверки гипотез о разности средних значений двух выборок из нормальных распределений с одинаковыми дисперсиями. Одновыборочные С. к. Пусть выборка X = (Xt Хп) состоит из п независимых случайных величин, каждая из к-рых нормально распределена со средним ц и дисперсией о2. Пусть *-£-,*</». 4=X"=i (Xi-X)/(n-\), t(X) = yfc(X-n0)/sx и Cj(a) - квантиль уровня 1 - а распределения Стьюдента с / степенями свободы. Для проверки гипотезы Я0:ц<ц0 против альтернативы Я1 :ц>Ц() критич. область С. к. размера а имеет вид KX)>Cn_1(a). (!) Для проверки гипотезы Hq:\i = \Iq против альтернативы #{:|д.*|д.о критич. область С. к. размера а имеет вид k(X)|>Cn_1(a/2), (2) где t(X) = ^n (X -\Iq)/sx. Критерий вида (1) называется односторонним С. к., критерий вида (2)- двусторонним С. к. При a ^1/2 первый критерий является равномерно наиболее мощным. Оба критерия являются равномерно наиболее мощными несмещенными критериями, наиболее строгими критериями и равномерно наиболее мощными инвариантными критериями относительно преобразования Uj xn)-+(cxv ..., схп), 0<с<°о, Двувыборочные С. к. Пусть X=(XV .... Хп) и У = (Yj, ..., Ym) - выборки из нормальных распределений с неизвестной дисперсией a , случайные величины Х{ и Yi взаимно независимы, EXj^Z,, ЕУ; = Т|, i=l, 2, ..., я, / = 1, 2, ..., т, и (Y-X)Jn+m-2 t(X,Y) = - i '(п-1)4+(т-!)4 V,/"+,/'n 714 СТЬЮДЕНТА Для проверки гипотезы Яо:г|-£<0 (Hq:t\-Z) = 0) против альтернативы Я! :т| -£>0 (Я[:г|-£*0) критич. область С. к. размера а имеет вид t(X, У)>Сл+д_2(а)(|ЮГ, У)|>Сп+м.2(а/2)). Оба критерия являются равномерно наиболее мощными несмещенными, а также инвариантными критериями относительно преобразования (хи ...,*„; yv ...,ym)-+(axi + b, ...,axn + b; ау{ + 6, ..., aym + b), 0<д<°°, -оо<6<оо. Название «С к.» связано с тем, что У. С. Госсет (W. S. Gosset), писавший под псевдонимом Стьюдент (Student), впервые получил распределение статистики Vn~ X/sx в случае, когда Xi Хп независимы и имеют нормальное распределение со средним 0 и дисперсией о (см. [2]). Лит.: [1] Леман Э., Проверка статистических гипотез, пер. с англ., 2 изд., М., 1979; [2] «Biometrika», 1908, v. 6, p. 1-25. А. Н. Тюлягин. СТЬЮДЕНТА РАСПРЕДЕЛЕНИЕ (Student's distribution) с f степенями свободы, ^-распределение,- непрерывное, сосредоточенное на (-<», «>) распределение вероятностей с плотностью (см. рис.) р<х)шШ+Шц+хг/Гу<Г*№, V7*r(/y2) .3 1111 kN 1111 II WW Vn\ 111 rHJ -2.5 -1.8 -1.2 -.6 0 .6 1.2 1.8 2.4 Плотности распределения Стьюдента при (1) /"=0,5; (2) /"= 1; (3) f=5. Оно является распределением вероятностей случайной величины tf-u/fflf' где и - случайная величина, подчиняющаяся стандартному нормальному распределению с параметрами (0, 1), %r ~ СЛУ~ чайная величина, не зависящая от и и подчиняющаяся хи-квадрат распределению с f степенями свободы. Функция распределения случайной величины U выражается формулой P{tf**x} = Sf(x) = В частности, если /"= 1, то StCr)=l/2 + ir!arctg.r представляет собой функцию распределения Коши. Плотность вероятности Ср. симметрична относительно нуля, поэтому Sf(t) + Sf(-t)=\ для любого te№. Моменты mc = Etf Ср.
существуют только для r<f, при этом нечетные моменты равны 0; в частности, математич. ожидание te равно 0. Четные моменты выражаются формулой ,г Г(г/2+1/2)Г(/72-г) "2г ■Г 2^2r<f; ЛП^/2) в частности, дисперсия t, равна //(/*-2). Функция распределения SAx) случайной величины te выражается в терминах функции бета-распределения следующим образом: S((x) = \-BfM2(f/(f2 + x2))/2, где Ва ь(г), 0 ^ z ^ 1,- неполная бета-функция. С. р.- частный случай типа VII семейства Пирсона распределений. Если /*-><*>, то Ср. сходится к стандартному нормальному закону, то есть liiri 5,Ы = Ф(*)= * Г e~t2!2dt f~>oo ' v2tc *-o° Пример. Пусть Xj Хп - независимые одинаково нормально распределенные с параметрами а, а случайные величины, причем а и с неизвестны. Тогда статистики Х-1 У? ,Х;,52 = -1-У" ,(Х,-А-)2 являются наилучшими несмещенными оценками параметров а и а, причем X и s стохастически независимы. Так как случайная величина VrT (X - а)/о подчиняется стандартному нормальному закону, а п - 1 2 2 распределена по закону хи-квадрат с f-n- 1 степенями свободы, то в силу их независимости дробь Уя(Х-д)/а У^(Х-д) подчиняется С. р. с /"= я - 1 степенями свободы. Пусть £ДР) и fy(l - Р) = -tfiP) суть решения уравнений ~ f^U-«)WP> 0,5<Р<1, пЛ s ) [l-P, /- = я-1. Тогда статистики Х--=- ^(Р) и Х + -=^ tr(P) суть нижняя и верхняя границы доверительного множества для неизвестного математич. ожидания нормального закона Ы(а, а ), причем коэффициент доверия этого доверительного множества равен 2Р - 1, то есть Р\х—s—tAP)<a<X+-^tAP)\ = 2P-L IV" Vя J Ср. впервые было использовано в 1908 У. С. Госсетом (W. S. Gosset), писавшим под псевдонимом Стьюдент (Student). Лит.: [1] Крамер Г., Математические методы статистики, пер. с англ., 2 изд., М., 1975; 121 БольшсвЛ.Н., Сми рно в Н. В., Таблицы математической статистики, 3 изд., М., 1983; [31 «Student» (Gosset W.), «Biometrika», 1908, v. 6, p. 1-25. А. В. Прохоров. СТЬЮДЕНТИЗИРОВАННЫЙ ОСТАТОК (studentized residual) - остаток регрессионного эксперимента, деленный на корень несмещенной оценки его дисперсии. По величине С. о. судят о наличии выделяющихся измерений. м. Б. Малютов. СУБАДДИТИВНАЯ ЭРГОДИЧЕСКАЯ ТЕОРЕМА (subadditive ergodic theorem) - утверждение об асимптотическом поведении семейства {Х^}, i, /eZ , действительнозначных случайных величин, составляющих субаддитивный случайный процесс с дискретным временем, то есть таких (см. [1]), что: 1) Xif<Xik + Xkj, i<*«J/; 2) совместное распределение любого конечного набора случайных величин {Xi}} совпадает с распределением набора {X-j}, где X(j = Xi+{ij+x', 3) математические ожидания т =E(Xi;) существуют и infу- Wy = C>-o°. Тогда почти наверное существует предел X = lim/~!Х0;, причем ЕХ = С. Эта теорема, доказанная j -+<» Дж. Кингменом [2], обобщает, в частности, индивидуальную эргодич. теорему (Биркгофа - Хинчина). Субаддитивные процессы встречаются в различных задачах теории просачивания, в комбинаторике, при изучении асимптотич. поведения произведений случайных операторов. Имеются обобщения С э. т., относящиеся к процессам с непрерывным временем, к случайным полям и т.д. (см. [5]). Другие доказательства см. в [3], [4]. Лит.: [1] Hammersley J., «Ann. Probab.», 1974, v. 2, № 4, p. 652-80; [2] Kingman J„ там же, 1973, v. 1, № 6, p. 883-909; [3] Derriennic G., «C. r. Acad, sci.», 1975. t. 281 A, p. 985-88; [4] Katznelson G., Weiss В., «Isr. J. of Main.», 1982, v. 42, № 4, p. 291-96; [5] Akcoghu M.t Krenge [ U., «J. fur reine imd angew. Math.», 1981, Bd 323, S. 53-67; [61 Krengel U., Ergodic theorems, B. - N. Y., 1985. И. П. Корнфслъд. СУБМАРКОВСКАЯ ПЕРЕХОДНАЯ ФУНКЦИЯ (sub Markov transition function) - см. Переходная функция для марковского процесса. СУБМАРКОВСКАЯ ПОЛУГРУППА (sub Markov semi group) - см. Марковская полугруппа. СУБМАРКОВСКОЕ ОТОБРАЖЕНИЕ (sub Markov map ping) - см. Марковское отображение. СУБМАРТИНГАЛ (submartingale) - случайный процесс X=(Xt), teT, Г = {0, 1, ...,} или Т = КТ, определенный на стохастическом базисе ^-(Q, Л, & =(.Jt)teT, P), то есть вероятностном пространстве (Q, Л, Р) с выделенным неубывающим семейством а-алгебр $ — (.<ft), teT, Mt Я М, .^s. с ^t> s ^ *» и обладающий свойствами: X - А-согласованный, Е|Х,|<оо, teT, E[Xt\^s]>Xs (Р-почти наверное), s^f. (*) Родственными понятиями являются мартингал и супермартингал, определение к-рых получается из предыдущего заменой в (*) знака ^ на = и ^ соответственно. Лит.: [1] Дуб Дж., Вероятностные процессы, пер. с англ., М., 1956; [2J МейерП.А., Вероятность и потенциалы, пер. с англ., М., 1973; [3] Л ипцер Р. Ш., ШиряевА.Н., Теория мартингалов, М., 1986. Л. И. Гальчук. СУБСТОХАСТИЧЕСКАЯ МАТРИЦА (substochastic mat rix) - см. Стохастическая матрица. СУДАКОВА - ДАДЛИ ТЕОРЕМА (Sudakov - Dudley theorem) - см. Случайный процесс, регулярность траектории. СУММА соб ытий (sum/union of events) А\> А2, ...» Ап, объединение событий, - событие А =Л, + А2 + ...+Ап, к-рое означает, что осуществляется или Av или А2, ..., или Ап\ обозначается также (J._ A{. В.А.Ватутин. СУММА СЛУЧАЙНОГО ЧИСЛА СЛУЧАЙНЫХ ВЕЛИЧИН (sum of a random number of random variables) - см. Случайная сумма. СУММИРОВАНИЯ СЛУЧАЙНЫХ ВЕЛИЧИН СХЕМА (scheme of summation of random variables) - одна из основных моделей теории вероятностей, рассматривающая конечные или бесконечные наборы сумм случайных величин Sn~X{ + ... +Хп. Частные случаи С. с. в. с. связаны с какими-либо дополнительными предположениями относительно СУБАДДИТИВНАЯ 715
слагаемых Х-, /=1, 2, ... В результате появляются модели сумм независимых случайных величин, сумм случайных величин, связанных в цепь Маркова или образующих стационарную последовательность, и т. д. В общей ситуации совместные распределения слагаемых (Xt, ..., Хп) могут зависеть от п (см. Серий схема), а число слагаемых в суммах может быть бесконечным (в последнем случае предполагается, что ряд сходится почти наверное). О результатах, связанных с различными случаями С. с. в. с, см. в ст. Предельные теоремы, Предельные теоремы для цепей Маркова. В. М. Золотарев. р-СУММИРУЮЩИЙ ОПЕРАТОР (^-summing operator) - см. Радонизующий оператор. СУММЫ РАНГОВ КРИТЕРИЙ (rank sum test) - статистический критерий однородности двух выборок Xj, Х2, ..., Хп и V'j, У2 Ym, основанный на ранговой статистике /?1 +Я2+ ... + Кщ ~ сУмме рангов R- случайных величин У. в общем вариационном ряду X,- и У.- (элементы двух выборок взаимно независимы и подчиняются непрерывным распределениям). Является вариантом Уилкоксона критерия. А. В. Прохоров. СУПЕРМАРТИНГАЛ (supermartingale) - случайный процесс X = (Xt), teT (T - множество моментов времени с отношением порядка ^ между его элементами), определенный на стохастическом базисе 3B-(Q, d, k = (•■4)^€Г' Р)> то есть на вероятностном пространстве (П, .*/, Р) с выделенным на нем неубывающим семейством а-алгебр ^=(^t), teT, .<4cz.</, ^s^^t, s^£, и обладающий свойствами: Х- ^-согласованный; E|Xj<oo, t*T, E[Xt\^s]^Xs (Р-почти наверное), s^£. (*) Родственными понятиями являются мартингал и субмартингал, определение к-рых получается из предыдущего заменой в (*) знака ^ на = и > соответственно. Лит.: [1] Дуб Дж., Вероятностные процессы, пер. с англ., М., 1956; [2) Мейер П. А., Вероятность и потенциалы, пер. с англ., М., 1973; [3] Липце рР. Ш., Ширяев А. Н., Теория мартингалов, М., 1986. Л. И. Гальчук. СУПЕРПОЗИЦИИ МЕТОД (randomization method) - см. Моделирование случайных величин и функций. СУПЕРЭФФЕКТИВНАЯ ОЦЕНКА (superefficient estimator) - см. Сверх эффективная оценка. СУППОРТ меры (support of a measure) - см. Носитель меры. СУСЛИНСКОЕ ПРОСТРАНСТВО (Suslin space) - см Мера. СУЩЕСТВЕННО ПОЛНЫЙ КЛАСС критериев (essentially complete class of tests) - см. Статистический критерий) полный класс. СУЩЕСТВЕННОЕ СОСТОЯНИЕ цепи Map ков a (essential state of a Markov chain) - см. Маркова цепь; классификация состояний. СУЩЕСТВЕННЫЙ КЛАСС СОСТОЯНИЙ цепи Map ков a (essential class/set of states of a Markov chain) - см. Маркова цепь; классификация состояний. СУЩЕСТВЕННЫХ ПРЕДИКТОРОВ ОТБОР (screening of significant predictors) - процедура отбора из всего множества метеорологических параметров (потенциальных предикторов) небольшого количества величин, наиболее существенно влияющих на предиктант, то есть на прогнозируемую характеристику будущего состояния погоды. С. п. о. важен для развития методов статистических прогнозов погоды, так как общее число наблюдаемых характери- 716 СУПЕРМАРТИНГАЛ стик атмосферы, могущих использоваться в качестве предикторов, непомерно велико, а данные наблюдений далеко не всегда являются достаточно точными. Поэтому из множества всех потенциальных предикторов X={xit i=\, ..., п) отбирается нек-рое подмножество Х' = {х-, 1=1, ..., р), где обычно р«п, обеспечивающее требуемую точность предсказаний. При решении этой задачи существенную роль играет разумный выбор критерия информативности и выбор оптимального «маршрута обследования»- предикторов. В качестве критериев информативности обычно используются те или иные оценки качества прогнозов (см. Прогноз погоды; оценка качества). С выбором 4маршрута обследования» ситуация сложнее. Полный перебор при больших значениях пир оказывается непомерно трудоемкой вычислительной процедурой. Помимо того, на этом пути почти невозможно получить устойчивый результат, поскольку с увеличением пир резко возрастает (при ограниченности используемой для отбора тренировочной выборки данных наблюдений) вероятность ложных (то есть очень завышенных) связей и расширяются доверительные интервалы получаемых выборочных оценок (см., напр., [1], [2]). Сокращение перебора достигается, в частности, посредством «пошагового просеивания», алгоритм к-рого основан на предположении, что оптимальная совокупность из q предикторов обязательно является подмножеством оптимальной совокупности размерности р, если р > q. Среди алгоритмов просеивания различают две группы: просеивание добавлением переменных («просеивание вперед») и просеивании их исключением («просеивание назад»). Однако в отсутствии контроля на независимой выборке метод просеивания также не дает возможности избавиться от влияния ложного вздувания коэффициентов корреляции. Эти методы отбора переменных аналогичны тем, к-рые используют в регрессионном и дискриминантном анализе, в задачах распознавания образов. Лит.: [1] Колмогоров А. Н., «Журнал геофизики», 1933, т. 3, в. 1, с. 78-82 (Теория вероятностей и математическая статистика, М., 1986, с. 161-67); [2] Яглом А. М., в кн.: Тр. Всесоюзного научного метеорологического совещания, т. 2, Л., 1963, с. 221-34; [31 Груза Г. В., РаньковаЭ.Я., Вероятностные метеорологические прогнозы, Л., 1983. Г. В. Груза. СФЕРИЧЕСКИ СИММЕТРИЧНОЕ РАСПРЕДЕЛЕНИЕ (spherically symmetric distribution) вероятностей в евклидовом пространстве^ - такое распределение, что для любых двух измеримых множеств, получающихся одно из другого поворотом вокруг фиксированной точки О, их вероятности совпадают. В дальнейшем предполагается, что О совпадает с началом координат. Важным примером С. с. р. в IP служит нормальное распределение вероятностей с плотностью р(х)= ■ e^-«i>/', И (2тс)*/2 х~{хх, ..., xk)e№ , и характеристич. функцией t = (tv ..., tk) elRfe. Как и в этом примере, плотность вероятности любого Сер., если она существует, зависит только от р = Vхх+ ... +х\, а характеристич. функция - от т = \^+ ... +Ц. Пусть XefP - случайный вектор, имеющий Сер., Рх(р) ~ его плотность вероятности, /х(т) - характеристич. функция. Тогда имеет место формула (l = k/2- 1) fxM=1т~ I P,+V,(px)px(pWp, (о где J{(x) - функция Бесселя порядка /. В частном случае, когда X имеет распределение, равномерное в шаре
равна w= Г(/+2)2'* ■/i+I(t). В другом частном случае, когда распределение равномерно на поверхности сферы #2 + ... + xk = 1 (случайный вектор единичной длины, все направления к-рого равновероятны; вместо X будет использовано обозначение U), характеристич. функция имеет вид ш-Щ±т. (2) Распределение, равномерное на поверхности единичной сферы в-IP , заслуживает особого внимания среди всех С. с. р. 1) Плотность вероятности длины \Х\ случайного вектора X, имеющего Сер., равна РМ<Р) = 2тс' */2 Г(*/2) p*"Wp>- Поэтому из формул (1) и (2) следует представление /xM=Jo°7</pt>p|*Kpwp- Таким образом, распределение X может быть представлено как распределение произведения |х|[/, где сомножители независимы, и тем самым оно является «смесью» распределений, равномерных на поверхностях сфер с центром в начале координат. 2) Распределение вектора U является сингулярным относительно меры Лебега в II? . Однако сумма U{ +... + Un, л^2, независимых случайных векторов, каждый из к-рых имеет распределение, совпадающее с распределением U, обладает плотностью. Например, если k = 2 и л = 2, то сумма U^ + U2 имеет плотность Г 1 Ри1+и2(Р>-- О, 0<р<2, р>2. В случае k = 3 плотность суммы U^ + ... + Un при небольших п была вычислена Рэлеем (Rayleigh) (см. [1], [2]) в связи с исследованием нек-рых случайных блужданий. 3) Случай растущей размерности (k -> <»). Пусть / - фиксированное число и С/j, ..., Uk - компоненты вектора U; с ростом k компоненты этого вектора становятся асимптотически независимыми и нормально распределенными. Точнее, совместное распределение сходится к совместному распределению независимых нормальных (0, 1) величин Zj, ..., Z/ (см. [3]). Более того, расстояние «по вариации» между этими двумя распределениями в II? не превосходит (см. [4]) 2(/ + 3)/(/г-/-3), \^l<k-4. Поэтому при /г-><х> и / = о(/г) происходит неограниченное сближение указанных распределений «по вариации». Возвращаясь к общему случаю, уместно добавить, что отыскание распределения компоненты, напр. Хи случайного вектора X, имеющего С. с. р., по распределению |Х| представляет собой задачу сравнительно простую. Обратная задача - отыскание распределения |Х| (а следовательно, и X) по распределению Xt требует решения Абеля интегрального уравнения. Лит.: [1] Феллер В., Введение в теорию вероятностей и ее приложения, пер. с англ., т. 2, М., 1984; [2] Чандрасекар С, Стохастические проблемы в физике и астрономии, пер. с англ., М., 1947; [3] Кац М., Вероятность и смежные вопросы в физике, пер. с англ.. М., 1965; [4] Diaconis P., Freedman D., «Ann. Inst. Н. Poincare», Sup. an. № 2, 1987, t. 23, p. 397-423; [5] Хин- чин А. Я., Избранные труды по теории вероятностей, М., 1995, с. 383-420. Ю. В. Прохоров. СФЕРИЧЕСКИЙ ВИНЕРОВСКИЙ ПРОЦЕСС (spherical Wiener process) - однородный во времени марковский процесс на единичной сфере Sn~ , удовлетворяющий условиям: а) почти все его траектории непрерывны; б) переходная вероятность P(t, х, Г), где xeSn~ , Г- бо- релевское множество на Sn , инвариантна относительно транзитивного действия группы SO(n) на Sn~ : Pit, gx, gT)=P(ty x, Г). Условие а) эквивалентно условию линдеберговского типа: a') lim Г1 Г „ Pit, х, rfv)=0 для любого е > 0 и t > 0. tW J\\y-x\\>t Полугруппа (TtfHx) = jsn_iP(t}x,dy)f(y), индуцированная С. в. п. в банаховом пространстве непрерывных функций с sup-нормой, является сжимающей и принадлежит классу С0. Ее инфинитезимальный оператор А имеет вид Л = сД0, где с- положительная константа, Aq- оператор Лапласа на5" * _ 1 Э _:_п-2а Э . пп-2 еи эе л-1 эе„ 1 sin"-2 e„_j sin" +... + ■ эе„ sin""3+e, я-2 Э8. я-2 sin2 8„_t ...sin2 62 Э82 (в сферич. координатах). Лит.: [1] Yosida К., «Ann. Math. Statist.», 1949, v. 20, p. 292-96; [2] его же, «Pacific J. Math.», 1952, № 2, p. 263-70. А. Ф. Турбин. СФЕРИЧЕСКОЕ РАССТОЯНИЕ БХАТТАЧАРЬЯ - РАО (Bhattacharya - Rao spherical distance) - см. Риманова информационная метрика. СФЕРИЧНОСТИ КРИТЕРИЙ (test of sphericity) - правило статистической гипотезы проверки о том, что эмпирическая ковариационная матрица соответствует генеральной совокупности, теоретическая ковариационная матрица к-рой пропорциональна нек-рой данной матрице у. Поскольку у известна, линейным преобразованием можно свести ее к единичной матрице /. Пусть С - соответствующим образом преобразованная эмпирии, матрица. Теперь надо проверить, действительно ли матрице С соответствует теоретич. матрица а /, где а неизвестно. Последнее и называется проверкой сферичности. Статистика критерия: / = \С\ ,((trC)/ р)Р Моменты даются формулой Г(р(п-\)/2) п/2 Е02г!п) = рр Г(рг+р(п-0/2) щ Г(г+(я-/)/2). Г((л-/)/2) ' - л!п/ /п распределено как х с f=p(p+ D/2- 1. С использованием второй аппроксимации получается р= \ - (2р2 + р + 2)/6р(п- \). С. к. не смещен. Лит.: [1] Кендалл М., Стьюарт А., Многомерный статистический анализ и временные ряды, пер. с англ., М., 1976. И. В. Степахно. СХОДИМОСТИ ЭКСТРЕМАЛЬНЫЙ КРИТЕРИЙ (extremal criterion for convergence): пусть XnI, Xn2, .... Xnm - последовательность серий независимых в каждой серии слу- СФЕРИЧЕСКИЙ 717
чайных величин, удовлетворяющих условию равномерной бесконечной малости, и пусть X*k = Xnk при \Xnk\ <£ и равно О при | Xnk | ^ е; чтобы последовательность функций распределения сумм Хп{ + Хп2 + ... + Хпт - ап при нек-ром выборе постоянных ап, п- 1, 2, ..., слабо сходилась к безгранично делимой функции распределения, характеристич. функция к-рой в представлении Леви (см. Леей каноническое представление) определяется характеристиками у, а ', М, N, необходимо и достаточно, чтобы последовательности функций распределения Р{ min 1 *£ k $ т„ Xnk < х) и Р{ max Xnk < х) слабо сходились к \^k^m Ux) = LAx)- функциям распределения [1 - ехр{-М(.г)} при х<0, 1 при х>0 ГО при х<0, \exp{N(x)} при х>0 и выполнялось условие lim Hm J? DX„% = lim Hm ££, DX„% = a2. Критерий доказан M. Лоэвом (см. [1J). Обобщение С.э. к. см. в [2]. Лит.: [\\ Лоэв М., Теория вероятностей, пер. с англ., М., 1962; [2) Круглое В. М., «Теория вероятн. и ее примен.», 1979, т. 24, в. 4, с. 710-27. В. М. Круглое. СХОДИМОСТЬ в основном (weak convergence) - см. Слабая сходимость. СХОДИМОСТЬ в среднем квадратичном (convergence in mean square/convergence in the quadratic mean) - см. Сходимость в среднем порядка р. СХОДИМОСТЬ в среднем порядка р (convergence in mean of order p) - один из видов сходимости случайных величин. Пусть р>0, В - сепарабельное банахово пространство случайных величин, заданных на одном вероятностном пространстве, принимающих значения из Б и таких, что при п- Хп , я = 0, 1, ... Говорят, что Хп сходится в среднем п оря дка р, если ц,(Хр(Хп,Х0)) = Е|Х„-Х0|Г->0. Функционал д(Х, У) = (д„(Х, y))V«nin(i,p) является вероятностной метрикой, принимающей конечные значения в множестве Эгр = {Х:Е\\Х\\р <<*>). С Ки Фан метрикой К(Х, Y) метрику (X связывает неравенство К(Х, У)^(ц(Х, у))(ир)/тЫир\ Случай р = 2 соответствует сходимости в среднем квадратичном. В. В. Петров. СХОДИМОСТЬ вполне (complete convergence), сходимость полная, - сходимость в множестве Ж всех ограниченных и неубывающих функций Н(х) на II? , Я(-°°) = 0, определяемая следующим образом. Пусть HQ, Hv ... &Ж\ говорят, что Нп сходится вполне к Н0(х) при я-><*>, если Нп(х) сходится к HQ(x) в каждой точке непрерывности функции #0 и» кроме того, #„(<*>) ->Я0(°°). Полная С. последовательности функций распределения Fn(x) к функции распределения FQ(x) равносильна слабой сходимости Fn к F0. Этот вид С. метризуется Леей метрикой, определение к-рой переносится на случай функций из Ж. Аналогом критерия слабой относительной компактности (см. Слабая сходимость) для множеств ^с= ж относительно полной С. является условие 4li>rrfw*)://4- • 0, Г- 718 СХОДИМОСТЬ Лит.: [1] Гнеденко Б. В., Колмогоров А. Н., Предельные распределения для сумм независимых случайных величин, М.-Л., 1949; [2] Лоэв М., Теория вероятностей, пер. с англ., М., 1962. В. М. Золотарев. СХОДИМОСТЬ интегральных функционалов (convergence of integral functionals) - см. Сходимость распределений функционалов интегрального типа. СХОДИМОСТЬ моментных характеристик распределений (convergence of moment distribution characteristics) - сходимость интегралов j q(x)Fn(dx), называемых моментными характеристиками Fn, к интегралу J y(x)Fn(dx), где F, Fn, n=\, 2, ...,- вероятностные распределения на нек-ром измеримом пространстве (X, .^/), у(х) - интегрируемая по этим распределениям функция. В основе утверждений о сходимости моментных характеристик сумм независимых случайных величин лежит следующая теорема. Пусть X - сепарабельное гильбертово пространство с боре- левской а-алгеброй .</. И пусть последовательность сверток ^л~ПГ-1*^"*' п=^> 2, ..., симметричных вероятностных распределений на (X, .-/), слабо сходится к вероятностному распределению F и ф - непрерывная положительная функция, определенная на X, удовлетворяющая условиям: она интегрируема по каждому вероятностному распределению Fnk и у(х + у) ^Ау(х) у(у) для всех .г и у и нек-рогоЛ. Для того чтобы - е lim bWrfFnU)=bW№), необходимо и достаточно, чтобы Взяв в качестве ф функции 1 + 1ЫК р>0, и ехр {а|Ы1 }, а>0, 0<Р^ 1, где ||*|| - норма х> получают необходимые и достаточные условия сходимости моментов и экспоненциальных моментов. Лит.: [1] Круглое В. М., Дополнительные главы теории вероятностей, М., 1984. В. М. Круглое. СХОДИМОСТЬ по вариации (convergence in variation) - один из видов сходимости распределений, определяемый следующим образом. Пусть (U, .</) - измеримое пространство и Р0, Р|„ ... - последовательность вероятностных распределений, заданных на.«/. По определению, Рп сходится по вариациикР0 при п -> °°, если она сходится к Р0 в смысле полной вариации метрики, то есть а(Р„, P0) = suP{|P„U)-P0U)|Me^}->0. (*) Это условие равносильно стремлению к нулю вариации var(P,2-P0) = (P„-P0)+(t/) + (Pn-P0)~(t/), где (РП-Р0)+(Л), (Р„-Р0)~(Л)- компоненты разложения Жордана - Хана заряда (Рп - Р0)(Л), А е Л. Если l/ = R и распределения Рп> п = 0, 1, ..., имеют плотности рп, то (*) равносильно соотношению jc \pn(u)-pQ(u)\du->Q, г?-><*>. Лит.: [I] Лоэв М., Теория вероятностей, пер. с англ., М., 1962. В. В. Петров. СХОДИМОСТЬ по вероятности (convergence in probability) - специальный случай сходимости случайных величин, широко используемый в теории вероятностей. Пусть Х0, Xj, ...- последовательность случайных величин; заданных на одном вероятностном пространстве (Q, .</, Р). Говорят, что Хп сходится по вероятностикХ0 при п -> °°, и пишут Хп А Х0, если для любого е > 0 Р{\Хп-Х0\>£}^>0,п^оо.
Это! вид С. метризуется Ки Фан метрикой и соответствует в математич. анализе сходимости по мере. в. в. Петров. СХОДИМОСТЬ по мере (convergence in measure) - один из видов сходимости измеримых функций. Именно, пусть iX, I, ц) - пространство с мерой (то есть X - множество, I - нек-рая а-алгебра его подмножеств, на к-рых задана мера ц), [P = [P(J{+°o}(J {-00} ^расширенное множество действительных чисел, a fn:X->№, n>\,- последовательность почти всюду конечных и измеримых функций. Последовательность fn, п ^ 1, называется сходящейся по м е р е ц на множестве Л(ЛсХ,ЛеХ), если найдется такая измеримая функция /": X -> В?, что для любого е > О lim iL{xeA:\fn(x)-f(x)\>E} = 0. (I) Если соотношение (1) имеет место при А-Ху то последовательность (/"„, п^ 1) более кратко называется сходящейся по мере. В этом случае также говорят, что последовательность /"„, я^1, сходится по мере ц к функции f, и | обозначают указанную сходимость следующим образом: I Предел f конечен почти всюду и единствен с точностью до эквивалентности (относительно меры ц). Последовательность fn, п^\, называется фундаментальной по мере, если для любого е> О lim sup li{xeX:\fn+m(x)-fn(x)\ ^e} = 0. С по мере играет важную роль при изучении топологич. структуры пространства измеримых функций и тесно связана с другими видами сходимости. 1) Если ц(X) < <», то сходимость почти всюду к почти всюду конечной функции влечет С. по мере к той же самой предельной функции. Если ц(Х)~<», то сходимость почти всюду (и даже всюду), вообще говоря, не влечет эа собой С. по мере. При ц(Х) = <» С. по мере иногда определяют как С. по мере на всех множествах А <= Х> А е£, ц(Л)<°°. 2) Если последовательность сходится ио мере, то из этой последовательности можно выбрать подпоследовательность, к-рая сходится к той же самой предельной функции почти всюду. 3) С. по мере и фундаментальность по мере эквивалентны между собой. 4) Сходимость в среднем порядка р>0 влечет за собой С. по мере к той же самой предельной функции. 5) С. по мере согласована со сложением функций и умножением функций на скаляры, то есть согласована со структурой векторного пространства измеримых функций. Более того, если S(Xу I, ц) - совокупность классов эквивалентных между собой измеримых функций и мера ц является а-конеч- ной, то S(X, 1, ц) есть полное топологич. метризуемое векторное пространство, в к-ром сходимость относительно метрики совпадает со С. по мере. Соответствующая метрика может быть введена различными способами (см. [2], [3]). Если мера ц не дискретна, то пространство SiX, I, д) не является локально выпуклым (следовательно, оно не нормируемо). Пространство SiX, I, ц) сепарабельно, если а-алгебра I имеет счетный базис. Метризация сходимости по мере в пространстве измеримых функций на отрезке [0, 1] была впервые осуществлена М. Фреше [5]. I Аналогично случаю действительнозначных измеримых функций вводится определение С. по мере и для измеримых отображений, принимающих значения в измеримых метрич. пространствах. В частности, для сепарабельных банаховых I пространств все основные свойства С. по мере сохраняются (см. [3], [4]). В теории вероятностей понятию С. по мере соответствует понятие с ходимости по вероятности. Лит.:[\\ Колмогоров А. Н., Фомин С. В., Элементы теории функций и функционального анализа, 6 изд., М., 1989; [2} Канторович Л. В., Акилов Г. П., Функциональный анализ, 2 изд., М., 1977; [3] Данфорд Н., Шварц Дж., Линейные операторы. Общая теория, пер. с англ., ч. 1, М., 1962; [4] Бурбакн Н., Интегрирование. Меры на локально компактных пространствах. Продолжение меры. Интегрирование мер. Меры на отделимых пространствах, пер. с франц., М., 1977; [5] Frechet M., «Bull. Calcutta Math. Soc», 1921, v. It, p. 187-206. В. В. Булдыгин. СХОДИМОСТЬ по распределению (convergence in distribution/law) - один из видов сходимости случайных величин. Если Х0> Хх, ...- последовательность случайных величин с распределениями Р0, P|f ..., то под С. по распределению обычно понимают слабую сходимость Рп к Р0 при я -► °°. Однако С. по распределению можно понимать и шире, если не ограничиваться одной только топологией слабой сходимости. В. В. Петров. СХОДИМОСТЬ полная (complete convergence) - см. Сходимость вполне. СХОДИМОСТЬ почти наверное, сходимость с вероятностью 1 (almost surely convergence/convergence with probability 1), - один из видов сходимости случайных величин, определяемый следующим образом. Пусть iU, **/) - измеримое пространство и Xq, Xv ...- последовательность случайных величин, заданная на одном вероятностном пространстве Ф, .^, Р), принимающих значения из U. Говорят, что последовательность Хп сходится почти наверное к Х0 при я -> <», и пишут Хп -> Х0, если Р{со:Х„(со)->А'0(со)} = 1. (•) Соотношение (*) равносильно любому из следующих утверждений (для любого е>0): А) Р{со: |Xn(a))-X0(co)| >е для бесконечного множества значений я} - 0; В)Р{»:иж>в|Х.(»)-Х0(а>)|>е)-»0|я-»«-; С) P{(u:sup"\Xn((o)-Х0(ш)|3=е} ->0, п->•«. В математич. анализе С. почти наверное соответствует С. почти всюду. В теории вероятностей известно одно усиление С. почти наверное, называемое сходимостью почти наверное в узком смысле. Введенный Г. Роббинсом (G. Robbins) и П. Л. Хсу (P. L. Hsu) этот вид С. Хп к Х0 при n-><» определяется условием ]Г=1 Р{со: \ХпШ -> Х0(ш)| >г) <~ для любого е>0. Ни С. почти наверное, ни С. почти наверное в узком смысле не метризуются. Лит.: [1] Лоэв М., Теория вероятностей, пер. с англ., М., 1962; [21 Дюге Д., Теоретическая и прикладная статистика, пер. с франц., М., 1972. В. В. Петров. СХОДИМОСТЬ распределений (convergence of distributions) - частный случай понятия сходимости случайных величин, соответствующий разбиению множества аГвсех случайных величин 9С на классы эквивалентности, объединяющие величины X с одним и тем же распределением Рх. Если XQ, Хх, ... €£*'имеют распределения Р0, Pj> ..., то С. распределений означает сближение в определенном смысле Рп с Р0 при я->оо. Если рассматриваемая С. Рп -> Р0 метризуется метрикой ц в ЗС, то д(Х, У) представляет собой функционал, СХОДИМОСТЬ 719
заданный на множестве пар (Рх, Ру) распределений величин Ху У, и эта С. равносильна соотношению |i(Хп, Х„) = Ц(Р„, Р0) -» О, Хп б а> {X: Р* = PXJ. В теории вероятностей традиционно используется большое число различных типов С. распределений - слабая сходимость, равномерная сходимость, сходимость по вариации, средняя сходимость с весом и др. Метрич. интерпретация С. распределений имеет то преимущество, что позволяет ставить вопрос о скорости сближения в рассматриваемой С. распределений Рп к Р0 (см., напр., Берри - Эссеена теорема) и создает основу для различных аналитич. методов, используемых в теории предельных теорем, теории устойчивости стоха- стич. моделей и др. Лит.: [1} Биллингсли П., Сходимость вероятностных мер, пер. с англ., М., 1977; [2j Золотарев В. М., Современная теория суммирования независимых случайных величин, М., 1986. В. М. Золотарев. СХОДИМОСТЬ распределений в среднем с весом (convergence of distributions in the weighted mean) - см. Средняя сходимость с весом. СХОДИМОСТЬ распределений равномерная (uniform convergence of distributions) - см. Равномерная сходимость распределений. СХОДИМОСТЬ распределений функционалов интегрального типа (convergence of distributions of integral type functionals) - слабая сходимость распределений в пространстве с а-топологией, порожденной интегральными функционалами (она же - /-сходимость случайных процессов, где 9— класс функционалов интегрального типа). Пусть X(t) - измеримый случайный процесс и (Хп(0), t е [О, 1],~ последовательность измеримых случайных процессов, сосредоточенных с вероятностью 1 на пространстве ограниченных измеримых функций М(0, 1) на отрезке [0, 1]. Пусть 9 - класс всех функционалов вида f(x)=f0v(x(t))dtt где ф - непрерывная функция на IP. Для того чтобы имела место ^-сходимость Хп к X (с х о д и - мость интегральных функционалов), необходимо и достаточно, чтобы: 1) для любой непрерывной на IP функции ср и любого е > О lim lim sup P i f q>(XAt))dt>e\ = 0, 2) существовали не более чем счетное множество чисел D и всюду плотное в IP\D множество S такие, что для любого т "J" Jo -Jo р{П;"=1 ВД> <u,))dtx...dtm~ для любых Ht, ..., umeS. Лит.: [1J Боровков А. А., Печерский Е. А., «Сиб. матем. ж>, 1975, т. 16, № 5, с. 899-915; [2J Боровков А. А., «Успехи кматем. наук», 1976, т. 31, в. 2, с. 3-68. Е.А. Печерский. СХОДИМОСТЬ рядов случайных величин (convergence of series of random variables) - на языке анализа и теории функций то же самое, что и сходимость рядов действительных измеримых функций Xt(co) + X2(co) + ..., (1) заданных на каком-либо измеримом пространстве (Q, 85) с заданной на нем вероятностной мерой Р, то есть сходимость 720 СХОДИМОСТЬ в нек-ром смысле частных сумм 5„((о) = Х{((й) + ... + Хп(со) к какой-либо измеримой функции У(со) на (ft, 85). Наиболее употребительными в теории вероятностей являются следующие виды С. 1. Сходимость с вероятностью 1 (почти наверное по отношению к мере Р): Р{й):5„(й))->У(со), л->~}=1. 2. Сходимость по вероятности: для каждого е >0 Р{со:|5„(со)-У(со)|>е}->0, л->~. (2) Этот тип топологии сходимости реализуется Ки Фан метрикой, то есть (2) равносильно сходимости K(Sn, У)->0, л->оо. 3. Слабая сходимость (по распределению) Fn(x) = Р{ю:5„(со) <х) -> G(x) = Р{со: У(со) <х} (3) для каждого х, являющегося точкой непрерывности G. Топология слабой сходимости реализуется Леей метрикой, то есть (3) равносильно сходимости L(Fn, G) ->0, п->°°. Для рядов независимых случайных величин все три типа С. эквивалентны (см. [1]). Необходимые и достаточные условия С. таких рядов дает доказанная А. Н. Колмогоровым трех рядов теорема. В отличие от числовых рядов сходящийся ряд (1) может быть перестановочным (то есть таким, что любое изменение порядка слагаемых не меняет его значения), но не обязательно абсолютно сходящимся. Пример перестановочного, но не абсолютно сходящегося ряда дает выбор таких независимых случайных величин, что P{Xk=\/k} = P{Xk=-\/k}=\/2. Известен критерий С. ряда независимых случайных величин (1) в терминах индексов Д(Ху), центров (любых) СГ(Х;) и разбросов В,(Х;) (тяжелых) случайных величин, состоящий в выполнении следующих условий: A = inf(A(X;):;>l)>0 для нек-рого 0< г< Д [выбор такого г обеспечивает существование СГ(Х;) и ВГ(Х;) при всех/}; сходятся ряды Cr(X,)+Cr(X2) + ... и ВГ(Х<) + ВГ(Х2) + ... Если заменить условие С. ряда из центров на условие его абсолютной С, получается критерий С. и перестановочности I ряда (см. [2]). Лит.: [1] Феллер В., Введение в теорию вероятностей и ее приложения, пер. с англ., т. 2, М., 1984; [2] Золотарев В М., Современная теория суммирования независимых случайных величин, М., 1986. В.М.Золотарев. СХОДИМОСТЬ с вероятностью 1 (convergence with probability 1) - см. Сходимость почти наверное. СХОДИМОСТЬ слабая (weak convergence) - см. Слабая сходимость. СХОДИМОСТЬ случайных величин (convergence of random variables) - одно из основных понятий, используемых в теории вероятностей и прежде всего в предельных теоремах. Пусть #"={Х(со)} - множество всевозможных величин, заданных на одном вероятностном пространстве (Q, Л, Р) и принимающих значения из нек-рого измеримого пространства (U, .Я). С. функций X„(co)g#' к функции Х0(со)€#*при п -» оо можно понимать в разном смысле, что соответствует различным типам С. случайных величин. В теории вероятностей в ходе решения конкретных проблем сложилась традиция использования определенных типов С. случайных величин, имеющих ту общую особенность, что I случайные величины из Ж разбиваются тем или иным спосо-
бом па классы эквивалентности, к-рые затем в соответствующем виде С. выступают в качестве самостоятельных элементов. Наиболее употребимы следующие два способа разбиения: X, Y е &' относятся к одному классу эквивалентности, если А)Р{со:Х(со) = У(со)} = 1; Б) Р{со:Х(со) еЛ) = Р{со: У(со) еА}, Ле^ С первым способом связаны такие, напр., С. случайных величин, как сходимость почти наверное, сходимость по вероятности, сходимость в среднем порядка р, а со вторым - весьма обширная группа С. случайных величин, примерами к-рой могут служить слабая сходимость, равномерная сходимость, сходимость по вариации и др. (см. Сходимость распределений). Как правило, используемые типы С. случайных величин метризуются. Это означает, что рассматриваемой С. случайных величин Хп(со) -»Х0(со) можно сопоставить вероятностную метрику ц в .#; для к-рой эта С. эквивалентна сходимости |i(Xn, Х0) -> 0. Вместе с тем есть и неметризуемые С. случайных величин, напр. сходимость с вероятностью 1. В классификации вероятностных метрик разбиение Б) отвечает простым метрикам, в то время как сложные метрики используют другие разбиения. Родственным С. случайных величин является понятие сближения случайных величин, формируемое на основе двух последовательностей случайных величин Хп, Уп е d\ Оно связывается с определенным типом С. случайных величин и в случае ее метризуемости метрикой ц означает, что ц(Хп, Уп)-»0, а в случае неметризуемости связывается со стремлением к нулю в смысле этой сходимости разности Хп(со) - У„(со). Метрики ц и v в J\ эквивалентные в смысле С. случайных величин, могут не быть эквивалентны в смысле сближения случайных величин. Такими метриками являются, напр., Леей метрика L и Леей - Прохорова метрика к, поскольку L ^ к, но не существует неубывающей функции у(х) на полуоси х>0 такой, чтоу(0)=у( +0) = 0 и тг^у(1) (см. Вероятностных метрик сравнение). Лит.: [II Золотарев В.М., в сб.: Проблемы устойчивости стохастических моделей, М., 1988, с. 48-52; [21 Ротарь В. И., «Теория вероятн. и ее примен.», 1975, т. 20, в. 3, с. 527-46. В. М. Золотарев. СХОДИМОСТЬ типов (convergence of types) - см. Типов сходимость. СХОДИМОСТЬ эмпирических мер и эмпирических процессов (convergence of empirical measures and processes) - центральная предельная теорема и инвариантности принцип, распространенные на нормированные эмпирические распределения и моменты. Пусть (#; .с/) - произвольное измеримое пространство, Рп - эмпирич. распределение, построенное по выборке объема п с распределением Р на ^. Эмпирический процесс, заданный на нек-ром параметрич. множестве f={f) интегрируемых в квадрате измеримых функций f: (,и)\ ..</, Р) -> IP, определяется по формуле Y„(f) = n*/2[r f(x)(Pn - PKdx), fe J. Сужение Yn(f) на множество индикаторов {/^(О; Ае&}, Л с .*/, называется эмпирической мерой: ця04) = я1/2(Ря04)-Р04))>ЛбЛ В силу многомерной центральной предельной теоремы конечномерные распределения {Yn(f); fef} при я—»°° слабо сходятся к конечномерным распределениям гауссовского процесса {Z(f)\ fef} с нулевым средним и ковариацией EZ(f)Z(g)=\rf(x)g(x)P(dx)- Последовательность {Уп()} удовлетворяет центральной предельной теореме равномерно по классу ./, если при каждом п случайные процессы У„( •) и Z( •) можно так задать на одном вероятностном пространстве, что для любого е>0 Нш Рг { sup | Yn(f) - Z(f) | > е} = 0, (2) л->~ fe.f где Рг - внешняя вероятность [супремум в (2) может не быть случайной величиной]. В ряде задач возникает необходимость гауссовской аппроксимации «траекторий» вида {Yk(); k^n}. Поэтому полезно иметь следующую эквивалентную переформулировку (2). Говорят, что для последовательности {Уп()} имеет место равномерный по ./принцип инвариантности, если на одном вероятностном пространстве можно задать последовательность эмпирич. процессов {УП(-)Ь а также независимые центрированные гауссовские процессы {Z;()} с ковариацией (1), для к-рых lim Pr{max sup \k]/2Yk(f)- -£*=1Z//-)|>eH1/2} = 0. (3) Если супремум в (2) и (3) при всех п будет случайной величиной, то С. эмпирич. мер и эмпирич. процессов может быть сформулирована в терминах слабой сходимости распределений в соответствующих функциональных пространствах (см. [1]-[3]). Из (2) и (3) следует слабая сходимость распределений для достаточно широкого класса функционалов от У„(0 или от набора {Yk(>); k^n}. В терминах нек-рых энтропийных характеристик класса ./ получены необходимые и достаточные условия для выполнения (2) и (3) (см. [Ц-[7]). Пусть //^(е, £, P) - логарифм минимального числа (если оно существует) Р-интегрируемых функций {/)} (не обязательно из J), удовлетворяющих условиям: для любой fe/ найдутся функции /"• , /) из указанного конечного семейства, для к-рых fit(x)<f(x)<fi2(x), lr(fi2(x)-fi(x))P(dx)^E. Если функции из ./равномерно ограничены и J*tf//2(e2,*P)de<oo, то (2) и (3) имеют место (см. [2], [5]). Если & есть Вапника - Червоненкиса класс множеств, то в определенных условиях измеримости {\in(A); AgjB} удовлетворяет (2) и (3) при любом Р (см. [1], [2]).. Лит.: [1] Dudley R. M., «Ann. Probab.», 1978, v. 6, p. 899-929; [2] его же, «Lect. Notes in Math.», 1984, № Ю97, p. 1-141; [3] Кол ч и некий В. И., «Теория вероятн. и матем. статистика», 1981, т. 24, с. 63-75; [4] Gine E., Zinn J., «Ann. Probab.», 1984, v. 12, № 4, p. 929-89; [5] Борисов И. С, «Сиб. матем. ж.», 1983, т. 24, № 6, с. 14-25; {6] его же, «Тр. Ин-та матем.», Новосиб., 1985, т. 5, с. 3-27; [71 Ossiander M., «Ann. Probab.», 1987, v. 15, № 3, p. 897-919. И. С. Борисов. С-СХОДИМОСТЬ случайных процессов (C-conver- gence of stochastic processes) ~ вид сходимости распределений случайных процессов, когда предельным является процесс с непрерывными траекториями. Пусть {Xn(t)} - последовательность случайных процессов, заданных на конечном отрезке [а, Ь], с траекториями из нек-рого функционального пространства R[a, 6]=? С[а, Ь] и распределениями на нек-рой а-алгебре ^, содержащей все цилиндрич. множества пространства R[a, b]. Последовательность {Xn(t)} С-сходится к процессу X(t), имеющему с вероятностью 1 непрерывные траектории, если для любого ^-измеримого функционала fix) -\rf(x)P(dx)\rg(x)P(dx). (1) СХОДИМОСТЬ 721
на R[a, b], непрерывного в равномерной топологии в точках хеС[а> Ь]> распределения f(Xn) слабо сходятся к распределению f(X) (см. [1]). Примером С-с. случайных процессов может служить сходимость эмпирич. процессов на прямой к предельному гауссовскому процессу с непрерывными траекториями (см. [2]). Лит.: [1] Боровков А. А., Асимптотические методы в теории массового обслуживания, М., 1980; {2] его же, Математическая статистика, М., 1984. И. С. Борисов. D-СХОДИМОСТЬ случайных процессов (D-conver- gence of stochastic processes) - вид сходимости распределений случайных процессов, когда предельным является процесс с траекториями из пространства функций без разрывов 2-го рода. D-c. случайных процессов определяется аналогично С-сходимости случайных процессов. Лит.: [ 1 ] Боровков А. А., Асимптотические методы в теории массового обслуживания, М., 1980. И. С. Борисов. ^-ООДИМОСТЬ распределений (^convergence of distributions) - см. Предельные теоремы для случайных процессов. ^-ООДИМОСТЪ случайных процессов (^convergence of stochastic processes) - слабая сходимость распределений заданного класса J функционалов от случайных процессов. Пусть J— класс измеримых функционалов, заданный на измеримом пространстве (ЭС> Л) со значениями в IR. Если X - случайный элемент со значениями в (d\ &)> то для каждого функционала fe& возможно определить функцию распределения F'x(t) = P{f(X) < t). Пусть (Х0) - сеть случайных элементов со значениями в (JT, ЗВ). Сеть (Х0) /-сходит- ся к случайному элементу X, если для каждого /*е./функция распределения Fx слабо сходится к F'x. В частности, когда Х0 и X - случайные процессы, роль (,#; Л) играет пространство траекторий (функций) на И?, а роль./- класс функционалов на траекториях. Если на ,чГ задана топология и ./ совпадает с классом всех непрерывных функций, то ^сходимость эквивалентна слабой сходимости случайных процессов. Лит.: [1] Боровков А. А., «Успехи матем. наук», 1976, т. 31, в. 2, с. 3-68; [2] Биллингсли П., Сходимость вероятностных мер, пер. с англ., М., 1977. Е. А. Печерский. {^СХОДИМОСТЬ (G-convergence) - см. Усреднения принцип для дифференциальных операторов со случайными коэффициентами. СЧЕТНАЯ ЦЕПЬ МАРКОВА (countable/denumerable Markov chain) - 1) С.ц. М. в широком смысле - марковский процесс со счетным множеством состояний. 2) С. ц. М. в узком смысле - однородная Маркова цепь со счетным множеством состояний. Свой исток теория С. ц. М. берет, как и вся теория зависимых случайных испытаний и величин, с серии работ А. А. Маркова по конечным цепям (см. [1], [2]). Изучение цепей со счетным множеством состояний было начато в 1936-37 А. Н. Колмогоровым (см. [4], [5]). Теория С. ц. М. выросла в наиболее изученную главу общей теории цепей Маркова и получила разнообразные применения в различных областях науки и техники (см. [6]-[10]). Вероятностный механизм, определяющий эволюцию счетных и конечных (то есть имеющих конечное множество состояний) цепей Маркова, описывается, в первую очередь, с помощью (одношаговых) переходных вероятностей pijt где i и / - точки пространства состояний Е рассматриваемой цепи. Если Е конечно, то его чаще всего отождествляют с множеством {0, 1, ..., N) или {1, ..., N), где N - натуральное число, а если Е счетно, то - с множеством {0, 1, ...} или {1, 2, ...}. При 722 СЧЕТНАЯ известном начальном распределении, то есть при известных вероятностях V;=P{X0 = i}, ieE, вероятности событий вида A„ = {X0 = i0 Xn-in} - а по этим событиям восстанавливается вся эволюция цепи - находятся из равенства P{AB} = v,-o д^.../^ Нл, где {Х0, Xj, ...} - траектория данной цепи. Таким образом, Р{Хп- in|A„-t} =p, ,, коль скоро P{A„_t}^0, n>\. "~{п Из вероятностей р{: формируется переходная матрица Р= 1р{Л, являющаяся в зависимости от конечности или бесконечности Е конечной или бесконечной стохастич. матрицей. Колмогорова - Чепмена уравнение Pij(m + n)-^k&Epik(m)pkj(n)> т,п^\, в к-ром Pij(n) - вероятность перехода из i в ; за п шагов позволяет записать матрицу ||^|;(и)|| в виде Р". Непосредственное нахождение матрицы Рп при всех значениях я=1, 2, ..., как правило, оказывается невозможным, и обычно и в теоретических, и в прикладных исследованиях основные усилия направляются на описание асимптотич. поведения Р" при я-><*>. При этом в основу положена принадлежащая А. Н. Колмогорову классификация состояний цепи (см. Маркова цепь; классификация состояний). Существенную информацию дают также предельные теоремы для цепей Маркова. Хотя при работе со С. ц. М. и особенно с конечными цепями нек-рые авторы культивируют чисто алгебраич. технику (см., напр., [6]), наибольший успех обычно достигается при сочетании алгебраических и вероятностных методов (см. [7]-[10]). Пример 1. Пусть множеством состояний цени служит набор {0, 1, ..., Ю и пусть цепь соответствует случайному блужданию по указанным состояниям, причем состояния 0 и N являются поглощающими, а из каждого состояния 1 (0 < i < N) на следующем шаге осуществляется переход либо в i+1 с вероятностью Pifi+\-p, где ре (0, 1), либо в 1-1 с вероятностью pii_i-q=\-p. Оказывается, что lim р;.(я) = 0 при любых i, если 1^/^N-l. Пределы at= Hm piQ(n) и pf= iim p^in) также существуют, причем at + pj = 1. Если р - q - 1/2, то а, = 1 - iN'K Если р ^ 1/2, то аг = (уЛ/-у1)(уЛ/-1)"1,гдеу=^"1 (O^i^tf). Пример 2 (серии успехов). Пусть С. ц. М. с состояниями О, 1, ... имеет переходные вероятности p^-q{ и р± l+1 = 1 - qv где q{e (О, 1), a i^O, и пусть pt; = 0 в иных случаях. Если каждую смену состояния i состоянием i + 1 или 0 соответственно интерпретировать как наступление «успеха» или «неудачи» при нек-рых испытаниях, то пребывание цепи на я-м шаге в состоянии i ^ 1 означает появление к этому моменту ровно i успехов после последней неудачи (в предположении, что неудачи уже случались). Данная цепь возвратна (см. Возвратная цепь Маркова) тогда и только тогда, когда Y. ^| = °°, где Pi=\- q{. В этом случае она имеет финальные вероятности Kj= Iim Pij(n), к-рые находятся из соотношений £.я = 1 и */e*oPoPi---ty-i при/^1. Лит.: [1] Марков А. А., «Изв. физ.-матем. об-ва Казан. }н-та», 1906, т. 15, № 4, с. 135-56; [2] его же, «Изв. Петерб. АН», 1907, т. 1, № 3, с. 61-80; [3] его же, Исчисление вероятностей, 4 изд., М., 1924; [4] Колмогоров А. Н., Теория вероятностей и математическая статистика, М., 1986, с. 173-78; [5} его же, тлм же, с. 183-97; [6) Романовский В. И., Дискретные цепи Маркова, M.-JL, 1949; [71 Феллер В., Введение в теорий» вероятностей и ее приложения, пер. с англ., т. 1, М., 1984; [81 Гихман И. И., Скороход А. В., Теория случайных процессов, т. 1, М., 1971; [9| Си- раждинов С.Х., Форманов Ш. К., Предельные теоремы для сумм случайных векторов, связанных в цепь Маркова, Таш., 1979; [10] Баруча-Рид А. Т., Элементы теории марковских процессов и их приложения, пер. с англ., М., 1969; [11] Кемени Дж., Снелл Дж., Кнепп А., Счетные цепи Маркова, пер. с англ., М., 1987. М. Г. Шур.
СЧЕТНО-АДДИТИВНАЯ ФУНКЦИЯ МНОЖЕСТВ (со untably additive set function/a-additive set function) - функция, определенная на нек-ром классе множеств и обладающая свойством счетной аддитивности (то есть свойством аддитивности для счетного числа слагаемых). Говоря точнее, пусть К - нек-рый класс множеств, a G - коммутативная топологич. группа, взятая в аддитивной записи (это означает, что групповая операция в G обозначается символом +). Функция |i:K->G называется счетно-аддитивной, если, каково бы ни было (не более чем) счетное дизъюнктное семейство (Х,),е/ элементов из класса К, объединение к-рых также принадлежит классу К, имеет место равенство При этом сходимость ряда, стоящего в правой части равенства, понимается в обычном смысле (как сходимость по фильтру Фреше в множестве /, порождаемому дополнениями конечных подмножеств в /). Из определения непосредственно вытекает, что указанный ряд сходится коммутативно (безусловно), и следовательно, если группа G представляет собой конечномерное нормированное векторное пространство над полем действительных чисел, то указанный ряд сходится абсолютно. В том случае, когда G совпадает с действительной прямой П?, часто рассматривают С.-а. ф. м., принимающие и бесконечные значения. При этом, однако, требуют, чтобы каждая такая функция принимала бесконечные значения лишь одного знака (либо ТОЛЬКО +оо( ЛИбо ТОЛЬКО -оо). Очевидно, что всякая С.-а. ф. м. одновременно является и конечно-аддитивной функцией множеств. Обратное, вообще говоря, неверно. В различных областях математики весьма важную роль играют числовые счетно-аддитивные функции, задаваемые на кольцах и алгебраич. множеств (соответственно на а-кольцах и а-алгебрах множеств). Такие функции часто называются зарядами (обобщенными мерами, знакопеременными мерами). Важнейшим частным случаем понятия С.-а. ф. м. служит понятие меры. Лит.:[\\ Прохоров Ю. В., Розанов Ю. А., Теория вероятностей. Основные понятия. Предельные теоремы. Случайные процессы, 3 изд., М., 1987; [2] Халмош П., Теория меры, пер. с англ., М., 1953; [3) Гихман И. И., Скороход А. В., Введение в теорию случайных процессов, 2 изд., М., 1977. А. Б. Харазишвили. СЧЕТНОГО ТИПА а-АЛГЕБРА (а-algebra of countable type) - см. о-Алгебра множеств. СЧЕТНЫЙ ВЕРОЯТНОСТНЫЙ АВТОМАТ (countable probabilistic automaton) - см. Вероятностный автомат. СЧИТАЮЩАЯ МЕРА точечного процесса (counting measure of a point process) - см. Случайная мера. СЧИТАЮЩИЙ ПРОЦЕСС (counting process) - заданный на полуоси 0^t<°° случайный процесс X(t) такой, что Х(0)=0, X(t) = const между любыми своими двумя последовательными точками разрыва tk_^ и tk, а в каждой точке разрыва tk значение Х(0 увеличивается точно на единицу [так что X(t) при всех t принимает целые неотрицательные значения]. Последовательность {tk} точек разрыва процесса X(t) представляет собой нек-рый точечный случайный процесс на полуоси t^O, однозначно определяющий и сам X(t). Важными частными подклассами класса всех С. п. является подкласс пуассоновских процессов, для к-рых {tk} - это пуассоновская последовательность точек (то есть разности tk-tk-.s, где £ = 0, k=\, 2, ..., образуют последовательность независимых случайных величин с одним и тем же экспоненциальным распределением вероятностей) и более общий подкласс восстановления процессов, для к-рых разности tk-tb-\- это взаимно независимые случайные величины с одним и тем же (вообще говоря, произвольным) распределением вероятностей. С. п. часто возникают в тех приложениях, в к-рых приходится иметь дело с нек-рыми событиями, происходящими в случайные моменты времени tk, и представляет интерес общее число таких событий, имевших место до момента времени t\ в частности, процесс восстановления X(t) часто с хорошей точностью описывает число замен (или ремонтировании) нек-рого агрегата за время t. В нек-рых случаях С. п. удобно распространить на всю ось -оо<£<оо так, что на полуоси t<0 он принимает целые отрицательные значения, но также постоянен между последовательными случайными точками разрыва tk, k= -1, -2, ..., в каждой из к-рых возрастает на единицу; в таком случае процесс X(t), где -«> <£<«>, также называется С. п. См. также Точечный процесс. А. М. Яглом.
ТАУБЕРОВЫ ТЕОРЕМЫ (Tauberian theorems), теоремы тауберова тип а,- совокупность утверждений, к-рые могут быть интерпретированы как определение асимптотики какой-либо функции по ее преобразованию Лапласа. Т. т. являются обратными по отношению к Абеля теоремам. Термин «Т. т> принадлежит Г. Харди (G. Hardy) и Дж. Литлвуду (J. Littlewood), а первая теорема такого рода принадлежит А. Тауберу (см. [1], а также ниже пример 2). Пример 1. Пусть а > 0 и 5 > 0. Имеет место равенство ^e-sxxa-{dx = na)/sa. Пусть f(x) - неотрицательная функция, абсолютно интегрируемая на любом конечном интервале, преобразование Лапласа к-рой L(s)=j~e~sxf(x)dx определено при любом s>0. Известно, что при si О L(s)~T(a)/sa. (1) Спрашивается, что можно сказать о поведении f(x) при х—►«>. При дополнительном предположении, что f монотонна, из (1) следует соотношение f(x)~xa-\x-+o*. (2) Если же это дополнительное условие не выполнено, то можно лишь утверждать, что при х —> <» J* f(u)du~fQ ua-*du = xa/a. (3) Эти два утверждения представляют собой пример Т. т. Пример 2. Пусть причем ряд в правой части сходится при Ы < 1. Пусть известно, что при гТ 1 , \ * /,ч дКг)-+А. (4) Если ап неотрицательны, то из (4) следует, что ряд £ ап сходится и его сумма равна А. Пример функции 9W = 1/(1 + ,) = ^=o(-l)V показывает, что без всяких ограничений на последовательность коэффициентов ап сходимость ряда V ап может не иметь места [в первоначальной теореме Таубера о степенных рядах было использовано предположение пап = о(\)]. Связь примера 2 с примером 1 может быть установлена следующим образом. Полагая z = e~s для 0<г< 1 и вводя при х ^ 0 функцию G(x) равенством можно записать исходное предположение в виде: при slO f(e-°) = sj~e-sxG(x)dx-+A. 724 ТАУБЕРОВЫ В соответствии со сказанным в примере 1 (при неотрицательных ап) G(x) -+А при х —> оо, что и означает сходимость ряда ^апкА. Т. т. и их применение в теории вероятностей детально обсуждаются в [2], гл. 13. Во введении к этой главе справедливо сказано, что основная Т. т. «с полным правом» рассматривалась как «жемчужина математического анализа». Уместно отметить, что доказательство так наз. «асимптотического закона распределения простых чисел» опирается на одну из Т. т. (см. [3]). Доказательства Т. т. представляются обычно весьма сложными. Одна из возможностей прийти к более ясному их пониманию состоит в использовании понятия слабой сходимости мер. Так, в условиях примера 1 это можно сделать следующим образом. Записывая исходное предположение в виде: при s -► О J~ e~sxf(x)dx - J~ e-°xxa-ldx, (5) полагая в нем sx-(m+ 1)/и, где т - фиксированное неотрицательное целое число, а и-»«>, и заменяя переменную х на переменную и по правилу е~х'п-и (то есть # = и1п \/и), как следствие получают утверждение: при любом w = 0, 1, 2, ... и fQu'nPn(du)-+fQu'nP(du). (6) Здесь Р„ и Р - конечные меры на отрезке [0, 1 ] с плотностями, равными соответственно (\/na~X)f(n In \/u) и (1п1/м)а~1. Из сходимости моментов (6) следует слабая сходимость мер Ри к Р, а из нее - сходимость интегралов \1 д(и)РаШ)-+\1 д(и)РШ) (7) для любой ограниченной и непрерывной почти всюду по мере Р функции д(и). Полагая в (7) д(и) = 0 при 0^и<1/е и д(и)-\/и при \/е^и^\ и возвращаясь к переменной х, приходят к соотношению: при п -+ °° fQf(x)dx-fQxa-]dx = na/a. Ясно, что последнее соотношение можно распространить с целых значений п на любые другие. Лит.: [1] Таи ber A., «Monats. Math, und Physik», 1897, Bd 8, S. 273-77; [2] Феллер В., Введение в теорию вероятностей и ее приложения, пер. с англ., т. 2, М., 1984; [3J Винер Н., Интеграл Фурье и некоторые его приложения, пер. с англ., М., 1963. Ю. В. Прохоров. ТЕЙЛОРА СТОХАСТИЧЕСКАЯ ФОРМУЛА (stochastic Taylor formula) - представление решения стохастического дифференциального уравнения в виде суммы Xt = Xs + Pn(Xs, s, t) + Rn(X(),s, t), t>s^0, где Рп и Rn - конечные суммы кратных стохастических интегралов порядка не выше п по управляющим семимартингалам (наиболее часто - по винеровскому процессу и времени). При
этом Рп зависит лишь от значения Xs в начальной точке рассматриваемого временного отрезка [s, t], a Rn - от всей траектории Хи, s^u^t. Рекуррентные соотношения, задающие Рп, Rn, относительно громоздки (см., напр., [1]). Отбрасывая Rn, к-рая интерпретируется как остаточный член в Т. с. ф., можно строить конечноразностные аппроксимации стохастич. дифференциальных уравнений с любой скоростью сходимости. Лит.:[\\ Platen E., Wagner W., «Probab. and Math. Statist.», 1982, v. 3, fasc. 1, p. 37-51. В. Мацкявичюс. ТЕКУЩАЯ ПЛАТА (reward function) - см. Управляемый случайный процесс с дискретным временем. ТЕЛЕГРАФНЫЙ ПРОЦЕСС (telegraph process) - см. Случайный телеграфный сигнал. ТЕЛЕГРАФНЫЙ СИГНАЛ (telegraph signal) - марковский стационарный случайный процесс, принимающий два значения: + 1 или -1. А. С. Холево. ТЕМПЕРАТУРНАЯ ФУНКЦИЯ ГРИНА (temperature Green function) - см. Грина функция. ТЕОРЕТИЧЕСКАЯ КОРРЕЛОГРАММА (theoretical corre- logram) - см. Коррелограмма. ТЕРМОДИНАМИЧЕСКАЯ ЭНТРОПИЯ (thermodynamic^ entropy) - одна из термодинамических функций, используемых в равновесной статистической системе, характеризующая «число ее состояний» с фиксированными значениями плотности частиц и удельной энергии. В случае классич. решетчатого газа, состоящего из N частиц, заключенного в конечной области Л d-мерной решетки Ж и описываемого энергией взаимодействия HAN(x), где х е Л - конфигурация N частиц в Л, величину 5(Л, Л/, Е) = In (#{*е Л:ЯАтЛ/(*)<£}) (*) (#£ - число элементов конечного множества В), называемую энтропией такого газа в Л. При нек-рых довольно общих предположениях относительно взаимодействия частиц существует термодинамич. предел S(p,e)= iim JLsU, N, £) \'Г1, tf/|Al-*p, Я/| Л 1-м? |Л| (|Л| =#Л), называется (уде л ьной) Т. э. бесконечного газа. Аналогичным образом определяется Т. э. как для классич. непрерывного, так и для квантового газов: в первом случае в определении (*) число конфигураций следует заменить объемом соответствующей области в фазовом пространстве газа, а во втором - числом линейно независимых собственных векторов оператора энергии НА ^ с собственными значениями, не превосходящими Е. Лит.: [11 Рюэль Д., Статистическая механика. Строгие результаты, пер. с англ., М., 1971; [21 Ландау Л. Д., ЛифшицЕ.М., Статистическая физика, 2 изд., М., 1964. рдг Минлос. ТЕРМОДИНАМИЧЕСКИЙ ПРЕДЕЛЬНЫЙ ПЕРЕХОД (thermodynamical limit approach) - предельный переход, связанный со стремлением к бесконечности объема сосуда, в к-ром заключена рассматриваемая система, и играющий основную роль в теории гиббеовских случайных полей и статистической механике. При этом под объемом сосуда подразумевается число его точек для систем с дискретным аргументом и мера Лебега для точечных систем. Рассматриваются пределы конечномерных распределений в фиксированном подобъеме, индуцируемых распределением Гиббса, корреляционных функций и свободной энергией. На рассматриваемую последовательность сосудов Л„, я=1, 2, ..., накладываются обычно дополнительные условия, означающие качественно, что их границы не становятся слишком изрезанными при и-»<*>. Таковы, напр., условия Ван-Хова в теореме Ван-Хова. pw jjw Добрушин. ТЕСТ (test) статистический - см. Статистический критерий. ТИПОВ СХОДИМОСТЬ (convergence of types) - слабая сходимость последовательности классов эквивалентности функций распределения. Говорят, что последовательность Тп типов распределений сходится к типу Г, если найдется последовательность функций распределения Fn e Тп, сходящаяся (слабо) к функции распределения F еТ. Любая последовательность типов сходится к вырожденному типу (содержащему все вырожденные законы и только их). Ни одна последовательность типов не может сходиться более чем к одному невырожденному типу (см. [1]). Лит.: [1] Хин чин А. Я., Предельные законы для сумм независимых случайных величин, М. - Л., 1938. В.Ю. Королев. ТОЛЕРАНТНОСТЬ (tolerance) - см. Бинарных отношений статистика. ТОЛЕРАНТНЫЕ ГРАНИЦЫ (tolerance limits/bounds) - см. Толерантный интервал. ТОЛЕРАНТНЫЙ ИНТЕРВАЛ (tolerance interval) - интервал со случайными границами, построенный по выборке таким образом, что он с заранее выбранной вероятностью содержит не менее заданной доли вероятностной массы непрерывного распределения, к-рому подчиняются элементы выборки. Пусть Х= (Xj, ..., Хп) - выборка, элементы к-рой суть независимые одинаково непрерывно распределенные случайные величины, функция распределения к-рых F(x) = Р{Х] <х) неизвестна. Далее, пусть Т{ = Т^(Х) и Т2 = Т2(Х) - такие статистики, что для заданной вероятности р (0<р<\) событие {F(T2) - F(Tx)^p) имеет заранее выбранную вероятность у. В этом случае случайный интервал (Tt, Г2) называется у-то ле- рантным интервалом для функции распределения F(x). Статистики Т{ и Т2 называются толерантными границами. Лит.: [1] Большее Л. Н., См ирно в Н. В., Таблицы математической статистики, 3 изд., М, 1983. А/. С. Никулин. ТОНКОЕ МНОЖЕСТВО (thin set) - множество, содержащееся в нек-ром почти борелевском (см. Потенциала теория для марковского процесса) множестве состояний правого марковского процесса, не имеющем регулярных точек. Таким образом, если X=(Xt, с;, ^, Рх) - однородный, вообще говоря, обрывающийся правый марковский процесс с совокупностью состояний £", то множество Г<^Е является Т. м., если найдется почти борелевское А =э Г, для к-рого хА > О Рх-почти наверное при всех х е Е} где хА - момент первого достижения Л после £ = 0. Т. м.- частный случай полярного множества. Множество Га Е, для к-рого нек-рая точкахеЕ нерегулярна, называется т о н к и м в этой точке. Однако множество, тонкое во всех точках из £", может не являться Т. м. для X (см. [1]). Лит.: [llBlumenthalR. M., GetoorR. К., Markov processes and potential theory, N. Y.- L., 1968. M. Г. Шур. ТОПОЛОГИЧЕСКАЯ ЭНТРОПИЯ динамической системы (topological entropy of a dynamical system) - понятие эргодической теории. Для произвольного непрерывного отображения f:K->K компакта К на себя Т. э. определяется по аналогии с метрич. энтропией динамич. системы: это ^(/0 = sup MAS), где £ - произвольное покрытие компакта К открытыми множествами, N(fy)f~ £U...U/"~"+ £) - двоичный логарифм числа ТЕРМОДИНАМИЧЕСКАЯ 725
элементов минимального подпокрытия компакта К элементами покрытия £U/"~ £U...U/"~"+ I;, состоящего из непустых пересечений элементов покрытий I;, f~ I;, ..., f~n+ I;, и h(f, §) = lim -М^ГЧи...иГи+Ч) (см. [1]). Для метрич. компакта hto?(f) совпадает с верхней гранью метрич. энтропии n^if) по всем нормированным инвариантным относительно f борелевским мерам \i (см. [2]-[4]). Т. э. применяется в теории гладких динамич. систем (см. [5], [6]). Лит.: [\\ AdlerR., KonheimA., McAndrew M., «Trans. Amer. Math. Soc», 1965, v. 114, p. 309-19; [2] Д и набу рг Е. И., «Изв. АН СССР. Сер. матем.», 1971, т. 35, Jsfe 2, с. 324-66; [3] Coodman Т., «Bull. Lond. Math. Soo, 1971, v. 3, № 2, p. 176-80; [4j Goodwyn L., «Amer. J. Math.», 1972, v. 94, № 2, p. 366-88; [5] Боуэн Р., Методы символической динамики, пер. с англ., М., 1979; [6] Гладкие динамические системы, пер. с англ., М., 1977. Е. И. Динабург. с-ТОПОЛОГИЧЕСКОЕ ПРОСТРАНСТВО (a topological space), а-пространство, пространство с а-топо- логией, пространство Александрова, -совокупность двух объектов: множества ЗГ элементов (называемых точками пространства) и а-топологии, определяемой классом так наз. открытых множеств, замкнутым относительно счетного числа операций объединения и конечного числа операций пересечения. Пусть (& есть система подмножеств из ЗГ. Пара (ЗГ, ©) называется а-топологическим пространством, если: 1) любое счетное объединение множеств из (& принадлежит ©; 2) любое конечное пересечение множеств из @ принадлежит <£; 3) ЗГ и пустое множество принадлежат ©. Множества из (& называются открытыми; дополнения к множествам из (& называются замкнутыми. «Обычные» топологич. пространства являются а-топологи- ческими, но не наоборот. Функция /*:X->IR называется непрерывной, если /"" (СО е © для любого открытого множества U из (R. В «обычных» топологич. пространствах приведенное определение непрерывности эквивалентно определению непрерывности, формулируемому с помощью понятия сходимости. Однако в а-то- пологич. пространствах эти два определения не эквивалентны. Сформулированное выше определение оказывается здесь более естественным. а-Т. п. представляют собой естественный объект для изучения сходимости мер, заданных на них. Особенно полезны а-Т. п., порожденные заданным классом функций на ЗГ (см. Предельные теоремы для случайных процессов). См. также Q-измеримая функция. Лит.: [1j Александров А. Д., «Матем. сб.», 1940, т. 8, № 2, с. 307-48; 1941, т. 9, Jsfe 3, с. 563-628; 1943, т. 13, № 2-3, с 169-238; [2] Боровков А. А., «Успехи матем. наук», 1972, т. 27, в. 1, г. 3-41. А. А. Боровков, Е.А. Печерский. ^-ТОПОЛОГИЯ (S-topology) - см. Допустимая топология. ТОЧЕЧНАЯ ОЦЕНКА (point estimator) - статистическая оценка, в к-рой решениями служат отдельные точки пространства оцениваемого параметра или параметрической функции. Термин «Т. о.» употребляют в основном лишь при противопоставлении Т. о. интервальной оценке; односложный термин «оценка» обычно подразумевает Т. о. Напр., выборочное среднее .г есть Т. о. среднего значения нормального распределения, в то время как (х- с s/VrT, х + t^/yfn) - его интервальная оценка (доверительный интервал). 726 ТОЧЕЧНАЯ Лит.: [1J КендаллМ., Стьюарт А., Статистические выводы и связи, пер. с англ., М., 1973; [2] ЛеманЭ., Теория точечного оценивания, пер. с англ., М., 1991. И. Н. Володин. ТОЧЕЧНАЯ СТАТИСТИЧЕСКАЯ ОЦЕНКА (statistical point estimator) - статистическая оценка неизвестного наблюдателю распределения вероятностей Р{} исходов какого-либо случайного явления по одному или нескольким независимым наблюдениям этого случайного явления. Предполагается известным измеримое пространство (Q, rf) всех элементарных исходов со этого случайного явления, дающее его качественное описание, и требуется оценить Р как точку совокупности cap (ft, .</) всех вероятностных мер на (ft, .</). Этим Т. с. о. отличается от статистич. оценок каких-либо характеристик неизвестного распределения Р. Прикладная значимость теории вероятностей во многом определяется тем, что по математич. модели какого-либо случайного явления она предсказывает более или менее точно и более или менее надежно частотные характеристики наблюдений этого случайного явления. Задачи статистич. оценивания являются обратными для так понятых задач теории вероятностей. Как того требует теория статистич. решений, в постановку задачи Т. с. о. входит функция потерь L(P, P*), характеризующая потери от принятия решения Р* в условиях, когда наблюдаемое случайное явление задается распределением Р. В частности, погрешность решения Р* можно измерять (см. [1]) в какой-либо метрике на совокупности cap(Q, ./), напр. расстоянием по вариации |Р* -Р|. В математич. статистике, как правило, имеют дело с измеримыми пространствами (ft, л) следующих трех типов: 1) когда Л- конечная алгебра, в этом случае ft является конечным объединением дизъюнктных .^/-атомов; 2) когда Q является счетным объединением дизъюнктных .«/-атомов; 3) когда (Q, J) является лебеговым измеримым пространством, то есть взаимно однозначным и взаимно измеримым образом (£", /О, где <Р. есть а-алгебра всех абсолютно лебеговых подмножеств единичного отрезка Е с IR. Разумные постановки задачи Т. с. о. по растущему числу N независимых наблюдений случайного явления для каждого из указанных типов различаются между собой. Как и многие нетривиальные обратные задачи математич. физики, задача Т. с. о. для совокупностей типа 3) является некорректной (в том числе при измерении погрешности расстоянием по вариации). Нужна дополнительная количественная априорная информация о наблюдаемом Р, чтобы задача стала корректной (см. [2J). В математич. статистике необходимость подобного рода ограничения была интуитивно понятна на первых же этапах ее развития. Естественные широкие подсовокупности, для к-рых задача Т. с. о. является корректной, выделяются условием: наблюдаемая мера Р абсолютно непрерывна относительно известной меры Р0, напр. распределение наблюдаемой случайной величины абсолютно непрерывно. Тогда для отыскания Р можно строить гистограмму (см. [3], [4]). Однако такие подсовокупности являются слишком широкими. На них, как и на совокупностях типа 2), не существует оценок, точных и надежных равномерно по Р. Разумные, более узкие классы удается выделить в терминах информационных поперечников (см. [1]); для построения Р* используют приближения логарифма его плотности линейным агрегатом функций. Классич. объектом математич. статистики являются гладкие параметризованные семейства {Р8, 0 € 0}, где 8 - числовой или векторный параметр. Для таких подсовокупностей задача Т. с. о. сводится к оцениванию параметров распределения, поскольку для таких семейств можно ограничиться оценка-
ми Р*, принимающими значения не во всей совокупности сар(Н, ,</), а лишь в самом семействе (см. [1]). Если в качестве универсальной функции потерь t(P, P*) взять удвоенную информацию /[Р* : Р] Кульбака - Лейбера - Санова /[Р* :P\ = \Q [In {da} - In P*{da}]P{d<u), (1) то в рассматриваемой задаче lim N • inf supJ?nr V4(Pft) = dim0, (2) N->~ п(л/) e m/v; и где риск # при использовании решающего правила П(ЛО по N наблюдениям есть хГКсо,, ..., (o„; ^lP*])PeWco1}...Pe{^coJV} и интеграл по d[P*{«}] понимается в смысле теории случайных мер (см. [5], J1 ]). Соотношение (2) дает сжатую формулировку всей теории оптимального оценивания параметра. Естественным классом универсальных функций потерь является (см. [1]) класс функций L(P, Q), монотонно инвариантных относительно категории статистич. решающих правил, L(PIII, QUI) ^ t (P, Q) при всех сочетаниях Р, Q и решающего правила III, имеющих смысл. К этому классу принадлежат, напр., функция (1) и расстояние по вариации. Оказывается, что для любой монотонной метрики р(р,а)^р(я!/2,я,/4)-|р-а1, где Rq - распределение вероятностей с двумя исходами: /?е(е1) = в, #в(е2)=1-6. Аналогично, если L- монотонная функция потерь, где 1(Р, Р) = 0 для любых Р, P*Q^L(P, Q)>0, то существует монотонная строго положительная при 0^г^2 функция g(z) такая, что L(P, Q) > >g(\P-Q\), где <?(•) определяется значениями L(RX, ИуУ на квадрате О^х, у^\. Поэтому все сказанное выше о корректности задачи Т. с. о. остается в силе и при указанных способах измерения погрешности решающего правила (см. [6]). Задача Т. с. о. становится корректной, если оценивать погрешность в какой-либо слабой метрике, напр. расстоянием между функциями распределения в С или L2 либо, более общо, в метрике Леви - Прохорова (этот факт вытекает из известной теоремы Гливенко [7] и ее обобщений). Такой способ не является универсальным, так как зависит от представления измеримого пространства (Q, .*/). Кроме того, близость распределений в слабой метрике не позволяет судить о близости средних по ним от произвольной ограниченной измеримой функции. Лит.: \\] Ченцов Н.Н., Статистические решающие правила и оптимальные выводы, М, 1972; [2] его же, «Теория вероятн. н ее прнмен.», 1981, т. 26, в. 1, с. 15-31; [3] Abou-Jaoude S., «Ann. Inst. H. Poincare», Sec. В, 1976, t. 12, p. 213-31; [4 J H ада рая Э. А., «Сообщ. АН Груз. ССР», 1976, т. 82, М 2, с. 277-80; [5] П рохоров Ю. В., «Докл. АН СССР», 1961, т. 138, № 1, с. 53-55; [6] Ченцов Н. Н., Дополнение 1 к кн.: Деврой Л., Дьерфи Л., Непараметрическое оценивание плотности. L.-подход, пер. с англ., М., 1988; [7] Гливенко В. И., «Giorn. 1st. Ital. degli Attuari», 1933, t. 4, № 1, p. 1-10. И.Н. Ченцов. ТОЧЕЧНОЕ СЛУЧАЙНОЕ ПОЛЕ (random point field) - вероятностная мера на измеримом пространстве (Q, .</), где Q - совокупность всех счетных подмножеств со на нек-ром метрич. пространстве, имеющих конечное пересечение Nv(to) с любым ограниченным подмножеством V, а .</- это а-алгебра подмножеств пространства Q, порожденных случайными величинами Nv. См. также Точечный случайный процесс, Гиббса случайное поле. Лит.: [1] Керстан Й., Маттес К., Мекке Й., Безгранично делимые точечные процессы, пер. с англ., М., 1982. Р. Л. Добрушин. ТОЧЕЧНЫЙ ЗАКОН РАСПРЕДЕЛЕНИЯ случайного множества (space law of the distribution of a random set) - сужение сопровождающего функционала случайного замкнутого множества в топологическом пространстве S на множество всех конечных подмножеств 5. См. также Случайное множество. Н. Я. Ляшенко. ТОЧЕЧНЫЙ ПРОЦЕСС (point process) - случайный процесс, соответствующий на прямой II? последовательности случайных велИЧИН {£;,£,-}, ..., tQ<0^t^ <*2<"*' #1=1» 2, ... Величины ti называются точками случайного Т. п., величины gt- кратностями точек t-v В теории массового обслуживания Т. п. порождается моментами поступления заявок на обслуживание, в биологии - моментами импульсов в нервных волокнах и т. д. Кратность д{ равна размеру группы заявок, одновременно поступивших в систему массового обслуживания (см. [1]). Т. п. можно сопоставить считающий случайны_й процесс Жt), равный сумме кратностей gi точек t{e (0, t], если t>0, или равный сумме -gif £fe (t, 0], если t^0. Процесс Ж О однозначно определяет Т. п. на В?1. Для любых чисел u<v величина N(v)-N(u) равна сумме кратностей дх точек £zg(m, а]. Иногда целесообразно рассматривать Т.п. лишь для неотрицательных значений t. Математич. ожидание ЕЖ0 = Л(£) называется ведущей фу нкцией Т. п. Приращения Л(0 однозначно определяют моментную меру Т. п. Производная ведущей функции, если она существует, называется интенсивностью Т. п. Случайный точечный процесс называется стационарным, если Ж О имеет стационарные приращения. Для стационарного Т.п. A(t) = \t. Т.п. называется простым, если все скачки ДЖ£,) = N(ti+{)- Пусть серия Т. п. {tni,gnj}, i- 1, .... kn, у к-рой считающий процесс Nn(0 = Y", N,(0, называется суперпозицией серии Т.п. {£„,-,<7„f}, t=l, ••♦, kn. Последовательность серий Т. п. называется бесконечно малой, если для любого t lim max Pm{Wm(0 * 0} = 0, где Pni - вероятностное распределение на множестве событий Если последовательность серий Т. п. является бесконечно малой, то для слабой сходимости считающего процесса ^г№ = 'Y.-lflnfo) K пуассоновскому процессу с ведущей функцией Л(0 необходимо и достаточно (см. [2]) выполнение для любых u<v следующих условий: Um У*\ Рт^т(^)-^»|(")=1}:=Л(г;)-Л(м), lim 1-:,рп,(^(«)>2>=о. Операция независимого прореживания с вероятностью с, 0<с<1, состоит в том, что каждая точка ti Т. п. {tit д$ исключается с вероятностью Сд\ t{ сохраняется с кратностью L, 1 ^1;^д;, с вероятностью С?'(1 -с) *Са _/ неза- висимо от результатов прореживания для других точек. Прореженному Т. п. соответствует считающий процесс Nc(t). Если по вероятности lim N(s)/\s\=L} то Nc(t/(\-c)) при cTl слабо сходится к пуассоновскому процессу со случайным значением интенсивности X P{A,^*} = P{L ^х} (см. [3], [4]). Последовательность взаимно независимых случайных величин {X,} определяет независимые сдвиги точек t; простого Т.п. t'^ti + Xi. Найдены условия, при к-рых полученный в результате независимых сдвигов Т. п. слабо сходится к пуассоновскому процессу (см. J5]). ТОЧЕЧНОЕ 727
Т.п. {tit #,}, ..., t0<0^ti<t{ можно сопоставить Т. п. Щ, д{), .... ti<t{<ti<..., где t;=ti-tv t[ = Q. Т.п. {t[, 9i) называется синхронным для Т. п. {tit д$. Пусть распределение вероятностей Р определяет стационарный Т. п. {tif gfi. Соответствующее Р распределение вероятностей Р синхронного Т. п. {t[, gj называется распределением Пальма. Частным случаем соответствия между распределениями Р и Р для простых Т.п., когда все д{ = 1, являются уравнения Пальма - Хинчина: P{N(t) >k) = X fQ P°{N~\u) = k- \}du, где N(t) и N'(t) - считающие процессы, соответствующие Т.п. {tj, 1} и синхронному Т.п. {t[, 1} (см. [6], [7]). Считающий процесс Nit), t^Q, можно рассматривать как субмартингал относительно потока а-алгебр ^t = a(N(s), s^t). Теория мартингалов используется при исследовании простых Т.п. (см. [8]). Одним из основных понятий является понятие о компенсаторе Т. п. Важный для приложений класс Т. п. самовозбуждающихся Т. п. тесно связан с понятиями теории мартингалов (см. [9], [10]). Общая теория Т.п., заданных на полном сепарабельном метрич. пространстве Л с а-алгеброй борелевских множеств 9С и классом ограниченных борелевских множеств 9С0» основывается на понятии о Т. п. как о целочисленной локально ограниченной случайной мере. Пусть М - множество целочисленных локально ограниченных мер <р(), <р(6)<<х>, Be$£0, <р(Я) = 0, 1, 2, ... В множестве М задается а-алгебра Ш, порожденная подмножествами {<р() :ф(Я) = k), fc = 0, 1, ..., Яе9С0; Т.п. 0 с фазовым пространством состояний (Л, $£q) определяется заданием вероятностной меры Р на измеримом пространстве (М, Ш). Пусть 5Д() - единичная мера, сосредоточенная в точке аеЛ, то есть Ьа(В)=\, аеВ, 5fl(6) = 0, аеВ. Реализация Т. п. Ф с фазовым пространством (Л, 9С0) имеет вид где 5ф = {а:Ф({а}) >0} - множество точек Т.п. Ф, Ф({а}) - кратность точки аеЛ. Многие понятия, введенные для Т. п. {t{, g{) на IR , обобщаются для Т. п. Ф на фазовом пространстве (А, 9С) (см. Момент- ная мера точечного процесса, Маркированный точечный процесс, Простой точечный процесс, Ординарный точечный процесс, Кэмпбелла теорема, Кэмпбелла мера, Безгранично делимый точечный процесс). Результаты теории Т. и. находят различные приложения (см. [11]), используются при исследовании пересечений уровня реализациями случайных процессов (см. [12]), в биологии - при анализе популяций растений и клеточных тканей (см. [13]). Лит.: [1] Handbuch der Bedienungs theorie, Bd 1, В., 1983; [2j Григе л ионис Б. И., «Теория вероятн. и ее примен.», 1963, т. 8, в. 2, с. 189-94; [3] Беляев Ю.К., там же, с. 175-84; [4] Naw- rotzki К., «Math. Nachr», 1962, Bd 24, S. 201-17; [51 Kep- стан Й., Маттес К., Мекке Й., Безгранично делимые точечные процессы, пер. с англ., М., 1982; [61 Хинчин А.Я., Работы по математической теории массового обслуживания, М., 1963; [7] Очереди и точечные процессы, пер. с англ., К., 1985; [8] LiptserR.S., Shiryaev A. N., Statistics of random processes. II. Applications, N. Y.- [a. o.|, 1978; [9] Sny der D. L., Random point processes, N. Y. - [a.o.l, 1975; [101 CoxD.R, Isham V., Point processes, L. - N.Y., 1980; [11] Stochastic point processes, ed. by P. A. W. Lewis, N. Y. - [a.o.], 1972; [121 Крамер Г., Лидбеттер М., Стационарные случайные процессы, пер. с англ., М., 1969; [131 DiggieP.J., Statistical analysis of spatial point patterns, N. Y. - [a.o.], 1983; [14] Karr A. F., Point processes and their statistical inference, N. Y. - [a.o.], 1986. jq r Беляев. 728 ТОЧЕЧНЫЙ ТОЧЕЧНЫЙ ПРОЦЕСС безгранично делимый (infinitely divisible point process) - см. Безгранично делимый точечный процесс. ТОЧЕЧНЫЙ ПРОЦЕСС; ведущая функция (leading function of a point process) - см. Точечный процесс. ТОЧЕЧНЫЙ ПРОЦЕСС; интенсивность (intensity of a point process) - см. Точечный процесс. ТОЧЕЧНЫЙ ПРОЦЕСС Кокса (Сох point process) - см. Кокса точечный процесс. ТОЧЕЧНЫЙ ПРОЦЕСС; компенсатор (compensator of a point process) - см. Компенсатор точечного процесса. ТОЧЕЧНЫЙ ПРОЦЕСС маркированный (marked point process) - см. Маркированный точечный процесс. ТОЧЕЧНЫЙ ПРОЦЕСС; моментная мера (moment measure of a point process) ~ см. Моментная мера точечного процесса. ТОЧЕЧНЫЙ ПРОЦЕСС мультивариантпый (multi- variante point process) - см. Мультивариантпый точечный процесс. ТОЧЕЧНЫЙ ПРОЦЕСС на группе (point process on a group) - точечный процесс на локально компактной топологической группе. Рассматривают Т.п., инвариантные относительно групповой операции слева или справа. Если Т. и. на группе обладает конечной интенсивностью и лево- (право )ин- вариантен, то его правая моментная мера является лево- (право-)инвариантной мерой Хаара. Специфич. понятием теории Т. п. на группах являются распределения Пальма, определяемые следующим образом. Каждому элементу у из реализации {#,} левойнва- риантного конечной интенсивности Т. п. на группе ставится в соответствие марка - левая «приведенная» реализация {у~ Vi)i- Правая моментная мера Л полученного маркированного Т. п. необходимо факторизуется (см. Геометрический процесс): А = НхХР0, где Х- интенсивность Т.п., Н- левая мера Хаара группы. Распределение Р0 «типичной приведенной реализации» называется левым распределением Пальма. Правое распределение Пальма правоинвариантных Т. п. определяется аналогично при помощи правой «приведенной» реализации {у^у 1}(. Грубо говоря, распределение Пальма есть условное распределение Т. п. при условии, что групповая единица принадлежит реализации. Т. п. на аффинных группах возникают уже при исследовании Т. п. в IP". Ниже даны два примера. 1) Пусть со - случайная реализация пуассоновского Т. и. на плоскости, X - процесс конечной интенсивности троек точек из со, прореженных «по площади и шейпу» (см. Геометрический процесс, пример 1). Каждой упорядоченной тройке точек х, составляющих треугольник площади 5, соответствует единственное аффинное преобразование, переводящее х в фиксированную тройку точек, составляющих треугольник той же площади. Процесс X порождает биинвариантный Т. п. на группе сохраняющих площадь аффинных преобразований плоскости. 2) На каждой прямой из реализации пуассоновского процесса прямых на плоскости рассматривается независимый пуассоновский процесс точек. Каждой паре «прямая и точка» соответствует евклидово движение плоскости. Полученный Т. п. на Плоскости порождает биинвариантный Т. и. на группе евклидовых движений плоскости. Соответствующее распределение Пальма служит основой для определения распределения Пальма процесса прямых. Изучение Т. п. на решетчатых группах приводит к Зигеля задаче. Лит.: [\\ Mecke J., «Z. Wahr. und verw. Geb.», 1967, Bd 9, S. 36-58. Г. С. Сукиысян.
ТОЧЕЧНЫЙ ПРОЦЕСС; независимое прореживание (independent thinning of a point process) - см. Точечный процесс. ТОЧЕЧНЫЙ ПРОЦЕСС ординарный (ordinary point process) - см. Ординарный точечный процесс. ТОЧЕЧНЫЙ ПРОЦЕСС простейший (simplest point process) - см. Пуассоновский точечный процесс. ТОЧЕЧНЫЙ ПРОЦЕСС простой (simple point process) - см. Простой точечный процесс. ТОЧЕЧНЫЙ ПРОЦЕСС пуассоновский (Poisson point process) - см. Пуассоновский точечный процесс. ТОЧЕЧНЫЙ ПРОЦЕСС с ограниченным последействием (recurrent point process) - точечный про- цесс, задаваемый последовательностью случайных величин {£,}, ... < t_{ <tQ<0^t] < t2< ..., в к-рой все интервалы s7 = r,+1-£; являются взаимно независимыми случайными величинами. Т. п. с ограниченным последействием тесно связаны с процессами восстановления (см. Восстановления теория). Т. п с ограниченным последействием является стационарным, когда Р{-г0>н, t{>v} = ± Г [\-F(x)]dx, где FU) = P{.st^r}, i*0, m = j~ xdF(x). В теории массового обслуживания Т. п. с ограниченным последействием часто рассматриваются в качестве моделей входящих потоков требований, поступающих в системы массового обслуживания. /О. К. Беляев. ТОЧЕЧНЫЙ ПРОЦЕСС стационарный (stationary point process) - см. Точечный процесс. ТОЧЕЧНЫЙ СЛУЧАЙНЫЙ ПРОЦЕСС с присоединенными случайными величинами (point process with adjoint random variables) - разрывный случайный процесс X(t), -oo<t<oot такой, что его точки разрыва tn образуют точечный случайный процесс на прямой (то есть {tn, п = ..., -1, 0, 1, -..} - монотонно возрастающая последовательность действительных случайных величин), а на интервалах tn._{<t^tn процесс X(t) принимает постоянные значения Хп, к-рые представляют собой последовательность независимых одинаково распределенных случайных величин с заданными средним значением т и дисперсией а . В частном случае, когда tn = nTQ + Q, где Т0 - фиксированное число, а 0 - равномерно распределенная на интервале длины Г0 случайная величина, Т. с. п. с присоединенными случайными величинами - стационарный случайный процесс X(t) со средним значением EX(t) = m и (центрированной) корреляционной функцией /Дт) = E[X(t + т) - tnllXU) - от] = max{a2(l - \х\/Т), 0}; если же tn = nTQ (последовательность точек tn не является случайной), то X(t) ~ периодически коррелированный (и периодически распределенный) случайный процесс периода Г0. В случае когда {tn} - однородный пуассоновский точечный процесс на прямой (то есть простейший поток) интенсивности \, Т. с. п. с присоединенными случайными величинами называется процессом Кубо - Андерсона, или пуас- соновским точечным процессом с присоединенными случайными величинами; в этом случае X(t) является разрывным однородным по времени марковским процессом, а также и стационарным случайным процессом со средним значением m и корреляционной функцией Ь(т) -с ехр( -Х|т|). Обобщением процесса Кубо - Андерсона являются случайные процессы типа кенгуру, для к-рых случайные последовательности {Хп} и {г„} уже не являются независимыми друг от друга. В предположении, что tn- tn_{ ~T0 = const при всех я, а Хп принимает два значения + а и - а с одинаковой вероятностью, Т. с. п. с присоединенными случайными величинами рассматривался Н. Винером [1J, [2] и С. Райсом [3], [4]; общее определение Т. с. п. присоединенными случайными величинами было дано в 1950 У. Гренандером (U. Grenander; см. [5]). Процессы Кубо - Андерсона были введены в работах [6], [7], посвященных статистич. задачам оптич. спектроскопии, и затем неоднократно использовались в физич. исследованиях (см., напр., [81, [91). Лит.: [1] Wiener N.. «Acta math.», 1930, t. 55, N° 2-3, p. 117-258; [21 Винер Н., Интеграл Фурье и некоторые его приложения, пер. с англ., М., 1963, гл. IV; [31 Rice S. О., «Bell System Techn. J.», 1944, v. 23, № 3, p. 282-332; 1945, v. 24, № 1, p. 46-156; [4[ Райе С, в сб.: Теория передачи электрических сигналов при наличии помех, пер. с англ., М., 1953, с. 88-238; [5J Гренан- дер У., Случайные процессы и статистические выводы, пер. с англ., М., 1961; [6] Anderson P. W., «J. Phys. Soc. Japan», 1954, v. 9, № 3, p. 316-39; [71 Kubo R., там же, 1954, v. 9, № 6, p. 935-44; [8] Brissaud A., Frisch U., «J. Math. Phys.», 1974, v. 15, № 5, p. 524-34; [9[ Шапиро В.Е., Логинов В. М., Динамические системы при случайных воздействиях, Новосиб., 1983. A.M. Яглом. ТОЧНАЯ ПОЛОСА (exact band) - см. Доверительная полоса. ТОЧНЫЙ ПЛАН (exact design) - см. Регрессионных экспе риментов планирование. ТОЧНЫЙ ЭНДОМОРФИЗМ (exact endomorphism) - эндоморфизм Т вероятностного пространства (Q, .V, Р), удовлетворяющий условию ПГ~я.г/=5К, где T~n.nf- а-подалгебра а-ал- гебры ,с/, состоящая из полных прообразов множеств А е П при отображении Тп, a SR - а-алгебра множеств меры 0 и 1. Если (Q, .с/, Р) - пространство Лебега, то определение Т. э. можно сформулировать в терминах измеримых разбиений, заменив о-алгебру .V разбиением пространства Q на отдельные точки, а о-алгебру St - отвечающим ей тривиальным разбиением. Примером Т. э. служит сдвиг в пространстве реализаций стационарной в узком смысле случайной последовательности Хп, и^О, удовлетворяющей закону нуля - единицы Колмогорова. Простейший пример такого рода - односторонний Бернулли сдвиг. Понятие Т. э. введено в [1] по аналогии с понятием К-автоморфизма (см. К-система), относящимся к случаю обратимых сохраняющих меру преобразований. Лит.: [11 Рохлин В. А., «Изв. АН СССР. Сер. матем.», 1961, т. 25, № 4, с. 499-530; [21 Корнфельд И. П., Синай Я. Г., Фомин СВ., Эргодическая теория, М., 1980. Б.М. Гуреоич. ТРАЕКТОРИЯ (trajectory/sample path) - см. Выборочная функция, Случайная функция. ТРАЕКТОРИЯ цепи Маркова (trajectory of a Markov chain/sample path of a Markov chain) ~ см. Маркова цепь. ТРАНЗИТИВНАЯ ЦЕПЬ МАРКОВА (transitive Markov chain) - см. Невозвратная цепь Маркова. ТРАНСВЕРСАЛЬ латинского квадрата (transversal of a Latin square) - см. Латинский квадрат. ТРАНСФЕР-МАТРИЦА (transfer-matrix) - понятие, обозначающее в статистической физике и евклидовой квантовой теории поля два объекта: 1) стохастический (переходный) оператор марковского (гиббеовского) поля; 2) вспомогательную матрицу Л = {Лар} (оператор) такую, что статистическая сумма системы равна £ (A )aa-trA . Более подробно. 1) Трансфер-матрица - переходный оператор. Пусть {Xt, t=(ti0\ .... ti(i))eld+{ или H?rf+1} - стационарное случайное поле на решетке Ж + (или в пространстве И? + ) со значениями в нек-ром пространстве S, марковское ТОЧЕЧНЫЙ 729
относительно направления «времени» (то есть вдоль нулевой координатной оси). Тогда переходные операторы W)X0 = (%f/X\yQ = X0)t те2+(теИ?+), т>0, (1) образуют полугруппу Jx = {J)x\ оператор J и называется трансфер-матрицей поля. В формуле (1) YQ = {t:t — = 0} - «нулевой слой», Х0= {Xt, te У0} - конфигурация поля на этом слое, f - функционал от поля X, зависящий лишь от его сужения X\Y на У0, %f- «сдвиг» /"вдоль направления времени на т, a (/X\Y = XQ) - условное среднее поля при условии, что его сужение X\Y фиксировано и совпадает с конфигурацией Х0. Определение Т.-м. обобщается и на случай евклидовых квантовых полей (определенных либо в R? + , либо на решетке 2 + ), удовлетворяющих условию положительности по Остер- вальдеру - Шрадеру. 2) Трансфер-матрица - вспомогательный оператор. В ряде случаев для решетчатой физич. системы с конечным пространством спинов 5, находящейся в области A = Gx[0, N]ald+\ (2) где GcZ - ограниченное множество, [0, N] с: Z, можно указать такую матрицу A-A(G) (Т.-м.), что статистич. сумма системы ZA равна сумме матричных элементов матрицы А (или только сумме ее диагональных элементов - при так наз. «периодич. граничных условиях»). В частности, если энергия системы в области (2) имеет вид Ял<« = 1Г.-Ч(Х|.Х,+|). О) где X - конфигурация системы, а X,- - ее сужение на i-й слой, Yj = Gx{i), V- V(«, ) - нек-рая функция от пары конфигураций X, Y на множестве G, то Т.-м. полагают равной A(G) = {AXY = exp(-$V(X, У))}, X, У eS - две конфигурации на G. Аналогичным образом определяется Т.-м. (ядро) в случае непрерывного пространства спинов 5. В случае (3) предельное гиббсовское поле в бесконечном цилиндре GxZ является марковским (вдоль оси t ) и его Т.-м. [в смысле (1)] J=&(G) выражается формулой *х.у-ГтАх,уЧ&. X, YeSG, (4) устанавливающей связь между различными значениями термина «Т.-м>. В (4) A.° = A.°(G)- наименьшее собственное значение A(G), a Ч* = {VJJ, XeS }- соответствующий ему собственный вектор. Т.-м../ предельного гиббсовского поля на всей решетке Z + получается как термодинамич. предел операторов &(G) при G = Z . Лит.: [1] Саймон Б., Модель Р[ф]2 эвклидовой квантовой теории поля, пер. с англ., М., 1976; [2] Хуанг К., Статистическая механика, пер. с англ., М., 1966. Р. А. Минлос. ТРЕНД (trend) - систематическое изменение случайного процесса. Обычно он присутствует в моделях временных рядов в виде неслучайной функции fit), суммируемой со случайной составляющей X(t): Y(t)=f(t) + X(t). При этом X(t) может быть как последовательностью независимых ошибок (белый шум), так и более сложным случайным процессом без систе- матич. изменений. Если fit) - периодич. функция, то такой Т. часто называют циклическим. Если циклич. Т. имеет высокую частрту колебаний, то его называют сезонным эффектом. Существует множество методов построения оценки Т. и исключения его влияния, напр. скользящих средних метод, переменных разностей метод. 730 ТРЕНД См. также Статистический контроль качества. Лит.: [1] Андерсон Т., Статистический анализ временных рядов, пер. с англ., М., 1976; [2] Кендэл М., Временные ряды, пер. с англ., М., 1981. Ю. Г. Баласаноа. ТРЕНД метеорологической величины (trend of a meteorological variable) - систематическое изменение метеорологической величины X, проявляющееся на нек-ром интервале времени [t\ £' + Д£]. С увеличением Д£ часто может выясниться, что ранее обнаруженный Т. метеорологич. величины (ее возрастание или убывание) на самом деле является частью нек-рого длиннопериодич. колебания, к-рое отличается от случайных высокочастотных колебаний лишь величиной периода. Рассматривая изменения величины X во времени как реализацию случайного процесса X(t), иногда Т. интерпретируют как проявление нестационарности X(t) по математич. ожиданию mx = EX(t), к-рое оказывается при этом функцией времени. Известны и другие модели, к-рые применяют для описания Т. Выделение Т. метеорологич. величин основывается на применении различных приемов статистич. обработки исходных метеорологич. рядов. Чаще всего для этой цели используют метод скользящей средней, позволяющий достаточно эффективно сглаживать содержащиеся в X(t) короткопериодич. колебания. Последующая аппроксимация эмпирич. значений Т. осуществляется, как правило, с помощью многочленов л-го порядка вида mx(t) = £.« «,Л\ где коэффициенты с^ определяются по методу наименьших квадратов. При и= 1 говорят о существовании в X(t) линейного Т. При статистич. анализе метеорологич. временных рядов наличие Т. может стать причиной дополнительных погрешностей. Последние, напр., возникают при вычислении центрированной корреляционной функции, к-рая при этом не затухает на бесконечности (см., напр., [2], [3]). Для исключения или ослабления этого эффекта вместо корреляционной рекомендуется вычислять структурную функцию. Особое значение имеет анализ многолетних Т. метеорологич. величин, определяющих тенденции изменения (вековой ход) климата, напр. его потепление или похолодание. Подтверждение статистич. значимости и выяснение физич. природы климатич. Т. являются предметом специальных исследований (см. [1], [4]-[6]). Лит.: [1] Груза Г. В., Ранькова Э. Я., Данные о структуре и изменчивости климата. Температура воздуха на уровне моря, Обнинск, 1979; [2) Лам л и Дж.-Л., Пановский Г.-А., Структура атмосферной турбулентности, пер. с англ., М., 1966; [3] Монин А. С, Яглом A.M., Статистическая гидромеханика, ч. 1, М., 1965; [4] Поляк И. И., Численные методы анализа наблюдений, Л., 1975; [5J Рубинштейн Е.С., Полозова Л. Г., Современное изменение климата. Л., 1966; [6J Brinkmann W. A. R., «Quart. Res», 1976, № б, р. 335-58. Е. Е. Жуковский. ТРЕУГОЛЬНОЕ РАСПРЕДЕЛЕНИЕ (triangular distribution) - непрерывное распределение вероятностей суммы двух случайных величин, имеющих равномерное распределение на одном и том же отрезке. А. В. Прохоров. ТРЕХ РЯДОВ ТЕОРЕМА (three series theorem/criterion): для сходимости почти наверное ряда из независимых случайных величин У°° , Х„ необходимо, чтобы для любого с>0 JLun = 1 " сходились ряды i:.,p(i^i>«>.i:.,ex--i:.,dx-' и достаточно, чтобы эти ряды сходились при нек-ром г>0. Здесь ХС = Х, если |х[^с, равно 0, если \Х\ >с. Для того чтобы ряд был не только почти наверное сходящимся, но и перестановочным, в Т. р. т. следует заменить V~ ЕХсп на V |ЕХ£|. Существует критерий сходимости почти наверное рядов независимых случайных величин, использующий понятия индексов, центров и разбросов случайных величин (см. Сходимость рядов случайных величин).
Т р. т. доказана А. Н. Колмогоровым [lj. Имеются ее обобщения для случайных величин со значениями в гильбертовом и нек-рых других банаховых пространствах (см [2]). Лит.: [1] Колмогоров А. Н., Основные понятия теории вероятностей. 2 изд., М.т 1974; [2] Булдыгин В. В., Сходимость случайных элементов в топологических пространствах, К., 1980. д. М. Круглое. TPIX СИГМ ПРАВИЛО (three-sigma rule/3a-rule) - мнемоническое правило, согласно к-рому в нек-рых задачах теории вероятностей и математической статистики считают практически невозможным событие, заключающееся в отклонении значения нормально распределенной случайной величины от ее математического ожидания больше, чем на три стандартных отклонения. Пусть X - нормально N(a, a ) распределенная случайная величина. Для любого k>0 P{\X-a\<ko} = 2<b(k)-\, где Ф() - функция распределения стандартного нормального закона, откуда, в частности, при k = 3 следует, что Р{а - За < X < а + За} - 0,99730. Последнее равенство означает, что значения случайной величины X будут отклоняться от ее математич. ожидания а на расстояние, превосходящее За в среднем не более чем 3 раза на одну тысячу испытаний. Именно это обстоятельство используют иногда экспериментаторы в нек-рых задачах теории вероятностей и математич. статистики, считая, что событие {|Х-я| >3а} является практически невозможным и, следовательно, событие {|Х-я| <3а} - практически достоверным. В этом случае говорят, что экспериментатор придерживается «правила грех сигм». Лит.:[\\ Смирнов Н. В., Ду н и н - Б а р к о в с к и й И. В., Курс георни вероятностей и математической статистики для технических приложений, 3 изд., М., 1969. д/. с. Никулин. ТРИПЛЕТ ПРЕДСКАЗУЕМЫХ ХАРАКТЕРИСТИК (trip let of predictable characteristics) семимартингала - набор T=(B, С, v), состоящий из предсказуемых процессов Ву С и компенсатора v меры скачков ц семимартингала X, определение к-рых и свойства даются в ст. Семимартингал. А. Н. Ширяев. ТУРБУЛЕНТНОЕ ТЕЧЕНИЕ (turbulent flow) - форма течения жидкости или газа, при к-рой вследствие наличия в течении многочисленных вихрей различных размеров жидкие частицы совершают хаотические неустановившиеся движения по сложным траекториям (см. Турбулентность) в противоположность ламинарным течениям с гладкими квазипараллельными траекториями частиц. Т. т. наблюдаются при определенных условиях (Re>Re ; см. Рейнольдса критерии) в трубах, каналах, пограничных слоях около поверхностей движущихся относительно жидкости или газа твердых тел, следах за такими телами, струях, зонах перемешивания между потоками разной скорости, а также в разнообразных природных условиях (см. Геофизическая турбулентность). Т. т. отличаются от ламинарных не только характером движения частиц, по также распределением осредненной скорости по сечению потока, зависимостью средней или максимальной скорости, расхода и коэффициента сопротивления от числа Рейнольдса Re, гораздо большей интенсивностью тепло- и массообмена. Профиль осредненной скорости Т. т. в трубах и каналах отличается от параболич. профиля ламинарных течений меньшей кривизной у оси и более быстрым возрастанием скорости у стенок, где за исключением тонкого вязкого подслоя [толщиной порядка 30v/m„, где v - вязкость, ич = (т/р) '2 - скорость трения, х - турбулентное напряжение трения, р - плотность] профиль скорости й(у) описывается универсальным по Re логарифмич. законом й(у)/и+=А \og(y\y0) + B (у0 равно v/m+ при гладкой стенке и пропорционально высоте бугорков - при шероховатой). Турбулентный пограничный слой в отличие от ламинарных обычно имеет отчетливую границу, нерегулярно колеблющуюся со временем в пределах (0,4-1,2)6, где 6 - расстояние от стенки, на к-ром скорость достигает 99% от значения вне пограничного слоя; в этой области скорость растет с удалением от стенки быстрее, чем по логарифмич. закону. Струи, следы и зоны перемешивания обладают приблизительной автомодельностью: с расстоянием X от начального сечения масштаб длины L растет как Хт, а скорость U убывает как Х~пу где для объемной струи т = п = 1, для плоской т = 1, п =1/2, для объемного следа т~\/3, и = 2/3, для плоского т~п=\/2, для зоны перемешивания w=l, и = 0. Граница турбулентной области здесь также отчетливая, но нерегулярной формы и колеблется шире, чем у пограничных слоев [напр., в плоском следе - в пределах (0,4-3,2)L]. Лит.:[\\ Лойцянский Л. Г., Механика жидкости и газа, 6 изд., М., 1987; [2] Л андау Л. Д., Л ифш и ц Е. М., Механика сплошных сред, 2 изд., М., 1954; [3] Таунсенд А. А., Структура турбулентного потока с поперечным сдвигом, пер. с англ., М., 1959; [4j Моими А.С., Яг лом A.M., Статистическая гидромеханика, ч. 1-2, М., 1965-67; [5] Шлихтинг Г., Теория пограничного слоя, пер. с нем., М., 1956; [6] Абрамович Г. Н., Теория турбулентных струй, М., 1960. а. С. Мопин. ТУРБУЛЕНТНОСТЬ (turbulence) - явление, наблюдаемое во многих завихренных течениях жидкостей и газов в природе и в технических устройствах и заключающееся в том, что термо- и гидродинамические характеристики таких течений (вектор скорости, давление, температура, концентрации примесей, плотность, скорость звука, показатель преломления, электропроводность и др.) испытывают хаотические флуктуации, создаваемые наличием многочисленных вихрей различных размеров, вследствие чего изменяются в пространстве и со временем весьма нерегулярно. В частности, у фурье-компо- нент термо- и гидродинамич. полей отсутствуют однозначные дисперсионные соотношения между частотами и волновыми векторами и зависимости от частоты сдвигов по фазе между значениями различных полей, что отличает Т. от случайных волновых полей. Термин «Т.» иногда применяется расширительно как эквивалент стохастичности поведения динамич. систем любой природы, края сводится к следующим трем требованиям: 1) чувствительной зависимости от начальных условий, создаваемой экспоненциальной расходимостью начально близких фазовых траекторий; 2) всюду плотности почти всех фазовых траекторий, причем любое начальное неравновесное распределение вероятности в фазовом пространстве стремится к предельному равновесному распределению; 3) перемешиванию и, как следствие, эргодичности, быстрому затуханию временных корреляционных функций и непрерывности частотных спектров. Развитая гидродинамич. Т. кроме стохастичности в указанном смысле обладает еще многомодовостью, то есть хаотичностью ее пространственной структуры в любой фиксированный момент времени. В школе А. Н. Колмогорова теория Т. развивается как статистическая гидромеханика, в к-рой термо- и гидродинамич. поля рассматриваются как случайные функции точек М - (х, t) пространства-времени, и в качестве операции их осреднения используется математич. ожидание (в этом смысле всякая теория Т. является по своему существу статистической). ТУРБУЛЕНТНОСТЬ 731
Полное статистич. описание турбулентного течения (с фиксированной геометрией его границ) сводится к заданию вероятностной меры на его фазовом пространстве, состоящем из всевозможных индивидуальных реализаций характеризующих его случайных термо- и гидродинамич. полей (так что теория Т. становится одним из приложений теории распределений вероятностей на функциональных пространствах). Задающий эту вероятностную меру характеристич. функционал удовлетворяет нек-рому линейному динамич. уравнению (в вариационных производных), вытекающему из уравнений гидромеханики (в случае пространственного характеристич. функционала оно вполне аналогично уравнению Шредингера для вектора состояния квантового бозе-поля с сильными взаимодействиями). И в технич., и в геофизич. гидромеханике полное статистич. описание Т. осуществить не удается и приходится ограничиваться рассмотрением лишь конечного числа простейших статистич. характеристик Т., как правило только одноточечных и двуточечных статистич. моментов термо- и гидродинамич. полей. Однако в статистически неравновесных состояниях с негауссовскими вероятностными мерами, как это свойственно реальной Т., никакой конечный набор моментов и даже конечномерных распределений вероятностей не эволюционирует самостоятельно, то есть динамич. уравнения для таких конечных наборов статистич. характеристик Т. оказываются незамкнутыми - они всегда содержат дополнительные характеристики старших порядков. В прикладных расчетах для замыкания таких уравнений к ним добавляются гипотезы о малости характеристик старших порядков или об их выражении через характеристики младших порядков с учетом их свойств симметрии, а также тензорной и физич. размерности (обычно нелинейной, так что приходится нарушать принципиальную линейность статистич. динамики и вытекающую из нее возможность линейной суперпозиции вероятностных мер) или же гипотезы подобия, к-рые могут иметь глубокий физич. смысл, вскрывая внутреннюю механику явления, и тогда приобретают самостоятельное значение. Для описания крупномасштабных (энергонесущих) компонент Т., вносящих основной вклад в средние квадратичные флуктуации гидродинамич. полей и в турбулентные потоки количества движения, тепла и примесей (то есть в сопротивление, теплообмен и массообмен), наиболее широко применяются так наз. полу эмпирические теории турбулентности, конструируемые по аналогии с гидродинамич. описанием молекулярного хаоса (кинетич. теорией газов). В описании мелкомасштабных компонент Т., определяющих ее локальную статистич. структуру, основой стали гипотезы подобия А. Н. Колмогорова, исходящие из общемеханич. представлений о происходящих в нелинейных системах каскадных процессах передачи энергии (и других интегрально сохраняющихся величин) по спектру масштабов. Для Т. в природных течениях (см. Геофизическая турбулентность) специфичны: 1) сильное влияние на Т. плотност- ной стратификации среды (при устойчивой стратификации Т. затрачивает много энергии на работу против архимедовых сил и поэтому развивается слабо, нередко концентрируясь лишь в отдельных узких слоях; неустойчивая стратификация, напротив, служит источником энергии турбулентной конвекции, и Т. развивается бурно), основой описания к-рого стала Мошна - Обухова теория подобия; 2) в случае крупномасштабной квазидвумерной Т. - вращение планеты (при этом интегрально сохраняющейся величиной, кроме энергии, становится также потенциальная энстрофия, то есть средний квадрат потенциального вихря). 732 ТУРБУЛЕНТНОСТЬ Понятие «Т.» ввел О. Рейнольде (О. Reynolds, 1883, 1895). Он установил критерий возникновения Т. (достаточно большое отношение сил энерции к силам вязкости: Re = v~1Lt/> ReKp~3000, где v- кинематич. вязкость, L и U ~ масштабы длины и скорости), ввел операцию осреднения и построил осредненные уравнения гидромеханики, в к-рых к обычным напряжениям добавляются турбулентные Tji=-p(uj uf). Аналогично возникают турбулентные потоки тепла <7у=ср(8' ">) и примесей Ij = p(s,uj); здесь штрихом обозначаются турбулентные флуктуации, угловыми скобками - осреднение, р - плотность, ы - компоненты скорости, с - удельная теплоемкость, 8 - температура, s - концентрация примеси. Полное статистич. описание Т. ввели в виде уравнений для моментов А. А. Фридман и Л. В. Келлер (1924), для характеристич. функционала - Э. Хопф (Е. Hopf, 1952), для конечномерных распределений вероятностей - А. С. Мо- нин (1967). Л. Ричардсон (L. Richardson, 1922) ввел интуитивное представление о каскадном процессе дробления турбулентных вихрей; ему же принадлежит характеристика гидростатич. устойчивости плотностной стратификации среды: Ri = N2(d(u)/dz)~2 (Ричардсона число), где N = (gd(pj/p+dz)]/2 - частота Вяйсяля - Брента(<7~ ускорение силы тяжести, р+ - потенциальная плотность, z - вертикальная координата). Дж. Тейлор (J. Taylor, 1915, 1932), Л. Прандтль (L. Prandtl, 1925) и Т. Карман (Т. Karman, 1930) ввели основные понятия полуэмпирич. теории Т., в том числе «путь перемешивания» (аналог длины свободного пробега молекул), и гипотезу о линейной зависимости турбулентных потоков от градиентов осредненных полей (с коэффициентами, имеющими смысл турбулентной вязкости, теплопроводности и диффузии). Дж. Тейлор (1935) ввел понятие изотропной турбулентности, все статистич. характеристики к-рой инвариантны относительно любых сдвигов, вращений и отражений пространственной системы отсчета. Реальные турбулентные течения такими геометрически простейшими свойствами не обладают, и, хотя бы приблизительно, изотропную Т. можно создать лишь искусственно (за решетками в аэродинамич. трубах, где она вырождается с удалением от решетки по законам неполной автомодельности). Однако это понятие оказалось весьма важным, когда А. Н. Колмогоров (1941) установил, что всякая реальная Т. с достаточно большим числом Рейнольдса Re должна быть локально стационарной, локально однородной и локально изотропной, то есть все конечномерные распределения вероятностей для разностей v(Mk) = u(Mk) ~ и(М0), k = 1, 2, ..., значений гидродинамич. характеристик (при фиксированных и0 = и(М0) и не слишком больших |jtfc-Jt0| и |^-/0() должны быть инвариантными относительно любых сдвиг-ш . пространстве точек М и любых вращений и отражен\ и и пространстве векторов дг. Основой для статистич. описания мелкомасштабных компонент трехмерной локально изотропной Т. стали гипотезы подобия А. Н. Колмогорова (1941), согласно к-рым при.фиксированной скорости диссипации кинетич. энергии е вышеуказанные конечномерные распределения вероятностей полностью определяются двумя размерными параметрами е и v. При гном возникает Колмогоровский внутренний масштаб Т.: A. = e1^4v~3/4, и, напр., структурная функция, то есть средний квадрат разности скоростей в точках х и лг + г (где г много меньше масштаба L течения в целом), оказывается равной <(5и)2) = (Ег)2/3ф(гА), где ф(У- универсальная функция, быстро затухающая на бесконечности. При очень больших Re появляется так наз. инерционный интервал масштабов L» ту>\, в к-ром силы вязкости очень малы но сравнению с силами инерции, так что параметр v выпадает, и получается {(Ъи) )~(ег) ' . Этот закон двух третей
оказался важным законом природы с весьма широкими применениями. Спектральным аналогом этого Колмогорова закона двух третей (1941) является Колмогорова - Обухова закон пяти третей (1941) для спектральной плотности кинетич. энергии E(k)~£ ' Л" , где k - волновое число. В 1949 А. М. Обухов установил аналогичный закон E0(k) ~цг '' k '* для поля температуры (где е0 - скорость спектрального переноса меры неоднородностей температурного поля). Указанные здесь, а также другие предсказания, вытекающие из гипотез подобия Колмогорова и Обухова, нашли многочисленные подтверждения в самых разнообразных экспериментальных данных. Если считать е (и е0) не фиксированными, а учитывать их флуктуации, то Колмогоровекая автомодельность становится неполной и структурные функции приобретают поправочные множители (r\/L)m с небольшими показателями т (А. Н. Колмогоров, А. М. Обухов, 1962). Гипотезы подобия для Т. в стратифицированных средах сформулировали А. С. Монин и А. М. Обухов (1953). В случае термич. стратификации они заключаются в том, что энергонесущие компоненты Т. полностью определяются тремя размерными параметрами: скоростью трения ы+ = (т/р)1'2 (т- турбулентное напряжение трения), нормированным потоком тепла q/cpp (q - вертикальный турбулентный поток тепла) и параметром плавучести g/Q. При этом возникает вертикальный масштаб L- -u^(g/Q)~ (q/cpp)~ , масштабы скорости и^ и температуры 8#= -u~l(q/cpp), а все безразмерные одноточечные характеристики Т. оказываются универсальными функциями от безразмерной высоты z/L. Асимптотики этих функций при q -> 0 получаются из теории логарифмич. турбулентного пограничного слоя, при м+ ->0 - из теории свободной конвекции со степенными зависимостями от z/L, а при q < О (то есть при очень устойчивой стратификации) зависимости от z/L пропадают. В развитие теории двумерной Т. наибольший вклад внес Р. Крейчнан (1967). В случае двумерной Т. кроме е появляется еще один определяющий параметр - скорость еш спектрального переноса энстрофии, и в области такого переноса спектральная плотность энергии принимает вид E(k)~zJ k~ (причем от локализованного в спектре около k-kQ источника происходит передача энергии в сторону больших масштабов, а энстрофии - в сторону малых). Спектр температурного поля имеет вид Ев(/г)-еве~ ^ k~ ; точнее, спектральный перенос энстрофии оказывается нелокальным процессом, из-за чего указанные спектры приобретают еще логарифмич. поправки (In */*в)~,/3. Важным геофизич. приложением этой теории явилась так наз. геострофическая турбулентность - квазидвумерная крупномасштабная Т. в атмосфере и океане Земли (и, по-видимому, на Солнце и больших планетах), в к-рой негидроста- тич. часть давления // » р/\у пропорциональна горизонтальной функции тока у (f - параметр Кориолиса). Для функции у выводится уравнение Эу _ at + д(хоУ) р где Ay + f- потенциальный вихрь, Эх bz n1 bz ар- производная от f по направлению меридиана у. При L « Ln= (zfZ/p)1' слагаемым с р можно пренебречь и получается чисто двумерная Т. При L » L^ пренебрежимо второе слагаемое и получается уравнение для волн Россби - Блиновой. С течением времени типичный масштаб L растет, вихри превращаются в волны, баротропизируются (то есть выравниваются по вертикали), вытягиваются по широте и смещаются на запад (П. Райнс, 1975). Из приложений следует упомянуть еще гидромагнитную Т. со спиральностью (MrotM>*0 (К. Моффатт, К. Moffatt, 1970), из перспективных методов расчета - метод Галеркина (М. И. Вишик, А. В. Фурсиков, 1980) и сеточный расчет энергонесущих компонент Т. (О. М. Белоцерковский, 1985). Лит.: [II Бэтчелор Дж. К., Теория однородной турбулентности, нер. с англ., М., 1955; [2] Монин А. С, Яглом A.M., Статистическая гидромеханика, ч. 1-2, М., 1965-67; [3] Лам л и Дж.-Л., Панове кий Г.-А., Структура атмосферной турбулентности, пер. с англ., М, 1966; [4] Монин А. С, Озмидов Р. В., Океанская турбулентность, Л., 1981; [5] Вишик М. И., Фурсиков А. В., Математические задачи статистической гидромеханики, М., 1980. А. С. Монин. ТУРБУЛЕНТНОСТЬ в стратифицированных средах (turbulence in stratified media) - турбулентность при изменениях плотности среды р по вертикали z (направлению силы тяжести д)\ отличается от Т. в несжимаемой жидкости или в средах с безразличной стратификацией существенным действием архимедовых сил р'д на объемы с отклонениями рг плотности от ее гидростатического значения Pq(z) (в земной атмосфере, конвективном слое Солнца и во многих технических устройствах флуктуации р'« -р ' создаются флуктуа- циями температуры 8Г, и существенна термическая стратификация, в Мировом океане сравнимую роль играют флуктуации 5" солености, и р'/р« -a8' + [}S", в потоках со взвесью могут быть существенными флуктуации ее концентрации). Если dp0/dz< -dp0/C2 (где С- адиабатич. скорость звука), то стратификация гидростатически устойчива, Т. затрачивает энергию на работу против архимедовых сил и поэтому развивается слабо, нередко сохраняясь лишь в отдельных тонких слоях или «блинах» (повсеместно встречающихся, напр., в Мировом океане, где они образуются вследствие горизонтального расплывания вертикально коллапсирующих перемешанных пятен, остающихся после опрокидывания внутренних волн). Если же, наоборот, др$/дг> -др0/С , то стратификация неустойчива, и за счет ее потенциальной энергии развивается бурная турбулентная конвекция (напр., кучевая конвекция в прогреваемых снизу холодных воздушных массах в земной атмосфере или ячеистая конвекция во внешних слоях Солнца). Наличие вертикального сдвига dU/dz скорости ос- редненного течения обычно усиливает гидродинамич. неустойчивость и развитие Т. (см. Ричардсона число). В описании Т. в стратифицированных средах существенную роль играет параметр «плавучести» ад, где a - коэффициент расширения (у идеального газа a = 8" ). В случае развитой Т. возникает «масштаб плавучести» L = (ад)~3^2Е5, Eq, где е, £q - скорости спектрального переноса кинетич. энергии и меры температурных неоднородностей (A.M. Обухов, 1949), и в так наз. инерционно-конвективном интервале волновых чисел k спектры Т. при устойчивой стратификации принимают вид E(k)-(ag)i/54/5k~u/5 и EQ(k)~(agr2/54/5k-7/5. В Мони- на - Обухова теории подобия для описания энергонесущих компонент Т. в стратифицированных средах к ад добавляются вертикальные турбулентные потоки количества движения и массы (или тепла). Лит.:[\\ Монин А.С, Яглом А. М., Статистическая гидромеханика, ч. 1-2, М., 1965-67; [21 Монин А.С, Озмидов Р. В., Океанская турбулентность, Л., 1981. А. С. Монин. ТЬЮКИ КОРРЕЛЯЦИОННОЕ ОКНО (Tukey's lag win dow) - см. Корреляционное окно. ТЬЮКИ - ХЕННИНГА ОЦЕНКА (Tukey - Henning estimator) - см. Спектральная плотность; непараметрическая оценка. ТУРБУЛЕНТНОСТЬ 733
УАЙТМАНА ФУНКЦИЯ, Вайтмана функция (Wightman function) в квантовой теории поля,- среднее по вакуумному среднему от произведений полевых операторов. Их можно рассматривать как аналог корреляционных функций в статистич. механике или моментных функций в теории случайных процессов. Пусть {(p(f), feS(M )} - квантовое поле, то есть семейство операторов, действующих в нек-ром гильбертовом пространстве Н с вакуумным вектором Q (см. [1]). Полилинейные формы wWi 0 = -(ф(/,,)-ф(й)---я»(/«)о.он) допускают представление (по теореме о ядре; см. [3]): wWi /»> = = 1(М7 W^X^ -• Xn>=f\(x0-fn(xn>dx\-dxn' где Wn(xu ..., xn), х{ e M ,- обобщенная функция умеренного роста, называемая и - и функцией Уайтмана. Такое определение связано с тем, что в квантовой теории поля случайные поля являются обобщенными. Набор таких функций {Wn(xit ..., хп)}, я= 1, 2, ..., удовлетворяет ряду требований, вытекающих из аксиом квантовой теории поля (ковариантность, положительная определенность, локальность и т. д.; см. [2]); этот набор с точностью до унитарной эквивалентности определяет само квантовое поле {q>(f), feS(M )}. Лит.: 111 Йост Р., Общая теория квантовых полей, пер. с англ., М., 1967; 12J Боголюбов Н. Н. [н др.], Общие принципы квантовой теории поля, М., 1987; [3] Гельфанд И. М., Вилен- к и н Н. Я., Некоторые применения гармонического анализа. Оснащенные гильбертовы пространства, М., 1961. Р. А. Минлос. УБИВАНИЕ марковского процесса (killing of a Markov process) - переход от данного процесса к нек-рому подпроцессу. л. А. Юшкевич. УГЛОВАЯ МОДУЛЯЦИЯ (angular modulation) - см. Частотно-модулированное колебание. УГЛОВАЯ ЧАСТОТА (angular frequency) - см. Частота. УДЕЛЬНАЯ СВОБОДНАЯ ЭНЕРГИЯ (specific free energy) - см. Свободная энергия. УЗЕЛ ПЛАНА (supporting point of a design) - см. Регрессионных экспериментов планирование. УЗКАЯ СХОДИМОСТЬ (narrow convergence) - см. Слабая сходимость. УЗКАЯ ТОПОЛОГИЯ (narrow topology) - см. Слабая топология, Прохорова теорема. УЗКОЙ СХОДИМОСТИ ТОПОЛОГИЯ (topology of narrow convergence) - см. Прохорова теорема. УЗЛОВ МОДЕЛЬ (site model) - см. Перколяции теория. 734 УАЙТМАНА УЗЛОВАЯ ТЕОРЕМА ВОССТАНОВЛЕНИЯ (key renewal theorem) - см. Восстановления теорема. УИЛКОКСОНА КРИТЕРИЙ (Wilcoxon test) - непараметрический критерий однородности двух выборок Хи ..., Хп и Y]t ..., Ym. Элементы выборок предполагают взаимно независимыми с непрерывными функциями распределения Fix) и G(x) соответственно; проверяемая гипотеза Fix) = G(x). У. к. основан на ранговой статистике W^s(r^) + ...+s(rm), (*) где г. - ранги случайных величин У; в общем вариационном ряду Х{ и У, а функция s(r), r-\, ..., п + т, определяется заранее фиксированной подстановкой С \ 2 ... п + т Л {s(\)s(2)...s(n + m))> где 5(1), ..., s(n + m) - одна из возможных перестановок чисел 1, 2, ..., п + т. Выбор подстановки осуществляется так, чтобы мощность У. к. для заданной альтернативы была наибольшей. Распределение статистики W зависит лишь от объемов выборок и не зависит от выбора подстановки (если справедлива гипотеза однородности). При и->°° и т->«> случайная величина W распределена асимптотически нормально. Вариант У. к. этого типа предложен впервые Ф. Уилкоксоном для выборок равного объема и был основан на статистике (*) специального вида при s(r) = r (см. Суммы рангов критерий, Манна - Уитни критерий). См. также Ван дер Вардена критерий, Ранговый критерий. Лит.: [1] Wilcoxon F., «Biometrics*-, 1945, v. 1, p. 80-83; [2] Большее Л.Н., См и рн о в Н. В., Таблицы математической статистики, 3 изд., М., 1983; [3] Ван дер Варден Б. Л., Математическая статистика, пер. с нем., М., 1960. А. В. Прохоров. УИЛКСА РАСПРЕДЕЛЕНИЕ (Wilks distribution), (/-распределение,- распределение величины где Ij-V имеет многомерное бета-распределение типа / с тЕ/2 и тИ/2 степенями свободы соответственно. Говорят, что U имеет распределение Уилкса со степенями свобод d, тИ, тЕ, и пишут Статистика U впервые была введена С. Уилксом в 1932. Основные свойства У. р. 1) Функция распределения U может быть выражена как счетная смесь неполных бета-функций. 2) Распределение Udmfj Wf такое же, как и у Umndm^mfrd\ этот факт используется, если mH<d. Вместо тройки (d, тИ, тЕ) можно использовать тройку (d, тИ, /г0), где /г0 = тЕ + тн. Если же заменить d и тн так, что d* = mH и mu-d, и положить тЕ=тЕ+ тИ-d, то Щ-тЕ + тн-тЕ+ тн = h0. 3) Имеют место следующие специальные случаи. Когда d — 1, то 1*тН'тЕ тЕ ft < ——»—!L-J^~Fm mE для любого тн. UlmH.mE mH H
Когда тн = 1, то X-U </,!,»«£ mE+\-ri udXmE Когда d = 2, то г/, wA-+l-rf для любого d. 2,mH,mt: mt-\^r —ЛГ2 — *2тн*тЕ-\» m^L и2,тн,ти Н Когда ти = 2, то 1-i/V2 1 ud,2,mE mF+\-d !jV~2 '~^d ~F2d,2(mF+\-<i)> d^2' 4) Для больших Л0 (то есть для больших тЕ) величина W---f\nU стремится к распределению %1т » гДе f=mE~ -(d-mH + \)/2 = h0-(d + mH + \)/2. н Лит.: [1] Seber G. A. F., Mullivariante observations, N. Y.- [a.o.j, 1984. И.В. Степахно. УИНЗОРИЗОВАННЫЕ СРЕДНИЕ (Winsorized means) - см. Устойчивость статистической процедуры. УИШАРТА РАСПРЕДЕЛЕНИЕ (Wishart distribution) - распределение у к-рому подчинена оценка ковариационной матрицы, вычисленная по выборке из многомерного нормального распределения с невырожденной матрицей ковариации. Впервые получено Дж. Уишартом (см. [1]). У. р. является обобще- 2 нием распределения х Для оценки дисперсии одномерной случайной величины. Пусть имеется выборка (Х{, ..., Хп) объема п из р-мерных наблюдений (п>р+ 1), Х,-еЛ^(ц, I), i= 1, ..., я, с неизвестными параметрами ц и Z. И пусть S - оценка матрицы Z. Тогда плотность У. р. для случайной матрицы А =■ (и - 1)5 равна ^(n-p-2)/2e-trAZ-{/2 о;(Л|1,п-1): 2(«-1)/>/27С„(^-1)/4|11(.-1>/2^^ П(я_0/2| если А положительно определена, и равна нулю в остальных случаях. ^акон У. р., соответствующий плотности ву04|Е, я-1), обозначается через W(T., л- 1). Характеристич. функция имеет вид Еехр[!Чг(Л0)]=|1-,|("-1)/2/1Г,-2|в|(я-,)/2, где 0 - действительная матрица. В многомерном статистич. анализе часто используют следующие результаты, вытекающие из У. р.: 1) Е5 = 1, 2) Ef[ = [(n-\)/(n-p-\)}ir\ 3) Su~x (n-p-\), где s" есть z-й диагональный элемент матрицы 5" , 4) v'Sv~(v"Lv)x2(n-\). Важным является следующее свойство У. р. Пусть А-~ W (I, п;-1), j-\, ..., q. Если матрицы А: независимы, то матрица А = У7. А* удовлетворяет соотношению Лит.: [Ц Wishart J., «Biometrika», 1928, v. 20A, p. 32-52; [2] Андерсон Т., Введение в многомерный статистический анализ, пер. с англ., М., 1963. И. С. Енюкоо. УИШАРТА РАСПРЕДЕЛЕНИЕ обобщенное (Wishart generalized distribution) - совместное распределение элементов эмпирической ковариационной матрицы полученной по наблюдениям х{} ..., хп над ти-мерным случайным вектором х\ причем у элементов матрицы Х = (х{, ..., хп) существует плотность распределения p(U), где U - матрица размера ихи. Если п>т, то плотность распределения матрицы £ равна (п- 1Г("-,,/2С,„,яН J p«n- \)"2ZЦ2НтТп., + + ymfn)aetZ\:-m-W ПГ=1 d9iVUH), где Zm - неотрицательно определенная матрица от-го порядка, G„_j - группа (я-1)-мерных вещественных ортогональных матриц, \1 - нормированная мера Хаара на ней, Я = Ц^иЦ» i=l, .... m, /=1, ..., п, ут=1у,1Т, i=l, j= 1, ..., и,- ортогональная матрица tn-(n m, T„ t/2 П rV24 С^.,=ки(""0/4"("",)"/2ПТ1Г((я-|)/2). Лит.: [1] ГиркоВ.Л., Многомерный статистический анализ, К., 1988. В.М. Гирко. УКЛОНЕНИЙ ФУНКЦИЯ (deviation/rat function) для случайной величины XefP - функция A(a) = sup{a, a)-lnya)}, (l) где v(» = Ee(U0. У.ф. есть преобразование Лежандра функции Л(А,) = Iny(\) [иначе, сопряженная функция, двойственная функция к Л(А,)]. У. ф. [вместе с А(Х)] есть выпуклая функция. Ее вероятностный смысл определяется равенством A(a) = -lim HmllnPJ^-eA I е->о п-»оо п { п u'fc J где Sn = X) + ...+Xn, Xk независимы и распределены как X, а Да.е ~~ последовательность вложенных кубов или сфер, содержащих точку а и стягивающихся к ней при е -* 0. У. ф. играет важную роль при описании вероятностей больших уклонений сумм Sn и в близких задачах. Одномерный случай. Пусть X_ = inf {Х:у(Х) <«>}, X+ = sup{X:\|f(X) <<»}, Х_<Х+ (в противном случае A(a)sO). Функция А(Х) = = 1пуШ определена на отрезке [Х_} Х+], строго выпукла на нем, А(Х) ->А(Х_)(А(Х+)) при XlX_ (соответственно при Л.Т Л.+). Поэтому для любого а существует единственная точка Х(а)е[Х_, Х+], в к-рой функция Ха-А(Х) достигает своего максимума. Внутри отрезка [Х_, Х+] функция Х(а) удовлетворяет уравнению А'(Х) = а, то есть обратна к А'(Х). Функции Л(а), Х(а) аналитичны в интервале (а_, а+) = (Л'(Х_), А'(Х+)) и имеют пределы А(а+), Х(а+) , когда ata+ [соответственно А(Х_)(Х(а_)), когда aia_]. При a«[a_, a+] максимум Ха-А(Х) достигается на границах отрезка [Х_, Х+]> так что Х(а) = Х+ при a^a+; X(a) = X_ при a^a_. Для таких значений а, если Х± конечны, А(а) = оЛ± -А(Х±). Если же Х± = ±°°, то А(а) = +о° при а>а+ и а<а_. Вариант а_>-°°, Х_ = -°° (соответственно а+<о°, Х+ = +о°) отвечает случаю, когда X ограничена снизу (сверху) значением а_ (а+). При этом А(а± ) = In Р{Х = а±}, так что А(а) терпит разрыв в точке а±, если Р{Х = а±}>0. Таким образом, У. ф. Л(а) определена на всей действительной оси, причем И? разбивается самое большее на три интервала, на к-рых У. ф. регулярна. Кроме того, Л(а) = Л(а0)+Г XU)dt -»a0 УИШАРТА 735
при любом а0 € (а_, а+). Если существует ЕХ = а, то Л(а) = 0 и А(а) = j^X(t)dt. Aa) = jXQr^)diit Справедлива формула обращения Jo где r(\i) - функция, обратная к А.(а) = Л'(а). Это соответствует другой формуле обращения /K^) = sup {а^-Л(а)} а и тому, что дважды сопряженная к А(Х) функция Л**Ш = sup(ko:-Л*(а)) совпадает с А(Х). Таким образом, а связь между функциями Л(Х) и Л(а) характеризуется тем, что их производные А'(Х) и Л'(сх) - взаимно обратные функции. Если Лу (а) - У. ф. для У, то Аа+ьх(а) = Ах«а-а)/Ь), Л^(а) = яЛх(а/я). (2) Если ^_<0<^+[у(А.) аналитична в точке Х=0], то коэффициенты разложения Х(а) [соответственно Л(а)] можно выразить через семиинварианты yk случайной величины X. В силу (2) достаточно рассматривать случай ЕХ = 0, DX = 1. Так как А'(Х) = У£^=] akXk, где ak-yk+]/k\y д1=у2=1, то ^(а)==ХГ=1 lk€tk> где /l = 1> l2 = ~a2> h = -a3 + 2al U = = -аА + 5а3а2-5а%; Lk = lk_^/k при k^3 образуют коэффициенты ряда Крамера [коэффициенты разложения Л(а)] (см. [1], [6]). У. ф. Л(а) и функция А(Х) удовлетворяют неравенству Юнга: А(а)+А(Х)^(а, X). Для нек-рых распределений У.ф. может быть найдена в явном виде. Для стандартного нормального распределения: А(Х) = Х2/2, Х(а) = а, Л(а) = а2/2, Х± = ±~, а± = ±оо. Для биномиального распределения: Р{Х=1} = р, Р{Х = -1}=1-р, А(Х) = \п(рек+(\-р)е~к), Ма) = -1п—т—;—» А.+= ±оо, а+ = ±1. 2 /?(1-а) ± ± Для гамма-распределения с параметрами ([}, ц,): А(Х) = -ц1п( 1 - УР)> Х(а) = Р - ц/а, Л(а) = ц(а-ц/р)-1п(ар/ц), Х_ - -оо, Х+ = р, а_ = О, а+ = «о. Для распределения Пуассона с параметром \i: А(Х) - -\i + \iex, X(a) = In а/ц, Х± = ± <*>, а_ = 0, а+ = <*>. У. ф. позволяет описывать не только логарифмическое (грубое), но и точное асимптотич. поведение вероятностей больших уклонений для сумм случайных величин. Если EXj=0, а = */яе (0, а+), сгЛГ-><*>, (a+-a)V/T~»oo, то P{S>x)~ ^a) е-яЛ(а) * " ' V2^X(a) (см. [1]). Это соотношение можно записать также в форме Р {5„ > х} ~ с(а)(Л^(*))~1/2е ~\{х\ к-рая сохранится при слабых ограничениях и при переходе к зависимым и разнораспределенным Xk. В многомерном случае при описании вероятности P{Sn е д:П}(ЕХ1 = 0, х<п-> «О, 736 УКЛОНЕНИЙ где множество Q не содержит окрестности точки 0, важную роль играют поверхности уровня Г6, являющиеся границами выпуклых множеств: Hh = {a:A(a)^b), 6^0, и величина bQ = sup{6:tf6nQr = 0} = inf{A(a), aeflj, Clx = xQ/n. Если, напр., касание Нь и С1Х происходит в единственной точке a(Qx) и имеет второй порядок по всем направлениям (отклонение имеет порядок г , где г - расстояние от a(Qr) в касательной плоскости), то при выполнении нек-рых не очень ограничительных условий (см. [4]) P{Snexn}~^^e-nW^\ У. ф. играет определяющую роль при описании больших уклонений в граничных задачах для случайных блужданий, при описании больших уклонений в принципе инвариантности и в других родственных проблемах (см. [3]). У.ф. позволяет описывать грубое (логарифмическое) асимптотич. поведение вероятностей больших уклонений и в бесконечномерном случае. Понятие У. ф. распространяется (с сохранением основных свойств) на случайные величины со значениями в произвольном топологич. векторном пространстве V следующим образом: A(a) = sup {(Х,а)-А(Х)},А(Х) = \пЕе{ХХ\ keV* где V* - сопряженное к V пространство линейных непрерывных функционалов, к-рые обозначены (X, а). Роль У. ф. в этом пространстве поясняется соотношениями Л(а) - m UeCia nf [limllnpI^et/U] ■С(а)1_п-*~ п [ n J J | lim llnPJ^-ef/U-inf Л(а), (3) где С(а) - совокупность открытых выпуклых множеств, содержащих а. Эти утверждения верны, если пространство V локально выпукло, распределение X плотно в V, а множество U в формуле (3) открыто и выпукло (см. [5]). Все основные грубые теоремы о больших уклонениях (см. [5], [7], [8]) укладываются в следующую общую схему. Пусть Хп - последовательность случайных элементов со значениями в пространстве V. Существуют классы Ш и ЗК* множеств из V и V* соответственно такие, что следующие два соотношения эквивалентны: I. \пЕехр(у(п)(Х, Хп))~у(п)А(Х) для ХеШ*, II. In P{Xn g Q} - -у(п) inf Л(а) для CI е 2R, где#(л) - нек-рая числовая последовательность, стремящаяся к оо. Это своеобразный принцип двойственности в теории больших уклонений (тесно связанный с двойственностью в выпуклом анализе), где, как и прежде, A(a) = sup{(X, a)-A(X)},A(X) = sup {(X, a>-A(a)}. к a Большие уклонения марковских процессов описываются с помощью так наз. функционала действия, к-рый задается формулой (1) с заменой у(Х) на преобразование Лапласа (производящую функцию моментов) переходной вероятности (см. [7]). Лит.: [1] Боровков А. А., Теория вероятностей, 2 изд., М., 1986; [2] его же, «Теория вероятн. и ее нримен.», 1967, т. 12, t;. 4T с. 635-54; [3] его же, «Сиб. матем. ж.», 1964, т. 5, № 2, с. 253-89; 1964, т. 5, К? 4, с. 750-67; [4) Боров ков А. А., Рогозин Б А.. «Теория вероятн. и ее нримен.», 1965, т. 10, в. 1т с. 61-69; [51 IS о-
ровков А.А., Могульский А.А., «Сиб. матем. ж.», 1978, т. 19, № 5, с. 988-1004; 1980, т. 21, № 5, с. 12-26; [в] Петров В. В., Предельные теоремы для гумм независимых случайных величин, М., 1987; [71 Вентце л ь А. Д., «Теория вероятн. и ее примен.», 1976, г. 2», в. 2, с. 235-52; [8) DonskerM.D., Varadh an S. R. S., «Coinm. Pure Appl. Math.», 1976, v. 29, № 4, p. 389-461. А. А. Боровков. УКРУПНЕНИЕ СОСТОЯНИЙ цепи Маркова (aggregation of states of a Markov chain) - см. Маркова цепь\ укрупнение состояний. УКРУПНЕНИЯ ФУНКЦИЯ (aggregation function) - см. Маркова цепь; укрупнение состояний. УЛУЧШАЮЩЕЕ СХОДИМОСТЬ ПРЕОБРАЗОВАНИЕ (convergence improving transformation) - построение функций от случайных величин, распределение к-рых «более близко» к предельному закону распределения. Напр., пусть Xt, ..., Хп независимы и равномерно распределены на интервале (-1, 1) и Zrt = V "_ Xj/Vh/3 . Тогда, согласно центральной предельной теореме, при п -> <*> P{Z„<*}-OW = 0(h"!), где Ф(х) означает функцию стандартного нормального распределения. Если V„ = Z„-(3Z„-Z„3)/(20n), ТО ПрИ П -> оо Р{Уп<х)-Ф(х) = 0{гГ2). Другие примеры У. с. п. - Вильсона - Хильферти преобразование, Патнайка преобразование, Пирсона преобразование. См. также Асимптотически нормальное преобразование. Асимптотически пирсоновское преобразование. Лит.: [1] Большее Л. Н., «Теория вероятн. и ее примем.», 1959, т. 4, в. 2, с. 136-49. В. И. Пагурова. УМЕРЕННО МАРКОВСКОЕ СВОЙСТВО (moderate Markov property) для непрерывного справа без разрывов второго рода марковского процесса - условная независимость «прошлого» и «будущего» для любого предвещаемого марковскою момента т при известном значении Xz левого предела процесса в момент т. Точнее, пусть X = (Xt, ,«/£f Px) - однородный марковский процесс, траектории к-рого непрерывны справа и имеют пределы слева. Марковский момент т называется предвещаемым, если найдется последовательность марковских моментов хп такая, что х„<хп+1 и т„Тт; в этом случае полагают .</т = V «^ (определение а-алгебры ,*fx см. в ст. Строго марковское свойство). Говорят, что процесс X обладает умеренно марковским свойством, если для любого предвещаемого марковского момента т и любого h>Q Рц Р^т+л е Г|^т_} = Рх {Хп е Г} Рц-почти наверное. У.м.с. было введено К. Чжуном и Дж. Уолшем [1]. У. м. с. обладают, напр., процессы Рэя и процессы Ханта. У.м.с. связано со свойством почти наверное непрерывности слева случайных процессов r^(Xt_t Г), где г^ - резольвента X. Лит.:[\\ Chung К. L., Walsh J. В., «Acta Math.», 1969, № 3/4, p. 225-51; [2] Chung K.L., Glover J., «Z. Wahr. und verw. Geb.», 1979, Bd49, S. 237-48; [3J Engel bert H. J., «Math. Nachr.», 1978, Bd 85, S. 111-30, 235-66; [4| Кузнецов С. Е., в кн.: Итоги науки и техники. Современные проблемы математики, т. 20, М., 1982, с. 37-178. СЕ. Кузнецов. УМЕРЕННЫХ УКЛОНЕНИЙ ЗОНЫ (zones of moderate deviations) - см. Нормальной сходимости зона. УНИВЕРСАЛЬНО ИЗМЕРИМАЯ СТРАТЕГИЯ (universally measurable strategy/policy) - см. Управляемый случайный процесс с дискретным временем. УНИВЕРСАЛЬНО ОПТИМАЛЬНЫЙ ПЛАН (universally optimal design) - см. Регрессионных экспериментов планирование. УНИВЕРСАЛЬНОЕ КОДИРОВАНИЕ (universal encoding) - последовательность кодов для множества источников, стоимость к-рых сходится к энтропии каждого источника. Кодирование называется сильно или слабо универсальным в зависимости от того, равномерна или нет эта сходимость. Установлено существование сильно У. к. для источников с конечной памятью (см. [1]); построены асимптотически наилучшие универсальные коды для таких источников (см. [2]). Существует слабо У. к. для множества всех стационарных источников с конечным алфавитом (см. [3]). Построение У. к. эквивалентно нахождению пропускной способности нек-рого канала (см. [4]). У. к. позволяет сжимать информацию без точного знания характеристик источника. Лит.: [\\ Фитингоф Б. М., «Проблемы передачи информации», 1966, т. 2, № 2, с. 3-11; [2] Krichevsky R. E., Trofimov V.K., «IEEE Trans. Inform. Theory», 1981, v. IT27, № 2, p. 199-207; [3j Shtar'kov Ju.M., BabkinV.F., «2-nd Int. Symp. Inform. Theory. Tsachkadzor, 1971», Bdpst, 1973, p. 249-57; [41 Ряб ко Б. Я., «Проблемы передачи информации», 1979, т. 15, № 2, с. 71-77. Р. Е. Кричевский. УНИВЕРСАЛЬНОЙ СОСТОЯТЕЛЬНОСТИ СВОЙСТВО (universal consistency) - см. Непараметрический регрессионный анализ. УНИМОДАЛЬНОЕ РАСПРЕДЕЛЕНИЕ (unimodai distribution), одновершинное расп ре делен ие,- распределение вероятностей, имеющее одну моду. Точнее, вероятностное распределение на прямой называется унимодальным, если соответствующая функция распределения F(x) выпукла при х < а и вогнута при х > а для нек-рого действительного а (называемого модой или вершиной распределения). Примерами У. р. служат нормальное распределение, распределение Коши, равномерное распределение, причем в последнем примере мода определена неоднозначно. У. р. имеет плотность всюду за исключением, быть может, одной точки; плотность не убывает слева и не возрастает справа от моды. Имеются разнообразные критерии унимодальности распределений. Наиболее общим является следующий критерий: функция распределения F(x) унимодальна с модой в нуле тогда и только тогда, когда она представима в виде FW=J(J G(x/u)du, где G(x) - нек-рая функция распределения, или, что то же самое, ее характеристич. функция f(t) представима в виде АО-у JJ <p(«W«, УКРУПНЕНИЕ 737 где ф(м) ~ характеристич. функция. Критерий означает, что F(x) унимодальная с модой в нуле тогда и только тогда, когда она является функцией распределения произведения двух независимых случайных величин, одна из к-рых распределена равномерно на отрезке [0, 1]. Однако, несмотря на обилие критериев, проверка факта унимодальности распределений, к-рые задаются своими характеристич. функциями (напр., устойчивых распределений), представляет собой трудную аналитич. задачу. Подтверждение тому - проблема унимодальности распределений класса L, так наз. саморазложимых распределений. На протяжении трех десятилетий был ряд попыток доказать унимодальность распределений этого класса. Эти доказательства оказывались неверными (причем и в примерах, показывающих ошибочность доказательств, также имелись ошибки). Лишь в 1978 проблема унимодальности распределений класса L получила оконча-
тельное (по-видимому) решение - было доказано, что все распределения класса L одновершинны. Большим неудобством при исследовании унимодальности композиций и пределов композиций распределений является тот факт, что композиция двух У. р., вообще говоря, не является У. р. (хотя в течение долгого времени полагали, что это так). По этой причине было введено понятие сильной унимодальности: распределение называется сильно унимодальным (сильно одновершинным), если его композиция с любым У. р. есть У. р. Композиция двух симметричных У. р. унимодальна, и симметризация любого У. р. есть У. р. Класс У. р. играет большую роль в теории вероятностей и математич. статистике. В этой связи важным обстоятельством является тот факт, что многие результаты, касающиеся распределений, могут быть усилены в предположении унимодальности. Так, напр., Чебышева неравенство для случайной величины X с У. р. можно уточнить: P{\X-x0\>aQ^4/9a2 для любого й>0, где х0 - мода, а £ -Е(Х-х0) . Еще в большей степени это относится к характеристич. функциям. Решетчатое распределение, приписывающее точкам a + hkt k-0, ±1, ..., Л>0, вероятности pk, называется унимодальным, если существует такое целое kQ, что pk как функция от k является неубывающей при k ^ k0 и невозрастающей при k^kQ. Примерами решетчатых У. р. являются распределение Пуассона, биномиальное распределение, геометрич. распределение. Имеется целый ряд определений унимодальности многомерных распределений. Лит.: [\] Феллер В., Введение в теорию вероятностей и ее приложения, пер. с англ., т. 2, М., 1984; [2] Лукач Е., Характеристические функции, пер, с англ., М., 1979. Н. Г. Ушаков. УНИТАРНАЯ СЛУЧАЙНАЯ МАТРИЦА (unitary random matrix) - квадратная случайная матрица Un= \\и{.\\ порядка п над полем С комплексных чисел, строки к-рои образуют ортонормированную систему. У. с. м. Un представима в виде ип = НпКн1> гле нп~ также У-см., A„=||expGV8feJ, exp (iXn) - собственные значения матрицы Un, аргументы к-рых упорядочены следующим образом: 0 ^ Х^ ^ ... ^ Хп ^ 2я. Собственные векторы матрицы Un определены единственным образом, если arg h]k = ck, k=\t ..., я, где 0<сл^2тс ~ нек-рые неслучайные числа. Пусть Г - группа я-мерных унитарных матриц, v - нормированная мера Хаара на ней, В есть о-алгебра борелевских подмножеств группы Г. Распределение случайной матрицы Un абсолютно непрерывно относительно меры v. Тогда для любого подмножества L е В и любых действительных чисел a,, ($,-, 1 = 1, .... я, можно вычислить (см. [1]) P{HneL,ak<Xk<Vk,k=\ я}. Если для любого множества L е В имеет место равенство P{(7„eL} = v(L), то собственные векторы матрицы Un стохастически не зависят от ее собственных значений. Плотность распределения аргументов собственных значений матрицы Un равна Ы\)-Ч2кГпТ], , L \eiyb-eiv\2t X 1A,5=1 Tl,k<.S I I 0<y^<...<yn<2n. Распределение матрицы Нп равно P<//„e£} = JXeL vWX„|arg^ = C„ fe=l п). Лит.: [1] ГиркоВ.Л., «Успехи матем. наук», 1985, т. 40, в. 1, с. 67-104; [2] Мурнаган Ф. Д., Теория представлений групп, пер. с англ., М., 1950; [3] Шевалле К., Теория групп Ли, пер. с англ., т. 1, М., 1948. В. Л. Гирко. 738 УНИТАРНАЯ УОНГА ПРОЦЕСС (Wong process) - см. Случайный процесс, нули. УПРАВЛЕНИЕ системами с распределенными параметрами (control of the systems with distributed parameters) - управление системами, эволюция к-рых описывается уравнениями с частными производными, интегральными или другими функциональными уравнениями. Стохастич. аспект У. системами с распределенными параметрами связан с системами, подвергающимися случайным возмущениям. Управляемый процесс в этом случае задается стохастич. дифференциальными уравнениями с частными производными, интегральными или интегродифференциальными уравнениями. Обычно У. либо входит в граничное условие, либо является точечным У., определенным внутри области. Проблема заключается в нахождении оптимального У. при выбранных функционалах потерь; изучаются необходимые и достаточные условия оптимальности. Напр., пусть в качестве У. систем с распределенными параметрами рассматривается линейная управляемая система, заданная стохастич. дифференциальным уравнением с частными производными: d<t>(t, д;) = [1Ф(г, x) + l(t, x)u(t,x)]dt + b(t, x)dwt, Ф(*. х)|во = 0, Ф(0, х) = Ф(х) [L - гладкий эллиптич. оператор, w - стандартный винеров- ский процесс, Ф(х) - гауссовское поле, / и Ь - известные функции, £elR+, *eDc:|P"]. Требуется найти (см. [1], [4]) оптимальное У. и при квадратичном функционале потерь как по полным, так и по неполным данным. Лит.: [1] KushnerH.J., «S1AM J. Control», 1968, v. 6, № 4, p. 596-614; [2] Лионе Ж.-Л., «Успехи матем. наук», 1973, т. 28, в. 4, с. 15-46; [3J Bensoussan A., «J. Franklin Inst.», 1983, v. 315, p. 387-404; [4] Г л о н т и О. А., Исследования по теории условно гаус- совских процессов, Тб., 1985; [5] Лионе Ж.-Л., Управление сингулярными распределенными системами, пер. с франц., М., 1987. О. А. Глонти. УПРАВЛЯЕМАЯ СЛУЧАЙНАЯ ПОСЛЕДОВАТЕЛЬНОСТЬ (controlled random sequence) - см. Управляемый случайный процесс с дискретным временем. УПРАВЛЯЕМАЯ ЦЕПЬ МАРКОВА (controlled Markov chain) - управляемый случайный процесс с дискретным временем, в к-ром множества допустимых управлений и переходная функция при известном настоящем состоянии не зависят от прошлых состояний и управлений. Чаще под У. ц. М. понимают не сам случайный процесс, а лишь соответствующий управляемый объект; тогда для получения распределения Р* У. ц. М. (и отвечающего ему математич. ожидания Е*) нужно дополнительно к У.ц. М. задать начальное состояние .г и стратегию тс. Другое название У. ц. М. - марковский процесс принятия решений с дискретным временем. Основной интерес представляют однородные У.ц. М, (иначе называемые стационарным динамическим программированием). Наиболее простой объект - конечная однородная У. ц М., к-рая задается: 1) конечным множеством X состояний, 2) конечными множествами А(х) управлений (решений), допустимых в состоянии хеХу 3) переходными вероятностями р(у\х, а) из состояния х в состояние у при управлении аеА(х). В типичных случаях целью управления является максимизация либо ожидаемого дисконтированного дохода: л*) = ЕЕз;"ш1к*м.а*>Рм (1) [константа ре (0, 1]], либо среднего ожидаемого дохода за один шаг: »*<*>= lim-i-ЕЕ £"-iK*m. at), (2)
где г(х, а)у а в А(х), х е X,- функция текущего дохода [более общий случай r(xt_x, at, xt) сводится к рассматриваемому усреднением г по вероятностям перехода p(xt\xt^, at)\. Супремум v* (или д71) по всем к называется ценой (значением) модели и обозначается v [или д\ д не зависит от того, брать ли в (2) верхний или нижний предел для тех стратегий, для к-рых предел в (2) не существует]. Основные результаты формулируются в терминах следующих операторов: T$f(x) = r(x, a) + $Paf{x), аеА(х), Pf(x) = sup Paf(x), Tpf(x)= sup T$f(x), xgX. a € A(x) a e A{x) При критерии (1) с Р<1 цена v является единственным решением уравнения Беллмана (или оптимальности) v = TaV. При критерии (2) цена д удовлетворяет уравнениям оптимальности в среднем: g = Pg,h+g = T]h (3) (Л - вспомогательная функция на X), и из уравнений (3) при любой функции h следует, что д является ценой. В обоих случаях существует селектор ф отображения х—>А(х), х е X, доставляющий супремум в уравнениях оптимальности, и он порождает стационарную оптимальную стратегию. Практически цены v и д и оптимальные селекторы находятся методами последовательных приближений или линейного программирования. На У.ц. М. со счетными X и А приведенные результаты переносятся не полностью, даже если вместо оптимальных стратегий ограничиться е-оптимальными стратегиями (см. [2], [3], |5], [7]); в случае несчетных пространств возникают дополнительные трудности, связанные с измеримостью. См. также Управляемый случайный процесс с дискретным временем, Динамическое программирование] чувствительные критерии. Лит.: [1] Ховард Р.-А., Динамическое программирование и марковские процессы, пер. с англ., М., 1964; [2] III и ряе в А. Н., «Trans. 4-th Prague Conf. Inform. Theory...», 1967, с 131-203; [3] Дын- кинЕ.Б., Юшкевич А. А., Управляемые марковские процессы и их приложения, М., 1975; [4] МайнХ., Осаки С, Марковские процессы принятия решений, пер. с англ., М., 1977; [5] Файн- берг Е. А., «Теория вероятн. и ее примен.», 1980, т. 25, в. 1, с. 71-82; [6} Юшкевич А. А., Ч иташ в и л и Р. Я., «Успехи матем. наук», 1982, т. 37, в. 6, с. 213-42; [7] Сонин И. М., Файнберг Е. А., «Докл. АН СССР», 1984, т. 275, с. 806-09. А. А. Юшкевич. УПРАВЛЯЕМОСТЬ (controllability) - возможность достижения любого состояния управляемой системы в течение заданного промежутка времени, исходя из любого начального состояния. Линейная система x = A(t)x + B(t)u, где х - «-мерный вектор состояния, и - и-мерный вектор управления, А(О, Bit) - матрицы размерности ихяипхг соответственно, у п - равляема на отрезке времени [s, t] тогда и только тогда, когда матрица [' Fit, v)B(v)BT(v)FT(t, v)dv Js невырождена (F - переходная матрица системы). Если А, В постоянны (не зависят от времени), то критерием управляемости является условие rang[BABA2B...An~lB] = n. В этом случае пару матриц (А, В) называют управляемой. Гауссовский процесс x(t), являющийся решением стохастич. дифференциального уравнения dx(t)=Ax(t)dt + Bdw(t), имеет при каждом t > 0 невырожденную ковариационную матрицу тогда и только тогда, когда пара (А, В) управляема. Понятие У. важно при исследовании асимптотич. свойств фильтра Калмана - Бьюси и в задачах управления стохастич. линейными системами на бесконечном интервале времени. Лит.: [1] Kalman R. E., «Bol. Soc. Mat. Mexicana», 1960, v. 5, p. 102-19; [21 ЛипцерР. Ш., Ширяев А. Н., Статистика случайных процессов, М., 1974; [3] Дэвис М. X. А., Линейное оценивание и стохастическое управление, пер. с англ., М., 1984. П. К. Катышев. УПРАВЛЯЕМЫЙ ДИФФУЗИОННЫЙ ПРОЦЕСС (controlled diffusion process) - непрерывный управляемый случайный процесс в d-мерном евклидовом пространстве II? , допускающий стохастический дифференциал по отношению к нек-рому винеровскому процессу, не зависящему от управлений. Теория У. д. п. возникла как обобщение теории управления детерминированным движением нек-рой точки xte№d, уравнение движения к-рой имеет вид dxt = b(at, s + t, xt)dt, t^0, где о^ - управляющий параметр. Для формального описания У. д. п. применяется язык стохастич. уравнений Ито. Пусть Ш, .</, Р) - полное вероятностное пространство, {s/t, t^0} - семейство расширяющихся полных а-алгебр Mt, вложенных в Л Пусть wt = (w\, i = 1, ..., d^) - d{-мерный винеровский процесс относительно {.г/,}, определенный на (Q, ^/, Р) при t>0 (то есть процесс, для к-рого w\) являются одномерными непрерывными стандартными вине- ровскими процессами при каждом i, процессы wt, ..., w^ независимы, w\ .^-измеримы при всяких t, i и при t, Л^0 величины {wl+f,-wlt, i=\, ..., dx) не зависят от С«^). Пусть А - нек-рое сепарабельное метрич. пространство. При а в А, t^0, x~(xl, i=l, ..., */)еЛ? предполагаются заданными функции а(а, t, x), b(a, t, х), причем а(а, t, x) - матрица размера dx d t, b(a, t, x) есть d-мерный вектор. Считают, что a, b - борелевские функции a, t, х, удовлетворяющие условию Липшица по х с постоянной, не зависящей от a, t, и такие, что |av(a, t, 0)| и \b\a, t, 0)| ограничены. Произвольный процесс at = at((u), t^Q, (леО, прогрессивно измеримый относительно {»c/f} и принимающий значения из А, называется стратегией; ЗС - множество всех стратегий. Для всякого 5^0, дгеИ? , аеЗС, существует и единственно решение стохастич. уравнения Ито dxt = b(at, s + t, xt)dt + a(a,, s + t, xt)dwt, x0 = x (1) (теорема Ито). Это решение, обозначаемое x?'s,x называется управляемым диффузионным процессом (управляемым процессом диффузионного типа); оно управляется с помощью выбора стратегии CL-CLt. Кроме стратегий из ЗС рассматриваются другие классы стратегий. Пусть С([0, <*>), И? ) - пространство непрерывных функций на [0, <*>) со значениями в H?rf. Полуось [0, <*>) интерпретируется как множество значений времени t. Элементы С([0, <*>), IR ) обозначаются через х^0 „у И пусть Nt- наименьшая a-алгебра подмножеств С([0, оо), |R ), относительно к-рой при 5 ^ t измеримы функции xs (являющиеся значением элемента х^0 „у) пространства С([0, <»), IR ) в момент времени s. Функция a = at(j:j0 „)) со значениями в А называется естественной стратегией, допустимой в точке (s, x), если она прогрессивно измерима относительно {Nt} и при a, = at(*j0p «о) существует хотя бы одно решение уравнения (1), прогрессивно измеримое относительно {At}. Множество всех естественных стратегий, допустимых в точке (s, x), обозначается %e(s, x), его подмножество, состоящее из всех естественных стратегий вида at(xt), обозначается 9Сд/($, х) и называется множеством марковских стратегий, допустимых в точке (s, x). Принято говорить, что естественная стратегия определяет управление в момент времени t на основании наблюдений за процессом хг на участке времени [0, t], марковская стратегия - на основании наблюдений за процессом только в момент времени t. При ae$£E(s, x) УПРАВЛЯЕМОСТЬ 739
[даже при ae^s, x)] решение (1) может не быть единственным. Поэтому для каждых s^O, xe№d, ae$C£(s, x) произвольным образом фиксируется какое-нибудь решение уравнения (1) и оно обозначается x?,s'x. После этого по формуле РДсо) = аД^'^со)) определяется вложение $CE(s, x) с $С, при к-ром xf,5'х = x?'s'x (почти наверное). Целью управления, как правило, является максимизация или минимизация математич. ожидания того или иного функционала от траекторий д:",5'т. Более общей является следующая задача. Пусть на А х [0, «>) х И? определены борелевские функции Ca(t, x)>0, fa(t, х) и на [0, oo)x(l?rf определена борелевская функция g(t, x). Для ае$С, s>0, xe№d момент первого выхода (s+t, x?'s,x) из Q: фа,5,л: =^Car(s + r,X?S'X)drf va(st x) = Е«х\fQa e-*fa'(s + t,xt)dt + g(s + %Qt xXQ)e~^° 1 где индексы a, s, x у знака математич. ожидания означают, что их нужно вставить под знаком математич. ожидания всюду, где это возможно. Тогда возникает задача о нахождении стратегии а, максимизирующей va(s, x), и о нахождении функции выигрыша (цены) v(s, *)-sup va(s, x). (2) a e * Стратегии а, для к-рых va(s, x) >v(s, x) -е, называются е-оптимальными для точки (st х). Оптимальной называется О-стратегия. Если в (2) множество $С заменить на $tE(s, x)($tM(s, x)), то соответствующая верхняя грань обозначается vE(s, x) (vM(s, x)). Поскольку имеют место вложения 4Lm(s, х) с $C£(s, х) с $(, то V(m)(s, х) < V(E)(s, х) ^ ^v(s, x). При нек-рых достаточно широких предположениях известно (см. [1]), что V(E^ = v [это так, если, напр., a, b, с, f, д непрерывны по (а, х), непрерывны по х равномерно относительно а при всяком t и абсолютные величины с, f, g не превосходят К(\ + \х\)т при всех a, tt x, где К, т не зависят от a, t, x]. Вопрос о равенстве v^M)-v в достаточно общей ситуации является открытым. Формальное применение идей динамич. программирования приводит к соотношению, называемому принципом Беллмана: vis, х) = supE5a Г£ е~^(щ (s + ttxt)dt + v(s + т, хх)е~^], (3) где xa's'x - произвольным образом определенные марковские моменты, не превосходящие XqS,x. Если в (3) в качестве т взять ^ATg = min(^, Tg), применить к v(s + x, хх)е~^* формулу Ито, то после нек-рых нестрогих рассуждений можно прийти к уравнению Беллмана: sup(Z> + /-a) = 0, (4) аеА где La» = $L + д'У(а, 5, ^)jX + b'(a,^)A - ca(s, x)v, & dxldxJ dxl по индексам i, / предполагается суммирование от 1 до d, матрица a(a, 5, x) = (atJ(a, s, x))-a(af s, x)a*(a, s, x)/2. Уравнение Беллмана играет центральную роль в теории У. д. п., так как часто оказывается, что достаточно «хорошее» его решение, равное на DQ функции д, является функцией выигрыша, а если a = a (5, х) при каждых (s, x) доставляет 740 УПРАВЛЯЕМЫЙ верхнюю грань в (4) и a^ = a (s0 + £, xt) - марковская стратегия, допустимая в (s0, xQ), то стратегия a° = {a^} является оптимальной в точке (s0, дг0). Таким образом, иногда удается показать, что vM(sQ, Xq) = v(sq, xq). Строгое обоснование справедливости приведенных выше выводов наталкивается на серьезные трудности, связанные с нелинейным характером уравнения (4), к-рое в общем случае оказывается нелинейным вырождающимся параболич. уравнением. Наиболее простым является случай, когда (4) есть невырождающееся квазилинейное уравнение (матрица а не зависит от а и равномерно невырождена в Q). Здесь при нек-рых дополнительных ограничениях на Q, a, b, с, f> g удается воспользоваться результатами теории квазилинейных параболич. уравнений, доказать разрешимость (4) в гельдеровских классах функций и дать способ построения е-оптимальных стратегий, основанный на решении уравнений (4). Аналогичный подход используется (см. [1]), когда Q = (-оо, 00) х (rj, r2), a, b, с, f, g ограничены и не зависят от 5, а равномерно отделена от нуля. В этом случае (4) сводится к квазилинейному уравнению 2-го порядка на (rt, r2), так как dv/ds = 0 и уравнение (4) можно разрешить относительно старшей производной vxx. Методы теории дифференциальных уравнений помогают при исследовании уравнения (4) также, если Q~ (-оо, оо) xD, D - двумерная область, a, b, с, f, g не зависят от 5 (см. лит. в [1]). Здесь, как и в предыдущем случае, допускается зависимость а от а. Уместно упомянуть также случай уравнений Гамильтона - Якоби (asO), изученный методами теории дифференциальных уравнений (см. [3]). Методами теории случайных процессов удается доказать, что функция выигрыша v удовлетворяет уравнению (4) в довольно общем случае при нек-рых предположениях типа гладкости а, Ь, с, f, д, если Q = (-<», r)x(l?rf, T<<*> (см. [1]). Наряду с задачами управления движением, в теории У. д. п. рассматриваются также задачи об оптимальной остановке управляемого процесса одним или двумя лицами. Напр., для а е ЗС и произвольного марковского момента т T(s,*) = E« fQ"X e-*'fa'(s + t,xt)dt + ^^Q^.V)e_Vl' теория У. д. п. имеет отношение к управляемым частично наблюдаемым процессам и к задачам управления случайными процессами, в к-рых управление осуществляется выбором меры на (С[0, <»), IR', NJ) из того или иного заданного класса мер, отвечающих процессам диффузионного типа (см. [11,12], [4], [6]). Лит.: [1] Крылов Н.В., Управляемые процессы диффузионного типа, М., 1977; [2] Fleming W. H., RishelR.W., Deterministic and stochastic optimal control, В.- [а. о.], 1975; [3] Кружков С.Н., «Матем. сб.», 1975, т. 98, № 3, с. 450-93; [4] ЛипцерР. Ш., Ширяев А. Н., Статистика случайных процессов, М., 1974; [5.) Won- hamW. M., «SIAM J. Control», 1968, v. 6, № 2, p. 312-26; [61 Davis M. H.A., там же, 1976, v. 14, Mb l, p. 176-88. H. В. Крылов. УПРАВЛЯЕМЫЙ МАРКОВСКИЙ ПРОЦЕСС (controlled Markov process) - управляемый случайный процесс, к-рый при марковской стратегии превращается в марковский процесс; здесь марковская стратегия представляет собой правило, задающее вероятностные характеристики изменения процесса в каждый момент времени по наблюдаемому в этот момент состоянию процесса. Целью управления обычно является максимизация нек-рого функционала. Формально определение У. м. п. должно содержать построение по произвольной стратегии (и начальному состоянию) соответствующей вероятностной меры в пространстве траекторий. Такое построение в
различных частных случаях выполняется разными способами, и пока нет охватывающей эти случаи общей конструкции. У. м. п. с дискретным временем (управляемая цепь Маркова) и с непрерывным временем и кусочно постоянными траекториями называются также марковскими процессами принятия решений; их построение проводится индукцией по последовательным шагам или скачкам и опирается на Ионеску Тулчи теорему (см. Управляемый случайный процесс с дискретным временем, Управляемый скачкообразный процесс). Широкий класс У. м. п. с непрерывными траекториями строится с помощью стохастич. дифференциальных уравнении (см. Управляемый диффузионный процесс); этот метод распространяется и на диффузию со скачками, причем малые скачки могут накапливаться (см. [4]). Особый тип У.м. п. составляют импульсно управляемые процессы (см. [5], [6]); импульсное управление может сочетаться с непрерывным (см. Квазивариационное неравенство). Многие У. м. п. укладываются в предложенную в [7] новую конструкцию управляемого случайного процесса, использующую маргингальную идеологию. Важное значение имеют У. м. п. с неполными данными (в к-рых состояние системы наблюдается лишь частично) и адаптивные У. м. п. (в к-рых неизвестны какие-то параметры управляемого объекта). Лит.: [II ГихманИ. И., С короход А. В., Управляемые случайные процессы, К., 1977; [2] Крылов Н. В., Управляемые процессы диффузионного типа, М., 1977; [3] Флемингу., РишелР., Оптимальное управление детерминированными и стохастическими системами, пер. с англ., М., 1978; [4] Прагараускас Г., «Литов. матем. сб.», 1978, т. 18, в. 1, с. 147-67; [51 Звон ки н А. К., «Матем. сб.», 1971, т. 86 (128), с. 611-21; [6] Bensoussan A., Lions J.L., «Lect Notes in Math.», 1975, v. 134, p. 5-22; [71 Chitashvili R.J., там же, 1983, v. 1021, p. 73-92. А. А. Юшкевич. УПРАВЛЯЕМЫЙ МАРКОВСКИЙ СКАЧКООБРАЗНЫЙ ПРОЦЕСС (controlled Markov jump process) - см. Управляемый скачкообразный процесс. УПРАВЛЯЕМЫЙ ОБЪЕКТ (controlled object) - см. Управляемый скачкообразный процесс, Управляемый случайный процесс с дискретным временем. УПРАВЛЯЕМЫЙ ПОЛУМАРКОВСКИЙ ПРОЦЕСС, полумарковский процесс принятия решений (controlled semi-Markov process/semi-Markov decision process),- управляемый случайный процесс с непрерывными справа кусочно постоянными траекториями x(t), t^O, в к-ром выбор очередных управлений в|, а2> ... производится в момен- ты 0 - tQ < t\ < t2 < ... последовательных скачков, причем пара x(t„-[), an задает, независимо от прошлого, совместное распределение времени х = tn - tn_x до следующего скачка и следующего состояния x(tn). Изучение У. п. п. начато У. Джу- эллом [1]. Обычно считают, что Ех ограничено по всем состояниям и управлениям, и ставят задачу максимизации суммарного дисконтированного или среднего за единицу времени дохода. При этом теория У. п. п. оказывается во многом аналогичной теории управляемой цепи Маркова, в к-рую У. гг. п. превращается при х= 1. Лит.: [1] Jewell W.S., «Operations Research», 1963, v. 11, p. 938—71; [2] МайнХ., О саки С, Марковские процессы принятия решений, пер. с англ., М., 1977; [3J DenardoE. V., Fox В. L., «SIAM J. Appl. Math.», 1968, v. 16, p. 468-87; [41 RossS.M., «J. Appi. Probab.», 1970, v. 7, p. 649-56; [51 Романовский И. В., «Тр. Матем. ии-та АН СССР», 1970, т. 111, с. 208-23; [61 Юшкевич А. А., «Теория вероятн. и ее примен.», 1981, т. 26, с. 808-15. Л. А. Юшкевич. УПРАВЛЯЕМЫЙ СКАЧКООБРАЗНЫЙ ПРОЦЕСС (controlled jump process) - управляемый случайный процесс с непрерывным временем и кусочно постоянными траекториями. Принято считать траектории У. с. п. непрерывными справа. Обычно предполагают, что история процесса (в марковском У. с. п. - текущее состояние) и управление влияют на инфинитезимальные вероятностные характеристики скачков. В таком случае (и при отсутствии ограничений) соответствующий управляемый объект задается следующими элементами: 1) измеримым пространством состояний (X, Ж), в к-ром все одноточечные множества измеримы; 2) аналогичным измеримым пространством управлений (Д, .г/); 3) измеримой плотностью q(t, xQt{X\ ... tnxn, а) скачка в момент t^0 из состояния хп при управлении аеА и при условии, что начальным состоянием было xQeX, что предшествующие t скачки происходили в моменты tx<t2< ...<tn (t\ > 0) и переводили траекторию в состояния хх> х2, ..., хпеХ (я = 0, 1, 2, ...); 4) распределением вероятностей П(Г|£, xQtixi ... t„xn> a) состояния хп+{ в момент £„+1(я+1)-го скачка при тех же условиях и условии tn+\ - t, то есть вероятностной мерой на X, измеримо зависящей при каждом Г е Ж от совокупности остальных аргументов. Во избежание накопления скачков обычно требуют ограниченности плотности q. Любой последовательности x0tiXit2x2 ... с £„Т°° отвечает траектория 0)= {х(0}: x(t) = xnnpn tn^t<tn+l, я = 0, 1, 2,... (*) (здесь tQ - 0 и, начиная с нек-poro номера, tn могут обратиться в +оо). Пусть ,r/f_, t>0,- минимальная а-алгебра в пространстве Q= {ш}, относительно к-рой измеримы все x(s) с s<t. Стратегией к называется функция a-n(t, со), £>0, weft, со значениями в А, прогрессивно измеримая по отношению к потоку {.Jt_}t=Q. В действительности n(t> ш) = к(x$txxx ... tnxn, t) при £„(со) <£< £п+1(со), где правая часть измерима по совокупности аргументов. По управляемому объекту, начальному состоянию хе X и стратегии к строится У. с. п. в точном смысле этих слов как случайный процесс {x(t))t^Q> распределение вероятностей Р* к-рого определяется формулами (*) и PJ{*0 = *> = !. = expl -jt q(s, x^xv..tnxn, n(xQtv..xn> s))dsl PJfoi+ierljQt,*, ... t„xntn+x} = = П(Г|^+1> xQtx ... xn, n(x0tx ... xn} tn+l))> n = 0, 1, 2,... У. с. п. (а точнее - управляемый объект) называется марковским, если q и П зависят только от компоненты хп набора xQtx ... хп, и называется однородным марковским, если, кроме того, они не зависят от t. В первом случае процесс {x(t))t^Q оказывается марковским при марковской стратегии n(t, со) = л(£, x(t-))> во втором - однородным марковским при стационарной стратегии n(t, со)=тгЫО). Марковский У. с. п. с критерием (целевым функционалом) вида Г-1 a(s,x(s)Ms))ds е J° rU,x(t\nU))dt (Е* - математич. ожидание, отвечающее мере PJ, г - скорость дохода, а^0 - параметр дисконтирования) во многом подобен управляемой цепи Маркова с доходами, особенно при конечных X, А и в однородном случае (когда также а и г не зависят от О. Напр., вводят цену v(x) = v(0, x) - sup v*(x), xeX, к и аналогично определяют v(t, x) для процесса, начинающегося в любой момент t^0. При широких условиях цена удовлет- УПРАВЛЯЕМЫЙ 741
воряет уравнению оптимальности (или уравнению Бел л ман а): -f^,*) = sup at asA r(t, x, a) + +q(t, x, a)\ [v(t, y)-v(t, x)]U(dy\ t, x, a)- -a(t,x,a)v(t,x) Рассматривают также У. с. п. с ограничениями на выбор управлений, с рандомизированными стратегиями, с импульсными управлениями, с детерминированным сносом между скачками, а также с неполными данными. Для исследования У. с.п., кроме динамич. программирования, используется мартингальный подход. У. с. п., в к-рых скачки совмещаются с диффузией или малые скачки происходят всюду плотно во времени, изучают методами, аналогичными тем, что применяют в теории управляемых диффузионных процессов. Лит.: [1] ГихманИ.И., Скороход А. В., Управляемые случайные процессы, К., 1977; [2] Юшкевич А. А., «Теория вероятн. и ее примен.», 1980, т. 25, с. 247-70; [31 Duyn SchoutenF. A. van der, Markov decision processes..., Amst., 1983. А. А. Юшкевич. УПРАВЛЯЕМЫЙ СЛУЧАЙНЫЙ ПРОЦЕСС (controlled random process) - случайный процесс, вероятностные характеристики к-рого могут изменяться по ходу наблюдений в зависимости от поставленной цели, заключающейся в минимизации (максимизации) того или иного функционала, определяющего качество управления. У. с. п. различают как по способу их задания и описания, так и по типу целей управления (см. Управляемый диффузионный процесс, Управляемый марковский процесс, Управляемый скачкообразный процесс). А. А. Юшкевич. УПРАВЛЯЕМЫЙ СЛУЧАЙНЫЙ ПРОЦЕСС с дискретным временем (controlled discrete time random process), управляемая случайная пос л едовател ьность,- случайный процесс с дискретным временем, вероятностные характеристики к-рого на каждом шаге определяются выбором на этом шаге управления (принятием решения) в зависимости от наблюдений за ходом процесса. Обычно ставится задача максимизации (или минимизации) нек-рого функционала (называемого критерием), зависящего от процесса и управления. Постановка задачи сложилась под влиянием последовательного анализа и теории игр. Первые результаты получены Р. Беллманом (R. Bellman) в качестве стохастич. варианта динамического программирования (см. [1]); им же предложен термин (м ар ковский) процесс принятия решений (см. [2]). Оба названия закрепились за рассматриваемой проблематикой. Позднее, по аналогии со случаем непрерывного времени и из инженерных приложений, пришло название стохастическое оптимальное управление с дискретным временем. Марковский У. с. п. с дискретным временем в элементарной ситуации исследован Р. Ховардом [3]. Основы современного подхода к У. с. п. с дискретным временем заложены Д. Блэкуэллом [5]-[6] и Р. Штраухом [7], изучившими борелевские модели. В частности, ими обнаружена связь через теоремы измеримого выбора с глубокими результатами дескриптивной теории множеств. Другой подход к проблемам измеримости, использующий конечно-аддитивное интегрирование, предложен Л. Дью- бинсом и Л. Сэвиджем [8], трактовавшими У. с. п. с дискретным временем в терминах «игорного дома»; там же начато изучение важного класса полунепрерывных сверху моделей. Основные понятия для случая управления по неполным данным введены А. Н. Ширяевым [9]-[10] и Е. Б. Дынки- ным [11]. Детальный анализ немарковских У. с. п. с дискрет- 742 УПРАВЛЯЕМЫЙ ным временем начат в [13]. С середины 70-х гг. теория У. с. п. с дискретным временем вновь интенсивно развивается как в части обоснования, так и в структурных вопросах. У. с. п. с дискретным временем с полной информацией, как случайный процесс, определяется заданием управляемого объекта, начального состояния и стратегии (возможны и иные варианты определения). Управляемый объект Z = {X, A, A(h)hsH, p) - это совокупность следующих элементов: 1) измеримого пространства состояний (X, X), в к-ром измеримы все одноточечные множества; 2) аналогичного измеримого пространства управлений (решений) (А, .</); 3) рекуррентно определяемых пространств историй H=l)Ht, t = 0, и непустых множеств допустимых управлений A(h), h еЯ, где HQ = X, множество ограничений Dt+l = {(h, a)iaeA(h), heHt) измеримо в Ht хА и Ht+1 = Dt+ j xX; элементы h e Ht называются историями в моменте обозначаются ht: ht = xQa]xl ... a^t, xif xt^X, ai+i еА(х0а{...х{), 0^i<t, (1) элементы aeA(ht) называются управлениями в момент t+\ и обозначаются at+l; 4) переходной функции р(Г\па), Г<=Х, h<=H, a<=A(h),- вероятностной меры на (X, Ю при любых haeDt+s, t = 0, 1, 2, ..., измеримой функции пары ha на каждом Dt+{ при любом ГеЖ. Начальное состояние- это любая точка х е X. Стратегия к определяет выбор at+] при любой истории ht, t^O; разрешается случайный выбор, так что формально стратегия я(р|Л), ре.-/, ЛеЯ, - это вероятностная мера на (А, .</) при любом ЛеЯ, сосредоточенная на A(h) и измеримая по h на каждом Hit), t^O, при любом р€.с/. Сужение я(|Л) на H(t) обозначается nt(\h). Работы [14], [20] показали, что иногда удобно расширить понятие стратегии, заменив измеримость по h более слабым условием универсальной измеримости; такие к называются универсально измеримыми стратегиями. Для существования стратегий необходимо и достаточно, чтобы при каждом t точечно-множественное отображение h ->Л(Л), h tHt, допускало измеримый выбор [существовал измеримый селектор этого отображения, то есть измеримое отображение yt:Ht-*A с yt(h)eA(h)]. Это условие естественно включить в определение управляемого объек- . та. Любому набору селекторов {$t)t>\ отвечает нерандомизированная стратегия тгДр|Л) = 1р(<рДЛ)), h eHt, г ^ 1, предписывающая при истории ht использовать управление q>t(ht); прочие к называются рандомизированными стратегиями. Через Я^ обозначается пространство траекторий - бесконечных последовательностей пж вида (1). С помощью Ионеску Тулчи теоремы любому начальному состоянию х е X и любой универсально измеримой стратегии к сопоставляется единственная вероятностная мера Р* на Я^ такая, что рЛ°(+1 еВ1 x0av..xt} = n(B\ x0av..xt) (Р: PxiXt*i еГ1 xQai-Xtat+\) = Plr\ *0а\-*& почти наверное), 0"V..*t"t+l) (Р* -почти наверное), £ = 0,1,2,... (2) Be.Y, ГеЗе, Случайный процесс {xt}, t = 0, l, 2, ..., с распределением вероятностей Р* и есть У. с. п. с дискретным временем, полученный из управляемого объекта Z при начальном состоянии х и универсально измеримой стратегии п. Отвечающее мере Р* математич. ожидание обозначается PJ.
Иногда вместо переходной функции р задают уравнение системы *ж=ДЛ,,в,+ 1Л+1>. * = 0, 1,2, .... где (Угзм - последовательность независимых случайных величин. При широких условиях устанавливается равносильность такого подхода приведенному выше определению (см. [19]). Если A(ht) = At(xt), р(- \htat+i)=pt(-\xtat+i), t > О, то управляемый объект называется управляемой цепью Маркова [однородной, если At(x) =A(x)t pt(\xa) — -р(\ха), аеА(х), хеХ]. Стратегию к называют марковской, если nt(-\ht) = = Kt(-\x't), t^O, и стационарной, если, сверх того, щ(-\х) = к(-\х), хеХ. Если в управляемой цепи Маркова применяется марковская стратегия (в однородной - стационарная), то случайный процесс {xt\t^Q становится цепью Маркова (однородной). Наиболее изученная задача управления - максимизация критерия ожидаемого дохода: Л:) = Е>(/0> (3) где Ф - измеримый (или по крайней мере универсально измеримый) функционал на Ям; пару (Z, Ф) называют моделью, а функцию (3) - оценкой стратегии л в данной модели. Иногда вместо Ф рассматривают последовательность приближающих функционалов {Ф„}п^\ и под оценкой стратегии понимают w*(x)=hm Е^Ф„(0 я-х» (нижний предел в задаче максимизации более естествен, чем верхний, так как соответствует гарантированному среднему доходу при больших я). Важнейший пример - критерий среднего дохода за один шаг: л-х» (см. Управляемая цепь Маркова). Чтобы вводимые оценки стратегий имели смысл, помимо измеримости на модель накладывают те или иные условия суммируемости. Для формулирования признаков оптимальности целесообразно распространить меры Р*, ожидания Е* и оценки (3) с дгеХсЯ на любые истории ЛеЯ. В определении (2) при замене х на h е Я„, п > О, первое соотношение заменяется на P*t*o«i ... *.-*}-!. в остальных считается t^-n. Цена (или значение) модели определяется как «;(/*) = sup w*(h), heH. л Сужения w и w* на Ht обозначаются wt и а>"; часто под ценой понимают только w0. В дальнейшем предполагается конечность w(h) при всех h. Стратегию к называют оптимальной в состоянии хеХ, если wK(x) = w(x), равномерно оптимальной, если wK(x)-w(x) при всех хеХ, и неуклонно оптимальной, если wK(h)-w(h) при всех h g Я. Для любой функции д ^ 0 на X стратегию к называют ^-оптимальной, если w*(x) ^w(x) -д(х), хеХ (особо выделяют е-оптимальные стратегии, получающиеся при д = const = e>0). В практич. задачах часто бывает нужна стратегия, близкая к оптимальной лишь в каком-то одном состоянии, однако основной здесь метод динамич. программирования требует привлечения стратегий, близких к равномерно оптимальным или даже к неуклонно оптимальным, и доставляет такие стратегии, к-рые поэтому и стали предметом изучения в общей теории. Горизонтом модели называется такое N^«>, что функционал Ф зависит только от hN-hN(hJ). В традиционном динамич. программировании ф<а->=1;ш1*а>. (4) где Rt имеет смысл дохода на каждом шаге t. Если Rt^0 (Rt ^ 0) при всех t, то модель называется положительной (отрицательной). Для функционалов (4) вводят оценки и цены начиная с момента п ^ 0: *;<*„>-41, Если Z t> n Rt(ht), wn(h) = sup w*W, h e H„. управляемая цепь Маркова и в (4) где р; > 0, то модель называется марковской. Здесь rt(xay) и $t(xay), xayеХхЛхX,- соответственно текущая платай коэффициент дисконтирования (или скидки) на шаге t\ обычно считает р^ 1. В марковской модели »■<*«> = [ГГ., М**-1*л)]°п<*,1 » = 0,1, 2 где vn(x), х е X,- цена модели, полученной из (Z, Ф) заменой начального момента времени £ = 0 на £ = я. В однородной марковской модели (по другому - стационарном динамическом программировании) объект Z является однородной управляемой цепью Маркова, а функции rt — r и р£ = р не зависят от t. В такой модели vn(x) = v(x) = w(x) не зависит от я. Обычно в однородной марковской модели считают р = const; если р < 1, (Z, Ф) называется моделью с дисконтированием, если р=1,- моделью без дисконтирования. Однородной марковской моделью с конечным горизонтом N не совсем правильно называют неоднородную марковскую модель, в к-рой Z - однородная управляемая цепь Маркова, \r(xay), X^t^N, rt(xay) = \R(x\ t = N + \, [О, t>N + \. Функцию R на X называют финальной платой. Важную роль играют операторы переоценки, переводящие функции на Ht в функции на Ht_x в общем случае и в моделях с функционалом (4) и переводящие функции на X в функции на X в марковских моделях. При £=1, 2, ... в соответствующих моделях Uff(h) = $х f(hay)p(dy\ ha), | ае A(h\ U?f(h) = jx [Rt(hay) + f(hay)]p(dy\ ha) J he Ям, T?f(x)=\x{rt(xay) + pt(xay)f(y)]pt(dy\xa), a€At(x),xeX. В общей модели Utf(h)= sup U?f(h), a e A(h) U?f(h) = jAU?f(h)n(da\h), heHt_v . где к - любая стратегия, в модели с функционалом (4) аналогично вводятся операторы Ut и Uf. В марковской модели Ttf(x) = sap T?f(x), T?f(x)=t T?f(x)nt(da\x), *eX, aeAt(x) JA УПРАВЛЯЕМЫЙ 743
где я - марковская стратегия (в однородной марковской модели Tf=Ta и Tt = T не зависят от ^ и при стационарной стратегии оператор Г* не зависит от t). Соображения дина- мич. программирования приводят к уравнению оптимальности (или уравнению Беллмана), к-рое в соответствующих моделях имеет вид wt_{(h) = Utwt(h)A (5) ЛбЯм, £ = 1,2,..., wt_{(h) = Utwt(h\\ (6) vt.l(x) = Ttvt(x)9 х<=Х, t=l, 2, .... (7) в однородной марковской модели обращается в v(x) = Tv(x), хеХ, наконец, в однородной марковской модели с конечным горизонтом - в систему vt^(x) = Tvt(x), х<=Х, i^t^N. (8) При несчетном X обоснование этих уравнений не тривиально даже для конечного горизонта. Однако если заранее известно, что при конечном горизонте N цена удовлетворяет уравнениям оптимальности, то она является единственным решением этих уравнений с t=\, 2, ..., N при соответствующем финальном условии [wN = <& для системы (5), wN = 0 для системы (6), vs = 0 для системы (7), vN = R для системы (8)]. В широком классе случаев из существования решения уравнений оптимальности при конечном горизонте можно заключить, что решение является ценой модели. В терминах операторов переоценки характеризуются и оптимальные стратегии. Любая неуклонно оптимальная стратегия я (марковская - в марковской модели) сохраняет цену: •ИеН, wt_{(h) = U?wt(h\\ t = \,2,.... vt_x(x) = T?vt{x), xeX,t=\,2, ..., и не улучшаема: УЛеЯ^, t = l, 2,..., w«_x(h) = UtwtW,\ v?_l(x) = Ttv?(x)>xeX, t=\. 2, ... При конечном горизонте каждого из этих условий также достаточно для неуклонной оптимальности стратегии. При бесконечном горизонте для неуклонной оптимальности стратегии л необходимо и достаточно, чтобы я была сохраняющей и выравнивающей либо неулучшаемой и имела асимптотически положительную оценку; эти условия для моделей с функционалом (4) означают соответственно WmEKhwn(hn) = 0, ЛеЯ, п—>°° 1ш}Е^<(Лм)^0 при гё)а(Л)*-оо, ЛеЯ (9) где а - любая стратегия. Формула (9) всегда верна со знаком « ^ » вместо « = ». Поэтому в отрицательной модели любая стратегия является выравнивающей, а в положительной - имеет асимптотически положительную оценку. Для обоснования уравнения оптимальности в случае несчетных пространств X, А нужно знать, что цена модели w или v (по меньшей мере универсально) измерима и что при любом 744 УПРАВЛЯЕМЫЙ е>0 существует е-оптимальные (хотя бы универсально измеримые) стратегии. То и другое упирается в следующие два вопроса: 1) сохраняют ли операторы Uf или Tt (универсальную) измеримость функций; 2) существуют ли (универсально) измеримые селекторы я = ф,(Л) отображения Л->Л(Л), h<=Ht_x, или селекторы a = yt(x) отображения x^>At(x), х е X, доставляющие с точностью до любого е > 0 супремум величине U"wt{k) no aeA(h) одновременно для почти всех ЛеЯм или соответственно супремум величине T"vt(x) по aeAt(x) одновременно для почти всех хеХ. В моделях с конечным горизонтом положительного ответа на оба вопроса достаточно для вывода уравнения оптимальности, при бесконечном горизонте привлекаются и другие соображения. Известны различные тины моделей, в к-рых операторы Ut или Tt сохраняют инвариантным тот или иной «хороший» класс функций и в к-рых существуют требуемые селекторы. Важнейшие из них следующие. Полунепрерывная сверху модель (в простейшем варианте) определяется условиями: 1) X и А - сепарабельные метрич. пространства; 2) А - компакт и множества Dt, t^\, замкнуты; 3) переходная функция р является феллеровской, то есть при £=1,2,... функция Fiha)=jxf(x)p(dx\ha), ha*Dv непрерывна на Dt при любой непрерывной ограниченной функции f на Х\ 4) функционал Ф ограничен сверху и полунепрерывен сверху на Я^ (в произведениях пространств рассматривается тихоновская топология); 5) в случае функционала (4) каждая из функций Rt также ограничена сверху и полупрерывна сверху; 5') в марковской модели функции fit и rt ограничены сверху, $t непрерывны, rt полунепрерывны сверху. В полунепрерывной сверху модели цены wv wt или vt ограничены сверху и полунепрерывны сверху (и тем самым измеримы), операторы Ut, Ut или Tt переводят ограниченные сверху полунепрерывные сверху функции в такие же функции, существуют измеримые селекторы ф^, доставляющие точный супремум. Уравнение оптимальности выполняется, и существуют нерандомизированные неуклонно оптимальные стратегии (марковские - в марковской модели, стационарные - в однородной марковской) (окончательные результаты получены в [19], [23]). Бо'релевская модель задается условиями: \)ХнА - стандартные борелевские пространства; 2) множества Dt, t^ 1 и переходная функция р(Г\-) измеримы в смысле Бореля; 3) функционал Ф борелевски измерим; 3') в случае функционала (4) функции Rt борелевски измеримы; 3") в маркосской модели функции fit и rt борелевски измеримы. В борелевской модели операторы Ut, Ut или Tt не оставляют инвариантным класс борелевских функций, цена может быть лишь универсально измеримой, а не борелевской функцией, измеримые селекторы ф^, вообще говоря, доставляют супремум с точностью до е не при всех, а лишь при почти всех h или х (по произвольной заранее выбранной мере на Ht_{ или X), уравнение оптимальности справедливо-. Более законченные результаты получаются в полуаналитической сверху модели (включающей борелевскую модель как частный случай) (см. [14], [20], [24]); здесь сохраняются те же условия на Х> А, Л (Л), Р и рг, а Ф, Rt или rt предполагаются полуаналитическими сверху функциями (у таких функций множества уровня {z:f(z)>c} являются аналитич. множествами). В полуаналитической сверху модели операторы Ut, Ut и Tt переводят полуаналитические сверху функции в такие же функции, цены wt, wt или vt являются полуаналитическими сверху функциями (и тем самым универсально измеримыми), существуют универсально измеримые селекторы ф,, доставляющие соответствующие супремумы с точностью до е всюду на Я^_1 или X (и даже точно доставля-
ющие супремум при тех И или х, при к-рых он достигается). Уравнение оптимальности выполняется, и для любого е>0 существуют е-оптимальные универсально измеримые стратегии. Большой интерес представляет вопрос о достаточности стратегий какого-либо класса К в тех или иных моделях. Достаточность может пониматься в разных смыслах: 1) супремум оценок w* по кеК равен цене w\ 2) существует оптимальная (е-оптимальная и т. п.) стратегия к, принадлежащая К; 3) для любой стратегии а найдется стратегия к е К с w*^zva, и т. д. В качестве К рассматривают множество нерандомизированных стратегий, множества (рандомизированных или нет) марковских, стационарных, полумарковских (то есть зависящих от элементов х0 и хх истории ht) стратегий и нек-рые" другие. Наиболее продвинуты эти вопросы для У. с. п. с дискретным временем со счетными пространствами, где не встают вопросы измеримости. Напр., в отрицательной однородной марковской модели достаточно марковских, но недостаточно [в смысле 1)] стационарных стратегий, или в положительной однородной марковской модели может не быть стационарных е-оптнмальных стратегий, но существуют стационарные ег;-оптимальные стратегии. Сводка результатов подобного рода имеется в [25], [26]. Вычислительные алгоритмы для нахождения цены и оптимальных стратегий наиболее разработаны для однородных марковских моделей с конечными X и А. Это прежде всего интеративные процедуры (состоящие в увеличении горизонта или постепенном улучшении стратегий) и методы линейного программирования. В У. с. п. с дискретным временем с неполной информацией состояние xt в момент t - это пара (yt, zt), где yt - наблюдаемая, zt - ненаблюдаемая компоненты. Множества A(ht) и стратегии n(B\ht) здесь зависят только от наблюдаемой истории г/Qflj ... yt. Роль начального состояния играет пара {у, ц), где \i - априорное распределение ненаблюдаемой компоненты 20. При таком бейесовском подходе достаточными статистиками оказываются распределения \it компонент zt в момент t, и формальная замена (yt, zt) на (yt, [it) сводит дело к процессу с полной информацией. Подобное сведение не снимает специфич. трудностей оптимального управления по неполным данным. Помимо бейесовского подхода возможен и минимаксный подход. Изучаются и адаптивные У. с. п. с дискретным временем, в к-рых управляемый объект известен не полностью, и задача максимизации функционала решается одновременно с идентификацией параметров объекта (см. 121]). Общая схема У. с. п. с дискретным временем охватывает целый ряд направлений, превратившихся в самостоятельные области исследования. Это (в дискретном времени) - задача о наилучшем выборе, оптимальная остановка, управление запасами, замена оборудования, задача о двуруком бандите, фильтр Калмана - Бьюси, вероятностные модели экономики и др. См. также Управляемая цепь Маркова, Динамическое программирование; чувствительные критерии. Лит.: [1] Белл май Р., Динамическое программирование, пер. с англ., М., 1960; [2] Bellman R., «J. Math. Mech.», 1957, v. 6, p. 679-84; [3] ХовардР.-А., Динамическое программирование и марковские процессы, пер. с англ., М., 1964; [41 BlackwellD., «Ann. Math. Statist.», 1962, v. 33, p. 719-26; [5] его же, там же, 1965, v. 36, p. 226-35; [6] его же, «Proc. 5-th Berk. Symp.», 1967, v. 1, p. 415-18; [7] Strauch R. E., «Ann. Math. Statist.», 1966, v. 37, p. 871-90; [8] DubinsL. E., Savage L. J., How to gamble if you must, N.Y., 1965; [9] Ширяев A. H., «Trans. 3-rd Prague Conf. Inform. Theory...», 1964, p. 657-81; [10] его же, «Trans. 4-th Prague Conf. Inform. Theory...», 1967, p. 131-203; [11] Дынкин Е. Б., «Теория вероятн. и ее примен.», 1965, т. 10, с. 3-18; [12] Крыловы. В., «Докл. АН СССР», 1964, т. 155, с. 747-50; [131 Hin- derer К., Foundations of non-stationary dynamic programming, В., 1970; [14] Blackwell D., FreedmanD., Orkin M., «Ann. Probab.», 1974, v. 2, p. 926-41; [15] Hordijk A., Dynamic programming and Markov potential theory, Amst., 1974; [161 Striebel Ch., Optimal control of discrete time stochastic systems, В., 1975; [17] Дынкин Е. Б., Юшкевич А. А., Управляемые марковские процессы и их приложения, М., 1975; [18] МайнХ., ОсакиС, Марковские процессы принятия решений, пер. с англ., М., 1977; [19] Гих- манИ.И., С короход А. В., Управляемые случайные процессы, К., 1977; [20] БертсекасД., Ш р и в С, Стохастическое оптимальное управление: случай дискретного времени, пер. с англ., М., 1985; [21] Срагович В. Г., Адаптивное управление, М., 1981; [22] Whittle P., Optimization over time, v. 1-2, N. Y., 1982-83; [23] Schal M., «Proc. 6-th Conf. Probab. Theory», Buc, 1981, p. 205-19; [24] Юшкевич А. А., Читашвили Р.Я., «Успехи ма- тем. наук», 1982, т. 37, в. 6, с. 213-42; [25] ФайнбергЕ. А., «Теория вероятн. и ее нримсн.», 1982, т. 27, с. 456-73; [261 ФайнбергЕ. А., Сонин И.М., Statistics and control of stochastic processes: Steklov seminar 1984, N. Y., 1985, p. 69-101. А. А. Юшкевич. УПРАВЛЯЮЩАЯ ПОСЛЕДОВАТЕЛЬНОСТЬ (control sequence) - см. Входящий поток. УРАВНИВАЮЩАЯ СТРАТЕГИЯ (equalizing strategy) - см. Игра двух лиц. УРБАНИКА АЛГЕБРА (Urbanik algebra) - алгебраическая структура в пространстве & вероятностных распределений на неотрицательной полуоси П?+, связанная с нек-рой коммутативной полугрупповой операцией «о», в дальнейшем называемой сверткой, в отношении к-рой предполагается следующее. Пусть Еа обозначает распределение, сосредоточенное в точке а, Я3+ - систему всех борелевских множеств на И?+| {Тс:с^ 0} - множество операторов мультипликативного сдвига мер из &, то есть ГгР(Л) = Р(с_1Л), ЛеЯЗ+, с>0, Г0Р = Е0. Вводится следующая система аксиом. Для любых а, Ь, се1Р+ и любых Р, Q, Не/: 1) Е0оР-Р; 2) (яР + ВД)оН = д(РоН) + МОоН), в + 6=1, а^0, Ь>0; 3) (rcP)o(7'cQ) = 7'c(PoQ); 4) если РпеУ, Р„%Р при п-+°°, то P„oQ^PoQ (^> означает слабую сходимость); 5) существует последовательность спе№+ и мера Qe/, Q ф Е0, такие, что Тс EJ" -> Q при п -> °° (Р°" означает «-кратную свертку Р). У. а. называют регулярной, если она обладает нетривиальным гомоморфизмом п:#<г+№ , что дает возможность ввести в ней характеристич. функции f(tfP)=j~h(Ext)P(dx), и нерегулярной в противном случае. Примером первого типа могут служить У. а., в к-рых операции свертки в :f порождаются операциями Ш над независимыми случайными величинами следующего вида: ХШУ = Х+У, ХШУ = ХУ, X\])Y=\xa + ZY<t\*/a, a>0, где Z имеет симметричное распределение Бернулли и независима от X, У. Пример нерегулярной У. а. дает операция ХШУ-тах(Х, У). В У. а. рассматривались задачи, аналогичные тем, к-рые в классич. теории предельных теорем связывались с операцией обычной свертки (безгранично делимые, саморазложимые и устойчивые законы, теория предельных теорем и т.д.), а также задачи, связанные со спецификой этих алгебраич. структур (см. [2]-[4]). Начало направлению исследований У. а. было положено работой Дж. Кингмена [1]. Имеется обобщение У. а. (см. [6]). К идее У. а. близко примыкает конструкция гипергрупп, разрабатывавшаяся в [5]. Лит.: [1] Kingman J. F. С, «Acta math.», 1963, t. 109, p. 11-63; [2] Urbanik K., «Studia Math.», 1964, v. 23, p. 217-45; 1973, v. 45, p. 57-70; [3] его же, там же, 1984, v. 78, p. 59-75; [4] Yurek Z.J., УРБАНИКА 745
«Probab. and Math. Statist.», 1985, v. 5, № 1, p. 113-35; [5] HeyerH., Probability theory on hypergroups, В.- L. -N.Y., 1983; [6] Волькович В.Э., в кн.: Проблемы устойчивости стохастических моделей. Труды семинара, М., 1987. В. М. Золотарев. УРНОВАЯ СХЕМА (urn scheme/model) - одна из простейших моделей теории вероятностей. Описание У. с. таково: рассматривается некий сосуд - урна - с шарами белого и черного цвета. Из урны наугад извлекается один шар, а затем он возвращается в урну вместе с с шарами того же цвета, что и вынутый шар, и d шарами другого цвета. После перемешивания шаров в урне процедура повторяется любое нужное число раз. Предполагается, что первоначально урна содержала я > О и 6 > О белых и черных шаров соответственно. Числа с и d - параметры У. с.~ могут быть отрицательными. У. с. дает удобную возможность вычисления нек-рых основных вероятностей через условные вероятности. При различных значениях параметров с и d получаются многие известные схемы теории вероятностей: при с = 0, rf = 0 - схема случайного выбора с возвращением (см. Бернулли испытания), при с = -1, rf = 0 - схема случайного выбора без возвращения, при с = -1, d - -1 - модель диффузии Эренфестов, при с > О, d = 0 - У. с. Пойа и т. д. Эти частные случаи служат моделями многих реальных явлений или методов их исследования. Так, напр., У. с. Пойа используется для описания эпидемий, при к-рых осуществление каких-либо событий увеличивает вероятность их последующего появления. В рамках У. с. могут быть введены многие распределения теории вероятностей такие, как биномиальное, гипергеометрическое, геометрическое, Пойа. Для описания предельных случайных процессов, возникающих в У. с, применяются отрицательное биномиальное распределение и распределение Пуассона. Лит.: [1] Феллер В., Введение в теорию вероятностей и ее приложения, пер. с англ., т. 1-2, М., 1984. А. В. Прохоров. УРСЕЛЛА ФУНКЦИИ (Ursell function) в статистической физике- последовательность функций, задающих разложение термодинамического давления по степеням активности (так наз. разложение Майера; см. [2]). Для системы взаимодействующих частиц, к-рые заключены в конечной области Л a IR , описываемой неоднородным полем активностей {z(x)f лгеР? } (или, если положить г(х) = е~^ф^х\ взаимодействующей с внешним полем {Ф(х), х е IP }, что представляется физически более наглядным), логарифм ее стати- стич. суммы ZA({z(x)}) (см. [1]) при достаточно малых значениях г(х) допускает разложение InZA ({;«}) = = Ц=1 im JA. Ф-<*1 ^)ГГ=1 И*,-W V-Ar <» Входящие в это разложение функции <рп(х\, ..., xn)t n= 1, ... и называют функциями Урселла. В случае когда взаимодействие между частицами трансля- ционно инвариантно, этим же свойством обладают и У. ф.: Фи(*,+У, ...,*п+#) = фп(*1, ..., хп) (2) и существует [при постоянной активности z(x) -г\ предельное термодинамич. давление p(T,z) = T limi^. A^B?V |A| (Г>0 ~ температура системы, |л| = объем области Л<=1Р ). При достаточно малых значениях z« 1 функция р(Т, z) разлагается в ряд по степеням г: р(Г,г) = г(Ф,г + Х~=2 ^-J(RV)„_, Ф„(0,ж2 х„)х хп )• 4*1 = 4*1 (*) = const. xddx2...ddx. 746 УРНОВАЯ В случае классич. газа, в к-ром взаимодействие между частицами задается парным трансляционно инвариантным потенциалом U(x - у), х, у е И? , У. ф. ф] = 1 и при п > 1 ФяСг,, > = 1оП(,,л.С(^'-Х',-1>- х = \ где суммирование происходит по всем связанным графам G с вершинами 1, ..., я, а произведение ГТ берется по всем ребрам G. Лит.: [1J Рюэль Д., Статистическая механика. Строгие результаты, пер. с англ., М., 1971; [2] Уленбек Дж., Форд Дж., Лекции по статистической механике, пер. с англ., М., 1965; [3J UrseH H., «Ргос. Camb. Philos. Soc.», 1927, v. 23, p. 685-97. P. А. Минлос. УСЕЧЕНИЯ МЕТОД (truncation method) - метод доказательства теорем теории вероятностей, основанный на введении усеченных случайных величин наряду с исходными случайными величинами. Сопоставление произвольной случайной величине X случайной величины если |Х|^с, если |Х|>с, где с>0, позволяет иметь дело со случайными величинами, обладающими моментами любого порядка, и применять к усеченным величинам результаты, к-рые могли быть неприменимы к исходным величинам из-за отсутствия у последних соответствующих моментов. Этот метод широко используют при доказательствах вероятностных неравенств и предельных теорем. В. В. Петров. УСЕЧЕННАЯ ВЫБОРКА (truncated sample), цензурирование т и и а I, - выборка, состоящая из тех членов независимой повторной выборки Х{, ..., Хп из распределения F, значения к-рых принадлежат нек-рому подмножеству М действительной прямой. Выборка усечена справа (слева) в точке а, если М = (-°о, а] (или М = [а, +°°)). При усечении выборки «наблюдаемые» члены выборки имеют усеченное распределение F/P{X^ е М), если Р{Х^ е М) Ф 0. Лит.: [\] Кендалл Мм СтьюартА., Статистические выводы и связи, пер. с англ., М., 1973. Э.М. Кудлаев. УСЕЧЕННАЯ СЛУЧАЙНАЯ ВЕЛИЧИНА (trancated ran dom variable) - ограниченная случайная величина X, связанная с первоначальной случайной величиной X равенствами если \X\^h, если \Х\>/г. Функции распределения Fx(x) и Fx(x) У. с.в.Хи случайной величины X связаны соотношениями 0, если X<-h, Fx(x)-Fx(-h-Q\ если -h^x^O, Fx(x) + \-Fx(h\ если O^x^h, 1, если x^h. Все моменты ЕХп величины X конечны. Усечение X на достаточно высоком уровне N применяется при доказательстве закона больших чисел и предельных теорем. Б. А. Севастьянов. УСЕЧЕННОЕ РАСПРЕДЕЛЕНИЕ (truncated distribution) - распределение вероятностей, получаемое из данного распределения перенесением массы, заключенной вне нек-рого фиксированного отрезка, на этот отрезок. Пусть вероятностное распределение на прямой задано функцией распределения F(x). Усеченным распределением, отвечающим F, называется распределение с функцией распределения 0 при х^а, F(x)-F(a) х = \ Fx(x). ^W = F(b)-F(a) 1 при а<х*^Ь, при x>b, a<b. (1)
В частном случае а--о° (6 = <») у. р. называется усеченным справа (с лева). Наряду с (1) рассматриваются У. р. вида ^<*> О при х^а, F(x)-F(a) при а<х^с, F(x) + \-F(b) при с<х^Ь, 1 при х>Ь 10 при х<а, F(x) при а^х<Ь, 1 при х^Ь. (2) (3) В (!) масса, сосредоточенная вне [а, Ь], распределяется по всему отрезку [а, Ь], в (2) - помещается в точку се [я, Ь] (в том случае, когда а<0<Ь в качестве с чаще всего берется точка с = 0), а в (3) эта масса помещается в крайние точки а и Ь. У. р. вида (1) могут интерпретироваться следующим образом. Пусть X - случайная величина с функцией распределения F(x). Тогда У. р. совпадает с условным распределением случайной величины при условии а<Х^Ь. С понятием У. р. тесно связано понятие усеченной случайной величины. Распределение X является У. р. вида (3) (с a = -k, b = h, c-0) по отношению к распределению X. Операция усечения - переход к У. р. или усеченным случайным величинам - является весьма распространенным тех- нич. приемом. Она позволяет, «немного» изменяя исходное распределение, получить аналитич. свойство - наличие всех моментов. Лит.: [II Прохоров Ю. В., Розанов Ю. А., Теория вероятностей, 3 изд., М., 1987; [2] Крамер Г., Математические методы статистики, пер. с англ., 2 изд., М., 1975; [3] Феллер В., Введение в теоркю вероятностей и ее приложения, пер. с англ., т. 1-2, М., 1984; |4] ЛоэвМ., Теория вероятностей, пер. с англ., М., 1962. Н. Г. Ушаков. УСИЛЕНИЯ КОЭФФИЦИЕНТ (gain) - см. Передаточная функция. УСИЛЕНИЯ МОЩНОСТИ КОЭФФИЦИЕНТ (gain) - см. Линейный фильтр. УСИЛЕННЫЙ ПРИНЦИП ПРАВДОПОДОБИЯ (strong likelihood principle) - см. Наибольшего правдоподобия принцип. УСЛОВНАЯ ВЕРОЯТНОСТЬ (conditional probability), апостериорная вероятность, - 1) У. в. относительно события- характеристика связи двух событий. Если Л и В - события и Р(#) >0, то У. в. РС4 \В) [или РВ(А)] события А относительно (или при условии) В определяется равенством PU|B) = ^nf. У. в. Р(Л|#) может рассматриваться как вероятность осуществления события А при условии, что событие В осуществилось. Для независимых событий А и В совпадает У. в. Р (А \В) с безусловной вероятностью Р(Л). О связи условных и безусловных вероятностей событий см. в ст. Бейеса формула, Полной вероятности формула. 2) У. в. события А относительно а-алгебры 83 - случайная величина Р(Л|ЯЗ), измеримая относительно 83, для к-рой /вР(Л|аЗ)Р(с?со) = Р(ЛПВ) в любом В 6 ЯЗ. У. в. относительно а-алгебры определяется с точностью до эквивалентности. Если а-алгебра 83 порождена счетным числом непересекающихся событий В{, В2, ..., имеющих положительные вероятности и в сумме составляющих все пространство ft, ТО PC4|SB)=PC4|tffc) пример, k=\, 2, ... У. в. события А относительно а-алгебры 83 может быть определена как условное математическое ожидание E(IA\f&) индикатора А. Пусть (ft, „г/, Р) - вероятностное пространство, 83 - под-а-алгебра .«/. У. в. PC4I33) называется регулярной, если существует функция р((й, A), weft, A £.</, такая, что: а) при фиксированном со функция р(со, А) является вероятностью на а-алгебре .<£ б) Р(/4[ЯЗ) =р(со, А) с вероятностью единица. Для регулярных У. в. условные математич. ожидания выражаются интегралами с У. в. в качестве мер. У. в. относительно случайной величины X определяется как У. в. относительно а-алгебры, порожденной X. Лит.: [\\ Колмогоров А. Н., Основные понятия теории всроят- жхгтей, 2 изд., М., 1974; [2] Прохоров Ю.В., Розанов Ю. А., Теория вероятностей, 3 изд., М., 1987; [3] Лоэв М., Теория вероятностей, нер. с англ., М., 1962. В. Г. Ушаков. УСЛОВНАЯ ПЛОТНОСТЬ (conditional density) - плотность условного распределения. Пусть (ft, Д Р) - вероятностное пространство, 83 есть а-алгебра борелевских множеств на прямой, Зг - под-а-алгебра .«/, О(со, В) = Р{ХеВ\$}, со е ft, В е 83, - условное распределение X относительно а-алгебры {? и Fx(x\9) = Q((o, (-оо, х)) - условная функция распределения X относительно ft. Если M*|ff)=Jl/xUiff>^ то Fx(x|ft) называется условной плотностью распределения Л' относительно а-алгебры ft. Если X и Y - случайные величины, fyiy) - плотность распределения У, /"^(jc, у) - совместная плотность распределения X и У, то Fx(x\Y = y)=j~-)fXY(x, у) определяет У. п. распределения случайной величины X при фиксированном значении У, Лит.: [1] П ро х о ров Ю. В., Розанов Ю. А., Теория вероятностей, 3 изд., М., 1987. В. Г. Ушаков. УСЛОВНАЯ ПОЛЕЗНОСТЬ (conditional utility) - см. По- лезностей теория. УСЛОВНАЯ ФУНКЦИЯ ПРАВДОПОДОБИЯ (conditional likelihood function) - см. Правдоподобия функция. УСЛОВНАЯ ФУНКЦИЯ РАСПРЕДЕЛЕНИЯ (conditional distribution function) - см. Условное распределение. УСЛОВНАЯ ЭНТРОПИЯ . разбиения (conditional entropy of a partition) - число (или °°) H^\r\)=j l-\nii(C^x)\CA(x))]dii(x), где £, Г] измеримые разбиения пространства Лебега с мерой |i; С^(х), СЛх) - элементы £ и г\, содержащие х. У. э. разбиения может быть записана также в виде Я(5|л)=/я(^|СлСг))^и), где J^C-Cr) - разбиение, индуцируемое £ на элементе СЛх) разбиения Х\. В. И. Оселедец. УСЛОВНОЕ КОЛИЧЕСТВО ИНФОРМАЦИИ (conditional information) - см. Информации количество. УСЛОВНОЕ МАТЕМАТИЧЕСКОЕ ОЖИДАНИЕ (conditional expectation) случайной величины- функция УСЛОВНАЯ 747
элементарного события, характеризующая случайную величину по отношению к нек-рой а-алгебре. Пусть (Q, *«/, Р) - вероятностное пространство, X - заданная на нем случайная величина с конечным математич. ожиданием, SB есть а-алгеб- ра, 85£ .г/. Условным математическим ожидани- е м случайной величины X относительно а-алгебры 83 называется случайная величина Е(Х|85), измеримая относительно а-алгебры 85 и такая, что \вХРШ)=\вЕ(Х\В)РШ) (•) для каждого В е 85. Если математич. ожидание случайной величины X бесконечно (но определено), то есть конечна только одна из величин ЕХ+ = Етах (О, X) или ЕХ~ = = -Emin(0, X), то определение У. м. о. посредством (*) имеет смысл, но Е(Х|85) может принимать бесконечные значения. У. м. о. определяется однозначно с точностью до эквивалентности. В отличие от математического ожидания, являющегося числом, У. м. о. представляет собой функцию (случайную величину). Свойства У. м. о. аналогичны свойствам математич. ожидания: 1) E(Xt|85)^E(X2|85), если почти наверное Хх(со)^Х2(со); 2) Е (с|85) = с для любого действительного с; 3) E(aXj +pX2|83) = o£(X1|83) + рЕ(Х2|85) для любых действительных а и Р; 4) |Е(х|85)кЕ(|х||85); 5) ^(Е(х|85))^Е(^(Х)|85) для выпуклых функций д(х). Кроме того, имеют место следующие специфические для У. м. о. свойства: 6) если 85 = {0, Q] - тривиальная а-алгебра, то Е(х|85) = = ЕХ; 7) E(XU) = X; 8) Е(Е(Х|85))-ЕХ; 9) если X не зависит от а-алгебры 85, то Е(Х|85) = ЕХ; 10) если У измерима относительно а-алгебры 85, то Е(ХУ|85) = УЕ(Х|85). Имеет место теорема о сходимости под знаком У. м. о.; если Xj, Х2, ...- последовательность случайных величин, \Хп\ ^ У, л=1, 2, ..., ЕУ<°° и Хп-*Х почти наверное, то Е(Х„|85) ->Е(Х|85) почти наверное. У. м. о. случайной величины X относительно случайной величины У определяется как У. м. о. X относительно а-алгебры, порожденной У. Частным случаем У. м. о. является условная вероятность. См. также Некоммутативная теория вероятностей. Лит.: [1] Колмогоров А. Н., Основные понятия теории вероятностей, 2 изд., М., 1974; [2) Прохоров Ю.В., Розанов Ю. А., Теория вероятностей, 3 изд., М., 1987; [3] Неве Ж., Математические основы теории вероятностей, пер. с франц., М., 1969; [4] Лоэв М., Теория вероятностей, пер. с англ., М., 1962. Н. Г. Ушаков. УСЛОВНОЕ РАСПРЕДЕЛЕНИЕ (conditional distribution) ~ функция элементарного события и борелевского множества, при каждом фиксированном элементарном событии являющаяся распределением вероятностей, а при каждом фиксированном борелевском множестве - условной вероятностью. Пусть Ф, .г/, Р) - вероятностное пространство, ЯЗ есть а-алгебра борелевских множеств на прямой, X - случайная величина, определенная на ф, .с/), $? - под-а-алгебра .</. Функция Q(co, В), определенная на Clx83, называется (регулярным) условным распределением случайной величины X относительно а-алгебры $?, если: 748 УСЛОВНОЕ а) при фиксированном Be83 функция Q(co, В) ft-изме- рима, б) с вероятностью единица при фиксированном со функция Q(co, В) является вероятностной мерой на 83, в) для произвольного F € ft jF Q(co, В)РШ) = Р{(Х € B)f)F). Аналогично определяется У, р. случайного элемента ft со значениями в произвольном измеримом пространстве (Ж, 83). Если Ж - полное сепарабельное метрич. пространство, 83 есть а-алгебра борелевских множеств, то У. р. случайного элемента ft относительно любой а-алгебры ft,ft с .*/, существует. Функцию Fx(x\ft) = Q(co, (-oo, x)) называют условной функцией распределения случайной величины X относительно а-алгебры ft. У. р. (условная функция распределения) случайной величины X относительно случайной величины У определяется как У. р. (условная функция распределения) X относительно а-алгебры, порожденной У. Условная функция распределения Fx(x\ У) случайной величины X относительно У является борелевской функцией от У; при У = у ее значение Fx(x\Y = y) называют условной функцией распределениях при фиксированном значении У. Пусть У имеет плотность распределения fy(y), тогда где FXY(x, у) - совместная функция распределения X и У. Лит.: [1) Прохоров Ю. В., Розанов Ю. А., Теория вероятностей, 3 изд., М., 1987; [2] Лоэв М., Теория вероятностей, пер. с англ., М., 1962; [3) Гихман И.И., Скороход А. В., Теория случайных процессов, т. 1, М., 1971. В. Г. Ушаков. УСЛОВНОЕ СРЕДНЕЕ (conditional mean) - см. Статистика объектов нечисловой природы. УСЛОВНЫЙ БЕЙЕСОВСКИЙ РИСК (conditional Bayesian risk) - см. Апостериорный риск. УСЛОВНЫЙ КРИТЕРИЙ (conditional test) - статистический критерий во вспомогательной задаче проверки гипотез о параметрах условного распределения выборки при заданном значении нек-рой статистики. Пусть X - случайная выборка с распределением Рш, зависящим от неизвестного параметра сое Q. По наблюдению .г над X проверяется нулевая гипотеза Я0: (0 g Q0 против альтернативной гипотезы Н : со е ft], где Q0 и CI] - непустые непересекающиеся подмножества С1. Пусть Г-Г(Х) - нек-рая статистика и Рш' (\t) - условное распределение выборки X при заданном значении Т = t статистики Т. Наряду с исходной задачей можно при каждом значении t статистики Т рассмотреть вспомогательную (условную) задачу различения гипотез Я0 и Нх по наблюдению х над случайной выборкой X с распределением Р*' T(\t). Критерий ф(*к) в этой задаче, зависящий в общем случае от значения t, называется условным критерием. В дальнейшем критерий у(дг) = <р(х\Т(х)), построенный с помощью У. к. ф(дг|0, может использоваться как (безусловный) критерий в исходной задаче. Использование У. к. как способа построения критериев в исходной задаче целесообразно в тех случаях, когда вспомогательная условная задача в том или ином смысле проще исходной (напр., в задачах с мешающим параметром, в к-рых для этого параметра существует достаточная статистика Т, при переходе к условной задаче удается исключить мешающий параметр). Иногда во вспомогательных задачах удается (при каждом значении t) выбирать У. к. ф(*|0, обладающий теми или иными желаемыми или оптимальными свойствами (напр., быть подобными, несмещенными, быть равномерно наиболее
мошными и т.п.), и в дальнейшем доказывать, что построенный с помощью У. к. (р(х\0 безусловный критерий у(х\Т(х)) обладает аналогичными свойствами. Пример. Пусть P(osP^,e~ экспоненциальное семейство распределений, зависящее от неизвестного параметра (0 = (£; 8) и определяемое плотностью -^(х) = В(Ь 8)ехр {£'£/(*)+ 8ТЫ} (1) относительно нек-рого вероятностного распределения Р; здесь £eEc|R,8e0c:|R иО = 5х0- подмножество натурального параметрич. пространства семейства (1). Пусть гипотезы Я0 и Нх определяются множествами Q0 = {(0; 9)j 8 € 0} и Qj = {(^; 8):£e5\{0}; 8е0}; параметр 8 в рассматриваемой задаче мешающий. Условное семейство распределений Рр I (-U) относительно статистики Т(х) является также экспоненциальным семейством, зависящим (в силу достаточности статистики Г для 8) от параметра со только через компоненту £: </р5г<-|о где Bt(^ = {jexp{^U(x)}Px]T(dx\t)y. (2) Тем самым, условная вспомогательная задача состоит в различении гипотез #0:£ = 0 и #i:£eE\{0} по наблюдению х с распределением (2); мешающий параметр 8 при этом оказывается исключенным. При k-\ и односторонних альтернативах (Е = {£^0}) во вспомогательной задаче существует равномерно наиболее мощный У. к. (pj(jt|t) уровня а, имеющий вид [ 0 при U(x)<C0(t\ ^(x\t) = \yQ(t) при U(x) = CQ(t\ (3) [ 1 при U(x)>CQ(t\ в к-ром величины С0(О и yQU) определяются из условия j^(x\t)PxlT(dx\t)^a. При двусторонних альтернативах (5 = Я? ) во вспомогательной задаче существует равномерно наиболее мощный несмещенный У. к. ф2(^|0, имеющий вид [ 0 при Cl(t)<U(x)<C2(t), Ф2(*|') = <?,•(*) при <У« = С.(0, 1 = 1,2, (4) [ 1 при U(x)<C{(t) или U{x)>C2{t\ в к-ром величины С,-(0 и у,-(0, t = t, 2, определяются из условий jq>2(x\t)Px{T(dx\t) = a, j U(x)[y2(x\t) - а] PxlT(dx\t) = 0. Построенные с помощью этих У. к. (3) и (4) безусловные критерии yfa\T(x))t i= 1, 2, являются соответственно равномерно наиболее мощными подобными и равномерно наиболее мощными подобными несмещенными критериями в исходной задаче (см. [1], [5], а также Неймана структура, Подобный критерий). При k^\ переход к У. к. был использован в [6] при построении полных классов критериев; в более общей ситуации проблема построения полных классов критериев с использованием условных вспомогательных задач рассмотрена в [7]. У к. используются также в задачах проверки гипотез о параметрах семейств распределений Рр0 произвольного типа [не обязательно экспоненциальных вида (1)]. Так, при k- 1 с помощью У. к. в [8J строятся локально наиболее мощные подобные критерии при односторонних альтернативах и локально наиболее мощные подобные несмещенные критерии при двусторонних альтернативах; в [9] переход к У. к. был использован для получения асимптотически полных классов критериев при произвольной размерности параметра £. Использование У. к. в задачах проверки сложных статистич. гипотез является конкретным примером применения общего принципа условности в статистич. выводе (см. [3], [4]). Лит.: [1] Леман Э., Проверка статистических гипотез, пер. с англ., 2 изд., М., 1979; [2] Боровков А. А., Математическая статистика, М., 1984; [3] КендаллМ., СтьюартА., Статистические выводы и связи, нер. с англ., М., 1973; [4] Кокс Д., Хинкли Д., Теоретическая статистика, пер. с англ., М., 1978; [5] Барра Ж.-Р., Основные понятия математической статистики, пер. с франц., М., 1974; [6] MatthesT. К., Truax D. R., «Ann. Math. Statist.», 1967, v. 38, № 3, p. 681-97; [7] Eaton M.L., «Ann. Statist.», 1978, v. 6, № 4, p. 820-27; [8] Neyman J., «Philos. Trans. Roy. Soc.», 1937, v. 236, M> A 767, p. 333-80; [9) Берн штейн А. В., «Изв. ВУЗов. Математика», 1983, >6 11, с. 3-18. А. В. Бернштейн. УСЛОВНЫЙ МАРКОВСКИЙ ПРОЦЕСС (conditional Markov process) - термин, введенный в [1] в связи со следующей схемой. Рассматривается марковский процесс (Xt, Yt) в произведении пространств; первая координата доступна наблюдению, вторая - недоступна. Рассматриваются условные распределения P{Yt C\XS, tQ^s^t}, в частности P{YteC\Xs, tQ^s^t) и условные переходные вероятности Р{У,.€С|У, \XS, tQ^s^t, t0^t^t2^t). Зная условные распределения первой координаты при фиксированной второй, можно решить целый ряд задач оптимального оценивания, связанных с математич. статистикой и нелинейной фильтрацией случайных процессов. В частности, для классич. задачи оценивания неизвестного параметра рассматривается случай, когда наблюдаемая координата не зависит от времени Yt = Y и имеет какое-то априорное распределение. В [1] выписаны уравнения для условных распределений и условных переходных вероятностей в случае дискретных цепей Маркова; эти уравнения оказываются нелинейными, за исключением случая, когда наблюдаемая координата отдельно образует марковский процесс. В этом случае условные переходные вероятности не зависят от конца промежутка наблюдения t, если только он правее t2, этот более простой в математич. отношении случай не включает, однако, важных в практич. отношении случаев (в частности, случая постоянного наблюдаемого параметра). Случай непрерывного времени не был разобран в [1], [2] математически корректно; однако выписанные формулы показывали, что в случае, когда (Xt, Yt) - диффузионный процесс, следует ожидать, что условные переходные вероятности будут решениями стохастич. уравнений с частными производными (нелинейных). Математически корректный вывод уравнений нелинейной фильтрации в случае непрерывного времени был дан в работах Р. Ш. Липцера и А. Н. Ширяева (см. [9]). В важном частном случае, когда процесс (Xt, Yt) описывается стохастич. уравнениями вида dXt = [AQ(t, x)+Ai(t, x)Y{]dt + B{(t, x)dwl(t)+B2(t, x)dw2(t), dYt = [aQ(t, x)+ax(t} x)Yt]dt + b^t, x)dw{(t) +b2(t, x)dw2(t), приводится метод, эффективно осуществляющий оптимальную линейную фильтрацию (обобщение фильтра Калмана - Бьюси). Лит.: [1) Стратонович Р. Л., «Теория вероятн. и ее примен.», I960, т. 5, в. 2, с. 172-95; [2) его же, Условные марковские процессы и их применение к теории оптимального управления, М., 1966; [3] Лян Чжи-шуэн, «Теория вероятн. и ее примен.», 1960, т. 5, УСЛОВНЫЙ 749
в. 2, с. 227-28; [4] его же, «Сиб. матем. ж>, 1961, т. 2, в. 5, с. 694-707; [5] В ентцел ь А. Д., «Теория вероятн. и ее иримен.», 1965, т. 10, в. 2, с. 390-93; [6] БежаеваЗ. И., там же, 1971, т. 16, в. 3, с. 437-45; [7] ее же, «Докл. АН СССР», 1973, т. 211, № 4, с. 761-63; [8] ее же, «Теория вероятн. и ее примен.», 1974, т. 19, в. 3, с. 547-57; 1982, т. 27, в. 1, с. 57-66; [9] Липцер Р. Ш., Ширяев А. Н., Статистика случайных процессов. Нелинейная фильтрация и смежные вопросы, М., 1974. Л. Д. Вентцель. УСРЕДНЕНИЕ игры (randomization of a game) - то же, что рандомизация. УСРЕДНЕНИЯ ПРИНЦИП для дифференциальных операторов со случайными коэффициентами (averaging/homogenization principle for differential operators with random coefficients) - собирательное название теорем о приближении операторов с быстро осциллирующими случайными коэффициентами операторами более простого строения. Так, при естественных ограничениях на случайное поле f(x, t, со) (лгеИ?^, £еП?, со- элементарный исход) решение уравнения dxe/dt = f(xe, t/e, со) при £->0 приближается решением уравнения с неслучайной «усредненной» правой частью fix) с теми же начальными данными (систематич. изложение и описание флуктуации см. b[1J). Усреднение линейных параболических (см. [2]) и эллиптических (см. [3]) операторов произвольного порядка исследовалось с привлечением понятия G-сходимости (коэрцитивный оператор Аг G-сходится к Л0, если Л~ f слабо сходится к Aq f для любого /*). Пусть, напр., *i"<*>s Sup,*» (-^a|D?kPW£- ">o?«<4 о где |oc| =aj + ... + arf> D* = (d/dx{)ai ..Xd/dxd)a<* и пусть почти все реализации измеримых случайных полей аа^(у, со) ограничены во всем пространстве и удовлетворяют условию эллиптичности: для любой функции г;е QfdP ) 2-141 {Ъф.$»)>с^тя(ф9ф), где с>0, (•, •) - скалярное произведение в L (IR ). Если поле коэффициентов однородно и эргодично, то существует оператор #0 вида (*) с постоянными неслучайными коэффициентами flap такой, что для любой ограниченной области Q и допустимой правой части решение уравнения Уеие = /"из простран- 0 ства Соболева Hm(Q) при е->0 с вероятностью 1 сходится к о решению уравнения ^uQ-f слабо в Нm(Q) (см. [3]). Коэффициенты усредненного оператора задаются равенством «aP=(aaP+I|Y|=M%^A/|}), |a|, |p|«m, где Afp - подходящие обобщенные решения вспомогательных уравнений = -2^,я<-1>"ЧЧэ<*.<»>- а (Л) - пространственное среднее однородного поля А. Сходные результаты известны для параболич. операторов (см. [2]). Для операторов 2-го порядка усреднение можно интерпретировать как слабую сходимость распределений диффузионных процессов с производящим оператором #е (диффузий в случайной микронеоднородной среде) к распределениям «усредненных» диффузий. О связях между усреднением и 750 УСРЕДНЕНИЯ свойствами случайных блужданий в случайных средах см. в [4]. Теоремы об усреднении известны и для операторов в недивергентной форме (см. обзор в [4], [5]). Напр., распределение диффузии с производящим оператором % ~Х, •=! ач^х> tow/dxtdXj, а*(х, со) =fli;-(jr/e, со), где поле коэффициентов а{, = а^ однородно, при естественных ограничениях сходится к распределению диффузии с коэффициентами а^ = (а^р)/{р), где р - инвариантная плотность 'J {. Явные формулы для вычисления усредненных коэффициентов известны при d = 1 и в нек-рых специальных случаях при d>\ (см. [2]). Оценки для них имеются в [2], [3] (см. также [6]). См. также Предельные теоремы для стохастических дифференциальных уравнений. Лит.: [1] Вентцель А. Д., ФрейдлинМ. И., Флуктуации в динамических системах под действием малых случайных возмущений, М., 1979, с. 424; [21 ЖиковВ. В., Козлов СМ., Олой- ц и к О. А., «Успехи матем. наук», 1981, т. 36, в. 1, с. 11-58; [31 Ж и - ковВ.В., КозловС.М., О л ейник О. А., Ха Тьен Нгоан, там же, 1979, т. 34, № 5, с. 65-133; [41 Козлов С. М., там же, 1985, т. 40, № 2, с. 61-120; [5] Сиражуд и нов М. М., «Дифференц. уравнения», 1983, т. 19, № Ц, с. 1949-56; [61 Козлов СМ., «Успехи матем. наук», 1989, т. 44, в. 2, с. 79-120. В. В. Юринсгий. УСТОЙЧИВАЯ ОЦЕНКА (robust estimator) - см. Робаст- ная оценка. УСТОЙЧИВОЕ ПОДПРОСТРАНСТВО (stable subspace) - см. Мартингал. УСТОЙЧИВОЕ РАСПРЕДЕЛЕНИЕ (stable distribution) - представитель класса <25 возможных предельных распределений для нормированных сумм Zn = B;\Xi + ...+Xn-An),n=\t 2, ..., образованных последовательностями независимых и одинаково распределенных случайных величин {Xk} и последовательностями постоянных величин {Ak, Bk>0}. Впервые изучались П. Леви [1], [2], к-рым был введен термин «У. р.» применительно к распределениям, к-рьге ныне называют строго устойчивыми. У. р. являются частным случаем саморазложимых распределений и определяются четырьмя числовыми параметрами. Основной параметр - так наз. показатель У. р. а, 0<а^2. В Леей каноническом представлении значению а = 2 (отвечающему нормальным распределениям) соответствует уеП?1, а =0 и H(x)^Q, a значению 0<а<2 соответствует уеП?1, а2 = 0 и Н{х) = с1\х\~а, д:<0, Н(х) = с2х~а, х>0, где с^О, с1+с2>0. Все невырожденные У. р. абсолютно непрерывны. За немногими исключениями (а-2; а=1, Cj=c2, случай у=0 здесь отвечает Коши распределению; а= 1/2, с{с2-0) ни функции распределения G, ни плотности g не имеют явных выражений элементарными функциями. Явные выражения характеристич. функций f У. p. G найдены П. Леви и в случае а=1 независимо от него А. Я. Хинчиным [3]: logAO = *^-aJda(l-*pco4a, а, р)), (А) где { Г \ ptgf— a)sign£, если а * 1, (&A(t, а, р) = -р— Iog|£|sign t, если а = 1, к 0<а^2, |р|^1, ^ОмуеК1. В ряде случаев более удобной с аналитич. точки зрения оказывается другая система параметризации У. р.: \ogf(t) = ity-X\t\a<oB(tt a, p), (В)
где (uB(t, a, p) = ехр(-г —p/C(a)signM, если а * 1, — + z'plog \t\ sign t, если а = 1, К(а) = а- 1 + sign (a- 1), и параметры имеют ту же область изменения, что и в (А). С параметрами этой формы они 2 связаны соотношениями аА = ав\ если a = 1, то рл = рв, уА - - ув, ХА = - Хв, если же a * 1, то P^=ctg[|ajtg[|peK(a)j, Y.4=YB/c°s(fMC(a)), А.л=А.в/сс*(^рвК(<х)). За счет линейного преобразования аргумента х функции G(x, а, р, у, X), независимо от выбора системы параметризации, У. р. можно стандартизовать, то есть получить у=0 и Х = 1. Основные аналитич. свойства стандартных У. р.: д(х, а, $)=д(-х, а, -р) для любых х, а, р; д(~х, а, 1) = = д(х, а, -1), если х^О, а<1, во всех остальных случаях д(х, а, р) >0; каждая плотность д(х, а, р) является одновершинной; функции д(х, а, р) при а^1 и д(х~х'а, а, р) при а<1 аналитически продолжаются с полуоси *>0, представляя собой целые функции. Класс @$ содержит подкласс Ж строго устойчивых распределений, выделяемый в приведенном выше определении дополнительным условием Лп = 0. У. p. G еЖ тогда и только тогда, когда (для любой системы параметризации) a*l, Y=0 или же а=1, р = 0. У. р. класса Ж образуют трехпараметрич. семейство. Для них имеется своя аналитически оправданная система параметризации. Именно, log f(t) = -X\t\a expf-i — easignA (С) где0<а^2, |в| ^min (1, - -1), Х>0. Параметры (а, 9Д) этой системы связаны с параметрами системы (В) равенствами ас = ав; если а ф 1, то 8 = рв/С(а)/а, Хс = Хв\ если же а = 1, то 9 Л arctg(^ Ye) и Xc = \B(j + y2B){/2. Строго У. р. связаны соотношением двойственности. С учетом стандартизации (х, а, 8, X) - (хХ~ , а, 8, 1) оно имеет вид: если 1 <а^ 2, то для любых допустимых 8 хд(х, а, 8, \)=хд(х~ау 1/а, 8*, 1), где 1+е* = а(1 +8). Преобразования Меллина строго У. р. и двусторонние преобразования Лапласа крайних У. р. (для к-рых р=1) имеют явные выражения (см. Устойчивое распределение; интегральные преобразования). Аналитич. свойства одномерных У. р. изучены достаточно хорошо. Асимптотич. представления, описание дифференциальными уравнениями, интегральные представления, удобные для изучения аналитич. свойств У. р., и построения простых алгоритмов генерирования случайных величин с заданными У. р. и др. можно найти в [4]. Семейства ® и Ж представляют собой множества решений соответствующих функциональных уравнений (это обычно называется характеризацией У. р.): F е ® тогда и только тогда, когда для любой пары положительных чисел fej, b2 найдется пара чисел 6>0иб таких, что при всех х F(bxx)*F(b2x) = F(bx + a). Если же можно подобрать пару b > 0, a-0, toFgSB, при этом Ь^ + Ь2 = Ьа, где 0 < а^ 2 - нек-рое число, являющееся показателем У. р. Понятие У. р. в И? переносилось и обобщалось на случаи многомерных распределений и распределений на группах (см. Устойчивое распределение на группе), в банаховых пространствах (см. Устойчивое распределение в банаховом пространстве), хотя их свойства изучены много меньше, чем свойства одномерных У. р. Наиболее часто находит применение нормальное распределение. Однако уже сейчас (90-е гг.) известно много задач астрономии, физики, экономики и биологии, в к-рых естественным образом появляются У. р. (см. [4]). Лит.: [1] Levy P., Calcul des probabilites, P., 1925; [2] его же, Theorie de I'addition des variables aleatoires, 2 €d., P., 1954; [3] Хин- чин А.Я., Предельные законы для сумм независимых случайных величин, М. -Л., 1938; [4] Зол отарев В. М., Одномерные устойчивые распределения, М., 1983. В. М. Золотарев. УСТОЙЧИВОЕ РАСПРЕДЕЛЕНИЕ в банаховом про странстве (stable distribution in a Banach space) - распределение случайного элемента X в банаховом пространстве В, удовлетворяющее условию: для любых действительных Ьх >0, Ь2 > 0 существуют b > 0 и а е В такие, что а(Ь{Х)*а(Ь2Х) = а(ЬХ + а). (1) Здесь а(Х) обозначает распределение случайного элемента X, а *-свертку распределений. Если (1) имеет место, то Ьа-Ь^ + Ь2, где 0<а<2, а- показатель У. р. Значению а=2 соответствует нормальное распределение. Характери- стич. функционал У. р. \х с показателем 0<а<2 имеет вид |i(/-)=exp{f/-(*0)-fc \f(*)\andx)-iw(f, а)}, (2) [х е В: \\х\\ = 1}, Г - нек-рая конечная мера на где ft В*, 5^ 5|, а 0)(Л«): tg^rf \f(x)\asignf(x)V(dx\ a*\, ^-f f(x)\n\f(x)\V(dx\ a = \. 71 *Si В произвольном банаховом пространстве при а ^ 1 не для всякой конечной меры Г формула (2) определяет У. р.; пока полное описание мер, определяющих У. р., отсутствует. Для У. р. имеет место закон нуль - единица: если \х - У. р. в В, то любое линейное подпространство пространства В имеет fi-меру либо нуль, либо единица. У. р. в банаховом пространстве, как и в одномерном случае, являются предельными для распределений сумм независимых одинаково распределенных слагаемых при нормировке константами. Если для нормировки использовать линейные операторы, то класс предельных распределений расширится до операторно устойчивых распределений. Лит.: [\] Linde W., Infinitely divisible and stable measures on Banach spaces, Lpz., 1983; [2] Weron A., «Lect. Notes in Math.», 1984, № 1080, p. 306-64. В. И. Паулаускас. УСТОЙЧИВОЕ РАСПРЕДЕЛЕНИЕ; генерирование случайных величин (stable distribution; simulation of random variables) - раздел теории устойчивых распределений, посвященный алгоритмам получения реализаций случайных величин с заданными устойчивыми распределениями. Напр., случайная величина У(а) с У. р. с параметрами 0<а<1, р=1, у=0 и Х=\ совпадает по распределению со случайной величиной, образованной двумя независимыми случайными величинами щ, 0)2» равномерно распределенными на интервале (0, 1): sinO-oOntOj sin natoj ^ sinncoj l/(l-a) -|(l-a)/a Iog(t-(o2)| Лит.:[\\ Chambers J. M., Mallows C.L., Stuck B.W., «J. Amer. Statist. Assoc.», 1976, v. 71, p. 340-44; [2] Зол отарев В. М., Одномерные устойчивые распределения, М., 1983. В. М. Золотарев. УСТОЙЧИВОЕ 751
УСТОЙЧИВОЕ РАСПРЕДЕЛЕНИЕ; интегральные преобразования (stable distribution; integral transforms) - преобразования Фурье, Меллина и их модификации, отвечающие плотности д этого распределения. Все эти преобразования имеют выражения в элементарных функциях, в отличие от плотностей У. р., для к-рых такие выражения известны лишь в нескольких случаях. Двустороннее преобразование Лапласа при р=1 (крайние У. р.) имеет в системе параметризации (В) вид (Res^O) f -sx j _ Jexp(-sY-Xsasign(l-a)), a * 1; •* [exp(-sy + Xs log s), a = 1; если a < 1, то оно превращается в одностороннее преобразование Лапласа, так как в этом случае д(х, а, 1, уД) = О при х < у. Преобразование Меллина плотности д(х, а, 6, X) строго устойчивого распределения (для -1 < Res<a) имеет вид sin-(1-в) _,,, , . Jo * siniw ГО-s) Характеристич. преобразование строго устойчивого распределения имеет вид cos—(k-itQ) ~,4 ... ч Wk(t) = X^^ ™-«1"\ * ж* Ik-it) ™-U) 2 где k- О, 1. Обе части равенства допускают аналитич. продолжение в полосу -a < Im t < 1. Лит.: [1| Золотарев В. М., Одномерные устойчивые распределения, М., 1983. В. М. Золотарев. УСТОЙЧИВОЕ РАСПРЕДЕЛЕНИЕ на группе (stable distribution on a group) - безгранично делимое распределение |1 на локально компактной группе G, вложимое в непрерывную сверточную полугруппу мер {}!,, t^O), порождающий функционал к-рой обладает следующим свойством: для любого t>0 т,(Л) = Ь4 + Х„ (*) где Xt - нек-рый элемент алгебры Ли © группы G, а {xt, t > 0} - непрерывная однопараметрическая группа автоморфизмов группы G. Точнее, пусть Т- {xt, t>0) - непрерывная однопараметрич. группа автоморфизмов, то есть xt является элементом группы Aut (G) всех непрерывных автоморфизмов группы G; xtxs-xts для любых t, s>0 и xt(g)^>e при £->0 (где е- единица группы G) для любого g e G. Если т - произвольное измеримое отображение G в себя, то для любой вероятностной меры и. определяется мера тц по правилу: x^i(E) = ц(т (£)) для любого борелевского Е с: G. Для любой действительной измеримой функции f и действительного функционала А на нек-ром функциональном пространстве можно определить функцию x(f) и функционал т(Л) правилами: т(/")(*) = -f(x(x)) и х(А)(0 =Л(т(/)). Безгранично делимое распределение вероятностей ц на G называется устойчивым распределением на группе, если оно вложимо в непрерывную сверточную полугруппу {\it, t^O} с порождающим функционалом А и существует такая непрерывная однопараметрич. группа Т автоморфизмов группы G и элементы Xt e ^» £>0, такие, что выполнено соотношение (*). Если в этом соотношении Xt — 0 для всех t > 0, то распределение и. называется строго устойчивым распределением на г р у и п е G. Безгранично делимое распределение вероятностей |1 на G, вложимое в непрерывную сверточную полугруппу {ц(, 752 УСТОЙЧИВОЕ t>0} с порождающим функционалом Л, называется полуустойчивым распределением на группе G, если существует т е Aut (G), число с е (0, 1) и элемент X из алгебры Ли группы G такие, что х(А)-сА + Х. Если Х = 0, то распределение |i строго полуустойчивое. Когда заданы конкретные непрерывные однопараметрич. группы Т автоморфизмов или пара (т, с), то говорят о Г-устойчивости или (т, с)-полуустойчивости. Наиболее сильные результаты получены для строго устойчивых и полуустойчивых распределений (в дальнейшем речь будет идти только об этом случае). В случае строгой устойчивости и полуустойчивости их определения можно переформулировать непосредственно в терминах самих вероятностных мер. Вероятностная мера д из множества .H](G) всех вероятностных мер на G Г-устойчива тогда и только тогда, когда семейство мер {\it = xt(\i)t t>0) образует непрерывную сверточную полугруппу мер в G, то есть 1) \it*\is = \it+st а в силу определения [it выполнено 2) xt([is)=[its, t, s>0. Так как {[it, t>0) непрерывна, то должен существовать lim Ц^ — М-о и свой- ства 1)-2) справедливы для всех t, s^O. Непрерывная сверточная полугруппа мер щ, £^0, называется Г-устойчивой, если для нее выполнено условие 2). Полугруппа {щ, t^O) полуустойчива тогда и только тогда, когда существуют xeAut(G) и се (0, 1) такие, что т(щ) = Vct> t>0 (см. [1], [2]). Описание всех непрерывных однопараметрич. групп автоморфизмов группы в явном виде сделаны для группы М(г/) движений евклидова пространства и группы Гейзенберга 1Н„ (см. [3], [4]). Хорошими свойствами обладают так наз. полные меры, то есть меры, не сосредоточенные ни на каком классе смежности группы по собственной связной подгр^'ппе (см. [5]). В теории устойчивых и полуустойчивых непрерывных свер- точных полугрупп мер важную роль играют две группы. Группой инвариантности (в строгом смысле) непрерывной сверточной полугруппы мер щ называется группа Л= л({^}) = {т € Aut (G):т(^) = \it,t> 0}. Группой разложимости (в строгом смысле) непрерывной сверточной полугруппы мер и., называется группа 3 = 3({щ}) = {<*. c):i6Aut(G), с>0, x(\Lt) = \Ltc, t^0}. Можно считать, что Л- подгруппа с 3 с элементами нида (т, 1). Определяется отображение ср:3 ->IR* = (0, <») по правилу ф (т, с) = с. Группы Л и 3 обладают следующими свойствами: 1) они являются замкнутыми подгруппами в Aut(G) и Aut (G)<8> B?+ соответственно; 2) меры [it полные тогда и только тогда, когда группа Л компактна в Aut (G); 3) ф - непрерывный гомоморфизм с ядром Л; 4) [it устойчива относительно нек-рой группы Т тогда и только тогда, когда ф(->)«11?+. Свойство 4) дает так наз. внутреннее описание устойчивости полугруппы мер. Аналогичное описание возможно и для полу- устойчивых полугрупп. А именно, {\it, t^0} полуустойчива относительно нек-рой пары (т, с) тогда и только тогда, когда ф(3) ^ {с", п e Ж} для нек-рого с > 0 (причем она не устойчива, если ф(3) = {с", пеЖ}) (см. [2J). Пусть G- локально компактная группа, T={xt, t>0} - непрерывная однопараметрич. группа в G, {ц,, t^0} - непрерывная сверточная полугруппа мер в G такая, что [1$ = (йк> где (0^ ~ мера Хаара на компактной подгруппе К группы G. И пусть {|if, t^0) Г-устойчива, а К Г-инвариантна. Если обозначить CK(T) = {xeG:xt(x)K^>K, £->()}, C(T) = {xeG:xt(x)^>e, £->()},
то имеет место следующее: а) СК(Т) - замкнутая подгруппа в G, изоморфная полупрямому произведению С(Т) и К; б) С (Г) - замкнутая подгруппа в G, изоморфная односвязной нильпотентной группе Ли; в) \it(G\CK(T)) = 0 для любого t^O; г) на группе С(Т) существует Г-устойчивая непрерывная сверточная полугруппа мер {v^, t ^ 0} такая, что \it = vt®(uK для любого £ ^ 0 (см. [6]). Этот результат показывает, что при изучении Г-устойчивых непрерывных сверточных полугрупп мер достаточно ограничиться классом односвязных ниль- потентных групп Ли. Аналогичное утверждение справедливо и для полуустойчивых непрерывных сверточных полугрупп мер (см. [7]). Лит.: [1] Hazod WM «Lect. Notes in Math.», 1982, v. 928, p. 183-208; [2] его же, там же, 1986, v. 1210, p. 304-52; [3] Baldi P., там же, 1979, v. 706, p. 1-9; [4] DrischT., Gal- 1агс1оЬ.,тамже, 1984, v. 1064, p. 56-80; [5] Hazod W., Nobel S., там же, 1988, v. 1379, p. 90-106; [6] Hazod W., Siebert E., «Semigroup Forum», 1986, v. 33, p. 111-43; [7] их же, «J. Theor. Probab.», 1988, v. 1, p. 211-26. Ю. С. Хохлов. УСТОЙЧИВОЕ РАСПРЕДЕЛЕНИЕ; представление рядами (series representation of a stable distribution) - явные аналитические выражения плотности устойчивого распределения сходящимися и асимптотическими рядами. Пусть \y(z) = g(zt а, р), если 1^а^2, и у (г) = = z~ ~ 'ад(г~ 'а, а, р), если 0^а< 1, где д - плотность стандартизированного У. р. Функция y(z) допускает аналитич. продолжение на всю комплексную плоскость, при этом в случае а=1, (3 = 0 функция y(z) является мероморфной с двумя простыми полюсами в точках z - ± 1, во всех остальных случаях у (г) - целая функция. Для строго устойчивых распределений, имеющих свою форму параметризации (а, 0), в разложении Маклорена v<*>=i;>***"" коэффициенты ak в случае 0 < а ^ 1 имеют вид Можно получить аналогичные выражения коэффициентов ak для случая 1<а^2, Для плотностей д(х, а, р) известны асимптотич. разложения в тех случаях, когда х приближается к какой-либо границе носителя меры У. р. (ею может быть -<*>, 0, <*>). Подробнее см. в[1]. Лит.: [1] Золотарев В. М., Одномерные устойчивые распределения, М., 1983. В. М. Золотарев. УСТОЙЧИВОЕ СЛУЧАЙНОЕ МНОЖЕСТВО (stable random set) - случайное множество AclR" со свойством: для любого натурального п существуют такие положительное число Хп и независимые одинаково распределенные случайные множества At, ..., Ап> что распределение множества Л{11 ... Ц4П совпадает с распределением множества ХпА. Понятие У. с. м. является частным случаем понятия безгранично делимого случайного множества. А. Г. Катранов. УСТОЙЧИВОЕ СОСТОЯНИЕ (stable state), задерживающее состояние,- такое состояние однородного марковского процесса, что плотность вероятности выхода из х конечна: nmpity х, х) = 1, qr = hm—- <<*>, где p(t, x, x) - вероятность перехода из х в х за время t. Если процесс X сепарабелен и начинается из У. с. х, то время T = inf {t:t^0, Xt*x) первого выхода из х имеет распределение Р{т > t) = exp (-qxt), t^0. При qx = 0 У. с. является поглощающим (т = °° почти наверное). Если множество Е состояний конечно и процесс стохастически непрерывен, то все состояния устойчивы; в случае счетного Е это не обязательно (см. Марковский процесс со счетным множеством состояний). А. А. Юшкевич. УСТОЙЧИВОСТИ ТЕОРЕМА в теории систем обслуживания (stability theorem in the queueing theory) - утверждение, дающее условия и оценки устойчивости (непрерывности) случайных процессов, описывающих поведение обслуживания систем при малых изменениях «управляющих» случайных процессов или параметров (см. Устойчивость систем обслуживания). Наиболее изучен случай, когда процесс (последовательность) v = {vn), описывающий работу системы, связан со стационарной «управляющей» последовательностью и = {ип} соотношениями vn+i=f(v„, un), п^\. Векторы ип и vn имеют значения в IR и IR соответственно, k ^ 1, / ^ 1. Известно несколько подходов к получению теорем устойчивости для процессов. I. Метод обновлений- метод получения условий и оценок устойчивости процесса v, использующий свойство этого процесса частично «забывать» свое прошлое (см. Устойчивости теорема; метод обновлений). Условия устойчивости принимают более простой вид, если процесс v является регенерирующим (см. Устойчивость регенерирующих п роцессов). II. Метрический подход- подход, использующий различные структурные свойства вероятностных метрик для получения условий и оценок устойчивости (см. Устойчивости теорема; метрический подход). III. Метод пробных функций- метод получения условий и оценок устойчивости с помощью построения вспомогательных функций типа Ляпунова (см. Устойчивости теорема; метод пробных функций). Хотя устойчивость систем обслуживания анализируется разными методами, эти методы имеют много общего и в известном смысле дополняют друг друга. Лит.: [1] Боровков А. А., Асимптотические методы в теории массового обслуживания, М., 1980; [2] Золотарев В. М., «Теория вероятн. и ее примен.», 1975, т. 20, в. 4, с. 834-47; [3] его же, «Матем. сб.», 1976, т. 101, № 3, с. 416-54; [4] Калашников В. В., Качественный анализ поведения сложных систем методом пробных функций, М., 1978; 15] его же, «Теория вероятн. и ее примен.», 1975, т. 20, в. 3, с. 571-83; [8] Handbuch der Bedienungstheorie, Bd 1, в-> 1983. а. А. Боровков, В. В. Калашников, С. Г. Фосс. УСТОЙЧИВОСТИ ТЕОРЕМА; метод обновлений (stability theorem; renovations method) ~ метод получения условий и оценок устойчивости случайного процесса (относительно изменения «управляющих» последовательностей), использующих свойство этого процесса частично «забывать» свое прошлое (становиться не зависящим от него) при попадании процесса в нек-рое множество состояний. Предполагается, что процесс (последовательность) v-{vn) связан со стационарной «управляющей» последовательностью и = {ип} соотношениями »„tl*/4. «„>.«>!■ С) Пусть Ап - обновляющее событие для последовательности v на отрезке [n-L, n]. Справедливо утверждение: если последовательность индикаторов {1(Ап)} стационарна, Р{Л0}>0, то существует стационарная последовательность w = {wk), удовлетворяющая равенствам Wk+\~f(wk> uk) и та~ кая, что P{{vn+k е В)} -+ P{{wk) e В) при п -+ ее. Пусть далее {и } - последовательность стационарных управляющих процессов, сходящихся в известном смысле (напр., в УСТОЙЧИВОЕ 753
смысле слабой сходимости конечномерных распределений) к процессу и; {v } - последовательность процессов, определенных соотношением (*) по управляющим процессам и ; {Агп} - последовательности обновляющих событий для процессов {v т }; {w r } - последовательность предельных для {v } стационарных процессов. Тогда если последовательность индикаторов {/(Л„)} стационарна, Р{Ло}>0, «р{иМ1Ии^/} при любом Л>0 и функции ф;, участвующие в определении обновляющих событий, непрерывны почти наверное относительно распределения (щ, ..., uL+j), то конечномерные распределения w слабо сходятся при г ~> <» к распределениям w. Возможны также количественные оценки в У. т., напр.: supd(an, t/r))^min max J sup d\Vj, v^j, sup rf(<p (un_T_L,...tun_x\ *№t-l «й)) + где d - метрика Дадли. Эта же оценка справедлива для расстояния d(w{, w\). Возможно получение аналогичных оценок и в других метриках. Подобного рода оценки можно получать и в случаях, когда последовательности {ип} и {1(Ап)} могут не быть стационарными. Первые два члена приведенной выше оценки удобно, в свою очередь, оценивать с помощью свойств вероятностных метрик (см. Устойчивости теорема; метрический подход), в то время как последний член может оцениваться методами «склеивания» процессов v и vr (см. Склеивание случайных процессов), методами оценки времен достижений и т.д. Лит.: [1] БоровковА.А., Асимптотические методы в теории массового обслуживания, М., 1980; [2] Ка л ашни ко в В. В., в сб.: Проблемы устойчивости стохастических моделей, М., 1980, с. 52-57. А. А. Боровков, В. В. Калашников. УСТОЙЧИВОСТИ ПОРЕМА; метод пробных функций (stability theorem; test functions method) - метод получения условий и оценок устойчивости систем обслуживания с помощью построения вспомогательных функций типа функций Ляпунова. Основные результаты метода пробных функций получены для случая, когда процесс v = f(u), описывающий систему обслуживания, является марковской последовательностью, хотя рассмотрены и более общие предположения. Пусть {vn} - последовательность со значениями в И? , к-рая определяется случайной величиной v{ и рекуррентными соотношениями , 0Я+1=Л*\,. ия),п&\, (•) где {ип} - последовательность независимых одинаково распределенных случайных величин со значениями в И? . Последовательности \v^} при каждом г= 1, 2, ... строятся по случай- nW ной величине v\ и последовательности {«„ } также с помощью (*). Через pk, p/ обозначены расстояния в соответственно; х(Х, y) = inf{e>0:P{p;U, У)>е}<е} - расстояние в метрике Ки Фан между случайными величинами X и У со значениями в IP;; / = fc, /; G(x), дг^О,- возрастающая положительная функция такая, что Y~ \/G(ri) <°°. 754 УСТОЙЧИВОСТИ Предполагается, что для каждого Ы^О существуют число 5 = 8(Л0 и функция WN(x, у),х,уеItf', такие, что, во-первых, WN(x, y)^Np{(x, у) при всех xt y&№ и, во-вторых, при x(wlf u\ )^5 выполнено почти наверное неравенство WN(f(x, и,), fly, wjr)))- WN{xt y)^bN(x, y)t x} yelP', где случайные величины Д^ удовлетворяют соотношениям ЕД„(*, у)^-\ при WN(x, y)>\ И supEG(|A^U, у)|)^С<~. Справедливо следующее утверждение: пусть x(wt, м)г)) ~>0 и •k\vv v\ ) -> 0 при г-> оо; тогда sup x(vn, а*г)) ->0 при г-><*>. л>1 Аналогичное соотношение выполнено для метрики Леви - Прохорова и нек-рых других метрик. В условиях этого утверждения справедлива следующая количественная оценка устойчивости: sup х(ап, г/г>) <е при х(м,, м{г)) <5t(e), л5*1 где 0^(6) = 8(Ме)), Me) - решение уравнения inf [rtC/N + CxY >T1/G(«)} = e, а постоянная С\ зависит лишь от С и G. Важным моментом для эффективного применения метода пробных функций является построение этих функций. Для класса цепей Маркова, порождаемых кусочно линейными преобразованиями и играющих важную роль в теории систем обслуживания, существует регулярный метод построения пробных функций. Метод пробных функций может быть использован также для оценок ограниченности процессов массового обслуживания, моментов достижения и других свойств. Лит.: [11 Калашникове. В., Качественный анализ поведения сложных систем методом пробных функций, М., 1978; [21 его же, «Теория вероятн. и ее примен.», 1975, т. 20, в. 3, с. 571-83. В. В. Калашников. . УСТОЙЧИВОСТИ ТЕОРЕМА; метрический подход (stability theorem; metric approach) - подход, использующий различные структурные свойства вероятностных метрик для получения условий и оценок устойчивости систем обслуживания. Пусть {vn} - последовательность со значениями в И? , к-рая определяется случайной величиной v{ и рекуррентными соотношениями ^+1=/*Ч> "Л"^1> (1) где {ип} - заданная случайная последовательность со значениями в И? . Через d(X, Y) = d(Fx> FY) обозначено расстояние в равномерной метрике между функциями распределения Fx и FY. Справедлив следующий результат: если функция f удовлетворяет условию Липшица pf(/*("> v)t f(u', z/))^P/(a, v')+pk(u, и'), где р/, рл - расстояния в И?', И?* соответственно, то для последовательности {^}, построенной с помощью (1) по последовательности {и'п} и случайной величине v'v выполнены неравенства d(vJf vp^d(v{, o() + ^"I1 d{uit мр,/ = 2, 3, ... (2) Если все случайные величины заданы на одном вероятностном пространстве, то неравенства (2) остаются верными, если вместо метрики d использовать метрику Ки Фан. Если случайные величины в последовательностях {и„} и {и„} независимы в
совокупности, то неравенства (2) справедливы для метрик Леви - Прохорова, Дадли, полной вариации и др. Свойства метрик могут хорошо «отслеживать» структуру задачи (напр., выполнение условия Липшица для функции /). Это в основном проявляется при анализе устойчивости на конечных промежутках времени. Лит.: [II Handbuch der Bedienungstheoric, Bd 1, В., 1983; [2] Золотарев В. М., «Матем. сб.», 1976, т. 101, № 3, с. 416-54; [3] его же, Современная теория суммирования независимых случайных величин, М., 1986, с. 416. В. В. Калашников. УСТОЙЧИВОСТЬ дифференциальных уравнений со случайными определяющими элементами (stability of differential equations with random parameters) - раздел теории устойчивости движения, содержащий исследовдние устойчивости в том или ином вероятностном смысле инвариантных множеств для систем дифференциальных уравнений со случайной правой частью. Наибольшее развитие получила теория У. для того случая, когда инвариантное множество - точка. Пусть Fix, t, со); х, FeU?",- функция, являющаяся случайным процессом при фиксированном х и обладающая определенными свойствами гладкости по х, обеспечивающими единственность решения задачи x't = F(x, t, со), x(tQ) = xQ. (1) Пусть X{x°'to)(t, со) - решение задачи (1) и F(0, t, co) = 0, так что х = 0 - решение уравнения (1). Это решение называется устойчивым по вероятности в слабом смысле, если для любого £> 0 существует 5> 0 такое, что sup P{\x(x^\t, со)|^£}<едля |*о 1^8- (2) Если к тому же X^x°'to4t, со) -> 0 при t -> °° по вероятности, то л: = 0 асимптотически устойчиво по вероятности в слабом смысле. Если вместо (2) при всех \х0\ ^8 выполнено неравенство P{sup|x(xo''o>(tf ш)|^е}^е1 t>t0 то * = 0 устойчиво по вероятности в сильном смысле. В приложениях изучается также У. с вероятностью 1 и У. моментов нек-рой степени р решения (так паз. р-устойчивость). Как и в случае детерминированных систем дифференциальных уравнений, условия У. по вероятности в различных смыслах можно давать в терминах аналогов функций Ляпунова - так наз. стохастических функций Ляпунова. Особенно простые и удобные для применений условия получаются в случае, когда рассматривается У. стохастич. дифференциальных уравнений (см. [1], [2]). Довольно подробно исследован вопрос об У. линейных стохастич. дифференциальных уравнений. Доказано, в частности, что асимнтотич. У. по вероятности линейной системы с постоянными коэффициентами гарантирует ее экспоненциальную ^-устойчивость при достаточно малом р. Наоборот, экспоненциальная ^-устойчивость линейной системы при нек-ром р (то есть выполнение при нек-рых А>0, а>0 неравенства E\X^x°'to4t)\p^A\xk\pe~at) гарантирует ее асимптотич. У. по вероятности. Для стохастич. дифференциальных уравнений доказаны теоремы об устойчивости и неустойчивости по первому приближению. В случае целых р>0 получены алгебраические необходимые и достаточные условия экспоненциальной ^-устойчивости. У. решения х = 0 систем вида dx/dt = F(y(t, со), x)(F(y, 0) = 0), где y(t, со) - марковский процесс, сводится к У. гиперплоскости .г = 0 для двумерного марковского процесса (X(t), Y(t)) и также может быть проанализирована методом стохастич. функций Ляпунова. Лит.: [1] КушнерГ. Дж., Стохастическая устойчивость и управление, пер. с англ., М., 1969; [2] Хасьм инский Р. 3., Устойчивость систем дифференциальных уравнений при случайных возмущениях их параметров, М., 1969. Р.З. Хасьминский. УСТОЙЧИВОСТЬ марковских процессов (stability of Markov processes) - свойство марковских процессов мало изменять свои вероятностные характеристики при малом изменении их параметров. Ряд задач анализа У. марковских процессов (в основном диффузионного типа) являются вероятностными аналогами соответствующих задач для обыкновенных дифференциальных уравнений (см. [1], [2]). Пусть, напр., марковский процесс Х(-) является решением стохастич. дифференциального уравнения dX(t) = b(t, X)dt + jfr=^c5r(t, X)dwr(t), (О где X, b, ar - векторы из II? , wr - независимые винеровские процессы. Если функции b(t, x) и Gr(t, x) непрерывны по t и удовлетворяют условию Липшица по х в каждой ограниченной по х области bit, 0) = 0, ar(t, 0) = 0, то в широком классе случаев У. системы (1) следует из У. системы линейного приближения (см. [1]): dX(t) = gr<idxb(t, 0Ш* + ]Г*=1 grad^f, 0)Xdwr(t); (2) здесь У. понимается как стремление к нулю по вероятности величины sup|X(0| при )Х(0)|->0. Для исследования У. марковских процессов такого рода применяют методы, являющиеся аналогами и обобщениями прямого метода Ляпунова (см. [1], [2]). У. марковских процессов другого рода поясняется на примере счетных неприводимых периодич. цепей Маркова с множеством состояний {0, 1, 2, ...}. Пусть Р-(р^)- матрица перехода такой цепи, х - время возвращения в фиксированное состояние, напр. 0, qn- (<7„(&))&^о ~ распределение состояний цепи в момент и. Справедливо утверждение: если последовательность цепей Маркова с матрицами перехода Р , г^Х, такова, что семейство случайных величин {х, х , г^ 1} равномерно интегрируемо, то для того чтобы достаточно, чтобы при любых i, /^0 Pij: -►РуИ^ЧО-х/оМ- Аналогичный результат справедлив и для возвратной (по Харрису) цепи Маркова с произвольным пространством состояний (см. [4]). Лит.: [1] Хасьминский Р. 3., Устойчивость систем дифференциальных уравнений при случайных возмущениях их параметров, М., 1969; [2] Кушнер Г. Дж., Стохастическая устойчивость и управление, пер. с англ., М., 1969; f3] Калашников В. В., Качественный анализ поведения сложных систем методом пробных функций, М., 1978; [4] А н и ч к и н С. А., в кн.: Проблемы устойчивости стохастических моделей. Труды семинара, М., 1984, с. 22-27. В. В. Калашников. УСТОЙЧИВОСТЬ по вероятности (stability in probability) в сильном и слабом смысл е - см. Устойчивость дифференциальных уравнений со случайными определяющими элементами. УСТОЙЧИВОСТЬ разложений вероятностных распределений в ком пози ци ю (stability of decompositions of probability distributions) - частный случай устойчи- УСТОЙЧИВОСТЬ 755
вости характеризации распределений. У. разложений вероятностных распределений лежит в основании предельных теорем, не использующих условие равномерной бесконечной малости. Пусть ft - множество функций распределения на IP1 и % = {w = (pv F2, ...):F/Ge, Jw = FfF2:..em. Для фиксированной Geft из ЯВ выделяется подмножество 8B(G) = {w:3w-G}, а из ft - подмножество ft(e, G) = = {F:L(F, G) ^e}, где L - Леей метрика. Положим ct(e, G) = sup{A(F, G):Feff(e, G)}, ГДе A(F, G) = sup {ц(в>. «(G)) : о; e $(F)}, u(w, a/) = sup {I(F;, F;'):/^l}, ц(и;, ®(G)) = inf{u(ay, a;') :a>' g $(G)}. У. разложений означает, что a(e, G)-»0 при e->0. (*) В этом соотношении, к-рое имеет место без каких-либо дополнительных ограничений, метрику L можно заменить любой метрикой, порождающей слабую топологию в ft. На основе свойства (*) формулируется необходимое условие слабой сходимости распределений сумм независимых случайных величин, заменяющее бесконечной малости условие (см. [2] и ст. Линдеберга - Феллера теорема). Аналогичные феномены известны в схеме произведения случайных величин, в схеме максимума случайных величин и ряде других. Ю. В. Линником [1] отмечался похожий феномен, связанный с набором w из двух компонент разложения ¥ = ¥?¥* ¥Ь*Ц. Лит.: [ 1 ] Л и н н и к Ю. В., Разложения вероятностных законов, Л., 1960; [2] Золотарев В. М., Современная теория суммирования независимых случайных величин, М., 1986. В. М. Золотарев. УСТОЙЧИВОСТЬ регенерирующих процессов (stability of regenerative processes) - свойство регенерирующих процессов мало изменять свои вероятностные характеристики при малых изменениях их параметров. Пусть V- ( Vit V2, ...) - регенерирующий процесс с дискретным временем; 50 = 0, St, S2, ... - его последовательные моменты регенерации, 0; = 5у-5у_1,У^1, Р{в,^1>=1 и fl(fe) = P{G1 = fe}, k>\. Для натурального N и 0 <а< 1 распределение {а()} принадлежит классу 3l(N, а), если наибольший общий делитель {k: a(k) >a, 1 ^ k ^ N) = 1. Пусть, далее, V и V - регенерирующие процессы и соответствующие распределения периодов регенерации а и а' принадлежат классу 9l(N, а); тогда: а) если при нек-рых у> 1 и 0<д <<*> Ее]^<7, Е(е;)*<<7. ТО suprf(V„, V^inf f maxrf(V„, Гя) + сГ*\ пЗИ Т 1 п**Т J где d - метрика, ограниченная единицей и не более сильная, чем метрика полной вариации, а постоянная с зависит лишь от д, у, N, а; б) если при нек-рых ц > 0, 0 < £t < <» Eexp(u01)^^1, Еехр(цв1')<^1, то существуют постоянные 0<Цо<ц и C\=cx(gv u, N, а) такие, что suprf(Vn, V„'Hinf(maxrf(V„, ^) + С1ехр(-ц0Т)} где постоянные ц^ и q выписываются явным образом. 756 УСТОЙЧИВОСТЬ Наиболее слабыми условиями У. регенерирующих процессов являются следующие: слабая сходимость последовательности V к V; равномерная интегрируемость и непериодичность периодов регенерации процессов V и V. Приведенные результаты использовались при анализе У. счетных цепей Маркова, однолинейных, многолинейных, многофазных и других систем обслуживания. Лит.: [1] Калашникове. В., Качественный анализ поведения сложных систем методом пробных функций, М., 1978. В. В. Калашников. УСТОЙЧИВОСТЬ систем обслуживания (stability of queueing systems) - свойство обслуживания систем мало изменять нек-рые свои вероятностные характеристики в ответ на малые изменения определяющих параметров. Иногда вместо термина «устойчивость» используют термин «непрерывность» систем обслуживания. Часто при анализе У. систем обслуживания удобно рассматривать тройку (м, /*, v)} где и характеризует «входные» данные системы (обычно это управляющие случайные последовательности, определяющие процессы поступления вызовов, их обслуживания и т. д.), v - изучаемые характеристики системы (процессы времен ожидания, длин очереди и т.д.). Задание системы обслуживания определяет отображение v = f(u) пространства U={u} в пространство V = {v). Так как элементы и и v случайны, то это означает, что на пространствах U и V заданы распределения Р и Q и отображение &, индуцируемое f, такое, что Q = ^(P). В пространствах распределений ^={Р} и 5={Q} вводится понятие сходимости -4,^4 (часто это слабая сходимость локальных характеристик ми v, напр. сходимость распределений координат, в том числе бесконечно удаленных, если рассматриваются стационарные характеристики v). У. систем обслуживания означает, как правило, непрерывность отображений if: P(r)4P=>Q(r) = ^(P(r))4^P) = QnpMr->oc. Если сходимости -4 и 4 метризуются, то (е, 8)-оценки непрерывности отображения #"называются количественными оценками у стой ч и вости. Если d и р - соответствующие метрики, то количественные оценки могут прини- мать форму p(Q<r>>Q)<,W(pM Р)), где ф (х) -> 0 при х -> 0. Типичным для систем обслуживания является случай, когда u = (u\t и2, ...), v — (v^ v2, ...) есть случайные последовательности с координатами соответственно из IP и IP , при этом щ одинаково распределены и существует lim P{vkeB} = FV(B). У. системы в этом случае означает, что близость распределений координат uk и и£ влечет за собой близость FV(B) и Fv(r)(B). Условия У. определяются свойствами исследуемых процессов и находятся различными методами (см. Устойчивости теорема; метод обновлений, Устойчивости теорема; метод пробных функций, Устойчивости теорема; метрический подход). Ниже приводятся результаты анализа У. конкретных классов систем обслуживания. Основные обозначения см. в ст. Обслуживания система, в частности, xek - длина интервала времени между поступлениями fe-ro и (fe+l)-ro требований, xsk - время обслуживания k-vo по счету требования, *+ = тах(0, х). Одноканальныесистемы. Пусть и-(иv u2, ...), uk = (zrk, xjp, Xk = Tsk-i€k, u= (at, v2, ...), vk - время ожидания k-м требованием начала обслуживания [{vk} связаны рекуррентным соотношением Vk+X = (vk + ^k)+ при k^\], w = (wi, w2, ...) -стационарная последовательность, соответствующая последовательности {vk}: Р{ш, е В} = Ит P{v„ е В), w„ = (sup £.t_>+1 *,)
Для характеристик систем обслуживания, управляемых последовательностью {(х^, x£r)s)}, r>], сохраняются те же обозначения, снабженные дополнительно верхними индексами (г). Пусть последовательность X = {Xk}k^.^ эргодична, ЕХ^О; конечномерные распределения последовательности Хг слабо сходятся при г->оо к конечномерным распределениям X; Е(Х{Г))+->Е(Х1)+<оо ПРИ Г->оо; P{v\r)>x}^0 ПРИ ЛГ->оо равномерно по г. Тогда конечномерные распределения последовательностей {wl }, {v„lk)k^\ слабо сходятся при г->°°, п —> оо к соответствующим распределениям w. Пусть d(Fv F2) = sup IFjOc) - F2(jc) | - расстояние в равно- мерной метрике и p(Ft, F2)=J d\(F^~ F2)(x)\ - расстояние по вариации между функциями распределения Ft и F2; F(jc) = P{Xt<jc}; Q(x)=\X^F(t)dt\ W(x) = P{wx<x). Для одноканальных систем известны два пути получения количественных оценок У. Первый путь связан с 4гладкостью*- сходимости распределений Ху и Ху (напр., с требованием сходимости распределений по вариации) и основан на факторизационных тождествах. Напр., верен следующий результат: если последовательности X и X г состоят из независимых одинаково распределенных случайных величин, F(x) и F(r)(*) имеют абсолютно непрерывные компоненты и -оо<ЕХ1<0, то p(W(r\ W)^C(p(F(r\ F)+p(Q(r), Q». Второй путь связан с ограниченностью моментов E(xjr^)a порядка а>1 (при наличии слабой сходимости Х- и Х;). Справедливо утверждение: если последовательности X и X состоят из независимых одинаково распределенных случайных величин, ЕХ1 <0, Е(х{г)+)а^С<°° при всех г и нек-ром а > 1, то d(W(r\ W)^Cx[d(F(r\ F)],_,/t\ Если вместо ограниченности моментов потребовать, чтобы Еехр{рх{г)КС<оо при всех г и нек-ром |$ > 0, то d(v/T\ W)^C2d(F(r\ F)\\nd(F(r\ F)\. Последние неравенства (с использованием метрики d) верны и для ряда других метрик: Леви, Леви - Прохорова, Ки Фан (при задании на одном вероятностном пространстве). Аналогичные оценки получены также при отказе от предположения о независимости случайных величин в последовательностях X и X и для одноканальных систем с различными ограничениями: систем с отказами, с ограниченной длиной очереди, с ограниченным временем ожидания и т. д. Многоканальные системы. Для системы с m обслуживающими каналами входная (управляющая) последовательность uk = (x%, т£) является той же, что и для одноканальной системы. Основным объектом изучения является последовательность {vx, v2,...}, где vk=(vku ..., vkm) - векторы времен ожидания, удовлетворяющие рекуррентным соотношениям »м =*((»*+«»-*;)+) feSsl- где i = (1, 1,..., 1), е = (1, 0, ..., 0) суть w-мерные векторы; для вектора х = (хх, ..., хт) через х+ обозначен вектор х+=(х{, ..., х£); R(x) - вектор, получающийся из х перестановкой координат в порядке неубывания. Через w — = (и^, w2>...) будет обозначаться соответствующая {vk} стационарная последовательность. Для многоканальных систем теоремы У. требуют выполнения нек-рых дополнительных (по сравнению с одно- канальными системами) предположений (напр., существования обновлений, см. Устойчивости теорема; метод обновлений). Количественные оценки У. (использующие ограниченность моментов порядка а> 1), приведенные ранее для одноканальных систем, остаются, как правило, верными и для многоканальных систем. Напр., если последовательности {(т£, Х0) и {(х£ , %k )} состоят из независимых одинаково распределенных случайных величин, E(tJ -тту)<0; E;(x-r)s)^ C<<» при всех г и нек-ром a > 1, то k(W, w*>)<q [n((tj, xj), (т<'\ x<^))],"1/a, где % - метрика Леви - Прохорова, W(x) = P{a>t < х). Если вместо ограниченности моментов, что Еехр{рх- }^ ^ С < ©о при всех г и нек-ром Р > 0, то k(W, W(r))^C27t((xf,xf), {t\r)e, xjr)5))x x|lnic((tJ,T}), (т{г^т<г)5))|. Аналогичные неравенства получаются и для многоканальных систем с отказами. Метод обновлений позволяет также получить условия У. систем обслуживания и в случае зависимых {(х/, х;5)}. Системы с бесконечным числом каналов. Управляющей последовательностью, как и ранее, служит стационарная (в узком смысле) последовательность ик=\х%, х^)^.^. Основной характеристикой таких систем является число qn занятых каналов в момент поступления я-го вызова. Пусть v = - (q , q2, ...) - стационарная последовательность, являющаяся предельной для {?„+*}*> i при п -> оо. Если Exf < <», то такая последовательность существует и ^=/k>tj}+/{^1>xj.,+xj}+ где 1(B) есть индикатор события В. Через qjf\ q , vr обозначены характеристики системы, управляемой последовательностью {(т- , Т- )}. Справедливо следующее утверждение. Пусть последовательности {хеЛ и {т-} метрически транзитивны; конечномерные распределения {(т- , Т.-)} слабо сходятся при г->°° к соответствующим распределениям {(tJ, Ту)}; Ет{г)5 -> ETt5 <°° при г -> оо; при любом целом / ^ 0 Тогда конечномерные распределения последовательности v слабо сходятся при г->°° к соответствующим распределениям последовательности v. Это утверждение остается справедливым и в более общем случае, когда вызовы прибывают в систему партиями объема v£, если последовательность {(т£, v£, Tjp} предполагается стационарной. Системы с автономным обслуживанием. Предполагается, что вызовы поступают в систему группами объема v£ и обслуживаются группами объема v£, так что система управляется последовательностью и-(их, и2,...), где uk=(lek, v£, т£, v£), k^ 1. Отличие этих систем от обычных состоит в том, что в них обслуживание вызовов начинается только в моменты времени 0, Tf, т{ + Т2... независимо от входного потока и наличия очереди. УСТОЙЧИВОСТЬ 757
Пусть e(t) - число вызовов, поступивших в систему до момента t> s(t) = v* +... + vjLvj, где r\(t) - время первого прохождения уровня t блужданием со скачками x\t X2,...; q(t) - длина очереди в момент t (не считая вызовов, находящихся на обслуживании), g(0) = 0; {q(x), х^О} - стационарный процесс изменения длины очереди, к к-рому сходится при £->°° процесс {q(t + x); x^Q). Такие же обозначения (с верхним индексом г^1) сохраняются для систем, управляемых ((r)e (r)s (r)e (r)s\ Для систем с автономным обслуживанием справедливо утверждение: если последовательность Ц* = еЫ-5(Л)-е(Л-1)+5(Л-1); k>\) эргодична, Е£'<0; конечномерные распределения процессов {е (О; s (t)} слабо сходятся при г-><»к соответствующим распределениям процессов {e(ths(t)},Eleir\\)-e(r\0)]-+Ele(\)-e(0)] И E[s(r)(l)-s(r)(0)]->E[s(l)-s(0)] при г->оо, то конечномерные распределения процессов {q(x)} слабо сходятся при г -+ °° к соответствующим распределениям Лит.: [1] Handbuch der Bedienungstheorie, Bd 1, В., 1983; [2] Боровков А. А., Асимптотические методы в теории массового обслуживания, М., 1980; [3] Калашников В. В., Качественный анализ поведения сложных систем методом пробных функций, М., 1978; [4] Stoyan D., Comparison methods for queues and other stochastic models, N.Y., 1983. fi.fi. Калашников. УСТОЙЧИВОСТЬ статистической процедуры (stability of a statistical procedure) - свойство статистической процедуры мало изменять номинальные характеристики при отклонениях от исходной модели. Если свойства той или иной процедуры установлены в рамках достаточно специальной модели (фиксирующей, напр., распределение выборочных данных с точностью до одного или нескольких параметров), то У. статистич. процедуры (относительно реально возможных отклонений от исходной модели) представляется необходимым предварительным условием использования процедуры в статистич. практике. Во многих случаях приходится ограничиться исследованием У. статистич. процедуры методом статистич. моделирования или другими численными методами, поскольку аналитич. методы имеют ограниченную область применимости; напр., при выяснении возможности использования результатов, полученных для больших выборок, в выборках малого или умеренного объемов. Для нек-рых классич. статистич. процедур картина следующая (см. [1]). Статистика Стьюдента tn = ^n-\ x/s, где х us— выборочные среднее и дисперсия соответственно, используется для статистич. выводов о среднем значении нормальной совокупности. У. статистич. процедуры, основанной на tn, означает близость распределения Стьюдента с п степенями свободы к распределению статистики tn> возникающему при выборе из совокупности, отличной от нормальной. При и->оо и распределение Стьюдента с п степенями свободы, и распределение tn сходятся к одному и тому же нормальному, так что в больших выборках можно говорить об У. статистич. процедуры, основанной на tn. В малых выборках У. статистич. процедуры, основанной на tn, меньше по отношению к отклонениям асимметрии, чем к отклонениям эксцесса. Статистика Хп = У\ (■*!"-*) используется для статистич. выводов о дисперсии нормальной совокупности. У. статистич. 2 процедуры, основанной на х„, меньше по отношению к отклонениям эксцесса, чем к отклонениям асимметрии, и здесь не выручают асимптотич. соображения, поскольку при эксцессе, 758 УСТОЙЧИВОСТЬ отличном от нуля, предельное (при л->°°) распределение статистики хп> хотя и гауссовское, но отлично от гауссовского же распределения, предельного для распределения хи-квадрат с (л-1) степенями свободы. Таким образом, отсутствует У. статистич. процедуры, основанной на выборочной дисперсии. Переходя к оцениванию параметра, в качестве примера отсутствия У. статистич. процедуры можно указать на выборочное среднее х как оценку 0 по выборке из нормальной совокупности Ф(* - 0) относительно квадратич. функции потерь. Существуют сколь угодно малые отклонения F(x) от Ф(х) со сколь угодно большим вторым моментом, так что х как оценка 0 по выборке из совокупности F(x - 0) неудовлетворительна. Один из методов добиться У. статистич. процедуры в этой модели состоит в том, чтобы при построении оценки элиминировать влияние крайних наблюдений. Возникает естественный класс оценок типа усеченного среднего, определяемого через порядковые статистики Хх ^... ^Хп выборки как *а= (*(*+!)+ "+*<«-/0>/<"-2*>> k = [na]t а<1/2, где а выбирается в зависимости от возможных отклонений от исходной нормальной модели (см. [2]). При выборе а приходится идти на компромисс между У. статистич. процедуры и ее эффективностью (см. Эффективность статистической процедуры), поскольку построение эффективной статистич. процедуры в максимальной степени основано на специфике модели. Весьма популярная в настоящее время концепция робаст- ности статистич. процедуры является одной из реализаций такого компромисса. Другая возможность - использование статистич. процедуры, свободной от распределения. Изучение У. статистич. процедуры берет начало в экспериментальных исследованиях. В 1-й пол. 20 в. были получены отдельные теоретич. результаты, среди к-рых следует отметить введение так наз. уинзоризованных средних, отличающихся от Ха тем, что вместо отбрасывания статистик Х(1), ..., Х(Л) (соответственно Х(п_л+1), ..., Х(пу) они заменяются на X(k+iy (соответственно на Х(п_1)). Лит.:[\] Кендалл М., С тью ар т А., Статистические выводы и связи, пер. с англ., М., 1973; [2] Леман Э., Теория статистических оценок, пер. с англ., М., 1991. A.M. Каган. УСТОЙЧИВОСТЬ стохастической модели (stability of a stochastic model) - свойство малого в определенном смысле изменения вывода, осуществляемого в рамках стохастической модели, при малом изменении каких-то исходных положений этой модели. Задачи, связанные с анализом У. стохастич. модели, имеющие серьезное прикладное значение, рассматриваются во многих разделах теории вероятностей (см. Устойчивость дифференциальных уравнений со случайными определяющими элементами, Устойчивость систем обслуживания, Устойчивость характеризации распределений, Предельные теоремы). Эффекты У. стохастич. модели изучаются как с привлечением вероятностных метрик, так и в терминах той или иной сходимости распределений. Первый путь предпочтительнее, поскольку позволяет ставить вопрос о количественных оценках (см. Устойчивость стохастической модели; количественные оценки). fl. М. Золотарев. УСТОЙЧИВОСТЬ стохастической модели; количественные оценки (stability of a stochastic model; quantitative estimates) - свойство непрерывности отображения, задающего стохастическую модель в виде преобразования входных данных в выходные, с учетом дополнительной априорной информации, известной относительно как входных, так, вообще говоря, и выходных данных. Общая задача У. формулируется следующим образом. Пусть (3\ ц), (% v) - абстрактные метрич. пространства
(входных X и выходных У данных модели соответственно) и F:&-*%- нек-рое отображение (не обязательно взаимно однозначное). Пусть .с/с ж и 38 a jr - фиксированные подмножества, задающие априорную информацию. С тройкой (.< 33, F) можно связывать различные «чистые» (или невозмущенные) модели. Наиболее типичными являются прямые модели, когда считается выполненным соотношение Ж^Л и 33 = % задача состоит в нахождении множества допустимых выходных данных fW, а также обратные модели (или модели характериза- ции), когда по заданным множествам ^/с а* и Да ^ необходимо найти такое С<=ЗГ, что C = ^(\F~X(33). Задачи У. в этих моделях порождены желанием выяснить, какой эффект от «небольших» изменений Ли 38. Определение 1. Прямая модель называется устой- чивой.в множестве ^с^при заданном ограничении 33, если для любого е > 0 существует такая постоянная 8 = 8(e) >0, что как только е(Х')Е=ц(Х', ^)+v(FX', #)<8(e), Х'ьЗГ, то выполнено неравенство v(/\Y', fW) <e. Определение 2. Модель характеризации называется устойчивой в множественен; если для любого е > О существует такая постоянная 5 = 5(е)>0, что как только б(Х') = ц(Х', М) +v(FX', 33)<&(e), то выполнено неравенство ц(Х', С) <е, и наоборот, то есть для любого 8>0 существует е = е(8) такое, что как только ц(Х', С)<е, так в(Х')<8. Стохастич. модели характерны тем, что в них пространства Ж и ^ рассматриваются либо как пространства нек-рых случайных объектов (величин, функций, полей), либо как пространства вероятностных распределений. В этом случае на роль ц и v выбираются вероятностные метрики. В виде прямой модели трактуются многие схемы, изучаемые в теории вероятностей. Вот нек-рые из них: схема суммирования случайных величин, когда по распределению слагаемых и, быть может, нек-рым ограничениям (напр., независимость, одинаковая распределенность слагаемых и др.) требуется найти распределение суммы; прямые задачи теории массового обслуживания, когда по распределениям «определяющих» случайных величин (времена обслуживания, интервалы между заявками и т.п.) требуется найти распределения длин очередей, времен ожидания и т. д. Получение решений стохастич. дифференциальных уравнений также представляет собой один из случаев прямой модели. Характеризационные модели в теории вероятностей используются при выяснении вида распределений по нек-рым априорным ограничениям, налагаемым на их свойства (напр., в обратных задачах массового обслуживания, когда по выходящему потоку требуется восстановить распределение времени обслуживания и т. п.). Соответственно, задачи У. могут иметь разнообразные содержательные интерпретации. Так, предельные теоремы (напр., центральная предельная теорема, Пуассона теорема) могут считаться теоремами У. в различных схемах суммирования. К определению 1 сводятся также основные свойства У. моделей обслуживания и стохастич. дифференциальных уравнений. В виде определения 2 могут быть сформулированы задачи У. характеризации вероятностных распределений и т.д. Сам факт доказательства теоремы У. (в виде утверждения о существовании этого свойства) говорит о качественных особенностях модели (см. Качественная устойчивость стохастических моделей), гарантирующих, что малые изменения предположений не повлекут больших отклонений в выводах. Факт качественной У., безусловно, является фундаментальным и гарантирующим работоспособность модели. Сама качественная У. не требует, вообще говоря, введения метрик в пространства Ж и %, достаточно наделить их топологиями. Оценка величин 8(e) и е(8) в определениях 1 и 2 приводит к понятию количественной устойчивости, когда доказывается не только наличие У., но и оцениваются возможные следствия вариации исходных данных. При изучении свойства У. используется разнообразная ма- тематич. техника в зависимости от типов изучаемых моделей. Одним из мощных инструментов является теория вероятностных метрик, позволяющая получать не только утверждения о качественной У. моделей, но и соответствующие количественные оценки. При получении количественных оценок У. возникает ряд взаимосвязанных проблем. Первая - оценка величины 8(e) [или е(8)] в терминах метрик ц и v, диктуемых содержательной постановкой задачи. Вторая - выбор метрик ц и v так, чтобы задача оценки 8(e) [соответственно е(8)] решалась наиболее естественно с математич. точки зрения. В определенных ситуациях эти две проблемы могут противоречить друг другу, и тогда возникает третья проблема - переход от оценок, полученных в терминах «естественных» метрик, к оценкам, диктуемым содержательной постановкой. Четвертая проблема всегда возникает при количественных исследованиях - это проблема «качества» оценок, то есть их неулучшаемость в том или ином смысле. Лит.:[\\ Zolotarev V. М., «Bull. Int. Statist. Inst.», 1977, v. 47, № 2, p. 382-401; [2] его же, Современная теория суммирования независимых случайных величин, М., 1986; [3] Калашников В. В., Рачев СТ., Математические методы построения стохастических моделей обслуживания, М., 1988. В. В. Калашников. УСТОЙЧИВОСТЬ характеризации распределений (stability of characterization of distributions) - одно из проявлений устойчивости стохастических моделей, связанное с моделью характеризации распределений. У. характеризации распределений изучается как в качественном, так и в количественном ее проявлениях. Последнее требует привлечения понятия вероятностной метрики или хотя бы вероятностного расстояния. Первые соображения, к-рые можно рассматривать как осознание эффекта У. характеризации распределений, содержались в книге П. Леви [1] (теорема 38), где говорилось о том, что близость свертки распределений к нормальному закону требует и обусловливается близостью компонент свертки к соответствующим нормальным законам. Эти соображения (не содержавшие точной формулировки утверждения и убедительного доказательства) тесно связаны с теоремой Крамера, согласно к-рой функция распределения Ф нормального закона может разлагаться в композицию 0 = Ft«F2 только нормальных функций распределения (в том числе и вырожденных). Соображениям П. Леви точное звучание придал Н. А. Сапогов. Его теорема (см. [2]) была первым результатом в тематике У. характеризации распределений. К тому же она была первой количественной оценкой в задаче У. характеризации распределений. Теорема Сапогова в форме неравенства утверждала, что для малых е = р(/г1в/г2, Ф)| где р - равномерная метрика, всегда можно найти нормальные распределения Ф^ Ф2 такие, что p(Fk, Ф^-Od/Vlogl/e). Идеи П. Леви и Н. А. Сапогова были использованы и продолжены в работах Ю. В. Линника [3] и его последователей (см. [4], [5]). Общий подход, основанный на использовании вероятностных расстояний, содержится в [6], где приводятся условия устойчивости характеризации. Если Ж, % - какие-либо два пространства распределений с заданными в них расстояниями ц и v, ^Q ж, 38я%- выделенные в этих пространствах УСТОЙЧИВОСТЬ 759
подмножества и J :&->&- нек-рое отображение, то 2)=(Л</)ГШ и #=л/П(./~ 30) являются множествами, характеризуемыми в рамках модели (&", % &, Л, Зв) парой множеств d и Зв. У. характеризации этих множеств связана с введенными расстояниями (I и v и нек-рым fi-компактным множеством Л''С;Г. Для множества % напр., это означает, что для любых хе£' \i(x, i</)+v(/r', #)->0<=>п(.г\ ff)->0. Достаточными условиями ((I, у)-устойчивости характеризации Ж являются: 1) по отношению к (I множество Л замкнуто; 2) по отношению к v множество 3d замкнуто; 3) по отношению к паре расстояний (I, v отображение J является непрерывным в каждой точке множества .</. В упоминавшейся выше теореме Крамера для применения этих достаточных условий можно выбрать ar={(F1, F2)}, Fkef (где if- множество функций распределения на IP ), $=f, J(Fit F2) = Fl*F2, Л=Я\ 39 = {Ф} и в качестве расстояний \1 и v метрики »i«Fti f2\ (f;, f2')) = l(fv f;) + l(f2> f/), v = и где L - Леей метрика. Лит.: [1] Levy P., Theorie de l'addition des variables aleatoires, 2 ed., P., 1954; [2] СапоговН.А., «Изв. АН СССР. Сер. ма- тем.», 1951, т. 15, >£ 3, с. 205-18; [3] Линии к Ю. В., Разложения вероятностных законов, Л., I960; [4] Чистяков Г. П., «Теория ве- роятн. и ее примен.», 1986, т. 31, в. 3, с. 433-50; [5] Каган A.M., Л и н н и к Ю. В., P а о С. Р., Характеризационные задачи математической статистики, М., 1972; [6] Золотарев В. М., «Матем. сб.», 1976, т. 101, >6 3, с. 416-54. В. М. Золотарев. УСТОЙЧИВЫЙ АЛГОРИТМ (stable algorithm) - см. Случайный множественный доступ. УСТОЙЧИВЫЙ ПРОЦЕСС (stable process) - однородный по времени случайный процесс с независимыми приращениями, у к-рого распределение приращения на каждом интервале является устойчивым. Семейство У. п., как и семейство устойчивых распределений, является четырехпара- метрическим: для каждого У. п. X(t), Х(0) = 0, существуют такие действительные числа уе (-<*>, °°), С>0, ае(0,2) и Ре[-1, 1], что Eexp{iXX(t)} = ехр где '[l-fl ryX-qx|a|l-ipj^o>aa) wa,a) = tg*r, а*1,ша, 1)=-1пЫ. 2. тс Параметр у соответствует сносу У. п. X(t), параметр а- существованию моментов: E|x(O|5<~,se(0, a),EU(0|a= = «», t>0, при р = у= 0 распределение X(t) симметрично и Eexp{iXX(t)} = exp{-tC\X\a}, а если |р| = 1, то траектории процесса с вероятностью 1 имеют скачки лишь того же знака, что и р. При у=0 и а*1 процесс X(kt) имеет такое же распределение, как и процесс k 'aX(0. Предельные случаи а = 0 и а=2 соответствуют детерминированному процессу X(t) —yt и винеровскому процессу. См. также Устойчивое распределение. Лит.: [1] Скороход А. В., Случайные процессы с независимыми приращениями, М., 1964. A.M. Зубков. УСТОЙЧИВЫЙ СЛУЧАЙНЫЙ ПРОЦЕСС с независимыми приращениями (stable random process with independent increments) - случайный процесс с независимыми приращениями, для к-рого одномерные распределения являются устойчивыми одного и того же типа с характеристическим показателем 0<а^2. Случай а = 2 соответстнует ситуации, когда мера скачков Gt(A)-0 (чисто гауссовский процесс), случай 0<а<2 - ситуации, когда дисперсия гаус- совской компоненты Bit) = 0, а мера скачков где Ct(0, C2(t) - монотонно неубывающие неотрицательные функции. э.Д. Сильвестрова. УСТОЙЧИВЫЙ ТИП РАСПРЕДЕЛЕНИЯ (stable distribution type) - см. Распределений тип. УХУДШЕННЫЙ КАНАЛ (degraded channel) - см. Широковещательный канал.
ФАЗА (phase), спектр фазовый, спектр взаимный фазовый, фазовая плотность, фазовый сдвиг, между стационарными случайными процессами X(t) и 7(0 на частоте X, -oo<X,<oo, - величина, определяемая выражением Fxya) = arg/"xya) = arctg [-Im fXY(X)/Re fXY(X)\, где Ду(Я) - взаимная спектральная плотность процессов X(t) и У(0. Если случайные процессы связаны между собой линейным преобразованием, то величину FXY(X) можно трактовать как сдвиг по фазе одного процесса относительно другого, при к-ром достигается максимум коэффициента когерентности между процессами X(t) и 7(0 на частоте X. См. также Передаточная функция. Лит.: [1] Бриллинджер Д., Временные ряды. Обработка данных и теория, пер. с англ., М., 1980; [2] ДженкинсП, Ватте Д., Спектральный анализ и его приложения, пер. с англ., в. 2, М., 1972; [3] Хсннан Э., Многомерные временные ряды, пер. с англ., М., 1974. Ю. Г. Баласанов, И. А. Кожевникова. ФАЗОВАЯ ДИАГРАММА (phase diagram) - график, иллюстрирующий зависимость от параметров, задающих потенциал гиббеовского поля (напр., обратной температуры (3 и химического потенциала ц) числа экстремальных гиббеовских случайных полей с этим параметром. Примеры Ф. д. см. в ст. Изинга модель, Антиферромагнитная модель. Р. Л. Добрушин. ФАЗОВАЯ МОДУЛЯЦИЯ (phase modulation) - см. Частотно-модулированное колебание, Модуляция и демодуляция. ФАЗОВАЯ ПЛОТНОСТЬ (phase density) - см. Фаза. ФАЗОВАЯ ЧАСТОТНАЯ ХАРАКТЕРИСТИКА (phase frequency characteristic) - см. Передаточная функция. ФАЗОВОЕ ПРОСТРАНСТВО случайного процесса (state space of a random/stochastic process) X(t) = X(t, со), заданного на вероятностном пространстве (Q, ,< Р) при t e Г (Г - нек-рое параметрич. множество), - измеримое пространство (М, &), в к-ром при каждом фиксированном £еГ принимает свои значения случайный элемент X(t,) как измеримое отображение измеримого пространства (Q, d) в измеримое пространство (М, &). Тот же смысл имеет термин пространство состояний случайного процес- с а. Если Ф. п. наделено какими-либо дополнительными структурами, то обычно предполагают эти структуры согласованными со структурой измеримого пространства (напр., если М - метрич. пространство, то, как правило, JB - а-алгебра борелевских подмножеств М). Лит.: [1] Справочник по теории вероятностей и математической статистике, 2 изд., М., 1985. Н. И. Портенко. ФАЗОВОЕ ПРОСТРАНСТВО цепи Маркова или марковского процесса (state space of a Markov chain or a Markov process) - множество (пространство) состояний Маркова цепи или марковского процесса. ^.А. Юшкевич. ФАЗОВО-МОДУЛИРОВАННОЕ КОЛЕБАНИЕ (phase modulated oscillation) - случайный процесс вида X(t) = A sin ((u0t + a(t)), (*) где со0 - высокая несущая частота, a a(t) - модулирующий низкочастотный случайный процесс, основной вклад в значение к-рого вносят частоты намного меньше tOg. Ф.-м. к. широко используются в радиотехнике и технике связи для передачи информации и других прикладных целей (см., напр., [1]-[4]); при этом случайный процесс a(t) часто можно считать или стационарным или, по крайней мере, процессом со стационарными приращениями. Процесс (*) даже при стационарном a(t) нестационарен (но является действительной частью комплексного стационарного процесса; см. [4], [5]). Процесс X(t) при широких условиях обладает осредненной корреляционной функцией, осредненной спектральной плотностью и осредненной спектральной функцией (и является асимптотически стационарным в том смысле, что для него существует lim Ехи + х)Х(0 = В0(-с), к-рый совпадает с осредненной корреляционной функцией). Имеются расчеты осредненной корреляционной функции Bq(x) и ее преобразования Фурье fQ(X) - осредненной спектральной плотности (иначе, осредненного спектра мощности) - для различных классов модулирующих процессов a(t) (см., напр., [1]-[8]). В частности, если a(t) - гауссовский случайный процесс со стационарными приращениями, имеющий нулевое среднее значение и структурную функцию Е[Ха + т)-Х(0]2 = Я(т), то при широких условиях Я0(т) = 0,5Л Vd(t)/2cosco0t, fQ(X) = 0,25A2{G(X- co0) + G(X + cDq)}, где 2 r~ G(X) = — L exp {-D(t)/2} cos Xxdx. В специальном случае винеровского процесса a(t) D(x) = = о2|т| (см. [9]), так что здесь f (х) = A^sL ( 1 + 1 1 /0 8я [tt-u)0)2+a4/4 a+co0)2+a4/4j Фазовая модуляция, то есть создание флуктуации фазы колебания, пропорциональных нек-рому заданному случайному процессу a(t), является важнейшим типом угловой модуляции (см. Частотно-модулированное колебание). Лит.: [[] Миддлтон Д., Введение в статистическую теорию связи, пер. с англ., т. 2, М., 1962; [2] Левин Б. Р., Теоретические основы статистической радиотехники, кн. 1,2 изд., М., 1974; [3] Ван Три с Г. Л., Теория обнаружения, оценок и модуляции, пер. с англ., т. 1, М., 1972; [4] Papoulis A., Probability, random variables, and ФАЗА 761
stochastic processes, 2 ed., N. Y. - [a. o.], 1984; [5] его же, «IEEE Trans. Acoust., Speech, Signal Proc.», 1983, v. 31, N9 1, p. 96-105; [6] его же, «Trans. 9-th Prague Conf. Inform. Theory, Statist. De- cis. Funct., Rand. Processes», 1983, v. B, p. 105-11; [7] Харке- вич А. А., Спектры и анализ, 4 изд., М., 1962; [8] ZadehL. A., «Proc. IRE», 1951, v. 39, № 4, p. 425-28; [91 Wiener N.. Wint- ner A., «Nature», 1958, v. 181, >6 4608, p. 561-62. A. M. Яглом. ФАЗОВЫЙ ПЕРЕХОД (phase transition) - явление, состоящее в скачкообразном изменении макроскопических свойств вещества при непрерывном изменении его термодинамических параметров. Математически строгое определение Ф. п. можно дать в рамках теории Гиббса случайных полей, описывающих равновесные состояния статистич. механики. Пусть 9/^ - семейство потенциалов решетчатой системы, зависящих от вещественного параметра A,e(A,t, A,2). Пусть для простоты пространство значений X поля конечно и при любом конечном множестве индексов А и конфигурации хАеХА функция ^\(хА) от X является вещественно аналитической. Говорят, что потенциал <ЙГ«, где Xq е (ХА, Х2), является точкой Ф. п. в направлении (Ик, если существует семейство распределений вероятностей Р , Хе (Х^, Х2), гиббсовских случайных полей с потенциалом °У такое, что для нек-рой цилиндрич. (то есть зависящей от конечного числа переменных) функции ф от реализации, ее среднее значение (ф) по мере К" имеет как функция от X аналитич. особенность в точке Xq (to есть не является вещественно аналитич. функцией ни в какой окрестности точки Xq). Аналогично определяется точка Ф. п. для решетчатых систем с произвольным пространством X и для непрерывных систем. Если среднее значение (ф) вычислять по гиббсовскому распределению в конечном объеме, то (ф) будет всегда аналитич. функцией от X. Таким образом, математически строгое определение Ф. п. может быть дано лишь на языке бесконечных систем, возникающих после термодинамического предельного перехода. Если точка Xq такова, что мощность совокупности всех экстремальных гиббсовских распределений с потенциалом ^ не является постоянной в нек-рой окрестности точки Xq, to из единственности способа продолжения аналитич. функции следует, что 9/jl является точкой Ф. п. в направлении ^. Такова природа большинства рассматривавшихся точек Ф. п., напр. точек Ф. п. в модели Изинга, так что вопрос об исследовании Ф. п. тесно связан с вопросом о виде фазовой диаграммы. Существует гипотеза о том, что примером системы с Ф. п., где гиббсовское состояние единственно в окрестности точки Ф. п., дает ХУ-модель Гейзенберга, хотя наличие в ней нарушения аналитичности остается недоказанным. Если Ф. п. проявляется в скачкообразном изменении одной из функций (ф) в точке Xq, то говорят, что это - Ф. п. первого рода. Ф. п. часто связаны с изменением скорости асимптотич. убывания корреляционных функций (напр., в Гейзенберга модели) и с появлением нетривиальных предельных автомодельных распределений. С использованием метода корреляционных уравнений или кластерных разложений можно доказать отсутствие Ф. п. для достаточно малых значений обратной температуры (3, а также для достаточно больших отрицательных значений химич. потенциала |х (сильно разреженные газы). Ф. п. отсутствуют также в широком классе одномерных систем. Математич. результаты о существовании Ф. п. носят более частный характер. Достаточно полно исследована лишь ферромагнитная Изинга модель. Лучше всего понята структура Ф. п., происходящих при достаточно больших значениях р, что достигается за счет исследования основных состояний, 762 ФАЗОВЫЙ описывающих поля при р = °° (то есть при нулевой температуре), и последующего применения методов теории возмущений. Наиболее общим из известных здесь результатов является Пирогова - Синая теорема. Остается недоказанным принятое мнение о существовании при достаточно больших значениях ц Ф. и. в непрерывных системах, связанных с образованием кристаллич. структуры вещества. Ф. п. типичны не только для гиббсовских случайных полей, но и в других моделях многокомпонентных случайных систем, напр. в марковских процессах с взаимодействием. Они возникают также в математич. моделях биологич. систем, технич. систем (изображения, системы передачи сообщений), эконо- мич. систем и т. п. Лит. :[1] Малышев В. А., М и н л о с Р. А., Гиббсовские случайные поля. Метод кластерных разложений, М., 1985; [2] Престон К., Гиббсовские состояния на счетных множествах, пер. с англ., М., 1971; [3] Рюэль Д., Статистическая механика. Строгие результаты, пер. с англ., М., 1971; [4] Синай Я. Г., Теория фазовых переходов, М., 1980; [5] Liggett, Thomas M., Interacting particle system, N. Y. - [a.o.J, 1985. Р.Л. Добрушии. ФАЗОВЫЙ СДВИГ (phase shift/displacement) - см. Передаточная функция, Фаза. ФАЗОВЫЙ СПЕКТР (phase spectrum) - см. Фаза. ФАКТОР (factor) - см. Факторный эксперимент. ФАКТОРА ГЛАВНЫЙ ЭФФЕКТ (main effect of a factor) - линейная функция наблюдений факторного эксперимента D с коэффициентами, образующими вектор Ф. г. э. Последний вводится следующим образом. В N-мерном евклидовом пространстве И? и-и координате каждого вектора ставится в соответствие м-й опыт плана D в N опытах. Вектором Ф. г. э. (для фактора F плана D) называется такой вектор *=(*„ ...,zNVe®", что и компоненты z для всех наблюдений, в к-рых фактор F в плане D принимает одинаковые значения, равны. Линейные функции математич. ожиданий наблюдений с коэффициентами, образующими вектор Ф. г.э., называются истинными Ф. г.э. Лит.: [1] Математическая теория планирования эксперимента, М., 1983; [2] Бродский В. 3., Введение в факторное планирование эксперимента, М., 1976; [3jBoseR. С, «Sankhya», 1947, v. 8, p. 107-66. В. 3. Бродский. ФАКТОРИАЛЬНЫЙ МОМЕНТ (faktorial moment) - числовая характеристика случайной величины. Точнее, фак- ториальным моментом порядка т (w>l- целое) случайной величины X называется математич. ожидание (если оно существует) случайной величины Х,т -Х(Х- 1)... ...(Х- т+ 1). Ф. м. могут быть выражены через моменты случайной величины, и наоборот. Так, первый Ф. м. совпадает с математич. ожиданием, дисперсия DX равна EX' ' + + EX'1*-(EX* 0 и т.д. Ф. м. используются, как правило, для целочисленных случайных величин и в этом случае просто выражаются через производные производящей функций P(z) случайной величины X, а именно EX'W* = P (1), где Р( (г) - производная порядка т функции P(z). Производящая функция и Ф. м. позволяют записывать в компактном виде нек-рые формулы, связанные с дискретными распределениями. См. также Случайный процесс, пересечения. Лит.: [1] Кендалл М.Дж., Стьюарт А., Теория распределений, пер. с англ., М., 1966. И. Г. Ушаков. ФАКТОРИАЛЬНЫЙ СЕМИИНВАРИАНТ (factorial semi invariant/cumulant) - числовая характеристика случайной величины, аналогичная семиинварианту. Пусть X - неотрицательная целочисленная случайная величина с производящей
функцией P{z). Факториальным семиинвариантом порядка т называется коэффициент при Zm/m\ в разложении функции In Р(\ +2). Соотношения между Ф. с. и семиинвариантами аналогичны тем, к-рые имеются между факториал ьными моментами и моментами. Лит.: 11] Ксндалл М.Дж., Стъюарт А., Теория распределений, пер. с англ., М., 1966. Н. Г. Ушаков. ФАКТОРИЗАЦИИ МЕТОД (factorization method) - один из вариантов решения уравнений Винера - Хопфа на полупрямой. Ф. м. исследования граничных функционалов случайных блужданий, порожденных суммами 5„ = V" ^независимых одинаково распределенных случайных величин Xk, k ^ 1, или однородным процессом с независимыми приращениями X(t), основан на факторизационных тождествах. Пусть тогда А) где 1 - 2($(s) =<p+(s, г)ф_($, 2)ф0(5, 2), <p±(s, г) = exp <p0(s, г) = exp КМ£-тр<*Н -XL ~P{Sk=0} а также В) где X[X-/?(s)]"1-/;(s, X)fAs, X), f+(s,X) = = expj- £° (eisx -\)dxj~e-)ut-{P{X(t)>x}\dt} fAs,x) = = expj J° (elsx -1) dxj°°e-^r]P{X(t) ^x}\dt. В терминах компонент факторизации выражаются характери- стич функции многих граничных функционалов сумм Sn и процессов X(t). Напр., для 5* = sup Sm, X (t)- sup X(t) V" ,яЕе*5" = <р+(0, г)/(1 -г)Ф+(5, г) (тождество Полачека - Спитцера), XJ^e-UEeisX^t)dt = f+(s, X) (тождество Спитцера - Рогозина). Лит.: [1] Рогозин Б. А., «Теория вероятн. и ее примен.», 1966, т. 11, в. 4, с. 656-70; [2] Боровков А. А., Вероятностные процессы в теории массового обслуживания, М., 1972; [3] Справочник по теории вероятностей и математической статистике, 2 изд., М., 1985. В. С. Королюк. ФАКТОРИЗАЦИОННАЯ ТЕОРЕМА (factorization theorem) для достаточных стати сти к - см. Достаточная статистика. ФАКТОРИЗАЦИОННЫЕ ТОЖДЕСТВА (factorization identities) - система многопараметрических тождеств, устанавливающая связи между различными характеристиками случайных блужданий (главным образом между распределениями граничных функционалов). Пусть Xt, X2y... - независимые одинаково распределенные случайные величины, f(X) = Ee I, 50 = 0, £„ = £" *r ^°" явление Ф. т. связано с возможностью представления функции 1 - гf(X) в области \г I < 1, Im X = 0 в виде \-zf(X)=A2+(X)Az(X), (1) где Аг аналитичны, не обращаются в нуль в области ±ImX>0 и непрерывны, включая границы. Представление (1), называемое факторизацией функции \-zf(X), тесно связано с методом Винера - Хопфа решения интегральных уравнений. Оно единственно с точностью до постоянного множителя лг±а) = еХр{-£±"е^х[х;=| vp<5"<x}]}; И*1- здесь и ниже принято для простоты, что Р{5„ = 0} = 0, п = = 1, 2,... Для траектории (0, 0), (1, S{), (2, 52), ..., рассматриваемой как траектория движения частицы на плоскости (я, t), вводятся границы: п = const > 0, t = const > 0. С прохождением этих уровней связаны следующие случайные величины, к-рые называются верхними граничными функционалами: у =0, Yn= maxS*, ¥„=¥, Qn = mln{k^n:Sk=Yn}, е" = тах{/г^п:5*=Уп},е° = е0 = 0, T)(t) = mm{k:Sk>t}} xM=SMt)-t. Симметричным образом вводятся нижние граничные функционалы для уровней п и £<0. Они обозначаются теми же буквами, снабженными звездочками. Напр., Y* = min Sk,^n = min{k<n:Sk=Y*}, r\*(t) = m'm{k>\:Sk<t}, X^O^S^^-t. Случайная величина Sn считается одновременно верхним и нижним функционалом. Характеристич. функции совместных распределений верхних (нижних) граничных функционалов выражаются в терминах компонент факторизации Аг (X) [соответственно Аг (X)]. При этом достаточно знать вид характеристич. функции лишь двух совместных распределений (см. [2]): P[Ynedx,Bn = k}HP{x(t)edyfr\U) = l}. (2) Все многообразие Ф. т. можно описать с помощью представлений характеристич. функций для этих распределений. Тождества для распределений (2) называются соот- ветственно*первым и вторым факторизационны- ми тождествами. Характеристич. функции для прочих комбинаций граничных функционалов легко получить из этих двух тождеств. С компонентами факторизации Аг связаны преобразования и над другими случайными величинами, к-рые также естественно отнести к граничным функционалам; напр., число Kn(t) пересечений траекторией случайного блуждания уровня ^0и время Tn(t)t проведенное этой траекторией над уровнем t (то есть число индексов /г, 1 </г<я, для к-рых Sk^t). Это функционалы, зависящие уже одновременно от обоих параметров п и t. Связи, к-рые существуют здесь между преобразованиями над Tn(t) и Kn(t) и компонентамиАг , оказываются значительно более сложными. В силу одного из следствий этих связей распределения величин Г„(+0) и 0П совпадают. Первое факторизац ионное тождество. При Ы<1, p<l/|z|, ImX^O 0-^Х" пг"Е(рв«ехр(&Уп)) = ^ ^п = 0 Агр+ А2Л0) ш' (3) Следствия первого Ф. т.: l- i;=0^(exp(ay„);e„=«) = ^w ФАКТОРИЗАЦИИ 763
2' [ХГ.о '"ECp'-expWy,,))]^^ z"E(p8"exp(ay;))] (1-г)(1-гр/-(Х)) " 3. При р = 1 из (3) получается тождество Поллачека Спитцера: i;=0^exp(ayn) = 7TA^ = = expj^°° — Eexp(iXmax(0,5n))k 4 Е(2^+0);У>0) = 1-ехр|-]^>=1 ^-Р{5Я >0}|; Е*0)я|чЙ=Г 5. Следующие три утверждения эквивалентны: Р{У<со} = 1, Р{У = 0} = 0, У~ , Р(5">0><се. 6.Ерв-ехр(Я1У) = ^, совместное распределение (б,», У) безгранично делимо. 7. Если Xk симметричны, то Р{вп = п} = Р{Уп = 0} = -|^; 2 (я!) Р{Л(0) = П} = Р{У„=0} 2я-1 P{e„ = *} = P{e*=*}P{y„_*>o}. 8. Пусть r = ^~=I fi_1(l/2-P{5„>0}). Если \г\ <<*> (ДЛя этого достаточно, напр., чтобы EXt = 0, DXj < <*> или чтобы Хл были симметричными), то Нт р \^-<а\ = lim P Ш^<сД = ^arcsin^oT п-+х> { п J „_>«, [ п ) К (закон арксинуса). Второе факторизационное тождество. При Ы<1, ImX^O, lmu>0 л. Jo ^ лг«,а) Здесь принято соглашение, что функция, по к-рой ведется интегрирование, имеет при х=0 скачок, равный Е(^(+0)в|'ИС(40);Л(+0)<оо), при X-\i интеграл в тождестве (4) равен ХА2+(Х)/Л2+(Х). Следствия второго Ф.т.: 1. При Ul^l, ImX^O 1 -Е(Л'^(0); л(0)<оо) = Л2+(ц). 2. Если ЕХ^О, DX,=o2<eel то Е/0) конечно и Е„(0) = = oer/yl2. 3. Пусть выполнено условие Крамера (функция у(ц) = = /Ч-гц) аналитична в нек-рой полосе 0<Reu<u+), и пусть у ((!+) > \ и X(z) - наибольший корень уравнения у (ц) = 1/z, 0<z<l/ inf y(uX Тогда при х> 0 ImX = 0 Е (2Л(х)еМг)Х(х); л U) < ^ = ^-ХЫх В частности, Е(2я(о)еШ)х(0);т1(0)<оо) = 1 4. Есть всего две возможности, когда хМ и г\(х) независимы: а) Р{Х^х} = се~а* (с>0, а>0, *>0); 764 ФАКТОРИЗАЦИОННЫЕ б) PfX^^cp* { (с>0, р>0, *=1, 2, ...) при целочисленных Хх. В этих случаях соответственно Р{ц(х) = п] = ±f(n, x) + ±-tL(—f(n, х)\ п a dx \ п ) Р{г,(*) = „} = £р{5„ = х) + /-Г- Р{5„ = х)- *-1 Р{*„=* ■4 где /"(п, j:)=~7~~ Р{5"п<^} есть плотность 5Я. При /? = 0 (Xj ^ 1), то есть если блуждание полунепрерывно сверху, Р{леО = я} = -^Р{5,, = *}. Если E(e,x*i; Xt<0) или E(e,X*t; Xt>0) является рациональной функцией, то компоненты факторизации могут быть в явном виде выражены через нули и полюсы функции 1 - zf(X) (см. [2]). Для целочисленных Xt при этом требуется рациональность от е1 . Для распределений из этого класса известны также явные формулы (см. [8]), выражающие через компоненты факторизации двойные преобразования над распределениями граничных функционалов, связанных с выходом траектории случайного блуждания из полосы: д0(2>Х) = 2;п=02п£(е™»;М>п), : Qx{zt X) = E(zNeils»; SN<-a), Q2(z, X) = E(zNeiXS»; SN>b), где N = m[n{n:Sn*(-a> &)}, a>0, 6>0. Ф. т. являются мощным средством асимптотич. анализа в граничных задачах. Исследования проводятся обычно в три этапа. Первый состоит в отыскании тождеств, выражающих двойные или тройные преобразования (по пространству и времени) над совместными распределениями изучаемых граничных функционалов через компоненты факторизации. Затем эти преобразования обращаются по пространственной переменной путем использования особенностей (нули, полюсы, точки ветвления и др.) компонент факторизации. Получаются так наз. асимптотич. представления производящих функций. Их дальнейший анализ осуществляется с помощью модификаций метода перевала. При этом вновь существенно используются аналитич. свойства компонент факторизации. Результатом являются теоремы о полных асимптотич. разложениях, включая теоремы о больших уклонениях. Приведенный метод асимптотич. анализа предложен в работах А. А. Боровкова (см. [3]), где исследована асимптотика распределений граничных функционалов, связанных с выходом траектории случайного блуждания на одностороннюю границу. Дальнейшее развитие метода позволило решить ряд других граничных задач, связанных, в частности, с двумя границами (см., напр., [4], [5]). С помощью Ф. т. можно более простыми путями получить такие утверждения, как усиленный закон больших чисел, закон арксинуса и др. Многие Ф. т. и связанные с ними исследования распределений граничных функционалов перенесены на однородные случайные процессы X(t) с независимыми приращениями и непрерывным временем (см. [5], [6]). В этом случае факторизуется функция z/(z-tp(X)), где ф(Х) = In Еехр (Л-Х(1)). Ряд результатов обобщен на последовательности случайных величин, заданных на состояниях конечных цепей Маркова (см. [7]). Лит.: [1] Феллер В., Введение в теорию вероятностей и ее приложения, пер. с англ., т. 2, М., 1984; [2] Боровков А. А., Вероятностные процессы в теории массового обслуживания, М., 1972; [3] его же, «Сиб. матем. ж.», 1962, т. 3, № 5, с. 645-94; [4] Рогозин Б. А., там же, 1969, т. 10, N° б, с. 1334-63; [5] его же, «Теория вероятн. и ее примен.», 1966, т. 11, в. 4, с. 656-70; [6] Лотов В. И., там же, 1979, т. 24, в. 3, с. 475-85, в. 4, с. 873-79; [7) Прес- манЭ.Л., «Изв. АН СССР. Сер. матем>, 1969, т. 33, № 4, с. 861-900; [8] Kemperman J. H. В., «Ann. Math. Statist.», 1963, v. 34, N° 4, p. 1168-93. А. А. Боровков.
ФАКТОРНАЯ МОДЕЛЬ (factorial model) - см. Факторный эксперимент. ФАКТОРНОЕ МНОЖЕСТВО (factor set) - см. Факторный эксперимент. ФАКТОРНЫЙ АНАЛИЗ (factor analysis) - раздел многомерного статистического анализа, объединяющий математи- ко-статистические методы решения задач, связанных с построением линейной модели х = ц + Л£ + е, (1) где х есть (рх 1)-мерный случайный вектор наблюдаемых величин, (i = E(jc), E[(jc-(i)(jc-(i)t] = 1, Л есть неизвестная (р х ти)-матрица нагрузок общих факторов на наблюдаемые величины, с; есть ненаблюдаемый случайный (р х т)х-вектор (т«р) общих факторов, Е(£т) = 0, Е(^т) = / (иногда ^ интерпретируется как вектор неизвестных взаимно ортогональных нормированных неслучайных параметров), Е - это случайный (р х 1 )-в е к т о р о ш и б о к, или так наз. специфических факторов, Е(е) = 0, Е(е£т) = 0, Е(еет)==Ч/, где Ч* - неизвестная диагональная ковариационная матрица. Из модели Ф. а. (1) следует, что 1 = ЛЛТ + Ч'. (2) Параметры ЛиУ, общие для всех наблюдений, называются структурными, а значения вектора £, связанные с отдельными наблюдениями значений случайного вектора х, называются случайными параметрами. При т > 1 на Л необ- . ходимо наложить [(l/2)m(m- 1)] независимых ограничений, иначе ее элементы не определены, так как в (1) Л можно заменить на Л* = Л7\ а с; на £* = Т £, где Т - любая ортогональная (рхр)-матрица, и соотношение (2) останется справедливым. Таким образом, Л определяется с точностью до ортогонального поворота. Эта неопределенность устраняется применением целого ряда критериев вращения (см. [1]), к-рые можно рассматривать как ограничения, накладываемые на модель Ф. а. К основным задачам, связанным с построением модели Ф. а., относятся задачи существования и идентификации (единственности) модели, статистич. оценивания неизвестных параметров и их алгоритмич. определения, а также статистич. проверки гипотез об адекватности модели наблюденным данным, о значениях структурных параметров и т. п. Пусть JCj, jc2, ..., хп - последовательность независимых одинаково распределенных случайных векторов, представляющих выборочные данные или выборку. В качестве оценок для д и I выбирают -Т 1 *^N С- 1 T^N / -w -чТ соответственно. Процедуру оценивания матриц структурных параметров можно представить как поиск «наилучшей» аппроксимации матрицы S в классе матриц S = ЛЛ + Ф [где Л есть (рхтп)-, а Ф диагональная (р х /?)-матрица переменных] в смысле минимизации нек-рой выбранной функции расстояния или функции аппроксимации \i(S\ S). Примерами последних являются [tr(5-S)2]t/2 и tr(55"1)-ln|55"1| -p соответственно. Тогда оценку для Ч* по данному (I можно определить как отображение Фм: ©£-►£„, удовлетворяющее соотношению п(5;Фц)= inf ц(5;Ф), где @ - множество действительных симметрических положительно определенных (рхр)-матриц, Чр - множество диагональных (рхр)-матриц, ц(5;*) = Х*ХТ^>' f(x) - нек-рая непрерывная строго вогнутая функция, имеющая непрерывные частные производные до второго порядка включительно, с минимумом в х = 1, определенная на спектре обобщенных собственных значений проблемы 4'H = SHG,HJSH = I, (3) где G есть диагональная (рхр)-матрица обобщенных собственных значений с элементами <7i^...^<7m a H- матрица соответствующих обобщенных собственных векторов, k равно наибольшему целому, для к-рого figk^f^ffk+p-m^- Оценка для Л по данному (I определяется выражением ЛЦ = 5'Я1(/-С1)1^2, где Gt есть диагональная (шхт)-матри- ца с элементами дх ^... ^9k^9k+P-m+\ ^ — **9Pf H\ есть (р х т)-матрида соответствующих собственных векторов проблемы (3), причем Ф заменяется на Ф„. Тогда, при условии только существования Е (без предположения о виде распределения х) и идентифицируемости модели, оценки Л„ и Ф„ строго состоятельны (то есть при N-+<*> сходятся с вероятностью единица кЛи^Р соответственно). При условии 2тп>р модель Ф. а. неидентифицируема. Основные результаты по идентификации модели (необходимые и достаточные условия для единственности модели) были систематизированы (см. [5], [6]). Таким образом, решение задачи оценивания ЛиТ сводится к оптимизации на собственных значениях обобщенной проблемы (3). Критерием оптимизации является нек-рая выбранная функция от (I, а переменными - р диагональньрс элементов матрицы Ф. На практике оптимизация осуществляется итеративными методами минимизации функции многих переменных с использованием ЭВМ. В предположении х ~Np(\i, Z) оценки обобщенных наименьших квадратов и максимального правдоподобия для Ч* суть значения Ф„, при к-рых достигаются минимумы функций соответственно. Состоятельные оценки для условного мате- матич. ожидания и ковариационной матрицы вектора ^q, связанного с отдельным наблюдением х0, суть A^S' (x0-x) и (1 -A^S A^) соответственно. На практике Ф. а. обычно используется, во-первых, как метод свертки информации с целью понижения размерности пространства наблюдаемых переменных, во-вторых, как метод разделения источников вариации матрицы наблюдений, исключающих вариацию ошибок, и, в-третьих, как метод классификации наблюдений. Ф. а. применяется в таких областях, как психология, социология, экономика, медицина, география и др. (см., напр., [1]-[4]). Лит.: [1] Харман Г., Современный факторный анализ, пер. с англ., М., 1972; [2] Окунь Я., Факторный анализ, пер. с польск., М., 1974; [3] АйвазянС.А., БежаеваЗ.И., Староверов О. В., Классификация многомерных наблюдений, М., 1974; [4] Ибер л а К., Факторный анализ, пер. с нем., М., 1980; [5] Anderson T. W., Rubin Н., «Ргос. 3-rd Berk. Symp. Math. Statist, and Probab.», 1956, v. 5, p. 111-50; [6] TumuraY., Sato M., «TRU Math.», 1980, v. 16, № 2, p. 121-31; [7] Банников В. А., в кн.: Алгоритмическое и программное обеспечение прикладного статистического анализа, М., 1980, с 208-32. #. л, Банников. ФАКТОРНЫЙ АНАЛИЗ; идентификация модели (identification of a model of factor analysis) - решение одной из основных задач, связанных с построением модели факторного анализа, состоящее в определении необходимых и достаточных условий, налагаемых на (р х ти)-матрицу факторных нагрузок Л с тем, чтобы при предположении существования решения уравнения Е = ЛЛ +4* относительно матриц структурных параметров Л и Ч* это решение было единственным с ФАКТОРНЫЙ 765
точностью до умножения справа матрицы Л на любую ортогональную матрицу Т порядка тп. В. А. Банников. ФАКТОРНЫЙ АНАЛИЗ; схемы (factor analysis models) - различные схемы факторного анализа, в частности анализ главных компонент (АГК), основной факторный анализ (ОФА), канонический факторный анализ (КФА), альфа-факторный анализ (АФА). Модель, частными случаями к-рой являются все указанные схемы, состоит в следующем. Пусть у =(#!,..., уп) - случайный вектор, все компоненты к-рого имеют нулевое математич. ожидание и отличную от нуля дисперсию. Предполагается возможность представления у = с + s + /, где с = Fx, Ey=Es = El = Ее. Неслучайная матрица F размером пхг называется матрицей нагрузок общих факторов. Предполагается, что Ejc = 0, Exx -I. Случайный вектор общих факторов х, вектор специфич. факторов S, вектор ошибок / предполагаются ортогональными, Ejcst = О, Exl = 0, Esl -0. Возможные представления: y-t + l, y- - с + и у где t = c + s, u = s + l; t называется вектором истинных значений, а и - вектором индивидуальных факторов. Пусть С = ЕууТ, Cc = EccT = FFT, Ct = EttT,S2=EssT,E2 = EllTt U2 = EuuT = S2 + E2, И V = diagC, #2 = diagCc, r2 = diagCt = tf2 + S2, CQ=C-V. Пусть D - диагональная матрица с положительными элементами на главной диагонали. Задачи Ф. а., связанные с установлением тех или иных соотношений между описанными выше матрицами, могут быть сведены к описанию экстремальных точек отношения квадратичных форм X=(u)TC(.u>)/(u>TD2u>) в пространстве значений вектора w- (wu ..., wn). Эти задачи могут быть сведены к описанию собственных значений и собственных векторов нек-рой матрицы. Схемы ОФА, КФА, 2 2 2 2 2 2 АФА получаются, если положить D —V , D = U , D = Н соответственно. Схема АГК может быть сведена к изучению отношения квадратичных форм Xc=(u)TCu>)/(u>TV2u>). Во многих случаях наиболее предпочтительной является схема КФА. Предполагается, что все описанные выше ковариационные матрицы полностью известны либо оцениваются по выборке. Лит.: [1] McDonald P. P., Roderich P., «Brit. J. Math, and Statist. Psychol.», 1970, v. 23, № 1, p. 1-21. И. B. Cmenaxuo. ФАКТОРНЫЙ ЭКСПЕРИМЕНТ (factorial experiment) - регрессионный эксперимент для изучения факторных моделей. К таким моделям приводят задачи дисперсионного анализа типа задачи о статистич. исследовании зависимости урожайности от типов почв и способов их обработки (см. Блочный план; однако в Ф. э. типы почв и методы их обработки являются равноправными независимыми переменными, тогда как с точки зрения блочного плана различие почв на опытных делянках рассматривалось как источник неоднородности, влияние к-рого на результаты эксперимента требовалось по возможности исключить). Указанные независимые переменные (типы почв и способы их обработки), как и многие другие, по сути своей не допускают естественного количественного описания и потому называются качест- 766 ФАКТОРНЫЙ венными (в отличие от количественных, таких, напр., как количество вносимых удобрений). Значения качественных переменных удобно описывать с помощью факторов. Так, если i-я переменная может принимать одно из s{ значений, то их нумеруют различными (обычно целыми) числами /• , ..., /t и говорят, что фактор Fi находится в опыте на уровне /, , имея в виду, что i-я переменная принимает в нем k-c из своих значений; этот же способ описания пригоден и для количественных переменных. Количество факторов в Ф. э. предполагается конечным; каждый фактор имеет конечное число уровней (меняющееся, вообще говоря, от фактора к фактору). Исторически введение и изучение Ф. э. (хотя и без строгого определения) Р. Фишером (R. Fisher) послужило отправным пунктом современной теории планирования эксперимента, В настоящее время единого понимания термина «Ф.э.», по-видимому, нет. Характерными его чертами большинство авторов считает изменение при переходе от опыта к опыту значений сразу нескольких факторов. Последнее обстоятельство отличает Ф. э. от общеупотребительного до работ Р. Фишера так наз. классического эксперимента, при к-ром в целой серии опытов варьировались уровни лишь одного фактора при неизменных уровнях остальных. Применение Ф. э. позволило сократить время исследований (что особенно важно, напр., в агробиологич. опытах), повысить, как правило, точность получаемых оценок, а также оценивать взаимодействия (см. ниже) различных факторов. Тип применяемой факторной модели постулируется .экспериментатором или определяется путем статистич. сравнения соответствующих гипотез. Простейшая ~ линейная - модель для упомянутой выше задачи об урожайности имеет вид yijk = \L + axu + $x2j+ztJkt где yijk - урожайность в k-м опыте, в к-ром изучаемые факторы принимают значения хи и х2, соответственно, а е ^ - случайная ошибка, причем обычно предполагается, что г k независимы и одинаково распределены с математич. ожиданием 0 и дисперсией з . Параметры а и (3 называются истинными эффектами уровней соответствующих факторов, а ц - общим средним. В случае п двухуровневых факторон линейная модель принимает вид у - ц + ajх{ + ... + аихп + е. В более сложных моделях, учитывающих также взаимодействия различных факторов, в выражении для у добавляются слагаемые, определяемые уже комбинациями уровней не скольких факторов. Для рассмотренного примера такая модель имеет вид Уу* = М f avii + P*2/4 YYirv2/+ £;/*• Параметр у называется эффектом двухфакторного взаимодействия. Статистич. оценка параметров ц, а, р, у и составляет в данном случае цель Ф. э. Простейшим со структурной точки зрения Ф. э. является полный Ф.э t состоящий из опытов, соответствующих всевозможным комбинациям уровней факторов. В случае п двухуровневых факторов он содержит 2" опытов (без учета их повторений). Полный Ф.э. позволяет оценить как главные эффекты, так и эффекты взаимодействий факторов всех порядков (если они учитываются выбранной моделью). Полный Ф.э. обладает целым рядом свойств оптимальности (см. Планирование эксперимента, а также [1]-[3]), а статистич. обработка его результатов очень проста. Недостатком полного Ф. э. является большое число составляющих его опытов. Поэтому важно уметь строить планы Ф. э. с меньшим числом опытов (такие планы называются дробными), обеспечивающие, однако, оценку параметров
выбранной модели. Важным методом такого рода служит смешивание. Суть этого приема в том, что Ф. э. составляется из опытов, обеспечивающих в совокупности оценку нек-рых линейных функций параметров, в каждую из к-рых входит не более одного эффекта из тех, что подлежат оцениванию. Если теперь считать неоцениваемые эффекты нулевыми, то получатся оценки для параметров, представляющих интерес. Уменьшение числа опытов по сравнению с полным Ф. э. может быть весьма значительным. Напр., для линейной я-факторной модели оно может быть снижено с 2" до п + 1 (обычно используются дробные Ф. э. с 2п~р опытами, где 2пр^п+\). Процедура смешивания допускает удобную ал- гебраизацию. А именно, со всяким способом построения оцениваемых линейных функций эффектов связывается нек-рая конечная абелева группа, определяющие соотношения между образующими элементами к-рой содержат всю информацию о проведенном смешивании. Ввиду частой потребности в линейной замене параметров Ф. э. (напр., при справедливости тождеств для параметров; см. Априорной информации учет), а также при наличии части количественных факторов полезна более общая формализация Ф. э. Так, наряду с вектором эффектов уровней факторов важны его невырожденные линейные преобразования, каждое из к-рых называется вектором главных эффектов. Перемножением произвольных компонент последних при разных факторах (из нек-рого множества со) получают набор эффектов взаимодействия факторов (см. также Фактора главный эффект, Факторов эффект взаимодействия). Функция регрессии Ф.э. есть линейная форма всех компонент истинных главных эффектов и нек-рых эффектов взаимодействий. Причем, если она включает эффект взаимодействий подмножества А факторов, то содержит и эффект взаимодействия факторов из любого подмножества BczA. Совокупность таких подмножеств факторов называется факторным множеством О. Ф.э. (можно отметить, что модель, описанная в ст. Взвешивания план, не является факторной, так как не содержит свободного члена, отвечающего пустому множеству факторов). Ф. э. с одинаковым числом уровней всех факторов называется симметричным и равномерным, если все уровни любого фактора х^ участвуют в плане n{ = N раз, Пусть (оД;) и со^СУ], ..., ;'г) для А = {it, ..., ir) обозначают частоты/-го уровня хх и совместного наблюдения над уровнями ;'t jr факторов xi , ..., х{ . Говорят, что Ф.э. регулярен над Q, если <аЛ(]\, ..., yr) = J"J^ со^ (У*) Для всех 4eQ. Регулярность Ф. э. над Q эквивалентна возможности выбора главных эффектов и эффектов взаимодействий над О попарно ортогональными. Симметричный равномерный регулярный план s уровней k факторов называется ортогональной таблицей (N, k, s, t). Говорят, что план имеет разрешающую способность 2г +1, если можно несмещенно оценить все взаимодействия г факторов. При г=\ получают план главных эффектов. Нек-рую связь между этими комбинаторными свойствами планов и критериями оптимальности (см. Регрессионных экс- периментов планирование) иллюстрирует утверждение: регулярный равномерный план £* главных эффектов £>-оптимален среди планов с носителем в узлах £* (или в многомерном кубе, натянутом на узлы £*, если факторы количественные). Есть много родственных результатов. Первоначально ортогональные таблицы строились при помощи таких комбинаторных конструкций, как латинские квадраты, латинские кубы и др. (см. Ортогональные квадраты. Ортогональные кубы). Впоследствии эти построения были обобщены в рамках теории геометрич. факторных планов, использующей методы теории конечных полей, конечных геометрий и конечных проективных пространств. Так, геометрич. планом главных эффектов для четырех трехуровневых факторов, принимающих значения 0, 1 и 2, будет план: х\ х2 Х3 ХА 0 1 2 0 1 2 0 1 2 0 0 0 1 0 2 1 1 1 2 1 0 2 2 2 0 2 1 01 1 2 2 0 1 1 2 0 строки к-рого составляют те точки конечного евклидова пространства EG (4, 3), к-рые лежат на пересечении плоскостей х^ + х2 + 2*з = 0(mod 3) и хх + 2х2 + 2х3 = 0(mod З). Если значения хи3 и хиА трактовать соответственно как элементы двух квадратов размера 3, стоящие на пересечении строки с номером хиХ + 1 и столбца с номером хи2 + *» то приходят к традиционной в прошлом записи плана в виде двух ортогональных латинских квадратов 0 12 02 1 12 0 и 102 2 0 1 2 10 Геометрич. методы позволяют строить эффективные планы эксперимента для многих важных частных случаев. В общем случае задача построения геометрич. плана с минимальным числом наблюдений для заданного факторного множества Q остается нерешенной. Стремление к уменьшению числа экспериментов заставляет в нек-рых случаях отказаться от регулярности планирования и довольствоваться менее эффективными планами. Разработанные численные методы построения нерегулярных планов основаны на использовании различных комбинаторных построений (напр., сбалансированных таблиц). Лит.: [1] Бродский В. 3., Введение в факторное планирование эксперимента, М., 1976; [2] Математическая теория планирования эксперимента, М., 1983, гл. 10-14; [3] Ермаков СМ., Жигляв- ский А. А., Математическая теория оптимального эксперимента, М., 1987; [4] RaghavaraoD., Constructions and combinatorial problems in design of experiments, N. Y. - [a. o.], 1971; [5] RaktoeB.L., Hedayat A., Federer W.T., Factorial designs, N. Y. - [a. o.], 1981. B. 3. Бродский, В. А. Душский, М. Б. Малютов. ФАКТОРНЫХ ОСЕЙ ВРАЩЕНИЕ (rotation of factorial axes) в факторном анализе- умножение справа (рхти)-матрицы факторных нагрузок Л на невырожденную действительную матрицу Т порядка т, соответствующее выбору новой системы координат (новых факторных осей) в пространстве общих факторов (то есть в w-мерном подпространстве, натянутом на столбцы матрицы Л как на т векторов в исходном ^-мерном пространстве) с целью наилучшей содержательной интерпретации общих факторов; тогда (тих 1)-век- тор Г% (где % есть (тх1)-вектор общих факторов) задает координаты точки на этих новых факторных осях. Ф. о. в. называется ортогональным, если Г - ортогональная матрица, и косоугольным-в противном случае. Для Ф. о. в. существуют два подхода в зависимости от того, сформулировано ли оно в алгебраич. или геометрич. терминах. Первый подход связан с аналитич. методами, второй - с графич. изображением осей, к-рые проводятся через облака (скопления) точек. Получены (см. [3], [4]) формулы для вычисления асимптотич. дисперсий и ковариаций оценок максимального ФАКТОРНЫХ 767
правдоподобия для факторных нагрузок, полученных ана- литич. методами ортогонального и косоугольного вращений, основанными на максимизации целевых функций общего вида. Лит.: [1] Харман Г., Современный факторный анализ, пер. с англ., М., 1972; [2] Иберла К., Факторный анализ, пер. с нем., М., 1980; [3) Archer CO., Jennrtch R. I., «Psychometrika», 1973, v. 38, № 4, p. 581-92; [4] Jennrich R. I., там же, 1973, v. 38, Ns 4, p. 593-604. B.A. Банников. ФАКТОРОВ ЭФФЕКТ ВЗАИМОДЕЙСТВИЯ (inter action of factors) - линейная функция наблюдений факторного эксперимента D с коэффициентами, образующими вектор Ф. э. в. Последний вводится индуктивно следующим образом. Вектором эффекта взаимодействия нулевого порядка (или однофакторным вектором взаимодействия) называется вектор главного эффекта фактора (см. Фактора главный эффект). Вектором эффекта взаимодействия (r-l)-ro порядка (или вектором г-факторного эффекта взаимодействия, г^2) факторов Fv ..., Fr плана D в N опытах называется такой вектор 2 = iz^,..., zN) е И? , что Ll,«-* ST.,*2*». 2 ортогонален всем векторам эффектов взаимодействия вплоть до порядка (г-2) факторов Ft, ..., Fr, и компоненты 2 для всех наблюдений плана D, в к-рых факторы Ft, ..., Fr принимают одинаковые значения, равны. Линейные функции математич. ожиданий наблюдений с коэффициентами, образующими вектор Ф. э. в., называется истинным Ф. э. в. Лит. см. при ст. Факторный эксперимент, Фактора главный эф- дЬект. В. 3. Бродский. ФАКТОРСИСТЕМА динамической системы (factor quotient of a dynamical system) - см. Изоморфизм динамических систем. ФАНО АЛГОРИТМ (Fano algorithm) - см. Последовательное декодирование. ФАНО НЕРАВЕНСТВО (Fano inequality) - неравенство теории информации, лежащее в основе доказательства обратных теорем кодирования для каналов связи. Пусть X, Y - две (зависимые) случайные величины, принимающие значения в одном и том же множестве из М элементов. Пусть p = P{X*Y}, тогда условная (двоичная) энтропия H(X\Y) оценивается сверху неравенством Фан о: mx|Y)^piog2(M-l) + Mp), где u(p) = -plog2p-(l-p)log2(l-p). Ф. н. является одним из основных инструментов при выводе верхних оценок для вероятности ошибки передачи информации по каналам связи. Лит.: [1] Галлагер Р., Теория информации и надежная связь, пер. с англ., М., 1974; [2] Кол есн ик В. Д., Пол тырев Г. Ш., Курс теории информации, М., 1982. С. И. Гельфанд. ФЕЙНМАНА - КАЦА ФОРМУЛА (Feynman - Кае for muia) - см. Стохастическая дифференциальная геометрия. ФЕЛЛЕРОВСКАЯ ПЕРЕХОДНАЯ ФУНКЦИЯ (Feller transition function) - см. Переходная функция для марковского процесса. ФЕЛЛЕРОВСКАЯ ПОЛУГРУППА (Felier semigroup) - см. Марковская полугруппа. ФЕЛЛЕРОВСКАЯ ЦЕПЬ МАРКОВА (Feller Markov chain) - см. Феллеровский процесс. ФЕЛЛЕРОВСКИЙ ПРОЦЕСС (Feller process) - однородный марковский процесс X, заданный в измеримом пространстве (Е, &), где Е - топологическое пространство, а & - 768 ФАКТОРОВ совокупность борелевских множеств в нем, и имеющий фелле- ровскую переходную функцию pit, x, Г), t>0, xeE, ГеиВ. Последнее означает, что операторы Pt *f->Ptf> где t^O, Ptf{) = \f{y)pU,-,dy), a f пробегает семейство всех ограниченных и непрерывных в Е функций, отображают это семейство в себя. Указанный класс процессов впервые выделен У. Феллером [1J. В качестве примеров Ф. п. выступают многие одномерные диффузии и каждый сильно феллеровский процесс. Любой стандартный процесс можно рассматривать как Ф. п., если в его пространство состояний ввести порожденную им тонкую топологию (см. Потенциала теория для марковского процесса). Свойство феллеровости влечет ряд полезных следствий (далее пространство Е считается метризуемым). Напр., если Е - компакт, а феллеровская переходная функция pit, x, Г), заданная в (£, &), стохастически непрерывна в том смысле, что pit, х, U) —> 1 при tlO всякий раз, когда X*sE, a U служит окрестностью точки х, то отвечающий этой функции марковский процесс X можно, не ограничивая общности, считать непрерывным справа и не имеющим разрывов второго рода (см. [2]). Всякий Ф. п. с непрерывными справа траекториями является строго марковским. Иногда феллеровское свойство марковского процесса трактуют в расширенном смысле, требуя, чтобы операторы Pt, t^O, определенные по прежнему образцу, но в классе всех ограниченных борелевских функций в Е, отображали в себя ту или иную подходящим образом выбранную совокупность функций (см. [3]). Так, в случае локально компактного пространства Е со счетной базой удобно предположить, что операторы Pt отображают в себя семейство всех непрерывных в Е функций, стремящихся к 0 на бесконечности. Если при этом выполнено и условие стохастич. непрерывности, то процесс X эквивалентен нек-рому стандартному процессу (см. [2]; эквивалентность этих процессов означает, что они имеют общую переходную функцию). По аналогии с Ф. п. определяется и феллеровская цепь Маркова. Зачастую, отправляясь от цепи Маркова общего вида, заданной в нек-ром измеримом пространстве, удается за счет сравнительно экономного расширения ее пространства состояний и последующего доопределения цепи получить феллеровскую цепь в расширенном пространстве (см. [4]). Предпринято обстоятельное исследование фелле- ровских цепей (см. [5]). Лит.: [1] Feller W., «Ann. Math.», 1952, v. 55, p. 468-519; 12] Дынкин Е. Б., Марковские процессы, М., 1963; [31 Walsh J. В., «Ann. Math. Statist», 1970, v. 41, p. 1672-83; [41 ШурМ.Г, «Теория вероятн. и ее примен.», 1981, т. 26, в. 3, с. 496-509; [51 Смирнов С. Н., «Докл. АН СССР», 1982, т. 263, № 3, с. 554-58. М. Г. Шур. ФЕЛЛЕРОВСКОЕ РЕШЕНИЕ стохастического дифференциального уравнения (Feller solution of a stochastic differential equation) - феллеровский процесс iXv dv Px) такой, что Px - слабое решение уравнения dXt = aiXt)d\Vt + biXt)dt (*) при каждом хе№ . Ф. р. существует в следующих случаях (а и Ь предполагаются ограниченными): 1) если а и Ь удовлетворяют условию Липшица; 2) если аа*/2 равномерно положительно; 3) (для стохастич. дифференциального уравнения с границами) если вне границы аа*/2, а на границе - коэффициент сноса (переноса) равномерно положительны. В случае 1) решение (*) сильно единственно и его распределение является феллеровским процессом. В случаях 2) и 3) единственность не гарантирована и Ф. р. выбирается среди множества всех решений.
Лит.: [lj КрыловН.В., «Изв. АН СССР. Сер. матем.», 1973, т. 37, № 3, с. 691-708; [2] КрыловН. В., Сафонов М. В., «Докл. АН СССР», 1979, т. 245, № 1, с. 18-20; [3] АнуловаС. В., «Изь. АН СССР. Сер. матем.», 1986, т. 50, № 2, с. 211-41. С. В. Анулова. ФЕРМИ - ДИРАКА СТАТИСТИКА (Fermi - Dirac statistics) - квантовая статистика, применимая к системам тождественных частиц с полуцелым спином (1/2, 3/2, ...) в единицах fr= 1,05-10~27эрг-сек. Предложена Э. Ферми (Е. Fermi) в 1926, в том же году П. Дирак (P. Dirac) выяснил ее кванто- вомеханич. смысл: для системы, подчиняющейся Ф. - Д. с, волновая функция должна быть антисимметричной относительно перестановок координат и спинов частиц. Согласно Ф. -- Д. с, в каждом квантовом состоянии может находиться не более одной частицы (принцип Паули), и они неразличимы. Для идеального газа, подчиняющегося Ф. - Д. с, квантовое состояние определяется совокупностью чисел заполнения уровней {пр}, где каждое пр указывает, заполнен ли данный уровень с импульсом р(пр=\) или свободен (яр = 0). Для больших систем уровни можно сгруппировать по малым ячейкам, содержащим G, уровней со средней энергией £, = />, /2т, причем Gf» 1. Состояние системы определяется набором {Ы}}, где Nj - сумма пр по уровням ячейки. Статистич. вес макроскопич. состояния, то есть число различных распределений частиц по ячейкам, равен Наиболее вероятное распределение частиц по состояниям находится из условия максимальности статистич. веса при фиксированной энергии E = \.eiNi и числа частиц N = \Nf. Ему соответствуют средние числа заполнения n^NJG^ = (^(е''"ц)+ I)"1, где \л - химич. потенциал, (3=l/fc7\ k - постоянная Больцмана, k = 1,38-10 эрг/град, Г - абсолютная температура. Лит. см. при ст. Бозе - Эйнштейна статистика. Д. И. Зубарев. ФЕРМИОННОЕ ПРОСТРАНСТВО (fermion space) - см. Фока пространство. ФЕРНИКА ТЕОРЕМА (Fernique theorem) - см. Случайный процесс; регулярность траектории. ФЕРРОМАГНИТНАЯ МОДЕЛЬ (ferromagnetic model) - важный специальный случай решетчатой модели статистической механики. Он выделяется тем требованием, что всякое периодич. основное состояние Ф. м. сосредоточено на постоянных конфигурациях. Напр., если пространство значений переменных внутренних степеней свободы X есть подмножество IP , а потенциал °и имеет вид f_fcr, A = {t)the®d, [О, |А|>2, то условие ферромагнитности выполнено, если &si ^ 0 для всех s, t. Случай &st^0 соответствует антиферромагнитной модели. Вектор h называют иногда внешним или магнитным полем. Напр., ферромагнитная Изинга модель соответствует случаю Х = {—\, +1}. Структура гиббсовских состояний для всех Ф. м. аналогична структуре гиббсовских состояний для ферромагнитной модели Изинга. С. Б. Шлосман. ФЕФФЕРМАНА НЕРАВЕНСТВО (Fefferman inequality) - см. Мартингал. ФИ-ВЕТВЯЩИЙСЯ ПРОЦЕСС (<p-branching process) - регулируемый ветвящийся процесс с дискретным временем, в к-ром число частиц, порождающих следующее поколение, является функцией от размера текущего поколения. Напр., если функция ф(-) и независимые одинаково распределенные случайные величины Xj(t) принимают целые неотрицательные значения, то число Z(t+\) частиц (£+1)-го поколения Ф.-в. п. определяется равенством Случай ф(я) = и соответствует ветвящемуся процессу Галь- тона - Ватсона; ф(и) = п + с при с = const > 0 - ветвящемуся процессу с иммиграцией; ф(я) = тах(0, п-С) при С = = const > 0 - ветвящемуся процессу с эмиграцией и т. п. Лит.: [1] Севастьянов Б. А., Зубков A.M., «Теория веро- ятн. и ее примен>, 1974, т. 19, в. 1, с. 15-25; [2] Зубков А. М., там же, 1974, т. 19, в. 2, с. 319-39; [3] Я не в Н. М., там же, 1975, т. 20, в. 2, с. 433-40; [4] Ватутин В. А., там же, 1977, т. 22, в. 3, с. 482-97. Л. М. Зубков. ФИДУЦИАЛЬНОЕ РАСПРЕДЕЛЕНИЕ (fiducial distribution) - распределение Рх параметра 8 семейства распределений #>= {Ре, 0 е 0} наблюдения х. Введено Р. Фишером [ 1 ] для числовых 8 и х в случае, когда функция распределения F(x\&) наблюдения х убывает с ростом 8 так, что F*(eU) = = 1 -F(x\&), рассматриваемая как функция от 8 при фиксированном ху обладает свойствами функции распределения (к такой ситуации часто приводит использование в качестве х достаточной статистики). Ф. р. определено для инвариантных семейств распределений (см. [2] - [4]). Именно, пусть группа G преобразований g действует на множествах X и 0. Семейство распределений называется инвариантным, если дх имеет распределение F* 0, когда х имеет распределение Р0. В этом случае рассматривают эквивариантные решающие правила &:X->D (такие, что &(дх)=д&(х) для всех х и д) и инвариантные функции потерь L$(d) (такие, что LgB(gd) -L$(d) для всех 8, d и д). Если действие группы G на множестве 0 транзитивно, то семейство ^обладает определенным свойством однородности: для фиксированного значения параметра 80 и наблюдения х, имеющего распределение Ре , распределение дх пробегает все семейство £>, когда д пробегает G. Пусть D - множество вероятностных мер на 0 (предполагаются заданными нек-рые а-алгебры .#(0) и 35(X), так что преобразования группы G измеримы). Пусть действие G на D задано соотношением (да)(В) - а(д-\В)), В е Жв). Ф. р. описывается семейством £>* = {Рд., х еХ} вероятностных мер на 0, минимизирующим риск J LQ(b(x))dPQ(x) в классе эквивариантных решающих правил для каждой инвариантной функции потерь, удовлетворяющей условию типа несмещенности: jLe(a)rfp(e)^jLe(p)rfp(e). Если G действует на X транзитивно, то семейство Ф. р. однозначно выделяется требованиями инвариантности £>* = = {Р*:хеХ) и совпадения доверительных и фидуциальных вероятностей P0{0e5'(j:)} = Рд.{0е5'(^)} для инвариантных семейств Six) (инвариантность Six) означает, что из 0 е S(x)g е G следует gQ e S(gx)). Лит.: [1] Fisher R., «Ргос. СатЬ. Philos. Soc.», 1930, v. 26, p. 528-35; [2] Fraser D., «Biometrika», 1961, v. 48, p. 261-80; [3] Климов Г. П., «Докл. АН СССР», 1970, т. 191, № 4, с. 763-65; [4] его же, Инвариантные выводы в статистике, М., 1973. А. Д. Кузьмин. ФИДУЦИАЛЬНЫЙ ИНТЕРВАЛ (fiducial interval) - аналог доверительного интервала, основанный на использовании функции F*(0|jc)= 1 -F(x\q) фидуциального распределения, где х - наблюдение, 0 - неизвестный параметр функции распределения F(x, 0) наблюдения. Часто при числовых 8и^, где обычно роль х играет достаточная статистика, функция ФЕРМИ 769
F*(Q\x) как функция аргумента в является функцией распределения. В таких случаях Ф. и. для 0 уровня 1 -а определяется условием inf {F*(e2|*)-F*(e,I*)}=l-a. X Статистики Q^(x) и 62(*), являющиеся концами Ф. и., во многих случах представляют собой разумные границы возможных значений параметра. Ф. и. - интервал значений неизвестного параметра, имеющий достаточно высокую фидуциальную вероятность, описываемую функцией F*(Q\x). Для инвариантных статистич. моделей фидуциальные интервалы совпадают с доверительными вместе с их вероятностями, если ограничиться инвариантными как фидуциальными, так и доверительными интервалами. Тогда в интервал включают те значения параметра, к-рые при получении значений наблюдения приводят к попаданию значений функции в фиксированное множество с заданной вероятностью. Лит.: [1] Fisher R., «Proc. Camb. Phitos. Soc», 1930, v. 26, p. 528-35; [2] Климов Г. П., Инвариантные выводы в статистике, М., 1973. А. Д. Кузьмин. ФИЗИКО-СТАТИСТИЧЕСКИЙ ПРОГНОЗ ПОГОДЫ (physical statistical weather forecasting) - см. Статистический прогноз погоды. ФИЗИЧЕСКОГО СПЕКТРА ПЛОТНОСТЬ (physical spec trum density) - см. Спектральные теории нестационарных случайных процессов. ФИЗИЧЕСКОЙ РЕАЛИЗУЕМОСТИ УСЛОВИЕ (physical realizability condition) - см. Импульсная переходная функция. ФИКТИВНОЕ СОСТОЯНИЕ (fictitous/fictions state) - дополнительное состояние а, присоединенное к фазовому пространству марковского процесса с целью регуляризации траекторий процесса. Ф. с. введены П. Леви [1] при изучении марковских процессов со счетным множеством состояний. Напр., если процесс X последовательно пробегает состояния 1, 2, 3, ..., а затем ..., -3, -2, -1, проводя в состоянии п время тп с £Етп<°о, то в случайный момент перескока из последовательности 1, 2, 3, ... в последовательность ..., -3, -2, -1 естественно поместить траекторию в фиктивное состояние °о, а не в одно из имеющихся состояний. Для любого фиксированного t > 0 вероятность нахождения Xt в множестве фиктивных состояний равна 0. Идея пополнения фазового пространства марковского процесса получила дальнейшее развитие в построении входной и выходной границ (см. Марковский процесс; граничное условие). Лит.: [I] Levy P., «Ann. sci. Ecole norm, super.», 1951, t. 68, p. 327—81; [2] Чжун Кай-лай, Однородные цепи Маркова, пер. с англ., М., 1964. А. А. Юшкевич. ФИЛЬТРА КОЭФФИЦИЕНТ УСИЛЕНИЯ (gain of a filter) - см. Линейный фильтр. ФИЛЬТРА ФАЗА (filter phase) - фаза передаточной функции фильтра в представлении ее как комплексной величины. См. также Линейный фильтр. Ю. Г. Баласанов. ФИЛЬТРАЦИИ УРАВНЕНИЕ для диффузионных процессов (filtering equation for diffusion processes) - уравнение для условного математического ожидания ntlf} = Elf(X(t))\Y(s),s<t], где X(t) - какая-то часть компонент диффузионного процесса (условно называемая «ненаблюдаемой»), Y(s) - оставшаяся («наблюдаемая») часть компонент, a f- заданная функция. Уравнение для Kt[f] понимается в обобщенном смысле, то есть относительно меры, задаваемой условным математич. ожида- 770 ФИКТИВНОЕ нием. Ф. у. играет центральную роль в теории фильтрации. В наиболее общей форме Ф. у. приведено в [1]. Лит.: [II ЛипцерР. Ш., Ширяев А. Н., Статистика случайных процессов, М., 1974. Б. Л. Розовский. ФИЛЬТРАЦИИ УРАВНЕНИЕ для фильтрационной плотности диффузионного процесса (filtering equation for filtering density of a diffusion process) - нелинейное уравнение для плотности к (t, x) меры, удовлетворяющей уравнению фильтрации для диффузионного процесса, относительно меры Лебега. Эта плотность допускает представление n(t, *) = ф(£, х)/] p(t, x)dx, а случайное поле ср(£, х) является решением линейного стоха- стич. параболич. уравнения 2-го порядка, коэффициенты к-рого определяются по коэффициентам диффузионного процесса. Упомянутое уравнение называется обычно уравнением ненормализованной фильтрационной плотности. Ф. у. для плотностей n(tt x) и ф(£, х) к настоящему времени достаточно хорошо изучены. Лит.: [11 ЛипцерР. Ш., Ширяев А. Н., Статистика случайных процессов, М., 1974; 12] Розовский Б. Л., Эволюционные стохастические системы, М., 1983. Б. Л. Розовский. ФИЛЬТРАЦИЯ семимартингала (filtering of semimar- tingale) - см. Семимартингала фильтрация. ФИЛЬТРАЦИЯ сигнала (signal filtering) - процесс выделения сигнала из его аддитивной смеси с шумом. Задача Ф. сигнала состоит в построении оценки s(t) значения сигнала s (t) в момент времени t по наблюдениям связанного с s() случайного процесса х(и), ue[t0, t^]. Если статистич. характеристики s() и х(-) известны, то, как правило, пытаются построить оценку s(t) с наименьшей среднеквадратичной ошибкой E\s(t) -s(t)\2. Наиболее широко используется линейная Ф. сигнала. В этом случае оптимальная оценка имеет вид ,, 5(0= Г h(t,X)x(X)dX, а функция h(t, X) удовлетворяет интегральному уравнению Едг(«)5(0=Г1 h(t, X) Ex(XMu)dX,uG[t0, t,]. 'о Линейные методы дают минимальную ошибку Ф. сигнала, когда процессы х() и s(0 имеют совместное гауссовское распределение. Обобщение этих методов на Ф. сигнала, формируемого системой, поведение к-рой описывается нелинейными стохастич. дифференциальными уравнениями, приводит к общим стохастич. уравнениям Ф. сигнала (см. [2]). Лит.: [11 Ван Три с Г., Теория обнаружения, оценок и модуляции, пер. с англ., т. 1, М., 1972; [2] ЛипцерР.Ш., Ширяев А.Н., Статистика случайных процессов, М., 1974. Г. К. Голубгв. ФИЛЬТРАЦИЯ случайных процессов (filtering of random processes) - см. Случайный процесс; фильтрация. ФИНАЛЬНАЯ ВЕРОЯТНОСТЬ (final probability) - предел Pj при я-*°о вероятности перехода р^(п) из состояния i в состояние / однородной Маркова цепи с конечным или счетным множеством Е состояний в том случае, когда эти пределы существуют для каждого j е Е> не зависят от i и удовлетворяют условию £ р;= 1. Ф. в. образуют единственное стационарное распределение цепи. В конечной цепи Ф. в. существуют тогда и только тогда, когда Е состоит из одного существенного класса состояний периода 1, и может быть, класса несущественных состояний (см. Маркова цепь; классификация состояний). В счетной цепи для существования Ф. в. необходимо, чтобы множество С всех существенных состояний составляло один положительный класс периода 1; если Е-С, то этого условия и достаточно. Величина pj равна среднему времени возвращения из i в /.
Пример (случайное блуждание с поглощением). Пусть Е = {0, 1,2, ...}, Роо=1.Рм+1=Р. Pi.i-i = i-P> 0<р<1, i=l, 2, ... Здесь £ = CUtf, где С = {0} - положительный существенный класс, /? = {1, 2, ...} - класс несущественных состояний. Если р ^ 1/2, то существуют Ф. в. pQ = 1, /?. = 0, / ^ 1. Если же р> 1/2, то при z = 0, 1, 2, ... lim р.0(п) = f±2-| , Hm р,.(и) = 0, ;>1, и Ф. в. нет. Л. Л. Юшкевич. ФИНАЛЬНАЯ ВЕРОЯТНОСТЬ ветвящегося процесса (final probability of a branching process) - см. Ветвящийся процесс; финальные вероятности. ФИНАЛЬНАЯ ПЛАТА (final reward) - см. Управляемый случайный процесс с дискретным временем. ФИНАЛЬНЫЙ ТИП в ветвящемся процессе (final type in a branching process) - тип частиц, входящих в финальный класс (см. Ветвящийся процесс с конечным числом типов частиц). Частицы, входящие в финальный класс, при размножении не изменяют общего числа частиц этого класса и почти наверное превращаются в одну частицу какого-либо Ф. т. из этого же класса и, быть может, еще в какое-то число частиц других классов. Б. Л. Севастьянов. ФИНАНСОВАЯ МАТЕМАТИКА (mathematics of finance) - раздел математики, призванный анализировать финансовые структуры, функционирующие в условиях неопределенности и находить наиболее рациональные способы управления финансовыми структурами и средствами с учетом таких факторов как время, риск, стохастическая эволюция и др. В дальнейшем акцент делается на стохастич. аспекте Ф. м. Принято выделять следующие основные объекты и структуры, с к-рыми имеет дело Ф. м.: индивидуумы, фирмы (напр., корпорации, компании), посреднические структуры (напр., банки, инвестиционные компании, пенсионные фонды) и финансовые рынки. Именно эти рынки представляют один из основных объектов изучения средствами стохастич. Ф. м., базирующейся на таких вероят- иостно-статистич. дисциплинах как теория случайных процессов, статистика случайных процессов, стохастич. анализ, стохастич. оптимизация и др. В соответствии с принятой терминологией финансовый рынок состоит из денежных и валютных рынков, рынков ценных металлов и рынков финансовых инструментов (включая и ценные бумаги). Финансовые инструменты делятся на два класса: основные (первичные) и производные (вторичные). К числу основных финансовых инструментов относят ценные бумаги (банковские счета, облигации, акции). К производным финансовым инструментам относят: опционы (опционные контракты), фьючерсы (фьючерсные контракты), варранты, свопы, комбинации, спрэды, сочетания и др. Оперирование с производными финансовыми инструментами принято рассматривать как предмет финансовой инженерии. Придерживаясь стохастич. подхода к Ф. м., предполагают, что имеется нек-рое исходное вероятностное пространство (Q,.У, Р). Так как время и динамика являются неотъемлемыми компонентами финансовой теории, то целесообразно считать пространство (Q,.«/, Р) наделенным специальной структурой: потоком а-алгебр С«/„)п^о ^в слУчае дискретного времени) или а-алгебр (.</;)* ^q (в случае непрерывного времени). Получающиеся таким образом пространства (Q, i«/, Сс/П)п>0, Р) и (Q, cc/, C«/f)f>o» P) принято называть фильтрованными вероятностными пространствами (вероятностными пространствами с фильтрацией), а события из .</„ (соответственно, из dt) интерпретировать как события, наблюдаемые на «рынке» до момента времени п (соответственно, t). Дискретное время. В этом случае при описании эволюции состояния банковского счета B = (Bn)n^Q обычно используют одну из следующих двух моделей: в„=воег,+Г2+- "*'- (1) *. = *оГЕ., (1+rV. (2) где процентные ставки rk и rk являются ^k_y-измеримыми (иначе говоря, предсказуемыми). Последнее предположение отражает то свойство банковского счета, что его состояние «завтра» становится известным уже «сегодня». В модели (1) начисление капитала происходит по способу «сложных процентов», в модели (2) - по способу «простых процентов». При этом предполагают, что rk>-\. Очевидно, что rk = \n(\ +rk) Если S=(Sn)n^Q означает стоимость (цену) акции, то по аналогии с (1) и (2) придерживаются следующего описания: 5п = 50,,Р|+Р2+--+ра (3) ^ = *оГС = 1<1+Р*>' (4) где величины pk и fik предполагаются .^-измеримыми (в отличие от величин rk и rk> являющихся ^.^измеримыми). Для того чтобы цены Sn, n^\, были положительны, предполагают, что 50>0 и р*>-1 при всех k. С каждой парой (В, S) банковского счета В и акции S связывают понятие (В, 5)-рынка, понятие стратегии (портфеля) я =(р, у), где Р = (рп)п^0 и У=(?Л^о являются предсказуемыми последовательностями, и понятие капитала Х* = (^)п>0' отвечающего этой стратегии: X„* = P„B„ + Y„Sn- (5) В том случае, когда 5= (5, ..., S ) - пакет, состоящий из d акций, компонента у портфеля к является rf-мер- ной предсказуемой последовательностью у= (у у) и под ynSn в (5) следует понимать скалярное произведение В классе всех стратегий к особо выделяются так наз. с а - мофинансируемые стратегии, для к-рых эволюция капитала X определяется формулами Д*„*=Р„лвп+г„^п.«2И. (6) означающими, что изменение капитала происходит лишь в результате изменений состояний банковского счета и стоимости акций, а не за счет изменений состояний портфеля, то есть считают, что Бп_1Лрп + Sn.^Ayn = 0, п ^ 1. Будем предполагать, что финансовая активность на (В, S)- рынке ограничивается моментами я = 0, 1, ..., N. Определение 1. Самофинансируемая стратегия я реализует арбитражную возможн ость (в момент времени N), если при нулевом начальном капитале, Х^ = 0, капитал Xj^O с Р-вероятностью, равной 1 (или Р-почти наверное) и X J > 0 с положительной Р-вероятностью. Определение 2. Говорят, что на (В, 5)-рынке отсутствуют арбитражные возможности, или что этот рынок является без арбитражным, если множество самофинансируемых арбитражных стратегий пусто (иными словами, если для нек-рой самофинансируемой стратегии к начальный капитал Xj = 0 и, кроме того, Х^^ 0 (Р-почти наверное), то и Xjj = 0 (Р-почти наверное). ФИНАНСОВАЯ 771
Наряду с введенной концепцией арбитража, важным является понятие полноты (В, З^-рынка, опирающееся на вводимое ниже определение хеджа (хеджирующего портфеля). Пусть /д/ = /д/(ш), (0€ft, - нек-рая неотрицательная ^-измеримая функция, играющая роль «платежного обязательства», «терминальной выплаты» или «целевой функции». Определение 3. Самофинансируемый портфель к = (|3, у) ценных бумаг на (В, 5")-рынке называют (х, /"^-хеджем, если Xq=x, XN>fN (Р-почти наверное). Говорят, что (х, /]у)-хедж к является совершенным, если Xq-x, Xtf = fN (Р-почти наверное). Данное понятие хеджа (иногда говорят - верхнего хеджа) играет в Ф. м. роль того защитного инструмента, к-рый позволяет добиваться получения (Р-почти наверное) капитала (XN) не меньшего, чем значение fN. Определение 4. Говорят, что по отношению к моменту времени N финансовый (В, 5")-рынок является полным (совершенным), если ограниченное (соответственно, всякое) платежное поручение fN является достижимым, или воспроизводимым, то есть для него найдется совершенный (х, /'А/)-хедж к с Xq =x и X^ = fN (Р-почти наверное). Следующие две теоремы играют ключевую роль в теории безарбитражных и полных рынков. Теорема А («Первая фундаментальная теорема теории расчетов финансовых активов»). Пусть определенный на фильтрованном вероятностном пространстве (Q, ^ («^)п«а/» Р)> N<oof финансовый (В, 5")-рынок состоит из банковского счета B = (Bn)n^N, Вп>0, и конечного числа d активов S = (SJ, Sn)n^N. Предполагается, что ^ = {0, С1) и JN-d. Для того чтобы (В, 5")-рынок был безарбитражным, необходимо и достаточно, чтобы существовала хотя бы одна (называемая «мартингальной» или «риск-нейтральной») мера Р, эквивалентная мере Р (см. Эквивалентные меры), относительно к-рой d-мерная нормированная последовательность 1 В„ вп n^N является Р-мартингалом: для всех 1=1, St d и я= 1, Л/, вп Ч- S* TV в„. Теорема Б («Вторая фундаментальная теорема расчетов финансовых рынков»). Безарбитражный финансовый (В, 5")-рынок является полным тогда и только тогда, когда множество ^(Р) всех мартингальных мер состоит только из одной меры. Тем самым, если отсутствие арбитража означает, что ^(Р) *0, то полнота безарбитражного рынка может быть условно записана в виде |#4P)| = 1. С экономии, точки зрения предположение безарбитражно- сти финансового рынка означает «рациональность», «эффективность» его функционирования. Ценность теорем А и Б в том, что они открывают возможность проведения аналитич. расчетов, связанных с финансовыми активами, финансовыми инструментами, с расчетами цен (стоимостей) хеджирования, определяемых следующим образом. Определение 5. Ценой совершенного хеджирования (европейского типа) всякого ^-измеримого пла- 772 ФИНАНСОВАЯ тежного поручения fN называется величина C(fN; P) = inffx:37t с Xq =х и XN = fN (Р-почти наверное)}. На безарбитражных полных рынках цена C(fN;P) опреде ляется следующей формулой fs C(fN;P) = B0Ep Вк, (7) где Р - (единственная) мартингальная мера. Доказательство этой формулы весьма просто. Действительно, если к является совершенным (х, /]у)-хеджем, то есть Xq-x, XN-fN (Р-почти наверное), то fN поскольку MB Отсюда можно заключить, что е Ik. Р Вм и, значит, 0 pSv (8) Заметим, что правая часть (8) не зависит от структуры рассматриваемого (х, /)у)-хеджа тс. Иначе говоря, если тс' - другой хедж, то начальные цены х и х' должны совпадать. Сложнее дело обстоит в случае безарбитражных неполных рынков, для к-рых понятие «самофинансирования» полезно несколько расширить. Пусть C — {Cn)n^N - неотрицательный неубывающий процесс с ^/„-измеримыми компонентами Сп и финансируемую стратегию с потреблением», если ее капитал ^м эволюционирует так, что ЛХпя'с=ряДр„ + 7„Д5„-ДСя. Определение 6. Ценой хеджирования всякого ограниченного .«/^-измеримого платежного поручения fN называют величину C*(fN\ P) = inf{*:3(7t, С) с Х£с = х и гк,С*. fN (Р-почти наверное)}. Из общей теории вытекает, что на безарбитражных рынках (9) С«(/д,; Р> = sup BqEPI±, РбУ(Р) °N где ^(Р) - множество всех мартингальных мер (в случае полных рынков множество #ЧР) состоит из одной меры и формула (9) превращается в формулу (7). Формулы (7) и (9) играют ключевую роль при расчете «рациональных» и «справедливых» цен таких, напр., производных финансовых инструментов как опционы (европейского типа). Опцион - это ценная бумага (контракт), дающая покупателю право купить или продать определенную ценность (напр., акцию, облигацию, валюту) в оговариваемый период (или момент) времени на заранее оговариваемых условиях. Согласно общепринятой терминологии опционы делятся на два класса: опционы покупателя и опционы продавца. Первые из них дают право покупки, вторые - право продажи. Если опцион предъявляется к исполнению только в заранее определенный момент времени N, то говорят, что N - момент исполнения, а опцион является опционом европейского типа. Если же опцион может быть предъявлен к исполнению в любой (в том числе и случайный)
момент, то говорят, что это опцион американского тип а. Для определенности обратимся к стандартному опциону покупателя европейского типа, характеризуемому фиксированной ценой покупки К, по к-рой покупатель может купить в момент Nt скажем, акции, фактич. стоимость к-рых SN в момент времени N может отличаться от К. Если SN > К, то ситуация оказывается благоприятной для покупателя. Действительно, по условиям контракта ему дано право купить акции по цене К, что он и может сделать. Затем, продав их немедленно по их рыночной цене SN, он получает от этой операции доход, равный SN - К. Если же SN < К, то имеющееся у покупателя право покупки (по цене К) ничего ему не дает, так как он может купить акции и по более низкой цене SN. Объединяя эти два случая можно сказать, что в момент времени N доход покупателя fN определяется формулой /N=(SN-/0+(rAe для действительного х х = х, если х ^ 0 и *+ = 0, если х<0). Для продавца значение fN определяет величину «платежа», к-рый он должен выполнить в момент времени N путем составления портфеля к так, чтобы соответствующий капитал был бы заведомо меньше fN. Основные вопросы теории расчетов опционов состоят: 1) в определении того минимального начального капитала х (являющегося «премией», выплачиваемой покупателю за покупку опциона), к-рый обеспечивает получение капитала X]^^fN> и 2) в определении тех хеджирующих портфелей я, для к-рых выполнено это хеджирующее неравенство Xj^^fN. Из данного выше определения 5 вытекает, что в случае безарбитражных полных рынков минимальный начальный капитал х есть не что иное, как величина C(fN; P), к-рую принято (в теории расчетов опционов) называть «справедливой», «рациональной» стоимостью опциона. В случае безарбитражных неполных рынков эта стоимость совпадает с ценой хеджирования C*(fN; P). Простейшей, и в то же время весьма популярной, моделью (5, 5)-рынка является модель Кокса - Росса - Рубинштейна, в к-рой bBn-rBn-t.AS. = f>.S,-i. (Ю) где (рп)„^дг ~ последовательность независимых одинаково распределенных бернуллиевских случайных величин, принимающих два значения а и Ь (-1<д<6) с положительными вероятностями. Если выполнено условие ~\<a<r<b, то рассматриваемый рынок будет и безарбитражным и полным, при этом единственная мартингальная мера Р такова, что и величины (р„)я^д/ снова (по мере Р) будут независимыми. В рассматриваемом случае CV»;P) = E?TT7^- (11) Для случая стандартного опциона европейского типа с функцией выплаты fN = f(SN), где fix) -(х- К)+, справедливая цена C(fN\ P), подсчитанная по формуле (11), определяется следующим выражением С(/дг; Р)=50В(К0, N; p*)-K(\+r)NB(KQ> N; Р), где р* = Мр, р = -™, i+r Ь-а K0=l+ In * /ln±t*l Непрерывное время. В этом случае основными моделями, используемыми при «описании динамики банковского счета, цен акций, и других финансовых активов, являются модели, основанные на обращении к специальным случайным процессам - семимартингалам. Так, если Х= (Xt)t<T - цена нек-ро- го актива, то считают, что где H-{Ht)t^T - нек-рый семимартингал [ср. с (1) и (3)]. Аналогом представлений (2) и (4) будет представление Xf = AQ#(/7f), где и %(H) = (%(H)t)t<T -стохастическая экспонента Долеан: [Как это обычно принято в стохастич. анализе (Нс) - предсказуемая квадратич. вариация (квадратич. характеристика) непрерывной мартингальной составляющей Нс семимартингала ЯиДЯ5 = Я,-Я,_.] Пусть (В, 5)-рынок состоит из банковского счета В- = (Bt)t<T и акции S=(St)t<i, являющихся положительными семимартингалами. Так же, как и в случае дискретного времени, для каждой стратегии я = (р, у) с предсказуемыми P=(pf)f<7" и У-(у*)£<7"> определяется понятие капитала **=UtfW, где X*=ttBt + ytSt. По аналогии с (6) стратегию (портфель) л естественно назвать самофинансируемой, если dX?=$tdBt + ytdSt. Последнее соотношение следует понимать в том смысле, что x?=x5+f0№Bu+f0yjsu, где интегралы суть стохастические интегралы по семимартингалам. Обращение к стохастич. интегралам вносит определенные ограничения на допустимые стратегии л(р, у). С одной стороны, эти стратегии должны быть такими, чтобы соответствующие стохастич. интегралы существовали. С другой стороны, экономич. соображения не допускают того, чтобы величины X* принимали бы сколь угодно большие отрицательные значения, что накладывает на допустимые стратегии л определенные ограничения типа Xf^-at O^t^T, а>0. (12) Введенные выше для случая дискретного времени понятия арбитража, отсутствия арбитража, полноты и др. переносятся автоматически и на случай непрерывного времени. При этом фундаментальные теоремы А и Б «в основном» остаются справедливыми. Так, напр., если на семимартингальном (В, 5)-рынке существует мартингальная мера, то в классе допустимых стратегий, удовлетворяющих условию (12), арбитражные возможности отсутствуют. Среди разнообразных моделей таких (5, 5)-рынков наиболее известна модель Блэка - Мертона - Шоулса: dBt = rBtdt, dSt = St (\idt + odwt), (13) ФИНАНСОВАЯ 773
где r>0, BQ>0, Sq>0 и w=(wt)t^T - стандартный винеров- ский процесс (броуновское движение) [ср. с моделью Кокса - Росса - Рубинштейна (10)]. Модель (13) является и беварбитражной и полной. Соответствующая формула для «рациональной», «справедливой» стоимости опциона с .^-измеримой платежной функцией fT имеет следующий вид: С(Л-;Р)=В0Ер^, где Р - мартингальная мера. Для модели (13) эта формула [для стандартного опциона покупателя с платежной функцией fT-(ST~ К)+] превращается в формулу Блэка - Шоулса: С(/-Г;Р) = 50Ф ',„4^4)1 iVf -Ке-г'Ф\ \n=S.+T\ К ' К)1 jVf где Ф(х). 1 V27C ' огГГ- 2dy. Детальное изложение разнообразных аспектов стохастич. Ф. м. и финансовой инженерии см. в (1) и (2), где содержится и обширная библиография по этим вопросам. Лит.: [1] Ширяев А. Н., Основы стохастической финансовой математики, т. 1-2, М., 1998; [2] Мельников А.В., Финансовые рынки: стохастический анализ и расчет производных ценных бумаг, М., 1997. А.Н. Ширяев. ФИНИТНАЯ ГРАНИЦА (finitary boundary) - см. Одномерная диффузия; классификация границ. ФИНИТНЫЙ ПОТЕНЦИАЛ (finite range potential) - см. Потенциал гиббсовского поля. ФИСКА ИНТЕГРАЛ (Fisk integral) - см. Стратоновича стохастический интеграл. ФИСКА - СТРАТОНОВИЧА ИНТЕГРАЛ (Fisk - Stra tonovich integral) - см. Стратоновича стохастический интеграл. ФИШЕРА ПРЕОБРАЗОВАНИЕ (Fisher transformation) - нормализующее преобразование случайной величины, подчиняющейся хи-квадрат распределению. Пусть хп ~ случайная величина, подчиняющаяся хи-квадрат распределению с п степенями свободы. Если и -> оо, то, согласно центральной предельной теореме, последовательность случайных величин {хп} асимптотически Ехя = и и ^Х„ = 2и. Более точно, при больших п для любого нормально распределена с параметрами In. Более точр х, х € В?, имеет место формула 4bi = o(*)-4<p2(*)-L + 3 V2w яф(*)+°йг} (О где Ф(х) - функция стандартного нормального распределения, ф0г) = ФЧ*), ф<г)(*) = Ф(г+1)(*). Р. Фишер предложил другое нормализующее преобразование, использующее тот факт, что при больших п случайная величина ч2Хп приближенно нормально распределена с параметрами \2я-1 и 1. Более точно, при п—>°° для любого х, .г € И?, имеет место формула 2Х2п ->/2Й~ • 1 <4 = фы - 1ф2(*)-L + 6 4bi 774 ФИШЕРА (2) Ф. п. позволяет построить хорошую, так наз. фишеров- скую аппроксимацию распределения Пуассона. Пусть X - случайная величина, подчиняющаяся закону Пуассона с параметром X, Х>0. Для любого неотрицательного числа т справедливо следующее представление для функции распределения случайной величины X в терминах хи-квадрат распределения: P{X<m} = P{Z22m + 2>2X}, к-рое и позволяет с помощью (2) построить следующую фи- шеровскую нормальную аппроксимацию для распределения Пуассона: Р{Х^т}«1-Ф[У4Х-У4(т + 1)-- 1] = = 0(V4m + 3-2VU. <3) Этой аппроксимацией Фишера рекомендуется пользоваться при X, ^ 25. Фактически аппроксимация (3) является следствием того, что при Я,->оо случайная величина V4X + 1 - 2VX" асимптотически подчиняется стандартному нормальному закону. Лит.: [\] Большее Л. Н., «Теория вероятн. и ее примен.», 1963, т. 8, в. 2, с. 129-55; [2] Браунли К. А., Статистическая теория и методология в науке и технике, пер. с англ., М., 1977; [3] Greenwood Р. Е., Nikulin M.S., A guide to chi-square testing, N. Y., 1996. M. С. Никулин. ФИШЕРА ^-ПРЕОБРАЗОВАНИЕ (Fisher .-transformation) - нормализующее преобразование выборочного корреляции коэффициента. Пусть (Хи Y{), (X2, Y2), ..., (Хп, Yn) - взаимно независимые одинаково распределенные двумерные случайные векторы, подчиняющиеся нормальному закону, функция распределения к-рого задается формулой Р[Хй<х, Y{<y} = 1 где 2tcV1-P^ Ml jU-M,)/o, л(*-Ц2)/о2 e-(u2-2puv+viy2(\-p2)dudVf P = 1 a.a7 E(X, ц2 = ЕУ,,с^ = ОУ,, -Ц1)(У,-ц2). Коэффициент корреляции р характеризует степень линейной зависимости Xt и Уг, |р|<1. Если параметры ц,, of и р нормального закона неизвестны, то в качестве точечной сга- тистич. оценки для р берут выборочный коэффициент корреляции SL, iXi-XXYi-Y) (Х:-Х)2 1?..<*1-^>2 где Как показал Р. Фишер [1], вероятностное распределение статистики г зависит от параметра р и при и^З определяется плотностью вероятности 2«-3 p.w- яГ(и-2) Ю, Ш\. (1_р2)(»-0/2(1_г2)(»-4)/2>< [«Г (2pr)m И<1. В [2] Р. Фишер предложил нормализующее так наз. г-пре- образование выборочного коэффициента корреляции г 1 1 1 + Г 4-U z = - ln-j—= argthr,
к-рое не зависит ни от р, ни от п, причем при больших п статистика г приближенно нормально распределена с параметрами 2 1 •р + 2(л J^ri.-b^+.J-iinii£f л-3)|_ 4(я-3) J 2 1-р п-3[ 2(«-3) б(п-З)2 J л-3 Статистику z удобно применять для проверки гипотезы Я0: р = О, используя тот факт, что при справедливости HQ статистика z имеет приближенно стандартное нормальное распределение. Лит.: [1] Fisher R. A., «Biometrika», 1915, v. 10, p. 507-21; [2] его же, «Metron», 1921, v. 1, № 4, p. 3-32; [3] Больше в Л. Н., Смирнов Н. В., Таблицы математической статистики, 3 изд., М., 1983; [4] БраунлиК. А., Статистическая теория и методология в науке и технике, пер. с англ., М., 1977. М. С. Никулин. ФИШЕРА F-РАСПРЕДЕЛЕНИЕ (Fisher F-distribution), F-распределение, Фишера- Снедекора распределение, Снедекора распределение, - непрерывное сосредоточенное на (0, °°) распределение вероятностей с плотностью РаьЫ = В[а/2, Ь/2] (а/ЬУ/2хь/2-\\ + (а/Ь)х]-{а+ь)/\ где а, 6>0- параметры, называемые степенями свободы, а В (а, Ь) - бета-функция. При а>2 это - унимодальное с положительной асимметрией распределение с модой в точке х = (а- 2)b/a(b + 2). Математич. ожидание и дисперсия Ф. F-p. равны соответственно b/(b-2) при Ь>2 и 2b(a + b-2)/a(b-2)2(b-4) при Ь>4. Ф. F-p. сводится к бета-распределению 2-го рода (частному случаю типа VI системы Пирсона распределений). Ф. F-p. можно рассматривать как распределение случайной величины, представимой в форме отношения Fab = bXx/aX2y где независимые случайные величины X, и Х2 имеют гамма-распределение с параметрами а/2 и Ь/2 соответственно. Функция распределения для Fab выражается через функцию распределения ВаЬ(х) бета-рас- преАеле„ия {ф)х ' Это соотношение используется для вычисления значений Ф. F-p. с помощью таблиц бета-распределения. Если а = т и Ь = п- целые, то F-распределением Фишера с т и п степенями свободы называется распределение F-отношения С) где Хт и Хя независимые случайные величины, имеющие хи-квадрат распределение с т и п степенями свободы соответственно. Ф. F-p. играет фундаментальную роль в математич. статистике и появляется в первую очередь как распределение отношения двух выборочных дисперсий. Именно, пусть Xt, ..., Хт и У], ..., Уп - выборки из нормальных совокупностей с параметрами (flIf о2) и (а2, о2). Выражения Ф где X - ^.Xj/m, У = V . У /п служат оценками дисперсий G{ и 2 ст2. Тогда так наз. дисперсионное отношение F = of5,7aM имеет при гипотезе о^=с2 Ф. F-p. с ти-1 и п-\ степенями свободы (в этом качестве Ф. F-p. называется также К 1\ 1/ / ь х 7 / f 7< f '. -"■*» N Ч N \ ч v_ ^ ^ ч. ^ ^ ^ 5э .2 .4 .6 .8 1.0 1.2 1.3 1.6 1.8 Плотности F-распределения Фишера при (1) а-Ь-2\ (2) й = 4, 6=10; (3)й = Ь=10. распределением дисперсионного отношения). На статистике F основан F-критерий, используемый, в частности, для проверки гипотезы равенства дисперсий двух совокупностей, в дисперсионном анализе, регрессионном анализе, многомерном статистич. анализе. Универсальность Ф. F-p. подчеркивается связями с другими распределениями. При т=\ квадрат величины Fmn из (*) имеет распределение Стьюдента с п степенями свободы. Существуют различные аппроксимации Ф. F-p. с помощью нормального распределения и хи-квадрат распределения. Введение в дисперсионный анализ Ф. F-p. связано с именем Р. Фишера [1], хотя сам он использовал для дисперсионного отношения величину г, к-рая связана с F равенством z = - In F. Распределение z было табулировано Р. Фишером, а Ф. F-p.- Дж. Снедекором (G. Snedecor, 1937). В современной практике предпочитают более простое Ф-F-p., используя его связь с бета-распределением и таблицы неполной бета-функции. См. также Дисперсионный анализ, Фишера z-распреде- ление. Лит.: [1] Fisher R., «Ргос. Intern. Math. Congr. Toronto», 1928, v. 2, p. 805-13; [2] Кендал л М., Стьюарт А., Теория распределений, пер. с англ., М., 1966; [3] Шеффе Г., Дисперсионный анализ, пер. с англ., М., 1980; [4] БольшевЛ.Н., Смирнов Н. В., Таблицы математической статистики, 3 изд., М., 1983. А. В. Прохоров. ФИШЕРА ^-РАСПРЕДЕЛЕНИЕ (Fisher г-distribution) - непрерывное сосредоточенное на (-<*>, °°) распределение вероятностей с плотностью r((m1+m2)/2)e,,,i* рМ = 2т*,2трП Г(т,/2)Г(т2/2)(т^+т2р+т^2 где целые т^\, т2^\ называются степенями свободы. Характеристич. функция fit) -\m,lm 1"/2 г«-1+й>/2)Г««»-а)/2) fit)-[щ/т,) г(|Я1/2)г(ГО2/2) " Математич. ожидание и дисперсия равны соответственно (1/го2- \/т2)/2 и (l/mt + \/mx)/2. Если случайная величина F имеет Фишера F-распределение с тх, т2 степенями свободы, то величина г = -InF имеет Ф. г-р. с тХу т2 степенями свободы. Вместе с F-распределени- ем Фишера, известным как распределение дисперсионного отношения, Ф. г-р. было первоначально введено в дисперсионный анализ Р. Фишером [1] в 1924. По его замыслу Ф.г-р. должно было бы стать основным распределением при проверке статистич. гипотез и дисперсионном анализе. Ф. г-р. было ФИШЕРА 775
тогда же табулировано, и первые исследования относились к статистике z, однако в современной математич. статистике используют более простую статистику F. Лит.: [1] Fisher R., «Ргос. Intern. Math. Congr. Toronto», 1928, v. 2, p. 805-13; [2J КендаллМ., Стыоарт А., Теория распределений, пер. с англ., М., 1966. , А. В. Прохоров. ФИШЕРА ТОЧНЫЙ КРИТЕРИЙ (Fisher exact test) - см. Йейтса поправка, Фишера - Ирвина критерий. ФИШЕРА - ИРВИНА КРИТЕРИЙ (Fisher - Irwin test), Фишера - Йейтса критерий, Фишера точный критерий, - статистический критерий проверки независимости в сопряженности признаков таблице ||/"zy||, i=l, 2, j - 1, 2, при предположении о фиксированных заранее суммах /"• = Y. /|у, /" .'~Х- fcj* l* /= 1» 2. Нулевая гипотеза независимости Н0:р^ = р^р , где р- вероятности, соответствующие частотам с теми же индексами, альтернатива - неравенство хотя бы для одной пары индексов. При #0 вероятность наблюдения для любой выборки P{fif\fi,ff U-1.2} и для единственной здесь случайной величины fn приводит к гипергеометрич. распределению, что дает критерии проверки #0 (см. [1], [2], [3]). Таблицы распределения и приближения см. в [21, [6]. Лит.: [1] КендаллМ., Стьюарт А., Статистические выводы и связи, пер. с англ., М., 1973; [2] Большей Л.Н., Смирнов Н. В., Таблицы математической статистики, 3 изд., М., 1983; [3] Gib- bonsJ.D., в кн.: Encyclopedia of statistical sciences, v. 3, N. Y., 1982, p. 118-21; [4] Lieberman G.J., Owen D.В., Tables of the hypergeometric probability distribution, Stanford (Calif.), 1961; [5] V i 1 a p I an a J. P., Table of hypergeometric probability distribution, pt. 2, Panama, 1976; [6) Ликеш П., Ля га И., Основные таблицы математической статистики, пер. с чеш., М., 1985; [7] Pratt J.W., GibbonsJ.D., Concepts of nonparametric theory, N.Y., 1981; [81 Fisher R. A., «J. Roy. Statist. Soc», 1935, v. 98, p. 39-54; [9] Yates F., «J. Roy. Statist. Soc», 1934, v. 1, p. 217-35; [10] Irwin J. O., «Metron.», 1935, v. 12, № 2, p. 83-94. Д. С. Шмерлинг. ФИШЕРА - ЙЕЙТСА КРИТЕРИЙ (Fisher - Yates test) - см. Фишера - Ирвина критерий. ФИШЕРОВСКАЯ АППРОКСИМАЦИЯ (Fisher approximation) - см. Фишера преобразование. ФКЖ-НЕРАВЕНСТВО (FKG-inequality) - часто используемое корреляционное неравенство, справедливое, в частности, для ферромагнитных моделей с произвольным магнитным полем. С. Б. Шлосман. ФОКА ПРЕДСТАВЛЕНИЕ коммутационных и антикоммутационных соотношений (Fock representation of commutative and anticommutative relations) - простейший и наиболее употребительный класс представлений этих соотношений в виде операторов рождения и гибели в Фока пространстве. Представлением канонич. коммутационных соотношений или ка- нонич. антикоммутационных соотношений над предгильбертовым комплексным пространством L в гильбертовом пространстве Н называется такое семейство замкнутых операторов {a(f), feL], антилинейно зависящих от feL и действующих в Н, для к-рых выполнены соотношения (по крайней мере, на нек-ром всюду плотном множестве векторов из Я): a(f])a(f2)Ta(f2)a(f^) = 0> a(fx)a*(f2)*a*(f2)a(fx) = (fvf2)Ey (•, •) - скалярное произведение в L, знак - соответствует канонич. коммутационному соотношению, знак + соответствует канонич. антикоммутационному соотношению, a a*(f) - оператор, сопряженный к a(f). Представление этих соотношений называется представлением Фока, если в про- 776 ФИШЕРА (О странстве Я найдется вектор (вакуум), обращаемый всеми операторами a(f), feL, в нуль и циклический относительно порожденной ими *-алгебры операторов. Примером такого представления служит представление {a(f), feL) в пространстве Фока &sa(L), где L - пополнение L по его скалярному произведению, действующее на векторах вида (ф1®...®фя)4,в [симметричное (s) или антисимметричное (а) тензорное произведение векторов ф,€ L], по формуле а(/')(ф1<8)...<8)фя)х'в = ^(ф^)(ф1<8)...<8)ф1<8)...<8)фп)5Л (2) где знак v над ср, означает, что этот множитель отсутствует, и а(/")1 = 0, где Ле&5а(Ь) - вакуумный вектор. Оказывается, что любое представление Фока соотношений (1) унитарно эквивалентно представлению (2). В случае конечномерного пространства L всякое представление соотношений (1) является фоковским, а для бесконечномерного L существует и нефоковское представление (см. [2J). Лит.: [1] БерезинФ. А., Метод вторичного квантования, 2 и*д., М., 1986; [2) ГельфандИ.М., ВиленкинН. Я., Некоторые применения гармонического анализа. Оснащенные гильбертовы пространства, М., 1961. Р. А. Миююс. ФОКА ПРОСТРАНСТВО (Fock space) - собирательное название для специального класса пространств, используемых при описании квантовых систем с неограниченным числом частиц. Пусть Я - какое-нибудь гильбертово пространство («одночастичное* пространство) и Я " - его симметризован- ная (s) или антисимметризованная Ха) тензорная степень (пространство я-частичных состояний; см. [1]). Тогда прямая сУмма , , - е е 1 ^(я;=вп=0я5%я5®°=с\ этих пространств называется симметрическим или 6 о - зонным и антисимметрическим или ферм ионным Ф. п. над Я. В случае когда Я - L2(Q, (i) [(Q, ji) - пространство с мерой], Ф. п. ^ a(L2(Q., (i)) состоит из бесконечных последовательностей Ф={/"о. AW /"„С*, *„)....) симметрия, или антисимметрич. функций возрастающего числа переменных х(е£1, i= 1, ..., п. При этом N|2= 1/Ы2+1Г=| JQ. l/"„<*i х„)\24фх)...4фП). Лит.: [ 1 ] Б е р е з и н Ф. А., Метод вторичного квантования, 2 инд., М., 1986; [2] Рид М., Саймон Б., Методы современной математической физики, пер. с англ., т. 1, М., 1977. Р. А. Миююс. ФОККЕРА - ПЛАНКА УРАВНЕНИЕ (Fokker - Planck equation), прямое уравнение Кол могорова,- см. Диффузионный процесс, Колмогорова уравнения, Стохастическая дифференциальная геометрия. ФОККЕРА - ПЛАНКА - КОЛМОГОРОВА УРАВНЕНИЕ (Fokker - Planck - Kolmogorov equation) - см. Стационарный марковский процесс, Колмогорова уравнения. ФОРСАЙТА МЕТОД (Forsythe method/algorithm) - рекуррентный вариант метода ортогонализации Грама - Шмидга, играющий важную роль в задачах параболической интерполяции на основе наименьших квадратов метода. Пусть результаты измерений у{, х-\, ..., п, имеют вид У'=Х'-о¥(+е- = Z/-o"^+е" Ее-=°- De-=°2- {Х) где многочлены ф;(0 степени / удовлетворяют условиям орто- нормированности При этом, очевидно, (2)
и имеет место соотношение Форсайта (см. [1}): typytt) = (t- pyfy-.tU) - У;Ф/-2(0, где константы А.у определяются из условия нормировки (2): I,"., ч*0-1. Применение к ортонормированной модели (1) метода наименьших квадратов приводит к ряду простых результатов (см. [2}): 2) D(d;) = D(e,) = a2; Если .порядок р аппроксимирующего многочлена заранее неизвестен и выбирается в процессе вычислений, то при увеличении р на единицу оценки <х0, ..., d не изменяются, В современных пакетах прикладных программ по регрессионному анализу рассмотренный метод входит в качестве важной составной части в процедуры пошаговой регрессии. Лит.: [1) Forsy the G., «J. Soc. Industr. Appl. Math.», 1957, v. 5, p. 74-88; [2] Худсон Д., Статистика для физиков, пер. с англ., М., 1970. А. В. Макшанов. ФОРСАЙТА СООТНОШЕНИЕ (Forsythe relation/equation) - см. Форсайта метод. ФОРТЕ - КАЦА ТЕОРЕМА (Fortet - Кае theorem) - см. Предельные теоремы метрической теории диофантовых приближений. ФОРТЕ - МУРЬЕ МЕТРИКА (Fortet ~ Mourier metric) - вероятностная метрика, определяемая с привлечением £-струк- туры следующим образом (см. Вероятностная метрика) структура). Пусть (U, d) - нек-рое сепарабельное метрич. пространство, Ж - множество случайных величин со значениями из U и Gj? = {f) - множество действительных функций на U, для к-рых \Пх)-Пу)\ I dUt LAf) = sup^ р I d(x, #)[max(l, d(x, c),d(y, c))]^"1 x ф y,x,y e (7><1, p^\, 0<q^°°, и, кроме того, lf\\ =sup{\f(x)\ :xe U}^q, где с- постоянный элемент из U. Метрикой Форте-Мурье называется функционал (см. [1]) С(* У; Gj) = sup{\E(f(X)-f(Y))\:f e Gj}. Примеры Ф. - М.м.: 1) £(Х, У; gJ,) - Канторовича метрика, 2) £(Х, У; Gx) - модификация метрики Дадли (см. [2]). Если q <<», то Ф.- М. м. индуцирует в Ж топологию слабой сходимости. Если последовательность ХпеЖ такова, что тп - Edp(Xn, с) < оо, я = О, 1, ..., при нек-ром с е U, то сходимость ^(Хп, Xq\ G£) -> О, я -> оо, эквивалентна слабой сходимости п(Хп, Х(р —> 0 (тс — Леей - Прохорова метрика) вместе со сходимостью моментов тп -> w0. Лит.:[\] Fortet R., М our ier E., «Ann. sci. Ecole norm, super.», 1953, v. 70, № 3, p. 266-85; [2] Dudley R. M., «Aarhus Univ., Lect. Notes Ser>, 1976, v. 45; [3] Rachev S.T., «Publ. Inst. Statist. Univ. Paris», 1982, v. 27, № 1, p. 27-47; [4] Золотарев В. М., «Теория вероятн. и ее примен.», 1983, т. 28, в. 2, с. 264-87. С. Т. Ранее. ФОРТЕ-ХАРКЕВИЧА-РОЗАНОВА СПЕКТР (Fortet- Kharkevich - Rozanov spectrum) - см. Осредненная спектральная функция. ФОСТЕРА КРИТЕРИЙ (Foster criterion) - см. Стационарный марковский процесс. ФРАКТАЛ (fractal), фрактальное м ножество,-термин с не вполне определенным содержанием. В основном он употребляется как название множеств с дробной («фрактальной») размерностью (к-рая может быть хаусдорфовой или «энтропийной», что в принципе должно было бы уточняться, но для широкого класса множеств они совпадают; с точностью до этой оговорки «фрактальная» размерность - точный термин).Однако автор этого термина Б. Мандельброт [1] подчеркивал две другие особенности интересующих его множеств: «все фигуры, к-рые я исследовал и назвал Ф., в моем представлении обладали свойством быть "нерегулярными, но самоподобными". Слово "подобный" не всегда имеет классич. смысл "линейно увеличенный или уменьшенный", но всегда находится в согласии с удобным и широким толкованием слова "похожий"» (см. его статью в [2]). Затруднительно точно сказать, в чем именно состоит «нерегулярность» или «изрезанность» рассматриваемых объектов, не считая, конечно, отрицательной характеристики - это не многообразия и не счетные объединения таковых. «Самоподобие» множества М наглядно состоит в том, что если рассматривать окрестности Un(x) какой-нибудь его точки х «в микроскоп» с различной степенью увеличения, то чем больше увеличение, тем больше сходство друг с другом картин, получающихся в поле зрения микроскопа. Сказанное требует довольно очевидных уточнений (напр., окрестности обычно берутся шаровыми радиуса гп; они увеличиваются до единичного шара D, то есть рассматриваются отображения gn:Un->D, переводящие у в (у-х)/гп; сходство между gn(UnC\M) состоит в том, что эти множества (быть может, как-то повернутые, то есть подвергнутые каким-то ортогональным преобразованиям) оказываются близкими в метрике Хаусдорфа), по внесении к-рых «самоподобие» оказывается вполне точным понятием. Б. Мандельброт поясняет, что множество дробной хаусдорфовой размерности, конечно, «нерегулярно», но оно не обязано быть «самоподобным», а множество целой хаусдорфовой размерности вполне может быть «нерегулярным» (скажем, «изрезанным») и при этом обладать или не обладать свойством локального «самоподобия». Не является вполне обязательным для Ф. и другое свойство, первоначально тоже называвшееся как основное: хаусдорфова размерность больше топологической [1]. Поэтому «фрактальность» не надо понимать буквально. Вопреки первоначальной этимологии, его можно связывать с лат. «fractus», породившим англ. «fraction», но буквально означающим «изломанный» [4]. Б. Мандельброт привлек широкое внимание к Ф., указав многочисленные их примеры как в теоретич. математике, так и в естествознании и выразив уверенность, что Ф. - такие же «полноправные» объекты, как и всем известные геометрич. фигуры, привычные еще со школьного курса. Ко времени его первых публикаций в ряде математич. вопросов уже естественно встречались множества дробной размерности (или, принимая более широкую, хотя и менее определенную формулировку, множества, устроенные «нерегулярно»); см. несколько примеров из различных разделов математики в [4]. Б. Мандельброт отметил (опираясь отчасти на данные численных экспериментов) новые (и важные) примеры такого рода, но в отношении самого факта «широкой распространенности» таких объектов в математике его деятельность была скорее пропагандистской. Однако он с самого начала обратил внимание на существенное свойство их «самоподобия». Конечно, «самоподобие» может быть «артефактом», то есть быть созданным руками человека. Такова ситуация в классич. приме- ФОРТЕ 777
pax вроде нигде не дифференцируемых функций К. Вейер- штрасса (К. Weierstrass) и Б. Ван-дер-Вардена (В. Van der Waerden), кривых Дж. Пеано (G. Реапо), X. Коха (Н. Koch) и Д. Гильберта (D. Hilbert), ковра В. Серпиньского (W. Sier- pinski). Во всех этих примерах некий объект строился с помощью бесконечного числа шагов, и, конечно, авторы стремились сделать эти шаги похожими друг на друга, чтобы построение было легче описать. Но в других случаях «самоподобие» не содержится непосредственно в исходном определении или построении; привлечение внимания к нему было весьма полезным. В ряде случаев наблюдения о «фрактально- сти» тех или иных множеств (включая сюда утверждения и о размерности, и о «самоподобии») подтвердились в ходе строгих исследований, при этом был достигнут значительный прогресс и в других отношениях. Это особенно относится к «конформной динамике», то есть исследованию итераций ана- литич. функций в области комплексного переменного [2], [3]. В естественнонаучной области фрактальны, напр., скалистое побережье, горная цепь, колеблющееся пламя, облако, колония плесени. Б. Мандельброт даже указывал количественные характеристики самоподобия в различных естественнонаучных примерах. Конечно, в этих примерах, в отличие от математических, самоподобие имеет место только в нек-ром ограниченном диапазоне масштабов. По словам Б. Мандельброта, в неодушевленной природе концы этого диапазона могут различаться примерно в104 раза, а в биологич. примерах - в 10 раз. Отдельные высказывания такого характера встречались и ранее, но только после Б. Мандельброта многие авторы стали обнаруживать многочисленные новые Ф. в природе (напр., фрактальны клубы пыли и слипшиеся «комки» коллоидов; предполагается фрактальность шаровой молнии). Видимо, наряду с объектами, форма к-рых с высокой степенью точности изображается привычными «евклидовыми» фигурами, в природе действительно встречаются объекты «фрактальной» формы. Конечно, это только феноменология; встает вопрос, почему тот или иной объект имеет фрактальную форму и притом с такими-то количественными характеристиками. Насколько известно, в математич. естествознании (понимаемом в самом широком смысле) с ответом на этот вопрос в большинстве случаев пока нет заметного прогресса (но ведь и с пониманием природы привычных «евклидовых» форм в том или ином случае прогресс нередко был довольно медленным и не везде завершился). В связи с широкой популярностью Ф. оживился интерес к той части геометрич. теории меры, к-рая рассматривает меры дробной размерности, но не обязательно в связи с самоподобием [4]. Лит.: [1] Mandelbrot В. В., On fractal geometry, and a few of the mathematical questions It has raised. «Proc. Intern. Congr. Math., Warszawa. 1983», v. 2, Warszawa, 1984, p. 1661-75; [2] Пейт- ген X. О., Рихтер П. X., Красота фракталов, пер. с англ., М., 1993; [3] CarlesonL., Game I i n T. W., Complex dynamics, N. Y., 1993; [4] Falconer K.J., The geometry of fractal sets, N. Y. [a. o.], 1985. Д. В. Аносов. ФРАКТАЛЬНОЕ БРОУНОВСКОЕ ДВИЖЕНИЕ (fractional brownian motion) - см. Автомодельный процесс. ФУНДАМЕНТАЛЬНАЯ ЛЕММА математической статистики (fundamental lemma of mathematical statistics) - см. Неймана - Пирсона лемма. ФУНДАМЕНТАЛЬНАЯ МАТРИЦА цепи Маркова (fundamental matrix of a Markov chain) - см. Маркова цепь; фундаментальная матрица. ФУНКЦИОНАЛЬНЫЙ ИНТЕГРАЛ (path integral) - см. Континуальный интеграл. 778 ФУРЬЕ ФУРЬЕ ПРЕОБРАЗОВАНИЕ быстрое (fast Fourier transform) - см. Быстрое преобразование Фурье. ФУРЬЕ ПРЕОБРАЗОВАНИЕ дискретное (discrete Fourier transform) - см. Дискретное преобразование Фурье. ФУРЬЕ ПРЕОБРАЗОВАНИЕ конечное (finite Fourier transform) - см. Конечное преобразование Фурье. ФУРЬЕ ПРЕОБРАЗОВАНИЕ распределения вероятностей на группе (Fourier transform of a probability distribution on a group) - операторнозначная функция, заданная на множестве {Ау, уе Г) всех неэквивалентных неприводимых унитарных представлений группы G правилом (здесь ц. - распределение вероятностей на группе G). Интеграл можно определить как интеграл Бохнера. Если группа G локально компактна, то Ф. п. Д(у) вероятностных мер на G обладает следующими свойствами: 1) для любого уеГ Ф. п. Д(у) - ограниченный линейный оператор в нек-ром гильбертовом пространстве Я, норма к-ро- го не превосходит единицы; 2) если Лу - единичное представление, то есть А^(д) = / для любого де G, то Д(у) = /, где / - единичный оператор в Я; 3) соответствие между мерами ц и их Ф. п. {Д(у), уеГ} взаимно однозначно; 4) если для мер щ и \12 определена свертка щ* ц2, то ее Ф. п. совпадает с At (у) х Дг(у); 5) если мера Д определяется по мере \i правилом Д(#) = -\i(B~{), где В~Х = {де Gig~x eB), то ц(у) является сопряженным к Д(у) оператором, в частности мера \1 симметрична тогда и только тогда, когда Д (у) - самосопряженный оператор; 6) последовательность вероятностных мер \in на G слабо сходится к вероятностной мере \i тогда и только тогда, когда имеет место слабая сходимость Дп(у) -> Д(у), уе Г. Если G - группа Мура (напр., компактная группа), то все неприводимые представления конечномерны и можно считать, что они заданы в виде матриц. Тогда Д - матричнознач- ная функция. Интегрирование в формуле (*) можно понимать как поэлементное интегрирование матриц. В случае когда группа G абелева, все ее неприводимые унитарные представления одномерны и эквивалентны операторам умножения на нек-рый характер группы G. Поэтому обычно под Ф. п. вероятностной меры \i на абелевой группе G понимают комплекснозначную функцию Д(у), заданную на группе характеров G группы G правилом Д(у)=[г y(g)\i(dg) для всех ye G. В этом случае Д(у), у е G, называется характеристической функцией распределения вероятностей \i на абелевой группе G. Сформулированные свойства 1)-6) переходят в соответствующие свойства функции Д (у). Напр., )Д(у)| <1 для всех уе Г; Д(1) = 1, где 1 е G - единичный характер; Щ*Ц2(у) = Ai(y)'A2^Y^- Кроме того, функция Д(у) непрерывна, и справедлив аналог теоремы непрерывности для характеристич. функций. В классич. случае, когда G = B? или IR", все характеры имеют вид yt(x) = eltx, xeG=$\ £ е G = IRI и понятие Ф. п. меры \1 совпадает с понятием обычной характеристической функции f A (0=J exp{itx}\i(dx). *i Лит.: [1] ГренандерУ., Вероятности на алгебраических структурах, пер. с англ., М, 1965; [2] Хейер X., Вероятностные меры на локально компактных группах, пер. с англ., М., 1981. Ю. С. Хохлов. ФУРЬЕ - СТИЛТЬЕСА ПРЕОБРАЗОВАНИЕ (Fourier - Stieltjes transform) - см. Характеристическая функция.
ХААРА МЕРА (Haar measure) - мера [i, заданная на боре- левской а-алгебре J8 пространства £, в к-ром действует группа преобразований G, и инвариантная относительно G, то есть для любого A е .Л и любого 5 g G такого, что множество {sgigeA} измеримо, \i(sA) =|i(/4), где под множеством sA понимается множество {sg:geA}. Если функция f(p)} peE, измерима относительно о-алгебр 30 и неотрицательна, то jf(p)\i(dp) = lf(sp)\i(dp) в предположении, что хотя бы один из этих интегралов существует. Мера \i называется левоинвариантнойХ.м. (леной X. м.), если справедливо равенство \i(A) = \i(sA). Если [i - левая X. м., то функция v, заданная на о-алгебре измеримых подмножеств К элементов из G равенством v(/C) = = uX/C-1), - правая X. м., где под множеством К~ понимается множество {д :деК). На отделимой топологич. локально компактной группе Т всегда существует левая X. м.; если |1 и Д - две левые X. м. на Г, то Д = сц, где с - нек-рое положительное число. На Т существует положительная непрерывная функция А (модулярная функция на Г) такая, что Д(£)>0, £е7\ А(е) = \, е - единичный элемент группы Г, A(tl') = A(t)A(tf)t t} t'&T. Если [i - левая X. м. на Г, то \i(pg) = Mg)\i(p)t деТ, ре$£, 9С - о-алгебра борелевских подмножеств группы Т. Лит.: [lj В ей ль А., Интегрирование в топологических группах и его применения, пер. с франц., М., 1950; [2] В и л е нкин Н. Я., Специальные функции и теория представлений групп, М., 1965. В. Л. Гирко. ХАНА ТЕОРЕМА о зарядах (Hahn theorem on signed measure) - теорема теории меры, устанавливающая возможность представления любого заряда в виде разности двух (положительных) мер. Пусть \1 - произвольный заряд, определенный на нек-ром о-кольце S частей основного базисного пространства X. Тогда существует разбиение {А, В) пространства X на два подмножества А и В, удовлетворяющее следующим соотношениям: 1) для всякого У е S множество YC\A e S и ц{ УПЛ) ^ 0, 2) для всякого YeS множество Y0B е5иц(УПЯ) ^ 0. Множество А называется положительным относительно заряда (х, а множество В называется отрицательным относительно заряда (X. Говорят также, что разбиение {Л, В) представляет собой разложение в смысле Хана пространства X (по отношению к заряду цХ Равенствами д+(У) = д(УГШ, ц~(У)=-ц<УПВ), YeS, на о-кольце S определяются две (положительные) меры |i и ц~, называемые соответственно верхней вариацией и нижней вариацией заряда |i (эти меры, как легко видно, не зависят от выбора разбиения {Л, В) пространства X). Одна из этих мер обязательно является конечной. Имеет место соотношение \i-ц*-ц~, к-рое часто называют разложением в смысле Жордана данного заряд а д. Функцию множеств | [I |, определяемую с помощью равенства | \1| ( У) = -\i+(Y) + ц~(У), YeS, называют полной вариацией заряда (X. Эта функция представляет собой меру на а-кольце 5. Для нее справедливо соотношение ||х(У)| ^ ||х|(У), Y &S. Лит.: [1] Халмош П., Теория меры, пер. с англ., М., 1953; [2] Кол мо го ров А. Н., Фом и н С. В., Элементы теории функций и функционального анализа, 5 изд., М., 1981. А. Б. Харазишаили. ХАННИНГ ОКНО (banning window) - см. Корреляционное окно. ХАНТА ПРОЦЕСС (Hunt process) - частный случай стандартного марковского процесса. Пусть локально компактное сепарабельное хаусдорфово пространство Е служит множеством состояний стандартного, вообще говоря, обрывающегося процесса X = (Xt> £, ^, Рж), t^ 0, и пусть Ё- EU{A) - обычная одноточечная компактификация пространства Е, так что Л - бесконечно удаленная точка. Процесс X называется процессом Ханта, если при любом выборе начального распределения и марковских моментов Xj ^ х2 ^ ... точка Хх стремится в топологии пространства Е к А почти наверное на" множестве {т = £<<*>}, где x = limxw. Условия, при к-рых однородной переходной функции отвечает Х.п., носят достаточно общий характер (см. [1], [2]). Класс X. п. сыграл важную роль при создании вероятностной теории потенциала (см. [1], а также Потенциала теория для марковского процесса). Лит.: [II Хант Дж. А., Марковские процессы и потенциалы, пер. с англ., М., 1962; [2] В I u me n t h al R. M., Getoor R. К., Markov processes and potential theory, N. Y. - L., 1968. м. Г. Шур. ХАОС (chaos) - выражение с не всегда четким (и различным в различных случаях) содержанием, употребляющееся при неформальном описании квазислучайного поведения траекторий динамической системы, обусловленного неустойчивостью траекторий (всех или какого-то их множества, играющего заметную роль в динамике системы). Качественно «механизм» этого явления таков. Пусть в фазовом пространстве системы фазовая точка х за время t переходит в фДлг). Хотя траектория точки х в принципе полностью определяется своим начальным значением х, но если последнее задано не абсолютно точно, а лишь с ошибкой порядка 8 (что практически неизбежно), то предсказание движения (хотя бы и с ограниченной точностью) может оказаться возможным лишь в течение сравнительно небольшого отрезка времени. Именно, если траектории отличаются довольно сильной неустойчивостью [в том смысле, что для двух близких точек х и у расстояние между cptW и yt(y) быстро (скажем, экспоненциально) возрастает со временем, пока траектории не разойдутся на довольно большое расстояние], то неопределенность, с какой можно хотя бы в принципе найти yt(x), столь же быстро возрастает с ростом t (ведь мы не знаем, реализуется ли (pt(x) или <pt(y)) и это делает предсказание движения возможным лишь при сравнительно небольших t (порядка |1п8|). При повторном наблюдении эволюции той же системы (то есть изменения со временем ее состояния) с почти тем же самым (с точностью до 8) началь- ХААРА 779
ным значением вскоре (спустя время порядка |1п8|) ее состояние (положение фазовой точки (pt(y)), вообще говоря, окажется совсем другим, чем в первый раз, как будто бы поведение системы не является детерминированным. Небольшая неопределенность в положении начальной точки х со временем как бы «расплывается» по всему фазовому пространству или по крайней мере по значительной части последнего. Более детальный анализ показывает, что детерминированной системой могут имитироваться и другие свойства, обычно связываемые со случайностью. Так, одной из характеристик «хаотичности» естественно считать алгоритмич. сложность в смысле А. Н. Колмогорова последовательности показаний измерительного прибора, производящего измерения вдоль траектории <pt(x) (см. [1]). Эти последовательности могут быть столь же сложными в данном смысле, как и для «настоящих» случайных процессов типа записи результатов последовательности испытаний Бернулли. От специфики конкретной динамич. системы зависит, присуща ли экспоненциальная неустойчивость ее траекториям, и если да, то насколько «обширно» множество таких траекторий. Насколько все это удается установить для той или иной системы - это тоже отражает ее специфику (наряду с достигнутым уровнем исследований). Естественно, наиболее «удачная» имитация свойств случайных процессов достигается, когда (при замкнутом фазовом многообразии) экспоненциальная неустойчивость присуща всем траекториям, причем характеризующие ее оценки «раз- бегания близких траекторий» (технически речь идет о поведении решений уравнений в вариациях) являются равномерными по всем траекториям (так наз. системы Аносова), особенно если у системы есть «физически предпочтительная» инвариантная мера ц в фазовом пространстве, имеющая гладкую плотность. С «чисто метрической» (в смысле теории меры) точки зрения такая система в случае дискретного времени неотличима от случайного процесса испытаний Бернулли (изоморфна обычной его модели), а в случае непрерывного времени - от нек-рого родственного процесса (поток Бернулли) (см. [2], [3]). С другой стороны, не становясь на «чисто метрическую» точку зрения, можно интересоваться скоростью убывания корреляций, то есть поведением с ростом t величины j f(<pt(x))g(x)dn (интеграл по фазовому пространству) для «достаточно хороших» (скажем, гладких) функций /", д. Оказывается, они убывают экспоненциально. Столь же «удачно» имитируют свойства случайных процессов гиперболич. аттракторы, то есть инвариантные подмножества фазового пространства, к-рые «притягивают» близкие траектории с равномерной экспоненциальной скоростью и внутри к-рых близкие траектории разбегаются (оставаясь внутри аттрактора) с равномерной экспоненциальной скоростью. В этом случае возникает новый вопрос о «физически предпочтительной» инвариантной мере ц на аттракторе. Таковой является так наз. мера SRB (Синая - Рюелла - Боуэна), к-рую можно получить, начав с меры Лебега Цд в нек-рой окрестности аттрактора, рассмотрев ее «эволюцию» со временем t (когда она, «плывя» вдоль траекторий, сосредоточивается все ближе к аттрактору) и перейдя к пределу при t -><*>. В этом случае выводы о свойствах системы по отношению к мере SRB в конечном счете такие же, что и раньше (см. [3]). При небольшом ослаблении свойства гиперболичности сказанное остается в силе (но при значительном его ослаблении заключения тоже начинают ослабляться, что по крайней мере в нек-рых случаях связано с существом дела). Особенно хорошо это исследовано в конформной динамике (см. [4]). 780 ХАОС При еще более слабой гиперболичности утверждения о хаотичности уже не имеют «метрического» характера; речь идет просто о констатации известной сложности, запутанности поведения траекторий (помимо их неустойчивости). Большая серия таких результатов (как общих, так и относящихся к конкретным системам) связана с гомоклинич. траекториями (гомоклинической называется траектория, по к-рой пересекаются устойчивое Ws и неустойчивое W" инвариантные многообразия одной и той же гиперболич. периодич. траектории). Когда Ws и Wu пересекаются трансверсально, то в системе имеются инвариантные гиперболич. множества, внутренняя динамика на к-рых столь же хаотична, как и в предыдущих случаях, но их лебегова мера равна нулю и в этом смысле они занимают слишком малую часть фазового пространства, чтобы можно было с уверенностью говорить об их влиянии на динамику в целом. Впрочем, они могут играть своего рода «водораздельную» роль, влияя на то, куда идут остальные траектории, и в этом отношении несомненно в какой-то степени «хаотизировать» систему. Для гамильтоно- вых систем с полутора степенями свободы гомоклинич. траектории играют главную роль в нек-рых теоремах о неинтегрируемости системы (то есть об отсутствии второго интеграла, наличие к-рого позволило бы проинтегрировать систему); это тоже воспринимается как некая хаотичность. (В больших размерностях картина не столь ясна.) Когда пересечение W5 и Wu нетрансверсально, возникает весьма сложная ситуация, до сих пор изученная только отчасти; здесь бывает много различных случаев. В нек-рых из них оказывается, что качественная картина поведения траекторий для системы, зависящей от параметра, является очень чувствительной к изменениям последнего, причем это так, когда параметр принадлежит нек-рому «довольно большому» множеству (а не при каких-то отдельных его значениях) (см. [5]). Получается некая «хаотичность по параметру». Лит.: [1] Алексеев В. М., Символическая динамика (Одиннадцатая летняя математическая школа), К., 1976; [2] Орн- стейи Д., Эргодическая теория, случайность и динамические системы, пер. с англ., М., 1978; [3] Боуэи Р., Методы символической динамики, пер. с англ., М., 1979; [4] Пейтген X. О., Рихтер П. X., Красота фракталов, пер. с англ., М., 1993; [5] Palis J., Та kens F., Hyperbolicity and sensitive chaotic dynamics at homoclinic bifurcations, Cambridge, 1993. Д. В. Аносов. ХАОС однородный (homogeneous chaos) - см. Однородный хаос. ХАРАКТЕРИЗАЦИОННЫЕ ТЕОРЕМЫ (characterization theorems) - теоремы, устанавливающие связь между распределения типом случайных величин или случайных векторов и нек-рыми общими свойствами функций от них. Пример 1. Пусть X - трехмерный случайный вектор такой, что: 1) его проекции Xt, X2, Х3 на какие-либо три взаимно ортогональные оси независимы и 2) плотность р(х), дг = (#j, х2, х3), распределения вероятностей X зависит только от xf + x2 +х\. Тогда распределение X нормально и р(х)=t^v expfi(*-2+л|+*4 где а > 0 - нек-рая постоянная (закон Максвелла для распределения скоростей молекул при стационарном состоянии газа). Пример 2. Пусть XelRn- случайный вектор с независимыми и одинаково распределенными компонентами X - - (Xt, ..., Хп). Если распределение нормально, то «эмпирическое среднее» _ и «эмпирическая дисперсия» ?2=-У" АХГХ)2
будут независимыми случайными величинами. Обратно, если они независимы, то распределение X нормально. П р и м е р 3. Пусть Xk е И? п - вектор с независимыми и одинаково распределенными компонентами, ах, ..., ап, Ьх, ..., bn - отличные от нуля постоянные. Если случайные величины Yx-axXx + ...+ апХп и Y2-bxXx + ... + bnXn независимы, то X имеет нормальное распределение. Это утверждение называется теоремой Дармуа - Скитовича. В частном случае, когда п-2, ах=а2 = Ьх = \ и 62 = -1, то есть Yx = Хх + Х2, У2 = Х1-Х2, получается теорема Бернштейна. Утверждение о нормальном распределении вектора X остается верным, если предположение, что Yx и У2 независимы, заменить предположением, что они одинаково распределены, добавив, однако, нек-рые ограничения на коэффициенты д^ и Ь:. Такое утверждение называется теоремой Линника. Подобного рода характеризация распределений случайного вектора XelP" свойством одинаковой распределенности или независимости двух многочленов Qt(X) и Q2(X) дается рядом Х.т., играющих важную роль в математич. статистике. Лит.: [1] Каган A.M., ЛинникЮ. В., Рао С. Р., Характери- зационные задачи математической статистики, М., 1972. Ю. В. Прохоров. ХАРАКТЕРИЗАЦИОННЫЕ ТЕОРЕМЫ для вероятностных распределений на абелевых группах (characterization theorems for probability distributions on Abe- lian groups) - теоремы, дающие информацию о распределениях случайных величин по свойствам нек-рых функций от этих величин. Из всего многообразия Х.т. на действительной прямой (см. [1]) здесь обсуждаются групповые аналоги задач характеризации гауссовского распределения независимостью или одинаковой распределенностью линейных статистик, так как полученные для этого случая результаты носят наиболее законченный характер. Пусть в дальнейшем G - локально компактная сепарабель- ная абелева метрич. группа, G - ее группа характеров, Сс - компонента нуля группы G, T(G) - множество гауссовских распределений на G, r*(G) - множество симметричных гауссовских распределений на G, /(G) - множество идемпотент- ных распределений на G. Распределение Хаара на компактной подгруппе К группы G обозначают тк; Т - группа вращений окружности. Пусть гомоморфизм fn:G->G определяется формулами f„(g)-ng (и - натуральное число) и fn(G) = G \ Группа G называется группой Корвина, если G - G. Распределение у на группе G называется гауссовским распределением в смысле Бернштейна, если существуют такие независимые случайные величины X и У со значениями в G и с распределением у, что случайные величины X+Y и X-Y также независимы. Множество гауссовских распределений в смысле Бернштейна на группе G обозначают TB(G). Пусть /B(G)=/(G)nrB(G). Распределение тпк принадлежит /B(G) тогда и только тогда, когда К * = К. Множество TB(G) является полугруппой (относительно свертки) и /B(G)*r(G) лежит в TB(G). Полное описание групп G, для к-рых справедливо равенство /B(G)»r(G) = rB(G), таково: для любой компактной подгруппы Корвина К a G факторгруппа G/K не содержит подгруппы, топологически изоморфной Г (см. [2]). Если \L = mK + v, где veT(G), то распределение ц инвариантно относительно компактной подгруппы К a G и ц индуцирует на факторгруппе G/K гауссовское распределение. На действительной прямой, если X и У - независимые (не обязательно одинаково распределенные) случайные величины и случайные величины Х+УиХ-У также независимы, то X и У имеют гауссовское распределение (теорема Бернштейна). Групповым аналогом этой теоремы является следующий результат. Пусть X и У - независимые случайные величины со значениями в G и с распределениями \1 и v, и пусть группа Сс не содержит элементов порядка 2. Тогда случайные величины X + У и X - У независимы в том и только в том случае, когда ц, V€/B(G)»T(G) и \L = v*Eg (см. [2]). Эта теорема точна в следующем смысле: если группа CG содержит элементы порядка 2, то существуют такие независимые случайные величины X и У со значениями в группе G и с распределениями (I и v, что У, vg/(G)*r(G), а случайные величины Х + У и Х- У независимы (см. [2]). В классич. случае, если X., /в1, 2, ..., /и, - независимые случайные величины на IP и линейные формы Lx- = а1Х1 + ... + amXm и L2 = ptXt + ... + pmXm (все а;, р; отличны от нуля) независимы, то случайные величины Ху имеют гауссовское распределение (теорема Скитовича - Дармуа). Групповым аналогом этой теоремы является следующий результат. Пусть Ху, /=1, 2, ..., w, - независимые случайные величины со значениями в группе G и с распределениями Цу, {a.)J=v {fy}/Li ~ допустимые для группы G множества целых чисел [то есть такие числа, что G } * {0} для всех /], и линейные формы Lx - ахХх + ... + amXm и L2 = bxXx + ... + bmXm независимы. Тогда если группа G топологически изоморфна группе вида G*Rn + D, (1) где п>0, a D- дискретная группа без кручения, то все (lyGr(G). Если G ={0}, то все ц- - вырожденные распределения. Если G изоморфна группе вычетов по модулю 3, то либо все ц- - вырожденные распределения, либо Цу = fly = mG по крайней мере для двух значений jx и /2> а остальные Цу произвольны (см. [3]). Этот результат точен в следующем смысле. Если группа G топологически не изоморфна перечисленным выше группам, то существуют такие независимые случайные величины Ху, /= 1, 2, ..., ту со значениями в группе G и с распределениями fly и такие допустимые для группы G множества целых чисел {а))7=\ и {Ь})7=\> что линейные формы Lx = ахХх + ... +amXm и L2-bxXx +... + bmXm независимы, а все Uy«/(G)*r(G) (см. [3]). На действительной прямой из независимости линейных форм Lx и L2 вытекает, что характеристич. функции рассматриваемых распределений не обращаются в нуль. В групповой ситуации это, вообще говоря, не так. Пусть Ху, /=1, 2, ..., w, - независимые случайные величины со значениями G и с распределениями Цу, характеристич. функции к-рых не обращаются в нуль, {tfy}yLi и {fy}/Lt ~~ допустимые для G множества целых чисел. Тогда для того, чтобы из независимости линейных форм Lx =ахХх + ... +amXm и L2 = bxXx + ... +bmXm следовало, что все UyeT(G), необходимо и достаточно, чтобы G была группой без кручения, либо G р = {0}, где р - простое число (см. [3]). Пусть Aut(G) - группа всех топологич. автоморфизмов группы X. Рассмотрим две линейные формы Lx =оц(Х1) + ... ...+a5(Xs) и L2 = $X(XX) +... +p5(Xs), где Ху - независимые случайные величины со значениями в группе G и с распределениями Цу, а ay, pyeAut(G) и сформулируем следующую задачу, к-рую также можно рассматривать как групповой аналог теоремы Скитовича - Дармуа. Какие группы G обладают тем свойством, что из независимости линейных форм Lx и L2 следует, что все распределения Uye/(G)»r(G). Гурье и Олкин установили, что этим свойством обладают IR", л>1 (см. [1]). Полное описание компактных абелевых групп, обладающих указанным свойством, таково. ХАРАКТЕРИЗАЦИОННЫЕ 781
(I) Пусть группа G топологически изоморфна одной из групп: (a) Z(2wOx...xZ(2OT«), 0^т{<...<тя, (b) A2xZ(2m*)x...xZ(2m»), 0^т]<...<т„, тогда все ц- - вырожденные распределения; (II) пусть группа G топологически изоморфна группе Z(3)xG', где G' - такая группа, как в (а) или в (Ь), тогда либо все ц вырожденные распределения, либо распределения ц можно так заменить их сдвигами ц', что ц' t = ц'-2 - mz(3) no крайней мере для двух распределений ц';1 и |i'2, а остальные ц'- произвольны, причем все носители а((!'•) <= Z(3) (здесь Z(«) - группа вычетов по модулю п, Д2 " группа 2-адических целых чисел). Этот результат точен в следующем смысле. Пусть G - компактная абелева группа, не изоморфная группам, перечисленным выше. Тогда существуют такие независимые случайные величины X: со значениями в группе Сие распределениями ц. и автоморфизмы 8.eAut(G), что линейные формы Ij-Xj + ... + Х, и L2 = 8t(Xj) +... + &S(XS) независимы, а все ty*/(X)*r(G). Пусть А = {fl;}JLo ~ произвольное множество целых чисел, а TA(G) - класс распределений (I на G, обладающих свойством: если Х;, /= 1, 2, ..., т, т^2, - независимые одинаково распределенные случайные величины со значениями в G и с распределением ц, то линейные формы а0Хх и а1^1 + ••• ... +атХт одинаково распределены. И пусть 2X(G) - совокупность допустимых для группы G множеств А - {tf,}J"=o взаимно простых чисел с условием й02 = й2 + ... + й2. (2) В классич. случае, если Х-, j=\t 2 от, - независимые одинаково распределенные случайные величины на (I? , iaj}?=o ~ действительные числа, удовлетворяющие условию (2), и линейные формы aQX{ и а^Хх +... + атХт одинаково распределены, то X имеет гауссовское распределение (теорема Пойа - Линника). В групповой ситуации пусть IA(G) = I(G)f\TA(G). Тогда для того, чтобы на G для любого множества А е 9R(G) имело место равенство IA(G)*rs(G) = rA(G)> (3) необходимо и достаточно, чтобы либо группа G была топологически изоморфна группе вида (1), либо G р - {0}, где р - простое число (см. [4]). Говорят, что на группе G возможна характеризация гауссов- ского распределения одинаковой распределенностью одночлена и линейной статистики, если при нек-ром A g3K(G) справедливо равенство (3). Класс таких групп G полностью описывается следующим образом: для иек-рого простого р группа CG не содержит элементов порядка р (см. [5]). Пусть Г(у(С) - множество гауссовских распределений в смысле Урбаника на G, то есть таких распределений ц, к-рые переводятся в гауссовское распределение на Т любым характером geG. Тогда r(G) с Ty(G). Для того чтобы имело место равенство Г(0 = Г^(0, необходимо и достаточно, чтобы либо CG « 7\ либо любая ненулевая факторгруппа группы G содержала неограниченно делимый элемент (см. [6}). Элемент <70*0 называется неограниченно делимым, если уравнение ng = gQ разрешимо в G для сколь угодно больших натуральных п. Лит.: [11 Каган A.M., ЛинникЮ.В., Ра о С. Р., Характеризационные задачи математической статистики, М., 1972; [2] Фельдман Г. М., «Теория вероятн. и ее примен.», 1986, т. 31, в. 1, с. 47-58; там же, 1996, т. 41, в. 4, с. 901-06; [3] его же, «Докл. АН СССР», 1988, т. 301, № 3, с. 558-60; [4] его же, «Укр. матем. ж.», 1989, 782 ХАРАКТЕРИЗАЦИЯ т. 41, № 8, с. 1112-18; там же, 1990, т. 42, № 1, с. 139-42; [5) его же, Арифметика вероятностных распределений и характеризационные задачи на абелевых группах, К., 1990; [6] его же, «Studia Math.», 1982, v. 73, p. 81-86; [7] Рухин А.Л., «Матем. заметки», 1969, т. 6, >Jo 3, с 301-07; [8] Хейер X., Вероятностные меры на локально компактных группах, пер. с англ., М., 1981. Г. М. Фельдман. ХАРАКТЕРИЗАЦИЯ РАСПРЕДЕЛЕНИЙ (characterization of distributions) - модель описания свойств тех или иных множеств распределений с помощью каких-либо других свойств этих распределений и свойств специально подобранных их преобразований. Примеры X. р. 1) Если распределение неотрицательной случайной величины X абсолютно непрерывно и для любых P{X^x+t\X>x} = P{X>t} (отсутствие последействия), то X имеет экспоненциальное распределение P{X^t} = e~U, t^0, где А,>0 - нек-рый параметр. 2) Если случайные величины X и У таковы, что Х+У и X-Y независимы, то X и У нормальны. Общая модель характеризации приводится в ст. Устойчивость стохастической модели и Устойчивость характеризации распределений. См. также Характеризационные теоремы. Лит.: [1] Каган A.M., ЛинникЮ.В., Рао С. Р., Характеризационные задачи математической статистики, М., 1972. В. М. Золотарев. ХАРАКТЕРИСТИЧЕСКАЯ ФУНКЦИЯ (characteristic function), преобразование Фурье - Стилтьеса, вероятностной меры ц - комплекснозначная функция, заданная на всей числовой оси IP формулой A(0 = j2,exp(ite)rfjiU)l fell?1. X. ф. случайной величины X, по определению, есть X. ф. ее вероятностного распределения \1х(В) = Р{Хе В}, где В- борелевское множество в IP . Метод, связанный с использованием Х.ф., был впервые применен А. М. Ляпуновым и позднее стал одним из основных аналитич. методов теории вероятностей. Особенно эффективно он используется при доказательстве предельных теорем теории вероятностей; напр., доказательство центральной предельной теоремы для независимых одинаково распределенных случайных величин со вторыми моментами сводится к элементарному соотношению (1-г2/2я + о(1/я))"->ехр(-Ч2/2). Основные свойствах, ф. 1) ц(0) = 1 и р. положительно определена, то есть для любых конечных наборов комплексных чисел ak и аргументов tk e И? . 2) р. равномерно непрерывна на всей оси И? . 3) IJUOI^I, IfiU^-^I^U-RefLU,-^)), tt tu 4) fi(t)-fi(-t)\ в частности, р, принимает только действительные значения (и является четной функцией) в том и только в том случае, когда соответствующее вероятностное распределение симметрично, то есть \i(B) = \i(-B), где -В = {х:-хеВ}. 5) Х.ф. однозначно определяет меру; более того, имеет место формула обращения: \L(a, b) = Iim ± f ± ? $L(t)dt T->oo 2л J-T it для любых интервалов (я, Ь), концы к-рых имеют нулевую ц-меру. Если ц интегрируема (абсолютно, если интеграл по-
нимэть в смысле Римана) на IR , то соответствующая функция распределения имеет плотность р и р(х)=4~Г exp(-itx)jx(t)dt, xe$K 2л J-«> 6) Х.ф. свертки двух вероятностных мер (суммы двух независимых случайных величин) есть произведение их X. ф. Следующие три свойства выражают связь между существованием моментов случайной величины и степенью гладкости ее X. ф. 7) Если Е1Хг<оо для нек-рого натурального я, то при всех натуральных г < я существуют производные порядка г от Х.ф. (ix случайной величины X и имеет место равенство £х>(')=П (ix)rexp(itx)diix(x)> ten?1. Таким образом, ЕХг=Ггц(г)(0), г^п. 8) Если существует д£я)(0),*то ЕХ2"<оо. 9) Если Е|Х]"<°° для всех г и — ЩХ\п)У" 1 Iim—-—■ = —, п R то при всех \t | < R/e имеет место 10) (i({fl}) = lim — f - e~tat(L(t)dt, где {а} обозначает од- T-> ~ IT J-7 ноточечное множество, состоящее из точки а. Отсюда следует, . что если существует предел функции Д(0 при £-><*> и этот предел равняется а, то ц({а}) = а. В частности, если а= 1, то ц есть вырожденная мера, сосредоточенная в нуле. Использование метода X. ф. гл. обр. основано на указанных выше свойствах Х.ф., а также на следующих двух теоремах. Теорема Бохнера (описание класса X. ф.). Пусть функция f задана на IR1 и /*(0) = 1. Для того чтобы f была X. ф. нек-рой вероятностной меры, необходимо и достаточно, чтобы она была непрерывна и положительно определена. Теорема Леви (непрерывность соответствия). Пусть {ц„} - последовательность вероятностных мер, а {Дп} - последовательность их Х.ф. Тогда {цп} слабо сходится к нек-рой вероятностной мере ц (то есть J yd\in -> J фб/ц для произвольной непрерывной ограниченной функции ф) в том и только в том случае, если {цп(0} в каждой точке feIR1 сходится к нек-рой непрерывной функции f; в случае сходимости имеем /"=Д. Отсюда следует, что относительная компактность (в смысле слабой сходимости) семейства вероятностных мер равносильна равностепенной непрерывности в нуле семейства соответствующих Х.ф. Теорема Бохнера позволяет смотреть на преобразование Фурье - Стилтьеса как на изоморфизм между полугруппой (относительно операции свертки) вероятностных мер в IP1 и полугруппой (относительно поточечного умножения) положительно определенных непрерывных равных в нуле единице функций на И?1. Теорема Леви утверждает, что этот алгебраич. изоморфизм является и топологич. гомеоморфизмом, если в полугруппе вероятностных мер иметь в виду топологию слабой сходимости, а в полугруппе положительно определенных функций - топологию равномерной сходимости на ограниченных множествах. Известны выражения X. ф. основных вероятностных мер (см. [1], [2]), напр. Х.ф. гауссовской меры со средним m и дисперсией о есть exp(imt-a t /2). Для неотрицательных целочисленных случайных величин X наряду с X. ф. используется ее аналог- производящая связанная с Х.ф. соотношением \1х(0 = Фх(еа). X. ф. вероятностной меры ц в конечномерном пространстве П?я определяется аналогично: (Ш) = JR„ exp (i(t, x))d\L(x), t € R", где (t, x) означает скалярное произведение. Сформулированные выше факты справедливы и для X. ф. вероятностных мер в IR". Об обобщении на бесконечномерный случай см. Характеристический функционал. Лит.: [II Лукач Е., Характеристические функции, пер. с англ., М., 1979; [2] Феллер В., Введение в теорию вероятностей и ее приложения, пер. с англ., т. 2, М., 1984; [3] П рох оров Ю. В., Розанов Ю. А., Теория вероятностей. Основные понятия. Предельные теоремы. Случайные процессы, 3 изд., М., 1987; [4] Золотарев В. М., Одномерные устойчивые распределения, М., 1983. Н. Н. Бахания. ХАРАКТЕРИСТИЧЕСКАЯ ФУНКЦИЯ аналитическая (analytic characteristic function) - см. Аналитическая характеристическая функция. ХАРАКТЕРИСТИЧЕСКИЙ ОПЕРАТОР (characteristic ope rator) однородного марковского про ц ее с а - оператор, описывающий поведение этого марковского процесса в бесконечно малой окрестности точки. Точнее, пусть Х = = (Xt, ^, Px) - непрерывный справа марковский процесс в локально компактном хаусдорфовом пространстве Е. Для открытого множества У через т^ обозначен момент первого выхода из множества 9/. Характеристич. оператор $С в точке х определяется как предел: где предел берется по тем открытым множествам Wix, для к-рых выражение под знаком предела конечно. При этом feDv(x), если предел существует в точке х, и feD^, если предел существует для всех хеЕ [здесь D%(x) - область определения оператора $С в точке х, Dv = Uxe ED^(x)]. Это определение распространяется и на более широкие классы марковских процессов. X. о. является расширением инфинитезимального оператора и определяет поведение процесса вплоть до момента первого ухода на бесконечность. X. о. удовлетворяет глобальному принципу минимума: если х0 - точка глобального минимума функции /*, то $С/*(#о)^0. Для непрерывных процессов X. о. локален: Щ(х) определяется по значениям функции /"в бесконечно малой окрестности точки х. В этом случае X. о. удовлетворяет локальному принципу минимума: %f(xQ) ^ 0 в точке локального минимума функции f. Для диффузионных процессов в IR X. о. определен на всех ограниченных дважды дифференцируемых функциях и имеет (для необрывающихся процессов) вид где аЛх) - неотрицательно определенная матрица (матрица диффузии), a bj(x) - вектор сноса. Лит.: [1] Дынкин Е.Б., Марковские процессы, М., 1963; [2] ГихманИ.И., Скороход А. В., Теория случайных процессов, т. 2, М., 1973. С. Е. Кузнецов. ХАРАКТЕРИСТИЧЕСКИЙ ФУНКЦИОНАЛ (characteristic functional) вероятностного распределения- функционал, определяемый равенством F(g)=jT exp (ig(x))dF(x), д е Т*, где Т - линейное топологическое пространство, Т* - пространство, топологически сопряженное к Т. Вероятностное распределение F предполагается определенным на нек-рой ХАРАКТЕРИСТИЧЕСКИЙ 783
а-алгебре подмножеств из 33, относительно к-рой измеримы все д из Г*. Понятие X. ф. принадлежит А. Н. Колмогорову [1], им же сформулированы и основные задачи, связанные с этим понятием. Пусть Т - банахово пространство, ЗВ - борелевская а-алгеб- ра. Тогда 1) F(0)= 1 и F положительно определен, то есть для любых конечных наборов комплексных чисел ct, c2, ..., сп и элементов дх, д2, ■ ■-, д„ из Г*; 2) F непрерывен в сильной топологии и секвенциально непрерывен в «-слабой топологии пространства Т*, то есть в топологии, порожденной *-слабой сходимостью (последовательность {fn) из Т* сходится к /"еГ*, если fn(x)-*f(x) для каждого х е Т); 3) |Я^)|<1, I Р(дх)-Р(д2)\< 2[1- Re F(gx-g2)] для любых^, дх, д2 из Тч\ 4) Р(-д) = Р(д); 5) соответствие между X. ф. и вероятностными распределениями взаимно однозначно; 6) X. ф. свертки двух вероятностных распределений есть произведение их X. ф.; 7) если К - слабо относительно компактное множество вероятностных распределений в Г, то множество {F:FeK} X. ф. равностепенно непрерывно в сильной топологии пространства Г*; 8) если последовательность {Fn} вероятностных распределений слабо сходится к вероятностному распределению F, то {Fn} сходится равномерно на каждом компактном (и даже на каждом ограниченном) множестве из Г* к F. Каждый комплекснозначный функционал на Г*, удовлетворяющий условиям 1) и 2), порождает промеру, то есть неотрицательную конечно-аддитивную функцию множеств на алгебре цилиндрич. множеств из Т (см. [2]). Одна из важных проблем, не решенная до настоящего времени, состоит в отыскании необходимых и достаточных условий, при к-рых каждый положительно определенный комплекснозначный функционал на Г* является X. ф. нек-рого вероятностного распределения. Эта задача совпадает с задачей продолжения промеры, соответствующей функционалу, до вероятностного распределения на 3d. Для отдельных классов пространств, в частности, для гильбертовых и более общих счетно-гильбертовых пространств, проблема получила окончательное решение (см. [4], [5]). Другая важная проблема состоит в описании гецметрии пространств свойствами X. ф. Напр., теорема Минло- са - Сазонова вместе с результатами статьи [6] позволяет охарактеризовать ядерные пространства в терминах X. ф. Обзоры свойств и применений X. ф. см. в [7], [8]. Лит.: [1] Колмогоров А. Н., Избранные труды. Математика и механика, М., 1985, с. 178-79; [2] Mourier Е., «С. г. Acad. sci>, 1950, t. 231, p. 28-29; [3] Gross L., «Mem. Amer. Math. Soc>, 1963, v. 46, p. 1-62; [41 Сазонов В. В., «Теория вероятн. и ее примени, 1958, т. 3, в. 2, с. 201-05; [5] его же, в сб.: Тр. VI Всесоюзного совещания по теории вероятностей и математической статистике (1960), Вильнюс, 1962, с. 455-62; [6) Муштари Д. X., «Теория вероятн. и ее примен.», 1973, т. 18, в. 1, с. 66-77; [7J Круглое В. М., Дополнительные главы теории вероятностей, М., 1984; [8] В а х а и и я Н. Н., ТариеладзеВ. И., ЧобанянС. А., Вероятностные распределения в банаховых пространствах, М., 1985. В. М. Круглое. ХАРАКТЕРИСТИЧЕСКИЙ ФУНКЦИОНАЛ случай ной меры (characteristic functional of a random measure) - см. Случайная мера. ХАРАКТЕРИСТИЧЕСКИХ ФУНКЦИЙ МЕТОД (characteristic functions method) - один из основных аналитических 784 ХАРАКТЕРИСТИЧЕСКИХ методов теории вероятностей. Создан в конце 19 в. А. М. Ляпуновым (см. [1]), где им была доказана этим методом известная Ляпунова теорема. Основная идея современной интерпретации X. ф. м. состоит в использовании преобразований Фурье - Стилтьеса f(t, Р) вероятностных распределений Р или аналогичных им преобразований. Преобразования Фурье - Стилтьеса, существующие для каждого Р, f(ttP)=je^P(dx) называют характеристическими функциями. Наиболее эффективным X. ф. м. проявляет себя при анализе (и прежде всего при асимптотич. анализе) сверток распределений, что равносильно анализу распределений сумм независимых случайных величин. Это обусловливается следующими свойствами характеристич. функций. 1) Распределение Р полностью определяется соответстиую- щей ему характеристич. функцией f(t, P). 2) Для любых распределений Pt, Р2 Р^ fit, pt*p2.... »p„wa р,уа р2).»л*. р„). 3) Если последовательность распределений Рп слабо сходится к распределению Р при п -> <» (Рп ^ р), то f(t, Pn) -> -*f(t, P) для каждого £elR1, причем сходимость будет равномерной в каждом ограниченном интервале \t\ < Т. 4) Если f(t, Рп) сходится к функции #(0, непрерывной в точке £ = 0, то g(t)-f(t, P) - характеристич. функция нек-рого распределения Р и Рп ^» Р. Аналитич. свойства распределений и соответствующих им характеристич. функций тесно связаны между собой. Так, гладкость распределения Р (существование плотности и какого-то числа ее производных) находит отражение в скорости стремления к нулю функции f(t, P) при t -><», а существование какого-то числа моментов Р обусловливает соответствующую гладкость f(t, P), критерий одновершинности распределения очень просто выражается в терминах характеристич. функций, и т.д. X. ф. м. успешно использовался при построении теории предельных теорем для сумм независимых случайных величин (см. Предельные теоремы, Центральная предельная теорема). С привлечением этого метода получаются разнообразные уточнения предельных теорем (см. Берри - Эссеена неравенство, Берри - Эссеена теорема). Большие потенциальные возможности X. ф. м. позволили с успехом применять его во многих разделах современной теории вероятностей (напр., в теории ветвящихся процессов - в форме метода производящих функций). Идея X. ф. м. переносится на модели «обобщенного суммирования», в к-рых рассматриваются «суммы» независимых случайных величин, формируемые с помощью какой-либо коммутативной групповой или полугрупповой операции (в пространстве распределений эта операция порождает полугрупповую коммутативную операцию «обобщенной свертки»). В этих моделях роль аналогов характеристич. функций играют интегральные преобразования вида /•(в, P) = jq(Q, x)P(dx). Здесь переменная 8 принимает значения из нек-рого множества 0, к-рое, как и ядро преобразования q, определяется в строгом соответствии с используемой операцией. «Характеристические функции» /"(8, Р) обладают свойствами, вполне аналогичными свойствам 1)-4), что создает основу Х.ф.м. в применении к рассматриваемой модели. Лит.: [1] Ляпунов A.M., Избранные труды, М., 1948, с. 179-218, 221-50; [2] Лукач Е., Характеристические функции, пер. с англ., М., 1979; [3] X е й е р X., Вероятностные меры на локально компактных группах, пер. с англ., М., 1981. В. М. Золотарев.
где ХАРАКТЕРИСТИЧЕСКОЕ ПРЕОБРАЗОВАНИЕ (Characteristic transform) - см. М-безгранично делимое распределение. ХАРДИ ЭНТРОПИЯ (Hardy entropy) - см. Информацией ная мера. ХАРРИСОНА СЕЗОННАЯ МОДЕЛЬ (Harrison seasonal model) - модификация Хольта - Уинтерса модели для случайных процессов прогнозирования. Сезонная компонента модели Хольта - Уинтерса s(t) представляется в виде s(t -L+j) = \+ ]£fc {a* cos (kXf) + bksin (kXj)}, (•) a^jJ^^sit-L+jlcosikXj), b^j-^^sit-L+jhmikXj), Ay =2(/-1 )*/£.-*. Суммирование в (*) производится по тем гармоникам, к-рые считаются существенными, и в таком виде s(t-L+j) подставляется в модель Хольта - Уинтерса. Лит.: [1] Harrison P., «Appl. Statist.», 1965, v. 14, p. 102-39; [2] Ксндэл М., Временные ряды, пер. с англ., М., 1981. Ю. Г. Баласанов. ХАРТЛИ (hartley) - единица информации количества, получаемая, когда в определении количества информации используются десятичные логарифмы. Формула перехода: 1 X. = l/lg2 6nr*3,32 6HT. ХАРТМАНА - ВИНТНЕРА - ШТРАССЕНА ТЕОРЕМА (Hartman - Wintner - Strassen theorem) - см. Повторного логарифма закон в банаховом пространстве. ХАУСДОРФА ПСЕВДОМЕТРИКА (Hausdorff pseudomet- ric) - см. Вероятностная метрика; структура. ХАУСДОРФА СТРУКТУРА вероятностной метрики (Hausdorff structure of a probability metric) - см. Вероятностная метрика; структура. ХАУСДОРФА ТЕОРЕМА (Hausdorff theorem) - теорема, связывающая свойство полноты класса функций по Хаусдор- фу и свойство непрерывности функций из этого класса. Пусть % - полный по Хаусдорфу класс функций на множестве Ли © - система множеств вида {х:д(х) > 0}, д е £. Тогда (j\ ©) образует а-топологич. пространство и множество всех непрерывных функций на ^совпадает с ^. Лит.: [1] Хаусдорф Ф., Теория множеств, пер. с нем., М- Л., 1937; [2) Боровков А. А., «Успехи матем. наук», 1976, т. 31, в. 2, с. 3-68. Е. А. Печерский. ХВОСТ распределения (distribution tail) - часть графика распределения функции случайной величины Х> соответствующая вероятностям событий вида {X<xmin} или {Х>хтйх}, где хши и xnydX - возможные значения, близкие соответственно к левой и правой границам диапазона изменения X. Это понятие используется, в частности, в оценках, связанных с центральной предельной теоремой. Лит.: |1] Айвазян С. А., ЕнюковИ.С, Мешалкин Л.Д., Прикладная статистика. Основы моделирования и первичная обработка данных, М., 1983. М.И. Войцеховский. ХЕЛЛИ ТЕОРЕМА (Helly theorem): если F(x), F^x), F2(x),...- ограниченные неубывающие функции такие, что Fn(x) вполне сходится к F(x), то £ g(x)dFn(x) -» £ g(x)dF(x) С) при п -> °° для любой непрерывной ограниченной функции д(х). Справедливо и обратное утверждение: из сходимости (*> следует, что Fn вполне сходится к F. Лит.: |1) Helly E., «Sitzungsbcr. Math.-Naturwiss. KI. Keiser. Akad. Wiss.», 1912, Bd 121, S. 265-97. В. В. Петров. ХЕЛЛИНГЕРА ИНТЕГРАЛ (Hellinger integral) - интеграл порядка а между вероятностными мерами Р и Р: \(dP)a(dP)*~a, понимаемый как интеграл J I c/Q J [dQJ dQ по любой вероятностной мере Q такой, что P«Q, P«Q. Корректность такого определения следует из того, что оно не зависит от выбора меры Q, доминирующей как Р, так и Р. См. также Хеллингера метрика. А. Н. Ширяев. ХЕЛЛИНГЕРА МЕТРИКА (Hellinger metric) - простая вероятностная метрика в пространстве ,/(Q) вероятностных распределений, к-рые заданы на нек-ром измеримом пространстве (Q, ..«/), определяемая равенством Х2(Р,0) = (1/2)Ц^ uv J где V - любая мера на Q, по отношению к к-рой распределения вероятностей Р и Q являются абсолютно непрерывными [такой мерой может служить, в частности, V= (P + Q)/2j. X. м. х от выбора меры V не зависит. Символич. форма записи X. м.: X2(P,Q) = (l/2)Jfl(VrfP-VrfQ)2. С) Я(Р,0) = [ Г± Если в Q имеется инвариантная мера dx и, следовательно, можно говорить о плотности р(х) распределения Р, то (*) приобретает обычную форму для распределений Р, Q, имеющих плотности р и q: X4P,0) = (\/2)^{4pU)-4q(^fdx. X. м. связана равенством х (Р, Q) = 1 -Я(Р, Q) с интегралом Хеллингера ЫМ dM и представляет собой частный случай Хеллингера расстояния порядка а= 1/2. X. м. обладает следующими свойствами: 1) 0^х(Р, Q)<l,x(P> Q) = 0«P = Q; 2) х(Р, Q) = 1 <=> Р и Q взаимно сингулярны (P-LQ); 3) если Q^QjxQ^ P-PlXP2, CHQjxC^, где Р,, С^еУ(Ц), 1 = 1, 2, то 1-Х2(Р, Q) = (l-X2(Pt, Q1))(l-x2(P2. Q2)). Это свойство послужило главной причиной широкого использования X. м. 4) Между X. м. и полной вариации метрикой а имеется следующее соотношение: Х2(Р, QKa(P, Q)<V2"X(P>Q)> означающее, в частности, что метрики X и а эквивалентны в строгом смысле (см. Вероятностных метрик сравнение). Метрика х> как и ряд других вероятностных метрик и расстояний, напр. метрика а, играет в статистике важную роль, обладая способностью правильно отражать «степень трудности» различения распределений Р и Q по результатам наблюдений. Именно, пусть а(ф) и р(ф) - вероятности ошибок 1-го и 2-го рода теста ф(со) в различении гипотез Я и Я относительно истинности конкурирующих распределений Р и Р. Если мерой различия этих распределений выбрать Ег(Р, Р) = 1пг{а(ф) + р(ф):ф}, ХАРРИСОНА 785
то Ег(Р, Р) = 1 -а(Р, Р). Для мер, связанных с повторными независимыми испытаниями P" = PjX...xPw и Рп-=Р^х ... ...хРп, мера различения допускает оценки вида (1/2)е"2ЪЧЕг(Рп, Р")<^, где X = -\ogH(P, Р)^х (Р. Р)- Лит.: [1] ЖакодЖ., Ширяев А. Н., Предельные теоремы для случайных процессов, пер. с англ., М., 1994. А. Н. Ширяев. ХЕЛЛИНГЕРА ПРОЦЕСС (Hellinger process) - предсказуемый случайный процесс, характеризующий эволюцию изменения во времени интеграла Хеллингера между семействами вероятностных мер. Пусть (Q, Л, & =Ldt)t^o) ~ измеримое пространство (Q, ^), наделенное фильтрацией ^—i^t^o (см. Стохастический базис), и Р, Р - две вероятностные меры на (Q, .r/); Pt = P\.Jt и Pt=P\^t ~ сужения мер Р и Р на сг/р и пусть Q - третья вероятностная мера такая, что 1ос ~ loc «л Р« Q, P« Q, то есть при каждом t>0 меры Pt« Q,, Pt « Q,, где Q,= Q|^. Пусть h = dP. .f«=-§-,n(a)«l?iJ-a dQt 'u' dOt и H(a)t = EQYt - интеграл Хеллингера порядка a, O^a^l, между мерами Pt и Р,; символически: жа)-1Ша($Г^=/(^)а(^'),_а- Процесс У(а) = (yf(a))t^0 с Yt(a)=$t}~a является неотрицательным супермартингалом (по мере Q) класса D, и, согласно разложению Дуба ~ Мейера, найдутся такой Q-мартингал М(а) и такой возрастающий конечнозначный предсказуемый процесс Л (а) с Л(а)0 = 0, что У(а) = М(а) -Л (а). Для всякого ае(0, 1) найдется такой (единственный с точностью до Q-неразличимости) предсказуемый возрастающий процесс h(a) = (h(a)t)tz0 с Л(а)0 = 0, что Л(а) = /г-Л(а), где Г = = mf, r = ft.>0}U|[0l, f, = {j>0}U[0]l и Л(а)-У(а)_Л(а), то есть Жа), = ^ У(а)5 dhs(a). Этот процесс Л(а) называется процессом Х^ллинге- ра порядкаае(0, I), отвечающий мерам Р и Р. Если jc и %с - непрерывные мартингальные составляющие Q-мартинга- лов l и j, а v(j, j) - компенсатор меры скачков двумерного процесса (j, j), то справедлива следующая формула: Л (а), , _ а(1-а) | (!С, !С »L ^•<»с.»с> + <pefl+JL,i+Xj,v|,'I). где (j6, f), (jc, jc> - квадратич. характеристики jc и jc, a <JC, Jc) - квадратич. ковариация jc и jc; фа(*, #)=ar + + (1-o)y-A,_a. Примеры. 1) Если Q = (P + P)/2, toJ+J=2 и •ф«(l+^,-f)*v, 786 ХЕЛЛИНГЕРА rfp, 2) Если P « P и Zt = -~, то rfP/ Л(а)=«0-а) l ><zc zf| + 2 72 x ' + \a + (\-a)\\ + — z_ ♦ v^ и, в частности, 41Hi<^'>4{'-f *v Роль X. п. как «предсказуемой достаточной статистики» раскрывается следующими результатами. 1. Пусть ir/=V.r/(, х = х(о)) - марковский момент (то есть т^О и {i^t}e<r/t} t^0)\ тогда для того, чтобы РТ«РГ необходимо и достаточно, чтобы Р0« Р0 и Л(а)т А 0, aiO. г» *0С г» 2. Пусть Рос Р, тогда имеет место следующее обобщение альтернативы Какутани: для того чтобы Р « Р, необходимо и достаточно, чтобы Р(Л( 1/2)„<<*>) = 1, а для того чтобы Р±Р, необходимо и достаточно, чтобы P{h(\/2)oo<°o) = 0. Лит.: [1] Liptser R. Sh., Sh i ry ае v A. N.. On the problem of «predictable» criteria of contiguity. Proc. 4th USSR - Japan Symp., «Lect. Notes Math.», 1983, № 1021, p. 386-418; [2] ЖакодЖ., Ширяев А. Н., Предельные теоремы для случайных процессов, пер. с англ., М., 1994. А. Н. Ширяев. ХЕЛЛИНГЕРА РАССТОЯНИЕ (Hellinger distance) порядка а - простое вероятностное расстояние, определяемое равенством х(а; Р, Q)=jQq>a(pv, qy)d\J, 0<а<1, где фа(х, #)=аг-(1 -а)у-хау ~а, V - нек-рое вероятностное распределение на измеримом пространстве (Q, .«/), доминирующее вероятностные распределения Р, Q на том же пространстве [то есть Р « V, Q « V; такие меры всегда существуют, напр. V=(P+Q)/2], upy=dP/dV, q^^dQ/dV. X. p. может быть записано в виде т(а; Р, Q) = Ey<pa(pv, qy) = 1 - Ev р$ q[~a, где Ev - усреднение по мере V. Функция фа обладает следующими свойствами: <ра(х, у)^-0 для х, у^О, ФоА» у)->уНх = 0) =ф0(*, у) при aiO, Ф1/2(*, у) = (\/2ХЛ~-^)2, J—^ 4>\/2(х> У"> ^ Фа<*. У> ^ 8Ф1/2<*> УУ Это позволяет сопоставить X. р. с Хеллингера метрикой Х(Р, Q)=x(l/2;P, Q): •~~х(Р, Q)^x(a; P, Q)^8X(P, Q), 1 - a откуда следует, что x(a; P, Q) = 0oP = Q. X. р. при а* 1/2 метрикой не является, так как свойства симметрии и неравенства треугольника у него отсутствуют. Достоинства X. р. и связанного с ним интеграла Хеллингера порядка a tf(a; P, Q) = l-x2(a; P, Q) демонстрируются, в частности, следующими критериями абсолютной непрерывности (Q « Р) и сингулярности (QlP) распределения Q относительно Р: Q«Potf(a; P, Q)-H, aiO, Q±P«tf(a; P, Q)->0, aiO, Q±P<=>tf(a; P, Q)=0 для всех ae(0, 1), Q±Potf(a; P, Q) = 0 для нек-рого ae(0, 1).
В терминах интегралов Хеллингера выписываются также критерии таких свойств семейств вероятностных распределений Ри, G", л=М, как а) контигуальность (Q")A(P") [то есть Рп(Лп) -> -» 0 :=> Qn(A") -» О, П -» оо, Д" 6 .,/]; б) полная асимптотическая различимость (Q")a(P") [то есть существуют последовательности nk и Л^, А2,... такие, что Ря*(Ля)->1 и Q"*G4A)->0, fe->°°J. Именно: (Q")A(P") » Hm lim inf H(a, Pn, Qn) = 1, сЦО л->~ (Q")A(P")«lim lim inf Я(а; Р", Q") = 0, aiO я->оо (0")A(P")«lim inftt(a; P, Q) = 0 для всех а е (0, 1), (Q")A(P")<=>lim mftf(a; Р, Q) = 0 для нек-рого ae (0, 1). Л->оо Л. Я. Ширяев. ХЕНАНА - КУИННА КРИТЕРИЙ (Hannan - Quinn crite rion) - см. Параметрическая модель; выбор порядка. ХЕРСТА ЯВЛЕНИЕ (Hurst phenomenon) - ускоренный (по сравнению с тем, к-рый отвечает ряду xt независимых одинаково распределенных величин конечной дисперсии) рост приведенного размаха последовательности кумулятивных сумм временного ряда с ростом числа слагаемых. Это явление было обнаружено X, Херстом (см. [1], [2]), исследовавшим поведение приведенного размаха для 690 многолетних рядов годовых значений речного стока (начиная с реки Нил), уровня рек и озер, температуры и давления воздуха, толщин древесных колеи и слоев озерных отложений и т. д. Приведенный размах (#/5-статистика) ряда xt, £ = 0, 1, ..., ?1, определяется формулой max IV nxt~ux„)- mini} ^xf-ux„) " ~'=К"^" _цгч* 2 /- ч2 где x0 - 0, xn = n~ V" xt (аналогично определяется приведенный размах и для рядов xt, зависящих от непрерывного параметра t\ см., напр., [3], [4]). Можно показать, что если xt - это наблюденные значения последовательности независимых одинаково распределенных случайных величин конечной дисперсии, то асимптотически (при п -> оо) уп~ л1'2 (см. [3], [5]). Значения Vn обычно флуктуируют около значений функции сп , где с = const, a H чаще всего заметно превосходит 0,5 (в среднем значение Н оказалось близким к 0,74). Иногда величину Н называют параметром (или коэффициентом) Херста. Первые попытки объяснения X. я. при помощи замены ряда независимых одинаково распределенных случайных величин стационарной последовательностью (стационарным процессом с дискретным временем) xt оказались все неудачными (см.[6|). Дело в том, что для простейших стационарных процессов с конечным временем корреляции (конечной памятью), для к-рых Y°k=-ooB(k) = 2nf(0)<o° [где B(k) - корреляционная функция процесса xt, f(X) - его спектральная плотность], всегда # = 0,5 (см. [3]). Один из первых примеров модельного ряда, для к-рого имеет место X.я., был рассмотрен в [7], [8J,- это ряд xt при- ращеиий yt+i - yt дробного броуновского движения yv то есть автомодельного гауссовского процесса со стационарными приращениями, имеющего степенную структурную функцию D(t) = E(^_t-^)2 = C|t|2//, 1/2<Я<1. В этом случае xt - стационарный случайный процесс с несум- мируемой корреляционной функцией B(k) = 0,SC{\k+\\™ -2\k\2H +\k- l\2H), причем для него параметр Херста равен Н (об оценивании этого параметра по данным наблюдений см. [9J). Приложение указанной модели для описания речного стока и других гео- физич. временных рядов или же рядов флуктуации скорости в турбулентном потоке см. в [10], [4]. Ряд других примеров автомодельных временных рядов, для к-рых имеет место X. я. (в частности, рядов приращений нек-рых негауссовских процессов со стационарными приращениями и последовательностей независимых случайных величин с бесконечной дисперсией), указан в [3]. Х.я. имеет место и в случае рассмотренных в [И], [12] стационарных авторегрессии процессов дробного порядка, описываемых уравнением (1 -В) xt = at, 0<8< 1/2, где Вх =xt^t a at- последовательность независимых одинаково распределенных случайных величин с нулевым средним и конечной дисперсией а2; здесь /(X) = (afl2/27r)[4sin2V2r8, a tf = 8+1/2. X. я. может объясняться и нестационарностью временного ряда xt> к-рая присутствует во многих геофизич. рядах наблюдений (см., напр., [13], где приведен пример ряда вида xt = yt + mt> Vt ~ стационарный случайный процесс с ЕУ'=°- ХГ— Е^<+*=1Г~ вуш=°- то есть yt имеет нулевую память, ат(- зависящий от времени тренд, для к-рого имеет место X. я.). Лит.: [1] Hurst Н. Е., «Trans. Amer. Soc. Civil Engrs.», 1951, v. 116, p. 770-808; [2] его же, «Proc. Inst. Civil Engrs.», 1956, pi 1, v. 5, p. 519-90; [3] M and el brot В., Taqqu M., «Bull. Intern. Statist. Inst.», 1979, v. 48, book 2, p. 69-104; [4] HellandK., Van Atta C, «J. Fluid Mech.», 1978, v. 85, pt 3, p. 573-89; [51 Feller W., «Ann. Math. Statist», 1951, v. 22, p. 427-32; [6] Lloyd E.H., «Adv. in Hydrosci.», 1967, v. 4, p. 281-339; [7] Mandelbrot В., «С. г. Acad. sci>, 1965, t. 260, JSft 12, p. 3274-77; [8] Ma nde 1 brot В., Van Ness J. W., «SIAM Rev.», 1968, v. 10, p. 422-37; [9] DaviesR., Harte S., «Biometrika», 1987, v. 74, № 1, p. 95-101; [10] Mandel brot В., WallisJ., «Water Resources Res.», 1969, v. 5, № 2, p. 228-67; [11 ] Hosking J., «Biometrika», 1981, v. 68, № 1, p. 165-76; [12] Andel J., «Ky- bernetika», 1986, v. 22, № 2, p. 105-23; [13] К1 ernes V., «Water Resources Res», 1974, v. 10, № 4, p. 675-88. В. Е. Приаальский. ХЁФДИНГА МЕРА (Hoeffding measure) - см. Ранговая корреляция. ХИГГСА МОДЕЛЬ (Higgs model) - см. Калибровочная модель статистической механики. ХИ-КВАДРАТ КРИТЕРИЙ (chi-square test), критерий, - статистический критерий для проверки гипотезы #0, согласно к-рой случайный вектор частот v = (vt, ..., \k) имеет заданное полиномиальное распределение. Предложен К. Пирсоном (К. Pearson, 1903). Пусть проводятся п независимых испытаний, в каждом из к-рых может осуществиться один и только один из k несовместных исходов Ех> ..., Ek, и пусть vt - количество тех испытаний, в к-рых наблюдался исход £", (i=l, ..., k). В таком случае частоты v^ принимают неотрицательные значения nit в сумме равные п} а сам вектор частот v= (vj,..., vA) подчиняется полиномиальному распределению вероятностей p<v<=- ^-^-^ет^4--*' где pi - вероятность осуществления исхода Е{ в отдельном испытании. Вероятности р{ и частоты v, удовлетворяют условиям Р\+Р2+ ••• +РА=1» v1+v2+ ••• +Vk = n> ^i< n> EVi = npit Dv, = np-(1 -р{), coy (v,, v^npiPj. ХЕРСТА 787
Произведения пр{ называются средними или ожидаемыми значениями частот v,-. Если вероятности р{ неизвестны и лишь высказывается гипотеза Я0, согласно к-рой предполагается, что эти вероятности принимают заданные зна- (0) (0) (0)^п v4* (0) 4 чения: р^=р\\ ..., pk=pk , р{ >0, £.я1 р) = 1, то для проверки согласия этой гипотезы с наблюденными в результате эксперимента значениями v^ в математич. статистике рекомендуется критерий, статистика к-рого задается формулой *2 = 2t, к-«Р<0))7^0,=-«+Х*=1 v?M». Процедура проверки гипотезы Я0 заключается в сравнении экспериментального значения статистики X с выбранным по определенному правилу критич. значением х: если X ^х, то проверяемая гипотеза Я0 отвергается, если же X <х, то считают, что результаты наблюдений видимым образом не противоречат гипотезе Я0. Значение х определяют так, чтобы вероятность отвергнуть Я0, когда она верна, не превышала заданного уровня значимости а (0<а<0,5). Более того, для определенности часто считают, что х является наименьшим возможным значением дискретной статистики X , удовлетворяющим неравенству P{Xz^x\H0}^a. С) Для вычисления х по заданному а точным распределением статистики X пользуются весьма редко (как правило, лишь при малых значениях кип), так как это распределение устроено очень сложно. Обычно х заменяют приближенным значением х, к-рое получается в результате решения неравенства, аналогичного неравенству (*), с заменой левой части подходящим приближенным выражением. Основой таких аппроксимаций служит теорема Пирсона, современная формулировка к-рой гласит (см. [24]): если при п->°° все ожидаемые частоты пр\ стремятся к бесконечности, то независимо от изменения п, к и р{ (0) 8ир|Р{Х2^^|Я0}-Р^_1Ы| где Р*-!<*> = рЫ-!^*} = 7№ 1 Г 2(*-!>/2r((A_1)/2)J* - интеграл вероятностей xu-квадрат распределения с (к- 1) степенями свободы. Согласно [12], хи-квадрат аппроксимацией рекомендуется пользоваться, если min np\ *^5. Вообще говоря, эта теорема охватывает важный случай, когда число к событий Е{, ..., Ek неограниченно растет при неограниченном увеличении числа испытаний п, а са- (0) (0) ми положительные вероятности рК{ -pin зависят от я и могут стремиться к 0, когда к->°° при п->оо. Если все же (0) при этом выполняется условие mm npin -»<*>, то, как показано в [2], в данной ситуации имеет место нормальная аппроксимация предельного распределения статистики X , согласно к-рой suplof .x~*+1 )-P{X2<x\H(]}h-+ 0, где ф(-) - функция распределения стандартного нормального закона. Этой аппроксимацией на практике рекомендуется пользоваться, если к>30, min npin^5. i У. Кокран [12] и Дж. Ярнолд [11] существенно расширили область применения Х.-к. к., рассмотрев случай, когда уело- 788 ХИ-КВАДРАТ вие ттпр\п ->«> нарушается. Именно, пусть при постоянном fc>3 и неограниченном увеличении п положительные вероятности р\„ меняются так, что npin -> m, для i - 1, 2, . ., г; пр\п~*°° для * = r+l. r+2, ..., k, где wt, m2, ..., тг - положительные числа (это означает, что р±п -»0 при п-+°° для 1 = 1, 2, ..., г). Тогда при справедливости гипотезы H:pi = pln статистика X распределена в пределе при я-»<» как случайная величина I'tJUi-mf/mi + xl-r-v где U{ подчиняется закону Пуассона с параметром mv причем случайные величины Uv ..., Ur, Xk-r-\ стохастически независимы. Этой аппроксимацией предельного распределения статистики X рекомендуется пользоваться, если 5 r/Kmin npin <5, при этом число г равно количеству тех ожидаемых значений пр\п , к-рые меньше 5. Аналогичным образом построенный критерий типа Х.-к. к. используют также для проверки сложной гипотезы Я0 о принадлежности функции распределения Fix, 9), Ы<°°, независимых одинаково распределенных случайных величин Х{, ..., Хп семейству непрерывных функций {Fix; 0)}, 9 = = (9t, ..., 0m)T € 0с: IPm. Разбивая действительную ось точками х0<хх < ... <xk, Xq = -<*>, xk= +oo, на k (k>m) полуинтервалов ix0, x^] ixk-\> xk] таких, что при всех 0е0 для любого t=l, 2, ..., к р.(9) = Р{Х1Еим,д:1]|Я0}>0, Pi(0)+p2(9) + ••• +р^(9) = 1, наблюдают за вектором частот v=s(v1> ..., vk), получающимся в результате группировки случайных величин Xj Хп по построенным полуинтервалам. По вектору частот v строят квадратичную форму Пирсона x2(e) = I-=i lVi-npiW]2/nptW. Для проверки гипотезы Я0 пользуются статистикой X (9„), где 9П - статистич. оценка неизвестного параметра 0, вычисленная по методу минимума хи-квадрат, то есть X2(9J = mmX2(9). веЭ Если интервалы группировки выбраны таким образом, что все рД9)>0, а функции д р{&)/д&ид% непрерывны по 9 0 = 1, 2, ..., к; и, v= 1, 2, ..., т) и матрица \\др^)/дди\\ имеет ранг т, то, как показал Р. Фишер [20], в случае справедливости гипотезы Я0 статистика X (9„) имеет в пределе при и-»°о хи-квадрат распределение с k- m- 1 степенями свободы, чем и пользуются (см. [1], [7], [91, [15], [18], [24]) для проверки Я0 по Х.-к. к. Если в X (0) подставить оценку максимального правдоподобия 6„, вычисленную по негруппированным данным Xt, Х2, ..., Хп [то есть 6„ - точка максимума функции правдоподобия Ш) = ГР /XX,;9)/U;9) = ^- Н*;9)], то (см. [1!)]) в случае справедливости Я0 статистика X (9„) распределена в пределе при п -> °° как случайная величина % + &+---+%-m-t*b>&-m*---+l^f*-V где ^j, ..., ^-i - независимые нормально распределенные случайные величины с параметрами Е^=0, D£t = l, а числа ц{> .♦., \1т лежат между 0 и 1 и, вообще говоря, зависят от неизвестного параметра 0. Из этого результата Э. Лемана и Г. Чернова [19] следует, что использование хорошо изученных оценок максимального правдоподобия при применении
Х.-к к. в задаче проверки сложной параметрич. гипотезы, приводит к затруднениям, связанным с вычислениями нестандартного (в общем случае, зависящего от неизвестного параметра) предельного распределения. Именно результаты Р. Фишера [20], Э. Лемана и Г. Чернова [19] (см. также [3]-| 14], [21 ]—[24]) продемонстрировали неустойчивость предельного распределения стандартной статистики Пирсона, его зависимость от методов оценивания неизвестных параметров и привели в свою очередь к задаче построения так наз. обобщенных критериев типа хи-квадрат для проверки сложной параметрич. гипотезы, то есть таких критериев, статистики к-рых являются своеобразными модификациями стандартной статистики Пирсона и предельные распределения к-рых принадлежат классу хи-квадрат распределений. Такого типа критерии предложены, напр., в [4] для проверки нормальности, а также для произвольных непрерывных распределений с параметрами сдвига и масштаба; в [14] и [17] в задаче проверки гипотезы об однородности выборок; в [16] для проверки гипотезы о пуассоновости, биномиально- сти или отрицательной биномиальности наблюдений; в [6], [8]-[10], [21] при использовании произвольных VtT-состоя- тельных оценок неизвестного параметра; в [6], [13], [22] при применении оценок максимального правдоподобия. Вопросы мощности критериев типа хи-квадрат и выброса числа интервалов группировки данных изучались, напр., в [3]-[6], [10], [15], [23], [24]. Лит.: [1] Кендалл М., Стьюарт А., Статистические выводы и связи, пер. с англ., М., 1973; [2] Туманян С. X., «Теория вероятн. и ее примен.», 1956, т. 1, в. 1, с. 131-45; [3] Чибисов Д. М., там же, 1971, т. 16, в. 1, с. 3-20; [4] Никулин М.С., там же, 1973, т. 18, в. 3, с. 583-92; [5] ГринвудП., Н и кул ин М. С, в кн.: Проблемы теории вероятностных распределений, в. 10, Л., 1987, с. 49-71; [6] DrostF. С, «Centrum voor Wiskunde en Informatica», 1988, v. 48; [7] Крамер Г., Математические методы статистики, пер. с англ., 2 изд., М., 1975; [8] Джапаридзе К. О., Никулин М. С, «Теория вероятн. и ее примен.», 1974, т. 19, в. 4, с. 886-88; [9] Lauter H., Pine us R., Mathematisch-statistische Datenanalyse, В., 1989; [10] Mc С ill loch С. Е., «Communs Statist. P. A. Theory and Meth.», 1985, № 14 (3), p. 593-603; [11] YarnoIdJ.K., «JASA», 1970, v. 65, N° 330, p. 864-86; [121 Cochran W. G., «Ann. Math. Statist.», 1952, v. 23, № 3, p. 315-45; [13] Никулин M.C., «Теория вероятн. и ее примец.», 1973, т. 18, в. 3, с. 675-76; [141 его же, там же, 1979, т. 24, в. 2, с. 385-89; [15) Боровков А. А., там же, 1977, т. 22, в. 2, с. 375-78; [16] Больш е в Л. Н., Мирвали- ев М., там же, 1978, т. 23, в. 3, с. 481-94; [171 Большее Л.Н., Никулин М. С, «Сердика. Българско математическо списание», 1975, т. 1, с. 104-09; [18] Watson G.S., «Biometrics», 1959, v. 15, p. 440-67; [19] ChernoffH., LehmannE.L., «Ann. Math. Statist.», 1954, v. 25, p. 579-86; [20] Fisher R.A., «J. Roy. Statist. Soc», 1924, v. 87, p. 442-50; [21] Dudley R. M., в кн.: Banach center publication, v. 5, Warsz., 1979, p. 75-87; [22] Moore D. C, «JASA», 1977, v. 72, № 357, p. 131-37; [23] Kai len berg W. С. М., Oosterhoff J., Schriever B. F., «JASA», 1985, v. 80, № 392, p. 959-68; [24] Greenwood P.E., NikulinM.S., A guide to chi-square testing, N. Y., 1996. M. С. Никулин. ХИ-КВАДРАТ РАСПРЕДЕЛЕНИЕ (chi-square distribution), x -распределение, - непрерывное, сосредоточенное на (0, <*>) распределение вероятностей с плотностью (см. рис.) р(х)= * е-*/2*"/2-1, 2"/2Г(я/2) где п> 0 - целое, называемое числом степеней свободы. Х.-к. р. представляет собой частный случай гамма-распределения и обладает всеми свойствами последнего; является частным случаем типа III семейства Пирсона распределений. Функция распределения Х.-к. р. есть неполная гамма-функция, характеристич. функция выражается формулой f(t) = (1 -2itVn/2; математич. ожидание и дисперсия равны соответственно п и 2я. Семейство Х.-к. р. замкнуто относительно операции свертки. Х.-к. р. с и степенями свободы может быть выведено как распределение суммы Хл = ^1 + •••+^н квадратов независимых случайных величин Хи ..., Хп, имеющих одинаковое 0.4 0.3 0.2 0.1 2 Г*** 1) 0.08 0.06 0.04 0.02 . / 1 7ТТ \У А А ч ъ / L s~- \ \ ^ > ^ Ч ■vJ 2) 10 15 20 25 30 35 40 45 2) " 1V '" Плотности распределения хи-квадрат: 1) при (1) и = 2; (2) п = 4; (3) я = 6; и 2) при (1) я = 10; (2) я = 20; (3) я = 30. нормальное распределение с нулевым математич. ожиданием и единичной дисперсией. Эта связь с нормальным распределением определяет ту роль, к-рую Х.-к. р. играет в теории вероятностей и математич. статистике. Многие распределения определяются посредством Х.-к. р. Таковы, напр., распределение случайной величины длины случайного вектора (Xv ..., Хп) с независимыми нормально распределенными компонентами (иногда называемое хи-распределением; см. также Максвелла распределение, Рэ- лея распределение, Стьюдента распределение, Фишера F-распределение). В математич. статистике эти распределения вместе с Х.-к. р. описывают выборочные распределения различных статистик от нормально распределенных результатов наблюдений, и используют их для построения интервальных статистич. оценок и статистич. критериев. Особую известность в связи с Х.-к. р. получил хи-квадрат критерий, основанный на так наз. хи-квадрат статистике Пирсона. Имеются подробные таблицы Х.-к. р., удобные для статистич. расчетов. При больших п используют аппроксимации посредством нормального распределения: напр., согласно центральной предельной теореме, распределение нормированной величины (Хп ~ я)/^2тГ сходится к стандартному нормальному распределению. Более точна аппроксимация ?{х2п <*}-> Ф(42х~ -Ф>/2я-0 при я-><», где Ф(х) - функция стандартного нормального распределения. См. также Нецентральное хи-квадрат распределение. ХИ-КВАДРАТ 789
Лит.: [1] Крамер Г., Математические методы статистики, пер, с англ., 2 изд., М., 1975; [2] КеидаллМ., Сть юарт А., Теория распределений, пер. с англ., М., 1966; [3] Lancaster H., The chi-square distribution, N. Y. - [а. о.], 1969; [4] Большее Л. Н., Смирновы, В., Таблицы математической статистики, 3 изд., М., 1983. А. В. Прохоров. ХИЛЛЕ - ИОСИДЫ ТЕОРЕМА (Hille - Iosida theorem) - теорема, определяющая условия, когда линейный оператор является производящим оператором сжимающей полугруппы. Пусть X - банахово пространство и А - произвольный линейный оператор в X. Теорема. Для того чтобы оператор А был производящим оператором нек-рой непрерывной в X сжимающей полугруппы операторов Tt, необходимо и достаточно, чтобы: а) область определения DA оператора А была плотна в X; б) уравнение Xf-Af-g имело решение feDA для любого деХ и Х>0\ в) \\Xf-Af\\ ^ || VI для любых feDA, Х>0. Пусть Х+ - замкнутый конус (конус неотрицательных элементов) в X. Если из включения Xf-AfeX+, Х>0} вытекает включение fe X+, то и Ttfe X+ для fe X+. Лит.: [11 ХиллеЭ., Функциональный анализ и полугруппы, пер. с англ., М., 1951; [2] Иосида К., Функциональный анализ, пер. с англ., М., 1967; [3] Дынкин Е. Б., Марковские процессы, М., 1963; [4] ДанфордН., Шварц Т. Дж., Линейные операторы. Общая теория, пер. с англ., ч. 1, М., 1962. С. Е. Кузнецов. ХИМИЧЕСКИЙ ПОТЕНЦИАЛ (chemical potential) - см. Потенциал гиббсовского поля. ХИНЧИНА НЕРАВЕНСТВО для независимых функций (Khinchin inequality for independent random functions) - оценка L суммы независимых функций. Пусть fk - система независимых функций и для нек-рого р>2 sup II fk Тогда Если k\\Lp Ckfk \LP ,fQfk(t)dt = 0. 1/2 cl<2, arfc = sign sin 2 Kt - функции Радемахера nf(t) = £7, ckrk^> то для любого p > 0 где В = (04p) при p —> oo. Это неравенство было установлено А. Я. Хинчиным [1]. Точное значение Ах равно 1/VT. Аналог X. н. справедлив в банаховых пространствах (см. [4]). Существует такая константа С(р, q), 0<р, q<°°, что для любых элементов xk из банахова пространства В ХГ=,**'*(<) J, *Cip,q> ВII In IS^H-L Одно из многочисленных приложений X. н.: если то для почти всех наборов ± 1 функция £Т_ ± (a^cos kt + bksm kt) принадлежит всем Lp, р<<*> (См. [51). Лит.: [11 Хинчин A., «Math. Z.», 1923, Bd 18, S. 109-16; [21 Karl in S., «Trans. Amer. Math. Soc», 1949, v. 66, p. 44-64; [3J ГапошкинВ.Ф., «Успехи матем. наук», 1966, т. 21, в. 6, с. 3-82; [4] Кахан Ж.-П., Случайные функциональные ряды, пер. с англ., М., 1973; [51 Зигмунд А., Тригонометрические ряды, пер. с англ., т. 1, М., 1965. Е. М. Семенов. ХИНЧИНА СПЕКТРАЛЬНАЯ ФУНКЦИЯ (Khinchin spec tral function) - см. Безгранично делимое распределение. 790 ХИНЧИНА ХИНЧИНА ТЕОРЕМА (Khinchin theorem) - один из основных результатов теории предельных теорем для сумм независимых случайных величин Sn = XnX + ... +Х„П, слагаемые Xnj к-рых подчинены бесконечной малости условию. Х.т. утверждает, что класс возможных предельных распределений для Sn-An, где Ап - постоянные, совпадает с классом безгранично делимых распределений. Частный случай X. т. получен Г. М. Бавли [3]. См. также Больших чисел закон, Центральная предельная теорема. Лит.: [1[ Хинчин А. Я., Предельные законы для сумм независимых случайных величин, М.-Л., 1938; \2\ Гнедснко Б. В., Колмогоров А. Н., Предельные распределения для сумм независимых случайных величин, М.-Л., 1949; [3] Бавли Г. М., «Матем. сб.», 1936, т. 1 (43), с. 917-30. В. М. Золотарев. ХИНЧИНА ТЕОРЕМА в теории систем обслуживания (Khinchin theorem in the queueing theory) - 1) Х.т. о существовании параметра: X=\\m -Р{у(Д)>0} Д->0 А для числа у(Д) событий стационарного потока в интервале длины Д (для указанного предела не исключается значение +*>). 2) X. т. об общем виде пуассоновского потока - см. Пуассо- новский поток; ведущая функция. 3) Х.т. об общем виде стационарного потока без последействия: в вызывающие моменты, образующие простейший поток, появляются независимые одинаково распределенные группы требований. Лит.: [\] Гнеденко Б. В., Ковал ен ко И. Н., Введение в теорию массового обслуживания, 2 изд., М., 1987. И. Н. Коваленко. ХИНЧИНА ТЕОРЕМА в теории стационарных случайных процессов (Khinchin theorem in the theory of stationary random processes), Винера - Хинчина теорема, - утверждение о том, что совокупность всевозможных корреляционных функций B(i) = EX(t + x)X(t)y непрерывных в среднем квадратичном стационарных случайных процессов Х(0, -oo<t<00> совпадает с совокупностью функций, допускающих представление вида eixXdF(X), B(t)=L _ (1) где F(X) - ограниченная монотонно неубывающая действительная функция, обычно называемая спектральной функцией процесса X(t). В такой форме X. т. была доказана А. Я. Хинчиным в 1934 (см. [1]), но еще в 1930 Н. Винер (N. Wiener; см. [2]) ввел в рассмотрение класс (неслучайных) комплексных функций x(t)y -оо<г<оо, таких, что lim — Г x(t + x)x(t)dt = B(x) (2) существует и является непрерывной функцией т, и при этом получил для функции В(х) [с вероятностью 1 совпадающей с EX(t+x)X(t) в случае, когда х(0 - это реализация эргодич. стационарного процесса Х(г)] представление (1). Н. Винер показал, что F(X2) - F(X^) можно интерпретировать как вклад интервала [Хи Х2] оси частот X в «интенсивность» (энергию или мощность) колебания x(t). Однако само задание функции x(t) в виде суперпозиции гармонич. колебаний частот X имело у него сложный и малонаглядный вид, к-рый удалось упростить лишь после перехода от индивидуальных реализаций xii) к случайному процессу X(t) (см. Стационарный случайный процесс и Спектральное разложение случайной функции). В важном частном случае, когда функция В(т) достаточно быстро убывает при |т| —>°° и поэтому допускает разложение в интеграл Фурье, Х.т. сводится к утверждению, что преобразование Фурье f(X) корреляционной функции В(х) стационарного процесса всегда неотрицательно, причем f(X)dX определяет вклад малого частного интервала dX в энергию колеба-
ний x(t). В этой последней форме Х.т. была еще в 1914 доказана А. Эйнштейном [3], работа к-рого не была в то время оценена, а вскоре и окончательно забыта (см. [4], [5], где можно найти и русский перевод статьи [3]). Если x(t) - это колебание какой-либо доступной измерению физич. величины, то распределение энергии этого колебания по спектру частот можно измерить при помощи спектрального анализатора - набора полосовых фильтров, соединенных с ваттметром. Так как функцию В(х) при этом можно определить с помощью осреднения по времени значений x(t + x)x(t) (см. Корреляционная функция', оценивание), то X. т. на практике часто допускает экспериментальную проверку. Такая проверка многократно производилась многими исследователями и всегда приводила к согласию теории с опытом (см., напр., [6]). Перенос Х.т. о стационарных процессах на случай стационарных последовательностей X(t), t = 0, ±1, ±2, ..., был осуществлен Г. Волдом [7]. В этом случае пределы интегрирования -оо и оо в (1) надо заменить на -к и п. Лит.: [\] Хинчин А.Я., «Успехи матем. наук», 1938, в. 5, с. 42-51; [2] Винер Н., Интеграл Фурье и некоторые его приложения, пер. с англ., М., 1963, гл. 4; [31 Einstein A., «Arch. Sci. Phys. Natui.», 1914, Ser. 4, t. 37, p. 254-56; [4] ЯгломА.М., «Пробл. передачи информ.», 1985, т. 21, в. 4, с. 101-07; [5] его же, в кн.: Эйнштейновский сборник. 1982-1983, М., 1986, с. 25-56; [6] его же, Корреляционная теория стационарных случайных функций, Л., 1981, с. 145-46; [71 Wold H., A study in the analysis of stationary time series. Uppsala, 1938. A.M. Яглом. ХИНЧИНА ТЕОРЕМА о разложении (факторизации) (Khinchin factorization theorem) - один из важнейших результатов вероятностных распределений арифметики. Распределение Н называется неразложимым, если из представления Н-НХ*Н2 следует, что Hk, k- l, 2, или само является нек-рым вырожденным распределением Еа, или представляет собой свертку вида Н*Е_а. Распределение G относится к классу Линника /0, если оно не имеет неразложимых компонент. Теорема Хинчина ([1], см. также [2J) утверждает, что каждое распределение F представляется в виде F = G*F{*F2*..., где Ge/0 и Ft, F2,... - неразложимые распределения (как G, так и Fk могут быть вырожденными). Лит.:[\] Хинчин А. Я., «Бюлл. МГУ. Секц. А», 1937, т. 1, в. 1, с. 6-17; [2] ЛинникЮ. В., Островский И.В., Разложения случайных величин и векторов, М., 1972. В. М. Золотарев. ХИНЧИНА ФОРМУЛА (Khinchin formula) - см. Виртуальное время ожидания, Обслуживания система с ожиданием и одним каналом. ХИНЧИНА - КОЛМОГОРОВА ТЕОРЕМА (Khinchin - Kolmogorov theorem) - см. Радемахера последовательность. ХИ-РАСПРЕДЕЛЕНИЕ (chi-distribution), Х"Р а с п Р е Д е - лени с, сп степенями свободы - непрерывное, сосредоточенное на (0, °°) распределение вероятностей с плотностью (см. рис.) plx) = - * -V*2/2, 2"/2"1 Г(я/2) " и>0. Характеристич. функция ло=т^т1;=0^г((Я+л)/2). Моменты rnk-'l ' T((n + k)/2)/r(n/2); в частности, матема- тич. ожидание й дисперсия равны соответственно Лг((я + 1)/2)/Г(я/2) и я + (2-Л)Г ^^l • Если X Х„ независимые случайные величины, имеющие стандартное нормальное распределение, то величина = 1Х2 имеет Х.-р. с п степенями свободы. При я = 2 Х.-р. сводится к Рэлея распределению, а при п = 3 - к Максвелла распределению. д/. И. Войцеховский. С, 1 1 1 1 1 1 1 1 1 1 Ш 1 ьжин л1л N U иш1ш .5 1.0 1.5 2.0 2.5 3.0 3.5 4.0 4.5 Плотность хи-распределения при (1) п= 1; (2) я = 3; (3) п = 10. ХИ-РАСХОДИМОСТЬ (chi-divergence) - см. Информационная мера. ХИЦУДЫ - СКОРОХОДА КОНСТРУКЦИЯ (Hitsuda - Skorohod construction) - см. Расширенный стохастический интеграл. ХОДЖЕСА ОЦЕНКА (Hodges estimator) - см. Сверхэффективная оценка. ХОЛЛА ТЕОРЕМА (Hall theorem) - см. Комбинаторный анализ. ХОЛЬТА - УИНТЕРСА МОДЕЛЬ (Holt - Winters model) - усовершенствованный Брауна метод прогнозирования. Прогноз процесса Xt в момент t на k единиц вперед при линейном тренде вычисляется в соответствии с Х.-У. м. по формуле Xt+k = {aQ(t) + ai(t)k}s(t + k- L), где s(t) - периодич. функция, L - число точек ряда, наблюдаемых в течение одного периода (напр., если данные собираются ежемесячно в течение годового периода, то L = 12). Пересчет функций a0(t), a^(t), s(t) в каждый момент времени производится по формулам e0W = Pi + [(\-${){a0(t-\) + a{(t-\)}], s(t - L) a{(t) = $2{a0(t)-a0(t-\)} + (\-$2)ai(t-\), где pt, P2> Рз " параметры модели, к-рые предварительно нужно оценить или задать. Лит.: [1] Holt С, «Carnegie Inst. Tech. Res. Mem.», 1957, № 2; [2] Winters P., «Manag. ScU, 1960, v. 6, p. 324-42; [3) Кен- дэл М., Временные ряды, пер. с англ., М., 1981. Ю. Г. Баласанов. ХОТЕЛЛИНГА КРИТЕРИЙ (Hotelling test), ^-критерий, - статистический критерий, предназначенный для проверки гипотезы Н0, согласно к-рой истинное значение неизвестного вектора ц= (щ, ..., ц^)7 математических ожиданий невырожденного ^-мерного нормального закона N"(|i, В), ковариационная матрица к-рого В тоже неизвестна, есть вектор |i0= ((110, ..., \1ро) . X. к. основан на следующем результате. Пусть Л"|, ..., Хп- независимые ^-мерные случайные векторы, п-\^р, подчиняющиеся невырожденному нормальному закону Ы(\1, В), и пусть где 1 ХИНЧИНА 791
- оценки максимального правдоподобия для неизвестных параметров [I и В. Тогда статистика pin- 1) имеет нецентральное Фишера F-распределение с р и п-р степенями свободы и параметром нецентральности п(^-^0)тВ~\^-[10); статистика Т имеет Хотеллинга Т -распределение. Следовательно, для проверки гипотезы tf0:|i = |i0 против альтернативы Нх:\\.ф\\.ъ можно по реализациям независимых случайных векторов Х{, ..., Хп, подчиняющихся невырожденному ^-мерному нормальному закону N(\i, В), вычислить значение статистики F, края при справедливости гипотезы //0 имеет центральное F-распределение с р и п-р степенями свободы. Согласно X. к. с уровнем значимости а, гипотезу HQ сле~ дует отвергнуть, если F^Fa(p, п-р), где Fa(p, п-р) - верхняя а-квантиль F-распределения. Следует отметить связь, существующую между X. к. и критерием отношения правдоподобия. Пусть L(\L,B) = UXv...tXn;\LtB) = _ \в\-»12 ■«р{-у1;в1и|-л)тв-1и|.-ц) (2тс)^/2 - функция правдоподобия, вычисленная по выборке Х{, ..., Хп. Критерий отношения правдоподобия для проверки сложной гипотезы //0:|i = |i0 против сложной альтернативы Н{: |1 ф |i0 построен на статистике \ = UXV ..., XJ-supLC^iQ, B)/sup Lip, В). В \l,B Между статистикой X и статистиками Т и F существуют следующие отношения: X2/"=(n-\)/(T2 + n-\) = (n-p)/(pF + n-p). Для проверки гипотезы #0:|i = |i0 X. к. является равномерно наиболее мощным среди всех критериев, инвариантных относительно преобразований подобия (см. Наиболее мощный критерий, Инвариантный критерий). Лит.: [1] Андерсон Т., Введение в многомерный статистический анализ, мер. с англ., М., 1963; [2} РаоС. Р., Линейные статистические методы и их применения, пер. с англ., М., 1968. М. С. Никулин. ХОТЕЛЛИНГА ^-РАСПРЕДЕЛЕНИЕ (Hotelling redistribution) - непрерывное, сосредоточенное на (0, °°) распре- деление вероятностей с плотностью ( . _ Г((п+\)/2)хк!2-Ч\+х/пГ(л+]У2 Р Х Г((л-*+1)/2)Г(/г/2)и*/2 где параметры nwk,n^k^\, называются степенями свободы. При k= 1 X. Г -р. сводится к Стьюдента распределению, а при любом k>\ может рассматриваться как многомерное обобщение распределения Стьюдента в следующем смысле. Если fc-мерный случайный вектор У имеет нормальное распределение с нулевым вектором средних и ковариационной матрицей I и если 5=_Ly" z}zit где случайные векторы Zi независимы между собой и от У и распределены так же, как У, то случайная величина Т = = У S~ У имеет X. Г -р. с п степенями свободы (У- вектор-столбец, а - транспонирование). Если k-\, то х> ■=tt 792 ХОТЕЛЛИНГА 0.08 0.06 0.04 0.02 шш 10 12 14 16 18 Плотности распределения Хотеллинга при л = 10 и (t) fc = 5; (2) * = 6; (3) * = 7. где случайная величина tn имеет распределение Стьюдента с п степенями свободы. Если при определении случайной величины Т допустить, что У имеет нормальное распределение с параметрами (v, I), то соответствующее распределение будет называться нецентральным X. Т -р. с п степенями свободы и параметром нецентральности v. X. Г -р. используют в математич. статистике в той же ситуации, что и ^-распределение Стьюдента, но только в многомерном случае. Если результаты наблюдений Х{, ..., Хп представляют собой независимые нормально распределенные случайные векторы с вектором средних |i и невырожденной ковариационной матрицей I, то статистика где Т2 = п(Х-\1)тЗ-*(Х-\1), имеет Х.Г'-р. с л-1 степенями свободы. Этот факт положен в основу Хотеллинга критерия. Для численных расчетов используют таблицы бета-распределения или F-распределения Фишера, поскольку случайная величина -— Т имеет п F-распределение с k и п - k + 1 степенями свободы. См. также Т -статистика. Лит.: [1) Hotelling H., «Ann. Math. Statist.», 1931, \. 2, p. 360-78; [2] Андерсон Т., Введение в многомерный статистический анализ, пер. с англ., М., 1963. А. В. Прохоров. ХОТЕЛЛИНГА ^-СТАТИСТИКА (Hotelling Г2 statistic) - см. Т -статистика. ХРЕБТОВАЯ РЕГРЕССИЯ (ridge regression), гребне пая регрессия, ридж-регрессия,- наиболее распространенная схема введения искусственного смещения в оценку метода наименьших квадратов для улучшения ее вычислительных и статистических свойств. Соответствующие оценки часто называются ридж-оценками. См. Гребневая регрессия. А. В. Мцкша нов. ХРЕБТОВАЯ ФУНКЦИЯ (ridge function) - функция f(z), аналитическая в полосе {г: а < Im z < b), a < 0 < b, и удовлетворяющая в ней неравенству |/(*)| < |/"(ilnw)|. Характеристич. функции вероятностных распределений, достаточно быстро убывающих на бесконечности, составляют собственный подкласс класса X. ф. X. ф. часто применяют для редукции задач о разложениях безгранично делимых распределений к задачам теории анали- тич. функций. Лит.: [1] ЛинникЮ. В., Островский И. В., Разложения случайных величин и векторов, М., 1972. И. В. Островский. ХЭММИНГ ОКНО (hamming window) - см. Корреляционное окно.
ЦЕЛЕНАПРАВЛЕННОЕ ПРОЕЦИРОВАНИЕ много мерных данных (projection pursuit of multivariate data) - совокупность методов статистической обработки данных, используемых на стадии разведочного статистического анализа и основанных на применении линейных проекций исходных дапьых. Термин «Ц. п.» был введен Дж. Фридманом и Дж. Тыоки [1 ]. Методы Ц. и. являются естественным обобщением классич. методов многомерного статистического анализа, таких, как факторный анализ, главных компонент ана лиз, линейный дискриминантпый анализ и т.д. \\.\\. можно рассматривать и как один из подходов к предварительному снижению размерностей пространства переменных, напр., для ile.'ien кластер-анализа. Пусть имеется выборка Хп =(Х}, ..., Хп) из ^-мерных наблюдений объема п. Когда размерность р>3, а априорная информация о физич. модели генерации данных недостаточна или отсутствует, можно попытаться использовать технику Ц. и , чтобы получить представление об особенностях структуры данных. Техника Ц. п. основана на визуальном анализе «интересных» ^-мерных линейных проекций (отображений) Z =ЛТЛ исходных данных. Более формально, пусть U есть ^-мерный вектор, задающий одномерную проекцию, и Q(V, X ) - выборочное значение нек-рого проекционного индекса, определяющего «интересность» проекции. В соответствии с Ц. п. обычно используют последовательный (пошаговый) подход для получения нек-рого числа q проекционных векторов U\, ..., U Сначала определяют вектор U как решение максимизационной задачи c/ = argmax Q(U, X(n)). (1) и Далее каждый последующий вектор находят из (1), но при дополнительном условии, что влияние ранее найденных векторов тем или иным способом учтено (иногда, но не всегда: напр., достаточно условия попарной ортогональности векторов U\, ..., Uq). Таким образом может быть определена '/-мерная проекция Z-A X, где столбцы матрицы А суть векторы 1\, ..., U Рассматриваемые в Ц. п. методы естественным образом делятся па два класса в зависимости от размерности пространства, куда отображаются данные. Если 7=1, 2 (в крайнем случае 3), то методы в первую очередь относятся к собственно разведочному анализу, когда по нек-рому проекционному индексу при помощи вычислительной процедуры оптимизации ищутся отображения, дающие наиболее выразительные проекции, а окончательное решение принимается визуально путем анализа, напр. на экране дисплея, гистограмм отображенных данных для q=\ или их диаграмм рассеивания для q-2. Здесь наибольший успех можно ожидать в задачах выделения аномальных наблюдений, разделения смесей, кластеризации, то есть когда имеется явно выраженная структура. Однако в нек-рых случаях данные так сложны, что небольшого числа проекций будет недостаточно для их представления, и возникает задача описания структуры этих данных на основе агрегирования информации, содержащейся в достаточно большом числе таких низкоразмерных проекций. Типичной задачей такого класса является задача восстановления плотности многомерной случайной величины, нек-рые конфигурации расположения классов в дис- криминантном анализе и т. п. Ниже приведены нек-рые проекционные индексы. Проекционные индексы, подходящие для обнаружения кластеров. С этой целью можно использовать однопарамет- рич. семейство проекционных индексов вида Qp(U, X)=s*EffHz) (P>0), (2) где Е/- - оператор математич. ожидания по плотности f(z), f(z) - плотность одномерной проекции z~UTX, Qa(U, X) означает «теоретическое» значение проекционного индекса в отличие от выборочного Q$(U, X ), s - дисперсия z. Оценка значений (2) по выборке для одномерных проекций z-U X производится с помощью непараметрич. методов. Широко используют в Ц. п. энтропийный критерий Q(U, X) = -Ef\nf(z) + \ns, (3) к-рый можно рассматривать как предельную форму (2) при р->о. Для поиска проекции по критериям (2), (3) можно применять пошаговую оптимизацию с использованием условия S-op- тогональности (S - матрица ковариаций или ее оценка). Проекционные индексы, подходящие для обнаружения аномальных наблюдений. В качестве такого проекционного индекса можно использовать критерий Q(U,X(n))=s2(U)/s2rob(U), где s (U) - обычная оценка дисперсии в одномерной проекции, srob(U) - нек-рая устойчивая оценка параметра масштаба. Лит.: [1] Friedman J. H., Tu key J. W., «IEEE Trans. Compt., v. C-23», 1974, № g, p. 881-90; [2] HuberP.J., «Ann. Statist.», 1985, v. 13, p. 435-75; [3] Енюков И. С, Методы, алгоритмы, программы многомерного статистического анализа, М., 1986. И. С. Енюков. ЦЕНА (value) - см. Управляемый скачкообразный процесс, Управляемый диффузионный процесс. ЦЕНА игры (value of a game) - см. Игра двух лиц. ЦЕНА модели (value of a model) - см. Управляемая цепь Маркова, Управляемый случайный процесс с дискретным временем. ЦЕНЗУРИРОВАНИЕ (censoring) - см. Усеченная выборка, Цензурированная выборка. ЦЕНЗУРИРОВАННАЯ ВЫБОРКА (censored/trimmed sample), цензурирование типа II, часть вариационного ряда, построенного по повторной выборке Хх, ..., Хп из распределения F. Выборка цензурирована справа (слева), если наблюдаются лишь гх наименьших (г2 наибольших) членов вариационного ряда. Выборки с двойным ЦЕЛЕНАПРАВЛЕННОЕ 793
цензурированием (цензурированные справа и слева) используют, напр., для получения оценок и статистич. критериев, устойчивых к изменениям хвостов функции распределения F. Если F абсолютно непрерывна с плотностью f и Хп(/г,), 1 <k\ <... < ki<n,- kj-e порядковые статистики, то при условии Хп(к}) ~xif X] < ... <дг/, вариационный ряд разбивается на условно независимые отрезки ХЯ(ЛМ + 1),..., Х„(/г,- 1), i= 1, ..., /+ 1, построенные соответственно по независимым повторным выборкам объемов k^- fcM - 1 из распределений, сосредоточенных соответственно на интервалах (#,•_!, x^) с плотностями f/[F(x{) - F(*M)], FixJ^Fix^i); здесь£0 = 0, Л/+1=н + 1, FU0) = 1-FU/+1) = 0. Лит.: [1] Кен да л л М., С тьюарт А., Статистические выводы и связи, пер. с англ., М., 1973; [2] Кудлаев Э. М., «Теория вероятн. и ее примен>, 1973, т. 18, в. 3, с. 655-62; [3] Halperin М., «Ann. Math. Statist.», 1952, v. 23, p. 226-38; [4] Sarhan A. E., Green- berg B. G. (eds.), Contributions to order statistics, N. Y. - L., 1962; [5] Dixon W.J., YuenK.K., «Statist. Hefte», 1974, Bd 15, № 3, S. 157-70. Э.М. Кудлаев. ЦЕННОСТИ ФУНКЦИЯ (value function) - решение сопряженной задачи переноса для уравнения /4««<р = \|/, сопряженного стационарному линейному кинетическому уравнению переноса Af=g относительно скалярного произведения (f, \|/) = = f(x)\y(x)dx. Из тождества (д, <р) = (f, y) = Iy(f) вытекает, что значение <р(*0) равно Iy(f0) для решения f0 кинетич. уравнения при д(х) = 8(дг- х0). При произвольной плотности д(-) источников по линейности кинетич. уравнения <р(лг) определяют вклад окрестности х в функционал Iy(f), то есть ценность частицы в точке х [по отношению к /»,(■)]. Ц. ф. играют важную роль в теории возмущений, их используют для ускорения расчетов, в том числе для моделирования по ценности в методе Монте-Карло. Лит.: [11 МарчукГ. И., Лебедев В. И., Численные методы в теории переноса нейтронов, 2 изд., М., 1981; [2) Спанье Дж., Гелбард Э., Метод Монте-Карло и задачи переноса нейтронов, пер. с англ., М., 1972; [3] М арчу к Г. И. [и др.], Метод Монте-Карло в атмосферной оптике, Новосиб., 1976. Ю. К. Кочубей. ЦЕНТИЛЬ (centile) - см. Перцентиль. ЦЕНТР случайной величины (centre of a random variable), центр распределения,-числовая характеристика распределения случайной величины X, определяемая на основе соответствующей характеристической функции fx(t)'- Cr(X)=j{Q \m\ogfx(rt)ii(dt)/r\l t\i(dt), где [i - нек-рая мера, для к-рой интеграл в знаменателе конечен и г - положительное число, меньшее индекса случайной величины Д(Х). Понятие «Ц.» введено в [1]. Ц. обладает рядом свойств математич. ожидания, в частности аддитивен для сумм независимых случайных величин. Он непрерывен в топологии слабой сходимости, и ему присущи нек-рые свойства медианы вероятностного распределения. Случаю, когда мера \i вырождена в точке t = 1, соответствует так наз. легкий центр, а случаю меры \i(dt) = dt - тяжелый центр. Ц. и его обобщения в многомерном случае оказываются полезным инструментом в моделях суммирования случайных величин и векторов (см. [2J, [3]). Лит.: [1] Золотарев В. М., «Докл. АН СССР», 1970, т. 194, № 5, с. 1010-12; [2] Круглое В.М., «Теория вероятн. и ее прямей.», 1972, т. 17, в. 2, с. 209-27; [3] Золотарев В. М., Современная теория суммирования независимых случайных величин, М., 1986. В. М. Круглое. ЦЕНТРАЛЬНАЯ ПРЕДЕЛЬНАЯ ТЕОРЕМА (central limit theorem) - собирательный термин, относящийся к представителям обширного семейства предельных теорем, отличитель- 794 ЦЕННОСТИ | ной чертой к-рых является использование (в качестве предельного) нормального распределения или какого-либо его аналога, естественного для рассматриваемой модели. Обычно это указывает на то, что модель представляет собой схему суммирования или соответственно «обобщенного суммирования» (возможно, в асимптотич. смысле) независимых случайных величин. Классич. предельные теоремы этого семейства: Му- авра - Лапласа теорема, Ляпунова теорема и Линдеберга - Феллера теорема. Все они связаны со схемой нарастающих сумм 5'„ = Х1 + ... +Хп независимых случайных величин со значениями из И? , линейно преобразуемых с помощью нек-рых постоянных Ап и Вп>0, выбором к-рых можно распоряжаться: Zn = B;\Xi + ... + Xn)-An, н=1, 2, ... Для функций распределеня Fn этих сумм в качестве асимптотич. приближения при п ->«> используется функция распределения стандартного нормального закона и устанавливается, что при определенных предположениях в отношении распределений слагаемых Х} I p(f„, 0) = sup|F„Cr)-OCr)| -+0, п^юо. I х С начала 20-х гг. 20 в. Ц. п. т. стали рассматривать в рамках более общей конструкции (см., напр., [2|) сумм случайных величин Хп?-, образующих серий схему Z„ = XnS+Xn2 + ...-A„,n=\,2 (1) где Ап - действительные постоянные. В каждой предельной теореме, связанной со схемой (1), речь идет об исследовании асимптотич. поведения многократных сверток F„(x) = (Fnt*Fn2'...)(X + An), то есть весьма сложных и громоздких в аналитич. отношении I объектов. Вплоть до начала 20 в., когда стал известен создан- I ный А. М. Ляпуновым характеристических функций метод, задача распространения теоремы Муавра - Лапласа на более широкий класс случайных слагаемых представлялась чрезвычайно сложной, вполне сравнимой с такой, напр., задачей, как распределение простых чисел. П. Л. Чебышев, успешно справившийся с этой задачей, все же не сумел преодолеть все трудности, возникшие при попытке доказать Ц. п. т. типа I теоремы Ляпунова. Привлечение характеристич. функций fn, | fn:} g, рассматриваемых распределений Fn, Fn. и Ф позволило I свести доказательство неограниченного приближения Fn к Ф при п -><*> к доказательству того, что fnU)=fnlU)fn2(t)...e'itAn^gU) = e-^ для каждого действительного t. Поскольку нормальное распределение непрерывно, то в Ц. п. т. можно на равных условиях использовать как топологию слабой, так и сильной сходимости распределений (то ость как Леей метрику L, так и равномерную метрику р). Пусть Fn, Fn: - функции распределения случайных величин Znl Xnj соответственно. Вплоть до 60-х гг. в классич. моделях число слагаемых в суммах Zn предполагалось конечным, и хотя отказаться от него нельзя тогда, когда мы имеем дело со схемой нарастающих сумм Sn, в общей ситуации, ничего не меняя по существу, можно считать, что Zn суть сходящиеся ряды независимых случайных величин. I В модели Колмогорова, в к-рой слагаемые подчинены бесконечной малости условию: для любого е > 0 I s up [ Р {| Х„у | > е}: > ^ 11 -> 0, я-»-, (2)
наиболее общий критерий сходимости Fn к Ф состоит в следующем. (Он является частным случаем общего критерия сходимости к произвольному безгранично делимому закону G(x, у, W), определяемому характеристиками yelR1, W = XG} где; X^OnG - нек-рая функция распределения; этот критерий приводится в ст. Предельные теоремы (см. также [4]; в [1] содержится его традиционная форма).] Пусть в (1) постоянные Л„ = С1(ЛЯ|) + С1(Ля2) + ..., где Сх(Хп}) - центры случайных величин Xnj, существующие при всех достаточно больших п благодаря (2). Вводятся функции F„/r) = F„/(^ + C1(X„;)) Функции Ф соответствуют определяющие ее характеристики у= О, W = EQ} через Е0 обозначено распределение, вырожденное в нуле. Из упомянутого общего критерия следует, ЧТО ПрИ П -» оо L(Fn, Ф) -» 0 *=> UWnt Е0) -» 0. (3) Кроме того, в силу непрерывности предельного закона UF„, Ф)-► 0 <=> p(Fn, Ф)-»0. Условие (3) равносильно тому, что для каждого е>0 при ^/|,|>е^/л)-0- (4) lyJixl*.*2^-^-»1- (5) При наличии исходного условия (2) условия (4), (5) обеспечивают как существование предельного закона для F„, так и то, что этим законом будет Ф. Если же факт существования предельного распределения обусловливается дополнительно, то критерием сходимости к нормальному закону (возможно, нестандартному) является одно лишь условие (4), к-рому с учетом (2) можно придать форму усиления последнего: для любого е > 0 P{sup |Хя>|>е}->0, я-»- (6) (теорема Хинчина). Выбор постоянных Ап, центрирующих суммы случайных величин в (1), представляет самостоятельную проблему, решение к-рой шло различными путями (см. [4]). Наиболее простой является ситуация, когда А' ■ имеют конечные моменты, а число их в Zn конечно, тогда можно выбрать Лп~^. EXnJ и оперировать с F-{x)~ = FniU + EXnj). Специфический для предельного нормального закона вид условия (6) тесно связан с так наз. экстремальным критерием (см. [12]). При отказе от условия (2) критерий сходимости Fn к Ф несколько усложняется (см. [4]). Именно, пусть GnXx) = = Ф(х/ЬпЛ, /^1,- нормальные распределения с нулевыми средними значениями и дисперсиями 6 , Ьп\ + Ьп2 + ... = 1. Это означает, что Ф = Gnl * Gn2* ... Пусть К - множество всех наборов распределений vn = {Gnj:j> 1} и функции Лп(х) образованы следующим образом: •1n«=X/H777t/G"/(a)'">1- Тем же способом по наборам un-{Fn-\j^ 1} образуются функции .Мп(х). Пусть также ц(ия, a„) = sup L(FnJt Gaj) + ZU„, Л')- Критерий сходимости p(F„, Ф) —>0, п—><*>, состоит в том, что должны существовать наборы v* из К, для к-рых \i(unt v*) -»0, п-±°о. Роль условия (2) в этом критерии берет на себя условие a„ = sup L(Fnj, G*;)->0, и-►<*>, означающее, что для распределений F ■ из наборов ип можно подобрать (равномерно по /) приближающие их распределения Gn; из соответствующих наборов v*. Однако в отличие от (2) это условие является уже необходимым для асимптотич. сближения Fn и Ф. Если слагаемые XnJ- имеют конечные первые и вторые моменты, то критерий существенно упрощается (см. Линдебер- га - Феллера теорема). Ц. п. т. охватывает наиболее часто встречающиеся в приложениях случаи. В связи с этим ее уточнениям и построению разнообразных аналогов уделялось много внимания: изучались сходимости в топологиях, отличных от слабой и равномерной, оценки скорости сходимости, асимптотич. разложения, поведение вероятностей больших уклонений и др. (см. [3], [4]). Примеры. Пусть Х{, А2,... - независимые случайные величины с общей функцией распределения F и характери- стич. функцией f. В суммах (1) Xnj = Xj/Bn; Ап и Вп>0- постоянные. Ниже рассмотрены топологии сходимости, порождаемые полной вариации метрикой о, метрикой WFx,FY)-sup\Mt)-fylt)\, t где fx - характеристич. функция распределения Fx, и L -метрикой. \) \q(F]V Ф)->0, и->°о, тогда и только тогда, когда A(Fw,O)->0h lim sup|/40|<l (см. [4]). 2) o(Fn, Ф) -> 0 тогда и только тогда, когда L(Fn, Ф) ->0 и и-кратная свертка F*n(Fn(x) = F*n((x + An)Bn)) при нек-ром значении п имеет в Лебега разложении абсолютно непрерывную составляющую (см. [6]). 3) Пусть /;> 1/2, тогда при п -><*> Lp(Fn, Ф)=\ \Fn(x)-<b(x)\pdx^be>v(Fn, Ф)-»0 (см. [5]). Для более общей ситуации, когда вместо |^„-Ф|р используется ф(^„-Ф) с выбором <р из широкого класса функций, критерий сходимости Fn к Ф в смысле получающегося таким образом расстояния найден в [8]. 4) Пусть ЕХ^О, DA^l, Рг= Е \ХХ |г<°° ДЛя нек-рого г> 2 (в этом случае можно выбрать Ап-0, Вп = п) и уг - абсолютный момент порядка г стандартного нормального закона. Т°ГДа p(Fn,O)+|E|Z„r-Y,|-*0, я-»-. Обобщение этого факта, установленного С. Н. Бернштейном [7], см. в111]. 5) В предположениях предыдущего примера, где г = 3, известно (см. [9J, [4]), что p(F„, Ф)^с0рз«"1/2 + о(^1/2), (7) где c0 = (VTF+3)/6V27T= 0,4097... - наименьшая постоянная, к-рую можно использовать в (7). Абсолютную оценку см. в ст. Берри - Эссеена теорема. Если Л - множество всех нормальных распределений на И?1, то (см. [10], [4]) p(F„, Л) < -^= р3п"1/2 + o(n~i/2) (8) ЦЕНТРАЛЬНАЯ 795
Пока не доказано, что в обеих асимптотич. оценках остаточные члены о(п~ ' ) являются равномерными по классу распределений F, связанных указанными моментными условиями. 6) При тех же предположениях, что и в предыдущем примере, имеет место неравномерная оценка: sup (\ + \x\3)\Fn(x) -Ф(х)\ ^ф3п^/2, п> \, (9) X где с - абсолютная постоянная (см. [3]). Оценки скорости сходимости в Ц.п.т. типа (7)-(9), как правило, плохо улавливают действительную погрешность приближения Fn функцией Ф (на что указывал еще A.M. Ляпунов в [13]). Это объясняется, с одной стороны, большим разнообразием распределений F, выбор к-рых традиционно подчинен лишь нескольким моментным условиям, а с другой - заданием структуры оценок, берущей свое начало в асимптотич. представлениях разностей Fn(x) - Ф(х) и естественной лишь для очень больших и. В приложениях, где Ц. п. т. используют весьма широко, вопрос о величине погрешности приближений Fn распределением Ф зачастую игнорируют без существенного ущерба для выводов, что говорит о явном несовершенстве оценок для наиболее типичных ситуаций. Ц.п.т. находит применения в различных разделах теории вероятностей, математич. статистике, вероятностной теории чисел. Следующий пример показывает, что Ц. п. т. может использоваться в таких внешне далеких от асимптотич. приближений задачах, как характеризация распределений. 7) Пусть на множестве невырожденных распределений F задано функциональное уравнение F(*) = (F*F)(W2), (10) f- характеристич. функция распределения F. Из (10) вытекает, что f(t)=fN(t/W), ЛГ = 2", п=1, 2,... Это означает, что f(t)*0 при любом t и что d(t) = ~NRe logf(t/<N) не зависит от N. При N -> °° величина d(t) - NReU - f(t/<N)) = = NJ (1 - cos tx/<N)dF(x) ->~ t2j x2dF(x), то есть второй момент а распределения F конечен. Вместе с (10) это означает, что первый момент F равен нулю. В соответствии с Ц. п. т. fN{t/<N)^g{t) = zxp (-aV/2), то есть f(t) = g(t) и НО = ФСт/а). Подобно тому как больших чисел закону сопоставляется больших чисел усиленный закон, для Ц. п. т. естественно искать ее усиленный аналог. Один из результатов в этом направлении исследований может претендовать на роль усилен- ной Ц. п.т. (см. [14]). Пусть £F~{X) - множество всех случайных величин, подчиненных общему распределению F, таких, что ЕХ = 0, ОХ = 1, Еехр (с[л1) <«> для нек-рого с>0, и пусть $4 - множество всех случайных величин со стандартным нормальным распределением. Тогда существуют последовательности независимых Х{, Х2,.. е £F и независимых У\t Y2>... e 34 таких, что с вероятностью 1 справедливо соотношение {Хх + ... + Хп) - (Y{ + ... + Yn) = O(logn), n -> ее. Классич. варианты Ц. п. т. породили многочисленные их аналоги в разнообразных более сложных моделях, таких, как цепи Маркова, суммы слабо зависимых случайных величин, 796 ЦЕНТРАЛЬНАЯ абелевы группы и полугруппы, некоммутативная теория вероятностей и др. См. также Предельные теоремы. Лит.: [\] Гн еден ко Б. В., Колмогоров А. Н., Предельные распределения для сумм независимых случайных величин, М.-Л., 1949; [2] Берн штейн С. Н., Собр. соч., т. 4, М., 1964, с. 66-70; [3] Петров В. В., Предельные теоремы для сумм независимых случайных величин, М., 1987; [4] Золотарев В. М., Современная теория суммирования независимых случайных величии, М., 1986; [5] Ибрагимов И. А., Ли н н и к Ю. В., Независимые и стационарно связанные величины, М., 1965; [6] П рох оров Ю. В., «Успехи матем. наук», 1952, т. 7, в. 3, с. 112; [7] Берн штей н С. Н., Собр. соч., т. 4, М., 1964, с. 358-63; [8] Круглов В. М., «Матем. заметки», 1979, т. 26, № 3, с. 483-91; [9] Esseen C.-G., «Skand. aktuarie- tidskr.», 1956, v. 39, № 3-4, p. 160-70; [10] Рогозин Б. А., «Теория верояти. и ее примем.», I960, т. 5, в. 1, с. 125-27; [11] Круг- лов В. М., там же, 1973, т. 18, в. 4, с. 734-52; [12] Лоэв М., Теория вероятностей, пер. с англ., М., 1962; [13] Ляпунов A.M., Избр. труды, М., 1948, с. 219-50; [14] Кот 1 os J., Major P., Tusnady G., «Z. Wahr. und verw. Geb.», 1976, Bd 34, H. 1, p. 33-58. В. M. Золотарев. ЦЕНТРАЛЬНАЯ ПРЕДЕЛЬНАЯ ТЕОРЕМА в банахо- вом пространстве (central limit theorem in Banach space) - обобщение центральной предельной теоремы для случайных величин, принимающих значения в банаховом пространстве (для случайных элементов). Первоочередной интерес представляет случай одинаково распределенных слагаемых с классич. нормировкой. Пусть X, Хх, Х2, ..., Хп,... - последовательность независимых одинаково распределенных случайных элементов в сепарабельном банаховом пространстве В. Говорят, что X удовлетворяет Ц.п.т., и иишут ХеЦПТ (В), если последовательность сходится по распределению к нек-рой гауссовской мере в В. Если В = И?1 и X - случайная величина, то X е ЦПТ (И? ) тогда и только тогда, когда ЕХ <°° и ЕХ = 0; при этом последовательность (1) сходится к гауссовской мере в IP с нулевым средним и дисперсией ЕХ . Отсюда вытекают следующие общие утверждения для Ц. п. т. в банаховом пространстве. Если Хе ЦПТ (В), то а) Е(х*(Х))~ <оо для каждого непрерывного линейного функционала х* е В*, то есть X имеет слабый 2-й порядок и, следовательно, можно говорить о ковариационном операторе Н^) б)ЕХ=0; в) ковариационный оператор Rx совпадает с ковариационным оператором гауссовской меры (предельной) в В (говорят также, что X имеет гауссовскую ковариациюили что X является предгауссовским случайным э л е - м ентом). Известно также, что если X е ЦПТ (В), то г) lim c2P{IUI| >£} = 0, в частности ElUi/J<°°, p<2 (но может случиться так, что Е||х|| =<*>). Если B = L , 1 <р<оо, то условия а), 6), в), г) являются и достаточными для того, чтобы X е ЦПТ (В). Однако в общем случае эти условия не гарантируют справедливости Ц. и. т. Существует пример ограниченного случайного элемента X (в частности, для него Е \\x\y <<*> для любого р>0) в пространстве С[0,1] непрерывных функций такого, что его среднее значение равно нулю, Rx - гауссовская ковариация, однако X не удовлетворяет Ц. п. т. Этот пример показывает сложность проблемы Ц. н. т. для общих банаховых пространств. В общем случае для того, чтобы А' е ЦПТ (В), необходимо и достаточно выполнения условий а), 6), в), г), а также следующего критерия малых шаров (см. 18]): для любого е > 0 Iiminfp(lp+"1^" |[<е}>0.
Ц. и. т. в пространствах типа 2 и котипа 2 - это наиболее исследованный случай. Особенно просто формулируется Ц. н. т. для пространств котипа 2: если В - пространство котипа 2, то X е ЦПТ(Б) тогда и только тогда, когда X удовлетворяет условиям а), б), в). Верно и обратное: если условия а), б), в) достаточны для справедливости Ц. п. т. в В, то В - пространство котипа 2 (см. [5], [7]). Для пространств типа 2 есть простое достаточное условие: если В - пространство типа 2, то X е ЦПТ(Б), если ЕХ = 0 и Е || Л"|| <°°. И обратно: если пространство В таково, что эти условия достаточны для справедливости Ц. п. т. в В, то В - пространство типа 2 (см. [6]). Первая Ц. и. т. в банаховых пространствах была сформулирована в [4] для случая так наз. G-пространств, однако по существу доказанный там результат был Ц. п. т. в пространстве типа 2 с базисом. Тот факт, что в пространствах котипа 2 центрированность и предгауссовость достаточны для Ц. п. т., был уяснен еще в [2], где была доказана Ц. п. т. для пространств 1ру 1 ^р^2. Случай Ц. п. т. в пространстве C(S) непрерывных функций на метризуемом компакте важен по крайней мере по двум причинам. Во-первых, пространство непрерывных функций - это пространство реализаций широкого класса случайных процессов. Во-вторых, решение проблемы Ц. п. т. для пространства С[0, 1], в силу его универсальности, дало бы решение этой проблемы, во всяком случае в принципе, для общего сепарабелыюго банахова пространства. Наиболее важные из известных результатов следующие. Пусть X - случайный элемент в C(S) с нулевым средним и гауссовской ковариацией, Г - гауссовский случайный элемент в C(S), Y^0 - случайная величина со свойством sup t P{Y ^ t) < <~. Если 1>" \X(t) - X(s)I ^ YE | Г(0 - rts) |, 5, t € 5, тоХ<ЦТП(С(5)) (см. 19]). Пусть X - случайный элемент в C(S) с нулевым средним и гауссовской ковариацией. Если при нек-ром а>0 всех 5, teSn Xe№] Eexp{X\X(t) -X(s)\}^exp{a\2E(X(t) -X(s))2}, тоХеЦПТ(С(5)). Если X - случайный элемент в С[0, 1] с нулевым средним и со свойствами 1*0)1 *£1, E|xU)-XCOUk-s|,s, *€Ю, 1], то _*еЦПТ(С[0, 11). Однако если вместо E|x(0-X(s)N ^U-s| потребовать E\X(t) -X(s)\ ^\t-s\, то X может не удовлетворять Ц. п. т. Сюда относится и такой контрпример. Существует случайный элемент в С[0, 1] с нулевым средним, слабым 2-м порядком и винеровской ковариацией [то есть E\x(i) - X(s)\ - \t-s\\t по не удовлетворяющий Ц. п. т. Все известные методы доказательства Ц. п. т. в банаховых пространствах используют в той или иной форме Прохорова критерий слабой относительной компактности семейства вероятностных мер в метрич. пространстве. Ц. п. т. в банаховых пространствах связана с инвариантности принципом. Пусть для £ е [О, 1) и пеЫ где \nt] обозначает целую часть nt. Распределение v„ процесса Yn в банаховом пространстве С([0, 1], В) слабо сходится к винеровской мере в С([0, 1], В) тогда и только тогда, когда ХеЩП(В). Одно приложение в математич. статистике. Пусть Х^ ..., Хп,... - независимые одинаково распределенные случайные величины с непрерывной функцией распределения F и У1^)='{Х:<£]-Я0, -oo<t + oo. У,- можно рассматривать как последовательность одинаково распределенных центрированных случайных элементов в гильбертовом пространстве Н = L2(-°°, +°°, dF) с ковариационным оператором R, определяемым ядром г(s, rt=F(min(s, t))-F(s)F(t). Согласно Ц. п. т. в Н, -=. (Y{ + ... + Yn) -^ Г, где Г - центрированный гауссовский случайный элемент в Я с ковариационным оператором R. Таким образом, Jn(Gn-F)-^> Г, где Gn(t) - эмпирич. функция распределения, построенная по выборке Х^ ...} Хп объема п из распределения F. Отсюда ntl (G„(t)-F(t))2dF(t)-2> f_2^(0dF(t)f где распределения случайных величин в левой и правой частях не зависят от F, а правая часть имеет со -распределение. Это соотношение представляет собой содержание теоремы Смирнова, лежащей в основе Крамера ~ Мизеса критерия. О связях Ц. п. т. в банаховых пространствах с эмпирич. мерами см. в ст. Сходимость эмпирических мер и эмпирических процессов. При определенных ограничениях на случайные элементы и на геометрию пространства исследованы также условия сходимости к гауссовской мере в общей схеме серий независимых в каждой серии случайных элементов (не обязательно одинаково распределенных) (см. [3]). Большой цикл работ посвящен оценке скорости сходимости в Ц. п. т. в банаховых пространствах. Наиболее законченные результаты получены для случая гильбертова пространства. Так (см. [10]), если Sn = = л"1/2 a-t£"=1 (Xi-EXi), <? = E\Xi-EXi\2- нормированная сумма независимых одинаково распределенных случайных величин Xi со значениями из гильбертова сепарабельного пространства Н, V - ковариационный оператор величины Х\ и У - Я-значная гауссовская случайная величина со средним нуль и ковариационным оператором а V, то существует абсолютная постоянная с такая, что для любых аеН, г>0 |Р{|5„-а|<г>-Р{|У-а|<г>|^ <c(r^0.r,)«3E|^-EXt|3(1 + |«|V,/2, где Gj ^ а2 ^... - собственные значения оператора V. Лит.: [1] Паулау скас В. И., Рач кау скас А. Ю., Точность аппроксимации в центральной предельной теореме, Вильнюс, 1987; [2] Vakhania N.. «С. г. Acad, sci.», 1965, t. 260, p. 1560-62; [3] AraujoA., Gi ne E., The central limit theorem for real and Banach valued random variables, N. Y. - [a. o.], 1980; [4] Fortet R., Mourier E., «Studia Math.», 1955, v. 15, p. 62-79; PisierG., «Seminaire Maurey - Schwartz», 1975-76, exp. 3-4; [6] Hoffmann- Jorgensen J., Pisier G., «Ann. Probab.», 1976, v. 4, p. 587-99; [7] Cobanjan S.A., Та r ie 1 adze V. I., «J. Multivar. Analysis», 1977, v. 7, p. 183-203; [8] Ledoux M., Talagrand M., «Probab. Theory and Related Fields», 1988, v. 77, p. 29-47; [9] An- dersenN.T., Gine E., OssianderM., Zinn J., там же, p. 271-305; [10] Зал есский Б. А., СазоновВ.В., Ульянове. В., «Матем. сб.», 1989, т. 180, № 12, с. 1587-1613. В. И. Тариеладзе, С. А. Чобанян. ЦЕНТРАЛЬНАЯ ПРЕДЕЛЬНАЯ ТЕОРЕМА для марковских процессов (central limit theorem for Markov processes) - обобщение нек-рых фактов, относящихся к центральной предельной теореме для независимых случайных величин, на случай марковских процессов и, в частности, на случай цепей Маркова. Типичным примером является следующее обобщение теоремы Линдеберга (см. [5]). Пусть {(ftt, ^), i=l, 2,...}- последовательность измеримых пространств, PiC4t) ~ распределение вероятностей на (ftt, a/j), PjCcOj-j , Л,) - вероятность перехода из (Ц-j, Ц-i) в (fy, ^), X, = Х1(со1) - действительная измеримая функция на (Ц, .<*;•). ЦЕНТРАЛЬНАЯ 797
Последовательность Px{A^)t РгСм^ Ах), Рз(ю2, Л2), ... однозначно определяет цепь Маркова. Индуцированные этой цепью случайные величины Х{, i=\, 2, ..., часто называют случайными величинами, связанными в цепь Маркова. Пусть аШ = 1 - sup{|PA(co', A) - РА(со", А)\ :со', со" е QA_1, А е Лк\, ап = min {a(k):2^k^ n}; F^x) - функция распределения случайной величины Х{> i-\, 2, ...,BJ; = E(Xi + ... + Xri)2,Sn = (Xl + ...+Xn)/Bn. Тогда если для каждого 8 > О то распределение случайной величины Sn слабо сходится к стандартному нормальному распределению. Лит.: [1] Сиражди нов С. X., Предельные теоремы для однородных цепей Маркова, Таш., 1955; [2] Добру шин Р. Л., «Теория вероятн. и ее примен.», 1956, т. 1, в. 1, с. 72-89; Нагаев СВ., там же, 1961, т. 6, в. 1, с. 67-86; [4] СтатулявичусВ. А., «Литое, матем. сб.», 1969, т. 9, № 2, с. 345-62; [5] его же, «Proc. 2-nd Jap. - USSR Symp. on Probab. Theory», 1973, v. 1, p. 433-43. П. П. Гудинас. ЦЕНТРАЛЬНАЯ ПРЕДЕЛЬНАЯ ТЕОРЕМА для случайных детерминантов (central limit theorem for random determinants) - см. Случайный детерминант. ЦЕНТРАЛЬНАЯ ПРЕДЕЛЬНАЯ ТЕОРЕМА для случайных множеств (central limit theorem for random sets) - см. Предельные теоремы для случайных множеств. ЦЕНТРАЛЬНАЯ ПРЕДЕЛЬНАЯ ТЕОРЕМА на груп пах (central limit theorem on groups) - общее название для ряда предельных теорем, указывающих условия, при выполнении к-рых распределения вероятностей композиции независимых случайных элементов со значениями в нек-рой локально компактной группе слабо сходятся к гауссовскому распределению на этой группе. Гауссовским распределением на группе G называется безгранично делимое распределение (I на группе, вложимое в непрерывную сверточную полугруппу мер \it, t^O, на G, для к-рой справедливо lim ~-\it(G\U) = 0 (1) t->o l для любой окрестности U единицы ееС Полугруппа \it со свойством (1) называется гауссовской полугруппой. Каждая гауссовская полугруппа на G сосредоточена на связной компоненте G0 единицы группы G, то есть fir(G0) = 1 для всех t^O. Полугруппа \it, допускающая канонич. представление с представляющей тройкой (у^ у2» Л) (см- Сверточная полугруппа мер; каноническое представление), будет гауссовской тогда и только тогда, когда Г| = 0 (см. [1 ]). Пусть \1п , /=1, ..., kn, - инфинитезимальная система мер, |1„,(у), уеГ, - Фурье преобразование распределения вероятностей (1„ на G. И пусть система мер {(I } коммутативна, то есть а также выполнено условие lim supV*» |(Ди,(у) и~и, и)\ <ос (2) для всех уеГимб Ж0(у), где (•, •> - скалярное произведение в пространстве Ж (у) представления, Ж0(у) - подпространство в Ж (у) у состоящее из так наз. дифференцируемых векторов (см. [2]). Образуем последовательность (1„ = (1„1* ...*Ц„^ сверток распределений. Условие (2) гарантирует сближение в 798 ЦЕНТРАЛЬНАЯ топологии слабой сходимости последовательности распределений (1„ и последовательность \п-ехр(Хп) сопровождающих пуассоновских распределений, где Хп - k-я степень меры Хп относительно операции свертки, 5" - вырожденное в единице е распределение. Если одна из последовательностей {\1п} или {v„} сходится, то сходится и вторая и их пределы совпадают. Имеет место следующий вариант Ц. п. т.: если выполнено условие (2) и, кроме того, для любой окрестности U единицы группы G, то последовательность {(!„} относительно компактна в множестве М (G) всех вероятностных мер на G и любая ее невырожденная предельная точка (I является гауссовским распределением на G(cm. [2]). Если G - группа Ли, ф - функция Ханта на G, то справедлив аналог теоремы Линдеберга. А именно, пусть выполнены условия: 1) Y*jl\ \G^M\3inj{dx)^k<oo для всех п>\\ 2) для любого е>0 существует компактная окрестность KeaG такая, что JV, \inj(G\Kz) <е для всех п ^ 1; 3) для любой окрестности U единицы группы G (условие Линдеберга), при и -> <*>, где {y]f ..., yd) - система канонич. координат на G. Тогда последовательность распределений \1п -U„j* ■••*Ц»^ слабо сходится к гауссовскому распределению на группе Ли G с матрицей ковариаций а- \\а1к\\. Для односвязных нильпотентных групп Ли получены бо/ее сильные результаты (см. [9], [10]). Для абелевой локальной компактной группы G аналогом первого из сформулированных выше результатов является следующий. Пусть существуют элементы xneG такие, что Мтг= Мт?1 * • •■ * Vnk * &*w слабо сходится при и -»<*> к распределению вероятностей (I. Следующие утверждения эквивалентны: а) (I - гауссовское распределение на G; б) для любой окрестности U единицы группы G lim 2lf-i посохе/) = о П-¥ ~ >-1 и sup Ху^ 1 |сО-КеуЫ)|ц„7|2Ш)<<~ для всех у из группы G характеров группы G (см. [3]). Дополнительные трудности возникают в случае, когда вместо инфинитезимальной системы мер рассматривают систему последовательных сверток \ln = vt+ ... * v„, где {v„, и$*- 1} - нек-рая фиксированная последовательность в Л (G). Здесь необходимо найти последовательность {т„} нормирующих преобразований, применение к-рых к мерам \1п приводит к относительно компактной последовательности мер {х„((1„)}. В клас- сич. ситуации (при G = R ) применялись преобразования, индуцированные невырожденными линейными операторами в И? , то есть автоморфизмами группы И? . Для неабелевых групп такой компактифицирующей последовательности автоморфизмов, как правило, не существует. Для нек-рых cneui-
ал >ных классов групп Ли Ц. п. т. была доказана с помощью специального представления элементов группы G, используя специфику группы (см., напр., [4]-[8]), См. также Притяжения область операторно устойчивого распределения, Диффузионный процесс на группе. Лит.: [1] Хейер X., Вероятностные меры на локально компактных группах, пер. с англ., М., 1981; [2] Siebert E., «Adv. Math.», 1981, v. 39, p. 111-54; [3] Wehn D., «Proc. Nat. Acad. Sci. USA», 19K2, v. 48, p. 791-95; [4] Туту бал ин В. Н., «Вести. МГУ. Матем. Мех.», 1966, № 2, с. 70-77; [5] его же, там же, 1967, № 6, с. '00-08; [6] его же, «Теория вероятн. и ее примен.», 1964, т. 9, в. i, с. 531-39; [7] ВирцерА.Д., там же, 1970, т. 15, в. 4, с. 685-704; [8) его же, там же, 1974, т. 19, о. 1, с. 84-103; [9] Pap G., «Prob. Math. Stat.», 1993, v 14, p. 287-312; [10} Scheff ler H.-R., там же, р. 327-45. Ю. С. Хохлов. ЦЕНТРАЛЬНЫЙ МОМЕНТ (central moment) - числовая характеристика случайной величины. Центральным моментом порядка k=\, 2, ... случайной величины X называется величина \ik = E(X-EX) , если она существует. Ц. м. второго порядка - дисперсия DX. Свойства Ц. м. аналогичны свойствам соответствующих моментов, в частности, Ц. м. существует тогда и только тогда, когда существует соответствующий момент. В. Г. Ушаков. ЦЕНТРАЛЬНЫЙ СМЕШАННЫЙ МОМЕНТ (central mi xed moment) - см. Многомерное распределение. ЦЕНТРИРОВАНИЕ И НОРМИРОВАНИЕ последовательностей случайных величин (centering and norming of sequences of random variables) Yn - используемый в теории вероятностей прием, имеющий целью получить из Уп с помощью неслучайных и невырожденных линейных преобразований Zn = B~]Yn-An такую последовательность случайных величин Zn, распределения к-рых Gn образуют слабо относительно компактное множество (если распределения последовательности Уп этим свойством не обладают). Такой прием служит подготовительным этапом при доказательстве многих предельных теорем и объясняется следующими соображениями. Пусть предельная аппроксимация рассматривается в смысле нек-рой метрики ц, к-рая не слабее Леей - Прохорова метрики к (см. Вероятностных метрик сравнение), тогда [i(Gn, G0) -> 0 => л; (Gn, G0) -> 0, п -> ее. Следовательно, слабая компактность множества {G„} является необходимым условием ц-сходимости Gn к G0. Ц. и н. используется для преобразований как одномерных, так и многомерных случайных величин. В последнем случае на роль нормирующих операторов В~ выбираются невырожденные матрицы того или иного вида, в частности диагональные с одинаковыми элементами Ь~ на главной диагонали (скалярное нормирование). Для действительных случайных величин на роль постоянных Ап и Вп можно выбрать ЕУ„ и DYn, если эти величины существую!. В общей ситуации удобно с аналитич. точки зрения в качестве Ап выбирать центры случайных величин Уп. Имеются многочисленные случаи, когда добиться слабой компактности множества распределений последовательности случайных величин путем их линейного преобразования нельзя (см., напр., Дарлинга теорема). Лит.: [1] Гн еден ко Б. В., Колмогоров А. Н., Предельные распределения для сумм независимых случайных величин, М. - Л., 194!); [2] Лоэв М., Теория вероятностей, пер. с англ., М., 1962; [3] Зол от ар ев В. М., Современная теория суммирования независимых случайных величин, М., 1986. В. М. Золотарев. ЦЕНТРИРОВАННАЯ ВЗАИМНАЯ КОРРЕЛЯЦИОННАЯ ФУНКЦИЯ (centered cross correlation function) - см. Взаимная корреляционная функция. ЦЕНТРИРОВАННАЯ КОРРЕЛЯЦИОННАЯ ФУНКЦИЯ (centered correlation function) - см. Корреляционная функция. ЦЕПЬ МАРКОВА (Markov chain) - см. Маркова цепь. ЦИКЛИЧЕСКАЯ ЦЕПЬ МАРКОВА (cyclic/periodic Mar kov chain) - однородная цепь Маркова с конечным или счетным числом состояний, состоящая из одного существенного класса С, распадающегося на d ^2 подклассов состояний (см. Маркова цепь; классификация состояний). Такая цепь называется Ациклической или d-пери о ди чес к ой. Число d для любого состояния ! равно наибольшему общему делителю тех t>\, при к-рых переходная вероятность рЛЬ) отлична от 0. Напр., если состояниями цепи являются целые числа я, -оо<я<оо, и отличны от нуля все вероятности перехода в соседние состояния рп п_х и рп п+1 и только они, то цепь является 2-циклической: один подкласс образуют состояния с четными п, другой - с нечетными. В Ц. ц. М. пределы переходных вероятностей за г шагов р< = lim PjAt), вообще говоря, не существуют, но имеются аналогичные пределы в смысле Чезаро, не зависящие от i; если класс С невозвратный или нулевой, то эти пределы равны 0, если он положительный, то и эти пределы положительны и образуют единственное стационарное распределение цепи. л. А. Юшкевич. ЦИКЛИЧЕСКАЯ ЧАСТОТА (cyclic frequency) - см. Частота. ЦИКЛИЧЕСКИЙ КЛАСС состояний цепи Маркова (cyclic class of states of a Markov chain) - см. Map кова цепь. ЦИКЛИЧЕСКИЙ КОД (cyclic code) - см. Блоковый код. ЦИКЛИЧЕСКОЕ СОСТОЯНИЕ цепи Маркова (cyclic/periodic state of a Markov chain) - такое состояние i однородной цепи Маркова с конечным или счетным числом состояний, период к-рого d>\. Здесь d равно общему наибольшему делителю тех t, при к-рых вероятность перехода Pa(t) за t шагов отлична от 0. Для всех состояний одного существенного класса (см. Маркова цепь; классификация состояний) период одинаков. л. л. Юшкевич. ЦИЛИНДР (cylinder) - см. Алгебра цилиндрических множеств. /^-ЦИЛИНДР (F-cylinder) - см. Цилиндрическая а-алгебра. ЦИЛИНДРИЧЕСКАЯ а-АЛГЕБРА (cylindrical a-algebra), алгебра цилиндрических множеств, - вид о-ал- гебры множеств, наиболее часто встречающийся в теории вероятностей, особенно в теории случайных процессов. Значительная роль Ц. а-а. обусловлена тем обстоятельством, что в теории случайных процессов и в теории топологич. векторных пространств, как правило, рассматриваются меры, задаваемые на различных Ц. а-а. Пусть М - основное базисное множество, a F = {/",•, iel} - нек-рое семейство отображений множества М в различные, вообще говоря, измеримые пространства. Наименьшая а-ал- гебра в множестве X, относительно к-рой измеримо каждое отображение f{, называется а-а лгеброй, порожденной семейством отображений F. Если F - нек-рое семейство числовых функций на М (то есть Fez |R , где IR - действительная прямая, наделенная ее обычной борелевской структурой), то а-алгебра, порожденная семейством F, называется F^-цилиндрической а-алгеброй или просто цилиндрической а-алгеброй, если по поводу F не возникает никаких неясностей. Множества вида {xeM:(f\(x) fn(x)) e ЦЕНТРАЛЬНЫЙ 799
€ В), где п ^ 1, {/"|, ..., fn}cz F, а. В - борелевское подмножество в евклидовом пространстве IR", называются F-цилинд- рами в М. Совокупность всевозможных F-цилиндров представляет собой алгебру множеств в М, к-рая именуется алгеброй F-цилиндров. Очевидно, что а-алгебра в М, порождаемая алгеброй F-цилиндров, совпадает с F-цилиндрической а-алгеброй. Если М - векторное пространство, то часто в качестве F фигурируют различные семейства линейных функционалов на М, причем если М - топологич. векторное пространство, то в качестве F берутся различные подмножества топологического сопряженного к М пространства. Пусть, напр., М = 11? , где Т - нек-рое множество параметров. Тогда, как правило, рассматривают канонич. цилиндрич. а-алгебру в М, порожденную семейством проектирующих функций prt, t e Т. С канонич. Ц. а-а. связана теорема Колмогорова о конечномерных распределениях. Если М - топологич. пространство, a F - семейство всех непрерывных числовых функций на М, то а-алгебра, порожденная семейством F, называется бэровской а-алгеб- рой вМ (ясно, что бэровская а-алгебра пространства содержится в его борелевской а-алгебре). Для топологич. пространства М и для данного семейства F непрерывных числовых функций на М часто возникает вопрос о совпадении F-цилиндрической а-алгебры с борелевской а-алгеброй. В общем случае борелевская а-алгебра в М шире F-цилиндрической, но в нек-рых важных частных случаях эти а-алгебры могут и совпадать. Напр., если М - польское пространство и семейство F отделяет точки в М, то имеет место совпадение указанных а-алгебр. Лит.: [1] Гихман И.И., С корох од А. В., Введение в теорию случайных процессов, 2 изд., М., 1977. А. Б. Харазишвили. ЦИЛИНДРИЧЕСКАЯ ВЕРОЯТНОСТЬ (cylindrical pro bability) - см. Цилиндрическая мера. ЦИЛИНДРИЧЕСКАЯ МЕРА (cylindrical measure, quasi measure, weak distribution), цилиндрическая вероятность, промера, квазимера, слабое распределение, - функция ц на алгебре цилиндров С(В) банахова (или общего локально выпуклого) пространства В, обладающая свойствами: 1) \i(B)- 1; 2) для каждого конечного множества Г непрерывных линейных функционалов сужение и на наименьшую а-алгебру С(В, Г) подмножеств В, относительно крой измеримы функции из Г, является счетно-аддитивным. Для Ц. м.ц [благодаря свойству 2)] можно обычным образом определить характеристич. функционал \Hb*)=jxexp[ib*(x)}d\i(x). Характеристич. функционал ц. Ц. м. ц обладает свойствами: а) (1(0) = 1; б) ji положительно определен; в) сужение р. на каждое конечномерное подпространство пространства В* непрерывно. Верно и обратное: каким бы ни был функционал Х'В*—>С, обладающий свойствами а), б) и в), найдется единственная Ц. м. ц на С(В), для нек-рой |i=X- Отсюда следует, что произвольная линейная случайная функция Х:В* -+Ь0Ш, .г/, Р) определяет на С(В) цилиндрич. мер)1 и: Д(Ь*) = Еехр{ШЬ*)}, Ь'еЯ*. (*) И обратно, если ц- Ц. м. на С(В), то существует такая линейная случайная функция X, что имеет место (*). Говорят, что Ц. м. ц имеет p-Pi порядок (0<р <<*>), если \в \b4x)\p<f\itx)-+oo для каждого Ь*еВ*. Говорят, что ц имеет тип р(0<р<>°)> если она имеет р-й порядок и функция Ъ*»\в\Ь*{х)\Ы\1{х) непрерывна (в сильной топологии пространства В*). Ц. м. /»-го порядка индуцируется линейной случайной функцией ;>-го порядка, а Ц. м. типа р индуцируется непрерывной линейной случайной функцией р-го порядка [то есть непрерывным линейным оператором Х:В* -+Lp(Cl, .</, Р)]. Если ц - вероятностная мера на цилиндрич. а-алгебре, то ее сужение на алгебру цилиндров, очевидно, есть Ц. м. Важным является обратным вопрос: когда цилиндрич. мера продолжается до счетно-аддитивной меры на цилиндрич. а-алгебре или до радоновой меры? Критерий П р о х о р о в а: Ц. м. ц на С(В) продолжается до радоновой меры в В тогда и только тогда, когда для каждого е > 0 найдется такое компактное подмножество К с В, что из того, что А € С(В) и АПК = 0, следует, что ц(Л)<е. Ц. м. возникают при доказательстве теоремы Колмогорова о согласованных вероятностях. Часто Ц. м. определяется как проективная система вероятностных мер, заданных на конечномерных пространствах. Лит.: [1] Prohorovju. V., *Proc. 4-th Berk. Symp. Math. Statist, and Probab. ... I960», 1961, v. 2, p. 403-19; [21 Вахания Н. Н., Тариеладзе В.И., Чобаняк С.А., Вероятностные распределечия и банаховых пространствах, М., 1985; [3] Муштари Д. X., Вероятность и топология в банаховых пространствах, Казань, 1989. С. А. Чобанян. ЦИЛИНДРИЧЕСКОЕ МНОЖЕСТВО (cylindrical set/ cylinder) - подмножество А множества М [всех функций x(t), заданных на бесконечном множестве Т и принимающих значения в измеримом пространстве (М, 83)], представимое в виде A = {x():(x(tl), ..., x(tn)) е Г} при нек-рых и= 1, 2, ..., tx, t2, ..., ^еГ, ГеЯЗ" (здесь 83"- и-кратное произведение а-алгебры 83 самой на себя). Ц. м. образуют алгебру подмножеств М , но не а-алгебру (Т бесконечно). Лит.: [11 Гихман И. И., Скороход А. В., Введение в теорию случайных процессов, 2 изд., М., 1977. И. И. Иортенко. ЦИФРОВАЯ МОДУЛЯЦИЯ (digital modulation) - см. Модуляция и демодуляция.
ЧАСТИЧНО СБАЛАНСИРОВАННЫЙ БЛОЧНЫЙ ПЛАН (partially balanced block design) - см. Блочный план. ЧАСТИЧНОГО ПРИТЯЖЕНИЯ ОБЛАСТЬ безгра нично делимого закона (domain of partial attraction of an infinitely divisible law) G - множество распределения функций F таких, что для нек-рой последовательности nk, п\<: п2< •••» ПРИ надлежащем выборе последовательностей Ап и Вп функции распределения F*n,t(Bn х + Ап) слабо сходятся к С(х) (здесь *"* означает некратную свертку). Нее безгранично делимые законы и только они имеют непустые Ч. п. о. Каждое распределение F либо принадлежит Ч. н. о. законов одного типа, либо принадлежит Ч. п. о. законов несчетного множества типов, либо не принадлежит ни одной Ч. н. о. Существуют распределения, принадлежащие Ч. и. о. каждого безгранично делимого закона (так наз. у н и - вер сальные законы Деблина;см., напр., [3]). Если распределение F принадлежит Ч. п. о. законов одного типа, то этот тип устойчив. Ч.п.о. устойчивого закона шире, чем его притяжения область. Существуют распределения, не являющиеся устойчивыми, но принадлежащие своей Ч. п. о. Если распределение F принадлежит Ч. и. о. закона U, а закон U принадлежит Ч. п. о. закона V, то F принадлежит Ч. п. о. закона V. Для того чтобы распределение F не принадлежало ни одной Ч. п. о., достаточно, чтобы lim lim inf f dF(x) I f dF(x) * 0. Дли того чтобы распределение F принадлежало Ч.п.о. нормального закона, необходимо и достаточно, чтобы iim inf w2 f dF(x)f\ x2dF( .*) = o. Лит.: [1j ГнеденкоБ.В., Колмогоров А. Н., Предельные распределения для сумм независимых случайных величин, М.-Л., 1949; [2] Ибрагимов И. А., ЛинникЮ.В., Независимые и стационарно связанные величины, М., 1965; [3| Феллер В., Введение в теорию вероятностей и ее приложения, пер. с англ., т. 2, М., 1984; [41 Doeblin W., «Studia Math.», 1940, t. 9, p. 71-96. В. В. Сенатов. ЧАСТИЧНЫЙ БЕЙЕСОВСКИЙ ПОДХОД (partial Bayes approach) ~ см. Бейесовский критерий. ЧАСТИЧНЫЙ ЛАТИНСКИЙ КВАДРАТ (partial Latin square) - см. Латинский квадрат. ЧАСТНАЯ КОГЕРЕНТНОСТЬ (partial coherence) - см. Когерентность. ЧАСТНАЯ КОРРЕЛЯЦИОННАЯ ФУНКЦИЯ (partial cor relation function) - функция tpkk целочисленного аргумента /г, значение к-рой при каждом k совпадает со значением последнего коэффициента авторегрессии при последовательной аппроксимации временного ряда моделями авторегрессии возрастающих порядков k~ 1, 2, ... Пусть Xt - смешанный процесс авторегрессии - скользящего среднего порядка (р, q)} то есть АРСС(/>, д)-процесс, описываемый уравнением <р(в)(х,-Ех,) = е(вм„ С) где ф(Д) = 1 - q>t£ - ... - Ф;,£р - оператор авторегрессии, 6(Б) = = 1 ~Q{B- ...-QqBq - оператор скользящего среднего, BXt-Xt_x, EXt - постоянное среднее значение ряда Xt, At - последовательность независимых и одинаково распределен- ных случайных величин с нулевым средним и дисперсией Ga. Ч. к. ф. называется последовательность коэффициентов авторегрессии ykk, k=\, 2, ..., получаемая при подгонке к ряду Xt моделей процесса авторегрессии (АР-процесса) порядков /г(см. [1]). Если в (*) q = 0, то естьХ, - процесс авторегрессии порядка р} то Фм = 0 при k>p. При /?*0, q*0 поведение Ч. к. ф. при k >р определяется только оператором Q(B). Ч. к. ф. используют для выбора порядка параметрической модели, в Бокса - Дженкинса методе оценивания параметров АРПСС-моделей и при диагностической проверке по Боксу и Дженкинсу. Лит.: [1J Бокс Дж., ДженкинсГ., Анализ временных рядов. Прогноз и управление, пер. с англ., в. 1-2, М., 1974. В. Е. Приаалъский. ЧАСТНОЕ РАСПРЕДЕЛЕНИЕ (marginal distribution) - см. Многомерное распределение. ЧАСТНЫЙ КОЭФФИЦИЕНТ КОРРЕЛЯЦИИ (partial correlation coefficient) - мера линейной зависимости между двумя случайными величинами из нек-рой совокупности случайных величин в том случае, когда исключено влияние остальных. Точнее, пусть случайные величины Xv ..., Хп имеют совместное распределение в П?я, и пусть Xv3i п и Х2 34 п ~ наилучшие линейные приближения величин Хх и Х2 соответственно величинами Х3, ..., Хп. Тогда Ч. к. к. между Хх и Х2, обозначаемый р12о4 » 0ПРеДеляется как обычный корреляции коэффициент между случайными величинами У]=Х]-ХЬМ п И У2 = *2~*2-34...и: _ E{(Y]-EY])(Y2-EY2)} р1234--»" Vdv^ Из определения следует, что ~1^р12.з4 я^*- Ч. к. к. вы" ражается через элементы корреляционной матрицы. Пусть Р = II Р»1» где Pi/ ~~ коэффициент корреляции между Xt и Xj, и пусть pi} - алгебраич. дополнение элемента р^ в определителе |р|, тогда Pi2-a..n = I, n • Напр., при и = 3 _ Р12Р33-Р13Р23 Pl2 3 "" V(i-p?3)(i-p223) Аналогично определяется Ч. к. к. для любых величин Х{ и X из X]t ..., Хп. В самом общем случае Ч. к. к. р12.34 м отличается от (полного) коэффициента корреляции р12 величин Х\ и Х2. По различию между р12-з4...п и Pi2 можно судить о том, зависимы ли Х^ и Х2 между собой или зависимость между ними есть следствие зависимости каждой из них от величин ЧАСТИЧНО 80.1
X3, ..., Xn. Если величины Xv ..., Xn попарно некоррелирова- ны, то все Ч. к. к. равны нулю. Выборочным аналогом Ч. к. к. р12з4 ..п является статистика - *" r,2-M-" VR^T где Rjj - алгебраич. дополнение элемента rtj- в определителе матрицы #=1^11 выборочных коэффициентов корреляции Гу. Если результаты наблюдений независимы и нормально распределены, то г12.з4...п распределен с плотностью вероятности ^ r((JV-n)/2) (N - объем выборки). Для проверки гипотезы о Ч.к.к. используют тот факт, что статистика t = JN^ <Г^?' гдег=г12.з4...я, при указанных условиях имеет распределение Стьюдента с N - п степенями свободы. Лит.: [1] Крамер Г., Математические методы статистики, пер. с англ., 2 изд., М., 1975; [2} Кендалл М., Стьюарт А., Статистические выводы и связи, пер. с англ., М., 1973. А. В. Прохоров. ЧАСТОТ ПОЛИГОН (frequency polygon) - один из видов графического представления экспериментальных данных. Как и при построении гистограммы, весь диапазон наблюденных значений абсолютно непрерывной случайной величины X делят на k интервалов [xit xi+i)} i=l, ..., /г, из середин к-рых восстанавливают перпендикуляры высотой щ/{х{^-х^ или hi/(xi+\~xi) и соединяют между собой их вершины. Для примера, приведенного при построении гистограммы, Ч.п. имеет вид, указанный на рисунке. В отличие от графич. 400 8 § 300 е | 200 х о* 100 I X -L 24,5 29,5 34,5 39,5 44,5 49,5 диаметр в см представления данных посредством гистограммы Ч.п. строят также и для дискретной случайной величины. В этом случае вместо середин интервалов группировки по оси абсцисс откладывают возможные значения случайной величины и из них восстанавливают перпендикуляры с высотой, равной абсолютной или относительной частоте появления данного значения. График Ч.п. является ненараметрич. оценкой графика плотности, но лучшей, чем гистограмма. Так, при соответствующем выборе числа интервалов группировки можно получить уклонение Ч.п. от графика плотности порядка я-2' (см. [1]) в метрике L2. Сходимость в метрике С установлена в [2]. Лит.: [1] ЧенцовН.Н., Статистические решающие правила и оптимальные выводы, М., 1972; [2] Смирнов Н. В., Теория вероятностей и математическая статистика. Избранные труды, М., 1970. В. Н. Чугуева. ЧАСТОТА (frequency) - величина, обратно пропорциональная периоду колебаний, используемая при спектральном ана- 802 ЧАСТОТ лизе временных рядов. Исследование стационарных случайных процессов в области частот состоит в изучении спектральной плотности случайного процесса, к-рая характеризует распределение дисперсий процесса по различным Ч. Таким образом, Ч. появляется как аргумент спектральной плотности стационарного случайного процесса. В зависимости от нормировки обычно различают циклич. и угловую Ч. Циклической частотой называется величина, обратная периоду колебаний и характеризующая число циклов, укладывающихся в единицу времени. Если а - циклич. Ч., то 2яа называется угловой частотой. Ю. Г. Балаганов. ЧАСТОТА блоковая (block frequency) - см. Выборочные блоки. ЧАСТОТА случайного события (frequency of a random event) А - величина, равная числу т появления А при п испытаниях, к-рые проводятся в однородных условиях. Относительной частотой события А называется отношение т/п. В условиях однородности и независимости испытаний имеет место статистич. устойчивость частот, согласно к-рой при больших п относительная Ч. т/п в разных сериях наблюдений колеблется около одного и того же числа. Это число называется вероятностью Р(А) события А. Лит.: [ 1 ] С е в а с т ь я н о в Б. А., Курс теории вероятностей и математической статистики, М., 1982, Б. А. Севастьянов. ЧАСТОТНАЯ МОДУЛЯЦИЯ (frequency modulation) - см. Частотно-модулированное колебание. ЧАСТОТНО-ВРЕМЕННАЯ СПЕКТРАЛЬНАЯ ПЛОТ* НОСТЬ (frequency-time spectral density) - см. Спектральные теории нестационарных случайных процессов. ЧАСТОТНО-МОДУЛИРОВАННОЕ КОЛЕБАНИЕ (frequency-modulated oscillation) - случайный процесс вида хи)=Аз\п[\'0уШ*], (*) где y(s) - случайный сигнал, обычно предполагаемый стационарным. В радиотехнике широко используют Ч.-м. к. мида (*), где y(s) = o)Q + a(s), щ~ высокая несущая частота, а a(s) - низкочастотный случайный сигнал, содержащий информацию, переносимую Ч.-м. к. Частотная модуляция, при к-рой пульсации мгновенной частоты у 40 модулированного колебания X(t) -A sin [y(0] определяются мгновенными значениями модулирующего сигнала a(t), является одной из форм угловой модуляции, то есть управления пульсациями функции yU) при помощи какого-либо модулирующего сигнала a(t); другой такой формой является фазовая модуляция. Лит.: [1] М иддл тон Д., Введение в статистическую теорию связи, т. 2, пер. с аигл., М., 1962; [2] Левин Б. Р., Теоретические основы статистической радиотехники, 2 изд., кн. 1, М., 1974; [3] Ван Трис Гарри Л., Теория обнаружении, оценок и модуляции, пер. с англ., т. 1, М., 1972; [41 Pa pou lis A., Probability, random variables, and stochastic processes, 2 ed., N. Y. - la.o.j, 1984. A. M. Я/лом. ЧЕБЫШЕВА НЕРАВЕНСТВО (Chebyshev inequality), неравенство Бьенеме - Ч е бы иг ев а,- неравенство теории вероятностей, дающее оценку вероятности отклонений значений случайной величины от ее математического ожидания через ее дисперсию. Пусть Х(со) - нек-рая случайная величина с конечными математич. ожиданием ЕХ(со) и дисперсией DX(co). Ч.н. состоит в том, что для любого £>0 вероятность события {со:|Х(со)-ЕХ|^е} не превосходит DX/e2, или P{|X-EX|^fVDX}^lA2. Это неравенство было независимым образом открыто И. Бьенеме (I. Bienayme, 1853) и П. Л. Чебышевым (1866). В современной литературе это неравенство чаще называют Ч. н., воз-
можно и потому, что с именем П. Л. Чебышева связано использование его при доказательстве обобщения больших чисел закона (теорем ы Чебышева). Ч.н. является представителем целого класса однотипных неравенств, простейшее из к-рых утверждает, что для неотрицательной случайной величины X с конечным математич. ожгданиемЕХ р{*>е}*ЕХ/е (иногда называется неравенством Маркова). Из этого неравенства вытекают неравенства для произвольных случайных величин, зависящие от моментов: ?{\Х\^е}^Е\Х\г/ег, Р{\Х-ЕХ\^г}^Е\Х-ЕХ\г/гг, r&\ (при г -2 и само Ч. и.), а также более общее неравенство Р{|Х|^ЕКЕ/Ш//Хе) С) для неотрицательной четной неубывающей при положительных значениях х функции fix). Неравенство (*) указывает путь получения новых неравенств того же типа, напр. экспоненциального неравенства: Р{Х^г}^ЕесХ/ес£, с>0. Сложилась традиция относить все эти неравенства к чебышев- скому типу и даже называть «Ч. н.» Существует общий принцип получения Ч. н. при определенных условиях на моменты, основанный на использовании системы многочленов Чебышева (см. [4]). Для произвольных случайных величин Ч. н. дают точные неулучшаемые оценки, однако в нек-рых конкретных ситуациях эти оценки можно уточнить. Напр., если X имеет унимодальное распределение с модой ц, совпадающей с математич . ожиданием, то справедливо неравенство Гаусса: P{|X-uJ^EK(4/3)(a7e2), E^2a/V3~, где a2=DA\ Значение Ч. н. в теории вероятностей определяется в конечном счете не его точностью, а простотой и универсальностью. Большую роль Ч. н. и его видоизменения сыграли применительно к суммам случайных величин при доказательстве различных форм закона больших чисел и закона повторного логарифма. Ч.н. для сумм независимых случайных величин было подвергнуто обобщению и уточнению в двух главных направлениях. Первое из них связано с переходом от Ч.н. Р{|Х1 + ... + Хя-(ЕХ! + ... + ЕХи>|£е}*£ ^DO^ + .-.+AV/e2 к значительно более сильному неравенству Р{ max \Х{ + ... + Xk- (EX, + ... + EXk)\ >г) < \ ^ k ^ п ^D(X1 + ...+X„)/e2, к-рое было доказано А. Н. Колмогоровым и использовано им при доказательстве больших чисел усиленного закона (см. Колмогорова неравенство). Второе направление посвящено замене степенной оценки в Ч.н. на экспоненциально убывающую и приводит к неравенству Берн штейна - Колмогорова: P{|X1+...+Xl^eK2expi ^ 1, М 1 "' *[ 2а2(1+а/3)[ где^^С, ЕХ, = 0, a2 = D(X1 + ...+ X„), а = Се/с2 (см. Берн- штейна неравенство). Такие уточнения Ч. н. получают при дополнительных условиях ограниченности слагаемых Xj. Получены многомерные аналоги нек-рых из указанных здесь неравенств (см. [5]). Лит.: [Ц ЧебышевП.Л., «Матем. сб.», 1867, т. 2, с. 1-9; [2] Марков А. А., Исчисление вероятностей, 4 изд., М., 1924; [31 Кол могоров А. Н., Основные понятия теории вероятностей, 2 изд., М., 1974; [4] Карлин С, Стадден В., Чебышспгкие системы и их применение в анализе и статистике, пер. с англ., М., 1976; [5] Прохоров Ю. В., в кн.: Итоги науки и техники. Сер. Теория вероятностей. Математическая статистика. Теоретическая кибернетика, т. 10, М., 1972, с. 5-24. А. В. Прохоров. ЧЕБЫШЕВА НЕРАВЕНСТВО, многомерные аналоги (multidimensional analogs of the Chebyshev inequality), - следствия оценки P{XeA}^mf{Eq>(X):<p(x)^\, xeA; срЫ^О, x*A) для вероятности попадания случайного вектора X в подмножество А пространства значений. Напр., если В - ковариационная матрица Х = (Х X ), аС- симметричная, положительно определенная матрица с единицами на главной диагонали, для к-рой матрица С ВС~ диагональна, то Р{тлх\Хи) -ЕХи){&х}^хНг(СГ1ВС~*), х>0. i Модификация Ч. н. - Бернштейна неравенство для вероятностей больших отклонений. Так, если случайные векторы Х{ со значениями в сепарабельном банаховом пространстве (#;, ||) независимы и при всех натуральных т ^ 2 для нек-ро- го набора неслучайных а± е у£ E\Xl-a{\m^..^E\Xn-an\m^rn\B2LT"-2/2> (1) то (см. [4]) при х^О и Х = Х{ + ... + Хп Px = P{\X\^xB+E\X\}^exp{-x2/(2 + 2xL/B)}. (2) Имеются сходные оценки, использующие конечное число моментов слагаемых. Напр., из условия (1) с я, = 0 и т = 3 следует (см. [5]) неравенство рх < c'x~3L/B + ехр{-с"х2}, х > 0, где с', с" - абсолютные константы. Уточнения неравенства (2) для гильбертова пространства см. в [4], [6]. См. также Буркхольдера - Ганди - Дэвиса неравенства, Колмогорова неравенство. Лит.: [11 Карлин С, Стадден В., Чебышевские системы и их применение в анализе и статистике, пер. с англ., М., 1976; [2] TongY. L., Probability inequalities in-multivariate distributions, N.Y., 1980; [31 OIkin I., Pratt J. W., «Ann. Math. Statist.», 1958, v. 29, № 1, p. 226-34; [4] ПинелисИ.Ф., Саханенко А.И., «Теория вероятн. и ее примен.», 1985, т. 30, в. 1, с. 127-31; [51 II и - нелисИ.Ф., там же, 1978, т. 23, в. 3, с. 630-37; [6] Юрин- с кий В. В., «J. Muitivar. Analysis», 1976, v. 6, № 4, p. 473-99. 0. В. Юринский. ЧЕБЫШЕВА ТЕОРЕМА (Chebyshev theorem) - см. Больших чисел закон, Чебышева неравенство. ЧЕКОНА ~ ДЖЕМИСОНА ТЕОРЕМА (Chacon - Jamison theorem) - см. Марковский процесс; внутренние свойства траекторий. ЧЕНЦОВА ОЦЕНКА плотности распределения (Chentcov distribution density estimator) - см. Плотность распределения; оценка по наблюдениям. ЧЕРНОВА ГРАНИЦА (Chernov boundary) - верхняя граница вероятности ошибочной классификации. Пусть заданы две статистич. совокупности (Oj и со2 и нек-рое решающее правило h(x). Пусть (Pj(co) - характеристич. функция решающего правила h(x) для совокупности соj : ср^со) =J^ zxv(j<uh)p(h/iux)dh, производящая функция для h(x) получается заменой /со на действительное число: <p^(s) = J^ exp(sh)p(h/(u{)dh, ЧЕБЫШЕВА 803
а ее логарифм u(s) = -Incp/s). Пусть, наконец, д - случайная величина, имеющая плотность распределения Pg(g = h/(ol) = exp (sh + \L(s))p(h)/(uv с математич. ожиданием и дисперсией Е(<7/о>,) = £ hPg{g = Л/о, )dh = -4^, as Вероятность ошибки е выражается через р : e = jt p(h/(ai)dh = jt exp(-\i(s)-sh)pg(g = h/(d])dh = = exp(-u(s))Jf exp (-sh)pg(g = h/(u{)dh. Теперь можно получить верхнюю границу вероятности ошибки е, а именно: для 8^0 имеет место неравенство exp(~sh)^exp(st), t^h, так что ^ e^exp(-u(s)-sOj, pg(g = h/<ux)dh. Так как J рАд = h/щ )dh < 1, то неравенство e^exp(-u(s)-sO и дает для любых s ^ 0 искомую верхнюю границу вероятности ошибки е. Лит.: [1] ФукунагаК., Введение в статистическую теорию распознавания образов, пер. с англ., М., 1979. Т. В. Павленко. ЧЕТЫРЕХ ТРЕТЕЙ ЗАКОН (four-thirds law) - см. Ричардсона закон четырех третей. ЧЖУНА ЗАКОН ПОВТОРНОГО ЛОГАРИФМА (Chung's law of the iterated logarithm) - см. Повторного логарифма закон для эмпирических мер. ЧИСЛЕННАЯ СИМУЛЯЦИЯ случайного явления (numerical simulation of a random phenomenon) - построение с помощью случайных или псевдослучайных чисел последовательности элементарных исходов рассматриваемого случайного явления, обладающих теми же статистическими свойствами, что и последовательность независимых наблюдений этого явления. Поскольку ЭВМ оперирует с конечно-разрядными числами и практич. значение могут иметь лишь сравнительно простые алгоритмы, то обычно довольствуются реализациями, обладающими лишь нек-рыми свойствами, и то приближенно. Лит.: (1) Соболь И.М., Численные методы Монте-Карло, М., 1973; [2) Ермаков С. М., Метод Монте-Карло и смежные вопросы, 2 изд., М., 1975. С М. Ермаков, Н. И. Чепцов. ЧИСТАЯ БЕЙЕСОВСКАЯ СТРАТЕГИЯ (pure Bayes strategy) - см. Игра двух лиц. ЧИСТАЯ СТРАТЕГИЯ (риге strategy) - см. Игра двух лиц, Статистическая игра. ЧИСТО АТОМИЧЕСКАЯ МЕРА (purely atomic measure) - см. Атомическая мера. ЧИСТО РАЗРЫВНЫЙ МАРТИНГАЛ (purely discontinuous martingale) - см. Мартингал. ЧИСТОГО РАЗМНОЖЕНИЯ ПРОЦЕСС (birth process) - рождения и гибели процесс, в к-ром почти наверное переходы возможны только в состоянии с большим номером. Если состояние интерпретировать как число частиц, то в Ч.:). п. возможно только увеличение числа частиц. Лит.: [1] Феллер В., Введение в теорию вероятностей и ее приложения, пер. с англ., т. 1, М., 1984. В. П. Чистиков. ЧИСТОЕ СОСТОЯНИЕ (pure state) - см. Плотности оператор. ЧУВСТВИТЕЛЬНОСТЬ к грубым ошибкам (gross-error sensitivity) - см. Робастная оценка.
ШАГ распределения (span of a distribution) - см. Решетчатое распределение. ШАГОВЫЙ МНОЖИТЕЛЬ (step factor) - см. Роббинса - Монро процедура. ШАРЛЬЕ РАСПРЕДЕЛЕНИЕ (Charlier distribution) - малоупотребительное название распределения} плотность к-рого даегся Грама - Шарлье рядом. А. В. Прохоров. ШВАРЦА НЕРАВЕНСТВО (Schwarz inequality) - см. Бу- няковского неравенство. ШВАРЦА - РИССАНЕНА КРИТЕРИИ (Schwarz - Rissanen criterion) - см. Параметрическая модель; выбор порядка. ШВИНГЕРА ФУНКЦИЯ (Schwinger function) в евклидовой квантовой теории поля- среднее от произведения значений поля в различных точках пространства. Точнее, полилинейные формы вида <Ц(ф1),.,Ц(Ф,,)>^ = L4)"5^ а„<*1. ...,хп)щ(хх)...уп(хп)<Рхх...аАхп определяют обобщенные функции умеренного роста 5а а , к-рые и называются функциями Швингера евклидова поля {£аШ, х=(х{0\ xi]\ х \ х(3))}, где а - спинорный или векторный индекс. Здесь ^((р) - образующая полевой алгебры (или супералгебры) 9(,(pe5(IR ), а (•) - состояние на 9С, задающее евклидово поле. Аналитич. продолжения Ш. ф. Sa a(xv...}xn) на мнимую ось по переменным х±, i=1, ..., п, совпадают с Уайтмана функциями соответствующего квантового поля в пространстве Минковского М . Лит.: [ 1 ] СаймонБ., Модель Р(ф)2 эвклидовой квантовой теории поля, пер. с англ., М., 1976; [2] Глимм Дж., Джаффе А., Математические методы квантовой физики. Подход с использованием функциональных интегралов, пер. с англ., М., 1984. Р. А. Минлос. ШЕИП (shape) - см. Случайный тейп. ШЁНБЕРГА ТЕОРЕМА (Schoenberg theorem) - 1) теорема, описывающая общий вид непрерывных положительно определенных функций на гильбертовом пространстве, зависящих только от нормы || • ||. Пусть f: IR+= [0, <*>) -> С, /"(0) = 1 - нек-рая непрерывная функция, И - гильбертово пространство. Пусть Н конечномерно, dim H = n. Тогда для того, чтобы функция вида f{\h\),heH, С) была положительно определенной на Н, необходимо и достаточно, чтобы /"имела вид f(t) = r(n/2)j^ (2/ts){n-2)/2Jin-2)/2(ts)dv(s), te®+, где v - нек-рая вероятностная мера в IR+, Г - гамма-функция Эйлера, /(„-2)/2 ~ функция Бесселя порядка (и-2)/2. Если же Я бесконечномерно, то для того чтобы функция вида (*) была положительно определенной на Я, необходимо и достаточно, чтобы /"имела вид fU) = j^+exp{~t2s2/2}dv(s)} te®+, где v - нек-рая вероятностная мера в IR+. 2) Теорема, устанавливающая связь между положительно определенными и отрицательно определенными функциями (см. Отрицательно определенная функция). Лит.:[\\ ВаханияН.Н., Тарие л адзе В. И., ЧобанянС.А., Вероятностные распределения в банаховых пространствах, М., 1985. В. И. Тариеладэе. ШЕННОНА ИНФОРМАЦИЯ (Shannon information) - см. Отсеивающих экспериментов планирование. ШЕННОНА ТЕОРЕМА (Shannon theorem) - основная теорема информации теории, полученная в 1947 К. Шенноном (см. [5]). Ш.т. устанавливает условия, при к-рых возможна или невозможна передача сообщений, вырабатываемых данным источником сообщений, по данному каналу связи и при заданных условиях точности воспроизведения сообщений. В настоящее время Ш. т. доказана для многих различных классов источников сообщений и каналов связи и при различных условиях точности воспроизведения сообщений. Нек-рые возможные формулировки см. в ст. Информации теория. См. также Случайное блуждание на группе. Лит.: [1) Вольфовиц Дж., Теоремы кодирования теории информации, пер. с англ., М., 1967; [2) Га л л are p Р., Теория информации и надежная связь, пер. с англ., М., 1974; [3] Добру- шин Р. Л., «Успехи матем. наук», 1959, т. 14, в. 6, с. 3-104; [4] Колесник В. Д., Полтырев Г. Ш., Курс теории информации, М., 1982; [5) Ш е н н о н К., Работы по теории информации и кибернетике, нер. с англ., М., 1963, с. 243-332. С. И. Гельфанд, Р. Л. Добрушин. ШЕННОНА ФОРМУЛА (Shannon formula) - см. Сигнал/шум отношение. ШЕННОНА ЭНТРОПИЯ (Shannon entropy) - см. Информационная мера. ШЕППАРДА ПОПРАВКА на группировку (Shep- pard's correction for grouping) - поправка, устраняющая смещение выборочной дисперсии, вычисленной по группированным данным. Пусть Хи ..., Хп - независимые одинаково распределенные случайные величины, имеющие первые два момента тх-ЕХх и т2 = ЕХ2, и пусть а =ОХ^ = т2~т^ - дисперсия случайной величины Хх. Тогда статистики суть несмещенные оценки для математич. ожидания т{ и дисперсии а2 случайной величины Х1. Пусть наблюдаются не сами реализации случайных величин Xit...,Xn, а частоты v^ попаданий этих реализаций по заранее заданным интервалам группировки [xk-h/2, xk + h/2], где k = 0, ±1, ±2, ... - нек-рая положительная постоянная. В таком случае в качестве оценок для mt и а можно взять статистики l=vl ****и so=i X v*w - */• Статистика Х„, вычисленная по частотам vft, снова является несмещенной оценкой для mt, как и оценка Хп. Статистика ШВИНГЕРА 805
2 0 2 Sq является смещенной оценкой для дисперсии а . Несмещенной оценкой для а в этом случае будет статистика S2=s$-h2/\2. Поправка Л/12 и называется поправкой Шеппарда на группировку наблюдений. Аналогично строятся Ш. п. на группировку к моментам более высокого порядка, а также к семиинвариантам и факториальным моментам. См. также Шеппарда поправка на дискретность. Лит.: [1] Кендалл М., Стьюарт А., Теория распределений, пер. с англ., М., 1966. М. С. Никулин. ШЕППАРДА ПОПРАВКА на дискретность (Shep- pard's correction for discreteness) - поправка на дискретизацию непрерывных случайных величин с целью уменьшения влияния ошибок округлений при вычислении моментов, семиинвариантов и факториальных моментов. Впервые были предложены в [1J. Пусть X - непрерывно распределенная случайная величина, плотность вероятности к-рой р(х), х е В? , имеет всюду непрерывную на II? производную р (х) порядка т такую, что/? (#) = 0(U) ) при* ->«>и при нек-ром 8>0; и пусть существует момент mk=EX (k^2). Далее, пусть задана система округлений результатов наблюдений (то есть заданы начало отсчета yQ и шаг Л, Л>0), выбор к-рой приводит к тому, что вместо реализаций исходной непрерывной случайной величины X в действительности наблюдаются реализации Уп = Уо + п1г, п-0, ±1, ±2, ..., дискретной случайной величины У = у0 + h[(X-y0)/h + 1/2], где [а] - целая часть числа а. Момент т\ - ЕУ1 случайной величины У вычисляется по формуле =х;:_„С>*ш''^ *• Вообще говоря, т±Фт± и, следовательно, отличаются и соответствующие центральные моменты \1±- Е(Х- ти,)1 и \1* = Е(У-т*У случайных величин X и У. В связи с этим возникает вопрос: как подправить моменты jn*, чтобы они давали более «хорошие» приближения для моментов \it? Аналогичные вопросы возникают также и при вычислении семиинвариантов х,- и факториальных моментов ц^] случайной величины X с помощью соответствующих семиинвариантов и факториальных моментов дискретной случайной величины У. Соответствующие поправки и называются поправками Шеппарда на дискретность. Пусть g(t) - характеристич. функция случайной величины X, f(t) - характеристич. функция случайной величины У, и пусть /,ч г- UY* 2 . tk ф(0 = Ее' =—sin — In A - характеристич. функция случайной величины У*, к-рая распределена равномерно на отрезке [-/г/2, Л/2] и стохастически независима от X. В этих условиях при малых h имеет место соотношение моменты дискретной случайной величины У совпадают с точностью до 0(hm~ ) с моментами случайной величины X + У* и с точностью до 0(hm ) имеют место следующие равенства: Щ -Щ, ^4 ^4 2 ^2 240 806 ШЕППАРДА к-рые и содержат так наз. поправки Шеппарда на дискретность к моментам (I*, |12, ..., Ц*» случайной величины У. Аналогично вычисляются Ш. п. на дискретность к семиинвариантам и факториальным моментам случайной величины У (см. [2]). Лит.:{\] Sheppard W. F., «Proc. Lond. Math. Soc», 1898, v. 29, p. 353-80; [2] Кендалл M., Стьюарт А., Теория распределений, пер. с англ., М., 1966; [3] Ван дер ВардснБ.Л., Математическая статистика, пер. с нем., М., 1960. М. С. Никулин. ШЕРМАНА РАСПРЕДЕЛЕНИЕ (Sherman distribution) - распределение вероятностей, связанное с длинами отрезков, на к-рые разбивают единичный отрезок независимые и равномерно распределенные точки. Пусть Zt, ..., Zn - независимые случайные величины, имеющие одинаковое равномерное на отрезке [0, 1] распределение, Z(1), ..., Z(„) - составленный из них вариационный ряд, и пусть XX=Z(^, X2 = Z(2)~Z(\)> •••• Хп_{ =Z(„) -Z(„_0, X„= 1 -Z(n). Тогда распределение случайной величины Х = Х".7 |Х;-1/(я+ 1)|/2 называется распределением Шермана с п степенями свободы. Н. Г. Ушаков. ШИБАТЫ КРИТЕРИЙ (Shibata criterion) - см. Параметрическая модель; выбор порядка. ШИРОКОВЕЩАТЕЛЬНЫЙ КАНАЛ (broadcast channel) - один из примеров многокомпонентного канала в теории информации, описывающий передачу информации от одного передатчика к нескольким приемникам. Дискретный стационарный Ш.к. без памяти с двумя выходами задается входным алфавитом #, двумя выходными алфавитами ^,, $2, (у, У\,'&2 ~ конечные множества) и переходными вероятностями р(у\, У2\у), У\ &f\f У2 е%2> У е&- Кодирование для такого Ш. к. описывается общей схемой кодирования для сети каналов (см. Источников и каналов сети) при /C=l, L-2. В системе имеются три типа сообщений (М = 3): одно сообщение для первого получателя, одно сообщение для второго получателя, одно сообщение, предназначенное для обоих получателей. При этом число кодирующих устройств равно 1 и А\ = {\, 2, 3}, а число декодирующих устройств равно 2 и £j={l, 3}, В2 = {2, 3}, Ct = {1}, С2 = {2}. Таким образом, декодер на первом выходе должен восстанавливать первую и третью компоненты сообщения, а декодер на втором выходе - вторую и третью компоненты. Область пропускной способности рассматриваемого Ш.к. с двумя выходами зависит не от переходных вероятностей р(у^, У2\у)> а лишь от соответствующих маргинальных вероятностей Р\(у\\у) и р2(у2\у) (при отсутствии обратной связи). Частными случаями общей схемы кодирования для Ш.к. с двумя выходами являются широковещательный канал без общей информации (отсутствует третья компонента сообщения, так что А^ = {\, 2}, В^ = С^{\}, В2 = С2 = {2}) и асимметричный Широкове щатеть- ный канал (отсутствует первая или вторая компонента, так что Л, = {1, 3}, В,={1, 3}, С, = {1}, Я2 = {3}, С2 = {2}). В общем случае для области Л пропускной способности Ш.к. известны лишь нек-рые границы (изнутри и снаружи). Однако для ряда классов Ш. к. Л можно вычислить точно. В частности, область пропускной способности асимметричного Ш.к. состоит из всех пар (R\, Щ) таких, что 0^R3^I(U; У2), 0^/?i+/?3^min{/(y; yt), I(Y;Y]\u) + + /(£/; Y2)} U - количество информации) для нек-рой четверки случайных величин (U, У, У1( У2) со значениями в ( i/, #, У\* У 2^ соответственно (У/- нек-рое конечное множество с числом элементов \v\, удовлетворяющим условию \$/\ ^ |//| + + 2) и с совместным распределением вероятностей вида
р(и, у, jj]t y])=p(u, y)p(yv Уг\у)* гдер(у{,у2\у) -переходные вероятности рассматриваемого 111. к. В общем случае область пропускной способности 3i- = {(/?!, R2, R3)} известна для двух больших классов Ш. к. с двумя выходами: ухудшенных Ш. к. и полудетерминированных Ш. к. При этом дискретный Ш. к. с двумя выходами называется ухудшенным (вторая компонента хуже первой), если маргинальные переходные вероятности Р\(у\\у) и р-^у-^у) связаны соотношением р(у2\у) = у£9^(у2\у\МуЛу) для нек-рого набора переходных вероятностей q(y2\y\)» У\ =У\> Уг^Уг- Дискретный Ш.к. называется полудетерминированным, если одна из его компонент (напр., первая У' +У\) является детерминированным каналом, то есть рх(у\\у)^Ъ или 1 для Bcexyef, y{e$v Рассматриваемая модель Ш. к. допускает ряд обобщений. В частности, вычислена область пропускной способности гаус- совских Ш. к. с дискретным и непрерывным временем (такие каналы по существу сводятся к ухудшенным Ш. к.). Рассматривалось также кодирование для Ш. к. с обратной связью, кодирование для Ш. к. при максимальной вероятности ошибки и другие вопросы. Лит.: [II Кол ее ни к В. Д., П олтыре в Г. Ш., Курс теории информации, М., 1982; [2] Чисар И., Кернер Я., Теория информации, пер. с англ., М., 1985; [31 Cover Т., «IEEE Trans. Inform. Theory», 1972, v. 18, № 1, p. 2-14. C. //. Гельфанд. ШИРОТНО-ИМПУЛЬСНАЯ МОДУЛЯЦИЯ (puise width modulation) - см. Импульсный случайный процесс. ШОВЕНЕ КРИТЕРИЙ (Chauvenet test) - см. Экстремальных значений распределение\ Выделяющихся измерений исключение. ШОКЕ ЕМКОСТЬ (Choquet capacity) - функция, задающая распределение случайного множества. Ш. е. - это емкость Г, заданная на множестве всех подмножеств J*(E) сепа- рабельного хаусдорфова локально компактного топологии, пространства Е и обладающая дополнительным свойством: если К, Ки К2, ... - произвольные компакты в £ и Sn(K;Kx Кя) = = V,(K; Ки ..., Kn-i)-S^KUKn-t KXt .... *„_,), п>2, то для всех п, К и Kj величины Sn(K; Kt, ..., Кп) неотрицательны. Ш. е. является одним из основных средств задания распределения случайного множества; так, сопровождающий функционал случайного замкнутого множества является Ш. е. и представляет собой аналог функции распределения случайной величины. Наоборот, если Ш. е. Г обладает свойством: Г(0) = О, (ХГ^1, то она является сопровождающим функционалом нек-рого случайного замкнутого множества. Если же Ш. е. Т обладает свойством: Г(0) = О, Т(К) <<*> (для всех компактов К), то выражение l-exp(-T) задает сопровождающий функционал безгранично делимого случайного множества. См. также Емкость. Лит.: [1[ Матерон Ж., Случайные множества и интегральная геометрия, пер. с англ., М., 1978. Н. Н. Ляшенко. ШРЕДИНГЕРА УРАВНЕНИЕ со случайным потен ц и а л о м (Schrodinger equation with random potential) - уравнение, определяемое самосопряженным оператором -A + q(x) в L (И? ), где А - лапласиан, q - эргодическое случайное поле, или его дискретным аналогом. Основной вопрос здесь - природа спектра в зависимости от степени и характера случайности q, основной новый эффект ~ существование плотного в себе точечного спектра и экспоненциальное убывание собственных функций (так наз. локализация состояний). Гипотезу о существовании такого спектра выдвинута физиками и доказана при d-\ и гладком марковском потенциале (см. [5]) (весь спектр чисто точечный), а при d ~ 3 доказана в дискретном случае с независимым потенциалом, имеющим гладкую плотность (см. [6]) (чисто точечный спектр на краях спектра). Лит.: [\] Гольдшейд И.Я., Молчанов С. А., Пастур Л. А., «Функц. анализ и его прилож.», 1977, т. 11, в. 1, с. 1-10; [2j Лиф- шицИ. М., Гредес кул С. А., Пасту р Л. А., Введение в теорию неупорядоченных систем, М., 1982; [3) Пастур Л. А., в кн.: Итоги науки и техники. Сер. Теория вероятностей. Математич. статистика. Теоретич. кибернетика, т. 25, М., 1987, с. 3-67; [4] FrohlichJ., М art inel Ii F., ScoppolaE., Spencer Т., «Comm. Math. Phys.», 1985, v. 101, p. 21-46; [5] Marttnelli F., Scoppola E„ «Rivista Nuovo Cimento», 1987, v. 10, № 10, p. 2-90. Л.А. Пастур. ШТЕЙН ЕРА КЛАСС (Steiner class) - возникающий в теории случайных множеств специальный класс компактных подмножеств евклидова пространства, элементом к-рого является всякий выпуклый симметричный (относительно нуля) компакт А при условии, что его опорная функция f(x) = = sup (x, а) представима в виде интеграла от \(х, со)| по нек-рой положительной мере Р(б/со) на единичной сфере Q. Напр., для произвольного набора coft элементов Q и положительных весов pk компакт {^ t^k1 Uk\ ^Pkf (векторная сумма отрезков) входит в Ш. к., так как его опорная функция £л \(х, (uk)\pk допускает требуемое представление с атомарной мерой Р, сосредоточенной на элементах coft. Можно доказать, что компактами такого вида в определенном смысле приближаются произвольные компакты Ш. к. На плоскости Ш. к. совпадает с классом всех выпуклых симметричных компактов, но уже в И? это не так. Контрпримером служит октаэдр \а^\ + \а2\ + \а$\ ^ 1 с опорной функцией fix) = sup \xk\. Единственность интегрального представления, участвующего в определении Ш. к., - его важнейшее свойство, вероятностным выражением к-рого является, напр., тот факт, что однородный пуассоновский ансамбль прямых в трехмерном пространстве полностью определяется интенсивностями своих двумерных сечений. Введенный Ж. Матероном (см. [1]) Ш. к. носит имя классика выпуклого анализа Я. Штейнера (J. Steiner). Лит.: [1] Матерон Ж., Случайные множества и интегральная геометрия, пер. с англ., М., 1978. В. И. Полищук. ШТРАССЕНА ЗАКОН ПОВТОРНОГО ЛОГАРИФМА (Strassen's law of the iterated logarithm) - см. Повторного логарифма закон для эмпирических мер. ШТРАССЕНА ПРИНЦИП ИНВАРИАНТНОСТИ (Strassen's strong invariance principle) - см. Инвариантности принцип почти наверное. ШТРАССЕНА ТЕОРЕМА (Strassen theorem) - 1) Леей- Прохорова метрика является минимальной метрикой для Ки Фан метрики. Утверждение, эквивалентное данному по сути, но отличное по форме, доказано Ф. Штрассеном [1]. 2) См. Одного вероятностного пространства метод, Колмогорова теорема о непрерывности выборочных функций. Лит.: [11 Strassen V., «Ann. Math. Statist.», 1965, v. 36, p. 423-39; [21 Золотарев В. М., Современная теория суммирования независимых случайных величин, М., 1986. В.М. Золотарев. ШУРА ПРЕДСТАВЛЕНИЕ МАТРИЦЫ (Schur's representation of matrix) ~ см. Несимметрическая случайная матрица. ШОКЕ 807
J^ ЭВОЛЮЦИОНИРУЮЩАЯ СПЕКТРАЛЬНАЯ МЕРА (evolutionary spectral measure) - см. Спектральные теории нестационарных случайных процессов. ЭВОЛЮЦИОНИРУЮЩАЯ СПЕКТРАЛЬНАЯ ФУНКЦИЯ (evolutionary spectral function) - см. Эволюционирующее спектральное представление. ЭВОЛЮЦИОНИРУЮЩЕЕ СПЕКТРАЛЬНОЕ ПРЕДСТАВЛЕНИЕ (evolutionary spectral representation) - обобщение спектрального представления стационарного случайного процесса X(t),-°o<t<°°, на широкий класс слабо нестационарных процессов. Э.с. п. случайного процесса X(t) имеет вид X(t) = j~aaeitkAU; X)dZ(X), (l) где, как и в случае спектрального разложения стационарного процесса, Z(X) - комплексная случайная функция с некоррелированными приращениями, так что EdZ(X)dI(K) = 0 при Х'*Х, E\dZ(X)\2 = dF(X), (2) а неслучайная функция A(t\ X) при всех t удовлетворяет условию С U(t; X)\2dF(X) <~ (3) (гарантирующему, что Е|Х(0| <°° при всех 0 и является медленно меняющейся функцией t. Согласно М. Пристли [1], (21 (к-рому принадлежит и термин «Э.с. п.»), условие «медленности изменения» A(t; X) удобно сформулировать следующим образом: функция A(t; X) может быть представлена в виде A(t; X)=\~ooeit*dKt(Q), где |б/К^(6)| при любом t имеет абсолютный максимум при 0 = 0. Случайные процессы X(t), допускающие Э. с. п. [то есть представимые в виде (1), где dZ(X) удовлетворяет (2), aA(t] X) удовлетворяет (3) и медленно меняется по t], называются осциллирующими случайными процессами. В силу теоремы Карунена о представлении случайных функций случайный процесс X(t) является осциллирующим тогда и только тогда, когда EX(t)X(s) = B(t}s) для какой-то медленно меняющейся по t функции A(t', X) и ограниченной монотонно неубывающей функции F(X) удовлетворяет соотношению B(t, 5) = Г.. е*'~*)кМЬ X) A&T)dF(X). В этом случае F(t;X)= \A(t;X)\ F( X) называется эволюционирующей спектральной функцией процесса X(t). Эта функция, вообще говоря, определяется неоднозначно, так как процесс X(t) может иметь много разных Э. с. п. вида (1). Класс осциллирующих случайных процессов включает, кроме стационарных процессов, также много представляющих 808 ЭВОЛЮЦИОНИРУЮЩЕЕ практич. интерес (в частности, для экономики; см., напр., [3]) нестационарных случайных процессов. При этом ряд результатов теории стационарных случайных процессов [относящихся, напр., к задачам об оптимальной линейной экстраполяции и фильтрации процессов X(t), к теории оценивания соответствующей спектральной функции F(X) и спектральной плотности f(X) = F'(X)] может сравнительно просто и лишь с небольшими изменениями быть перенесен на случай осциллирующих процессов (см., напр., [2], [4]). Лит.: [1] Priestley M. В., «J. Roy. Statist. Soc, Ser. В», 1965, v. 27, № 2, p. 204-37; [2] его же, Spectral analysis and time series, v. 2, Ch. 11, L.-[a. o.], 1981; [3] ГренджерК., ХаганакаМ., Спектральный анализ временных рядов в экономике, пер. с англ., М., 1972; [4) Mandrekar V., «Ргос. Amer. Math. Soc.», 1972, v. 32, № 1, p. 280-84. A.M. Ягюм. ЭВОЛЮЦИОННОЕ СТОХАСТИЧЕСКОЕ ДИФФЕРЕНЦИАЛЬНОЕ УРАВНЕНИЕ (evolutional stochastic differential equation) в оснащенном гильбертовом пространстве - уравнение вида du(t, (u)=A(u(t, со), t, (u)dN(t) + B(u(t, со), t, (a)dM(t), (1) t>tQ, u(t0, со)-гг0(со), где А и В - операторы на нек-ром оснащенном гильбертовом пространстве Н, N - случайный процесс с ограниченной вариацией, М - локальный мартингал со значениями в нек-ром гильбертовом пространстве, со - переменная, символизирующая случай, а равенство (1) понимается в смысле стохастического дифференциального исчисления мартингалов. В качестве пространств, «оснащающих» Я, используют пространства, связанные с областью определения и областью значений операторов А и В. Типичным образцом Э.с. д. у. является эволюционное ото- хастич. дифференциальное уравнение с частными производными. Напр., уравнение вида du(t, x)=y uxx(t, x)dt + uxU, x)dw(t), (t, x)e(0, T]x\l\ u(0,x) = u0(x),xe^, где w - винеровский процесс, a uQ - функция из £ (№ ), удобно рассматривать как Э. с. д. у. на гильбертовом пространстве, оснащенном парой пространств Соболева W^W ), W^W1). Первое из них служит областью определения операторов А: = — г, В: =—, второе - областью значений опе- а 1 Ъх дх ратора А. ил Э. с. д. у. с частными производными послужили отправной точкой и основным стимулом для развития теории Э. с. д. у. (см. [1]-[3]), но существуют и другие важные проблемы, приводящие к их изучению. Напр., Э. с. д. у. являются удобным вспомогательным аппаратом для решения эллиптич. и параболич. уравнений с частными производными 2-го порядка в бесконечномерных пространствах (см. [4]). В теории Э. с. д. у., как обычно в теории стохастич. дифференциальных уравнений, различают сильные и слабые решения. Грубо говоря, под сильным решением понимают решение, построенное на заданном вероятностном пространстве три заданном мартингале М. Понятие слабого решения подразу-
менает, что ищется нек-рое вероятностное пространство и мартингал на нем, для к-рых уравнение (1) имеет решение. Условия, гарантирующие существование сильных и слабых решений, существенно различаются. Ниже приведены типичные результаты по поводу сильной и слабой разрешимости Э. с. д. у. в оснащенном гильбертовом пространстве. Пусть Н - сепарабельное гильбертово пространство, Н~=Н, а V- сепарабельное рефлексивное банахово пространство (для простоты предполагается, что все пространства действительные). Говорят, что И оснащено парой V, V*, если выполнены следующие предположения: а) V <=//<= V*\ б) V плотно в Я; в) существует такая константа с, что для всех veV \\v\\H^c\\v\\v', r) vv* = (v, v*)H для всех v e V, v* е И (vv* - значение v* на v). Далее считается, что заданы V и Я, обладающие свойствами а)-г). Важнейшими примерами пространств, обладающих этими свойствами, являются пространства Соболева W™(G)( = V) и L2(G)( =Я), где G - ограниченная область в IRr, a dp^2(d-mp) и 0G регулярна. П)сть на полном вероятностном пространстве Ш, ,< {.*/,},Р) задан винеровский процесс w(t) со значениями в действительном сепарабельном гильбертовом пространстве Е (£* = £) и единичным корреляционным оператором. Обозначив через ./> о-алгебру предсказуемых множеств, У- (Е, Я) - пространство операторов Гильберта-Шмидта из Е в Я, II • III - норму в этом пространстве, считают, что на 5:=Vx[0, Г]хД заданы функции Л:5->К*иб:5-> (г(Е,Н). Предполагают, что эти функции измеримы и предсказуемы и и е V. Пусть заданы Э.с.д. у. du(t, со)=Л(м(£, со), t, (u)dt + B(u(t, со), t, (u)dw(t), t^T, (2) м(0, co) = m0(g>) (3) и при нек-рых постоянных К, а>0, при всех v]f v2, а3е V, (t, со) е [0, Т]х£1 выполнены следующие условия: Aj) семи непрерывность А: функция vA{v\ + Xv2) непрерывна по X на II? ; Л2) монотонность (Л, В): 2iv^-v2)(A(v^)-A(v2)) + l\B(vx)-B(v2)\l2^K\\v^-v2\\2H; Д3) коэрцитивность (А, В): 2иДЫ + |вЫ|2 + аЫ2^#С(1 + \\v\\2Hh /ц) ограниченность роста Л: ИЫ|„.*ко + и„>. Если выполнены условия Л1 -А4, а начальное значение u0eL2(Q; ,</0; Я), то задача (2)-(3) имеет единственное сильное решение. Это решение принадлежит L (fix[О, Т]\ У, V)lU2to; C(10, Т]\ Я)) (см. [1J, [2]). Это решение обладает свойствами, аналогичными свойствам решения конечномерного стохастич. дифференциального уравнения (в частности, оно непрерывно по начальным данным, если коэффициенты не зависят от случая - обладает марковским свойством), и т. д. Условие коэрцитивности иногда является слишком обременительным. Применительно к линейным Э.с.д. у. от него можно отказаться, заменив условиями типа монотонности (см. [3]), к-рые в линейном случае переходят в условия днеси пативности оператора -(Л + \/2В*В). Доказательство того, что решение Э. с. д. у. принадлежит к типу сильных, основывается на использовании условия монотонности. Это довольно широкое условие. В частности, для случая линейных Л, В оно следует из условия коэрцитивности. В то же время существует ряд важных Э.с.д. у., для к-рых это условие не выполняется. Напр., оно не выполняется для Навье - Стпокса стохастического дифференциального уравнения или одного из уравнений иопуляционной генетики: du(t) = aAu(t)dt + ylu(t)(\-u(t))dw(t). Можно, однако, доказать существование слабых решений этих уравнений (см. [5]). Вообще, для доказательства существования слабого решения задачи (2)-(3) можно отказаться от условия монотонности. Вместо него нужно потребовать выполнения условия: А5) компа ктность вложения V в Я. Условие семинепрерывности при этом следует заменить на нек-рое более сильное условие непрерывности операторов Л и Я (см. [6]). Каких-либо общих условий, кроме условия монотонности, гарантирующих единственность решения Э.с.д. у., в настоящее время неизвестно. В связи с проблемой слабого решения Э. с. д. у. исследовалась (см. [6]) представляющая и самостоятельный интерес задача об относительной компактности последовательности мер, порождаемых последовательностью Э.с.д. у., коэффициенты к-рых сходятся к коэффициентам Э. с. д. у. (1). Установлено, что основными достаточными условиями относительной компактности являются условия типа Л2, Л4, Л5. Наиболее распространенным методом доказательства существования решения Э.с.д. у. является метод Галеркина. Он употребляется как для доказательства существования сильных, так и слабых решений. Различие имеется лишь на стадии предельного перехода от конечномерных аппроксимаций. В случае наличия условия Л3 предельный переход производится непосредственно в уравнении методом монотонности. Если же это условие отсутствует, то предельный переход осуществляется по последовательности мер, порождаемых решениями конечномерных аппроксимацион- ных уравнений. Для линейных Э.с.д. у. с ограниченным коэффициентом диффузии В широкое распространение получил метод полугрупп (см. [7]). Теория Э. с. д. у. тесно связана с теорией операторных стохастических дифференциальных уравнений (см. [8J). Лит.: [1] Pardoux E., Equations aux derivees partielles stn- chastiques nonlineaires monotones. These doct. Sci. Univ. Paris Sud., P., 1975; [2] Крылов Н.В., Розовский Б. Л., в кн.: Итоги науки и техники. Современные проблемы математики, т. 14, М., 1979, с. 71-146; [3] Розовский Б. Л., Эволюционные стохастические системы. Линейная теория и приложения к статистике случайных процессов, М., 1983; [4) Далецки й Ю. Л., Фомин С. В., Меры н дифференциальные уравнения в бесконечномерных пространствах, М., 1983; [5] Viot M., Solutions faibles d'equations aux derivees partielles stochastiques nonlineaires. These doct. Sci. Univ. Pierre et Marie Curie, P., 1976; [61 Grigel ion is В., Mikulevicius R., «Lect. Notes Contr. and Inf. Sci>, 1985, v. 69; [7\ Curtai n R. F., Prit- chard A. J., там же, 1978, v. 8; [8] Скороход А. В., «Успехи ма- тем. наук», 1982, т. 37, в. 6, с. 157-85. Б. Л. Розовский. ЭДЖВОРТА РЯД - ряд, определяемый выражением /Ч х) = ф( х) + ^V- , ^ Ьм+2Ф(*+Чт)+...+Ь,|3*ФШЫ +2-* = l V Л) nk/2 К } Здесь fix) - плотность распределения случайной величины (sn-Esn)flDs„ (sn = ^ + ...+£„, ^, ..., £„ - независимы и одинаково распределены), V2tc - плотность стандартного нормального распределения, dx ЭВОЛЮЦИОННОЕ 809
Коэффициенты bk fe+2/, не зависят от п и представляют собой многочлены относительно Х3, ...Д*-/+з» где Х,; = ху/а;, о - дисперсия, a x; - семиинвариант порядка; случайной величины £t. В частности, первые члены разложения имеют вид иЗ/2 ^^<В( (*) + ■!£ Х3Х4ф(7)Ы + ■f^<»(*>]+.... Коэффициенты bk k+2i могут быть выражены также через центральные моменты. Ряды (*) введены Ф. Эджвортом [1]. Их асимптотич. свойства исследованы Г. Крамером (Н. Cramer), к-рый показал, что при довольно общих условиях ряд (*) дает асимптотич. разложение fix) с остаточным членом порядка первого отброшенного члена. Лит.: [11 Edgcworth F.Y., «Ргос. Camb. Phil. Soc.», 1905, v. 20, p. 36-65; [2] Крамер Г., Математические методы статистики, пер. с англ., 2 изд., М., 1975. В. Г. Ушаков. ЭДЖВОРТА - КРАМЕРА РАЗЛОЖЕНИЕ (Edgeworth - Cramer expansion) - представление асимптотическим рядом распределения функций Fnix) последовательности линейно нормированных сумм (Xj + ... + Хп - an)/avn независимых случайных величин, имеющих общую функцию распределения F(x), конечное математич. ожидание а, дисперсию о и центральные моменты ak = E(Xt-a) , З^/г^т + 2; F£x) = *(x) + Qx(xWxn + ... + QjLx)n~mV + Rm(xt п)\ (1) здесь Ф - функция распределения стандартного нормального закона, где суммирование ведется по целым неотрицательным qr, связанным равенством q{ + 2q2 + ... + kqk = k, Hv - многочлены Эрмита, уг - семиинварианты распределения F и s = q^ + ... + qk. В частности, QtW=0'U)-^(l-x2), 02(*) = Ф'Ш^(3 -а4)(*3- А>-^ Юд:3 -15) Если IE | Х} - а |г < оо для нек-рого т + 2^г<т + 3 и lim suplEexpdYXj)! < 1, то Rjx,n)<G(^(X+M)\-b-W i\+\x\Y (3) где Ыи) ->0 при и ->0. В случае г - 3 условие нерешетчагости F обеспечивает оценку \R^(x,n)\<b(n)rT . Формальное разложение (1) для т = <х> было известно еще П. Л. Чебышеву. Ф. Эджворт получил это разложение значительно позже (см. [1]). Асимптотич. свойство (3) формального разложения (1) исследовал Г. Крамер [2]. Известны обобщения Э.-К. р. на случай, когда случайные слагаемые Х7 не распределены одинаково (см. [3]) и когда они принимают значения из И? , d> \ (см. [4]). Имеются 810 ЭДЖВОРТА аналоги Э.-К. р. для тех случаев, когда распределение F является решетчатым или же принадлежит области притяжения устойчивого закона Gaix) с основным параметром 0<а^2 (см. [5J). В этих аналогах Э.-К. р. вместо моментов ak используют псевдомоменты Vik = jxkdiFix)-Gaix)). Лит.: [1] Edgeworth F., «Trans. Camb. Philos. Soc.»,1905, v. 20, p. 36-65; [2) Cramer H., «Camb. Tracts Math, and Math. Phys.», 1937, № 36 (рус. пер. -Случайные величины и распределения вероятностей, М., 1947); [3] Петров В. В., Суммы независимых случайных величин, М., 1972; [4] ШигановИ.С, в сб.: Проблемы устойчивости стохастических моделей. Труды семинара, М., 1980, с. 116-21; [5| Золотарев В. М, в кн.: Труды VI Всесоюзного совещания по теории вероятностей и математической статистике, Вильнюс, 1962, с. 49-50. И. С. Штанов. ЭЙЛЕРА ЧИСЛА (Euler numbers) - натуральные числа bnk, определяемые из рекуррентного соотношения: для п ^ 1, En,k = ^n.uk + in-k+\)En.uk.it (•) при этом £"00= 1, Еп0-Еок = 0 и En k = 0 при k>n. Числа (*) ввел Л. Эйлер (L. Euler) в 1755 в связи с теоретико-числовыми задачами. Э. ч. можно выразить в виде конечной суммы £».* = ll=o(-1)"'c-<(*-w)"' а также определить их с помощью производящей функции *-* = V~ V" е .xk ^ Э. ч. играют важную роль в комбинаторном анализе, в исследовании алгоритмов сортировки, в построении оптимальных квадратурных формул. Отношение Епк/п\ равно вероятности того, что случайно взятая перестановка (at, a2 a„) чисел 1, 2, ..., п будет иметь ровно k возрастаний aM<a,, i=l, 2, ..., п (здесь предполагается, что Оо = 0). Если к = я/2 + Wn/12, то при ограниченных х и п --> <*> имеет место асимптотич. формула п\ V пп Одно параметрические Э. ч. Еп определяются из соотношения \-1 (у- x2k V =v- E x^ \**k = Q i2k)\) Aj = 0 « п\ Лит.: [1] Сачков В.Н., Комбинаторные методы дискретной математики, М., 1977. С. X. Сираждиноа. ЭЙНШТЕЙНА - СМОЛУХОВСКОГО МОДЕЛЬ (Em- stein - Smoluchowski model) - см. Орнштейна - Уленбека процесс. ЭКВИВАЛЕНТНЫЕ АДДИТИВНЫЕ ФУНКЦИОНАЛЫ (equivalent additive functionals) - см. Марковский процесс; аддитивный функционал. ЭКВИВАЛЕНТНЫЕ ЗАРЯДЫ (equivalent charges) - см. Абсолютная непрерывность мер. ЭКВИВАЛЕНТНЫЕ МЕРЫ (equivalent measures) - меры, принадлежащие к одному и тому же спектральному типу (типу Хеллингера). Точнее говоря, пусть Е - основное базисное пространство, S - нек-рая а-алгебра (нек-рое о-кольцо) частей от Е и .М - класс всевозможных мер, определенных на S. В Л рассматривается бинарное отношение [i = X, означающее, что каждая из двух мер |1 и X абсолютно непрерывна относительно другой (то есть |1 « X и X « ц). Это отношение является отношением эквивалентности в .11 и, следовательно, разбивает .Я па непустые непересекающиеся подклассы, крые
и называются спектральными типами входящих в них мер. Для а-конечных мер \i и X соотношение [1 = Х выполняется тогда и только тогда, когда |1 «X и когда множество {*.*£ы-о} имеет >.-меру нуль. Весьма часто рассматривается задача выделения в данном спектральном типе нек-рого канонич. представителя этого типа. В частности, всякая о-конечная мера, не равная тождественно нулю, эквивалентна вероятностной мере, с к-рой обычно легче оперировать. Переход от одной меры к другой, ей эквивалентной, сохраняет многие свойства начальной меры, однако ряд важных свойств при этом может и нарушаться. Напр., при переходе от классич. а-конечной меры Лебега, заданной на действительной прямой Р? , к какой-нибудь эквивалентной вероятностной мере теряется свойство инвариантности меры Лебега относительно группы всех изометрич. преобразований прямой Л?1. Получаемая при этом вероятностная мера обладает свойством квазиинвариантности относительно указанной группы, существенно более слабым, чем свойство инвариантности. Любое свойство, присущее всем мерам, принадлежащим фиксированному спектральному типу, обычно трактуется как свойство самого этого тина. Лит.: [1] Хал мош П., Теория меры, пер. с англ., М., 1953; Не не Ж., Математические основы теории вероятностей, пер. с франц., М., 1969. А. Б. Хараэишвъит. ЭКВИВАЛЕНТНЫЕ РАЗБИЕНИЯ (equivalent partitions) - см. Измеримое разбиение. ЭКВИВАРИАНТНАЯ ОЦЕНКА (equivariant estimator) - статистическая оценка, сохраняющая групповую структуру задачи оценивания параметра. Пусть {Рв0е0}- семейство вероятностных мер на измеримом пространстве (Ж, Ю, G - группа таких преобразований па Ж, что д% = Х и д^С-^С для всех д е G, а группа G преобразований на 0 определяется тождеством РвС4) = Р-$(дА), справедливым при всех Лё^и geG. Пусть, наконец, X - случайная величина со значениями в Л. Оценка 0(Х) параметра 0 называется эквивармант- ной относительно группы G, если Q(gX) = gQ(X) для всех д е G. Наиболее важные результаты теории эквивариантного оценивания относят к случаю функции потерь L, инвариантной относительно G, то есть L(0,0) = L(^0, д&) при всех geG. Иногда вместо термина «Э. о.» используют термин «правильная оценка». Лит.: [1] Закс Ш., Теория статистических выводов, пер. с англ., М., 1975; [2) Леман Э., Проверка статистических гипотез, пер. с англ., 2 изд., М., 1979. Л. Б. Клебанов. ЭКСКУРСИЯ броуновского движения (Brownian excursion) - см. Броуновская экскурсия. ЭКСКУРСИЯ винеровского процесса (excursion of a Wiener process) - участок траектории стандартного винеровского процесса w(t) между двумя соседними нулями (процесс считается выходящим из 0). Пусть Z - множество нулей траектории w(t)} t^O. Все дополнительные к Z в [0, <*>) открытые интервалы Zn, и=1, 2, ..., можно занумеровать с помощью всюду плотной последовательности {^}, принимая за Zj интервал, содержащий точку t{eZ с минимальным номером, за Z2 - интервал, содержащий точку ^gZUZj с минимальным номером, и т.д. Пусть Zn=(an, bn). Нормированная абсолютная Э. винеровского процесса - это процесс 4Ьп~ап п-\у 2, ... Пусть e„ = sign w(t) при teZn. Случайное множество Z, случайные процессы еп и случайные величины е„ в совокупности независимы, Р{е„= 1} = Р{е„ = -1} = 1/2. Процесс еп является марковским, его переходная плотность равна ;»(П,П;*,у) = 2у2 о-У2№-ь)1 0<*<1, у >0, V2itf3(l-03 p(s, х\ t, у) = \ — у х Je-(y-x)2/2(t-s) _ еГ0/+.г)2/2(*-л)1 e-y2/2(\-t)+x2/2i\-s)t 0<.?<*<1, *>0, у>0. Интервалы (ап, Ьп), разумеется, зависимы и зависят от {£,}. Совместная плотность распределения концов Э. винеровского процесса, накрывающей наперед выбранную точку t, равна р(а,Ь) = 1 0<a<t<b<oot 2Ha(b-a)3 соответствующие частные плотности равны р№= . 1 , р2^) = 4л/?- nfdu^a) t*> V b-t Лит.: [1] Лев и П., Стохастические процессы и броуновское движение, пер. с франц., М., 1972; [2] ИтоК., Маккии Г., Диффузионные процессы и их траектории, пер. с англ., М., 1968. А. А. Юшкевич. ЭКСКУРСИЯ марковского процесса (excursion of a Markov process) - произвольный максимальный участок траектории марковского процесса X-{Xt, dv Px), t^O, отвечающий значениям t из какого-либо случайного промежутка [а, р], на к-ром Xt, исключая, возможно, £ = а, лежит вне заранее назначенного множества Г состояний марковского процесса (максимальность понимается в том смысле, что участки, отвечающие большим промежуткам времени, указанным свойством не обладают). Иными словами, пусть X - марковский процесс в фазовом пространстве (£, JS), а ГеЗВ. Дополнение замыкания случайного множества (t :Xt e Г} распадается в не более чем счетное семейство непересекающихся интервалов (а, р), и если (а, р) - один из таких интервалов, то отображение Xt:[а, р)-»£иесть экскурсия марковского процессах из множества Г; начальным и конечным моментами этой Э. марковского процесса служат аир соответственно. Соответствующая ей сдвинутая экскурсия определяется как отображение У" = = Х,+а:[0, 0-а)-+Я. Исследование Э. марковского процесса позволяет вскрыть тонкие свойства траекторий марковских процессов и описать возможные типы его продолжения после первого выхода из нек-рого множества его состояний (см. [4], [7]). Особенно интенсивно изучалась Э. марковского процесса из фиксированного состояния, в первую очередь Э. винеровского процесса (см. [1], [2]). К. Ито [3] предложил следующее описание Э. стандартного марковского процесса, совершаемых из состояний аеЕ. Пусть это состояние регулярно как для Г = {а}, так и для £\{я} (то есть Xt посещает почти наверное Ра и {а} и £\{а} при сколь угодно малых значениях £>0), и пусть A(t) - локальное время в точке а. Оказывается, что совокупность {Уа} всех сдвинутых Э. можно вложить в нек-рое пространство Й, наделенное измеримой структурой, на к-ром задана а-конечная мера v со следующими свойствами; а) ес- ли Da [0,°o)xU измеримо и Х= (/xv)(D) <<*>, где /- мера Лебега в [0, <*>), то число T|(D) элементов множества {У°: (Л(а), Уа) е D) имеет пуассоновское распределение с параметром Х\ б) для любого конечного набора непересекающихся множеств D; указанного вида величины y\{D{) независимы. ЭКСКУРСИЯ 811
Обсуждаемое понятие Э. допускает далеко идущее обобщение (см. [5]); удалось описать вероятностный механизм, управляющий Э. многих типов (см. [5], [6]). В [5] разработан технич. аппарат исчисления Э. Лит.: [1] ИтоК., Маккин Г., Диффузионные процессы и их траектории, пер. с англ., М., 1968; (2) Леви П., Стохастические процессы и броуновское движение, пер. с франц., М., 1972; [3] По К., «Proc. Sixth Berk. Symp. Math. Statist, and Probab.», 1972, v. 3, p. 225-40; [4] Дынкин E. Б., «Теория вероятн. и ее примен.», 1971, т. 16, в. 3, с. 409-36; [5] Maisonneuve В., «Ann. Probab.», 1975, v. 3, № 3, p. 399-411; [6] Getoor R. К., Sharpe M.J., «Adv. in Math.», 1982, v. 45, p. 259-309; [7] Bi u men thai R. M., «Z. Wahr. und verw. Geb.», 1983, Bd 63, № 4, S. 433-44. M. Г. Шур. ЭКСПЕРИМЕНТА ОШИБКА (experiment error) - см. Систематическая ошибка. Случайная ошибка. ЭКСПОНЕНЦИАЛЬНАЯ АВТОРЕГРЕССИОННАЯ МОДЕЛЬ (exponential autoregressive model/EXPAR-model) - см. Нелинейной авторегрессии процесс. ЭКСПОНЕНЦИАЛЬНАЯ ПРОИЗВОДЯЩАЯ ФУНКЦИЯ (exponential generating function) - см. Производящая функция. ЭКСПОНЕНЦИАЛЬНАЯ р-УСТОЙЧИВОСТЬ (exponential ^-stability) - см. Устойчивость дифференциальных уравнений со случайными определяющими элементами. ЭКСПОНЕНЦИАЛЬНОЕ НЕРАВЕНСТВО (exponential inequality) - см. Чебышева неравенство. ЭКСПОНЕНЦИАЛЬНОЕ ПРЕОБРАЗОВАНИЕ случай ного пробега (exponential transformation of random path) - весовая модификация статистического моделирования задач переноса, состоящая в том, что длина / свободного пробега частицы реализуется для фиктивной среды с коэффициентом ослабления а' = а -с cos v, где v - угол между направлением пробега и выделенным направлением w. «Вес» частицы при этом умножается на величину а(а- -ccosv) exp(-/c cos а). Э. п. случайного пробега удлиняет пробег в направлении w\ это улучшает оценки соответствующих функционалов, если величина с определена удовлетворительно (см. [2]). Лит.: [11 Ер маков СМ., Михайлов Г. А., Статистическое моделирование, 2 изд., М., 1982; [2] М и хай л о в Г. А., «Ж. вычислит, матем. и матем. физики», 1981, т. 21, № 6, с. 1435-44. Г. А. Михайлов. ЭКСПОНЕНЦИАЛЬНОЕ РАСПРЕДЕЛЕНИЕ (exponential distribution) - см. Показательное распределение. ЭКСПОНЕНЦИАЛЬНОЕ СЕМЕЙСТВО РАСПРЕДЕЛЕНИЙ (exponential family of distributions) - семейство распределений ^={РШ} на измеримом пространстве (Ж, U), зависящих от абстрактного параметра со и задаваемых относительно нек-рой а-конечной меры |Х плотностями d?t р(х, со)=-~ = г/ц = С(соЖ*)ехр {Ct(co)(pj(*) + ... + CJa^Jx)}, (*) где х еЖ, со eft, С(со)>0, С^со), ..., С„,(со) - функции на Q, h(x)^Q, (PjW, ..., <рт(х) - измеримые функции на Ж. Пусть т - минимальное целое, при к-ром Э. с. р. допускает представление (*). Представление (*) минимально тогда и только тогда, когда функции (PjCx), ..., Ут(х) "а Ж и Cj(со), .... Cw(co) на С1 линейно независимы. В этом случае параметризация (Э^ ..., 0W) Э.ср., где 8;-=С;-(ю), /=1,..., w, называется канонической, aw- рангом Э. с. р. Важную роль играет канонич. параметрич. множество 0={(01, ..., 0OT):coeQ}. Если 0 содержит нек-рую окрест- 812 ЭКСПОНЕНЦИАЛЬНОЕ ность пространства И?"1, то Э. с. р. полное (см. Полное семейство распределений). Исключительная роль Э. с. р. в статистич. задачах объясняется тем, что при довольно общих условиях типа регулярности только выборки из Э. с. р. допускают нетривиальные достаточные статистики. Таким образом, с аналитич. точки зрения Э. с. р. можно характеризовать как единственные (при условиях типа регулярности) решения функциональных уравнений вида где Т - нетривиальная статистика (см. [1]). Для выборок Х\, ..., хп из Э.с. р. (*) статистич. выводы можно базировать на статистике T-(tu ..., tm), t(x\, ..., хп)- = Е, _ j <fyС*;), /= 1, ..., т, размерность к-рой не растет вместе с объемом выборки п. Многие часто встречающиеся в приложениях семейства оказываются Э. с. р. Примером может служить семейство нормальных плотностей р(х; at а2) = (2ла2)"1/2ехр{-(д:-а)2/2а2}, имеющее вид (*) с со=(а, а ), т = 2, (р^(х)=х , Ct(u)) = = ~1/2а2, <?2(х)=х, С2((й)=а/с2. Для Э. с. р. возможно построение точной (относящейся к малым выборкам) теории статистич. выводов в значительно большем объеме, чем для произвольных семейств, где приходится удовлетворяться асимптотической (относящейся к большим выборкам) теорией. Последняя для Э.с. р. оказывается богаче. В частности, в неравенстве Рао - Крамера знак равенства может достигаться только для Э. с. р. Для Э. с. р. всегда существуют подобные зоны, имеющие так наз. структуру Неймана; для полных Э. с. р. они исчерпывают все подобные зоны. Для Э. с. р. ранга 1 существуют равномерно наиболее мощные критерии простой гипотезы против односторонней альтернативы. Наконец, Э. с. р. являются (см. [4]) геодезич. линиями и поверхностями на многообразиях, порожденных взаимно абсолютно непрерывными мерами с естественной линейной связностью. Таким образом, Э. с. р. выделяется и с геометрич. точки зрения. Систематич. изучение Э. с. р. началось в 30-х гг. 20 в. Первые математически строгие результаты были получены Ж. Дармуа (G. Darmois), Б. Купменом (В. Koopman) и Э. Питменом (Е. Pitman), хотя уже Р. Фишеру (R. Ficher) была ясна роль Э. с. р. в теории достаточных статистик. Поскольку Э. с. р. играет в определенном смысле экстремальную роль в статистич. задачах, неудивительно, что оно встречалось в работах Л. Больцмана (L. Boltzmann) по статистич. механике, а Э. с. р. ранга 1 - еще в работах К. Гаусса (С. Gauss) в связи с оценками максимального правдоподобия. Лит.: [1] Каган A.M., ЛинникЮ. В., Рао С. Р., Характгри- зационные задачи математической статистики, М., 1972; [2] ЛинникЮ. В., Статистические задачи с мешающими параметрами, М., 1966; [3} Лсман Э., Проверка статистических гипотез, иер. с англ., 2 изд., М., 1979; [4] Ченцов Н. Н., Статистические решающие правила и оптимальные выводы, М., 1972; |5] Barndorff-Nielsen О., Information and exponential families in statistical theory, N. Y., 1978. A.M. Каган. ЭКСПОНЕНЦИАЛЬНЫЙ АВТО РЕГРЕССИОННЫЙ ПРОЦЕСС (exponential autoregressive process/EXPAR-pro- cess) - см. Нелинейной авторегрессии процесс. ЭСТРАПОЛЯЦИЯ случайных процессов (extrapolation of random processes) - см. Случайный процесс; прогнозирование. ЭКСТРЕМАЛЬНАЯ СТАТИСТИЧЕСКАЯ ЗАДАЧА (extremal statistical problem) - задача нахождения значения пара-
метра y(fn)eY, минимизирующего функцию fn\%nxY -►IR1 от элементов выборки Xv X2, ..., Хпе£ и параметра yeY, то есть y(/-„) = argmin/-nal,X2, ...,Xn,y). yeY Многие методы прикладной статистики приводят к Э. с. з. (см. [1]), в частности метод наименьших квадратов, предложенный К. Гауссом (С. Gauss, 1795). Э. с. з. играют важную роль в статистике объектов нечисловой природы; так, в их терминах вводятся понятия теоретического и выборочного средних. Установлена асимптотика решений Э.с. з. (см. [2]). Лит.: [\] АйвазянС.А., ЕнюковИ.С, Мешал кип Л. Д., Прикладная статистика. Основы моделирования и первичная обработка данных, М., 1983; [2| Орлов А. И., в кн.: Анализ нечисловых данных в системных исследованиях, М., 1982, с. 4-12. А И. Орлов. ЭКСТРЕМАЛЬНЫХ ЗНАЧЕНИЙ РАСПРЕДЕЛЕНИЕ (distribution of extreme values) - распределение наибольшего X(wn) или наименьшего X^ln^ значения в наборе из п независимых одинаково распределенных случайных величин X] Х„ частный случай распределения порядковых статистик. Если известна функция распределения F(x) случайной величины Х1( то F(nn)(x) = P{X(m)<x) = F4x), F(ln)(*) = P{X(ln)<*}=l-(1-FW)". Медианы экстремальных значений т = т(Х(пп)) и т = т(Х(1п)) можно вычислить из уравнения F(m)= 1 -F(m) = 1/2". Важной характеристикой Э. з. р. являются характеристич. экстремумы: характеристич. наибольшее значение ип, определяемое из уравнения F(un) = \ - \/п, и характеристич. наименьшее значение м, определяемое из уравнения nF{ux)- 1. Среднее число величин Xj, ..., Хп, не меньших ип, совпадает со средним значением величин, не больших uv и равно 1. Характеристич. экстремумы совпадают с квантилями исходного распределения порядка (и- 1)/и и 1/и соответственно. Они являются основой критерия Шовенэ для принятия или отбрасывания экстремальных результатов наблюдений (см. [Ц). Пусть случайные величины X} , ..., Х„ с общей функцией распределения F (х) центрированы своим характеристич. наибольшим значением, то есть F' (0) = 1 - \/п. Тогда условие lim п(\ -F(y/an)) = e (см. [2]), где F(n\\/an) = \-\/ne, является необходимым и достаточным для того, чтобы lim (F (*))" = А(х) = ехр(е_аг), где a- lim ап\ условие п~*°° lim -=ck, mf{x:Fin)(x)>0}-- ~Г < оо, где с>0, fe>0, является необходимым и достаточным для того, чтобы условие lim(F<»)W)" =Ф(Л) = {еХР(-(г/(л + г))*)' Х>~Г' i-юо [0, х<- г; \-FK'{cx+w) k i гЫ/ v^n ^л ~ -=с , sup{*:Fv U)< \}-w>0, lim x^-0 \-F""(x+w) где с, k>0, является необходимым и достаточным для того, чтобы lim(F<»>(*))" =44*) = W(-((^-^)/^)*), *<". П-^оо [1, X>W. Предельные функции распределения Л(х), Ф(*), Ч*(х) исчерпывают все возможные случаи. *<»'W»+1Wk, Предельные теоремы для наименьшего значения можно получить из приведенных результатов с учетом того, что Ftnn)M = \-F(ia)(-x). Лит.: [1] ГумбельЭ., Статистика экстремальных значений, пер. с англ., М., 1965; [2) GnedenkoB., «Ann. Math>, 1943, v. 44, № 3, p. 423-53. с. Я. Шоргин. ЭКСТРЕМАЛЬНЫХ ЭКСПЕРИМЕНТОВ ПЛАНИРОВАНИЕ (design of extremal experiments) - выбор условий проведения экспериментов, направленных на отыскание локального экстремума функции регрессии Еу(х), .reXclR". Здесь эксперимент состоит в вычислении значения случайного поля у(х). Общий вид алгоритмов Э. э. п. таков: о где fe^O - номер итерации, у0> Yi>••• ~ неотрицательные случайные величины, называемые длинами шагов; s0, sit... - случайные гс-мерные векторы (направления движений); х е X - начальное приближение. Для исследования сходимости и скорости сходимости последовательности точек (*) к точке локального экстремума функции регрессии g(x) ~ Еу(х) могут быть использованы результаты теорий стохастич. аппроксимации и адаптивного управления (см. [1]). Качество алгоритмов Э.э. п. обычно характеризуется, однако, не асимптотическими, а локальными (одношаговыми) свойствами. Методы Э. э. п. разрабатывались и применялись в основном для оптимизации реальных объектов и процессов без помощи ЭВМ и поэтому имеют особенности, отличающие их от других поисковых алгоритмов адаптивного управления. В алгоритмах Э. э. п. обычно предусматривается: а) многократное проведение статистич. анализа экспериментальных данных (в том числе линейного регрессионного анализа для построения линейной или квадратичной модели функции регрессии); б) специфич. выбор плана эксперимента на каждой итерации алгоритма (критериями при выборе плана обычно являются: ортогональность, ротабельность, композиционность, насыщенность, оптимальность в смысле D-, Q-, А- и других критериев) (см. [lJ-[3], а также Регрессионных экспериментов планирование); в) выбор направления движения в соответствии с построенными регрессионными моделями и специальными критериями оптимальности (направлением движения часто является оценка градиента функции регрессии в заданной точке; см. [2], [3]); г) выбор длины шага как случайной величины после проведения нескольких измерений вдоль выбранного направления (см. [2]-[4]). Из алгоритмов Э. э. п. наиболее известны симплексный метод (см. [2], [3], [6])и метод крутого восхождения (см. [2]-[5]). Суть симплексного метода состоит в том, что точки х при k > n получаются путем отражения многогранника с вершинами в нек-рых из точек х , ..., х относительно какой-либо из его граней. Наиболее простым вариантом симплексного метода является так наз. последовательный симплексный метод, предложенный в нач. 60-х гг. 20 в. и использующий зеркальное отражение регулярных симплексов [то есть правильных многогранников, имеющих (и+1) вершину] относительно граней, противоположных вершинам, в к-рых значение случайной величины у(х ) наихудшее (наибольшее, если ищется минимум, и наименьшее, если ищется максимум). Размеры симплексов обычно уменьшают с ростом номера шага, поскольку при их постоянном размере невоз- ЭКСТРЕМАЛЬНЫХ 813
можно одновременно обеспечить высокую скорость движения в начале поиска и точность отыскания экстремума в его конце. Суть стандартного варианта метода крутого восхождения для поиска максимума состоит в следующем. Для выбора направления движения sk из точки х проводится серия из N>п измерений [то есть вычисляются значения случайного поля у(х) в специальным образом определенных точках множества X], Точки проведения измерений находятся в настолько малой окрестности х , что в ней приближенно справедлива линейная зависимость функции регрессии Т|(*) от х. Параметры линейной регрессии (в том числе компоненты градиента Vr|(;r )) оцениваются по методу наименьших квадратов. Если оценка функции регрессии значимо отличается от константы, то эта оценка выбирается в качестве sk, в противном случае проводятся дополнительные измерения и оцениваются параметры квадратичной по х модели для функции регрессии, а в качестве х + выбирается точка экстремума оценки квадратичной регрессии. Для определения длины шага yk в направлении оценки градиента V(xK ') выбирают последовательность {z.}, /=1, 2, ..., равноотстоящих точек в этом направлении и вычисляют y{z:)> j- l, 2, ..., до тех пор, пока не выполнится неравенство y(z•) < y(z.-._]), после чего полагают * + = Zj. Возможны и другие способы выбора длины шага и направления движения (см. [2]). Если в качестве плана проведения измерений выбирается либо полный факторный план 2" [это означает, что измерения проводятся в 2" точках вида .г + ( ±ait ± а2, ...,± tf„)T], либо дробные реплики от него, то метод крутого восхождения называют также методом Бокса - Уилсона. Лит.: [1] Математическая теория планирования эксперимента, М., 1983; [2] ЕрмаковС. М., Ж и г л я веки й А. А., Математическая теория оптимального эксперимента, М., 1987; [3] Налимов В. В., Чернова Н. А., Статистические методы планирования экстремальных экспериментов, М., 1965; [4] Адлер Ю. П., Маркова Е. В., Грановский Ю.В., Планирование эксперимента при поиске оптимальных условий, 2 изд., М., 1976; [5) Д ам брау скас А. П., Симплексный поиск, М., 1979. Л. А. Жиглявский. ЭКСЦЕСС блуждания (excess/overshoot of a walk), перескок, - расстояние от границы до положения блуждающей частицы в момент первого прохождения этой границы. Пусть St, г ^ О, - траектория одномерного случайного блуждания и f-f(t) - заданная неслучайная функция (граница). Тогда эксцесс блуждания определяется как случайная величина _ г/ ч Xf=Sn-/Xn), где г\ =Т|/- inf {t ^ 0:St^f(t)} - первого прохождения границы время. Наиболее полно Э. блуждания изучен для прямолинейных границ и для случайного блуждания 50 = 0, 5j =ХХ, ..., Sk = = ХХ + ... +Xfe, порожденного суммами независимых одинаково распределенных случайных величин Xk. Пусть х(*)> т\(х) - случайные величины Хл Л/- Для прямолинейной границы f(t) =х-const. Тогда для |<?|<1, Im Х-0, Im (i<0 верны соотношения (см. [1], [2]) где 1 - E(^0+)etX*(0+); Л(0 + ) <-) = Л+(г, X), \°°е^и(1иЕ{г^и)е^и)\ т\{и)<~) = _ ц ( А+(г,Х)] Х-\х{ Л+(г,ц)/ Л+(,Д) = ехр{~ХГ=1 4E(e^;5*>0)}» (1) (2) 814 ЭКСЦЕСС если положительная компонента факторизации функции A(zt X) = = 1 -zEe1 { (см. Фактпоризационные тождества). Если через х* обозначить первую неположительную сумму среди S\, 52,... и через Т|* - момент ее появления, то (см. [1], [2]) 1 ~zEeiXX^ = (1 -Е(2ч(0+)еадо+>; л (О + ) <~» * х(1-Е(/1*ел**; л*<~». О) Первая положительная сумма х(0 + ) называется лестничной высотой; вместе с лестничным моментом Т|(0 + ) она образует лестничную пару. Из формул (1)-(3) можно извлечь основные свойства распределения величины Х(*). Э. блуждания х(*) будет собственной случайной величиной (г\(х) <0° почти наверное) тогда и только тогда, когда ряд 1Г-, *-'р<**>0} расходится; для расходимости этого ряда достаточно, чтобы О^ЕЛ^оо (см. [1]). Существуют постоянные Л, В, С такие, что для г^О (см. [4]) ЛЧЧО < Р{х(0 + ) > t) ^ ВЧЧО, если ЕХ\ >0, ЛФ(г) + BVti) < Р{х(0 + ) > t) ^ СФ(0, если ЕЛ^О, 0<DA'1 <oo; здесь 4>(г) = P{JV, > г}, Ф(0 = j~ VOMu. Если распределение Х{ не является арифметическим и Ех(0 + ) < оо, то при п -> оо существует предел (см. [1 ]) G(r) = llm_ P{xi„)<t) = ^L- j'a P{x(0+)>x}dx. Такой же предел существует и в арифметич. случае, когда уровень и меняется кратно шагу решетки распределения х(0 + X Функция G(t) называется функцией распределения перескока х(°°) через бесконечно удаленный барьер. Изучено также асимптотич. поведение вероятности Р{г\(и) = -п, х(м) <х} прии = и(п) ->«> (см. [3], [5]). Для любых м^О справедливы (см. [6], [10|) неравенства Ex*(wK—E|A-J*+t /EX., если EX, >0, EXk(u)^^E\X.\k+2 /EX* если EX.^0, где А - абсолютная константа. Э. блуждания изучен также для криволинейных границ (см. [3], [13]), для процессов с независимыми приращениями (см. [6], [7]), для цепей Маркова (см. [9]). Предельное распределение Э. блуждания х(") при и -> оо для полумарковских случайных блужданий изучено в [8]. [11], [12]. Э. блуждания играет существенную роль в исследованиях, связанных с граничными задачами для случайных блужданий. Лит.: [1] Ф ел л ер В., Введение в теорию вероятностей и ее приложения, пер. с англ., т. 2, М., 1984; [2] Боровков А. А., Вероятностные процессы в теории массового обслуживания, М., 1972; [3] его же, «Сиб. матем. ж.», 1962, т. 3, № 5, с. 645-94; 1964, т. 5, № 2, с. 253-89; [4] Рогози н Б. А., «Теория вероятн. и ее примем.», 1964, т. 9, в. 3, с. 498-515; 1972, т. 17, в. 1, с. 143-47; [5] Нагаев А. В., там же, 1984, т. 29, в. 2, с. 410-11; 161 Могу л ь- ский А.А., там же, 1973, т. 18, в. 2, с. 350-57; 1976, т. 21/в. 3, с. 486-96; (7] Печерски и Е. А., Рогозин Б. А., там же, 1969, т. 14, в. 3, с. 431-44; [8] Шу ренков В. М., там же, 1984, т. 29, ». 2, с. 248-63; ]9] Прссман Э. Л., «Изв. АН СССР. Сер. матем.», 1969, т. 33, № 4, с. 861-900; [10] Lorden G., «Ann. Math. Statist», 1970, v. 41, № 2, p. 520-27; [111 K est en H., «Ann. Probab.», 1974, ЛЬ 2, p. 355-86; [12} JacodJ., «Ann. Inst. H. Poincare B», 1971, v. 7, Jv> 2, p. 83-129; [13] Walk H., «Stoch. Proc. Appl.», 1989, v. 32, № 2, p. 289-304. А. А. Боровков, А. А. Могулытми.
ЭКСЦЕСС распределения (excess of a distribution) - характеристика унимодального распределения, выражающая островершинность или сглаженность графика плотности в окрестности моды. Наиболее употребительная мера Э. - эксцесса коэффициент. Предлагались и другие показатели Э. (см. [1]). Э. распределения нормален, положителен или отрицателен, если коэффициент Э. соответственно равен нулю, положителен или отрицателен. В случае положительного (отрицательного) Э. распределения график плотности в окрестности моды имеет более высокую и острую (соответственно более низкую и плоскую) вершину, чем график нормальной плотности. Лит.: [1] Крамер Г., Математические методы статистики, пер. с англ., 2 изд., М, 1975. С. Я. Шоргин. ЭКСЦЕССА КОЭФФИЦИЕНТ (coefficient of excess) - простейшая и наиболее употребительная мера эксцесса распределения, определяемая формулой 2 где (14 - четвертый центральный момент, а а - дисперсия распределения. Для нормального распределения у2 = 0. При у2"0 распределение имеет нормальный, при у2>0 ~ положительный, а при у2<® ~ отрицательный эксцесс. Выборочным коэффициентом эксцесса называется величина где Xv ..., Хп - независимые случайные величины с одинаковой плотностью распределения, X и s - выборочные среднее и дисперсия. Выборочный Э. к. используется в критериях для проверки гипотезы Яо:у2*0> из к-рой следует отличие распределения случайной величины X, от нормального. С. Я. Шоргин. ЭКСЦЕССИВНАЯ МЕРА для цепи Маркова (excessive measure for a Markov chain) - понятие, двойственное понятию эксцессивной функции. Пусть в измеримом пространстве (£, Л) рассматривается однородная цепь Маркова с вероятностями перехода р(х, Г), х е Е, ГеЭ0. Мера (I, заданная на Л, называется эксцессивной мерой для этой цепи, если она а-конечна и fiP^fi, где uP()sJEpU, -)\i(dx) (в случае, напр., цепи Маркова с состояниями 1, 2,... меру (I удобно отождествить с последовательностью {\iu \i2,...}, положив fij—uXfi}); тогда неравенство цР^ц. сведется к системе неравенств V^ PijV-i^Ц,-» 7^1» где р^ - вероятность перехода из i в /). Любое стационарное распределение цепи доставляет пример Э. м. В случае марковских процессов и неоднородных цепей определение Э. м. усложняется. Так, для однородного марковского процесса, заданного в измеримом пространстве (£", Л) и имеющего переходную функцию p(tf х, dy), l^O, xeE, под Э. м. понимают любую а-конечную меру (I, определенную на а-алгебре Л или на нек-ром ее расширении, для к-рой цР^ц. при ^0и цР,->|1 при tiO, где \iPt()=jEp(t, х, )\i(dx). См. также Потенциала теория для марковского процесса. Лит.: [1] Рев юз Д., Цепи Маркова, пер. с англ., М., 1997; |2) Del lacherie С, Meyer P.-A., Probabilites et potentiel, Ch. IX-XI: Theorie discrete du potentiel, P., 1983. M. Г. Шур. СС-ЭКСЦЕССИВНАЯ МЕРА (a-excessive measure) - см. Потенциала теория для марковского процесса. ЭКСЦЕССИВНАЯ ФУНКЦИЯ для цепи Маркова (excessive function for a Markov chain) - аналог неотрицательной супергармонической в классическом понимании функции; одно из центральных понятий вероятностной теории потенциала (потенциала теории для цепей Маркова). Пусть в измеримом пространстве (Е, Л) задана однородная цепь Маркова с вероятностями перехода р(х, Г), х е Е, Г еЛ. Функция f, 0^У^<*>, называется эксцессивной функцией для этой цепи, если она ^-измерима и Pf^f, где P/r()=j£ f(yW:dy) (в случае, напр., цепи с состояниями 1, 2, ... функцию /"^0 удобно отождествить с последовательностью {fu f2> ...}, положив fi-f(i)\ тогда неравенство Pf^f сведется к бесконечной системе неравенств V .^,/,^/i» i^l, в к-рых pi - вероятность перехода из г в У за один шаг). Примерами Э. ф. служат неотрицательные константы и функции пГ(х) и фг(дг), где яг(дг) (соответственно <рг(лг)) - вероятность, выйдя из х е Е, бесконечное число раз (соответственно хотя бы однажды) побывать в множестве Те Л. В первых двух из этих примеров Э. ф. являются гармонич. функциями для цепи. Потенциал #u = Y ^л Pnv любой ^-измеримой функции v, 0^г^°°, также дает пример Э. ф. Для возвратных цепей Маркова все Э. ф. суть константы. Всякая Э. ф. f разлагается в сумму гармонич. функции и потенциала нек-рой функции и^О, и это разложение (разложение Рисе а) единственно, если lim Р"/"<0° (см. [2]). Для марковских процессов определение Э. ф. усложняется. Пусть, напр., Е - борелевское множество в метризуемом компакте, а Л - совокупность его борелевских подмножеств. Пусть в измеримом пространстве (£", Л) задан однородный марковский процесс с переходной функцией pit, x, dy), t^O, х g E. Универсально измеримая (то есть измеримая относительно пополнения Л по любой конечной мере на Л) функция /", О^/^оо, называется Э. ф. для этого процесса, если Ptf^f при всех i>0 и WmPtf=f, tio Ptf() = lHf(y)p(t,-,dy). Лит.: [lj Ревюз Д., Цепи Маркова, пер. с англ., М., 1997; [2] Del 1 ас her ie С, Meyer P.-A., Probabilites et potentiel, Ch. IX-XI: Theorie discrete du potentiel, P., 1983. M. Г. Шур. ЭКСЦЕССИВНАЯ ФУНКЦИЯ для части вин еров ского процесса (excessive function for a part of the Wiener process) - см. Винеровский процесс; эксцессивные функции для его части. а-ЭКСЦЕССИВНАЯ ФУНКЦИЯ (а excessive function) - см. Потенциала теория для марковского процесса. ЭЛАЙЗИНГ (aliasing) - см. Наложение частот. ЭЛЕМЕНТАРНАЯ ВЕРОЯТНОСТЬ (elementary probabi lity) - см. Вероятностей теория. ЭЛЕМЕНТАРНАЯ МЕРА (elementary measure) - квазиинвариантная (инвариантная) мера, имеющая хотя бы одну элементарную часть (эргодическую компоненту). Пусть (X, G, 5, (i) - пространство с квазиинвариантной (инвариантной) мерой; другими словами, X - основное базисное множество, G - нек-рая группа преобразований этого множества, S - нек-рое G-инвариантное а-кольцо частей множества X и ц. - нек-рая G-квазиинвариантная (G-инвариант- ная) мера, заданная на а-кольце S. Далее, пусть У - произ- ЭКСЦЕСС 815
вольное ц-измеримое почти G-инвариантное (относительно \i) подмножество в X. Тогда функция \iY> определяемая с помощью равенства liY(Z) = \L(ZriY),Z<ES, представляет собой G-квазиинвариантную (G-инвариантную) меру на а-кольце S. Эту меру называют частью (компонентной) меры [I, соответствующей множеству У. Часть Цу меры |i называется элементарной, если она не тривиальна (то есть не равна тождественно нулю) и эргодична (обладает свойством метрич. транзитивности). Последнее означает, что, каково бы ни было ц-измеримое множество Z a Y, соотношение д eG =>\i(g(Z)AZ)-0 для любого д влечет за собой дизъюнкцию \i(Z) = OvuX Y\Z) = 0. На практике в основном встречаются элементарные квазиинвариантные (инвариантные) меры. Однако существуют инвариантные меры, не являющиеся элементарными. Более того, в евклидовом пространстве IR", я>1, можно построить меру, инвариантную относительно группы всех движений этого пространства, служащую продолжением классич. меры Лебега в IR", но не являющуюся элементарной. Лит.: [1) Харазишви л и А. Б., Инвариантные продолжения меры Лебега, Тб., 1983. А. Б. Харазигивили. ЭЛЕМЕНТАРНОЕ МНОЖЕСТВО (elementary set) - см. Произведение мер. ЭЛЕМЕНТАРНОЕ СОБЫТИЕ (elementary event) - исходное понятие вероятностной модели. В определении вероятностного пространства (Q, .<-/, Р) непустое множество Q называется пространством элементарных событий, а его любая точка сое Q называется элементарным событием. При неформальном подходе множество Q описывает множество всех исходов нек-рого случайного эксперимента и Э. с. со соответствует элементарному исходу: эксперимент заканчивается одним и только одним элементарным исходом, эти исходы неразложимы и взаимно исключают друг друга. Существует принципиальная разница между Э. с. (О - точкой множества Q и событием {со} - элементом нек-рого класса множеств .</. См. Вероятностей теория, Вероятностное пространство, Случайное событие, Алгебра событий. А. В. Прохоров. ЭЛЕМЕНТАРНЫХ СОБЫТИЙ ПРОСТРАНСТВО (space of elementary events) - см. Пространство с мерой, Элементарное событие. ЭЛЛИПТИЧЕСКИЙ ЗАКОН (elleptic law) - предельный закон для нормированных спектральных функций случайных матриц Еп- ||5у|| порядка п, для к-рых случайные векторы (£у, £;i), i^j, i, У=1, ..., п, независимы. Пусть для каждого значения п-\, 2, ... случайные векторы (£,., £/,-), i^j, i, j- - \, ..., п, стохастически независимы, заданы на одном вероятностном пространстве Е^-0, EliyW, Е^ = »-'р, i+j, 0<|р|<1, у мнимых и действительных частей случайных элементов ^;, £7-j случайной матрицы Нп= |^;||";=1 существуют совместные плотности распределения Ру(хя), s=\ 4, для нек-рого Р>1 f в 4 sup sup J ;&(■*,)П dxs <<*>, s = 1, .... 4, для нек-рого 8 > О sup sup E|£..V^|2+6<oo. n i,j=\,...,n Тогда для любых х и у с вероятностью 1 lim vn(x, у) = Х(х, у), 816 ЭЛЕМЕНТАРНОЕ v„(x, у) = п~] ^=1 F(ReXk-x)F(\mXk-y), F(y) = 1 при у < О, F(y) = 0 при у > О, Xk - собственные значения матрицы Еп,Х(х, у)- э л л и нти чески й закон распределения, плотность к-рого равна р(х, t/) = 7u"1[l-(fl2 + fe2)2r1 при условии, что переменные хну удовлетворяют неравенству (Ьх - ау)2( \-а2 + Ь2У2 + (ах + Ъу)Ч \+а2 + Ь2)'2 <а2 + Ь2, a = ReVjT, b=InWjT. Лит.: [1] ГиркоВ.Л., «Успехи матем. наук», 1985, т. 40, в. 1, с. 67-104. В. Л. Гирко. ЭЛЛИПТИЧЕСКОЕ УРАВНЕНИЕ; решение методом Монте-Карло (Monte Carlo solution method for an elliptic equation) - совокупность алгоритмов Монте-Карло метода, основанных на представлении решения «(•) краевой задачи в виде условного математического ожидания и(х) = EXF(W), где W - случайная траектория подходящего случайного процесса, начинающаяся в точке х, F - функционал от нее. Так, для задачи Дирихле для уравнения Лапласа Аи(х) = 0, х е G; и(х)\сс = <р(х), W(t) будет траекторией процесса броуновского движения, F(W) = <р(\У(т)), где т - момент первого выхода на 0G. Сходные представления справедливы для различных краевых задач для уравнений Лапласа, Пуассона, Гельм- гольца, 6и-, поли- и метагармонических, а также для уравнения теплопроводности. В расчетах броуновское движение может быть приближенно заменено блужданием по решетке (что приведет к решению разностного аналога задачи). Более эффективен блуждания по сферам метод, позволяющий не разыгрывать несущественные для вычисления F(W) участки траектории. Разработаны также алгоритмы блуждания по границе области, оказавшиеся удобными для решения задач теории потенциала и упругости (см. [6]). Построены основанные на статистич. моделировании диффузионных процессов методы решения краевых задач для общих эллиптич. уравнений второго порядка. Особенность метода Монте-Карло для решения эллиптич. уравнений - возможность вычисления искомых функционалов от решения, напр. решения и его производных в фиксированной точке, без построения детальной оценки решения. Лит.: [11 Елепов Б. С. [и др.], Решение краевых залач метолом Монте-Карло, Новосиб., 1980; 121 Ермаков СМ., Некрут- кин В. В., С и пин А. С, Случайные процессы для решения классических уравнений математической физики, М., 1984; [31 Браун Дж., в кн.: Современная математика для инженеров, пер. с англ., М,, 1959, с. 275-301; [4] MullerM., «Ann. Math. Statist. ►, 1956, v. 27, № 3, p. 569-89; [5) M и хай лов Г. А., С абе л ьфс л ьд К. К., Чепцов Н.Н., » кн.: Актуальные проблемы прикладной математики и математического моделирования, Новосиб., 1982, с. 69-82; [61 Са- бел ьфе льд К. К., Симонов Н. А., «Докл. АН СССР», 1984, т. 275, № 4, с. 802-05. Г. А. Михайлов. ЭЛФИНГА ТЕОРЕМА ЭКВИВАЛЕНТНОСТИ (Elfiag equivalence theorem) - см. Регрессионных экспериментов планирование. ЭМИГРАЦИЯ в ветвящемся процессе (emigration in a branching process) - см. Ветвящийся процесс с эмиграцией. ЭМПИРИЧЕСКАЯ БЕЙЕСОВСКАЯ ОЦЕНКА (empirical Bayesian estimator) - статистическая оценка в рамках эмпирического бейесовского подхода, то есть решающая функция, зависящая как от результатов данного (текущего) эксперимента, так и от результатов предыдущих исследований, несущих информацию об априорном распределении оцениваемого параметра. Пример. Бейесовская оценка параметра 8 распределения Пуассона fix, e) = ev%!, х = о, 1,....
по одному наблюдению при квадратич. функции потерь равна гд1 .г - результат наблюдений, /с<*>=£л*.е>о<ае>, G - априорное распределение. Пусть G неизвестно, но статистик располагает серией аналогичных наблюдений xv ..., xk в k предыдущих экспериментах, к-рую можно трактовать как выборку из безусловного распределения fG(). В таком случае можно предложить состоятельные (£-><*>) оценки fG(x + 1) и fG(x)} положив, напр., fG(y) равной числу результатов у в ряду хл, ..., xk. Э. б. о. eG(x) = U+\)fG(x + \)/fG(x) сходится почти всюду к бейесовской и, таким образом, является состоятельной (£-><*>) оценкой бейесовской оценки GG(.c); риск, построенный Э.б. о., сходится к бейесовскому риску. Лит.: [1] Робби»с Г., «Математика», 1966, т. 10, в. 5, с. 122-40; [2J Закс Ш., Теория статистических выводов, нер. с англ., М., 1975. И. Н. Володин. ЭМПИРИЧЕСКАЯ БЕЙЕСОВСКАЯ РЕШАЮЩАЯ ФУНКЦИЯ (empirical Bayesian decision function/rule) - см. Байесовский подход эмпирический. ЭМПИРИЧЕСКАЯ КОВАРИАЦИОННАЯ МАТРИЦА (empirical covariance matrix) - см. Случайная матрица. ЭМПИРИЧЕСКАЯ ЛИНИЯ РЕГРЕССИИ (empirical recession line/curve) - статистическая оценка неизвестной истинной регрессии линии. ЭМПИРИЧЕСКАЯ МЕРА (empirical measure) - см. Случайная мера, Сходимость эмпирических мер и эмпирических процессов. ЭМПИРИЧЕСКАЯ ФУНКЦИЯ ВЛИЯНИЯ (empirical influence function) в статисти ческом прогнозе погоды - функция многомерного аргумента, значения к-рой задают величины коэффициентов регрессии в случае прогноза погоды, основанного на системе предикторов (значения к-рых определяют даваемый прогноз), выбранных исходя из дина- мим, уравнений, описывающих изменение во времени предсказываемой величины. Пусть, напр., интересуются прогнозом значения X нек-рого метеорологич. поля в заданной точке атмосферы, причем уравнения гидро- и термодинамики указывают на то, что изменение значения X во времени связано в первую очередь с влиянием доступных наблюдению полей У\=У\(х, у, z} t)} У2~У2^Х^ У> 2> ^) и е1Че поля Уз = Уз(х> У> ^ заданного на поверхности Земли, причем зависимость производной dX/dt от полей г/j, у2, у^ можно в первом приближении считать линейной. В таком случае, даже не выписывая динамич. уравнения для X, можно утверждать, что изменение значения X за фиксированный промежуток времени т может быть описано формулой вида SXX = \\\ G<1)(*(3))yi(*(3))rfV +JJJ G[24x^)y2(x^)dV + +\\ С™(х™)у3(х™Ж С) где х™ = (х,у,2), х0) = (х,у), G?4x™), G<2>(*(3)) и G[ ](х ) - георетич. функции влияния, определяющие зависимость приращения 5ТХ от полей у^, у2, и г/3> а dV = dxdydz и dS-dxdy - элементы объема и площади. При численном решении интегралы в правой части формулы (*) заменяются суммами, распространенными по узлам нек-рой трехмерной или (в случае третьего интеграла) двумерной сетки. При этом для величины ЪХХ - изменения X за один шаг по времени - получается алгебраич. формула, в правую часть к-рой линейно входят значения полей ух% у2, и у3 в узлах соответствующей сетки с коэффициентами, пропорциональными значениям в этом узле одной из функций влияния. Поэтому естественно выбрать значения полей y]f у2, у$ в узлах соответствующей сетки в качестве предикторов, после чего числовые коэффициенты при этих предикторах можно попытаться определить, не обращаясь к динамич. уравнениям, а как значения коэффициентов регрессии (то есть по методу наименьших квадратов, исходя из эмпирич. данных об изменениях значения X и значениях полей ух, у2, и у3 в более ранние сроки наблюдения). Получаемые таким образом коэффициенты при значениях полей ух, у2, Уз и наз. Э. ф. в. Метод использования Э. ф. в. довольно просто реализуется на ЭВМ, но дает невысокую точность прогнозов будущих значений метеорологич. полей, что связано с тем, что уравнения гидро- и термодинамики приводят обычно к уравнениям регрессии очень высокой размерности (порядка нескольких сотен) и с увеличением заблаговременности прогноза быстро растет влияние нелинейных членов динамич. уравнений, никак не учитываемых в формуле (*). Однако накопленный опыт работы с Э. ф. в. широко используется в других методах статистического прогноза погоды, опирающихся на уравнения регрессии. Лит.: [1] Белов П. Н., Численные методы прогноза погоды, Л., 1975. Г. В. Груза. ЭМПИРИЧЕСКАЯ ФУНКЦИЯ РАСПРЕДЕЛЕНИЯ (em pirical distribution function/e. d. f.) - см. Эмпирическое распределение. ЭМПИРИЧЕСКИЕ ОРТОГОНАЛЬНЫЕ ФУНКЦИИ (empirical orthogonal functions) случайного поля Х(г) - упорядоченная совокупность ортонормированных собственных векторов {q>Ark)}} k-\} ..., М} эмпирической корреляционной матрицы Ъ значений x(rk)f k=\} ..., М} поля в М каких-то заданных точках, оцениваемой по данным наблюдений с помощью формулы b=lbikl bik = b(rit гк)=х(г{)х(Гк>- где черта означает осреднение по имеющейся выборке, а под х(г) понимается отклонение наблюдаемого поля от его осред- ненных по выборке значений. Таким ообразом, Э. о. ф. Фу(гл) определяются из соотношений 1Г-1(^(г*))2=,'>-1'-М' причем A,j ^ Х2 ^ ... ^ ^д/^ 0. Э. о. ф. образуют ортонормиро- ванный базис в Д/-мерном евклидовом пространстве. Основное преимущество Э. о. ф. перед другими базисами следующее. Пусть *<»•*>-X", «.•¥/<»•*>. *-1 М> <*> - разложение вектора {x(rk)} k= 1 М) по какому-то базису y.(r^). Тогда при сохранении в разложении (*) лишь нек-рого числа т<М слагаемых средняя по данной выборке квадратичная ошибка такой аппроксимации оказывается наименьшей, если у.-(гл) = фу(гл). Коэффициенты а- в этом случае называются главными компонентами; они удовлетворяют соотношениям ЭМПИРИЧЕСКАЯ 817
ajak = \*jk* ч: при j = ft, О при j * ft, так что разложение (•) оказывается при этом разложением на некоррелированные составляющие, а ошибка аппроксимации равна 62(w) = Xw+t + ...+XA/. Э.о.ф., начиная с работ Э. Лоренца [5] и А.М.Обухова [1], широко применяются в метеорологии. Причем ^i» "*тм- здесь М точек пространства (см. [2], [3]). В приложениях обычно величина 8 (т) уже при небольших (по сравнению с М) значениях т оказывается очень небольшой. Напр., при М * 10 нередко 82(1) составляет менее 50% от всей суммы Т. . ^.— Y-_4 &м (называемой общей дисперсией поля), а 82(3) - порядка 10% от этой суммы. В таких случаях первые собственные значения корреляционной матрицы Ъ заметно отличаются друг от друга и быстро убывают с ростом номера/. Небольшое число первых главных компонент а: позволяет компактно и достаточно точно описать поле x(rk) во всех М точках, что делает применение Э. о. ф. практически очень удобным. Кроме того, как раз в таких случаях Э. о. ф. ф(г^) и числа X наиболее надежно оцениваются по конечной выборке (см. [4]). Понятие Э. о. ф. легко переносится и на случай непрерывного поля х(г), наблюдаемого в ограниченной области G. Изложенные выше факты имеют место и в этом случае (с соответствующими изменениями - так, число собственных функций здесь уже не конечно, а счетно). Если рассматривать наблюдаемое поле х(г) как реализацию случайного поля Х(г), имеющего распределение вероятностей, к-рому отвечает корреляционная функция B(rv г2), то, очевидно, фу (г) и А,.- - это выборочные оценки собственных функций и собственных значений интегрального оператора с ядром B(rv r2), действующего в области G. Отсюда ясно, что разложение (•) - это выборочный аналог Карунена - Лоэва разложения. Лит.: [\] Обухова А. М., «Изв. АН СССР. Сер. Геофиз.», 1960, М» 3, с. 432-39; [2] Естественные составляющие метеорологических полей, Л., 1970; [3] Форту с М.И., «Метеорология и гидрология», 1980, >6 4, с. 113-19; [4] Глу ховски и А. Б., ФортусМ.И., «Изв. АН СССР. Сер. Физика атмосферы и океана», 1982, т. 18, № 5, с. 451-59; [5] LorenzE.N., «MIT Statist. Forecasting Proj.», Sci. Rep., Jsfc 1, Camb. (Mass.), 1956. M. И. Фортус. ЭМПИРИЧЕСКИЙ БЕЙЕСОВСКИЙ ПОДХОД (empirical Bayesian approach) - см. Бейесовский подход эмпирический. ЭМПИРИЧЕСКИЙ МОМЕНТ (empirical moment) - см. Эмпирическое распределение. ЭМПИРИЧЕСКИЙ ПРОЦЕСС (empirical process) - см. Сходимость эмпирических мер и эмпирических процессов. ЭМПИРИЧЕСКОЕ РАСПРЕДЕЛЕНИЕ (empirical distribution), распределение выборки, - распределение вероятностей, к-рое определяется по выборке для оценивания истинного распределения. Пусть числа х*} х2, ..., хп - результаты наблюдений над Х\, ..., Хп - взаимно независимыми и одинаково распределенными случайными величинами с функцией распределения F{x)} и пусть X* <Х2 < ... < Хп - соответствующий вариационный ряд. Эмпирическим распределением, соответствующим Х{, ..., Хп, называется дискретное распределение, приписывающее каждой точке xif i = = 1, ..., п (среди к-рых могут быть и совпадающие), вероятность 1/п. При этом вероятности, отвечающие совпадающим точкам xit складываются. Функция Э. p. Fn(x)} называемая 818 ЭМПИРИЧЕСКОЕ эмпирической функцией распределения, является ступенчатой функцией со скачками, кратными \/п, в точках, определяемых величинами Х(1), ..., Х(пу. ад* 0, х^Х< k/n, 1, х>Х( (О' x(k)<x<x(k+\y l^fc^H-l, (пУ При фиксированных значениях Хх, ..., Хп функция Fn(x) обладает всеми свойствами обычной функции распределения. При каждом фиксированном действительном х функция Fn(x) является случайной величиной как функция Хь ..., Хп. Таким образом, Э. р., соответствующее выборке Х*} ..., Хп, задается семейством случайных величин Fn(x), зависящих от действительного параметра х. При этом для фиксированного х EFn(x) = Fix), DF„(x) = F(x)[ 1 -F(x)]/n P{Fn(x) = k/n} = СЯ*[Я*)]*[1 - F(x)]n-k. В соответствии с законом больших чисел Fn(x) ^> F(x), n --> °°, при каждом х. Таким образом, Fn(x) - несмещенная и состоятельная оценка функции распределения F(x). Функция Э. р. равномерно по х сходится с вероятностью 1 к F(x) при п -►<*> или, если Dn = sup \F„(x)-F(x)\, P{lim D„ = 0}=1 (теорема Гливенко - Кантелли). Величина Dn служит мерой близости Fn(x) к F(x). А. Н. Колмогоров (1933) нашел предельное распределение: для непрерывной функции F(х) lim P{Jn~Dn<2} = K(z) = ^+n (-l)V 2>0. Если F{x) неизвестна, то для проверки гипотезы о том, что эта функция есть заданная непрерывная функция Fq(x), применяются критерии, основанные на статистиках типа Dn (см. Колмогорова критерий, Колмогорова - Смирнова критерий). Моменты и любые другие характеристики Э. р. называются выборочными (эмпирическими) моментами и характеристиками, напр.: Х = —УУ1_4 Xk ~ выборочное среднее, s -—УУ1_4 (Xk~X) - выборочная дисперсия, аг = —Х*-1 Хь ~ выборочный момент r-го порядка. Выборочные характеристики служат статистич. оценками соответствующих характеристик исходного распределения. Лит.: [1] Большее Л. Н., Смирнов Н. В., Таблицы математической статистики, 3 изд., М., 1983; [2] Ван дер Варден Б. Л., Математическая статистика, пер. с нем., М., I960; [31 Боровков А. А., Математическая статистика, М., 1984. А. В. Прохоров. ЭМПИРИЧЕСКОЕ СРЕДНЕЕ ЗНАЧЕНИЕ случайного множества (empirical mean value of random set) - см. Среднее значение случайного множества. ЭНГСЕТА ФОРМУЛА (Engset formula) - выражение стационарной вероятности р^ занятости k линий в я-линейной замкнутой обслуживания системе с потерями, включающей N источников требований: (N-k)\ Xk л ^, ^ К. II
Здесь Xdt - вероятность возникновения требования в источнике за время dt при отсутствии этого требования на линии или в очереди, ц - параметр обслуживания требования на линии. Установлена Т. Энгсетом (Т. Engset) в 1918; в последующем обобщена на системы с произвольными распределениями времени возникновения требования в источнике и времени обслуживания. Лит.: [1] Handbuch der Bedienungstheorie, unter dcr Leitung von B. W. Gnedenko und D. Konig, Bd 2, В., 1984. И.Н. Коваленко. ЭНДОМОРФИЗМ по модулю нуль (endomorphism mod 0) - см. Эндоморфизм пространства с мерой. ЭНДОМОРФИЗМ пространства с мерой (endomorphism of a measure space) - измеримое и сохраняющее меру отображение пространства с мерой на себя. Другими словами, отображение T:£l-*Q есть Э. пространства с мерой (Q .«/, Р), если: 1) ra = Q; 2) Т~]А е.с/, Р(Г-1Л) = РС4) для любого А е.* Замена условия 1) условием TCle^ приводит к понятию эндоморфизма по модулю нуль (эндоморфизма mod 0); его можно превратить в эндоморфизм, выбросив из пространства подходящее множество нулевой меры. Примером эндоморфизма вероятностного пространства служит сдвиг влево в пространстве реализаций стационарной в узком смысле случайной последовательности Хп, л^О. Б. М. Гуревич. ЭНДОМОРФИЗМ точный (exact endomorphism) - см. Точный эндоморфизм. ЭНЕРГЕТИЧЕСКАЯ НОРМА (energy norm) - см. Марковский процесс/, энергия. ЭНЕРГЕТИЧЕСКИЙ СПЕКТР (energy spectrum) - см. Спектральная плотность, Стационарный случайный процесс. ЭНЕРГИИ УРОВЕНЬ (energy level) - см. Некоммутативная теория вероятностей. ЭНЕРГИЯ (energy) - см. Марковский процесс; энергия. ЭНЕРГИЯ ЧАСТИЦЫ (energy of a particle) в ветвящемся процессе-см. Ветвящийся процесс с энергией. ЭНСТРОФИЯ (enstrophy) - величина С1, равная половине среднего квадрата вихря скорости: Л = у |roti>|2. Э. наряду с энергией является адиабатич. интегральным инвариантом в двумерной турбулентности, благодаря чему создается каскад Э. в малые масштабы по спектральному закону минус трех, а энергии - в большие масштабы по спектральному закону пяти третей (см. [1]). В трехмерной турбулентности при сохраняемости энергии Э. возрастает за счет эффекта растяжения вихревых нитей. При этом энергия передается только в малые масштабы и в инерционном интервале масштабов выполняется закон Колмогорова ~ Обухова пяти третей (см. [2]). Лит.: [1] Kraichnan R.H., «Phys. Fluids», 1967, v. 10, № 7, p. 1417—23; [2] Моинн А. С, Я гл ом A.M., Статистическая гидромеханика, ч. 2, М., 1967. А. П. Мирабель. ЭНТРОПИЙНАЯ МОЩНОСТЬ (entropy power) - теоретико-информационная характеристика случайной величины X, имеющей плотность вероятности px(x)=px(xv...,xn), х{е№, t = 1, ..., п. Э. м. была введена К. Шенноном (С. Shannon), она широко используется в теории информации для вывода основных неравенств. Э. м. N(X) определяется для случайных величин X с конечной дифференциальной энтропией h(X) = -jp(x)\ogp(x)dx по формуле . 9 ЖХ) = —~т~ ехрМХ). (27*)^ " Если \гЛ, г,/=1, ..., п, - ковариационная матрица случайной величины X, то ЖХ)*£ det||ry||; в частности, для случайной одномерной величины X ЖХХЕ(Х-ЕХ)2, причем эти неравенства переходят в равенства тогда и только тогда, когда X - гауссовская случайная величина. Таким образом, при заданной матрице ковариации гауссовская случайная величина имеет максимальную Э. м. Пусть X и У - независимые случайные величины, для к-рых определены ЖХ) и МУ), тогда N(X+ У) 7?N(X) + N(Y); это неравенство переходит в равенство тогда и только тогда, когда X и У - гауссовские случайные величины с пропорциональными ковариационными матрицами. Лит.: [1] Шеннон К., Работы по теории информации и кибернетике, пер. с англ., М., 1963, с. 243-332; [21 В1 achma n N. М., «IEEE Trans. Inform. Theory», 1965, v. IT-11, № 2, p. 267-71; [3] Costa M.H. M., Cover Т. М., там же, 1984, v. IT-30, № 6, p. 837-39. M. С. Пинскер. ЭНТРОПИЙНЫЙ КРИТЕРИЙ (entropy criterion) - см Целенаправленное проецирование. ЭНТРОПИЯ (entropy) - теоретико-информационная мера степени неопределенности случайной величины. Для дискретной случайной величины X с распределением вероятностей {pk, k=\, 2,...}, где pk = P{X = xk), a *={xk, fe=l, 2,...} - множество значений X, Э. Я(Х) определяется равенством "<*>—!* ft1** л (при этом считается, что 01og0 = 0). Обычно рассматривают логарифм по основанию 2 или е, что соответствует выбору бит (двоичная единица) или нат (натуральная единица) в качестве единицы измерения. Э. любой дискретной случайной величины неотрицательна и Я(Х) ^ log N, если N- |х|, причем #(X) = logN, если X имеет равномерное распределение. Всякое изменение вероятностей {р& k- 1, 2,...} в сторону их выравнивания увеличивает Э.; Я(/"(Х)ХЯ(Х) для любой функции f(x)} хеЖ. Если X и У - две дискретные случайные величины с распределением вероятностей {pk, k=\, 2,...} и {q}, j-\, 2,...} соответственно и условным распределением [pk/.)> где pk/j- = P{X = xk\Y = yj), pk = P{X = x,i, qi=P{Y = yj), Л=1,2,...; /=1,2, .... a * = {xk> Л=1,2,...}, У={г/у,; = 1, 2,...} - множества значений X и У, то условной энтропией Я(Х|У) случайной величины X относительно У называется величина Для любых дискретных случайных величин X и У справедливы следующие свойства: а) Я(х|У)<Я(Х), причем равенство имеет место тогда и только тогда, когда X и У независимы; б) Я(ХУ) = Я(х|у) + Я(У) = Я(у|х)+ Я(Х). Энтропией Я(Х) стационарного процесса Х= = {Хд, Л=..., -1, 0, 1,...} с дискретным временем и дискретным пространством значений называется предел Я(Х)= lim и_1Я(Хп), (*) где Хп = (Xt, ..., Хп). Известно, что предел в правой части (*) всегда существует и имеет место равенство Я(Х)= lim Я(ХП|ХП_1). ЭНДОМОРФИЗМ 819
Пусть (Q, Sq) - произвольное измеримое пространство, \i и V - две меры на нем, причем \1 абсолютно непрерывна относительно v, тогда Э. H(d\i/dv) меры ц относительно меры v называется интеграл tf(d^/dv) = fnlog^v«w), где d\i/d\ - производная Радона - Никодима. Частным случаем Э. меры по мере является дифференциальная энтропия. Одним из важнейших обобщений Э. для теории информации является понятие W-энтропии Н^(Х) и эпсилон-энтропии НеХ (е-энтропии). Использование Э. в качестве меры неопределенности случайных величин естественно с точки зрения проблем передачи информации, поскольку через нее выражаются основные характеристики систем передачи информации. Величины Н(Х), HW(X) и Яе(Х) входят во многие формулировки Шеннона теоремы - основной теоремы теории передачи информации. Лит.: [1] Биллингс л ей П., Эргодическая теория и информация, пер. с англ., М., 1969; [2] ГаллагерР., Теория информации и надежная связь, пер. с англ., М., 1974; [3] Ко л есн и к В. Д., Пол- тырев Г. Ш., Курс теории информации, М., 1982; [4] Шен нон К., Работы по теории информации и кибернетике, пер. с англ., М., 1963, с. 243-332. М. С. Пинскер, В. В. Прелое. ЭНТРОПИЯ алгоритмическая (algorithmic entropy/ Kolmogorov complexity entropy) - см. Алгоритмическая энтропия. ЭНТРОПИЯ динамической системы (entropy of a dynamical system) метрическая - числовая характеристика динамической системы, имеющая теоретико-информационное происхождение. Для эндоморфизма Г вероятностного пространства (Q, ..«/, P) энтропия h(T) определяется следующим образом. Пусть X - произвольная случайная величина с конечным числом значений, определенная на (Q, .</, Р), и Х„(со) = ЖГпсо), coeQ, я = 0, 1, .... При л-»о<> отношение Нп(Х$~х)/п, где Нп(Х£~х)- Э. случайного вектора Xj"1 = -(Х0, ..., Хп_х)у сходится к пределу h(T, X), к-рый называется (в теории информации) скоростью создания энтропии в случайном процессе Хп, л^О (см. [3]), и совпадает с пределом при п -> «> условной Э. случайной величины X при условии случайного вектора (Xv ..., Хп). По определению, /KD = sup h(T, X), где верхняя грань берется по всем х указанным X. Если в этом определении вместо случайных величин с конечным числом значений пользоваться случайными величинами с конечной Э. (и, следовательно, с не более чем счетным числом значений), то h(T) не изменится. Так как Э. любой случайной величины Y зависит лишь от порождаемого ею разбиения пространства Q, то есть разбиения на множества вида У = const, то удобно определять Э. непосредственно в терминах разбиений. При таком подходе (принятом в эргодич. теории) X заменяется на произвольное конечное разбиение а пространства Q, a Xq~ - на разбиение о^-оыТ~ OLv...vTn~ а, элементы к-рого имеют вид Ах Т А{ П...Л7* "+ А{ , где Л, , ..., At - произвольные элементы разбиения а. Понятие «Э. динамич. системы» было введено А. Н. Колмогоровым [1], к-рый определил ее несколько иначе, чем это сделано выше (приведенное определение принадлежит Я. Г. Синаю [2]). С появлением Э. возникло новое, энтропийное направление эргодич. теории, оказавшее глубокое воздействие на все ее разделы. При вычислении Э. часто пользуются теоремой (см. [2]), согласно к-рой h(T)-h(T, а) для любого разбиения а, эле- 820 ЭНТРОПИЯ менты к-рого вместе с элементами разбиений Т~па, п~ 1, 2,..., порождают всю а-алгебру .V (а называется тогда односторонним образующим разбиением или односторонней образующей для Т). В случае когда Т- автоморфизм, то же самое имеет место и для двусторонних образующих, то есть для таких а, что л/порождается всеми Т£, пеЖ. Существуют обобщения этих утверждений, связанные с заменой образующих на последовательности асимитотич. образующих (см. [4], [5]). Если Т - Бернулли сдвиг с дискретным пространством состояний (У, ,», \i), то А(Г)=—£.ц<и)1пц<*), где ух - атомы меры ц; для сдвига Бернулли с недискретным пространством состояний Л(Г)=<». Для Маркова сдвига с дискретным пространством состояний h(T) = -^nipij\nptj, где {я,} - одномерное распределение, а р{- - переходные неро- ятности соответствующей цепи Маркова. Для гладких динамич. систем Э. имеет наглядный геометрич. смысл: она характеризует среднюю скорость (в логарифмич. шкале) удаления друг от друга близких в начальный момент точек фазового пространства. Общие свойства Э.: 1) h(T) принимает все значения от 0 до +°° включительно; 2) h(Tk) = kh(T) для любого k^O; если [Т*, t^O} - непрерывный полупоток, то h(T) = th(T ) для любого t^O (см. [7], [11]); если Т - автоморфизм, то h(T~l) = h(T), следовательно, для непрерывного потока h(Tl) = \t\h(T ), -oo<£<oo, энтропией потока называется h(T ); 3) Э. прямого произведения динамич. систем равна сумме их Э.; 4) Э. гомоморфного образа динамич. системы (см. Изоморфизм динамических систем) не превосходит Э. самой системы; изоморфные системы имеют одинаковую Э.; 5) если Г-инвариантная вероятностная мера Р представлена в виде выпуклой комбинации aPj + (1 - а)Р2 7'-инвариантных вероятностных мер Pj и Р2, то h(T) = ahl + (1 - a)h2, где h-t - Э., вычисленная по мере Р(, г- 1, 2. Имеется аксиоматич. определение Э. динамич. системы (см. [6]), а также обобщения этого понятия на динамич. системы с общим групповым временем (см. [7]) и на динамич. системы в пространстве с а-конечной мерой (см. [8J). Лит.: [1] Кол могорои А. Н., в кн.: Избранные труды. Теория информации и теория алгоритмов, М., 1987, с. 86-91; [2] Синай Я. Г., там же, 1959, т. 124, № 4, с. 768-71; [3] Пинскер М. С, Информация и информационная устойчивость случайных величин и процессов, М., 1960; 14] РохлинВ. А., «Докл. АН СССР», 1959, т. 124, № 5, с. 980-83; [5] Синай Я. Г., там же, 1959, т. 125, № 6, с. 1200-02; [6] РохлинВ. А., там же, 1963, т. 148, № А, с. 779-81; [7j Соп- zej. P., <Z. Wahr. und vcrw. Geb.», 1972, Bd 25, № l, S. 11-30; [8) Krengel U., там же, 1967, Bd 7, N° 3, S. 161-81; [91 Рохлин В. А., «Успехи матем. наук», 1967, т. 22, в. 5, с. 3-56; [101 Ьил- лингелей П., Эргодическая теория и информация, иер. с англ., М, 1969; [11] Корнфельд И.П., СинайЯ.Г., ФоминСВ., Эргодическая теория, М., 1980; [12] Мартин Н., ИнглендД., Математическая теория энтропии, пер. с англ., М., 1988. Б. М. Гуревич. ЭНТРОПИЯ динамической системы топологическая (topological entropy of a dynamical system) - см. Топологическая энтропия динамической системы. ЭНТРОПИЯ дифференциальная (differential entropy) - см. Дифференциальная энтропия. ЭНТРОПИЯ конечных объектов (entropy of finite object) - см. Алгоритмическая энтропия.
ЭНТРОПИЯ непрерывных случайных величин (entropy of continuous random variables) - см. Дифференциальная энтропия. ЭНТРОПИЯ относительная (relative entropy) - см. Дифференциальная энтропия, Относительная энтропия. ЭНТРОПИЯ префиксная (prefix entropy) - см. Алгоритмическая энтропия. ЭНТРОПИЯ разбиения (entropy of a partition) - число (или оо) //Ф = -£.Ц(С;)1ПЦ(СД где \ - разбиение на конечное или счетное число измеримых множеств Cj положительной меры измеримого пространства с вероятностной мерой \i. Для других разбиений #(£) = <*>. В. И. Оселедец. ЭНТРОПИЯ случайного блуждания на группе (entropy of a random walk on a group) - см. Случайное блуждание на группе. ЭНТРОПИЯ термодинамическая (thermodynamical entropy) - см. Термодинамическая энтропия. ЭНТРОПИЯ условная (conditional entropy) - см. Энтропия, Алгоритмическая энтропия, Условная энтропия разбиения. W-ЭНТРОПИЯ (HAentropy) - см. Эпсилон -энтропия. С-ЭНТРОПИЯ (e-entropy) - см. Эпсилон-энтропия. ЭПИДЕМИИ ПРОЦЕСС (epidemic process) - математическая модель распространения эпидемии в популяции. Как правило, в качестве такой модели выбирается марковский процесс, описывающий состояния всех образующих популяцию индивидумов, причем каждый индивидум по отношению к изучаемой болезни может быть либо здоровым, но не имеющим иммунитета, либо заразным больным, либо переболевшим (не заразным). Интенсивность превращения здорового индивидуума в больного зависит от числа заразных больных. Изучаются процессы изменения доли больных, распределения окончательного числа переболевших, суммарного времени пребывания всех членов популяции в больном состоянии и т. п. Л. М. Зубков. ЭПСИЛОН-ЭНТРОПИЯ (epsilon/e-entropy), е-э н т р о - пия, - теоретико-информационная мера неопределенности случайной величины при заданной точности воспроизведения. Понятие е-энтроиии по существу возникло в работе К. Шеннона (С. Shannon). Пусть (£, Sj) и (ЗЕ, 5|) - измеримые пространства, и пусть заданы случайная величина X со значениями в Ж и распределением Рх()=р(), неотрицательная и измеримая относительно S^xSg функция р(х, х) и е>0. Тогда эпсилон-энтропией (е-э нтропией) случайной величины X называется величина tfeOO = inf/(X, X), (1) где 1(Х, X) - информации количество в X относительно X, а нижняя грань берется но парам случайных величин (X, X) со значениями в £х£ такими, что Рх()-р() и Ер(Х, Х)^г (2) (условие точности воспроизведения сообщений). Напр., если X-(X]t ..., Xtl) - гауссовский случайный вектор с независимыми компонентами, ЕХ. = 0, /= 1, ..., л, р(д, £) = Х"=1 (Xj-xj)2, то Нг(Х) может быть найдена по формуле ЯЕО0 = у Х"=1 1ой тах(ЕХу2Д, 1), где X определяется из уравнения У" , minU, EX,2) = e. Разработаны также методы вычисления Э.-э. различных гаус- совских случайных величин, процессов и полей. Пусть случайная величина Х- (Xv ..., Хп) является последовательностью двоичных независимых случайных величин *;./=! П, * = *, Р{Ху-1}=1/2, р(х, х) = п~1£"=1 РуСяу, х), * = (*!, ..., хп), х = (*!, ..., хп)е£ и , , - ч 0, если х,- = xit Г} } } [1, если х- * х-. Тогда #£(X) = l+eloge + (t-e)log(l-e). Для различных классов случайных величин найдены также асимптотич. выражения ЯЕ(Х) при е->0. Имеются нек-рые обобщения понятия Э.-э. Так, можно рассмотреть вектор-функцию р(х, х) = (р{(х, х), ..., рт(х, £)), е = (et, ..., em), e.->0, задав ограничение (2) в форме Ер/Х, X)^eJtj=\t .... т. (3) Условия (2) и (3) по существу означают нек-рые ограничения на распределение вероятностей пар случайных величин (X, X). Задав произвольно нек-рое множество W распределений Рхх пар (X, X) с Рх()-р(-), в теории информации вводят понятие W-энтроп и и HW(X), или энтропии при заданной точности воспроизведения, обобщающее понятие Э.-э. Величина HW(X) определяется по формуле (1), в к-рой нижняя грань берется по PXXW. Понятие Э.-э. не исчерпывается рассмотрением случайных величин. А. Н. Колмогоров ввел понятие относительной и асболютной Э.-э. множества С в метрич. пространстве Q. Относительная Э.-э. Н(С, Q) множества С - это логарифм наименьшего числа точек е сети С. Абсолютная Э.-э. множества - это логарифм наименьшего числа элементов в покрытии множества С множествами диаметром не больше 2е. Исследование асимптотики Э.-э. различных функциональных классов составляет специальный раздел теории приближений. Имеется связь между Э.-э. случайной величины и Э.-э. подмножеств в метрич. пространстве. Лит.: [\] Колесник В. Д., Полтырев Г. Ш., Курс теории информации, М., 1982; [21 Колмогоров А. П., «Докл. АН СССР», 1956, т. 108, № 3, с. 385-88; [31 Колмогоров А. Н., Тихомиров В. М., «Успехи матем. наук», 1959, т. 14, с. 3-86; [4] Шеннон К., Работы по теории информации и кибернетике, пер. с англ., М., 1963, с. 243-332; [5} Bcrger Т., Rate distortion theory, Engle- wood Cliffs (N. J), 1971. M. С. Пинскер. ЭРГОДИЧЕСКАЯ ТЕОРИЯ (ergodic theory) - раздел математики, возникший в 20-30-х гг. 20 в., хотя основные ее понятия - эргодичность, перемешивание - восходят к трудам Л. Больцмана (L. Boltzmann) и Дж. Гиббса (J. Gibbs), посвященным проблеме обоснования статистической физики. Одной из первых общих теорем Э. т. стала Биркгофа - Хин- чина эргодическая теорема, утверждающая существование почти наверное временных средних у однопараметрич. групп или полугрупп преобразований, сохраняющих какую-либо вероятностную меру (автоморфизмов, потоков или эндоморфизмов, полупотоков). Далее такие группы или полугруппы называются динамическими системами. Они служат основным объектом изучения в Э. т. В теории вероятностей динамич. системы естественно возникают как группы сдвигов в пространстве реализаций стационарных в узком смысле случайных процессов. Динамич. сие- ЭНТРОПИЯ 821
темы появляются во многих проблемах теории дифференциальных уравнений, статистич. физики, механики, теории нелинейных колебаний, физике плазмы и др. Напр., в гамиль- тоновых системах с компактным многообразием постоянной энергии поток, состоящий из сдвигов вдоль траекторий такой системы, сохраняет микроканонич. распределение Лиувилля и является тем самым динамич. системой. В диссипативных системах механики, где фазовый объем под действием динамики уменьшается, в фазовых пространствах часто образуются инвариантные притягивающие множества, напр. стохастич. аттракторы, и свойства динамики определяют свойства сосредоточенных на них естественных сохраняющихся вероятностных мер. Считается, что в этих терминах может быть описано явление турбулентности в гидродинамике. Динамич. системы возникают во многих задачах теории чисел, в особенности в задачах, связанных с равномерным распределением. Так, известная теорема Вейля о том, что дробные доли {&(п)}, где ^{п)-а^пт+ ат_\П + ат и хотя бы один из коэффициентов Яр. • •» аг-\ иррационален, равномерно распределены, может быть выведена как усиление эргодич. теоремы Биркгофа - Хинчина для специального сохраняющего меру преобразования r-мерного тора (см. [1]). Динамические системы возникают в комбинаторике, теории представлений групп, некоммутативных алгебрах и др. (см. [ 1 ], [2]). При этом в этих областях появляются как группы сохраняющих меру преобразований, так и переводящих меры в эквивалентные в смысле абсолютной непрерывности меры. Пусть X0(co) - произвольная случайная величина и {S г } - поток в пространстве Q. Семейство случайных величин Xt((u) = Х0(Ло) образует стационарный в узком смысле случайный процесс. Если поток {S } представляет собой группу сдвигов исходного стационарного процесса, то переход со-> {Xt((u)} можно рассматривать как нелинейное преобразование этого процесса. Э. т. изучает свойства всех стационарных процессов, возникающих таким образом. Если Х0 такова, что наименьшая а-алгебра, порожденная всеми случайными величинами Xt, -oo<t<oot совпадает с а-алгеброй всех измеримых множеств, то Х0 называется образующей, а сама динамич. система {S } оказывается тем самым изоморфной группе сдвигов построенного стационарного процесса (см. Изоморфизм динамических систем). В отличие от типичных задач теории вероятностей «случайность» динамич. системы состоит только в выборе начальной точки со, после чего эволюция такой точки происходит чисто детерминированным образом. По этой причине в физич. литературе Э. т. часто называют теорией детерминированного х аоса. Пусть Ш, V) - измеримое пространство, {£*} - одно- параметрич. группа или полугруппа преобразований пространства Q. Ниже указаны свойства {S*}, к-рые обычно рассматриваются как стохастические, сближающие динамич. системы со случайными процессами с теми или иными свойствами регулярности (в определенном смысле эти свойства последовательно усиливают друг друга). 1. Существование распределения вероятностей, инвариантного относительно группы {5f}. Здесь распределение вероятностей Р называется инвариантным относительно {S*}, если для любого СеЛи любого t, -oo<t<ooy вероятность Р(5^С) = Р(С). Если Q- компакт, .«/- его борелевская а-алгебра, a {S*} - однопараметрич. группа гомеоморфизмов Q, то существует хотя бы одно инвариантное распределение вероятностей Р. Это вытекает из общей 822 ЭРГОДИЧЕСКАЯ теоремы Боголюбова - Крылова; рассуждение, использованное при ее доказательстве, носит весьма общий характер и встречается во многих других вопросах, напр. при доказательстве существования хотя бы одного стационарного распределения у цепи Маркова с компактным фазовым пространством, в теории клеточных автоматов. Инвариантные распределения вероятностей могут оказаться вырожденными, то есть сосредоточенными на одной или нескольких траекториях группы {£*}. Для получения невырожденных распределений иногда используется следующий прием. Пусть для любого распределения вероятностей Р через (5*)*Р обозначен его сдвиг на время t, то есть ((5*)'Р)(С) = = Р(5 1 С), Се Л. Если (£*)*Р=>Р0 в каком-либо естественном смысле, то Р0 будет инвариантным. Именно так строятся инвариантные распределения вероятностей в системах со стохастич. аттракторами и близких к ним. 2. Эргодичность. Пусть для группы {£*} уже выбрано инвариантное распределение вероятностей Р0. Эргодич. теорема Биркгофа - Хинчина устанавливает для любой feL(Q,,</,PQ) существование почти всюду пределов временных средних iim i \Tas%)dt = iim 1 \Tas-%)dt = Эргодичность Р0 означает, что все эти пределы равны матема- тич. ожиданию J7(co)rfP0(G>). Во многих случаях либо эргодичность устанавливается достаточно просто, либо оказывается следствием более сильных стохастич. свойств. 3. Перемешивание. Пусть для динамич. системы {S1} установлено, что распределение вероятностей Р0 инвариантно и эргодично, и пусть распределение вероятностей Q0 абсолютно непрерывно относительно Р0, q$(<u) = ,D °. Тогда Q^ = ♦ о = (5*) Q0 также абсолютно непрерывно относительно Р0 и его плотность q^a^^q^iS1^). Система {S1} перемешивающая (см. Перемешивание), если для любой ограниченной измеримой f предел Iim f /■(co)rfQ((co) = lim 1У(со)<7г(со)</Р0(со) = = Iim J f((d)q0(S%)dPQ = j /•(co)rfP0(co). Распределение вероятностей Q0 интерпретируется как неравновесное распределение вероятностей. Перемешивание означает, что всякое неравновесное распределение вероятностей сходится под действием динамики к равновесному распределению вероятностей Р0. Именно в таком виде оно было введено Дж. Гиббсом. Из перемешивания вытекает эргодичность. Эргодич. системы без перемешивания возникают в теории динамических систем с чисто точечным спектром. 4. Регулярность. В теории вероятностей большую роль играет закон нуль - единица Колмогорова. А. Н. Колмогоров предложил также (см. [3]) понятие /С-системы как такой динамич. системы, в к-рой в определенном смысле выполняется закон нуль - единица. Родственными понятиями являются понятия К-перемешивания и К-разбиения. К-си- стемы - аналоги регулярных стационарных процессов, но не вполне идентичны им (см. Гауссовская динамическая система). Группа сдвигов стационарного в узком смысле процесса с реализациями co-{co(s), -оо<$<оо} является К-сисге- мой, если существует такая образующая r\Q = f((u)=f({(u(s), -oo<.s<oo})> что отвечающий ей стационарный процесс r\t = f({(u(s+ t), -оо<5<оо}) регулярный (то есть удовлетворяет закону нуль - единица). К-системы являются эргодичны-
ми и перемешивающими. Обратное, как показывают простые примеры, неверно. В целом ряде случаев установить К-свои- ство проще, чем установить отдельно эргодичность или перемешивание. 5. Выполнение центральной предельной теоремы. Регулярные стационарные процессы при небольших дополнительных условиях подчиняются центральной предельной теореме. Для динамич. системы справедливость ее для какой-нибудь случайной величины XQ = f((o) означает, что нормированная случайная величина -Lz(Xt-tEXQ), где Xt((o) = j f(Su(o)du, tEXQ = EXt> DXt - математич. ожидание и дисперсия Xt, имеет в пределе при £-»<*> гаус- совское распределение. Для динамич. систем, не относящихся непосредственно к теории вероятностей, утверждение центральной предельной теоремы может иногда выглядеть достаточно неожиданным. Как всегда, ее доказательство сводится к изучению свойств слабой зависимости семейства случайных величин Xj = /"(S'co). В приложениях Э.т. представляет интерес доказательство центральной предельной теоремы для возможно более широкого класса случайных величин Х0. 6. Характер убывания временных ковариа- ц и й. Во многих приложениях Э. т. важную роль играет характер убывания временных ковариаций bf(t) = ЕЛЛОДю) - (Е/Хсо))2. В случае марковских стационарных процессов такие ковариаций часто убывают экспоненциально, причем показатель экспоненты выражается через щель в спектре соответствующего марковского оператора. В случае динамич. системы экспоненциальное убывание ковариаций обычно устанавливается путем построения марковских аппроксимаций динамич. системы. Точное исследование асимптотич. поведения ЬЛО относится к наиболее трудным проблемам Э. т. Часто убывание ковариаций оказывается гораздо более медленным. 7. Изоморфизм сдвигу Берну л л и. Динамич. системой с дискретным временем, обладающей наиболее сильными стохастич. свойствами, является Бернулпи сдвиг. Иногда в качестве стохастич. свойства предлагается изоморфизм динамич. системы {S*} этому сдвигу. Следует, впрочем, подчеркнуть, что изоморфизм обычно оказывается измеримым и не сохраняет дополнительной структуры, напр. топологии, гладкости. Поэтому при изоморфизме может теряться контроль за асимптотикой ковариаций, центральной предельной теоремой и т. п. для естественных классов функций. Одной из основных задач Э. т. считается задача исследования стохастич. свойств тех или иных классов динамич. систем. У классич. динамич. систем, представляющих собой группы сдвигов вдоль траекторий систем дифференциальных уравнений, возникновение стохастич. свойств объясняется неустойчивостью динамики. Первые замечания, относящиеся к этой общей и важной идее, можно найти еще у А. Пуанкаре (Н. Poincare). Роль неустойчивости для статистики отмечалась также Ж. Адамаром (J. Hadamard), Дж. Биркгофом (G. Birkhoff), Э. Хопфом (Е. Hopf) при их анализе геодезич. потоков на многообразиях отрицательной кривизны, являющихся частным случаем систем Аносова, и Н. С. Крыловым, заметившим глубокую аналогию в свойствах неустойчивости между указанными геодезич. потоками и системами твердых сфер, взаимодействующих при движении посредством упругих соударений (см. [2], [4]). Ясное понимание связи между неустойчивостью динамики и стохастич. свойствами динамич. систем возникло в нач. 60-х гг. после появления работы А. Н. Колмогорова [3], где были введены понятия энтропии динамич. системы и Х-системы. В дальнейшем было предложено более общее понятие энтропии (см. [2], [5]), к-рое теперь является общепризнанным. Энтропия динамич. системы является инвариантом изоморфизма, и это позволило А. Н. Колмогорову дать отрицательное решение одной из основных проблем Э. т. об изоморфизме динамич. системы со счетнократным лебеговским спектром, показав, что сдвиги Бернулли с разным значением энтропии метрически не изоморфны между собой. После работы А. Н. Колмогорова стало также ясно, что проблема изоморфизма динамич. систем в случае ^-систем должна рассматриваться как проблема стационарного кодирования в духе теории информации. Первые продвижения здесь принадлежат Л. Д. Мешалкину и Я. Г. Синаю (см. [1], [2]). Окончательные результаты в проблеме метрич. изоморфизма ^-систем были получены Д. Орнстей- ном (см. [6J). Он показал, в частности, что сдвиги Бернулли с равной энтропией изоморфны. В то же время в классе ^-систем энтропия не образует полной системы метрич. инвариантов и существует континуум попарно неизоморфных К-систем с одинаковым значением энтропии. Эти результаты получены путем глубокого анализа свойств регулярности стационарных процессов и построения тонких примеров процессов с различными свойствами регулярности. В Э. т. важную роль играют также динамич. системы со слабыми стохастич. свойствами. К ним относятся, в первую очередь, динамич. системы с чисто точечным спектром. Известная теория Колмогорова - Арнольда - Мозера утверждает, что такие системы возникают на эргодич. компонентах гамиль- тоновых систем, являющихся малым возмущением интегрируемых гамильтоновых систем. Преобразования ^-мерного тора с координатами (х{ xd), имеющие вид (#lf ..., xd) -> ->(*, + <;,, *2 + с2*1» —. xd + cd> x\ + - + c<i,d-\xd-\>> гДе cij~ целые, называются косыми сдвигами и возникают в приложениях Э.т. к теории чисел (см. [1]). Своеобразные динамич. системы возникают в теории бильярдов в многоугольных и вообще плоских областях, перекладываниях отрезков и связанных с ними векторных полях на двумерных многообразиях. В теории однородных случайных полей возникают группы сохраняющих меру преобразований, где « временем» служат пространства И? или 1 . Эргодич. теоремы, эргодичность, перемешивание, энтропия определяются так же, как в случае однопараметрич. групп преобразований. Свойства же регулярности здесь могут быть гораздо более разнообразными и сложными, чем в случае одномерного времени. Многочисленные примеры однородных полей возникают в равновесной статистич. механике. Формулировки и доказательства эргодич. теорем значительно усложняются, когда время оказывается свободной группой или близким к ней объектом. Соответствующая теория связана с теорией аменабельных групп и факторов Дж. Неймана (см. [2], [7}). Лит.: [1] Корнфел ьд И. П., Синай Я. Г., Фомин С. В., Эргодическая теория, М., 1980; [2] Итоги науки и техники. Современные проблемы математики. Фундаментальные направления, т. 2, М., 1985; [3] Колмогоров А. Н., в кн.: Избранные труды. Теория информации и теория алгоритмов, М., 1987, с. 86-91; [4] Крылов Н. С, Работы по обоснованию статистической физики, М. - Л., 1950; [51 Синай Я., «Докл. АН СССР», 1959, т. 124, № 4, с. 768-71; [6) Орнстейн Д., Эргодическая теория, случайность и динамические системы, пер. с англ., М., 1978; [7] Нейман Дж., Избранные труды по функциональному анализу, т. 1-2, пер. с англ., М., 1987. Я. Г. Синаи. ЭРГОДИЧЕСКАЯ ЦЕПЬ МАРКОВА (ergodic Markov chain) - недиссипативная цепь Маркова, являющаяся непериодической и такой, что в ее пространстве состояний содержит- ЭРГОДИЧЕСКАЯ 823
ся ровно один положительный возвратный класс (см. Маркова цепь; классификация состояний). Для Э. ц. М. X с не более чем счетным множеством состояний Е = {1, 2,...} и вероятностями перехода за п шагов pi}(n) существуют пределы (X•= lim Pjin), не зависящие от ief и образующие стацио- нарное распределение (щ, Ц^...) (это свойство часто кладут в основу определения Э. ц. М.). Э. ц. М. называется геометрически эргоди ческой, если \рЛп)-\1:\ стремится к О при п—>о° не медленнее нек-рой геометрии, прогрессии со знаменателем, меньшим 1 и не зависящим от i, /e£" (о критерии геометрич. эргодичности см. в [2]). Соответствующие определения вводятся и для цепей Маркова с произвольными множествами состояний. Геометрич. эргодичность таких цепей исследовалась, напр., в [3]. Лит.: [1] Феллер В., Введение в теорию вероятностей и ее приложения, пер. г англ., т. 1, М., 1984; [2] Попов Н. Н., «Докл. АН СССР», 1977, т. 234, № 2, с. 316-19; [3] Нумел- лин Э., Общие неприводимые цепи Маркова и неотрицательные операторы, пер. с англ., М., 1989; [4] Карташов Н. В., «Теория вероятн. и ее примен.*», 1985, т. 30, № 2, с. 230-40. М. Г. Шур. ЭРГОДИЧЕСКИЕ ЗАДАЧИ диофантовых приближений (ergodic problems of Diophantine approximation) - задачи, в к-рых с помощью понятий и соображений эрго- дической теории анализируются динамические системы, связанные с изучением приближений действительных чисел рациональными, или, в более общей постановке, с приближением нуля значениями функций от конечного числа целочисленных аргументов. Особенно широко здесь используются понятия сохраняющих меру перемешивающих эрго- дич. преобразований, индивидуальная и максимальная эрго- дич. теоремы. Такой подход связан с современным осмыслением полученных Э. Борелем (Е. Borel) и А. Я. Хинчиным и их последователями результатов по метрич. описанию множеств чисел, обладающих определенными арифметич. свойствами. С разложением действительных чисел в qr-ичные дроби органично связано преобразование Ti:x->{qx) интервала [0, 1], где {а} означает дробную часть числа а. Преобразование Tj сохраняет меру Лебега, является эргодич. и позволяет исследовать распределение «цифр» 0, 1, ..., q—\ и группы «цифр» в д-ичном разложении чисел а, выбираемых случайным образом в интервале [0, 1]. В теории цепных дробей возникло преобразование Гаусса, определенное на [0, 1] формулой _ Ш/х) при х *0, 2х ~ [ 0 при Jt = 0. Это преобразование эргодично по отношению к мере Лебега. Оно не сохраняет меру Лебега, но сохраняет абсолютно непрерывную относительно нее меру Гаусса, определенную на той же а-алгебре ."/формулой М(А) = -П-Г Т*~. Ле"' 1п2 JA \+х Кроме того, Т2 является сильно перемешивающим. Обозначая я,(а) 1-е неполное частное в разложении числа а в цепную дробь, a qi;(а) - знаменатель i-й подходящей дроби, с помощью эргодич. теоремы Биркгофа - Хинчина можно получить, напр., следующие соотношения, справедливые для почти всех (в смысле меры Лебега) чисел а: lim —(а|(а) + ... + а„(а))=°о, П-* оо П ,1т>*-(а) = тЙ2' n_>oo n lzlnz 824 ЭРГОДИЧЕСКИЕ к-рые важны как сами по себе, так и в теории диофантовых приближений. Преобразование Гаусса является частным случаем кусочно монотонных преобразований интервала, позволяющих изучать разложения чисел в ряды различных видов (см. [51) и распределение дробных долей многочленов (см. [2|). Для почти всех а исследованы неравенства \a-p/q\<fiq)/q в целых числах ри</, где fix) - положительная невозрастаю- щая функция, а также системы таких неравенств (совместные приближения) и их модификации. Большое внимание уделяется системам для линейных форм где ||л:|| - расстояние до ближайшего целого числа, а = = тах( | а\ |, ..., | ak \). Областью изменения вектора а = {a\ ak) может служить целочисленная решетка из И? (линейные приближения) или только наперед заданное множество (нелинейные приближения). Наряду с эргодич. соображениями применяется и дисперсионный метод. Для характеризации полученных здесь результатов ниже приводятся две теоремы (см. также [3]). Пусть тп, п - натуральные числа, Q/MH - пространство матриц со, компоненты к-рьгх лежат в единичном интервале: 0^Ю;у< 1, \^i^m, 1^/^п. В пространстве Qmfl дан оти-мер- ный единичный куб Ещп. Пусть Атп обозначает класс Рпт-т- меримых множеств над Ц,ш. Таким образом получается вероятностное пространство i£lmn, Atm, Ртп). Для ненулевого вектора а из IP" с целочисленными компонентами определяется отображение т т л л соотношением r:co-»(ecot, ..., flcow)(mod l), где со, - вектор строки матрицы со, ясо, - скалярное произведение векторов, a mod 1 означает, что у компонент вектора берется их дробная часть. Отображение Т сохраняет МСРУ: Р^Г'Л) -U...GO Для ЛеА1я; для линейно независимых векторов я, на-) соответствующие отображения Та{ и Та2 стохастически независимы: Ри„ {r«r4nr«2-U2> = Р11и(А,)Р1тС4,) для Л|, A2eAUn. Эти два свойства позволяют доказать следующие теоремы. Теорема 1. Пусть S - бесконечный набор целочисленных векторов вей", я*(0), и пусть каждому aeS поставлено в соответствие множество Aia) еЛ,,„. Если ряд Г.^р.-и(-)) «о сходится, то условия (его,, ..., flco„)e^(fl)(mod 1), a<=S, (2) для почти всех coeQm„ выполняются лишь конечное число раз. Если же ряд (1) расходится и любые два вектора из S линейно независимы, то для почти всех coeQm„ условия (2) выполняются бесконечно часто. Теорема 2. При данном coeQTO„ пусть NiQ, со) - число тех a = iav ,..,дп)е5с условием тах(|д1|, ..., |tfJ)^Q, для к-рых выполняется (2). Тогда если любые два вектора из S линейно независимы, то для почти всех coeQmri N{Q, co)=0(Q)+0(01/2(Q)(lnO(Q))3/2+E), где е > 0 произвольно и
Подобные задачи могут рассматриваться и применительно к множествам комплексных чисел, р-адических чисел, формальных степенных рядов, аделей, каждое из к-рых снабжено соответствующей инвариантной мерой. Лит.: [ 1 ] b и л л и и г с л с й П., Эргодическая теория и информация, пер. с англ., М., 1969; 121 Корифсльд П. П., Синай Я. Г., Фомин СВ., Эргодическая теория, М., 1980; [31 Спринянеу к В. Г., Метрическая теория диофантовых приближений, М., 1977; |4| Хинчин А. Я., Цепные дроби, 4 изд., М., 1978; [5] Ga lam- bos J., Representations of real numbers by infinite series, В., 1976; [6| Sch writer F., * \cta arithmetica», 1966, v. 11, p. 4.51-60. Ю. В. Мелъпичук. ЭРГОДИЧЕСКИЕ ТЕОРЕМЫ (ergodic theorems) - любое утверждение о существовании пределов временных средних от аучапнога процесса или о совпадении их с фазовыми. Именно, пусть на вероятностном пространстве (Q, .*/, Р) задан случайный процесс Xf, teT, с дискретным (то есть Т = = {(), 1, 2....}) или непрерывным (то есть Т- [0, °°]) временем и со значениями в фазовом пространстве (Е, Ж); Л- наименьшая о-алгебра, относительно к-рой измеримы величины Xt при всех t еТ. Пусть множество траекторий процесса Xt, tsT, замкнуто относительно сдвигов. Последнее, по определению, означает, что для всякого weft и для всякого seT множество Q содержит такой элемент 0)£, что ХДо)^) = Xt+5(ш) для всех teT. Замкнутость множества траекторий относительно сдвигов позволяет связать со случайным процессом А^, t e Г, семейство операторов сдиига 6,, t e T, действующих на ^-измеримые случайные величины Х} и события Г по правилу: 9£Х(со) = = Х(о)|) и сое 9ГГ тогда и только тогда, когда <о*€ Г. Если Г=[0, «>), то процесс Xt, t e Г, предполагается измеримым в следующем смысле: отображение (t, co)-»Xt(co) измеримо как отображение измеримого пространства ([0, «О х xQ, dB+xJr) в измеримое пространство (Е, хв) (здесь Зв+ - а-алгебра борелевских подмножеств полуоси [0, «>)). Такая измеримость процесса Xt> teT, обеспечивает измеримость по совокупности переменных ty со сдвинутой величины QtX. Временные средние.f-измсримой случайной величины X суть нормированные суммы если время дискретно, или интегралы •*»<*> =Т Jo e«JM"' если время непрерывно. Фазовое среднее случайной величины X есть не что иное как ее математич. ожидание EX. Таким образом, Э. т. либо устанавливают существование (в каком-либо смысле) предела S(X) = lim St{X), либо формулируют условия, при к-рых S(X) = EX*°° Наиболее важным результатом такого рода является Бирк- гофа - Хинчина эргодическая теорема, к-рая утверждает, что если время дискретно, последовательность Х0, Xt, ... стационарна и Е|х| <°°, то lim, St(X) = E (X| <§) почти наверное, ( *) где а-алгебра <$ содержит те и только те события Г е Л, для к-рых 9,Г=Г при всех t^0. Если, кроме того, Е|Хг <°° при нек-ром р^\, то сходимость в (*) имеет место и в среднем порядка р. Аналогичное утверждение справедливо и в случае непрерывного времени. Вопрос о совпадении 5(Х) с ЕХ почти наверное в данном случае сводится к вопросу о тривиальности а-алгебры £. Стационарные процессы с тривиальной а-алгеб- рой ^ называют еще эргодическими. Для эргодичности стационарного процесса достаточно, чтобы он обладал свойством перемешивания. Примерами эргодич. случайных процессов являются: последовательность независимых одинаково распределенных случайных величин; гауссовский случайный процесс с непрерывной спектральной функцией; положительно возвратная цепь Маркова с конечным или счетным числом состояний. Одна из наиболее общих на сегодняшний день Э. т. утверждает следующее. Пусть найдется такая J^-измеримая величина т>0, что конечномерные распределения процессов Xt, t^Oy и Xx+t, t^Oy совпадают. Тогда если Ет<°° и EfQQt\X\dt<oot то lim S(X) = e(V 9tXdt\<§yE(T\<$) почти наверное. Иногда Э. т. называют теоремы о существовании пределов вида lim EQtX, lim St(X)/St(r\) ИЛИ lim Е9,Х/Е9л1. t—> oo См. также Эргодические теоремы для стационарных случайных процессов и однородных случайных полей. Лит.: [1] Неве Ж., Математические основы теории вероятностей, иер. с франц., М., 1969; [21 Шу рен ков В.М., Эргодические теоремы и смежные вопросы теории случайных процессов, К., 1981. В. М. Шуренков, ЭРГОДИЧЕСКИЕ ТЕОРЕМЫ длявинеровских процессов (ergodic theorems for Wiener processes) - класс теорем, относящихся к проблеме нахождения асимптотического поведения отношения интегралов от локального времени. Частным случаем этих теорем являются результаты об асимптотике отношения аддитивных функционалов от винеровского процесса. В простейшем случае индикаторных функционалов имеет место следующее соотношение: lim Ks^t:w(s)*A) _ _/(л) t^oo Ks^t:w(s)eB) KB)' где / - мера Лебега, w(s) - винеровский процесс, Л, В - борелевские множества, /(#)<«>. Лит.: [11 Ито К., Маккин Г., Диффузионные процессы и их траектории, пер. с англ., М., 1968. О. И. Клесов. ЭРГОДИЧЕСКИЕ ТЕОРЕМЫ для марковских процессов (ergodic theorems for Markov processes) - 1) Э.т. в фазовых пространствах - теоремы о существовании и значениях пределов переходных функций марковских процессов как с непрерывным, так и с дискретным временем при неограниченном возрастании временного параметра. При этом понятие предела раскрывается в зависимости от конкретной ситуации; оно, напр., может связываться с поточечной сходимостью, сходимостью в смысле Чезаро или сходимостью в каком-либо банаховом пространстве. Эргодич. свойства цепей Маркова начал изучать сам А. А. Марков (1906-07). Позже эта проблематика привлекла внимание А. Н. Колмогорова (1936), В. Деблина (W. Doeblin) и многих других исследователей, сохранив актуальность до настоящего времени. Практич. ценность Э. т. проявляется в том, что они описывают предельные или в нек-ром смысле равновесные распределения в множествах состояний многих физич. систем. Следующие результаты А. Н. Колмогорова (см. [5], [2]) стали классическими. Пусть р^кп) - вероятности перехода за п шагов из состояния i в состояние / для нек-рой однородной ЭРГОДИЧЕСКИЕ 825
конечной или счетной Маркова цепи X. Тогда существует предел по Чезаро lim fl"12lBi^7(w)a=1lv» п —> °° причем V. я,у^ 1 и я,. = 0, коль скоро состояние/ невозвратно (см. Маркова цепь; классификация состояний). Если i - возвратное состояние цепи, то lim pii(nd)=df~i\ где d - период состояния i, а /"й - среднее время возвращения в х (см. Маркова цепь; среднее время возвращения). Отсюда выводятся важные следствия. Напр., если цепь X конечна и неразложима, то числа п^ не зависят от i и набор {\ij} с \1} = Щ: образует стационарное распределение. Если состояния i и j принадлежат одному и тому же возвратному классу с периодом d = 1, то _. lim Pij(n)=fjj . Значительный теоретический и прикладной интерес представляют оценки скорости сходимости к пределу в Э.т., в частности оценка \рЛп) - [i.\ ^ cf;р" при п ^ 1 с нек-рыми р < 1 и с^ < «j, в к-рой г и j пробегают множество Е состояний цепи X, а числа |i; образуют ее стационарное распределение (в этом случае цепь называется геометрически эргодиче- ской). Необходимое и достаточное условие осуществления последней оценки выражается в терминах наличия в Е функции с определенными свойствами см. [12]; имеются и родственные оценки, но лишь со степенной скоростью сходимости. Деблина условие и неразложимость цепи влекут ее геометрич. эргодичность; при этом семейство констант с^ можно считать равномерно ограниченным. Получение Э. т. в случае однородной цепи Маркова Х = (Хп, Рх), заданной в произвольном измеримом пространстве (Е, 33), потребовало усилий большого числа специалистов, начиная с М. Фреше (М. Frechet), В. Деблина, Н. М. Крылова, Н. Н. Боголюбова, К. Иосиды (К. Yosida) и С. Какутани (Sh. Kakutani) (см. [1]). Теорема Орея (см. Маркова цепь) показывает, что если цепь X с многошаговыми вероятностями перехода р(п, х, Г), ГеЗЗ, и^1, возвратна по Харрису, непериодична и обладает стационарным распределением \i, то, какова бы ни была вероятностная мера v на 33, полная вариация заряда vP" - |i стремится к 0 при п ->~, где vPin)(-)=jp(nt х, )v(dx). Соответствующим образом измененное утверждение справедливо и при наличии периодичности. Если цепь X возвратна по Харрису и обладает инвариантной мерой |i с (х(Е)=«>, то р(п, х, Г) -> 0 при п -> оо и х е Е всякий раз, когда рХГ) < «> (см. [41). Видную роль в рассматриваемой тематике сыграло условие квазикомпактности переходных вероятностей; оно требует существования для цепи X натурального числа т и компактного оператора Г, действующего в пространстве В(Е), таких, что ||Р'Л-Г| <1, где В(Е) - банахово пространство ограниченных^8-измеримых функций/*с нормой \\f\\ =sup \f\, а оператор Р определен на В(Е): Pf()=jf(y)p(-,dy). В этом случае Э. т. утверждает следующее (см. [4]). В пространстве Е можно выделить конечное семейство попарно непересекающихся множеств Eke 33 со свойствами: а) каждое Ek является поглощающим: р(х, Ek)=\ при xtEk; 826 ЭРГОДИЧЕСКИЕ б) часть Xk цепи X на Ek (то есть цепь Маркова в (Ek, 33k), где 33^ - след а-алгебры зЗ в Ek, с переходными вероятностями р(х, Г), xeEk, Ve33k) возвратна по Харрису и обладает стационарным распределением \ik', в) если xeD~ = E\\J Ek, тор(п, х} D)->0 равномерно относительноxeD при я -><». Кроме того, если какая-либо из цепей Xk непериодична, то р(п, х, Г) ->|1А(Г) равномерно относительно xeEk и Г е 33k при п -> ?о (случай периодичности Xk требует простых изменений). Отсюда, в частности, следует равносильность требования квазикомпактности и условия Деблина. Наконец, lim n~XYL i Р<ш> *• r> = Ei, л<*> Ek)\ik(T) п -► со Mmdm ~ * А"№ равномерно относительно х е Е и Г е ЗВ, где п(х> EA) = lim p(n, х, Ek) - финальное распределение по множествам Ek. Существует и масса других Э. т. для цепей Маркова, в том числе стоящие несколько особняком Э. т. для фелле- ровских цепей (см. [3], [11]), то есть для цепей в тоиоло- гич. пространствах, к-рым отвечают операторы Р, отображающие в себя семейство ограниченных непрерывных функций. Особой разновидностью Э. т. считаются предельные теоремы для отношений (см. Предельные теоремы для отношений, отвечающих цепи Маркова). Возможность применения тех или иных Э. т. зависит от наличия у цепи нетривиальной инвариантной меры или каких-то ее аналогов. По этой и по ряду других причин условия существования таких мер и описание их структуры привлекают к себе большое внимание (см [3], [4], [Ю], [И]). Э. т. для марковских процессов с непрерывным временем оказались на втором плане по сравнению со случаем цепей Маркова. Объясняется это тем, что большинство из Э.т. для марковских процессов возникает на Э. т., примененных к цепям, подходящим образом вложенных в соответствующие процессы (ср. [7], [13]). Таким способом, напр., Э.т. для возвратных по Харрису цепей перенесена на возвратные по Харрису (см. Во.шратный марковский процесс) стандартные процессы, подчиненные нек-рому условию регулярности (см. [7]). По своим идеям, методике и общей направленности эргодич. теория для марковских процессов и цепей тесно связана с родстненными разделами общей эргодич. теории и функционального анализа. Тенденция к привлечению специализированных методов функционального анализа для доказательства Э.т. позволила уловить важные эффекты (см. [11], [121). В то же время идеи регенерации, на к-рых базировались клас- сич. работы, получили новое звучание [9]. Исследовался и неоднородный случай. 2) Э.т. в пространствах элементарных событий - теоремы типа закона больших чисел и их аналоги типа предельных теорем для отношений (см. Предельные теоремы для отношений, отвечающих цепи Маркова). Такие теоремы находятся в самом непосредственном родстве с аналогичными результатами современной эргодич. теории и теории стационарных процессов. Пример Э.т. обсуждаемого вида доставляется следующим утверждением (см. [2]). Пусть А' - эргодическая цепь Маркова с не более чем счетным множеством состояний и со стационарным распределением {|i.}. Тогда почти наверное при любом начальном распределении коль скоро для функции f(J), jeE, указанный здесь ряд сходится абсолютно. Аналогичный результат для цепей общего вида, подчиняющихся условию Деблина, см. в [1].
Лит.: It] Дуб Дж.Л., Вероятностные процессы, пер. с англ., М., 1956; [21 Чжун Кай-лай, Однородные цепи Маркова, пер. с англ., М., 1964; 13] Foguel S. R., The ergodic theory of Markov processes, N. Y.-[a.o.], 1969; [41 Revuz D., Markov chains, Amst. - la. o.l, 1975; [5] Koimogoroff А., «Матем. сб.», 1936, т. 1, с. 607-10; [6] Хасьминский Р.З., «Теория вероятн. и ее примени, 1960, т. 5, в. 2, с. 196-214; [7] Duflo M., Revuz D., «Ann. Inst. H. Poincare. В», 1969, t. 5, p. 223-44; [81 Попов H.H., «Докл. АН СССР», 1977, т. 234, № 2, с. 316-19; [9] Nummelin E., «Z. Wahr. und verw. Geb.», 1978, Bd 43, S 309-18; [10] Шур М. Г., «Теория вероятн. и ее примен.», 1!)81, т. 26, в. 3, с. 496-509; [И] Смирнов С. Н., «Докл. АН СССР», 1982, т. 263, с. 554-58; [12] Карташов Н.В., «Теория в.фоятн. и се примен.», 1985, т. 30, в. 3, с. 230-40, 478-85; [13] Шу- ренков В.М., Эргодические процессы Маркова, М., 1989; [14] Скороход А. В., «Теория вероятн. и ее примен.», 1986, т. 31, в 4, с. 641-50; [15] Нуммелин Э., Общие неприводимые цепи Маркова и неотрицательные операторы, иер. с англ., М., 1989. М. Г. Шур. ЭРГОДИЧЕСКИЕ ТЕОРЕМЫ (ergodic theorems) для стационарных случайных процессов и однородных случайных пол ей - утверждения, касающиеся существования и вычисления временных средних значений стационарных случайных процессов и однородных случайных полей. 1. Существование и единственность временного среднего значения; абстрактные эргодические теоремы. Пусть Г - топологич. полугруппа, #'(Г) - семейство всех вероятностных борелевских мер на Г, Ш, .< Р) - вероятностное пространство; пусть У(Г), teT,- измеримое случайное поле на Г, причем E(\X(t)\p) <°°, te T, при нек-ром р> 1. Временным средним значением, или средним значением по реал из ациям (траекториям), поля Х() в L? называется случайная величина М(Х) € 1?(£1, .</, Р) такая, что по нек-рой последовательности {v„}c,y>(0 lim LX(yt)vn(dt) = mx) (1) п -> ~ ' равномерно по уе Т в смысле сходимости в Lp(Clt Л, Р); при этом говорят, что последовательность {v„} статистически усредняет поле Х(). Всякое среднее М(Х) в I? является средним U, 1 ^г<р. Любое однородное относительно левых сдвигов в широком смысле случайное поле обладает единственным временным средним значением в L ; однородное в узком смысле случайное поле Х(-) с Е(\Х(х)\р)<оо обладает единственным временным средним значением в Lp, 1^/?<°°. Если Xt л (t)=X(t, t{, t2), t, tx, t2eT, то M(X, t ) = M(X). Если поле X() однородно в узком смысле, то bA{X)-E.{X{t)\Jx), где ]х - а-алгебра подмножеств в .</, инвариантных Р = mod 0 относительно сдвигов поля Х(-). Если Х() однородно в широком смысле, рассмотрим в L (Q, .</, Р) подпространство Нх - замыкание множества всех линейных комбинаций случайных величин Х(0, teT, и в нем изометрич. линейные операторы Ut, определяемые свойством: UtX(y)-X(ty), t,yeT. Пусть Jx = {y:yeHx, t/xY=Y, teT). Тогда М(Х) = E(X(t)\jx) - ортогональная проекция Х(0 на/х, teT. Эти результаты содержатся в «абстрактных эргодич. теоремах» Биркгофа [2] и Алаоглу - Биркгофа [1 ]. Отсюда вытекает, что если поле Х() однородно в узком смысле и метрически транзитивно или если оно однородно в широком смысле и подпространство Jx тривиально (состоит из констант), то М(Х) = Е(Х), то есть временное среднее М(Х) совпадает со «средним по статистич. ансамблю» Е(Х(0) - так наз. фазовым средним. Этот факт, восходящий к идеям Л. Больцмана (L. Boltzmann) и Дж. У. Гиббса (J. W. Gibbs), позволяет доказать ряд утверждений в математич. статистике, статистич. механике и теории информации. В случаях Х = В? и Ж существование временного среднего М(Х) и равенство М(Х) = Ё(Х(0|/х) установлено в Биркгофа - Хинчина эргодической теореме и Неймана эрго- дической теореме. Согласно Э. т. Биркгофа - Хинчина и Неймана, последовательности мер vA :vA (В) = \ЛпГ\В\/\АГ}\, где Л„ = [0, п] или Лп = [-п, п], а |в| - мера Лебега (соответственно мощность) множества В с: R? (соответственно В с: Ж), усредняют все однородные случайные поля на II? (соответственно на Ж). Поиски таких «универсальных» усредняющих последовательностей на других подгруппах привели к широким обобщениям этих Э. т. (см. ниже). 2. Универсальные усредняющие последовательности; статистические эргодические теоремы. Последовательность {уи}с^(Г) называется универсальной статистически усредняющей последовательностью на Г, если справедливо любое из равносильных утверждений: 1) {v„} статистически усредняет любое однородное в широком смысле измеримое случайное поле на Г; 2) {v„} статистически усредняет в LP любое однородное в узком смысле измеримое случайное поле Х(0, teT, с E(\X(t)\p)<oo (здесь р>\). Если Т - локально компактная группа и Ап, п-\, 2, ...,- борелевские подмножества в Г с правой мерой Хаара 0< <jx(/4„) <о°, то естественно рассматривать меры vA(B) = = \i(AnC[B)/\i(An)-y тогда (1) принимает вид lim "777 J, X(s/Ou№) = M(X), (2) и если {v^ } - статистически усредняющая последовательность, то и последовательность {Ап} называется статистически усредняющей последовательностью. Такого рода последовательности существуют в любой локально компактной группе со счетной базой (см. [23}). Теоремы, связанные с их нахождением, называются статистическими эрго- дическими теоремами (в англоязычной литературе используется термин «mean ergodic theorems»). Любая последовательность {8„} со свойством Феллера П-+оо M-Mn) есть статистически усредняющая последовательность (см. [19]); в R?m всякая последовательность выпуклых множеств {Ап}, содержащих шары Sn с радиусами г (5П)-><*>, обладает свойством Феллера (см. [5]). Эта теорема содержит Э. т. Неймана (при X = R? и Ж, Л„ = [0, п] или [-п,п]) и Э.т. Винера (см. [12]) и Данфорда (см. [6]) (X = li?m и Жт, m^l, An— шары и кубы). Если Х- некомпактная связная простая группа Ли с конечным центром, то всякая последовательность {Ап} с |х(/4п)->о° есть статистически усредняющая последовательность; эта Э. т. характеризует простые группы с конечным центром в классе некомпактных связных групп Ли (см. [22], там же доказаны и статистич. Э.т. для любых групп Ли). В работах [13] и [19] Э. т. распространены на обобщенные однородные случайные поля. 3. Универсальные усредняющие последовательности; индивидуальные эргодические теоремы. Последовательность {8„} (соответственно {Ап}) называется индивидуально усредняющей последовательностью на Г, если (1) [соответственно (2)] при любом у е Г имеет место почти наверное для всякого однородного в узком смысле случайного поля X(t), teT, с Е(|Х(0|)<°°; теоремы, связанные с нахождением индивиду- ЭРГОДИЧЕСКИЕ 827
ально усредняющих последовательностей, называются индивидуальными эргодическими теоремами (в англоязычной литературе используется также термин «pointwise ergodic theorems»). Если qe&(T), причем носитель меры q порождает 7\ nq - ее k-я степень относительно свертки, то v„ =- У" , Я , я= 1. 2, ..., есть статистически усредняющая последовательность и индивидуально усредняющая последовательность (см. [21]); при нек-рых дополнительных предположениях о q и Х() {qn} также есть статистически усредняющая последовательность и индивидуально усредняющая последовательность (см. [18]). Если {Лп} не убывает, обладает свойством Феллера и sup (hUaOMaJH-. \^П<°о то {Л„} есть индивидуально усредняющая последовательность (см. [8], [21 ]—[23]); напр., в П?т любая неубывающая последовательность выпуклых множеств, содержащих шары Sn с |i(S,j)->oo, есть индивидуально усредняющая последовательность. Частными случаями этой теоремы являются Э.т. Биркгофа - Хинчина, Винера [12] и Кальдерона (см. [3]). Другие методы построения индивидуально усредняющих последовательностей на группах предложены в работах [9| и [11]. 4. Другие типы эргодических теорем. Э. Хопф [24] обобщил Э. т. Биркгофа - Хинчина на эндоморфизмы ф пространств (Q, .»/, т) с бесконечной мерой, рассмотрев пределы где ^деЬх(С1, *4, т), д^О, вместо lim —- У" /Чср (о). Р. Чакон и Д. Ористейн [4] обобщили Э. т. Хопфа на положительные сжимающие линейные операторы в L (Q, Л, т) (см. также [17]), в статье [20] Э. т. Хопфа перенесена на произвольные полугруппы эндоморфизмов. Н. Данфорд и Дж. Шварц [7] обобщили Э. т. Биркгофа - Хинчина на линейные операторы 5, имеющие в L (Q, ^ т) и в L°°(Q, ..«/, т) нормы 151| ^ 1 (см. также [15|). Другие обобщения Э. т. изложены в обзорной статье в [10] и в книгах [10], [15], [16] и [22]. К Э. т. по форме близки законы больших чисел, устанавливающие существование временных средних для случайных процессов, последовательностей и полей при различных ограничениях зависимости; в усиленном законе больших чисел для однородных в широком смысле случайных полей на И?т эти ограничения выражены в терминах весьма слабых условий на спектр (см. [14]). Лит.: [1] Alaoglu L., Birkhof f G., «Ann. Math.», 1940, v. 41, p. 293-309; [2] Birkhoff G., «Duke Math. J.»,1939, v. 5, p. 19-20; [3] Calderon A., «Ann. Math.», 1953, v. 58, p. 182-91; [4| Chacon R., Ornstcin D., «111. J. Math.», 1960, v. 4, p. 153-60; [5] Day M., «Trans. Amer. Math. Soc.», 1942, v. 51, p. 399-412: [6] Dunford N., «Duke Math. J.», 1939, v. 5, p. 635-46; [71 Dun- ford N.. Schwartz J., «J. Ration. Mcch. Anal.», 1956, v. 5, p. 129-78; [81 Emerson W. R., «Amer. J. Math.», 1974, v. 96, p. 472-87; [9] Emerson W., Greenleaf F., «Adv. Math.», 1974, v. 14, p. 153-72; [101 К re n gel U., Ergodic theorem, B. - N. Y., 1985; [11] Vershik A, M„ «Selecta Math. Sovietica», 1982, v. 2, p. 331-50; [12] Wiener N.. «Duke Math. J.», 1939, v. 5, p. 1-18; [13] Ur- banik K., «Studia Math.», 1958, v. 16, p. 268-334; [141 Ганош- кин В. Ф., «Теория вероятн. и ее примем.», 1977, т. 22, с. 295-319; [15] Данфорд Н., Шварц Дж., Линейные операторы. Общая теория, пер. с англ., М., 1962; [16] Корнфельд И. П., Синай Я. Г., Фомин С. В., Эргодическая теория, М., 1980; [171 Неве Ж., Математические основы теории вероятностей, пер. с франц., М., 1969; [18] Оселедец В. И., «Теория вероятн. и ее примен.», 1965, т. 10, с. 551-57; [19] Темпельман А. А., «Литов- 828 ЭРГОДИЧЕСКИЙ ский матем. сб.», 1962. т. 2, № 1, с. 195-213; [20J его же, «Теория | вероятн. и ее примен.», 1972, т. 17, с. 380-83; [211 его же, «Докл. АН СССР», 1967, т. 176, с. 790-93; [221 его же, «Тр. Моск. матсм. I об-ва», 1972, т. 26, с. 95-132; [23] его же, Эргодические теоремы на I группах, Вильнюс, 1986; [24] Хоиф Э., «Успехи матем. наук», 1949, т. 4, в. 1, с. 113-82. А. А. Темпельман. ЭРГОДИЧЕСКИЙ КЛАСС цепи Маркова (ergodic class/set in a Markov chain) - см. Маркова цепь; эргодический класс. ЭРГОДИЧЕСКИЙ СЛУЧАЙНЫЙ ПРОЦЕСС (ergodic ran | dom process) - случайный процесс A(0 с непрерывным или дискретным временем t такой, что для определенного класса функционалов Ф[АЧ0] от значений процесса су- (ф) / ществует среднее но времени значение т (определяемое как предел в нек-ром вероятностном смысле при Г-><» от среднего по времени значения Ф[Х(Ь + s)\ при -T^s^T), крое совпадает с вероятностным средним ЕФ[Х(0] (то есть сред- I ним но всему ансамблю реализаций процесса X(t) значением Ф[Х(0]). Понятие об эргодичности впервые возникло в начале 20 в. в статистич. физике, при обосновании к-рой большую | роль играет возможность замены осреднения по разумно вы- I бранному статистич. ансамблю физич. систем осреднением по \ времени вдоль траектории одной такой системы; впоследствии отсюда выросла обширная эргодич. теория дннамич. систем, ! имеющая много точек соприкосновения с теорией эргодич. i случайных процессов (см., напр., [11). I Пусть t непрерывно; доказательства и результаты для дискретного времени являются вполне аналогичными и отличают- ! ся лишь кое-какими упрощениями. Так как среднее по време- ] ни от Ф[Х(0], очевидно, не зависит от времени, то эргодичность предполагает, что и ЕФ[Х(0] не зависит от t для I рассматриваемого класса функционалов Ф[Х(0], то есть что j процесс X(t) обладает определенной стационарностью. Для придания понятию Э. с. п. точного смысла надо еще указать класс рассматриваемых функционалов Ф[Х(01 (и смысл используемого предельного перехода при Т —><*>). Наиболее ши- I рокое из представляющих интерес понятий эргодичности возникает при ограничении рассмотрения в качестве Ф[А'(0] ! лишь мгновенных значений X(t$) при всех tQ; в атом случае I для Э.с. п. должно выполняться равенство ЕХ(0 = const и ! эргодичность означает, что для процесса X(t) справедлив | больших чисел закон (обыкновенный, если предел при Г -><*> | понимать как предел по вероятности или в среднем квадра- i тичном, и усиленный, если его понимать как предел с вероят- I ностью 1). Эргодичность, относящаяся к функционалам вида | Ф[Л"(0] = X(tft) (и их конечным линейным комбинациям), I иногда называется эргодичностью первого но ряд- j к а. В применении к стационарным в широком смысле нроцес- I сам X(t) (и при условии, что предел при 7' —> «> понимается | как предел в среднем квадратичном) простое необходимее и достаточное условие такой стационарности дается Слуцгого эргодической теоремой (см. также Больших чисел закон для | стационарных случайных процессов); по поводу условий эр- ; годичности 1-го порядка для таких процессов при определе- ! нии среднего по времени как предела с вероятностью 1 см. в ст. Больших чисел усиленный закон для стационарных случайных процессов. Для стационарных в узком смысле процессов X(t) выполняется Биркгофа - Хинчина эргодическая теорема, согласно к-рой среднее по времени значение XU) (понимаемое как предел с вероятностью 1) существует при очень широких условиях, если только Е|Х(0| <ос; отсюда, в частности, вытекает, что для стационарных в узком емьеле процессов из выполнения условия Слуцкого вытекает сиранед- , ливость для X(t) усиленною закона больших чисел. | Эргодичность второго порядка процесса X(t) I обычно определяется как эргодичность для класса функциона-
лов Ф[А'(0), включающего и все значения в точке Х(£0), и все попарные произведения X(to)X(t])', такая эргодичность уже требует, чтобы процесс X(t) обязательно был стационарным в широком смысле, и она будет иметь место, если и процесс X(t), и процесс Ут(0 = X(t)X(t + x) (зависящий от параметра т) обладают эргодичностью 1-го порядка. Эргодичность 2-го порядка необходима для возможности состоятель- н( го оценивания корреляционных функций fl(t) = EX(t + t)XW b(x) = E\X(t + т) - EX(t + x)\[X(t) - EXU)], а также спектральной плотности f(X) и спектральной функции F(X) процесса X(t) по отрезку длины Т одной реализации этого'процесса. Заметно более узкое понятие эргодичности получается, если потребовать, чтобы равенство среднего по времени теоретико-вероятностному среднему имело бы место для всех функционалов вида Ф\х(О\ = Ф[хи0), x(f0 + *t) x(t0 + t„_^\, где Ф(.£0 хп-0 ~ функция п переменных такая, что Е|Ф[ХО0),Х(^+^) XU0 + tn^)]\<oo (или даже для еще более широкого класса функционалов вида Ф[Аг(г)] = lim Фя[Хи0), XU0+t{), ...,Х(*0+*„_,)]). Процессы, для к-рых имеет место эргодичность в этом последнем смысле, часто называют просто эргодическими (или метрически транзитивными процессами). Если X(t) - это стационарный в узком смысле случайный процесс, то тогда существование при Т —> °° предела m с вероятностью 1 or величины ткФ) = (2ТУ]\Т_тФ\Хио + *),хи0 + Г{+*), ... .... Х(*о+ *„-,+.О № следует из эргодич. теоремы Биркгофа - Хинчина; поэтому здесь нахождение условий аргодичногш сводится к нахождению условий, при к-рых тп = ЕФ\Х(0\. Эти последние условия, однако, обычно очень нелегко установить; исключенном здесь является лишь случаи гауссовского стационарного процесса А'(0 (для к-рого, как известно, стационарность в широком и узком смысле совпадают друг с другом), поскольку для ыких процессов (см. [2{, (31, а также [41 для случая дискретного t) для эргодичпос1и (метрич. транзитивности) необходимо и достаточно, чтобы спектральная функция F(\) процесса Х(т)-ЕХи) была всюду непрерывной (см. также [5], 161). Нек-рые обобщения указанного условия, относящиеся к более широким, чем класс гауссовских процессов, классам стационарных случайных процессов Х(0 и формируемые в терминах люмен ion XU) высших порядков или многомерных характеристич. ф\пкций этого процесса, указаны в [7J, [8]; однако приведенные здесь условия трудно поддаются проверке. Еще одно очень общее (но совсем не поддающееся проверке) условие эргодичности (понимаемой как требование сходимости предела при Т -><*> от среднего значения Ф[Х(£ + .0] на интервале O^s^T) указано в [9]. И случае неэргодического (метрически интразитивного) стационарного в узком смысле процесса X(t) из нек-рых относящихся к общей теории дииамич. систем результатов Дж. Неймана 110], [11 | и В. А. Рохлина [12] вытекает, что при очень широких условиях регулярности множество всех реализаций процесса А"(г) может быть разбито на нек-рые непересекающиеся подмножества, в пределах каждого из к-рых все временные средние значения X(t) сходятся при Г-><» с вероятностью 1 к постоянным значениям, равным условным средним i значениям X(t), при условии, что рассматриваемая реализация процесса принадлежит к соответствующему подмножеству (см., напр., [5]). Этот факт можно интерпретировать как утверждение о том, что неэргодич. стационарные процессы практически всегда можно рассматривать как смеси ряда эрго- дических таких процессов. Лит.: [1] Корнфельд И. П., Синай Я. Г., Фомин СВ., Эргодическая теория, М., 1980; [2} Maruyama G., «Mem. Fac. Sci. Kyusyu Univ.», Ser. A, 1949, v. 4, № 1, p. 45-106; [31 Гренан- дер У., Случайные процессы и статистические выводы, нер. с англ., М., 1961; [41 Фомин СВ., «Укр. матем. ж.», 1950, т. 2, № 2, с. 25-47; [51 Розанов Ю.А., Стационарные случайные процессы, М., 1963; [6] Крамер Г., Лидбеттер М., Стационарные случайные процессы. Свойства выборочных функций и их приложения, нер. с англ., М., 1969; [7] Parzen E., «Ann. Math. Statist.», 1958, v. 29, № 1, p. 299-301; [81 Леонов В П., Некоторые применения старших семиинвариантов к теории стационарных случайных процессов, М., 1964; [9J Розанов Ю. А., Теория вероятностей, случайные процессы и математическая статистика, 2 изд., 1989; (10) Neumann J., «Ann. Math.», 1932, v. 33, № 4, p. 587-642; [11 j его же, Избранные труды по функциональному анализу, пер. с англ., нем., т. 1, М., 1987, с. 7-62; [12] Рохлин В. А., «Успехи матем. наук», 1949, т. 4, в. 2, с. 57-128. А.М.Яглом. ЭРГОДИЧНОСТЬ (ergodicity) - свойство группы или полугруппы, сохраняющих меру преобразований вероятностного пространства (ft, ..«/, Р). Оно определяется как отсутствие подмножеств А е.«/, Р(Л)>0, Р(Я\Л)>0, инвариантных относительно группы или полугруппы. Для сохраняющих бесконечную меру преобразований иногда вместо термина «Э.» используется термин «метрическая транзитивность». Если {S l } - группа сдвигов в пространстве реализаций стационарного случайного поля X = {X(t), £еП? или 1 }, то Э. означает, что для любой случайной величины временное среднее 1 (Т (Т почти всюду (в случае 2 вместо интегралов надо рассмотреть суммы). Эквивалентность этого приведенному выше определению есть простое следствие Биркгофа - Хинчина эргодиче- ской теоремы. Лит.: [II Корнфельд И. П., Синай Я. Г., Фом и н С. В., Эргодическая теория, М., 1980. ЯГ. Синай. ЭРЛАНГА РАСПРЕДЕЛЕНИЕ (Erlang distribution) - непрерывное, сосредоточенное на [0, °°) распределение вероятностей с плотностью (см. рис.) •jT0^T0Y(S^^)dt^dtd- EY р(х) " Г(я) 1.2 2 I \ 1.0 1.2 1.3 1.6 1. Плотности распределения Эрланга ц.= 1 и (1) я=1; (2) я = 3; (3)п=10. ЭРГОДИЧЕСКИЙ 829
где |i, n - параметры, ц>0, п - целое. Математич. ожидание и дисперсия равны соответственно 1/ц. и \/п\1 . Э. р. является частным случаем гамма-распределения, названо по имени А. Эрланга (A. Erlang), впервые применившего его в задачах теории массового обслуживания. Э. р. с параметрами ц и п является распределением суммы п независимых одинаково распределенных случайных величин, каждая из к-рых имеет показательное распределение с параметром n\i; в частности, при я= 1 Э. р. совпадает с показательным распределением. Характеристич. функция Э. р. используется в теории массового обслуживания, описывая в ряде ситуаций распределение времен обслуживания. Лит.: [1] Саати Т., Элементы теории массового обслуживания и ее приложения, пер. с англ., 2 изд., М., 1971. В. Г. Ушаков. ЭРЛАНГА ФОРМУЛА (Erlang formula) - формула, выражающая стационарную вероятность pk занятости k линий в я-линейной обслуживания системе через параметры X, ц потока и обслуживания: Вероятность потери требования равна рп. Выведена А. Эрлан- гом в 1917, многократно использовалась при расчете телефонных и других систем обслуживания. См. также Севастьянова формула. И.Н. Коваленко. ЭРМИТОВА СЛУЧАЙНАЯ МАТРИЦА (Hermitian random matrix) - квадратная случайная матрица Нп- \%Л порядка я, совпадающая со своей эрмитово сопряженной Нп. Если действительные и мнимые части элементов Э. с. м. Нп, расположенные на диагонали и выше ее, имеют совместную плотность распределения, то собственные значения Х^ ...^Хп матрицы Нп с вероятностью 1 не совпадают между собой. Собственные векторы аь г = 1, ..., я, Э. с. м. Нп определяются однозначно системой уравнений (Нп-Х{1)а{ = 0, Ц, at) = \t argau = cit i=\, .... я, где с, - нек-рые неслучайные числа, 0^с,^2л, i= 1, ..., я. Пусть Г - группа я-мерных унитарных матриц и v - нормированная мера Хаара на ней, В есть а-алгебра борелевских подмножеств группы Г, An = (a]t ..., ап). Если существует плотность распределения Э. с. м. Нп> то можно подсчитать (см. [1]) P{AneL, ai<Xi<pi} t = l, .... я}, где а,, р, - любые действительные числа; L - любое подмножество из В. Если распределения матриц UnHnU* и Нп совпадают для всех унитарных матриц U„ e Г, то матрица Ап стохастически не зависит от собственных значений Э. с. м. Нп и имеет распределение P{A„<=Lc:B} = \Lv(dUn\arguu = ci, Ы\ я). Плотность распределения собственных значений также может быть найдена (см. [1]). Лит.: [1] ГиркоВ.Л., Теория случайных детерминантов, К., 1980. В.Л.Гирко. ЭРМИТОВО ПОЛОЖИТЕЛЬНАЯ ФУНКЦИЯ (Hermitian positive function) - см. Положительно определенная функция. ЭРОЗИЯ (erosion) - см. Минковского операции. ЭССЕЕНА ТЕОРЕМА (Esseen theorem) - см. Асимптотическое разложение распределения. 830 ЭРЛАНГА ЭФФЕКТИВНАЯ ОЦЕНКА (efficient estimator) - несмещенная статистическая оценка, дисперсия к-рой совпадает с правой частью в Крамера - Рао неравенстве. Э. о. является достаточной статистикой для оцениваемого параметра. Если Э. о. существует, то ее можно получить с помощью метода максимального правдоподобия. В силу того, что во многих случаях нижняя грань в неравенстве Крамера - Рао не является достижимой, в статистике часто Э. о. называют оценку, имеющую минимальную дисперсию в классе всех несмещенных оценок рассматриваемого параметра. См. также Асимптотически эффективная оценка. Лит.: [1] Крамер Г., Математические методы статистики, пер. с англ., 2 изд., М., 1975; [2] Ибрагимов И. А,, Хасьмин- скийР. 3., Асимптотическая теория оценивания, М., 11)79; [3] Рао С, Линейные статистические методы и их применение, пер. с англ., М., 1968. м.С. Никулин. ЭФФЕКТИВНОСТЬ оценок второго порядка (second order efficiency of estimators) - свойство оптимальности асимптотически эффективных оценок по отношению ко второму члену асимптотического разложения их функций риска или иных критериев, положенных в основу сравнения оценок. Проблема сопоставления асимптотически эффективных оценок по их свойствам второго порядка была впервые сформулирована Р. Фишером [1]. Пусть Xv ..., Хп - независимые одинаково распределенные случайные величины с достаточно гладкой по 0 плотностью f(x, в), /(в) = Ев(— \nf(Xu в)) - информационное количество по Фишеру плотности f. a /е (в) - информационное количество плотности распределения оценки вп = в„(Х1, ..., Хп). Оценка Qn асимптотически эффективна (по Фишеру), если Iim л-1/в (в) = /(6), а в классе асимптотически эффективных оценок наиболее эффективной второго порядка является та, для к-рой величина lim (п1(в)-1$ (в)) минимальна при всех 6. В современных работах в качестве критерия качества оценок обычно используется функция риска как величина, более тесно связанная с точностью оценивания, а также белее простая в вычислительном отношении. Асимптотич. разложения функций риска для широких классов оценок, включая оценки максимального правдоподобия и бейесовские, исследовались в [2]-[6]. Было выяснено, что намеченная Фишером задача описания Э. оценок 2-го порядка может быть решена лишь для сравнительно узких классов оценок. Один из таких классов составляют оценки, смещение к-рых имеет порядок о(п~ ), п->°° (см. [6]). В случае так наз. искривленных экспоненциальных семейств распределении в [7]—[ 10] изучался специальный класс оценок вида f(T]f ..., Тр), где Ti - достаточные статистики выборки, в к-ром удается описать Э. оценок 2-го порядка (для неискривленных экспоненциальных семейств такой класс сводится к единственной оценке). В обоих случаях риск Э. оценок 2-го порядка можно улучшить равномерно на любом компакте или даже во всем пространстве, если не ограничиваться указанными классами оценок. Удовлетворительное решение проблемы Э. оценок 2-го порядка может быть получено с привлечением соответствующим образом модифицированных вальдовских критериев допустимости и минимаксности. Пусть я„(е„,е) = Ее|л^(е„-е)|а, а>о, где 6 е 0 = (6_, 6+), - <» ^ в_ ^ в+ ^ <». В теории Э. оценок 2-го порядка ограничиваются асимптотически эффективными оценками, допускающими разложение я„(е„, в) = я0(в) -л~Уе) + о(л-1), п -юо, (о
равномерно на компактах из 0, где Яо^-ТоГ^»). уа = 2а/2тГ1/2Г((а+ 1)/2), а функция р(-) принадлежит классу Сч0) локально гельде- ровых функций, 0<Р^1. Если функция р непрерывна на замкнутом интервале [6_, 6+], то можно ограничиваться оценками, допускающими разложение (1) равномерно по 0€0. Оценка в„, удовлетворяющая (1), называется второго порядка q-неу лучшаемой, q>0, q*0, q е Сч0), если не существует таких 0* и а>0, что Дп(9*,6) ^Дп(в„,в) - -и" а6(6) + о(я~ ), п-+°°, и второго порядка допустимой, если она g-неулучшаема для любой функции q рассматриваемого вида. С точки зрения Э. оценок 2-го порядка достаточно ограничиться" полным классом оценок второго порядка вида e„=e„ + n-yen)x{|0(6„)|<«,/2>. (2) где <7'еСч0), а 6п - асимптотически эффективная оценка. Если 6„ - оценка максимального правдоподобия, то функцию д в (2) удобно представить в виде где о)(0) > О, М,;(0) = Ee[r- \nf(Xu 0)J . В приведенной форме записи оценок, определенных равенствами (2), (3) и обозначаемых Qnm, наиболее просто формулируются условия второго порядка ^-неулучшаемости и допустимости. Функция р(0) в разложении (1) оценок 0„ w имеет вид уаГ2а(О-Ч0)-|-Г(2+а)/2(0)-^-(о(0) + ^о(0Д (4) где Pq(Q) зависит лишь от плотности f(x,Q). В частности, если f(x,Q) = f(x-Q)} где /"(•)- четная функция, то ™ 24 ^ /2(e) ( /2(G) )) Пусть М) - О)2(0)Г(2+оО/2(0), v(0) = ^(0)О)2(0) и для произвольного 0О g (0_,0+) определены величины Je, Ф±(0)=±[ X~4u)du, Ф, = Иш Ф±(0), '"о e->et J v(u)du Г1 X~](v)dv, если Ф±<°о, f® -1 f®± J X (u)du \ v(v)dv, если Ф±=°°, ¥±= lim Ч^(в), Ф = гшп(Ф_,Ф+), 4/ = тах(4'_, ¥+). *F±(e) = Тогда: 1) оценка 0Е(|) второго порядка допустима тогда и только тогда, когда Ф = <»; 2) оценка 0еш второго порядка g-неулучшаема тогда и только тогда, когда тах^ЧО = <*>. В частности, оценка максимального правдоподобия 6П второго порядка допустима тогда и только тогда, когда интеграл Ч I б Ч i{v) | расходится в окрестности точек 0± (см. [11], [12]). Пример. Пусть Xt - гауссовские случайные величины со средним 0е0 = (-д, а) и дисперсией а2 [при этом A/3t(0) = = Рп(6)=0 в (3)-(4)]. Оценка 0п(о, отвечающая функции (O = cos—, |0| < а, и допускающая равномерно на компактах из 0 разложение Л(вп,ш,в) = уа(а«-^1 + 0(П-')), второго порядка допустима, а следовательно, и второго порядка минимаксна (1-неулучшаема). Сходные условия допустимости и ^/-неулучшаемости второго порядка имеют место и в многомерном случае (см. [12]). Лит.: [1] Fisher R., «Proc. Cambr. Philos. Soc», 1925, v. 22, p. 700-25; [2} Linn ik Y. V., Mitrofanova N. M., «Sankhya, Ser. A», 1965, v. 27, Jsfe 1, p. 73-82; [3] Чибисов Д. М., «Теория веро- ятн. и еепримен.», 1973, т. 18, в. 4, с. 689-702; [4] Гусев С. И., там же, 1976, т. 21, в. 1, с. 16-33; [5] Бу рнашев М. В., «Изв. АН СССР. Сер. матем>, 1981, т. 45, № 3, с. 509-39; [6] Pfanzagl J., Wefelmeyer W., «J. Multivar. Anal.», 1978, v. 8, № 1, p. 1-29; [7] Rao C, «Sankhya, Ser. A», 1963, v. 25, № 2, p. 189-206; [8] Efron В., «Ann. Statist.», 1975, v. 3, № 6, p. 1189-242; [9] Ghosh J., Subramanyam K., «Sankhya, Ser. A», 1974, v. 36, № 4, p. 325-58; [10] Eguchi S., «Ann. Statist.», 1983, v. 11, № 3, p. 793-803; [11] Ghosh J., Sinha В., там же, 1981, v. 9, № 6, p. 1334-38; [12] Левит Б. Я., «Теория вероятн. и ее примен.», 1985, т. 30, в. 2, с. 309-38. Б. Я. Левит. ЭФФЕКТИВНОСТЬ ресурса (resource efficiency) - см. Множественный доступ. ЭФФЕКТИВНОСТЬ статистической процедуры (efficiency of a statistical procedure) - понятие, используемое при сравнении статистических процедур из данного класса с оптимальной. В математич. статистике понятие оптимальности статистич. процедуры выражается в терминах риска (функции риска) процедуры, к-рый, в свою очередь, непосредственно зависит от выбора функции потерь. Поэтому может оказаться, что одна и та же статистич. процедура является очень эффективной или даже оптимальной в каком-то одном смысле и мало эффективной в другом. Э. статистич. процедуры - понятие, не совсем четко определенное; более точный смысл оно приобретает в конкретных задачах математич. статистики, напр. в таких, как статистических гипотез проверка и статистическое оценивание. Лит.:[\\ Боровков А. А., Математическая статистика, М., 1984; [2] VoinovV. G., NikulinM. S., Unbiased Estimators and Their Applications, v. 1 - Univariate Case, Dordrecht, 1993; [3] Greenwood P. E., Nikulin M.S., A Guide to Chi-squared Testing, N. Y., 1996. M.C. Никулин.
30Щ^ ЮЛА ПРОЦЕСС (Yule process) - марковский ветвящийся процесс с непрерывным временем, в к-ром каждая частица, исчезая, порождает две новые частицы. Ю. п. является частным случаем чистого размножения процесса (интенсивность появления новой частицы пропорциональна числу существующих частиц). Неоднородный по времени Ю. п. на отрезке [0, 1] с интенсивностью деления частицы в момент t, пропорциональной 1/(1 - О, оказывается предельным для редуцированных ветвящихся процессов в критич. случае (см. [2]). Лит.: [1] Yule G. U., «Philos. Trans. Roy. Soc. London. Ser. B», 1925, v. 213, p. 21-87; [21 FI eischmann K., Siegmund- SchultzeR., «Math. Nachr>, 1977, Bd 79, S. 233-41. А. Л/. Зубков. ЮЛА - УОКЕРА ОЦЕНКИ (Yule - Walker estimators) параметров авторегрессии- оценки по наблюденным значениям x(t), t=\, 2, ..., Т, авторегрессии процесса X(t), t = 0, ± 1, ..., порядка т (являющегося стационарным решением разностного уравнения XU) + a^XU - 1) + ... + amXU -m)= YU), где EY(O = 0, EY(t)Y(s)=o2bst) значений параметров^, .... ат, получающиеся с помощью подстановки в Юла - Уокера уравнения значений выборочной корреляционной функции BT(s) вместо неизвестных истинных значений корреляционной функции B(s) = EX(t + s)X(t) и последующего решения получаемых уравнений относительно неизвестных в], ..., ат. Обычно для нахождения Ю. - У. о. параметров авторегрессии используют уравнения с /г=1, ..., w, образующие систему т линейных уравнений с т неизвестными; их решения я*, ..., а^ при широких условиях представляют собой состоятельные оценки параметров авторегрессии д1 ат (см., напр., [1]-[4]). При численном решении системы т уравнений Юла - Уокера удобно использовать рекуррентный алгоритм Левинсона - Дербина (см. Левинсона алгоритм): вычисление на ЭВМ значений выборочной корреляционной функции Bj(s), определяющих коэффициенты этой системы, в случае больших значений Т можно ускорить, воспользовавшись тем, что функция Bj(s) представляет собой преобразование Фурье периодограммы ряда x(t), и дважды применив алгоритм быстрого преобразования Фурье (см. Корреляцион ная функция; оценивание). В случае когда дисперсия о процесса Y(t) также „неизвестна, ее состоятельную оценку (о2)* в силу уравнения Юла - Уокера с к-О можно найти по формуле (o2y = Br(0) + ^=ia;B*T(s)t где a*, s=\, ..., т, суть Ю. - У. о. параметров авторегрессии. Иногда для определения Ю. - У. о. используют также переопределенную систему уравнений Юла ~ Уокера с k=\, ..., т + р, где р>0, исходя из к-рой значения оценок а*, .... а*п 832 ЮЛА находятся с помощью минимизации суммы квадратов ошибок (см., напр., [5], [6]). В нек-рых случаях интерес представ- ляет и нахождение Ю. - У. о., исходя из системы уравнений, включающих лишь уравнения Юла - Уокера достаточно высокого порядка k} содержащие только значения B(s) с 5>0. При наличии ошибок наблюдения NU) таких, чтоЕЛКО = 0, EN(t)N(s)=Gtfbts, корреляционная функция Bu(s)-EX1U + s)X]U) реально наблюдаемого процесса Xj(0 = XU) + \(t) совпадает с B(s) при s* 0; поэтому исиоль- | зование лишь уравнений, не содержащих значения В(0), по- j зволяет исключить влияние ошибок наблюдения на Ю. - У. о. параметров авторегрессии. Однако при численном решении системы уравнений Юла - Уокера высоких порядков часто возникают дополнительные осложнения, требующие привлечения специальных приемов (см. 16]). Если можно считать, что наблюденные значения xU), t - 1. j ..., Г, представляют собой реализацию смешанного процесса ! авторегрессии - скользящего среднего, являющегося решени- I ем разностного уравнения | =Y(t)+b,Yit-\)+ ... + br>li-n). , где Y(t) -- тот же- пронят, что и »чнч\ 'г > систему уранпо- | нин, определяющих состоятельны^ Ю. - У. о. параметров авторегрессии а", .... а^, можно найти полегав ив в систе- | му уравнений Юлл - Уокегм с к-п+\, н + т (мчи в I переопределенную сисм-му ihkmx уравнении с к-п+\. .. . ! п + т+р, г/;^ р>\)) значения выборочной корречяционной j функции BT(s) пида.г(0 вместо истинных значении .coppenii- I шюнной функции Bis) - EXit + s)\U) (см. Юла- Уокерг уравнения). «turn.: [' 1 \\ tHfian .) , Лма.ш.^ временных, рядом. п"т> с i-nr.i , М : 1964" [2\ е. и кс, Мти^куш ,<• Bjwu.iuibic (ыды, пр. l ыи.. М . I 1974; П] Ко*;г Лж Д,1 iMibinic Г., Дмлчи: вр< чгнныч рл'пт I Прогноз м yi'p.JM'i пне :г, . г "'«п ч. ]-'), М, 107Л- (1) Ли | дерсом Т., Стгнстччюсий ты.им временных рядов, rep. г инг.ч., | М., 1976: 1-5| К.|Д.>.)\ 4 ж. Л., «Тр. Ик-ia инж .ыокфотсхн. ра- джилсктрон » 19S2 i ГС v. 9, <\ Т>6 \)3; \(\] Тм n-I.Mii/Р. Lim/.S , * кг • AS^P Spectrum Ljttipi.it, 2-ml *Yor^op. Чг Y , 1983, р. 49-54; [/] Chan V.Т.. LandlordR Р. *)ЕЕЕ '1 rans' AcousL, Speech and SiRii.il Pux\ «, 1982, v. 30, >> :>, p. 689-98. I A M. Я'чом. ЮЛА - УОКЕРА УРАВНЕНИЯ (Yule Walker equa- tions) - уравнения I B(k) + aMk-\)+...+frMk-m) = \G2 Щт '*"0, I l ■" [ 0 при A = !,2 к-рым удовлетворяют шачепии коррс тяционпон фунчции | В{к) = EXit + /;)ЛЧО авторггрессии процесс^ А'(«), i -0, j ± 1, ..., прс'чставля^отсго собой сгационарж^' решение разностного уравнегшя I X(t) *-tftA'(^-0 +... + <tniX(t-Tn) = Y(t)t где ЕУ(О = 0, EY(t)Y(s) = o2bts fro есть YU) - дискретны1| белый шум]. Ю. - У. у. были пол\чены Дж. Юлом [1] для случая т- 2 и Дж. Уокером [2] для общего случая; их вывод I можно найти, напр., п книгах |3]-[6|.
В случае смешанного процесса авторегрессии - скользящего среднего X(t), удовлетворяющего разностному уравнению X(t) + axX(t- 1) + ... + amX(t- m) = = Y(t) + b^Yit - 1) + ... + bnY(t- n), где Y(t) - тот же процесс, что и выше, значения корреляци- с иной функции B(k) = EX(t+ k)X(t) удовлетворяют урав- гениям типа Юла - У о к е р а ВШ + a^ik- \) + ...+amB(k-m) = 0, k = n+\t л+ 2, ... Лит.:\\\ Yule O.V., «Phil. Trans. Roy. Soc, Ser. A», 1927, v. 226, p. 267-98; [2) Walker G.( «Proc. Roy. Soc, Ser. A», 1931, v. 131, p, 518-32; [3| Хеннан Э., Анализ временных рядов, пер. с англ., М., 1964; 141 Бокс Дж., Дженкинс Г., Анализ временных рядов. Прогноз и управление, пер. с англ., в. 1-2, М., 1974; (5] Андерсон Т., Статистический анализ временных рядов, пер. с англ., М., 1976; 161 Кендалл М., Стьюарт А., Многомерный статистический "анализ и временные ряды, пер. с англ., М., 1976. А. М. Яглом. ЯДЕРНАЯ ОЦЕНКА (kernel estimator) - см. Непараметри- меское оценивание. ЯДЕРНАЯ ОЦЕНКА плотности (kernel density estimator) в пространстве общей природы Ж (непрерывном или дискретном) - статистика (см. [1]) где Xv Х2, .., Хп - независимые одинаково распределенные случайные элементы со значениями в X; функция р: Ж —> —►[О, +оо) - близости мера в Ж и функция К: [О, +оо)—> —»IR , называемая ядром, удовлетворяют нек-рым условиям регулярности; последовательность hn положительных чисел такова, что hn->0, nhn->°°. Свойства fn(x) аналогичны свойствам классич. Я. о. плотности в случае Х = П? (см. [2]). Я. о. плотности используется для оценки плотности f(x) случайного элемента Хх по нек-рой мере v в {, для непараметрич. оценки регрессии, моды, в дискриминантном анализе и других задачах статистики объектов нечисловой природы. Лит.: [1] Орлов А. И., в кн.: Прикладная статистика, М., 1983, с. 12-40; [2] его ж е, в кн.: Статистические методы оценивания и проверки гипотез, Пермь, 1995, с. 68-75. А. И. Орлов. ЯДРО (kernel) - см. Рэя резольвента, Ядерная оценка. ЯДРО потенциалов (potential kernel) - см. Потенциала теория для цепей Маркова. (X-ЯДРО потенциалов (potential a-kernel) - см. Потен циала теория для марковского процесса. ЯНГА-МИЛЛСА ПОЛЕ (Yang - Mills field) - см. Калибровочная модель статистич. механики.
ХРЕСТОМАТИЯ ПО ТЕОРИИ ВЕРОЯТНОСТЕЙ И МАТЕМАТИЧЕСКОЙ СТАТИСТИКЕ Хрестоматию открывает «Опыт философии теории вероятностей» - перевод знаменитого сочинения французского ученого П. Лапласа. Далее помещены введение, заключение и исторический очерк из «Оснований математической теории вероятностей» В. Я. Буняковского (СПб., 1846) - первого русского учебника по теории вероятностей. О значении теории вероятностей в системе человеческого знания говорится в вводных частях двух докладов С. Н. Бернштейна (М., 1927; Цюрих, 1932). Наконец, глава «Теория вероятностей» из 2-го тома книги «Математика, ее содержание, методы и значение» (М., 1956), написанная А. Н. Колмогоровым, содержит элементарное изложение основных понятий теории вероятностей. Заключительная часть Хрестоматии состоит из статей по теории вероятностей и математической статистике, помещенных в 1-м и 2-м изданиях «Большой Советской энциклопедии» (М., 1937-58). Титульный лист первого фрагмента Хрестоматии выглядит так: ЛАПЛАС ОПЫТ ФИЛОСОФИИ ТЕОРИИ ВЕРОЯТНОСТЕЙ. (Essai philosophique sur les probability) ПОПУЛЯРНОЕ ИЗЛОЖЕНИЕ ОСНОВ ТЕОРИИ ВЕРОЯТНОСТЕЙ И ЕЯ ПРИЛОЖЕНИЙ. Перевод А. I* В. ПОД РЕДАКЦИИ» А. К. Власова ПР.-ДОЦЕНТА МОСКОВСКОГО УНИВЕРСИТЕТА Москва — 1908. При жизни П. Лапласа (P. Laplace, 1749-1827) «Опыт философии теории вероятностей» издавался пять раз (февраль и ноябрь 1814, 1816, 1819, 1825). При этом второе и четвертое издания служили введением ко второму и третьему изданию его «Аналитической теории вероятностей» (Theorie analytique des probabilites, Paris, 1812, - первое издание). «Опыт» со- 834 держит, как считается, развитие идей лекции, прочитанной автором в Нормальной школе еще в 1725. «Опыт философии теории вероятностей», как и его переводы, неоднократно переиздавался в 19 в. (начиная с 1840) и в 20 в. Одно из последних изданий - английский перевод с 5-го французского издания 1825 (Laplace R. S., Philosophical essay on probabilities, N. Y. - В., 1994) содержит обширный комментарий, подготовленный с учетом пояснений, сопровождавших предшествующие издания. «Опыт философии теории вероятностей» был опубликован в переводе на русский язык в 1908. Ниже воспроизводится этот перевод. Предисловие к переводу. Теория вероятностей является одной из интереснейших ветвей математического анализа, уже давно привлекшей к себе внимание и вне круга специалистов. Развитие математической статистики, биометрии, различного рода страхований, которые, распространяясь на широкие народные массы, сделались неизбежным фактором социальной и экономической политики, свидетельствует о том значении, какое может иметь теория вероятностей, которая лежит в основе этих наук и приложений. За последнее время она вводится как обязательный предмет изучения не только на математическом отделении физико-математических факультетов, где она преподавалась и раньше, но и на экономическом отделении юридических факультетов и других высших школ, где таковые отделения устраиваются. Естественно возникает таким образом потребность в такого рода сочинениях по теории вероятностей, которые были бы рассчитаны на более широкий круг читателей и при всестороннем освещении предмета могли бы служить введением к основательному изучению этой теории. «Опыт философии теории вероятностей» («Essai philosophique sur les probabilites») Лапласа, перевод которого предлагается вниманию читателя, в этом отношении является наиболее подходящим. В блестящем труде французского геометра без особенных вычислений дается свод почти всех главных вопросов этой теории, затрагиваются самые глубокие и тонкие вопросы науки и жизни, к которым имеет приложение теория случайных явлений. Никому теория вероятностей не обязана столько, как Лапласу. Его «Theorie analytique des probabilites» составляет своего рода principia по этому предмету. В качестве введения к этому главному сочинению был приложен «Опыт философии теории вероятностей», который под этим последним заглавием раньше был выпущен отдельной монографией. Столетний возраст этого классического сочинения не умалил его значения. По выражению Джевонса «"Essai philosophique sur les probabilites" есть трактат, один из самых глубоких и интересных, какие когда-либо были напечатаны. Он должен быть хорошо знаком всякому, изучающему логический метод, потому что с течением времени он мало или почти ничего не потерял». Так писал Джевонс в своих «Основах науки, трактате о логике и научном методе». Можно было бы прибавить, что знакомство с этой книгой Лапласа доставит несомненное удовлетворение лицам, ищущим в общеобразовательных целях расширения своих сведений, возбудит интерес и энергию к основательному изучению математической теории вероятностей в лицах, посвятивших себя научной работе или применениям научных выводов к статистике, биометрии и практическим задачам страхования. Перевод сделан с введения, которое приложено к третьему изданию «Аналитической теории вероятностей» («Theorie analytique des probabilites»), вошедшему в полное собрание сочинений Лапласа. Хорошо известный в оригинале специалистам, знаменитый «Опыт» великого геометра уже давно имеет переводы на другие языки, и я думаю, что ввиду оживившегося у нас интереса к теории вероятностей за последнее время и русский перевод не будет лишним. А. Власов. ОПЫТ ФИЛОСОФИИ ТЕОРИИ ВЕРОЯТНОСТЕЙ. Введение* это есть развитие курса лекций по теории вероятногтей, читанного мною в 1795 г. в «ecoles normales», куда я был приглашен • Опыт философии теории вероятностей помещен в качестве введения к Theorie analytique des probabilites.
как профессор математики, вместе с Лагранжем, декретом национального конвента. Я хочу изложить здесь без помощи анализа принципы и общие результаты теории вероятностей, изложенной в этой книге*, применяя их к важнейшим вопросам жизни, большинство которых не что иное, как задачи теории вероятностей. Можно даже сказать, если уж говорить точно, что почти все наши знания только вероятны; и в небольшом кругу предметов, где мы можем познавать с достоверностью, в самой математике, главные средства достигнуть истины - индукция и аналогия - основываются на вероятностях; таким образом вся система человеческих знаний связана с теорией, изложенной в этом труде. В ней увидят без сомнения с интересом, что, если даже рассматривать вечные принципы разума, справедливости и гуманности лишь как счастливые статочности постоянно их сопровождающие, следовать этим принципам является большою выгодой, а устраняться от них - тяжелым ущербом; так как статочности их, подобно благоприятствующим статочностям в лотереях, преимуществуют среди колебаний случая. Я желал бы, чтобы мысли, рассеянные в этом введении, заслужили внимание философов, и направили бы его на столь достойный их изучения предмет. О вероятности. Все явления, даже те, которые по своей незначительности как будто не зависят от великих законов природы, суть следствия столь же неизбежные этих законов, как обращение солнца. Не зная уз, соединяющих их с системой мира в ее целом, их приписывают конечным причинам или случаю, в зависимости от того, происходили ли и следовали ли они одно за другим с известной правильностью, или же без видимого порядка; но эти мнимые причины отбрасывались по мере того как расширялись границы нашего знания и совершенно исчезли перед здравой философией, которая видит в них лишь проявление неведения, истинная причина которого - мы сами. Всякое имеющее место явление связано с предшествующим на основании того очевидного принципа, что какое-либо явление не может возникнуть без производящей его причины. Эта аксиома, известная под именем «принципа достаточного основания», распространяется даже на действия, считаемые безразличными. Воля, самая свободная, не может породить эти действия без побуждающей причины; потому что, если бы она действовала в одном случае и воздерживалась от действия в другом, при полном подобии всех обстоятельств обоих положений, то выбор ее был бы действием без причины: она была бы, как сказал Лейбниц, слепым случаем эпикурейцев. Противоположное мнение есть иллюзия ума, который, теряя из виду мелкие причины того или другого выбора воли в безразличных поступках, убеждается, что она определяется самою собою и беспричинна. Таким образом мы должны рассматривать настоящее состояние вселенной как следствие ее предыдущего состояния и как причину последующего. Ум, которому были бы известны для какого-либо данного момента все силы, одушевляющие природу, и относительное положение всех ее составных частей, если бы вдобавок он оказался достаточно обширным, чтобы подчинить эти данные анализу, обнял бы в одной формуле движения величайших тел вселенной наравне с движениями легчайших атомов: не осталось бы ничего, что было бы для него недостоверно, и будущее, так же как и прошедшее, предстало бы перед его взором. Ум человеческий в совершенстве, которое он сумел придать астрономии, дает нам представление о слабом наброске того разума. Его открытия в механике и геометрии в соединении с открытием всемирного тяготения сделали его способным понимать под одними и теми же аналитическими выражениями прошедшие и будущие состояния мировой системы. Применяя тот же метод к некоторым другим объектам знания, нашему разуму удалось подвести наблюдаемые явления под общие законы и предвидеть явления, которые будут вызваны данными условиями. Все усилия духа в поисках истины постоянно стремятся приблизить его к разуму, о котором мы только что упоминали, но от которого он останется всегда бесконечно далеким. Это стремление, свойственное роду человеческому, возвышает его над животными; и успехи его в этом направлении различают нации и века и составляют их истинную славу. Припомним, что в былое время, в эпоху не очень от нас отдаленную, на дождь или на чрезвычайную засуху, на комету с сильно растянутым хвостом, на солнечное затмение, на северное сияние и вообще на необычайные явления смотрели как на знак небесного гнева. Взывали к небу, чтобы отвратить их пагубное влияние. Небо не молили остановить движение планет или солнца: наблюдение скоро дало бы почувствовать всю бесполезность таких молений. Но, так как те явления, наступающие и исчезающие через длинные промежутки времени, казалось противоречили порядку, установившемуся в природе, то люди предположили, что небо порождало и изменяло их по своему усмотрению в наказание земных грехов. Так длинный хвост кометы 1456-fo года произвел панику в Европе, уже приведенной в ужас быстрыми победами турок, от которых только что пала Византийская империя. После того, как это небесное светило совершило четыре своих обращения, оно возбудило среди нас очень различный интерес. Знакомство с законами системы мира, приобретенное за этот промежуток времени, рассеяло страх, порожденный незнанием истинных отношений человека ко вселенной; и Галлей (Halley), признав тождество этой кометы с кометою 1531-го, 1607-го и 1682-го годов, предсказал следующее ее возвращение в конце 1758-го или в начале 1759-го года. Ученый мир ждал с нетерпением этого возвращения, долженствовавшего подтвердить одно из самых великих открытий, сделанных в науке, и исполнить предсказание Сенеки, сказавшего об обращении небесных светил, которые спускаются из громадных расстояний: «Наступит день, когда, благодаря длившемуся несколько столетий изучению, вещи, ныне скрытые, явятся со всею своею очевидностью; и потомки наши изумятся, что столь очевидные истины ускользнули от нас». Тогда Клэро (Clairaut) взялся подвергнуть анализу те возмущения, которые комета испытала под влиянием двух самых больших планет - Юпитера и Сатурна: после громадных вычислений он назначил ее ближайшее прохождение через перигелий на начало апреля 1759-го года, и наблюдение не замедлило подтвердить это. Правильность, которую обнаруживает нам астрономия, без всякого сомнения имеет место во всех явлениях. Кривая, описанная простой молекулой воздуха или пара, определена так же точно, как и орбиты планет: разницу между ними делает только наше незнание. Вероятность обусловливается отчасти этим незнанием, а отчасти нашим знанием. Пусть нам известно, что из трех или более событий должно произойти одно; но ничто не дает нам повода думать, что одно из них имеет преимущество перед другими. При такой неуверенности мы не можем предсказать достоверно, какое событие произойдет. Однако вероятно, что одно из этих событий, взятое произвольно, не случится, потому что мы видим несколько одинаково возможных случаев, исключающих его существование, в то время как благоприятствует ему только один случай. Теория случайностей состоит в том, чтобы свести все однородные явления к известному числу равно возможных случаев, то есть таких, существование которых для нас было бы одинаково неопределенно, и определить число случаев, благоприятствующих явлению, вероятность которого отыскивается. Отношение этого числа к числу всех возможных случаев и есть мера этой вероятности, которая таким образом не что иное, как дробь, числитель которой есть число всех благоприятных случаев, а знаменатель - число всех возможных случаев. Предыдущее понятие вероятности предполагает, что, при увеличении в одинаковом отношении числа благоприятствующих и числа всех возможных случаев, вероятность остается та же. Чтобы убедиться в этом, рассмотрим две урны А и В, из которых первая содержит четыре белых и два черных шара, а вторая только два белых и один черный. Представим себе оба черных шара первой урны связанными ниткой, которая рвется в тот момент, как мы берем один из шаров, чтобы его вынуть, представим себе также четыре белых шара образующими две такие же системы. Все те статочности, которые благоприятствуют изъятию одного из шаров черной системы, дадут черный шар. Если же предположить, что нитки, соединяющие шары, не рвутся, то ясно, что число возможных статочностей не изменится, так же, как и число статочностей, благоприятствующих изъятию черных шаров; только выниматься из урны будут два шара зараз. Вероятность изъятия из урны черного шара будет та же, что и раньше. Но тогда мы очевидно имеем случай урны В, с той только разницей, что три шара этой последней урны заменены тремя парами неизменно связанных шаров. Когда все статочности благоприятствуют какому-либо явлению, то вероятность заменяется достоверностью, а выражение ее делается равным единице. В этом отношении достоверность и вероятность сравнимы, хотя и есть существенное различие между двумя состояниями ума: когда истина ему строго доказана, или же когда он усматривает еще маленький источник заблуждения. В явлениях, которые лишь правдоподобны, разница данных, имеющихся у каждого отдельного человека, составляет одну из главных причин различия мнений, существующих об одних и тех же предметах. Положим, напр., что мы имеем 3 урны А, В, С, из которых одна содержит только черные шары, а две остальные - только белые. Шар должен быть вынут из урны С; спрашивается, какова вероятность того, что это будет черный шар. Если нам неизвестно, которая из трех урн содержит одни черные шары, так что нет никакого повода предполагать, что черные шары заключаются скорее в урне С, чем в В или А, то все эти три предположения покажутся равно возможными, и, так как черный шар может быть вынут только при первом предположении, то вероятность его изъятия равна одной трети. Если известно, что урна А содержит одни белые шары, то колебание наше относится только к урнам В и С, и вероятность того, что вынутый из урны С шар окажется черным, равна половине. Эта вероятность обращается, наконец, в достоверность, если мы убеждены, что в урнах А и В заключаются одни белые шары. Таким-то образом факт, рассказанный перед многочисленным собранием, получает различную степень вероятия, смотря по обширности знаний слушателей. Если лицо, докладывающее о нем, совершенно в нем убеждено, и по своему положению и характеру внушает большое * Theorie analytique des probabilites. 835
доверие, то рассказ его, как бы он ни был необычаен, будет иметь для непросвещенных слушателей ту же степень правдоподобия, как и обычный факт, рассказанный тем же лицом; ему поверят безусловно. Однако, если кто-либо из слушателей знает, что тот же факт отрицается людьми не менее почтенными, то он будет сомневаться; а просвещенными слушателями этот факт будет сочтен за ложный, так как они найдут, что он противоречит либо хорошо проверенным фактам, либо неизменным законам природы. Влиянию мнения тех, кого толпа считает самыми сведущими и кому она привыкла доверять в важнейших вопросах жизни, обязаны мы распространением заблуждений, которые в невежественные времена рассеялись по лицу земли. Двумя крупными примерами этого являются магия и астрология. Подобные заблуждения, внушенные с детства, принятые без испытания и в основании которых лежит только всеобщее верование поддерживались в продолжение очень долгого времени, пока наконец прогресс науки не разрушил их в умах людей просвещенных, мнение которых заставило исчезнуть эти заблужения и среди народа силою подражания и привычки, распространивших их раньше так широко. Эта сила - самая могущественная побудительная причина мира нравственного утверждает и сохраняет в целой нации идеи, совершенно противоположные тем, которые та же сила поддерживает в другом месте с тою же властью. Насколько же должны мы быть снисходительны к чужим взглядам, различие которых от наших зависит часто только от разных точек зрения, созданных обстоятельствами. Будем просвещать тех, кого мы не считаем достаточно образованными; но подвергнем раньше строгому пересмотру наши собственные взгляды и беспристрастно взвесим их относительное вероятие. Разница взглядов зависит еще от способа определения влияния известных нам данных. Теория вероятностей имеет дело с такими деликатными соображениями, что не удивительно, особенно в очень сложных вопросах, если два лица, имея одни и те же данные, приходят к разным результатам. Изложим теперь главные принципы этой теории. Общие принципы исчисления вероятностей. 1-ый принцип. Первый из этих принципов есть самое определение вероятности, которое, как мы видели, есть отношение числа случаев благоприятствующих к числу всех возможных случаев. il-ой принцип. Но при этом различные случаи предполагаются равно возможными. Если же это не так, то сперва определяют их соответственные возможности, точная оценка которых является одним из самых деликатных пунктов теории случайностей. Тогда вероятность будет суммой возможностей каждого благоприятного случая. Поясним этот принцип примером. Положим, что бросают в воздух большую и очень тонкую монету, две большие противоположные стороны которой, назовем их крест и решетка, совершенно подобны. Найдем вероятность но крайней мере однократного появления креста при двух бросаниях. Ясно, что могут иметь место четыре одинаково возможных случая, а именно: крест при первом и при втором бросаниях; крест при первом бросании и решетка при втором; решетка при первом бросании и крест при втором; наконец, решетка при двух бросаниях. Первые три случая благоприятствуют событию, вероятность которого отыскивается; она, следовательно, равна ^Д; гак что три шанса против одного за то, что крест выпадет но крайней мере один раз при двух бросаниях. Можно считать в этой игре только три разных случая, а именно: крест при первом бросании, что избавляет от второго бросания; решетка при нервом бросании и крест при втором; наконец, решетка при первом и втором бросаниях. Это свело бы вероятность к 2/з» если бы мы считали, как Даламбер, эти три случая одинаково возможными. Но, очевидно, что вероятность появления креста при первом бросании равна !/2. тогда как вероятность других случаев равна У4; ибо первый случай есть событие простое, которое соответствует двум сложным событиям, кресту при первом и втором бросаниях, и кресту при первом бросании, решетке при втором. Если теперь, согласно второму принципу, прибавить возможность У2 креста при нервом бросании к возможности 'Д решетки, выпавшей при первом бросании, и креста при втором, то получится У4 для искомой вероятности, что согласуется с тем, что находим, предполагая выполнить оба бросания. Это предположение совсем ие меняет участи того, кто держит пари за это событие: оно служит только для сведения различных случаев к случаям равно возможным. Ш-ий принцип. Один из самых важных пунктов теории вероятностей и наиболее дающий место иллюзиям - это способ, каким вероятности увеличиваются и уменьшаются взаимными сочетаниями. Если события независимы одно от другого, вероятность существования их совместности есть произведение их частных вероятностей. Так, в то время как вероятность выпадения одного очка на одной кости составляет одну шестую, вероятность выпадения двух очков при бросании двух костей сразу равняется одной тридцать шестой. Действительно, так как каждая сторона одной кости может комбинироваться с шестью 836 сторонами другой, то существует тридцать шесть случаев, одинаково возможных, из которых один только дает два очка. Вообще, вероятность, что какое-нибудь простое событие при одинаковых обстоятельствах повторится подряд данное число раз, равна вероятности этого простого события, возведенной в степень, указанную этим числом. Таким образом, так как последовательные степени дроби, меньшей единицы, постоянно уменьшаются, событие, которое зависит от ряда очень больших вероятностей, может сделаться чрезвычайно маловероятным. Предположим, что какой-нибудь факт передан нам двадцатью свидетелями таким образом, что первый передал его второму, второй третьему и т.д.; предположим далее, что вероятность каждого свидетельства равна 9/i0: вероятность факта, вытекающая из свидетельств, была бы менее одной восьмой. Нельзя лучше сравнить это уменьшение вероятности как с уменьшением ясности предметов, когда на пути зрения ставят несколько стеклянных пластинок, причем даже незначительного количества пластинок достаточно, чтобы скрыть вид предмета, который сквозь одно стекло виден совершенно ясно. Историки, кажется, не обращали достаточно внимания на это постепенное уменьшение вероятности фактов, если смотреть на них через большое число последовательных поколений: многие исторические события, считающиеся достоверными, оказались бы но меньшей мере сомнительными, если бы их подвергли этому испытанию. В науках чисто математических самые отдаленные следствия участвуют в достоверности принципа, от которого они происходят. В применениях анализа к физике следствия обладают всей достоверно!тью фактов или опытов. Но в нравственных науках, где каждое следствие выводится из предыдущего лишь на основании правдоподобия, как бы вероятны ни были эти выводы, шансы ошибок возрастают вместе с их числом, и наконец, в очень отдаленных следствиях какого-либо принципа, превышают шансы истинности. IV-ый принцип. Если два события находятся в зависимости друг от друга, вероятность сложного события есть произведение вероятности первого события на вероятность того, что, когда оно совершилось, совершится и второе. Так в предыдущем случае с тремя урнами А, В и С, из которых две содержат только белые шары и одна только черные, вероятность изъятия белого шара из урны С есть 2Д, так как из трех урн две содержат шары только этого цвета. Но ввиду того, что по изъятии белого шара из урны С неизвестность, относящаяся к той из урн, которая содержит одни черные шары, касается уже только урн А и В, вероятность изъятия белого шара из урны В есть У2; произведение 2/з на 1/2, или Уз» есть» следовательно, вероятность изъятия из урн В и С сразу двух белых шаров. В самом деле, для этого необходимо, чтобы урна А была той из трех урн, которая содержит черные шары, а вероятность этого случая очевидно есть У3. Из этого примера обнаруживается влияние прошедших событий на вероятность событий будущих; ибо вероятность изъятия белого пара из урны В, которая первоначально равна 2/з* сводится к [/2 после того, как вынули белый шар из урны С: она обратится н достоверность, осли бы из той же урны был вынут черный шар. Это влияние будет определено с помощью следующего принципа, который является следствием предыдущего. V - ы й принцип. Если вычислить a priori вероятность совершившегося события и вероятность события, состоящего из этого первого и из другого, которое ожидается, то вторая вероятность, деленная на первую, будет вероятностью ожидаемого события, выведенной И2 наблюденного события. Здесь является вопрос, возбужденный несколькими философами, относительно влияния прошлого на вероятность будущего. Предположим, что в игре в крест и решетку крест появлялся чаще решетки- из-за одного этого мы будем склонны думать, что в строении монеты существует постоянная причина, которая этому благоприятствует. Гак, в жизии постоянное счастье является доказательством ловкости, которая и побуждает предпочитать счастливых людей. Но, если из-за непостоянства обстоятельств мы беспрестанно возвращаемся к состоянию абсолютной неопределенности; если, напр., монета меняется при каждом бросании в игре в крест и решетку, то прошедшее не может пролить ни малейшего света на будущее, и было бы нелепостью принимать его в расчет. VI-ой принцип. Каждая из причин, которой может быть приписано наблюденное событие, тем более правдоподобна, чем более вероятно, что при существовании этой причины событие будет иметь место; вероятность существования какой-либо из этих причин равна, следовательно, дроби, числитель которой есть вероятность события, вытекающая из этой причины, а знаменатель есть сумма подобных вероятностей, относящихся ко всем причинам: если эти различные причины, рассматриваемые a priori не одинаково вероятны, то вместо вероятности события, вытекающей из каждой причины, следует взять произведение этой вероятности на вероятность самой причины. Это оснонной принцип той отрасли анализа случайностей, которая занимается перс- ходом от событий к причинам. Этот принцип уясняет, почему правильные события прииисыиают особенной причине. Некоторые философы полагали, что эти события менее возможны, чем остальные, и что в игре в крест и решетку, напр., сочетание, при котором крест выпадает двадцать раз подряд, менее естественно, чем такие сочетания, в которых крест и решетка
перемешаны неправильно. Но этот взгляд предполагает, что прошедшие события оказывают влияние на возможность событий будущих, что совершенно недопустимо. Правильные сочетания только потому реже встречаются, что они менее многочисленны. Если мы будем добиваться причины там, где заметили симметрию, то это не значит, что мы рассматриваем симметричное событие как менее возможное, чем другие; но так как )ТО событие должно быть следствием регулярной причины или случайности, то первое из этих предположений более вероятно, нежели второе. Мы видим на столе печатные буквы, расположенные в таком порядке: Константинополь, и мы считаем, что это расположение не есть следствие случая не потому, что оно менее возможно, нежели другие, так как, если бы это слово не употреблялось ни на одном языке, то мы не подозревали бы никакой особенной причины этого расположения; но ввиду того, что это слово у нас употребляется, несравненно вероятнее, что кто-нибудь расположил так предыдущие буквы, нежели то, чго этим расположением мы обязаны случаю. Здесь уместно будет определить слово необычайно. Мы разбиваем мысленно все возможные события на различные классы, и мы считаем необычайными те классы, которые вмещают очень малое количество этих событий. Так, в игре в крест и решетку появление креста сто раз подряд кажется нам необычайным, потому что при подразделении почти бесконечного числа сочетаний, могущих произойти при ста бросаниях, па ряды правильные, или те, в которых на наш взгляд царствует легко уловимый порядок, и на ряды неправильные, эти поелгдние несравненно многочисленнее. Изъятие белого шара из урны, которая на миллион шаров содержит только один шар этого цвета, а остальные черного, также кажется нам необычайным, потому что мы образуем только два класса событий соответственно двум цветам. Однако выход, напр., № 475813 из урны, содержащей миллион номеров, кажется нам событием обычным, потому что, индивидуально сравнивая между собою номера без подразделения их на классы, мы не имеем никакого основания думать, что один иэ них выйдет скорее, нежети остальные, И., предыдущего мы вообще должны заключить, что, чем более какой-либо факт необычаен, тем более он нуждается в том, чтобы опорой ему служили сильные доказательства; ибо те, кто о нем свидетельствуют, могут ошибаться или быть обманутыми, и эти две причины тем более вероятны, чем менее вероятна сама по себе реаль- hoctl факта. В этом мы убедимся особенно, когда будем говорить о вероятности свидетельских показаний. V [1-ой принцип. Вероятность будущего события есть сумма произведений вероятности каждой причины, выведенной из наблюденного собьпия, на вероятность того, что при существовании этой причины б/дущее событие будет иметь место. Следующий пример пояснит этот принцип. Представим себе урну, содержащую только два шара, каждый из которых пусть будет белым или черным. Вынимают один из этих шаров, который кладут затем обратно в урну, чтобы приступить к новому тиражу. Предположим, что прн первых двух тиражах появились белые шары; справшиваетея, какова вероятность нового появления белого шара при третьем тираже. Здесь можно допустить только две следующих гипотезы: или один из шарон белый, а другой черный, или оба белые. При первой гипотезе вероятность наблюденного события равна 'Д; она равна единице или достоверности при второй. Так что, рассматривая эти гипотезы как столько же причин, будем иметь, согласно шестому принципу, *Д н 4/з Для соответствующих им вероятностей. Но если имеет место первая гипотеза, то вероятность изъятия белого шара при третьем тираже равна */у, она равна единице при второй гипотезе. После умножения этих последних вероятностей на вероятности соответствующих пшотез сумма произведений, или 9/ю> будет вероятностью изъятия белою шара при третьем тираже. Когда вероятность простого события неизвестна, то можно предполагать се равной всем числовым значениям от нуля до единицы. Вероятность каждой из этих гипотез, выведенная из наблюденного события, равна, согласно шестому принципу, дроби, числитель которой есть вероятность события при этой гипотезе, а знаменатель - сумма подобных вероятностей относительно всех гипотез. Так, вероятность того, что возможность события заключена в данных пределах, равна сумме дробей, заключенных в этих пределах. Если теперь умножим каждую дробь на вероятность будущего события, определенную прн соответствующей гипотезе, то сумма произведений, относящихся ко всем гипотезам, будет, согласно седьмому принципу, вероятностью будущего события, выведенное из наблюденного события. Таким образом находим, что после того как событие произошло подряд некоторое число раз, вероятность того, что оно произойдет еще следующий раз, равна этому числу, увеличенному на единицу, деленному на то же число, увеличенное на две единицы. Напр., если отнести древнейшую историческую эпоху за пять тысяч лет, или за 1 826 213 дней, назад п принять по внимание, что солнце постоянно восходило за этот промежуток времени при каждой смене суток, то будет 1 826 214 шансов против одного за то, что оно взойдет и завтра. Но число это несравненно значительнее для того, кто, зная из совокупности явлений принцип, регулирующий дни и времена года, видит, что ничто в настоящий момент не может остановить их течения. Бюффон в своей политической арифметике исчисляет по другому предыдущему вероятность. Он полагает, что она разнится от единицы только на дробь, числитель которой есть единица, а знаменатель число два, возведенное в степень равную числу дней, протекших с той эпохи. Но верный способ перехода от прошедших событий к вероятности причин и будущих событий был неизвестен этому знаменитому писателю. Об ожидании. Вероятность событий служит для определения надежды или боязни лиц, заинтересованных в существовании этих событий. Слово надежда имеет разные значения: оно обыкновенно выражает выгоду того, кто ожидает какого-либо блага, делая предположения, которые не более как вероятны. Эта выгода в теории случайностей равна произведению ожидаемой суммы на вероятность ее получения, что составляет часть суммы, подлежащую уплате заинтересованному лицу, если оно не желает подвергаться риску, сопряженному с событием, в предположении, что сумма распределяется пропорционально вероятностям. Это распределение является единственным справедливым, когда мы отбрасываем все побочные обстоятельства, так как равная степень вероятности дает равные права на ожидаемую сумму. Мы назовем эту выгоду математическим ожиданием. VIII-ой принцип. Если выгода зависит от многих событий, то, беря сумму произведений вероятности каждого события на благо, связанное с его наступлением, мы получим эту выгоду. Применим этот принцип к примерам. Предположим, что в игре в крест и решетку Павел получает два франка, если у него выпадет крест при первом бросании, и пять франков, если он выпадет лишь при втором бросании. Умножив два франка на вероятность '/г первого случая, а пять франков на вероятность 'Д второго случая, получим сумму произведений, или два с четвертью франка, которая будет выгодою Павла. Это та сумма, которую он должен дать вперед тому, кто ему доставил эту выгоду; ибо для равноправности игры ставка должна быть равна выгоде, которую она приносит. Если Павел получает два франка при выпаде креста в первом бросании и пять франков при выпаде его во втором бросании даже в том случае, если крест выпал и в первом бросании, при вероятности выпадения креста во втором бросании равной '/2, после умножения двух франков и пяти франков на 1/2, сумма этих произведений даст три с половиной франка для выгоды Павла и, следовательно, для его ставки в игре. IX-ый принцип. Имея ряд вероятных событий, из которых одни приносят прибыль, а другие убыток, мы узнаем выгоду, которая из них последует, составляя сумму произведений вероятности каждого благоприятного события на приносимую им прибыль и отнимая от этой суммы сумму произведений вероятности каждого неблагоприятного события на связанный с ним убыток. Если вторая сумма превосходит первую, то прибыль обращается в убыток, а надежда в страх. В жизни всегда следует действовать по крайней мере в смысле уравнивания произведения ожидаемой прибыли на ее вероятность с подобным же произведением относительно убытка. Но, чтобы достигнуть этого, необходимо точно оценить прибыль, убыток и их соответственные вероятности. Для этого надо обладать очень верным умом, тонким тактом и большой опытностью в следующих отношениях: надо уметь оградить себя от предрассудков, иллюзий, страха и надежды, и от тех ложных представлений о богатстве и счастье, которыми большинство людей убаюкивают свое самолюбие. Применение предшествующих принципов к нижеследующему вопросу очень занимало геометров. Павел играет в крест и решетку с условием, что он получает два франка, если у него выпадет крест при первом бросании, четыре франка, если он выпадет лишь при втором бросании, восемь франков, если он выпадет лишь при третьем и т.д. Его ставка в игре должна быть, согласно восьмому принципу, равна числу бросаний; так что, если партия продолжается до бесконечности, то его ставка должна быть бесконечною. Между тем ни один разумный человек не пожелал бы поставить в этой игре даже умеренную сумму, пятьдесят франков, напр. Откуда происходит эта разница между результатом исчисления и указаниями здравого смысла? Скоро узнали, что оиа зависит от того, что нравственная выгода, доставляемая нам каким-либо благом, не пропорциональна этому благу, и что она зависит от тысячи обстоятельств, часто с трудом поддающихся определению, самым общим н важным из которых является однако состояние. В самом деле, очевидно, что один франк имеет гораздо большую ценность для того, кто их имеет только сотню, чем для миллионера. Следует поэтому отличать в ожидаемом благе его абсолютную ценность от ценности относительной: эта последняя зависит от мотивов, заставляющих желать его, в то время как первая от этого независима. Нельзя дать общего принципа для оценки этой относительной ценности. Вот однако принцип, предложенный Даниилом Бернулли, и могущий быть полезным во многих случаях. 837
X - ы й принцип. Относительная ценность бесконечно малой суммы равна ее ценности абсолютной, деленной на все имущество заинтересованного лица. Здесь предполагается, что всякий человек имеет какое-либо имущество, ценность которого пи в каком случае не может предполагаться равною нулю. В самом деле, даже тот, кто ничем не обладает, все же придает произведению своих трудов и своих надежд ценность, по крайней мере равную тому, что как раз необходимо, чтобы жить. Если проанализировать только что нами изложенный принцип, то получим следующее правило. Если, обозначая единицей часть состояния какого-либо лица, не зависящую от его ожиданий, определить различные значения, которые может принимать это состояние ввиду этих ожиданий и их вероятностей, то произведение этих значений, возведенных соответственно в степени, указанные этими вероятностями, будет физическим богатством, которое доставит данному лицу ту же самую нравственную выгоду, какую оно получает от части своего состояния, взятой за единицу, и от своих ожиданий; если отнять от этого произведения единицу, то разница будет приращением физического богатства, которым мы обязаны ожиданиям: мы назовем это приращение нравственным ожиданием. Легко убедиться, что оно совпадает с математическим ожиданием в том случае, если состояние, принятое за единицу, делается бесконечным в сравнении с изменениями, которые оно претерпевает от ожиданий. Но когда эти изменения составляют значительную часть этой единицы, оба ожидания могут очень значительно отличаться друг от друга. Это правило приводит к результатам, согласным с указаниями здравого смысла, которые благодаря этому могут быть оценены с некоторой точностью. Так, в предыдущем вопросе находим, что, если состояние Павла равно двумстам франкам, неразумно будет ставить в игре более девяти франков. То же самое правило рекомендует скорее распределить опасность на несколько частей ожидаемого состояния, чем подвергнуть той же опасности это состояние целиком. Из него вытекает подобным же образом, что в игре, даже самой справедливой, проигрыш всегда относительно больше выигрыша. Напр., при предположении, что игрок, обладая состоянием в сто франков, ставит из них пятьдесят в игре в крест и решетку, состояние его после ставки сводится к восьмидесяти семи франкам, т. е. эта последняя сумма доставила бы игроку ту же самую нравственную выгоду, как положение его имущества после ставки. Игра, следовательно, невыгодна даже в том случае, когда ставка равна произведению ожидаемой еуммы на ее вероятность. По этому можно судить о безнравственности игр, в которых ожидаемая сумма ниже этого произведения. Они существуют лишь благодаря ложным расеуждениям и благодаря алчности, которую они возбуждают и которая, склоняя народ жертвовать даже необходимым ради химерических надежд, неправдоподобие которых он оцепить не в состоянии, являются источником бесконечных зол. Невыгода игр, выгода не подвергать одной и той же опасности все ожидаемое благо и все подобные результаты, указываемые здравым смыслом, существуют, какова бы ни была функция физического богатства, которая для каждого индивидуума выражает его богатство нравственное. Достаточно, чтобы отношение приращения этой функции к приращению физического богатства уменьшалось по мере увеличения этого последнего. Об аналитических методах вероятностей. Применение только что нами изложенпых принципов к различным вопросам вероятности требует методов, изыскание которых дало начало многим отраслям анализа, в частности теории сочетаний и исчислепию конечных разностей. Если составить произведение биномов единица плюс первая буква, единица плюс вторая буква, единица плюс третья буква и т, д, до п букв, то, отняв единицу от этого раскрытого произведения, получим сумму сочетаний всех этих букв, взятых по одной, по две, по три и т. д., причем всякое сочетание будет иметь коэффициентом единицу. Чтобы получить число сочетаний этих п букв, взятых по s, следует заметить, что при равенстве этих букв между собой предшествующее произведение обратится в и-ю степень бинома единица плюс первая буква; таким образом число сочетапий п букв, взятых по s, будет коэффициентом степени s первой буквы в разложении этого бинома; это число получится, следовательно, из известпой формулы бинома. Будем обращать внимание на порядок букв в каждом соединении, замечая, что, если присоединить вторую букву к первой, можно поместить ее на нервом или втором месте, что дает два соедипения. Если присоединить к этим соединениям третью букву, то можно поместить ее в каждом соединении на первом, втором или третьем месте, что дает три соединения на каждое из двух предыдущих; всего шесть соединений. Отсюда легко заключить, что число размещений, которое возможно для s букв, есть произведение чисел от единицы до s. Поэтому, принимая во внимание и порядок букв, следует умножить на это 838 произведение число сочетаний п букв, взятых по s\ а это сводится к тому, чтобы отбросить знаменатель коэффициента члена бинома, выражающего это число. Представим себе лотерею, состоящую из п номеров, из которых г выходят при каждом тираже: нужно узнать вероятность выхеда s данных номеров при одном тираже. Чтобы достигнуть этого, определяют число сочетаний п номеров, взятых по s. Затем определяют число сочетаний г номеров, взятых подобным же образом но я. Отношение этого последнего числа к предшествующему очевидно и есть вероятность того, что 5 данных номеров будут заключаться в г номерах, долженствующих выйти; следовательно, это отношение будет искомой вероятностью. Так, во Французской лотерее, состоящей, как изистно. из 90 номеров, из которых при каждом тираже выходят пять, вероятность выхода данного выигрышного билета равна У?ю или '/1H; значит лотерея в этом случае должна была бы для равноправности игры вернуть увеличенную в восемнадцать раз ставку. Число всех сочетаний по два, которые возможны из 90 номеров, равно 4005, и десять и:: них выходят при каждом тираже. Вероятность выхода данного амба равна поэтому У 100,51 и лотерея в этом случае должна была бы вернуть ставку, увеличенную в четыреста с половиною раз; она должна бы.и бы увеличить ставку в 11 748 раз для терны, в 511 038 раз для кватерны и в 43949 268 раз для квинм; лотерея далека от того, чтобы прелоегапить игрокам эти преимущества. Предположим, что урна содержит а белых шаров и Ь черных, \ что, по изъятии из нее шара, его кладут обратно в урну: спрашивается, какова вероятность того, что прн л тиражах будут вынуты т белых шаров и п - т черных. Ясно, что число случаев возможных при каждом тираже равно а плюс Ь. Так как каждый случай второго тиража может комбинироваться со всеми случаями первого, то число случаев возможных при двух тиражах равно квадрату бинома а плюс Ь. В разложении этого квадрата квадрат а выражает число случаев, в которых два раза вынут белый шар, удвоенное произведение а на b выражает число случаен, в которых вынуты белый и черный шары; наконец, квадрат b выражает число случаев, в которых пынутп два черных шара. Продолжая таким образом дальше, находят вообще, что /?-я степень бинома а плюс b выражает число всех случаев возможных при п тиражах, и что в разложении этой степени член, умноженный па т-ю степень а выражает число случаев, в которых можно вынуть т белых шаров и п - т черных. Поэтому, деля этот член на всю степень бинома, получим вероятность изъятия т белых шаров и л - т черных. Так как отношение чисел а и а плюс b есть вероятность изъятия б «лого шара при одном тираже, а отношение чисел b и а плюс b есть вероятность изъятия черного шара, если при этом назовем эти вероятности р и q, то вероятностью изъятия т белых шаров при л тиражах будет член, умноженный на т-ю степень р, в разложении я-й степени бинома р плюс q: легко заметить, что сумма р плюс q есть единиц?. Это замечательное свойство бинома оказывается очень полезным в теории вероятностей. Но самый общий и прямой метод решения вопросов о нероят юсти состоит в том, чтобы привести их в зависимость от разностных ур-ний. При сравнении последовательных значений функции, которая выражает вероятность, когда переменные увеличиваются на соответстну ошие им разности, предложенный вопрос часто доставляет очень простое соотношение между этими значениями. Это соотношение есть тс», что называется ур-нием с обыкновенными или частными ра;тосглячи обыкновенными, когда имеется только одна переменная, часными, когда их несколько. Приведем несколько примеров. Три игрока, силы которых предполагаются равными, играют на следующих условиях. Тот из двух первых игроков, который обыгрывает своего противника, играет с третьим, и, если он его обыграет, партия кончена. Если же он побит, то победитель играет с другим игроком и т.д., до тех пор пока один из игроков не обыграет ряду обоих остальных, чем и заканчивается партия: требуется определить вероятность того, что партия кончится через некоторое число ;/ ходов Найдем сперва вероятность того, что она будет окончена именно на л-м ходе. Для этого тот игрок, который выигрывает, должен вступить в игру через п минус единица ходов и выиграть как этот, так и следующий ход. Если же вместо того, чтобы выиграть ход » минус единица, он оказался бы побежденным своим противником, причем .чтог последний только что обыграл и другого игрока, то партия окончилась ">ы на этом ходе. Так что вероятность того, что один из игроков вступит в партию на ходе л минус единица и выиграет его, равна вероятности того, что партия окончится именно на этом ходе; а так как этот игрок должен выиграть и следующий ход, для того чтобы партия окончилась на л-м ходе, вероятность этого последнего случая будет равна т:>лько половине предшествующей. Эта вероятность, очевидно, есть функция числа и; эта фупкция равпа, следовательно, половине той же функции, если уменьшить в ней л на единицу. Это равенство составляет о; но из тех ур-ний, которые называются ур-ниями в обыкновенных конечных разностях. При помощи этого ур-ния можно легко определить вероятное™ того, что партия окончится именно па некотором данном ходе. Очевидно, что партия никоим образом не может кончиться раньше, чем на втором ходе, и для этого необходимо, чтобы тот из первых двух И1 роков, который обыграл своего противника, обыграл на втором ходе третьего
игюка; вероятность того, что партия окончится на этом ходе равна поэтому ]/2. Отсюда на основании предыдущего ур-ния мы заключаем, что последовательные вероятности окончания партии равны: !Д для тр:гьего хода, % для четвертого, и т.д., и вообще ]/2, возведенной в степень п минус единица для и-го хода. Сумма всех этих степеней '/г разна единице минус последняя из этих степеней; это и есть вероятность того, что партия будет окончена самое большее в п ходов. Рассмотрим также первую более или менее трудную задачу на вероятности, которую удалось решить и которую Паскаль предложил ре нить Фермату. Два игрока А и В, ловкость которых одинакова, играют друг с другом с тем условием, что тот, кто первый победит другого данное число раз, выигрывает партию и получает сумму ставок; ио:ле нескольких ходов игроки соглашаются прекратить игру, не окончив партии; спрашивается, каким образом должна быть распределена между ними эта сумма. Ясно, что доли их должны быть пропорциональны соответственным вероятностям выиграть партию; поэтому волрос сводится к тому, чтобы определить эти вероятности. Они эаиисят, очевидно, от числа очков, которых каждому игроку недостает до данного числа. Так, вероятность игрока А есть функция тех двух чисел, которые мы назовем указателями. Если бы оба игрока согласились сделать еще один ход (соглашение, которое совсем не меняет их участи, лишь бы только после этого нового хода дележ произошел по прежнему пропорционально новым вероятностям выигратытартию), то либо А выиграет этот ход и в таком случае число недостающих ему очков уменьшится на единицу, либо игрок В выиграет его и в таком случае число очков, недостающих этому последнему игроку, сделается на единицу меньше. Но вероятность каждого из этих случаев равна У2; искомая функция равна поэтому половине этой функции, в которой первый указатель уменьшен на единицу, плюс половина той же функции, в которой второй указатель уменьшен на единицу. Это равенство есть одно из ур-ний, которые называются ур-ниями в частных разностях. При помощи этого ур-ния можно определить вероятности игрока А, исходя из наименьших чисел и заметив, что вероятность или выражающая ее функция равна единице, когда игрок А достиг данного числа очков, иначе когда первый указатель равен нулю и эта функция обращается в нуль вместе со вторым указателем. Таким образом, предполагая, что игроку А недостает только одного очка, мы найдем, что его вероятность равна У2т "*А> V« и т- Д-- смотря по тому, недостает ли В одного очка, или двух, или трех и т.д. Вообще она равна тогда единице без степени х/2 равной числу очков, недостающих В. Предположим затем, что игроку А недостает двух очков, и найдем его вероятность равной 'Д, х/2, n/lfi и т.д., смотря по тому, недостает ли В одного очка, или двух, или трех и т.д. Предположим дальше, что игроку А недостает трех очков и т.д. Этот способ получения последовательных значений какой-либо величины при помощи се ур-ния в разностях долог и затруднителен. Геометры искали методы получения общей функции указателей, удов- лет воряющей этому ур-нию, для того чтобы в каждом частном случае нужно было бы только подставить в эту функцию соответствующие зш чения указателей. Рассмотрим этот вопрос в общем случае. Для эгою возьмем ряд членов, расположенных по горизонтальной линии, таких, что каждый из них происходит из предшествующих на основании известного закона. Предположим, что закон этот выражен ур-нием, связывающим несколько последовательных членов с их указателем или числом, которое указывает место, занимаемое ими в ряду. Это ур-ние есть то, что я называю ур-нием в конечных разностях с одним указателем. Порядок или степень этого ур-ния есть разность порядков дв\ х крайних его членов. С помощью этого ур-ния можно последовательно определить члены ряда и неопределенно продолжить его; но для этого необходимо знать число членов ряда равное степени ур-ния. Эти члены суть произвольные постоянные выражения общего члена ряда или интеграла ур-ния в разностях. возьмем теперь поверх членов предшествующего ряда второй ряд членов, расположенных горизонтально; возьмем поверх членов второго ря;.а еще третий горизонтальный ряд и т.д. до бесконечности и предположим, что члены всех этих рядов связаны общим ур-нием между несколькими последовательными членами, взятыми как в горизонтальном, так и в вертикальном направлениях, и числами, указывающими их место в обоих направлениях. Это ур-ние есть то, что я называю ур-нием и конечных частных разностях с двумя указателями. Подобным же образом возьмем поверх плоскости предыдущих ря- доь вторую плоскость подобных же рядов, члены которых находились бы соответственно над членами первой плоскости; возьмем затем hoi ерх этой второй плоскости третью плоскость подобных же рядов и так до бесконечности: предположим, что все члены этих рядов связаны ур-нием между несколькими последовательными членами, взятыми в направлении длины, ширины и высоты, и тремя числами, указывающими их место в этих трех направлениях. Это ур-ние будет то. что я называю ур-нием в конечных частных разностях с тремя указателями. Рассматривая, наконец, вопрос в отвлеченной форме и независимо от измерений пространства, возьмем вообще систему величин, являю- щи<ся функциями известного числа указателей, и предположим между этими величинами, разностями их относительно этих указателей и самими указателями столько ур-ний, сколько этих величин; это будут ур-ния в конечных частных разностях с известным числом ука зателей. При помощи этих ур-ний можно последовательно определить эти величины. Но подобно тому как при ур-нии с одним указателем для этого необходимо знать известное число членов ряда, при ур-нии с двумя указателями необходимо знать одну или несколько строк рядов, общие члены которых могли бы быть выражены каждый произвольной функцией одного из этих указателей. Подобным образом при ур-нии с тремя указателями необходимо знать одну или несколько плоскостей рядов, общие члены которых могли бы быть выражены каждый произвольной функцией двух указателей, и т.д. Во всяких этих случаях будет возможно посредством последовательных исключений определить какой-либо член рядов. Но так как все ур-ния, из которых делается исключение, заключаются в одной и той же системе ур-ний, все выражения последовательных членов, полученные с помощью этих исключений, должны заключаться в одном общем выражении, являющемся функцией указателей, которые определяют место члена. Это выражение есть интеграл предложенного ур-ния в разностях, и нахождение его составляет предмет интегрального исчисления. Тэйлор первый исследовал в сочинении под заглавием Methodus incrementorum линейные ур-ния в конечных разностях. Он дает в нем способ интегрирования ур-ний первого порядка с одним коэффициентом и последним членом, являющимися функциями указателя. Прав да, отношения членов арифметических и геометрических прогрессий, которые всегда рассматривались, являются простейшими случаями линейных ур-ний в разностях; ио они еще не рассматривались с такой точки зрения, одной из тех, которые, примыкая к общим теориям, ведут к этим теориям и благодаря этому являются настоящими открытиями. Около того же времени Моавр рассматривал ур-ния в конечных разностях любого порядка с постоянными коэффициентами под названием возвратных рядов (suites recurrentes). Ему удалось их интегрировать очень остроумным способом. Так как всегда интересно проследить путь изобретателей, я изложу путь, которым следовал Моавр, применяя его к возвратному ряду, соотношение между тремя последовательными членами которого дано. Он рассматривает сперва соотношение между последовательными членами геометрической прогрессии или двучленное ур-ние, выражающее его. Относя его к членам предшествующим, он умножает его в этом виде на постоянный множитель и произведение вычитает из первоначального ур-ния. Этим способом он получает ур-ние, связывающее три последовательных члена геометрической прогрессии. Затем Моавр рассматривает вторую прогрессию, отношением членов которой является тот самый множитель, который он только что брал. Он уменьшает подобным же образом на единицу указателя членов ур-иия этой новой прогрессии: в таком виде он умножает ее на отношение членов первой прогрессии и произведение вычитает из ур-ния второй прогрессии, откуда он получает совершенно подобное же соотношение между тремя последовательными членами этой прогрессии, как уже найденное им для первой прогрессии. Далее он замечает, что если сложить почленно обе прогрессии, то же самое соотношение сохранится между любыми тремя такими последовательными суммами. Он сравнивает коэффициенты этого соотношения с коэффициентами соотношения членов предложенного возвратного ряда и находит с целью определения отношений обеих геометрических прогрессий ур-ние второй степени, корнями которого являются эти отношения. Таким образом Моавр разлагает возвратный ряд на две геометрические прогрессии, умноженные каждая на произвольное постоянное, определяемое им при помощи двух первых членов возвратного ряда. Этот остроумный способ в сущности тот же самый, который применялся потом Даламбсром для интегрирования линейных ур-ний в бесконечно малых разностях с постоянными коэффициентами и который был перенесен Лагранжем на подобные же ур-ния в конечных разностях. Я рассмотрел затем линейные ур-ния в конечных частных разностях сперва под названием возвратно-возвратных рядов (suites recurro- recurrentes), а потом под их собственным названием. Самым общим и простейшим способом интегрирования всех этих ур-ний является, мне кажется, способ, основанный мною на рассмотрении образующих функций, идея которых такова. Если возьмем функцию А переменного t, разложенную в ряд по восходящим степеням этого переменного, то коэффициент какой-либо из этих степеней будет функцией показателя или указателя этой степени. А будет то, что я называю образующей функцией этого коэффициента или функции указателя. Если теперь умножить ряд А на линейную функцию того же самого переменного t, каковою является, напр., единица плюс это переменное, взятое два раза, то произведение будет новой образующей функцией, в которой коэффициент какой-либо степени переменного будет равен коэффициенту той же степени в А плюс двойной коэффициент степени на единицу меньшей. Таким образом функция указателя в произведении равна будет функции указателя в Л плюс та же самая удвоенная 839
функция, указатель в которой уменьшен на единицу. Эта функция указателя в разложении произведения является таким образом производной функции указателя в Л, производной, которую можно выразить характеристикой 6, поставленной перед этой последней функцией. Операция, указанная характеристикой, зависит от множителя Л, который мы обозначим через В и относительно которого мы предположим, чго он подобно А, разложен по степеням переменного t. Если снова умножить на В произведение А на В, что сводится к умножению А на квадрат В, то составится третья образующая функция, и которой коэффициент некоторой степени t будет подобной же производной соответствующего коэффициента предыдущего произведения; поэтому его можно будет обозначить той характеристикой 5, поставленной перед предшествующей производной; а тогда эта характеристика будет написана два раза перед соответствующим коэффициентом ряда А. Но вместо тою, чтобы писать ее два раза, пишут ее с показателем два. Продолжая таким образом, увидим в общем случае, что после умножения А на п-ю степень В, в произведении получается коэффициент некоторой степени переменного с, если поставить перед соответствующим коэффициентом А характеристику 5 с показателем п. Предположим, что В есть единица деленная на t; тогда и произведении А на В коэффициент какой-либо степени этого переменного будет коэффициентом степени на единицу большей в А; откуда следует, что в произведении А на я-ю степень В коэффициент этот будет коэффициентом степени на л единиц большей в Л. Обозначим через С единицу, деленную на переменное с, минус единица; тогда в произведении А на С коэффициент какой-либо степени переменного будет коэффициентом его степени, на единицу большей, в ряде А, минус коэффициент этой степени в том же ряде; он будет, следовательно, конечной разностью этого последнего коэффициента, в котором указатель меняют на единицу. Таким образом в произведении А на л-ю степень С коэффициентом будет ля разность соответствующего коэффициента А. Так как В равно здесь единице плюс С, то п-я степень В тождественно равна такой же степени бинома единица плюс С. Поэтому после умножения на А обеих этих степеней окажется, что оба произведения тождественны. Но в произведении А на л-ю степень В коэффициент какой-либо степени переменного t является, как мы видели, коэффициентом степени, на я единиц большей, в А; значит он есть функция указателя, увеличенного на число л. В произведении А на разложение бинома единица плюс С получим, на основании предыдущего, соответственные коэффициенты, написав вместо произведений А на последовательные степени С последовательные разности функции указателя в А и умножив на эту функцию член, не зависящий от С. Мы получим, следовательно, некоторую функцию указателя, увеличенного на неопределенное л, выраженной через коэффициенты я-й степени бинома единица плюс единица, соответственно умноженные на самую функцию и на ее последовательные разности, что дает интерполяцию рядов при помощи разностей их последовательных членов, если рассматривать неопределенное л дробным. Тождественное ур-ние В равно С плюс единица дает тождественное ур-ние С равно В минус единица. Если возвести в л-ю степень обе части этого последнего равенства и умножить на А обе эти степени, то в произведении А на п-ю степень С коэффициент данной степени переменного г будет л-й конечной разностью коэффициента той же самой степени в А. В произведении А на разложение я-й степени бинома В минус единица коэффициент данной степени переменного будет суммой членов этого разложения, соответственно умноженных на значения коэффициента той же самой степени в А, если последовательно увеличивать указатель этого коэффициента на количества л, л минус единица, л минус два и т.д., что дает я-ю конечную разность функции указателя через последовательные значения функции. Обозначив 5 производную коэффициента данной степени неременного t в А относительно множителя В, обозначим характеристикой А производную относительно множителя С. Если в ур-нии В равно С плюс единица подставить 5 вместо ВиД вместо С, то, на основании предыдущего, от возведения обеих частей этого ур-ния в л-ю степень равенство не нарушится, лишь бы только в каждом члене разложения коэффициент данной степени переменного в Л, или функция указателя, поставлены были после каждой степени характеристик, а член, не зависящий от характеристик, умножен был на эту функцию. То же самое имеет место в ур-нии С равно В минус единица, а также и в ур-нии В минус С равно единице. От подстановки 5 и Д вместо В и С и от возведения обеих частей этого последнего ур-ния в л-ю степень, если разложить потом первую часть, равенство не нарушится, лишь бы только в каждом члене функция указателя была поставлена после степеней характеристик 5 и А и произведений этих степеней; и лишь бы эта функция была написана вместо единицы во второй части; что дает выражение зтой функции при помощи ее последовательных значений и ее разностей. 840 Применяя те же рассуждения и к другим значениям множителей В и С, мы приходим к следующему общему результату: каковы бы ни были функции переменного г, представленные В и С, в разложении всех тождественных ур-ний, могущих их связывать, можно заменить эти функции соответствующими характеристиками 5 и А лишь бы функция указателя была поставлена после степеней или произведений степеней характеристик, а члены, не зависящие от характеристик, были умножены на эту функцию. В самом деле, очевидно, что если н некотором члене разложения ур-ния, связывающего В и С, о котором идет речь, г есть степень В, а г' - степень С, для того чтобы перейти от образующих функций к их коэффициентам, нужно написать 5 вместо В и А вместо С и поставить произведение степенен. Распространяя по аналогии этот результат на тот случай, когда деление невозможно, он рассматривал количество, возведенное в дробную степень, как корень степени, указанной знаменателем этой дроби, из количества, возведенного в степень, указанную числителем. Затем он заметил, что по Дскартову обозначению умножение двух степеней одной и той же буквы сводится к сложению их показателей, а деление - к вычитанию показателя степени делителя из показателя степени делимого, когда второй из этих показателей больше первого. Валл.и* распространил этот результат на тог случай, когда первый показатель равен второму или больше его, что обращает разность в нуль или делает се отрицательной. Тогда он предположил, что отрицательный показа тель означает единицу, деленную на величину, возведенную в ту же степень, но положительную. Эти замечания привели его к интегрированию в общем случае дифференциальных одночленов; оiкуда он вывел определенные интегралы особого рода дифференциальных биномов, показатель которых есть число целое и положительное. Заме\ив потом закон чисел, выражающих эти интегралы, он рядом интерполяций и удачных индукций, в чем заключается зародыш исчисления определенных интегралов, столь занимавших геометров, и одно из оснований моей новой теории вероятностей, выразил отношение площади круга к квадрату его диаметра бесконечным произведением, которое, если прерывать его, дает это отношение в пределах все более и более тесных: результат, один из самых замечательных в анализе. Однако замечательно, что Валлис, который так хорошо рассматривал дробные показатели радикальных степеней, продолжал обозначать м\ так же, как это делалось до него. Ньютон первый, если не ошибаюсь, ввел в своих Письмах к Ольденбургу обозначение этих степеней с помощью дробных показателей. Сравнивая путем индукции, которой Валлис дал такое прекрасное применение, показатель степеней бинома с коэффициентами членов его разложения в том случае, когда этот показатель целый и положительный, он определил закон этих коэффициентов и распространил его по аналогии на степени дробные и отрицательные. Эти различные результаты, основанные на обозначении Декарта, свидетельствуют о его влиянии на прогресс анализа. Оно имеет еще то преимущество, что дает самое простое и самое верное понятие о логарифмах, которые на самом деле не что иное как показатели степеней одной и той же величины, которые, последовательно возрастая на бесконечно малые величины, могут выразить все числа. Но самое важное обобщение этого обозначения, это распространение его на переменные показатели, что составляет показательное исчисление, одну из самых плодотворных ветвей новейшего анализа. Лейбниц первый указал на трансцендентные величины с неременными показателями и этим дополнил систему элементов, из которых может быть составлена конечная функция, ибо всякая явная конечная функция неременной сводится в последнем анализе к простым величинам, комбинированным при помощи сложения, вычитания, умножения и деления и возведенным в постоянные или переменные степени. Корни ур-ний, состоящих из этих элементов, суть неявные функции переменного. Таким образом, так как переменное имеет логарифмом показателя равной ему степени в ряде степеней числа, гиперболический логарифм которого единица, то логарифм неременного есть псяшмя функция. Лейбницу пришла мысль давать своей дифференциальной характеристике, так же как и величинам, показатели; но тогда эти показатели вместо того, чтобы указывать на повторные умножения одной и той же величины, будут указывать на повторные дифференциации одной и той же функции. Это новое обобщение Декартова обозначения привело Лейбница к аналогии положительных степеней с дифференциалами, а отрицательных с интегралами. Лагранж проследил эту замечательную аналогию во всех ее подробностях; и рядом индукций, которые можно рассматривать как одно из прекраснейших, когда-либо сделанных применений этого метода, он дошел до общих формуч, столь же интересных как и полезных для преобразования разностей и интегралов одних в другие в тех случаях, когда переменные получают конечные и различные приращения, а также когда эти приращения бесконечно малы. Но он не дал доказательств, которые он считал трудными. Теория образующих функций распространяет Декартово обозначение на любые характеристики: она доказывает с очевидностью аналогию между степенями и действиями, на которые указывают эти характеристики, так что она может быть также рассматриваема как показательное исчисление характеристик.
Все, что касается рядов и интегрирования разностных ур-ний вытекает I и \ нос с необычайной легкостью. Применение исчисления вероятностей. Об играх. Комбинации, представляемые играми, были предметом первых исследований о вероятностях. Среди бесконечного разнообразия эгих комбинаций многие легко поддаются исчислению, другие требуют [ исчисления более грудного, и вместе с возрастанием этих трудностей, но море того как комбинации становятся более сложными, стремление преодолеть их и любознательность побуждали геометров совершенствовать нее более и более этот род анализа. Мы видели раньше, что с помощью теории сочетаний легко можно определить выгоды в какой-либо лотерее; но узнать, на сколько тиражей можно держать пари один против одного, напр., что выйдут псе номера, труднее. Если п есть I число номеров, г - число номеров, выходящих при каждом тираже, а i - неизвестное число тиражей, то выражение вероятности выхода всех номеров зависит от конечной разности я-й степени / произведения г последовательных чисел. Когда число п значительно, нахождение шачеиия- i, которое делает эту вероятность ранной ]/2, становится невозможным, но крайней мере, если не разложить эту разность в очень сходящийся ряд. Этого можно удачно достигнуть с помощью ранее I указанного метода для приближений функций очень больших чисел. ! Таким образом находим, что, если лотерея состоит из десяти тысяч номеров, из которых при каждом тираже выходит только один, то I невыгодно держать пари один против одного, что все номера выйдут ! через 95 767 тиражей, и выгодно держать то же самое пари при 95 768 тиражах. Во Французской лотерее такое пари невыгодно при 85-ти | тиражах и выгодно при 86-ти тиражах. I Рассмотрим еще такой случай: два игрока Л и В играют вместе в крест и решетку так, что при каждом бросании в случае выпадения креста А дает один жетон В, который п свою очередь дает ему один жетон в случае выпадения решетки', число жетонов у В ограничено, число жетонов у Л не ограничено, и партия должна кончиться только тогда, когда у В не будет больше жетонов. Спрашивается, на сколько бросаний можно держать пари один против одного, что партия будет окончена. Выражение вероятности того, что партия будет окончена через число i бросаний, дано рядом, состоящим из большого числа членов и множителей, если число жетонов у В значительно; нахождение значения неизвестного г, которое делает этот ряд равным ' /2, было бы тогда невозможным, если бы не удалось свести этот ряд к ряду | очень сходящемуся. Применяя к нему метод, о котором мы только что [ говорили, находим очень простое выражение для неизвестного, из I которого вытекает, что, если, напр., у В сто жетонов, то немного менее одного шанса против одного за то, что партия окончится через 23 780 бросаний, и немного более одного шанса против одного за то, что она окончится через 23 781 бросание. Этих двух примеров вместе с теми, которые уже были нами даны, достаточно, чтобы показать, каким образом задачи на игры могли | содействовать совершенствованию анализа. | О неизвестных неравенствах, которые могут существовать между шансами, предполагаемымн равными. Неравенства этого рода оказывают значительно влияние, заслуживающее особого внимания, на результаты исчисления вероятностей. Рассмотрим игру в крест и решетку и предположим, что обе стороны монеты выпадают с одинаковой легкостью; тогда вероятность выпадения креста при первом бросании равна 1/2, а вероятность его выпадения два раза подряд равна У4- Но если в монете существует неравенство, заставляющее одну из сторон выпадать преимущественно перед другой, и неизвестно, которой стороне благоприятствует это неравенство, то вероятность выпадения креста при первом бросании будет все еще 1/2, потому что при нашем незнании стороны, которой благоприятствует это неравенство, вероятность простого события настолько же i увеличивается, если эта неравенство ей благоприятствует, насколько она уменьшается, если неравенство ей не благоприятствует. Но при том же незнании вероятность выпадения креста два раза подряд увеличивается. В самом деле, эта вероятность является вероятностью выпадения креста при первом бросании, умноженной на вероятность того, что после выпадения при первом бросаиии он выпадет при втором; ио выпадение его при первом бросании дает повод думать, что неравенство монеты ему благоприятствует; значит неизвестное неравенство увеличивает в таком случае вероятность выпадения креста при втором бросании; оно увеличивает, следовательно, произведение обеих вероятностей. Для того, чтобы подвергнуть этот вопрос исчислению, предположим, что это неравенство увеличивает на одну двадцатую вероятность простого события, которому оно благоприятствует. Если это событие есть выпадение креста, вероятность его будет равна 1/2 плюс Vio. или "/20. a вероятиость его двукратного выпадения сряду будет равиа квадрату п/2о, или ,2,/400- Если благоприятствуемое событие есть выпадение решетки, то вероятность креста будет равна 1/2 минус 1/2о» или 9/2о, а вероятность его двукратиого выпадения сряду будет равна 81/4оо. Так как нет никакого основания думать наперед, что неравенство благоприятствует одному из этих событий преимущественпо перед другим, то ясно, что для нахождения вероятности сложного события - I крест-крест, надо сложить обе предшествующие вероятности и взять половину их суммы, что дает ииДоо Для ЭТ()и вероятности, превышающей {/4 на %оо или на квадрат приращения {/2п, на которое неравенство увеличивает возможность благоприятствуемого им события. Подобным же образом вероятность выпадения решетка-решетка равна 10|Доо; ио каждая из вероятностей выпадения крест-решетка или решетка- крест равна только "Доо> и^° сумма этих четырех нероятностей должна равняться достоверности или единице. Таким образом обыкновенно оказывается, что постоянные и неизвестные причины, которые благоприятствуют простым событиям, считающимся равно возможными, всегда увеличивают вероятность повторения одного и того же простого события. При четном числе бросаний крест и решетка оба должны выпасть либо четное число раз, либо нечетное. Вероятность каждого из этих случаев равна ]/2, если возможности для обеих сторон монеты одинаковы; но, если между ними существует неизвестное неравенство, то это неравенство всегда благоприятствует первому случаю. Два игрока, ловкость которых предполагается одинаковой, играют с тем условием, что при каждом ходе тот. кто проигрывает, дает своему противнику жетон, и что партия продолжается до тех пор, пока у одного из игроков не выйдут все жетоны. Исчисление вероятностей показывает нам, что для равноправности игры ставки игроков должны быть пропорциональны числам их жетонов. Но, если между их ловкостью существует маленькое неизвестное неравенство, то оно благоприятствует тому из игроков, у которого число жетонов меньше. Вероятность, что он выигрывает партию, увеличивается, если игроки условятся уднаивать, утраивать свои жетоны, и она будет равна у2 или будет такой же, как и вероятность второго игрока в тех случаях, когда числа их жетонов сделаются бесконечными, сохраняя всегда одно и то же отношение. Можно исправлять влияние этих неизвестных неравенств, подвергая их самих шансам случая. Так, если в игре в крест и решетку имеем вторую монету, которую бросаем всякий раз вместе с первой, и если условимся постоянно называть крестом ту сторону, которая выпадает на второй монете, то вероятность двукратного выпадения сряду кре ста* на первой монете будет гораздо больше приближаться к одной четверти, чем тогда, когда была только одна монета. В этом последнем случае разница равна квадрату малого приращения возможности, которое дает благоприятствуемой стороне первой монеты неизвестное неравенство; в другом случае эта разница равна учетверенному произведению этого квадрата на соответственный квадрат относительно второй монеты. Пусть в урну брошены сто номеров, от первого до сотого, в порядке нумерации, и пусть, после того как ее встряхнут, чтобы перемешать эти номера, вынут один из них; ясно, что вероятности выхода номеров будут между собой равны, если смешение произведено хорошо Но, если опасаются, как бы между ними не было небольших отличий, зависящих от порядка бросания номеров в урну, то можно значительно уменьшить эти отличия, бросая эти номера во вторую урну в порядке их выхода из первой и встряхивая затем эту вторую урну для смешения номеров. Третья урна, четвертая и т. д. все более и более будут уменьшать эти отличия, незначительные уже во второй урне. О законах вероятности, вытекающих из неопределенного увеличения числа событий. В кругу непостоянных и неизвестных причин, которые мы разумеем под именем случая и которые делают ход событий непостоянным и неправильным, ио мере увеличения их числа возникает заметная, поразительная правильность, которая кажется зависящей от преднамеренности и которую считали доказательством Провидения. Но, размышляя об этом, мы скоро убеждаемся, что эта правильность есть не что иное как раскрытие соответственных возможностей простых событий, которые должны случаться чаще, когда они более вероятны. Рассмотрим, напр., урну, которая содержит белые и черные шары, и предположим, что каждый раз как из нее вынимают шар, его кладут обратно в урну, чтобы приступить к новому тиражу. Отношение числа изъятых белых шаров к числу изъятых черных шаров будет всего чаще очень неправильно в первых тиражах; но непостоянные причины этой неправильности производят действия, поочередно благоприятствующие и не благоприятствующие правильному ходу событий, действия, которые, взаимно уничтожаясь при большом числе тиражей, делают все более и более заметным отиошение содержащихся в урне белых шаров к черным или соответствующие возможности изъятия из нее белого или черного шара при каждом тираже. Отсюда вытекает следующая теорема. Вероятиость того, что отношение числа изъятых белых шаров к числу всех вышедших шаров не уклонится, сверх данного интервала, от отиошения числа содержащихся в урие белых шаров к числу всех шаров, неопределенно приближается к достоверности при неопределенном увеличении числа событий, как бы мал ни был предполагаемый интервал. * В условном смысле. Ред. 841
Эту теорему, подсказываемую здравым смыслом, было трудно доказать с помощью анализа. И знаменитый геометр Яков Бернулли, первый, занимавшийся этим, приписывал большое значение доказательству, данному им. Исчисление образующих функций в применении к этому предмету не только с легкостью доказывает эту теорему, но дает еще и вероятность того, что отношение наблюдаемых событий уклоняется лишь в известных пределах от истинного отношения их соответственных возможностей. Из предшествующей теоремы можно вывести одно следствие, которое должно быть рассматриваемо как общий закон, а именно, что отношения произведений природы остаются приблизительно постоянными, когда эти произведения рассматриваются в большом количестве. Так, несмотря на различие годов, сумма продуктов за значительное число лет заметно остается одною и тою же; так что человек в своей предусмотрительности может защитить себя от непостоянства времен года, распределяя поровну на все периоды те блага, которыми природа наделяет его неравномерно. Я не исключаю из предыдущего закона действий, вытекающих из нравственных причин. Отношение ежегодных рождений к населению и отношение браков к рождениям испытывают очень небольшие изменения: в Париже число ежегодных рождений остается почти одно и то же; и как я слышал, на почте в обыкновенное время число писем, не доставленных за отсутствием адреса, из года в год мало изменяется; что подобным же образом наблюдалось и в Лондоне. Из этой теоремы следует кроме того, что в ряду событий, неопределенно продолженном, действие регулярных и постоянных причин должно со временем перевешивать действие причин нерегулярных. Это обстоятельство делает прибыль от лотерей такой же верной, как продукты земледелия ввиду того, что шансы, которые они представляют себе, обеспечивают им выгоду при большом числе ставок. Таким образом, принимая во внимание, что благоприятные многочисленные шансы постоянно связаны с соблюдением вечных принципов разума, справедливости и гуманности, которые являются основой и поддержкой обществ, следовать этим принципам представляет большое преимущество, а уклоняться от них - значительное неудобство. Пусть всякий обратится к истории и своему личному опыту, он увидит, что все факты подтверждают этот результат исчисления. Посмотрите на удачные результаты установлений, основанных на разуме и естественных пра- пах человека, у народов, сумевших их ввести и сохранить. Посмотрите также, какое преимущество дала добросовестность тем правительствам, которые положили ее в основу своего поведения, и как вознаграждены они были за жертвы, принесенные ими строгой точности в исполнении своих обещаний. Какое громадное доверие внутри страны! Какой авторитет вне! Посмотрите, наоборот, в какую бездну несчастий повергались часто народы благодаря властолюбию и вероломству своих вождей. Всякий раз, как великая держава, опьяненная любовью к победам, стремится ко всемирному владычеству, чувство независимости объединяет угрожаемые народы в коалицию. Подобным же образом среди непостоянных причин, которые заставляют расширяться или сжиматься различные государства, естественные границы, действуя как постоянные причины, должны, наконец, одержать верх. Поэтому важно, как для прочности, так и для счастья государств, не переходить этих границ, к которым они беспрестанно должны возвращаться от действия этих причин, подобно тому, как воды морские, вздымающиеся от свирепствующей бури, надают обратно в свой бассейн от тяжести. Это один из результатов исчисления вероятностей, подтвержденный многочисленными пагубными опытами. История, рассматриваемая с точки зрения влияния постоянных причин, представляла бы сверх интереса для любознательности тот интерес, что она давала бы людям полезнейшие уроки. Иногда приписывают неизбежные следствия этих причин случайным обстоятельствам, которые только раскрыли их действие: напр., противно природе вещей, чтобы какой-либо народ навсегда остался подвластным другому народу, отделенному от него громадными морями или большим расстоянием. Можно утверждать, что со временем эта постоянная причина, соединяясь, все время с причинами непостоянными, действующими в том же смысле и обнаруживающимися с течением времени, натолкнется, наконец, среди них на достаточно сильные, чтобы вернуть подчиненному народу его естественную независимость, или чтобы присоединить его к какому-либо могущественному государству, смежному с ним. В большом числе случаев, и это - важнейшие случаи анализа случайностей, возможности простых событий неизвестны, и мы принуждены искать в прошедших событиях указаний, которыми мы могли бы руководствоваться в наших догадках относительно причин, от которых они зависят. Применяя анализ образующих функций к вышеизложенному принципу вероятности причин выведенной из наблюденных событий, мы приходим к следующей теореме. Когда событие простое, или состоящее из нескольких простых, какова, напр., партия игры, повторялось большое число раз, то возможности простых событий, которые делают наблюденное наиболее вероятным, суть те, на которые указывает наблюдение с наибольшим правдоподобием: по мере того как наблюденное событие повторяется, 842 это правдоподобие увеличивается и оно слилось бы наконец с достоверностью, если бы число повторений сделалось бесконечным. Здесь возможны два ряда приближений: одно из них относится к взятым с той и другой стороны пределам возможностей, которые придают прошедшему наибольшее правдоподобие; другое приближение касается вероятности того, что эти возможности надут в эти пределы. Повторение сложного события все более и более увеличивает эту вероятность, если пределы остаются те же самые; оно все более и более суживает промежуток между этими пределами, если вероятность остается та же самая: в бесконечности этот промежуток обращается в нуль, а вероятность переходит в достоверность. Если применить эту теорему к отношению рождений мальчиков к рождениям девочек, наблюдавшемуся в различных странах Европы, то окажется, что это отношение, повсюду приблизительно равное от гашению 22 к 21, указывает с крайней вероятностью на большую ле! кость рождений мальчиков. Принимая затем во внимание, что оно остается тем же самым в Неаполе и Петербурге, мы увидим, что влияние климата в этом отношении нечувствительно. Можно было бы поэтому подозревать в противоположность общему мнению, что это преобладание мужских рождений существует даже на Востоке. Вследствие этого я предложил французским ученым, командированным в Египет, заняться этим интересным вопросом: однако затруднительность получения точных сведений о рождениях не позволила им решить его. К счастью Гумбольдт не оставил без внимания этого вопроса среди массы новых данных, которые он наблюдал и собирал в Америке с такой проницательностью, таким упорством и мужеством. Он нашел между тропиками то же самое отношение рождений мальчиков к рождениям девочек, какое наблюдалось в Париже, что должно заставить рассматривать преобладание мужских рождений как общий закон для рода человеческого. Законы, которым следуют в этом отношении различные виды животных, кажутся мне заслуживающими внимания естествоиспытателей. Отношение рождений мальчиков к рождениям девочек отличается очень мало от единицы, однако даже достаточно большие числа рождений, наблюдавшихся в каком-либо месте, могли бы в этом отношении дать результат противоположный общему закону, и все-таки мы не имели бы права отсюда заключать, что этот закон не существует. Чтобы вывести такое заключение, следует применить очень большие 41 ела и убедиться в том, что оно указано с большой вероятностью. Бюффон приводит, напр., в своей Политической арифметике несколько бургундских общин, в которых рождаемость девочек превышает рождаемость мальчиков. Из этих общин община Carcelle-le-Grignon дает па 2009 рождений в течение пяти лет 1026 девочек и 983 мальчика. Хо-я эти числа значительны, они указывают все же па большую возможность рождений девочек только с вероятностью 9/ш: а дта всроятюсть, которая меньше, чем вероятность, что крест не выпадет четыре раза подряд в игре в крест и решетку, не достаточна для нахождения причины этой аномалии, которая по всей вероятности исчезла бы, если бы за рождаемостью в этой общине следили в течение столетия При помощи метрических книг о рождениях, которые ведутся тщательно для обеспечения состояния граждан, можно определить население большого государства, не прибегая к перекиси его жителей, затруднительной операции, которую трудно выполнить точно. Но для этого надо знать отношение населения к годичным рождениям. Самый точный способ достигнуть этого состоит в том, чтобы 1) выбрать в государстве департаменты, распределенные приблизительно одиьаково на всей его поверхности, для того, чтобы сделать общий результат независимым от местных условий; 2) произвести тщательную перепись населения нескольких общий в каждом департаменте для какой-либо данной эпохи; 3) определить с помощью списков рождений за несколько лет, предшествующих этой эпохе и последующих за ней, среднее число, соответствующее годичным рождениям. Это число, делен гае на число жителей, дает отношение ежегодных рождений к населению с тем большею верностью, чем значительнее будет перепись. Правительство, убежденное в пользе подобной переписи выразило соктасие предписать ее выполнение, по моей просьбе. В тридцати департаментах, одинаково расположенных по всей Франции, были намечены общины, кс торые могли доставить самые точные сведения. Перепись в них дала в общем итоге 2 037 615 человек жителей па 23-е сентября 1802-го года. Списки рождений в этих общинах за 1800, 180! и 1802 годы дали: Рождения 110312 мальчиков 105287 девочек Браки 46037 Смсршыс случ 103659 мужчи! 99443 жен щи Отношение населения к годичным рождениям равно, следовательно, 28 352 845:1000 000; оно больше, чем его оценивали до си> пор. Умножая на это отношение число годичных рождений во Франции, получим население этого государства. Но какова вероятности что определенное таким образом население не уклоняется от истинного больше данного предела? Решая эту задачу и применяя к ее решению предыдущие данные, я нашел, предполагая число ежегодных рождении во Франции равным одному миллиону, что дает для населения
2Ь 352 845 жителей, что будет триста тысяч шансов против одного за то, что ошибка этого результата не равна и полумиллиону. Отношение рождений мальчиков к рождениям девочек, данное предшествующими списками, равно отношению 22 к 21; а браки относятся к рождениям как три к четырнадцати. Крещение детей обоего иола в Париже слегка уклоняется от отношения 22 к 21. С 1745-го года, времени, с которого начали различать пол в метрических книгах о рождениях, до конца 1784-го года в этой столице окрестили 393386 мальчиков и 377 555 девочек. Отношение этих чисел почти равно отношению 25 к 24; оказывается, по-видимому, что в Париже какая-нибудь особенная причина стремится уравнять крещения обоих полов. Если применим к этому вопросу исчисление вероятностей, то найдем, что 238 шансов против одного за существование этой причины, что в достаточной мере дает право на ее изыскание. Когда я стал размышлять об этом, то мне показалось, что замеченная разница зависит от того, что родители из деревни и провинции, находя некоторое преимущество в оставлении при себе мальчиков, отсылали их в Приют для подкидышей в Париже сравнительно с девочками меньше, чем как следовало бы из отношения рождений обоих полов; что и доказали мне списки этого приюта. С начала 1745-го года до конца 1809-го в него поступило 163 499 мальчиков и 159 405 девочек. Первое из этих чисел превышает второе только на одну тридцать восьмую, тогда как оно должно было бы его превышать по крайней мере на одну двадцать четвертую. Подтверждает существование указанной причины и то, что, если не принимать во внимание подкинутых детей, отношение рождений мальчиков к рождениям девочек равно в Париже, как и в остальной Франции, отношению 22 к 21. Постоянство преобладания рождений мальчиков над рождениями девочек, как в Париже, так и в Лондоне, за все время наблюдения показалось некоторым ученым вмешательством Провидения, без которого, как они думали, нерегулярные причины, нарушающие беспрестанно ход событий, должны были бы много раз давать перевес годичным рождениям девочек над рождениями мальчиков. Но этот довод является новым примером того, как часто злоупотребляли конечными причинами, которые всегда исчезают при более глубоком исследовании вопросов, когда имеются необходимые данные для их решения. Постоянство, о котором идет речь, является результатом регулярных причин, которые дают перевес рождениям мальчиков и которые перевешивают аномалии, зависящие от случая, когда число ежегодных рождений значительно. Нахождение вероятности того, что это постоянство сохранится в течение длинного периода времени, принадлежит той отрасли анализа случайностей, которая переходит от прошедших событий к вероятности событий будущих, а из нее вытекает, что, исходя из рождений, наблюдавшихся с 1745-го года по 1784-й, мы имеем почти четыре шанса против одного за то, что в Париже ежегодные рождения мальчиков будут постоянно превышать рождения девочек в продолжение столетия: нет, следовательно, никакого повода удивляться, что то же самое имело место в продолжение полустолетия. Приведем еще пример того, как события раскрывают постоянные отношения по мере своего увеличения в числе. Рассмотрим ряд урн, расположенных в круговом порядке и содержащих, каждая, очень большое число белых и черных шаров; таким образом отношения в этих урнах белых шаров к черным могут быть вначале весьма различны, напр., таковы, что какая-либо из этих урн содержит одни белые шары, в то время как какая-либо другая содержит одни черные. Если мы вынем шар из первой урны, чтобы переложить его во вторую, из которой, встряхнувши ее для того, чтобы положенный шар хорошенько смешался с остальными, вынем шар и переложим в третью урну, и т. д. до последней урны, из которой вынем шар, чтобы переложить его в первую, и если мы будем неопределенно продолжать этот ряд тиражей; анализ вероятностей показывает нам, что отношения в этих уриах белых шаров к черным станут наконец одинаковыми и равными отношению суммы всех белых шаров к сумме всех черных, содержащихся в урнах. Так от регулярности этого способа изменения первоначальная неправильность отношений исчезает со временем, чтобы уступить место самому простому порядку. Если мы теперь вставим между этими урнами новые урны, в которых отношение суммы белых шаров к сумме черных, содержащихся в них, оличается от предшествующего, и будем неопределенно продолжать только что указанные изъятия из всей совокупности этих урн, то тот простой порядок, который установился в прежних урнах, сперва будет нарушен и отношения белых шаров к черным сделаются неправильными; но мало-помалу эта неправильность исчезнет, чтобы уступить место новому порядку, который станет, наконец, порядком равенства отношений содержащихся в урнах белых шаров к черным. Можно распространить этот результат на все сочетания в природе, в которых постоянные силы, присущие их элементам, устанавливают правильный образ действий, способный вызвать даже из недр хаоса системы, управляемые удивительными законами. Явления, даже наиболее зависящие, по-видимому, от случая, имеют, следовательно, тенденцию по мере увеличения их числа непрерывно приближаться ко вполне определенным отношениям; так что, если мы наметим по обе стороны каждого из этих отношений промежуток любой величины, то вероятность, что средний результат наблюдений падает на этот промежуток, в конце концов будет отличаться от достоверности только на величину, меньшую любой данной величины. Таким образом можно посредством исчисления вероятностей, примененного к большому числу наблюдений, познавать существование этих отношений. Но прежде чем искать их причины, и чтобы не запутаться в бесполезных умозрениях, необходимо убедиться в том, что они указаны с вероятностью, не позволяющей их рассматривать как аномалии, зависящие от случая. Теория образующих функций дает очень простое выражение для этой вероятности, которое получается от интегрирования произведения дифференциальной величины, результат которой, выведенный из большого числа наблюдений, уклоняется от истины на постоянную меньшую единицы, зависящую от рода задачи и возведенную в степень, показатель которой есть отношение квадрата этого уклонения к числу наблюдений. Интеграл, взятый в данных пределах и деленный на тот же самый интеграл, распространенный до бесконечности положительной и отрицательной, выразит вероятность того, что уклонение от истины заключено в этих пределах. Таков общий закон вероятности результатов, указанных большим числом наблюдений. Приложение теории вероятностей к натуральной философии. Явления природы сопровождаются по большей части столькими посторонними обстоятельствами, влияние многочисленных возмущающих причин настолько к ним примешивается, что становится очень трудным познавать их. Достигнуть этого можно только повторным наблюдением и опытом, чтобы посторонние влияния взаимно уничтожались, и средние результаты сделали бы очевидными эти явления и их различные элементы. Чем многочисленнее наблюдения и чем менее они расходятся, тем ближе их результаты к истине. Это последнее условие достигается подбором методов наблюдения, точностью инструментов и тщательностью, с которой производится наблюдение. С помощью теории вероятностей определяют затем самые подходящие (выгодные) средние результаты, или такие, которые оставляют всего менее места ошибке. Но этого недостаточно; необходимо еще взвесить вероятность того, что ошибки этих результатов заключаются в данных пределах; без этого мы бы имели лишь несовершенное понятие о степени достигнутой точности. Поэтому формулы, служащие этой цели, составляют истинное усовершенствование научного метода и его важное добавление. Анализ, которого требуют эти формулы, принадлежит к самым тонким и трудным в теории вероятностей; он составляет один из главных предметов в напечатанном мною труде по этой теории, я нашел в нем несколько формул такого рода, имеющих то замечательное преимущество, что они независимы от закона вероятности ошибок и содержат только величины, данные непосредственными наблюдениями и выражениями их. Аналитическое выражение каждого наблюдения есть функция элементов, которые требуется определить; и, если эти элементы приблизительно известны, функция эта обращается в линейную функцию их поправок. Приравнивая ее самому наблюдению, получаем так называемое условное ур-ние. Если имеется большое число подобных ур-ний, то комбинируют их так, чтобы получить столько конечных ур-ний, сколько было элементов, поправки к которым можно затем определить, решая эти ур-ния. Но какой способ комбинирования ур-ний самый выгодный для получения конечных ур-ний? Каков вероятный закон ошибок, элементы которого, получаемые из них, еще очень изменчивы? Это мы узнаем из теории вероятностей. Составление конечного ур-ния с помощью ур-ний условных сводится к умножению каждого из этих последних на неопределенный множитель и к соединению этих произведений. Следовательно надо выбирать такую систему множителей, при которой можно ожидать наименьшую ошибку. Но, если умножать возможные ошибки какого-нибудь элемента на их соответственные вероятности, то, очевидно, что самой выгодной системой окажется та, в которой сумма этих произведений, всех взятых положительно, будет minimum, потому что ошибка, положительная или отрицательная, всегда должна рассматриваться как потеря. Значит при образовании этой суммы произведений, условие minimum*а определит приемлемую систему множителей, или самую выгодную систему. Таким образом находим, что эта система есть система коэффициентов элементов в каждом условном ур-нии, так что первое конечное ур-ние образуется умножением соответственно каждого условного ур-ния на его коэффициент первого элемента и соединением всех этих, таким образом умноженных, ур-ний. Второе конечное ур-ние составится, если поступим подобным же образом с коэффициентами второго элемента, и т. д. Таким образом элементы и законы явлений, заключенные в совокупности большого числа наблюдений, раскрываются с наибольшей очевидностью. Вероятность ошибок, которых еще можно опасаться в каждом элементе, пропорциональна числу, гиперболический логарифм которого есть единица, возведенному в степень равную квадрату ошибки, взятому с минусом и умноженному на постоянный коэффициент, который можно рассматривать как модуль вероятности ошибок, потому что, если ошибка остается без изменения, вероятность ее быстро уменьшается при его увеличении; так что полученный элемент тяготеет, если я 843
могу так выразиться, к истине тем более, чем больше этот модуль. Поэтому я назову этот модуль весом элемента или результата. Вес этот имеет наибольшую возможную величину в самой выгодной системе множителей; это обстоятельство и дает этой системе преимущество перед другими. Благодаря замечательной аналогии и этого веса и веса тел, сравниваемых по отношению к их общему центру тяжести, оказывается, что, если один и тот же элемент дан разными системами, составленными каждая из большого числа наблюдений, то средний результат, самый выгодный изо всех, равен сумме произведений каждого отдельного результата на его вес, деленной на сумму всех весов. Кроме того, общий вес результата различных систем есть сумма их отдельных весов, так что вероятность ошибок среднего результата всех их взятых вместе пропорциональна числу, гиперболический логарифм которого есть единица, возведенному в степень равную квадрату ошибки, взятому с минусом, и умноженному на сумму всех весов. Каждый вес зависит на самом деле от закона вероятности ошибок каждой системы, а этот закон почти всегда неизвестен; но мне удалось исключить множитель, заключающий этот закон, с помощью суммы квадратов уклонений наблюдений системы от их средних результатов. Итак, для расширения наших знаний о результатах, добытых совокупностью большого числа наблюдений, было бы желательно, чтобы рядом с каждым результатом записывался соответствующий ему вес; анализ представляет нам для этой цели общие и простые методы. Когда таким образом получена показательная функция, которая представляет закон вероятности ошибок, то мы имеем вероятность, что ошибка результата заключается в данных пределах, беря в этих пределах интеграл произведения этой показательной функции на дифференциал ошибки и умножая его на квадратный корень веса результата, деленного на окружность, диаметр которой единица. Отсюда следует, что, при одной и той же вероятности, ошибки результатов обратно пропорциональны квадратным корням их весов, что может служить для сравнения их относительных точностей. Для успешного применения этого метода следует разнообразить условия наблюдений или опытов таким образом, чтобы избежать постоянных причин ошибки. Наблюдения должны быть многочисленны, и тем более, чем больше элементов требуется определить, так как вес среднего результата растет вместе с числом наблюдений, деленным на число элементов. Необходимо кроме того, чтобы элементы имели в этих наблюдениях различный ход изменения, потому что, если бы ход изменения двух элементов был совершенно одинаков, что сделало бы коэффициенты их пропорциональными в условных ур-ниях, то элементы эти составляли бы вместе одно неизвестное, и было бы невозможно различить их по этим наблюдениям. Необходимо, наконец, чтобы наблюдения были точны; это условие, самое первое изо всех, сильно увеличивает вес результата, выражение которого имеет делителем сумму квадратов уклонений наблюдений от этого результата. При таких предосторожностях возможны будут пользование предыдущим методом и оценка степени доверия, которого заслуживают результаты, выведенные из большого числа наблюдений. Правило, которое мы только что дали для выведения конечных ур-иий из условных, сводится к тому, чтобы сделать minimum'™ сумму квадратов ошибок наблюдений, потому что всякое условное ур-нис становится точным от подстановки наблюдения плюс его ошибка; если же определить из него выражение этой ошибки, то легко можно убедиться, что условие minimum'а. суммы квадратов этих выражений даст правило, о котором идет речь. Правило это тем точнее, чем многочисленнее наблюдения; но даже в том случае, когда число их невелико, кажется естественным применять то же правило, которое во всяком случае дает нам простой способ получать без гадания искомые поправки. Оно может также служить для сравнения точности различных астрономических таблиц одного и того же светила. Можно всегда предположить, что эти таблицы приведены к одинаковому виду, а тогда они разнятся лишь эпохами, средними движениями и коэффициентами аргументов; так как, если одна нз них содержит аргумент, которого нет в других, то ясно, что это сводится к тому предположению, что коэффициент этого аргумента в них равен нулю. Если теперь исправить эти таблицы всей совокупностью хороших наблюдений, то они удовлетворили бы условию minimum'* суммы квадратов ошибок; тс таблицы, которые при сравнении со значительным количеством наблюдений всего более приближаются к этому условию, заслуживают, следовательно, предпочтения. В астрономии, главным образом, может быть успешно применяем вышеизложенный метод. Астрономические таблицы обязаны достигнутой ими действительно изумительной верностью точности наблюдений и теорий, а также употреблению условных ур-иий, благодаря которым большое число превосходных наблюдений содействует исправлению одного и того же элемента. Но оставалось еще определить вероятность ошибок, которых еще можно опасаться при этом исправлении; метод, только что мною изложенный, и служит для этой цели. Чтобы привести несколько интересных применений его, я воспользовался огромным только что законченным трудом BouvarcTa о движениях Юпитера и Сатурна, весьма точные таблицы которых он составил с величайшей тщательностью, разобрал противостояния и квадратуры этих двух 844 планет, наблюдавшиеся Брадлэем и астрономами, следовавшими ему до последних лет. Из этих таблиц он вывел поправки элементов их движений и масс, сравниваемых с массой солнца, взятой за единицу. Вычисления эти дают ему массу Сатурна равную одной 3512-й части массы солнца. Применяя к ним мои формулы вероятности, я нахожу одиннадцать тысяч шансов против одного за то, что ошибка этого результата менее сотой части его числового значения; или, что сводится почти что к тому же самому, если через столетие новых наблюдений присоединить их к предыдущим и рассмотреть по тому же самому способу, то новый результат не будет отличаться и на сотую долю от результата BouvarcTa. Этот ученый астроном находит кроме того, что масса Юпитера равна одной 1701-й части массы солнца; а мой метод вероятности даст миллион шансов против одного, что этот результат не ошибочен и па сотую долю. Этот метод может быть также с успехом применен к геодезическим операциям. Длина большой дуги на поверхности земли определяется цепью треугольников, опирающихся на точно измеренную базу; но, с какой бы точностью ни были измерены углы, неизбежные ошибки могут, накопляясь, значительно отклонить от истины числовое значение дуги, выведенное из большого числа треугольников. Числовое значение известно нам, следовательно, не совершенно, если мы не можем определить вероятности того, что его ошибка заключается в данных пределах. Ошибка геодезического результата есть функция ошибок углов каждого треугольника. В названном труде я дал общие формулы для получения вероятности числовых значений одной или нескольких линейных функций большого числа частных ошибок, закон вероятности которых нам известен; с помощью этих формул можно, значит, определить вероятность того, что ошибка какого-либо геодезического результата заключается в назначенных пределах, каков бы ни был закон вероятности частных ошибок. Стать вне зависимости от этого закона тем более необходимо, что законы, даже самые простые, всегда бесконечно мало вероятны, принимая во внимание бесконечное число этих законов, могущих существовать в природе. Неизвестный закон частных ошибок вводит однако в формулы неопределенную величину, которая не позволила бы сократить их число, если бы не удалось ее исключить. Мы видели, что в астрономических вопросах, где всякое наблюдение доставляет условное ур-ние, для получения элементов исключают эту неопределенную величину при помощи суммы квадратов остатков после того, как в каждое ур-ние подставлены самые вероятные числовые значения элементов. Так как геодезические вопросы не представляют подобных ур-иий, то надо отыскать другой способ исключения. Величина, на которую сумма углов всякого наблюдаемого треугольника превосходит два прямых, плюс сферический избыток, доставляет нам этот способ. Так, заменяют суммой квадратов этих величин сумму квадратов остатков условных ур-ний; и можно вычислить вероятность того, что конечный результат ряда геодезических операций не превзойдет данной величины. Но который способ самый выгодный при распределении между 3 углами каждого треугольника наблюденной суммы их ошибок? Анализ вероятностей показывает, что каждый угол должен быть уменьшен на треть этой суммы, для того чтобы вес геодезического результата был по возможности наибольшим; а это делает ту же ошибку менее вероятной. Следовательно, есть большое преимущество наблюдать три угла всякого треугольника и поправлять их указанным способом. Простой здравый смысл заставляет предчувствовать эту вьподу; но одно исчисление вероятностей может оценить ее и показать, что благодаря этой поправке она становится возможно наибольшей. Чтобы убедиться в точности числового значения дуги большого круга, опирающейся на измеренную базу при одном из ее концов, измеряют вторую базу при другом ее конце и вычисляют но одной из этих баз длину другой. Если длина эта очень мало уклоняется от наблюдения, то вполне уместно будет думать, что цепь треугольников, соединяющих эти базы, почти совсем точна, так же как и определяемая из нее величина большой дуги. Затем исправляют эту величину, изменяя углы треугольников так, чтобы базы вычисленные согласовались с измеренными; но это может быть сделано бесконечным числом способов, между которыми следует предпочесть те, гсодезичес кий результат которых имеет наибольший вес, потому что та же самая ошибка делается тогда менее вероятной. Анализ вероятностей дает формулы для непосредственного получения самой выгодной поправки, которая вытекает из измерений нескольких баз, а также законы вероятности, возникшие благодаря многочисленности баз, законы, которые становятся быстрее убывающими благодаря именно этой многочис тсн- ности. Ошибки результатов, выведенные из большого числа наблюдений, суть вообще говоря линейные функции частных ошибок каждого наблюдения. Коэффициенты этих функций зависят от рода задачи и от способа, которому следовали для получения результатов. Самый выгодный способ очевидно тот, при котором одна и та же ошибка в результатах менее вероятна чем при всяком другом. Применение исчисления вероятностей к натуральной философии заключается, следовательно, в определении аналитически вероятности числовых значений этих функций и в выборе их неопределенных коэффициентов гак, чтобы закон этой вероятности стал наиболее быстро убывающим. Исключая затем из формул, с помощью данных задачи, множитель,
который вводит почти всегда неизвестный закон вероятности частных I ошибок, возможно будет оценить численно вероятность того, что ошибки результатов не превысят данной величины. Таким образом получим все, чего мы может желать относительно результатов, выведенных из большого числа наблюдений. Можно кроме того получить очень близкие результаты с помощью других соображений. Положим, напр., что мы имеем тысячу одно наблюдение одной и той же величины; среднее арифметическое всех утих наблюдений есть результат, данный самым выгодным методом; но можно было бы выбрать результат согласно условию, чтобы сумма уклонений от каждой частной величины, всех взятых положительно, была бы minimum: в самом деле, нам кажегся естественным рассматривать результат, удовлетворяющий этому условию, как наиболее приближенный. Если расположить числовые значения, данные наблюдениями, в порядке величины, то легко видеть, что числовое значение, которое займет среднее место, выполнит предыдущее условие: а вычис- | ление показывает нам, что в случае бесконечного числа наблюдений эта величина совпадет с истинной; однако результат, данный самым выгодным методом, все же предпочтительнее. Рассмотрение вероятностей может служить для того, чтобы различать маленькие неравенства небесных движений скрытые в ошибках i наблюдений, и для того, чтобы добраться до причины аномалий, замеченных в этих движениях. Сравнивая между собой все свои наблюдения, Тихо Брагэ признал необходимость применения к луне ур-ния времени, отличного от ур-ния, применяемого к солнцу и планетам. Подобным же образом совокупность большого числа наблюдений дала знать Майеру, что коэффициент неравенства прецессии должен быть уменьшен для луны. Но так как это уменьшение, хотя и подтвержденное и даже увеличенное Мазоном, казалось не вытекает из всемир- | ного тяготения, то большая часть астрономов пренебрегли им в своих вычислениях. После того как я подверг исчислению вероятностей значительное количество лунных наблюдений, для этой цели избранных, и разобранных но моей просьбе Bouvard'om, уменьшение это показалось мне указанным с такой большой вероятностью, что я счел себя обязанным найти его причину. Я отлично видел, что ею мог быть лишь эллиптический вид земного сфероида, до тех пор не принимавшийся во внимание в теории движения луны, как могущий ввести в нее лишь незначительные члены; отсюда я заключил, что члены эти становятся значительными при последовательных интегрированиях дифференциальных ур-ний. Я определил затем эти члены отдельным | анализом и открыл сперва неравенство движения луны по широте, которое пропорционально sinus'y долготы луны и которого еще не подозревал ни один астроном. Я узнал потом при помощи этого i неравенства о существовании другого неравенства в движении луны по долготе, которое и производит уменьшение, замеченное Майером в ур-нии прецессии, применяемом к луне. Величина этого уменьшения и коэффициент предыдущего неравенства по широте очень удобны для установления сжатия земли. Сообщив о моих исследованиях Бургу, который в то время занимался усовершенствованием лунных таблиц путем сравнения всех хороших наблюдений, я просил его определить с особою тщательностью эти две величины. Весьма замечательно согласуясь, найденные им величины дают для земли одно и то же сжатие '/зо5> сжатие, которое мало отличается от среднего значения, выведенного из измерений градусов меридиана и из наблюдений маятника, но которое в виду влияния на эти измерения ошибок наблюдений и возмущающих причин мне кажется более точно определенным лунными неравенствами. При рассмотрении вероятностей узнал я также причину векового ур-ния луны. Новейшие наблюдения этого светила, будучи сравнены с прежними затмениями, указали астрономам на ускорение в движении луны; но геометры, и особенно Лагранж, после безуспешного искания членов, от которых зависит это ускорение, в возмущениях, испытываемых этим движением, отбросили это ускорение. Внимательное рассмотрение старых и новейших наблюдений, а также промежуточных затмений, наблюдавшихся арабами, показало мне, что указания на него имеют большую вероятность. С этой точки зрения я снова рассмотрел лунную теорию, и я нашел, что вековое ур-ние луны происходит от действия солнца на этого спутника в связи с вековым изменением эксцентриситета земной орбиты, а это меня привело к открытию вековых ур-ний движений узлов и перигелия лунной орбиты, ур-ний, о которых и не подозревали астрономы. Весьма замечательное соответствие этой теории со всеми древними и новейшими наблюдениями сделали ее в высшей степени очевидной. Подобным же образом исчисление вероятностей привело меня к причине больших неправильностей Юпитера и Сатурна. Сравнивая новейшие наблюдения с древними, Галлей нашел ускорение в движении Юпитера и замедление в движении Сатурна. Чтобы согласовать наблюдения, он подчинил эти движения двум вековым ур-ниям с разными знаками и возрастающим как квадраты времен, протекших с 1700 года. Эйлер и Лагранж подвергли анализу изменения, которые должно было произвести в этих движениях взаимное притяжение двух планет. Тогда они нашли вековые ур-ния; но их результаты были до | того различны, что по крайней мере один из них должен был быть ложным. Я решил поэтому заняться этим важным вопросом небесной | механики, и я признал неизменность средних планетных движений, что i заставило исчезнуть вековые ур-ния, введенные Галлеем в таблицы Юпитера и Сатурна. Таким образом служить объяснением больших неправильностей этих планет могли еще только притяжения комет, к которым действительно и прибегли некоторые астрономы, или же существование неравенства большого периода, произведенного в движениях этих двух планет их взаимодействием, и определяемого для каждой из них противоположными знаками. Найденная мною теорема о неравенствах такого рода сделала для меня весьма правдоподобным это неравенство. По этой теореме оказывается, что, если движение Юпитера ускоряется, то движение Сатурна замедляется, что уже сходно с тем, что заметил Галлей; более того, ускорение Юпитера, следующее из той же теоремы, относится к замедлению Сатурна почти совершенно так, как относятся друг к другу вековые ур-ния, предложенные Галлеем. Исследуя средние движения Юпитера и Сатурна, мне легко было узнать, что движение Юпитера, взятое два раза, превосходит лишь на очень малую величину движение Сатурна, взятое пять раз. Период неравенства, которое имело бы этот аргумент, равнялся бы приблизительно девяти векам. На самом деле, его коэффициент был бы того же порядка, как кубы эксцентриситетов орбит. Но мне было известно, что в силу последовательных интегрирований он приобретает делителем квадрат очень малого множителя времени в аргументе этого неравенства, что может ему дать большое числовое значение; существование этого неравенства показалось мне поэтому очень вероятным. Следующее замечание еще увеличило его вероятность. Полагая этот аргумент равным нулю во времена наблюдений Тихо Брагэ, я увидел, что при помощи сравнения новейших наблюдений со старыми Галлей должен был найти изменения, им указанные, тогда как сравнение новейших наблюдений между собой должно было дать изменения противоположные и подобные тем, которые вывел Ламберт из этого сравнения. Не колеблясь предпринял я поэтому длинное и утомительное вычисление необходимое для того, чтобы убедиться в существовании этого неравенства: оно вполне было подтверждено результатом этого исчисления, открывшим мне кроме того большое число еще других неравенств, совокупность которых довела таблицы Юпитера и Сатурна до точности самых наблюдений. При помощи исчисления вероятностей опять-таки мне удалось открыть замечательный закон средних движений первых трех спутников Юпитера, согласно которому средняя долгота первого минус три раза взятая долгота второго плюс два раза взятая долгота третьего в точности равняется полуокружности. Приближение, с которым средние движения этих светил со времени их открытия удовлетворяют этому закону, указывало на его существование с большим правдоподобием; я стал искать причину его в их взаимодействии. Тщательное исследование этого действия показало мне, что достаточно было такого первоначального отношения их средних движений, которое только приближалось к этому закону в известных пределах, для того чтобы их взаимодействие установило этот закон и в точности его поддерживало. Таким образом эти три тела будут вечно совершать свои движения в пространстве по предшествующему закону, если только какие-нибудь посторонние причины, напр., кометы, не нарушат внезапно их движения вокруг Юпитера. Отсюда видно, с каким вниманием следует относиться к указаниям природы, когда они являются результатом большого числа наблюдений, хотя бы при этом их и нельзя было объяснить известными способами. Чрезвычайная трудность задач, относящихся к системе мира, принудила геометров прибегнуть к приближениям, при которых всегда можно опасаться как бы отбрасываемые величины не оказали заметного влияния. Когда наблюдения указывали им на такое влияние, они снова обращались к их анализу; при поверке они всегда находили причину замеченных аномалий; они определяли их закон и часто предупреждали наблюдения, открывая неравенства, которые наблюдениями еще не были указаны. Таким образом можно сказать, что сама природа содействовала аналитическому совершенствованию теорий, основанных на принципе всемирного тяготения, и это по моему мнению является одним из сильнейших доказательств истинности этого принципа, достойного удивления. Одно из самых замечательных явлений системы мира представляют все движения вращения вокруг оси и обращения планет и спутников в одном направлении с вращением солнца вокруг своей оси и почти в плоскости его экватора. Столь замечательное явление далеко не случайно: оно указывает на общую причину, которая определила эти движения. Чтобы узнать, с какой вероятностью указана эта причина, принимают во внимание, что планетная система, насколько она нам известна в данное время, состоит из одиннадцати планет и восемнадцати спутников, по крайней мере если вместе с Гершелем приписывать планете Урану шесть спутников. Известны движения вращения вокруг оси солнца, шести планет, луны, спутников Юпитера, кольца Сатурна и одною из его спутников. Эти движения вместе с движениями обращения составляют всего сорок три движения в одном и том же направлении; а из анализа вероятностей мы узнаем, что четыре тысячи миллиардов шансов против одного за то, что этот порядок не есть дело случая; а это представляет вероятность гораздо большую, чем вероят- 845
иость таких исторических событий, относительно которых мы не позволяем себе сомневаться. Поэтому мы должны по меньшей мере с той же уверенностью принять, что какая-либо первоначальная причина дала направление планетным движениям, особенно, если принять во внимание, что наклонение большей части этих движений к солнечному экватору очень невелико. Другое столь же замечательное явление солнечной системы это малый эксцентриситет орбит планет и спутников, между тем как орбиты комет очень растянуты, так что в этой системе орбиты не представляют промежуточных переходов от больших эксцентриситетов к малым. Здесь мы точно так же вынуждены признать действие регулярной причины: случай не придал бы почти кругообразной формы орбитам всех планет н их спутников; поэтому необходимо, чтобы причина, определившая движения этих тел, сделала их почти круговыми. Необходимо кроме того, чтобы большие эксцентриситеты орбит комет вытекали из существования этой причины, которая в то же время не оказывала бы влияния на направление их движений; ибо оказывается, что существует почти столько же комет с обратным движением как с прямым и что среднее наклонение всех их орбит к эклиптике очень близко половине прямого угла, как это должно было бы быть, если бы эти тела были рассеяны случайно. Какова бы ни была природа той причины, о которой идет речь, раз она вызвала или направила движения планет, необходимо, чтобы она охватывала все этн тела, а ввиду расстояний, которые разделяют их, ею могла бы быть только жидкость громадного протяжения: чтобы дать в одном и том же направлении почти круговое движение вокруг солнца, необходимо, чтобы эта жидкость окружала это светило подобно атмосфере. Изучение планетных движений приводит нас, следовательно, к мысли, что вследствие необычайного жара атмосфера солнца простиралась первоначально за пределы орбит всех планет и мало-помалу сжалась до настоящих пределов. В том первичном состоянии, в котором мы предполагаем солнце, оно походило на туманные пятна, которые кажутся в телескоп состоящими из более или менее блестящего ядра, окруженного туманностью, которая, все уплотняясь на поверхности ядра в один прекрасный день должна превратить его в звезду. Если мы будем считать по аналогии, что все звезды произошли таким образом, то можно вообразить, что их предыдущему состоянию туманности в свою очередь предшествовали другие состояния, при которых туманная материя была все более и более рассеяна, а ядро все менее н менее блестяще и плотно. Таким образом, восходя все дальше, насколько это возможно, мы приходим к туманности до такой степени рассеянной, что мы лишь с трудом могли бы подозревать ее существование. Таково на самом деле первичное состояние туманных пятен, исследованных Гершелем с особою тщательностью при помощи его сильных телескопов, пятен, на которых он проследил прогресс уплотнения, не на одной, так как прогресс этот может стать заметным для нас только через столетия, но на их совокупности; подобно тому как в большом лесу можно проследить рост деревьев на отдельных деревьях разного возраста, из которых он состоит. Сначала он наблюдал туманную материю рассеянную в виде отдельных скоплений в разных частях неба, на большом протяжении его. Он заметил, что в некоторых скоплениях эта материя слегка уплотнена вокруг одного или нескольких мало блестящих ядер. В других туманных пятнах эти ядра блестят сильнее сравнительно с окружающей их туманностью. Если атмосферы отдельных ядер обособляются вследствие дальнейшего уплотнения, то возникают сложные туманные пятна, состоящие из очень близко расположенных блестящих ядер, окруженных, каждое, атмосферой: иногда, равномерно уплотняясь, туманная материя образовывала туманные пятна, носящие название планетных. Наконец еще ббльшая степень уплотнения превращает эти туманные пятна в звезды. Классификация туманных пятен согласно этой философской точке зрения указывает на крайнюю вероятность их будущего превращения в звезды и предшествующего состояния туманности существующих звезд. Следующие соображения служат подтверждением доказательств, выведенных из этих аналогий. Уже давно особенное расположение некоторых звезд, доступных невооруженному глазу, поражало наблюдателей философов. Уже Митчель заметил, как мало вероятно, чтобы звезды созвездия Плеяд, напр., так тесно заполнили бы небольшое пространство, которое их вмещает, только благодаря шансам случая; отсюда он заключил, что эта группировка звезд, так же как и другие подобные ей, является следствием одной первоначальной причины, одного общего закона природы. Эта группировка является необходимым результатом уплотнения туманных пятен с несколькими ядрами; ибо очевидно, что так как туманная материя постоянно притягивается различными ядрами, они должны со временем образовать группу звезд, подобную группе Плеяд. Точно так же уплотнение туманных пятен с двумя ядрами образует звезды, расположенные очень близко друг от друга и вращающиеся одна вокруг другой, подобно звездам, соответствующие движения которых уже наблюдались Гершелем. Таковы также шестьдесят первая и следующие за нею звезды Лебедя, у которых Бессел заметил 846 собственные движения такие значительные и так мало различающиеся, что близость этих светил друг к другу и их движение вокруг общего центра тяжести не должны оставлять ни малейшего сомнения. Таким образом из прогресса уплотнения туманной материи мы заключаем, что солнце было некогда окружено громадной атмосферой, взгляд, к которому, как мы видели, приводит изучение явлений солнечной системы. Это замечательное совпадение придает существованию такого предшествующего состояния солнца вероятность, очень близкую к достоверности. Но каким образом солнечная атмосфера определила движения вращения вокруг оси и обращения планет и спутников? Если бы тела ,*ти глубоко проникали в эту атмосферу, то ее сопротивление заставило бы их упасть на солнце. Это приводит к мысли о большой вероятности того, что планеты образовались на последовательных границах солнечной атмосферы, которая, сжимаясь по мере охлаждения, должна была выделить в плоскости своего экватора пояса паров, превратившиеся благодаря взаимному притяжению их молекул в различные сфероиды. В моем Изложении системы мира я пространно развил эту гипотезу, которая, как мне кажется, согласна со всеми явлениями, встречающимися в этой системе. По этой гипотезе кометы представляют нечто чужое планетной системе. Связывая их образование с образованием туманных пятен, можно их рассматривать как небольшие туманные пятна с ядрами, блуждающие от одних солнечных систем к другим и образовавшиеся вследствие уплотнения туманной материи, в таком изобилии рассеянной во вселенной. Кометы явились бы таким образом по отношению к нашей системе тем же, чем аэролиты по отношению к земле, для которой они по-видимому чужды. Когда этн светила делаются для нас видимыми, они представляют такое полное сходство с туманными пятнами, что их часто путают; н только по их движению да по тому, что все туманные пятна, заключающиеся в той части неба, где они появляются, известны, удается их различить. Это предположение удачно объясняет большое протяжение, которое занимают головы н хвосты комет по мере приближения к солнцу, а также чрезвычайную разреженность этих хвостов, которые, несмотря на свою громадную толщу, не могут заметно ослабить сияния звезд, видимых сквозь них. Когда небольшие туманные пятна достигают той части пространства, в которой притяжение солнца является преобладающим и которую мы назовем сферой действия этого светила, она заставляет их описывать эллиптические илн гиперболические орбиты. Но так как скорость их равно возможна по всем направлениям, они должны двигаться безразлично по всем направлениям и под всевозможными наклонениями к эклиптике; что и согласуется с наблюдениями. Большой эксцентриситет кометных орбит также вытекает из предыдущей гипотезы. В самом деле, если эти орбиты имеют эллиптическую форму, то они очень удлинены, потому что их большие оси по меньшей мерс равны радиусу сферы действия солнца. Но эти орбиты могут иметь гиперболическую форму, и если оси этих гипербол пе очень велики сравнительно со средним расстоянием солнца от земли, то движение комет, которые их описывают, будет казаться заметно гиперболическим. Между тем из ста комет, элементы которых уже известны, ни одна как известно не кажется движущейся по гиперболе; очевидно, что шансы, дающие заметную гиперболу, должны быть крайие редки сравнительно с шансами противоположными. Кометы так малы, что становятся видимыми только тогда, когда их расстояние в перигелии незначительно. До сих пор это расстояние не превышало диаметра земной орбиты более чем в два раза, а всего чаще оно бывало меньше радиуса этой орбиты. Для того, чтобы приблизиться к солнцу на такое близкое расстояние, скорость их в момент вступления в сферу действия очевидно должна иметь величину и направление, заключенные в тесных пределах. Определяя посредством анализа вероятностей отношение шансов, которые в этих пределах дают заметную гиперболу, к шансам, дающим орбиту, которую можно смешать с параболою, я нашел, что по меньшей мере шесть тысяч шансов против одного за то, что туманное пятно, проникнувшее в сферу действия солнца и доступное наблюдению, опишет или очень удлиненный эллипс или гиперболу, которая по величине своей оси заметно приближается к параболе в наблюдаемой части. Поэтому не удивительно, что до сих пор гиперболическое движение не узнавалось. Притяжение планет, а также может быть и сопротивление эфирной среды должны были превратить многие кометные орбиты в эллипсы, у которых большая ось меньше радиуса действия солнца, что увеличивает шансы эллиптических орбит. Можно допустить, что подобное изменение имело место для кометы 1759-го года и некоторых других, обращение которых установлено. Я обращусь теперь к рассмотрению земли и жидкостей, покрывающих ее. Явлением, могущим пролить больше всего света на правильность ее пластов, оказывается изменение тяжести на ее поверхности. Это изменение определяется либо посредством перенесения в разные места одного и того же маятника, причем считают число его колебаний в известный промежуток времени; либо непосредственным измерением длины секундного маятника. Опыты эти легки и могут быть теперь чрезвычайно точны. Ввиду их важности для теории земли их особенно надо рекомендовать мореплавателям. Уже произведенные опыты, хотя и оставляют желать многого, обнаруживают тем не менее большую
правильность и стремление приблизиться к простейшему закону изменения, т. е. закону квадрата sinus'a широты; северное и южное полушария не представляют в этом отношении заметной разницы или по крайней мерс такой, которую нельзя было бы приписать ошибкам наблюдений. Если взять за единицу длину секундного маятника на экваторе, то все эти наблюдения в совокупности дадут пятьдесят четыре десятитысячных для коэффициента члена пропорционального квадрату sinin'a широты. Мои формулы вероятности дают в применении к этому результату больше двух тысяч шансов против одного за то, что истинный коэффициент заключается в пределах от пяти тысячных до шести тысячных. Если земля представляет эллипсоид вращения, то мы узнаем ее сжатие, вычтя коэффициент закона тяготения из 875 стотысячных; коэффициент пяти тысячных соответствует таким образом сжатию xlni- Следовательно, будет больше четырех тысяч шансов против одного за то, что сжатие земли меньше этой дроби. Миллионы миллиарде л\ шансов против одного будут за то, что оно меньше того, которое соответствует однородности земли, и за то, что плотность земных пластов увеличивается по мере их приближения к центру этой планеты. Равномерность тяжести на ее поверхности доказывает, что они расположены симметрично вокруг этой точки. Оба эти условия, неизбежные следствия жидкого состояния, делают весьма правдоподобным, что вся зем;я была первоначально в этом состоянии, в которое мог ее привести только необычайный жар; а это подтверждает гипотезу, предложенную нами относительно образования небесных тел. По предложению Академии Наук в начале прошлого столетия были произведены в Бресте наблюдения над приливом и отливом, продолжавшиеся в течение шести лет подряд. Положение этого порта очень блаюприятмо для такого рода наблюдений. Он соединен с морем каналом, оканчивающимся очень большим рейдом, в глубине которого и бьл построен порт. Таким образом неправильности в движении моря очень ослабляются пока достигают порта, подобно тому как колебания в барометре, происходящие от неправильного движения корабля, ослаб.; яются сужением трубки этого инструмента. Кроме того, так как прилив и отлив в Бресте значительны, случайные колебания, зависящие от ветра, оказывают слабое влияние на это явление; в наблюдениях над приливом и отливом там действительно замечается большая правил! ность, которую совсем не должна нарушать маленькая речка, теряющаяся в громадном рейде этого порта. Пораженный этой правильностью, я обратился к правительству с просьбой повелеть произвести в Бресте новый ряд наблюдений в продолжение всего периода движения узлов лунной орбиты, что и было исполнено. Эти наблюдения начались с первого июня 1806-го года и с того времени продолжаются без перерыва до сих пор, так что превышают уже половину периода, о котором я упомянул. Они представили мне слитком благоприятный случай применить мои формулы вероятности к одному из величайших явлений природы, чтобы я не воспользовался им. Я нашел, что они с большой вероятностью устанавливали законы высот и промежутков между приливами и отливами в зависимости от фаз луны, времен года и расстояний луны и солнца до земли. В этом отношении эти наблюдения самым совершенным образом согласуются с теми, которые были сделаны сто лет тому назад. Они в такой же мере согласуются с общим законом тяготения, который мог быть открыт при помощи их ОД1П X. Согласная с этим законом теория прилива и отлива, данная мною в четвертой книге Небесной механики, покоится на одном принципе диньмики, который делает ее очень простой и независимой от местных условий порта, условий, слишком сложных для того, чтобы их можно было подвергнуть исчислению. При помощи этого принципа они входят как фоизвольные постоянные в результаты анализа, долженствующие таким образом представлять эти наблюдения, если всемирное тяготение действительно является истинной причиной морских приливов и отливов. Вот этот принцип, применимый и ко многим другим явлениям: состояние системы тел, а которой первоначальные условия движения исчезли вследствие испытываемых ею сопротивлений, возобновляет ся периодически, как силы, действующие в ней. Присоединив этот принцип к принципу совместного существования очень малых коле- баий, я нашел выражение высоты прилива и отлива, в котором произвольные постоянные содержат действие местных условий порта. Многочисленные различия приливов и отливов и их видоизменения, происходящие от этих условий, все представлены этим выражением с чрезвычайной точностью. Одним из самых замечательных видоизменений такого рода является запаздывание на полтора дня самых больших и самых малых приливов и отливов в моменты сизигий и квадратур. Выражение, о котором идет речь, указывает, что это замедление зависит от скорости движения светила, влияющего на океан, в связи с местными условиями; и что та же самая причина вызывает в Бресте приращение в отношении действий солнца и луны. Анализ дает различные способы определения этого приращения с помощью наблюдений, по которым оно равняется приблизительно одной восьмой истинного отношения. Действие солнца и луны вызывает без сомнения в нашей атмосфере, которая отделяет их от океана, колебания подобные явлениям прилива и отлива; но они очень слабы и для того, чтобы выделить их из совокупности атмосферных движений, необходимо будет произвести при помощи превосходных барометров длинный ряд наблюдений главным образом на экваторе, где нерегулярные атмосферные изменения незначительны. Принцип, который положен в основание моей теории приливов и отливов, при обобщении его может быть распространен на все явления случая, к которому присоединяются непостоянные причины и который все-таки следует правильным законам. Действие этих причин вызывает в результатах большого числа явлений различия, которые следуют одним и тем же законам, что и можно обнаружить с помощью анализа вероятностей. По мере увеличения числа явлений эти различия обнаруживаются со все возрастающей вероятностью, которая слилась бы с достоверностью, если бы число явлений стало бесконечным. Эта теорема аналогична той, которую я развил раньше относительно действия постоянных причин. Следовательно, всякий раз как мы видим, что причина, ход которой правилен, может влиять на известный род событий, мы можем пытаться узнать ее влияние, умножая наблюдения; и когда нам кажется, что это влияние обнаруживается, анализ вероятностей определяет вероятность ее существования и ее напряженности. Так, ввиду того, что колебание температуры при переходе от дня к ночи может менять давление атмосферы, а, следовательно, и высоту барометра, естественно думать, что с увеличением числа наблюдений над этой высотой должно обнаружиться влияние солнечной теплоты. В самом деле на экваторе, где это влияние по-видимому всего больше, уже давно установлено небольшое суточное колебание барометра, maximum которого имеет место около девяти часов утра, a minimum около четырех часов вечера. Второй maximum имеет место около одиннадцати часов вечера, а второй minimum около четырех часов утра. Ночью колебания меньше чем днем, когда они совершаются в пределах двух миллиметров. Непостоянство нашего климата не скрыло этого колебания от наших наблюдателей, хотя оно здесь и меньше чем между тропиками. Применяя формулы вероятности к многочисленным точным наблюдениям, которые производил в течение нескольких последовательных лет Рамонд, мы видим, что они делают крайне вероятным существование этого явления. Эти наблюдения позволили ему открыть еще одно колебание барометра, находящееся в зависимости от времен года. Он находит первый maximum средней месячной высоты барометра вскоре после зимнего солнцестояния, а первый minimum в апреле; второй maximum имеет место около летнего солнцестояния, а второй minimum в сентябре. Анализ показывает нам, что эти результаты отмечены уже как правдоподобные. Кроме того они подтверждаются и другими наблюдениями. Время покажет, на одни и те же ли месяцы приходится наибольшая и наименьшая высота в разных климатах. Эти годичные и суточные колебания барометра зависят без сомнения, подобно пассатам и муссонам, от солнечной теплоты в связи с вращательным движением земли. Однако почти невозможно подвергнуть исчислению столь сложные явления. Анализ вероятностей может служить также для того, чтобы проверять существование или влияние известных причин, действие которых, как нам казалось, заметно на организованных существах. Изо всех орудий, которые мы можем применять для познавания незаметных сил природы, самыми чувствительными являются нервы, в особенности если какие-либо особые причины возбуждают их чувствительность. С их помощью было открыто слабое электричество, которое развивается от соприкосновения двух разнородных металлов, что открыло перед физиками и химиками обширное поле исследований. Своеобразные явления, происходящие от необычайной чувствительности нервов у некоторых люден, породили различные мнения насчет существования некоторого нового агента, названного животным магнетизмом, насчет действия обыкновенного магнетизма и насчет влияния солнца и луны при некоторых нервных страданиях; наконец насчет впечатлений, испытывать которые может заставить близость металлов или текущей воды. Естественно думать, что действие этих причин очень слабо и что оно легко может быть нарушено случайными обстоятельствами; так что нельзя отвергать его существования из-за того, что в некоторых случаях оно не обнаружилось. Мы так далеки от знания всех сил природы и их различных проявлений, что было бы мало научно отрицать явления, только потому что они необъяснимы при современном состоянии наших знаний. Мы должны только исследовать их с тем большими вниманием и тщательностью, чем нам кажется труднее допустить их; здесь-то становится необходимым исчисление вероятностей для того, чтобы определить до каких пор следует умножать наблюдения или опыты, чтобы получить в пользу обнаруживающихся в них сил вероятность, которая одержала бы верх над теми основаниями, на которых их все-таки можно было бы не признавать. Исчисление вероятностей позволяет оценить достоинство и недостатки методов, применяемых в науках, основанных на догадках. Так, чтобы узнать, который из вошедших в употребление методов лечения какой-либо болезни является наилучшим, достаточно испытать каждый из них на одном и том же числе больных при совершенно сходных условиях; преимущество самого выгодного метода будет обнаруживаться все более и более, по мере того как это число будет возрастать; а 847
исчисление дает нам соответственную вероятность его преимущества и отношение, выражающее предпочтительность его в сравнении с остальными. Применение исчнслення вероятностей к нравственным наукам. Мы только что убедились в выгоде, предоставляемой анализом вероятностей при изыскании законов естественных явлений, причины которых неизвестны или же слишком сложны для того, чтобы действия их могли быть подчинены вычислению. То же самое относится почти ко всем объектам нравственных наук. Столько причин непредвиденных, или скрытых, или неподдающихся оценке влияет на человеческие учреждения, что судить о их следствиях a priori невозможно. Ряд событий, которые время приносит с собою, раскрывает эти следствия и указывает средства для предотвращения тех из них, которые пагубны. В этом смысле составлялись часто мудрые законы; но так как при эгом нренебрегалось сохранение мотивов, то многие из них были отменены, как бесполезные, и понадобилось для их восстановления, чтобы тяжелый опыт снова заставил почувствовать их необходимость. Весьма важным является, следовательно, составление в каждой отрасли общественного управления точного реестра эффектов, которые произведены различными применявшимися средствами, представляющими из себя соответствующее число опытов, произведенных в большом масштабе правительствами. Применим к политическим и нравственным наукам метод, основанный на наблюдении и исчислении, метод, который служил нам так хорошо в науках естественных. Не будем противополагать бесполезного и часто опасного сопротивления неизбежным следствиям прогресса просвещения, но будем изменять лишь крайне осторожно наши учреждения и обычаи, к которым мы давно уже применились. Мы хорошо знаем по опыту прошлого неудобства, которые они представляют, но мы не знаем, как велико будет зло, которое может причинить их изменение. При такой неизвестности теория вероятностей предписывает избегать всякого изменения: особенно следует избегать внезапных изменений, которые в нравственном порядке, как и в физическом, никогда не происходят без большой потери живой силы. Исчисление вероятностей уже применялось с успехом но многим предметам нравственных паук. Я здесь представляю его главные результаты. О вероятности свидетельских показаний. Ввиду того, что большая часть наших суждений основана на вероятности свидетельских показаний, очень важным является подчинить ее исчислению. Это, правда, бывает часто невозможно из-за трудности оценить правдивость свидетелей, а также из-за большого числа обстоятельств, сопровождающих факты, о которых они свидетельствуют. По во многих случаях возможно бывает разрешать задачи, имеющие большое сходство с вопросами, которыми мы задаемся, и решение которых может быть рассматриваемо, как приближение годное к руководству и предостерегающее от ошибок и опасностей, которым нас подвергают неверные заключения. Приближение такого рода, если оно хорошо проведено, всегда следует предпочесть самым правдоподобным по-видимому заключениям. Попробуем дать несколько общих правил для достижения этой цели. Вынут только один номер из урны, содержащей их тысячу. Одни из свидетелей этого изъятия объявляет, что вышел Х«> 79; спрашивается вероятность этого выхода. Положим, что нам известно но опыту, что свидетель этот обманывает один раз из десяти, так что вероятность его свидетельства 9/10. Отмечено событие: свидетель утверждает, что вышел Mb 79. Это событие может явиться результатом двух следующих гипотез- а именно, что свидетель говорит правду, или же, что он обманывает. Согласно принципу, изложенному нами относительно вероятности причин, выведенной из наблюденных событий, следует сперва определить a priori вероятность этого события прн каждой гипотезе. При первой вероятность того, что свидетель объявит Mb 79 есть в то же время вероятность изъятия этого номера, т. е. 1/1000. Надо помножить ее на вероятность 9/10 правдивости свидетеля; следовательно будем иметь 9/10000 для вероятности события, наблюденного при этой гипотезе. Если свидетель обманывает, то Mb 79 не выходил; и вероятность этого случая равна 999/1000. Но, чтобы объявить выход этого номера, свидетель должен его выбрать из 999 невышедших номеров; а так как предполагается, что у него нет никакой причины отдать предпочтение одним номерам перед другими, то вероятность того, что он выберет Mb 79 равна 1/999; умножая эту вероятность на предыдущую, получим 1/1000 для вероятности того, что свидетель объявит Mb 79 при второй гипотезе. Надо еще умножить эту вероятность на вероятность 1/10 самой гипотезы, что дает 1/10000 для вероятности этого события при этой гипотезе. Если теперь составить такую дробь, числителем которой была бы вероятность при первой гипотезе, а знаменателем - сумма вероятностей при обеих гипотезах, то получим, согласно шестому принципу, вероятность первой гипотезы, и вероятность эта была бы 9/10, т. е. та же правдивость свидетеля. Это и есть также вероятность изъятия № 79. Вероятность того, что свидетель лжет и что №79 не вышел, равна 1/10. 848 Если бы свидетель, желая обмануть, был как-нибудь заинтересован в выборе Mb 79 среди невышедших номеров; если бы он рассчитывал, напр., что, поставивши на этот номер значительную ставку, объявлением о выходе этого номера он увеличит свой кредит, то вероятность, что он выберет этот номер, не будет как прежде 1/999; она может тогда быть 1/2, 1/9 и т. д., смотря по тому, насколько он будет заинтересован в объявлении его выхода. Полагая ее равной 1/9, надо умножить на эту дробь вероятность 999/1000, чтобы получить при гипотезе обмана вероятность наблюденного события, которую надо умножить еще на 1/10; что дает 111/10000 для вероятности этого события при второй гипотезе. Вероятность первой гипотезы, или выхода Mb 79, сводится тогда, по предыдущему правилу, к 9/120. Следовательно, она будет очень ослаблена, если принять во внимание интерес, который может иметь свидетель, объявляя о выходе Mb 79. Правда, тот же интерес увеличивает вероятность 9/10 того, что свидетель скажет правду, если выйдет Mb 79. Но вероятность эта не может превысить единицы или 10/10; таким образом вероятность выхода Mb 79 не превысит 10/121. Здравый смысл подсказывает нам, что этот интерес должен внушать недоверие, а исчисление оценивает его влияние. A priori вероятность номера, объявленного свидетелем, равна единице, деленной на число номеров в урне; она превращается, в силу свидетельства, в самую правдивость свидетеля; следовательно, она может быть ослаблена этим свидетельством. Если, напр., в урне заключается только два номера, что дает 1/2 для вероятности a priori выхода № 1; и если правдивость того свидетеля, который о нем объявляет, равна 4/10, то выход этот становится вследствие этого менее вероятным. В самом деле, очевидно, что свидетель, будучи в этом случае более склонным ко лжи, чем к истине, своим свидетельством должен уменьшать вероятность свидетельствуемого факта каждый раз, как эта вероятность равняется или превосходит 1/2. Но если в урне три номера, вероятность a priori выхода Mb 1 увеличивается показанием свидетеля, правдивость которого превышает 1/3. Предположим теперь, что урна содержит 999 черных шаров и один белый, и что по изъятии из нее одного шара свидетель этого изъятия объявляет, что вынут белый шар; вероятность наблюденного события, определенная a priori при первой гипотезе, равняется здесь, как и в предшествующем вопросе, 9/10000. Но при предположении, что свидетель обманывает, белый шар не вышел и вероятность этого случая равна 999/1000. Надо умножить ее на вероятность 1/10 обмана, что дает 999/10000 для вероятности наблюденного события при второй гипотезе. Эта вероятность равнялась лишь 1/10000 в предшествующей задаче: такая большая разница зависит от того, что в случае выхода черного шара свидетелю, желающему обмануть, не остается выбора из 999 не вышедших шаров, если он хочет объявить о выходе белого шара. Если теперь составить две дроби, числителями которых были бы вероятности при каждой гипотезе, и общий знаменатель которых был бы равен сумме этих вероятностей, то вероятность первой гипотезы и выхода белого шара равнялась бы 9/1008, а вероятность второй гипотезы и выхода черного шара 999/1008. Эта последняя вероятность очень приближается к достоверности; она приблизилась бы еще более и равнялась бы 999999/1000008, если бы урна содержала миллион шаров, из которых только один был бы белый, так как выход белого шара стал бы тогда гораздо более необычайным. Из этого мы видим, как возрастает вероятность обмана по мере того, как самый факт становится более необычайным. До сих пор мы предполагали, что свидетель совсем не ошибается; но если допустить еще возможность его ошибки, то необычайный факт делается еще невероятнее. Тогда вместо двух гипотез будем иметь четыре следующие, а именно: гипотезу, что свидетель не обманывает и сам не ошибается; что свидетель не обманывает и ошибается; гипотезу, что свидетель обманывает и не ошибается; и наконец, что свидетель обманывает и ошибается. Определяя a priori при каждой из этих гипотез вероятность наблюденного события, находим, согласно шестому принципу, вероятность, что указанный факт ложен, равной дроби, числитель которой есть число черных шаров в урне, умноженное на сумму вероятностей того, что свидетель не обманывает и ошибается, или же обманывает и не ошибается, а знаменатель которой равен этому числителю, увеличенному на сумму вероятностей того, что -свидетель не обманывает и не ошибается, или же обманывает и вместе с тем ошибается. Отсюда видно, что если число черных шаров в урне очень велико, что делает необычайным выход белого шара, вероятность того, что указанный факт не существует, чрезвычайно приближается к достоверности. Из распространения этого следствия на все необычайные факты вытекает, что вероятность ошибки, или же лжи свидетеля, делается тем больше, чем более необычен рассматриваемый факт. Некоторые авторы утверждали противное, основываясь на том, что, так как форма необычайного факта совершенно подобна форме обычного, то одни и те же мотивы должны нас побуждать верить свидетелю одинаково, утверждает ли он, что тот или что другой из этих фактов имел место. Простой здравый смысл опровергает столь странное утверждение; но исчисление вероятностей, подтверждая указания здравого смысла, еще более оценивает правдоподобность свидетельств о необычайных фактах. Можно настаивать и сделать предположение, что из двух свидетелей, равно заслуживающих доверия, один показывает, что видел мерт-
иым лвс недели тому назад человека, относительно которого второй свидетель покалывает, что видел его вчера полного жизни. Ни тот, ни другой из этих фактов не представляет ничего неправдоподобного. Следствием их обоих, взятых вместе, является воскресение этого человека; но так как показания прямо не касаются его, то его необычайность вовсе не должна ослаблять доверия, которого факты эти заслуживают (Encyclopedic art. Certitude). Однако, если бы следствие, вытекающее из совокупности свидетельских показаний, было невозможно, то одно из них обязательно должно было бы быть ложным; невозможное же следствие есть предел следствий необычайных, как ошибка есть предел неправдоподобности; значение свидетельского показания, которое делается равным нулю в случае невозможного следствия, должно быть, следовательно, очень ослаблено в случае необычайного следствия, что на самом деле и подтверждается исчислением вероятностей. Чтобы показать это, рассмотрим две урны А и В, первая из которых содержит миллион белых шаров, а вторая - миллион черных. Из одной из этих урн вынимают шар и перекладывают его во вторую, из которой кггем снова берут шар. Два свидетеля, один - первого тиража, другой - второго, показывают, что они видели как был вынут белый шар. Каждое показание, взятое отдельно, не представляет ничего неправдоподобного, и легко видеть, что вероятность тою факта, о котором дается показание, является правдивостью самого свидетеля. Но из совокупности показаний следует, что белый шар был вынут из урны А при нервом тираже и что затем, после того как он был положен в урну В, он появился снова при втором тираже, что весьма необыкновенно, ибо эта вторая урна содержит тогда один белый шар на миллион черных, а поэтому вероятность вынуть из нее белый шар равна 1/1000001. Чтобы определить проистекающее отсюда ослабление вероятности показаний обоих свидетелей, мы заметим, что наблюденным событием является здесь утверждение каждого из них, что он видел как был вынут белый шар. Пусть дробь 9/10 выражает вероятность того, что он показывает правду; это может иметь место в настоящем случае, когда свидетель не обманывает и не ошибается и когда он обманывает и вместе с тем ошибается. Можно сделать четыре следующих предпо- ложепия. 1) Первый и второй свидетели говорят правду. В этом случае белый шар сперва был вынут из урны А, и вероятность этого события равна 1/2, гак как шар вынутый при нервом тираже одинаково мог появиться из той или другой урны. Затем вынутый и положенный в урну В шар снова появился при втором тираже; вероятность этого события 1/1000001; вероятность показанного факта равна поэтому 1/2000002. Умножив ее на произведение вероятностей 9/10 и 9/10, что свидетели говорят правду, получим 81/200000200 для вероятности наблюденного события при этой первой гипотезе. 2) Первый свидетель говорит правду, а второй - нет, потому ли что он обманывает и не ошибается, или потому, что он не обманывает и ошибается. Значит белый шар вышел из урны А при первом тираже, и вероятность этого события 1/2. Затем, после того как этот шар был положен в урну В, из этой последней был вынут черный шар: вероятность этого изъятия равна 1000000/1000001; мы имеем следовательно 1000000/2000002 для вероятности сложного события. Умножив ее на произведение двух вероятностей 9/10 и 1/10, что первый свидетель говорит правду, а второй - нет, получим 9000000/200000200 для вероятности наблюденного события при второй гипотезе. 3) Первый свидетель говорит неправду, а второй говорит правду. Значит черный шар вышел из урны В при первом тираже и, после того как он был положен в урну А, из этой последней был вынут белый шар. Вероятность первого из этих событий равна 1/2, а второго 1000000/1000001: следовательно вероятность сложного события равна 1000000/2000002. Умножив ее на произведение вероятностей 1/10 и 9/10, что первый свидетель показывает ложно, а второй говорит правду, получим 9000000/200000200 для вероятности наблюденного события, соответствующей этой гипотезе. 4) Наконец оба свидетеля показывают ложно. Значит черный шар был вынут из урны В при нервом тираже, затем, после того как он был положен в урну А, он снова появился при втором тираже. Вероятность этого сложного события равна 1/2000002. Умножив ее на произведение вероятностей 1/10 и 1/10, что каждый свидетель показывает ложно, получим 1/200000200 для вероятности наблюденного события при этой гипотезе. Теперь, чтобы узнать вероятность того, что было показано обоими свидетелями, а именно, что при каждом тираже был вынут белый шар, надо разделить вероятность, соответствующего первой гипотезе, на сумму вероятностей, соответствующих всем четырем гипотезам, и тогда получим для этой вероятности 81/18000082 дробь чрезвычайно малую. Если бы оба свидетеля утверждали, первый, что белый шар был вынут из одной из двух урн А и В; второй, что белый шар был подобным же образом вынут из одной из двух урн А и В, во всем сходных с первыми; вероятность показаний обоих свидетелей была бы произведением вероятностей их свидетельства или 81/100: следовательно, она была бы по крайней мере в сто восемьдесят тысяч раз больше предыдущей. Отсюда видно, насколько ослабляет значение двух свидетельств их необычайное следствие, как в первом случае вторичное появление при втором тираже белого шара, который был вынут при первом. Мы не поверили бы свидетельству человека, который стал бы удостоверять, что при метании ста костей все они выпали одной и той же стороной: если бы мы сами были очевидцами этого события, мы поверили бы собственным глазам, лишь после того как подвергли бы тщательному рассмотрению все обстоятельства и после того как призвали бы в свидетели еще кого-либо, чтобы быть вполне уверенными, что тут не было ни галлюцинации, ни фокуса; но после этого рассмотрения мы не колеблясь признали бы его, невзирая на его чрезвычайное неправдоподобие, и никто не пытался бы прибегнуть для его объяснения к опровержению законов зрения. Отсюда мы должны заключить, что вероятность постоянства законов природы для нас выше вероятности, что упомянутое событие не должно иметь места, вероятности, которая в свою очередь выше вероятности большинства исторических фактов, считающихся несомненными. По этому можно судить каким огромным весом должны обладать свидетельские показания, чтобы можно было признать, что естественные законы нарушены, и каким злоупотреблением явилось бы применение к этому случаю обычных правил критики. Все, кто, не представляя такой вескости свидетельств, поддерживают выставляемые ими и противоречащие этим законам события, скорее ослабляют доверие, которое они желают внушить, чем усиливают его, потому что тогда эти рассказы делают очень вероятными заблуждение или ложь их авторов. Но то, что уменьшает доверие просвещенных людей, часто увеличивает доверие черни, всегда жаждущей чуда. Есть вещи, столь необычайные, что ничто не может поколебать их неправдоподобия; но действием господствующих взглядов это неправдоподобие может быть ослаблено настолько, что будет казаться меньшим, чем вероятность свидетельских показаний; когда же эти взгляды изменятся, нелепость, единодушно допущенная в том веке, который породил ее, явится для последующих веков лишь новым доказательством огромного влияния всеобщего мнения на лучшие умы. Два великих человека века Людовика XIV, Расин и Паскаль, являются поразительным примером этого. Прискорбно видеть с какою угодливостью Расин, этот замечательный художник человеческого сердца и совершеннейший изо всех поэтов, рассказывает о якобы чудесном исцелении молодой Перье, племянницы Паскаля, бывшей пансионеркой в аббатстве Порт-Рояль; тяжело читать рассуждения Паскаля, которыми он старается доказать, что это чудо было необходимо для религии, чтобы оправдать доктрину монахинь этого аббатства, в то время преследовавшихся иезуитами. Молодая Перье уже три с половиной года страдала слезной фистулой; она прикоснулась своим больным глазом к реликвии, которая будто бы была тернием из венца Спасителя, и тотчас же почувствовала себя исцеленной. Несколько дней спустя врачи и хирурги констатировали выздоровление, в котором по их мнению, природа и лекарство не принимали никакого участия. Это событие, случившееся в 1656 году, наделало много шума; «весь Париж», говорит Расин, «направился в Порт-Рояль». Толпа увеличивалась с каждым днем и казалось, что самому Господу было угодно питать благочестие народа большим числом чудес, совершившихся в этой церкви». В то время чудеса и волшебство не казались еще неправдоподобными; и к ним не сомневаясь причисляли все странное в природе, чего не могли объяснить иначе. Этот взгляд на необычайные явления встречается в самых замечательных сочинениях века Людовика XIV, даже в Опыте о человеческом разуме мудрого Локка, который говорит, имея в виду различные степени согласия; «хотя бы общий опыт и обычный ход вещей и имели полное основание влиять на ум людей, чтобы склонить их согласиться с тем, во что предлагается верить, или отказать в этом согласии, бывают однако случаи, где то, что есть странного в факте, нисколько не ослабляет того доверия, которое мы должны оказать искреннему свидетельству, служащему основанием этого факта. Если сверхъестественные события соответствуют целям, которые поставил себе тот, в чьей власти менять течение вещей в природе в данное время и при данных обстоятельствах, то ум наш может отнестись к ним с тем большим доверием, чем они выше обыкновенных наблюдений или даже чем в большем противоречии с ними они находятся». Ввиду того, что истинные принципы вероятности свидетельских показаний таким образом не признавались философами, которым разум главным образом обязан своим прогрессом, я счел своим долгом пространно изложить результаты исчисления для этого важного вопроса. Здесь является уместным исследовать знаменитый аргумент Паскаля, который английским математиком Крэгом был облечен в геометрическую форму. Несколько свидетелей показывают, что само Божество им поведало, что, согласившись с известной вещью, можно наслаждаться не одной или двумя, но бесконечным множеством счастливых жизней. Как бы мала ни была вероятность свидетельских показаний, если только она не бесконечно мала, очевидно, что выгода тех, кто соглашается с этим предписанием, бесконечно велика, потому что она является произведением этой вероятности на бесконечное благо: поэтому нельзя и колебаться, доставить ли себе эту выгоду. 849
Этот аргумент основан на бесконечном числе счастливых жизней, обещанных свидетелями именем Божества. Значит надо было бы делать то, что они предписывают, именно потому, что они в своих обещаниях переходят всякие границы, заключение, которое противно здравому смыслу. Исчисление и показывает нам, что именно это преувеличение обещаний ослабляет вероятность свидетельских показании до такой степени, что обращает ее в бесконечно малую или в нуль. В самом деле этот случай сводится к тому, когда свидетель объявляет выход наибольшего номера из урны, наполненной большим числом номеров, из которых был вынут только один, причем свидетель очень заинтересован в объявлении выхода этого номера. Мы раньше видели, насколько его заинтересованность ослабляет его свидетельство. Оценивая только 1/2 вероятность того, что свидетель, если он обманывает, выберет наибольший номер, получим после вычисления, что вероятность объявленного им меньше дроби, числитель которой единица, а знаменатель единица плюс половина произведения числа номеров на вероятность лжи, рассмотренную a priori, или независимо от объявленного. Чтобы провести сравнение между этим случаем и случаем, к которому относится аргумент Паскаля, достаточно представить номерами урны все возможные числа счастливых жизней, отчего число этих номеров становится бесконечным, и заметить, что, если свидетели обманывают, то самым выгодным для них является обещать вечное блаженство, чтобы аккредитовать свою ложь. Выражение вероятности их показания становится тогда бесконечно малым. После умножения ее на бесконечное число обещанных счастливых жизней, бесконечность пропадает в произведении, выражающем выгоду, которая вытекает из этого обещания, что и разбивает аргумент Паскаля. Рассмотрим теперь вероятность совокупности нескольких свидетельских показаний, касающихся определенного факта. Чтобы говорить о чем-нибудь определенном, предположим, что этим фактом будет выход номера из урны, содержащей сто номеров, из которой вынут только один. Два свидетеля этого тиража объявляют, что вышел N» 1, и спрашивается вероятность, вытекающая из совокупности этих свидетельств. Можно допустить следующие две гипотезы: свидетели говорят правду и свидетели обманывают. При первой гипотезе № 1 вышел, и вероятность этого события 1/100. Надо умножить ее на правдивость каждого свидетеля, которую предположим равной для одного 9/10 и для другого 7/10: получим, следовательно, 63/10000 для вероятности наблюденного события при этой гипотезе. При второй гипотезе № 1 не вышел, и вероятность этого события равна 99/100. Но тогда согласное показание свидетелей требует, чтобы, желая обмануть, они выбрали оба Jsfe 1 из 99 невышедших номеров: вероятность этого выбора есть произведение дроби 1/99 на саму себя; затем надо умножить эти две вероятности друг на друга и на произведение вероятностей 1/10 и 3/10, что свидетели обманывают; таким образом получим 1/330000 для вероятности наблюденного события при второй гипотезе. Теперь получим вероятность свидетельствуемого факта или выхода № 1, разделив вероятность, соответствующую первой гипотезе, на сумму вероятностей, соответствующих обеим гипотезам. Эта вероятность будет, следовательно, 2079/2080, а вероятность того, что этот номер не вышел, и вероятность обмана свидетелей будет 1/2080. Если бы урна содержала только номера 1-й и 2-й, то тем же самым способом мы нашли бы 21/22 для вероятности выхода № 2, и, следовательно, 1/22 для вероятности обмана со стороны свидетелей, вероятности, которая по крайней мере в девяносто четыре раза больше предшествующей. Отсюда видно, как уменьшается вероятность обмана со стороны свидетелей, когда факт, относительно которого они дают показания, сам по себе менее вероятен. В самом деле, понятно, что тогда согласие свидетельских показаний между собой, если свидетели обманывают, менее возможно, если только они не сговорились, чего мы здесь не предполагаем. В предыдущем случае, в котором урна содержит только два номера, и вероятность a priori показуемого факта равна поэтому 1/2, вероятность, вытекающая из свидетельских показаний, есть произведение правдивостей свидетелей, деленное на это произведение, сложенное с произведением соответственных вероятностей обмана с их стороны. Нам остается рассмотреть влияние времени на вероятность фактов, переданных рядом свидетельств по преданию. Ясно, что эта вероятность должна уменьшаться по мере того как ряд удлиняется. Если факт сам по себе совершенно невероятен, то вероятность, которую он приобретает от свидетельских показаний, убывает вместе с произведением вероятностей правдивости свидетелей. Если факт сам по себе обладает вероятностью, если, напр., этим фактом является выход № 2 из урны, которая содержит конечное число номеров и из которой, как достоверно известно, вынут один номер; то, что ряд преданий прибавляет к этой вероятности, убывает вместе с произведением, первый множитель которого есть отношение числа номеров урны без одного к тому же числу; а каждый из остальных множителей которого есть правдивость каждого свидетеля, уменьшенная на отношение вероятности обмана с его стороны к числу номеров урны без одного; так что предел вероятности факта есть предел вероятности этого факта, рассмотренного a priori или 850 независимо от свидетельских показаний, вероятность равная единице, деленной на число номеров в урне. Действие времени поэтому непрерывно ослабляет вероятность исторических фактов, подобно тому, как оно кладет свой отпечаток на самые прочные памятники. Можно, правда, замедлить его, умножая и сохраняя свидетельские показания и те памятники, на которые они опираются. Книгопечатание является для этой цели могущественным средством, к несчастью неизвестным древним. Несмотря на бесконечные преимущества, предоставляемые им, физические и нравственные революции, которым навсегда останется подвержена поверхность земного шара, в соединении с неизбежным действием времени, кончат тем, что по прошествии тысячелетий сделают сомнительными исторические факты ныне достоверные. Крэг пытался подвергнуть исчислению постепенное ослабление доводов христианской религии: предполагая, что конец света наступит тогда, когда она потеряет свою вероятность, он находит, что это должно случиться через 1454 года после момента его вычисления. Но анализ его настолько же ошибочен, насколько странна гипотеза о продолжительности существования мира. О выборах и о решениях собраний. Вероятность решений какого-либо собрания зависит от большинства голосов, от его просвещенности и от беспристрастия членов, составляющих это собрание: столько страстей и частных интересов так часто сюда примешивают свое влияние, что невозможно подчинить исчислению эту вероятность. Но все-таки существует несколько общих результатов, продиктованных простым здравым смыслом и подтверждаемых исчислением. Если, напр., собрание очень мало сведуще в вопросе, представленном на его решение, если этот вопрос требует тонких рассуждений, или же истина в этом пункте противоречит имеющимся предрассудкам, так что более одного шанса против одного, что каждый голосующий уклонится от нее, тогда решение большинства будет вероятно дурным, и опасения на этот счет будут тем более справедливы, чем многочисленнее будет собрание. Ради общественных интересов следует поэтому предоставлять собранию решать только вопросы, доступные большей его части; важно, чтобы просвещение было распространено повсюду и чтобы хорошие книги, основанные на разуме и опыте, наставляли тех, кто призван решать судьбу себе подобных или управлять ими, и предостерегали от ложных взглядов и невежественных предубеждений. Ученые часто имеют случай наблюдать, что первое впечатление нередко обманчиво и что истина не всегда правдоподобна. Трудно узнать и определить волю собрания среди разнообразия мнений его членов. Попытаемся дать относительно этого несколько правил, рассматривая два самых обыкновенных случая: выбор между несколькими кандидатами и выбор между несколькими предложениями, относящимися к одному и тому же предмету. Когда собранию надлежит сделать выбор из нескольких кандидатов, явившихся на одно или несколько однородных мест, то самым простым кажется предоставить всякому голосующему написать на записке имена кандидатов в порядке достоинств, которые он им приписывает. Если предположить, что он их располагает добросовестно, то рассмотрение этих записок обнаружит результаты выборов, каким бы способом ни были сравнены между собою кандидаты, так что новые выборы ничего на этот счет не могут прибавить. Теперь надлежит отсюда вывести порядок преимущества, который устанавливают для кандидатов записи. Представим себе, что каждому избирателю дана урна, содержащая бесконечное число шаров, с помощью которых он может оттенить все степени достоинства кандидатов; допустим еще, что он вынимает из своей урны число шаров, пропорциональное достоинству каждого кандидата, и предположим, что это число написано на записке рядом с именем кандидата. Ясно, что после того, как составлена будет сумма всех чисел, относящихся к каждому кандидату на каждой записке, тот из кандидатов, который получит наибольшую сумму, есть кандидат, предпочитаемый собранием, и что вообще порядок преимущества кандидатов будет порядком сумм, относящихся к каждому из них. Но записки совершенно не отмечают числа шаров, которое каждый избиратель дает кандидатам: они лишь указывают, что первый кандидат их имеет более, нежели второй, второй более, нежели третий и т. д. Значит, если приписать первому на данной записке какое-либо число шаров, то все сочетания низших чисел, выполняющие предшествующие условия, одинаково допустимы; и мы получим число шаров относительно каждого кандидата, составив гумму всех чисел, которые дает каждая комбинация, и разделив ее на число всех комбинаций. Очень простой анализ показывает, что числа, которые следует написагь на каждой записке рядом с последним именем, с предпоследним и т.д., пропорциональны членам арифметической прогрессии 1, 2, 3 и т.д. Когда таким образом напишем на каждой записке члены этой прогрессии и прибавим члены, соответствующие каждому кандидату на этих записках, то различные суммы укажут своею величиною тот порядок преимущества, который должен быть установлен между кандидатами. Таков способ избрания, указываемый теорией вероятностей. Он без сомнения был бы наилучшим, если бы каждый избиратель записывал на своей записке имена кандидатов в порядке достоинств, которые он им приписывает; но частные интересы и много соображений, чуждых достоинствам, должны нарушать этот порядок и заставлять июгда
ставить на последпее место кандидата, самого опасного тому, которому отдано предпочтение, что дает слишком большое преимущество кандидатам среднего достоинства. Поэтому-то оныт и заставил отказаться от такого порядка избрания в тех учреждениях, в которых он был принят. Выборы по абсолютному большинству голосов присоединяют к уверенности, что ни один из кандидатов, отвергнутых этим большинством, не будет допущен, то преимущество, что онн выражают чаще всего волю собрания. Они совпадают с предыдущим способом всегда, когда имеются только два кандидата. Правда, они представляют то неудобство, что делают выборы бесконечными, но опыт показал, что это неудобство сводится к нулю и что общее желание положить выборам конец скоро объединяет большинство голосов на одном из кандидатов. Выбор между несколькими предложениями, относящимися к одному предмету, казалось бы, должен быть подчинен тем же правилам, как выбор между несколькими кандидатами. Но между этими двумя случаями существует разница, а именно та, что достоинство одного кандидата не исключает достоинств его конкурентов; тогда как, если предложения, между которыми надо выбирать, противоположны, то истинность одного исключает истинность остальных. Тогда следует рассматривать вопрос следующим образом. Дадим каждому голосующему урну, содержащую бесконечное число шаров и предположим, что он распределяет их между различными предложениями пропорционально соответственным вероятностям, которые он им приписывает. Ясно, что если все число шаров выражает достоверность, и голосующий, по гипотезе, убежден, что одно из предложений должно быть истинно, он распределит это число целиком между предложениями. Задача сводится значит к тому, чтобы определить сочетания, в которых будут распределены шары таким образом, чтобы было более шаров для первого предложения записки, чем для второго, для второго более, чем для третьего и т.д.; к тому, чтобы составить суммы всех чисел шаров, относящихся к каждому предложению в этих различных сочетаниях, и к тому, чтобы разделить эту сумму на число сочетаний: частные будут числами шаров, которые следует приписать предложениям на какой-либо записке. С помощью анализа находим, что, исходя от последнего предложения, чтобы дойтн до первого, эти частные относятся между собой как следующие величины: 1) единица, деленная па число предложений; 2) предыдущая величина, увеличенная на единицу, деленную на число предложений без одного; 3) эта вторая величина, увеличенная на единицу, деленную на число предложений без двух, и т. д. Написав эти величины на каждой лаписке рядом с предложениями, к которым они относятся и сложив соответственно все, относящиеся к одному н тому же предложению па различных записках, получим суммы, своей величиной указывающие порядок и преимущество, которые собрание придает этим предложениям. Скажем несколько слов о способе обновлять собрания, которые целиком должны быть сменяемы через определенное число лет: должно ли обновление совершиться сразу илн же удобнее распределить его на эти годы? Следуя этому последнему способу, собрание составлялось бы под влиянием различных мнений, господствовавших в то время, пока длилось его обновление; тогда мнение, которое будет господствовать в нем, было бы очень вероятно средним из всех этих мнений. Таким образом собрание получило бы со временем такое же преимущество, какое дает ему распространение выборов его членов на все части территории, которую оно представляет. Если теперь принять во внимание то, что опыт и показал слишком хорошо, а именно, что выборы всегда направляются в самом преувеличенном смысле господствующими взглядами, то мы увидим, как полезно умерять этн взгляды одни другими, помощью частичного обновления. О вероятности судебных приговоров. Анализ подтверждает то, что нам подсказывает простой здравый смысл, а именно, что мягкость судебных приговоров тем более вероятна, чем многочисленнее состав суда и просвещеннее судьн. Поэтому следовало бы, чтобы апелляционные суды удовлетворяли этим двум условиям. Суды первой инстанции, более близкие к подсудимым, представляют им выгоду первого приговора уже вероятною, и онн часто удовлетворяются им, либо приходя к полюбовному соглашению, либо отказываясь от своих претензий. Но если неуверенность в предмете тяжбы и его значительность побуждают истца прибегнуть к апелляционному суду, он должен находить в большей вероятности получить справедливый приговор, большую безопасность для своего состояния и вознаграждение за хлопоты и расходы, которые влечет за собою новый процесс. Именно это н не имело места в институте взаимной апелляции окружных судов (tribunaux de departament) - институте, очень вредившем поэтому интересам граждан. Быть может, следовало бы и согласовалось бы с исчислением вероятностей требовать большинства двух голосов, по крайней мерс, в апелляционных судах для отмены приговора низшего суда. Этот результат был бы достигнут, если бы при составе апелляционного суда из четного числа судей приговор имел силу в случае равенства голосов. Я буду рассматривать в частности приговоры по уголовным делам. Без сомнения, судьям нужны, чтобы осудить обвиняемого, самые сильные доказательства его преступления; но нравственное доказательство есть всегда только вероятность, и опыт слишком хорошо показал, какие ошибки возможны в уголовных приговорах, даже тех, которые кажутся самыми справедливыми. Возможность исправлять эти ошибки есть самый основательный аргумент философов, желавших отмены смертной казни. Мы должны были бы таким образом воздерживаться от суда, если бы нам надо было ждать математической очевидности. Но судить повелевает нам опасность, которая проистекала бы от безнаказанности преступления. Этот суд сводится, если не ошибаюсь, к решению следующего вопроса: имеет ли доказательство проступка обвиняемого наивысшую степень вероятности, необходимую для того, чтобы гражданам пришлось менее опасаться ошибок суда, если обвиняемый невиновен и осужден, чем его новых преступлений и преступлений тех несчастных, которых поощрит пример его безнаказанности, если он виновен и оправдан? Решение этого вопроса зависит от многих элементов, с большим трудом поддающихся познанию: такова близость опасности, которая угрожала бы обществу, если бы уголовный обвиняемый оставался безнаказанным. Иногда эта опасность так велика, что магистрат видит себя принужденным отказаться от форм, разумно установленных для ограждения невиновности. Но что почти всегда делает вопрос, о котором идет речь, неразрешимым, это - невозможность оценить точно вероятность проступка и установить вероятность, необходимую для осуждения обвиняемого. Всякий судья в этом отношении принужден обращаться к собственному такту: он составляет свое мнение, сравнивая различные показания и обстоятельства, которыми сопровождалось преступление, с результатами своих соображений и своего опыта, и в этом отношении долгий навык допрашивать и судить обвиняемых дает большие преимущества для того, чтобы уловить истину среди указаний, часто противоречивых. Предыдущий вопрос зависит, кроме того, от размера наказания, налагаемого за преступление, так как само собою разумеется, что для смертного приговора, требуются доказательства гораздо более веские, чем для присуждения к аресту на несколько месяцев. Это является доводом в пользу соразмерности наказания с преступлением, так как тяжкое наказание, будучи налагаемо за легкий проступок, неизбежно должно заставлять оправдывать много виновных. Так как произведение вероятности преступления на тяжесть его есть мера опасности, которую может заставить испытать общество оправдание подсудимого, то можно было бы думать, что наказание должно зависеть от этой вероятности. Это косвенным образом и делается в судах, где задерживают на некоторое время обвиняемого, против которого имеются сильные улики, но недостаточные для его осуждения. В надежде получить новые сведения, его отнюдь не возвращают немедленно в общество его сограждан, которые не моглн бы видеть его снова в своей среде без живейшего беспокойства. Однако произвол этой меры и возможность злоупотребления ею заставили отбросить ее в странах, где придают величайшую цену индивидуальной свободе. Теперь, какова вероятность того, что решение суда, который может осудить только при данном большинстве, будет справедливо, т. е. будет соответствовать истинному решению вышепоставленного вопроса? Эта важная задача, будучи хорошо разрешена, дает средство сравнивать между собою различные суды. Большинство одного только голоса прн многочисленном составе суда указывает, что рассматриваемое дело по меньшей мере сомнительно. Осуждение обвиняемого противоречило бы в этом случае принципам гуманности, ограждающим невиновность. Единодушие судей дало бы очень большую вероятность для справедливости решения; но при его обязательности слишком много виновных было бы оправдано. Следует, поэтому, или ограничить число судей, если желательно, чтобы они были единодушны, или увеличить большинство, необходимое для осуждения, когда состав суда становится более многочисленным. Я попытаюсь применить исчисление к этому предмету, будучи убежден, что оно всегда является лучшим руководителем, когда опирается на данные, подсказываемые нам здравым смыслом. Вероятность того, что мнение каждого судьи справедливо, входит, как главный элемент, в это исчисление. Эта вероятность, очевидно, относительна в каждом деле. Если в суде, состоящем из тысячи одного судьи, пятьсот один одного мнения и пятьсот - противоположного, то очевидно, что вероятность справедливости мнения каждого судьи превышает 1/2 на очень небольшую величину, ибо при предположении, что она значительно больше, разница на один только голос была бы событием невероятным. Но если судьи все согласны, то это указывает, что сила улик достигает степени, которая влечет за собой убежденность: вероятность мнения каждого судьи очень близка тогда к единице, или достоверности, если только какие-нибудь общие страсти или предубеждения не введут в заблуждение сразу всех судей. Помимо этих случаев, отношение голосов за и против обвиняемого одно должно определить эту вероятность. Я предполагаю таким образом, что она может меняться от 1/2 до единицы, но что она не может быть ниже 1/2. Если бы это было не так, то решение суда имело бы так же мало значения, как жребий; но имеет цену постольку, поскольку мнение судьи более склонно к истине, чем к заблуждению. Помощью отношения числа голосов благоприятствующих обвиняемому к неблагоприят- 851
ствующим я определяю затем вероятность справедливости мнения судьи. Этих данных достаточно, чтобы иметь общее выражение вероятности того, что решение суда, судящего известным большинством, справедливо. В суде, в котором при восьми судьях необходимы были бы пять голосов для осуждения обвиняемого, вероятность возможной ошибки в справедливости решения превысили бы 1/4. Если бы состав суда сводился к шести членам, которые могли бы осудить лишь при большинстве четырех голосов, вероятность возможной ошибки была бы ниже 1/4: следовательно, для обвиняемого было бы выгодно это уменьшение числа судей. В том и другом случае требуемое большинство остается одно и то же и равно двум. Таким образом при этом, остающемся постоянным, большинстве вероятность ошибки увеличивается с числом судей: это имеет место вообще, каково бы ни было требуемое большинство, если только оно остается одним и тем же. Если примем за правило арифметическое отношение, то обвиняемый будет находиться все в менее и менее выгодном положении, по мере того как состав суда становится многочисленнее. Можно было бы подумать, что так как в суде, где требовалось бы большинство двенадцати голосов, каково бы ни было число судей, голоса меньшинства нейтрализовали бы такое же число голосов большинства, остающиеся двенадцать голосов указывали бы на единодушие суда присяжных из двенадцати членов, которое в Англии необходимо для осуждения обвиняемого; однако это было бы большой ошибкой: здравый смысл указывает нам, что есть разница между решением суда из двухсот двенадцати судей, из которых сто двенадцать осуждают обвиняемого, в то время как сто его оправдывают, и решением суда из двенадцати судей, единогласно стоящих за осуждение. В первом случае сто голосов благоприятных для обвиняемого дают право думать, что улики далеко не достигли той степени, которая влечет за собою убеждение; во втором случае единогласие судей побуждает верить, что они достигли этой степени. Но одного здравого смысла вовсе не достаточно, чтобы оценить крайнюю разницу вероятности ошибки в этих двух случаях; тогда следует прибегнуть к исчислению, и получится приблизительно одна пятая для вероятности ошибки в первом случае и лишь 1/8192 для этой вероятности во втором случае, - вероятности, которая не равна и одной тысячной первой. Это является подтверждением того принципа, что арифметическое отношение невыгодно для обвиняемого, когда число судей увеличивается. Наоборот, если возьмем за правило геометрическое отношение, вероятность ошибки решения уменьшается, когда число судей увеличивается. Напр., в судах, которые могут осуждать только большинством двух третей голосов, вероятность возможной ошибки почти равна одной четверти, если число судей равно шести; она ниже 1/7, если это число доходит до двенадцати. Таким образом, не следует придерживаться ни арифметического, ни геометрического отношений, если мы желаем, чтобы вероятность ошибки не была никогда ни выше, ни ниже определенной дроби. Но какая дробь должна быть установлена? Здесь-то и начинается произвол, и судебные учреждения представляют в этом отношении большое разнообразие. В специальных судах (tribunaux speciaux), где пяти голосов из восьми достаточно для осуждения обвиняемого, вероятность ошибки, которой можно опасаться относительно мягкости приговора, равна 65/256, или выше 1/4. Величина этой дроби ужасна; однако отчасти примиряющим должно являться то соображение, что чаще всего судья, который оправдывает обвиняемого, не смотрит на него как на невинного: он только объявляет, что против обвиняемого нет улик, достаточных для его осуждения. Особенно же успокоительным является то, что здесь действует жалость, которую природа вложила в сердце человека и которая располагает ум лишь с трудом видеть в обвиняемом, подлежащем его суду, виновного. Это чувство, более живое в тех, для кого уголовные приговоры - дело непривычное, возмещает неудобства, связанные с неопытностью присяжных. В суде присяжных из двенадцати членов, при большинстве, требуемом для осуждения, в восемь голосов из двенадцати, вероятность ошибки, которой можно опасаться, равна 1093/8192, или немного более одной восьмой; она будет равна приблизительно 1/22, если это будет большинство девяти голосов. В случае единогласного решения вероятность возможной ошибки равна 1/8192, т.е. более чем в тысячу раз меньше, чем в наших судах присяжных. Здесь предполагается, что единогласное решение вытекает исключительно из улик, благоприятствующих или неблагоприятствующих обвиняемому; но совершенно посторонние мотивы должны часто способствовать его появлению, когда его ставят суду присяжных как необходимое условие приговора. Тогда эти решения, как зависящие от темперамента, характера и привычек присяжных, иногда противоречат решениям, которые приняло бы большинство присяжных, если бы оно руководилось одними уликами; в этом заключается по-моему большой недостаток такого способа судить. Вероятность решений слишком слаба в наших судах присяжных, и, по моему мнению, для достаточного ограждения невиновности, следует требовать по крайней мере большинства девяти голосов из двенадцати. 852 Таблицы смертности и средней продолжительности жизни, браков и каких-либо ассоциаций. Способ составления таблиц смертности очень прост. Берут из гражданских актов большое число людей, рождение и смерть которых указаны. Определяют, сколько из них умерло на первом году жизни, сколько на втором и т. д. На основании предыдущего определяют число лиц, остающихся в живых в начале каждого года, и записывают это число в таблицу рядом с числом, указывающим год. Так, рядом с нулем пишут число рождений, рядом с 1-м годом - число детей, которым исполнился год; рядом со 2-м годом - число детей, которым исполнилось два года, и т. д. Но в виду того, что в течение двух первых лет жизни смертность очень велика, следует для большей точности указывать в этом первом возрасте число остающихся в живых к концу каждого полугодия. Если разделить сумму лет жизни всех лиц, внесенных в таблицу смертности, на число этих лиц, то получится средняя продолжительность жизни, соответствующая этой таблице. Для этого надо умножить на полгода число умерших в течение первого года, число, равное разности чисел лиц, записанных рядом с годами 0 и 1: так как их смертность должна быть распределена на весь год, то средняя продолжительность их жизни равна только полугоду. Надо умножить на полтора года число умерших в течение второго года, на два с полони- ною года - число умерших в течение третьего года, и т.д. Сумма этих произведений, деленная на число рождений, будет средней продолжительностью жизни. Отсюда легко заключить, что эта продолжительность получится, если, составить сумму чисел, записанных в таблице рядом с каждым годом, разделить ее на число рождений и вычесть половину частного; при этом год берется за единицу. Средняя продолжительность того, что остается прожить, начиная с некоторого возраста, определяется тем же самым способом, с помощью тех же операций над числом лиц, достигших этого возраста, которые только что были произведены над числами рождений. Средняя продолжительность жизни всего больше не в момент рождения, а тогда, когда человек избежал опасностей первого детства, и в этом случае она равна приблизительно сорока трем годам. Вероятность достижения какого-либо возраста, исходя из данного, равна отношению двух чисел, указывающих, сколько лиц этого возраста в таблице. Точность этих результатов требует, чтобы при составлении таблиц было принято в расчет очень большое число рождений. Анализ дает тогда очень простые формулы для оценки вероятности, что уклонения от истины чисел, указанных в этих таблицах, заключены в тесных пределах. Из этих формул становится очевидным, что промежуток между пределами уменьшается, а вероятность увеличивается, но мерс того как рассматривается все большее число рождений; так что таблицы точно выразили бы истинный закон смертности, если бы число рождений, принятых в расчет, стало бесконечным. Таблица смертности представляет из себя, следовательно, таблицу вероятностей человеческой жизни. Отношение лиц, записанных рядом с каждым годом, к числу рождений есть вероятность, что новорожденное дитя доживет до этого года. Подобно тому как числовое значение ожидания определяется посредством составления суммы произведений каждого ожидаемого блага на вероятность его получения, и среднюю продолжительность жизни можно вычислить посредством сложения произведений каждого года на полусумму вероятностей дожить до начала и конца его, что приводит к тому результату, который мы нашли раньше. Но этот взгляд на среднюю продолжительность жизни имеет то преимущество, что он позволяет заметить, что в постоянном населении, т. е. таком, в котором число рождений равно числу смертных случаев, средняя продолжительность жизни является именно отношением населения к годичным рождениям; ибо при предположении, что население остается постоянным, число лиц того возраста, который заключается между двумя последовательными годами таблицы, равно числу годичных рождений, умноженному на полусумму вероятностей дожить до этих лет. Сумма всех этих произведений и будет нее население. Но легко убедиться, что эта сумма, деленная на число годичных рождений, совпадает со средней продолжительностью жизни; какою она является по нашему определению. При помощи таблицы смертности легко составить соответствующую таблицу населения, которое предполагается постоянным. Для этого берут среднее арифметическое чисел таблиц смертности, соответствующих возрастам нуль и один год, один и два года, два и три и т. д. Сумма всех средних арифметических и есть все население; его записывают рядом с возрастом нуль. Из этой суммы вычитают первое среднее арифметическое, а остаток есть число лиц одного года и больше; его пишут рядом с 1-м годом. Из этого первого остатка вычитают второе среднее арифметическое; этот второй остаток есть число лиц двух лет и больше; его пишут рядом со 2-м годом и т. д. Столько непостоянных причин влияет на смертность, что таблицы, ее представляющие, должны меняться смотря по месту и времени. Разные состояния жизни представляют в этом отношении значительные различия относительно изнурительности и опасностей, неразлучных с каждым состоянием, которые необходимо принимать в расчет при вычислениях, основанных на продолжительности жизни; но различия эти еще недостаточно исследованы; когда-нибудь это будет достигнуто:
тогда станет известным, какой жертвы требует каждая профессия от жизни, и этим знанием воспользуются для уменьшения опасностей. В большей или меньшей степени здоровая почва, высота ее, ее температура, нравы жителей и мероприятия правительств имеют сильное влияние на смертность; но отысканию причины замеченных различий следует всегда предпосылать определение вероятности, с какою эта причина может иметь место. Так, отношение населения к годичным рождениям, по наблюдениям возраставшее во Франции до двадцати восьми и одной трети, не достигает и двадцати пяти в прежнем Миланском герцогстве. Эти отношения, оба установленные на основании большого числа рождений, не позволяют сомневаться в существовании особой причины смертности в Милане, которую правительству этой страны падлежит отыскать и уничтожить. Отношение населения к рождениям возросло бы еще более, если бы удалось ослабить или уничтожить некоторые опасные и очень распространенные болезни. Этого удалось достигнуть относительно оспы, сперва при помощи прививки этой болезни, а потом гораздо более удачным способом - прививкой вакцины, - неоценимого открытия Дженнера, сделавшего его одним из благодетелей человечества. К особенностям оспы принадлежит то, что один и тот же человек не заболевает ею два раза, или но крайней мере случаи эти так редки, что с ними можно не считаться. Эта болезнь, которой очень немногие избегали до открытия вакцины, часто оканчивается смертью и губит приблизительно каждого седьмого человека из тех, кого она поражает. Иногда она встречается в легкой форме, и опыт показал, что ей можно придать этот последний характер, прививая ее здоровым людям, подготовленным хорошим режимом, в благоприятное время года. Тогда отношение лиц, погибших от нее, к тем, которым была сделана прививка, не достигает и одной трехсотой. Это большое преимущество прививки в соединении с тем, что она не портит красоты и предохраняет от неприятных последствий, которые часто имеет натуральная оспа, заставило многих признать ее. Применение ее горячо рекомендовалось; но, как почти всегда бывает с тем, что представляет неудобства, она вызвала горячее противодействие. В этом споре Даниил Бернулли намеревался подвергнуть исчислению вероятиостей влияние прививки на среднюю продолжительность жизни. Так как у него не было точных данных о смертности от оспы в различных возрастах, то он предположил, что опасность заболеть этой болезнью и погибнуть от нее одинакова для всех возрастов. С помощью этих предположений ему удалось путем тонкого анализа преобразовать обыкновенную таблицу смертности в такие, которые имели бы место, если бы оспа не существовала или была смертельна лишь для очень небольшого числа больных; он вывел заключение, что прививка оспы увеличила бы по крайней мере на три года среднюю продолжительность жизни, что, как ему казалось, ставит вне всякого сомнения пользу этой меры. Даламбер оспаривал анализ Бернуллн, во-первых, на основании недостоверности этих двух гипотез, во-вторых, на основании недостаточности его, ибо в него совсем не входило сравнение будущей опасности, хотя и очень небольшой, погибнуть от прививки, с гораздо большей, но н более отдаленной, опасностью умереть от натуральной оспы. Это соображение, исчезающее, когда рассматривается большое число людей, безразлично поэтому для правительств, и для ннх остается в силе польза прививки; но оно имеет большой вес для отца семейства, который, делая своим детям прививку, должен бояться, что скоро будет свидетелем гибели самого дорогого для него на свете н что он сам будет причиною этого. Многих родителей удерживала эта боязнь, которую к счастью рассеяло открытие вакцины. Это одна из тайн, часто представляемых для нас природою, что вакцина является таким же верным предохранительным средством, как и оспенный яд; кроме того, она не представляет никакой опасности, не подвергает никакой болезни и требует очень небольшого ухода; поэтому она и получила быстро широкое распространение, и для того, чтобы оно стало всеобщим, остается только преодолеть естественную косность народа, с которой приходится бороться постоянно, даже в тех случаях, когда дело касается его самых дорогих интересов. Простейший способ вычисления выгоды, которую принесло бы уничтожение какой-либо болезни, состоит в том, чтобы определить путем наблюдений число лиц известного возраста, которые каждый год гибнут от нее, и вычесть его из числа всех умирающих в этом возрасте. Отношение этой разности к общему числу лнц данного возраста было бы вероятностью умереть в продолжение года в этом возрасте, если бы этой болезни не существовало. Следовательно, если составить сумму таких вероятностей от рождения до некоторого возраста и вычесть эту сумму из единицы, то остаток будет вероятностью прожить До этого возраста при уничтожении этой болезни. Ряд таких вероятностей будет таблицей смертности при этой гипотезе, и из нее можно вывести на основании предыдущего среднюю продолжительность жизни. Этим способом Дювилар нашел, что увеличение средней продолжительности жизни, которым мы обязаны прививке вакцины, равно по крайней мере трем годам. Столь значительное увеличение вызвало бы очень большое приращение населения, если бы, с другой стороны, это приращение не ограничивалось соответственной убылью средств существования. Недостаток в средствах существования главным образом задерживает поступательное движение населения. Во всех видах животных н растений природа непрерывно стремится увеличивать число особей до тех пор, пока оно не будет в уровне со средствами существования; в роде человеческом нравственные причины имеют большое влияние на население. Если почва, благодаря легкости разработки, может доставлять обильное пропитание новым поколениям, то уверенность в возможности прокормить многочисленную семью поощряет браки и делает их более ранними и плодовитыми. На подобной почве население и рождения должны оба возрастать в геометрической прогрессии. Но когда распашка становится более трудной и редкой, рост населения уменьшается: оно непрерывно приближается к меняющемуся состоянию средств существования, совершая около него колебания; подобно тому как маятник, точку привеса которого передвигают замедленным движением, качается около этой точки от своей тяжести. Трудно определить maximum приращения населения. По некоторым наблюдениям род человеческий мог бы, по-видимому, при благоприятных обстоятельствах удваиваться каждые пятнадцать лет. Полагают, что в Северной Америке период этого удвоения равен двадцати двум годам. При таком положении вещей население, рождения, браки, смертность, все возрастает в той геометрической прогрессии, постоянное отношение последовательных членов которой получается из наблюдений над годичными рождениями в две эпохи. Так как таблица смертности представляет вероятности человеческой жизни, то с ее помощью можно определить продолжительность браков. Предположим для простоты, что смертность одинакова для обоих полов; мы получим вероятность, что брак продолжится год, два года, три года и т. д., если составим ряд дробей, общий знаменатель которых был бы произведением двух чисел таблицы, соответствующей возрастам лиц, сочетавшихся браком, а числители которых были бы последовательными произведениями чисел, соответствующих этим возрастам, увеличенных на один, на два, на три и т.д. года. Сумма этих дробей, увеличенная на половину, будет средней продолжительностью брака, если год взят за единицу. Легко распространить то же самое правило на среднюю продолжительность товарищества, состоящего из трех или большего числа лиц. О выгодах, предоставляемых учреждениями, основанными на вероятности событий. Припомним здесь то, что мы сказали, говоря об ожидании. Мы видели, что для получения выгоды, вытекающей из нескольких простых событий, из которых одни приносят прибыль, а другие - убыток, надо сложить произведения вероятности каждого благоприятного события на прибыль, приносимую им, и вычесть из их суммы сумму произведений вероятности каждого неблагоприятного события на убыток, связанный с ним. Но какова бы ни была прибыль, выраженная разностью этих сумм, одно сложное событие, состоящее из этих простых, еще не ограждает от боязни потерпеть действительный убыток. Очевидно, что эта боязнь должна уменьшаться, когда сложное событие повторяется. Анализ вероятностей приводит к следующей общей теореме. От повторения выгодного события, простого нли сложного, действительная выгодность становится все более и более вероятной и растет беспрерывно: она делается достоверной при предположении бесконечного числа повторений; и, деля ее на это число, получим частное или среднюю выгодность каждого события, которая и будет математическим ожиданием, или выгодою, соответствующею этому событию. То же самое касается и убытка, который делается со временем достоверным, если только событие невыгодно. Эта теорема о выгодах и потерях аналогична теоремам, данным нами раньше об отношениях, которые обнаруживаются при неопределенном повторении простых или сложных событий; и, подобно им, она подтверждает, что правильность устанавливается в конце концов даже в вещах, наиболее подчиненных тому, что мы называем случаем. Когда число событий очень велико, анализ дает еще одно очень простое выражение вероятности того, что действительная выгодность будет заключаться в определенных пределах, - выражение, входящее в общий закон о вероятности, который был нами дан выше, когда мы говорили о вероятностях, вытекающих из неопределенного увеличения числа событии. От истинности предшествующей теоремы зависит прочность учреждений, основанных на вероятностях. Но для того, чтобы можно было применять ее к ним, нужно, чтобы эти учреждения многочисленностью предприятий умножали выгодные события. На вероятностях человеческой жизнн основаны были различные учреждения, таковы, напр., пожизненные ренты и тонтнны. Самый общий и самый простой метод исчисления выгод и расходов этих учреждений состоит в том, чтобы свести их к современной стоимости капиталов. Ежегодный прирост единицы есть так называемая процентная такса. К концу каждого года каждый капитал приобретает множителем единицу плюс процентная такса; он возрастает, следовательно, в геометрической прогрессии, знаменателем отношения которой и будет этот множитель. Таким образом с течением времени он делается громадным. Если, напр., процентная такса равна 1/20 или пяти на сто, то капитал удваивается приблизительно через четырнадцать лет, учетверяется через 29 лет, и меньше чем через три столетия он увеличивается в два миллиона раз. 853
Благодаря такому поразительному росту возникла мысль использовать его для погашения государственного долга. Если создать первый фонд погашения, который будет непрерывно, вместе с процентами, помещаем в общественные предприятия, особенно при использовании моментов понижения, и если в тех случаях, когда нужды государства требуют займа, пожертвовать частью его ради увеличения фонда погашения, то очевидно, что эти операции будут иметь двойную выгоду увеличения этого фонда и поддержки кредита и общественных предприятий, и что касса погашения поглотит со временем большую часть государственного долга. Удачные опыты вполне подтвердили эту выгоду. Но честность в обязательствах и стойкость, столь необходимые для успеха подобных учреждений, могут быть вполне гарантированы только таким правительством, в котором законная власть подразделена на несколько властей независимых. Доверие, внушаемое неизбежным соревнованием этих властей, удваивает могущество государства, и даже глава его выигрывает в закономерной власти гораздо больше, чем теряет в самовластии. Из предыдущего следует, что современная стоимость капитала, равносильная сумме, которая должна быть уплачена только по прошествии известного числа лет, равна этой сумме, умноженной на вероятность, что она будет уплачена в этот срок, и деленной на единицу, увеличенную на процентную таксу и возведенную в степень, выраженную числом этих лет. Легко применить этот принцип к пожизненным рентам, для одного или нескольких лиц, и к сберегательным кассам и страхованиям всякого рода. Предположим, что мы желаем составить таблицу пожизненных рент по данной таблице смертности. Пожизненная рента, подлежащая уплате по прошествии пяти лет, напр., и сведенная к современной стоимости, равна, согласно этому принципу, произведению двух следующих величин, а именно: ренты, деленной на пятую степень единицы, увеличенной на процентную таксу, и вероятности того, что она будет уплачена. Эта вероятность равна обратному отношению числа лиц, внесенных в таблицу против возраста того лица, для которого устанавливается рента, к числу, внесенному против этого возраста, увеличенного на пять лет. Составляя ряд дробей, знаменатели которых были бы произведениями числа лиц, указанных в таблице смертности еще живущими в возрасте того лица, для которого устанавливается рента, на последовательные степени единицы, увеличенной на процентную таксу, а числители были бы произведениями ренты на число лиц еще живущих того же возраста, увеличенное последовательно на год, на два и т.д., получим выраженный суммой этих дробей капитал, требуемый для пожизненной ренты в этом возрасте. Предположим теперь, что кто-либо желает посредством пожизненной ренты обеспечить своих наследников капиталом, подлежащим уплате к концу года его смерти. Чтобы определить величину этой ренты, можно представить себе, что это лицо занимает пожизненно в какой-либо кассе этот капитал, деленный на единицу, увеличенную на процентную таксу, и помещает его на вечные проценты в ту же самую кассу. Ясно, что этот капитал будет долгом кассы наследникам этого лица к концу года его смерти; но оно уплачивало ежегодно только излишек пожизненных процентов над вечными. Таблица пожизненных рент укажет поэтому, сколько это лицо должно платить ежегодно в кассу, чтобы после его смерти этот капитал был обеспечен. Страхования морские, от пожаров и от бури и вообще все установления этого рода исчисляются на основании тех же принципов. Купец имеет на море суда и желает застраховать их стоимость и стоимость их груза от опасностей, которым они могут подвергнуться; с этой целью он вручает известную сумму какому-либо обществу, которое отвечает согласно оценке за стоимость его груза и судов. Отношение этой стоимости к сумме, которую следует заплатить в качестве премии страхования, зависит от опасностей, которым подвергаются суда, и может быть оценено не иначе, как посредством многочисленных наблюдений над судьбою судов, отправившихся из порта по тому же назначению. Если бы застрахованные лица платили страховому обществу только сумму, указанную исчислением вероятностей, то это общество не могло бы нести расходов, связанных с его учреждением, необходимо поэтому, чтобы они платили более высокую премию страхования. Но какова в таком случае их выгода? Здесь становится необходимым рассмотрение нравственной невыгоды, связанной с неизвестностью. Понятно, что если самая справедливая игра становится невыгодной, как мы раньше видели, потому, что игрок меняет верную ставку на неверный выигрыш, страхование, в котором неверное меняется на верное, должно быть выгодно. И это действительно вытекает из правила, данного нами выше для определения нравственного ожидания, из которого, кроме того, явствует, как далеко может простираться та жертва, которую должно принести страховому обществу, продолжая сохранять нравственную выгоду. Общество это может, следовательно, доставляя эту выгоду, и само получить большую прибыль, если число застрахованных лиц очень значительно, - условие, необходимое для прочности его существования. В этом случае выгода его делается достоверной, а математическое ожидание совпадает с нравственным; ибо анализ приводит к следующей общей теореме: если число ожидаемых благ очень 854 велико, то оба ожидания непрерывно приближаются друг к другу, и наконец совпадают, когда число этих благ бесконечно велико. Говоря об ожиданиях математическом и нравственном, мы полагал*!, что есть нравственная выгода в распределении риска ожидаемого 6ла а на отдельные его части. Так, чтобы перевезти из отдаленного пор га некоторую сумму, лучше распределить ее между несколькими судами, чем поместить на одно. Это и достигается при помощи взаимно о страхования. Если два лица, имеющие по одинаковой сумме па двух различных судах, вышедших из одного и того же порта к месту назначения, согласятся разделить поровну вес деньги, которые они получат, то ясно, что по этому соглашению каждое из этих лиц распределяет поровну на оба судна ожидаемую им сумму. Правда, такого рода страхование все еще оставляет место неизвестности относительно потери, которой можно опасаться. Но эта неизвестность уменьшается по мере того, как число участников увеличивается: нравстве i- ная выгода растет все более и более и наконец совпадает с математической, своим естественным пределом. Благодаря этому товарищества взаимного страхования, когда они состоят из очень большого числа лиц выгоднее для страхователей, чем страховые общества, которые из-за получаемой ими прибыли нравственную выгоду предоставляют всегда меньшую математической. Все эти результаты независимы, как мы раньше видели, от закона, выражающего нравственную выгоду. Можно рассматривать свободный народ как большую ассоциации, члены которой взаимно поручились за свое имущество, неся пропорциональные расходы по этому поручительству. Конфедерация нескольких народов доставила бы каждому из них преимущества, подобные тем, которые каждый человек извлекает, живя в обществе. Конгресс пз их представителей мог бы обсуждать вопросы, одинаково важные для всех, и тогда без сомнения система веса, мер и монет, предложенная французскими учеными, была бы принята этим конгрессом как одно пз полезнейших мероприятий в коммерческих отношениях. Из учреждений, основанных на вероятностях человеческой жизп i, лучшие - это те, в которых, жертвуя небольшой частью своего доходd, можно обеспечить существование свое и своей семьи на то время, когда можно опасаться, что не будет хватать средств на удовлетворение своих нужд. Насколько игра безнравственна, настолько же эти учреждения улучшают нравы, благоприятствуя самым нежным естественным ир i- вязанностям. Правительство должно поэтому поощрять их и щадить в превратностях общественного достояния, ибо вследствие того, ч"о предоставляемые ими ожидания относятся к отдаленному будущему, они могут процветать, только будучи защищены от каких бы то ни было опасений за их прочность. Одно из преимуществ представительного правления и состоит в том, что оно дает эту гарантию. Скажем несколько слов о займах. Ясно, что для того, чтобы сделать вечный заем, надо платить ежегодно сумму, равную произведению капитала на процентную таксу. Но можно пожелать погасить этот капитал равными платежами в течение определенного числа лет, - платежами, которые называются аннюитетами и величина которых получается таким образом: каждый аннюитет, чтобы быть сведенным к настоящему моменту, должен быть разделен на степень единицы, увеличенной на процентную таксу, причем показатель степени равен числу лет, по прошествии которых этот аннюитет должен быть уплачен. Составляя геометрическую прогрессию, первый член которой равен аннюитету, деленному на единицу, увеличенную на процентную такс/, а последний - этому аннюитету, деленному на ту же величину, возведенную в степень, равную числу лет, в течение которых должна производиться уплата, получим, что сумма этой прогрессии буд<т равносильна занятому капиталу, что и определяет величину аннюитет. Если желают заключить пожизненный заем, то не трудно видеть, ч"о простая пропорция укажет, какую ренту следует уплачивать тому лицу, у которого занимают капитал, если обратить внимание, что таблицы пожизненных рент указывают капитал, необходимый для установления пожизненной ренты для какого бы то ни было возраста. С помощью этих принципов можно вычислить все возможные виды займа. Об иллюзиях в оценке вероятностей. Ум имеет свои иллюзии, как чувство зрения; и подобно тому, кяк осязание исправляет эти последние, рассуждение и исчисление испра *- ляет первые. Вероятность, основанная на ежедневном опыте или преувеличенная страхом и надеждою, поражает нас более, чем вероятность высшая, но являющаяся простым результатом исчисления. Так, мы совсем не боимся из-за незначительной выгоды подвергать свою жизнь опасностям, гораздо менее невероятным, чем выход квины по Французской лотерее; и в то же время никто не пожелал бы добиваться той же выгоды при уверенности лишиться жизни в случае выхода этой квины. Наши страсти, наши предрассудки и господствующие взгляды, преувеличивая благоприятствующие им вероятности и уменьшая противоположные, являются обильными источниками опасных иллюзий. Настоящее зло и причина, порождающая его действуют на нас гораздо сильнее, чем воспоминания о зле, причиненном протиноиолох- ной причиной; оно мешает нам справедливо оценить недостатки того и другого и вероятность тех средств, которые могли бы предохранить нас от них. Это и толкает поочередно к деспотизму и к анархии народы, вышедшие из состояния покоя, к которому они и возвращаются всегда лишь после долгих и жестоких волнений.
То живое впечатление, которое мы испытываем, присутствуя при событиях, и которое едва позволяет нам замечать события противоположные, наблюденные другими, является одной из главных причин заблуждений, от которых нельзя достаточно уберечься. В игре преимущественно случается, что масса иллюзий питает надежду и поддерживает ее против неблагоприятных шансов. Большинство людей, играющих в лотерею не знают, сколько шансов в их пользу и сколько противоположных. Они принимают во внимание только возможность выиграть на маленькую ставку значительную сумму и предположения, которыми их ребяческое воображение увеличивает в их глазах вероятность получения этой суммы: бедняк в особенности, воодушевленный стремлением к лучшей участи, подвергает опасности этой игры свое необходимое, цепляясь даже за самые неблагоприятные сочетания, обещающие ему большую выгоду. Без сомнения, все испуга чись бы огромного числа проигранных ставок, если бы могли его змать; но прилагаются старания, наоборот, к тому, чтобы предать наибольшей гласности выигрыши, гласности, которая становится новой причиной возбуждения в этой пагубной игре. Когда во Французской лотерее какой-либо номер уже долгое время но выходил, толпа спешит покрыть его ставками. Она считает, что номер, долгое время не выходивший, должен при ближайшем тираже выйти преимущественно перед другими. Подобная общая ошибка, мне кажется, проистекает от иллюзии, которая невольно переносит нас к началу событий. Напр., очень мало правдоподобно, чтобы в игре в «крест и решетку* (орлянку) крест появился десять раз подряд. Это неправдоподобие, которое еще поражает нас в то время, как он вышел девять раз, побуждает нас думать, что в десятый раз появится решетка. Между тем прошедшее, указывая на большую склонность в монете к кресту, чем к решетке, делает первое из этих событий более вероятным, чем второе: оно увеличивает, как мы видели, вероятность появления креста прн следующем бросании. Подобная иллюзия убеждает многих, что возможно выиграть наверное в лотерее, помещая каждый раз на один н тот же номер до его выхода ставку, выигрыш которой превышает сумму всех ставок. Но если бы даже подобные спекуляции не прекращались часто вследствие невозможности поддерживать их, они все же не уменьшали бы математического ожидания потерн спекулянтов и они увеличивали бы нравственное ожидание их потери, потому что с каждым тиражом спекулянты ставили бы все большую часть своего состояния. Я видел, как люди, страстно желавшие иметь сына, с прискорбием узнавали о рождениях мальчиков в том месяце, когда они должны были стать отцами. Воображая, что отношение этих рождений к рождениям девочек должно быть одно и то же в конце всякого месяца, они считали, что уже рожденные мальчики делают более вероятными ближайшие рождения девочек. Так, изъятие белого шара из урны, содержащей ограниченное число шаров белых и черных, в данном отношении, увеличивает вероятность изъятия черного шара при следующем тираже. Но это перестает иметь место, когда число шаров в урне безгранично, как должно предположить, чтобы уподобить этот случай случаю этих рождений. Если в продолжение какого-либо месяца родилось гораздо больше мальчиков, чем девочек, то можно было бы подозревать, что около времени их зачатия какая-нибудь общая причина благоприятствовала мужским зачатиям, что сделало бы ближайшее рождение мальчика более вероятным. Неправильные явления природы нр могут быть в точности сравниваемы с выходом номеров лотереи, в которой все номера перемешиваются в каждом тираже так, чтобы сделать шансы их выхода совершенно равными. Частота одного нз этих явлений как будто указывает на причину, некоторое время действовавшую, которая ему благоприятствовала, что увеличивает вероятность его будущего повторения; и повторение его, долго продолжавшееся, как, напр., длинный ряд дождливых дней, может раскрыть неизвестные причины его изменения, так что при каждом ожидаемом явлении мы не возвращаемся, как при каждом тираже лотереи, к одному и тому же состоянию неопределенности относительно того, что должно случиться. Но по мере того, как умножаются наблюдения над этими явлениями, сравнение их результатов с результатами лотерей становится более точным. Благодаря иллюзии, противоположной предыдущим, отыскивают в прошедших тиражах Французской лотереи наиболее часто выходившие номера, чтобы составить из них сочетания, на которые рассчитывают выгодно поместить ставку. Однако в виду того способа, каким производится смешение номеров в этой лотерее, прошедшее не должно иметь никакого влияния на будущее. Более частый выход одного какого-либо номера является только аномалией случая: относительно многих из них я произвел вычисления, и я постоянно находил, что оии заключались в пределах, которые при предположении одинаковой возможности выхода всех номеров нельзя считать неправдоподобными. В длинном ряду однородных событий одни шансы случая иногда должны быть причиной этих странных полос счастья или несчастья, которые большинство игроков не преминет приписать некоторого рода предопределению. Часто случается в играх, зависящих одновременно от случая и от ловкости и фоков, что тот, кто проигрывает, смущенный своим проигрышем, пытается наверстать его случайными ходами, ходами, которых он избегал бы в другом положении: этим способом он усугубляет свое собственное несчастье и увеличивает его продолжительность. Между тем именно тогда благоразумие становится необходимым и надлежит убедиться в том, что нравственное ожидание потери, связанное с неблагоприятными шансами, возрастает благодаря самому несчастью. То чувство, из-за которого человек долгое время помещал себя в центре вселенной, считая себя предметом особых забот природы, склоняет каждую отдельную личность представлять себя центром более или менее широкого круга и верить, что случай ему окажет предпочтение. Поддерживаемые этим взглядом, игроки часто ставят значительные суммы в играх, шансы которых, как им известно, им не благоприятствуют. В жизни подобный взгляд иногда может иметь свои преимущества, но чаще всего он ведет к пагубным предприятиям. Здесь, как и во всем, иллюзии опасны, и истина одна всегда полезна. Одна из больших заслуг исчисления вероятностей - та, что оно учит не доверять первым впечатлениям. Так как в тех случаях, когда можно их подвергнуть исчислению, оказывается, что они часто обманывают, то отсюда должно заключить, что и в других случаях следует на них полагаться лишь с крайней осмотрительностью. Докажем это примерами. Урна содержит четыре шара черных или белых, которые однако не все одного цвета. Вынули один из шаров, белого цвета, и положили его обратно в урну, чтобы приступить снова к подобному же тиражу. Спрашивается вероятность того, что при четырех следующих тиражах будут появляться только черные шары. Если бы число белых и черных шаров было одинаково, эта вероятность была бы четвертой степенью вероятности 1/2 изъятия черного шара при каждом тираже; следовательно она равнялась бы 1/16. Но изъятие белого шара при первом тираже указывает на преобладание числа белых шаров в урне; ибо, если предположить, что в урне три белых шара и один черный, то вероятность изъятия из нее белого шара равна 3/4; она равна 2/4, если предположить, что в ней два белых шара и два черных; наконец она сводится к t/4, если предположить, что в урне три черных шара и один белый. Согласно принципу вероятности причин, извлеченному из опыта, вероятности этих трех предположений относятся между собой как количества 3/4, 2/4, t/4; следовательно, они равны 3/6, 2/6, 1/6. Таким образом пять шансов против одного за то, что число черных шаров уступает или, самое большее, равно числу белых. Кажется, судя по изъятию белого шара при первом тираже, что вероятность изъятия подряд четырех черных шаров должна была бы быть меньше, чем в случае равенства обоих цветов, или менее одной шестнадцатой. Между тем этого нет и с помощью очень простого вычисления находим, что эта вероятность больше одной четырнадцатой. В самом деле она была бы равна четвертой степени 1/4, 2/4, 3/4 прн первом, втором н третьем предыдущих предложениях относительно цвета шаров в урне. При умножении соответственно каждой степени на вероятность соответствующего предположения, или на 3/6, 2/6, и 1/6, сумма произведений будет вероятностью изъятия подряд четырех черных шаров. Таким образом имеем для этой вероятности 29/384 дробь, большую, чем 1/14. Это противоречие объясняется, если примем во внимание, что указание первого тиража на преобладание белых шаров над черными вовсе не исключает преобладания черных шаров над белыми, - преобладания, исключаемого предположением равенства того и другого цвета. А это преобладание, хотя мало правдоподобное, должно сделать вероятность появления подряд данного числа черных шаров большей, чем при последнем предположении, если данное число значительно; и мы видим, что так и будет начиная с четырех. Рассмотрим еще одну урну, содержащую несколько белых и черных шаров. Положим сперва, что в ней только один белый шар и один черный. Тогда можно держать пари с равными шансами, что при одном тираже вынут будет белый шар. Но кажется, что для равенства пари следовало бы предоставить тому, кто ставит на изъятие белого шара, два тиража, если урна содержит два черных шара и один белый; три тиража, если она содержит три черных шара и один белый, и т.д.; предполагается, что после каждого тиража вынутый шар снова кладется в уриу. Однако легко убедиться, что это первое впечатление ошибочно. В самом деле, в том случае, когда два черных шара приходятся иа один белый, вероятность изъятия из урны двух черных шаров при двух тиражах равна второй степени 2/3, или 4/9; ио эта вероятность, сложенная с вероятностью появления белого шара при двух тиражах, есть достоверность, или единица, потому что достоверно известно, что должны появиться два черных шара или по крайней мере один раз белый; вероятность этого последнего случая равна поэтому 5/9 - дроби, которая больше 1/2. Еще выгоднее было бы держать пари за появление белого шара при пяти тиражах, когда урна содержит пять черных шаров и один белый; это последнее пари выгодно даже при четырех тиражах: оно сводится тогда к пари за вскрытие шестерки при четырех бросаниях одной кости. Кавалер де Мере, друг Паскаля, и тот, кто дал начало исчислению вероятностей, побуждая этого великого геометра им заняться, говорил ему: «что ои нашел неправильность в числах по следующей причине: стараясь вскрыть шестерку при метании одной кости, можно иметь 855
выгодные шансы в отношении 671:625 при четырех бросаниях. Если же задаться целью при метании двух костей получить 12, то право на 24 бросания дает невыгодные шансы. Тем не менее 24 относится к 36, числу всех пар граней двух костей, как 4 к 6, числу граней одной кости». 4Вот, писал Паскаль Фермату, в чем была его большая досада, которая побудила его смело сказать, что теоремы не постоянны и что арифметика сама себе противоречит... Он обладает сильным умом, но он не геометр, а это, как вы знаете, большой недостаток». Кавалер де Мере, введенный в заблуждение ложной аналогией, полагал, что в случае равенства пари число бросаний должно возрастать пропорционально числу всех возможных шансов, что хотя не точно, но приближается к точности тем более, чем больше это число. Пробовали объяснить преобладание рождений мальчиков над рождениями девочек общим желанием отцов иметь сыновей, которые продолжают их имя. Так, представив себе урну, наполненную бесконечным числом белых и черных шаров, в одинаковом количестве, и предположив, что из большого числа лиц каждое вынимает шар из этой урны и продолжает тираж с намерением остановиться, когда им будет вынут белый шар, полагали, что это намерение должно дать числу вынутых белых шаров преобладание над числом черных. В самом деле, после всех тиражей оно даст непременно число белых шаров по крайней мере равное числу лиц; и возможно, что эти тиражи не дадут ни одного черного шара. Но легко убедиться, что это воззрение не что иное как иллюзия, ибо если мы допустим, что при первом тираже все лица сразу вынимают по шару из урны, то очевидно, что их намерения не могут иметь никакого влияния на цвет шаров, которые должны появиться при этом тираже. Его единственным последствием будет исключение из второго тиража тех лиц, которые вынули белые шары при первом тираже. Подобным же образом очевидно, что намерения лиц, которые примут участие в новом тираже, не повлияют на цвет шаров, которые появятся, и что то же самое будет иметь место при следующих тиражах. Следовательно, это намерение совсем не повлияет на цвет шаров, вынутых при всей совокупности тиражей; оно только приведет к участию большего или меньшего числа лиц в каждом из них. Отношение вынутых белых шаров к черным будет таким образом очень мало отличаться от единицы. Откуда следует, предполагая число лиц очень большим, если притом наблюдение дает между цветами вынутых шаров отношение, значительно отличающееся от единицы, что очень вероятным является существование почти того же самого различия между единицей и отношением в урне белых шаров к черным. К иллюзиям причисляю я также применение, которое Лейбниц и Даниил Бернулли сделали из исчисления вероятностей к суммированию рядов. Если мы разложим дробь, числитель которой единица, а знаменатель единица плюс переменная, в ряд, расположенный по степеням этой переменной, то легко убедиться, полагая переменную равной единице, что дробь обращается в 1/2, а ряд становится равным плюс единица, минус единица, плюс единица, минус единица и т.д. Складывая два первых члена, два следующих и т. д., мы преобразовываем этот ряд в другой, каждый член которого равен нулю. Грандн, итальянский иезуит, вывел отсюда заключение относительно возможности творения; в виду того, что ряд всегда равен 1/2, он полагал, что эта дробь возникает из бесконечного числа нулей, или из ничего. То же произошло и с Лейбницем. Он думал, что можно видеть подобие творения в его двоичной арифметике, где он употреблял только два знака: нуль и единицу. Он думал, что единица могла бы изображать Бога, а нуль - ничто, и что Высшее Существо вывело из ничего все существующее, подобно тому как единица с нулем выражает все числа в арифметической системе. Эта идея настолько понравилась Лейбницу, что он поделился ею с иезуитом Гримальди, представителем кафедры математики в Китае, в надежде, что эта эмблема творения обратит в христианство тогдашнего императора, который особенно любил науки, Я упоминаю об этой черте для того только, чтобы показать, до какой степени предрассудки детства могут вводить в заблуждение самых великих людей. Лейбниц, все еще руководимый странной и очень развязной метафизикой, считал, что ряд плюс единица, минус единица, плюс единица и т. д. делается единицей или нулем в зависимости от того, остановиться ли на нечетном или четном числе членов; и ввиду того, что нет никакого повода предпочитать четное число нечетному в бесконечности, должно, согласно правилам вероятностей, взять половину результатов, которые относятся к этим двум родам чисел и которые равны нулю и единице, что дает 1/2 для числового значения ряда. Даниил Бернулли распространил затем это рассуждение на суммирование рядов, составленных из периодических членов. Но все эти ряды, собственно говоря, не имеют числового значения: они его получают только в том случае, когда их члены умножаются на последовательные степени какой-либо переменной, меньшей единицы. В этом случае эти ряды всегда являются сходящимися, как бы ни была мала предполагаемая разница между переменной и единицей; и легко доказать, что числовые значения, определенные Бернулли на основании теории вероятностей, являются именно числовыми значениями дробей, образующих ряды, когда неременная в этих дробях предполагается равной 856 единице. Эти числовые значения являются также пределами, к которым все более и более приближаются ряды, по мере того как переменная приближается к единице. Но когда переменная как раз равна единице, ряды перестают быть сходящимися; они имеют числовое значение постольку, поскольку их прерывают. Замечательное отношение этого применения исчисления вероятностей к пределам числовых значений периодических рядов предполагает, что члены этих рядов умножены на все последовательные степени неременной. Но эти ряды могут вытекать из разложения бесконечного числа различных дробен, в которых это не имеет места. Так, ряд плюс единица, минус единица, плюс единица и т. д. может возникнуть из разложения дроби, числитель которой равен единице плюс переменная, а знаменатель равен этому числителю, увеличенному на квадрат переменной. Предполагая переменную равной единице, это разложение превращается в заданный ряд, и образующая дробь делается равной 2/3; правила вероятностей дали бы тогда ложные результаты, что доказывает, как опасно было бы применять подобные рассуждения, особенно в математических науках, которые должны в высшей степени отличаться точностью своих методов. Мы, естественно, склонны думать, что порядок, по которому, как мы видим, все на земле возобновляется, всегда существовал и будет существовать. В самом деле, если бы настоящее состояние вселенной совершенно походило на предшествующее, из которого оно возникли, то оно породило бы в свою очередь подобное же состояние. Смена jthx состояний тогда была бы вечной. Посредством применения анализа к закону всемирного тяготения я узнал, что движения вращения и возмущения планет и спутников и положения их орбит и экваторов подчинены только периодическим неравенствам. Сравнивая теорию векового ур-ния луны с древними затмениями, я нашел, что со времени Гипиарха продолжительность дня не изменилась и па сотую долю секунды и что средняя температура земли не уменьшилась и на сотую долю градуса. Таким образом постоянство настоящего состояния как будто устанавливается одновременно теорией и наблюдениями. Но это состояние нарушается различными причинами, которые внимательное рассмотрение позволяет заметить и которые неоозможно подвергнуть исчислению. Действия океана, атмосферы и метеоров, землетрясения и извержения вулканов колеблют беспрестанно земную поверхнос1Ь и со временем должны в ней производить значительные изменения. Температура климатов, объем атмосферы и отношение газов, се составляющих, могут изменяться незаметно. При новизне инструментов и среде pi, годных для определения этих изменений, наблюдение не моьто до сил нор ничему нас научить в этом oi ношении. Однако весьма мало правдоподобно, чтобы причины not лощения и восстановления 1азо;*, составляющих наш воздух, поддерживали н точности их соответствен ные количества Длинный ряд веков даст возможность познать изменения, испытываемые всеми jtiimh элементами, столь существенными для сохранения организованных существ. Хотя исторические памяшпки не восходят к самой глубокой древности, они все-таки \ называют до»о.г> но большие изменения, последовавшие от медлемного и продолжительного действия естественных агентов. Проникая в недра земли, открывают многочисленные <к татки природы, некогда существовавшей и совершенно отличной от настоянии природы. Кроме юго, если вея земля первоначально была жидкой, как все по-видимому указывает, то понято, что при переходе из того состояния к тому, в котором она находится теперь, поверхность ее должна была испытать громадные изменения. Длжс небо, несмотря на порядок в своих движениях, не неизменно. Сопротивление света п других эфирных жидкостей и притяжение звезд должны, после очень большого числа веков, значительно изменять движения планет. Изменения, уже замеченные в звездах и в форме 1умаииостей. застав.тт- ют предчувствовать те изменения, которые будут произведены временем в системе этих великих тел. Можно изобразить последовательные состояния .«.'елейной кривой, абсциссой которой служило бы время, а ординаты выражали бы эти различные состояния Едва зная какойЧы- бо элемент этой кривой, мы далеки от возможности добра 1ься до ее начала; и если для того, чтобы дать отдых воображению, все еще тревожимом) незнанием причины интересующих его явлений, рискуют делать какие-либо предположения, го благоразумно предлагать .их не иначе как с крайней осмотрительностью. Существусг при оценке вероятностей один рол иллюзий, которые, завися специально от законов устройства ума, требует для того, чтобы оградить себя от них, глубокого испытания .лих законов. Желание проникнуть в будущее и отношение некоторых замечательных событии к предсказаниям астрологов, гадателей и жрецов, к предчувствиям и снам, к числам и дням, слывущим счастливыми или несчастными, породили массу предрассудков, еще и теперь очень распространенные. Совсем не думают о большом числе несовпадений, которые не произве ли никакого впечатления или остались неизвестными; между тем как необходимо знать их, чтобы оценить вероятность причин, которым приписывают совпадения. Это значение без сомнения подтвердило бы то, что диктует нам разум относительно этих предрассудков. Та.<, философ древности, которому показывали в храме для превознесения могущества того бога, которому в нем поклонялись, ex-voto всех те*, кто призывая его, спасся от кораблекрушения, сделал замечание, согласующееся с исчислением вероятностей, сказав, что он совсем не видит записанными имена тех лиц, которые, несмотря на свои мольбы,
и >гибли. Цицерон опровергнул все эти предрассудки с большим умом и красноречием в своем Трактате о гадании, закапчивая его словами, которые я и приведу; ибо любят находить у древних черты мирового разума, который, рассеяв своим светом все предрассудки, обратится в единственное основание человеческих установлений. «Следует, - говорит римский оратор, - отбросить гадание по снам и все подобные предрассудки. Повсюду распространившееся суеверие поработило большую часть умов и овладело человеческой слабостью. Именно это мы развивали в наших книгах о природе богов, и в особенности в этом труде, будучи уверены, что принесем пользу другим и себе, если нам удастся разрушить суеверность. Однако (и я особенно желаю, чтобы в этом отношении моя мысль была хорошо понята), разрушая суеверность, я далек от того, чтобы желать затронуть религию. Благоразумие предписывает нам поддерживать учреждения н обряды наших предков, касающиеся культа богов. Кроме того, красота вселенной и порядок небесных явлений заставляют нас признать какую-то высшую природу, которая должна быть отмечена родом человеческим и которой он должен восхищаться. Но насколько приличествует распространять религию, которая связана с познанием природы, настолько же следует работать над искоренением суеверий, потому что они вас мучают, вас угнетают и беспрестанно всюду вас нреследуют. Если вы просите совета у гадателя или прорицателя, если вы приносите жертву, если вы смотрите на полет птицы, если вы встречаете халдейца или гадателя по внутренностям животных, если сверкает молиия, если гром гремит, если разражается гроза, наконец, если рождается или появляется некоторого рода чудовище, - все события, из которых нередко какое-нибудь и должно произойти: тогда суеверия, которые властвуют над вами не дают вам покоя. Даже сон, это прибежище смертных в их горестях и в их трудах, превращается благодаря им в предмет нового беспокойства и страха». Все эти предрассудки и страх, внушаемый ими, зависят от физиологических причин, которые иногда продолжают сильно действовать после того, как разум нас вывел из заблуждения. Однако повторение действий, противоречащих нашим предрассудкам, может всегда разрушить их. Докажем это с помощью следующих соображений. На границе видимой физиологии начинается другая физиология, явления которой, гораздо более разнообразные, чем явления первой, подчинены, подобно им, законам, знать которые весьма важно. Эта физиология, которую мы обозначим именем психологии, является без сомнения продолжением физиологии видимой. Нервы, волокна которых теряются в мозговом веществе, распространяют по нему впечатления, порученные ими от внешних предметов, и оставляют в нем постоянные впечатления, которые изменяют неизвестным нам образом сенсориум или местопребывание мысли. Внешние чувства ничему не могут нас научить относительно природы этих изменений, изумительных по своему бесконечному разнообразию, по своей отличительности и порядку, который они сохраняют в мапеньком пространстве, их вмещающем, - изменений, о которых нам дают некоторое понятие столь разнообразные явления света и электричества. Но, применяя к наблюдению над внутренним чувством, кото- рос одно может их замечать, метод, использоваиный в наблюдениях над внешними чувствами, можио было бы внести в теорию человеческого познания ту же точность, как и в другие отрасли натуральной философии. Некоторые принципы* психологии уже признаны и успешно развиты. Таково стремление всех существ со сходной организацией к установлению между собой гармонии. Это стремление, которое составляет симпатию, существует даже у животных различных видов: оио уменьшается по мере того, как их организация становится менее сходной. Среди существ, наделенных одинаковой организацией, некоторые сходятся друг с другом скорее, чем с остальными. Неорганическая природа знает подобные явления: двое часов, стенных или карманных, ход которых очень мало различается, будучи положены иа одну подставку, в конце концов начинают идти совершенно одинаково; и в системе зв)чащих струп колебания одной из них заставляют отзываться все гармонические. Эти действия, хорошо известные причины которых были подвергнуты исчислению, дают верное понятие о той симпатии, которая зависит от гораздо более сложных причин. Чувство приятного почти всегда сопровождает движения симпатии. У большей части видов животиых отдельные особи привязываются таким образом друг к другу и соединяются в общества. В роде человеческом сильные личности испытывают истинное счастье от господства над слабыми, которые испытывают ие меньшее счастье, повинуясь им. Чувство симпатии, возбужденное сразу в большом числе лиц, растет благодаря взаимной реакции, как это можно наблюдать в театре. Удовольствие, вытекающее из него, сближает лиц со сходными взглядами, объединение же воспламеняет их иногда до фанатизма. Таким образом возникают секты, возбуждаемое ими рвение и быстрота их распространения. В истории они представляют самые поразительные и самые пагубные примеры власти чувства симпатии. Часто представляется случай наблюдать, с какой легкостью симпатические движения, как например смех, сообщаются от одного только вида, без содействия какой бы то ни было другой причины, тем, кто этим чувством заража- • Я обозначай) названием принципов общие отношения явлений. ется. Влияние симпатии на сенсориум несомненно могущественнее: вибрации, которые она ему сообщает, когда они очень сильны, реагируя на животную экономию, производят необычайные действия, приписывавшиеся в века суеверия сверхъестественным силам и заслуживающие по своей исключительности внимания наблюдателей. Сострадаиие, благосклонность и много других чувств произошли от симпатии. Благодаря ей можно чувствовать чужое страдание и разделять радость того несчастного, которому оказывается помощь. Но я хочу здесь только изложить принципы психологии, не входя в развитие их следствий. Один из этих принципов, самый плодовитый из всех, есть принцип связи всех вешей, которые существовали в сенсориуме одновременно или в правильной последовательности, связи, которая, при возвращении одной из этих вещей, вызывает и остальные. К этому принципу имеет отношение употребление знаков и языков для того, чтобы вызывать ощущения н идеи, для образования и анализа идей сложных, отвлеченных и общих и для рассуждения. Многие философы хорошо развили этот предмет, который до сих пор составляет реальную часть метафизики. Можно еще установить, как принцип психологии, что часто повторявшиеся впечатления от одного и того же предмета иа различные чувства изменяют сенсориум так, что внутреннее впечатление, соответствующее внешнему впечатлению от предмета на одно только чувство, делается весьма отличным от того, чем оно было вначале. Разовьем этот принцип н с этой целью рассмотрим слепорожденного, которому только что вернули зрение. Образ нредмета, который запечатлевается на его сетчатке, производит на его сенсориум впечатление, которое я назову вторым образом, не желая ни уподоблять его первому, ни утверждать что-либо относительно его природы. Этот второй образ не есть сначала верный образ предмета; но привычное сравнение впечатлений от этого предмета, полученных посредством осязания, с впечатлениями, данными зрением, изменяя сенсориум, приводит наконец к тому, что второй образ становится согласным с действительностью, верно переданной осязанием. Образ, запечатлевшийся на сетчатке, не меняется; но внутренний образ, вызванный им, не остается тем же самым, как показали опыты, произведенные на многих слепорожденных, которым вернули зрение, Сенсориум претерпевает эти изменения главным образом в детстве. Ребенок, беспрестанно сравнивая впечатления, получаемые от одного и того же предмета при посредстве органов зрения и освязания, исправляет зрительные впечатления. Он приучает свой сенсориум придавать видимым предметам форму, указываемую осязанием, впечатления которого тесно связаны со зрительными, всегда их вызывающими. Тогда видимые предметы оказываются изображенными с такой же верностью, как осязаемые. Световой луч делается для зрения тем же, чем палка для осязания. Этим способом первое из этих чувств расширяет гораздо дальше чем второе область объектов своих впечатлений. Но даже небесный свод, к которому мы прикрепляем все светила, еще очень ограничен, и только путем длинного ряда наблюдений и исчислений мы дошли до позиания громадиых расстояний этих тел и научились неопределенио отдалять их в необъятном пространстве. Многим видам животных свойственна по-видимому та способность сенсориума, которая позволяет оценивать расстояния. Но человек, в котором природа заменила инстинкт, почти во всем, умом, нуждается взамен его в наблюдениях и сравнениях, которые удивительно способствуют развитию его умственных способностей и, благодаря этому развитию, обеспечивают за ним земное царство. Внутренние образы не являются поэтому действиями одной только причины; они вытекают либо из впечатлений, полученных одновременно одним и тем же, или различными органами чувств, либо из внутренних впечатлений, вызванных памятью. Взаимное влияние этих впечатлений является психологическим принципом, богатым последствиями. Разовьем некоторые из главных. Пусть наблюдатель, находящийся в совершенной темноте, видит два светящихся шара одного и того же диаметра на разных расстояниях: они покажутся ему неодинаковой величины. Их внутренние образы будут пропорциональны соответствующим изображениям, запечатлевшимся на сетчатке. Но если, по прекращении темноты, он увидит одновременно е шарами все промежуточное пространство, то это зрелище увеличивает внутренний образ более удаленного шара и делает его почти равным образу другого шара. Отсюда происходит, что человек, видимый на расстоянии двух и четырех метров, кажется нам одной и той же величины: его внутренний образ ие меняется, хотя одно из запечатлевшихся иа сетчатке изображений вдвое больше другого. Точно так же, благодаря впечатлению от промежуточных предметов, и луна на горизонте кажется нам большей, чем в зените. Мы замечаем над веткой, близкой к глазу, предмет, который относим на далекое расстояние и который кажется очень большим. Затем мы узнаем о связи, соединяющей его с веткой: то, что мы заметили эту связь, тотчас же меняет внутреннее изображение и сводит его к гораздо меньшим размерам. Все это не просто суждения, как думали некоторые метафизики; это - физиологические эффекты, зависящие от способностей, приобретенных сенсориумом путем привычиого сравнения впечатлений 857
от одного н того же предмета на органы нескольких чувств и в особенности на органы освязания и зрения. Влияние следов, вызванных памятью, на впечатления, производимые внешними предметами, дает себя знать в большом числе случаев. Видны издали буквы, однако невозможно разобрать, какое слово они изображают. Если кто-либо произнесет это слово или если какое-либо обстоятельство напомнит его памяти, тотчас же внутреииее изображение этих букв, таким образом возобновленных, накладывается, если я могу так выразиться, на неясное изображение, вызванное впечатлением от внешних знаков, и делает его отчетливым. Вид букв вызывает следы соответствующих им звуков; и эти следы, смешиваясь с неясными звуками голоса, позволяют различить их. Страх часто преображает таким способом предметы, которых слишком слабый свет пе позволяет распознать, в предметы страшные, имеющие с ними сходство. Изображение этих последних предметов, сильно запечатлевшееся в сенсориу- ме от страха, приписывается впечатлению от внешних предметов. Важно оградить себя от этой причины иллюзий в следствиях, выводимых из наблюдений явлений, которые производят лишь очень слабое впечатление: таково наблюдение относительно уменьшения света на поверхности планет и спутников, откуда заключили о существовании и о плотности их атмосфер и об их вращательных движениях. Часто приходится опасаться, чтобы внутренние образы не уподобили себе этих впечатлений: мы склонны верить в существование тех вещей, которые представлены впечатлениями, полученными от чувств. Эта замечательная склонность зависит от особого характера, которым впечатления, идущие извне, различаются от следов, созданных воображением или вызванных памятью. Но иногда бывает вследствие расстройства в сенсориуме или в органах, действующих на него, что эти следы приобретают характер и живость внешних впечатлений: тогда человек признает соответствующие предметы присутствующими, он видит призрак. Тишина и сумрак ночи благоприятствуют этим иллюзиям, которые во время сна становятся полными и образуют сновидения; о них будем иметь верное представление, если примем во внимание, что следы предметов, которые представляются нашему воображению в темноте, приобретают большую напряженность во время сна. Все побуждает думать, что у лунатиков некоторые чувства не вполне усыплены. Если чувство осязания, например, остается еще немного чувствительным к прикосновению внешних предметов, то слабые впечатления, получаемые им от них, переданные сенсориуму, могут, сочетаясь с образами сновидения лунатика, изменять их и управлять его движениями. Когда, принимая во внимание эти соображения, я исследовал хорошо проверенные рассказы о необычайных вещах, совершаемых лунатиками, то мне показалось, что можно дать им очень простое объяснение. Иногда ясновидящим кажется, что они слышат речь воображаемых ими лиц, и они ведут с ними связный разговор; сочинения врачей полны фактов этого рода. Боннэ приводит как человека, которого он часто наблюдал, своего деда по матери, «старика», говорит он, «полного здоровья, который независимо от какого бы то ни было впечатления извне видит от времени до времени перед собою образы мужчин, женщин, птиц, экипажей, строений и т. д. Он видит, как эти образы обмениваются различными движениями, приближаются друг к другу, удаляются друг от друга, бегут, уменьшаются и увеличиваются в размерах, появляются, исчезают и снова появляются. Он видит строения, которые возвышаются перед его глазами, и т.д. Но он совсем не принимает этих видений за действительные: его ум забавляется ими. Он не знает, какое видение явится ему в каждый следующий момент. Его мозг является театром, исполняющим сцены, тем более удивительные для зрителя, что он совершенно не предвидел их». Читая историю Жанны Д'Арк, мы вынуждены признать чистосердечную ясновидящую в этой чудной девушке, чья мужественная экзальтация так сильно способствовала освобождению Франции от ее врагов. Весьма возможно, что многие из тех, которые провозглашали, что их учения получены ими от сверхестествениого существа, были ясновидцами: они тем скорее убеждали других, что сами были убеждены. Благочестивые обманы и сильные средства, к которым они потом прибегали, казались им оправдываемыми целью распространения того, что они считали истинами, необходимыми для людей. Особый характер отличает от плодов воображения следы, вызванные памятью, которыми мы обязаны впечатлениям от внешних предметов. Мы склонны как бы инстинктивно признавать прошедшее существование этих предметов в том порядке, который подсказывает нам память. Постоянные опыты подтверждают истинность следствий, извлекаемых нами отсюда для иашего поведения, и укрепляют эту склонность. Каков механизм, который при этой операции сенсориу- ма определяет наши суждения? Мы его не знаем и можем только замечать его действия. С помощью этого механизма даже и слабые следы памяти позволяют нам оценивать их первоначальную силу, которую мы таким образом можем сравнивать с подобными же впечатлениями от присутствующих предметов. Таким образом мы считаем, что цвет, виденный нами накануне, был ярче того, который поражает наше зрение в данную минуту. 858 Впечатления, сопровождающие следы памяти, помогают нам вспоминать их причины. Так, когда к воспоминанию о чем-либо, рассказанном нам, присоединяется воспоминание о доверии, которое мы оказали рассказчику, если имя его ускользает от нас, мы вспомним его, припоминая последовательно имена лиц, с которыми мы разговаривали, до тех пор, пока мы не дойдем до имени, внушившего нам это доверие. Присутствующие предметы, уже виденные нами, пробуждают следы вещей, которые были с ними связаны, когда мы их видели первый раз. Эти следы пробуждают подобным же образом следы других предметов и т.д., так что по поводу какой-либо присутствующей вещи мы можем вспомнить их целую бесконечность и остановить наше внимание на тех, которые хотим рассмотреть. Впечатления, воспринятые в детстве, сохраняются до самой глубокой старости и пробуждаются даже тогда, когда сильные впечатления зрелого возраста совершенно изгладились. Кажется, как будто первые впечатлепия, глубоко запечатлевшиеся в сенсориуме, ждут только ослабления последующих впечатлений возрастом или болезнью, чтобы снова появиться, подобно тому как светила, которые затмевал дневной свет, показываются ночью или во время солнечных затмений. Следы памяти приобретают в напряженности от действия времени и без нашего ведома. То, что мы узнаем вечером, запечатлевается в сенсориуме во время сна и легко запоминается таким способом. Я много раз замечал, что, когда я переставал на несколько дней думать об очень сложных вопросах, они становились для меня легкими, когда я вновь начинал их рассматривать. Если мы снова видим предмет, который поразил нас своей величиной, долгое время спустя после того, как от частого наблюдения однородных с ним предметов, гораздо больших, уменьшилось впечатление величины, которое они производят, то мы удивляемся, найдя, что он сильно уступает впечатлению, сохраненному о нем памятью. Некоторые люди одарены поразительной памятью. Точностью, с которой они повторяют длинные разговоры, слышанные ими, удивляет нас. Но когда подумаешь обо всем, что содержит в себе память большинства людей, то удивишься еще гораздо более тому, что столько вмещается в ней, не путаясь. Посмотрите на певца на сцене: его память подсказывает ему каждое слово его роли, размер и движения, которыми она должна сопровождаться. Если же новая роль следует за первой, то первая кажется как бы вычеркнутой из памяти, которая восстанавливает в надлежащем порядке все части второй роли и которая восстановила бы подобным же образом все различные роли, разученные певцом. Эти следы, число которых громадно, или по крайней мере состояние, способное породить их, существуют в его сенсориуме одновременно, не смешиваясь, и актер может вызвать их по своему желанию. Я должен здесь повторить, что словами след, образ, колебание и т. д. я хочу выразить только явления сенсориума, ничего не утверждая относительно их природы и их причин, подобно тому как в механике выражают лишь эффекты словами сила, притяжение, сродство и т. д. Действия сенсориума и те движения, которые он заставляет выполнять, делаются более легкими и как бы естественными от частых повторений. Из этого психологического принципа вытекают наши привычки. Комбинируясь с симпатией, он образует обычаи и нравы с их своеобразными особенностями. Благодаря ему один народ смотрит с ужасом на то, что у другого общепринято. Битвы гладиаторов, зрелище которых римляне страстно любили, и человеческие жертвоприношения, которые оскверняют летописи народов, показались бы нам ужасными. Когда смотришь на плачевное состояние рабов, на унижение париев в Индии, на нелепость стольких верований, противных разуму и свидетельствам всех наших чувств, то с прискорбием видишь, до какой степени привычка к рабству и предрассудкам унижала род человеческий. Это состояние, в которое сенсориум приходит путем частных повторений, очень затрудняет различение приобретенных привычек от наклонностей, зависящих от организации человека; ибо естественно думать, что инстинкт, столь распространенный и могущественный у животных, пе исчезает совершенно в роде человеческом и что привязанность матери к ребенку происходит из него. Двойное влияние привычки и симпатии изменяет эти наклонности, часто укрепляет их; иногда оио извращает их до такой степеии, что они заменяются противоположными. Некоторые наблюдения, сделанные над человеком и животными, продолжить которые представляет большой интерес, наводят нас на предположение, что изменения сенсориума, которым привычка придала большую устойчивость, передаются от отцов к детям, из поколения в поколение, подобно многим органическим способностям. Податливость, которую придает органам постоянное упражнение, такова, что часто они продолжают сами собой движения, сообщенные им волей. Когда, идя, мы сильно заняты какой-нибудь мыслью, то причина, которая возобновляет каждое мгновение наше движение, действует без участия нашей воли, и мы не даем себе в этом отчета. Были случаи, что люди, застигиутые сном во время ходьбы, продолжали свой путь и просыпались, только встретив какое-либо препятствие. Кажется, как будто ход продолжается благодаря тому состоянию, которое придало двигательной системе желание идти, подобно тому как ход часов поддерживается раскручиванием спиральной пружины. Расстройство в животной экономии может вызвать такое состояние. Тогда движение ходьбы делается невольным, и от одного просвещенного врача я узнал, что при такого рода болезни, которую он лечил, больной
мог остановиться, только держась за неподвижную точку опоры. Таким образом, наблюдения над болезнями могут пролить много света на психологию, когда врачи соединяют со знанием своего искусства и соприкасающихся наук способность точного критического отношения, которую дает изучение математики и в особенности науки о вероятностях. Из сказанного нами о взаимном влиянии следов сенсорнума становится понятным, что музыка путем частых повторений может сообщать нашим движениям правильность своего размера. Это мы и наблюдаем в ганцах и в разных упражнениях, точность движений которых, регулированных таким образом, нам кажется необычайной. Этой регулярностью музыка обыкновенно облегчает движения, выполняемые многими лицами сразу. Весьма замечательное психологическое явление представляет сильное влияние внимания на следы сенсориума. Оно увеличивает их живость и в то же время ослабляет сопровождающие побочные впечатления. Если мы пристально смотрим на предмет, чтобы различить какие-нибудь особенности его, то внимание может сделать нас нечувствительными к впечатлениям, производимым в то же самое время на сетчатку другими предметами. С его помощью образы предметов, которые мы желаем сравнить, приобретают силу, необходимую для того, чтобы их отношения одни занимали нашу мысль; оно пробуждает следы памяти, могущие служить для этого сравнения, и благодаря этому оно становится могуществениейшей пружиной человеческого ума. Когда внимание часто обращается на какое-либо особенное качество предметов, то оно наделяет, накоиец, органы утонченной чувствительностью, которая позволяет узнавать это качество и тогда, когда оно делается иезаметиым обыкиовениому человеку. Эти принципы объясняют странные эффекты, производимые панорамами. Когда правила перспективы в них хорошо соблюдены, то предметы запечатлеваются на сетчатке, как если бы они были реальны; тогда зритель находится в том же состоянии, какое породила бы реальность предметов. Но перспектива никогда не достигает точности достаточной, чтобы тождество достигло совершенства. Кроме того, посторонние впечатления, хотя бы и слабые, примешиваясь к главным, производимым перспективой, нарушают сначала иллюзию. Внимание, сосредоточенное на панораме, уничтожает нх; но для этого нужно более или менее продолжительное время, в зависимости от состояния сенсориума и от совершенства панорамы. Во всех панорамах, виденных мною, промежуток времени в несколько минут мне был необходим для получения полной иллюзии. Следующий принцип психологии объясняет большое число явлений, которые имеют прямое отношение к предмету этого труда: «Если часто выполнять действия, вытекающие из особого изменения сенсориума, то реакция их на этот орган может не только увеличить это изменение, но иногда и быть его причиною». Так, движение руки, которая держит длинную висящую цепь, распространяется вдоль цепи до ее нижнего коица; и если после того, как цепь пришла в состояние покоя, привести в движение этот конец, то колебание подымется до руки, которую оно в свою очередь заставит двигаться. Эти взаимные движения делаются легче от частого повторения. Действие этого принципа иа веру замечательно. Вера, или наше согласие с известным предложением, обыкновенно основана на очевидности, на свидетельствах чувств или на вероятностях: в этом последнем случае степень ее силы зависит от степени вероятности, которая в свою очередь зависит от данных, которые каждый человек может иметь относительно предмета своего суждения. Мы часто поступаем сообразно с нашей верой, не имея нужды вспоминать ее доводов. Вера является, следовательно, изменением сенсориума, которое существует независимо от этих доводов, подчас совершенно забытых, и которое побуждает нас совершать действия, являющиеся его последействиями. Согласно только что нами изложенному принципу, частое повторение этих действий может произвести это изменение, особенно, если они повторяются сразу большим числом лиц, ибо тогда к силе нх реакции присоединяется власть подражания, необходимое следствие симпатии. Когда эти действия являются долгом, который налагают на нас обстоятельства, то стремление животной экономии принимать положение, самое благоприятное нашему самочувствию, также располагает нас к вере, благодаря которой мы выполняем их с удовольствием. Мало людей, которые не поддаются действию всех этих причин. Паскаль хорошо раскрыл эти эффекты в одной главе своих мыслей, которая носит своеобразиое заглавие, что трудно доказать существование Бога посредством естественных познаний и что самое верное - это верить в Него. Обращаясь к неверующему, он выражается так: «Вы хотите идти к вере, и вы не знаете к ней дороги; вы хотите исцелиться от неверия н вы спрашиваете лекарство от него. Узнайте его от тех, кто были такими же, как и вы, и кто в настоящее время не имеет иикаких сомнеиий. Они зиают ту дорогу, которой вы хотели бы следовать, и они исцелены от болезни, от которой вы хотите исцелиться. Следуйте тому, с чего они начали. Подражайте их внешним действиям, если вы еще не можете войти в их внутреннее состояние; бросьте эти суетиые забавы, которые исключительно занимают вас. Я тотчас же бросил бы эти развлечения, говорите вы, если бы я уверовал. А я вам говорю, что вы тотчас же уверовали бы, если бы вы бросили эти развлечения. Начало же должно быть положено вами. Если бы я мог, я дал бы вам веру; я не могу этого сделать и не могу, следовательно, убедиться в справедливости того, что вы говорите; вы же можете вполне бросить ваши развлечения и испытать, верно ли то, что я вам говорю». «Не следует заблуждаться: мы столько же плоть, сколько и дух; отсюда происходит, что орудием, которым достигается убеждение, являются не одни только доказательства. Как мало вещей доказано! Доказательства убеждают только ум; привычка придает нашим доказательствам наибольшую силу. Она склоняет чувства, которые увлекают дух без нашего ведома. Кто доказал, что завтра наступит день, что мы умрем? А существует что-либо другое, во что вера была бы более распространена? Значит, убеждает нас привычка; это она делает стольких турками и язычниками; это она делает ремесленниками, солдатами и т.д. Правда, не следует начинать с нее, чтобы найти истину* , но следует прибегать к ней, раз рассудок убедился, где истина, чтобы проникнуться и окраситься этой верой, постоянно ускользающей от нас; ибо иметь всегда наготове доказательства слишком трудно. Надо обрести веру более легкую, какой является привычиая вера, которая без насилия, без искусства, без доказательств заставляет нас верить во что-либо и преклоняет наши силы перед этой верой, так что душа наша естественно отдается ей. Недостаточно верить только в силу убеждения, если наши чувства склоияют нас к противоположному. Следует поэтому пускать в ход обе стороны нашего существа вместе: рассудок, посредством доводов, которые достаточно рассмотреть раз в жизни, и чувства посредством привычки, не позволяя им склоняться к противоположному». Средство, которое Паскаль предлагает, чтобы обратить неверующего, может быть применено с успехом, чтобы уничтожить предрассудки, воспринятые в детстве и укоренившиеся в силу привычки. Этот род Предрассудков возникает часто из самой пустой причины в деятельных воображениях. Допустим, что лицо, связывающее со словом левый мысль о несчас ии, аждый день делает правой рукой что-либо, что может быть выполнено безразлично той или другой рукой; эта привычка может увеличить отвращение к применению в этом деле левой руки до такой степени, что рассудок окажется бессильным против этого предрассудка. Легко можно допустить, что Август, наделенный умом во многих отношениях необыкновенным, иногда упрекает себя за свою слабость, заключающуюся в том, что он не отваживается пускаться в путь в день, следующий за ярмаркой, и что он захотел превозмочь эту слабость. Но в ту минуту, когда он предпринимал путешествие в один из этих дней, считающихся несчастными, он мог говорить себе, что самым безопасным было бы отложить путешествие, увеличивая таким образом свое отвращение привычкой поддаваться ему. Частое повторение действий, противоречащих этим предрассудкам, должно их со временем ослаблять и заставлять совершенно исчезнуть. Привязанность, питаемая к лицам, которых мы часто обязываем, вытекает из принципа, который мы только что развивали. Частое повторение поступков в их пользу увеличивает, а иногда даже порождает то чувство, естественным следствием которого они являются. Действия, которые нас заставляет выполнять многократно склонность к чему-либо, усиливают эту склонность и часто превращают ее в страсть. Из предыдущего можно видеть, насколько наша вера зависит от наших привычек. Привыкнув судить и поступать согласно известного рода вероятностям, мы выражаем этим вероятностям свое одобрение как бы инстинктивно, и они убеждают нас с большей силой, чем вероятности гораздо высшие, являющиеся результатом размышления или исчисления. Вещь неправдоподобная часто заставляет нас сомневаться: мы не колеблясь отбрасываем ее, если она противоречит нашим привычным вероятностям. Чтобы по мере возможности ослабить эту причину иллюзий, надо призвать на помощь рассудку воображение и чувства. Представив себе в виде линий соответствующие вероятности, мы почувствуем их различие гораздо лучше. Линия, изображающая вероятность свидетельского показания, которое подкрепляет необычайный факт, будучи помещена рядом с линией, изображающей неправдоподобие этого факта, сделала бы очень заметной вероятность ошибки этого свидетельского показания, подобно тому как рисунок, на котором сопоставлены высоты гор, дает поразительное представление об отношениях этих высот. Это средство может быть применено с успехом во многих случаях. Чтобы сделать ощутимой необъятность вселенной, изобразим почти незаметной величиной, одной десятой миллиметра, наибольшее протяжение Франции в длину; расстояние от земли до солнца равно будет четырнадцати метрам; расстояние до ближайшей звезды превзойдет полтора миллиона метров, т. е. семь или восемь раз взятый радиус самого обширного горизонта, доступного глазу с самой высокой точки. И все еще таким образом мы будем иметь лишь очень слабую картину величины вселенной, которая простирается бесконечно за самыми блестящими звездами, как это доказывает громадное число звезд, расположенных одни за другими и скрывающихся из виду в глубине небес. Но при всей ее слабости картины этой достаточно, чтобы * Паскаль здесь упускает из виду то, что он только что советовал, чтобы обрести веру, а именно - начинать с внешних действий, 859
заставить почувствовать нелепость представлений о превосходстве человека надо всей природой,- представлений, из которых выведены были столь странные заключения. Наконец, мы установим в качестве психологического принципа преувеличение вероятностей страстями. Вещь, которой мы сильно боимся или желаем, кажется нам, именно благодаря этому, вероятной. Образ ее, сильно запечатлевшийся в сенсориуме, ослабляет впечатление противоположных вероятностей и иногда изглаживает их настолько, что заставляет верить, что вещь эта уже случилась. Размышление и время, уменьшая живость этих чувств, возвращают рассудку спокойствие, необходимое для правильной оценки вероятности событий. Колебания в сенсорнуме должны быть, как все движения, подчинены законам динамики, что и подтверждено опытом. Движения, которые они передают мускульной системе и которые эта система сообщает посторонним телам, как при развертывании пружин, таковы, что общий центр тяжести нашего тела и тех, которые оно приводит в движение, остается неподвижным. Эти колебания накладываются друг на друга, подобно тому как волны в жидкости соединяются, не смешиваясь. Они сообщаются людям, как колебания звучащего тела сообщаются окружающим телам. Сложные идеи образуются из простых, как морской прилив образуется из частичных приливов, вызываемых солнцем и луной. Колебание между противоположными побуждениями есть равновесие равных сил. Внезапные изменения, производимые в сенсориуме, испытывают сопротивление, которое и материальная система противополагает подобным изменениям; и если мы хотим избежать потрясений и не терять живой силы, го надо действовать, как и в этой системе, посредством незаметных переходов. Напряженное и продолжительное внимание истощает сенсориум, подобно тому как длинный ряд электрических ударов истощает вольтов столб, или электрический орган у рыб. Почти все сравнения, почерпаемые нами из материальных предметов, для того чтобы сделать ощутимыми вещи интеллектуальные, представляют в сущности тождества. Я желал бы, чтобы предыдущие размышления, при всем своем несовершеистве, могли привлечь внимание исследователей философов к законам сенсориума, или миру интеллектуальному,- законам, вникать в которые для нас так же важно, как в законы мира физического. Для объяснения явлений этих двух миров придумали до некоторой степени сходные гипотезы; но ввиду того, что основание этих гипотез ускользает от всех наших способов исследования и исчисления, можно на их счет сказать вместе с Монтэнем, что невежество и отсутствие любознательности - две очень мягкие подушки, чтобы покоить рассудительную голову. Различные способы приближения к достоверности. Индукция, аналогия гипотез, основанных на фактах и беспрестанно поверяемых новыми наблюдениями, счастливый природный такт, подкрепленный частым сравниванием их указаний с опытом, - таковы главные средства достижения истины. Если внимательно рассматривать ряд однородных предметов, то можно заметить между ними и в их изменениях отношения, которые все более и более обнаруживаются, по мере того как ряд продолжается, и которые, непрерывно распространяясь и обобщаясь, приводят наконец к тому принципу, из которого они вытекают. Но часто эти отношения скрыты столькими посторонними обстоятельствами, что требуется много проницательности, чтобы выделить их и дойти до этого принципа: в этом и заключается истинный научный гений. Анализ и натуральная философия обязана своими важнейшими открытиями тому плодотворному методу, который называется индукцией: Ньютон обязан ему своей теоремой о биноме и принципом всемирного тяготения. Трудно оценить вероятность результатов индукции, которая основывается на том, что простейшие отношения суть самые обыкновенные; что оправдывается в формулах анализа и в том, что мы находим в естественных явлениях, в кристаллизации, в химических соединениях. Эта простота отношений вовсе не будет казаться удивительной, если принять во нниманис, что все действия природы не что иное, как математические результаты небольшого числа неизменных законов. Однако одной индукции, позволяющей открывать общие принципы наук, не достаточно, для того чтобы установить их в точности. Их нужно еще подтверждать доказательствами или окончательным испытанием, ибо история наук указывает нам, что индукция приводила иногда к неточным результатам. Приведу в качестве примера одну теорему Фермата о первоначальных числах; этот великий геометр, который глубоко вдумывался в их теорию, искал такую формулу, которая, содержа только первоначальные числа, дала бы непосредственно первоначальное число, большее любого, наперед данного. Индукция привела его к мысли, что два, возведенное в степень, которая в свою очередь есть степень двух, образует с единицей первоначальное число. Так, два, возведенное в квадрат, плюс единица, образует первоначальное число пять: два, возведенное во вторую степень двух, или шестнадцать, образует с единицей первоначальное число семнадцать. Он нашел, что это верно также для восьмой и шестнадцатой степеней 860 двух, увеличенных на единицу; и эта индукция, опирающаяся на многие арифметические соображения, побудила его рассматривать этот результат как общий. Однако он признает, что не доказал его. В самом деле, Эйлер нашел, что это предложение не имеет более места для тридцать второй степени двух, которая, будучи увеличена на единицу, дает 4 294 967 297 - число, делящееся на 641. Мы думаем по индукции, что, если различные события, движения, напр., являются постоянно, в продолжение долгого времени, связанными простым отношением, то они все время будут оставаться подчиненными ему; а отсюда мы заключаем но теории вероятностей, что это отношение зависит не от случая, но от регулярной причины. Таким образом, равенство движений вращения и обращения луны, равенство движений узлов орбиты и экватора луны и совпадение этих узлов; особенное отношение движений трех первых спутников Юпитера, согласно которому средняя долгота первого спутника минус три раза взятая средняя долгота второго плюс два раза взятая третьего равна двум прямым углам; равенство промежутков между приливом и отливом промежутку между прохождениями луны через меридиан; возвращение самых сильных приливов и отливов вместе с сизигиями, а самых малых с квадратурами,- все эти явления, сохраняющиеся с тех пор, как их исследуют, указывают с крайним правдоподобием на существование постоянных причин, и геометрам удалось связать эти причины с законом всемирного тяготения, знание которого обращает отмеченное постоянство отношений в достоверное. Канцлер Бэкои, этот столь красноречивый и деятельный сторонник истинного философского метода, весьма странным образом злоупотребил индукцией, чтобы доказать, что земля неподвижна. Вот как он рассуждает в Novum organum, прекраснейшем из своих трудов. Движение светил с востока на запад совершается тем быстрее, чем более они удалены от земли, Это движение наиболее быстро для звезд; оно немного замедляется для Сатурна, немного более для Юпитера и т.д. до луны и наименее высоких комет. Оно еще заметно в атмосфере, особенно между тропиками, вследствие больших кругов, описываемых там молекулами воздуха; наконец, оно почти иеэаметио для океана; оно равно поэтому нулю для земли. Но эта индукция только доказывает, что Сатурн и те светила, которые ниже его, имеют собственные движения, противоположные действительному или кажущемуся, увлекающему весь небосвод с востока на запад, и что эти движения кажутся более медленными для светил более удаленных, что и согласуется с оптическими законами. Бэкон должен был бы поразиться той непостижимой скорости, которую надо приписать светилам, чтобы они могли совершать свое суточное обращение, если земля неподвижна, а также чрезвычайной простоте, с которой вращение объясняет, каким образом тела, настолько удаленные друг от друга, как звезды, солнце, планеты и луна, все кажутся подчиненными этому обращению. Что касается океана и атмосферы, то он не должен был уподоблять их движения движению светил, которые отделены от земли, в то время как воздух и море составляют часть земного шара и должны разделять его движение или его покой. Удивительно, что Бэкон, влекомый своим гением к возвышенным точкам зрения, не увлекся величественным представлением, которое дает о вселенной система Коперника. Между тем он мог иайти в пользу лтой системы сильные аналогии в открытиях Галилея,, которые были ему известны. Для исследования истины он давал наставления, но не подавал примера. Однако настаивая со всей силой доводов и красноречия на необходимости отказаться от пустых тонкостей школы, для того чтобы отдаться наблюдениям и опыту, и указывая истинный метод перехода к общим причинам явлений, этот великий философ способствовал громадным успехам, сделанным человеческим умом в том прекрасном веке, в котором ои окончил свою жизнь Аналогия основывается на вероятности того, что сходные вещи происходят от однородных причин и имеют одинаковые следствия. Чем совершеннее подобие, тем более увеличивается эта вероятность. Так, мы, не сомневаясь, решаем, что существа, наделенные одними и теми же органами, выполняя одно и то же, испытывают одинаковые ощущения и движимы одинаковыми желаниями. Вероятность того, что животные, приближающиеся к нам по своим органам, имеют ощущения аналогичные нашим, хотя и меньше вероятности, которая относится к особям нашего рода, но все еще чрезвычайно велика, и потребовалось все влияние религиозных предрассудков, чтобы заставить некоторых философов думать, что животные - простые автоматы. Вероятность существования ощущений убывает по мере того, как сходство органов с нашими органами уменьшается; но она все еще очень велика даже для насекомых. Видя, что насекомые одного и того же вида выполняют весьма сложные действия, совершенно одинаковым образом, из поколения в поколение, ие учась им, мы склонны думать, что они действуют по известного рода сродству, аналогичному тому, которое сближает молекулы кристаллов, которое однако, смешиваясь с ощущением, свойственным всякой животной организации, образует с правильностью химических соединений соединения гораздо более необычайные: можно было бы, пожалуй, назвать животным сродством это смешение избирающего сродства и чувствования. Хотя и существует много аналогии между строением растений и животных, мне все же кажется, что ее недостаточно, чтобы распространить на растения способность чувствовать; однако ничто не дает нам права отказать им в ней. Ввиду того, что солнце благотворным действием своего света и тепла вызывает к жизни животных и растения, которые покрывают землю,
мы думаем по аналогии, что оно производит подобное же действие и на другие планеты; ибо было бы неестественно думать, что материя, деятельность которой, как мы видим, развертывается так многообразно, бесплодна на такой большой планете, как Юпитер, который, как и земной шар, имеет свои дни, свои ночи и свои года и на котором, по наблюдениям, происходят изменения, предполагающие весьма деятельные силы. Однако было бы чрезмерным расширением аналогии выводить отсюда заключение о сходстве жителей планет и земли. Человек, приспособленный к той температуре, в которой он живет, и к той атмосфере, которою он дышит, не мог бы, по-видимому, жить на других планетах. Не должно ли существовать бесконечное множество организаций, соответствующих различным условиям миров нашей вселенной? Если одно только различие в среде и климате придает такое разнообразие творениям земли, то насколько сильнее должны различаться творения различных планет и их спутников. Самое деятельное воображение не может себе составить никакого представления о них; но существование их очень правдоподобно. Сильная аналогия побуждает нас рассматривать звезды как столько же солнц, обладающих, подобно нашему, силой притяжения пропорциональной массе и обратно пропорциональной квадрату расстояний. Ибо, ввиду того, что эта сила доказана для всех тел солнечной системы и для малейших их молекул, она кажется присущей всей материи. Движения малых звезд, названных двойными из-за близости друг к другу, уже указывают, по-видимому, на это: потребовалось бы самое большее одно столетие точных наблюдений, подтверждающих движения обращения одних из них вокруг других, чтобы поставить вне всякого сомнения их взаимное притяжение. Аналогия, которая побуждает нас сделать из каждой звезды центр планетной системы, гораздо менее сильна, чем предшествующая, но она приобретает правдоподобие благодаря гипотезе, предложенной нами относительно образования звезд и солнца; ибо ввиду того, что по этой гипотезе каждая звезда, подобно солнцу, была первоначально окружена обширной атмосферой, естественно приписывать этой атмосфере те же действия, как и солнечной, и предполагать, что из нее возникли вследствие ее сгущения планеты и спутники. Многими научными открытиями обязаны мы аналогии. Приведу, как одно из самых замечательных, открытие атмосферного электричества, к которому привела аналогия электрических явлений с эффектами грома. Самый верный метод, который мог бы руководить нами при искании истины, состоит в переходе с помощью индукции от явлений к законам, от законов к силам. Законы суть отношения, которые связывают между собой отдельные явления: когда они раскрыли общий принцип тех сил, от которых они происходят, его поверяют либо непосредственными опытами, если это возможно, либо исследуя, согласен ли он с известными явлениями; и если посредством строгого анализа убеждаются, что все они вытекают из этого принципа до мельчайших подробностей, если, помимо этого, они очень разнообразны и многочисленны, тогда наука приобретает наивысшую степень достоверности и совершенства, доступную ей. Такой стала астрономия благодаря открытию всемирного тяготения. История наук указывает, что этот медленный и трудный путь индукции не всегда был путем тех, которые делают открытия. Воображение, нетерпеливо стремящееся дойти до причин, любит создавать гипотезы; часто оно искажает факты, чтобы подчинить их тому, что оно создало; тогда гипотезы становятся опасными. Но когда на них смотрят только как на средство связывать между собой явления, чтобы открыть их законы, когда, избегая приписывать им реальность, исправляют их постоянно новыми наблюдениями, они могут привести к истинным причинам или, по крайней мере, дать нам возможность из наблюденных явлений вывести явления, которые должны породить данные обстоятельства. Если испытаем все гипотезы, которые можно предложить относительно причины явлений, то путем исключения мы дойдем до истинной. Этот способ применялся с успехом: иногда приходили к нескольким гипотезам, которые одинаково хорошо объясняли все известные факты и относительно которых ученые разделялись до тех пор, пока решающие исследования не указывали истинную гипотезу. Интересным является для истории человеческого разума вернуться тогда к этим гипотезам, увидеть, каким образом с помощью их удавалось объяснять большое число фактов, и найти те изменения, которым они должны подвергнуться, чтобы быть согласными с природой. Таким образом система Птоломея, которая является только выражением кажущегося вида неба, преобразуется в гипотезу движения планет вокруг солнца, если сделать равными и параллельными солнечной орбите круги и эпициклы, которые Птоломей заставляет ежегодно описывать и величину которых он оставляет неопределенной. Чтобы преобразовать эту гипотезу в истинную систему мира, достаточно затем отнести в обратном смысле к земле видимое движение солнца. Почти всегда оказывается невозможным подвергнуть исчислению вероятность результатов, добытых этими различными способами: подобным же образом это имеет место и для исторических фактов. Но совокупность объясненных явлений или свидетельств бывает иногда такова, что, не имея возможности оценить их вероятность, все же было бы неосновательно допустить относительно их какое-либо сомнение. В остальных случаях благоразумно признавать их лишь с большой осторожностью. Исторический очерк исчисления вероятностей. Уже давно были определены в самых простых играх отношения статочностей, благоприятствующих и неблагонриятствующих игрокам: ставки и пари устанавливались сообразно этим отношениям. Но до Паскаля и Фермата никто еще не дал принципов и методов для подчинения этого предмета исчислению и не решал хоть сколько-нибудь сложных вопросов этого рода. Этим двум великим геометрам следует поэтому приписать первые элементы науки о вероятностях, открытие которой может быть поставлено в ряду замечательных событий, ознаменовавших собою XVII век, век, - который делает всего более чести человеческому разуму. Главная задача, которую они решили разными путями, заключается, как мы раньше видели, в том, чтобы разделить справедливо ставку между игроками, ловкость которых одинакова и которые условились прекратить партию раньше, чем она кончится; условие игры состоит в том, что для выигрыша партий надо получить первому данное число очков. Ясно, что раздел должен совершиться пропорционально относительным вероятностям игроков выиграть эту партию, - вероятностям, зависящим от числа очков, им еще недостающих. Метод Паскаля очень остроумен и в сущности есть ур-ние в частных разностях этой задачи, примененное к определению последовательных вероятностей игроков, при чем переходят от меньших чисел к следующим. Этот метод ограничен случаем двух игроков: метод Фермата, основанный на сочетаниях, распространяется на любое число игроков. Паскаль сначала думал, что этот метод должен быть, как и его собственный, ограничен двумя игроками; благодаря этому завязался между ними спор, в конце которого Паскаль признал общность метода Фермата. Гюйгенс собрал различные уже решенные задачи и прибавил к ним еще новые в маленьком трактате, первом, который появился об этом предмете и который озаглавлен: «De Ratiociniis in ludo aleae*. После этого им занялись многие геометры: Гуде (Huddes) и великий пенсио- нарий Витт в Голландии и Галлей в Англии применили исчисление к вероятностям человеческой жизни, и Галлей опубликовал для этой цели первую таблицу смертности. Около того же времени Яков Бернул- ли предложил геометрам различные задачи о вероятностях, решения которых он затем дал. Он написал, наконец, свою прекрасную работу, озаглавленную «Ars conjectandi», которая появилась лишь спустя семь лет после его смерти, произошедшей в 1706 году. Наука о вероятностях захвачена гораздо глубже в этом труде, чем в труде Гюйгенса: автор дает здесь общую теорию сочетаний и рядов и применяет ее ко многим трудным вопросам, касающимся случайностей. Этот труд замечателен еще верностью и тонкостью взглядов, употреблением формулы бинома в вопросах такого рода и доказательством следующей теоремы: при неопределенном повторении наблюдений и опытов отношение событий различного рода приближается к отношению их соответственных возможностей в пределах, промежуток меж которыми все более и более суживается по мере их увеличения и становится меньше любой заданной величины. Теорема эта весьма пригодна для познавания, с помощью наблюдений, законов и причин явлений. Бернулли справедливо придавал большое значение ее доказательству, которое, по его словам, он обдумывал в продолжение двадцати лет. В промежуток времени между смертью Якова Бернулли и опубликованием его труда Монморт и Моавр выпустили два трактата об исчислении вероятностей. Труд Монморта озаглавлен «Essai sur les jeux de hasard»: он содержит многочисленные применения этого исчисления к различным играм. Автор прибавил к нему во втором издании несколько писем, в которых Николай Бернулли дает остроумные решения многих трудных задач. Трактат Моавра, вышедший после трактата Монморта, появился сперва в «Transactions philosophiquesp 1711 года. Затем автор напечатал его отдельно и совершенствовал его в трех последовательных изданиях, в которых он его выпустил. Эта работа, главным образом, основана на формуле бинома, и задачи, заключающиеся в ней, так же как и их решения, имеют большую общность. Но что составляет ее отличительную черту, это - теория возвратных рядов и применение их в этой области. Эта теория есть интегрирование линейных ур-ний в конечных разностях с постоянными коэффициентами, - интегрирование, которого Моавр достигает очень удачным способом. Моавр в своем труде обратился снова к теореме Якова Бернулли о вероятности результатов, определенных большим числом наблюдений. Он не довольствуется, подобно Бернулли, доказательством того, что отношение событий, которые должны произойти, непрерывно приближается к отношению их соответственных возможностей; он дает еще изящное и простое выражение вероятности, что разница между этими двумя отношениями заключается в данных пределах. Для этого он определяет отношение самого большого члена разложения очень высокой степени бинома к сумме всех его членов и гиперболический логарифм излишка этого члена над ближайшими членами. Так как тогда самый большой член является произведением значительного числа множителей, то его числовое определение становится невыполнимым. Чтобы 861
получить его сходящееся приближение, Моавр применяет теорему Стирлинга о среднем члене бинома, возведенном в высокую степень, - теорему особенно замечательную тем, что она вводит квадратный корень отношения окружности к радиусу в выражение, которое, по-видимому, чуждо этой трансцендентности. Моавр и был крайне поражен этим результатом, выведенным Стирлингом из выражения окружности с помощью бесконечных произведений, - выражения, которого Вал лис достиг посредством особенного анализа, содержащего зародыш столь интересной и столь полезной теории определенных интегралов. Многие ученые, среди которых надо отметить Deparcieux, Kersse- boom, Wargentin, Dupre de Saint-Maur, Simpson, Sussmilch, Messene, Moheau, Price, Baily и Duvillard, собрали большое число драгоценных данных о населении, рождениях, браках и смертности. Они дали формулы и таблицы относительно пожизненных пенсий, тонтин, страхований и т. д. Но в этой краткой заметке я могу только указать эти работы, полезные мне для перехода к оригинальным идеям. К их числу принадлежит различение математического и нравственного ожиданий, а также остроумный принцип, данный Даниилом Бернулли для подчинения этого последнего ожидания анализу. Таково также сделанное им удачное применение исчисления вероятностей к оспопрививанию. Особенно же следует причислить к этим оригинальным идеям непосредственное рассмотрение возможностей событий, выведенных из наблюденных событий. Яков Бернулли и Моавр предполагали эти возможности известными и искали вероятность того, что результат будущих опытов будет приближаться все более и более к тому, чтобы представить их. Бэйес (Bayes) в «Transactions philosophiques» 1763 года искал непосредственно вероятность того, что возможности, указанные уже произведенными опытами, заключаются в данных пределах, и он достиг своего способом тонким и очень остроумным, хотя и немного запутанным. Этот предмет примыкает к теории вероятностей причин и будущих событий, выведенной из наблюденных событий, - теории, принципы которой я изложил несколько лет спустя с примечанием о влиянии неравенства, могущих существовать между статочностями, которые предполагаются равными. Хотя мы не знаем, каковы простые события, которым благоприятствуют эти неравенства, однако это самое незнание увеличивает часто вероятность сложных событий. Обобщение анализа и задач, касающихся вероятностей, привело меня к исчислению конечных частных разностей, которые Лагранж после этого рассмотрел с помощью очень простого метода и из которых он сделал изяшные применения к задачам этого рода. Теория образующих функций (functions generatrices), которую я дал около того же времени, заключает в себе эти предметы среди тех, которые она обнимает, и сама собою применяется с самой большой общностью к труднейшим вопросам о вероятности. Кроме того, она определяет с помощью очень сходящихся приближений числовые значения функций, состоящих из большого числа членов и множителей, и, обнаруживая, что квадратный корень отношения окружности к радиусу наиболее часто входит в эти значения, она указывает, что в нее может входить бесконечное число других трансцендентностей. Были подчинены исчислению также вероятности свидетельских показаний, подачи голосов и решений собраний, избирательных и совещательных, и приговоров судов. Столько страстей, различных интересов и обстоятельств усложняет вопросы, относящиеся к этим предметам, что они почти всегда неразрешимы. Но решение задач, более простых и имеющих с ннмн большую аналогию, часто может пролить свет на этн трудные н важные вопросы - свет, который верность исчисления все же заставляет предпочесть самым правдоподобным рассуждениям. Одно из самых интересных применений исчисления вероятностей касается средних значений, которые следует выбирать из результатов наблюдений. Многие геометры этим занимались, а Лагранж опубликовал в «Memoires de Turin» прекрасный метод для определения этих средних, когда закон ошибок наблюдений известен. Я дал для этой же цели основанный на особенном искусстве метод, который может быть с пользой применяем н в других вопросах анализа и который, позволяя распространять его неопределенно на весь ход какого-либо длинного исчисления функций, ограниченных по роду задачи, указывает те изменения, которые должен претерпеть каждый член конечного результата в силу этих ограничений. Раньше мы видели, что каждое наблюдение дает условное ур-ние первой степени, которое всегда может быть расположено таким образом, чтобы все его члены были в первой части, при второй части равной нулю. Употребление этих ур-ний является одной из главных причин большой точности наших астрономических таблиц, потому что этим способом можно было привлечь большое число прекрасных наблюдений к содействию в определении их элементов. В том случае, когда требуется определить только один элемент, Cfttes рекомендовал составить условные ур-ния, так чтобы коэффициент неизвестного элемента был в каждом из них положительным, и затем сложить все эти ур-ния, чтобы составить конечное ур-нне, откуда извлекается числовое значение этого элемента. Правилу COtes'a следовали все вычислители; но когда нужно было определять несколько элементов, то не было никакого определенного правила для сочетания условных ур-ний с целью получения необходимых конечных ур-ний; выбирали только для каждого элемента на- 862 блюдения, самые подходящие для его определения. Чтобы избежать гадательности в этих способах, Лежандр и Гаусс и придумали сложить квадраты первых частей условных ур-ннй и сделать их сумму minimum'ом при изменениях каждого неизвестного элемента; этим способом получается непосредственно столько же конечных ур-ний, сколько имеется элементов. Но заслуживают ли числовые значения, определенные этими ур-ниями, предпочтения перед всеми теми значениями, которые можно получить другими способами? Это могло показать только исчисление вероятностей. Я применил его к этому важному предмету и нашел, с помощью тонкого анализа, правило, которое заключает в себе предыдущее и присоединяет к преимуществу, что оно дает посредством определенного процесса искомые элементы, то преимущество, что заставляет их выступать с наибольшей очевидностью из совокупности наблюдений, и определяет числовые значения, при которых можно опасаться только самых малых ошибок. Но все же наше знакомство с полученными результатами еще несовершенно, пока закон ошибок, которые в них возможны, неизвестен; необходимо быть в состоянии указать вероятность, что эти ошибки заключаются в данных пределах, что сводится к определению того, что я назвал весом результата. Анализ приводит к общим и простым формулам, сюда относящимся; я применил этот анализ к результатам геодезических наблюдений. Общая задача заключается в том, чтобы определить вероятности того, что числовые значения одной или нескольких линейных функций ошибок очень большого числа наблюдений заключаются в каких-либо пределах. Закон возможности ошибок наблюдений вводит в выражение этих вероятностей постоянную величину, числовое значение которой как будто требует знания этого закона, почти всегда неизвестного. Эта постоянная величина может быть к счастью определена с помощью самых наблюдений. При изысканиях астрономических элементов она дана суммой квадратов разностей между каждым наблюдением и исчислением. Ввиду того, что равно вероятные ошибки пропорциональны квадратному корню этой суммы, можно посредством сравнения этих квадратов оценить относительную точность различных таблиц одного и того же светила. В геодезических операциях эти квадраты заменяются квадратами ошибок наблюденных сумм трех углов каждого треугольника. Сравнение квадратов этих ошибок дает возможность сулить об относительной точности инструментов, которыми были измерены углы. Из этого сравнения видно, какое преимущество имеет повторительный круг перед инструментами, которые он заменил в геодезии. В наблюдениях часто существует много источников ошибок: так, при определении положений светил с помощью меридианной трубы и круга, обоих подверженных ошибкам, закон вероятности которых не должен предполагаться одним и тем же, элементы, выведенные из этих положений, затронуты этнмн ошибками. Условные ур-ння, которые мы составляем, чтобы получить этн элементы, содержат ошибки каждого инструмента и имеют при них различные коэффициенты. Самой выгодной системой множителей, на которые следует соответственно умножить эти ур-ния, чтобы получить, посредством соединения произведений, столько конечных ур-ний, сколько элементов требуется определить, не является тогда больше система коэффициентов элементов в каждом условном ур-нии. Примененный мной анализ легко приводит, каково бы ни было число источников ошибок, к системе множителей, дающей самые выгодные результаты, или же такие, в которых одна и та же ошибка менее вероятна, чем при какой бы то ни было другой системе. Тот же анализ определяет закон вероятности ошибок этих результатов. Эти формулы содержат столько же неизвестных постоянных, сколько имеется источников ошибок, и зависят от законов вероятности этих ошибок. Мы видели, что в случае единственного источника можно определить эту постоянную, составив сумму квадратов и остатков каждого условного ур-ния, после того как подставили в них найденные для элементов числовые значения. Подобный процесс дает вообще числовые значения этих постоянных, каково бы ни было их число, что дополняет применение исчисления вероятностей к результатам наблюдений. Здесь я должен сделать одно важное замечание. Маленькое сомнение, которому оставляют место наблюдения, когда они не очень многочисленны, относительно числовых значений постоянных, только что мной упоминавшихся, делает немного сомнительными вероятности, определенные с помощью анализа. Однако почти всегда достаточно знать, очень ли близка к единице вероятность, что ошибки полученных результатов заключены в тесных пределах, и если этого нет, достаточно знать, до каких пор следует увеличивать число наблюдений, чтобы получить такую вероятность, которая не оставляла бы места никакому разумному сомнению относительно достоинства результата. Аналитические формулы вероятностей прекрасно достигают этой цели, и в этом отношении они могут быть рассматриваемы как необходимое дополнение наук, основанных на совокупности наблюдений, доступных ошибкам. Они являются даже неизбежными для решения большого числа вопросов в науках естественных и нравственных. Точные причины явлений большей частью или неизвестны, или слишком сложны, чтобы можно было подвергнуть их исчислению; кроме того, их действие часто нарушается случайными и непостоянными причинами; но следы его всегда остаются на событиях, произведенных всеми этими причинами, и оно вносит в них изменения, которые могут быть определены длинным рядом наблюдений. Анализ вероятностей раскрывает эти изменения н определяет степень их правдоподобия. Так, среди непосто-
янных причин, которые возмущают атмосферу, периодические изменения солнечной теплоты при переходе от дня к иочи и от зимы к лету, производят в давлении этой большой жидкой массы и в соответствующей высоте барометра суточные и годовые колебания, которые обнаруживаются из многочисленных барометрических наблюдений с вероятностью, по меньшей мере равной вероятности фактов, рассматриваемых нами за достоверные. Точно так же и ряд исторических событий обнаруживает постоянное действие великих нринципов нравственности среди различных страстей и интересов, которые двигают во всех смыслах обществами. Замечательно, что наука, начавшая с изучения игр, возвысилась до важнейших нредметов человеческого знания. Я собрал все эти методы в моей Аналитической теории вероятностей, где я поставил себе целью изложить в самом общем виде принципы и анализ исчисления вероятностей, так же как и решения самых интересных и самых трудных задач, которые нредставляет это исчисление. Предисловие к переводу 834 Опыт философии теории вероятностей 834 О вероятности 835 Общие принципы исчисления вероятностей 836 Об ожидании 837 Об аналитических методах вероятностей 838 Применение исчисления вероятностей. Об играх 841 О неизвестных неравенствах, которые могут существовать между шансами, предполагаемыми равными 841 О законах вероятности, вытекающих из неопределенного увеличения числа событий 841 Приложение теории вероятностей к натуральной философии . . 843 ОСНОВАНИЯ МАТЕМАТИЧЕСКОЙ ТЕОРИИ ВЕРОЯТНОСТЕЙ СОЧИНЕНИЕ В. Я. БУНЯКОВСКОГО, ИМПЕРАТОРСКОЙ АКАДЕМИИ НАУК ОРДИНАРНОГО АКАДЕМИКА, ПРОФЕССОРА С. ПЕТЕРБУРГСКОГО УНИВЕРСИТЕТА Н ДОКТОРА МАТЕМАТИЧЕСКИХ НАУК ПАРИЖСКОЙ АКАДЕМИИ. САНКТПЕТЕРБУРГ В Типографии Императорской Академии Наук, 1846. Из этого труда видно, что теория вероятностей есть в сущности не что иное, как здравый смысл, сведенный к исчислению: она заставляет оценивать с точностью то, что справедливые умы чувствуют как бы инстинктом, часто не умея отдать себе в этом отчета. Если принять во внимание аналитические методы, которые возиикли из этой теории, истинность принципов, служащих ей основанием, утонченную и изящную логику, которой требует нрименение их к решению задач, учреждения общественной нользы, онирающиеся на нее, и распространение, которое она получила и может еще нолучить нри нрименении ее к важнейшим вопросам натуральной философии и нравственных наук; если затем заметить, что даже в таких областях, которые не могут быть подчинены исчислению, она дает самые верные взгляды, которые могут нами руководить в наших суждениях, и что она нас учит предохранять себя от иллюзий, которые нас часто сбивают с пути,- мы увидим, что нет науки, более достойной наших размышлений, и что было бы очень полезно ввести ее в систему народного просвещения. Применение исчисления вероятностей к нравственным наукам 848 О вероятности свидетельских показаний 848 О выборах и о решениях собраний 850 О вероятности судебных приговоров 851 Таблицы смертности и средней продолжительности жизни, браков и каких-либо ассоциаций 852 О выгодах предоставляемых учреждениями, основанными на вероятности событий 853 Об иллюзиях в оценке вероятностей 854 Различные способы приближения к достоверности 860 Исторический очерк исчисления вероятностей 861 Так выглядит титульиый лист второго фрагмента Хрестоматии. О задачах, стоявших перед автором этого первого русского учебника по теории вероятностей, сказано в помещенном ниже предисловии «От сочинителя». Кроме того, современный читатель без сомнения с интересом прочтет «Заключение» и «Краткий исторический очерк постепенного развития математической теории вероятностей». Все три отрывка воспроизведены с сохранением орфографии того времени. О разнообразии материала, вошедшего в учебник, можно судить по помещенному в заключение «Содержанию», являющемуся сокращением авторского «Подробного содержания книги», занимающего в оригинале 13 страниц. ОТ СОЧИНИТЕЛЯ. Аналитическая Теория Вероятностей, входящая в область Прикладной Математики, существенно отличается от других приложений чистого анализа. В Геометрии и в предметах Естественной Философии, как например в явлениях всеобщего тяготения, в теории света, тепла, звука, электричества и проч., все исследования основаны частью на наших понятиях о разных величинах действительно существующих, или только воображаемых нами, частью же иа законах, выведенных из опытов, или, за недостатком таких опытных начал, на гипотезах, более или менее правдоподобных. Напротив того, Анализ Вероятностей подвергает рассмотрению и численной оценке явления, зависящие от причин не только совершенно неизвестных нам, но которые даже, по нашему неведению, не подлежат никаким предположениям. Топкие, глубокомысленные умозаключения, приводящие к этой цели, составляют в совокупности надежнейший нуть если не для открытия безусловной истины, то, по крайней мере, для возможного приближения к ней. И когда примем в соображение, что при таком важном назначении, математическое учение о вероятностях обнимает в приложениях своих предметы физического и нравственного мира, то утвердительно можем сказать, что эта теория есть создание ума, наиболее возвышающее человека, и как бы указывающее на предел ведений, за который ему не дано перейти. Предлагаемая ныне книга есть первое сочинение на Русском языке, заключающее в себе подробное изложение как математических начал теории вероятностей, так и важнейших ее приложений к жизни общественной, к Естественной Философии, а равно к Наукам Политическим и Нравственным. Последняя, XII глава, посвящена историческим подробностям об постепенном развитии Анализа Вероятностей. В конце книги помещено десять Примечаний, содержания чисто математического; они избавят некоторых читателей от труда приискивать в других трактатах или мемуарах объяснения разных теорий, часто встречающихся в Исчислении Вероятностей. За Примечаниями следует Объяснение двух полезных таблиц, прилагаемых к моему сочинению, и, наконец, Прибавление, содержащее в себе решение одного любопытно- 863 СОДЕРЖАНИЕ
го вопроса. Впрочем, отсылаю к самому Оглавлению, где можно видеть подробное указание на предметы, которые вошли в состав книги. Скажу несколько слов о самом исполнении моего труда. Бессмертное творение Лапласа: Theorie analytique des Probabilites постоянно служило мне образцом как изящностию употребленного в нем анализа, так и глубокомыслием суждений. Но, вместе с тем, предлагая многие теории, им созданные, я всегда старался упростить по возможности изложение и доказательства их, а равно и самый анализ. Смело надеюсь, математики отдадут мне справедливость в том отношении, что я значительно облегчил изучение книги Лапласа, которая, по сжатости своей и по свойственным предмету особенным затруднениям, доступна весьма немногим. Ученые исследования других знаменитых геометров, преимущественно Эйлера, Лагранжа и Поассона также были мне полезны. У последнею я заимствовал изложение математической теории Судопроизводства. Относительно других моих трудов, ограничусь ссылкою на некоторые критические замечания, помещенные в моей книге, а также на изменения при выводе многих формул и на неремены, которым я признал полезным подвергнуть в разных случаях общеупотребляемые аналитические приемы. Преимущественно обращу внимание на Главы VII и X. Читатель сам заметит эти изменения при внимательном чтении многих статей в моей книге, и при сличении их с изложением в других, известных сочинениях. Более обширные исследования, собственно мне принадлежащие, сопровождаются указаниями в самом тексте. Сделаю еще одно замечание. Так как до сих пор у нас не было никакого отдельного сочинения, ни даже неревода об Математической Теории Вероятностей, то мне предстоял труд писать на Русском языке о предмете, для которого мы не имели установленных употреблением оборотов и выражений. Не смею надеяться, чтобы я создал для Анализа Вероятностей язык, совершенно удовлетворительный по своей простоте и определительности; но, во всяком случае, мне приятна та уверенность, что я приложил все старания по возможности приблизиться к этой цели. Окончу изъявлением желания, чтобы предлагаемое сочинение послужило к распространению между моими соотечественниками здравых понятий и полезных практических истин. И если даже некоторые из моих читателей не будут иметь достаточного математического образования для того чтобы следить за аналитическим изложением всех теорий, составляющих предмет Учения о Вероятностях, то и для них внимательное чтение моей книги не останется бесполезным. В ней почерпнут они разнообразные, общенрименительные результаты, которые покажут им, в настоящем их свете, многие занимательные вопросы и истины, касающиеся нашей общественной жизни. ЗАКЛЮЧЕНИЕ. В КАКОМ СМЫСЛЕ ДОЛЖНО ПОНИМАТЬ СЛЕДСТВИЯ, ДОСТАВЛЯЕМЫЕ МАТЕМАТИЧЕСКОЙ ТЕОРИЕЙ ВЕРОЯТНОСТЕЙ. Изложив последовательно в этом сочинении математические начала Анализа Вероятностей и главные его приложения к вопросам из жизни общественной, Естественной Философии и Наук Нравственных, мы можем теперь, в кратких чертах, отдать себе отчет о том, чего можно ожидать и требовать от этой теории, которая, по справедливости, может стать наряду с важнейшими отраслями наших знаний. Кроме весьма немногих непреложных истин, сделавшихся достоянием человека, все в природе и в мире нравственном основано на догадках, более или менее правдоподобных; поэтому, учение о вероятностях, собственно говоря, обнимает почти весь круг умственной деятельности. Нет сомнения, что такое обширное назначение этой науки значительно ограничивается с одной стороны недостатком и неудовлетворительностью данных, извлекаемых из наблюдений над физическими и нравственными явлениями, а с другой, хотя и в меньшей степени, несовершенством математического анализа. Тем не менее, сделанное доселе в Теории Вероятностей ставит ее на степень важнейшего умственного орудия для открытия истины и для предохранения ума от заблуждений, в которые он нередко впадает при поверхностном взгляде на предметы. Там, где человек, одаренный умом проницательным, может только предвидеть приближенные результаты, теория часто приводит к точным выводам, выраженным числами. Такая определительность в оценке меры доверия к какой-либо предполагаемой истине, недоступная для обыкновенной Логики, без сомнения заслуживает полного внимания мыслителей. Но не должно однако же принимать эти численные результаты в безусловном смысле как некоторые эмпирики, не постигшие настоящего духа Анализа Вероятностей. Так, например, из того, что вероятность какого-либо события очень близка к достоверности или к единице, отнюдь не следует заключить, что это событие непременно случится, или, в противном случае, что теория ведет к заключениям ошибочным. Подобный результат должно понимать в другом смысле, который вполне оправдывается известным общим предложением Якова Бернул- ли. Большая степень вероятности события показывает только, что если бы мы могли повторить очень много раз испытания, при одних и тех же обстоятельствах, то число появлений события было бы несравненно 864 значительнее числа непоявлений, причем отношение первого числа к сумме их обоих неопределенно приближалось бы к найденному значению вероятности. Что же касается до отдельного испытания, то Анализ Вероятностей, по неонределительности условий, не может доставить никаких положительных заключений, как то было уже объяснено в самом начале этой книги. Вообще, при объяснении различных результатов Анализа Вероятностей, должно непрестанно иметь в виду закон, выражаемый теоремой Якова Бернулли. Правильность в числе повторений событий, зависящих по нашему неведению от случайностей, соблюдается только при весьма значительном ряде испытаний. Поэтому, всякое решение, относящееся к отдельному приему, должно нринимать только за средний вывод, который, во многих случаях, может значительно удалиться от решения, обнаружившегося a posteriori исполнившимися событиями. Но если бы была возможность повторить неопределенное число раз то же самое испытание, и при одних и тех же условиях, то найденный средний результат тем ближе выразил бы искомые отношения между появлениями различных событий, чем число самых испытаний было бы значительнее. В заключение предлагаем читателям краткий исторический очерк постепенного развития Математической Теории Вероятностей. КРАТКИЙ ИСТОРИЧЕСКИЙ ОЧЕРК ПОСТЕПЕННОГО РАЗВИТИЯ МАТЕМАТИЧЕСКОЙ ТЕОРИИ ВЕРОЯТНОСТЕЙ. 118. Время, к которому относятся первоначальные понятия о вероятности, рассматриваемой с умозрительной стороны, также неопределенно как и начало большей части отраслей наших знаний. Задолго до первых попыток в математической теории этой науки, прибегали, при различных обстоятельствах, как то в играх, закладах и проч., к сравнению числа благоприятствующих и неблагоприятствующих случаев, и с большей или меньшей удачею, выводили следствия из такого сравнения. Подобные соображения, а равно и некоторые правила, встречаемые в творениях прежних философов, конечно принадлежат к учению о случайностях, и есть даже положительные свидетельств, что некоторые примечательные приложения науки о вероятностях не были чужды эпохам, весьма отдаленным от нас. Так например, по замечанию Г. Либри*, в Дигестс** приведен закон, имеющий предметом вопрос об продовольствии, и который ясно доказывает, что уже Римляне занимались определением средней жизни в различные возрасты. Далее Г. Либри говорит о Морских Страховых Обществах, существовавших уже в средние века в Италиапских Республиках; это самое заставляет предполагать, что н то время умели определять приблизительно вероятность кораблекрушения. Известно также, что позже, в начале XVII столетия, знаменитый Галилей занимался весьма важным мопро- сом из теории вероятностей, именно, определением погрешностей и разысканием их влияния на результаты наблюдений. Конечно, его исследования но предмету столь трудному не могли иметь желаемого успеха. К нервой половине XVII же столетия принадлежит, кажется, первая мысль об оборотах, основанных на вероятностях жизни человеческой. Неаполитанец Лаврентий Топти предложил особое учреждение в этом роде, которое удержало его имя, называясь до сих пор. тонтиною (Mb 73). Хотя все уномянутые сейчас попытки и относились, бесспорно, к Анализу Вероятностей, но, по отрывочности и несовершенству пюему, далеко не могли удовлетворить требованиям науки. Основания математической теории случайностей положены Паскалем и Ферматом в половине семнадцатого столетия. Первый решенный ими вопрос был предложен Паскалю Кавалером Мере, и относился к безобидному разделу ставки до окончания игры. Для подробностей по этому предмету отсылаем к №№ 32 и 38 нашей книги. Итак, по всей спрапедли- вости, можно сказать, что этим двум знаменитым мужам, Исчисление Вероятностей обязано первыми своими математическими началами и своею самостоятельностию. Вскоре после упоминаемых попыток Паскаля и Фермата, современник их Гугенс занялся этим же предметом; он собрал вопросы уже решенные до него, и, дополнив их собственными исследованиями, написал трактат об умозрении в играх, подверженных случайностям. Это сочинение, первое из появившихся по Теории Вероятностей, издано Шотеном в 1657 г., в его книге: Exercitationum mathematirarum под заглавием: De ratiocinus in Aleae Ludo. Трактат Гугенса помещен также в первой части книги: Ars conjectandi, о которой будем говорить ниже, и обогащен там комментариями Якова Бернулли. Кроме Гугенса, во второй половине XVII века занимался теорией вероятностей Совер (Sauveur), который в Journal des Savans, за 1679 г., поместил свои исследования об определении статочностей игры, в роде банка или фарао, известной под названием bassete. Монтюкла, в своей Histoire des Mathematiques (1802, том III, стр. 391), упоминает также об одном трактате под заглавием: Of the Laws of chance, имевшим предметом азартные игры, и который был • Revue des deux mondes, livraison du 15 Mai 1845; статья: Fermat, par M Libri. •• Дигест (или Пандекты) есть, как известно, свод решений знаменитейших Римских Законовед пев, составленный, в виде Уложения, по повелению Императора Юстиниана. Издание Дигеста относят к 528 году но Р. X.
напечатан в Лондоне в 1692 г., без имени сочинителя. Монтюкла полагает, чго это труд Вениамина Momma (Benjamin Motte). К концу XVII же столетия относятся труды Ван Гуддена (Van Hudden), Bumma (Witt), нснсионария Голландии и Галлея по предмету вероятностей жизни человеческой. В 1693 г. Галлей издал таблицу смертности, не эвую из известных нам по своей давности [№ 60]. Его исследования напечатаны в Philosophical Transactions, за 1693 г., п" 196. Не останавливаясь на других, менее примечательных приобретениях Исчисления Вероятностей, относящихся к упоминаемой эпохе, переходи ч к трудам знаменитого Якова Бернулли. Уже в 1685 г., в Journal da Savans, он предложил математикам довольно трудный вонрос об игре в костн. Не получив ответа, Бернулли напечатал в Лейбцигских Актах за 1690 г. свое решение, но без доказательства. Это самое подстрекнуло Лейбница заняться предложенной задачей; он решил ее немедленно, и напечатал подробное изложение своего способа в тех же Лейбцигских Актах. Но главную заслугу, оказанную Яковом Бернулли математической теории вероятностей, составляет, без сомнения, примечательное его сочинение: Ars conjectandi, которое он обдумывал в продолжении многих лет. Оно издано в Базеле в 1713 г., семь лет после смерти сочинителя, племянником его Николаем Бернулли. Это сочинение, отличающееся верностию взглядов и остроумными аналитическими приемами, разделено на четыре части. Первую, как уже упомянуто пред сим, составляют пояснительные примечания к Трактату Гугенса. Вторая часть заключает в себе пространную теорию разного рода соединений. Третья- решение многих задач, относящихся к различным играм. Наконец, четвертая содержит в себе употребление и приложение правил, изложенных в предыдущих частях, к вопросам из обцсжития и к наукам нравственным и политическим. Этот четвертый отдел заслуживает особенного внимания тем, что в решаемых в нем вопросах употреблен Ньютонов бином, имеющий столь важное значение в Исчислении Вероятностей. Самая же примечательная статья этой четвертой части, есть, без сомнения, доказательство известной теоремы, удержавшей имя Якова Бернулли, о которой мы столько раз имели случай говорить. Подробности о ней приведены у нас в JSfeJSfe 20, 22, 24, 25, 26 117. Вслед за четвертой частью помещен трактат об бесконечных рядах, а в самом конце сочинения, любопытные исследования под заглавием: Lettre й ип amy sur les Parties du J ей de Раите, неизвестного автора. Николай Бернулли, издатель Ars conjectandi, сам занимался с некоторым успехом Теорией Вероятностей. В 1709 г., в Базеле, он защищал Диссертацию на степень Доктора Прав, и выбрал предметом сво4х исследований опыт приложения Исчисления Вероятностей к Судопроизводству. Диссертация Николая Бернулли издана в 1709 г. иод заглавием: De Arte conjectandi in Jure; между любопытными вопросами, решенными в ней, можно преимущественно указать на тот, который составляет предмет третьей части, именно: по истечении скольких лет, отсутствующего, по законам, должно считать умеэшим? 119. Восемнадцатое столетие, ознаменованное столь блестящими успехами Чистого Математического Анализа, принесло и Теории Вероятное ей значительные усовершенствования. В самом его начале, Мон- морт во Франции, а Моавр, Французский же уроженец, в Англии, занимались с особенною ревностию Исчислением Вероятностей. Первый издал свое сочинение об этом предмете под заглавием: Essai d'analyse sur les jeux de hasard; в нем он предлагает решение множества любопытных вопросов, относящихся к разного рода играм в кар ы, в кости и проч. Во втором издании упоминаемой книги (1713 г.), во многих отношениях исправленном и дополненном, находится любопытная переписка Монморта с Николаем Бернулли, племянником Якова и Ивана Бернулли. В этой переписке особенного внимания заслуживают остроумные решения многих вопросов Николаем Бернулли, ч изложение задачи, известной под наименованием Петербургской, предложенной сим последним Монморту в письме от 9 сентября 171С» г. Подробности об этом предмете помещены у нас в № 45. Из числа трудных вопросов, решением которых занимался Монморт, можно также указать на задачу о разделе ставки между игроками, когда срои окончания игры, по самому ее свойству, остается неопределенным. Этим предметом занимался и Моавр; но решения их не имели надле- жашей полноты [№№ 33 и 40]. Первые свои труды по теории вероятностей Моавр представил Лондонскому Королевскому Обществу; они помещены в Philosophical Trabsactions за 1711 г. под заглавием: De mensura sortis. За сим Моавр напечатал свои исследования отдельной книгой The doctrine of chances, имеипей три издания в 1716, 1738 и 1756 гг., которые постепенно совершенствовались. Это сочинение, в отношении к аналитическим способам, имеет весьма важные преимущества пред всеми предшествовавшими ему. Вообще, вопросы решены в нем с большою общностню при пособии Ньютонова бинома. К теореме Якова Бернулли прибавлены [ есьма важные развития, и именно определение вероятности, что разность между отношением действительного числа повторений событий, и отношением их простых вероятностей, заключается между данными пределами. Для этого Моавр употребил первый теорему Стиолинга [jsfe 21]. Но в особенности книга его примечательна изложением придуманной им теории возвратных рядов, которую он применил песьма удачно к решению различных вопросов о вероятностях. Эта теория, собственно говоря, заключает в себе способ интегрирования уравнений в конечных разностях, с постоянными коэффициентами, столь плодовитый по своим приложениям к анализу случайностей. Около этой самой эпохи занимались Теорией Вероятностей, с большим или меньшим успехом, многие другие математики, между прочим Мэран [№ 37], Николь, поместивший в Histoire de I'Academie Royale des Sciences, за 1730 г., решения разных вопросов, относящихся к определению судьбы игроков, при неравном их искусстве, и при данном избытке, выигранных некоторыми из них партий. Во второй половине XVIII столетия многие ученые с большим тщанием собирали разные данные, относящиеся к народонаселению вообще, к смертности, к числу рождений, браков и проч. Эти численные показания, после надлежащего критического разбора, послужили для составления многих, чрезвычайно полезных таблиц, и для решения многоразличных практических вопросов о вероятностях жизни человеческой, о пожизненных доходах, сберегательных кассах, тонтинах, всякого рода .«страхованиях и тому подобных оборотов. Исторические подробности об этом предмете читатели найдут в третьем томе Histoire des Mathtmatiques, par Montucla; ограничимся здесь краткими указаниями на главные труды ученых. Около самой средины XVIII столетия примечательны труды по этому же предмету Фомы Симпсона в Англии, Керсебоома и Стрика (Struyk) в Голландии и Депарсье во Франции. Последний издал в 1746 г. сочинение под заглавием: Essai sur la probability de la dur la vie humaine. В записках Стокгольмской Академии, за 1754 г., помещены также любопытные исследования о таблицах смертности Шведского астронома Варгентина. Тем же предметом занимался в Германии математик Ламберт [JM? 60], Эйлер и некоторые другие. В последних годах минувшего столетия, Депарсье, племянник того, о котором сейчас говорено, издал сочинение под заглавием: Traite des annuites, accompagne de plusieurs tables, 1781 г. Вскоре после того, Дювильяр [№ 60] напечатал весьма примечательную книгу об финансовых оборотах разного рода: Recherches sur les rentes, les emprunts, les remboursements, etc., 1787 г. Около того же времени, именно в 1783 году, Прис, в Англии, издал свои труды, заслужившие общее внимание, об разных предметах Политической Арифметики. Изложим теперь, в самых кратких чертах, важнейшие приращения, полученные Исчислением Вероятностей в течении XVIII столетия. Даниил Бернулли, сын Ивана Бернулли, обогативший своими открытиями Высшую Геометрию н Механику, первый предложил различие между ожиданием математическим и нравственным, и ввел меру второго, доныне употребляемую (ГЛАВА IV). Почти в одно время с ним, знаменитый Французский ЕстествоиспьА-атель БюфоЬон, в своем Essai d'Arithmetique morale, изложил собственные мысли об этом самом предмете [№42]. Читатели найдут в упоминаемой книге* письмо Даниила Бернулли к Бюффону, от 19 марта 1762 г.; оно свидетельствует, что Бернулли находил совершенно основательным взгляд Бюф- фона на нравственную вероятность, хотя и не вполне соглашался с ним в определении ее меры. В той же книге помещены математические решения нескольких задач из Анализа Вероятностей, и приложение этой теории к вопросам о жизни человеческой, о рождениях, браках, таблицах смертности и проч. Возвратимся к трудам Даниила Бернулли. Ему же Анализ Вероятностей обязан оригинальною мыслию, столь плодовитою по своим применениям, об рассматривании вероятностей событий a posteriori, то есть на основании наблюденных явлений (ГЛАВА VII). Формулы по этому предмету предложены впоследствии Бэйесом (Bayes) и Ирисом (Price) в Philosophical Transactions за 1764 и 1765 гг., а после того Лапласом, который придал им надлежащую всеобщность. Даниил Бернулли приложил также Исчисление Вероятностей к вопросу о предохранительном оспопрививании** [№ 64], что подало повод к прению, довольно жаркому, между ним и Д'Аламбер- том; возражения последнего напечатаны в его Opuscules mathema- tiques (Томы II и IV), а равно в его же Melanges de philosophic (Том V). Другие труды Д'Аламберта но Теории Вероятностей находятся в отдельных его сочинениях, и, отчасти, в Encyclopedic methodiquc (Mathematiques). В этом же превосходном творении помещены отдельные статьи Кондорсета, относящиеся к Анализу Вероятностей; главную из них по объему и содержанию своему читатели найдут под словом: Probabilite. Другие исследования Кондорсета по этой науке напечатаны в Записках Парижской Академии за 1781, 1782 и 1783 гг. Самый же примечательный труд его есть пространный Трактат об решениях по большинству голосов. Сочинение, о котором говорим, издано в 1785 г. под заглавием: Essai sur I'application de {'Analyse a la probabilite des decisions rendues a la pluralite des voix. В Главе XI нашей книги мы имели случай ссылаться на некоторые места этого труда Кондорсета. Эйлер, обогативший почти все отрасли чистой и прикладной Математики, занимался также исследованиями по разным частям Теории Вероятностей. Его мемуары по этому предмету довольно многочислен- • Oeuvres completes de Buff on, Paris, 1827, том XIII, стр. 14. •• Memoires de I'Academie des Sciences, 1760 r. 865
ны. На некоторые труды его мы указали в №МЬ 36, 65, 72. Кроме напечатанных его исследований, есть еще и неизданные рукописи, именно: Vera Estimatio sortis in Lulis и Reflexions sur une espece singuliere de loterie, поттёе Loterie Genoise. Любопытна также, нигде еще ненапечатанная, переписка его с Прусским Королем Фридрихом II по предмету особого рода лотерей*. Но главная его заслуга состояла в усовершенствовании Интегрального Исчисления, в высшей степени способствовавшего быстрым успехам Анализа Вероятностей. Лагранж предложил простой и удобный способ для интегрирования уравнений в частных конечных разностях, и показал применение его к решению трудных и вместе любопытных вопросов Исчисления Вероятностей. Об этом важном предмете говорено у нас с подробностию в ГЛАВЕ III и в ПРИМЕЧАНИИ VII. В >к>к 78 и 79 мы упомянули также о другом труде Лагранжа, относящемся к определению наивыгоднейших результатов наблюдений. Укажем также на один труд Лакроа, относящийся к Теории Вероятностей. В 1781 г. Парижская Академия Наук предложила задачу об застрахоааниях от морских опасностей. Не получая удовлетворительных решений, она возобновляла два раза конкурс, и уже в третий раз получила восемь ответных сочинений, из которых два, одно Лакроа, а другое Бикилея (Bicquilley), признаны, вместе, достойными половинной награды. Из 6000 франков, составлявших полную премию, половина суммы была разделена между двумя авторами: Лакроа получил 1800, а Бикилей 1200 франков. Кроме этого, Лакроа издал весьма удовлетворительное сочинение: Traite elementaire du Calcul des Proba- bilites, имевшее уже во Франции три издания. Бикилей издал также книгу о той же науке под заглавием: Du Calcul des Probabilites, 1783 г. Мы не будем останавливаться на трудах Лежандра и Гаусса, имеющих предметом определение наивероятнейших результатов наблюдений. Об этом говорено у нас в ГЛАВЕ X [№ 92). В той же ГЛАВЕ приведены и другие исторические подробности о наивыгоднейшем совокуплении условных уравнений, и, между прочим, о способе Английского математика Котсса (в конце >& 85). Но никому аналитическая Теория Вероятностей не обязана столько, как Лапласу. В нашей книге мы так часто имели случай говорить об его трудах, что считаем достаточным предложить здесь, в самых кратких чертах, главные заслуги этого великого геометра. Сверх многих Мемуаров, напечатанных Лапласом в Академических Записках об аналитической Теории Вероятностей, он издал в первый раз в 1812 г.** гениальное творение об этом предмете, обнимающее полную его теорию и все главные его приложения. Ни в одном из других сочинений Лапласа не проявляется в такой силе глубокий ум, тонкость взглядов и могущество математического анализа как в Theorie analytique des Probabilites. Изящностию и общностию способов при решении труднейших вопросов из анализа случайностей, Лаплас возвел эту теорию на зысокую степень совершенства. Из замечательнейших исследований его, наиболее обогативших учение о вероятностях, можно преимущественно указать на теорию производящих функций (theorie des fonctions generatrices), служащую для интегрирования уравнений в частных разностях, так часто встречающихся в вопросах этого рода. Вычисление по приближению разных интегральных формул, заключающих в себе большие числа; частные случаи подобных формул встречались и прежде, как например Стирлингоао приближенное выражение для произведения 1.2.3...я [№ 21], которого точная величина изображается определенным интегралом J e xxndx. Общие формулы для вероятностей a posteriori по сделанным уже наблюдениям (ГЛАВА VII), и вычисление вероятностей будущих событий при неравновоз- можных статочностях, принимаемых за равновозможные (ГЛАВА V). Различные приложения Исчисления Вероятностей к явлениям, наблюдаемым в солнечной системе; так, например, определение вероятности существования первоначальной причины, побудившей все планеты и их * Сообщением этих рукописей я одолжен крайне обязательности П. Н. Фусса, Непременного Секретаря Императорской Академии Наук. У него же хранятся другие мемуары Эйлера по разным математическим предметам. Можно надеяться, что со временем эти драгоценные труды будут изданы. ** Второе издание Thdorie analytique des Probabilites напечатано в 1814, а третье н 1820 г. спутников вращаться около своих осей, и двигаться по орбитам от запада к востоку, то есть в одну сторону с вращательным движением солнца, и почти в одной плоскости с его экватором. Теория наивыгоднейших результатов наблюдений (ГЛАВА X), столь важная но своим приложениям к наукам наблюдательным, обязана Лапласу нынешним своим совершенством. Он же указал и развил ее приложения к геодезическим действиям. Наконец, в отдельном его сочинении: Essai phi- losophique sur les Probabilites, находим полный свод и изложение истин из теории и приложений анализа вероятностей, без пособия формул и вычислений. Вот беглый перечень важнейших трудов Лапласа в Анализе Вероятностей. Из сказанного здесь можно заключить, что эта теория, получившая свое начало во Франции, в руках Паскаля и Фермата, одолжена и быстрым своим усовершенствованием также Французскому геометру. 120. К нашему столетию, кроме главных трудов Лапласа, а также Гаусса и Лежандра, о которых мы сейчас говорили, относятся различные исследования многих астрономов и математиков. Бессель, Плана, Энке, Струве, Поассон, Линденау, Боненбергер и другие занимались вопросом об наивыгоднейших результатах наблюдений в теоретическом и практическом отношении (№№ 89, 91, 92, 95). Кроме труда на который указано в № 94, Поассон издал несколько других Мемуаров об Исчислении Вероятностей, и между прочим: Memoire sur la priba- bilite du tir a la cible*. В этом любопытном труде, Поассон излагает математическую теорию вероятности цельной стрельбы, и извлекает из полученных им формул правила для сравнения как меткости огнестрельных оружий, так и относительного искусства стрелков. Опыты, произведенные Французскими артиллеристами, вполне оправдали теорию, и доказали практическую пользу выведенных формул. Глапная же заслуга, оказанная Поассоном этой науке, состоит в изданное* им отдельном Трактате об математической теории Судопроизводства под заглавием: Recherches sur la probabilite des jugements en matiere criminelle et en matiere civile, 1837 г. Это сочинение разделено на пять глав; первые четыре посвящены изложению общих начал Исчисления Вероятностей и наиупотребительнейших его приложений, а последняя исключительно аналитической теории Судопроизводства. В этой же книге Поассон распространил теорему Якова Бернулли на случай изменяющихся статочностей, и назвал общее предложение законом больших чисел. Об нем упомянуто у нас в выноске на странице 35. Кроме поименованных математиков, занимавшихся в последние годы теорией вероятностей, можно указать еще на многих писавшие об этом предмете, в том числе: Ампер, Фурье, Пюиссан, Ганзен, Кстле, Литтроо, Мозср и другие. Изложив в последовательных Главах математические начала, пав- ные приложения и краткое обозрение успехов теории вероятностей мы заключим нашу книгу словами Лапласа** относительно важности значения этой науки в ряду человеческих знаний: «Из всего сказанного видно, что Теория Вероятностей, собственно говоря, есть только переложение здравого смысла на аналитические формулы: она доставляет средства для точной оценки того что постигает ум верный, хотя часто бессознательно. Если возьмем в соображение с одной стороны все аналитические способы, которые произвела эта теория, истину начал, служащих ей основанием, тонкость и остроумие выводимых из них логических заключений при решении разнообразных задач, а с другой, общеполезные учреждения, упроченные на науке о вероятностях, настоящее ее развитие и то, которое она без сомнения получит еще впоследствии в применении своем к важнейшим вопросам Естественной Философии и к знаниям политическим; наконец, если примем во внимание, что даже в предметах, не подлежащих исчислению, она приводит к взглядам, наиболее надежным для открытия истины, научает нас предохранять себя от заблуждений ума, то вправе будем заключить, что пет науки более ее достойной наших размышлений, и которую полезнее было бы ввести в сие ему знаний, составляющих предмет общественного образования». • Memorial dc VArtillcrie, Paris, 1837, n* IV. Брюссельское издание .rroro сборника статей но артиллеринекому искусству, напечатано в 1839 году. В \\ \\\ того же издания помещена также статья Поассона, иод заглавием: Formulrs dc probabilites relatives au resultat moyen des observations, qui peuvent etre utiles dans ГArtillerie. *• В конце Essai pliilosophiquc sur les Probabilites.
СОДЕРЖАНИЕ* Введение Глава I. О законах вероятности вообще [от № 1 до 16] Общие правила для определения вероятности. Определение вероятности. Вычисление вероятности при неравновозможных ста- точностях. Приложение к игре, называемой орлянкою. Погрешность Д'Аламберта. Вероятности сложных событий: Г когда составляющие простые события независимы между собою и 2° в случае взаимной их зависимости. Отношение между вероятностями сложного, наблюденного и будущего событий. Относительная вероятность. Правило для ее определения. Общие формулы для вычисления вероятности при повторении и при каком ни есть совокуплении событий. Определение вероятности повторения одного события, или известного совокупления двух событий при данном числе испытаний. Распространение найденных правил на случай трех и вообще какого ни есть числа событий. Формулы служащие для определения вероятности, что одно или несколько простых событий повторятся не менее данного числа раз при известном числе испытаний. Приложение предыдущих формул к численному решению некоторых вопросов. В этой статье решены, для упражнения, семь простых вопросов, из которых последний, предложенный Паскалю Кавалером Мере, примечателен тем что принадлежит к числу первоначальных исследований в Теории Вероятностей. Глава II. О законах вероятности при неопределенном повторении испытаний [от № 17 до 30] О сложных событиях, наиболее вероятных. Об наивероятней- шем сложном событии, составленном из кратного совокупления двух простых. Доказательство различных свойств разложения (а + Ь)т, от которых это определение зависит. Пример обнаруживающий, что абсолютные вероятности правдоподобнейших событий уменьшаются с увеличением числа испытаний. Напротив того, относительная вероятность правдоподобнейшего события к какому ни есть другому, возрастает с числом испытаний. Распространение этих следствий на общий случай. Теорема Якова Бернулли. Объяснение примерами и изложение теоремы Якова Бернулли. Этот общий закон, в отношении к двум событиям, может быть выражен в следующем виде. При неопределенном повторении испытаний, из которых каждое приводит к одному из двух простых событий А или В, отношение между числами появлений этих событий непрестанно приближается к отношению их простых вероятностей, и, наконец, при надлежащем числе испытаний, разнствует от него как угодно мало. Формула Стирлинга для приблизительного вычисления произведения 1.2.3...Х. Подробное доказательство теоремы Якова Бернулли. Разбор различных следствий, представляющихся при аналитическом доказательстве Бернуллиева предложения. Приложение теоремы Якова Бернулли к численным примерам. Распространение ее на произвольное число событий. Исследование одного частного случая, в котором статочности изменяются во время испытаний. Из сосуда, заключающего А шаров белых и В черных, вынимают наудачу, в несколько приемов, каждый раз по одному шару, причем извлекаемые шары откладываются в сторону. Найти вероятности различных сложных событий, которые могут произойти при данном числе выемов. Определение правдоподобнейшего события в этом случае. Факториальный бином. Приложение найденных формул к решению некоторых численных вопросов. Глава III. О математическом ожидании [от М» 31 до 40] О математическом равенстве или безобидности всякого рода игр, и о мере математического ожидания. Понятие о математическом равенстве игры. Математическое ожидание или математическая выгода. Аналитическое доказательство общего условия безобидности или математического равенства игры. Изложение и объяснение примером правила безобидного дележа. Приложение условия безобидности к разделу ставки в игре, которая может длиться неопределенно. Распространение правила математического равенства игры на произвольное число событий, появление которых доставляет известные выигрыши одному из двух игроков. Приложение предыдущих правил к решению разных вопросов, относящихся к игре в кости, к лотереям, закладам и к безобидному разделу ставки между игроками до окончания игры. Глава IV. О нравственном ожидании [от № 41 до 46] Понятие о выгоде, называемой нравственною. Невозможность точного определения нравственной выгоды. Мера нравственного ожидания, предложенная Бюфоном. Другая ее мера, употребленная Даниилом Бернулли, и допускаемая доныне почти всеми математиками. Определение нравственной выгоды по формуле Бернулли в том случае, когда эта выгода зависит от нескольких ожидаемых событий. Приложение к застрахованиям, и доказательство пользы Страховых Учреждений при известных условиях. Изложение более общей гипотезы относительно меры нравственного ожидания. Основываясь на этой гипотезе, доказывают с строгостию: Г Невыгоду всяких игр и закладов, математически равных. 2° Невыгоду лотерей при совершенной их безобидности. 3° Когда предстоит надобность подвергать имущество каким-либо опасностям, то выгоднее раздроблять его на части, чем в целости подвергать одной случайности. Напротив того, рассматривание одного математического ожидания, приводит к заключению о безразличии подвергать одинаковым опасностям какое-либо имущество по частям или в целости. Задача Петербургская; исторические замечания о ней. Решение вопроса, основанное на рассматривании математического ожидания. Кажущееся противоречие, представляемое этим решением. Объяснение парадокса Кондорсетом. Решение Петербургской задачи, основанное на формуле Даниила Бернулли. Другое решение, предложенное Поассоном. Некоторые мысли об употреблении ожидания нравственного, вместо математического. Глава V. О влиянии на результаты Исчисления Вероятностей неравно- возможных статочностей, принимаемых за равновозможные и исследование особого рода соединений, приводящих к рассматриванию бесконечного числа статочностей [№ 47 и 48] Каким образом неравновозможные статочности, принимаемые за равновозможные, изменяют результаты Исчисления Вероятностей. Приложение к игре орел или решетка. Из предлагаемого решения оказывается, что при двукратном бросании монеты, вскрытие одной и той же стороны, не указывая наперед которой именно, вероятнее чем вскрытие двух разных сторон. Распространение этого результата на какие ни есть события. Общая формула, выражающая влияние неравновозможных статочностей. Иэ нее следует, что неизвестное неравенство, существующее в статочностях, предполагаемых равными, всегда увеличивает вероятность повторения одних и тех же событий. О вероятностях, вычисляемых a priori при бесконечном числе статочностей. Глава VII. О законах вероятности при неопределенном числе статочностей [от № 52 до 59] Общие понятия об определении вероятностей a posteriori. Численный пример. Правила для определения вероятностей одной или нескольких причин или предположений. Вероятность какого-либо предположения равняется вероятности наблюденного события, вычисленной при том же предположении, и разделенной на сумму вероятностей этого самого события, относящуюся ко всем возможным предположениям. Вероятность нескольких предположений, рассматриваемых в совокупности, равняется сумме вероятностей событий, относя- Глава VI. Решение некоторых особенных вопросов из Анализа Вероятностей [от № 49 до 51] Дано полное уравнение второй степени х2 + рх + q = 0, в котором коэффициенты р и q, предполагаемые целыми, могут изменяться между предметами -т и +т; сверх того, по причине простоты случая, допускается, что ни р ни q не обращается в нуль. При таких условиях спрашивается, как велика вероятность, что уравнение, написанное наудачу, имеет корни вещественные. Дана определенной или неопределенной величины плоскость, покрытая системой соприкосновенных между собою равносторонних треугольников; на эту плоскость бросают, наудачу, весьма тонкий цилиндр, известной длины. Определить вероятность, что цилиндр упадет по крайней мере на одну из сторон начерченных на плоскости треугольников. По данному положению двух квадратов на обыкновенной шахматной доске, определить вероятность, что ладья, стоящая на одном из двух квадратов, достигнет другого в х ходов. • Авторское «Подробное содержание книги» дано здесь в сокращении. 867
щейся к этой совокупности предположений, разделенной на сумму вероятностей событий при всех возможных предположениях. Общие формулы, служащие для определения: 1' вероятности, что возможность простого явления заключается между известными пределами, когда дано наблюденное сложное событие; 2° вероятности будущего события по наблюденному. Распространение теоремы Якова Бернулли на тот случай, когда вероятность определяется только a posteriori. Общие формулы для определения вероятности в том предположении, что наблюденное событие зависит от простых явлений двух или нескольких различных родов. Пояснение общих правил некоторыми простыми примерами. Глава VIII. О вероятностях жизни человеческой [от >& 60 до 691 Составление таблиц смертности. Графическое изображение хода смертности. Указательница смертности. Уравнения для линии смертности, предложенные Ламбертом и Моавром. Объяснение употребления таблиц смертности при решении разных вопросов, относящихся к вероятностям жизни человеческой. Вероятная жизнь. Мера долголетия. Средняя жизнь. Формулы для определения последней. Численные результаты для различных Государств и городов. Определение числа жителей страны посредством таблицы смертности, и распределение народонаселения по возрастам. Влияние различия полов на смертность. Постоянный перевес рождений младенцев мужского пола пред женским; численные результаты для некоторых Государств. Некоторые замечания о приращении народонаселения. Определение продолжительности средней жизни в том предположении, что какая-либо причина смертности уничтожена, или, по крайней мере, ослаблена. Прививание оспы увеличивает среднюю жизнь слишком тремя годами. Формула Лапласа, служащая для вычисления меры уменьшения числа умирающих при уничтожении какой-либо причины смертности. Замечания, относящиеся к движению народонаселения. Мера умножения или плодовитости. Мера смертности. Коэффициент приращения. Формулы для решения различных вопросов о движении народонаселения. Решение некоторых вопросов о движении народонаселения, основанное на показаниях таблиц смертности. Определение вероятной и средней продолжительности браков, или вообще каких ни есть товариществ или обществ. Вероятность существования общества по истечении данного числа лет. При значительном числе товариществ одного и того же рода, определить вероятнейшее число тех из этих товариществ, которые останутся нерасторгнутыми но прошествии данного числа лет. Аналитическое определение вероятности, что возможность рождения младенцев мужского пола превышает возможность женских рождений. Приложение общих формул к рождениям в С.-Петербурге. Определение народонаселения обширного Государства по числу годовых рождений и частного народосчисления на разных его пунктах. Вычисление вероятности, что погрешность этого определения заключается между данными пределами. Численное приложение к народонаселению Франции. Глава IX. О пожизненных доходах, вдовьих кассах, тонтинах, сберегательных кассах и о страховых учреждениях вообще [от № 70 До 761 Предмет главы. Формулы для приведения к настоящему времени как вкладов, так и выдач денежных сумм при различных сроках. Общие замечания об соблюдении возможной безобидности в условиях между Обществом и лицами, вступающими с ним в различные обязательства по каким-либо оборотам. Общие понятия об оборотах, известных под названием тонтины. Решение некоторых вопросов, относящихся к этому роду взаимных застраховавши. По известной пенсии, определить первоначальный вклад тонтиннеров, и наоборот. Приблизительное определение пенсии, приходящейся каждому тонтиннеру но истечении одного года, двух, трех, ... лет. Решение этой же задачи в предположении, что Общество выдает ежегодно не полную сумму, следующую но расчету вкладов, а только некоторую ее часть, сообразуясь при том с числом умерших тонтиннеров. Понятие об сохранных или сберегательных кассах вообще. Решение следующего вопроса. N вкладчиков, одинакового возраста а, висели единовременно каждый сумму S. Требуется узнать, на какую пожизненную пенсию 5 они имеют право по истечении п лет? Определение пожизненной пенсии 5 в том предположении, 868 что вкладчики, кроме единовременного вклада 5, вносят в последующие годы дополнительные суммы £f, 52, 53. Об застраховании имуществ вообще. Страховая премия. Для математической безобидности застрахования, страховая премия должна равняться цене вещи, отдаваемой на страх, помноженной на вероятность ее утраты или порчи. На самом же деле, величина страховой премии всегда превосходит это произведение; при умеренном избытке, и когда круг действия Страхового Общества довольно обширен, оно получит верную выгоду, а застрахова- тель будет обеспечен со стороны нравственного ожидания, 1ем доказывается обоюдная польза подобного рода Учреждений. Приложение математического анализа к решению следующего вопроса. Купец застраховывает m кораблей, каждый на сумму а платя за страх корабля некоторую премию Ь. Требуется определить обстоятельства подобного застрахования: Г относительно Страхового Общества и 2° в отношении к лицу, отдающему корабли на страх. Аналитическое решение первой части вопроса. Численные примеры. Аналитическое решение второй части вопроса. Примечания об Страховых Учреждениях вообще, и о преимуществе Обществ взаимного застрахования. При малейшем перевесе математической выгоды на сторону Общества, оно, при обширном круге действия, должно ожидать, почти с достоверностью, :на- чительной для себя выгоды, возрастающей пропорционально числу страховых оборотов. Аналитическое доказательство эгой истины. Глава X. О наивыгоднейших результатах наблюдений [от № 77 до 96] О наблюдениях вообще. Численный пример. Средняя арифметическая погрешность. Численный пример. Объяснение противоречия относительно вероятности средней погрешности. Условные уравнения. Во всех приложениях способа наивыгоднейших выводов допускают, что они линейные. Различные совокупления условных уравнений. Система уравнений, при которой наибольшая погрешность менее, чем для всякой другой системы; такое совокупление условных уравнений называлось спосо(5ом положений (methode des situations). Система уравнений, досав- ляющая наименьшую сумму погрешностей. Средний вывод наблюдений. Правило Котеса. Определение степени точности среднего вывода наблюдений Подробное доказательство способа наименьших квадратов. Средняя нормальная погрешность (erreur moyenne a craidre). Срапне- ние ее со средней погрешностию, доставляемой способом Коп»са. Определение постоянного количества, вводимого в формулы неизвестным законом вероятности погрешностей. Это постоянное количество зависит от суммы квадратов погрешностей наблюдений. Определение средней нормальной погрешности в функ хии коэффициентов условных уравнений. Вес результата (poids du resultat). При одной и той же вероятности, что погрешность заключается между известными пределами, эти пределы будут тем теснее, чем вес больше. Погрешнссти содержатся между собой в обратном отношении корней квадратных из соответствующих им весов. Условия, при которых вес увеличивается. Вероятная погрешность вывода. Правило для определения величины элемента при нескольких рядах наблюдений различного рода. Оно, как и при одном ряде наблюдений, приводит к способу наименьших квадратов. Сэ.од- ство этого правила с теорией центра тяжести. Замечания о том случае, когда, при употребляемом способе наблюдений, оказывается перевес погрешностей в одну сторону, положительную или отрицательную. О постоянных погрешностях. Исторические сведения о способе наименьших квадратов. Труды Лежандра, Гаусса и Лапласа по этому предмету. Формулы, выводимые из способа наименьших квадратов 1ри двух и трех элементах, определяемых из условных уравненкй. Об средней погрешности особого рода, употребляемой Немецкими астрономами. Численный пример, относящийся к определению двух элемеьтов из условных уравнений. Глава XI. Приложение Анализа Вероятностей к свидетельствам, преданиям, различного рода выборам между кандидатами и мнениями, и к судейским определениям по большинству голосов [от Н. 97 до 117] Общие замечания о предмете этой Главы, и о приложении математического анализа к вопросам нравственным. О вероятности свидетельств. Об событиях необыкновенных.
Решение вопроса о свидетельствах, предлагаемое Лапласом. По Лапласу, в подобных вопросах должно принимать в расчет два элемента, именно: честность свидетеля и его опытность. О вероятности преданий. О выборах кандидатов. Общие замечания о выборах кандидатов. Баллотирование одного и двух кандидатов. При трех или большем числе баллотируемых, относительное большинство голосов не всегда обнаруживает, кто из иих должен быть предпочтен остальным. Изложение образа баллотирования, предложенного математиком Борда, и аналитическое доказательство этого способа при трех кандидатах. Численный пример. Другой вид баллотирования, в котором ие принимается в расчет среднее достоинство кандидатов. Распространение способа Борда на произвольное число кандидатов. Практическое неудобство этого способа. О выборе вероятнейшего предложения или причины. Правило, которым должно руководствоваться при подобных выборах. Аналитическое его доказательство. Численный пример. Приложение Анализа Вероятностей к Судопроизводству. Предварительные подробности и общие замечания о приложении Анализа Вероятностей к судейским решениям. Сходство этого предмета с вопросом о свидетельствах. Указания на труды Кон- дорсета, Лапласа, Остроградского и Поассона. С какой точки следует рассматривать судейские определения, и что должно разуметь под приговорами виновен и невинен. Математическая теория Судопроизводства доставляет только средние результаты весьма значительного числа решенных дел, а не относится к отдельным приговорам. Заключение. В каком смысле должно понимать следствия, доставляемые Математической Теорией Вероятностей. Глава XII. Краткий исторический очерк постепенного развития математической теории вероятностей [от М? 118 до 120] Примечания к математической теории вероятностей Примечание I. Вывод Эйлеровой формулы, служащей для преобразования интеграла в конечных разностях в обыкновенный интеграл. Примечание II. Разложение синуса в ряд, состоящий из бесконечного числа множителей. Вальисово выражение для четверти окружности. Суммование бесконечных рядов 1 + А+ А+ •••» * + А+ А+ •••> i+ А+ А+ - пр°ч. 22 З2 2* З1 26 З6 Примечание III. О сходимости бесконечных рядов. Примечание IV. Различные исследования, относящиеся к определенным интегралам J e~f dt, J e~* dt и проч. Примечание V. Доказательство факторнального бинома. Примечание VI. Доказательство тождества к -sp?-i + ^ рт-2 - ...+иг *V,V+1) я» ■ ° при условии т<-, разумея под Ря величину 5(5- 1)(Д-2)...(5-П+ 1) 1-2-3.. .п Примечание VII. Изложение теории интегрирования уравнений в конечных разностях. Примечание VIII. Вывод общего члена ply-t$ из уравнения 1= РУч,о+ tp qy-t+2,o+ 1 2 P Я У-ш,о+ ... Примечание IX. Об определенных интегралах, рассматриваемых в связи их с средними арифметическими величинами. Примечание X. Суммирование ряда 1 +2(Coscp + Cos2cp + + Cos3cp+ ... + CosH(p). Объяснение таблиц Таблица I. Она заключает в себе численные значения интег- 2 ft 2 рала -= I е l dt для всех величин аргумента t, от t = 0 до t = 2 через каждую сотую. Таблица II. В ней помещены численные величины интеграла Jr e~* dt, от Г = 0 до Г = 3, также через каждую сотую. Сверх того, таблица заключает и логарифмы этого самого интеграла для тех же значений аргумента Г.
В издаваемой в 30-е гг. Гостехиздатом серии «Современная математика» в 1933 вышла в свет книга академика С. Н. Бернштейна «Современное состояние теории вероятностей»; в нее вошли два его доклада, вступления к к-рым публикуются ниже. СОВРЕМЕННАЯ МАТЕМАТИКА АКАД. С. Н. Б Е Р II Ш Т Е Й Н СОВРЕМЕННОЕ СОСТОЯНИЕ ТЕОРИИ ВЕРОЯТНОСТЕЙ ГОСУДАРСТВЕННОЕ Т Е X Н 1! К О -Т Е О Р Е Т И Ч Е С К О Е 1! 3 Д Л Т Е JI ЬСТ В О MOCK ПА 1ЯЗЗ ЛЕНИНГРАД СОВРЕМЕННОЕ СОСТОЯНИЕ ТЕОРИИ ВЕРОЯТНОСТЕЙ И ЕЕ ПРИЛОЖЕНИЙ Доклад, читанный на Всероссийском съезде математиков в Москве в 1927 г. 870 открытию элементарного закона наследственности Менделя, применение теории вероятностей к биологии становится не только возможным, но и необходимым. К этому же времени почти во всех областях знания: в астрономии, метеорологии, демографии и т. д. накопляется обширный статистический материал, обнаруживающий таинственную связь между случайностью и закономерностью, и анализ этой связи, проблема классификации и характеристик статистических рядов на основе понятий теории вероятностей становится в порядке дня. В настоящее время мы можем сказать с полной определенностью, что дальнейшая систематизация человеческого знания или развитие науки невозможна без применения теории вероятностей, и поэтому прежде всего требует ответа вопрос о том, не является ли наука, основанная на этой теории, второсортной или суррогатом науки. Вот почему особо важное значение приобретает формально логическое обоснование теории вероятностей как единой математической дисциплины, и только после того, как эта дисциплина будет очищена от парадоксов и аксиоматически построена, наподобие геометрии, можно будет пользоваться теорией вероятностей, как точным объективным познавательным методом, приложимость которого в каждом частном случае требует и допускает экспериментальную и математическую проверку. Чисто математическая теория вероятностей может не интересоваться тем, имеет ли коэффициент, называемый математической вероятностью, какое-нибудь практическое значение, субъективное или объективное. Единственное требование, которое должно быть соблюдено, это - отсутствие противоречий, а именно: различные способы вычисления указанного коэффициента при данных условиях и соблюдении принятых аксиом должны приводить к одному и тому же значению. Кроме того, если мы хотим, чтобы выводы теории вероятностей были не просто игрой ума, а допускали эмпирическую проверку, то необходимо рассматривать только такие совокупности предложений или суждений, относительно которых возможно фактически установить, истинны они или ложны. Познавательный процесс, необратимый по существу, в том именно и заключается, что те или иные из признаваемых нами возможными предложений становятся истинными, т.е. осуществляются, и тогда отрицания их в то же время становятся ложными или невозможными. Таким образом построение теории вероятностей как единого познавательного метода требует, чтобы истинность предложения однозначно без всяких исключений характеризовалась определенным максимальным значением математической вероятности, которое принимается равным единице, а ложность предложения должна быть адекватна наименьшей вероятности, приравниваемой нулю. Для конечных совокупностей предложений указанным требованиям нетрудно удовлетворить, но благодаря тому, что категорическая необходимость их недостаточно отчетливо признавалась, при рассмотрении бесконечных совокупностей возникали и продолжают возникать парадоксы, на одном из которых я позволю себе здесь остановиться. Я имею в виду известную задачу о том, какова вероятность того, что дробь, написанная наудачу, окажется несократимой, решение которой вслед за Кронекером и Чебышевым дано А. А. Марковым в его клагеи- ческом курсе исчисления вероятностей. О ЗАВИСИМОСТЯХ МЕЖДУ СЛУЧАЙНЫМИ ВЕЛИЧИНАМИ Перевод доклада на Международном конгрессе математиков в Цюрихе в 1932 г. 1. Одной из наиболее характерных особенностей современной науки является крупная роль, отводимая ею схемам теории вероятностей. С первого взгляда такое преобразование метода научных построений кажется противоречащим детерминизму классической науки, согласно которому всякое конкретное явление равнозначно совокупности некоторых наблюдаемых величин, связанных дифференциальными, функциональными или иными уравнениями, причем воздействие на рассматриваемое явление всего остального мира в полной мере отображается пограничными условиями, нужными для их однозначного решения. Однако эта детерминистская формула является лишь принципиальной декларацией, не допускающей общей экспериментальной проверки, так как невозможно повторение опыта при совершенно тождественных условиях; поэтому на практике точные науки пользовались всегда несколько иной формулой - формулой причинности, которая лишь приближенно совместима с вышеуказанной. А именно, реальное явление заменяется абстрактной схемой, характеризуемой теми же величинами, причем допускается, что пограничные условия могут быть экспериментально заданы более или менее произвольно, независимо от общего состояния вселенной. Очевидно, что этот принцип причинности, единственно практически полезный, не может претендовать на абсолютную и универсальную применимость, не впадая в противоречие с данной выше полной формулой детерминизма; и кроме того, разбивая действительность на независимые, вполне устойчивые области, он тем самым выявляет неизбежность особого логического построения, которое объединяло бы в систему иного рода совокупность явлений, признаваемых независимыми. Организационный комитет предложил мне сделать Съезду общий доклад о современном состоянии теории вероятностей и ее приложений. Вы знаете, как обширна указанная тема, и поэтому не должны от меня ожидать сколько-нибудь полного анализа всей интересующей нас области, для которого необходимо было бы несколько докладчиков и потребовалось бы во много раз больше времени, чем то, каким я располагаю. При таких условиях главная трудность, стоящая предо мною, - в выборе материала, в выборе организующего принципа изложения. Я полагаю, что в данном случае основной моей задачей должна быть попытка представить некоторый синтез, методологически объединяющий общие математические проблемы теории вероятностей и ее важнейшие приложения. Поэтому мне придется, с одной стороны, умолчать о многих математических исследованиях, представляющих лишь специальный интерес, и с другой стороны, при рассмотрении приложений теории вероятностей, я буду больше останавливаться на вопросах, имеющих принципиальное значение, чем на тех, которые играют важную роль в соответствующей области. Еще не так давно, до второй половины прошлого столетия, значение теории вероятностей, как метода научного исследования, было весьма ограничено; отдельные попытки ее приложения к изучению явлений природы, связанные с именами Бернулли, Лапласа, Пуассона, Кетле и других, были довольно слабо обоснованы и вызвали заслуженную критику, которая нашла свое наиболее блестящее выражение в известном предисловии Бертрана к его курсу теории вероятностей, написанному всего 40 лет назад. Однако скептицизм Бертрана не остановил и не замедлил дальнейшего стихийного, если так можно выразиться, внедрения теории вероятностей в различные области науки. Уже его современники Максвелл и Больцман превращают молекулярную статистику в важный экспериментально обоснованный отдел физики; и с другой стороны, благодаря
Например, допущение, что движение материальной точки не зависит о г выбора положительного направления на оси, имеет математическим выражением утверждение, что оба знака скорости равновероятны. Точно так же равноценность или симметрия билетов данной лотереи и физическая независимость их владельцев от производства тиража означает, что вероятность выигрыша для каждого пропорциональна числу имеющихся у него билетов. Конечно, допускаемая здесь независимость не абсолютна. Однако построенные таким образом отвлеченные схемы, называемые стохастическими, в такой же степени могут соответствовать действительности, кпк и казуальные схемы классической науки, которые также всегда предполагаются независимыми от прочего мира. Математическая теория вероятностей, основанная на простой, свободной от противоречий, аксиоматической базе, приводит при достаточно большом числе наблюдений к конкретным предвидениям, практически не менее достоверным, чем те, которые вытекают из обычных детерминистских схем, и дает таким образом бесчисленное множество способов для проверки соответствия между стохастическими схемами и изображаемыми ими реальными явлениями. Я не буду останавливаться здесь на принципах этой аксиоматики, данной мною пятнадцать лет назад, которая проникнута убеждением невозможности полного приведения действительности к каким бы то ни было общим схемам. Замечу только, что моя точка зрения, которая, надеюсь, выявится с достаточной отчетливостью из дальнейшего, значительно отличается от эмпирического воззрения, отождествляющего вероятность с частотою, АКЛДКМИЯ НАУК СССР ылткмлтнчмашт институт им. в. а. стекловл МАТЕМАТИКА, ЕЕ СО/ДЕРЖАНИЕ, МЕТОДЫ И ЗНАЧЕНИЕ ТОМ ВТОРОЙ ИЗДАТЕЛЬСТВО АКАДЕМИИ НАУК СССР м о с: ь в л i и 5 и Ъ 1956 в Издательстве АН СССР вышел в свет 3-томный коллективный труд «Математика, ее содержание, методы и значение». Вот выдержки из предисловия: «Коллектив авторов при составлении этой книги исходил из намерения ознакомить достаточно широкие круги советской интеллигенции с содержанием и методами отдельных математических дисциплин...», «В качестве минимума предварительных математически ч знаний читателя предполагается знание только курса средней школы, однако в отношении доступности материала каждый из трех томов не является однородным...», «В полном объеме книга окажется доступной в основном лишь читателям, уже имеющим некоторые навыки в применении методов математического анализа...». молчаливо допускаемого большинством практиков, и систематически проведенного в курсе проф. Мизеса. И, с другой стороны, я считаю существенным отметить тут же, что для фактических приложений теории вероятностей к реальному миру необходимо постулировать логическую однозначность всех явлений, имеющих одинаковую вероятность, или, что то же самое, признать, что вероятность 1 соответствует только абсолютной достоверности. В таком случае, когда мы получаем как результат вычисления важнейшие для приложений теоремы типа закона больших чисел, согласно которым вероятность данного исхода А некоторого опыта весьма мала, менее —, где N - весьма большое целое число, это N утверждение означает попросту, что существует по крайней мере N несовместимых исходов данного опыта объективно эквивалентных А (т. е. таких, что различие между ними возможно лишь на основании признаков или соглашений, независимых от хода опыта), из которых один только осуществляется. 2. После этих предварительных замечаний мы можем определить элементарную стохастическую схему как идеализированный опыт, в котором, при наличии точно определенного комплекса условий а, событие А может произойти или не произойти, причем объективная связь между комплексом а и событием А в полной мере характеризуется скалярной величиной р, называемой математической вероятностью А (при данных условиях). Рассмотрим внимательней эту простую схему. Глава XI - Теория вероятностей - из 2-го тома этого труда, написанная академиком А. Н. Колмогоровым, до наших дней сохраняет интерес для представителей естественнонаучных и инженерных специальностей, учителей математики. § 1. Вероятностные закономерности Простейшие закономерности, устанавливаемые естествознанием, заключаются в указании условий, при которых какое-либо интересующее нас событие заведомо происходит или заведомо не происходит, то есть эти условия могут быть выражены по одной из следующих двух схем: 1) если осуществляется комплекс (то есть совокупность) условий 5, то с достоверностью происходит событие А; 2) если осуществляется комплекс условий 5, то события А произойти не может. В первом случае событие А по отношению к комплексу условий S называется «достоверным» или «необходимым» событием, а во втором - «невозможным» событием. Например, при атмосферном давлении и температуре t, лежащей в пределах 0°<г<100° (комплекс условий 5), вода с достоверностью находится в жидком состоянии (достоверное событие А\), а в газообразном или в твердом состоянии находиться не может (невозможные события А2 и Лэ). Событие Л, которое при осуществлении комплекса условий S иногда происходит, а иногда не происходит, называется по отношению к этому комплексу условий случайным. Возникает вопрос: означает ли случайность события А отсутствие всякой закономерной связи между комплексом условий S и событием А? Пусть, например, установлено, что лампы определенного типа, производимые определенным заводом (условия 5), иногда горят более 2000 час (событие А), а иногда до истечения этого срока перегорают и приходят в негодность. Могут ли тем не менее опыты с проверкой способности ламп гореть 2000 час служить для характеристики качества продукции завода? Или следует ограничиться указанием того срока (скажем, 500 час?), в течение которого практически все лампы безотказно работают, и того срока, после которого практически все лампы перегорают (скажем, срока в 10 000 час?). Ясно, что характеристика срока работы ламп только неравенствами 500 < Г< 10 000 мало удовлетворит потребителя. Потребитель получит значительно более полную информацию, если ему будет сказано, что приблизительно в 80% случаев лампы служат не менее 2000 час. Еще более полная характеристика качества ламп будет содержаться в указании для любого Т процента v(D ламп, которые служат не менее Т часов, хотя бы в виде графика, изображенного на рис. 1. Кривая v(D практически находится при помощи испытаний с пробной партией из достаточно большого числа (100-200) ламп. Естественно, что найденная таким образом кривая имеет действительную ценность лишь в том случае, если она правильно отражает реальную закономерность, действующую не только для данной пробной партии, но и вообще для ламп, производимых при заданном качестве материалов и при установленной на заводе технологии производства, то есть если испытания, произведенные с другими пробными партиями, состоящими из ламп, изготовленных в тех же общих условиях, приводят к близким результатам (то есть к кривым v(T"), мало отличающимся от кривой, полученной в результате испытаний первой пробной партии). 871
Это значит, что статистическая закономерность, выражаемая кривыми v(D в пробных партиях, является лишь отражением вероятностной закономерности, связывающей срок службы лампы с качеством материалов, из которых она изготовлена, и с технологией ее изготовления. Эта вероятностная закономерность задастся при помощи функции Р(7"), где Р(7") есть вероятность того, что отдельная лампа (произведенная при заданных условиях) будет гореть не менее 7* часов. Утверждение о существовании у события А определенной вероятности P(A\S)=p при условиях 5 заключается в том, что в различных достаточно длинных сериях испытаний (то есть осуществлений комплекса условий 5) получаемые частоты появления события А (где пг - число испытаний r-й серии, |ir - число тех испытаний этой серии, при которых произошло событие А) будут приблизительно одинаковы и близки к р. Гипотеза о существовании такой константы p = P(A\S) (объективно обусловленной характером связи между комплексом условий 5 и событием Л), к которой частоты v оказываются, «вообще говоря», тем Рис 1. ближе, чем больше число испытаний п, хорошо оправдывается для широкого класса яшепнй. Такого рода явления естественно называть вероятностно-случайными*. Рассмотренный выше пример относится к области вероятностных закономерностей массового производства. Реальность такого рода закономерностей не подлежит никакому сомнению. На них основаны весьма важные практические приемы статистического выборочного контроля массовой продукции. Близкой по способу образования вероятностных закономерностей является область вероятностных законов рассеивания снарядов, имеющих основное значение для теории стрельбы. Так как исторически это один из первых примеров реального применения методов теории вероятностей к техническим задачам, то к некоторым простейшим задачам теории стрельбы мы еще вернемся далее. Сказанное выше о «близости» вероятности р и частоты v при большом числе испытаний п несколько расплывчато; мы ничего не сказали о том, насколько мала разность v - р при том или ином п. Степень близости v к » получит количественную оценку в § 3. Интересно отметить, что полиостью исключить некоторую неопределенность в этом вопросе нельзя. Само утверждение о близости v и р, как это обнаруживается при уточнении вопроса, имеет лишь вероятностный характер. § 2. Аксиомы и основные формулы элементарной теории вероятностей Поскольку большая роль статистических закономерностей несомненна, возникает вопрос о методах их изучения. Прежде всего возникает мысль о возможности чисто эмпирического, экспериментального их исследования. Так как вероятностная закономерность проявляется в массовых процессах, то представляется естественным, что для ее обнаружения необходимо произвести массовый эксперимент. Такое представление, однако, истинно лишь отчасти. Установив некоторые вероятностные закономерности экспериментально, можно выводить из них новые вероятностные закономерности логическим или вычислительным путем при помощи некоторых общих допущений. * Иногда их называют стохастическими. 872 Прежде чем показать, как это делается, мы должны перечислить некоторые основные определения и формулы теории вероятностей. Из представления о вероятности как о нормальном значении частоты v =—, где 0^т<я, и, следовательно, 0<v<M, вытекает, что всроят- п ность Р(А) любого события А естественно считать лежащей мекду нулем и единицей* 0«Р(Л)«1. (1) Два события называются несовместимыми, если они не могут (при осуществлении комплекса условий 5) произойти оба. Например, при бросании игральной кости выпадение четного числа очков и выпаде чие тройки являются событиями несовместимыми. Событие А называется соединением событий А[ и Л2, если оно состоит в том, что происходит хотя бы одно из событий А х или А2. Например, при бросании играль шй кости событие А, состоящее в выпадении 1, 2 или 3, является соедкионием событий /4j и А2, где Ах состоит в выпадении 1 или 2, а А2 - в выпадении 2 или 3. Легко видеть, что для чисел появлений mh т2 и т двух несовместимых событий /lt иЛ2иих соединения А = A{\JA2 и у ест место равенство т = т{+т2, что дает для соответствующих частот v = vt+v2. Это приводит к естественности следующей аксиомы сложения вероятностей: РС41иЛ2) = РС4,) + РС42), (2) если события Л] и А2 несовместимы и A\\JA2 обозначает их соединение. Далее, для достоверного события U естественно принять P(t7) = l. (3) Вся математическая теория вероятностей строится на простых аюи- омах такого типа, как (1), (2) и (3). С точки зрения чистой матсмаглш вероятность является числовой функцией от «события», обладающей рядом аксиоматически фиксированных свойств. Свойства вероятностей, выражаемые формулами (1), (2) и (3), служат достаточ юй основой для построения так наз. элементарной теории вероятное-'"ей, если не настаивать на том, что в аксиоматизации нуждаются и емми понятия события, соединения событий и определяемого ниже совмещения событий. Начинающему полезнее держаться наглядного понима шя терминов «событие» и «вероятность», но полезно знать, что неподдающийся полной формализации реальный смысл этих понятий не влияет на полную формальную отчетливость аксиоматизированного чисто математического изложения теории вероятностей. Будем называть соединением событий Аи А2 Аи данных в лю-5ом числе, событие А, заключающееся в том, что происходит хотя бы оцю из этих событий. Тогда из аксиомы сложения легко получаем тля любого числа попарно несовместимых событий А\, А2 As и их соединения А PC4) = PC4l) + PC42) + ... + PC4i) (так наз. теорема сложения вероятностей). Если соединение этих событий есть достоверное событие (то есть фи каждом осуществлении комплекса условий S происходит какое-либо из событий Ak), то Р(Л,) + Р(Л2) + ... + Р045) = 1. В этом случае систему событий Аи ..., А5 называют полной системой событий. Рассмотрим теперь два, вообще говоря, совместимых события А и В. Событие С назовем совмещением событий Aw В (С = АВ), если событие С состоит в том, что происходят оба события А и В**. Например, если событие А состоит в том, что число очков, выпадающее при бросании игральной кости, четно, а В - в том, что оно кратно трем, то событие С состоит в том, что число очков равно шести. Пусть при большом числе п повторных испытаний событие А появилось т раз, а событие В появилось / раз, причем k раз вместе с событием А. Отношение k/m естественно назвать условной частотой события В при условии А. Связывающей частоты —, — и - формуле естественно сопоставить следующее определение: Условной вероятностью Р(В\А) события В при условии А называется отношение Здесь предполагается, конечно, что Р(Л)*0. Если события Л и В по существу никак не связаны друг с другом, то естественно предполагать, что событие В не должно появляться при условии наступления события А ни существенно чаще, ни существенно • Запись Р(у4|5) мы для краткости изменим теперь на Р(А). •• Аналогично совмещение С любого числа событий А\, Лг, наступлении всех указанных событий. . As ciktpmt i
режи, чем при рассмотрении всех вообще испытаний, то есть что k I приближенно или т п A- Jl m~ .1 — п т п п п* В последнем приближенном равенстве — = v* есть частота события А, а п - = Vp- частота события В, наконец, - = vAB - частота совмещения п п событий Л и Б. Мы видим, что эти частоты связаны соотношением Для вероятностей событий Л, В и АВ естественно поэтому принять соответствующее точное равенство РС4В) = РС4)Р(В). (4) Равенство (4) служит определением независимости двух событий Л и Л. Аналогично можно определить независимость любого числа событий. Кроме того, можно дать определение независимости любого числа испытаний (последнее, грубо говоря, сводится к тому, что тот или иной исход части этих испытаний никак не влияет на исход остальных*. 2% 7% 16% 25% 25% 16% 7% 2% -АВ ~ЗВ -2В -В О Рис. 2. 2В ЗВ 4.В К обсуждению реального смысла понятия независимости мы еще вернемся в § 4. Вычислим теперь вероятность Р* ровно k появлений некоторого события А в п независимых испытаниях, в каждом из которых вероятность р появления этого события одна и та же. Обозначим через А событие, заключающееся в непоявлении события А. Очевидно, что РС4) = 1-Р(Л)=1-р. Из определения независимости испытаний нетрудно усмотреть, что вероятность какой-либо определенной последовательности составленной ил k появлений А и п - k непоявлений А, равна р\\-р)пк. (5) Так, например, при п = 5 и k = 2 вероятность получить последовательность исходов ААААА будет р(1 -р)р(\ -р)(\ -р)-р2(\ -р)3. По теореме сложения вероятность Р* равна сумме вероятностей всех последовательностей с k появлениями и п - k непоявлениями события А, то есть в силу (5) равна произведению числа таких последовательностей на рк(\-р)п . Число таких последовательностей, очевидно, равно числу сочетаний из п по k, поскольку k положительных исходов могут занимать в ряду из п испытаний любые k мест. Окончательно получаем Рк = сУ(\-р)яЛк = 0, 1,2, п) (6) (так наз. биномиальное распределение). Чтобы увидеть, как применяются приведенные выше определения и формулы, рассмотрим пример, относящийся к теории стрельбы. Пусть для поражения цели достаточно пяти попаданий. Нас интересует вопрос, имеем ли мы право рассчитывать на то, что необходимые пять попаданий получатся в результате 40 выстрелов. Чисто эмпирический метод решения этой задачи заключался бы в следующем. При заданных размерах цели и заданной дистанции стрельбы производится много (скажем, 200) стрельб по 40 выстрелов в каждой и определяется, в каком числе стрельб получилось не менее пяти попаданий в цель. Если этот результат был достигнут, например, в 195 стрельбах из 200, то вероятность Р равна приблизительно Р = § = 0,975. По рассмотренному чисто эмпирич. рецепту исследования мы потратили бы 8000 снарядов для решения крайне специальной задачи. Так на практике, конечно, не поступают. Вместо этого начинают с исследования рассеивания снарядов при данной дистанции стрельбы независимо от размеров цели. Оказывается, что отклонения по дальности и боковые отклонения от средней точки падения подчиняются в смысле частоты, с которой встречаются отклонения различных размеров, закону, изображенному на рис. 2. Буквой В здесь обозначено так наз. * Точнее независимость испытаний означает следующее. Разобьем п испытаний каким-либо образом на две группы; пусть событие А заключается в том, что все испытания первой группы заканчиваются какими-либо наперед заданными исходами, а событие В - в том, что все испытания второй группы заканчиваются какими-либо исходами, также наперед заданными. Испытания называются независимыми (в совокупности), если при любом разбиении и любом задании исходов определенные выше события А и В независимы в смысле (4). вероятное отклонение. Вероятное отклонение, вообще говоря, различно для отклонений по дальности и боковых отклонений и, кроме того, увеличивается с увеличением дистанции стрельбы. Вероятные отклонения для различных дистанций для каждого типа оружия и снаряда находят эмпирически при помощи опытных стрельб на артиллерийском полигоне. После же этого решение всевозможных специальных задач такого типа, как поставленная выше, производится расчетным путем. Предположим для простоты, что интересующая нас цель имеет вид прямоугольника, одна сторона которого направлена вдоль линии стрельбы и имеет размеры в два вероятных отклонения по дальности, а другая сторона, перпендикулярная линии стрельбы, равна двум вероятным боковым отклонениям. Предположим, далее, что цель хорошо пристреляна и средняя траектория полета снарядов проходит через ее центр (рис. 3). Предположим еще, что боковое отклонение и отклонение по дальности независимы*. Тогда для попадания в цель данным снарядом необходимо и достаточно, чтобы его отклонения по дальности и боковое не превосходили соответствующих вероятных отклонений. В соответствии с рис. 2 каждое из этих событий будет наблюдаться примерно для 50% выпущенных снарядов, то есть с вероятностью Уг- Совмещение обоих этих событий будет происходить примерно для 25% выпущенных снарядов, то есть вероятность попадания отдельного снаряда в цель будет равна 1 1 1 а вероятность промаха при отдельном выстреле будет равна Рис. 3. Предполагая, что попадания при отдельных выстрелах представляют собой независимые события и применяя биномиальную формулу (6), мы находим, что вероятность получить при 40 выстрелах ровно k попаданий будет равна : С4оР Я 40 39... (39-*) Ш Интересующая нас вероятность получить не менее пяти попаданий выразится теперь формулой Р = \*_<-^V Но ее проще вычислить по формуле Р = 1 - Q, исходя из вероятности Q = V Р* получить менее пяти попадании Можно подсчитать, что Рп = -0,00001, /> = 40||] --0,00013, А = 40-39-38^3 2-3 [~А 40-39-38-37^3 fJ (т) ~а00087' j) -0,0037, откуда р«—511-17J т-МПЗ. Q = 0,016, P = 0,984. Полученная вероятность Р даже несколько ближе к единице, чем это обычно признается достаточным в теории стрельбы при назначении числа снарядов, способного обеспечить выполнение поставленной задачи. Чаще всего считают возможным указывать число снарядов, которое гарантирует выполнение поставленной задачи с вероятностью 0,95. Рассмотренный пример несколько схематичен, но он достаточно убедительно показывает важность вероятностных расчетов. Установив из опыта зависимость вероятных отклонений от дистанции стрельбы, * Эти предположения независимости подтверждаются опытом. 873
для чего достаточно совсем небольшого числа стрельб на полигоне, мы можем потом при помощи несложных расчетов получать ответы на самые разнообразные вопросы. Так же дело обстоит и во всех других областях, где совместное действие большого числа случайных факторов приводит к статистическим закономерностям. При непосредственной обработке массовых наблюдений выясняются лишь самые простые из этих статистических закономерностей, то есть находятся лишь некоторые исходные вероятности. Затем, при помощи законов теории вероятностей, отправляясь от этих исходных вероятностей» вычисляют вероятности более сложных явлений и на основе этих вычислений делают выводы о статистических закономерностях, управляющих интересующими нас сложными явлениями. Иногда удается и совсем обойтись без собирания массового статистического материала, так как исходные вероятности могут быть определены из достаточно убедительных соображений симметрии. Например, традиционный вывод о том, что игральная кость, то есть куб, вырезанный из однородного материала, при бросании с достаточной высоты падает на каждую из своих граней с одинаковой вероятностью Уб» был сделан несомненно раньше, чем вполне систематически был собран достаточный для оправдания этого вывода наблюдательный материал. Систематические опыты такого рода производились в XVIII-XX вв. преимущественно составителями учебников по теории вероятностей, когда теория вероятностен уже была разработанной наукой. Результат этой проверки был удовлетворителен, но распространение подобной деятельности на новые аналогичные случаи вряд ли представляет интерес. Например, насколько нам известно, никто не производил достаточно обширных опытов с бросанием вырезанного из однородного материала правильного двенадцатигранника. Но нет никаких сомнений, что если бы было произведено, скажем, 12 000 таких бросаний, то двенадцатигранник упал бы на каждую из своих граней приблизительно в тысяче случаев. Получение исходных вероятностей из соображений симметрии или однородности играет также большую роль во многих серьезных научных задачах, например во всех задачах на столкновения или сближения беспорядочно двигающихся молекул газа или - с таким же успехом - звезд галактики. Конечно, в таких более деликатных случаях предпочитают хотя бы косвенно проверять сделанные допущения путем сравнения вытекающих из них выводов с опытом. § 3. Закон больших чисел и предельные теоремы Вполне естественна потребность количественно уточнить утверждение о том, что в «больших» сериях испытаний частоты появления события «близки» к его вероятности. Следует ясно представить себе известную деликатность этой задачи. В наиболее типичных для теории вероятностей случаях дело обстоит так, что в сколь угодно длинных сериях испытаний остаются теоретически возможными оба крайних значения частоты п п п п Поэтому, каково бы ни было число испытаний п, нельзя утверждать с полной достоверностью, что будет выполнено, скажем, неравенство |JL-J<-L. I я I 10 Например, если событие Л заключается в выпадении при бросании игральной кости шестерки, то при п бросаниях с вероятностью hr] >0 мы все время будем получать одни шестерки, то есть с вероятностью hr] получим частоту появления шестерок, равную единице, а с вероят- К ( П" ностью И -^1 >0 шестерка не выпадает ни одного раза, то есть частота появления шестерок окажется равной нулю. Во всех подобных задачах любая нетривиальная оценка близости между частотой и вероятностью действует не с полной достоверностью, а лишь с некоторой меньшей единицы вероятностью. Можно, например, доказать, что в случае независимых испытаний* с постоянной вероятностью р появления события неравенство ~р <0,02 (7) для частоты — будет выполняться при п = 10 000 (и любом р) с вероятностью Р > 0,9999. (8) Здесь мы прежде всего хотим подчеркнуть, что в приведенной формулировке количественная оценка близости частоты — к вероятности р связана с введением новой вероятности Р. ' См. сноску на стр. 873. Доказательство оценки (8) пояснено на стр. 875. 874 77 *Р< 0,9999. N Реальный смысл оценки (8) таков: если произвести N серий по п испытаний и сосчитать число М серий, в которых выполняется неравенство (7), то при достаточно большом N приближенно будет (9) Но если мы захотим уточнить соотношение (9) как в отношении степени близости - кЛ так и в отношении надежности, с которой можно утверждать,что такая близость будет иметь место, то придется обратиться к рассмотрениям, аналогичным тем, которые мы уже провели в применении к близости *- и р. При желании такое рассуждение можно повторять неограниченное число раз, но вполне понятно, что это не позволит нам совсем освободиться от необходимости на последнем этапе обратиться к вероятностям в примитивном грубом понимании этого термина. Не следует думать, что подобного рода затруднения являются какой-то особенностью теории вероятностей. При математическом изучении реальных явлений мы всегда нх схематизируем. Отклонения хода действительных явлений от теоретической схемы можно, в свою очередь, подвергнуть математическому изучению. Но для этого сами эти отклонения надо уложить в некоторую схему и этой последней пользоваться уже без формального математического анализа отклонений от нее. Заметим, впрочем, что при реальном применении оценки* Р\\2--p <0,02 >0,9999 (10) к единичной серии из п испытаний мы опираемся и на некоторые соображения симметрии: неравенство (10) указывает, что при очень большом числе N серий соотношение (7) будет выполняться не менее чем в 99,99% случаев; естественно с большой уверенностью ожидать, что, в частности, неравенство (7) осуществится в интересующей нас определенной серии нз я испытаний, если мы имеем основания считать, что эта серия в ряду других серий занимает рядовое, ничем особенным не отмеченное положение. Вероятности, которыми принято пренебрегать в различных практических положениях, различны. Выше уже отмечалось, что при ориентировочных расчетах расхода снарядов, гарантирующего выполнение поставленной задачи, удовлетворяются нормой расхода снарядов, при которой поставленная задача решается с вероятностью 0,95, то есть пренебрегают вероятностями, не превышающими 0,05. Это объясняется тем, что переход на расчеты, исходящие из пренебрежения, скажем, лишь вероятностями, меньшими 0,01, приводил бы к большому увеличению норм расхода снарядов, то есть практически во многих случаях к выводу о невозможности выполнить поставленную задачу за тот короткий промежуток времени, который для этого имеется, или с фактически могущим быть использованным запасом снарядов. Иногда и в научных исследованиях ограничиваются статистическими приемами, рассчитанными исходя из пренебрежения вероятностями в 0,05. Но это следует делать лишь в случаях, когда собирание более обширного материала очень затруднительно. Рассмотрим в виде примера таких приемов следующую задачу. Допустим, что в определенных условиях употребительный препарат для лечения какого-либо заболевания дает положительный результат в 50%, то есть с вероятностью 0.5. Предлагается новый препарат и для проверки его преимуществ над старым планируется применить его в десяти случаях, выбранных беспристрастно из числа больных, находящихся в том же положении, что и те, для которых установлена эффективность старого препарата в 50%. При этом устанавливается, что преимущество нового препарата будет считаться доказанным, если он даст положительный результат не менее чем в восьми случаях из десяти. Легко подсчитать, что такое решение связано с пренебрежением вероятностью получить ошибочный вывод (то есть вывод о доказанности преимущества нового препарата, в то время как он равноценен или даже хуже старого) как раз порядка 0,05. В самом деле, если в каждом из десяти испытаний вероятность положительного исхода равна р, то вероятности получить при десяти испытаниях 10, 9 или 8 положительных исходов, равны соответственно п ,J° Р9=\0рЧ\- Рь = 45р*(\- В сумме для случая р = -= получаем Р = Р\о + Р» + Р& = 56 1024 0,05. Таким образом, в предположении, что на самом деле новый препарат точно равноценен старому, мы рискуем сделать ошибочный вывод о том, что новый препарат превосходит старый с вероятностью порядка 0,05. Чтобы свести эту вероятность приблизительно к 0,01, не увеличивая числа испытаний п= 10, пришлось бы установить, что преимущество нового препарата будет считаться доказанным лишь тогда, когда его применение даст положительный результат не менее чем в девяти • Так записывают оценку (8) для вероятности неравенства (7).
случаях из десяти. Если это требование покажется сторонникам нового препарата слишком суровым, то придется назначить число испытаний п значительно большим, чем 10. Если, например, при п = 100 установить, что преимущества нового препарата будут считаться доказанными при Ц>65, то вероятность ошибки будет лишь Я*0,0015. Если норма в 0,05 для серьезных научных исследований явно недостаточна, то вероятностью ошнбкн в 0,001 или в 0,003 по большей части принято пренебрегать даже в столь академических и обстоятельных исследованиях, как обработка астрономических наблюдений. Впрочем, иногда научные выводы, основанные на применении вероятностных закономерностей, обладают и значительно большей достоверностью (то есть построены на пренебрежении значительно меньшими вероятностями). Об этом еще будет сказано далее. В рассмотренных примерах мы уже неоднократно применяли частные случаи биномиальной формулы (6) для вероятности Рт получить ровно т положительных исходов при п независимых испытаниях, в каждом из которых положительный исход имеет вероятность р. Рассмотрим при помощи этой формулы вопрос, поставленный в начале этого параграфа, о вероятности >=р(к. Р <£ (П) где 11 - фактическое число положительных исходов*. Очевидно, эта вероятность может быть записана в виде суммы тех Рт, для которых т удов отворяет неравенству -р <£> то есть в виде (12) (13) где М\ - наименьшее из значении т, удовлетворяющих неравенству (12), а ш2 - наибольшее из таких т. Формула (13) при сколько-нибудь больших п мало пригодна для непосредственных вычислений. Поэтому имело очень большое значение открытие Муавром для случая р = \/2 и Лапласом при любом р асимнтотич. формулы, которая позволяет очень просто находить н изучать поведение вероятностей Рт при больших п. Формула эта имеет вид т j2imp(\-p) (14) Если р не слитком близко к нулю или единице, то она достаточно точна уже при п порядка 100. Если положить (15) 4пр{\-р) то формула (14) приобретает вид р~. ^2тр(\-р) (16) Из (13) и (16) можно вывести приближенное представление вероятности (11) Р~-^Г е >dt = F{T\ -fin J-t Vp0-p) (17) (18) Разность между левой и правой частями в (17) при постоянном и отличном от нуля и единицы р стремится при п->«> равномерно относительно £ к нулю. Для функции F(T) составлены подробные таблицы. Вот краткая выдержка из них Т F 1 0,68269 2 0,95450 3 0,99730 4 0,99993 При 7"->°о значение функции F(T) стремится к единице. Произведем при помощи формулы (17) оценку вероятности It-'M при п~ 10000. Так как Т = Му-Р) P*F * ц принимает с вероятностями Р„, значения /н = 0, 1 , л, то есть Р{ц = т) = Рт Так как функция F(T) монотонно возрастает с возрастанием Т, то для не зависящей от р оценки Р снизу надо взять наименьшее возможное (при различных /?), значение Т. Такое наименьшее значение получится при р= 1/2, и оно будет равно 4. Поэтому приближенно Р?Я4) = 0,99993. (19) В неравенстве (19) не учтена ошибка, происходящая из-за приближенного характера формулы (17). Производя оценку связанной с этим обстоятельством погрешности, можно во всяком случае установить, что Р > 0,9999. В связи с рассмотренным примером применения формулы (17) следует отметить, что оценки остаточного члена формулы (17), дававшиеся в теоретических сочинениях по теории вероятностей, долго оставались мало удовлетворительными. Поэтому применения формулы (17) и ей подобных к расчетам при не очень больших п или при вероятностях р, очень близких к 0 или к 1 (а также вероятности во многих случаях и имеют особенно большое значение), часто основывались лишь на опыте проверок такого рода результатов для ограниченного числа примеров, а не на достоверно установленных оценках возможной ошибки. Более подробное исследование, кроме того, показало, что во многих практически важных случаях приведенные выше асимптотические формулы нуждаются це только в оценке остаточного члена, но и в уточнении (так как без такого уточнения остаточный член слишком велик). В обоих направлениях наиболее полные результаты принадлежат С. Н. Бернштейну. Соотношения (11), (17) и (18) можно переписать в виде -№->\«{Щ- F{t). (20) Для достаточно больших t правая часть формулы (20), не содержащая пу сколь угодно близка к единице, то есть к значению вероятности, которое соответствует полной достоверности. Мы видим, таким образом, что как правило, отклонения частоты *- от вероятности р имеют порядок — . Такая пропорциональность точности действия вероятностных закономерностей квадратному корню из числа наблюдений типична и для иногих других вопросов. Иногда говорят даже в порядке несколько упрощенной популяризации о «законе квадратного корня из л» как основном законе теории вероятностей. Полную отчетливость эта мысль получила благодаря введению великим русским математиком П. Л. Чебышевым в систематическое употребление метода сведения различных вероятностных задач к подсчетам «математических ожиданий» и «дисперсий» для сумм и средних арифметических «случайных величин». Случайной величиной называется величина, которая в данных условиях 5 может принимать различные значения с определенными вероятностями. Для нас достаточно рассмотреть случайные величины, могущие принимать лишь конечное число различных значений. Чтобы указать, как говорят, распределение вероятностей такого рода случайной величины £, достаточно указать возможные ее значения ть х2 хг и вероятности яг=РК=*г}. В сумме эти вероятности по всем различным возможным значениям величины £ всегда равны единице: Примером случайной величины может служить изучавшееся выше число ц положительных исходов при п испытаниях. Математическим ожиданием величины £ называется выражение а дисперсией величины £ называют математическое ожидание квадрата отклонения Z, - М(£), то есть выражение D(c,) = £< Pr(*r-M(c,))2. Корень квадратный из дисперсии o^VDft) называется средним квадратическим отклонением (величины от се математич. ожидания М(£)). В основе простейших применений дисперсий и средних квадратиче- ских отклонений лежит знаменитое неравенство Чебышева P{|5-M(5)|<tat>3M--L. (21) Оно показываает, что отклонения £ от М(£), значительно превышающие оц, встречаются редко. При образовании сумм случайных величин л,=Чм+?» + ...+?' 875
для их математич. ожиданий всегда иметь место равенство М($) = М($(,)) + М($(2)) +... + М($(п)). (22) Аналогичное равенство для дисперсий D($) - D($(1>) + D($<2)) +... + D($(n)) (23) верно только при некоторых ограничениях. Для справедливости равенства (23) достаточно, например, чтобы величины £(,) и ^ с различными номерами не были, как говорят, «коррелированы» между собой, то есть чтобы при i*j выполнялось равенство* м{($(,) - тъштъ{/} - м(5<у>))}=о. (24) В частности, равенство (24) соблюдается, если величины £(i) и ^ независимы между собой**. Таким образом, для взаимно независимых слагаемых всегда действует равенство (23). Для средних арифметических 5=^«<|>+5<2>+...+5<">) из (23) вытекает D($> =-7 (D(5(,)) + D($<2)) + ... + Dft00». (25) n Предположим теперь, что для всех слагаемых дисперсии не превосходят некоторой постоянной D(f)<C2. Тогда по (25) пг и в силу неравенства Чебышева при любом г p{|$-M($)|«-^Ul--l-. (26) Неравенство (26) содержит в себе так наз. закон больших чисел в форме, установленной Чебышевым: если величины £(г) взаимно независимы и имеют ограниченные дисперсии, то при возрастании п их средние арифметические £ все реже заметно отклоняются от своих математических ожиданий М(£). Более точно говорят, что последовательность величин е<1) t(2) е(п> подчиняется закону больших чисел, если для соответствующих средних арифметических £ и при любом постоянном е > 0 Р{|$-М($)|<е}-И (27) при п-*°°. Чтобы получить из неравенства (26) предельное соотношение (27), достаточно положить Большой ряд исследований А. А. Маркова, С. Н. Бернштейна, А. Я. Хинчина и других посвящен вопросу возможно большего расширения условий применимости предельного соотношения (27), то есть условий применимости закона больших чисел. Эти исследования имеют принципиальное значение. Однако еще более важным является точное исследование распределения вероятностей отклонений £-М(£). Великой заслугой русской классической школы в теории вероятностей является установление того факта, что при очень широких условиях асимптотически (то есть со все большей точностью при неограниченно растущих п) справедливо равенство Р{*.о.<5-М(У<^о.)—pLf'e^^rff. (28) Чебышев дал почти полное доказательство этой формулы для случая независимых и ограниченных слагаемых. Марков восполнил недостающее звено в рассуждениях Чебышева и расширил условия применимости формулы (28). Еще более общие условия были даны А. М. Ляпуновым. Вопрос о распространении формулы (28) на суммы зависимых слагаемых с особенной полнотой был изучен С. Н. Бернштейном. * Коэффициентом корреляции между величинами £ ' и ^ называется выра- 1\ — . Ое(«>Ое(у) Если o,ii>> 0 и о.о)> О, то условие (24) равносильно тому, что R = 0. Коэффициент корреляции R характеризует степень зависимости между случайными величинами. Всегда J/?j<l, причем R = ±1 только при наличии линейной связи TJ = а$ + Ь (а * 0). Для независимых величин R = 0. •• Независимость двух случайных величин £ и Т|, способных принимать, соответственно, значения хи Х2, ..., хт, и у и ф, ..., у*, по определению обозначает, что при любых i и / события А, = {$ = х,} и В; = {т\ = у;) независимы в смысле определения, данного в § 2. 876 Формула (28) охватила столь большое число частных задач, что долгое время ее называли центральной предельной теоремой теории вероятностен. Хотя при новейшем развитии теории вероятностей она оказалась включенной в ряд более общих закономерностей, ее значение трудно переоценить и в настоящее время. Если слагаемые независимы и их дисперсии одинаковы и равны: то формуле (28) удобно, учитывая соотношение (25), придать вид '{^-^ЯЬЫУ*- (29) Покажем, что соотношение (29) содержит в себе решение задачи об отклонениях частоты — от вероятности р, которой мы занимались ранее. Для этого введем случайные величины £ , определяя их следующим условием: (0 _ ГО, если i-e испытание имело отрицательный исход, \l, если t-e испытание имело положительный исход. Легко проверить, что тогда ЬМ$и)) =Р, 0(Ъи))=р(\ -р), Щ$)=р, и формула (29) дает что при гj =-f, t2 = t снова приводит к формуле (20). § 4. Дополнительные замечания об основных понятиях теории вероятностей Говоря о случайных явлениях, которым свойственна устойчивость частот, то есть тенденция при большом числе повторений известных условий происходить с частотами, группирующимися вокруг некоторого нормального уровня- вероятности PCdlS), мы допустили в § 1 некоторую неточность и расплывчатость формулировок в двух отношениях. Первая из допущенных неточностей заключается в том, что мы не указали, насколько велики должны быть по своей численности серии испытаний пг для того, чтобы устойчивость частот уже обязана была проявиться, и каковы именно допустимые отклонения частот — друг от пГ друга и от нормального их уровня р при тех или иных численностях отдельных серий щ, Яг п5. Эта неточность на первом этапе формирования понятий новой науки неизбежна. Она нисколько не больше, чем известная расплывчатость, свойственная простейшим гео- метрич. понятиям точки или прямой в их физичеком понимании. Эта сторона дела была затем уточнена в § 3. Существеннее другая скрытая в наших формулировках неясность, относящаяся к способу формирования тех серий, в которых должна наблюдаться устойчивость частот проявления события А. Мы уже видели, что к статистич. и вероятностным методам исследования обращаются тогда, когда точное индивидуальное предсказание хода событий оказывается неосуществимым. Желая же искусственно создать по возможности чисто случайные явления, специально заботятся о том, чтобы никакими доступными средствами нельзя было заранее выделить те случаи, в которых явление А будет иметь тенденцию появляться чаще, чем с некоторой нормальной для него частотой. Так организуются, например, тиражи государственных займов. Если в данном тираже из общего числа N облигации на М из них выпадает выигрыш, то вероятность выигрыша для отдельной облигации рав- N на Р~~м' ^то значит» что каким бы образом мы ни выделили заранее до тиража совокупность облигаций достаточно большой численности п, мы можем быть практически уверены, что отношение - числа ц выигравших облигаций в выделенной совокупности к общей численности п этой совокупности окажется близким к р. Например, лица, предпочитающие приобретать четные номера облигаций, не получат никакого систематического преимущества перед теми, к-рые предпочитают приобретать нечетные номера; точно так же не получат никакого преимущества лица, к-рые исходили бы из убеждения, что лучше всего приобретать облигации с номерами, разлагающимися ровно на три простых множителя, или облигации, номера к-рых являются соседними с теми, на к-рые упали выигрыши в предшествующем тираже, и т. п. Точно так же при стрельбе из исправного орудия данного образца, с хорошо обученным обслуживающим персоналом и при нормальном способе получения снарядов, прошедших обычный для выпускаемой продукции контроль, мы будем получать отклонения от средней точки падения меньше определенного заранее вероятного отклонения В приблизительно в половине случаев. Эта пропорция сохранится в ряде последовательных стрельб, сохранится она и в том случае, если мы отдельно подсчитаем число отклонений, меньших В, для четных или нечетных (по порядку их во времени) выстрелов и т. п. Но нполне
возможно, что произведя отбор особенно однородных (в отношении их веса и т. п.) снарядов, мы могли бы рассеивание несколько уменьшить, полупить серию снарядов, для которой доля отклонений, больших стандартного В окажется существенно меньше половины. Итак, говорить о том, что событие Л является «вероятностно-случайным» и приписывать ему определенную вероятность p = P(A\S) можнэ, только, когда указан класс допустимых способов формирования сзрий испытаний. Указание этого класса мы будем считать включенным в условия 5. При заданных условиях S свойство события Л быть вероятностно-случайным и иметь вероятность р = P(A\S) выражает объективный характер связи между условиями 5 и событием А. Иначе говоря, не существует событий абсолютно случайных, события являются случайными или необходимыми в зависимости от того, в какой связи они рассматриваются, но в определенных условиях событие может быть случайным совершенно объективно, и это его свойство не зависит от состояния знаний какого бы то ни было наблюдателя. Если вообразить наблюдателя, который мог бы улавливать во всех деталях отличительные сзойства особые обстоятельства полета снарядов и, следовательно, предсказывать индивидуальные для каждого из них отклонения от средней траектории, то его присутствие не помешало бы снарядам рассеиваться по законам теории вероятностей (если, конечно, стрельба будет производиться обычным способом, а не по указаниям нашего воображаемого наблюдателя). Заметим по этому поводу, что обсуждавшееся выше формирование серий, в которых проявляется тенденция к постоянству частот в смысле их rp/ппирования вокруг нормального значения - вероятности, тоже происходит в реальной обстановке совершенно независимого от нашего вмешательства. Например, именно в силу вероятностно-случайного характера движений молекул в газе число молекул, ударяющихся даже за очень малые промежутки времени о какую-либо площадку стенки сосуда или поверхности помещенных в газе тел, оказывается с большой точностью пропорциональным площади этой площадки и длине промежутка времени. Отклонения от этой пропорциональности в тех случаях, когда число ударов невелико, тоже следуют законам теории вероятностен и вызывают явления типа броуновского движения, о чем будет идти речь далее. Обратимся к выяснению реального смысла понятия независимости. Напомним, что условная вероятность события А при условии В определялась формулой Р(А|Я)=-^. (30) Напомним также, что события А и В назывались независимыми, если, согласно (4), Р(АВ) = Р(А)Р(В). Из независимости событий А и В и Р(В)>0 следует Р(Л|й) = Р(Л>. Ва теоремы математической теории вероятностей, говорящие о независимых событиях, применимы к любым событиям, удовлетворяющим условию (4), или его обобщениям на случай взаимной независимости многих событий. Эти теоремы имели бы, однако, мало интереса, если Оы это определение не находилось в связи со свойствами реально независимых (в причинном смысле) явлений. Известно, например, что вероятность новорожденному оказаться мальчиком имеет довольно устойчивое значение Р(Л) = 22/43. Если В обозначает условие, что рождение происходит в день соединения Юпитера <: Марсом, то в предположении, что расположение планет не определяет индивидуальных судеб людей, условная вероятность Р(Л1Ь') имеет то же самое значение: Р(Л|/?) = 22/43, то есть фактический подсчет частоты рождения мальчиков при таких специальных астрологических условиях привел бы именно к частоте 22/43. Хотя такой подсчет в достаточно обширных размерах, возможно, никем не произзодился, нет оснований сомневаться в его результате. Мь привели этот несколько устарелый по содержанию пример для того, чтобы показать, что развитие человеческого познания состоит не только в установлении истинных связей между явлениями, но и в опровержении связей воображаемых, то есть установлении в надлежащих случаях тезиса о независимости каких-либо двух кругов явлений. Разобтачение бессмысленности попыток астрологов связать между собою два круга явлений, друг с другом не связанных, является одним из классических тому примеров. Естественно, что такого рода независимость не следует абсолютизировать Например, в силу закона всемирного тяготения несомненно, что перемощение спутников Юпитера оказывает некоторое влияние, скажем, на полет артиллерийского снаряда. Но очевидно, что на практике с этиуи влияниями мы можем не считаться. С философской стороны, быть чожет, было бы правильнее вместо независимости говорить о несущественности в данной конкретной обстановке тех или иных зависимостей. Но как бы то ни было, независимость событий в объясненном сейчас конкретном и относительном понимании этого термина ни в какой мере не противоречит принципу всеобщей связи всех явлений, она лишь его необходимое дополнение. Подсчеты вероятностей по формулам, выводимым из допущений о независимости тех или иных событий, имеют реальный интерес в том случае, когда события, бывшие сначала независимыми, ходом самих явлений приводятся затем в связь. Например, можно рассчитывать вероятности столкновения частиц космического излучения с частицами пронизываемой ими среды, исходя из допущения, что движение частиц до появления вблизи них быстро двигающейся частицы космического излучения происходит независимо от перемещения этой частицы. Можно рассчитывать вероятность попадания вражеской пули в лопасть вращающегося пропеллера, исходя из допущения, что его положение относительно оси не зависит от траектории пули (конечно, это допущение было бы ошибочно по отношению к собственной пуле, выпускаемой при стрельбе через пропеллер согласованно с его вращением) и т. п.; число таких примеров может быть неограниченно продолжено. Можно даже сказать, что всюду, где достаточно ясно проявляются вероятностные закономерности, мы имеем дело с влиянием большого числа, если не совсем независимых между собой, то в том или ином смысле слабо связанных друг с другом факторов. Это совсем не означает, что следует всюду некритически вводить допущения о тех или иных независимостях. Наоборот, это заставляет, во-первых, особенно тщательно разрабатывать критерии для проверки гипотез о независимости, а во-вторых, особенно тщательно исследовать пограничные случаи, когда зависимости между факторами уже необходимо учитывать, но эти зависимости таковы, что вероятностные закономерности в измененном и осложненном виде еще могут проявиться. Выше отмечалось, что уже классическая русская школа теории вероятностей широко развернула исследования во втором из этих направлений. Заканчивая рассмотрение вопроса о независимости, отметим, что как определение независимости двух событий формулой (4), так и формальное определение независимости нескольких случайных величин значительно шире понятия реальной независимости в смысле принадлежности к причинно не связанным кругам явлений. Предположим, например, что точка £ падает на отрезок [0, II так, что при 0^а<Ь^\ вероятность ее попадания на отрезок [а, Ь\ равна длине этого отрезка b - а. Легко доказать, что тогда в разложении а, а, а3 £« — + — + —— + ... * 10 100 1000 абсциссы точки £ в десятичную дробь знаки а* будут взаимно независимы, хотя они и связаны по своему происхождению*. (Из этого обстоятельства вытекает много теоретически, а частью и практически интересных следствий.) Такая гибкость формального определения независимости не должна рассматриваться как его недостаток. Наоборот, она лишь расширяет область применимости теорем, установленных при тех или иных допущениях о независимости. Эти теоремы применимы одинаково и в случаях, где независимость постулируется в силу реальных соображений, и в случаях, где независимость доказывается расчетом, исходя из ранее принятых допущений о распределениях вероятностей исследуемых событий и случайных величин. Вообще исследование формальной структуры математического аппарата теории вероятностей привело к интересным результатам. Оказалось, что этот аппарат занимает вполне определенное и очень простое место в намечающейся постепенно классификации основных объектов изучения современной математики. Мы уже говорили о понятии совмещения АВ двух событий и о понятии соединения AUB событий Л и В. Напомним, что события называются несовместимыми, если их совмещение невозможно, то есть если АВ = Ы, где N - знак невозможного события. Основной аксиомой элементарной теории вероятностей является требование (см. § 2), чтобы при условии AB = N соблюдалось равенство Р(ЛиА)^Р(Л) + Р(В). Свойства основных понятий теории вероятностей - случайных событий и их вероятностей - вполне аналогичны, например, свойствам плоских фигур и их площадей. Достаточно понимать под АВ пересечение (общую часть) двух фигур, под AUB ~ их соединение, под Л/ - условно вводимую «пустую» фигуру, а под Р(А) - площадь фигуры Л и аналогия в намеченных пределах будет полной. Такими же свойствами обладают объемы трехмерных фигур. * То же имеет место при любом п для знаков а* разложения числа \ и дробь 877
Наиболее общей теорией образований подобного типа, охватывающей как частные случаи теории объемов и площадей, является сейчас общая теория меры. Следует только отметить, что в теории вероятностей имеются по сравнению с общей теорией меры или специально с теорией площадей и объемов некоторые специфические черты: вероятность никогда не бывает больше единицы. Эту максимальную вероятность имеет необходимое событие U P(t/)=1. не может иметь реального значения. Формулировка принципа устойчивости частот при обращении к такому предельному переходу требует определения допустимых способов отыскания бесконечных последовательностей испытаний, которое тоже может быть лишь математической фиксацией. Все это нагромождение понятий могло бы еще подлежать серьезному рассмотрению, если бы в результате получилось построение теории столь своеобразной, что иными путями до ее строгого обоснования нельзя было бы дойти. Но, как указано выше, обоснование математической теории вероятностей при современном состоянии теории меры производится просто добавлением условия Р((/)-1. Вообще, при реальном анализе понятия вероятности вовсе не обязательно стремиться к его формальному определению. По-видимому, с чисто формальной стороны о вероятности нельзя сказать ничего больше следующего: вероятность Р(Л|5) есть число, вокруг которого, при условиях S и при предусмотренных этими условиями способах формирования серий, имеют тенденцию группироваться частоты, причем при возрастании численности этих серий в разумных пределах, не нарушающих однородности условий, эта тенденция проявляется со все большей отчетливостью и точностью, достигая достаточных в данной конкретной обстановке надежности и точности при достижимых численностях серий. Действительно, важной задачей является не формальное уточнение этого определения, а возможно более широкое выяснение условий, при которых такого типа вероятностная случайность должна проявляться. Надо ясно понимать то, что в действительности гипотеза о вероятностном характере какого-либо явления лишь очень редко обосновывается непосредственной статистической проверкой. Только при первом проникновения вероятностных методов в какую-либо новую область дело часто начиналось с того, что чисто эмпирически отмечалось постоянство частот. В силу сказанного в § 3, для того чтобы статистически обнаружить постоянство частот с точностью до е, необходимо пользоваться * Тем ие менее по существу решаемых задач теория вероятностей остается самостоятельной математической дисциплиной; основные для теории вероятностей результаты (подобные изложенным в § 3) кажутся искусственными и ненужными с точки зрения чистой теории меры. 878 сериями примерно по п = 1/е2 испытаний. Например, для того чтобы установить, что в данном конкретном вопросе имеет смысл считать вероятность определенной с точностью до 0,0001, необходимо произвести ряд серий испытаний примерно по 100 000 000 испытаний в каждой. Гораздо чаще гипотеза вероятностной случайности вводится на основании соображений симметрии или на основании соображений о практической независимости отдельных, приходящих в соприкосновение рядов явлений и т. д. Затем эта гипотеза проверяется косвенным путем. Например, благодаря тому, что число молекул в конечных объемах газа выражается числами порядка 1020 и более, число V/Г, соответствующее вероятностным выводам кинетической теории газов, бывает очень велико и, действительно, многие из этих выводов оправдываются с большой точностью. Например, давление на противоположные стороны подвешенной в спокойном воздухе пластинки даже микроскопич. для нашего глаза размеров оказывается строго одинаковым, хотя уже превышение давления на одну из сторон над давлением на другую в тысячные доли процента при надлежащей постановке опыта могло бы быть замечено. § 5. Детерминированные и случайные процессы Принцип причинной обусловленности всех явлений находит наибо лее простое математическое выражение в методе изучения реальных процессов при помощи дифференциальных уравнений. Пусть состояние изучаемой системы в момент времени t определяется при помощи п параметров Xi, Х2, ...,Хп. Скорости изменения этих параметров, как известно, выражаются их производными по времени Если допустить, что эти скорости являются функциями от значений параметров, то мы получим систему дифференциальных уравнений Х2 =/Н*Ь Х2 Х„), Ббльшая часть законов природы, открытых в эпоху зарождения математич. естествознания, начиная с галилеевского закона падения тел, выражается именно таким образом. Галилей не мог облечь свое открытие в указанную стандартную форму из-за того, что в его время соответствующие математические понятия еще не были разработаны. Это было сделано Ньютоном. Обычное в механике и многих других областях физики обращение к дифференциальным уравнениям второго порядка с принципиальной стороны не вносит ничего нового, так как, обозначая скорости xk новыми знаками мы получаем для вторых производных величин выражение а» . и уравнения второго порядка для п величин xlt x2, ..., хп сводятся к уравнениям первого порядка для 2я величин х\, ..., х„, vu v2, ..., v„ В виде примера рассмотрим задачу падения тяжелого тела в земной атмосфере. Предполагая, что в рассмотрение входят лишь небольшие высоты над земной поверхностью, будем считать сопротивление среды зависящим только от скорости, а не от высоты. Состояние изучаемой системы характеризуется двумя параметрами: расстоянием тела от земной поверхности г и его скоростью а. Изменение этих двух величин во времени определяется двумя дифференциальными уравнениями ПГ-W (з,) где д - ускорение силы тяжести, f(v) - некоторый «закон сопротивления» для рассматриваемого тела. Если скорости невелики и тело достаточно массивно, например в случае падения камня средних размеров с высоты в несколько метров, то сопротивлением воздуха можно пренебречь, и уравнения (31) превращаются в уравнения С = д. J Если предположить, что в начальный момент времени tQ величины г и v имеют значения z0 и v0, то легко решить уравнения (32) и получить формулу Аналогия не является поверхностной. Оказалось, что вся математич. теория вероятностей с формальной стороны может быть построена как теория меры, специализированная допущением, что мера «всего пространства» U равна единице*. Такой подход к делу не только внес полную ясность в формальное строение математической теории вероятностей, но и способствовал вполне конкретному прогрессу как самой теории вероятностей, так и смежных с ней по формальному строению математических теорий. В теории вероятностей с успехом были использованы тонкие методы, разработанные в метрической теории функций действительного переменного. Одновременно вероятностные методы оказались применимыми в вопросах смежных областей математики не «по аналогии», а путем формально строгого их перенесения в новые области. Всюду, где оказываются выполненными аксиомы теории вероятностей, применимы и следствия из этих аксиом, хотя бы данная область не имела ничего общего с реальной случайностью. Наличие аксиоматизированной теории вероятностей избавляет нас от соблазна «определять» вероятность способами, претендующими на соединение их непосредственной естествеино-научной убедительности с приспособленностью к построению на их основе формально строгой математической теории. Такие определения приблизительно соответствовали бы в геометрии «определению» точки как того, что получится, если бесконечное число раз обрезать со всех сторон физическое тело, уменьшая каждый раз, скажем, вдвое его диаметр. К такого рода определениям относится определение вероятности как предела частот при неограниченном увеличении числа испытаний. Допущение о вероятностном характере испытаний, то есть о тенденции частот группироваться вокруг постоянного значения, само по себе бывает верно (как и допущение о «случайности» какого-либо явления) лишь при сохранении некоторых условий, которые не могут сохраняться неограниченно долго и с неограниченной точностью. Поэтому точный переход к пределу
описывающую весь процесс падения. Например, в предположении £0 = (), vQ = 0 получаем формулу открытую Галилеем. В общем случае интегрирование уравнений (31) несколько сложнее, но принципиальный результат (при весьма общих ограничениях, наложенных на функции f(v)) остается тем же: но значениям г0 и v0 в начальный момент времени t0 однозначно вычисляются значения z н v для всех дальнейших моментов времени t вплоть до падения тела на поверхность земли. Можно мысленно снять и это последнее ограничение, предполагая, что падение продолжается и при отрицательных значениях г. Для схематизированной таким образом задачи можно установить следующее: если функция f(v) при возрастании v монотонно возрастает и стремится к бесконечности при и-*°°, то при неограниченном продолжении падения, то есть при неограниченном возрастании переменного t, скорость v стремится к постоянному предельному значению с, которое является корнем уравнения 9-Лс). С наглядной сторопы этот результат математического анализа поставленной задачи понятен: скорость падения возрастает до тех нор, пока ускорение силы тяжести не уравновесится сопротивлением воздуха. Г1ри прыжке с открытым парашютом стационарная скорость v около пяти метров в секунду устанавливается* довольно скоро. При затяжном прыжке с нераскрытым парашютом сопротивление воздуха меньше, и в соответствии с этим стационарная скорость оказывается больше и устанавливается лишь после того, как парашютист пролетит оченэ большое расстояние. П ж падении легких тел, подобных брошенному в воздух перу или пушинке, начальный период заметным образом ускоренного движения очен? мал и иногда совсем незаметен. Стационарная скорость падения устанавливается очень быстро, и с известным приближением можно принять, что все время v = c. В этом случае остается одно дифференциальное уравнение г = -с, которое интегрируется очень просто: z = 2Q-c(t-t0). Так оудет падать пушинка в совершенно спокойном воздухе. В совершенно общем виде подвергнутая нами выше рассмотрению детерминистическая концепция трактуется в современной теории динамических систем, которой посвящен ряд важных работ советских математиков - Н. Н. Боголюбова, В. В. Степанова и многих других.' Эта общая теория охватывает как частные случаи и такие математические схемы реальных явлений, в которых состояние системы определяется уже не конечным числом параметров одной или нескольких функций, как это типично, например, для механики непрерывных сред. В таких случаях элементарные закономерности изменения состояния за «бесконечно малый» промежуток времени задаются уже не обыкновенными дифференциальными уравнениями, а уравнениями в частных производных или иными средствами. Но общим во всех детерминированных математических схемах реальных процессов является то, что, во-первых, состояние изучаемой системы считается исчерпывающим обраюм определенным посредством задания некоторого математич. объесга ш (системы п действительных чисел, одной или нескольких функции и т.п.); во-вторых, последующие значения для моментов времени t>to однозначно определяются по значению too, соответствующему начальному моменту времени to: to = F(/0. ©о. О. Как мы уже видели, в случае процессов, описываемых дифференциалы! 3|ми уравнениями, нахождение функции F требует интегрирования этих дифференциальных уравнений с начальными условиями (u = (Uo при t = tl}. Представители механистического материализма считали, что описанная (хема является ючным и прямым выражением детерминированности реальных явлений - физического принципа причинности. По идее Лап/аса, состояние мира в данный момент времени определяется бесконечным числом параметров, подчиненных бесконечному числу дифференциальных уравнений. Если бы некий «всеобъемлющий ум» мог записать все эти уравнения и их проинтегрировать, то, по Лапласу, он мог бы с полной точностью предвидеть всю эволюцию мира на протяжении бесконечного времени. Однако на гамом деле количественная математическая бесконечность край ie груба по сравнению с качественной неисчерпаемостью действительного мира. Ни введение бесконечного числа параметров, ни описание состояния непрерывных сред при помощи функций от точки пространства ие являются адекватным отображением бесконечной сложности реальных явлений. Исследование реальных явлений не всегда идет в направлении увеличения числа вводимых в задачу параметров; вообще далеко не • Имеется в ниду, что v становится практически достаточно близким к с. всегда целесообразно усложнять ту характеристику со, которая определяет отдельное «состояние системы» в математической схеме, служащей для расчета данного явления. Искусство исследователя скорее состоит в том, чтобы найти очень простое фазовое пространство* Q (то есть множество значений со, или, иначе говоря, множество различных возможных состояний системы), которое позволяло бы тем не менее, заменяя реальный процесс процессом детерминированного перемещения точки со в этом пространстве, ухватить все существенные стороны реального процесса. Но, выделив из реального процесса его существенные черты, мы получаем некоторый остаток, который приходится считать случайным. Неучтенные случайные факторы всегда оказывают некоторое влияние на течение процесса. Существует очень мало явлений, подвергающихся математическому изучению, для которых при сопоставлении теории с наблюдениями нельзя было бы заметить влияния неучтенных случайных факторов. Таково или почти таково положение с теорией движения планет под действием силы тяготения: расстояния между планетами так велики по сравнению с их размерами, что идеализированное представление их материальными точками действует почти безотказно; пространство, в котором они двигаются, заполнено столь разреженной материей, что ее сопротивление исчезающе мало; массы планет так велики, что световое давление при их движении почти не играет роли. Эти исключительные обстоятельства и приводят к тому, что математическое решение задачи о движении системы из п материальных точек, «состояние» которой описывается 6п параметрами**, а изменение состояния рассчитывается с учетом только силы тяготения, так поразительно хорошо совпадает с наблюдениями над движением планет. Несколько приближается к случаю движения планет случай полета артиллерийского снаряда в предположении, что сопротивление воздуха введено в уравнения движения. Это тоже одна из классических областей, в которых математический метод исследования сравнительно легко и быстро одержал большие победы. Но здесь роль возмущающих случайных факторов уже значительно больше и рассеивание снарядов, то есть их отклонения от теоретической траектории, соответствующей нормальным, назначенным для данного выстрела начальным условиям и среднему состоянию атмосферы во время стрельбы, достигают десятков, а на больших дистанциях и сотен метров. Отклонения эти частично вызываются случайными отклонениями начального направления и начальной скорости от нормы, частично случайными отклонениями от нормы массы и коэффициента сопротивления снаряда, частично же неравномерностью и порывами ветра и прочими случайными обстоятельствами, связанными с чрезвычайно сложным и подвижным режимом, господствующим в реальной земной атмосфере. Рассеивание снарядов подробно изучается методами теории вероятностей, и результаты этого исследования весьма существенны для практики стрельбы. Но что означает, собственно говоря, исследование случайных явлений? Казалось бы, когда случайный «остаток» при данной схематизации явления оказался настолько велик, что им нельзя пренебречь, то единственная возможность состоит в том, чтобы осложнить описание явления введением новых параметров и в усложненной схеме исследовать явление более подробно по той же математической схеме детерминированных явлений. Такой путь во многих случаях практически неосуществим. Например, при исследовании падения материального тела в атмосфере с учетом неравномерной, порывистой (или, как обычно говорят, турбулентной) структуры ветрового нотока вместо двух параметров г и v пришлось бы ввести совершенно необозримый математический аппарат полного описания этой структуры. Но этот сложный путь на самом деле необходим только в тех случаях, когда нам во что бы то ни стало нужно проследить влияние остаточных «случайных» факторов на течение нашего процесса во всех деталях и отдельно для каждого индивидуального случая. К счастью, в действительности очень часто наши реальные потребности заключаются совсем в другом: требуется лишь оценить суммарный эффект действия случайных факторов за большой промежуток времени или в большом числе повторений изучаемого процесса. В качестве примера рассмотрим перенос песка водным потоком в реке или в том или ином искусственном гидротехническом сооружении. Обычно этот перенос происходит таким образом, что большинство песчинок спокойно лежит на дне и лишь изредка особенно сильные завихрения вблизи дна выхватывают отдельные песчинки и переносят их сразу на довольно значительные расстояния вплоть до внезапной остановки в каком-либо новом месте. Чисто теоретически движение каждой такой песчинки могло бы быть рассчитано индивидуально по законам гидромеханики. Но для этого нам было бы необходимо знать начальное состояние дна и потока во всех деталях и рассчитывать его шаг за шагом, отмечая те моменты времени, когда давление на ка- * В приведенном выше примере с падением тел фазовое пространство £2 есть система пар чисел (г, v), то есть плоскость. *• Тремя координатами и тремя составляющими скорости каждой точки. 879
кую-либо покоящуюся песчинку окажется достаточным, чтобы привести ее в движение, и прослеживая перемещение сдвинутых с места песчинок вплоть до их остановки. Абсурдность постановки такой задачи для реального научного исследования очевидна. И несмотря на это, средние или, как принято говорить, статистические закономерности передвижения донных насосов водными потоками вполне поддаются изучению. Примеры, в которых действие большого числа случайных факторов приводит к вполне отчетливым статистическим закономерностям, было бы легко умножить. Один из самых увлекательных по широте перспектив и в то же время самых известных такого рода примеров доставляет кинетическая теория газов, которая показывает, как из совместного действия множества случайных столкновений молекул возникают точные закономерности, которым подчинены давление газа, как целого, на стенки, диффузное распространение одного газа в другом и т. д. § 6. Случайные процессы марковского типа А. А. Маркову принадлежит заслуга построения вероятностной схемы, непосредственно обобщающей детерминистическую схему, записанную в § 5 при помощи уравнения со = Яг0> Шо> '). Правда, Марков рассмотрел только случай, когда фазовое пространство изучаемой системы состоит лишь из конечного числа состояний ft = (tt)], <02 ш„), и изучал изменение состояния системы лишь при разделении времени t на дискретные шаги. Но в этой крайне схематизированной модели он сумел уловить ряд фундаментальных закономерностей. Вместо функции F, однозначно определяющей состояние со в момент времени t>t0 по состоянию cuq в момент времени tQ, Марков вводит вероятности P(t0, *).; t, со;) получения состояния со; в момент времени t при условии, что в момент времени t0 имело место состояние со,. Эти вероятности Марков связывает для любых трех моментов времени соотношением, которое можно назвать основным уравнением марковских процессов PUo, со,; t2, ы;>«£"=1 ЯОо, to*; U, m)PUu m; t2, ю;). (33) Когда фазовое пространство является непрерывным многообразием, наиболее типичен случай существования плотностей вероятности p(t0> щ; t, со) перехода из состояния С0о в состояние со за промежуток времени (tQ, i). В этом случае вероятность перехода за Рис. 4. промежуток времени между моментами t0 и t из состояния cOq в какое-либо из состояний со, принадлежащих области G фазового пространства П, записывается в виде P(to, coo; tt G) = \c pUo, coo; t, co)</co, (34) 880 где Jco - элемент объема в фазовом пространстве*. Для плотностей вероятности pUo, cuq; t, со) основное уравнение (33) приобретает вид p(t0, со0; t2, co2)=J p(tQ, со0; *,, coj)p(*}, со,; t2, co2)</co. (35) Уравнение (35) решить довольно трудно, но при известных ограничениях из него можно вывести дифференциальные уравнения в частных производных, которые легче поддаются изучению. Некоторые из этих уравнений были получены из нестрогих физических соображений физиками Фоккером и Планком. В полном виде теория так называемых стохастических дифференциальных уравнений была построена советскими авторами (С. Н. Бернштейн, А. Н. Колмогоров, И. Г Петровский, А. Я. Хинчин и др.). Выписывать здесь эти уравнения мы не будем. Метод стохастических дифференциальных уравнений позволяет, например, легко решить задачу о движении в спокойной атмосфере очень малого тела, для которого средняя скорость его падения с значительно меньше скорости его «броуновского движения», вызываемого тем, что из-за малости его размеров толчки молекул воздуха на противоположные его стороны не вполне уравновешиваются. Пусть с - средняя скорость падения, D - так наз. коэффициент диффузии. Если предположить, что на земной поверхности (z = 0) частица не задерживается, а «отражается», то есть под действием броуновских сил вновь отправляется в путешествие по атмосфере, и допустить, что в момент времени tQ частица находится на высоте zQ, то плотность вероятности p(t0, zQ; t, z) ее нахождения в момент времени t на высоте z выразится формулой pUQ,zQ;t,z) = 2jxD(t-tQ) Dyf5 e 4D(l-*0> +e 4D(l-t0) с(г-гр) c2U-t,) 2D 4D 2jDit-t0) е~г dz. На рис. 4 изображено, как могут меняться кривые p(tQ, zQ; t, z) в последовательные моменты времени t. Мы видим, что в среднем высота частицы убывает, а положение ее становится все более неопределенным (все более «случайным»). Самое интересное заключается в том, что при любых tQ и zQ и при t ->» Р%, ;t,z)->±e D (36) то есть существует предельное распределение для высот частицы, и математическое ожидание высоты расположения частицы с возрастанием t стремится к положительному пределу -Г n Jo (37) Таким образом, несмотря на то, что наша частица, находясь над поверхностью земли, все время имеет тенденцию падать под действием Рис. 5. * Собственно говоря, равенство (34) служит определением плотности вероятности. Величина pdta равна (с точностью до бесконечно малых высшего порядка) вероятности перейти за время от to до t из состояния (Оо в элемент объема tla.
силы тяжести, она при неограниченном продолжении этого процесса (блуждания в атмосфере) будет в среднем находиться на определенной положительной высоте. Если бы мы взяли начальное zQ меньшим, чем г*, то оказалось бы, что по истечении достаточно большого промежутка времени среднее положение частицы будет выше начального, как это изображено на рис. 5, где z0 = 0. Для отдельной частицы средние значения z9, о которых идет речь, янляются лишь математическими ожиданиями, но в силу закона больших чисел для большого числа частиц они будут осуществляться реально: плотность расположения такого рода частиц по высоте будет следовать указанным закономерностям и, в частности, по истечении достаточно большого промежутка времени стабилизируется в соответствии с формулой (36). Все сказанное непосредственно применимо лишь к примешанным к воздуху в малой концентрации газам, дымам и т.п., так как величины с и D предполагались определенными заранее заданным состоянием атмосферы. Однако с нек-рыми усложнениями теория применима к взаимной диффузии газов, составляющих атмосферу, и к возникающим на основе этой диффузии распределениям их плотностей по высоте. С увеличением размеров частиц отношение — возрастает, и благодаря этому процесс нх перемещения вместо диффузионного характера В энциклопедиях прежних лет вопросам теории вероятностей и математической статистики уделялось немного места. Наиболее ранней (по-видимому первой) из этой тематики была статья 4Стохастика. Искусство предположений» «Лексикона» (Mathematisches Lexicon) X. Вольфа (Ch. Wolff, 1716); перевод этой статьи на русский язык опубликован в «Математическом энциклопедическом словаре» (М., 1988, стр. 776). В Энциклопедии (Encyclopedie, P., 1751-80) Д. Дидро (D. Diderot) и в ее систематизированном издании (Encyclopedie methodique, P., 1782-1832) помещены статьи по теории вероятностей, написанные Ж. Д'Аламбером О- D'Alembert) и М. Кондерсе (М. Condercet); главная по объему и содержанию статья последнего - Probability. В отечественных энциклопедиях прошлого (насколько это известно редакции) вопросы теории вероятностей и математической статистики обделены вниманием, что, видимо, связано со становлением этих наук. Лишь в 1-м издании «Большой Советской энциклопедии», особенно после прихода в 1936 в ее редакцию А. Н. Колмогорова, заметно некоторое оживление. Во 2-м издании «Большой Советской энциклопедии» теоретико-вероятностная тематика представлена достаточно солидно. В частности, 18 статей написаны А. Н. Колмогоровым, важнейшие из них воспроизводятся ниже. БОЛЬШИХ ЧИСЕЛ ЗАКОН - общий принцип, в силу к-рого совокупное действие большого числа случайных факторов приводит, при нек-рых весьма общих условиях к результату, почти не зависящему от случая. Точная формулировка и условия применимости Б. ч. з. даются в теории вероятностей. Б. ч. э. является одним из выражений диалектической связи между случайностью и необходимостью. Первая точно доказанная теорема, представляющая собой частный случай Б.ч.з., принадлежит Я. Бернуллн (опубликована после его смерти в 1713). Теорема Бернулли была обобщена Пуассоном, в сочинении к-рого «Исследование о вероятности суждений» (1837) впервые появился термин «закон больших чисел». Значительно более общее понимание этого термина основано на работе П. Л. Чебышева «О средних величинах» (1867). В этом современном понимании Б.ч.з. утверждает, что при нек-рых, подлежащих точному указанию, условиях среднее арифметическое _ X. +ДГ2 +...+ДГ X = — - п достаточно большого числа я случайных величин хк с вероятностью, сколь угодно близкой к единице, сколь угодно мало отличается от своего математического ожидания а-ЬА(х) (см. Ожидание математическое). Точная формулировка теоремы, доказанной Чебышевым, такова: если случайные величины последовательности xit x2, ...» х„, ... попарно независимы и имеют ограниченные дисперсии (см.), т. е. приобретает характер закономерного падения по законам, рассмотренным в § 5. Теория позволяет проследить все переходы между чисто диффузным движением н таким закономерным падением. Задача движения взвешенных в атмосфере частиц под действием турбулентного перемешивания более сложна, но в принципе тоже может быть подчинена аналогичным вероятностным методам. ЛИТЕРАТУРА Популярная литература ГнеденкоБ. В., Хинчнн А.Я., Элементарное введение в теорию вероятностей, 3-е изд., М. - Л., 1952. Современные университетские курсы Бернштейн С. Н., Теория вероятностен, 4-е изд., М. - Л., 1946. Гнеденко Б. В., Курс теории вероятностей, 2-е изд., М.-Л., 1954. Специальные монографии Чандрасекар С, Перенос лучистой энергии, пер. с англ., М., 1953. Эйнштейн А., Смолуховскнн М., Брауновское движение, пер. с нем., Сб. статей, М. - Л., 1936. то при любом положительном е>0 вероятность неравенства \х-а\ <е стремится к единице при п -► ». Более точно характер отклонений среднего арифметического х или самой суммы X = х J + х2 + ... + х„ - пх от соответствующих математических ожиданий а и А = ЩХ) = па, указывается предельными теоремами теории вероятностей. Наиболее типичен случай, когда отклонения х-а имеют порядок -=, а отклоне- ния л-Л, в соответствии с этим, - порядок \я, в то время как сами математнч. ожидания а н А имеют порядок 1 и я. В упрощенных популярных изложениях вопроса эти соотношения иногда называют «законом квадратного корня из л»: при накоплении независимых случайных слагаемых их сумма растет пропорционально л, а случайные отклонения от этого закономерного среднего роста возрастают лишь пропорционально yfn. Хотя для более полного понимания вопроса необходимо обращаться к более точным формулировкам, все же это грубое представление о характере действия Б.ч.з. может помочь разобраться в том, насколько велико должно быть число слагаемых, чтобы Б. ч. з. действовал с той нлн иной степенью точности. В частности, когда каждое слагаемое хк принимает только два значения 1 н 0, причем xk—\ с вероятностьюр* их» = 0с вероятностью 1 - рк, легко подсчитать, что п а х превращается в частоту —, где т обозначает число тех rk с номерами k^n, к-рые равны 1. Б. ч.з. означает в этом случае, что прн больших л частота — близка к среднему арифметическому из вероятностей. Это и есть Б.ч.з. Пуассона. Точная формулировка теоремы Пуассона такова: если случайные события Аи А2 А„, ... взаимно независимы, то для частот —,- где т обозначает число тех из событий Ак с номерами п k^n, к-рые произойдут в действительности, - при любом е>0 вероятность неравенства а <е ! п I стремится к единице прн л -► °°. Строгое доказательство теоремы Пуассона было дано П. Л. Чебышевым в статье «Элементарное доказательство одного общего предложения теории вероятностей» (1843). Теорема Бернуллн является частным случаем теоремы Пуассона, к-рый получается, если положить все рк равными одному и тому же числу р (0<р< 1). В этом случае а=р, Б.ч.з. утверждает, что при больших л, с вероятностью, как угодно близкой к единице, частота ~ будет как угодно близка к вероятности р. Наглядное представление о смысле и значении Б. ч. з. дает следующий пример. Пусть в замкнутом сосуде заключены N молекул газа. В соответствии с кинетической теорией каждая молекула беспорядочно ЭНЦИКЛОПЕДИЧЕСКИЕ СТАТЬИ D(^)-M{*„-M(^)}2<C, 881
движется внутри сосуда, испытывая множество столкновений с другими молекулами и стенками сосуда. Ударяясь о какую-либо площадку а стенки в течение выбранного промежутка времени в t секунд, отдельная молекула сообщает этой площадке импульс Д. Импульс fk является типичной случайной величиной, так как состояние рассматриваемого газа определяет лишь математич. ожидание *«М(Д> этого импульса, фактическое же значение импульса данной молекулы за данный промежуток времени может быть самым различным (начиная от нуля - в случае, если за данный промежуток времени данная молекула не ударялась о площадку а). Сумма ■I.V» импульсов всех молекул, сообщаемых площадке О за данный промежуток времени, является также случайной величиной с математич. ожиданием, равным А = Na. Однако в силу Б. ч. з. (к-рый проявляется здесь с исключительной точностью благодаря тому, что число N очень велико) F в действительности оказывается почти независимым от случайных обстоятельств движения отдельных молекул, а именно - почти точно равным своему математич. ожиданию А. Этим, с точки зрения кинетич. теории, и объясняется тот факт, что давление газа на площадку а является практически строго постоянным, а не колеблется беспорядочно. Часто приходится применять Б. ч. з. и в такой обстановке, когда количество случайных слагаемых не столь велико, как в примере с газовыми молекулами; тогда отклонения суммы случайных величин от ее математич. ожидания могут быть значительными. В этом случае крайне важно уметь оценивать размеры этих отклонений. Пусть, напр., из 1000 партий каких-либо изделий по 100 штук в каждой, взято для испытания наудачу по 10 штук из каждой партии и среди испытанных 10 000 штук обнаружено 125 дефектных. Если обозначить nk число дефектных изделий в Л-й партии то общее число дефектных изделий равно Л_хм<юо„ . *-Х* = 1 "*» математич. ожидание числа дефектных изделий среди тех десяти, к-рые взяты для испытания из Л-й партии, равно с 10 5*"7ооп*' а математич. ожидание общего числа дефектных изделий в 1000 пробах по 10 штук - В силу Б.ч.з. естественно считать, что */юп~\25, т.е. среди 100 000 изделий во всех партиях имеется приблизительно 1250 дефектных. Более точное исследование с помощью теории вероятностей приводит к такому результату, если выборка изделий из каждой партии была действительно случайной, то можно с достаточной уверенностью утверждать, что фактически 1000<л<1500, но уже оценка 1100<п< 1400 не была бы достаточно надежной, а для оценки 1200<и<1300 совсем не имеется серьезных оснований. Получить более точную оценку для п можно, лишь испытав большее число изделий. Условие независимости слагаемых, в большинстве применений Б. ч. з., если и выполняется, то лишь с тем или иным приближением. Так, уже в первом примере движения отдельных молекул газа нельзя, строго говоря, считать независимыми. Поэтому имеет большое значение достаточно полное исследование условий применимости Б. ч. з. к случаю зависимых слагаемых. Основные математич. работы в этом направлении принадлежат А. А. Маркову, С. Н. Бернштейну и А. Я. Хинчину. Качественно результаты их исследований сводятся к тому, что Б. ч. з. применим, если значительная зависимость имеется лишь между смежными или близкими (по их номерам) слагаемыми, а между слагаемыми с далекими номерами зависимость достаточно слаба. Таково, напр., положение в рядах метеорология, наблюдений над температурой или давлением воздуха. Поэтому многолетние средние значения температур и давлений в данном пункте и в данное время года оказываются близкими к своим математич. ожиданиям, к-рые являются объективными характеристиками климата данной местности. Математическая сторона вопросов, связанных с Б.ч.з., более подробно освещена в ст. Предельные теоремы теории вероятностей и Теория вероятностей (см.). В применениях Б. ч. з. обычно достаточно бывает пользоваться сравнительно простыми математич. формулировками условий его применимости, имеющимися во многих учебниках по теории вероятностей, но необходимо тщательно проверять их соответствие реальной обстановке. Лит.: ЧебышевП.Л., О средних величинах, Полное собр. соч., т. 2, М.-Л., 1947; Бернштейн С. Н., О работах П. Л. Чебышева по теории веро- 882 ятностей, в кн.: Научное наследие П. Л. Чебышева. [Сб. статей], в. 1, М.-Л., 1945; его же, Теория вероятностей, 4-е изд., М.-Л., 1946; Колмогоров А. Н., Роль русской науки в развитии теории вероятностей, «Ученые записки Московского гос. ун-та», 1947, в. 91, с. 53-64; ГнеденкоБ. В. и Колмогоров А. Н., Теория вероятностей, в кн.: Математика в СССР за тридцать лет 1917-1947. Сб. статей под ред. А.Г. Куроша (и др.], М,-Л., 1948; ГнеденкоБ. В. и ХинчинА. Я., Элементарное введение в теорию вероятностей, М.-Л., 2-е изд., 1950. А.Н. КОЛМОГОРОВ (БСЭ-2, 1950, том 5). ИНФОРМАЦИЯ - основное понятие кибернетики (см.). Можно считать общепонятным представление о том, что наше мышление способно перерабатывать И., содержащуюся в тех или иных «данных», в выводы относительно интересующих нас величин или явлений (напр., И., содержащуюся в уравнении х =1, в вывод о том, что х = ±1, или результаты наблюдений сети метеорологич. станций за данный день в прогноз погоды на следующий день). В кибернетике такого рода представления обобщаются и принимаются, что при любом процессе управления или регулирования, осуществляемом живым организмом (сознательно или бессознательно) или автоматически действующей машиной, происходит переработка содержащейся во «входных сигналах» И. в «выходные сигналы». Теория И. (см. статью Информации теория, 51 т.), возникшая из нужд техники связи, рассматривает электрич. импульсы, тире и точки на телеграфной ленте и т. и. объекты как носителей И. Во всех этих случаях можно говорить о количестве И., ее большей или меньшей полноте надежности и т. п. Вопрос о точном определении самого понятия и смысла различных высказываний об И. возникал и благополучно решался в применении к различным частным случаям с давних пор. Но во всей широте такого рода логич. проблемы возникают лишь в кибернетике и теории И. И. можно рассматривать с точки зрения ее 1) количества, 2) содержания, 3) способа задания. Пример 1. При задании пятизначного числа в указании его тысяч и сотен содержится столько же И., как и в указании его десятков и единиц, и вдвое больше, чем при указании одних единиц. И., содержащаяся в указании одних еднииц, содержится в И., доставляемой указанием единиц и десятков, и составляет по количеству ее половину. Пример 2. И. относительно неизвестных х и у, доставляемая соотношением х2-У2 = 0, (1) содержится в И., доставляемой соотношением х-у = 0 (2) [так как из (2) вытекает (1)1, но не совпадает с ней [так как уравнения (1) и (2) не равносильны]. И., содержащаяся в соотношениях (2) и х + у = 0, (3) совпадает с информацией, даваемой равенствами лг = 0, # = 0 (4) [так как система уравнений (2-3) равносильна системе (4)|. И., содержащиеся в системах (2-3) и (4), отличаются только по форме задания. Более сложные вопросы относительно условий совпадения по содержанию И., доставляемой различными данными, возникли в математич. статистике и были в основном решены англ. статистиком Р. Фишером (1921). Статистика имеет дело с большим числом результатов наблюдений и обычно заменяет их полное перечисление указанием нек-рых «свободных характеристик». Иногда при такой замене происходит «потеря И.», но при нек-рых условиях сводные характеристики содержат всю И., содержащуюся в полных данных. В этом случае сводные характеристики образуют систему достаточных статистик (см. 51 т.) задачи. Первые отчетливые предложения об общих способах измерения количества И. принадлежат, по-видимому, Р. Фишеру (в связи с вопросами математической статистики) и Р. Хартли (в связи с вопросами хранения И. в запоминающих устройствах и передачей И. но каналам связи). Свое окончательное выражение эти предложения нашли в теории И., созданной амер. ученым К. Шенноном (1948). Пусть заранее известно, что явление а может произойти в одном из вариантов *1> 02» ••• «и» сообщение же Ь о нем может иметь один из видов Ь\, Ь2, ..., Ь„. В теории И. предполагается, что а и b имеют совместное распределение вероятностей Р(о = й„ Ь = Ь{)=р(а1г Ь{)\ оно определяет распределения а и Ь в отдельности: p(tfi) = J\p(tfi, bj). По Шеннону, количество И., содержащееся в Ь относительно а, равно Па, Ь) = У. . р(а., b.)\og2 Р(Д,Ь; (I)
(и теории И. логарифмы берутся по основанию 2). Если каждому bj соответствует одно единственное щ, для к-рого вероятность р(0р Ь-) положительна, то есть если д, однозначно определяется заданием Ь;, то, как легко вычислить: I(a, t) = Hia) = £ р(ъ) \og2p(ai). (2) Величина Н(а) есть энтропия распределения /?(tf,); она равна полному количеству И., необходимому, чтобы точно указать, какой вариант й, явления а осуществился. Во всех остальных случаях, когда задание Ь} еще не определяет однозначно й,, Ua, b)<H(a). Всегда Па, 6)5*0; равенство Па, Ь) = 0 имеет место в том и только в том случае, когда а и b независимы, т. е. pUi, Ь;)=р(а{)р(Ь;). Количество И. нри однозначном указании осуществившегося варианта ямления а 1(а, а)^И(а) достигает максимума Н(а) = \о&т в глучае р(а1)=р(а2) = ...=р(ат) = ±. Этот результат соответствует другому возможному представлению о количестве И., свободному от представления теории вероятностей. Е<:ли 2*",<1я<2*, тс приближенно Н(а) = \og2m~ni число же и есть число двоичных знаков (0 или 1), достаточное для записи по двоичной системе счисления любого целого числа в пределах 1 ?i^m, то есть номера любого из возможных значений я,. А. Н. КОЛМОГОРОВ (БСЭ-2, 1958, том 51). КОРРЕЛЯЦИЯ (мат.), связь между явлениями. Понятие К. более обще, чем понятие функциональной зависимости (см. Функция). Напр., известно, что у родителей большого роста чаще родятся дети большого роста, чем у родителей малого роста. Однако, зная рост отца и матери, нельзя еще в каждом отдельном случае вычислить рост ребенка. К. между двумя явлениями возникает: или если одно из них входит в число причин, определяющих другое, или если имеются общие причины, воздействующие на оба явления. Для того, чтобы суждение о К. между двумя явлениями имело определенный объективный смысл, необходимо (за исключением частного случая функциональной зависимости), чтобы рассматриваемые явления могли повторяться неограниченное число раз и можно было бы говорить о вероятностях (см.) могущих возникнуть при этом комбинаций. К. между двумя событиями. Рассмотрим два события Л и В. Будем обозначать через Л событие, противоположное^ (т.е. заключающееся в том, что событие А не происходит), и через В - событие, противоположное В. Если каждый раз, как происходит событие Л, происходит и В, и, наоборот, каждый раз, как происходит В> происходит и Л, то события А и В связаны между собой прямой функциональной зависимостью. Если же событие Л происходит тогда и только тогда, когда событие В не происходит, то Л и В связаны обратной функциональной зависимостью. За исключением этих двух крайних случаев, для оценки связи между событиями А а В неизбежно воспользоваться понятием вероятности. Пусть Рл(В) есть вероятность события В при условии, что событие Л произошло, а Рд(В) - вероятность события В, при условии, что событие Л не произошло. Если РЛ(В) = Р^(В), то событие В независимо от события Л. Разность рв = Рл(В)-Рд(В) называется коэффициентом регрессии события В относительно события Л. Рассмотрим такой пример: при лечении дифтерии применяется противодифтерийная сыворотка. Обозначим применение сыворотки через Л, выздоровление больного через В. Если бы при применении сыворотки все больные выздоравливали, а без ее применения - умирали, то мы имели бы прямую функциональную зависимость; если бы Рл(В) = Рд(В), то есть если бы количества случаев выздоровления были бы одинаковы как при применении сыворотки, так и без нее, то, очевидно, применение сыворотки было бы бесцельно, так как в соответствии с данным выше определением, событие В (выздоровление) было бы независимо от события Л (применения сыворотки). Если же, напр., РЛ(В) = 0,97, а Я^(В)-0,85, то коэффициент рд = 0,12 показывал бы наличие положительной связи между применением сыворотки и выздоровлением. Коэффициент регрессии рв равен +1 при положительной функциональной связи, нулю - при независимости В от А и -1 - при отрицательной функциональной связи; в остальных случаях он принимает значения между -1 и +1, не равные нулю. Во многих вопросах нет никаких оснований измерять связь между А н В непременно нри помощи коэффициента pg, а не при номощи аналогичного коэффициента регрессии рА = РВ(А) - РВ(А) события Л относительно В. В этом случае может быть удобен коэффициент К. между событиями Л и В: R = ± ^рдРв- Знак R должен совпадать со знаком обоих коэффициентов регрессии (они имеют всегда одинаковый знак). Коэффициент К. обращается в нуль тогда и только тогда, когда события Л и В независимы (если событие В независимо от Л, то, как легко доказывается, и событие Л независимо от В), и равняется ± 1 в случае функциональной зависимости и только в этом случае. К. между двумя величинами. Величина у зависит функционально от величины х, если каждому значению х соответствует вполне определенная величина y = f(x). Если такой зависимости нет, то в случае статистических (неограниченно повторяющихся с определенными вероятностями) явлений мы можем определить для каждого возможного значения х соответствующее математическое ожидание (см.) Ex(y) = f(x) величины у при условии заданного значения х (мы оставляем в стороне имеющие чисто теоретический интерес случаи, в к-рых математическое ожидание бесконечно или неопределенно). Уравнение у = fix) называется уравнением регрессии величины у относительно х, а линия у = fix) на нлоскости (х, у) - линией регрессии у относительно х. Обозначим ау = Е(у) математическое ожидание у (безусловное математическое ожидание). В случае, если величины хну независимы, уравнение регрессии имеет вид у = ау [т. к. тогда Ez(y) = E(y) = ay]. Заметим, что из того, что уравнение регрессии есть у - ау, еще не следует независимости х и у, напр. с изменением х математическое ожидание у может оставаться неизменным, но средняя колеблемость у, измеряемая хотя бы при помощи Ех(у -ау)2, может зависеть от х. Естественно желание определить, насколько хорошо уравнение регрессии передает изменение у, иначе говоря, в какой мере зависимость между хну близка к функциональной. На этот вопрос дает ответ корреляционное отношение у к х [введено Пирсоном (см.)]: Я, =+Jl- Е[у-Ех(у)]2 Ку-ауг Ру = 0 тогда и только тогда, когда уравнение регрессии имеет вид у - ау, т. е. математическое ожидание у не зависит от х; Ру = +1 в случае функциональной зависимости у от х. В остальных случаях Ру принимает промежуточное значение между 0 и +1. Практически приходится вычислять уравнение регрессии по ограниченному числу наблюдений, имеющих ограниченную точность. Данные опыта непосредственно выражаются корреляционной таблицей, в к-рой указывается, в каком числе наблюдений получилась данная комбинация значений величин хну (см. схематический пример на табл. 1). У 1 2 3 4 5 Т а б л. 1. X 1 1 1 - - - 2 - 1 2 - - 3 1 2 1 - - 4 - - 3 1 - 5 - - 1 4 2 6 - - 1 3 3 7 - 1 - 4 - 8 - 2 4 1 ~ 9 1 - 2 - - 10 1 2 - - - Если на каждое отдельное значение х приходится достаточно много отдельных наблюдений, то линия регрессии у-fix) может быть приближенно определена очень просто: для каждого значения x = xt определяется среднее значение у-х величины у в наблюдениях с данным значением Xi = x^i = f{xj) и представляет приближенно линию регрессии. Однако, если число наблюдений, соответствующих каждому значению x = xit недостаточно велико, то такой метод может привести к совершенно случайным результатам. Таблица 2 дает у,, соответствующие данным табл. 1. Уже простой здравый смысл подсказывает, что линия регрессии y = f(x) должна, начинаясь примерно с 1,5 при х = 1, подниматься примерно до 4, около х = 5 или б и вновь спускаться при дальнейшем возрастании х. Однако такие обстоятельства, как, напр., дополнительный максимум ^ при х - 2 с последующим уменьшением yt при х = 3, могут при данном числе наблюдений считаться чисто случайными. X, т 1 1,5 2 2,7 3 2,0 Т 4 3,2 абл. 5 4,1 2. 6 4,4 7 3,4 8 2,8 9 2,2 10 1,7 883
Нормальная К. между двумя величинами. В силу ряда оснований, к-рые с наибольшей полнотой были теоретически изучены акад. С. Н. Бернштейном, корреляционная зависимость между двумя величинами я: и у в очень многих случаях с известным приближением является нормальной, то есть вероятность того, что точка с координатами х и у попадает в какую-либо область д плоскости (х, у), приближенно изобразится интегралом ill (г-*,)2 iy-ay)2 2R(x-axKy-ay) ldxdy, где Д = 2iwxoy Vl - R2, ay = E(y), ay = WE (y - ay)2 - дисперсия величины у, ax = E(x), ax = +VE (x - ox)2 - математическое ожидание и дисперсия величины х и, наконец, R - коэффициент К. величин х и у: Е{(х-ахХу-ау)) R = . а а В случае нормальной К. уравнение регрессии y = f(x) имеет вид: у = ау + ру(х-ах), где то есть линия регрессии в случае нормальной К. есть прямая. Корреляционное отношение Пирсона Ру равно в случае нормальной К. коэфф. корреляции R. Употребление коэфф. К. в качестве меры зависимости между х и у в случае связей, сильно отличающихся от нормальной, приводит иногда к ошибочным выводам, так как коэффициент К. может равняться нулю даже в случае, когда у функционально зависит от х. Таблица 1 также представляет пример довольно сильной связи у с х, при к-рой, однако, коэффициент К. близок к нулю. Заметим еще, что в случае нормальной К. уравнение регрессии х относительно у есть х = ах + рх(у-ау), Р, = Я-А Коэффициенты ру и рх называются коэффициентами регрессии у относительно х и х относительно у. Знак pt и ру всегда одинаков (и совпадает с знаком R). Очевидно, R = +Vptpy. Фактическое вычисление коэффициента К. производится по формуле 1Ц-^,-у) /?• = Л>«-*)22>.-*)2' где х = - V xit у = - \ yit п - число наблюдений, а х, и yt - значения х и у при i-ом наблюдении. Эта формула дает непосредственно так наз. эмпирический коэффициент К. R* данного ряда наблюдений. При большом числе п отдельных наблюдений R* близок к истинному коэффициенту К. R. Таблица 3 дает пример корреляционной связи, хорошо согласующейся с гипотезой нормальной К. Эмпирический коэффициент К. R* здесь равен 0,6279. Число наблюдений вполне достаточно, чтобы считать, что R достаточно близко к R*. Табл. 3. Корреляционная связь между ростом и весом призывников Вес в кг До 45 45-49 49-53 53-57 57-61 61-65 65-69 69-73 73-77 Более 77 Рост в см Я о *3 32 63 40 13 7 - - - - - Я Я ~- 42 304 273 174 43 7 1 - - - 3 58- ^ 29 421 952 874 317 87 4 1 2 - $ i 3 ~" 9 233 1.050 1.730 1.175 381 61 13 2 - g 66- ^* 1 60 433 1.288 1.543 903 245 43 6 5 70- ~" 2 9 91 482 947 866 377 86 27 10 ОС 74- ^ - 3 13 60 219 360 231 91 31 9 ОС 78- ~" - - 2 12 29 61 80 48 14 11 182 Более - - - 1 - 7 8 9 13 3 Множественная К. Аналогичными способами изучается связь между многими событиями и величинами. Большое значение имеет во многих 884 приложениях (напр., предсказание урожаев, разливов рек) составление уравнений регрессии, связывающих неизвестную величину с рядэм известных. В случае множественной К. особенно опасно делать выводы из данных недостаточно большого числа наблюдений. Одной из основных проблем теории К. и является выяснение числа наблюдений, достаточных, при тех или иных обстоятельствах, для составления надежных уравнений регрессии. Лит.: Определения и основные понятия, см. - Берн- штейнС.Н., Теория вероятностей, 3 изд., М. - Л., 1934; Слуцкий Е. Е., Теория корреляции и элементы учения о кривых распределения, Киев, 1912; Чупров А. А., Основные проблемы теории корреляции. О статистическом исследовании связи между явлениями, [М.1, 1926; Tschuprow A. A., Grundbegriffe und Grundprobleme der Korrelatjonstheorie, Lpz., 1925. A. H. КОЛМОГОРОВ (БСЭ-1, 1937, том 3i). КОРРЕЛЯЦИЯ (в математической статистике) - статистическая или вероятностная зависимость, не имеющая, вообще говоря, строго функционального характера. В отличие от функциональней, корреляционная зависимость возникает тогда, когда один из признаков зависит не только от данного второго, но и от ряда других меняющихся условий или же оба зависят от условий, среди к-рых имеются общие для них обоих. Пример такого рода зависимости дает табл, 1 (см. на стр. 885). Из таблицы видно, что при увеличении высоты сосен в среднем растет и диаметр их стволов; однако сосны заданной высоты (напр., 23 м) имеют распределение (см.) диаметров с довольно бо/ь- шим рассеянием. Если в среднем 23-метровые сосны толще 22-метровых, то для отдельных сосен это соотношение может заметным образом нарушаться. Статистическая К. признаков в обширной совокупности объектов математически может быть охарактеризована различными способами. В случае К. двух количественных признаков наиболее употребителен коэффициент К.: 5Г_. Ц-^Ку, -у) где п - число объектов исследуемой совокупности, х{ и #, - значения соответственно первого и второго признака для объекта с номером i, 1 т™ - 1 V" - средние значения признаков, а а2=1уя {х ■х)2 = 1У" (у -у? - их дисперсии (см.). Статистическая К. в обследованной конечной совокупности наиболее интересна тогда, когда она указывает па существование закономерной связи между изучаемыми признаками. Дальнейшее изложение ведется в основном в терминах теории вероятностей. Корреляция между двумя событиями. Рассмотрим два события А и В. Будем обозначать через А событие, противоположное А (то есть заключающееся в том, что событие А не происходит), и через В - событие, противоположное В. Если каждый раз, как происходит событие В, происходит и Л, а когда происходит В, то имеет место Л, то события А и В связаны между собой прямой строгой зависимостью. Строгая зависимость противоположного характера будет наблюдаться в том случае, если событие А наступает тогда н только тогда, когда В не происходит, и наоборот. За исключением этих двух крайних случаев, для оценки связи между событиями А и В пользуются понятием вероятности. Пусть Р(В\А) есть вероятность события В щт условии, что событие А произошло, а Р(В\А) - вероятность события В при условии, что событие А не произошло. Если Р(В\А) = Р(В\а), "о событие В независимо от события А. Разность рв = Р(В\А)-Р(В\А) называют коэффициентом регрессии события В относительно события А. Рассмотрим такой пример: при лечении дифтерии применяется противодифтерийная сыворотка. Обозначим применение сыворотки через А, выздоровление больного через В. Если бы при применении сыворотки все больные выздоравливали, а без нее - умирали, то мы имели бы прямую строгую зависимость; если бы Р(В\А) = Р(В\А), то есть ее;и бы относительные количества случаев выздоровления были бы одинаковы как прн применении сыворотки, так и без нее, то, очевидно, применение сыворотки было бы бесцельно, так как в соответствии с даиным выше определением событие В (выздоровление) было бы независимо от события А (применения сыворотки). Если же, напр., Р(В|Л) = 0,97, а Р(В\А) = 0,85, то коэффициент рл = 0,12 показывгл бы наличие положительной связи между применением сыворотки и выздоровлением.
Табл.1. ~ Распределение диаметров и высот 624 стволов северной сосны Диаметр (в см) 14-17 18-21 22-25 26-29 30-33 34-37 38-41 42-45 46-49 50-53 54-57 58 и более Итого Высота (в л) 17 2 1 1 4 16 2 3 1 6 19 5 3 1 9 20 1 12 3 16 21 15 18 7 1 41 22 9 24 18 5 1 57 23 4 29 30 18 3 2 86 24 14 43 29 17 2 3 108 25 7 31 35 33 10 4 3 1 124 26 3 18 26 19 13 7 4 1 91 27 2 7 12 16 6 6 4 1 1 55 28 1 6 4 8 2 2 1 24 29 1 1 2 30 1 1 Итого 10 47 98 134 114 98 53 32 22 12 3 1 624 Коэффициент регрессии ptf равен +1 при прямой строгой зависимости, нулю при независимости В от Л и -1 при противоположной строгой зависимости; в остальных случаях он принимает значения между -1 и ■+1, не равные нулю. Во многих вопросах нет никаких оснований измерять связь между Ли В непременно при помощи коэффициента рв, а не при помощи аналогичного коэффициента регрессии РЛ = Р(Л\В)-Р(Л\В) сэбытия Л относительно В. В этом случае может быть использован тжже коэффициент корреляции между событиями А и В: Знак R должен совпадать со знаком обоих коэффициентов регрессии (они имеют всегда одинаковый знак). Коэффициент К. обращается в нуль тогда и только тогда, когда события А и В независимы (если событие В независимо от Л, то, как легко доказывается, и событие А независимо от В), и равняется ± 1 в случае строгой зависимости и только в этом случае. Корреляция между двумя величинами. Если между величинами £ и л нет строгой (функциональной) связи, то при наличии определенных вероятностей можно определить для каждого возможного значения £ = х первой величины соответствующее условное математич. ожидание М(л|£ = *) = /"(*) (см. Ожидание математическое). Уравнение у = = f(x) называют уравнением регрессии величины Т| относите льно £, а линию у = f(x) на плоскости хоу -линией регрессии Т| относительно £. Обозначим через /ил = М(т|) безусловное математич. ожидание Т|. В случае, когда величины с; и Я независимы, уравнение регрессии имеет вид у = т^ - const, то есть тогда М(т] |£ = х) = М(л,), то есть все условные математич. ожидания совпадают с безусловными. Обратное заключение не всегда справедливо. Естественно желание определить, насколько хорошо уравнение регрессии передает изменение Т) при изменении £, иначе говоря, в какой мере зависимость между £ и л. близка к строгой. Для этой цели может быть использована условная дисперсия л при данном значении % = х или ее средияя величина- дисперсиял, около линии регрессии: <у2^ = Щг\-М(Щ = х)]2. О Зычно рассматривают в качестве показателя связи корреляционное отношение е °n!t лК" где а^ - дисперсия величины л,. Аналогично определяется и корреляционное отношение в£ . Величина ej. равняется нулю тогда и только тогда, когда уравнение регрессии имеет вид у = т1], то есть математич. ожидание л не зависит от £; в^« равняется +1 в случае строгой зависимости л от £. В остальных случаях 6^ принимает промежуточное значение между 0 и +1. Вероятностная линия регрессии может быть приближенно восстановлена по достаточно обширной корреляционной таблице; за приближенное значение f(x) принимают среднее из значений л в тех наблюдениях, в которых £ = л\ Однако, если число наблюдений, соответству- юиих каждому значению £, недостаточно велико, то такой метод может привести к совершенно случайным результатам. На рисунке изображена статистическая линия регрессии для зависимости среднего диаметра обследованных сосен от высоты в соответствие с табл. 2 (см. на стр. 886). В средней части эта линия, по-видимому, хорошо выражает действительную закономерность. Точки линии, соответствующие высотам 29 и 30 л, не надежны ввиду малочисленно- 17 | 19 I 21 | 23 | 25 J 27 | 29 18 20 22 24 26 28 30 Высота сосен (в м) Статистическая зависимость регрессии для зависимости среднего диаметра северной сосны от высоты. сти материала. Точки, соответствующие высотам 17, 18 и 19 л, искажены системой отбора материала: в таблицу включены лишь сосны с диаметром > 14 см. В математической статистике (см.) разработаны и другие, более совершенные способы приближенного нахождения линий регрессии и корреляционного отношения по ограниченному статистич. материалу, а также способы оценки точности таких статистически найденных линий регрессии и корреляционного отношения (см. Регрессия). Нормальная корреляция между двумя величинами. В силу ряда оснований, к-рые с наибольшей полнотой были теоретически изучены советским математиком С. Н. Бернштейном, корреляционная зависимость между величинами £ и л, в очень многих случаях с известным прйбЭТдаением является нормальной, то есть вероятность того, что точкам координатами хну попадает в какую-либо область G плоскости хОу, приближенно изобразится интегралом iU^"» 885
Табл. 2. -Зависимость средних диаметров (по данным табл. 1 ) Число сосен Средний диаметр (в ел) Высота (в м) 17 4 18,5 18 6 18,8 19 9 17,7 20 16 20 21 41 22,9 22 57 25 23 86 27,2 24 108 30,1 25 124 32,7 26 91 38,3 27 55 40 28 24 41,8 29 2 42,8 30 1 43,5 Итого 624 31,2 Q(x, у) ■- -I 2(1-ЯЧ {х-т^У (у-тц)2 IRix-m* Xy-m^) °4°т, и5 = М(6), т^ЬМц), а^=М(^-^)2,о42=М(л-тт,)2 математическое ожидание и дисперсия величин £ = 2яа^ап vl - R2 и R - коэффициент К. величин ^ит;: и ц, Д = R В случае нормальной К. уравнение регрессии y = f(x) имеет вид: у = тХ] + рХ](х-7п1.), где то есть линия регрессии - прямая. Корреляционное отношение 8JL равно в случае нормальной К. коэффициенту корреляции R. Употребление коэффициента К. в качестве меры зависимости между ^ит)в случае связей, сильно отличающихся от нормальной, приводит иногда к ошибочным выводам, т. к. коэффициент К. может равняться нулю даже тогда, когда ц строго зависит от £. Заметим еще, что в случае нормальной К. уравнение регрессии £ относительно Т] есть х = = m$ + pft(y-mX]), где Коэффициенты рп и р^ называют коэффициентами регрессии ц относительно £ и £ относительно Т|. Знак рп и р^ всегда одинаков (и совпадает со знаком R). Очевидно, *=±Vp^. При большом числе независимых наблюдений, следующие одному и тому же двумерному распределению величин (£, rj), статистич. коэффициент корреляции г, определенный выше, близок к теоретич. коэффициенту корреляции R. В математич. статистике разработаны методы оценок точности определения R по г. Множественная корреляция. Аналогичными способами изучается связь между многими событиями или величинами. Отчетливо выраженная множественная К. наблюдается между антропологическими признаками. В исследованиях ряда советских ученых это обстоятельство послужило исходным пунктом для выработки системы стандартов для массового производства предметов личного пользования (одежды, обуви и пр.), обеспечивающей наилучшее удовлетворение потребностей населения. Большое значение имеет во многих приложениях (напр., предсказание урожаев, разливов рек) составление уравнений регрессии, связывающих неизвестную величину с рядом известных. В случае множественной К. особенно опасно делать выводы из данных недостаточно большого числа наблюдений. Одной из основных проблем теории К. и является выяснение числа наблюдений достаточных, при тех или иных обстоятельствах, для составления надежных уравнений регрессии. Для обоснованности выводов, построенных на теории К., необходимо: 1) обосновать применимость к данному явлению избранной вероятностной схемы; 2) тщательио проверить репрезентативность собранного статистического материала, т. е. отсутствие поводов для систематического отклонения распределения изучаемых признаков в собранном материале от подлежащего определению вероятностного распределения. Правильное применение эмпирич. приемов измерения К. возможно только на базе правильного понимания ее сущности, природы рассматриваемых явлений. К. есть одно из проявлений закона всеобщей связи явлений. Ее «неполный» (в отличие от функциональной связи) характер имеет своим источником тот же закон - иаличие зависимости от прочих условий. Буржуазная наука часто пользуется этой неполнотой для отрицания закона связи. Так, англ. биолог Ф. Гальтон, исследуя связь между признаками потомков и предков, все внимание сосредоточил на ее неполноте и отсюда вывел «закон» регрессии к средним 886 показателям вида; этот «закон» превратился у датского биолога В. Иогансена в полное отрицание этой зависимости, приводящее к антидарвинистскому учению об устойчивости «чистых линий». С другой стороны, нельзя, как нередко это делают в целях извращения фактов в нужном им направлении буржуазные ученые, забывать, что К. между двумя признаками вовсе не означает еще, что один из них - причина, а другой - следствие. К. измеряет лишь параллелизм в их изменчивости, могущей иметь своим источником действие на оба признака нек-рого третьего фактора. Лит.: Слуцкий Е. Е., Теория корреляции и элементы учения о кривых распределении, К., 1912; Чу пров А. А., Основные проблемы теории корреляции. О статистическом исследовании связи между явлениями, Л., 1926; Романовский В. И., Математическая статистика, М.- Л., 1938; Крамер Г., Математические методы статистики, пер. с англ., М., 1948; Теория и методы антропологической стандартизации применительно к массовому производству изделий личного пользования, М., 1951. В. И. РОМАНОВСКИЙ (БСЭ-2, 1953, том 23; расширенный вариант предыдущей статьи). МАТЕМАТИЧЕСКАЯ СТАТИСТИКА, наука о математическом описании и определении по неполным данным свойств статистических коллективов. Статистическим коллективом называется совокупность вещей или явлений, объединенных в целое и однородное единство по нек-рым определенным признакам, а по другим признакам разбитых на группы или классы (напр., население определенной страны в определенный момент времени, разбитое по возрастным группам). Признаки, по к-рым статистич. коллектив разбивается на группы или классы, называются его аргументами. Число членов статистич. коллектива составляет его объем. Числа членов статистич. коллектива в отдельных группах или классах называются численностями их, или частотами соответственных значений аргументов. М. с. преследует двоякого рода задачи: описательные и нормативные. Описательные задачи разрешаются описанием отдельных конкретных статистич. коллективов, заключающимся в установлении их статистич. характеристик или сводных признаков (средних, дисперсий, моментов и т.н.), закономерностей в распределении частот и связей между аргументами. Нормативные задачи М.с. состоят в выяснении возможности перенесения свойств, установленных для данного статистич. коллектива, на более обширный неизученный коллектив (генеральный статистич. коллектив), часть к-рого составляет данный, И1И на совокупность коллективов, аналогичных данному. В этом случае, при некоторых добавочных условиях, данный коллектив называется случайной выборкой или просто выборкой из генерального коллектива, и определение объема и характера выборки, при к-рых выводы из выборки распространились бы на генеральный коллектив с заданными точностью и вероятиостью, составляет основную проблему одного из важнейших отделов М. с- теории выборок. Статистические характеристики рассматриваются в учении о средних, дисперсии, моментах и в теории оценок статистич. характеристик. Описанием закономерностей в распределении частот статистич. коллективов занимается теория кривых распределения, а описанием связей между аргументами их - теории корреляции и ассоциации. Средние, дисперсия, м ом ен ты. Подготовительными операциями к описанию статистич. коллективов служат составление таблиц распределения, в которых указываются аргументы, классы и численности классов коллективов и геометрических изображений таблиц в виде диаграмм, полигонов, гистограмм (ступенчатых графиков) ит.п. Дальнейшим наиболее важным средством изучения статистич. коллективjb является составлеиие средних - статистич. характеристик, описывающих положение статистич. коллектива. Возьмем, напр., одномерный статистич. коллектив (коллектив с одним количественным аргументом) 5, представленный таблицей: X Пх х\ Х2 . П2 . . XS . Tls 5>* = " в к-рой хи х2, ..., xs - значения аргумента х, а пи п2, •••> ns ~ числа случаев, в к-рых наблюдались эти значения х. Для S средняя арифметическая или просто средняя х аргумента х определяется равенством и представляет наиболее простую и распространенную статистич. характеристику. Медиана (см.) представляет следующий по важности вид средией и определяется как такое значение аргумента, менее и более к-рого значения х в S встречаются одинаково часто. Кроме этих
на (более употребительных средних, рассматриваются еще средние гармоническая, геометрическая и т.д. Следующими по важности статистич. характеристиками являются меры рассеяния значений аргумента в латистич. коллективе: среднее квадратическое отклонение, дисперсии, вероятное отклонение, среднее абсолютное отклонение, квартили и .п. Из этих мер наиболее употребительные средиее квадратическое отклонение и дисперсия; первое определяется равенством а вторая равна а1. Для большинства действительных коллективов ср:днее квадратическое отклонение обладает тем свойством, что в гршицах между JE-Зо и Зг + Зо лежит более 99% всех встречающихся в коллективе значений х. Таким образом, чем менее о, тем более сосредоточены значения аргумента около их средней. Среднее квадратическое отклонение возможных значений какой-либо статистич. характеристики определяет ее точность и надежность, и потому разыскание средних квадратических отклонений статистич. характеристик составляет одну из важных задач М. с. Среднее квадратическое от<лонение или средняя квадратическая ошибка средней х равна Средние и меры дисперсии представляют частный случай более общего средства изучения статистич. коллективов, так наз. моментов (сч.). среди к-рых различаются начальные, центральные и около произвольного начала. Начальные моменты определяются равенством центральные - равенством и чоменты около произвольного начала а - равенством h называется порядком момента и принимает любые положительные значения. Первый начальный момент представляет среднюю х, второй центральный момент - дисперсию о2, при помощи третьего централь- ж го момента строится коэффициент асимметрии К = —~, измеряющий о' асимметрию распределения аргумента, и при помощи четвертого цент- рэльного момента строится эксцесс Е-—- - 3, измеряющий плоско- о и; и высоковершииность распределения. Моменты более высокого порядка в М.с. употребляются очень редко. В новейшее время в М.с. стали употребляться кумулянты Р. Фишера, аналогичные моментам величины, обладающие некоторыми преимуществами перед ними. Распределения и кривые распределения. Дальнейшем средством описания одномерных статистич. коллективов служат нск-рые определенные распределения и кривые распределения (см.). Наиболее важными из таких распределений являются биномиальное р; спределенис Пуассона и нормальное, или гауссово, распределение. П?рвое служит для описания распределений, к-рые могут быть сравнены с распределением частот нек-рого события в независимых испытаниях при постоянной всроятпости события в каждом испытании. Вторе >г - для описания распределений редких явлений (рождение троен и четверен, испускание а-частиц при распаде радиоактивных веществ и т. п.). Нормальное распределение, имеющее уравнением У = ~~с *о2 , (А) Оу12п ифаст в М.с. фундаментальную роль, теоретическую и практическую, и служит для описания распределения аргументов, которые можно рассматривать как слагающиеся при воздействии многочисленных не- з<виеимых или почти независимых причин (таким аргументом, напр., можно считать рост человека, распределение к-рого для большого однородною коллектива очень точно следует нормальному закону распределения). Уравнение (А) в геометрическом истолковании представляет нормальную кривую - одну из кривых распределения, служа- пшх для описания непрерывных распределений (распределений с непрерывным аргументом). Общий вид их представляется уравнением y = nf(x, 9„ 92, .... в,), где 9, - параметры распределения, принимающие определенные значения для данного конкретного распределения. При помощи кривой распределения находятся частоты лар = л Г fdx значений аргумента, лежащих между заданными границами а и р, и задача теории кривых распределения заключается в разыскании для различных распределений или классов их соответствующих форм функции f и способов разыскания значений параметров 9, таких, чтобы вычисленные частоты л,ф были возможно ближе к наблюденным для всех классов (а, Р) данного коллектива. Наиболее употребительны для разыскания параметров наименьших квадратов способ (см.) и способ моментов. Первый заключается в том, что ищутся значения параметров в,, обращающие в минимум сумму квадратов разностей между вычисленными и наблюденными частотами распределения, второй - в разыскании таких значений в„ к-рые делают равными вычисленные по кривой распределения и по даниому распределению моменты первых порядков вплоть до S- 1. В последнее время, по предложению Р. Фишера, стал применяться способ наибольшего правдоподобия, состоящий в том, что ищутся значения параметров в,, обращающие в максимум особую величину, называемую правдоподобием и пропорциональную вероятности наблюдения частот, равных наблюденным. Наиболее употребительными формами функции f(x, 61( ©2, ..., в5) являются функции, определяемые дифференциальным уравнением К. Пирсона — —L - х+а у dx Ьф+Ь.х+Ьу.т и ряды Шарлье, доставляющие обобщения нормального распределения и распределения Пуассона. Когда кривая распределения f(x, 6[, 62, ..., в5) рассматривается как закон распределения аргумента в генеральном коллективе, тогда возникают задачи теоретического обоснования формы функции f и оценки найденных значений параметров в,. Форма функции f может быть выбрана иа основании соображений о реальной природе генерального коллектива, а оценка параметров в, проще всего достигается разысканием их средних квадратических ошибок. Точное разрешение вопроса об этой оценке получается, если удастся найти распределение параметров Щ в бесконечной совокупности выборок, аналогичных той, к-рая дает исследуемое конкретное распределение. Когда кривая распределения найдена и вычислены но ней частоты, возникает вопрос, насколько удовлетворительно они воспроизводят наблюденные частоты. Для разрешения его чаще всего употребляется критерий согласия Пирсона в к-ром и' обозначает вычисленные и пх - наблюденные частоты и к-рый, при помощи особых таблиц, дает возможность найти вероятность Р случайных расхождений пх-п'х, столь же или менее вероятных, чем наблюденные; когда Р мало, согласие между частотами пх и пх считается неудовлетворительным. Выборочный метод. Наиболее важное средство для разрешения нормативных задач М. с. заключается в методе выборок. Когда изучаемый статистич. коллектив бесконечен или слишком велик и труден для исчерпывающего статистич. исследования или не может быть подвергнут исчерпывающему исследованию по каким-либо другим причинам (если, напр., оно сопряжено с порчей или уничтожением объектов исследования), тогда изучают лишь нек-рую долю генерального коллектива, к-рая выбирается так, чтобы в ней распределение изучаемого аргумента было достаточно близко к его распределению в генеральном коллективе. Для этого выборка производится согласно определенным стохастическим схемам и должна быть должного объема. Достаточно полно в М. с. изучены лишь выборки из генерального коллектива с нормальным распределением аргумента. Они вместе с тем очень важны ввиду исключительной роли нормального распределения в методах М. с. Особенно важную роль в современной М. с. играют т. п. малые выборки, то есть выборки произвольного объема, к-рый может быть и очень малым. Важность их теории ясна из того, что статистич. исследования в биологии, агрономии, технике и т.д. дают чаще всего коллективы небольшого объема. Основная проблема малых выборок заключается в разыскании точного распределения различных статистич. характеристик в них. Напр., известны распределения средней, дисперсии и нек-рых других характеристик в выборках любого заданного объема из коллективов с нормальным распределением аргумента. Эти распределения дали начало новейшим статистич. критериям: t Стьюдснта, z Фишера и др., к-рыс лежат в основании ряда новейших статистич. методов исследования, нашедших весьма широкие и разнообразные применения. Многомерные статистические коллективы - коллективы с несколькими аргументами. При изучении их возникает ряд новых задач, связанных с основной проблемой изучения статистич. зависимостей. Статистические зависимости противопоставляются функциональным и определяются, напр., для двух аргументов х и у следующим образом: у называется статистически зависящим от х, если условные распределения у, то есть распределения его, соответствующие заданным значениям х, изменяются вместе с изменением х (см. также Корреляция). К М. с. относятся также теория устойчивости статистич. рядов, теория временпых рядов и теория ассоциации, изучающая связи между качественными аргументами статистич. коллективов. 887
Первые начала М. с. можно найти уже в сочинениях Я. Бернулли и Лапласа, рассматривавших применения теории вероятностей к социальным, экономическим, моральным и демографическим вопросам. Но основателем ее считают А. Кетле (1796-1874), применявшего матема- тико-статистические методы в демографии и антропометрии. Основателями современной М.с. считаются Френсис Гальтон (1822-1911) и Карл Пирсон (1857-1936); первый положил начало теории корреляции и биометрии, а второй широко развил их и создал ряд современных методов М. с. (теорию моментов, кривые распределения, критерий X2 и др.). В новейшее время Рональд Фишер создал общую теорию оценок статистич. характеристик, методов дисперсионного анализа, теорию малых выборок и т.д. Среди математиков-статистиков последнего времени следует еще назвать Шарлье, построившего ряды, обобщающие распределения Гаусса и Пуассона, и А. А. Чупрова. О роли М.с, как аппарате математических приемов статистики, см. Статистика. Лит.: Чу п ров А. А., Основные проблемы теории корреляции. О статистическом исследовании связи между явлениями, М., 1926; Математические методы в статистике. Сб. ст. под ред. Г. Л. Ритца, пер. и обработ. СП. Бобров. М., 1927; Романовский В. И., Элементарный курс математической статистики, М.-Л., 1924; Лахтин Л.К., Кривые распределения..., М., 119221; Эльдертон В. П., Кривые распределения численностей и корреляция, пер с англ., М., 1924; Слуцкий ЕЕ., Теория корреляции и элементы учения о кривых распределения, Киев, 1912; Романовский В. И., Элементы теории корреляции, 2 изд., Ташкент, 1928; Yule G. U., An Introduction to the theory of Statistics, 10 ed., L., 1932; Fisher R. A., Statistical methods for research workers, 5 ed., L. - Edinburgh, 1934; Anderson O. N., Ein- fuhrung in die mathematischc Statistik, W., 1935; Darmois G., Stati- stique mathematique, P., 1928; Jordan Ch., Statistique mathematique, P., 1927; Risser R. et Traynard C.E., Les principes de la statistique mathematique, P., 1933. ~ 4 В. И. РОМАНОВСКИЙ (БСЭ-1, 1938. том 38). МАТЕМАТИЧЕСКАЯ СТАТИСТИКА. Содержание: I. Предмет математической статистики II. Связь математической статистики с теорией вероятностей III. Простейшие приемы статистического описания IV. Связь статистических распределений с вероятностными. Оценка параметров. Проверка вероятностных гипотез V. Выборочный метод VI. Дальнейшие задачи математической статистики VII. Историческая справка Математическая статистика - раздел математики, посвященный ма- тематич. методам систематизации, обработки и использования статистических данных для научных и практич. выводов. При этом статистич. данными называются сведения о числе объектов в к.-л. более или менее обширной совокупности, обладающих теми или иными признаками (таковы, напр., данные табл. 1а и 2а). I. Предмет математической статистики. Статистич. описание совокупности объектов занимает промежуточное положение между индивидуальным описанием каждого из объектов совокупности, с одной стороны, и описанием совокупности по ее общим свойствам, совсем не требующим ее расчленения на отдельные объекты,- с другой. По сравнению с первым способом статистич. данные всегда в большей или меньшей степени обезличены и имеют лишь ограниченную ценность в случаях, когда существенны именно индивидуальные данные (напр., учитель, знакомясь с классом, получит лишь весьма предварительную ориентировку о положении дела из одной статистики числа выставленных его предшественником отличных, хороших, посредственных и неудовлетворительных оценок). С другой стороны, по сравнению с данными о наблюдаемых извне суммарных свойствах совокупности, статистич. данные позволяют глубже проникнуть в существо дела. Напр., данные гранулометрич. анализа породы (то есть данные о распределении образующих породу частиц по размерам) дают ценную дополнительную информацию по сравнению с испытанием нерасчле- ненных образцов породы, позволяя в нек-рой мере объяснить свойства породы, условия ее образования и пр. Метод исследования, опирающийся на рассмотрение статистич. данных о тех или иных совокупностях объектов, называется статистическим. Статистич. метод применяется в самых различных областях знания. Однако черты статистич. метода в применении к объектам различной природы столь своеобразны, что было бы бессмысленно объединять, напр., социально-экономич. статистику [именуемую статистикой (см.) в собственном смысле слова], физич. статистику (см. Статистическая физика), звездную статистику (см. Звездная астрономия) и т. п. в одну науку. Общие черты статистич. метода в различных областях знания сводятся к подсчету числа объектов, входящих в те или иные группы, рассмотрению распределения количественных признаков, применению выборочного метода (в случаях, когда детальное исследование всех 888 объектов обширной совокупности затруднительно), использованию теории вероятностей при оценке достаточности числа наблюдений для тех или иных выводов и т. п. Эта формальная математическая сторона статистич. методов исследования, безразличная к специфич. природе изучаемых объектов, и составляет предмет М. с. П. Связь математической статистики с теорией вероятностей. Связь М. с. с теорией вероятностей имеет в разных случаях различный характер. Теория вероятностей (см.) изучает не любые массовые явления, а явления случайные и именно «вероятностно случайны*», т. е. такие, для к-рых имеет смысл говорить о соответствующих am распределениях вероятностей. Тем не менее, теория вероятностей играет определенную роль и при статистич. изучении массовых явлений любой природы, могущих не относиться к категории вероятностно случайных. Это осуществляется через основанные на теории вероятностей теорию выборочного метода (см.) и теорию ошибок измерений (см. Ошибок теория). В этих случаях вероятностным закономерностям подчинены не сами изучаемые явления, а приемы их исследования. Более важную роль играет теория вероятностей при статистич. исследовании вероятностных явлений. Здесь в полной мере нахолят применение такие основанные на теории вероятностей разделы М. :., как теория статистич. проверки вероятностных гипотез, теория статистич. оценки распределений вероятностей и входящих в них параметров и т.д. Область же применения этих более глубоких статиспч. методов значительно уже, так как здесь требуется, чтобы сами изучаемые явления были подчинены достаточно определенным вероятностным закономерностям. Напр., статистич. изучение режима турбулентных водных потоков или флюктуации в радиоприемных устройствах производится на основе теории стационарных вероятностных процессов (см.). Однако применение той же теории к анализу экономических временных рядов может привести к грубым ошибкам ввиду того, что входящее в определение стационарного процесса допущение наличия сохраняющихся в течение длительного времени неизменных распределений вероятностей в этом случае, как правило, совершен чо неприемлемо. Вероятностные закономерности получают статистич. выражение (не- роятности осуществляются приближенно в виде частот, а математические ожидания - в виде средних) в силу закона больших чисел (см. Больших чисел закон). III. Простейшие приемы статистического описания. Изучаемая совокупность из и объектов может по какому-либо к \ - чественному признаку А разбиваться на классы А\, А2, ..., Аг Соответствующее этому разбиению статистическое распределение задается при помощи указания численностей (частот) ?»,, п2> •■•» пт (X П|= я) отдельных классов. Вместо численностей и, часто указывают соответствующие относительные частоты (частости) h,= — (удовлетворяющие, очевидно, соотношению V И, = 1). Если изучеш ю подлежит нек-рый количественный признак, то его распределение в совокупности из и объектов можно задать, перечислив непосредствен ю наблюденные значения признака: хи х2, .... хг, напр. в норядке их возрастания. Однако при больших и такой способ громоздок и в то же время не выявляет отчетливо существенных свойств распределен)\я (подробнее о способах изображения и простейших характеристиках распределения одного количественного признака см. Вариационный ряд, Распределения). При сколько-либо больших п на практике обыч ю совсем не составляют полных таблиц наблюденных значений х,, а исходят во всей дальнейшей работе из таблиц, содержащих лш ib численности классов, получающихся при группировке наблюденных значений по надлежаще выбранным интервалам. Напр., в первом столбце табл. 1а даны результаты измерения 200 диаметров деталей, сгруппированные по интервалам длины 0,05 мч. Основная выборка соответствует нормальному ходу технологии, процесса. 1-я, 2-я и 3-я выборки сделаны через нек-рые промежутки времени для проверки устойчивости этого нормального хода производства. В табл. 16 результаты измерения деталей основной выборки даны при группировке по интервалам длины 0,25 мм. Обычно группировка по 10-20 интервалам, в каждый из к-рых попадает не более 15-20% значений xit оказывается достаточной для довольно полного выявления всех существенных свойств распределения и надежного вычисления по групповым численностям основных характеристик распределения (см. о них ниже). Составленная по такгм группированным данным гистограмма (см.) наглядно изображает распределение. Гистограмма, составленная на основе слишком мелкой группировки, обычно многовершинная и не отражает наглядно существенных свойств распределения. В качестве примера на рис. 1 дана гистограмма распределения 200 диаметров, соответствующая данным первого столбца табл. la, a на рис. 3 - гистограмма того же распределения (соответствующая та5-
Табл. la - Распределение диаметра детали в мм, обнаруженное при статистическом исследовании массовой продукции (объяснение обозначений х, S, s см. стр. 000, 000). t 13,)5-13,09 13,10-13,14 13,13-13.19 13,^0-13,24 13,>5-13,29 13,Ю-13,34 13,55-13,39 13,10-13,44 13,15-13,49 13,50-13,54 13,55-13,59 13и50-13,64 13Д5-13.69 Всего 1 5. _j ? * Основная выборка - 2 1 8 17 27 30 37 27 25 17 7 2 200 13,416 2,3910 0,110 1-я выборка - - - - 1 1 2 2 1 2 - 1 - 10 13,430 0,0990 0,105 2-я выборка 1 - 1 - 2 1 3 1 - 1 - - - 10 13,315 0,1472 0,128 3-я выборка - - - - - 2 1 10 13,385 0,3602 0,200 Табл. 16 - Распределение диаметра детали основной выборки (из табл. 1а) при более крупных интервалах группировки. Диаметр 13,00-13,24 13,25-13,49 13,50-13,74 Всего Число деталей И 138 51 200 липа не приводится ввиду ее громоздкости) при интервале 0,01 мм. С другой стороны, группировка по слишком крупным интервалам может привести к потере ясного представления о характере распределения и к грубым ошибкам при вычислении среднего и других харак- териггик распределения (см. табл. 16 и соответствующую гистограмму на рис. 2). В пределах М.с. вопрос об интервалах группировки может быть рассмотрен только с этой формальной стороны: полноты матсматич. описания распределения, точности вычисления средних по сгруппированным данным и т.д. О группировке, имеющей целью выделить качественно различные группы в изучаемой совокупности, см. группировка в статистике. П эй изучении совместного распределения двух признаков пользуются таблицами с двумя входами. Примером совместного распределения двух качественных признаков может служить таблица 2а (см. стр. 890). В общем случае, когда по признаку А материал разбит на классы Л{, /Ь, ..., Аг, а по признаку В - на классы В{, В2, ..., В%, таблица состоит из чнеленностей п,} объектов, принадлежащих одновременно классам At и Ву Суммируя их по формулам пх. = V ntJ, n.} = \ nt), получают численности самих классов Л, и В. (очевидно, что V V , пи = => п,. = 2^ п.j = л, где п - численность всей изучаемой совокуп- ности). В зависимости от целей дальнейшего исследования вычисляют те или иные из относительных частот h =-^-,/2,. = —, А.,=—, h t \ — » hf,\. — • '</> п.} (,)' п, Ншр., при изучении влияния вдыхания сыворотки на заболевание грин юм по табл. 2а естественно вычислить относительные частоты, данные 5 табл. 26 (см. стр. 890). Пример таблицы для совместного распределения двух количественных признаков см. в статье Корреляция. Тьбл. 1а служит примером смешанного случая: материал группируется по одному качественному признаку (принадлежность к основной выберке, произведенной для определения среднего уровня производст- венн^го процесса, и к трем выборкам, произведенным в различные моменты времени для проверки сохранения этого нормального среднего уровня) и по одному количественному признаку (диаметр деталей). Простейшими сводными характеристиками распределения одного количественного признака являются среднее л 2~ч = \ 13,10 13,30 13,50 Диаметр в мм 13,70 Рис. 1. Гистограмма распределения диаметров 200 деталей. Длина интервала группировки 0,05 мм 150 Ь 13,10 13,30 13,50 Диаметр в мм 13,70 Рис. 2. Гистограмма распределения диаметров 200 деталей. Длина интервала группировки 0,5 мм. 13,10 13,20 13,30 13,40 13,50 13,60 13,70 Диаметр в мм Рис. 3. Гистограмма распределения диаметров 200 деталей. Длина интервала группировки 0,01 мм. и среднее квадратичное отклонение При вычислении х, S7 и D по группированным данным пользуются формулами 889
Табл. 2а- Распределение заболевших и не заболевших гриппом среди работникоЕ Центрального универмага в Москве, вдыхавших и не вдыхавших противогриппозную сыворотку (1939). Не вдыхавшие Вдыхавшие Всего Таб Не вдыхавшие Вдыхавшие Не заболевшие 1675 497 2172 Заболевшие 150 4 154 Всего 1825 501 2326 л. 26-Относительные частоты соответствующие данным табл. 2а) Не заболевшие 0,918 0,992 Заболевшие 0,082 0,008 Всего 1,000 1,000 *-Z.M где г - число интервалов группировки, ак - их середины (в случае табл. 1а - 13,07; 13,12; 13,17; 13,22 и т.д.). Если материал сгруппирован по слишком крупным интервалам, то такой подсчет дает слишком грубые результаты. Иногда в таких случаях полезно прибегать к специальным поправкам на группировку. Однако эти поправки имеет смысл вводить лишь при условии выполнения определенных вероятностных предположений. О различных типах распределений и других их характеристиках см. Вариационный ряд, Распределения. О совместных распределениях двух и большего числа признаков см. Корреляция, Регрессия. IV. Связь статистических распределений с вероятностными. Оценка параметров. Проверка вероятностных гипотез. Выше были изложены лишь нек-рые избранные простейшие приемы статистич. описания, представляющего собой в настоящее время довольно обширную дисциплину с хорошо разработанной системой понятий и техникой вычислений. Приемы статистич. описания интересны, однако, не сами по себе, а в качестве средства для получения из статистич. материала выводов о закономерностях, к-рым подчиняются изучаемые явления, и о причинах, приводящих в каждом отдельном случае к тем или иным наблюденным статистич. распределениям. Напр., данные, приведенные в табл. 2а, естественно связать с такой теоретич. схемой. Заболевание гриппом каждого отдельного работника универмага следует считать случайным событием, так как общие условия работы и жизни обследованных работников универмага могут определять не сам факт заболевания такого-то и такого-то работника, а лишь нек-рую вероятность (см.) заболевания. Вероятности заболевания для вдыхавших сыворотку (pt) и для не вдыхавших (р0), судя по статистич. данным, различны: эти данные дают основания предполагать, что рх существенно меньше р0. Перед М. с. возникает задача: по наблюденным частотам At =тт7»0,008 и Ао = -~гг~ 0,082 оценить веро- 501 1825 ятности pi и р0 и проверить, достаточен ли статистич. материал для того, чтобы считать установленным, что р^ <р0 (то есть что вдыхание сыворотки действительно уменьшает вероятность заболевания). Утвердительный ответ на поставленный вопрос в случае данных табл. 2а достаточно убедителен и без тонких средств М. с. Но в более сомнительных случаях необходимо прибегать к разработанным М. с. специальным критериям. Данные первого столбца табл. 1а собраны с целью установления точности изготовления деталей, расчетный диаметр к-рых равен 13,40 мм, при нормальном ходе производства. Простейшим допущением, к-рое может быть в этом случае обосновано нек-рыми теоретическими соображениями, является предположение, что диаметры отдельных деталей можно рассматривать как случайные величины, подчиненные нормальному распределению вероятностей U-a? РК<*>в-р=Г е 2°2 dt. (t) Если это допущение верно, то параметры ana2- среднее и дисперсию вероятностного распределения - можно с достаточной точностью оценить по соответствующим характеристикам статистического распределения (так как число наблюдений я = 200 достаточно велико). В качестве оценки для теоретич. дисперсии а2 предпочитают не статистич. S2 дисперсию D = —, а несмещенную оценку 890 Для теоретического среднего квадратичного отклонения не существует общего (пригодного при любом распределении вероятностей) выражения несмещенной оценки. В качестве оценки (вообще говоря, смещенной) для а чаще всего употребляют s. Точность оценок х и s для а и а указывается соответствующими дисперсиями, к-рые в случае нормального распределения (1) имеют вид п п 2 _ 2о4 2s* я-1 2п где знак ~ обозначает приближенное равенство при больших». Таким образом, условливаясь к оценкам прибавлять со знаком ± среднее квадратичное отклонение, имеем при больших и в предположении нормального распределения (1): = 5± "Л" S ЛИ' (2) В случае данных первого столбца табл. 1а, формулы (2) дают д=13,416±0,008, а-0,И0±0,006. Объем выборки п - 200 достаточен для законности пользования этими формулами теории «больших выборок». Дальнейшие сведения об оценке параметров теоретич. распределений вероятностей см. в статьях Оценки статистические, Доверительные границы. О способах, при помощи к-рых по данным первого столбца табл. 1а можно было бы проверить исходные гипотезы нормальности распределения и независимости наблюдений, см, в статьях Распределения, Непараметрические методы, Статистическая проверка гипотез. При рассмотрении данных следующих столбцов табл. 1а, каждый из к-рых составлен на основе 10 измерений, употребление формул теории больших выборок, установленных лишь в качестве предельных формул при n-+oot может служить только для первой ориентировки. В качестве приближенных оценок параметров а и а по-прежнему употребляются величины х и s, но для оценки точности и надежности таких оценок необходимо применять теорию малых выборок (см.). При сравнении по правилам М.с. выписанных в последних строках табл. 1а значений х и s для трех выборок с нормальными значениями б и а, оцененными но первому столбцу таблицы, можно сделать следующие выводы: первая выборка не дает оснований предполагать существенного изменения хода производственного процесса, вторая выборка дает основание к заключению об уменьшении среднего диаметра а (см. Стьюдента критерий), третья выборка - к заключению об увеличении дисперсии (см. «Хи-квадрат* критерий). Все основанные на теории вероятностей правила статистич. оценки параметров и проверки гипотез действуют лишь с определенным уров нем значимости (см.) ш<1, то есть могут приводить к ошибочным результатам с вероятностью а=1-со. Напр., если в предположении нормального распределения и известной теоретич. дисперсии а2 производить оценку а по х по правилу x-k-^=r<a<x+k-^=r, Vn Vn то вероятность ошибки будет равна а, связанному с k соотношением (см. табл. 3): *dx. Вопрос о рациональном выборе уровня значимости в данных конкретных условиях (напр., при разработке правил статистич. контроля массовой продукции) является весьма существенным. При этом желанию применять правила лишь с высоким (близким к единице) уровнем значимости противостоит то обстоятельство, что при ограниченном числе наблюдений такие правила позволяют сделать лишь очень бедные выводы (не дают возможности установить неравенство вероятностей даже при заметном неравенстве частот и т.д.). Табл к СИ (0 . 3 - Зависимость а 1,96 0,050 0,950 2,58 0,010 0,990 и со = 1 - а 3,00 0,003 0,997 от k. 3,29 0,001 0,999
V. Выборочный метод. В разделе IV результаты п наблюдений, используемых для оценки распределения вероятностей нли его параметров, подразумевались (хотя это и не оговаривалось) независимыми (см. Теория вероятностен и, особенно, Независимость). Хорошо изученным примером использования зависимых наблюдений может служить оценка статистич. распределения или его параметров в «генеральной совокупности» из N объектов по произведенной из нее «выборке», содержащей п < N объектов. Терминологическое замечание. Часто совокупность п наблюдений, сделанных для оценки распределения вероятностей, также называют «выборкой». Этим объясняется, напр., происхождение употребленного в разделе J V термина «теория малых выборок». Эта терминология связана с тем, что часто распределение вероятностей представляют себе в виде статистич. распределения в воображаемой бесконечной «генеральной совокупности» и условно считают, что паблюдаемые п объектов «выбираются» из этой совокупности. Эти представления не имеют отчетливого содержания. В собственном смысле слова, выборочный метод всегда предполагает исходную конечную генеральную совокупность. Примером применения выборочного метода может служить следующий. Пусть в партии из N изделий имеется X дефектных. Из партии отбирается случайным образом выборка из n<N изделий (напр., я =100 при N= 10 000). Вероятность того, что число х дефектных изделий в выборке будет равно тя, равна р {х = т) = nHN-n)\X\(N-X)\ mXn-mVXX-mVXN-X-n+mV.N' ' Таким образом, .г и соответствующая относительная частота Л = - оказываются случайными величинами, распределение к-рых зависит от параметра X или, что то же самое, от параметра # = —-. Задача оценки относительной частоты Н по выборочной относительной частоте k очень похожа на задачу оценки вероятности р по относительной частоте h при п независимых испытаниях. При больших п с вероятностью, близкой к единице, в задаче об оценке вероятности имеет место приближенное равенство p~ht а в задаче об оценке относительной частоты - приближенное равенство H~h. Однако в задаче об оценке Н формулы сложнее, а отклонения h от Н в среднем несколько меньше, чем отклонения h от р в задаче об оценке вероятности (при том же я). Таким образом, оценка доли Н дефектных изде!ий в партии по доле h дефектных изделий в выборке при данном объеме выборки я производится всегда (при любом N) несколько точнее, чем оценка вероятности р по относительной частоте k при я независимых испытаниях. Когда ► <*>, формулы задачи о выборке переходят асимптотически в формулы задачи об оценке вероятности р. См. также Выборочный метод. VI. Дальнейшие задачи математической статистики. Теория оцепок и вообще статистич. выводов, построенных на использовании результатов заданного числа п независимых наблюдений с постоянным распределением вероятностей, и теория выборочного метода для случая выборок фиксированного объема я остаются наиболее разработанными разделами М. с. Классическая теория корреляции изучает зависимость между величинами на основе совокупности независимых наблюдений. Напр., зависимость между величинами £ и х\ исследуется при помощи я независимых между собой наблюдений, каждое из к-рых дает пару значений (*,, у,), подчипенных исследуемому совместному распределению величин £ и Т]. По аналогичной схеме изучается зависимость между качественными признаками при помощи дисперсионного анализа (см.). Методы исследования зависимых наблюдений подверглись в М.с. глубокой разработке лишь в теории временных рядов, гл. обр. при сильно ограничивающем условии их стационарности (см. Стационарные вероятностные процессы). Большое значепие имеют также вопросы планирования статистического эксперимента. В простейшем случае - это вопрос определения числа испытапий я, необходимого для получения с заданным уровнем зпачимости выводов требуемой точности и полноты. Однако часто априорное определение числа наблюдений невозможно (или нецелесообразно, так как, пе фиксируя число наблюдений заранее, а определяя его в ходе эксперимента, можно уменьшить его математич. ожидание). Методы статистич. эксперимента, в к-рых число наблюдений не фиксируется заранее, а устанавливается в ходе эксперимента, объединяют в настоящее время под общим названием последовательного анализа (см.). Впрочем, простейшие приемы такого рода были разработаны давно (см., напр., о методе двойной выборки в статье Приемочный статистический контроль). Строго говоря, статистические методы контроля массовой продукции являются областью применения еще не сложившегося раздела М.с, посвященного проблемам регулирования процессов по выборочным статистическим данным, где выбор статистических правил диктуется не задачей получения выводов с заданным уровнем значимости, а задачей достижения определенного хода регулируемого процесса (напр., установления режима производства, гарантирующего заданный уровень качества продукции). VII. Историческая справка. Первые начала М.с. можно найти уже в сочинениях создателей теории вероятностей - швейцарского математика Я. Бернулли (конец 17 - начало 18 вв.), франц. математиков П. Лапласа (2-я половина 18 - начало 19 вв.) и С. Пуассона (1-я половина 19 в.). В России методы М.с. в применении к демографии и страховому делу развивал на основе теории вероятностей В. Я. Буняковский (1846). Решающее значение для всего дальнейшего развития М. с. имели работы русской классич. школы теории вероятностей 2-й половины 19 - начала 20 вв. (П. Л. Чебышев, А. А. Марков, A.M. Ляпунов, С. Н. Бернштейн). Многие вопросы теории статистич. оценок были по существу разработаны на основе теории ошибок и метода наименьших квадратов [нем. математик К. Гаусс (1-я половина 19 в.) и русский математик А. А. Марков (конец 19 - начало 20 вв.)]. Работы А. Кетле (19 в., Бельгия), Ф. Гальтона (19 в., Англия) и К. Пирсона (конец 19 - начало 20 вв., Англия), к-рых в буржуазной литературе чаще всего выдвигают как основателей М.с, имели большое значение, но по уровню использования достижений теории вероятностей отставали от работ русской школы, а в части использования методов М. с. в социальных и биологич. науках имели реакционную направленность. К. Пирсоном была широко развернута работа по составлению таблиц функций, необходимых для применения методов М.с В создании теории малых выборок, общей теории статистич. оцепок и проверки гипотез, последовательного анализа весьма значительна роль более молодых представителей анг- ло-америкапской школы [Стьюдент (псевдоним В. Госсета), Р. Фишер, Э. Пирсон - Англия, Ю. Нейман, А. Вальд - США)], деятельность к-рых началась в 20-х гг. 20 в. В СССР значительные результаты в области М.с. получены В. И. Романовским, Е. Е. Слуцким, к-рому принадлежат важные работы по статистике связанных стационарных рядов, Н. В. Смирновым, заложившим основы теории непараметрических методов М.с; на основе М.с особенно интенсивно разрабатываются статистич. методы исследования и контроля массового производства, статистич. методы в области гидрологии, климатологии, звездной астропомии и многие др. Советские учепые подвергают критике ошибочные методологич. установки, формализм и упрощенчество буржуазных научных школ в области М. с. Полному пересмотру подвергнуты в советской науке вопросы применения М. с в биологических и социальных науках, где формальные методы М.с. особенно часто используются буржуазными учеными в антинаучных целях (см. Статисти ка, Биометрия). Лит.: Романовский В. И., Элементарный курс математической статистики, М. - Л., 1939; Митропольский А. К., Техника статистического исчисления, М. - Л., 1931; его же, Статистическое исчисление, т. 1-2, Л., 1952; Длин A.M., Математическая статистика в технике, 2 изд., М., 1951; Боро- дачев Н.А. и Журавлев А. Н., Статистические методы анализа и контроля качества продукции, хода технологического процесса и состояния производственного оборудования, в кн.: Машиностроение. Энциклопедический справочник, т. 15, М., 1950 (стр. 597-647); Романовский В. И., Математическая статистика, М.- Л., 1938; Крамер Г., Математические методы статистики, пер. с англ.. М., 1948; Арлей Н. и Бух К. Р., Введение в теорию вероятностей и математическую статистику, пер. с англ., М., 1951; Pearson К., Tables for statisticians and biometricians, pt 1-2, L., 1930-31; Kendall M. G., The advanced theory of statistics, v. 1-2, L., 1948; Hald A., Statistical theory with engineering applications, N. Y.~ L., 1952; его же, Statistical tables and formulas, N.Y., 1952. Обзор работ советских ученых в области математической статистики - Смирнов Н. В., Математическая статистика, в кн.: Математика в СССР за тридцать лет. 1917-1947. Сб. статей, под ред. А. Г. Куроша [и др.], М.- Л., 1948. В. И. РОМАНОВСКИЙ (БСЭ-1, 1939, том 41). НАИМЕНЬШИХ КВАДРАТОВ СПОСОБ, метод приближенных вычислений, основной задачей которого является разыскание одной или пескольких неизвестных величин, причем наилучшим приближением к действительным значениям этих величин считаются те, которые обращают в минимум сумму квадратов разностей между вычисленными и измеренными значениями других величин, выражающихся через искомые. Например, пусть измеренные величины y[t у{ у'п зависят определенным образом от подлежащих определению величин х\, Х2, .., хт, т.е. являются функциями от них y'i=ft(xux2, ...,xm), i=l, 2, 3, ..., п. Предположим, что выполнено число наблюдений (л), большее, чем число неизвестных (т). Пусть эти наблюдения (включающие ошибки 891
наблюдения) дали для величин у\, у2, ..., у'п значения уи y2t .♦., у„. Предположим еще, что измерения неодинаково точны и что относительное достоинство их оценивается весами р\, р2, .... р„, представляющими некоторые положительные числа, к-рые обычно полагаются обратно пропорциональными квадратам средних квадратич. погрешностей соответственных измерений; за pi можно принять также число частных, одинаково точных измерении, средней из к-рых является у,. Возьмем теперь сумму •£ = V р^Уг-ур , представляющую сумму взвешенных квадратов отклонений измеренных значений у от вычисленных. Тогда Н. к. с. для разыскания неизвестных величин хи х2 хт заключается в том, что за наилучшие приближенные значения их принимаются значения, обращающие сумму S в минимум. Эти значения, согласно известным правилам дифференциального исчисления, находятся из уравнений Л = 1, 2, , т, as которые получаются от приравнивания к нулю производных — и называются нормальными уравнениями. * Если функции /", линейны относительно *=*;■ а?х J'K i=1, 2, . то нормальные уравнения представляют систему линейных относительно х\, х2, .... хт уравнений, решение которых хорошо известно и более или менее легко выполнимо. Если же функции ft нелинейны относительно хи х2 xmt решение нормальных уравнений может представлять очень большие трудности. Таким образом, Н. к. с. с наибольшим успехом и чаще всего применяется в первом случае или в тех случаях, когда функция f может быть каким-либо преобразованием приведена к первому случаю. Например, при намагничивании железа напряжение поля Н может быть связано с магнитной индукцией В равенством вида где х\ и х2 должны быть найдены по значениям В и Н И В=- у Нх7 доставляемым измерениями. Здесь /"=- ■Нх2 нелинейная функция котором — и — будут известны от хх и х2. Но наше равенство можно легко преобразовать в эквивалент- 1 _J_ вместе с В и Я и в которое х^ и х2 входят уже линейно. Н. к. с. наиболее разработан в применении к теории ошибок. Рассмотрим основные применения его в ней. Случай одного неизвестного. Пусть для разыскания неизвестной величины х произведено п независимых наблюдений или измерений ее, давших значения хи х2, ..., хп. Тогда наилучшим, согласно Н. к. с, приближенным значением х будет х = , обращающее в минимум сумму V" Pi(*i -x) , если через р, обозначить веса произведенных измерений. Эти веса обратно пропорциональны квадра- К там средних квадратич. погрешностей значении Xj, то есть Pi = —г, где а,2 равно „атематич. ожиданию (*„-<)>, где ,. обозначает мате'машч. ожидание случайной переменной *,', представляющей возможные значения х в 1-м измерении. При отсутствии постоянной ошибки в измерениях xQ принимается за действительное значение величины х. Полученное приближенное значение х величины х имеет вес Я = £ /?,, а средняя квадратич. погрешность приближенного равенства xQ»x равна а- = -^, где а представляет среднюю квадратич. ошибку отдельного измерения с весом единицы и определяется приближенным равенством ../ 5>,<*,-*>2 При некоторых дополнительных предположениях можно показать, что разность xQ-x следует нормальному закону распределения со средней ошибкой и дисперсией а^, в частности тогда, когда ошибку х0-х можно рассматривать как сумму большого числа независимых одна от другой элементарных ошибок одного порядка малости, происходящих от одновременного действия большого числа независимых друг от друга факторов. В этом случае знание закона распределения ошибки х0-х дает возможность вычислять по таблицам интеграла вероятностей вероятности различных возможных расхождений между х и х0 и, таким образом, оценить степень точности полученного приближенного значения величины х. Случай многих ней з вестн ы х. Предположим, что л независимых измерений, имеющих веса pit р2 р„ , дали для величины у значения уи у2, ..., y„t причем величина у связана с неизвестными величинами хи х2 х„, число к-рых менее числа измерений, линейным соотношением у-ахх\ + а2Х2 +... +а„хт, в котором параметры аи а2 ат принимают для наших измерений точно известные нам значения а*, а2 а£ (i=l, 2 л). В этом случае разыскание наилучших согласно Н. к. с, приближенных значений для Xj приводится к разысканию значений их, обращающих в минимум сумму T^P.ivi X Эти значения находятся из нормальных уравнений: *, X рЛ'Ч'" +*,! ?,«№ •■•«„! рЛЧ" = I wl". ',1 рУ-'Х1'+*,! рУ.Чп+-«.1 рУ-'Ч" = I wL"- Веса получающихся приближенных значений xh равны —, где Л обозначает определитель, составленный из коэффициентов при xif х2, ..., хт в нормальных уравнениях, а ДЛЛ - его минор, соответ«:тву- ющии элементу > р^к ah ; средняя квадратич. погрешность прибли- 0 - 0 „. женного равенства xh »xh, где xh обозначает действительное значение xh, равна ™* \=*,-Х^Х0**- Частным случаем разобранного сейчас вопроса является парабслич. выравнивание эмнирич. связи между двумя величинами у и х, для к-рых наблюдения или измерения дали пары значений yv л:, (i= 1, 2, ..., л) с частотами я,-, то есть разыскание наилучшей, согласно Н. к. с, приближенной зависимости между у и х вида y = aQ + aix + a2x: + ... ... + атхт (т<п), в которой aQ, au ..., ат играют роль неизвестных величин и находятся из нормальных уравнений: •$0*0 + $\<*\ + ••• +Smam ~ Tq, 5,я0 + S2a\ + ... + Sm+Xam = Г5, где Smao + Sm+\o\ +... +S2mam = Tm, •^2 = ]Г TliXi И Т.Д., T2 = X Kyi*! И Т- Д- Эти нормальные уравнения получаются, если мы будем искать значения aQ, а]г ..., ат, обращающие в минимум сумму Хп (у -ап-а,х -а-х2-...-а хт) . В заключение заметим, что основателями Н. к. с. были Гаусс и Лежандр. Лежандр ввел Н. к. с. впервые в своей работе «Nouvelles methodes pour la determination des cometes» (1805-06). Этот способ был изобретен Гауссом, независимо от Лежандра, и опубликован им в знаменитом соч. «Theoria motus corporum coelestium» (1809). Гауссу принадлежит первое научное обоснование Н. к. с. при помощи нормального закона распределения ошибок, выведенного им из прим шпа средней арифметической. Далее Н. к. с. занимались очень многие исследователи, среди которых можно назвать Лапласа, Глишера, З'нке, Бесселя, А. А. Маркова и др. Одно из наиболее строгих и изящных обоснований Н. к. с. принадлежит Маркову. Лит.: Марков А. А., Исчисление вероятностей, 4 изд., М., 1924, гл. VII; Крылов А. Н., Лекции о приближенных вычислениях, 3 изд., Л. - М., 1935; Шилов П. И., Способ наименьших квадратов, 2 изд., М., 1936; Чеб старее А. С, Способ наименьших квадратов с основами теории вероятностей, 2 изд., М., 1936; Gauss С. Fr., Abhandlungen zur Methode der kleinsten Quadrate, В., 1887; Deltheil R., Erreurset moindres carres, P., 1930. В.И. РОМАНОВСКИЙ (БСЭ-1, 1939, тоу 41). 892
ЖУРНАЛЫ по теории вероятностей (ТВ), математической статистике (МС) и их применениям Научные журналы возникли во 2-й половине 17 века; исторический интерес представляют: Journal des Savants (P.- Amst.-Lpz., с 1665), Acta eruditorum (Lpz., 1682-1731), Com- mentarii Academiae scientiarum Petropolitancae (П., 1728-51). К началу - середине 19 века научные журналы стали основным источником знаний в области науки и техники. К настоящему времени (май 1999) в мире издаются десятки тысяч научных журналов, часть из них (ее доля растет) предоставляется бесплатно или платно в Интернет. В библиотеках мира журналы представлены весьма неравномерно. Например, если попытаться расширить приведенный ни»е список журналов из нескольких сотен наименований по ТВ и МС до некоторого условно полного списка, то обнаружится примерно следующее. Упоминаемый « полный» список журналов в 1000-1500 наименований (или даже наш список) полностью вряд ли будет наличествовать даже в крупнейших библиотеках мира: Библиотеке Конгресса США, библиотеках Гарнардского, Стенфордского, Принстонского, Калифорнийского (Беркли, Ирвайн и т. д.), Гейдельбергского университетов. Конечно, большая часть нашего и даже значительная часть «полного» списка поступает в десятки библиотек мира. В Российскую государственную библиотеку (бывшую Государственную библиотеку СССР им. В. И. Ленина, Москва), библиотеку Российской Академии наук (Санкт-Петербург), Библиотеку по естественным наукам (БЕН, Москва), Российскую национальную библиотеку (бывшую им. М. Е. Салтыкова-Щедрина, СПб.), Государственную публичную научно-техническую библиотеку (ГПНТБ России, Москва), Всероссийский институт научно-технической информации (ВИНИТИ, Москва), ГПНТБ СО РАН (Новосибирск) в 1985-1990 гг. поступало всего около 15-20 тыс. наименований журналов (периодических и продолжающихся изданий), а в мире выходило примерно 100 тыс. наименований. При этом по ТВ и МС в Москву и Ленинград поступала весьма значительная часть журналов нашего списка (не все журналы тогда существовали). С учетом координации комплектования библиотек читатель мог найти в Москве и Ленинграде почти любой журнал по ТВ, МС и их применениям. С тех пор положение изменилось : в российских библиотеках не найдется и одной десятой части журналов нашего списка. Заведомо в Москве нет и половины из числа основных журналов по ТВ и МС. До возникновения специализированных журналов по ТВ и МС статьи по этим наукам публиковались (и публикуются ныне) в общематематических журналах. Среди них важ- нейиие: « Математический сборник» (М., с 1866) «Journal fur die reine und angewandte Mathematik» (В., с 1826) «Journal de mathematiques pures et appliquees (P., с 1836) «Annales scientifiques de L'Ecole normale superieure» (P., с 1864) «Proceedings of the London Mathematical Society» (L., с 18i35) «Mathematische Annalen» (B.-Lpz., с 1869) «Bulletin de la Societe mathematique de France» (P., с 1872) «American Journai of Mathematics» (Bait., с 1878) «Acta mathematica» (Uppsala - Stockh., с 1882) «Annals of Mathematics» (Princeton, с 1884) «Rendiconti del Circolo matemaUco di Palermo» (Palermo, с 1884) «Bulletin of the American Mathematical Society» (Lancaster, с 1891) «Известия Академии наук СССР. Серия математическая» (М., с 1937) «Успехи математических наук» (М., с 1936) «Математические заметки» (М., с 1967) Среди журналов, публикующих оригинальные статьи и краткие сообщения по ТВ, МС и их применениям, в первую очередь назовем следующие четыре: I. Основные («ядерные») журналы, публикующие оригинальные статьи и краткие сообщения по ТВ, МС и их применениям. Теория вероятностей и ее применения, М.; РАН, с 1956; The Annals of Mathematical Statistics, Hayward: Inst. Math. Statist., в 1930-72, в 1973 разбит на два журнала: The Annals of Probability The Annals of Statistics. II. Журналы по прикладной и вычислительной математике, комбинаторике, теории графов, моделированию, многочисленным конкретным предметным областям («от физики до лингвистики»). III. Некоторые многотомные издания (напр., Encyclopedia of Statistical Sciences, N. Y. - [a. o.|, vol. 1-9, с дополнениями). Журналы, периодические и продолжающиеся издания, даны в списке в английской транслитерации (как это принято в базах данных крупных библиотек); русскоязычные - в латинской транслитерации. Восстановление русского названия обычно не представляет труда. К тому же русскоязычные журналы хорошо описаны в каталогах отечественных универсальных научных и специальных библиотек. Там же имеются переименования журналов СССР в журналы РФ, а также сведения о некоторых новых журналах. Кроме полных названий журналов в списке указываются их сокращенные названия, обычно общепринятые, затем указывается место издания и иногда приводятся комментарии по тематике журнала; ис пользуются также стандартные сокращения названий городов. Лит.: [1] М а за ев М., Энциклопедический словарь Брокгауз и Ефрон, СПб., 1894, т. 12, с, 55-69; [2) БСЭ, 3-е изд., т. 15, М.,1974, с. 485-86; 13] Encyclopedia of Statistical Sciences, N.Y. - [a. o.j, (многотомник); [4J The Bowker International Serials Database, Ulrich's International Periodical Directory, N.Y. - L., 1932; [5] The Standart Periodical Directory, N. Y.; [6] РЖ Математика. Раздел «Теория вероятностей и математическая статистика», М.,1953; [7] Зарубежные научные и технические журналы: Аннотированный справочник, М.,ГПНТБ России (ежегодник); [8] Mathematical Reviews, Providence R. I.; [9] Current Index to Statistics, Washington, D. C, Amer. Statist. Ass.; [ 10J Указатель журналов по теории вероятностей, математической статистике и их приложениям, М., Матем. ин-т им. В. А. Стеклова АН СССР, 1986 (препринт); [11] Указатель иностранных журналов, выписанных ГПНТБ СССР на 1990 г., М., ГПНТБ СССР, 1990; [12] Указатель иностранных журналов, выписанных ГПНТБ России на 1998 г., М., ГПНТБ России, 1998; [13] Компьютерный вестник, М., ГПНТБ России (12 вып. в год); [141 Сводный каталог научно-технической литературы (серии: каталог зарубежных книг; каталог отечественных изданий; каталог периодических изданий), М., ГПНТБ России (ежегодник); [15] Алгоритмы и программы, М., ГПНТБ России (12 вып. в год); [16] Новые зарубежные журналы. Естественные науки, техника, сельское хозяйство, медицина, М., ГПНТБ России (ежегодник); [17] Current Mathematical Publications, Providence, R. I.; [18] Zentralblatt fur Mathematik und ihre Grenzgebiete. Math. Abstv., Berlin; [19] Statistical Theory and Methods Abstracta, Voorburg, Ned.: Int. Statist. Inst. Справочный материал общематематических формул: [1] Справочник по специальным функциям с формулами, графиками и таблицами, пер. с англ., М., 1979; [2] Прудников А. П., Брыч- ков Ю.А., Маричев О. И., Интегралы и ряды. Элементарные функции, М., 1981; [3] их же, Интегралы и ряды. Специальные функции, М., 1983; [4] их же, Интегралы и ряды. Дополнительные главы, М., 1986; [5] Большее Л. Н., Смирнов Н. В., Таблицы математической статистики, М., 1983; [61 Обер хетти н гер Ф., Преобразования Фурье распределений и их обращения: Таблицы, пер. с англ., М., 1979; [7] Encyclopedia of Biostatistics, N. Y., 1988; [8] «Обозрение прикладной и промышленной математики», М. (6 выпусков в год). Дополнительную информацию об обществе Бернулли, Международном математическом союзе и др. обществах можно получить из журнала «International Statistical Review» и издающихся ежегодно справочниках «ISI Directory; Including Lists of: Isi Members, Statistical Societies, International National Statistical Agencies», Permanent office, L. E. Ke- nessey 428 Prinses Beatrixaan P. O. Box 950. 893
Accademia Nazionale Dei Lincei. Atti. Rendiconti Lincei. Matematica e Applicazioni Accounnting Review ACM Transactions on Mathematical Software ACM Transactions on Modelling and Computer Simulation Acta Applicandae Mathematicae. An Int. Survey J. of Applying Mathematics and Mathematical Applications Acta Cybernetica Acta Mathematica Acta Mathematicae Academia Scientiarium Hungaricae Acta Mathematicae Applicatae Sinica (English ser.) Acta Scientiarum Mathematicarum Acta Universitatis Carolinae. Mathematica et Physica Acta Universitatis Tamperensis, Ser. A Acta Universitatis Uppsaliensis. Studia Philosophica Uppsa- liensia Acta Universitatis Uppsaliensis. Studia Statistica Uppsaliensia Advances in Applied Probability American Economic Review American Educational Research Journal American Journal of Agricultural Economics American Journal of Clinical Oncology American Journal of Epidemiology American Journal of Human Biology American Journal of Human Genetics American Journal of Mathematical and Management Sciences American Journal of Mathematics American Journal of Political Science American Journal of Public Health American Natural is American Political Science Review American Psychologist American Scientist American Sociological Review Amstat News Analele Stiintifice ale Universitai «AI. I. Cura» din Iasi Se- ctiuned I a Matematica Analytical Chemistry Angewandte Statistik und Okonometrie Annales de Tlnstitut Fourier Annales de la Societe Scientifique de Bruxelles /Accad. Naz. Lincei. Matem. AppL Rend. /Accounnt. Rev./Sarasota, FL: Amer. Acconnting Ass. /ACM Trans. Math. Soft./N.Y.: Ass. for Computing Machinery/Вычислит, и программные аспекты примен. ТВ и МС. /ACM Trans. Model. Сотр. Simul./N. Y.: Ass. for Computing Machinery/ Вероятностное моделирование. /Acta Appl. Math./Dordrecht.: Kiuwer Acad. Publ. /Acta Cyber./Szeged, Hungary: Juzsef Attila Univ./Примен. ТВ и МС к задачам кибернетики. /Acta Math., Sweden/Djursholm, Sweden: Inst. Mittag-Lef- fler/Статьи no ТВ и МС. /Acta Math. Hung. / Budapest: Akademia Kiado/Теория и примен. ТВ и МС. /Acta Math. Appl. Sin./Beijing/Примен. ТВ и МС. /Act. Sci. Math./Szeged, Hungary: Bolyai Inst., J. Attila Univ./Общематем. журн. /Acta Univ. Carolin. Math. Phys./Prague: Charles Univ. /Acta Univ. Tamp., Ser. A/Tampere, Finland. /Acta Univ. Upps. Stud. Philos./Uppsala: Uppsala Univ. /Acta Univ. Upps. Stud. Stat. Upps./Uppsala: Uppsala Univ. /Adv. Appl. Prob./Sheffield: Applied Probability Trust/Примен. ТВ. /Amer. Econ. Rev./Nashville/ТВ и МС в экономике. /Amer. Educ. Res. J./Washington, DC: Amer. Educ. Ass./ТВ и МС в обучении и педагогике. /Amer. J. Agric. Econ./Lawrence, КС: Amer. Agric. Ass., Allen Press/Статистич. методы в сельском хозяйстве. /Amer. J. Clin. Oncol. /N. Y.: Raven Press/Статистич. и веро- ятн. методы в онкологии. /Amer. J. Epidem./Baltimore.: Johns Hopkins Univ. School of Hygiene and Public Health. /Статистич. и вероятн. методы в эпидемиологии /Amer. J. Hum. Biol./N. Y.: Alan R. Liss /Статистич. и вероятн. методы в биологии человека. /Amer. J. Hum. Genet./Chicago: Amer. Soc. Hum. Press/Univ. Chic. Press. /Amer. J. Math. Manag. Sci./Syracuse: Amer. Sci. Press /Матем. вероятность. Статистич. методы в управлении. /Amer. J. Math./Baltimore, MD: Johns Hopkins Univ. Press. /Amer. J. Polit. Sci./Austin, TX: Univ. of Texas Press/Матем. методы в политич. науках. /Amer. J. Publ. Health/Washington: Amer. Ass. of Public Health/ Матем. вероятн. и статистич. методы в здравоохранении. /Amer. Natur./Chicago: Univ. of Chicago Press/Примен ТВ и МС в естеств. науках. /Amer. Polit. Sci. Rev./Washington, DC: Amer. Polit. Sci. Ass. /Amer. Psychol./Washington, DC: Amer. Psychol. Ass./Примен. ТВ и МС в психологии. /Amer. Scientist / New Haven: Scientific Res. Soc./Общенаучные статьи. /Amer. Soc. Rev./Washington, DC: Amer. Sociol. Ass./Примен. ТВ и МС в социологич. иссл. /Amst. News/ Alexandria, VA: Amer. Statist. Ass. /Anal. Stiint. Univ. Cura/Jassy, Rumania/Общематем. журн. /Analyt. Chem./Wasington: Amer. Chem. Soc./ТВ и МС в аналитич. химии. /Angew. Statist. Okonom./Gottingen: Vandenhoeck & Rupercht / Прикл. статистика и эконометрика. /Ann. Inst. Fourier/Grenoble: Universite de Grenoble: Probabilities et Statistique/Общематем. и прикл. журн. /Ann. Soc. Sci. Bruxelles/Brussels: Soc. Sci. Вги./Общенауч. журн. 894
Annales de Г Institute Henrie Poincare, Sec. B, Calcul des Probabilities et Statistique Annales de Г Institute National de la Statistique et des Etudes Economiques Annales des Telecommunications Annales Universitatis Scientiarum Budapestiensis de Rolando Eoetves Nominatae, Sect. Math. Annals of Applied Probability Annals of Discrete Mathematics Annals of Economic and Social Measurement Annals of Epidemiology Annals of Human Genetics Annals of Operations Research Annals of the Institute of Statistical Mathematics Annals of the Statistical Institute Annual Review of Biophysica and Bioengineering Annual Review of Public Health Aplikace Matematiky Applicationes Mathematicae Applied Mathematics and Computation Applied Mathematics. A Journal of the Chinese University Applied Psychological Measurement Applied Statistics Applied Stochastic Models and Data Analysis Archaeometry Arkiv foer Mathematik Ars Combinatoria ASA (Amer. Statist. Assoc.) Proceedings of the section on ... Astin Bulletin. A Journal of the International Actuarial Association ASTM Standartization News Astronomy and Astrophysics AT&T Bell Laboratories Technical Journal Atmospheric Environment Atti della Riunione Scientifica del la Societa Italiana di Statistica Automatica Automation and Remote Control Behavioral Science Behaviormetrika Journal of the Behaviormetric Societe of Japan Bernoulli /Ann. Inst. H. Poincare/Montrouge: Gautier-Villars/Общематем. и прикл. журн. /Ann. Inst. Nat. Statist. Etud. Econ./Paris: Inst. Nat. Statist. Etud. Econ./Примен. ТВ и МС в статистико-экономич. иссл. /Ann. Telec./Issy-les-Moulineaux, France: Centre Nat. d'Etu- des des Telecommunications/ТВ и МС в связи. /Ann. Univ. Sci. Budapest/Budapest, Hungary/Общематем. журн. /Ann. Appl. Prob./Hay ward: Institute of Mathematical Statistics. /Ann. Discrete Math./Amsterdam: Elsevier /North-Holland. /Ann. Econ. Soc. Measur./Cambridge, MA; N. Y. /Измерения в соц. науках. /Ann. Epidem./N. Y.- Amsterdam: Elsevier /North-Holland /Примен. ТВ и МС в эпидемиологии. /Ann. Hum. Gen./Cambridge Univ. Press/ Примен. ТВ и МС в генетике человека. /Ann. Oper. Res./Basel: Baltzer/TB и МС в иссл. операций. /Ann. Inst. Statist. Math./Tokyo: Inst. Statist. Math./Статьи по ТВ и МС. /Ann. Statist. Inst./Bari, Italy. Univ. Bari. /Ann. Rev. Bioph. Bioeng./Palo Alto: Ann. Rev./ТВ и МС в биофизике и биоинженерии. /Ann. Rev. Publ. Health./Palo Alto: Ann. Rev./Статистич. данные МС в здравоохранении. /Aplik. Matem. / Prague: Ceska Akademie Ved/TB, МС и их примен. /Appl. Math. /Warsaw: Polish Scientific./ТВ, МС и прилож. /Appl. Math. Comput./N. Y. -Amsterdam: Elsevier/North-Holland/ТВ, МС и вычисления. /Appl. Math. A J. Chin. Univ./Hangrhon: Zhejiang Uni./TB, МС и примен. /Appl. Psych. Measur. / Minneapolis: Univ. of Minnesota/Примен. ТВ, МС в психологич. измерениях. /Appl. Statist./L.: Royal Statist. Soc./Прикл. статистика. /Appl. Stoch. Mod. Data Anal./N. Y.: Wiley/Примен. ТВ и МС. /Archaeom./Oxford, UK/Измерения в археологии. /Ark. Math./Djurshoim, Sweden: Institut Miffag-Leffler/TB, MC. /Ars Combin./Winnipeg, MB: Charles Babbage Res. Centre. /ASA Proc. ... > 15 серий /Alexandria, VA: Amer. Statist. Ass./Tp. по статистике по предм. областям. /Astin Bull. /Leuven, Belgium: Int. Act. Ass./TB и МС в страховом деле. /ASTM Stand. News/Philadelfia: Amer. Soc. for Testing and Materials /ТВ и МС в испытании и стандартизации материалов. /Astron. Astroph./ Amsterdam, N. Y.: Elsevier /Журн. по астрономии и астрофизике. /AT&T Tech. J./Short Hills, N. Y.: Bell Laboratories, Circulation Dept. / Общетехнич. журн. с примен. ТВ и МС. /Atmosph. Envir./N. Y., Oxford: Pergamon/Примен. ТВ и MC в атмосферных иссл. /Att. Riun. Scient. Soc. Ital. Statist. / Rome:Societa Italiana di Statistica/Журн. Итал. статистич. об-ва. /Autom./N. Y., Oxford: Pergamon/TB и МС в автоматике. /Autom. Rem. Cont./N. Y., L.: Plenum/Пер. с рус: «Автоматика и телемеханика». Журн. по автоматич. управл., прикл. систематич. анализу, иссл. операций, матем. экономике. /Beh. Sci./Louisvelle, KY: Systems Sci. Publ., Unim. of Louisville /ТВ и МС в науке о поведении. /Behavior/Tokyo: Institute of Statistical Mathematics/Статистич. методы в изучении поведения человека и др. животных. / Bernoulli/L., N. Y.: Chapman & Hall /Журн. об-ва Бернулли по ТВ и МС. 895
Biometrical Journal. J. of Mathematical Methods in Biosciences Biometrics Biometrie-Praximetrie Biometrika Blatter der Deutschen Geselschaft fur Versicherungs-Mathe- matik (Papers of the German Soc. for Insurance Mathem.) British Journal of Cancer British Journal of Preventive and Social Medicine British Journal of Psychology Bulletin de la Societe Mathematique de Belgique, ser. А, В Bulletin de la Societe Mathematique de France Bulletin de l'Academie Polonaise des Sciences; ser. des Sciences Mathematiques, Astronomiques et Physiques Bulletin de Mathematigues Economiques Bulletin in Applied Statistics Bulletin of Mathematical Biology Bulletin of Mathematical Statistics Bulletin of the American Mathematical Society Bulletin of the Biometric Society of Japan Bulletin of the Institute of Mathematical Statistics Bulletin of the International Statistical Institute Cahiers d'Anthropologic et Biometrie Humaine Cahiers de Centre d'Etude de Recherche Operationnelle Cahiers du Bureau Universitaire de Recherche Operationnell Cahiers Seminaire d'Econometrie Calcutta Statistical Association Bulletin Canadian Journal of Mathematics Canadian Journal of Statistics Cancer Clinical Trials Chance, New Directions for Statistics and Computers Chaos. An Interdisciplinary Journal of Nonlinear Sciences Chechoslovak Mathematical Journal Chemometrics and Intelligent Laboratory Systems Chemometrics: Theory & Application Chinese Journal of Applied Probability and Statistics Classification and Clustering Columbia Law Review Combinatorial Mathematics Combinatorica /Biom. J./Berlin: Akademie-Verlag/TB и МС в биологии. /Bioms./Washington, DC: Intern. Biometric Soc. /Вероятн. и статистич. методы в биологии, медицине и т. п. /Biomet.-Prax./Gembloux, Belgium: Fac. Sci, Agron./Биометрии, журн. (статистич. методы в биологии). /Biom. /London: Imperial College/ТВ и МС в биологии и близких предм. обл. /Bull. Deutsch. Gesel. Versich.-Math./Munich. Germany: German. Soc. for Insur. Mathematics/Журн. по страховой математике. /Brit. J. Cancer/L.: Brit. Medical Ass. /Brit. J. Prevent. Soc. Med./L.: Brit. Med. Ass,/ТВ и МС в профилактич. и социальной медицине. /Brit. J. Psychol./L.: Brit. Psychol. Soc./ТВ и МС в психологии. /Bull. Soc. Math. Belg., ser. A, B/Brussels: Soc. Math, de Belgique/Общематем. журн. /Bull. Soc. Math. France / Paris: Soc. Math, de France/Общематем. журн. /Bull. Acad. Pol. Sci. Ser. Sci. Math., Astron., Phys./Warsaw: Polish Scientific/Общий физ.-матем, журн. /Bull. Math. Econ./France/ТВ и МС в экономике. /Bull. Appl. Statist./Sheffield: Dept. Prob. Statist., Univ. of Sheffield / Прикл. статистика. /Bull. Math. Biol./N. Y.,Oxford: Pergamon/TB и МС в биологии. /Bull. Math. Statist. /Fukuoka, Japan: Res. Ass. Statist Sci., Kyushu Univ./MC. /Bull. Amer. Math. Soc./Providence, RI: Amer, Math Soc. /Общематем. журн. /Bull. Biom. Soc./Tokyo: Biometric Soc. of Japan/MC и биометрика. /Bull. Inst. Math. Statist./Hayward: Inst. Math. Statist. /Bull. Int. Statist. Inst./Voorburg, The Netherlands/Инфор- мац. журн. Между нар. статистич. ин-та. /Cah. Anthr. Biometr. Hum./Paris: Soc. de Biometrit» Humaine/ТВ, МС в изучении человека. /Cah.Centr. d'Et. Rech. Oper./Brussels: Univ. Brus./ТВ и МС в иссл. операций. /Cah. Bur. Univ. Rech. Oper./France/Тр. по иссл. операций, ТВ, МС. /Cah. Sem. d'Econ./Записки семинара по эконометрике. /Calc. Statist. Ass. Bull./Calcutta: Dept. Statist. Calcutta Univ./MC. /Canad. J. Math./Ottawa: Canadian Math. Soc./Общематем. журн., ТВ и МС. /Canad. J. Statist./Montreal: McGill Univ./ТВ, МС. /Cane. Clin. Tri./Paris, N. Y.: Masson/TB, МС в клинич. онкологич. испытаниях. /Chance/Alexandria, VA: Amer. Statist. Ass./Журн. по ТВ и МС. /Chaos/Woodbury, N. Y.: Amer. Inst. Phys. /Chech. Math. J./Prague: Acad, of Sci. of the Chech. Republic/Общематем. журн. /Chemometr. Intel. Lab./N. Y., Amsterdam: Elsevier/North- Holland /ТВ и МС в химии. /Chemom. Th. Appl./Washington, DC: American Chemical Soc. /Chin. J. Appl. Prob. Statist./Shanghai: East China Normal Univ./ТВ и МС. /Class. Clust./L., N. Y.: Academic /ТВ и МС в задачах классификации. /Columb. Law Rev./N. Y.: Columbia Univ., School of Law. / Comb. Math. /Berlin, N. Y.: Springer-Verlag/ Комбинаторика, ТВ, МС. / Combinat. /N. Y., Amsterdam: Elsevier/North-Holland/ Комбинаторика, ТВ и МС. 896
Communicaciones Texnicas Communications at the Association for Computing Machinery Communications de la Faculte de Sciences de l'Universite d'Ankara, Ser. A. Math. - Physique - Astronomie Communications in Statistics, pt A.- Theory and Methods Communications in Statistics, pt В.- Simulation and Computation Communications in Statistics. Stochastic Models Communications on Pure and Applied Mathematics COMPSTAT-2-11, 2-nd - 11-th. Symposium on Computational Statistics, 1976 Comptes Rendus de l'Academie des Sciences, ser. 1 Mathema- f:ique Comptes Rendus Hebdomadaires des Seances de l'Academie des Sciences Paris Computational & Mathematical Organization Theory Computational Economics (Взамен: Computer Science in Economics and Management, с 1993) Computational Statistics Computational Statistics and Data Analysis Computer Graphics and Image Processing Computer Vision, Graphic and Image Processing Computers & Geoscience Computers and Biomedical Research Computers and Graphic Computers and Mathematics with Applications, pt A Computers and Operations Research Computers in Biology and Medicine Computer Methods and Programs in Biomedicine Conference on Information Theory, Statistical Decision Functions, Random Processes Contribuciones en Probabilidad у Estadistica Matematica Controlled Clinical Trials Criminometrica Cuadernos de Bioestadistica у sus Applicaciones Informatica Current Index to Statistics Current Mathematical Publications Cybernetics and Systems An International Journals Data Analysis and Informatics Decision Sciences Defence Management Journal Development in Statistics, vols. 1, 2, 3, 4 /Commun. Texn./Mexico City/ТВ и МС в технике. /Comm. ACM/N. Y.: Ass. for Сотр. Machinery/см.: ACM Comm. /Comm. Fac. Sci. Univ. Ankara/Ankara, Turkey: Univ. Ankara/Общий физ.-матем. журн. /Comm. Statist. Th. Meth./N.Y.: Marcel Dekker/MC и примен. /Comm. Statist. Simul. Comput./N. Y.: Marcel Dekker/MC и ее примен.; вычислит, аспекты, моделирование. /Comm. Statist. Stoch. Mod./N. Y.: Marcel Dekker/MC и примен., модели. /Comm. Pure Appl. Math./Somerset, N. Y.: Wiley-Inter- science/Прикл. математика, ТВ и МС. /Традиционные конференции по вычислит, статистике. /Сотр. Rend. Acad. Sci./Paris: Acad. Sci. /Сотр. Rend. Hebd. Sea. Acad. Sci. Paris/Montrouge: Dunod: Gauthier-Villar/Докл. Парижской АН. /Comput. Math. Organ. Theory/Hingham: Kluwer Acad. Publ. / Comput. Econ. / Dordrecht etc. /Сотр. Statist. /Heidelberg: Psysica-Verlag. /Сотр. Statist. Dat. Anal./N. Y., Amsterdam: Elsevier /North- Holland/ Вычислит, статистика и анализ данных. /Сотр. Graph. Im. Proc./N. Y., L.: Academic/ТВ, МС, компьютерная графика и анализ изображений. /Сотр. Vis. Graph. Im. Proc./N. Y., L.: Academic/Компьютерное зрение, графика и обработка изображений - ТВ и МС. /Сотр. Geosci. /N. Y., Oxford: Pergamon/TB, МС в компьютерной геологии. /Сотр. Biom. Res./N. Y., L.: Academic/ТВ и МС в биомед. вычислениях. /Сотр. Graph. /N. Y., Oxford: Pergamon/Компьютерная графика. /Сотр. Math. Appl./N. Y., Oxford: Pergamon/TB, МС в комплексных вычислениях. /Сотр. Орег. Res./N. Y., Pergamon/Вычисления в иссл. операций. /Сотр. Biol. Med./N. Y., Oxford: Pergamon/TB, МС в биомед. иссл. /Сотр. Meth. Prog. Biomed./N. Y., Amsterdam: Elsevier/North-Holland/ТВ, МС в биомед. вычислениях. /Conf. Inform. Th. /Prague: D. Reidel/Традиц. Пражские конференции. /Contr. Prob. Estad. Mat. / Zaragoza, Spain: Dept. de Ectadis- tica, Univ. Zaragosa/TB, MC. /Contr. Clin. Tri./N. Y., Amsterdam: Elsevier /North-Holland /ТВ, МС в клинич. испытаниях. /Criminometr./Edmonton: Univ. of Alberta Press/Измерение в криминалистике, ТВ, МС в примен. /Cuad. Bioestad. Appl. Inf. /Zaragosa, Spain: Facultade Medicina, Univ. Zaragoza / Записки по МС в биологии и примен. МС. /Сшт. Ind. Statist./Alexandria, VA: Amer. Statist. Ass., Hay- ward: Inst. Math. Statist./Ежегодный указатель публ. по МС, ТВ. /Сшт. Math. Publ./Providence, RI: Amer. Math. Soc. /Cyb. Sy st./Washington: Hemisphere/Журн. по кибернетике и системному анализу. /Data Anal. Inf. /Le Cheshay: Inst, de Recherche en Informa- tique et en Automatique/уКурн. по анализу данных, МС и проч. /Dec. Sci./Stanford: Stanford Univ. / Def. Man. J. / Alexandria, VA: Dept. of Defence, N. Y.: Marcel Dekker/TB и МС в военном управлении. /Krishnaiah P.R. eds/N. Y., L.: Academic/Сб. статей-глав. 897
Discrete Applied Mathematics Discrete Mathematics Diskretnaja Matematica Diskretnyji Analiz i Issledovanie Operatsii Doklady Akademii Nauk Armyanskoi SSR Doklady Akademii Nauk Belorusskoi SSR Doklady Akademii Nauk SSSR Doklady Akademii Nauk Ukrainskoi SSR, ser. fiz-mat i techn. Doklady Akademii Nauk Uzbekskoi SSR Drug Research Duke Mathematical Journal Econometric Reviews Econometric Theory Econometrica Economic Journal Economic Quality Control Economic Theory, Econometrics and Mathematical Economics Economica, London Economica, Paris Educational and Psychological Measurement Educational Psychologist Eesti NSV Teaduste Akadeemia Toimetised Fiisika-Matematika. Encyclopedia of Statistical Sciences Electronic Journal of Probability Engineering Cybernetics /Discr. Appl. Math./N.Y., Amsterdam: Elsevier/North-Holland/ТВ, MC в дискретной математике и примем. /Discr. Math./N.Y., Amsterdam: Elsevier/North-Holland /ТВ, МС в задачах дискретной математики. /Discr. Matem./Moscow/ /Diskret. Anal. Issled. Oper./Novosibirsk: Ross. Akad. Nauk, Sibirsk. Otdel. Inst. Math. /Dokl. AN Armen./J. of the Academy of Sciences of Armenia/Erevan, Armenia /Общенауч. журн. /Dokl. AN Belor./J. of the Academy of Sciences of Belorus- sia/ Minsk, Belorussia/Общенауч. журн. /Dokl. AN SSSR/Moscow/Общенауч. журн. /Dokl. AN Ukr. , ser. fiz-mat i techn./ J. of the Academy of Sciences of Ukraine/Общий фнз.-матем., техннч. журн. /Dokl. AN Uzbek. SSK/Tashkent/Общенауч. журн. /Drug Res./Aulendorf, Germany: Editio Cautor/Статистич. нссл. лекарств. /Duke Math. J./Durham: Duke Univ. Press/Общематем. журн. /Econom. Rev./N. Y.: Marcel Dekker/Журн. по эконометрике. /Econom. Th./Cambridge, UK: Cambridge Univ. Press /Журн. по эконометрике. /Econom./Oxford: Blackwell Scientific. /Econ. J./Oxford: Royal Economic Society, Blackwell Scientific / Общеэкономич. журн. /Econ. Qual. Contr./Wurzburg: Inst, fur Angewandte Math. und Statistik. /Econ. Theory Econom. Math. Econ./San Diego, CA: Academic Press. / Economica/L.: London School of Economics & Political Science / Общеэкономич. журн. / Economica / Paris / Общеэкономич. жури. /Educ. Psych. Meas./Newbury Park, CA: Sage/Журн. об измерениях в педагогике и психологии, тестах. /Educ. Psych./Washington: Amer. Psychol. Assoc./Журн. о педагогич. психологии, ТВ и МС. /Eest. NSV Tead. Akad. Fiz.-Mat./Tallinn: Keriastus Perio- dika/Физ.-матем., ТВ и МС. /Enc. Statist. Sci. /N. Y.: Wiley / Многотомник, материалы по МС и ее примен. /Electron. J. Probab./Seattle, WA: Electron J. Probab. and Electron Comm. Probab. /Eng. Cvber. /Transl. of Tehniceskaja Kibernetika/Russian J./Washington : Scripta/Журн. по технич. кибернетике. /Env. Ecol. Statist./L., N. Y.: Chapman & Hall/MC в охране окружающей среды. /Env. Health. Quant. Meth./Philadelphia: Soc. for Industrial and Appl. Math. (SIAM). / Environmetr. /N. Y.: Wiley. /Epidem./Oxford: Blackwell/Общеэпидемиологич. журн. /Epidem. Inf. / Cambridge, UK: Camb. Univ. Press/ Общеэпидемиологич. журн. /Ergodic Theory Dynam. Systems/N. Y.: Cambridge Untv. Press. /Estadist./Panama Sity: Inter-Amer. Statist. Inst./Общеста- тистич. журн. /Estadist. Esp./Madrid: Inst. Nacional de Estadistica/MC и примен. /Eur. J. Combin./L.: Academic Press. /Eur. J. Oper. Res. /Evaluat./Minneapolis: Minneapolis Med. Rev. Found./Примен. MC. /Eval. Stud. Rev. Ann./Newbury Park, CA, L.: Sage. /Evolut./Lawrence, KS: Allen Press. /Fin. Stoch./Berlin: Springer-Verlag. /Fuz. Sets Syst./N. Y., Amsterdam: Elsevier/North-Hoi land. Environmental and Ecological Statistics Environmental Health: Quantitative Methods Env iron metrics Epidemiology Epidemiology and Infection Ergodic Theory and Dynamical Systems Estadist ica Estadistica Espaflola European Journal of Combinatorics European Journal of Operational Research Evaluation Evaluation Studies, Review Annal Evolution Finance and Stochastic Fuzzy Sets and Systems 898
Gaceta Matematica (Madrid) Genetical Research Genetics Genomics Geochemistry International Geophysical Journal of the Royal Astronomical Society Geophysics Journal of the Society of Exploration Geophysicists Giornale del Г Institute Italiano degli Attuary Godishnik na Sofiuiskiya Universitet «St. Kliment Ohridski», Fak. Mat. Informatika. Annuaire de I'Universite de Sofia... Graphical Models and Image Processing Graphs and Combinatorics Gujarat Statistical Review Handbook of Statistics, vols. 1-12 Handbooks in Operations Research and Managing Science Houston Journal of Mathematics Human Factors IAPQR Transactions, Journal of the Indian Association for Productivity, Quality & Reliability IBM Journal Research and Development IBM Systems Journal IEEE Software Engineering IEEE Spectrum IEEE Transaction on System, Man. and Cybernetics IEEE Transactions on Acoustics, Speech and Signal Processing IEEE Transactions on Automatic Control IEEE Transactions on Communications IEEE Transactions on Computers IEEE Transactions on Geoscience Electronics IEEE Transactions on Information Theory IEEE Transactions on Neural Networks IEEE Transactions on Pattern Analysis and Machine Intelligence IEEE Transactions on Power Systems IEEE Transactions on Reliability IEEE Transactions on Signal Processing IEEE Transactions on Aerospace and Electronic Systems Illinois Journal of Mathematics IMA Journal of Applied Mathematics IMA Journal of Numerical Analysis Indagationes Mathematical Indagationes Mathematical (New Series). Koninklijke Neder- landse Akademie van Wetenschappen. Proceedings Indian Journal of Pure and Applied Mathematics (NFOR, Canadian Journal of Information Processing and Operational Research Society Information and Control information and Statistical Analysis for Regional and Subre- gional Areas Information Processing and Management information Processing Letters Information Sciences Informational Economic Review Institut des Hautes Etudes Scientifiques Publications Mathema- tiques /Gac. Mat./Madrid: Inst. Jorge Juan, Roy. Span. Math. Soc./Общематем. журн. /Genet. Res./Cambridge, UK: Cambridge Univ. Press/ТВ, MC в генетич. иссл. /Genet./Austin, TX: Genetics Soc. of America/ТВ, МС в генетике. /Genom./N. Y., L.: Academic/ Геиом, ТВ, МС. /Geom. Int./N.Y.: Wiley/Геохимия, ТВ, МС. /Geoph. J. Roy. Astr. Soc./Oxford: Blackwell Sci./TB, MC в геофизике. /Geoph. J. Soc. Expl. Geoph./Tulsa, OK: Soc. of Expl. Geoph. /Giorn. Inst. Ital. Att./Rome, Italy/Журн. об-ва актуариев (страховщиков). /Ann. Univ. Sofia Fac. Math. Inform./Sofia: Univ. Press. /Graph. Mod. Im. Proc./N.Y., L.: Academic/Графич. методы, распознавание образов, ТВ, МС в примен. /Graph. Comb./Berlin, N. Y.: Springer-Verlang. /Guj. Stat. Rev./Ahmedabad, India. /Handbook Statist./N.Y., Amsterdam: Elsevier/North-Holland/Многотомник, состоящий из глав по определ. теме. /Handbooks Oper. Res. Manag. Sci. / Amsterdam/North- Holland/Серия руководств по иссл. операций и менеджменту. /Houst. J. Math./Houston, TX: Univ. Houston, Dept. Math. /Hum. Fact./Santa Monica, Human Factors Soc./Компл. иссл. о человеке. /IAPQR/Calcutta: Dept. Statist., Calcutta Univ. /IBM J. Res. Dev./Armonk, N. Y.: Int. Business Machines. /IBM System J./Armonk, N. Y.: Int. Business Machines. /IEEE Soft. Eng./N. Y.: IEEE. /IEEESpectr./N.Y.: IEEE. /IEEE Trans. Syst. Man. Cyb./N. Y.: IEEE. /IEEE Trans. Acoust. Speech Sign. Proc./N. Y.: IEEE. /IEEE Trans. Autom. Cont./N.Y.: IEEE. /Trans. Commun./N. Y.: IEEE. /IEEE Trans. Computers/Comput./N. Y.: IEEE. /IEEE Trans. Geosc. Electron./N. Y.: IEEE. /IEEE Trans. Inform. Th./N. Y.: IEEE. /IEEE Trans. Neur. Net./N. Y.: IEEE. /IEEE Trans. Patt. Anal. Mach. Intel./N. Y.: IEEE. /IEEE Trans. Pow. Syst./N. Y.: IEEE. /IEEE Trans. Reliab./N. Y.: IEEE. /IEEE Trans. Sign. Proc./N. Y.: IEEE. /IEEE Trans. Aerosp. Electron. Syst./N. Y.: IEEE. /111. J. Math./Champaign, IL: Univ. of 111. /IMA J. Appl. Math./N.Y., L.: Academic. /IMA J. Num. Anal./N. Y., L.: Academic. /Indag. Math./N.Y., Amsterdam: Elsevier/North-Holland. /Indag. Math. New Ser./N. Y., Amsterdam: Elsevier/North- Holland/Докл. Академии наук, Нидерланды. /Ind. J. Pure Appl. Math./New Delhi/Indian Nat. Sci. Acad. /INFOR/Downsview, Ontario: Univ. of Toronto Press. /Inf. Cont./N.Y., L.: Academic. /Inf. Statist. Anal. Reg. Subreg. Ar./Rome: Soc. Ital. Di Statistic/Статистич. методы в регион, иссл. /Inf. Proc. Manag./N. Y., Oxford: Pergamon. /Inf. Proc. Let./Amsterdam, N. Y.: Elsevier /North-Holland. /Inf. Sci./N. Y., Amsterdam: Elsevier/North-Holland. /Inf. Econ. Rev./Philadelphia, Osaka, Japan: Univ. Pennsylvania Press, Univ. Osaca Prefecture. /Inst. Haut. Et. Sci. Publ. Math./Paris: Presses Univ. France. 899
Insurance Mathematics and Economics Insurance: Mathematics and Economics Interfaces, Journal of the Institute of Management Sciences and the Operations Research Society of America International Journal of Bio-Medical Computing International Journal Man-Machine Studies International Journal of Adaptive Control and Signal International Journal of Climatology International Journal of Clinical Pharmacology and Biophar- macy International Journal of Computer and Information Sciences International Journal of Control International Journal of Educational Research International Journal of Epidemiology International Journal of Forecasting International Journal of Game Theory International Journal of General Systems International Journal of Management and Systems International Journal of Mathematical and Statistical Sciences/continued as Int. J. Math. Statist. Sci., Miami, FL: Thesaurus International Journal of Mathematical Education in Science and Technology International Journal of Radiation Biology International Journal of Robust and Nonlinear Control International Journal of System Science International Journal of Uncertainty, Fuzziness and Knowledge- Based Systems International Statistical Information. Statistical Education Newsletter International Statistical Review Israel Journal of Mathematics Israel Journal of Statistics Itogi Nauki i Tekhniki, ser. Teorya Veroyatnostei, Mat. Statist., Teor. Kibernet. Izvestija Akademii Nauk Armjanskoi SSR, ser. Matematika Izvestija Akademii Nauk Azerbaidzanskoi SSR, ser. Fiziko- Tekhnicheskikh i Matematicheskikh Nauk Izvestija Akademii Nauk Estonskoi SSR, Fizika i Matematika Izvestija Akademii Nauk Kazakhskoi SSR, ser. Fiziko- Matematicheskaja Izvestija Akademii Nauk Moldavskoi SSR, ser. Fiziko- Teknnicheskikh i Matematicheskikh Nauk Izvestija Akademii Nauk SSSR, ser. Matematicheskaja Izvestija Akademii Nauk Turkmenskoi SSR, ser. Fiziko- Teknnicheskikh, Himicheskikh i Geologicheskikh Nauk Izvestija Akademii Nauk Uzbekskoi SSR, ser. Fiziko- Matematicheskikh Nauk Izvestija Vysshikh Uchebnykh Zavedenij, Matematika, Kazan Izvestija Vysshikh Uchebnykh Zavedenij, ser. Radiofizika, Mi- nisterstvo Vysshego i Srednego Spetsial'nogo Obrazovanija Japanese Journal of Applied Statistics Japanese Journal of Behaviometrics Japanese Journal of Biometrics Journal de Mathematiques Pures et Appliquees Journal de Societe de Statistique de Paris /Insur. Math. Econ./N. Y., Amsterdam: Elsevier/North-Holland/Журн. о матем. методах в страховании. /Insur. Math. Econ./Amsterdam. /Interfaces/Providence: Inst. Manag. Sci. Oper. Res. Soc. Amer. /Int. J. Bio-Med. Comp./N. Y., Amsterdam: Elsevier/North- Holland. /Int. J. Man-Mach. Stud. /Int. J. Adapt. Cont. Sign. Process./N. Y.: IEEE. /Int. J. Climat./N.Y.: Wiley. /Int. J. Clin. Pharm. Bioph./Miinchen - Deisenhofen/Verlag Dr. Karl Feistle. /Int. J. Сотр. Inf. Sci./N. Y., L.: Plenum. /Int. J. Control/L.: Taylor & Frances. /Int. J. Educ. Res./N. Y., Oxford: Pergamon. /Int. J. Epidem. / Oxford: Oxford Univ. Press/Журн. по эпидемиологии. /Int. J. Forecast. /Amsterdam, N. Y.: Elsevier/North-Holland. /Int. J. Game Th./Heidelberg: Physica-Verlag. /Int. J. Gen. Syst./L.f N. Y.: Gordon and Breach Science/Журн. по общей теории систем. /Int. J. Manag. Syst./New Delhi: Technocrat. /Int. J. Math. Statist. Sci./Carmichael, CA: Berkley-Cambridge Press. /Int. J. Math. Educ. Sci. Tech./L.: Taylor & Frances. /Int. J. Rad. Biol./L.: Taylor & Frances. /Int. J. Robust Nonlin. Contr./Chichester: Wiley. /Int. J. Syst. Sci./L.: Taylor & Francis. /Int. J. Uncertain. Fuz. Knowl.-Bas. Syst./Singapore: World Sci. Pubi. /Int. Statist. Inf. /Int. Statist. Rev./Voorburg. The Netherlands: Int. Statist. Inst. /Israel J. Math./Jerusalem: Magnes Press, Habrew Univ. /Israel J. Stat. / Itogi/ Moscow: VINITI / Несколько томов в год с обзорами. /Izv. Akad. Nauk Armjan. SSR, ser. Mat./Erevan. /Izv. Akad. Nauk Azer. SSR, ser. Fiz.-Tekhn. Mat./Baku. /Izv. Akad. Nauk Eston. SSR/Tallinn. /Izv. Akad. Nauk Kazakh. SSR, ser. Fiz.-Mat./Alma-Ata. /Izv. Akad. Nauk Mold. SSR, ser. Fiz.-Tekhn. Mat./Kishinev. /Izv. Akad. Nauk SSSR/Moscow. /Izv. Akad. Nauk Turkm. SSR/Ashkhabad. /Izv. Akad. Nauk Uzbek. SSR, ser. Fiz.-Mat./Tashkent. /Izv. Vyssh. Uchebn. Zaved., Matem./Trans!. as Soviet Math. N. Y.: Allerton Press./Izv. Vyssh. Uchebn. Zaved. Matem./Kazan. /Izv. Vyssh. Uchebn. Zaved. Radiofizika/Moscow. /Jap. J. Appl. Statist./Yokohama, Japan: Jap. Soc. of Appl. Statist., Dept. Math. Keio Univ. /Jap. J. Behaviometr./Tokyo: The Behaviometr. Soc. Jap. Inst. Statist. Math./Поведенческие науки. /Jap. J. Biometrics/Tokyo: Biometric Soc. of Japan. /J. Math. Pur. Appl./Montrouge: Dunod-Gauthier-Villars. /J. Soc. Statist. Paris/Nancy, France: Soc. de Statistique de Paris. 900
Journal for Research in Mathematics Education Journal fur die Reine und Angewandte Mathematik Journal Geophysical Research Journal of Global Optimization Journal of Hygiene Journal of Accounting Research Journal of Acquired Immune Deficiency Syndromes Journal of Advertising Research Journal of Agricultural Science Journal of Agricultural, Biological and Environmental Statistics Journal of Algorithms Journal of Anymal Science Journal of Applied Behavioral Analysis Journal of Applied Behavioral Science Journal of Applied Econometrics Journal of Applied Mathematics & Decision Sciences Journal of Applied Mathematics and Stochastic Analysis Journal of Applied Meteorology Journal of Applied Probability Journal of Applied Statistical Science Journal of Applied Statistics Journal of Approximation Theory Journal of Behavioral Decision Making Journal of Biopharmaceutical Statistics Journal of Business and Economic Statistics Journal of Business Forecasting, Methods and Systems Journal of Chemometrics Journal of Chinese Statistical Assotiation Journal of Classification Journal of Clinical Computing Journal of Combinatorial Design Journal of Combinatorial Theory, ser. А, В Journal of Combinatorics, Information and System Sciences New Delhi: Forum for Interdisciplinary Mathematics Journal of Comparative Economics Journal of Computational and Graphical Statistics Journal of Computing and Information Technology Journal of Computional & Applied Mathematics Journal of Consumer Research Journal of Cost Analysis Journal of Criminal Justice Journal of Cryptology. The Journal of the International Association for Cryptology & Research Journal of Documentation Journal of Econometrics Journal of Economic and Social Measurement Journal of Economic Dynamics and Control Journal of Economic Literature Journal of Economic Perspectives Journal of Economic Theory Journal of Educational and Behavioral Statistics Journal of Educational Measurement Journal of Educational Statistics /J. Res. Math. Educ./Reston, VA: National Council of Teachers of Mathematics. /J. Reine Angew. Math./Berlin. /J. Geoph. Res./Washington: Amer. Geophys. Univ. /J. Glob. Optim./Dordrecht, Norwell, MA: Kluwer Academic. /J. Hyg./Cambridge, UK: Cambridge Univ. Press. /J. Account. Res. / Chicago: Univ. of Chicago Press. /J. Acq. Imm. Def. Syndrom. /N. Y.: Raven Press. /J. Adv. Res./N. Y.: Advertising Res. Found. /J. Agric. Sci./Cambridge, UK: Cambridge Univ. Press. /J. Agric. Biol. Env. Statist./Alexandria, VA: Amer. Statist., Ass. /J. Algor./N. Y., L.: Academic. /J. Anym. Sci./Champaign, IL: Amer. Soc. Anym. Sci. /J. Appl. Beh. Anal./Lawrence, KS: Dept. Hum. Beh. Univ. of Kanzas. /J. Appl. Beh. Sci./Greenwich, CT: JAT, Press. /J. Appl. Econometrics/N. Y.: Wiley. /J. Appl. Math. Decis. Sci./Palmerston North: J. Appl. Math. Decis. Sci./Журн. по принятию решений. /J. Appl. Math. Stoch. Anal./Pittsburgh: Soc. Appl. Math. Model. Simul. /J. Appl. Met./Boston: Amer. Meteorol. Soc. /J. Appl. Prob./Sheffield: Appl. Prob. Trust. /J. Appl. Statist. Sci./Commack, N. Y.: Nova Science. /J. Appl. Statist./Dunnelon, FL: Carfax. /J. Appr. Th./N. Y., L.: Academic. /J. Behav. Dec. Мак. /J. Biopharm. Statist./N.Y.: Marcel Dekker. /J. Bus. Econ. Statist./Alexandria, VA: Amer. Statist. Ass. /J. Bus. Forec. Meth. Syst./Flushing, N. Y.: Graceway. /J. Chemometr./N.Y. /J. Chin. Statist. Ass./Taipei: Chin. Statist. Ass. /J. Classification / Secaucus, N. Y.: Springer-Verlag. /J. Clin. Comput./Cambridge, MA. /J. Comb. Design/N. Y.: Wiley. /J. Comb. Th., ser. A, B/N. Y., L.: Academic. /J. Comb. Inf. Syst. Sci./New Delhi/Prints India. /J. Compar. Econ. /J. Comput. Graph. Statist./Alexandria, VA: Amer. Statist. Ass. /J. Comput. Inf. Tech./Zagreb: Univ. Comput. Centre. /J. Comput. Appl. Math./N. Y., Amsterdam: Elsevier/North- Holland /J. Consum. Res. / Los Angeles, UKLA; Grad. School of Manag. /J. Cost Anal./Alexandria, VA: Soc. for Cost Estimating and Analysis. /J. Crim. Just./N. Y., Oxford: Pergamon. /J. Crypt./N. Y.: Springer-Verlag. /J. Documentation/L.: ASLIB, Ass. for Information Manag. /Журн. об измерениях в соц. науках. /J. Econometr./N. Y., Amsterdam. /J. Econ. Soc. Meas./Amsterdam: I. O. S. Press. /J. Econ. Dyn. Cont./N. Y., Amsterdam: Elsevier/North- Holland. /J. Econ. Liter./Nashville: Amer. Econ. Ass. /J. Econ. Persp./Nashville: Amer. Econ. Ass. /J. Econ. Th./N. Y., L.: Academic. /J. Educ. Behav. Statist./Washington: Amer. Educ. Ass. /J. Educ. Meas./Washington, DC: Nat. Councel on Measurement in Education. /J. Educ. Statist./Washington: Amer. Educ. Res. Ass. 901
Journal of Financial and Quantitative Analysis Journal of Forecasting Journal of Functional Analysis Journal of Fuzzy Mathematics Journal of Graph Algorithms and Applications Journal of Graph Theory Journal of Hydrology Journal of Irreproducible Results Journal of Marketing Journal of Marketing Research Journal of Mathematical Biology Journal of Mathematical Economics N Journal of Mathematical Physics Journal of Mathematical Psychology Journal of Multi-Criteria Decision Analysis Journal of Multivariate Analysis Journal of Naval Research Journal of Nonparametric Statistic Journal of Official Statistics Journal of Optimization Theory and Applications Journal of Parametrics Journal of Personality and Social Psychology Journal of Pharmaceutical and Biomedical Analysis Journal of Physical Chemistry Journal of Political Economy Journal of Quality Technology Journal of Quantitative Anthropology Journal of Regional Science Journal of Research in Crime and Delinguency Journal of Research of the National Bureau of Standarts Journal of Risk and Uncertainty Journal of Statistical Computation and Simulation Journal of Statistical Physics Journal of Statistical Planning and Inference Journal of Statistical Research Journal of Statistics Education Journal of Systems Sciences and Mathematical Sciences Journal of the Air Pollution Control Association Journal of the American Statistical Association Journal of the Association for Computing Machinery Journal of the Atmospheric Sciences Journal of the Australian Mathematical Society, ser. А, В Journal of the Franklin Institute Journal of the Indian Society of Agricultural Statistics Journal of the Indian Society of Statistics and Operation Research Journal of the Indian Statistical Association Journal of the Industrial Mathematics Society Journal of the Institute of Actuaries Journal of the International Association for Mathematical Geology Journal of the Italian Statistical Society /J. Fin. Quant. Anal. /Seattle, WA: Grand School of Bus. Univ. of Washington. /J. Forecast./N.Y.: Wiley. /J. Func. Anal./N. Y., L.: Academic. /J. Fuzzy Math./San Gabriel, CA: Int. Fuzzy Math. Inst. /J. Graph Algorithms AppL/ Providence, RI: J. Graph Alg. Appl. /J. Graph Theory/N. Y.: Wiley. /J. Hydrol./N. Y., Amsterdam: Elsevier/North-Holland. /J. Irreprod. Res./Oxford: Blackwell Scientific/Журн. о результатах, к-рые не удается повторить. /J. Market. / Chicago: Amer. Marketing Ass. /J. Market. Res./Chicago: Amer. Marketing Ass. /J. Math. Biol./Berlin, N. Y.: Springer-Verlag. /J. Math- Econ./N. Y., Amsterdam: Elsevier/North-Holland. /J. Math. Phys./N. Y.: Amer. Inst, of Physics. /J. Math. Psych. /N. Y., L.: Academie. /J. Multi-Criter. Dec. Anal./N. Y.: Wiley. /J. Mult. Anal./N. Y., L.: Academic. /J. Nav. Rev./N. Y.: Wiley/Журн. по прикл. матем. иссл. /J. Nonpar. Statist./L., N. Y.: Gordon and Breach Science. /J. Offic. Statist./Stookholm: Statistics Sweden. /J. Optimiz. Th. Appl./N. Y.,L.: Plenum. /J. Parametr. / German town, MD: Int. Soc. Parametric Analysis. /J. Person. Soc. Psychol./Washington: Amer. PsychoL Ass. /J. Pharm. Biomed. Anal./N. Y., Oxford: Pergamon. /J. Phys. Chem./Washington: Pergamon. /J. Polit. Econ. /J. Qual. Technol./Milwaukee: Amer. Soc. for Quality Control (now: Amer. Soc. for Quality). /J. Quantit. Anthrop./Norwell, MA: Dordrecht. /J. Reg. Sci./Peace Dale, RI: Reg. Sci. Res. Inst. /J. Res. Crime/Newbury Park, CA, L.: Sage. /J. Res. Nat. Bur. Stand./Rockville, MD: National Bureau of Standarts (now: Nat. Inst, of Standarts). /J. Risk. Uncert. /J. Statist. Comput. Simul./L., N. Y.: Gordon and Breach. /J. Statist. Phys./N. Y., L.: Plenum /J. Statist. Plan. Inf./N. Y., Amsterdam: Elsevier/North-Holland / Планирование эксперимента. /J. Statist. Res./Dakka, Bangladesh: Inst, of Statist. Res. and Training, Univ. of Dakka. /J. Statist. Educ./Releigh, NC: Dept. Statist. North Carolina State Univ. /J. Syst. Sci. Math. Sci. / Beijing. /J. Air. Poll. Cont. Ass./Pittsburgh: Air. Pollut. Cont. Ass. /J. Amer. Statist. Assoc./JASA/Alexandria, VA: Amer. Statist. Ass./Журн. по МС. /J. Assoc. Comput. Mach./N. Y.: Ass. Comput. Mach. /J. Atmosph. Sci./Boston: Amer. Meteorological Soc. /J. Austral. Math. Soc., ser. A, B/Brisbane: Univ. of Queensland Press. /J. Franklin Inst./N. Y., Oxford: Pergamon. /J. Ind. Soc. Agr. Statist./New Delhi: Ind. Arr. Statist. Res. Inst. /J. Ind. Soc. Statist. Oper. Res./Aligarh, India: Dept. Statist. Aligarh Muslim Univ. /J. Ind. Statist. Ass./Poona: Dept. Statist. Univ. of Poona. /J. Ind. Math. Soc./Roseville, MI: Industrial Mathematics Soc. /J. Inst. Act./Oxford: Alden Press/Журн. ин-та матем. страхования. /J. Int. Ass. Math. Geol./N. Y., L.: Plenum. /J. Ital. Statist. Soc./Agnano Pisano, Italy: Giardini Editori. 902
Journal of the Japan Statistical Society Journal of the Japanese Society for Quality Control Journal of the Japanese Society of Computational Statistics Journal of the Korean Mathematical Society Journal of the Korean Statistical Society Journal of the National Cancer Institute Journal of the Operational Research Society Journal of the Operations Research Society of Japan Journal of the Optical Society of America Journal of the Royal Statistical Society, ser. A. General Journal of the Royal Statistical Society, ser. B. Methodological Journal of Theoretical Biology Journal of Theoretical Probability Journal of Time Series Analysis Journal of Washington Academy of Science Journal of Water Pollution Control Federation Journalism Quarterly Jurimetrics Journal Koninklijke Nederlandse Akademie van Wetenschapen, ser. A, Math. Sci. (Indagationes Mathematical) Korean Journal of Applied Statistics Kwantitatieve Methoden Kybernetika Latvijskii Matematicheskii Ezhegodnik (~ Latvian Mathematical Annual Yearbook) Latvijas Universitates Zinanskie Rakst (Latvian University Science Reports) Lectures Notes in Economics and Mathematical Systems Lectures Notes in Mathematics Lectures Notes in Statistics Lifetime Data Analysis Linear Algebra and its Applications Linear and Multilinear Algebra Litovskii Matematicheskii Sbornik MAA Spectrum Management Science (Operations Research) Matematicheskie Zametki (Transl.: Math. Statistical Notes) Malematicheskii Sbornik, Novaja Serija (Transl. as Math. USSR-Sb) Malematicki Vesnik Drustvo Matematicara Fizcara i Astronoma SRS i Mat. Inst. Nova Serija Matematikai Lapok Matematyka Stosowana. Applied Mathematics Mathematical and Computer Modelling Mathematical Biosciences Mathematical Finance Mathematical Geology Mathematical Methods of Operations Research Mathematical Methods of Statistics Mathematical Modelling /J. Jap. Statist. Soc. /Tokyo: Institute of Statistical Mathematics. /J. Jap. Soc. Qual. Cont./Japan: Japanese Soc. for Qua!. Control. /J. Jap. Soc. Comput. Statist. /Japan, Okayama Univ.: Jap. Soc. of Computational Statistics. /J. Kor. Math. Soc./Seoul: Seoul Nat. Univ., Math. Dept., Korean Math. Soc. /J. Kor. Statist. Soc./Seoul: Korean Statist. Soc. /J. Nat. Cane. Inst. /Bethesda: Bloch Cancer Information Center. /J. Oper. Res. Soc./N. Y., Oxford: Pergamon. /J. Oper. Res. Soc. Jap./Tokyo: Oper. Res. Soc. Jap. /J. Optic. Soc. Amer./Washington: Optical Soc. of America. /J. Roy. Statist. Soc., ser. A/L.: Roy. Statist. Soc. /J. Roy. Statist. Soc., ser. B/L.: Roy. Statist. Soc. /J. Theor. Biol./N. Y., L.: Academic. /J. Theor. Probab./N. Y., L.: Plenum. /J. Time Ser. Anal./Oxford: Basil Blackwell. /J. Wash. Acad. Sci./Bethesda: Washington Akad. Sci. /J. Wat. Pollut. Cont. Fed./Washington, DC: Water Pollut. Control. Fed. /J. Quart. / Athens. OH: Ohio Univ. Ass. Educ. Journalism and Mass Communication. /Jurimetr. J./Chicago: American Bar Associacion/Журн. no измерениям в правовых вопросах Амер. Ассоциации Адвокатуры. /Коп. Ned. Akad. Wet., ser. A (Indaga Hones Mathematical)/N. Y., L.: Amsterdam: Elsevier/ North-Holland. /Kor. J. Appl. Statist./Seoul: Korean Statist. Soc. /Kwan. Meth./Heiloo. The Netherlands: Vereniging voor Sta- tistick. / Kybernet. / Prague: Caska Academie Ved (Acad, of Sci. of the Czech Republic), Amsterdam, The Netherlands, John Ba- njamins, B. V. /Latv. Mat. Ezhegodnik/Riga: Latv. Acad, of Sci., Latv. Univ., «Zinatne». /Latv. Univ. Zin. Rakst/Riga: Latv. Univ. /Lect. Not. Econ. Math. Syst. /Berlin, N. Y.: Springer-Verlag. /Lect. Not. Math./ Berlin, N. Y.: Springer-Verlag. /Lect. Not. Statist./Berlin, N. Y.: Springer-Verlag. /Lifetime Data Anal./Dordrecht; Norwell, MA: Kluwer Academic. /Lin. Alg. Appl./N. Y., Amsterdam: Elsevier/North-Holland. /Lin. Multilin. Alg./Yverdon; Gordon and Breach. /Lit. Math. Sborn./Vilnius, Lithuania: Acad. Sci. Lithuania. /Math. Spect./Washington, DC: Math. Ass. America. /Manag. Sci. J. of Inst, of Management Sci. / Providence: Inst, of Manag. Sci. and Oper. Res. Soc. of America. /Matem. Zam./Moscow: Akad. Nauk SSSR. /Matem. Sborn./Moscow: Moskovskoe Matematicheskoe Ob- shchestvo. /Matem. Vesn. Drustv. Matem./Belgrade, Yugoslavia. /Math. Lap./Budapest: Akademiai Kiado. /Math. Stos./Warsaw: Polish Mathematical Soc. /Math. Comput. Model./N. Y., Oxford: Pergamon. /Math. Biosci./N. Y., Amsterdam: Elsevier/North-Holland. /Math. Fin./Oxford: Basil Blackwell. /Math. Geol./N.Y., L.: Plenum. / Math. Meth. Oper. Res. / Heidelberg: Physica. /Math. Meth. Statist./N. Y.: Allerton Press. /Math. Model./Boston, MA: Birkhauser Boston. 903
Mathematical Modelling and Computational Experiment. Model, Algorithm, Code. Mathematical Modelling and Scientific Computing Mathematical Modelling of Systems. Methods, Tools and Applications in Engineering and Related Sciences Mathematical Modelling: Theory and Applications Mathematical Notes (Transl. Mathematiceskie Zametki) Mathematical Population Studies •Mathematical Proceedings of the Cambridge Philosophical Society Mathematical Reviews Mathematical Social Sciences Mathematical Software Mathematical Spectrum Mathematicheskii Sbornik, Tomsk Mathematics and Computers in Simulation Mathematics Magazine Mathematics of Computation Mathematics of Operations Research Mathematics Teacher Mathematische Annalen Mathematische Zeitschrift Medical Decision Making Methodology and Science: Interdisciplinary Journal for the Empirical Study of the foundations of Science and their Methodology Metody Diskretnogo Analiza Metody Matematicheskogo Modelirovanija Metra Metrika Metrologia Aplicata Metron Microelectronics and Reliability Military Operations Research Molecular Biology and Evolution Monatshefte fur Mathematik Monte Carlo Methods and Applications Multidimensional Systems and Signal Processing Multivariate Experimental Clinical Research Nature Naucnye Trudy, Tashkent State Univ. Naval Research Logistics Quarterly Naval Research Logistics: An International Journal Networks Neural Networks New Internationalist New York Statistician New Zealand Operational Research New Zealand Statistician News and Notes Nonlinear Analysis. Theory, Methods & Applications. An International Multidisciplinary Journal Nonlinear Dynamics. An International Journal of Nonlinear Dynamics and Chaos in Engineering Systems /Math. Model. Сотр. Exp./N. Y.: Wiley. /Math. Model. Sci. Сотр. /St. Louis, MO: Principia Sci. /Math. Model. Syst. Meth., Tool Appl./Lisse: Swets & Zeit- linger. /Math. Model. Th. Appl. /Dordrecht: Kluwer Acad. Publ. /Math. Not./N. Y.: Consultants Bureau. /Math. Popul. Stud./L., N. Y.: Gordon and Breach Sci./Матем. генетика. /Math. Proc. Camb. Phil. Soc/Cambridge, UK: Cambridge Univ. Press. /Math. Rev. /Providence, Amer. Math. Soc. /Math. Soc. Sci./N. Y., Amsterdam: Elsevier/North-Holland. /Math. Soft./N. Y., L.: Academic. /Math. Spect./Sheffield: Depl. Prob. Statist., Univ. Sheffield. /Math. Sborn., Tomsk/Tomsk: Tomskii Gosudarstvennyi Univ. /Math. Comput. Simul./N. Y., Amsterdam: Elsevier/North- Holland. /Math. Magaz./Washington: Math. Ass. of America. /Math. Comput./Providence: Amer. Math. Soc. /Math. Oper. Res./Providence: Inst, of Manag. Sci. and Oper. Res. Soc. of America. / Math. Teach. / Reston, VA: Nat. Council of Teachers of Mathematics. /Math. Annalen /Berlin, N. Y.: Springer-Verlag. /Math. Zeit/Berlin, N. Y.: Springer-Verlag. /Med. Dec. Mak./Basel, Cambridge, MA: Birkhaenser. /Meth. Sci./Haarlem, The Netherlands: Esser Scientific Press. /Met. Diskr. Anal./Novosibirsk: Ross. Akad. Nauk, Sibirsk. Otdel., Inst. Mat. /Met. Mat. Model./Kiev. / Metra/Montrouge: Soc. d'Economie et de Mathematiques Appliques/ Журн. по МС, теории измерений и проч. / Metrika/Heidelberg: Physica-Verlag. /Metrol. Apl./ Bucharest: National Inst, of the Meteorology. / Metron / Rome: Departamento di Statistica, Probabilita e Sta- tistiche Applicate. Universita dcgli Studi di Roma la Sapienza. /Micro. Rel./N. Y., Oxford: Pergamon. /Milit Oper. Res./Alexandria, VA: Milit. Oper. Res. /Molec. Biol. Evol./Chicago: Univ. Chicago. /Monat. Math./Berlin, N. Y.: Springer-Verlag. /Monte Carlo Meth. Appl./Zeist: VSP. /Multidim. Syst. Sign. Process./Hingham, MA.: Kluwer Acad. Publ. /Multiv. Exp. Clin. Res./Wichita, KS: Western Inst, of Mul- tiv. Exp. Psychol, Wichita State Univ., Wichita, KS. /Nature/N. Y., L.: Macmillan. /Naucn. Trudy Tash. Univ./Tashkent: Tashkent State Univ. /Nav. Res. Log. Quart./Arlington, VA: U. S. Office at Naval Research. /Nav. Res. Log./N. Y.: Wiley. /Netw./Samerset, N. Y.: Wiley-Interscience. /Neur. Netw./N. Y., Amsterdam: Elsevier/North-Holland. /New Internat. /Oxford. /N. Y. Statist./N. Y.: Columbia. /New Zeal. Oper. Res./Wellington, New Zealand: New Zoal. Oper. Res. Soc. /New Zeal. Statist./Wellington, New Zealand. /New. Not./L.: Royal Statist. Soc. /Nonlin. Anal./Exeter: Pergamon. /Nonlin. Dynain./Dordrecht: Kluwer Acad. Publ. 904
Nonlinear Time Series Chaos Nonlinearity Notices of the American Mathematical Society Numerische Mathematik Operations Research/ Computer Science Interfaces ser. Operations Research Letter Operations Research, J. of Oper. Res. Soc. of America Opsearch Optimal Control Applications & Methodology Optimization Software OR Spectrum Order. A Journal on the Theory of Ordered Sets and its Applications Organizational Behavior and Human Performance Osaka Journal of Mathematics Osterreichische Zeitschrift fur Statistik und Informatik Pacific Journal of Mathematics Pacific Sociological Review Pakistan Journal of Statistics, ser. А, В Pattern Recognition Letters Pattern Recognition. The Journal of the Pattern Recognition Society Pavlovian Journal of Biological Science Perception and Psychophysics Periodica Mathematica Hungarica, Journal of the Janos Bolyai Math. Soc. Periodico di Matematiche Personality and Social Psychology Bulletin Perspectives in Neural Computing Philippine Statistician Philosophical Transactions of the Royal Society of London, ser. A. Math, and Physical Science Philosophy of Science Physiology and Behavior Phytopathology Population Studies Portugaliae Mathematica Potential Analysis. An International Journal Devoted to the Interactions between Potential Theory, Probability Theory, Geometry and Functional Analysis Probability and Mathematical Statistics Probability and Mathematical Statistics Probability in the Engineering and Informational Sciences Probability Theory and Mathematical Statistics. Proc. of the Fifth Vilnius Conference Probability Theory and Related Fields Problemy Peredachi Informatsii (Transl. on Information Theory, Moscow) Problemy Sluchainogo Poiska Proceeding of the American Mathematical Society Proceeding of the Computer Science and Statistics, 8-26 Ann. Symp. on the Interface Proceeding of the Italian Statistical Society Proceeding of the London Mathematical Society Proceedings Japan Academy, ser. A, Mathematical Sciences Proceedings of the 40, 41, ...,45,.... Session of the International Statistical Institute Proceedings of the Institute of Statistical Mathematics /Nonlin. Time Ser. Chaos/River Edge, N. Y.: World. /Nonlin./Bristol: Inst. Phys. /Not. Amer. Math. Soc./Providence, RI: Amer. Math. Soc. /Numer. Math./Berlin, N. Y.: Springer-Verlag. /Oper. Res. Сотр. Sci./Boston, MA: Kluwer Acad. Publ. /Oper. Res. Let./N. Y., Amsterdam: Elsevier /North-Hoi land. / Oper. Res. / Baltimore: Oper. Res. Soc. of America. /Opsear./New Delhi: Oper. Res. Soc. of India. /Opt. Cont. Appl. Meth./N. Y.: Wiley. /Opt. Soft./N. Y. / OR Spect./Berlin, N. Y.: Springer-Verlag. /Order/Dordrecht: Kluwer Acad. Publ. /Org. Behav. Hum. Perf./N. Y., L.: Academic. /Osaka J. Math./Osaka, Japan: Univ. of Osaka Prefecture. /Oster. Zeit. Statist. Inform./Vienna: Verlag ORAC Gesell- schaft. /Рас. J. Math./Berkley, CA: Univ. of California at Berkley. /Рас. Socio!. Rev./Newbury Park, CA, London: Pacific Sociol. Ass., Sage. /Pakist. J. Statist., ser. А, В /Lahore: Islamic Soc. of Statist. Sci. /Patt. Recogn. Lett./N. Y., Amsterdam: Elsevier/North-Holland. /Patt. Recogn. /N. Y., Oxford: Pergamon. /Pavl. J. Biol. Sci. / Philadelphia: Pavlovian Soc. of America, Lippincott. /Percept. Psychoph./Austin, TX: Psychonomic Soc. /Per. Math. Hung. Bolyai/Budapest: Academia Kiado. / Per. Ma tern. / Bologna, Italy. /Person. Soc. Psych. Bull./Newbury Park, CA; L.: Sage. /Persp. Neural. Comput./N. Y.: Springer-Verlag. /Philipp. Statist. / Manila: Philippine Statistical Soc. /Phil. Trans. Roy. Soc. Lond., ser. A / L.: The Royal Soc. /Phil. Sci. /East Lansing, MI: Philosophy Dept. Michigan State Univ. /Physiol. Behav./N. Y., Oxford: Pergamon. /Phytopathol./St. Paul.: Amer. Phytopathological Soc. /Popul. Stud./L.: London School of Economics & Political Sci. /Portug. Math./Lisbon, Portugal: Portuguere Math. Soc. /Potent. Anal./Dordrecht: Kluwer Acad. Publ. /Prob. Math. Statist./Warsaw: Polish Acad, of Sci. /Prob. Math. Statist./Boston, MA: Acad. Press. /Prob. Eng. Inf. Sci./Cambridge Univ. Press. /Prob. Theor. Math. Statist./Vilnius, Lithuania: Труды конф. в Вильнюсе. /Prob. Theor. Rel. Fields/Berlin, N. Y.: Springer-Verlag. /Probl. Pered. Inf./Moscow: Akad. Nauk (Probl. of Inform. Transmission, N. Y., L.: Plenum). /Probl. Sluch. Poiska/Riga, Latvia: Inst. Elektroniki i Vychi- slitelnoi Techniki. /Proc. Amer. Math. Soc./Providence R. I.: Amer. Math. Soc. /Proc. Сотр. Sci. Statist.: Proc. of the 8-26 Ann. Symp. on the Interface. /Proc. Ital. Statist. Soc./Rome: Soc. Italiana di Statistica. /Proc. Lond. Math. Soc./L.: London Math. Soc. /Proc. Jap. Acad., ser. A/Tokyo. /Proc. 40 (41, ..., 45,...). Ses. Int. Statist. Inst./Voorburg, Neutherlands: ISI. /Proc. Inst. Statist. Math./Tokyo: Inst. Statist. Math. 905
Proceedings of the National Academy of Sciences Proceedings of the Royal Irish Academy, sect. A Proceedings of the Royal Society of Edinburgh, sect. A. Math. Proceedings of the Royal Society of London, ser. A. Mathematical and Physical Sciences Process Control and Quality Professional Geography Progress in Pattern Recognition Psychological Bulletin Psychological Review Psychometrika Psychophy siol ogy Public Opinion Quarterly Publications Econometriques Publications Mathematiques de I'Universite Paris VII - Deni Diderot Publications Mathematiques d'Orsay Publications Mathematiques, de I'Universite Paris VI (Pierre et Marie Curie) Publications of the Research Institute for Mathematical Sciences Pure and Applied Chemistry Pure and Applied Geophysics QCI International Quaderni di Statistica e Econometrica Quaderni di Statistica e Matematica Applicata alle Scienze Economico-Sociali Qualitaet und Zuverlaessigkeit Quality and Quantity Quality Control in Laboratory Medicine Quality Digest Quality Engineering Quality Progress Quarterly of Applied Mathematics Queueing Systems. Theory and Applications Radiation and Environmental Biophysics Radical Statistics RAIRO, Informatique Theorique RAIRO, Mathematical Modelling and Numerical Analysis RAIRO, Recherche Operationnelle RAIRO, ser. В et ser. Verte RAIRO, Technique et Science Informatiques Random Operators and Stochastic Equations Random Structures and Algorithms Rassegna Italiana di Sociologia Reliability and Fault Tree Analysis Reliability Engineering & System Safety Reliability Review Rendiconti di Matematica e dell sue Applicazioni. Ser. VII Reports of Statistical Application Research Representative Research in Social Psychology Research in Higher Education Research on the Mathematical Study of Sampling (Japanese) 906 Proc. Nat. Acad. Sci./Washington, Nat. Acad. Press. Proc. Roy. Irish Acad., A/Dublin: Roy. Irish Acad. Proc. Roy. Soc. Edinburgh, A/Edinburgh: Roy. Soc. Proc. Roy. Soc. Lond. Math. Phys./L.: The Royal Soc. Proc. Cont. Qual./N. Y., Amsterdam: Elsevier/North-Holland. Prof. Geograph./Buffalo. Progr. Patt. Rec./Amsterdam, N. Y.: North-Holland / Elsevier. Psychol. Bull./Washington: Amer. Psych. Ass. Psych. Rev./Washington: Amer. Psych. Rev. Psychometrika /Williamsburg, UA: Dept. of Psychology, College of William and Магу / Статистика и измерения в психологии. Psychophysiol./ Madison: Soc. for Psychological Research. Publ. Opin. Quart. / Chicago: Univ. of Chicago Press. Publ. Econometr. / Villeurbanne, France: Dept. Math. Univ. Lyon I. Publ. Math. Univ. Paris VII/Paris: Univ. Paris VII - Deni Diderot. Publ. Math. Orsay/Orsay, France. Univ. Paris XI. Publ. Math. Univ. Paris VI/ Paris: CERESTA. Publ. Res. Inst. Math. Sci./ Kyoto: Kyoto Univ. Pur. Appl. Chem./N. Y., Oxford: Pergamon. Pur. Appl. Geoph./ Basel, Cambridge, MA: Birkhawser. QCI Int./Red Blutt, СА/Журн. ин-та контроля качества. Quad. Statist. Econometr./Naples: Centro Specializzazione e Recherche. Quad. Statist. Math. Appl. Sci. Econ. Soc./Trento, Italy: Univ. of Trento, Dipart. Di Metodi Quantitativi. Qual. Zuver. / Munich: Carl Hancer Verlag. Qual. Quant./ Dordrecht, Norwell, MA: Kluwer Academic. Qual. Cont. Lab. Med./Paris: Masson & Cie Editeurs. Qual. Dig. / Red Blutt, CA: QCI International. Qual. Engin./Milwaukee: Amer. Soc. for Quality Control. Qual. Progr./Milwaukee: Amer. Soc. for Quality Control. Quart. Appl. Math. / Providence: Amer. Math. Soc. Queueing Syst. Th. Appl./Basel: Baltzer. Rad. Env. Bioph./Berlin, N. Y.: Springer-Verlag. Rad. Statistics/L. RAIRO, Inf. Th./Montrouge: Dunod-Gauthier-Villars. RAIRO, Math. Mod. Num. Anal./Montrouge: Dunod-Gauthier-Villars. RAIRO, Rech. Oper. / Montrouge: Dunod-Gauthier-Villars. RAIRO, ser. В et ser. Verte/ Montrouge: Dunod-Gauthier- Villars. RAIRO, Tech. Sci. Inf. / Montrouge: Dunod-Gauthier-Villars. Rand. Oper. Stoch. Equat. / Zeist, The Netherlands: VSP. Rand. Struct. Algor./N. Y.: Wiley. Ras. Ital. Soc. / Bologna: Societa Editrice il Milano. Rel. Fault Tree Anal./Philadelphia: Soc. for Industrial and Applied Mathematics. Rel. Eng. Syst. Saf./ N. Y., Amsterdam: Elsevier/North-Holland. Rel. Rev. /Milwaukee: Amer. Soc. for Quality Control. Rend. Mat. Appl. (VII)/Rome: Univ. Studi Roma «La Sapi- enza». Rep. Statist. Appl. Res./Tokyo: Union of Japanese Scientists & Engineers. Repr. Res. Soc. Psych. / Chapel Hill: Dept. of Psychology, Univ. of North Carolina. Res. High. Educ./N. Y.: Human Sci. Press. Res. Math. Stud. Sampling/Kyoto: Kyoto Univ.
Resources for the Future Review of Economic Studies Revista de Estadistica Revista de la Academia de Ciencias Exactas, Fisico-Quimicas у Natu rales Revista de la Real Academia di Ciencias Exactas, Fisicas у Naturales Revista de la Union Matematica Argentina Revista de Matematica e Estadistica Revista Espaftola de la Opinion, Publica Revista Investigation Operationale Revista Publications Matematiques Revista Telegrafica Electronica Revue de Statistique Appliquees - CERESTA Revue Franchise d'Automatique, Informatique et Recherche Operationnelle (RAIRO): Automatique-Productique Informatique Industrielle Revue Franchise d'Automatique, Informatique et Recherche Operationnelle. Ser. Rouge, Analyse Numerique Revue Roumaine de Mathematiques Pures et Appliquees Rhinology Risk Risk Analysis Risk Research Rivista di Statistica Applicata Rivista Ital. Econ. Demogr. Statist. Sakhartvelos SSR Mechierebatha Akademis Gamothvelithi Cen- tris Sromebi (Trudy Vychisl. Centra Akad. Nauk Gruzinskoi SSR) Sakhartvelos SSR Mechierebatha Akademis Moambe (Soob- schenija Akad. Nauk Gruzinskoi SSR) Sankhya, ser. А, В, С, D. Indian Journal of Statistics Scandinavian Actuarial Journal Scandinavian Journal of Psychology Scandinavian Journal of Statistics Scandinavian Journal of Work Environmentand Health Sequential Analysis Selecta Statistica Canadiana Selected Tables in Mathematical Statistics, vol. 1-7,... Serdica. Mathematical Journal (Mathematichesko Spisanie) SI AM Journal on Applied Mathematics SI AM Journal on Matrix, Analysis and Applications SI AM Journal on Numerical Analysis SIAM Journal on Scientific and Statistical Computing SIAM Review Sibirskii Matematicheskii Zhurnal, Siberian Math. Journal Signal Processing Simon Stevin, Quarterly Journal of Pure and Applied Math. Simulation & Games Simuletter, Special Interest Group on Simulation /Res. Fut./Washington. /Rev. Econom. Stud./Oxford: Rev. Econom. Statist. /Rev. Estad./Mexico: Instituto Nacional de Estadistica, Geo- grafia e Informatica. / Rev. Acad. Cienc. Exact. Fis.-Quim. / Zaragoza, Spain: Facul- tad de Ciencias, Ciudad Univ. /Rev. Real. Acad. Cienc. Exact. Fis. Nat./Madrid, Spain. /Rev. Un. Mat. Argentina/Buenos Aires: Union Matematica Argentina. /Rev. Mat. Estad./San Paulo: Universidad Estadual Paulistra Centro de Publicacoes. /Rev. Esp. Opin. Publ./Madrid, Spain. /Rev. Inv. Oper./Habana: Universidad de la Habana. /Rev. Publ. Mat./Barcelona, Spain: Publications de la Universidad Autonomia de Barcelona. /Rev. Telegr. Elect./Buenos Aires, Argentina. /Rev. Statist. Appl. CERESTA/Paris: CERESTA. /RAIRO, Aut. Prod. Ind. / Montrouge: Dunod-Gauthier- Villars. /RAIRO Anal. Num./Montrouge: Dunod-Gauthier-Villars, Ass. Franchise pour la Cybernetique, Economique et Technique (AFCET). /Rev. Roum. Math. Pur. Appl./Buharest: Academiei Republicii Socialiste Rumania. /Rhinol./Utrecht: Univ. Hospital, Int. Rhinology Soc., Dept. of Otorhinolaryngology/Журн. компл. иссл. по оториноларингологии. /Risk /Risk Anal./N. Y., L.: Plenum. / Risk Res. /Riv. Statist. Appl./Milano, Italy: с/о Е. S. Т. Е. Via N. Battaglia, 22-20127 Milano. /Riv. Ital. Econ. Demogr. Statist./Italy. /Tbilisi: Akad. Nauk Gruzinskoi SSR. /Sakhart. SSR Mech. Akad. Moam./Tbilisi: Akad. Nauk Gruzinskoi SSR. /Sankhya, А, В, С, D/Calcutta: Indian Statistical Institute. /Scand. Act. J./Oslo: Scandinavian Univ. Press. /Scand. J. Psych./Stockholm: Almquist & Wiksell. /Scand. J. Statist./Oxford: Blackwell. /Scand. J. Work Envir. Health/Goeteborg, Sweden: Ass. Envir. Hygiene. /Seq. Anal./N.Y.: Marsel Dekker. /Select. Statist. Canad./Hamilton, Ontatia. Dept. of Math., McMaster Univ. /Select. Tabl. Math. Statist. Mb 1-7,.../Providence, Amer. Math. Soc. /Сб. таблиц матем. статистики. /Serdica/Sofia: Bulgarian Acad. Sci. /SIAM J. Appl. Math./Philadelphia, PA: Soc. for Ind. Appl. Math. /SIAM J. Mat. Anal. Appl./Philadelphia, PA: Soc. for Ind. and Appl. Math. /SIAM J. Num. Anal./Philadelphia, PA: Soc. for Ind. and Appl. Math. /SIAM J. Sci. Statist. Comput. / Philadelphia, PA: SIAM. /SIAM Rev./Philadelphia, PA: SIAM. /Sib. Mat. Zhurn./N. Y., L.: Acad, of Sci. USSR, Siberian Branch, Consultant Bureau, Distr. Plenum. /Sign. Proc./N. Y., Amsterdam: Elsevier/North-Holland. /Simon Stevin/Ghent, Belgium: Rijkuniversiteit Ghent. /Simul. Gam./Newbury Park, С A, L.: Sage. / Simuletter/N. Y.: Ass. Сотр. Machinery. 907
Sky and Telescope Sluchainye Protcessy, Teoriya i Praktika (Random Processes, Theory and Practice) SMIL, Journal of Linguistic Calculus Social Choice and Welfhare Social Indicators Research Social Networks Social Psychology Quarterly Social Science Quarterly Social Science Research Socio-Economic Planning Sciences Sociological Methodology Sociological Methods & Research South African Statistical Journal Soviet Automatic Control Soviet Mathematics (Doklady Akademii Nauk) Spoudai Statistica Statistica Applicata Statistica Neerlandica Statistical Design and Linear Models Statistical Inference in Continuous Time Economic Models Statistical Journal of the U. N. Economic Commission for Europe Statistical Methods in Linguistics Statistical Methods of Estimation and Tests of Hypotheses Statistical Modelling and Decision Science Statistical Papers Statistical Review Statistical Science Statistical Theory and Method Abstracts Statistics Statistics & Decisions Statistics & Decisions Supplement Issue Statistics & Probability Letters Statistics and Computing Statistics and Related Topics Statistics Canada Statistics for Biology and Health Statistics in Medicine Statistics Industry and Technology Statistics Sweden Statistics: A Guide to Political and Social Issues Statistics: A Guide to the Study of the Biological and Health Sciences Statistique et Analyse des Donnees Statistika Statistika Revija Statistique Mathematique et Probabilite Stats. The Magazine for Students of Statistics Stochastic Analysis and Applications Stochastic Optimization and Design Stochastic Processes and Related Topics Stochastic Processes and their Applications /Sky Telesc/Cambridge, MA: Sky Publishing. /Sluch. Protc. Teor. Pract./Kiev: Math. Inst, of the Acad, of Sci. Ukrainian. /Stockholm: Spraakfoerlaget Skriptor. /Soc. Choice Weif./Heidelberg: Springer-Verlag/Журн no теории соц. выбора. /Soc. Ind. Res./Dordrecht, Hingham, MA: Reidel. /Soc. Netw./N. Y., Amsterdam: Elsevier/North-Hoi land /Журн. об объединении людей. /Soc. Psych. Quart./Washington: Amer. Soc. Ass. /Soc. Sci. Quart./Austin, TX: Southwestern Soc. Sci. Ass. /Soc. Sci. Res./N. Y., L.: Academic. /Soc.-Ec. Plan. Sci./Стратегии, планирование. /Sociol. Meth./Oxford: Blackwell Scientific. /Sociol. Meth. Res. /Newbury Park, CA, London: Sage. /South Afr. Statist. J./Republic of South Africa, Pretoria. South Afr. Statist. Ass. /Sov. Aut. Cont./Kiev: distr. by Scripta. /Soviet Math./Providence: American Math. Soc./Post Soviet Geographia. /Spoud./Piraeus, Greece: Univ. of Piraeus. /Statist./Bologna: Cooperativa Libraria Univ. Editrice. /Statist. Appl./Naples: Rocco Curto Editore. /Statist. Neer./Oxford: Blackwell Scientific. /Statist. Des. Lin. Mod./N. Y.f Amsterdam: Elsevier/North- Holland. /Statist. Inf. Cont. Time Econ. Mod./Amsterdam, N. Y.: North- Holland/Elsevier. /Statist. J. U.N. Econ. Comm. Eur./N. Y., Amsterdam: Elsevier / North-Hoi land. /Statist. Meth. Ling./Stockholm: Spraakforlaget Skriptor. /Statist. Meth. Est. Test. Hyp./Perm, USSR: Perm Univ. /Statist. Model. Decis. Sci. /Boston, MA: Academic Press. /Statist. Pap./Berlin, N. Y.: Springer-Verlag. /Statist. Rev./Stockholm, Sweden. /Statist. Sci./Hayward: Inst. Math. Statistics. / STMA / Voorburg: Intern. Statist. Inst. / Реферативный журн. /Statist./L., N. Y.: Gordon and Breach Sci. /Statist. & Decis. / Munich: R. Oldenbourg Verlag. /Statist. & Decis. Suppl./Munich: R. Oldenbourg Verlag. /Statist. & Prob. Lett./Amsterdam: North-Holland. /Statist. Comput./L., N. Y.: Chapman and Hall. /Statist. Rel. Top./Amsterdam, N.Y.: North-Holland/Elsevier. / Statist. Canada / Ottawa. /Statist. Biol. Health/N. Y.: Springer-Verlag. /Statist. Med./N. Y.: Wiley. /Statist. Ind. Technol./Boston, MA: Birkhauser. / Statist. Swed. / Stockholm. /Statist. Guide Polit. Soc. Iss./San Francisco: Holden-Day. /Statist. Guide/San Francisco: Holden-Day. /Statist. Analyse Don./Paris: Г Associations des Statisticians Univ./ Анализ данных. / Statistika /Praha, Czech Republic: Federal Office of Statistics, VUSEI Information Centre. /Statist. Rev./Belgrad, Yugoslavia. /Statist. Math. Probab./Paris: Economica. /Stats/Alexandria, VA: American Statistical Ass. /Stoch. Anal. Appl./Monticello, N. Y.: Dekker. /Stoch. Opt. Des./Commack, N. Y.: Nova Sci. Publ., Int. /Stoch. Proc. Rel. Top./N. Y., L.: Academic. /Stoch. Proc. Appl./N. Y., Amsterdam: Elsevier /North- Holland. 908
Stochastica Stochastics Studia Scientiarum Mathematicarum Hungarical Studies in Nonlinear Estimation Surveys in Applied Mathematics Surveys on Mathematics for Industry Systems & Control: Foundation & Applications Tamkang Journal of Mathematics Tartu Ulikooli Toimetised. Uchenye Zapiski Tartuskogo Univer- siteta. Acta et Commentations Universitatis Tartuensis Teorija Verojatnostei, Mathematicheskaja Statistika, Teor. Kibernetika Semin. Teorija Sluchainikh Protsessov (Theory of Stochastic Processes) Teorija Verojatnostei i ejo Primenenija (Transl. Theory Probability and its Applications) The Aligarh Journal of Statistics The American Mathematical Monthly The American Mineralogist The American Statistican The Annals of Mathematical Statistics The Annals of Probability The Annals of Statistics The Australian and New Zealand Journal of Statistics The Australian Journal of Statistics The Bell System Technical Journal The British Journal of Mathematical and Statistical Psychology The Bulletin of the London Mathematical Society The College Mathematics Journal The Egyptian Computing Journal The Egyptian Statistical Journal The Fibonacci Quarterly. The Official Journal of the Fibonacci Association The Journal of Chemical Physics The Journal of Finance The Journal of Mathematical Analysis and Applications The Journal of Mathematical Sociology The Journal of the London Mathematical Society The Journal of the Pattern Recognition Society The Log Analysis The Mathematical Scientist The New Zealand Mathematics Magazine The Professional Statistician The Public Interest The Quarterly Journal of Economics The Quarterly Journal of Mathematics, second series The Review of Economics and Statistics The Rocky Mountain Journal of Mathematics The Tohoku Mathematical Journal Theoretical Population Biology /Stochastica/Barcelona, Espafta: Departamento de Matematicas у Estadistica. /Stochastics/L., N. Y.: Gordon and Breach Sci. /Stud. Sci. Math. Hung./Budapest: Consilium Inst. Math., Acad. Sci. Hungarical. /Stud. Nonlin. Estim./Cambridge, MA: Ballinger. /Surv. Appl. Math./N. Y.: Plenum. /Surv. Math. Ind. /Vienna: Springer-Verlag. /Syst. Cont. Foun. Appl./Boston, MA: Birkhauser Boston. /Tamk. J. Math./Taipei Res. Inst, of Math., Tamkang Univ. /Tartu Ulik. Toim./Tartu Univ. /Teor. Ver. Math. Statist. / Moscow: The Ail-Union Inst. Sci. and Tech. Infor. /Teor. Sluch. Prots./Kiev. /Teor. Ver. Prim. /Moscow. /Alig. J. Statist./Aligarh, India: Dept. Statist., Aligarh Muslim Univ. /Общестатистич. журн. /Amer. Math. Month./Washington, DC: Math. Ass. of America. /Общематем. журн. /Amer. Mineral./Lawrence, КС: Allen Press/Примен. ТВ и MC в минералогии. /Amer. Statist. / Alexandria, VA: Amer. Statist./MC. /Ann. Math. Statist./Hayward: Inst. Math. Statist./MC, .теория. /Ann. Probab./Hay ward: Inst. Math. Statist. /ТВ, MC. /Ann. Statist./Hayward: Inst. Math. Statist. / Ранее: The Annals of Mathematical Statistics. /Austral. New Zeal. J. Statist./Oxford: Blackwell Scientific /Общестатистич. журн. /Austral. J. Statist./Canberra: Statist. Soc. of Australia/MC и примен. /Bell Syst. Tech. J./N. Y.: AT&T/TB и МС в системах иссл. в широком смысле этого термина. /Brit. J. Math. Statist. Psych./L.: Brit. Psychol. Soc./ТВ и MC в психологии. /Bull. Lond. Math. Soc./L.: Lond. Math. Soc./Общематем. журн. /Coll. Math. J./Washington, DC: Mathematical Ass. of America /Журн. для студентов. /Egypt. Сотр. J./Gira, Egypt: Inst. Statist. Studies and Res., Univ. Cairo/ Вычислит, методы в ТВ, МС. /Egypt. Statist. J./Gira, Egypt: Inst. Statist. Studies and Res., Univ. Cairo/MC. /Fibonacci Quart./Aurora, SD: Fibonacci Ass. /J. Chem. Phys./N. Y.: Amer. Inst, of Physics. /J. Fin./N. Y.: Grand. School of Business, N. Y. Univ. /J. Math. Anal. Appl./N. Y., L.: Academic. /J. Math. Sociol./L.: Gordon and Breach Sci. /J. Lond. Math. Soc./L.: London Math. Soc. /The J. Pattern Recogn. Soc./N. Y., Oxford: Pergamon. /Log. Anal./Houston, TX: Soc. Prof. Well Log Analysis. /Math. Scient./Sheffield: Appl. Probability Trust. /New Zeal. Math. Mag./Auckland, New Zealand: Dept. Math., Univ. of Auckland. / Prof. Statist. / UK. /Publ. Interest/Washington: National Affairs. /Quart. J. Econ./Cambridge, MA: Harvard Univ. Press. /Quart. J. Math. 2-nd ser./Oxford: Oxford Univ. Press. /Rev. Econ. Statist./UK. /Rock. Mount. J. Math./Tempe, Arisona: Rocky Mountain Mathematics Consortium, Dept. of Math., Arizona State Univ. /Toh. Math. J./Tokyo: Math. Inst., Tohoku Univ. /Theor. Popul. Biol./N.Y., L.: Academic. 909
Theory of Probability and its Applications/Transl. of Teorija Verojatnostei i Primenenija Theory of Probability and Mathematical Statistics (Transl. of Teorija Verojatnostei i Matematicheskaja Statistika) Theory of Random Processes Thrombosis and Haemostasis Time Series Analysis: Theory and Practice, v. 1-7, Anderson O.D. ed. Top Total Quality Management Trabajos de Investigacion Operativa Transactions of the American Fisheries Society Transactions of the American Mathematical Society Transactions of the Society of Actuaries Transportation Research Transportation Science Traffic Engineering and Control Travail Human TRU Mathematics Trudy Instituta Matematiki Akad. Nauk Ukraini (Proc. of the Inst, of Mat. Nat. Acad. Sci. of the Ukraine) Trudy Kazanskogo Aviacionnogo Instituta Trudy Matematicheskogo Instituta im. V. A. Steklova (Proc. Steklov Inst. Mat., transl. in English) Trudy Moskovskogo Matematicheskogo Obshchestva (Transl. in Moscow Mat. Soc.) Trudy Vychislitel'nogo Centra, Tartu Trudy Sankt-Peterburgskogo Matematicheskogo Obshchestva Tsukuba Journal of Mathematics Two Year Col ledge Mathematics Journal Two Year Col ledge Mathematics Readings Ukrainian Mathematical Journal Uralskii Gosudarstvennyi Universitet. Ural. Mat. Obshchestvo. Matem. Zapiski Uspekhi Mateinaticheskich Nauk USSR Computational Mathematics and Mathematical Physics Utilitas Mathematica Vesci Akademii Nauk Belorussia, ser. fiz.-mat. Nauk Vestnik Belorusskogo Universiteta, Nauchnyi Zurnal, ser. 1, Matematika, Fiziica, Mehanika Vestnik Moskovskogo Universiteta, ser. Mat. (Moscow Univ. Mat. Bull.) Vestnik Sankt-Peterburgskogo University. Mathematics Virginia Journal of Science Visnik Kiivskogo Universitetu, (ser.) Mat. Mehanika Yugoslav Journal of Operations Research. An International Journal dealing with Theoretical and Comput Aspects of Operations Research, Systems Science and Management Science Zapiski Nauchnykh Seminarov (POMI) Примечание. Некоторые рекомендации для начинающих исследователей по поиску журналов в библиотеках России: 1) сформулировать задачу; 2) просмотрев настоящий список, обратиться к источникам [3-19]; выбрать несколько близких к искомой предметной области журналов и ключевые слова на русском, английском, французском, немецком и др. языках; /Theor. Prob. Appl./Philadelphia: Soc. Ind. Appl. Math. /Theor. Prob, Math. Statist. /Providence: Amer. Math. Soc. /Theor. Rand. Proc. /Kiev/Книжная серия. /Stuttgart: Friedrich Karl Schattaeur. /Time Ser. Anal., v, 1-7/Amsterdam, N.Y.: North-Holland / Elsevier. /Top/Madrid: Spanish Statistical and Operations Research Soc. /Tot. Qual. Manag./Dunnelbon, FL: Carfax. /Trab. Invest. Oper./ Madrid: Spanis, Statistical and Operations Research Soc. /Trans. Amer. Fish. Soc./Bethesda: Amer. Fish. Soc. /Trans. Amer. Math. Soc./Providence, RI: Amer. Math. Soc. /Trans. Soc. Act. /Transp. Res./N. Y., Oxford: Pergamon. /Transp. Sci./Baltimore: Oper. Res. Soc. of America. /Traf. Eng. Cont./Cambridgeshire, UK: Printerhall. /Trav. Hum./Paris: Presses Universite de France. /TRU Math. /Tokyo: Univ. of Tokyo. /Trudy Inst. Mat. Akad. Nauk Ukr./Kiev: Inst. Mat. /Trudy Kaz. Aviac. Inst./Kazan, USSR. /Trudy Mat. Inst. Steklov/Moscow. /Trudy Moskov. Mat. Obshch. /Moscow: Mocow Univ. /Trudy Vich. Centra/Tartu: Tartuskii Univ. /Trudy S.-Peterb. Mat. Obshch./St.-Peterburgh: Izdat. S.-Pe- terb. Univ. /Tsukuba J. Math./Sakura-Mura, Japan: Inst. Math., Univ of Tsukuba. /Two Year Coll. Math. J./Washington: Math. Ass. Amer. /Two Year Coll. Math. Read./Washington: Math. Ass. Amer., Page, Warren. /Ukr. Math. J./N. Y., L.: Plenum. /Ural. Gos. Univ. Mat. Zap. / Ekaterinburgh. /Usp. Matem. Nauk /Moscow: Akad. Nauk; Moskovskoe Mat. Obshch., distr. Sci. Publ. House. /USSR Сотр. Math. Math. Phys./N. Y., Oxford: Pergamon. /Utilita Math./Vinnipeg: Univ. of Manitoba Press. /Vesci Akad. Nauk Belorus. SSR, ser. fiz.-mat. Nauk. /Vestn. Belor. Univ., ser. 1/Minsk: Univ. /Vestn. Mosk. Univ., ser. Mat./Moscow: Moscow Univ. /Vestn. S.-Peterb. Univ. Math./(Transl. of Math. sect. In Vestnik S.-Peterb. Univ. Math.)/St.-Peterburgh: Izdat. S.-Peterb. Univ. /Virg. J. Sci. / Richmond: Virginia Academy of Sci. /Visn. Kiivs. Univ./Kiev, Ukraine. /Yugosl. J. Oper. Res. / Belgrade: Univ. Belgrade. /Zap. Nauch. Sem. POMI/St.-Peterburgh: Transl. in J. Math. Sci. (New York)./Записки науч. семинара Петерб. отд. матем. ин-та им. В. А. Стеклова. 3) выписывать названия журналов, том, номер только на карточки или (и) в компьютер-ноутбук; 4) по возможности, искать статьи и журналы через Интернет на сайтах крупных издательств, институтов и т. п.; 5) вести непрерывную картотеку; 6) смотреть крупные справочные издания, напр. Encyclopedia of Statistical Sciences. Д. С. Шмерлинг. 910
ISBN 5-65270-265-Х II 7026541 Вероятность и математическая статистика: Энциклопе- В 31 дия/Гл. ред. Ю.В. Прохоров. - М.: Большая Российская энциклопедия, 1999.-910 с. ISBN 5-85270-265-Х «Вероятность и математическая статистика» - справочное издание по теории вероятностей, математической статистике и их применениям в различных областях науки и техники. В энциклопедии две части: основная содержит обзорные статьи, статьи, посвященные отдельным конкретным проблемам и методам, краткие справки, дающие определения основных понятий, важнейшие теоремы и формулы. Значительное место уделено прикладным вопросам - теории информации, теории массового обслуживания, теории надежности, планирования эксперимента и смежным областям - физике, геофизике, генетике, демографии, отдельным разделам техники. Большинство статей сопровождается библиографией наиболее важных работ по данной проблеме. Названия статей даны также в переводе на английский язык. Вторая часть - «Хрестоматия по теории вероятностей и математической статистике» содержит статьи, написанные для отечественных энциклопедий прошлого, а также материалы энциклопедического характера, опубликованные ранее в других сочинениях. Энциклопедия сопровождается обширным списком журналов, периодических и продолжающихся изданий, освещающих вопросы теории вероятностей и математической статистики. Вошедший в Энциклопедию материал необходим для студентов, аспирантов и научных работников в области математики и других иаук, использующих вероятностные методы в своих исследованиях и практической работе. УДК 519.2 ББК 22.17 Лицснция №010144 от 14.01.97. Налоговая льгота - общероссийский классификатор продукции ОК-005-93, том 2: 953000. Сдано в набор 12.09.98. Подписано в печать 08.12.98. Формат издания 84 х 108l/i6. Бумага офсетная № 1. Гарнитура Кудряшовская. Печать офсетная. Объем издания 95,76 усл.п.л.; 95,76 усл.кр.-отт.; 151,75 уч.-изд.л. Тираж 3500 экз. Заказ №964. С 11. Научное издательство «Большая Российская энциклопедия». 109028, Москва, Покровский бульвар, 8. Компьютерный набор и верстка осуществлены в издательстве «Большая Российская энциклопедия». Печать осуществлена в АООТ «Тверской полиграфический комбинат». 170024, г. Тверь, проспект Ленина, 5.