Текст
                    министерство ОБРАЗОВАНИЯ и НАУКИ РОССИЙСКОЙ ФЕДЕРАЦИИ
Московский физико-технический институт
(государственный университет)
А. В. Булинский
СЛУЧАЙНЫЕ ПРОЦЕССЫ.
ПРИМЕРЫ, ЗАДАЧИ И УПРАЖНЕНИЯ
Допущено
У чебно-методическим объединением
высших учебных заведений Российской Федерации
по образованию в области прикладных математики и физики
в качестве учебного пособия для студентов вузов
по направлению «Прикладные математика и физика»
МОСКВА
МФТИ
2010


УДК 519.216.2(075) ББК 22.171я73 Б90  Рецензенты: Кафедра теории вероятностей и математической статистики Российского университета дружбы народов (зав. каф. доктор физико-математических наук, профессор Ю. С. Хохлов)  Доктор физико-математических наук, профессор Л Г Афанасьева  Булинский А. В. Б90 Случайные процессы. Примеры, задачи и упражне- ния: учеб. пособие. — М.: МФТИ, 2010. — 216 с. 1$ВМ 978-5-7417-0266-6  Кратко изложен теоретический материал, включая необходи- мые сведения по теории вероятностей. Разобраны примеры и за- дачи по основным разделам курса «Стохастические процессы», читаемого автором студентам МФТИ. Также предлагаются уп- ражнения для самостоятельной работы, приведена программа курса и два контрольных задания. Предназначено для студентов, изучающих теорию случайных  процессов. УДК 519.216.2(075) ББК 22.171я73  1581‘! 978-5-7417-0266-6 © Булинский А. В., 2010 © ГОУ ВПО «Московский физико-технический институт (государственный университет)», 2010 
Глава  Глава  Глава  ОГЛАВЛЕНИЕ  Предисловие . . . . . . . . . . . . . . . . . . . . . 6 1. основы ТЕОРИИ ввроятноствй . 9 1.1. Системы множеств. Мера. Вероятностное пространство . . . . . . . . . . . . 9 1.2. Измеримые отображения. Распределение случайной величины . . . . . . . . . . . . . . . . . . 14 1.3. Интеграл Лебега . . . . . . . . . . . . . . . . . 20 1.4. Случайные векторы . . . . . . . . . . . . . . . 29 1.5. Семейства независимых случайных величин . 32 1.6. Сходимость случайных величин. Предельные теоремы . . . . . . . . . . . . . . . . . . . . . . . . . 36  2. ПРИМЕРЫ СЛУЧАЙНЫХ ПРОЦЕССОВ 42 2.1. Случайные функции и их свойства . . . . . . 42 2.2. Построение последовательности независимых случайных величин с заданными распределениями 51 2.3. Случайные блуждания. Задача о разорении игрока . . . . . . . . . . . . . . . . . . . . . . . . . . 59 2.4. Процессы восстановления . . . . . . . . . . . . 65 2.5. Модель Крамера—Лундберга в теории страхования . . . . . . . . . . . . . . . . . . . . . . 71 3. ГАУССОВСКИЕ ПРОЦЕССЫ И ПРОЦЕССЫ С НЕЗАВИСИМЫМИ ПРИРАЩЕНИЯМИ . . . . . . . . . . . . . . . . 77 3.1. Согласованные вероятностные меры . . . . . 77 3.2. Гауссовские системы . . . . . . . . . . . . . . . 78 3.3. Процессы с независимыми приращениями . . 86 3.4. Пуассоновский процесс и порождаемые им стохастические модели . . . . . . . . . . . . . . 92 3.5. Процесс Леви . . . . . . . . . . . . . . . . . . . 102 
Глава 4. винвговский пгоцвсс . . . . . . . . 105 4.1. Эквивалентные определения винеровского  процесса . . . . . . . . . . . . . . . . . . . . . . . . 105. 4.2. Непрерывная модификация броуновского движения . . . . . . . . . . . . . . . . . . . . . . . . 108 4.3. Явная конструкция винеровского процесса на [О‚ 1] . . . . . . . . . . . . . . . . . . . . . . . . . 112 4.4. Свойства винеровского процесса . . . . . . . . 116 4.5. Процесс Орнштейна-Уленбека. Броуновский мост . . . . . . . . . . . . . . . . . . . . . . . . . . . 123 Глава 5. МАРТИНГАЛЫ . . . . . . . . . . . . . . . . . 126 5.1. Условное математическое ожидание и его свойства . . . . . . . . . . . . . . . . . . . . . . . . 126 5.2. Фильтрация. Марковские моменты . . . . . . 133 5.3. Примеры мартингалов, субмартингалов, супермартингалов . . . . . . . . . . . . . . . . . . . 138 5.4. Свойства мартингалов . . . . . . . . . . . . . . 143 Глава 6. МАРКОВСКИЕ ПРОЦЕССЫ . . . . . . . 148 6.1. Определение марковского процесса. Примеры 148 6.2. Марковские цепи . . . . . . . . . . . . . . . . . 153 6.3. Эргодическая теорема . . . . . . . . . . . . . . 159 6.4. Дифференцируемость переходных вероятностей . . . . . . . . . . . . . . . . . . . . . . 161 6.5. Уравнения Колмогорова . . . . . . . . . . . . . 167 Глава 7. СТАЦИОНАРНЫЕ ПРОЦЕССЫ . . . . . 173  7.1. Ортогональные случайные меры и их свойства 173 7.2. Интеграл по ортогональной случайной мере . 176 7.3. Стационарные в широком смысле процессы,  их спектральное представление . . . . . . . . . . . 179 7.4. Процессы, стационарные в узком смысле . . . 186 Глава 8. СТОХАСТИЧЕСКИЙ АНАЛИЗ . . . . . . 191 „ 8.1. Построение и свойстваинтеграла Ито . . . . 191 8.2. Формула Ито . . . . . . . . . . . . . . . . . . . 196  8.3. Стохастические дифференциальные уравнения 200 
8.4. Некоторые задачи стохастической финансовой математики . . . . . . . . . . . . . . . . . . . . . . 205  Программа курса “Стохастические  процессы” . . . . . . . . . . . . . . . . . . . . . . . 208 Задание 1 . . . . . . . . . . . . . . . . . . . . . . . . 209 Задание 2 . . . . . . . . . . . . . . . . . . . . . . . . 212 Литература . . . . . . . . . . . . . . . . . . . . . . 215 
ПРЕДИСЛОВИЕ Данная книга является учебным пособием по вводному курсу "Случайные процессы", читаемому автором для сту- дентов МФТИ. Основное внимание уделяется решению задач, но в то же время каждыи раздел снабжен кратким изложе- нием основных теоретических сведении и примерами, их по- ясняющими. Наряду с детально разобранными примерами и задачами предлагаются упражнения для самостоятельнои ра- боты (наиболее трудные отмечены ~). Приводится также про- грамма лекции и два контрольных задания. Для успешного изучения теории случайных процессов чи- татель должен владеть материалом предшествующего курса теории вероятностей. Поэтому было бы желательно по мере необходимости обращаться к соответствующим учебникам, и в этой связи рекомендуктся книги [1], [8] — [12]. Пособие состоит из 8 глав, деление материала на разделы в основном соответствует учебнику [2]. Первая глава содер- жит краткие сведения из курса теории вероятностей. Точнее говоря, напоминаются важнеишие конструкции, связанные с аксиоматикой Колмогорова, а также основные понятия, отно- сящиеся к случайным величинам и векторам (независимость, интегрируемость и другие). Для активизации данных сведе- нии, с которыми студенты младших курсов обычно недоста- точно знакомы, предложен ряд упражнении. В главе 2 вводятся главные объекты теории действитель- ных случаиных процессов, а также показывается, как многие интересные для приложении модели задаются с помощью по- следовательностей независимых случайных величин. Разбира- ется элементарное построение таких последовательностеи, не опирающееся на фундаментальную теорему Колмогорова о со- гласованных распределениях. Среди предложенных примеров отметим случаиные блуждания и классическую задачу о ра- зорении игрока, процессы восстановления и модель Крамера— Лундберга, применяемую в страховании. Затрагивается и су- щественный вопрос о выборе модификации процесса. 
В главе З рассматриваются гауссовские процессы и про- цессы с независимыми приращениями, в частности, пуассо- новский процесс, а также процессы Леви. Вначале напоми- нается теорема Колмогорова о согласованных распределениях и дается ее эквивалентная формулировка в терминах харак- теристических функций мер на евклидовых пространствах. Последняя позволяет легко установить существование важных классов зависимых случайных величин. Подробно прослежи- вается явная конструкция пуассоновского процесса по после- довательности независимых экспоненциальных величин (как процесса восстановления) и проверяется независимость его приращений. Глава 4 посвящена широко используемому в различных приложениях винеровскому процессу (или процессу броунов- ского движения). Показано, что этот процесс эквивалентным образом описывается как гауссовский процесс с нулевым сред- ним и определенной ковариационной функцией, а также как процесс с независимыми гауссовскими приращениями опреде- ленного вида, начинающийся из нуля в нулевой момент вре- мени. Излагается построение винеровского процесса по функ- циям Шаудера и последовательности независимых стандарт- ных нормальных величин, приводящее к процессу с непрерыв- ными траекториями. Здесь же дается и теорема Колмогорова о существовании непрерывной модификации процесса. Обсу- ждаются задачи, связанные с выходом винеровского процесса на заданный уровень. В главу 5 отнесено знакомство с мартингалами, являющи- мися важным примером систем зависимых случайных вели- чин. В этой связи подробно рассматривается аппарат услов- ных математических ожиданий. Большое внимание уделяется фильтрации и марковским моментам (моментам остановки). формулируется теорема Дуба об остановке и рассматрива- ются некоторые ее применения. Мартингальными методами решаются задачи о разорении игрока, а также оценивается ве- роятность разорения страховой компании в модели Крамера- Лундберга. 
В главе 6 фигурируют марковские процессы как с непре- рывным, так и дискретным временем. Главным образом ис- следуются цепи Маркова с конечным или счетным простран- ством состояний. Эти процессы находят применения в самых разнообразных областях. Из затронутых тем следует отме- тить варианты построения марковских цепеи как по переход- ной матрице и начальному распределению, так и по инфини- тезимальной матрице (конструкция Дуба), а кроме того, эр- годическую теорему и дифференциальные уравнения Колмо- горова. Глава 7 содержит материал, относящийся к теории стаци- онарных процессов. Здесь вводится нетривиальное понятие спектрального представления случаиного процесса в виде ин- теграла по ортогональной случайной мере. Для этого исполь- зуются теоремы Карунена, Герглотца и Бохнера — Хинчина. Изучается и класс процессов, стационарных в узком смысле, даются примеры таких процессов и отмечается их связь с пре- образованиями, сохраняющими меру. Наконец, заключительная глава 8 предлагает начальные сведения о стохастическом анализе и сильном решении стоха- стических дифференциальных уравнений. Акцент сделан на построении интеграла Ито, а также на формуле Ито, явля- ющеися краеугольным камнем стохастического исчисления. Анализируется известное уравнение Ланжевена, приводящее к процессу Орнштейна — Уленбека. Очень сжато дается пред- ставление о возможных применениях в стохастической финан- совой математике, например, в рамках модели финансового рынка Блэка — Шоулса — Мертона. Автор признателен своим друзьям и коллегам за обсужде- ние рассматриваемого круга вопросов. Особая благодарность брату и сестре — Александру и Екатерине Булинским, про- фессорам кафедры теории вероятностей мехмата МГУ, без поддержки которых проект книги не был бы осуществлен. Андрей Булинскии, доцент кафедры высшей математики МФТИ 
Глава 1. ОСНОВЫ ТЕОРИИ ВЕРОЯТНОСТЕЙ  1.1. Системы множеств. Мера. вероятностное пространство  Напомним ряд важнейших определений. Пусть (5213) — измеримое пространство, т.е. в (непустом) множестве Б’ вы- делена некоторая система В его подмножеств, образующих а- алгебру. Это означает, что И Е В, а если А Е В, то дополнение  Й := 5 \А Е В, и для последовательности А1, А2, . .. Е В имеем  Ш:°=1А„ Е В (тогда автоматически система В будет замкнута и относительно конечных объединений ее элементов, а также относительно конечных и счетных пересечений1). Для произвольной системы М подмножеств 5’ существует порожденная ею о-алгебра, обозначаемая о{М}. Это наи- меньшая о-алгебра, которая содержит данную систему (о{М} есть пересечение всех о-алгебр подмножеств 5, которые со- держат М). В частности, наименьшая о-алгебра подмножеств К, содержащая все открытые интервалы (а, Ь), называется борелевской о-алгеброй подмножеств прямой и обозначается В Известно, что БЫК) порождается и другими системами, например, совокупностью всех полупрямых вида (—оо, ш], где а: Е К. Если 5 — метрическое (или, более общим образом, то- пологическое) пространство, то о-алгебру, порожденную си- стемой открытых подмножеств, обозначают В(Б'), а её эле- менты носят название борелевскиа: подмножеств 5. Система 1С подмножеств Б’ называется полукольцом, если выполнены следующие условия: 1) если А, В Е 1С, то АПВ Е 1С; 2) если А,В Е 1С И А С В (всюду пишем С вместо Е), то В\А можно представить в виде конечного объединения попарно не- пересекающихся элементов 1С. В главе 7 будут использованы такие системы. Совокупность полуинтервалов вида (а, Ь], где —оо < а Е Ь < оо, дает важный пример полукольца подмно- жеств К  1Замкнутость системы подмножеств пространства 5’, содержащей И, относительно взятия дополнения и конечных объединений и пересечений означала бы, что данная система образует алгебру. 
Мера Лебега и на (К", В(Е")), где и Е И, задается вначале на прямоугольниках вида С = (а1,Ь1] х ... х (а„, Ь„], причем а), < Ь~, Й = 1, ..., и, следующим образом: П р(с):= П(6~ — а~). й=1 Затем она однозначно продолжается (см., напр., [5, с. 317]) на В(~"). При этом р(~") = оо, но получается о-конечная мера, т.е. ~" можно разбить на счетное число борелевских множеств (например, кубов с ребрами единичной длины), имеющих ко- нечную меру Лебега. Мера Лебега на В(С), где С вЂ” борелев- ское подмножество Е", является ее сужением с В(~") на В(С) (см. упр. 3). Определение 2. Вероятностью называется мера и, для которой р(Я) = 1. Тогда по традиции вместо и пишут Р (от английского ртоЬ- аЬййу). Доказывается, что для конечной меры и (т.е. при рф) ( оо) счетная аддитивность равносильна одновремен- ному выполнению двух своиств — конечнои аддитивности и непрерывности. Последнее означает, что для А1,А2,... Е В таких, что А„< 1 С А„при всех и Е 1Ч, Вероятностное пространство (Й,У, Р) вводится как из- меримое пространство (Й, У), на котором задана вероятность Р. Здесь Й вЂ” пространство элементарных исходов (некото- рого случайного эксперимента), элементы которого (исходы) обозначаются и. Подмножества Й, входящие в У', называются событиями. Описание случайных экспериментов с помощью вероятностных пространств было предложено А.Н. Колмого- ровым. Перечисленные выше требования к событиям и веро- ятности носят название аксиоматики Колмогорова. Если Й состоит из конечного или счетного числа эле- ментарных исходов, а У содержит все подмножества Й, то 11 
(Й,Г, Р) называется дискретным вероятностным простран- ством. При этом, обозначив р), = Р((и),)), имеем упражнение 4. Убедитесь, что располагая неотрицатель- ными числами р), (Й = 1,2,...), в сумме дающими единицу, можно построить дискретное вероятностное пространство с помощью формулы (2). В частном случае, когда Й = (и1, ..., иу) и каждому ис- ходу приписанавероятность ~ (т.е. р~ = ~ для )с = 1,...,Ж), 1 1 имеем Р(А) = — ~~ —, где К(А) — число элементарных исходов, К(А) составляющих событие А. Эта формула носит название клас- сического определения вероятности. Вероятность обладает рядом простых свойств. Например, Р(А) < Р(В), если А с В (А и  — события). Сдбаддитив- ность вероятности означает, что для любого конечного или счетного набора событий А1,А2,... верно неравенство (убе- дитесь в качестве упражнения) При подсчете вероятности некоторого события А часто используется введение вспомогательного разбиения простран- ства Й на события В1, В2,..., т.е. Й = 0„В„, причем В;) ') В = Я при г ~ у, а затем в силу счетной (а значит, и конечной) аддитивности вероятности применяется равенство Р(А) = ~ Р(А и В„), (4) 12 часто мы пишем АВ вместо АПВ, а иногда и Р(А, В, С) вместо Р(АПВПС). Вез ограничения общности будем далее предполагать, что вероятностное пространство пояно, т.е. любое подмножество 
события нулевой вероятности входит в о-алгебру Т и, следо- вательно, также имеет вероятность нуль. При этом говорят, что вероятностная мера Р полна.  Упражнение 5. Показать, что, добавив в ‚Т все подмно- жества событий нулевой вероятности, образующие класс А/ нулевыа: множеств, мы получим о-алгебру 7 = ‚77 Ш АТ. Про- верить, что если положить Р(С') := Р(А) для С = А Ц В, где А Е Т и В Е М, мы получим корректно заданноег продол- жение исходной вероятности Р с У: на 7, которое окажется полной вероятностной мерой.  У словнал вероятность А при условии В определяется фор- мулой  Р А В Р(А|В) := Щ, где А,Б Е 7: И Р(Б) 75 О. (5) Р(В) Если дано разбиение О на события В1,В2, . . . , имеющие поло-  жительную вероятность, то из (4) и (5) мы сразу же получаем формулу полной вероятности:  Р(А) = Е) Р‹А|в„)Р‹в„›. (в)  Говорят, что событие А не зависит от события В, если Р(А|В) = Р(А). Однако более удобное определение независи- мости А и В (оно симметрично и не предполагает, что веро- ятности рассматриваемых событий не равны нулю) таково:  Р(А П В): Р(А)Р(В). Определение 3. Семейство {Адй Е Т} состоит из незави-  симыа: (в совокупности) событий, если для любого конечного множества индексов „Т С Т имеем  Р (П м) = Прод).  16.1 $61  2т.е. С = 241051 = 242 032, Где А: Е 7 И В; Е М `5 = 1,2), влечет Р(А1)= Р(А2).  13 
Часто независимые события возникают при рассмотрении произведений вероятностных пространств (см. далее теорему Фубини в пункте 1.5). Нам потребуется также Лемма 1 (Борель-Кантелли). 1. Пусть событпия А1, А2,... таковы, что ~; Р(А„) ( оо. п=1 Тогда Р(А) = О для А=П ДА п=1 т=п 2. Если А1,А2, ... — независимые события и ~ Р(А„) = оо, п=1 то Р(А) = 1, где А фигурирует в (7). Если какое-то свойство выполнено для элементарных ис- ходов, образующих событие вероятности единица, то гово- рят, что это свойство имеет место почти наверное (п.н.). Первое утверждение леммы Бореля — Кантелли означает (см. упр. 1), что бесконечное число событий из последовательно- сти А1, А2,... происходит с нулевой вероятностью, а второе — что почти наверное. 1.2. Измеримые отображения. Распределение случаинои величины Понятие случайной величины было введено для того, чтобы количественно описывать результаты случаиных эксперимен- тов. Простейшие примеры таких величин — это количество выпавших "гербов" при подбрасывании монеты и раз или раз- мер выигрыша в лотерею какого-то определенного м участ- ника. Для развития теории важную роль играет Определение 4. Случайная величина Х вЂ” это действи- тельная функция, заданная на Й и обладающая свойством из- меримости, т.е. прообраз любого борелевского множества прямой является событием (пишут Х Е У~в(Е)). Другими словами, для любого В Е 8(Е) его прообраз Х (В):= (Х е В) = (и: Х(и) е В) е У. (8) 14 
Легко видеть, что на дискретном вероятностном про- странстве любая действительная функция будет случайной ве- личиной. Распределением случайной величины Х называется мера Р х на (К, Б(1К)), определяемая формулой  РХ(В) ;= Р(Х’1(В))‚ в е ваш). (9)  Часто вместо Р Х пишут Ьаш(Х), при этом говорят о законе распределения величины Х.  Упражнение 6. Проверить, что формула (9) задает веро- ятность на (К, ВСЮ).  Случайная величина Х называется бернуллиевсной (с па- раметром р Е (О, 1)), если  Р(Х=1)=р‚ Р(Х=О)=1—р.  Говорят, что У имеет биномиальное распределение с пара- метрами п Е М и р Е (О, 1) (пишут У ы В(п,р)), если  Ре’ = к) = 0‚’:р"‹1 -р)""°‚ к = о‚...‚п‚  к _ ! . где 0„ — 7-й“ п"; ‚с ! (как обычно, О! .= 1). Запись 2 ы Ро1з(>\) означает, что случайная величина 2 имеет распределение Пуассона с параметром А > О, т.е.  Р(2=п)=—е"›‘, п=О,1,....  Упражнение 7 . Доказать, что справедливость (8) для ка- ждого В Е ВПК) равносильна тому, что Х "1(С') Е Т для лю- бого С’ из системы М, порождающей В  Последнее упражнение показывает естественность данного определения иэмеримости. Действительно, на практике мы сталкиваемся с необходимостью ответить на вопрос, лежит ли измеряемое значение случайной величины в некотором интер- вале (а, Ь). Например, можно ли утверждать, что с вероятно- стью, близкой к 0,99, время исправной работы электрической лампочки будет больше, чем в часов (в данном случае интере- сующий нас интервал — это (з, 00))?  15 
Отметим также„ что в ряде случаев можно говорить и о вероятности попадания значений случайной величины в мно- жества, не входящие в борелевскую а-алгебру. Простейший пример такого рода представляет (вырожденная) случайная величина Х = с, где с — некоторая константа. Тогда для любого В С К, очевидно, Р(Х Е В) есть единица или нуль в зависимости от того, принадлежит или нет константа с этому множеству.  Упражнение 8. Постройте пример невырожденных слу- чайных величин Х и У, определенных на одном и том же ве- роятностном пространстве и таких, что для некоторого мно-  жества С’ Е ВПК) имеем Х‘1(С') Е Т, но У’1(С') Е 7’.  Пример 1. Пусть 62 — вероятностная мера на (К, ВСЮ). Покажем, что на некотором вероятностном пространстве най- дется случайная величина Х, для которой Р х = О. Выберем О = К, ‚77 = ВПК), Р = 62, а Х = 1 — тождествен- ное отображение К в себя. Легко видеть, что это — искомая случайная величина. Заметим, что сказанное допускает обобщения на случай- ные векторы. Случайные величины образуют линейное пространство (сумма случайных величин и произведение случайной вели- чины на константу являются случайными величинами). Функция распределения случайной величины Х определя- ется формулой Рх(а:) := Рх((—оо,а:]) = Р(ш : Х(ш) < 2:), а: Е К. Эта функция обладает следующими свойствами: 1) не убывает на 112; 2) непрерывна справа в каждой точке а: Е К; 3) Нш Рх(:1:)=0; Ф-ё-ОО 4) 11111 Рх(а:) = 1. Ф-РОО Более того, любая функция с такими свойствами может слу- жить функцией распределения некоторой случайной вели-  16 
чины. Заметим,что Рх((а, Ь]) = Ру(Ь) — Рх(а) для — оо < а < Ь < оо, поэтому по Рх мера Рх однозначно восстанавливается на (К,н(К)). Здесь применяется теорема Каратеодори об одно- значном продолжении вероятностнои меры с полукольца мно- жеств на порожденную им о-алгебру (см., напр., [1, с. 419]). Плотность (распределения) случайной величины Х вЂ” это такая неотрицательная функция р = р~ на К, что при всех хЕК гх(х) = р(и) аи. ( — оо, х] (10) Разумеется, плотность существует не у каждой случайной ве- личины. Интеграл в (10) понимается как интеграл по мере Лебега на (К, 8(К)) от функции рП~ ], где Пн — индикатор множества В, т.е. Пд(и) = 1 для и Е В и Пд(и) = 0 в против- ном случае. Чтобы сейчас не отвлекаться на детали, можем ограничиться рассмотрением кусочно-непрерывных функций р, для которых интеграл Лебега в (10) совпадает с (несоб- ственным) интегралом Римана. Плотность р является неотрицательной интегрируемой функцией такой,что (и) (где по-прежнему берется интеграл по мере Лебега, постро- ение которого дано в следующем пункте). Обратно, любая неотрицательная функция со свойством (11) может служить плогностью распределения некоторои случжнои величины. Случайная величина Х называется равномерно распреде- ленной на отрезке [а, Ь] (где а < Ь), если ее плотность дается формулой для и Е [а,Ь], 0 для и ф [а, Ь]. Случайная величина У имеет показательное (зкспонен- ииальное) распределение с параметром А ) 0 (тогда пишут 17 
У м Ехр(А)), если  О дляи<О,  рус”) = {Ае”`“ для и 2 0. (13)  Напомним также, что величина 2 называется гауссовской (или нормальной) с параметрами а и 02, где а Е К и а > О, если  р2(и) = 0357? ехр{— Шёг-Ё} , и Е К. (14)  Используется обозначение 2 м А/(а, 02). Обычно в семейство гауссовскиэс включают и величину АТ (а, О), полагая, что в этом случае (т.е. при 02 = О) имеем 2 = а п.н. Величина У имеет распределение Коши с параметром а > О (стандартное при а = 1), если ее плотность , и Ё К. $ Пишут 5 ы Г(а, А) и говорят, что случайная величина 5 имеет гамма-распределение с параметрами а > О И А > О, если '  Рт/(и) =  а а—1 11504) = 14:33“ е—’\ип[о,оо)(и)‚ и Е К, (15)  где гамма-функция Эйлера Х Г(а) :=] и°`1е"" от. О  В частности, при а = т‘ (т — натуральное число) и А = ё получается часто используемое в математической статистике распределение зги-квадрат с т‘ степенями свободы, т.е. распре- деление суммы квадратов т‘ независимых нормальных величин  с параметрами О и 1. Упражнение 9. Проверьте, что функция, задаваемая формулой (14), удовлетворяет соотношению (11). Определение 5. Функция 1‘ : К —› К называется борелев- ской, если для любого В Е ВПК) его прообраз 1‘ ’1(В) Е ВПК).  Это определение переносится на функцию 1‘, отображаю- щую метрическое пространство 51 в метрическое простран-  18 
ство 52 (оба пространства снабжаются а-алгебрами борелев- ских множеств). А именно, требуется, чтобы прообраз ка- ждого борелевского множества из 52 был борелевским множе- ством в 51. В частности, в определении 5 мы рассматривали в качестве 51 и 52 числовую прямую К с ее борелевскими под- множествами В(К) (см. также упр. З).  Упражнение 10. Пусть Х — случайная величина со зна- чениями в борелевском множестве С‘ и 1‘ : С‘ —-› К — борелев- ская функция. Проверить, что 1‘ (Х) — случайная величина.  Замечание 1. Результат этого упражнения легко обобща- ется на суперпозиции п измеримых отображений произволь- ных измеримых пространств. Например, пусть даны измери- мые пространства (5‚„В;„)‚ где 1: = 1,2,3, а [1 : 51-—› 52 и 12 : 52 +-› 53, причем Д, 12 являются соответственно В1|В2- и ВДВЗ-измеримыми. Тогда отображение [2 о Д : 51 —› 53 будет БЦВЗ-игмеримо (т.е. {аз Е 51 : 1201 (13)) Е В} Е 81 для любого В Ё 83 .  Пример 2. Пусть С Е Б(К) и 1 : С —› К — Неубывающая функция. Докажем, что она борелевская. В силу упр. 7 достаточно проверить, что прообраз множе- ства (—оо‚а:] входит в Б(С') для каждого а: Е К Множество А = {и Е С‘: [(21) < аз} имеет вид ОП (—оо,а) или ОП (—оо,а], поскольку функция 1‘ не убывает, здесь а = а(а:) Е К Следо- вательно, А Е В (С) согласно упр. 3.  Упражнение 11. Пусть 51,52 — метрические простран- ства и 1‘ : 51 -—› 52 — непрерывное отображение. Проверить, что 1‘ — борелевская функция.  Упражнение 12. Пусть случайная величина Х равно- мерно распределена на отрезке [—1, 1]. Найти распределение случайных величин У = Х 2 И 2 = $111 Х. Полезно ввести следующее понятие. Расширенной случай- ной величиной называется функция 2 : О —› [—оо,оо] такая, что {2 Е В} Е Т для любого В Е В(К), а также {2=—оо} Е ‚77 и {2 = со} Е 7.  19 
1.3. Интеграл Лебега  Математическое ожидание случайной величины Х зада- ется формулой ‘  ЕХ=]ХаР, о  т.е. представляет собой интеграл Лебега от (измеримой!) функции Х = Х (ш) по мере Р. Этот интеграл (пишут также [О Х (ш)Р(с1ш)) определяется в три этапа. Вначале для простой случайной величины вида  п Х = Е ‘ИСЛАМ 1с=1  где события А1,. . . ‚Ад образуют разбиение П, а1,.. . ,а„ЕК+‚ „п 6 М, полагаем ‘П ЕХ = :а‚„Р(А‚„). (17) 1с=1  Далее для любой неотрицательной случайной величины Х определяем ЕХ=вир{ЕУ: УЕР, О<У<Х}н<оо, где ‘Р — класс простых случайных величин. Наконец, знакопе-  ременную величину Х записываем в виде Х = Х + — Х “, где Х+ := ХДХЗО} и Х“ := —ХП{Х<0}. Теперь вводим  ЕХ := ЕХ+ - ЕХ‘,  если не возникает ситуация оо — оо. В последнем случае го- ворят, что ЕХ не существует (считается, что оо — с := оо, а с — оо := —оо для любого числа с 6 К).  Упражнение 13. Объясните, почему определение (17) не зависит от представления Х в виде линейной комбинации ин- дикаторов событий, образующих разбиение, т.е. если Х =  = Ё 65113„ где В1,...,В„, —еразбиение О и Ь1,...,Ьт Е Щ, то  3:1  ЕХ = Ё”: ЬдР(В,) совпадает с (17). 5:1  20 
упражнение 14. Покажите, что определение (17) будет деиствовать и для знакопеременнои простои случжнои вели- чины Х, т.е. когда а1,..., а„Е К. упражнение 15. Постройте неубывающую последова- тельность неотрицательных простых величин Х„, сходя- щихся на Й к данной случайной величине Х > О, т.е. О < Х„(и) < Х„»1(и) и Х„(и) -+ Х(и) при всех и Е Й (пи- шем О < Х„,Р Х при такой монотонной сходимости). Теорема 1. Пусть О < Х1 < Х2 < ... / Х на Й. Тогда существует (18) ЕХ = 11т ЕХ„. 7$~0О ирако используется и теорема Лебега о мажорируемой сх имости: Теорема 2. Пусть случайные величины Х, У и Х„, где и Е И, таковы, что Մ— ~ Х на Й при и ~ оо, причем ~Х„~ < У и ЕУ < оо. Тогда Х вЂ” интегрируемая величина и выполнено Совокупность случайных величин, заданных на одном ве- роятностном пространстве и для которых конечно математи- ческое ожидание, обозначается Ь1 = Ь1(Й, У, Р). Величины из Ь называются интегрируемыми. Точнее говоря, мы не разли- 1 чаем при этом случайные величины Х и У, которые являются 21 упражнение 16. Докажите, что для произвольной после- довательности простых величин О < Х„,Р Х верно соотноше- ние ЕХ = 11т ЕХ„. И-+ ОО В связи с механической интерпретацией формулы (17) (как центра тяжести системы материальных точек а1,..., а„, в ко- торых соответственно сосредоточены веса Р(А1),..., Р(А„)) математическое ожидание называют средним значением слу- чайной величины, или просто средним. Полезной является теорема о монотонной сходимости, где (Х„)„~~ — последовательность случайных величин (необяза- тельно простых в отличие от упр. 16): 
следовательно, ОХ е [О, оо]. Обычно говорят, что диспер- сия существует, если она конечна. Механическая интерпрета- ция введенной характеристики такова: дисперсия — это мо- мент инерции некоторой системы материальных точек (отно- сительно центра тяжести). Заметим, что ОХ = ЕХ2 — (ЕХ)2.  Пример 3. Найдем дисперсию бернуллиевской величины Х .  Имеем ЕХ = 1 - р + О - (1 — р) = р. Величина Х 2 принимает соответственно значения 12 = 1 с вероятностью р и 02 = О с вероятностью 1 — р. Поэтому ОХ = р — р2 = р(1 — р). Пусть Ь : К —› К является вьшуклой функцией, т.е.  Мая: + (1 — а)у) < а/ъ(:с) + (1 — а)/ъ(у)  для всех 1:, у Е К и а е [О, 1]. Тогда, если ЕХ конетшо, то верно неравенство Йенсена:  МЕХ) < Е(Н(Х))- (21) НЗЛОМНИМ еще НОСКОЛЬКО ВЕЪЖНЫХ СВОЙСТВ математического  ожидания: 1) если величина Х интегрируема и Р(С') = О, то  Х Ха!Р ;= ЕХПС = о; (22) С  2) если Е|Х| = О, то Х = О п.н.; 3) если величины Х и У таковы, что Х интегрируема, а также У = Х п.н., то У интегрируема и ЕУ = ЕХ; 4) если величины Х и У интегрируемы и Х < У п.н., то ЕХ < ЕУ; 5) если Х 1, Х2, . .. — неотрицательные случайные величины,  ТО Е (Е: м) = 2 ЕХ„. (23) п=1 п=1  При этом допускается случай оо = оо. Х Если правая часть (23) конечна, то 2 Хд < оо п.н. Мы поль-  п=1 зуемся тем, что для неотрицательной расширенной случайной  23 
величины 2 точно так же можно ввести математическое ожи- дание (если оно конечно, то 2 < оо п.н.). Как правило, все рас- сматриваемые далее расширенные случайные величины оказы- ваются конечными п.н. (иначе говоря, 2 совпадает с некото- рой действительной случайной величиной Х на событии, име- ющем вероятность единица). Для знакопеременных случайных величин соотношение Х (23) верно, когда Е Е|Х„| < оо. п=1 Аналогитшо 131 вводится пространство П’ = ЬРЮД’, Р), где р > О, состоящее из (классов эквивалентных) случайных величин таких, что Е|Х|р < оо. Пространство П’ при р 2 1 будет банашовьъм, если ввести (на классах эквивалентности!) норму ||Х_||‚, := (Е|Х |1’)1/". Пространство 1,2 со скалярным произведением (Х, У) := ЕХУ является гильбертовым. Отметим, что из (21) следует неравенство Ляпунова: ПХНр < НХНа при 1 < р < а- Если 5 = Х +221’, где Х, У — интегрируемые действитель-  ные случайные величины, а 12 = —1, то полагают  ЕБ‘ ;= ЕХ + игу. (24)  Интеграл по конечной, но необязательно вероятностной, мере и на (5, В) (О < 1/(5) < оо) задается формулой  / 1‹ш›и«2а=›==и‹з›/теориям, $ 5 где Р(В) := 1; Ё , В Е В (или эквивалентным образом все три этапа построения математического ожидания можно по- вторить и для и). Разумеется, не каждая измеримая функция 1‘ будет интегрируемой по заданной мере. Для борелевской4 функции Ь, : К —› К справедлива формула  Ещх) = /1ъ(а:)Рх(с1а:), (25) К.  4В частности, кусочно-непрерывная функция п — борелевская.  24 
где оба интеграла существуют или не существуют одновре- менно (и если существуют, то равны). Учитывая, что рас- пределение Р х однозначно связано с функцией распределения РХ(-) случайной величины Х, вместо интеграла в правой ча- сти (25) пишут [к /ъ(а:)с117`х Если у величины Х существует плотность р, то  Ещх) = / носиками. ‹2в›  В  Эта формула — частный случай общей формулы перехода к интегрированию по новой мере, относительно которой абсо- лютно непрерывна5 исходная мера. В (26) (и далее в (32)) фи- гурируют интегралы, берущиеся по мере Лебега. Они опреде- ляются для о-конечной меры и на (5313) аналогично интегралу по конечной мере, а именно, рассматривается разбиение про- странства 5 на счетное число попарно непересекающихся мно- жеств В1,В2, . .. Е В, для которых и(В;„) < оо при всех А: Е М, а затем для измеримой 1’ 2 О вводится  А утомит) == г: А хжв, мат),  где 1‘ |в‚„ — сужение функции 1‘ на множество Вд, щ, — суже- ние меры и на (Вд, В П Вд). Доказывается, что результат не зависит от выбора разбиения пространства Б’. Для знакопере- менной функции 1 интеграл вводится по той же схеме, что и при построении ЕХ, когда Х имеет значения разных знаков.  Упражнение 17. Объясните, почему у дискретной слу- чайной величины (т.е. принимающей конечное или счетное число различных значений) не существует плотности.  Упражнение 18. Постройте такую измеримую функцию 1‘ : К —› К, а также меры и и 1/ на пространстве (К, В (ЕЮ), для которых [к [ст существует, но [в 1” йи не существует.  5Это понятие дается в пункте 5.1.  25 
где РС~„= Р(б) С(о) — Р(а) С(а). х(1 — Ру (х) ) ах. соч(Х,У):= Е(Х вЂ” ЕХ)(У вЂ” ЕУ) = ЕХУ вЂ” ЕХЕУ. (29) Ковариация представляет собой билинейную функцию. Оче- видно, дисперсия Х задается формулой 0Х: = соч(Х, Х). Для случайных величин из пространства Ь~ ковариация су- ществует и, более того, ~ соч(Х, У) ~ < (0Х 0У) поскольку в силу неравенства Коши — Буняковского — Шварца: (Х,У) < ))Х~)~~У~~ (норма и скалярное произведение в Ь2 были введены ранее). Если Х Е Ь~ и константа с Е К, то 0(сХ) = с20Х, 0(Х+ с) = 0Х. Для величин Х1,..., Х„~ Ь~, полагая .7 = (а,~ Е (1,..., п), з ф- Д, можем записать 'й П о Кх, =Кох„»- К ч~х,х,). й=1 1=1 ~,~Е .7 (30) В заключение этого раздела приведем часто используемый результат. 27 В частности, отсюда можно получить, что для случайной величины Х аосолютный момент порядка т (т Е Щ Е~Х~~ = т х~ 1(1 — Р~(х) + Гх( — х))Их. (О,оо) Для неотрицательной случайной величины Х имеем ЕХ = (1 — РА.(х))дх, ЕХ = 2 (О, оо) (О, оо) Если для случайных величин Х и У существуют ЕХ, ЕУ и ЕХУ, то ковариаиией Х и У называется число 
Теорема 3 (Фубини). Пусть 01 и 02 — вероятностные меры соответственно на измеримыа: пространстваа: (Б1,Б’1) и ($2,Б2). Тогда справедливы следующие утверждения: 1) на пространстве (5, В) = (51 х 52,31 ® 82) существует единственная вероятность Р, обозначаемая 01 ® (22, та- ная, что  Р(В1 >< 32) = О1(В1)О2(В2)  для любыа: Б1 6 81 и [32 6 232; 2) если 1’ : 5 —› К интегрируема по мере Р (а значит, и В-из- мерима), то отображения  $1 :—› __1"(:1:1,$2)О2(д:с2) и $2 э—›/ [(ш1,:1:2)О1(д:с1) 52 ' 51 являются соответственно В1- и В2-измеримыми и  А1'($)Р(д$)=[91 ([921°($1›$2)02(д$2)) 0101071) = =] (А1]°($1‚$2)01(4$1))02(<1932)› $= (5В1‚Ш2)› (31)  $2 причем все интегралы в (31) существуют; 3) если для В-измеримой функции 1‘ : 5’ —› К существует ин- теграл  191 ( $2 |1°($1‚$2)|02(61$2)) 01011171) < 00  или существует  [92 ( $1 |1'(Ф1‚Ш2)|Ф1(С1$1))0201132) < 00,  то существует (конечный) ]51‘(а:)Р(да:) и выполнено ра- венство (31).  Таким образом, если существует двойной интеграл по мере Р, то он может быть сведен к повторному, берущемуся в произвольном порядке. Если же существует повторный инте- грал от модуля функции 1‘ , то существует и двойной, который совпадает с повторными.  28 
Упражнение 21. Постройте пример, показывающий, что если в условиях пункта 3 теоремы Фубини отказаться от взя- тия модуля функции 1‘ (т.е. рассматривать 1‘ вместо |1"|)‚ то  ' утверждение не обязано выполняться.  Заметим, что если отождествить событие В1 с множеством Ё1 = В1 х $2, а В2 — с множеством Б2 = 51 х 82, то в про- странстве ($1 х 52, 81 ®Б2› 01,58 О2)Нони будут независимы, т.е. независимы будут события В1 И В2. Известно, что теорема Фубини обобщается на произведение п вероятностных про- странств, а также существуют ее обобщения для а-конечных мер на измеримых пространствах. В следующих двух гла- вах мы затронем проблематику независимости бесконечных семейств событий, а также семейств случайных величин.  1.4. Случайные векторы  Приведенное в пункте 1.2 определение случайной величины (и ее распределения) легко переносится на отображения в бо- лее общие измеримые пространства, чем (К, В Для любых измеримых пространств (У, А) и (5313) отображение Ь : У —› 5 будет АПЗ-измеримо, если /Г1(В) Е А при любом В Е В. Если (У, А) снабжено вероятностью, то 12 обычно называют случай- ным элементом. Заметим, что случайный вектор Х : $2 —› К", т.е. вектор-столбец с компонентами Х 1, . . . , Хп (тем не менее пишем Х = (Х 1, . . . , Х„)) можно понимать просто как упоря- доченный набор п, действительных случайных величин.  Упражнение 22. Покажите, что2 —расширенная случай- ная величина тогдаитолько тогда, когда 2 Е .7:|В([—оо, оо]),где последняя а-алгебра состоит из множеств вида В, В Ш {—оо}, В Ш {оо}, В Ш {—оо} Ы {оо}, {—оо}, {оо} и {—оо} Ц {оо}, здесь В Е ВПК). Всюду вместо +00 пишем оо. Напомним (см. замечание 1), что если Х = (Х1‚ ..., Хд) — случайный вектор, а 1‘ : К" —› К” — борелевскал функция, т.е. 1‘ Е В(К")|В(К’°)‚ то ](Х) —— случайный вектор. Плотность рх(:с) вектора Х = (Х1, ..., Х„) — это такая неотрицательная интегрируемая по мере Лебега в К" функ-  29 
6  ция, что для любого борелевского множества В С К” верно  равенство  Рх(В) = /рх(а:)с1:с‚ где а: =(:с1‚...,:1:„) Е К". (32) В  Заметим, что р х для вектора также можно определять по (многомерной) функции распределения, используя аналог (10), что означает выбор в (32)  В = (—оо,:в] := (—оо‚:с1] х . .. х (—оо,а:„], (ЗЗ)  где а: = ($1, . . . ,ш„) Е К”. Плотность определена однозначно с точностью до ее изменения на множестве (лебеговской) меры нуль.  При наличии плотности р х вектора Х = (Х 1, . . . ‚Х„) для любого подвектора У, состоящего из части компонент век- тора Х, т.е. У = (Хд1,...‚Хд‚с), тоже существует плотность ру. Чтобы найти ру, надо проинтегрировать р Х по всем пе- ременным ид, для которых] Е {1‚...,п} \ {ё1,...‚ё;„}. В част- ности, Х РХКЩ) = Х Р(х1‚х2)(и1›и2)ди2- (34) —оо  Для случайного вектора Х со значениями в пространстве К" справедливы аналоги рормул (25) и (26), в которых теперь а: Е К", а интегрирование по К заменяется на взятие интеграла по К”. Упражнение 23. Пусть плотность распределения вектора (У1,У2) равна  е"ЬЁк` Р(у1,У2)($›З/) = Т (1 +9($›у))‚  где функция 9(т‚у) = 0 Вне квадрата Кану) = |т| < 1‚ |у| < 1% а внутри 9(а:‚ у) = шу(ш2 —у2). Найдите распределение величин 1/1 и Ю, а также со\/(У1,У2).  6Из таких множеств состоит а-алгебра ВПК"), порожденная всеми от- крытыми подмножествами К" (порождающая система не единственна!).  30 
На пространстве (К”,В(К")), где п ЕЕ М, существует вза- имно однозначное соответствие между конечными мерами и их функциями распределения (функция распределения Р ко- нечной меры 62 вводится формулой Р(.т) := О((—оо, а:]), здесь а: Е К" и множество (—оо,а:] определено в (33)). Кроме того, существует взаимно однозначное соответствие между конеч- ными мерами и их характеристическими функциями. Для меры 62 ее агарантеристичеснал функция задается формулой  срыв) == / е“”“”62(с1а=)‚ з е К”, п (35) (5,:с) = Ездшд, 722 = —1. /с=1  Если Х — случайный вектор со значениями в К", то его характеристическая функция ‹,о вводится как сро(-), где О = Р х. Пользуясь многомерным аналогом формулы (25), а также формулой (24), имеем  фх(з) =/ ед(”“’)Рх(с1а:) = Ееддх), 5 Е К", 62 = —1. (36)  Напомним, что матрица С’ порядка п с действительными элементами ед’, называется неотрицательно определенной (пишут С’ 2 О), если (С’з,з) 2 О при произвольном векторе з: (31, ..., 5„) ЕЕ”, где  П (Св,з) = Е: сддздзт. 1с,т=1  Говорят, что случайный вектор Х со значениями в К" имеет многомерное нормальное или гауссовсное распределе- ние с параметрами а и С’, где а Е К”, а симметричная ма- трица С 2 О, если  . . 1 . фх(з) = ехр {2(5,а) — ё- (Сз,з)}, з Е К”, 22 = —1. (37) Используется обозначение Х ш А/ (а, С’).  31 
Определение 6. Семейство {Хый Е Т} состоит из неза- висимьш: случайных величин, если независимы а-алгебры, по- рожденные этими величинами.  Величина Х, порождает а-алгебру (подалгебру Т) 0'{Х‚;} := {{Х‚; Е В},В Ё 8013)},  состоящую из прообразов всех борелевских множеств при ото- бражении Х; : О —-› К. Поэтому определение 6 означает с.ле- дующее: для любого конечного множества 1 С Т и любых борелевских множеств В; С К, где й Е „Т, верно равенство  Р П{Хъ Ё 3:} = П РНХ: Е ЕЙ)- (39)  $61 $61  Замечание 2. Для проверки независимости {Хдй Е Т} достаточно проверять (39) не для всех борелевских Вд, т? Е 1, а лишь для множеств вида В; = (—оо, агд] (или, например, В; = = [а:д, 00)) при всевозможных значениях а); Е К (т? Е 1  Очевидно, независимость событий из семейства {Ад 1? Е Т} равносильна независимости их индикаторов, т.е. системы слу- чайных величин {П ‚М: Е Т}. Случайные величины, не являющиеся независимыми, назы- ваются зависимьими. Возможность построения последователь- ности независимых случайных величин с заданными распре- делениями доказывается в следующей главе.  Упражнение 27. Пусть Х 1, . . . ‚Хп — дискретные случай- ные величины (каждая из которых принимает конечное или счетное чис.ло своих различных значений). Тогда их независи- мость равносильна выполнению условия  п Р(Х1 = 171,... ‚Х„ = а.) = П Р(Х‚, = 2,), (40) /с=1 где аи, — произвольное значение величины Х д, (А: = 1,... ,п).  Объясните, почему для недискретных величин независимость не сводится к справедливости (40) при произвольном выборе $1 ‚ о о о ‚$11.  33 
Если величины Х 1, ...‚ Х„ независимы и интегрируемы, то П2=1 Хд Е 111, причем  П П Е П х, = П ЕХд. (41) К=1 К=1 В частности, сох/(Х, У) = О для независимых случайных ве- личин Х,У Е 131. Если Х1,...,Х„ Е 132 и независимы, то в  силу (30) верна формула ‘По П о 2 Х‚„ = 2 ох, К=1 К=1  Упражнение 28. Постройте пример, когда случайные ве- личины интегрируемы, но их произведение неинтегрируемо.  Упражнение 29. Дайте пример зависимых, но некоррели- рованных величин Х, У Е 132, т.е. таких, что со\/(Х, У) = О.  Величины Х 1 , . . . , Х„ независимы тогда и только тогда, ко- гда характеристическая функция вектора Х = (Х1,. . . ,Х„) распадается в произведение характеристических функций компонент, т.е.  фх(з1,...,з„) = ‹рх1(з1)...‹рх„(з„), з1,...,з„ Е К.  Если у вектора Х = (Х 1, . . . ,Х„) существует плотность рх(и1,... ,и„), то независимость его компонент равносильна выполнению почти всюду по мере Лебега в К" условия  рх(и1,...,и„) =рх,(и1)...рх„(ип), (и1,...,и„) Е К",  т.е. точки, для которых данное равенство не выполняется, образуют множество лебеговской меры нуль. Иначе говоря, совместная плотность величин Х 1, . . . ,Х„ распадается в про- изведение их плотностей. Св врттсой функций распределения Р и С’ называется функ- ция  (г ч: от) := А яка; - у)сЮ’(у), ас е н. (42)  34 
борелевские функции, берущиеся от непересекающихся набо- ров независимых случайных величин, будут независимы. Так, например, для независимых величин Х1,Х2,Х3,Х4,Х5 неза- висимыми являются 1п(1 + |Х1 + Х4|), сов Х2, ехр{Х3 + Х5}, поскольку они соответственно измеримы относительно неза- висимых а-алгебр 0{Х1,Х4}, а{Х2} и а{Х3,Х5}. 1.6. Сходимость случайных величин. Предельные теоремы Напомним определения четырех видов сходимости после- довательности случайных величин. Последовательность (Х„)„еы сходится с вероятностью единица (или почти наверное) к случайной величине Х, если Р(ш : Х„(ш) —› Х(ш), п —› оо) = 1. (44)  Обычно это записывается Х„ —› Х п.н. (или а.3. от англий-  ‘ского а1п1оз1з зиге). Другими словами, имеет место обычная  поточечная сходимость функций Хп к функции Х на событии С’, вероятность которого равна единице. Упражнение 33. Покажите, что множество, стоящее под знаком вероятности в (44), является событием. `  Упражнение 34. Докажите, что (44) равносильно тому, что при каждом е > О  Р(ш:5ир|Х;,(ш) —Х(ш)| 26) —›О, п—›оо. (45) 1:21:  Упражнение 35. Для несчетного семейства случайных ве- личин {Хь 1% 2 О} соотношение Х; —› Х п.н. (23 —› оо), анало- гичное (44), где Х — случайная величина, уже не обязано быть равносильно следующему аналогу (45): при любом г > О  Р(ш : зир |Хд(ш) — Х(ш)| 2 г) —› О, п —-› оо. (46) $212.  Дело в том, что под знаком вероятности в (46) не обязательно фигурирует событие, поскольку верхняя грань берется по не- счетному множеству. Однако если (46) имеет место, то убе- дитесь, что тогда Х; —› Х на событии вероятности единица при 1% —-› оо.  36 
Последовательность (Х„)„5ы сходится по вероятности к случайной величине Х (обозначается Х„ д Х, п -—> оо), если для любого г > О Р(ш : |Х„(ш) — Х(ш)| 2 г) -—› О при п —› оо. Далее нам понадобится и определение стремления по вероят- ности неотрицательных величин (Х ‚дпеы к бесконечному пре- делу. Считаем, что Хпдоо, если для любого числа К > О Р(Х„ <К) —-›О, п—-›оо. (47) Величины Хп сходятся в среднем квадратичном (или в  пространстве 1762)) к случайной величине Х, если  Е(Х„—Х)2 —›0 при п—›оо.  1,2 . „ Это записывается Хп —› Х или Х = |.|.т.„_,ооХ„ (от англии- ского Итй ёп теап). Последовательность (Х„)„еы называется сходящейся по распределению к случайной величине Х, если Рхп —› Ёх при п —› оо в каждой точке непрерывности предельной функции. Часто а .‚ . . . пишут Х„ —› Х (от английского дгвйтадийзоп). Имеется следу- ющее эквивалентное определение: ЕЛХп) -> ЕЛХ) ПРИ п —> 00 (48)  для любой непрерывной ограниченной функции 1’. Говорят также, что меры Р д, слабо сходятся к мере Р х при п —› оо. Теорема 4 (Леви). Пусть агарактеристические функции ‹‚о„(з) случайныа: величин Х„ (п Е М) сшодлтсл длл каждого з Е К при п ——› оо к непрерывной в нуле функции ‹р(з). Тогда ‹‚о лвллетсл тарактеристической функцией некоторой случай-  _‚ д нои величины Х и Хд —› Х, п —› оо.  Таким образом, сходимость по распределению последова- тельности Х„ к Х равносильна сходимости в каждой точке соответствующих характеристических функций:  ‹‚оХ„(з) = Еедзх" -› фх(5) = Ееёзх, з Е К, 122 = —1.  37 
Пример 4. Приведем пример последовательности харак- теристических функций ‹р„(з) (п Е М) таких, что ‹,о„(з) —› ‹р(з) на всей прямой при п, ——› оо, но ‹р(з) не является характеристи- ческой функцией.  Пусть случайная величина У имеет стандартное распреде- ление Коши. Ее характеристическая функция . 1 щ/(з) = Авт’ да: = бы, 3 Е К. (49) Этот интеграл легко берется, например, с помощью теории вычетов, Определим Хп = пУ, тогда срх‚,(з) = е"”|3', з Е К и п Е М. Следовательно, ‹р„(з) —› ‹р(з) при п —› оо для каждого 5 Е К, где ‹р(0) = 1 и ‹р(з) = 0 при всех в 76 О. Функция ср не может являться характеристической, так как каждая харак- теристическая функция (равномерно) непрерывна на К.  Упражнение 36. Докажите, что из сходимости п.н. сле- дует сходимость по вероятности, влекущая сходимость по рас- пределению; если же последовательность сходится в среднем квадратическом, то она сходится и по вероятности. Про- верьте, что других нетривиальных (тривиальным образом сходимость п.н. влечет сходимость по распределению) соотно- шений между этими видами сходимости, вообще говоря, нет. Кроме того, у последовательности, сходящейся по вероятно- сти, есть подпоследовательность, сходящаяся п.н., а предел по вероятности единственен (с точностью до эквивалентности).  Упражнение 37. Пусть случайные величины Хп (п Е Ы) таковы, что Х„(ш) —› Х (ш) при п —› оо для всех ш Е П. Тогда Х — случайная величина.  У данного упражнения есть более сложный вариант:  Упражнение 38. Пусть (Х„)„еы — последовательность случайных величин такая, что с вероятностью единица Х„(ш) —-› Х (ш) при п —› оо. Доказать, что если простран- ство (О, Ё, Р) полно, то Х является случайной величиной.  Последнее упражнение показывает полезность пополнения исходного вероятностного пространства, поскольку в соответ-  38 
Упражнение 43. Покажите, что {Хий Е Т} обладает свойством равномерной интегрируемости, если  3ирЕ|Хд|5 < оо при некотором з > 1. $ЕТ  Доказывается, что если семейство {Х„, п Е М} равномерно  д и интегрируемо и Х п —› Х, где Х — случаиная величина, то она  интегрируема И ЕХ = Нш ЕХп. Если даны неотрицательные 719%  с! интегрируемые величины Хп, п Е М, такие, что Хп —› Х,  где случайная величина Х интегрируема и ЕХ = Нш ЕХп, то 12-400  семейство {Х„, п Е М} равномерно интегрируемо. Приведенные выше определения сходимости случайных ве- личин легко переформулировать для случайных векторов. На- пример, в (48) можно рассматривать случайные векторы Х и Х„ (п Е М) со значениями в пространстве К” и непрерывные ограниченные функции 1‘ : К” —› К. Аналогичным образом сохранится описание их сходимости по распределению в тер- минах характеристических функций.  Упражнение 44 (прием Крамера-Уолда). Докажите, что случайные векторы Хп со значениями в пространстве К” схо- дятся по распределению к случайному вектору Х тогда и только тогда, когда скалярные произведения  (и, Хп) Её (и,Х) при п —› оо для каждого и Е ШТ‘.  В заключение этого раздела приведем три классических результата. Первый — усиленный закон больших чисел, вто- рой — центральная предельная теорема, а третий — закон повторного логарифма.  Теорема 5 (Колмогоров). Пусть Х1,Х2, . .. — последова- тельность независимьъш одинаково распредвленньш случайные: величин. Тогда  П %:Х;„—›с п.н.длл сЕК <=> ЭЕХ1=сЕ1К К=1  40 
Глава 2. ПРИМЕРЫ СЛУЧАЙНЫХ пгоцвссов  2.1. Случайные функции и их свойства  Приведем главное для всей развиваемой теории  Определение 8. Случайным, или статистическим, про- цессом Х = {Хдй Е Т} с параметрическим множеством Т называется семейство случайных величин (или векторов) Хд, заданных на одном и том же вероятностном пространстве 62,77, Р) при каждом й 6 Т.  Итак, Х; (или Х — это функция аргументов й и ш, поэтому правильнее было бы писать Х; (ш) (или Х (й, ш)), для упрощения записи аргумент ш обычно опускается. При фик- сированном ш 6 О функция Х (й, ш), где й 6 Т, называется траекторией, реализацией или выборочной функцией случай- ного процесса. Множество Т часто содержится в 112, и тогда переменная й интерпретируется как время. В частности, если Т = И, Т = М  -или Т = 2.4. = {О} Ц М, то говорят о случайных процессах с  дискретным временем. Если же Т = К, Т = Щ = [О,оо) или Т = [а,Ь], то речь идет о процессе с непрерывным временем. При произвольной структуре множества Т часто говорят о случайной функции Х = {Х,;,й 6 Т}.  Пример 5. Пусть Хд = П вйпй, где й 6 Т- = [О,оо), а слу- чайная величина П принимает значения -1 и 1 с вероятностью 1/2. Как выглядят траектории процесса Х = {Хд, й ё Т}?  Очевидно, если П(ш) = -1, то Хд(ш) = —$1пй‚ а если И (ш) = 1, то Хд(ш) = эйпй. Следовательно, все траектории будут совпадать либо с функцией — 3111 й, либо вйп й.  Определение 9. Пусть Х = {Хд,й 6 Т} — случайный процесс. Конечномерными распределениями процесса Х на- зываются меры Рдд, „д, являющиеся распределениями векто- ров (ХЙ, ...‚ Хдп), где $1, ...‚ Ёд ЕТИПЁМ.  42 
Упражнение 46. Пусть Х = (Х(8) = 8Я+ с,8 ) 0), где случайная величина Я Л/(О, 1), с = сопят. Найти конечно- мерные распределения (функции распределения) процесса Х. Упражнение 47. (Сравните с упр. 8). Дать пример про- цессов Х = (Х(1), 8 ~ Т) и У = (У(8), 8 Е Т), а также множе- ства С в пространстве траекторий, для которых (Х Е С) ~ Я, (УбС) фГ. Упражнение 48'". Пусть Х = (Х(Й), Й Е [О, 1 ) — действи- тельный случайный процесс, т.е. все Х(1): Й ~ Е. Объяс- нить, почему, вообще говоря, не является событием множе- ство (и: яир Х(1,и) < с), где с — константа. 1Е [0,1] Пример 7. Пусть Х вЂ” процесс, определенный в примере 5. Найти Р(А), где А = яир Х(8) ) ч 1е[О, т/4] Пользуясь (4), имеем Р(А) = Р(АП(У=1))+Р(АП(Г= — 1)) = =-' — — -'("-) =- Заметим, что множество В = х( ): яир х(8) ) ч ф нг, 1 ФЕ [О, ~г/4] но тем не менее А = (Х Е В) Е У. Вообще говоря, вопрос о том, какие множества входят в Ву, не является простым; по этому поводу см., напр., [2, с. 32]. В этой связи полезно Упражнение 49. Пусть процесс Х = (Х(1),1 Е [а,о ) имеет непрерывные траектории. Покажите, что яир Х(1) и И [а,Ь] 1пГ Х(~) являются случайными величинами. 8Е [а,Ь] Пример 8. Пусть Х = (Х(1) = К+ 21, ~ ) О), где Г имеет стандартное распределение Коши. Найдем вероятность того, что Х(1) = 0 хотя бы для одного 1 б 1 3 45 
Все траектории процесса Х непрерывны. Поэтому веро- ятность того,что процесс имеет хотя бы один корень на от- резке ч,, равна вероятности того, что одновременно 1 3 1пГ Х(8) < 0 и яир Х(~) > О. Следовательно, инте- [1(я,~Гз(2] [1~2„дд ресующая нас вероятность равна Р У+2 1пГ 1 < О, Г+2 вир ~ > 0 [1!2,~/З!2] [1/2, ~/3/2] =Р Г+2 — <О,К+ >О = Р( — ~/3< Г < — 1) = 1 2~3 2 ' 2 1 1 т т 1 = — (агсФд ~/3 — агсФд 1) =— 7Г т 3 4 12' где учтено (см. (15)), что х Р(Г < х) = Ии = — агс1дх, х Е К. т(1+ и2) т Теперь обсудим, в каком смысле отождествляются случай- ные процессы. Определение 10. Случайные процессы Х = ~Х~, 1 Е Т) и У = Я, 1 ~ Т), заданные на одном и том же вероятностном пространстве, называются эквивалеитными, если При выполнении условия (52) говорят также, что процесс У является модификацией (или версией) процесса Х (тогда и Х будет модификацией У). Поскольку мы рассматриваем действительные процессы (иногда процессы со значениями в ][~"), то Р(Х~ —— ~~) = Р(Х~ — ~~ —— 0). Разность двух случайных величин (или векторов в Е") есть случайная величина (вектор), поэтому множество точек и Е Й, для которых Х~(и) — ~~(и) принадлежит борелевскому мно- жеству (0), является событием. Если Т конечно или счетно, 46 
т.е. речь идет о процессе с дискретным временем, то из экви- валентности вытекает неразличимость процессов. Иначе го- воря, почти все траектории совпадают. Действительно, Р~Х, = 2; Ч1 е Т)=Р П(м: Х~(и) = 3~(ю)) = 1. (53) ~ЕТ Последнее равенство является следствием счетной аддитивно- сти вероятности, а именно, пересечение счетного числа мно- жеств вероятности единица также имеет вероятность единица (переходим к дополнениям и применяем (3)). Если же Т несчетно, например, Т = [О, 1], то П (Х~ —— У~) ~ЕТ не только не обязано иметь вероятность 1, но может вообще не быть событием, т.е. не принадлежать г-алгебре Г. Пример 9. Пусть Й = [0,1], У = В([0,1]). Определим ве- роятность Р как меру Лебега на ([О, 1],8([0, 1])). Рассмотрим случайные процессы Х = (Х~, 8 б [О, Ц) и У = Я, Ф Е [0,1]). Пусть Х~(и) = 0 для всех 1 Е Т = [0,1], и Е Й, а У~(и) = 1 при 1 = и и У~(и) = 0 при 1 ~ и. Покажем, что построенные процессы эквивалентны, но не являются неразличимыми. Очевидно, Р(Х~ — — У~) = Р(и: и ~ 8) = 1 при каждом 1, но у процесса Х все траектории тождественно равны нулю на отрезке [0,1], следовательно, непрерывны, в то время как у процесса У каждая траектория имеет разрыв в одной точке. Заметим также, что яир Х~ — — О, а яир У~ — — 1 для всех и Е Й. 8ЕТ ~ЕТ Задача 1. Проверить, что если процессы Х = (Х~,~ ~ Т) и У = Я, 1 ~ Т) эквивалентны, то у них совпадают конечно- мерные распределения. Показать, что обратное утверждение, вообще говоря, неверно. Начнем с одномерных распределений. Пусть В ~ В(К") и ~ Е Т. Пользуясь тем, что Р(С) = Р(СП) + Р(СР) для любых событий С и П, запишем Р~,(В) = Р(Х, ~ В) = = Р((Х~ е В) П (Х~ — — У~)) + Р((Х~ ~ В) П (Х~ ф У~)) = = Р(Я ~ В) П (Х, = ЪЦ) + Р((Х, е В) П (Х, ~ У)). 47 
ление (т.е. Ьаж(Х~) = 1 аж( — Х~)), причем Р(Х~ ф- О) = 1 при каждом ~ ~ Т. Пусть, например, Х~ принимает значения — 1 и 1 с вероятностью1/2. Введем У=Я, 1 бТ), где У~ — — — Х~,$ЕТ. Тогда, очевидно, меры Рх, у, и Ру, у совпадают на классе прямоугольников в ~" при всех 81,..., 1„, и Е 1Ч, по- скольку =Ру у (В1Х...ХВ ). Следовательно, они совпадают на В(~"). Однако по построе- нию при каждом 1 е Т имеем Р(Х~ — — У~) = Р(Х~ — — О) = О ~ 1. Таким образом, введенные процессы не являются эквивалент- ными. упражнение 50. Пусть величины Х~ независимы и рав- номерно распределены на отрезке [О, 1, а У = 1 — Х~ для всех 1 Е [О, 1]. Покажите, что процессы имеют одинаковые конеч- номерные распределения, но не являются эквивалентными. Рассмотрим внимательнее некоторые свойства траекторий случаиных процессов. Определение 11. Говорят, что Х = (Х(1), 1 ~ Т) вы- борочно непрерывен (или дифференцируем, или интегрируем) в точке ю, если это верно для соответствующеи траектории, т.е. функции Х(,и). Процесс выборочно непрерывен на мно- жестве А Е Г, если траектории непрерывны для всех и Е А. В том случае, когда Р(А) = 1, говорят, что почти все траек- тории процесса непрерывны. Задача 2. Пусть даны процессы Х = (Х(1),1 Е Т) и У = (У(1),1 Е Т), имеющие (п.н.) непрерывные справа тра- ектории, где Т вЂ” отрезок или полупрямая, или вся прямая. Показать, что если У является модификацией Х, то эти про- цессы неразличимы. Пусть Я вЂ” множество рациональных чисел. Для каждого т Е ТЛЯ имеем Р(Х(г) ~ У(т)) = О. Множество ЯПТ не более 49 
то говорят, что в — фиксированная тонна разрыва. Точка разрыва траекторий з = в(ш), не являющаяся фиксированной, называется переменной тонной разрыва. Например, у пуассо- новского процесса, вводимого далее в пункте 2.4, отсутствуют фиксированные точки разрыва, но его траектории не явля- ются непрерывными функциями. Таким образом, непрерывность процесса с вероятностью единица на Т означает отсутствие фиксированных точек раз- рыва, а почти наверное выборочная непрерывность означает, что, за исключением множества траекторий нулевой меры, от- сутствуют и переменные точки разрыва.  2.2. Построение последовательности независимых случайных величин с заданными распределениями  Опишем явную конструкцию последовательности незави- симых действительных случайных величин, имеющих задан- ные распределения. Идея такова: достаточно научиться стро- ить одну последовательность независимых бернуллиевских ве- личин, принимающих значения 1 и О с вероятностью 2. С ее помощью легко построить независимые величины 111, 112, . . ., равномерно распределенные на [О,1]. По этим величинам уже несложно построить такие независимые Х1,Х2, . . ., что Р(Х„ < св) = Р`„(а:) при а: Е К, где Е, есть заданная функция распределения, п Е М. Теперь будем решать задачи, отвечающие каждому этапу построения. Пусть число а: Е (О, 1). Тогда а: можно единственным обра- зом записать с помощью двоичного разложения:  Х (В а: = Е: й, (55) 1с=1  где ц принимает значения О или 1. Точнее говоря, если а: допускает запись с коэффициентами щ = О при А: 2 М или шк = 1 при К 2 1\/` (М, М — некоторые натуральные числа), то выбираем запись с нулями (начинающимися с некоторого ме-  51 
Совершенно аналогично находим, что при всех Й ) 3 1 Р(х е (О, 1): х),(х) = 0) = Р(х Е (О, 1): х~(х) = 1) = —. Для произвольного и Е И и любых г1, ..., г„, принимающих значения 0 или 1, рассмотрим интервал (и, и + 2 "), где и = = (г1 Л 1)2 1+ (г2 Л 1)2 2 +... + (г„Л 1)2 ", а Л Ь: = т1п(а, б). Тогда Р(х е (0,1): х1(х) = г1,...,х„(х) = г„) = = Р(х б (О, 1) ~ Р: х1(х) = г1,..., х„(х) = г„) = 'Л = Р(х е (и,и + 2 ") ) В) = 2 " = П Р(х Е (О, 1): хи(х) = ги), откуда в силу упр. 27 вытекает независимость х1, х2,.... Располагая последовательностью независимых бернуллиев- ских величин, принимающих значения 0 и 1 с вероятностью 1/2, легко построить случайную величину, равномерно рас- пределенную на отрезке [О, 1], как показывает Задача 4. Пусть Х1, Х2,... — независимые величины, за- данные на некотором вероятностном пространстве (Й,У, Р), причем Р(Х~ = 0) = Р(Х22 = 1) = ~ при всех Й = 1,2,.... До- кажите, что Г(х):=~ и, хай, (56) й=1 будет случайной величиной, равномерно распределенной на от- резке [0,1. Прежде всего заметим, что ряд (56) сходится при ка- ждом и, поскольку мажорируется рядом ~ 2 ~, причем 1=1 0 < У(и) ( 1 при всех и Е Й. Кроме того, У вЂ” случайная величина, так как Г является пределом сходящейся при всех и И последовательности случайных величин Ц„:= ~ , 'Х222 ", ко- й=1 гда и ~ оо (конечная сумма случайных величин является слу- чайной величиной). Мы применили результат упр. 37. 
вероятностной меры, убедитесь, что функция Р(П < 2) не- прерывна слева1 на К, поэтому для любого числа и 6 (О, 1), выбрав последовательность чисел 2„ ф В, 2„ Т и (при п —› оо), видим, что  Р(П < и): 11п1 Р(П < 27,) = 11ш 2„ = и. П-ЧХ „ЭХ Аналогично для произвольного й Е К имеем  Р(П < г) = 11гпР(П < и). им  Таким образом,  0, г<0; Р(П<Ё)= 13, ЁЕ(О,1); 1, 121,  т.е. величина И равномерно распределена на [О, 1]. Упражнение 52. Получите утверждение задачи 4, вычи-  ТП; слив предел характеристических функций величин 2 Х‚,2”° ц н 1с=1 при т —-› оо. Задача 5. Построить последовательность (П„)„Еы незави- симых величин, равномерно распределенных на [О, 1].  Воспользуемся результатами задач 3 и 4. Запишем коэф- фициенты 22„ = а:„(а:), где п 6 М, двоичного разложения числа св Е (О, 1) в виде таблицы (азы), 6,] 6 М. А именно, пусть  171,1 = $17 372,1 = $21 $12 = $37 173,1 = $4, 932,2 = 935, 171,3 = 936, - - ›-  Другими словами, мы рассматриваем последовательно ин- дексы (ё,_1) такие, что ё +1 = 12:, где 1: = 1,2,3, . . ., и каждый раз выписываем в направлении с “юго-запада” на “северо- восток” соответствующие члены исходной последовательно- сти :1:1,а:2, . . . (см. табл. 1), после чего нумеруем все элементы с помощью двух индексов.  1Для любой случайной величины У функция Р(У < аз) непрерывна слева на К.  55 
$1 1173 176 517 10 172 $5 179 374 178 137 . . . Табл. 1. Пользуясь тем, что непересекающиеся наборы, составлен- ные из семейства независимых случайных величин, будут неза- висимы (лемма о группировке, см. пункт 1.5), видим, что рас- полагаем счетным множеством независимых последовательно- стей (т.е. строк таблицы), состоящих из независимых бернул- лиевских величин Х„‚1,Х„‚2, . . . (п Е М), равновероятно прини- мающих значения О и 1. Положим  ОО 11„ := Яхта-К, п е М. 1с=1  Согласно задаче 4 мы получаем последовательность (П„)„еы равномерно распределенных на [0,1] случайных величин. Их независимость можно объяснить, например, следующим обра- зом. При каждых п Е М и ш Е О имеем  171-400  т 11„ = Нш Ехтдг”. 1с=1  Остается заметить, что любая указанная сумма т слагаемых измерима относительно а-алгебры Ап, порожденной величи- нами Х„‚1,Х„‚2, . . ., следовательно, этим свойством будет обла- дать и предельная величина 11„ (см. упр. 38). Еще раз при- меняем лемму о группировке, обеспечивающую независимость А1,А2, . . . и тем самым независимость величин 111, 112, . . .. Упражнение 53. Объясните независимость 111,112, . . ., не обращаясь к лемме 2, а пользуясь свойствами характеристи- ческих функций. Пусть теперь 171,172, . .. — заданные функции распределе- ния. Предположим, что они непрерывны и строго монотонны. Тогда существуют обратные функции ЕЁ : (О, 1) —› К, где п Е М. Если 111,112, . .. — независимые случайные величины,  56 
равномерно распределенные на [О‚ 1], то Х 1, Х 2, . . . , здесь Хп = = Р‚:1(П„) (п Е М), будут независимы как борелевские (в на- шем случае непрерывные; см. упр. 11) функции от независи- мых величин, а для а: Е К  Р(Х„ < гс) = Р(1т‚;1(и„) < аз) = Р(П„ < Ё„(:1:)) = гм).  Единственный нюанс: что делать, если П„(ш) = 1, а мы под- ставляем П„(ш) в функцию Р; 1, которая определена, вообще говоря, только на интервале (О, 1)?  Проще всего поступить так: положим Е; 1(О) := —оо, а 17:10) := оо. Тогда легко видеть, что Х1,Х2, . .. определены корректно, но являются расширенными случайными величи- нами. Действительно, множество точек ш, для которых Пп(ш) принимает значения О или 1, имеет вероятность нуль. По- этому мы всегда можем взять собственную (т.е. со значени- ями из К) случайную величину, эквивалентную расширенной. Легко видеть, что тогда получим величину с тем же распре- делением вероятностей. Кроме того, эти эквивалентные вели-  чины также будут независимы, как показывает элементарное  Упражнение 54. Пусть независимы (расширенные) вели- чины Х 1, . . . ,Х„ и случайные величины И, = Хд п.н. для всех 19 = 1,... ‚п (если вероятностное пространство полно и Х — случайная величина, а У = Х п.н., то У автоматически будет случайной величиной). Докажите, что И, ..., Уп независимы (при этом Ьаш(Х„) = Ьаи/(Уп) для каждого п Е М).  Чтобы рассмотреть произвольные функции распределения 153,172, . .. (а не только непрерывные и строго монотонные), нам потребуется новое понятие. Пусть Р‘ — функция распре- деления некоторой случайной величины, т.е. функция, облада- ющая известными четырьмя свойствами (приведенными перед формулой (10)). Обобщенная обратная к функции Р функция Рт" (от английского таетве) задается формулой  Рта := 1п1`{и е в : Р(и) 2 2:}, ъ е (0,1). (57)  57 
Когда Р— непрерывна и строго возрастает, то Р'"~ совпадает с обычной обратной функцией Р 1. Для удобства полагаем Р'""(0) = — оо и Р'""(1) = оо е пражнение 55. Пусть длях < — 1, для х Е ( — 1,0), для х Е [0,2), для х > 2. (х) = ~ (х + 1) 1 1 Построить график Р'"~. нуль. Для 1 Е (0,1) и 8 Е Е неравенство Р'" (1) < 8 влечет Р(Р'""(~)) < Р(8), так как Р не убывает. Покажем, что при этом 1 < Р(Р'""(1)), а тогда 1 < Р(8). Возьмем точки я„~ Р'""(1) при и -+ оо, это дает Р(г„) > 1 при всех и Е ~ М Учитывая непрерывность функции Р справа, получаем Р(Р'"~(8)) = 11т Р(я„) > 1. Следовательно, верно неравен- ство 1 < Р(8). С другой стороны, если 1 < Р(8) (по-прежнему 1 Е (0,1) и 8 Е Е), то Р'"~(~) < Р'""(Р(8)). Если Р(8) < 1, то из (57) вытекает, что Р'"~(Р(8)) < 8 и, следовательно, Р'"~(1) < 8. Если же Р(8) = 1, то Р(8) > 1, откуда Р'"'(1) < 8. Итак, Задача 6. Пусть à — случайная величина, равномерно распределенная на отрезке [О, 1, а Р— функция распределе- ния. Доказать, что У: = Р'"~(Г) — расширенная случайная величина, совпадающая п.н. с собственной случайной величи- ной, имеющей функцию распределения Р. Прежде всего покажем, что У расширенная случайная величина. Функция Р'"" не убывает на (О, 1), поэтому является борелевской в силу примера 2. Возьмем случайную величину Я = ГП~ц~(о ~д + ~ П~у~~р ц1. Тогда Р'"~(Я) в силу замеча- ния 1 будет собственной случайной величиной, совпадающей с Р'""(У) на множестве (Г ~ (0,1)), имеющем вероятность единица, а значения оо и — оо функция Р'"~(Г) принимает со- ответственно на событиях (Г = 1) и (У = 0) вероятности 
для 23 Е (О‚1) и з Е В неравенства 23 < Р(в) и Р1""(23) Е 3 равносильны. Поэтому  {шГ/(ш) <Г(з), П(ш) Е (О, 1)} = {ш:Р5"" (П(ш)) $5, С/(ш) Е (О, 1)}  и Р(Р5‘“’(П(ш)) Е з) = Р(з), в Е К, так как Р(П < 2:) = а: при а: Е [О,1].  Замечание 4. Задача 6 показывает, что случайную ве- личину, имеющую любую наперед заданную функцию распре- деления Р, всегда можно построить, располагая лишь одной случайной величиной, равномерно распределенной на [О‚ 1].  Упражнение 56. Найдите отображение, которое случай- ную величину П, равномерно распределенную на отрезке [О‚ 1], переводит в случайную величину Х м Ехр(А).  Переходим к заключительному этапу.  Задача 7 . Пусть 171,172, . .. — любая последовательность функций распределения. Убедиться, что на некотором (ШТ, Р) найдется последовательность независимых случай- ных величин Х1,Х2, . . ., для которых Р(Х„ < 1:) = Р„(а:) при пЕЫишЕК  Согласно задаче 5 построим последовательность 111112,. .. независимых случайных величин, имеющих равномерное рас- пределение на [О‚ 1]. После этого, применив задачу б, возьмем в качестве Х„ либо Р,Ё“’(П„), п Е М, либо эквивалентные им собственные величины (скажем, как при решении задачи 6). Они независимы, будучи борелевскими функциями от незави- симых величин, и, кроме того, обладают заданными функци- ями распределения (см. упр. 54).  2.3. Случайные блуждания. Задача о разорении игрока  Пусть Хо, Х 1, . . . — последовательность независимых слу- чайных величин. Случайным блужданиемназывается процесс  Бп:ЁХО+...+Хп‚ p s  59 
Этот процесс можно доопределить на всю полупрямую Щ, положив, например, 5 (13) := БШ, где H целая часть числа. Будем предполагать, что Х1,Х2, . . . одинаково распределены. Случайное блуждание возникает в классической задаче о разорении игрока.  Задача 8. Пусть игроки А и В в начальный момент т? = О располагают соответственно капиталами а и Ь, где а,Ь Е М. Предположим, что А в каждой партии игры выигрывает 1 у игрока В с вероятностью р Е (О, 1) и проигрывает 1 с вероят- ностью (1 = 1 — р. Пусть результаты всех партий независимы. Игра прекращается, когда капитал одного из игроков обраща- ется в нуль. Требуется доказать, что с вероятностью единица игра закончится за конечное число партий.  Прежде всего формализуем задачу, определив последова- тельность независимых одинаково распределенных величин Х1,Х2,-. . ., принимающих значения 1 и -1 соответственно с вероятностями р и 1 — р. Тогда выигрыш игрока А в момент п Е М равен величине 5„ = Х 1 + + Хд (отрицательная ве- личина 5„ равна его проигрышу после п партий). В нашей модели Хо = $0 = О. Докажем, что игра закончится за случайное время т, ко- торое будет конечно п.н. Величина  т =1пГ{/с е ы да, е {—а} о {щ},  и мы считаем т = оо, если- —а < 5;, < Ь при всех д: Е М. Не- ограниченное продолжение игры означало бы, что траектория случайного блуждания ($„)„52+, начавшись в точке (О, О), ни- когда не выйдет на прямые у = —а или у = Ь. Возьмем т Е М, выбор которого поясним далее. Тогда  {Т = 00} С {—а‚ < Зтд; < 5,16 Е М} С П{|5т(д+1)—5ть| < а+Ь}.  1с=1 По свойству непрерывности вероятности (см. Н5 имеем  оо Р П{|5т(д+1) — 5ть| < а + Ь} = /с=1  60 
М йш Р (П{|5т(;с+1) — 577„“ < а+Ь}) =  1 М —›оо 1с=1 - М = 11п1 Р(|$т| < а + Ь) = О, М —›оо здесь учтено, что (при каждом т) величины |5т(;„+1) — Бты, где 1: Е М, независимы, а также принято во внимание, что Р(|5'т| < а + Ь) < 1 для достаточно большого т. Данное нера-  венство легко обосновать с помощью центральной предельной теоремы (теорема 6). Действительно,  Р(|5'т| <а+Ь) = (—а—д—т(2р—1)<$т—т(2р—1) а+Ь—т(2р—1))  < 2\/тр(1—р) 2\/тр(1-р) 2 тр(1 -р) а с учетом упр. 41 последняя вероятность при больших т  будет близка к  1 Ит) г?’ [$010 —а—Ь—т(2р—1) _а+Ь—т(2р—1) х/4тр(1 -р) И щт) _ х/‘ТтрП -р)  чем и(т)—+—оо И 'и(т)—›—оо при р> Ё, и(т)—+оо и 1›(т)—+оо  2 _.Ь е 2 сйсс,  где и(т) = , при-  прир< %‚ а при р=% имеем и(т) -—›О, о(т) —›О (когда т-юо). Итак‚ Р(т = оо) = О. Фактически верно более сильное утверждение (не только для Х„ со значениями -1 или 1) , которое доказать сложнее.  Упражнение 57 "‘. Пусть Х1,Х2‚ . .. — независимые оди- наково распределенные величины. Тогда для любого отрезка [щЬ] верно соотношение Р(5„ Е [а,Ь]) —› О при п ——› оо, где $„=Х1+...+Х„,ПЁМ.  Задача 9. Подсчитать вероятность разорения игрока А.  Для удобства подсчетов рассмотрим сдвинутое случайное блуждание 2„ = а + Бп, которое будет происходить в полосе [О‚ а+Ь]‚ причем обе границы полосы являются поглощающими  61 
экранами, т.е. при их достижении процессом Я„игра закан- чивается. При этом, если первым достигается нулевой экран, то разоряется игрок А. Введем также на множестве целых чи- сел 0 < х < а + б функцию Здесь х выступает как параметр нашей стохастической мо- дели. Используя формулу полной вероятности, мы получим следующее разностное уравнение: (58) р =рр:,.+~+др ~, О < ~ < о+6 — 1, с граничными условиями Ро =1 +~ 0 Действительно, в первой игре А может выиграть с вероятно- стью р, тогда его капитал станет равен х + 1, а поскольку следующие игры не зависят от первои, то вероятность разо- рения станет равна р +~. Точно так же, когда в первой игре наступает проигрыш, то капитал становится равным х — 1. Граничные условия показывают, что если у игрока А началь- ныи капитал нулевои, то он уже проиграл, т.е. ро — — 1, а когда у него начальный капитал а+ 6, то он не может проиграть, т.е. р,» ~ = О. Решение уравнения (58) будет различным в случаях р ф- О и р = О = . А именно, в первом случае легко проверить, что 1 рассматриваемое уравнение допускает два частных решения р = 1 и р = — . Следовательно, решением будет и Д х— Д ~Эу = С'~ + С2 — ) р (59) а константы с~ и с2 определяются из граничных условии: а+Ь Я с~ + с~ = 1, с~ + с2 — = О. р р = Р(игрок А разорится, если его капитал равен х при 1 = 0). 
Окончательно, х Е [О, а + Ь], необходимо только проверить, что выписанное решение раз- ностного уравнения единственно. Предположим, что суще- ствует еще какое-то решение с данными граничными услови- ями, тогда подберем константы с1 и с2 так, чтобы (59) совпа- дало с ним в точках х = 0 и х = 1. Далее, последовательно подставляя в (58) значения х = 1, 2,..., мы найдем по извест- ным двум значениям все остальные. Значит, два решения, со- впадающие при х = 0 и х = 1, будут тождественно равны. Иными словами, всякое решение рассматриваемого разност- ного уравнения имеет вид (59). Таким образом, вероятность разорения игрока А равна (60) Предельный случай Ь = оо соответствует игре с бесконечно богатым противником. Переходя к пределу (объясните по- дробнее) в предыдущем выражении, получим вероятность ра- зорения в таком случае: 1 при р(д, — прир > д. Х Если р = о, оба частных решения 1 и (х совпадают. Од- нако в этом случае существует второе частное решение р = х, поэтому общее решение имеет вид р~ = с1+ с~х. Исполь- зуя граничные условия и рассуждая аналогично предыдущему рассмотрению, наидем соответствующее выражение для веро- ятности разорения игрока А: (61) 63 
ностью, то плотность их суммы задается с помощью свертки согласно (43). Поэтому для х > О, учитывая, что плотность величин Х1 > 0 и Х2 > 0 обращается в нуль при у < О, имеем рд, (х) = / ру, (х — у)ру, (у) иу = Ае-"<* ~>Ае-"~ йу = А2хе-' . ° ° О Далее доказательство проводим по индукции. Предполо- жим, что при всех Й<п плотность Я~, равна нулю, когда х<0, а для х > 0 она дается формулой Айхй — 1 (65) Найдем плотность величины Я„» 1. Очевидно, р~„+, (х) = 0 при х < О, так как показательные случайные величины неотрица- тельны. Для х > 0 +со р~„+,(х) = * А"(х — у)" — л(й — ф) Ае — лф ~ЯУ (и — 1)! Ай+1 ж е * (х — у)" Иу = (. — 1).' (66) что и требовалось показать. Поскольку (Й вЂ” 1)! = Г(Й) при Й Е Ы, то (65) можно пере- писать в виде М. (х - У)Рх.+,(У) ~У = Ап+1хп е — Лх и.' р~„(х) = е *, х>0. Задача 12. Требуется убедиться, что семейство гамма- распределений с одним и тем же А замкнуто относительно взя- тия свертки. Пусть Я1 Г(а1,А) и Я2 Г(а2,А) независимы, тогда сумма Я1 + Я2 Г(а1+ а2, А). В самом деле, для х > 0 Х Рг,+г2(х) = Рг,(х — У)Рг,(У) "У = О 67 
* Л~'(х — у)~' 1 Л~'у~' Š— Л(х — у) Š— Лу д~ Г(а1) Г(а2) Последний интеграл можно переписать в виде ~р1+~гг Г(а1) Г(а2) О е * (х — р) ~' у~г Иу, откуда после замены у = хи получим Л~1+~г Х~г1+~гг — 1 Š— Лх (1 г~) а1 — 1г~аг — 1 <ц~ Г(а1)Г(а~) (67) Интеграл в выражении (67) — это бета-функция с параме- трами а1 и а2, которая равна Г(а1) Г(а2) Г(а1+ а2) В(а1,а~) = (68) Подставляя (68) в (67), получаем требуемый результат. +оо ух(8) = Ее"~ = е""р~(и) Ии, 8 Е Ж (г2 = — 1), если у Х существует плотность рл.( ). Для введенных в задаче 12 случайных величин Я1, 1 = 1, 2, имеем +Ос~ Л~~ ~г~ — 1 Л Г(а1) Л вЂ” гв Поскольку характеристическая функция суммы независимых случайных величин равна произведению их характеристиче- ских функций,то Щ1+~г И,+гг(8) = 'Рг,(8)фгг(8) = Л вЂ” г8 68 Задача 13. Показать, что к результату предыдущей за- дачи можно приити с использованием характеристических функций. Характеристическая функция ~рх(8) случайной величины Х в силу (26) и (35) равна 
Пользуясь взаимно однозначным соответствием между рас- пределениями и характеристическими функциями, видим, что 21 + 22 м Г(ог1 + 042, А).  Упражнение 58. Пусть Х = {Х (23),: 2 О} — простой процесс восстановления, который строится по последователь- ности независимых величин Х 1, Х2, . . . таких, что Х„ м Г(/с, А) при п Е М. Найти одномерные распределения процесса.  Полученные в двух последних задачах результаты позво- ляют сделать вывод, что гамма-распределение безгранично де- лимо. Напомним  Определение 13. Случайная величина Х называется без- гранично делимой, если при любом п 6 М  Ьаи/(Х) = Ьаш(Х„1 + . . . + Хпп), (69)  где величины Хм, .. ., Х„„ независимы и одинаково распре- делены. В терминах характеристических функций это условие можно записать следующим образом:  <РХ(5) = ФЖЗЪ (70)  где ‹р„(з) — это некоторая характеристическая функция. Если выполнено условие (69) (или (70)), то также говорят, что без- гранично делимо распределение случайной величины Х.  Кроме гамма-распределения, наиболее известными безгра- нично делимыми распределениями являются пуассоновское и нормальное. Чтобы это проверить, вспомним, как выглядят их характеристические функции. Для пуассоновского распре- деления с параметром А > О  оо ФХСЗ) = Ееёзцчх = К) =_;еА(е1а‚1)’ 8 е К. (71) 1с=О а  Для Х т А/(а,а2) имеем  69 
упражнение 59. Дайте пример распределения, не являю- щегося безгранично делимым. К изложенному выше материалу мы вернемся в следующей главе при рассмотрении процессов с независимыми прираще- ниями. Обратимся к простому процессу восстановления, описан- ному в примере 10. Задача 14. Пусть задана последовательность независи- мых показательно распределенных с параметром Л случайных й величин Х~, Й Е И, и Я~ = ~ Х;, а Я~ = О. При каждом ~ > О г=1 требуется найти распределение К~ — — вир~п Е Е» . Я„< ~). Было показано (пример 10), что Ж~ является (расширенной) случайной величиной при 1 > О. Так как К~ — — 0 п.н. при 1 = = О, то К~ — расширенная случайная величина при всех 1. Как следует из формулы (65), справедливо соотношение ж Лй+1*ш к(~+ц*(~) — ~ ~~ д Й! Интегрируя по частям, получим, что последнее выражение преобразуется к виду Л~8~ -л~+ ~ь( ) Подставляя найденную формулу для Р(~+Ц*(1) в (64), прихо- дим к следующему результату: Лй~/с Р(Ж~ — — Й) =, е, Й>0. (72) Это означает, что случайная величина К~ имеет распределение Пуассона с параметром Л1. Тем самым показано также, что Ж~ почти наверное совпадает с собственной (т.е. обычной, а не расширенной) случайной величиной, так как Р(ш,= ) =1 — ~',Р(к, =ж) =о. й=О 70 
Далее мы увидим, что так построенное семейство случайных величин А’ = {Ль й 2 О} представляет собой пуассоновский процесс — один из наиболее важных стохастических процессов.  Упражнение 60. Нарисовать графики траекторий для пуассоновского процесса 1\/` = {1\/},й 2 О}, конструкция ко- торого дана в задаче 14 (смотрите также разделы 3.3 и 3.4).  2.5. Модель Крамера—Лундберга в теории страхования  С помощью пуассоновского процесса строятся более слож- ные стохастические модели. Обратимся к одной из них. Пусть начальный капитал страховой компании равен кон- станте у > О, страховые взносы клиентов (застрахованных) поступают непрерывно со скоростью с > О, а выплаты возме- щений осуществляются в случайные моменты 5„ (п ё М), пред- ставляющие собой точки скачков процесса П = {Кий 2 О}. Пусть величины выплат 51,62, . ,. (в момент й = 5„ произво- дится выплата размера 5,) образуют последовательность не- зависимых одинаково распределенных неотрицательных вели- чин, которая не зависит от последовательности (Хддеы, за- дающей пуассоновский процесс А! согласно задаче 14. Тогда капитал компании в момент времени й > О определяется фор- мулой  д: у“) = 314-01’ 26:, К=1 где сумма по пустому множеству, как обычно, считается рав- ной нулю. Упражнение 61. Нарисуйте графики траекторий про- цесса У = {У(й),й 2 О}. Какие траектории Вы бы назвали типичными?  Легко видеть, что все траектории У на [0, оо) непрерывны справа и имеют предел слева. Процессы с таким свойством на- зываются выпад процессами (в названии использованы первые  71 
буквы французских слов “сопйпие а (пойте, 11п11’се а заиспе”, ко- торые говорят о вьппеуказанном свойстве траекторий). При изучении деятельности страховой компании большой интерес представляет момент разорения  т =1пГ{Ё 2 о : уи) < о},  т.е. первьпй момент времени, когда компания окажется не в состоянии удовлетворить поступившие требования застрахо- ванных на выплату возмещений. Если 1/(15) 2 О при всех 15 2 О, то полагают т = оо.  Задача 15. Оценить вероятность разорения компании при заданном начальном капитале у, т.е. дать верхнюю оценку функции  фи) = Р“ < 00)-  Точнее говоря, следовало бы писать Ру(*г < оо) или т(у), подчеркивая значение параметра у (т.е. начальное значение процесса У), однако не будем усложнять обозначения. Сде- лаем дополнительные предположения, касающиеся распреде- ления скачков (размеров отдельных выплат) и скорости по- ступления взносов. Для этого нам понадобится производящая функция моментов случайных величин 5„ (п 2 1), т.е. функ- ция 9(8) == Еехр(зг1) < оо‚ в 6 К Заметим, что для случайных величин {т ограниченных по мо- дулю п.н. некоторой константой, производящая функция мо-  ментов, очевидно, конечна при всех з. Кроме того, предполо- жим, что выполнено условие Крамера, а именно, уравнение  Ау(з) = А + зс (73)  имеет единственное положительное решение з = Н. При данных выше условиях справедливо неравенство Крамера-Лундберга:  т/Жу) < ехр{-Ву}‚ у > 0- (74)  72 
Как следует из вида траекторий процесса У(й), 73 2 О, ра- зорение может наступить лишь в моменты скачков пуассонов- ского процесса, когда поступают требования на выплату, по- скольку в промежутках между ними капитал растет со скоро- стью с. Обозначим ф;,(у) вероятность разорения при поступ- лении не более А: требований. Очевидно, фцу) = 1 при у < О и 1:: Е Ив Положим фо(у) = 1 при у < О, и пусть фо(у) = О для у 2 О (если капитал неотрицателен, а требований на вы- плату не поступало, то разориться невозможно). Ясно, что фо(у) < е-“у при всех у. Дальнейшее доказательство про- водится по индукции. Предположим, что фд(у) 4 8-33’ при каждом у Е К и всех 1: < п. Установим, что тот же факт справедлив и для ф„+1(у). Для этого получим рекуррентное соотношение, связывающее ф„+1(у) и ф„(у). Нас теперь инте- ресует вероятность разориться в предположении, что до мо- мента разорения поступило не более п + 1 требования. Если первое требование имеет размер а: и оно поступило в момент 25, капитал в этот момент станет равным у + ст? — аз, а после этого может поступить не более п требований, следовательно,  фп+1(у) = Д” А“ «из; + с: - жив-ж актив) си, из)  где Р’ — функция распределения (1. Последнюю формулу можно рассматривать как непрерыв- ный аналог классической формулы полной вероятности, отно- сящейся к разбиению П на конечное или счетное число собы- тий. Строгое обоснование соотношения (75) можно дать и с помощью аппарата условных математических ожиданий, ко- торый будет введен в главе 5 (см. пример 38). По предположению индукции правая часть (75) не превос- ходит  /оо /оо 6—н(у+сЁ_$)/\8—А‘ с115`(а:) ей = 0 о  = /°° е-”<у+°*>‚\е-^‘ [со ем с117`(:1:) ей. О 0  73 
Внутренний интеграл равен у(В), поэтому правая часть по- следней формулы равна  _ °° _ /\ (В) Ну $(А+Нс) = —Ну 9 Ае у(Н) А е ай е А + На .  В силу (73) дробь справа равна 1, т.е. мы получаем  ф;„(у) < е-Ву для всех 1:: 2 О и у > О. Осталось заметить, что последовательность фд (у) не убывает по 1:: и  ‚с1д1дофь(у) = Фи)-  Таким образом, неравенство Крамера-Лундберга доказано. При изучении мартингалов тот же результат будет получен другими методами.  Упражнение 62. Докажите, что если существует ЕЁ < оо и с > Аа, где а = ЕЕ1, то уравнение (73) имеет единственный положительный корень.  Пример 11. Пусть в модели Крамера-Лундберга величина (1 ы Ехр(7) для некоторого 7 > О. Рассмотрим решение урав- нения (73).  Заметим, что у(О) = 1, у(.9) = оо при в 2 7, а при з < 7  Х _9(з) = Еезд‘ = / е3$7е"7”а!ш = 7 . о 7 - 5  Итак, (73) для з < 7 приобретает вид М 7 — в Корень этого уравнения В = 7 — % < 7. При получении нера- венства Крамера-Лундберга мы использовали только то усло- вие, что найдется В > О, для которого 9(В) < оо (откуда у(з) < оо при з < В, так как 51 2 О) и верно (73). В нашем случае следует позаботиться лишь о том, чтобы В = 7—% -> О,  т.е. наложить условие с > А (сравните с упр. 62).  7 Воспользовавшись первым тождеством Вальда (лемма б),  =А+зс.  Н нетрудно получить, что ЕГ/(й) = Аай, где 1/(23) = Ё Ед и а, == /с=1  74 
= Ед. Величина С/(й) представляет собой размер требова- ний на возмещение ущерба, поступивших в страховую ком- панию в промежутке [О, г]. Согласно принципу равенства в среднем обязательств страховой компании и застрахованных р(й) = ЕП(й) носит название чистой премии, которую компа- ния должна получить за время 23. Таким образом, р(1) = Аа — это чистая премия в единицу времени и условие с > Аа озна- чает, что страховой взнос должен быть больше чистой премии. Иными словами, премия должна рассматриваться с нагрузкой безопасности (или страховой нагрузкой). В связи с этим по- лезно выполнить следующее  Упражнение 63. Пользуясь центральной предельной те- оремой (см. теорему б), оценить вероятность того, что при большом п собранных компанией взносов не хватит на вы- плату поступивших требований т, ё = 1,. . . ‚п, являющихся независимыми одинаково распределенными случайными вели- чинами, если застрахованные платят чистую премию р = Ет.  Модель изменения капитала страховой компании, когда моменты поступления требований соответствуют скачкам пуассоновского процесса (иначе говоря, промежутки между поступлениями имеют одинаковое показательное распределе- ние с параметром А) носит название модели Крамера—Лунд- берга. В 1903 г. Лундберг предложил рассматривать такую модель, и в связи с этим появился пуассоновский процесс. В 30-е годы двадцатого века она была подробно изучена извест- ным шведским специалистом в области теории вероятностей Гаральдом Крамером. Если предположить, что промежутки между поступлениями требований независимы и одинаково распределены, но не показательно, получившаяся модель на- зывается моделью Спарре Андерсена. Для нее также изучено поведение вероятности разорения, но при других условиях на распределения вместо (73).  Интересно отметить, что пуассоновский процесс стал ши- роко использоваться в физических моделях (например, при  75 
описании радиоактивного распада) позднее, чем в моделях страхования.  Задача 16. Показать, что полученная в задаче 15 оценка вероятности разорения не зависит от того, в каких единицах измеряется капитал, т.е. на нее не влияет выбор валюты, в которой производятся все расчеты.  Предположим, что мы перешли к новой денежной единице, тогда вместо капитала у мы будем иметь капитал уд = бу для некоторого б > О, вместо выплат {п будут фигурировать 66,1, а скорость поступления взносов вместо с будет бс. Чтобы под- черкнуть зависимость функции у от величин {т будем писать уд. Поскольку 9дд(з) = 9563), уравнение (73) превратится в.  Ауд(б5) = А + збс.  Это означает, что новый коэффициент Ед, являющийся поло- жительным решением данного уравнения, связан со старым В соотношением В = 585. Таким образом, при любом выборе б > О получается Вдуд = Ну, т.е. оценка вероятности разоре- ния не зависит от выбора денежной единицы.  76 
ческая функция задается формулой (37). Рассмотрим некото- рые свойства гауссовских распределений.  Пример 12. Пусть случайный вектор Х м АТ (а, С) со зна- чениями в К". Найдем распределение на (Кт, В (Кт)) вектора У = АХ + Ь, где неслучайная матрица А’: (адд), щ“ 6 К, 19 = 1,...,т, т = 1,...‚п, а неслучайный вектор Ь 6 К”.  Характеристическая функция У равна  ‹р›г(т›)й= Еехр{б(т›‚1’)} = = ехр{ё(о, Ь)}Еехр{ё(АТо, Х)} = ехр{ё(о, Ь)}‹,ох(АТи),  где вектор (как всегда, столбец) т; = (о1,...,от) и АТ —— транспонированная матрица. Используя (37) для и = АТЬ, получаем  фу('и) = ехр{б(о, Ь)} ехр {ЦАТщ а) — ё (САТЬ, АТЩ} =  = ехр {Цщ Аа + Ь) — %((АСАТ)2›, 11)},  а это есть характеристическая функция т-мерного нормаль- ного вектора со средним Аа + Ь и матрицей ковариаций АСАТ (очевидно, матрица АСАТ симметрична и АСАТ 2 О). Из установленного результата следует, в частности, что сумма независимых гауссовских величин имеет гауссовское распределение, причем параметры суммы равны сумме пара- метров слагаемых. Иначе говоря, если Х1,. . . ‚Хп — незави- симые величины и Х), т А/(адщё), 1:: = 1,... ‚п, то  Х1+...+Х„мА/(а1+...+а„,о%+...+аЗ,).  Задача 17. Показать, что вектор Х = (Х1,...,Х„) гаус- совский тогда и только тогда, когда любая линейная комбина- ция его компонент имеет (одномерное) гауссовское распреде- ление.  Предположим, что вектор Х гауссовский, т.е. его харак- теристическая функция дается формулой (37). Для неслучай-  79 
Совокупность действительных случайных величин, обла- дающих конечным вторым моментом, — это пространство 1,262) со скалярным произведением ({,п) = Еёп. В силу не- прерывности скалярного произведения ап = Еёп = (ёп, 1) ——› —> (61) = ЕЕ = а, кроме ТОГО, 563 = (Стыёп) -> ($5) = 552, поэтому 03, = ЕЁ, — (Ебп)? —› ЕЁ — (Е5)2 = 02 при п —› оо. Так как из сходимости в среднем квадратичном следует сходимость по вероятности, а значит, и слабая сходимость, то характеристические функции фд„(з) —-› ‹р‚5(3) для всех з Е К при п —› оо. С другой стороны, из установленной сходимости параметров нормальных распределений вытекает, что  . 1 . 1 ‹,о‚;„(з) = ехр {свод — 5 320%} —› ехр {аза — 5 3202} = срд(з).  А это показывает, что Е м А/(а, 02). Совокупность 9 = {Хша Е А}, состоящую из действи- тельных случайных величин, назовем гауссовской системой если для любого п Е М и произвольных а1,...,а„ Е А век- тор (Ход, . . . ,Х„„) имеет нормальное распределение.  Упражнение 66. Пусть система Ё представляет собой  замыкание 9 в пространстве 1752,77, Р). Докажите, что Ё  также является гауссовской системой.  Задача 19. Дана последовательность (необязательно не- зависимых) случайных величин {п м А/ (О, 1), п Е М. Показать, что для любого с > х/Ё найдется событие вероятности еди- ница, на котором |{„ < сх/ЙЙ при всех п 2 по(ш, с).  Для 5 гч А/(О, 1) и любого а: > О имеем Р(Е 2 т) = (21г)’“2 ГЁ-гт ау = (2104/2 /°°(Ё) агат = а: а: у Х = (2д)-1/2 ($—1е—$2/2 _] 11-26-312/261?!) < (27г)—1/2$—1е—а:2/2 17 (таким образом, 21ге"’2/2Р({ 2 ш) < $4), а 2 1/2 2 РПЕ! 2 т) < (д) 2718"” д.  81 
Поэтому для с > х/Ё  2 1/2 ц 2 Р(|{„| 2 с(1пп)1/2) < с-1 (-) :п`°2/2(1пп)’1/2 < оо. 1:22 п „22 Отсюда требуемый результат следует по лемме Бореля-  Кантелли (пункт 1.1). 2  _Е_ Кстати, для а: > О отношение Миллса (интеграла и.е 2 )  2 х 2 Все) := е%л е“%“с1и Е [2(а: + 2:2 + 4)'1,2(а: + х/аг? + 2)`1]. Упражнение 67. Пусть дан вектор Х м А/ (а, С), прини- маюцшй значения в К”, причем ранг матрицы С’ равен т‘ < п. Докажите, что тогда существует некоторое линейное много- образце Ь = о + Н (а Е К" и Н — линейное подпространство К"), которому с вероятностью единица принадлежат значения вектора У. Какова размерность Н?  Отсюда, в частности, вытекает, что у п-мерного нормаль- ного вектора не существует п-мерной плотности распределе- ния, если ранг его матрицы ковариаций меньше п.  Упражнение 68. Пусть случайный вектор Х т А/ (а, С’). Убедитесь, что его компоненты независимы тогда и только тогда, когда матрица С’ диагональна.  Пример 13. Покажем, что существует вектор, компо- ненты которого имеют нормальное распределение, матрица ковариаций диагональна, но сам вектор негауссовский.  Достаточно построить двумерный вектор с такими свой- ствами (сравните с упр. 23). Пусть Х м М (0,1), а У = = Х1[{Хе[_„_„]} —Х11{ХЕ[_„‚„]}, где значение а > 0 выберем позд- нее. Заметим, что для каждого й б К Ее“ = Ее"х11{хе[-а‚ап + Е®""х11{хе[-а‚а1} =  $2  - 1 2:2 - 1 = ет’ — е-Тбш +/ б“ — е-Тсйа: = й-ща] 42% нач-ада] 4%  - 1 1:2 $2 = ет———е'7с1а:=е`3'. А; х/ЁП‘  82 
Следовательно, У Л/(О, 1). Очевидно, Х и У зависимы: при любом выборе а ) 0 с~с~ 8~, 1~ > й,1=1 (76) т.е. неотрицательно определены матрицы (В(~~с, 1~) ) ~", ~ Функция В называется симметричной, если В(в,$) = В(~, в) при всех в, 1 Е Т. Пример 14. Пусть функция В(в, Ф): = т1п(в, Ф~ задана при в,1 Е К> — — [О,оо). Требуется проверить, что она является неотрицательно определеннои. Заметим, что для любых в, 1 > 0 верно равенство ш1йв ~1 = П[о,т~п(,,ц~](и)йс = П[о,8](и)П[о,ж](и)"и О О Поэтому для каждого п ~ Ы, всех $1, ..., $„Е [О, оо) и произ- вольных с1, ..., с„Е Е выполнено соотношение 7Ъ оо л с~с~ 1~,1~ = сй о ~„~ с~ о ~, й,1=1 й, 1=1 и 2 с~ О~„и и> о Р(Х Е [ —,а, а], У Е [ — а, а]) = Р(Х Е [ — а, а ) ~ ,-~ Р(Х Е [ — а,а])Р(У Е [ — а,а ) = Р(Х Е [ — а,а ) . Принимая во внимание, что ЕХ2 = 1, можно записать соч(Х,У) = ЕХ П<~~[, ]) — ЕХ П~~~[ ]) = 26(а) — 1, где непрерывная функция Ь(а) = ЕХ Пу~~[ ~,ц, определенная для а Е [О,оо), является возрастающей, причем Ь(0) = О и Ь(а) — ~ 1 при а -+ оо согласно теореме 2. Поэтому существует (единственное) ао, для которого соч(Х,У) = О. Действительная функция В(в,Ф), где в,Ф ~ Т, называется неотрицательно определенной, если для любого п Е И и про- извольного набора точек 11, ..., Ф„Е Т и всех с1, ..., с„Е К верно неравенство 
поскольку интегрируется неотрицательная функция. При этом мы воспользовались для любых 0,1, .. .‚ оп Е К очевид- ным равенством  ё=1]=1  Упражнение 69. Доказать, что существует гауссов- ский процесс (поле Винера—-Ченцова) Х = {Х (23),: Е pB2 с нулевым средним и ковариационной функцией В(з, 73) = = П2=1 гп1п{з;„,й;„}, где з = (51, . . . ,в„) и й = ($1, . . . ,$„).  Напомним теорему Пойа. Если ‹,о — четная непрерывная функция такая, что ар выпукла на [0, оо) и ‹р(О) = 1, ‹р(о)‚—› О при и —› оо, то ср — характеристическая функция некоторой вероятностной меры. В частности, характеристической является функция  _ 1- М при И < 1; м”) _ {О при |и| > 1.  Упражнение 70. Приведите пример характеристической функции, которая не удовлетворяет условиям теоремы Пойа (т.е. условия этой теоремы лишь достаточны, но не необхо- димы).  Справедлива (см., напр., [2, с. 52]) следующая  Теорема 9. Для действительной функции а(#), 23 Е Т, и симметричной неотрииательно определенной (в смысле (76)) функции 1209,15), 3,: Е Т, существует гауссовский про- цесс У .= {У($),й Е Т}, для которого ЕУ(2Ъ) = ац) и со\/(У(з),У(й)) = 1209,15) при 3,13 Е Т. ‘  В силу наложенных на Н(з, г) условий можно ввести харак- теристические функции вида  п п п _ 1 ‹,о„‚_„‚д„ (и1, . . . ,и„) =ехр {2 Е: 11160030 — 5 Е: Е идидНфйд, 131)} . К=1  к=11=1  84 
В качестве простого упражнения проверьте, что указан- ные характеристические функции удовлетворяют условиям со- гласованности (см. пункт 3.1). Поэтому на пространствах (Е",8(К")), и б И, возникает семейство согласованных гаус- совских мер с указанными характеристическими функциями. В силу фундаментальной теоремы Колмогорова, сформулиро- ванной в терминах характеристических функций, существует гауссовский случайный процесс У = (У(1), $ ~ Т) с заданным семеиством конечномерных распределении. Задача 20. Можно ли построить гауссовский процесс с ну- левым средним и ковариационной функцией В(8, Ф) = о о(8, Ф), где о(8, 1) = 1 при 8 = Ф, а в остальных случаях она равна О? Чтобы применить сформулированную теорему 9, доста- точно проверить неотрицательную определенность о(8, Ф), так как она очевидным образом симметрична. Для произвольного набора с1, ..., с„Е Ж" имеем П ТЬ ЧЪ сйс~ 8й,8~ = сй > й=1 1=1 й=1 Значит, существует гауссовский процесс с заданными параме- трами. Согласно упр. 68 мы построили гауссовский процесс с независимыми значениями, поскольку В(8, 8) = О при 8 ф $. Часто бывает удобно обобщить рассмотренное выше по- нятие неотрицательно определенной функции на комплексно- значные функции. Для этого вместо (76) требуют выполнения условия ~й~т ~й ~ ~т (77) й,т=1 при каждом и Е И, всех 81, ..., 1„Е Т илюбых я1, ..., я„Е С, где я = а — гЬ для я = а+ зЬ (а, Ь Е Е). Именно это обобщение используется в следующих четырех упражнениях. упражнение 71. Пусть у(о), где и е 2, — характери- стическая функция некоторой вероятностной меры. Положим 
߄— те же, что в предыдущем примере, а [] — целая часть числа? Пример 1В. Построим пример процесса, не являющегося процессом с независимыми приращениями. Пусть Я = (Я„= (и+1)У, и Е Е» ), где У вЂ” невырожденная случайная величина. Тогда для любых множеств Во и В1 из 8(Е) имеем Р(Яо Е Во %1 — Бо Е В1) = Р(У Е Во У б В1) = = Р(У Е Во ) ) В1). Последнее выражение не совпадает с про- изведением Р(Яо Е Во)Р(51 — Яо Е В1), если взять, например, Во такое, что Р(У Е Во) Е (О, 1), а В1 — — Е ~ Во. упражнение Тб. Пусть Х = (Х(3),1 > О) — процесс с независимыми приращениями, Й = Ь(1), 1 > О, — детермини- рованная функция. Верно ли, что процессы (Х(1) + Ь(Ф), Ф > О) и (Ь(8)Х(1), 1 > О) имеют независимые приращения? Пример 17. Покажем, что процесс Ж = (К~, 8 > 0), опре- деленный как процесс восстановления (задача 14), имеет не- зависимые приращения. Доказательство разобьем на несколько задач. Для удобст- ва обозначений пишем далее К(8) вместо Ж~. Напомним, что по построению К(0):= О. Задача 21. Мы видели, решая задачу 14, что при любом 1 > О верно равенство Р(К(1) = оо) = О. Теперь требуется показать, что множество А = (К(1) ( оо при всех 1 > О) является событием и имеет вероятность единицу. По построению все траектории процесса Ж (начинаясь в нулевой момент времени в начале координат) не убывают на [О, оо). Поэтому А = (Ж(п) < оо длв всех в Е Щ = П(Ж(в) < оо). п,=1 Остается заметить, что пересечение счетного числа событий вероятности единица имеет вероятность единица. Далее рассматриваем траектории, для которых и Е А. 87 
Задача 22. При й > О введем вспомогательные случайные величины Ха, п Е Ы (не следует путать обозначение Х; со степенью порядка й величины Хп). Положим  ХЁ == Бмщн — 7% ХЁ = Хиты: ПРИ К 2 2‚  здесь $0 = Хо = 0,591 = Х1 +...+Х„, а Х1,Х2‚... — незави- симые величины, показательно распределенные с параметром А > О. Доказать, что при каждом й > О независимы величины  1\/°(й), Х{‚ ХЁ, . . .‚ причем Х; м Ехр(А)‚ п Е М.  Для проверки независимости достаточно убедиться (объ- ясните‚ пользуясь замечанием 2), что для каждого К 2 1, лю- бых 31, . . . ‚ зд 2 О и произвольного п Е 2+ верно равенство  Р(Х{ 2 з1‚...,Х,'Ё 2 зьА/(й) = п): = НХЁ 2 31) - - - ЙХЁ 2 ЗЬ)Р(1‘7(Ё)= "д- (78) При всех й > 0,3 2 0 и пЕ И+ имеем Р(Х{ 2 3,2%) = п) = Р(8„+1 — г 2 з, 5,. < г, 5п+1 > г) = = Р(5'„ < й,.5'„ + Хп+1 2 й+ з). (79)  Случайные величины 5„ И Х„+1 независимы (как измери- мые функции от непересекающихся наборов независимых ве- личин) и имеют плотности распределения соответственно  п $п—1 — 17 115493) = А 511$‘? А П[0‚оо)($)›  рХп+1(у) = ^е_›`уп[о,оо)(3/)› 17: у 6 На  Поэтому их совместная плотность  Р5„‚х„+1 (ад у) = 115„ (т)рх„+‚ (у)‚ аду 6 Шё-  Таким образом, полагая С’ = {(:в‚у) : О < а: < й,у + а: 2 й + з} и применяя теорему Фубини, получаем  РОЙ 2 щШЁ) = п) = АР5„‚х„+1($‚у)д$ 6131 =  = [или ([:_$Рх„+1(у)4у) аж =  88 
~ (п Й и — 1 — Лж — Л(8+8 — х) у ( -1)' — л(к+8) (~ 1)~ О Суммируя по и = 0,1,... обе части полученного равенства, приходим к формуле Р(Х1 > 8) = е ', 8 > О. Поэтому Х~~ Ехр(А). Вспоминая (задача 14), что Р(К(Ф) =и) =, е (лФ)" при и Е Е» и $ > О, видим, что формула (78) верна для Й = 1. Учитывая (79), независимость величин Х1, Х2,..., а также неотрицательность 81, левую часть равенства (78) при Й > 2 можно переписать в виде РД < 8, Я„+ Х„» 1 > 1 + 81) Р(Х„» 2 > 82в..., Х„+~ > 8~) = й й = Р(Хв~ > вв) Р(Ж(В) = вв) Д е ~" = Р(Ж(В) = о) Д е ~" . (80) Использовано было и то, что при Й = 1, как установлено выше, Р(Х~~ > 81,К(1) = и) = Р(Х~~ > 81)Р(К(8) = и). Просум- мировав по всем целым неотрицательным и исходную левую часть (78) и ее выражение (80), приравниваем полученные сум- мы: й Р(Х1~ > вв,... Хв~ > вв) = Д е ~в~. Подставляя в эту формулу 8РП = 0 при т ~~ ~, где~ = 2, ..., Й, видим, что Р(Х~~ > 8 ) = е "'~, т.е. Х~~ Ехр(А). Тем самым с учетом (80) получаем, что в формуле (78) левая часть равна правои. Задача 23. Доказать независимость приращений процесса К, т.е. независимость случайных величин Ж(81), Ж($~) — К(11), ..., Ж(Ф„) — Ж(1„1) при всех 0 < 31 < 12 « ... Ь„и и > 2. 89 
По последовательности Х {, ХЁ, . . . определим простой про- цесс восстановления М‘ = {1\/"(з), 5 2 О}. Согласно задаче 14 велиьшна 1\/"(з) имеет распределение Пуассона с параметром Аз. При этом легко видеть, что  1\/‘(з) =1\Г(#+з)—1\/'($), 320.  Проверим, что 1\/'(23) и 1\/(й+з)—1\7(й) независимы при з, й 2 О. В силу задачи 22 величина 1\/' (г) не зависит от последовательно- сти ХЬХЁ, . . .. Поэтому а{1\/'(й)} не зависит от а{Х{‚ . . . ,Х$‚,} при т 2 1. Положим 5}, := ХЁ + . .. + Ха, п 2 1. Для произ- вольных з 2 О и 1 2 О заключаем, что событие {1\/‘(з) = 55} = = `pN < 3,5%” > з} Е о{Х{, ..., ХЁН}. Следовательно, как утверждалось, Ы‘(з) не зависит от 1\/` Воспользуемся индукцией. Случай п = 2 уже рассмотрен. Пусть наше утверждение верно для любых п — 1 приращений процесса 1\/'. Введем процесс 1\"1(3) = 1\’(#1 + з) — А!’ (131), где з 2 О. Величины 1\/'(й2) —1\Г(й1), ..., А/(йп) —1\Г(1Ъ„_1) образуют (п — 1)-мерный вектор приращений процесса 1\/` ‘1:  Ш$1(31)7”‘1(52)_ “Й (51): ° ° ° ›МЁ1(3п—1) _ “И (511-2):  здесь 31 = 132-251, ...,з„_2 = й„_1—й1, з„_1 = ы-ц. Такие при- ращения независимы (пользуемся индукцией и тем, что про- цессы АТ и М“ имеют совпадающие соответствующие конеч- номерные распределения, поскольку задаются одинаковым об- разом по последовательностям независимых показательно рас- пределенных величин). Вектор, составленный из этих прира- щений, измерим относительно а-алгебры, порожденной вели- чинами Х{1‚ХЁ1,..., и потому не зависит от А’ ($1) согласно задаче 22. В итоге совместная характеристическая функция 1\/(й1),1\7‘1(з1),1\Г‘1($2)—1\/"’1(31), ...,1\/"1(з„._1)—1\/‘1(в„_2) рас- падется в произведение характеристических функций компо- нент. Требуемое утверждение доказано. Этим завершается и рассмотрение примера 17. Результат задачи 22 заслуживает отдельного обсуждения. Мы убедились, что величина перескока процесса Н за уровень 13 > 0, т.е. величина Х{ := Бди)“ —23, имеет показательное рас-  90 
пределение с параметром А. На первый взгляд, это вызывает удивление. Действительно, получается, что длина случайного промежутка, которыи содержится в одном из данных проме- жутков, образованных точками Яо = 0 < Я1 < ..., имеет то же самое распределение, как и эти промежутки. Сказанное часто интерпретируют как парадокс времени ожидания. Предполо- жим, что автобусы приходят на остановку через промежутки времени, представляющие собой независимые случайные ве- личины, имеющие показательное распределение с параметром А. Спрашивается, какое время придется ждать автобус, если оказаться на остановке в момент 1? Согласно разобранной за- даче время ожидания будет распределено по одному и тому же экспоненциальному закону, в какой бы момент 1 ни начать отсчет этого времени. Объяснение парадокса состоит в том, что мы имеем дело не с "частью" некоторого фиксированного интервала, длина которого распределена по закону Ехр(А), а с интервалом, накрывающим точку 8 и имеющим случжныи номер (т.е. при разных и перескок будет осуществляться за счет промежутка, имеющего случайные концы Я~ и Я~» 1, где Й = Й(и); в наших обозначениях Й(и) = К~(и), и Е Й)! В заключение этого раздела приведем важную теорему (см. 2, с. 46]), позволяющую вводить процессы с независимыми приращениями, когда известны распределения этих прираще- нии. Теорема 10. Пусть ~~р(в,Ф, )) — семейство характе- ристических функций, отвечающих некоторому семейству вероятностных мер Я, ~ на (Е, В(Е)), где О < в < $ < оо. для существования процесса Х = (Х~, 1 > О) с независимыми при- ращениями шакого, что характеристическая функция Х~ — Х, есть ~р(в,1, ) при всех О < в < 3 < оо, необходимо и доста- точно, чтобы р(в, Ь, и) = ~р(в, и, и) у(и, Ф, и), где также фигурируют произвольные 0 < в < и < 1 < оо и и Е Е. При зтом распределение Хо может быть выбрано любым наперед заданным. 91 
3.4. Пуассоновский процесс и порождаемые им стохастические модели  Определение 16. Процесс А’ = {1\/'($), 13 2 О}, обладающий свойствами: 1) А/(О) = О п.н.; 2) АТ имеет независимые приращения; 3) 1\/`(й+ в) — А/(й) ы Ро1$()\з) при всех 3,2% 2 О, называется пуассоновским интенсивности А > О.  Итак (см. пример 17), введенный конструктивно процесс АТ — пуассоновский. Существование следует и из теоремы 10.  Задача 24. Сумма 1\/` = {А/(й) = ЁПАЦ! 2 О} неза- 11=1  висимых‘ пуассоновских процессов М, = {М(й),й 2 О}, чьи интенсивности соответственно Ад, ё = 1, ...,п, является пуас- соновским процессом. Проверить и найти интенсивность А’.  ' п Очевидно, что П (О) = 2 1\/д(О) = О. Далее, в силу того, .=1 что функции от независимых случайных величин независимы, п набор {1\’($д) — 1\/(:‚_1) = :(1\/`д(13д) — 1\/}(Ц_1))};°=1 состоит из  А: независимых случайныхзвёзличин для О = 730 < 731 < . .. < ц, т.е. приращения процесса А/(й) независимы. Наконец, согласно (71) сумма независимых пуассоновских величин снова является пуассоновской, а ее параметр равен сумме параметров. Таким образом, выполнены все требо- вания определения 16, а интенсивность суммарного процесса  равна СУММЕ ИНТЭНСИВНОСТВЙ слагаемых.  Задача 25. Найти ковариационную функцию пуассонов- ского процесса А! интенсивности А > О.  Прежде всего заметим, что Е1\/(2)2 = ‚\$(/\13+ 1) < оо для любого 2% 2 О (если 5 м Ро1$(а), то ЕЕ = а, 05 = а). Поэтому Н (13) 6 112 (даже входит в П’ при любом р > 2), следовательно,  1Т.е. независимы а-алгебры а(1\/д), порожденные этими семействами случайных велшчин.  92 
определена ковариационная функция процесса. Пользуясь би- линейностью скалярного произведения, для О < з < 13 имеем  С0\/(1‘7(8)‚1\’(Ё)) = С°\/(^7(8)‚1\7(Ё) - “Ы + 1\’(8))= = С0\/(1\’(8)› “Ш - 1‘7(8))+ С0Ч(^’(8)‚1\7(3)) = ОМЗ) = да  поскольку А’ (з) и 1\/` (13) — 1\’(з) независимы °(ковариация неза- висимых интегрируемых величин существует и равна нулю). Таким образом,  со\/(1\Г(в),1\Г(й)) = Аш1п{5,73}, при 3,75 2 О.  Интересно отметить, что винеровский и пуассоновский процессы имеют ковариационные функции, отличающиеся лишь постоянным множителем ‚\. При этом траектории пуас- соновского процесса с вероятностью единица имеют разрывы, а винеровский процесс допускает п.н. непрерывную модифи- кацию. Пример 18. Объясним, почему у пуассоновского процесса интенсивности А > О не существует непрерывной модифика- ции. Пусть АТ = {1\/'(й),й 2 О} — пуассоновский процесс (суще- ствующий, например, согласно теореме 10). Допустим, что у него имеется модификация Х 4: {Х (15),73 2 О} с траекториями,  непрерывными п.н. Рассмотрим 9* С О такое, что Р(П„.) = 1  и для всех ш Е 9,. траектории Х (-,ш) непрерывны на [О, оо). Тогда для любого Т > О и ш Е 9,. траектория Х (-,ш) будет равномерно непрерывна на [О, Т], т.е. при произвольном вы- боре г Е (О, 1) найдется б = б(г, Т, ш) > О такое, что |Х(3,ш) — Х(й,ш)| < г, при |в — Ц < б. Возьмем счетное всюду плотное множество 5 С [О, Т], на эту роль годится множество рациональных точек отрезка [О, Т]. Для каждого й Е [О, Т], а значит, и для любого 23 Е 5 спра- ведливо равенство Х (13) = 1\’(13) п.н. Пересечение счетного чи- сла множеств меры единица имеет меру единица. Поэтому найдется 9* С П такое, что Р(О*) = 1, и  Х(й,ш)=1\/`(й,ш) для ЁЕЗ, шЕП“.  93 
Рассмотрим и Е Йо = Й„П Й' (очевидно, Р(йо) = 1). Тогда дляв,8ЕЯиибйо ~К(в,и) — К(8,и)~ (е при ~8 — ~~ ( о(а,Т,и). (81) Упражнение 77. Покажите, что пуассоновский процесс имеет модификацию с неубывающими почти наверное траек- ториями. Задача 26. Пусть Ш = (Ж(1),8 > 0) — пуассоновский процесс интенсивности А, полученный как процесс восстано- вления. Установить, что — ~ — -+ А п.н. при 1 ~ оо. К(~) Пусть 1 пробегает вначале лишь натуральные значения. Положим Х~ . = Ж(Й) — К(Й вЂ” 1), где Й Е 1Ч. Тогда (Х~)~~~— последовательность независимых одинаково распределенных величин со средним ЕХ1 — — А, поскольку К(1+ 8) — К(8) Ро18(А1) для 8,~ > О. Следовательно, по теореме 5 (уси- П ленный закон больших чисел Колмогорова) для Я„= ~~', Х~ 1=1 имеем: к(п) Я„ = — -+ А п.н. при и ~ оо. (82) и о При любом 1 > 1 запишем Ж(1) = (Ж(~) — К([1])) + Ж([~]), где [ обозначает целую часть числа. Тогда к(~) [~] ж([~]) гч(~) — к([~ ) [~] 94 Однако К(0) = 0 п.н., поэтому из (81) получаем, выбирая до- статочно мелкое разбиение отрезка [О,Т] точками из Я, что на событии А вероятности единица (А = (Ж(0) = О) П Йо) для всех 1 Е Я справедливо равенство Ж(~,и) = О. Мы учли, что Ж(1) принимает целые неотрицательные значения, а е Е (О, 1). Итак, Ж(1) = 0 п.н. для каждого 1 Е Я. В то же время Ж(1) Ро18(А1). Следовательно, Р(Ж(~) = 0) = е ~'. Полученное противоречие доказывает требуемое утверждение. Справедливость следующего результата можно рассматри- вать как некий аналог требования непрерывности траекто- рии. 
Следовательно, искомое распределение — биномиальное (как у числа успехов при Й испытаниях в схеме Бернулли с вероят- ностью успеха ~~). Пример 20. Пусть Ж вЂ” пуассоновский процесс интенсив- ности Л и т, = 1пК(й > О, Ж(й) > 1). Покажем, что т1 имеет показательное распределение с пара- метром Л. Действительно, Р(т1 > и) = Р(Ж(и) = О) = е ~" при и > О, а это и означает, что случайная величина т1 Ехр(Л). Упражнение 78. Введем т„= 1пГ(1 > О, Ж(1) > и), и > 2. Доказать, что случайные величины т1, т2 — т1, ..., т„— т„ независимы и показательно распределены с параметром Л. Пример 21. Выясним, каково распределение т1 при усло- вии Ш(1) = 1. Очевидно, что при рассматриваемом условии величина т1 не может быть больше, чем 1, т.е. Р(т1 > и~К(1) = 1) = О при и > 1. Пусть теперь О < и < 1, тогда с учетом примеров 20 и 19 имеем Р(т1 > и~И(1) = 1) = Р(Ж(и) = О~И(~) = 1) = 1 — — . Иначе говоря, условное распределение первого скачка пуассо- новского процесса при условии, что на отрезке [О, ~ произошел ровно один скачок, является равномерным на [О, ~]. Более общее утверждение заключается в следующем. 'Упражнение Т9. Докажите, что при условии Ж(~) = Й мо- менты скачков пуассоновского процесса на отрезке [О, 1] ведут себя так же, как координаты Й точек, брошенных независимо друг от друга на этот отрезок. Точнее говоря, они образуют вариационный ряд для Й независимых равномерно распреде- ленных на [О, 8] случайных величин. При рассмотрении моделей теории массового обслужива- ния точки скачков пуассоновского процесса соответствуют 96 
е Определение 17. Поток случайных событий называется пуассоновским (или простейшим), если выполнены следующие три своиства. 1'. Стационарность — вероятность Р„(1) появления и собы- тии на интервале длины Ф завислт только от и и 8, но не от положения интервала на временнои оси. 2'. Отсутствие последействия — числа событий, появляю- щихся на непересекающихся интервалах, представляют со- бой независимые случайные величины. 3'. Ординарность — вероятность появления более одного со- бытия в промежутке длины 1 есть величина более высокого порядка малости, чем 1, т.е. 1 — Рв(1) — Р1(1) = о(1), 1 ~ О+. Ординарность потока означает, что события появляются "по одному". Заметим также, что данное определение позво- ляет рассматривать наступление событий не только на полу- оси [О, оо), но и на всей прямой. Задача 27. Для 8 ) 0 обозначим К(1) число событий в про- межутке (О, 1] (говорят и о числе случайных точек, попавших в (О, 1, имея в виду моменты наступления событий). Проверить, что К = (К(~), ~ > 0) — пуассоновский процесс. По определению процесса Ж(0) = О, так как (0,0] = Я. В силу отсутствия последействия приращения рассматривае- мого процесса будут независимы. Далее, из стационарности и отсутствия последеиствия вытекает, что Ро(~+в) = Ро(~)Ро(в). (83) Докажем сначала, что единственное нетривиальное решение уравнения (83), удовлетворяющее условиям определения 17, имеет вид Рв(~) = е ~~, где 0 < Л < оо. 97 наступлению некоторых событии, например, появлению кли- ентов (заявок, требований на обслуживание). В таком случае говорят, что в систему поступает пуассоновский поток требо- ваний. Обратимся к определению этого простейшего потока, данному А.Я. Хинчиным. 
Ре( ) >Ре[с)>Ре( — ) для < 1 < —, несложно получить, что Ро(1) = 0б = е при любом 8 > О, как и требовалось доказать. При малых 1 имеем Ро(8) = 1 — Л1+ о(1). С учетом орди- нарности Р1(1) = 1 — Ро(1) + о(~) = Л1+ о(1). При любом и Е И формула полной вероятности и три усло- вия в определении Хинчина для каждого 1 > 0 дают Р„(1 + Ь) = (1 — ЛЬ) Р„($) + ЛЬР„1(8) + о(Ь), Ь -+ 0 + . Разделив разность Р,(1+ Ь) — Р„(~) на Ь > 0 и устремив Ь к нулю, получаем систему дифференциальных уравнений Р' (~) = — ЛРу,(8) + ЛР, 1($), и Е Ы (84) Эту систему удобно решить, сделав замену Р„(1) = е л'е„(1). Тогда приходим к системе (оо(1) = 1) ид(8) = Лед 1(8)е 8 > 0) и Е И. Ее единственное решение с начальными условиями о„(0) = О, и Е 1Ч, имеет вид и„(1) = ~. В результате при начальных (Л~)" 'й. 98 Положим 0 = Ро(1), тогда 0 < 0 < 1. Нетрудно понять, что случай 0 = 1 соответствует тривиальному потоку, когда Ро(1) = 1 при любом 8, т.е. события вообще не происходят. Его исключаем из рассмотрения. Если же 0 = О, то Ро(1) = = 0 при любом 8, т.е. события наступают с достоверностью в любом как угодно малом промежутке времени, что противоре- чит ординарности. Таким образом, 0 < 0 < 1. Следовательно, 0 = е ~, где О < Л < оо. Многократное применение соотношения (83) дает равен- ство Ре[пс] = [Ре[с]]", откуда вытекает, что Ре ( — ) = 9 ~", а РЕ (~~) = В~~" для любых целых сп,п > 1. Учитывая моно- тонность Ро(1), а именно, 
условиях Р„(О) = О, п Е М, взяв соответствующее решение си- стемы (84) с Ро(23) = е“"‘, получаем  М” _ Р„($)=(пг е”, 23>О, пЕ%+.  Итак, мы получили распределение Пуассона с параметром М. Учитывая независимость приращений Н, а также то, что А/(О) = О п.н. и Р(1\/`($) = п) = Р„($) для й > О и п 6 %+, видим, что А’ — это пуассоновский процесс интенсивности А. Как будет показано в главе 6, процесс Пуассона является цепью Маркова с непрерывным временем, поэтому справед- ливы уравнения (84), представляющие собой частный случай прлмыа: уравнений Колмогорова.  Упражнение 80. Проверить, что моменты скачков пуас- соновского процесса образуют пуассоновский поток в смысле определения 17.  Упражнение 81. Введем операцию прореживания пуассо- новского потока, т.е. каждое событие независимо от осталь- ных исключается из потока с вероятностью 7. Показать, что снова получается пуассоновский поток интенсивности (1 —*у)>\.  Задача 28. Доказать, что процесс У, описывающий ка- питал страховой компании в модели Крамера-Лундберга (см. пункт 2.5), имеет независимые приращения.  Легко видеть, что если процесс 2 = {2(23),й 2 О} имеет независимые приращения, а 1 —— детерминированная функция, заданная на [О, оо), то процесс {2 (й) + 1‘ (1),: 2 О} также имеет независимые приращения (достаточно написать совместную характеристическую функцию приращений этого процесса). Поэтому далее будем доказывать независимость приращений процесса  на) а = ша) := 2 а, г; о}, (85) !с=1 где (.{„)„Еы — последовательность независимых одинаково  распределенных величин (как обычно, сумма по пустому мно-  99 
не зависит от пуассоновского процесса АТ = {1\/'(15),й 2 О}, имеющего интенсивность А > О. Определим процесс У = = {У(й),й 2 О}, полагая 1/(15) = Х„ для 15 Е [т„,т„+1), п Е И+ (т„ — моменты скачков процесса М Найти ковариационную функцию процесса У.  Определение 18. Процесс Х = {Хыё 2 О} называется однородным по времени, если распределение его приращений Х, — Хд, О < з < г, зависит лишь от разности 13 — з.  Заметим, что введенный нами пуассоновский процесс ин- тенсивности А > О является однородным, так как  (Ш - 8))” Р(1\’д — М, = 1:) = ——-——‚д——ехр{—>\(г — 3)}, 1: = О, 1, . . .. Пример 22. Покажем, что одномерные распределения од- нородного процесса с независимыми приращениями, стартую- щего из нуля, безгранично делимы.  Если Х = {Хьй 2 О}, а Хо = О, то для любых й И п имеем Х: = Х: - Хцп-ц/п + Х1;(п—1)/п - Х$(п—2)/п + - - - + Хг/п - Хо-  В силу однородности Х все Хм, := Хдд/п — Х‚(,„_1)/„, где 1: = = 1, ..., п, одинаково распределены, а в силу независимости приращений процесса эти величины независимы, т.е. выпол- нено определение безграничной делимости.  3.5. Процесс Леви  Важную роль в финансовой математике и других приложе- ниях играют процессы Леви.  Определение 19. Случайный процесс Х = {Х (25),: 2 О} называется процессом Леви, если выполнены следующие усло- вия: 1°. Х(О) = О п.н.; 2°. Х имеет независимые приращения; 3°. Х —— однородный процесс; 4°. Х непрерывен по вероятности в каждой точке 13 2 О; 5°. Х является выпад процессом.  102 
Отметим, что если в данном определении требовать вы- полнения только условий 1°-— 4°, то можно дчоказать, что у про- цесса Х существует модификация Х = {Х(13),15 2 О}, для ко- торой имеют место все свойства 1°— 5°. Кроме пуассоновского и винеровского процесса, которому посвящена следующая глава, можно ввести еще один процесс с независимыми приращениями, а именно, гамма-процесс Х = = {Х(й), 75 2 О} такой, что Х(0) = О и приращение Х($) — Х(з)‚ О < з < 2%, имеет распределение Г(а(й — з), А). В силу задачи 13 характеристическая функция  А (Да-З) Фх(:)-Х(з) (и) = ( ) -  А — ш Нетрудно показать, что указанный процесс существует,  поскольку выполнены условия теоремы 10, И (его модифика- ция) удовлетворяет определению процесса Леви.  Пример 23. Проверим, что процесс П, определенный фор- мулой (85), является процессом Леви. Свойства 1° и 5°, очевидно, выполняются в силу опреде- ления процесса П, а свойства 2° и 3° справедливы согласно задаче 28. Убедимся, что имеет место и 4°. Характеристи- ческая функция величины П (13) — П(з) совпадает с характе- ристической функцией фЩЬЗ) величины Ё/(й — з), О < в < г. Пользуясь (86), видим, что  Фин-аки) = ехрЩй - эта (и) - 1)}‚ и Е К,  где срд, — характеристическая функция 51. Итак, если й —-› в, то для каждого и Е К  Фара-ми) —> ехрЮ} = 1‚  т.е. имеет место сходимость к характеристической функции случайной величины, равной нулю. Поэтому П(й) — П(з) схо- дятся к нулю по распределению. Применяя результат упраж-  нения 40, заключаем, что Щг) — П(з) 5 О, когда 15 —› з. Это  равносильно тому, что Г/(й) —Е› П(з) при й —› з. Заметим,  103 
что мы воспользовались результатами о сходимости последо- вательности случайных величин, но их аналоги верны и для величин, индексированных точками отрезка прямой. Характеристическая функция величины Х (13), где Х = = {Х ($),$ 2 О} — процесс Леви, допускает (см., напр., [1З, с. 246]) каноническое представление, а именно верна формула Леви-Хинчина: арх“) = ехр{й2/2(и)}, где кумулянта  2 2 _ ф(и) = шь - %1 + метит - 1 - ёишП{|‚,К1})1/(с1ш), (87)  здесь Ь 6 К, 02 2 О, а (вообще говоря, бесконечная) мера и на (К, ВСЮ) такова, что 1/({0}) = О и  /(а:2 /\1)1/(с1а:) < оо. К  Формула (87) показывает, что распределение Х (й) является безгранично делимым. Отметим, что наряду с (87) имеются и другие представления кумулянты.  Упражнение 83. Найдите триплет параметров (Ь, 02,12), отвечающий заданному формулой (85) составному процессу Пуассона.  104 
Глава 4. ВИНЕРОВСКИЙ ПРОЦЕСС 4.1. Эквивалентные определения винеровского процесса Винеровский процесс (одномерный) можно рассматривать как модель хаотического движения по оси Е частицы, имею- щей координату И'(8) в момент 8 > О. Этот процесс принад- лежит сразу нескольким важнеишим классам случаиных про- цессов, что, в частности, показывают следующие два его рав- носильных (есть и другие, эквивалентные им) определения со- ответственно как гауссовского процесса и как процесса с не- зависимыми приращениями. Определение 20. Случайный процесс Ю = (Ю(8), 8 > 0) называется винеровским, если 1) Ю является гауссовским, 2) ЕИ'(1) =0,8>0, 3) соч(%(8), Ю(8)) = ппп18, 1), 8, 1 > О, 4) траектории непрерывны п.н. Определение 21. Случайный процесс Ю = (И~(Ф), 8 > 0) называется винеровским, если 1) Ю(0) = 0 п.н.; 2) процесс В' имеет независимые приращения; 3) Ю(1+ 8) — И~(1) Л/(0,8), для любых 8,1 > 0; 4) траектории непрерывны п.н. Проверим эквивалентность первых трех требований этих определений (к вопросу о непрерывности траекторий мы обра- тимся далее в пункте 4.2). Пусть И' удовлетворяет условиям 1 — 3 определения 20. Та- кой процесс существует согласно теореме 9 (и примеру 14). Заметим, что Ю(0) = 0 п.н., поскольку у этой величины нуле- вые среднее и дисперсия. Убедимся, что И' обладает независи- мыми приращениями. Возьмем любые точки 0 < 11 « ... 1„ и рассмотрим (И~(11), Ю(12) — Ю(11), ..., Ю(1 ) — Ю($ 1)). Очевидно, что этот вектор получен линейным преобразо- ванием гауссовского вектора (Ю(11), ..., Ю(1„)), поэтому 105 
сам является гауссовским, как было показано в примере 12. Значит, если мы проверим, что ковариационная матрица рассматриваемого вектора диагональна, то отсюда, в силу упр. 68, будет вытекать независимость его компонент. Так как Е(Ю(1~) — Ю(ц~ ~)) = ЕИ'(ц~) — ЕИ'(ц~ ~) = О, Й = 1,..., и, то при Й ф- 1 соч(Ю(1~) — И'(~~с ~),Ю(~~) — Ю(1~ ~)) = = Е(Ю(1~) — И'(8~,))(Щ~~) — И~(~~ ~)) = = тш(4,8~) — тиф~,1~ ~~ — ппп(~~ ~,1Д+тпф~ ~,1~ ~~ = О. Если же Й= 1, то Каждая компонента гауссовского вектора является гауссов- ской случайной величиной (это легко следует из того, как ха- рактеристическая функция компоненты находится по харак- теристической функции вектора), следовательно, Ю имеет не- зависимые гауссовские приращения и И~(~) — Ю(8) .Л/(О, 1 — 8) для 8<8. Докажем обратное утверждение. Возможность построе- ния процесса Ю, удовлетворяющего пунктам 1 — 3 определения 21, обеспечивает теорема 10. Для любых 0 < 1~ < ... < 1„ вектор У = (Ю(~~), И'(12), ..., И'(1„)) получается линейным преобразованием вектора (всюду подразумеваются столбцы) Я = (Ю(1~), И~(12) — Ю($~),..., Ю(1„) — Ю(1„— ~)). В силу независимости приращений процесса Ю и их гауссо- вости вектор Я является гауссовским (следует из вида его характеристической функции). Снова применяя пример 12, устанавливаем гауссовость вектора У. Таким образом, все конечномерные распределения Ю будут гауссовскими, т.е Ю вЂ” гауссовский процесс. Найдем его среднее и ковариацион- ную функцию. Так как Ю(0) = 0 п.н., при 1 > 0 имеем Ю(8) = Щ8)— — И~(0) п.н., Принимая во внимание, что И~(8) — ЩО) Л/(О, ~), 106 
Таким образом, возникают меры Є— распределения Я„( ) в пространстве (С[0, 1], Н(С[0, 1])). Доказывается, что эти меры слабо сходятся при и ~ оо к распределению винеров- ского процесса (Ю(8),Ф Е [0,1]]. В этом смысле случайные ломаные при большом и похожи на винеровский процесс. Мы не затрагиваем интересные результаты. относящиеся к иссле- дованию близости самих траекторий предельного и аппрокси- мирующего процессов. 4.2. Непрерывная модификация броуновского движения Итак, установлено существование процесса Ю, удовлетво- ряющего первым трем требованиям, содержащимся в опре- делениях 20 и 21. Однако проведенное рассмотрение не по- зволяет сделать вывод, что при этом наидегся вариант про- цесса Ю с непрерывными траекториями. Мы увидим, что упомянутыи вариант можно построить, но при этом траек- тории окажутся недифференцируемыми функциями. Неуди- вительно, что этот процесс послужил моделью для описания хаотического движения частиц цветочнои пыльцы в жидко- сти, обнаруженного в 1827 году шотландским ботаником Бра- уном и вскоре получившего название броуновского движения. Математическая и физическая теория процессов такого рода была создана лишь в 20-м веке. Множество непрерывных функций не входит в цилиндри- ческую г-алгебру событий (в пространстве всевозможных функций ~: ٠— ~ Е), на которой определена вероятностная мера, соответствующая заданным конечномерным распреде- лениям. Именно поэтому обычно ставится вопрос не о том, обладает ли данный процесс тем или иным свойством, а суще- ствует ли его модификация с желаемыми свойствами. Ока- зывается, для процесса Ь' со свойствами 1 — 3 опр. 20 (а зна- чит, и 1 — 3 опр. 21) найдется модификация с п.н. непре- рывными траекториями. Очевидно, что модификация будет также обладать и первыми тремя свойствами. 'Так раньше было принято переводить его фамилию Вгошп. 108 
Мы ограничимся лишь эффективным достаточным усло- вием, обеспечивающим наличие непрерывной модификации процесса, которое дает следующая теорема Колмогорова. Теорема 11. Пусть процесс Х = {Х(й), т? Е [а,Ь]} тонов, что для неноторьш; постолнныт а > О, С‘ > О и г > 0  Е|Х(2З+/7‚)—Х(1Ь)|“ < С|п|1+5 при любыа: мы Е [а, Ь]. (88)  Тогда у него существует модификация с непрерывными тра- енторилми.  Отметим, что приведенная теорема налагает ограничения на двумерные распределения процесса. Условие (88) не явля- ется необходимым, однако оно, в определенном смысле, опти- мально, как показывает _Пример 24. Пусть АТ = {1\/'($),$ 2 О} — пуассоновский процесс интенсивности А. Покажем, что (88) имеет место при а. = 2 и г = 0. В силу примера 18 у процесса Ы нет непре- рывной модификации (поэтому условие г > О в теореме 11 существенно) . Действительно, 1\/` (й + н) — 1\7(11) м РойвОхп) при ь 2 О, а следовательно, Е|Х(75+/ъ)—Х($)|2 = Алых/ъ)? < 2шах{А,А2}п при О < п < 1. Пример 25. Пусть дан процесс Х = {Х (15),: 2 О}. Объ- ясним, почему наличие непрерывной модификации процесса {Х (13),: Е [а,Ь]} на каждом отрезке [а, Ь], где Ь > а, обеспе- чивает существование непрерывной модификации процесса Х на полупрямой [О, оо). Будем обозначать {У;„($),71 Е [К — 1,/‹:]} непрерывную мо- дификацию данного процесса Х на отрезке [19 — 1, К], 14 Е М. Вводим процесс У = {1/(#),23 2 О}, полагая 1/(15) = Уди) при 23 Е (А: —1,1с), А: Е М, и У(/с) = Х(1с), д: Е %+. Поскольку внутри множества Ад = {ш : У;с(1с,ш) = Уд+1(1с,ш)} содержится собы- тие {У;„(А:) = Х(1с),1’д+1(1с) = Х(1с)} вероятности единица, то (в силу нашего постоянного предположения о полноте вероят-  ностного пространства) Ад — событие при каждом 1:. Поэтому А = ПЁ1АЁ имеет Р(А) = 1.  109 
При и Е А траектории процесса У непрерывны на полу- прямой. По построению Р(У(1) = Х(1)) = 1 для всех 1 > О.,- Для гауссовских процессов условия теоремы 11 можно ви- доизменить, как показывает Пример 26. Пусть Х = (Х(8),$ Е а,о) — гауссовский процесс, приращения которого обладают нулевым средним, а 0(Х(8+6) — Х(1)) < Ж~Ь~~ для некоторых Х > О, у ) О. (89) Тогда у него существует модификация с непрерывными (п.н.) траекториями. Проверим выполнение условий теоремы Колмогорова. Вы- числим абсолютный момент порядка а ) 0 случайной вели- чины и Л/(О, г~). Е~ц = х~~е * ~~~ Их = хе*~~ ох. ~2то оо ~2тг Сделав замену переменных х = сти, получим Е~ц~~ = о~Й,„, где Й„= оие " ~~Ни. (90) о Величину Й можно найти, совершив в интеграле замену пе- я2 ременных -~- — — о и учитывая,что Г(а) = х~ е *Их, а > О. 0 Имеем (принимая во внимание, что фг = Г ~ ) 1 22Г( + ) Й,„= — (~2о)~ 1е "йи = о Г() В частности, при а = 2п получаем Е~ц~~" = (2п — 1)!!о~" и б М Пользуясь соотношением (90) и условием (89), запишем Е~Х(8+6) — Х(8) ~~ = Й,„(0(Х(8+6) — Х(8)))~~~ ( Й,„Ж~~~~Ь~~~~~. Разумеется, мы всегда можем выбрать а > 0 так, чтобы -~ = = 1+ е, где с > О. Это означает выполнение условий теоремы Колмогорова о существовании непрерывной модификации. 110 
Например, для гауссовского процесса с нулевым средним и ковариационной функцией гп1п{$, з} имеем  [)(Х(й + Н) — Х(13)) = |Ь‚|, 11,23 2 0.  Следовательно, существует непрерывная модификация вине- ровского процесса на каждом отрезке [а, Ь] Е К... Впрочем, для винеровского процесса мы также могли бы прямо сослаться на теорему 11, поскольку легко видеть, что (88) выполнено при а = 4 и г = 1.  Пример 27. Покажем, как можно явно задать винеров- ский процесс на [О, оо), если мы умеем строить этот процесс на отрезке [О, 1].  На некотором вероятностном пространстве 62,77, Р) со- гласно теореме Ломницкого-Улама, упомянутой при решении задачи 1, можно задать последовательность независимых ви- неровских процессов ИО, = {И/`„(73),13 Е [О,1]}, п Е М. Опреде- лим процесс И’ на [О, оо) следующим образом:  1471“), ЁЕ [0,1),  И’($) = ” #21 И7;„(1) + И/„НЦ — п), 13 Е [п,п +1), п Е М. Траектории построенного процесса будут очевидным образом непрерывны, а И/(О) = 1471 (О) = ‘О. Нетрудно проверить, что И7(15) — И’(з) м А/(Оф — з), О < 3 < г. В самом деле, если для некоторого 19 Е И... точки 3,2% Е [/с,1сч + 1), то И/(тй) — И’(з) = = РУНЦЁ) — ИЙ;„+1(з), т.е. требуемое утверждение выполнено. Предположим теперь, что з Е [т,т + 1), т? Е [#519 + 1), т < 1:, тогда  и/(ъ) - и/(з) = /с—1 = и/(г) - и/(к) + Е: [И/(1+ 1) - И/'(1)]+ И/(т +1) - И/(в) = д=т+1 1с—1 = Идем“ - 79) + 2 ш1+1(1)+[И/т+1(1)“ И’пъ+1(З - ШЛ- 1=т+1  111 
Слагаемые с разными индексами независимы. Они нормально распределены, будучи приращениями (все И/`„(О) = О) вине- ровских процессов. Значит, сумма также имеет нормальное распределение со средним нуль и дисперсией, равной сумме дисперсий, т.е. й — з. Аналогичным образом проверяется независимость прира- щений И’, при этом используется то, что измеримые функции (в данном случае суммы) от непересекающихся наборов неза- висимых случайных величин независимы. Разумеется, можно доказать существование непрерывной модификации винеровского процесса на [О, оо) с помощью те- оремы 11 и примера 25 (учитывая теорему 9 и пример 14).  4.3. Явная конструкция винеровского процесса на [О, 1] Как и для пуассоновского процесса, существуют „явные конструкции винеровского процесса. Если первый строился по последовательности независимых одинаково распределен- ных экспоненциальных величин, ‘то второй можно определить с помощью последовательности независимых А/(0, 1) случай- ных ве.личин. Например, винеровский процесс на отрезке [О, 1] задается в виде суммы ряда  Х 144% Ш) = Е: 51с(Ё)Е1с(Ш)› Ш Ё 5% (91) 1с=1 где независимые величины {к т А/(О, 1), а 5;, — функции Ша- удера, 1:: Е М. Предварительно на [О, 1] введем функции Хаара (нарисуйте их графики!): Н1(й) Е 1, Н2(2%) = 1[0‚1/2](г) — 1(1/2д](71), а затем серии, “подобные” Н2:  Нш) = 2"/2‹1:„‚‚„‹г› — 1.:„‚‚„‹г»‚ 2" < к < т”, где [щ/с = [апдсэ апдс + 2-11-1]: -]п‚,1с = (дяде + 2_п_1› 312,1: + 2_п]›  а„‚‚„ = гни: - 2" -1), п е н.  112 
Теперь по функциям Хаара определим функции Шаудера (на- рисуйте графики): % И) = Жу)ау = (1(в,~~,Нк), ~ ~ [0,1, О Подчеркнем, что система функций (Н~д(~))~д~н является полной и ортонормированной в пространстве А~[0,1] с мерой Лебега и скалярным произведением 1 (~,д) = ~(~)д(~) Ж, ~,д Е А'[0,1]. О Следовательно, любую функцию ~ Ь2[0, Ц можно предста- вить в виде ряда Фурье: где ряд сходится в А~[0,1. Кроме того, согласно равенству Парсеваля й=1 Поучительно подробно разобрать следующее утверждение. Теорема 12. Пусть (Я~д~~ — последовательность неза- висимых случайных величин, имеющих стандартное нормаль- ное распределение и заданных на некотором вероятностном пространстве (Й,У,Р). Тогда формула (91) определяет ви- неровский процесс на отрезке [О, 1 . Будем следовать схеме доказательства, приведенной в [2, гл. 11, ~10]. Равномерная на [О, 1] сходимость п.н. ряда в (91), а значит, и непрерывность п.н. его траектории вытекает из задачи 19 и следующей леммы. Лемма 3. Пусть числовая последовательность (а~)~~~ такова, что а~д = 0(Й') при Й -+ оо для некоторого е ( ~. Тогда ряд ~: а~Я~д(~) сходится равномерно на отрезке [0,1] и, й=1 следовательно, задает непрерывную функцию. 113 
Доказательство леммы опирается на тот факт, что при 2" < 1»: < 2”+1 носители 53,05) (то есть промежутки, на которых эти функции отличны от О) не пересекаются, а О < 53,03) < 2’("/2)“1. Поскольку |а;,| < Сдсг для некоторого  С > О и всех 1: Е М, то для каждого 13 Е [0,1] имеем 2 |аьн$‚„‹г›| < с2<"+1>г2-%-1‚ п е М. 2п<1с<2п+1 Суммируя полученные оценки по п 2 т И устремляя т к бесконечности, устанавливаем равномерную сходимость ряда  Х 2 аьБдОЗ), составленного из непрерывных функций. 1с=1 Обоснование дальнейших шагов в конструкции винеров- ского процесса мы разобьем на ряд задач.  Задача 30. Требуется показать, что ряд в (91) сходится не только п.н., но и в среднем квадратичном. П  Обозначим 2„(й) = 2 ЕКБЬОЗ). Тогда для 11 Е [0,1] и нату- К=1  ральных чисел т, п имеем 2  п+т Е|2п+т(Ё) ` 2п(7:)|2 = Е Е ЁЬЗК“) . = К=п+1 п+т п+т п+т = 2 2 5к(?5)5г(д)Еёьба= 2 53305? 1с=п+1 1=п+1 !с=п+1  Х Х Поскольку 2 5,301) < 2 (2"(’°/ 2)“1)2 < оо, полнота простран-  1с=1 1с=1 ства Ь2(9) обеспечивает существование при каждом й Е [0‚ 1] предела в среднем квадратичном 2 = |.Е.т.„_‚оо2„(й). Этот  факт запишем иначе: Е|2„($) — 2'(й)|2 —› О при п -—› оо. Так как сходимость с вероятностью единица и сходимость в среднем квадратичном влекут сходимость по вероятности, а предел по вероятности единственен с точностью до эквива- лентности (упр. 36), то 203) = И/(Ё) п.н. при каждом 15 Е [0,1].  Задача 31. Найти математическое ожидание и ковариа- ционную функцию процесса И’ = {И7(1Ь),15 Е [0‚  114 
Поскольку ЕЯ„(8) = О для всех и ) 1 и 1 Е [0,1], то, восполь- зовавшись неравенством Коши — Буняковского — Шварца, со- гласно задаче 30 имеем ~ЕЩЙ)~ = ~ЕЮ(й) — ЕЯ„(й)~ < (Е~ЩЙ) — Я„(й)~~) -+ О, и -+ оо. Отсюда следует, что ЕЪК(й) = 0 при всех Ь Е [О, 1 . Для вычисления ковариации воспользуемся непрерывно- стью скалярного произведения в А (Й). А именно, соч(Ю(8),Ю(8)) = ЕИ'(8)Ю(1) = 11т ЕЯ„(8)Я„(1). Учитывая независимость величин ~~, а также то, что ЕЯ = 1 (Й Е Щ, получаем соч(Ив(в),Ив(~)) = 1вт ~ Яв(в)Бв)в)Есв — — ~ Бв)в)БвЯ. й=1 1=1 Пользуясь определением функций Шаудера и свойствами функций Хаара, последнюю сумму можно переписать следу- ющим образом: ь1о,8 ь1о,~ = 1о,8 1о,~ й=1 Задача 32. Проверить, что вектор (Ю(11), ..., И~(1„)) является гауссовским для любых О < 11 « ... ~„< 1, и Е М 'й ОО ОО ~,ЬЯвИ ) = ~с)в6в, т=1 й=1 й=1 (92) где И~ = И~(с1, ..., с„;11, ..., 1„) = ~ с,„Я~(Ф,„), а ряд в пра- т=1 вой части (92) сходится почти наверное и в среднем квадра- тичном (как конечная сумма рядов с такими свойствами). Его Согласно задаче 17 достаточно установить, что произволь- ная линейная комбинация У = ~, с,пЮ(1 ) (где константы т=1 с Е К, т = 1, ..., и) будет гауссовской случайной величи- ной. Ясно, что 
Ф Ж частичные суммы У~~ = ~ И~~~ К(О,ст~~), где сг~~ = ~~ И~2. й=1 1=1 Пользуясь задачей 17, видим, что величина У является гаус- совской. Таким образом, и построенный процесс И~ — гаус- совскии. Пример 27 позволяет считать, что винеровский процесс, удовлетворяющий определению 20 для 1 Е [О, 1, можно доопре- делить на [О, оо). упражнение 85. Проверьте, что процесс, заданный фор- мулой (91), удовлетворяет на [О, 1] определению 21 (а потому и определению 20). 4.4. Свойства винеровского процесса Начнем с так называемого свойства автомодельности. Задача 33. Показать, что Я = (Я(8) = — Ю(с1),1 > 0) также будет винеровским процессом для любого с > О. Траектории рассматриваемого процесса непрерывны (п.н.). Конечномерные распределения процесса Я гауссов- ские,поскольку вектор < 1 1 — И~(с11),..., — И'(с3„)) является при любых 1~ > О, Й = 1, ..., и (согласно примеру 12) гауссовским, как линейное преобразование гауссовского век- тора (Ю(с~1), ..., Ю(сФ„)). Очевидно, Е 1 Ю(с~) = 0 для 8>О,а 1 ЕЯ(8) Я(1) = — т1п(св, с8) = т1п(8, 1), с т.е. выполнено определение 20. упражнение 86. Пусть Ю = (РК(~), ~ > 0) — винеровский процесс. Покажите, что Г = (Г(0) = О, Г(8) = 8И'(8 1), 1 > 0) окажется винеровским процессом. Теперь мы установим марковское свойство винеровского процесса. 116 
Сначала установим, что для последовательности разбиений т„на и частей, мелкости которых д„:= тах ~~~ — ~~ 1~ — + 0 й= 1,..., и Р при и -+ оо, соответствующие Г(т„) = ~, — ~ оо. Отметим, что ~~ = ~~(п), но мы не усложняем запись. Прежде всего вычислим ЕГ, и ОУ„. Имеем ~ — х /2 О оо г хе 2. Йх= — ст О Е6= Оф =Е~~ — (Е~) = (1 — — ) г~. В результате Е Заметим,что Е Поэтому ЕГ, — ~ оо при б„-+ О. В силу независимости прира- щении винеровского процесса 118 Учтем, что Ю(~~) — И~(~~ 1) .Л/(О, ~~ — $~ 1), а для величины ЛГ(О,а ) 
Р Свойство Г, ~ оо при б„-+ О+ означает (см. (47)), что Р(Г, < Х) -+ О для любого Х ) О. Покажем, что это имеет место. Р(Г„< Х) = Р(Г, — ЕГ„< Х вЂ” ЕГ,), (93) и поскольку ЕГ, ~ оо при Б„~ О+, то Х вЂ” ЕГ, < О для всех достаточно больших и,. Следовательно, правую часть (93) можно оценить сверху с помощью неравенства Чебьппева, но ОГ, = (1 — 2)Т и ЕГ, ~ оо при о„— ~ О+, поэтому Р(~Ä— ЕГ„) ) )Х вЂ” ЕГ„~) < " -+ О. п Р Проверьте, что так как Г„-+ оо, то найдется подпоследо- вательность Гщ — ~ оо п.н., а это завершит доказательство. Результат задачи 34 можно получить иначе, найдя сперва конечную п.н. квадратичную вариацию процесса Ю на [О,Т . Попросту для величин Г„из задачи 35 имеем Ц, ~ Т в Ь~, Г„< К„тах ~И~(1~) — Ю(~~ 1)~, но найдется подпоследова- Й=1,...,о тельность Г„„— ~ Т п.н., а траектории И' непрерывны. Задача 35. Найти 1л.т.~„»,о» Г„, где а 8О, ..., 1„и о„— те же, что в предыдущей задаче. Подсчитаем математическое ожидание и дисперсию Г„: а так как приращения винеровского процесса независимы, то 119 
Как показано в примере 26, момент четвертого порядка слу- чайной величины ~ Ж(0,о~) равен За~, поэтому ~(~(~~) — ~ (~~ ,))' = = Е(Ю(8~) — Ю(Ц~ 1)) — (Е(И~(Ц~) — И'(Ц~с 1)) ) = 2(Ц~С вЂ” 1~ 1) . Таким образом, ТЪ И ЮГ„= 2~ (4 — Ц 1) < 26„~ (~~ — Ц 1) = 2~Т вЂ” > О, 6„— > 0<-. 1=1 й=1 Осталось заметить, что ОГ„= Е(Ä— Т)~, а стремление к нулю этого выражения означает сходимость У„к Т в среднем квадратическом. Пример 29. Полученный в задаче 35 результат позволяет легко вычислить ~..~ ..„Ки И,-,Игр~)-и И -,), й=1 что будет применено в разделе, касающемся интеграла Ито. Обозначим Л~Ю = Ю(~),) — И~(~~ 1) приращение винеров- ского процесса на Й-м промежутке разбиения отрезка [О,Т]. Тогда ~а-1 ~~ — ~ж-1 й=1 1=1 П о ~'л,и~ — ~ (л,,и)' 1=1 й=1 Иначе это можно переписать как ~ [Ю(Т) — У„, сле- 1 2 довательно, искомый предел в пространстве А равняется (') ~к" (т) — т). упражнение 87. Найти 120 
Заметим, что если в рассматриваемых (интегральных) суммах брать не значения функции Ю( ) или в левом, или пра- вом конце промежутков разбиения, а их полусумму, то Нетрудно также найти, что для константы р Е (О, 1) Задача 36. Покажем, что тот же самый предел имеет И ~: %(8~)Ь~Хпри 8~ = р1~+ (1 — р)1~С ~, Й = 1, ..., и(и -+ оо). й=1 Воспользуемся тем, что Л~И~ можно переписать в виде а также применим тождества а(6-а) = — (6 — а ) — — (6-а), 6(6-а) = — (6 -а )+- (6-а) . 2 2 1 2 2 2 1 2 Обозначим а = Ю(Ц~ ~), 6 = Щ4), с = Ю(рЦ~+ (1 — р)1~ ~) = = И~(8~). Тогда Й-е слагаемое в интересующей нас сумме при- мет вид с(6 — с)+с(с — а) = — (6 — с ) — — (6 — с) + — (с — а )+ — (с — а) 2 2 1 2 2 2 2 2 2 2 2 = — (6 — а ) — — (6 — с) + — (с — а), 2 2 2 1 2 2 2 2 а сама сумма может быть записана как ~ (߄— Я„+ Ь„), где 1 121 
Преобразованный процесс снова является гауссовским с нулевым средним (учитываем, что линейное преобразование гауссовского вектора дает гауссовский вектор). Его ковариа- ционная функция соч(У(8), У(в)) = о~е ~~~+'~ тт(е~~~, е~~') = а~е ~~~ '~, в, 8 > О. Подробнее этот процесс будет рассмотрен в дальнейшем как марковскии и стационарныи процесс. Заслуживает внимания и так называемый броуновский мост, которыи полезен в математическои статистике для вы- вода критерия согласия Колмогорова. Такой процесс можно задать формулой ~о(~) = ~(~) — ~~(1), ~ ~ [0,1]. Очевидно, ~о(0) = %КО(1) = О. Этим свойством траекто- рий и объясняется название процесса. Данный процесс явля- ется гауссовским, поскольку Щ(1~), ..., Юо(1„)) получается из гауссовского вектора (Ю(1~), ...,Ю(Ф„), Ю(1)) линейным преобразованием, здесь 0 < 1~ < ... < ~„< 1. Процесс Юо имеет нулевое среднее, а его ковариационная функция сочЩ(в), Юо(8)) = = Е(Ю(в) — вЮ(1))(Ю(~) — ФЩ1)) = т1п(в, ~) — в~. Пример 31. Докажем, что процесс Юо = (И'о(8), 8 Е [О, 1]) не зависит от Ю(1). Действительно, ЕЮО(~)Ю(1) = Е(Ю(1) — ИК(1))Ю(1) = ЕЩ8)~К(1) — 1ЕЮ2(1) = $ — 1 = О. Так как система, со- стоящая из процесса Юо и величины Ю(1), гауссовская, то из некоррелированности следует независимость. Броуновский мост можно также рассматривать как услов- ный винеровский процесс, равный нулю в точке ~ = 1. Опре- делим меру Я, на борелевской о-алгебре пространства Я = = С[0,1, положив Я,(В) = Р(Ю Е В~Ю(1) Е [ — е)е]), е > О, 124 
з десь Ю обозначает сужение винеровского процесса на [0,1, а В Е 8(С[0, 1]). Тогда Я, слабо сходятся к распределению Я броуновского моста при я -+ О+. Последнее означает, что у(х)в)~(ох) ~ / у(х)б)(йх), л г-> 0-1-, для любой непрерывной и ограниченной функции ~: Я вЂ” ~ Ж. Пример 32. Покажем, что, наоборот, по броуновскому мосту Юо = (Юо($), 0 < 8 < 1) (т.е. непрерывному с вероятно- стью единица гауссовскому процессу, имеющему нулевое сред- нее и ковариационную функцию тш(8, 1) — 8$) можно постро- ить винеровский процесс на Щ следующим образом: Щ8) = = (1+ 1) И', ( -' ), 1 > О. Вектор (Ю(~1), ..., Щ1„)) является гауссовским, так как его можно получить линейным преобразованием гауссовского вектора о +, ..., о + . го среднее оче- +~1 3 ) + д видным образом равно нулю: ЕИ~(1) = (1.1-1)Е1лв (~+1у) = О. Осталось подсчитать ковариационную функцию: соч(Ю(8), Ю(1)) = Е~К(8)Ю(1) = = (1-1- л)(1 +1)ЕИ'в ( ) Ив ( ) = 8 8 8$ +. + (1+.)(1+ ) Предположим для определенности, что О < 8 < 1, тогда соч(Ю(8), Ю(1)) = 8(1 + 1) — 8$ = 8 = ппп18, 1). Таким образом, выполнено определение 20, так как при вве- денном преобразовании непрерывность траекторий сохраня- ется. 125 
Глава 5. МАРТИНГАЛЫ 5.1. Условное математическое ожидание и его своиства Нам понадобится понятие условного математического ожидания, играющее важнеишую роль в современнои тео- рии вероятностей. Пусть даны вероятностное пространство (Й, У', Р) и о-алгебра А С Г. Определение 22. Для интегрируемой случайной вели- чины Х условным математическим ожиданием относительно а-алгебры А называется функция У: Й вЂ” ~ К, обладающая сле- дующими двумя своиствами: 1) У является А-измеримой (т.е. У Е А~В(Е)); 2) для любого С Е А выполнено равенство (94) ЕХПс = ЕУПс. Стандартное обозначение: У = Е(Х~А). Очевидно, Е(Х~А) — случайная величина, так как А С У. Разумеется, если У = Х, то свойство 2 выполнено, однако не любая случайная величина (т.е. Г-измеримая функция) бу- дет измерима относительно а-алгебры А, содержащейся в Г. Сложность нахождения У заключается в необходимости удо- влетворить обоим усяовиям 1 и 2. Прежде всего рассмотрим вопрос существования условного математического ожидания, а также выясним, сколь одно- значно оно определено. Для этого потребуются следующие важные сведения. Определение 23. Говорят, что мера и абсолютно не- прерывна относительно меры и (р и и заданы на некотором измеримом пространстве (Я,В)), если соотношение р(С) = О влечет равенство и(С) = О. Пишут и « р. Свойство абсолютной непрерывности конечных мер харак- теризует Теорема 15 (Радон — Никодим). На (Я,В) мера и « и, если и только если найдется интеерируемая по мере и функ- 126 
иия ~, именуемая плотностью и по мере и, такая, что и(С) = Яр, СеН. (95) С Функцию ~ называют еще производной Радона — Никодима и обозначают ИР Р Заметим, что этот глубокий результат обобщается и на о-конечные меры. упражнение 88. Докажите, что если справедливо (95), то ~ > 0 р-почти всюду, т.е. р((х б Я: Дх) ( 0)) = О. Вернемся к вопросу существования условного математи- ческого ожидания Е(Х~А) для интегрируемой величины Х и произвольной о-алгебры А с У'. Согласно (23) фВ):= Х+аР = ЕХ+2д, В Е 7, В является конечной мерой на (Й, Г), так как из представимости В в виде В = Ц;В; для последовательности попарно непересе- кающижя В1, В2... Е У следует 2и,в, = ~ ~в,' г В силу (22), если Р(В) = О, то фВ) = О. Возьмем Я~А, т.е. сужение Я на А с Г. Тогда Я~д (( Р~,~. Поэтому по теореме Радона — Никодима найдется А-измеримая функция Я такая,что Х+аР = ЛИР, С Е А. С С Аналогично существует,4-измеримая функция Г, для которой ° ° Х ИР= ГИР, Се А. С С Таким образом, в качестве Е(Х~А) можно выбрать Я вЂ” Г. Пример 33. Проверим, что условное математическое ожи- дание определено однозначно с точностью до совпадения по- чти наверное. Если У удовлетворяет двум требованиям, налагаемым на условное математическое ожидание Х относительно,4, то лю- бая А-измеримая случайная величина Я, п.н. совпадающая с У, 127 
может играть роль Е(Х |А) (ведь тогда 2Пс = Х Пс п.н., а зна- тшт, верно (94)). Отметим, что если вероятностное простран- ство полно (что мы всегда предполагаем), то любая случайная величина, равная п.н. величине У, будет являться вариантом условного математического ожидания. С другой стороны, допустим, что 1/1 и Ю обладают свой- ствами Е(Х Покажем, что тогда 1/1 = У2 п.н. Введем множество С’ := {И 2 У2} = {И — У2 2 О}. Оно входит в А, поскольку (У1 — Ю) является А-измеримой величиной. В силу определения Е(Х|А) имеем ЕУ1ПС = ЕЮПС, иначе говоря, Е(У1 — ВИС = О. Отсюда (см. свойства интеграла Лебега в главе 1) вытекает, что У1 — 13 = О п.н. на множестве С. Ана- логичным образом убеждаемся, что 1/1 — Ю = 0 п.н. на Ё.  Пример 34. Если величина Х является А-измеримой и Е|Х| < оо, то Е(Х|А) = Х. Если Х не зависит от А (т.е. независимы ст-алгебры о{Х} и А) и Е|Х| < оо, то Е(Х|.А) = = ЕХ.  Первое утверждение вытекает из определения условного математического ожидания, докажем второе. Возьмем любое С’ Е А. Тогда (интегрируемые величины) Х и Пс независимы. Действительно, а{Х} состоит из событий вида {Х Е В}, а Пс является А-измеримой величиной, откуда {Пс Е В} Е А для произвольных борелевских подмножеств В, В С К. Следова- тельно, имеем  Р(Х Е В,Пс Е В) = Р(Х Е В)Р(Пс Е В). Итак, согласно (41) (для двух величин) Е(Х11с) = ЕХЕПС.  Очевидным образом константа ЕХ является А-измеримой, и остается заметить, что  Е((ЕХ)Пс) = ЕХЕПс.  Далее нам потребуется результат простого упражнения:  128 
Упражнение 89. Пусть А порождается разбиением О на события А1,А2, . . .. Любая А-измеримая функция должна при- нимать постоянные значения на событиях Ап, п = 1, 2, . . ..  Пример 35. Пусть А порождается разбиением О на со-  бытия А1,А2, . . .. Тогда для интегрируемой величины Х на каждом множестве А„ имеем о Е(Х|А)(ш) - ЕХПА" ш е А (96) Р(Ап) 1 п)  где полагаем 8 := О.  Если У = Е(Х|А) И У = у„ на событии Ад, то ЕХ11‚4„ = = ЕУПдп = у„Р(А„). Поэтому Е(Х|А) может задаваться только формулой (96) на событии А„ положительной вероят- ности (а на событии нулевой вероятности условное математи ческое ожидание можно определить как угодно). Выполнив  упр. 2, убеждаемся, что А состоит из конечных или счет-  ных объединений множеств Ад. Теперь нетрудно проверить, что если С’ = о„е„‚А„, где „Т С М, то для Е(Х|А), определен- ного согласно (96), будет выполнено (94), так как равенство ЕУПдп = ЕХ П ‚д, при всех п обеспечивает для любого 1 С Ы справедливость соотношения  2 Бум, = 2 Ехц пе] пе] (поскольку 2|ЕХПА„| < 2Е|Х|ПА„ = Е|Х| < оо, ряды схо- ‘П ‘П  дятся абсолютно). Пример 36. Пусть Х Е 1762,77, Р). Тогда Е(Х|А) = = РтНХ, где Н := Ь2(П‚А, Р) И Ртн — ортогональный про- ектор на подпространство Н в гильбертовом пространстве 1362,]: , Р) со скалярным произведением (П, У) = ЕПУ. Рассмотрим У := РгНХ. Тогда У 6 Ь2(О,А, Р), а сле- довательно, является А-измеримой величиной. Известно, что в гильбертовом пространстве проекция РгНХ вектора Х на подпространство Н однозначно определяется соотношением  (Х—Р1°НХ,2)=О привсех ИЕН.  129 
Таким образом, Е ((Х — У)2) = О для любого 2 Е Н. В част- ности, это верно при 2 = Пс, С‘ Е А, что означает выполнение для У условия (94). Напомним (см.‚ напр.‚ [12]) ряд свойств условного матема- тического ожидания. Теорема 16. Пусть случайные величины Х, У интегриру- емы, а о-алгебры .А‚Б’ содержатся в Т. Следующие соотно- шения выполняются почти наверное. 1. Если Х < У, то Е(Х|А) Е Е(У|А), в частности, Е(Х|А) 2 0 для Х 2 О, а также |Е(Х|А)| З Е(|Х||А). 2. Для любыа: а, Ь Е К Е(аХ + ЬУ|А) = аЕ(Х|.А) + ЬЕ(У|А).  3. Пусть А С В. Тогда (цепное, или телескопическое, свойство) Е(Е(Х|А)|В) = Е(Е(Х|Б)|А) = БОНА). 4. Если Х КУ Е Ь1(П,.77‚ Р), а величина Х измерима относи- тельно о-алгебры А, то Е(ХУ|А) = ХЕ(У|А).  Замечание 5. Условное математическое ожидание можно ввести и для неинтегрируемых случайных величин (см.‚ напр.‚ [12]), но нам не понадобится это обобщение. Если В Е Т, то полагают Р(19|«4) == Е(Пв|А)- Для случайной величины (или случайного вектора) 2 и инте- грируемой случайной величины Х по определению  Е(Х|2) := Е(Х|о{2}).  Пример 37. Пусть И’ — винеровский процесс, и даны точки О $131 < 732. Найдем Е(И’(Ё2)|РУ($1)).  Запишем 147032) = И/(и) + (14702) — И/(йд). Пользуясь не- зависимостью приращений И’, примером 34 и теоремой 16, а также центрированностью И’, имеем  Е(ш(й2)|и’(й1)) = 504412) - Й’(Ё1)|И’(й1)) + Ё(Й’(#1)|И’(й1)) = = 504412) - И’(й1)) + Иди) = “(И)-  130 
Доказывается, что если Х, У — случайные величины (или случайные векторы), то Е(Х|У) = ‹,о(У), где ср — борелевская функция. Поэтому принято считать: запись Е(Х|У = у) озна- чает, что берется число ‹р(у). Пусть случайные величины Х и У имеют совместную плот- ность р ху(:1:‚у), 2:, у 6 К. Определим условную плотность  рхдуйгъу) == р’; Ё” ‚аду 6 К, если ржи!) > 0‚ где ру нахо- дится по р ху согласно формуле (34). Оказывается, Х Бот’ = у) = ]°о$19х|1г($›у) ат.  Пример 38. Используя свойства условного математиче- ского ожидания, можно установить интегральный вариант формулы полной вероятности.  В самом деле, для любого события А 6 77 можно записать РИ) = ЕПА = Е(Е(11А|А))- (97)  Предположим далее, что А = о{У}, т.е. сигма-алгебра, отно- сительно которой берется условное математическое ожидание, порождена вектором У Е К". Тогда Е(11А|А) = 1,00’), где 2/2 — борелевская функция, и правая часть (97) запишется согласно многомерному аналогу (25) в виде  А фото» Рам = А фа) Руша = А Рому = у) Руна). В дальнейшем будет также полезен следующий результат  (в [2, с. 186] сказано, что его нетрудно полутшть).  Лемма 4. Пусть Е и 17 — независимые случайные векторы соответственно со значениями в К” и К’, 9 : К” х К’ —› ——› К есть ограниченная борелевская функция (достаточно лишь потребовать, чтобы Е|9(5,17)| < оо). Положим Ь‚(у) = = Еу({,у), где у Е К’, тогда  Е(9(Е‚п)|п = у) =в’=(у)- (98)  131 
Установим (98). По теореме Фубини (теорема 3) функция Ь определена на Е и Е~Ь(ц) ~ ( оо. Мы должны проверить, что для любого А Е г(ц) Ед® ц)П,4 = ЕЬ(ц)ПА,. События А из г(ц) имеют вид А = (ц ~ В, где В Е Нф). Поэтому снова применяя теорему Фубини, уб димся, что левая часть (99) равна Ед® ц)П~ц~в1 — — д(~, у)Пв(уЩ~~) Рц(фу) = ж' ж~ Ь(у)ПВ(у) Р„(ау) = ЕЬ(ц)ПА. щс Здесь был использован многомерный аналог формулы (25) и учтено,что Пд(ц(и)) = П(„.,~(~) ~щ = ПА(си). Утверждение доказано. Задача 38. Пусть (Х, Я1, ..., Я„) — гауссовский вектор. Покажите, что Е(х~г„..., г„) = с, + с,г, +... + „г„, (100) По аналогии с примером 36 можно найти линейную комби- нацию Х = со+ с121+... + с„Я„, приближающую Х в среднем квадратичном наилучшим образом, т.е. такую, что (Х вЂ” Х,Я~)=0, ~=0, ...,и, (101) при этом мы полагаем Яо = 1. Взяв ~ = 0 в (101), получим Е(Х вЂ” Х) = О. Тогда остальные соотношения можно перепи- сать в виде соч(Х вЂ” Х,Я~) =О, ~ = 1, ..., и. 132 где со, ..., с„— некоторые константы. Найдите значения констант при дополнительном условии, что Я1, ..., ߄— независимые центрированные величины. 
Поскольку вектор (Х, 21, ..., 2,.) гауссовский, это означает, что Х — Х не зависит от (21, ..., 2„). Далее имеем  Е(Х|21,.. . ‚2„) = Е(Х - 2? + )?|21‚. . . ‚2„). Правая часть этого равенства перепишется в виде суммы во: - $21, . . . ‚ 2,.) + Е(Х|21,.. . ,2„),  где первое слагаемое равно нулю, поскольку в силу независи- мости Х — Х и (21, ..., Яд) условное математическое ожи- дание совпадает с безусловным. А так как величина Х изме- рима относительно а-алгебры, порожденной (21, ..., 2„), то второе слагаемое равно Х. Тем самым справедливость (100) доказана. Теперь найдем явный вид констант в предположении, что величины 21, .. ., 2„ независимы и центрированы, иначе го- воря, ЁЙд = О, 1: = 1, ..., п, СЩ/(Йюгд) = 5191021„ а бы -— символ Кронекера. Тогда соотношения (101) примут вид  п ЕХ = со, СО\/(Х, Йь) = ЕСдСЩ/(Ид, Йк) = сьвгдд.  5:1  Таким образом,  со\/(:в,2;„) = ЕХ = ——:— Упражнение 90. Пусть И’ — винеровский процесс, и  даны точки О Е $1 < 152. Найти Е(И7($1)|И’($2)) как с помо- щью условной плотности, так и применив задачу 38.  5.2. Фильтрация. Марковские моменты  Определение 24. Семейство а-алгебр 1В` = (Япет, где Т С К, называется фильтрацией, если 7:3 С 77; С Т при всех з < 73, 3,2% Е Т (другое название — поток а-алгебр).  Отметим следующий пример: естественной фильтрацией случайного процесса Х = {Хм Е Т С К} называется семей- ство а-алгебр Я = а{Х„з Е 23,3 Е Т}, й Е Т. Чаще всего в качестве Т используется Щ, 24. или М.  133 
Пример 39. Пусть Х = (Х~,8 ~ Т) и У = Я,8 ~ Т) такие процессы, что ~~ — — 6~(Х~), где отображение Ь~ . Е ~ Е взаимно однозначно при каждом 8 Е Т. Тогда естественная фильтрация Х совпадает с естественной фильтрацией У. Действительно, для каждого 1 Е Т и борелевского множе- ства В С Е Я е В) = (Х~ е Ь~ (В)), (Х~ е В) = Я е 6~(В)). Иначе говоря, совпадают совокупности элементарных цилин- дров — событий, составляющих а(Х~) и оЯ), откуда следует искомое утверждение. Определение 25. Марковским моментом (относительно заданной фильтрации Р) называется величина т: Й ~ Т Ы оо такая, что (т < 1) Е У~ при любом 1 Е Т. Момент остановки — это марковскии момент, конечныи с вероятностью единица. Учитывая, что (т ) 1) = Й ~ (т < 1), в приведенном выше определении вместо множеств (т < 1) можно рассматривать (т) 1),8ЕТ. Пример 40. Пусть Р = (У„)„~~ — некоторая счетная фильтрация. Покажем, что т — марковский момент отно- сительно Р тогда и только тогда, когда при каждом п Е Ы событие (т = п) Е У„. Если т — марковский момент, то (т = О) = (т < 0) Е ~ Яо в силу определения 25, а для п > 1 получаем (т = п) = = (т < п) ~ (т < п — Ц Е У„, так как (т < п — Ц Е Г„1 С Г„. Обратно, (т < п) = 0" о(т = т) б У„, так как (т = т) Е Е У, С У„при т = О, ..., п. Отметим, что константа тп Е И вЂ” момент остановки. Задача 39. Пусть Хо, Х1,... — последовательность слу- чайных векторов со значениями в К'и, В Е В(Е'и). Показать, что т = 1пГ(п: Х„Е В) является марковским моментом от- носительно естественной фильтрации этой последовательно- сти. Найти распределение величины Х~ в том случае, когда (Х„)„е~ состоит из независимых одинаковс распределенных векторов и Р(Хв Е В) ф- О. 134 
что та — момент остановки (т.е. конечный п.н. марковский момент) относительно естественной фильтрации И’.  Для й 2 О в силу непрерывности траекторий И’ имеем  {та < г} = { эир И/(з) 2 а}: Ш {И/(з) 2 а} е я, ‘е 0*‘ зЕОП[0,й] где (2 — множество рациональных чисел. Из закона повтор- ного логарифма (теорема 13 главы 4) немедленно вытекает со- отношение та < оо п.н. Доказательство, не использующее за- кон повторного логарифма, можно прочитать в [2, с. 87]. Заме- тим, что верно более общее утверждение следующего упраж- нения. Упражнение 91*. Пусть Х = {Х (й),й 2 О} — процесс с непрерывными траекториями, принимающии значения в не- котором метрическом пространстве 5‘. Для замкнутого под- множества В С 5 (в частности, одноточечного) обозначим т := 1пГ{й 2 О : Х (й) Е В}. Доказать, что т — марковский момент относительно естественной фильтрации Х.  Упражнение 92*. Пусть процесс Х = {Х‚,й 2 О} имеет п.н. непрерывные справа траектории. Доказать, что если С’ — открытое множество, то т := 1111`{й 2 О : Х; Е С} — опцио- нальньъй момент, т.е. {т < й} Е Я при каждом й 2 О (считаем й: оо, если Х, ф С‘ при всех й 2 О).  Упражнение 93*. Пусть т — момент остановки отно- сительно естественной фильтрации винеровского процесса. Проверить, что процесс У = {У(й) = И/(й + т) — И/(т), й 2 О},  где И’ — винеровский процесс, является винеровским (на со- бытии, имеющем вероятность нуль, где т = оо, полагаем У(й) = О при всех й 2 О).  Упражнение 94. Пусть т И о —— марковские моменты от- носительно фильтрации (.7`„)„Е2+. Определим  Тт={АЕ.77:АП{т<п}Е.7-`„}, пЕ%+.  136 
Аналогично вводится У;,. Доказать, что У;- является ~т-алгеб- рой, причем Г, С У„, если т < г. Пример 43. Пусть т — момент остановки относительно естественной фильтрации процесса Х = (Х„)„еу+. Покажем, что функция Х,: и — ~ Х,.~„~(и) является Г;измеримой слу- чаинои величинои. Для любого В Е 8(К) имеем (Х ~В~= Д(Х Ев,т=й~= Д(ХаЕВ,т=й). Й>0 Кроме того, для любых целых Й, и > О верно соотношение (Х~ Е В, т = Й) П (т ~ и) = ~~У;„ п(Й, (Х~ Е В, т — — Й) б У~ С У„, и ) Й. Следовательно, (Хт Е В) Е Г„что и требовалось показать. Пример 44. Пусть Р = (Г„)„~~+ — фильтрация, а т— марковский момент (относительно Р). Докажем, что У = У„ на событии (т = и) для любого и Е Е», т.е. Г.,П(т=п) =Г„П(т=п). Если А Е У'„ П (т = и), то А = С й (т = и), где С Е У„. Поскольку (т = и) Я ~'„ при и Е Е»,то для каждого т Е Е» имеем 'А П (т = и) = С Й (т = и) Е У„, т = и, ЯЕУ~, т ф и. Значит, А Е Г, Если же А Е У, П(т = и), то А = РП(т = и), где Р Е У~. Учитывая, что т — марковский момент, получаем Р П (т = и) Е У„, и этим завершается доказательство. упражнение 95. Привести пример фильтрации и такой случайной величины, которая не будет марковским моментом относительно этой фильтрации. 137 
5.3. Примеры мартингалов, субмартингалов, супермартингалов  Определение 26. Случайный процесс Х = {Хддб Е Т}, где Т С К, называется мартингалом относительно фильтра- ШШ Р = (Тдъет, еСдИ 1) Х; Е ТАЗИК) при всех т? Е Т; 2) Е|Хд| < оо при каждом й Е Т; 3) Е(Х;|.773) = Хд для любых 3 < г, 5,73 Е Т.  Если выполнено условие 1 данного определения, то гово- рят, что процесс Х согласован с фильтрацией 1Р` (тогда часто пишут (Хд, Тддет). Такой процесс при Т С И именуют стола- стической последовательностью. Если сказано просто, что процесс Х — мартингал, то имеется в виду его естественная фильтрация. Когда процесс Х удовлетворяет условиям 1 и 2, а вместо 3 справедливо неравенство Е(Хд|.7-`3) 2 Х 3 для любых з < 13, где 3,1 Е Т, то Х называется субмартингалом. Если же Е(Хд|.75`3) < Х д, то Х — супермартингал. Очевидно, Х явля- ется супермартингалом тогда и только тогда, когда процесс —Х = {—Хд,й Е Т} — субмартингал.  Пример 45. Пусть П — интегрируемая случайная вели- чина, (‚Едет — некоторая фильтрация. Тогда (Е(П|.77д), Япет — мартингал, называемый мартинеалом Лева.  Действительно, выполнены все три условия, содержащи- еся в определении мартингала (первое требование, очевидно, справедливо), поскольку Е|Е(П|.77‚д)| < ЕЕ(|П||.7’д) = Е|П| < оо дляйЕТ, априз Е й (эф ЕТ) имеем  Е(Е(П|-7:$)|7з) = НИТО-  Пример 46. Пусть Х 1, Х2, * последовательность не- зависимых случайных величин с нулевым средним, 50 = О и 5„ =ЕХ1 + B + Хд, где п Е М. Тогда (5„)„е2+ — мартингал относительно естественной фильтрации этой последователь- ности.  138 
5.4. Свойства мартингалов Напомним важную теорему Дуба об остановке (см., напр., [2, с. 116]). Теорема 17. Пусть Х = (Х„, Г„)„~~+ — стохастическая последовательность, причем Е~Х„~ < оо при всех п Е У». Тогда эквивалентны условия (знак (>) для субмартингалов): 1) Х вЂ” мартингал (субмартингал); 2) Е(Х,~У~) = (>) Х,д для ограниченного марковского мо- мента т и произвольного марковского момента о; 3) ЕХ, = (>) ЕХ~ для любых ограниченных марковских мо- ментов т и ~т (т.е. т < Й и ~т < Й для некоторого числа Й Е Щ таких, что т > о п.н. Пример 51. Пусть Х = (Х„, Г„)„~~+ — мартингал. Если т — момент остановки и ~Х д„~ < с п.н. для некоторой кон- станты с и всех п е У», то существует ЕХ, и ЕХт = ЕХО. Полагаем, Х, = О на событии (т = оо), имеющем вероят- ность нуль. Имеем Х,д„-~ Х, п.н. при п — ~ оо. По теореме Лебега о мажорируемой сходимости (см. теорему 2 и заме- чание 3) получаем, что величина Х, интегрируема и ЕХ, = = 1пп ЕХ д„. Однако т Лп — марковский момент в силу при- 7$-+00 мера 41, причем т Л п < п для каждого п Е М Следовательно, ЕХтлв = ЕХо Поэтому ЕХт = ЕХо. Задача 41. Показать, как с помощью теоремы Дуба вычи- сляется вероятность разорения игрока (в отличие от задачи 8 блуждание рассматривается в полосе от а до Ь). Пусть р ,-Е д. Согласно примеру 48 последовательность (У„)„~ у+, где У„= (д/р) ~", является мартингалом. Обозначим т момент первого выхода случайного блуждания Я„(п Е Е», Яо — — х Е Е, х Е (а, Ь)) из полосы, ограниченной на плоскости ($, у) прямыми у = а и у = Ь, т.е. т = 1пГ(п > О: Я„ф (а, Ь)). Мы видели, что т — марковский момент (задача 39), причем Я,д„< св .= ( а Ч Ь). Таким образом, и Утд„< с:= := (д/р)'О Ч (д/р) со при всех п Е И. Следовательно, ЕУ, = ЕУО = (д/р)*. 143 
(.75`„)„е 2+ последовательности (Х„)„е 2+ является величина т = =1п1`{п 2 О: Хп 6 В}, где В Е ВПК), причем  Р(т = п) = (1 — Р(Хо ё В))"Р(Хо Е В),п 6 %+.  Следовательно,  ОО 2 Р(т = п) = 1. п=0 Таким образом, т < оо п.н., более того, Ет < оо, однако нет константы, ограничивающей т п.н.. Взяв теперь величины Х 1, Х 2, . . ., принимающие значения 1 и -1 с вероятностью 1/2, обозначим 50 = О, Б = Х1 +. . .+Х„ для п 6 М. В силу тождества Вальда при ЕХ1 = О получаем ЕБ’, = ЕтЕХ1 = О = ЕЗО, хотя (интегрируемый) марковский момент т не ограничен какой-либо положительной константой. Пример 53. Получим мартингальными методами резуль- тат задачи 15. Мы сразу будем предполагать, что с > Аа, где а = Её1 > 0, поскольку это обеспечит единственность корня В соответствующего уравнения (73). д Определим функцию Щи) = А(у('и) — 1) — со, где 90)) = = Еехр{и{1}, т) 6 К. Примеры 49 и 50 показывают, что мар- тингалом является процесс 20%) = ехр{—иУ(й) — 11:00)}, й 2 О, щъ) здесь и > О, 1/(23) = у + с: — 2 (д, а М — пуассоновский 1:1 процесс, не зависящий от (фддеы. В силу упр. 92 величина т (момент разорения) есть опцио- нальный момент, поскольку это есть момент первого попада- ния сасПад-процесса У в открытое множество (—оо, О). Легко видеть, что таковым является И й А т для каждого й 2 О. Заметим, что а = О — тоже опциональный момент, причем О < йАт < 13. Приближая опциональные моменты марковскими и принимая во внимание п.н. непрерывность справа траекто- рий процесса 2, нетрудно показать, что  Е2(0) = его: А т), г; о. (104)  146 
Точнее говоря, мы воспользовались следующим утверждением (см. [2, с. 129]). Лемма 7. Пусть Х = (Х~, Г~)~> в — мартингал, имеющий п.н. непрерывные справа траектории. Пусть о и т — опцио- нальные моменты относительно фильтрации (У~)~>в такие, что о < т < С п.н., где С вЂ” положительная константа. Тогда ЕХ, = ЕХ (на множествах (и = оо) и (т = оо), име- ющих вероятность нуль, полагаем Х„= Х = 0). Теперь дальнейшее доказательство завершается очень бы- стро. А именно, учитывая, что траектории У непрерывны справа, имеем У(т) < О. Поэтому ехр( — иу) = ЕЯ(0) = ЕЯ(8 Л т) > > Е ехр( — иУ(й Л т) — (й Л т)Ь(и))П~ <~1 > > Еехр( — еУ(т) — тй(о))П[,<~~ > Еехр( — тЬ(и))П~ <~~ > > 1пК ехр( — вп(и))Р(т < Ф). ве [О,Ф] Следовательно, для и > 0 и ~ > 0 имеем Р(т < ~) < ехр( — шу) вир ехр(вй(и)). 86[0,8] Убедимся, что можно выбрать и = В таким образом, что Й(В) = О. Тогда при каждом ~ > 0 будет верно неравенство Р(т < 1) < ехр( — Ву). Перейдя в нем к пределу при ~ -+ оо, мы выведем (74). Покажем, что искомое В существует и единственно. Оче- видно, Й'(о) = Лд'(и) — с. Значит, 6'(О) = Ла — с < О, так как с > Ла. Кроме того, 6 (о) = Лд (и) > ЛЕД > 0 для всех и > О, поскольку д (ш) = ЕЯехр(о~1) и 0 < а = (Е~1)~ < Еф) по неравенству Коши — Буняковского — Шварца. Принимая во вни- мание условия Ь(0) = О, 6'(0) < 0 и учитывая неравенство 2 Й (и) > Ла при всех е > О, видим, что решение уравнения Й(В) = 0 находится однозначно. 147 
Глава 6. МАРКОВСКИЕ ПРОЦЕССЫ 6.1. Определение марковского процесса. Примеры Определение 27. Процесс Х = (Х~, 1 Е Т) (со значени- ями в Е), где Т С Е, называется марковским, если для каждого п Е И, любых 81 « ... 8„< в < 8 (все точки берутся из Т) и произвольного борелевского множества В верно равенство Р(Х~ е В~Х~,,...,Х~„,Х ) = Р(Х е В~Х ). (105) Это определение показывает, что при фиксированном "на- стоящем" (берется значение процесса в момент в) будущее по- ведение процесса, т.е. значение в момент 1 > 8, не зависит от "прошлого", а именно, от того, какие значения процесс при- нимал до момента 8. упражнение 102. Докажите, что данное выше опреде- ление равносильно следующему: для каждого п Е Ы, любых 11 « ... 8„< в < 8 (все точки берутся из Т) и произвольной ограниченной борелевской функции ~: Е ~ Е ЕЩХ~) ~Х~,,..., Х~„, Х,) = Е(~(Х~) ~Х,). (106) Широкий класс примеров марковских процессов дает (см. [2, с. 186) упражнение 103'". Пусть т = 1пЦ1 > 0: Ю(1) = х) для х > О и то = О. Требуется показать, что процесс (т~,х > 0) имеет независимые приращения, а следовательно, марковскии. Пример 54. Пусть Й: Е -+ Š— взаимно однозначное отображение. Если Х = (Х~,1 ~ Т) — марковский процесс, то У = Я = Ь(Х~), 1 е Т) — также марковский процесс. 148 Теорема 18. Пусть Х = (Х~, 1 Е Т с Е) — процесс с не- зависимыми приращениями. Тогда Х вЂ” марковский процесс. В частности, марковскими являются винеровский процесс и пуассоновский процесс (интенсивности Л). Кроме того, мар- ковским является процесс случайного блуждания Я„= Х1 + +... + Х„(п ~ И), где Х1,Х2,... — независимые случайные величины. 
Аналогично Р(ХО+ = 0) (Хо+ Х1)+ = 0,(ХО + Х1+Х2)+ = 0) = = Р(Х, < О, Х, + Х, < О, Х, + Х, + Х, < О) = = Р(ХО = — 1,Х1 ~1,Х1+Х~ <1) = = Р(ХО = — 1, Х1 + Х2 < 1) = дР(Х1 + Х~ < 1) = = д(Р(Х1 — — — 1, Х2 < 2) + Р(Х1 = 1, Х2 < 0)) = = д(д+К) = а'(1+и). Следовательно, Р(У2 = О~УО =. О, У1 = 0) = д(1 + р). Теперь рассмотрим Р(Хо + Х1 < О, Хо + Х1 + Х~ < 0) Р(Х +Х <0) Заметим, что Р(Х, + Х, < 0) = Р(Х„= -1, Х, < 1) + Р(Х, = 1, Х, < -1) = = Р(ХО = — 1)+ Р(хо = 1)Р(Х1 = — 1) = д+ро = д(1+р). Нетрудно вычислить вероятность Р(Х,+Х, <0,Х,+Х,+Х, <О) = = Р(ХО = -1, Х, < 1, Х1 + Х2 < 1)+ +Р(ХО = 1,Х1 < — 1,Х1+ Х2 < — 1) = = Р(Х, = -1)Р(Х, + Х, < 1) + Р(Х, = 1, Х, = -1, Х, < 0) = = д2 (1 + р) + рд~ = д2(1 + 2р). Таким образом, Поэтому соотношение Р(~2 = 0~~0 = О, ~1 - — 0) = Р(~2 = 0~~1 = 0) равносильно тому, что (1+ р)2 = 1+ 2р, т.е. р = О. 150 
Вспоминая (см. пример 35), как выглядит условное мате- матическое ожидание относительно о-алгебры, порожденной разбиением, приходим к заключению, что Р(У2 Е В~Уо,У1) ~ Р(У2 Е В~У1), где В = (0). Итак, при любом р ~ (О, 1) процесс У не является марковским. упражнение 104. Пусть Хо, Х1,... — случайная последо- вательность (Т = 2~+). Покажите, что свойство марковости равносильно тому, что при всех и Е И и любой ограниченной борелевской функции ~: Й вЂ” ~ Е Е(ДХп+1) Хо Хп) = Е(ДХп+1) Хп) Иначе говоря, в (106) достаточно рассматривать лишь один набор подряд идущих точек 11,..., Фп и 8. упражнение 105. Пусть Хо, Х1,... — последователь- ность независимых случайных величин. Для и = 0,1,... по- ложим Мо — — 0 и М„= шах Я~, где Б~ = Хо+... + Х~, Й Е 1~. 1<Й<~п Верно ли, что (М„)„~у+ — марковский процесс7 Пример 56. Пусть ®,)п~~ — последовательность незави- симых случайных величин, Ь,п: Е2 -+ К вЂ” детерминирован- ные борелевские функции (и ~ И) и Хо — случайная величина, не зависящая от ®,)п~~. Задади~ Х„= Ьп(Хп 1,~п), и Е Я. Покажем, что (Х„)п~ ~ — марковский процесс. Воспользуемся упражнением 104. В силу леммы 4 имеем Е(У(Хп+1) Хо = хо,..., Х = х ) = = Е(У(~п»-1(Хп~ ~п»-1)) Хо = хо, ° ° °, Хп = хп) = = Е(У(~п+1(хп, ~п+1))) Аналогично ЕУ(Хп+1)Дп = *и) = Е(У(~п+1(хп, ~п+1))) ° Мы учли, что ~„» 1 не зависит от вектора Хо,..., Х„. Если Х = (Х~, 1 Е Т) — марковский процесс, то, очевидно, его сужение на множество Я ~ Т также представляет собой 151 
Определение 28. Переходными вероятностями цепи Маркова Х = (Х(1), 1 Е Т1 называются функции р; (в, 8): = Р(Х(8) = ~'~Х(в) = г), (109) заданные для г,~ Е Я, в < 1 (в, 1 б Т), а ее начальным распре- делением — набор вероятностей р;(О):= Р(Х(0) = г), г Е Я. (110) Считаем Р(Х(в) = г) =,Е 0 в (109), что не снижает общности (см. [2, с. 189]). Пример 59. Найдем переходные вероятности пуассонов- ского процесса интенсивности А > О. Напомним, что пуассоновский процесс Ж = (К(1), 1 > 0)— это, согласно определению 16, процесс с независимыми прира- щениями, а следовательно, марковский по теореме 18. Каждое из приращений имеет распределение Пуассона: Р(Ж(в+1) — Ж(в) =Й) =, е, в >О, 1>0, Й=0,1,..., (лю)" а К(0) = 0 с вероятностью 1. Тогда при 11 < 82 «... 8„< в < 8 имеем Р(~(~) = Я~(~,) = г„~(~,) = г2,...,~(в) = г) = Р(Я(~) = ~, Я(~1) = ~1, Я(~2) = ~2,..., Я(в) = ~) Р(Я(~1) = ~1, Я(~2) = ~2,..., Я(в) = ~) Р(4, К(~) — К(в) = ~' — г) Р(А) где А = (Ж(11) = г1, К(~2) — К(~1) = г2 — г1,..., Ж(в) — К(~„) = г — г„). Поскольку приращения К независимы, интересующая нас условная вероятность равна Р(Ж(1) — К(в) = ~ — г). Итак, если~ >г, если~ (г, (ш) 154 
здесь 1,] Е %+, О < 3 < 13. Заметим, что аналогичные вычисле- ния приводят к равенству  Рычаг) = лмз) = е) = Рит) - ша) =д - г). Поэтому марковость процесса А’ легко установить и без по- мощи теоремы 18. .  Упражнение 108. Пусть величины Х 1, . . . ‚Х м образуют цепь Маркова. Показать, что (Уд)0<;„<м_1 — цепь Маркова, где И, = Х „д, 1: = О, ..., А’ — 1. Найти переходные вероят-  ности этой цепи.  Определение 29. Марковская цепь Х = {Х (23),: 2 О} называется однородной, если для всех 6,] Е 5, О < з < 73 и 12 2 О  191,103, Ё) = р,‚д(5 + ЩЁ + Н).  В силу (111) пуассоновский процесс интенсивности А явля- ется однородной марковской цепью (с пространством состоя- ний 5 = %+). Очевидно, начальное распределение этого про- цесса сосредоточено в точке {О}, т.е. рд(0) = 65,0, где бы — символ Кронекера. Аналогично вводится однородная марковская цепь с дис- кретным временем, скажем, на Т = %+, только следует тогда указать, что в данном выше определении 3,: и 11 берутся из 2+. Далее мы рассматриваем цепи Маркова, являющиеся од- нородными, и вместо р“ (з, 15) пишем р“ (2? — з), когда Т = 1К+ или Т = 24.. Пример 60. Выясним, какими свойствами обладают на- чальное распределение и набор переходных вероятностей од- нородной цепи с непрерывным временем.  Поскольку р, = р,(О) — это вероятности, они неотрица- тельнь1, а так как события А, = {ш : Х (О,ш) = б}, для кото- рых Р(А,) = рд, ё Е 5, образуют разбиение пространства П, то  2 Р: = 1 ёеЗ В силу аналогичных соображении для вероятностеи пере- ХОДа ВЫПОЛНЯЮТСЯ Следующие СООТНОШСНИЯЁ  155 
Действительно, для любых О < 1~ ( ... ( 1„и произволь- ных борелевских множеств В~ ( Е, Й = 1,... и,, Р„,„(В„..., В„) = Р(Х(~,) е В„..., Х(~„) е В„) = = г~,..., 8„ = г„ . 1 г1 Е В1 гп Е В~ В свою очередь, используя определение условной вероятности, а также определение марковскои цепи, имеем Р(Х(1~) = г~,..., Х(1„) = г„) = = Р(Х(Ф„) = г„~Х(8~) = г~,..., Х(1„~) = г„~) х хР(Х(1~) = г~,...,Х(1„~) = гп ~) = = Р(Х(1„) = г„~Х(~„~) = г„~) х х Р(Х(~~) = г~,..., Х(1„~) = г„~) = = Р(Х(1„) = г„~Х(1„~) = г„~)... Р(Х(12) = г~~Х(1~) = г~) х х Р(Х(1~) = г~). (115) Последнюю строку нагляднее прочитать справа налево: Р(Х(~1) = ~1)рю~,ж2(~2 ~1) Рз„~,з„(~п ~п — 1)~ (116) (117) Подставляя (117) в (116), а затем получившееся выражение в (114), устанавливаем требуемый результат. Мы также учли, что вероятности вида Р((Х(1~))...,Х(1„)) е С)) С е 8(~")) однозначно определятся по Р~, ~„(В~,..., В„), где В~ Е 8(Е), Й = 1,...,п. 157 что означает следующее. Система стартует из состояния г~ в момент 8~ и совершает переходы по маршруту из г~ в г~, затем из г2 в гз и т.д., наконец, из г„~ в г„. При этом в момент ~~, Й = 2,..., и, система находится в состоянии г~. Так с учетом однородности цепи приходим к соотношению (116). В силу формулы полной вероятнрсти 
Проверим независимость приращений. Возьмем и Е 1Ч, 0 < 8о < 8~ <... < 8„, зо, г~,..., з„Е Е. В силу (115) и (118) имеем Р(~(~о) = ~о,1~~(~~) — ~(~о) = ~~,...,~(~ ) — ~(~ ~) = ~ ) = = Р(К(0) = О, Ж(~о) = ~о,Х(~~) = ~о+ ~~, ..'., К(~„) = го+... + г„) = = Ро, ао (~о)рао, ао+з~ И1 ~о) ° Рго+ ...~„~, го+ ...+в~ йп ~п — 1) = = Р(~(~о) = ~о)Р(Я~~) — ~(~о) = ~~) х ... х Р(К(1„) — К(1„~) = г„), что и требовалось показать, принимая во внимание упражне- ние 27. 6.3. Эргодическая теорема Очень важное свойство цепи Маркова Х = (Х(1),1 Е Т), где Т = 2~ или Т = Е», заключается в следующем. За боль- шой промежуток времени система (при весьма широких усло- виях) как бы "забывает", из какого состояния она стартовала, что показывает (см., напр., [2, с. 196]) Теорема 19 (эргодическая). Предположим, что най- дется состояние ~о Е Я такое, что р;~~„(6) > о для неко- торых Ь > О, о Е (О, 1) и любых г' Е Я. Тогда при всех г', у Е Я существуют (119) причем з'пражнение 111. Проверьте, что если верны условия этой теоремы, то при всех ~ Е Я 11т Р(Х(1) = ~) = р, 159 
(Т = Е+). Если в момент времени 1 = 0 в состоянии г, где г = 1, 2, 3, находилось соответственно Й, членов популяции, то что можно сказать о распределении индивидуумов по состоя- ниям через большой промежуток времени? 6.4. Дифференцируемость переходных вероятностей Марковский характер развития процесса Х = (Х(~), ~ > 0) (однородной цепи с непрерывным временем) приводит к тому, что его поведение фактически определяется начальным рас- пределением и вероятностями переходов из состояния в со- стояние "за малое время". Точнее говоря, как мы увидим в следующем пункте главы, при весьма широких условиях су- ществуют правые производные в точке нуль у всех функций р, (~). Фактически всю эволюцию во времени процесса Х определяют именно эти производные (и начальное распреде- ление). Определение 30. Однородная цепь Маркова Х = (Х(1), 1 > 0) (а также ее матрица переходных вероятностей Р(~),~ > 0) называется стандартпной, если р,д(~) — ~ б;д при ~ — ~ О+. Очевидно, пуассоновский процесс интенсивности А > О дает пример стандартнои цепи. упражнение 116*. Построить пример нестандартной марковскои цепи. Наша дальнейшая цель — исследовать дифференцируе- мость переходных вероятностеи. Пример 63. Проверим, что для стандартной матрицы Р(1) при любом г существует Фиксируем произвольное г Е Я и вначале покажем, что р,;(8) > 0 при всех 8 > О. В силу стандартности переходной матрицы существует такое я > О, что р;;(1) > 0 при 0 < ~ < е. 161 
Согласно примеру 63 в случае О; < оо при каждом г Е Я имеем р;;(6) = 1 — д;Й + о(Ь), 6 ~ О + . (122) Говорят, что д;д представляет собой интенсивность перехода из состояния г в состояние ~ Постоянная д; носит название плотности или интенсивности выхода из состояния г. Определение 31. Инфинитезимальной матриией мар- ковской цепи Х (или полугруппы (Р(~))~>о) называется ма- трица Я с элементами д+ Чж,~': = рз,~ (~) ~~=о Определение инфинитезимальной матрицы Я = (д; ) од- нороднои марковскои цепи мы можем переписать следующим образом: (123) т.е. берется правая производная в нуле переходной матрицы. Задача 42. Пусть число состояний цепи Маркова конечно и равно т. Проверить, что тогда Дг' — Дг,д ~фг (124) р;д(й) = 1, откуда 1 — р;;(Ь) 1Я(т р;д(Ь). Разделим обе части равенства на Ь ) О В самом деле, 1<1<тДфж и перейдем к пределу при Ь вЂ” ~ О+. Так как сумма содержит конечное число слагаемых, имеющих предел, то существует ее предел, равный сумме пределов слагаемых. Поэтому соотно- шение (124) справедливо. Задача 43. В общем случае, когда число состояний счетно, равенство (124) может нарушаться. Теперь требуется показать, что для любого г будет справедливо неравенство ДгД ~ ~Яг'. у фг' 164 
Действительно, так как ~ , 'р; (л,) = 1 — р;;(6), то для лю- уфг бого натурального М рж,~(~) ~ 1 рг',в(~). ~ фг',1<~ (М Делим обе части на Ь > 0 и устремляем Й к нулю. Используя произвольность М Е И и неотрицательность д;, приходим к неравенству (125). Определение 32. Процессы, для которых верно равен- ство (124) и д, < оо при всех г, называются консервативными. Соответствующая матрица Я также называется консерватив- КОИ. Пример 64. Покажем, что пуассоновский процесс явля- ется консервативной цепью Маркова. Согласно (111) для г, ~ Е Е» и 1 > 0 (Л ~)У вЂ” 1 — А $ если~ >г, О, если~ <з. (126) Поэтому при 6 -» О+ р,,(Ь) = 1 — ЛЬ + о(Ь), р;,» 1(6) = ЛЬ + о(6), а также р; (Й) =о(Ь), ~ >г+1, р;, (Ь) =О, ~ <г. Следовательно, инфинитезимальная матрица имеет вид — Л Л 0 0 Π— Л Л О 0 0 — Л Л (127) 165 Таким образом, процесс консервативен. Задача 44. Пусть дана квадратная матрица Я = (д; ) по- рядка т Е И, элементы которой д;д > 0 при г ~ ~, а также для них справедливо (124). Тогда существует марковская цепь (или, что то же самое, матрица переходных вероятностей Р(1), 1 > 0) с инфинитезимальной матрицей Я, см. (123). 
справедливо равенство Р(1$)а = а. По условию 6204 = О. В силу (128) получаем еща = 10: = а, что и требовалось. Очевидно, Р(О) = 1 (единичная матрица), т.е. выполнено свойство 3. Наконец, при 3,13 2 О имеем .  Р(з + й) = ешчю = ещещ = Р(.9)Р(2З),  поскольку 362 и 7362 коммутируют. Поэтому справедливо и 4. Итак, однородные марковские цепи с конечным числом со- стояний можно строить с помощью инфинитезимальной ма- трицы О, задающей интенсивности вероятностей перехода из одного состояния фазового пространства в другое. Для цепей со счетным числом состояний ситуация существенно сложнее, поскольку, вообще говоря, нельзя аналогично (129) брать экс- поненту от бесконечной матрицы.  6.5. Уравнения Колмогорова  Вначале выведем системы дифференциальньш: уравнений Колмогорова в предположении, что пространство 5 состоя- ний цепи Маркова конечно. Пусть мощность 5 равна т. Начнем с обратныа: уравнений. При любых 6, 1 ё 5 и 13, Ь 2 О применим уравнение Колмогорова-Чепмена:  191,1“ + д) = ЁРе‚к(д)РЬ,1(Ё)- (130) 1с=1 Тогда 115,105 + д) - 101,10) = [рады " Прыщ + Е Радсддрьд“) !с7$ё,1$/с$т (131)  Предположим, что существует инфинитезимальная матрица 62 (это так, если матрица РОЗ) стандартна). Поделим обе части равенства (131) на 12 и перейдем к пределу при Ь, —› 0+. По- скольку число слагаемых конечно, получим Рад“) = ‘(прыщ + 2 615, кРкдШ- ` 1с7$ё,1$1с$т  167 
Это соотношение удобно записать в виде ~у+ — Р(8) = ЯР(8), 8 > О. (132) о'пражнение 118. Покажите, что поскольку в правой ча- сти (132) стоит функция, непрерывная на [О,оо) (т.е. непре- рывны все элементы матрицы), то существует Р(~) при ка- И ждом Ф > О, и для таких 1 имеем Р'(8) = ЯР(1). Аналогично для получения прямой системы используем уравнение Колмогорова — Чепмена (130), где Ь и 1 меняются ме- стьми: тп к Ы + ~) = ~ л*,аР)ьл(~). й=1 Используя это соотношение в правой части равенства (131), получим после деления на Й и перехода к пределу при Ь -+ О+ уравнения для матричных элементов: М (~) =-чума) + Йф~,1<Й<т Иначе говоря, получаем матричное уравнение (~+ ~Й — Р(Ф) = Р(8)Я, 3 > О. (133) Согласно упр. 118 для Й > 0 можно считать, что в (133) фи- д %.У а+ гурирует -~~ вместо правои производнои -~-. Названия обрат- ная и прямая системы объясняются положением матрицы Я в правых частях уравнений (132) и (133) (соответственно по- зади и впереди матрицы Р(1)). В случае счетного числа состояний приходится делать до- полнительные предположения об инфинитезимальной матрице или же о поведении переходных вероятностеи в окрестности нуля. Справедливо (см., напр., [2, с. 205~) следующее утвер- ждение. Теорема 20. Если (Х(1),$ > О) — консервативная цепь Маркова, то ее переходные вероятности дифференцируемы и удовлетворяют системе обратных уравнений Колмогорова, рю,Й(~)дй ). 168 
котпорые можно записать в матпричной форме следующим об- разом: (134) При 1 = 0 имеем -~- Р(1) ~~ о = Я, поэтому (134) в нуле тоже а+ справедливо, ио для правои производнои. Для вывода системы прямых уравнений Колмогорова кон- сервативность инфинитезимальной матрицы не требуется, а вместо этого налагаются условия на поведение вероятностеи перехода, как показывает следующая Теорема 21. Пусть (Х(1), 1 > О~ — цепь Маркова такая, что для т ф г имеет место соотношение а;, Ь где — '"~ — -+ 0 (й ~ О+) при каждом т' равномерно по г'. Кроме того, пустпь сущестпвуют тпакие постоянные А, что д; ( А при любом г'. Тогда справедлива система прямых уравнений Колмогорова: Р'(т,) = Р(1)Я, 1 > О. При 1 = О это матричное уравнение также верно, но Р (0) понимается как Р'(О+). Рассмотрим теперь конструкцию Дуба, которая позволяет описывать траектории консервативнои марковскои цепи, име- ющей инфинитезимальную матрицу Я. Пусть Я1 — некоторая случайная величина, принимающая значения в Я = (О, 1, 2...). Ее распределение есть начальное распределение исходной цепи Маркова. Пусть т1 — положительная (вообще говоря, расши- ренная) случайная величина, для которой Р(т1(и) > 1~Я1(и) = г) = е д'~, 8 > О, (если о; = О, то считаем, что т1(и) = оо). Если уже определены случайные величины Я1,..., Я„и т1,..., т„, то случайная величина Я„+1 будет принимать зна- 169 
чения в Я, причем для х1,..., х„> 0 и г1,..., г„1, г б Я верно равенство Р(Я„+1(и) = Ят = х, Я1 = г1,..., Е„1 = г„1, Е„= г) = — ' Дг где т = (т1,...,т„) и х = (х1,...,х„). Величина т„,+1 опреде- ляется как неотрицательная случаиная величина такая, что Р(т„» 1(и) — т„(и) > 8~т = х, Я1 —— г1,..., Я„= г'„, Я„+1 —— ~) равна е ~~~ при 1 ) О. В двух последних равенствах предпола- галось, что О; ) О, д > О. Необходимо дополнить эти опреде- ления, положив соответственно при д, = 0 и д = 0 Р(г„+,(и) =г~т=х,Я =г'1,...,Я„, =г'„„г„=~) =1, Р(т„» 1 —— оо~т = х, Я1 = г'1,..., Я„= г'„, Я„» 1 — — ~') = 1. Считая то = О, определяем процесс Х(~) при 0 < ~ < оо следу- ющим образом: Х(1,и) = Я„(и), т„1(и) < 8 < т„(и), и е И. Разумеется, прежде всего следует доказать, что на неко- тором вероятностном пространстве возможно построить вве- денные выше случаиные величины с требуемыми своиствами. Далее можно проверить, что построенный процесс будет це- пью Маркова, обладающей инфинитезимальной матрицей Я и теми же переходными вероятностями, что были у исходнои цепи. Сказанное дает наглядное представление о том, как устроен "хороший" марковский процесс. Фактически явно указано, какое экспоненциальное время процесс ("система") проводит в одном состоянии до того момента, когда он в со- ответствии с заданными интенсивностями осуществит пере- ход в новое состояние. Заметим, что именно такое поведение, в частности, присуще пуассоновскому процессу с параметром А > О. Действительно, для О < 8 < 1 имеем Р(Ж(8+ 8) = г~Ж(8) = г) = р,,(8) = е ", г Е Е+, т.е. в каждом состоянии г процесс К пребывает экспонен- циальное время (с параметром А), а интенсивности вероятно- 170 
стей перехода описываются матрицей (127). Таким образом, за “малое время” Ь процесс Ш может совершить лишь скачок из состояния 1 в состояние ё + 1 с вероятностью АН, + 007,). В заключение этой главы обратимся к процессам размно- жения и гибели. Эти процессы задаются с‘ помощью инфини- тезимальной матрицы специального вида. А именно, от” = = М, 95,54 = Не, Э» Чад = 4)‘: + дда Здесь 5 Ё Им ПРИЧЭМ ‚щ; = О. Иначе говоря, возможны переходы только в соседние состояния. Переход из 6 в {+1 соответствует рождению новой частицы, а из 6 в 72 — 1 — гибели одной из частиц.  Упражнение 119*. Написать уравнения Колмогорова (прямые и обратные) для процесса рождения и гибели. Су- ществует ли 191,10)?  Далее мы предполагаем наличие конечных производных в нуле у всех переходных вероятностей. Доказывается (см., напр., [2, с. 2О7]), что при широких условиях вектор б, задающий стационарное распределение, является решением уравнения  оТд = 0. (135) Пусть дана марковская цепь с пространством состояний 5 = {0, 1, . . . , т} и инфинитезимальной матрицей вида {—А /\ О 0 О О О \ ‚и —(и + А) ‚\ О О О 0 О: о о ‚мед-(кды) ‚\ о ’ (136) К 0 0 0 о о ‚т; 27%„ Й  где А и ‚и — положительные параметры. Существование та- кой цепи следует из рассмотренного ранее примера 44. Эта матрица (и марковская цепь) естественно возникает в модели (см., напр., [2‚ с. 208]), описывающей функционирование те- лефонной станции, имеющей т “обслуживающих приборов”,  171 
куда в случайные моменты времени поступают вызовы, обра- зующие пуассоновский поток интенсивности А, а время обслу- живания каждого вызова случайно и распределено по экспо- ненциальному закону с параметром ‚и. Предполагается, что поток поступления вызовов (т.е. семейство порождающих его независимых экспоненциально распределенных величин с па- раметром А) не зависит от семейства независимых случайных величин, задающих длительности обслуживания (разговоров абонентов). Как было доказано Эрлангом, в рамках данной модели существует стационарное распределение, которое легко на- ходится в результате решения системы линейных уравне-  ний (135): . ё?  м_1=ттэ .7=О›1›°°'ат7  /с=О  здесь р = Ё называется коэффициентом загрузки системы.  Упражнение 12О*. Пусть Х = {Х (23),: 2 О} — процесс чистого размножения, т.е. рты“) = дед + 00% Рт“) = 1 - дай + ОШ ПРИ 75 -> 04-- Х Доказать, что 2 Р(Х($) = п) = 1 для каждого 23 тогда и п=0  Х только тогда, когда 2 А? = оо. 1:1  172 
Пусть теперь верно (138). Тогда, очевидно, 2 (В) Е 17 при всех В Е 1С, И 2(В).1_ 2(С') для В,С Е 1С таких, что ВС = = И (поскольку /‚:‚(И) = О). Если 81,82, . .. Е 1С и 03:18„ Е 1С, причем ВтВд = И для т 76 п, то требуется проверить, что А! Е 2(В„) —› 2( °° В„) в 13262,?) Р) при Н —› оо. Свойства п=1  п=1  скалярного произведения и условие (138) влекут равенства  (2 Ћ5 Вп)_"Ё2(Вп)›2 Ел) -Ё5(Вп)) = п=1 п=1 п=1 п=1  оо А! А! А! = д Ел) ’ Едйвп) " 214811) + Е/‘(Впу п=1 п=1 п=1 п‚=1 А! оо со Остается учесть, что 21д(В„) —-› 21д(В„) = Щыпд Вд) ‘П: П: при АТ —+ оо, поскольку д — мера. Следовательно, выпол-  нено (137).  Упражнение 121. Пусть А = [О‚оо) и 1С = {[а‚ Ь), О < а < Ь < со}. Положим 2([а‚ 12)) := И/(Ь) — И/(а), здесь [а, Ь) Е 1С, И’ — винеровский процесс. Убедитесь, что 2 — ор- тогональная случайная мера на 1С и найдите ее структурную меру.  Ортогональная случайная мера 2 называется центриро- ванной, если  Е2(В) = О для всех В Е 1С.  Упражнение 122. Докажите, что всегда можно постро- ить центрированную ортогональную случайную меру 2, отве- чающую заданной а-конечной мере д, определенной на полу- кольце 1С (т.е. ‚и окажется структурной мерой 2).  Если А Е 1С (другими словами, ЩА) < оо), то рассмотрим алгебру 8, состоящую из конечных объединений попарно не- пересекающихся множеств из 1С. Для С = Ш;’=1В„ где В, Е 1С  175 
Определение 34. Интеграл по ортогональной случайной мере Я от простой функции ~ вида (140) задается формулой Обычно используется обозначение ,У(~) = ДЛ) Я(ИЛ). Пусть д = ~ , 'й Хр,., где Р1,..., Р„„Е Е образуют разбие- ~=1 ние Л. Тогда У(л)д(л)~(ил) = (У,д). Следовательно, если ~ и д — простые функции, то (Ю),~(д)) = (Л д). (141) Из (141) вытекает, что для простых функций ~ и д верна це- почка равенств РУ) ~(д) ~~~г(~) = (~У) — ~(д) ~(й ~(д)) = = РУ) ~У)) — (~(д) ~У)) — (~У) ~(д))+(Пд),~(д)) = =(У У) — (д Л вЂ” (Лд)+(д д) =(У вЂ” д,У вЂ” д) = = У вЂ” д~~~~(л) (142) В результате проверено, что определение интеграла для простых функций корректно (не зависит от вида записи инте- 177 
где А„= А П Л„и и„— сужение меры р на А„. Описан- ное выше построение интеграла по ортогональнои случаинои мере (имеющей конечную структурную меру) позволяет вве- сти .7„(Д„), и Е И. Теперь определим Щ) формулой (146) где ряд сходится в пространстве Ь~(Й,У, Р). упражнение 126. Докажите, что ряд в правой части (146) сходится в Ь2(Й, У', Р). Кроме того, проверьте, что Щ) не зависит от выбора разбиения Л на подмножества, имеющие конечную меру и, а также покажите, что (141) справедливо для любых ~, д Е Ь~ (Л, А, р). Следовательно, мы можем по описанной схеме продолжить ортогональную случайную меру Е, которая задана на полу- кольце К подмножеств Л и имеет г-конечную структурную меру р, на систему ~И, фигурирующую в (145), согласно фор- муле Я(А): = .У(ГА). Т.З. Стационарные в широком смысле процессы, их спектральное представление Понятие стационарности отражает в определенном смысле 1 устоявшееся течение случайного процесса. Разумеется, "са- мым устоявшимся" был бы процесс Х = (Х(1), Ф Е Е), для ко- торого Х(1) = сопа$ при всех 1 Е Е. Однако такой тривиаль- ный случай мало интересен. Из гармонического анализа де- терминированных функций известно, сколь важная роль отво- дится комплексным экспонентам. Поэтому естественной явля- ется идея представления широкого класса случайных процес- сов в виде взвешенных (со случайными коэффициентами) сумм элементарных гармоник, а также в виде некоторых интегра- лов. Мы обсудим далее и понятие стационарности в узком смысле, связанное с изучением преобразований, сохраняющих меру. Такие преобразования — основной объект теории дина- мических систем. Для точных формулировок потребуется ряд новых понятии и вспомогательных утверждении. 179 
Покажем, что т(3,й) = со\/(Х(3),Х — ковариационная функция Ь2-пр0цесса Х = {Х(й),й Е Т} — является неотри- цательно определенной, т.е. при любых п Е М, й1,. . . , йп Е Т и всех 21,...,2„ Е С  П Е 2д$т(й;„й‚) 2 0. о 1с,т=1  Действительно, обозначив У(й) = Х (й) — ЕХ (й), имеем  ‘П. 2 гьггвъчъьлчгт) = 1с,т=1  п Т_—_—— 2 = ЕЕ 2;,У(й;,):2‚1’(й,.) = Е 2 О. К=1 т=1  Ё 2127030 к=1  Определение 35. Функция В = В(й), заданная на Т = 1 или Т = К, называется неотрицательно определенной, если таковой является функция г(з, й) = В(з — й), где 3,й Е Т. Пусть У — (действительная) случайная величина и ср — ее характеристическая функция. Тогда согласно упр/П функция ср неотрицательно определена на Т = К Отсюда, в частности, получаем, что следующие функции (одного аргумента й Е К) неотрицательно определены:  НЮ = ( - Ш) ПНИ < аЪ где а > 0;  а В(й) = сов й; _ - _ "т 2 . В(й) — ехр шй 2 , здесь а Е К, о 2 О,  В(й) = ехр{>\(е“ — 1)} при А > О.  Заметим, что если функция В = В(й), где й Е К, неотрица- тельно определенная, то ее сужение на множество Т = И будет также неотрицательно определено. Полное описание функций, неотрицательно определенных на Т = И, дает  Теорема 23 (Герглотц). Функция В, заданная на Д бу- дет неотрнцательно определенной в том и только том слу-  181 
чае, когда найдется конечная мера и на ([ — т, т~, В([ — т, т]), для которой В(8) = е'~~у(ИЛ), 8 Е Е. [ — зг,~г] Определение 36. Комплекснозначный случайный процесс Х = (Х($),1 Е Т), где Т снабжено сложением элементов, на- зывается стационарным в широком смысле, если ЕХ(1) = а = = сопят при всех 1 Е Т, а ковариационная функция не меняется при сдвиге, а именно, для любых Ф Е Т, 8 Е Т и Ь таких, что 1 + Ь Е Т, 8 + Ь Е Т, выполнено соотношение ЕХ~+/~ХВ+/~ = ЕХ~Х8 (149) е'""е'гп~р(ИЛ), и, т ~ Е. Х(п) = е'"~Я(ИЛ), и Е И. [ — т,~г] 182 Пример 67. Пусть процесс Х = (Х(п), и Е Е) таков, что величины Х(п) являются центрированными и ортонормиро- ванными в (комплексном) Ь~(Й,.'Г, Р). Убедимся, что этот про- цесс стационарен в широком смысле. В самом деле, соч(Х(п),Х(т)) = ЕХ(п)Х(т) = д„ = В(п — т), где В(Ф) = 1 при Ф = О и В(8) = О для 8 Е Е~ (0). Ограничимся применением теоремы Карунена главным об- разом к деиствительным процессам с дискретным временем. Пользуясь теоремой Герглотца, мы видим, что ковариа- ционная функция стационарного в широком смысле процесса Х = (Х(п), и Е Е) допускает следующую факторизацию: соч(Х(п),Х(т)) = В(п — т) = е'[" ~~~р(ИЛ) = [ — ~г,~г] [ — зг,~г] Таким образом, по теореме Карунена для центрированного стационарного в широком смысле процесса Х = (Х(п), и б Е) справедливо спектральное представление: 
При этом согласно замечанию 6 расширять исходное вероят- ностное пространство, на котором задан процесс Х, не тре- буется.  Упражнение 127. Пусть Х = (Х„)„е% — стационарная в широком смысле центрированная последовательность. Дока- жите, что при п —› оо  п.—1 $2) х„ -› то» Ь=0  в среднем квадратичном, где 2 — ортогональная случайная мера, фигурирующая в спектральном представлении Х.  Упражнение 128. Пусть Х = (Х„)„е2 — стационарная в широком смысле последовательность со средним а и ковари- ационной функцией В = Н(п), п 6 2. Доказать, что тогда п % 2 Х ‚с —› а в среднем квадратичном, когда 1:21  %ЁВ(п)—+0,п—›оо. 1с=1  и только тогда  Определение 37. Говорят, что стационарный в широком смысле процесс Х = {Х (13),й Е И} имеет спектральную плот- ность 1‘ = ДА), А Е [—1г,7г], если  на): / е“*;(‚\)а‚\‚ ген, (150) [_7"›7"]  где В — ковариационная функция. Другими словами, струк- турная мера д абсолютно непрерывна относительно меры Ле- бега (на [—1г,7г]).  Упражнение 129. Пусть Х = (Х„)„е2 — последователь- ность, состоящая из некоррелированных случайных величин со средним О и дисперсией 02. Найти спектральную плотность этой последовательности (называемой белым шумом).  Для спектрального представления стационарных процес- сов, заданных на К, ключевую роль играет следующий резуль- тат.  183 
Теорема 24 (Бохнер-Хинчин). Непрерывная в нуле функ- ция В = В(й), где й Е К, является неотрицательно опреде- ленной в том и только том случае, когда найдется конечная мера ‚и на (К, В(К)) такая, что  на) = Аеёдщаж), гене;  Упражнение 130. Докажите, что стационарный в широ- ком смысле процесс Х = {Х (й), й Е К} непрерывен в среднем квадратическом на К в том и только том случае, когда он не- прерывен в точке й = О. Спектральная плотность для стационарного в широ- ком смысле процесса Х, заданного на К, вводится анало- гично (150), только вместо интеграла по [—1г,7г] берется ин- теграл по В (сравните с преобразованием Фурье). Задача 46. Пусть Х = {Х (й) = е"°‘И’(е2“’), й Е К}, где И’ — винеровский процесс, а константа а > О. Доказать, что Х — стационарный в широком смысле гауссовский процесс и найти его спектральную плотность. Очевидно, ЕХ (й) = е“"‘ЕИ7(е2°“) = О при всех й Е К. Далее при в Е й т'(з,й) = ЕХ(з)Х(й) = = е—азе—айЕИ;(е2аз)И;(е2ай) = е—а(з+й) шйп{е2аз,е2ай} = = е—а(в+й)е2аз = е—а(й—в) = е—а|з—й|.  Тот же ответ будет при з > й. Вспоминая, что функция ‹‚о(й) = ехр{—а|й|}, где й Е К и а > О, является характеристической функцией случайной ве- личины У, имеющей распределение Коши с параметром а (см. пункт 1.2), заключаем, что т(з, г) = ‹р(3 - г) = А ет-‘М тд%дд ах = е-адз-Ч. (151) Следовательно, спектралйная плотность Х есть  .1°(/\)=‘Д(рЭ-Й› дёш-  184 
Характеристическая функция закона Коши с параметром о: легко находится с помощью замены переменных по характе- ристической функции стандартного закона Коши (см. (49)).  Упражнение 131*. Пусть Х = {Х (13), 25 Е К} — стационар- ный гауссовский процесс. Доказать, что Х будет марковским в том и только том случае, когда его ковариационная функ- ция имеет вид ВОЗ) = се“°‘"' (й Е К), с и а — неотрицательные константы.  Упражнение 132. Убедиться, что процесс Орнштейна- Уленбека, рассмотренный в примере 30, является марковским.  Определение 38. Центрированный случайный процесс Х = {Х„,п Е 2} называется процессом скользящего среднего, если найдутся белый шум г = {г„, п Е 2} и последовательность  констант (с„) Е 12, т.е. 2 |с„|2 < оо, такие, что пЕИ  Х„ = Естдед, п е 2. (152) ЬЕИ  В приложениях к радиотехнике принята иная терминоло- гия. Говорят, что процесс, имеющий представление (152), по- лучен с помощью фильтра, на вход которого поступает белый шум. Фильтр называется физически реализуемым, если коэф- фициенты сь = О при 1: < О . Тогда в соответствии с принци- пом причинности значения процесса Хд на выходе фильтра в момент п определяются только величинами 5„ с 19 < п. Доказывается (см., например, [2, с. 244]), что стационар- ный в широком смысле процесс Х = {Х„, п Е И} имеет спек- тральную плотность тогда и только тогда, когда он является процессом скользящего среднего (возможно, белый шум г, фи- гурирующий в (152), будет задан на расширении исходного вероятностного пространства).  Упражнение 133. Пусть {г„, п Е И} — белый шум. Найти спектральную плотность Х = {Х„ = %г„_1 + %е„_4, п Е И}.  185 
Х($) = (ВеХ($),1гп Имеем  ахи) = А шРХ(,)(с1ш) = Ашрхыаш) = Ехы  при всех 3,1 Е Т. Кроме того,  Ежа + лжи + п) = А, $уРх(в+п)‚х(г+/ъ) (аж, агу) =  = А‘, $уРх(з)‚х(:)(<1$›СЙ/) = Ехыхог).  Из стационарности в широком смысле также не следует стационарность в узком смысле. Возьмем, например, последо- вательность {Х„‚ п Е М} независимых разнораспределенных случайных величин, у которых одинаковые первые и вторые моменты. Пусть величины с нечетными номерами будут при- нимать значения 1 и -1 с равными вероятностями, а с чет- ными номерами — иметь нормальное распределение со сред- ним О и дисперсией 1 (Хм т АЦО, 1), К Е М). Тогда очевидно, что процесс стационарен в широком смысле (см. пример 67). Но он не будет стационарен в узком смысле, так как уже одно- мерные распределения будут меняться при сдвиге на единицу. Следует подчеркнуть, что имеется класс процессов, для которых оба понятия стационарности совпадают — это гаус- совские процессы, очевидно, являющиеся Ь2-процессами. Как мы видели, все их конечномерные распределения задаются с помощью функций среднего и ковариационной, а так как эти функции не меняются при сдвиге, если процесс стационарен в широком смысле, то не меняются и конечномерные распреде- ления. Определение 40. Пусть дано вероятностное простран- ство (П, Т, Р). Отображение Т : О ——› П называется сохраняю- щим (вероятностную) меру, если Р(Т‘1А) = Р(А) для любого А Е 7.  Упражнение 135. Пусть Т — сохраняющее меру пре- образование, а Х — некоторая случайная величина. Введем  188 
Х„(ш) := Х(Т"(ш)), ш Е О (здесь Т” есть п-я степень Т; ТО = = 1 — тождественное отображение). Доказать, что (Х„)„е2+ — стационарный в узком смысле процесс.  СОПОСТЕЪВИМ Т КЛЭЮС инвариантныш МНОЭЮССТПВ  „7={Ае?:Т'1А=А}.  Упражнение 136. Убедитесь, что „7 является о-алгеброй.  Приведем (см., напр., [12‚ с. 604]) следующий классический результат.  Теорема 25 (Биркгоф—Хинчин). Пусть Т — соазранлющее меру преобразование и У - случайная величина с Е|У| < оо. Тогда с вероятностью единица существует  п}? У(Т’°ш) Нш ЕВ——— = щуп).  П—›ОО ‘П,  Теория стационарных в узком смысле процессов, по сути дела, представляет собой изучение преобразований вероят- ностного пространства, сохраняющих меру. Точнее говоря, если на (5),?) Р) дан стационарный в узком смысле процесс Х = {Хтп Е 24.}, то необязательно на этом вероятност- ном пространстве найдется сохраняющее меру преобразова- ние такое, что Х имеет вид, описанный в упражнении 135. Однако можноддщюзать, что существуют вероятностное про- с^транство (ОМЕ Р), определенная на нЁи случайная величина Х и сохраняющее меру преобразование Т такие, что Ьаи/(Х) = = Ьаи/(Х), где  э? = {5г„(а) = зайца», п е 2„ а; е б}.  Это замечание позволяет переформулировать (см., напр., [12‚ с. 608]) теорему Биркгофа-Хинчина для стационарных в уз- ком смысле последовательностей, непосредственно не рассма- тривая преобразований, сохраняющих меру.  189 
и — 1 в=о 1П1 ФЪ-+ОО Е(Хо ~А). упражнение 137'". Покажите, что усиленный закон боль- ших чисел, установленный Колмогоровым (теорема 5), можно вывести из данного варианта теоремы Биркгофа — Хинчина. 190 Событие А Е Г называется инвариантным по отношению к последовательности Х = (Х„)„~~+, если при любом и Е Е» найдется множество В б 8(ЕОО) такое, что А = (и: (Х„(и), Х„» 1(и),...) е В). В пространстве Коо, состоящем из последовательностей х = = (х„)„~~+, где х„Е К, и Е Е+, введена метрика: р(х,у) = ~2 п=О для х = (х„), у = (у„), а 8(ЖОО) — это соответствующая боре- левская г-алгебра. Совокупность всех инвариантных относи- тельно Х множеств обозначим .4. Нетрудно убедиться, что А является о-подалгеброй Г. Теорема 26. Пусть Х = (Х„,и Е Е+) — стационарный в узком смысле процесс с Е~ХО~ ( оо. Тогда с вероятностью единица существует 
Глава в. СТОХАСТИЧЕСКИЙ АНАЛИЗ  8.1. Построение и свойства интеграла Ито  Напомним конструкцию стохастического интеграла Ито по броуновскому движению (винеровскому процессу) И’ = = {РУ(й),й 2 О}. В отличие от интеграла по ортогональной случайной мере, использованного в главе 7, теперь будут ин- тегрироваться не только детерминированные, но и случайные функции 1’ (й, ш). Пусть на (П, Т, Р) задано броуновское движение И’ и филь- трация Р = (Тддо. Проще всего предположить, что 1В` — естественная фильтрация И’, т.е. Я = о{И/`(з),О < з < й}, й 2 О. Однако бывает удобнее считать, что И’ — винеровский процесс относительно Р, значит, И/(й) является Л-измеримой (т.е. ТЦВОЮ-измеримой) величиной при каждом й 2 О, а для любых О < в < й приращение И/(й) — И/(з) не зависит от 73. Для естественной фильтрации эти свойства выполнены. Если последовательность точек О = йо < йд Т оо (А: —› оо), а действительные случайные величины Уо, У1, . . . (заданные на том же (9,.7,Р)) таковы, что 0(У;„) С 7%, 1:: Е %+, назовем простой случайную функцию вида  1‘ (зил) = Ё у1с(Ш)П[й‚„й‚„+1)(5)› в 2 0. (155) /с=О  Отметим, что при каждом з > О не более конечного числа точек йд лежит левее з. Для й = О положим 110‘) = О, а для О < й < оо определим интеграл Ито от 1‘ формулой  ложи» == Ё г‚„‹ш>‹т‹:‚„„ А г) - И/щ А г». К=О  Разумеется, здесь число ненулевых слагаемых не будет беско- нечным. Этот интеграл обозначают также  1‘(з‚ш)‹1И’(5)‚ [Од  еще для него используется запись В 1” (з,ш)сйТ/У(з).  191 
Согласно формуле (155), если 0 < Ф < 8~, то Х (У)( ) = ~о(И'(~) — ЩО)) = ~ои'(~), адляФ <8<1 «~,гдетЕЫ, имеем т — 1 ь(1):= ~ 1а(и'(1а~.~) — и'($а)) -~-У~(и'(~) — и'(1 )). (156) Всюду далее мы будем рассматривать (не оговаривая спе- циально) лишь простые функции, порожденные квадратично интегрируемыми величинами, т.е. ЕУ~~ < оо, Й Е Е» . Упражнение 138. Проверить, что для произвольных 8, 1 ) 0 и любых простых функций Х и д верны равенства ЕХ~(~) = О, ЕХ,(~)Х~(д) = Е [0,8~~) (157) Х (и, и)д(и, и)ди. Имеем Е~Х~(~)~ < оо, поскольку Х~(~) представляет собой сумму интегрируемых функций. В самом деле, приращения винеровского процесса нормально распределены, а все У~, ква- дратично интегрируемы по условию (приняли также во вни- мание, что если случайные величины Г,У Е Х2(Й,У',Р), то УГ е Ь~Щ Г, Р)). Из формулы (156) видно, что У~ -измеримы все слагаемые в ней, поэтому этим свойством обладает их сумма Х~(~). Убедимся, что для 0 < 8 < Ф верно равенство Е(Х~(~) ~Я;) = = Х,(~). Действительно, при Ф)~ < 8 < ~~+~, учитывая, что 8 < 1 (откуда 8 < ~~» ~ Л 1 и 1ц Л 1 = ~~), получаем Е(Г~(Г(Ц~+~ Л ~) — Г(Ц~ Л ~)) [.7=,) = = У~,(Е(Г(Цц ~ Л1Л8) ~У8) — Ю(Ц~)) = У~Щц ~Л8) — Ю(Ц~Л8)). 192 Задача 49. Показать, что для простой функции Х про- цесс (Х~(~), 1 > 0) образует мартингал относительно фильтра- ции Р. 
Можно расширить (см., напр., [6]) класс простых функций до класса,У~, состоящего из неупреждающих функций ~ таких, что при каждом Ф > 0 Р ~~(8,и)йв ( оо) = 1. О Нетрудно показать, что при каждом 1 > 0 для всех случай- ных функций ~, д Е,У2 (или для ~, д ~ ~~), а также произволь- ньпс чисел а„В Е Е почти наверное ~~Ю+М = М(У)+6Ыд) т.е. интеграл Ито обладает свойством линейности. При изучении интеграла Ито возникает ряд нетривиаль- ных вопросов, связанных с различными понятиями измеримо- сти интегрируемых функций (см., напр., [2, гл. Ч111]). Отметим, что ряд авторов предпочитает для интеграла Ито по винеровскому процессу использовать иное определение простой функции (а далее можно воспроизводить ту же схему аппроксимации простыми функциями), см., напр., [13]. Кроме того, можно вначале строить интеграл Ито на конечном про- межутке [О, Т) (или же на всей полуоси [О, оо)), а затем опре- делять интеграл с переменным верхним пределом, интегрируя по фиксированному промежутку подынтегральную функцию, домноженную на Пр ~~. Мы лишь отметим, что для неупреждающей "хорошей" (не- прерывной в среднем квадратическом) функции ~ на [0,$] ока- зывается (159) где 1.~.т. — предел в Ь~(Й, Г, Р), берущийся при измельчении разбиений вида 0 = 1О" ( ... ( $„",„= Ф, т.е. когда (и) (п) 6„:= шах (Я вЂ” ~," ) -+ 0»-, и -+ оо. 0<й~т„— ~ +' 194 
Пример 69. Вычислим Г $К(в)ИЮ(в), 1 > О. О Пользуясь сделанным выше замечанием и результатом примера 29, получаем ~(,) (.) = (')' О Для интегрируемой по Ито на [О, оо) функции ~ и момента остановки т введем Т ОО Дв)ИЮ(в): = Дв)П~,< ) И~К(в). О О упражнение 140. Пусть функция Х интегрируема по Ито на, оо и т — момент остановки. окажите, что если Т Е Дв)~Ыв < оо, О то Т 2 Т Т е Г ~(8)ыи'(в) = еГ дв)~Ив, еГ ~(в)ии'(в) =О. О О О Задача 50. Пусть Д1) — непрерывная детерминирован- ная функция на [О,оо). Показать, что процесс Х = (Х(8) = А Дв)сВК(в), ~ > 0) — гауссовский (поскольку таковым является винеровский процесс Ю). Прежде всего заметим, что для каждого фиксированного 1 > 0 в силу (159) величина Х~(~) является пределом в сред- нем квадратическом суммы независимых гауссовских величин вида Д~," )(Ю(8,+ ) — Ю(8~," )). Поэтому согласно задаче 18 получаем, что Щ') — гауссовская величина. Далее убежда- емся, что для любых О < в < Ф величины Х,(~) и Х~(~) — Х,(~)— независимые гауссовские (в суммы, аппроксимирующие Х~(~) в (159), можно включить суммы, приближающие Х,(~)). Ана- логично показывается, что процесс (Х~(~), 1 > 0) имеет незави- симые гауссовские приращения. Следовательно, этот процесс гауссовский. В самом деле, взяв в Е И и 0 < 11 « ... Ц„ 195 
при этом говорят, что процесс Х имеет стохастический диф- ференц"~ал, задаваемый правой частью последней формулы. Подчеркнем, что в отличие от классического математического анализа стохастический дифференциал — это лишь удобная сокращенная форма записи интегрального соотношения (160). Основой стохастического исчисления является следующий фундаментальный результат (см., напр., [6, гл. 4, ~3~). Обра- тите внимание на отличие от выражения для дифференциала сложной функции в классическом анализе. Теорема 2Т (формула Ито). Пусть Р(Ф,х) — функцил класса С1г, заданная на Щ х К (т.е. имеющая непрерыв- ные производные -~, ~- и — г-). Пусть процесс Х др др дгР х = (Х(Ф),Ф > О) имеет стохастический дифференциал (161). Тогда процесс (Р($,Х(Ф)),1 > О) также имеет стохастиче- ский дифференциал: др др 1 дгр ИР(1,ХИ)) = — + а(Ф,и) — + — Ь (1,и) — й+ Я ' дх 2 ' дхг + — Ь(Ф, и)ай~(Ф). (162) Х Иначе говоря, справедлива формула замены переменных в интеграле Ито: Р($, Х($)) = Р(0, Х(0))+ дР др 1 г дгр + — + а(в,и) — + — Ь (в,и) — а'в+ Дв ' дх 2 ' Дхг 'ар + — Ь(8, и) сЬК(й). (163) О дх Аргументами частных производных функции Р в (162) и (163) являются соответственно (1, Х(Ф)) и (в, Х(в)); аргумент и, как у Ю, часто не пишут. Формуле (162) можно придать более компактную форму записи: дР дР 1 дгР др = — й+ — ИХ(1) + — — (ИХ(~)), И дх 2 дхг (164) 197 
если всюду Р понимать как Р(с, Х(с)) и принять соглашение о следующем формальном перемножении дифференциалов: (ИИ~(Ф)) = сН, ЛК(1)сЫ = ИИЮ(1) = О, сйсй = О. Пример ТО. Пусть Х(1) = И~(Ф), 1 > О, и Р(~, х) = х2 для Ф > О и х Е Я. Найдем ИР(3, Ю(Ф)). Очевидно, Р Е С и = О, = 2х, — 2- — — 2. По 12 дР дР д2Р х ' х формуле Ито (164) ИР(~, В'(~)) = 2Г(~)ж(~) + — 2(ДР(~))', т.е. НИ'($) = 2И~(1)ШИг(~) т й. Следовательно, длл каждого $ > О имеем Ю(~) = Ю(0) + 2 $К(в)ИЮ(в) + сЬ. О О В итоге $ К(в) с%К(в) = — Ю(8) 2 О 2 2 Таким образом, получили очень простой способ вычисления интеграла, фигурирующего в примере 69. Пример Т1. Пусть Р(Ф, х) = ехр(х — ~~), где Ф > О и х е К. Найдем ИУ(1) для процесса У(Ф) = Р(1, Ю(1)). Очевидно, Р Е С1'2 и = — — ехр (х — — ), =ехр (х — — ), е — — ехр (х — — ) . Согласно формуле Ито имеем ИР(1, Ю(8)) = = — — Р(~, ФК(~))Ю+ Р(~, Ю(~))ЛК(~) + — Р(~, Ю(~))(ИЮ(~))2, то есть Щ~, ~(~)) = Р(~, ~(г))аГ(~). Игак, для У(8) = Р(Ф, Х(Ф)) получаем ~У(~) = У(~)ЛУ(~), ~ > О. (165) 198 
Следовательно, процесс У(1) = ехр(Щ8) — Ц удовлетворяет дифференциальному соотношению (165) (другими словами, соответствующему интегральному соотношению с начальным условием У(0) = 1). Пусть а Е Е и о > 0 — данные числа. Введем процесс гео- метрического (или экономического) броуновского движения Я(~) = Я(0)е ~®+" —, ~ > О. упражнение 141. Покажите, что стохастический диффе- ренциал геометрического броуновского движения имеет вид сБ(Ф) = аЯ(1)й + оЯ(1)ЛК(1). (166) В силу упр. 91' можем утверждать, что т — момент оста- новки. Возьмем функцию и(х) = а — х2, где х Е К. По фор- муле Ито и(Ю(3)) = — 1 — 2Ю(в)ИЩв) + а2. О Для 1 > 0 введем ограниченный момент остановки 1 Л т. По- скольку Щв) ~ < а при в < т, то ЬЛт Е ~Ю(в)~~сЬ < а~8. О Следовательно, сославшись на результат упр. 140, имеем ЬЛт Е Ю(в)ЛК(в) = О, О Еи(%К(й Л т)) = — Е(й Л т) + а2, так как 1Лт Е Ю(в)сИ'(в) = О. О 199 Задача 51. Пусть т = 1пЦ1 > 0: ~Ю(8) = а), следова- тельно, т — момент первого выхода винеровского процесса из полосы на плоскости (с,у) с границами у = — а и у = а, где а > О. Найти Ет. 
Таким образом, Е(8Лт) = а2 — Еи(Ю(1Лт). Заметим, что при 8 — 'Р оо на событии (т < оо), имеющем вероятность единица, получаем и(Ю(1 Л т)) ~ и(Ю(т)) = 0 (учли непрерывность функции и и винеровского процесса Ю). Принимая во внима- ние, что 0 < и(Ю(1 Л т)) < а для 1 > О, а также применяя теоремы 1 и 2 (о монотонной и о мажорируемой сходимости), имеем Ет = 1пп Е(с Л т) = а — 1пп Еи(Ю(8Лт)) = а . 8-+оо 8-~со упражнение 143. Джажите, что ) ФК(~)" 2Ю+ пЮ(~)" 1сЬК(~), с%К(1)" = где И вЂ” винеровский процесс. 8.3. Стохастические дифференциальные уравнения Стохастическое дифференциальное уравнение Ито ИХ($) = а(1,Х($))сЫ+ Ь(~,Х(1))ИЮ(Ф) (167) с коэффициентами а, Ь и начальным условием Хо понимается как удобная запись интегрального уравнения (первый инте- грал — потраекторный, второй — интеграл Ито) Х(Ф) = Хо+ а(в, Х(в))сЬ+ Ь(в, Х(в))ИЮ(в), ~ > О. (168) О О Точнее говоря, предполагается Уо-измеримо сть величины Х(0) = Хо и рассматривается сильное решение Х = (Х(ь),~ > 0). Это процесс с п.н. непрерывными траекто- риями, согласованный с фильтрацией (т.е. при каждом 1 > 0 величина Х(1) будет Я~-измерима), кроме того, Р )а(в,Х(в)))йв < оо) = 1, О Р Ь 1в, Х(в))с1в < оо) = 1, О 200 упражнение 142. Для а, г > 0 положим Х(1) = Д е ~ь8сПК(в), Ф > О. Найдите ИУ(1), где У(1) = Р(1, Х(Ф)), а функция Г(с, х) = сте~~х, 1 > 0 и х Е Е. 
а при подстановке Х в левую и правую части (168) при каждом 1 > О получатся равные п.н. случайные величины. Разумеется, можно рассматривать уравнение (168) лишь на отрезке [О, Т], а не на,оо . Хорошо известно, что даже для детерминированных обык- новенных дифференциальных уравнений приходится налагать условия на коэффициенты, чтобы обеспечить существование и единственность решения задачи Коши. Поэтому ничего уди- вительного в том, что та же ситуация возникает и при реше- нии стохастических дифференциальных уравнений Ито. Говорят, что измеримая функция ~ = ~(8, х), определенная на В ~ х В, удовлетворяет по переменной х локальному условию Липшица, если для каждого п ~ И, всех 8 > О и произвольных х, у Е [ — п,п] верно неравенство ~Д8, х) — Д8, у) < С(п) ~х — у~, где множитель С(п) ) О зависит лишь от и. Функция ~ = ДФ, х) называется удовлетворяющей условию линейного роста по переменной х, если для всех 8 > О, любых х Е Е и некоторой константы с > О ~ДЙ, х) ~ < с~х~. Теорема 28. Пусть коэффициенты а = а(Ф,х) и о = о(Ф,х) уравнения (167) удовлетворяют локальному условию Липшица и условию линейного роста (оба условил — по пе- ременной х). Тогда длл любой Уд-измеримой величины Хо укаэанное уравнение имеет единственное сильное решение Х, лвллюшеесл марковским процессом. Единственность решения понимается в том смысле, что если процесс У = (У(1),1 > 0) также является сильным ре- шением (167), то для каждого 1 ) О Р вир )Х(8) — У(8)) ) О) = О. 0<з<Ф Другими словами, траектории Х и У являются неотличи- мыми. 201 
Рассмотрим классическое уравнение Ланжевена, описыва- ющее движение частицы в жидкости. Оно имеет вид = — фо(8) + у, ~ > О, (169) Ио(8) ИЩ~) сИ Ж здесь и = и(1) — скорость частицы, т — ее масса,, — поло- жительная константа, характеризующая вязкость жидкости, а Ю = (Ю(Ф),8 > О) — винеровский процесс. В правой ча- сти (169) формально фигурирует производная винеровского процесса, которая не существует ни в одной точке (см. тео- рему 14). Это "нерегулярное" слагаемое в правой части урав- нения (не существующее в смысле обычного дифференциаль- ного исчисления) должно описывать "хаотические" соударе- ния движущеися частицы с молекулами жидкости. Уравнению (169) легко придать строгий смысл, переписав его в дифференциальной форме как уравнение Ито: ИГ(1) = аГ(1)сЫ+ осВК(Ф), 1 > О, здесь а = — ~ ( 0 и о = 1 > О, а ~(0) = Цо. Задача 52. Показать, что сильное решение уравнения Ланжевена задается формулой Г(~) = ~ое '+о е ~ ' ЛК(8), 1 > О. О Воспользуемся формулой Ито. Положим Х(Ф) = е "ИЮ(8), ~ > О. О Пусть Р(Й, х) = ое~~х, где й > 0 и х ~ К. Найдем 6Р(~, Х(~)). Заметим, что ИХ(Й) = е ~~ЯК(Й) и по определению интеграла Ито Х(0) = О. Очевидно, Р Е С~'~ и д2Р — = О. дх2 дР — =ое дх дР — =оае х, д~ Поэтому йР($, Х(1)) = оае~~ХЯЖ+ое~~йХЯ = оае~~Х(1)й+ЫЮ(8) = = аР(~, Х(8))й + ойХЯ. (171) 202 
Сопоставляя (170) И (171), приходим к выводу (учитывая единственность сильного решения уравнения Ланжевена, по- скольку выполнены условия теоремы 28), что  Ё гида/ш) = се“ / е-ази/(з), ъ 2 о, О  является (сильным) решением (170). Однако для этого ре- шения Р`(О,И’(0)) = О, а нам требуется обеспечить условие 1/(0) = И). Рассмотрим 203) = Уоеа‘, 25 2 О. Ясно, что 2(О) = = И). Покажем, что (12 (г) = осад/оси. Действительно,  г И; +/ аеазУосйз = И; + Иуеазй = Т/Ье“ = 20). 0  Определим Ж/(й) = 20!) + Р($‚ И/(15)), 15 2 О. Тогда 1/(0) = И) и сП/(й) = (1205) + с1Р($, = а2(13)с113+ аР(15, Х(73)) + асЯИ/(й) = = аЁ/(Ё) + сайта). Итак, искомое решение найдено: 1/(15) = Уое“ + адгещьдсдд/(з), 152 О, 1/(0) = И). (172)  Задача 53. Пусть И; — гауссовская величина. Убедиться, что решение уравнения Ланжевена (172) является гауссовским процессом.  Согласно задаче 50 процесс с 20%) =/ е-“зёи/(з), з 2 О, 0  будет гауссовским, а значит, будет гауссовским и процесс  у = {ум = а/ге“("°3)с1И/'(3),й 2 о},  0  получающийся умножением гауссовского процесса на детер- минированную функцию.  203 
Покажем теперь, что процесс У и случайная величина Го являются независимыми. Достаточно проверить, что при ка- ждом и Е И и любых 0 < 11 « ... 1„вектор (У(81),..., У(1„)) не зависит от Го. Для этого надо учесть, что векторы, ап- проксимирующие (У(~1),...,У(8„)) в соответствии с задачей 50, не зависят от Го, поскольку в этих приближающих векто- рах фигурируют приращения винеровского процесса, а они не зависят от о-алгебры Уо, относительно которой Го измерима. Теперь очевидно, что все конечномерные распределения про- цесса У являются гауссовскими. о2 .г'пражиеиие 144. Пусть 1'с А' (О, $-, где и = — а > О (параметр а тот же, что в уравнении (170)). Докажите, что решение уравнения Ланжевена с таким начальным условием есть процесс Орнштейна — Уленбека, т.е. гауссовский процесс с ковариационной функцией 2 соч Я(8), К(8)) = — е ~ ' ~, 8, 1 ) О. упражнение 145. Решить стохастическое дифференци- альное уравнение ИХ4 — — аХ(1) + бХ(1)ИЮ~, где И' = (И~~, ~ > 0) — винеровский процесс, а, о — константы, а Х(0) = Хо. э'пражнение 146~ (см. [13, т. 1, с. 323]). Докажите, что уравнение где х >~ — 1, х<0, на некотором вероятностном пространстве может иметь два различных сильных решения, а на некотором — ни одного. Интересно отметить, что единственное сильное решение может существовать и у стохастического дифференциального 204 
уравнения с “плохими” коэффициентами (не требуется выпол- нение локального условия Липшица).  8.4. Некоторые задачи стохастической финансовой математики  Для описания эволюции стоимости акций Л. Башелье в 1900 году предложил следующую линейную модель:  за) = во + „ъ + отл/щ, 2: 2 о, (173)  где И’ = {И/(й), 25 2 О} — броуновское движение, д И а — поло- жительные параметры. Точнее говоря, процесс броуновского движения возникал как предельный процесс в схеме, анало- гичной той, которая описана в пункте 4.1. Эта первая Стохастическая модель, Примененная для ана- лиза финансового рынка, имеет тот недостаток, что стои- мость акций не может быть отрицательной, а процесс 5 = = {5 (15),: 2 О}, введенный в (173), может принимать и отри- цательные значения. В этом смысле более привлекательной является модель, предложенная П. Самуэльсоном в 1965 году. В рамках этой модели флуктуации стоимости акций описываются геометри- ческим броуновским движением  за) = 5„ед‘е““’<‘>-%, ъ 2 0. (174)  Иначе говоря, не величины $03), а их логарифмы подчиняются линейной модели типа (173):  2 1п = (д- 95) 25+аИ7(13)‚ 132 О. Формально в дифференциальной форме формулу (174) можно переписать (см. упр. 141) так: (1505) = Б(13)(дс113+ ост/Ш). (175)  Если к (175) добавляется стохастическое дифференциаль- ное уравнение  ёВОЗ) = ТБ(Ё)(1Ё 
для банковского счета В = (В(8),8 > 0) с (постоянной) про- центной ставкой т > О, то говорят, что задана стандартная диффузионная (В, Я)-модель Блэка — Шоулса — Мертона (пред- полагается, что В(0) = 1 и Я(0) = Яо ) О). Имеется множество усложнений этой модели (см., напр., [13, т. 1, гл. 3]). Так, очевидно напрашивающееся усовершен- ствование состоит в замене постоянных т, р и о на случжные функции г(1), и(1) и ст(1). Для того чтобы дать читателю лишь начальное предста- вление о сложных современных стохастических проблемах, рассмотрим классическую задачу о цене опциона. Не вдава- ясь в детали (см., напр., [13, т. 2, гл. 8]; [7, гл. 12 ), скажем, что на бирже в момент 1о = 0 может быть заключена сделка, гарантирующая, что сумма Р(и) будет выплачена в момент времени Т ) 0 (говорят, что Р есть Т-иск). Нетривиальная задача — понять, какова должна быть "справедливая" плата за такую гарантию (которая устроила бы как покупателя, так и продавца). Исследование этого вопроса должно начинаться с форму- лировки определенной экстремальной задачи (и требует це- лого ряда новых понятий, таких, как допустимый портфель ценных бумаг, хеджирование и т.д.). Поэтому ограничимся лишь формулировкой классического результата. Рассмотрим европейский опцион-колл (са11), определяемый формулой + Я(Т,и) — К, если Б(Т,ы) > К, если Я(Т,и) ( К, где К > 0 — заданная константа (цена исполнения опциона). Заметим, что опцион-колл дает право на покупку акции через время Т по заранее назначенной цене К, а опцион-пут (ри$) дает аналогичное право на продажу акции. Кроме того, существуют так называемые американские опционы, которые позволяют производить сделки, не дожидаясь истечения вре- мени Т. 206 
Формула Блэка — Шоулса расчета опциона-колл, т.е. той цены, которая назначается за сделку, приобретает вид (см., напр., [13, с. 913]) 1п ~ + Т(т + ~~-) 1п ф + Т(т — ~~-) ~=~оФ вЂ” Хе "~Ф а Т ° г Т где Ф вЂ” функция распределения стандартной гауссовской ве- личины. Отметим также, что сложности современных финансо- вых задач связаны еще с тем, что имеется целое множество рисковых активов, т.е. изучается векторный процесс Я = (Я(1),1 > О), а кроме того, необходимо уметь описы- вать состояние самого рынка (например, его полноту). Для этого применяются весьма изощренные методы стохастиче- ского анализа (в частности, используется теория локальных мартингалов, семимартингалов и т.д.). 
ПРОГРАММА  курса “Стохастические процессы” (семестр — 7), лекции — 34 часа, семинарские занятия — 17 часов  1. Примеры случайных процессов, основанные на последо- вательностях независимых случайных величин (случай- ные блуждания, процессы восстановления, модель стра- хования Крамера—Лундберга). 2. Случайные процессы как семейства измеримых отобра- жений. Траектории (реализации, выборочные функции). Процессы с дискретным и непрерывным временем. Ко- нечномерные распределения. Понятие эквивалентности случайных процессов. 3. Теорема Колмогорова о построении случайного процесса по заданному семейству согласованных вероятностных мер. Формулировка этой теоремы на языке характери- стических функций. 4. Многомерное нормальное распределение, его свойства. Гауссовские процессы. Построение согласованных рас- пределений по функции среднего и ковариационной функ- ции. 5. Процессы с независимыми приращениями. Существо- вание таких процессов в терминах характеристических функций приращений. б. Броуновское движение (винеровский процесс), его свой- ства. Доказательство эквивалентности двух определений (как гауссовского процесса и процесса с независимыми приращениями) . 7. Построение броуновского движения по функциям Шау- дера. 8. Теорема Пэли-Винера-Зигмунда о недифференцируемо- сти траекторий броуновского движения. 9. Пуассоновский процесс, его свойства. Явная конструк- ция по последовательности независимых экспоненциаль- ных случайных величин.  208 
10.’ 11. 12. 13. 14. 15. 16. 17.  18. 19.  20. 21. 22.  Аппарат условных математических ожиданий. Наилуч- ший прогноз в среднем квадратическом. Марковские процессы, эквивалентные определения. Цепи Маркова с непрерывным временем. Марковость процесса с независимыми приращениями. Эквивалентность двух определений пуассоновского про- цесса (как процесса с независимыми приращениями и марковской цепи). Эргодическая теорема. Понятие о системах массового обслуживания. Формулы Эрланга. Мартингапы (субмартингалы), примеры. Моменты оста- новки. Задача о разорении игрока. Неравенство Крамера—Лундберга. Процессы, стационарные в широком и узком смыслах. Понятие о спектральном представлении случайных про- цессов. Построение интеграла Ито. Свойства интеграла Ито. Формула Ито. Понятие о стохастическом дифференциальном уравнении и его решениях.  ЗАДАНИЕ 1  ПРИМЕРЫ ПРОЦЕССОВ, коНЕчномЕРнЬ1Е РАСПРЕДЕЛЕНИЯ, РАСПРЕ- ДЕЛЕНИЯ в ПРОСТРАНСТВЕ ТРАЕКТОРИЙ  1. Случайная величина 5 принимает значения -1 и 1 с  равными вероятностями. Как ВЫГЛЯДЯТ траектории процесса  Х:  {Х (г) = едф е [0,1]}? Найти двумерные распределения  процесса и его ковариационную функцию.  2. Пусть Х = {Х(й) = {-й+с, й 2 О}, где д” м А/(О,1),  с = сопвг. Найти конечномерные распределения процесса Х.  209 
3. Привести пример процессов Х = {Х (й),й Е Т}, У = = {У(й),й Е Т} и такого множества С в пространстве траек- торий, что {Х Е С} Е 7, а {У Е С} Е 7 4. Верно ли, что если у процессов Х = {Х(й),й Е Т} и У = = {У(й),й Е Т} совпадают конечномерные распределения, то процесс У является модификацией процесса Х? 5. Пусть Х = {Х(й) = У + й,й 2 О}, где У имеет экспонен- циальное распределение с параметром А. Найти вероятность того, что Х(й) = О хотя бы для одного й Е [—1,1]. 6. Введем процесс Х = {Х(й) = ((1 + @wY +Е1„)й‚й 2 О}, где $1, . . . ‚ф, — независимые А/ (0, 1) величины. Найти конеч- номерные распределения процесса Х и его ковариационную  функцию.  пгоцвссы с НЕЗАВИСИМЬ1МИ ПРИРАЩЕНИ- ями, ГАУССОВСКИЕ пгоцвссы  7. Пусть Х = {Х (й), й 2 О} — процесс с независимыми при- ращениями, Ь = /й(й) (й 2 О) — детерминированная функция. Верно ли, что процессы {Х(й) + Ь(й),й 2 О} и {Ь(й)Х(й)‚й 2 О} имеют независимые приращения? 8. Пусть Х(й) = (И/1(й)‚ ..., И/„(й)), где й 2 О, — век- торный процесс, составленный из независимых винеровских процессов. Доказать, что с вероятностью единица процесс Х выйдет из шара произвольного радиуса В > О. ‘П 9. Доказать, что #21 И’ — И’ (к д 1) ности, когда п —› оо, здесь И’ — винеровский процесс. 10. Пусть А! = {1\/`(й),й 2 О} — пуассоновский процесс ин-  —› оо по вероят-  тенсивности А. Доказать, что Ё —› А по вероятности при й —› оо. 11. Пусть 1\/'1,...,1\Г„ — независимые пуассоновские про- цессы соответственно интенсивностей Ад = /с‘4, где 1: = = 1, . . . ‚п. Найти ковариационную функцию процесса Х„(  й) = ‘П. = 2 /с1\/'д‚(й), й 2 О. Чему эквивалентна ковариация Х„(з) и /с=1  Х„(й) при п —› оо?  210 
12. Пусть К = (Ж(1), 8 > 0) — пуассоновский процесс ин- тенсивности А, заданный как процесс восстановления. Пусть 81(и) ( ~2(и) ( ... — точки скачков К. Положим Х(~,и) = = У~ для 8 Е [8~, 8~+1), где Й = О, 1,..., а (У~с)~се~ — последова- тельность независимых величин, не зависящих от процесса Ж. Найти ковариационную функцию Х, если ЕУ~ = — 1, ЕУ~~ = 2. 13. Пусть (У„) „~~ — последовательность независимых слу- чайных величин, не зависящая от пуассоновского процесса К К(1) интенсивности А. Доказать, что процесс У(1):= ~ У~, явля- й=1 ется процессом с независимыми приращениями. 14. Доказать, что процесс Х = ( — Ю(с~), 1 > О), где И' 1 — винеровский процесс и константа с > О, также является винер овским. 15. Показать, что процесс Х = (Х(1) = Ю(1 + а)— — РК(а),8 > 0), где Ю вЂ” винеровский процесс и константа а > О, является винеровским. 16. Найти ковариационую функцию броуновского моста, т.е. процесса ЪУО = (И~о(й):= ЩЖ) — ЙИ~(1),й Е [0,1]), где И~ — винеровскии процесс. МАРКОВСКИЕ МОМЕНТЫ, МАРТИНГАЛЫ 17. Пусть т1, т2,... — марковские моменты. Доказать, что т и т~, мах т~, т1п 7.~, мах т~ — марковские моменты. Й=1,...,л, Й=1,...,и йб~ ~6~ 18. Пусть Х1, Х2,... — последовательность случайных век- торов со значениями в ~~,  — борелевское множество в К'и. Показать, что т = 1пГ(п: Х„Е В) является марков- ским моментом относительно естественной фильтрации этой последовательности. Найти распределение величины Х,, ко- гда (Х„)„~~ состоит иэ независимых одинаково распределен- ных векторов. 19*. Пусть Ю вЂ” винеровский процесс, а — константа и т„: = 1пГ(1 > 0: Ю(1) = а). Доказать, что т, — момент оста- новки (т.е. конечный п.н. марковский момент) относительно естественной фильтрации И'. 211 
не являющегося мартингалом. Привести пример марковского процесса, являющегося мартингалом. 29"5 Докажите, что процесс с независимыми приращени- ями является марковским. 30. Найти ковариационную функцию пуассоновского про- цесса, отправляясь от его определения как однородной мар- ковской цепи.  СТАЦИОНАРНЫЕ ПРОЦЕССЫ  31. Привести пример процесса, стационарного в широком смысле, но нестационарного в узком смысле. Привести пример процесса, стационарного в узком смысле, но нестационарного в широком смысле. 32. Объяснить, почему для гауссовских процессов понятия стационарности в узком и широком смыслах совпадают. 33. Показать, что стационарный в широком смысле про- цесс Х = {Х (т), 15 6 К} непрерывен в среднем квадратическом на К тогда и только тогда, когда его ковариационная функция непрерывна в нуле. 34. Пусть Х = (Х„)„е2 — последовательность, состоящая из независимых случайных величин со средним О и дисперсией 02. Найти спектральное представление этой последовательно- сти. 35. Пусть Х = (Х„)„5% — стационарный в широком смы- сле процесс со средним а и ковариационной функцией В = П = Е(п), п 6 И. Доказать, что 5% 2 Хд ——› а в среднем квадра- тическом при п, —› оо тогда и тЁько тогда, когда в среднем П квадратическом % Е: В(п) —› О , п —› оо. 1с=1 36. Пусть Х = {Х(й) = е"“‘И/(е2“‘), 73 Е К}, где И’ — винеровский процесс, константа а > О. Доказать, что Х — стационарный гауссовский процесс и найти его спектральную плотность.  213 
ЭЛЕМЕНТЫ СТОХАСТИЯЕСКОГО АНАЛИЗА 37. Пусть ДФ) — непрерывная детерминированная функ- ция на [О, оо). Доказать, что Х = (Х(8) = А ~(и)ИЮ„, 8 > О) — гауссовский процесс (Ю вЂ” винеровский процесс). 38. Вычислить интеграл Ито А И~~ЫИ'~, где $К вЂ” винеров- Т скии процесс. 39. Пользуясь формулой Ито; найти стохастический диф- ференциал процесса У(Ф) = ехр(2Ю~(1) — ~), 1 > О, где Ю— винеровскии процесс. 40. Решить стохастическое дифференциальное уравнение ИХ~ — — аХ(8) + 6Х(8)сЬК~, где Ю = (И~~, ~ > О) — винеровский процесс, а, б — константы, а Х(0) = Хо. 214 
Литература 1. Боровков А.А. Теория вероятностей. — 3-е изд. — М.: Эди- ториал УРСС, 1999. — 472 с. 2. Булинский А.В., Ширяев А.Н. Теория случайных процес- сов. — М.: ФИЗМАТЛИТ 2005. — 408 с. 3. Вентцель А.Д. Курс теории случайных процессов. — 2-е изд. — М.: Наука 1996. — 400 с. 4. Вентцель Е.С., Овчаров Л.А. Теория случайных процессов и ее инженерные приложения. — М.: Наука 1991. — 296 с. 5. Колмогоров А.Н., Фомин С.В. Элементы теории функций и функционального анализа. — М.: Наука. Гл. ред. физ.- мат. лит., 1989. — 624 с. 6. Липцер Р.Ш., Ширяев А.Н. Статистика случайных про- цессов. — М.: Наука 1974. — 696 с. 7. Оксендаль Б. Стохастические дифференциальные уравне- ния. Введение в теорию и приложения: Пер с англ. М.: Мир, 2003. — 408 с. 8. Розанов Ю.А. Теория вероятностей, случайные процессы и математическая статистика. — 2-е изд. — М.: Наука 1989. — 320 с. 9. Севастьянов Б.А. Курс теории вероятностей и математи- ческой статистики. — 2-е изд. — М.-Ижевск: Институт ком- пьютерных исследований, 2004. — 272 с. 10. Тутубалин В.Н. Теория вероятностей и случайных процес- сов. — М.: Изд-во МГУ 1992. — 400 с. 11. Феллер В. Введение в теорию вероятностей и ее приложе- ния. В 2 т. Пер. с англ. Т. 1. — М.: Мир, 1984. — 528 с. Т. 2. — М.: Мир, 1984. — 738 с. 12. Ширяев А.Н. Вероятность: В 2-х кн. — 4-е изд. — М.: МЦНМО, 2007. Кн. 1. — 552 с. Кн. 2. — 416 с. 13. Ширяев А.Н. Основы стохастической финансовой матема- тики. В 2 т. М.: Фазис, 1998. Т. 1. Факты. Модели. — 512 с. Т. 2. Теория. — 544 с. 215 
Учебное издание  Б УЛИН СКИЙ Андрей Вадимович  СЛУЧАЙНЫЕ пгоцвссы. ПРИМЕРЫ, ЗАДАЧИ И УПРАЖНЕНИЯ  Редактор ИА. Волкова Корректор 0.П. Котова  Подписано в печать 04.06.2010. Формат 60 х 84 ‘Ад. Бумага офсетная.  Печать офсетная. Усл. печ. л. 13,5. Уч.- изд. л. 12,7. Тираж 600 экз. Заказ Не ф-1 12  Государственное образовательное учреждение высшего профессионального образования Московский физико-технический институт (государственный университет) Отдел автоматизированных издательских систем «ФИЗТЕХ-ПОЛИГРАФ» 141700, Московская обл., г. Долгопрудный, Институтский пер.‚ 9