Текст
                    Ю. М. Коршунов
МАТЕМАТИЧЕСКИЕ
ОСНОВЫ
КИБЕРНЕТИКИ
ИЗДАНИЕ ТРЕТЬЕ,
ПЕРЕРАБОТАННОЕ И ДОПОЛНЕННОЕ
Допущено Министерством высшего и среднего
специального образования СССР в качестве
учебного пособия для студентов, вузов,
обучающихся по специальности
«Автоматика и телемеханика»
Е
99 Москва Энергоатомиздат 1987

ББК 32.81 К 70 УДК 681.5.01 :51 Рецензент доктор технических наук,профессор Л. Т. Кузин Кортунов Ю. М. К70 Математические основы кибернетики: Учеб, по- собие для вузов. — 3-е изд., перераб. и доп. — М.: Энергоатомиздат, 1987. — 496 с.: ил. Изложены основы математического аппарата, используемого при исследовании и описании кибернетических моделей и методов оптимизации сложных систем По сравнению с изданием 1980 г. в книгу добавлены новые разделы по векторным производным, много- мерному нормальному распределению и гауссовским марковским слу- чайным процессам, матричным моделям систем, фильтрации сигна- Для студентов, обучающихся по специальности «Автоматика и телемеханика». „ 1502000000-033 К 051(01)-87 ,06'87 ББК 32 81 © «Энергия», 1980 © Энергоатомиздат, 1987 с изменениями
ПРЕДИСЛОВИЕ Вопросы кибернетики как науки об общих закономер- ностях процессов управления в системах различной физи- ческой природы [1—6] занимают в последние годы все больше и больше места в дисциплинах, связанных с изуче- нием управляемых систем. Чрезвычайно актуальными эти вопросы являются для специальности «Автоматика и теле- механика», в которой изучению различных аспектов авто- матического управления посвящен целый ряд дисциплин учебного плана. В таких дисциплинах, как «Основы кибернетики», «Ме- тоды оптимизации», «Оптимальные и адаптивные системы», «Управление сложными системами», широко применяют методы оптимизации основанные на использовании линей- ного, нелинейного и динамического программирования, теории игр, теории статистических решений, методы пла- нирования эксперимента, методы теории расписаний и массового обслуживания. В основе всех этих методов ле- жат общие математические понятия теорий множеств и отношений, графов, многомерных пространств и линейных преобразований, теории вероятностей и математической статистики. Общность математических основ для многочис- ленных методов оптимизации позволяет изложить их весь- ма компактно и с единых позиций, что в значительной степени облегчает изучение перечисленных дисциплин и установление связи между ними. В третье издание книги (второе вышло в 1980 г.) вне- сены некоторые изменения: переработана глава, посвящен- ная теории вероятностей и методам математической ста- тистики; рассмотрены многомерные распределения вероят- ностей, случайные процессы, модели линейных динамиче- ских систем; введены разделы, знакомящие с теориями оценивания, фильтрации и основными понятиями киберне- тики; увеличено число примеров, иллюстрирующих теоре- тический материал.
Книга начинается с вводной главы (гл. 1), знакомящей читателя с основными понятиями кибернетики, включая понятие сложных систем. Методы управления сложными системами изучаются во многих дисциплинах учебного плана специальности «Авто- матика и телемеханика». Для их понимания требуется об- ширный математический аппарат, включающий в себя ос- новные разделы традиционного курса высшей математики: дифференциальное и интегральное исчисление, дифферен- циальные уравнения, ряды, теорию функций комплексного переменного, операционное исчисление, спектральный ана- лиз. Эти разделы считаются известными читателю и в книге не рассматриваются. Однако традиционных матема- тических разделов, в основе которых лежит непрерывное и детерминированное, совершенно недостаточно для пони- мания и изучения кибернетических систем, ведущую роль в которых играет дискретное и случайное. Роль дискретного чрезвычайно велика при описании и изучении сложных систем. Сложные системы состоят из разнообразных разнородных элементов, поэтому обладают ярко выраженной дискретной (прерывной) структурой, описание которой требует специальных математических методов. Такими являются теория множеств, теория гра- фов и линейная алгебра, излагаемые в гл. 2—4. Другой особенностью сложных систем является веро- ятностный характер их структуры и неопределенность внешних условий, в которых такие системы существуют и работают. Для отражения этих особенностей сложных си- стем в их моделях в гл. 5 излагаются математический ап- парат теории вероятностей и математической статистики, методы экспериментального определения параметров мо- делей, основанные на регрессионном анализе и планирова- нии эксперимента. Как следует из рассмотрения общей структуры управ- ляемой системы, построение модели есть лишь подгото- вительный этап к процессу управления, общее описание которого и классификация решаемых задач дается в гл. 6. Здесь же приведены примеры использования уже рассмот- ренного математического аппарата для построения некото- рых видов моделей и необходимые понятия теории опти- мизации, являющиеся фундаментом решения многообраз- ных задач управления, рассматриваемых в последующих главах. В гл. 7 рассмотрено линейное и нелинейное програм-
мировавие, относящееся к области математики, разраба- тывающей теорию и численные методы решения задач на- хождения экстремума функций многих переменных при наличии ограничений, связывающих эти переменные. Если функции и ограничения являются линейными, то задача решается методами линейного программирования. В про- тивном случае задача относится к нелинейному програм- мированию. К задачам линейного и нелинейного програм- мирования относится широкий круг вопросов планирования экономических и технологических процессов, в котором ва- жен поиск наилучшего решения. В посвященной динамическому программированию гл. 8 рассматриваются методы нахождения последовательности оптимальных управлений в задачах, которые по своей при- роде являются многошаговыми или приводятся к таковым. В гл. 9 и 10 приведены методы принятия наилучших решений в условиях, когда лицо, принимающее решение, не может полностью контролировать ситуацию и управлять ею. Такое положение может сложиться в случае воздей- ствия на ситуацию активного противника, имеющего про- тивоположные интересы (теория игр), пли в случае недо- статочных знаний внешних условий, вызывающих неопре- деленности в описании ситуации (теория статистических решений). К этим задачам относятся задачи оценивания параметров сигналов и систем в условиях невозможности проведения точных измерений, а также задачи фильтрации сигналов в условиях помех. В гл. 11 рассмотрена группа задач, называемых зада- чами теории расписаний и массового обслуживания, с ко- торыми приходится сталкиваться при решении вопросов календарного планирования и оперативного управления как в промышленности, так и при обслуживании насе- ления. Все задачи доведены до алгоритмов, позволяющих про- водить вычисления на ЭВМ. Однако для лучшего поясне- ния вычислительной стороны рассмотренных методов ил- люстрирующие примеры взяты настолько простыми, что все вычисления можно проделать с карандашом и бумагой в руках. Излагаемые в книге положения расположены в поряд- ке нарастающей сложности и постепенности введения но- вых понятий, так что материал предыдущих глав является основой для изложения последующих. Предполагается, что читатель будет знакомиться с материалом книги последо- 5
вательно. Однако отдельные главы можно изучать и неза- висимо от других. В случае возникновения затруднений в связи с используемыми обозначениями и терминами сле- дует обратиться к указателю обозначений или к предмет- ному указателю. Учебное пособие для студентов вузов по специальности «Автоматика и телемеханика» может быть полезно студен- там других специальностей, имеющих соответствующие дисциплины в учебных планах. Автор благодарен рецензенту доктору техн, наук, проф. Л. Т. Кузину за ценные замечания, пособствующие улуч- шению содержания книги. Выражаю признательность всем, приславшим отзывы и пожелания после выхода в свет первого и второго издания учебного пособия. Все замечания по данному изданию сле- дует посылать по адресу: 113114, Москва, М-114, Шлюзо- иая паб., 10. Автор
УКАЗАТЕЛЬ ОБОЗНАЧЕНИЙ {...} — множество е — принадлежность множеству непринадлежность множеству = — символ включения cz — символ строгого включения U — объединение множеств П — пересечение множеств \ — разность множеств X — прямое произведение множеств X — дополнение множества X Xs —степень множества 0 — пустое множество / — универсальное множество R — множество вещественных чисел ЭД — система множеств sup М — верхняя граница множества М inf М — нижняя граница множества М Пр, М — проекция множества на ось i (Oi,..., ап) — упорядоченное множество (кортеж, вектор) Л—пустой кортеж V — квантор общности — эквивалентность по определению —>- — следствие, отображение f о g — композиция функций f и g по связке о = — символ отношения эквивалентности — символ отношения порядка < — символ отношения строгого порядка — символ отношения доминирования d(x, у) — расстояние между элементами множества ||х|| — норма величины х Еп — евклидово n-мерное пространство С (01 6) — пространство непрерывных функций х, у —векторы А, В — матрицы хт, Ат—транспонированный вектор и матрица
det A — определитель матрицы A Z — пространство исходов эксперимента z— исход эксперимента, случайная величина z—центрированная случайная величина i=l, п — перечисление i= 1,..., п p(z), zeZ— распределение вероятностей по пространству P(S), Ps — вероятность события p(z|S)—условное распределение вероятностей р(у, г) —совместное распределение вероятностей z, £(z), vz, f(z) —среднее значение о, (Уг — среднеквадратнческое отклонение о2, о2г — дисперсии w(z) — плотность вероятности f(z) — функция распределения вероятностей R(v, и) —равномерное распределение N(v, о2) — нормальное распределение ш(г, п, р) — биномиальное распределение ш(г, а) —распределение Пуассона С ” —число сочетаний из п по т и— управление & — состояние природы х — состояние системы Т(х, и)—преобразование состояния системы q(x, и), Q(x, и) — целевая функция Z(w), In (и)— критерий качества управления £, т] — смешанные стратегии Л) — функция потерь А — пространство решений а — решение, действие а* — байесовское действие — потери при байесовском действий d(z) — решающая функция р^, d) — функция риска р*(£) - байесовский риск ent х —целая часть числа х
Глава 1 ВВЕДЕНИЕ 1.1. ПРЕДМЕТ КИБЕРНЕТИКИ Кибернетика как наука появилась в первые годы после второй мировой войны и развивалась столь стремительно, что к настоящему времени завоевала прочные позиции во многих областях науки и техники. Своими успехами кибер- нетика обязана открытию ряда аналогий между функцио- нированием технических устройств, жизнедеятельностью организмов и развитием коллективов живых существ. Эти аналогии, вытекающие из общих рассуждений методологи- ческого характера, кибернетика подкрепила созданием ма- тематических методов, позволивших с количественной точ- ки зрения описывать процессы в системах самой разнооб- разной физической природы. Принципы кибернетики нахо- дят широкое применение в автоматике и телемеханике, теории связи, в экономике и социологии, в биологии и ме- дицине [1—6]. Само слово «кибернетика» греческого происхождения. Древние греки обозначали этим словом искусство управ- ления кораблем. В XVIII в. слово «кибернетика» встреча- ется у выдающегося французского физика и математика А. М. Ампера, который этим термином определил науку об управлении государством. В современном понимании под кибернетикой понимают науку об управлении в самом ши- роком- смысле этого слова. Современный смысл термина «кибернетика» связан с именем крупного американского математика Н. Винера, книга которого «Кибернетика или управление и связь в животном и машине», вышедшая в свет в 1948 г., положила начало формированию этой новой научной дисциплины. Возникновение кибернетики как науки об управлении неразрывно связано с общим техническим прогрессом, ха- рактеризующим развитие производительных сил в совре- менную эпоху. До появления кибернетики основные направления раз- вития техники характеризовались, во-первых, созданием
устройств, служащих для получения и преобразования энергии (например, паровые машины, турбины, генераторы электрической энергии, электрические и другие виды дви- гателей и т. п.), и, во-вторых, созданием устройств, слу- жащих для воздействия на окружающую природу. Основ- ное внимание в таких устройствах обращается на энерге- тические соотношения, и важнейшим показателем их ра- боты является коэффициент полезного действия. Сравни- тельная простота технических устройств не ставила проблему управления ими на особое место. Человек одно- временно работал и управлял объектом своей работы. Не- обходимую для управления информацию он получал не- посредственно от своих органов чувств, наблюдая за ре- зультатами работы. Однако прогресс техники в середине XX в. привел к созданию столь сложных технических систем, задачи уп- равления которыми стали превышать физиологические возможности человека. В конце второй мировой войны такой задачей явилась задача создания автоматической системы управления зенитным огнем, которая при скоро- стях самолетов, сравнимых со скоростью зенитного снаря- да, могла бы без участия человека следить за курсом са- молетов, осуществлять расчет их траекторий и наводку орудий. В подобных системах на первое место выдвига- ются задачи получения информации об окружающей обста- новке, обработки этой информации с целью извлечения из нее пригодных для управления данных и использования этой информации для осуществления целенаправленных действий, т. е. задачи создания устройств, служащих для связи и управления. Необходимость решения этих задач привела к быстрому прогрессу в области теории связи, вы- числительной техники и автоматики, что положило начало развитию тех идей, которые позднее явились фундаментом кибернетики. Устройства связи и управления существенно отлича- Ю1С.я от упоминавшихся выше технических устройств в том отношении, что энергетические соотношения в них не иг- рают существенной роли и основное внимание обращается на способность их передавать и перерабатывать без иска- жения боиыпне количества информации. Так, в линии ра- диосвязи лишь ничтожная доля энергии, излучаемой ан- тенной радиопередатчика, достигает приемника и КПД по- лучается чрезвычайно низким. Однако линия радиосвязи считается хорошей, если сообщения по ней передаются с 10
Таким образом,углавные. процессы в устройствах связи и управления — это процессы передачи, и переработки ин- формации, а не процессы, связанные с преобразованием и использованием энергии. Несущественность энергетических соотношений в зада- чах связй'и управления позволяет отвлечься от физических особенностей носителей информации и от физической при- воды систем, в которых эта информация используется. Поэтому кибернетика представляет собой общую теорию связи и управле- ния, применимую к любой системе не- зависимо от ее физической природы. Понятие системы, наряду с поня- тием управления, точный смысл кото- рого будет выяснен позднее, является фундаментальным понятием киберне- мп тикиУ Любая реально существующая ' бер<иетической,еР КИСи- система состоит из конкретных, объ- стемы ектов,'] в качестве .которых могут вы- ступать технические устройства, люди, управляющие этими устройствами, материальные ресурсы и т. Щ_Эти объекты связаны между собой и с ок- ружающим миром определенными связями,представля- ющими собой силы, потоки энергии, вещества’ и информа- ции. Однако кибернетика отвлекается от физического со- держания свойств объектов и связей и рассматривает реальную систему как абстрактное множество элементов, наделенных общими свойствами и находящихся друг с другом в некоторых отношениях, определяемых характе- ром существующих связей. Такое представление позволяет отказаться от привычного разделения систем на механи- ческие, электрические, химические, биологические и т. п. и ввести понятие абстрактной кибернетической системы как совокупности взаимосвязанных и воздействующих друг на друга элементов. На рис. 1.1 приведен пример кибернети- ческой системы, содержащей четыре элемента и шесть взаимных связей. Рассмотрение системы как совокупности элементов дает возможность привлечь для ее математического описания аппарат теории множеств, с изложения которого и начи- нается настоящая книга. При этом во многих случаях свя- зи между элементами удобно описываются и анализиру- ются методами теории графов, а для анализа взаимодей-
ствия элементов широко используются методы линейной алгебры. Встречающиеся на практике системы в зависимости от их структуры и характера связей делятся на детерминиро- ванные и вероятностные. Детерминированной называют систему, законы движения которой точно известны и буду- щее поведение которой можно предвидеть. Для вероятно- стной системы нельзя сделать точного предсказания ее бу- дущего' поведёния.'"'Примердм детерминированной системы может служить часовой механизм. Однако системы стати- стического контроля продукции, системы прибытия кораб- лей в морские порты или запас товаров на складе, имею- щем большое число поставщиков и потребителей, являются вероятностными системами. Задачи, которые решает кибернетика, приводят в боль- шинстве случаев к необходимости рассмотрения достаточ- но сложных вероятностных систем, которые состоят из большого числа элементов и имеют разнообразные и раз- ветвленные внутренние связи. Именно к таким системам относится большинство производственных систем, экономи- ческие, социальные и биологические. Для математического описания таких систем наряду с теорией множеств и ма- тематической логикой широко применяются аппарат теории вероятностей и методы математической статистики. Пока мы коснулись лишь математических методов, ис- пользуемых для описания кибернетических систем. Однако целью кибернетики является управление системами. Для суждения о путях решения этой задачи необходимо четко представить себе смысл термина «управление». В широком смысле слова под управлением понимают организационную деятельность," осуществляющую функции руководства чужой работой, направленной на достижение определенных целей. Процесс управления состоит в приня- тии решений о наиболее целесообразных действиях в той или иной сложившейся ситуации. Человек, осуществляю- щий управление, принимает решения, оценивая окружаю- щую обстановку с помощью информации, получаемой от своих органов чувств, измерительных приборов, других лиц. Во многих случаях этой информации оказывается не- достаточно для однозначной оценки обстановки. Тогда че- ловек использует свой опыт, свои знания, память, интуи- цию. Замечательным свойством человека является способ- ность принимать решения в условиях значительной неопределенности в отношении окружающей обстановки. 12
Однако в условиях современных крупных промышлен- ных предприятий знаний и интуиции даже у опытного ру- ководителя оказывается недостаточно, чтобы осуществлять эффективное управление. В результате возникают такие недостатки в работе крупных предприятий, как штурмов- щина, трудности с регулярным обеспечением сырьем и материалами без чрезмерного увеличения запасов, серьез- ные транспортные проблемы и т. п. Кибернетика ставит задачей облегчение человеку про- цесса принятия ответственных решений, возлагая на авто- матические устройства сбор и обработку больших коли- честв информации относительно состояния производствен- ного процесса, анализ сложившихся ситуаций и выработку рекомендаций относительно целесообразных действий. Ав- томатические устройства, осуществляющие совокупность таких операций, называются автоматизированными систе- мами управления (АСУ). В основу работы таких систем положены электронные цифровые вычислительные машины (ЭВМ). Роль ЭВМ в кибернетике настолько важна, что на этом вопросе следует остановиться подробней. Первоначально ЭВМ использовались для проведения традиционных рас- четов, которые раньше занимали много часов, а теперь ста- ли требовать секунд. Но стало очевидным, что огромное увеличение скорости вычислений содержит в себе качест- венно новые явления. Если раньше проектировщик или эко- номист из всего множества возможных вариантов решения какой-либо задачи мог проанализировать лишь некоторые, которые ему по каким-то причинам казались достойными внимания, то теперь открылась возможность сравнивать все возможные варианты и выбирать наилучший из них. Так появились идеи оптимизации, которые в дальнейшем привели к развитию ряда новых разделов математики. Далее оказалось, что ЭВМ, установленная на промыш- ленном предприятии, легко может справиться с обработ- кой больших количеств информации о ходе производствен- ного процесса и может стать незаменимым помощником человека при управлении производством. Однако для того, чтобы ЭВМ можно было применять для целей управления, должны быть разработаны матема- тические методы, позволяющие анализировать имеющиеся виды информации, отсеивать ненужную информацию и вы- делять наиболее существенную часть ее, использовать эту информацию для оценки сложившейся ситуации и выраба- 13
тывать рекомендации, обеспечивающие наиболее эффек- тивное выполнение целей управления. Необходимость ре- шения подобных задач -привела к появлению таких разде- лов математики, как теория информации, теория игр, теория статистических решений, теория массового обслу- живания, линейное и динамическое программирования и др. Часть этих новых математических методов будет рас- смотрена в настоящей книге. Другие методы рассматрива- ются в ряде специальных курсов. 1.2. ПЕРЕДАЧА И КОДИРОВАНИЕ ИНФОРМАЦИИ Связи между элементами какой-либо системы могут служить различным целям. По ним могут передаваться энергия, вещество, усилия и т. п. Однако в кибернетиче- ских системах нас интересует в первую очередь информа- ционное содержание связей, т. е. возможность использо- вания связей для передачи сведений о различных состоя- ниях элементов системы. Любое сведение о каком-либо событии, происходящем внутри системы или вне ее, в технике называют сообще- нием. Информационные связи, служащие для передачи сообщений, называют каналами связи. Физические носите- ли информации в каналах связи называют сигналами. На рис. 1.2 приведена структура канала связи. Слово «сигнал» происходит от латинского слова sig- num, т. е. знак, и означает условные электрические, зву- ковые, зрительные или иной природы знаки, служащие для передачи сообщений. Вид сигналов является, как правило, результатом соглашения между лицом, передающим ин- формацию, и лицом, принимающим ее, и не имеет непо- средственного отношения к содержанию передаваемой информации. Поэтому сигналы могут легко преобразовы- ваться из одного вида в другой, не изменяя содержания информации, а также могут храниться (например, в фор- ме буквенной записи) для использования содержащейся в них информации в будущем. В качестве примера рассмотрим вид сигналов, исполь- зуемых при передаче телеграммы. Первоначальное сооб- щение, отпечатанное на телеграфном бланке, преобразовы- вается в форму кода Морзе, состоящего из точек и тире, которые передаются по линии связи в виде длинных и ко- ротких импульсов тока. На приемной стороне по принятым импульсам восстанавливается первоначальный текст сооб- 14
щения. Как видим, сообщение здесь существует в виде сигналов различной формы: буквенного текста, точек и ти- ре кода Морзе, импульсов тока в линии связи и т. п. Пре- образование сигнала из одной формы в другую называют кодированием. Способ осуществления связи может быть представлен следующим образом. Прежде всего должен существовать набор символов — букв, слов, точек, тире и т. п., имеющих смысл, известный как для отправителя, так и для получа- Передаваемое ПЙере даваемый — «г.------ । сигнал Пере-1 датчик I сообщение | 1 Источник Ij информации р| Линия связи Принимаемый Принимаемое сигнал | сообщение Прием- U Получатель ник I || информации | Рис 1.2. Структура канала связи теля сообщения. Набор этих символов называют алфави- том. Сами символы устанавливаются по соглашению сто- рон. В основе теории связи лежит положение о том, что составляющие алфавит символы не могут быть бесконеч- но разнообразны. Поэтому для передачи всевозможных сообщений используется ограниченное число различных символов. Так, всевозможные буквенные сообщения состав- ляются на русском языке с помощью алфавита из 33 букв. В процессе передачи отправитель выбирает из имеюще- гося алфавита один символ за другим, преобразует их в соответствующие сигналы и передает по каналу связи. В канале связи сигналы подвергаются действию помех, что вызывает их искажение. Таким образом, сигналы на приемной стороне будут отличаться от сигналов, посылае- мых в канал связи. Процесс приема состоит в том, что получатель, получив какой-либо сигнал, должен отождествить его с одним из имеющихся символов алфавита, т. е. должен исключить все символы, кроме одного. Эта задача может представлять значительные трудности, если в канале связи сигналы подвергаются большим искажениям. Методы преодоления этих трудностей составляют существо теории связи. В технических системах связи используются различно- го вида алфавиты. Однако по ряду причин весьма широ- 15
кое применение находит двоичный алфавит, состоящий из двух символов, условно обозначаемых 0 и 1. В двоичном алфавите любое сообщение будет представлять собой по- следовательность нулей и единиц, например 100110100. Легко подсчитать, что общее число сообщений, состоя- щих из пг букв двоичного алфавита, будет равно 2т. В частности, любая буква русского алфавита может быть представлена шестью знаками двоичного алфавита, напри- мер, а —000001, б —000010, в — 000011 и т. д. Так как шесть двоичных знаков дают 26=64 различных комбина- ций символов, то с их помощью можно представить не только все буквы алфавита, но и знаки препинания. Сле- довательно, с помощью двоичного алфавита может быть представлено и передано по каналу связи любое буквен- ное сообщение. Двоичный алфавит может использоваться и для пере- дачи числовых данных, однако при этом необходима неко- торая специальная система счисления. В распространенной десятичной системе счисления раз- личные числа записываются с помощью десяти цифр (0, 1,...,9), расположенных в определенном порядке и имею- щих значения, зависящие от местоположения каждой циф- ры. Так, запись 395 означает число, определяемое соотно- шением 3-102+9-104-5-Ю°. Здесь число 10 называется основанием системы счисле- ния. Любое число М может быть аналогичным образом за- писано в системе счисления с любым другим основанием R (целое число) с помощью различных цифр, число которых равно основанию системы счисления. При этом запись ... dididido, где dt — цифры числа N (0^dt<R), опреде- ляет величину N^...d3R3+d2R2+dlR'+d0R°. (1.1) Так, в восьмеричной системе счисления, находящей при- менение в некоторых видах ЭВМ, число 395 будет иметь представление 6-82 + 1-81 + 3-8°, т. е. запишется в виде числа 613. При использовании двоичного алфавита запись числа должна производиться только с помощью цифр 0 и 1. При- годной для такой записи является двоичная система счис- 16
ления, основанием которой служит число 2. Любое число от 0 до 15 может быть представлено в двоичной системе счисления с помощью четырехразрядного числа: з=о-23+о-22+1-2'+1-2°, т. е. ооп; 5=o-23+i-22+o-2|+i-2°, т. е. oioi; 9=1 •23+ 0-22+0-21 + 1 -2°, т. е. 1001. Естественно, что нули в высших разрядах этих чисел писать необязательно, т. е. числа 3 и 5 можно записывать в виде 11 и 101. Число 395, представляемое через основа- ние 2: 395=28+27+23+2‘+2°, будет в двоичной системе счисления записано девятираз- рядным числом 110001011. Запись больших чисел в двоичной системе счисления имеет то неудобство, что требует большого числа разря- дов, что затрудняет чтение чисел и быструю оценку их величины. Поэтому часто применяют смешанные системы счисления, например десятично-двоичную, в которой само число записывается в десятичной системе счисления, а цифры отдельных его разрядов — в двоичной системе счисления с использованием четырех двоичных разрядов на десятичную цифру. Так, число 395 в десятично-двоичной системе счисления имеет вид: ООН 1001 0101 " "V '~5~ Однако двоично-десятичная форма записи чисел требу- ет большего числа двоичных разрядов, чем двоичная, т. е. является менее экономной. Поэтому широкое применение нашла двоично-восьмеричная система счисления. Рассмот- ренное десятичное число 395 в восьмеричной системе счис- ления представится как 613 (см. задачу 1.3). Если цифры этого числа записать в двоичной системе счисления, ис- пользуя три двоичных разряда на цифру, то получаем за- пись числа 395 в двоичной системе счисления: 17
1.3. ПОНЯТИЕ ОБ УПРАВЛЯЕМОЙ СИСТЕМЕ Приведенное выше определение понятия управления допускает весьма широкое толкование. Управлять можно лошадью, автомобилем, самолетом, токарным станком, це- хом, отделом, промышленным предприятием, отраслью промышленности, государством Управлять можно не толь- ко различными машинами и механизмами, но и процесса- ми. А эти процессы обеспечивают люди. Следовательно, нужно управлять людьми, их производственной или какой- Управление | Канал А ОУ Состояние ОУ Канал В I Алгоритм | управления Модель ОУ Цель управления и критерий УУ (g- Рис. 1.3. Структура процесса управления либо иной деятельностью. Сам процесс управления может осуществляться или человеком, или автоматическим уст- ройством. В сложных случаях для решения ряда задач управления используют ЭВМ. Хотя задачи, возникающие при управлении объектами, весьма разнообразны, всем им можно дать компактное описание в виде общей структуры процесса управления. На рис. 1.3 (в качестве примера используем процесс управления автомобилем) элементы процесса управления изображены прямоугольниками, а связи между элемента- ми-стрелками. Эта структура является общей для любо- го процесса управления независимо от того, осуществля- ется ли он человеком или автоматическим устройством. Для ведения процесса управления прежде всего необ- ходимо устройство или процесс, которым нужно управ- лять, — объект управления ОУ (автомобиль). Необходим также человек или автоматическое устройство, которое осуществляет управление, — устройство управления УУ (водитель). Элементы ОУ и УУ связаны между собой каналами А и В. Канал А осуществляет прямую связь от УУ к ОУ и представляет собой совокупность технических средств, с помощью которых УУ может воздействовать на ОУ и из- 18
менять характер его движения (руль, тормоза, рычаг пе- реключения скоростей и т. п.). От технического совершен- ства этих средств зависит простота, гибкость и надежность управления. По каналу В осуществляется обратная связь (органы чувств человека—зрение, слух, а также показания уста- новленных на панели приборов), которая служит для пе- редачи УУ информации о состоянии ОУ. От полноты и достоверности информации, передаваемой по этому кана- лу, в значительной степени зависит качество управления. В некоторых случаях управление может осуществляться и без обратной связи. Однако такие системы управления бывают весьма негибкими и малоэффективными. Цель управления определяет состояние объекта или характер его движения, которые должны быть достигнуты в процессе управления. Для суждения о степени достиже- ния цели служит критерий который иногда _ называют критерием управления. Слово «алгоритм» означает точное предписание о вы- полнении в^некотором порядке некоторых действий или операций, приводящих к желаемому результату. Алгоритм управления (свод правил дорожного движения)—это предписание о том, как должны, быть использованы техни- ческие средства прямого канала в.зависимости от цели и от сложившейся ситуации, информация о которой поступа- ет по каналу обратной связи. Под моделью ОУ понимают совокупность свойств ОУ, знанием которых располагает УУ. Чем полнее эти знания, тем лучше может осуществляться процесс управления. Од- нако весьма часто эти знания недостаточны. В этом случае недостающие свойства приходится выяснять непосредст- венно в процессе управления (адаптивное управление) или действовать методом проб и ошибок. В задачах управления под моделью понимают матема- тическое описание'свойств ОУ, называемое математической моделью и выражаемое обычно в виде систем алгебраиче- ских или дифференциальных уравнений. Решая эти урав- нения, можно установить, как будет вести себя ОУ при тех или иных воздействиях на его входе, и, следовательно, выбрать наилучший способ управления. В качестве примера системы автоматического управления рассмот- рим систему стабилизации скорости паровой машины, изображенной на рис 1 4 Объектом управления здесь является паровая машина, часто- та вращения вала которой изменяется положением заслонки 3, регу- 19
лирующей доступ пара в машину. В качестве УУ использован центро- бежный регулятор, положение шаров и муфты 1 которого зависят от частоты вращения вала паровой машины. Предположим, что в системе имеет место равновесие, т. е. положе- ние шаров центробежного регулятора и заслонки таково, что частота вращения вала <о равна требуемому значению <оо- Однако это равно- весие под влиянием различных внешних причин (изменение давления пара, изменение нагрузки на валу паровой машины и т. п.) может нарушиться. Легко видеть, что при нарушении равновесия система Рис. 1 4. Стабилизация скорости паровой машины автоматически будет стремиться восстановить равновесное состоиние. Так, если частота вращения вала увеличилась и стала больше <о0, то шары центробежного регулятора разойдутся, муфта 1 поднимете? вверх и через рычаг 2 опустит заслонку 3 вниз, уменьшая тем самым доступ пара в паровую машину. При этом частота вращения вала паровой машины уменьшится, приближаясь к <о0. Аналогичная картина произойдет и при уменьшении частоты ниже <о0- Математическую модель системы можно получить из следующих соображений. Как мы видим, система приходит в действие при откло- нении частоты вращения вала паровой машины <о от требуемого зна- чения <оо, что означает отличие от нуля ошибки системы e-=(i),—со. (1.2) Чтобы не усложнять дальнейших рассуждений, пренебрежем инер- ционностью входящих в систему элементов и будем считать смещение муфты регулятора h, а следовательно, и положение заслонки т| про- порциональными ошибке е il=^ie, (13) а изменение <о пропорциональным положению заслонки г] <о=М (14) 20
Полученная система уравнений представляет собой математическую модель системы. Для ее наглядного представления часто используют схемы, на которых элементы заменены на их математические описа- ния и указаны связи между элементами. Схема рассматриваемой си- стемы приведена на рис. 1 5. Математическая модель позволяет заранее исследовать свойства системы и наметить пути ее наилучшей реализации. Так, важнейшим свойством системы стабилизации скорости является ее точность, опре- деляемая значением ошибки е. ностью, да к ним такие требова- ния и не предъявлялись. Однако рис. 15. Схема системы стаби- когда развитие промышленности лнзацин скорости потребовало увеличения точности, то конструкторы столкнулись с серьезными трудностями, не зная, как решить эту задачу. На помощь пришла математическая модель, ко- торая позволила связать ошибку с конструктивными параметрами си- стемы Подставив (1.3) в (1.4), получим a>=K\K2e=ke, где k=K\K.2 — коэффициент усиления системы. Подставляя <о в (1.2), находим е=<Оо—ke,, откуда е=<Оо/(1-Ь^)- (15) Как видим, ошибка рассмотренной системы не может стать равной нулю и при малых k будет значительна. С этим и столкнулись кон- структоры первых стабилизаторов частоты вращения. ходкого процесса прн увеличении коэффициента усиления Однако чрезмерное увеличение коэффициента усиления с целью повышения точности системы приводит к другим нежелательным по- следствиям, связанным с характером переходных процессов в системе. На рис. 1.6 приведен характер приближения частоты вращения к зна- чению <оо с течением времени при различных значениях коэффициента усиления k: малом (/), большом (2) и очень большом (3). Как видим, прн большом k процессы в системе приобретают колебательный харак- тер и система становится неустойчивой. Это свойство также вытекает из математической модели, если в ней учесть инерционность элементов. 21
Разрешение противоречия между требованием высокой точности и устойчивости систем управления является предметом изучения научной дисциплины «Теория автоматического управления». Конечно системы, подобные рассмотренным в примере, достаточно просты и для анализа их работы нет необходи- мости привлекать методы кибернетики. Однако специалис- ту по автоматике в своей практической деятельности при- ходится сталкиваться с весьма сложными системами управления, для анализа которых и предназначен рассмат- риваемый в книге математический аппарат. 1.4. СЛОЖНЫЕ СИСТЕМЫ Необычайные быстрые темпы развития науки и техни- ки за последние десятилетия, сопровождающиеся резким увеличением числа ученых и специалистов, быстротой и многообразием появления новых научных идей, значитель- ным сокращением сроков воплощения этих идей в конкрет- ные технические устройства, системы и процессы, привели не только к совершенствованию, но и к значительному усложнению всех областей человеческой деятельности. Промышленные предприятия, энергетические системы, си- стемы связи, системы транспорта, системы противовоздуш- ной обороны и другие становятся настолько сложными, что для их описания пришлось ввести специальный термин «сложные» или «большие» системы [8, 69]. Термин «большие» подчеркивает не только и не столь- ко физические "размеры" систем, сколько разнообразие компонентов, составляющих эти системы, функций, выпол- няемых каждым из компонентов, связей между компонен- тами и внешних условий, оказывающих влияние на работу всех частей такой системы., В то же время большая систе- ма представляет собой не просто собрание отдельных час- тей, а некоторую целостность, определяемую наличием у всей системы единого целевого назначения. Так, совре- менное крупное промышленное предприятие включает в себя целый ряд производств и объединяет в единое це- лое сами эти производства, склады, транспорт, органы снабжения, контроля и управления, образующие в сово- купности большую систему. Обеспечить слаженную работу всех частей большой системы невозможно на основе использования старых ме- тодов управления. Такие системы требуют коренного из- менения привычных форм и методов работы. В основе- 22
управления большими системами лежит автоматизация, использующая самым широким образом новейшие дости- жения науки и техники и, в первую очередь, достижения кибернетики и электронно-вычислительную технику. На современном этапе развития основная роль в авто- матизации крупных промышленных предприятий отводит- ся автоматизированным системам управления (АСУ). Создание АСУ означает, что с помощью средств автома- тики и вычислительной техники предстоит автоматизиро- вать, по существу, все виды производственной деятельно- сти. Основным^направлениями автоматизации являются: автоматизация управления технологическими процессами в самых различных отраслях (АСУТП); автоматизация оперативного управления; создание гибких автоматизиро- ванных производств (ГАП); автоматизация администра- тивно-организационной деятельности (АСУП); автоматиза- ция систем массового обслуживания; автоматизация про- ёктн“о~конструкторских работ (САПР); автоматизация научных исследований (АСНИ). Задачи к гл. 1 Рис. 1.7. Системы с последо- вательными связями (а) и иерархической структурой (б) 1.1. Система состоит из семи элементов, каждый из которых свя- зан со всеми другими связями простейшего вида, имеющими только два состояния: «связь есть» и «связи нет» Каково возможное число состояний такой системы? Если нам нужно путем эксперимента выделить все состояния, обладающие свойст- вом Р, и на исследование одного со- стояния требуется 1 с, то какое время потребуется на исследование все.г возможных состояний? 1.2. Насколько уменьшится чис- ло возможных состояний системы в задаче 1.1, если имеются только постедосательные направленные свя- зи (рис. 1 7,а) или система имеет иерархическую структуру (рис. 1.7,6)? Приведите примеры систем, имеющих структуры обоих типов. 1.3. Полином (1.1), служащий для представления числа в системе счисления с основанием R, может быть записан в форме ={[(... d3) R + d2] R + dJtf + do, (16) 23
что равносильно последовательности формул A/=W1/?-|-do>JVl = №/?+</., Л^2==Л^з/?-|-£/2 ... Обосновать с помощью этих формул следующее правило перевода числа 395 из десятичной формы в восьмеричную: 395 8 = 49 остаток 3 или коро ie 395 49.8 = 6 остаток 1 49 3 6 8 = 0 остаток 6, 6 1 О 6 , что дает восьмеричное число 613. Как сформулировать правило для перевода числа из десятичной формы в двоичную? 1.4. Запишите в двоичной, восьмеричной и шестнацатеричной си- стемах счисления следующие числа (даны в десятичной системе счис- лении) : 27, 467, 519, 1 263. Примечание. Для цифр от 10 до 15 шестнадцатеричной систе- мы счисления использовать буквы латинского алфавита a, b, с, d, е, f. 1.5. Числа задачи 1.4 запишите в десятично-двоичной и в восьме- рично-двоичной системах счисления. Сколько двоичных разрядов при- шлось использовать для записи одной восьмеричной цифры? Какая из этих двух систем записи чисел более экономична с точки зрения числа используемых двоичных цифр? 1.6. Имеют ли следующие системы управления уличным движением цепь обратной связи: 1) с помощью светофора, зажигающего поочеред- но па заранее обусловленное время красный, желтый и зеленый свет? 2) с помощью регулировщика? Глава 2 ОСНОВНЫЕ ПОНЯТИЯ ТЕОРИИ МНОЖЕСТВ 2.1. КОНЕЧНЫЕ И БЕСКОНЕЧНЫЕ МНОЖЕСТВА 2.1.1. Основные определения Понятие множества является фундаментальным неопре- деляемым понятием. Интуитивно под множеством будем понимать совокупность определенных вполне различаемых объектов, рассматриваемых как единое целое. 24
Можно говорить о множестве стульев в комнате, людей, живущих в г. Рязани, студентов в группе, о множестве натуральных чисел, букв в алфавите, состояний системы и т. п. При этом о множестве можно вести речь только тогда, когда элементы множества различимы между собой. Например, нельзя говорить о множестве капель в стакане воды, так как невозможно четко и ясно указать каждую отдельную каплю. Отдельные объекты, из которых состоит множество, называют элементами множества. Так, число 3 —элемент множества натуральных чисел, а буква б —элемент мно- жества букв русского алфавита. Общим обозначением множества служит пара фигур- ных скобок { }, внутри которых перечисляются элементы множества. Для обозначения конкретных множеств исполь- зуют различные прописные буквы A, S, X... или пропис- ные буквы с индексами Ль А2. Для обозначения элементов множества в общем виде используют различные строчные буквы a, s, х... или строчные буквы с индексами а2... Для указания того, что некоторый элемент а является элементом множества S, используется символ е принад- лежности множеству. Запись aeS означает, что элемент а принадлежит множеству S, а запись x^S означает, что элемент х не принадлежит множеству S. Записью хь х2,... ...,rneS пользуются в качестве сокращения для записи Xi^S, x2<=S,..., xn^S. Множества бывают конечными и бесконечными. Мно- жество называют конечным, если число его элементов ко- нечно, т. е. если существует натуральное число N, являю- щееся числом элементов множества. Множество называют бесконечным, если оно содержит бесконечное число эле- ментов. Для того, чтобы оперировать с конкретными множест- вами, нужно уметь их задавать. Существуют два способа задания множеств: перечисление и описание. Задание мно- жества способом перечисления соответствует перечислению всех элементов, составляющих множество. Так, множество отличников группы можно задать, перечислив студентов, которые учатся на отлично, например {Иванов, Петров, Сидоров}. Для сокращения записи X={xlt х2,...,хп} иногда пишут Х={хг}}п или вводят множество индексов /={1, 2,...,/г} и пишут X={xI}, te/. Такой способ удобен при рассмотрении конечных множеств, содержащих не- большое число элементов, но иногда он может применяться 25
и для задания бесконечных множеств, например {2, 4, 6, 8...}. Естественно, что такая запись применима, если вполне ясно, что понимается под многоточием. Описательный способ задания множества состоит в том, что указывается характерное свойство, которым обладают все элементы множества. Так, если М — множество сту- дентов группы, то множество А отличников этой группы запишется в виде A = {x*=M\x— отличник группы}, что читается следующим образом: множество А состоит из элементов х множества М, обладающих тем свойством, что х является отличником группы. В тех случаях, когда не вызывает сомнений, из какого множества берутся элементы х, указание о принадлежно- сти х множеству М можно не делать. При этом множест- во А запишется в виде Л = {х|х— отличник группы}. Приведем несколько примеров задания множеств мето- дом описания: (х|х — четное} — множество четных чисел; {х|х2—1=0} — множество {+1, —1}. Пусть С — множество целых чисел. Тогда {хеС|0< <х=С7} есть множество {1, 2, 3, 4, 5, 6, 7}. Важным понятием теории множеств является понятие пустого множества. Пустым множеством называют мно- жество, не содержащее ни одного элемента. Пустое мно- жество обозначается 0, например: {хеС|х2-х+1=О}=0. Понятие пустого множества играет очень важную роль при задании множеств с помощью описания. Так, без по- нятия пустого множества мы не могли бы говорить о мно- жестве отличников группы или о множестве вещественных корней квадратного уравнения, не убедившись предвари- тельно, есть ли вообще в данной группе отличники или имеет ли данное уравнение вещественные корни. Введение пустого множества позволяет совершенно спокойно опери- ровать с множеством отличников группы, не заботясь о том, есть или нет в рассматриваемой группе отличники. 26
Пустое множество будем условно относить к конечным множествам. Рассмотрим теперь вопрос о равенстве множеств. Два множества_н.аз_ываются равными, если они состоят из од- них и тех же элементов, т. е. представляют собой одно и то же множество. Множества X и У не равны (Х^=У), если либо в множестве X есть элементы, не принадлежа- щие У, либо в множество У есть элементы, не принадле- жащие X. Символ равенства множеств обладает свойст- вами: Х=Х — рефлексивность; если Х=У, то У=Х — симметричность; если Х=У и У=7, то X=Z — транзитивность. Из определения равенства множеств вытекает, что по- рядок элементов в множестве несуществен. Так, например, множества {3, 4, 5, 6} и {4, 5, 6, 3} представляют собой одно и то же множество. Из определения множества следует, что в нем не долж- но быть неразличимых элементов. Поэтому в множестве не может быть одинаковых элементов. Запись {2, 2, 3, 5} следует рассматривать как некорректную и заменить ее на {2, 3, 5}. Так, множество простых делителей числа 60 рав- но {2, 3, 5}. 2.1.2. Понятие подмножестве Множество X является подмножеством множества У, если любой элемент множества X принадлежит и множе- ству У. Пусть У — множество студентов группы, а X — множество отличников той же группы. Так как каждый отличник группы является в то же время студентом этой группы, то множество X является подмножеством множе- ства У. Многие определения теории множеств удобно давать в виде математических выражений, содержащих некоторые логические символы. Для определения подмножества ис- пользуем два таких символа. V — символ, называемый квантором и означающий лю- бой, каков бы ни был, «для всех»; —символ следствия (импликации), означающий «влечет за собой». Определение подмножества, которое может быть сфор- мулировано в виде: для любого х утверждение «х принад- 27
лежит X» влечет за собой утверждение «х принадлежит У», запишется так: ¥х[хе=Х->хе=У]. (2.1) Более краткой записью выражения «X является под- множеством У» будет запись Xs У, (2.2) что читается как «У содержит X». Используемый здесь символ s означает включение. Если желают подчеркнуть, что У содержит и другие элементы, кроме элементов из X, то используют символ строгого включения Хс=У. (2.3) Связь между символами с: и S дается выражением X<=Y+±X<=Y и ХУ=У. ; ' (2.4) Здесь использован знак означающий эквивалентность (в смысле «то же самое, что»). Отметим некоторые свойства подмножества, вытекаю- щие из его определения: XsX (рефлексивность); [XsУ и ysZ]-->XsZ (транзитивность). Несколько труднее видеть, что для любого множест- ва М 0<=М. (2.5) Действительно, пустое множество 0 не содержит эле- ментов.^Следовательно, добавляя к М пустое множество, мы фактически ничего не добавляем. Поэтому всегда мож- но считать, что любое множество М содержит в себе пус- тое множество в качестве подмножества. 2.1.3. Взаимно однозначное соответствие между множествами Иногда бывает необходимо сопоставлять друг с другом элементы некоторых множеств. Рассмотрим, например, два множества: стадо из четырех овец и рощу из четырех деревьев. Эти множества находятся между собой в таком отношении, в каком ни одно из них не находится с кучей из трех камней или с рощей из семи деревьев. Их можно 28
попарно сопоставить друг с другом, привязав овец к де- ревьям, так что каждая овца и каждое дерево будут в точ- ности принадлежать одной и той же паре. Такое попарное соответствие между элементами двух множеств называется взаимно однозначным соответствием. Пусть X и У два конечных множества: т- и /г-элемент- ные. Между ними можно установить взаимно однозначное соответствие только в том случае, если т=п. Сколько же существует таких взаимно однозначных соответствий для двух n-элементных множеств X и У? Первый элемент множества X может быть сопоставлен с любым из п эле- ментов множества У. Для каждого такого сопоставления второй элемент множества X может быть сопоставлен с любым из оставшихся п—1 элементов множества У и т. д. После того, как такое сопоставление проведено для п—1 элементов множества X, последний элемент этого множества будет сопоставляться с единственным остав- шимся элементом множества У. Таким образом, общее число взаимно однозначных соответствий для п-элементных множеств будет п(п—1) ... 1 = п\ । Задача. Определить число й-элементных подмножеств n-элементного множества М. Приведем множество М во взаимно однозначное соот- ветствие с множеством натуральных чисел Число таких соответствий равно п!. Беря первые k элемен- тов каждого соответствия, получим п\ интересующих нас подмножеств множества М. Однако среди них будут и одинаковые, которые нужно учесть только один раз. Пусть первые k элементов некоторого соответствия об- разуют множество М/. То же самое множество обра- зуют первые k элементов во всех соответствиях, отличаю- щихся от данного или порядком первых k элементов, т. е. k\ соответствий, или порядком последних п—k элементов, т. е. (п—k) \ соответствий. Следовательно, общее число со- ответствий, образующих й-элементное подмножество Mk', равно й! (п—й)!. Такое же число соответствий из общего числа п\ соответствий будет образовывать любое другое й-элементное подмножество множества М. Поэтому общее число й-элементных подмножеств множества М будет п\______q к = ! п\ k\(n—k)\ ~ п \ k )’ т. е. равно числу сочетаний из п элементов по й. 29
Теперь не представляет труда определить общее число L всевозможных подмножеств n-элементного множества М. Это число ’ L = V С/ = 2П. А=0 При этом числа Crt°=l и Спп—1 определяют пустое множество 0 и само множество М. Множества 0 и М на- зывают несобственными подмножествами множества М. Все остальные подмножества называют собственными под- множествами множества М 2.1.4. Счетные и несчетные множества Если множества являются бесконечными, то установление между ними взаимно однозначного соответствия наталкивается на трудности, связанные с необходимостью оперировать с бесконечно большим чис- лом элементов множества За основу для сопоставления бесконечных множеств принято брать натуральный ряд чисел N: 1,2......п ... Если бесконечное множество оказывается возможным привести во взаимно однозначное соответствие с натуральным рядом чисел, то та- кое множество называют счетным. Следует отметить, что не все бес- конечные множества являются счетными. Если бесконечное множество невозможно привести во взаимно однозначное соответствие с натуральным рядом чисел, то его называют несчетным. В качестве примера бесконечного множе- ства рассмотрим множество равносторонних треугольников, в которых вершинами каждого треугольника являются середины сторон уже построенного треугольника (рис. 2.1). Это бесконечное множество равносторонних тре- угольников можно привести во взаимно одно- значное соответствие с натуральным рядом Рис. 2.1. Бесконечное множество равносто- ронних треугольников чисел, расположив их в порядке уменьшения длин сторон, т. е. в виде последовательности Т\. Тг, ..., Тп ... Следова- тельно, рассмотренное бесконечное множество равносторонних треуголь- ников является счетным. Однако существует бесконечное множество дру- гих равносторонних треугольников, не входящих в рассмотренное мно- жество Вопрос о том, является ли счетным множество всех равносто- ронних треугольников или всех треугольников вообще, требует допол- нительного исследования. 30
Приведем несколько примеров счетных множеств. 1. Множество квадратов целых чисел 1, 4, 9, пг ... представ- ляет собой лишь подмножество множества натуральных чисел N. Одна- ко множество является счетным, так как приводится во взаимно одно- значные соответствия с натуральным рядом путем приписывания каждому элементу номера того числа натурального ряда, квадратом которого он является. 2 Счетным является множество С всех целых чисел — положи- тельных и отрицательных, хотя натуральный ряд представляет собой лишь подмножество этого множества. Это можно установить, рассмот- рев взаимно однозначное соответствие N: 1 2 3 4 5 6 7 ... С: 0 1 —1 2 —2 3 —3 ..., из которого следует, что ( п/2 при четных и, С” 1 —(и —1)/2 при нечетных п. 3. Еще более удивителен тот факт, что счетным оказывается мно- жество всех рациональных чисел, т. е. чисел, которые могут быть представлены в виде дроби r=qjp, где q и р— любые целые числа. Для того, чтобы убедиться в этом, представим все множество рацио- нальных чисел в виде следующей таблицы, в которую, естественно, заносим несократимые дроби: Обход^ таблицу по направлению стрелок, приходим к последова- тельности 11 2 3 2 11 2 3 4 1, 2,—, —, —, 3, 4, —, —, —, —, —, —, —. ., 2 3’3 2 5 4 5 7 4 3 позволяющей занумеровать все эти числа. Из приведенных примеров видно одно из замечательных свойств бесконечных множеств — возможность приведения во взаимно одно- значное соответствие бесконечного множества с его бесконечным же 31
подмножеством, которое не имеет места в случае конечных множеств. Существование несчетных множеств следует из теоремы, доказан- ной немецким математиком Г. Кантором в 1874 г. Теорема 2.1. Множество всех действительных чисел интервала 0< <х<1 несчетно. Заметим, что любое число рассматриваемого интервала представ- ляет собой конечную или Рнс. 2.2. Взаимно одно- значное соответствие между интервалами (0, 1] н (а, 6] бесконечную десятичную дробь вида О, .. и может быть представ- лено точкой отрезка вещественной осн. Следовательно, теорема утверждает, что множество точек отрезка (0, 1] не- счетно. Доказательство. Для доказа- тельства предположим, что последова- тельность xi, Х2, Хз, Х4 . представляет собой бесконечный перечень действи- тельных чисел, принадлежащих этому интервалу. Вопрос состоит в том, может или не может подобный перечень содер- жать все числа этого интервала, т е. нельзя ли найти число, которое принад- лежит этому интервалу, но конечно не входит в указанный пере- чень чисел. Для того, чтобы найти такое число, запишем все входящие в перечень десятичные дроби одну под другой. О, Л77 Л72 a.J3 • • • О, агз ••° О, a.3i а-32 'азз аз^ • • ® о, а4 7 ^2 ан3 • • ©се* Образуем диагональную дробь, указанную стрелками, н заменим в ней каждую из последовательных цифр апп на отличную от нее цифру а'пп так, чтобы при этом не получилась конечная дробь. Полу- ченная дробь 0, а'па'ца'зза'ц ... представляет собой действительное число, принадлежащее нашему интервалу, ио не входящее в рассматри- ваемый перечень. Действительно, эта дробь отличается от первой из данных дробей своей первой цифрой после запятой, от второй — своей второй цифрой после запятой, от третьей — третьей цифрой после за- пятой и т. д. Необычные свойства несчетных множеств проявляются в том, что 32
рассмотренный интервал (0, 1] ^ожет быть приведен во взаимно одно- значное соответствие с любым другим интервалом (а, 6]. Такое взанм ио однозначное соответствие можно осуществить с помощью централь- ной проекции (рнс. 2.2). Таким образом, несчетным является множе- ство всех действительных чисел любого интервала (а, 6]. 2.1.5. Верхняя и нижняя границы множества Имея дело с множеством вещественных чисел, можно сравнивать элементы этого множества по их значению и, в частности, находить наибольший и наименьший элемен- ты множества. Для конечных множеств, заданных пере- числением, эта задача не представляет труда. Так, для множества Т={4, 3, 5, 6} имеем тахТ=6, ттТ=3. Од- нако если множество задано описательным способом, на- пример указано лишь правило вычисления числовых зна- чений его элементов, то задача определения наибольшего и наименьшего элементов становится весьма троной. Не- сколько более легкой задачей является нахождение лишь области, внутри которой лежат все элементы множества. При решении этой задачи очень полезными являются по- нятия верхней и нижней границ множества. Пусть S — множество вещественных чисел. Верхней границей S является число С такое, что для любого x^S имеет место х^С. Чисел, которые могут рассматриваться в качестве верхней границы множества, может быть беско' нечно много, а может и не быть вообще. Так в множестве m<S<M любое С^М является верхней границей. Мно- жество всех целых чисел не имеет верхней границы. Точной верхней границей или супремумом множества S, обозначаемой supS, называют верхнюю границу, которая не превосходит любую другую верхнюю границу. В при- веденном выше примере supS=M. Множество может иметь только одну точную верхнюю границу, так как если Ci и С2— две такие границы, то С^С2 и C2^.Ci и, сле- довательно, Ci—C2. Нижней границей множества S является число с такое, что для любого xeS имеет место х^с. Точной нижней границей или инфинумом множества S, обозначаемой inf S, называют нижнюю границу, не меньшую любой другой нижней границы. В приводимом примере inf S=m. Теорема 2.2. (теорема о верхней и нижней границах подмножества). Если В^А, то inf B>inf Д; sup Вsup А. (2.6) 3-804 ’' - . . 33
Доказательство. Обозначим через Ь' элемент мно- жества В, имеющий наименьшее значение, т. е. Ь'<=В и 6'=inf В. Но В^А, т. е. 6'еА. Пусть а' — элемент мно- жества А, имеющий наименьшее значение, т. е. а'^А и a'=infA. При этом если Ь'—а', то b'=infA, если Ь'=£а', то 6'><z'=infA. Таким образом, 6'^inf А или infB^ >inf А. Вторая часть теоремы доказывается аналогично. 2.2. ОПЕРАЦИИ НАД МНОЖЕСТВАМИ 2.2.1. Предварительные замечания Над множествами можно производить действия, кото- рые во многом напоминают действия сложения и умноже- ния в элементарной алгебре. Чтобы лучше разобраться в действиях над множествами, необходимо вспомнить за- коны, существующие в элементарной алгебре. Пусть а и b — некоторые числа, а-{-Ь — их сумма и ab — их произведение. Сумма и произведение чисел обла- дают следующими свойствами, называемыми законами алгебры: 1. a+6=Z>+a; ab—ba—коммутативный или перемес- тительный закон; 2. (a+6)+c=a+(Z>+c); (ab)c=a(bc)—ассоциатив- ный или сочетательный закон; 3. (а-Н>) c=<zc+6c — дистрибутивный или распредели- тельный закон. Заметим, что в ассоциативном и коммутативном зако- нах можно заменить действие сложения умножением, а действие умножения сложением. При этом получим дру- гой закон, который будет так же справедлив, как и пер- вый. Однако в дистрибутивном законе подобной симмет- рии нет. Если в этом законе заменить сложение умноже- нием, а умножение сложением, то придем к абсурду: (а6)+с=(а-|-с) (6+с). Спрашивается, всегда ли это так? Не существует ли алгебры, в которой дистрибутивный закон был бы так же симметричен относительно сложения и умножения, как коммутативный и ассоциативный законы? Оказывается, су- ществует алгебра, а именно алгебра множеств, в которой все три закона симметричны относительно действий сложе- ния и умножения. 34
Сходство между действиями сложения и умножения проявляется также в существовании двух замечательных чисел (0 и 1) таких, что прибавление первого и умножение на второе не меняют ни одного числа: й+0=а, а- 1—а. Заметим, что второе соотношение получается из перво- го заменой (+) на (•) и 0 на 1. Однако и здесь сходство между действиями сложения и умножения не простирается особенно далеко. Так, число О играет несколько особую роль по сравнению со всеми дру- гими числами, в том числе и единицей. Эта особая роль числа 0 вытекает из соотношения а-0=0. Если мы в этом выражении заменим (•) на (+) и 0 на 1, то приходим к соотношению а-|-1=1, которое почти никогда не будет верным. Как мы увидим далее, сходство между нулем и едини- цей в алгебре множеств будет значительно большим, чем в обычной алгебре. После этих предварительных замечаний можно присту- пить к рассмотрению операций над множествами. 2.2.2. Объединение множеств Объединением множеств X и У называют множество, состоящее из всех тех и только тех элементов, которые принадлежат хотя бы одному из множеств X, У, т. е. при- надлежат множеству X или множеству У. Объединение X н У обозначается через Х11У- Формальное определение ХиУ={х|хеЛ или хеУ). (2.7) Объединение множеств иногда называют суммой мно- жеств и обозначают Х-|-У. Однако свойства объединения множеств несколько отличаются от свойств суммы при обычном арифметическом понимании, поэтому этим терми- ном мы пользоваться не будем. / Пример 2.1. Если Х={1, 2, 3, 4, 5} и У={2( 4, 6, 7}, то X(J7= = {1, 2, 3, 4, 5, 6, 7}. Пример 2.2. Если X— множество отличников в группе, У—мно- жество студентов, проживающих в общежитии, то Х[)У — множество студентов, которые или учатся на отлично, нли проживают в обще- житии. з. (1^910
д. у Пример 2.3. Рассмотрим два круга, при- веденных на рис. 2 3. Если X — множество точек левого круга, У — множество точек правого круга, то X(JK представляет собой заштрихованную область, ограниченную обо- ими кругами. Рис. 2.3. Объединение Понятие объединения можно рас- множеств пространить и на большее число мно- жеств. Обозначим через 2Я={Х1, ... ..., Хп} совокупность п множеств Хь ..., Хп, называемую иногда системой множеств. Объединение этих множеств U Xt= U Л’ = Л1и-..и^« (2.8) <=> Л'еЯЛ представляет собой множество, состоящее из всех тех и только тех элементов, которые принадлежат хотя бы одно- му из множеств системы 2Л. Для объединения множеств справедливы коммутатив- ный и ассоциативный законы %Uy=W; (2.9) (Xunuz=xu(w==xunjz, (2.10) справедливость которых вытекает из того, что левая и правая части равенств состоят из одних и тех же элемен- тов. Далее, Х[)0=Х. (2.11) Это также очевидное соотношение, так как пустое мно- жество не содержит элементов, а значит, X и Х[)0 состоят из одних и тех же элементов. Из (2.11) видно, что пустое множество 0 играет роль нуля в алгебре множеств. Здесь имеет место аналогия с выражением й+0=а в обычной алгебре. 2.2.3. Пересечение множеств Пересечением множеств X и У называют множество, состоящее из всех тех и только тех элементов, которые принадлежат как множеству X, так и множеству У. Пере- сечение множеств X и У обозначается через Xf)^- Фор- мальное определение ХПУ--{х|х^Х и хеУ}. (2.12) 36
Пересечение множеств иногда называют произведени- ем множеств и обозначают XY. Однако свойства пересече- ния множеств несколько отличаются от свойств произве- дения в обычном арифметическом понимании, поэтому этим термином мы пользоваться не будем. Пример 2.4. Для множеств X и У в примере 2 1 ХРУ={2, 4}. Пример 2.5. Для множеств X и Y в примере 2 2 ХрУ — множество отличников группы, проживающих в общежитии. Пример 2.6. Рассмотрим два круга, приведенных на рис. 2.4,а. Если X—множество точек левого круга, У—множество точек правого кру- га, то ХРУ представляет собой заштрихованную область, являющуюся общей частью обоих кругов. Рис. 2.4. Пересечение множеств (а) и непересекающиеся множества (б) ®6О б) Операция пересечения позволяет установить ряд соот- ношений между двумя множествами. Множества X и У называют непересекающимися, если они не имеют общих элементов, т. е. если X(]Y—0. (2.13) Пример 2.7. Непересекающимися множествами являются: 1) множества {1, 2, 3} и {4, 5, 6}; 2) множество отличников и множество неуспевающих студентов в группе; 3) множества точек кругов X и У на рис. 2.4,6,- Говорят, что множества X и У находятся в общем по- ложении, если выполняются три условия: существует эле- мент множества X, не принадлежащий У; существует эле- мент множества У, не принадлежащий X; существует эле- мент, принадлежащий как X, так и У. Укажем одно отличие алгебры множеств от алгебры чисел. Если а и b — два числа, то между ними могут быть три соотношения или три возможности: а<Ь, а=Ь, Ь<а. (2.14) Для множеств X и У, однако, может не выполняться ни одно из соотношений: ХсУ, Х=У- УсХ. (2.15)’ 37
Так, если X — множество отличников, У—множество студентов, проживающих в общежитии, то три ранее при- веденных соотношения будут означать: Хед У—каждый отличник обязательно проживает в общежитии; Х—У—в общежитии проживают все отличники и только они; Уст сХ — все студенты, проживающие в общежитии, являют- ся отличниками. Очевидно, что эти соотношения не исчерпывают всех возможностей. На_ самом деле, как вытекает из предыду- щих определений, между множествами X и У может быть одно из пяти отношений: Х=У; ХсУ; У<=Х; Х[\У=0, X и У находятся в общем положении. Понятие пересечения можно распространить и на боль- шее, чем два, число множеств. Рассмотрим систему мно- жеств ®1={Х1,..., Хп}. Пересечение этих множеств записы- вается в виде п X = (2.16) хеал <=> и представляет собой множество, элементы которого при- надлежат каждому из множеств системы Ш1. Нетрудно видеть, что пересечение множеств обладает коммутативным свойством Х()У=УПХ (2.17) и ассоциативным (^ПГ)П^ = А'П( W) = W- (2.18) Заметим также, что имеет место соотношение Х[\0=0, (2.19) аналогичное соотношению а-0=0 в обычной алгебре. Со- отношение (2.19) совместно с соотношением (2.11) пока- зывает, что пустое множество играет роль нуля в алгебре множеств. 2.2.4. Разность множеств Данная операция в отличие от операций объединения и пересечения определяется только для двух множеств. Разностью множеств X и У называют множество, состоя- 38
щее из всех тех и только тех элемен- тов, которые принадлежат X и не при- надлежат У. Разность множеств X и У обозначается через Х\У. Таким образом, Y={x\x(=X и x&Y}. (2.20) D п 11 у- > \ / Рис. 2.5. Разность Пример 2.8. Для множеств X и У множеств примера2.1 Х\У={1, 3, 5}, У\Х={6, 7}. Если X и У—множества из примера 2.2, то X \ У — множество отлич- ников, не проживающих в общежитии. Для множеств X и У примера 2 3 Х\ У — заштрихованная фигура на рнс. 2.5. . 2.2.5. Универсальное множество Как мы видели, роль нуля в алгебре множеств играет пустое множество. Спрашивается, не существует ли мно- жество /, которое будет играть роль единицы, т. е. удо- влетворять условию XQ/=X, (2.21) аналогичному условию а- 1—а в обычной алгебре. Соотношение (2.21) означает, что пересечение или «об- щая часть» множества / и множества X для любого мно- жества X совпадает с самим этим множеством. Но это возможно лишь в том случае, если множество / содержит все элементы, из которых может состоять множество X, так что любое множество X полностью содержится в мно- жестве /. Множество /, удовлетворяющее этому условию, называют полным или универсальным. Исходя из сказанного, можно дать следующее опреде- ление универсального множества. Если в некотором рас- смотрении участвуют только подмножества' некоторого фиксированного множества /, то это самое большое мно- жество / называют универсальным множеством. Следует отметить, что в различных конкретных случа- ях роль универсального множества могут играть различ- ные множества. Так, при рассмотрении множеств студен- тов в группе (отличники; студенты, получающие стипен- дию; студенты, проживающие в общежитии и т. п.) роль универсального множества играет множество студентов в группе. Универсальное множество удобно изображать графиче- ски в виде множества точек прямоугольника. Отдельные 39
области внутри этого прямоугольника будут означать раз- личные подмножества универсального множества. Изобра- жение множества в виде областей в прямоугольнике, представляющем универсальное множество, называют ди- аграммой Эйлера — Венна. Универсальное множество обладает интересным свой- ством, которое не имеет аналогии в обычной алгебре, а именно для любого множества X справедливо соотно- шение ХШ=1. (2.22) Действительно, объединение X(J/ представляет собой множество, в которое входят как все элементы множест- ва X, так и все элементы множества /. Но множество / уже включает в себя все элементы множества X, так что XII/ будет состоять из тех же элементов, что и /, т. е. представляет собой само универсальное множество I. 2.2.6. Дополнение множества Множество X, определяемое из соотношения Х=1\Х, (2.23) называют дополнением множества X (до универсального множества /). На рис. 2.6 множество X представляет со- бой незаштрихованную область. Формальное определение X={x| хе/ и х^Х}. Рис. 2.6. Дополнение множества Пример 2.9. Если /={1, 2, 3, 4, 5, 6, 7} и Х={3, 5, 7}, то х = = {1.2, 4, 6). Из (2.23) следует, что X и X не имеют общих элемен- тов, так что ХПХ=0. (2 24) Кроме того, не имеется элементов I, которые не при- надлежали бы ни X, ни X, так как те элементы, которые не принадлежат X, принадлежат X. Следовательно, X(JX=/. (2.25) 40
^зсиммец)ии_фр.рмул (2.24) и _(2.25) относительно X и X следует не только то, что X является дополнением X, но и что X является дополнением X. Но дополнение X есть X. Таким образом, Х=Х. (2.26) С помощью операции дополнения можно в удобном виде представить разность множеств Х\У={х|хе=Х и x<£Y} = {x\x(=X и хе?}, Х\У=ДО- (2.27) 2.2.7. Разбиение множества Одной из наиболее часто встречающихся операций над множествами является операция разбиения множест- ва на систему подмножеств. Так, система курсов данного факультета является разбиением множества студентов факультета; система групп данного курса является разби- ением множества студентов курса. Если N— множество натуральных чисел, а До и Д1 — множества четных и не- четных чисел, то система {До, 41} будет разбиением мно- жества N. Множество натуральных чисел может быть разбито иначе: на множество чисел, делящихся на 3 без остатка, с остатком 1 и с остатком 2. Продукция предпри- ятия разбивается на систему множеств, состоящих из про- дукции первого сорта, второго сорта и брака. Подобные примеры можно было бы продолжать бесконечно. Для того, чтобы дать понятию разбиения строгое опре- деление, рассмотрим некоторое множество М и систему множеств Э1={Х1, ...,ХП}. Систему множеств ЭД называют разбиением множества Л4,'ёсли удовлетворяются следую- щие условия: 1) любое множество X из ЭД является подмножеством множества М: УХеЭД[Х<=М]; (2.28) 2) любые два множества X и У из ЭД являются непере- секающимися: VX, УеЭД[ХУ=У->ХПУ=0]; (2.29) 41
3£ объединение всех множеств, входящих в разбиение, дает множество М: U X = М. (2.30) К понятию разбиения мы вернемся при рассмотрении отношения эквивалентности, с которым оно очень тесно связано. 2.2.8. Тождества алгебры множеств С помощью операций объединения, пересечения и до- полнения из множеств можно составлять различные алге- браические выражения. Обозначим через 91 (X, У, Z) не- которое алгебраическое выражение, составленное из мно- жеств X, У и Z и представляющее собой некоторое множество. Пусть S(X, У, Z) —другое алгебраическое вы- ражение, составленное из тех же множеств. Если оба ал- гебраических выражения представляют собой одно и то же множество, то их можно приравнять друг к другу, по- лучая алгебраическое тождество вида 9((Х, У, Z)=93(X, У, Z). (2.31) Такие тождества бывают очень полезны при преобра- зованиях алгебраических выражений над множествами, и некоторые из них мы рассмотрим в настоящем разделе. 1) На рис. 2.7,а приведены диаграммы Эйлера — Вен- на для выражений (Х1|У)П2 и (Xf]Z)U(УП^). Из этих ди- аграмм видно, что оба выражения определяют одно и то же множество, так что в алгебре множеств имеет место тождество _ \(ХиУ)П2==(ХП2)и(УП2Ц (2 32) аналогичное дистрибутивному закону (a+b)c=ac+bc в обычной алгебре. 2. В обычной алгебре мы не можем заменить в дистри- бутивном законе действие сложения умножением, а дей- ствие умножения сложением, так как это приводит к аб- сурдному выражению (ab) 4-с=(а-|-с) (6+с]). Иначе об- стоит дело в алгебре множеств. На рис. 2.7,6 приведены диаграммы Эйлера — Венна для алгебраических выражений (ХПУ)К^ и (Х1)Х)П(УиХ). Оба эти выражения дают одно и то же множество, так что 42
имеет место тождество Ч_ХПУ)и2=(ВДП(ад. (2.33) 3. Легко убедиться, что если YsX, то ' ХПУ=У,ХдУ=Х., (2.34) Действительно, все элементы множества Y являются в то же время и элементами множества X. Значит, пере- сечение этих множеств, т. е. общая часть множеств X и Y, а.) В) Рис. 2.7. Геометрическая иллюстрации тождеств (XJ Г) ()•£ = (XflZ)J U(W) (а) и (ХЛУ)и2=(Хи2)П(Уи2) (6) совпадает с У. В объединение множеств X и У множество У не внесет ни одного элемента, который уже не входил бы в него, будучи элементом множества X. Следователь- но, XU У совпадает с X. 4. Полагая в (2.34) Y—X и учитывая, что ХеХ, на- ходим Xf]X=X, X|JX=X. (2.35) Установление тождеств алгебры множеств с помощью диаграммы Эйлера — Венна в ряде случаев оказывается неудобным. Имеется более общий способ установления тождественности двух алгебраических выражений. Пусть, как и прежде, через Я(Х, У, Z) и Э(Х, У, Z) обозначены два алгебраических выражения, получивших- 43
ся путем применения операций объединения, пересечения и дополнения к множествам X, Y и Z. Для того чтобы до- казать, что 91=83, достаточно показать, что SteSS и что В свою очередь, чтобы показать, что 91е8Э, нужно убедиться, что из хеЯ следует xeS. Аналогично, чтобы показать, что 8Э^&, нужно убедиться, что из хеЭЗ следует хеИ. Воспользуемся этим методом, чтобы доказать еще несколько тождеств. 5. Докажем тождество (2.36) Предположим, что x^X[]Y, ъ е. что х^ХОУ- Это зна- чит, что хфХ и х^У, т. е. хеЛ и хеУ. Следовательно, хеХ()Р. Предположим теперь, что yeXf|F, т. е. у<=Х и уеУ. Это значит, что уфХ и y^Y, т. е. что y<£X\}Y. Сле- довательно, г/еХОУ- 6. Тождество j ХПУ=Х1|У (2.37) докажем, приведя обе его части к одинаковому виду. Вы- полняя операцию дополнения над обеими частями (2.37), получим ХПУ=Х1|У. Левая часть этого выражения дает ХПУ- То же самое получим, преобразовывая правую часть по правилу (2.36). В литературе тождества (2.36) и (2.37) обычно назы- ваются тождествами де-Моргана. 2.3. УПОРЯДОЧЕНИЕ ЭЛЕМЕНТОВ И ПРЯМОЕ ПРОИЗВЕДЕНИЕ МНОЖЕСТВ 2.3.1. Упорядоченное множество у Наряду с понятием множества как совокупности эле- ментов важным понятием является понятие упорядочен- ного множества или кортежа. Кортежам называют после- довательность элементов, т. е. совокупность элементов, в которой каждый элемент занимает определенное место. Сами элементы при этом называют компонентами корте- жа (первая компонента, вторая компонента и т. д.). При- меры кортежей: множество людей, стоящих в очереди; множество слов в фразе; числа, выражающие долготу и широту точки на местности и т. п. Во всех этих множест- 44
вах место каждого элемента является вполне определен- ным и не может быть произвольно изменено. В технических задачах эта определенность часто явля- ется просто предметом договоренности. Так, только дого- воренностью можно объяснить, почему долготу ставят на первое место, а широту на второе. Состояние кибернети- ческой системы часто описывают множеством параметров, принимающих числовые значения. При этом состояние системы; — просто некоторое множество чисел. Чтобы не оговаривать каждый раз, какое число что означает, уста- навливают заранее, какой параметр считать первым, ка- кой вторым и т. д., т. е. совокупность параметров пред- ставляют в виде упорядоченного множества. Так, если обозначить через h высоту самолета, а через v — его ско- рость, то кортеж x—(h,v) будет описывать состояние са- молета. Число элементов кортежа называют его длиной. Для обозначения кортежа используем круглые скобки. Так, множество а=(а\, а2,...,ап) (2.38) является кортежем длины п с элементами а\,..., ап. Кор- тежи длиной 2 называют парами или упорядоченными па- рами, кортежи длиной 3 — тройками, 4 — четверками и т. д В общем случае кортежи длиной п называют п-ка- ми. Частным случаем кортежа является кортеж (а) дли- ной 1 и пустой кортеж длиной 0, обозначаемый ( ) или Л. В отличие от обычного множества в кортеже могут быть и одинаковые элементы: два одинаковых слова в фразе, одинаковые числовые значения долготы и широ- ты точки на местности и т. п. В дальнейшем будем рассматривать упорядоченные множества, элементами которых являются вещественные числа. Такие упорядоченные множества называют точка- ми пространства или векторами. Так, кортеж (flb а2) мо- жет рассматриваться как точка на плоскости или вектор, проведенный из начала координат в данную точку (рис. 2.8,а). Компоненты «1 и а2 будут проекциями векто- ра на оси 1 и 2 Пр1(аь a2)=ai; Пр2(а1, а2)=а2. Кортеж (Ль а2, а3) может рассматриваться как точка в трехмерном пространстве или как трехмерный вектор, проведенный из начала координат в эту точку (рис. 2.8,6). 45
Проекции вектора на оси координат Прг(дь а2, a3)=ai, i=i, 2, 3. Однако в данном случае можно говорить о проекции кортежа сразу на две оси, например 1 и 2, т. е. на коорди- натную плоскость. Нетрудно видеть, что эта проекция представляет собой двухэлементный кортеж Пр12(Л1, а2, a3) = (ai, а2). 2) аг ------^Са7,а2) I ^(а„аг,аа) I 1 Рис. 2.8. Проекции двух- и трехэлементиого кортежа Обобщая эти понятия, будем рассматривать упорядо- ченное га-элементное множество вещественных чисел (fli,... ..., ап) как точку в воображаемом га-мерном пространстве, называемом иногда гиперпространством, или п-мерным вектором. При этом компоненты «-элементного кортежа а будем рассматривать как проекции этого кортежа на со- ответствующие оси Пр(а=а,-, i=l,га. (2.39) Используемая здесь и далее запись t=l,ra означает пе- речисление т=1,..., га. Если i, j, ..., Z —номера осей, причем 1 <Сг</< ••• то проекция кортежа а на оси I, j,..., I будет Пр,-.,-.....ia = {at, as......... at). (2.40) 2.3.2. Прямое произведение множеств Прямым произведением множеств X и У называют множество, обозначаемое Х%У и состоящее из всех тех и только тех упорядоченных пар, первая компонента ко- торых принадлежит множеству X, а вторая — множест- ву У. Таким образом, элементами прямого произведения 46
являются двухэлементные кортежи вида (х, у). Формаль- ное определение ХХУ={(х, У) \х^Х, yt=Y}. (2.41) Пример 2.10. Пусть Х={1, 2}, У={1, 3, 4}. Тогда ХХУ={(1. 1), (1, 3), (1, 4), (2, 1), (2, 3), (2, 4)}. Геометрическое представление этого множества приведено на рис. 2.9,а. Пример 2.11. Пусть X и У—отрезки вещественной оси. Прямое произведение XX У изобразится заштрихованным прямоугольником (рис. 2.9,6). Из этого рисунка следует, что свойства прямого произве- Р.ис. 2.9. Геометрическая иллюстрация прямого произведения множеств деиия отличаются от свойств обычного произведения в арифметиче- ском смысле. В частности, прямое произведение изменяется при изме- нении поридка сомножителей, т. е. ХХУ=#УХХ. (2.42) Операция прямого произведения легко распространя- ется и на большее число множеств. Прямым произведени- ем множеств Xi, Х2,...,ХГ называют множество, обозначае- мое Х1ХХ2Х - ХХГ и состоящее из всех тех и только тех кортежей длины г, первая компонента которых принадле- жит Xi, вторая — Х2 и т. д. Частным случаем операции прямого произведения яв- ляется понятие степеней множества. Пусть М—произ- вольное множество. Назовем s-й степенью множества М и обозначим через Ms прямое'произведение s одинаковых множеств, равных М: MS = MXMX-XM. (2.43) Это определение пригодно для s=2, 3... Его можно расширить на любое целое неотрицательное s, если специ- 47
альными определениями положить М'=М, М°={А}. (2.44) Если R— множество вещественных чисел, то /?2=/?Х/? представляет собой вещественную плоскость, а /?3==/?Х XRXR— трехмерное вещественное пространство. 2.3.3. Проекция множества Операция проектирования множества тесно связана с операцией проектирования кортежа и мож;ет применять- ся лишь к таким множествам, элементами которых явля- ются кортежи одинаковой длины. Пусть М — множество, состоящее из кортежей дли- ной s. Тогда проекцией множества М будем называть мно- жество проекций кортежей из М. Пример 2.12. Пусть М= {(1, 2, 3, 4, 5), (2, 1, 3, 5, 5), (3, 3, 3, 3, 3), (3, 2, 3, 4, 3)}. Тогда Пр2М={2, 1, 3}; Пр2,4Л4= {(2, 4), (1, 5), (3, 3)}. Легко проверить, что если M=XXY, то Пр1М=Х; Пр2М=У, (2.45) а если QS-ХХУ, то npiQeX; Пр2(Э<=У. (2.46) 2.4. СООТВЕТСТВИЯ 2.4.1. Определение соответствия Рассмотрим два множества: X и У. Элементы этих двух множеств могут каким-либо образом сопоставляться друг с другом, образуя пары (х, у). Если способ такого сопоставления определен, т. е. для каждого элемента х<=Х указан элемент уеУ, с которым сопоставляется элемент х, то говорят, что между множествами X и У установлено соответствие [9, 10]. При этом совершенно необязательно, чтобы в сопоставлении участвовали все элементы множеств X и У. Для того чтобы задать соответствие, необходимо ука- зать: множество X, элементы которого сопоставляются с элементами другого множества; множество У, с элемен- тами которого сопоставляются элементы первого множе- ства; множество QsXxy, определяющее закон, в соот- ветствии с которым осуществляется соответствие, т. е. 48
перечисляющее все пары (х, у), участвующие в сопостав- лении. Таким образом, соответствие, обозначаемое q, пред- ставляет собой тройку множеств q=(X, У, Q), (2.47) в которой QeXXT. В этом выражении первую компонен- ту X называют областью отправления соответствия, вто- прибытия соответствия, Рис. 2.10. Геометрическое пред- ставление прямого, (а) и об- ратного (б) соответствий рую компоненту У—областью третью компоненту Q — гра- фиком соответствия. Термин «график» будет более по- дробно разъяснен при рас- смотрении .частного вида со- ответствия, называемого функ- цией. Кроме рассмотренных мно- жеств X, У и Q, с каждым соответствием неразрывно связаны еще два множества: множество ripiQ, называемое областью определения соот- ветствия, в которое входят элементы множества X, участ- вующие в сопоставлении, и множество Пр2<2, называемое областью значений соответствия, в которое входят элемен- ты множества У, участвующие в сопоставлении. Если (х, y)^Q, то говорят, что элемент у соответству- ет элементу х. Геометрически это удобно изображать стрелкой, направленной от х к у. Пример 2.13. Пусть Х= {1, 2}, У== {3, 5), так что ХХУ={(1. 3), (1, 5), (2, 3), (2, 5)}. Это множество дает иозможиость получить 16 различных соответствий. Приведем некоторые из них: Q,= {(i, 3)}; nPlQt = {l}; ПргО^З}; <?2={(1. 3), (1, 5)}; nPlQ2={l}; Пр2<Э2={3, 5}=У. Пример 2.14. На предприятии имеются три автомашины: две гру- зовые а и р, работающие в две смены, и автобус у, используемый ред- ко. Машина р находится в ремонте. В штате имеются три шофера: а, Ь, с, из которых с находится в отпуске. Распределение шоферов по машинам представляет собой соответствие. Одним из возможных со- ответствий будет следующее: ?=({а, Ь, с), {а, р, у), {(а, а), (а, у), (Ь, а)}). 4-804 49
Геометрически это соответствие изображено на рис. 2.10,а. В нем элемент а соответствует элементам а и Ь, а элемент у —элементу а. Соответствие q определено на а и Ь, но не определено на с, следова- тельно, областью определения соответствия является множество {а, &}. Областью значений соответствия является множество {а, у}. 2.4.2. Обратное соответствие Для каждого соответствия q=(X, У, Q), Qs-ХХУ су- ществует обратное соответствие, которое получается, если данное соответствие рассматривать в' обратном направле- нии, т. е. определять элементы х^Х, с которыми сопостав- ляются элементы y^Y. Соответствие, обратное соответ- ствию q, будем обозначать q~'=(Y, X, Q-1), (2.48) где Q-’еУХХ. Пример 2.15. Обратным соответствием для примера 2.14 будет за- крепление автомашин за шоферами ({а, 0, у}, {а, &, с), {(а, а), (а, &), (у, а)}), что геометрически показано на рис. 2.10,6. Из приведенного примера видно, что геометрическое представление обратного соответствия получается путем изменения направления стрелок в геометрическом пред- ставлении прямого соответствия.' Отсюда следует, что об- ратным соответствием обратного соответствия будет пря- мое соответствие (q~')~'=q. (2.49) 2.4.3. Композиция соответствий Композицией соответствий называют последовательное применение двух соответствий. Композиция соответствий есть операция с тремя мно- жествами X, Y и Z, на которых определены два соответ- ствия: q = (X, У, Q), (?СХХУ; | р = (У. Z, Р), Рагхх, ) (2.50) причем область значений первого соответствия совпадает с областью определения второго соответствия: Пр2<2=Пр!Л (2.51) 50
Первое соответствие определяет для любого x^npiQ некоторый, возможно и не один, элемент y^Y. Согласно определению операции композиции соответствий теперь нужно для y^Y, найти zeZ, воспользовавшись вторым соответствием. Таким образом, композиция соответ- ствий сопоставляет с каждым элементом х из области оп- ределения первого соответствия npiQ один или несколько элементов z из области значений второго соответствия Пр2Р. Композицию соответствий q и р будем обозначать q(p), а график композиции соответствий — через QOP. При этом композиция соответствий (2.50) запишется в виде q(p) = (X, Z, QOP), QOP^XXZ. (2.52) Пример 2.16. Если <? —соответствие, определяющее распределение шоферов по автомашинам, р — соответствие, определяющее распреде- ление автомашин по маршрутам, то соответствие q(p) есть соответ- ствие, определяющее распределение шоферов по маршрутам. Естественно, что операцию композиции можно распро- странить и на большее, чем два, число соответствий. 2.5. ОТОБРАЖЕНИЯ И ФУНКЦИИ 2.5.1. Отображения и их свойства Пусть X и Y —некоторые множества и ГеХХК при- чем Пр1Г=Х. Тройка множеств (X, Y, Г) определяет не- которое соответствие, обладающее, однако, тем свойством, что его область определения ПрД совпадает с областью отправления, т. е. X, и, следовательно, это соответствие определено всюду на X. Другими словами, для каждого х^Х существует y^Y, так что (х, у)^Г. Такое всюду оп- ределенное соответствие называется отображением X в Y и записывается как Г: X-+Y. (2.53) Под словом «отображение» часто понимают однознач- ное отображение. Однако мы не будем придерживаться этого правила и будем считать, что каждому элементу хеХ отображение Г ставит в соответствие некоторое под- множество Гх<=У, (2.54)
Ряс. 2.11. Геометри- ческое представление отображения называемое образом элемента х. За- кон, в соответствии с которым осуще- ствляется соответствие, определяется множеством Г. Пример 2.17. Если в примере 2.14 исклю- чить из рассмотрения шофера с, то получим отображение Г:Х->У, в котором Х={а, &}— множество шоферов; У={а, 0, у} —множе- ство автомашин; Г={(а, а), (а, у), (Ь, а)}— распределение шоферов по автомашинам. Геометрическое представление этого отобра- жения дано на рис. 2.11. Обратимся теперь к рассмотрению некоторых свойств отображения. Пусть AczX. Для любого х^А образом х будет множество Гх=У. Совокупность всех элементов У, являющихся образами Гх для всех х^А, назовем обра- зом множества А и будем обозначать ГЛ. Согласно этому определению ГЛ= (J Гх. (2.55) хел Если Ai и Аг — подмножества X, то Г(Д1иД2)=ГЛ1иГД2. (2.56) Однако соотношение Г(Л1ПЛ2)=ГЛ1ПГЛ2 (2.57) справедливо только в том случае, если отображение Г: X-+-Y является однозначным. В общем же случае Г(Л1ПД2)еГЛ1ПГЛ2. (2.58) Полученные соотношения легко обобщаются и на боль- шее число подмножеств At. Так, если Ai,..., Ап—подмно- жества X, то Г(У1Л‘)==У1ГЛ'; (2-59> г (п (2-60) Поскольку отображение является частным случаем со- ответствия, для отображения имеют место введенные при рассмотрении соответствий понятия обратного отображе- ния и композиции отображений. 52
2.5.2. Отображения, заданные на одном множестве Важным частным случаем отображения является слу- чай, когда множества X и Y совпадают. При этом отобра- жение Г: Х-+Х будет представлять собой отображение множества X самого в себя и будет определяться парой (X, Г), (2.61) где ГеХ2. Подробным изучением таких отображений за- нимается теория графов. Коснемся лишь некоторых опе- раций над подобными отображениями. Пусть Г и Д — отображения множества X в X. Компо- зицией этих отображений назовем отображение ГД, кото- рое в соответствии с правилом, приведенным в § 2.4, опре- деляется так (ГД)х=Г(Дх). (2.62) В частном случае, если Д=Г, получаем отображения Г2х=Г(Гх); (2.63) Г3х=Г(Г2х) и т. д. (2.64) Таким образом, в общем случае для любого s^2 Рх=Г(Р-'х). (2.65) Специальным определением введем соотношение Г°х=х. (2.66) Это дает возможность распространить соотношение (2.65) и на отрицательные s. Действительно, согласно (2.65) Г°х=Г(Г-1х)=ГГ-,х=х. (2.67) Это означает, что Г-1х представляет собой обратное отображение. Тогда Г~2х=Г-1(Г_1х) (2.68) и т. д. Пример 2.18. Пусть X — множество людей. Для каждого человека хеХ обозначим через Гх множество его детей. Тогда Рх — множе- ство внуков х; Г3х—множество правнуков х; Г-1х — множество ро- дителей х и т. д. Изображая людей точками и рисуя стрелки, идущие из х в Гх, получаем родословное или генеалогическое дерево (рис. 2.12). Пример 2.19. Рассмотрим шахматную игру. Обозначим через х не- которое положение (расположение фигур на доске), которое может создаться в процессе игры, через X множество всевозможных поло- 53
жений. Тогда Гх для любого хеХ будет означать множество положе- ний, которые можно получить из х, делая один ход при соблюдении правил игры. При этом Гх=0, если х—матовое или патовое поло- жение; Г3х—множество положений, которые можно получить нз х тремя ходами; Г-1х—множество положений, из которых данное поло- жение может быть получено за один ход. Для отображений, заданных на одном множестве, ча- сто используют некоторые другие названия, которые у нас встретятся в дальнейшем. Гх Рис. 2.12. Генеалогическое дерево Так, если элементы х^Х представляют собой состоя- ния динамической системы, то отображение Гх будем рас- сматривать как множество состояний, в которые система может перейти из данного состояния. В этом случае удо- бен термин «преобразование состояния динамической си- стемы». Для обозначения некоторых специальных видов отображений, заданных на одном и том же множестве, применяют также термин «отношение». 2.5.3. Функция Рассмотрим некоторое отображение f: X-+Y. (2.69) Это отображение называют функцией, если оно одно- значно, т. е. если для любых пар (xiyi)^f и (x2y2)^f из х2=Х1 следует y2=yi. На рис. 2.il3,a приведен пример отображения, явля- ющегося функцией. Отображение на рис. 2.13,6 функцией не является. Из определения отображения и из приведенных ранее примеров следует, что элементами множеств X и Y мо- гут быть объекты любой природы. Однако в задачах ки- бернетики большой интерес представляют отображения, 54
которые являются однозначными и множество значений которых представляет собой множество вещественных чи- сел /?. Однозначное отображение f, определяемое (2.69), называют функцией с вещественными значениями, если Yc=R. Понятие функции является чрезвычайно широким, и изучению отдельных классов функций посвящены многие математические дисциплины (алгебра, тригонометрия Рис. 2.13. Иллюстрация к понятию функции и т. п.). Мы рассмотрим только некоторые общие наибо- лее фундаментальные свойства функции, не касаясь свойств конкретных классов. Пример 2.20. Из одного города в другой можно проехать по же- лезной дороге (ж.д.), автобусом (авт.) или самолетом (сам.). Стои- мость билета будет соответственно 7, 9 и 12 руб. Стоимость билета можно представить как функцию от вида транспорта. Для этого рас- смотрим множества Х={ж.д., авт., сам.}; У={7, 9, 12} Функция f: получаемая из условий примера, может быть записана в виде множества /={(ж.д., 7), (авт., 9), (сам., 12)}. Значение у в любой из пар (х, y)^f называют функ- цией от данного х и записывают в виде y=f(x). Такая запись позволяет вести следующее формальное определе- ние функции: f={(x, y)<=XXY\y=f(x)}. (2.70) Таким образом, символ f используют при определении функции в двух смыслах: f является множеством, элементами которого будут па- ры (х, у), участвующие в соответствии; 55
f(x) является обозначением для y^Y, соответствую- щего данному хеХ. Формальное определение функции в виде соотношения (2.70) позволяет установить способы задания функции. 1. Перечисление всех пар (х, у), составляющих мно- жество f, как это было сделано в примере 2.20. Такой способ задания функции применим, если X является ко- нечным множеством. Для большей наглядности пары (х, У) удобно располагать в виде таблицы. 2. Во многих случаях как X, так и Y представляют собой множества вещественных или комплексных чисел. В таких случаях очень часто под f (х) понимается форму- ла, т. е. выражение, содержащее перечень математических операций (сложение, вычитание, деление, логарифмиро- вание и т. п.), которые нужно произвести над х&Х, что- бы получить у. Пример 2.21. Пусть X=Y=R и f={(x, t/)e/?2|i/=x2}. Тогда f(x)-A Иногда для разных подмножеств множества X функ- ции приходится пользоваться различными формулами. Пусть Ль Ап — попарно непересекающиеся подмноже- ства X. Обозначим через А(х), i=l, п формулу, опреде- ляющую у при х^А;. Тогда функция {f,(x) при х(ЕА'.; ...................... (2.71) fn(x) при х£Ап. Так, функцию y=f(х)=| х | можно задать в виде {х при х^О; —х при х<0. 3. Если X и У — множества вещественных чисел, то элементы (х, y)^f можно изобразить в виде точек на плоскости R2. Полная совокупность таких точек будет представлять собой график функции f(x). Если в выражении (2.69) X=U%V, то приходим к функции от двух переменных и и v, обозначаемой че- рез f(u, v), где u^U и v^V. Формальное определение функции двух вещественных переменных будет следую- щим: /=((«, v, y)}^UXVxY\y=f(u, v)}. (2.72) 56
Аналогично определяют функции от трех и большего числа переменных. Свяжем с функцией еще одно понятие, называемое су- жением функции. Пусть f: X-+-Y — произвольная функция и А — произвольное множество. Сужением функции f на множество А называют функцию fA, содержащую все те и только те пары (х, y)^f, в которых х^А, а значит, (х, yj&A'XY. Следовательно, /л=/ПИХП- (2.73) Операцию сужения функции часто используют для таб- личного задания функций с бесконечной областью опре- деления X. В качестве множества А берут обычно выбор- ку равноотносящих значений х множества X. Получаемое при этом сужение fA функции f уже легко представить в виде таблицы. По этому принципу построены таблицы логарифмов, тригонометрических функций и некоторые другие. 2.5.4. Обратная функция Понятие обратной функции применимо для такого ото- бражения f: X-+Y, которое, во-первых, является одно- значным, т. е. для любых (xi, yi)^f и (х2, ytj^f из х2 = =Х] следует y2 = t/i, и, во-вторых, является взаимноодно- значным, т. е. из x2=^Xi следует у^у*.. При выполнении этих условий отображение f: X-+Y является одно- значным, т. е. определяет функцию y=f(x). Обратное Отображение f~l: Y-+X также является однозначным и определяет функцию x=f~'(y), называемую обратной по отношению к функции у=[(х). Рис. 2.14. Иллюстрация к понятию обратной функции 57
На рис. 2.14,а приведен пример функции, имеющей об- ратную функцию. Функция на рис. 2.14,6 обратной функ- ции не имеет, однако ее отдельные ветви, обозначенные жирной и тонкой линиями, имеют обратную функцию. При аналитическом задании функции f принято аргу- мент как прямой, так и обратной функции обозначать од- ной и той же буквой, например х. Поэтому для нахожде- ния обратной функции следует уравнение y=f(x) раз- решить относительно х и поменять обозначения, заменив х на у и у на х. При этом обратная функция запишется в виде y=f~'(x). 2.5.5. Функция времени В основе понятия функции времени лежит множество Те/?' с элементами t, называемое множеством моментов времени. Время обладает той характерной особенностью, что имеет направление. Это означает, что если 6, /2е <^Т и /]</2, то момент t\ предшествует моменту t2. Дру- гими словами, Т — упорядоченное множество. Функция времени определяет отображение f множест- ва моментов времени Т на множество вещественных чи- сел R: f: T-+R. (2.74) Элементами f будут пары (/, х), обозначаемые также через х(0, где l^T, x^R. Каждая такая пара определяет значение функции в момент t и называется событием или мгновенным значением функции. Полная совокупность пар (t, х), т. е. значений x(t) для всех и представ- ляет собой функцию времени. Дальнейшее уточнение функции времени связано с уточнением ее области опре- деления, т. е. вида множества Т. Если T=R, т. е. t может принимать любое веществен- ное значение от —оо до -|-оо, то функцию x(t) называют функцией с непрерывным временем, например синусои- дальная функция времени x(t) =А sin (со^+ф), описыва- ющая напряжение в сети переменного тока. Однако нас обычно не интересуют весьма удаленные моменты времени как в прошлом, так и в будущем. По- этому производят сужение x(t) на ограниченный интер- вал ti<_t^l2, который обычно считают полузакрытым и обозначают (fb /2]. Полузакрытые интервалы времени удобны тем, что допускают последовательное сочленение 58
друг с другом. Так, если интервал (Л, £2] разбить моментом t' на два интерва- ла: (Л, Л] и (Л, f2], то не будет сомнений, к какому интервалу отнести t'. Сужение функции x(t), заданной на интервале —оо</< + оо, на интервал функции x(t) и обозначают нию Та; о 1 л* tg) Рис. 2.15. Единичный скачок и им- пульсная функция (Z1, /2] называют отрезком Итак, по определе- 6) = {x(t) f2]}. (2.75) Для осуществлении операции сужения часто используют специаль- ную функцию времени, называемую единичной функцией или единич- ным скачком: приведенную на рис. 2.15,а. Так, напряжение, подаваемое на вход при- бора, подключаемого к сети в момент (=Х, будет и(/) = 1 (/—X)x(t) = 1 (/-X)A sin (<о/-|-<р). Другой широко используемой функцией времени является импульс- ная функция 6(/—X), определяемая соотношениями: (2.77) ( оо при t = X; Х + е J с(/ —X)d/ = 1, е>0. (2.78) Функцию 6(/—X) можно рассматривать как предельный случай при- веденного на рис. 2.15, б прямоугольного импульса шириной Д/ и высо- той 1 /Д/, появляющегося в момент /=Х при Д/->0. Другой полезной аппроксимацией импульсной функции может слу- жить гауссовская функция (см. § 5.3) которая обращается в импульсную функцию б(() при <т->0. 59
Импульсная функция позволяет выделять мгновенные значения функции х(/) для фиксированных моментов времени. Так, если tt<X< <t2, то (t— \)dt = x(k) J 8(t—\)dt = x(\). (2.79). Если множество T представляет собой множество нату- ральных чисел -2, -1, 0, 1, 2, п то говорят о функции с дискретным временем. В этом случае элементы множества Т обозначают через п, так что пара (п, х), обозначаемая также х[п] или хп, опре- деляет значение функции в момент п. На рис. 2.16 при- веден пример функции с дискретным временем. 2.5.6. Понятие функционала Говоря об отображении f:X-*-Y как о функции с ве- щественными значениями, мы не накладывали на харак- тер элементов множества X каких-либо особых ограниче- ний. В простейших задачах множество X, как и множе- ство У, представляет собой множество вещественных чисел. Каждая пара (х, y)^f ставит в соответствие одно- му вещественному числу х другое вещественное число у. Однако важным для практики является случай, когда множество X представляет собой множество функций, а множество У — множество вещественных чисел. Этот случай приводит к понятию функционала, подробное рас- смотрение которого удобно провести на примере. Представим себе некоторую линию y=f(x), соединя- ющую фиксированные точки А и В, как показано на рис. 2.17, по которой скатывается свободно движущийся шарик. Обозначим через t время, которое шарик затра- ffr) Рнс. 2.16. Функция с ди- скретным временем Рис. 2.17. Линия наискорейшего спуска
тит на перемещение из точки А в точку В. Это время зависит от характера линии АВ, т. е. от вида функции f(x). Если обозначить через F(x) множество различных функций, изображающих линию АВ, через Т множество вещественных чисел t, определяющих время движения шарика, то зависимость времени движения от вида функ- ции может быть записана как отображение J:F(x)->T. (2.80) Элементами множества J будут пары (/(х), t), в ко- торых f(x)^F(x), a t^T. В этом случае говорят, что вещественное число teT представляет собой функционал J от функции f(x)eF(x), записывают это в виде t=J [/(%)]. (2.81) В задачах управления функционалы используются как критерии качества управления. Так, в рассмотренном при- мере время перемещения шарика из точки А в точку В можно трактовать как критерий «качества» выбранной функции f(x). При этом говорят об оптимальном управ- лении как о таком, при котором соответствующий крите- рий качества обращается в минимум. С этой точки зрения определение «оптимального» вида функции f(x) сводится к выполнению условия minJ[f(x)], (2.82) I& при котором время t будет минимальным. В математике подобная линия наискорейшего спуска получила название брахистохроны. 2.5.7. Понятие оператора Оператором L называется отображение L:X-*-Y, (2.83) в котором множества X и У являются множествами функ- ций с элементами x(t) и y(i), так что элементами мно- жества L будут пары (x(t), y(t)). В этом случае гово- рят, что оператор L преобразует функцию x(t) в функ- цию у(0=1[х(0]. (2.84) Примером оператора служит оператор дифференциро- вания р, ставящий в соответствие функции f(x) другую 61
*(t) ,-ГТ~] y(t) > Рис. 2.18. Представление управляемой системы в виде оператора функцию f'(x) = df(x)/dx, что может быть записано в виде f' (x)=P[f(x) ]. В задачах управления роль оператора часто выполняет сама управляемая система, преобразующая по некоторому закону L входной сигнал х(/) в выходной сигнал y(t), как это показано на рис. 2.18. 2.6. ОТНОШЕНИЯ 2.6.1. Свойства отношений Как уже указывалось, термин «отношение» использу- ют для обозначения некоторых видов отображений, за- данных на одном и том же множестве. В связи с этим удобно вести специальную символику. Пусть отображение (X, Г) является отношением. Рас- смотрим элемент t/еГх. Будем говорить, что элемент у находится в отношении Г к элементу х, и запишем это в виде уГх. (2.85) Так символ Г в примере 2.18 означает отношение «быть детьми данного человека». Примечание. Используя для отображения, заданного на одном множестве, соотношение (2.61), получаем, что отношение есть пара множеств (Л, Г), в которой ГеХ2. Поскольку элементами множества X2 являются упорядоченные пары, то можно сказать, что отношение есть множество упорядоченных пар. Так как каждая пара связывает между собой только два элемента множества X2, то такое отношение называют бинарным. Можно ввести более общее понятие отношения, называя отноше- нием пару множества (X, Г), где Г=Х". Элементами множества Хп являются упорядоченные n-ки, что позволяет назвать данное отноше- ние n-арным. В частности, множество упорядоченных троек может быть названо тернарным отношением? В дальнейшем, не оговаривая этого 62
особо, под термином «отношение» будем иметь в виду бинарное отно- шение. Отношения делятся на различные виды в зависимости от того, обладают или не обладают они некоторыми свой- ствами. Рассмотрим шесть основных свойств отношений. При описании этих свойств будем считать, что х, у и г — любые элементы из множества X. Рефлексивность: хГх истинно; антирефлексивность: хГх ложно; симметричность: хГу-^уГх-, антисимметрич- ность: хГу и уГх->х=у, несимметричность: если хГу ис- тинно, то уГх ложно; транзитивность: хГу и уГг-^хГг. Воспользовавшись описанными свойствами, рассмотрим некоторые важные виды отношений. 2.6.2. Отношение эквивалентности Некоторые элементы множества можно рассматривать как эквивалентные в том случае, когда любой из этих эле- ментов при некотором рассмотрении может быть заменен другим. В этом случае говорят, что данные элементы на- ходятся в отношении эквивалентности. Примерами отно- шений эквивалентности являются: отношение «быть на одном курсе» на множестве студентов факультета; отно- шение «иметь одинаковый остаток при делении на 3» на множестве натуральных чисел; отношение параллельности на множестве прямых плоскости; отношение подобия на множестве треугольников и т. п. Для того чтобы дать четкую формулировку отноше- ния эквивалентности, будем считать, что термин «отно- шение эквивалентности» применяется только в случае, ес- ли выполняются следующие три условия: каждый элемент эквивалентен самому себе; высказывание, что два элемента являются эквивалент- ными, не требует уточнения, какой из элементов рассмат- ривается первым и какой? вторым; два элемента, эквивалентные третьему, эквивалентны между собой. Примем для обозначения эквивалентности символ = . Тогда общее определение эквивалентности получим, запи- сав три вышеприведенных условия в виде следующих со- отношений: х=х (рефлексивность); х=у-+у==х (симметричность); х=у и t/=z->№z (транзитивность). 63
Таким образом, отношение Г называется отношением эквивалентности, если оно рефлексивно, симметрично и транзитивно. Отношение эквивалентности находится в тесной связи с разбиением множества, рассмотренным в § 2.2. Пусть X — множество, на котором определено отношение экви- валентности. Например, X — множество студентов курса, а отношением эквивалентности является отношение «быть в одной группе». Подмножество элементов, эквивалентных некоторому элементу хеХ, будем называть классом эк- вивалентности. Так, группа, в которой учится студент Иванов, будет классом эквивалентности, эквивалентным студенту Иванову. Пусть J — некоторое множество индексов. Обозначим через {Л/еХ|/е7} множество классов эквивалентности для множества X. Очевидно, что все элементы одного класса эквивалентности эквивалентны между собой (свой- ство транзитивности) и всякий элемент хеХ может на- ходиться в одном и только в одном классе. Но в таком случае X является объединением непересекающихся мно- жеств A/t так что полная система классов {^sXI/e/} является разбиением множества X. Таким образом, каж- дому отношению эквивалентности на множестве X соот- ветствует некоторое разбиение множества на классы А,. Отношение эквивалентности на множестве X и разбие- ние этого множества на классы называют сопряженными, если для любых х и у из X отношение х=у выполняется тогда и только тогда, когда х и у принадлежат к одному и тому же классу Д;, этого разбиения. Более четкому уясне- нию связи отношения эквивалентности с разбиением мно- жества поможет сравнение примеров данного раздела с примерами из § 2.2. В качестве общего символа отношения эквивалентно- сти используют знак ss (иногда ^). Однако для отдель- ных частных отношений эквивалентности применяют дру- гие знаки: = —для обозначения равенства, || — парал- лельности, — логической эквивалентности. 2.6.3. Отношение порядка Часто приходится сталкиваться с отношениями, кото- рые определяют некоторый порядок расположения элемен- тов множества. Так, мы отличаем понятия «раньше» и «позже» в случаях, когда элементами множества явля- 64
ются состояния динамической системы. Мы отличаем по- нятия «больше» и «меньше» и пользуемся при этом сим- волами > или С, если элементы множества являются числами. Мы отличаем понятия множества и подмноже- ства, пользуясь символами s или сг. Во всех этих случаях можно расположить элементы множества X или группы элементов в некотором порядке. или, другими словами, ввести отношение порядка на мно- жестве X. Различают отношение нестрогого порядка, для которо- го используется символ и отношение строгого поряд- ка, для которого используется символ С. Опишем эти от- ношения путем перечисления свойств, которыми они об- ладают. Отношением нестрогого порядка называют отношение, обладающее следующими тремя свойствами: х^.х истинно (рефлексивность); х^у и ys^.x-+x=y (антисимметричность); х^у и y-^zr+x^z (транзитивность). Отношением строгого порядка называют отношение, обладающее следующими тремя свойствами: x<Zx ложно (антирефлексивность); x<Zy и у<х взаимоисключаются (несимметричность); х<.у и y<z-^xCz (транзитивность). Множество X называют упорядоченным, если любые два элемента (х и у) этого множества являются сравни- мыми, т. е. х<у или х=у или у<х. 2.6.4. Отношение доминирования В тех случаях, когда X означает множество людей или группу людей, приходится сталкиваться с отноше- нием, которое является отношением доминирования. Мы будем говорить, что х доминирует над у, и писать х^у, если х в чем-то превосходит у. Так, х может быть спортс- меном или командой, победившей спортсмена или коман- ду у, или лицом, пользующимся авторитетом у лица у, или свойством, которое мы предпочитаем свойству у. Мы будем говорить, что между элементами множест- ва X имеет место отношение доминирования, если эти элементы обладают следующими двумя свойствами: никакой индивидуум не может доминировать над са- мим собой, т. е. ложно (антирефлексивность); в каждой паре индивидуумов в точности один инди- 5-804 65
видуум доминирует над другим, т. е. х^у и у~>х взаи- моисключаются (несимметричность). В отношении доминирования свойство транзитивности не имеет места. Действительно, если в соревнованиях команда х победила команду у, а команда у победила команду z, то отсюда еще не следует, что команда х обя- зательно победит команду г. Задачи к гл. 2 2.1. Что представляет собой множество У|\|Х из примера 2.1? 2.2. Обозначьте штриховкой множество У|\|х нз примера 2.3. 2.3. Пусть 7? — множество вещественных чисел и Х={хе=Я|0<х<1}, Y={y<=R\0^y^Sl.}. Что представляют собой множества ХиУ, Х(]У, X \ У? 2.4. Начертите фигуры, изображающие множества Л={(х, В={(х, Какие фигуры изображают множества ЛОВ, Л(]В, 2.5. Воспользовавшись соотношением (2.34), доказать тождества Х{]0=0; Xl)0=X; /ПХ=Х; RJX=I. 2.6. Изобразить на вещественной плоскости R?=RxR множества ХХУ и УхХ из задачи 2.3. 2.7. Изобразить геометрически множества Лх/? и RXA, где Л = = [2, 3]. 2.8. Что представляет собой пересечение множества всех прямо- угольников с множеством всех ромбов? 2.9. Для множества М={(х, (х—2)2_|_^2=1} найти ПрМ4 в Пр2М. 2.10. Пусть /={хь хг, х3} — универсальное множество, а Х= ~{xi, хг}, У={х2, х3}, Z={x3) — его подмножества. Определить пере- числением следующие множества: ХХХ-, ZxZ; ХХУ; УХХ; ХХУЦУХ XX; ХХУОУХХ. 2.11. Пусть X, У, Z — подмножества множества R2, равные Х= = {(х, у) |х>0}, У={(х, у) |г/>0}, Z={(x, у) |хЦ-г/Эг1}. Представить геометрически множества X; У; Z; ХОУ; Х1)У; Х(]У; Х(]У; Xf]Z; XQZ; ХПУПХ; ХПУП2. 2.12. Чему равно множество ХХУ> если X и У — подмножества R1, причем Х={(х, у) |2х—[-£/= 1}, У={(х, £f) |х—£г=0}? 2.13. В примере 2.13 выписать все 16 соответствий. Определить для каждого из них npiQ и ПргО. 2.14. Для функции f примера 2 21 найти обратную функцию f-’. 2.15. Пусть f и g — функции на множестве R2, равные = {(х, У)\У=х21> S=Uy, z)|z=sini/}. Найти композицию этих функций. 66
Глава 3 ОСНОВЫ ТЕОРИИ ГРАФОВ 3.1. ОСНОВНЫЕ ОПРЕДЕЛЕНИЯ ТЕОРИИ ГРАФОВ 3.1.1. Теоретико-множественное определение графа Наглядное представление о графе можно получить, если представить себе некоторое множество точек пло- скости X, называемых вершинами, и множество направ- ленных отрезков U, соединяющих все или некоторые из вершин и называемых дугами [И, 12]. Математически граф G можно определить как пару множеств X и U: G=(X, U). (3.1) На рис. 3.1 изображен граф, вершинами которого яв- ляются точки а, Ь, с, d, е, g, h, а дугами — отрезки (а, а), (с, b), (с, d), (с, е), (d, с), (d, d), (е, d), (g, h). Приме- рами графов являются отношения отцовства и мате- ринства на множестве людей (см. рис. 2.14), карта дорог на местности, схема соединений электрических приборов, отношения превосходства одних участников турнира над другими и т п. Иногда бывает удобно дать графу другое определение. Можно считать, что множество направленных дуг U, со- единяющих элементы множества X, отображает это множество само в себя Поэтому можно считать граф заданным, если дано множество его вершин X и способ отображения Г множества X в X. Таким образом, граф G есть пара (X, Г), состоящая из множества X и отображения Г, заданного на этом множестве: G=(X, Г). Рнс. 3.1. Общий вид графа (3-2) Так, для графа, изображенного на рис. 3.1, отображе- ние определяется следующим образом: Га=а; Г&=0; Гс= {&; d; е}; Vd= {d, с}; Te=d; rg=h-, Г/г=0. 6?
Нетрудно видеть, что данное определение графа пол- ностью совпадает с определением отношения на множе- стве. Введем некоторые понятия и определения, служащие для описания различных видов графов. Подграфом GA графа G—(X, Г) называется граф, в ко- торый входит лишь часть вершин графа G, образующих множество А, вместе с дугами, соединяющими эти верши- ны, например, очерченная пунктиром область на рис. 3.1. Математический подграф Ga=(A, Гл), (3.3) (3.4) где Ас=Х, Гдх=(Гх)(р4. Частичным графом бд по отношению к графу G = = (Х, Г) называется граф, содержащий только часть дуг графа G, т. е. определяемый условием Сд=(Х, А), (3.5) где Ах<=Гх. (3.6) Так, на рис. 3.1 граф, образованный жирными дугами, является частичным графом. Пример 3.1. Пусть G=(X, Г) — карта шоссейных дорог Советско- го Союза. Тогда карта шоссейных дорог Тамбовской области пред- ставляет собой подграф, а карта главных дорог Советского Союза — частичный граф. Другими важными понятиями являются понятия пути и контура. Ранее было дано определение дуги как направ- ленного отрезка, соединяющего две вершины. Дуга, соеди- няющая вершины а и b и направленная от а к Ь, обозна- чается и—(а, Ь). Путем в графе G называют такую последовательность дуг ц=(«ь ..., ик), в которой конец каждой предыдущей дуги совпадает с началом следующей. Путь ц, последо- вательными вершинами которого являются вершины а, Ь, ..., т, обозначается через ц—(я, Ь, ..., т). Длиной пути ц=(мь ..., «Л) называют число Z(p) = = k, равное числу дуг, составляющих путь ц. Иногда каждой дуге приписывают некоторое число Z(«t), назы- ваемое длиной дуги. Тогда длина пути определяется как сумма длин дуг, составляющих путь f(l*) = 2 z(w)- «eg (3.7) 68
г Рис. 3.2. Граф без петель Путь, в котором никакая дуга не встречается дважды, называется простым. Путь, в котором никакая вершина не встречается дважды, называется элементарным. Контур — это конечный путь р.= (xi, ..., х*), у которого начальная вершина Xi совпадает с конечной Xk. При этом контур называется элементарным, если все его вершины различны (за исключением начальной и конечной, которые совпадают). Контур единичной длины, образованный ду- гой вида (а, а), называется пет- лей. Так, на рис. 3 1 (е, d, с, Ь)— путь, (с, е, d, с) — контур, (d, d) — петля. Иногда удобно представлять графы в виде некоторых матриц, в частности в виде матриц смеж- ности и инциденций. Предвари- тельно дадим два определения. Вершины х и у являются смежными, если они различны и если существует дуга, идущая из х в у. Дугу и называют инцидентной ходит в эту вершину или исходит из нее. Обозначим через хь ..., хп вершины графа, а через Ui, ..., um его дуги. Введем числа: 11, если имеется дуга, соединяющая вершину i с верши- ной /; О, если такой дуги нет. вершине х, если она за- Квадратная матрица R=[r,/] порядка называет- ся матрицей смежности графа. Введем числа: 1+ 1, если «у исходит из хс, — 1, если Uj заходит в xt; О, если Uj не инцидентна xt. Матрица S=[s„] порядка пХпг называется матрицей инциденций для дуг графа. Матрицы_инциденций в описанном виде применимы только к графам без петель. В случае наличия в графе пе- тель эту матрицу следует расчленить на две полуматрицы: положительную и отрицательную. 63
На рис. 3.2 приведен граф без петель, для которого матрицы смежности и инциденций имеют вид: 3.1.2. Неориентированные графы Иногда граф рассматривают без учета ориентации дуг, тогда его называют неориентированным графом. Для не- ориентированного графа понятие «дуга», «путь» и «кон- тур» заменяются понятиями «ребро», «цепь», «цикл». Реб- ро — это отрезок, соединяющий две вершины. Цепь — по- следовательность ребер. Цикл —цепь, у которой началь- ная и конечная вершины совпадают. На рис. 3.3,а приведен пример неориентированного гра- фа, у которого вершины обозначены цифрами, а ребра — буквами латинского алфавита. Описать неориентированный граф G можно путем за- дания пары множеств (X, U), где X — множество вершин; U — множество ребер. Однако более удобным является описание неориентированного графа с помощью матрицы смежности или инциденций, которые строятся аналогично соответствующим матрицам для ориентированных графов с той разницей, что не делается различия между заходя- щей в вершину и исходящей из нее дугами. При этом вер- шины х и у называют смежными, если существует соеди- Рис. 3.3. Неориентированные графы 7Р
няющее их ребро, а само это ребро называется инцидент- ным вершинам хну. Для графа рис. 3.3,а матрицы смежности и инциденций имеют вид: Матрица смежности /=12345 Матрица иицидеиций 1 [~ 0 110 0“ U abed 2| 10100 31 1 1 0 1 0 4100100 5 L 0 О О О О 1Г 1 0 1 0 2 110 0 X =3 0 111 110 0 0 111 0 0 0 1 0 0 0 0 5 Приведем еще несколько определений, служащих для характеристики неориентированных графов. Степенью вершины х, обозначаемой deg(x) или dx, называют число ребер, инцидентных вершине х. Так, для графа на рис. 3.3,а имеем: di = 2, d2=2, rf3=3, d4=l, d$ — = 0. Если dx—l, то вершину х называют тупиковой (вер- шина 4); если dx—0, то вершину называют изолированной (вершина 5). Теорема 3.1. Пусть G — неориентированный граф с п вершинами и m ребрами и d/ —степень /-Й вершины. Тогда 2 di =2tn- Доказательство теоремы следует из того, что каждое ребро добавляет единицу к степени каждой из двух вер- шин, которые оно соединяет, т. е. добавляет 2 к сумме степеней уже имеющихся вершин. Следствие. В каждом графе число вершин нечетной степени четно. Для неориентированного графа понятия «подграф» и «частичный граф» аналогичны соответствующим поня- тиям для ориентированного графа. С понятием неорйентированного графа связана важная характеристика, называемая связностью графа. Говорят, что граф связен, если любые две его вершины можно со- единить цепью. Если граф G не связен, то его можно раз- бить на такие подграфы Gt, что все вершины в каждом подграфе связны, а вершины из различных подграфов не связны. Такие подграфы G, называют компонентами связ- ности графа G.
Если из графа на рис. 3.3,а исключить изолированную вершину 5, то полученный граф будет связным. Граф на рис. 3.3,6 не связен и имеет две компоненты связности. Его можно превратить в связный, добавив ребро (мост), соединяющее вершины 3 и 5 (штриховая линия). Удале- ние моста превращает связный граф в несвязный. Для того, чтобы определить связность ориентированно- го графа, не нужно обращать внимание на ориентацию дуг. Граф, изображенный на рис. 3.1, несвязный. Однако его подграф, состоящий из вер- \ шин Ь, с, d, е, является связным. £—к —п Для ориентированного графа су- \ / ществует понятие сильной связ- ----4/ ности. Граф сильно связен, если \ Для любых двух вершин (х и у, х. 1 х=£у) существует путь, идущий ИЗ X в у. Рис. 3.4. Дерево Важный частный случай не- ориентированного графа — дере- во. Деревом называют конечный связный неориентирован- ный граф, не имеющий циклов (рис. 3.4). Если дано множество вершин а, Ь, с..., то дерево мож- но построить следующим образом. Одну из вершин, на- пример а, примем за начальную и назовем ее корнем де- рева. Из этой вершины проводим ребра в близлежащие вершины Ь, с, d..., из них проводим ребра в соседние с ними вершины е, f, g, h... и т. д. Таким образом, дере- во можно построить, последовательно добавляя ребра в его вершинах. Это дает возможность установить связь между числом вершин и числом ребер дерева. Простейшее дерево состоит из двух вершин, соединен- ных ребром. Каждый раз, когда мы добавляем еще одно ребро, в конце его прибавляется также и вершина. Сле- довательно, дерево с п вершинами имеет п— 1 ребер. 3.1.3. Изоморфизм графов Одни и тот же граф геометрически можно изобразить различными способами. Так, на рис. 3.5,а приведены три изображении одного и того же графа. Такие графы называют изоморфными. В связи с этим возникает следующая задача. Если имеется два изображения графов, то, как узнать, не представляют ли они собой один и тот же граф? Ответить на этот вопрос достаточно трудно. На практике обычно предварительно определяют некоторые параметры 72
Рис. 3.5. Изоморфные (а) и неизоморфные (б) графы обоих графов. Такими параметрами могут быть число вершин, число ребер, число компонент связности, последовательность степеней вершин в убывающем порядке. Если какие-то из этих параметров у двух графов различны, то эти графы различны. Однако если все параметры у двух графов совпали, то это не гарантирует, что графы изоморфны. Так, на рис. 3.5,6 при- ведены два графа, у которых все параметры совпадают, и тем не ме- нее они различны. 3.1.4. Отношение порядка и отношение эквивалентности на графе Как мы видели, граф дает удобное геометрическое представление отношений на множестве, поэтому теория графов и теория отношений на множестве взаимно допол- няют друг друга. Будем считать, что на графе С=(ХГ) введено отно- шение порядка, если для любых двух вершин (х и у), удов- летворяющих условию х^у, существует путь из х в у. В этом случае говорят, что вершина х предшествует вер- шине у или что вершина у следует за вершиной х. Покажем, что данное определение отражает на гра- фе все свойства отношения порядка. Рефлексивность. Условие Xi~Zx истинно (3-8) 73
означает эквивалентность вершины самой себе, т. е. усло- вие х=х. Однако при желании это условие можно рас- сматривать как наличие пути из х в х, т. е. как петлю в вершине х (рис. 3.6,а). Транзитивность. Условие х^у, y^z-+x^z (3.9) означает, что вершины х, у, z последовательно встреча- ются на одном и том же пути (рис. 3.6,6). Рис. 3.6. Иллюстрация свойств отношения порядка Антисимметричность. Покажем справедливость условия х^у, у^х-+х=у. (3.10) Левая часть этого выражения говорит о том, что су- ществует путь из х в у, а также существует путь из у в х. Но это означает, что в графе имеется контур, на ко- тором лежат вершины х и у (рис. 3.6,в). Из правой части условия (3.10) вытекает, что верши- ны, лежащие на одном и том же контуре, являются экви- валентными. Будем рассматривать этот вывод как опре- деление эквивалентности на графе и покажем, что такое оп- ределение удовлетворяет всем трем условиям отношения эквивалентности. Условия рефлексивности х^==х и сим- метрии х^=у-+у==гх являются очевидными и вытекают из данного выше определения эквивалентности. Условие транзитивности х=у, y==z-^-x==z также является оче- видным, так как говорит о том, что если в графе имеется контур с вершинами х и у, а также контур с вершинами у и z, то имеется и контур, на котором лежат вершины х и z (рис. 3.6,в). Таким образом, отношение порядка совместно с отно- шением эквивалентности определяет некоторый граф. На графе может быть также введено отношение стро- гого порядка. В этом случае для любых двух вершин (х и 74
у), удовлетворяющих условно х<.у, существует путь, идущий из х в у. Условие транзитивности x<y<z->x<2 означает, как и в предыдущем случае, что вершины х, у и z встречаются последовательно на одном и том же пути. Условие антирефлексивности (х<х ложно) говорит об отсутствии петель на графе, а условие несимметрии (х<1/, у<х взаимоисключаются) говорит об отсутствии контуров. Таким образом, отношение строгого порядка опреде- ляет граф без контуров. 3.1.5. Характеристики графов Решение многих технических задач методами теории графов сводится к определению тех или иных характе- ристик графов. Хотя технические приложения теории гра- фов рассматривать в настоящей книге невозможно, зна- комство с важнейшими характеристиками графов может оказаться полезным при изучении других дисциплин. Цикломат ическое число. Пусть G — неориен- тированный граф, имеющий п вершин, m ребер и г ком- понент связности. Цикломатическим числом графа G на- зывают число v(G) —пг—п+г. Это (число имеет интересный физический смысл: оно равно наибольшему числу независимых циклов в графе. При расчете электрических цепей цикломатическим чис- лом можно пользоваться для определения числа незави- симых контуров. Хроматическое число. Пусть р — натураль- ное число. Граф G называют р-хроматическим, если его вершины можно раскрасить р различными цветами так, чтобы никакие две смежные вершины не были раскраше- ны одинаково. Наименьшее число р, при котором граф является р-хроматическим, называют хроматическим чис- лом графа и обозначают y(G). Если y(G)=2, то граф называют бихроматическим. Необходимым и достаточным условием того, чтобы граф был бихроматическим, является отсутствие в нем циклов нечетной длины. Хроматическое число играет важную роль при решении задачи наиболее экономичного исполь- зования ячеек памяти при программировании. Однако его определение, за исключением случая бихроматического 75
графа, представляет собой довольно трудную задачу, тре- бующую нередко применения электронных вычислительных машин. Множество внутренней устойчивости. Множество SsX графа G—(X, Г) называют внутренне устойчивым, если никакие две вершины из S не смежны, т. е. для любого x^S имеет место ГхП5=0. Множество внутренней устойчивости, содержащее наи- большее -число элементов, называют наибольшим внут- ренне устойчивым множеством, а число элементов этого множества —числом внутренней устойчивости графа G. Наибольшее внутреннее устойчивое множество играет важную роль в теории связи. Множество внешней устойчивости. Мно- жество Т<=Х графа G=(X, Г) называют внешне устой- чивым, если любая вершина, не принадлежащая Т, со- единена дугами с вершинами из Т, т. е. для любого х<£Т имеет место Гх(~]Т=^0. Множество внешней устойчивости, содержащее наи- меньшее число элементов, называют наименьшим внешне устойчивым множеством, а число элементов этого множе- ства — числом внешней устойчивости графа G. 3.2. ЗАДАЧА О КРАТЧАЙШЕМ ПУТИ 3.2.1. Постановка задачи В практических приложениях имеет большое значение задача о нахождении кратчайшего пути между двумя вер- шинами связного неориентированного графа. К такой за- даче сводятся многие задачи выбора наиболее экономич- ного (с точки зрения расстояния или времени или стои- мости) маршрута на имеющейся карте дорог, многие зада- чи выбора наиболее экономичного способа перевода динамической системы из одного состояния в другое и т. п. В математике разработан ряд методов для реше- ния подобных задач. Однако весьма часто методы, осно- ванные на использовании графов, оказываются наименее трудоемкими. Задача о кратчайшем пути на графе в общем виде мо- жет быть сформулирована следующим образом. Дан неориентированный граф G~(X, U). Каждому ребру это- го графа приписано некоторое число /(и)^0, называемое длиной ребра. В частных случаях /(м) может быть рас- 76
стоянием между вершинами, соединяемыми ребром и, временем или стоимостью проезда по этому ребру и т. п. При этом любая цепь ц будет характеризоваться длиной, определяемой соотношением (3.7). Требуется для произвольных вершин а и b графа 6 найти путь Цаб, причем такой, чтобы его полная длина была наименьшей. Прежде чем найти общий метод решения этой задачи, рассмотрим правило для решения задачи частного вида, когда длина каждого ребра равна единице. 3.2.2. Нахождение кратчайшего пути в графе с ребрами единичной длины Иногда приходится иметь дело с графами, ребра кото- рых имеют одинаковую длину, принимаемую за единицу. Вершины такого графа обычно представляют собой со- стояния некоторой системы, в которой с некоторой точки зрения все переходы, делаемые за один шаг, эквивалент- ны. Приведем пример задачи, которая сводится к_рас- смотрению графа с ребрами единичной длины. Данная задача может служить иллюстрацией способов построения графов для различных конкретных случаев. Пример 3.2. (задача о ханойской башне). Доска имеет три колыш- ка. На первый нанизаны т дисков, диаметр которых убывает снизу вверх. Ставится задача: перекладывая диски по одному, расположить их в том же порядке на третьем колышке, используя в качестве проме- жуточного второй колышек и соблюдая условие, чтобы ни при како?4 шаге больший диск не мог оказаться выше меньшего ни на одном из колышков В качестве добавочного условия можно потребовать найти решение, требующее наименьшего числа шагов. Пронумеруем диски в порядке убывания их диаметров: т, т— 1, ..., 1. Обозначим через X, У и Z множества дисков, надетых соответственно на первый, второй и третий колышки на любом из ша- гов При этом достаточно указать только множества X и Z, так как множество У получается как дополнение множества X и Z до полного числа дисков Элементом множества X или Z может быть одна из сле- дующих комбинаций дисков: 0, 1, 2, 21, 3, 31, 32, 321, 4, 41, 42, 421, 43, 431, 432, 4321 ... Эти комбинации можно изобразить условными точками на осях X и Z, как показано на рис. 3 7, так что любое рас- положение дисков будет изображаться некоторой точкой на плоскости (X, Z). Соединяя эти точки линиями, указывающими возможные на каждом шаге перемещения дисков, получаем неориентированный граф, 77
иа котором можно найти путь, в том числе и кратчайший, для перехо- да из начальной точки графа в конечную. Построение графа можно произвести путем перехода от т дисков к т-1-1. При т—1 возможные состояния будут представляться множе- ством {(1,0), (0, 0), (0, 1)}, которому соответствует граф на рис. 3.7,а с указанным на нем кратчайшим переходом из начального состояния (1, 0) в конечное (0, 1). Рис. 3.7. Графы переходов в задаче о ханойской башне Для получения общего правила предположим, что уже построен граф для случая т дисков, который назовем m-графом Нетрудно убе- диться, что такой граф будет иметь вид треугольника, изображенного на рис 3.8,а, хотя внутренние связи в нем нам пока неизвестны. Каков при этом будет граф для т-(-1 дисков? Заметим, что диск с номером zn-f-1 может занимать на любом из колышков только нижнее положение. При этом остальные т дисков могут перемещаться как угодно в соответствии с m-графом без изме- нения положения (zn-f-l)-ro диска. Следовательно, граф для отф-1 диска (рис. 3 8,6) будет состоять из трех m-графов, обозначенных цифрами (в кружочках) /, 2 и 3, означающими номер колышка, па котором находится (т-|-1)-й диск. Остается выяснить только переходы от одного /n-графа к другому, соответствующие перемещению (т-]-1)-го диска. Диск (тф-1)-й может быть переложен только на свободный колы- шек, а это возможно лишь в том случае, когда на одном из колышков расположены все т меньших дисков. В соответствии с этим иа рис. 3 8,6 показаны возможные переходы (щ-|-1)-го диска, обозначен* 78
ные цифрами 1, 2 и 3, означающими номер колышка, на котором на- ходится т меньших дисков. Диаграмма, показанная на рис. 3.8,6, дает общий принцип пере- хода от m-графа к (иг-|-1) -графу. На рис. 3.7,6 и в приведены графы переходов для двух и трех дисков. Перейдем к задаче нахождения в графе кратчайшего пути, соединяющего начальную вершину с конечной. По- скольку рассмотренные графы сравнительно просты, та кратчайший путь нетрудно найти просто путем перебора Переход от от-графа к (m+l)-графу возможных путей. Однако для сложных графов должен быть найден систематический метод. Общее правило для нахождения кратчайшего пути в графе состоит в том, чтобы каждой вершине х, приписать индекс X/, равный длине кратчайшего пути из данной вер- шины в конечную. Приписывание индексов вершинам в случае графа с ребрами единичной длины производится в следующем порядке: I) конечной вершине х0 приписывается индекс 0; 2) всем вершинам, из которых идет ребро в конечную вершину, приписывается индекс I; 3) всем вершинам, еще не имеющим индексов, из ко- торых идет ребро в вершину с индексом К, приписывается индекс А.,+ 1. Этот процесс продолжается до тех пор, пока не будет помечена начальная вершина. По оконча- нии разметки индекс у начальной вершины будет равен 79
длине кратчайшего пути. Сам кратчайший путь найдем, если будем двигаться из начальной вершины в направ- лении убывания индексов. Пример разметки индексов и определения кратчай- шего пути показан на рис. 3.7,в для т=3. Отметим, что описанный способ определения кратчай- шего пути является частным случаем нахождения опти- мального решения по методу динамического программи- рования. Поэтому после изучения динамического програм- мирования полезно вернуться к рассмотренному примеру. 3.2.3. Нахождение кратчайшего пути в графе с ребрами произвольной длины Задача приписывания вершинам графа числовых ин- дексов усложняется, если ребра графа имеют произволь- ную длину. Усложнение вызвано тем, что в сложном гра- фе путь, проходящий через наименьшее число вершин, нередко имеет большую длину, чем некоторые обходные пути. Так, в графе (рис. 3.9), изображающем карту до- рог, прямой путь из вершины, отмеченной звездочкой, в конечную вершину имеет длину 7=12, тогда как обходной путь через вершину, отмеченную треугольником, имеет длину 7=10. Процесс приписывания индексов для такого вида гра- фов заключается в следующем [11, 13]. 1. Каждая вершина xL помечается индексом X;. Пер- воначально конечной вершине хо приписывается индекс ло—0. Для остальных вершин предварительно полагаем Л,=оо (i=^0). 2. Ищем такую дугу (xt, х;), для которой —Xt> >1(х1, X,), и заменяем индекс К, индексом Х'/=Х,+ +/(%,, х/)<Х/. Продолжаем этот процесс замены индек- сов до тех пор, пока остается хотя бы одна дуга, для которой можно уменьшить Отметим два свойства, которыми будут обладать при- писанные вершинам индексы. 1. Пусть (хй, xs)—произвольное ребро. Для него обя- зательно выполняется условие Xs—2ife^/(xfe, xs), так как если бы оно не выполнялось, индекс нужно было бы уменьшить. 2. Пусть хр — произвольная вершина. При рассмотрен- ном процессе приписывания индексов индекс хр монотон- но уменьшается. Пусть xq— последняя вершина, послу- жившая для его уменьшения. Тогда X,p=?i9+/(x<7, хр). 80
Рис. 3.9. Карта дорог Следовательно, для произвольной вершины хр с индексом кр найдется вершина xq, соединенная ребром с хр, такая, что хр). Эти свойства позволяют сформулировать следующее правило для нахождения кратчайшего пути. Пусть хп = а — начальная вершина с индексом Я„. Ищем вершину xPl такую, что — ZPl = /(xP1, хп). Далее Ищем вершину хРг такую, что — ЛРг = 1(хРг, хР1) и т. д., до тех пор, пока не дойдем до конечной вершины xpk+1 — — Ь. Путь p0 = (x;i, xPl,..., хР/), х0), длина которого равна Я,„, является кратчайшим. Для доказательства рассмотрим произвольный путь из а в b\ p. = (x„, Xki. Xks, ха). Его длина будет /(р). Соглас. но правилу расстановки индексов будут выполняться сле- дующие неравенства: xa2);I (311) 6-804 81
Складывая почленно эти неравенства, находим, что для любого пути [л имеет место In—0^/(ц). (3.12) Так как для пути ц0 выполняется условие кп=1(у.о), то путь цо является кратчайшим. Метод нахождения кратчайшего пути проиллюстри- рован на примере карты дорог, представленной в виде графа на рис. 3.9. Цифры у ребер указывают время про- езда по каждой из дорог. Индексы вершин дают время проезда от данной вершины до конечной’. 3.2.4. Построение графа наименьшей длины Большое практическое значение имеет следующая за- дача, которую можно сформулировать в виде задачи о проведении дорог Имеется несколько городов а, Ь, с .. которые нужно соединить между собой сетью дорог. Для каждой пары городов (х, у) известна стоимость 1(х, у) строительства соединяющей их дороги. Задача состоит в том, чтобы построить самую дешевую из возможных се- тей дорог. Вместо сети дорог можно рассматривать сеть линий электропередачи, сеть нефтепроводов и т. п. Назы- вая в графе, изображающем сеть дорог, величину 1(х, у) длиной ребра (х, у), приходим к задаче о построении графа наименьшей длины. Поэтому далее в качестве стои- мости дорог примем длину ребер графа. Если имеются всего три вершины (а, Ь, с), то доста- точно построить одну из соединяющих цепей abc, acb, Ьас, причем если Ьс— самое длинное ребро, то именно его и надо исключить, построив цепь Ьас. Граф наименьшей длины всегда является деревом, так как если бы он содержал цикл, можно было бы удалить одно из ребер этого цикла и вершины все еще остались бы соединенными. Следовательно, для соединения п вер- шин нужно построить п—1 ребро. Покажем, что граф наименьшей длины можно по- строить, пользуясь следующим правилом [12]. Прежде всего соединяем две вершины с наиболее коротким реб- ром ui. На каждом из следующих шагов добавляем са- мое короткое из ребер и„ при присоединении которого к уже имеющимся ребрам не образуется никакого цикла. Если имеется несколько ребер одинаковой длины, то вы- бираем любое из них. Каждое дерево Q, построенное та- 82
ким образом, будем называть экономическим деревом. Его длина равна сумме длин отдельных ребер. /(Q)=/(«,)+ (3.13) в том порядке, в котором Рис. 3.10 К построению дерева наименьшей длины Покажем, что никакое другое дерево, соединяющее те же вершины, не может иметь длину, меньшую длины экономического дерева Q. Пусть Р — дерево наименьшей длины, соединяющее рассматриваемые вершины, a Q — любое экономическое дерево. Предположим, что ребра Ui, U2, .... un-i занумерован - - - - - - они присоединялись при по- строении Q, т. е. удовлетво- ряют условию l(uk)^ ^/(uft+i). Если дерево Р не совпадает с Q, то Q имеет по меньшей мере одно ребро, не принадлежащее Р. Пусть и,= (а, Ь) — первое такое ребро и пусть L(a, b)—цепь графа Р, соединяющая вер- шины а и Ь, как, например, на рис 3.10. Если ребро ut до- бавить к Р, то получим цикл, а так как Q не имеет циклов, то в этот цикл должно входить по крайней мере одно реб- ро, не принадлежащее Q. Пусть это будет u't. Удалив его, получим дерево Р' с тем же числом вершин, что и Р, длина которого Z(P')=Z(P)+Z(«e)—Z(«'O- (3.14) Так как граф Р имеет наименьшую длину, то Z(«z)^Z(«'e). (3.15) Но и, было ребром наименьшей длины, при добавле- нии которого к ребрам Ui, иг, ..ис—\ не получается цик- лов. Так как при добавлении u't к этим ребрам также не получается никакого цикла, то /(«,)=/(«',) (3.16) и, следовательно, Р' имеет, так же как и Р, наименьшую длину. Но Р' имеет с экономическим деревом Q на одно общее ребро больше, чем Р. Повторяя эту операцию не- сколько раз, получаем дерево наименьшей длины, совпа- дающее с Q. Следовательно, Q —дерево наименьшей длины. 83
3.3. ТРАНСПОРТНЫЕ СЕТИ 3.3.1. Основные понятия Транспортной сетью называют конечный граф без пе- тель, у которого: 1) существует одна и только одна такая вершина x<j, что Г~1хо=0 (эту вершину называют входом сети)-, 2) существует одна и только одна такая вершина z что Vz—0 (эту вершину называют выходом сети); 3) каждой дуге графа и отнесено целое число с (и), называемое пропускной способностью дуги и. С понятием транспортной сети тесно связано понятие потока. Пусть х — произвольная вершина. Обозначим че- рез и~х множество дуг, заходящих в х, а через U+x — множество дуг, выходящих из х. Потоком по транспортной сети называют функцию <р(«), удовлетворяющую усло- виям 0^<p(u)^c(u), ue=U; (3.17) 2 ?(«)- 2 <Р(«) = 0, х=/=хй,x^z. (3.18) U&J7 u&Uv Функцию <р(ц) можно рассматривать как количество вещества, протекающего (в единицу времени) по дуге и—(х, у) от х к у. Согласно условию (3.17) это количе- ство вещества не может превышать пропускной способ- ности дуги с (и). Согласно условию (3.18) в каждой вер- шине х, отличной от входа хо и выхода г, количество при- текающего вещества равно количеству вытекающего. Сле- довательно, вещество не может накапливаться ни в одной вершине транспортной сети, за исключением входа и вы- хода. А это означает, что поток, выходящий из входной вершины хо, в точности равен потоку, входящему в вы- ходную вершину z: 2 ?(«) = 2 <р(и)=<рг. (3.19) ueUx, и<=и~ Величину <р(г) называют величиной потока транспорт- ной сети. На рис. 3.11 приведен пример транспортной сети. Циф- ры в разрывах дуг означают пропускную способность дуги. Стрелки указывают направление потоков, а цифры около стрелок — величину потока. К анализу транспортных сетей 84
Рис. 3 11 Распределение потоков в транспортной сети сводятся многие задачи, возникающие при плани- ровании поставок, рас- пределении товаров между потребителями и т. п. Для исследования рас- пределения потока по транспортной сети удобно ввести понятие разреза транспортной сети. Пусть А<пХ — некоторое множе- ство, удовлетворяющее ус- ловиям х0^А, г^А. (3.20) Через U~A и через U+A обозначим соответственно Множество дуг, заходящих в А и выходящих из А. Полную совокупность дуг UA — — U~A{jU+A назовем разрезом транспортной сети. Пример разреза приведен на рис. 3.11,а. Поскольку каждая частица вещества, двигающаяся ог л'о к г, обязательно пройдет по какой-либо дуге разреза, то общий поток через разрез будет равен значению потока тра'нспортной сети; для любого разреза А имеет место соотношение <рг= 2 <р(ы) — S ?(»)• оес/т и^и+ (3.21) Назовем пропускной способностью разреза А сумму пропускных способностей дуг, заходящих в этот разрез. с (И) — 2 с(«)- (3.22) Поскольку для любой дуги имеет место cp(w)^c(u)r то из (3.21) и (3.22) вытекает <рг^с(Д). (3.23) 85
3.3.2. Задача о наибольшем потоке Задача о наибольшем потоке в транспортной сети формулируется следующим образом. При заданной кон- фигурации транспортной сети и известной пропускной способности дуг найти наибольшее значение потока, ко- торый может пропустить транспортная сеть, а также рас- пределение этого потока по дугам транспортной сети. Лемма. Если для некоторого значения потока транс- портной сети <рг и некоторого разреза V (рис. 3.11,в) имеет место фг=с(1/), то поток фг является наибольшим, а разрез V имеет наименьшую пропускную способность. Доказательство. Как было показано, значение потока фг для любого разреза А должно удовлетворять соотношению (3.23). Обозначим через V разрез с мини- мальной пропускной способностью c(V) = min с (А). (3.24) Так как значение потока ф? одно и то же для любого разреза транспортной сети, то увеличение значения пото- ка фг возможно лишь до тех пор, пока он не достигнет значения c(V). Следовательно, значение потока фг=с(К) (3.25) и определяет наибольший поток транспортной сети. Однако данная лемма не дает еще практически при- годного способа определения наибольшего потока. Для формулировки такого метода введем несколько вспомога- тельных определений. Дугу и назовем насыщенной, когда ф(и)=с(и). Поток фг называют полным, если каждый путь из Хо в г содер- жит по крайней мере одну насыщенную дугу. Полный поток для данной транспортной сети не яв- ляется строго определенной величиной и зависит от на- правления потоков в отдельных дугах. Так, на рис. 3.11/t и в даны два различных распределения потока по одной и той же транспортной сети. Насыщенные дуги показаны жирными линиями. В обоих случаях потоки являются поч- ными, хотя значения их различны. Алгоритм для нахождения наибольшего потока, пред- ложенный Фордом и Фалкерсоном [13], состоит в посте- пенном увеличении потока фг до тех пор, пока он не ста- нет наибольшим. При этом предполагается, что пропуск- 86
ные способности дуг с (и) представляют собой целые чис- ла, так что потоки по дугам также будут выражаться це- лыми числами. Нахождение наибольшего потока произво- дится в два этапа. 1. Нахождение полного потока. Пусть Ф(и) — некоторое распределение потока по дугам транс- портной сети. Ищем путь ц из х0 в г, все дуги которою не насыщены, и полагаем: Л).|’м+1 "₽»“£« (3.26) ' <р(ц) при и ^|Л. При ЭТОМ ПОТОК фг ИЗМеНИТСЯ ДО величины ф'г=фг4- + 1>фг. Таким путем производим постепенное увеличение Фг до тех пор, пока он не станет полным. Пример 3.3. Найдем полный поток на транспортной сети (рис. 3.11,а). Последовательно рассматриваем следующие пути, отме- чая насыщенные дуги жирными линиями Hi=(x<>, Xi, х3, z), <p((i|) = 1 — насыщается дуга (х0, *i), р.!= (хох'г, х4, х3, г), <р(ц2) = 1 — насыщаются дуги (х4, х3) и (х3, z); j.t3=(x0, х2, х4, г), для насыщения этого пути можно взять <р(р3) = = 2 — насыщается дуга (х2, х4). Легко видеть, что больше нет путей из х0 в z, содержащих нена- сыщенные дуги Следовательно, полный поток фг = ф (Ц1НФ (Ц2)+<Р (Цз) =4. 2. Нахождение наибольшего потока. Пусть Фг—полный поток, ф(х, у)—поток в дуге ц=(х, у), на- правленный от вершины х к вершине у. Процесс увели- чения фг состоит в разметке вершин графа индексами, указывающими путь, на котором возможно увеличение по- тока. Предварительно все вершины графа должны быть перенумерованы. Помечаем х0 индексом 0. Если х, — уже помеченная вершина, то помечаем индексом +t все непомеченные вер- шины, в которые идут ненасыщенные дуги из х„ т. е. вер- шины у, для которых (х„ y)t=U и ф(х„ z/)<c(x„ у}, (3.21) и индексом — I все непомеченные вершины, из которых идут дуги в вершину х„ т. е. вершины у, для которых (у, xt)e=U и <р(у, х,)>0. (3.28) 87
Если в результате этого процесса окажется помечен ной вершина z, то между вершинами х0 и z найдется цепь [л, все вершины которой различны и (с точностью до зна- ка) помечены номерами предыдущих вершин. Поток во всех ребрах этой цепи увеличиваем на единицу в направ- лении от х0 к z, т. е. полагаем: <p'(u)=<p(u), если ф'(ц)=ф(«) + !> если мер. и при движении от х0 к z дуга и проходит в направлении ее ориентации; ф'(и)=ф(и) —1, если иец и при движении от х0 к z дуга и проходит в направлении, противоположном ее ориентации. В результате этого процесса получим новый поток по сети ф'г=фг+1, т. е. поток возрастает. Далее этот про- цесс повторяем. Если некоторый поток фг° невозможно увеличить опи- санным методом, т. е. если окажется невозможным поме тить вершину z, то фг° является наибольшим потоком сети Действительно, пусть V — множество непомеченных вер- шин, включающих, конечно, и вершину z. Следовательно, V есть разрез, причем такой, который не имеет выходя- щих дуг (в противном случае некоторые вершины этого разреза были бы помечены отрицательными индексами), а все входящие дуги насыщены: Uv =UV; Uv = 0; *1 (3.29) <р (и) = С ('/) ДЛЯ U е Uy. J При этом ?/ = S <р(и)— 3 ?(“)= 3 с(«) —0 = c(V). (3.30) u£LUy uf—Uy Согласно доказанной ранее лемме фг° есть наибольший поток, а V — разрез с наименьшей пропускной способ- ностью. Пример 3.4. Разметка индексов вершин транспортной сети приве- дена на рис. 3.11,а. Вершина z оказалась помеченной индексом -|-4. Убывающая последовательность индексов -J-4, —3, -1-2. -|-0 определяет 88
цепь ц=(хо. х2, х3, х4, z), поток в которой от х0 к г следует увеличить на единицу. Это приводит к распределению потока, показанному на рис. 3.11,6. Повторяя процесс разметки индексов на этом рисунке, на- ходим цепь g=(xo, х2, Х|, х3, х4, z), поток в которой также должен быть увеличен на единицу. Результирующее распределение потока по- казано на рис. 3.11,в. При разметке индексов на этом рисунке остают- ся непомеченными вершины х4 и г. Следовательно, полученное распределение потока обеспечивает наи- больший поток фг° в рассмотренной транспортной сети, а множество V={x4, г} определяет разрез с наименьшей пропускной способностью. Определив пропускную способность разреза V, найдем значение потока ф?=С(Х2, Х4)-|-С(Хз, х4)-|-с(хз, г) = 3-|-1-J-2 = 6. Увеличить наибольший поток транспортной сети можно путем по- вышения пропускной способности какой-либо из дуг, заходящих в раз- рез V. 3.3.3. Транспортная задача Наряду с задачей отыскания наибольшего потока прак- тическое значение имеет задача наиболее экономичного распределения потока по дугам транспортной сети, полу- чившая название транспортной. Поскольку транспортная сеть во многих случаях представляет собой схему органи- зации перевозок каких-либо грузов, то решение транс- портной задачи позволяет определить рациональный план перевозок, т. е. такое распределение маршрутов, которое обеспечивает, например, минимальную стоимость перево- зок или доставку грузов к потребителю в кратчайшее время. Первая задача получила название транспортной задачи по критерию стоимости, а вторая — транспортной задачи по критерию времени. Для удобства дальнейшего изложения обозначим: с,,— — с(х„ х,) — пропускная способность дуги (х„ х;); tZ,/= =d(x„ X,) — стоимость прохождения единицы потока по дуге (х„ х,). Транспортную задачу по критерию стоимости в тер- минах теории графов можно сформулировать следующим образом. Даны транспортная сеть с наибольшим потоком <рг° и поток фг^фг0, который должен быть пропущен по этой транспортной сети. Требуется найти такое распределение 89
потока фг по дугам транспортной сети, которое обеспе- чивает минимальную стоимость прохождения потока. При этом для каждой дуги должно выполняться соотношение ф(х£, х,)^с£/, а стоимость прохождения потока ф(х£, х,) по дуге (Xi, xt) равна с(,/ф(х£, х;). Для решения этой задачи будем рассматривать вели- чины dtI как длины соответствующих дуг. В этом случае стоимость прохождения потока ф по какому-либо пути р от xq до z будет равна произведению длины этого пути на значение потока ф и задача минимизации стоимости прохождения потока сведется к решению рассмотренной ранее задачи нахождения кратчайшего пути в графе от х0 до z. Если нет ограничений на пропускную способность дуг, то кратчайшим путем является тот, который обеспе- чивает минимальную стоимость прохождения потока. При наличии ограничений на пропускную способность дуг задача решается в несколько этапов путем нахожде- ния частичных потоков на каждом этапе. Общий путь ре- шения задачи состоит в следующем. В графе Gi=(X, Г), изображающем транспортную сеть с длинами дуг d„=/(x£, х,), ищется кратчайший путь pi от хо до z Пусть Ci — пропускная способность пути ць По этому пути пропускается поток (Т„ если (3 3[) (с,,, если <рг>б\. Если фг=СС1, то задача решена и путь щ является наиболее экономичным для потока фг. Если фг>С1, то поток ф! рассматриваем как частич- ный и переходим к графу Gi, который получается из гра- фа Gi путем замены пропускных способностей дуг с,, на с',, из соотношения с'ч = Iе'/для (3.32) {Сч для При этом дуги, у которых с'о=0, исключают из рас- смотрения Поток, распределение которого ищется в гра- фе G2, принимаем равным ф'г = фг—ф1. (3.33) Теперь возникает первоначальная задача отыскания наиболее экономичного распределения потока ф'г, но уже 90
Рис. 3.12. Схема дорог по отношению к графу G2. Ее решение дает путь ц2 с про- пускной способностью с2, через который пропускается ча- стичный поток если (3.34) (с£, если <рг' >-с2. Если (p'zs^cz, то задача решена и наиболее экономич- ным распределением потоков в графе Gi будет прохож- дение потока <pi по пути ц; и потока ф2 по пути ц2. Если ф'2>с2, то следует перейти к новому графу G3 и найти новый частичный по- ток фз- Этот процесс повто- ряется до тех пор, пока сум- ма частичных потоков не до- стигнет значения ф2. Эти ча- стичные потоки, пропущенные по графу Gi, и дают наиболее экономичное распределение потока ф2. Для иллюстрации описан- ного метода рассмотрим наи- более часто встречающийся вариант транспортной задачи по критерию стоимости. Однородный груз имеется на станциях Xi, ..., хт в ко- личествах ait ..., ат. Его требуется доставить на станции t/i....уг в количествах bit ..., br. Предполагается, что общее количество требуемого груза равно имеющимся за- пасам: <3-35) Ь=1 7=1 Стоимость перевозки единицы груза со станции х< на станцию у, равна dt/. Требуется найти наиболее эконо- мичные маршруты перевозки грузов. Исходные данные удобно записывать в виде табл. 3.1. Транспортная сеть, соответствующая этой задаче, строится следующим образом. Вход х0 соединяется с каж- дой из вершин х, дугой с пропускной способностью с(х0, х,)—а,. Каждая из вершин у, соединяется с выхо- дом z дугой с пропускной способностью c(yi, z)=b} Стои- мость прохождения потока по дугам (х0, хг) и (yh z) счи- тается равной нулю. Наконец, каждая вершина х, соеди- 91
няется с каждой вершиной у; дугой с бесконечной про- пускной способностью, стоимость прохождения единицы потока по которой равна d(/. Далее к этой транспортной сети применяют рассмотренный метод. Пример 3.5. Найти наиболее экономичные маршруты для транс портной задачи, заданной в табл. 3.2. Эта таблица соответствует пока- занной на рис. 3.12 схеме дорог, связывающих заводы, изготовляющие Таблица 3.1 Стоимость прохождения единицы потока dtj для следующих b, - * bi \ 1 ”r dtl dir а„, dim. &тг Таблица 3.2 a. Стоимость прохождения единицы потока d,. для значения bf 5 10 20 15 10 8 3 5 2 15 4 1 • 6 7 25 1 9 4 3 строительные детали, с потребителями этих деталей (стройками). Транс- портная сеть, соответствующая данным табл. 3 2, приведена на рис. 3.13,а Применяя описанный выше метод, находим частичные потоки и маршруты, перечисленные ниже в порядке их получения к ........... 1 2 3 4 5 6 Маршрут (Х[, У,) • . . * (х3, уд (х2, Уд (х,, Уд (х3, Уд (х3, Уд (Х2, Уд Частичный по- ТОК’«6 . . . . 5 10 10 5 15 5 50 dh . . . . 1 12 3 46 - Стоимость пе- ревозки diftk 5 10 20 15 60 30 140 Соответствующий план перевозок приведен также на схеме дорог. 92
Рис. 3 13. Решение транспортной задачи по критерию стоимости (а) и по критерию времени (б) Нетрудно видеть, что в общем случае стоимость пере- возки грузов по транспортной сети рассмотренного вида определяется выражением S S у?>- (3-36) Следовательно, разобранный метод решения транс- портной задачи дает по существу способ нахождения величин частичных потоков <р(х1( tji), минимизирующих указанную сумму. Рассмотренный способ решения не яв- ляется единственным. С подобными задачами мы встре- тимся в разделе, посвященном линейному программирова- нию, где будут приведены другие методы решения анало- гичных задач. Решение транспортной задачи по критерию времени разберем на примере транспортной сети, заданной табл. 3.2, в которой величины d,/ будем теперь трактовать как вре- мя, потребное на перевозку груза из пункта xt в пункт у/ 93
и обозначать далее через t4. С подобными задачами мож- но столкнуться при транспортировке скоропортящихся продуктов, при доставке средств помощи в районы сти- хийных бедствий, при вывозке зерна нового урожая в заготовительные пункты и т. п. Во всех этих задачах стоит требование доставки всех грузов в пункты назна- чения за возможно более короткий промежуток времени. Рассмотрим общий путь решения этой задачи. Пред- положим, что каким-либо методом найдено некоторое рас- пределение потока <р2 в графе G, изображающем рассмат- риваемую транспортную сеть. ' Выделим из графа G частичный граф G', в который включим только дуги, уча- ствующие в передаче потока <р2. Пусть р —некоторый путь, ведущий из х0 в z, — время прохождения потока по этому пути. Очевидно, что время, необходимое на пе- ревозку всех грузов из в z, будет определяться путем, имеющим наибольшую продолжительность прохождения потока, так как перевозка грузов по остальным путям закончится раньше. Следовательно, время, требуемое на перевозку всех грузов, Т = шах (3.37) peG' Решение транспортной задачи по критерию времени сводится, таким образом, к тому, чтобы выделить из гра- фа G такой частичный граф G', который был бы спосо- бен пропустить весь поток <р2 и в котором длительность наиболее продолжительного пути была бы минимальной по сравнению со всеми другими подобными графами. При этом решение, найденное по описанному ранее критерию стоимости, минимизирующее величину, определяемую вы- ражением (3.36), может и не быть наилучшим с точки зрения критерия времени. Решение поставленной задачи сводится к последова- тельному улучшению графа G' путем удаления из него наиболее продолжительных путей и введения более ко- ротких, но неиспользованных ранее и соответствующего перераспределения потока <р2., Обратимся к рассматриваемому примеру. В качестве первого при- ближения к наилучшему решению примем решение, полученное на осно- ве критерия стоимости. Распределение потоков для этого случая пока- зано на рис. 3 13,а Из рисунка видно, что время прохождения потока по наиболее продолжительному маршруту (№, у3) равно шести. Одна- 94
ко оказались неиспользованными менее продолжительные маршруты (xi, уг), (%2, yi), (хь у3). Поэтому возможно, что использование какого-либо из этих маршрутов позволит исключить маршрут (хг, у3). Построим частичный граф G', в который включим только дуги графа G, имеющие /,/<6, и в котором распределение потока осталось тем же, что и в графе G. Граф G' показан на рис. 3.13,6, где для удобства вершины у, обозначены через хт+/=х3+/. Поток <р'2 через этот граф равен 45 ед„ т. е. меньше, чем первоначальный поток <₽г= =50 ед. Этот поток является полным, так как в графе G' все пути из х0 в z содержат насыщенные дуги. Однако возможно, что он не является наибольшим. Таблица 3.3 Маршрут Частичный поток Время прохождения потока (Х2, У г) 10 1 (Хр У») 10 2 (х3, у4) 5 3 (х2, Уз) (х3. Уз) 5 4 20 4 - <рг=50 <тах=4 Если наибольший поток в графе G' равен <р2, то найдется распре- деление этого потока, при котором наиболее продолжительный путь будет иметь время /g<6. Следовательно, дальнейшее решение задачи сводится к определению наибольшего потока в графе G'. На рис. 3.13,6 произведена разметка вершин графа G' в соответ- ствии с правилом § 3 3. Разметка вершин указывает на существование пути (Хо, хг, Xt, Хз, хв, г), на котором поток в направлении от х0 к г может быть увеличен на 5 ед. Этот добавочный поток показан стрел- ками. Как видим, наибольший поток в графе G' равен <р2=50 ед. и наиболее продолжительный маршрут имеет время 4 ед. Дальнейшего уменьшения времени прохождения потока добиться невозможно, так как к вершине хв не идут маршруты со временем, меньшим 4 ед. Окончательное распределение частичных потоков по маршрутам, дающее решение транспортной задачи по критерию' времени, приведено в табл 3.3. 95
ЭЛЕМЕНТЫ ЛИНЕЙНОЙ АЛГЕБРЫ И ВЫПУКЛЫЕ МНОЖЕСТВА 4.1. МЕТРИЧЕСКИЕ ПРОСТРАНСТВА И РАССТОЯНИЯ 4.1.1. Понятие о расстоянии Проведенное в гл. 2 рассмотрение множеств как со- вокупностей некоторых объектов имеет ограниченное при- менение, так как в природе все материальные объекты находятся во взаимной связи и взаимодействии. Поэтому понятие множества необходимо увязать с установлением тех или иных соотношений между его элементами. Говорят, что множество имеет структуру, если между элементами множества установлены определенные соотно- шения или над ними определены некоторые операции. Множество, наделенное структурой, называется простран- ством. Н Рис. 4.1. Иллюстрация аксиомы треугольника Рис. 4.2. Определение расстояния в городе, разде- ленном на кварталы Изучение пространств начнем с пространств, называе- мых метрическими, для определения которых необходимо ввести понятие расстояния между элементами множества [14]. С понятием расстояния человек сталкивается повсе- дневно, связывая это понятие с пространственным раз- мещением предметов и понимая под расстоянием меру удаленности предметов друг от друга. Обычно расстояние d(M, N) между точками М и N измеряется длиной от- резка, соединяющего эти точки (рис. 4.1). Однако такое 96
определение расстояния часто оказывается недостаточным. Так, даже в обиходе расстояние между двумя городами определяется не однозначно (расстояние по железной до- роге, расстояние по водному пути и т. п.). В городе, раз- деленном на кварталы, как показано на рис. 4.2, измерять расстояние отрезком прямой, соединяющей точки М и N, не имеет смысла, так как двигаться можно только по улицам. а) х б) х б) х Рис. 4.3. Различные случаи близости двух функций С другой стороны, слово «удаленность» часто не свя- зывают с пространством в обычном понимании. Так, бли- зость двух клеточек на шахматной доске можно оценить числом ходов, которые нужно сделать, чтобы перевести шахматную фигуру с одной клеточки на другую. При этом две соседние клеточки близки для короля, но далеки для коня и являются бесконечно далекими, если из одной в другую нужно перевести слона. /_В математике часто стоит задача замены одной функ- ийи^у—f (х), которая почему-либо неудобна для рассмот- рения, другой функцией y=g(x). Такая замена возможна, если функция g(x) близка к функции f(x) (рис. 4.3,а). При этом следует договориться, как понимать близость друг к другу двух функций. Если за условие близости принять ограничиваемые функциями площади, то во всех трех случаях функции близки друг к другу. Если бли- зость оценивать по максимальному отклонению значений у в этих функциях, то в случае на рис. 4.3, б функции уже нельзя считать близкими, а если учитывать еще и харак- тер функции, например кроме близости значений самих функций потребовать близости производных, то функции не будут близкими и в случае на рис. 4.3,в. Из приведенных примеров видно, что должно сущест- вовать некоторое общее определение расстояния как меры 7-804 97
удаленности ^объектов, а следовательно, и пространства, в котором эти объекты существуют, причем в различных конкретных ситуациях эти понятия могут иметь разное содержание. Поскольку совокупности различных объек- тов представляют собой множества, то понятия простран- ства и расстояния должны быть связаны с понятием мно- жества. 4.1.2. Определение метрического пространства Пусть X — произвольное множество. Понятие расстоя- ния между элементами из X получается путем обобщения фундаментальных свойств, которые можно интуитивно ожидать от понятия расстояния и которые легко могут быть поняты из рассмотрения рис. 4.1. Свяжем с каждой парой элементов из X некоторое вещественное неотрицательное число d^Q. Это число на- зывают расстоянием или метрикой в X, если для любых х, у, z^X оно удовлетворяет следующим трем свойствам: 1) d(x, у)=0 тогда и только тогда, когда х=у (аксио- ма идентичности); 2) d(x, y)—d(y, х) (аксиома симметрии); 3) для любой тройки х, у, z^X имеет место d(x, у)^ ^d(x, z)-\-d(z, у) (аксиома треугольника). Метрическим пространством называют пару (X, d), т. е^ множество X с определенной на нем метрикой d. Элементы множества X называют точками метрического пространства (X, d). Из данного определения следует, что множество X только тогда превращается в метрическое пространство, когда в него введена соответствующая метрика d(x, у). Если в одном и том же множестве X ввести различные метрики, то получатся и различные пространства. Так, пространства, изображенные на рис. 4.1 и 4.2, имеют в качестве элементов множества точки плоскости, но обла- дают разными метриками. 4.1.3. Примеры метрических пространств Пусть х, у—-любые элементы из множества R вещест- венных чисел. Множество R можно превратить в метри- ческое пространство, если расстояние между х и у опре- делить из выражения d(x, у) = \х-у\. (4.1) 98
Именно по этой формуле находят расстояние между точками вещественной оси, которая является простейшим примером метрического пространства. Когда мы видели в § 2.3, упорядоченные п-элементные множества удобно рассматривать как точки воображае- мого «-мерного пространства Rn. Можно расширить пред- ставление о таком пространстве, введя понятие расстоя- ния между отдельными точками, т. е. рассматривая это пространство как метрическое. Обозначим через х — = (хь ..., х„), y=(yt, ..., уп) отдельные точки пространства Rn. Пространство Rn можно превратить в метрическое не- сколькими различными способами. Наиболее часто расстояние между точкам и х и у опре- деляют по формуле йг(х, у)=* 2 |хг-«Л |г (4.2) В случае п=2, 3 это определение совпадает с обыч- ным геометрическим понятием расстояния. Свойства 1, 2 и 3 для этого расстояния очевидны из рассмотрения рис. 4.1. Метрику d2(x, у) называют евклидовой, а .простран- ство Rn с такой метрикой — евклидовым и обознача* ют Еп. Для множества Rn расстояние может быть определено и другими способами, например: ^(х,у) = ^ |х( — yt\ (4-3) или dco(x, t/)=max(|xi—t/i|, ..., |х„—р„|). (4.4) Легко видеть, что метрики d2, di, dx являются част- ными случаями метрики dp(x, у) =<>2 К- (4.5) и получаются соответственно при р=2, р=1 и р—оо. Свойства 1 и 2 для метрик (4.3) и (4.4) очевидны. Для доказательства свойства 3 введем в рассмотрение еще
одну точку z=(zx.... zn)e/?rt. Для расстояния rfi(x, у) имеем: < (х, у) = 2 1 V, - Zi+z- — yt I < <2 (1Хг ~z‘\ + \z‘-yt\)=d(x. z) + d1(z, у). i=i Для расстояния doo(x, у) свойство 3 проверяется сле- дующим образом. Предположим, что |х*—z/*|—самая большая из соответствующих разностей точек х и у. Тогда / da>{x, y) = \xk-yk\ = \xk-zk+zk-yk\< < | — Zk I + I zk — yk |. Очевидно, что }хк — zj<max(|x1-z„|.... |xn - zn |) = dx(x, z); — I<max(|2,-^1.!-. Izn-M=d°o(z, У)- Следовательно, d<x>(x, y)<d^(x, z)+^oo(z, y). Рассмотрим множество всевозможных функций време- ни, непрерывных на интервале a^t^b. Пусть x(t) и y(t) —две такие функции. Расстояние между ними d(x, у) — max \x(t) — y(t)\ (4.6) a^t^b удовлетворяет всем свойствам метрики. Пространство с такой метрикой С[а> 6). 4.2. ИСПОЛЬЗОВАНИЕ МЕТРИЧЕСКИХ ПРОСТРАНСТВ В НЕКОТОРЫХ ЗАДАЧАХ КИБЕРНЕТИКИ 4.2.1. Пространство сообщений Как мы видели во введении, сообщения передаются по каналам связи с помощью некоторого алфавита И, состоящего из конечного чис- ла символов. Сообщения представляют собой различные последователь- ности символов алфавита. Число символов в сообщении называют длиной сообщения. 100
Рассмотрим случай, когда с помощью алфавита 81т, состоящего из т символов, передаются сообщения длиной п. Сюда можно отнести и более короткие сообщения, если дополнять их до длины п некото- рым определенным символом, например нулем при использовании дво- ичного алфавита. Множество всех таких сообщений можно рассматри- вать как метрическое пространство, если ввести понятие расстояния между сообщениями. Назовем расстоянием d(x, у) между двумя сообщениями х и у число позиций, в которых у сообщений х и у стоят разные символы. Полученное при этом метрическое пространство обозначим Е(п, Slm) и назовем пространством сообщений. Пример 4.1. Пусть SI m— русский алфавит; п=7, х= (картина); у= (корзина). Не совпадают вторая и четвертая буквы. Следовательно, d(x, у) = 2. Пример 4.2. Пусть 81=Э12={0, 1} —двоичный алфавит; п=10; х= =0100111010; «/=0010110010. Не совпадают 2, 3 и 7-й знаки. Следова- тельно, d(x, у)=3. Приведенное определение расстояния d(x, у) в пространстве сооб- щений удовлетворяет всем свойствам расстояния. Аксиома идентично- сти и аксиома симметрии являются очевидными. Убедимся, что выпол- няется и аксиома треругольника. Рассмотрим сообщении х, у и z длиной п. Обозначим через хк, ун и Zk символы у этих сообщений k-й позиции. Естественно, что если хк=Уи и «/4=zft, то xk=zk, т. е. если в какой-либо позиции совпадают символы у сообщений х и у и у сообщений у и z, тогда в этой пози- ции совпадают символы и у сообщений х и z. Следовательно, у сооб- щений х и z несовпадающие символы могут быть только на тех ме- стах, где не совпадают символы, а также у сообщений х и у, или у сообщений у и z. Но это значит, что общее число несовпадающих символов у сообщений х и z не может превосходить суммы чисел не- совпадающих символов у сообщений х и у и у сообщений у и z. Для простоты и наглядности ограничимся рассмотрением только двоичного алфавита 81=812= {0, 1). Это можно сделать, не уменьшая общности рассуждений, так как сообщения, представляемые символа- ми одного алфавита, можно всегда перекодировать в сообщения, пред- ставляемые символами другого алфавита. Рассмотрим, например, алфа- вит Э1т, содержащий m символов. Сопоставим каждому символу поряд- ковый номер от 0 до m—1. Если теперь заменить в сообщении символы алфавита Э1т их порядковыми номерами в двоичной системе счисления, то получим представление сообщения в двоичном алфавите. Совокупность символов двоичного алфавита, принятую для обо- значения того или иного сообщения, будем называть двоичным кодом или кодом сообщения. 101
4.2.2. Понятие о помехоустойчивых кодах В процессе передачи по каналу связи возможно искажение пере- даваемого сообщения. При двоичном алфавите искажение состоит в том, что в принятом сообщении некоторые единицы окажутся заме- ненными нулями, а некоторые нули — единицами. Возникает вопрос, нельзя ли построить коды, которые позволяют обнаруживать, что в процессе передачи произошло искажение, или даже восстанавливать значения искаженных разрядов. Коды, обладающие этими свойствами, называют помехоустойчивыми. Рассмотрим случай, когда в процессе передачи сообщения не мо- жет произойти искажения более чем в k разрядах. В пространстве со- общений Е(п, Я2) выделим подмножество Н*=Е(п, Ш2), обладающее тем свойством, что для любых х, уеНь имеет место: d(x, y)>k. (4.7) Множество Н* назовем множеством осмысленных слов. Здесь тер- мин «слово» является синонимом термина «сообщение». Тогда любое есть бессмысленное слово Предположим, что при передаче сло- ва хеН» оно исказилось и превратилось в слово х'. Так как по усло- вию могло произойти не более k искажений, то d(x, x')^k и т. е. х' — бессмысленное слово. Таким образом, прием бессмысленного слова означает, что в процессе передачи произошло искажение. Коды, удовлетворяющие условию (4.7), называют кодами с обнаружением ошибки. Пример 4.3. Из множества Е(ЗИ2) выделим следующее множество осмысленных слов, удовлетворяющих условию d(x, у)=2: Я,= {000, 101, ОН, ПО}. Искажение любого разряда в этих словах превращает их в бес- смысленные, т. е. позволяет обнаруживать однократную ошибку. Множество Я,, образующее код с обнаружением однократной ошибки в словах длиной п, можно получить следующим образом. Рас- смотрим множество Е(п—1, И2), т. е. множество слов длиной п—1. Множество Я] получим, добавляя к этому множеству еще один раз- ряд, значение которого выбираем таким, чтобы общее число единиц в словах х<=Нг было четным. Пример 4.4. Для п=4 имеем: £(3, И2)={000, 001, 010, 100, 011, 101, ПО, 111}. При этом Я,= {0000, ООП, 0101, 1001, ОНО, 1010, 1100, 1111}. Обнаруживать искаженное слово удобно с помощью операции сло- жения по модулю 2 согласно правилам 0®0=0; Оф 1=1; 1ф0=1; 1ф 1=0. (4.8) 102
Так, в слове x=at, а2.... ап величина р = а1фа2 ©... фа„ -будет нулем или единицей в зависимости от того, четное или нечетное число символов слова имеют значение единицы. Заметим, что получившийся в примере 4.4 четырехразрядный код •с обнаружением ошибки дает возможность составить 24=16 различных слов, хотя в качестве осмысленных слов, т. е. подлежащих передаче по каналу связи, используется только 8. Коды, у которых количество осмысленных слов меньше общего числа возможных слов, получили название кодов с избыточностью Наличие избыточности — необходимое условие построения помехоустойчивых кодов. Можно построить такие коды, которые позволяют исправить допу- щенные ошибки. Полагаем опять, что в процессе передачи могут под- вергнуться искажению не более k разрядов кода. Множество осмыс- ленных слов Н4=Е(п, St2) выбираем из условия d(x, y)>2k (4.9) для любых х, уеНк- Рассмотрим любые два сло^а х, уе=Нь. Пусть в результате иска- жения х превратилось в х'. Поскольку d(x, y)>2k; d(x, x')<k, то из аксиомы треугольника получаем d(x', y)>k. (4.10) Таким образом, расстояние от ошибочного слова х' до слова х, подвергшегося искажению, меньше, чем до любого другого осмыслен- ного слова. Находя ближайшее к х' осмысленное слово, мы тем самым восстановим правильное сообщение х. Коды, удовлетворяющие условию (4.10), называют кодами с исправлением ошибок. Вопросы практиче- ской реализации кодов с исправлением ошибки достаточно сложны и рассматриваются в специальной литературе [15]. 4.2.3. Сглаживание ошибок в экспериментальных данных При исследовании работы различных технических систем часто бы- вает необходимо знать, как меняется некоторая физическая величина у(1) с течением времени. С этой целью ставится эксперимент и в мо- менты Zj, ..., tn измеряют значения yi=y(ti), ..., yn = y(Jn). После- довательность дискретных значений физической величины У=(«/ь ... Уп) будем рассматривать как точку в п-мериом пространстве. Однако на практике условия эксперимента бывают далеко не идеальны и результаты измерений оказываются в значительной степени искаженными. Поэтому измеренные значения физической величины Xi, ..., хп будут отличаться от истинных значений, как это показано иа рис 4.4. Возникает вопрос, как нанлучшим образом по неточным 103
измеренным значениям х,; i=l, ,.п установить истинный характер зависимости у(Z)? Обозначим Х=(х........хп) точку n-мерного пространства, коорди- натами которой будут результаты измерений. Очевидно, что если Х= = У, т. е. расстояние d(X, У) между точками X и У равно нулю, то измерения произведены без ошибок и последовательность (хь ..., хп) дает истинный характер изменения физической величины. Если же X=/=-Y, то о степени искажения можно судить по расстоянию d(X, У). Обычно общий характер зависимости y(t) бывает известен с точ- ностью до нескольких числовых параме- трое, значения которых и должны быть установлены по результатам эксперимен- та. В этом случае задача сводится к то- му, чтобы выбрать неизвестные парамет- ры зависимости y(t) такими, при кото- рых расстояние d(X, У) или, что час- то бывает удобней, квадрат этого рас- стояния d2(X, У) обращается в ми- нимум. Оставляя рассмотрение общего ре- шения подобного вида задач до Рис. 4.4. Неточные измере- ния физической величины гл. 10, ограничимся обсуждением лишь простейшего случая, когда при проведении эксперимента величина y(t) остается неизменной, н обо- значим через с истинное, хотя и неизвестное, значение y(t), так что У=(с, .... с). Воспользовавшись метрикой (4.2), определяющей евкли- дово расстояние dz(X, У), для квадрата этого расстояния получаем d22(X, У) =2 (Xi-су. (4.Н) Приравнивая нулю производную от этого выражения по с: (d/dc) [s (xf-c)»j = -22 (xf—с)=0, находим n -tS'- ,,12> Величину с, вычисленную no (4.12), называют средним арифмети- ческим значений Х|, ..., хп, а использованный метод получения этой формулы называется методом наименьших квадратов. При ином определении расстояния получают другие формулы для определения среднего. Для удобства будем считать, что величины Xi, • , хп расположены в порядке возрастания их значений. Предла- 104
гаем читателям самостоятельно убедиться, что при определении рас- стояния по (4.3) среднее значение, называемое медианой, находится из соотношения пРи нечетном п; (любое от x„/2-i Д° хл/2+ 1 ПРИ четном п. Иногда для конкретности при четном п полагают с=0,5 ('Сп/г-r|-xn/2+i). (4.14) Если расстояние определяется по (4.4), то формула для среднего имеет вид с=(х,+хп)/2. , (4.15) 4.2.4. Задача распознавания образов Раздел кибернетики, занимающийся распознаванием образов, ста- вит своей целью промоделировать одно из важнейших свойств чело- веческого мозга — свойство распознавания предметов, явлений и ситуа- ций, позволяющее человеку легко .ариентироваться в сложной окру- жающей обстановке [16, 17]. Основными понятиями теории распознавания являются понятия класса и образа. Отдельные предметы или явления реальной действи- тельности отличаются друг от друга по своим свойствам. В то же время у отдельных предметов и явлений есть и общие свойства, позво- ляющие сгруппировать предметы в некоторые множества или классы. Так, различные виды автомобилем объединяют в класс автомобилей. Классы могут быть различной степени общности в зависимости от свойств, которые им приписывают. Так, класс автомобилей является элементом более обширного класса средств транспорта. Таким обра- зом, классом называют множество предметов или явлений, объединен- ных некоторыми общими свойствами. В каждой конкретной ситуации приходится иметь дело с конечным набором классов, выраженных конечным множеством W={A, В, С.......Р}. (4.16) Каждый класс включает в себя множество объектов, число кото- рых может быть сколь угодно велико и свойства которых весьма раз- нообразны. Однако практически оказывается возможным учитывать лишь ограниченное и часто очень небольшое число различных свойств. Назовем совокупность конечного числа свойств объекта изображением или образом объекта и будем представлять образ в виде «-мерного вектора х=(х....., хп), компоненты которого количественно характе- ризуют свойства образа. Примером образа может служить телевизион- ный сигнал фотографии, разделенной на п независимых ячеек. Сово- 105
купность яркостей свечения яечеек формирует точку в n-мерном про- странстве, которая является образом фотографии. Можно ожидать (конечно, при условии, что выбранная совокуп- ность признаков достаточно полно характеризует свойства объектов), что совокупность точек, соответствующих разным изображениям одно- го и того же класса, будет занимать в пространстве образов некоторую Рис. 4.5. Разделение пространства образов на классы Задачу распознавания образов можно считать в принципе решен- ной, если в пространстве образов проведены поверхности, разделяющие это пространство на области, точки которых принадлежат к образам разных классов Одним из возможных методов решения этой задачи является предварительное изучение свойств отдельных образцов объек- тов каждого класса. Предположим, что имеется всего два класса объектов (-4 и В). Обозначим через Ао и Во множества предварительно изучаемых образ- цов из этих классов. Изображения этих образцов в пространстве обра- зов могут иметь вид, показанный для двумерного случая на рис. 4.5,а, где точки, соответствующие образцам из Ло, обозначены кружками, а из Во — треугольниками. Пусть х — образ исследуемого нового объекта. За меру близости этого образа к классам А и В примем величины S(x, Л) и S(x, В), представляющие собой, например, средние квадраты расстояния от точ- ки х до точек, соответствующих отдельным образцам классов А н В. Так, если Ло={аь .... ат} и Во= .......... bt}, то по (4 12) для сред- него значения получим S(x, Л) = (1/т)2^ (х, а{у, S(x, В) -(1/Z)2 cfi(x, Ь}). (4.17) 106
Поверхностью, разделяющей образы обоих классов в пространстве образов, будет такая поверхность С, точки которой удовлетворяют условию S(x, A)=S(x, В). (4.18) Как видно из рис. 4.5,а, в некоторых случаях поверхность С будет такова, что возможно ошибочное отнесение образа к чужому классу. Критерием качества распознавания может служить относительное число неправильно распознаваемых образов. Пример 4.5. Из классов А и В взято по одному образцу ateA и tieB, выражающих в двумерном пространстве образов наиболее ха- рактерные свойства этих классов. Провести линию, разделяющую про- странство образов на две области, соответствующие классам А и В. Будем определять расстояние по (4.2) длиной отрезка, соединяю- щего две точки в пространстве образов. Согласно (4.18) разделяющей линией будет такая, все точки которой удалены на одинаковое рас- стояние от точек а( и &ь Эта линия будет перпендикуляром, восста- новленным из середины отрезка, соединяющего точки at и bt (рис. 4.5,6). <3 4.3. ЛИНЕЙНЫЕ ПРОСТРАНСТВА 4.3.1. Определение линейного пространства В начале главы пространство было определено как множество, наделенное определенной структурой. Были рассмотрены метрические пространства, структура кото- рых определялась тем, что каждой паре элементов припи- сывалось вещественное число, удовлетворяющее опреде- ленным свойствам и называемое метрикой. Однако вве- дение метрики далеко не исчерпывает всех структурных свойств различных пространств. В частности, если множе- ство X состоит из вещественных или комплексных чисел, то к важным структурным свойствам относится возмож- ность получения одних элементов множества из других путем сложения этих элементов или умножения элемента на скаляр. Множества, обладающие этими свойствами, от- носятся к классу линейных пространств. Линейные про- странства должны удовлетворять следующим условиям: 1) каждой паре элементов х, у^Х однозначно опреде- лен третий элемент zeX, называемый их суммой и обо- значаемый х-j-z/, причем х-\-у=у-{-х (коммутативность); x-j- (z/4-v) = (х+у) (ассоциативность); в X существует такой элемент 0, что х-}-0=х для всех хеХ (существование нуля); 107
для каждого х^Х существует такой элемент — х, что х+( —х)=0 (существование противоположного элемента); 2) для любого числа а и любого элемента хеХ опре- делен элемент ах<=Х, причем (а-Ьр)х=<хх+рх; а(х+у)=ах+ау. Условия 1 и 2 называют условиями аддитивности и однородности линейного пространства. Множества, элементы которых допускают выполнение операций сложения и умножения на скаляр, весьма раз- нообразны. Рассмотрим несколько примеров подобных множеств: 4 множество вещественных чисел R с обычным опреде- лением операций сложения и умножения; множество векторов, т. е. направленных отрезков на плоскости или в пространстве; множество всех функций С|а, Ь] непрерывных на за- данном сегменте [а, Ь], если для любых x(t), y(t) е £Ci0, ы под x(t)+y(t) понимать сумму значений х(1) и y(t), взятых при одних и тех же значениях t, а под ах (0 понимать новую функцию, получаемую из x(t) ум- ножением всех ее значений на а. Нулевой функцией бу- дет функция х(0=0, тождественно равная нулю на всем интервале [а, Ь]; \ множество всех многочленов степени, не превышающей натурального числа п. Однако в дальнейшем сосредоточим свое внимание на линейных пространствах, элементами которых являются упорядоченные последовательности п вещественных чисел, их в соответствии со сказанным в § 2.3 будем называть векторами. Отметим, что,под понятие вектора можно подвести и , функцию х(0, если рассматривать ее как множество зна- чений х(0 при различных t, а также многочлен, который может быть задан множеством коэффициентов при раз- личных степенях переменной. Поэтому термин «вектор» часто используют для' обозначения элементов произволь- ного линейного пространства. 4.3.2. Действия над векторами До сих пор, говоря о множествах, мы считали, что элементами множеств могут быть элементы любой при- роды. В настоящей главе сосредоточим внимание на мно- 108
жествах, элементами которых являются векторы, т. е. упо- рядоченные последовательности из п чисел х(1), ..х<п), которые условно могут быть записаны в виде вектор- , столбца или в виде вектор-строки: _х(«) _ х<п>) = (х<г))1п. Сами числа, составляющие вектор, называются компо- нентами. вектора. Если один из этих векторов обозначить буквой х, то для другого будем использовать обозначение хт и назы- вать транспонированным вектором х. Таким образом, операция транспонирования вектора представляет собой переход от вектор-столбца к вектор-строке и наоборот. В настоящей главе придется иметь дело в основном с век- тор-столбцами, поэтому ниже, если не оговорено против- ное, всякий вектор считаем вектор-столбцом и обознача- ем как х—[дс<0]1«== (х<0 .... х(ч))т. (4.19) Число п компонент вектора называется его размерностью. Сами компоненты могут быть вещественными или комп- лексными числами, однако в дальнейшем ограничимся рас- смотрением лишь векторов с вещественными компонентами (вещественных векторов). Вектор размерности единица представляет собой просто вещественное число, т. е. ска- ляр. Свойства рассматриваемых упорядоченных последова- тельностей чисел являются обобщением свойств векторов, рассматриваемых в элементарной алгебре. Векторы х и у называются равными, если равны их компоненты: х=у, если = i=l, п. (4.20) Суммой х-]-у векторов х и у называют вектор, компо- ненты которого являются суммой компонент слагае- мых: (4.21) 109
Очевидно, что х+у—у+х; x+(y+z) = (x+y)+z. (4.22) (4.23) Разность векторов х—у представляет собой вектор z такой, что y+z=x. Умножение вектора х на скаляр а дает вектор, ком- поненты которого получаются из компонент вектора х умножением их на а: “Х(1) “ ~ах(1)“| ах = ха = а (4.24) В дальнейшем вектор х будем называть точкой линей- ного пространства. 4.3.3. Линейная зависимость и независимость векторов Пусть X — линейное пространство. Рассмотрим некото- рое множество точек этого пространства Xi, ..., х«. Точ- ки Xi, ..., х„ называют линейно зависимыми; если сущест- вуют числа си, ..., ал, не все тождественно равные нулю, то имеет место равенство Й0х1“Ь ... -|-(Хлхл-----0. I (4-25) Часто бывает удобно другое определение линейной за- висимости. Векторы Xi, ..., хп являются линейно зависи- мыми, если один из них может быть представлен в виде линейной комбинации остальных. Так, если an:#0 и вы- полняется условие линейной зависимости, то, принимая a/=—at/an, получаем хп—c/iXi-j- ... -J-aSi-iX/i-b (4.26) Пример 4.6. В пространстве упорядоченных n-ок вещественных чисел линейно независимыми являются векторы “ 0 - " 0 " 0 х„ = ПО
В пространстве непрерывных функций при фиксированном N ли- нейно независимыми являются функции fi(/) = l, f2(0=t, .... f»(t) 4.3.4. Линейное подпространство Как следует из определения линейного пространства X, для любых точек хь х2е% и любых чисел а и |3 ве- личина aXi+pxa будет также элементом линейного про- странства X. Рассмотрим произвольное конечное множество точек S={xi, xm} линейного пространства X. Покажем, что множество L(S) = 2azxf (4.27) при всевозможных а, также представляет собой линей- ное пространство, являющееся подмножеством линейного пространства X и называемое линейным подпростран- ством. Доказательство. 1). Покажем, что L(S) есть подмножество X. Это следует из определения линейного пространства. Каждое слагаемое в сумме (4.27) есть эле- мент линейного пространства X. При сложении же эле- ментов линейного пространства опять получаем элементы линейного пространства X. 2) Докажем, что L(S) — линейное пространство. Для этого достаточно показать, что для любых х', x"eL(S) имеет место ax'+px"eL(S). Возьмем произвольные совокупности чисел а/ и а/\ i=l, ш. Тогда точки X' = 2 а/хг'. Х”= 2 а/'хг принадлежат £(S). Рассмотрим точку х = ах' + рх" = а а/хг + Р 2 а‘"х‘ = <=1 i=i т т = S (аа/ + Ра/,)Х1 = 2 aixz. где a1=aaI'-|-pai". Ill
Как видим, х определяется формулой (4.27), а значит, принадлежит L(S). Таким образом, L(S) — линейное про- странство. Поскольку соотношение (4.27) однозначно связывает с множеством S линейное пространство L(S), то говорят, что линейное пространство L(S) определяется множест- вом S. 4.3.5. Размерность линейного пространства Если элементы множества S, определяющие линейное пространство L(S), являются линейно зависимыми, то не- которые из этих элементов можно представить как линейные комбинации других элементов. Удаление этих эле- ментов из множества S не повлияет на определение ли- нейного пространства L(S). Следовательно, если из мно- жества S выделить подмножество S„={xb ..., х„), элемен- ты которого являются линейно независимыми, то опреде- ляемое множеством Sn линейное пространство L(Sn) совпадает с линейным простраством L(S). Поэтому число линейно независимых элементов в множестве S, т. е. число п, называют размерностью линейного пространства L(S). При этом само линейное пространство L(S) называют п-мерным. 4.4. ЕВКЛИДОВЫ ПРОСТРАНСТВА 4.4.1. Линейное нормированное пространство Линейное пространство получает законченное описа- ние лишь тогда, когда свойства аддитивности и однород- ности дополнены возможностью измерения значений са- мих элементов. Так, мы не можем сравнивать векторы, если заранее не договоримся, что понимать под значе- нием (длиной) вектора. Введение в линейное простран- ство численных оценок отдельных элементов приводит к понятию линейного нормированного пространства, на- зываемого иногда банаховым пространством. Линейное пространство называют нормированным ли- нейным пространством, если для каждого хеХ сущест- вует неотрицательное число ||х||, называемое нормой х, которое удовлетворяет следующим условиям: ||х||=0 тогда и только тогда, когда х=0; llax|| = |aj -||х||; 112
Нх+УIKI|x|| + llyll (неравенство треугольника). Нетрудно установить, что величина ||х—у|| обладает всеми свойствами расстояния d(x, у) в метрическом про- странстве. Действительно, ||х—у||=0, если х—у=0, т. е. если х=у. Учитывая, что у—х=—(х—у), находим 1|у-х|| = |-1|-||х-у|| = ||х-у||; II х - у || = ||(х - z) + (z-у)||<|| х - z|| + ||z- у||- Следовательно, нормированное линейное пространст- во является метрическим пространством с метрикой d.(x, у) = ||х—у||. (4.28) Все рассмотренные ранее метрические пространства, дополненные свойствами аддитивности и однородности, пре- вращаются в нормированные линейные пространства. Для этих пространств используют специальные обозначе- ния: 1) пространство С2<п) или Еп — евклидово пространст- во—с нормой /л ) 1/2 Цх|1= <3 или?||;Х|| = |х| при>= 1; (4.29) 2) пространство с нормой н>11 = 3IM (4.30) 3) пространство С(л) с нормой ||x||=max{|xi|, ..., |хл|); (4.31) 4) пространство С[а,ь] непрерывных функций, опреде- ленных на промежутке [а, &], с нормой ||f|| = max|f(0|. (4.32) 4. 4.± Скалярное произведение векторов Как уже указывалось, линейное пространство называ- ют евклидовым, если норму вектора х= (х(1>, ..., х<п>)т, определяющую его длину, находят из соотношения (4.29). Такое определение нормы оказывается тесно связанным 8—804 ИЗ
с понятием скалярного произведения векторов. Пусть [Хг 1 Г Уг 1 I И у = I & х3 J I Уз J — два вектора в трехмерном пространстве. Скалярным про- изведением этих векторов называют скалярную величину хту=утх=х1г/1+х2г/2+х3г/з. (4.33) При этом легко видеть, что корень квадратный из ска- лярного произведения вектора х на самого себя дает нор- му этого вектора (хтх)>/2== (х12+х22+хз2)1/2 = Цх||. (4.34) Таким образом, понятия нормы вектора и скалярного произведения векторов тесно связаны между собой, поэто- му представляется важным обобщить понятие скалярного произведения */2 на произвольное линейное пространство. Определение. Пусть X — линейное пространство. Гово- рят, что на пространстве X определено скалярное произ- ведение, если каждой паре векторов х, уеХ соответствует действительное число хту, обладающее следующими свой- ствами: II) хту=утх (коммутативность); 2) xT(y+z)=xTy+xTz (дистрибутивность); 3) Лхту=Л(хту), Л — действительное число; 4) хтх^0, причем хтх=0, только если х=0. Линейное пространство, в котором определено скаляр- ное произведение, называют евклидовым пространством. Приведем примеры скалярных произведений в различ- ных линейных пространствах. 1. Если векторами являются упорядоченные последо- вательности вещественных чисел с обычным определением операций сложения векторов и умножения вектора на ска- ляр, то скалярное произведение векторов определится формулой п хту = 2 Х(,)У(£) = Утх- (4.35) 114
Это позволяет вычислить правило вычисления скаляр- ного произведения Скалярное произведение получаем, перемножая соот- ветствующие элементы строки и столбца при движении в направлении стрелок и суммируя полученные резуль- таты. 2. Если в качестве векторов пространства X рассмат- ривать непрерывные функции, заданные на интервале [а, &], то скалярное произведение таких функций опреде- ляется как (4.36) Легко убедиться, что соотношения (4.35) и (4.36) удов- летворяют всем свойствам скалярного произведения. Нормой или длиной вектора х в евклидовом простран- стве называют число ||х|| = |х| = (хтх)1/2. (4.37) Покажем, чю laitoe определение удовлетворяет всем условиям нормы. Первые два условия вытекают из само- го определения скалярного произведения. Для доказа- тельства третьего условия (неравенство треугольника) рассмотрим предварительно одно важное неравенство ев- клидовых пространств, называемое неравенством Коши и выражающееся соотношением (хту)2<(хтх)(уту) (4.38) или хту<|х|-|у|. (4.39) Рассмотрим квадрат длины вектора х+Х,у для дока- зательства неравенства Коши (х+Лу)т (х-|-Лу) =хтх + + 2Л (хту) + Л2 (уту)^О. Обозначая а = xTx>0; b = = хту; с=уту^О, запишем это соотношение в виде а+ +2Лд+Л2с^0. Дополняя выражение а-|-2Л&=а(1-|-2Л&/а) до полно- го квадрата, получаем а (1 +М/а) 2+ (с—&2/а) V >0, 115
откуда следует справедливость соотношения Ь2^ас, т. е. справедливость неравенства (4.38). Используя в качестве скалярного произведения выра- жения (4.35) и (4.36), приходим к следующим важным неравенствам, являющимся частными случаями неравен- ства Коши: (з у* Y (4-40) г f (о g (о ( j г (t) (j / (о dA. (4.4i) Для получения неравенства треугольника рассмотрим вы- ражение (х + у)т (х +у) = хтх + 2 (хту) 4- уту. Так как в силу неравенства Коши 2(xTy)<2(xTx)I/2 X Х(УТУ)1/2. то (х+у)т(х + у)<хтх + 2(хтх)1/2 (уту)1/а + + утУ = 1(хтх)1/2 + (уту)1/212 или |х + у|<|х|+|у|. (4.42) 4.4.3. Угол между векторами. Ортогональные векторы Неравенство Коши имеет простую геометрическую ин- терпретацию для двумерного' пространства. Пусть х = = (*1, х2) и у= (t/i, Уг) — два вектора на плоскости. Вы- берем систему координат так, чтобы ось абсцисс совпада- ла с направлением вектора х, так что Xi=|x[, х2=0 (рис. 4.6). Обозначим через а угол между векторами х, у. При этом xTy=X!i/i+x2t/2= |х| • I у I cos а. (4.43) Так как cosas^l, то отсюда очевидно неравенство Коши. 116
При |х| = 1 данное соотноше- ние определяет величину |y|cosa, являющуюся проекцией вектора у на направление вектора х. уг Поскольку неравенство Коши доказано для произвольного п-мер- ного евклидова пространства, то можно считать, что в любом евкли- СС Ут довом пространстве справедливо соотношение (4.43), а угол между Рис. 4.6. К определению векторами х и у определяется вы- скалярного произведения ражением a = arccos ——— (4.44) и при [x| = l скалярное произведение хту определяет проекцию вектора у на направление вектора х. Векторы х и у называют ортогональными, если угол между ними равен л/2, т. е. если хту=0. (4.45) Поскольку соотношением (4.36) понятие скалярного произведения распространено на непрерывные функции,то можно говорить и об ортогональных функциях. Функции f(0 ” g(l) называют ортогональными, если для них вы- полняется соотношение (4.46) 4.5. МАТРИЦЫ И ЛИНЕЙНЫЕ ПРЕОБРАЗОВАНИЯ 4.5.1. Понятие матрицы Матрицей А размером тХ« или просто (тХ«)-мат- рицей называют таблицу, содержащую m строк и п столб- цов, элементами которой являются вещественные или комплексные числа Если т = п, то матрицу называют квадратной. 117
При m=l матрица превращается в вектор-строку (о,, ап), а при п=1 — в вектор-столбец ~ °i ~ _а,п_ которые, таким образом, являются частными случаями матриц. Матрицы А=[а(/] и В=[&„] равны (А=В) в том и только в том случае, если имеют один и тот же размер и ац=Ьц для всех i, /. С матрицами можно производить операции, которые вытекают из правил линейных преобразований. 4.5.2. Линейное преобразование Преобразованием линейного n-мерного пространства X называют оператор А, отображающий это пространство в m-мерное линейное пространство Y: А : X-^Y. (4.47) Таким образом, преобразование А ставит в соответ- ствие каждому вектору х пространства X вектор у=Ах (4.48) пространства Y. В частном случае может быть Y=X. При этом преобразование А ставит в соответствие каж- дому вектору х пространства X вектор Ах того же самого пространства. Преобразование А называют линейным, если выпол- няются условия: A(xi+x2)=Axi+Ax2, .A (to) =V1x. (4.49) Условия (4.49) будут выполняться, если между компо- нентами х(1> и t/(£> векторов х и у имеется линейная зави- симость вида yth = 2 а^" i = TTm, (4.50) где atl — произвольные числа. 118
Совокупность чисел ач, i=l, m; j—l, п образует мат- рицу А= ......... L^ni * * * ^mnJ (4.51) которую называют матрицей линейного преобразования. Из (4.50) следует, что линейное преобразование полно- стью определяется его матрицей'А. 'Сравнивая (4.50) с (4.35), видим, что t/<e> представля- ет собой скалярное произведение i-й строки матрицы А на вектор-столбец х: Ув} =(ап,..., а£п) 1, т. (4.52) .xi”) При этом полную совокупность соотношений (4.52) можно записать в виде одного векторного матричного со- отношения у=Ах, на основании которого определяют пра- вило умножения матрицы на вектор и которое в развер- нутой форме имеет вид: (4.53) • -Отп _ _х(П)_ Сопоставляя (4.53) с (4.52), видим, что произведение матрицы А на вектор-столбец х возможно только в том случае, когда число столбцов матрицы А равно числу эле- ментов в векторе-столбце х и определяет вектор-столбец у, i-й элемент которого равен скалярному произведению t-й строки матрицы А на вектор-столбец х. Среди линейных преобразований линейного простран- ства X особую роль играют два: нулевое преобразование, ставящее в соответствие каж- дому вектору х нулевой вектор О: Ох=о; (4.54) единичное преобразование, ставящее в соответствие каждому вектору х тот же самый вектор- 1х=х. (4.55) 119
4.5.3. Операции над матрицами Умножение матрицы на число. Пусть А — матрица линейного преобразования Ах, а — число. Рас- смотрим линейное преобразование, которое каждому век- тору х ставит в соответствие вектор иАх. Если линейное преобразование Ах описывается матрицей А=[я,-7], то линейное преобразование а(Ах) будет описываться мат- рицей аА=[ая1;]. (4.56) Таким образом, при умножении матрицы А на число а все ее элементы умножаются на это число. Сумма матриц. Пусть у=Ах и v=Bx — два ли- нейных преобразования с матрицами А=[ач] и В= =[ЬЧ] размером тХ«. Рассмотрим новое линейное пре- образование, ставящее в соответствие каждому вектору хеА' вектор у Ц-ve У: y_|-v=Ax+Bx=(A+B)x. (4.57) Преобразование (А-(-В)х называют суммой линейных преобразований Ах п Вх. Для нахождения матрицы АЦ- + В это преобразование представим в виде соотношения (4.50): «/(‘) +и(£) = 2 + 2 ^л(;) = 2 .=1 /=1 /=1 или А + В = [aj +[6е/1 = + bt,]. (4.58) При сложении двух матриц одинакового размера по- лучается новая матрица того же размера, элементы ко- торой равны сумме элементов складываемых матриц. Из этого определения следует, что А+В = В+А. (4.59) Произведение матриц. Пусть X, У и Z —линей- ные пространства размерностью т, г, п и пусть у = = Вх и z=Ay — линейные преобразования пространства X в пространство У и пространства У в пространство Z, где В=[6/г;] и A = [aIfe] — матрицы размером тХг и и гХп соответственно. Произведением преобразований Ау и Вх называют новое линейное преобразование Cz, со- стоящее в последовательном выполнении сначала преобра- 120
зования у=Вх, затем преобразования z = Ау. Другими словами, для любого хеА' имеем: z=Cx=A (Вх)=АВх. (4.60) Матрицу С=АВ размером т%,п называют произведе- нием матриц А и В. Для нахождения правила умножения матриц предста- вим (4.60) в ином виде. Линейные преобразования у= = Вх и z=Ay могут быть записаны в виде соотношения (4.50} как = 3 Ми>’ & = 1 > г; /=1 2(Z) = S alky<-k\ i=T,~n. Подставляя во второ^ соотношение значение из первого соотношения, получаем г п I г \ ______ 2(/)=3 = 2 2 a«A/k(/). » = i. n. (4.6i) 4=1 /=1 /=1 \A=1 ' С другой стороны, преобразование z=Cx можно за- писать в виде z(<)= S i=17n, (4.62) /=i где через ctl обозначены элементы матрицы С. Сравнивая (4.61) с (4.62), находим правило получе- ния элементов матрицы С=АВ: = S А/, i = Т~п, j = 1, т. (4.63) Согласно (4.63) элемент с,, матрицы С представляет собой скалярное произведение i-й строки матрицы А на /-й столбец матрицы В, так что произведение матриц АВ символически может быть представлено в виде Г «и • • • «и 1Г I L аП1 • • • anr J [б;1 • • • brm J 1 (4.64) 121
Отметим, что для возможности выполнения операции умножения матрицы должны быть согласованы между со- бой в том отношении, что число столбцов матрицы А должно быть равно числу строк матрицы В. Из сущест- вования произведения АВ совсем не следует существова- ние произведения ВА. Более того, если даже ВА сущест- вует, то в общем случае АВ^ВА. (4.65) Равенство в этом соотношении может иметь место только для квадратных матриц. При этом две квадратные матрицы называют коммутирующими, если АВ=ВА. Для произведения матриц остаются в силе следующие алгебраические законы: (А+В)С=АС+ВС; (4.66) С(А+В)=СА+СВ; (4.67) (АВ)С=А(ВС). (4.68) 4.5.4. Транспонированная матрица Пусть А=[аг^] — матрица размером тХ«- Матрица Ат= [а',;] размером nXm, строки которой являются столбцами матрицы А, а столбцы — строками матрицы А, называется транспонированной матрицей А. Элементы а'у матрицы Ат определяют по элементам а^ матрицы А из соотношения a'i/=a;i. (4.69) Легко убедиться, что для транспонированных матриц справедливы соотношения: (А+В)Т=АТ+ВТ; (АВ)Т=ВТАТ. (4.70) Понятие транспонированной матрицы приводит к од- ному важному соотношению теории матриц. Пусть А — квадратная матрица размером п\т, с помощью которой в n-мерном линейном пространстве задано линейное пре- образование у=Ах. Рассмотрим в этом же пространстве вектор z, который с помощью матрицы Ат может быть преобразован в вектор v—ATz. Найдем скалярные произ- ведения yTz=(Ax)Tz и xTv=xTATz. (4.71) 122
Принимая во внимание (4.70) и учитывая, что век- тор х является частным случаем матрицы, находим (Ax)Tz=xTATz. (4.72) Другими словами, когда речь идет о скалярном произ- ведении, то преобразование вектора х матрицей А экви- валентно преобразованию вектора z матрицей Ат. 4.6. КВАДРАТНЫЕ МАТРИЦЫ 4.6.1. Особенности квадратных матриц. Нулевая и единичная матрицы До сих пор мы рассматривали линейные преобразова- ния, отображающие линейное пространство X в некоторое другое линейное пространство Y и описываемые прямо- угольными матрицами. Теперь выясним некоторые доба- вочные свойства линейны^ преобразований, определенных на одном и том же пространстве X, т. е. преобразующих X в X. Такие преобразования описываются квадратными матрицами, которые имеют чрезвычайно важное значение для многих технических приложений. И (учение прямоугольных матриц наталкивается на оп- ределенные трудности, связанные с тем, что две такие м.прпцы одного п чого же размера нельзя перемножать. Более того, при умножении матрицы размером тХг на матрицу размером гХ« получается матрица, размер ко- торой тУ^п отличается от размера каждой из перемно- женных матриц. Эти трудности отсутствуют при рассмотрении квадрат- ных матриц. Матрицы А и В одного размера т можно пе- ремножать в любом порядке, получая произведения АВ или ВА, которые хотя в общем случае и не равны друг другу, но имеют тот же размер т, что и перемноженные матрицы. Можно умножить квадратную матрицу саму на себя, получая АА=А2. Можно продолжить этот процесс и опре- делить А71 для целых положительных п. Полагая В=АП можно определить В1/"=А и найти, таким образом, Аг для “любого положительного рационального показателя г. Если не требовать равенства АВ=ВА, то над квадратны- ми матрицами можно производить действия, аналогичные 123
действиям над скалярами, например: (А+В) 2=А2+ (АВ+ВА) +В2; (А+В) (А—В) =А2—В2+ (ВА—АВ). Особую роль среди квадратных матриц играют нуле- вая и единичная, соответствующие нулевому (4.54) и еди- ничному (4.55) преобразованиям линейного простран- ства X. Нулевой матрицей О размером пг называют квадрат- ную матрицу, все элементы которой равны нулю. Единичной матрицей I размером m называют квадрат- ную матрицу, у которой элементы главной диагонали равны единице, а остальные элементы — нулю. Нулевая и единичная матрицы обладают следующими свойствами: А+О=А; ОА=АО=О; 1А=А1=А. (4.73) Для квадратных матриц справедливы многие выраже- ния,' встречающиеся в обычной алгебре, например: (I + A)n = 1 + /гА + п(”^1} А» + ... + Ап. (4.74) Иногда приходится иметь дело с неалгебраическими функциями от А. Так, в теории дифференциальных урав- нений важную роль играет матричная экспонента е'А = 1 + ^А+ Аг+ ... (4.75) 4.6.2. Определитель квадратной матрицы Определителем квадратной матрицы А=[сгг/] называ- ют определитель, составленный из элементов ац этой мат- рицы и обозначаемый det А. Определитель det А обладает следующими свойствами [19]: 1) при умножении на 1 любого столбца матрицы А оп- ределитель det А умножается на X; 2) перемена местами двух соседних столбцов меняет знак det А на противоположный; 3) " если любые два столбца матрицы А равны между собой, то det А—0; 124
4) добавление к любому столбцу матрицы А любого другого столбца, умноженного на произвольный скаляр- ный множитель, оставляет det А неизменным; 5) если столбцы матрицы А линейно зависимы, то det А=0. Свойства 1—4 являются обычными свойствами любых определителей. Поэтому остановимся на доказательстве только свойства 5. Доказательство. Представим матрицу А в виде вектора А=(А1,..., Ат), где через А' = (а1;,..., ат}), j=l,m обозначены столбцы матрицы А. При этом определитель detk—D (Д',..., А.т). Если столбцы А/ матрицы А_____линейно зависимы, то можно найти такие числа а/, /=1,т, не все из которых равны нулю, когда 2«/А^=р. (4.76) Пусть а^О. Разрешая (4.76) относительно А* и обо- значая ц,=—а;/ак, получаем: А*= Жал Теперь определитель det А = D(...A& ...) = D Л.. ^(...А'...). \ i^k J i^k Определители, стоящие под знаком суммы, содержат на месте столбца А* столбцы A', j^=k. Это зна- чит, что каждый из них содержит по два одинаковых столбца и в соответствии со свойством 3 равен нулю. Та- ким образом, detA=O, если столбцы матрицы А линейно зависимы. 4.6.3. Обратная матрица и решение систем линейных уравнений Пусть у=Ах —линейное преобразование с квадратной матрицей А= [«г/], при котором произвольный вектор х пространства X преобразуется в вектор у того же прост- ранства. Обратным преобразованием называют преобра- 125
зование х=А~1у, при котором вектор у преобразуется в первоначальный вектор х. Матрицу А~’ этого преобразо- вания называют обратной по отношению к матрице А. Обратную матрицу удобно трактовать в терминах ре- шения систем линейных уравнений. Пусть дана система п линейных уравнений с п неизвестными (хь..., хп): 2 a^Xj = у;, i = i, п, (4.77) матричная запись которой имеет вид Ах=у. (4.78) По определению обратной матрицы решение этой си- стемы уравнений в векторно-матричной форме будет х=А~'у. (4.79) Для нахождения элементов обратной матрицы А-1 за- пишем решение системы уравнений (4.77) в явном виде. Это решение может быть найдено по формулам Крамера [19] и записано как Х/ = Т S л,'у‘: z = 11 п' (4,80) где A=detA — определитель матрицы А; —алгебраи- ческое дополнение элемента аг, в определителе Д. Таким образом, элементами матрицы А-1 являются ве- личины Дг//Д. Система уравнений (4.78) называется определенной и имеет единственное решение, если detA^O. Матрицу А, для которой выполнено это условие, называют невырож- денной. Только в том случае, когда матрица А невырож- денная, для нее существует обратная матрица А-1, для вычисления которой удобно ввести следующие обозначе- ния: Аг/ — алгебраическое дополнение элемента аг1 в оп- ределителе матрицы А; [Аг;] — матрица с элементами Аг;. Тогда A-‘ = -i-[AJT. (4.81) det А ' Заметим, что соотношение (4.79) можно было бы по- лучить из (4.78) чисто формальным путем, умножая обе части выражения (4.78) на матрицу А"1: А->Ах=А-*у. (4.82) 126
Сравнивая (4.82) с (4.79), получаем соотношение свя- зывающее прямую и обратную матрицы: А'А=1. (4.83) Соотношение (4.81) используют для вычисления об- ратной матрицы, особенно для матриц небольшого разме- ра. Однако с увеличением размера матрицы сложность выкладок резко возрастает, поэтому разработаны более эффективные вычислительные процедуры (алгоритм Гаус- са, цепной алгоритм и др. [18]). Кроме того, алгоритм обращения матриц входит в математическое обеспечение большинства современных Э£М. [8 6] Пример 4.7. Пусть А = I Г тогда det А = 8-5—4-6 = 16. При этом a-i=-L[ 5 -4Г=—[ 5 16 [-6 8J 16 [-4 -61 Г 0.3125 —0,375 в] [—0,25 0,5 ! Если А и В — квадратные матрицы, то матрицу, об- ратную произведению этих матриц, можно вычислить по правилу (АВ)-1 = В~1А~1. Чтобы доказать это, умножим В-'А"1 на АВ, тогда В~1А~1АВ=В~1 (А ’А) В=1. С обратной матрицей тесно связано понятие ранга матрицы. Ранг определяется с помощью миноров матри- цы, причем минором порядка р произвольной матрицы А размером тХ« называют определитель произвольной рХр подматрицы А. Рангом матрицы называют максимальный порядок от- личных от нуля миноров этой матрицы. Если г —ранг пря- моугольной матрицы А размером тХ«, то r^min(m, п). Квадратная матрица размером «Хм является невы- рожденной только тогда, когда ее ранг равен ее размеру, и, следовательно, только в этом случае она имеет обрат- ную матрицу. 4.6.4. Инвариантное подпространство. Собственные векторы и собственные значения матриц Пусть X — n-мерное линейное пространство и у=Ах— линейное преобразование на пространстве X. Пусть XiczX является некоторым подпространством X, обладающим, 127
Рис. 4.7. Одномерное инвариантное подпро- странство однако, тем свойством, что если xeA'i, то и у=АхеХь Подпространство Xi, обладающее подобным свойством, называют инвариантным относительно линейного преоб- разования у=Ах. Особенно интересны одномерные инвариантные прост- ранства, представляющие собой прямые в пространст- ве X, проходящие через начало координат. Если х —произвольная точка пространства X и а — вещественная переменная, меняющаяся от —оо до +оо, то ах будет представлять собой одно- мерное подпространство X, проходя- щее через х (при а=1) и через на- чало координат (при а=0), как пока- зано на рис. 4.7 для и—2. Такое одно- мерное подпространство будем обозна- чать R\. Предположим, что среди беско- нечного множества одномерных про- странств 7?1 найдутся такие, которые будут инвариантны относительно пре- образования у==Ах, т. е. для любого xe/?i имеет место у=Ахе/?ь Обо- значим через X отношение у к х, которое при этом будет просто вещественным числом, т. е. можем записать у=Хх. Таким образом, если 7?i — инвариантное подпространство, то для xe/?i имеет место равенство Ах=Хх. (4.84) Вектор х=/=0, удовлетворяющий соотношению (4.84), называют собственным вектором матрицы А, а число X — собственным значением (характеристическим числом) матрицы А. Для определения характеристических чисел матрицы перепишем соотношение (4.84) в ином виде, введя тож- дественное преобразование х=1х. При этом получаем (А—М)х=0. (4.85) Соотношение (4.85) представляет собой систему ли- нейных однородных уравнений, которая может быть запи- сана в явном виде как (ап — Л)х1 + а12х2+ ... + ад, = 0; | л2Л + (б?22— 2)х2 + ... + а2пхп = 0; I <4 8б) 4" *•* + (&ПП ^») 128
Допустим, задались численным значением X и нас ин- тересует вопрос, имеет ли система (4.86) нетривиальное (отличное от нуля) решение, т. е. существуют ли такие отличные от нуля значения х\,...,хп, которые обращают уравнен-ия (4.86) в тождества. Рассмотрим вначале случай двух переменных, для ко- торого система (4.86) запишется в виде (а„-2)х1+я1гХ2 = 0; | (4 87) а21х( + (я22 — 2) х2 = 0. J Полагая xi, х2#=0, из первого уравнения находим Х2=—(flu—%>Xi/fli2. Тогда второе уравнение дает [я21—(я22—X) (я,,—Х)/Я12]Х1=0. При Х15^0 это выражение имеет смысл, только если (я„ -2) (я22 - 2) - я12я21 = I ~ 2 I = О, I «21 «22 — I т. е. если det .(А—XI) =0. Это условие является необходи- мым и достаточным того, чтобы система (4.87) имела ре- шение. Если это условие выполнено, то (4 87) дают воз- можность определить лишь отношение переменных x'i/x2=—Я12/ (ян—X) =—(я22—X) /я21, (4.88) т. е. сами переменные определяются лишь с точностью до постоянного множителя. Аналогично обстоит дело и в общем случае системы (4.85), которая имеет нетривиальное решение только в том случае, если выполняется условие det (А—XI) =0 (4.89) При этом сами переменные, т. е. вектор х, определя- ются с точностью до постоянного множителя. Соотношение (4.89) называют характеристическим уравнением матрицы А, представляющим собой алгебраи- ческое уравнение n-й степени относительно X. Действи- тельно, раскрывая определитель и группируя члены с оди- наковыми степенями X, левую часть уравнения (4.89) можно представить в виде многочлена по степеням X: det (A-XI) —q (X) =9о+91Х+ ... +9rlXn. 9-804 129
Легко заметить, что здесь ?0=detA, ?„=(—1)л. Таким образом, для нахождения собственных значений матрицы А получаем уравнение n-й степени относительно А,: ?о+?Д+ ... +9nV=0. (4.90) Это уравнение имеет п корней, среди которых могут быть и одинаковые, являющиеся собственными значения- ми матрицы А. Конечно, не все собственные значения обязательно будут действительными, но так как А —дей- ствительная матрица, то комплексные корни встречаются сопряженными парами. Подставив любое собственное значение А,,- в исходную систему уравнений (4.85), получим уравнение (А—М)х=0, которое имеет нетривиальное решение, так как det (А— —А,г1)=0. Это решение дает вектор хг, определяемый с точностью до скалярного множителя. Этот вектор и на- зывается собственным вектором матрицы А. Так как А,г может быть комплексным числом, то хг мо- жет содержать комплексные компоненты. Однако посколь- ку комплексные корни встречаются сопряженными пара- ми, то комплексные собственные векторы также будут встречаться сопряженными парами. Согласно (4.84) собственные векторы хг и соответст- вующие им собственные значения А,, связаны соотноше- ниями: ___ Ахг=М\ i=l, п, (4.91) которые могут быть записаны в более компактной форме: AV=VA, (4.92) где V — квадратная матрица, составленная из собствен- ных векторов матрицы А; А — диагональная матрица, у которой по главной диагонали расположены числа А,,, а все остальные элементы равны нулю: V = (№ ГЛ, 0 ... О Л = I о л2 • • • о 1_о’ o' ' Лп_ (4.93) (4.94) 130
4.6.5. Диагонализация матриц Вид квадратной матрицы А линейного преобразования у=Ах может быть изменен без изменения характеристи- ческого уравнения этой матрицы путем использования преобразования подобия. Пусть А — квадратная матрица; С — произвольная не- вырожденная квадратная матрица. Преобразованием по- добия называют преобразование В=С-1АС. (4.95) Получаемая в результате преобразования подобия матрица В удовлетворяет тому же характеристическому уравнению, что и матрица А, а следовательно, имеет те же самые собственные значения. Действительно, легко видеть, что С"1 (А — XI)С - С‘АС - ХС"‘1С = С-АС — ХС"‘С1 = В—XI. Учитывая легко доказываемое свойство определителей матриц det AB=det Adet В, получаем det (В — XI) - det [С~‘ (А — XI) С] = det С1 det (А — XI) det С. Т;п» иль матрица С невырожденная, то из det (В—XI) =0 г.пса.уг ।. 'I ।<। del (Л XI) 0. Hprnbp.lloil.llllli- ||1>/1<)(|ИЯ 11О111ОЛЯС1 приводить некото- рые пилы квадратных матриц к диагональной форме, яв- ляющейся наиболее удобным видом матрицы. Возмож- ность диагонализации квадратной матрицы базируется на следующей теореме о линейной независимости собствен- ных векторов матрицы. Теорема 4.1. Если собственные значения матрицы А размером п занумерованы так, что первые k из них Xi,... ..., X* различны, то соответствующие собственные векторы х1..xk линейно независимы. Доказательство. Теорема доказывается по ин- дукции. Для k=l утверждение очевидно. Предположим, что утверждение справедливо для k—1 векторов, т. е. что собственные векторы х1,..., х*-1 линейно независимы. До- кажем, что оно справедливо и для всех k векторов. Предположим противное, т. е. что векторы х1,..., х* ли- нейно зависимы, так что имеет место а,х* + а2х2 + ... + аАх* = 0, 131
причем не все а,- равны нулю. Будем считать, что aj=#O. Проведем над этим выражением линейное преобразова- ние, определяемое матрицей А. Получим A (aix'+a2x2+ ... +akxk) =0 или ajA.1x4-a2A.2X2-}-... +aj.Aj.xA=0. Умножая предыдущее соотношение на А* и вычитая из данного, находим «1 (А-1—A*)x4-a2(A2—А*)х2+ ... ... +afe_j(Afe-i—Afe)xft-1=0. Так как собственные значения Аь..., Aj. различны, то имеет место равенство ai=a2=... =a*_i=0, что противо- речит предположению о линейной независимости векторов х1,..., х*-1. Из доказанной теоремы следует, что если все собствен- ные значения матрицы А различны, то все п ее собствен- ных векторов будут линейно независимыми. В этом слу- чае матрица допускает приведение к диагональной форме. Рассмотрим матрицу V, определяемую (4.93), столбцы которой являются собственными векторами матрицы А и которая связана с матрицей А соотношением (4.92). Ес- ли все собственные значения матрицы А различны, то ее собственные векторы линейно независимы. Из свойства 5 определителей матриц (см. § 4.5, п. «б») следует, что в этом случае матрица V невырожденная и существует обратная V-1. Умножая обе части (4.92) на V-1, получаем: V-'AV=V-'VA или V-'AV=A. (4.96) Как видим, диагонализирующей матрицей является матрица V, составленная из собственных векторов матри- цы А. 4.7. СИММЕТРИЧЕСКИЕ МАТРИЦЫ И КВАДРАТИЧНЫЕ ФОРМЫ 4.7.1. Собственные векторы и собственные значения вещественных симметрических матриц Вещественную квадратную матрицу А называют сим- метрической, если ее элементы удовлетворяют соотноше- нию oi; = Oj, для всех I, j. Это означает, что симметриче- ская матрица не меняется при транспонировании, так что АТ=А. 132
«12 I 0 Симметрические матрицы обладают двумя особыми свойствами, которые играют важную роль во многих тех- нических приложениях:- собственные значения вещественной симметрической матрицы вещественны-, собственные векторы, соответствующие различным собственным значениям вещественной симметрической матрицы, ортогональны. Справедливость этих свойств проверим для матрицы размером 2X2. Собственные значения этой матрицы на- ходят из уравнения det(A —Х1) = | а”~1 I «12 или Л* — («11 + «22) Я + апа22 - а*2 0. Отсюда 2 = 0,5 [оп + а22 ± у (оп + о22)2 — 4(аиа22 - а?12) ]. Поскольку величина («11 4" «гг) 4 (йий22 — (аи <222)2 4" ^«12 неотрицательная, то М и Л2 являются всегда веществен- ными числами. Обозначим — собственные векторы матрицы А, соответствующие раз- личным собственным значениям V и Л2. Как мы видели ранее, компоненты векторов удовлетворяют соотноше- ниям: xi'/x2'=—ai2/(an—A,i)=—(а22—A,i)/ai2; Xi2/x22=—О1г/ (ап—Л,2) =—(а2г—А,2) /ai2- Из этих соотношений можно составить следующее отно- шение: xi’xi2/ (хг’хг2) = (022—А,1)/(ац—М или x2Ix22= (ai i—Х2) xi ’Xi2/ (а22—ХО • 133
Найдем скалярное произведение собственных векторов. (х’рх2: (x')TX2=Xi'Xi2+x2lX22— =Х1*Л'12 [1+ (ап—А,2)/(й22—А,1)] = =XilXi2[an+a22—(A-i+ta) ]/ («22—М- Но A,i+ta=«i 1+«12, так что (х*)тх2=0, т. е. векторы х1 и х2 ортогональны. Доказанные свойства вещественной симметрической матрицы легко обобщаются на случай матрицы А любого порядка. Из этих свойств следует, что если в веществен- ной симметрической матрице A ki=/=^h то (хг)тх'=0, /+=г, (4.97} т. е. собственные векторы хг‘ и х1 ортогональны. Принимая во внимание, что собственные векторы оп- ределены с точностью до постоянного множителя, этот по- стоянный множитель для любого собственного вектора х{ можно выбрать так, чтобы (x{)Txf=l, i=\7n. (4 98) Собственные векторы, удовлетворяющие этому усло- вию, называют нормированными. 4.7.2. Диагонализация симметрических матриц Рассмотрим вектор V, столбцы которого представляют собой собственные векторы симметрической матрицы А. Матрица VT, получающаяся путем транспонирования мат- рицы V, представляет собой матрицу, строками которой будут собственные векторы матрицы А. Элемент (г, /) матрицы VT V будет равен скалярному произведению г-й строки матрицы VT на /-Й столбец мат- рицы V, т. е. величине (хг)т х>. Принимая во внимание со- отношения (4.97) и (4.98), видим, что VTV=I, так что VT=V-‘. (4.99) Следовательно, диагонализация симметрической мат- рицы производится согласно соотношению VTAV=A. (4.100) Этот вывод справедлив лишь для случая, когда все собственные значения матрицы А различны. 134
4.7.3. Квадратичные формы Пусть х=(х<|), ...,х<п>)т— вектор в n-мерном линейном пространстве с вещественными компонентами. Выраже- ние вида Q(x) = 33ae;x(l)x(') (4.101) называют квадратичной формой. В этом выражении без ограничения общности можем считать ач=а,г. Если это не так, то, производя преобразование = (ач + alt)xW> = = 0,5 (ati + а/г) + 0,5 (ог/ + о/г) х^'^х^, можно привести квадратичную форму к виду, когда это условие выполняется. Поэтому числа а,, можно рассмат- ривать как элементы квадратной матрицы А, которая яв- ляется вещественной и симметрической. Квадратичную форму удобно записывать в векторно- матричных обозначениях. Для этого перепишем выраже- ние (4.101) в виде Q(x) = 2^Sa4A-'') = 2«(t’)z(l) = xTz- (4.102) где z(') = 2ач%(/)’ г == /г являются компонентами вектора z, связанного с векто- ром х линейным преобразованием: z—Ах. (4.103) Таким образом, квадратичная форма Q(x) может быть записана в виде Q(x)=xTAx. (4.104) Квадратичную форму Q(x) и матрицу А называют положительно определенными, если выполняется условие Q(x)>0. При выполнении условия Q(x) <0 говорят об отрицательно определенной квадратичной форме Q(x) и матрице А. Для нахождения условий положительной (от- рицательной) определенности матрицы А введем в рас- смотрение линейное преобразование x=Vy, где V — невы- 135
рожденная матрица. Тогда Q (х) - хтА х = утVTAVy = Q (у), причем матрицей квадратичной формы Q(y) является? VTAV. Возьмем в качестве V диагонализирующую матри- цу. Тогда VTAV=A, так что Q (х) = Q (у) = уТДу = 2 я£- [r/(‘’>]2. (4.105) Как видим, необходимым и достаточным условием по- ложительной (отрицательной) определенности матрицы А является положительность (отрицательность) всех ее соб- ственных значений Л,-. 4.7.4. Использование квадратичных форм при отыскании экстремумов функций многих переменных Применение квадратичных форм проиллюстрируем на примере задачи отыскания экстремумов функций, имею- щей важное значение при решении многих технических вопросов [36]. Пусть ц=(и1,...,ил)т —многомерная переменная, f(u) =f(ui,..., ип) — функция от и, определенная в области i=l,n и допускающая разложение в сходящий- ся ряд Тейлора в каждой точке с=(сь..., сп)т внутри этой области. Это разложение имеет вид f <u)=f(c) + 2-57а“'+ tESs5;4‘'-4"' + <4-106> дс(дс/ duidttj |“г=ср uj=cj* Как известно, экстремумы подобных функций могут достигаться внутри области определения только в стаци- онарных точках, т. е. в точках, в которых производные df/dut, 1=1, п обращаются в нуль. Пусть и=£ —стацио- 136
яарная точка. Тогда df/dct—Q, 1=1, п и разложение функ- ций f(u) в ряд Тейлора в окрестности точки и=с прини- мает вид - (4.107) 11 1 I Введем обозначения: х,=Дм,=м,—ct; 1 <32f 1 1 2 dc[dct- Тогда ряд (4.107) запишется в виде f(u)=f(c)+Q(X) + ..., где I I (4.108) (4.109) (4.110) (4.1П) представляет собой квадратичную форму хтАх с вещест- венной симметрической матрицей А. ___ Учитывая, что при и=с х,=0, 1=1, п, из (4.110) видим, •по в ст.ппюпарпой точке и=с имеет место относительный минимум, гели Q(x)X), и огпоситсльпый максимум, если Q(x) 0, 1. е. (Дх)^-О В случае, если Q(x) вблизи ста- ционарной точки может принимать как положительные, так и отрицательные значения, имеет место стационарная точка более сложного характера, требующая дальнейшего специального исследования. Таким образом, мы видим, что выяснение характера стационарной точки функции многих переменных требует выяснения того, является ли положительно (отрицатель- но) определенной матрица А квадратичной формы Q(x). 4.7.5. Векторные производные При нахождении стационарных точек функций многих переменных f(xi,...,xn) вычисляют производные вида df(xl,...,xn)/dxli, k=l,...,n. (4.112) Если совокупность переменных хь.. .,хп представить в виде вектора х=(хь..., хп)т, то совокупность производ- ных (4.112) можно также представить в виде некоторого 137
вектора аг(х)_рШ...*«)Ж1 (4.113) который называют векторной производной функции f(x). В дальнейшем нам придется иметь дело с такими ска- лярными функциями многих переменных, как скалярное произведение векторов атх=хта и квадратичная форма Q(x)=xTAx. Обратившись к определениям этих функций (4.35) и (4.101) и вычисляя компоненты (4.113) соответ- ствующих векторных производных, приходим к следую- щим соотношениям, определяющим векторные производ- ные от скалярного произведения и от квадратичной формы: д(атх)/дх = д(хта)/дх = а; (4.114) д(хтАх)/дх = 2Ах. (4.115) 4.8. ВЫПУКЛЫЕ МНОЖЕСТВА 4.8.1. Понятие гиперсферы В многомерном пространстве /?я можно рассматривать геометрические образы, аналогичные геометрическим фи- гурам и телам в двух- и трехмерном пространстве. Важ- нейшими из них являются гиперсфера, гиперплоскость и прямая. Гиперсферой называют замкнутую поверхность, все точки которой удалены на одинаковое расстояние г от не- которой фиксированной точки а, т. е. удвлетворяют урав- нению d(x, а)=г. (4.116) Множество точек, удовлетворяющих условию d(x, а) < <г и являющихся внутренними точками гиперсферы, на- зывают открытым шаром. Множество точек, удовлетворя- ющих условию d(x, a)sCr, замкнутым шаром. Пример 4.8. В пространстве Л2 уравнение гиперсферы можно за- писать в виде d2(x, а)=г2. Если расстояние определять по (4 2), то гиперсфера превращается в окружность (х№—2-|-(х<2>—а'2>)2 = г2. 138
4.8.2. Ограниченные и конечные множества Множество X называют ограниченным, если ограничено расстояние между любыми двумя точками этого множест- ва, т: е. если существует такое число М, что для любых хь х2еХ имеет место d(xi, х2)^Л1. Можно показать, что необходимым и достаточным ус- ловием ограниченности множества X является нахождение его в некоторой гиперсфере, т. е. существование точки а и числа г таких, что для всего хеХ имеет место d(x, а)=С Множество X называют конечным,...если .оно содержит конечное число точек. Конечное множество всегда ограни- чено. 4.8.3. Открытые и замкнутые множества Разделение множеств на открытые и замкнутые тесно связано с понятием окрестности точки множества. Окрест- ностью точки х в пространстве Rn называют крытый шар радиусом е с центром в х. Окрестность точки обозначают Ое(х). Точку х называют внутренней, точкой множества X, ес- ли существует окрестность Ог(х), все точки которой при- ц;1Длеж;| I X. Точку х ii,i.ii.iii;iu> । .•pttnii'iiioii. точкой множества X, -если люб.1я ее окрестность Ос(х) содержит.как дочки, принад- лежащие X, так и точки, не принадлежащие X. Множе- ство всех граничных точек образует границу множества X. Множество X называют открытым, если в.се его точки внутренние. Множество X называют замкнутым, если на- ряду с внутренними оно содержит и точки Для пояснения введенных понятии рас- смотрим в двумерном пространстве (и, v) множество X, заданное неравенством u2+o2cr2. Это множество представляет собой круг радиусом г с центром в начале координат, как показано на рис. 4.8. Для любой точки x=(u, v) этого множе- ства можно записать либо (1) все свои граничные Рнс. 4 8. Внутренняя (/) и граничная (2) точки множества 139
либо U2_|_„2=r2- (2) В первом случае можно найти такую окрестность Ое(х) точки х= = (и, v), что неравенство будет выполняться для любой точки этой окрестности, тогда х — внутренняя точка множества. Если же точка х=(ы, о) удовлетворяет равенству (2), то в любой окрестности Ое(х) существуют такие точки xi=(«i, «О и х2=(«2, «г), что «i24-z;i2<r2, a U22-j-V22>r2, т. е. точки, как принадлежащие X, так и непринадлежащие X. В этом случае х — граничная точка. Само урав- нение (2) определяет границу исходного множества. Поскольку исходное множество X задано с помощью нестрогого неравенства (^), то граница является частью множества X. Следова- тельно, множество X замкнуто. Если для задания множества X использовать строгое неравенство «2-f-a2<r2, то граница уже не будет принадлежать X. Получим открытое множество. 4.8.4. Гиперплоскости и полупространства Гиперплоскостями в линейном пространстве Rn размер- ностью п называют линейные подпространства размерно- стью /г—1. Так, в трехмерном пространстве R3 гиперплос- костями являются плоскости, а в двумерном пространст- ве /?2 —прямые. Уравнение гиперплоскости L(S) можно получить, зада- вая в линейном пространстве Rn множество S, содержащее п—1 линейно независимых точек хь ..., хп_ь В соответ- ствии с (4 27) любая точка гиперплоскости х=(х<‘)....x("))T<=L(S) запиЩется в виде Х = П£\Х/ (4.117) /=1 или в координатной форме х(‘) = 2 ауХ/О, i =ТГп7 (4.118) i=i Уравнение (4.117) неудобно для описания гиперплос- кости, так как в него входят произвольно выбранные точ- ки X],...,xn_i. С другой стороны, можно показать, что эти 140
точки определяют вектор p=(pi....рп) такой, что урав- нение 2ЛХ/,)=О (4.119) i=i представляет собой уравнение L(S). Подставляя коорди- наты х<‘> из (4.118) в (4.119), получаем п п—1 л—1 п Е Pi^ aixi(i}= s а> S = °- , 1=1 j=l j=l i=l Поскольку а/ могут принимать любые вещественные значения, то равенство нулю будет иметь место только, если %р.Х,^О, j,="TT (4.120) i=i Система однородных уравнений (4.120) позволяет с точностью до постоянного множителя определить ком- поненты вектора р, что и подтверждает справедливость (4.119) в качестве уравнения гиперплоскости. Левая часть уравнения (4.119) представляет собой ска- лярное произведение векторов р и х в линейном простран- riiu* Но ному уравнение гиперплоскости L(S) обычно I.'UIIK 1.111.110 I н пп/к* рх=0. (4.121) Данное уравнение определяет гиперплоскость, проходя- щую через начало координат перпендикулярно вектору р. Более общее уравнение гиперплоскости получим, если сместим начало координат в произвольную точку х0, что соответствует замене в (4.121) х на х—х0. Производя та- кую замену и обозначая рхо=с, получаем уравнение рх=с, (4.122) представляющее собой общее уравнение гиперплоскости,, ортогональной вектору р. Наряду с гиперплоскостью L, определяемой уравнением (4.122), в линейном пространстве имеются множества точек, определяемых условиями: L+={x|px>c}; L"={x|px<c}. (4.123) Эти два множества называют открытыми полупрост- ранствами, определяемыми гиперплоскостью L. 141
4.8.5. Прямая и отрезок. Средневзвешенное по элементам множества Согласно (4.84) уравнение х=Хх! (4.124) при фиксированном х( и переменном X представляет собой одномерное линейное пространство, т. е. прямую, прохо- дящую через начало координат и точку хь Уравнение прямой, проходящей через фиксированные точки Xi и х2, получим из (4.124), сместив начало коорди- нат в точку х2, т. е. заменив х и Х] на х—х2 и х(—х2: х—x2=X(xi—х2), что удобней записывать в виде х=ЛХ1+(1-Л)х2. (4.125) Значения х=Х! и х=х2 получаются соответственно при Х=1 и Х=0. Уравнение отрезка, соединяющего точки Х] и х2, полу- чим из (4.125), ограничив изменение к пределами Os^Xs^l. Если обозначить Л.=Л.г, 1—к—%2, то уравнение отрезка запишется в виде X=A.]Xi-[-^2^2, ^2О, Я,1+?12=1. (4.126) Величину х, определяемую из (4.126), называют сред- невзвешенным по элементам X! и х2 с весами Aj и Х2. Это название имеет простой физический смысл. Если в точках Х| и х2 поместить грузы с весами %! и Х2, то точка х опре- делит центр тяжести системы. Понятие средневзешенного можно распространить и на большее число точек. Будем называть средневзвешенным по элементам хь...,хт величину х, определяемую соотно- шением х = 2 2‘х‘- 3 = L (4-127) Точку х, найденную по (4.124), называют выпуклой комбинацией точек xi. Это частный случай линейной ком- бинации, получаемый по (4.127) без ограничений на ве- личины X,. 142
4.8.6. Выпуклые множества Пусть S — некоторое подмножество линейного прост- ранства R". Множество S называют выпуклым, если отре- зок, соединяющий любые две точки этого множества, це- ликом принадлежит этому множеству. Другими словами, S — выпуклое множество, если для любых хь x2eS и лю- бого справедливо ХХ1+(1—X)x2eS. Il.i рис. 4.9 приведены примеры выпуклых (а —г) и пспыпуклых (д — з) множеств на плоскости. Примерами выпуклых множеств в многомерном, пространстве служат все линейное пространство Rn, любое его линейное подпро- странство (прямая, гиперплоскость), полупространство, выпуклые многогранники, которыми являются выпуклые множества, все границы которых линейны (прямые, гипер- плоскости). Гиперсфера не является выпуклым множеством. Одна- ко открытый шар и замкнутый шар являются выпуклыми множествами. Теорема 4.2. Пересечение выпуклых множеств есть вы- пуклое множество. Доказательство. Пусть р и q — произвольные точ- ки, принадлежащие пересечению выпуклых множеств X и У. Соединяющий их отрезок будет принадлежать как мно- жеству X, так и множеству У, а значит, и их пересечению. 143
4.8.7. Выпуклая оболочка конечного множества Пусть Л={а1.......ат} — конечное множество точек в пространстве Rn. Конечное множество не является вы- пуклым. Однако точки конечного множества А могут быть элементами каких-либо выпуклых множеств, например Si, S2 и т. п. В этом случае А является подмножеством пере- сечения выпуклых множеств 51П52П • • • Выпуклой оболочкой множества А называют пересече- ние всех выпуклых множеств, подмножествами которых является А. В частности, если A<=Si и X<=S2, то со ^)<=Sif|S2. Из данного определения следует, что выпуклая оболоч- ка со (Л) является наименьшим выпуклым множеством, содержащим А. Действительно, если бы нашлось выпуклое множество S такое, что Л<=5 и Ssco(X), то имело бы место co0)sSf|co(X), т. е. co(X)sS. Отсюда следует, что £=со(Л). Теорема 4.3. Выпуклая оболочка конечного множества А есть множество средневзвешенных по элементам мно- жества А. Пусть Л={аь ..., ат)—конечное множество и Xt-, i= = 1,п— вещественные числа такие, что 2^=1- (4.128) i Величину X = (4.129) называют средневзвешенным по элементам множества А. Множество S, элементами которого являются величины х, определенные по (4.129) при всевозможных А,,- в пределах ограничений (4.128), представляет собой множество сред- невзвешенных по элементам множества А. Требуется до- казать, что 5=со(Л). (4.130) Доказательство. Для того, чтобы множество S было выпуклой оболочкой множества А, оно должно быть, 144
во-первых, выпуклым и, во-вторых, наименьшим выпуклым множеством, содержащим множество А. Докажем, что оба эти условия выполняются. 1. Возьмем две произвольные системы весов %,- и V, определяющих две точки х=21,аг и х'«^Д/аг i i из множества S. Выберем произвольную точку х" отрезка, соединяющего х и х': х” = 2х + (1 -2)х' =Slui + (I -1)1/1а£ = ^1£''а£, i i г де i,£" — Л2; —|— (1 — 2) Л/. Величина К" неотрицательна, так как представляет собой средневзвешенное двух неотрицательных чисел Хд- и К/. Кроме того, S2/' = 2S2Z + (1 -1)2V=1. Таким обра «>м, х" есп. средневзвешенное по элементам множссша А, 1. е. х"( .5. Следовательно, S — выпуклое множество. 2. Пусть Т — произвольное выпуклое множество, содер- жащее А. Покажем, что оно содержит и S. По условию все элементы ад содержатся в Т. Далее элемент Х2=^1Н1/(7ч+^г) +^2аг/ (^-1+^2) есть средневзвешенное аь а2еТ, так что х2<=Т. Точно так же получаем, что Хз= (Л-1 -J-%2) х2/ (Тч+^г+^з) + +^заз/ (М-Ь^г+^з) = =^iai/(^i+^г+^з) +^2аг/ (Тч+^г+^з) + +^заз/ (Тч+^г+^з) есть средневзвешенное х2, аз^Т, так что ХзеТ. Продолжая рассмотрение этой последовательности точек, находим, 10—804 145
что точка Х1+-- *i + также принадлежит множеству Т. Таким образом, любое xeS принадлежит и Т, т. е. S<=T. Но Т — произвольное выпуклое множество, содержащее А. Следовательно, S — наименьшее выпуклое множество, содержащее А. Понятие выпуклой оболочки легко распространяется на произвольное множество. ^Если X — произвольное множест- во точек из R" (не обязательно выпуклое), то выпуклой оболочкой со(Х) множества X называют наименьшее вы- пуклое множество, содержащее X. 4.8.8. Разделительная и опорная гиперплоскости Обоснование ряда результатов линейного программиро- вания и теории игр основано на использовании понятий разделительной и опорной гиперплоскостей. Пусть S и Т — выпуклые непересекающиеся множества. В теории выпуклых множеств доказывается существова- ние гиперплоскости Lp, называемой разделительной, такой, что множества S и Т лежат в разных полупространствах, определяемых этой гиперплоскостью. Если S — выпуклое множество, то доказывается суще- ствование гиперплоскости Lo, называемой опорной гипер- плоскостью, такой, что S лежит в одном из определяемых ею полупространств и по крайней мере одна точка из S будет принадлежать самой гиперплоскости. На рис. 4.10 приведена иллюстрация понятий разделительной и опор- ной гиперплоскостей. Для описания некоторых видов выпуклых множеств используют понятие крайних точек. Точку х* называют крайней точкой выпуклого множества S, если ни для каких X], x2eS она не может быть представлена в виде х*=Лх1+(1—%)х2, 0<Х<1. (4.131) В этом определении X не может принимать значений 0 и 1. Это означает, что крайняя точка не может лежать внутри отрезка, соединяющего любые две точки выпуклого множества, а может быть лишь концевой точкой этого от- резка. 146
Рис. 4.10. Разделительная (а) опорная (б) гиперплоскости Очевидно, что крайняя точка должна быть граничной точкой множества. Но не все граничные точки являются крайними. В выпуклом многоугольнике на рис. 4.9,6 точки А и В крайние, а С нет. При искривленной границе, как, например, на рис. 4.9,а, любая граничная точка С является крайней. На понятии крайних точек основано определение выпуклого многогранника. Выпуклым многогранником на- зывают выпуклое множество, имеющее конечное число крайних точек, являющихся вершинами многогранника. Приведем без доказа- тельства некоторые тео- ремы, касающиеся край- них точек. Теорема 4.4.. Каждая опорная гиперплоскость выпуклого множества S содержит его крайнюю точку. Теорема. 4.5. Выпук- лое множество S является его крайних точек. Из теоремы 4.5 следует, что если S — выпуклый много- гранник, то любая его точка является средневзвешенным •< in:i его вершин. Сопоставляя данное утверждение м< nriini M ki.iiivk.hoiT оболочки конечного множества . 11/IIIM к KI.IIK |/|.у, 'IIO выпуклой оболочкой конечного i-iii.i ,1 является выпуклый многогранник, вершина- орого являются точки множества А. Задачи к гл. 4 4.1. В трехмерном пространстве даны точки х=(1, 0, 2), у=(3, 4, 0), z=(l, 2, 3). Для этих точек проверить аксиому треугольника п пространствах С2(3), С^31, С<3>. 4.2. На плоскости (х, у) нарисовать окружность с центром в 0 и радиусом 1 в пространствах С2<3>, Ci<3>, О3). 4.3. Доказать, что открытый шар в пространстве /?<") является вы- пуклым множеством. 4.4. Какие из множеств [О, 3], [5, 7], [О, 3]U[5, 7] в простран- стве вещественных чисел R выпуклы, а какие нет? множеством средневзвешенных мной МП 1\< 10*
Глава 5 ЭЛЕМЕНТЫ ТЕОРИИ ВЕРОЯТНОСТЕЙ И МАТЕМАТИЧЕСКОЙ СТАТИСТИКИ 5.1. ПОНЯТИЕ ВЕРОЯТНОСТИ 5.1.1. События и пространство исходов эксперимента В основе теории вероятностей лежит понятие события, которое связано с проведением некоторого эксперимента. Под событием понимается всякий факт, который в резуль- тате эксперимента может произойти или не произойти. Предположим, что при данной совокупности условий результатами эксперимента может быть конечное число исходов Zi,..., zm, полную совокупность которых обозна- чим через Z={zlt...,zm}. (5.1) Множество Z будем называть пространством исходов эксперимента, а элементы z<=Z— элементарными события- ми в пространстве Z. Однако практически наибольший интерес представляют не сами элементарные события, а некоторые их совокуп- ности, являющиеся подмножествами множества Z. Будем называть событием в пространстве исходов эксперимента Z любое подмножество S множества Z: S^Z. (5.2) Когда мы говорим, что происходит событие S, то под- разумеваем, что исходом эксперимента является элемен- тарное событие z, содержащееся в S. Для любых событий S! и S2> принадлежащих простран- ству исходов эксперимента Z, имеют место следующие определения. Объединением Si(JS2 событий Si и S2 называют собы- тие, состоящее в осуществлении хотя бы одного из собы- тий Si и S2. Совмещением Sif|52 событий Si и S2 называют событие, состоящее в осуществлении и Si, и S2. События Si и S2 называют несовместными, если осуществление одного из них исключает возможность осуществления другого, т. е. если Sif|S2=0. 148
Рис. 5.1. Пространство исходов экспери- мента при бросании двух игральных ко- стей Дополнением S события S на- зывают событие, состоящее в не- осуществлении события S. Достоверное событие состоит в осуществлении хотя бы одного из событий пространства Z. Невозможным событием является пустое множество 0, состоящее в том, что не осуществляется ни одно из собы- тий пространства Z. Пример 5.1. Эксперимент состоит в бросании двух игральных ко- стей, на каждой из которых может выпасть от одного до шести очков. Введем в рассмотрение множество 7={1, 2, .... 6}. Исход эксперимен- ia будет упорядоченной парой z=(i, k), где i, k^J, причем i — резуль- тат бросания первой кости; k — результат бросания второй кости. Исхо- ды эксперимента удобно изображать точками на плоскости (Г, £), как показано на рис. 5.1. Как видим, пространство исходов эксперимента будет состоять из 36 точек: Z = {(1, 1), (1, 2), ..., (6, 6)}. События Лесь могут быть весьма разнообразными. Обозначим через S, событие, ...тошнее и юм, что выпадает-/ очков. Тогда S2={(1, 1)}; S7= (d. '). (". b). (Ч. 1). (4, 3), (5, 2), (6, 1)}; Зц={(6, 5), (5. 6)}; Понятие вероятности В теории вероятностей каждый исход эксперимента <=Z рассматривается как случайный. Это означает, что .аранее неизвестно, какой из исходов будет иметь место при проведении эксперимента. Однако ясно, что, во-первых, н результате каждого испытания обязательно должен иметь место какой-то исход zeZ и, во-вторых, в резуль- тате одного испытания не может быть двух исходов. Интуитивно под вероятностью исхода понимают чис- ленную меру, которая характеризует объективную воз- можность данного исхода эксперимента. Это означает, что каждому из элементов zeZ приписывается некоторый вес р, т. е. положительное вещественное число, на которое наложены некоторые ограничения, а именно: 1) р тем больше, чем больше уверенность в том, что будет иметь место именно данный исход эксперимента zeZ; 149
2) сумма весов р для всех возможных исходов экспери- мента должна быть равна единице. Приписывание какому-либо элементу zeZ веса р—0 означает, что данный исход эксперимента невозможен, т. е. представляет собой невозможное событие. Если како- му-то элементу zeZ приписан вес р=1, то данный исход представляет собой достоверное событие. Действительно, в силу второго ограничения всем остальным элементам множества Z должны быть приписаны веса р—0, т. е. со- бытия, соответствующие этим элементам, являются невоз- можными. Но так как какой-то исход эксперимента обя- зательно должен иметь место, то это будет именно тот, которому приписан вес р=1. Совокупность весов, приписываемых отдельным элемен- там множества Z, представляет собой некоторое множест- во Р с элементами р, а сам процесс приписывания весов представляет собой отображение множества Z на множе- ство Р, т. е. определяет вероятности р^Р как функции исхода эксперимента zeZ, что может быть записано в ви- де p=p(z). Согласно сформулированным выше ограничениям вели- чины p(z) представляют собой вещественные числа, удов- летворяющие условиям p(z)>0; 2р(2) = 1' (5.3) Совокупность весов p(z) для всех zeZ называют рас- пределением вероятностей на пространстве исходов экспе- римента Z, а каждый вес р^Р, приписываемый элемен- тарному исходу zeZ, называют вероятностью данного исхода. Если множество Z элементарных событий представляет собой множество значений некоторой (не обязательно чис- ленной) переменной z, то эту переменную называют слу- чайной величиной. В этом случае совокупность весов p(z) будет представлять собой распределение вероятностей случайной величины. 5.1.3. Вероятность события События S мы определили как некоторое подмножество множества исходов эксперимента Z. Следовательно, собы- тие представляет собой множество, состоящее из части 150
элементов множества Z. При этом под вероятностью со- бытия S, обозначаемой через Ps или P(S), понимают сум- му весов составляющих это событие элементов: P(S) — Ps= 3 Р(4 М zeS Частными случаями этой формулы являются: 1) S не содержит ни одного элемента из Z, т. е. явля- ется пустым множеством; согласно (5.4) вероятность пус- того множества равна нулю; 2) S совпадает с Z, т. е. содержит всевозможные исхо- ды эксперимента. Так как не может быть исхода экспери- мента, не входящего в Z, то все пространство Z можно рассматривать как универсальное множество и приписать ему вес р=1. Это вполне согласуется с формулой (5.4), которая с учетом (5.3) дает: Pz=-%p(z)=l. (5-5) zez 5.1.4. Способы приписывания вероятностей исходам эксперимента Нмеск я ряд способоп приписывания весов отдельным ЭЛСМ1ЧГ1.1М . пространства Z. Какой из способов применить в том или ином случае, зависит от характера проводимого эксперимента и от той информации, которой мы при этом располагаем. Рассмотрим основные способы. 1. Определение вероятности через часто- ту. Рассмотрим эксперимент с пространством исходов Z={zi,...,zm}, который мы можем повторять многократно в одних и тех же условиях. Предположим, что было про- ведено N испытаний, при которых интересующий нас исход zeZ произошел Nz раз. Относительное число случаев, при которых данный исход z имел место, т. е. q(z)=Nz/N, (5.6) называют частотой исхода z. Нетрудно убедиться, что час- тоты q(z) всевозможных исходов zeZ удовлетворяют ус- ловиям (5.3). При небольшом числе экспериментов частота носит в значительной мере случайный характер. Так, при 10 бро- саниях монеты «герб» может выпасть 2 раза, а при дру- 151
гих 10 бросаниях он может выпасть, например, 8 раз. Од- нако практика показывает, что при увеличении числа экспериментов частота отдельных исходов в значительной мере теряет свой случайный характер и имеет тенденцию приближаться с незначительными колебаниями к некото- рому среднему значению, которое и может рассматривать- ся как вероятность события. Однако это приближение частоты к вероятности при увеличении числа эксперимен- тов отличается от стремления к пределу в математическом смысле. Так, не является невозможным, что при 10-кратном бросании монеты «герб» выпадает все 10 раз. Поскольку результат каждого бросания монеты не зависит от резуль- татов предыдущих бросаний, то нет ничего невозможного и в том, что «герб» выпадет 1000 раз при 1000-кратном бросании монеты. Однако вероятность такого события столь мала, что его можно считать практически неосуще- ствимым. Вообще при увеличении числа опытов частота прибли- жается к вероятности в том смысле, что вероятность сколько-нибудь значительных отклонений частоты от ве- роятности становится пренебрежимо малой. Следователь- но, если имеется возможность многократно повторять экс- перимент в одинаковых условиях, то частоты отдельных исходов q(z) могут быть приняты за вероятности этих ис- ходов. Вопрос о том, какое число экспериментов считать достаточным при определении вероятности через частоту и какова степень достоверности полученных при этом ре- зультатов, будет более подробно рассмотрен в главах, по- священных методам математической статистики. Однако трудности, связанные с многократным повто- рением эксперимента в реальных условиях, заставляют использовать другие методы определения вероятности. Принцип равных возможностей. Этот прин- цип применяют, когда нет оснований отдать предпочтение какому-либо одному исходу эксперимента перед другими. В этом случае следует считать, что имеются равные воз- можности для любого исхода эксперимента, и всем им приписать одинаковые вероятности. Если при этом прост- ранство исходов эксперимента Z состоит из т элементов, а событие S содержит г элементов из Z, то вероятность этого события P(S)=r/m. (5.7) 152
Так, вероятность того, что из хорошо перемешанной колоды в 52 карты будет вынут один из королей, рав- на 1/13. Априорные вероятности. Априорные вероят- ности определяют на основании сбора статистических дан- ных об интересующем нас событии или явлении за дли- тельный промежуток времени. Обычно в различных областях науки, техники и обще- ственной жизни производится сбор статистических сведе- ний о тех или иных событиях или явлениях, которые от- носятся к разряду случайных, т. е. закономерности кото- рых не поддаются строгому математическому описанию и появление которых не может быть с достоверностью пред- сказано. Изучение того, насколько часто данное событие происходило в прошлом, позволяет определить вероят- ность этого события и, следовательно, предсказать с опре- деленной степенью достоверности появление этого собы- тия в будущем. Апостериорные вероятности. Априорные ве- роятности дают достоверное описание явления лишь в том случае, когда условия, при которых происходило явление в прошлом, сохраняются и в настоящее время. Однако так бывает далеко не всегда. Поэтому важное значение имеет уio'iik'iiik' иенетвительных условий, имеющих место в на- iirnii.iiii mo’khi npi-мепн, 'iio может быть сделано путем и।»>ш• ’н-п11.1 । ik'iiи.i.ni.iii) inK'.r.iiijieniioi’o эксперимента. Ве- рня ।ikk-rn, определяемые как на основе прошлых стати- eiii'iecKiix данных, так и на основании специально постав- ленного эксперимента, называют апостериорными вероят- ностями. Пример 5.2. По статистическим данным за длительный период в июле в средней полосе 80 % дней солнечных (событие S|) н 20 % дождливых (событие S2). Поэтому априорные вероятности того, что 12 июля будет солнце или дождь, P(S,)=0,8 и Р($2)=0,2. Однако в отдельные годы могут быть значительные отклонения от этих сред- них цифр. Уточнение состояния погоды на 12 июля по данным прогноза па текущий месяц может рассматриваться как проведение эксперимен- та (см. пример 5 5). 5.1.5. Вычисление вероятностей сложных событий Пусть Si и 5г — некоторые события в пространстве ис- ходов эксперимента Z с известными вероятностями Р(3|) и Р(3?). Сложное событие может представлять собой, на- 153
пример, объединение, пересечение, дополнение простых событий. Для упрощения вычислений вероятностей слож- ных событий рассмотрим некоторые соотношения, связы- вающие вероятность сложного события с вероятностями составляющих его простых событий. 1. Если SiflS2=0, то согласно (5.4) mUS2)= 3 ^(*)= 2 />(*)+ 2 Р& = zeSxUSz zest ге52 = P(S1) + P(S8). (5.8) Выражение (5.8) допускает обобщение. Пусть Si,... ..., Sz — несовместные события, т. е. такие, для которых Sif|5,=0 при £=/=/• При этом 2^(s«)- (5-9) 2. Из условий X{JX=Z, Х[}Х=0 находим Р (XU-X) = =Р(Х)4-Р(Л') = 1, откуда Р(Х) = 1— Р(Х). (5.10) 3. Пусть Y^X. Рассмотрим множества У и Х\У, удо- влетворяющие условиям УП (X \ У) =0, УК {X \ У) =Х. Следовательно, Р (X) =Р [ Уи (X \ У) ] =Р (У) +Р (X \ У). Поскольку Р(Х\У)^0, то Р(Х)>Р(У); Р(Х\У)=Р(Х)—Р(У). (5.11) 4. Для произвольных X и У рассмотрим подмножество В=У\(Х(]У), удовлетворяющее условиям: х[\в=0, хив=хиу, поэтому Р (ХиУ) =Р (ХЦВ) =Р (X) +Р (В) = =Р(Х)+Р[У\(ХПУ)]. (5.12) Но ХПУ^У, так что согласно (5.11) Р[У\ (ХГ|У)] = =Р(У)—Р(ХПУ). поэтому Р(Д)У)=Р(Х)4-Р(У)-Р(ХЛП. (5.13) Пример 5.3. Из колоды в 52 карты выбирается наугад одна. Како- ва вероятность, что эта карта будет: 1) червонной масти или король треф? 2) червонной масти или один из королей? 154
Обозначим: X—множество червей; У—множество королей; V — король треф, так что Р(Х) = 1/4, Р(У)=1/13, P(V) = l/52. 1. Вычисляем P(X(JV). Поскольку P(X(")V)=0, то Р (X(J V) =Р (X) +Р (V) = 1 /44-1 /52 =7/26. 2. Вычисляем P(XUK). Так как Х[\Уф0, то Р(ХиУ)=Р(Х)+’ 4-Р(У)—Р(ХЛТ). Но XQУ— король червей, т. е. Р/ХПГ) = 1/52. Сле- довательно, Р(ХиГ) = 1/44-1/13-1/52=4/13. 5.2. УСЛОВНЫЕ ВЕРОЯТНОСТИ 5.2.1. Понятие условной вероятности Рассмотрим некоторое событие Т в пространстве ис- ходов эксперимента Z. По определению вероятность это- го события ^(Г)= 3 P(z). (5.14) гет Предположим нам известно, что произошло некоторое другое событие S. Спрашивается, каким образом знание |<>к>, что произошло событие S, повлияет на вероятность riiiii.ii ни /4’ Верой...си. события Т при условии, что произошло другое событие S, называют условной вероятностью собы- тия Т и обозначают PS(T) или P(T\S). Вероятность Р(Т) называют безусловной вероятностью события Т. Перед нами стоит задача найти соотношение, связывающее эти две вероятности. Упростим задачу. Будем считать, что множество Т со- стоит только из одного элемента zeZ. При определении безусловной вероятности p(z) исходим из того, что может произойти любое zeZ. Если производится достаточно большое число экспериментов, то число экспериментов с данным zgZ Nz общее число экспериментов М Если налагается условие, что произошло событие S, то тем самым должны быть исключены все те исходы экс- перимента, при которых событие S не происходит. Значит, при определении p(z|S) нужно заменить N на Ns — число экспериментов, в которых произошло событие S, и Nz на (5.15) 155
Nz,s — число экспериментов, в которых произошло как данное г, так и событие S. Но в рассматриваемом случае (г, 5) = гПЗ = (2'e“"2SLS’ (5.16) (0, если z^S. Поэтому N{z S) = Таким образом, P(z\S) = Nzf}sINs. (5.17) Поделив числитель и знаменатель этого выражения на общее число экспериментов N, получим p(2|S)=p(znS)/P(S). (5.18) Рассмотрим теперь случай, когда Т — произвольное подмножество Z. Учитывая, что вероятность события рав- на сумме вероятностей элементов, составляющих это со- бытие, находим P(T\S)= SrP(z\S) = ^p(znS)/P(S). (5.19) Рассмотрим сумму, стоящую в числителе этого выра- жения. В нее входят только слагаемые для г^Т. Но в ней можно не учитывать слагаемых для zf£S, так как при этом p(zf]S)==O. Следовательно, эта сумма состоит из сла- гаемых, для которых выполняются условия z^T и z^S. Значит, суммирование можно вести по zeTf|S. Но при z^S имеем p(zf)S)=p(z). Поэтому 2/W) = S р(2) = Р(ГПЗ). (5.20) 2GT 2ЕТП5 С учетом этого P(7’\S)=P(7’nS)/P(S), (5.21) что часто записывают в виде P(T(]S)=P(T\S)P(S). (5.22) Иногда встречаются случаи, когда наше знание того, что произошло событие S, не влияет на вероятность собы- тия Т. Другими словами, вероятность события Т не зави- сит от того, произошло или не произошло событие S, так что P(T\S)=P(T). (5.23) 156
В этом случае говорят, что события Т и S являются независимыми .и для них имеет место соотношение P(7’f]S)=P(T)P(S), (5.24) которое часто называют формулой умножения вероятно- стей. Пример 5.4. Монету бросают три раза. Пусть Т — событие, состои- щее в том, что все три раза монета выпадает одной и той же сторо- ной; S — событие, состоящее в том, что «герб» выпадает не более одного раза. Являются лн события Т и S независимыми? Из восьми возможных исходов эксперимента событию Т соответ- ствуют два исхода, событию S — четыре, а событию Tf|S — одни. По- этому Р(Т)=1/4, P(S) = l/2, P(TnS)=l/8. Сопоставляя эти данные с условием (5.24), видим, что события Т и S независимы. 5.2.2. Формула полной вероятности Пусть некоторое событие Т происходит вместе с одним из несовместных событий St,..., Si, т. е. событий, удовлет- воряющих условию Sif]S/=0 при Тогда т=т n'(Sx и Ss u-u st)=(Т п з.) и (ГП^и-и^П^). Поскольку события S, несовместны, то несовместны и со(>|.гн|ц 7'(]Х, ('..11сдо||;1тольпо, согласно (5.9) Р(Т)=Ер(тп5г) <=| или с учетом (5.22) Р(Т)= (T\Si) р(&). <5-25) z=i Выражение (5.25) получило название формулы полной вероятности. 5.2.3. Определение апостериорных вероятностей. Формула Байеса Пусть имеется множество возможных несовместных со- бытий Si...Si и из прошлого опыта известны их априор- ные вероятности Р(5г). Эти вероятности кажутся недоста- 157
точно надежными, поэтому для их уточнения проводим эксперимент. Пусть событие Т явилось исходом эксперимента. Из- вестны (опять из прошлого опыта) условные вероятности Р(Т\5г) события Т при каждом из несовместных событий Si, i=l,..., I. Посмотрим, как изменится представление о вероятностях событий Si,..., Si после получения резуль- тата эксперимента Т. Эти вероятности обозначаются P(Si\T), 1=1,..., I и называются апостериорными вероят- ностями событий Si,...,Si. Для вычисления апостериорных вероятностей восполь- зуемся формулой (5.22), которую запишем в виде Р=P(T\St)P(Si)=P (Si \ Т)Р(Т). Отсюда Р (St \ Т) =Р (Т \Si)P(Si)/P (Т). (5.26) Входящую в (5.26) безусловную вероятность Р(Т) со- бытия Т находим по формуле полной вероятности (5.25) Р(Т) = SPiTXSiyPiSfr (5.27) С учетом (5.27) формула (5.26), получившая название формулы Байеса, запишется в виде PJ<Sl\T)=P(T\Si)P(Sl} j 2Р(Т\ St)P(St). (5.28) Пример 5.5. Прогноз погоды на 12 июля в примере 5.2 показал «солнце» (событие Ti). Этот прогноз может быть ошибочным с услов- ными верятиостями Р|Si) =0,9 и P(Tt|S2)=0,3. Апостериорные ве- рятности событий Si н S2 будут: P(S|TI)=0,9-0,8/(0,9-0,8+0,3-0,2) = = 0,923; P(S|Ti) =0,0769. 5.3. НЕПРЕРЫВНЫЕ СЛУЧАЙНЫЕ ВЕЛИЧИНЫ И ИХ РАСПРЕДЕЛЕНИЯ 5.3.1. Понятие непрерывной случайной величины До сих пор мы предполагали, что пространство исхо- дов эксперимента Z представляет собой конечное множе- ство. Однако во многих случаях исходом эксперимента z 158
может быть любое значение в некотором диапазоне При этом z является непрерывной случайной ве- личиной, Пространством исходов эксперимента которой будет весь диапазон ее возможных значений: Z={z|a<z<5}, (5.29) содержащий бесконечное множество точек. Непрерывными случайными величинами будут, напри- мер, высоты деревьев в лесу или их диаметры, сила тока или напряжение в электрической сети, температура возду- ха в различное время суток,. В этих случаях уже нельзя говорить о вероятности отдельного исхода, так как при бесконечно большом числе возможных исходов вес каж- дого исхода р=0. Поэтому распределение вероятностей для непрерывной случайной величины определяется ина- че, чем в дискретном случае. При этом используют два ви- да распределения, называемых функцией распределения вероятностей и плотностью вероятности. 5.3.2. Функция распределения вероятностей Пусть Z— пространство исходов эксперимента одно- мерной случайной величины, принимающей вещественнее Mitii'H uinr, Д множество всех вещественных чисел, эле- мсн। i.i и।ни|к»г1> обозначим через к. Функция распределе- 1'||( Г5.2. Функция распределения ве- - риитностей для непрерывной случай- ной величины „ ния вероятностей F(jc\ определяет вероятность того, что значения случайной величины z не превзойдут данного х: F(x)=P(—oo<z<x). (5.30) Общий характер функции F(x) можно представить, базируясь на некоторых ее свойствах: 1) поскольку при х2>Х1 интервал [—до, х2] лежит це- ликом внутри интервала [—оо, xf], то. согласно (5.30) F(x2)^F(xi). Следовательно; F(x) —неубывающая функ- ция; 159
2) F(—oo)=0, так как исход эксперимента Ze(—оо, х] становится невозможным событием при х-э—оо; 3) F( + oo) = l, так как исход эксперимента ze—(оо, х] становится достоверным событием при х->-г<». Общий вид функции, удовлетворяющий поставленным свойствам, приведен на рис. 5.2. 5.3.3. Плотность вероятности Зная функцию распределения вероятностей, можно подсчитать вероятность того, что значение случайной ве- личины будет лежать внутри малого интервала от х до х-|-Ах. Согласно (5.30) эта вероятность F (х-|-Ах) —F (х) = = (F(x+Ax)—F(x))Ax/Ax. (5.31) Первый сомножитель правой части этого выражения представляет собой значение вероятности, приходящееся на единицу длины участка Ах. Если предел этого отноше- ния при Ах->0 существует, что обычно выполняется для большинства непрерывных случайных величин, то его обозначают через w(x) и называют функцией плотности вероятности или просто плотностью вероятности. Таким образом, w (х) = lim [(F (х + Ах) — F (х))/Дх] — dF (x)/dx, (5.32) так что F(x+Ax)—F(x)=tw(x)Ax. (5.33) На рис. 5.3 приведен общий характер графика функ- ции w(x). Выясним некоторые свойства функции w(x). Пусть а и b — произвольные точки вещественной оси, причем Ь~> >д.Найдем смысл интеграла §w(X)dx. Заменяя чи- сто формально w(x)dx на dF(x), получаем b F(b) §w{x)dx = J dF(х) = F(b) — F(а). (5.34) a F(a) 160
Однако согласно (5.30) это выражение дает вероят- ность того, что случайная величина z принимает значение, лежащее внутри интервала (я, &). Таким образом, ь P(a<z<b) = § w(x)dv. (5.35) Из (5.35) как частный случай следует соотношение +00 w(x)dx — 1, (5.36) о Рис. 5.3. Функция плотности ве- роятности Me М х Рис. 5.4. Взаимное расположение моды и медианы 1ИЖ.1 плвающее, что площадь, ограниченная кривой плот- |||и in iK'pdHTnocTii «у(х) и осью абсцисс, всегда равна еди- I'.i |||.ы i iiik- (.'• 13) пи П1ОЛЖЧ пыра.чпть связь между функциями /•(») и ।) и интегральной форме. Сравни- it. г,i (5.30) п (5.35), находим F(x)-=f w(B)^. (5.37) Для более полного описания формы кривой плотности псроятности используют две характерные величины, назы- п.чемые модой и медианой. Модой М случайной величины называют такое значе- ние х, при котором oi(x)=max. Медианой Me случайной величины называют такое х=Ме, для которого P(z<_Me) — Р{г>Мё), т. е. для которого левая и правая площади под кривой плотности вероятности одинаковы. На рис. 5.4 приведено взаимное расположение моды и медианы для несимметричного относительно своего мак- симума графика кривой плотности вероятности. 11—804 161
Понятия функции распределения вероятностей и плот- ности вероятности легко распространяются и на случай многомерной случайной величины (случайного вектора) [20, 22]. Отложив рассмотрение этих вопросов до § 5.5, разберем некоторые законы распределения непрерывных случайных величин. 5.3.4. Равномерное распределение вероятностей Если случайная величина с одинаковой вероятностью может принимать любые значения в пределах участка ве- щественной оси от а до р и не может принимать значений вне этого участка, т. е. имеет плотность вероятности “ХТ* <М8> (0, z<a, z>0, то ее называют равномерно распределенной в интервале [«> ₽]• Равномерное распределение удобно охарактеризовать параметрами v=(a+p)/2 и ш—13—а, называемыми сред- ним значением и размахом распределения, и обозначить через R(y, и). Плотность распределения вероятностей w(z) легко выразить через параметры распределения X(v, <о) в виде „и- (5.39) ’ [0, z<v—<о/2, Z>v + <»I2. Пример 5.6. При округлении числа до целых значений погрешности могут с одинаковой вероятностью принимать значения от —0,5 до -|-0,5, т. е. подчиняются распределению 2?(0, 1). Пример 5.7. При отсчете по шкале с ценой деления б погрешности отсчета будут случайными величинами с распределением 2?(0, б). Пример 5.8. Если движение троллейбуса происходит с интервалом 10 мин, то время ожидания для пассажира, не знакомого с расписа- нием, будет случайной величиной с распределением R(5, 10). 5.3.5. Гауссовское (нормальное] распределение вероятностей Наиболее важным законом распределения случайной величины является нормальный или гауссовский закон распределения. Этот закон наиболее часто встречается на 162
практике и является предельным законом, к которому приближается ряд других законов распределения при весьма часто встречающихся типовых условиях. Нормальный закон характеризуется функцией плотно- сти вероятности вида для —оо<г<4-оо. в(2,= ч7й e-(z-v)V23"- (5.40) о, в °,5 о,4 0,3 oY. ^0,-L <з=г,о -Z -1 о Рис. 5 5. График w(x) для нормального распределения Нормальное распределение определяется параметра- ми v п о2, называемыми математическим ожиданием и ihn пе/н псп, и и дальнейшем будет обозначаться N(y, о2). II.i [нн- !> приведен график функции (5.40) для -v=l,0 и нескольких значений о. Легко видеть, что при о->-0 нор- мальный закон распределения вероятностей w(z) превра- щается в импульсную функцию 6(z—v) (см. § 2.5). Весьма важной задачей теории вероятностей является определение вероятности того, что случайная величина попадает на заданный интервал вещественной оси (а, Ь). В случае нормального распределения (5.41) Это выражение принимает более удобный вид, если произвести замену переменной, обозначив (z—v)/o=t. При этом (И=йг/а и (Ь—v)/cr P(a<z<b)=-^=- j е~р/2^. (5.42) (a—v>/cr И* 163
Однако интеграл вида J е р/2сИ через элементар- ные функции не выражается. Поэтому для вычисления (5.42) пользуются таблицами (см. [21]) специальной функции ф(х)==тк J (5-43) называемой интегралом вероятностей. С учетом (5.43) ве- роятность попадания случайной величины на интервал (а, Ь) P(a<z<b)=®( (b-v) /о)—Ф ((а-v) /о). (5.44) При вычислениях по формуле (5.44) полезно помнить следующее: \ Ф(0)=1/2; Ф(+оо)=1; Ф(—х) = 1—Ф(х). (5.45) 5.4. ЧИСЛОВЫЕ ХАРАКТЕРИСТИКИ СЛУЧАЙНЫХ ВЕЛИЧИН 5.4.1. Понятие о числовых характеристиках Функция распределения или плотность вероятностей являются наиболее полными характеристиками случай- ных величин. Однако во многих задачах оказывается трудно или даже невозможно полностью описать функцию распределения вероятностей. В то же время для решения многих задач достаточно знать лишь некоторые параметры, характеризующие слу- чайную величину с той или иной точки зрения. Наиболее распространенными числовыми параметрами, получивши- ми название числовых характеристик или моментов слу- чайных величин, являются математическое ожидание и дисперсия или среднеквадратичное отклонение. Их легко определяют из экспериментальных данных, они позволяют в общих чертах судить о характере случайной величины. 5.4.2. Математическое ожидание случайной величины Во многих задачах случайная величина, рассматривае- мая как возможный исход некоторого эксперимента, вы- ражается вещественным числом. Примерами случайных 164
величин, принимающих численное значение, могут слу- жить: ток, потребляемый жильцами дома; напряжение в сети в данный момент времени; температура воздуха в данное время суток; число космических частиц, достига- ющих земной поверхности за единицу времени; число оч- ков, выбитых данным стрелком па мишени; число покупа- телей в магазине в данный момент времени и т. п. Для всех этих случаев важной числовой характеристи- кой случайной величины является ее математическое ожидание. Предположим, что элементы пространства исходов экс- перимента Z—{z\,..., zm} допускают численную оценку. Если при N испытаниях исход z\ произошел г\ раз,..., ис- ход zm произошел гт раз, так что п+... +rm=N, то сред- нее значение случайной величины z будет zcp = (zfi +... + zmrm)/N 2 z, (rt/N), (5.46) /=1 где rt/N=qi — частота исхода Zf. Если число экспериментов N будем увеличивать, то от- ношение Гг/N будет приближаться к вероятности pi исхо- да гг. Заменяя в (5.46) r-t/N на вероятность pt, получаем формулу для определения математического ожидания случайной величины z, обозначаемого через E(z) или z. Опуская индексы при переменных, находим E(z)-=z-= 2 zp(z). (5-47) Как видим, отличие математического ожидания слу- чайной величины от ее среднего значения носит тот же ха- рактер, что и отличие вероятности от частоты. Выражение (5.47) может служить для определения ма- тематического ожидания в случае, когда пространство ис- ходов эксперимента Z является конечным множеством. Если же z — непрерывная случайная величина с плотно- стью распределения вероятностей w(z), то под p(z) в (5.47) можно понимать вероятность того, что значение случайной величины лежит в пределах от z до z+Az, т. е. положить p(z)=sy(z) Az. Переходя к пределу при Az->0 и заменяя соответственно Az на dz, а сумму на интеграл, 165
получаем _ +о° Е (z) = z = j zw (z) dz. (5.48) Отметим некоторые свойства математического ожида- ния, важные для дальнейшего использования. I. Математическое ожидание неслучайной величины равно самой величине. Пусть с — неслучайная, т. е. по- стоянная, величина. При этом с можно рассматривать как результат эксперимента, при котором пространство исхо- дов Z состоит только из одного элемента с, так что р(с) = =1. По (5.47) находим Е(с)=ср(с)=с. (5.49) 2. Постоянный множитель можно выносить за знак ма- тематического ожидания E(cz) = czpz = c 2 zp(z)=cE(z). (5.50) z&Z z£Z Пример 5.9. Математическое ожидание равномерно распределенной случайной величины J xiv (х) dx = \/{b—a) y%dx = (& + a)/2. 5.4.3. Математическое ожидание функции от случайной величины На практике часто встречаются задачи, в которых слу- чайная величина не выражается числом. Так, выпускае- мая заводом продукция делится на годную и бракован- ную. При бросании монеты исходом эксперимента может быть «герб» или «решка». Вынутая наугад из колоды кар- та характеризуется наименованием и мастью. Принятый радиолокационный сигнал несет информацию о наличии или отсутствии цели и т. п. Во всех этих примерах случай- ные величины имеют не количественное, а только качест- венное различие. Однако обычно оказывается возможнььм введение количественной оценки и для случайных вели- чин, имеющих лишь качественное различие. Случайную величину рассматриваем как результат не- которого эксперимента, который или ставится искусствен- 166
но, или является результатом естественного процесса. При этом следует помнить, что любой эксперимент требует оп- ределенных затрат и ставится не ради удовлетворения на- шего любопытства, а ради достижения определенной це- ли. Тот или иной исход эксперимента является желатель- ным или нежелательным в зависимости от того, насколько достигается поставленная цель. Достижение поставленной цели можно рассматривать как выигрыш или выгоду, а недостижение—как проигрыш или убыток. И выгоду и убыток можно выразить числами, представляющими на- пример какие-то суммы денег в рублях. Таким образом, каждому исходу эксперимента zeZ можно поставить в соответствие некоторую численную оценку, т. е. осуществить отображение f пространства ис- ходов эксперимента Z на множество вещественных чи- сел R: f-.Z^R. (5.51) Это отображение дает вещественную функцию f(z), определенную на Z, с которой мы можем оперировать как со случайной величиной и, в частности, определять ее ма- тематическое ожидание. Пусть f(z)—некоторая численная функция, опреде- ленная па множестве Z. Это означает, что элементам zi,... .. ,zm множества Z соответствуют значения функции f(zt), Вероятности этих значений будут те же, что п вероятности случайных величин zb..., zm. Таким обра- зом, p(z) представляет собой распределение вероятностей как для случайной величины z, так и для функции от слу- чайной величины f(z). Следовательно, математическое ожидание функции от случайной величины может быть найдено по формулам для математического ожидания слу- чайной величины путем замены z на f(z): для дискретной случайной величины Д[/(г)] = Й7)= S (5.52) г& для непрерывной случайной величины +00 £[f(z)l -=Ш = 7 f(z)w(z)dz. (5.53) 167
Пример 5.10. Вероятность того, чго выпущенный заводом прибор окажется бракованным, равна р. Какова средняя прибыль, приходя- щаяся на одни прибор, если а — себестоимость, Ь — цена прибора? Обозначая среднюю прибыль через Q и применяя (5.52), находим Q= (6-a) (i_p)_ap=6(i_p)_a. Во многих задачах математическое ожидание рассматривается как средний выигрыш при большом числе экспериментов. В этом случае считается, что эксперимент проводить целесообразно, если 7(z):»0. Другая интерпретация математического ожидания относится к пари. Предположим, что некоторое событие может произойти с ве- роятностью р. Заключение пари предполагает, что один из его участ- ников согласен заплатить сумму 6, если событие не произойдет, при условии, что другой участник заплатит ему сумму а, если событие произойдет. Таким образом, первый участник получает сумму а с ве- роятностью р и выплачивает сумму 6 с вероятностью 1— р. Его сред- ний выигрыш Q=ap— 6(1—р). Пари считается справедливым, если средний выигрыш будет равен нулю, т. е. при условии а/6=(1—р)/р. Теорема 5.1 (теорема о среднем значении). Заменяя в (5.52) под знаком суммы f(z) на его минимальное зна- чение min f(z), получаем соотношение 777)>minf(z) 2 Р (2) = nun f(z), г выражающее собой теорему о среднем значении. 5.4.4. Моменты. Дисперсия. Среднеквадратичное отклонение Важнейшими числовыми характеристиками случайной величины являются ее моменты, которые делятся на на- чальные и центральные. Начальный момент порядка s случайной величины z для дискретной случайной величины as(2)=S2W); (5.54) 168
для непрерывной случайной величины +00 as(z)= J zsw(z)dz. (5.55) Нетрудно видеть, что математическое ожидание E(z) — =z представляет собой начальный момент первого по- рядка ai(z). Начальный момент второго порядка — сред- нее значение квадрата случайной величины a2(z)= ==z2. (5.56) , Очень часто в качестве случайной величины использу- ют центрированную случайную величину z=z—z, пред- ставляющую собой разность между случайной величиной г и ее математическим ожиданием z. Если вместо г в (5.54) и (5.55) представить z, то получим выражение для центральных, моментов порядка s. Легко убедиться, что центральный момент первого по- рядка, т. е. математическое ожидание центрированной случайной величины, равен нулю: о +со — 4 00 —+°° — — E(z) (г -~z)w(z)dz — J zw(z)dz — z§ w{z)dz—z-z—Q. Важнейшей числовой характеристикой случайной вели- чины служит центральный момент второго порядка, на- зываемый дисперсией случайной величины г, обозначае- мый D(z) или ог2 и определяемый для дискретной слу- чайной величины ^(z) = az2 = S(z-z)2p(z); (5.57) для непрерывной случайной величины +00 D (г) — ога = j (г — z)2 w (z) dz. (5.58) Сопоставляя (5.57) и (5.58) с (5.52) и (5.53), видим, что дисперсию можно рассматривать как математическое ожи- дание квадрата центрированной случайной величины o22=E[(z-z)2]. (5.59) 169
Дисперсия характеризует отклонения отдельных зна- чений случайной величины от математического ожидания, т. е. является характеристикой рассеивания случайной ве- личины. Чем меньше дисперсия, тем более тесно концент- рируются отдельные значения случайной величины вблизи математического ожидания. Дисперсия оказывается в ряде случаев неудобной для практического использования, так как имеет размерность квадрата случайной величины. Поэтому в качестве ха- рактеристики рассеивания случайной величины часто при- меняют корень квадратный из дисперсии, получивший на- звание среднеквадратичного отклонения и обозначаемый а или о2: (5.60) Отметим основные свойства дисперсии: 1) дисперсия неслучайной величины равна нулю: Д(с)=£[(с—с)2]=£(0)=0; (5.61) 2) неслучайную величину можно выносить за знак дис- персии, возводя ее в квадрат: D (cz) =Е [ (cz—cz)2] = c2D (z). (5.62)' Некоторые другие свойства дисперсии будут рассмот- рены позднее. Пример 5.11. Дисперсия равномерно распределенной случайной ве- личины + оо ь °2г = J (г—i)2M(z)dz=l/(ft—л) J (г —(*+e)/2)»dz = = (*—а)2/12. 5.5. ДВУМЕРНЫЕ СЛУЧАЙНЫЕ ВЕЛИЧИНЫ 5.5.1. Понятие двумерной случайной величины Часто в качестве результата эксперимента нас интере- сует не одна, а несколько случайных величин, например х и у. Так, при вынимании карты из колоды могут инте- ресовать ее масть х и ценность (число очков) у\ при вы- боре деревьев в лесу для строительства — высота дерева х и его диаметр у, при проверке конденсаторов на исправ- ность — емкость х и пробивное напряжение у. 170
Во всех этих примерах имеют дело с двумя множества- ми случайных величин: X={xi..... хп) и Y={y\, ..., у™}- Однако эти множества не являются независимыми, они определенным образом связаны между собой, а именно: исходом одного эксперимента z являются две случайные величины хеХ и y<^Y, так что z= (х, у). Таким обра- зом, множество исходов эксперимента Z является прямым произведением множеств X и Y: Z=X*Y. (5.63) Рассмотрим события и их вероятности, которые могут интересовать при рассмотрении двумерных случайных величин. Вводимые понятия будем иллюстрировать на примере коробки с карандашами, имеющими два признака: цвет хеХ={К, С} в твердость #еУ={Т, М}. В коробке имеется восемь карандашей со следующими значениями признаков: кккккссс тттммтмм. Результатом эксперимента будет случайный выбор одного каранда- ша, и нам хотелось бы, чтобы он обладал признаками х=К, у—М.. При этом можно рассматривать следующие вероятности, значения которых в нашем примере легко находят по принципу равных возможностей: 1) р(х)=р(К)=5/8 — вероятность того, что вынут красный каран- даш (твердость карандаша не интересует); 2) р(у) =р(М)=1/2 — вероятность того, что будет вынут мягкий карандаш (цвет карандаша не интересует). Вероятности р(х) и р(у) являются безусловными вероятностями признаков х и у и дают рас- пределения вероятностей на множествах X и Y, удовлетворяющих усло- виям (5.3); 3) р(х, !/)=р(К. М) = 1/4—вероятность того, что случайно вы- бранный карандаш окажется красным и мягким (таких карандашей два). Это совместное распределение вероятностей двух признаков х и у, заданное на пространстве Z=XX.Y с элементами z=(x, у) и удов- летворяющее условиям: Р(х, Ю>0; Р(х, у) = 1; (5.64) х, И 4) р(х/у) = (К/М) = 1/2 — условная вероятность, в которой условие у—М означает, что выбор производится только из мягких карандашей, а твердые исключены из рассмотренвя. Для того, чтобы увязать все разобранные вероятности между собой, обозначим через xi некоторый исход хеХ, 171
а через yi некоторый исход y^Y и рассмотрим два собы- тия в пространстве: Z=X'XY: Ti—{(xi, yi), ..., (хг, ут)} и S/={(xi, у{). (х„, у,)}. Сббытие Ti состоит в том, что произошел данный ис- ход х(еХ и любое y^Y. Так как при любом эксперименте какое-то y^Y всегда имеет место, то событие Л состоит в том, что произошел исход х(-. Таким образом, Tt—xi. Аналогично S/—yf. Нетрудно также видеть, что T,nS/ = = (х/, у/). По (5.21) находим p(xt\y,)=;p(xi, У/)/(Р(Уг)- (5.65) Поскольку Xt может быть любым хеХ, a yf может быть любым y^Y, то, опуская индексы, получаем для любых хеХ и y^Y-. Р(х\у)=р(х, у)/р(у), (5.66) что можно записать в виде Р(х, у)—р(х\у)р(у). (5.67)' Если вероятность исхода х не зависит от того, какой исход у имел место, то исходы х и у являются независи- мыми. Для независимых исходов справедливо соотноше- ние р[х\у)=р(х), (5.68) поэтому (5.67) принимает вид Р{х, у)=р(х)р{у). (5.69) Заметим далее, что при рассмотрении двумерной ве- личины нам безразлично, какую из величин х или у при- нять за первую и какую за вторую. Меняя в (5.67) ме- стами х и у, получаем Р{х, у)=р(у\х)р(х). (5.70) Сравнивая (5.67) и (5.70), находим Р(х, у)=р{х)р(у\х)=р(у)р(х\у). (5.71) 5.5.2. Распределение вероятностей для непрерывных двумерных случайных величин Выражения (5.66) —(5.71) позволяют определять со- отношения между вероятностями различных событий для двумерных случайных величин с конечными множествами 172
исходов эксперимента. Однако на практике часто прихо- дится иметь дело с непрерывными случайными величинами X и Y, для описания которых по аналогии с одномерным случаем следует ввести понятие двумерной функции рас- пределения вероятности и двумерной функции плотно- сти вероятности. Функция распределения вероятности, обозначаемая в данном случае через F(x, у), определяет вероятность того, что значение случайной величины X не превзойдет данного х, а значение случайной величины Y не превзой- дет данного у, т. е. F(x, у) = Р (—со<Х^х, -<*><Y^y). (5.72) Функция F(x, у) является однозначной, вещественной и неотрицательной функцией от х и у, обладающей сле- дующими свойствами: 1) F(x, у)— неубывающая функция от х и у, 2) F(—оо, y)=F(x, —оо)=0; 3) F(+oo, +оо) = 1. Обозначим через F\(x) и F2(y) функции распределе- ния вероятности каждой из компонент двумерной случай- ной величины (X, Y). Эти одномерные функции распреде- ления вероятности легко получить из двумерной функции распределения вероятности F(x, у), если, исследуя рас- пределение вероятностей одной из компонент, допустить, что другая компонента может принимать любое значение в пределах от —оо до 4~°°- Тогда Fi(x)=F(x, 4-оо), F2(y)=F(4-oo, у). (5.73) Наряду с двумерной функцией распределения вероят- ности F(x, у) можно ввести по аналогии с одномерным случаем двумерную плотность вероятности w(x, у), оп- ределяемую как w(x, y)=d2F(x, у)/(дхду). (5.74} Величина w(x, y)dxdy определяет вероятность того, что первая компонента X двумерной величины (X, У) будет лежать в диапазоне от х до x-j-dx, а вторая компонента У — в диапазоне от у до y-\-dy, т. е. w(x, y)dxdy=P (x-^.X^x-\-dx, y^Y<^y-\-dy). (5.75) Вероятность того, что в двумерной случайной величи- не (X, У) величина X лежит в пределах от а до Ь, а ве- 173
личина Y в пределах от с до d, будет P(a<X<b, c<Y<d)=- J jay(x, y)dxdy. (5.76) Выражение (5.76) позволяет найти связь между функ- циями w(x, у) и F(x, у) в интегральной форме. Сравни- вая (5.72) с (5.76), находим « у F(x, у)= $ J w (5, ц)с£ dy. (5.77) Выражение (5.77) дает возможность получить одно- мерные функции распределения вероятности для отдель- ных компонент двумерной случайной величины (X, У). Полагая г/=4-оо, получаем X +00 Fl(x) = F(x, 4-оо)= J J «)(£, T))#di]. —00—00 Но одномерная функция распределения вероятности Fi(x) связана с одномерной плотностью вероятности w(x) со- отношением (5.37): fiW= J wAtydt. Сравнивая два последние соотношения, находим +оо w1 (х) = j w(x, y)dy\ (5.78) +оо w2 (у) = У w(x, y)dx. (5.79) Зависимости Wi(x) и w2(y), определяющие^распреде- ление вероятностей отдельных компонент случайной вели- чины (X, У), не полностью характеризуют эту величину и должны быть дополнены условными законами распре- деления sy(x|z/) или w(i/|x), определяющими плотности вероятностей одной случайной величины при фиксирован- ном значении другой случайной величины. 1Т4
Рис. 5.6. Выделение эле- мента Rd в двумерном про- странстве Для установления связи меж- ду двумерной (совместной) плот- ностью вероятности ш(х, у) и условными распределениями w(x\y) nw(y\(x введем в рас- смотрение вещественную пло- скость ЯХЯ, точки которой обо- значим (X, У). Рассмотрим ве- роятность попадания точки (X, У) в элементарный прямо- угольник Rd со сторонами dx и dy, прилегающей к точке (х, у), как показано на рис. 5.6. Обозначим через S и Т события, состоящие в том, что точка (X, У) попадает в полосу от х до x-\-dx и в полосу от у до y-\-dy. Попадание точки в прямоугольник Rd со- ответствует пересечению этих событий, тогда согласно (5.22) и (5.75) вероятность w(x, y)dxdy=P(S(}T) = P(T\S)P(S). Учитывая, что P(S)=wt(x)dx, a P(T\S)=w(y\ x)dy, получаем ау(х, у) dxdy—w (у[х) dywi(x)dx или w(x, y)=w(y[x)wi(x). (5.80) Выражению (5.80) можно придать другой вид, если зафиксировать не X, а У: ау(х, y) = w(x\y)w2(y). (5.81) Эти соотношения могут быть использованы для на- хождения условных плотностей вероятности: w(x\y) = w(x, y)/w2(y)\ ay(z/|x) = = ау(х, y)/ayifx). (5.82)‘ 5.5.3. Математические ожидания для двумерной случайной величины Полученные выражения для плотностей вероятности позволяют распространить понятие математического ожи- дания на случай двумерной случайной величины (х, у). Так, по (5.48) математические ожидания компонент дву- 175
мерной случайной величины х и у будут +00 +00 х = J xw1(.x)dx; "у — J yw2(y)dy. (5.83) Если f (х, у) — функция двумерной случайной величи- ны, то ее математическое ожидание )(х, у) = J J f(x, y)w(x, y)dxdy. (5.84) Важное значение имеют условные математические ожидания Е(х\у) и Е(у|х), которые можно найти по условным плотностям вероятности йУ(х|у) и а>(у|х): Е{х | у)= J xw(x | y)dx-, Е(у | х)= J yw(y\x)dy. (5.85) С помощью двумерной плотности вероятности w(x, у) легко доказать важное свойство математического ожида- ния, состоящее в том, что математическое ожидание суммы случайных величин равно сумме математических ожида- ний этих величин. Будем рассматривать х+у как функ- цию от двумерной случайной величины (х, у). По фор- муле (5.84) для математического ожидания функций дву- мерной случайной величины находим: Е{х-\-у) = J J (х4-у)ю(х, y)dxdy = +00 +00 +00 +00 = J X J а)(х, y)dydx-\- j у J w(x, y)dxdy = = J xw^x)dx-\- J yWt(y)dy = E(x) + E{y). 5.5.4. Регрессия и корреляция Когда приходится иметь дело с несколькими случай- ными величинами, например с двумя, математическое ожи- дание и дисперсия могут характеризовать каждую из этих величин в отдельности. Однако в подобных случаях очень важно знать влияние одной величины на другую, т. е. учи- 176
тывать характер взаимосвязи между случайными величи- нами. Регрессия и корреляция как раз и служат для ко- личественного выражения этой взаимосвязи. Пусть х и у — две случайные величины. Для конкрет- ности будем предполагать, что х представляет собой вы- соту, а у — диаметр деревьев на участке леса. Каждому дереву соответствует точка на плоскости (х, у), полная совокупность деревьев изображена множеством точек, по- казанных на рис. 5.7,а. В рассматриваемом случае вели- чины х=£(х) и у=Е(у) дают математические ожидания Рис. 5.7. Линия регрессии у(х) для зависимых (а) и независимых (б) случайных величин высоты и диаметра деревьев, а ох2 и характеризуют рассеивание высоты л диаметра относительно их матема- тических ожиданий. Наряду с рассмотрением математических ожиданий вы- соты и диаметра значительный интерес представляет изу- чение изменения диаметра в зависимости от высоты. Од- нако для деревьев, имеющих одну и ту же высоту х, диа- метр у является случайной величиной. Поэтому можно говорить лишь о зависимости математического ожидания диаметра у от высоты х, т. е. определять величину у(х), являющуюся условным математическим ожиданием адх). Определяя у(х) при различных х, можем построить линию, графически выражающую эту зависимость и на- зываемую линией регрессии у по х. Аналогично получаем зависимость х(у)=Е(х\у), называемую регрессией х по у. Ограничимся рассмотрением регрессии для наиболее простого и наиболее часто встречающегося на практике случая линейной регрессии, когда линия регрессии пред- ставляет собой прямую линию, уравнение которой может быть записано в виде у(х)=а-{-Ь(х—х) (5.86) 177 12-804
Коэффициенты а и b выберем так, чтобы получить наибольшую концентрацию точек (х, у) вблизи прямой у(х), что может быть обеспечено применением метода наименьших квадратов, как это уже было сделано в § 4.2. Зафиксируем некоторое х и обозначим е(х) = =у—у(х)—у—а—Ь(х—х) отклонение ординаты экспери- ментальной точки у от линии регрессии у(х). Метод наи- меньших квадратов требует, чтобы было минимальным математическое ожидание квадратов всех таких откло- /=E[e2(x)]=min. (5.87) Приравнивая нулю производные от / по а и Ь, полу- чаем два уравнения для определения этих коэффициен- тов: — = Е Г—1 = 2Е [е — I = 0; да I да J [ да ] — = 2£[е—1 = 0. db [ db ] L дЬ ] Учитывая, что де (х)/да = — 1, дг (х)/дЬ = — (х — х), находим Е\у — a — b(x — х)] = 0; Е {[у — а —Ь(х—~х)](х— х)} =0. Из первого уравнения находим Е(у)—а—ЬЕ(х—х)—0 или а—Е(у)=у. (5.88) Второе уравнение дает £[ (У~У) (х—х)]—ЬЕ[ (х—х)2]=0, (5.89) где £[(х—х)2]=ох2 — дисперсия величины х. Назовем ковариацией между у и х величину cov(i/, х)=Е[(у—у) (х—х)]. (5.90) Тогда уравнение для определения b примет вид con {у, х) — &ох2=0, откуда &=cov(i/, х)/оЛ (5.91) Таким образом, уравнение линии регрессии (5.86) мо- жет быть записано в виде У (х) =£+cov (у, х) (х—х)/о,2. (5.92) 178
Ковариация cov (у, х) может служить мерой взаимной связи между случайными величинами у и х. Однако по- скольку мы ограничились рассмотрением случая, когда линия регрессии представляет собой прямую, то и кова- риация будет характеризовать не всякую взаимную связь, а только линейную, т. е. стремление одной случайной ве- личины возрастать или убывать в среднем по линейному закону при возрастании или убывании другой случайной величины. Для более наглядного представления зависи- мости ковариации от характера связи между случайными величинами полезно разобрать крайние случаи. 1. cov (у, х)—0. Это означает, что 6=0, у(х)=а и ли- ния регрессии горизонтальна (рис. 5.7,6). В эксперимен- тальных точках значения у группируются вокруг значе- ния а независимо от значения х. Следовательно, в данном случае у и х являются независимыми величинами. 2. Связь между у и х будет наиболее тесной, если эти величины связаны линейной функциональной зави- симостью. При этом все экспериментальные точки будут лежать на линии регрессии, так что у—у(х). Заменяя у(х) на у, уравнение регрессии перепишем в виде i/-£=[cov(i/, х)/ох2] (х-х). Дисперсия Оу*=Е[(у-у)2] = [cov2(у, х)МЕ[ (х-х)2] = = cov2(i/, х)/оД откуда cov (у, х) =охоу. (5.93) Как видим, в зависимости от степени связи между ве- личинами у и х ковариация cov (у, х) может меняться от О ДО ОхО у. Оценивать тесноту связи между случайными величина- ми у и х с помощью ковариации несколько неудобно, так как cov (г/, х) зависит от дисперсий самих случайных ве- личин. Лучше использовать коэффициент корреляции ryx=cov(y, х)/(охоу), (5.94) который может меняться в пределах от нуля для незави- симых случайных величин до единицы, если случайные величины связаны линейной функциональной зависимо- стью. С помощью понятия ковариации получают простые со- отношения для математического ожидания произведения 12* * 179
и дисперсии суммы двух случайных величин. Предлагаем читателю самому проверить, что для этих случаев имеют место соотношения: ху±=ху+соч (х, у); (5.95) D(x+f/)=D(x)+D(i/)+2cov(x, у). (5.96) Когда случайные величины х и у независимы, то ху=ху; D (х-\-у) =D (x)-\-D (у). (5.97) (5.98) 5.6. МНОГОМЕРНОЕ ГАУССОВСКОЕ РАСПРЕДЕЛЕНИЕ ВЕРОЯТНОСТЕЙ 5.6.1. Вектор математических ожиданий и ковариационная матрица Если имеется не две, а большее число случайных вели- чин, например Xi...хп, то резко возрастает и число чис- ловых параметров, характеризующих эти величины. Кроме п первых моментов, определяющих математические ожида- ния случайных величин xt—E(xt), i=l, ..., п, необходимо определять еще п2 вторых центральных моментов, пред- ставляющих собой дисперсии каждой случайной величины и ковариации между каждой парой случайных величин. В связи с этим становится очень важным вопрос о способе компактной записи всех этих числовых характеристик. Всю совокупность случайных величин хь ..хп удобно представить в виде случайного вектор-столбца = (X,,..., хл)т. (5.99) Тогда совокупность математических ожиданий компо- нент этого вектора запишем в виде вектора математических ожиданий [xt 1 _ _ j = (Xj,..., хл)т. (5.100) %п J 180
Совокупность вторых центральных моментов, представ- ляющих собой дисперсии <?Х~Е [(хг-х,)2], i=l, ..., п (5.1011 и ковариации cov (xt, х,)=Е [(х,—Xi) (х,—X,)], ' (5.102) i, J=1..«. Mi, удобно записать в виде ковариационной матрицы ?ХХ=Е [х-х) (х-х)т]. (5.103) Диагональные члены этой матрицы представляют собой дисперсии о2х f, а остальные члены—ковариации cov (xj,x3). Поскольку cov (х,-, x,)=cov (х/, X/), то ковариационная матрица является симметрической. Пример 5.12. Пусть х = ^ U | —двумерный случайный вектор. Тогда вектор математических ожиданий х = Е (х) = : ~й = Е(и)‘, v = E(y), а ковариационная матрица = 1^(и—й, о—й) = £ [(“—“)* (и— й)(о — й) l_[°u2 cov (и, о) 1 L(o-й) (и —и) (о—й)* ]~[cov(o,» Г Если имеется два случайных вектора x=(xi....хп),т и y=(yi, •• •>_Уп)т, то наряду с векторами математических ожиданий х=Е(х)_и у=£(у) и ковариационными_ матри- цами Рхх=£ [(х—х) (х—х)т] и Pyv=£ [(у—у) (у—у)’] сле- дует рассматривать и взаимные ковариационные матрицы Pxy=E[(x-x)(y-f)T] (5.104) и Рох=^[(У-У)(х-х)т], (5.105) причем Ртху=Рух. 181
5.6.2. Гауссовское распределение вероятностей случайного вектора В § 5.3 отмечалось, что гауссовский закон распределе- ния занимает особое место среди других законов распреде- ления. Эта особая роль нормального закона распределения сохраняется и для многомерных случайных величин, пред- ставляемых случайными векторами. Причин этому несколь- ко: 1) очень многие встречающиеся на практике физические явления подчиняются этому закону; 2) закон является предельным для многих других зако- нов распределения; 3) закон имеет сравнительно простое математическое описание, так как полностью определяется только первым и вторым моментами, т. е. вектором математических ожи- даний и ковариационной матрицей. Другие законы распре- деления требуют использования моментов более высокого порядка; 4) линейные преобразования случайных векторов с нор- мальным законом распределения приводят к новым случай- ным векторам, также подчиняющимся нормальному закону распределения. Другими словами, если х и у — случайные векторы с нормальными законами распределения, а А и В — матрицы, то случайный вектор z=Ax-f-By также бу- дет иметь нормальное распределение, причем его матема- тическое ожидание и ковариационная матрица легко опре- деляются. Пример 5.13. Пусть х —случайный n-вектор, А —матрица разме- ром гХ« и z= Ах — случайный r-вектор. Математическое ожидание вектора z будет z=£(Ax) =А£'(х)=Ах, а его ковариационная матрица Р„=£[ (z—z) (z-~г) Ч =£[А(х-х) (х-х)*АЧ =АР„АТ. Случайный n-вектор х называют распределенным по га- уссовскому закону, если его плотность вероятности w(x) — = w (xi, ..., хп) определяется выражением wW= i/<2.)»ip;~ ехр[-т(х -х)’₽“(х -*’]• <5Л06> где | Рхх 1 =det Рхх — определитель ковариационной матри- цы РХХ. 182
В частном случае, если х — скаляр, то п—1, (х—х)т= = (х—х), РЛЖ=о2, |Рхзс|=о2, p-ixx=l/o2 и выражение (5.106) превращается в (5.40) для нормального закона рас- пределения одномерной случайной величины. 5.6.3. Нормальное распределение вероятностей двух случайных векторов Пусть — случайные г- и fc-векторы, причем r~\~k—n. Обозначим через х = [ u j= («1,..., ur, vk)r случайный n-вектор с компонентами и и v. В этом случае (5.106) дает совме- стное распределение a>(x)=a>(u, v) векторов и и v. Входя- щие в (5.106) математическое ожидание и ковариационная матрица соответственно будут х=Е(х)=Е|“ = “1, u = E(u), v = E(v); (5.107) где Puu и Pi>„ — ковариационные матрицы векторов и и v; Риг, и РОи = Р£о — взаимные ковариационные матрицы. Обратную матрицу Р-1хж представим в виде где А и С — симметрические матрицы размером гхг и kxk-, В — прямоугольная матрица размером г><&. Из усло- вия РХТР- 1хх=1 определяют матрицы
С учетом введенных обозначений совместное нормаль- ное распределение двух случайных векторов и и v запи- шется в виде ж(и'v)~ у (5Л|1> 5.6.4. Условное нормальное распределение вероятностей Для двух случайных векторов и и v по аналогии с дву- мерными случайными величинами, представленными в § 5.5, можно рассмотреть условную плотность вероятности w(u|v), которая с учетом соотношения (5.82) определится как a>(u|v) = a>(u, v)/w(v). (5.112) Учитывая, что ”’lv) = v<v-’>’₽” <v и используя (5.111), находим w(u ) v) = у-.....1 - х у (2к)г I р«1 / |PW 1 хехр[-4-(:з)7‘ с_»;,)(::”)] Проведя ряд матричных преобразований, это выраже- ние более компактно можно записать в виде '«и(и I v) = * .exp[---^(u —m)TQ-1(u-ni)1, (5.113) И 1 Ч I L 2 J где m=E(u[v)=u+Pu«P-1«i)(v—v) (5.114) — условное математическое ожидание; , Q=Pu I D=PuU Pu«P-1®«P®U (5.115) — условная ковариационная матрица. 184
5.7. СЛУЧАЙНЫЕ ПРОЦЕССЫ С ДИСКРЕТНЫМ ВРЕМЕНЕМ 5.7.1. Понятие о случайных процессах с дискретным временем Предположим, что некоторая система, находящаяся под влиянием совокупности внешних условий, может менять случайным образом свое состояние в дискретные моменты времени, условно обозначаемые 0, 1 .... интервалы между которыми называют шагами. При этом в результате п-го шага система примет состояние хп, которое мы можем рас- сматривать как исход некоторого эксперимента и которое, следовательно, будет элементом множества допустимых для этого шага исходов: Z„={zn0, zni, .... znLn}. Множество Zo считаем состоящим из одного элемента г°о, представляющего собой начальное состояние системы. Последовательность принимаемых системой состояний х0, Xi ... называют случайным процессом с дискретным вре- менем. Случайный процесс будет задан, если на каждом шаге ,задано распределение вероятностей на пространстве исхо- дов, определяющее состояния, в которые может перейти си- стема в результате следующего шага. Это распределение вероятностей в общем случае зависит от состояний, прини- маемых на .всех предыдущих шагах, и для любого п опре- деляется набором условных вероятностей p(Xn+i=z*n+1|*o..Хп), А=0, 1, .... Ln, (5.116) причем %p(xn+l =zn+' I x„)= 1. (5.117) k=0 Случайный процесс будет продолжаться до бесконечно- сти, если искусственно не оборвать его на каком-либо шаге. Практически нам всегда приходится обрывать процесс по- сле определенного конечного числа шагов, т. е. иметь дело с конечными или многошаговыми процессами. Однако бес- конечные процессы являются полезными аппроксимациями более реальных конечных процессов, тем более что они не- редко оказываются проще с аналитической точки зрения. 185
Случайный процесс, в который мы не -можем вмешивать- ся, а следовательно, и влиять на распределение вероятно- стей (5.116), называют неуправляемым. В зависимости от вида распределения вероятностей (5.116) случайные процессы делятся на ряд типов, наибо- лее распространенными из которых являются процессы с независимыми значениями, процессы независимых испы- таний и марковские цепи. Конечный случайный процесс называется процессом с независимыми значениями, если распределение вероятно- стей на пространстве исходов при каждом шаге не зависит от результатов предыдущих шагов: p(xn=znft|xo, ..., Xn-i)==p(xn==znh)- (5.118) Это распределение вероятностей удобно обозначить про- сто через рп (z), где z^Zn, п—0, 1 ... Важное свойство процесса с независимыми значениями заключается в том, что любая последовательность состоя- ний х0, Xi, ..., хп может рассматриваться как совокупность независимых исходов эксперимента. Следовательно, веро- ятность появления такой последовательности будет равна произведению вероятностей исходов, входящих в эту после- довательность, что может быть записано в виде р(х0, хь ..., хп)=р0(х0)р1(х1) ...рп(Хп), (5.119) x,sZ„ i=0, 1.....п. Важным частным случаем процессов с независимыми значениями являются процессы независимых испытаний. Процесс независимых испытаний есть процесс с независи- мыми значениями, у которого пространство исходов экспе- римента Z={z0, zi, ..., zL} и распределение вероятностей на этом пространстве одно и то же на каждом шаге, т. е. pn{z)=pm(z)=p(z) (5.120) при любом zeZ и любых тип. Другими словами, процесс независимых испытаний представляет собой многократное повторение одного и того же эксперимента в одних и тех же условиях. Как и в случае процессов с независимыми значениями, вероятность получения конкретной последовательности ис- ходов эксперимента х0, хь ..., хп в процессе независимых испытаний равна произведению вероятностей отдельных ис- ходов. 186
Случайный процесс называют марковской цепью, если пространство состояний Z={z0, zb ..zL} является одним и тем же для каждого шага, а распределение веро- ятностей исходов на каждом шаге зависит только от исхо- дов предшествующего шага, так что р(xn+i = z|ха, .... Xn)=p(Xn+l=z[xn). (5.121) Удобно ввести обозначения для вероятностей вида (5.121). Предположим, что на n-м шаге система находилась в состоянии z,eZ. Тогда распределение вероятностей (5.121) определит вероятность того, что на (п+1)-м шаге система окажется в состоянии z}<=Z. В общем случае эта вероятность зависит от номера шага и может быть обозна- чена через р1;(п). Таким образом, вероятности p./(n)=p(xri+i=z/|xn=z,), (5.122) удовлетворяющие условиям A/(«)>0, = (5-123) /=о являются вероятностями перехода на n-м шаге из состоя- ния zx в состояние z}. В том случае, когда вероятности перехода ро(л) зави- сят от номера шага п, марковскую цепь называют неста- ционарной. Однако в различных приложениях играют боль- шую роль марковские цепи, в которых вероятности перехо- да остаются одними и теми же для любого шага и могут быть обозначены просто через рг]. 5.7.2. Процесс независимых испытаний с двумя исходами. Биномиальное распределение вероятностей Рассмотрим более подробно случай, когда в процессе независимых испытаний в результате каждого эксперимен- та может произойти или не произойти некоторое событие S. Один исход назовем успехом эксперимента и обозначим его 1, другой неудачей — 0. Обозначим через р вероятность успеха в одном отдель- ном эксперименте, а через q=\—р — вероятность неудачи. Зададимся вопросом, какова вероятность w(r, п, р) того, что при п экспериментах будет иметь место г успехов. Наступлению г успехов при п экспериментах будет со- ответствовать последовательность п исходов, состоящая из г единиц и п—г нулей. Так как результаты отдельных успе- 187
0,300 0,268 0,Z03 ,088 I 0,027 0,001 0,000 , 0,006 0,000 o,ooa 0 1 2 3 4-06 7 8 Э 10 Г Рис. 5.8. Биномиальное распределение хов независимы, то вероятность этой последовательности, равная произведению вероятностей отдельных исходов, определится выражением prqn~r. (5.124) Общее число различных последовательностей из п элементов, содержащих г единиц, равно числу сочетаний из п элементов по г, т. е. <5125> Так как все эти последовательности несовместимы (если появилась одна из них, то появление любой другой уже исключено), то вероятность появления какой-либо одной из них w(r, П, p)^(JL\prqn-^ (5.126) Легко проверить, что при этом суммарная вероятность наступления любого числа событий от 0 до п равна еди- нице. Распределение вероятностей, определяемое формулой (5.126), называют биномиальным распределением. Для на- глядного представления характера биномиального распре- деления на рис. 5.8 приведен график зависимости ординат этого распределения от числа г для п—Ю и p=Vs> т. е. график распределения w(r, 10, Vs). Очень часто бывает необходимо определить значение г, при котором биномиальное распределение достигает макси- мума. Вычислим предварительно отношение двух соседних 188
ординат биномиального распределения w(r, п, р) w(r — 1, ri, р) (п — г+\)р rq (5.127) Это отношение будет не меньше единицы, если ^(п-|-1)р. Следовательно, функция w(r, п, р) достигает максимума при r=ent (и+1)р, (5.128) где через entx обозначена целая часть числа х. Числовыми характеристиками биномиального распреде- ления служат математическое ожидание и дисперсия соот- ветственно vr=np; a2i=npq. (5.129) 5.7.3. Распределение Пуассона Значения w(r, п, р) очень плохо поддаются вычисле- нию при больших п. Однако существуют приближенные методы, которые значительно облегчают вычисление этих вероятностей. Одним из таких методов является замена би- номиального распределения на распределение Пуассона. Пусть w(r, п, р) — биномиальное распределение. Легко убедиться, что предел этого распределения при п->-оо и р-+- —>-0 при условии пр=а—const, так что р=а!п, будет lima; (г, п, а/п)=аге_о/г! (5.130) Распределение вида (5.130) обозначают через w(r, а) и называют распределением Пуассона. Таким образом, w (г, a) =are-o/rl (5.131) Характерной особенностью распределения Пуассона яв- ляется то, что математическое ожидание и дисперсия этого распределения одинаковы и равны а. Распределение Пуассона является хорошим приближе- нием к биномиальному распределению при малых р. Так, при ps^O.Ol можно заменить вычисление биномиального распределения вычислением распределения Пуассона, на- чиная с п=10. Хотя мы пришли к распределению Пуассона как к пре- дельному случаю биномиального распределения, оно явля- 189
ется распределением самостоятельного класса случайных процессов, называемого классом редких случайных явлений. Рассмотрим последовательность событий S, следующих друг за другом через случайные промежутки времени. Чис- ло таких событий, происходящих на интервале длительно- стью т, будет случайной величиной с математическим ожи- данием Хт, где X — среднее число событий за единицу вре- мени. Поставим задачу определить вероятность того, что на интервале т произойдет ровно г событий. События S будем считать редкими в том смысле, что интервал т можно разбить на малые интервалы длитель- ностью Дт, в каждом из которых может произойти не более одного события S. Общее число таких интервалов га—т/Дт, а вероятность того, что событие произойдет в одном из ин- тервалов Дт, будет р—\х/п, так чтогар=Хт. Поскольку мож- но считать, что событие S в каждом из интервалов Дт про- исходит независимо от того, произошло оно или нет в дру- гих интервалах, то приходим к процессу независимых испы- таний с плотностью вероятности w(r, п, р), где гар=Хт. Однако предположение, что на интервале Дт может про- изойти не более одного события S, будет оправдано только в том случае, если длительность этого интервала очень ма- ла, т. е. в пределе при Дт—>0. Так как при этом га—>оо и /?->- —>-0, причем пр—\х=const, то процесс редких явлений под- чиняется закону Пуассона с плотностью вероятности w(r, kx)—(Kx)rerKx/r\ (5.132) 5.7.4. Экспоненциальное распределение. Понятие о надежности Во многих задачах представляет интерес распределе- ние вероятности для интервалов времени между случайны- ми событиями в процессе независимых испытаний. Из (5.132) при г=0 и г=1 получаем: е~Кх — вероятность того, что на интервале длительностью т не произойдет ни одного события; 7,те-Хг — вероятность того, что на интервале дли- тельностью х произойдет только одно событие. Вероятность того, что на интервале длительностью х произойдет более одного события, равна l-(e-" + ».e-") = l-j[l-Z< + -^--,..]- (5.133) 190
Как видим из выражения (5.133), вероятность пропор- циональна величине (Хт)2, это означает, что при малых Хт мы можем пренебречь вероятностью наступления на интер- вале длительностью т двух и более событий. При этом ве- роятность наступления на интервале длительностью т одно- го события Г(Л, т) =1—е-^, т>0. (5.134) По существу выражение (5.134) определяет вероятность того, что время, за которое произойдет одно событие, не превысит т. Плотность этой вероятности, представляющую собой вероятность того, что событие произойдет в момент т, получим, продифференцировав (5.134)) пот: w(K, т)=Хе~Хг, т>0. (5.135) Зная плотность вероятности для т, легко определить среднее время, за которое не происходит ни одного собы- тия: тСр = J тда (Ял) dx = 1 /I. (5.136) Выражения (5.135) и (5.136) определяют экспоненци- альное распределение, играющее важную роль в теории на- дежности [24]. Предположим, что некоторое устройство состоит из большого чис- ла отдельных элементов, каждый из которых может с течением време- ни выйти из строя. Выход элемента из строя называют отказом эле- мента. В большинстве случаев отказы отдельных элементов происходят независимо друг от друга, и их последовательность можно рассматри- вать как процесс независимых событий, в котором Л. — интенсивность отказов определяет число отказов в единицу времени, величина 1/Л. согласно (5.136) определяет среднее время безотказной работы. Для характеристики надежности аппаратуры обычно используют величину /г(т), называемую опасностью отказа и выражающую плот- ность вероятности отказа в момент № при условии, что до этого мо- мента отказы ие происходили Определим предварительно величину й(т)Дт, дающую вероятность того, что отказ произойдет в интервале Дт при условии, что перед этим отказов не было в течение времени т По формуле условной вероят- ности й(т)Дт = и>(Х, т)Дт/[1-Г(Х, т)], (5.137) откуда ft(T)=te»(X, T)/[1-F(X, т)]. (5.138) 191
Для экспоненциального распределения имеем й(т)=Л,е-^/е-Лг=Л, (5.139) т. е. функция опасности есть постоянная, равная интенсивности от- казов. Опыт эксплуатации радиоэлектронной аппаратуры показывает, что график функции й(т) имеет вид кривой, изображенной иа рис. 5.9. Начальный участок этой кривой характеризуется повышенной интен- сивностью отказов, объясняемой наличием в отдельных элементах скрытых дефектов, которые выивляются в начальный период работы. При больших т интенсивность отказов тоже возрастает, что связано со старением элементов, выражающимся и ухудшении свойств элемен- тов после длительной эксплуатации. По- 2 Рис. 5.9. Типичный вид распределения времени до отказа стояиная интенсивность отказов, а значит, и экспоненциальное распределение имеют ме- сто лишь на среднем участке графики й(т). Одиако от повышенной интенсивности отказов в начальный период можно изба- виться, подвергая аппаратуру предвари- тельной тренировке перед началом эксплуа- тации. С другой стороны, непрерывное воз- растание требований к качеству аппарату- ры, являющееся следствием технического прогресса, приводит к тому, что качество аппаратуры со време- нем перестает удовлетворять новым повышенным требованиям. Проис- ходит моральный износ аппаратуры, который обычно наступает раньше, чем наступает заметное старение отдельных элементов. Это дает основания во многих случаях считать зависимость й(т) постоян- ной и равной Л на всем периоде эксплуатации аппаратуры, т. е. поль- зоваться при оценке надежности экспоненциальным законом распре- деления. 5.7.5. Марковские цепи Пусть Z={zu .... zL} — пространство исходов экспери- мента или пространство состояний некоторой системы, оди- наковое для каждого шага случайного процесса. В таких случаях удобно обозначать состояния системы просто ин- дексами при z, поднимая под / состояние z^eZ. При этом пространство состояний будет изображаться множеством индексов /={1, .с., L}. Обозначим через Лп=(яп(1), .... лп(Ь)) распределение вероятностей на множестве / для л-го шага. При этом лп(}) определяет вероятность того, что на n-м шаге система ока- жется в состоянии /. Как уже указывалось, случайный про- цесс является однородной марковской цепью, если вероят- 192
ности перехода системы pi, из состояния i в состояние / зависят только от состояния i на предыдущем шаге и оди- наковы для любого шага. Вероятности перехода можно представить двумя раз- личными способами. Первый способ состоит в записи веро- ятностей перехода в виде таблицы, называемой матрицей переходов и обозначаемой через Р. Для L—3 матрица име- ет вид ГЛх Р= А. LAi А. Ргг Р,2 А»1 Аз I Аз-* (5.140) Условие (5.123), которому обязательно должны удов- летворять вероятности переходов, означает, что сумма эле- ментов любой строки в матрице переходов обязательно должна быть равна единице. Второй способ представления вероятностей перехода со- стоит в построении диаграммы перехода. Пример для си- стемы с тремя состояниями приведен на рис. 5.10,а. Диа- грамма переходов представляет собой граф, вершины ко- торого соответствуют состояниям системы, а направленные дуги указывают возможные переходы от одного состояния к другому. Вероятности переходов отмечаются числами, приписываемыми каждой дуге. В соответствии с условием (5.123) сумма вероятностей для дуг, выходящих из любой вершины графа, должна равняться единице. К марковским цепям могут быть сведены многие про- цессы в различных областях науки и техники. В социологии марковские цепи помогают изучать проблемы изменения социальной или профессиональной структуры населения, проблемы миграции населения и т. п. В биологии с помо- рие. 5.10. Диаграммы переходов для марковской цепи 13-804 193
щью марковских цепей изучают характер развития отдель- ных видов животных и растений. В физике марковские це- пи применяют для изучения диффузии газов. В технике с помощью марковских цепей описывают некоторые про- цессы передачи сообщений, ряд технологических процес- сов, процессы контроля работоспособности и поиска неис- правностей в сложных технических системах и т. п. При изучении марковских цепей прежде всего необхо- димо выяснить, как будет изменяться распределение веро- ятностей состояний лп, когда система делает один шаг. Обозначим через Т событие, состоящее в том, что на (п-|- 4-1)-м шаге система окажется в состоянии /. В соответствии с принятыми обозначениями вероятность этого события Р(Т) =л(’)п+1. Обозначим через Si событие, состоящее в том, что на п-м шаге система находится в со- стоянии i, так что P(Si)=n(t)n. При этом ptj будет пред- ставлять собой вероятность того, что система на (п4~1)-м шаге окажется в состоянии /, если на n-м шаге она была в состоянии i, т. е. pi/=p(7’|Si). По формуле полной веро- ятности (5.25) находим 4Р, = 24°Рф / = (5.141) t=I Формула (5.141) позволяет последовательно шаг за ша- гом определять изменение распределения вероятностей си- стемы, если известно начальное распределение вероятно- стей. Пример 5.14. Завод выпускает телевизоры определенной марки. В зависимости от того, находит ли данный тип телевизора спрос у населения, завод может в конце каждого года находиться в двух состояниях: 1—спрос есть, 2 —спроса нет. С течением времени спрос изменяется, так что имеется вероятность 4/5, что к концу года завод останется в состоянии 1. С другой стороны, если завод оказался в со- стоянии 2, то принимают меры к изменению и улучшению выпускаемой модеЛ|и, так что с вероятностью 3/5 к концу следующего года завод перейдет в состояние 1. В данном примере развитие производства представляется марков- ской цепью с матрицей переходов Диаграмма переходов приведена на рис. 5.10,6. 194
Пример 5.15. Пусть завод из примера 5.14 н начальный момент времени находится в состоянии 1, т. е. начальное распределение веро- ятностей имеет вид л0'=(1, 0). Используя (5.141) и матрицу перехо- дов, находим для первого шага Я1(Ч=n0(i)P11+ло<2)Р21 = 1 • 4/5+0 • 3/5=0,8; ^,(21=110(1^2+110(2)^22= 1.1/54-0-2/5=0,2; для второго шага л2<Ч=0,76; л2<2>=0,24. Продолжая эти вычисления, получаем последовательное изменевие распределения вероятностей (табл. 5.1) при начальном состоянии (1, 0). Из этой таблицы видно, что при возрнстаиии п значение лп<1) приближается к 0,75, а лп<2) — к 0,25. Таблица 5.1 п Начальное состояние я0=(1, 0) 0 1 3 3 4 5 1 0,8 0,76 0,752 0,7504 0,75008 <2’ 0 0.2 0,24 0,248 0,2495 0,24992 п Начальное состояние л0=(0, 1) 0 1 2 3 4 5 ч1) 0 0,6 0,72 0,744 0,7488 0,74976 <2) 1 0,4 0,28 0,256 0,2512 0,25024 В таблице приведено распределение вероятностей на последова- тельных шагах при начальном состоянии л0=(0, 1). В этом случае при возрастании п значения «,,(*> и лп(2) приближаются к тем же зна- чениям 0,75 и 0,25, что и при начальном распределении Ло= (1, 0). Как видим, в данной марковской цепи после большого числа шагов веро- ятности переходов становятся независимыми от начального состояния системы. Если в марковской цепи существует предельное распре- деление вероятностей, соответствующее «—>оо и не завися- щее от начального состояния системы, то это распределе-
ние вероятностей определяет предельный или установив- шийся режим системы. В этом случае систему называют статически устойчивой, а марковский процесс в такой си- стеме — эргодическим. Обозначим через л=(л(1), ..ль) установившееся рас- пределение вероятностей эргодической марковской цепи. Компоненты л(з) этого распределения можно найти из урав- нений (5.141), которые при п->оо принимают вид z(o= j=l,..., L. (5.142) 1=1 Однако не все L уравнений (5.142) являются линейно независимыми, так как вероятности л(з’> связаны между со- бой соотношением = (5.143) l=i поэтому для определения L неизвестных компонент рас- пределения вероятностей л достаточно взять любые L— 1 уравнений (5.142) и решать их совместно с уравнением (5.143). Пример 5.16. Для матрицы переходов в примере 5.14 первое из уравнений (5 142) имеет вид л<1>=л<1>р1,4-л(г>р21= =4л(‘)/5+ЗлР)/5. Уравнение (5.143) дает n<*>-|-nP)=l. Решая совместно эти урав- нения, находим л<‘>=0,75; л<2> = 0,25. Переход эргодического марковского процесса от началь- ного состояния к установившемуся режиму называют пере- ходным процессом. Переходный процесс описывается после- довательностью распределений вероятностей лп для п=1, 2 ... и при заданном начальном распределении вероятно- стей ло может быть получен путем последовательного при- менения формулы (5.141), как это было сделано в примере (5.15). Однако можно поступить иначе. Введем в рассмотрение величины р^г}, определяющие вероятность перехода системы из состояния i в состояние j за I шагов: р[р=р(х„+г=/I x„ = i); « = 0,1... (5.144) 196
Вероятности pltj дают возможность определить распре- деление вероятностей Л( по распределению ло по формуле, аналогичной (5.141): = (5.145) 1=1 Для установления связи вероятностей перехода рЮц с вероятностями р,/ положим /=/1 + /2 и будем рассма- тривать переход системы из состояния л0 в состояние щ в два этапа: переход из (Состояния л0 в состояние itZ1. а затем переход из состояния в состояние it(=it(1+z1. При этом (б-146) где (5.147) i=i Подставляя значение it* в (5.146), получаем «Р- 2W 2’5" УрЧ,"р&- (5.148) 4=1 1=1 (=1 4=1 Сравнивая (5.148) и (5.145), находим ^*+z’> = 2р1/М^ (5.149) 4=1 Для последовательного вычисления вероятностей пере- хода р(р, удобно в (5.149) положить /(=/—1, /2= = 1. При этом получаем Pi?~ %Р?Г"Ры- (5-150) 4=1 Полагая последовательно 1—1, 2 ... и учитывая, что по определению вероятностей перехода pi3 • ) "Но: (5л51) 197
получаем Р{ч= Р.г Р<4 = 'Zp.kPk,-- (' А = | Выражение (5.150) может быть обобщено па случг однородной марковской цепи, в которой вероятности хода зависят от номера шага. В этом случае под веро стью рч(п, nJ при ге<П| будем понимать вероятность что на шаге п} система окажется в состоянии /, есл! шаге п она находилась в состоянии I: ри(п, nj=p(xn,=j\xn=i), n<tii. (Е При этом по аналогии с( 5.145) имеем 4? ~ ptj(n, nJ, и( С другой стороны, рассматривая некоторое п', летворяющее условию ге<п'<«|, можем nW)n, прсдст. в виде Pkit'1’’ nJ = '£Pill(n'> 'U ri k-i k=\ i-1 = S71»’ nJ. ( f=l ft=l Сравнивая (5.154) с (5.155), находим L P4(fi, "i)= n’)pltlJi’, nJ ( *=i при любых n<n'<iii. Соотношение (5.156) называют пением Чэпмена — Колмогорова. 5.7.6. Гауссовские марковские процессы Среди различных видов случайных процессов мг ские процессы играют важнейшую роль примерно и же причинам, по которым нормальный закон распре ния выделяется из всех других законов распределена причины состоят в том, что марковские процессы паи 198
часто встречаются на практике и имеют сравнительно про- стое математическое описание. Рассмотренные выше мар- ковские цепи представляют собой лишь частный случай марковских процессов. Для рассмотрения других видов марковских процессов необходимо дать более общие опре- деления. Пусть х(/) — скалярный или векторный случайный про- цесс, т. е. функция времени, значения которой для любого момента t представляют собой случайные векторы. Рас- смотрим последовательность дискретных моментов времени t0<ti< ... <tm<tm+i- Обозначим через х(- значение х(/) в момент ti, 1=0, ..., Процесс x(t) называют марков- ским, если условная плотность вероятности для х(/) удов- летворяет условиям w (хт+| | хт, ..., x0)=a?(xm+I|xm). (5.157) Из соотношения (5.157) видно, что если момент времени 1т считать настоящим, а моменты tm*i, .... to прошлыми, то вероятностный закон, описывающий поведение процесса в будущем, т. е. в момент tm+i, зависит только от текущего состояния процесса хт и не зависит от его поведения в прошлом, т. е. от его предыстории. Это свойство называ- ют марковостью. Другой способ описания марковского процесса состоит в определении совместной плотности вероятности а?(хт, ..., Хо). Воспользовавшись соотношением (5.81), представим совместную плотность вероятности в виде ш(Х1П, ..., Хо) = W (х,п| Хт-1, ..., Xo)w(Xm-I, •••, Хо) = =ш(хт|х,п-1)ау(хт-1, ..., Хо). Преобразуя аналогичным образом io(xm-i, ..., х0), по- лучаем w (х„.... Хо) = W (Xrn| Xm-i) W (Xm_, | X,rt-2) X ХЬУ'(Хт_2, ..., Хо). Продолжая этот процесс и далее, находим ау(хга, .... x0)=-uy(xm|xm_I)ay(xm-i|xm-2)... ... w (х, | Хо) w (Хо). (5.158) Если для любых t Ti т при t>r определена условная плотность вероятности а)[х(£) |х(т)], то все сомножители правой части (5.158) известны, за исключением w(x0). Следовательно, совместная плотность вероятности w(xm,... 199
..., Xq) марковского процесса, а значит, и сам марковский процесс полностью определяются начальной плотностью вероятности w(x0) и плотностью вероятности переходов W (X* | ХЛ-1) . Марковский процесс называют гауссовским марков- ским процессом, если плотности вероятностей для а>(х0) = =а>[х(/о)] и w(nk\*k-1) являются гауссовскими и опре- деляются соответствующими математическими ожидания- ми и ковариационными матрицами: Хо=£(х0); Ро=Е[(хо—х0) (х0—х0)т]; Xfe |fe-i=£ (XftlXft-i);_₽*)*-!=£[ (х*—xA/ft-i) (Xft— (5.159) 5.7.7. Примеры гауссовских марковских процессов Пример 5.17. Пусть u(t), ОО — скалярный процесс, описываемый дифференциальным уравнением й(/)=0, причем и(0) — гауссовская случайная величина. Интегрируя уравнение процесса, получаем и(1) = =c=const. Следовательно, u(t) представляет собой просто постоян- ный сигнал, совпадающий с и(0) дли любого 00 (рис. 5.11,а). Таким образом, значение процесса u(t) для любого 00 полностью опреде- ляется начальной плотностью распределения вероятностей, а значит, процесс является марковским. Пример 5.18. Пусть u(/), t^O — скалярный процесс, описываемый дифференциальным уравнением й(Г)=О, причем и(0) и й(0) имеют совместное гауссовское распределение вероятностей. Интегрируя диф- ференциальное уравнение, находим й(/) =u(0)=const; и(/)=и(0)+/й(0). Вид сигнала изображен на рис. 5.11,6. a.) t ° б) 1 Рис. 5.11. Постоянный сигнал со случайным начальным значением (а) и лииейио меняющийся сигнал (б) 200
Введем в рассмотрение вектор х(о = Ги(<)1 = [«(0) + <“(0)'1. L «(0) J Поскольку и(0) и й(0) имеют совместное гауссовское распреде- ление, то х (0 — гауссовский двумерный вектор. Следовательно, про- цесс х(0 — гауссовский. Для доказательства марковости процесса возьмем два произволь- ных момента времени <2>0>О. При этом p(0) + ^(°)l х р(0)+4М0)1 L «(0) I L «(о J Учитывая, что й(0)=й(/1) и что «(0)+<2й(0) =и(0)+0й(О) + + (/2—/1)ц(О)=и(0) + (0—0)й(0), находим l«(0) + (<а + G.) «(*х)‘ L й(/Т Следовательно, х(0) можно полностью определить, зная x(G). Это означает, что процесс х(0 является марковским. Аналогичным образом можно показать, что, если скалярный про- (A+D цесс и(0, ОО задан дифференциальным уравнением и(1)—0, причем (A+D u(0), ii(0).. и(0) имеют совместное гауссовское распределение ве- роятностей, то векторный процесс является гауссовским марковским процессом. Пример 5.19. Белый гауссовский шум (белая гауссовская последо- вательность) . Процессы, происходящие в системах автоматики -и телемеханики, содержат в своем составе помеху sf/t), которую часто представляют в виде белого гауссовского шума. Рассмотрим последовательность дискретных моментов времени 0, /2..... tn и обозначим через si, з2,..., sn значения помехи в эти моменты времени. Помеху sn называют бе- лым гауссовским шумом (белой гауссовской последовательностью), если значения sn распределены по нормальному закону с нулевым 201
математическим ожиданием и дисперсией о2 и не коррелирован меж- ду собой: £(sn)=sn=0; E(s2„) = = о2; E(s;s/)=0 для /#=i. (5.160) Как видим, значение помехи в любой момент времени не зависит от предыдущих значений помехи и является нормально распределен- ной случайной величиной. Таким образом, гауссовский белый шум представляет собой гауссовский марковский процесс. Пример 5.20. Коррелированный гауссовский шум. Коррелирован- ный гауссовский шум gn с нулевым математическим ожиданием E(gn)=g..=0, дисперсией £[g2n] =g2n=a .и ковариацией «i/=E[gig/] = <=a<pli-H, представляет собой последовательность, определяе- мую соотношением gn=<pgn_I+Sn, л=1, 2.... (5.161) причем go —случайная величина, распределенная по нормальному за- кону с нулевым математическим ожиданием E[gol—1о=0 н дисперсией E[g2o]=a, a sn— белый гауссовский шум с дисперсией a2=a(l—ср2), некоррелированный с g0. То, что соотношение (5.161) определяет гауссовский марковский процесс, видно из самого соотношения и из определения величин go и sn. Приведенные значения величин gn, g2n и Цц легко проверить путем рассмотрения нескольких первых членов последовательности gn. Так, имеем для п=1 11-?1о + *1; = ?lo + Si = 0; gi2 = E[?2g20 + 2?g0s1+s12] = a<p2 + + о2 —а; /?01 = «ю = Е Но (?lo + Si) ] = a?; для n = 2 g2=<pgl + s2; l2 = 0; "g22 — E [<p2gi2 + 2<pg1s2 + s22] = a<p2a2 = a; «12 = «21 = E [gi (?gi + S2) ] = ат; «02 = «20 = E [go (?11 + S2) ] = — ¥«01 = a?2 и T. Д. Очень часто приходится иметь дело с совокупностью нескольких последовательных значений помехи, например gb..., gi. В этом случае удобно ввести в рассмотрение вектор помехи 11 "I 162 5) Liz J 202
я охарактеризовать его вектором математических ожиданий v, пред- ставляющим собой нулевой вектор, и ковариационной матрицей Rv= — £[vvT], имеющей вид Если <р=0, то gn = sn, т. е. коррелированная помеха превращается в белый гауссовский шум с дисперсией а=а2. Ковариационная матрица белого гауссовского шума имеет вид (5.164) 5.8. ЭЛЕМЕНТЫ МАТЕМАТИЧЕСКОЙ СТАТИСТИКИ 5.8.1. Предмет математической статистики Развитие науки и техники требует все более и более глубокого проникновения в сущность явлений природы. Однако сами явления природы предстают перед нами в ви- де огромного числа разнообразных фактов и наблюдений, которые, в свою очередь, являются результатом действия множества факторов, часть из которых лежит в основе рассматриваемого явления, а другие являются второсте- пенными, несущественными и нередко просто затемняют сущность явления. Нужны большие знания и умение для того, чтобы исключить всю второстепенную информацию и выявить основные и существенные сведения, содержащие- ся в наблюдениях. Методы математической статистики дают возможность представить множество результатов наблюдения в ком- пактном, удобном для обозрения виде. Они позволяют вы- делить существенную информацию из множества наблю- дений, представив ее в виде небольшого числа сводных показателей. Если оказывается, что имеющихся данных недостаточно для понимания сути явления и требуется проведение добавочного эксперимента, то методы матема- 203
тической статистики позволяют ответить ^на вопрос, как такой эксперимент поставить, чтобы в максимальной сте- пени облегчить работу исследователя как по постановке эксперимента, так и по последующей обработке экспери- ментальных данных. Из сказанного следует, что математическая статистика представляет собой науку о методах обработки большого числа экспериментальных данных с целью получения из них правильных выводов. i В данном разделе невозможно охватить все задачи, ре- шаемые методами математической статистики, которым посвящен ряд учебников и монографий |22—25]. Поэтому мы ограничимся рассмотрением лишь наиболее распрост- раненных методов решения статистических задач. Разви- тие некоторых из этих методов, проведенное с позиций теории принятия решений, будет дано в гл. 110. 5.8.2. Понятие случайной выборки Пусть х — одномерная случайная величина с функ- цией распределения вероятностей F(x). Рассмотрим n-мерную случайную величину (х(», .... *(»)), (5.165) отдельные компоненты которой являются независимыми случайными величинами с одинаковыми функциями рас- пределения вероятностей F(x). Функция распределения вероятностей такой многомерной величины определится как произведение функций распределения вероятностей ее компонент nW’)- (5.166) Случайные величины х(,) удобно рассматривать как результаты некоторого эксперимента. При этом многомер- ная случайная величина (5.165) может рассматриваться или как результат последовательного проведения п неза- висимых экспериментов на одной и той же эксперимен- тальной установке или как результат проведения п одно- временных экспериментов на п однотипных эксперимен- тальных установках. Поскольку всегда имеется возможность, хотя бы тео- ретическая, проводить неограниченное число эксперимен- 204
тов, то можно говорить о бесконечном наборе случайных чисел х“> с функцией распределения вероятностей F(x). Такой бесконечный набор называют бесконечной совокуп- ностью с функцией распределения вероятностей F(x). Каждый конкретный результат эксперимента, а следо- вательно, каждое х(<'> из конечного выбора (5.165) может рассматриваться как выбор одного из чисел бесконечной совокупности. Весь набор (5.165) представляет собой по- следовательность п таких выборов и называется случай- ной выборкой. 5.8.3. Предельные теоремы теории вероятностей В математической статистике большой интерес пред- ставляет изучение изменения свойств случайной выборки при увеличении ее объема и, в частности, предельных со- отношений, которые получаются при п->оо. Здесь фунда- ментальную роль играют неравенство Чебышева и выте- кающие из него закон больших чисел и центральная пре- дельная теорема. Если х —случайная величина с математическим ожи- данием v и дисперсией о2, то справедливо следующее не- равенство, называемое неравенством Чебышева: P(|x-v>Xo)<lA2. (5.167) Чтобы доказать это неравенство, разобьем веществен- ную ось на три интервала: /=(— оо, V—Хо]; 7'=(v—Ко, v-|-Xo); 4-оо). Дисперсию величины х запишем в виде = j (x — v)2w(x)dx==^(x — v)2w(x)dx~l- -f- j (х — v)2w(x)dx-{- j (x — v)2 w (x) dx. Отбрасывая в выражении для о2 слагаемое, соответ- ствующее интервалу Г, получаем о2 > J(x-v)2w(x)dx-\- J (х — v)2w(x)dx. 205.
Поскольку в интервале / имеем х—v^—Z.O, а в ин- тервале Г имеем х—v^Z,o, неравенство только усилится, если в обоих интегралах заменить (х—v)2 на Vo2. Таким образом, о2^Х2о2 [Р (х ^v-Z.o) +Р (x^v+Z-o) ] = =Vo2P(|x-v|>Xo). что эквивалентно неравенству (5.167). Неравенство (5.167) определяет вероятность того, что значение x—v выйдет за пределы интервала (—Z,o, +Z,o). Однако можно определить вероятность того, что значение х—v не выйдет за пределы указанного интервала. Эта ве- роятность Р(|х—v| <Z,o)=l— Р(|х—v|^Z,o); с учетом неравенства (5.167) Р( |х-v| <Z,o)>l- 1/V. (5.168) Если обозначить Z,o через е, то это неравенство при- мет вид P(|x-v|<e)^l-o2/e?. (5.169) Обратимся к рассмотрению случайной выборки (хь... ...,х„) объема п. Обозначим черезх среднее арифметиче- ское этой выборки: х = (1//г) З*;- (5.170) i=l С целью упрощения подобного рода записей далее ис- пользуем символ S или Sn для обозначения суммирования по всем выборочным данным. При этом соотношение (5.170) запишется в виде x=S(x)/n=S„/n. (5.171) Дисперсия величины х согласно (5.62) и (5.98) будет D(x) = = -L S ID(x)] А (5.172) Заменяя в (5.169) х на х и соответственно о2 на о2/п, получаем Р{ I Sn/n-v | <е}>1-б2/(«е2)_ (5.173) 206
где v — математическое ожидание х, являющееся средним значением для бесконечной совокупности, из которой взя- та выборка. Из выражения (5.173) видно, что при п->оо и при лю- бом е>0 Р{ | S,Jn — v | <s}-> 1, (5.174) что и выражает собой закон больших чисел. Из этого за- кона следует, что при больших п с вероятностью, сколь угодно близкой к единице, среднее арифметическое со- впадает с математическим ожиданием v=£(x) вели- чины х. Приведем без доказательства одно из важнейших пре- дельных соотношений теории вероятностей, получившего название центральная предельная теорема. Пусть (хь... ..., хп) — последовательность случайных величин, имеющих в общем случае различные функции распределения веро- ятностей Fi(x), ..., Fn(x), математические ожидания vb... ...,vn и дисперсии oi2, ..., оп2. Обозначим: x^-SW; v = — S(v); s2 = —S(o2). (5.175) n n n Центральная предельная теорема утверждает, что если случайные величины хь ..., хп являются независимыми и имеют конечные дисперсии одного порядка, то при боль- шом числе слагаемых закон распределения среднего ариф- метического х приближается к нормальному с математи- ческим ожиданием v и дисперсией s2/n. Замечая, что в этом случае величина t = (X - v)lslVn (5.176) будет иметь нулевое математическое ожидание и единич- ную дисперсию, на основании центральной предельной теоремы можно утверждать, что при п->оо будет выпол- няться соотношение f (5.177) \ slvn J |/2п С задачами, когда исследуемая случайная величина яв- ляется суммой большого числа независимых случайных величин, приходится сталкиваться весьма часто. Напри- мер, ошибка сложного прибора является результатом сум- 207
марного действия разнообразных внешних условий и оши- бок в отдельных элементах этого прибора. При этом большие по своему влиянию ошибки легко исключаются. Так, если в электрической схеме произошел обрыв, то его легко обнаружить и устранить. Однако причины малых по значению ошибок обнаружить трудно. Следовательно, отдельные слагаемые суммарной ошибки можно считать равномерно малыми и на основании центральной предель- ной теоремы утверждать, что суммарная ошибка будет иметь распределение, близкое к нормальному. 5.8.4. Критерии статистических оценок Одной из задач математической статистики является определение неизвестных параметров распределения бес- конечной совокупности по известной конечной выборке. При этом речь может идти об определении или самой функции распределения F(x), или отдельных параметров функции распределения, таких как математическое ожи- дание, дисперсия, наименьшее или наибольшее значение случайной величины и т. п. Поскольку элементы конечной выборки являются слу- чайными величинами, то случайным будет и значение па- раметра, определенное с помощью этой выборки. В част- ности, если мы имеем несколько выборок одного и того же объема из одной и той же бесконечной совокупности, то каждая из них даст свое значение интересующего нас па- раметра. Поэтому по конечной выборке не можем точно судить о значении параметра, а можем лишь более или менее точно оценить этот параметр. Численные значения отдельных параметров, определенные из конечной выбор- ки, называют оценками параметров бесконечной совокуп- ности. В общем случае из одной и той же выборки можно получить различные оценки. Пусть, например, имеется вы- борка {хь х2, ..., Хп}, причем х(^х2^ ... «Схл, и мы хотим найти оценку математического ожидания. Можно рассмот- реть несколько различных оценок: медиана — среднее всех наблюдений о [ х(„+1)/2 при нечетном «; х- 1 , , ч (5.178) — (хл/2-1+x»/2+i) при четном п; 208
полусумма наименьшего и наибольшего значений х — 0,5 (х, (5.179) среднее арифметическое всех наблюдений x = (5.180) Какая же из этих оценок является наиболее предпоч- тительной? На этот вопрос можно ответить, если ввести некоторые критерии, которым должна удовлетворять оцен- ка. Рассмотрим важнейшие из критериев. Несмещенность. Оценка не должна содержать си- стематической ошибки, преувеличивающей или преумень- шающей значение параметра для всех выборок. Это озна- чает, что математическое ожидание оценки должно совпа- дать с действительным значением параметра. Если дей- ствительное значение параметра обозначить через а, а его оценку через а, то требование несмещенности запишется в виде Е(а\=а. (5.181) Состоятельность. Оценка а должна приближать- ся к значению параметра а по мере увеличения объема выборки. Ввиду того, что оценка o' является случайной величиной, об этом приближении можно говорить лишь в вероятностном смысле. Так, если обозначить через 'ап оценку а, полученную при выборке объема п, то для со- стоятельной оценки должно выполняться соотношение Р[ 1«„ —а |<а]—>1 (5.182) при п->оо и любом е>0. Эффективность. Из всех несмещенных и состоя- тельных оценок следует предпочесть такую, которая ока- зывается наиболее близкой к оцениваемому параметру, т. е. при которой большие отклонения при использовании различных выборок встречались бы как можно реже. Оценки, удовлетворяющие этому требованию, называются эффективными. Математически требование эффективности означает требование минимальной дисперсии оценки D(a)=min. (5.183) 14-804 209
5.8.5. Несмещенные оценки математического ожидания и дисперсии Пусть (xi.... хя)—выборка из совокупности с мате- матическим ожиданием v и дисперсией о2. Обозначим че- рез х оценку для математического ожидания, а через s2 оценку для дисперсии. За оценку величины v обычно берут среднее арифмети- ческое значение выборки х = ± ^х/==-1-5(х), (5.184) называемое выборочным, средним. Как следует из закона больших чисел, такая оценка является состоятельной, т. е. приближается к v при п->оо. Поскольку выборочное среднее х представляет собой сумму случайных величин, то оно само будет случайной величиной. Поэтому можно говорить о законе распреде- ления выборочного среднего, его математическом ожида- нии и дисперсии. Математическое ожидание выборочного среднего E(x) = -^-£[S(x)] = -i-Sl£Wl = v (5.185) совпадает со значением v, что говорит о несмещенности оценки (5.184). Дисперсия выборочного среднего согласно (5.172) равна а2/п.- Если выборка взята из совокупности с нормальным распределением, то х как сумма нормально распределен- ных случайных величин будет иметь нормальное распре- деление, которое с учетом (5.185) и (5J172) имеет вид w(x)=N(v, о2/п). (5.186) Во многих случаях вместо х бывает удобно рассматри- вать величину = (х— ч)1<з1У п =(х— у)1У<?[п, (5.187) имеющую нулевое математическое ожидание и единичную дисперсию, плотность вероятности которой будет равна JV(O, 1). Если выборка взята из совокупности, имеющей распре- деление, отличное от нормального, то закон распределения 210
выборочного среднего также будет отличаться от нормаль- ного, однако на основании центральной предельной тео- ремы можно считать, что при больших объемах выборки этот закон будет близок к закону N (v, о2/п). Для нахождения несмещенной оценки дисперсии s2 найдем математическое ожидание величины S(x—x)2. За- писывая эту величину в виде •S (х — х)а = S [(х — v) — (х — v)]s = 3 (х — V)2— — 2 (х — v) S (х — v) + п (х — v)2 и беря математическое ожидание от каждого слагаемого, получаем E[S((x-x)2] = («-l)o2 (5.188) или £[S(x-x)2/(n-^]=o2. (5J189) Из (5.189) следует, что несмещенной оценкой диспер- сии может служить оценка вида s2 = —i-yS(x —х)а. (5.190) Для определения закона распределения оценки дис- персии рассмотрим предварительно один важный закон распределения. Если г/, — независимые случайные величи- ны, подчиняющиеся нормальному распределению Af(0,1), то случайная величина %а = 2Х (5.191) г = 1 подчиняется распределению %2 (хи-квадрат) с п степеня- ми свободы. При этом число степеней свободы опреде- ляется числом независимых случайных величин в сумме (5.191). Для распределения х2 составлены подробные таб- лицы, в которых приводятся для различных п значения вероятности р(х2>%<?2). где х?2 — какое-либо положитель- ное число. Ниже приведен пример такой таблицы, в которой зна- чения х?2 удовлетворяют условию р(х2>Х<72)=0>95 для п от 1 до 30: 14* 211
п........................ 1 2 3 4 5 6 7 X,8.................... 0,004 0,103 0,352 0,71 1,14 1,63 2,17 п........................-8 9 Ю п 12 13 и X,8.................... 2,73 3,32 3,94 4,6 5,2 5,9 6,6 п....................... 15 16 17 18 19 20 21 Х?8 ................... 7,3 8,0 8,7 9,4 10,1 10,9 11,6 п....................... 22 23 24 25 26 27 28 Х98....................12,3 13,1 13,8 14,6 15,4 16,2 16,9 п......................29 30 X,8....................17,7 18,5 Более подробные таблицы х?2 распределения можно най- ти в [23]. Нетрудно видеть, что если под yt понимать величину (х,—х)/а, удовлетворяющую наложенным на yt усло- виям, то x‘ = b/‘ = (n-W (5.192) будет определять закон распределения для s2. 5.8.6. Нахождение оценок по методу максимального правдоподобия Многие задачи математической статистики сводятся к тому, чтобы оценить некоторый параметр а в распреде- лении, вид которого известен. По принципу максималь- ного правдоподобия за оценку параметра а принимают такое значение, которое представляется наиболее вероят- ным на основании опытных данных. Имеем выборку (xi, ..., хп) из совокупности с плотно- стью распределения вероятности оу(х, а), зависящей от параметра а. Многомерную плотность вероятностей для этой выборки L — П а)(хг, а) (5.193) г=1 называют функцией правдоподобия. Согласно принципу максимального правдоподобия за оценку параметра а принимают значение а, при котором функция правдоподо- бия L или, что то же самое, логарифм этой функции InL достигает максимума. Значение а можно найти из 212
уравнения правдоподобия dlnL dlntp(xf, «) = q ,5 194^ да. ~ да ’ 7 1=1 которое легко приводим к виду S" ____!___^(xt,aj ~ 0 (5.195) W (Х[, а) да Для случая, когда выборка взята из совокупности с нормальным распределением W(v, а2), определяемым (5.40), уравнения правдопо- добия для определения параметров v и о имеют вид 3 (Х{ - v) = 0; 3 [ 1 - (х£ - v)2/a2] =0. (5.196) i=l i=l Из первого уравнения находим оценку для v: £>>=«• <5i97> которая совпадает с полученной ранее несмещенной и состоятельной оценкой (5.184). Второе уравнение правдоподобия с учетом (5.197) дает оценку для о2: п i2=vE(X£_'?)2’ (5,198) i=i которая, однако, не является несмещенной, поэтому на практике поль- зуются обычно несмещенной оценкой (5.190). Получение максимально правдоподобной оценки для экспоненци- альиого распределения рассмотрим на примере. Пример 5.21. Для определения среднего срока службы выпускае- мой заводом аппаратуры было испытано п образцов аппаратуры в те- чение t часов. За время испытания т образцов проработали без от- казов в течение всего времени t, а п—т образцов отказали в моменты Хь..., Tn-m- Какова наиболее правдоподобная оценка среднего вре- мени безотказной работы? Предполагая, что время, за которое происходит отказ аппаратуры, подчиняется экспоненциальному закону (5.135), так что величина о|(Л, t)=Xe_ta представляет собой вероятность выхода аппаратуры 213
в момент т, а величина е~М — вероятность исправной работы в тече- ние времени t, получаем функцию правдоподобия п—т I=(e-W)'n [J Ш(А|Ч). (5.199) 1=1 Уравнение (5 194) прн этом дает 3 (1А-т()=0, (5.200) откуда (п—т \ I mt + S х<) / (п — т). (5.201) Аналогичным образом можно показать, что наиболее правдопо- добная оценка ворон iпости события для процесса независимых испы- таний при биномиальном распределении Р=х/л, (5.202) где п — число испытании: х — число успехов. Если случайный процесс подчиняется распределению Пуассона и в выборке за п интервалов содержится г событий, то п:пиболее правдоподобной оценкой среднего числа событий в одном интервале служит величина й^г/п. (5.203) 5.8.7. Оценка параметров по методу доверительных интервалов В предыдущих разделах были рассмотрены методы, да- ющие оценку параметра в виде некоторого числа, т. е. не- которой точки вещественной оси. Такие оценки получили название точечных. Поскольку выборка является случай- ной, то во многих случаях, особенно при малых объемах выборки, такая оценка может оказаться весьма далекой от действительного значения параметра. Значительно большую информацию может дать ука- зание интервала, в котором с вероятностью, близкой к еди- нице, находится значение оцениваемого параметра. Так, если значение у близко к единице, то интервал (ai, а2), в котором с вероятностью у находится значение неизве- стного параметра а Р(а1<а<а2)=у, (5.204) 214
называют ЮОу-процентным доверительным интервалом. На практике часто ограничиваются рассмотрением 95%- ного доверительного интервала, полагая у=0,95. Если най- дена точечная оценка параметра а и известна плотность вероятности для этой оценки, то границы доверительного интервала получают из соотношения У w (a) da. — у. (5.205) В ряде случаев вместо нахождения двустороннего до- верительного интервала (а>, аз) требуется найти только нижнюю а/ или только верхнюю аз' границу для рас- сматриваемого параметра а. Интервалы, определяемые соотношением /’(а><Х1/) =? и Р(а<а2')=Т> (5.206) называют односторонними ЮОу-процентными доверитель- ными интервалами. Границы а/ и аз' этих интервалов оп- ределяют из выражений +оо +«,' ^w(a)da = y и J w(a)da = y. (5.207) Предположим, чго выборка объема п взята из сово- купности с нормальным распределением Af(v, а2) с неиз- всст11ым v и известной дисперсией о2, так что 1 = = ]//г(х—v)/o будет иметь распределение Af(O, 1). Введем также обозначение у=1— q. В этом случае 100(1—«^-про- центный доверительный интервал определится соотноше- нием />(-^<V«(x-v)/o< + Q= \ — q (5.208) или Р (х — v < х + tqo/Vn) = 1 — q. (5.209) Учитывая соотношение (5.44), это выражение можно записать в виде 1 _q=Q(tq) -ф (_/,) =2Ф (tq), (5.210), что приводит к следующему соотношению для определе- ния tq. Ф(/?) =0,5(1—<?). (5.211)’ 215
Для односторонних доверительных интервалов (tqf, Ч-оо) и (—оо, tq') соотношение (5.210) запишем в виде 1 -q=® (tqf) -ф (-оо) =0,54-Ф (</). (5.212) Для определения граничных значений односторонних доверительных интервалов при этом получаем соотноше- ние Ф(//) =0,5(1 —2q). (5.213) Как видим, граничные значения 100(1— q)-процентно- го одностороннего доверительного интервала равны гра- ничным значениям 100(1—2q)-процентного двустороннего доверительного интервала. Полагая </=0,05 и воспользовавшись таблицами инте- грала вероятностей, из соотношений (5 211) и (5.213) на- ходим следующие границы двусторонних и односторонних доверительных интервалов: /?=1,96; </=1,64. (5.214) Таким образом, вычисленное по выборке объема п из совокупности с нормальным распределением и известной дисперсией о2 выборочное среднее х дает возможность с вероятностью 0,95 утверждать, что математическое ожи- дание совокупности будет лежать в интервале х= l,96o/J/7z< v<x + 1,96о/]//г, (5.215) или что v > х — 1,64о/]/й, (5.216) или что v<x+1,64о//й. (5.217) Полученные значения tq могут быть использованы и для нахождения доверительных интервалов при биноми- альном распределении w(x, п, р), поскольку биномиаль- ное распределение при больших п приближается к нор- мальному с математическим ожиданием v—np и диспер- сией o2=npq. Полагая <=(х— np)!Vnpq, приходим к выводу, что если при п независимых испытаниях собы- тие S произошло х раз, то с вероятностью 0,95 можно утверждать, что математическое ожидание пр будет ле- 216
жать в следующих пределах: 1,96]/'лр^</гр< х+1,96]/я^, (5.218) или что пр>х — Xfi^Vnpq, ' (5.21 У) или что пр < х + 1,64 Vnpq, (5.220) причем значение Vnpq подсчитывается по наиболее прав- доподобному значению р=ф=х/п как V~npq = Vx(n — х)/п. (5.221) Пример 5.22. Из выпускаемой заводом продукции было случайным образом отобрано и испытано 100 изделий, среди которых 37 оказа- лись второго сорта. Что можно сказать о проценте изделий, выпускае- мых вторым сортом? В данном случае п = 100, х = 37, Vnpq — 4,94. При этом 1,96 X Х/йр9 = 9,5. так что х— l,96|/np<7 = 27,5; х + 1,96|/ лр^ = 46,5. Таким образом, имеется 5 шансов из 100, что ошибемся, делая одно из следующих утверждений относительно числа изделий, выпус- каемых вторым сортом составляет: 1) между 27,5 и 46,5% общего числа изделий; 2) не менее 29% общего числа изделий; 3) не более 45% общего числа изделий. Доверительные интервалы весьма часто приходится использовать для определения оценки v при нормальном распределении, когда дисперсия о2 неизвестна. В этом случае вместо о2 применяют оценку дисперсии s2. Однако при этом величина t = (x — v)lVs^n (5.222) в отличие от (5.187) уже не будет распределена по нор- мальному закону. В действительности величина t, опреде- ляемая (5.222), подчиняется закону распределения Стью- дента, которому можно дать следующее определение. Пусть « — случайная величина, имеющая нормальное распределение Af(O, 1); и —случайная величина, имеющая ^-распределение. Если и и v независимы, то случайная величина t = и iV^/k = и VklVb (5.223) 217
определяет распределение Стьюдента, в котором величину k называют числом степеней свободы. Если теперь определить величины и=(х — ^/]/"^/п; v=(n—l)s*/c?, (5.224) то согласно (5.187) и (5.192) они будут удовлетворять условиям, определяющим распределение Стьюдента, а зна- чение t, найденное согласно (5.223), совпадает с значе- нием, даваемым (5.222) при k=n— 1. Таким образом, Таблиц а"] 5.2 k ч 1 2 | 3 4 Б 6 7 8 9 10 | 12 0,05 12,71 4,30 3,18 2,78 2,57 2,45 2,36 2,31 2,62 2,23 2,18 0,10 6,31 2.92 | 2,35 2.13 2,01 1,94 1,89 1,86 1,83 П1 1.81 | 1,78 оодолжсние ч k 14 п> 1м 20 22 24 26 28 30 | 00 0.05 2,15 2.12 2,10 2,09 2,07 2,06 2,(6 2,05 2,04 1,96 0,1(1 1,76 1,75 1,73 1,72 1,72 1,71 1.71 1,70 1,70 | 1,64 случайная величина t, описываемая выражением (5.222), будет распределена по закону Стьюдента со степенями свободы k=n— 1. Обозначим через границы двустороннего 100(il— q)- процентного доверительного интервала для распределения Стьюдента с k степенями свободы. Имеются подробные таблицы (например, [23]) для определения tqk при раз- личных q для /г от 1 до 30. При &>30 значения tqk прак- тически совпадают с значениями tq, получаемыми для нормального распределения. Примером такой таблицы яв- ляется табл. 5.2, дающая значения tqh для <7=0,05 и 0,1. Границы односторонних доверительных интервалов t'qk могут быть найдены по значениям tqk из соотноше- ния t'qk=t2qk. (5.225) 218
Пример 5.23. Для уменьшения влияния помех в канале связи каж- дый результат измерения некоторого параметра v передается с борта ракеты на наземную измерительную станцию трижды. Результаты из- мерений: Х| = 3,2; х2=2,9; х3=3,1. Определить двусторонний 95%-ный доверительный интервал для параметра v, считая искажения в каж- дом передаваемом значении независимыми друг от друга и распреде- ленными по нормальному закону. По измеренным данным находим n=3; x=S(x)/n= 3,067; s2=S(x-x)2/(n— 1) =0,0234. По табл. 5.2 для ^=0,05 и k=n—1=2 получаем /,4=4,30, так что t.tnS/Vn = 0,377. Следовательно, с вероятностью 0,95 имеем 2,69<v<3,44. 5.8.8. Проверка статистических гипотез. Понятие о критерии согласия Пусть Z — пространство исходов эксперимента с эле- ментами zeZ. Для определения вероятности p(z) неко- торого исхода z проводим п экспериментов. Если при этом исход z произошел пг раз, то вероятность этого ис- хода оцениваем по отношению пг/п. Однако в действи- тельности отношение пг/п дает не вероятность p(z) ис- хода z, а его частоту q(z), которая может значительно отличаться от вероятности, особенно при не очень боль- шом числе экспериментов. Возникает вопрос, насколько можно судить о распределении вероятностей исходов p(z), если известны частоты этих исходов q(z). Однако такая постановка задачи является не совсем корректной Действительно, если в результате эксперимента полу- чен ряд чисел, выражающих частоты отдельных исходов эксперимента q(z), то для того, чтобы заменить их на другие числа [вероятности р (г) ], нужны какие-то осно- вания. Что же может явиться основанием для замены од- них чисел другими? Пусть при 10-кратном бросании монеты «герб» выпал 7 раз. Частота выпадения «герба» в данном эксперименте равна 0,7. Есть ли у нас основания заменить это значе- ние и принять за вероятность выпадения «герба» некото- рое другое число? Если о монете ничего не известно, в частности, не зна- ем, симметрична она или нет, то у нас нет и оснований изменить полученное из эксперимента значение частоты. Однако задачу можно поставить иначе. Знаем, что если 219
монета симметрична, то вероятность выпадения «герба» равна 0,5. Хотим проверить, симметрична ли монета, и с этой целью бросаем ее 10 раз. При этом «герб» выпа- дает 7 раз. Спрашивается, есть ли у нас основания ут- верждать, что монета симметрична? Сформулированная таким образом задача носит назва- ние задачи на проверку гипотезы. Подобные задачи воз- никают, когда имеются основания построить некоторую гипотезу (например, монета симметрична) о характере распределения или значении параметров распределения случайной величины. Целью эксперимента является под- тверждение или опровержение выдвинутой гипотезы. Ме- тоды статистической проверки гипотез позволяют ответить на вопросы: 1) обладает ли новый образец прибора луч- шими качествами по сравнению с существующими? 2) бу- дет ли система обладать надежностью не ниже заданной? 3) будет ли новый способ лечения эффективнее существу- ющих? и т. п. Для того чтобы иметь основания принять или отверг- нуть рассматриваемую гипотезу, необходимо выработать некоторый критерий, который называют критерием согла- сия проверяемой гипотезы с результатами эксперимента. Предположим, что значение некоторого параметра а равно ао, и проверим это на основании эксперимента. В результате эксперимента находим опенку этого пара- метра а, которая, являясь случайной величиной, вообще говоря, не совпадает со значением а0. Однако отклонение Да=а—а0 оценки а от истинного значения ао не должно быть велико и, следовательно, если это отклонение ока- залось большим, его нельзя объяснить случайными при- чинами и следует считать, что гипотеза о том, что зна- чение параметра равно ао, не подтверждается и должна быть отклонена. Таким образом, выбор критерия согла- сия — это задание критического значения отклонения Дакр, выбранного так, чтобы вероятность превышения этого значения была очень малой. За критическое откло- нение может быть принята граница 100(1— q)-процентно- го доверительного интервала. При этом имеется вероят- ность q того, что наблюдаемое отклонение превысит кри- тическое, а значит, будет необоснованно отклонена правильная гипотеза. Величину q, называемую уровнем статистической значимости, следует выбирать в зависи- мости от тех последствий, к которым может привести от- 220
клонение правильной гипотезы. Практически в большин- стве случаев считают 7=0,05, принимая тем самым за критерий согласия 95%-ный доверительный интервал. Од- нако в тех случаях, когда последствия некорректного от- клонения гипотезы могут быть тяжелыми, принимают 7= =0,01, а иногда и меньше. Следует отметить, что хотя данный метод позволяет с большой уверенностью отклонять ложные гипотезы, он не может служить доказательством справедливости гипо- тезы. Поэтому при попадании гипотетического значения а0 в пределы доверительного интервала принимаем гипотезу не как истинную, а как согласующуюся с результатами эксперимента. Для суждения об истинности гипотезы не- обходимо проводить специальные исследования. 5.8.9. Оценка влияния некоторого фактора на характер случайной величины Часто встречается задача, в которой требуется отве- тить на вопрос: влияет или не влияет некоторый фактор А на характер случайной величины у. К такому типу отно- сятся задачи по оценке эффективности нового способа ле- чения, влияния нового способа обработки почвы на уро- жай, уменьшения процента брака при изменении в тех- нологии и т. п. Для ответа на поставленный вопрос проводят п экспе- риментов, в каждом из которых определяют значения у/ и у" при отсутствии и при наличии действия фактора А, также разность х,=у/—у". Предположим, что случайная величина у имеет нор- мальное распределение V(v, о2) с известной дисперсией о2, ожидаем, что действие фактора А сводится только к изменению математического ожидания V. Если действие фактора А несущественно, то математические ожидания случайных величин у' и у" будут одинаковы и величина х=у'—у" имеет нормальное распределение <N (0, ах2) с ну- левым математическим ожиданием и дисперсией ах2 = = 2а2. Таким образом, ответ на поставленный вопрос сводится к проверке гипотезы о том, что математическое ожидание величины х=у'—у" равно нулю. В результате п экспериментов находится выборочное среднее x = -^S(x)=-J-S(y’ -у"), (5.226) 221
которое при справедливости сформулированной гипоте- зы будет иметь нормальное распределение с нулевым ма- тематическим ожиданием и дисперсией Используя 95%-ный доверительный интервал, можем утверждать, что гипотеза о несущественности влияния фактора А не противоречит экспериментальным данным, если выполня- ется соотношение | к | < ЬЭб]/-<зхг/п или | х:У<зх/п | < 1,96. (5.227) Однако во многих случаях дисперсия о2 бывает неиз- вестна и ее приходится заменять на ее оценку sx2, вы- численную на основе тех же экспериментальных данных по формуле (5.190)_.___ Величина х: Узх/п является случайной, подчиняющей- ся распределению Стьюдента с п—(1 степенью свободы. Поэтому гипотеза о несущественности влияния фактора Л принимается в том случае, если выполняется соотноше- ние I « : V^Tn I <tq- (5.228) где tq — граница 95%-ного доверительного интервала рас- пределения Стьюдента с п—1 степенью свободы, опреде- ляемая по табл. 5.2. 5.8.10. Проверка гипотезы о дисперсиях. Понятие о /•’-распределении Часто приходится сталкиваться с задачей проверки равенства дисперсий в двух независимых выборках: (xi, .... xnt) и (t/i, выборочные дисперсии которых Si2 и s22 определяют по (5.190) со степенями свободы ki= =«1—1 и й2 = п2—1- Для проверки того, взяты эти вы. борки из одной и той же совокупности с дисперсией аг или из разных совокупностей с дисперсиями Oi2 и о22, необходимо проверить гипотезу о равенстве дисперсий сч2 и о22- Гипотезу о равенстве дисперсий проверяют с помощью F-критерия, для чего вычисляют F=st2/s22, (5.229) где предполагается, что Si2>s22 и принимается гипотеза о том, что выборки взяты из различных совокупностей, если значения величины F превосходят некоторое крити- 222
ческое значение Fq. При этом критическим значением Fq при данных степенях свободы ki и k2 будет такое, что P(F>Fq) =7/100. Как видим, значения Fq являются верхним 7%-ным пределом F-распределения. В [23] при- ведены подробные таблицы F-распределения для 7=5% и 7=1% при степенях свободы kt от 1 до 500 и k2 от 1 до 1000. 5.9. РЕГРЕССИОННЫЙ АНАЛИЗ И ПЛАНИРОВАНИЕ ЭКСПЕРИМЕНТА 5.9.1. Задача регрессионного анализа Рассмотрим следующую задачу. Имеется k перемен- ных Xi, ..., Xk и зависящая от них величина у. Сами пе- ременные, вообще говоря, могут и не быть случайными, и при желании можем задавать их значения по своему усмотрению. Однако на величину у влияют и другие, не поддающиеся точному контролю и наблюдению факторы, благодаря чему величина у носит случайный характер. Нас интересуют методы экспериментального определения влияния переменных Xi xh на величину у [26]. Пример 5.24. Задачи подобного типа обычно связаны с анализом условий протекания производственных и технологических процессов. Примером может служить процесс получения аммиака путем выделе- ния его из отходящих газов при коксовании угля. Отходящие газы, содержащие азот N2, водород Н2 и углекислый газ СОг, должны быть очищены от углекислого газа. Затем получение аммиака про- исходит по схеме: 3H2+N2=2NH3. Процесс очистки газа происходит путем пропускания отходящих газов через слой движущейся воды, поглощающей СО2. Под величиной у будем понимать качество очистки, характеризующееся процентным содержанием СОг в очищенном газе. На качество очистки влияет прежде всего температура отходящих газов и расход воды, которые можно принять за переменные Xi и х2. Однако на качество очистки влияет и множество случайных факторов, начиная с качества угля и кончая температурой окружающего воздуха. Будем считать Xi, ..., х*, которые принято называть факторами, входными величинами некоторого технологи- ческого процесса, а у будем рассматривать как выходную величину (результат) этого процесса, что схематически 223
Входы • гический > Выход хк процесс Рис. 5.12. Структурная схема технологического процесса может быть изображено схе- мой, показанной на рис. 5.12. Величина у будет состоять из детерминированной состав- ляющей f(xi, ..., Xk), обуслов- ленной влиянием и изменени- ем факторов Xi, ..., хл, и со- ставляющей g, обусловленной действием случайных фак- торов y=f(Xl, ..., xft)-H. (5.230) Составляющую g будем считать случайной величиной, имеющей нормальное распределение с нулевым математи- ческим ожиданием. В этом случае детерминированная со- ставляющая f(xi, ..., Xk) будет представлять собой услов- ное математическое ожидание значения у при данных значениях факторов Xi, ..., Ха, т. е. f(xi, ..., хк) = E(y\Xi, ..., Xk)=y(x.. хк)=у(х). (5.231) Здесь x=(xi, ..., xft)T представляет собой вектор зна- чений входных переменных, который может рассматри- ваться как точка в й-мерном пространстве переменных Xi, ..., Xk, называемом далее факторным пространством. Цель дальнейшего рассмотрения — определение подан- ным эксперимента вида зависимости (5.231), которая пред- ставляет собой некоторую поверхность в факторном про- странстве, называемую поверхностью отклика. Для дальнейшего анализа удобно функцию f(xt...... xfe) вблизи рабочей точки разложить в ряд Тейлора. Ограни- чиваясь конечным числом членов разложения, приходим к представлению функции отклика полиномом конечной степени У(х) = Ро + 2 Р/Х. + 2 Р^х2, + 3 pZ/xtx, + ... (5.232) Это выражение можно представить в более компактном виде, введя фиктивную переменную х0= 1, и заменив про- изведение двух и большего числа переменных на новые переменные Ха+....... Ха' по правилу xi2=xa+i; х22=ха+2, ..., ха2=х2а; x,x2=X2a+i; xix3=x2a+2 ... 224
Общее число переменных при этом будет равно: k'= =Ckk+a, где k — первоначальное число переменных; d — степень полинома, представляющего собой функцию //(х). С учетом вновь введенных обозначений уравнение по- верхности отклика принимает вид z/(x) = + ... + + pA+1rft+1 + ... - + Ма' = 2 (5.233) i=0 В дальнейшем индекс (') будем опускать, считая, что поверхность отклика задается уравнением вида (5.233) с k переменными. Уравнение вида (5.233) получило название уравнения регрессии, и входящие в него коэффициенты 0£ называют коэффициентами регрессии. Задача регрессионного ана- лиза состоит в экспериментальном определении коэффи- циентов регрессии путем наблюдения за характером изме- нения входных переменных Xi, ..., Хь и выходной перемен- ной у. Этой цели могут служить методы пассивного или активного эксперимента. Пассивный эксперимент основан на регистрации конт- ролируемых параметров в процессе нормальной работы объекта без внесения каких-либо преднамеренных возму- щений. Активный эксперимент основан на использовании искусственных возмущений, вводимых в объект по зара- нее спланированной программе. Каждый из этих способов имеет свои достоинства и недостатки. При активном эксперименте введение искусственных возмущений позволяет целенаправленно и быстро вскры- вать нужные зависимости между параметрами, нащупы- вать области оптимального режима работы. Однако вве- дение искусственных возмущений может привести к на- рушению нормального хода технологического процесса. При пассивном эксперименте вмешательства в ход про- изводственного процесса не происходит и эксперимента- тор просто ожидает естественного проявления интересу- ющих его закономерностей, что значительно удлиняет время эксперимента. При этом математическое описание получается лишь для области, близкой к рабочей точке объекта, которая может значительно отличаться от опти- мального режима. 15—804 225
При ограниченном числе экспериментов невозможно осуществить точное определение коэффициентов регрессии р, и приходится ограничиваться определением оценокf£= =bt этих коэффициентов. При этом вместо (5.233) полу- чается уравнение регрессии вида ? = (5.234) 1=0 определяющее не математическое ожидание у(х), а оцен- ку математического ожидания у(х). 5.9.2. Определение коэффициентов регрессии по данным пассивного эксперимента Уравнение (5.234) имеет &Н-1 неизвестных коэффи- циентов регрессии. Для их определения проводят серию экспериментов, в каждом из которых измеряют все ве- личины на входах и выходе исследуемого объекта. Общее число экспериментов п должно быть не меньше числа не- известных коэффициентов регрессии. Рассмотрим эксперимент с номером I. Обозначим че- рез х/'\ i=0, k и t)i значения х,- и у в этом эксперимен- те. При этом оценка (5.235) 1=0 определяемая по уравнению (5.234), будет отличаться от действительного измеренного значения yi. Разность между измеренным значением yi и его оценкой называется не- вязкой yt-yi = У1 — ^ 1 = Т7п. (5.236) 1=0 При этом yt =yt + SZ = S biXll) + ez, I =~n. (5.237) i=0 В отличие от величины g в уравнении (5.230), кото- рая носит чисто случайный характер, невязка е/ из выра- 226
жения (5.236) зависит от принятых значений коэффи- циентов регрессии bt. Это позволяет использовать для определения значений bt метод наименьших квадратов, согласно последнему наилучшими оценками bi будут та- кие, которые обращают в минимум сумму квадратов не- вязок: Q = 2 е/а = m!n- (5.238) Чтобы не усложнять дальнейшие выкладки, определе- ние коэффициентов регрессии удобно провести в матрич- ной форме. Обозначим через В=(&о, blt ..., Ьа)т вектор-столбец неизвестных коэффициентов регрессии, а через Y= = (t/i, ..., уп)т вектор-столбец результатов измерения ве- личины у. Результаты наблюдения за переменными xh ..., ха зададим в виде матрицы результатов экспери- мента Через Е= (ei, ..., еп)т обозначим вектор-столбец невя- зок. В этих обозначениях (5.237) запишем в виде одного матричного уравнения Y=BX-|-E. (5.240} Отсюда для вектора невязок E=Y—ХВ. (5.241) В матричной форме сумма квадратов невязок Q=2 ez2 = E’E = (Y— XB)T(Y — ХВ). (5.242) /=1 Раскрывая скобки, находим Q=YTY-YTX В- BTXTY+ +ВТХТХВ. (5.243) Легко заметить, что третье слагаемое этого выраже- ния равно транспонированному второму слагаемому. 15* 227
А поскольку Q — скаляр,, а значит, и слагаемые выраже- ния (5.243) также скаляры, которые при транспонирова- нии не изменяются, то второе и третье слагаемые можно объединить, записав выражение для Q в виде q=YtY—2BTXTY-]-BTXTXB. (5.244) Уравнение для определения В подучим, взяв вектор- ную производную от Q по В и приравняв ее нулю. Вос- пользовавшись правилом вычисления векторных произ- водных (см. § 4.7), находим dQ/dK=-2XTY-|-2XTXB=0. (5.245) Отсюда B=(XTX)-1XTY. (5.246) Все вычисления, связанные с преобразованием матриц в соответствии с (5.246), производятся на ЭВМ. Однако в простейших случаях можно получить аналитические вы- ражения. Пример 5.25. Рассмотрим объект с одномерным входом Xi=x, уравнение регрессии для которого имеет вид В данном случае y = b0 + btx. В = При этом №'Х = п / 2x(')3(x(Z,)a I Здесь чертой обозначены средние значения соответствующих величин, определяемые по (5.184). 228
Учитывая, что (ХТХ)-»= Г *2 1 ’ n (х2 — х2) j х" 1 J для вектора В из (5.246), почучаем так что х2 —№ х2у — х ху —ху + ху . Ьй=(х2у —хху)/(х2—х2), Ь1 = (ху-ху)/(х2-х2). Поскольку определение оценок коэффициентов регрес- сии bo, bi.. bk производится по искаженным помехами экспериментальным данным, то для получения точных оценок число экспериментов п должно значительно пре- восходить число &-|-1 оцениваемых коэффициентов ре- грессии. Разность между числом наблюдений и числом не- известных параметров, оцениваемых на основании этих наблюдений, называют числом степеней свободы экспери- мента. При регрессионном анализе это число п'= = n-(k+l). Другим источником ошибок может явиться несоответ- ствие между принятой степенью полинома d, описываю- щего поверхность отклика, и действительным характером этой поверхности. В этом случае говорят о неадекватности представления результатов эксперимента полиномом дан- ной степени. О правильности выбора степени полинома можно су- дить на основании F-критерия. Для этого вычисляют сум- му Sr2 квадратов отклонений экспериментальных значе- ний у, от найденных по уравнению регрессии (5.234) (у.-y.?. (5.247) i=i Разделив эту сумму на число степеней свободы экс- перимента n'=n-(k-\-\), определяют дисперсию sR2, ха- рактеризующую рассеяние экспериментальных точек от- носительно уравнения регрессии: sR2=SR2/n'. (5.248) 229
Кроме того, вычисляют дисперсию sy2, характеризую- щую ошибку эксперимента: (5,249> где у — выборочное среднее всех результатов эксперимен- та; п—1—число степеней свободы при определении дис- персии Sy2. Далее находят F-отношение: F=sR2/sy2 (5.250) и проверяют гипотезу об адекватности представления ре- зультатов полиномом заданной степени d путем сопостав- ления вычисленного значения F со значением F?, найден- ным из таблиц F-распределения при заданных степенях свободы п' и п—1. 5.9.3. Понятие о планировании эксперимента Планирование эксперимента, ставящее своей целью обеспечить наиболее эффективное исследование свойств объекта управления, лежит в основе проведения активного эксперимента. Преимущества, которые может дать плани- рование эксперимента, проиллюстрируем на простом при- мере [27]. Пример 5.26. С помощью пружинных весов требуется определить массу трех предметов: А, В, С. Обозначим через X неизвестную массу чашки весов. Обычный способ, использующий четыре взвешивания, — сначала взвешивают чашку, а затем по очереди каждый из предметов, пред- ставлен в виде табл. 5.3, где знаками «+» и «—» обозначено наличие или отсутствие соответствующего груза на весах. Подобную таблицу будем называть матрицей планирования эксперимента. При данном способе взвешивания массу каждого предмета опреде- ляют по двум взвешиваниям: взвешивание груза вместе с чашкой и взвешивание чашки. Так, масса предмета А будет Ра=Уг—Уо. Обозна- чим через о2 дисперсию ошибки одного взвешивания Тогда дисперсия ошибки в определении массы Ра будет 02 = a2 f + <s2o — 2а2. Другой способ определения массы тех же предметов с помощью четырех взвешиваний (усовершенствованный способ взвешивания) пред- ставлен второй матрицей планирования. Здесь в первых трех опытах 230
последовательно взвешивают предметы А, В, С, в последнем опыте все три предмета взвешивают вместе. Легко видеть, что масса, на- пример, предмета А будет определяться как />л=0,5(«/2+У4—У\—Уз) с дисперсией ошибки о2л=4о2/4=о2. Как видим, при втором способе взвешивания дисперсии ошибки в два раза меньше, чем при первом, т. е. второй план эксперимента лучше, чем первый. Объясняется это тем, что в первом способе массу предмета определяют только по двум опытам, а во втором — по всем четырем, что обеспечивает лучшую компенсацию ошибок отдельных взвешиваний. Таблица 5.3 Возникает вопрос: каким же образом находить наибо- лее эффективный план эксперимента? Ответ на этот во- прос дает теория планирования эксперимента [28, 29]. В частности, в регрессионном анализе эффективными ме- тодами являются полный факторный эксперимент и дроб- ные реплики от него. 5.9.4. Полный факторный эксперимент Допустим, что мы имеем дело с независимыми вход- ными переменными объекта управления (двумя фактора- ми) xi и хч и каждую из них варьируем на двух уровнях, условно обозначаемых +1 и -1 или короче «+» и «—». Например, если за факторы принята температура xi (1120 и 80°C) и давление хг (3 и 2 МПа), то опыт, в котором 231
температура была 120 °C, а давление 2 МПа, будем ус- ловно обозначать (+, —). Предположим, что нас интересует уравнение регрес- сии, в котором отражено влияние на величину у не толь- ко факторов Xi и х2, но и их взаимодействия, отражае- мого произведением х,х2. Уравнение регрессии запишем в виде y=boXo+biXi-\-b2x2-\-bi2XiX2, (5.251) где, как и раньше, х0=1. Таблица 5.4 ХО X. | . У Кодовое обозначение + + + + 1 + 1 ++1 1 + 11 + У1 Уз Уз У* (О а b ab Легко видеть, что возможные комбинации двух факто- ров Xi, х2, варьируемые на двух уровнях +1 и —1, будут исчерпаны, если мы поставим четыре опыта, указанные в табл. 5.4. В эту таблицу введем столбец х0, значение которого всегда равно +1, столбец с произведением XiX2, столбец, в котором фиксируются результаты измерения выходной величины у, и столбец с кодовыми обозначения- ми опытов, который будет объяснен позднее. Значения Xi и х2, устанавливаемые в отдельных опытах, и представ- ляют собой план эксперимента. Данный эксперимент называют полным факторным экспериментом, поскольку в нем полностью использованы все возможные сочетания уровней обоих факторов. Дан- ному способу планирования присвоено условное обозначе- ние 22 —два уровня планирования для двух факторов. Если производится планирование на пг уровнях для п факторов, то полный факторный эксперимент, т. е. экс- перимент, исчерпывающий все возможные сочетания фак- торов, обозначается тп. Мы в дальнейшем ограничимся лишь рассмотрением случая т = 2, т. е. планированием вида 2”. Для отдельных опытов в факторном эксперименте ис- пользуют специальные кодовые обозначения. В этих обо- 232
значениях указывается, какие из факторов в данном опы- те принимают значения верхнего уровня, т. е. «+». Для обозначения верхних уровней факторов xt и х2 исполь- зуют буквы а и b латинского алфавита. Если рассматри- вают большее число факторов, например х3, х4..., то для обозначения их верхних уровней необходимы последую- щие буквы латинского алвафита с, d... Опыт, в котором все факторы находятся на нижнем уровне, обознача- ют (1). С помощью этих обозначений легко написать мат- рицу планирования просто в виде строки (1), a, b, ab вместо того, чтобы выписывать ее в явном виде. Обратимся теперь к задаче о взвешивании. Легко ви- деть, что табл. 5.3 имеет в точности тот же вид, что мат- рица планирования 22. Следовательно, эффективное взве- шивание явилось результатом использования матрицы пла- нирования факторного эксперимента 22. Остановимся на применении результатов факторного эксперимента. В рассмотренном случае число опытов (че- тыре) равно в точности числу неизвестных коэффициен- тов регрессии и, следовательно, по результатам полного факторного эксперимента можно определить все коэффи- циенты регрессии. Однако при этом не остается степеней свободы для проверки гипотезы об адекватности пред- ставления объекта выбранной моделью. Однако если есть основания предполагать, что эф- фект взаимодействия переменных, выражаемый членом 612X1X2, незначителен, то можно положить 612 = 0 и за- писать уравнение регрессии в виде ^=&oXo+&iXi+&2x2. (5.252) Теперь из четырех опытов нужно определить только коэффициенты b0, bi, Ь2 и остается одна степень свободы для проверки гипотезы адекватности. Перейдем к рассмотрению случая трех переменных хь х2, х3, варьируемых на двух уровнях и, следовательно, описываемых матрицей 23. Чтобы исчерпать все возмож- ные комбинации, нужно поставить восемь опытов, приве- денных в табл. 5.5, где учтены также эффекты взаимодей- ствия XiX2, Х1Х3, Х2Х3, XiX2X3. Вместо того, чтобы выписывать всю эту матрицу, мож- но просто записать ее кодовое обозначение: (1), a, b, ab с, ас, be, abc. 233
Заметим, что матрица планирования 23 получается из матрицы планирования 22, повторенной дважды при зна- чениях Хз соответственно на нижнем «—» и на верхнем «-]-» уровнях. Если нужно включить четвертый фактор, то аналогичным образом повторяют матрицу планирова- ния для трех факторов при значениях четвертого факто- ра на нижнем и верхнем уровнях. Эксперимент, проведенный по матрице планирования 23, дает возможность определить восемь коэффициентов регрессии: b0, bi, b2, b3, bt2, bl3, b23, При этом, прав- адекватности. Однако во многих случаях эффектами пар- ных и тройного взаимодействий пренебрегают и ограничи- ваются линейным приближением уравнения регрессии 0=boXo-\-biXi-{-b2X2-{-b3*-3- (5.253) При этом для проверки гипотезы адекватности остают- ся четыре степени свободы. Для выяснения других свойств рассмотренных матриц планирования введем новые переменные для обозначения парных и тройных взаимодействий, как показано в табл. 5.4 и 5.5. При этом нетрудно видеть, что значения x((Z) (зна- чение i-й переменной в эксперименте I) обладают следу- ющими свойствами: V = 0, i --- 1, /=1 2 хРхР=0, 1,/ = бД, /У=/; (5.254) (5.255) 234
2 (хР) 2 = n, t = 0, k. (5.256) z=i Последние два уравнения означают, что матрица пла- нирования Х=[х,<г’], определяемая согласно (5.239), яв- ляется ортогональной, т. е. удовлетворяющей условию ХтХ=п1, (ХТХ) -' = !/«. (5.257) В этом случае согласно (5.246) вектор коэффициентов регрессии В—P-XTY, (5.258) что в развернутом виде дает = = (5.259) 5.9.5. Понятие дробных реплик Рассмотрим теперь более полно случай, когда прене- брегают эффектами парных, тройных и больших взаимо- действий, т. е. ограничиваются моделями линейного при- ближения. В случае трех переменных моделью линейного приближения является уравнение (5.253), содержащее четыре неизвестных коэффициента регрессии, в то время как полный факторный эксперимент содержит восемь опы- тов. Поэтому имеется четыре, степени свободы для провер- ки гипотезы адекватности. Поскольку при линейной модели число неизвестных ко- эффициентов регрессии n=k+l, а число опытов в полном факторном эксперименте М=2\ то превышение числа опы- тов над числом неизвестных резко возрастает с увеличе- нием k. Так, при k=G имеем М=64, п—7 и число степеней свободы /V—п=57. Очевидно, что в этих случаях можно значительно уменьшить число опытов. Однако возникает вопрос, какие из M=2ft опытов следует оставить, чтобы сохранить высокую эффективность эксперимента? Ответ на этот вопрос дает понятие дробных реплик. Обратимся опять к задаче с тремя переменными, в ко- торой линейные эффекты выражаются четырьмя коэффи- циентами регрессии: Ьо, Ь\, Ь2, Ь3. Для их определения не- 235
обходимо всего четыре опыта. Что же должны быть за опыты? Четыре опыта можно получить, поставив полный фак- торный эксперимент только для двух переменных, напри- мер xi и х2, т. е. использовав планирование 22. Но посколь- ку в каждом опыте нужно задавать еще и уровни третьего фактора х3, то их можно найти, связав х3 cxi и х2 некото- рым соотношением, например положив х3=х1х2. При этом получится матрица планирования для трех факторов, пол- ностью совпадающая с матрицей планирования 22, описы- ваемой табл. 5.4, в которой, однако же, столбец xix2 выра- жает уровни третьего фактора. Легко также видеть, что эта таблица представляет собой половину табл. 5.5. Пла- нирование эксперимента по такой матрице называют пла- нированием типа 23-1. В этом случае планирование про- водится для трех переменных, но в его основе лежит пол- ный факторный эксперимент для 3—1=2 переменных. Особенностью табл. 5.4 являтся также то, что значения, каждой из переменных получаются как произведение зна- чений двух других переменных xi=x2x3; x2=xix3; x3=xix2. Это означает невозможность, например, отличить эф- фект xi от эффекта х2х3, т .е. что найденный коэффициент регрессии bt будет служить совместной оценкой для Pi и р23, что записывается в виде b\-^Pi+p23. Аналогично &2-> -^Рг+Р1з, Ьз^Рз+Р12- Оценка величин pJ2, р23, Pi3 нас не интересует, однако если эти величины отличаются от нуля, они скажутся на точности оценки коэффициентов рь р2, р3. Планирование 23~‘ можно было бы осуществить иначе, а именно спланировать полный факторный эксперимент 22 для двух переменных хь х2 и положить х3=—xix2. При таком планировании линейные и парные эффекты будут связаны соотношениями: xi=—х2х3; х2=—XiX3; х3=—Х]Х2. Коэффициенты регрессии Ь\, Ь2, &з будут в этом случае служить оценками величин Pi—р23, р2— Р1з, Рз—Р12- Два рассмотренных способа планирования вида 23-1 в совокупности дают полный факторный эксперимент 23. Поэтому эти способы планирования можно рассматривать как разбиение полного факторного эксперимента на две половины, называемые полу репликами. Рассмотрим неко- торые принципы, лежащие в основе такого разбиения. 236
Если бы было не три, а, скажем, пять переменных, то для определения линейных эффектов потребовалось бы определить шесть коэффициентов регрессии, а число опы- тов в полном факторном эксперименте равнялось бы25=32. Полуреплика будет содержать 25~' = 16 опытов, что также слишком много. Очевидно, в этом случае можно ограни- читься одной четвертью полного факторного эксперимента, т. е. использовать так называемую четвертьреплику, обоз- начаемую 25-2. Аналогично вводится понятие и более мел- ких дробных реплик, обозначаемых в общем случае как 2*-z Рассмотрим три принципа, лежащих в основе построе- ния дробных реплик. 1. Поскольку наиболее эффективным видом экспери- мента является полный факторный эксперимент, то в ос- нову построения дробной реплики 2k~l положен полный факторный эксперимент с k—I переменными хь.. .,x*_/. 2. Для определения того, какие значения в каждом из опытов придавать оставшимся I переменным xk-i+i,..., xkt эти переменные выражаются через основные с помощью некоторых соотношений, называемых генерирующими соот- ношениями. Выбор того или иного генерирующего соотно- шения полностью определяет план эксперимента. Для планирования 23-1 мы могли использовать одно из генери- рующих соотношений: х3=Х|Х2, х3=—х,х2. При планировании 24-1 полный факторный эксперимент строится для переменных хь х2, х3. Число генерирующих соотношений, выра- жающих х4 через хь х2, х3, здесь уже значительно больше: х4=Х|Х2, X4=X[X3, Х4=Х|Х2Х3, х4=—х,х2 н т. д. При планировании 25~2 генерирующие соотношения выражают пе- ременные х4 и х5 через хь х2, х3. Возможные генерирующие соот- ношения х4=х,х2, х5=х,х3; х4=х,х2, х5=х1х2х3; Х4=Х1Х3, Х5=Х2Х3 и т. д. 3. При выборе наиболее предпочтительного генерирую- щего соотношения следует исходить из того, что при ис- пользовании дробных реплик мы получаем не коэффици- енты регрессии в чистом виде, а лишь оценки для некото- рых совместных эффектов, как было показано в примере планирования 23-'. План эксперимента должен быть таким, чтобы в него входили лишь те совместные эффекты, кото- 237
рые в наименьшей мере влияют на определяемые коэффи- циенты регрессии. Чтобы выбрать наиболее подходящий план эксперимента, необходимо уметь легко и быстро на- ходить совместные эффекты для различных планов экспе- римента. Для быстрой оценки совместных эффектов используют определяющие контрасты. Определяющим контрастом на- зывают соотношение между переменными, которое во всех опытах дает элементы первого столбца, т. е. 4-1. Способ нахождения определяющих контрастов и их применения рассмотрим для примера планирования 23-1. Обозначим вектор-столбец элементов первого столбца через /=(1,..., 1)т.. В качестве генери- рующего соотношения возьмем х3=Х[Х2 Умножая обе части на х3 и учитывая, что х23=1, получаем определяющий контраст I=xtx2x3. Умножая это соотношение последовательно на х(, х2 и х3, полу- чаем совместные эффекты xt=x2x3; x2=XiX3; x3=xtx2, которые были найдены ранее другим путем. В качестве другого примера рассмотрим планирование 25-2. Основ- ные переменные xt, х2, х3 В качестве генерирующих соотношений возьмем х4=Х[Х2, х5=х1х2х3. Умножая эти соотношения на х4 и х5, по- лучаем определяющие контрасты /=х1х2х4, /=х!х2х3х5. Если эти опре- деляющие контрасты попарно перемножить, то получим третье соот- ношение, дающее также элементы первого столбца: /=х3х4х5. Чтобы полностью определить все совместные эффекты, введем обобщающий определяющий контраст 1 - Х[Х2Х4 = х1х2х3х5=х3х4х5. Для получения совместных эффектов при определении коэффици- ента регрессии bt умножим на xt все члены полученного выражения: х1=х2х4=х2х3х3=х1х3х4х5, что означает b I--->- р I + р244“p23S + р 134S. Обычно совместные эффекты от трех и четырех взаимодействий весьма малы, поэтому можно считать, что bt—*ф1+р24. Аналогично находим совместные эффекты и при определении дру- гих коэффициентов регрессии. Задачи к гл. 5 5 1. Что представляют собой события S[ и Su в примере 5.1? 5.2. Показать, что если пространство исходов эксперимента со- держат п элементов, то в этом пространстве имеется 2” различных событий. 5.3. На склад предприятия поступают предохранители с двух за- водов в отношении 1 :3. Первый завод дает 10, а второй 20% брака. 538
Воспользовавшись формулой полной вероятности, определить вероят- ность того, что случайно взятый со склада предохранитель окажется бракованным. 5.4. Построить график функции распределения вероятностей для числа очков, выпадающих при бросании двух игральных костей, из примера 5.1. 5.5. Определить вероятность того, что в примере 5.8 время ожи- дания пассажира не превысит 3 мин. 5.6 Для того, чтобы узнать, сколько рыб в озере, отлавливают 1000 рыб, метят их и выпускают обратно в озеро. При каком числе рыб в озере будет наибольшей вероятность встретить среди вновь пой- манных 150 рыб 10 меченых? Глава 6 СТРУКТУРА И МАТЕМАТИЧЕСКОЕ ОПИСАНИЕ ЗАДАЧ ОПТИМАЛЬНОГО УПРАВЛЕНИЯ 6.1. ОСНОВНЫЕ ЧЕРТЫ ПРОЦЕССА УПРАВЛЕНИЯ 6.1.1. Понятие об управлении Повсюду в окружающем нас мире (природе, технике, человеческом обществе) протекают различные процессы, характер которых зависит от множества сопутствующих им условий и факторов. Изменяя условия протекания про- цессов, человек может влиять на их характер, изменять их, приспосабливать к своим целям. Это вмешательство в ес- тественный ход процесса, изменение естественного хода процесса и представляет собой сущность управления. Та- ким образом, можно сказать, что управление представляет собой такую организацию того или иного процесса, кото- рая обеспечивает достижение определенных целей [30, 36J. Для лучшего понимания существа процесса управления рассмотрим пример собаки, преследующей зайца. Для того чтобы настичь зайца, собака должна определенным образом организовать свои действия, управлять ими. Следовательно, процесс преследования является про- цессом управления. Началу преследования должно предшествовать появление зайца, т. е. создание такой ситуации, при которой возникает определенная цель, достижение которой является или необходимым, или желатель- 23»
ным. Однако, прежде чем начать преследование, собака должна оце- нить сложившуюся ситуацию « сопоставить ее со своими желаниями и возможностями. Оценка ситуации завершается принятием решения о том, следует пытаться догнать зайца или нет (заяц может оказаться да- леко н погоня бесполезна, собака может быть утомлена и т. п.). Толь- ко после того, как принято решение о преследовании, собака присту- пает к организации своего движения, ставя при этом цель догнать зайца за кратчайшее время или при наименьшей затрате сил. В этом примере можно отчетливо различить четыре этапа, характерные для любого процесса управления: по- явление цели, оценка ситуации, принятие решения и ис- полнение принятого решения. Однако этап появления цели предшествует началу процесса управления и его исключим из рассмотрения. Учитывая также, что при управлении сложными процессами оценка ситуации производится на основе собранной и соответствующим образом обработан- ной информации, приходим к следующим трем этапам процесса управления: 1) сбор и обработка информации с целью оценки сло- жившейся ситуации; 2) принятые решения о наиболее целесообразных дей- ствиях; 3) исполнение принятого решения. Иногда бывает необходим еще четвертый этап: конт- роль исполнения решения. Различные виды задач управления отличаются друг от друга способом и последовательностью выполнения этих операций. 6.1.2. Виды задач управления Имеется много задач, в которых механизмы сбора ин- формации и исполнения принятого решения отработаны настолько четко, что над ними можно совершенно не за- думываться при осуществлении процесса управления. В таких задачах все рассмотрение процесса управления сводится, по существу, к рассмотрению 'только второго этапа. Подобные задачи называют одноэтапными или од- ношаговыми задачами принятия решения. Однако такой подход в большинстве случаев является идеализацией и упрощением реального процесса управле- ния. В действительности все этапы процесса управления находятся в тесной взаимосвязи и этап принятия решения требует более или менее детального рассмотрения возмож- 240
них способов реализации принятого решения. Так, для принятия решения об отказе от преследования зайца нуж- но убедиться, что преследование бесполезно, а для этого нужно хотя бы грубо проанализировать возможные спосо- бы преследования. Иногда в подобных случаях процесс управления разби- вают на несколько последовательных шагов, причем реше- ние, принимаемое на каком-либо шаге, зависит от резуль- татов выполнения решения предыдущего шага. Такие процессы называют многошаговыми процессами принятия решения. Примером может служить процесс управления ракетой при запуске ее с Земли на Луну. Здесь можно выделить следующие шаги: вывод ракеты на околоземную орбиту, организация движения ракеты в направлении Лу- ны, перевод ракеты на окололунную орбиту, прилунение. В данном примере отдельные шаги многошагового про- цесса управления получились вполне естественно. Однако во многих случаях разбиение сложного процесса управле- ния на шаги с четким выделением всех этапов управления на каждом шаге оказывается весьма трудной задачей. Так, в процессе преследования зайца приходится иметь дело с непрерывно меняющейся ситуацией, вызванной стремле- нием зайца уйти от преследования. Собака должна непре- рывно оценивать эту ситуацию и принимать все новые и новые решения, сообразуясь с изменяющейся ситуацией и не ожидая окончательных результатов выполнения преды- дущих решений. В подобных задачах сталкиваемся с непрерывными динамическими процессами управления. Из рассмотренного видно, насколько сложными и раз- нообразными могут быть задачи управления. Однако в зна- чительной степени недооценим трудность решения этих задач, если не учтем того обстоятельства, что процессы управления протекают, как правило, в сложной окружаю- щей обстановке. На протекание процессов управления ока- зывают влияние разнообразные внешние факторы, сово- купность которых часто называют состоянием природы. Для того чтобы принять правильное решение о тех или иных действиях, нужно оценить результаты этих действий, а для этого необходимо знать характер ситуации, в кото- рой эти действия предпринимаются. Однако типичным для задач управления является слу- чай, когда имеющаяся информация бывает или недоста- точна для точной оценки ситуации, или искажена посто- ронними факторами. Тем не менее недостаточность инфор- 16-804 241
мации не снимает задачи принятия решения. Особенность задач управления именно в том и состоит, что решение должно быть обязательно принято независимо от того, в состоянии ли мы точно оценить результаты, к которым приведет принятое решение. Таким образом, в процессе управления возникает важ- ная задача принятия решения в условиях, когда информа- ция о сложившейся ситуации пли недостаточна, или иска- жена. Данная задача получила название задачи- принятия решения в условиях неопределенности. 6.1.3. Понятие об исследовании операций Отметим еще одни специфический класс задач управления, кото- рые связаны с деятельностью крупных промышленных предприятий и могут быть названы задачами организационно-управленческого харак- тера [31, 32]. До промышленной революции руководство мелким предприятием мог осуществлять всего одни человек, который делал закупки, плани- ровал и направлял работу, сбывал продукцию, нанимал и увольнял рабочих. При небольших размерах предприятия он мог принимать орга- низационные решения, не прибегая к каким-либо научным методам и базируясь на своих знаниях, опыте, интуиции. Если некоторые из при- нятых решений были! не наилучшимн, то они или не приводили к большому ущербу, или могли быть быстро исправлены. Укрупнение промышленнх предприятий сделало невозможным осу- ществление административных функций одним человеком. Появились руководители производственных отделов, отделов сбыта, финансовых отделов, отделов кадров и др. Усиливающаяся механизация и автомати- зация производства привела к дальнейшему расчленению административ- ных функций. Так, производственные отделы оказались разделенными на более мелкие группы, занимающиеся вопросами эксплуатации и ремон- та, контроля качества, планирования, снабжения, хранения готовой продукции и т. п. Каждое отдельное специализированное подразделение крупной организации выполняет определенную часть общей работы, руковод- ствуясь общими целями предприятия. Однако у каждого специализи- рованного подразделения возникают и свои собственные цели. Все эти цели не всегда согласуются, а иногда приходят в противоречие друг с другом. В качестве примера можно рассмотреть проблему обеспечения предприятия запасами. Отдельное подразделение может быть заинте- ресовано в значительном увеличении запасов на складе для обеспе- чения бесперебойного выпуска своей продукции. Но при ограниченном 242
объеме складских помещений это приводит к снижению запасов для других подразделений. В результате возникает задача организационно- управленческого типа — выработка такой стратегии в отношении за- пасов, которая была бы наиболее благоприятна для всего предприя- тия в целом. При решении подобного рода организациоино-управлеических за- дач необходимо очень тонкое понимание целей отдельных подразделе- ний и такое их согласование, чтобы они не приходили в противоречие ни друг с другом, ни с общими целями всего предприятия. Если при этом учесть, что принятие не иаилучших решений в условиях крупного предприятия может принести немалый ущерб, то становится ясно, что при решении организационно-управленческих задач оказывается недо- пустимым базироваться только на личном опыте и здравом смысле. Необходимы научные методы. Разработкой научных методов решения организационно-управленче- ских задач занимается научная дисциплина, получившая название исследование операций. Под операцией понимается некоторое органи- зационное мероприятие, проведение которого преследует определенную четко сформулированную цель, например регламентацию хранимых на складе запасов. Должны быть заданы условия, характеризующие об- становку проведения мероприятия, в частности потребности в запасах и ограничения на складские помещения в рассмотренном примере. Целью исследования операций является нахождение и научное обосно- вание таких способов проведения мероприятия, которые в некотором смысле являются наиболее выгодными. Специфическая особенность задач организационно-управленческого типа состоит в том, что последствия того или иного способа их ре- шения могут существенно отразиться иа работе всего предприятия. Поэтому принятие окончательного решения всегда относится к ком- петенции ответственного лица, администратора, наделенного соответ- ствующими правами, и выходит за рамки исследования операций. Исследование операций преследует лишь цель дать в руки администра- тору обоснованные рекомендации по принятию решения. Таким образом, исследование операций представлиет собой на- учное направление, целью которого являются разработка методов анализа целенаправленных действий (операций) и объективная срав- нительная оценка возможных решений Хотя исследование операций представляет собой самостоятельное научное направление, при реше- нии отдельных задач оно широко применяет методы кибернетики.
6.2. ОПТИМИЗАЦИЯ ПРОЦЕССА УПРАВЛЕНИЯ 6.2.1. Критерий качества управления Задачу управления будем в дальнейшем рассматривать как математическую. Однако в отличие от многих других математических задач она имеет ту особенность, что до- пускает не одно, а множество различных решений [33]. Это связано с тем, что в задачах управления имеется, как правило, много способов организации какого-либо процес- са, которые приводят к достижению поставленной цели. Так, в процессе погони за зайцем собака может по-разно- му организовать характер своего движения, при запуске ракеты на Луну можно выбирать различные траектории для полета ракеты и т. п. Поэтому задачу управления можно было бы ставить как задачу нахождения хотя бы одного из возможных способов достижения поставленной цели. Однако такая постановка вопроса обычно бывает недостаточна. Если имеется множество решений какой-либо задачи, то следует вести речь о выборе такого решения, которое с какой-либо точки зрения является наилучшим. Можно привести много примеров подобных задач. Так, имеется много способов для склеивания коробки из листа картона заданных размеров. Решением этой задачи следует считать получение коробки максимальной вместимости. Из одного города в другой можно приехать, пользуясь различными видами транспорта: воздушным, водным, автобусным, ав- томобильным. Решением задачи будет выбор наиболее выгодного вида транспорта с точки зрения времени проез- да, стоимости, удобств и т. п. Аналогичное положение име- ет место в задачах управления. В тех случаях, когда цель управления может быть до- стигнута несколькими различными способами, на способ управления можно наложить добавочные требования, сте- пень выполнения которых может служить основанием для выбора способа управления. Во многих случаях реализация процесса управления требует затрат каких-либо ресурсов: времени, материалов, топлива, электроэнергии. Следовательно, при выборе спо- соба управления следует говорить не только о том, дости- гается ли поставленная цель, но и о том, какие ресурсы при- дется затратить для ее достижения. В этом случае задача управления состоит в том, чтобы из множества решений, 244
обеспечивающих достижение цели, выбрать одно, которое требует наименьшей затраты ресурсов. В других случаях основанием для выбора способа управ- ления могут служить иные требования, налагаемые на систему управления: стоимость обслуживания, надежность, степень близости получаемого состояния системы к тре- буемому, степень достоверности знаний о состоянии при- роды и т. п. Математическое выражение, дающее количественную оценку степени выполнения наложенных на способ управ- ления требований, называют критерием качества управле- ния. Наиболее предпочтительным или оптимальным спо- собом управления будет такой, при котором критерий качества управления достигает минимального (максималь- ного) значения. При выборе, например, режима полета за критерий качества управления можно принять или выра- жение для количества топлива, расходуемого на единицу пути, или путь, проходимый за счет единицы топлива. Наи- более экономичному, т. е. оптимальному, режиму будет соответствовать минимальное (максимальное) значение критерия качества управления. Приведенное определение оптимального управления будем рассматривать как предварительное. Более строгое определение будет дано после рассмотрения ограничений, налагаемых на процесс управления. 6.2.2. Ограничения, накладываемые на процесс управления Задачу нахождения оптимального управления или управления вообще следует считать несуществующей, если на характер движения системы не наложено никаких огра- ничений. Так, проблемы погони за зайцем вообще не су- ществовало бы, если бы собака могла мгновенно преодо- леть расстояние, отделяющее ее от зайца. Следовательно, при решении задачи управления нельзя не считаться с тем обстоятельством, что движение любой системы всегда под- вержено различного рода ограничениям. Для более ясного представления о встречающихся ог- раничениях рассмотрим конкретный пример управления автомобилем. Осуществляя процесс управления, водитель должен считаться с тем, что автомобиль имеет ограничен- ную мощность двигателя, а значит, может вести лишь 245
ограниченный груз с ограниченной предельной скоростью. Благодаря инерционности скорость автомобиля и направ- ление движения могут изменяться лишь с ограниченным ускорением. Это означает невозможность мгновенной оста- новки или мгновенного изменения направления движения в случае возникновения непредвиденной опасной ситуации и в свою очередь ограничивает скорость движения. При выборе маршрута водитель вынужден считаться с ограни- ченным запасом горючего в баке и необходимостью попол- нения этого запаса в пути и т. п. В общем случае имеются два вида ограничений иа вы- бор способа управления [30]. Ограничениями первого вида являются сами законы природы, в соответствии с которы- ми происходит движение управляемой системы. При мате- матической формулировке задачи управления эти ограни- чения представляются обычно алгебраическими, диффе- ренциальными или разностными уравнениями связи. Вто- рой вид ограничений вызван ограниченностью ресурсов, используемых при управлении, или иных величин, которые в силу физических особенностей той или иной системы не могут или не должны превосходить некоторых пределов. Математически ограничения этого вида выражаются обыч- но в виде систем алгебраических уравнений или нера- венств, связывающих переменные, описывающие состоя- ние системы. 6.2.3. Постановка задачи оптимального управления Задачу управления можно считать сформулированной математически, если: сформулирована цель управления, выраженная через критерий качества управления; опреде- лены ограничения первого вида, представляющие собой системы дифференциальных или разностных уравнений, сковывающих возможные способы движения системы; определены ограничения второго вида, представляющие собой систему алгебраических уравнений или неравенств, выражающих ограниченность ресурсов или иных величин, используемых при управлении. Способ управления, который удовлетворяет всем по- ставленным ограничениям и обращает в минимум (макси- мум) критерий качества управления, называют оптималь- ным управлением. 246
6.3. МАТЕМАТИЧЕСКОЕ ОПИСАНИЕ ОБЪЕКТА УПРАВЛЕНИЯ 6.3.1. Производственно-экономические модели Математические модели, позволяющие вести анализ н планирова- ние производственной деятельности отдельных предприятий, отраслей промышленности и всего народного хозяйства в целом, называют производственно-экономическими моделями. Производственный процесс можно рассматривать как многополюс- ную систему, имеющую разнообразные входы, которые можно разбить на следующие группы: X — технологические входы, представляющие собой предметы труда (сырье, материалы, полуфабрикаты и т. п.); R — средства труда (станки и прочее оборудование, служащее для обработки предметов труда); L —живой труд, т. е. люди, участвую- щие в производстве. Выходом V производственного процесса является выпуск готовой продукции. Зависимость выхода от входов называют производственной функ- цией и в общем виде V=F(X, L, R). (6.1) Вид этой зависимости может быть весьма разнообразным и зави- сит от конкретных целей исследования. Ограничимся рассмотрением простейшего вида этой зависимости, называемой линейной производ- ственной функцией, при которой выход модели линейно зависит от входов. Следует иметь в виду, что в любом реальном производствен- ном процессе каждая группа входов, так же как и выход, будут пред- ставлять собой многокомпонентные, т. е. векторные, величины Введем в рассмотрение коэффициенты alj = yi/vi< blj = li/vl\ hij = rllvj, (6.2) определяющие размер затрат i-ro ресурса X, L или R иа производ- ство единицы /-го продукта. Совокупности этих коэффициентов удобно представить в виде следующих матриц: А= [а,;] — материальных за- трат; В =[/>,/]—трудовых затрат; Н= [Л,;] —производственных мощ- ностей. Прн этом линейная производственная функция запишется в виде трех матричных соотношений. X=AV; L=BV; R=HV. (6.3) 247
Однако в этой модели не учтена цель производства, которой яв- ляется удовлетворение потребностей, т. е. потребление. Цель плани- рования производственной деятельности — достижение определенного баланса между производством и потреблением, что выражается в со- ставлении балансовых уравнений, описывающих многопродуктовые модели производства. Такие модели могут быть статическими, когда производственный процесс предполагается неизменным на протяжении длительного времени, или динамическими, предполагающими непре- рывный рост и усовершенствование производства. Коснемся кратко обоих этих типов моделей Статическая многопродуктовая модель. Рассмотрим случай, когда имеется и производств, выпускающих п видов продукции . ., vn Каждый вид продукции v, расходуется на потребление с интенсивно- стью w, и на производство как данного, так и других видов продук- ции с интенсивностью х„ что может быть записано в виде балансово- го уравнения vt=wt-\-xi, i=l,.. , п (6.4) При линейной модели расход х// продукции вида i в /-м произ- водстве будет пропорционален выпуску /-й продукции, так что п п *<7 = 2 «<Л7. i = », -, «• /=1 /=1 В соответствии с этим совокупность балансовых уравнений для всех п производств VI —2 aHvi = i = 1.........«• (6.5) /=1 Эти уравнения можно записать более компактно, если ввести в рассмотрение вектор потребления w=(ttii,.... wn)T и матрицу коэф- фициентов 1——«и ... —aw С = ““«21 1- «22 •• -«2» (6 6) _ —«Л1 —«712 ••• > —«ПЛ. При этом систему уравнений (6.5) запишем в виде одного матрич- ного уравнения CV=W. (6.7) Разрешая (6.7) относительно вектора V, можем найти интенсив- ности выпуска продукции, обеспечивающие заданное потребление V=C-‘W, (6.8) 248
или, обозначая через ач элементы обратной матрицы С"1, в развер- нутом виде VI = 2 “0-7, I = 1....П. (6.9) /=1 Для обеспечения выпуска продукции с интенсивностями, определяе- мыми соотношениями (6.9), необходимы затраты средств производства в количествах ь^' r=2 ^=2 hi°i- <6-10* i=1 1=1 1=1 (=1 Поскольку, однако, конечной целью производства является потреб- ление, то величины L и R удобно выражать не через интенсивности производства выпускаемой продукции о/, а через интенсивности по- требления w:, введя коэффициенты полной трудоемкости и фондоемко- сти соответственно: h.j=Rjlwi. (6.11) Связь между коэффициентами bi, hi и Б;, Я/ легко установить, под- ставив в (6.10) значения Vi из (6.9). При этом получаем L = 2 ^2 “«/^/=2 bjWj, (6.12) i=i /=1 /=1 где */=2“^- (613) Аналогично В реальных ситуациях не всегда удается удовлетворить соотноше- ниям (6.12) и (6.14), поскольку трудовые ресурсы и ресурсы обору- дования бывают ограниченными. Если ресурсы рабочей силы ограни- чены величиной £0. а ресурсы оборудования — величиной Ro, то соот- ношения (6.12) и (614) должны быть заменены неравенствами 2 № < £0; 2 [hwi<R^ (6-15) 249
причем на v, и ни, накладываются ограничения неотрицательности этих величин i=l,..., п. (6.16) Будем также считать, что выпускаемые виды продукции являются полностью взаимозаменяемыми, и обозначим через р, цену или обще- ственную полезность i-ro продукта При этом можно сформулировать задачу оптимального планирования производства, поставив в качестве цели нахождение таких интенсивностей выпуска продукции, при кото ром общая ценность выпускаемой продукции п f(^i....wn)=^plWl (6-17) будет максимальна Эта задача решается методами линейного програм- мирования. Динамическая многопродуктовая модель. Статические модели не отражают важнейшего фактора общественного производства, его не- прерывного развития и усовершенствования. Модели, учитывающие развитие производства, называют динамическими моделями. Внутренними силами, обусловливающими развитие производства, являются капитальные вложения. Последние создаются за счет про- изведенного продукта V и образуют его накапливаемую часть — фонд накопления. Остальная часть продукта составляет фонд потребления Фонд накопления условно разбивают на две части. Первая чвсть Нп составляет производственные фонды, расходуемые на увеличение и усовершенствование средств производства. Вторая часть /7И направ- лена на повышение информационного потенциала общественного про- изводства, куда входят капитальные затраты на развитие науки и образования. Воздействие капитальных затрат происходит всегда с запаздыва- нием относительно момента их вложения. Капитальные затраты на рас- ширение производственных фондов HR реализуются, как правило, с меньшим запаздыванием, но имеют и меньшую отдачу. Затраты на развитие науки н образование реализуются с большим запаздыванием, но в корне меняют характер производства и обеспечивают его непре- рывное совершенствование В дальнейшем с целью упрощения будем рассматривать единый фонд накопления Н и считать, что эффект от капиталовложений реа- лизуется без запаздывания Обозначим через gift) интенсивность про- дукта, идущего в фонд накопления в i-м производстве. Уравнение ба- ланса для i-го производства запишем в виде и, (0=ю, (/)+*, (/)+£,(/). (6.18) 250
Согласно| (6.18) производственный продукт vt расходуется на по- требление с интенсивностью Wt, иа воспроизводство с интенсивностью xt и на увеличение производственных фондов с интенсивностью gi. Обозначая через Xi, интенсивность расходования продукта i на воспро- изводство продукта /, а через gn интенсивность расходования продук- та i на капитальные вложения в производство продукта /, получаем п п п Х1 = 3 xl/ = 3 a4vl’ Si = 3 Sir (6-19) /=1 /=1 /=1 Для того, чтобы увязать расход продукта на увеличение про- изводственных фондов с ростом выпуска продукции, необходимо слить воедино два процесса: процесс образования производственного фонда Hi, и процесс его расходования. Рассмотрим приращение производ- ственного фонда за малый интервал dt. Это приращение про- порционально интенсивности накопления gi/(t) и интервалу dt: dHtitt^cugt^dt. (6.20) Расходование производственных фондов идет на усовершенствова- ние используемого оборудования Ru(t) =hijvl, поэтому dHti(t)=dRti(t)=hudvi(t). (6.21) Сопоставляя (6.20) и (6.21), находим cugu(t)dt=ht/dv/(/), откуда &1/(/)=М«/(0/Л. (6-22) где kiF=hiilc,i — коэффициент удельных капиталовложений, называе- мый также коэффициентом капиталоемкости. С учетом (6.19) и (6.22) уравнения баланса (618) запишем в виде п п VI (0-3 a4v! (О “3 k4dvi Wdt = “7(0. i = 1. «• (6.23) /=1 /=1 Решить полученную систему уравнений чрезвычайно трудно в си- лу очень большого числа входящих в это уравнение неизвестных. До- бавочные трудности вызывает необходимость учета ограничений (6.15) на трудовые ресурсы и ресурсы оборудования, а также условия (6.16) неотрицательности переменных. Останавливаться на методах решения данной системы уравнений не будем [35]. 6.3.2. Структура объекта управления Рассмотренные в предыдущем параграфе производст- венно-экономические модели позволяют решать многие за- дачи планирования производства. Однако планирование 251
является лишь одним из этапов процесса управления. Дру- гой этап — реализация составленного плана, представляю- щая собой процессы управления конкретными технологи- ческими и производственными объектами. Для решения этой задачи нужно иметь более детальное описание кон- кретных объектов управления (ОУ), выражаемое соответ- ствующими математическими моделями. Ту физическую систему, процессами в которой управ- ляем, будем называть объектом управления. Объекты управления могут быть весьма разнообразны и иметь са- мую различную физическую природу: технические устрой- ства (автомобиль, самолет, ракета, токарный станок и т. п.); производственные предприятия (отдел, цех, завод, отрасль промышленности); экономические системы (эко- номика предприятия, экономика отрасли промышленности, экономика государства); биологические системы; социаль- ные системы и т. д. То обстоятельство, что закономерности, которым под- чиняются процессы управления, являются общими для объ- ектов управления любой физической природы, позволяет рассмотреть общую структуру и дать общее математиче- ское описание процесса управления. Обозначим через х переменную, определяющую состоя- ние ОУ. Иногда она является одномерной или скалярной величиной. Это могут быть угол поворота вала двигателя, скорость самолета или ракеты, давление пара в котле паровой машины, количество предметов на складе, число самолетов, базирующихся на аэродроме, и т. п. Однако в большинстве случаев для описания ОУ тре- буется не одна, а несколько переменных х(1),.. ,,х(п). При описании механических систем величины х(£) представляют собой координаты или скорости движущихся частей; элек- трических систем — ток или напряжение; в экономике про- изводственные мощности или ресурсы отдельных отраслей промышленности; в биологической системе величины x(Z) могут характеризовать концентрацию химических веществ или лекарств в различных органах. В этих случаях состояние объекта будет описываться многомерной переменной х=(х(1), ..., х(,1)), которая далее будет рассматриваться как точка в пространстве Rn. Пе- ременную х будем называть переменной или вектором со- стояния объекта управления. Величины х(<), а значит, и вектор х, как правило, не могут принимать любые значе- ния. Множество допустимых значений переменной х обо°- 252
начают через X и называют допустимым множеством или пространством решений, подчеркивая тем самым, что вы- бор некоторого хе^ представляет собой возможное реше- ние задачи управления. Если величины х(г) принимают конечное множество зна- чений, то допустимое множество X также будет конечным и имеет вид -V={x,......xw}, где xft=(x*<1>, ...,х*<л>)т, k= =A,N. Если величины х(,) могут изменяться непрерывно, т. е. принимают бесконечное множество значений, то допусти- мое множество X будет бесконечным множеством. Однако и в этом случае значения обычно не могут быть каки- ми угодно. На них накладываются ограничения, которые, как уже отмечалось, обычно имеют вид алгебраических уравнений или неравенств: \<bh f{ (tf1), ..., x<n>) = bh i = 1, m, (6.24) 1>6Z. В каждом из ограничений (6.24) сохраняется только один из знаков = или однако разные ограничения могут иметь и разные знаки. Величины тип между собой не связаны, так что т может быть больше, меньше или равно п. В частности, т может быть равно нулю, так что не исключается случай, когда ограничения (6.24) отсутст- вуют. Часто некоторые или все переменные х(,) удовлет- воряют условию неотрицательности Условие неотрицательности переменных оказывается весьма удобным при численном решении уравнений, опи- сывающих процесс управления. Кроме того, во многих задачах, например экономических, величины х(<) не могут быть отрицательными по своему физическому смыслу (затраты, выпуск продукции, объемы перевозимых товаров, размещенные различным образом суммы денег и т. п.). Однако и задачи, в которых переменные могут быть про- извольного знака, т. е. удовлетворяют ограничениям вида i=\,n, где а,— произвольные числа, легко преобразуются в за- дачи с неотрицательными переменными путем введения новых переменных —at. 253
Состояние ОУ не только зависит от переменной х, ко- торую будем далее считать доступной измерению и конт- ролю, но и от множества неконтролируемых или не пол- ностью контролируемых факторов, определяемых совокуп- ностью внешних условий, в которых находится объект управления. Такими факторами могут быть состав сырья, случайные возмущения внешней среды, вибрации и т. п. В технике подобные факторы называют возмущениями. Летчик, например, может регулировать режим самолета путем изменения высоты и скорости полета, которые явля- ются в данном случае контролируемыми параметрами. Однако на расход топлива в значительной степени влияют внешние атмосферные условия, которые летчик может лишь частично принимать во внимание, но на которые не может активно воздействовать и даже точно их предви- деть. Полную совокупность неконтролируемых внешних фак- торов, оказывающих влияние на процесс управления, бу- дем 'называть состоянием природы и обозначать через Ф. Во многих случаях путем некоторой идеализации реаль- ных явлений удается свести все бесчисленное многообра- зие внешних условий к конечному числу возможных состо- яний природы .......©l.t. е. ввести в рассмотрение конечное множество 0= {&!,...,&/.}, называемое пространст- вом состояний природы. Элементы й, множества 0 в об- щем случае являются______многомерными величинами = (&,(!)...i=l, L. Невозможность полного контроля всех внешних факто- ров приводит к тому, что вместо точного знания состояния природы О во многих случаях приходится ограничиваться лишь знанием вероятностей £(&) различных состояний природы ФеО. Вероятности £(&), полученные тем пли иным путем для всех *&е0 до начала решения задачи управления, будем называть априорными вероятностями состояний природы. Естественно, что априорные вероятно- сти £(&), представляющие собой распределение вероятно- стей на пространстве 0, должны удовлетворять условиям (5.3). В ряде случаев состояние природы & необходимо рас- сматривать как непрерывную случайную величину, для которой пространство состояний природы 0 представляет собой бесконечное множество. В таких случаях распреде- ление вероятностей £(&) превращается в плотность веро- ятности. 254
Для описания целенаправленного воздействия на ОУ введем переменную и, которую будем называть управляю- щим воздействием или просто управлением. Таким обра- зом, слово «управление» будет в дальнейшем использо- ваться в двух смыслах: 1) управление как организацион- ная деятельность, направленная на достижение определенных целей; 2) управление в смысле управляю- щего воздействия, т. е. некоторой физической величины, изменение которой производится по нашему желанию и которая воздействует на характер процессов в ОУ, изменяя их в нужном направлении. Конкретный смысл, в котором используется слово «управление» в различных случаях, бывает ясен из кон- текста. При управлении сложными объектами обычно прихо- дится использовать несколько управляющих воздействий и(1),..., и(г), так что управление и представляет собой в об- щем случае многомерную величину и=(и(1), ..., u(r) )т. Так, летчик может менять режим полета, применяя управление и, состоящее из воздействия на количество расходуемого топлива (и(1)) и руль высоты (ы<2>). Управляющие воздействия и<‘> в реальных системах не могут быть взяты какими угодно, а подвержены различ- ного рода ограничениям. Обозначим через U множество всех значений управления и, которые удовлетворяют по- ставленным ограничениям. При этом любое u^U будет допустимым управлением. В дальнейшем часто встречают- ся задачи, в которых множество допустимых управлений U является конечным множеством и={щ, (6.25) Судить о том, насколько примененное управление и обеспечивает достижение поставленных целей, можно по значениям переменных состояния х. Однако во многих случаях это оказывается неудобным, так как цели управ- ления могут выражаться через переменные состояния до- статочно сложным образом. Поэтому наряду с переменны- ми состояния х удобно ввести в рассмотрение выходные переменные q, выражающие цели управления в явном виде. Иногда в качестве выходной переменной может быть использована какая-либо из переменных состояния. Но в общем случае это не так. Например, при управлении режимом полета с целью минимизации расхода топлива на 255
Рис. 6.1. Структура объекта управления заданном маршруте за выход- ную переменную удобно взять путь, пройденный за счет еди- ницы топлива, тогда как пере- менными состояниями будут скорость и высота самоле- та. Выходными переменными могут быть не только физи- ческие величины, но и экономические показатели, напри- мер КПД и т. п. В частности, критерий качества управле- ния также может быть выходной переменной. Выходная переменная q зависит в первую очередь от состояния объекта управления х. Однако на нее могут оказывать влияние используемое управление и и внешние неконтролируемые факторы &. Следовательно, уравнение для выходной переменной в общем случае имеет вид q=q(n, и, •&). (6.26) Взаимодействие всех рассмотренных выше переменных можно наглядно представить в виде структуры объекта управления (рис. 6.1). 6.3.3. Уравнения движения объекта управления Под действием сигналов управления и объект управле- ния изменяет свое состояние. Характер происходящих при этом процессов определяется скоростью изменения пере- менной состояния объекта x=dx/d/, которая представляет собой многомерную величину х=(х(»,...,х<л))т, (6.27) где х(<), i=l, п — скорости изменения компонент многомер- ной переменной X. Для динамических систем, в которых физические про- цессы протекают непрерывно во времени, скорости х(‘> в какой-либо момент времени зависят от состояния ОУ в тот же момент времени, которое в свою очередь опреде- ляется значениями переменной состояния х, состоянием природы & и используемым управлением и. Эту зависи- мость можно записать в виде системы обыкновенных диф- ференциальных уравнений х(‘)=^(х, u, fl), x«>(0)=c„ i=\7n, (6.28) где с„ i=l,п характеризуют начальное состояние ОУ. 256
Иногда бывает удобно использовать векторные обозна- чения и заменить систему (6.28) одним уравнением x=g(x, и, &), х(0)=с, (6.29) где c=(ci,..., с„)т; g=(gi,gn)r — векторная функция. Выходные переменные q обычно бывают связаны с пе- ременными состояния алгебраическими уравнениями 7=Дх). (6.30) Если рассматривается статический режим, то х=0 и модель ОУ принимает вид g (х, и, ^)=0. (6.31) Введение переменной в качестве аргумента в уравне- ние (6.29) в ряде случаев оказывается неудобным, так как на протяжении одного процесса управления состояние при- роды часто остается неизменным. Однако для разных про- цессов управления состояние природы может быть раз- личным, что проявляется в изменении вида уравнения дви- жения. Эту зависимость вида уравнения от состояния при- роды удобнее отмечать просто индексом •& при функции g и записывать уравнение (6.29) как x=ge(u, х), х(0)=с. (6.32) Если состояние природы не меняется на протяжении всех рассматриваемых процессов управления, то индекс О можно не указывать. 6.3.4. Линейные модели динамических систем Поскольку входящие в уравнение (6.28) переменные х(/), и(/) и &(<) являются многомерными, т. е. векторны- ми величинами, то уравнение (6.28) является векторным, а следовательно, достаточно сложным. Положение усугуб- ляется, если g — нелинейная функция. Поскольку методы решения подобных векторных дифференциальных уравне- ний хорошо разработаны лишь для линейных систем, огра- ничимся рассмотрением только линейных динамических моделей ОУ, предполагая, что если функция g нелинейна, то ее можно линеаризовать. Для линейной функции g дифференциальное уравнение (6.28) можно представить в векторной форме х(0 =F(0 х (0 + G (/) и (/) +Г(/Н(0 • (6.33) 17—804 257
Здесь F((), G(t), Г(0 — матрицы преобразования, элемен- ты которых в общем случае могут быть функциями време- ни. Если ОУ является стационарным, т. е. не меняет своих •свойств с течением времени, то матрицы F, G, Г будут по- стоянными. Для наблюдения за поведением ОУ установлены дат- чики, дающие численную оценку всех или некоторых из переменных состояния. Выходные сигналы датчиков мож- но описать матричным уравнением z(/)=Hx(0+v(/), (6.34) Рис. 6.2. Структура линейной динамической системы где z(/)—вектор измерения; Н — матрица, связывающая вектор состояния с вектором измерения; v(t) —вектор ошибок наблюдения, которые часто называют помехой. Структура линейной непрерывной системы приведена на рис. 6.2. Пример 6.1. Управление самолетом по углу рыскания. Предположим, что осевая линия самолета под действием порывов ветра отклонилась от заданного направления у иа угол 0 (рис. 6.3). Возвращение самолета на заданный курс осуществляется с помощью руля, отклонение которого равно <р. Предполагается, что относительно осн, проходящей через центр тяжести ЦТ, самолет имеет момент инерции Л Восстанавливающая сила руля пропорциональна <р, вязким трением о воздух пренебрегаем. Уравнение движения запишем по второму закону Ньютона je=-k<p(0+m(0. где k<p(0 — восстанавливающая сила; m(t) — момент, вызванный по- рывами ветра. Разделив это уравнение на I и обозначив 6=—k/J, /I, а также принимая <р(0 за управляющее воздействие и(0, получаем 0 = 6и(0-j-'&f/). 258
Вводя в рассмотрение переменные состояния Xi=0, x2=0=xi, при- ходим к двум дифференциальным уравнениям первого порядка xi=x2; x2=bu(t) +•&(/), которые в векторной форме запишем так приходим к векторному дифференциальному уравнению вида (6.33): x=Fx(/) + G«(/)+r'&(/). Считая, что на борту самолета есть приборы, измеряющие откло- нение по углу рысканья 0=х и скорость его изменения 0=х2, и обо- значая показания приборов Z] и z2, а ошибки измерения £2, полу- чаем уравнения измерений Z| = Х1 + £|, Z2 = X2 + b> которые перепишем в виде одного векторного уравнения (6.34): z=Hx+v, Пример 6.2. Уравнение двигателя постоянного тока с управлением по цепи якоря (рис. 6.4). Обозначим: Й — скорость якоря; I — момент инерции вращающих- ся частей; Мс — момент сопротивления; MBp=kiR — момент вращения; СО — момент вязкого трения. Уравнение движения вала двигателя за- пишем по второму закону Ньютона JQ = kin—Сй—Мс. 17* 259
По второму закону Кирхгофа определим силу тока в цепи якоря: u=inRn+Lndia/dt+ea, ея=£ей или Lndin/dt=—keQ—1’я/?я4~и. Введя обозначение 0=й, эти уравнении приведем к виду J0=-C0+fciH-Mc; Lndinldt=—ke9—</?я?я+и. Рис. 6.4. Двигатель постоянного тока о управлением по цепи якоря Разделив первое уравнение на J, а второе на La и обозначив ft = =—C/J; 72=й//; О=-ЛГс//; f3=—f4=—R„/Ln; a=l/L„, по- лучим 0=ft0+fiin +Ф; dia/dt=f3Q-[-fiin +au. Введем в рассмотрение переменные состояния *t = 0, x2=ff=xi, х3=«я> запишем полученные уравнения н виде трех дифференциальных уравнений первого порядка xt=x2; x2=fIx2+f2x3+'O'; x3=f3x24-f4x3+<i«. Эта система может быть записана в виде одного некторного уравнения (6.33): x=Fx-}-GM+r0, где ,=гпг_р UU-Ш, r-i;i L 1 Lo f3 fd L a J L 0 J Для наблюдения за работой двигателя используем амперметр А в цепи якоря и датчик угла 0 на выходном валу. Обозначая показания измерительных приборов zIt z2, а ошибки измерения g2, результаты измерений запишем в виде Zt=Xt~j-|b 2г=Хз-|-?2 или z=Hx-pv, 260
где 6.3.5. Дискретные линейные системы При использовании ЭВМ управление процессами обыч- но производится в дискретные равноотстоящие моменты вре- мени tn=nT0, где То — период квантования по времени, принимаемый далее за единицу. Заменяя в (6.33) х(0, и(/) и -6(0 на х„, и„ и &„, a x.(t)=dx(t)/dt на Дх,г/7’о= =Дх„=Хп+1—х„, запишем это дифференциальное уравне- ние в виде разностного уравнения х„+1=Ф [n] Xn+G [n] u„4-r [п] &„, (6.35) где ф[и] = 1+Р[п]. (6.36) Уравнение измерений (6.34) при этом примет вид z„=Hxn+v„. (6.37) 6.4. КЛАССИФИКАЦИЯ ЗАДАЧ ОПТИМАЛЬНОГО УПРАВЛЕНИЯ 6.4.1. Одношаговые задачи принятия решения В одношаговых задачах обычно не рассматриваются методы реализации принятого решения, т. е. определяется не величина и характер управляющего воздействия и, а непосредственно значение переменной состояния систе- мы х, которое обеспечивает наилучшее достижение цели управления. Одношаговая задача принятия решения считается за- данной, если заданы пространство состояний природы 0 с распределением вероятностей £(&) для всех -&е0, про- странство решений X и критерий качества принятого ре- шения, который для этого случая будем называть целевой функцией. В литературе вместо термина «целевая функ- ция» применяют также название «функция выигрыша» или «функция потерь». Целевую функцию, выражающую в яв- ном виде цели управления, можно рассматривать как вы- ходную величину ОУ и обозначить через q. Целевую функ- цию, являющуюся скалярной величиной, зависящей от состояния природы 6 и от состояния объекта управления х, 261
по аналогии с (6.26) можно записать в виде q=q(x, Ф). (6 38) Как видим, одношаговая задача принятия решений представляет собой тройку а=(х, е, 7), (6.39) где q — скалярная функция, определенная на прямом про- изведении множеств XX©. Решение эюй задачи состоит в нахождении такого х'е еХ, которое обращает в минимум функцию q, т. е. удов- летворяет условию хЛ={хе/|7(х, Ф)=пнп}. (6.40) Заметим, что если стоит задача не минимизации, а мак- симизации функции q, то она не приведет ни к каким добавочным трудностям, так как если при х=хг функция 7(х, Ф) достигает максимума, то при том же самом х функ- ция —<?(х, Ф) будет достигать минимума. Существует ряд методов решения одношаговой задачи принятия решения. Применимость того или иного метода зависит от способа задания множества допустимых реше- ний X, от имеющейся информации о состоянии природы и от вида целевой функции q. Дадим краткую характеристи- ку основных из этих методов. Задачу называют детерминированной, если нет не- определенности в отношении состояния природы. В детер- минированных задачах пространство состояний природы 0 состоит всего из одного элемента Фо, вероятность которого равна единице. В этом случае целевая функция будет за- висеть только от состояния ОУ 9=7(х)=7(х(»..х<«>). (6.41) Одношаговую детерминированную задачу называют классической задачей оптимизации [39], если в ней имеют место ограничения вида (6.24), причем среди этих ограни- чений нет неравенств, нет условий неотрицательности или дискретности переменных, т<п и функции f,-(x(1),.. .,л-<п)) и 7(х) непрерывны и имеют частные производные по край- ней мере второго порядка. В этом случае задача формули- руется следующим образом. Даны ограничения вида /,(х<‘>...x<n>)=0, t=l,т, т<п. (6.42) 262
Найти значения х(1),.. .,х<п>, удовлетворяющие уравне- ниям (6.42) и обращающие в минимум функцию <?(х(1\... ...,х<«>). За последние годы повысился интерес к методам реше- ния одношаговой задачи, получившим название математи- ческого программирования. Эти методы дают возможность найти значения переменных х(1),..., х(п), удовлетворяющих ограничениям типа (6.24) как в виде равенств, так и в ви- де 'неравенств и обращающих в минимум целевую функ- цию ?(х). На переменные обычно накладывают добавоч- ные условия неотрицательности их значений. Следует от- метить, что математическое программирование представ- ляет собой не аналитическую, а алгоритмическую форму решения задачи, т. е. дает не формулу, выражающую окончательный результат, а указывает лишь вычислитель- ную процедуру, которая приводит к решению задачи. По- этому методы математического npoi раммирования стано- вятся эффективными главным образом при использовании цифровых вычислительных машин. Простейшим случаем задачи математического програм- мирования является задача линейного программирования. Она соответствует случаю, когда левые части ограничений (6.24) и целевая функция (6.41) представляют собой ли- нейные функции от х(1),..., х(п). В задаче линейного про- граммирования требуется найти неотрицательные значения переменных х'1',..., х<п>, которые обращают в минимум це- левую функцию <7(х<’), ..., х(п>) = 2сух(') (6.43) и удовлетворяют системе ограничений <bt, i = 1, тп. (6.44) Любую задачу математического программирования, от- личающуюся от сформулированной, называют задачей не- линейного программирования. В задачах нелинейного про- граммирования или целевая функция (6.41), или левые части ограничений (6.24), или то и другое являются нели- нейными функциями от х<1>,.. .,х(">. Однако к задаче не- линейного программирования относится и такая, в которой целевая функция и ограничения имеют вид (6.43) и (6.44), но предполагается, например целочисленность переменных. 263
Эта последняя задача получила название задачи целочис- ленного программирования. Одношаговую задачу принятия решений называют стохастической, если пространство состояний природы О состоит более чем из одного элемента, так что известным является не действительное состояние природы &, а рас- пределение вероятностей В('й') на пространстве 0. Стохастические задачи, требующие нахождения значе- ний переменных, удовлетворяющих ограничениям (6.24) и обращающих в минимум целевую функцию (6.38), назы- вают задачами стохастического программирования. Одна- ко во многих случаях путем несколько иного определения целевой функции задачи стохастического программирова- ния могут быть сведены к задачам линейного или нели- нейного программирования. Действительно, так как состояние природы & является случайной величиной с рас- пределением вероятностей £('&) на пространстве 0, то и значение q(x, &) при данном х=(х<1>,..., х(п))т также бу- дет случайной величиной с тем же распределением вероят- ностей !(&) на пространстве 0. Поэтому в данном случае за целевую функцию целесообразно принять математиче- ское ожидание функции q(x, &) на пространстве 0. Таким образом, для случайных процессов согласно (5.52) целевая функция <Мх) = Sw? (*.*)• (6-45) 8ge Поскольку qi (х) является детерминированной функци- ей от х, то задача нахождения переменных х(1),..., х<">, удовлетворяющих ограничениям (6.24) и обращающих в минимум целевую функцию (6.45), может быть решена методами линейного или нелинейного программирования. Важным случаем одношаговой стохастической задачи принятия решения является случай, когда величины х„ i==17n могут принимать лишь конечное множество значе- ний. Методами решения таких задач занимается раздел математики, получивший название теория статистических решений. В настоящее время большое внимание уделяется зада- чам, в которых решение принимается не одним лицом, а несколькими (например, двумя), причем интересы этих лиц противоположны. Примером может служить задача преследования, в которой расстояние между преследова- телем и преследуемым зависит от решений и действий 264
обоих этих лиц. При этом преследователь заинтересован в том, чтобы предельно сократить это расстояние, а пре- следуемый в том, чтобы сделать его по возможности наи- большим. Подобные задачи получили название конфликт- ных ситуаций, а методы их решения рассматриваются в теории игр. Лица, принимающие решения, называют игроками. Поскольку в конфликтной ситуации решения каждым из игроков принимаются независимо от решений, прини- маемых другим игроком, при математическом описании конфликтной ситуации пространство решений следует рас- сматривать как прямое произведение двух множеств XXУ, где X={xi,