Текст
                    Л. Т. КУЗИН
основы
КИБЕРНЕТИКИ
Том 1
МАТЕМАТИЧЕСКИЕ
ОСНОВЫ КИБЕРНЕТИКИ
Допущено Министерством высшего
и среднего специального образования
СССР в качестве учебного пособия для
студентов высших технических учебных
заведений, обучающихся по специально¬
стям «Автоматизированные системы уп¬
равления» и «Прикладная математика»
«ЭНЕРГИЯ» • МОСКВА
1973


6Ф6.5 К 89 УДК 007 (075.8) / Кузин JI. Т. К 89 Основы кибернетики. Т. 1. Математические основы кибер¬ нетики. Учеб. пособие для студентов втузов. М. «Энергия», 1973. 504 с. с ил. Книга содержит систематическое и капитальное изложение мате¬ матических основ кибернетики для инженеров, лишенное ненужных математических детализаций и в то же время не снижающееся до грубого элементарного стиля. После рассмотрения общеметодологичес¬ ких вопросов кибернетики дается последовательное изложение мате¬ матической статистики, теории информации и кодирования, методов оптимизации. Книга предназначена для студентов старших курсов вузов, аспи¬ рантов и инженеров, специализирующихся в области кибернетики. к 3313-472 14д ?3 6ф6 5 -7 о © Издательство «Энергия». 1973 г.
ПРЕДИСЛОВИЕ Интенсивное внедрение электронных цифровых вычислительных машин во все сферы человеческой деятельности, разработка и внедре¬ ние автоматизированных систем управления очень остро поставили проблему подготовки и переподготовки кадров, специалистов по ки¬ бернетике и системному программированию. Особенность научно- технической революции, заключающаяся в одновременности решения научных и технических проблем, теоретических и практических во¬ просов, обусловила появление специалиста нового типа — инженера- математика, сочетающего глубокие теоретические знания с инженер¬ ными навыками, эффективно использующего достижения математики в конкретной практической деятельности. Специалист такого профиля может стимулировать или сам разрабатывать прикладные разделы математики, предназначенные для решения инженерных задач, воз¬ никающих в его практической деятельности, и внедрять новые методы исследования. Рациональное сочетание математических и инженерных знаний позволит инженеру-математику разрабатывать и внедрять но¬ вые технические системы даже при отсутствии их теоретических основ. Но необходимо отметить, что подготовка таких специалистов ослож¬ няется тем, что учебные руководства в ряде случаев не успевают за развитием новых отраслей кибернетики. Данное пособие сформировалось в результате чтения курсов лек¬ ций в Московском инженерно-физическом институте в течение 1963— 1972 гг. студентам старших курсов, а также работникам промышлен¬ ных предприятий. Содержание пособия удовлетворяет содержанию квалификации «инженер-математик», т. е. в нем изложены основные математиче¬ ские методы кибернетики без ненужного для инженера углубления в математические тонкости и без снижения до примитивного уровня изложения. Найти во всех разделах кибернетики такую оптимальную з
грань между «чистой» и «инженерной» математикой оказалось нелег¬ кой задачей, и автор признает, что ему не везде это удалось. При подборе материала автор исходил из стремления изложить основные методы кибернетики с разных позиций так, как они сформи¬ ровались к настоящему времени, в ущерб требованию их методиче¬ ского единства, поскольку инженер-кибернетик должен владеть всеми основными методами управления, даже если они недостаточно идео¬ логически связаны между собою. Данная книга — первый том общего руководства по «Основам кибернетики». В нее включены три раздела математических основ кибернетики (они же составляют три структурные части книги): «Математическая статистика», «Теория информации и кодирования» и «Методы оптимизации». Кроме того, в книгу входит вводный раздел, содержащий общие сведения о кибернетике. Автор далек от мысли, что ему удалось изложить вводную часть наилучшим образом, так как объединение структурных частей кибернетики, формирование ее содержания как науки об управлении, имеющей дело с преобразова¬ нием информации, оказалось довольно сложным при современных темпах развития кибернетики. В конце вводной части приводится структура кибернетики, поло¬ женная в основу построения книги. Данное учебное пособие предназначено для студентов специаль¬ ности «Прикладная математика», оно также может быть использовано при подготовке инженеров по специальности «Автоматизированные системы управления». Большую помощь оно может оказать аспиран¬ там и инженерам, желающим повысить свое образование в области кибернетики. Автор предполагает, что читатель знаком с курсом выс¬ шей математики и, в частности, с теорией вероятностей в объеме, предусмотренном программой, утвержденной для вузов. Большую помощь автору в составлении пособия оказали прежде всего Т. Н. Артемова и коллектив кафедры кибернетики Москов¬ ского инженерно-физического института и главным образом Б. А. Щу¬ кин, А. А. Аглинцев, М. И. Фардзинова, И. П. Гайдаренко, А. Б. Пре¬ ображенский, О. А. Скоркин, В. В.'Шеменева, В. В. Черняев. Автор приносит благодарность им, а также всем, кто прямо или косвенно способствовал выходу этой книги, и надеется, что она может ока¬ зать помощь студентам, аспирантам и инженерам, изучающим новую науку об управлении — кибернетику, Автор
ВВЕДЕНИЕ В КИБЕРНЕТИКУ (ОБЩИЕ СВЕДЕНИЯ) Появление вычислительных машин ознаменовало начало второй промышленной революции. Следует заметить, что чаще используется термин «научно-техническая революция», который подчеркивает одно¬ временность коренных изменений в технике и науке, чего не наблюда¬ лось в первой технической революции. Ее начало обычно связывают с изобретением паровой машины Уатта (1784 г.) [Л. 1—6]. Первая техническая революция механизировала различные об¬ ласти производства: мускульная сила была заменена машинами. Можно сказать, что первая техническая революция касалась энерге¬ тической стороны явлений, тогда как вторая в основном затрагивает информационные аспекты процессов. Одной из задач второй техниче¬ ской революции, начало которой можно отнести к 1945 г., является автоматизация производственных « других процессов: замена чело¬ века вычислительными и кибернетическими машинами в процессе управления. Речь идет о создании машин, способных частично заме¬ нить человека в сфере его умственной, интеллектуальной деятель¬ ности, которые были бы своего рода усилителями человеческого ин¬ теллекта, так же как электрические, механические, гидравлические машины являются усилителями мускульной силы человека. Современный уровень техники требует полной или частичной авто¬ матизации управления процессами. Например, кибернетические ма¬ шины необходимы в химическом и ядерном производствах для,пред¬ сказания возможного течения процесса и исключения его вредного влияния на человека; все незаменимее становятся цифровые вы¬ числительные машины (ЦВМ) для обработки информации, интенсив¬ ность которой увеличивается по экспоненциальному закону и удваи¬ вается каждые десять лет. Характерной особенностью автоматизированных систем управле¬ ния (АСУ) является применение ЦВМ в организационной сфере дея¬ тельности человека, которая связана с переработкой больших масси¬ вов информации, содержащейся в деловых документах, выработкой и принятием решений. Внедрение автоматизированной обработки информационных дан¬ ных приведет к замене деловой информации в виде печатного слова 5
ее представлением на магнитных носителях (магнитных лентах, дис¬ ках и т. д.). Соединение телевизионной и вычислительной техники позволит создать системы нового типа — биосистемы человек — ма¬ шина, с помощью которых удастся осуществить общение человека с ЦВМ и банком данных на магнитных носителях и «перекачку» чело¬ веческого интеллекта в ЦВМ, которая с течением времени приведет к созданию искусственного разума. Автоматизированные методы обработки информации, разработан¬ ные в кибернетике, имеют отношение к-специалистам любой профес¬ сии: будь то физик, химик или инженер-технолог, так как все они имеют дело с переработкой деловой, технической, научной и любой другой информации. Эта особенность придает кибернетике универсаль¬ ный характер и возводит ее в категорию фундаментальных наук. В-1. ИСТОКИ КИБЕРНЕТИКИ Для того чтобы управлять, необходимы технические средства управления: датчики для съема информации, исполнительные устрой¬ ства, вычислительные машины. Но -прежде всего необходима наука об управлении, которая дала бы в руки человека эффективные методы и приемы. Такой наукой является кибернетика, название которой происхо¬ дит от соединения двух греческих слов: «кибер» (в переводе «над») и «наутис» (моряк), т. е. «кибернаутис» — старший над моряками, глав¬ ный моряк, кормчий. Греческий философ Платон впервые использовал термин «кибернетика» в смысле искусства управления обществом. В XVIII в. французский ученый Ампер, составляя классификацию наук, также назвал кибернетикой науку об управлении обществом. Но в то время эта наука не имела математической и технической основы, и этот термин был на 200 лет забыт. В 1948 г. Винер в своей книге «Кибернетика или управление и связь в животном и машине» возродил этот термин в более широком, современном смысле и наметил по существу программу развития кибернетики. В этой книге четко высказано утверждение о том, что кибернетика как наука об управ¬ лении в живом и неживом мире основывается на математике и вычи¬ слительных машинах [Л. 1—5]. Нам представляется, что кибернетика много взяла от разных наук. Исторически она создавалась как бы по двум направлениям. С одной стороны, многие науки — физика, химия, экономика, радио¬ техника, медицина, биология и т. д. — на определенном этапе своего развития в стремлении активно воздействовать на изучаемые явления и управлять ими стали создавать математические или кибернетические модели этих явлений. Случилось так, что различные по природе, явле¬ ния, изучаемые разными науками, стали описывать одинаковыми математическими моделями. Например, движение ракеты, работа промышленного предприятия, процесс размножения клеток могут быть описаны дифференциальными уравнениями. Для управления этими различными по природе явлениями потребовались одни и те же мате¬ матические методы автоматизированной обработки информации, а 6
также технические средства, начиная от ЦВМ и кончая устройствами ввода и вывода информации. С другой стороны, математики, понимая все значение задач управления, стали разрабатывать методы, которые позволили бы наиболее полно и адекватно описывать различные про¬ цессы с информационной точки зрения, находить оптимальные режимы управления, а также автоматически обрабатывать информацию с по¬ мощью ЦВМ. Благодаря потребностям кибернетики за последние годы получили интенсивное развитие такие новые разделы в математике, как теория оптимального управления, теория устойчивости движе¬ ния, теория алгоритмов. В результате совместных усилий появились универсальные мате¬ матические методы автоматизированной обработки информации любой специфики с помощью ЦВМ, общие математические модели управления различными по природе явлениями, методы отыскания оптимального процесса управления и многое другое, что составило содержание науки кибернетики. Благодаря деятельности кибернетиков, системных программистов, математиков, главным образом в разработке и внедрении АСУ, появи¬ лись совершенно новые методы переработки информации для управле¬ ния, новые методы ее представления и выдачи человеку. С помощью этих методов и специальных технических средств человек может общаться с большими массивами информации, записанными на маг¬ нитных носителях. Взамен бумажных деловых документов и книг появились документы на магнитных носителях (магнитных лентах, барабанах и дисках). Человек в процессе управления должен на¬ учиться «читать» информацию, записанную на магнитных носителях, так же свободно, как печатные документы и книги. При этом благо¬ даря большому уровню автоматизации производительность процесса получения информации повышается на несколько порядков. В некоторых научных кругах распространена тенденция — во¬ просы, находящиеся в компетенции кибернетики, объединять терми¬ ном «прикладная математика». Действительно, круг проблем, описы¬ ваемых прикладной математикой, настолько широк, что позволяет в ее рамках наряду с другими разделами рассматривать и кибернети¬ ческие методы, тем более что имеются руководства по математическим основам физики, химии, квантовой механики и т. д. Однако у кибер¬ нетики, так же как и у другой самостоятельной науки, есть свой спе¬ цифический объект исследования — процессы управления и преобра¬ зования информации, что позволяет ей быть фундаментальной наукой. Нам представляется возможным разделить кибернетику на общую, изучающую принципы и методы управления, справедливые для лю¬ бых систем, и специальную, в которой изучаются специфические ме¬ тоды управления определенными классами систем, методы составле¬ ния кибернетических моделей этих систем. Поэтому с этой точки зре¬ ния^ правомерно ввести названия специальных кибернетик: физиче- ск°и, химической, технической, экономической, военной и т. д. Б научно-технической литературе часто встречается термин «иссле¬ дование операций», который в большинстве случаев совпадает с поня¬ тием кибернетики при нашей трактовке ее содержания. 7
Характерная особенность методов исследования операций заклю¬ чается в расчленении (представлении) исходного процесса на сово¬ купность мелких операций, что позволяет лучше понять поведение исходного процесса. Так, в случае применения сетевого планирования исходный комплексный проект представляется в виде совокупности отдельных работ, которых может насчитываться несколько тысяч. Однако кибернетика также содержит в своем арсенале методы сете¬ вого планирования, и различие в подходе заключается в методологии изучения явлений. Кибернетика на первое место выдвигает преобра¬ зование информации, а теория исследования операций — представле¬ ние исходного процесса в виде совокупности мелких операций. Иногда указывают на то, что исследование операций рассматривает мате¬ матические методы управления массовыми явлениями, вопросы орга¬ низации, тогда как кибернетика наряду с этим исследует процессы управления отдельными объектами. Однако процесс управления от¬ дельным объектом можно расчленить на совокупность операций и, применив методы исследования операций, свести его по существу к массовому явлению. Такая путаница в терминах возникла, по- видимому, из-за того, что в современном понимании исследование операций появилось раньше, чем кибернетика: в 1942—1943 гг. анг¬ лийские ученые и инженеры ввели этот термин для обозначения науки, занимающейся математическими методами организации сложных си¬ стем, а термин «кибернетика» появился позднее в США (1945—1946 гг.) для обозначения науки об управлении [Л. 1, 7J. В результате быстрых темпов научно-технической революции по¬ является много новых научных направлений и теорий. Некоторые из них имеют под собой серьезную основу и право на длительное суще¬ ствование. Так, благодаря необходимости системного подхода при разработке АСУ и других кибернетических систем появилась теория систем, также противопоставляемая кибернетике как теория, в кото¬ рой на первое место выделяются не информационные принципы, а вопросы сложности. Однако следует заметить, что кибернетика немыслима без теории систем, так как она занимается системами управления, правда с информационной точки зрения. Но, как будет видно из дальнейшего, мера информации существенным образом за¬ висит от размеров и сложности системы. Наконец, в литературе по¬ явился новый термин «информатика», который объединяет методы обработки информации, не предусматривающие процесс управления или передачу информации по каналам связи (например, перевод с од¬ ного естественного языка на другой, поиск заданного типа информа¬ ции и т. д.). Однако практически все приемы обработки информации, разработанные в информатике, применяются в системах управления. В-2. ОСНОВНЫЕ ЧЕРТЫ КИБЕРНЕТИКИ Первой особенностью кибернетики является информацион¬ ный подход к процессам управления. Можно сказать, что там, где имеет место переработка информации с целью управления, при¬ сутствует кибернетика. Если при механизации имеют дело с энергией 8
(ее усилением или преобразованием из одного вида в другой), то при автоматизации управления на первый план выдвигаются информа¬ ционные свойства сигналов: на основании информации о состоянии систем вырабатываются такие информационные свойства сигналов, при которых процесс управления протекает оптимально в определенном смысле. Наиболее отчетливо проявляется информационный подход в ки¬ бернетике при проектировании АСУ. В них создается информацион¬ ное обеспечение, основными составляющими которого являются информационная модель предприятия и банк данных. Информа¬ ционная модель предусматривает создание схемы документо¬ оборота предприятия, в которой отражается структура и динамика образования всех документов, циркулирующих на предприятии. За- моделированная на ЦВМ такая схема при наличии устройств ввода- вывода информации со временем приведет к полному исчезновению деловых бумажных документов и замене их магнитными носителями [Л. 8]. Банк данных предусматривает организованное хранение, главным образом на магнитных носителях (иногда на перфолен¬ тах и перфокартах), всей информации справочного, нормативного и другого характера, которая используется на предприятии. Это позволяет при наличии программного обеспечения автоматически подготавливать необходимые данные для любого документа: сетевого графика, ведомости заработной платы, ведомости применяемости де¬ талей и т. д. Банк данных позволяет автоматизировать самый трудоем¬ кий процесс: подготовку исходных данных. Такое построение инфор¬ мационного обеспечения справедливо для любой кибернетической системы, имеющей дело с бумажными документами. Создание и экс¬ плуатация такой машинной организации данных требуют разработки специальной теории информации, отличной от классической теории, разработанной в теории связи. В первые годы становления кибернетики интенсивно использо¬ валось понятие количества информации по Шеннону, заимствованное из теории связи и основанное на вероятностной, стохастической при¬ роде сигналов. В соответствии с этим понятием количество информа¬ ции передаваемого сообщения не зависит от его смыслового содержа¬ ния. По Шеннону в телеграмме, содержащей одинаковое число слов, бессмысленной и содержащей смысл, имеется одно и то же количество информации. Иногда это является положительным явлением, так как абстрагирование от смыслового содержания (семантики) информации позволяет получать ценные количественные характеристики. Однако чаще отсутствие смысловой информации мешает решению важных проблем. Методы количественной оценки семантики информации, развивае¬ мые в работах Бар-Хиллела и Карнапа [Л. 9], Колмогорова [Л. 10] и др., требуют дальнейшей существенной доработки в части прибли¬ жения к требованиям инженерной практики. Следует признать, что разработка количественной меры семан¬ тики информации — завтрашний день кибернетики. 9
При машинной обработке информации (перевода с одного естест¬ венного языка на другой, поиске нужной информации и т. д.) потре¬ бовался машинный образ информационного объекта, который цирку¬ лирует в ЦВМ в виде сигналов. Оказывается совершенно недостаточно приписать какому-то объекту (транзистору) какое-нибудь число (код). Необходимо, чтобы в машине присутствовал определенный семан¬ тический образ объекта, аналогичный тому, который имеется у специалиста по данному вопросу. Например, П14 — полу¬ проводник структуры р-п-р, низкочастотный, используется в усили¬ телях низкой частоты и т. д. Совокупность таких признаков (дескрип¬ торов) называется рабочей ветвью, а множество таких ветвей для всех объектов, фигурирующих в системе, — тезаурусом системы. Уже в основополагающей книге Н. Винера подчеркивалась осо¬ бенность кибернетики, состоящая в установлении законов управле¬ ния, общих для живой и неживой природы. Наиболее отчетливо взаи¬ модействие этих двух классов систем проявляется в современных автоматизированных системах управления, предназначенных для за¬ мены управленческого труда в производстве. Эти системы по существу относятся к системам нового типа — биосистемам человек — машина. В результате системного обследования составляется сцена¬ рий работы организатора производства, который в дальнейшем реализуется в ЦВМ в виде комплекса информационно-программных средств. Тем самым методы управления, принятия решений человеком реализуются в искусственных технических системах. С другой сто¬ роны, на основе теории систем автоматического регулирования могут быть построены искусственные органы человека такие, как почки, сердце и т. д. и включены вместо естественных. Здесь имеет место проникновение технических систем в живые. В качестве еще одного примера можно указать на многослойные нейроподобные распозна¬ ющие среды, широко используемые в технике. Следующей особенностью кибернетики является моделиро¬ вание — сведение процессов управления к кибернетическим мо¬ делям. Одна и та же модель может применяться для разработки опти¬ мального управления парикмахерскими, счетчиками космических ча¬ стиц, системой противовоздушной обороны, процессами наследствен¬ ности и пр. Как только процесс управления сведен к одной из кибер¬ нетических моделей, далее уже безразлично, какой конкретно это процесс: физический, экономический и т. д., так как кибернетические методы исследования всех моделей одни и те же. В этом смысле, ме¬ тоды кибернетики аналогичны методам теории колебаний, которую в настоящее время можно, по-видимому, рассматривать как раздел кибернетики, занимающийся управлением процессами возникновения и поддержания колебаний с заданными параметрами [Л. И]. Приведем несколько примеров кибернетических моделей, которые широко используются при исследовании систем управления, прежде всего модель в виде автоматической системы регулирования (АСР). Вся система регулирования представлена в виде структурной схемы (рис. В-1), состоящей из отдельных звеньев Yx (s), V2 (s). Как пра¬ 10
вило, во всех системах имеется звено сравнения управляющего (вход¬ ного) сигнала хих с сигналом обратной связи (в данном случае хпЬ1Х). Принцип обратной связи, позволяющий получить более высокое каче¬ ство управления, широко используется в кибернетике. Каждое звено модели исследуемой системы описывается дифференциальным урав¬ нением или передаточной функцией (в случае линейных систем с по¬ стоянными параметрами). Эта кибернетическая модель преобладает при исследовании систем управления ракетой, электродвигателем и т. д. Структурный подход к исследованию позволил создать частот¬ ный графоаналитический метод расчета и проектирования. Инженера- кибернетика, который проектирует АСР с электродвигателем, мало интересует число обмоток этого двигателя, его электрические пара¬ метры и т. д. Он прежде всего хочет знать частотные свойства электро¬ двигателя и других элементов системы, их амплитудно- и фазо-частот- ные характеристики. Ему важно определить, какие частоты пропус¬ каются, какие подавляются, какое запаздывание по фазе вносится на определенных частотах, критических для систем (частоте среза и пр.). По существу в течение многолетней практики проектирования выра¬ ботался специфический частот¬ ный язык, с помощью кото¬ рого инженер как бы общается с системой. Этот пример слу¬ жит хорошей иллюстрацией информационного подхода к исследованию кибернетиче¬ ских систем. К сожалению, для расчета других кибернетических мо¬ делей (сетевых, лингвистических) нет такого же эффективного метода. Есть попытки использовать модель автоматического регулирования при исследовании экономических систем типа промышленного предприя¬ тия. Однако для таких систем, которые в кибернетике называются большими системами, модель, использующая аппарат диф¬ ференциальных уравнений, малопригодна. В этом случае наиболее применима сетевая модель в виде графа, называемого транспорт¬ ной сетью или сетевым графиком (рис. В-2). Каждая отдельная работа (обточка детали, монтаж электронной схемы и т. д.) изображается в виде дуги графа, причем вершина, из которой она исходит, соответствует началу работы, а вершина, в которую она 11
входит, концу работы. Сетевой график может насчитывать не¬ сколько тысяч ребер. Важно заметить, что поскольку время выполне¬ ния работы считается случайной величиной, то сетевой график — это вероятнобтная модель системы. Она хорошо соответствует реаль¬ ному производственному процессу, но‘Громоздка. Здесь уместно оста¬ новиться на уровне абстракции модели [Л. 11]. Любая кибернетиче¬ ская модель должна соответствовать реальной системе и в то же время обладать определенным уровнем абстракции, благодаря которой систему представляется возможным исследовать. В этом смысле модель автоматического регулирования очень удобна для вычислений, но, обладая слишком высоким уровнем абстракции, она пло^о соответст¬ вует реальному производственному процессу. Сетевая модель хорошо соответствует реальному процессу, в ней присутствуют понятия, из¬ вестные любому специалисту, не знающему математики (работа, время выполнения работы, начало работы и т. д.),.но из-за низкого уровня абстракции она сложна при расчетах. Более подходящей для исследования работы промышленного предприятия является модель в виде сети массового обслуживания (СМО) (рис. В-3). В этом случае для каждой работы выделяется узел сети, представляющий собой отдельную систему массового обслужи¬ вания со своим (как правило, случайным) законом обслуживания. Между различными узлами циркулируют потоки изделий — заявки. Такая кибернетическая модель имеет больший уровень абстракции, чем сетевая, достаточно хорошо соответствует реальной системе и удобна для исследования. Наконец, в качестве кибернетической модели промышленного предприятия или большой системы можно использовать лингви¬ стическую модель [Л. 4, 12, 13]. В этом случае система упо¬ добляется живому организму со своей логикой поведения, своим «разумом». С помощью методов структурной лингвистики создается грамматика поведения системы с определенными син¬ таксическими правилами и семантика с использованием про¬ цедуры обучения на известных примерах поведения. Упрощенно под семантикой понимается система правил, позволяющих отделить пра¬ вильные, разумные решения от неправильных. Лингвистическая мо¬ 12
дель, обладающая большими логическими возможностями, наилуч¬ шим ’образом описывает поведение систем, в которых существенную роль играют люди, так как представляется возможным (через семан¬ тику) учесть элементы их разумного, творческого поведения. Термин «лингвистический» означает использование методов, развиваемых в ма¬ тематической лингвистике, которая исследует алгебраическими мето¬ дами естественные языки. Применительно к большим системам чаще используется термин «семиотическая система» [Л. 14, 15]. * Семиотические или знаковые системы или модели в широком смысле определяются как системы, состоящие из знаков, между которыми установлены определенные отношения. В качестве знаков могут фигурировать мимика,, жесты человека или животных, рукописные знаки и т. д. В широком смысле под лингвистическими моделями понимаются системы, состоящие из слов, подчиняющихся определенной взаимо¬ связи. В качестве слов могут быть использованы слова и фразы есте¬ ственного языка, жесты, счетные палочки и т. д. При таком понима¬ нии лингвистические методы мало чем отличаются от семиотических методов исследования. В семиотических методах в отличие от лингви¬ стических часто подчеркивается физическое существование семиоти¬ ческих моделей аналогично тому, как специалисты по АСР всегда имеют в виду конкретную АСР (например, АСР давления пара, уровня жидкостей и т. д.). Однако будем считать, что любая модель системы (сетевая, массового обслуживания и т.д.) становится семиотической, когда ее записывают в виде программы в кодах машины или на каком- нибудь алгоритмическом языке (СЛЕНГ или СИМУЛА) для модели¬ рования на ЦВМ. Не менее важной чертой кибернетики, ставшей наиболее четкой в связи с разработкой АСУ, является системный подход к исследованию процессов управления. Системность предполагает единое комплексное рассмотрение и проектирование системы управле¬ ния в целом и представляет достаточно сложное переплетение органи¬ зационных, информационных, математических, программных и тех¬ нических средств и приемов. Первый этап разработки АСУ состоит в системном обследовании объекта, который предполагается автома¬ тизировать, в результате чего уточняется его функциональная струк¬ тура, объем массивов информации и документов, циркулирующих в нем. Системность достигается единым информационным, математи¬ ческим и техническим обеспечениями в отдельных функциональных подсистемах (например, финансово-бухгалтерской, планово-производ¬ ственной, материально-технического снабжения и т. д.). При этом во всех подсистемах используются технические устройства одной из вы¬ числительных систем (или «Минск-32», или ЕС ЭВМ), одна и та же система автоматизированной обработки данных (например, КОБОЛ - система) и единое представление информации на магнитных носителях, одна и та же система программирования с единой библиотекой стан¬ дартных программ и операционной системой. С другой точки зрения системность предусматривает оптимальное распределение ресурсов 13
(финансовых, весовых, объемных, временных и т. д.) между отдель¬ ными частями технических средств системы, такими как терминаль¬ ные устройства, линии связи, внешние устройства ЦВМ, оперативная память ЦВМ, процессор ЦВМ, а также оптимальное распределение функционального вклада в систему между математическими моделями, алгоритмическим, программным и техническим обеспечениями. Си¬ стемность не допускает, например, простаивания терминалов с або¬ нементами из-за ограниченных возможностей линий связи или процес¬ сора ЦВМ из-за неподготовленности информационных массивов. В этом случае следует вложить больше средств в систему связи ^а счет уменьшения средств на собственно вычислительную машину. Нередки случаи, когда в результате некачественно выполненного системного обследования требования по точности в одних подсистемах нерацио-. нально высоки по сравнению с предельно реализуемым значением ошибок в других подсистемах. При этом получается, что дополнитель¬ ные ресурсы, вложенные для получения этой высокой точности, не¬ оправданны, так как нет положительного эффекта для всей системы. Следующая особенность кибернетики — это вероятност¬ ный статист и ческийподход к процессам управления. Эта концепция взята из статистической физики. Известно, что пове¬ дение газа в сосуде определяется случайным движением отдельных молекул. Однако молекулярная физика, статистически усредняя ста¬ тистику движения молекул, получила детерминированные законы по¬ ведения газа (законы Бойля — Мариотта, Гей-Люссака). Аналогично считать, например, что вызовы на телефонной стан¬ ции — случайные события во времени, так как каждый вызов опре¬ деляется большим количеством факторов, учесть которые невозможно. Однако зная статистические характеристики случайных вызовов, с помощью кибернетической модели массового обслуживания можно определить оптимальные законы управления телефонной сетью. Кибернетика считает, что любой процесс управления подвержен случайным, мешающим воздействиям. Это в одинаковой мере отно¬ сится к любой системе управления. Например, на производственный процесс влияет так много факторов (состояние станка, рабочего, каче¬ ство материала, своевременность доставки комплектующих изделий и пр.), что учесть их детерминированным образом нельзя. Поэтому считается, что на производственный процесс воздействуют случайные сигналы и при управлении производством следует исходить из того, что планирование может быть только вероятностным, и выполнение плана к определенному сроку можно ожидать с какой-то вероятностью (например, р = 0,9). Так же радиолокационная антенна в своей работе подвержена случайным флюктуациям, вызванным отражением сигнала от цели и собственными шумами приемника. Поэтому и здесь можно обсуждать только вероятность (не более определенной ошибки)'от¬ клонения антенны от направления на цель. Иногда для уменьшения объема детерминированной информации с сохранением ее основных черт кибернетика искусственно вводит случайность. Например, производственный процесс состоит в вы¬ пуске нескольких сотен типов электронных блоков, каждый из кото- 14
пых изготовляется в разных количествах (от сотни до тысячи). Вместо всего множества этих блоков можно ввести некоторые абстрактные эталонные блоки, появляющиеся (материализующиеся) случайным образом э виде реальных блоков с частотой появления, определяемой относительным количеством этих блоков. В результате такой про¬ цедуры сложная детерминированная исходная информационная система заменяется более простой эквивалентной вероятностной информацион¬ ной системой. Аналогичная процедура часто применяется при решении задач опти^зации и синтеза алгоритма управления. Такие задачи (напри¬ мер, распределение ресурсов или синтез конечных автоматов) в детер¬ минированной постановке требуют нереально большого объема вы¬ числений. Перевод этих задач из детерминированных в вероятност¬ ные существенно сокращает объем вычислений, хотя и не позволяет получить точного решения. В-З. МЕТОДЫ КИБЕРНЕТИКИ Вряд ли целесообразно излагать все методы кибернетики; их доста¬ точно много, и они подробно будут рассмотрены в последующих раз¬ делах книги. Поэтому здесь будут изложены только основные инже¬ нерные методы, применяемые почти во всех разделах кибернетики для исследования большинства кибернетических моделей. Начиная с АСР и кончая лингвистическими системами управле¬ ния в кибернетике, при инженерных расчетах и проектировании ши¬ роко применяют структурные методы (структурные схе¬ мы), использующие геометрическое представление системы, т. е. ме¬ тоды или процедуры в виде графа. Структурные методы исследования АСР вытеснили все другие методы. Они используют геометрическое представление системы в виде направленного графа и при структур¬ ных преобразованиях применяют правило Мэзона. Их применяют при расчете электрических цепей, электрических машин, электрон¬ ных схем высокочастотных электромагнитных линий и устройств. Изображение в виде графа применяется в системах массового обслу¬ живания, теории игр, теории детерминированных и вероятностных автоматов, при сетевом планировании, матричных расчетах и, нако¬ нец, лингвистических методах анализа и синтеза. Во всех случаях геометрическое' изображение в виде графа включает дополнительный участок мышления инженера, помогая ему найти оптимальное решение. До последнего времени преобладающим инженерным методом рас¬ чета систем управления был метод дифференциальных Уравнений, который применительно к АСР был трансформиро¬ ван в частотный структурный метод. Применение этого метода обусловливалось тем, что в центре внимания научно-техниче¬ ской мысли были системы управления, поведение которых достаточно хорошо описывалось аппаратом дифференциальных уравнений. Это — системы типа наведения ракеты, управления антенной. При управле¬ нии большими системами (промышленным предприятием) также при¬ 15
менялся аппарат дифференциальных уравнений, однако здесь он, как правило, плохо описывал явления и мало помогал при расчете и про¬ ектировании. Поэтому для описания таких систем метод дифферен¬ циальных уравнений был заменен топологическим мето¬ дом с использованием алгебры, логики, теории графов и комбина¬ торного исчисления. Это дало, в частности, в сетевых методах пла¬ нирования возможность учитывать отдельные дуги (работы) и в то же время получить обобщенные характеристики всей системы, такие как минимальный разрез, максимальный поток, минимальное дерево и пр. Такое положение способствовало развитию и популярности в ки¬ бернетике методов так называемой дискретной матема¬ тики, которая не использует таких понятий непрерывной матема¬ тики, как непрерывность, дифференцируемость. Вопрос о диалектиче¬ ском взаимоотношении непрерывной и дискретной математики, об отдельных исторических этапах интенсивного развития одних и замед¬ ленной эволюции других ее методов неоднократно обсуждался. Интен¬ сивное' внедрение кибернетики и ЦВМ в различные области науки и техники оказало влияние и на такую фундаментальную науку, как математика, инициировав развитие дискретных методов исследования. Очевидно, что современные высокие темпы научно-технической рево¬ люции требуют включения в общематематическую подготовку инже¬ неров разделов дискретной математики. Уже в первых АСР применялся принцип обратной связи, который в дальнейшем перерос вметоды самонастройки, само¬ организации и самоусовершенствования. Так, при распознавании образов (печатных букв) с помощью специализи¬ рованных вычислительных машин или вычислительных сред исполь-. зуется режим обучения с учителем и без учителя, в обученной машине предусматривается возможность дообучения, т. е. режим самоусовер¬ шенствования, самонастройки. Проблемы обучения (настройки) линг¬ вистической математической среды семантике (правилам построения правильных решений) аналогичны обучению человека в учебных за¬ ведениях. Как пример самонастраивающихся алгоритмов интересен проб¬ лемно-ориентированный язык АЛГОС [Л. 16], который относится к списочно-логическим языкам. При решении задач с его помощью оптимальный алгоритм формируется в зависимости от исходных дан¬ ных. Так, если решается система линейных алгебраических уравне¬ ний, алгоритм учитывает нулевые коэффициенты в уравнениях. Ус¬ пешно использует методы самонастройки теория автоматического ре¬ гулирования. Одна из идей самонастройки заключается в том, что на специализированной вычислительной машине моделируется предпо¬ лагаемый процесс управления в ускоренном масштабе времени (в не¬ сколько раз более быстром, чем реальный процесс управления). Бла¬ годаря этому удается путем многих пробных моделирований каждый раз выбирать закон управления. В большинстве других систем опре¬ деляется экстремальное значение отдельных показателей качества работы и система выводится на этот экстремум. 16
Различают два типа самонастраивающихся систем: аналити¬ ческие, в которых система настраивается на оптимальные пара¬ метры, полученные аналитически по характеристике сигналов, и поисковые, в которых экстремум неизвестен и система выво¬ дится на экстремальные значения путем последовательности пробных шагов. Для обоих типов систем важно определить экстремум ф у н к ц*и онала ифункции, т. е. отыскать глобальный максимум среди локальных экстремумов. Поэтому кибернетика уделяет такое большое внимание различным методам оптимизации. В классическом вариационном исчислении, в основе ко¬ торого лежит метод Эйлера — Лагранжа, и его дальнейших разви¬ тиях в плане динамического программирования и принципа макси¬ мума определяется оптимальная функция управления, которая при¬ дает функционалу, в виде которого записан критерий оптимальности, экстремальное значение. Другую группу составляют методы отыска¬ ния экстремума функции. Они позволяют определять значения пере¬ менных, обращающих в минимум или максимум некоторую функцию, и составляют основу методов математического про¬ граммирования, которые интенсивно развивались в послед¬ ние годы под влиянием кибернетики. Но никакая математическая или кибернетическая модель реаль-^ ной системы не может полностью отразить все свойства и особенности, неизбежны искажения и упрощения. Кроме того, как уже указыва¬ лось, математическое описание многих реальных систем настолько сложно, что не поддается аналитическим расчетам, и приходится при¬ бегать к моделированию на ЦВМ. Поэтому одним из основных методов кибернетики стал метод моделирования процессов управления на ЦВМ. Для этого разработаны специальные проблемно-ориентированные языки моделирования, такие как СИ- МУЛА, САМСКРИПТ, СЛЕНГ и др., а также информационно-про¬ граммные средства общения человек — машина, включающие языки- диалоги, и технические средства общения типа дисплей, использую¬ щие электронно-лучевые трубки. В-4. КИБЕРНЕТИКА И ВЫЧИСЛИТЕЛЬНЫЕ МАШИНЫ Вопрос о месте вычислительных машин в кибернетике трактуется по-разному. Кибернетика является самостоятельной наукой со своими определениями и методами, так же как физика или химия, и имеет право на существование независимо от вычислительных машин. Однако в отличие от всех других наук она теснее связана с вычисли¬ тельными машинами и зависит от них более сильно, чем, например, физика от физических приборов. Это не означает, что кибернетика — это вычислительные машины. Инженер-кибернетик должен знать принципы работы вычислительных машин, но не обязан уметь их соз¬ давать, настраивать или эксплуатировать. Для кибернетика обяза¬ тельно уметь доводить свои задачи до составления программы на каком-либо алгоритмическом языке типа АЛГОЛ, уметь общаться, 17
«разговаривать» с ЦВМ на проблемно-ориентированном языке. Знание этих языков для кибернетика является обязательным условием. Большинство задач управления сводится к решению сложных диф¬ ференциальных уравнений или к перебору тысяч и сотен тысяч ва¬ риантов, что в состоянии выполнить только машина. Например, за¬ дачу оптимального распределения ресурсов (материалов, электро¬ энергии и пр.) по нескольким отраслям (металлургической, автомо¬ бильной, машиностроения и пр.) можно решить путем оптимального перебора с помощью динамического программирования. Для одного и двух видов ресурсов задача может быть решена, как правило, вруч¬ ную. Однако для трех ресурсов требуется вычислительная машина, а для четырех и более даже современные машины не в состоянии ре¬ шить задачу из-за большого количества вариантов перебора. В этом случае приходится отказываться от «чистого» алгоритмического, пол¬ ностью автоматного метода решения и применять человеко-машинные способы, в которых широко используются опыт и интуиция человека, с одной стороны, и большие банки данных и программ для компиля¬ ции — с другой. Вместе с развитием и становлением кибернетики и главным обра¬ зом АСУ ЦВМ прошли несколько стадий или несколько поколений эволюционного развития [Л. 8, 17]. Первое поколение характеризуется использованием их в качестве большого вычислитель¬ ного устройства, арифмометра. Как правило, эти машины были лам¬ повые, хотя элементная база не главное, что отличает ЦВМ различных поколений. Машины второго поколения в основном ори¬ ентированы на обработку крупных массивов информации. Хотя струк¬ тура ЦВМ сохранила свой универсальный характер, математическое обеспечение и внешние устройства специально ориентированы на за¬ дачи обработки данных. С приходом машин третьего поко¬ ления ориентация на эти задачи еще больше увеличивается, от ЦВМ требуется представление результирующих данных в удобном для человека информативном виде. Здесь получили широкое распростра¬ нение терминальные устройства для ввода и вывода информации на электронно-лучевых трубках типа дисплея, теле* тайпы и т. д. и многоабонентный режим работы с дистанционных пультов с широко развитой системой связи для передачи цифровой информации. И, наконец, машины четвертого поколения ориентируются на создание полного сервиса как в части технических, так и информационно-программных средств для непосредственного взаимодействия человека и ЦВМ, с терминалами и минимашинами. Средняя продолжительность жизни одного поколения ЦВМ составляет около 10 лет. Со сменой поколений меняется и элементная база: для машин второго поколения — транзисторы, третьего поколения — интегральные элементы (или интегральные схемы ИС), четвертого поколения — большие интегральные схемы (БИС). Для машин трех первых поколений характерны универсальность построения самой ма¬ шины и программный способ решения задач. Таким же программным путем решаются на современном этапе задачи в АСУ. При этом наблю¬ дается эволюция от программирования в кодах машины для машин 18
первого поколения, что создавало жесткую привязку программного обеспечения к конкретной ЦВМ, которое умирало вместе с машиной, к программированию на проблемно-ориентированных языках для машин второго и третьего поколения и частично программированию на языках-диалогах или «разговорному» программированию, при которых программы и информационные массивы сохраняются при смене машины. Эта эволюция должна привести к тому, что программы будет составлять сама ЦВМ, а за человеком останется составление задания на программирование на входном языке машины, причем этот язык с течением времени все более приближается к естественному человеческому языку. В ' настоящее время ведутся интенсивные работы по внедрению методов кибернетики в управление экономическими системами. Соз¬ даются АСУ, в которых автоматизируется с помощью вычислитель¬ ных машин управленческий труд. Вычислительные машины для целей управления применяются в двух направлениях: первое — математическое моделирование буду¬ щей системы управления. Здесь необходимы мощные машины универ¬ сального типа, так как при моделировании таких сложных систем, как, например, работа большого аэропорта, требуется реализовать программы объемом порядка 2,5 млн. команд, а для моделирования экономики страцы — 10 млн. команд. При этом машины должны быть надежны (ламповые машины здесь совершенно не подходят), обладать высоким быстродействием (около 10 млн. операций!сек), большим объемом оперативной памяти (порядка 500 тыс. слов) и с внешней памятью до 10 000 млн. слов. В ЦВМ должно быть сильно развитое программное обеспечение. Так, наиболее распространенная в мире система программирования IBM-360 в основном содержит порядка 2 млн. слов (или, точнее, операторов). Средняя производительность программиста примерно 1 000 операторов в год. В случае применения проблемно-ориентированных языков скорость программирования по¬ вышается в 3—8 раз в зависимости от уровня автоматизации програм¬ мирования, заложенного в языке. С помощью этих цифр можно судить о трудоемкости решения задач на ЦВМ. Второе направление — это применение вычислительных машин непосредственно в системе управления в качестве узла или звена системы. Требования к надежности таких машин значительно выше по сравнению с надежностью машин, на которых производится моде¬ лирование. Мощность же их значительно меньше. На первом этапе исторического развития в основном применялись для моделирования проектируемых систем и управления в этих системах аналоговые ЦВМ непрерывного действия благодаря своей простоте, надежности, Дешевизне и хорошим средствам общения человек — машина, в зна¬ чительной степени обусловленных не столько элементной базой, сколько аналоговым принципом построения. Однако с переходом к старшим поколениям надежность ЦВМ существенно возросла, с пере¬ ходом к БИСам наметились тенденции к снижению их стоимости. Кроме того, разработка и внедрение информационно-программных и технических средств общения практически позволило придать ЦВМ 19
более совершенные приемы общения по сравнению с аналоговыми машинами. По существу с позиций потребителя такая ЦВМ обладает многими свойствами аналоговых машин, хотя технически основана на цифровом принципе. В последних моделях ЦВМ третьего и особенно четвертого поколения определенная проблемно-ориентированная си¬ стема программирования стала реализовываться за счет технических средств машины («запаиваться» в нее). По прогнозам специалистов машины четвертого поколения будут специализироваться на проблему «жесткой» реализацией определенной системы программирования в технических средствах. Рассмотренная выше тенденция, превращения машины-арифмо- метра в устройств^ для переработки и выдачи информации, т. е. в не¬ которую кибернетическую машину, в значительной степени обуслов¬ ливается требованиями разработки и внедрения АСУ. В-5. СПЕЦИАЛЬНЫЕ И ПРИКЛАДНЫЕ ВОПРОСЫ КИБЕРНЕТИКИ В процессе формирования и развития кибернетики как науки об управлении появились понятия и разделы, специфичные только для кибернетики, в частности понятие большой системы, под которой пони¬ мается такая кибернетическая система, которая насчитывает несколько тысяч или десятков тысяч компонент (степеней свободы), например промышленное предприятие, насчитывающее 10—15 тыс. рабочих. Такое предпрятие может быть описано в виде сетевого графика, на¬ считывающего несколько десятков тысяч работ, где каждая работа — это компонента (или степень свободы). Оно также может быть представ¬ лено в качестве сети массового обслуживания или логических (линг¬ вистических) операторов; в этом случае каждый рабочий или группа рабочих описывается локальной системой массового обслуживания или логическим оператором, которых в общей сложности может на¬ считываться несколько тысяч. Другим примером большой системы может служить телефонная сеть или система парикмахерских большого города. Вызовы на теле¬ фонную станцию, так же как клиенты в парикмахерские, приходят случайно. Клиентов большое количество — несколько тысяч или де¬ сятков тысяч. Примером большой системы является также многослойная рас¬ познающая машина, состоящая из нескольких тысяч нейтронов или пороговых элементов, используемая в качестве модели мозга человека. Большую систему часто сравнивают с газом, заключенным в со,- суд. Большое количество молекул совершает там хаотическое дви¬ жение. Методами молекулярной физики (микроподход) учитывают движения отдельных молекул, выводят усредненные характеристики поведения всей системы. Если же газ в сосуде рассматривают как большую систему, то движениями отдельных молекул не занимаются, а сразу выводят законы для всего объема газа (макроподход). Част¬ ным подклассом больших систем являются автоматизированные си¬ стемы управления, для которых характерно присутствие человека или группы людей и человеко-машинные методы управления. 20
Основная задача АСУ — создать информационный банк данных на машинных носителях информации (магнитных лентах), в котором бы находились все информационные массивы и документы, необходи¬ мые для управления. Объем такого банка может составлять несколько тысяч кассет магнитной ленты. ЦВМ всем своим комплексом информа¬ ционно-программных и технических средств должна обеспечить доступ и удобство общения человека с этой информацией. Она выступает инструментом (типа микроскопа) для чтения информации. При этом поиск, укрупнение, фрагментация, подборка и т. д. информации выпол¬ няются автоматически в немыслимых для ручных методов объемах и за кратчайшее время. Развитая операционная система ЦВМ обеспечивает специалисту любого профиля пользование информационным банком, так как при этом вовсе не требуется знаний кибернетики, а достаточно владеть входным языком-диалогом, содержащим профессиональные фразы на естественном языке, а также быть знакомым с техническим устройством ввода и вывода информации, в состав которого обязательно должен входить дисплей с клавиатурой [Л. 18]. Большим достижением кибернетики является эволюционный прин¬ цип разработки вечной АСУ, мало чувствительной к смене ЦВМ и других технических средств, так как ее основное богатство состав¬ ляют центральный и индивидуальные банки данных и операционная система с комплексом рабочих программ, составленных на проблемно- ориентированном языке. Использование программно-ориентирован¬ ных языков позволяет сохранить информационно-программный ком¬ плекс при смене ЦВМ, для чего достаточно для новой ЦВМ составить соответствующие трансляторы с языков. Потребителю АСУ постав¬ ляется в некотором начальном состоянии, содержащем начальный комплект технических и информационно-программных средств. Бла¬ годаря модульности этих средств и реализации их по принципу откры¬ той системы они допускают расширение, дополнение, обновление си¬ стемы включением и исключением отдельных ее модулей. На первом этапе эксплуатации АСУ происходит интенсивный период ее при¬ способления к системе, для которой она проектировалась, к конкрет¬ ным работникам этой системы (завода, конструкторского бюро, научно- исследовательского института и т. д.) и, с другой стороны, приспособ¬ ление (перестройка) людей и системы к более эффективной работе в но¬ вых условиях АСУ. Процесс приспособления существенно облегчается большим объемом сервисных информационно-программных средств, которые должны составлять основное содержание типовой АСУ. При этом происходит пополнение банков данных и библиотеки программ с целью обеспечения удобства работы человека в АСУ. После начального перехода процесса взаимного приспособления человека и АСУ наступает период эволюционного развития, совер¬ шенствования человеко-машинной системы. Примером может служить АСУ для игры в шахматы. В процессе подготовки к очередному матчу гроссмейстер с помощью дисплея и информационно-программных средств создает в машинной среде свой комплекс навыков и вариантов игры, свой стиль, ^о время матча, 21
когда гроссмейстеру выделяется время на обдумывание очередного хода, он обращается через дисплей к своей индивидуальной АСУ и, оперативно обыгрывая различные варианты, выбирает очередной ход. Почти весь объем умственной работы для расчета вариантов при этом возлагается на АСУ, а за игроком остаются функции тактических и стратегических решений, которые по мере развития АСУ также все больше и больше передаются системе. После окончания матча, кото¬ рый запомнен АСУ, гроссмейстер анализирует его, учитывает ошибки и совершенствует свою индивидуальную систему. Центральной проблемой при такой человеко-машинной концепции АСУ является создание своего рода моста между человеком и ЦВМ с банком данных для перекачки профессионального опыта, навыков и интеллекта человека или группы специалистов в информационно¬ программную среду. Причем процесс передачи функций от человека к машине начинается снизу, с простейших, рутинных операций по заполнению и обработке простейших документов типа нарядов, зая¬ вок, накладных и т. д. до вопросов принятия решений по оператив¬ ному, текущему и перспективному планированию и другим видам деятельности. По истечении некоторого отрезка времени в ЦВМ соз¬ дается некоторый информационно-программный комплекс, в котором сосредоточены опыт и навыки одного человека или группы специали¬ стов. В дальнейшем комплексом может руководить другой специалист и продолжить его развитие. В определенном смысле этот информа¬ ционно-программный комплекс может рассматриваться как некоторая модель искусственного разума, одной из главных осо¬ бенностей которого является способность развиваться. Такой искус¬ ственный разум существенно освобождает специалиста от выполнения рутинных операций по обработке информации, а при достаточном его развитии и в части принятия решений. В процессе работы с такими системами, с банками данных на машинных носителях информации человек получает мощный импульс интеллектуального развития, по существу поднимаясь на новый уровень цивилизации, связанный с пе¬ реходом от эпохи печатного слова к эпохе представления информации на машинных носителях. При достаточно развитой сети АСУ бумаж¬ ные носители информаций в деловой, производственной и научно- технической сферах деятельности полностью заменяются на машинные носители информации (магнитные ленты, диски, барабаны, перфо¬ ленты, перфокарты и т. д.). Модель искусственного разума в виде информационно-программной системы может долго храниться и пере¬ живать целые поколения, так же как книги, в которых сконцентри¬ рован индивидуальный, коллективный, частный профессиональный и общий человеческий разум. Гармоническая система человек — ма¬ шина существенно повысит темпы развития всех отраслей науки и техники, естественного человеческого разума. Существуют другие концепции построения искусственного ра¬ зума, в частности дедуктивные, основанные на том или ином матема¬ тическом аппарате (лингвистике, семиотике, ситуационном моделиро¬ вании, теории доказательств и т. д.), но пути его создания так или 22
иначе связаны с рассмотренным направлением. Проблема искусствен¬ ного разума является центральной в кибернетике, так как подавляю¬ щее большинство вопросов переработки информации с целью управ¬ ления связано с принятием решений. Большое значение эта проблема имеет в разработке автоматизированных систем проектирования новых систем. Современным высоким темпам научно-технической революции совершенно не удовлетворяют медленные ручные методы проектиро¬ вания. Дело в том, что идеи, заложенные в разработку новой системы, начинают устаревать спустя год-два после начала работ, а к моменту запуска системы в серию (примерно через три — пять лет после на¬ чала работ) совершенно идеологически устаревает. Выход из такого положения один — сокращение сроков разработки и запуск в серию автоматизированных систем проектирования на всех этапах разработки от эскизного проекта до изготовления серийной документации, а также введение автоматизированной системы управления самим се¬ рийным производством. При этом перед началом работ принимается стратегия разработки не конкретной системы, а поколения систем, определяется их облик и готовится информационное, программное и техническое обеспечение для автоматизированной системы проектиро¬ вания. В-6. СТРУКТУРА КИБЕРНЕТИКИ Известно несколько схем, представляющих структуру киберне¬ тики. Наибольший интерес, по-видимому, представляет схема Ляпу¬ нова — Яблонского [Л. 19]. Приводимая ниже структура кибернетики была разработана в результате чтения курса кибернетики в Москов¬ ском инженерно-физическом институте на протяжении нескольких Рис. В-4. Математические основы кибернетики. лет [Л. 20]. Основным направлением этого курса служила трактовка положений кибернетики на инженерном уровне, предназначенном для подготовки инженеров-кибернетиков широкого профиля. Структура кибернетики в нашем понимании, в соответствии с ко¬ торой предполагается излагать курс «Основы кибернетики», может быть разбита на четыре раздела: 1. Общие сведения о кибернетике. 2. Математические основы кибернетики (рис. В-4). 23
3. Основы кибернетических Моделей (рис. В-5). 4. Специальные и прикладные вопросы кибернетики (рис. В-6). Математические основы кибернетики разделены на три цикла: вероятностные методы, методы оптимизации и численные методы, Рис. В-5. Основы кибернетических моделей. методы дискретной математики. Так как в основе исследования боль¬ шинства систем управления лежат вероятностные методы, то первые три раздела вероятностных методов посвящаются теории вероятностей, математической статистике и теории марковских процессов. В разделе математической статистики в основном излагаются вопросы определе¬ ния числовых значений характеристик случайных величин и законов Теория больших систем Теория искусстбенно- го разума Проентироба- ние АСУ Автоматиза¬ ция проенти- робания Оснобо/ ин¬ формационно¬ го обеспечения Оснобо/ алго - ритмичесного обеспечения Оснобо/ программного обеспечения Оснобо/ техничесного обеспечения Рис. В-6. Специальные и прикладные вопросы кибернетики. распределения. Уже на примере этого раздела можно убедиться в том, что различные разделы кибернетики взаимно проникают друг в друга и резкого разделения провести не удается. Часто изложение теории вероятности производится с привлечением общей алгебры и матема¬ тической логики, которые рассматриваются в разделе дискретной математики. Изложение математической статистики заканчивается 24
теорией статистических решений, предлагающей математические ме¬ тоды для принятия решений в условиях неопределенности. Эти ме¬ тоды в значительной степени перекрываются методами теории игр. Четвертый раздел вероятностных методов посвящен теории инфор¬ мации и кодирования. Наряду с рассмотрением вероятностного поня¬ тия информации, ее свойств и особенностей преобразования, развитых в теории связи, в этом разделе большое внимание уделяется другому подходу к информационным явлениям, который сформировался в связи с машинной обработкой информации и внедрением АСУ й в котором используется понятие информационного тезауруса. Оптимальные методы обработки, передачи, преобразования и за¬ щиты информации существенным образом зависят от способов ее . ко¬ дирования, которым уделяется большое место в этом разделе. Для построения оптимальных систем управления необходимо иметь в на¬ личии математический аппарат для отыскания оптимальных законов управления, который составляет основное содержание второго цикла математических основ кибернетики. В зависимости от специфики си¬ стемы управления могут применяться различные методы оптимизации: от классических методов Эйлера — Лагранжа, динамического про¬ граммирования и принципа максимума Понтрягина до методов мате¬ матического программирования. При этом рассматриваются непре¬ рывные и дискретные, детерминированные и вероятностные варианты этих методов. Очень часто для отыскания оптимального управления приходится решать численными методами дифференциальные, интег¬ ральные или разностные уравнения, которые составляют в настоящее время самостоятельный большой раздел прикладной математики. Учитывая использование ЭВМ, желательно окончательные численные процедуры отыскания решения записывать с помощью какого-нибудь проблемно-ориентированного языка типа АЛГОЛ или ФОРТРАН. Особого внимания заслуживает третий цикл математических основ кибернетики — дискретная математика (см. рис. В-4). Как уже ука¬ зывалось, большинство процессов управления, особенно в АСУ, дискретные. Массивы информации и программы, записанные на ма¬ шинных носителях дискретны по своей структуре. В редких случаях их можно описать с помощью аппарата непрерывной математики (диф¬ ференциальных уравнений). Поэтому для инженера — специалиста по управлению требуется другая математическая подготовка по сравне¬ нию с той, которая дается в настоящее время в технических вузах. Ему необходимо знать дискретную математику, которая называется так потому, что в ней нет понятия непрерывности, дифференцируе¬ мости. Дискретная математика включает следующие разделы: теорию множеств и общую алгебру, математическую логику, теорию алго¬ ритмов, теорию автоматов, теорию графов, комбинаторное исчисле¬ ние, математическую лингвистику. Все кибернетические модели, рассматриваемые в третьей струк¬ турной части кибернетики — основах кибернетических моделей (см.рис. В-5), разделены на три группы. Здесь первую группу составляют Модели, в основе которых лежит вероятностная природа. Это — мо¬ дели теории массового обслуживания, теории игр, распознавания 25
образов. Вторая- группа объединяет кибернетические модели, поведение которых описывается дифференциальными или разностными урав¬ нениями. Большинство методов исследования таких систем излагается в работах по системам автоматического регулирования. Для этих методов характерно рассмотрение процессов во времени, поэтому такие модели могут быть названы динамическими системами. Третью группу кибернетических моделей составляют дискретные кибернети¬ ческие модели. Эти модели применяются и для исследования процес¬ сов управления, протекающих во времени, но в основном в них время не используется. Например, требуется с помощью вычислительных машин раскроить листовое железо для обшивки корабля наилучшим образом с точки зрения расхода материала, причем время, в течение которого производится раскрой, не имеет значения. Здесь с успехом применяются как детерминированные, так и вероятностные методы расчета. Рассматриваемые в этой группе методы наиболее слабо осве¬ щены в литературе и представляют собой наибольшую ценность. В этой же группе имеется третий раздел, посвященный лингвистиче¬ скому управлению. В общей структурной схеме кибернетики предусматривается еще четвертая часть, посвященная специальным и прикладным вопросам кибернетики (см. рис. В-6). Содержание этой части выглядит наиболее неопределенным, так как ее название допускает включение самых разнообразных разделов. Вопросы, связанные с проектированием АСУ, выделены в самостоятельный раздел. Хотя они и представляют моди¬ фикацию больших систем, для них характерен человеко-машинный способ управления. В этом разделе в основном рассматриваются об¬ щие вопросы проектирования АСУ и особенности проектирования функциональных подсистем. Раздел, названный «Теория искусственного разума», включает различные аспекты теории принятия решений в больших системах, а также вопросы создания информационно-программных комплексов, моделирующих профессиональный искусственный разум. Необходи¬ мость введения самостоятельного раздела по автоматизации проекти¬ рования диктуется тем обстоятельством, что в ближайшие годы любое проектирование, в том числе АСУ и ЦВМ, немыслимо без автомати¬ зации. Вторая группа разделов этой части посвящена так называемым обеспечивающим подсистемам систем управления. Хотя концепция обеспечивающих подсистем возникла в процессе разработки АСУ, она полностью применима к любым системам управления. Для лю¬ бого управления нужны данные об объекте управления, которые мо¬ гут обновляться в процессе управления, а также различные модели преобразования информации в системе, что и составляет основное содержание информационного обеспечения. Начало проектирования начинается с системного обследования и составления технического задания, после чего составляются математические модели управления (кибернетические модели). Если модель использует дифференциальные уравнения, то необходимо, применяя численные методы, их «ариф- метизировать», чтобы получить процедуру вычисления решений для 26
конкретных числовых начальных условий, использующую четыре арифметические действия и другие элементарные машинные операции, которая и рассматривается как алгоритм решения задачи. При реше¬ нии задачи планирования с помощью линейного программирования (к примеру) в качестве математической модели выступает модель задачи оптимизации в виде линейного программирования, а алгоритм представляет конкретную процедуру отыскания решения этой задачи. Цри наличии алгоритма в принципе решение может быть получено ручным способом, однако в большинстве случаев требуются вычисли¬ тельные машины, и необходимо по алгоритмам составить программы вычислений на ЦВМ, которые составляют часть программного обеспе¬ чения системы. Три раздела: математические модели, алгоритмиче¬ ское и программное обеспечение — составляют содержание матема¬ тического обеспечения. Основным техническим средством является ЦВМ. При проектиро¬ вании технического обеспечения в этой части поступают двояким обра¬ зом: или разрабатывают специализированную управляющую машину, как часто бывает при управлении непрерывными объектами, или оста¬ навливаются на определенной системе ЦВМ, допускающей модульный синтез конкретной ЦВМ, что характерно для АСУ на данном этапе. В этом последнем случае из машинно-ориентированного программного обеспечения (операционной системы и т. д.), широко используя ре¬ жимы генерации, создают программное обеспечение (главным обра¬ зом операционную систему), ориентированное на конкретную систему, для которой создается АСУ. Помимо ЦВМ при проектировании тех¬ нического обеспечения требуется определить состав при наличии мо¬ дульного исполнения или спроектировать терминальные устройства и линии связи. При разработке программного обеспечения киберне¬ тик должен знать с позиций пользователя имеющиеся в его распоря¬ жении машинно-ориентированные системы программирования, уметь создавать из них «дочерние» проблемно-ориентированные системы программирования и дорабатывать их в процессе эволюции системы управления, что особенно важно для АСУ. В связи с этим можно было бы добавить еще пятую структурную часть, посвященную методам программирования на ЦВМ, начиная от методов программирования в кодах машины, списковых структур и кончая алгоритмическими языками и метаязыками. Хотя в строгом смысле этот раздел носит самостоятельный характер и не включается в кибернетику, большинство деловых методов кибернетики так тесно переплетается с вопросами программирования и интерпретации на Цвм, что очень трудно бывает разделить, где «чистое программирова¬ ние», а где «чистая кибернетика». Знание методов программирования Для инженера-кибернетика обязательно, однако по установившейся тРадиции в высшей школе они изучаются независимо и вне киберне¬ тики.
ЧАСТЬ ПЕРВАЯ МАТЕМАТИЧЕСКАЯ СТАТИСТИКА В настоящее время существуют две точки зрения на содержание и назначение математической статистики. Первая — классическая, трак¬ тующая математическую статистику как науку об обработке резуль¬ татов измерений случайных величин. Эта точка зрения возникла давно, продолжает развиваться в настоящее время и может быть условно отнесена к пассивному направлению. Вторая точка зрения считает математическую статистику наукой о статистических решениях, т. е. наукой, способной давать рекомен¬ дации по оптимальному поведению в условиях неопределенности и может быть отнесена к активному направлению. Пассивное направление исходит из того, что объективно незави¬ симо, от нас существует неслучайная величина, называемая вероятно¬ стью, которая характеризует другую, случайную величину. Математи¬ ческое обоснование и определение вероятности на основании теории множеств и меры дал советский ученый акад. А. Н. Колмогоров. Практически вероятность оценивается с помощью частоты появления событий, т. е. отношения числа благоприятствующих событий к общему числу событий или отношения положительных исходов испытаний к общему числу исходов [Л. 22—24]. Только с этой величиной практи¬ чески приходится иметь дело. Насколько близка частота к математи¬ ческой строгой величине вероятности и как эта близость зависит от количества опытов, от закона распределения случайной величины, позволяют установить определенные методы математической статис¬ тики и, в частности, ее специального раздела — теории оценок. Ана¬ логичные рассуждения справедливы и для других характеристик случайной величины, таких как закон распределения, математическое ожидание, дисперсия, корреляционный момент и пр. Все это — аб¬ страктные математические понятия, которые существуют объективно, но не могут быть измерены или определены в строгом смысле слова. Можно только получить их оценки, т. е. какие-то более или менее строгие приближения. Активное направление рассматривает математическую статистику как науку о статистических решениях, дающую рекомендации выбора оптимальных способов поведения и управления в случайных ситуа¬ циях. Так, оценка параметра случайной величины дается в зависи- 28
мости от ситуации, в которой принимается решение. Такой подход к оценке случайных величин дал начало разделу математической ста¬ тистики, который был назван проверкой статистических гипотез или теорией статистических решений. Очевидно, нет смысла оспаривать правильность той или иной точки зрения. По-видимому, современная математическая статистика должна восприниматься как наука об обработке опытов и принятии правильных Аатистических решений на основании результатов этой обработки. Некоторые разделы математической статистики вылились в само¬ стоятельные разделы кибернетики, исследующие вопросы управления в случайных и детерминированных системах. Так, из теории статисти¬ ческих решений появились теории игр и распознавания образов. Математическая статистика является составной частью математи¬ ческих основ кибернетики, так как очень часто при проектировании системы управления и в процессе управления требуется определять характеристики случайных величин, процессов и случайных функций и, следовательно, вырабатывать оптимальные процедуры оценки этих характеристик и определять их эффективность (этому вопросу посвя¬ щены первые две главы и частично третья). Кроме того, система управ¬ ления самостоятельно и с участием человека должна вырабатывать оп¬ тимальный закон управления, оптимальную стратегию, «принимать» оптимальные решения в условиях неопределенности или наличия шумов. Математические основы этого заложены в теории проверки статистических гипотез или теории статистических решений, рассмат¬ риваемой в гл. 3. Для исследования характеристик случайных вели¬ чин и процессов, динамики процессов управления при наличии слу¬ чайных воздействий широко используется методика моделирования на ЦВМ по методу статистических испытаний (или методу Монте- Карло), которой посвящена гл. 4. В данной части рассмотрены наибо¬ лее важные для кибернетики разделы математической статистики, кото¬ рая представляет собой достаточно объемную по содержанию науку. Изложение материала предусматривает знание теории вероятностей в объеме курса, обязательного для всех технических специальностей. Глава первая ПРЕДЕЛЬНЫЕ ТЕОРЕМЫ ТЕОРИИ ВЕРОЯТНОСТЕЙ В теории вероятностей и математической статистике известны две группы теорем о степени приближения характеристик эксперимен¬ тально-числовых к математически точным. Первая группа теорем представляет собой закон больших ч и с е л, под которым в широком смысле понимают свойство устойчивости характеристик большого числа опытов, устойчивости массовых случайных явлений. При большом числе случайных явлений их средние характери¬ стики мало зависят от каждого отдельного явления и перестают быть случайными. Эта устойчивость средних значений имеет большое практи¬ ческое значение, так как благодаря ей можно уверенно оперировать 29
со средними характеристиками, отличать один случайный процесс от другого, предсказывать поведение случайного процесса. В узком смысле закон больших чисел — это теоремы, устанавливающие коли¬ чественные соотношения для приближения средних характеристик большого числа опытов к математически точным характеристикам. Закон больших чисел — это теоремы, основанные на теории множеств и, меры, предназначенные для определения числовых характеристик случайных величин. Вторая группа объединяется под общим названием предель¬ ной теоремы. Эта теорема рассматривает предельные законы распределения, а не предельные значения числовых характеристик случайных величин. Экспериментально установлено, что когда случай¬ ная величина (результаты опыта) определяется суммой большого числа других случайных величин, то она подчиняется нормальному закону распределения независимо от закона распределения слагае¬ мых, лишь бы они были независимы. В разделе центральной предель¬ ной теоремы даны формулировки и доказательства этого свойства. По существу как теоремы первой, так и второй группы являются различными формами общей закономерности, отражающей одно и то же предельное свойство. 1-1. ЗАКОН БОЛЬШИХ ЧИСЕЛ Этот раздел математической статистики целесообразно начать с не¬ равенства Чебышева и доказать его в несколько более общем виде, чем это принято в большинстве руководств [Л. 21, 22]. Неравенство Чебышева Пусть g (X) — неотрицательная функция случайной величины X. Тогда для любого положительного числа k > О имеем: (1-1) где P{g (X) ^ k) — вероятность того, что случайная величина g(X) превысит или будет равна числу k\ М [g (X)] — математическое ожи¬ дание величины g (X). Для доказательства воспользуемся интегралом Лебега—Стильтьеса, который для непрерывных случайных процессов совпадает с обычным интегралом, а для дискретных — с суммой. Обо¬ значим через S множество всех значений X, для которых удовлетво¬ ряется неравенство g (X) ^ k. Тогда со М[£(*)]= ^ g(x)dF(x)^k\dF(x) = kP(S) = kP{g(X)^k}, — оо S откуда и следует формула (1-1). В этом соотношении F (х) — вероят¬ ностная мера случайной величины X, совпадающая в случае непрерыв¬ ной величины с плотностью распределения вероятности / (я), т. е. F (х) = f (x) dx. Функция Р (S) = Л{ g (X) ^ к) равна вероятности попадания случайной величины X в множество 5, которое определя¬ 30
ется соотношением g (X) ^ k. Если величина X непрерывная и а (X) = X, ТО & оо со М[Х}= J xdF(x) = \xf{x)dx, (1-2) — 00 —со если дискретная, то F (х) — Р {xi <х}= 2 Ри Где Pi — вероятность того, что величина X примет значение xt. Условно и здесь можно написать, что dF (*) = / (х) dx, где оо /W==^r= 2 Pib(x~xi) (ьз) 1 =— оо (б (я) — дельта-функция Дирака). Подставляя выражение (1-3) в (1-2), получаем известную формулу для математического ожидания дискретной случайной величины: оо л*[Х]= 2 хл. i = — оо Тем самым теорема доказана для непрерывных и дискретных случай¬ ных величин. Пример 1-1. Оценим сверху вероятность того, что скорость движения автобуса X будет лежать в пределах от 30 до 50 км/ч на участке длиной L = 10 км, если мате¬ матическое ожидание функции g (X) = L/\ X — 40 |, зависящей от скорости, равно на этом участке М [g (X)] = 0,8. Используя формулу (1-1) и принимая k— 1, получаем: Р {L/ ! X — 40 ! 1} ^0,8/1 =0,8, т. е. искомая вероятность не превышает 0,8. Далее, полагая в формуле (1-1) g (X) = (X — тх)2 и k = а2а2, где тх — математическое ожидание; а2 = D — дисперсия Х\ а — положительная постоянная, и учитывая, что Р {(X — тх)2^ а2о2} = Р {\Х — тх | ^аа}, получаем: Р{\Х-тх\^аох}^±. (1-4) Теперь, полагая в формуле (1-4) а = aJox и учитывая, что a* =DXi запишем: P{|X —(1-5) 001 Соотношение (1-5) не что иное, как неравенство Чебышева, которое можно прочитать следующим образом: какое бы ни было положительное 31
число а, вероятность отклонения случайной величины X от своего мате¬ матического ожидания на величину, не меньшую, чем а, не превышает Dx/a2. Из неравенства Чебышева можно получить так называемое пра¬ вило трех сигм. Для этого положим в формуле (1-5) аг = За*: Неравенство Чебышева дает верхнюю границу: 1/9. На самом же деле часто, например в случае нормального распределения, она приблизи¬ тельно составляет 0,003 (в этом можно убедиться с помощью таблиц нормального закона). Если закон распределения X неизвестен, а тх и ах известны, то условно считают, что отрезок тх ± За* явля¬ ется участком практически возможных значений. Тем самым прини¬ мают величину тх + За* за максимальное значение смещенной слу¬ чайной величины (тх ^ 0). Пример 1-2. Известно, что средняя масса вылавливаемой в данной местности рыбы тх = 900 г, а дисперсия массы = 40 000 г2. Оценим сверху вероятность того, что масса выловленной рыбы будет менее 300 г, или более 1500 г, т. е. вероятность события | X — тх | ^ а. По условию задачи а = За*. Согласно неравенству Чебышева Р { I Х-тх | За*} ^ а2/9а^= 1/9, т. е. искомая вероятность, не превышает 1/9 ~ 0,1. а) Теорема Чебышева С помощью этой теоремы устанавливается связь между средним арифметическим конечного числа значений случайной величины и ее математическим ожиданием. Пусть имеется случайная величина X с математическим ожиданием /л* и дисперсией D*. Произведем над ней п независимых опытов. В первом опыте X имеет значение Хъ во втором — Х2 и т. д. Рассмотрим сумму п независимых случайных величин Xi п У=1^г~ • Пользуясь теоремами теории вероятности, имеем: п ту = М [У] =■ | ^ М [X,] = -- птх = тх; .(1-7) L= 1 П 2D№]=^- (Ь8) i= 1 т. е. математическое ожидание среднеарифметической суммы незави¬ симых случайных величин Xt не зависит от числа опытов, а ее диспер¬ сия убывает с их возрастанием, поэтому У с увеличением числа опытов 32
ведет себя как неслучайная величина и приближается к математичес¬ кому ожиданию [Л. 21]. Теорема Чебышева дает»точную формулировку этого явления: при достаточно большом числе назависимых опытов среднее арифмети¬ ческое наблюдаемых значений случайной величины сходится по вероят¬ ности к ее математическому ожиданию. Считается, что случайная величина Х(л) сходится по вероятности при п —> оо к величине а, если вероятность того, что Х{п) и а сколь угодно близки, неограниченно приближается к единице при увели¬ чении п. Математически это свойство сходимости можно записать в сле¬ дующем виде: Р {| Х{п) — а | е} > 1 -а, * (1-9) где е и а — сколь угодно малые положительные числа. Если эти числа заданы, всегда можно найти такое п0, при котором соотношение (1-9) будет, удовлетворяться для любого п> п0. Иногда эту формулу записывают как \\тР{Х^=а} = 1 или lim Р{|Х<Л)—а|<е} = 1. п —*■. со Теперь запишем теорему Чебышева с помощью формулы (1-9) 2 Xi 1=1 — тх <е > 1-6 (1-10) и докажем ее с помощью соотношений (1-7) и (1-8). Применяя к величине Y неравенство Чебышева для а — г, получаем: у I ■ ■ г} D„ D, пг2 (1-11) Как бы мало ни было е, всегда можно взять п таким большим^, чтобы выполнилось неравенство %<б, пг2 9 где 6 — сколь угодно малое число. С помощью этого соотношения можно изменить вид формулы (1-11): 2 xi С = 1 'ТПХ ■ г <6. (1-12) Умножим обе части этого неравенства на —1 и добавим к ним по единице, в результате 1 -Р 2 Основы кибернетики 2 i = l 1-6. (М3) 33
Введя противоположное событие и учитывая, что 2 xt ■тх <е =1-Р 2 х, С = 1 ■тх в итоге получим формулу (1-10), что и требовалось доказать. Пример 1-3. Определим необходимое число испытаний, при котором вероятность отклонения среднего арифметического от математического ожидания на величину 0,05 и больше была бы меньше 0,01. Используя теорему Чебышева (1-10) и вводя противоположное событие, получаем: Х1 + Ха + ... + Хд <8>>Т — б. (1-14) Для нашего случая е — 0,05; б = 0,01. В соответствии с неравенством Чебышева [формула (1-11)] (Ы5) . Соотношение (1-14) получается из соотношения (1-15) при условии, что ог б>- б£2 ol > 1 о х -I Г 1 n=jУ j- Задавшись ах = 0,2, получим: бж-40- Очевидно, что для решения поставленной задачи необходимо знать дисперсию величины X, что не всегда возможно. Существует обобщенная теорема Чебышева, в которой доказыва¬ ется справедливость соотношения (1-10) для случая, когда характе¬ ристики случайной величины X изменяются от опыта к опыту. Ока¬ зывается, что и в этом случае с возрастанием числа случайных вели¬ чин среднеарифметическое значение неограниченно (в вероятностном смысле) приближается к некоторой постоянной величине. По-прежнему предполагается независимость случайных величин. Точно математи¬ чески теорему можно сформулировать так: если Xv Х2, ..., Хп — независимые случайные величины с математическими ожиданиями тх, тх2, ..., тх^ и дисперсиями Dx^ Dx^ ..., Dx^ и если все дисперсии ограничены одним и тем же числом L, т. е. Dx. < L (i = 1, 2, ...,- п), то при возрастании п среднеарифметическое наблюдаемых значений Xv Х2, Хп сходится по вероятности к среднеарифметическому их математических ожиданий, т. е. при достаточно большом п п 2 1 = 1 i = 1 <6 >1 —б, (1-16) где в и б 34 сколь угодно малые числа.
б) Теорема Маркова Результаты обобщенной теоремы Чебышева для зависимых вели¬ чии можно обобщить с помощью теоремы Маркова. Если имеются зависимые случайные величины Х1у Х2, Хп и если при п-> оо D Iх] -О, то среднеарифметическое значений случайных величин Хъ Х2, Хп сходится, по вероятности к среднеарифметическому их математических ожиданий. Для доказательства опять рассмотрим величину (1-6). Очевидно, что D\t i = 1 Du я2 Применив к величине Y неравенство Чебышева, получим: .£у '' F,2 * P{\Y-my\^e}- Так как при достаточно большом п величина Dy сколь угодно близка к нулю, то всегда можно выбрать такое /г, при котором Оу/г2 < 6. Поэтому Р{\У-ту\^г}с8 или аналогично предыдущему mv / = 1 i= 1 П П Тем самым теорема доказана. <8 >1 —6. в) Теорема Бернулли Эта теорема устанавливает связь между частотой появления собы¬ тия и его вероятностью. Пусть имеется п независимых опытов и в каж¬ дом из них событие А может появиться с вероятностью р. Теорема Бернулли утверждает, что при неограниченном увеличении п частота появления А сходится по вероятности к /?, т. е. р{\р*~ р|<е}>1-6, где р* = kin — частота появления событий (k — число появления А в п опытах); е и б — сколь угодно малые положительные числа. Можно дать несколько другую формулировку теоремы Бернулли: вероятность того, что частота р* = kin отличается по модулю от 35
своего среднего значения р не меньше чем на е, стремится к нулю при /г-> оо, как бы ни было мало г, т. е. limP{|i-p <е}=1. Обозначим число появлений события А в первом опыте через Хь во втором — через Х2 и т. д. Очевидно, что величины Xt могут при¬ нимать только два значения: 1 — с вероятностью р и 0 — с вероятно¬ стью q = 1 — р. При этом нетрудно убедиться, что 2 тХ1 = М[Х,] = 2 рА = 0.<7+1-р = р; (1-17) 1 = 1 Dx. — D [X/] = 2 (Xt - mxf pi = (— p)2q + (1 - p)2 p = pq. 1 = 1 Частота p* есть не что иное, как среднее арифметическое величин Xv Х2, Х„: > п* = S Хг ^ п ‘ Очевидно, что п = ^ (М8) 7 = 1 п D[P*] = ±2D[Xi]=Pi- <bl9i i = l Отсюда следует, что математическое ожидание частоты р* не зави¬ сит от числа испытаний, а дисперсия стремится к нулю с их ростом. Согласно закону больших чисел (теорема Чебышева) величина р* (аналог величины У) сходится по вероятности к математическому ожиданию величин X*. А это значит в соответствии с формулами (1-17) и (1-18), что величина р* сходится к своему математическому ожиданию, так как М [p*] = M[Xi]=p. Дадим некоторые пояснения к доказанному положению. Для этого рассмотрим свойства функции Ф (р) = р (1 — р) = pq. Покажем, что она удовлетворяет соотношению: о<Ф(р)<4, т. е. о<р<?а^Т. Действительно, при р — 0 функция Ф (р) = 0, так как Ф (р) = = pq — р — р2 — р( 1 — р); при р = 1 функция Ф (р) = 0; при р — 1/2 функция Ф (р) достигает максимума, равного 1/4 (рис. 1-1). 36
Отсюда величина \р* —р\ в среднем имеет порядок не ниже, чем д-1/2. Действительно, так как pq ^ 1/4, то формулу (1-19) можно пере¬ писать в следующем виде: D[p*\ = M[\p*-p\*\= f Из этого соотношения следует, что случайная величина |р* —р |2 в сред¬ нем имеет порядок не более чем 1/я, а величина |р*—р | — не более чем я_1/2. Это значит, что те значения \р* — р |, которые велики по сравнению с я"1/2, имеют все вместе исчезающе ма¬ лую вероятность. С ростом числа опытов я"1/2 стремит¬ ся к нулю и р* приближа¬ ется к р. Теорема Бернулли ус¬ танавливает устойчивость частоты появления события при неизменных условиях опыта, т. е. вероятность появления события в i-м опыте равна р независимо от i. В случае изменения ве¬ роятности от опыта к опыту справедлива теорема Пуассона, которая формулируется следующим образом: если произвести я независимых опытов при вероятности по- явления события А в i-м опыте, равной рь то с увеличением я часто¬ та р* события А сходится по вероятности к среднеарифметическому вероятностей pt. Теорема Пуассона имеет большое практическое значение, так как трудно соблюсти одни и те же условия при постановке опыта. Ее дока¬ зывают аналогично предыдущему с помощью обобщенной теоремы Чебышева [Л. 21, 23]. 1-2. ЦЕНТРАЛЬНАЯ ПРЕДЕЛЬНАЯ ТЕОРЕМА Рассмотренные выше теоремы закона больших чисел устанавли¬ вают предельные свойства параметров случайных величин, и ни одна из них не исследует предельные свойства законов распределения. Центральная предельная теорема (ЦПТ) во всех ее формах устанав¬ ливает условия, при которых в пределе справедлив нормальный закон Распределения [Л. 21]. Он действует всякий раз, когда величина равна сумме большого числа независимых случайных величин, каждая из которых мало влияет на сумму в целом. Все разновидности исходных условий для ЦПТ так или иначе исключают возможность преобладания какого-нибудь одного слагаемого. Поэтому при исполь¬ зовании ЦПТ на практике прежде всего необходимо убедиться в отсут¬ ствии такого преобладания. Если к тому же удовлетворяются остальные Рис. 1-1. График зависимости функции ф (р) = р(\ — р). 37
условия ЦПТ, результирующая величина считается подчиняющейся нормальному закону, что существенно упрощает расчеты. Например, для всех автоматических системем регулирования и управления (систем управления морским кораблем, двигателем и т. д.) в первую очередь важно знать итоговую точность или ошибку работы. Ошибка зависит от множества факторов, т. е. имеет много составляющих. Легко рассчитывать и проектировать систему, когда итоговая ошибка подчиняется нормальному закону, но для этого в соответствии с ЦПТ необходимо, чтобы все составляющие примерно одинаково на нее влия¬ ли. Обычно это получается естественным образом, так как при проекти¬ ровании стремятся к тому, чтобы ошибки всех устройств, из которых состоит большая система управления, были одного порядка. Если какое-нибудь устройство дает большую ошибку, необходимо ее умень¬ шить. Таким образом, в хорошо спроектированной системе все состав¬ ляющие ошибки бывают одного порядка, что и позволяет применять ЦПТ. а) Центральная предельная теорема для одинаково распределенных случайных величин Дадим формулировку этой теоремы: если Xv Хг, ..., Хп — неза¬ висимые случайные величины, имеющие один и тот же закон распреде¬ ления с математическим ожиданием тх и дисперсией а2, то при неогра¬ ниченном увеличении п закон распределения суммы Yn = ZXi (1-20) i=\ неограниченно приближается к нормальному с математическим ожи¬ данием птх и дисперсией шт2. Доказательство этой теоремы основано на понятии характеристи¬ ческой функции. По условию величины Xt имеют одинаковую плот¬ ность распределения вероятностей / (х). Если они непрерывные, то / (х) непрерывна, если дискретные, то / (х) состоит из дельта-функций. Характеристическая функция определяется как обратное преобра¬ зование Фурье от функции / (х): со fix (®) = fx (— /и) = $ e~Sxfx (х) dx, (1-21) — оо или с использованием двустороннего преобразования Лапласа, кото¬ рое для функции / (х) определяется по формуле fx (s) = °l e~$xfx (х) dx, — СО имеем: fix (s) = fx (— s) = esxfx (x) dx. — 00 38
Если величины дискретные, то интеграл превращается в сумму оо fх ( s) = 2 pheks, k = — co где pk — вероятность того, что X примет какое-то k-e дискретное зна¬ чение. Так как все величины Xv Х2, ..., Хп статистически независимы, то к их суммеYп = Хх + Х2 + ... + Хп применима теорема о компо¬ зиции [Л. 13, 15]. Плотность распределения вероятностей суммы таких величин равна кратному интегралу свертки от fx (х), а характеристи¬ ческие, функции перемножаются, т. е. /Ч И = [М®)Г- Одно из замечательных свойств нормального закона распределения заключается в том, что плотность распределения вероятности / (л:) и характеристическая функция /х (со) имеют один и тот же вид: 1 1 -- Нх)~т‘ 2; _ ©2 /i(co) = e 2 • Случайная величина Yn в соответствии с формулами (1-7) и (1-8) имеет следующие математическое ожидание и дисперсию: тУп = птх; Du =nDx = no2‘. Если вместо Yп рассматривать величину с единичной дисперсией Zn = Yn!o\fn, то соответствующие характеристические функции будут связаны соотношением = = (1-22) В этом нетрудно убедиться с помощью формулы (1-21). Для дока¬ зательства теоремы достаточно показать, что функция М^)Т стремится к ехр (— со2/2) при п-+ оо. Для этого разложим функцию flx (со) в ряд Тейлора: fix (®) = fur (0) + /хдг (0) со + ]ЦМ. ш2 (1-23) где R — остаточный член порядка малости выше, чем со2. Найдем коэффициенты этого ряда: оо fix (0) = 5 f(x)dx= 1; — ОО оо fix («) = 5 jxemxf(x)dx. ’— СО 39
Отсюда fix (0) = jM [X) = jmx. Положим mx = 0. При этом не нарушается общность доказательства, так как всегда можно так изменить начало координат, чтобы тх = 0: ?1Х И = — x2emxf (лг) dx. — СО Отсюда со fi,(0) = - [ x2f(x)dx = -o2, — СО так как тх = 0. Поэтому ряд (1-23) запишется в виде /u(®)=l-f ©*•+/?. (1-24) Перейдем от Yn к нормированной величине Yn/G]^n = Zn. При этом в соответствии с формулой (1-22) характеристические функции бу¬ дут связаны соотношением Заменив переменные в выражении (1-24), получим: = с-25> где стремится к нулю быстрее, чем 1/п. Далее, возьмем натуральный логарифм от обеих частей равенства (1-25). Учитывая, что величина СО2 гу малая и стремится к нулю при оо и что при этом справедливо соот¬ ношение In (1 — х)я^ — х, получаем: где R' — остаточный член, который стремится к нулю быстрее, чем Пп. Умножая обе части (1-26) на п и учитывая (1-22), получаем': 1п I/1* Ш)}"=л |п М^)]=-^+R"• поэтому - (ттт)] -г'т- Функция, стоящая справа, — это характеристическая функция нор¬ мального распределения с т = 0 и а = 1. Тем самым теорема доказана. 40
Диалогичным образом ЦПТ можно доказать для дискретных случайных величин. Приведенные рассуждения основаны на том, что при стремлении последовательности характеристических функций к предельной харак¬ теристической функции соответствующая последовательность функций распределения тоже стремится к функции распределения, соответ¬ ствующей этой предельной характеристической функции. Это положе¬ ние может быть доказано и носит название теоремы Крамера [Л. 22]. Для общего случая, когда случайные величины независимы и имеют разные законы распределения, эту теорему можно доказать по методу А. М. Ляпунова. При этом необходимо, чтобы выполнялись условия где bk= М {\Хк\*}— третий абсолютный центральный момент вели¬ чины Xk\ Xk = Xk — m/e, k= 1,2, ..., п\ Dk — дисперсия величин Xk• Более общим необходимым и достаточным условием справедли¬ вости ЦПТ является условие Линдеберга: при любом т > О где тк — математическое ожидание ; fk (х) — плотность распределе¬ ния случайной величины Хк\ Оба условия (1-27) и (1-28) выражают одно и то же требование равноправия случайных величин в сумме. Например, если в сумме существенно выделяется Х3, то, очевидно, что Если все Хк малые, то в числителе этого выражения стоят слагае¬ мые с разными знаками и малые, в знаменателе — сумма положитель¬ ных малых величин и при п -> оо отношение стремится к нулю. Пример 1-4. Проиллюстрируем справедливость ЦПТ. Покажем, что сумма неза¬ висимых случайных величин, распределенных по равномерному закону, стремится к нормально распределенной случайной величине [Л. 24]. Пусть случайные вели¬ чины Xi все распределены одинаково: п 2 ьк о, (1-27) П k = 1 \х — mk\'>iBn 41
Обозначим через J (у) плотность вероятностей для величины Yп — Хг + Х2 + п + ... + Хп. Тогда, используя теорему о композиции независимых случайных вели- чин, получим: У + 1/2 '.<»>= 5 I, Ух у — 1/2 (y) = fx(*)- С помощью этих формул нетрудно установить, что у+1 — 1<г/££0; (у+1) — 2у 0г£(/<1; 1,м<- i(9+| з 1 при ^-з(9 + ±)!] т[(» \ при о- -3U/ + 1 +*('-тЛ при Графики функций f„tto), h, to), fy* to). fu ,ih(y) показаны на рис. 1-2. Кривая, представленная на рис. 1-2, в, состоит из трех парабол второго порядка и достаточно близка к нормальной. Кривая рис. 1-2, г практически уже не отличается от гауссовой. Таким образом, уже при четырех слагаемых закон распределения практически сов¬ падает с нормальным. Обычно считают, что при сумме независимых случайных величин, содержащей более 10 слагаемых, наступает нормальный закон. Центральная предельная теорема существенно упрощает расчет характеристик случайных величин. Рассмотрим несколько случаев. Пусть имеется п случайных величин Xv Х2, Хп с математичес¬ кими ожиданиями ти т2, ..., тп и дисперсиями Du D2, ..., Dn, выпол- я няются условия ЦПТ и величина Yп = ^ Xt считается распределенной i = 1 по нормальному закону. Тогда вероятность Y попасть в интервал [а, (3] можно определить с помощью таблиц нормальной функции рас¬ пределения (см. приложение 1) У Ф* (х) : У 2л ' 2 dt по формуле Р{а<У„<Р} = Ф* р-т„ где т»п = 2 ть 1 = 1 ’’>.=v°Z=yr !d<- (1-29) (1-30) В этом случае не требуется знать закон распределения каждого сла¬ гаемого, достаточно знать их математические ожидания и дисперсии. 42
- II :К 43 Рис. 1-2. Нормализация случайных величин при сложении.
Иногда формулу (1-29) удобнее записать относительно нормирован ной случайной величины п п ^ /I i = 1 1 = 1 4 ]/" ± у i= 1 Очевидно, что т«г= 0 и а° = 1, поэтому Р{а < Z < р} = Ф* (а) - Ф* ф). (1-31) б) Теорема Муавра — Лапласа Частным случаем ЦПТ для дискретных случайных величин явля¬ ется теорема Муавра — Лапласа: если производится п независимых опытов, в каждом из которых событие А появляется с вероятностью р, то справедливо соотношение Р |а <ущ3- <Р} = Ф* (Р) - Ф* (а), (1-32) где Yn — число появления события А в п опытах; q = 1 — /?; а и Р — некоторые положительные числа. Для доказательства (1-32) представим Уп в виде суммы (1-20), где Xi — число появлений события А в i-м опыте, причем Xt может при¬ нимать только одно из двух значений: 0 или 1. Согласно ЦПТ закон распределения этой суммы стремится к нормальному. Следовательно, величина подчиняется закону распределения, близкому к нормальному, причем в данном случае п тУп = Т,т*1 = ПР'> i = 1 п = Pi4i = npq. i=i Поэтому формулу (1-33) можно переписать в виде » Уп — пр Vm ‘ Подставим это выражение в формулу (1-31) и получим необходимое соотношение (1-32). Тем самым теорема доказана. Пример 1-5. В соревнованиях по стрельбе участвуют 6 спортсменов. Каждый должен выстрелить по 15 мишеням. Считается, что выстрелы одного и разных спорт¬ сменов независимы. Вероятность попадания в мишень равна 0,4. Найдем вероят¬ 44
ность р того, что из 90 мишеней не менее 35% будут поражены. 90 Обозначим через Уп— Л'/ общее число пораженных мишеней, где Xi — чи- i = 1 ело мишеней, пораженных при г-м выстреле (i = 1, 2, 90). Очевидно, что для X/ вероятности соответственно равны: Р {Xi = 0} = 0,6 = <7 и Р {Х,= 1} = 0,4 = р. Отсюда тх =0,4; Dx =0,4-0,6 = 0,24; т, =90 • 0,4 = 36; i I уп а =К90-0,24^4,63. УП Применим формулу Муавра — Лапласа (1-32) или, точнее (1-30), в результате получим: [ 35 • 90 ^ \ {"W < ^ < °°| = = Ф* (со)-Ф* ~ 1 -Ф* (- 0,97) = 1 -0,1660 «8 0,83. Глава вторая ТЕОРИЯ ОЦЕНОК Теория оценок — классический раздел математической статис¬ тики. Суть ее — в определении числовых значений характеристик случайных величин на основании ограниченного числа испытаний. Теория оценок имеет дело с числовыми оценками, а не с определе¬ нием законов распределения, этим вопросом занимается другой раздел математической статистики, называемый проверкой статистических гипотез [Л. 21, 25]. Очевидно, что любое числовое значение характеристики случай¬ ной величины, вычисленное на основании ограниченного числа испы¬ таний, будет случайной величиной. Это значение носит название оценки параметра. Так, среднее арифметическое результатов конеч¬ ного числа испытаний представляет собой оценку математического ожидания и является величиной случайной. Чем больше число испы¬ таний, тем меньше ошибка в оценке. Теория оценок исследует методы получения более точных оценок параметров случайной величины при заданном числе испытаний. Она определяет, сколько необходимо сделать испытаний, чтобы обеспечить заданную точность оценки параметра. Если имеется п испытаний случайной величины X и наблю¬ денные значения этой величины Xv Х2, Хпу то оценка а параметра а будет функцией Xv X2j Хп: a = a(Xi, Х2, ..., Хп). Закон распределения а зависит от закона распределения X и числа опытов. Оценка должна удовлетворять некоторым общим требованиям- 45
Прежде всего она должна быть состоятельной, т. е. с увели, чением числа испытаний а должна сходиться по вероятности к а. Оценка должна быть несмещенной, т. е. она не должна содержать систематических (в среднем) отклонений: М[а\ = а. (2-1) Наконец, оценка должна быть эффективной, т. е. в сред¬ нем иметь минимальный разброс D[a] = min. (2-2) Иногда для определения эффективности оценки выбирают функ¬ цию максимального правдоподобия: а считается эффективной или опти¬ мальной, если условная вероятность имеет максимальное значение. Допустим, требуется дать оценку математического ожидания тх при условии, что / (я-1 тх) = шах. (2-3) Перебирая все возможные виды оценок а, следует остановиться на той, которая дает этой функции максимум. В этом смысл критерия максимального правдоподобия. Если опыты независимы и случайная величина подчинена нормальному закону, то можно. показать, что эффективная (в смысле приведенных двух критериев) оценка для математического ожидания будет при ~ ^1 + ^2 + .+ П Возможны и другие критерии эффективности (байесовский, минимакс¬ ный). На практике не всегда удается удовлетворить всем этим требова¬ ниям одновременно. В зависимости от задачи конструктор выбирает критерий эффективности. Теория оценок тесно связана с теорией статистических решений, так как выбор оценки существенно зависит от той задачи, в которой необходимо принимать решение. Имеется еще одно общее понятие теории оценок — достаточность статистики: если наблюденных результатов Хъ Х2, Хп достаточно для получения всех оценок величины X, то статистика называется достаточной. Различают два вида оценок: точечные и интервальные. В первом случае интересуются одним значением (точкой), во вто¬ ром — интервалом значений, т. е. при интервальных оценках стара¬ ются определить вероятность того, что отклонение оценки параметра от истинного значения будет не меньше заданной величины. Для определения близости оценки к оцениваемому параметру вводят доверительный интервал близости е, а саму близость оценивают по величине вероятности /?, которую называют доверительной вероятно¬ 46
стью (5, и задают заранее р = (3. Таким образом, задача оценки состоит в том, чтобы выбрать или произвести такое число опытов, при котором Р {| а — а!<е}<р. (2-4) Здесь интервал (<а — е, а + е) — доверительный. 2-1. ОЦЕНКА МАТЕМАТИЧЕСКОГО ОЖИДАНИЯ И ДИСПЕРСИИ Пусть имеется случайная величина X с математическим ожиданием fnx и дисперсией Dx и п результатов независимых опытов Xlt Х2, ... Хп. Необходимо определить состоятельные оценки' для тх и Dx [Л. 21]. Возьмем п 2 xi тх = Оценка тх — состоятельная, так как по закону больших чисел она по вероятности сходится к rrtx. Она и несмещенная, так как п 2 тх М[т*] = ^— = тх. (2-6) Дисперсия величины тх D[mx] = \Dx. (2-7) Можно показать, что если величина X распределена по нормальному закону, то дисперсия (2-7) будет минимальной и, следовательно, эффективной в смысле критерия минимума дисперсии. Перейдем к оценке дисперсии. Оказывается, что оценка 2 (Хг-тх)% D* = 1 • (2’8) где п 2 х, тх = ——, х п 1 является смещенной. Действительно, п п [ п \ 2 п 2 (Xi-mx)2 2 х! 2* хЛ 2 х* D*=— п п \ п. Г п 2 х\ 2. п 2 xixi — ‘——it— 2 =~Ух1~ 2^Ц . (2-9) /г2 /г2 п2 п2 v / i= 1 47
Возьмем математическое ожидание от этой оценки п м [D*] = ^ 2 М [Х‘] ~i2M I (2-10) 1=1 (<} выберем начало координат в точке пгх. Очевидно, что от этого дисперсия не изменится. Тогда (2-П) M\X\] = M[X\\ = Dx\ 2 M[X^^nDx- 1 = 1 М[ХД;] = М[Х,Ху] = 0. Последнее неравенство (2-11) справедливо в силу независимости опытов. Подставив (2-11) в (2-10), получим: M\D*] = n-=±Dx. (2-12) Отсюда видно, что величина D* не является несмещенной оценкой, так как ее математическое ожидание не равно Dx. Чтобы оценка стала несмещенной, ее следует умножить на п/(п — 1), в результате получим: D : 2 (xt-mx)% . i = \ П— 1 (2-13) Отличие оценки D от D* существенно только при малых п (меньших 10). При больших п они близки, так как п — 1 « п. Проверим состоятельность обеих оценок. По определению а называется состоятельной оценкой параметра а, если для любого е >► 0: lim р {| а — а | < е} = 1. П-+СО Используя неравенство Чебышева, легко получить достаточное условие состоятельности оценки lim М [(а —а)2] = 0. 2-2. ПРИБЛИЖЕННЫЕ МЕТОДЫ ОПРЕДЕЛЕНИЯ ДОВЕРИТЕЛЬНЫХ ИНТЕРВАЛОВ ДЛЯ ОЦЕНОК МАТЕМАТИЧЕСКОГО ОЖИДАНИЯ И ДИСПЕРСИИ Вначале рассмотрим случай определения доверительного интер¬ вала при заданной дисперсии [Л. 21]. Согласно формуле (2-5) оценка т = тх математического ожидания равна арифметической сумме неза¬ висимых одинаково распределенных случайных величин Xh Согласно центральной предельной теореме она распределена по закону, близ- 48
кому к нормальному при достаточном числе слагаемых. Математичес¬ кое ожидание т равно т: М [т] = т. Дисперсия оценки математического ожидания D[m] = —. 1 ] П Найдем такую величину е, чтобы удовлетворялось равенство Р {! т — т\< г) = р. (2-14) С помощью Ф* (х) эту вероятность можно определять приближенно, пользуясь формулой Р {— е < т — т < е} == Ф* Очевидно, что т ф* [—= 1 _ ф* т 8 Р{\т- где т | < е[ = 2Ф* (— ] — 1, .=YD—*V- г п V п (2-15) (2-16) среднеквадратичное отклонение оценки т. Приняв 2Ф* -1=Р. найдем: е = а ~ arg Ф* 1 + Р' (2-17) (2-18) где arg Ф* (г) обозначает функцию, обратную Ф* (г). С помощью этих величин определяем доверительный интервал: Ур = (т-<т~*р, m + a-tf,). (2-19) Пример 2-1. При подсчете времени проезда на автобусе от одной конечной оста¬ новки до другой была составлена табл. 2-1. Таблица 2-1 Время проезда X/, мин 28 27 30 33 32 29 32 31 27 31 Номер опыта i 1 2 3 4 5 6 7 8 9 10 Найдем оценку среднего времени проезда (математического ожидания времени проезда), дисперсии и определим доверительный интервал для оценки математиче¬ ского ожидания'при доверительной вероятности Р = 0,95. 49
1. В качестве оценки тх примем: П 2. В качестве оценки Dx возьмем: тх — ~— =30 мин. 3. Дисперсия оценки математического ожидания Dx D D [тх] = = 0,46 мин2, т. е. а^УD [тх] = |Л),46 = 0,67 мин. 4. Доверительный интервал для оценки математического ожидания при довери-, тельной вероятности Р = 0,95 определим по формуле !т*-т*|<е} = 2Ф*( + )-1 = р. Используя таблицы функций Ф* (х) (приложение 1), найдем: е = а~ arg®*(2ti* j=~0,67. 1,960 =» 1,31 мин, т. е. доверительный интервал для тх Ур = {30— 1,31; 30+ 1,31} = (28,69; 31,31), мин. Аналогично определяют доверительные интервалы для дисперсии и получают ее несмещенную оценку 2 ^i-mf п— 1 D = i+—= , (2-20) где П 2 xt т — ——. П Согласно формуле (2-13) оценка дисперсии является суммой слу¬ чайных величин (X; — т)2/(п — 1), которые, однако, не являются не¬ зависимыми, так как т зависит от всех X. Но можно показать, что при- увеличении п закон распределения этой суммы приближается к нор¬ мальному. Определим математическое ожидание и.дисперсию оценки дисперсии. Как было показано, M[b] = D. Аналогично можно получить формулу для дисперсии оценки дис¬ персии: 50
Если бы было возможно подсчитать по этим формулам математи¬ ческое ожидание и дисперсию оценки дисперсии Z), то, используя формулу, аналогичную (2-19), можно было бы определить доверитель¬ ный интервал для дцсперсии. Однако для определения дисперсии по формуле (2-21) необходимо знать D и ц4. Вместо D можно подставить его оценку D, а вместо р,4 — величину, равную п 2 (Xi-mf ^ = • , (2-22) Но эта оценка дает невысокую точность даже при достаточно боль¬ шом числе опытов. Поэтому получим формулы для частных случаев, когда закон распределения величины X нормальный или равномерный. В первом случае можно выразить четвертый момент через дисперсию: ц4 = 3 D2. (2--23) Подстановка этого выражения в формулу (2-21) дает: D[Dl = -D2 L 1 п п(п— 1) ИЛИ ^[Ь] = ^Т02. (2-24) Заменив D2 его оценкой, получим: ’ п— 1 = (2-25) откуда ”г = }Птб- <2'26> Для равномерного закона распределения в интервале [а, |3] имеем: „ (Р-<*)*. Н-4 80 . п_(Р-«)г 12 > откуда р4=1,8Д2- (2-27) Подстановка этого выражения в формулу (2-21) дает: DW=°i?n-\’)2 <2-28> откуда приближенно получаем: р-22) 51
Если закон распределения неизвестен, то целесообразно все же использовать формулы, справедливые для нормального закона, при условии, что закон распределения не обладает явной асимметрией. После того как ориентировочно определено значение дисперсии оценки, находим доверительный интервал J$ — — t$oD + (2-30) Величина Ц определяется по заданной доверительной вероятности (5 с помощью таблиц нормального закона (см. приложение 1) по формуле ^ = arg<P*(±±£). (2-31) Рассмотрим пример на определение доверительного интервала для оценки дисперсии. Пример 2-2. Чтобы решить вопрос о качестве нового ружья, проводится при¬ стрелка его в тире, причем качество оценивается по величине дисперсии случайной величины X — расстояния от центра мишени до точки попадания. Распределение величины X близко к нормальному. Пусть по 20 выстрелам определили оценку ее дисперсии Dx = 0,64 см2. Определим доверительный интервал для оценки диспер¬ сии Dx при доверительной вероятности р = 0,8: 1. По формуле (2-26) определяем: сг~ = Л/ —2-т- D = -пт ‘ 0,64=0,207 см\ D V п— 1 19 2. С помощью таблиц Ф* (х) находим: е = ст~ arg Ф* = 0,207 • 1,282 я» 0,27. В результате Ур = (0,64 -0,27; 0,64+ 0,27) = (0,37; 0,91). 2-3. ТОЧНЫЕ МЕТОДЫ ПОСТРОЕНИЯ ДОВЕРИТЕЛЬНЫХ ИНТЕРВАЛОВ Все рассмотренные выше методы были приближенными. Дело в том, что закон распределения оценки зависит от закона распределе¬ ния величины X и, следовательно, его параметров, которые неизвестны. Поэтому и доверительный интервал Jq зависит от этих неизвестных A* CV параметров. Замена этих параметров их оценками /гг, D никак не обос¬ нована, и при этом неясно, какая получается погрешность. Можно полагать, что она будет небольшой. Однако применение таких оценок не требует (по крайней мере для оценки математического ожидания) знания закона распределения случайной величины., Точные методы построения доверительных интервалов не требуют такой замены оценками, так как они исходят из того, что параметры закона распределения величины X неизвестны. Ниже будут рассмотрены точные методы оценки для случайной ве¬ личины Ху подчиненной нормальному закону распределения. Основ¬ ная идея точных методов состоит в том, что от исходной случайной величины X переходят к некоторой другой величине Т (или У), рас¬ 52
пределение которой не зависит от параметров величины X, а только от числа измерений п и вида закона распределения величины X. Начнем с оценки дисперсии [J1. 21, 24, 26]. Воспользуемся теоремой, известной из теории вероятностей: сумма квадратов независимых слу¬ чайных величин, распределенных по нормальному закону с нулевым математическим ожиданием и единичной дисперсией, распределена по закону х2 с п степенями свободы. Введем случайную величину У = *! + Х1 + ... + Х£; M[Xi] = 0; D[Xi]= 1. (2-32) Плотность распределения случайной величины по закону %2 с /г сте¬ пенями свободы определяется формулой 1 -— 1 — — v2 е 2 при ^>>0; 2ТГ 4 К {V) = 2 при ^со или kn(v) = Anv2 1е 2>0, где (2-33) Г (х) = [ и*~Ч-в du; Л„ = ! (2-34) 1 »Чт) — известная гамма-функция, для которой составлены таблицы. Рассмотренную теорему можно обобщить на случай величины V=* (П~Л-, (2-35) в которой значение D соответствует оценке (2-20). Эта величина имеет распределение fen — 1 степенями свободы. Но она не удовлетворяет условиям теоремы в части независимости слагаемых. Дело в том, что 2 №-m,)2 (2-36) D D i= 1 представляет собой сумму квадратов п зависимых случайных величин Yt = Xt — mXi которые удовлетворяют одному услодию 2 У,= 2(Х,- т,) = 0, i = 1 i = 1 так как для т* имеем определение (2-5). В соответствии с этой формулой можно выразить одно Yt через все остальные. Поэтому в правой части формулы (2-36) стоит сумма квад¬ ратов (п — 1) независимых случайных величин, распределенных по нормальному закону с нулевым математическим ожиданием и единич¬ ной дисперсией. 53
Отсюда следует, что случайная величина X распределена по закону : п — 1 степенями свободы, т. е. kn-1 (о) = V 2 е 2. (2-37) t с На этом примере очень четко иллюстрируется понятие числа сте¬ пеней свободы. Группа законов распределения, таких как х2“РаспРе- деление, распределение Стьюдента и пр., связана с понятием п неза¬ висимых случайных величин. Если они зависимы, то к ним не приме* нима выню рассмотренная теорема и они на первый взгляд не подчи¬ няются этим законам распределения. Но если можно точно выявить связь (как в вышерассмотренном примере), то всегда за счет уменьше¬ ния числа величин можно добиться их независимости. Для этого при наличии / связей следует выразить любые / случайных величин через остальные п — /. Тогда исходная величина может быть представлена не как сумма п зависимых, а как сумма п — / независимых случайных величин, к которой можно применять теоремы, справедливые только для сумм независимых случайных величин. Из теории вероятностей известно, что математическое ожидание и дисперсия случайной величины, которая распределена по закону X2 с п — 1 степенями свободы, имеют вид: M[V] = n-1; \ D [F] = 2 (п — 1). } <2-38> Из этих выражений и формулы (2-33) очевидно, что параметры и закон распределения случайной величины, имеющей распределение X2, не зависят от параметров исходной случайной величины. Чтобы получить доверительные интервалы для дисперсии, необ¬ ходимо выразить оценку D через величину V. С помощью соотношения (2-35) имеем: D=-^-v (2-39) Зная закон распределения Г, можно всегда найти интервал J в который попадает эта величина с вероятностью р. Трудности в по¬ строении этого интервала состоят в том, что х2-распределение несим¬ метрично (рис. 2-1). Поэтому условимся выбирать доверительный ин¬ тервал /р для V при равенстве вероятностей выхода этой величины влево и вправо за этот интервал (это означает равенство заштрихован¬ ных на рис. 2-1 площадей): = (2-40) Заметим, что вероятность непопадания в интервал /р равна V. Обычно в таблицах (приложение 2) приводятся значения функции переменной х2 Для г степеней свободы, т. е. значения вероятности р = Р{Г>Х2} = Е(х2). (2-41) 54
Для г = п — 1 по таблицам находят %?» соответствующее рх = а/2, соответствующее р2 = 1 — а/2. Тогда для величины V •fpHXi. Х§} (2-42) Нетрудно убедиться, что доверительный интервал для дисперсий исходной величины определяется с помощью формулы (2-35) соотно¬ шением (D(n—\)' Р(п-\)) X* J* = (2-43) Действительно, вероятность попадания дисперсии D в этот интер¬ вал равна вероятности попадания %2 в интервал (2-42), так как нера¬ венства ^>Dh Р(у-7—<D Xi хз (2-44) равносильны неравенствам V>%\ и V<x*. (2-45) потому что V: (п— 1) D D (2-46) Рис. 2-1. Вид кривой распределения вероятно¬ сти по закону х2. Пример 2-3. Применительно к условиям примера 2-1 определим доверительный интервал для оценки дисперсии б^при р= 0,8 щ п— 20. Имеем: (п — 1) D — == 12,8 см2; а = 1 — Р = 0,2. Из таблиц х2-распределения при г = 19 (см. приложе¬ ние 2) находим X? = И,65, которое соответствует р = 1 — а/2 = 0,9, и значение Х| = 27,2, которое соответствует р = а/2 = 0,1. Отсюда согласно формуле (2-43) имеем: 27,2 11,65 - Тогда искомый доверительный интервал для оценки дисперсии Ур = (0,47; 1,1). Теперь рассмотрим аналогичный точный метод определения дове¬ рительного интервала для математического ожидания. Если бы была известна дисперсия Dx = ol величины X, то этот доверительный ин¬ тервал приблизительно можно было бы определить с помощью таблиц нормального распределения, использовав нормированную величину U (Ух Vn (2-47) Действительно, входящая сюда величина (2-5) как сумма п неза¬ висимых случайных величин имеет закон распределения,’ который стремится с ростом п к нормальному закону (в соответствии с цент- 55
ральной предельной теоремой) с дисперсией и математическим ожида¬ нием ~ Dx "W;7=r' М [ тх ] = тх. Оказывается, что если в выражении (2-47) ох заменить на YDXJ то величина Т ==mx~nhc (2-48) D Y- т п будет иметь распределение Стьюдента с п — 1 степенями свободы, за¬ висящее только от номера /г, и поэтому не'надо знать величину диспер¬ сии. Действительно, можно сформулировать и доказать следующую теорему: если величина Т равна отношению двух случайных величин Т __ zVn = Z =zVn ~ W fZV"9 где Z — нормально распределенная величина с нулевым математиче¬ ским ожиданием и единичной дисперсией, a W — независимая от. Z величина и V = W2 распределена по закону %2 с п степенями свободы, то при этих условиях случайная величина Т подчиняется закону рас¬ пределения Стьюдента с п степенями свободы (или t-распределению), которое задается формулой Г (iiJA п -fl n + 1 Av2lfi + ^r~=gn(i+£~ где T[j)VnK Т(п+1 Вп = Для доказательства найдем сначала плотность совместного рас¬ пределения величин Z и V. Поскольку по предположению Z и V неза¬ висимы, то их совместная функция плотности есть произведение функ¬ ции плотности z и v: f (z> v) = fz (z) fv(o)= ttL e~ JAnvJ ~ 2, V 2jx где An — ~ . 22 rf"'' '(I) Затем получим: f(z, v) =Ce 2 2 u2 \ 56
где С = ^ . У 2л 22 I'(j') \ 1 1 функция распределения величины Т st W-Р V = Г [££§-<*)-p{z*zx-f;Рг Г* f* =*= С \ \ е 2 2 v2 dv dz. Область ' интегрирования определяется неравенствами — сю ^ z ^ ^ хУ v/У п и представляет множество точек плоскости (2, v), ограни¬ ченное ветвью параболы z = хУ v/У п. Выполняя двойное интегриро¬ вание сначала по 2 от — оо до хУ v/У /г, затем по v от 0 до оо, находим: * YzT ? И-\ Кп _£! J*(*) = C V v2 е 2 dv \ е 2 dz. (2-49) О —оо Для определения плотности распределения величины Т продифферен¬ цируем равенство (2-49) по л: в правой части под знаком интеграла -£xSUx) = Sn (х) = С j ^ V о 00 п V X2V .г- = С У2 е 2 е 2п dv = Г v 2 е J Vn Vn J о о п+1 п+1 оо п — 1 +Г” ^-4+.++ г/п±1\ 1 \ 2 / /1 _|_ + 2 Vnn Т(Ц\ \ при этом выполнена замена переменных 2 и v= 1 + - п , 2 du dv = хй 1+ - п и подставлено выражение для С. Теорема доказана. 57
Чтобы применить эту теорему к величине (2-48), проверим выпол¬ нимость ее условий. Ранее было показано, что среднеарифметическое тх нормальной выборки х распределено нормально с математическим ожиданием М [тх] = тх и дисперсией D[mx\= -- D, т. е. величина (2-50) v D п имеет нормальное распределение с параметрами (0, 1). Далее показано, что оценку (2-13) можно выразить через величину V, распределенную по закону х2 с п 1 степенями свободы, следующим образом: D = <2-51> Отсюда с учетом (2-50) и (2-51) формула (2-48) будет иметь вид: Т _ zVn=\ W ' т. е. величина Т подчиняется распределению Стьюдента с п— 1 степе¬ нями свободы: S,_1(/)=B,_i^l+-^rTj . (2-52) Эта функция — симметричная и при п-> оо стремится к нормальному закону с нулевым математическим ожиданием и единичной дисперсией. Кроме того, в силу симметрии имеем: Sn(t)=l-Sn(-t). (2-53) В данном случае доверительный интервал можно взять симметричным относительно значения пг. Обозначим половину этого интервала через вр и найдем его из соотношения Р {! m — m | < ер} = p. (2-54) Перейдем от величины m к величине Г, распределенной по закону Стьюдента. Для этого умножим обе части неравенства | m — m | «< ер на YпЮ. Тогда формула (2-54) перепишется в виде
Введя величину h получим: />{|7,|<*р} = Р= \Sn_i(t)dt, (2-58) -<Э так как функция (t) является функцией распределения для Т. В силу четности Sn_г (t) можно написать: р = 2$ Sn_i(t)dt. (2-59) О Если составлены таблицы функции (приложение 3) VW=2-jsB.i(0^, (2-60) О то, взяв обратную функцию от ¥ (я) fp = argY(P)f (2-61) можно определить доверительный интервал Однако для удобства сразу составляют таблицу обратных функций (2-61). По найденному из нее значению /р находят: _ ер = 4»]/^. (2-62) и /р = (rn - /р У %; m + /р ]/^). (2-63) Пример 2-4. Определим математическое ожидание и дисперсию (среднеквадра¬ тичное значение) ошибки системы автоматического управления. Уравнения движе¬ ния объекта и системы управления наберем на вычислительной машине, а процесс управления смоделируем в реальном масштабе времени. Значение ошибки будет фиксироваться на фотографической пленке и в определенный момент считываться. Для набора статистики повторяем моделирование и запись. Необходимо выяснить, сколько потребуется решений задачи, чтобы доверительный интервал для оценки математического ожидания ошибки при (5 = 0,9 составлял определенную величину. Для оценки этой величины определим доверительный интервал для различного числа опытов. В результате моделирования получим табл. 2-2 значений ошибки. Таблица 2-2 Номер опыта 1 о 3 4 5 6 7 8 9 Xl 20 25 24 22 18 15 21 22 26 е3 / ~zr > D (2-57) 59
Для п = 9, п — 1 = 8 и Р = 0,9 из таблиц распределения Стьюдента (приложе¬ ние 3) находим t$ = 1,86. Пользуясь полученной табл. 2-2, с помощью формул (2-5) и (2-13) получаем: т = 21,6 м\ £> = 11,8 м, откуда А=1)31; V А=М4. п V п В результате девяти опытов имеем: 8 = гр Y“=1.86.1,14 = 2,12 м. Следовательно, для получения интервала ±1 м девяти опытов мало. Нетрудно убедиться, что 2,12/21,6 « 10%. Поэтому можно считать, что точность определения математического ожидания при девяти опытах составляет 10%. Пример 2-5. Вы с товарищем отправляетесь путешествовать. Сколько денег необходимо взять с собой? Так как вы путешествуете впервые, то советуетесь с ком¬ петентными людьми и составляете табл. 2-3. Таблица 2-3 Номер опыта (опроса) 1 ■2 3 4 5 Xi 550 500 470 580 610; Xi — т 8 42 72 38 68 (xi - m)2 64 1 725 5 200 1 440 4600 Сколько же вам взять денег? m = 542; D = 3 260; — = 652; Л[ — =25>6- tl г п Вы считаете для себя допустимой доверительную вероятность Pi =.0,9. Ваш товарищ не любит рисковать и считает, что событие достоверно при р2 = 0,99. Вы¬ числяем доверительные интервалы для этих значений: ^==2,13; 8^ = 2,56-2,13 = 54,5 руб; fpa = 8,61; 8р2 = 25,6 • 8,61 =221 руб; JPi = (488; 596); УРя = (321; 763). Следовательно, вы будете настаивать взять 596 руб. с гарантией 0,9, а ваш това¬ рищ — 763 руб. с гарантией 0,99. Сколько же вам взять денег? Тут вы начинаете припоминать, что в 5 случаях из 8 ваш друг ошибался, т. е. р2 = 3/8 = 0,4; 1 — р2 = 0,6; а вы ошибались в трех случаях из восьми, т. е. рг = 0,6; 1 — р1 — 0,4. Поэтому нужно взять 665 руб. в соответствии с формулой: = в (375,2; 665). 60
Важная особенность точных методов определения доверительных интервалов в том, что они справедливы для любого малого числа опы¬ тов. Однако они требуют, чтобы закон распределения величин в опы¬ тах был нормальным. Приближенные же методы справедливы при боль¬ шом числе опытов, когда сумма их результатов распределена по нор¬ мальному закону. Большое число опытов в случае применения приб¬ лиженных методов необходимо еще и для того, чтобы формулы для подсчета величин D и т давали точный результат. У точных методов есть большое преимущество перед приближен¬ ными методами, так как они не требуют знания дисперсии и матема¬ тического ожидания. 2-4. ОПРЕДЕЛЕНИЕ ДОВЕРИТЕЛЬНЫХ ИНТЕРВАЛОВ ДЛЯ ВЕРОЯТНОСТИ В настоящее время, когда вероятностные методы прочно вошли в инженерную практику, важно уметь определять доверительные ин¬ тервалы для оценки вероятности по частотам р*. Например, эффектив¬ ность систем управления ракетами или эффективность стрельбы неуп¬ равляемыми снарядами практически определяется путем многократ¬ ного повторения выстрелов. Требуется определить, сколько пусков снарядов следует сделать для того, чтобы с вероятностью р отличие частоты р* от вероятности поражения цели р не превышало малой ве¬ личины е , т. е. P{|p*-p!<e?} = f}. В последнее время с развитием кибернетики и вычислительных машин для определения вероятности широко используется метод ста¬ тистического моделирования (метод Монте-Карло) на ЦВМ. Для этого весь процесс управления с учетом случайных воздействий также моделируется на цифровой вычислительной машине. В этом случае необходимо определить число решений для получения требуемого доверительного интервала. Частоту появления событий р* можно рассматривать как средне¬ арифметическое где xt — число появлений события в i-м опыте. Случайная величина xt может принимать значения 1 с вероятностью п и 0 — с вероятностью Я = 1 — Р- Оценка р* является несмещенной, так как М[р*] = р. Дисперсия оценки Можно показать, что эта дисперсия является минимально возмож¬ ной, т, е. оценка р* является эффективной [Л. 21, 26]. 61
Построение доверительных интервалов для величины р* полностью аналогично их построению для математического ожидания, однако так как дисперсия и математическое ожидание в данном случае связаны между собой, то задача существенно упрощается. Предположим вна¬ чале, что число опытов достаточно велико и величина р* подчиняется нормальному закону распределения (опыты как всегда считаются не¬ зависимыми). Будем считать, что величина р не слишком мала и ве¬ лика. Практически установлено, что достаточно, чтобы tip и nq были больше четырех. Тогда доверительный интервал определяется в соот¬ ветствии с формулой Р{|р*-р|<еэ} = Р = 2Ф*(^-)-1, (2-64) \°р*/ где <V= Y~n’ тР* = Р• С помощью таблиц (приложение 1) находим: 4=arg<D*(±±£-)t и отсюда Н = P* + bV ?)• (2-65) Однако здесь неизвестны р и q. В приближенных расчетах можно было просто заменить: pq=p*(\-p*) c-fSES. где р* определяется из опыта. Однако в данном случае представляется воз- # можным построить более точную про- цедуру вычислений. Действительно, согласно формуле (2-65) с вероятно¬ стью (3 выполняется неравенство Рис. 2-2. Пояснение к формуле (2-69). г— или, возведя обе части неравенства в квадрат, получаем: (p*-p)2<-Jp(l-p). (2-66)' Геометрически это неравенство определяет внутренность эллипса (рис. 2-2) на плоскости р, р*, проходящего через точки (0, 0) и (1,1). Чем больше п, тем уже эллипс. Очевидно, что Ур можно определять следующим образом: по найденному экспериментально р* провести прямую, параллельную оси ординат, и определить две точки пересече¬ ния с эллипсом. Значения р, соответствующие этим точкам пересече¬ ния, дают доверительный интервал j»=(pi, л)* 62
Значения рх и р2 могут быть определены аналитически, если решить уравнение эллипса 1 + 4)рг- 2р(р* + -5t) + P*2z=° относительно р. В результате 2 п ^ * п 4 д2 /Г) Pi,2 = з . (2-67) 1 + iP П При больших п формула примет вид: Pl,2 = р*+ьУ -р.-^р*У. (2-68) Формулой (2-68) можно пользоваться при больших п (порядка сотни), если р не очень малое и не очень большое, такое, что nq и pq порядка 10 и более. Пример 2-6. Установим точность определения вероятности поражения самолета ракетой по результатам моделирования поражения на ЦВМ, если произведено 100 моделирований по методу Монте-Карло и получена частота р* = 0,7. Зададимся доверительной вероятностью Р = 0,99 и определим по формуле (2-67) доверительный интервал. Считаем, что удовлетворяется условие предельной теоремы и р* подчиняется нормальному закону. По таблицам находим /р = 2,58 и Pi = 0,7 +1. (2,58)2 . ю-2 * 2,58 ]/~^ . 0>65 \ 0,7 1+0,0670 1 0,72’ Отсюда Ур = (0,65; 0,72). В соответствии с формулой (2-71) приближенно Ур = (0,663; 0,737). Таким образом, точность монте-карловского моделирования с вероятностью р = 0,99 Л=%7Г юо% =?%. Приближенный расчет дает результаты, отличные от точного на 0,017 0,7 100% =2,4% . Из приведенного примера видно, что доверительный интервал не¬ симметрично располагается относительно р* при точном расчете, что нетрудно увидеть и на рис. 2-2. Приближенный метод, формула (2-68) и формула Лапласа — Муавра дает симметричное расположение.' Случай малого числа опытов. Если число измерений мало, то вели¬ чина р* не подчиняется нормальному закону и следует пользоваться непосредственно биномиальным распределением Бернулли. Известно, что вероятность появления в п опытах события т раз определяется формулой Рт.п = С?РтЯП-т9 63
где р — вероятность появления события при каждом опыте (опыты считаются независимыми). Это биномиальное распределение Бернулли в отличие от нормального. несимметрично, поэтому нельзя взять доверительный интервал симметричным относительно математического ожидания. Кроме того, частота в биномиальном законе — величина прерывистая и поэтому вероятности попадания в интервал, равной (3, может и не существовать. Поэтому следует поставить задачу следую¬ щим образом: по наблюденной частоте р'о = kjn определить довери¬ тельный интервал /р = (ръ р2) такой, чтобы Р {! Ро - р! < е13} = р, (2-69) где В этом случае доверительный интервал — (Р'о -Ро +.£)> а условие (2-69) перепишется в виде Р{р1<р<р2} = $. (2-70) Рис. 2-3. Графики зависимости р от р* Границы интервала — случай- при разных п. ные величины, так как они за¬ висят от случайной величины pi. Можно показать, что верхняя граница /?2 определяется из равенства ^СпРП 1-Р2)п-т = ^- т = I Аналогично нижняя граница рх доверительного интервала опреде¬ ляется из равенства 2СрГ(1-/?1)л-т=!-. m = k о Таким образом, практически доверительные границы определяются по заданной доверительной вероятности |3 и наблюденной. частоте Ро — kjn, причем должны быть известны в отдельности k0 и п. Чтобы не решать приведенные выше уравнения, пользуются таб¬ лицами (приложение 4) и номограммами (рис. 2-3), которые строят следующим образом: по оси абсцисс откладывают наблюденную частоту Р* = Р* — kjn, по оси ординат — вероятность. Для разных п нано¬ сят кривые (для каждой п — две). Пересечения соответствующей ор¬ динаты с двумя кривыми дают два значения для концов доверитель¬ ного интервала. Для каждой доверительной вероятности (3 строят свое семейство кривых. Пример 2-7. Произведено шесть выстрелов по движущейся мишени. В четырех случаях цель поражена. Каков доверительный интервал для оценки величиной 61
п* = 4/6 = 0,67 вероятности поражения при доверительных вероятностях Р = 0,95 Р„ р = 0,99? По таблицам приложения 4 находим доверительные интервалы: Ja = (0,223; 0,957) при р = 0,95; j\ = (0,144; 0,981) при р = 0,99. _ Это означает, что погрешности составляют в первом случае 55%, во втором случае 62%. Если семь раз из десяти цель поражена, то Ja = (0,348; 0,933) при Р = 0,95; Ур = (0,265; 0,963) при Р = 0,99. Если из ста выстрелов попали в цель восемьдесят, то Jo = (0,755; 0,895), р = 0,95; = (0,679; 0,891) р = 0,99. Здесь уже точность составляет 10%. Определение доверительных интервалов по результатам малого числа опытов позволит спланировать опыты на будущее. Таким обра¬ зом, в рассмотренной задаче содержатся элементы такого важного и интересного раздела кибернетики, как планирование эксперимента. На практике встречаются задачи определения доверительных интервалов, когда вероятность события или очень мала, или очень велика. В этом случае находят только одну верхнюю или нижнюю границу доверительного интервала, так как другая равна нулю или единице. Для конкретности рассмотрим вариант с малым р. Точный метод построения доверительного интервала на основе биномиального распределения в данном случае применим, но можно поступить проще. Допустим, что в результате п опытов событие А не появилось ни разу. Назовем это состояние событием В. Требуется найти максимальное значение вероятности наступления события Л, т. е. р = р2, для ко¬ торого вероятность непоявления события при п опытах (вероятность события В) будет меньше а = 1 — р. Очевидно, что вероятность нена- ступления события А при независимых опытах равна: р{В} = (1-рГ. (2-71) Полагая р (В) = а, получаем: (1_р)»=1_р, (2-72) откуда р,= 1-¥Т=Т. (2-73) В случае малой вероятности р легко получить формулу для числа опытов п, при которых обеспечивается заданная верхняя граница доверительного интервала р2 при заданной доверительной вероятности р. Для этого прологарифмируем обе части уравнения (2-73). В резуль¬ тате после несложных выкладок получим искомую формулу в виде <2-74> Можно еще больше упростить приведенные выше формулы. Из¬ вестно, что при малом р биномиальное распределение можно заменить 3 Основы кибернетики 65
приближенно распределением Пуассона с параметром К = пр [Л. 21], т. е. вероятность появления т раз события, вероятность р которого мала, при п испытаниях следует подсчитывать не как пт п /1 \гп Рт,п — Сп Р (1 Р) > а как (2-75) Полагая в формуле (2-78) т = О, получаем Ро.п^е-"Р. Действительно, при малом р формулу (2-71) можно приближенно за¬ писать в виде р(В)^1-пр^е-пР. Тогда вместо формул (2-73) и (2-74) получим: 1П-(1га—; (2-76) In (I — fi) р.77) Рг 4 7 Пример 2-8. Производство телевизоров на заводе представляет собой случайный процесс. Однако вероятность р невыполнения плана мала. При статистических исследованиях оказалось, что в 100 наблюденных случаях план ни разу не ;был сорван. Определим верхнюю границу р2 95%-ного доверительного интервала для вероятности р. С помощью формулы (2-73), учитывая, что Р = 0,95, получаем: р2 = 1 - 10У 1—0,95 = 1 -10/0^5; р2 = 0,026. 2-5. ОЦЕНКИ ДЛЯ ХАРАКТЕРИСТИК СТАЦИОНАРНЫХ СЛУЧАЙНЫХ ПРОЦЕССОВ До сих пор рассматривались оценки характеристик случайных величин. Однако при расчете непрерывных систем управления, таких как АСР, которые описываются дифференциальными уравнениями, очень часто приходится сталкиваться со стационарными случайными процессами. Возникает необходимость определения числовых харак¬ теристик случайных процессов, таких как математическое ожидание (первый момент), корреляционная функция (второй момент) и спект¬ ральная плотность. Точное определение этих функций, так же как и характеристик случайных величин, невозможно, и речь может идти только об их оценке с какой-то погрешностью. Определение величины ошибки различных оценок характеристик случайных процессов яв¬ ляется основной задачей настоящего раздела. Ниже будут рассматриваться только стационарные эргодические случайные процессы, характерная особенность которых заключается в возможности замены усреднения по ансамблю реализаций усредне¬ нием по времени для одной произвольной реализации. Такая замена 66
очень удобна в практических расчетах характеристик случайных про¬ цессов. При усреднении по ансамблю необходимый объем выборки, являющийся эквивалентом числу опытов при оценке случайных ве¬ личин, определяется числом реализаций, а при усреднении по вре¬ мени — временем усреднения Т. Так как в основном будут исследо¬ ваться оценки при усреднении по времени, в первую очередь интересно получить значение времени усреднения Г, при котором обеспечивается заданная ошибка оценки. а) Оценки первого и второго моментов Выбор интервала наблюдения. Известно, что для оценки матема¬ тического ожидания и корреляционной функции стационарного про¬ цесса R (т) используются следующие выражения [Л. 27—30]: т гпт — y§ x(t)dt; (2-78) о г Rt (г) = \ \ (t + т) х° (0 dt, (2-79) о где *° (t) = х (t) — mx. Определим необходимое значение интервала наблюдения 7\ чтобы среднеквадратичная погрешность, обусловленная конечностью Т9 не превосходила заданной величины. Обе эти оценки — несмещенные, так как т М [шт ] = 4 \ М [х (0] dt = M[ х (*)] = mx\ о т М [RT (т)] = ^ J М [х° (t + т) (/)] dt = M [х° (/ + т) (т)] = R (т). о В этих формулах знак математического ожидания М можно понимать как усреднение по времени, так и по ансамблю; более строже и кор¬ ректнее считать, что этот знак означает усреднение по ансамблю. Для определения точности оценок найдем их дисперсию Положив Q = t2 — tl9 получим: т T—tx D[mT] = fi^dt1 ^ R (0) db. о -t, Интеграл такого типа будет встречаться часто, поэтому рассмотрим его особо. Изменим порядок интегрирования, для чего обратимся 3» 67 D [тт] = М ^ х° (t) dt
к рис. 2-4. С помощью рисунка нетрудно убедиться в справедливости соотношений: T-tx Т — 6 idh { f(6)dB={f(9)dB § dtx + § / (9) dB $ dk = 0 — tx о 0 — T -0 TO T = i (Г —* 0) / (0) dO + § (Г + 0) / (0) dQ — 2 § (T — Q)f (0) dQ = o —г о T = 5 (T-|0[)/(0)d0. — Г Здесь использовано свойство четности функции / (б). Применяя эти формулы, получаем: (2-80) Аналогично дисперсия оценки корреляционной функции D [Дг (т)] = М [(RT (т) - RI (г))] = М ^ х° (t) х° (t + т)dt — Rx (x)'j Введем в рассмотрение случайный процесс г (/) = х? (t) л:° (t + т) с математйческим ожиданием mz = Rx (т), не зависящим от t. Предпо¬ лагая, что z (t) стационарен, по крайней мере в широком смысле [Л. 23], аналогичным обра¬ зом получаем: D[RT (т)] = т =4 S С1 — 4=) ^(6)d9,(2-81) о где /?, (в) = М { [2Г (/)— = М{[х° (t) х° (t + т)- — Rx (т)] • [х° (t + 0) a:0 (t + + б -f-.т) — Rx (т)]}. Отсюда видно, что в общем случае дисперсия оценки корреляционной функции выражается через корреляционную функцию процесса х (t) и его смешанный центральный момент четвертого порядка, так как Rz (®)= AI \х° (t) х° (t т) xQ (t -f- б) xQ (t -f- т -\~ б)]—Rx (т») • При этом следует учесть, что функция Rx (т) — детерминированная и 68
ее можно выносить за знак математического ожидания; кроме тбго, м [х° (о (t + т)] = м [х° (t + e)x°(t + e+т)] = Rx (т). Очевидно, использование формулы (2-81) в общем случае затруднено, так как четвертый момент процесса х (t) неизвестен. Поэтому посту¬ пают следующим образом. Предполагают, что четыре величины х19 х2, хЗУ х4 имеют нормальное совместное распределение, тогда для чет¬ вертого момента справедливо соотношение [Л. 27]: М [*i х2 х3 х4\ = т12 т34 + т13 т24 + ти т23, (2-82) где tiiij = M[XiXj\, Положим: Xi = x(k)’, x2 = x(t2)\ х3 = х (к + г); х4 — х (^2 + т), тогда = М[х (к) х (i2)] = R (б); т13 = М[х (к) х (к + т)] = R (т); = М. [х (ti) х (t^-f-т)] = R (0 4" х)\ ^23 = М[х (к) х (к + т)] = R (т — 0); ^24 = М[х (t2) х (t2 + т)] = R (т); ^34 = М. \х (t4 -f- т) X (t2 + т)] = R (б). С помощью этих соотношений формула (2-82) может быть записана в виде М [х (к) х (t2) х (к + т) х- (t2 + т)] = R2 (б) -f- R2 (т) + R (б + т) R (т — б). Подставляя эту формулу в выражение (2-81), получаем: т е* (т) = D [RT (т)J = £ $ (1 - [R2(B) + R (0 + т) R (т - 0)] dB. (2-83) О Для определения точности оценки по этой формуле необходимо знать корреляционную функцию процесса. В подавляющем большинстве случаев она имеет вид: R (т) = Се~аIт I cos (Зт. Для такой функции корреляции с точностью до членов порядка ма¬ лости l/Т2 имеем: е2^ = §{д + ^ТЖ + е-2ат [С08Рт(2т + д + д^г) + + sin 20т (Т — -^2~рр2)]} • При т ->■ О при Т -> оо е2(°°)=2СЙд + д4г}- 69
Для того чтобы ошибка в вычислении корреляционной функции (методическая ошибка) не превышала 5% R (0) при т = 0, т. е. е2(0)^0,05Я(0), следует выбирать интервал наблюдения исходя из условия :20/ “ ' 1 а2 + Р2 ^ а)' Так, при а = 0,2 Исек и (3 = я/2 Нсек Т ^ 102 сек. Выбор вычислительных параметров. Дадим практические рекомен¬ дации по выбору параметров при вычислении функции корреляции [Л. 28—30]. Как уже отмечалось, корреляционная функция оцени¬ вается интегралом Rx (т) ^x(t)x(t + т) dt. При вычислениях этот интеграл заменяют суммой. Для этого ин¬ тервал наблюдения разбивают на N интервалов Т = АД. Тогда t = vA, v = 1, 2 ...; т = рД, р = 1, 2 ... и интеграл можно заменить суммой N rx (х) ^ (ц д) *4 2 * (vA> * [(v+^)д]- V = 1 Или, полагая Rx (цД) = #*(ц.); х (vA) = xv; *[(v-t-n) Д] = *у+Й, получаем: N-ц 21 XvXv+V' M->0. (2-84) V = 1 так как при v ^ N — p xv+Vi = 0. Аналогично вычисляется взаимная корреляционная функция N-ix Ryx (ц) ^ д/' ^ ^ Уv+jx» р > 0. (2-85) V = 0 Чтобы определить необходимые для расчета параметры Д, N и др., рассуждают следующим образом. Любой стационарный случайный процесс можно представить как сумму синусоидальных сигналов со 70
случайными фазами и амплитудами, причем последние-не коррелиро- ваНы между собой: П *(о=2 «ftsinK^+<pO. (2-86) k=\ где ф* — случайная фаза; со* — детерминированная частота, а М [dj\ = 0; М [at aj] = 0; / = 1, 2, п\ 1ф]\ Величина Ak = М [а|] представляет значение спектральной плотности при частоте со*. Рассмотрим какую-нибудь одну гармонику x(t) = d sin (со/ + ф), (2-87) где я, со, ф могут принимать любые значения а*, со*, ф* (k = 1,2, ...,я). Для простоты считаем, что я, ф, со — постоянные величины. Тогда кор¬ реляционная функция процесса (2-87) а2 Rx 00 = ~2~cos а)Т- При конечном интервале наблюдения Т выражение для корреляцион¬ ной функции имеет вид: Rx (т) в *. | costot -1 [Sin (2соГ+Ит + 2ф)-5ш (От+2ф) j| (2.g8) Второй член в этом выражении определяет ошибку, возникшую вслед¬ ствие конечности интервала наблюдения. Эта ошибка имеет порядок 1/со Г и убывает с ростом Т. Но соТ = 2л77Г0, где Т0 — период, соот¬ ветствующий частоте со. Так как в формулах (2-84) и (2-88) для данного р используется интервал Т = (N — р) Д, а не NД, то соГ = ~ (N - ц) А. 1 0 Поэтому для обеспечения 2%-ной точности расчета следует взять: A=s50 1 0 ИЛИ Л/Д-рД^8Г0. (2-89) Из вышеизложенного следует, что точность вычисления корреля¬ ционной функции зависит от интервала наблюдения Т и максималь¬ ного т или р, соответствующего этому т. При условии 2%-ной ошибки значение тмакс можно выбирать исходя из | Д (т) |< 0,02 | Д (0)| (2-90) при т ^ тмакс. Однако для использования этой формулы необходимо знать саму корреляционную функцию. Поэтому величину тмакс выби¬ рают исходя из максимального периода, который имеется в процессе, или из требования самой низкой частоты /мин, которую необходимо «уловить» в корреляционной функции и спектральной плотности. 71
Например, пусть полоса АСР составляет 1 гц. Для определения флюк- туационных ошибок системы рассчитывают спектральную плотность помех на входе. Очевидно, что в этом случае достаточно взять /мип = = 0,01 гц, так как при частотах/<0,05 гц амплитудно-частотная харак¬ теристика системы и спек¬ тральная плотность помехи на входе сохраняют посто¬ янные значения. При известной величине /м 1 2 я fu (2-91) Формулу можно пояснить следующим образом. Как известно, корреляционная функция гармонической составляющей частоты со равна: А2 —y cos сот.. Очевидно, для того чтобы составляющая частоты сомин выявилась в корреляцион¬ ной функции, необходимо, чтобы т приняла все значе¬ ния от 0 до тм опреде- Рис. 2-5. Пояснения к определению тмакс при расчете корреляционной функции. а — график исходного процесса с периодической сос- — график соответствующей тавляющеи cos со ляемой формулой (2-91). При этом на кривой кор¬ реляционной функции по¬ лучится полный период (рис. 2-5). Перейдем к рассмотре¬ нию методики определения величины Т. Согласно фор¬ муле (2-88) при конечном Т на ошибку главным образом оказывают влияние низкие частоты, так как величина со стоит в знаменателе, по¬ этому в первом приближении Т можно определить по сомин. При 2%- ной точности из формулы (2-88) имеем: мин’ корреляционной функции. 1 Т(йм : 0,02, откуда 50 ^мин (2-92) Сравнивая неравенства (2-91) и (2-92), получаем следующую зависи¬ мость: 10 т„ 72 (2-93)
При выборе шага Д поступают следующим образом. Путем много¬ численных вычислений корреляционной функции для гармонического сигнала устанавливают, что ошибка будет меньше 2% при шаге А' л Тп— • 10 со Подставляя наивысшую частоту процесса сомакс, получают следую¬ щую расчетную формулу: п 1 (2-94) ’ 10о)м ’20 f макс Поясним смысл этого соотношения. Во-первых, значение А должно быть настолько мало, чтобы случайный процесс менялся незначи¬ тельно за время Д. Кроме того, перед расчетом обычно стараются выделить макси¬ мальную частоту случайного процесса, до которой спект¬ ральную плотность случай¬ ного процесса следует вы¬ числять точно. Так, если случайный процесс воздейст¬ вует на следящую систему, полоса которой ограничена частотой /макс (рис. 2-6), то очевидно, что спектральную плотность следует рассчиты¬ вать до частоты /макс> так как более высокие частоты слу¬ чайного процесса никакого влияния на работу системы не оказывают. Для воспроизведения си¬ нусоидального сигнала по заданным дискретным значениям достаточно знать его значения в пяти или десяти точках [в формуле (2-94) взято 20 точек на периоде]: Д = (0,1 4-0,05)7-!-. (2-95) /макс Пример 2-9. Для диагностики неисправности двигателя используется опенка корреляционной функции шума блока цилиндров. Необходимо определить пара¬ метры испытаний по определению этой оценки, т. е. найти тмакс, Т и Д, если из кине¬ матики двигателя известно, что исследуемая система пропускает шумы в диапазоне: /мин==5 ЗЦ\ /макс=Ю0 Щ' Используя эти данные, получаем: «мин = ЗДмин = 2 • 3,14 • 5 ^ 31,5 рад/сек; ^макс == 2л/макс = 2 л • 100 628 рад/сек. По формулам (2-91), (2-92) определяем: 1 1 Рис. 2-6. Спектральная плотность входного сигнала и квадрат модуля частотной харак¬ теристики системы (пояснение к расчету спектральной плотности). /мин 50 = 50 Имин 31,4 — = 0,2 сек; 1,6 сек. 73
Шаг для 20 точек на периоде [формула (2-94)] равен: = 2оПоо = 0,5'10-3 сек■ Если использовать пять или десять точек, то [формула (2-95)] имеем: 1 1 5/макс ^ * ЮО = 0,2 • 10-2 сек б) Оценка спектральной плотности случайного стационарного процесса Часто спектральная плотность стационарного случайного процесса определяется как 51 (со) = Т | Хт (со) |2, (2-96) где г Хт (©) = $*(0<гув,/Л. о Найдем математическое ожидание оценки (2-96): г г М [S, ((0)] = Г м [ I Хт (со) |2] = у[ [ М [х ft) х (i2)] ew. Лх dt2. о о Вместо формулы (2-96) можно пользоваться выражением 52 (Ю)=Т|ХГ (СО) |«, где Т/2 Хт ((D) = 5 e~i(0idt- (2-97) — Г/2 При этом все полученные ниже формулы остаются в силе для стацио¬ нарного случайного процесса, так как г г М [Si (0)] = М [S, (со)] = i J е-1»dhdt2 = о о Г/2 Г/2 = f § J Я (fa - *i) еd/x Л,.. —Т/2 —Т/2 После замены переменных т = /2 — tx и преобразований, аналогич¬ ных тем, которые использовались при выводе формулы (2-82), имеем: г о М [S2 И] = ^ (l — y)rx (т) e-i™ dx + ^ ^1 -f- —jRx (т)e~'m dx = о т т -т 74 = jj (1 - у!) Rx W е~/ют dx. (2-98)
Переходя в этой формуле к пределу, получаем: оо lim М [Si (со)] = SX(со) = f R (т) er dx, 7'^0° -оо т. е. оценка спектральной плотности S% (со) — асимптотически несме¬ щенная при Т оо (смещение этой оценки стремится к нулю при X оо). Таким образом, в части смещения оценка S% (со) ведет себя нормальным образом. Однако в отношении дисперсии этой оценки положение неблагополучно, так как можно показать [Л. 20, 31, 32], что для нормальных процессов lim D [Sf (со)] = S*2 (со). (2-99) Т -*■ оо Если спектральную плотность оценивать по формуле Т/2 S* (со) = J Ri (x)e-i<*xdx, —Т/2 где . Т/1 R* СО = y § x(t+x)x (t) dt, Т/2 то из соотношения (2-99) следует, что lim D [S* (со)] = S2X (со). (2-100) Т-+СО Действительно, Т/2 Т/2 S?(co) = ^- { i x(tJrx)e-i(*V+Vx(f)e+i(iit dtdx = — Г /2 —Т /2 T/2 t+T/2 = y ^ x (t) e/co/ dt ^ x (TO e~ d%i —T/2 t — T/2 и при большом T Sf(co)^l|Xr (со) |2 = S* (со). Отсюда следует, что по одной реализации стационарного случайного процесса можно определить корреляционную функцию, но нельзя определить спектральную плотность, так как дисперсия оценки S* (со) при Т оо стремится к квадрату спектральной плотности S (со), а не к нулю. Для определения спектральной плотности поль¬ зуются одним из трех способов. Самый простой способ состоит в том, что большой интервал наблюдения разбивают на п частей. Оценка спектральной плотности получается как среднеарифметическое оценок (со) на всех отрезках. Дисперсия такой оценки будет равна: j;Sl (со). 75
Ошибку определения спектральной плотности можно уменьшить, сглаживая оценку S'i (со) по частоте с помощью некоторой весовой функции wT (X, со): со оо S*(co)= ^ wt (К ®) 5* (X) dX= ^wt (К e>)jr\xT {%)\2d%. (2-101) — оо — оо В качестве весовой можно взять функцию вида I шг 1^—4 ; wT{%, а>) = г (2-102) [О | % — со | > ат. При выборе функции веса в виде (2-102) формулу (2-101) можно переписать как (0+^7' s*H = 2~- ) St (X) dx. оо—a f Физически это означает, что нас интересует только некоторый участок частот от к — ат до % + ат, в котором оценка должна быть точнее (вне этого интервала точность нас не интересует). Для выбора параметра ат вводят критерий оптимальности в виде минимума следующего выражения: 7 = М {[S* (со) - Sx (со)]2} + {М [S* (со) - Sx (со)]}2 = min. (2-103) Первый член в последнем выражении представляет собой дисперсию самой оценки, а второе слагаемое — квадрат смещения оценки. При уменьшении величины параметра ат полоса пропускания сглаживаю¬ щего фильтра уменьшается, уменьшается дисперсия оценки, увеличи¬ вается ее смещение и поэтому имеется оптимальное значение пара¬ метра ат. Приведенный способ сглаживания оценки спектральной плотности SJ (со) тесно связан с теоремой Дуба [Л. 32], которая может быть за¬ писана с помощью соотношений: (Ог С0г lim ТС \ХТ (co)|2dco = lim { 5f (co)dco= [ Sx(<i>)d<x>. (2-104) Т-+оэ 1 J Т-уоо J J (Oi COi ©I В этих формулах сходимость к пределу понимается в среднеквадратич-. ном смысле, т. е. математическое ожидание квадрата отклонения от предела стремится к нулю при Т -> оо. Заметим, что хотя математи¬ ческое ожидание оценки S* (со) стремится к Sx (со), математическое ожи¬ дание выражения [S2 (со) — Sx (со)]2 не стремится к нулю. Если пра¬ вую часть равенства (2-104) поделить на со2 — щ и устремить со2 — сох к 0, получится спектральная плотность процесса Sx (со). В левой части такого перехода сделать нельзя, так как Хт при Т оо является бе¬ лым шумом и, следовательно, на любом сколь угодно малом интервале (cojl, со2) совершает бесконечное множество скачков (предел можно брать, если он существует). 76
По существу теорема Дуба доказывает, что несмотря на то, что оценка спектральной плотности не стремится в среднеквадратичном смысле к самой спектральной плотности, интеграл от этой оценки стремится в среднеквадратичном смысле к интегралу от спектральной плотности. Если не решать строго задачу оптимального выбора ат по крите¬ рию, задаваемому формулой (2-104), то можно дать следующие, не очень строго обоснованные рекомендации по выбору этой величины. С одной стороны, при данном Т оценка (2-101) тем лучше, чем больше ат, так как тем лучше будет сглаживание, однако, с другой стороны, функция S* (со) должна в интервале (со — аТу со + ат) быть линейной функцией частоты со, или она должна быть постоянной в этом интер¬ вале, для того чтобы получить менее искаженное сглаживающим фильт¬ ром и не зависящее от ат значение оценки S*: ay+aj' S*(co) = J- j SI (к) dk^~ Sf (<o) 2ат = Sf (ш). ay—aj С помощью формул (2-101) и (2-103) можно предложить следующий способ экспериментального определения спектральной плотности ста¬ ционарного случайного процесса по одной реализации. Случайный процесс пропускается через полосовой фильтр (со — ат, со + ат), и в течение долгого времени измеряется его мощность или дисперсия (при этом предполагается, что процесс имеет нулевое математическое ожидание). Тогда спектральная плотность определится как 5 Л где£> — дисперсия; 2ат — полоса фильтра. На основании этого иногда применяется процедура сглаживания не оценки спектральной плот¬ ности, а самой реализации или оценки корреляционной функции [Л. 32], которая также дает желаемый результат. Наиболее распространен на практике следующий способ определе¬ ния спектральной плотности. С помощью формул (2-84) и (2-85) вы¬ числяют корреляционную функцию по одной реализации. Затем ее аппроксимируют по методу наименьших квадратов выражением вида Qg—v- |т| cos Рт (2-105) или комбинацией таких выражений. После этого берут преобразования Фурье от аппроксимирующего аналитического выражения. Иногда наряду с (2-105) используют в аппроксимирующем выражении еще слагаемые вида Се~а'хI sin р | т |; С | т |v£-a-lTl cos рт; С | т |ve~aJTl sin Р | т |. (2-106) Оказывается, корреляционную функцию реального стационарного процесса в большинстве случаев можно представить как сумму выра¬ жений вида (2-105) и (2-106). Спектральная плотность такого процесса 77
будет иметь вид дробно-рациональной функции [Л. 27]. На этом спо¬ собе следует подробнее остановиться. Выше было получено г М [S! (ю)] = Afyr| Хт (®)|2]= ^ (l-L®J)^(0)e-^d0, (2-107) — Т откуда в пределе со lira М [5! (со)] = \ Rx (0) e~y“e dQ = Sx (со), Т-*со —оо на основании чего делалось заключение о несмещенности оценки Sf (со). С другой стороны, можно получить: г ~ |Хг (<») |2= ^ (l-'|!)^(0)^9d0, , (2-108) — г Г/2-0 ^(в) = Т=Т S Xo(t + Q)xt(t)dt (0>О). - Г/2 Таким образом, если известно точное выражение для корреля¬ ционной функции, то преобразование Фурье от нее дает искомую спектральную плотность. Однако непосредственное определение спект¬ ральной плотности по одной реализации (без применения усредне¬ ния или сглаживания) или по оценке корреляционной функции, вычисленной по одной реализации, которая задана на конечном интер¬ вале, невозможно согласно формуле (2-108). Если не применять пер¬ вый и второй способы, то единственная возможность определить спект¬ ральную плотность — это точнее вычислить корреляционную функ¬ цию, для чего можно применить усреднение по ансамблю. Введение процедуры аппроксимации оценки корреляционной функции, вычис¬ ленной по одной реализации, предусматривает угадывание точного выражения для корреляционной функции. Это аппроксимирующее выражение тем ближе к истинной корреляционной функции, чем больше интервал наблюдения Т, чем точнее вычислена оценка функ¬ ции R (т), чем точнее произведена процедура подбора аппроксими¬ рующего выражения. Корректность третьего способа определения спектральной плотности требует специального исследования, так как, с одной стороны, аппроксимации подвергается все та же оценка корре¬ ляционной функции на конечном интервале по одной реализации, но, с другой стороны, процедура аппроксимации при достаточно боль¬ шом интервале Т безусловно, позволяет угадать достаточно точное аналитическое выражение для корреляционной функции. По существу процедура аппроксимации корреляционной функции эквивалентна сглаживанию ее оценки, которое эквивалентно сглажи¬ ванию оценки спектральной функции по формуле (2-101), только для этого следует взять весовую функцию kT (X, t), равную обратному пре¬ образованию Фурье от функции wT (К со). Первый способ определе¬ ния спектральной плотности путем разбиения реализации на п интер¬ валов тоже эквивалентен взвешиванию оценки S% (со) с помощью спе¬ циальной функции wT (Я, со). 78
2-6. ЭЛЕМЕНТЫ СТАТИСТИЧЕСКОГО АНАЛИЗА СОВОКУПНОСТИ СЛУЧАЙНЫХ ВЕЛИЧИН Две случайные величины X и У связаны детерминированной функ¬ циональной зависимостью у = ср (лг), (2-109) если каждому допустимому значению х соответствует одно (в случае однозначной функции) значение у [Л. 33].Если функция неоднозначна, то конкретному значению X всегда можно сопоставить ряд (конечный или бесконечный) вполне определенных значений Y. В качестве при¬ мера можно привести следующие функции: У = а1х + а2\ у = х2\ у = sin л:; у = arccos х. Преобразования случайной величины рассматриваются в теории вероятности. При этом интересуются изменением в различных функ¬ циональных преобразованиях характеристик случайной величины X: функции распределения, моментов и пр. Однако в практических ис¬ следованиях возникают другие специфические задачи. Детерминиро¬ ванная функциональная зависимость практически встречается редко или, строго говоря, совершенно отсутствует, так как при измерениях величин X и Y всегда имеются ошибки и влияние случайных, неучи¬ тываемых факторов. Причем каждая из величин X и Y может зависеть от одних и тех же и от различных случайных факторов. Так, X может зависеть от случайных величин Zv Z2, Vv V2, a Y от Z1 и Z2. В этом случае влияющие факторы Zx и Z2 общие, остальные разные, что может иметь место в случае, когда измерительные устройства для X и Y разные или когда эти величины имеют различную природу, например X — электрическая величина (ток), a Y — механическое перемеще¬ ние. В этом случае связь двух случайных величин становится статис¬ тической (случайной) в том смысле, что по данному значению X нельзя получить определенное значение Y, так как это последнее зависит помимо X еще от случайных факторов Vx и У2. В общем случае (как и в данном частном) можно считать, что У зависит от X случайным образом и эту зависимость можно определить с помощью известных из теории вероятности характеристик многих случайных величин, таких как совместное распределение вероят¬ ности, условная плотность распределения, коэффициенты корреля*- ции, моменты и пр. Существует непрерывный переход от строгой детерминированной функциональной зависимости через статистическую зависимость к пол¬ ностью независимым случайным величинам. Приведем несколько при¬ меров. Состояние погоды У (ясно или пасмурно) в данной местности существенным образом зависит от атмосферного давления X. При низком давлении погода пасмурная, при высоком — ясная. Предска¬ зание погоды зависит от изменения давления: при повышении она улуч¬ шается, при понижении ухудшается. Однако наряду с такой детерми¬ нированной функциональной зависимостью имеется большое коли¬ 79
чество факторов, от которых зависит погода на последующие сутки или неделю: давление в соседних районах, температура, направление и сила ветра и пр. Часть этих факторов поддается учету, остальные приходится считать случайными, так же как и зависимость от них. Таким образом, зависимость погоды на следующие сутки от изменения давления за предыдущие сутки носит в общем случае статистический характер. Можно привести еще пример из области сельского хозяйства. Урожай зерна У существенно зависит от количества вносимых удобре¬ ний X. Однако, помимо того, урожай зависит еще от многих факто¬ ров: состава и состояния почвы, семян, погоды и пр. Поэтому зависи¬ мость величин X и Y носит статистический характер. : ' Не очень строго статистическая связь может быть определена как такая зависимость, при которой изменение значения одной величины X вызывает изменение закона распределения (а не значения) другой величины У. Если при статистической зависимости изменение. одной величины приводит к изменению среднего значения другой., то такая связь называется корреляционной. В двух приведенных примерах средние значения величин У (погода и урожай) детерминированно за¬ висят от значений X (изменения давления и количества удобрений). При корреляционной зависимости для определения статистической связи достаточно задать корреляционные моменты. Это простейший частный случай статистической зависимости, при которой следует задавать законы совместного распределения случайных величин X и У. Данный раздел, с одной стороны, связан и перекрывается с теорией оценок, так как речь пойдет об оценке и достоверности тех или иных параметров связи, и, с другой стороны, переходит в теорию про¬ верки статистических гипотез, основной целью которого является опре¬ деление законов распределения одной случайной величины или их со¬ вокупности по результатам измерений. На практике встречается много частных постановок задач установ¬ ления статистической связи. Так, часто встречается вид функциональ¬ ной связи (линейная, квадратичная и пр.), и требуется определить только числовые значения параметров этой зависимости по получен¬ ным в результате эксперимента значениям X и У. Иногда при этом путем последовательных проб подбирается и наилучший вид детерми¬ нированной функциональной зависимости (линейная или квадратич¬ ная). С такой задачей мы встречались при аппроксимации расчетной корреляционной функции аналитическим выражением. Наиболее рас¬ пространенным и эффективным способом решения этой задачи является метод наименьших квадратов, который будет рассмотрен в данном па¬ раграфе. В более общем случае о связи двух случайных величин ни¬ чего не известно, и требуется определить на уровне корреляционных моментов степень их зависимости. Корреляционному анализу посвящен второй раздел данного параграфа. Более совершенные и сложные ме¬ тоды установления статистической связи, в частности определение взаимных законов распределения, будут рассмотрены в следующей главе, посвященной проверке статистических гипотез. 80
В последнее время в результате решения задач анализа статистиче¬ ской связи случайных величин появился новый раздел математической статистики — планирование эксперимента, который занимается ис¬ следованием методов организации сбора и измерения значений слу¬ чайных величин для установления статистической зависимости. а) Метод наименьших квадратов Допустим, что имеется совокупность двух случайных величин X й Y и известен вид функциональной зависимости между ними: у = = Ф (х). На миллиметровой бумаге откладывают точки, соответствую¬ щие измеренным значениям х и у (рис. 2-7). Требуется провести через эти точки кривую наилучшим образом [Л. 21] Понятие «лучшее» ма¬ тематически может быть выражено различным способом. Проводить непосредственно через точки неправильно, так как очевидно, чтс раз¬ брос вызван ошибками измерений. Например, можно потребовать чтобы сумма абсолютных зна¬ чений расстояний точек от кривой была минимальна или максимальное отклонение было минимальным и пр. Но наиболее распространенным критерием оптимальности яв¬ ляется минимум суммы квад¬ ратов отклонений 2 [у,-Ф (*,)]* = min. (2-110) I = 1 Критерий минимума сум¬ мы квадратов часто приме¬ няется по трем соображениям. Во-первых, при этом боль¬ шое количество задач ока¬ зывается возможным решить аналитически. Во-вторых, при квадра¬ тичной зависимости получается, что ущерб (сожаление) при малых значениях ошибок мал, а с их увеличением резко возрастает. Это об¬ стоятельство правильно отражает практическую ситуацию, так как малые ошибки менее опасны, чем большие. И, наконец, при этом кри¬ терии удовлетворяется критерий максимума правдоподобия для слу¬ чая, когда отклонения подчиняются нормальному закону распреде¬ ления. Задачу будем решать при условии, что известен вид функции и требуется найти только числовое значение параметров. В частности, зависимость у = ф (х) может быть задана прямой линией У = ах + Ь, или параболой у = ах2 + Ьх + с, или функциями вида (2-107) и (2-108) при вычислении корреляционной 81 Рис. 2-7. Пояснение к процессу сглаживания случайных данных.
функции. Допустим, что сделано п замеров величин Xt и Y:. Предпо¬ ложим, что среднеквадратичные ошибки измерения во всех точках оди¬ наковы: = о2 = ... = ап = о и распределены по нормальному закону. Тогда величины У,- подчиняются нормальному закону распре¬ деления [уг-ф(*,-)]2 ''“-TFT* • где ф (**) — математическое ожидание величин Y Принцип максимального правдоподобий применительно к этой за¬ даче может быть сформулирован следующим образом: требуется так подобрать математическое ожидание ф (я*), чтобы вероятность события, состоящего в том, чтобы величины Yt прйняли значение yh была мак¬ симальна. Такая постановка задачи о сглаживании по методу наимень¬ ших квадратов фактически заимствована из раздела проверки статис¬ тических гипотез. Строго говоря, вероятность любых событий Уt = yh как и их произведения, равна нулю, так как случайные величины Yt непрерывные. Поэтому следует пользоваться плотностью распределе¬ ния вероятности или элементами вероятности fi (Уд dyt = е ^ dyh Найдем вероятность того, что случайные величины Ух, У2, ..., Yn лежат в пределах: (.Уit Уь dyi)* i= 1 > 2, • • •» Считаем, что опыты независимы, поэтому искомая вероятность равна произведению вероятностей п 1 е №i - V (*i)P ~ 1аГ St yi~<f *** dy, = Ke- , = 1 , (2"111) где К — некоторый коэффициент, не зависящий от ф (лг£-). Необходимо выбрать такие математические ожидания ф (*,), чтобы функция (2-111) обращалась в максимум. В этом и заключается принцип максималь¬ ного правдоподобия. Очевидно, что величина 15Г 53 [*»-ф <**)]* i = 1 меньшая единицы, будет иметь наибольшее значение, когда показатель степени по абсолютной величине минимален, т. е. 2а2 Отсюда, отбросив множитель V^o2, получим условие минимума суммы 82
квадратов, задаваемое формулой (2-110), т. е. доказано, что для слу¬ чая независимых измерений, которые подчиняются нормальному за¬ кону распределения, принцип максимума правдоподобия совпадает с методом наименьших квадратов. Дадим практические методы определения параметров кривой при методе наименьших квадратов. Допустим, что функция ф (х) зависит оТ т переменных аъ а2, ..., ат у = ц(х, аъ а2 ат). Требуется найти такие значения av> чтобы п 2 аь «г am)]2 = min. i = 1 Для этого продифференцируем это выражение по av и приравняем нулю п 2 1У‘~ф(*<. «ь •••> =°> (2-112) 1=1 ’ 1 v = 1, 2, , т. Уравнения (2-112) представляют собой систему т нелинейных алгеб¬ раических уравнений с т неизвестными av. Решать эту систему в об¬ щем виде нельзя, так как требуется задание функции ф (х, аъ аъ ..., ат). В качестве примера найдем выражения для коэффициентов линей¬ ной функции: у = агх + а2\ Подставив их в формулу (2-112) п Л [i/i - (ад + а2)] Xi = 0; i=\ п Л [Ui — +Д2)] = 0, i= 1 и деля оба уравнения на п, запишем: 4, 1 [X, Y] — ад* [X] - а2т% = 0; т*у — ахт* — а2 = 0, 83
где 2 ml = -1 1 п п 2 yt т*у = —— ; У П ’ 2 *! <*[Х\ = -=Т- «Ь[Х, У]=~ 2 x‘Yi и решив их, получим: «ьЛ*. У]~т%т* 01 ~ а} [*]-(//»*)* - (2-113) аг = т% — агт:х. ) .. Формулы значительно упростятся, если ввести центральные мо¬ менты Z (xi-<)(Yi-m$) 2 xiyi i = 1 П 2 (xi-mt)(xi-mt) R% = — - =1—Ц; т*хт*у = al, [X, F] — rnpnp, D% i = 1 2 xl - (m*f = at [X] - Ю2; 2 *<• Л n 2 * mS = -—-— Тогда 84 ai = -j$r\ a2 = ml — a1m% (2-114) X
или /?* y-tiy = i$(x-т*)- (2-115) Аналогичным образом могут быть получены значения для парабо¬ лической функции. Пример 2-10. В результате эксперимента получены значения X и У (табл. 2-4) и можно составить табл. 2-5. Таблица 2-4 X 1,0 2,0 3,0 4,0 5,0 Y 1,25 2,5 2,75 3,5 4,25 Таблица 2-5 У'г А %i У1 1,0 2,0 3.0 4.0 5.0 2*1=15 1.25 2.5 2,75 3.5 4.25 =14,25 1 4 9 16 25 2*; =55 1.25 5,0 8.25 14,0 21,25 =49,75 С помощью формул (2-114) получим: 5-49,75 —15 - 14,25 аг- 5-55-152 55-14,25 — 15-49,75 ; 0,7; ^ 1,1. 2 5 - 55 — 152 Линейная функция запишется в виде у== 0,7*+1,1. Пользуясь табл. 2-6, определим сумму квадратов отклонений для этого выра¬ жения. Таблица 2-6 xt Yi У1 Yi-yi Wi-vd* 1,0 1,8 1,25 0,55 0,3025 2,0 2,5 2,5- 0,00 0,000 3,0 3,3 2,75 0,55 0,3025 4,0 3,9 3,5 0,4 0,16 5,0 4,6 4,25 0,35 0,1225 ^(Yi-Hi)2 =0,89 85
б) Элементы корреляционного и регрессионного анализа Для определения корреляционной зависимости между случайными величинами X и У необходимо использовать понятие условных сред¬ них [Л. 33]. Условным средним дх называется среднеарифметическое значений Y, соответствующих X = х. Очевидно, что при увеличе¬ нии числа опытов условная средняя стремится к условному математи¬ ческому ожиданию My(x) = Y |х_* = Ит ух. п —*■ СО Если при значении х — 3, Y принимает значенйя г/, = 7, у2 =' 3, уч — 8, то условная средняя - 7+3+8 с ух=—3— = 6. Корреляционной зависимостью У от X называется функциональная зависимость ух от х: дх = ф(х). Это уравнение называется уравнением регрессии Y на X, функция Ф (я) — регрессией Y на X, а ее графическое изображение — линией регрессии У на X. Аналогичным образом определяют регрессию X на Y. Корреляционной зависимостью X от Y называется функциональ¬ ная зависимость условной средней ху от у: Xy = f (у)- Обычно отмечают две задачи корреляционного анализа. В первом случае определяют вид корреляционной зависимости: линейный, квадратичный, синусоидальный и пр. Во втором случае определяют степень (силу) корреляционной связи, которая оценивается по вели¬ чине рассеивания точек относительно линии регрессии. Теснота груп¬ пирования точек около линии регрессии чаще всего оценивается с по¬ мощью суммы средних квадратов. Причем степень корреляционной связи может оцениваться как Y относительно X, так и X относительно Y, которые в общем случае не совпадают. Рассмотрим вначале простейший случай отыскания выборочного уравнения прямой линии регрессии по несгруппированным данным. При этом предполагается, что величины X и У связаны линейной кор¬ реляционной зависимостью. Для определения этой зависимости произ¬ ведено п независимых испытаний и получено п пар значений: (*i> Ух). (*2. г/г). .... (*„, Уп)- Так как эти пары представляют собою случайную выборку из совокуп¬ ности всех возможных значений векторной случайной величины (X, У), которая называется генеральной совокупностью, то все уравнения и параметры, которые получаются на основании этих данных, назы¬ ваются выборочными. Будем считать, что различные значения х при¬ 86
знака (величины) X и соответствующие им значения у признака У встречаются по одному разу. В этом случае не требуется группировать данные, а также использовать понятие «условное среднее». Искомое уравнение регрессии ух = а1х + а2 можно переписать в виде У* =а1х + а2. Угловой коэффициент прямой регрессии У на X называется выбо¬ рочным коэффициентом регрессии У на X и обозначается через р^: У*=руХХ + а2. Если подбирать параметры рух из условия минимума суммы квад¬ ратов отклонений измеренных значений yt от вычисленных по формуле прямолинейной регрессии п F (Р> а2)= 2 (У*-Удг = min, i = 1 то для величин рху и а2 получим формулы, аналогичные тем, которые были получены в методе наименьших квадратов для прямолинейной зависимости (2-114). В данном случае R* п —п — ху РуХ U1 Пу. . ^ X При большом числе измерений и ярко выраженной статистической связи ситуация становится сложнее: одно и то же значение xt может появляться пх. раз, так же как и одно значение yt может встречаться riy раз, а пара значений Xi и yt может встретиться пх.у. раз. Поэтому при корреляционном анализе составляется корреляционная таблица (табл. 2-7). Таблица 2-7 Y X Пу 10 20 30 40 0,2 3 5 12 20 0,3 6 — 3 9 18 0,4 — 12 — — 12 пх 9 12 8 21 50 В каждой внутренней клетке указывается число наблюдений соответ¬ ствующих признаков, на пересечении которых расположена клетка. В первой строке указываются значения признака X, в первом столб¬ це — значения признака У. В правом нижнем углу указано общее число испытаний п = 1>пх = Япу. Получим для этого случая уравнение регрессии с учетом частоты появления признаков. В предыдущем разделе были получены соотно¬ 87
шения, определяющие уравнение регрессии, которое можно переписать в виде (2 -^2) Рз'л: (2 ^2 = 2 %У» (2 х)руХ + па2 = ^у, где для простоты опущены индексы суммирования, так как везде пред¬ полагается, что суммирование производится по индексу i или j или i и / в пределах от 1 до п. При выводе этих соотношений считалось, что значения Х и Y встречаются по одному разу. Учтем в этих уравнениях то, что признаки появляются несколько раз и имеется корреляцион¬ ная таблица. Если использовать соотношения для средневзвешен¬ ных значений к п 2] n*ixi = 2 = пт*х = 2 X = пх; i= 1 v = 1 I п 2! пУ;У] = 2] Уч = пт*у = ^у=пд\ j= 1 V = 1 k п 2] пхХ\ = 2j = па* [X] = 2 *2 = п'х2; i = 1 V = 1 2j Пх-yjXiyj = 2] ХУ = 2] ч k I п = 21 = 21 v 1=1 у=1 в которых учтены частоты появления признаков Xi, tjj, то соотноше¬ ния, которые определяют уравнение регрессии, перепишутся в виде (пх2) + (пХ) п2 = И пХу ху\ (£)рyX + <h = g. Отсюда можно найти параметры рух и аг и написать уравнение рег¬ рессии Ух ~ РУXх + ^2* Аналогично соотношению (2-115) это уравнение можно переписать в виде Ух-9 = Рух (х - £); 9х-9 = гв-°у-(х-~х). иХ Это уравнение называется выборочным уравнением регрессии У на X. Коэффициент гв называется выборочным коэффициентом корреляции и определяется как
где в соответствии с ранее приведенным Е пху ху — пху Ъпхуху—пху ,плло\ р*--.ЕР-ат"—55— <2■116, Поэтому Е пхуху—пхд Г „ = ■ Здесь а* и ау — выборочные среднеквадратичные отклонения, опре¬ деляемые из соотношений: ol=x2— л: ; = ■ Аналогичным образом можно написать выборочное уравнение пря¬ мой регрессии X на Y Ху— х=гв~ (х — х). Оба уравнения прямых могут быть записаны в следующем симметрич¬ ном виде: 9х—9_г х—х 9 Оу В Ох 9 ху—х у—9 — = Гп— . Оказывается, величина выборочного коэффициента корреляции указывает на степень линейной корреляционной зависимости, на сте¬ пень тесноты этой зависимости. Степени линейных корреляционных зависимостей Y от X и X от Y могут быть оценены с помощью величин соответствующих дисперсий Sy и Sx наблюденных значений у их вокруг их условных средних ух и ху: п С Xj О/ У л:)2 Ъу — —: s, J Ъ(х-ху)2 (2-117) п Можно показать, что Sy = Dy(l — г|); Sx = Dx (1 — т|), где Dy — ol и Dx = Ох — дисперсии наблюденных значений у их относительно средних у их. Можно показать, что абсолютное значение выборочного коэффи¬ циента корреляции не превышает единицы в силу того, что любая дисперсия неотрицательна, т. е. 1-г25*0, и поэтому |/в|< 1. 89
При нулевом выборочном коэффициенте корреляции и прямых линиях регрессии значения признаков X и У в выборке не связаны линейкой корреляционной зависимостью. Действительно, при rB о уравнения выборочных прямых регрессии Y на X имеют вид: Вх = 9; ху = х. Это означает, что при изменении соответствующей величины услов¬ ные средние не изменяются и остаются равными соответствующим средним, т. е. зависимость Y от X, как X от Y, отсутствует. В данном случае прямые регрессии параллельны координатным осям. Однако сле¬ дует заметить, что при нулевом выборочном коэффициенте корреля¬ ции величины X и Y могут быть связаны нелинейной статистической и детерминированной зависимостью. Наоборот, при единичном значении абсолютной величины выборочного коэффициента корреляции значе¬ ния признаков Y иХв выборке связаны линейной детерминированной зависимостью. Действительно, если кв1 = 1. ТО Sy = Dy( 1 — Гв) = 0 и, следовательно, Dy DxpyX = О или Dy — DxPyx\ * = 1 1=1 ИЛИ е (yi-~y? 1=1 -о* п —Р У*' Е (*/-*)* 1 = 1 Это соотношение может в общем случае удовлетворяться при условии, если У — Р = 9ух(х — Х); У-~У = гв^-(х-х) их (что можно доказать методом от противного). Но последние соотноше¬ ния показывают, что любые случайные значения X и Y лежат на пря¬ мой, т. е. значения признаков в выборке связаны детерминированной линейной зависимостью. Из приведенных свойств выборочного коэффициента корреляции следует, что с возрастанием его по абсолютной величине корреляцион¬ ная зависимость становится более тесной, так как в соответствии с фор¬ мулами Sy = Dy (1 г!) j Sx = Dx(l-rl) 90
дисперсии Sy и Sx убывают. Тем самым показано, что этот коэффициент Характеризует тесноту связи. Все предыдущие суждения были основаны на данных определен¬ ий выборки, которая в зависимости от своего объема может с той или иной полнотой представлять генеральную совокупность. В связи с этим всегда надо быть осторожным при распространении выводов о выборке на всю-генеральную совокупность, но определенные суждения сделать можно, особенно при большом объеме выборки. Так, для 50 в слу¬ чае нормально распределенной генеральной совокупности [Л. 33] выборочный коэффициент корреляции гв связан с генеральным коэф¬ фициентом корреляции гг соотношением о1-''! i—г* Го — 3 —7=^ < Гг ^ гв УК ^ 'г^ в 1 УК' Пример 2-11. Для числовых значений, приведенных в табл. 2-5, требуется вы¬ числить выборочный коэффициент корреляции гв. Вычисляем выборочный коэффи¬ циент регрессии по формуле Лпхуху — пху Рух~ п[*~т * причем %пх, Х1 —2 Zn (Xi-Xy х = — п В результате получим: 9ух Отсюда в соответствии с формулой 381-26,5-14.2 11 |а 1Л_, 9«х= 50Л40 694Г=1’6-10'- <3х Г» = Р yXf имеем: '•B=1'6-10"3W=0'88- Из полученного видно, что данная выборка обладает достаточно большой корреля¬ ционной связью, хотя числа в корреляционной таблице задавались произвольно. Наконец, используя формулы Sy = Dy (1_/в); Sx=Dx(l-rl)t можем вычислить дисперсию относительно линий регрессии Sy = 4- 10“4 • 0,12 = 0,0048; Sx — 140 • 0,12= 16,8. Такое различие в дисперсиях вызвано различным порядком величин X и У, которые отличаются примерно на 102,
Глава третья ПРОВЕРКА СТАТИСТИЧЕСКИХ ГИПОТЕЗ Под статистической гипотезой понимается любое предположение о законе распределения наблюдаемых случайных переменных. Теория проверки статистических гипотез устанавливает количественные па¬ раметры оценки точности данной гипотезы и вырабатывает методы и правила выбора наилучшей в определенном смысле гипотезы, назы¬ ваемые критериями проверки статистических гипотез. По существу в этом разделе излагаются правила оптимального поведения и управ¬ ления в условиях статистической неопределенности. Приведем не¬ сколько примеров. В радиолокации [Л. 34, 35] обнаружение и распо¬ знавание сигнала, отраженного от истинной цели, не может быть вы¬ полнено точно из-за наличия шумов в приемном устройстве, радиопо¬ мех и ложных целей, которые специально организуются противником. Требуется при определенных гипотезах о законах распределения ис¬ тинных сигналов цели и помех выработать правила, которые бы опти¬ мальным образом позволяли определять наличие цели. В этом примере выявляются два вида ошибок, называемых ошибками первого и второго рода. Если истинная цель классифицируется как шум (или как ложная цель), то возникает ошибка первого рода, назы¬ ваемая «пропуском цели». Вес такой ошибки велик, и вероятность ее следует свести к минимуму. Наоборот, ошибка второго рода, при ко¬ торой ложная цель или помеха принимается за истинную цель, при¬ носит меньший вред и поэтому обладает меньшим весом. Иногда ус¬ ловно такая ошибка называется ошибкой типа «ложной тревоги». Второй пример приведем из области диагностики заболеваний. Известно, что для установления диагноза туберкулеза производят ряд тестов, которые, однако, позволяют сделать заключение о заболе¬ вании с какой-то вероятностью из-за неточности диагностических тес¬ тов, большого различия больных и т. д. И опять возможны два рода ошибок, которые имеют разный вес. Если больной туберкулезом бу¬ дет признан здоровым, то такая ошибка (первого рода) нанесет больший ущерб, чем признание здорового человека больным (ошибка второго рода). Некоторые разделы теории проверки статистических гипотез сов¬ падают со статистическими методами распознавания (или классифи¬ кации) образов, так как в последних, по существу, производится про¬ верка гипотезы о принадлежности определенного объекта к какому- нибудь классу из заданного множества. В одном из разделов теории проверки статистических гипотез рас¬ сматриваются так называемые критерии согласия, с помощью которых определяют качество согласования гипотетического теоретического закона распределения случайной величины с экспериментальными данными. С такой задачей сталкиваются при моделировании вероят¬ ностных систем на ЦВМ методом Монте-Карло при проверке соответ¬ ствия распределения случайных чисел, генерируемых в машине, за¬ данному закону. 92
Изложение теории проверки статистических гипотез будет начато именно с этого раздела. Однако предварительно необходимо остано¬ виться на некоторых определениях и вспомогательных положениях. 3-1. ПОНЯТИЕ СТАТИСТИЧЕСКОГО РЯДА И ГИСТОГРАММЫ При экспериментальных замерах можно строить таблицу значений случайной величины (табл. 3-1), но такое представление громоздко. Более удобны статистический ряд и гистограмма [Л. 21]. Таблица 3-1 i 1 2 3 *i xi х2 х3 При построении статистического ряда возможный интервал изме¬ нения случайной величины X разбивается на конечное число участков, необязательно одинаковой величины. В одну строку или колонку (табл. 3-2) заносятся значения концов интервала (xh Х(+1); в другую — частоты попадания случайной величины в данный интервал р* = л?//7г, т. е. отношения числа попадания случайной величины в данный ин¬ тервал к общему числу опытов. Таблица 3-2 Ji хъ х2 *2, Х3 XiXi+1 Xkxk+1 р* р? pi ... pi p% Как выбираются величины интервалов при составлении статистиче¬ ского ряда, будет объяснено ниже. Пример 3-1. У 200 студентов спросили, достаточно ли им стипендии на месяц. Оказалось, что одни берут в долг до трех рублей (эти цифры берутся со знаком минус), а другие экономят. Результаты опроса сведены в статистический ряд (табл. 3-3), где случайная величина X равна остатку от стипендии к концу месяца. Таблица 3-3 Ji -3; -2 -2; -1 -l; о 0; -1 1; 2 2; 3 Vi 3 17 65 80 30 5 pi 0,015 0,085 0,325 0,400 0,150 0,025 93
Если случайная величина X попадает на границу разряда, то условно можно добавлять к V/ в каждом разряде по 1/2. Статистический ряд удобно оформить графически в виде гисто¬ граммы (рис. 3-1). По оси абсцисс откладываются значения случайной величины, отмечаются значения концов интервалов (xiy xi+l). На каж¬ дом из разрядов, как на основании, строится прямоугольник, площадь которого равна частоте попадания случайной величины в данный раз¬ ряд. Получается ступенчатая кривая, причем ордината каждой сту¬ пеньки равна соответствующей частоте, деленной на ширину интерва¬ ла (величину разряда). Число разрядов не должно быть очень большим и очень маленьким. Обычно используют 10—20 разрядов. Величины разрядов всего удобнее выбирать одинаковыми, но при большой не¬ равномерности закона распределения целесообразно разряды брать меньше в области быстрого изменения плотности распределения. Гис¬ тограмма приближается к кривой плотности распределения вероятно¬ сти при увеличении числа опытов и соответствующем уменьшении ве¬ личины разрядов. С помощью статистического ряда можно построить (рис. 3-2) приближенно функцию распределения вероятности F (х): г* (*ij = 0; F* (х2) = рГ; р* (**) = х р*’ v = 1 Р* (Xn+l) = У] Pv= 1. V = 1 (3-1) Часто требуется провести крив>к> плотности распределения при на¬ личии экспериментально снятой гистограммы. Если вид закона рас¬ 94
пределения полученных случайных величин известен, то самый про¬ стейший способ — это вычислить оценки для моментов и взять в законе распределения параметры такие, чтобы теоретически моменты совпа¬ дали с оценками. Пример 3-2. В табл. 3-3 приведены данные по остаткам от стипендии студентов к концу месяца. Естественно считать, что исследуемая величина X возникает после суммирования результатов независимых остатков от элементарных затрат, тогда из теоретических соображений можно считать, что величина X подчиняется нормальному закону распределения -(*- 2а I ■ V 2т. оценки D* и т* (3-2) Требуется подобрать параметры тх и °х так> чтобы функция f (х) наилучшим образом описывала дан¬ ный статистический материал. Для данного случая имеют следующие значения: т* = 0,160; D* = 0,9344; а* = 0,967. Согласно методу моментов параметры тх и ох теоретической кривой / (х) выби¬ раем совпадающими с соответствующими оценками о* и т*. Подставляя эти вели¬ чины в формулу (3-2), получаем: — (* — (М60)2 1 - а-°-9314 . (3-3) 0,967 V~2n Однако при этом методе остается неясным, какова количественная оценка величины ошибки при такой замене. Количественную оценку удается сделать с помощью так называемых критериев согласия [Л. 21, 25, 26]. 3-2. КРИТЕРИИ СОГЛАСИЯ Рассмотрим два критерия согласия: критерий %2 Пирсона и крите¬ рий Колмогорова. Начнем с простейшего случая. Допустим вначале, что случайная величина X может принимать только два значения с ве¬ роятностями рх и р2, причем Pi + p2=l- (3-4) Пусть проведено п опытов, vx раз величина приняла первое значение (попала в группу SL)> и v2 раз — второе (попала в группу S2), причем vi + v2 = n. (3-5) Необходимо определить достоверность (вероятность) гипотезы о воз¬ можности замены вероятностей рх и р2 частотами pf = vjn и pj = = vjn. 95
За меру ошибки возьмем взвешенную сумму квадратов отклонений V! и v2 от их математических ожиданий прх и пр2: 2 = К-"Pi)2 , (vt-npzf 1 tip] f пр2 * W-b) В качестве весов- слагаемых в этой формуле выбраны величины, об¬ ратные математическим ожиданиям. Формулу (3-6) можно переписать в виде X2 = Ki (Vi - mVl)2 + К {v2 — mv;f, (3-7) где или где mVl = пръ mVl = пр2;Ki = -~\ = ^ X2 = Ki (pf - Pi)2 + К, (p! - P2)2, (3-8) Величины n * . is n pi - n, Ki-рj- ■ v; = Vi — npx, v§ = v2 — np2 (3-9) являются зависимыми. Действительно, в соответствии с формулами (3-4) и (3-5) v} + vS = (vx + v2) - п (рх + р2) = 0, (3-10) откуда vj = — v2. Взвешенные отклонения Za Vnpx Vi . Vi — tip. np1 __ v2 np2 Vnp2 Vnp2 (3-11) и в соответствии с соотношением (3-10) будут также связаны следую¬ щей зависимостью: Zi V прг + Z2V пр2 = 0. (3-12) С учетом равенств (3-11) выражение (3-6) можно преобразовать к виду: ^2 _ 72 | 72 ^М)2 , (у2)2 __ (у?)2 _ 1 , 1 = (У?)2 = (Vi-nPlf 1 If 2 пр1~Т пр2 П pi^ р2 прхр2 пр1(\—р1) ' • Vl — nPl V np1{\—pl) (3-13) Vi—npi Но согласно теореме Лапласа случайная величина - г _ Vnp1(\—pl) при большом п распределена примерно по нормальному закону. Сле¬ довательно, квадрат этой величины (величина х2) распределен по за¬ кону х2 с одной степенью свободы. Выберем какое-нибудь значение до¬ верительной вероятности р = 0,01, которая в теории проверки ста¬ 96
тИстических гипотез называется уровнем значимости, и найдем по таб¬ лицам х2_распределения соответствующее этой вероятности значение величины х2 = Xo.oi .Очевидно, что наша гипотеза о том, что можно опре¬ делить вероятность через частоты, будет неверна, если вычисленное значение будет больше xo.oi. Точнее, в этом случае равенство между частотой и вероятностью будет нарушаться с вероятностью большей, чем р = 0,01. В таблицах х2-распределения для каждого х2 приведены значения вероятности P{V>t} = FM. Эта функция — убывающая функция аргумента х2. Она связана с функ¬ цией распределения х2> определяемой формулой F(X2) = P{V<x2}, соотношением Л(Х2)= 1-^(х2). Такая система таблиц принята для удобства проверки статистических гипотез в ущерб теории оценок. Рассмотренную выше задачу можно распространить на случай / групп и I вероятностей. Пусть имеется I групп: Sl9 S2, •••» $п возмож¬ ных значений случайной величины (или признака). Выдвигаем гипо¬ тезу, что можно определить значение вероятностей ply р2, ..., pt (где 2 Pv= 1 )для попадания в каждую группу путем определения частот. v — 1 / Пусть в результате п опытов число попаданий в каждую группу со- i ставляет соответственно vb v2, ..., V/, причем ^ Pv = ^- i = 1 Рассмотренная задача полностью включает в себя определение за¬ кона распределения по гистограмме; в этом случае группы St — это разряды Ji == (v;, v/+1); pv — истинные вероятности попадания в дан¬ ный интервал. Для количественной оценки точности согласия экс¬ периментальных данных с некоторым гипотетическим законом распре¬ деления используем взвешенную сумму квадратов отклонений v° = = V* — npi или величин pf — pt t=y, ki(pt-Pif, (3-14) i = 1 где Это соотношение можно переписать в виде 1 (vj nPj)2 _ X (vi)2 i = 1 ‘ ‘ 4 Основы кибернетики 97
или I t= 2] KiiVi-mv.y-, L= 1 Ki = Tfc; m-i = nP- (3-16) Как и в рассмотренном случае, отклонения v? связаны линейным соотношением ij'v? = 0. (3-17) 1 = 1 #• В предыдущем примере случайные числа v* подчинялись биномиаль¬ ному закону распределения, который может быть записан в виде Р {VI = Щ, V2 = m2} = Р,П1пн = С‘+т2р;>Г = -J—pJV*, (3-18) где тг + т2 = п. В случае I групп (или интервалов) числа vz- под¬ чиняются полиномиальному закону распределения [Л. 26], который яв¬ ляется обобщением биномиального закона Р {Vi = тъ v2 = m2 Vi = mi} = ^ р'/УГ2 • • ■ рТ1- (3-19) На этот случай может быть распространена и теорема Лапласа, ко¬ торая утверждает, что нормированные отклонения <\?° V0 V/ V прг У пр2 У tipi связанные одним линейным соотношением (3-17), подчиняются (I— 1)- мерному нормальному закону [теорема Лапласа для (/ — 1)-мерного случайного вектора]. Отсюда следует, что величина X2=ZZf (3-21) 1 = 1 распределена по закону %2 с I — 1 степенями свободы (строгое доказа¬ тельство этого положения приведено у Крамера [Л. 22]). В результате имеем следующую процедуру проверки статистиче¬ ской гипотезы. По рассчитанному в соответствии с гипотетическим законом распределения определяют вероятность появления значе¬ ний %2, больших Р{%2>% i}. (3-22) Предположим, что получен другой гипотетический закон распре¬ деления, который лучше согласуется с экспериментом, чем первый ва¬ риант. Тогда для него сумма взвешенных квадратов будет меньше т-е- Ул<1 ?• Вероятность этого события Р {yj < х?} должна быть мала, тогда первый вариант гипотетического закона распределения лучше. Но так как Plx2>xl} = i-P{t^ri}> (3-23) 98
то гипотетический закон распределения тем лучше, чем выше вероят¬ ность (3-22), соответствующая рассчитанному Следует сделать несколько замечаний о методике применения крите¬ рия х2- Предположим, что по экспериментальным данным значения %2 получаются такими малыми, что значений, больших полученных, тео¬ ретически можно ожидать с вероятностью, близкой к единице [р (%2) ~ 0)99]. Такое хорошее совпадение заставляет думать о нека¬ чественном выполнении эксперимента и предварительной обработки данных. Имеется в виду распространенная на практике «подчистка» результатов эксперимента, которая состоит в том, что некоторые ре¬ зультаты субъективно отбрасываются или округляются. Если получи¬ лось, что для данного уровня значимости р условие х! < Хр» гДе %1 — экспериментально вычисленное значение, не выполняется, то необ¬ ходимо проверить экспериментальные данные и повторить экспери¬ мент. Если при повторном эксперименте это условие опять не удовлет¬ воряется, то необходимо отбросить гипотезу, т. е. изменить параметры закона распределения или выбрать другой закон. Все наши рассуждения справедливы при большом п, так как тео¬ рема Лапласа имеет предельный характер (только при п оо и боль¬ шом числе значений, попадающих в каждый разряд, величины Z* рас¬ пределены по нормальному закону). На практике рекомендуется иметь не менее 5—10 значений в каждом разряде. Если число этих значений мало (один-два), то рекомендуется укрупнить разряды, сделав число цх меньше. Наконец, несколько слов о числе степеней свободы. Величины vi~mx. Z, = —r=ri входящие в сумму (3-21), должны быть независимы друг У npi от друга. Только при этом условии (и нормальном законе их распреде¬ ления) сумма их квадратов подчиняется распределению х2* Поэтому число степеней свободы этого распределения равно числу величин Zt (число разрядов /) минус число связей, наложенных на Z* или Одно условие (связь), определяемое соотношением (3-17), наклады¬ вается всегда, его можно записать в виде i 2>?= 1. (3-24) L= 1 При этом следует иметь в виду, что i i 2 Vi = rt и 2 i = 1 i= 1 Если подбирается гипотетическое распределение с условием, чтобы сов¬ падали теоретическое математическое ожидание тх и его оценка по экс¬ периментальным данным, то накладывается еще условие п Д] XI ^— = тх. 1 (3-25) Предполагая, что в каждом разряде случайная величина сохраняет - 4* 99
постоянное значение (в соответствии с гистограммой), равное среднему на этом разряде значению /^1 xik = ^ > (3-26) можно формулу (3-25) записать в виде i 2 XiPt = тх. (3-27) i = 1 С учетом условий (3-24) и (3-27) число степеней свободы теперь будет г = 1 — 2. Если распределение определяется при условии выполнения соот¬ ношения (3-27) и совпадении теоретической дисперсии и ее оценки, то добавляется третье условие: = Д* (3-28) или I (3-29) i = 1 При добавлении этого условия чцсло степеней свободы будет г = I — 3. Пример 3-3. Для условий примера 3-1 проверим статистическую гипотезу о нор¬ мальности закона распределения при условии, что математическое ожидание и сред¬ неквадратичное значение этого распределения равны оценкам этих величин/п= 1,160; о= 0,167. Вероятности попадания в разряды, которые выбраны в примере 3-1, находим по формуле (см. приложение 1) й_ф.(аш=г)_ф.(£!=а). Далее подсчитываем npi (при п= 200). Результаты сведены в табл. 3-4. Таблица 3-4 Ji -3; -2 -2; -1 -1; о 0; 1 l; 2 2; 3 Vi 3 17 65 80 30 5 - npi 2,4 20,46 63,98 74,70 32,60 5,38 Используя полученные результаты, получаем:
Затем определяем число степеней свободы г — I — 3 = 6—3 = 3 и с помощью таблиц %2-РаспРеДеления (см. приложение 2) устанавливаем, что найденное значение у2 соответствует р = 0,73. Следовательно, можно утверждать, что с вероятностью 2 = 0,27 на практике отклонения могут быть больше наблюденных. Этот результат Ложно считать вполне удовлетворительным. Если закон распределения F (х) известен полностью (т. е. и вид функции распределения и числовые значения параметров известны), То можно применять критерий согласия Колмогорова, который проще критерия х2- В критерии Колмогорова за меру качества согласования экспериментального и теоретического распределения принимается мак¬ симальное значение модуля разности между этими.функциями D = шах | F* (*) -F(x)\. (3-30) Оказывается, что благодаря теореме Колмогорова, легко вычислить функцию распределения вероятности для величины D. Доказано, что какова бы ни была функция распределения F (х) непрерывной случай¬ ной величины X, при неограниченном числе п независимых наблюде¬ ний вероятность неравенства P{DVnЦ стремится к пределу со р(Х)= 1- 2 (— \)ке~2кг%\ k = — оо Заметим, что функция (3-31) опять убывающая и равна единице минус функция распределения величины D}/~п: Р {D Vn s* М = 1 - Р {D Vn < Ц. (3-33) Процедура проверки согласия по этому критерию аналогична проверке по критерию X2. По формуле (3-30) вычисляется D, а затем определяется величина %1 = DVn. (3-34) Далее рассуждаем следующим образом. Допустим, что за счет каких- то причин (лучшего подбора закона распределения) получилось К2 <Xi. (3-35) Тогда этот закон будет лучше гипотетического. Чем меньше вероят¬ ность события (3-35), тем лучше наш закон, который соответствует Хг. Учитывая (3-33), можно сказать, что чем выше вероятность (3-31), тем лучше согласование. Критерий Колмогорова значительно проще критерия X2. Однако для его применения необходимо иметь график или таблицы теорети¬ ческого закона распределения, т. е. он должен быть полностью задан. На практике это редко бывает. Чаще известен только вид закона и тре¬ буется определить его параметры. В случае применения критерия X2 это учитывается изменением числа степеней свободы. Если внимательно 101 (3-31) (3-32)
изучить таблицы ^-распределения, нетрудно убедиться, что чем боль- ше степеней свободы, тем больше значение вероятности. Следовательно, если не учесть уменьшения числа степеней свободы, то вероятности будут больше и мы ошибочно примем гипотезу, тогда как на самом деле она несправедлива. Поэтому, если при неизвестных парамет¬ рах закона распределения при¬ менить критерий Колмогорова, взяв за значения параметров его оценки, также получим завы¬ шенный результат, так как эта процедура будет эквивалентна применению критерия без учета уменьшения степеней свободы, т. е. по этому критерию гипотеза будет признана допустимой, а на самом деле она несправедлива. Для распределения Колмо¬ горова составлены подробные таблицы (приложение \5). Оба критерия (х2 и Колмогорова) часто применяются для проверки закона распределения чисел, ко¬ торые получаются при модели¬ ровании на ЦВМ по методу Монте-Карло. Пример 3-4. Применим критерий Колмогорова для определения, степени согласия закона распределения слу¬ чайной величины, фигурировавшей в трех предыдущих примерах, нормаль¬ ному закону распределения с пара¬ метрами, равными оценкам: = т*-0,160: Gx = Gx = 0,967. Рис. 3-3. Теоретическая F (х) и экспери¬ ментальная F* (.х) функции распределе¬ ния для примера 3-4. Систематизируем (табл. 3-5) полу¬ ченные данные. На рис. 3-3 представлены теорети¬ ческая F (х) и экспериментальная F* (х) функции распределения в виде кри¬ вой и ломаной линий. В случае крите¬ рия Колмогорова следует использовать непосредственно статистический ряд, так как при ступенчатой аппроксимации функции распределения ее кривая существен¬ но зависит от выбора величины разряда. Из табл. 3-5 определяем параметр D = max | F* — F | = 0,0175. По формуле (3-34) находим: Я=0,01751^200 я» 0,2460. С помощью таблиц функции р (Ц, приведенных в приложении 5, находим! р (0,25) « 1,0000. Как и следовало ожидать, это значение вероятности больше, чем рассчитанное по критерию х2. 102
Таблица 3-5 *1 -3 _2 -1 0 1 2 3 Pi -3,268 -2,234 -1,200 -0,165 0,869 1,903 2,937 F* (х) 0 0,0150 0,1000 0,4250 0,8250 0,9750 1,000 F(x) 0,0008 0,0128 0,1151 0,4350 0,8085 0,9715 0,9984 * . 1 11 <1 0,0008 0,0022 0,0151 0,0100 0,0175 0,0035 0,0016 3-3. ПРОВЕРКА СТАТИСТИЧЕСКИХ ГИПОТЕЗ Классическая теория проверки статистических гипотез, в основном разработанная Нейманом — Пирсоном, занимается проверкой гипотез о значении параметра а для плотности распределения вероятности д-мерной случайной величины f(x\a)=fa(x)=fa(X1, Х2, Хп)\ Х = {ХЪ Х2 Хп). Наиболее разработана теория статистического выбора между двумя гипотезами Я0 и Нг о значении параметра а: Н0 = Н0 (а = а0) и Н1 = Н1(а = а1>а0). При этом истинное значение параметра а может не совпадать ни с од¬ ним из гипотетических значений а0 и аг. Вводятся в рассмотрение вероятности ошибок первого и второго рода: а и р. Ошибка первого рода происходит всякий раз, когда при¬ нимается гипотеза Нъ а на самом деле справедлива Н0. Ошибка вто¬ рого рода имеет место, когда принимается гипотеза Н0 при истинности гипотезы Я1. Кроме того, следует сразу заметить, что в данном разделе будут рассматриваться только простые гипотезы Я0 и Яь т. е. такие, которые в отличие от сложных не могут быть сведены к более простым. При проверке простых гипотез принимается, по существу, только одно решение: справедлива гипотеза Я0 (Ях ложна), тогда как при сложной гипотезе появляется несколько возможных решений. Так, при конт¬ роле качества продукции возникает задача проверки гипотезы Я о том, что неизвестный параметр а в распределении случайной величины X не превосходит некоторого значения а'. Здесь имеет место сложная гипотеза. Как правило, одним из способов сложная гипотеза прибли¬ женно сводится к простой. В рассмотренном выше примере вводят два значения: а0 < а', а1> а' и считают, что исходная задача будет рав¬ носильна проверке простой гипотезы, состоящей в том, что когда а = = a0i принимается гипотеза Я0 (а С а'), когда а = аъ принимается ги¬ потеза Нх(а> а') [Л. 34—37]. 103
В классическом случае объем выборки п фиксирован заранее — д0 испытаний, правда, одной из основных задач проверки статистических гипотез является определение оптимального значения п. Требуется выработать правило или метод разбиения исходной сово¬ купности Rn всевозможных выборок объема п на две непересекаю- щиеся области Е0 и Еъ причем Ег = Rn — Е0. Если точка попадает в обл асть Ео, то принимается гипотеза Я0, пр,и попадании точки в об¬ ласть Ег принимается гипотеза Нг. Область Ег называется критиче¬ ской. Это правило разбиения обычно называется критерием проверки статистической гипотезы. ' Очень часто гипотезы Я0 и Нг бывают противоположными, т. е. Н± = Я0. Например, в качестве гипотезы Н0 при обнаруженишсигнала в шумах радиолокации можно принять наличие сигнала (от цели), а за гипотезу Ях = Н0 — отсутствие сигнала, наличие только шума. Второй пример: при изготовлении новых лекарстн важно определить степень их токсичности. В этом'случае гипотеза Я0 означает, что лекарство токсично, Н± = Н0 — нетоксично. Третий пример: при геологоразве¬ дочных изысканиях проводится серия пробных исследований породы на предмет обнаружения в ней искомого компонента, например золота. Гипотеза Н0 означает наличие золота в породе, а Нх — его отсутствие. Для дальнейшей работы с нашими примерами воспользуемся поняти¬ ями вероятностей ошибок первого и второго рода. В случае изготовле¬ ния нового лекарства величина а должна быть мала по сравнению с р, так как применение токсичного, лекарства (ошибка первого рода) наносит больший вред, чем ошибочная браковка (ошибка второго рода). Перестраховка здесь вполне оправдана. Однако встречаются случаи, когда веса ошибок первого и второго рода близки. Так бывает при обна¬ ружении сигнала в шумах в радиолокации, когда амплитуда полезного сигнала соизмерима с амплитудой шумов. В классической теории проверки статистических гипотез [Л. 36] вводится понятие функции мощности критерия (или правила пове¬ дения) В (h | Я*), которая определяется как условная вероятность того, что при любой допустимой гипотезе h критическая область Ех отвергает испытываемую гипотезу Я. JB простейшем случае двух аль¬ тернативных гипотез Я0 = Я, Ях = Я, который и будет в основном исследоваться, можно говорить о мощности критической области Еъ как об условной_вероятности того, что при ложности гипотезы Я (и справедливости Я) она будет отвергнута. Очевидно, что в этом.случае В (h \ Ег) = 1 — (3. Для лучшего понимания смысла введенных тер¬ минов рассмотрим числовой пример. Пример 3-5. Произведено п испытаний породы на предмет определения в ней уровня содержания золота. Процедура исследования носит статистический характер и может быть оценена только в вероятностном смысле. Испытуемая_гипотеза Н0 = Н — порода не содержит золота. Альтернативная гипотеза Нх = Н — порода содержит золото. Выбор такой испытуемой гипотезы достаточно условен и в основном определяется тем, что ошибка первого рода была бы вреднее ошибки второго рода, так как считается, что ошибочное заключение о содержании золота в пустой породе (ошибка первого.рода) более вредно, чем оши¬ бочное заключение об отсутствии золота в породе, имеющей его (ошибка второго рода). 104
В результате многолетнего опыта установлено, что вероятность обнаружения золота в пустой породе = 0,01, а вероятность правильного заключения о наличии золота в породе р2 = 0,8. Допустим, что произведено п= 3 независимых испытаний. Введем в рассмотре¬ ние случайную биномиальную величину, принимающую только целые значения 0, \f 2, 3, равные числу положительных заключений о содержании золота. Заранее неизвестно, содержит порода золото или не содержит, поэтому функция распределе¬ ния вероятности для величины X неизвестна и может определяться одним из двух следующих выражений: если золота нет, то Рх W = (!-Pi)3-* (* = 0, 1. 2, 3); если золото имеется, то PxW=cfpf (1-Р2)3-к Вопрос о строительстве предприятия по добыче золота зависит от того, какая из этих двух функций распределения имеет место на самом деле. В данном случае выборочное пространство Rn состоит из четырех точек на пря¬ мой К = 0, 1, 2, 3. Для определения критической области Ег требуются дополнитель¬ ные рассуждения. Предположим, что при установившейся практике подтверждается наличие золота только в случае, когда все три пробы дают положительный результат, что равносильно отрицанию гипотезы Я. Поэтому критическая область Е1 состоит из одной точки К = 3, так как при попадании выборочной точки в эту точку гипо¬ теза Я отвергается. Область Е0 состоит из точек К = 0, 1,2. Подсчитаем вероятности ошибок первого и второго рода. Ошибка первого рода, состоящая в отрицании гипотезы Я, когда она истинна, будет иметь место тогда, когда точка X попадет в критическую область Elt т. е. примет значение X = 3: а = Р {А = 3 | Я} = 0^)" = (0,2)3 = 0,008. Ошибка второго рода р будет иметь место, когда точка займет положение X = 0, 1, 2 и будет истинна гипотеза Я (порода золотоносна): Р = р {X фЗ I Я} = 1—Р {Х = 3 I Я} = 1 -(0,8)3 = 0,488. Теперь вычислим мощность критерия, равную вероятности того, что будет распознана ложность гипотезы Я, когда истинна гипотеза Я, т. е. В (h | Е1) = Р {А' = 3 | Я} = (0,8)3 = 0,512. а) Свойства критерия Неймана — Пирсона В ряде случаев весьма желательно, чтобы обе вероятности аир были малы. Однако при конечном фиксированном объеме выборки п и различных значениях Е1 нельзя одновременно получить малые аир, так как уменьшение одной влечет за собой увеличение другой величины. При фиксированном п и а процедура Неймана — Пир¬ сона позволяет выбрать такое Еъ для которого В = 1 — р будет мак¬ симальным (т. е. р минимально). Аналогичным образом можно пока¬ зать, что эта процедура обеспечивает Ег с минимальным а при задан¬ ных Р и п или с минимальным п при фиксированных а и р. Фиксация двух параметров отражается на выборе порога С. Оказывается, что все эти величины связаны между собой [Л. 34, 37]. В каждом из этих трех случаев величина С является функцией двух фиксированных параметров: С (п> а); С (р, /г); С (а, Р). Отношение (xi, л'2, ... 105
называется коэффициентом правдоподобия, кото¬ рый зависит от п выборочных значений случайной величины X. Условно при fa, = /а„ = О полагается Ln = 1. Классическая теория проверки статистических гипотез развита для случая однородной независимой выборки, когда xt независимы друг от друга и являются реализациями одной и той же случайной величины X с плотностью распределения fa (х). Поэтому п fo(X1> *2. .... Хп) = Ylfa (Xi). (3-36) £=1 Отсюда, если прологарифмировать соотношение Ln^C, которое определяет область Е0, а значит, и выбор гипотезы Н0 в случае применения критерия Неймана—Пирсона, получим: П 1п = In L„ = 2 Zi ^ 1п С' i=1 где г; = 1п-^-, « = 1,2 п. Величины Zi являются реализациями функции С=1п- fa, © faM) случайной величины £ с плотностью распределения вероятности fa (х). Поэтому 1п является реализацией случайной величины i—\ которая представляет собою сумму независимых, одинаково распреде¬ ленных случайных величин. Отсюда в соответствии с ЦПТ распределе¬ ние случайной величины Хп подчиняется при большом п нормальному закону, т. е. Р{К<х)~ (3-37) где Da [К] = ^ [in ^Ц-J fa (X) dx - {Ма [К]}*', —оо а° 00 f ( ) Ma[K]=\\nfxrLfa{x)dx. (3-38) —оо а° Л Полагая х = In С = tic, получаем: L(a) = P {К ^\п С\а}**Ф* {у= Vn), (3-39) 106
так как М[К] = пМ[Ъ], D[K] = nD[tt]. Функция L (а), равная вероятности приня¬ тия гипотезы #0, когда истинное значение параметра равно а и х=\п С, называется опе¬ рационной характеристикой. Она позволяет вычис¬ лять вероятность правильного выбора между гипотезами при задан¬ ном значении параметра а и связана простыми соотношениями с вели¬ чинами а и р. Так как ошибка первого рода происходит, когда вместо гипотезы Н0 (т. е: при истинном значении параметра а = а0) принимается гипо¬ теза #!, то согласно условию Хп ^ In С При этом учтено, что Ф* (—х) = 1 — Ф* (х). Аналогичным образом в соответствии с тем, что ошибка второго рода происходит, когда вместо гипотезы Я (т. е. при истинном значе¬ нии параметра а = аг) принимается гипотеза Я0, согласно условию %п < In С имеем: причем величина tp называется р-квантилем нормального распределе¬ ния, так что В соответствии со свойством функции нормального распределения Тогда с помощью соотношений (3-40) и (3-41) можно получить следую¬ щие формулы: р = Р {К < In С | а = й1} = L Ц) Ф* |°VnJ. (3-41) Введем функцию, обратную вероятностной функции Ф* (х), tp = а^Ф*. ф* (tP)=P* tp p. {taVDaJU + bVDai[UY {МаЛЫ-МаЛЩ* ' „_1п С Maa[l]+Mai[l] yHVDa,V,)-taVDa,[U_Mat[l] + Mai\l\ 7Г~ 2 2 Vn 2 2Jfn 2 h VDat m-taVDaa ISI 107
Если подставить эти выражения для п и с в формулу (3-39), получим; Г Ы ^ ф* \МаМ-Ма№ /Р^Ш ()~ \ма1т-мао[и^У Daiu ^.ici-^ta Л/'КМ. 0 мв1[£]-мао[С]г«^/ zueij- Полагая в этом соотношении соответственно а = а0 к а = аг, получаем: (3'44) -М°^'1'г~п+1'УШ <3-45) Если величина X подчиняется нормальному закону распределения, то fa (х) становится нормальной плотностью распределения. При этом соотношения (3-44) и (3-45) становятся точными. Если использовать асимптотическую формулу для нормального закона Ф* (— х) ^ ехр (— *2/2), справедливую при х-> оо, из (3-44) при п~> оо и фиксированном [3 получим следующее соотношение: ая^ехр 1 /ма1 К]-мао [и 2\ VDa0m '"]• (3-46) Аналогичным образом, если зафиксировать а в формуле (3-45), при п -> оо получим: “ 1 /Mai [£]-Mno [£]у Р (=«ехр 2 \ 1/ов1 Ш ft (3-47) С помощью соотношений (3-46) и (3-47) нетрудно убедиться, что при фиксировании одной вероятности а или (3 другая убывает с ростом п по экспоненциальному закону, а при больших п величины а и (3 не зависят друг от друга. Можно показать [Л. 34], что предельные соот¬ ношения (3-46) и (3-47) справедливы для любого закона распреде¬ ления fa (х) величины X. Получим связь между параметрами при классической процедуре в случае нормального закона распределения Тогда многие ранее полученные формулы в силу нормального закона станут точными. Возможны три варианта задачи проверки статистических гипотез: известна а, параметр а неизвестен; а неизвестна, параметр а известен; оба параметра а и о неизвестны. Для простоты рассмотрим только случай известной дисперсии а2. 108
Логарифм коэффициента правдоподобия 1п определится по формуле 2* t=i aL + а0 логарифм элементарного коэффициента правдоподобия — соотно¬ шением In Cli (Xq /+ #j. + #o Так ка^эта величина является линейной функцией £ и последняя рас¬ пределена нормально, то величина £ также будет иметь нормальный закон распределения с математическим ожиданием а1 — ао а- 01+00 и дисперсией а2 2 (ах—ас)2 Подставив эти выражения в формулы (3-42) — (3-45), получим: а P = 0*(«fL=5L1/^ + f1_a); (3-48) _ InC __ ,, _ , Ч 0j —0Q = /р— tg (01 — 0О)2 . л 2а J+/+ 2(>р + *а) а* ’ п_ > + ^)2а2 (01-0о)2* Из первого соотношения может быть сделан неправильный вывод о не¬ зависимости операционной характеристики от п. Эта зависимость неяв¬ ная, так как в соответствии со второй и третьей формулами ах и а0 при заданных аир зависят от п. Процесс вычислений производится в следующей последовательности: по’заданным а и |3 с помощью второй и третьей формул определяют значения а0 и аъ зная которые, вычисляют все остальные характеристики. Иногда вместо величины 1п рассмат¬ ривают величину 1п — 2 Xif тогда все соотношения останутся прежними, если заменить величину С на С', определяемую по формуле In С' = (in С + п) | = 1 [■£=£ (а,- а0) + (а, + а0)] п. 109
б) Последовательный критерий Вальда В отличие от классического критерия Неймана—Пирсона последо¬ вательная процедура Вальда не предусматривает заранее фиксирован¬ ного объема выборки п и решение о прекращении испытаний выносится в зависимости от проведенных испытаний [Л. 34, 37]. В критерии Вальда, являющемся обобщением классической проце¬ дуры, на каждой стадии эксперимента совокупность всевозможных выборок Rn объема п разбивается на три непересекающихся множества Е[п\ Е[пК При попадании выборки Х=(х19 х29...9 хп) в множество л Е[п) принимают гипотезу Я0, испытания заканчивают; при попадании в множество Е[п) принимают гипотезу Нх и испытания заканчивают. В случае попадания выборки в область EW не принимают ни одной гипотезы, а производят следующее испытание хп^\ и анализируют ана¬ логично предыдущему выборку (хъ х29 хП9 xn+j). Нетрудно убедиться, что в процедуре Вал’ьда объем выборки п является случайной величиной. Поэтому естественно за лучшую (опти¬ мальную) процедуру построения областей E(0h), Е^\ Е[п) принять такую, которая при одних и тех же а и р имеет по сравнению с дру¬ гими процедурами минимальное среднее значение /г, т. е. М [п] = min. Можно показать, что классическая процедура является частным случаем последовательной процедуры. Для этого достаточно выбрать следующее правило образования области Е^: Е(п) — f ^п ti—l, 2, ..., Uq 1» (3-49) * \ О ДЛЯ П == Hqj где п0 — заданный заранее объем выборки; Rn — совокупность все¬ возможных выборок объема п\ 0 — пустое множество. Соотношение (3-49) означает, что решение принимается только на п0-м шаге и клас¬ сическая процедура является частным случаем процедуры Вальда с п0 = М [v], где v — случайное число испытаний. Оказывается, что последовательная процедура может обеспечить при тех же самых аир меньшее значение М [v], чем соответствующее классическое число п0. Вальдом найдена оптимальная последовательная процедура определе¬ ния областей Е^\ Е^\ Е[п\ когда заданы вместо одного порога С, как в классической процедуре, два порога А и В. Область Е[п) задается неравенством Еп(хъ *2> хп)^В. В этом случае принимается гипотеза Н0 и испытания прекращаются. Область EW определяется неравенством В Еп (хХу х%у • • • > Хп) А. Если выборка удовлетворяет этому соотношению, то испытания про¬ должаются. И, наконец, область Е[п) определяется соотношением А Еп (хХу х<£У ..., хп). В этом случае принимается гипотеза Нх и испытания прекращаются, но
функция Ln (xlt x2, xn), как и в классической процедуре, определя¬ ется формулой Т /V „ v \_г — ~Н) _ /«. (%. *2, •••. Хп) ьп(хъ х2, ..., - м^Г4~Т^)'- Для однородной независимой выборки и двух значений параметра а = а0, а = ах Вальдом доказана оптимальность последовательной процедуры, обеспечивающая Л4 [v] = min, и найдены связи между параметрами а, а0, ai, а, [}, А, В, М [v]. Операционная характеристика [Л. 34] в последовательной процедуре имеет вид: где h (а) является корнем уравнения SP г f (х) (а) \\7Г&\ (3-51) —00’ а° Здесь А и В — два порога для коэффициента правдоподобия Ln (xu *2» •••> хп)у причем в соответствии с определением a, (}, Ln имеем: (3-52) 1 — а а 47 Эти соотношения можно пояснить следующим образом. По определе¬ нию коэффициент правдоподобия Ьп равен отношению вероятностей того, что данная выборка соответствует гипотезе Нх или Я0, т. е. _ Р(х\Нг) __ fat(x) Ln Р (х I Но) fao (х) • Согласно последовательному критерию вероятность выборки (х19 х2, хп)> приводящей к принятию гипотезы Ях (и отклонению Я0), по крайней мере в А раз больше при гипотезе Нъ чем при Я0: Р(х\Н1)^АР(х\Н0), (3*53) так как Нг принимается при условии Ln^A. Допустим, произведена последовательная процедура оценки гипо¬ тез Я0 'и Нг. При этом получилась последовательность выборок како¬ го-то объема. Рассмотрим подмножество этих выборок, которые при¬ водили к гипотезе Яь и зададимся целью определить вероятность того, что последовательный процесс выбора закончится принятием гипо¬ тезы Нг (отклонением Я0). Эта вероятность по определению равна или меньше а в случае, когда на самом деле имеет место гипотеза Я0, и равна или меньше 1 — |3, если на самом деле имеет место гипотеза Hv Послед¬ нее положение следует из того, что по определению вероятность при¬ нятия Я0, когда верна Нъ равна р. Так как имеется доказательство сходимости последовательной процедуры за конечное число шагов п 111
с вероятностью, равной единице [Л. 37], то можно утверждать, что вероятность отклонения Я0 (принятия Я^, когда верна Нъ должна быть равна 1 — р. Но так как на каждом шаге, включая последний, справедливо соотношение (3-53), то можно утверждать, что 1 — (3 ^ ^ Аа или А(3-54) Отсюда следует, что величина (1 — р)/а является верхней границей для А. Аналогичным образом доказывается, что L. (3-55) Действительно, вероятность получения любой заданной выборки (хъ х2, ..., xn)f приводящей к принятию Я0 (отклонению Ях), при гипо¬ тезе Я0 по крайней мере в I/В раз больше вероятности получения этой выборки, когда верна Нъ т. е. так как гипотеза Я0 принимается, когда следовательно, и вероятность принятия Я0 при гипотезе Ях тоже по крайней мере в l/В раз больше вероятности принятия Hv Так как пер¬ вая вероятность равна (3, а вторая 1 —а, то получаем соотношение (3-55), которое утверждает, что нижней границей величины В явля¬ ется р/(1—а). Можно также пояснить условия того, что пороги А и В удовлетворяют соотношениям ■Л 3*1, 0<£<1. (3-56) Действительно, в отсутствие шумов разумным решением было бы при¬ нимать гипотезу Н1 всякий раз, когда т _Р(х\Н1) ^ 1 и гипотезу Я0 в случае Ln <С 1, так как выбор целесообразно делать в пользу той гипотезы, вероятность которой больше. В этом случае А = В = 1. Однако в случае наличия шумов или когда гипотезы Ях и Я0 перекрываются, получается зона неопределенности, требуется увеличить А и уменьшить В по сравнению с единицей. Зона неопре¬ деленности будет определяться величиной А — В. Эта зона подлежит дальнейшему исследованию. При двупороговой, последовательной процедуре величины порогов определяются статистикой шумов, самой выборкой и величинами а и р. На практике за величины порогов могут быть взяты их границы, т. е. Л=-ЬЬ В = -г^~. (3-57) 112
Следует заметить, что классическая и последовательная процедуры могут применяться в одних и тех же случаях, причем последняя дает большую экономию в объеме выборки. Однако иногда последовательная процедура с двумя порогами следует непосредственно из вида законов faQ (х)> (*)• Этот случай часто встречается при распознавании обра¬ зов. Из формулы (3-52) следует еще одно очень важное соотношение Действительно, так как а и (3 — вероятности, то они должны быть поло¬ жительными величинами и меньшими единицы, т. е. Из этой формулы с учетом (3-59) следует формула (3-58), Т. е. величины аир могут задаваться из априорных соображений, но они должны удов¬ летворять соотношениям (3-58) и (3-59). Практически последовательная процедура считается законченной, если выборка перестала попадать в область, определяемую неравенством Аналогично классической процедуре для нормального закона при известной дисперсии о2 можно получить выражения для характери¬ стик в явном виде. Последовательная процедура сводится к анализу величины 1п с постоянным нижним и верхним порогами In В и 1пА со случайным числом выборок. Для удобства переходим к величине Для этой величины нижний и верхний пороги будут равны: В этом случае интегральное уравнение (3-51) имеет точное решение 0<а + Р<1. (3-58) 0<а<1; 0<р<1. (3-59) Далее из соотношения (3-55) следует, что Р ^ 1-Р — п. п. 1 B<Ln{x)<A. П hQ + kn, hi-\-kn, (3-60) где так как In h=I—2 -—— al—a (3-61) 113
и операционная характеристика может быть рассчитана по следующей формуле: ^(а) = ;рт=У*- (3-62) Средние числа испытаний определяются по формулам Ma[v]= L(a)ln_B + [l-L(a)]lnA ' aL 1 ai— а0 (" ах+о„\ v > \а 2 ) лл г 1 (1 —а) In В + а\п А /о ~ .ч М..М-1—, ■; (3-64) 2 \ а MaJv]^plnf+ji1rQPo)12nA, (3-65) 2 При а = а* = (а{-\-а0)/2, когда Ма*[£\ — 0 и Ма* [?] = Da. [£] = Da [С] = (М> N2 имеем: Л/f Г 1 Н ^ Н ^ Ml /О /?/?\ М= /ах-аИ2 = - (3-66) а Сравнение последовательной и классической процедур Произведено достаточно тщательное сравнение эффективности двух процедур, которое в основном показывает преимущества последова¬ тельной процедуры, так как в ней при одних и тех же а0, аъ а, (3 сред¬ ние числа испытаний MaJv] и Mai [v] меньше, чем фиксированное число испытаний п в соответствующей классической процедуре. Однако не при всех значениях параметра а среднее число испытаний в последователь¬ ной процедуре Ма [v] меньше фиксированного числа испытаний в клас¬ сической. Это можно утверждать только для значений а, близких к а = = а0 и а = av Для сравнительной оценки эффективности последова¬ тельной процедуры вводится величина а п п аУ называемая эффективностью последовательного анализа. Для нор¬ мальной плотности fa (х) при близких а и (3, т. е. а « ]3 (так называемый случай симметричных порогов), и малых по величине, т. е. а « (3 ^ « (0,05^0,1), получено, что еа = еа « 0,5. Таким образом, при после¬ довательной процедуре получается выигрыш в 2 раза. Однако в ряде случаев последовательный анализ дает и больший выигрыш. Но в не¬ которых случаях он менее эффективен, чем классический [Л. 34]. 114
Когда последовательный анализ слишком затягивается, необхо¬ димо выносить решение о прекращении испытаний до выхода за пороги окончания процедур. В этом заключается проблема усеченного после¬ довательного анализа, которая до сегодняшнего дня не получила удов¬ летворительного для инженерных задач решения. Пример 3-6. Решение о наличии месторождения минерала X выносится на основании анализа п проб грунта в пределах исследуемой области. Известно, что разработка месторождения с содержанием минерала р ^ 1 г/м3 является нерентабельной, а при р ^ 2 г/м3 рентабельность разработки превышает среднее значение рентабельности рудных разработок. Считается, что используемый метод измерений позволяет определить содержание минерала X в породе с ошибкой, распределенной нормально. Параметры распределе¬ ния ошибки: т = 4 г/м3 и а = 1 г/м3. Содержание минерала X во всех пробах в пре¬ делах предполагаемого месторождения постоянно, и отклонения в замерах происхо¬ дят только из-за ошибок измерений. Требуется построить модели классической и последовательной проверок статистических гипотез для случая, когда гипотеза простая. Основная трудность решения практических задач с помощью изложенных методов заключается в их сведении к проверке простой гипотезы. Поэтому первона¬ чально сформулируем задачу следующим образом. Проблема сводится к задаче про¬ верки гипотезы о значении математического ожидания случайной величины Y (изме¬ рение содержания минерала X) а = т + р, где т — математическое ожидание ошибки измерений; р — содержание минерала. На основании условий задачи легко выделить два значения а: а0 = 5 г/ж3 и аг = 6 г/ж3, различение которых является необходимым. Таким образом, мы приходим к задаче проверки двух простых гипотез Я а = а0 и Я -> а = av Необходимо построить критерий проверки этих гипотез, на оперативную харак¬ теристику которого наложены следующие ограничения: L(a)^L(a0) = 1 —а при а<я0; L (а) ^ L (%) = р при а > аъ где а и р — вероятности ошибок первого и второго рода. На основании предыдущего опыта принимаем а = р = 0,05. Для проверки гипотезы используем логарифм отношения (коэффициента) пра¬ вдоподобия ,-1п " faAYV •••• Уп) ' где Y't — результат измерения содержания минерала X в t-й пробе (i = 1, я)', fa 0^1» •••> Yn) — плотность распределения вероятности вектора наблюдений с пара¬ метром а. Поскольку измерения можно считать независимыми, а их распределение нор¬ мальным, то / ai — ао п О2 ai-j~ao п (3-67) Рассмотрим две процедуры проверки гипотез Я и Я. Классическая процедура (критерий Неймана —Пирсона). Согласно критерию Неймана — Пирсона решающее правило имеет вид: принять Я при ln ^ In С; принять Я при ln > In С, где С в общем случае определяется из условия '■(У1. ••• . </п) = ( (3-68) 5 fao(Y)dY = а; > ] п С У = (У1< ••• . Уп)- /„>1пС 115
Величина вероятности ошибки второго рода является при этом функцией п и имеет минимально возможное (при данных а и п) значение. В данном случае порог проще определять с помощью формул (3-48). Так как в нашем случае а и (3 заданы, то согласно соотношениям (3-48) где ta и /р П («1--«о)2 ’ квантили нормального распределения. Рис. 3-4. Операционные характеристики для при¬ мера 3-6. — классическая процедура; ледовательная процедура. При а = Р = 0,05; а0 = 5 г/м3; ах — 6 г/м3; о = 1 г/м3 получаем п = 10,8 и принимаем п = 11. В соответствии с формулами (3-48) InC (fp-y (ai-a2)2 п 2 (fp + fo) о2 Поэтому решающее правило принимает вид: = 0. d{Y 1, ..., Кп) = II принять Н при -j-j- ^ 7^5,5 г/ж3; 1 = 1 и принять Н при — ^ 7; >5,5 г/ж3, что непосредственно следует из формул (3-67) и (3-68) для конкретных значений а, Р, а0, «ь <*• Операционная характеристика в соответствии с формулами (3-48) задается вы¬ ражением и показана на рис. 3-4, 116
Последовательная процедура (критерий Вальда). Согласно критерию Вальда решающее правило имеет вид: (принять Н при ln ^ In В; провести еще одно измерение при In В <у/л < In А и повторить проверку; принять Н при /л^1пЛ, где d iXi> ••• > Yn): Л = 1-р В = Р 1 —а* Операционная характеристика в соответствии с формулами (3-61), (3-62) задается выражением а ) Ца): -1 1 _ р \/г (а) ( р \h(a)\ а ) \\—а, где fll + g0 —2а fli —а0 Для заданных значений а, (3, а0 /1=11— 2 а; 19И-2а._1 L(a) = 1911-2а 192а-11 Операционная характеристика критерия Вальда показана на рис. 3-4. Рис. 3-5. Кривая эффективности последовательной процедуры для примера 3-6. Среднее число испытаний определяется формулой (3-63): L(“) 1п7~^ + 11“Да)11пЦг МаМ=- а1~а0 (а _ ^1+^0 а2 для конкретных значении параметров Ма £v] = 2,94 — 5,88 L(a) а—5,5 117
На рис. 3-5 показана кривая относительной эффективности последовательной процедуры п-Ма [v] п • Анализ полученных результатов показывает: 1) операционные характеристики обеих процедур почти полностью совпадают и удовлетворяют поставленным условиям; 2) классическая процедура требует проведения 11 проб грунта для обеспечения заданной надежности решения; 3) последовательная процедура при любом содержании минерала X обладает эффективностью не менее е' = 0,21, т. е. среднее число проб не превосходит Ма [v] ^ (1-0,21) 11 = 8,65. Глава четвертая ПРИМЕНЕНИЕ ВЫЧИСЛИТЕЛЬНЫХ МАШИН ДЛЯ ИССЛЕДОВАНИЯ СЛУЧАЙНЫХ ВЕЛИЧИН И ПРОЦЕССОВ Различные методы и приборы для определения параметров и харак¬ теристик случайных процессов можно объединить в две группы. Пер¬ вую группу составляют приборы для определения корреляционных функций (корреляторы), спектральных плотностей (спектрометры), математических ожиданий, дисперсий, законов распределения и про¬ чих случайных процессов и величин [Л. 28, 29]. Все приборы первой группы можно разделить на две подгруппы. Одни определяют характеристики записанных случайных сигналов за достаточно большое время, намного превышающее время реализации самого случайного процесса. Другие (они в последнее время вызывают наибольший интерес) позволяют получать характеристики случайного процесса оперативно, в такт с поступлением информации при натурных испытаниях новых систем управления, так как, пользуясь их показа¬ ниями, можно непосредственно изменять процесс управления и в ходе эксперимента наблюдать за результатами этих изменений. Вторая группа содержит методы и приборы, предназначенные для исследования случайных процессов и главным образом систем управ¬ ления, в которых присутствуют случайные сигналы, на универсаль¬ ных цифровых и аналоговых вычислительных машинах. Иногда для таких исследований приходится создавать специализированные вычис¬ лительные машины цифрового, аналогового или чаще аналого-цифрового (гибридного) типа, так как существующие типовые машины не приспо¬ соблены для решения некоторых задач. Широко применяется на практике метод Монте-Карло (метод ста¬ тистических испытаний). Его основная идея чрезвычайно проста и за¬ ключается по существу в математическом моделировании на вычисли¬ тельной машине тех случайных процессов и преобразований с ними, которые имеют место в реальной системе управления. Этот метод в ос¬ новном реализуется на цифровых и, реже, на аналоговых вычисли¬ тельных машинах. 118
Можно утверждать, что метод Монте-Карло остается чистым мето¬ дом моделирования случайных процессов, чистым математическим экспериментом, в известном смысле лишенным ограничений, свойст¬ венных другим методам. В данном разделе он будет рассмотрен примени¬ тельно к решению различных задач управления. 4-1. ОБЩАЯ ХАРАКТЕРИСТИКА МЕТОДА МОНТЕ-КАРЛО Как уже указывалось, идея метода Монте-Карло (или метода ста¬ тистического моделирования) очень проста и заключается в том, что в вычислительной машине создается процесс преобразования цифровых данных, аналогичный реальному процессу. Вероятностные характе¬ ристики обоих процессов (реального и смоделированного) совпадают с какой-то точностью [Л. 38—42]. Допустим, необходимо вычислить математическое ожидание слу¬ чайной величины X, подчиняющейся некоторому закону распределе¬ ния F (х). Для этого в машине реализуют датчик случайных чисел, имеющий данное распределение F (х)у и по формуле, которую легко запрограммировать, определяют оценку математического ожидания: Хл Хп —f- . . . —X д г М[Х]~-1Т Т ", (4-1) Каждое значение случайной величины xt представляется в машине двоичным числом, которое поступает с выхода датчика случайных чисел на сумматор. Для статистического моделирования рассматрива¬ емой задачи требуется Х-кратное повторение решения. Рассмотрим еще один пример. Производится десять независимых выстрелов по мишени. Вероятность попадания при одном выстреле задана и равна р. Требуется определить вероятность того, что число попаданий будет четным, т. е. О, 2, 4, 6, 8, 10. Вероятность того, что число попаданий будет 2&, равна: с\ЧргЧ (4-2) откуда искомая вероятность 5 Р = \\р* (1 - p)™-*k. (4-3) k=\ Если эта формула неизвестна, то можно осуществить физический эк¬ сперимент, произведя несколько партий выстрелов (по 10 в каждой) по реальной мишени. Но проще выполнить математический экспери¬ мент на вычислительной машине следующим образом. Датчик случай¬ ных чисел выдаст в цифровом виде значение случайной величины £, подчиняющейся равномерному закону распределения в интервале [0, 1]. Вероятность неравенства £ < р равна р> т. е. Р{1<Р}=Р- (4*4) Для пояснения целесообразно обратиться к рис. 4-1, на котором весь набор случайных чисел представляется в виде точек отрезка [0, 1]. 119
Вероятность попадания случайной величины |, имеющей равномерное распределение в интервале [0, 1], в интервал [0, р] (где р ^ 1) равна длине этого отрезка, т. е. р. Поэтому на каждом такте моделирования полученное число £ сравнивают с заданной вероятностью р. Если £ < /?, то регистрируется попадание в мишень, в противном случае — промах. Далее проводят серию из десяти тактов и подсчитывают чет¬ ное или нечетное число попаданий. При большом числе серий (100 1 ООО) получается вероятность, близкая к той, которая определяется по формуле (4-3). Различают две области применения метода Монте-Карло. Во-пер¬ вых, для исследования на вычислительных машинах таких случайных явлений и процессов, как прохождение элементарных ядерных частиц (нейтронов, протонов и пр.) через вещество, системы мас¬ сового обслуживания (телефонная сеть, система парикмахерских, система противовоздушной обороны и пр.), надежность сложных систем, в которых выход из строя элементов и устранение неисправностей яв¬ ляются случайными процессами, статистическое распознавание обра¬ зов. Это — применение стати¬ стического моделирования к изу- Р 1 чению так называемых, вероят- ™ 1 ностных систем управления. Рис. 4-1. Пояснение к процессу получе- Этот метод широко Приме¬ нил случайных чисел с равномерным зако- няется и для исследования ди- ном распределения. скретных систем управления, когда используются кибернети¬ ческие модели в виде вероятностного графа (например, сетевое плани¬ рование с P-распределением времени выполнения работ) или вероят¬ ностного автомата. Если динамика системы управления описывается дифференциаль¬ ными или разностными уравнениями (случай детерминированных систем управления) и на систему, например угловую следящую систему радиолокационной станции, воздействуют случайные сигналы, то ста¬ тистическое моделирование также позволяет получить необходимые точностные характеристики. В данном случае с успехом применяются как аналоговые, так и цифровые вычислительные машины. Однако, учитывая более широкое применение при статистическом моделирова¬ нии цифровых машин, рассмотрим в данном разделе вопросы, связан¬ ные только с этим типом машин. Вторая область применения метода Монте-Карло охватывает чисто детерминированные, закономерные задачи, например нахождение зна¬ чений определенных одномерных и многомерных интегралов. Особенно проявляется преимущество этого метода по сравнению с другими чис¬ ленными методами в случае кратных интегралов. При решении алгебраических уравнений методом Монте-Карло число операций пропорционально числу уравнений, а при их решении детер¬ минированными численными методами это число пропорционально кубу числа уравнений. Такое же приблизительно преимущество сохраняется вообще при выполнении различных вычислений с матрицами и особенно в операции обращения матрицы. Надо заметить, что универсальные 120
вычислительные машины не приспособлены для матричных вычислений и метод Монте-Карло, примененный на этих машинах, лишь несколько улучшает процесс решения, но особенно преимущества вероятностного счета проявляются при использовании специализированных вероят¬ ностных машин [Л. 13]. Основной идеей, которая используется при ре¬ шении детерминированных задач методом Монте-Карло, является за¬ мена детерминированной задачи эквивалентной статистической задачей, к которой можно применять этот метод. Естественно, что при такой за¬ мене вместо точного решения задачи получается приближенное реше¬ ние, погрешность которого уменьшается с увеличением числа испыта¬ ний. Эта идея используется в задачах дискретной оптимизации, которые возникают при управлении. Часто эти задачи сводятся к перебору большого числа вариантов, исчисляемого комбинаторными числами вида N = 22* . Так, задача распределения п видов ресурсов между отраслями для п > 3 не может быть точно решена на существующих ЦВМ и ЦВМ ближайшего будущего из-за большого объема перебора вариантов. Однако таких задач возникает очень много в киберне¬ тике, например синтез конечных автоматов. Если искусственно ввести вероятностную модель-аналог,, то задача существенно упро¬ стится, правда, решение будет приближенным, но его можно полу¬ чить с помощью современных вычислительных машин за приемлемое время счета. При обработке больших массивов информации и управлении сверх¬ большими системами, которые насчитывают свыше 100 тыс. компонен¬ тов (например, видов работ, промышленных изделий и пр.), встает за¬ дача укрупнения или эталонизации, т. е. сведения сверхбольшого мас¬ сива к 100—1 ООО раз меньшему массиву эталонов. Это можно выпол¬ нить с помощью вероятностной модели. Считается, что каждый эталон может реализоваться или материализоваться в виде конкретного пред¬ ставителя случайным образом с законом вероятности, определяемым относительной частотой появления этого представителя. Вместо исход¬ ной детерминированной системы вводится эквивалентная вероятност¬ ная модель, которая легче поддается расчету. Можно построить не¬ сколько уровней, строя эталоны эталонов. Во всех этих вероятностных моделях с успехом применяется метод Монте-Карло. 4-2. ПОЛУЧЕНИЕ ПОСЛЕДОВАТЕЛЬНОСТИ СЛУЧАЙНЫХ ЧИСЕЛ Очевидно, что успех и точность статистического моделирования зависят в основном от качества последовательности случайных чисел и выбора оптимального алгоритма моделирования. Задача получения случайных чисел обычно разбивается на две. Вначале получают последовательность случайных чисел, имеющих равномерное распределение в интервале [0, 1]. Затем из нее получают последовательность случайных чисел, имеющих произвольный закон распределения. Один из способов такого преобразования состоит в ис¬ 121
пользовании нелинейных преобразований4. Пусть имеется случайная величина X, функция распределения вероятности для которой F(x) = P{X ^х}. (4-5) Если у является функцией х, т. е. у = F (х), то 0 F (х) ^ 1 и по¬ этому 0 ^ у ^ 1. Таким образом, для получения последовательности случайных чисел, имеющих заданную функцию распределения F (х), необходимо каждое число у с выхода датчика случайных чисел (ДСЧ), который формирует числа с равномерным законом распределения в ин¬ тервале [0, 1], подать на не¬ линейное устройство (анало- " говое или цифровое), в кото¬ ром реализуется функция, обратная F (*), т. е. x = F'1(y): (4-6) Полученная таким способом случайная величина X будет иметь функцию распределе¬ ния F(x). Рассмотренная выше процедура может быть использована для графичес¬ кого способа получения слу- х чайных чисел, имеющих за¬ данный закон распределения. Рис. 4-2. Пояснение к процессу получения Для ЭТОГО на миллиметровой случайных чисел с любым законом распре- бумаге строится функция F (х) деления. и вводится в рассмотрение другая случайная величина Y, которая связана со случайной величиной X соотношением (4-6) (рис. 4-2). Так как любая функция распределения монотонно неубывающая, то P{Y^y} = P{F(X)^F(x)} = P{X^x} = F(x)=y. (4-7) Отсюда следует, что величина Y имеет равномерный закон распределе¬ ния в интервале [0, 1], так как ее функция распределения равна самой величине Fy(y) = P{Y^y}=y. (4-8) Плотность распределения вероятности для Y fy(y)=—$L= !• (4-9) Для получения значения X берется число из таблиц случайных чисел, имеющих равномерное распределение, которое откладывается на оси ординат (рис. 4-2), и на оси абсцисс считывается соответствую¬ щее число X. Повторив неоднократно эту процедуру, получим набор случайных чисел, имеющих закон распределения F (х). Таким обра¬ 122
зом, основная проблема заключается в получении равномерно распре¬ деленных в интервале [0, 1] случайных чисел [Л. 38]. Один из методов, который используется при физическом способе получения случайных чисел для ЦВМ, состоит в формировании дискретной случайной вели¬ чины, которая может принимать только два значения: 0 или 1 с вероят¬ ностями Далее будем рассматривать бесконечную последовательность гъ z2, 2з» ••• как значения разрядов двоичного числа £* вида Можно доказать, что случайная величина £*, заключенная в ин¬ тервале [0, 1], имеет равномерный закон распределения В цифровой вычислительной машине имеется конечное число раз¬ рядов k. Поэтому максимальное количество не совпадающих между собой чисел равно 2к. В связи с этим в машине можно реализовать дискретную совокупность случайных чисел, т. е. конечное множество чисел, имеющих равномерный закон распределения. Такое распре¬ деление называется квазиравномерным. Возможные значения реализации дискретного псевдослучайного числа 1 в вычис¬ лительной машине с k разрядами будут иметь вид: Вероятность каждого значения (4-13)равна 2 *. Эти значения можно получить следующим образом: и выражение для конечной суммы геометрической прогрессии (4-10) s* = Zx • 2-1 + z2 • 2-2 +... + z„ • 2-"+. •. (4-11) F(x) = P{t*<x}=x. (4-12) (4-13) k (4-14) Случайная величина 1 имеет математическое ожидание k М[ 1] = 2г-'Л*М. (4-15) = o4+i4 = t (4-16) П (4-17) получаем; (4-18) 123
Аналогично можно определить дисперсию величины к D[l] = ZD^il (4-19) где i=1 1 Т], = гг2--'; М [rjJ - 2,+1 , ^ = ~2 _ 2‘+1 ] ~2 ["2* 2t+1 ] = 22'4? 8" ’ 22‘ ’ (4-20) откуда k о[|]=2^ + 2'Г-гт- <4'21> 1=1 1=1 • или, используя формулу (4-17), получаем: 0[l] = T(l-2i). (4-22) Согласно формуле (4-18) оценка 1 величины получается смещен¬ ной при конечном k. Это смещение особенно сказывается при малом k. Поэтому вместо § вводят оценку 1 = 11 (4-23) где 2* /: 2* — 1 * Очевидно, что случайная величина £ в соответствии с соотношением (4-13) может принимать значения Ь=2^Т>' i = 0, 1, 2, ..., 2k — 1 с вероятностью р = 1/2*. Математическое ожидание и дисперсию величины £ можно получить из соотношений (4-18) и (4-22), если учесть (4-23). Действительно, М [£] = гёт М [|] = 2^5-. Т. |, (4-24) D m _ 22fe щ|1 _ 2^ (2ft+ l) (2»-l) _ 2* +1 5 4 LbJ — (2* — 1)Я LbJ — (2* — 1)2. 12 • 22* 12 (2k — 1)* v*‘ZcV Отсюда получаем выражение для среднеквадратичного значения в виде °V ту/Ш- <4'26> 2/3 Напомним, что для равномерно распределенной в интервале [0, 1] величины х илгеем: М[Х] = Т;
Из формулы (4-26) следует, что при k оо среднеквадратичное от¬ клонение а квазиравномерной совокупности стремится к 1/21/3. Ниже приведены значения- отношения среднеквадратичных значений двух величин | и г| в зависимости от числа разрядов [Л. 38], причем вели¬ чина ц имеет равномерное распределение в интервале [0, 1] (табл. 4-1). Таблица 4-1 10 15 at/dn 1,29 1,14 1,030 1,001 1,00 Из табл. 4-1 видно, что уже при k > 10 различие в дисперсиях не¬ существенно. На основании вышеизложенного задача получения совокупности квазиравномерных чисел сводится к получению последовательности независимых случайных величин zt (i = 1, 2, ..., k), каждая из которых принимает значение 0 или 1 с вероятностью 1/2. Различают два спо¬ соба получения совокупности этих величин: физический способ гене¬ рирования и алгоритмическое получение так называемых псевдослу¬ чайных чисел. В первом случае требуется специальная электронная приставка к ЦВМ, во втором случае загружаются блоки машины. При физическом генерировании чаще всего используются радио¬ активные источники или шумящие электронные устройства. В первом случае радиоактивные частицы, излучаемые источником, поступают на счетчик частиц. Если показание счетчика четное, то гь — 1, если нечетное, то zt = 0. Определим вероятность того, что^г,- = 1. Число частиц к, которое испускается за время А/, подчиняется закону Пуас¬ сона: /г! Wk (4-28) Вероятность четного числа частиц оо р {Z, -1 (- -1 г „ - 2 “ k=0 е~ш k=0 1 + е-2 Ш (4-29) Таким образом, при больших ЯДt вероятность Р {Zt = 1} близка к 1/2. Второй способ получения случайных чисел zt более удобен и связан с собственными шумами электронных ламп. При усилении этих шумов получается напряжение u(t), которое является случайным процессом. Если брать его значения, достаточно далеко отстоящие друг от друга, так чтобы они были некоррелированы, то величины и (/*) образуют 125
последовательность независимых случайных величин.Обычно выбирают уровень отсечки а и полагают ( 0, если u(f)s^a; zi = { 1 (4-30) ( 1, если u(t)>>a, ! причем уровень а следует выбрать так, чтобы P{Zt= 1} = />{«&)> а} . (4-31) Простая логика (4-47) обычно не обеспечивает хорошего выполнения условия (4-48).Поэтому применяют.более сложную логику образования чисел zi. В первом варианте используют два соседних значения и (О и и (tiJri), и величина Zt строится по такому правилу: ч 1 при u(ti)^>a, u(ti+1)^a; 0 при u(ti)^a, м(</+1)>а. (4 32) Если пара а (tt) — а и и (ti+1) — а одного знака, то берется сле¬ дующая пара. Требуется определить вероятность при заданной ло¬ гике. Будем считать, что Р {и (U) > а) = W и постоянная для всех U. Тогда вероятность события A1 = {u(ti)>ai а(^+1)^а} равна по формуле полной вероятности бесконечной сумме вероятностей про¬ изведений событий AXHV. Здесь Hv — это вероятность того, что v раз появилась пара одинакового знака и (tt) — а\ и (ti+1) — а. (4-33) Поэтому вероятность события AXHV Р {AXHV} = W (1 - W) [Г2 + (1 - Г)2]*. (4-34) Это — вероятность того, что после v пар вида (4-33) появилось собы¬ тие Ах. Оно может появиться сразу с вероятностью W (1 — W)y оно может появиться и после одной пары вида (4-33) с вероятностью W (1 — №)[№2 + (1 + W)2] и т. д. В результате оо оо Р {Ла} = 2 р {AiHv} = W (1 - W)2 [W* + (1 - W)*]v (4-35) V=0 V=0 ИЛИ p {z. - n - _ WX1-W) . _ I ,4Q6) r — 4 — \ _W2_(i_Wy — 2W (1 — W) 2* Отсюда следует, что если W = const, то логика обеспечивает хорошую последовательность случайных чисел. Второй способ формирования чисел Zi состоит в следующем: 1, если и (ti) >>0, и (ti+1) ^ 0 или и (ti) ^ 0, и (//+1) > 0; Zi = \ .. и. \ ^ f\ (4-37) 0, если и (ti) > 0, и (ti i i) > 0 или и (ti) ^ 0, и (ti:+i) ^ 0, 126
Пусть Тогда r = P{«ft)>a}=4 + 8- P{Zi=\} = 2W (1 — И?) = у —2е2. (4-38) (4-39) Чем меньше е, тем ближе вероятность Р {Zt = 1 } к величине 1/2. Для получения случайных чисел алгоритмическим путем с по¬ мощью специальных программ на вычислительной машине разрабо¬ тано большое количество методов. Так как на ЦВМ невозможно полу¬ чить идеальную последовательность случайных чисел хотя бы потому, что на ней можно набрать конечное множество чисел, такие последова¬ тельности называются псевдослучайными. На самом деле повторяемость или периодичность в последовательности псевдослучайных чисел на¬ ступает значительно раньше и обусловливается спецификой алгоритма получения случайных чисел. Точные аналитические методы опреде¬ ления периодичности, как правило, отсутствуют, и величина периода последовательности псевдослучайных чисел определяется эксперимен¬ тально на ЦВМ. Большинство алгоритмов получается эвристически и уточняется в процессе экспериментальной проверки. Рассмотрение начнем с так называемого метода усечений [Л. 42]. Пусть задана произ¬ вольная случайная величина а, изменяющаяся в интервале [0, 1], т. е. О ^ и С 1. Образуем из нее другую случайную величину ип = и [mod 2'"], (4-40) где и [mod Тп\ используется для определения операции получения остатка от деления числа и на 2~п. Можно доказать, что величины ип в пределе при п-> оо имеют равномерное распределение в интервале [0, 1]. По существу с помощью формулы (4-40) осуществляется усечение исходного числа со стороны старших разрядов. При оставлении дале¬ ких младших разрядов естественно исключается закономерность в чис¬ лах и они более приближаются к случайным. Покажем это на примере. Пример 4-1. Пусть « = 0,10011101 ...= 1— +0 ^ + 0 ^ + 1 ^ + 1 + + 1 & + + 1 Выберем для простоты п = 4. Тогда {« mod 2~4} = 0,1101... Из рассмотренного свойства ясно, что существует большое количе¬ ство алгоритмов получения псевдослучайных чисел. При этом после операции усечения со стороны младших разрядов применяется стан¬ дартная процедура нормализации числа в цифровой вычислительной машине. Так, если усеченное слева число не умещается по длине в машине, то производится усечение числа справа. Наиболее показа¬ телен метод Н. М. Соболя, используемый в ЦВМ «Стрела» [Л. 43]. Схема расположения разрядов в ячейке машины «Стрела» представ- 127
лена на рис. 4-3. Это — трехадресная машина с плавающей запятой, работающая с двоичными числами в нормализованной форме: х = ±Мх-2±р, где Мх — мантисса числа, удовлетворяющая условию нормализации 0,5 ^ М < 1; р — порядок числа. В /-м разряде может стоять нуль или единица, т. е. = 0 или 1. Тогда М = -1 -4- —2- -I- 4- -2^- • lYlx 21 22 ' ‘ 235 * Р = ез7 * 25 + е38 • 24 +... + е42 • 2°. Условие нормализации означает, что г± = 1. Знаки числа и порядка изображаются: плюс — нулем, минус — единицей. Число ak+1 полу- 0 1 2 J 32 33 34 35 36 37 38 39 40 41 42 \3нак Т п°Ряд0К • мантиссы I Знак порядка Рис. 4-3. Схема расположения разрядов в ячейке ма¬ шины «Стрела». чается из числа ak с помощью следующей рекуррентной процедуры, состоящей из трех операций: 1) умножения ak на большую константу К = Ю17; 2) сдвига изображения числа 1017 в сетке машины на 7 разрядов влево [т. е. в формуле (4-40) п = 7]. При этом первые семь разрядов произведения пропадают и в разрядах с 3-го по 42-й оказываются нули; 3) определения абсолютной величины полученного числа, при кото¬ рой происходит нормализация числа. При а0 = 1 можно таким способом получить 80 ООО различных чи¬ сел ak, после чего в последовательности чисел возникает периодич¬ ность. Вероятность вырождения чисел, т. е. обращения ал+1, а следо¬ вательно, и всех последующих чисел в нуль, очень мала. Действительно, сх/е+1 обратится в 0 только тогда, когда 0,5<а/гД017<1, (4-41) так как в противном случае в порядке произведения окажутся цифры, отличные от нуля, и при сдвиге они попадут в мантиссу числа ал+1. Но условие (4-41) можно переписать в виде 0,5 - 10~17<а*< Ю-17, т. е. для вырождения число ak должно попасть в очень узкий интервал значений. Отсюда следует, что чем больше число К, тем меньше веро¬ ятность вырождения. При проверке качества псевдослучайных чисел прежде всего инте¬ ресуются длиной отрезка апериодичности и длиной периода (рис. 4-4). 128
Под длиной отрезка апериодичности L понимается совокупность после¬ довательно полученных случайных чисел аъ ...yaLf таких, что at =£a,j при 1 < i 1 < / ^ i ^ /, но а^! равно одному из ak (1 ^ k ^ ^L). Под длиной периода последовательности псевдослучайных чисел понимается Т = L — i + 1. Начиная с некоторого номера i числа будут периодически повторяться с этим периодом (рис. 4-4). 4/ина отрезка апериодичности Г ' ч di <*2 Ж'И °4+/ °4+/ ^ZL-L+l У Н-— И-—1_ ■ I ^ Н 4:- 1 1 периодаS Рис. 4-4. Поведение последовательности псевдослучайных чисел. Как правило, эти два параметра (длины апериодичности и периода) определяются экспериментально. Так, для рассмотренной выше прог¬ раммы Н. М. Соболя L = 80 ООО, а длина периода а = 50 ООО. Каче¬ ство совпадения закона распределения случайных чисел с равномер¬ ным законом проверяется с помощью критериев согласия, рассмот¬ ренных в предыдущих разделах. 4-3. ТОЧНОСТЬ МЕТОДА МОНТЕ-КАРЛО Метод Монте-Карло применяется там, где не требуется высокой точности. Например, если определяют вероятность поражения мишени при стрельбе, то разница между рх = 0,8 и р2 = 0,805 несущественна.* Обычно считается, что метод Монте-Карло позволяет получить точ¬ ность примерно 0,01—0,05 максимального значения определяемой величины. Получим некоторые рабочие формулы [Л. 38]. Определим по ме¬ тоду Монте-Карло вероятность пребывания системы в некотором со¬ стоянии. Эта вероятность оценивается отношением М ~N^P> где М — число пребываний системы в этом состоянии, в результате N моделирований. Учитывая выражение для дисперсии величины MIN Р (1 — Р) и неравенство Чебышева Р {| X - тх 15S Ках\ < = р0, (4-42) напишем Величина p{|T-H</£ib£l}sl-R' <4-43) (4-44) б Основы кибернетики 129
есть не что иное, как ошибка моделирования по методу Монте-Карло С помощью формулы (4-42) можно написать следующую формулу дЛя величины (4-43): 6 = или N' Рv p0N ’ (4-45) Y: м Л^-лГ рО—р) Роб2 где р0 — вероятность невыполнения этой оценки. Из соотношения (4-41) следует, что погрешность метода Монте-Карло <4-4б) следовательно, для уменьшения погрешности 6 в 10 раз число реализа¬ ций необходимо увеличить в 100 раз. Этим обстоятельством и обуслов¬ ливается невысокая точность моделирования по методу Монте-Карло. Аналогично с помощью частоты M/N может быть получена оценка математического ожидания тх некоторой случайной величины X. Ошибка этой оценки * М 6=-Fr-mx находится с помощью соотношения 6 = м т*—аГ <4-47> Отсюда видно, что ошибка моделирования находится в квадратичной зависимости от числа реализаций, т. е. Vn Пример 4-2. Допустим, что определяется математическое ожидание ошибки х поражения мишени. Процесс стрельбы и поражения моделируется на ЦВМ по методу Монте-Карло. Требуется точность моделирования б = 0,1 м с вероятностью р = 1 — ро = 0,9 при заданной дисперсии ох= 1 м. Необходимо определить коли¬ чество моделирований N. По формуле (4-66) получаем: N >—— • " е*р0 ’ N^W^oJ=l °00- При таком количестве реализаций обеспечивается б = 0,1 м с вероятностью Р = 0,9. Можно получить еще более удобные выражения, чем (4-45) и (4-47), если учесть, что оценка величины /?.* подчиняется нормальному распре¬ делению вероятности. Известно правило За (см. гл. 1), в соответствии с которым вероятность превышения в три раза среднеквадратичного значения отклонения от математического ожидания меньше 0,003, т. е. Р{\Х-тх\^ За*} < 0,003. (4-48) 130
Тогда вместо формулы (4-45) имеем: 6 = или м -N-P N^5 >3 у В^Й. N 9Р'(1—Р) б2 (4-49) (4-50) Отсюда может создаться мнение, что при малых р ж 0 и больших р & 1 требуется малое число испытаний, но на самом деле это неверно. Как будет показано ниже, для этих двух случаев не удовлетворяются условия Ляпунова предельной теоремы и нельзя использовать нормаль¬ ный закон распределения. Аналогичным образом для больших р (например, р = 0,996) 6 следует брать тоже малой (6 = 0,005). Поэтому отношение р (1 — р)1 S2 будет большим. Аналогично вместо формулы (4-47) можно написать: 6 = м N — тх '/т или N: 9ст2 62 (4-51) (4-52) Из формул (4-50) и (4-51) видна обратная квадратичная зависимость между точностью вычисления 6 и числом реализаций /V, что позволяет получить высокую точность метода Монте-Карло с помощью цифровых или аналоговых вычислительных машин. Если ввести понятие довери¬ тельной вероятности (3 получения параметров по методу Монте-Карло и применить положения, полученные в разделе теории оценок, можно вывести ряд полезных формул для точности статистического модели¬ рования. Пользуясь неравенством Чебышева и учитывая, что средне¬ квадратичное значение величины X при N моделированиях определя¬ ется по формуле 8%х = qJYN, получаем: (4-53) где Тогда для ошибки с доверительной вероятностью |3 можно написать: 6 = |*-m,|^/p^j=. (4-54) Поэтому (4-55) Эта формула дает выражение для числа испытаний, при которых обес¬ печивается требуемая точность 6 при заданной доверительной вероят¬ ности (3 и исходной дисперсии о% исследуемой величины X. б* 131
Для случая определения вероятности имеем: (4-56) Пример 4-3.'Для условий примера 4-2 найдем необходимое число реализаций д/ для определения вероятности поражения мишени с заданной точностью б = 0,01. Доверительная вероятность задается равной р = 0,99. Считается, что оценка вероят¬ ности р подчиняется нормальному закону, т. е. величина р — не малая и не боль¬ шая, и число реализаций большое. Используя формулу (4-55), получаем: *р = аг&Ф* (1) =0,84. В практических расчетах можно считать приближенно, что для не очень боль¬ ших и не очень малых р произведение Получим важные для практики формулы, введя вместо абсолютной ошибки б относительную ошибку Если ввести в рассмотрение максимально допустимое значение отно¬ сительной ошибки dMaKc, то вместо формулы (4-55) можно написать: Применительно к определению вероятности формулы (4-58) и (4-59) запишутся в виде Пример 4-4. Для условия примера 4-3 определим необходимое число испытаний для получения максимальной относительной ошибки dMaKC= 0,01 при условии, что р = 0,5. Подставив цифровые данные в формулу (4-61), получим: р (1~р) 0,5 (1-0,5) =0,25. В районе точки р — 0,5 это произведение изменяется слабо. Поэтому О 0,842=1 780 ^ 2 000. (4-57) Учитывая соотношение (4-54), получаем: (4-58) (4-59) (4-60) • N = tUl-p) pduaKC (4-61) УУ = М1 = 0,7 . 104 = 7 000. 132
Отсюда следует, что получение относительной точности порядка 1% при довери¬ тельной вероятности Р = 0,99 по методу Монте-Карло сопряжено с большим коли¬ чеством испытаний. Аналогичные оценки точности моделирования 6 = | D — а2| можно получить для дисперсии. МьГуже отмечали, что оценка дисперсии вх= Л/_1 (4-62) асимптотически распределена нормально. Вспомним формулу для оценки дисперсии 0[D] = F|TD>--5f|^0*_io*. (4-63) Применив неравенство Чебышева к нормально распределенной вели¬ чине (4-62) и учитывая, что м [d] =D — o2, получим: P{|D-o*|</p£)[6]}^p, (4-64) откуда ta 2а4 (4-65) Из этой формулы можно сделать ошибочный вывод о том, что при опре¬ делении дисперсии по методу Монте-Карло требуется меньше реали¬ заций для получения той же самой точности *6, чем при определении математического ожидания по формуле (4-55). На самом деле это не так, потому что необходимо устанавливать для определения среднеквадра¬ тичного значения ох такую же ошибку б, как и для тХ1 а для дисперсии, следовательно, необходимо требовать эквивалентной ошибки б2, т. е. по-прежнему действует зависимость б~йг (4'66) Статистическое моделирование с целью определения малых значе¬ ний вероятности затруднительно, так как N обратно пропорционально р [формула (4-61)]. Поэтому задачу необходимо преобразовать. Можно показать, что при малых р частота события р* = M/N не подчиняется нормальному закону распределения и формулы для оценки точности моделирования по методу Монте-Карло, основанные на ЦПТ, не спра¬ ведливы. Известно, что величина М подчиняется биномиальному закону распределения. Если при устремлении числа опытов N к со одновре¬ менно р -->■ 0, так что pN = a, (4-67) то из биномиального закона получается закон Пуассона с параметром а [Л. 21]. Покажем, что в этом случае при малых р не удовлетворяются 133
условия центральной предельной теоремы Ляпунова. Действительно, N J*m Т~й Ш2 = ®’ (4-68) Ы bk = М\ \ Хк |3} = р3 [Хь]. Полагая, что третьи моменты и дисперсии замеров одинаковы bk = by Dk = D = o2, (4-69) получаем: Zb»=Nb> k=\ N \ 3/2 / /V хб/4 __ |2DftJ =nVno\ Поэтому формула (4-68) может быть записана в виде (4-70) lim -4= = 0. (4-71) N-*co&VN ' ’ В соответствии с формулами (4-69) и (4-70), а также учитывая, что для биномиального распределения а = Ур (1 — р), получаем: H3[X] = Nb=*Npq (q-p); b = pq(q-p)f*>p(l-р)2. J ^4?2^ Поэтому —, р (1 -7= = (- ~р}1/'2- ^ (1 /а - 1 /IV)1/2 -> 1 /а, (4-73) o*Vn pi/2(l-p)i/2v N VpN —- т. е. условия предельной теоремы не выполняются. Очевидно, что все изложенное здесь остается в силе, если мало q = = 1 — р и lim qN = а, так как во все формулы р и q входят симмет- N ->• со рично. Поэтому как при малых /?, так и при /?, близких к 1, закон рас¬ пределения величины р* может не стремиться к нормальному, и фор¬ мулы, связанные с предположением нормальности, не справедливы. Формулами, не связанными с" нормальным распределением (4-42) — (4-47), пользоваться можно, но следует иметь в виду, что они дают не¬ сколько завышенный (примерно на 30%) результат. 4-4. ПРИМЕРЫ РАСЧЕТОВ ПО МЕТОДУ МОНТЕ-КАРЛО Рассмотрим несколько примеров на применение метода Монте- Карло. Определение площадей и объемов. Остановимся вначале на прин¬ ципе определения площадей. Допустим, требуется определить интеграл 1 I=\f(x)dx. 0 134
Если пределы произвольные, то изменением масштабов по осям абс¬ цисс и ординат всегда можно добиться, чтобы величина х изменялась в пределах [0, 1], а функция f{x) — в пределах от 0 до 1 при 0 ^ х ^ ^ 1 (рис. 4-5). Требуется определить площадь, ограниченную кривой f(x), осью абсцисс и прямыми х = 0 и х = 1. Для этого необходимо иметь два независимых датчика случайных чисел (ДСЧ), которые вы¬ дают две последовательности случайных чисел хну, равномерно рас¬ пределенных в интервале [О, 1]. Пусть в квадрат случайно попала точка (£, г]). Вероятность попада ния точки под кривую рав на площади, т. е. интегралу Берем пару первых слу чайных величин £, ц и про¬ веряем условие Ш<Л. (4-74) Если оно выполнено, то точка попала под кривую. Проделав этот эксперимент N раз и определив, сколько раз точка оказывалась под кривой М, получим, что 1 M-^p=\f(x)dx. (4-75) ™ J Рис. 4-5. Пояснение к процессу подсчета пло¬ щади по методу Монте-Карло. Тем самым задача решена. Однако проще использовать способ, требующий для вычислений один датчик случайных чисел [Л. 43]. При этом заметим, что интеграл ь I =^f(x) dx а можно записать в виде J = \ [/ (х) | Р1 (х)] Н (х) dx = M {л}. (4-76) а где г] = / (£)//?£ (|) — некоторая вспомогательная случайная величина, зависящая от случайной величины £, которая задается таблицей или получается с помощью ДСЧ. Слева в формуле (4-76) выражение равно математическому ожиданию случайной величины тр Поэтому приближенно интеграл можно вычис¬ лять по формуле 7=1 где lj(j = 1, 2, ..., N) — случайно выбранные точки; N — число испы¬ таний по методу Монте-Карло. 135
Пример 4-5. Определим [Л. 43] значение интеграла Я/2 / == ^ sin х dx. о Допустим, что числа 5/ имеют равномерный закон распределения вероятности на интервале [0, л/2] р^(х) = 2/л. В соответствии с методикой (см. § 4-2) получения случайных чисел с заданным зако¬ ном распределения р^ (х) из случайной величины у, имеющей равномерный закон распределения в интервале [0,1] необходимо аналитически или графически опре¬ делить £, пользуясь уравнением \{х) dx = y. о Получаем: V- (4-78) Эта процедура увеличивает интервал [0,1] до [0, л/2]. В качестве случайных чисел используем случайно выбранные тройки чисел из последовательности слу¬ чайных чисел, помещенных в приложении 6. Эта таблица содержит 400 случайных чисел, которые имеют следующий закон распределения: 0 1 2 ... 9 0,1 0,1 0,1 ... 0,1 Можно убедиться, что в этой последовательности из 400 чисел каждая из цифр 0, 1, ..., 9 встречается в среднем примерно 10%. Для удобства все цифры сгруппиро¬ ваны по пятеркам, но надо всегда иметь в виду, что имеется последовательность, состоящая из 400 цифр вида 8 651 569 186 ... Эти числа можно получить с помощью следующего физического. эксперимента: на десяти одинаковых бумажках пишут цифры 0, 1, ..., 9, вытаскивают бумажку наугад, записывают номер и возвращают на место. Такой опыт проделывают 400 раз. Учитывая, что в данном случае f (х) = sin х и принимая во внимание соотно¬ шение (4-78), формулу (4-77) перепишем в виде N (4‘79) / = 1 Полагаем N = 10, выбираем случайным образом десять троек случайных цифр из приложения 6 и умножаем их на 0,001. Результаты расчетов сводим в табл. 4-2. Таблица 4-2 / 1 2 3 4 5 6 7 8 9 10 Vi 0,480 0,791 0,347 0,452 0,847 0,908 0,152 0,865 0,424 0,389 Ь 0,753 1,24 0,545 0,710 1,33 1,42 0,248. 1,36 0,665 0,61 sin 1] 0,682 0,946 0,514 0,652 0,97 0,99 0,247 0,978 0,613 0,573 Подставив эти данные в формулу (4-78), получим I = 1,12 вместо точного зна¬ чения / = 1. Таким образом, точность будет равна 12%. 136
Аналогичная методика может быть применена для взятия кратных интегралов. При кратности п > 3 метод Монте-Карло экономичнее по времени счета, чем классический численный метод кубатур. В табл. 4-3 приведены сравнительные данные [Л. 38] времени счета для одних и тех же задач, выполненных этими двумя методами (быстродействие машины 5 ООО операций!сек). Таблица 4-3 Кратность интеграла п Численный метод кубатур Метод статистического моделирования Число операций К Время счета при числе повторений 5 000 Т Число операций К Время счета при числе повторений 5 000 Т 2 4 - Ю3 0,8 сек 2- 105 40 сек 7 8-105 2 мин 40 сек 7- 105 1 мин 20 сек 6 1,2- Ю3 6 ч 30 мин 6-105 2 мин 8 1,6 • 10Ю 880 ч 8 - Ю5 2 мин 40 сек 10 2 • 1012 110 000 ч 1 - 100 3 мин 20 сек Моделирование систем массового обслуживания. В кибернетике для описания работы сложных систем широко применяются модели теории массового обслуживания. К примеру, работу телефонного узла города или парикмахерских можно описать с помощью набора систем массового обслуживания, соединенных определенным образом, или сети массового обслуживания. Заявки, поступающие на телефонную станцию, или клиенты, приходящие в парикмахерскую, изобража¬ ются в виде случайных точек на оси времени, расположение которых определяется законом распределения вероятности. Каждый мастер в парикмахерской или телефонная линия связи представляется отдель¬ ной системой массового обслуживания, которая характеризуется слу¬ чайным временем обслуживания с известным законом распределения вероятности. В качестве исходных данных должны быть также заданы законы распределения времени ожидания заявок в очереди перед обслу¬ живанием (дисциплина очереди). Сложные системы массового обслуживания аналитически не рас¬ считываются, и для определения их параметров прибегают к стати¬ стическому моделированию. На ЦВМ в виде числа набирается время поступления заявки. По существу с помощью программы псевдослу¬ чайных чисел последовательно набираются интервалы между заяв¬ ками в соответствии с заданным законом распределения этих интер¬ валов. Каждая заявка-число проходит все стадии обслуживания, т. е. задерживается на случайные времена обслуживания и появляется на выходе модели. Для получения статистических характеристик в алго¬ ритме решения задачи предусмотрены специальные блоки подсчета среднего времени ожидания в очереди и пр. На рис. 4-6 приведена схема моделирования одноканальной системы массового обслуживания с отказами [Л. 39]. В этой схеме использованы четыре типа блоков: 137
1) формирователи заданного набора случайных чисел, представляющих времещ ные интервалы (1, 4, 9)\ 2) операторы проверки условий (обозначены кружочками). Если условие вы- полняется, то управление от предыдущего оператора передается к следующему, обозначенному цифрой «1», если нет — то к оператору с цифрой «О»; 3) блоки, вычисляющие момент начала обслуживания (7, <$); 4) прочие вычислительные блоки. Рис. 4-6. Схема моделирования на ЦВМ однока¬ нальной системы массового обслуживания. В блоке 1 формируются случайные числа, которые имитируют однородный поток событий в соответствии с заданным законом распределения. Случайное число, полу¬ чившееся в блоке /, поступает в блок проверки условия tj < Т, где Т•— время, отведенное на весь процесс моделирования всех заявок. При удовлетворении усло¬ вий, задаваемых блоком 2, число-заявка поступает на блок 3 проверки условия tj < fjl_j— свободен ли канал обслуживания. Если условие удовлетворяется, канал не свободен, то управление передается к блоку 4, где формируется случайное число, равное времени ожидания /-й заявки. Оператор 5 вычисляет момент предполагае¬ ма
мого поступления /-й заявки № = tj + т* в соответствии с заданной дисциплиной очереди. Блок-оператор 6 проверяет, может ли данная заявка быть обслужена с уче¬ том времени ожидания и обслуживания. Для этого в блоке сравниваются предпола¬ гаемое время начала обслуживания /-й заявки и окончания обслуживания пре¬ дыдущей заявки Если условие оператора 6 выполняется, то /-я заявка не может быть обслужена и получает отказ, управление передается блоку 14 подсчета числа отказов. Если это условие не выполняется, то управление передается по стрелке «О» к блоку 7 вычисления момента начала обслуживания. Число с выхода этого блока поступает на блок 9, формирующий время обслуживания /-й заявки. На этот же блок поступает число с блока 8, формирующего начало обслуживания t* ■= tj /'-й заявки, если в момент прихода канал свободен. Оператор 10 формирует момент освобождения канала от у-й заявки. Это время снова поступает на блок 11 проверки условия Т. Если канал освободился позже этого времени, управление поступает на блок 14 подсчета отказов. Если условие удовлетворяется, управление поступает на блок 12 подсчета числа обслужен¬ ных заявок. Оператор 13 служит для вычисления времени пребыва¬ ния заявок в системе —/у. От это го блока управление передается к блоку 1 для формирования следую¬ щей заявки, т. е. канал освобожден. Если условие блока 11 не вы¬ полняется, данная заявка подсчи¬ тывается как получившая отказ и эта команда служит для начала мо¬ делирования следующей заявки. Наконец, если условие оператора 2 не выполняется, к числу реализаций добавляется единица (блок 15), и, если это число не превысило задан¬ ное N* (блок 16), дается команда на переход к следующей реализа¬ ции (блок 17). Расчет прохождения нейт¬ ронов сквозь пластинку. Наи¬ большее распространение ме¬ тод Монте-Карло получил в нейтронной физике. Ниже будет рассмотрена упрощенная задача о прохождении нейтронов через пластинку [Л. 43]. На однородную бесконечную пластинку толщиной h падает под углом 90° поток нейтронов с энергией Е0. При прохождении нейтронов через вещество, из которого состоит пла¬ стинка, происходят столкновения с атомами этого вещества. Для про¬ стоты предполагается, что возможны два вида удара: идеально упру¬ гий и неупругий, когда нейтрон поглощается. В первом случае счита¬ ется, что нейтрон рассеивается равновероятно в любом направлении и энергия его сохраняется. Могут представиться три случая, изобра¬ женные на рис. 4-7. Ставится задача определить вероятности этих событий: р+, р°у р~ — прохождения, поглощения и отражения ней¬ трона. В нейтронной физике вводятся характеристики взаимодей¬ ствия нейтронов с веществом, называемые сечениями поглощения 2С и рассеяния Эти величины определяют вероятность поглощения ней- Рис. 4-7. Возможные случаи при прохожде¬ нии нейтронов через пластинку. 1 — прохождение' сквозь пластинку; 2 — погло¬ щение; 3 — отражение. 139
трона и вероятность его рассеяния при столкновении с ато¬ мами вещества. Здесь 2 = 2с 2$ и называется полным сечением. Считается, что длина свободного пробега нейтрона X (расстояние от столкновения до столкновения) является положительной случайной величиной с экспоненциальной плотностью распределения вероят¬ ности Рх М = Математическое ожидание свободного пробега К обратно пропорций- нально полному сечению: лщ]=4. Для получения случайной величины X из случайной величины у, имею¬ щей равномерный закон распределения, необходимо осуществить опе¬ рацию разыгрывания в соответствии с формулой к \p(x)dx = у О или л ^ dx = у. о После взятия интеграла в левой части получим окончательно формулу для разыгрывания в виде — Т- In (1 — Y). (4-80) Так как величина у положительная и равномерно распределенная, то формулу (4-80) можно переписать: Ji=-TlnY> (4-81) имея в виду, что закон распределения величины 1 — у также равномер¬ ный в интервале [0, 1]. Теперь необходимо выяснить, как выбирать направление нейтрона после удара. Оно может быть определено углом ср между осью ОХ и на¬ правлением движения нейтрона. Покажем, что условие равновероят¬ ности любого направления эквивалентно равномерности распределе¬ ния величины р = cos ср в интервале [—1,1]. Переходя к пространственной задаче, условие равновероятности можно сформулировать как требование того, что точка Л на сфере единичного радиуса с центром в точке столкновения нейтрона с ато¬ мом окажется равновероятным образом в любом элементе поверхности сферы dS с вероятностью dSI4я. В данном случае точка А может'рас¬ сматриваться как точка пересечения траектории нейтрона после столк¬ новения. Выбираем сферические координаты (ср, ф) с полярной осью ОХ, причем О^ф^я, 0 ^ ф ^ 2л. Очевидно, что dS = sin ф^ф^ф. Используя это соотношение и условие независимости координат <р й ф, 140
напишем для плотности распределения точки А на сфере с координа¬ тами ср и ф выражение: Р (ф. Ч>) = Рч> (ф) РФ (Ф) ==-^Г'- Интегрируя это выражение по ф от 0 до 2л и учитывая, что 2л I Рф(Ф)^Ф= 1, О / ч sin ф рф (ф)=— получаем: откуда Ръ (Ф) = 2 J_ 2я т. е. величина ф имеет равномерный закон распределения в интервале [О, 2л], и для разыгрывания Ф следует использовать формулу ф = 2лу\ Соответствующая формула разыгрывания для величины ф получа¬ ется из соотношения ф у ^ sinxdx = y. Следовательно, [х = cos ф = 1 — 2у. (4-82) Из (4-82) следует, что при изменении у в интервале [0, 1] р изменяется в интервале [—1, 1] или |л = 2у—L (4-83) Формула (4-83) получается из (4-82) заменой у на 1 — у, а обе эти вели¬ чины имеют одинаковое распределение. Таким образом, для разыгры¬ вания угла ф следует использовать формулу (4-83), примененную для разыгрывания cos ф. Перейдем к построению схемы моделирования (рис. 4-8). Обозначим абсциссы двух последовательных столкновений нейтрона с атомами Xf{ и хь+и номер траек¬ тории /(/=1, ..., АО, номер столкновения к. Разыграем длину свободного пробега после k-то столкновения (блок 4) по формуле = — (1/Е) In? и вычислим абсциссу следующего столкновения (блок 3): == */г + где (ял = cos ф/г — направление движения нейтрона после к-то столкновения. Далее проверим условие прохождения нейтрона сквозь пластинку (блок 6) *a+i > h. При удовлетворении этого условия (выход «1») расчет траектории заканчивается и добавляется единица к счетчику прошедших частиц (блок 7). Если это условие не выполняется (выход «О»), то следует проверить к + 1 столкновений на отражение 141
блок 8). Для этого выбираем очередное значение у и ния (блок 10) Не v< д-. проверяем условие поглоцщ- При выполнении этого условия расчет траектории за¬ канчивается и добавляется единица к счетчику погло¬ щенных частиц (блок 11). В противном случае электрон испытал рассеяние в точке *6+1» и разыгрывается новое направление скорости движе¬ ния нейтрона (блок 12) по формуле Рб+i = — 1. По существу для расчета k-ro шага требуются три зна¬ чения у. Начальные значе¬ ния для всех траекторий можно выбрать следующие: *о = 0, Ц0=1« В результате /V-кратного рас¬ чета траекторий определяют¬ ся числа нейтронов, прошед¬ ших сквозь пластинку №} отразившихся от нее N~ и поглощенных веществом пла¬ стинки №. Соответственно вероятности определяются по формулам: + N+ D ^ • р N » п П° г=& • н N ’ № Р ~~ N ' Рис. 4-8. Схема моделирова¬ ния на ЦВМ процесса про¬ хождения частиц через пла¬ стинку.
ЧАСТЬ ВТОРАЯ ТЕОРИЯ ИНФОРМАЦИИ И КОДИРОВАНИЯ Понятие информации — одно из основных категорий кибернетики, так как при автоматизации любых процессов управления на первый план выдвигаются процессы преобразования информации. Поэтому кибернетику часто называют наукой о преобразовании информации с целью управления. Как уже отмечалось, понятия информации, удовлетворяющего кибернетику, пока не существует. То понятие информации, которое обычно используется, заимствовано из теории связи. Основная его особенность состоит в абстрагировании от смыслового содержания информации, использовании ее количественной меры по Шеннону. Однако для разрешения большинства задач кибернетики необходимо оперировать именно количественными характеристиками смыслового или семантического содержания информации. Следует заметить, что в ряде случаев классическое понятие количе¬ ства информации бывает полезно при изучении процессов управления. Именно отвлечение от смыслового содержания информации позволяет получать обобщенные характеристики по загрузке каналов связи, памяти ЦВМ, каналов преобразования информации в ЦВМ и АСУ и т. д. Поэтому в этой части будут в основном рассмотрены две концеп¬ ции информации: одна, характерная для теории связи и основанная на вероятностном подходе к процессам преобразования информации, и вторая, сформировавшаяся при машинных способах обработки ин¬ формации, в которой используется понятие тезауруса информации. Глава пятая СИГНАЛ Теория информации имеет дело с определенной моделью системы связи. На рис. 5-1 представлена типичная структурная схема передачи сообщений, используемая в теории связи. Объясняя ее, попутно введем необходимые для теории связи понятия. 143
Система связи начинается с источника информации, создающего сообщение или их последовательность для передачи по линии связи. Сообщениями могут быть: человеческая речь [в этом случае радиосо¬ общение или телефонное представляет собой некоторую функцию вре¬ мени / (/)]; последовательность букв и цифр (телеграф); некоторая функ¬ ция двух координат и времени / (х, у, t) (черно-белое телевидение), которая представляет интенсивность света в точке с координатами х, у передаваемого изображения и т. д. Сообщения передаются на передатчик, который перерабатывает их в сигналы в соответствии с данным каналом связи. В простейшем слу¬ чае (телефон) акустические волны человеческого голоса преобразуются в электрический ток. При радиоприеме эти низкочастотные сигналы наполняются радиочастотой, усиливаются по мощности и пр., а при радиорелейной передаче человеческого голоса необходима специаль¬ ная система импульсного кодирования. В общем случае передающее Рис. 5-1. Общая структурная схема системы связи. устройство имеет преобразователь (микрофон), кодирующее устрой¬ ство, модулятор, передатчик, выходные устройства передатчика (ан¬ тенну). Из передатчика сигналы поступают в канал передачи или среду, в качестве которой могут выступать пара проводов (телефонная .связь), коаксиальный кабель (телевизионная передача), полоса радиочастот (радиоприем), луч света видимого или инфракрасного диапазона или лазер. В канале связи (среде), как правило, на сигнал действуют помехи, которые искажают его, поэтому прием—восстановление информации осуществляется в условиях шумов (помех). Шумы при радиоприеме — это искровые разряды в атмосфере, промышленные помехи, искрение контактов в транспортных средствах и др. Работе радиолокационных систем мешают помехи, специально создаваемые противником. В приемнике сообщение восстанавливается, здесь обычно выполня¬ ются операции, обратные тем, которые имеют место в передатчике: усиление сигнала, демодуляция, декодирование. С выхода приемника расшифрованное сообщение поступает адресату. Рассмотренную модель системы связи можно принять как некото¬ рую кибернетическую модель наравне с моделями массового обслужи¬ вания, автоматического регулирования и прочими для решения задач 144
оптимального управления. Ее можно применять, например, к решению задачи разведки и контрразведки, где помехами будут ложные агенты, ложная информация,% фиктивные документы и операции. Анализ общей структурной схемы связи показывает, что классиче¬ ская теория информации в основном состоит из двух частей: теории преобразования сообщений и сигналов, основную долю в которой со¬ ставляют вопросы кодирования и декодирования, и собственно теории передачи сообщений и сигналов без шумов и с шумами в канале связи. Носителем сообщения или информации является сигнал. Следует различать физические (реальные) сигналы и их математические модели. Разновидностей реальных сигналов много, однако большинство из них описывается сравнительно небольшим количеством математических моделей. Очевидно, что при таком описании допускается какая-то погрешность, которая в одних случаях (моделях) существенно, а в дру¬ гих несущественно искажает природу реального сигнала. Сложность сведения реального сигнала к его математической модели состоит в том, что для этого нет достаточно общих правил. Кроме того, в зави¬ симости от задачи при формализации уровень детализации может изме¬ няться. 5-1. ПРИМЕРЫ СИГНАЛОВ. МОДЕЛИ СИГНАЛА Рассмотрим импульсный сигнал, отраженный от цели в импульсной радиолокации [Л. 46]. Радиолокатор периодически, с периодом Г, по¬ сылает импульсы определенной формы в сторону цели, которые, отра¬ зившись, возвращаются на вход приемника (рис. 5-2, а). Задержка этих импульсов относительно излученных пропорциональна даль¬ ности до цели D. Построение математической модели реального физи¬ ческого сигнала заключается в замене его амплитудно-модулированным сигналом (рис. 5-2, б), состоящим из последовательности 6-импульсов, 145
Рис. 5-3. Дискретный по времени сиг¬ нал при цифровой системе передачи данных. а — исходный непрерывный сигнал; б — соответствующий дискретный сигнал; в — последовательность кодированных им¬ пульсов. амплитуда которых равна дискрет¬ ным значениям дальности до цели или времени задержки отраженных импульсов относительно излучен¬ ных. Математические модели в зависи¬ мости от природы сигналов делятся на детерминированные и случай¬ ные. Чаще всего в теории информа¬ ции, как и в кибернетике, исполь¬ зуются случайные модели сигналов, которые могут быть стационарными и нестационарными, марковскими и немарковскими, непрерывными и дискретными. Дискретные сигналы различаются по времени и амплиту¬ де и в соответствии с этим их назы¬ вают квантованными по времени или амплитуде. При квантовании по времени берутся значения непрерывного сигнала в дискретные мо¬ менты времени. Интервал квантования по времени равен периоду излу¬ чения импульсов пере¬ датчиком. В общем слу¬ чае интервалы между мо¬ ментами времени. могут не быть равными [Л. 47, 48]. В качестве примера сигнала, квантованного по амплитуде и времени, рассмотрим сигнал, за¬ кодированный двоичным кодом, который часто применяется для пере¬ дачи сообщения на рас¬ стояние (рис. 5-3) при цифровой системе переда¬ чи данных. На рис. 5-3, а представлен непрерыв¬ ный сигнал, на рис. 5-3, б — тот же сигнал, но квантованный по вре- Рис. 5-4. Процесс квантова¬ ния непрерывного сигнала по времени и амплитуде. а — исходный непрерывный сиг¬ нал; б — квантование по амп¬ литуде; в — квантование по амп¬ литуде и времени. 146
мени, на рис. 5-3, в каждое из этих дискретных значений сигнала представлено в виде последовательности импульсов, закодированных двоичным кодом. Каждая кодовая комбинация отделяется от другой маркерным импульсом. Естественно, что с помощью конечного числа двоичных разрядов (в данном случае их три) нельзя пред¬ ставить точно дискретное зна¬ чение. Прежде чем сигнал (рис. 5-4, а) закодировать дво¬ ичным кодом, его необходимо проквантовать с уровнем кван¬ тования, определяемым вели¬ чиной младшего двоичного разряда. На рис. 5-4, б пред¬ ставлен сигнал, дискретный по амплитуде. Если его про¬ пустить через ключ, который замыкается с периодом Г, то получится сигнал, квантован¬ ный по амплитуде и времени (рис. 5-4, в). Для получения из непрерывного сигнала x(t) сигнала *х (/), квантованного по амплитуде, необходимо пропустить его че¬ рез нелинейный элемент, характеристика которого представлена на рис. 5-5. Условное изображение элемента квантования ЭК показано нй рис. 5-6, а, квантователя по виде ключа — на При пропускании X* ц- | ч- 1 ' %- Г ■ ! | 1.1 \ Х 1 ъЧсм 1 1 a+i 2а+1 -2*2 *2 |—1 -ч- 1 -ц- Рис. 5-5. Характеристика квантователя. , X(t) эк x(t) времени в рис. 5-6, б. <*) X(t) -Я (t) 5) x(t) ^ x*(t) ЭК x(t) эк *x(t) г) Рис. 5-6. Квантование сигнала по ампли¬ туде и времени. а — по амплитуде; б — по времени; в — по времени и амплитуде; а — по амплитуде и времени. Рис. 5-7. Непрерывный (а) и дис¬ кретный (б) по времени сигналы. непрерывного сигнала х (/) (рис. 5-7, а) через такой элемент на вы¬ ходе получается дискретный (квантованный по времени) сигнал х* (/), представленный на рис. 5-7, б. Если непрерывный сигнал x(t) пропу¬ стить через последовательно соединенные ключ и элемент квантова- 147
ния по уровню (рис. 5-6, в), то на выходе получим сигнал *х* (/), квантованный по времени и амплитуде, причем очевидно, что ключ и элемент квантования можно поменять местами (рис. 5-6, г). 5-2. ЧАСТОТНЫЕ СВОЙСТВА СИГНАЛА (ТЕОРЕМА КОТЕЛЬНИКОВА) Следует заметить, что с точки зрения кибернетики при получении информации человек с помощью приборов может воспринимать только квантованный по времени и амплитуде сигнал. Но ни человек, ни приборы не могут отличить сигнал квантованный от непрерыв¬ ного. Дело в том, что как у человека, так и у приборов есть порог чувствительности А, из-за которого невозможно отличить два значения сигнала, если они отличаются друг от друга меньше, чем на этот по¬ рог [Л. 49]. Тем самым вводится квантование по амплитуде с уровнем q = 2А. Ниже будет доказана теорема Котельникова о том, что непре¬ рывный сигнал, спектр частот которого ограничен частотой /с, можно заменить квантованным по времени сигналом с интервалом кванто¬ вания При этом не произойдет никакой потери информации. Частотные свойства сигнала, квантованного по времени. Задачу поставим следующим образом. По заданному преобразованию Лапла¬ са—Фурье для непрерывного сигнала X (со) найдем это преобразование для соответствующего дискретного сигнала X* (со) (см. рис. 5-7). Не¬ много нарушая строгость, обозначим преобразование Лапласа—Фурье от функции x(t) через X (со) и X (s). Аналитически дискретную функ¬ цию, представленную на рис. 5-7, б, можно записать в виде Ниже для функции X* (со) будет дан вывод применительно к преобра¬ зованию Лапласа—Фурье, поэтому в формуле (5-1) суммирование про¬ водится от 0 до +оо, т. е. считается, что функция равна нулю для отри¬ цательных значений времени. Однако полученные ниже формулы оста¬ ются в силе для произвольных функций времени, в чем можно убедиться с помощью других методов [Л. 46]. Если ввести в рассмотрение функ¬ цию оо ** (0= 2 x(t)8(t-nT), (5-1) где $ <P&)S(/i — т)Л1 = ф(т). —ОО ОО 6т(0 = Еб«-пТ), (5*2) о 148
т0 отношение (5-1) перепишется как х* (t) = х (t) 8Т (t). Чтобы определить преобразование Лапласа — Фурье для функции х* (t) в соответствии с этим соотношением, необходимо применить фор¬ мулу свертки в области комп¬ лексного переменного L {хг (0 *2 (/)} = с Н- /оо = ^ XiWX2(s-X)dl, с— /оо (5-3) где *i(s) = ОО = L{Xl(t)}=\ xx{t) e~st dt-, О X2.(s) = оо = L {x2 (0}. = 5 x2 (0 e~st di> о Рис. 5-8. Пояснение к выводу выражения для преобразования Лапласа дискретного по а с определяет положение пря- вРемени сигнала. мой интегрирования, которая должна лежать правее полюсов функций Хг и Х2 (рис. 5-8). Взяв от обеих частей соотношения (5-2) преобразование Лапласа — Фурье и используя формулу для бесконечной геометрической прогрес¬ сии, получим: мыог 1 -sr* Полагая \—е~ *2(0 = МО; *i (0=* (0> с помощью формулы (5-3) имеем: С+/0О **<*)=2 )г~'± j п= 0 с — /оо T)dk. Интеграл в правой части будем брать с помощью вычетов. Для этого интегрирование произведем по замкнутому контуру, состоящему из прямой s = с и полуокружности большого радиуса, расположенной справа от этой прямой. Положим, что при больших значениях модуля | s | функция F (s) стремится к нулю; для этого достаточно, чтобы сте¬ пень числителя была меньше степени знаменателя. Значение интеграла будет равно сумме вычетов в полюсах подынтегрального выражения, расположенных внутри замкнутого контура интегрирования. Так как полюсы функции F (к) расположены левее прямой к = с, то учитывать 149
следует только полюсы выражения 1/(1—g-ns-я)). Они располо¬ жены на примой, параллельной оси ординат и находящейся на рассто- о) x(t) X d=i Т 2Т ЗТ 4Т > 8) VS 2Л\ ф-у) Рис. 5-9. Спектры непрерывного (а и б) и дискретного (в и г) по времени сигналов. янии от прямой к = с, определяемом действительной частью величины s (рис. 5-8). В результате можем написать: С+/СО X5 <S) = £, J 2 , Ш1. [l-C-V<—»]• (5'4) с — /оо п = —оо — S “Ь т in В соответствии с правилами теории вычетов Ф (s)l выч s = s„ )1 = Г ф (д) 1 1.Ф (sjj L^' (s)Js = s^ » где s„ — нуль функции ф (s), поэтому - выч Г *(*■) 1 = f ( 2„. {dri_e-(S- M Tlr 2я ; JjX=s -f- -yr in = 'x(s + ^jn Подставив это выражение в формулу (5-4), запишем: оо 1 Y1 / . 2я х*(*)=4 2 x{s+Tn])> п = — оо и, перейдя к соответствующим преобразованиям Фурье, получим: оо Х*(ю)= 2 х(пТ)е-п^т, П= О ОО Л*(ю)=4 2 xU+Щп), п = — СО 150
где Х(ю) = $ x(()e~iafdt — преобразование Фурье для функции x(t). Таким образом, спектр (преобразование Фурье) для дискретного сигнала получается из спектра непрерывного сигнала суммированием его смещенных спектров X [со + т + (2я/Г) п] (рис; 5-9). В зависимости от интервала дискретности Т для ограничен¬ ного по частоте спектра непре¬ рывного сигнала (рис. 5-10, а) смещенные спектры могут не перекрываться (рис. 5-10,6), при¬ мыкать вплотную друг к дру¬ гу (рис. 5-10,в), перекрываться (рис. 5-10,г). Напомним, что речь идет о замене непрерывного сигнала дискретным (о передаче непре¬ рывного сообщения его дискрет¬ ными значениями). Очевидно, что восстановить спектр непре¬ рывного сигнала из спектра со¬ ответствующего дискретного сиг- ~CJ Т с Т~ с Рис. 5-10. К доказательству теоремы Ко¬ тельникова. Х(и) 1 CJ -ис сос Рис. 5-11. Частотная характеристика идеального фильтра. нала можно только в случаях, показанных на рис. 5-10, б, в. Сделать это в принципе можно с помощью идеального фильтра с прямо¬ угольной частотной характеристикой (рис. 5-11), которую реально получить невозможно. В случае, показанном на рис. 5-10, г, в ре¬ зультате перекрытия спектров информация о непрерывном сигнале безвозмездно потеряна и ее невозможно восстановить даже с помощью идеального фильтра с частотной характеристикой. Поэтому Макси¬ мально допустимое значение интервала дискретности определяется случаем, показанным на рис. 5-10, в, и равно; т=ё.-к-' <5-5> 151
Следовательно, допустимые интервалы дискретности определяются соотношением <и> В этом и состоит теорема Котельникова. Часто в теории связи ее фор¬ мулируют для случая сообщения, передаваемого в течение конечного интервала времени t0. Тогда в соответствии с формулами (5-5) и (5-6) непрерывное сообщение со спектром, ограниченным частотой., можно X((J) Рис. 5-12. Пояснение к теореме Котельникова для дискретного по частоте сигнала. передать конечным числом дискретных значений, которое определя¬ ется по формуле N = ^ = 2fct0. (5-7) Очевидно, что передавать непрерывное сообщение большим числом дискретных значений (т. е.- с меньшим интервалом дискретности) не имеет смысла, так как при этом перегружается канал связи, а вы¬ игрыша в точности не получается. Следует заметить, что приведенная выше формулировка теоремы Котельникова [формула (5-7)] не является строгой, так как не суще¬ ствует сигналов, ограниченных по времени и частоте: если сигнал обла¬ дает ограниченным спектром, то он простирается до бесконечности во времени, и, наоборот, если сигнал ограничен во времени, то он обла¬ дает бесконечным спектром. В инженерных руководствах часто приводится частотный аналог теоремы Котельникова, который был известен значительно раньше работ Котельникова и заключается в следующем. Допустим, что име¬ ется сигнал х (0, ограниченный во времени (рис. 5-12, а), т. е. вне ин¬ тервала времени (0, ^0) сигнал равен нулю. Из теории преобразования 152
Фурье известно, что такую функцию можно разложить в ряд Фурье оо .2л , *(0= 2 С*'*", к = —оо где коэффициенты ряда tо . 2л ,, 1 С —1-j-kt Ck = y\x(t)e ° dt. 0 о Эти коэффициенты представляют значения спектра функции (с точ¬ ностью до постоянного коэффициента) X (со) = I х (/) е~ш dt. —ОО Отсюда с»=<д(2!*). Поэтому временной сигнал, ограниченный по длительности величиной /0, можно передавать не непрерывным спектром по частоте (рис. 5-12, б), а совокупностью дискретных значений, отстоящих на величину 2n/t0 (и меньше этого значения) (рис. 5-12, г). Такому дискретному спектру будет соответствовать периодическая во времени функция с периодом /0 (рис. 5-12, в). Если сигнал можно ограничить по частоте величиной сос = 2nfc, то для передачи без искажений такого сообщения необхо¬ димо передать конечное число дискретных значений спектра (ампли¬ туд гармоник), равное (5-8) Полное совпадение с формулой (5-7) получится, если сигнал будет рас¬ сматриваться на временном интервале (—/0, t0)> а не (0, t0). В этом слу¬ чае формула (5-8) перепишется в виде (5-9> Таким образом, непрерывный сигнал, ограниченный интервалами по времени (—/0, t0) и по частоте (—сос, сос), можно передавать конечным числом дискретных значений функции времени или спектра, которые от¬ стоят друг от друга на величины Т = 2я/сос = 1 If с или Асо = 2nl2t0 = n/t0 соответственно. Общее число дискретных значений определяется фор¬ мулой (5-9). 5-3. ЭЛЕМЕНТЫ КВАНТОВОЙ ТЕОРИИ ИНФОРМАЦИИ В теории информации известен принцип неопределенности, анало¬ гичный тому, который имеется в квантовой механике. Известно, что для передачи импульса (сигнала) шириной At тре¬ буется полоса пропускания по частоте Af ^'l/At. 153
Пример 5-1. При полосе А/ « 6 для передачи телевизионных сигналов при 525 строках, 30 кадрах в секунду и 360 импульсах на строку при условии неиска- • женной передачи допускается примерно следующий минимальный период повторения (или ширина) импульсов Д^ = 525 • 30 • 360 = ~5J 10 * СвК) при этом Д/ = 6 • 10“® -Л-10-«= 1,05, 5,7 т. е. Д/А/ ^ 1. Таким образом, произведение А/А/ имеет нижний предел для передачи сооб¬ щений без искажения. Покажем это еще несколько другим способом [Л. 50]. Введем неко¬ торые эффективные значения длительности и полосы сигнала x(t): со д^1 = 7(0) $ x(t)dt\ —оо оо $ x®df' где X(f)= $ x(t)e~,M,ldt (5-10) —ОО есть преобразование Фурье для сигнала; оо X(t)= ^ X (f) df. (5-11) —ОО Но в соответствии с формулами (5-10) и (5-11) оо X (0)= 5 x(t)dt\ —ОО *(0)= f X(f)df, поэтому Отсюда л* _*(°). Af _ *(0) х (0) * '1 X (0)' Д/хД/х = 1. Физический смысл введения эффективных полос и времени сигнала заключается в замене реального сигнала эквивалентным, имеющим прямоугольную форму кривой, зависящую от времени и частоты (рис. 5-13). Ординаты этих прямоугольных кривых соответственно равны х(0) и X (0), а максимальные значения абсцисс Д/х и А/х. Пло¬ щади, ограниченные кривыми реальных сигналов и их эквивалентов, равны, причем площадь берется со своим знаком: если кривая располо¬ жена над осью абсцисс, площадь положительная, если под осью абс¬ цисс, площадь отрицательная. Очевидно, что отрицательные значения 154
кривой сигнала, например, в зависимости от времени могут достигать больших значений и оказывать существенное влияние на характер сиг¬ нала, а эффективная длительность сигнала будет тем меньше, чем Рис. 5-13. Пояснение к введению эквивалентных по времени (а) и частоте (б) сигналов (первый вариант). больше эти отрицательные значения и чем больше их длительность. Рассуждения относительно эффективной полосы пропускания по часто¬ те аналогичны. Поэтому более разумно вводить эффективные значения Рис. 5-14. Пояснение к введению эквивалентного по частоте сигнала (второй вариант). длительности и полосы сигнала, используя абсолютные значения сиг¬ нала в зависимости от времени и частоты (рис. 5-14): | х (0) I А/ = J \x(t)\dt& —оо оо | X (0) I А/ = 5 \X(f)\df: $ x(t)dt —оо f X(f)df 155
Согласно этим определениям At^At^ Д/^Д/ь | Д/Д/^Д/iA/^l; (5-12) Д/Д/^1. ) В этих соотношениях и состоит принцип неопределенности теории ин¬ формации. В квантовой механике принцип неопределенности Гейзен¬ берга заключается в том, что переменная (координата) q и ее сопряжен¬ ный импульс Р не могут быть измерены одновременное любой заранее заданной высокой точностью. Если обозначить ошибки измерения этих величин соответственно через Дq и ДР, то AqAP^a. (5-13) В физике а равна постоянной Планка h = 6,6252 «10 дж *сек или U = h/2n (в зависимости от размерности q и Р). В теоретической и квантовой механике энергия Е является сопря¬ женным импульсом переменной времени t и АЕ At (5-14) Далее, энергия колебания частоты / равна Е = hf. Отсюда Д Е= АД/. С помощью этого соотношения и учитывая (5-14), получаем: ДЕ At = h Af At ^ h. Отсюда снова получаем соотношение (5-12), определяющее принцип неопределенности в теории* информации. В связи с изложенным встает вопрос об оптимальном сигнале. Ка¬ кая форма зависимости сигнала от времени и частоты является наи¬ лучшей? Из свойства преобразования Фурье следует, что чем короче сигнал во времени, тем более широкой полосой частот он обладает. И наоборот, чем уже полоса частот сигнала, тем большую протяжен¬ ность он имеет во времени. Аналитически эти свойства могут быть запи¬ саны в виде Хв(а)=$*Ие-/м' dt=4*(?)> откуда следует, что с увеличением масштаба времени в а раз масштаб, по частоте уменьшается в а раз. Множитель На в правой части формулы принципиальной роли не играет и связан с уменьшением энергии сиг¬ нала. Это свойство сигналов отражает принцип неопределенности. Если пытаются сэкономить на времени передачи сигнала, то проигрывают в полосе частот, и наоборот. Известно, что при радиоприеме на корот¬ ких волнах для лучшей избирательности делают очень узкие резонанс¬ ные контуры. Однако при этом приходится очень долго ждать, пока сигнал нарастет до нужной амплитуды (медленно вращать ручку настройки). 156
Аналогичные ситуации часто возникают в радиолокации. В настоя¬ щее время радиолокационные станции не строятся без систем защиты 0т помех. Для определения дальности до цели измеряют задержку отра¬ женного импульса относительно излученного. В целях помехозащиты требуется еще замерять скорость движения цели на радиолокационную станцию, которая измеряется по изменению частоты принятого сигнала относительно излученного, т. е. по частоте Допплера. Для определе¬ ния дальности до цели, по существу, требуется измерять фазу (за¬ держку), а при помехозащите — скорость изменения фазы, т. е. ча¬ стоту. В силу принципа неопределенности нельзя одновременно точно измерить время задержки (дальность до цели) и изменение частоты (ско¬ рость движения цели), так как увеличение точности измерения одной величины ухудшает точность измерения другой [Л. 47]. Из рассмотренного следует, что критерием оптимальности формы сигнала может служить минимум площади, занимаемой этим сигналом на плоскости время — частота (t, f) (рис. 5-15). Показано [Л. 47], что наилучшей формой сигнала в этом смысле являются синусоидальные колебания, промодулированные по амплитуде гауссовой или колоколо¬ образной кривой (рис. 5-16). Такой сигнал может быть аналитически записан в виде хц)=е-а2(*-п> е2^. (5-15) Оказывается, что эта форма записи инвариантна по отношению к пре¬ образованию Фурье, т. е. преобразование Фурье для сигнала (5-15) имеет тот же вид: х (ш) =<?-(“) e-wu. (5-16) Реальный сигнал может иметь синусоидальное или косинусоидальное заполнение колоколообразного импульса (рис. 5-16). 157
Как уже отмечалось, практически ограничение сигнала по длитель¬ ности /0 и полосе частот fc носит условный характер. Малыми значениями сигнала часто можно пренебречь, так как составляющие, например, на больших частотах не представляют интереса (не будут пропущены фильтром). Практически сигнал можно наблюдать только в течение f конечного интервала времени. Поэтому сигнал при значе¬ ниях времени, больших некот торого tQy можно считать рав¬ ным нулю. fa 1 I г I I —I T- I I —4— I I --i—e I I I Y// , f— I I —I I I НП I _T- I I __L_ I I "T" I t Рис. 5-17. Пояснение квантами информации. 158 к передаче сигнала 5-4. ПЕРЕДАЧА СООБЩЕНИЯ КВАНТАМИ ИНФОРМАЦИИ Допустим, задано какое-то сообщение или сигнал, огра¬ ниченный полосой fc и дли¬ тельностью (0 (рис. 5-17). Тре¬ буется передать его тем или иным способом. Ниже будет изложен метод Габора, кото¬ рый иногда называется мето¬ дом информационных ячеек или фильтром Габора. Разделим прямоугольник (/с, t0) на (/, t)-плоскости эле¬ ментарными ячейками единич¬ ной площади А/А/ (рис. 5-17,а). Значения А/ и А/ можно вы¬ бирать различными, лишь бы их произведение равнялось
единице. В частности, можно выбрать Д/ = t0y тогда Д/ = l/tQ и сиг¬ нал будет передаваться дискретными отсчетами по частоте с амплиту¬ дами гармоник сигнала, кратными Д/ = l/t0 (рис. 5-17, б). В другом крайнем случае можно принять Д/ = /с, тогда Дt = 1 lfc. Двойка в знаменателе этой формулы отсутствует по сравнению с формулой Щеннона — Котельникова, так как в данном случае ширина спектра равна fC) а в формуле Шеннона — Котельникова 2/с. В этом случае сигнал будет передаваться дискретными значениями во времени, от¬ стоящими друг от друга на интервал Ы = 1 lfc (рис. 5-17, в). В обоих случаях непрерывное сообщение передается квантами: в первом слу¬ чае передаются дискретные значения временной функции, во втором — дискретные значения по частоте. Возможен третий промежуточный случай, когда Д^ Ф t0 и Д/ Ф\СУ но Д/Д/ = 1 (рис. 5-17, а), и сообще¬ ние передается своими значениями, дискретными, как по частоте, так и по времени. Сообщение передается квантами, каждому кванту соответствует квадрат на (/, /)-плоскости единичной площади. Естественно (как пред¬ лагает Габор), каждый квант следует передавать с помощью самого эко¬ номичного сигнала: гармонической составляющей (синусоидальной или косинусоидальной), промодулированной колоколообразным им¬ пульсом [формулы (5-15) и (5-16)]. Значения t° и /0 в этих формулах определяются положением соответствующего квадрата на (/, ^-пло¬ скости. Амплитуда импульса определяется значениями временной и частотной зависимостей сигнала, соответствующих данному квадрату- кванту сообщения. Глава шестая КОЛИЧЕСТВО ИНФОРМАЦИИ И ЭНТРОПИЯ СООБЩЕНИЙ В классической теории информации известно по крайней мере два определения количества информации. Оба определения очень близки между собой, принципиальное различие между ними появляется лишь при попытке ввести смысловое содержание информации. Первое опре¬ деление (по Хартли) использует комбинаторный подход, второе (по Шеннону) распространяет на передачу и переработку информации вероятностную точку зрения. Чем больше неопределенности в приня¬ том сообщении, тем больше информации в нем содержится. Поэтому количество информации определяют следующим образом: Вероятность данного события после поступления сообщения на Количество = j вход приемника информации Вероятность данного события до поступления сообщения на вход приемника 159
Если шумы отсутствуют, то можно считать, что вероятность данного события после поступления на вход приемника сообщения о нем равна единице, т. е. Количество информации (в отсутствие шумов) За основание логарифма принимают чаще всего цифру 2, но иногда используются также десятичный и натуральный логарифмы [Л. 47, 48, 50—54]. Для измерения количества информации введена специальная еди¬ ница измерения, которая называется бит (bit) информации. Коли¬ чество информации <& в битах равно правой части приведенных выше равенств. Так, при наличии двух равновероятных событий в отсутст¬ вие шумов Сообщение, как правило, набирается или составляется из символов или элементов: буквенного алфавита, цифр, слов или фраз, названий цвета, предметов и т. д. Обозначим общее число символов в алфавите через т. Если сообщение формируется из двух независимо и равно¬ вероятно появляющихся символов, то нетрудно видеть, что число воз¬ можных комбинаций равно т2. Действительно, зафиксировав один из двух символов сообщения (п = 2) и комбинируя его со всеми воз¬ можными т символами алфавита, получим т различных сообщений. После этого фиксируем следующий символ алфавита и снова его ком¬ бинируем со всеми символами алфавита, получим еще т сообщений. С учетом предыдущего имеем 2т сообщений. Продолжив этот процесс до тех пор пока будет зафиксирован последний из т символов алфа¬ вита, получим всего тт = т2 сообщений. В общем случае, если сооб¬ щение содержит п элементов (п — длина сообщения), число возможных сообщений Пример 6-1. Предположим, имеется набор из трех букв А, В, С, а сообщение формируется из двух. Согласно формуле (6-1) число возможных сообщений будет АА, BA, СА, АВ, ВВ, СВ, АС, ВС, СС, т. е. N = З2 = 9. Однако нетрудно видеть, что выражение (6-1) неудобно брать в ка¬ честве меры количества информации, так как, во-первых, если все множество или ансамбль возможных сообщений состоит из одного сообщения (N — 1), то информация в нем должна отсутствовать, во-вторых, если есть два независимых источника сообщений, каждый из которых имеет в своем ансамбле NL и N2 сообщений, = — log2 ~2 = Г бит. 6-1. КОМБИНАТОРНОЕ ОПРЕДЕЛЕНИЕ КОЛИЧЕСТВА ИНФОРМАЦИИ ПО ХАРТЛИ (6-1) 160
то общее число возможных сообщений от этих двух источников N = N±N2f т> е. является произведением, тогда как количества информации должны складываться, и общее количество должно быть прямо про¬ порционально числу символов в сообщении. Поэтому за количество информации берут логарифм числа возможных сообщений Q? — log N = п log 171. (6-2) По существу при выводе этого соотношения считалось, что появ¬ ление символов в сообщении равновероятно и они статистически неза¬ висимы. Чаще бывает наоборот. Так, в русском языке одни буквы встречаются чаще, другие — реже, после согласных, как правило, следуют гласные. Очевидно, в этом случае информации будет меньше. 6-2. ВЕРОЯТНОСТНОЕ ОПРЕДЕЛЕНИЕ КОЛИЧЕСТВА ИНФОРМАЦИИ ПО ШЕННОНУ Как правило, при приеме по телеграфу после первых слов можно с достаточной точностью предсказать следующие слова. Поэтому го¬ ворят о взаимосвязи элементов в сообщении. Связь понимается в ве¬ роятностном смысле, т. е. существует условная вероятность появления (при данном алфавите) символа А вслед символу В: Р{А\В\. Так, в русском тексте после гласной не может следовать мягкий знак или подряд четыре гласные буквы, т. е. условная вероятность равна нулю. Если понятно, какие символы последуют дальше, сообщение представляет мало интереса и содержит меньше информации, чем оно содержало бы, если бы взаимная связь его элементов не была оче¬ видна. В качестве примера взаимных связей можно привести прямой порядок слов в предложении, согласно которому после подлежащего должно следовать сказуемое: если принимается сообщение «Весна пришла», то достаточно принять «Весна при...» и прием следующих символов уже не добавит информации. Это свойство сообщений харак¬ теризуется величиной, называемой избыточностью. Количество информации может уменьшаться также из-за того, что в силу особенностей языка различные символы с разной вероятностью появляются в тексте сообщения. Так, на 1000 букв приходится сле¬ дующее количество повторений: Английский язык Русский язык Буква Частота Буква Частота повторения повторения Е 131 О 110 Т 105 Е 87 А 86 А 75 О 80 И 75 N 71 Т 65 R 68 Н 65 I 63 С 55 б Основы кибернетики 161
Так, свойство буквы Е в английском языке встречаться чаще буквы / позволяет предсказывать, предопределять сообщение, т. е. неравно¬ вероятное, неравномерное появление символов в сообщении (если, конечно, оно заранее известно) уменьшает количество сведений, ко¬ личество информации в принимаемом сообщении. Современный развитый язык насчитывает в своем составе до 100 тыс. слов. Однако не все они одинаково часто употребляются. В среднем достаточно знать несколько тысяч слов, чтобы изъясняться. Слова в языке также обладают разной вероятностью появления. Очевидно, что неравномерное распределение вероятностей появления отдельных слов в языке (максимум одних и минимум других) также уменьшает количество информации, так как можно предсказать появление тех или иных слов в сообщении. Так же как в теории вероятностей, в теории информации к вероят¬ ности возможны два подхода. В первом случае, который эквивалентен усреднению по времени, рассматриваются бесконечно длинные (а прак¬ тически просто длинные) сообщения. В процессе наблюдения во времени за длинным сообщением исследуется статистика появления отдельных символов или их комбинаций. Во втором случае рассматривается мно¬ жество (теоретически бесконечно большое) конечных сообщений и стати¬ стические характеристики определяются путем усреднения по ансамблю сообщений. При этом всегда предполагается, что число сообщений (или символов) такое большое, что применим закон больших чисел. Приведем простейший вывод выражения для количества информации, предполагая отсутствие связей элементов. Пусть имеем алфавит, сос¬ тоящий из ш элементов (символов) hlf Л2, ..., hit ..., hm. Вероятности появления этих элементов в сообщении соответственно равны р1у р2,... ..., ph ..., рт. Составим из этих элементов сообщение, содержащее п элементов. Среди них будет ^ элементов hu я2 элементов ft2, •••> пт элементов hm. Вероятность появления каждой комбинации из п эле¬ ментов выразится произведением вероятностей отдельных элементов, так как предполагается, что появление каждого элемента есть независи¬ мое событие. С учетом повторяющихся элементов вероятность некото¬ рого сообщения т р=р>пг-рУ=Пр"{> 1 = 1 вероятность появления i-ro символа Можно считать, что все N возможных сообщений (все перестановки) равновероятны. Поэтому откуда число возможных сообщений 162
Логарифмируя, получаем количество информации в сообщении длиной п при неравновероятности его элементов: т 3 = log N = — л 2] Pi log Pi. (6-3) 1 = 1 Можно дать другой вывод этой формулы. Число сообщений можно за¬ писать в виде N-. В данном случае предполагается, что число элементов в сообщении я всегда больше числа символов в алфавите m, я > т. Кроме того, счи¬ тается, что в сообщении присутствуют все символы алфавита (хотя бы с малой вероятностью). В этом состоит основная особенность вероят¬ ностного рассмотрения. Поэтому общее число сообщений может быть найдено как число возможных перестановок я элементов я!. Однако из этого, количества следует исключить число перестановок одинаковых между собой символов, которое равно: т иМ! ... nm\ = PJ лг1. 1 = 1 По формуле Стирлинга при я большом log (я!) ti log л — я я log л. Эта формула дает хороший результат при л > 100. С другой стороны, т т log N = log л! — log Л;! = Л log Л — У] Л; log щ — i = 0 i = 0 т т = л log л - У] Pitt log pi - Pitt log л; 1=1 1 = 1 m N = П log Я — Pin log Pill. i = l Учитывая, что получаем: 2 А-я log я = я log я, 3 = log N = — л 2] pi log 1 = 1 Пример 6-2. Имеются символы а, в, с.. В этом случае т= 3, пх = 2, щ = 3, ti3= 1, п = 2 + 3 + 1 = 6. Возможные сообщения будут выглядеть следующим образом: 1 — аааввс; 2 — ваавввс; 3 — вваас; 4 — ввваас; ... Общее число сообще¬ ний N = — • пг1 п2\ п3\ ’ 6! 5-4-3-2 2! 31 II 2 _ Отсюда при длине сообщения п = 6 количество информации будет равно: £7 = log., 60 ^ 6 бит, 6* 163
Из формулы (6-3) нетрудно получить формулу (6-2) для случая рав¬ новероятных событий, надо только положить все pt = 1/т. Если веро¬ ятность какого-нибудь элемента равна единице, а остальных нулю, то количество информации равно нулю, так как очевидно, что никакой информации сообщение не имеет, т. е. в этом случае заранее известно, что придет символ, вероятность которого равна единице. Наоборот, в случае pi = 1/m ситуация наиболее неопределенная и сообщение содержит максимальное количество информации. 6-3. ПОНЯТИЕ ЭНТРОПИИ Количество информации на один символ сообщения носит название энтропии т Н = Т= “2 Pil°SPi- i = \ Энтропия характеризует данный ансамбль сообщений с заданным алфавитом и является мерой неопределенности, которая имеется в ан¬ самбле сообщений. Действительно, длина сообщения п имеет в извест¬ ном смысле второстепенный характер: можно посылать длинные или короткие телеграммы, сочинять длинные или короткие стихотворные произведения, писать маленькие или большие полотна. Главное — оп¬ ределить, узнать статистические свойства данного ансамбля сообщений независимо от длины сообщения. Например, интересно узнать статис¬ тические особенности ансамбля стихотворных произведений Лермон¬ това, музыкальных произведений Бетховена. Одним из таких пара¬ метров, которые характеризуют свойства ансамбля сообщений, и яв¬ ляется энтропия. Можно говорить об энтропии не на отдельный символ, а на п сим¬ волов, где п = const для всех сообщений. В этом случае, очевидно, что понятия энтропии и количества информации совпадают. Чем больше энтропия, тем больше информации несет, в себе сообщение. а) Понятие энтропии при наличии связей между элементами Предположим теперь, что'помимо неравновероятности появления элементов в сообщении имеется вероятностная связь между их появ¬ лениями (например, вероятность появления мягкого знака после глас¬ ной буквы равна нулю). Считаем, как и раньше, что число символов в алфавите т, заданы вероятность pt появления в сообщении i-го сим¬ вола, а также условная вероятность р (/ | i) появления /-го символа после /-го. Допустим, что символ / задан, т. е. известно, что с вероят¬ ностью, равной единице, этот символ присутствует в сообщении. Тогда согласно ранее выведенному выражению энтропия такого ансамбля сообщений т Ht= Е р (/' 10 log р UI 0. / = 1 164
ибо при заданном i-м символе вероятность появления символа / в сооб¬ щении будет р (/ | i). Но на самом деле символ i появляется в сообще¬ нии с вероятностью ph Величину Я; можно рассматривать как слу¬ чайную,•зависящую от номера i. Так как элемент i появляется в сооб¬ щении случайно, то и эта величина тоже будет случайной. Вероят¬ ность появления ее также равна pt. За энтропию сообщения принимают среднее математическое ожидание величины Я*. По определению имеем: т т. Нг = — 2 Pi 2 Р (/ I 0 log р (/ | i) (6-4) i = i /=1 • г JTTT tTl ТП й*=2 2 p(i, i)iogp(/io. i = 0 / = о так как вероятность одновременного появления символов i и / p(i, j)=p(t)p(j\i). Если элементы сообщения равновероятны pt = 1/m, то энтропия таких сообщений H--^2Zpiili)]ogpUli)- (6'5) i /' Нетрудно видеть, что при взаимосвязи символов энтропия меньше, чем без нее. Действительно, положив в предыдущей формуле Pij = ph получим: т Hi = — 2 fttogp*. 1 = 1 Можно распространить формулы (6-4) и (6-5) на случай, когда име¬ ется связь не только между парами символов, а между п символами, где п> 2. Тогда для описания ансамбля сообщений используется ма¬ тематическая модель сложномарковской, а не простейшей марковской поел едовател ьности. С помощью рассмотренной процедуры были подсчитаны энтропии сообщений в русском и английском языках с учетом различной степени статистической связи между буквами. Предлагаем результаты этого расчета: Русский язык Английский язык Я0 = 5 Я0 = 4,72 Я1 = 4,31 Ях = 4,0 Я2 = 3,5 Я2 = 3,3 Я з = 2,98 Я3 = 3,08 Я8 = 1,98 Для русского языка считалось т = 32, е = ё, ь = ъ и один символ за¬ нимался под промежуток (интервал) между'словами. Для английского языка подсчет был такой же, только т = 27, причем считалось, что 165
имеется 26 букв и один промежуток. Основание логарифмов равнялось двум, #0 соответствовало случаю равновероятных и независимых друг от друга символов, Нх — случаю разновероятных независимых сим¬ волов и т. д. Пример 6-3. Пусть имеется всего два элемента а и Ь, так что т — 2. Рассмотрим случай первый, когда элементы зависимы друг от друга и неравно¬ вероятны.. Вероятности их появления найдутся как р (а) = 3/4; р (Ь) = 1/4; р (а \ Ь) = 1; р(а\а) = 2/3; р (Ь | а) = 1/3; р (Ь \ Ь) = 0, используя формулу (6-4), получаем: Я2 = 0,685. Рассмотрим второй случай, когда элементы независимы, но неравновероятны; р (а) = 3/4; р (Ь) = 1/4 ” Нх = 0,815. Наконец, для случая, когда все символы равновероятны и независимы, Н0 = log т = log2 2=1. Ка^ и следовало ожидать, максимальное значение энтропии получается в послед¬ нем случае, минимальное — в первом. б) Термодинамическая и информационная энтропии Термин «энтропия» заимствован из термодинамики и статистической физики. Известно, что движения молекулы в жидкостях и газах подчинены вероятностным законам распределения. Для характеристики состояния системы, состоящей из моле¬ кул, вводят понятие энтропии. Формула для нее имеет тот же вид, только под вели¬ чиной pi понимается вероятность существования в некотором состоянии i-й под¬ системы исходной системы. Так же как и в теории информации, в статистической физике эта величина является мерой необратимости процесса преобразования тепло¬ вой энергии в механическую. Если процесс обратимый, то его энтропия равна нулю. В необратимых процессах величина энтропии определяет энергию, потерянную без¬ возмездно при ее преобразовании. В теории информации имеют место такие же закономерности, что и в термодина¬ мике [Л. 50]. Наибольший интерес с точки зрения теории информации представляет статистическая трактовка второго начала термодинамики, данная Больцманом: во всякой изолированной системе происходят такие изменения, которые приводят систему к ее наиболее вероятному состоянию. Аналогичные закономерности имеют место в кибернетике при исследовании больших систем. Так, работа телефонной сети города может быть исследована как набор систем массового обслуживания, и такая большая система стремится к наи¬ более вероятному состоянию. Необратимые процессы в замкнутых системах при¬ водят к наиболее вероятному состоянию, при этом возрастает энтропия, которая становится максимальной в равновесном состоянии системы. Поэтому вполне есте¬ ственно предположить, что энтропия является функцией вероятности состояния системы, т. е. 5 = / (р). Можно показать [Л. 50], что 5= — К In р + const. (6-6) Величину К достаточно определить для любого частного случая, так как для всех систем она должна иметь одно и то же значение: /< = jj- = 1,38 • 1СГ23 дж'град, 166
т> е. равна постоянной Больцмана. Теперь, если в формуле (6-6) положить аддитив¬ ную постоянную равной нулю, то выражения для термодинамической 5 и информа¬ ционной Н энтропий совпадут с точностью до множителя, т. е. S = — К 1п/? = — Ка lga/7, а = 1п 2; (6-7) tf = -lg2p. (6-8) Разницу в множителях можно рассматривать как результат разных единиц измере¬ ния термодинамической и информационной энтропий. Если число возможных состоя¬ ний в системе N и все они равновероятны, то /V = 1/р и формулы (6-7) и (6-8) пере¬ пишутся в виде S = I<\n N; Н = lg2 /V. Иногда в физике величину N называют числом популяций в системе (числом микро¬ состояний). в) Энтропия непрерывных сообщений Прежде всего энтропию непрерывных сообщений можно ввести сведением непрерывных сообщений к дискретным с помощью теоремы Котельникова. Однако имеется и другой способ, о котором речь пой¬ дет ниже. Строго говоря, энтропия непрерывных сообщений равна бесконечности, так как бесконечны количество возможных сообщений р(х) Л W X Хк — АХ' X, ~ h+f Рис. 6-1. Замена непрерывного сообщения соответствую¬ щим дискретным. (мы имеем дело с континуумом), его логарифм и неопределенность вы¬ бора значений случайной величины. В случае непрерывных сообщений роль функции распределения их вероятности играет плотность распределения вероятности р (х). Можно считать, что эта функция, так же как величина х, безразмерна: всегда можно свести размерную величину х к безразмерной х, поде¬ лив ее на масштабный множитель х0, т. е. Заменим непрерывное сообщение соответствующим дискретным, введя процесс квантования (рис. 6-1). Дискретная квантованная ве¬ личина характеризуется распределением, в котором вероятность k-ro 167
состояния определяется как Рк = $ р мdx ■ Ах 2 Ах При стремлении Дх в пределе к нулю получим исходный непрерывный сигнал. Поэтому рассмотрим энтропию этого квантованного сигнала, которая, очевидно, будет зависеть от Дх, после чего устремим -Дх к нулю и получим искомое выражение для энтропии непрерывного сигнала: Н(*Х) = - £ РкЫРк = - Z k = — 00 k = — оо , Ах ?k+— § р (х) dx Ах X xlog Ад: Т ^ р (х) dx Ах При достаточно малой Ах и гладкой функции р (х) можно считать, что xk+~2 $ p(x)dx = p (xk) Ах, Ах поэтому lim Я(*л:)я»Пт!— 2 р (xh) Ax\g[p {xk) АхЦ = &x->Q ' , I _оо ) = lim j— |] p(Jcft)[lgp(A:ft)]AJ+ lim I—J] PW [lgAxJ Ax) = Д*-о { fto J Д*~о I " J ОО Г 00 1 = — \ P (x) !gP (x) dx + Jim ]— [lg Ax] 2 P {xk) Ax\ = (6-9) Дл:-*0 = — \ p (x) lg p (x) dx — lim lg Дх. A*-*0 Как и следовало ожидать, энтропия квантованного сигнала стремится к бесконечности при Ах 0. Таким образом, непрерывные сигналы-сообщения не имеют аб¬ солютной меры энтропии. Поэтому для них вводят понятие относитель¬ ной энтропии (неопределенности). В качестве эталона чаще всего вы¬ бирается непрерывный сигнал х', имеющий равномерный закон рас¬ пределения в интервале е. Формула (6-9) для такого сигнала перепи¬ шется в виде lim Я (х') = lg е — lim \gAxf Ах-кО Ах-* О 168
так как 00 8 р (х’) dx = \i dx' = г. — оо О Неопределенность непрерывной величины л: характеризуется чис¬ лом, к которому стремится разность энтропий сигналов *л; и х': Не(х)= lim [Н(*х)-Н(х')] = Ах-+0 оо оо = — 5 р(х) lgp(x) dx— lg е = $ р (х) lg гр (х) dx. (6-10) — 00 —00 Если положить е = 1 (т. е. стандартная величина имеет равномерный закон распределения в единичном интервале), то формула (6-10) пере¬ пишется в виде оо НгЛ(х) = — 5 p(x)\gp(x)dx. — 00 Это выражение не означает, что получена абсолютная мера энтропии непрерывного сигнала. Следует помнить, что это — относительная энтропия, где за стандарт взята равномерно распределенная в единич¬ ном интервале величина. Иногда величину Не_1 (х) называют диффе¬ ренциальной е-энтропией й часто опускают индекс е = 1. г) Экстремальные свойства энтропии непрерывных сообщений Представляет интерес решение следующей задачи. Задан какой-то ансамбль сообщений или сигналов, о котором известны некоторые па¬ раметры. Например, пределы изменения, дисперсия, математическое ожидание. Требуется подобрать такой закон распределения этого ан¬ самбля, при котором энтропия была бы максимальной. Можно дать две физические интерпретации принципа максимальной энтропии. К примеру, требуется'создать помеху каналу связи противника, чтобы создать в нем максимум неопределенности. Очевидно, что наилучший эффект будет достигнут при заданных параметрах, если будет выбран такой закон распределения помехи, при котором энтропия принимает максимальное значение. Второй пример можно привести из области задач, которые в мате¬ матической статистике объединяются под названием «критерии согла¬ сия». На практике очень часто встает задача подбора наилучшего в известном смысле закона распределения случайного сигнала, о ко¬ тором известны некоторые данные, упоминавшиеся выше. В данном случае предлагается критерий максимальной энтропии. В этом слу¬ чае гарантируется отсутствие субъективизма, так как из всех законов, которые обладают заданными параметрами, выбран такой, который обеспечивает максимум неопределенности. 169
Первый случай. Рассмотрим ограниченную на интервале \а> Ъ] не¬ прерывную случайную величину с неизвестной плотностью распре¬ деления р (х), причем ь ^p(x)dx=* 1. (6-11) о Требуется найти аналитическое выражение для . функции р (я), ко¬ торое дает максимум энтропии, задаваемой выражением ь Н (х) = — ^р (х) lg р (х) dx. а Согласно вариационному исчислению в соответствии с формализмом Лагранжа —Эйлера необходимо составить дифференциальное урав¬ нение Эйлера относительно подынтегральной функции F (.х, р),"входя¬ щей в функционал, который подлежит минимизации b ь \F [х, р {x)\dx — ^[— р (х) lg р (х) + кр (х)] dx. а а Соответствующее уравнение Эйлера может быть записано в виде «iiiJ-i-i-igp+ij-o. Отсюда р = ехр (Я — 1). Используя соотношение (6-11), получаем уравнение для определения неизвестной постоянной X в виде ъ ^ exp (X— 1) dx = [ехр (Я — 1)] (6 —а) = 1. а Поэтому О, х с а; 1 а^Ь; ? — а' О, х>Ь. Тем самым получено уже известное положение, что для ограниченной на конечном отрезке случайной величины максимальная энтропия по¬ лучается при равномерном распределении (факт, известный для слу¬ чая дискретных сообщений). Очевидно, это свойство является неко¬ торым оправданием для выбора в качестве эталонного сообщения при введении дифференциальной энтропии, имеющего равномерный закон распределения в интервале квантования г. Второй случай. Будем считать., что область изменения случайной величины неограниченна:—оо ^ х ^ оо, задано среднее значение х = а и дисперсия (х — а)2 = а2. Требуется найти закон распреде- 170
ления р (х), при котором функционал, равный энтропии, обращается в максимум при условиях Н(х) — — § р (х) \og р (х) dx = max — ОО 00 § (х — а)2 р (х) dx = о2; — оо оо ^ xp(x)dx=a\ — ОО ОО § р (x) dx = 1. (6-12) (6-13) (6-14) (6-15) Вводя неопределенные множители Лагранжа А,,, Я2, А3, получим урав¬ нение для определения искомой функции р (х) в виде — 1 — log р + (х — а)2 + Я2х + А3 = О, откуда р = ехр [Я,1 (лг — a)2 + A2x-f А3 — 1]. (6-16) Используя условие (6-15), получаем: ОО оо $ pdx — exp (Х3 — 1) $ ехр [Ах(х —о)2 + А2х] <2х= 1. — ОО — 00 Из этого соотношения следует, что для сходимости интеграла пере¬ менная должна быть отрицательная. Поэтому, используя таблицы интегралов [Л. 55], получаем: 00 оо $ ехр [Ад. (х — а)2 + А2х] dx = exp (Я2а) $ exp (Хгу2 -ф Х2У) dy = — 00 — оо = exp (А2а) exp ( - j/~zr£ • (6-17) Отсюда Соотношение (6-13) с использованием (6-16) и (6-17) после неслож¬ ных преобразований примет вид: ехр (А3 - 1) = У ехр - А2а 1 — A.J V п Vn , AJVк . К с 2 4 (- Яа) 2 V^Ti ' е г dz = а3. (6-18) Для ограниченности левой части этого соотношения А2 — 0. Поэтому ^1 2о2- 171
Окончательно соотношение (6-16) запишется в виде (6-19) т. е. экстремальное распределение является нормальным распреде¬ лением. Аналогичным образом можно показать, что для случайной вели¬ чины х, ограниченной положительной полуосью 0 ^ х ^ + оо, эк¬ стремальным распределением будет экспоненциальное распределение р(*) = 1ехр(-£), (6-20) где а — математическое ожидание х. д) Энтропийная мощность непрерывных сообщений Покажем, что дифференциальная энтропия белого нормального шума при 8=1 на один отсчет определяется по формуле Н = \og2]/r2neo2=\og2}f2neS1, (6-21) где е — основание натуральных логарифмов; а2 — дисперсия белого шума; = о2 — средняя мощность белого шума на единичную поло¬ су. Считается, что для белого шума а2 = SJc. Один отсчет понимается таким образом, что непрерывный по вре¬ мени сигнал заменяется дискретным по времени сигналом с интервалом дискретности, определяемым в соответствии с теоремой Котельникова: Т = 2-^, (6-22) Тс где fc — ширина спектра непрерывного сигнала (амплитудами состав¬ ляющих сигнала, имеющими частоты выше этой частоты, можно пре¬ небречь), т. е. заменяем непрерывный сигнал с шириной полосы fc на интервале t0 дискретными значениями, число которых подсчиты¬ вается по формуле Котельникова: Л^ = | = 2/Л. (6-23) Докажем формулу (6-21). Для нормального сигнала х плотность рас¬ пределения вероятности определяется по формуле . р (*)= х2 '2а2 У 2л а Отсюда, логарифмируя, получаем: — log р (лг) = log V2n о + . (6-24) 172
По определению энтропии непрерывных сообщений (а точнее, диффе¬ ренциальной энтропии при е = 1) имеем: Н(х) = — ^р (х) log p{x)dx = \p (х) log V 2я a dx + + § Р М S dx = 1°ёУ2й<У + -2^ = logV2jxo + log Ve = log V2neo2. (6-25) Тем самым формула (6*21) доказана. В соотношениях (6-25) исполь¬ зована формула (6-24) и следующая формула, определяющая дисперсию: о2 = J р (х) х2 dx. По теореме Котельникова [формула (6-23)] среднее число отсчетов или степеней свободы сигнала с шириной спектра составляет 2fc в 1 сек. Поэтому энтропия рассматриваемого сигнала на единицу времени равна: H1 = fc\og2neS1. (6-26) Энтропийная мощность Sx произвольного случайного сигнала, имею¬ щего ширину спектра fc и энтропию Нъ определяется как средняя мощность белого нормального шума с такой же полосой пропускания и с такой же энтропией на степень свободы, т. е. ■5, = ^".. (6-27) Здесь просто перевернуто выражение (6-21), т. е. хотя процесс не имеет нормального распределения, заменяем его эквивалентным сигналом (с нормальным законом) и считаем, что справедливо соотношение (6-21). Рассмотрим некоторые свойства энтропийной мощности. Энтро¬ пийная мощность 6*! случайного сигнала с произвольным законом распределения не превышает его действительной средней мощности Sl9 т. е. S± ^ Slf так как при заданной средней мощности (дисперсии) нормальный процесс обладает максимальной энтропией, если этот процесс х изменяется от — оо до + оо. Пусть п± — сигнал с нормаль¬ ным законом распределения, а п — сигнал с произвольным законом распределения при ' Нп=Нп. (6-28) Требуется доказать, что если Vds'”'4. <6-29> ТО Sni — SnjL — Ghj — Sn ^ On- Это соотношение следует из того, что нормальный процесс обладает максимальной энтропией. 173
Это положение позволяет брать в качестве верхней границы энтропий¬ ной мощности действительную мощность сигнала, когда неизвестно распределение этого сигнала. Докажем очень важную формулу для энтропийной мощности небе¬ лого нормального шума через его спектральную плотность мощности S(f): 5 = exp jl I fc I Для доказательства будем считать функцию S (/) дифференцируемой, за исключением конечного числа точек. Разобьем весь интервал частот (О, /) на узкие полоски df> в пределах которых можно считать спек¬ тральную плотность постоянной величиной. Будем считать, что исход¬ ный процесс состоит из суммы сигналов белых шумов, имеющих в интер¬ вале lfc f + df) значение средней мощности 5 (/). Величина энтропии на единицу времени для такого процесса равна: df log [2neS (/)]. Будем считать, что все эти сигналы независимы друг от друга. Это положение, конечно, требует своего обоснования. Тогда энтропия сигнала равна сумме энтропий: Htc=l\og[2neS(f)}df. (6-31) fc Учитывая, что среднее число степеней свободы процесса с шириной полосы fc равно 1/2/с, получаем, что энтропия сигнала на одну степень свободы равна: ^ = 2)7 $ \0g[2neS (f)]df. (6-32) Т С Очевидно, что энтропийная мощность в соответствии с формулами (6-32) и (6-27) может быть записана в виде (6-30). Действительно, 5 = i e'Hl = i ехР {/; J 1о§ 12яе5 (/)] #}=exp|i j |о§ s'(f) #} - что и требовалось доказать. е) Изменение дифференциальной энтропии при линейной фильтрации Допустим, что на вход фильтра с частотной характеристикой У (/) подается случайный сигнал л: (/). Известно [Л. 28], что спектральные плотности входного и выходного сигналов связаны соотношением Sy(f) = \Y(f)\*Sx(f), где Y (f) — частотная характеристика фильтра; Sx (/) и Sy (/) — спек¬ тральные плотности мощности входного и выходного сигналов. Для 174 / ( log S(f)df\. (6-30)
энтропии на единицу степени свободы получаем: Н(у)=^с \ lQg [2JtcS, (/)] df = ± jj log [2iteS, (/) | Y (/) j*] df = fc =щ: jj log [2jwSx (/)] d/ + T_ ^ log | У (/) |« df = fc = H(x) + ±-^\og\Y(f)\*df. Отсюда изменение энтропии на степень свободы при прохождении через фильтр ДЯ = ^Г$ log| Y(f)\*df. (6-33) fr Полученная формула предпола¬ гает нормальные законы распреде¬ ления вероятностей входного и выходного сигналов. Из формулы (6-33) следует, что для фильтра из пассивных элементов | Y (/) | ^ 1 и АН ^ 0. (рис. 6-2, а), поэтому говорят о потерях информации в линейных фильтрах. Если линей ный фильтр содержит усилитель¬ ные элементы (рис. 6-2, б), то энт¬ ропия сигнала может как умень¬ шаться, так и увеличиваться или оставаться неизменной. Рис. 6-2. Изменение энтропии сигнала при прохождении через фильтр. Глава седьмая ПЕРЕДАЧА СООБЩЕНИЙ ПО КАНАЛУ СВЯЗИ 7-1. ПОНЯТИЕ ОТНОСИТЕЛЬНОЙ ИНФОРМАЦИИ Следует заметить, что различие между количеством информации и энтропией в ряде случаев носит условный характер. Так, если рас¬ сматривать энтропию всех возможных сообщений длиной п, то эта величина будет совпадать с количеством информации, задаваемой формулой (6-3). И наоборот, если нас интересует информация на один символ, содержащаяся в ансамбле сообщений, то эта величина опре^ деляется величиной энтропии этого ансамбля. При передаче сообщений необходимо дать математическую формулировку данного в начале второй части определения количества информации как меры снятия 175
неопределенности, которая численно равна разности априорной и апостериорной энтропий принимаемого сигнала: ^ = Я-Я0, (7-1) где Я — априорная, Я0 — апостериорная энтропии. При этом опре¬ делении, которое иногда называется третьим определением количества информации (имея в виду, что первое — по Хартли, второе — по Шен¬ нону), считается, что информация относится к одному символу сооб¬ щения или энтропия — к определенной длине п сообщения. Это опре¬ деление одинаково справедливо для дискретных и непрерывных сооб¬ щений. В последнем случае вообще трудно установить существенную разницу между количеством информации и энтропией. Если обозна¬ чить через Я (х) — энтропию множества передаваемых символов (на входе канала связи); Я (у) — энтропию множества принимаемых символов; Я (х, у)—энтропию множества всевозможных пар (xiy yk)\ Я (х | уи) — энтропию множества отправляемых символов, остав¬ шуюся после приема символа yk\ Я {у | xk) — энтропию множества принимаемых символов при условии, что известен отправленный символ; Н (х \ у) и Н (у \ х) — математические ожидания величин Я (л: | yk) и Я (у | Xi), то в соответствии с формулой (7-1) количество информации при приеме символа yk определяется по формуле <&k = Н (х) - Н (х | уь). Очевидно, что величина k является случайной, и необходимо ее усред¬ нить по всему множеству принимаемых символов, так же как это было сделано при выводе формулы (6-4): & = M[&k\ = H{x)--M[H{x\yk)] = H{x)-H{x\y). (7-2) Учитывая свойства взаимной плотности распределения вероятностей двух случайных величин [Л. 21], нетрудно убедиться в справедливости формулы Н (х, у) = Н(х)-£Н (у \х) = Н (у) + Н (х |у) (7-3) или Н(х) = Н(у) + Н(х\у)-Н(у\х). Подставив это выражение в формулу (7-2), получим: & = Н(у)-Н(у\х). (7-4) Формулы (7-2) и (7-4) определяют свойство симметрии, заключающееся в том, что средняя неопределенность того, какой символ будет полученf снимаемая при посылке конкретного символа, равна средней неопреде¬ ленности того, какой символ был отправлен, снимаемой при приеме 176
символа. С помощью полученной формулы (7-2) нетрудно вывести выра¬ жение для <& (х; у) через соответствующие вероятности т <&(х, у) = Н(х)-Н{х\у) = — 2 p(Xi) logp(x,) + i= 1 mm . m m + 2 p ы 2 p (*<• I <//e) log p (a i y*)=— 2 p (*/» y*) lo§ p-(**)+ /г = 1 i = 1 6=1 t=l mm mm + 2 i/fr) !°g p (xi \ Ук) = 2 2 p(*h lQg"'p (7_5) A = 1 i = 1 A = I i = 1 1 Аналогичным образом, используя формулу (7-4), получаем: т т &(х, у)=2 2 р у*>log £Шг' (7'6) k = 1 i = ! При этом следует учитывать, что т т 2 р (*;. №) = р (xi); 2 р (х,, у и) = р Ы; k = 1 ;= 1 Р (*ь I/a) = Р (Xi | Ра) р (pa) = Р (Ра I *;) Р (*«)• Оба выражения в правых частях (7-5) и (7-6) могут быть сведены к одной симметричной форме, если умножить дроби под знаком логарифма в формуле (7-5) на р (yk), в формуле (7-6) на р (xt) соответственно. В результате получим: ^ (*. у) - 2 2 Р <*„ у.) log -fifyjftly ■ (7-7) Аналогичным образом могут быть получены соотношения для непрерывных сигналов х и у: & (X, у) = Я8 (х) - М [Яе (х I у)] = Яе (у) - Af [Яе (у I х)] = = — $ Р (*) l°g Р (*) - log s + 5 Р (*) [S Р (* I У) 1о§ (х I y)d* + log е] аУ> &{x, p) = 5 J P(JC, P) log ■pw’p'iyf- dx dy ■ (7-8) В большинстве теоретических работ используется формула (7-8) и при этом специально не оговариваются непрерывные или дискрет¬ ные сигналы. В частности, в формуле (7-8) величину (х, у) можно интерпре¬ тировать, как относительную информацию объекта х относительно объекта у (или объекта у относительно объекта х), равную разности априорной и апостериорной энтропий объекта у (или х). Причем оба объекта могут быть или дискретными, или непрерывными (в последнем случае используются дифференциальные энтропии с одинаковым уровнем квантования е).. Один из объектов х может быть дискретен, а другой у непрерывен. В этом случае формула (7-8) определяет коли¬ чество информации, равное разности априорной и апостериорной 177
энтропий дискретного объекта х или разности априорной и апосте¬ риорной дифференциальных энтропий непрерывного объекта у &(х, у) = Н(х)-М[Н(х\у)] = т = не(у)-м[Не(у\хд]='У1 5 р{Xh у) Xog-fwtWdy- (7'9) / = 1 1 Симметрия является важным свойством информации, которое заключается, в том, что (х'су) одинаковым образом зависит от х и у и количество информации об объекте х, содержащееся в объекте у, равно количеству информации об объекте у, содержащемуся в объекте х. Отсюда можно сформулировать четвертое определение количества информации: среднее количество информации есть мера соответствия двух случайных объектов, численное значение которой определяется формулой (7-8). 7-2. ПРОПУСКНАЯ СПОСОБНОСТЬ КАНАЛОВ СВЯЗИ Рассмотрим канал связи, представленный на рис. 5-1. На его пере¬ дающий конец подается сигнал х (t), который поступает на вход приемника в искаженном шумом п (/) виде у (t) [Л. 47, 53]. Введем понятие пропускной способности канала связи. Пропускная способность канала связи определяется как максимальная величина относительной информации вы¬ ходного сигнала относительно входного: С= lim (х’ у)-, (7-10) t0 —*■ ОО где о? (х, у) — относительная информа¬ ция, задаваемая формулой (7-8), причем все сигналы рассматриваются как экви¬ валентные дискретные (рис. 7-1), так что Н{у) = Н{уъ у2, y2fctoyt Н(п) — Н (пь п2, n2fctoy, Н(х) = Н(хъ хг x2fc(o). Иногда величина V =^ Д назы- *0 вается скоростью передачи информаций по каналу связи. Эта величина равна количеству относительной информации, передаваемой в единицу времени. За единицу времени при дискретном канале связи удобно считать время передачи одного символа. В этом случае в формулах для скорости передачи информации понимают энтропии, и количества информации на один символ. Для непрерывных каналов связи используются две единицы д L г ~ t. 1 1 жтк ! . n(t) I Л ТУ. ,цуй1~х.1 "№) | И 1 1 1 Т^ТТТгГГГГ Рис. 7-1. Пояснения к определе¬ нию пропускной способности канала связи. 178
измерения или обычная единица (к примеру, секунда), или интервал / 1 \ и времени между отсчетами (др, оек^ в этом последнем случае в фор¬ мулах понимаются дифференциальные энтропии на один отсчет (или степень свободы). Нередко в руководствах специально не указыва¬ ется, какая конкретно из двух единиц применяется. В связи с этим часто используют другую формулу для средней скорости передачи информации Т7_е7(х, у) V ~ N где N ^ 2fct0. Если отсчеты независимы, то V = (х, у). Очевидно, что с помощью величины V пропускная способность канала связи может быть определена по формуле C = max V. Р (X) Для энтропии шума можно написать: И (п) = 2fct0H1 (п), где #i (п) = log У2пео'п — энтропия шума на один отсчет для нормального шума. Аналогичные формулы можно записать для нормальных сигналов х и у. Формулу (7-10) для единицы отсчета можно записать в виде C = S \р(х’ y)XogTwfkdxdy- (7'П) Смысл этого определения требуется разъяснить. Отметим, что макси¬ мум здесь взят по множеству распределений вероятности входных сигналов при неизменном шуме, которое предполагается заданным. В частном случае это множество распределений может состоять из одного нормального, как это часто и считается. Если пропускная способность одного канала связи больше, чем другого (Сх > С2) при остальных одинаковых условиях, то физически это означает, что в первом случае совместная плотность распределения вероятности входного и выходного сигналов больше, чем во втором, так как с помощью формулы (7-11) нетрудно убедиться, что пропускная спо¬ собность определяется в основном величиной совместной плотности распределения вероятности. Если относительная информация (или энтропия) выходного сигнала относительно входного больше, то канал обладает большей пропускной способностью. Ясно, что если шумы возрастают, то пропускная способность падает. Если вероятностная связь выходного и входного сигналов пропа¬ дает, то Р(х, у) = р{х)р(у) и в формуле (7-11) логарифм и, следовательно, пропускная способность становятся равными нулю. 179
Другой случай, когда р(х, у) = р(х\у)р(у) стремится к нулю, требует детального рассмотрения, так как log р (х, у) стремится к — оо. Если р (у) ->■ 0, то log Р(х’ У) — 1оС Р (* 1 у) Р (х) Р (у) р(х) ■ Рассуждения можно продолжить следующим образом. Так как веро- ятность появления выходного сигнала стремится к нулю, то можно положить, что вероятность появления сигнала л: не зависит от у, т. е. и Р(х\у) = Р(х) s р М р (у) В этом случае пропускная способность равна нулю, что согласуется с физической интерпретацией, т. е. если на выходе канала связи не появляется никакого сигнала [ни полезного х (t), ни шумов п (/)], это означает, что в канале есть «пробка» (разрыв). Во всех остальных случаях пропускная способность отлична от нуля. Естественно определить пропускную способность канала связи так, чтобы она не зависела от входного сигнала. Для этого введена операция максимизации, которая в соответствии с экстремальными свойствами энтропии чаще всего определяет входной сигнал с нор¬ мальным законом распределения. Покажем, что если л; (/) и п (t) неза¬ висимы и у (/) = х (t) + п (/), то &(х, у) = Н (у) -Н (п), (7-12) где Н (у) и Н (п) — дифференциальные энтропии принимаемых сиг¬ нала и шума. Условие (7-12) означает линейность канала связи в том смысле, что шум просто добавляется к сигналу как слагаемое. Оно непосредственно следует из &(х, y) = H(x)-H(x\y) = H(jf)-H(jy\x). Так как х и п статистически независимы, то Н(у\х) = н{^) = Н{х\х)-Н(п\х) = Н(п). Подставив это соотношение в предыдущее, получим (7-12). Очевидно, если шум аддитивен и не зависит от входного сигнала, то максимальная скорость передачи сообщений по каналу связи (максимальная пропуск¬ ная способность) достигается при max Н (у)у так как р(х) С = max (х, у) = max {Н (у) — Н (п)} = max Н (у). (7-13) Р (х) р {X) р (X) Рассмотрим гауссов канал связи, исходя из следующих предполо¬ жений: ширина полосы частот канала ограничена частотой /с; шум в канале — нормальный белый со средней мощностью на единицу полосы Sn = Sn2'y средняя мощность полезного сигнала Рх\ сигнал 180
и шум статистически независимы; выходной сигнал равен сумме по¬ лезного сигнала и шума. Очевидно, что в соответствии с формулой (7-4) пропускная спо¬ собность такого канала определится как С = max [Н (у) — Н (л)]. Далее согласно первым двум условиям имеем для энтропии на единицу времени (t0 = 1) Н (n) = F log 2neSnfc. (7-14) Так как сигнал и шум статистически независимы, то они не корре- лированы между собой, поэтому средняя мощность суммарного сигнала Py = Px + Snfc = Px + Pn, В соответствии с формулой (7-13) необходимо найти максимум энтропии сигнала у (t) на один отсчет при заданной средней мощности. В силу экстремальных свойств энтропии (см. гл. 6) сигнал у (t) дол¬ жен быть распределен нормально. Белый шум S1 в полосе fc эквива¬ лентен сигналу в этой же полосе со спектральной плотностью S, если равны их средние мощности, т. е. P = S1fc = \S(f)dfc = o2. fc Действительно, для нормального сигнала была доказана формула для энтропии на один отсчет Н = log ~\/~ 2лео2, из которой видно, что характер сигнала (белый шум или нет) здесь безразличен, важна только дисперсия. Из физических соображений очевидно, что энтропия белого шума будет максимальной при прочих одинаковых условиях (законе распределения), так как в белом шуме отдельные отсчеты независимы. При этом неявно предполагается, что непрерывный сигнал заменяется эквивалентным дискретным сиг¬ налом, отсчеты которого независимы. Поэтому можно считать, что сигнал у — белый шум в полосе fc. Из формулы y(t) = x(t) + n(t) следует, что и сигнал х (t) имеет вид белого шума. Обозначив запишем: шах Я (у) = fc log 2ле (Sxfc + Snfc) (7-15) р м и, вычитая из формулы (7-15) формулу (7-14), получаем: C = fe log(l + £) = fclog(l+^). Это — формула Шеннона для пропускной способности, реализуемой в гауссовом канале связи. Практически пропускная способность всегда 181
меньше главным образом из-за различных статистических свойств сигнала и помех. Передача сообщений возможна и в случае, когда Рп >* Рх,только пропускная способность будет мала. В случае малого отношения сиг¬ нал/шум можно функцию логарифма разложить в ряд Маклорена л ~ *2 Г log л: = JC —2“ + • • •» в результате с = /е^. г п т. е. при малом отношении сигнал/шум пропускная способность про¬ порциональна этому отношению. При большом отношении сигнал/шум C = fc log , г п т. е. пропускная способность пропорциональна логарифму отноше¬ ния сигнал/шум. В любом случае для увеличения пропускной способности необхо¬ димо увеличивать мощность полезного сигнала и уменьшать уровень шумов на входе канала.. 7-3. ПОНЯТИЕ ИЗБЫТОЧНОСТИ СООБЩЕНИЯ Выделение полезного сигнала из шумов — одна из основных проб¬ лем передачи сообщения при наличии помех. Чтобы восстановить полезный сигнал, приходится в ряде случаев передавать дополнитель¬ ные символы, дополнительные значения сигнала, т. е. вводить в сооб¬ щение избыточность. Можно привести много примеров применения, этого метода. Так, в сообщении «Весна пришла» можно исключить две последние буквы и передать «Весна приш..», но из-за больших шумов может получиться искажение, например «Весна прошла». Для гарантии надо передать «Весна пришла, но еще не кончилась». По теореме Котельникова непрерывные сообщения можно пере¬ давать дискретными значениями минимальным количеством N = 2fct0, однако при наличии помех следует брать N > 2fct0. Эти особенности сообщений и характеризуют избыточность R. Пусть сигнал из п символов содержит количество информации^. Если он обладает избыточностью, то его можно передать меньшим количеством символов п0. При этом если ввести количество информа¬ ции на один символ сообщения е71у то во втором случае оно будет больше: и очевидно, что М&х = Лоумакс- 182
За меру избыточности принимают относительное удлинение сиг¬ нала при данной избыточности <2^1макс Очевидно, могут встречаться различные случаи. Так, если тре¬ буется устранить избыточность, вызванную статистическими свя¬ зями между символами, сохранив при этом разную вероятность появления символов, с помощью количества информации на один сим¬ вол ^ \ =<2^макс> то можно ввести избыточность, обусловленную связью между симво¬ лами: /?Р= 1 — * Кроме этой может быть избыточность, вызванная неэкстремаль¬ ным распределением символов. Известно, что при конечном числе сим¬ волов т максимальная информация на символ получается при рав¬ номерном их распределении и равна о7'0 = log т. Поэтому избы¬ точность, вызванная неэкстремальностью распределения, D 1 О? 1 Полная избыточность р 1 1 где £Г1— информация на один символ при наличии связей и неэкстре¬ мальное™ распределения символов. Рассмотренные характеристики частной избыточности связаны между собой соотношением R = Rp ~Ь Rq> — RpRq>< Если частные избыточности малы, то RpR4> = 0 и R = Rp~\~ Ry 7-4. НЕКОТОРЫЕ ВОПРОСЫ ПОМЕХОУСТОЙЧИВОСТИ До сих пор рассматривались вопросы эффективности связи, в част¬ ности передача определенного количества информации при минималь¬ ной загрузке канала связи. Однако не меньшее значение имеет вторая проблема — надежности системы связи. Надежность есть мера соот¬ ветствия принятого сообщения переданному. При данных условиях связи (заданной помехе, условиях распространения и пр.) надежность зависит от свойств системы, главным образом способности противо¬ стоять вредному действию помех. Это свойство называется помехо¬ устойчивостью. Как правило, сокращение избыточности увеличивает 183
эффективность, но ухудшает надежность связи. Произведение этих двух величин, а чаще всего некоторая возрастающая функция их произведения является мерой качества системы связи. Введем коли¬ чественную меру помехоустойчивости или надежности при заданных условиях. Надежность нами определена как мера достоверности, т. е. мера соответствия принятых сообщений переданным. Несоответствие выражается в ошибках принятого сообщения. Появление ошибки может быть охарактеризовано вероятностью ее появления р0: Надеж¬ ность или помехоустойчивость обратно пропорциональна этой вели¬ чине. В силу малости р0 удобнее выбрать логарифмический масштаб. Выбор основания логарифма не имеет значения, удобнее пользоваться десятичным. Итак, помехоустойчивость n = lg(±)-_lgP„. Дадим краткое перечисление методов повышения помехоустойчи¬ вости. а) Метод накопления Так как помеха носит случайный характер, то возможны как по¬ ложительные, так и отрицательные значения помехи и многократной передачей одного и того же сигнала можно свести ее влияние к нулю. Рассмотрим способ, часто применяемый в радиорелейных линиях связи. В современных системах управления части системы, как пра¬ вило, находятся далеко друг от друга. Поэтому для передачи сообще¬ ний используют двоичные цифровые каналы связи. При передаче двоичных чисел (от ЦВМ) их обязательно повторяют несколько раз. Можно считать, что помеха не искажает посылку тока (единичное сообщение) и искажает нуль. Вследствие этого для повышения поме¬ хоустойчивости вводят накопитель, который суммирует единицы по модулю 2, но там, где хоть раз появился нуль, так и выдается нуль. Например, Передаваемая комбинация 01001 Первая принимаемая комбинация 01011 Вторая » » 11001 Третья » » 01101 Комбинация на выходе накопителя 01001 Легко видеть, что этот метод повышает помехоустойчивость. Пусть вероятность ошибки р0. Так как отдельная ошибка есть событие неза¬ висимое, то вероятность одной и той же ошибки при каждом из п повторений будет pnQ. Если при одной передаче помехоустойчивость то при n-кратной передаче ■Siш = IS pi = ftS. 184
На этом же принципе основан метод дублирования аппаратуры для повышения надежности. Если сбои в п параллельных дублирующих системах независимы, то надежность /г-кратно резервированной сис¬ темы повышается в п раз. б) Метод фильтрации периодического сигнала в шумах Спектральная плотность периодического сигнала a cos с час¬ тотой (00 S(co) = ^- б (со — щ), корреляционная функция R (т) = -у cos со0т. Спектральная плотность помехи обычно имеет вид кривой, пока¬ занной на рис. 7-2. Площадь, ограниченная этой кривой и осью абс¬ цисс, равна средней энергии, выделяемой помехой в одну *sn((o) секунду. Физически спект¬ ральная плотность равна энер¬ гии, выделяемой процессом за одну секунду в полосе частот, равной единице. Если взять узкий фильтр малой ширины Дсо с граничными частотами со0, со0 + Дсо, то случайная помеха выделит на его выходе конечную мощ¬ ность Sn (со0)Д со. Синусои¬ дальный сигнал теоретически выделит мощность а2/4. Ясно, что, уменьшив полосу фильт¬ ра Дсо, можно теоретиче¬ ски получить на его выходе любое превышение сигнала над помехой. Однако чем уже Дсо фильтра, тем больше его добротность контура и больше время установления синусоиды. Чем большее превышение желательно получить, тем дольше необходимо ждать. Фактически здесь имеет место накопление. (Jn+AGJ Рис. 7-2. Фильтрация периодического сигна¬ ла в шумах. в) Корреляционный метод приема Вычисление корреляционной функции позволяет выделить сину¬ соидальное напряжение в шумах, даже если последние в 100—1 ООО раз превышают амплитуду синусоиды. Рассмотрим случай с полезным сигналом х (t) = a cos oV и стационарной помехой £. Корреляционная функция полезного сигнала — косинусоиды (рис. 7-3): а2 Rxx = ~2 cos ®оТ. 185
Корреляционная функция помехи затухает со временем. В случае независимости полезного сигнала и помехи корреляционная функция Рис. 7-3. Корреляционные функции шума (а), периодического (б) и суммарного (в) сигналов. суммарного сигнала определяется как т Ry = x(t)x(t + T) + Z(t)£(t + T)+x(t)Z(t + T) + £(t)t(t + i) = = Rxx + Ri&- Но, очевидно, необходимо долго ждать, и тем дольше, чем медленнее затухает функция корреляции помехи (чем уже спектр) и чем больше мощность помех <*2 = % (0). Однако в отличие от предыду¬ щего здесь теряется начальная фаза синусоиды. г) Синхронное накопление д. Д_Л г т а) t Рис. 7-4. Пояснение к синхронному накоп¬ лению сигнала. При синхронном накопле¬ нии, применяемом в импульс¬ ной радиолокации, посылают импульсный сигнал и, зная, когда он придет, открывают приемник (рис. 7-4). Отраженные импуль¬ сы (рис. 7-4, а) по нескольку раз приходят на одно и то же место элек¬ тронно-лучевой трубки (не менее .6—10 раз). При этом импульсы 186
складываются и засвечивают экран в надлежащем месте, а шумы /рйс. 7-4, б\ вычитаются. В этом и состоит эффект накопления. При¬ емник открывается на время прихода импульса специальным строби¬ рующим импульсом, который следит за отраженным импульсом с по¬ мощью специальной следящей системы по дальности. 7-5. ОБЩАЯ ТЕОРИЯ ПОМЕХОУСТОЙЧИВОСТИ Геометрическая интерпретация в теории информации широко ис¬ пользуется для представления любых сообщений'и сигналов. Чаще всего к ней прибегают в случае непрерывных сообщений. Различают пространства сообщений и сигналов [Л. 48, 56]. Если сообщение дис¬ кретно, то при конечном времени передачи оно характеризуется конеч¬ ным числом своих значений, если сообщение непрерывно, то согласно теореме Котельникова его можно полностью определить дискретными значениями. В силу этого каждое сообщение можно представить неко¬ торой точкой в пространстве. Число измерений пространства равно числу N отсчетов или степеней свободы. Система координат — пря¬ моугольная. Вся совокупность сообщений в пространстве сообщений отражается некоторым объемом. Как уже указывалось, для передачи сообщений их необходимо преобразовать в сигналы. Например, в сигналы преобразуются сообщения, поступающие в виде давления воздуха у микрофона р = f (t) (телефония); в виде тока звуковой частоты, повторяющего форму / (/) (телефония — сигнал после микро¬ фона); тока высокой частоты, амплитудно-модулированного по закону / (/) (радиосвязь); в виде освещенности последовательно передаваемых элементов (фототелеграфия, телевидение). Если сообщение непрерывно, то, как правило, сигнал тоже непре¬ рывен. Для сигнала тоже вводят пространство сигналов размерностью N. С геометрической точки зрения процесс передачи заключается в том, что каждой точке пространства сообщений должна однозначно соот¬ ветствовать определенная точка пространства сигналов. В простран¬ стве сообщений точки располагаются неравномерно с разной плот¬ ностью. Распределение точек определяется статистикой сообщений. При преобразовании пространства сообщений в пространство сигналов распределение точек меняется. Пусть г/— сообщение, передаваемое с помощью сигнала, х — принятый сигнал. В общем случае они свя¬ заны некоторым преобразованием х = ф (и). Символ ф— преобразова¬ ние, которое не обязательно задается аналитически. Однако для простоты суждений предположим, что ф — некоторая функция. Допустим, имеется функция сообщения и (t), квантованная на т уровней, с пределами изменения 0< и < амакс. В случае амплитудно¬ импульсной модуляции можно написать: * = 2^1Г^М-ЬТ). “макс где uk= и (ikT)\ (i^l — глубина модуляции; Q (t) — функция, опи¬ сывающая отдельный импульс. Для случая, когда та же функция 187
сообщения преобразуется в сигнал с фазо-импульсной модуляцией имеем: x=yQk(t-kT + %-^- т0), Ьш \ “макс / где X ^ 1 — глубина фазовой модуляции; т0 — наибольшее смещение импульсов, которое можно принять равным Г, если пренебречь дли¬ тельностью импульса по сравнению с периодом чередования Т. Таким образом, процесс передачи сообщений можно представить в виде, показанном на рис. 7-5. При передаче сообщения и преобразуются в сигналы х, т. е. пространство U преобразуется в пространство X. На приемном конце из сигналов х вновь восстанавливается сообщение v, т. е. пространство X преобразуется в пространство V. При передаче X Рис. 7-5. Геометрическая интерпретация передачи сооб-- щений. 1 — пространство передаваемых сообщений; II — пространство сигналов; III — пространство принимаемых сообщений. на сигнал накладывается помеха, которая тоже представляется некоторым вектором. В отсутствие помехи v = ф-1 (х) = ф-1 [ф (и)] = и. Однако помеха существует, и в результате ее воздействия проис¬ ходит искажение сигнала. Можно построить приемник, который будет воспроизводить сообщение v1 = и1 всякий раз, когда конец результи¬ рующего вектора х = х1 + где помеха | ближе к концу вектора- сигнала х1, чем к концу ближайшего вектора-сигнала х2. Такой при¬ емник по Котельникову называется идеальным. Его действие харак¬ теризуется тем, что пространство X оказывается разбитым на области, границы которых представляют собой места точек, равноотстоящих от точек различных сигналов (концов векторов). Ошибка приема идеальным приемником, т. е. замена переданного сообщения другим, возможным, происходит лишь тогда, когда результирующая точка, представляющая сигнал с наложенной помехой, переходит границу данной области и оказывается в соседней. Вероятность появления такого события характеризует помехоустойчивость связи. Для идеаль¬ ного . приемника вероятность ошибки оказывается наименьшей, а, следовательно, помехоустойчивость — наибольшей, По Котельникову 188
предельно достижимая помехоустойчивость называется потенциаль¬ ной . Очевидно, что помехоустойчивость будет тем больше, чем больше расстояние d между соседними сигналами (рис. 7-6), т. е. расстояние между концами векторов, представляющих эти сигналы. Это расстоя¬ ние зависит не только от расстояния между соседними сообщениями, но и от функции преобразования, т. е. по¬ мехоустойчивость системы связи за¬ висит от способа модуляции. Ока тем выше при данном способе модуляции, чем больше d. Условие правильной передачи со¬ общения и1 при идеальном приемни¬ ке следующее: | х — х11 <С | х — х21; 111<|Лх-1|. Здесь | — помеха; х1 — сигнал, со¬ ответствующий сообщению и1; х = = х1 + I — сигнал х1, искаженный аддитивно независимой от сигнала. Условие безошибочного приема можно записать в виде ш<4. где d = | Дх |. - Учитывая, что х = ф (и) и получаем: |Дх |2=^A4 = s(Ua«,)2, откуда, усредняя, находим: где N — число дискретных отсчетов сигнала. Здесь предполагается, что частные производные от функции ф по координатам и приращения по ним — независимые величины. В общем случае d2 = ф г2, где г — среднее расстояние между сообщениями в пространстве сооб¬ щений. Если сигнал квантован, то минимальное расстояние между сигналами Г мин = 189 Рис. 7-6. Пояснение к выводу со¬ отношений для идеального прием¬ ника. помехой, которая считается
где 6 — расстояние между уровнями квантования, поэтому ^мин = ф2б2. (7-16) Вероятность ошибки d_ 2 оо оо 73! Ш Ss 5 / w dx+ I f(x)dx = 2 f(x)dx. — oo ~2 2 Учитывая, что для нормально распределенного шума * - х2 f (*) = —е~~^, а |Л>я где о2 — дисперсия шума (помехи), в соответствии с формулой (7-16) получаем: Р~ = 77Ш S'1 где интеграл вероятности, для которого составлены, таблицы (см. при¬ ложение 1), равен: X Ф (х) = ^ e~z* dz. Vn J При этом следует учитывать, что ОО ^ егр dt — ]/"я, т. е. _2 V- L [ e~*2dz= 1. Л J Пример 7-1. Рассмотрим пространства сигналов для трех случаев (рис. 7-6) модуляции: амплитудно-импульсной (АИМ); импульсной модуляции по длительности (ДИМ); фазо-импульсной (ФИМ). Допустим, что с помощью этих трех видов сигналов передается ансамбль из трех сообщений: 1, 2, 3. Необходимо выбрать координаты в пространстве сигналов. Выберем их в соответствии с рис. 7-7. Для сравнения этих трех случаев сравним средние энергии сигналов (табл. 7-1). За единицу примем мощность одного импульса единичной амплитуды. Для уравнивания средних мощностей возьмем за единицу линейного масштаба величину, обратно пропорциональную корню квадратному из средней мощности, В результате получим отношения для длин масштабов 1 1 ■ = 0,47:0,71: 1,0. V 4,6 ■ |/ 2 ’ Щ 190
Таблица 7-1 Параметр Мощность сигналов АИМ ДИМ ФИМ Сообщение: 1 1 1 1 2 4 2 1 3 9 3 1 Средняя 4,67 2 1 энергия Когда передается сообщение, то в пространстве сообщений вектор описывает некоторую линию сообщений. Под линией сигнала понимается совокупность точек АИМ 1) 100 2) 20 0 3) 3 0 0 АИМ 1 о о 1 1 о 1 1 1 ФИМ ! г* и 1! г) _L 1 I 1 .i 1 1 ф- $ Л- гп 1 и- 1 1 ^ с ,l 1 1 1 Г —Ин Ь— 1 о о О 1 о 00 1 Рис. 7-7. Примеры пространства сигналов для разных случаев модуляции. а - АИМ; б — ДИМ; в — ФИМ. сигнала при передаче сообщения. Можно сказать, что чем длиннее линия сигнала, тем более помехоустойчива система. Фактически величина d*=2Axl=2(S;Aukf есть приращение квадрата длины линии сигнала. Очевидно, помехоустойчивость будет больше при ФИМ. Для нашего примера в случае АИМ: 3 X 0,47 = 1,41; ДИМ: 3 X 0,71 = 2,13; ФИМ: 3 X 1 = 3. В общем случае Af-мерного пространства сигнал с фазовой модуля- цией изображается некоторой сферой. При непрерывном изменении 191
сообщения вектор описывает на этой сфере некоторую кривую. В на¬ ших примерах мы имеем дело с линией сигналов. Если сигнал кванто¬ ван, то непрерывная линия заменяется совокупностью точек. Пояснить резкое изменение помехоустойчивости для ФИМ, начиная с некоторого значения по¬ мехи, можно следующим образом (рис. 7-8). Для ФИМ все точки сигналов лежат на сфере, квадрат радиуса которой равен средней энергии сигнала. Если помеха возрастает, то она может охватить всю сферу сигнала и помехоустойчивость резко падает. При АИМ включение точек сигна¬ ла в сферу помехи происходит постепенно и резкого изменения [помехоустойчивости нет. Говорят, что резкого порога помехо¬ устойчивости при АИМ не наблюдается. Глава восьмая ТЕОРИЯ КОДИРОВАНИЯ 8-1. ПРИМЕРЫ КОДОВ Сообщения передаются в виде сигналов, имеющих определенную форму и последовательность. В телеграфе сообщение обычно пере¬ дается при помощи алфавитов, цифр или алфавита и цифр вместе. Сигналы следуют в определенной последовательности. Например, в коде Морзе каждой букве и цифре соответствует некоторая после¬ довательность кратких (точки) и длинных (тире) посылок тока, разде¬ ляемых кратковременными паузами по длительности такими же, как и точки. Пробел между буквами при этом изображается выключением тока на три единицы времени, а пробел между словами — на шесть единиц времени (рис. 8-1, а). Если обозначить тире У, а точки 0, то можно записать: А Б В Г Д 01 1000 011 110 100 По коду Бодо, применяемому в современных буквопечатающих аппаратах, каждой букве соответствует сигнал из пяти импульсов одинаковой длительности и формы (рис. 8-1,6): А 10000 Б 00110 В 01101 Г 01010 Д 11110 Этот код равномерен, так как на каждый символ требуется одина¬ ковое время. Следует различать способ кодирования и способ модуляции сигнала или сообщения. Так, рассмотренные коды Морзе и Бодо — Рис. 7-8. Зависимость поме¬ хоустойчивости от превыше¬ ния сигнала над шумом для случаев ФИМ и АИМ. 192
двоичные, т. е. имеют двойное основание: сообщения передаются с по¬ мощью посылки сигнала (тока) или его отсутствия. Могут быть троич¬ ные коды, когда используются посылки положительного и отрицатель- м и Р пп пп ппп . а) 1 * i Б 1 1 В 1 Г | 4 1 1 10000 1 00110 1 1 ■ 01101 01010 I I 11110 1 а 1 i 1 г пп 1 ! i. i I I I I I I 1 Рис. 8-1. Способы кодирования. а — код Морзе; б — код Бодо. ного знака и отсутствие посылки, пятеричные и т. д. Единичная по¬ сылка сигнала может быть в виде напряжения постоянного или пере¬ менного тока (радиоимпульса). Наконец, можно передавать тире тремя импульсами, а точку — отсут¬ ствием импульсов (рис. 8-2). Во всех этих случаях код один и тот .же, а модуляции разные. В первом 'случае (рис. 8-2, а) имеет место моду¬ лированный сигнал постоян¬ ного тока, во втором (рис. 8-2, б) — сигнал переменного тока, модулированный прямо¬ угольным напряжением, так называемый радиоимпульс (если частота наполнения ле¬ жит в диапазоне радиочастот). Наконец, в последнем случае (рис. 8-2, в) имеет место кодо¬ импульсная модуляция. Поми¬ мо рассмотренных могут быть и другие виды модуляции. По физической природе сигналы могут быть электрические, аку¬ стические, механические, радиолокационные и пр. В данном разделе не исследуются ни физическая природа сигналов, ни виды модуляции. Здесь будут рассмотрены виды кодирования. D ОЛ а) АДА AAA АЛА Рис. 8-2. Способы модуляции. а — модулированный сигнал постоянного тока; б — модулированный радиоимпульс; в — кодо¬ импульсная модуляция. 7 Основы кибернетики 193
8-2. ОПТИМАЛЬНЫЙ КОД ШЕННОНА — ФЕНО Для построения оптимального кода Шеннона — Фено все символы алфавита располагаются в порядке убывания вероятности их появле¬ ния. Символу, встречающемуся чаще всего, присваивается наиболее короткая комбинация. В английском языке чаще всего встречается буква Е (р = 0,13). Этой букве отведена самая короткая кодовая комбинация — точка. В русском языке наиболее повторима буква О (р = 0,11), но ей отведена далеко не самая короткая кодовая комби¬ нация — три тире. В этом смысле для русского языка принятая система кодирования в азбуке Морзе не является оптимальной. Оптимальным считается код, имеющий минимальную среднюю длину /ср = min, _ причем ^СР= ^LlP^ki где суммирование выполняется по всем символам алфавита; lk — длина кодовой комбинации, равная числу ее элементов, соответствующая k-y символу алфавита; рк — вероятность появления в сообщениях дан¬ ного ансамбля k-то символа; 2 Pk = 1- Здесь будут рассмотрены только двоичные коды, хотя все изложен¬ ное справедливо для троичных и других кодов. Пример 8-1. Рассмотрим табл. 8-1, в которой приведен алфавит, состоящий из шести символов/ Т а б л и ц а 8-1 Подгруппы Оптимальные коды № сообщения Вероят¬ ность Группы 1-го уровня 2-го уровня 1-й вариант • 2-й вариант 1 0,3 }■ } I И 1 2 0,2 } II 10 10 3 4 0,150 0,150 I- }' } I } II 011 010 01 010 5 6 0,100 0,100 }■' } I } II 001 000 001 000 Во втором столбце даны вероятности появления символов, в третьем, четвертом, пятом — разбиение на группы и подгруппы, в шестом и седьмом — кодовые комбинации, которые строятся так: все символы разбиваются на две группы, чтобы суммарные вероятности в каждой группе были примерно равны. В нашем примере в первую группу попали два первых символа, во вторую — все остальные. Первой группе присваивается символ 1 в первом слева разряде, второй —0. Далее процесс повторяется: первая группа разбивается на две подгруппы примерно с оди¬ наковыми суммарными вероятностями и т. д. То же самое делается со второй группой. Процесс деления заканчивается, когда в каждой подгруппе остается по одному сим¬ волу. Графически этот процесс можно изобразить в виде ветвящегося дерева (графа), представленного на рис. 8-3. В кодовой комбинации каждой левой ветви из какой- 194
нибудь вершины соответствует единица, правой — нуль. Каждому законченному коду соответствует так называемая висячая вершина на вертикальных линиях, обо¬ значающих различные вероятности. В предпоследней колонке табл. 8-1 представлен оптимальный код. Его средняя длина /ср =? 2,5. Очевидно, что возможны модификации рассмотренной процедуры. Так, в последнем столбце представлен код, обладающий меньшей средней длиной, Сообщения 1 2 3 4 5 6 Рис. 8-3. Граф построения кода Шеннона — Фэно, требующего раз¬ делительного знака. однако его составление требует более сложной процедуры (алгоритма), что затруд¬ нительно при большом алфавите, насчитывающем сто, тысяча символов. По поводу рассмотренной процедуры составления кода можно сделать два заме¬ чания. Во-первых, с точки зрения помехозащищенности предпочтительнее переда¬ вать единицы, а не нули, так как в предположении, что единице соответствует по¬ сылка сигнала, а нулю — ее отсутствие, искажение нуля помехами более вероятное Рис. 8-4. Граф построения кода Шеннона — Фэно, не требующего раз¬ делительного знака. событие, чем искажение единицы. Во-вторых, одну кодовую комбинацию необходимо выделить для обозначения разделительного знака между символами, так как в про¬ тивном случае, если принимается последовательность из единиц и нулей, ее невоз¬ можно правильно расшифровать, т. е. рассмотренный выше код, так же как и коды Морзе и Бодо, относится к категории кодов, требующих разделительных знаков. Однако можно построить код, не требующий разделительных знаков. Для этого уже применявшаяся комбинация не должна служить началом следующей комбина¬ 7 195
ции, т. е. можно применять 10 и 001, но нельзя 10 и 100. Такую процедуру лучш« всего выполнять графически с помощью дерева кода (рис. 8-4). Кружочками изобра¬ жены используемые комбинации 0, 101, 100, 1111, 1110, 11011, 11010, 11001, 11000. При таком кодировании, например, последовательность 11011000110001011001110 легко расшифровывается как комбинация символов 11011—0—0—0—11000—101 — 100—1110. 8-3. КОРРЕКТИРУЮЩИЕ КОДЫ Мощным средством повышения помехоустойчивости систем явля¬ ются корректирующие коды, которые возникли главным образом в связи с дальнейшим развитием ЦВМ. Их основная идея заключается в том, что наряду с кодовой группой, несущей полезную информацию, передаются дополнительные знаки, с помощью которых удается обна¬ руживать и исправлять ошибки, вводить коррекцию. Такая процедура вносит избыточность, снижает эффективность системы, но повышает ее помехоустойчивость [Л. 48, 53, 57—59]. а) Корректирующие коды Хэмминга В простейшем случае такой код получается добавлением к кодовой комбинации единицы с тем, чтобы сумма всех единиц была четной (не¬ четность означает появление ошибки). Построим его на примере кода Бодо: , Буквы А Б В Г Д Е Обычный код 10000 00110 01101 01010 11110 01000 Дополнительный код 100001 001100 011011 010100 111100 010001 Такой код позволяет обнаружить одиночную ошибку, но не в сос¬ тоянии ее локализовать и исправить. Не только обнаружить, но и исправить ошибку можно с помощью более мощных кодов, которые строятся следующим образом. Пусть имеется /г0-значный двоичный код. Общее число комбинаций N = 2no. Каждый из таких кодов отличается один от другого хотя бы одним знаком. Дополним код еще одним знаком, а число кодовых комбина¬ ций оставим неизменным, тогда N = 2no = y2", •и можно так подобрать кодовые комбинации, что они будут отличаться двумя знаками. При этом будет использована только половина всех воз¬ можных комбинаций от 2Д, вторая половина образует запрещенные комбинации: любое появление одиночной ошибки превращает ее в за¬ прещенную и тем самым ошибка обнаруживается. Дополним теперь код таким количеством знаков, которое даст возможность двум кодо¬ вым комбинациям отличаться тремя знаками при неизменном числе N = 2п°. Такой код позволит не только обнаружить, но и исправить одиночную ошибку. Действительно, если случилась одиночная ошибка 196
в какой-то комбинации, то эта комбинация от других будет отличаться на два знака, а от своей — на один и ее легко исправить. Определим общее число дополнительных знаков, необходимых для обнаружения и исправления одиночных ошибок. Пусть из общего числа позиций п для передачи информации используется п0, которое будем считать фиксированным. Остальные позиции k = п — п0 ис¬ пользуются в качестве проверочных. Символы, которые ставятся на k проверочных позициях, определяются при кодировании проверкой на четность каждой из k групп информационных символов. Как будет далее показано, на каждой проверочной позиции при кодировании ставится 0 или 1, смотря по тому, какая сумма единиц — четная или нечетная получается при каждой из п проверок на четность. Сигнал кодируется так, чтобы в результате в каждой из п проверок получа¬ лось четное число. На приемном конце появляются на некоторых пози¬ циях единицы вместо нулей и, наоборот, нули вместо единиц. При приеме также производится проверка на четность. Построим код, который позволял бы обнаруживать и исправлять одиночную ошибку (если произошли две ошибки сразу, код бессилен). Пусть принята кодовая комбинация с ошибкой или без нее. Произведем в ней последовательно k проверок. После каждой проверки запишем О, если результат свидетельствует об отсутствии ошибки на проверяемых позициях (сумма единиц четная), и 1, если результат свидетельствует о наличии ошибки (сумма единиц нечетная). Запись справа налево полученной последовательности единиц и нулей дает двоичное число. Потребуем, чтобы это число, называемое проверочным, давало номер позиции, на которой произошло искажение. Отсутствию ошибки в при¬ нятой кодовой комбинации будет соответствовать число, составленное из нулей. Проверочное число должно описывать (п0 + k + 1) собы¬ тий. Следовательно, число k определяется на основании неравенства 2к: и так как п = п0 + &, то 2по (8-1) п+ I* Это соотношение позволяет определить максимальное п0 при данном п или минимальное.п для данного п0. Приведем соответствующие значения в табл. 8-2. Т а б л и ц а 8-2 п п0 k п п0 k 1 0 1 6 3 3 2 0 2 7 4 3 3 1 2 8 4 4 4 1 3 9 5 4 5 2 3 10 6 4 Определим теперь позиции, которые надлежит проверить в каж¬ дой из k проверок. Если ошибок нет, то на всех проверяемых позициях 197
будет 0, если в низшем разряде числа стоит 1, это значит, что в резуль¬ тате первой проверки обнаружена ошибка. Будем при первой проверке проверять те номера позиций, двоичные представления которых имеют в первом разряде единицы, т. е. 1 = 1 3 = 11 5 = 101 7 = 111 9 = 1001 и т. д. Таким образом, первая проверка охватывает позиции 1, 3, 5, 7, 9. Для второй проверки выберем такие позиции, двоичные представления которых имеют единицу во втором разряде: 2 = 10 3 - 11 6 = 110 7 = 111 10 - 1010 Для третьей проверки имеем: 4 - 100 5 - 101 6 = 110 7 = 111 12 = 1100 13 = 1101 14 - 1110 Такой выбор проверяемых позиций дает возможность определить номер позиции, в которой произошла одиночная ошибка. Напомним, что при каждой проверке сумма единиц должна быть четной. Если произошла ошибка на одной из позиций первой проверки, то в прове¬ рочном числе в низшем (правом) разряде появится единица, как это и должно быть. Дальнейшую расшифровку проверочного числа дает вторая проверка: если среди всех позиций второй проверки ошибок нет, то будет появляться нуль. Если на третьей позиции произошла ошибка, нарушившая четность как в первой, так и во второй проверке, то после двух проверок в двух низших разрядах появятся единицы. В третьей и следующих проверках третья позиция уже отсутствует. Таким образом, в нашем примере проверочное число равно ООН = 3, что и дает номер позиции, на которой произошла ошибка. Аналогично можно убедиться, что любая одиночная ошибка на любой позиции может быть устранена проверками, дающими проверочное число, равное номеру позиции, на которой произошла ошибка. Остается решить, какие позиции использовать под проверочные символы. Выбор для проверки позиций 1, 2, 4, 8 ... обеспечивает появление хотя бы одной их этих позиций при каждой проверке; и это позволяет независимо от знаков передаваемого числа получить при каждой проверке четное число единиц. Соответствующие проверяе¬ мые числа приведены в табл. 8-3. 198
Т а б л и ц а 8-3 Порядковый номер Проверочные позиции Проверяемые числа 1 1 1, 3, 5, 7 9, 11, 13, 15, 17, ... 2 2 2, 3, 6, 7, 10, 11, 14, 15, 18, ... 3 4 4, 5, 6, 7, 12, 13, 14, 15, 20, ... 4 8 8, 9, 10, И, 12, 13, 14, 15, 25, ... Пример 8-2. Построим код Хэмминга для п = 7. Из табл. 8-3 находим, что п0 = 4, k = 3. Позиции 1, 2, 4 будут использоваться для передачи проверочных символов. На остальных четырех позициях разместим двоичные представления чисел от О до 15. В результате получим кодовые комбинации, приведенные в табл. 8-4. Таблица 8-4 Позиции Десятичное представление 1 2 3 4 5 6 7 двоичных чисел, образованных символами на позициях 3, 5, 6, 7 0 0 0 0 0 0 0 0 1 1 0 1 0 0 1 1 0 1 0 1 0 1 0 2 1 0 0 0 0 1 1 3 1 0 0 1 1 0 0 4 0 1 0 0 1 0 1 5 1 1 0 0 1 1 0 6 0 0 0 1 1 1 1 7 8 9 10 И 0 1 1 1 1 0 0 12 Как видно, семизначный код с обнаружением и исправлением одиночной ошибки допускает передачу 16 сообщений, при этом 27 — 16= 112 комбинаций не исполь¬ зуются. Рассмотрим комбинацию 0111100, которая соответствует числу 12 в нашей таблице. Пусть при передаче символ на пятой позиции изменился (1 перешла в 0). Искаженная кодовая комбинация стала равной 0111000. Определим ошибку по изложенной выше методике. Из табл. 8-4 найдем позиции первой проверки 1, 3, 5, 7. Проверка дала нечетное число — ставим 1. Вторая проверка на позициях 2, 3, 6, 7 дала четное число — ставим 01. Третья проверка дала четное число — ставим 1. В итоге проверочное число 101 = 5. Следовательно, на 5-й позиции произошла ошибка. Знак на этой позиции необходимо изменить на обратный: 0->- 1. Корректирующую способность кода можно повышать и дальше: строить коды для обнаружения r-кратной и исправления s-кратной ошибок. Конечно, при этом будет расти число дополнительных знаков и общая длина кодовой комбинации (при неиз¬ менном N = 2п°). Обозначим через d наименьшее число знаков, которыми разли¬ чаются между собой две кодовые комбинации. Очевидно, что d=\ + r + s, r^s. Возможности различных кодов видны из табл. 8-5. 199
Таблица 8,-5 d S Возможности кода 1 0 0 Отличение одной комбинации от другой 2 1 0 Обнаружение одиночной ошибки 3 1 1 Обнаружение и исправление одиночной ошибки 2 0 Обнаружение двукратной ошибки 4 2 1 Обнаружение и исправление двукратной ошибки 3 0 Обнаружение трехкратной ошибки 5 2 2 Обнаружение и исправление двукратной ошибки 3 1 Исправление одиночной и обнаружение трехкратной ошибок 4 0 Обнаружение четырехкратной ошибкй б) Геометрическая интерпретация корректирующих кодов При построении корректирующих кодов часто прибегают к геомет- рической модели. Допустим, есть алфавит, состоящий из трех символов. Из них можно составить следующие комбинации: ООО, 001, 010, 011, 100, 101, 111. Возьмем три оси и будем откладывать точки с координа¬ тами, равными коду (рис. 8-5). Помеха может исказить сигнал, т. е. вместо 0 появится 1 или наоборот. Очевидно, что когда кодовые комбинации друг от друга отличаются на длину ребра d = 1, то помеха переведет один сиг¬ нал в другой и обнаружить ошибку в этом случае нельзя. Ее можно обна¬ ружить, если кодовые комбинации от¬ стоят друг от друга на два ребра, т. е. 000, 011, 101, 110. Для исправления необходимо, чтобы комбинации отли¬ чались на три единицы: 000, 111. Пространство, представленное на рис. 8-5, называется пространством Хэмминга, а величина d — расстоянием по Хэммингу. Очевидно, что это расстояние всегда целое число, равное числу разрядов, в кото¬ рых отличаются двоичные числа, соответствующие точкам в простран¬ стве Хэмминга. В более общем случае пространство Хэмминга имеет п координат и изображается /г-мерным кубом. в) Групповые коды Набор кодов называется групповым кодом, если он составляет группу в точном математическом смысле [Л. 58]. Основное свойство группы заключается в замкнутости относительно некоторой .заданной операции G. Это означает, что если к двум кодовым комбинациям или словам, принадлежащим группе, применить эту операцию, то полу¬ чится слово, также принадлежащее этой группе, и сколько бы раз Рис. 8-5. Геометрическая интерпре¬ тация корректирующих кодов. 200
эта операция ни применялась к словам группы, она не дает слов, не принадлежащих к ней. Если операция G линейная, то код называется линейным или матричным. Кроме свойства замкнутости для группы характерно свойство ассоциативности, которое для операции сложения записывается сле¬ дующим образом: В групповом коде всегда разрешается нулевой код или слово, состоящее из нулей. Количество элементов в группе определяет порядок группы. Поря¬ док может быть равен бесконечности. Операции сложения и умножения образуют группу с бесконечным порядком, состоящую из всех целых чисел и нуля. Мы ограничимся двоичными кодами, которые образуют группу по отношению операции сложения. Логические функции двух переменных образуют конечную группу. Если кодовое слово конечно, то группа разрешенных слов тоже конечна. Групповые коды строят, исходя из количества информационных символов п0 и минимального кодового расстояния по Хэммингу dMmi. В соответствии с требуемыми свойствами корректирующего группового кода выбирают dMHH, минимальную общую длину кода п и число про¬ верочных символов k согласно формуле (8-1). Однако часто ради про¬ стоты реализации алгоритмов идут на некоторую избыточность. По¬ строим группу по отношению к операции сложения. Для этого выберем g ненулевых ц-разрядных разрешенных кодовых слов и произведем сложение по два, по три и т. д. и, наконец, по g слов в соответствии с формулой где хъ х2, xk —г исходные ц-разрядные кодовые слова, состоящие из 0 или 1; ily i2, ..., ig — коэффициенты, которые принимают значе¬ ния 0 или 1. Суммирование в этой формуле осуществляется по модулю 2. Общее количество слов, получаемых с помощью этой формулы, равно: — число сочетаний из g по k. Если еще добавить g исходных слов, при¬ чем и 1 в счет нулевого слова, то получим: (Х\ -f- Х2) + Х3 — Xi -f- (х2 + х3). Xi = У] ikXk, где (8-2) 2Q1
По исходным условиям код должен содержать N0 = 2'l° разрешенных кодовых слов. Для этого достаточно положить v = п0> так как известно, что Естественно потребовать, чтобы все кодовые слова, количество которых определяется выражением (8-2), были оригинальными, т. е. отличались от нулевого слова и исходных g слов. Для этого необходимо, чтобы результат сложения по модулю два был равен нулю при равен¬ стве между собою обоих слагаемых. Отсюда вытекает требование раз¬ личности исходных слов. Нулевое слово не должно входить в состав исходных слов, так как при сложении с ним получается результат, сов¬ падающий со слагаемым. Чтобы производные слова не совпали с исходными, должно, выполняться условие линейной независимости кодовых слов хъ х2, хПо9 которые полностью определяют групповой код и называются базовыми словами или базой. Для обеспечения заданного минимального кодового расстояния необходимо выполнение двух, условий: каждое базовое слово должно содержать не менее dMHH единиц, и расстояние между любой парой базовых слов должно быть не меньше dmm. Число единиц двоичного слова иногда называется весом слова vt. Тогда первое условие может быть записано как Второе условие для всех 1 ^ i ^ п09 1 ^ ^ п0 запишется в виде Алгоритм построения базовых слов, обеспечивающих это условие при минимальной избыточности, на сегодняшний день не найден. Базовые слова принято записывать в виде матрицы Положив в этой формуле а = b = 1, получим: Clxl + С2%2 + • • • + Сп0 — 1*л0 — 1 “Ь Сп0Хп0 ^ О для любых Си отличных от нуля. Это соотношение является условием мин* d(Xi, Xj) 32 d., 'МИН* 202 jcjrto) *(Ло) . . . *("o) . . . Х^о)
1 1 1 0 0 0 v= 1 0 1 1 0 1 0 0 1 1 1 0 Эта матрица содержит п столбцов и п0 строк и называется производя¬ щей матрицей кода (/г, п0). Пример 8-3. Рассмотрим [Л. 58] случай с п0 = 3 и dmm — 3. Очевидно, что сле¬ дует выбрать k = 3 в соответствии с формулой (8-1), чтобы п = п0 + k = 6, тогда гарантируется dmm = 3. Образуем производящую матрицу (8-3) Нетрудно убедиться, что базовые слова удовлетворяют всем пяти необходимым условиям: 1) фхъ\ 2) vt-ф 0, / = 1, 2, 3; 3) -f- А,2-^2 ~\~ ^зхз ' (8“4) 4) Vi^dm 1Ц; 5) d (X't, лу) ^ ^мин* Первые три разрешенных слова совпадают с базовыми: *!= 111000, 101101, *3 = 001110; четвертое слово — нулевое: х4 = 000000. Остальные слова получаются суммированием базовых слов в различных сочетаниях: Ч = *1 + *2 = 010101; *в'=*1+*з= 1Ю110; х1 = л:2 + х3 = 100011; Xq = х-^ -(- Хч -{- х3 = 011011. Этот код обеспечивает dmm = 3, так как все ненулевые разрешенные слова имеют вес не менее dmm. Однако если выбрать базовые слова 000111, 111000, 011110, удо¬ влетворяющие всем пяти требованиям, то получим коды с dmm= 2. Действительно, сложив все три числа, получим 100001 с dmm= 2. Дело в том, что минимальное рас¬ стояние в подмножестве разрешенных слов равно минимальному весу: ^мин = умин» так как в состав разрешенных слов входит нуль, и, кроме того, при сложении двух базовых слов хг и х2 получается третье х3 с единицами, стоящими на тех разрядах, в которых цифры не совпадают. Так как операции сложения в групповых кодах осуществляются поразрядно, то можно произвольно перемещать столбцы производя¬ щей матрицы. При этом свойства кода (избыточность и корректирую¬ щие способности) не меняются, хотя разрешенные кодовые слова будут другими. Поэтому всегда можно сосредоточить информационные сим¬ волы в первых п0 позициях, а проверочные — в последних п пози¬ циях. Эта возможность используется для записи производящей мат¬ рицы в каноническом виде. Такая матрица состоит из квадратной единичной матрицы ранга я0, соответствующей неизбыточному коду длиной п0. Она составляет левую подматрицу производящей матрицы. Справа от нее пишутся k столбцов проверочных символов. 203
Таким образом, производящую матрицу для кода п0) можно записать в следующем каноническом виде: 1 0 0 .. .. 0 Cli . • • cik 0 1 0 .. 0 C2i . • • Сгк 0 0 0 .. 1 с По 1 • • • Спок где Cij — коэффициенты в линейной форме, с помощью которых из информационного символа получается контрольный, т. е. хъ х2, хПа, F1(x), F2(x), Fk(x); По Fi (х) = 2 cjtXj. j = i Нетрудно из производящей матрицы канонического вида полу» чить проверочную или контрольную матрицу С11 С\2 . .. Cik С По 1 Сно2 • • ■ C^k —1 0 . о 0 —1 . .. 0 0 0 . .. —1 Корректирующий код (п, п0, d) будет построен, если будет найдена соот¬ ветствующая матрица || ||. Очевидно, если базисные кодовые слова выбраны правильно, то, представив производящую матрицу в кано¬ ническом виде, получим полное решение задачи. Пример 8-4. Для кода, рассмотренного в примере 8-3, матрица для которого определяется формулой (8-3), получим: Сц = 0; с12 “ 1 > ^13=== ^» ^21 = ^ > ^22 = 1 > ^23 ^ » С31 = 1» с32 = С33 = Нетрудно убедиться, что здесь правило составления корректирующих символов удовлетворяется: *!= 100011; *5 = *1 + *2 = 1.10100; *2 = 010111; *б = *1-(-*з= 101110; *з = 001101; *? = *2+ *з = 011010; *4 = 000000; *8 = *1+*2. + *з= 111001. Для х8 в первом корректирующем символе имеем: 0 = 1*0+ Ы + 1 • 1, во втором 0 = 1*1+ 1-1 + 1*0, в третьем 1 = Ы + 1 • 1 + 1*1. Напомним, что в соответ¬ ствии с формулой п0 fi/ = Ff М = 2 СЧ Xi i = 1 суммирование производится по первому индексу с/у. 204
Рассмотрим с общих позиций построение групповых корректирую¬ щих двоичных кодов. Обозначим любое кодовое слово на входе линии , . . , OS/, . . . , QS/z0> Pl> * • •> • • •> на выходе линии аЪ • • • у &i> • • • » 0&/i0, Pl> • • • у Ру* • • • > Р/г> где ос/ — информационные, Ру — контрольные символы. Вектор шума представим в виде е (<?ъ • • •» £/> . • •, &п0, s1, ... , Sjt ..., S/j). Тогда ai = ai+ei\ рJ = рJ +Sj= f] djO.1 + Sj. (8-6) i= 1 На приемном конце линии связи вычислим проверочные символы по информационным По р ? = (8‘7) £ = 1 Нетрудно убедиться, что контрольное число (или синдром) г;- = Ру — Ру = (а+Р)уу, (8-8) где уу определяется в соответствии с формулой w =|Ы- Контрольное число г должно указывать позицию, на которой произо¬ шел сбой. Если подставить в равенство (8-8) соответствующие выра¬ жения (8-6) и (8-7) для Р/ и а/, получим: По Zj = ^ j С/у£/ Sj. (^"^) i= 1 Отсюда следует, что синдром не зависит от комбинаций кода и определяется только вектором шума. Нетрудно убедиться, что все элементы синдрома равны нулю тогда и только тогда, когда принятая комбинация совпадает с одной из комбинаций кода. Действительно, если Zj = 0, то из выражения (8-9) следует, что По s/= 2 cUei> (8-10) i = I т. е. эта шумовая комбинация совпадает с одной из комбинаций кода, поэтому принятая комбинация принадлежит коду. Если в векторе помехи е только одна компонента еь в информационной части отлична от нуля, то Zj С/у, j 1, 2, ..., k. 205
Наконец, если ошибка происходит только в одном из контрольных разрядов, то z1 = 0] ...; zj-i = 0; Zj = — Sj; zj+1 = 0; zk = 0; в частности, если элемент ошибки совпадает с обратным едйнице эле¬ ментом Sj = —1, то Z\ = 0, ..., zj—\ш==- 0, Zj ~==-1, zj0, ..., Zfo 0. (8-11) Обратные элементы необходимо вводить для ошибки даже в случае двоичного кода, чтобы получить формальный математический аппа¬ рат, причем условно считается, что в труппе кодов 1 = —1. Соотношение (8-11) указывает на то, что номер позиции контроль¬ ного числа, на которой располагается отличный от нуля элемент, сов¬ падает с номером искаженного проверочного символа в случае, когда происходит однократная ошибка в контрольных символах. Отсюда не трудно получить правила составления элементов контрольной матрицы W [формула (8-5)]. Первые п0 строк этой матрицы опреде¬ ляют контрольные числа, соответствующие изменению на +1 i-го ин¬ формационного символа, а последние k строк определяют контроль¬ ные числа, соответствующие изменению на ту же величину /-го про¬ верочного символа. Это при однократных ошибках. Так как для вы¬ числения /-го элемента синдрома используются линейные операции, то контрольное число, которое соответствует многократным ошибкам, может быть найдено в виде линейной комбинации строк контроль¬ ной матрицы. Из матрицы W видно, что при умножении искажен¬ ного вектора х' на каждый ее столбец происходит проверка правиль¬ ности линейной связи /-го контрольного символа со всеми инфор¬ мационными символами. Например, если произошел сбой на г-й позиции информационных символов и все Cij (/ = 1, 2, ..., k) от¬ личны от нуля, т. е. эта позиция участвует во всех проверках, то во всех разрядах контрольного числа появится единица (при единич¬ ной ошибке). Действительно, можно доказать следующее положение. Если найдена линейная комбинация>строк матрицы W, совпадающая с вычисленным контрольным числом, то номера этих строк совпадут с номерами искаженных позиций, а коэффициенты, с которыми они складывались, определят, как искажен символ на соответствующей позиции. Для исправления искаженных позиций необходимо найти элемент, противоположный каждому из указанных коэффициентов, и прибавить к соответствующему символу принятой комбинации. Оче¬ видно, что одно и то же корректирующее число может быть получено- в результате различных линейных комбинаций строк матрицы W. Поэтому в общем случае задача отыскания ошибки неоднозначна. Задача определения множества ошибок, которое корректируется данным кодом, в настоящее время не решена. Однако ясно, что мно¬ жество шумовых комбинаций будет корректироваться данным кодом, если ошибкам, вызываемым в кодовой комбинации, будет соответст¬ вовать свое, отличное от нуля, контрольное число. Для этого шумовая комбинация er (г = 1, 2, ..., 2,{ — 1) не должна совпадать ни с одной из комбинаций данного кода, так же как и разность любых векторов 206
ег и е5. Необходимость первого условия следует из доказательства, связанного с отношением (8-10). Теперь докажем, что если разность двух векторов ошибок не обра¬ зует комбинацию кода, то разным ошибкам, порождаемым разными шумовыми комбинациями, соответствуют разные синдромы. Пусть имеются два вектора шума Соответствующие синдромы, как следует из формулы (8-9), опреде¬ ляются соотношениями: поэтому синдромы (8-12) и (8-13) не будут совпадать, если среди эле¬ ментов числа (8-15) хотя бы один отличен от нуля. Нетрудно убедиться, что правая часть соотношения (8-14) не обращается в нуль, так как по условию разность векторов ошибки не принадлежит коду. Отсюда можно утверждать, что каждое контрольное число может быть полу¬ чено в результате 2п° искажений символов кодовой комбинации. Действительно, если помехе е± соответствует некоторый синдром, тот же самый синдром соответствует помехе е2, для которой где х2 — произвольная комбинация кода. Но, как уже указывалось, вектор х2 (при фиксированном ех) может принимать 2п° комбинаций (контрольные символы определяются информационными). Таким обра¬ зом, имеется 2п°-я неоднозначность, которую следует ликвидировать. Для этого с помощью соотношения (8-16) однозначно разбивают мно¬ жество всех n-значных комбинаций на 2к непересекающихся подмно¬ жеств, каждому из которых соответствует свое контрольное число. Причем одно из этих подмножеств совпадает с кодовым словом и соот¬ ветствует нулевому синдрому. Эти подмножества обладают всеми причем разность их (8-12) i = 1 (8-13) Zy 2 Cifii €п0 + J, (8-14) i = 1 где / = 1, 2, ..., k. Из этих формул следует, что (8-15) (8-16) 207
свойствами так называемых классов смежности. Из общей алгебры известно, что группу можно разбить на классы смежности, которые совпадают или не содержат ни одного общего элемента.. В каждом смежном классе насчитывается 2п° элементов, а всего классов, не считая класс, соответствующий нулевому коду, 2k — 1. Это значит, что 2к — 1 классов смежности или (2п°)2/г_1 кодовых комбинаций запрещено. Все это позволяет по-иному сформулировать ранее встречавшееся утверж¬ дение: множество шумовых комбинаций (имеется в виду искаженная шумом кодовая комбинация) корректируется данным кодом, если каждая из комбинаций принадлежит разным классам смежности. Процесс исправления ошибок происходит следующим образом. На приемном конце линии связи выписываются контрольные числа и соответствующие им искаженные комбинации (составляющие опреде¬ ленный класс смежности). При этом каждому синдрому ставится в со¬ ответствие только одна помеха. По принятому числу вычисляется конт¬ рольное число, которое с помощью специально составленных таблиц позволяет исправить код. Пример 8-5. Рассмотрим [JI. 57] семизначный двоичный код ХЪ X2i X3i Xl~\~X2t Х2~\г Х3> Xl~\~ X2~\~ X3> х\~\~х3‘ (8-17) Составим код с dmm= 4. Отведем для контрольного числа четыре позиции, т. е. на одну больше, чем требуется для семизначного кода Хэмминга. Опять путем подбора и догадки выбираем базовую систему кодов в виде :1001011; ) х1~ Х2 “ *3 = =0101110; =0010111. (8-18) Нетрудно убедиться, что эта база удовлетворяет всем пяти условиям (8-4). С помощью формул (8-17) получаем еще четыре кодовые комбинации, которые вместе с нулевым кодовым словом составляют нулевой класс смежности, состоящий из разрешенных кодовых комбинаций. Справа в соотношениях (8-18) стоит' производящая матрица канонического вида. Поэтому подматрица, составленная из четырех последних столбцов с добавлением единичной квадратной матрицы, составит контрольную матрицу, которая запишется в виде 1011 1110 0111 W= 1000 . (8-19) 0100 0010 0001 Первый класс смежности получается прибавлением к первой кодовой комбина¬ ции всех кодовых слов нулевого класса. Первая кодовая комбинация этого класса совпадает с кодом, помехи е = 1000000 искажающей первый символ. Второй класс смежности получается аналогичным образом с помощью помехи е= 0100000 и соответствует контрольному числу, составленному из второй строки контрольной матрицы. Таким образом получаются все классы до седьмого вклю¬ чительно. Классы смежности с восьмого по четырнадцатый соответствуют двукрат¬ ной ошибке. Так, 11-й класс смежности соответствует ошибке е = 0001100.. Его контрольное число 1100 получается в результате сложения четвертой и пятой строк контрольной матрицы. Заметим, что то же самое контрольное число 208
может быть получено в результате сложения первой и последней строк контрольной матрицы, что соответствует ошибке е = 1000001. Таким образом, в части обнаруже¬ ния и исправления двукратных ошибок корректирующий код не является одно¬ значным. 15-й класс смежности соответствует трехкратной ошибке вида е = 0001101. В результате получаем корректирующий код, исправляющий семь одиночных, семь двукратных и одну трехкратную ошибку, причем следует иметь в виду, что допускается любая одиночная ошибка, семь двукратных и только одна трехкратная. Результаты построения кода сведены в табл. 8-6. Таблица 8-6 № класса 0 ' 1 2 3 4 5 6 | 7 Кон¬ трольное число 0000 1011 1110 0111 1000 0100 0010 0001 Класс смеж¬ ности 0000000 0010111 0101110 0111001 1001011 1011100 1100101 1110010 10000000 1010111 1101110 1111001 0001011 0011100 0100101 0110010 0100000 0110111 0001110 0011001 1101011 1111100 1000.101 1010010 0010000 0000111 0111110 0101001 1011011 1001100 1110101 1100010 0001000 0011111 0100110 0110001 1000011 1010100 1101101 1111010 0000100 0010011 0101010 0111101 1001111 1011000 1100001 1110110 0000010 0010101 0101100 0111011 1001001 1011110 1100111 1110000 0000001 0010110 0101111 0111000 1001010 1011101 1100100 1110011 № класса 8 9 10 и 12 13 14 | 15 Кон¬ трольное число 0101 1001 1111 1100 0110 ООП 1010 1101 Класс смеж¬ ности 1100000 1110111 1001110 1011001 0101011 0111100 0000101 0010010 0110000 0100111 0011110 0001001 1111011 1101100 1010101 1000010 0011000 0001111 0110110 0100001 1010011 1000100 1111101 1101010 0001100 0011011 0100010 0110101 1000111 1010000 1101001 1111110 0000110 0010001 0101000 0111111 1001101 1011010 1100011 1110100 0000011 0010100 0101101 0111010 1001000 1011111 1100110 1110001 0001010 0011101 0100100 0110011 1000001 1010110 1101111 1111000 0001101 0011010 0100011 0110100 1000110 1010001 1101000 1111111 Глава девятая НЕКОТОРЫЕ ВОПРОСЫ ОБРАБОТКИ ИНФОРМАЦИИ С ПОМОЩЬЮ ЦВМ Широкое использование ЦВМ для хранения, поиска и обработки информации, содержащейся в бумажных документах, заставило прин¬ ципиально изменить подход к информационной проблеме, сформиро¬ вавшейся в теории связи. Перезапись информации с привычных для человека бумажных носителей на магнитные (ленты, барабаны, диски, магнитное опера¬ тивное запоминающее устройство ЦВМ) привела к разработке новых методов ее представления и переработки. 209
Несколько упрощая, можно считать, что машинные методы обра¬ ботки информации разрабатывались параллельно двумя путями: по линии информационно-поисковых систем (ИПС) библиотечного типа й по линии АСУ. Большая часть разрабатываемых проблем оказалась общей: представление и хранение информации на машинных носи¬ телях, поиск информации, обработка и преобразование информации. Дополнительно в АСУ возникают проблемы создания и моделирования на ЦВМ информационной модели предприятия, в частности схемы документооборота. Хотя в области машинной обработки информации и не создано таких фундаментальных теорий, как теория информации Шеннона в системах связи, и большинство разработок носит прикладной, инже¬ нерный характер, определенные концепции в части той информации, которая нужна кибернетике, сформировались и создают у инженера- кибернетика нужную точку зрения. Цель настоящей главы — позна¬ комить с общей идеологией обработки информации с помощью ЦВМ, не вдаваясь в технические подробности, с тем чтобы в какой-то мере нейтрализовать то одностороннее впечатление, которое сформирова¬ лось после чтения предыдущих глав по теории информации. 9-1. ПОНЯТИЕ ТЕЗАУРУСА ИНФОРМАЦИОННОЙ СИСТЕМЫ Одним из основных новых понятий, появившихся в результате разработки машинных методов обработки информации, в частности при переводе с одного языка на другой, поиска научно-технической информации и создания информационной модели предприятия в АСУ, явилось понятие тезауруса информационной системы [Л. 15]. Термин «тезаурус» (его можно переводить как накопитель сокровищ), так же как и информация (в широком смысле этого слова), трудно поддается четкому определению. Его энциклопедическое толкование подразу¬ мевает совокупность знаний о внешнем мире — это так называемый тезаурус мира Г0. Все понятия внешнего мира, выраженные с помощью естественного языка, составляют тезаурус Rlt из которого можно выде¬ лить частные тезаурусы путем иерархического деления с учетом со¬ подчинения отдельных понятий (микромира, макромира) или путем выделения частей общего тезауруса мира. В последнем случае появ¬ ляются тезаурусы наук THt (кибернетики й т. д.), технические тезау¬ русы TTj (машиностроительного предприятия, химического предприя¬ тия и т. д.) и научно-технические тезаурусы THTk (электротехниче¬ ский, радиотехнический и т. д.). Последние иногда именуются отрас¬ левыми тезаурусами. Наконец, встречаются еще тезаурусы проблем¬ ные ТП1 (плазменных энергетических установок, управления наслед¬ ственностью и т. д.). Для того чтобы ЦВМ могла работать с конкрет¬ ным частным тезаурусом, он должен быть строго оформлен, жела¬ тельно сразу на машинно-ориентированном документе, с которого непосредственно можно производить загрузку перфокарт или перфо¬ лент. Простейшим способом тезаурус может быть оформлен в виде лийейного списка (табл. 9-1). 210
Таблица 9-1 А'» п/п. Шифр Дескрипторы 1 001 Кинетика реакторов 2 010. Опасность, связанная с работой реакторов 3 011 Параметры решеток реакторов 4 100 Реакторные материалы Такая таблица редко называется тезаурусом, так как она пред¬ ставляет* собой просто список ключевых терминов иди предметных рубрик без их раскрытия (подрубрик). Это — одноуровневый список. Практическое значение имеют многоуровневые списки предметных рубрик, или многоуровневые тезаурусы. В табл. 9-2 приведен не¬ сколько видоизмененный фрагмент знаменитого тезауруса ASTIA [Л. 60]. Здесь уже включены смысловые отношения между дескрипто¬ рами «видовой к», «родовой к», «см.», «см. также», определяющие структуру тезауруса. Не вдаваясь в подробности составления данного тезауруса, отметим только, что он подчинен правилам, составляющим синтаксис и семантику тезауруса. В нем явно присутствует не¬ сколько иерархических уровней, соподчинение между которыми строго определено. Этот тезаурус носит отпечаток информационно-поиско¬ вой службы. В нем выделены соответственно рубрики: «Кинетика реакторов», «Опасность, связанная с работой реакторов» и т. д. и группы слов, подчиненные рубрикам: «Цепные реакции» и т. д., которые называются дескрипторами (описателями). Важно обратить внимание на число дескриптивных уровней, которое определяет се¬ мантическую силу тезауруса. Таблица 9-2 Ко п/п. Шифр Дескрипторы 1 0001 Кинетика реакторов (техника ядерных реакторов) включает: 2 0010 Цепные реакции видовой к: 3 ООП Работа реакторов (см. также) 4 0100 Теория реакторов 5 0101 Управление реакторами 6 0110 Опасность, связанная с работой реакторов Тезаурус отличается от простого списка слов или фраз (дескрип¬ торов) — словаря наличием иерархических связей между фразами (синтаксисом и семантикой). Геометрически любой тезаурус можно представить в виде древо¬ видного графа со многими начальными вершинами — источниками (рис. 9-1). На верхнем уровне расположены дескрипторы нулевого уров¬ ня, на других— дескрипторы низших уровней. Каждому дескриптору нулевого уровня в тезаурусе соответствует дерево дескрипторов, 211
которое иногда называется в информационно-поисковых системах рабочей ветвью или рабочим кустом тезауруса. В последнее время вне¬ дряется более удачный термин «синдром», означающий совокупность признаков. Каждый синдром дает расшифровку дескриптора нулевого уровня, причем чем больше уровней, тем более точно раскрывается смысл дескриптора нулевого уровня. Раскрытие смысла невозможно без указания его связей с другими дескрипторами. На рис. 9-1 эта связь указана общими дескрипторами (зачерненными вершинами). Следует сразу- заметить, что разделение на дескрипторы нулевого и ненуле¬ вого уровня носит в известном смысле условный характер. В зависи¬ мости от условий конкретного информационного поиска в качестве нулевого уровня могут фигурировать дескрипторы первого или вто- ««•••• е • Рис. 9-1. Граф тезауруса. рого уровня. Так, в случае рис. 9-2 может появиться запрос о всех полупроводниках с р-п-р переходами, тогда нулевым уровнем' станет первый уровень дескрипторов и т. д. В этом проявляется очень важ¬ ное свойство тезаурусов ИПС, часто называемое многоаспектностью. При машинной обработке информации семантика того или иного термина задается в виде дерева (рис. 9-2). Чем больше дескриптивных уровней, тем более точно раскрывается смысл термина. Машина, опе¬ рирующая с кодами (шифрами) дескрипторов, «понимает» смысл тер¬ мина только с помощью его рабочей ветви. При машинной обработке информации очень часто встает вопрос об идентификации кода с дескрипторами нулевого уровня. Дело в том, что в машине вы¬ числяются новые документы, новые термины по уже известным и требуется в конце отождествить (идентифицировать) код с образом, (дескриптором нулевого уровня). Машина это может сделать только сравнением рабочих кустов тезауруса, что по существу происходит при сравнении дескрипторов соответствующих уровней. В результате путем разработки тезауруса с дескрипторами и ра¬ бочими ветвями в инженерной практике была решена проблема се¬ мантики информации, обрабатываемой ЦВМ. Составление тезауруса — трудоемкая задача. Как правило, отраслевые тезаурусы содержат много тысяч дескрипторов, и на их составление уходят годы работы коллектива численностью несколько сотен человек. Сложность тезау- 212
руса резко возрастает с увеличением числа дескриптивных уровней. При малом числе уровней возрастают ошибки идентификации (поиска). Так, при использовании рабочих кустов «полупроводник — электрон¬ ное устройство» и «радиолампа — электронное устройство» машина не сможет различить исходные термины, так как они совпадают, поэтому необходимо задать следующие уровни. Заметим, что в обычной, немашинной практике установления смысла, семантики терминов по существу также работает изложенная выше машинная схема. Путем длительного процесса обучения в памяти человека форми¬ руется его тезаурус мира, а если он осваивает какую-нибудь профес¬ сию, то профессиональный тезаурус. Большим подспорьем для специа¬ листа является тезаурус, сосредоточенный в его личной библиотеке, библиотеке предприятия и т. д. Инженер, имеющий дело с электро¬ никой, должен помнить, например, весь куст тезауруса (рис. 9-2), соответствующий ключевому слову «полупроводник», в том числе расположение его выводов, усиления и т. д. Однако, если спросить неспециалиста, что такое полупроводник, он с трудом назовет дескрип¬ торы из сферы применения и этим ограничится, т. е. его семантическое понимание полупроводника ограниченно. Создание в ЦВМ модели смыслового понимания информации с по¬ мощью тезауруса является крупным достижением кибернетики и ана¬ логично естественному накоплению знаний, веками используемому в человеческом обществе. Тезаурусы человека строго не оформлены и не имеют четких син¬ таксиса и семантики, как в информационно-поисковых и других машин¬ ных системах; можно сказать, что у каждого человека своя система организации тезауруса. Но книги, в особенности технические, а также единый процесс обучения обеспечивают большое сходство организации тезаурусов у всех образованных людей. Определенная самобытность 213
в организации тезаурусов создает предпосылки для творческой сво¬ боды и творческого многообразия, необходимые для развития интел¬ лекта. Однако с внедрением машинных методов" обработки информации и обучения человеку все чаще и чаще придется переходить на обще¬ принятый машинный стандарт тезауруса. Упомянутые выше свободы будут отодвигаться в высшие сферы деятельности человеческого ин¬ теллекта. Уже из приведенной трактовки видно, что информационные теза¬ урусы в кибернетике несколько отличаются от традиционного их толкования, сложившегося в области информационного поиска. Ки¬ бернетики, взяв идею тезауруса из теории ИПС библиотечного типа, подвергли ее существенной переработке, особенно для АСУ. Надо заметить, что технический тезаурус предприятия при разработке АСУ значительно меньше по объему, чем библиотечный, и может насчи¬ тывать в зависимости от номенклатуры применяемых и изготовляемых изделий от сотен до нескольких тысяч дескрипторов.. Но, как пра¬ вило, число дескриптивных уровней должно быть большим и насчи¬ тывать десять и более уровней. 9-2. МОДЕЛЬ ПЕРЕДАЧИ ИНФОРМАЦИИ, ИСПОЛЬЗУЮЩАЯ ТЕЗАУРУСЫ Для исследования процесса обработки информации с помощью ЦВМ можно использовать структурную схему, показанную на рис. 5-1. В зависимости от направленности диалога человек — машина в роли источника информации выступает последовательно то человек, то машина. При загрузке информации в ЦВМ источником информации выступает человек: Функции передатчика, канала связи и приемника выполняет комплекс устройств ввода и других машинных средств, участвующих в процессе переноса информации от человека к устрош ству внешней памяти — магнитной ленте, барабану или диску. Основной помехой являются ошибки перфорации. При использовании ЦВМ и машинного банка данных в качестве информационно-справочной системы источником информации выступает банк данных. При этом модель в вид'е структурной схемы, приведенной на рис. 5-Л, малопригодна, так как часто требуется правильно пере¬ дать смысловое содержание информации, а не ее код. Поэтому более правильное представление о процессе обмена информацией в любых системах дает блок-схема на рис. 9-3, в которой используются тезау¬ 214
русы источника информации и адресата. Эта схема одинаково при¬ годна для описания процесса передачи информации в системах чело¬ век — человек, человек — машина, машина — человек. Прежде всего для нормальной передачи семантической информации необходимо, чтобы тезаурусы источника информации и адресата пересекались. Математически тезаурус можно представить в виде множества эле¬ ментов или графа. Пересечение двух тезаурусов означает пересечение множеств этих тезаурусов, т. е. наличие общих элементов (вершин или ребер графа) (рис. 9-4). ' Для простоты рассмотрим с этих позиций обмен информацией в си¬ стеме человек — человек. Допустим, специалист по электронике хочет объяснить с помощью видеотелефона неспециалисту, что такое полу¬ проводник. В этом случае тезаурусы источника информации и адре¬ сата не пересекаются (рис. 9-4, а). Какие бы совершенные системы кодирования, передатчики, линии связи и приемники ни использо¬ вались, передачи семантической информации не будет или она будет а) 5) Рис. 9-4. Условия передачи семантической информации. ничтожно мала. Когда же передача семантической информации про¬ исходит между специалистами одного профиля (рис. 9-4, б), тезаурусы источника информации и адресата практически совпадают. Если следовать точке зрения Шеннона, то при совпадении тезауру¬ сов никакой передачи информации быть не может, так как требуется так называемый элемент новизны или расширения тезауруса. Однако в инженерной практике и практике общения между людьми такая концепция часто не подтверждается. Действительно, при обмене ин¬ формацией между специалистами они тем быстрее поймут друг друга, чем больше совпадают их тезаурусы знаний в данной области. Усвое¬ ние информации одним собеседником будет даже быстрее, если его тезаурус знаний больше, а тезаурус его собеседника составляет его часть. Однако следует признать, что в данном примере проис¬ ходит пополнение, расширение тезауруса данных. В результате таких рассуждений мы приходим к концепции двух тезаурусов у человека и машины: тезаурусу знаний и тезаурусу дан¬ ных. Оба тезауруса не всегда резко разделены, и имеется небольшой процент их перекрытия. Но разделение всегда имеет место. Напри¬ мер, если человек получает какую-то информацию, то, чтобы в ней разобраться, понять ее, он должен привлечь свой тезаурус знаний. Когда специалисту по электронной технике приходят сведения и циф¬ ровые данные по ядерной технике, соответствующий тезаурус знаний пуст или беден для того чтобы принять эту информацию. Следует 215
заметить, что некоторое аналогичное разделение наблюдается в про¬ блемно-ориентированных языках типа КОБОЛ для автоматизации программирования задач по обработке данных на ЦВМ, в котором имеется описание данных и сами данные, хранимые на разных магнит¬ ных лентах. 9-3. ИНФОРМАЦИОННО-ПОИСКОВЫЕ СИСТЕМЫ В настоящее время по функциональному назначению информа¬ ционно-поисковые системы можно разделить [Л. 60—62] на следующие типы: ИПС для науки (обеспечивает разработчиков максимально доступ¬ ной информацией). ИПС для промышленности (контролирует производственные про¬ цессы и организует учет и автоматизацию методов обработки инфор¬ мации). ИПС для руководства промышленными предприятиями, транспор¬ том и торговлей (помогает руководителям находить эффективные ре¬ шения). ИПС для военных целей (предназначена для оперативной обра¬ ботки входной информации. Например, автоматизированные системы управления средствами ПВО). ИПС для библиотек (осуществляет отбор и приобретение книг по¬ средством системы каталогов, соответствующей темпу обновления фонда). ИПС для медицинских учреждений (создает систему прогнозирова¬ ния, реализующую принципы машинной диагностики заболеваний). Перечисленные сферы применения информационно-поисковых си¬ стем дают представление о многообразии предъявляемых к ним функ¬ циональных требований и позволяют разделить их на два класса: 1) фактографические системы, осуществляющие поиск значений дан¬ ных (фактов) в ответ на запрос и 2) документальные системы, осуще¬ ствляющие поиск документов, рассматриваемых как неделимое целое и выдачу их абоненту. Для отыскания в массиве определенного элемента информации необходимо сформулировать на некотором языке (обычно специфично сокращенном естественном языке) что именно нужно узнать, в каких записях и массивах это может быть найдено. Затем происходит срав¬ нение требований абонента с хранящейся информацией и, наконец, извлечение информации. При составлении запроса на информацию, хранящуюся в документах массива, могут быть произведены две раз¬ личные операции. Одна из них определяет, содержит ли хранящийся документ данные того типа, который определен запросом (типично для фактографических систем), другая операция определяет степень реле¬ вантности документов, т. е. соответствия подученного документа за¬ прошенному (типично для документальных'систем). Для эффективного выполнения поиска термины индексирования темы документа или запроса, составляющие содержание информаци¬ онно-поискового языка (ИПЯ), должны быть контролируемы. Для осуществления такого контроля создается некоторый нормативный 216
список или контролируемый словарь терминологии. Индексация до¬ кументов происходит в соответствии с их предметным содержанием с помощью словаря терминов, т. е. создается поисковый образ или краткое описание содержания документа. Существует несколько разновидностей построения ИПЯ. В языках иерархической классификации в основе лежит пред¬ положение, что темы поиска могут быть подразделены на некоторые более конкретные вопросы.и этот процесс может быть повторен иерар¬ хически несколько раз, пока не будет создана структура, в данном слу¬ чае иерархия, охватывающая область всех тем, с. которыми будет работать система. Это фиксированное множество дескрипторов (рубрик), которые соответствуют допустимым темам, что очень удобно при поль¬ зовании ими. В качестве примера иерархической классификации можно назвать универсальную десятичную классификацию (УДК). В системах предметных заголовков, как правило, ИПЯ исполь¬ зуется для описания уже имеющейся, а не ожидаемой в будущем инфор¬ мации (см. табл. 9-1). Типичными представителями этого класса яв¬ ляются каталоги литературы по заголовкам: математика, автоматика, машиностроение и т. д. Словарный состав языка предметных заголов¬ ков обычно состоит из терминов и фраз естественного языка. Предмет¬ ные заголовки для удобства потребителей иногда располагаются в алфавитном порядке. В этом языке путем подразделения уже имею¬ щихся предметных заголовков может быть создано некоторое подобие иерархической структуры. Это упрощает разработку ИПЯ, однако отсутствие структуры затрудняет его машинное использование. При¬ меры использования языка достаточно часто встречаются в каталогах малых библиотек. Характерная особенность описанных выше языков состоит в том, что число понятий, которые могут быть с их помощью образованы, за¬ ранее фиксировано. Так как иерархически связанный термин вклю¬ чает в себя все вышестоящие термины, уже невозможно изменить его значение или придать ему другой оттенок. Языковые системы, имею¬ щие такую структуру, часто называются «предкоординированными системами», т. е. термины должны быть заранее «скоординиро¬ ваны». В словарных составах «предкоординированных» систем должны оставаться пробелы для описания предметных областей. Это имеет особое значение для библиотек научной литературы, в которые по¬ стоянно вводятся новые понятия. Для таких систем разработаны ИПЯ, позволяющие использовать несколько дескрипторов для поис¬ кового образа. Такое индексирование обычно называется индексиро¬ ванием ключевыми словами или координатным индексированием (соответственно используется термин дескрипторный ИПЯ). Харак¬ терной особенностью этих языков является использование большого количества дескрипторов на каждый поисковый образ для описания как можно большего числа аспектов документа. Здесь исходные термины (ключевые слова) словаря не влияют друг на друга. Отдельные тер¬ мины «техника» и «ракета» не означают понятия «ракетная техника». Для его образования необходимо ввести некоторую «связку» понятий 217
«техника» — «ракета»; скоординировать их отношение. Отсутствие структурных связей между ключевыми словами дает возможность включать или исключать их из словарного состава. Это делает языки легко приспосабливаемыми к изменениям охватываемых ими предмет¬ ных областей. Из-за функциональной особенности языков индекси¬ рования ключевыми словами, состоящей в том, что выражение поиско¬ вого образа осуществляется посредством использования комбинаций классов (понятий) и установления отношения (координации) между ними, не заложенными заранее в систему словаря, они называются «посткоординируемыми». Один из языков такого типа, который назы¬ вают языком ключевых слов с фиксированным словарным составом, лишь незначительно отличается от языка предметных заголовков. Главное отличие ИПЯ ключевых слов от ИПЯ предметных за¬ головков заключается в том, что ключевые слова обычно короче предметных заголовков (как правило, это единичные слова), а также в том, что объем полного словарного состава (возможных обра¬ зованных терминов) значительно больше. Несмотря на практическое отсутствие синтаксиса языки ключевых слов выполняют свое назна¬ чение, так как их легче приспосабливать к изменениям описываемых предметов, когда название предмета точно не совпадает с предметным заголовком. Примером такого языка является язык известного теза¬ уруса ASTIA (см. табл. 9-2). Иногда индексация документа происходит по тем же словам, кото¬ рые использовал автор, а не по какому-то множеству предварительно отобранных слов (нормативному словарю), приблизительно синонимич¬ ных желаемым словам. Эти ИПЯ называются языками со свободным словарным составом или со свободной системой ключевых слов. Для ИПЯ с наиболее развитым синтаксисом различные дескрип¬ торы изменяют значение друг друга. Одним из простейших примеров такого синтаксиса является команда вычислительной машины. Пер¬ вая часть команды — операция, вторая—адрес операции. Оба дес¬ криптора (команда и адрес) выражаются с помощью элементов одного и того же словарного состава — чисел. Однако благодаря приданию различным позициям чисел' различных значений создается язык, обладающий большой гибкостью. Такой способ позволяет использо¬ вать контекст для устранения многозначности в искусственных язы¬ ках подобно тому, как это делается в естественном языке. Например, понятие «лук, оружие» отлично от понятия «лук, растение». Первое понятие в этих двух примерах интерпретируется так, как подсказы¬ вает более общее второе понятие. Различные роли, которые играют дескрипторы в таких языках, называются фасетами. Соответст¬ венно язык называется языком фасет н ого индекси¬ рования, представляющим подкласс ИПЯ с синтаксисом. В фа- сетном индексирующем термине каждый фасет играет точно опреде¬ ленную синтаксическую роль, что позволяет легко разложить термин на составляющие дескрипторы. Поисковое предписание или запрос представляет собой форму связи, с помощью которой потребитель запрашивает хранилище информации. Авторы создают документы и передают их 218
специалистам, где они индексируются в соответствии с некоторой схе¬ мой кодирования. Процесс формулирования интересов потребителя в виде поискового предписания аналогичен процессу индексирования й составления поискового образа. "Вопрос сопоставления запроса и поискового образа переходит в вопрос разработки некоторого синтаксиса‘поисковых предписаний, устанавливающего логические связки между терминами поискового предписания и необходимые соотношения между значениями термина в поисковом предписании и в поисковом образе. Можно привести следующий пример синтаксических правил поискового запроса: 1. Роль связки между терминами поискового предписания могут играть операторы «И», «ИЛИ», «НЕ». 2. Термин поискового предписания может быть «равен», «не равен», «шире» или «уже» термина поискового образа. 3. Если поисковый образ состоит из фасетов, то правила для фасе¬ тов применимы и к поисковому предписанию. В том и другом случае это — логическое объединение (фасет) терминов. Функция сопоставления запрос-ответ не обязательно является двоичной функцией решения (ДА-НЕТ), которая обеспечивает четкое различие между совпадающими и не совпадающими с запросом поиско¬ выми образами, что типично для фактографических систем. В общем случае эта мера совпадения называется релевантностью поискового образа запросу. Для выдачи абоненту того или иного поискового об¬ раза на основании его релевантности требуется функция решения. Эта функция в конкретных случаях принимает различные формы. От¬ вет на вопрос считается правильным, если значение функции реле¬ вантности превышает некоторое пороговое значение. В простейших случаях вычисления функции релевантности под¬ разумевается присутствие некоторой меры информативности индек¬ сирующих терминов. Очень часто поисковый образ и поисковое пред¬ писание представляются некоторыми векторами в предметном про¬ странстве с координатами, равными «информативности» отдельных тер¬ минов. В таких случаях в качестве меры релевантности используется взаимная ориентация векторов, в частности их скалярное произведение. 9-4. ПРЕДСТАВЛЕНИЯ ДАННЫХ НА МАШИННЫХ НОСИТЕЛЯХ Решая задачи, ЦВМ имеет дело с представлением информации в виде множеств символов. Такое представление является одной из форм кодирования. В системах связи применяется несколько уровней кодирования. В естественном языке буквы, слова и предложения яв¬ ляются последовательными уровнями кодирования. При передаче сообщения в линиях связи составляются из двоичных знаков (битов) и т. д. В системе обработки данных в качестве базового (нижнего) уровня принимается поле данных, состоящее из символов, имеющих определенное значение. Значением поля данных может быть слово естественного языка, а также число или код." В дальнейшем термины 219
«слово» и «поле» данного будем считать равнозначными [Л. 63—651. Запись или фраза представляет собой набор полей, описывающий некоторый отдельный объект или класс объектов. Объединение запи¬ сей по определенному структурному закону образует массив, понятие, характеризующиеся более высоким уровнем абстракции. В науке, занимающейся вопросами обработки данных, нет общего названия, которое можно было бы использовать для обозначения еще более вы¬ сокого уровня абстракции в организации информации. Этот уровень соответствует набору массивов. а) Организация массивов информации Организация массива информации характеризуется содержащи¬ мися в нем данными, размещением записей, видом хранящего записи носителя. Известно много методов организации массивов. Основные различия между ними заключаются в способе размещения записей и форме представления информации об их размещении. Последовательно-смежное размещение записей ис¬ пользует такое' размещение, при котором (п + 1)-я запись следует непосредственно за п-й записью. Этот вид организации записей спо¬ собствует экономии памяти, но затрудняет введение изменений в мас¬ сивы. Примером массивов информации, записанных в ЗУ с последова¬ тельным доступом, является магнитная лента (МЛ), перфолента (ПЛ), перфокарта (ПК). Списковая структура представляет собой организацию данных, при которой размещение записей не зависит от их места в ин¬ формационном массиве. Если при последовательно-смежной органи¬ зации нет необходимости в /г-й записи указывать место (адрес) распо¬ ложения (п + 1)-й записи, то п-я запись массива, организованного по списковой структуре, должна содержать сведения о том, где можно найти (п + 1)-ю запись. Практически списковая структура эффек¬ тивно может быть реализована только на дисковом запоминающем устройстве (имеются в виду внешние ЗУ, в которые не входит МОЗУ). б) Структура записи информационных массивов Выше было показано, что'запись — лишь одно из звеньев в цепи последовательного кодирования информации. Хотя число возможных способов организации информации очень велико, в действительности имеется почти непрерывная последовательность методов, начиная с наиболее высокоорганизованной информации и кончая совершенно неорганизованной. Этот ряд содержит записи инвариантной струк¬ туры, записи, использующие двоично-позиционное кодирование полей данных, фиксированные поля и т. д. Ряд заканчивается естественным языком. Естественный язык представляет собой пример наименее жесткой структуры среди всех способов ^организации информации. Пример 9-1. В качестве примера структуры записи рассмотрим стандартный и плотный методы записи массивов на МЛ языка КОБОЛ, ЦВМ «Минск-32» для кон¬ кретного массива, имеющего следующие поля: ШИФР-СЫРЬЯ, КОЛИЧЕСТВО, ЕДИНИЦА-ИЗМЕРЕНИЯ сырья. 220
Таблица 9-3 Двоичное представление Двоично-десятичное Десятичное число числа представление числа 11 1 011 0001 0001 25 И 001 0010 0101 В ЦВМ все данные (буквенные и цифровые) представляются в двоичном коде, состоящем из нулей и единиц. Весь объем информации разделен на отдельные пор¬ ции, называемые словами или ячейками. Ячейка ЦВМ «Минск-32» содержит 37 раз¬ рядов с нумерацией от 0 дЪ 36. При размещении массива на МЛ используют понятие символа, которым может быть буква русского или латинского алфавита, цифра и любой знак типа запятой, тире, точки, круглой скобки. На каждый символ отводится 7 двоичных разрядов (байт). В большинстве машин отечественных (ЕС ЭВМ, М-220) 00001 шифр-СЫРЬЯ ноличестбо О 1 2 3 и 5 б 1 в 9 1011 о 12 13 Ik 15 16 1718 Iff 20 2! 22 23 2ч 25 26 27 2д 29 30 3132333k Г А Место десятичной точны 00002 00003 Рис. 9-5. Представление данных на МЛ. и зарубежных (IBM, ICL) применяется 8 разрядов. В одной ячейке «Минск-32» можно разместить 5 символов (5X7= 35), причем при плотном методе записи на МЛ 35-й и 36-й разряды не используются. Если данное содержит только цифры, в большинстве случаев для их представления применяется двоично-десятичная система кодирова¬ ния, которая обязательна в языке КОБОЛ. В этой системе отдельное десятичное число представляется четырьмя двоичными разрядами (тетрадой), двузначное деся¬ тичное число — двумя тетрадами, трехзначное — тремя и т. д. (табл. 9-3). Тетрадное представление чисел существенно облегчает их кодирование, так как кодируется отдельно каждая цифра. Такое кодирование удобно для хранения данных и вывода их на печать,, хотя при этом затрудняется выполнение вычислительных операций процессором ЦВМ. На рис. 9-5, а показана запись массива ЛИМИТЫ-СЫРЬЯ плотным ме¬ тодом. Физическая запись информации располагается посимвольно поперек МЛ, для чего в ЦВМ «Минск-32» поперек ленты расположены восемь читающих головок, 221
соответственно по одной головке на каждый разряд в символе и одна головка длл контроля четности. Каждая запись в этом массиве занимает две ячейки. В первой под номером 00001 в первых трех тетрадах располагается ШИФР-СЫРЬЯ (десятич¬ ное число 210), в следующих пяти тетрадах и тетраде, составленной из 32—34-го разрядов первой ячейки и нулевого разряда, пишется КОЛИЧЕСТВО сырья. Начи¬ ная с первого разряда (по счету второго) 21 разряд второй ячейки отводится под размещение трех символов ЕДИНИЦЫ-ИЗМЕРЕНИЯ (по 7 разрядов на символ). Как видно из рисунка, значения признаков, иногда называемых реквизитами, запи¬ сываются подряд без пропусков, откуда и идет название метода — плотный. Этот метод наиболее экономно использует МЛ. На рис. 9-5.,б представлен вариант используемой в АСУ записи массива ЛИМИТЫ-СЫРЬЯ стандартным методом. Запись занимает три ячейки. Основной принцип стандартного метода заключается в том, что каждое данное зани¬ мает одну или несколько (для символьной информации) ячеек. В нашем случае ШИФР-СЫРЬЯ занимает последние три тетрады первой ячейки, 6 последних тетрад второй ячейки отводятся под запись КОЛИЧЕСТВА. В первом 21 разряде третьей ячейки (7 X 3) записывается ЕДИНИЦА-ИЗМЕРЕНИЯ. Как видно из рисунка, при стандартном методе по сравнению с плотным не используется большая часть ячеек (заштриховано). Следует отметить, что при стандартном методе цифровые дан¬ ные располагаются в правом конце ячейки, а символы — в левом. Преимущество стандартного метода заключается в том, что при перезаписи информации с МЛ в маг¬ нитное оперативное запоминающее устройство (МОЗУ) не требуется так называемой процедуры распаковки, состоящей в размещении каждого данного в отдельные ячейки. в) Представление информации о структуре массива Машинное представление информации характерно разделением описания данных и самих данных; они хранятся отдельно на разных машинных носителях. Описание данных — это ключ, с помощью которого машина распознает, «читает» данные. Некоторым аналогом описания данных в немашинных носителях информации может, напри¬ мер, служить указание; что книга написана на русском языке, хотя грамотному человеку это и так ясно. Информация о структуре массива содержит описание структуры записи и способа нахождения любого поля данных и новой записи. Описание полей данных должно отражать следующие свойства дан¬ ных: класс данного, наличие знака в цифровом данном, место десятич¬ ной точки в числе, размер поля данного и место его расположения в записи. Часто эти сведения хранятся в виде таблиц. Это значит, что в машинных словах фиксируется место, где записывают информацию о поле данных. Адресная информация также может представляться в виде таблиц. Примером этому служит списочная организация мас¬ сивов. Другой подход к хранению адресной информации состоит в том, чтобы хранить формулу, которую можно использовать для вычисле¬ ния адреса записи. Пример 9-2. Рассмотрим структуру приближенного описания указанного выше массива ЛИМИТЫ-СЫРЬЯ для системы организации данных на языке КОБОЛ, ориентированной на обработку массивов экономической информации: ОМ ЛИМИТЫ-СЫРЬЯ МЕТОД ПЛОТНЫЙ 1. ЛИМИТЫ. 2. ШИФР-СЫРЬЯ ШАБЛОН 999. 2. КОЛИЧЕСТВО ШАБЛОН 9999Т99. 2. ЕДИНИЦА-ИЗМЕРЕНИЯ ШАБЛОН ААА. 222
Остановимся на основных особенностях описания массивов. Данные, состав¬ ляющие массив, описываются в порядке их следования в массиве. При этом соблю¬ дается определенная иерархия данных. Сначала указываются сведения, характери¬ зующие массив в целом: его название, метод записи. Эти сведения отмечаются бук¬ вами ОМ (описание массива). Ниже следует уровень описания, обозначаемый циф¬ рой 1, в котором помещается название записи. Цифра 2 определяет первое данное (величину), входящее в запись. В нашем примере таких данных три. Их описания одинаково отмечены цифрой 2, потому что они равноценны с точки зрения иерархии вхождения в документ, называемой уровнем вводим ости. Таким образом, в рассматриваемом массиве есть три уровня входимости величин: массив (ОМ), запись (1), величина (2). В общем случае в записи может быть больше уровней входимости. В строке МО запись ЛИМИТЫ-СЫРЬЯ означает название массива; слова МЕТОД ПЛОТНЫЙ указывают на метод записи. Во второй строке, отмеченной цифрой 1, помещается название записи ЛИМИТЫ, так как в массиве, названном ЛИМИТЫ-СЫРЬЯ, могут быть другие записи, например ПОСТАВЩИК, СТОИ¬ МОСТЬ. Следующий уровень 2 описывает первую величину записи ШИФР-СЫРЬЯ. Слово ШАБЛОН означает, что данный уровень является последним в иерархии дан¬ ных массива. Следующие за словом ШАБЛОН три цифры 9 указывают, что значение величины ШИФР-СЫРЬЯ может состоять только из цифр, причем не более трех десятичных. Данное того же уровня 2 КОЛИЧЕСТВО является цифровым, имею¬ щим 4 цифры до запятой и 2 после. Запятая указывается буквой Т. При чтении ленты и ее дадьнейшей обработке буква Т учитывается в соответствии с описанием (см. рис. 9-5). Последняя строка 2 означает, что величина ЕДИНИЦА-ИЗМЕРЕНИЯ может принимать буквенные значения, причем не'более трех букв ААА (7 разрядов на букву). Таким образом, для возможности использования данных на МЛ, составленных на одной ЦВМ, специалистами другой ЦВМ необхо¬ димо выполнение по крайней мере двух условий: одинакового распо¬ ложения записей на МЛ (плотным или стандартным методом) и оди¬ накового описания данных. г) Роль запоминающей среды при организации массивов Конструкция ЗУ оказывает влияние на стоимость и скорость вы¬ полнения операций в массиве, а это и есть основные параметры, харак¬ теризующие любую систему обработки данных. Оценим ЗУ разных типов с точки зрения,времени доступа к отдельной записи. Запоминающее устройство с равным временем доступа. Этот тип ЗУ характеризуется одинаковым временем доступа по всем его адресам. Классическим примером устройства с произвольным доступом может служить ЗУ на магнитных сердечниках, используемое в оперативной памяти большинства ЦВМ (МОЗУ). Нужная информация в этом слу¬ чае может быть получена за несколько микросекунд. Объем памяти МОЗУ сравнительно невелик и изменяется в зависимости от числа модулей от 16 тыс. слов до нескольких млн. слов. Запоминающее устройство с непосредственным доступом. Приме¬ ром этого типа ЗУ могут служить магнитные диски (ДЗУ). Данные с магнитных дисков выбираются перемещением читающего механизма к нужной дорожке без считывания данных промежуточных дорожек. В пределах дорожки информация считывается последовательно. Нужная-информация с диска, если известен адрес ее хранения, может быть получена за несколько миллисекунд. В зависимости от конструк¬ 223
ции диска объем памяти одного модуля, представляющего собою пакет из нескольких дисков, составляет несколько миллионов слов. Общий объем в зависимости от числа модулей может доходить до нескольких сотен миллионов слов. ЗУ на магнитных барабанах БЗУ также можно отнести к ЗУ с непосредственным доступом. Объем одного модуля БЗУ, состоящего из одного барабана, сравнительно невелик и составляет для большинства ЦВМ 64 тыс. слов. Обычно общий объем БЗУ не превышает 1 млн. слов. Очевидно, что ЗУ с непосредственным досту¬ пом не характеризуются одинаковым временем доступа по всем запи¬ сям, которое зависит от ее расположения на диске, однако они позво¬ ляют считывающему устройству непосредственно переходить к тре¬ буемой информации без считывания промежуточных порций. Запоминающее устройство с последовательным доступом. Приме¬ ром ЗУ с последовательным доступом может служить магнитная, бу¬ мажная лента, перфолента. Для осуществления поиска информации необходимо просматривать массив с начала. Для обычной магнитной ленты (ЛЗУ) время доступа может доходить до нескольких минут. В за¬ висимости от конструкции объем одного модуля ЛЗУ (одной бобины магнитной ленты) может составлять свыше одного миллиона слов. Количество лентопротяжных механизмов определяет объем ЛЗУ, который участвует в вычислениях и может составлять несколько десят¬ ков миллионов слов. Если организация самого массива такова, что не допускает непо¬ средственного доступа к данным, нет смысла использовать для него ЗУ с непосредственным доступом, и наоборот, рациональная органи¬ зация массива иногда помогает преодолеть известные недостатки памяти. Соответственно стоимость хранения единицы информации (одного слова) на магнитных носителях увеличивается с улучшением качественных-показателей информации. Наиболее дорогостояще хра¬ нение на МОЗУ и наименее на ЛЗУ. Структурная информация о массиве тогда имеет ценность, когда процессор способен ее использовать. Например, если чтение и поиск данных, хранящихся на МЛ, не могут быть совмещены с другой опе¬ рацией, выполняемой в вычислительной машине, польза от такого раз¬ мещения записей в массиве невелика, так как каждую запись все равно придется просмотреть. Но если тот же массив хранится на магнитном диске и если можно за время, когда ЦВМ производит вычисление (не по массиву), установить считывающую головку диска в нужное поло¬ жение, наличие указателей размещения записей может сократить время доступа. Большое значение имеет прямая загрузка информации с клавиатуры на магнитный носитель. Теоретически при наличии богатого ассортимента ЗУ проектирование информационного обеспе¬ чения системы может вестись независимо от машинных носителей информации. После создания системы обработки данных начинается процесс «погружения», привязки ее к конкретным машинным носителям ин¬ формации, к конкретной ЦВМ. Однако практически проектировщик ограничен в своих возможностях предоставленными в его распоряже¬ ние техническими средствами с машинно-ориентированным информа¬ 224
ционно-программным обеспечением. С широким использованием проб¬ лемно-ориентированных языков для систем организации данных (таких, как КОБОЛ) «жесткая привязка» проектировщика к машинно¬ ориентированному информационно-программному обеспечению суще¬ ственно ослабевает или совсем исчезает, так как для всех существую¬ щих и вновь разрабатываемых ЦВМ наиболее распространенные языки программирования входят в состав их математического обеспечения. Однако стоимость будущей системы долго будет являться ограниче¬ нием при проектировании и при системном подходе ее необходимо с пер¬ вых шагов учитывать, чтобы в завершенном виде система была опти¬ мальной. • Так, для оперативного информационного поиска, необходимого в АСУ, приемлемым является, по-видимому, только ДЗУ, так как только этот тип внешних ЗУ позволяет загрузить многоуровневые (списковые) информационные структуры типа тезаурусов и сохранять необходимое для работы быстродействие. Имеются примеры построения медленно действующей ИПС с исполь¬ зованием ЛЗУ. Однако этот тип ЗУ наиболее применим в долговре¬ менных хранилищах информации, которые по запросу поставляют необходимую информацию посредством установки оператором соот¬ ветствующей кассеты МЛ на лентопротяжный механизм. Такие хра¬ нилища в настоящее время насчитывают до нескольких миллиардов слов. На ЛЗУ могут храниться и тезаурусы, которые для работы с ними машинными средствами частично или полностью переносятся в ДЗУ. Конкурентоспособным с ЛЗУ долговременным средством хранения информации может в настоящее время выступать постоянное запоми¬ нающее устройство электронно-оптического типа, объем которого может достигать биллионов слов. Однако этот тип памяти существенно уступает магнитной ЛЗУ в части удобства обновления памяти. 9-5. МАТЕМАТИЧЕСКОЕ ОБЕСПЕЧЕНИЕ В СИСТЕМАХ АВТОМАТИЗИРОВАННОЙ ОБРАБОТКИ ДАННЫХ (САОД) Для эффективного создания, развития и эксплуатации информа¬ ционного обеспечения используется или- разрабатывается комплекс средств, объединяемых термином «математическое обеспечение», кото¬ рый включает в себя три группы средств: математические модели обра¬ ботки информации, алгоритмы (алгоритмическое обеспечение) и про¬ граммы (программное обеспечение). Математическое обеспечение информационных мо¬ делей больших систем — это средства эффективного отражения со¬ стояния системы, ведения массивного хозяйства, реализации опти¬ мизационных процедур, организаций эксплуатации всего програм¬ много комплекса. Существуют два способа построения программного обеспечения в САОД. В первом случае используется библиотека стандартных программ БСП-КОБОЛ и сам язык КОБОЛ как средство программи¬ рования (или язык ФОРТРАН со своей БСП). Это наиболее перспек- 8 Основы кибернетики 225
гивная система. Во втором случае разрабатываются и используются БСП, частично или полностью несовместимые с первой схемой, исполь¬ зующей язык КОБОЛ. БСП стали создаваться в результате того, что по мере накопления опыта машинного решения задач было замечено, что отдельные части программ однотипны и могут быть стандартизо¬ ваны. В некоторых библиотеках имеется информационная совмести¬ мость с БСП-КОБОЛ для стандартного метода записи на МЛ, но ее нет для плотного метода. В одних БСП (типа БСП-I) используют руч¬ ной способ описания данных, и при этом отсутствует совместимость в описании данных. В других БСП (типа БСП-И) отсутствуют инфор¬ мационная совместимость и совместимость в описании данных, что приводит к невозможности использования одной и той же МЛ для языка КОБОЛ и этой БСП. Несмотря на большое количество проблем¬ ных языков, предназначенных для обработки информации, наиболь¬ шую популярность и распространение получили КОБОЛ (специально ориентированный на обработку экономической информации), ФОРТ¬ РАН (используемый для обработки результатов экспериментов физи¬ ческого, химического и т. д. планов, а также для обработки экономиче¬ ской информации), АЛГАМС (представляющий собою развитие АЛ¬ ГОЛа за счет добавления раздела обработки данных) и ПЛ-1, содер¬ жащий в себе в значительной степени особенности всех предыдущих языков. Рассмотренные выше вопросы информационного единства в значительной мере справедливы и по отношению к САОДам, ориенти¬ рованным на языки ФОРТРАН, АЛГАМС, ПЛ-1. Основное требование к любым САОДам заключается в едином представлении информации на машинных носителях и единой системе обращения к этим носителям. Это позволит обмениваться информацией на машинных носителях между различными организациями, так как при единой системе они могут быть «прочитаны» любым абонентом. Эта ситуация напоминает представление информации на бумажных, «ручных» носителях информации (книги, статьи и т. д.). Любой чело¬ век может прочитать любую книгу, если знает язык, на котором она написана. В случае, когда книга написана на неизвестном для чита¬ теля языке, он прибегает к помощи переводчика, роль которого в ЦВМ выполняет транслятор (с языка КОБОЛ, АЛГОЛ и т. д.). 9-6. СТРУКТУРНЫЕ МЕТОДЫ ПРЕОБРАЗОВАНИЯ ИНФОРМАЦИИ При проектировании систем автоматизированной обработки дан¬ ных широко используются структурные методы. Весь процесс пере¬ работки информации представляется в виде графа, вершины которого отождествляются с определенным массивом, а ребра — с операторами, осуществляющими определенное преобразование информации. а) Основные операторы При обработке массивов выполняется комплекс операций, в ре¬ зультате чего в массив вводятся новые записи, исключаются устарев¬ шие, изменяется порядок записей, меняется значение полей данных. 226
На основе анализа экономических задач, решаемых на различ¬ ных уровнях управления, был выявлен набор типовых операторов [Л. 65], достаточно полно описывающих процедуры переработки боль¬ ших массивов информации. Это — упорядочение массивов, выборка, поиск, редактирование массивов, выполнение арифметических и логи¬ ческих операций над полями данных. Рассмотрим четыре класса, на которые подразделяются типовые операторы. Для этих операторов составлены стандартные программы, включенные в БСП САОДа. Операторы структурного преобразования массивов (С). В резуль¬ тате действия таких операторов изменяется расположение фраз внутри массивов, слов внутри фраз и состава массивов. При этом значения полей данных, входящих в массив, не меняются. В качестве примера можно привести оператор упорядочения (сортировки) массива. В ре¬ зультате действия этого оператора фразы массива располагаются в определенной последовательности в зависимости от данного, по кото¬ рому осуществляется сортировка. Операторы выборки изменяют состав обрабатываемого массива, формируя в. результате массив, фразы которого удовлетворяют усло¬ вию, задаваемому оператором. Так, оператор выборки экстремальных фраз записывает в результирующий массив те фразы исходного мас¬ сива, у которых значение поля данного, указанного оператором, мак¬ симально (минимально). В класс структурного преобразования массивов также входят операторы по анализу массивов. Они, например, осуществляют под¬ счет фраз, слова которых удовлетворяют определенным условиям. Операторы вычисления (изменения) значений полей данных (Выч.). В результате действия этих операторов формируется массив, поля данных которого есть результат выполнения арифметических и логи¬ ческих операций над соответствующими словами обрабатываемых массивов. Операторы перемещения данных (Пер.). Под воздействием этих операторов происходит перемещение массивов информации: ввод, вы¬ вод, дублирование и т. д. Операторы управления (Упр.). Эти операторы определяют последо¬ вательность выполнения операторов программы в процессе обработки информации. В зависимости от истинности логических высказываний происходит ветвление программы, построение циклов, обращение к подпрограммам и пр. Приведенный набор операторов получен в результате анализа широкого класса экономических задач, характеризующихся обработ¬ кой больших массивов информации. Кроме основного назначения для описания алгоритмов решения набор операторов является средством статистического изучения этих задач, выявления наиболее трудоемких процессов обработки массивов. В частности было установлено, что при использовании электронных вычислительных машин для коммер¬ ческих расчетов только на сортировку массивов на МЛ уходит до 70% и на дисках и барабанах — до 30% общего машинного времени. Частота использования оператора сортировки в экономических зада¬ чах достигает 40%. * 8* 227
Как следует из вышесказанного, при решении задач по обработке массивов информации наиболее широко применяются операторы структурного преобразования массивов, в особенности операторы сор¬ тировки. Очевидно, эффективность решения задач на ЦВМ опреде¬ ляется главным образом тем, насколько эффективно реализуются операторы класса С. б) Схемы документооборота Значительное количество информации, циркулирующее в больших системах, группируется в определенные комплексы и помещается в документы, облик и структура которых годами сформировались при немашинных методах обработки информации и управления. Можно утверждать, что любое промышленное предприятие управляется с по¬ мощью документов, в которых содержится информация фактографиче¬ ского характера, т. е. устанавливающего фактическое состояние не¬ которого явления или процесса (наряд на работу, акт окончания Рис. 9-6. Структура документа. работы и т. д.). Поэтому большинство структурных схем преобразо¬ вания информации носит характер схем преобразования документов или документооборота, особенно это имеет место в АСУ. Характерная особенность машинной обработки и преобразования одних документов в другие заключается в том, что новый документ вычисляется по исходным документам, а не составляется, как при ручном способе, так как машина может только вычислять. Правда, ЦВМ может еще перемещать, сортировать, объединять, разъединять массивы. Поэтому требуется представить существующую форму.доку¬ мента в виде, удобном для вычислений на ЦВМ. Для этого, анализируя документ, прежде всего выделяют его наименование, наименование показателей, наименование признаков показателей, значение призна¬ ков (рис. 9-6). Так как информация в ЦВМ циркулирует последова¬ тельно, то все содержание документа, состоящее из признаков, объе¬ диненных в показатели, вытягивается в строчку. Проще всего понять 228
методику- составления машинно-ориентированной модели документа на примере. Пример 9-3. Рассмотрим на примере документа «Расход материалов за год», характерного для АСУ, процедуру составления его модели. Документ «Расход материалов за год» представлен в табл. 9-4. Его схема показана на рис. 9-7. Эта схема позволяет представить весь документ в виде одной строчки (табл. 9-5). Каждому признаку документа отводится самостоятельная позиция (клетка) с соответствующим номером ац, где i — номер показателя в документе, а / — номер признака в показателе. Преобразование документа или образование нового доку¬ мента осуществляется изменением значений признаков или добавлением новых признаков, показателей и соответствующим изменением наименования (шифра) документа. Т а б л и ц а 9-4 № п/п. Статья расхода Обозначение материала (at) Количество материала (аз) . Единица измерения (а4) 1 2 3 4 5 Производство (А) Ремонт и эксплуа¬ тация (Л2) Строительно-мон¬ тажные работы ш Всего (Л4) Таблица 9-5 «11 Дата расхода на производство «12 Обозначение материала, израсходованного на производство «43 Количество расхода суммарное «44 Единица измерения суммарного расхода материала С помощью рассмотренной модели документа можно составлять машинно-ориентированные схемы документооборота. При этом ис¬ пользуется формальный операторный язык (ФОЯ) обработки инфор¬ мации: структурного преобразования и вычислительного типа. На рис. 9-8 показан фрагмент схемы документооборота. В соответ¬ ствии с этой схемой с помощью оператора вычислительного типа (Выч, 1) суммируются признаки а3 и а4 и их сумма заносится в клетку 229
признака аб. Преобразованный документ Дг остается в подразделе¬ нии Пг. С помощью оператора (Вын. 2) формируется новый документ Д2у пришедший из другого подраз¬ деления. В нем рассчитывается только показатель Рз = К + а4) «в» а остальные показатели остаются без изменения. Затем признаки документа Д2 подвергаются опе¬ рации редактирования (Ред. 1) с помощью оператора структур¬ ного типа. По предписанию, составленному служебной про¬ граммой, каждому признаку присваивается свой номер, в со¬ ответствии с которым он должен занимать место в документе, например номер по порядку, фа¬ милия, имя, отчество и т. д. На рис. 9-8 оператор (Ред. 1) распо¬ лагает показатели (32,Р4» Ре в со¬ ответствии с предписанными но¬ мерами, остальные показатели остаются без изменения. В ре¬ зультате воздействия этого опе¬ ратора образуется новый доку¬ мент Д3, в котором та Ч та к Он н та 2 Ч о X а та а, Yi=p4! Тз = Рг! Ye= Рб! Y2 = Р«; Y4 = Pi; У? = Рт- Ye — Рз! Пример 9-4. Рассмотрим упрощен¬ ную схему расчета зарплаты (рис. 9-9). Исходными документами (массивами) будут список сотрудников Дг с долж¬ ностями и окладами, табель посещае¬ мости Д2, таблица вычетов подоход¬ ного налога Д3, список дополнительных отчислений и начислений Д4. Прежде всего документы Д -f- Д3 проходят сортировку по признакам: фамилия, имя, отчество, в результате чего они располагаются в алфавитном порядке. Упорядочение необходимо, для того чтобы следующие операторы (Выч. 1—3) работали, осуществляя однора¬ зовый просмотр документов. Сумма, заработанная каждым сотрудником, определяется оператором Выч.1. Он вы¬ полняет следующие функции: объединяет документы по ключу ах = blt вычис¬ ляет заработанную сумму и формирует новый документ Д7, содержащий список сотрудников с должностными окладами и фактически заработанной суммой, в кото- 230
рой учитывается только отработанное время. Из документа Д7 с помощью группы структурных операторов типа выборки по ключу « > сх», « <с2» и оператора вычисли¬ тельного типа (Выч.2) формируется документ Д8, в котором записывается сумма подоходного налога. И, наконец, из документов Д8 и Д9, в которых содержатся све¬ дения о дополнительных вычетах и начислениях, оператор Выч. 3 вместе с оператором выборки по ключу «равенство ФИО» строит окончательный документ Д10 «Ведомость зарплаты». В целом рассмотренная схема документооборота является форма¬ лизованным отображением существующего ручного способа обработки сС| А А л, ЧПг -Д Л й, Bom I et. оС,. Выч 2 А А Т А Л _ЕГ П, А Pei Н 1 Г, h h h к Рис. 9-8. Фрагмент схемы документооборота на уров¬ не бумажных документов, использующий ФОЯ. информации и поэтому очень сложна для ручного и машинного моде¬ лирования. Возможности, заложенные в автоматизированных средствах орга¬ низации данных и программирования типа языка КОБОЛ, позволяют без особого труда составлять алгоритм получения документа по фор¬ мульному (не машинно-ориентированному описанию) расчету его показателей. Так, на рис. 9-10 для сравнения приведены структуры схем документов о начислении зарплаты, составленных с помощью КОБОЛа и рассмотренного выше языка формальных операторов ФОЯ, где А — программа на языке КОБОЛ, реализующая расчет документа Д10. Схема на языке КОБОЛ имеет типичную машинную ориентацию, исключающую получение ненужных для данной задачи промежуточных документов, но необходимых для ручных методов управления. Здесь уже можно усмотреть эволюцию существующей схемы документооборота, ее синтез. В плане эволюции, обусловленной применением ЦВМ, можно предложить схему документооборота на 231
Список сотрудниноб Табель посещаемости Таблица бычетоб подоходного налога л5 ФМ.О Должность Онлад 4 ФМ.О. Ноличестбо отра¬ ботанных дней а, д2 03 Ь, ьг Сортиробна Сортиробна 1 Ф.и.О Долш- ность Онлад 4 Ф.и.О Ноличестбо от¬ работанных дней а. 02 аз Ь, Ьг 1 1 1 I Выч. / 1 Онлад минималь¬ ный Онлад мансираль- ныи % о1 с2 сз Ф.и.О Онлад Заработанная сумма Ot 03 а* с,<а <сг Выч. 2 I too / Дополнительные отчислений Ф.и.О Онлад Заработан¬ ная сумма Налог Ot 0э *0 0s д Ф.и.О. Д ополнительные отчисления dr d2 Сортиробна . | Ф.и.О. Д ополнительные отчисления с 1, *2 Выя. 3 ~~| (a<l-a}-d2) Ведомость зарплаты Ф.и.О Заработан¬ ная сумма Налог Дополнитель¬ ные отчис¬ ления Выдано 0, 0s 06 Рис. 9-9. Пример схемы документооборота для начисления зарплаты. 232
Рис. 9-10. Схема на¬ числения зарплаты на уровне документов с помощью ФОЯ (а) и на языке КОБОЛ (б). Расчет зарадот- Расчет суммы Расчет ной суммы (aJ налога (а5) „Выдано”(а6) о) 9 Рис. 9-11. Схема до¬ кументооборота на уровне показателей и признаков в виде дерева. 233
уровне показателей и их признаков в виде дерева. Строится дерево показателей (рис. 9-11). На самом нижнем уровне располагаются пер¬ вичные показатели, отражающие нормы расхода ресурсов, отчетные показатели цеха, состав изделий (А,). Все более высокие уровни заняты расчетными и сводными отчетными показателями, показателями себе¬ стоимости продукции (Вр. Самый высокий уровень характеризует работу предприятия в целом: рентабельность, использование фондов зарплаты, оборудования и т. п. (С,-). При создании дерева показателей за основу берется не структура управления и документооборот, а вы¬ ясняются формулы расчета показателей при переходе с яруса на ярус. Моделирование составленной схемы документооборота на ЦВМ дает возможность получать по запросу документы (Дх), содержащие пока¬ затели, находящиеся на разных уровнях дерева. В запросе должны содержаться сведения о структуре документа, а алгоритмы расчета его показателей содержатся в самой схеме документооборота. Но сов¬ сем не учитывать сложившиеся методы управления (структурный со¬ став предприятия) нельзя, так как по отчетности участков, цехов завода, по связям показателей разных уровней выясняется и осуще¬ ствляется моделирование схемы документооборота. Работы по состав¬ лению дерева показателей в конечном счете приведут к созданию технико-экономического тезауруса системы.-
ЧАСТЬ ТРЕТЬЯ МЕТОДЫ ОПТИМИЗАЦИИ Глава десятая ОБЩИЕ СВЕДЕНИЯ О МЕТОДАХ ОПТИМИЗАЦИИ 10-1. О СИСТЕМНОМ ПОДХОДЕ ПРИ ОПТИМИЗАЦИИ Оптимальная система управления может быть реализована в виде набора правил, в виде стратегии или способа управления, согласно которым следует поступать в той или иной ситуации (военной, произ¬ водственной, политической) или в виде комплекса технических средств управления (космическим или морским кораблем, домной и т. д.). Сущность системного подхода заключается в комплексном, едином рассмотрении всех частей системы и гармоническом их сочетании. Так, при космических полетах можно, увеличивая вес корабля, добиться максимальной автономии управления, независимости от Земли. Можно, наоборот, обеспечив хорошую связь с кораблем, больше аппаратуры разместить на Земле, максимально уменьшив вес корабля. Где опти¬ мальная граница распределения веса наземной и бортовой аппаратуры, эту задачу должны решать методы оптимизации исходя из критерия оптимальности и состояния техники на сегодняшний день. Особенно ценна роль системного подхода в поэтапном решении задачи оптимизации. Процесс проектирования любой системы включает в себя почти одни и те же этапы (или задачи), состоящие в разра¬ ботке: 1) математической модели процесса, которым требуется управлять (объекта управления), и всей системы управления с обратными свя¬ зями (контура управления); 2) формульной схемы закона управления для управляющей вычи¬ слительной машины (УВМ); 3) программ для УВМ; 4) структуры УВМ и других технических средств и выборе ее элементов. На каждом из этих этапов встает проблема формулировки крите¬ риев оптимальности и оптимизации. Однако системный подход подра¬ зумевает общую оптимизацию четырех этапов: в отдельности каждый из них может и не быть оптимальным. Для решения задачи оптимизации необходимо прежде всего уметь формулировать критерии оптимальности и владеть методами (или процедурами) оптимизации. 235
10-2. О КРИТЕРИЯХ ОПТИМИЗАЦИИ Вопрос о критериях оптимизации — один из самых важных в ки¬ бернетике, и в то же время он далек от удовлетворительного решения. В последнее время интенсивное развитие получила наука, назы¬ ваемая прагматикой, которая занимается определением целей и задач управления, изучением значения и ценности результатов поведения, движения, развития и управления системами. До последнего времени эта наука носила чисто качественный, неформализованный характер. Однако с развитием кибернетики появились первые попытки форма¬ лизации методов прагматики с помощью семиотики и математической лингвистики. В качестве практической реализации кибернетических методов в этой области можно указать на американскую человеко- машинную систему «Паттерн», предназначенную для научно-техниче¬ ского прогнозирования и определения оптимальных по значению и по времени реализации целей [Л. 15, 68].-Следует заметить, что, по-види¬ мому, прагматика никогда не станет полностью формализованной нау¬ кой, так как с формализацией целей низшего уровня будут появляться новые цели целей на качественном уровне и такой процесс будет бес¬ конечным. Тем не менее именно прагматика является той наукой, с помощью которой можно достаточно грамотно формулировать кри¬ терии управления. В настоящее время выделяют два вида критериев оптимизации. Это, во-первых, выработанные практикой качественные или количе¬ ственные характеристики оптимальности работы различных систем и, во-вторых, разработанные математиками математические критерии оптимальности, положенные в основу аналитических, графоаналити¬ ческих, численных и машинных методов оптимизации. Однако они часто далеки от потребностей практики. В последнее время наблюдается сближение этих двух видов критериев: с одной стороны, появляются новые математические методы оптимизации, такие как принцип мак¬ симума и динамическое программирование, которые лучше приспо¬ соблены для решения практических задач оптимизации, с другой сто¬ роны, практика проектирования все чаще пользуется критериями оп¬ тимальности, удобными в математическом смысле. Так произошло с критерием среднеквадратичной ошибки, принятым в качестве оценки точности работы АСР, и критерием вероятности, утвердившимся как количественная оценка эффективности работы системы. Такой про¬ цесс стал возможным в связи с ростом математических знаний инже¬ неров. Критериев оптимизации в кибернетике много. Выбор того или иного критерия зависит от конструктура системы управления, и в этом содержится элемент нестрогости. Однако все чаще практика предлагает типовые критерии, которые становятся общепринятыми и заносятся в технические задания. Наиболее распространенные в кибернетике методы оптимизации используют понятие минимума (или максимума) функции или функ¬ ционала. В первом случае находят значение п переменных хъ хъ ..., хпу при которых функция F (xlt х2, хп) принимает экстремальное 236
значение F = min (max). В простейшем случае дифференцируемости функции и неравенства нулю вторых производных задача сводится к решению п алгебраических (в общем случае нелинейных) уравнений Л = °. ”=1.2 п. (10-1) При оптимизации управления приходится оперировать с большим числом переменных (п = 103— 105). В этом специфика задач оптими¬ зации, и это затрудняет решение уравнений (10-1) даже с помощью ЦВМ. В качестве оптимизируемой функции могут выступать, например, величина дохода промышленного предприятия в рублях, количество; энергии, потребляемой системой. Однако часто требуется определить закон управления в виде некоторой функции времени .или других переменных. Если функция Е (х), где х = {хъ х2, хл}, помимо пере¬ менных хъ х2, хп зависит еще (параметрически) от другой пере¬ менной X (или переменных Хъ Х2, ..., Хп), то решение для каждого зна¬ чения X соотношения (10-1) дает оптимальный закон управления х(к) = {х1(к), х2(Ц, Здесь мы уже переходим, по существу, к понятию функционала, частным случаем которого является функция. Методы оптимизации, использующие этот критерий, возникли задолго до кибернетики и составили содержание раздела математики, названного вариацион¬ ным исчислением. Понятие функционала в математике является даль¬ нейшим обобщением понятия функции. Не очень строго функционал можно определить как функцию от функции, т. е. функцию, в которой в качестве независимой переменной выступает функция. Это определе¬ ние ошибочно относят к функционалам функции вида F [ф (х)], [х2]3 и т. д., которые, однако, являясь функциями, представляют частный случай функционала. Если одному множеству М значений величины х (х е М) соответ¬ ствует другое множество N значений величины у, то говорят, что у является функцией х, т. е. у = / (х). Например, М {1, 4, 9, 8} и N {20, 70, 90, 110}. Каждому значению из множества М соответствует одно значение из множества N. Это — метод задания функции в виде таблиц. Он чаще всего встречается в кибернетике. Аналитически функция может быть задана в виде у = х3, у = sin х. Если М — множество функций и каждой функции f (х), принадле¬ жащей М {/ (х) е М}, ставится в соответствие определенное значение величины у из множества N, то говорят, что на множестве М задан функционал. Например, М {sin х, cos х, tgx, ctgx}, N{3, 4, 5, 18}. Другим примером функционала может служить определенный интеграл I = I {У (*)} = ^ У (*) dx. 0 237
Каждой функции у (.х) будет соответствовать числовое значение /. Так, при у = х I = 1/2, при у = х2 I = 1/3. Можно поставить задачу отыскания такой функции у (х), которая обращала бы этот функционал в минимум (максимум), т. е. I {у} = min (шах). В общем случае подынтегральное выражение в функционале может зависеть явно от аргумента х> у и производной ух: ъ I {y} = \F(x, у, у) dx. (10-2) Интеграл в формуле (10-2) может пониматься в смысле Лебега — Стильтьеса или интеграла от обобщенной функции (в частности, содержащей дельта-функции). Тогда нетрудно показать, что запись (10-2) включает в себя функцию. Так, если положить . Р(х, у, y) = f (х) 6 (t — x), то ъ I ^^f(x)8(t — x)dx = f (t) а при a <it Cb. Аналогично, если положить Р (х, у, у) = 2 Cifi (х) б (ti - х), 1=1 то 1=^сми). 1 = 1 Xq-(X Рис. 10-1. К замене функционала сум¬ мой. Иногда считают, что функционал является функцией бесконечного числа переменных. Соответственно вариационное исчисление можно рассматривать как обобщение методов отыскания экстремума функции на случай большого или бесконечного числа переменных. Действи¬ тельно, функцию у (х) в формуле (10-2) можно заменить приближенно ломаной линией (рис. 10-1) с вершинами у0 = у (х0) = у (а), у± = = У (хо + •••» Уп = У (Х0 + п&х) = у {Ь)у а функционал — суммой /= 2 F(xh yiyj^-) Ьх. i = 0 После этого вариационная задача приближенно решается как обычная задача на отыскание экстремума функции п переменных: I = (Уъ Уъ •••> Уп)- Именно так выводил свое основное уравнение вариационного исчисления Эйлер [Л. 69, 70]. Особое место в методах оптимизации занимает критерий оптимиза¬ ции с ограничениями. В случае функционала этот критерий может 238
быть записан в виде ъ l = ^F(x, у, y)dx = min; а У, У) ^ 0; А= 1, 2, 3, , т, где ф/г — некоторые функции. Смысл этих соотношений состоит в том, что отыскивается не любая функция у (х), обращающая функционал в минимум, а такая; которая удовлетворяет системе ограничений. Нетрудно убедиться, что тем самым значение условного экстремума не может быть меньше значения абсолютного экстремума (без огра¬ ничений). Аналогичным образом формулируется критерий оптималь¬ ности (с ограничениями) для функции В классическом вариационном исчислении в функционале интеграл понимается в обычном смысле как предел сумм Дарбу, а не как инте¬ грал Лебега — Стильтьеса [Л. 69]. В целях соблюдения инженерного уровня изложения здесь будет использовано это классическое понятие функционала (если не дано специальных оговорок). Следует заметить, что во всех приведенных формулах переменные х и у могут быть векторами Такая форма записи широко используется, и, в частности, она учиты¬ вает случаи оптимизации функции многих переменных и оптимизации нескольких функций. Задачи оптимизации при наличии ограничений, по существу, при¬ вели к пересмотру классических методов и созданию новых методов, известных под названием методов программирования. Если в формулах (10-3) все функции линейные, налицо задача линейного программиро¬ вания. В общем случае эти соотношения определяют задачу нелиней¬ ного программирования. Этот критерий применяется при оценке качества работы АСР и удобен при решении математических задач оптимизации. Физически требование минимума дисперсии или квадрата ошибки (рис. 10-2) между заданным (или желаемым) h (t) и выходным х (t) сигналами си¬ стемы (10-3) У = {Уь У2 yi}\ F = {fi, F2, Fp}. а) Критерий среднего квадрата ошибки е2 = [h (t) — х (^)]2 = min .239
означает большую нежелательность по сравнению с линейным законом больших (чем малых) по значению ошибок (рис. 10-3). Причем в соот¬ ветствии с рис. 10-2 h (t) получается из полезного входного сигнала т (t) с помощью заданного оператора х(/), в то время как реальный Рис. 10-2. К определению ошибки АСР. сигнал x(t) получается из входного сигнала системы ср(/) с помощью оператора k(t), который следует найти. При использовании критерия |е| = |й(/) — *(f)| = min, где черта сверху означает усреднение по ансамблю, считается, что вред, наносимый ошибкой, пропорционален ее величине; Средний квадрат ошибки АСР е2 — это функционал [Л. 71] от ее импульсной пере¬ ходной функции и для ста¬ ционарных сигналов и линей¬ ной системы имеет вид: оо ?=Яа(0)-2$*(т)ЯДф(т)Л+ 0 оо оо + 5 k (т) dx 5 k (tj) /?ф(т—Tl) dxb о о (10-4) где Rh (т) и Rq (т) — функции корреляции желаемого h (t) и входного ф(/) сигналов; R^ (т) — их взаимная функция корреляции. Если при минимизации требуется обеспечить заданное значение динамической ошибки, то добавляются условия: ОО \k (т) (— t)s di = s = 1, 2 m, (10-5) о где — заданные числа, и задача становится вариационной задачей на условный экстремум. 240 Рис. 10-3. Оценка качества работы АСР по ве¬ личинам дисперсии или модуля ошибки.
Заметим, что критерии (10-4) и (10-5) широко используются при синтезе АСР, начало которому было положено Винером, Колмогоро¬ вым, Солодовниковым и др. [Л. 71]. б) Интегральный критерий Этот критерий используется для определения параметров АСР, оптимальной в переходном режиме, и в качестве него иногда выби¬ рается минимум функционала оо /i=.Ue2+r©2]^ (10'6) 6 где е — ошибка рассогласования в системе (рис. 10-4). Требованием минимума функционала (10-6) Ii = min можно обеспечить в системе переход¬ ный процесс с малыми отклонениями, величина которых определяет вели- оо чину интеграла Je2dt, и достаточно о плавный, без резких колебаний, что определяется величиной интеграла 0 Второй член в (10-6) по существу включает управление по производ¬ ной. Дело в том, что при переходе нулевого значения ошибки е произ¬ водная е принимает большие значе¬ ния и из-за этого возникают боль¬ шие переколебания. Наличие второго члена уменьшает значение производной, способствуя меньшим переколебаниям. Критерий (10-6) требует минимума суммарной площади, ограни¬ ченной кривыми ошибки, ее производной и осью абсцисс, причем последняя площадь берется с весом Т. Из рисунка видно, что эти две кривые «работают» со сдвигом примерно на 90°. Коэффициент Т осуществляет оптимальный баланс между управлением по ошибке и по производной. в) Критерий максимального быстродействия При определении параметров АСР в режиме переходного процесса чаще используется другой критерий оптимальности, который обеспе¬ чивает максимальное ее быстродействие. В простейшем и наиболее качества. 241
распространенном случае задача оптимизации по быстродействию сводится к получению переходного процесса, заканчивающегося в крат¬ чайшее время. В АСР, будь то система управления ракетой или антен¬ ной радиолокационной станции, требуется, чтобы переходный про¬ цесс, к примеру при ступенчатом воздействии, заканчивался в мини¬ мальное время [Л. 72]. Дело в том, что до окончания переход¬ ного процесса АСР не может вы¬ полнить своего основного назна¬ чения как следящей системы, к примеру, антенна радиолокаци¬ онной станции не может следить за входным сигналом. Следящая система должна отрабатывать входной сигнал, а не колебаться (рис. 10-5). Для этого случая в функционале (10-2) необходимо положить: F (х, ху /) = 1 и, изменив х ->■ ty у -> х, у х, получить: ‘к /2 = ^ F (Ху Ху t) dt = 'о = tK — /o = niin, причем t0 соответствует началь¬ ным координатам процесса, а tK—конечным. Наиболее распространено получение оптимального пере¬ ходного процесса с включением максимального ускорения в начале с последующим переходом на максимальное торможение. В этом слу¬ чае необходимо только определить момент переключения /п. Задача максимального быстродействия может возникнуть необязательно в связи с переходным процессом следящих систем. Если, например, требуется за наименьшее время доставить летательный аппарат с Земли на Луну, то эта задача также сведется к задаче о максимальном быстро¬ действии. г) Критерий минимума стоимости функционирования системы в единицу времени В качестве другого примера функционала, встречающегося в прак¬ тике проектирования оптимальных систем, можно привести стоимость функционирования совокупности систем массового обслуживания (или сети массового обслуживания) в единицу времени Г = С\0 -\-C2Wy (10-7) где р — среднее число свободных приборов; w — среднее число емакс ~£макс Рис. 10-5. Оптимальная по быстродейст¬ вию система. 242
заявок, ожидающих своей очереди; сх и с2 — стоимости простоев одного прибора и заявки соответственно в единицу времени. Из-за случайности потока заявок и времени их обслуживания всегда имеется какое-то среднее число простаивающих приборов или ожидающих заявок. Требуется так распределить число приборов по разным системам, чтобы Г = mi п. Такая кибернетическая модель и критерий широко используются при создании оптимальных систем управления в сфере обслуживания, например управления системой парикмахерских города. В качестве заявок здесь выступают клиенты, в качестве приборов — мастера. Поток клиентов и время их обслужи¬ вания — случайные величины. Одинаково плохо, когда простаивают мастера и ожидают клиенты. Минимум функционала (10-7) означает оптимальный выбор числа мастеров, основанный на определенной статистике потока клиентов. Для решения задачи должны быть из¬ вестны значения стоимости простоя клиентов и мастеров. Величины р и w являются функциями числа приборов на отдельных участках. В отличие от предыдущих случаев эта задача имеет дело с дискрет¬ ным изменением параметров, так как число приборов может изме¬ няться только дискретным образом. Поэтому здесь неприменимо клас¬ сическое вариационное исчисление, и необходимо разработать спе¬ циальные методы типа дискретного и целочисленного программиро¬ вания. д) Критерий минимума критического бремени выполнения работы В последнее время в связи с интенсивным внедрением сетевых методов планирования и управления возникают задачи о критическом пути. Например, выполнение сложного проекта сводится к последо¬ вательности выполнения какого-то определенного количества работ. Для Н tcj tj отображения этого процесса прибе¬ гают к геометрической интерпрета¬ ции с помощью графа (рис. 10-6). Узел графа обозначает конец одной работы и начало другой. Дуга или ребро графа — работа, а длина ребра пропорциональна времени выполне¬ ния работы. Пусть длительность ВЫ- Рис. 10-6. Пример сетевого графи- полнения отдельной работы ty = tj — ка веДения комплексной работы. — th где ti и tj — моменты времени, соответствующие началу и концу работы. Критическим в графе будет такой путь, на котором суммарное время выполнения работ макси¬ мально. Этот путь задерживает всю разработку: без его уменьшения невозможно сократить время выполнения всей разработки. Критиче¬ ский путь определяется решением экстремальной задачи, в которой обращается в максимум следующее выражение: *кр = 2^ = тах* h / 243
Суммирование в этой двойной сумме необходимо производить таким образом, чтобы получить путь из начальной вершины t0 в конеч¬ ную tK без разрыва и дважды не пройти по одной и той же дуге. Кри¬ терий минимуму критического времени I = tKV = min означает минимизацию критического пути при ограниченных ресурсах. При этом наличные ресурсы распределяются на те работы, которые лежат на критическом пути. В данном случае, по существу, решается минимаксная задача, характерная для теории игр: min max 2 Uj = ?> i, i причем максимум выбирается среди всех путей в графе по времени выполнения работ, а минимум берется 1ю ресурсам для работ, лежащих на критическом пути. е) Минимаксный критерий Минимаксный критерий широко используется для определения оптимальной стратегии при наличии конфликтной ситуации, когда интересы двух сторон противоположны. Так, в военных ситуациях выигрыш одной стороны означает проигрыш другой. В этом случае часто приходится выбирать среди худших для себя стратегий против¬ ника наименее худшую, т. е. брать максимум по множеству стратегий противника и минимум по собственным стратегиям. В этом и заклю¬ чается минимаксный критерий, широко используемый в теории игр. В теории матричных игр задается матрица платежей /= 1, 2, ,, т; /= 1, 2 п. Каждый элемент этой матрицы означает платеж противнику в случае, когда он применяет стратегию /, а наша сторона — стратегию i. Тре¬ буется найти среди множества худших для нас стратегий противника наименее плохую, т. е. решить минимаксную задачу min max а// = ? i J Нетрудно убедиться, что если поменять знаки atj на обратные,- а это физически означает замену проигрыша нашей стороны на выигрыш, то будет решаться максиминная задача max min (—аи) = ? i / В некоторых задачах, имеющих так называемую седловую точку, min max atj = max min aijt i j i i Обе эти задачи оптимизации — минимаксная и максиминная — не решаются классическими методами. 244
10-3. КЛАССИФИКАЦИЯ МЕТОДОВ ОПТИМИЗАЦИИ Классификация методов оптимизации представляет собой доста¬ точно сложную задачу, так как в основном они исторически разви¬ вались независимо один от другого с использованием различных концепций, математических аппаратов и т. д. Однако инженеру- кибернетику необходимо знать их во всем многообразии. Следует заметить, что приводимая классификация (как и любая классификация) носит условный характер и страдает недостатками. Поэтому относительно приводимых ниже схем можно высказывать замечания, но в целом они позволяют сразу охватить все особенности методов. . Возможно несколько под¬ ходов к классификации. Сле¬ дует различать методы опре¬ деления экстремума функции и функционала (рис. 10-7). Хотя функция и является частным случаем функцио¬ нала, методы отыскания экст¬ ремума функции проще. Ме¬ тоды динамического програм¬ мирования и принципа мак¬ симума с успехом применяются для отыскания экстремума функционала и функции. Пря¬ мые методы вариационного исчисления (методы Ритца, Эйлера и др.), как и дискрет¬ ный вариант уравнения Эйле¬ ра, СВОДЯТ задачу отыскания Рис. 10-7. Общая структурная схема методов экстремума функционала к оптимизации, экстремуму функции. Методы отыскания экстремума функции получили , такое большое развитие в кибернетике в связи с вычислительными трудностями решения системы алгебраических уравнений вида дР{Хъ ХЦ----Хп) =Ъ, У = 1. 2, ..., п, (10-8) особенно при наличии ограничений на координаты xj. Классическая математика ограничивалась разработкой методов решения и доказательствами принципиальной разрешимости уравне¬ ний вида (10-8), что привело к созданию так называемых аналити¬ ческих методов оптимизации. Однако при решении конкретных инже¬ нерных задач важно владеть процедурами, позволяющими доводить решение до числовых данных. Это заставило искать и разрабатывать численные методы оптимизации. Спор между сторонниками аналитических и численных методов с позиций кибернетики в известном смысле потерял свою остроту, 245
так как практика проектирования конкретных систем управления требует применения обоих методов. За аналитическими методами остается преимущество, заключающееся в возможности определения качественной картины поведения оптимальной системы при изменении ее параметров и структуры. Численные же методы обеспечивают полу¬ чение конкретных числовых значений параметров управления. Неко¬ торую попытку рационального объединения этих методов можно усматривать в интенсивной разработке человеко-машинных методов оптимизации, использующих язык диалога человека и ЦВМ, большие банки данных и возможности современных операционных систем. При этом удается повторять вычисления при разных условиях, исполь¬ зовать, где необходимо, аналитические методы, представленные в виде Рис. 10-8. Методы отыскания экстремума функции. стандартных программных блоков, и, самое главное, оперативно включать в процедуру отыскания оптимального управления интеллек¬ туальные способности человека. Интересно отметить, что при таком способе оптимизации исходный критерий оптимальности может быть нестрого математически форма¬ лизован в виде функции или функционала. Так, он может состоять из нескольких положений, сформулированных достаточно четко на словесном, содержательном уровне, что при наличии диалога чело¬ век — машина вполне допустимо. Сложность решения уравнений (10-8) резко возрастает с увеличе¬ нием числа переменных и ограничений на них. Поэтому большое раз¬ витие получили методы линейного и нелинейного программирования, прямые методы отыскания экстремума функции, а также дискретные принципы максимума и динамическое программирование (рис. 10-8). Методы отыскания экстремума функционала ведут свое начало от классических методов Эйлера — Лагранжа — Гамильтона, и закан¬ чиваются динамическим программированием и принципом максимума (рис. 10-9). В них также содержатся прямые методы отыскания экстре¬ мума функционала и различные частные методы. В соответствии со схемой на рис. 10-7 почти во всех методах (Эйле¬ ра — Лагранжа — Гамильтона, принципе максимума, динамическом 94R
программировании, прямых методах отыскания экстремума функции) можно выделить дискретные и непрерывные модификации, детермини¬ рованные и случайные варианты. Дискретная задача оптимизации возникает всякий раз, когда требуется найти оптимальное значение переменных, которые заданы, так же как и функция от них, в виде набора дискретных значений. В последнее время в связи с разработкой и внедрением АСУ чрез¬ вычайно большое значение приобрели методы целочисленного програм¬ мирования. Заметим, что одна из основных задач АСУ — оперативно¬ календарное планирование — относится к задачам целочисленного программирования. Единого общего метода решения задач целочис¬ ленного программирования нет. Разработано много способов решения пригодных для частного класса задач, среди которых большое место занимают нестрогие эври¬ стические методы. Особого вни¬ мания среди них заслуживают лингвистические методы оптими¬ зации. Они ближе всего подходят к человеческому способу мышле¬ ния и удобны для реализации на ЦВМ с помощью проблемно-ори¬ ентированных языков. Здесь уместно снова упомянуть о чело¬ веко-машинных методах решения целочисленных задач оптимиза¬ ции, являющихся по существу своему лингвистическими в ши¬ роком смысле, так как они ими¬ тируют применяемые человеком методы оптимизации и планирования с добавлением эффективных аналитических и числовых процедур. В заключение надо отметить, что в данном пособии одни и те же методы с разных точек зрения рассматриваются в разных разделах. Так, градиентный метод излагается в прямых методах отыскания экстремума функции и методах нелинейного (квадратичного и выпук¬ лого) программирования. Во втором случае он используется как аналитический, в первом — как численный метод. Замечание может вызвать имеющееся в пособии смешение двух принципов рассмотрения методов: по задачам и методу (или процедуре) решения. Динамическое программирование, принцип максимума и метод Эйлера — Лагранжа (в ограниченном плане) являются реали¬ зациями процедурного подхода. Первые два метода принципиально применимы ко всем задачам. Позадачные методы представлены симп¬ лекс-методом для линейного программирования, различными процеду¬ рами решения задач нелинейного и целочисленного программирования. Хотя с академической точки зрения такое разнообразие подходов может вызвать большие нарекания, но с точки зрения инженера-ки- бернетика, который должен иметь на вооружении весь комплекс ме¬ тодов, такое изложение нам кажется оправданным. Рис. 10-9. Методы отыскания экстремум функционала. 247
Глава одиннадцатая МЕТОДЫ КЛАССИЧЕСКОГО ВАРИАЦИОННОГО ИСЧИСЛЕНИЯ Прежде чем начать изложение аппарата классического вариацион¬ ного исчисления, следует остановиться на некоторых понятиях. Определим класс функций, с которыми имеет дело классическое вариационное исчисление. Это непрерывные, кусочно-непрерывные, гладкие и кусочно-гладкие функции. График непрерывной функции представляет собой плавную кривую без разрывов (рис. 11-1, а). Кусочно¬ непрерывные функции имеют конечное число разрывов, которые по величине могут быть бесконечными и конечными (рис. 11-1,6): если при подходе к точке разрыва значение функции устрем¬ ляется к бесконечности — это беско¬ нечный разрыв (точка с), если у функ¬ ции в точке разрыва существуют пределы слева и справа и разность между пределами конечная, то разрыв непрерывности называется конечным или разрывом первого рода (точка d).. Разрыв считается устранимым, если пределы слева и справа в точке раз¬ рыва равны между собой, но значение функции в этой точке отлично от них. Решения вариационных задач иногда находят в классе гладких функций, у которых в заданном интервале не¬ прерывна первая производная (учас¬ ток cb на рис. 11-1, 6), или кусочно¬ гладких, имеющих конечное число точек разрыва первого рода первой производной (рис. 11-1, г). Классические методы вариацион¬ ного исчисления не применимы к отысканию функций, оптимальных в классе функций, графики которых изображаются в виде, представ¬ ленном на рис. 11-1, в. Для таких функций характерно наличие вертикальных участков, где первая производная принимает бесконеч¬ ные значения. Однако такой вид оптимального управления наиболее интересен с практической точки зрения, в частности для задач макси¬ мального быстродействия. Это привело к необходимости разработки новых методов оптимизации типа методов Веллмана — Понтрягина— Кротова [JI. 69—75]. Теперь рассмотрим понятия глобального и локаль¬ ного экстремумов. Глобальный экстремум достигается срав- 248 г) Рис. 11-1. Графики функций управления. Ь различных
нением всех кривых данного класса, а локальный — сравнением только близких кривых. Например, требуется проложить кратчайшую дорогу между двумя пунктами, разделенными горой. Естественно, что ее следует искать среди путей, огибающих гору слева или справа. Допустим, наикратчайший путь слева короче, чем справа. Тогда путь слева будет давать глобальный экстремум, а путь справа — локаль¬ ный. Всякий глобальный экстремум одновременно и локальный, так как при определении глобального экстремума сравниваются все кривые данного класса, а при локальном — только соседние. Классическое вариационное исчисление основано на методе вариа¬ ций и дифференциальном уравнении Эйлера, вывод которого будет дан ниже. Это уравнение в различных модификациях встречается практически во всех методах вариационного исчисления, и поэтому ему уделяется особое внимание. 11-1. УРАВНЕНИЕ ЭЙЛЕРА Допустим, что на некоторой гладкой кривой, проходящей через точки а и Ьу достигается экстремум функционала ь I = \F(x, у, у) dx. (11-1) а Определим необходимые условия, которым должна удовлетворять функция у(х), чтобы на ней достигался минимум. Сравним значе¬ ния функционалов для близких к у{х) функций. Для этого при¬ дадим у (х) вариацию у(х) + аг|(*), где а — число; г] (х) — произвольная гладкая функция, удовлетво¬ ряющая условиям г] (а) = г\(Ь) = 0 и t](x) ^ 0. Рассмотрим разность функционалов ь ь А/ =\F (х, у+ ац, у + ац) dx-\F{xy у, y)dx, а а которая зависит от а. Разложим это приращение в ряд Маклорена по а (производные берутся при а = 0): л г I d? I I /11 o\ A1 = ate + Yd^ + --- (lb2) Выражение с r dl оУ= оь-j-, da' являющееся главной линейной частью функционала, называется первой вариацией функционала. Аналогично a2 d2 I Q1 = -о- т-т 2 da2 249
называют второй вариацией функционала. При малых ос всеми членами в выражении (11-2), кроме первого, можно пренебречь, т, е. Д/ » 6/. Минимум на кривой у (х) достигается при условии ЫъЫ = а-^0, (11-3) которое должно выполняться при любых а, положительных или отрицательных, если di/da = 0. Это же условие справедливо и для максимума, только тогда в соотношении (11-3) перед нулем запишем знак «о. Для получения уравнения Эйлера используем формулы (11-1) и (11-2): ь У + а^ il + a4)dx = а = Г Ш dJy + шЪ + 3F dU+Щ ^ = Р fdF_ ^+dF^\dX' J [ду da ду da ] J \ду ду ) Проинтегрируем второй член по частям ь ь ъ Так как rj (.х) обращается в нуль в точках а и Ь, то Lf i'dx=-\''-se-.dx- а а В результате (и4) а Теперь к выражению (11-4) требуется применить лемму Лагранжа, которая формулируется следующим образом: если непрерывная функ¬ ция М (х) обладает тем свойством, что ь \М{х) т](*) = 0 (11-5) а для любой гладкой функции т] (х), то обязательно М(х) = 0 (11-6) для всех а ^ х ^ Ъ. Действительно, предположим противное: пусть хотя бы в одной точке с, где а ^ с ^ Ь, М (с) > 0. Тогда выберем в качестве произ¬ 250
вольной функции г] (х) такую, которая больше нуля в окрестностях точки с, а на остальном интервале равна, нулю (рис. 11-2). При таком выборе произведение М(х)ч\(х) в окрестности точки х = с и интеграл будут отличны от нуля, что противоречит исходному условию. Тем самым лемма Лагранжа доказана. Поэтому в соответствии с формулами (11-4) — (11-6) необходимое условие экстремума запишется как Это — знаменитое уравнение Эйлера. Общее решение его содержит две неопределенные постоянные, для определения которых требуется удовлетворение двух условий. Как правило, в качестве таких условий задаются значения функции у(х) в начале и конце интервала у (а) И. у(Ь). Таким образом, экстремальная задача сводится к решению нели¬ нейного дифференциального уравнения с переменными параметрами, так как в общем случае функция F не¬ линейна относительно у и у. Заметим, что d dF. dx %у dx dx dF. dy dF. dy dx dy dx dy dx Подставляем это выражение в уравне¬ ние Эйлера и получаем: ry-Flx-Fky-F^ = 0. (11-8) Рис. 11-2. Пояснение к теореме Лагранжа. Отсюда следует, что в общем случае уравнение Эйлера является нелиней¬ ным дифференциальным уравнением второго порядка и поэтому его решить не удается. При нашем выводе для справедливости этого уравнения требуется непрерывность как первой, так и второй производных функции у (.х), т. е. заранее ставится условие непрерывности первых двух производ¬ ных на экстремали. Это условие необходимо для применения леммы Лагранжа, так как она справедлива при непрерывности функции М (х), совпадающей с левой частью уравнения (11-8). Но требование непрерывности не дает возможности рассматривать очень важные для кибернетики функции управления в виде ступенчатых кривых с насы¬ щением (рис. 11-1, в). Такая возможность появляется, как будет видно из дальнейшего, с применением принципа максимума Понтря- гина, для которого характерно введение разрывных вариационных функций игольчатого вида. Заметим также, что вариация т] (х) является гладкой функцией в классическом вариационном исчислении. Пример 11-1. Рассмотрим задачу о длине кривой I I = S = [Vl+j>2dx. 261
В данном случае F(x, у, y)=Vi+y2; У Fy = 0; F у Vl+P’ dx У [1 +у2?/2’ и уравнение Эйлера имеет вид: dF. dx откуда дифференциальное уравнение для экстремалей и решение запишутся как */= о; y==C1x-\-C2t где Сг и С2 — постоянные интегрирования. Как и следовало ожидать, прямая линия обеспечивает кратчайшее расстояние между двумя, точками. Пример 11-2. Если в функционале (11-1) придать функции k (т) вариацию аг] (т) и проделать необходимые преобразования, то условие dll da | а_0 = 0 запишется [Л. 71] в виде интегрального уравнения Винера — Хопфа Рассмотрим частные случаи уравнения Эйлера. 1. Пусть F не зависит от у. Тогда 4-Р'= 0. dx у 9 откуда F-= const. Из последнего уравнения можно определить у как функцию х и за¬ тем — искомую функцию у (х) как интеграл от этого решения. 2. Пусть F не зависит явно от х, т. е. F = F (у, у). Тогда уравнение (11-8) запишется в следующем виде: (11-9). Умножив все члены на у, получим выражение, откуда F-yF.y = C. (11-10) Уравнение (11-10) принято называть первым интегралом Эйлера. Умножать на г/ уравнение (11-9) можно только при условии, что у не обращается в нуль. Следовательно, умножая на у, можно потерять следующие решения вариационной задачи: у =.0, у = Л, где А — корень уравнения Fy (Af 0) = 0. 252
3. Допустим, что F зависит только от у. В этом случае уравнение Эйлера принимает вид: dx гУ и’ следовательно, у = const = k, и уравнение экстремалей запишется как у = kx + by т. е. экстремали будут прямыми линиями. 4. Наконец, допустим, что F-y-y = 0. В частности, это может быть, когда F = F (х, у) или F = М (х, у) + N (х, у) у, т. е. функционал или совсем не зависит от производной у, или зависит от нее линейно. Функционалы, для которых F*y-y = 0, называются вырожденными в силу следующих соображений. Перепишем формулу (11-8) F —F. —F. .у д = ..УУ.' (11-11) уу Из (11-11) видно, что для вырожденных функционалов не существует второй производной для экстремали, она не является кусочно-гладкой и, следовательно, допустимой функцией, для которой выводилось уравнение Эйлера. Для невырожденных функционалов Fyy может обращаться в нуль только в отдельных точках, за исключением которых формула (11-11) дает значение второй производной, т. е. экстремаль невырожденного функционала является кусочно-гладкой функцией, имеющей на от¬ дельных участках непрерывную вторую производную. Изломы кривой могут быть в тех точках, в которых или F-y-y = 0, или числитель правой части формулы (11-11) терпит разрыв. Эйлер получал уравнение другим методом, заменяя функционал ъ I = \F(x, у, у) dx (П-12) а приближенно суммой вида i = N i = N I**h= 2 F{Xh Уь yi~AxUl)Ax = 2 F^^x> (11-13) 8=1 где = a; yi = y i*i) = У (а)я> Хм = Ь\ yN = y(xN) = y(b); F(t) = F(xh yh y-L~ Благодаря такой замене вариационная задача о минимуме функцио¬ нала (11-12) сводится к задаче о минимуме функции. Необходимым 253
условием минимума функции является равенство нулю частных производных: где VF (0 = F (i + 1) — F (i). Устремление Ах к нулю в пределе переводит дифференциально¬ разностное уравнение (11-14) в дифференциальное уравнение Эйлера Меняя местами операции дифференцирования и взятия разности в уравнении (11-14) и опуская индекс iy получаем: Это — дифференциально-разностное уравнение, определяющее зна¬ чения yiy которые обращают в минимум сумму (11-13). Величины xt определяют разбиение на дискретные значения. В частности, можно считать, что Ах = I. Тогда На эти уравнения можно посмотреть с другой точки зрения, счи¬ тая, что требуется определить значения yt (при заданных лгг), обра¬ щающие в минимум сумму (11-15), в которой, в частности, может быть одно слагаемое (N = 1). Эта задача сводится к дифференциально¬ разностному уравнению (11-16). Можно еще упростить выражение (11-15), исключив переменные х{. Для этого следует принять xt = = 1,2,3..., что, по существу, уже было сделано, когда положили Ах = 1 (теперь только изменено начала отсчета, т. е. хх = 1). Благодаря’ такому приему практически исчезла зависимость от переменных xt и соотношения (11-15) и (11-16) можно переписать в виде dyi dyt dyt dyt dI _ dF{i)Ax 1 dF.(0 dF{i.+ l) = 0 или dF (i) _ d VF (i) dyt dyi A* (11-14) (11-7). или где dF_' p. _дЛ i = N i2] F(xi> Hi> Д^); (11-15) (11-16) N /1= Ц F{yh A yd; (11-17) (11-18) 254
byi = yi-yi-\; Эти соотношения могут служить основой при получении уравнений для дискретного динамического программирования и дискретного принципа максимума (см. гл. 12—14). Однако в принципе максимума Понтрягина (и аналогичных соот¬ ношениях динамического программирования Веллмана) вместо функ¬ ционала (11-12) рассматривается функционал вида ь х I = \F [у,и) dx, (11-19) а гдеу — координаты системы; и — управляющие, координаты. Формально функционал (11-19) получается из (11-12) заменой уи, а его дискретный аналог — из соотношения (11-17): h= 2 F(yh щ). i — 1 Получение уравнений, аналогичных (11-18), для случая такого задания оптимизируемой функции при определенных ограничениях на координаты уг и составляет предмет дискретного принципа макси¬ мума (см. гл. 14). Заметим, что в выражении (11-17) зависимость от Atji носит весьма условный характер, так как величина может быть заменена через tji и уи1 в соответствии с формулой byi = yi — yi-1* 11-2. УСЛОВИЕ ЛЕЖАНДРА Помимо уравнения Эйлера можно было бы остановиться еще по крайней мере на трех необходимых условиях экстремума: Лежандра, Вейерштрасса и Якоби. Здесь будет рассмотрено только условие Лежандра, которое, помимо прочего, позволяет отличать минимум от максимума. Так как на экстремали первая вариация б/ обращается в нуль, то знак приращения определяется в основном второй вариа¬ цией, поэтому в случае минимума б2/ ^ 0, в случае максимума б2/ ^ 0. Очевидно, что ь ъ Ш= \та?р{х’ У + ^а’ У + afl) dx=\ {рууЦ2 + ZFy-уЩ + Fy-yif) dx. а а Преобразуем второй член этого выражения, взяв интеграл по частям: b x = b Ь 2 5 РууЦЦ dx = 5 Fyy dr? = FyyTi* |* “ ‘ - 5 ± Fy. rf dx = a x = a a b {-Fyyv?dx, и S 255
откуда ь g = 2 § (Prf + Rrfldx; (11-20) a p~H p~iFa- Из формулы (11-20) следует, что для-выполнения условия минимума (п-21) необходимо, чтобы Руу^ 0- (11-22) Действительно, поскольку функция ц(х) произвольная, то ее всегда можно подобрать так, чтобы функция г\2 была мала, а гf велика. Выбор следует остановить на функции т](лг), малой по абсолютной величине, но быстро и резко изменяющейся. У такой функции знак второй вариации совпадает со знаком Напоминаем, что речь идет, об определении необходимого условия минимума, т. е. если есть минимум, то это условие выполняется для любых г). Покажем, что для выбранной таким образом функции из формулы (11-21) следует (11-22). Для этого предположим обратное, т. е. что -^0 0. (11-23) При таком выборе функция г\ получается малой, а ее производная — большой. Знак интеграла (11-20) определяется знаком R, т. е. знаком функции F-y-y, а следовательно, соотношения (11-23) противоречивы и из выражения (11-21) следует (11-22). Тем самым условие Лежандра доказано. Аналогичным образом можно показать, что для максимума 11-3. ЗАДАЧА С ПОДВИЖНЫМИ КОНЦАМИ Могут встречаться задачи более сложные, в частности такие, в которых концы кривых не закреплены: задачи с незакрепленными или подвижными концами. В этом случае вариация функционала зависит от вариации искомой функции и ее концов. На рис. 11-3 изображены исходная у (*) и проварьированная у(х) + h (*) функции. 256
Приращение функционала представим в форме А/ = / (y + h) — I (у)= $ F(x, y + h, y + h)dx~ х0 -f- бл-о Xi Xl — \F(x, у, у) dx= 5 [F(x, y + h, y + 'h) — F(x, y, y)]dx + x0 Ao X\ "Ь ^ Xq -(- 6a*0 -4- ^ F (x, y + h, y + h) dx— § F (x, y + h, y + h) dx. X, л-„ Здесь первый интеграл — вариация кривой, а два последних — вариации концов. Выделим главную линейную часть приращения— вариацию 81, для чего положим малыми h, h, бх0, бх^ 61= X{[Fl/h + Fih]dx + F\x-Xi6x1-F\x=X'6x0. (11-24) Второй член подынтегрального выражения в формуле (11-24) проинте¬ грируем по частям, в результате чего получим: 6/ -s Xq бх„. Ха С точностью до бесконечно малых высшего порядка можно написать (см. рис. 11-3): Ь(х0) = 8у0 — у8х0-, h (хх) = 8уг - y8xlt и тогда окончательно получим: 6I-${F>-sFi)hdx+ Х0 + F + {Р- У?ь) ~ Р-у U,0 % -{F- yF•) \х=х<1 бх0, (11-25) Рис. 11-3. Пояснение к вариацион¬ ной задаче с подвижными концами. где есть интегральный член, зависящий от вариации кривой внутри первоначального интервала, и члены без интеграла, зависящие от вариации концов. Ниже с помощью этого соотношения получим ряд важных формул. 11-4. УСЛОВИЕ ТРАНСВЕРСАЛЬНОСТИ Часто требуется определить экстремум функционала среди, кривых у(х), концы которых могут перемещаться по двум кривым у = ф (*); у = у (х). 9 Основы кибернетики 257
В общем случае в качестве границ могут выступать трехмерные и /г-мерные кривые и поверхности в задачах, связанных с морскими пере¬ ходами с одного материка на другой или космическими полетами между близко расположенными небесными телами. Примером такой задачи может быть определение минималь¬ ного расстояния между окружно¬ стями (рис. 11-4). Для решения необходимо определить не только кривую, но и положение ее концов Л и В, которые могут быть найдены из условия трансверсальности. Оче- Рис. 11-4. Пояснение к задаче опреде- видно, что эта кривая должна ления минимального расстояния меж- быть экстремалью, так как В про- ду окружностями. тивном случае через те же точки А и В можно было бы провести другую кривую, дающую минимум расстояния, поэтому первый член в формуле (11-25) обращается в нуль и б/ = F-y \х=хЬу1 + (F- yF•) 8Xl - F- (х=Хо бу0 - (F — yF-) \х=х8х0. С точностью до бесконечно малых высшего порядка запишем: 6t/o = Ф (*) бх0; бг/х = ф (х) 8хь откуда условие экстремума б/ — 0 приобретет вид: (F-ц + F- yFi) \х=х, 8^1 - (^Ф + F- yF-) |,=,о бх0 = 0. Так как блг0 и бхх — независимые друг от друга приращения, то (i?F-y + F-yF-)\x^x=0-, (yF-y + F-yF-y)\x^Xo = 0. Эти соотношения называются условиями трансверсальности. Входя¬ щие в решение уравнения Эйлера две неопределенные константы могут быть определены из этих условий. Положения концов экстре¬ мали (точки х0 и хг) могут быть найдены как точки пересечения экст¬ ремали с кривыми: у = ср — первый конец; у = ф — второй конец. Условию трансверсальности можно дать интересную геометриче¬ скую интерпретацию, если рассмотреть функционал вида I = \ f(x,y)V\+y*dx. (11-26) В этом случае Fy=f(x> У) , /-Цг = - Ду " м+у2 1+У 258
и условие трансверсальности запишется как /7(1+УФ) = 0 1+ У2 откуда следует, что ФУ +1 = 0;, фу = — 1 (11-27) или у = — I /ф. Аналогично для второго конца j = -i (11-28) Но условия (11-27) и (11-28) означают, что кривая у (х) пересекает кривые ср (я) и ф (х) под прямым углом, поэтому для функционалов вида (11-26) условие трансверсальности совпадает с условием ортого¬ нальности. К такого рода функциона¬ лам относится функционал, который определяет расстояние s=i у 1+уdx• Отсюда можно утверждать, что крат¬ чайшее расстояние между двумя кри¬ выми получается вдоль третьей, им перпендикулярной. Так, для двух ок¬ ружностей это будет перпендикуляр, проходящий через их центры. Функционалу (11-26) также мож¬ но дать геометрическую интерпре¬ тацию (рис. 11-5). Функция z = f (х, у) определяет некоторую поверхность в трехмерном пространстве и физически может означать, например, расход топлива на единицу длины. Таким образом, интеграл означает полный расход топлива вдоль траектории, соединяющей две граничные кривые. Вариационная задача на минимум означает опре¬ деление такой траектории у (х), соединяющей кривые у = у (х) и У = Ф М» вдоль которой расход топлива был бы минимален. Если рассмотреть интеграл вида I = \ f(x, у) V 1+У2 dx, xt то его можно интерпретировать, в частности, с помощью поверхности вращения, которую описывает в трехмерном пространстве кривая, проведенная в плоскости (х, у) между кривыми у = ф (х) и у = ф (х), при вращении вокруг оси Ох. В этом случае / (х, у) означает вес еди¬ ничной площади. Элемент площади равен у da dS = y\f 1 + у2 dx da. Физически минимум функционала 2 71 х2 Х2 / = ^ da 5 f(x, y)yVl + y2dx=2n $ f (х, у) у V1 + if dx О х i х, означает определение такой кривой у (х), для которой вес площади поверхности вращения минимален, Рис. 11-5. Пояснение к функцио¬ налу (11-26). 9 259
11-5. ЗАДАЧА НА УСЛОВНЫЙ ЭКСТРЕМУМ Как уже упоминалось, в практике встречаются задачи на отыскание экстремума функционала при дополнительных условиях, наложенных на функции, в классе которых ищется экстремум. Это и есть задачи на условный экстремум. Их примером может служить задача о нахожде¬ нии кратчайшего расстояния между двумя точками при условии, что кривая, соединяющая эти две точки, лежит на некоторой поверхности, например на сфере. Решение сводится к определению минимума функ¬ ционала / = S = 5 1/1 +У2+ 'г2 dx (11 -29) при условии x2 + y2 + z2-R* = 0. (11-30) Прежде всего напрашивается мысль о том, чтобы выразить 2 через х, у из уравнения (11-30) и, подставив его в соотношение (11-29), решить обычную задачу на экстремум при одной переменной. Однако ограничивающие условия (11-30) могут быть очень, сложными, и по¬ этому предпочитают другой путь — метод неопределенных множи¬ телей Лагранжа. Существует следующая теорема: для того чтобы найти экстремум функционала 1=\Р{х, У, У, г, г) dx Хо при условии У, 2) = 0, необходимо ввести вспомогательную функцию Ф = F + X (х) ф, где X (х) — пока неизвестная функция (неопределенный множитель Лагранжа), и искать обычными методами экстремум функционала х^ -ll=*\<bdx. ' (11-33) *о Таким образом, в задаче требуется определить три неизвестные функ¬ ции у (х), г (х), X (х), удовлетворяющие трем уравнениям: двум урав¬ нениям Эйлера для функционала (11-33) ®rs"rf.-iiVVW-‘ и одному уравнению связи $(*, уг г) = 0. (11-34) (11-31) (11-32) 260
Докажем справедливость этой теоремы. Если исключить из рас- сМ0ТреНия особые случаи, то можно считать, что принципиально урав¬ нение (И-32) разрешимо относительно г: г = \|)i (х, у). Подставив это выражение в функционал (11-31), получим: ач I=\F(x, у, у, % Ци + У>1уУ)(1х. (11-35) Х0 Если исходная задача имеет решение в виде пространственной кривой, которая обращает функционал (11-31) в минимум, то проек¬ ция этой кривой на плоскость (х, у) будет обращать в минимум функ¬ ционал (11-35). Обозначив через F функцию аргументов х, у, у> кото¬ рая получается из функции F (х, у, у, г, г) заменой г = (х, у), можем написать: Л р щ = Fy + FAly + Fx .№*у+Ъуу&)1 dF ду dx dy dx V 1 ^{ydx г\У1хуТУ\уу) Учитывая эти соотношения, уравнения Эйлера для функции F dF__d_dJL = о ду dx ду можно переписать в виде F,+Mp‘-EF;)-sFi=0- Дифференцируя условие (11-32) по у, получаем: Фу+Фгф1у = °- После исключения из этих двух последних уравнений получаем искомые соотношения: F- — F- Fs-^-F. У dx у dx z , , ч - = Цх). % ь Тем самым теорема доказана, и доказан метод неопределенных мно- жителей Лагранжа для задачи на отыскание условного экстремума. Это. правило остается справедливым и для случая с несколькими ограничивающими условиями типа (11-32). При этом ищут экстремум функции Ф = F (л:, i/o> Уъ • • •» Ум Уоу Уъ • • •» Уп) 4~ п + 2 Уь Уг> •••> Уп)- /= 1 261
Наконец, правило неопределенных множителей Лагранжа сохра¬ няется и тогда, когда ограничивающее условие содержит производные Ф (*> У, У, z). В этом случае экстремальная задача называется обоб¬ щенной задачей Лагранжа. Для задачи на условный экстремум можно записать условие трансверсальности, при этом роль функции F будет играть функция Ф = F + А,ф. Примером задачи на условный экстремум является изопериметрическая задача, которая получила tanoe название из-за частной задачи определения среди всех кри¬ вых равной длины (изопериметрических) одной кривой, ограничивающей максималь¬ ную площадь. Здесь экстремум функционала xt I = §F (х, у, у) dx (11-36) хо определяется при ограничивающем условии в виде интеграла 1 — ^К(х} у у у) dx — const. Хо Данная задача сводится к обобщенной задаче Лагранжа введением функции Ф = = F + А,0К, после чего решается задача на глобальный экстремум функционала / = ^ ф dx. х0 Интересно обратить внимание на принцип взаимности в изопери- метрической задаче. Уравнение экстремалей не изменится, если в этом функционале Ф умножить на постоянное число. Тогда функция Ф запи¬ шется в виде ф = k01F -|- Я02К, что означает возможность отыскания экстремума функционала / xt при постоянстве /г = $ Kdx и, наоборот, экстремума функционала 1Х хг при постоянстве I — экстремали будут одни и те же. При этом не исклю¬ чается случай с Х01 = Х02 = 0. 11-6. ОБОБЩЕННАЯ ЗАДАЧА ЛАГРАНЖА. ЗАДАЧИ МАЙЕРА И БОЛЬЦА К обобщенной задаче Лагранжа сводятся почти все частные задачи вариационного исчисления. Так, при зависимости функционала от высших производных задача также решается методом Лагранжа. Действительно, если имеется функционал *i / = \ F (х, у, у, у) dx Х° и введена новая функция у = г, у = z, то решение сведется к отыска¬ нию экстремума функционала / = $ F (х, у, у, z) dx хо 262
при условии у — г = 0. (11-37) Задача Майера формулируется следующим образом. На проме¬ жутке [а, Ь] задана система т дифференциальных или алгебраиче¬ ских уравнений с п неизвестными функциями yj (х): Фх (*, Уъ ..., уп, Уъ .. •, Уп) = 0; ) ; • • * ‘ (П-38) Фт (■*'> Уъ • • • » Упу Уъ Уп) — 1 причем п < т. Если n = т, то уравнения (11-38) с граничными усло¬ виями полностью определяют функции у;- (х) и никакой вариацион¬ ной задачи нет. При п> т имеется свобода варьирования и можно ставить задачу об отыскании п — т функций yj (х), которые на одном из концов интервала [а, Ь] достигали бы экстремального значения. Примером может служить задача о разгоне двигателя, который должен достичь в момент Т максимальной скорости вращения со Т. Задачу Майера легко преобразовать к задаче Лагранжа, если ввести п — m новых переменных Uj = yj. (11-39) Тогда она будет заключаться в нахождении экстремума функционала ь I = ^ (Ui + и2 + ... + un_m) dx а при ограничивающих условиях (11-38). Так, в задаче с двигателем этот функционал запишется как т I = (o(T) = ^(bdt. о Можно и наоборот задачу Лагранжа свести к задаче Майера, поэтому правомерно считать их эквивалентными. Задачей Больца или смешанной называется задача отыскания экстремума функционалов вида / = $ F(x, у, y)dx + Ф[х0, у(х0), хъ у(х^\ *0 при наличии ограничивающих условий или уравнений связи. Эта задача эквивалентна задаче Лагранжа и сводится к ней, если ввести переменную с1Ф и = -г-. ах В этом случае функционал принимает вид: / = \ F (х, у, у, и) dx, гДе Ъ F{x, у, у, u) = F(x, у, У) + ^. 263
Можно сказать, что все три задачи обладают одинаковой степенью общности. Задача Майера (и задача Больца при F = 0) интересна с той точки зрения, что формально в ней ищется функция, доставляющая экстре¬ мум функции, а не функционалу, заданному в виде интеграла, и тем самым как бы перекидывается мост между методами отыскания экстре¬ мума функционала и функции. 11-7. ЗАДАЧА С ОГРАНИЧЕНИЯМИ В КЛАССИЧЕСКОМ ВАРИАЦИОННОМ ИСЧИСЛЕНИИ Уже указывалось, что на практике для достижения оптимального управления часто приходится отыскивать экстремум функционала при ограничениях, наложенных на класс сравниваемых функций [Л. 70]. Дело в том, что например, мощности исполнительных устройств систем управления, как правило, ограничены (например, мощность электромеханических или гидравлических двигателей). Математически Рис. 11-6. Пояснение к задаче с ограничениями. это означает, что для сравнения допускаются функции yjy удовлетво¬ ряющие неравенству Ф/ {%> Ujy Уj) Д i = 1, 2,* ..., ш. Такие задачи удается решать на уровне инженерной строгости введе¬ нием односторонних вариаций и дополнительным усложнением функци¬ оналов. При этом задача, естественно, усложняется. Начнем с простей¬ шего случая, когда заданы функционал вида ъ I = \Р(х, у, у) dx (11-40) а и ограничивающее условие у(*)5з>Ф(*).- (11-41) Кривая у = ф (х) определяет границу области, внутри или вне кото¬ рой должна находиться функция, доставляющая'экстремум функци¬ оналу (рис. 11-6). Области, в которые включается граница, назы¬ ваются замкнутыми. Основная трудность в решении таких задач состоит в следующем. Для замкнутой области кривую у (.х) можно 264
сравнивать только с кривой у + б у, так как если у (х) проходит по границе [у = ф (*)], то кривая у — 8у (бу > 0) уже выходит за пре¬ делы допустимой области, т. е. на границе допустима только одно¬ сторонняя вариация. При выводе же основного уравнения Эйлера использовались вариации обоих знаков у + 8у и у — 8у (8у > 0) и значения функционала на экстремали у (х) сравнивались с его зна¬ чениями для обеих допустимых функций у + 8у и у — 8у. Для того чтобы устранить это несоответствие, заменяют переменные: вместо у вводят z, пользуясь уравнением z\=y-\|ф), из которого следует, что 2гг — у — ф (х) или y = 2zz + ty(x). Поэтому функционал (11-40) в новых переменных может быть запи¬ сан в виде ь I = \F[x, + ^(х), 2zz + i>(x)]dx. (11-42) а На новую функцию г (х) не наложено никаких ограничений, просто на границе области она принимает значение z = 0, и экстремум функци¬ онала (11-42) можно искать обычным методом, придавая г двусторон¬ ние вариации. В результате получится уравнение Эйлера для функ¬ ции г: F'~iFi=°- (1Ь43) Но так как dF dF ду . dF_ dy_F 9 ic.of- di~V di) dz~rvzz^rUzz’ имеем: F. =dJL dJi = F.9? * ду dz « ' (F-2z) = 2zF- +2z 4- F- dx z dx У ' у 1 dx у и уравнение Эйлера (11-43) может быть переписано: Fz-^F-=2zFy-2z^-F-=0 2 dx 2 у dx У или d_ dx * у 2* Fy-±Fh) = 0. (11-44) Уравнение (11-44) распадается на два: z — 0, которое совпадает с урав¬ нением у = ф (я), и уравнение Эйлера F — — F. — 0 dx у ~~ Из этих двух уравнений следует, что экстремум при наличии ограни¬ чений может достигаться лишь на кривых, составленных из кусков 265
экстремалей и кусков границы допустимой области. В частных слу. чаях длина одного из этих кусков может быть равна нулю. Для полного решения задачи с ограничением необходимо найти условия перехода экстремали к границе области и наоборот. Допус¬ тим, что экстремум достигается на составной кривой и в точке х0 происходит переход от экстремали к границе области У = {х). Для этого случая запишем: *0 b I = \F(x, у, y)dx+ \ F[x, if (л:), $(x)]dx, а *„ придадим точке перехода вариацию х0 + 6л:0 и вычислим вариацию функционала, которая будет состоять из двух частей. Первая часть содержит вариацию на экстремали *0+6*0 *° бл= $ F (*> У- y)dx — \ F(x, у, у) dx, а а вторая — на граничной кривой ь ь б/2= ^ F[x, if (л), ф (*)] dx — ^ F \х, ф(х), ф (x)]dx. *0 — 6*0 *0 Вариация функционала на экстремали вычисляется по формуле вариации функционала со свободным правым концом, который пере¬ мещается по кривой у = ф (х), т. е. 8у0 = ф6л;0: б/l = Fh !^о Ьу0 + (F - ijF-y) \x_Xt 6х0 = [F + (Ф - У) Fb\ бл:0, вариация функционала на граничной кривой 6/2= -F[x, ф (л:), ф (л:)] U=at0 блг0. Так как экстремум должен удовлетворяться на составной кривой, то б/1 + б/2 = 0. Отсюда, учитывая произвольность 6л;0, получаем: Р{х, У, y) — F(x, У, Ф)-(*/-Ф)^1*=*0 = 0; (11-45) при этом учтено, что уЬ>(х0) = у(х0). Преобразуем разность F (х, у, у)—F (х, у, ф), используя теорему Лагранжа о среднем значении f(a)-f(b) = {a-b)f(c), (11-46) где а^с ^ Ь, откуда Р(х, У, $)-Р{х, у, ф) = (у - ф) F• (х, у, q) здесь q лежит между у и ф). Формула (11-45) теперь запишется в виде соотношения (у- ф)[^(дс, у, q)-F-y(x, у, у)] \х=Хо = 0, 266
применив к которому снова формулу Лагранжа (11-46), получим: (У-$)(4-У)Рц(х, У. <7i)] !.*=*„ = О, где Q\ — промежуточное значение между q и у (х0). Из этой формулы следует, что если Fy фО в точке перехода х = х0, то у = ф, так как q = у только при у = ф в силу того, что q — промежуточное значение между у и ф. Таким образом, в точке сопряжения экстремали и гра¬ ничной кривой касательные к ним должны совпадать. Это условие может не соблюдаться лишь при F уу = 0, т. е. в отдельных особых точках функционала (в точках излома экстремали), или для вырож¬ денных функционалов, для которых F" = 0. Полученное условие непрерывности касательной дает дополни¬ тельное соотношение, необходимое для определения постоянных интегрирования. Если решается задача типа изображенной на рис. 11-6, то после нахождения уравнений экстремалей требуется определить шесть параметров: по две постоянные интегрирования для левого и правого участков экстремали и две для абсцисс точек перехода от одной экстремали к граничной кривой и от граничной кривой к дру¬ гой экстремали. Эти константы находятся из шести уравнений, которые получаются (по два): 1) из граничных условий прохождения экстремалей через точки А и В; 2) из условия равенства ординат экстремалей ординатам граничной кривой к точкам сопряжения у(х1) = \р(х1); У{* а) = Ф(*2); 3) из условия равенства производных на экстремалях производ¬ ным на границе области в точках сопряжения У (xi) = Ф (*i); У (*2) = Ф (*2)- Теперь рассмотрим условие, которому должна удовлетворять кривая, обращающая функционал в экстремум на границе области. Пусть требуется найти функцию у (х), которая дает минимум функцио¬ налу (11-40) при ограничивающем условии (11-41). Придадим у (х) вариацию б у на границе, где у = ф (х). Чтобы не выйти из области допустимых функций у (х)9 необходимо иметь б у > 0. Вариацию функционала при переходе от кривой ф (х) к кривой ф (х) + б у можно представить в виде ь а Чтобы функция у (х) доставляла минимум, необходимо иметь S/ ^ 0, но здесь используется односторонняя вариация б у > 0, поэтому из этого соотношения не следует, что 267
и можно лишь утверждать, что Отсюда видно, для того чтобы функция у(х) доставляла минимум функционалу (11-40) при условии (11-41), необходимо выполнение уравнения Эйлера для участков кривой, состоящей из экстремалей, и неравенства Эйлера (11-47) для участков, состоящих из граничных кри¬ вых. Из этого неравенства следует очень важное соотношение, которое может быть получено следующим образом. Проведем в некоторой точке <Л граничной кривой, доставляющей экстремум, экстремаль ум (х), касательную к границе области ф (х), так что Ум — (11-48) Так как на экстремали удовлетворяется равенство F« - TxFh = Fv - Fxy -ру'уУ~ РУуУ = то, вычитая его из равенства (11-47) и учитывая (11-48), имеем: Fyy {уж — ^ 0. Отсюда при условии, что для.минимума Fyy ^0 и полагая Fyy =^0, получим искомое соотношение У м _ Фсм (1+yMf2 "О+'Ы372 ’ (11-49) означающее, что кривизна экстремали не должна быть меньше кри¬ визны граничной кривой в точке перехода с экстремали на граничную кривую: Ку ^ /Сф. Соответственно радиус дривизны экстремали не должен быть больше радиуса кривизны граничной кривой: Ry ^ R Для максимума знаки в этих соотношениях поменяются на обратные. Кроме того, условия у ^ ф и Ьу ^ 0 справедливы, когда экстремаль лежит над ограничивающей кривой. В противном случае все знаки при условии минимума меняются на противоположные: Ф(*); Ry'SzRty Это правило очень удобно применять для выяснения качественной, а иногда и точной геометрической конфигурации экстремалей и гра¬ ничных кривых. Пример 11-3. Найдем кратчайший сухопутный путь между точками А (1; 0,5) и В (3,5; 3), не заходящий на круглое озеро радиусом 1 и центром в точке О (2; 2) (рис. 11-7). Для этого определим минимум функционала 3,5 ' = \ V\+y2dx; 1/(1) = 0,5; у (3,5) = 3 268
При наличии ограничении (*_2)2 + fo-2)a^l. пряхмые линии. Экстремум достигается Экстремали приведенного интеграла на составных кривых. Если Fyu= (1— у2У3/2Ф0, то в точках сопряжения касательные непрерывны. Искомый путь пройдет из точки А по касательной к окружности, далее по окружности и затем снова по касательной к ней, проходящей через точку В. Действительно, если рассматривать i n нижний участок АА^В, то для ® него яр > 0 и область допустимых экстремалей лежит под окружно¬ стью. Поэтому бг/ < 0 и яр > j). Так, переход с экстремальной кри¬ вой, представляющей собой прямую линию АА1} на нижнюю часть окружности разрешается, но только в точке касания прямой и окруж ности. Аналогично на участке АА2В2В для перехода на окруж¬ ность необходимо, чтобы яр <0; 6*/>0; у ^ яр. Переход на окружность разрешае- / 2 5 Рис. 11-7. Пояснение вый случай). 4 5 примеру 11-3 (пер- реход с окружности на прямые В±В и В2В разрешается в точках каса¬ ния и В2. Задача имеет два ре¬ шения: на нижней кривой ААгВ1В достигается абсолютный экстремум, на верх¬ ней кривой АА2В2В — относительный. v_ Для случая, когда озеро не круглое (рис. 11-8), с помощью формулы (11-49) можно графически построить путь, соединяющий точки А и F и не заходящий на озеро. От точки А до точки В движе- ние происходит по прямой линии,пред¬ ставляющей собой экстремаль. В точке касания В этой прямой с кривой кон¬ тура озера осуществляется переход на эту кривую, который разрешается при < 0; ф > 0; г/ =<: ф. В точке С, для которой еще сохраняется условие ф ^ 0 (не доходя до точки пере¬ гиба), осуществляется переход на пря¬ мую CD, имеющую с контуром озера касания в точках С к D. Движение по участку контура CCXD не разрешается, так как для него не выполняется тре¬ бование ф ^ (/, обусловленное тем, что б у < 0, так как ф < 0, а у -- 0. Ограничения могут быть более сложного вида, чем формула (11-41). В частности, ограничение может быть наложено на производную i(x, у). В этом случае неравенство заменяем равенством У = Ых> У) х Рис. 11-8. Пояснение к примеру 11-3 (вто¬ рой случай). 269
и, решив, его, получаем: y = ty(x, С). Переменные здесь целесообразно заменить в соответствии с формулой z2 = y — ^(x, С). Могут встретиться экстремумы, зависящие от нескольких функций: ь I =\F(x, уъ Уъ .... уп, Уъ Уъ Уп) (11-50) Ых, Уъ • ••> //„)<0 (11-51) или ■tiC*. Уъ •■■Лп, Уъ .... уп)^ 0. Допустим, что экстремум тогда достигается на кривой г/i (х) уп (х), и, придавая поочередно вариации каждой из этих функций при неиз¬ менных остальных, получим тот же результат. Касательные в точке сопряжения равны, поэтому на границе области неравенство (11-51) перейдет в равенство, т. е. Ч>(*, Уъ .•>, уп) = 0, (11-52) а при зависимости функционала от одной функции 'Ж у) = о, откуда сразу найдется искомая функция у (х). Для функционала от п функций в уравнение границы входят п неизвестных функций, и чтобы определить участки границы, необходимо найти экстремум функци¬ онала (11-50) при связях (11-52). Пример 11-4. Рассмотрим задачу, в которой решение имеет место только на гра¬ нице. Определим минимум функционала п / = 2 9 */ = min /= I при ограничениях п 2 aij Xf^bi, ' i = 1, 2, ..., m;. m < n. / = 1 Сведем задачу к задаче Майера, вводя дополнительную переменную п *п+1= 2 с1х/ /= 1 и считая, что ограничения имеют форму равенств: Л+1 (11-53) — ^j^ij Xf bt — 0, /=1 п Фт+i = 2 ci xi xn+i = 0 5 /= 1 xn+i = min. (11-54J ai>n+i — й, i = 1, 2, ...» m, 270
Ее можно свести к обобщенной задаче Лагранжа, считая xi дифференцируемыми функциями некоторой переменной t. Тогда, если ввести переменную ип+1 = хп+ь условие (11-54) сведется к минимуму функционала / = j «„+, dt. Функция Лагранжа определяется по формуле т+1 ф==/7+ 2 i = \ где фг находится из (11-53), а функция F = xn+i = J un+i dt. Очевидно, что здесь = 0 и имеет место особый случай с вырожденным функцио¬ налом. Пример 11-5. Заданы неголономные, т. е. зависящие от производных, ограни¬ чения dxt п —L=z'2lai/xf+biu, /=1,2,..., п. /= 1 Определим координаты х системы и управляющее воздействие и таким образом, чтобы функционал т / = j <^ = min, xj (7) = 0, и при условии, что на и (t) наложено ограничение: Нетрудно видеть, что здесь тоже имеет место вырожденный случай, когда Ф"= 0» так как 11-8. ВЫРОЖДЕННЫЕ ФУНКЦИОНАЛЫ В классическом вариационном исчислении, как правило, не рассматривается случай вырожденного функционала Т7.. = 0. Однако разработано много методов для частных случаев вырожденных функционалов. Потребностям инженера-матема- тика наиболее отвечает метод Кротова [Л. 75]. Метод Кротова позволяет находить решения, геометрически изображаемые кривыми с вертикальными участками или, более строго, с участками бесконечных значений первой производной. Из предыдущих рассуждений следует, что равенство нулю второй производной F,, может приводить к скачкам первой производной, в результате которых происхо¬ дит излом экстремали. При конечном числе скачков решение можно получить, исполь¬ зуя условия (11-25), которые в данном случае будут иметь вид условий Вейерштрас- са — Эрдмана [Л. 70, 75]. Однако эти условия не позволяют определять решения, содержащие участки с бесконечными значениями первой производной. Как уже указывалось, если F.. = 0, то функционал можно представить в виде ъ I = $ [М (х, у) + N {х, у) у] dx. (11-55) а 271
dxF дУ - = Щх, */);• ^- = N{x, y)9 Уравнение Эйлера при этом запишется как Р d г дМ , dN • dN - dN _ дМ dN _Л у dx у ду ду У ду У дх ду дх » ( 0 ) откуда видно, что оно является не дифференциальным, а алгебраическим или конеч¬ ным уравнением, не содержащим производной от искомой функции. Отсюда могут иметь место два случая. 1. Алгебраическое уравнение (11-56) удовлетворяется тождественно. Тогда, учитывая, что у dx — dy, напишем: Ъ / = J М dx-\-N dy а ИЛИ Ь I = j 04 (х, у) = V (хь, Уь) — ¥ (ха, уа), а где ~дх~1,1^'!*;’ ду откуда в силу уравнения (11-56) имеем: д2 гР дМ _ dN = д2Ч дхду ду дх ду дх ' Таким образом, можно утверждать, что условие (11-56) является необходимым и достаточным (при непрерывности и дифференцируемости функций), для того чтобы подынтегральная функция была бы полным дифференциалом. В этом случае функ¬ ционал не зависит от пути интегрирования, а зависит только от начальных и конеч¬ ных точек. Для любой функции у (х) функционал сохраняет одно и то же значение. Поэтому в известной степени вариационная задача об экстремуме функционала теряет свой смысл. Пример 11-6. Найдем экстремум функционала 1 1 = \{у+ху) dx\ у(0) = 0г у(1) = 1. о В этом случае уравнение Эйлера превращается в тождество 1 = 1 и функционал не зависит от пути интегрирования. Действительно, ^ (у + х'у) dx = ^ydx+xdy= ^ d (ху)=ху х~ 1, У= 1 х—0, у=О т. е. при любой кривой, соединяющей точки (0; 0), (1; 1), значение функционала будет одно и то же. 2. Алгебраическое уравнение (11-56) выполняется не тождественно. Тогда оно определяет одну или несколько экстремальных кривых. Метод Кротова отыскивает экстремали в классе кусочно-непрерывных кривых с вертикальными отрезками. Пример 11-7. Найдем экстремаль, которая дает минимум функционалу 1 /= \х2уЧх\ уф 1)=-1* у{ 1) = 1. -I Здесь F.. = 2 х2. Это выражение обращается в нуль при х = 0, что означает наличие вертикальных участков экстремалей при х = 0. Данный пример хорошо показывает, что равенство F., = 0 не исчерпывается функционалом вида (11-55). 272
Уравнение Эйлера в данном случае имеет вид: 2 х2у = Съ и его решением будут гиперболы однако ни одна из них не проходит через точки (—1, —1), (1; 1), а минимум функцио- *1 ( Г i 1 Я 1 i -/I I *1 I L Ч У w={ Рис. 11-9. Пояснение к примеру 11-7. нала существует и равен нулю. Нулевое значение функционалу будет придавать функция, показанная на рис. 11-9: — 1 — 1 ^ л; < 0; 1 9 <d х ^ 1, которая в точке х = 0 терпит скачок. 11-9. КАНОНИЧЕСКАЯ ФОРМА УРАВНЕНИЙ ЭЙЛЕРА При оптимизации можно пользоваться симметричной или кано¬ нической формой дифференциальных уравнении, ведущих свое начало из вариационной механики Гамильтона — Лагранжа. Если ввести вместо у новую переменную p = F.y, (11-57) то можно считать, что для случая неособого функционала из нее можно выразить у = ф (ху у у р). Поэтому если ввести функцию, называемую гамильтонианом Н(х, у, р) = -F(x, у, у) + уР-у(х, у, у), где у = ф (р), т. е. Н(х, у, p)=-F[x, у, Ф(р)] + рф(р), то прямым дифференцированием можно получить следующие уравне¬ ния: ^L-^d±n~ F ду dy ^ у у dy ’ дН п дер . / ч , дф (11-58) (11-59) 273
Затем, подставив в уравнение Эйлера формулу (11-57), получим: Fu-4-F-= о у dx У р dp Fy~dx- С учетом последнего соотношения и формулы (11-57) уравнения (11-58) и (11-59) примут вид: -f=s- <и-“> %-%■ 01-е.) Это — гамильтонова форма уравнений Эйлера, представляющая собой связанную пару дифференциальных уравнений в частных производ¬ ных. Иначе их называют канонической формой уравнений Эйлера или уравнениями Гамильтона — Эйлера. Иногда вводят функцию Нг = —Я, тогда из первого уравнения знак «минус» переходит во второе. Переменные риг/ называются каноническими. С их применением условие Вейерштрасса — Эрдмана записывается в виде Рх+о ~ Рх-0 *> Я л:+о = Н х-о* Если имеется задача Лагранжа, то для вспомогательной функции Ф = F+ i= i можно записать уравнение Эйлера %~гЛг°- /-°. '•2 » и уравнения Гамильтона —Эйлера дН dpj dyj dx * дН dpj dx f где Я=-Ф+2у,Ф.; /= 0 / Если имеется обычная задача на экстремум для случая п перемен¬ ных, то вместо п уравнений Эйлера
можно записать 2п уравнений Гамильтона — Эйлера дН dpj' дуj dx * dH___dyj_ dpj ~~ dx * где гамильтониан H= -F+ 2 i = i 1 Функция Гамильтона H выбрана равной левой части первого интег¬ рала Эйлера [формула (11-10)1, так как во многих задачах это выраже¬ ние сохраняет постоянное значение, если функция F или Ф явно не зави¬ сит от х. Такой независимости можно достичь специально путем выбора переменных и ограничивающих условий, как это делается в принципе максимума Понтрягина. Этот метод целиком заимствован из вариаци¬ онной механики, где часто истинное движение происходит таким образом, что функция Гамильтона сохраняет постоянное значение. Существует такое построение теоретической механики [Л. 76], в котором все основано на уравнениях движения Гамильтона и функции Гамильтона, которая принимается как Я(р, Ч, <) = S3 iiLn -L= 23q;Pi-L=T+U, i=1 qj j=1 где t соответствует x; q (в простейшем случае) — обобщенная координата; р (в про¬ стейшем случае р = mv = ту) — обобщенный импульс системы; L — функция Лагранжа, которая в простейших случаях равняется разности кинетической и потен¬ циальной энергий L=ntf-u=T-u ?Г ^aik (q) 4i 9/г —^ (ч)- ^=2 i.k Состояние любой физической или механической системы характеризуется в опре¬ деленный момент времени t координатами q и их производными q или импульсами Р, поэтому состояние системы в момент времени t может быть представлено точкой в фазовом пространстве 2п измерений, по осям координат которого отложены pt и qi. Вследствие этого функции L и Н зависят только от q и q и не содержат более высоких производных. В простейшем случае функция Н равна сумме кинетической и потенциальной энергий системы. Действительно, величина pq = ту2 равна удвоенной кинетической энергии, поэтому H — L+pg—J!£+ U + my^Bt+U. В механике есть принцип наименьшего действия или принцип Гамильтона, который формулируется следующим образом. Переход системы из одного состояния {q(1)} в момент в другое состояние {q<2)} в момент t2 происходит по такой траектории в фазовом пространстве, на которой интеграл действия обращается в минимум: ^ 2 S = J L{q, q, t)dt% (11-62) it 275
т. е. траектория движения системы в фазовом пространстве представляет собой экстремаль, которая дает минимум функционалу (11-62). Очевидно, что задача оты¬ скания этой траектории может быть сведена к решению дифференциального урав¬ нения Эйлера вида dL __d_ dL==0 dq dt dq которое в механике носит название уравнения Лагранжа второго рода. Тем самым устанавливается связь теории вариационного исчисления и вариационной механики Лагранжа — Гамильтона. При введении функции Гамильтона п Я= У. q<L. -L /=i' qj для получения уравнений движения Гамильтона, эквивалентных уравнениям Ла¬ гранжа второго рода, поступаем так же, как и в вариационном исчислении, т. е. вводим новую переменную — обобщенный импульс Pj=L.(/(q, q); / = 1, 2, п. (11-63) Считая, что эти уравнения можно разрешить в виде ?/ = 0/(Я..Р). (11-64) получаем выражение гамильтониана Н через канонические переменные ру и qf. Н(q. P)=SQ/P;— Ь(я, Q). ' = 1 Дифференцируя это выражение аналогично уравнениям (11-58) и (11-59), с помощью равенств (11-39) получаем уравнения Гамильтона — Эйлера: дН _ dpj (11-65) dqj dt дН _ dqj dpj dt Важно отметить, что если рассматривать функции <7/(0. Р/(0» /=1. 2» •••» п (11-66) как произвольно и независимо заданные, в частности не связанные соотношением (11-64), то уравнения (11-65) будут двумя уравнениями Эйлера для функционала ( F (я. Я, р) dt = $ [2 q! Pj—H (Я. Р)] dt. (11-67) t, ti i= i П , Действительно, если подставить выражение F (q, q, p) = У qjPj — H (q, p) в уравне- /= 1 ние Эйлера dF_ d dqf . dt F-qJ °- то получим второе уравнение (11-65), а если это же выражение подставить в — =0, /=1,2 dpj dt Pj ’ ' ’ ’ то получим первое уравнение (11-65). Поэтому принцип Гамильтона иначе форму¬ лируется следующим образом: траектории (11-65) в консервативном поле сил, для которого гамильтониан не зависит от времени, являются стационарными кривыми функционала (11-67), где Н (q, р) является соответствующим гамильтонианом, вдоль которых он сохраняет постоянное значение, так как является первым интегралом Эйлера. Термин «стационарный», а не «экстремальный» используется потому, что если р и q— независимые переменные, то интеграл (11-67) не имеет ни минимизи- 276
рукядих, ни максимизирующих кривых. Хотя данный вариационный принцип не является принципом максимума или минимума (если рассматривать р и q как независимые переменные), он может быть сформулирован как минимаксный принцип, что будет показано ниже. Для наиболее распространенного случая Pj—mqf, Г= 2j ( = 1 П Pi Pi Pi Pi 2 m /=i и канонические уравнения будут иметь вид: p/=-v9. Пример 11-8. Проследим движение груза, закрепленного на двух пружинах (рис. 11-10). Кинетическая и потенциальная энергии груза равны: тх2 e kx2 2т ’ 2 * где т — масса груза; k!2 — жесткость каждой пружины. Введем обобщенную коор¬ динату q и импульс р. Тогда выражения для кинетической и потенциальной энергий прИмут вид: ы Т--_ п2- и = —а2 2т 2 I—\ААЛ/—I I—Ш—Ъ а функция Лагранжа j *2 | о Рис. 11-10. Пояснение к задаче с 2 2^* пружиной. Соответствующее уравнение Эйлера запишется следующим образом: dL d, dL и •• л г = kq — m а = 0. Это есть не что иное, как уравнение Ньютона тх = kx, которое отражает второй закон Ньютона из механики, утверждающий, что сила F = kx пропорциональна ускорению х. Таким образом, принцип минимума (максимума) находит широкое применение в теоретической механике. Понтрягин создал аналогичный формальный аппарат для систем управления — принцип максимума. При решении задач оптимального управления специально вводят функцию Н таким образом, чтобы она явно не зависела от переменных t или х (как в случае принципа максимума Понтрягина). В этом случае существует первый интеграл задачи Эйлера — Лагранжа, который запишется в виде п 2 У/Р- = — F [х, у, у2, ..., I/„; ср, (р), <р2 (р), ..., ф„ (р)] + / = 1 yJ П + 2 Р/Ф/(Р) = const. /=| Далее показывается, что постоянное значение при оптимальном управлении имеет экстремальное (максимальное) значение. Интересно отметить, что вариационная задача, которая формулируется в виде канонических уравнений Гамильтона — Эйлера, может быть сформулирована как минимаксная. Будем здесь использовать формализм вариационной механики, но • 277
очевидно, что полученные соотношения без труда могут быть записаны и для задач управления. При этом просто следует иметь в виду, что х< > t, у< *q, р-« Будем считать pj и qj независимыми переменными и допустим, что рассматривается фиксированный путь: qjz== Qj (0» t <Zt2i / “ 11 2, ..., я. Исследуем интеграл h (p)iР) dt, и где • п F iu р)= 2 ч/ w р>~ н [я (0. р] /=1 и я[чю. р]= 2 9/4—L- /= 1 Нетрудно убедиться, что максимального значения этот интеграл достигнет в случае, если функции pj (t), tx < f< t2 удовлетворяют условиям 0 = FPj = b—HPj. (11-68) Действительно, уравнение (11-68) является уравнением Эйлера для подынтегральной п функции/7 (/, р)= 2 Я/ (0 Pj — H [Я (О» Pi- В этом нетрудно убедиться, если подста- / = 1 вить это выражение в соответствующее уравнение Эйлера:, dF____d_ — = 0 dpj dt dpj Существование максимума в данном случае обеспечивается тем, что функция F яв¬ ляется полиномом второго порядка относительно переменных р, у которого члены второго порядка образуют отрицательно определенную квадратичную форму. Так, для я = 1 рр<р)=я-£\ (это — максимум, потому что т > 0). Так как уравнение (11-68) совпадает со вторым уравнением Гамильтона — Эйлера qj= Нр у которое эквивалентно Pj = FqiЯ. ч)> то условие максимизации интеграла (11-68) эквивалентно замене L. = pj в выраже¬ нии для Н (q, р) или п п <?//>/—я (Р. Ч)= 2 Pj Pi— 2 <lfPf+L = L> /=1 /= 1 поэтому t2 п t2 m ах И 2 Pi Pi~ Н (Р> Ч)] dt = \L (?> p)'dt Р s h / = 1 tx В соответствии с принципом наименьшего действия Гамильтона движение про¬ исходит так, что t2 / = $ L (q, q)dt tl 278
достигает минимального значения. Поэтому траектории движения qj (t) и р/ (/) в кон¬ сервативном поле сил являются решением минимаксной задачи: 12 П min шах ( [ У] qjPj — H(р, q)]dt. Р/ h /= I физически минимаксный принцип означает, что движение должно происходить по таким траекториям и таким образом, чтобы максимум интеграла обеспечивался за счет кинетической, а минимум — за счет потенциальной энергии (или максимум за счет импульса pj, а минимум за счет координаты qj). Только что изложенная минимаксная трактовка очень близка к принципу неопределенности в квантовой механике, когда нельзя одновременно со сколько- нибудь высокой точностью измерить координату и импульс частицы, и принципу неопределенности в теории информации, когда нельзя одновременно передавать (или формировать, получать) сигнал с какой бы то ни было узкой полосой по частоте и какой бы то ’ни было малой продолжительностью во времени. Второе уравнение Гамильтона — Эйлера (11-61) в классическом изложении, т. е. с учетом связи (11-63) между pj и qj, не связано с уравнением Лагранжа — Эйлера и определяется формализмом обозначений. Первое уравнение Гамильтона — Эйлера (11-60) определяется уравнением Лагранжа — Эйлера. В только что рассмотренной неклассической процедуре, когда qj и pj — незави¬ симые переменные, второе уравнение (11-61) придает интегралу минимум, а первое уравнение (11-60) — максимум. Следует иметь в виду, что деление уравнений Га¬ мильтона — Эйлера на первое и второе носит условный характер и в разных руковод¬ ствах трактуется по-разному. Минимаксная трактовка оптимального управления будет рассматриваться и дальше, особенно в нелинейном программировании в связи с фундаментальной теоре¬ мой Куна — Таккера (см. гл. 17). 11-10. ПРЯМЫЕ МЕТОДЫ ВАРИАЦИОННОГО ИСЧИСЛЕНИЯ В большинстве практических задач уравнение Эйлера — Лагранжа не интегрируется. Поэтому большое распространение получили так называемые прямые методы, которые дают приближенное решение задачи [Л. 69, 77]. Идея прямых методов заключается в следующем. Пусть требуется найти функцию у (х), доставляющую экстремум функционалу I (у). Построим последовательность функций уъ у2,*-ч уПу которая сходится к функции у, т. е. lim уп = у, п —► ОО и докажем, что при этом функционал также стремится к некоторому пределу lim / (уп) = т. п —*■ СО Существует много прямых методов. Из них наиболее известны методы Ритца и Эйлера, для которых с помощью достаточно сложных математических рассуждений доказывается, при каких условиях обеспе¬ чивается сходимость последовательности функций к экстремали. а) Метод Ритца Допустим, требуется найти минимум функционала 1 {у} = I F (х, У, У) dx Х9 279
при граничных условиях у{х0) = А; у(хг) = В. (11-69) Введем в рассмотрение функции п Уп (X) = Фо (X) + 1] Суфу (х), (11 -70) / = 1 где Фо (х0) = А; Фо (хг) = В; ф,(Х0) = фу(Х1)=0. Функции фг- — линейно-независимые и называются координатными, т. е. для них тождество с0ф0 + С1Ф1 + ... + спсрп = 0 выполняется только при су = 0, / = 1,..., п. Если подставить выражение (11-70) в (11-69), то функционал превратится в функцию п переменных съ Соу...» £п> т. е. 1 {yn(x)} = Q(Cb с2, ..., сп). Требуется определить значения с у, которые обращают в минимум функцию Q, -т. е. задача сводится к решению п алгебраических уравне¬ ний: 1=0, /=1,2,..., п. (11-71) Во многих случаях найденные таким образом функции уп (х) схо¬ дятся к экстремали. В частности, условия сходимости выполняются для функционалов вида 1 = \ {р(х)у2 + у (х) у2 + 2~g (х) у} dx; Хо у(х0) = А; у{хх) = В, где р {х) > 0, q (х) Ss 0, g (х) — известные непрерывные функции. Для этого функционала уравнение Эйлера имеет вид: Р (х)У + РУ - Я (х) У - g (х) = 0, поэтому такие задачи называются линейными вариационными зада¬ чами. Для функционалов типа (11-72) алгебраические уравнения (11-71) получаются линейными с определителем, отличным от нуля. В этом нетрудно убедиться, если в формулу (11-72) подставить (11-70): 1 Ы = .S аис^/+ 1] Ра-;. (п-73) /, / = о /—о Ct'i j ~ &ji у где аг-у, р,- — некоторые постоянные, зависящие от конкретного вида функционала. После дифференцирования выражения (11-73) получим 280 (11-72)
для определения коэффициентов ct систему линейных алгебраических уравнений: 2 а*ск + Pi = 0, г= 1, 2, ... п. k = 0 Пример 11-9. Минимизируем функционал [JI. 77] 1 /=jty2+</2+2*(/); г/(0) = г/(1)=0. Для этого выберем координатные функции ф* в виде Фо (*) = Ol Ф1 М = х2 — х; ф2 (х) —х3 — х2> •••, (рп(х) = хп+1—хп и при п = 2 получим: у2 (х) = сх (х2 — х) + с2 (х3 — х2); у2 (х) = с1 (2х—\) + с2 (Зх2 — 2х); I {Уч (*)} =Q (Сй сг) = -gg- cf + <у2 + у - -1 1 ■10 Тогда уравнения для определения значений коэффициентов cL и с2 запишутся как .11 , Ц_ __ 1 15 Cl + ‘30 Са _ 6 ’ И 2 _ 1 30 Cl+ 7 Сг~ 10- Отсюда Ci = Уч (х) = 69 : 473 ; С2~ 43 ' 77х3 — 8х2 — 69х 473 Точное решение в данном случае имеет вид: е У = {ех-е-х)-х. ех-\ В табл. 11-1 дается сравнение точного и приближенного решений задачи. Таблица 11-1 X У Уг (*) * У Уг (х) 0,0 0,0000 0,0000 0,6 -0,0583 -0,0585 0,2 -0,0287 -0,0285 0,8 -0,0444 -0,0442 0,4 -0,0505 -0,0506 1 1,0 0,0000 -0,0000 6) Метод Эйлера (метод конечных разностей) Согласно этому методу, который может рассматриваться как моди¬ фикация метода Ритца, функционал ь 1 = \F{x, у, у) dx 281
заменяется суммой по одной из приближенных формул численного интегрирования, которая зависит от значения yt в дискретных точках хi разбиения интервала изменения х (рис. 11-11). Большинство формул численного интегрирования основано на замене подынтегральной функции полиномом, полученным из интер¬ поляционной формулы Ньютона: (х) = л((Ах) + i (, Лх) + V’y(Ax)+... +, - a,) „. (, - > a,+v(Лх) + . i Ал: ^ л: ^ i Ax + Ax; Vy (i Ax) = у (i Ax) — у (i Ax + A*), где Ax — интервал дискретности. (11-74) 'f !h % % X Рис. 11-11. Пояснение к методу Эйлера. a X'L б Рис. 11-12. Пояснение к методу Эйлера для случая аппроксимации прямоуголь¬ никами. В случае функционала / {х, у, у} следует сделать замены У = Ук(х)\ У = Ук(х)\ а = х0; Ь = хп = п Ах + х0, в результате которых функционал выразится суммой Ь = хп I {х, у, у}= $ F(x> У’ уУЛхъ* а~х о ti— 1 .v0 + (/-|- 1) Лд: п — 1 ] Flx> Ун(х), h(x)]dx= 2 Qi- (11-75) i = 0 х0 -f- i Ах i = О Подставив в это соотношение формулу (11-74) и выполнив интегриро¬ вание, получим функционал, зависящий только от значений yt: п — 1 I {х, у, у}т 2 Qi=Q(yo> Уъ .... Уп)- i = О В результате задача сведется к решению системы алгебраических уравнений вида dQ = 0, i = 0,l, , п. 282
В зависимости от числа членов k в соотношении (11-74) получаются различные приближенные формулы. Так, если использовать аппрокси¬ мацию в виде прямоугольников (рис. 11-12), то в формуле (11-74) следует положить k = 0 и за производные внутри i-го интервала брать выра¬ жения У1 = Ук (i Ах) = у (i Ах); тогда вместо формулы (11-75) получим: п — 1 L =0 I {х, у, у}^ Ал: 2 F[xh Уь i)i\, (11-76) L =0 где xi = iAx. Пример 11-10. Минимизируем функционал [JI. 77] 1 / = $ (у2 + У + 2ху) dx\ у (0) = у (1) = 0. о Положим Дл: = (1 — 0)/5 = 0,2; тогда У (0) = 0; уг = у( 0,2), ..., у^ = у (0,8); у( 1) = 0. В качестве производных примем значения /П\ У1 '■ 6 • /Л о\ У% У\ * /Гк о\ 6 У4 0,2 ’ -V’^0»2) 0,2 ’ У(°>8)— 0,2 • Воспользовавшись формулой (11-76), получим: С(Уь У2» Уз, ^ = (^0 2^] + У? + + % 2^2 + + 0,8у2 + (Д 2^3j +Уз++ +У| + l,6f/4j 0,2; выполнив дифференцирование по г//, имеем: dQ _ 2уг 2(у2 — у1) ду1 0,04 0,04 dQ 2(уа —у,) 2{у3 — у2) ду, 0,04 0,04 dQ _2(Уз— У3) 2(j/4 — уз) ду3 0,04 0,04 dQ 2 (г/4 — г/3) 2у4 f 2^ + 0,4 = 0; f2</2 + 0,8 = 0; J~2y3 +1,2 = 0; ■2у4 + 1,6 = 0. <fy4 0,04 0,04 Решениями этих уравнений будут г/1==—0,0286; г/2 = — 0,0503; г/3 = — 0,0580; у4 = —0,0442. Точное решение (с точностью до четвертого десятичного знака): ух = — 0,0287; уъ = — 0,0505; р8 = — 0,0583; уг = — 0,0444. 283
Глава двенадцата я НЕПРЕРЫВНЫЙ ПРИНЦИП МАКСИМУМА ПОНТРЯГИНА Как уже отмечалось, наибольший интерес представляет собой оптимальное управление, связанное с разрывными функциями, состав¬ ленными из кусочно-непрерывных и кусочно-гладких кривых, содер¬ жащих точки с бесконечными значениями первых производных. Наложение ограничений в виде неравенств приводит к образованию среди них участков, состоящих попеременно из внутренних кривых, которые являются экстремалями, и граничных кривых. Переходы между такими участками носят сложный характер. Распространить на эти случаи методы классического вариационного исчисления оказалось довольно сложно. Было разработано множество частных методов, пригодных для решения узкого класса задач (некото¬ рые из них рассмотрены в предыдущей главе). Однако этих методов возникло чересчур много (чуть ли не свой метод на каждую задачу), а строгость их теоретического обоснования оставляет желать лучшего. Это заставило искать новые общие методы оптимизации, которые, за исключением отдельных случаев’, обладали бы достаточной степенью общности и перекрыли бы большинство методов решения вариаци¬ онных задач. Одним из таких методов явился непрерывный принцип максимума Понтрягина. Изложение этого метода, к которому мы приступаем, будет дано на уровне инженерной строгости без привлечения аппарата функциональных пространств для случая непрерывных систем управления, поведение которых описывается дифференциальными уравнениями и критерий оптимальности для которых задается в виде функционала. В связи с этим используется термин «непрерывный принцип максимума». Основная особенность изложения, принятого в данном разделе, состоит в том, что этот метод рассматривается как естественное обоб¬ щение и расширение классического вариационного исчисления [Л. 72, 77—81]. Принцип максимума Понтрягина основан на строгой формализации исходной постановки задачи, которая в некоторых деталях отличается от классической постановки Эйлера — Лагранжа и заключается в следующем. Система управления задается уравнениями •^J = f(x, u, t), (12-1) где X1 Hi h х2 ; и = «2 ; f = h Хп щ in В развернутом виде это векторное дифференциальное уравнение может 284
быть записано так: dx1 Hi хъ Хъ Хп\ иъ «2, .... и [У, = ХЪ х2, ..., хп\ иъ и2, щ). Предположим, что на управление наложено ограничение |И,|<1 или в более общем виде Ф (и)<; А. Требуется определить такое управление щ, которое обеспечивало бы минимум функционала t х I = ^ F (х, u, t) dt = min *0 при ■х(/0) = х0; x(t1) = x1. Заметим, что случай максимума функционала сводится к отысканию его минимума введением новой подынтегральной функции F1 = — F. Из приведенных формул следует, что в отличие от формализма Эйлера — Лагранжа Понтрягин использует в качестве независимой переменной время /, т. е. рассматривает динамические системы, изменяющие свое состояние во времени. Соответственно для обозна¬ чения фазовых координат системы вводятся переменные х вместо у. Далее, в принципе максимума вместо производных от фазовых коорди¬ нат системы i, (или у) используются координаты управления и = = {ult иъ..., Ui}> а в качестве ограничений выбраны дифференци¬ альные уравнения, описывающие поведение системы (неголономные связи). Правые части этих уравнений зависят в общем от фазовых и управляющих координат и времени t. Понтрягин особым образом выбирает функцию Гамильтона Н и преобразует исходную систему уравнений. Сртл^сно'егс^щринципу: 1) преобразованная функция Лагранжу; Ф = р+У\ А,гД не\ави- /=i уУг\ сит явно от времени. Поэтому формализм Понтрягтт- допускает суще¬ ствование первого интеграла Эйлера вдоль оптимальной траекторий Н = const; 2) введенные специально вспомогательные функции ф0 (/), ф2 • • ->Ф/г от которых зависит Ну обладают такими свойствами [точнее, одна функция ф0 (/)] и так входят в Я, что вдоль экстремальной кривой Н достигают максимума за счет того, что на функцию ф0 (t) во всех точках экстремальной кривой накладывается ограничение Фо (0 «£ 0; 3) вспомогательные функции фу (t) должны в конце интервала обращать функцию Н в нуль, т. е. Н (^) = 0. Ввиду того что функция Н принимает максимальное значение (равное нулю) вдоль кривой, Для которой выполняется условие оптимального управления, этот метод получил название принципа максимума, 285
12-1. ПОЛУЧЕНИЕ УРАВНЕНИЙ ПРИНЦИПА МАКСИМУМА ИЗ УРАВНЕНИЙ ГАМИЛЬТОНА — ЭЙЛЕРА Для лучшего понимания принципа максимума Понтрягина полу¬ чим его не совсем строгим путем из уравнений Эйлера, или, точнее Гамильтона — Эйлера. При таком выводе он будет справедлив для тех же случаев, что и уравнение Эйлера, т. е. для непрерывных экстре¬ малей при отсутствии ограничений. В принципе максимума выби¬ рается функция в виде Н = —F(x, и, 0+2 ^ (0 ft (х> ч. 0, / = 1 (12-2) где *1 ui X2 u2 X = ; u = •t Xn Щ й/к Но при такой записи отсутствует первый интеграл, так как F зависит от /, поэтому вводится новая координата фазового пространства хп + г = t и новое дифференциальное уравнение системы dxt п+1 . dt : fn+1— 1* (12-3) Тогда вместо исходной системы п уравнений dx = fn (О ХЪ хп; «1 щ) получается система п + 1 уравнений: ^ fl (Хп+Ъ ••• у . %пу ••• у Иl)y ИЛИ где dxji dt -fi(xn+i, ХЪ хп\ иъ ut); dX; dt fn+i {Хп-\-1» %ъ • • • у Хп, • • •» ^/) dx dt = f(X, U), Xi ui ; f = h Xn Xn+1 ; u = Щ in fn+l (12-4) 2S6
„функция (12-2) записывается как п +1 Н = ~F(x, и) + 2 Ф< (*«+i) fi (х, и). i = 1 Далее, введя еще одну функцию /0 и переменную х0 получаем новое уравнение -$ = А,(х, u) = F(x, и) (12-5) й тем самым сводим задачу к задаче Майера, так как теперь требуется определить такое уравнение, чтобы х0 (Т) = min при п + 2 ограничивающих условиях. С учетом соотношения (12-5) имеем: = u)> (12-6) / =0 где Фо (0 = Фо (to) = ~~ 1 • Введя в рассмотрение векторы Фо fo ф1 fl ; f = Фл in Фя+1 fn+l и скалярное произведение, получаем: Н = { и, ) Теперь ищем экстремум функционала t\ tt / = § F (х, u) dt = § /о (х, и) dt to t0 при условиях (12-4). Заметим, что в записи (12-2) функция Н Понтря¬ гина не противоречит формализму Гамильтона — Эйлера в вариаци¬ онной механике. Действительно, в данном случае я=- Ф+Z^iJ О2'7) <•=1 ‘ где Ф = Г + 2 К (*l — fi)• / = ] 287
Отсюда Lr и П П н= -F-2 + i = 1 i ~ 1 или я= -F+2/A, / = 1 так как F*r° (функция F в принципе максимума от xt явно не зависит). Эту формулу можно переписать в виде п п ■ H=-F+2 *Л= -Ф + 2 *ik, (12-8) I = 1 i = 1 так как в соответствии с уравнениями (12-1) хь = Д. Заметим, что, с одной стороны, зависимость Н от F такая же, как Н от Ф, если поло¬ жить, чтоXi = Ф^ .С другой стороны, согласно формализму Гамиль¬ тона — Эйлера вводится новая переменная р,- = Ф^ , поэтому формула (12-7) записывается в виде н= -ф i =1 Отсюда, сравнивая полученное выражение с равенством (12-8), прихо¬ дим к выводу, что pt-K (12-9) Из изложенного видим, что с самого начала используются вспомо¬ гательные функции Ф; = Ф^ с обозначением pt через ф,-, а так как в соответствии с выражением (12-9) Ф^. = Xh то Pi = X. = ^i. Введение дополнительной фазовой координаты хп+1 и дифференциаль¬ ного уравнения связи (12-3) дает возможность утверждать, что функ¬ ция Ф не зависит от времени и что существует ■ первый интеграл Эйлера П + 1 Н= — Ф + 2 ^Ф^. = const, *=0 1 т. е. Н = (ф, f) сохраняет постоянное значение на оптимальной тра¬ ектории. 288
Докажем теперь, что вдоль этой траектории Н удовлетворяет уравнениям Гамильтона — Эйлера: ж-щ- 7Г--Щ- ‘'“О’1 “+‘: <|2'10> п -f-1 tl Н х, х)=г|50/0(х, х)+ 2 =^0/0 (х, f)+ 2 'Pifi = i=1 /=1 = -Ф(Х, x)+2^. (12-11) i = 1 Можно утверждать, что уравнения (12-10) являются необходимыми условиями экстремума функционала (12-7) при ограничениях (12-5), так как мы проследили и убедились, что формализм Гамильтона — Эйлера соблюдается. Первое уравнение (12-10) получим прямым диф¬ ференцированием уравнения (12-11) по ф£ с учетом того, что г])*- = = = Pi = , ф0 = —1, /0 = Ф и фг- = не зависит отх£,и поэтому л. Второе уравнение (12-10) получим дифференцированием уравне¬ ния (12-11) по xt dJL = **iy.h._<D, _ф. **1= -д-® dxi dxi T i xi dxi oxi аналогично выводу уравнения Гамильтона — Эйлера, после чего используем уравнение Эйлера дФ _ d_ дФ __ d_ dxi dt дхi dt Следует заметить, что наш вывод может вызвать сомнения в части использования новой переменной pt (=ф£) = Ф; при выводе уравне- xi ний Гамильтона — Эйлера для замены переменной xt в функции Ф^, х, x) = F(t, и) + 2 К (*t■ — /.)• (12-12) i = 1 Функция F от х не зависит (здесь специально выбрана такая форма функционала), а сумма в выражении для Ф зависит от xt линейным образом, в силу чего нет зависимости от xif поэтому нельзя выра¬ зить х{ как функцию pt = ф£-. В принципе максимума по существу специально избегают этой зависимости (за счет формализма исходной постановки задачи) и специальными приемами, отличными от метода Гамильтона — Эйлера, доказывают, что уравнения (12-10) обеспечи¬ вают экстремум исходного функционала. Такой формализм тем более оправдан, что большинство задач оптимального управления сводится к вырожденным функционалам, подынтегральные выражения в кото¬ 10 Основы кибернетики 289
рых (даже при формализме Эйлера — Лагранжа) не зависят от xit Так, в задаче о максимальном быстродействии F (/, х, х) = 1. Однако вывод уравнений Гамильтона — Эйлера остается справед¬ ливым и в нашем случае при независимости Ф^ от xt и без требования выразить xt через ф£ (=р£ = Я;), так как сразу заменяется на ф£ = В отличие от вывода уравнения Гамильтона — Эйлера при этом не вводится функциональной связи между xt и благодаря формализму принципа максимума и, в частности, тому, что функция F не зависит от xiy поэтому H(t, х, Ф(/, х, х)+2^г- (12-13) i= 1 Дифференцируя формулу (12-13) по ф£, получаем: дН_ _ dxi dtyi dt Это — первое уравнение метода Понтрягина. Далее, дифференцируя формулу (12-П) по Хи получаем: dxi __ _ дФ dxi ' Здесь необходимо учитывать, что ф£ = дФ/дхр, кроме того, при диффе¬ ренцировании следует различать частные и полные производные. Далее, используя уравнение Эйлера, имеем: дН_ _ дФ _ d ф _ d\\>i dxt dxi ~"dt т xi dt Это — второе уравнение метода Понтрягина. Здесь напрашивается параллель с минимаксной трактовкой урав¬ нений Гамильтона — Эйлера (см. § 11-9). Если сформулировать анало¬ гичные результаты для постановки задачи оптимизации по методу Понтрягина и рассматривать xt (t) и ф£ (() [=/+• (01 как независимые переменные, то каждое уравнение (12-10) представляет собой уравне¬ ние Эйлера для функционала Г« +1 2 Xi^i - Н (х, if) dt, t0 i = 1 а фазовые траектории, удовлетворяющие уравнениям (12-10), представ¬ ляют собой решения минимаксных задач где t, min max *t +/ /о $ = /1+1 2 —н (х, t) / =■- 1 dt, Я\ (0 Xi (t) X = ХцЛ-1(0 ++l(0 290
Как уже указывалось в параграфе 11-9, если считать ф* (t) и x-t (t) независимыми переменными, то бессмысленно говорить об экстремуме функционала. При выводе уравнений Понтрягина на стадии дифферен¬ цирования по существу предполагалось, что x-t и ф; явно друг от друга не зависят. И только использованием уравнений Эйлера при получении второго уравнения Понтрягина была введена связь переменных xt и ф,-. Благодаря этому в методе Понтрягина функции Xi и фi связываются системой линейных дифференциальных уравнений, получаемых в результате подстановки выражения для Н во второе уравнение (12-10). В функцию Н [см. (12-11)] явным образом не включены переменные управления uv, и для них нет соответствующих уравнений Гамиль¬ тона — Эйлера в системе (12-12), что имеет следующее объяснение. Здесь рассматриваются „такие функционалы, которые не зависят от производных управляющего сигнала, поэтому ^=ф^\=Ч=0) v==1’ •••’L Отсюда обобщенные импульсы для функций управления Pi = ф{ = %i = 0, i = ti 2, ..., fi -|- / -j- 2 и соответствующая пара уравнений Гамильтона—Эйлера для этих переменных вырождается в одно из уравнений вида дн (л 1 / -£— = 0, v = 1 /. duv 9 Хотя эти уравнения и не включены в основные уравнения (12-10), их используют для определения параметров оптимального управления. Рассмотрим еще один способ изложения принципа максимума [Л. 77]. Допустим, ищется минимум функционала Положим I F (х, u) dt. dx-, £ ui=-£ = h. Такой заменой задача сводится, по существу, к классической поста¬ новке Эйлера — Лагранжа, когда подынтегральная функция в функ¬ ционале зависит от производных фазовых координат. Именно на основе результатов классического вариационного исчисления доказывается, что функция Понтрягина Н принимает при оптимальном управлении максимальное значение. Очевидно, что наш вывод справедлив при соблюдении условий классического вариационного исчисления. В соот¬ ветствии с изложенным функция Понтрягина принимает вид: п-\- 1 Н(\1>, х, к) =t0F(X, u)+ 2] i =1- 10* 291
Разложим функцию Н в ряд Тейлора по переменной хь = и: t дН (ф, X, х°) _ Я(ф, х, х*)-Я(Ч>, х, х«)-2(Й-4)! 1 = 1 П~\- 1 = ty0F(х, i^-V^x, х°) + 2 ф,(х]-х?) - < =1 - 2] (*l - *°) (ф0/> + Фг) = to^ (X, U1) - i = l ‘ n ^ф0Я(х, U°) — to 2 ~*‘)• (12-14) /=1 1 Если число функций Xi равно единице, на основании формулы (12-14) получим: Н ($, х, i1) - Я (ф, х, х«) - (i1 - х°) ~ = ф0FVx (х, х°)1x1 . В случае минимума функционала согласно необходимому условию Лежандра F--75* О, XX ’ поэтому, учитывая, что ф0 <С 0, получаем Я(ф, х, х!)-Я(ф, х, х°) - (х1 -х°)^ = (*? ~*°> ^ < О, откуда следует, что ^^(Ф. х, х°)«£0,' Яоо<0. Учитывая, что необходимым условием достижения экстремума функ¬ цией Н относительно х является равенство нулю производной по этой переменной дН л дН дН ~ _ = 0 или ж = ж = 0, получаем: Я (ф, а:, х1) —Я(ф, л:, х°)^0. Тем самым доказано, что на оптимальной кривой функция Я дости¬ гает максимума. Функции в принципе максимума выбираются так, чтобы Я(Г) = (ф, f) = 0, (12-15) где Т = tx. Поэтому Я — отрицательная функция, достигающая максимального значения, равного нулю. Нетрудно убедиться, что два уравнения Понтрягина (12-10) неравноценны: первое сводится к исход¬ ным уравнениям движения и не содержит условий экстремума, вто¬ рое содержит условие экстремума функционала. Вариационная задача в методе Понтрягина сводится к нахождению п функций %, i = 1, 2,..., п, которые определяются из дифференци¬ 292
альных уравнений, получаемых из второй группы уравнений (12-10), если в них подставить выражение (12-6) для Н: • tl 1 дф/ df/ [х (0, и] дхГ ‘‘“0, 1, .... п + 1. (12-16) /=о Это линейные дифференциальные уравнения в обычных (не частных) производных. Всего в рассмотренной задаче неизвестных функций 2п + 4 + /: п + 2 функций xit п + 2 функций ф,-, / функций управ¬ ления щ и соответственно п + 2 дифференциальных уравнений, описывающих поведение системы, п + 2 линейных сопряженных уравнений (12-16) и I уравнений, которые вытекают из того, что вдоль оптимальных кривых Н (ф, х, u) = max. (12-17) При достижении экстремума внутри области | щ \ ^ 1 условие (12-16) дает I уравнений: g = 0, t = l, (12-18) В случае, когда управление одно, условие (12-17) сводится к dH/du = 0. Если экстремум функционала достигается на какой-нибудь грани я-мерного параллелепипеда, определенного соотношением | ut | ^ 1, то одно из I необходимых уравнений вытекает из принадлежности управления и (/) этой грани; остальные I — 1 условий появляются в результате приравнивания нулю частных производных от Н по / — 1 направлениям в этой грани. Если имеется случай трехмерного про- . странства / = 3, то грань является плоскостью в трехмерном простран¬ стве. В этой плоскости имеются два независимых направления, по которым и следует брать производные от Н. Таким образом, усло¬ вие (12-18) всегда содержит I уравнений. Практически всегда сначала определяют х (/, и) и ф (/, и), зависящие от неизвестных управлений и, а затем определяют оптимальные управления. В принципе максимума есть одна трудность: решить уравнения (12-10) возможно лишь при наличии 2п + 2 начальных условий. Для Xi (t) они заданы: *о(0) = 4 = 0; Xi (0) = х]\ хп+1 (0) = x°n+i = 0, но для функции ф* (t) заданы только конечные условия. Так, в случае задачи с закрепленными концами (/0, tx = Т заданы) конечные условия имеют вид: ф(Г)=(-1, 0, 0, 0). (12-19) мП ' Значение фп+1 (Г) ^=0 и определяется соотношением (12-15). Поэтому в простейшем случае поступают по методу «пристрелки»: задаются 293
какими-то начальными значениями для ф,- и при заданных началь¬ ных значениях для х{ рассчитывают траекторию. Если она удовлетво¬ ряет условиям (12-19), процесс вычислений заканчивается, если не удовлетворяет, процесс вычислений повторяют для новых гр,- (0). Рассмотренный метод вывода уравнений Понтрягина из уравнений Эйлера — Лагранжа справедлив при условии, что функционал — неособый и справедливы положения классического вариационного исчисления, в частности уравнение Эйлера. Такая ограниченность метода не дает возможности рассматривать самые важные, для кибер¬ нетики случаи с бесконечными значениями производных от функции управления. Однако известны другие методы для обоснования и дока¬ зательства принципа максимума, отличные от классического вариаци¬ онного исчисления. 12-2. ПОРЯДОК РЕШЕНИЯ ЧАСТНЫХ ЗАДАЧ С ПОМОЩЬЮ ПРИНЦИПА МАКСИМУМА Рассмотренный принцип максимума справедлив и для таких задач, когда конец траектории в фазовом пространстве свободен и требуется найти такое управление, при котором координата х0 (Т) принимала бы минимальное значение. Кроме этой есть и другие задачи, но доказа¬ тельство принципа максимума для них очень сложно, и здесь будет в основном изложен лишь порядок выполнения действия. Рассмотрим задачи, в которых считаются заданными t0 и х/. Задача со свободным концом траектории xj и заданным време¬ нем Т. Требуется найти иопт, обеспечивающее при заданных условиях максимальное постоянное значение функции Понтрягина Н (ф, f). Это означает, что проекция вектора dx/dt на направление ф должна быть максимальной, т. е. tyf = ф — = max. (12-20) В этом заключается геометрический смысл принципа максимума. В данной задаче для последнего малого интервала длины А/, для которого Т — А^ < Г, направление вектора ф задается формулой ф(Г) = (—1, 0, 0, ..., 0). Управление должно быть таким, чтобы при- м+ 1 ращение х0 (Т) на этом последнем интервале было возможно меньшим, так как при этом производная dx/dt будет меньше и скалярное произведе¬ ние (12-20), являясь отрицательным, будет больше. Эго достигается направлением вектора ф навстречу вектору (х0, 0* 0, 0,..., 0), так как п -(-1 только тогда скалярное произведение отрицательно и равно — х0. Однако при любом направлении вектора ф проекция на него должна быть максимальной и сохранять постоянное значение. Скалярное произведение производной dx _x(T)-x(T-At) dt ~ At и вектора ф (Т) тоже будет отрицательным. Поэтому чем больше это скалярное произведение, тем меньше по абсолютному значению про- 294
взводная £0, меньше прирост х0 за интервал (Т — АД Т) и меньше = ^ F(x, u) dt, т. е. функционал будет обращаться в минимум. и 'рем самым геометрически показано, что для обращения функционала в минимум необходимо, чтобы скалярное произведение (12-20) было максимально и постоянно вдоль всей траектории и ф (Г) = {—1, 0, ... Отметим особый характер функции фп+£ (/) в этом случае. Из вторых уравнений (12-10) следует, что d^n±i= дН _дЛ==0 dt dxn+i dt при условии явной независимости /0 и Д (/ = 1, ..., п) от /, поэтому фя+1 = const = q. Следовательно, функция фл+1 не зависит от управле¬ ний и координат объекта. Ее вообще можно не рассматривать, она никакого влияния на управление не оказывает, тем более, что и fn+l = = 1. В данной задаче она используется для обеспечения равенства Н[Ц(Т), х (Г), и(Т)] = 0, которое возможно при %+i(T) = f0[x(T , u(T)] = F[x(T), и]. Главное в принципе максимума то, что Н принимает максимальное значение и сохраняет его постоянным вдоль оптимальной траектории. Поэтому если ввести новую функцию н= £>«/,• /=0 то исходя из особенности функции ф„+1 (t) принцип максимума можно сформулировать следующим образом: оптимальное управление дости¬ гается при Н = ф? = const = max. В данном случае Н =£ 0. Таким образом, мы пришли к тому, что задачу следует решать исходя из следующих начальных условий на координаты xt и конечных Условий на функции ф;: Решение найдется из основной системы п -f 1 уравнений dxi дН г а 1 , = 0- 1 п и сопряженной системы п + 1 уравнений dtyi ОН
или Л-'=2-|гЛ i = 0, 1, ..., п. (12-21) / = 0 Затруднения в решении возникают из-за того, что для уравнений (12-21) задаются не начальные, а конечные значения. Этого можно избежать, обернув время, т. е. заменив t=T—t (метод попятного движения). Однако этот метод мало помогает, так как для х задано начальное значение, поэтому чаще используют методы пристрелки. Задача о минимуме функционала с незаданным временем 7\ Требуется найти иопт, дающее экстремальное значение функционала при незаданном времени Т. В этой задаче предполагается, что система неавтономна, т. е. пра¬ вые части дифференциальных уравнений и подынтегральной функции зависят явно от времени t: = u, t), i= 1, n; T I = 5 [x (t)t u(/); t]dt. to Введя координату xnJrl: •*71+1 = Д -*71+1 (Д) ~ Д)> f Я+1 ^ 1 > получим: -dt=fi(x. u> ^я+i); dxn+i __ 1 dt ~ 1’ Для этого случая также можно доказать принцип максимума (мы его не доказываем), который будет выглядеть следующим образом: Н = 2] Ф/Д = const = max = 0. i =о Отсюда видно, что благодаря введению координаты лгл+1 вариационная задача сводится к задаче о закрепленном левом и незакрепленном правом конце. Для варианта с п + 1 переменными требуется найти оптимальную траекторию, соединяющую точку (х\, х?2, ..., х°Пу Q в (п + 1)-мерном пространстве с точкой на прямой 5, проходящей через точку (х\, х\у ..., х1Пу 0) параллельно оси хп+1, так как конечное значение переменной хп+1 (т. е. правый конец) не задано (момент вре¬ мени, когда система достигает точки х1, заранее не задан). В данном случае целесообразно использовать условие трансвер¬ сальности, которое означает, что оптимальная фазовая траектория должна быть ортогональна к прямой, параллельной оси хп+1 и проходя¬ щей через точку (х{,х^ ..., х1п, 0). Кроме того, согласно принципу максимума функции ф,- должны быть так подобраны, чтобы проекция вектора ф на касательную к оптимальной траектории была бы макси- 296
мальна. Один вектор дает максимальную проекцию на другой вектор, если они параллельны или антипараллельны. Так как функция Я неположительна, функции фг подбираются так, чтобы в точке t = Т вектор ф совпадал с градиентом той кривой или поверхности, на кото¬ рой должен находиться конец траектории. В данном случае направ¬ ляющие косинусы прямой S равны (0, 0, ..., 0, 1),поэтому фл+1(Г) =0 п+Т и, следовательно, Я0ПТ (Т)= 2^(Г)/;(Т)=0. / = 0 Из этого уравнения трансверсальности и определяется искомое время Т. Остальные искомые xiy ф,-, щ находятся из уравнений (12-10), Рис. 12-1. Геометрическая интерпретация задачи с не¬ заданным временем Т. (12-16) и (12-18), причем для определения ф* (0) используется метод пристрелки. Для варианта с переменными п = 2 соответствующая геометри¬ ческая интерпретация приведена на рис. 12-1. Задача максимального быстродействия с заданным концом траек¬ тории Xi(T), но неизвестным временем Т. Такая задача может воз¬ никнуть, например, когда система оптимальным образом выводится на режим установившегося движения (разгон двигателя и пр.). Для совместного решения основной и сопряженной систем с одно¬ временным выбором управления и, которое максимизировало бы Я, требуется 2п начальных условий х\ и ф°. Первые п значений заданы, а вторые нет, и в этом состоит одна из основных трудностей. Прихо¬ дится по методу проб или пристрелки так подбирать начальные зна¬ чения фь чтобы конец траектории совпадал с точкой хтг Задачу решают 297
по шагам, и на каждом шаге Д/ так подбирают и, чтобы Н = max. Если первый выбор ф? не был успешным и траектория не пришла в точ¬ ку хТ, выбирают другие значения. Когда правые части дифференци¬ альных уравнений и подынтегральная функция не зависят явно от времени, то ’MOW--0. / = 0 Из этой формулы с учетом того, что для системы с незакрепленным временем на втором конце + 2 (Т) = 0 (см. предыдущую задачу), получим, что вообще фп+1 (t) = 0. Поэтому i=0 п Н — fi — f0 — COnst, , <=1 а так как для максимального быстродействия /0 = 1, то и п max Н = птах 2 Ф*/; = К i= 1 С помощью принципа максимума легко показать, что для линей: ного максимального быстродействия оптимальное управление дости¬ гается при и = — 1 или и = 1, т. е. на границе области. Убедимся в этом, рассмотрев вариант с п = 2, однако доказательство без труда может быть распространено на случай любого п. Пусть система опи¬ сывается линейными относительно и уравнениями *i = <Pi(*i, х2)+иъ |«iK *2 = ф2(*1> х2) + и2, \и2\^1. Очевидно, что функция Поитрягина Н (х, ф, и) = фх ф! (хъ х2) +ф2 ф2 (хъ х2) +фх иг +фаи2 достигает максимума при иг = sign фх; и2 = sign ф2. Функции фх и ф2 определяют моменты переключения. Теперь покажем, что любая задача об оптимальном управлении в смысле формализма принципа максимума может быть сведена' к за¬ даче о максимальном быстродействии [Л. 81]. Сформулируем исходную задачу следующим образом: ■g- = f(x, и); 1 I — $/о (х> и) dt = min, |h|ss1. t0 298
Введем новое время т, связанное с t дифференциальной зависимо¬ стью dx = /о (х. u) dt. Тогда ^ т(0 = $ Ых> и) dt п и исходная задача об оптимальном управлении запишется в виде dx _ /(х, и) в- dr ~ f0 (х, и) ’ Ti / I=^dT=^d% = I = min; То о ^0 = Т (/о) = 0; Ti = т (f2) = /. Задача о максимальном быстродействии с фиксированной конеч¬ ной я-мерной областью Р в фазовом пространстве и не фиксированным заранее временем Т. Требуется найти иопт, которое переводило бы систему наискорейшим способом из некоторой заданной начальной точ¬ ки х° в некоторую хг, принадлежа¬ щую замкнутой области Р. Нетрудно убедиться, что речь идет о переводе системы на границу области, так как время перехода в любую внут¬ реннюю точку будет больше. Пример такой задачи на практике — полет до лунной поверхности за наимень¬ шее время. Можно провести поверх¬ ности изохрон, время движения между которыми постоянно (рис. 12-2). Одна из этих поверхностей будет касаться области Р. Точда касания и будет конечной точкой оптимальной траектории. В самом деле, если область Р задана урав¬ нением <р(х) = ф(л:ь .... хп) — 0, (12-22) то в силу условий трансверсальности оптимальная траектория должна быть ортогональна к поверхности, задаваемой формулой (12-22). Следовательно, касательная к оптимальной траектории ортогональна к этой поверхности. Кроме того, проекция вектора ф на касательную dx/dt должна быть максимальна согласно принципу максимума. Поэто¬ му для оптимального управления вектор ф должен совпадать с гра¬ диентом к поверхности ср (х) = 0, т. е. W>-erad<p = (|l. Q (|2.23) или /=1 (12-24) Т, % Т3 Tt Ts Рис. 12-2. К задаче о максимальном быстродействии с фиксированной обла¬ стью Р. 299
что позволяет определить недостающие начальные условия г|(0) для функций \\>i (/). Из уравнений (12-22) и (12-24) найдутся п на¬ чальных условий фДО) и величина Т. При этом считается, что если фДО) и Т заданы, то х^Т) и фДТ) будут функциями этих п + 1 переменных. Подставив их в уравнения (12-22) и (12-23), получим необходимые п + 1 уравнений. Пример 12-1. Рассмотрим задачу максимального быстродействия, которая для линейной системы описывается уравнениями dx-, дхо -тг = х2 и -—£- = и. dt dt Определим управление u(f), обеспечивающее быстрейший переход системы из со¬ стояния хх = *{; х2 = х\ в состояние хх = 0; х2 = 0 при условии | и | ^ 1. В данном случае функция Понтрягина будет иметь вид: Я = ф1*2 + ф2ц. Оптимальное управление и определяется из условия, что функция Я принимает максимальное значение. Выше было доказано, что для задач максимального быст¬ родействия оптимальное управление достигается на кусочно-непрерывной кривой, состоящей из отрезков и = +1, и — —1 и вертикальных отрезков. Очевидно, что максимум функции достигается при и = sign ф2, т* е. управление ц = +1 при ф2 > 0 и и = —1 при фх < 0. Для определения вспомогательных функций имеем уравнения dipL = дН _0 dt дхг _ дн _ dt ~ дх2 Wl' откуда 4Jl==^l> 4?2==6*2 — Cjt. Следовательно, u = sign (C2 — Cx t). Управление один раз меняет знак. Постоянные Сх и С2 определяются из начальных условий. 12-3. РЕШЕНИЕ ЗАДАЧ ОПТИМАЛЬНОГО БЫСТРОДЕЙСТВИЯ МЕТОДОМ ФАЗОВОЙ ПЛОСКОСТИ Независимо от работ Понтрягина в трудах Фельдбаума и других ученых был разработан метод, использующий геометрическую интер¬ претацию с построением траекторий в фазовом пространстве, но отлич¬ ный от принципа максимума. Математически задача оптимального быстродействия в этом случае формулируется для системы автоматического управления, которая задается уравнениями dx- ^ *^1> *^2> • • • » %п> ^1» ' • • > = ХЪ Х2, .. • , ХПу Illy М'2у • . . у Ui)y dxt ~dt где xl9 x2t ..., xn — координаты объекта управления; ulf u2t координаты управления (положения управляющих органов). (12-25) щ — 300
Для описания поведения объекта управления прибегают к геомет¬ рической интерпретации, откладывая по осям прямоугольной системы координат значения xh которые полностью описывают объект управ¬ ления. Таким образом получают фазовое пространство системы, каждая точка которого соответствует состоянию системы (рис. 12-3). Когда ее состояние меняется, точка в фазовом пространстве движется по некото¬ рой кривой. Размерность фазового пространства равна п и определя¬ ется порядком дифференциальных уравнений (числом уравнений пер¬ вого порядка), описывающих поведение системы. Согласно теории коле¬ баний для полного описания системы достаточно задать значения всех не зависящих друг от друга переменных (координат и их производных). Суммарное число этих переменных определяет размерность фазового пространства. Метод фазовой плоскости удобнее рассмотреть на примере системы, описываемой следующими дифференциальными уравнениями: Такой вид имеют уравнения системы управления двигателем посто¬ янного тока по току якоря, если пренебречь жидкостным трением. Требуется определить оптимальное управление и> которое бы пере¬ водило систему из состояния (х°1у х$) в состояние (*} = 0; х\ = 0) за минимальное время при | и | ^ 1. Уравнения (12-26) линейные, поэтому при оптимальном управлении и принимает только два значения: и = — 1 или и = +1, т. е. система представляет собой систему вто¬ рого порядка. Доказывается [Л.72], что у системы, описываемой п линейными дифференциальными уравнениями, не может быть более Рис. 12-3. Геометрическая интерпретация задачи о максимальном быстродействии. (12-26) 301
п — 1 переключений. Поэтому в данном случае имеется одно переклю¬ чение. Разделив первое уравнение (12-26) на второе, получим: dx± dx 2 : х2 при U = + 1 ; -^-= -Л* при и= - 1, после интегрирования хг = ±2 Xi +С. (12-27) .(12-28) Это уравнение соответствует двум парам семейств парабол. На рис. 12-4, а представлены параболы, соответствующие и = +1, а на рис. 12-4, б — и = —1. Если управление будет кусочно-непрерывным, то поведение системы опишется с помощью фазового портрета, пока¬ занного на рис. 12-5. При начальных условиях ^i>>0, x2<i0 точка а) 6) Рис. 12-4. Кривые, соответствующие уравнению (12-27)., на фазовой плоскости (или система) будет двигаться с сигналом управ¬ ления и = —1 по одной из фазовых траекторий, соответствующих управлению, до линии переключения. По достижении линии переклю¬ чения знак команды должен поменяться и система будет двигаться с сигналом управления и = +1 по кривой переключения в начало координат. Таким образом, для реализации оптимального по быстродействию управления необходимо иметь релейный элемент и вычислить, в каком элементе реализуется линия переключения. Два варианта схем реализации, используемые в инженерной прак¬ тике, приведены на рис. 12-6. Линия переключения реализуется с по¬ мощью нелинейного элемента НЭ. В схеме на рис. 12-6, а на нелиней¬ ность подается продифференцированный сигнал с дифференцирующего элемента ДЭ. В схеме на рис. 12-6, б дифференцирование осуществля¬ ется в параллельном канале. После окончания переходного процесса релейный элемент РЭ отключается, чтобы избежать возбуждения сис¬ темы, поэтому данная схема работает только в режиме переходного процесса. В установившемся режиме ее отключают, а система замы- 302
а) нз 5) Рис. 12-6. Варианты реализации оптимального управления. 30.3
кается через дополнительный линейный фильтр, который обеспечивает нужное качество ее работы. Реализация по схеме рис. 12-6, б несколько лучше, так как в ней одновременно есть ограничение по величине в, а в схеме рис. 12-6, а необходимо устанавливать ограничитель в канале производной, поэтому схема на рис. 12-6, б имеет большее распространение. В блоке Y (s) реализуется передаточная функция разомкнутой системы управления. Глава тринадцатая НЕПРЕРЫВНОЕ ДИНАМИЧЕСКОЕ, ПРОГРАММИРОВАНИЕ Динамическое программирование применяется в двух не исключаю¬ щих друг друга направлениях. С одной стороны, с его помощью ре¬ шают задачи, связанные с непрерывными процессами оптимального управления, и тогда он представляет собой один из приемов решения вариационных задач, равноценный принципу максимума Понтрягина. В методе динамического программирования органически присутствует способ численного решения непрерывных вариационных задач. Для решения дифференциального уравнения Эйлера или Понтрягина, как правило, приходится искать подходящий численный метод решения, а для численного решения непрерывных вариационных задач методом динамического программирования необходимо лишь заменить непре¬ рывный процесс дискретным с соответствующим малым интервалом дискретности. С другой стороны, динамическое программирование позволяет ре¬ шать задачи, дискретные по самой своей природе, т. е. не преобразо¬ ванные из соответствующих непрерывных задач. Эта особенность имеет важное значение для экономической кибернетики, которая имеет дело с дискретными процессами (например, с дискретным количеством продукции-, например телевизоров). Кроме того, следует отметить такую важную область применения динамического программирования, как решение задач кибернетики, сводимых к проблеме оптимального перебора. Динамическое програм¬ мирование в этом случае выступает как некоторый оптимальный метод перебора вариантов. Начнем изложение с решения методом динамического программи¬ рования непрерывных задач и сравним его с решением по классиче¬ скому вариационному исчислению и принципу максимума. Дискрет¬ ный вариант динамического программирования изложен в гл. 15. 13-1. ПРИНЦИП ОПТИМАЛЬНОСТИ В основе непрерывного и дискретного динамического программи¬ рования лежит принцип оптимальности Веллмана, который заклю¬ чается в следующем [JI. 72, 80]. Допустим, требуется определить функ¬ 304
цию у(х)> обращающую в минимум функционал ь I=\F{x, у, у) dx а при условии У (а) — У а, уф) = уь■ Рассмотрим в фазовом пространстве оптимальную траекторию уау0у& (рис. 13-1). Разделим ее на два участка, обозначенные цифрами 1 и 2. Будем для простоты пока считать, что уь фиксирован. Принцип опти¬ мальности утверждает, что если вся траектория оптимальна, то учас¬ ток 2 тоже оптимален. Это значит, что если начальное состояние системы определяется у0 при х = х0, то независимо от того, по какой траектории система пришла в эту точку, ее дальнейшее движение будет происхо¬ дить по участку 2. Такая независи¬ мость последующего движения от предыстории является характерной особенностью случайных марковских процессов без последействия. Если допустить, что участок 2 не является оптимальным, то существует другой участок 2' с началом в точке у0, который будет оптимальным. Но тогда вместо начальной траектории 1—2 существует другая траектория 1—2', на которой достигается экстре¬ мум. Это противоречит исходному предположению о том, что траекто¬ рия 1—2 оптимальна. Заметим, утверждение о том, что любой участок оптимальной траек¬ тории есть оптимальная траектория, с некоторой точки зрения неверно. Действительно, если задана только начальная точка уа, то участок 1 траектории 1—2 может и не быть оптимальным. Приведем пример. Пусть требуется оптимальным образом распределить темп бега спорт¬ смена на дистанции от уа до уь так, чтобы он за минимальное время до¬ стиг точки уь. Очевидно, что если дистанция достаточно большая, то тренер бегуна вряд ли даст ему указание бежать на каждом участке как можно быстрее. Бегун должен оптимальным образом составить свой график бега из расчета пробега всего пути в целом от уа до уь за мини¬ мальное время. Так, он может вначале бежать не в полную силу, чтобы обеспечить бурный финиш. Совсем другое дело, если бегуну зададут конечную точку у0 и скажут, чтобы он наилучшим образом пробежал Дистанцию У, т. е. первый участок будет оптимален, когда помимо начальной точки уа задана еще и конечная точка интервала у0. В связи с этим целесообразно напомнить, что обычная экстремаль (в случае невырожденного функционала) представляет собой как бы единую цепь, каждое звено-участок которой является также экстремалью. По суще¬ ству, Беллман с помощью принципа оптимальности расширил класс Допустимых экстремалей, потребовав, чтобы только конечный участок оптимальной траектории был оптимален. Рис. 13-1. Пояснение к принципу оптимальности Беллмана. 305
Это условие оптимальности определяет масштабы применяемости принципа максимума. Если оно несправедливо, то решать задачу с помощью динамического программирования нельзя. Часто удается свести исходный процесс к новому путем увеличения числа измерений фазового пространства, и для такого процесса условие оптимальности будет выполняться. Заметим, что принцип оптимальности справедлив и для дискретных, и для стохастических процессов управления, которые будут рассмот¬ рены в отдельности. Условие оптимальности сразу позволяет получить основные уравнения метода динамического программирования — функ¬ циональное и дифференциальное уравнения Веллмана. 13-2. ФУНКЦИОНАЛЬНОЕ УРАВНЕНИЕ ВЕЛЛМАНА Вернемся к функционалу ь Иу) = \Р (х, у, у) dx\ у (х) = с. а Минимум его зависит от а и с. Введем обозначение ь S (а, с) = min у, у) dx, (13-1) У а где —оо <; а << с; — оо <; с < оо. В силу аддитивности интеграла можем написать Ь а-\- А b ы + s а а- а + Д и, применив принцип оптимальности, получим: S(a,c)= min \ F(x, у, у) dx + S (а + А, с,)"], (13'2) у{а,а + Д][ о J где минимизация производится по всем у (я), определенным на про¬ межутке изменения х е [а, а + Д], причем у (а) = с; у (а + А) = cv Нетрудно убедиться, что функциональное уравнение Веллмана представляет собой формальную запись' принципа оптимальности, со¬ стоящего в поэтапном определении оптимального управления: вначале ищется минимум на конечном участке 2, затем на всей траектории 1—2 (см. рис. 13-1). Функциональное уравнение дает по существу рекуррентные соотно¬ шения для решения оптимальных задач численным методом на ЦВМ. Но на данном этапе нас это уравнение интересует с той точки зрения, что оно позволяет получить дифференциальное уравнение Веллмана и все основные соотношения классического вариационного исчисления. 306
13-3. ДИФФЕРЕНЦИАЛЬНОЕ УРАВНЕНИЕ ВЕЛЛМАНА Если задано, что у (а) = с, то выбор функции у (х) на интервале а + А] эквивалентен выбору у (х) на интервале [а, а + А]. Если Д мало, а у {х) непрерывна, то выбор у (х) на интервале [а, а + Д] экви¬ валентен выбору у (а). Если отбросить члены малости выше первого порядка относительно Д, то нетрудно убедиться в справедливости сле¬ дующих соотношений; о. ~т д $ F{x, у, y)dx = F[a,rb у {а)] А; (13-3) а Ci = y(a)+ 'y(a)A = c+ 'y (а) Д.' (13-4) Вводя обозначение v = у (а) и подставляя выражения (13-3) и (13-4) в функциональное уравнение (13-2), получаем: S (a, c) = mm[F (а, с, v) A -f- S (а + А, с + уД)]. Разложив функцию S(a + А, с + уД) в ряд Тейлора S(fl + A>c + oA) = S(aJc) + -f-A + -g-oA + ...) в пределе при А -> О получим нелинейное дифференциальное уравнение в частных производных: dS ■’ Г с / \ I dS 1 --65—с, tO + tz-fc-J. Это и есть знаменитое уравнение Веллмана. Оно справедливо для лю¬ бого значения а = х, поэтому его можно переписать в виде dS . \п/ ч . dS —Ж = ™п Г {Х> с’ V) + V^F. Если ввести вместо х время /, с заменить на х и выделить коорди¬ нату управления и, которую необходимо определить оптимальным обра¬ зом, то задача нахождения минимума функционала т I = {jF (х, и, t) dt i сведется к решению уравнения dS • Г*г/ I * dS "1 --w=muin lF{x’ и’ arj- Наконец, если имеется несколько координат и управлений (вектор¬ ное управление), то задача минимума функционала т I = \ F (и, х, т) dx, 307
сведется к решению следующего дифференциального уравнения: dS (х, t) dt где = min [F (х (/), u (/)/) +grad (13-5) grad S = Если система описывается n дифференциальными уравнениями первого порядка dxi ~df — fi (X, U, t), /=1, П, то уравнение (13-5) запишется в виде dS —^- = min [F (x, u, t) + grad Sf]. (13-6) Дифференциальное уравнение Веллмана является своеобразным нелинейным дифференциальным уравнением. В нем обязательно при¬ сутствует операция минимизации. В случае уравнения вида (13-6) минимум берется по и: 7 S = min$ F (ху и, f)dt. После того как сделан перебор по всем и и выбрано оптимальное управление, правая часть уравнения (13-6) не зависит от и. Вывод уравнения (13-6) требовал дифференцируемости и существования част¬ ных производных от функции S по всем переменным /, Однако можно привести много примеров, где функция не является дифференцируемой, а оптимальное уйравление существует. Можно показать, что на линии переключения функция всегда недиф¬ ференцируема. Поясним это на при¬ мере [Л. 81]. Пример 13-1. Рассмотрим систему диф¬ ференциальных уравнений: J х2 *о(а,Ъ) 1 >( 1 0 К % (-а,-Ъ) У7 dx1 ~dt dx2 dt Решив их при и = ± 1, получим выражение для фазовых траекторий в виде Рис. 13-2. Пояснение к примеру х1 = ±-^(х2)2 + 6V 13-1. Линия переключения получается при С1 = 0. Пусть начальная точка х0 лежит выше линии переключения (рис. 13-2) и имеет координаты (а, Ь). Из условия прохождения параболы через эту точку находим: Сг = а + ^Ь\ Уравнение самой параболы имеет вид: = - -2~ (*2)2 + я+ -й ЬК (13-7) 308
Для определения точки переключения С необходимо решить совместно уравне¬ ние (13-7) и уравнение линии переключения (13-8) Вычитая уравнение (13-8) из (13-7), получаем: 1 х2 = а + j b2 • или *2=± ^a + yfca- Для точки С надо взять знак минус, тогда *2С=-К' a+ib2- При движении от точки х0 до точки С и = —1, поэтому x2 = —1. Интегрируя это уравнение, получаем: *2С ~ ^ == ^ x^dt =U—\)dt = t0 — а, *0 *0 (13-9) где а — момент переключения. Аналогично при движении от точки С до начала координат и = 1, л:2 = 1 и О—х2С = — *2С = ^ ^ dt = — а. (13-10) а а Вычитая из уравнения (13-10) уравнение (13-9), получаем: 6-2*2C = ^-V Это — минимальное время движения по оптимальной траектории: S(x0)=b-2x2C = b + 2yra + ±-bК (13-11) Так же можно вычислить эту функцию для случая, когда начальная точка лежит ниже линии переключения (х0 на рис. 13-2). Однако из геометрических соображений следует, что если поменять а на —а и b на —6, то оптимальное время будет то же самое. Поэтому для случая, когда Xq лежит ниже линии переключения, траектория Sfo)=-6 + 2]/^-a + -i6*. (13-12) Для xq, лежащих на линии переключения (ниже начала координат), а = ^Ь2> 0, Ь< 0; S(x0) = b + 2Vb2 = b + 2\b\ = -\b\+2\b\ = +\b\=-b; для точек Xq, лежащих выше начала координат, a=-i-6’>0, S(x0) = —b, т. е. функция 5 непрерывна везде и имеет вид: b + 2j/'a+~b3 при S(x0) = { —b при х1=~хг; — 6 + 2|/"а + у 62 при xxs£-£*2- 309
Покажем, что хотя эта функция и непрерывна, у нее нет производных по х на линии переключения. Пусть точка С с координатами (а0, Ь0) (рис. 13-3) лежит на дуге АО так, что а0 = (Ь0)2/2 и Ь0 < 0; Yао + у(6о)2 = К| b0 |*' = |ft*|=- Определим производные от функции S, dS __ 1 да задаваемой формулой (13-11): 1 dS db У а = 1- для формулы (13-12) a+ib* С = 1- Ьо Ьо ■ = 0; dS да - =— оо; as а+т6* Как видим, при смещении из точки С вверх dS/db = 0, при смещении вниз dS/db = = —оо, т. е. производной dS/db в точке С не существует. Так же не существует в точке С производной dS/da. Тем самым показано, что на ли¬ нии переключения прризводных от S не существует. В остальных точ¬ ках плоскости эта функция диффе¬ ренцируема. Так как фазовая тра¬ ектория обязательно содержит участок линии переключения, то для рассматриваемого случая нельзя написать дифференциальное урав- ■нение Веллмана, если использовать рассмотренный ранее вывод, этого уравнения. Однако можно вывести дифференциальное уравнение Велл¬ мана другим способом [Л. 82, 83], при котором не требуется выполнения условия дифференцируемости функции Веллмана. При этом достаточно непрерывности скалярного произведения grad Sf (t, х, и), что в большинстве случаев справед¬ ливо для линии переключения. 13-4. ДИНАМИЧЕСКОЕ ПРОГРАММИРОВАНИЕ И ПРИНЦИП МАКСИМУМА Получим из динамического программирования принцип максимума [Л. 72]. Для этого соответствующим образом формализуем задачу, т. е. опишем систему уравнениями dX с, ч -ж = f (X. и), Рис. 13-3. Пояснение к недифференци¬ руемости функции Веллмана на линии переключения. 310
ГДе / ч. X —• (Xqj Xit . . . , X/i, Xn+i), f = (/o> h, • ••>/«, fn+1); *o(0) = 0; x0(7’) = min, и введем (n + 2)-мерную вектор-функцию , I , dS dS dS -1; dxi 1 1 dX/i дхщ-i Тогда дифференциальное уравнение Веллмана —-^- = min[/:’(x, u, 0 + gradSfj с учетом того, что min (4-^) = — шах (—|я) [например, min (3, 5) = = — max (— 3, —5)], запишется в виде 0 = max|f(x, u)(—l)-gradSf-g^-(+1)} (13-13) или шах(ф!) = 0. ^ (13-14) Теперь, если ввести функцию из выражения (13-14) получим принцип максимума Понтрягина: шах Н = 0. (13-15) U Чтобы вывести дифференциальные уравнения принципа максимума, предположим, что функция S(x) имеет вторые производные по всем хь. В соответствии с выбором функций для производной от них по вре¬ мени имеем: п, -\-1 dtyj = d_ (dS \ = _ у д_ (dS \ dxj_ = dt dt \ dxi ) dxj \ dxi J dt i=о = - 2 ' =1 "+1- 1=0 Очевидно, что если ф0 = —1, то d\\>Jdt = 0. Согласно формуле (13-15) для оптимального управления и0П1 (/) имеем: п-\-1 Н = Нмакс =§fj = 0. (13-17) / = 0 1 Рассмотрим фиксированный момент времени /, для которого uonT (t) тоже будет фиксированной величиной. Для точек пространства х, отличных от той, которая лежит на рассматриваемой траектории, данное управление иопт уже не будет оптимальным, и для них величина Н не будет достигать своего максимума, поэтому при фиксированных t 311
и иопт (0 величина Н = достигает своего максимума, равного нулю, относительно координат xt именно в точке оптимальной траектории и, следовательно, в этой точке производные от Н по xt обращаются в нуль. Продифференцировав соотношение (13-17) по xh получим: £(- "+■• \ i=0 J 1=0 /=о откуда П+1 /1+1 2d2S t VI dS dfj , , . &xidx,fj~ 2j dxjdxi' '—•. •••>«+!• ,-=o /=o Сравнивая это соотношение с (13-16), замечаем, что его левая часть совпадает с правой частью (13-16), поэтому 2‘-1 "+'• '<т8> / = 0 / = 1 Это и есть сопряженные уравнения принципа максимума. Если про¬ дифференцировать л+1 я= /=о по X] и сравнить полученное выражение с (13-18), то можно получить: дН < . . ~dt д^’ Далее, дифференцируя формулу (13-18) по фу-, имеем: дН с дН дх; п . . . -*РГ = Ь или ' = 0,1 n + L Таким образом, видим, что получены оба уравнения Понтрягина. 13-5. ГЕОМЕТРИЧЕСКАЯ ИНТЕРПРЕТАЦИЯ ДИНАМИЧЕСКОГО ПРОГРАММИРОВАНИЯ Оптимальное управление следует подбирать так, чтобы проекция касательной к оптимальной траектории dx/dt на нормаль к поверх¬ ности S была бы максимальна: 5 =Х0 S (Xi, Х-2> • • • j хп, Хп±-±)) где т S (хъ х2, ..., хПУ хп+1) = min ^ F (х, u) dt, (13-19) и t причем следует иметь в виду, что эта проекция отрицательна, отсюда ее максимальное значение равно нулю. Чтобы лучше представить себе поставленный вопрос, рассмотрим частный случай, когда ft (i = 0, 1, ..., п, п + 1) не зависит явно от 312
времени (правые части дифференциальных уравнений и подынтеграль¬ ная функция функционала не зависят явно от времени) и требуется обес¬ печить минимальное время переходного процесса Т — t0. В этом слу¬ чае F = 1 ,dSldt = 0, нижний предел t = t0 в формуле (13-19) задан. Тогда из соотношения (13-13) следует, что max [ — gradS(x)f (х) J = 1. Здесь х и f — /i-мерные векторы. Положим Н = — grad Sf = ij)f, где получим: max ф = —grad S, шахЯ= 1; п dS (13-20) (13-21) i =1 п шах 2]ф«7/ = 1. U /=1 Последние три формулы показывают, что формальные записи принципа максимума и динамического программи¬ рования для автономных задач макси¬ мального быстродействия совпадают. В соответствии с формулой (13-21) оптимальное управление следует выби¬ рать так, чтобы максимизировать Н и чтобы скалярное произведение (13-20) было бы равно единице, т. е. S (х) = \ \ dt = Т — t. Рис. 13-4. Геометрическая ин¬ терпретация динамического про¬ граммирования. В соответствии с этой формулой по¬ верхность S = const есть поверхность изохрон Т — t = const, причем, вели¬ чина S убывает по мере приближения к конечной точке. Поэтому вектор ф, обратный направлению возрастания S (градиенту), направляется внутрь изоповерхности S = const (рис. 13-4). Принцип максимума очевиден и из физических соображений: движение вдоль нормали — самое быстрое по времени, так как движе¬ ние вдоль поверхности т = Т — / не дает приближения к конечной точке. Пример 13-2. Рассмотрим известную нам задачу йхг чг dx2 dt \и\ 1. - = и; 313
Найдем максимальное быстродействие при начальных (*10, *2о) и конечных (х1Т = О, хът~ Условиях. Дифференциальное уравнение Беллмана в этом случае запишем как max (grad Sf) = 1, u а с учетом того, что шах [—р,] = —min р, min (grad Sf) + 1 =0. u Применив это соотношение к заданной системе, получим: 1 . ds . • \ ds 1 п 1 + -5—х2-\- min —— ц =0. 0*1 |и|<1 1дхг 1 Из этого уравнения следует, что закон оптимального управления будет иметь вид: . dS «ОПТ— S1Sn » следовательно, и0П1 = 1 или иопт = —1. Для определения моментов переключения необходимо решить нелинейное дифференциальное уравнение в частных производ¬ ных: dS dS n dS дхх *2 dx2 9 dx2 9 i,ds ds _n дл^ *2 длг2 ’ dx2 (13-22) В нашем частном случае это уравнение решается, и мы его решили другим спо¬ собом (§ 12-4). В соответствии с ним линия переключения задается равенством (*г)2 • хг = — -^-sign,v2. Решение уравнения (13-22) запишется в виде S = **+2 + *1 прпЦ"<0! — х2 + 2уГ—х1 + ~х1 при -Ц- >0. 2 - F д*2 Нетрудно убедиться, что оптимальное управление • I W2 . «опт =—sign ixx—^-sign х2 Эта же формула Использовалась при синтезе оптимальной системы с помощью фа¬ зового пространства.' Покажем на этом примере, что на линии переключения функция Беллмана S разрывна, а скалярное произведение grad Sf непрерывно. На рис. 13-5 показан фазовый портрет для данной задачи, из которого видно, что функция S при переходе точки х (xlt х2) сверху вниз через линию переключения скачком меняет свое зна¬ чение S — х2 на S = —х2. Величина скачка уменьшается с приближением к началу координат, так как х0 ->■ 0, и в начале координат линия переключения, состоящая из двух кусков парабол, непрерывна. Таким образом, производная от функции 5 на линии переключения не существует, она терпит бесконечный скачок, хотя следует заметить, что в правой полуплоскости эта функция непрерывная при приближении снизу к линии переключения, а в левой полуплоскости — при приближении сверху. Однако скалярное произведение grad Sf непрерывно при переходе через линию пере¬ ключения в силу того, что для оптимального управления всегда grad Sf = — Г. 314
действительно, рассмотрим точку на нижней ветви линии переключения и подсчи¬ таем скалярное произведение при движении сверху и снизу к этой точке. В первом гпучае имеем: У dS dS или _ -Ха =; = — 1 дх1 дх2 — /14 -- 2 \ = — 1 , ]/~*1+4 xi \ уГх1 + х\ Рис. 13-5. Пояснение к примеру 13-2. Таким образом, при движении сверху скалярное произведение непрерывно. Иссле¬ дуем движение снизу: dS , dS _ , дхг *2 дх2~~ Выполняя дифференцирование, получаем: grad Sf= -1 + -— i = -1. у —^i +у —xiJr~2X2 Первый и второй члены этого выражения стремятся при приближении к линии пере¬ ключения к + оо и — оо соответственно, но их разность стремится к нулю. Г лава четырнадцатая ОПТИМИЗАЦИЯ ДИСКРЕТНЫХ ПРОЦЕССОВ УПРАВЛЕНИЯ Данная глава посвящена методам решения дискретных задач опти¬ мизации с помощью динамического программирования и принципа максимума Понтрягина. Методы решения дискретных задач даны здесь под общей идеей оптимизации дискретных процессов. Причем рассмат¬ 315
ривается только оптимизация дискретных во времени процессов, ко¬ торые еще называются многошаговыми или многоэтапными, или много¬ ступенчатыми. Процессы, дискретные по величине (амплитуде), в ко¬ торых переменные могут принимать только дискретные, квантованные (иногда целочисленные) значения, здесь не затрагиваются. Их опти¬ мизации посвящена гл. 18, названная «Целочисленное программирова¬ ние». Следует заметить, что часто методы, которые в данном учебном пособии вынесены в главу о целочисленном программировании, считают также дискретными, т. е. в этом вопросе нет единства мнений. Приведенные здесь методы могут применяться для оптимизации и непрерывных процессов управления, если их свести к многошаговой (дискретной) модели. Далее заметим, что исходная кибернетическая система может менять свои состояния независимо от времени (не быть динамической), однако при оптимизации ее сводят к многошаговому динамическому процессу. Отсюда и возникло название динамического программирования. Следуя индуктивному методу изложения, наиболее предпочтитель¬ ного для инженерного круга читателей, вначале на простейших при¬ мерах, ставших типовыми, рассмотрим основные идеи и особенности метода дискретного динамического программирования, затем дадим общую его теорию на основе общей модели многошаговых процессов, после чего изложим общую теорию дискретного принципа максимума и дадим пример решения с его помощью транспортной задачи, до этого решенной методом дискретного динамического программирования [Л. 80, 84—91]. 14-1. ДИСКРЕТНОЕ ДИНАМИЧЕСКОЕ ПРОГРАММИРОВАНИЕ КАК ЧИСЛЕННЫЙ МЕТОД РЕШЕНИЯ НЕПРЕРЫВНЫХ ЗАДАЧ ОПТИМИЗАЦИИ Существуют два способа численного решения дифференциальных уравнений (в частности, уравнения Беллмана). В первом случае аппрок¬ симируют точное дифференциальное уравнение, например, разностным уравнением, во втором случае представляют непрерывные решения дискретными точками и составляют точное (разностное) уравнение для дискретного процесса. Первый способ, в частности, применяется в чис¬ ленных методах для решения уравнений Эйлера и Понтрягина, вто¬ рой типичен для динамического программирования и составляет его сущность. В принципе для динамического программирования не тре¬ буется составлять дифференциальное уравнение Беллмана. Непрег рывная задача оптимального управления решается разбиением непре¬ рывного процесса управления на дискретные этапы, т. е. вместо непре¬ рывного рассматривают поэтапное управление путем поэтапного решения соответствующего функционального уравнения. На каждом этапе, начиная с конца, делают перебор оптимальных управлений из класса допустимых, т. е. удовлетворяющих ограничениям, и выбирают оптимальное, при этом необходимо учитывать, что исходный непре¬ рывный процесс управления должен допускать разбиение на этапы, для которых был бы применим принцип оптимальности Беллмана. 316
Очевидно, если можно написать критерий оптимальности в виде инте¬ грального функционала, то принцип оптимальности всегда применим всилу аддитивности функционала. Но дискретные процессы управле¬ ния в принципе могут быть и такими, для которых критерий оптималь¬ ности нельзя представить в виде функционала, и тогда вопрос о спра¬ ведливости принципа оптимальности требует специального рассмотре¬ ния. Например, управление на каком-то этапе зависит от управления на п предыдущих этапах. В этом случае выполнения принципа опти¬ мальности можно добиться увеличением размерности фазового прост¬ ранства (добавлением координат). В теоретической механике этот во¬ прос, по-видимому, тесно связан с выбором числа независимых коор¬ динат, т. е. если число координат выбрано малым, то принцип опти¬ мальности неприменим. Но теоретическая механика располагает методами, позволяющими определять минимальное число независимых координат в системе. Как только они выбраны, составляется функция Лагранжа, функционал действия, и тем самым обеспечивается выпол¬ нение принципа оптимальности. Рассмотрим общий путь решения непрерывной вариационной задачи методом дискретного динамического программирования. Пусть тре¬ буется определить оптимальное управление, которое минимизирует функционал / (jc) = 5 ^(х, u, t) dt h при условии ^ = f(x, U; /); х (to) = X0. Для этого заменим интеграл суммой, а дифференциальные уравнения разностными: N — 1 h(x)= 2 и<> /А)Д; i = k x*+1 = xr‘ + / (х*, и\ /А), где kA = t0] Nk = ti; xk = х°, и обозначим S*(x°) = min Ik(x) {*'} (в этой формуле минимум берется по всем интервалам длины Д). Применив принцип оптимальности, придем к соотношению Sk (xfe) = min {F(xk, u\ M) Д + Sk+i[xk -}-f (xky uk, &Д)Д]}, которое позволяет на каждом k-м этапе выбирать оптимальное управ¬ ление, начиная с последнего (N — 1)-го этапа. После того как, начиная с конца, на каждом участке [(JV-2)Д, (JV- 1)Д], 1(Я-3)Д, {N — 1)Д], [М, (iV — 1)Д] 317
выбрано оптимальное управление, необходимо двигаться от начала в конец и получить непрерывную траекторию, состоящую из оптималь¬ ных кусков и соединяющую начальную и конечную точки. 14-2. ЗАДАЧА О КРАТЧАЙШЕМ ПУТИ Определим кратчайший путь между пунктами А и Ву соединенными сложной сетью дорог (рис. 14-1). Вдоль каждого участка дороги про¬ ставлено время движения с учетом покрытия дороги и рельефа мест¬ ности. Для решения задачи разобьем все расстояние между А и В на этапы. Выбор оптимального пути начнем с конца. Найдем кратчай¬ шие пути, соединяющие пункт В с каждой точкой пересечения линии N — 1. Таких оптимальных на последнем участке путей три, они отме¬ чены точками снизу. Затем перейдем к следующему от конца участку, ограниченному прямыми N — 2 и N — 1. Отметив точки пересечения дорог с прямой N — 2 треугольниками, найдем такие пути, соединя¬ ющие эти точки с точками пересечения на прямой N — 1, которые дадут минимальный суммарный путь на участках (N — 2, N — 1) и (N — 1, N). Эти оптималь¬ ные пути отмечены точками сверху. Естественно что в качест¬ ве второй части пути рассмат- >5 риваются только оптимальные пути, найденные на послед¬ нем участке. Здесь по существу для сле¬ дующего от начала участка используется функциональ¬ ное уравнение Рис. 14-1. К задаче о кратчайшем пути. Sm—2 = min [gw—2 *Syv—1 ]- После N — 2 переходим к первому этапу (см. рис. 14-1), который со¬ держит начальный пункт Л.. Для этого этапа необходимо соединить А с точками пересечения дорог с прямой N — 2 и выбрать оптимальный путь от каждой из этих точек. Затем, делая перебор по этим оптималь: ным путям и оптимальным путям, соединяющим точки пересечения на прямой N — 2 с точкой В, а затем сравнивая суммарное время движе¬ ния по ним до точки Л, выбираем наилучший. Таким будет путь, время движения по которому равно 18, соединяющий А и В и проходящий через нижнюю точку пересечения прямой N — 2 и среднюю точку пере¬ сечения N — 1, причем перебираются не все пути, соединяющие точки пересечения на прямой N — 2 с точкой В, а только оптимальные, уже отобранные на предыдущем этапе расчета. В этом заключается выиг¬ рыш, который дает динамическое программирование. Естественно, что реально этапов N может быть несколько сотен и даже тысяч. Может быть несколько путей с оптимальным (одинаковым) временем. 318
В результате видим, что существенное влияние на успех решения оказывает выбор длины этапа: если ее выбрать такой малой, что точки пересечения на двух соседних прямых соединятся одним путем, то никакого выигрыша метод динамического программирования как ме¬ тод поэтапного перебора не даст по сравнению с прямым перебором; если ее выбрать слишком большой, то очень много путей соединят каж¬ дую пару точек пересечения и эти пути придется долго перебирать, Точных рекомендаций для выбора длины этапа нет. Можно только ре¬ комендовать, чтобы путей, соединяющих две точки пересечения, было не менее 3—5, но не более 8— 10. Тогда поэтапный перебор будет проще прямого. Заметим, что на каждом этапе необходимо выполнить по два перебора: 1) для нахождения мини¬ мального пути, соединяющего две точки пересечения (пере¬ бор всех путей, их соеди¬ няющих); 2) Для нахождения мини¬ мального суммарного пути, состоящего из оптимальных путей, соединяющих точки пересечения левой и правой прямых данного интервала, правые точки пересечения с конечной. Большинство непрерывных задач оптимизации допускает интерпре¬ тацию в виде модели, представленной на рис. 14-2. В /г-мерном фазо¬ вом пространстве (для простоты считаем п = 2) заданы две точки: начальная х0 и конечная хт. Требуется соединить их кривой, оптималь¬ ной в заданном смысле. Дискретной сети дорог нет, но, по существу, задача допускает интерпретацию, аналогичную задаче с дорогами. На возможные пути наложены некоторые ограничения, например по углу наклона траектории, идущей из заданной точки. Допустим, разрешается двигаться под углом, не выходящим из интервала =±=45° к горизонтальному направлению. Этот диапазон квантуют, т. е. разрешается двигаться не в любом, а в одном из 5—10 дискретных направлений внутри допустимого диапазона. Очевидно,. что данная задача может решаться методом динамического программирования, так же как и в предыдущем случае. 14-3. ЗАДАЧА О КРИТИЧЕСКОМ ПУТИ Эта задача ставится следующим образом. Задается граф, называе¬ мый транспортной сетью, каждой дуге которого х-п Xj (или х, у) соот¬ ветствует некоторая величина — длина дуги a (xh xj) ^.0. Требуется найти кратчайший путь из истока х0 в сток г. В качестве длины пути Могут фигурировать длина дороги, количество бензина, расходуемое Рис. 14-2. Сведение непрерывных задач к ди¬ скретному динамическому программированию. и оптимальных путей, соединяющих 319
при движении по данному участку, стоимость проезда по данному участку и т. п. Задача определения критического пути часто возникает в сетевом планировании и управлении. Любая сложная, комплексная работа изображается в виде кибернетической модели — сетевого графика, ко¬ торый представляет собой некоторую транспортную сеть. Начальная точка х0 этой сети соответствует началу, конечная точка z — оконча¬ нию комплексных работ (рис. 14-3). Каждая отдельная (частная) работа комплекса показана на рисунке в виде дуги, начальная вершина ко¬ торой соответствует началу работы, а конечная вершина — концу. Каждой дуге (xi9 xj) соответствует время выполнения работы tijy каждой вершине xt — время наступления данного события tt [начала работы, изображенной дугой (xh xj)]. На рис. 14-3 показан сетевой график, состоящий из восьми работ. Если комплекс работ состоит х в постройке жилого дома, то ог- ? дельными работами могут быть вдоль которого суммарное время Рис. 14-3. Пример сетевого графика. выполнения работ было бы макси¬ мальным. Он называется крити¬ ческим. Без его уменьшения невозможно сократить общее время вы¬ полнения работ. Критических путей может быть несколько. Тогда для сокращения времени выполнения комплекса работ необходимо умень¬ шить время выполнения работ, входящих в критические пути. Если ввести в рассмотрение еще и стоимости выполнения работ, то в данном критическом пути следует сокращать те работы, которые обладают наи¬ меньшим увеличением стоимости при сокращении времени выполнения работ, т. е. если обозначить зависимость стоимости выполнения работы от времени через ctj = ftJ (^7), то сокращать следует ту работу крити¬ ческого пути, для которой производная будет максимальной. После сокращения времени одного критического пути может появиться другой критический путь. Известно много алгоритмов для отыскания критического пути в сетевом графике. Здесь будет рассмотрен только алгоритм Веллма¬ на — Калаба [Л. 90]. Он основан на принципе оптимальности и исполь¬ зует функциональное уравнение Беллмана. Принцип оптимальности Беллмана в данном случае можно сформулировать так: любой макси¬ мальный (критический) путь, содержащий не более г дуг, образован ,z кровля и т. д. Цифры около каж¬ дой дуги означают время выпол¬ нения каждой работы (в днях). Требуется найти такой путь из начальной точки в конечную-, рытье котлована, возведение фундамента, подводка коммуни¬ каций, кладка, штукатурка, 320
дСтичными путями, содержащими не более k (k sg г) дуг, которые ч,пути) также максимальны.■ Для всякой дуги, не принадлежащей нашей сети, т. е. (xh xj) ф U, доложим ttj = — оо и tu — 0. Тогда задача будет состоять в отыска- нии пути ^ = ^ Eii> Eiv ' Ei^ Еп^ для которого сумма tli\ + i2 + ti2 /3 + • • • + Ukn достигает максимума. Здесь Et — события, соответствующие вершинам сети (моментам начала и окончания работ); ty — время выполнения работы, которая начинается событием Et и заканчивается событием Ej. Составим функциональное уравнение-Веллмана: vi =max(tij-rvj)t /= 1, 2, ..., д — 1; /=1, 2, ...,д; vn = 0, где величины vt (i = 1, 2, ..., д — 1) являются критическими временами частичных путей от i-й до конечной вершины. Вычисления начнем с конца, полагая vi = tin9 i = l, 2, /г-1; Vn = ttin = Далее, на втором шаге 0f = maxfaj + v}), / = 1, 2, д-1; /=1, 2, ..., д. (14-1) Величина v\ содержит значения времени выполнения операций на пу¬ тях, состоящих из одной дуги, которые заканчиваются в конечной вершине. Соотношения (14-1) позволяют выбрать максимальный путь, состоящий из двух дуг (которые заканчиваются в конечной точке). Дальнейшие вычисления выполним в соответствии с рекуррентной формулой yf =max [Ду + Р/-1], 1 = 1» 2, п— 1; /=1,2 п\ k> 1. (14-2) Vn = 0> tif = 0. Вычисления будут закончены, когда vf = vf~\ 1=1, 2, ..., п. Величины vf составляют времена отдельных критических путей, вхо¬ дящих в общее время tKp критического пути. Можно показать, что требуется всего п — 2 итераций вида (14-2), где п — число вершин сети. Величины vf являются значениями функ¬ ции Веллмана S для 6-го этапа. Пример 14-1. Найдем критический путь в сети, показанной на рис. 14-4. Этой сети соответствует матрица, каждый элемент которой ау равен времени выполнения 11 Основы кибернетики 321
операции ^у. Там, где ребра отсутствуют, поставлена — оо. С помощью формулы (14-2) составим таблицу значений (табл. 14-1): ^о3' = max (tGj + v'j1}) = max (tQtl + + t6,3 + v(a*\ teA + v(f\ /e>5 + 4*^52)» ^6,6 h,7 + V7~^Q,8 + VS2>* ^6,9~hV02\ ^6,10 + У?0» h,ll~iTV ii 1 ^6,12+ yil') = = max [(— oo) + (— oo), (—oo) + (—oo), (—co) + (—oo), (—oo) + + 8, (— co) + (— oo), 0+13, 5+11, (— oo) + 13, 8 + 7, 9 + 6(— oo) + + 2, (— со) + 0] = 16. На рис. 14-4 в кружках отмечены максимальные значения путей, ведущих из i-й вершины в конечную точку Еп ^max vf, т. е. по числу дуг|. Критический путь отмечен двойной линией, время критического пути /кр = 33. Рис. 14-4. Сетевой график для примера 14-1. Таблица 14-1 k i 1 2 3 4 5 6 7 8 9 10 11 12 1 — оо — ОО — ОО — ОО — ОО — оо — со — СО 5 3 2 0 2 — оо — ОО — ОО 8 — оо 13 11 13 7 6 2 0 3 20 18 17 16 ■ 18 16 17 13 10. 6 2 0 4 27 27 25 20 18 22 17 13 10 6 2 0 5 31 27 29 20 18 22 17 13 10 6 2 0 6 33 27 29 20 18 ' 22 17 13 10 6 2 0 7 33 27 29 20 18 22 17 13 10 6 2 0 14-4. ЗАДАЧА РАСПРЕДЕЛЕНИЯ РЕСУРСОВ Рассмотрим типичную для динамического программирования за¬ дачу распределения ресурсов. Допустим, имеется в наличии у средств и четыре отрасли, в которые эти средства необходимо вложить опти¬ мальным образом. Аналитически, графически или в виде таблиц должны быть заданы функции прибыли g, (у) g:l (у) в зависимости от вложе¬ ний в каждую отрасль. Зададим их с помощью табл. 14-2. 322
Т аблица 14-2 Вложения у, млн. руб. Прибыль по отраслям Si (у) (у) 8з (у) (у) 0 0 0 0 0 1 0,20 0,15 0,10 0,22 2 0,25 0,30 0,30 0,40 3 0,40 0,45 0,55 0,50 4 0,60 0,55 0,70 0,60 Требуется оптимальным способом распределить исходные средства, т. е. чтобы суммарный доход 4 4 I iy) = I] ён (и*); 2м* = У О4’3) k=\ k=\ был максимален. Для простоты предположим, что средства представ¬ лены целыми единицами (миллионами рублей). Это условие не явля¬ ется принципиальным для данной задачи и не означает, что задача становится целочисленной (см. гл. 18). Обозначим оптимальную при¬ быль при суммарном вложении у по одной отрасли через Ф1 (у) = = Sj (у), по двум — Ф,2 (у) = S.2 (у), по трем — Ф, 2 3‘(у) = 53 (у), по четырем — Ф,^ (у) = S4 (у). Это и будут функции Беллмана для разных этапов. Оказывается, распределение ресурсов как процесс определения оптимального управления тоже можно разделить на этапы, хотя здесь нет никакого физического процесса во времени. Условно вводится первый этап, называемый иногда нулевым, на котором все средства вкладываются в одну отрасль, например в первую. На втором этапе выбирается оптимальное распределение между двумя любыми отраслями, например между первой и второй, причем, так как резуль¬ таты оптимального перебора на первом этапе согласно функциональ¬ ному уравнению Беллмана будут использоваться на последующих этапах, то оптимальный перебор на втором этапе следует делать для разных значений исходного капитала у. В результате прохождения второго этапа составляется табл. 14-3 оптимальных распределений между первой и второй отраслями. Таблица 14-3 Вложения у, млн. руб. gi (У) gz (у) Фи (У) Оптимальное распределение ресурсов при вложении в пер¬ вую и вторую отрасли 0 0 0 0 (0.0) 1 0,20 0,15 0,20 (1,0) 2 0,25 0,30 0,35 (1.1) 3 0,40 0,45 0,50 (1,2) 4 0,60 0,55 0,65 (1,3) Для определения необходимых прибылей используется таблица или соответствующие графики (рис. 14-4). После составления табл. 14-3 11* 323
переходят к третьему этапу и определяют оптимальное распределение между первой, второй и третьей отраслями, используя результаты первого этапа. При этом составляется табл. 14-4 оптимальных распре¬ делений для разных значений исходного капитала. Наконец, переходят к последнему, четвертому этапу и составляют табл. 14-5 оптимальных распределений по четырем отраслям. Т а б л и ц а 14-4 Вложения у, млн. руб. Ф12 (у) gs (У) Ф123 (У) Оптимальное распределение ресурсов при вложении по отраслям 1,2 ' | 1, 2, 3 0 0 0 0 (0,0) (0, 0, 0) 1 0,20 0,10 0,20 (1,0) (1, 0,0) 2 0,35 0,30 0,35 (1,1) (1,1,0) 3 0,50 0,55 ' 0,55 (1,2) (0, 0, 3) 4 0,65 0,70 0,75 (1,3) (1, 0,3) Для составления таблиц использовались следующие формулы: So (У) = gi (У)\ Ф12 (у) = S2(у) = шах [й(|/-иг)+й(иг)]; = ы2 ^ г/ Фш (y) = S3 (у) = max [g3 (у - Из) + Ф12 (и3) ]; Фшх (у) = Si (у) = шах (у - и4) + Фх23 («4)]. (14-4) 324.
Таблица 14-5 Вложения у, млн. руб. Ф123 (U) gi (У) Ф1234 (у) Оптимальное распределение ресурсов при вложении по отраслям 1. 2, 3 | 1, 2, 3, 4 0 0 0 0 (0,0,0) (0,0,0,0) 1 0,20 0,22 0,22 (1,0,0) (0,0,0,1) 2 0,35 0,40 0,42 (1,1,0) (1,0,0,1) 3 0,55 0,50 0,60 (0,0,3) . (1,0,0,2) 4 0,75 0,60 0,77 (1,0,3) (0,0,3, 1) каждая из которых представляет собой функциональное уравнение Беллмана, которое в общем случае для k отраслей запишется в виде Sk(y)= max [gk(y-Uk) + Sk-i(uk)]. Для определения оптимальной политики на каждом этапе прихо¬ дится комбинировать значения из третьего столбца со значением из второго столбца и определять максимальную сумму в каждой таблице. Так, для определения оптимальной политики на третьем этапе при вложении у = 3 необходимо при прямом переборе сравнить следующие семь политик: (3, 0, 0), (2, 1, 0), (1, 1, 1), (0, 2, 1), (0, 1, 2), (0, 0, 3), (0, 1,2). Однако этот перебор можно сократить, используя соотноше¬ ние (14-4), т. е. достаточно вычислить значения двух функций S2 и g3 для четырех значений иг (табл. 14-6). Таблица 14-6 Из | | £з («з) S2 (3 — Us) ёз (Из) + S2 (3 — из) 0 0 0,50 ' 0,50 1 0,10 0,35 0,45 2 0,30 0,20 0,50 3 0,55 0 0,55 Из табл. 14-6 следует, что наилучшей политикой на третьем этапе будет «з = 3 и S2 (0). С помощью последнего столбца табл. 14-4 или 14-3 получим для S2 (0) их = 0, и2 = 0. Поэтому окончательно опти¬ мальной политикой на третьем этапе при у = 3 будет (0, 0, 3), что и занесено в последний столбец табл. 14-4. Таким образом, благодаря принципу оптимальности и функцио¬ нальному уравнению Беллмана вместо сравнения суммарных доходов восьми вариантов распределения потребовалось, сравнение только че¬ тырех вариантов (табл. 14-6). Для сравнения в табл. 14-4 и 14-5 в предпоследних столбцах при¬ ведены оптимальные стратегии предыдущих этапов. 325
Благодаря такому поэтапному перебору существенно сокращается трудоемкость. Если же распределять средства сразу между четырьмя отраслями: (5, 0, 0, 0), (4, 1, 0, 0), (4, 0, 1,0), (4, 0, 0, 1), (3, 1, 1, 0), (3 0, 1, 1), (3,2, 0,0), (3,0, 2,0), (3,0, 0, 2), (2, 1,1,1), (2, 2 0, 1), (2, 2, 1, 0), (2, 0, 2, 1) и т. д., то возникает необходимость перебора большого количества вариантов. С увеличением числа ассигнований и отраслей объем перебора интенсивно возрастает. Так, для k = 4 при у = 10 число вариантов составит 286, при у ^ 10 это число равно 1 001. Для k числа отраслей процесс оптимального распределения ресурсов распадается на k — 1 этапов. На примере задачи распределения ресурсов продемонстрирована модификация метода динамического программирования для процессов, не развивающихся во времени. Процесс искусственно разворачивается во времени. В этом смысл динамического программирования как опти¬ мального метода перебора, как метода решения комбинаторных задач перебора. Заметим, что в этой задаче требуется вычислить значения функции Беллмана Sk_x на (k—1)-м шаге для всех значений аргумента, так как для решения функционального уравнения на k-м шаге требуется пере¬ брать все допустимые значения этой функции. Соответственно на каж¬ дом шаге, как правило, вычисляется полная таблица значений функ¬ ции Беллмана. Пошаговая процедура вычислений в данной задаче оказалась возможной благодаря зависимости дохода в каждой отрасли только от вложения в данную отрасль и независимости от вклада в другие отрасли, взятые по отдельности и в сумме. Это свойство обес¬ печило выполнение принципа оптимальности Беллмана для дискрет¬ ных многошаговых процессов. 14-5. ТРАНСПОРТНАЯ ЗАДАЧА Можно дать следующую формулировку транспортной задачи. Имеются т складов ресурсов и п пунктов потребления (т истоков и п стоков). Для простоты рассмотрим случай с одним ресурсом. Обозначим через аь запасы ресурсов на i-м складе (i = 1, 2, ..., m), bj количество ресурсов, ожидаемое в /-м пункте потребления (/ = 1,2, ..., п). Пред¬ полагается, что суммарный запас равен суммарному спросу: т п 2>= 21 (14'5)' 1 = 1 у=1 Задачу можно решать и без этого ограничения, считая, что суммарные запасы превышают суммарные запросы. Однако для простоты дадим решение при условии (14-5). Через обозначим количество ресурсов, перевозимое с i-го склада на /-й пункт потребления. Стоимость такой перевозки определяется функцией gtj (xij), которая может задаваться аналитически, графически или с помощью таблиц. Считается, что 326
нельзя перевозить ресурсы через перевалочные пункты, т. е. справед¬ ливы следующие условия: т п Xij^O; 2 xu = bj'> 2 xij = ai. (14-6) <=i j=i В этой задаче требуется определить величины xijy удовлетворяющие условиям (14-6), при которых суммарная стоимость перевозок будет минимальна, т. е. 1 = 2 su (%) = min- ч Часто функции стоимости перевозок являются линейными функ¬ циями величин Xif. £ij ( %ij) = Cij%ij • (14'-7) Транспортная задача в общем случае—это задача нелинейного программирования, где в качестве ограничений выступают соотноше¬ ния (14-6). При условии (14-7) она становится задачей линейного про¬ граммирования и может быть решена симплекс-методом, рассмотрен¬ ным в гл. 16. Для простоты ограничимся вариантом с двумя складами т = 2 и несколькими пунктами потребления п. Решение задачи для более сложных случаев (т > 2) сталкивается с большими вычислительными трудностями, известными под названием «проклятие размерности», преодолеть которые полностью на сегодняшний день не удается, и изла¬ гается в специальной литературе по динамическому программирова¬ нию [Л.80]. Для решения задачи при т = 2 прежде всего представим статический процесс перевозки как динамический в виде последова¬ тельности этапов. В качестве первого этапа выберем удовлетворение спроса п-го пункта потребления, затем перейдем к (п — 1)-у и т. д. Составим для такого поэтапного процесса функциональное уравнение Беллмана. Введем функцию Sk (alt а2), k = 1, 2, ..., п как величину затрат при использовании оптимальной политики, когда начинают с количества ах и а2 ресурсов на складах при потребностях bj(j = = 1, 2, ..., п) в пунктах потребления. На первом этапе (k = 1) удовлетворяются потребности п-го пункта потребления; при этом получаются затраты gln(Xln) + g2n (X-z„)• Запасы ресурсов на сладах уменьшаются соответственно до aL — х1п и а2 — х2ПУ поэтому Si(ai, а2) = gin (х1п) + g2n (хъп) (14-8) при условиях, что *iп + х2п = Ьп\ О^Хщ^аъ 0^х2п^а2; S0(aly а2) = 0. (14-9) На втором этапе удовлетворяются потребности п-го и (п — 1)-го пунктов потребления. Для этого используется рекуррентное соотно¬ шение Беллмана (функциональное уравнение): S2 (аъ а2) = min [gh п-г (xlt п-г) + g2i п-г (х2> п-г) + (л-12, Х22) (: G2 4" Si (Яд. — Xit п-1, б?2 — х2> п i)], (14-10) 327
где область <32 определяется соотношениями Х\, П-1 + Х2, п-i = Ьп-ъ О ^ х12 < аг; 0^х22^а2. Запись (14-10) означает оптимальное обеспечение (по расходам на перевозки) потребностей (п — 1)-го пункта потребления при том условии, что они удовлетворены для п-то пункта потребления. Выпол¬ нение этого условия обеспечивается самим определением функции в соответствии с формулами (14-8) и (14-9), в частности, первое из условий (14-9) означает полное удовлетворение спроса п-то пункта потребления. Очевидно, что п-й номер можно поменять на первый, изменив нумерацию или определив первый этап как удовлетворение потребностей первого пункта, отчего оптимальность значений не изме¬ нится. Последовательность выполнения операций «с конца» харак¬ терна для динамического программирования и обусловливается прин¬ ципом оптимальности. Из соотношения (14-10), так же как в задаче о распределении ре¬ сурсов, следует, что на каждом этапе необходимо иметь значения функции Беллмана для всех значений аргумента, чтобы выбрать из них наилучшее при составлении функционального уравнения Белл¬ мана для последующего этапа. Последнее соотношение (14-9) искусст¬ венно вводится для полноты рекуррентного процесса вычислений. Пошаговый процесс оптимизации оказался возможным благодаря зависимости стоимости перевозки с /-го склада к /-у потребителю только от величины груза, перевозимого между этими пунктами, и ее незави¬ симости от величины груза, перевозимого с других складов к этому же /-у потребителю и со всех складов (включая i-й) к другим потребите¬ лям. Это обеспечило выполнение принципа оптимальности Беллмана для данной задачи. Для любого k ^ 1 получаем: Sk(cii, а2)= min [gik(xlk) + &а (x2k) + (*1/г> *21? ^ Gk + *Sfc-i (яз.—■ xlt n-k> a2x2) n^-k)]> k=l, 2, ..., n. (14-11) Минимизация в этой формуле производится по обеим переменным Xik> x2k из области G, которая определяется условиями Xik + x2k — bk\ 0 ^ Xik ^ tii, 0 ^ x2k ^ а2. Если заменить —> Xiy Ct2 —> X2f то уравнение (14-11) запишется в стандартном для динамического программирования виде: (х±, х2) = min [gik (xifc) -|- §2/г {х2/{) -f- S/i-i (x± Хцп x% x2k)\, (*!/*’ X2k)ZG 328
k= 1, 2, , n\ Xlk + X2k — 6/eJ 0 < xlk < ATi; 0 ^ X2k ^ -^2* Уравнение (14-12) аналогично ранее рассмотренным функциональ¬ ным уравнениям в задаче о распределении ресурсов за исключением двух моментов. Во-первых, на переменные, по которым ищется экстре¬ мум, наложено больше ограничений, т. е. это — вариационная задача с ограничениями. Как уже указывалось, такие задачи трудно решать методами классического вариационного исчисления из-за недифферен¬ цируемости функций на границе области допустимых изменений пере¬ менных. Метод динамического программирования практически снимает трудности с введением ограничений, необходимо лишь на каждом этапе проверять пределы допустимой области. Во-вторых, транспорт¬ ная задача с двумя складами является двумерной задачей динамиче¬ ского программирования, так как функция Веллмана зависит от двух переменных, тогда как предыдущие задачи (о распределении ресурсов, о критическом пути и т. д.) были одномерными: оптимальным образом распределялся один капитал или выбиралось только время движения (а не время и стоимость). Задача о распределении ресурсов становится многомерной, если между отраслями необходимо оптимальным образом распределить несколько видов ресурсов: капитал, рабочую силу, технику. Объем вычислений по методу динамического программиро¬ вания интенсивно увеличивается с возрастанием размерности задачи, особенно в части объема требуемой памяти машины. Это составляет один из существенных недостатков динамического программирования, который Веллман называет «проклятием размерности». Двумерную транспортную задачу легко свести к одномерной, если использовать соотношение (14-4), которое для двух складов (т = 2) запишется в виде п 7=1 или в других обозначениях [см. формулу (14-12)] п *i+*2=-.S bj=ь. 7=1 Из последнего уравнения при заданном суммарном спросе всегда вели¬ чину х2 можно выразить через xlf поэтому Su (-^i, х2) Sfc (аД. Отсюда соотношение (14-12) перепишется в виде Sk (*i) = min [gVi (xlk) + g2k (b - Xu) + S*-i (*i - Xxk 329
где величина x1/t подчиняется условиям О < Xt — х1к\ П О< b — xlh 2 bJ~х1’ ; = 1 П 2 bJ- /= i Благодаря этому приему общая задача с m складами может быть све¬ дена к задаче cm — 1 складом, т. е. m-мерная задача сведется к (т — 1)- мерной, в результате чего ее размерность понизится на единицу. Пример 14-2. Рассмотрим числовой пример решения транспортной задачи с помощью динамического программирования для случая с двумя складами и во¬ семью пунктами потребления, т. е. т = 2 и п = 8. Функцию стоимости возьмем в виде gij (х) = Cjj (X) + djj (х) + аух + bijX2. (14-13) Таким образом, стоимость перевозки из одного пункта в другой представляет собой квадратичную функцию перевозимого количества, где свободный член — сумма двух величин, зависящих от перевозимого количества.. Первое слагаемое характеризует организационные расходы и определяется следующим образом: Г 0 при дс = 0; С(х) = { I х при л: > 0. Второе слагаемое характеризует штраф за недостаточно полное использование транспортной линии и определяется соотношением Idy >0 при 0 ^ х ^ е/у < Ь)\ 0 при л: > е,у; 0 При 8/у = 0. Соответствующие значения коэффициентов приведены в табл. 14-7. Так, стоимость перевозки из первого склада к седьмому потребителю задается формулой £i? (*) = 5*+1. Получим оптимальное решение задачи методом динамического программиро¬ вания при начальных запасах на складах щ = 40, а2 = 50. Результаты решения сведены в табл. 14-8. Таблица 14-7 Коэффициенты стоимостной функции g.. (*) По¬ Спрос треби¬ при перевозках из первого склада при перевозках из второго склада тель / ач ЬЧ сч *ч е7 аУ ЬУ c'j dzJ е2/ bJ 1 2,0 0,00 1,0 0,0 0,0 3,5 о,о‘ 0 0 0,0 5 2 3,0 0,00 0 2 0,4 1,0 0,0 1 0 0,0 10 3 1,5 0,20 0 0 0,0 3,1 0,0 2 0 0,0 20 4 4,0 0,00 1 0 0,0 2,5 0,05 0 2. 0,6 5 5 2,5 0,01 0 1 0,2 1,0 0,00 0 2 1,0 15 6 4,5 0,10 2 0 0,0 3,0 0,20 3 0 0,0 10 7 5,0 0,00 0 1 0,4 4,0 0,10 0 0 0,0 20 8 3,0 0,00 0 2 0,8 1,5 0,00 0 0 0,0 5
Полная стоимость перевозок равна С = 274,6864. Расчеты производились на ЦВМ М-20 с шагом 0,2 изменения переменных управления. Т а б л и ц а 14-8 Потребитель / ^ Количество перевозимых грузов Расходы Суммарные расходы из первого склада из второго склада 1 5,0 0,0 11 11 2 0,4 9,6 11,8 22,8 3 7,2 12,8 62,848 85,648 4 0,0 5,0 13,75 99,398 5 0,2 14,8 15,3004 114,6984 6 6,4 3,6 51,288 165,9864 7 20,0 0,0 100 265,9864 8 0,8 4,2 8,7 274,6864 Ниже будет дано решение транспортной задачи методом дискрет¬ ного принципа максимума Понтрягина и сравнение этих двух методов. 14-6. БЛОК-СХЕМА ВЫЧИСЛИТЕЛЬНОГО ПРОЦЕССА ДЛЯ ДИНАМИЧЕСКОГО ПРОГРАММИРОВАНИЯ На рис. 14-6 представлена блок-схема вычислительного процесса для решения задачи распределения ресурсов методом динамического программирования. Она может служить основой для составления про¬ граммы любой задачи, решаемой на ЦВМ методом дискретного дина¬ мического программирования. Имеются в виду задачи о распределении ресурсов, транспортная и другие, для которых удается составить модель динамического поэтапного процесса. Дадим пояснения к блок-схеме на рис. 14-6. Основная часть схемы реализует рекуррентное соотношение Беллмана, согласно которому из функции Sk_x получается функция Sk. Однако в блок-схеме, особенно вначале, имеются специальные блоки, позволяющие вычислять в плане общей процедуры в соответствии с уравнением Sx {х)=тах lg± {xk) + SQ (*-**)] =8i (*)• xk Для этого предполагаем, что S0 (*) = 0 (блок /). Индекс /г, обозначающий число способов распределения, вначале принимает значение к = 1 (блок 2). Блок 3 вычи¬ сляет значение Sx (х) = (х) для х = 0, А, 2А... Символ Р, которому отводится определенная ячейка памяти, условно означает «лучший доход до сих пор» и пред¬ назначается для того, чтобы реализовать операцию максимизации. Процесс макси¬ мизации начинают записью в память максимального по модулю отрицательного числа, условно обозначаемого — оо (блок 4), процесс минимизации — записью мак¬ симального по модулю положительного числа, условно обозначаемого + оо. Это тоже условный прием, имеющий целью исключить начало процесса решения, как особый случай. В блоке 5 в блок-схему вводится обозначение (присваивается наиме¬ нование, код) xk (х) для оптимального распределения на /г-м шаге. На начальном шаге к = 1, х = 0 и нулевое значение испытывается в качестве начального значе- 331
ния для Xi (0). В блоке 6 вычисляется очередное значение суммы ёк С*'/г) ~Г $к-1 (х хк) > которое обозначается через а и засы¬ лается в определенную ячейку памяти. Блок 7 сравнивает текущее значе¬ ние дохода а с «лучшим доходом до сих пор» р: если а больше (3, то блок 2 за¬ меняет а Р, новому значению хк (х) присваивается смысл «наилучшего до сих пор значения ресурса» с отведе¬ нием ячейки памяти у,и через блок 9 осуществляется переход от хк (х) к хк М + А; если а меньше Р, замены а -> р не происходит, в памяти сохра¬ няется прежнее р, значение ос забы¬ вается и через блок 9 делается очеред¬ ная замена хк {х) + А -> хк {х). Для процесса минимизации знаки нера¬ венств следует поменять на обратные. Если новое значение хк (х) + А больше общего количества выделяемых ресур¬ сов х (блок 10), то оно не рассматри¬ вается и осуществляется переход к блоку 11; если значение хк (х) + А допустимо, то оно поступает на блок 6 для повторения процесса. В блоке 11 происходит запоминание полученных оптимальных значений хк (х) и Sk (х) (им в памяти присваиваются наимено¬ вания у и Р соответственно). В блоке 12 общее число ресурсов увеличивается на шаг: х + А заменяет х. Блок 13 проверяет, не превышает ли новое зна¬ чение ресурсов их общего предельного значения *макс. Если значение х + А больше *Макс> полученные данные xk (х) и Sk {х) выдаются в магнитную память или на печать (блок 14). Блок 15 предназначен для замены старых массивов 5/^ {х) на новые Sk (х), ко¬ торые будут использоваться в процессе сравнения наследующемшагес5^+1(х). Блок76 означает переход от /г-го этапа к(/г + 1)-му этапу, т. е. вместо к про¬ цессов (по'две, по три отрасли и т. д.) рассматриваются к + 1. Блок 17 проверяет, не исчерпаны ли все возможные количества процес¬ сов N. Если ответ отрицательный, то с блока 3 начинается процесс вычисле¬ ний с увеличенным на единицу к. Если к + 1 >. N, процесс заканчивается (блок 18) и на печать выдается ре¬ зультат с выхода блока 14. Рис. 14-6. Блок-схема вычислитель¬ ного процесса для динамического про¬ граммирования. 332
14-7. ФОРМАЛЬНЫЙ МАТЕМАТИЧЕСКИЙ АППАРАТ Здесь приводится общий математический аппарат, рассмотренный ранее на отдельных частных примерах, и выводится функциональное уравнение Беллмана. Так же как и в непрерывном случае, оно спра¬ ведливо при выполнении принципа оптимальности, который анало¬ гичен принципу оптимальности в непрерывном случае, но имеет свои особенности. Предположим, что при распределении а: средств между N отраслями необходимо добиться максимального дохода / (х±, х2, х^). Счита¬ ется, что I(x1, хъ XN) = g1 (Xi) + gaOa) + • • • + gN(xN). (14-14) Ресурсы Xi имеют общую меру и удовлетворяют условию N = х^О. 1 = 1 Такие нелинейные функции носят название сепарабельных. Они типичны для динамического программирования и будут встречаться и дальше. Для таких функций можно построить динамический процесс, для которого заведомо справедлив принцип оптимальности Беллмана, аналогично тому, как это было сделано в задаче о распределении ре¬ сурсов. Требуется найти SN (х) =■ шах I (х1у х2, ..., xN). Функция (14-14) обладает свойством аддитивности доходов по всем отраслям. Оно обеспечивает выполнение принципа оптималь¬ ности Беллмана, который для дискретных процессов управления может быть сформулирован следующим образом: последующие решения должны составлять оптимальное поведение относительно предыдущего состояния, полученного в результате решения на предыдущем этапе, независимо от того, какими бы эти состояние и решение ни были. Дискретное динамическое программирование применимо только к та¬ ким многошаговым процессам управления. Для функции (14-14) этот принцип заведомо выполнен, так как доход от вложения' ресурсов в данную отрасль зависит только от количества ресурсов, вложенных в эту отрасль*, и не зависит от количества ресурсов, вложенных в дру¬ гие отрасли. Именно это обстоятельство позволяет построить много¬ шаговый процесс типа «первый шаг — вклад в первую отрасль, вто¬ рой шаг — вклад в первые две отрасли и т. д.», для которого справед¬ лив принцип оптимальности. Иначе смысл принципа оптимальности можно сформулировать так: многошаговый процесс удовлетворяет прин¬ ципу оптимальности Беллмана, если функция цели, принимающая на k-м шаге оптимальное значение при х = xk, принимает также оптимальное значение для оставшихся k — 1 шагов при том же х = xk. Если функция суммарного дохода является несепарабельной, то нельзя 333
построить многошаговый процесс, для которого удовлетворяется прин¬ цип оптимальности. Имеется много приемов преобразования исходной задачи для удов¬ летворения принципа оптимальности, которые в основном разделяются на две группы. В первом случае сводят несепарабельную функцию цели к сепарабельной. Во втором случае преобразуют уже сам много¬ шаговый процесс. В обоих случаях для удовлетворения принципа оптимальности приходится усложнять задачу введением дополнитель¬ ных ограничений на область изменения переменных, что не очень сильно усложняет вычислительную процедуру, или введением допол¬ нительных переменных, что фактически приводит к увеличению раз¬ мерности решаемой задачи и к практически нереализуемым по слож¬ ности вычислительным процедурам. Поэтому во многих случаях этот второй прием вряд ли можно расценивать как решение задачи. В ка¬ честве примера рассмотрим два варианта сведения функций к сепара¬ бельным. Так, если в функции цели встречаются слагаемые вида XiXj, то введением двух новых переменных И Uj = ~2 “Ь Xj) можно преобразовать их к сепарабельной форме XiXj = у] — у Сепарабельная форма здесь достигается введением новых переменных, не увеличивающих размерность задачи (увеличивается число отраслей), и добавлением ограничений по два на каждый член вида хь Xj. Если в функции цели / встречаются члены вида gt (xit xt_ 1), то доход в данной отрасли будет зависеть от величины вложений в эту и соседнюю (i — 1)-ю отрасли. Введением дополнительной перемен¬ ной yi = Xi_x получаем для такого случая зависимость функции дохода от двух переменных gt (xiy yt). Здесь возникает трудность, связанная с увеличением размерности задачи, так как функция цели I зависит уже от двух видов ресурсов xt и yh которые в данном случае связаны ограничением, а в общем случае двумерной задачи о распределении они могут быть друг от друга независимы. Характерной особенностью многошаговых процессов, которые оптимизируются с помощью дина¬ мического программирования, является зависимость текущего состоя¬ ния только от предыдущего и независимость от состояний, предшест¬ вующих этому предыдущему (отсутствие последействия). Только в этом случае удается составить функциональное уравнение Веллмана. Ранее рассмотренный вариант, в котором функция gt (xiy Xi_x) зависела от двух переменных без их замены, приводит к многошаговому про¬ цессу, не удовлетворяющему этому условию. Однако с помощью только что проделанной замены yj = xt_x многошаговый процесс становится процессом без последействия. 334
Если доходы в разных отраслях связаны между собой, то принцип оптимальности Беллмана также несправедлив. При условии (14-14) функциональное уравнение Беллмана имеет вид: Sk(x)= max [g* (•**) + Sft-i (х - **)], (14-15) 0 ^ X]f ^ x причем x — общее число ресурсов; xt — количество ресурсов, вкла¬ дываемое в i-ю отрасль, причем^] = х; gk (xk)— доход от вложения х i = i средств в k-ю отрасль (k = 1, 2, ..., N). Благодаря этому соотношению имеется N этапов, где N — число отраслей. Формально можно полу¬ чить уравнение (14-15), используя следующее соотношение, основан¬ ное на принципе оптимальности: max = max max . (14-16) *l+*2+ • ' ' + *k==X °<x/{<x xi+x2+ • ' * +*£_! = * — xk Это равенство означает, что доход в k-й отрасли не зависит от дохода в остальных k — 1 отраслях и благодаря этому максимальный доход по всем отраслям равен сумме максимального дохода по всем k — 1 отраслям и по k-й отрасли. С помощью формулы (14-16) напишем це¬ почку равенств: Sk (х) = max [gv, (xk) + g'/г-! {xu-ij +. • • + gi (*i)] = *1 + *2 + • • • + xk = x = max max [gA (**) + &*-i(xk-i) + ... x1 + x2+...xl!_l = x-xk • •• + gi(*i)] = max [gft(x*) + 0^xk^x + max [gVl (xk-l) +• • * + gl (Xl)]] = X1-\~X2Jr ' • ■ Xk-1 = X~Xk = max [Ы-Ф + 5/г-1 (*-**)]. 0 ^ x^ ^ x Тем самым получено функциональное уравнение с использованием свойства аддитивности функционала (14-15), обеспечивающего выпол¬ нение принципа оптимальности Беллмана. Согласно этому уравнению динамическое программирование заменяет прямой перебор направлен¬ ным, поэтапным [на каждом k-u шаге используется результат перебора на предыдущем (k — 1)-м шаге], который существенно сокращает число вариантов. Если в задаче распределения имеется несколько видов ресурсов, не имеющих общей меры, то она становится многомерной. Так, в слу¬ чае с двумя ресурсами суммарный доход равен: N J N {Хъ х2> . . . у Xjy, у if У2, . • • , Уат) (xii Ui)y i = 1 где N ^Xi = x, х ^ 0; i = i N ]'£1yi = y. gssO. i = 1 335
Функция Беллмана определяется как Sn(x, y) = maxIN(x1, х2, xN\ у'ъ уъ yN), причем для N = 1 Si(x, y) = gi(x, у), для N ^ 2 Sn (х, у) = шах шах [g-w (xN, «/w) + Sw_i (* — лм у — уы)]- Такой вид имеет функциональное уравнение Беллмана для двумерного случая. 14-8. ЭФФЕКТИВНОСТЬ ДИНАМИЧЕСКОГО ПРОГРАММИРОВАНИЯ Постараемся оценить объем направленного перебора при динами¬ ческом программировании и сравнить его с прямым перебором. В общей одномерной задаче распределения ресурсов для п отраслей при прямом переборе число вариантов Т = шп, где m — число дискретных значений, которые могут принимать хс, п — число переменных (отраслей). Если п = 2, m = 3, т. е.’ xi (аъ аъ аз)> х2 Фъ Ь2, Ь3), то возможных комбинаций, которые необходимо проверить при прямом переборе, будет афи агЬъ аф3, афъ а2Ь2, а2Ь3, афъ афъ аф3 — всего 9 = З2. Точную формулу для числа перебираемых вариантов при динами¬ ческом программировании написать не удается, так как в каждой задаче она своя. Однако можно утверждать, что зависимость числа вариантов от п не экспоненциальная, а примерно линейная. Для ориентации рассмотрим задачу нелинейного целочисленного программирования в виде п F='£gj(xj) = max, У-1 п причем 2 ajxj^b\ 0; х^О (ху — целые числа); j = 1, ..., п. /=1 Для простоты положим clj = 1. При определении максимума F необхо¬ димо вычислить значения fy (xj) для каждого из ft + 1 значений, кото¬ рые может принимать Xj. Найдем нижнюю границу числа набора целых значений лу, удовлетворяющих условию 2>j=b, i= 1 т. е. вместо неравенства рассмотрим строгое равенство. Для случая прямого перебора искомое количество равно числу способов, которыми 336
можно разместить, например, Ь одинаковых шаров в п урн. Это число равно числу сочетаний из п + b — 1 по 6, т. е. Ь (п + ь-1\_ (п + Ь- 1)! b )~ Ь\(п —1)1 Для п = 5 и b = 20 получим: 24 • 23 * 22 • 21 10 626. 4-3 ‘2 Это означает, что при прямом переборе необходимо вычислить значе¬ ния F для 10 626 различных комбинаций значений xt. Теперь оценим объем вычислений при направленном переборе в случае динамического программирования. Для определения значений функции Беллмана Sk (х) при заданном х необходимо выполнить х + 1 вычисление. Чтобы построить всю таблицу значений функции Sk (х), необходимо осуще¬ ствить вычисления в количестве Ь{Ь+1) х =0 откуда для подсчета всех необходимых значений k— 1 функций Sk (х) потребуется (*_!) [6 + 1+ *■№).! 2 J вычислений. Для последней функции Sk требуется найти ее значение Sk (b). Поэтому здесь необходимо вычислить только b + 1 значение. Таким образом, общее число вычислений при динамическом програм¬ мировании определяется формулой +П, которое при п = 5 и b = 20 равно 945, что составляет примерно 10% от объема 10 626 вычислений при прямом переборе. При решении непрерывных задач отыскания экстремума с помощью динамического программирования встает еще проблема интерполяции промежуточных значений функции Sп_х для подсчета значений Sn в соответствии с функциональным уравнением Беллмана Sa(x)= шах [£„(*„)+ S„_i(x — x„)]. Дело в том, что заготовленная на (п — 1)-м шаге таблица дискретных значений функции может не содержать необходимого значения аргумента, при котором функция Sn принимает максимальное значение, так как х и все остальные переменные меняются непрерывно. В этом случае приходится по линейному или другому закону интерполировать промежуточные между двумя табличными значения 337
14-9. ЗАДАЧИ ПЛАКИРОВАНИЯ В кибернетике большинство задач оптимизации делится на две группы: распределения и расписания. В задачах первой группы (рас¬ пределения ресурсов, транспортной) время, как правило, отсутствует. В задачах второй группы, которые часто возникают в автоматизиро¬ ванных системах управления, требуется ресурсы распределить по вре¬ мени. Встречаются и смешанные задачи распределения и расписания, в которых требуется одновременно оптимальным образом распределить ресурсы по объектам и расписать это распределение по времени. Рассмотрим модель задачи планирования во времени, часто назы¬ ваемую задачей расписания, под которой понимается оптимальное рас¬ пределение ресурсов во времени. В качестве ресурсов могут выступать финансы, топливо, энергия, работа, приборы, транспортные средства. N*5 t I Ч 1 -I 1 1 е— tп Рис. 14-7. Пояснение к задаче планирования. Считается, что ресурсы могут распределяться только дискретно с шагом,* равным единице или А. Допустим, что весь временной интервал пла¬ нирования /п (рис. 14-7) разделен на N одинаковых интервалов вре¬ мени. На планирование выделено определенное количество ресурсов х и задана величина доходов (или расходов) gt (.xt) на каждом интервале от вложения на нем х-г ресурсов; при этом, чтобы был справедлив принцип оптимальности, считаем, что доход на t-м интервале зависит только от количества ресурсов, выделенных на этом интервале, и не зависит от ресурсов, выделенных на предыдущих i — 1, i — 2 и т. д. интервалах. Требуется оптимальным способом распределить ресурсы х на всем интервале, чтобы суммарный доход был максимален (или рас¬ ход минимален): N I {хъ хъ ..., xN) = 2 gi {Xi) = max. /= 1 Для построения динамического процесса планирования считаем, что ресурсы вкладываются все на одном интервале, потом все на двух и т. д. Тогда получаем рекуррентный процесс, аналогичный получен¬ ному в задаче распределения по отраслям. Общее рекуррентное соотно¬ шение Беллмана будет иметь вид: Sn (х) = шах [gn (хп) + S„-! {х - хп)\, хп где п = 2, 3, 4, N, причем (х) = max gi (х); i S0 (я) = 0. зза
Теперь разберем усложненные варианты рассмотренной задачи. 1. Допустим, что один и тот же вид ресурсов вкладывается на каж¬ дом интервале в М отраслей, причем в самом общем случае число М зависит от интервала я, т. е. М = f (п). Для простейшего варианта можно считать, что доход на каждом интервале от вложения в т-ю т отрасль зависит только от количества вложенных ресурсов хп и равен g (*„)» п = 1,2, ..., N\ т = 1, 2, ..., М. В этом случае общий доход N М М N I (х\, хЬ •••><,... Л, хЪ *#)= 2] 2 g? WD= ZZs”(х'п) /2=1 т= 1 т= 1 п=1 при М N 2 т= 1 п= 1 Необходимо, чтобы / достигло максимума. Такая задача решается методом динамического программирования, но вначале необходимо решить классическую задачу распределения ресурсов по отраслям для одного, потом для-двух интервалов времени. Или, наоборот, вначале распределить ресурсы для одной отрасли и всех интервалов времени, потом для двух отраслей и всех интервалов и т. д. Здесь уже имеет место смешанная задача распределения (назначе¬ ния, прикрепления) и расписания. Однако благодаря линейности она сводится к классической задаче о распределении ресурсов в NM отраслей и решается динамическим программированием. 2. Допустим, имеется L разных дискретных ресурсов. Если сохра¬ няется принцип независимости их друг от друга, то принцип оптималь¬ ности справедлив и можно решать задачу аналогично предыдущему. Вначале распределить L ресурсов между М отраслями для одного интервала времени, потом для двух, трех и т. д. Функция цели будет иметь вид: L м N /«О-2 2 Ей'МО- /= 1 т=1 /1=1 Дальнейшее обобщение задачи заключается в соблюдении заданной последовательности работ, которые в данной модели совпадают с отрас¬ лями, а ресурсы включают в себя и рабочую силу. Такая последователь¬ ность часто задается в виде сетевого графика и аналитически записы¬ вается в виде ограничений. Если еще ввести понятие рабочего места (станка) и условие «привязки» работы к рабочему месту, то получится задача календарного планирования, которая имеет чрезвычайно боль¬ шое значение для АСУ. 14-10. СТОХАСТИЧЕСКИЕ ЗАДАЧИ ДИНАМИЧЕСКОГО ПРОГРАММИРОВАНИЯ В планировании и управлении часто присутствует элемент слу¬ чайности, поэтому задачи, возникающие при планировании в больших системах, состоящих из тысяч и сотен тысяч индивидуальных систем, невозможно решать детерминированным образом и приходится прибе¬ 339
гать к укрупнению и вероятностному или стохастическому планиро¬ ванию, одним из способов которого является вероятностное динамиче¬ ское программирование [Л.86, 92]. Задача с игрушечных дел мастером. Мастер делает в течение недели игрушку одного типа. Если она имеет успех, то на следующей неделе он продолжает ее изготовление, если нет, он переходит к игрушке дру¬ гого типа. Мастер небогат и подчиняет свою стратегию результатам предыдущей недели. Очевидно, что данный случайный процесс является марковским, так как в нем вероятность перехода в новое состояние зависит только от непосредственно предыдущего (и этого нового) состояния и не зависит от состояний, предшествующих предыдущему. Успех в интервале S0 л Неудача в интервале S1 •J i Успехе интервале$2 \ Успех в интервале$5 \ Успехе интервале S L6 А Неудача в интервале Ss Та же Новая Та же Та же Новая .модель модель . модель модель модель Рис. 14-8. Интерпретация процесса принятия решений игрушечных дел мастером. Допустим, в каждый понедельник Д мастер выбирает модель. Тогда получится бесконечный процесс, изображенный условно на рис. 14-8. В каждом, исходе (удачная или неудачная модель) мастер может при¬ менить две стратегии: в случае удачной игрушки — использовать или не использовать рекламу, в случае неудачной игрушки — проводить или не проводить исследования. Тогда, с одной стороны, доход g2n с рекламой в случае, если мастер делает после удачной игрушки опять ее же, будет меньше, чем без рекламы, так как на рекламу затрачены средства (табл. 14-9). Так же и доход gh в случае с неудачной игрушкой будет еще меньше, если мастер после неудачной г-й игрушки опять пустит ее в производство после исследований, так как часть средств уйдет на исследование. 'Но, с другой стороны, вероятность р2п того, что удачная игрушка с рекламой будет снова удачной, больше, чем без рекламы: pii>ph (0,8 >0,5), и вероятность появления удачной игрушки после неудачной в резуль¬ тате исследований больше, чем без них: pii > р?л (0,7 >0,4). Вероятность же превращения удачных игрушек в неудачные после рекламы или вероятность появления неудачной игрушки после иссле¬ дований будет ниже, чем без этих мероприятий: ph<ph (0,2<0,5); рк<р22 (0,3 <0,6). 340
Таблица 14-9 Состояние i Стратегия 1 Вероятность перехо¬ да в новое состояние Доходы Средний не¬ посредствен¬ 4 4 4 ный доход Р1 1 (удачная 1 (без рекламы) 0,6 0,4 15 5 11 игрушка) 2 (с рекламой) 0,9 0,1 10 3 9,3 2 (неудачная игрушка) 1 (без исследо¬ вания) 0,5 0,5 5 -3 1 2 (с исследова¬ нием) 0,7 0,3 1 -9 —2 Если же после рекламы игрушка окажется неудачной, доход все же будет больше, чем без рекламы, так Цак она несколько уменьшит неудачность. В случае неудачной игрушки, появившейся после иссле¬ дований, доходы, естественно, будут еще меньше по сравнению с ва¬ риантом, когда неудачная игрушка появится после неудачной без исследований. Допустим, мастер предполагает закрыть предприятие через k недель. Его интересует максимальная средняя прибыль за этот период при условии, что в данный момент он сделал какую-то игрушку, ориенти¬ руясь на статистику спроса. Можно подсчитать средний выигрыш при оптимальной политике, если осталось k недель. При этом целесообразно использовать аппарат динамического программирования. Принцип оптимальности здесь справедлив, в силу того что процесс простейший марковский. Напишем функциональное уравнение, для чего обозначим через Sk (i) ожидаемый доход при ^-шаговом процессе, если начать из состояния i (i = 1, ..., М) и использовать оптимальную политику, и через М число состояний (в нашем случае М = 2). Тогда S* (0 = max J 2 Pijlglj + sk-i (/) ] j, k = 1, 2,...; S0 (/) = 0; * = 1, 2, M, (14-17) где I — номер стратегии (/ = 1,2, ..., Qi). В нашем примере Q1 = Q2 = 2. Дадим пояснение к формуле (14-17). Если до передачи производства осталось две недели (k = 2) и планирование начинается с i-и игрушки, то оптимальная стратегия в соответствии с формулой (14-17) может быть подсчитана как (м ) S2 (i) = шах 12] [р1ц g\j + р1ц Si (у)j I = шах [р\\ g\\ +Р/2 gU + 1 l/=i J 1 +P/i Si (1) +P/2 (2)}. 341
Здесь два последних члена представляют собой математическое ожида¬ ние, дохода при проведении оптимальной политики на первом с конца этапе, которая может начинаться или с игрушки /, или с игрушки 2. Вероятность первого случая равна p\v так как по условию двухэтап¬ ный процесс начинается с игрушки /, вероятность второго случая равна р?2 (рис. 14-9). Первые два члена дают математическое ожидание дохода на втором с конца этапе при стратегии I и начальной i-й игрушке; в конце этого этапа может появиться игрушка 1 с вероятностью р1.{ или игрушка 2 с вероятностью pli2. Рассуждая аналогично, можно убедиться в справедливости рекур¬ рентного соотношения (14-17) для любого k. Зададим оптимальную политику вектором Предпоследний (к-1)-й Последний k-й этап г ^ | , Ч* = Ы1)> <7л 2 ,...<7*(М , si(1) J * е < ^ 1 определяющим выбор, который надо I I сделать на i-м шаге (’/ = 1,2, ...) I при условии, что осталось k ша- pj I гов. Сумма \ ^ п> 1 ; Pi==21 Ри 8и s2(i) /-1 ^ Рис. 14-9. К задаче с игрушечных представит средний доход (мате- дел мастером. матическое ожидание) для случая, ; когда исходным будет состояние i. Естественно, что в нашем примере из состояния i можно попасть только в одно из двух состояний с вероятностями рп и р/2. Так, для i = / = 1 Р\ = Р\ gh + pU gh = 0,5 • 9 + 0,5 • 0,3 = 6. Средний доход Р\ определяется только на один шаг. Поэтому он иногда называется непосредственно ожидаемым доходом. Вначале считаем, что осталось нуль недель. В этот нулевой этап S0 (i) = 0. Это предположение непринципиально и сделано для простоты. Далее допускаем, что осталась одна неделя, тогда м Sj, (i) = шах ^ рц glif. (14-18) 1 /=i Очевидно, что с помощью (14-17) можно вычислить эту величину для любого числа оставшихся недель. Величина Р\ дает возможность упростить запись (14-17): Sk (t) = max i м Р‘+ ^р1ц Sft-i (j) i= i (14-19) Эта формула удобнее формулы (14-17), так как вычислительной машине вектор Ц^-1 «запомнить» удобнее, чем матрицу || g1.. ||. Это выгоднее и с точки зрения объема памяти машины. Однако матрицу || рС ||| все равно необходимо запомнить для второго члена формулы (14-19). 342
Рассмотрим, как оптимизируется стратегия с помощью формулы (14-19) на каждом шаге, т. е. для случая, когда осталась одна, две и т. д. недели. Для нулевого шага S0 (1) = S0 (2) = 0. Для первого шага Si (1) = max Р[ = max j^_^j = 6; S2(2) = maxP‘ = max -б}""" ~3' Пользуясь этими решениями и формулой (14-19), можно найти реше¬ ния для второго шага и т. д. Результаты расчетов сведены в табл. 14-10. Таблица 14-10 Наименова¬ ние строки Номер шага k 0 1 2 3. 4 5 6 sk( 1) 0 11 19,3 27,37 36,866 45,1284 53,18336 S/t (2) 0 1 7 23,61 26,490 32,678 39,9032 ?*(!) — 1 2 2 1 2 2 4k (2) 1 1 2 1 1 1 Благодаря рекуррентному методу динамического программирова¬ ния процесс может сходиться при k -> оо к некоторому установивше¬ муся состоянию. В данном примере — это стратегия 2. Однако часто процесс носит колебательный характер и трудно определить одну стра¬ тегию для всех k. Рассмотренный метод с успехом может быть применен к другим условиям и вообще к решению других стохастических задач, с которыми можно познакомиться в специальной литературе [Л. 89]. 14-11. МОДЕЛЬ МНОГОШАГОВОГО ПРОЦЕССА УПРАВЛЕНИЯ В результате развития дискретных методов оптимизации появилась новая модель процессов — многошаговый дискретный процесс. В на¬ стоящем параграфе дано обобщение рассмотренных в- данной главе задач в виде общей теории многошаговых процессов. Процедура сведения реального процесса к поэтапному, много¬ шаговому является необходимым условием для применения дискретного динамического программирования. Эти процессы требуют нового спо¬ соба описания, отличного от методов алгебраических, дифференциаль¬ ных, разностных и интегральных уравнений [Л. 90]. Рассмотрим кратко математическое описание многошаговых про¬ цессов. Будем считать, что состояние системы описывается вектором x(0 = {*i(0. -МО. •••. -МОК которому в пространстве состояний соответствует некоторая точка из 343
множества R. Для многошаговых процессов это множество состоит из дискретных точек: Я = {х°, X1, х\ ...}, каждая из которых имеет s координат. Причем можно указать преобра¬ зование x^+1 = f(x/e), k = 0, 1, (14-20) которое переводит одну точку множества R в другую точку, принадле¬ жащую тому же множеству. Такая бесконечная последовательность называется многошаговым процессом и условно обозначается как [х, f (х)] или [х, f]. Обращаем внимание на то, что для задания многоша¬ гового процесса следует указать пару значений: начальный символ х = х° и преобразование f. Обычно на практике рассматривают часть многошагового процесса — Л^-шаговый процесс, состоящий из после¬ довательности векторов [х°, X1, X2, ,.., х^]. При оптимизации рассматривают некоторые функции §(х°, X1, X2, .... XN), зависящие от этого процесса и представляющие собой |>(х0; /=0 Пад; 1=0 max ft(x‘); 0 < / < N N— 1 2 h(xl, х'+О- / = 0 (14-21У (14-22) (14-23) (14-24) Следует обращать внимание на то, что согласно формуле (14-20) текущее &-е состояние зависит только от предыдущего (k — 1)-го состояния и не зависит от более ранних, т. е. (k — 2)-го, (k — 3)-го и т. д. Это означает, что N состояние может быть получено из любого i-то состояния (N — 0_кРатным применением преобразования xN = fN~l (хг). В частности, х1 = / (х), где (х = х0) —любое начальное состоя¬ ние, а также х* = Р (х) = /^ (х°) или условно При этих условиях для всех функций вида (14-21) — (14-24) можно 344
вывести рекуррентное функциональное уравнение Беллмана. Так, для функции (14-21) можно написать: ФлгМ = \Е h (х0 = 2 А [/‘' (х0)] =21h [/'' (х)]. /= 1 /=1 г=1 Нетрудно видеть, что для N ^ 1 2]М/'(х)]= /=1 1=0 где условно принято, что х = х°, т. е. начальное состояние может быть любым, и /° (я) = х. Поэтому Фл,(х) = /г(х) + ф^_, (х); Фо (х) = /г (х). Аналогично можно получить соотношения для функций (14-22)— (14-24): Флг(х)=/г(х)Флг-1 (х); Фл, (х) = max [h (х), ф^_, (х)]; Флг (х) = h Iх- / (х)1 + Фаг-i ft (х)1- Для полной формализации процесса оптимизации задач управле¬ ния необходимо ввести в рассмотрение вектор управления и = {иъ ^2> •••> ui}> оптимальные значения которого требуется найти. Итак, х1 = / (хг-1, и1). (14-25) Тем самым обеспечивается справедливость принципа оптимальности Беллмана, состоящая в том, что каковы бы ни были первоначальное состояние (х = х°) и первоначальное решение (и = и0), последующее решение должно определять оптимальную стратегию относительно состояния, полученного в результате первоначального решения. Так же как и в гл. 12 при выводе функционального уравнения Беллмана для непрерывного случая, в данном дискретном случае функция Беллмана зависит от начального состояния (х = х°) и на¬ чального управления (и = и0). Для удобства и учитывая, что в динами¬ ческом программировании начальное состояние считается произволь¬ ным, вместо обозначений х° и и0 в дальнейшем используем обозначения X и и. Далее, наряду с функцией преобразования на каждом этапе (14-25) введем функцию дохода gt (х‘, и'). При этом удобно представить весь многошаговый процесс в виде блок-схемы (рис. 14-10). Определим такие оптимальные значения и\ при которых некоторая функция / (х°, х1, ...; и0, и1, ...) принимала бы максимальное значение. В наиболее распространенном случае N /(х°, X1, и0, и1, ...)= 2]g‘'(x'> u’) = max. (14-26) i=0 Помимо критерия (14-26) можно взять критерии I — g (xN) = max; ' (14-27) / = maxg(x‘, u‘) = max. (14-28) i Js=0 345
При использовании (Г4-27) управление становится терминальным. Часто в этом случае задачу сводят к задаче Майера введением допол¬ нительной координаты xs+1 = g (х), которая должна обращаться в максимум: xs+1 = max. В более общем случае может потребоваться обращение в максимум выражения S I = = шах, /=1 где ct — некоторые числа, одновременно все не равные нулю. Критерий (14-28) связан с бесконечным многошаговым процессом, для которого N —>- оо. Для случая (14-26) введем функцию Белл¬ мана N Sn (х) = max V g (х*‘, и') и1 1=0 я Я Я та Й О си S 2 2 та си га о ИЛИ N U1 опт ), Я о Си с о га о га о и та 3 о га О Я 2 та 2 О) X О £ о 4 IQ я СХ SN (x)=£g(*‘. *=0 где и‘опт — оптимальные стратегии. Кроме того, если учесть ранее использованные обо¬ значения, то g(x‘, u;) = gi (х1', u!). Для вывода функционального уравнения за¬ метим, что g{x, u0) + [g-(x', uinT) + ... + g(xyv, u"nT)J = = g (x, u°) -i- Sn-I (X1) = = g(x, U°) + Sn—1 [/ (x, u0)]. Это соотношение справедливо для любых на¬ чальных и0. Для определения оптимального дохода за N шагов необходимо взять макси¬ мум по и0. Поэтому Sw.(x).= max [g (х, u°)+S^_i [fN (х, u°)J, (14-29) где S0 (х°) = maxg(x°, u°). Повторяя аналогичный вывод для кри¬ терия (14-17), получаем соответственно функ¬ циональное уравнение Беллмана в виде Sn (х) = max Sn-\ f/(x, u0)]; u° So (x) ~ g (x). 346
Для задачи распределения ресурсов уравнение (14-29) имеет вид: Sk (X) = max (*, uk)-\rSk-i [/ (x, «'■')]}; uk f(x, u) = x — u, где x — общее значение исходного капитала; и — капитал, вклады¬ ваемый в очередную новую отрасль. Здесь заменили и0 -> ик> так как последний fe-й этап совпадает с выбором начального управления и поставили условие распределения одного ресурса. 14-12. ДИСКРЕТНЫЙ ПРИНЦИП МАКСИМУМА ПОНТРЯГИНА Аналогично дискретному динамическому про¬ граммированию разработан дискретный вариант принципа максимума Понтрягина [Л. 88]. Из срав¬ нения 'этих двух методов видно, что вычислитель¬ ные процедуры в них существенно различны. Как показано, часто в случае применения дискретного принципа максимума время вычислений значитель¬ но меньше, чем при использовании динамического программирования. Существует несколько разно¬ видностей формального аппарата дискретного прин¬ ципа максимума. Здесь будет рассмотрен простей¬ ший случай многоступенчатого процесса без обрат¬ ной связи. Представим процесс (рис. 14-11) в виде после¬ довательности N этапов (ступеней). Здесь исполь¬ зована другая нумерация ступеней, нежели в ана¬ логичной блок-схеме динамического программиро¬ вания, приведенной на рис. 14-10. Считается, что или xk = fk(xk-\ uk) (14-30) vk_}k(b-\ k-\ Ji-1. .k .k t.k\ X[ j i \Xfe , X‘2 , . . . , X$ , tl 1 , tl2 у • • • у Mi), где х* = {хь X2, Xs}) UA = {«f, U2, , Ы?}. В отличие от аналогичного соотношения дина¬ мического программирования в формуле (14-30) координата на fe-м шаге зависит от координаты на предыдущем (k— 1)-м шаге и управления на k-м шаге, а не от управления на (k — 1)-м шаге. Од¬ нако в большинстве случаев это отличие неприн¬ ципиально и скорее зависит от того, что понимается под управлением на данном и предыдущем ша¬ гах. Кроме того, здесь считается, что функция 5 я о я eg Я Я Я Я Я CU с я ч к § я о си с о (_ о m о и eg В о и о я £ eg <D X О Я О ч я а 347
преобразования состояний в общем случае зависит от номера шага k. Уравнения дискретного принципа максимума. Сначала получим аналог урав¬ нений Гамильтона — Эйлера: dxi г / \ N I = ^F{xk} иЛ) = min. (14-31) k—i Здесь, так же как в гл. И, весь временной интервал изменения р0, разбит на N отрезков длиной А/. Если критерий оптимальности задан в виде s / = 2 с.хУ = min, (14-32) /=1 то можно положить: %F(xk, u*)=f] k=l k=\ i= 1 Приняв все с% — 0 при k^LN и сУ = ch видим, что формулы (14-31) и (14-32) совпадают. Далее введем в рассмотрение функции Лагранжа и Гамильтона: Ф(х, X, и) = Г(х, U)+2 я,,-[•¥,•—/,(х, U)]; <=1 Я(х, и) = —Ф(х, X, и) + 2^сН = — F(x> — и)] + 2^Ф^- (=1 1=1 (=1 ' Пользуясь новыми переменными pi = фг- = ^г- = ф^., получаем: Я (х, х, и) = —Ф(х, X, и)+2^Ф^. = Я (х, tp, u) = i= 1 =— F(x, u)+2x«% = —Г(х, u)+2^i 1=1 i=i 4 или в результате замены xi = cpi(xt ф) S Н (х, tp, u)=—ф[х, ф, (х, tp, и)]+2ф;(х, Ч>)%- i=i Выполняя дифференцирование по ф,- и xiy получаем: дН _ дФ dxi • dxi _ dxi дф; ~ дх dx Xl ^ dtyi ~ dt * дН _ __ дФ __ дФ dxi dxi _ _ дФ ~dxj ~ “ dxi “ ^7 dxi + ™ dxi “ dxt * т. e. зависимость Я от F совпадает по форме с зависимостью Я от Ф. Используя дифференциально-разностное уравнение Эйлера
окончательно получаем дифференциально-разностные уравнения Понтрягина в виде дН dxi дН дх; dt 9 = — Теперь рассмотрим принцип максимума Понтрягина для случая, когда динамика системы задана разностными уравнениями вида' “*) (14-33) или Д*;(/г) = Ш(6), и (/г)], (14-34) где Х\ (k) «i(*) Xй = *2 (k) ; ий = u2(k) xs (k) ui(k) *i (k)=А=xi (kT)’ и1{к) = и1 = и1(кТ). Форма (14-34) легко может быть получена из (14-33), если учесть, что Axt (6) = *f-*f-1 =*;(*) — 1); *(„-*) = j](-l)v (k)Ayx{n); V=1 При этом Xi (k — 1) = Xi (k) — A Xi (k). и размерность векторах (k) в выражении (14-34) в 2 раза больше, чем размерность вектора в (14-33) за счет добавления новых s разностных уравнений и компонент: Axv(k) = xs+v(k), v = l, 2, ...2 s; xt{k) x(k) = xs(k) *s+i (&) ■^25 (^) Могут встречаться и другие формы задания динамики системы в виде разност¬ ных уравнений. И, естественно, форма уравнений Понтрягина будет различная. Это лишний раз подтверждает, что дискретные процессы обладают большим много¬ образием, чем непрерывные. Однако все дискретные процессы, как и различные дискретные формы задания динамики, совпадают с непрерывными при стремлении интервала дискретности к нулю. Форма задания (14-33) удобна для вычисления в конкретных примерах, а (14-34)— при аналитических выкладках, выполняемых по аналогии с непрерывным случаем. С помощью приемов, аналогичных ранее использованным, можно получить дифференциально-разностные уравнения Понтрягина для 349
обоих случаев (14 = 33) и (И =34). Пусть задача ставится в виде Axi{k) = fi\x(k), u (k)\, (14-35) s ' I —'^iclxi{N) = min. (14-36) /=1 Вводя в рассмотрение функции фь удовлетворяющие системе раз¬ ностных уравнений dxi (/г) /-1 сопряженных системе уравнений для вариаций 8х/ (&), полученных из (14-35), /= I S а также функцию Понтрягина i= 1 получаем уравнения принципа максимума Понтрягина в виде дН (к) а A Xi (k) = AoJ); (k — 1) at; (k) dH (k) dxi (k) * Если задача ставится в форме S I = у\ctxf = max, i=\ то можно получить уравнения: для вариаций 8*,- /■=1 для функций г|^ /—1 для функции Понтрягина
Решения этих уравнений должны удовлетворять граничным условиям Xi{t0) = xV, % (ЛО = ф" = с,-; i = 1 s. В качестве начального времени /0 может быть взято tQ = 0. Второе услоЬие специально выбрано в соответствии с методом конструирования функций, так же как в непрерывном принципе максимума %(М = 0, s; % М = — 1, для того чтобы в конце интервала функция Понтрягина Я, равная /, приняла максимальное значение: Н (N) = 2%" х? = 2 = / = max. (=i i=i Аналогичным образом для случая, заданного формулами (14-35) и (14-36), Xi (Q = xt % (N) = — Q. В другом варианте формализма можно, аналогично непрерывному случаю, ввести в рассмотрение еще одно уравнение и координату 4=/£ = 2 с*?. /==1 Тогда /=и /== 1 /=1 где уже использовано условие ф^ = ch При этом HN = max = 0. Отметим некоторые особенности приведенных выше уравнений. Хотя аргумент — время во всех функциях Я, ф, х меняется дискретно, считается, что сами функции Я, ф, х могут изменяться непрерывно и дифференцируемы. Функция Я зависит от номера k (ступени, шага), что эквивалентно зависимости от времени или зависимости функции Беллмана Sk от номера шага. В задачах, решаемых с помощью дис¬ кретного принципа максимума, так же как в задачах, решаемых с по¬ мощью. дискретного динамического программирования, в исходной постановке время может отсутствовать. В таком случае его вводят 351
искусственно, создавая эквивалентную модель многошагового про¬ цесса. Тогда функция Понтрягина Н (k) или Нк принимает максималь¬ ное значение при оптимальном управлении, т. е. Дифференциально-разностные уравнения' Понтрягина являются необходимыми условиями экстремума функции. Для линейных раз¬ ностных уравнений эти условия являются- (так же, как и в непрерыв¬ ном случае) достаточными. Для выпуклых функций и, в частности, для линейных функций они определяют глобальный экстремум. Кроме того, дискретные процессы, как уже указывалось ранее, обладают большим разнообразием, чем непрерывные. В частности, как будет показано на примере ниже, при одних k функция Нк при¬ нимает максимальное значение, а при других k — минимальное. Поэтому говорят, что дифференциально-разностные уравнения Понтря¬ гина определяют не оптимальные, а стационарные решения или точки фазового пространства. В частности, можно показать, что оптимальное управление существует для любого начального состояния х° и удов¬ летворяет условию где оптимальные значения сопряженных переменных ф^пт определя¬ ются из сопряженной системы уравнений (14-39) с граничными усло¬ виями Кроме того, можно показать, что если для какого-нибудь k точка Иопт является внутренней точкой множества U допустимых значений управления, то бНк (и*пт) = 0, а если в точке и*пт отсутствует такая допустимая (не выводящая из области U) вариация бил, при которой 8Hk (и^пт) < 0, то эта точка является граничной точкой множества U [Л. 88]. Поэтому, если нет ограничений на управляющие воздейст¬ вия, при оптимальном управлении бНк = 0. Условие 8Нк < 0, т. е. условие локального или глобального мак¬ симума, может выполняться только на границе области U. Пример 14-3. Динамика дискретной системы определяется уравнениями [Л. 88] Диапазон изменений управляющих воздействий ограничивается соотношением Нк (uon-r) = max Нк{и*). k 6 Нк «т, X*-*1, Uonx) < 0, k=\ (14-39) (14-40) (14-41) 1 ип | ^ 5; (14-42) начальные условия задаются в виде *2 = 3; *2 = 0. 352
Требуется найти оптимальное управление их и и2> обращающее функцию / = в максимум при ограничениях (14-42). Выразим из уравнений (14-41) xl = /| (ult и2) и определим значения «1опт и м2опт> доставляющие максимум этому" выражению. В результате получим: иют — 2; М20ПТ “ — Функцию Понтрягина для этого случая запишем в виде Hk = (** - > + 2uk) + (х* -1)* + (*»)»]. (14-43) Оптимальные значения х*--т и г|?*пт найдем из соотношений (14-41): Ф*-1 - хм,* дЬ “*) ■ Ь ~ дхк~1 ' г|$ = а. В результате получим: *10ПТ== Л'20ПТ== 'Ф1ОПТ=0; ^OnT=l» 44 ОПТ = 2', ФдОПТ—1* После подстановки этих значений в формулу (14-45) получим: //! = — 3 + (wi)2 + 4wi; Я2 = —6 + (а2)2. Нетрудно убедиться, что Я2 достигает максимального значения при и2опт = =^5, а Я1 минимального и1опт = —2. Таким образом, в общем случае функция Понтрягина Нк прини¬ мает при оптимальном управлении любое стационарное значение, необязательно являющееся максимумом, и принцип максимума Пон¬ трягина несправедлив. Но можно сузить класс дискретных задач таким образом, что прин¬ цип максимума Понтрягина будет выполняться. Если многошаговый процесс обладает таким свойством, -при котором множество Ri(x) всех состояний х, в которые можно перевести точку х за один шаг при допустимом управлении и U, т. е. Ri (х) = {x\x = f(x, и); и е £/}, является выпуклым (см. гл. 16), то для оптимальности управления необходимо, чтобы функция Понтрягина на оптимальном управлении принимала максимальное значение. Следует заметить, что выпуклость множества Ri(x) не гаранти¬ рует выпуклости функции Понтрягина. Если функция Понтрягина выпукла, то доказанное ранее соотношение (14-39) обеспечивает спра¬ ведливость принципа максимума Понтрягина. Наконец, если функции fk линейны, т. е. хк = А1*-1 хк~г + В/г ику где k = 1, N\ A/e_1 — матрица (s X s); В* — матрица (s X /)» функция цели N / = ф (XN) + ^G и") *=i 12 Основы кибернетики 35$
выпукла и множество допустимых значений управления U тоже выпукло, то, для того чтобы управление uk было оптимальным, необ¬ ходимо и достаточно, чтобы функция Понтрягина на этом управлении достигала максимального значения [Л. 88]. 14-13. РЕШЕНИЕ ТРАНСПОРТНОЙ ЗАДАЧИ С ПОМОЩЬЮ ДИСКРЕТНОГО ПРИНЦИПА МАКСИМУМА Рассмотрим, как формализуется в терминах дискретного принципа максимума транспортная задача. Как было показано ранее, в транс¬ портной задаче требуется определить оптимальные значения и* (i = = 1,2, т\ k = 1, 2, ..., п)у обращающие в минимум выражение п т i=Z 2 «»“?) k=\ i= 1 при условиях uki^ 0; ^uki=ai\ k=\ m г'=1, 2 m; 6=1,2 i= 1 Здесь m — число складов (размерность задачи); п — число пунктов назначения (пунктов потребления); а£.—запас товаров на i-u складе; Ьк — потребность в товарах на k-м пункте потребления [Л. 88]. Введем динамический процесс распределения, переписав уравне¬ ния (14-30): 4 = x°i = 0; xi = di\ i = 1, 2, ..., m — 1; k = 1, 2, ..., n. В этих уравнениях переменные состояния xt представляют собой общее количество товаров, перевозимое с t-ro склада на fe-й пункт назначения. В них содержится т — 1 переменных и\ вместо т (числа складов), так как при заданных bk одна из переменных ик. всегда может быть выражена через остальные с помощью соотношения т—\ Um=bk— 2 U?. ( = 1 Вводим т-ю переменную состояния т *m = 4r’ + 2] gi(uf); i= 1 X°m = 0't k= 1, 2, П. Общая стоимость перевозок 1 = хпт. 354
В данной задаче требуется определить значения и\ (i = 1, 2,... т— 1; = 1,2, п), обращающие в минимум я". Функцию Понтрягина запишем в виде m—1 m нк = 2 ф* (*?"'+«?) + xt1+2 g? («,*). /=1 /=1 После этого уравнения (14-38) перепишутся: ф*~‘ = фь /=1,2 т; 6=1,2, (14-44) а условия (14-40) примут вид: фт = 1. (14-45) Из полученных соотношений (14-44) и (14-45) имеем: фт = 1. Величины хп. заданы, и требуется так подобрать значения ф>" или uni9 чтобы в конце вычислений хп. (i = 1,2,/л — 1) равнялись заданным. Пример 14-4. Допустим имеется два склада т = 2 и восемь пунктов потребле¬ ния /г = 8. Функции себестоимости ^ задаются формулой (14-13) и табл. 14-8. Так же как и в примере 14-2, зададимся запасами на складах ах = 40, а2 = 50. Очевидно, что достаточно определить оптимальное распределение грузов, доставляю¬ щее минимум той части функции Понтрягина, которая зависит от управления: т—1 т («*). i=1 1=1 Для нашего случая = (a—uf). ^ Оптимальное управление должно доставлять минимум этой функции для ка¬ ждого k = 1, 2, ..., 8 при фиксированном ф{. Заметим, что в соответствии с форму¬ лой (14-44) ф^ = const = ф1. Неопределенная до начала вычислений величина фх подбирается таким образом, чтобы в конце вычислений удовлетворялось равенство 8 2 (Wl)oriT = #1, k=l при этом Ф1 = (Фх)опт. Величина фх определяется методом пристрелки. Заметим, что для заданного вида функций gf (и?) можно заранее определить интервал неопределенности фь в пре¬ делах которого выполняется условие min ф* < фюпт < max ф£ h 1 причем 2 («?)опт (min Ф?) = «1 + а%, k=\ k 8 2 WOoni (max ф|) =0. k—\ к 12* 355
Выбирая каждый раз в середине интервала неопределенности и анализируя ве¬ личину А = (^i) — alt можно сократить интервал неопределенности вдвое. При некоторых условиях этот процесс сводится к+011Т. Такой процесс пристрелки содержит в себе трудности, связанные с краевыми условиями, в чем заключается один из основных недостатков принципа максимума. Задача решается с погрешностью 6 = 0,2, т. е. считается, что оптимальное ре¬ шение найдено, если | А | ^ б. Результаты решения приведены в табл. 14-11. Таблица 14-11 Наименова¬ ние величин Номер итерации 1 2 3 4 | 5 6 ь -0,47 -3,435 — 1,9525 -1,21125 -1,25 —1,3 и\ 5,000 5,000 5,000 5,000 5,000 5,000 0,400 10,000 10,000 0,400 0,400 0,400 и\ 5,175 12,587 8,881 7,023 7,125 7,250 и\ 0,000 4,400 4,400 0,000 0,000 0,000 и\ 0,200 14,000 14,000 0,200 0,200 0,200 и\ 4,950 9,891 10,000 6,185 6,250 6,330 и\ 17,350 20,000 20,000 20,000 ’ 20,000 20,000 и\ 0,800 5,000 5,000 0,800 0,800 0,800 8 23 и\ k'=\ 33,875 80,878 77,281 39,608 39,775 39,980 д=2 k = \ ~ «1 -6,125 +40,878 +37,281 -0,392 -0,225 -0,020 Величина интервала неопре¬ деленности 5,9300 2,9650 1,4825 -0,74125 — 0 Распределение поставок приведено в табл. 14-12. Общая себестоимость всех перевозок С = 274, 6864. Расчеты произведены на машине М-20. Как и следовало ожидать, данные табл. 14-12 совпадают с данными 356
табл. 14-8 примера 14-2, в котором использовалось дискретное динамическое про¬ граммирование. Таблица 14-12 Число рынков Пере¬ возки из первого» склада Пере¬ возки из второго склада Число рынков Пере¬ возки из первого склада Пере¬ возки из второго склада 1 5,0 0,0 5 0,2 14,8 2 0,4 9,6 6 6,4 3,6 3 7,2 12,8 7 20,0 0,0 • 4 0,0 5,0 8 0,8 4,2 . На сегодняшний день не закончилась еще дискуссия о преимуще¬ ствах и недостатках каждого из двух методов: принципа максимума и динамического программирования. В одних задачах удобней при¬ менять один метод, в других — другой. Аналитически они доста¬ точно близки друг к другу и могут получаться один из другого путем простых выкладок. Но все же можно утверждать, что принцип мак¬ симума математически более строго обоснован, он исходит из класси¬ ческого вариационного исчисления и использует только особый вид вариации. Динамическое программирование основано на постулате, т. е. эвристическом утверждении, которое обычно формулируется как принцип относительности Беллмана. Основное различие между этими методами лежит в вычислительной процедуре. И с этой точки зрения в большинстве случаев предпочтение следует отдать принципу максимума. Дело в том, что, пользуясь дина¬ мическим программированием, необходимо на каждом шаге вычислять значения функций для всех значений переменных состояния. Принцип же максимума позволяет все время иметь дело с одним и тем же реше¬ нием на всех ступенях, просто улучшая его на каждой ступени. Бла¬ годаря введению переменных ф? объем требуемой для .вычислений памяти вычислительной машины для принципа максимума растет линейно с увеличением размерности задачи, а для динамического про¬ граммирования — экспоненциально. Поэтому время счета в первом случае, как правило, меньше. Однако для решения задач с ограниче¬ ниями на переменные состояния принцип максимума встречается с трудностями* которые совершенно отсутствуют в динамическом про¬ граммировании. Глава пятнадцатая ПРЯМЫЕ МЕТОДЫ ОТЫСКАНИЯ ЭКСТРЕМУМА ФУНКЦИИ Рассматривать методы нахождения экстремума функции, а не функционала мы начали, по существу, уже в разделе дискретных мето¬ дов оптимизации, отыскивая оптимальное решение с помощью дина¬ мического программирования и принципа максимума. Прямые методы 357
применяются на каждом этапе отыскания оптимальных значений и, в частности, при решении функционального уравнения Беллмана. Известно достаточно много прямых методов. Здесь будут рассмотрены основные. Рассмотренные ранее непрямые методы решали задачу в соответ¬ ствии с определенным дифференциальным или рекуррентным соотно¬ шением, которому удовлетворяло оптимальное решение, т. е. имели аналитический характер. В прямых методах, как правило, отсутствуют такие аналитические соотношения. Прямые вариационные методы, так же как и процедуры решения задач с помощью дискретных динами¬ ческого программирования и принципа максимума, по существу близки к прямым методам отыскания экстремума и отличаются от них только своей ориентацией на определенные аналитические уравнения. Кроме того, особенностью прямых методов, рассматриваемых в данной главе, является отсутствие ограничений на изменение переменных, харак¬ терных для линейного и нелинейного программирования. Ограничения здесь имеют простейший вид: ау- ^ лу ^ bj. Прежде чем перейти к методам, обратим внимание на близость задач отыскания экстремума и нуля функции. Допустим, имеется т совместных уравнений: ф* (хъ х2у ..., хп) = 0, /= 1, 2, ..., т\ требуется найти Xj (/ = 1, 2, ..., я), удовлетворяющие им. Очевидно, что значения Xj будут нулями функций, ср;. Задачу можно свести к на¬ хождению экстремума функции Ф, представляющей собой сумму квад¬ ратов функций ф;. Так как cpt могут быть комплексными функциями, то т * ф=1] ф| ф h i=\ где ф* — функции, комплексно-сопряженные ф,. И наоборот, если требуется определить экстремум дифференцируемой функции Ф (хъ х2} ..., хп), эту задачу в простейшем случае можно свести к опре¬ делению корней уравнений Однако особый интерес представляют методы поиска при отсут¬ ствии производных от функции цели Ф [Л. 80, 92]. Поиск экстремума может быть детерминированным (при отсут¬ ствии шумов) и стохастическим (при наличии ошибки замеров значе¬ ний функции). Различают пассивный или параллельный поиск, когда стратегия известна до получения результатов эксперимента, и актив¬ ный или последовательный поиск, когда будущие стратегии уточня¬ ются в зависимости от результатов предыдущих экспериментов. Вначале ограничимся одномерным детерминированным унимодаль¬ ным случаем (когда на заданном интервале или множестве имеется 358
одно экстремальное значение). Будем называть функцию одной переменной / (х) на интервале [0, 1] строго унимодальной, если она строго возрастает (или убывает) при i < х° и х ^ х°, где х° — точка экстремума из интервала [0, 1], т. е. О ^ х° ^ 1. Очевидно, что всякая выпуклая функция на интервале изменения [0, 1] одно¬ временно и унимодальна. Однако обратное утверждение может быть и несправедливо. Если допустить разрывы непрерывности функ¬ ции / (х) и ее производной, то могут встре¬ титься унимодальные на интервале [0, 1] функции, не обладающие свойством выпук¬ лости (рис. 15-1). Унимодальность обеспечи¬ вает выполнение следующего очень важного условия: если оба отсчета функции у = / (х) yL = f(x1), У2 —f (х2) взяты по одну сторону от максимума, то большему значению у соответствует более близкое к оптимуму значение х. Эта зави¬ симость, которая легко доказывается от про¬ тивного, позволяет сформулировать критерий эффективности методов поиска и иллюстри¬ руется рис. 15-2, из которого видно, что с учетом условия унимо¬ дальности после двух экспериментов исключаются отрезки: [х2, 1] (рис. 15-2, а), [0, х1] (рис. 15-2,6), [0, х1] и [х2, 1] (рис. 15-2, в). Рис. 15-1. Графики выпук¬ лой (а) и невыпуклой (б) унимодальных функций. I ? I I _L х' хг 1 О 1 о а) 6) 5) Рис. 15-2. Возможные варианты уменьшения интервала неопределенности при двух экспериментах. По существу мы здесь вторгаемся в область кибернетики, называе¬ мую планированием эксперимента, которую, как правило, рассмат¬ ривают в математической статистике. 15-1. ОСОБЕННОСТИ ОДНОМЕРНОГО ПОИСКА Рассмотрим три случая с тремя экспериментами (рис. 15-3). Зна¬ чения х в каждом эксперименте отстоят от левого конца исходного интервала неопределенности [0,1] соответственно на величины х1 = = 0,2; х2 = 0,6; х3 = 0,9. Каждая из трех позиций рисунка содержит 359
три возможных результата экспериментов. В каждом из трех случаев максимальное значение достигается соответственно в первом (рис. 15-3, а), втором (рис. 15-3, б) и третьем (рис. 15-3, в) экспериментах. Обо¬ значим через К номер эксперимента, в котором получен наилучший в смысле максимума результат: уК= max {г/*}; 1 У (**) = Ук, k = 1, 2, ..., N, где N — число экспериментов. Для каждого из трех случаев можно указать новый, более узкий интервал неопределенности, в котором лежит оптимальное значение х. Действительно, при К = 1 0 ^ *onT < С х2; при К = 2 х1 <*опт <*3; при К = 3 х2 < хопт ^ 1. Можно полу- 13=0,6 t I I- _L г 1 . it" I х2 xs 1 I I _L K=1 X1 X2 x31 K=2 8) r-OA T i i i i i X3 1 K=3 b) Рис. 15-3. К определению меры эффективности поиска при трех экспери¬ ментах. чить общую формулу для экспериментов, если обозначить через х° нача¬ ло исходного интервала неопределенности, т. е. х° = 0, и через xN+1 — его конец xN+1 = 1. Тогда для интервала неопределенности lN после N экспериментов имеем: р = хк+\-хк-\ъ причем ХК~] < .Копт < ХК+'. В зависимости от стратегии поиска (выбора xk) получаются разные значения интервалов xk+1 — хк~г (k = 1, ..., N). Из результатов экспе¬ римента (значений ук) видно, при.каком k = К получается наилучший результат ук и соответственно наилучшее значение интервала неопре¬ деленности 1п. Таким образом, lN определяется, с одной стороны, распределением хк и, с другой стороны* номером К: [N = iN(xkj jqu Эта величина является хорошей мерой эффективности поиска после завершения всей серии из N экспериментов. Но нам нужна априорная мера эффективности, a Iм до серии экспериментов неизвестна. Поэтому введем в рассмотрение наибольший из lN (т. е. наихудший) интервал неопределенности LNixk)= шах {lN(xk, К)}. (15-1) 360
Нетрудно убедиться, что LN зависит только от стратегии поиска (вы¬ бора хи), и, конечно, от унимодальной зависимости у (х) и не зависит от интервала, в котором окажется значение хопт, т. е. величины К. Для нашего примера имеем: L3 (0,2; 0,6; 0,9)= шах {/3(*/г, 1), 1Цхк, 2), 1*{х\ 3)} = 1 <з = шах {(х2 — х°)у (а:3 — л:1), (л:4 —х2)} = шах {0,6; 0,7; 0,3} = 0,7. Величина — единственная при заданной стратегии поиска (выборе хк)у так как среди возможных значений lN только одно или, в крайнем случае, несколько равных между собой значений будут наибольшими. Выбор в качестве меры величины Iм для наихудшего случая избавляет нас от нежелательной зависимости от результатов испытаний и дает априорную, хотя и пессимистическую оценку эффек¬ тивности поиска. При реальном поиске может получиться лучший результат. После того как введена мера эффективности поиска, можно указать критерий выбора оптимального поиска, в качестве которого берется минимум величин: L"T= min {/"(*'<)}. .(15-2) X Оптимальная стратегия хкот определяется соотношением LN (^опт ) = ^опт • (15-3) Величина LqUT — постоянная и единственная для данной унимо¬ дальной зависимости. Она определяет минимальный интервал неопре¬ деленности, хотя оптимальных стратегий ХоПТ может быть несколько. Стратегия ХоПТ может быть названа минимаксной, так как L"T=min шах {lN (хк, К)}- xk \^K<N Нетрудно убедиться, что шах шах {Iм (хку К)} *= 1; xk i</c<yv min \lN (хк, K)} = 0. По существу, изложенный выше метод определения оптимальных стратегий характерен для теории игр. В данном случае ведется игра против природы. 15-2. ПАССИВНЫЙ ПОИСК Не во всех ситуациях можно реализовать последовательную про¬ цедуру поиска. Так, при управлении доменным или химическим про¬ цессом,. когда нет времени на последовательный анализ, делается одно¬ временный параллельный замер параметров. При этом возникает необходимость определения новых значений управляющих парамет¬ ров, которые обеспечили бы оптимальную близость к экстремуму. 361
Или, например, группа из десяти экономистов должна решить задачу оптимального распределения ресурсов в условиях ограниченного заказчиком времени (одна неделя). Такое условие заставляет построить работу по параллельной схеме, т. е. каждый экономист ведет поиск в отдельности по заданной ему программе распределения ресурсов. Если бы заказчик не торопил с решением вопроса и выделил вместо одной недели четыре, то десять экономистов могли бы совместно после¬ довательным поиском рассчитать четыре варианта и получить ту же точность, что и при пассивном поиске при расчете десяти вариантов. Если бы в их распоряжении было десять недель, то совместная работа по последовательной схеме дала бы эффективность в 18 раз большую, чем при пассивном поиске (см. табл. 15-1). В этой модели условно счи¬ талось, что при совместной работе десяти экономистов по последовательной схеме время расчета одного варианта остается равным неделе. Однако можно составить другую мо¬ дель, предположив, что при совместной ра¬ боте время расчета одного варианта сокра¬ щается в 10 раз. Тогда уже к концу второго дня получился бы тот же самый результат, что и при пассивном поиске к концу недели (считается, что рабочих дней в неделе пять). Для случая двух экспериментов пассив¬ ная стратегия ничем не отличается от актив¬ ной, так как информацию, полученную от одного эксперимента, нельзя использовать для уточнения второго эксперимента. Пусть имеются результаты двух экспериментов (N = 2): х1, х2, причем 0 с х1 < х2 ^ 1. С помощью соотношений (15-1) — (15-3) можно написать: ^L2 = max {(х2 —х°), (х3 — х1)} = max {х2, (1 — х1)}. На рис. 15-4 показаны кривые L2 = const в зависимости от х1 = хг и х2 = х$. Из-за условия х2 > х1 оптимальное на первый взгляд зна¬ чение L2 = 0,5 при х1 = х2 = 0,5 отвергается. Поэтому вводится минимальная величина е, которая определяется погрешностью изме¬ рительной аппаратуры, позволяющей при различии между х1 и х2, равном е, обнаружить разницу между соответствующими у1 и у2. Тогда в результате экспериментов х1 = 0,5 — е/2 и х2 = 0,5 + е/2 можно получить не только'требуемое разделение у1 и у2, но и мини¬ мально возможное значение L2onт: Цпт = L2 [(0,5 - е/2), (0,5 + е/2)] = 0,5 + е/2. Только что рассмотренная стратегия носит наименование е-мини- максной. Теперь рассмотрим случай трех экспериментов и постараемся улучшить довольно плохой план, ранее рассмотренный и представлен¬ ный на рис. 15-3 (х1 = 0,2; х2 = 0,6; х3 = 0,9). Ранее было получено максимальное значение интервала неопределенности, равное 0,7. Из Рис. 15-4. К определению эффективности пассивного поиска при двух экспери¬ ментах. 362
рис. 15-3, б видно, что можно уменьшить L3, сблизив х1 и х3, в связи с чем, уменьшив х3 и увеличив х1 на 0,1, получим (рис. 15-5): х1 = 0,3; л;2 = 0,6; *3 = 0,8; х3 — я1 = 0,5. При этом L3~ max {0,6; 0,5; 0,4} = 0,6 = *2-*° = *2. Теперь, перемещая х2 влево, можно еще уменьшить L3, однако одновременно будет увеличиваться х4 выбора х2 следует рассмот¬ реть график функции max{x2, I—*2} (15-4) 1 — х2. Поэтому для he- 0,6 —т- ¥ xf 1 А хг X3 X4 - 0,5 ~ Рис. 15-5. Улучшенный вариант пассивного поиска при трех экспериментах. в интервале 0,3 = х1 < х2 < < х3 = 0,8. В соответствии с рис. 15-6 минимальное зна¬ чение функции (15-4) полу¬ чается при *2 = *2 == 0,5. Это значение и выбирается в оптимальной минимаксной стратегии. Таким образом, оптимальной стратегией будет всякая пассивная стратегия (я1, х2, х3), для которой х2 = 0,5 (рис. 15-7, а) и х3 — х1 ^ 0,5 (рис. 15-7, б) и которая дает опти¬ мальное значение L3onT = 0,5. Определение минимаксной стра¬ тегии с помощью рис. 15-7 практи¬ чески совпадает с геометрическим методом отыскания оптимальной стратегии в теории игр [Л. 35]. Из рассмотренных двух приме¬ ров следует, что добавление третьего эксперимента, требующего допол¬ нительных средств и усилий, в слу¬ чае пассивного поиска мало себя оп¬ равдывает, так как разность LоПТ—■ составляет малую величину е/2. Оказывается, что это положение остается справедливым [Л. 92] для любого числа опытов Л/, т. е. использование нечетного числа опытов целесообразно только при Рис. 15-6. К определению эффективно¬ сти пассивного поиска при трех экс¬ периментах. Т 2 -^ОПТ Cs 0,5- 1 t 0,5 ~ -6 0,5 —0,5—► 0,5 ► хг X3 х1 X2 X3 а) —' Рис. 15-7. Оптимальные пассивные стратегии при трех экспе- # риментах. большой погрешности измерений е, поэтому часто на практике исполь¬ зуют поиск парами экспериментов. Можно показать, что наилучший выбор получается при разделении экспериментальных точек на рав¬ ноотстоящие пары. При таком распределении процедура носит наз- 363
1 + 8 вание поиска однородными парами. Так, при « = 2 (рис. 15-8, а) , 1 —е эксперимент состоит из двух значении: хг =—л при п = 4 (рис. 15-8, б) — из четырех значений: 1—8 1+8 2 + 2s w - 2 , - 3 . - з е, ~ 3 Аналитически значения xk при поиске однородными парами можно задать с помощью формулы 2 + 2е и т. д. (l+e)[(fe+l)/2] _ jj-fe + 1 (N12) +1 Н4]Ь где квадратные скобки [а] обозначают наибольшее целое число, не превышающее а: [п] = 3, [4] = 4 и т. д. 1+е * 2 —| с i-е : « 2 ; X1 X 1 а) N=2 (одна пара) 1+е -С 1+6 3» ^ 1~2е ж 3 3 -с зи е 3 X1 . 1 ■ X2 X3 _ 1 X* 1 ж j j *4 1+е X1 1+е 4 4 i X2 Xs X4 X5 X6 1 / 4 * 4 5) N=4 (две пары) Рис. 15-8. Поиск однородными парами. 6)N=6 (три пары) Из предыдущего следует, что такая схема для четного числа опы¬ тов представляет е-минимаксную стратегию, так как смещение любого из экспериментов только увеличивает LN. Величина оптимального ин¬ тервала неопределенности задается формулой. Ln — -^ОПТ 1+8 (15-5) (N12) + Г Нетрудно показать [Л. 92], что для числа опытов N + 1 г N+\ г N , е ^ОПТ — Ь0Пт + (^2)+ Г где N — четное, т. е. с увеличением числа опытов разница между опти¬ мальными интервалами неопределенности при четном и нечетном числе опытов уменьшается примерно обратно пропорционально числу опытов. 364
15-3.ПОСЛЕДОВАТЕЛЬНЫЙ ПОИСК Как уже указывалось, при последовательном поиске анализиру¬ ются результаты предыдущего эксперимента, и в зависимости от них ставится следующий эксперимент. При этом получается большой выи¬ грыш эффективности поиска. Поэтому на практике, если позволяют условия, следует отдавать предпочтение последовательному поиску перед параллельным (пассивным). Организация последовательного поиска иногда требует разработки специальных технических устройств для последовательных замеров. Так, одна подвижная термопара позволяет активно следить за высо¬ котемпературной зоной химического реактора, т. е. осуществляет последовательный поиск, а несколько неподвижно установленных термопар позволяют осуществлять лишь пассивный поиск. а) Метод дихотомии Самым естественным и наиболее распространенным на практике является метод поиска экстремума путем последовательного деления отрезка пополам. Этот метод, известный еще в древней Гре¬ ции, назван дихотомией (di- cha — на две части + tome — сечение). Ранее было показано, что при двух экспериментах (пер¬ вая пара на рис. 15-9) лучше всего выбирать точки в сере¬ дине интервала возможно ближе друг к другу. Тогда длина интервала неопределен¬ ности будет равна 0,5 + е/2. В третьем и четвертом экспе¬ риментах (вторая пара) точки выбираются вблизи середины получившегося интервала. Новый ин¬ тервал неопределенности при этом равен:, 1 /1 . е\ , е 1,3 2 \2 + 2 )+ 2 4 4 8* После шести опытов (третья пара) интервал неопределенности составит: После N опытов, где N — четное и конечное число, интервал неопре¬ деленности запишется как £ _j ж—г 2 11-" Пербая пара Вторая пара Не - ? е \ Не нзе ^ \ Третья пара х 1+76 у Рис. 15-9. Пояснение к методу дихотомии. Ion == 2-/V/2 + (1 — 2 ~N/2) е. 365
N-2 Отсюда следует, что эффективность поиска при методе дихотомии растет с ростом N экспоненциально, тогда как при пассивном поиске однородными парами эффективность растет лишь прямо пропорцио¬ нально N [см. формулу (15-5)]. б) Метод Фибоначчи В современной интерпретации этот метод был предложен Кифером, хотя корни его восходят к математику XIII века Фибоначчи и даже к более ранним исследованиям Евклида. Будем считать, что для исследования исходного интервала неопре¬ деленности единичной длины было выделено N экспериментов, N — 1 из которых выполнены. В последнем эксперименте требуется исследо¬ вать интервал неопределенности £^7Л» С0‘ держащий точку-эксперимент £^-1, для ко¬ торой получено самое большое значение у при первых N — 1 испытаниях (рис. 15-10). Положение точки целиком зависит от стратегии поиска. Последнюю точку EN можно выбрать произвольно, но не ближе, чем на расстоянии е от точки EN~X. Ситуа¬ ция на этом последнем шаге полностью совпадает с обычным поиском при наличии двух экспериментов. Минимальное значе¬ ние последнего интервала L^nT получается, если точки и EN расположить сим¬ метрично на расстоянии е/2 относительно Поэтому зна- середины интервала LqUте¬ чения Low1 и Low связаны соотношением -L N-2 и0ПТ , л/-/ -‘опт иопт jN-\_2LN _о -^ОПТ ^^ОПТ Ь. Рис. 15-10. Пояснение к ме¬ тоду Фибоначчи. (15-6) Продолжая процедуру движения с кон¬ ца, аналогичную динамическому програм¬ мированию, введем в рассмотрение интер¬ вал неопределенности Lon72, который по¬ лучается в результате N — 2 экспериментов из общего числа N. Внутри этого ин¬ тервала содержится эксперимент £^-2, дающий наибольшее значение у при первых N—2 эксперимен¬ тах. В этом интервале следует произвести следующую пару экс¬ периментов. Лучшее значение из двух обозначим через Другая точка из этой пары, которую обозначим через ЕЕ~{, будет граничной между частью Low2 интервала L^nT, исключаемой и частью Lon7\ оставляемой для рассмотрения. Но в начале экспери¬ мента неизвестно, какое из двух значений EN~l будет наибольшим и обозначится как Е^-\ а какое наименьшим и обозначится как Е^~1. Эти два значения могут меняться местами. Поэтому обе точки Е^~1 и ЕЕ~1 располагаются на одинаковом расстоянии Lon7l от концов интер¬ 366
вала. Так как эти точки расположены симметрично относительно середины интервала LqU72 и одна из них становится Е+~1 (причем это может быть любая из двух точек EN~l)y то каждая из них должна находиться на расстоянии L^T от одного конца интервала и на рас¬ стоянии Lo]п7! от другого конца интервала. При этом учитывается, что ранее была доказана* формула (15-6). Поэтому т N~2 — т jltn Lout — -Ьопт L>om • С учетом формулы (15-6) напишем: т N—2 / q т N \ | г N о т N •^ОПТ \“^ОПТ I -^опт OL,0UT 6. Аналогично можно доказать для любого 1 < k < N, что т k—\ г k I г £+1 ^ОПТ А-'ОПТ | ^опт • Отсюда при k = N — 2 г N—3 г N—2 г N—2 (от N \ (сут N с г N пе, ^ОПТ -^ОПТ ■L'OnT \О1^0ПТ I о) Ol^onT г N—4 о г N о . ^опт — ОГ^опт ОБ, т 5 —1Q т N Zo ■^ОПТ А’-,х-'ОПТ ио* Для удобства .записи формул введем последовательность чисел Фибоначчи: F0 = F1=l; Fk = Fk-iJrFk-<i> k = 2, 3, в соответствии с которой имеем: F2 = 2, F3 = 3, F4 = 5, F5 = 8 и т. д. С помощью этих чисел можно записать следующую формулу для опти¬ мальных интервалов неопределенности: LNa~k = /ч+1 Lom -Fk-iе. (15-7) Полагая длину исходного интервала равной единице, получаем: N — k= 1; k = N- 1; Lout = 1 = Fn Eout Fyv—2 8. Отсюда находим оптимальный интервал после N опытов: Lont=^ + -^-e. (15-8) г N г N Как видно из приведенной позднее табл. 15-1, для уменьшения интервала неопределенности более чем в 100 раз по методу Фибоначчи необходимо провести 11 опытов, по методу дихотомии— 14, а при пас¬ сивном методе — 198 [см. формулу (15-5)]. При методе Фибоначчи каждая последующая точка выбирается симметрично по отношению к точке, которая осталась от предыдущего эксперимента и попала в оставшийся интервал. Первый эксперимент следует выбирать на 367
расстоянии Lorn- от одного из концов начального интервала, безраз¬ лично от левого или правого, в силу симметрии. Чтобы получить точ¬ ное выражение для L%nт, воспользуемся формулой (15-7), учитывая, что N — k = 2 и k = N — 2: Lorn = F/V-i-Lom FN—3 8. Исключив из этого соотношения LqUT, с помощью формулы (15-8) получим: ~f*-‘ в. (i5-9) Используя тождества F^-i = /V-2 + ^>-з и = FN-i + FN_2, кото¬ рые следуют из самого определения чисел Фибоначчи, напишем: Fn—\ F N—2 — F ft Fm—Ъ = (Fn—2 + ^yV-з) 2 — (Ftf—1 + ^ (V—2) /^-3 = = (15-10) Можно доказать [Л. 92], что правая часть этого равенства равна (— 1)^, поэтому формулу (15-9) можно переписать в виде Fn о (-1)^ е UnT = J^L + -!-r—• (15-11) t N N Формула (15-11) позволяет начать процедуру поиска, если известны 8 и N. В этом состоит недостаток метода: требуется заранее знать необ¬ ходимое число опытов. Очень часто задается только величина интер¬ вала неопределенности, которую надо знать к концу N-го опыта. Эта особенность придает последовательному методу Фибоначчи свойства пассивного поиска. Она напоминает взаимоотношения классической процедуры Неймана — Пирсона и последовательного метода Вальда в теории проверки статистических гипотез (см. гл. 3). Иногда поэтому обращаются к методу дихотомии, который хотя и обладает меньшей эффективностью по сравнению с методом Фибоначчи, но не требует предварительного знания числа опытов. Однако существует другой метод поиска, который почти также эффективен, как метод Фибоначчи, но не требует априорного задания числа опытов N. Имеется в виду известный издавна метод золотого сечения. в) Метод золотого сечения Итак, необходимо избавиться от зависимости первого опыта от числа опытов. Для этого поступаем следующим образом. По-преж¬ нему считаем, что сохраняется условие симметричности последова¬ тельных экспериментов, так же как в методе Фибоначчи, т. е. спра¬ ведливо соотношение Lk^ = Lfc + Lfc+\ (15-12) Однако вместо условия =2LN — 8, 368
при котором в методе Фибоначчи интервал LlnT зависит от N, предла¬ гается условие означающее постоянство отношения длин последовательных отрезков. Отсюда следует, что Lk+1 = т2. (15-13) Учитывая соотношение (15-13) и поделив обе части (15-12) на Lkn, получим: т2 = т + 1. Положительный корень этого квадратного уравнения Т= 1+Д.= 1,6180. По результатам двух экспериментов выбирают часть исходного отрезка, внутри которого расположен один из предыдущих опытов. В следующую пару опытов включают эту точку, а вторую выбирают внутри остающегося отрезка симметрично точке, оставшейся от преды¬ дущего опыта. Первые точки найдутся на расстоянии 1/т от левого и правого концов единичного начального интервала. Процесс можно продолжать как угодно долго. Пос¬ ле N опытов интервал неопределен¬ ности достигнет ^ = О5'14) -Lu'— Рис. 15-11. Пояснение к методу золо- Рассмотренная процедура носит того сечения, название метода золотого сечения. Она состоит в делении отрезка на две неравные части так, чтобы отно¬ шение всего отрезка к большей части равнялось отношению большей части отрезка к меньшей (рис. 15-11). Математик Люкас вывел урав¬ нение, связывающее числа Фибоначчи FN и величину т: г т"-И_(_тГ(*+1) н~ 7Т • При больших N вторым членом в формуле Люкаса можно пренеб¬ речь, в результате чего получим: т^1 Уъ Это соотношение дает возможность получить связь интервалов неоп¬ ределенности LN после N опытов при методе золотого сечения и при методе Фибоначчи: jN TN+\ _2 к-vf^-vг=|’17' (,5-15> 369
т. е. эффективность метода золотого сечения только на 17% ниже ме¬ тода Фибоначчи. При больших Л/, как это следует из уравнения Лю- каса, имеем: Отсюда с учетом формул (15-10) и (15-14) для больших N Т 2 ^ _L — Т 2 •‘-'ОПТ гу. — ^ » т. е. при больших N обе процедуры начинают поиск в одних и тех же точках. В табл. 15-1 приведены цифры, характеризующие уменьшение исходного единичного интервала неопределенности для различных методов поиска. Т а б л и ц а 15-1 Число опытов Сокращение интервала неопределенности Метод ди¬ хотомии Метод Фи¬ боначчи Метод золо¬ того сечения Поиск по дискретным точкам 0 1 1 0 1 1 1 1 1 2 2 2 1,62 2 3 2 3 2,62 4 4 4 5 4,24 7 5 4 . 8 6,85 12 6 8 13 11,09 20 7 8 21 17,94 33 8 16 34 29,0 54 9 16 55' 47,0 88 10 32 89 76,0 143 г) Поиск по дискретным точкам Все ранее рассмотренные методы исходили из того, что величина xk может принимать любое значение внутри интервала [0, 1] и интер¬ вал неопределенности может изменяться непрерывно. Однако чаще требуется осуществлять выбор на конечном дискретном наборе значе¬ ний xk. Например, требуется поделить число квартир или составить сборную страны по футболу из игроков команд первой группы, — число комбинаций здесь всегда конечное. Иногда непрерывный поиск искусственно превращают в поиск по дискретным точкам, так как последний выделяет одну точку экстремума, а не, интервал неопреде¬ ленности, который неудобен для решения задач, имеющих дело с кон¬ кретными понятиями. Допустим, задано s дискретных точек: х2,..., л:5, значения которых необязательно должны быть целыми числами. Например, среднее число ящиков, которое загружается в единицу времени, может принимать 370
значения: 3,0; 3,4; 3,6; 4,2; 4,4; 4,6; 5,0. Сопоставим каждому дискрет¬ ному значению целые числа (табл. 15-2): Т а б л и д а 15-2 Число ящиков 3,0 3,4 3,6 4,2 4,4 4,6 5,0 Номер варианта 1 2 3 4 5 6 7 В интервале от нуля до единицы расположим равномерно k точек (рис. 15-12). Для нашего примера число k + 1 равно числу Фибо¬ наччи Fb = 8, исходный интервал неопределенности отличается от еди¬ ницы и равен L1 = FN (N = 5). Поэтому два первых эксперимента от¬ стоят от концов исход¬ ного интервала неопре¬ деленности на величины FдДопт» где Fhr л_п^0 т 2 . и ОПТ - ,V-1 (-I)* N полу- Пербая пара опонпоб 1 N Полагая е = 0, чаем: ВДпт = Fn_ £. В силу этого соотноше¬ ния первые два экспе¬ римента совпадут с ди¬ скретными точками. В данном примере FN_х = = F4 = 5 и точками первых двух экспериментов будут точки 3 и 5, отстоящие от концов интервала на величину F4 = 5. Точно так же третий эксперимент попадает в дискретную точку 6У четвертый — в точку 7, пятый и последний — в точку 6. Процесс закончится, когда длина интервала неопределенности станет равной единице. Отсюда в соответствии с формулой (15-8) при е = 0 имеем: Третий опыт ЦетЬертый опыт Пятый опыт Рис. 15-12. Пояснение к методу поиска по дискретам. FnL опт = 1 • Следует специально остановиться на условии которому последний эксперимент попадает в точку дился один из предыдущих экспериментов. Это позволяет не произво¬ дить последнего эксперимента. Действительно, интервал неопределен- е = 0, благодаря где уже произво- ности 'FnLo\п7\ остающийся после N— 1 шагов, в соответствии с фор¬ мулой (15-15) равен двум. Причем, как видно из рис. 15-12, концы этого интервала уже испытаны и отвергнуты, поэтому оптимумом должна быть середина интервала. Напомним, что в методе Фибоначчи е появилось для выполнения последней пары экспериментов: (N — 1)-го и УУ-го, которые пришлось 371
расположить в силу непрерывности * на расстоянии е/2 от середины интервала L^nT1- Именно поэтому и из требования различения двух последних экспериментов по * возникла необходимость введения е. Если обозначить через Яд^максимальное число точек, которые после N — 1 экспериментов можно свести к единственному экстремуму, то очевидно, что sN_x =FN — 1, так как в интервале длиной FN, содер¬ жащем FN_± точек, можно по методу Фибоначчи найти оптимальную точку после N — 1 экспериментов. Иначе эту формулу можно пере¬ писать как sN= Fn+1—1. Сравнительные значения этой величины приведены в табл. 15-1. 15-4. МЕТОД РАНДОМИЗАЦИИ В предыдущем разделе мы убедились, что метод Фибоначчи с успе¬ хом может применяться при поиске на дискретном множестве точек. Однако если число исходных точек сильно отличается от ближайшего, строго большего числа Фибоначчи, то приходится добавлять фиктивные точки и тем самым увеличивать количество экспериментов. Так, при 8 опытах добавляется еще 5, т. е. общее число точек доводится до. бли¬ жайшего, строго большего числа Фибоначчи, 13. Но можно ввести эле¬ мент случайности и выбирать экспериментальные точки в соответствии с определенным законом распределения (например, с помощью броса¬ ния монеты или кости). При этом в среднем можно получить выигрыш в числе точек эксперимента по сравнению с детерминированным поиском по методу Фибоначчи. В этом и заключается метод рандомизации. Процедура поиска экстремума основывается на определенной вероят¬ ностной модели расположения экстремума. Считается, что природа, как партнер в игре, предлагает для поиска определенный вероятност¬ ный закон распределения экстремума. Такая трактовка процедуры поиска вполне оправдана, так как неизвестно, где находится экстре¬ мум. Стратегия строится вероятностным образом, так как экстремум с определенной вероятностью может появиться в любом месте. Такой подход по существу совпадает с игровым методом и процедурами проверки статистических гипотез. Для простоты рассмотрим случай унимодальной функции [Л. 92], заданной на трех дискретах: 1, 2, 3. Все варианты проведения эксперимента можно разбить на три: (1, 2), (1, 3) и (2, 3). Если экстремум окажется в точке 1, то при выборе стра¬ тегии (1, 2) (т. е. первые два эксперимента производятся в точках 1 и 2), третьего эксперимента можно не делать. Двух экспериментов окажется достаточно, если экстремум находится в точке 3 и было принято решение провести эксперименты в точках (2, 3). Во всех остальных случаях требуется провести три эксперимента. Окончательные данные о числе необходимых опытов по всем вариантам сведены в табл. 15:3. Т а б л и ц а 15-3 Место проведе¬ ния первых двух опытов Положение экстремума 1 2 3 (1,2) 2 3 3 (1,3) 3 3 3 (2,3) 3 3 2 372
Таблица 15-3 — это по существу настоящая игровая матрица. Платежом в та¬ кой игре является число необходимых экспериментов N. Матрица получилась не вполне удачной, так как в ней отсутствует седловая точка, поэтому для решения данной игровой задачи необходимы специальные приемы. Можно сразу исключить стратегию, состоящую в выборе второй пары точек (1, 3), так как в этом случае при любом положении экстремума заведомо получаются три эксперимента. Для упрощения задачи вначале предположим, что во второй точке максимума быть не может. Остается установить вероятности выбора стратегий (1, 2) и (2, 3). Так как нет никаких оснований для предпочтения одной стратегии перед другой, положим вероятность выбора каждой из них, равную половине. Докажем это поло¬ жение следующим образом. Будем считать, что из общего числа опытов п экстремум в точке 1 встречается nx раз. С помощью датчика случайных чисел выберем стратегию (1, 2) раз и ограничимся двумя опытами. В остальных пх (1 — р) случаях выбе¬ рем стратегию (2, 3) и ограничимся тремя опытами. Величину р найдем исходя из минимаксного критерия. Основываясь на приведенных рассуждениях, считаем, что требуется произвести 2пгр + 3/гх (1 — р) опытов. Разделив эту величину на лх, получим среднее число опытов elt которые необходимо проделать при условии, что экстремум действительно находится в точке 1: Аналогично, если обозначим через п3 число случаев нахождения оптимума в точке 3, то для необходимого количества опытов получим выражение 3п3р + + 2/г3 (1 — р), а для среднего числа опытов формулу Для удовлетворения минимаксного критерия требуется найти такое значение р = Ропт» ПРИ котором минимизируется функция Нетрудно убедиться, что минимальное значение, равное 2,5, для этого выражения достигается при ропт = 0,5. Теперь учтем возможность нахождения экстремума в точке 2. Для этого введем в рассмотрение относительную частоту /7, с которой экстремум появляется в точке /, Среднее число экспериментов при минимаксной рандомизированной стратегии определится как Интересно заметить, что эта величина не зависит явно от Д и /3, е. если природа или противник выбирает наихудшую для нас стратегию (частотьГД и /3), среднее число опытоз остается неизменным при неизменности /2. Теперь отойдем от рандомизированной стратегии и будем считать, что относи¬ тельные частоты fi известны заранее. Тогда, учитывая, что Отсюда, если Д > /3, минимум е достигается при р = 1; если = /3, значение р не оказывает влияния на е\ если /ь< минимум е достигается при р = 0. Поэтому оптимум будет иметь место для = 2р + 3 (1 — р) — 3 — р. ез — Зр + 2 (1 — р) — 2 + р. шах {(3 —р), (2 + р)}; ^опт = 2,5 (1 —/2) + 3/2 = 2,5 + 0,5Д (15-16) (15-17) (15-18) чему соответствует (15-19) 373
Если подставить выражение (15-17) в (15-16), то еопт = 3-0,5 (Ь + /8). (15-20) С помощью формул (15-19) и (15-20) можно получить выражение для выигрыша при детерминированном поиске, когда по сравнению с рандомизированным поиском заранее известны частоты ff. еопт — £ = -g- | fl — /з | 0. Из формулы (15-18) видно, что при известных /у и /3 стратегия становится детер- минирозанной (чистой). Если эти частоты неизвестны заранее, то применяется смешанная стратегия. 15-5. ОСОБЕННОСТИ МНОГОМЕРНОГО ПОИСКА Рассмотрим методы отыскания экстремума в случае, когда функция- критерий зависит от нескольких переменных у = у (хъ х2, ..., хп). Для двух переменных (число опытов п = 2) функция у = у (хг, х2) геометрически изображается поверхностью в трехмерном пространстве. В общем случае имеет ме¬ сто гиперповерхность в (п + 1)-м гиперпростран¬ стве. Поиск экстремума в многомерном случае слож¬ нее, чем в одномерном, по следующим причинам [Л. 92]. Предположение унимодальности критерия в заданной области изме¬ нения переменных является менее вероятным и досто¬ верным при большом коли¬ честве переменных. Эффек- Рис.‘15-13. Пояснение к проблеме размерности тивность В многомерном при многомерном поиске. случае также можно оце¬ нивать по величине остаю¬ щейся площади поверхности неопределенности. Однако так как форма поверхности критерия или отклика заранее неизвестна, нельзя до опытов предсказать форму и величину поверхности неопре¬ деленности, которые определяются после п опытов. Поэтому не суще¬ ствует объективного метода оценки эффективности многомерного по¬ иска и оптимальной в определенном смысле стратегии поиска. Последнее обстоятельство, усложняющее многомерный поиск, связано с уже известным нам проклятием размерности. В данном слу¬ чае геометрически его можно проиллюстрировать с помощью рис. 15-13. Представим себе единичный исходный отрезок неопределенности по од¬ ной координате х, Возьмем от него часть длиной 0,1, т. е. 10% перво¬ начальной длины. Однако если рассматривать двумерную исходную область поиска в виде квадрата со сторонами, равными единице, то квадрат со сторонами 0,1 составит только 1 % общей площади. Это сви- 374
детельствует о том, что для просмотра всей площади (путем просмотра сторон квадрата) требуется, грубо говоря, в 10 раз больше шагов, чем в одномерном случае. Если перейти к трехмерному пространству, то отрезки длиной 0,1 первоначальной длины куба составят куб объе¬ мом 0,001 исходного, т. е. 0,1%, и т. д. 15-6. СЛУЧАЙНЫЙ ПОИСК Достаточно распространен на практике многомерный случайный поиск. Допустим, ведется поиск в трехмерном пространстве — еди¬ ничном кубе, разделенном на 1 000 одинаковых кубических областей. Каждой области можно поставить в соответствие значение критерия эффективности. Вероятность найти одну из ста лучших ячеек 100 А . Р 1 000 1 * Вероятность противоположного события представится как 1 — 0,1 =0,9. Если имеются две пробы, то вероятности неудачных событий (не на¬ шли ячейку) при двух попытках можно считать независимыми и веро¬ ятность неудачи будет равна (0,9)2 = 0,81, а вероятность удачи — 1 —0,81 = 0,19. Заметим, что исходный интервал неопределенности здесь сводится к 10%-ному. В общем случае вероятность получения 10%-ного интервала неопределенности /7(0,10) = 1 —(0,9)-. После п = 16 опытов р (0,10) = 0,84; после п = 44 опытов р (0,10) = ^ 0,99, т. е. получаем практически достоверное событие. В одномерном пространстве уменьшение исходного интервала в 10 раз требовало бы 18 опытов при параллельном (пассивном) поиске и шести при последовательном. Из этого примера видно, во что обхо¬ дится увеличение размерности. В общем случае, если требуется сокра¬ тить исходную область неопределенности в 1// раз, необходимо иметь т. е. „ logfl-P(f)] log (1-ft * Метод случайного поиска обладает тем преимуществом, что не тре¬ бует никаких предположений о поверхности отклика. В частности, эта поверхность может быть многоэкстремальной. С помощью этого метода,- выбирая достаточно малые ячейки, можно обнаружить все локальные экстремумы и выбрать из них наилучший. Однако в данном изложении он по существу является пассивным методом со всеми его недостатками. Усовершенствовать его можно, преобразовав в после¬ довательный, для чего каждую последующую точку следует выбирать вблизи предыдущей случайным, но оптимальным образом и превращать в новый центр рассеивания и т. д. Причем для выбора последующей точки необходимо использовать методы планирования эксперимента. 375
15-7. МЕТОД ИСКЛЮЧЕНИЯ КАСАТЕЛЬНЫМИ Большинство методов многомерного поиска использует геометриче¬ скую интерпретацию, в частности изображение поверхности отклика У — У (*i> х2, ..., хп) с помощью линий уровня у = const (рис. 15-14). В случае двух переменных Точна оптимума х^ уравнение касатель- ^ У/^еротнлина н°й плоскости к поверхно- горизонтальная сти отклика имеет вид: плоскость У (хъ х2) = т0 + тххх + т2х2. Обычно задают отклоне¬ ния новой точки х1 с коор¬ динатами (х\, х\) относи¬ тельно начальной точки х° с координатами (xj, х2): Ах{ =х\ — х\\ кх\ = х\ — х\\ hy\ = tf{x\, х°2)-у0; Ьу\ = Уг{А> х\)-у0\ у° = у(хЪ xi). Тогда приближенное урав¬ нение касательной плоско¬ сти в точке х° в прираще¬ ниях имеет вид: Д у = т1Ах1 + т2 Д*2, причем коэффициенты т1 и т2 определяются следую¬ щим образом: \дхх /хо ’ Линии дробней Рис. 15-14. Линии уровней для двумерного случая. т 1 = т2: Ах\ Ах:, ду\ дх2 До (15-21) т. е; они примерно равны соотв етств у ющи м ч аст н ы м производным от функции отклика. Метод исключения ка¬ сательными к линиям уров¬ ня состоит в том, что иск¬ лючается поверхность от¬ клика, лежащая по одну сторону от вертикальной плоскости, проведенной через касатель¬ ную к линии уровня в точке х°, у0. Нетрудно убедиться с помощью рис. 15-15, что касательная к линии уровня в точке х° является проекцией на плоскость хх> х2 линии пересечения горизонтальной 376 Рис. 15-15. Горизонтальная и касательная пло¬ скости к поверхности отклика и проекция их линии пересечения.
и касательной плоскостей к поверхности отклика, проходящих че¬ рез точку у0. После трех экспериментов (хс{, х%), (лг”, х[), (х[, л:?), с помощью которых по формулам (15-21) определены т1 и т2, интерес представляют только те Длгх и Ах2, для которых Ау > 0 или т1Ах1 + т2Ах2 >> 0. Границей Рис. 15-16. Пояснение к методу исклю¬ чения касательными. Рис. 15-17. Метод исключения каса¬ тельными. исключаемой и оставляемой областей будет прямая т1Ах1 + т2Ах2 = = 0. Нетрудно убедиться, что она совпадает с касательной к линии уровня у = const = Уо в точке х° (рис. 15-16). Чтобы завершить процедуру поиска, необходимо выбрать способ нахождения следующей точки для испытания в оставленной области Ау > 0 (рис. 15-17, области I к II). Существует несколько способов вы¬ бора начальной точки для экспе¬ римента. В простейшем случае выбира¬ ется средняя точка области с коор¬ динатами (*;, ..., хЦ), где „о _ (5/+ */) . 1 2 ’ Si = min Xi\ ti = max X/. У метода исключения касатель¬ ными есть один существенный недо¬ статок, заключающийся в том, что он применим только к строго унимо¬ дальным функциям отклика. Строго унимодальная функция обладает таким свойством, что по прямой, проведенной из любой точки а в области эксперимента к вершине хопт, траектория будет возрастающей. Приме¬ нение рассмотренного метода к нестрого унимодальным функциям может привести к исключению из рассмотрения экстремальной точки Рис. 15-18. Неприменимость метода исключения касательными при наличии оврагов. 377
хопт (рис. 15-18). Иногда говорят о наличии оврагов у функции отклика в этом случае. Однако в отличие от наиболее распространенного метода градиента эта процедура менее чувствительна к изменению масштаба. 15-8. ГРАДИЕНТНЫЙ МЕТОД Метод градиента предполагает движение по нормали к линиям уров¬ ней (рис. 15-19). Основная проблема заключается в выборе величины каждого дискретного шага. Шаги могут быть постоянными и перемен¬ ными. Этот метод вполне естествен. Здесь характерен пример с вос¬ хождением на гору: метод градиента обеспечивает наибыстрейшее до¬ стижение вершины. В этом случае линиями уровней будут проекции линий пересечения горизонтальной плоскости с поверхностью горы. Аналитически метод градиента мо¬ жет быть записан в виде ;Л+1 '• -\-'к ду_\ AXi ~ dxt ^ Ах = X grad уу где X — некоторый постоянный или переменный параметр, определяю¬ щий величину шага; k — номер шага; у — функция цели. Если аналитически производные определить невозможно, в про¬ стейшем случае их вы¬ числяют приближенно: ду А у dxi ~ Axi * где Д у — приращение функции у при измене¬ нии переменной х{ на ве¬ личину Axh В точке экстремума градиент ра¬ вен нулю. Модификаций метода градиента много, но нет единообразия в терми¬ нологии. Здесь будут рассмотрены различные модификации, которые не всегда относят к классу градиентных мето¬ дов и которым в литературе можно найти иное название. Если подъем или спуск происходит поочередно по каждой коорди¬ нате хъ х2, хп, то имеет место метод, часто называемый покоординат¬ ным спуском (подъемом) или методом Гаусса — Зейделя (рис. 15-20, ломаная линия а). Движение осуществляется по одной координате xv Рис. 15-20. Методы покоординатного (а), градиент¬ ного (б) и наискорейшего спусков (в). 378
до тех пор, пока не станет равной нулю соответствующая производная, т. е. — = 0, y = F (хъ х2, ..., хп) (все остальные координаты сохраняют постоянное значение Xj = const). После этого спуск начинается по другой координате. Обычно начинают с хъ потом л:2 и т. д. После того как произведен спуск по всем координа¬ там, начинают повторно с хг и т. д. Процесс поиска заканчивается, когда все производные будут равны нулю, т. е. dF Л • 1 о а^=°> /=1’2 ". точнее, все производные будут меньше порога чувствительности. Следующая модификация — метод наискорейшего спуска. Направ¬ ление градиента определяют *в начальной точке [grad F]xo и далее в этом направлении осуществляют спуск до тех пор, пока производная dF/dx, взятая вдоль этого направления, не обратится в нуль (линия в). После этого снова определяют направление градиента и осуществляют по нему спуск до нулевого значения производной и т. д. Классический метод градиента предполагает движение по кривой градиента, нормальной к линиям уровней (линия б на рис. 15-20), и при малом шаге A Xj = x)+l — х) может быть описан следующим диф¬ ференциальным уравнением: = —A,gradF(x). Это уравнение используют при реализации градиентного метода на не¬ прерывных устройствах. а) Метод Ньютона Близким к методу градиента является метод Ньютона, который широко используется для отыскания нулей функции. Для простоты рассмотрим функцию одной переменной F (л;) (рис. 15-21). Итерацион¬ ный процесс отыскания нуля функции [JI. 93] определяется формулой = Л;* + £М-. F(x'<) Геометрически процесс отыскания нуля функции по методу Ньютона заключается в проведении касательной к кривой у = F (х) в точке х/г, уравнение которой задается соот¬ ношением > ч г-, , ^, ьч , ьч Рис- 15-21. Метод Нью- y(x) = F (хк) + F (хь) (х — хк). тона. Точку пересечения касательной с осью абсцисс принимают за новую точку, в которой проводят следующую касательную и т. д. Этот метод в отличие от метода градиента не гарантирует сходимо¬ сти. Для улучшения сходимости используют модифицированный метод 379
Ньютона, который вводит шаг 0 < кк < 1. При этом процесс отыскания нуля задается формулой k F (**) F{xk) Существуют методы выбора Xk, при которых обеспечивается сходи¬ мость. б) Метод секущих Более простым для вычислений по сравнению с методом Ньютона является метод секущих, хотя он обладает более медленной сходи¬ мостью. Через х° и х1 обозначим две точки, в которых функция одной пере¬ менной у = F (х) имеет разные знаки (рис. 15-22). Уравнение секущей, проведенной через две точки U°, Z7 (х°) J, [х1 , F (л:1)], будет иметь вид: у-- F(xx) — F(x0) , F (л;0) xx — F{x') л:0 -х° X1 —х° Точку х2 пересечения этой прямой с осью абсцисс определим из формулы 2 F (я1) x°—F (х°) хх F(x')-F{x») Рис. 15-22. Метод секущих. и примем за следующее приближе¬ ние. Очередную секущую проведем через точки [х°, F (х0)] и [х2, F (х2)] и т. д. В общем случае итерацион¬ ный процесс задается формулой ь+1 F (xk) x° — F(x°) х* F (xk) — F (x°) ‘ В отличие от метода Ньютона здесь не требуется на каждом шаге вычислять производные, достаточно определить только значение самой функции. Можно показать, что метод Ньютона является методом градиент¬ ного спуска по поверхности параболоида Ф = 2 [^]2 в пространстве переменных %i% где ф(хМ4г)2- 15-9. ОВРАЖНЫЙ МЕТОД Если топография поверхности имеет овражный характер (рис. 15-23), то градиентный метод становится малоэффективным, так как движение будет происходить последовательно с одного склона на другой с оцень медленным продвижением к точке минимума хопт. 380
В связи с этим разработано много эвристических методов ускорен¬ ного продвижения вдоль оврага или гребня, которые так или иначе основаны на релаксационном методе, являющемся обобщением рас¬ смотренных методов. В общем случае релаксационный итерационный метод основан на следующей формуле: (15-22) Один метод отличается от другого выбором матрицы Bk. Так, градиентный метод прлу- чается, если В/г = ЯЕ, где Ё — единичная матрица. Метод поко¬ ординатного спуска может быть получен из формулы (15-22), если в матрице В/г все элементы, кроме одного, расположенного на диа¬ гонали, равны нулю. На каждой итерации положение ненулевого элемента выбирается заново. При первом овражном методе [Л. 93] задается малое положитель¬ ное число ev В очередной точке х/г вычислим все производные dF/dxj. Далее осуществим градиентный спуск, полагая равными нулю произ¬ водные, абсолютное значение которых меньше еь т. е. dF Рис. 15-23. Линии уровней при наличии оврагов. дх. :81в Этот метод обеспечивает быстрый спуск на дно оврага. Для ускорен¬ ного движения по дну оврага вводят другое большое поло¬ жительное число e2J>l. Опять используют метод гра¬ диентов, но полагая равными нулю все те производные, для которых dF дх, >е2. /г'О Рис. 15-24. Метод оврагов. Другой метод ускоренного движения по оврагу заклю¬ чается в следующем. Вначале выбирают две близкие точки х° и х° и из них градиентным методом спускаются с малым шагом в точки х1 и х1 соответственно. Далее через них проводят прямую и вдоль нее делают большой овражный шаг X в точку х2, где процесс повторяется и определяется новое направление овраж¬ ного шага (рис. 15-24). 381
15-10. МЕТОДЫ ОТЫСКАНИЯ ЭКСТРЕМУМА В УСЛОВИЯХ ПОМЕХ Быстрая сходимость при наличии помех может привести к асимпто¬ тической ошибке, т. е. поиск будет сходиться к неправильному значе¬ нию. Основным ограничением в скорости уменьшения интервала поиска является уровень шумов [Л. 92]. Допустим, требуется найти нуль хотп функции у(х), измерение зна¬ чений которой г {х) производится с ошибками. Сделаем ограничения относительно помехи. Будем счи¬ тать, что у(х) — несмещенная оцен¬ ка функции г (л:), т. е. М {z{x)}=y(x). Очевидно, что у(х) является функ¬ цией регрессии для случайного про¬ цесса г(х). Далее предположим, что дис¬ персия ошибки есть величина ог¬ раниченная, т. е. ol (х) = М {О (х) - у (*)]} < ОО. (15-23) В процедуре Робинсона — Монро х изменяется по закону xk+1 = xk — ykz (.xk), где xk и x*+1 — значения x в k-м и (k + 1)-м экспериментах; z (xk) — результат измерения на k-ы шаге. Смысл стохастической аппрокси¬ мации очень прост: на каждом шаге коррекцию вносят пропорциональ¬ но значению функции, измеренному на предыдущем шаге. Допустим, что помеха отсутствует или мала (рис. 15-25). Тогда в зависимости от вида функции и значения коэффи¬ циента ук возможны два случая: в результате коррекции точка хк*г или не дойдет до нуля функции у(х) (рис. 15-25, б), или перейдет за него (рис. 15-25, а). В первом случае процесс поиска монотонно схо-' дится к нулевой точке, во втором случае он носит колебательный харак¬ тер. При наличии помех процесс носит тот же характер. Коэффициенты ук определяют тангенс угла, образованного гипотенузой треугольни¬ ков с вертикальной прямой (рис. 15-25, б): ь Хк+1 — Хк -У =-F(?r- В методе стохастической аппроксимации ук задаются заранее и должны 382 Рис. 15-25. Пояснение к методу поис¬ ка нуля функции.
удовлетворять определенным условиям. Во-первых, для сходимости процесса поиска необходимо, чтобы Нту* = 0, (15-24) во-вторых, последовательность величин уп не должна сходиться, т. е. 2у* = °°; 2(vft)2<co. (15-25) k=\ k=\ В этом смысле в качестве yk можно выбирать гармоническую последо¬ вательность: Не вдаваясь в сложные математические выкладки, условие (15-25) можно объяснить следующим образом. Если длина шага уменьшается в соответствии со сходящимся рядом, то процесс может не дойти до нуля, так как величина общей коррекции ограничена. Очевидно, что ряд оо 2 Jp при р>1 k=\ сходится, т. е. 1 kP < СО- k=\ а при р ^ 1 расходится, т. е. k=\ (15-26) рис 15-26. Геометрический смысл коэффициента у. Однако ряд, составленный из квадратов коэффициентов, должен схо¬ диться: 2](т*)в<~. (15-27) k=1 Этому .условию опять удовлетворяет гармоническая последователь¬ ность оо 1 1 , 1 . 1 +Т + 9-+•••< оо. k=\ Смысл этого условия заключается в том, что случайная составляющая о должна уменьшаться с ростом k. В силу изложенного чаще всего в качестве последовательности коэф¬ фициентов коррекции выбирается гармоническая последовательность. Наконец, имеется еще одно условие, которому должно удовлетво¬ рять множество значений х и г (х). Так как коррекция на каждом шаге 383
пропорциональна значению z (х) на предыдущем шаге, то надо быть уве¬ ренным, что величины z (хк) ограничены. Выше было наложено огра¬ ничение на величину диЬперсищ ошибки у (х) — г (х)у поэтому доста¬ точно потребовать, чтобы была ограничена функция регрессии (рис. 15-27): \у\<А |х —*опт| + Ж°о. (15-28) Величины А и В должны быть конечны, но не обязательно известны. Если величина А известна хотя бы приближенно, то можно ускорить Рис. 15-27. Пояснение к методу Робинсона — Монро. поиск. Робинсон и Монро доказали, что при условиях (15-23) — (15-27) эта процедура сходится в среднеквадратичном смысле, т. е. lim М {{xk — хопт)} = 0. tl-Юо Блюм доказал, что эта процедура сходится с единичной вероятностью: Р|П mxk = xonT^ = 1. Мы не будем заниматься доказательством сходимости, с этим можно познакомиться в книге Уайльда [Л. 92], где обе эти теоремы следуют из более общей теоремы Дворецкого. Укажем, что в многомерном случае, когда х и функции у и z представляют собой векторы х* = {х*, х\, ..., **}, А=1, 2, ..., N\ У ={Уъ У2, •••> Уп)\ Z = {Ziy 2^2, • • • » ^п\у процедура Робинсона — Монро при аналогичных условиях обеспечи¬ вает сходимость к нулю хопт вектор-функции у(х). В этом случае про- 384
цедура запишется в виде xk-\-l = xk — ykz (х) или хк+{ — хк — ykzr (х); xk+i = xkr-ykzr(xlt x2t ..., хп). Однако при многомерном варианте остается неясным выбор последова¬ тельности координат г = 1, 2, /г, по которым следует делать шаги. В конце параграфа будут приведены некоторые конкретные варианты выбора последовательности. При отыскании максимума функции для одномерного случая в условиях помех следует написать формулу для метода Робинсона — Монро применительно к производной у (х), обозначив ее измерение через г (х). Тогда получим: хк+г = хк + ykz (.хк), т. е. процедура стохастической аппроксимации в этом случае изменяет шаг пропорционально производной от функции на k-м шаге или про¬ порционально градиенту в многомерном случае. Таким образом, это просто градиентный метод. Но в результате дифференцирования функ¬ ция г (хкУ гораздо сильнее загрязнена шумами [больше отличается от у (xk), чем г (х) от у (х)]. Кифер и Вольфовиц предложили не дифферен¬ цировать функцию, а изменять шаг пропорционально величине z(xl{ + bk) — z(xk — bk) 2 bk где bk — некоторая постоянная. Очевидно, что при малом bk эта вели¬ чина пропорциональна производной г (рис: 15-28). Поэтому процедура Кифера — Вольфовица для одномерной задачи задается формулой Xk+1 = xk _l_ук[£(** +6^-^(**-6*)] ^ (15.29) 13 Основы кибернетики 385
где yk — положительные числа. Коэффициенты должны удовлетворять условиям Пту/г = 0; k->CO \\mbk = 0; k-+co 2 ук = оо; k=\ yk \ 2 ЬЧ <Соо. k=\ а) Для сходимости необходимо выполнение не очень жестких ограни¬ чений. В том числе требуется, чтобы значения среднего углового коэф¬ фициента функции регрессии у (х) для любой пары наблюден¬ ных точек лежали в пределах некоторого сектора, ограничен¬ ного прямыми линиями: IУ (^2) У C^i) I А \х2 хоп г | -Г В .оо » где х0ПТ — истинная координата вершины; хг =^= х2. Это условие аналогично условию (15-34) в случае процедуры Робинсона — Монро. Имеются также условия, ана¬ логичные несмещенности оценки и ограниченности дисперсии по¬ мехи. При этом доказано, что процедура сходится (т. е. про¬ цесс сходится к точке максиму¬ ма) как в среднеквадратичном, так и в вероятностном смысле при условии одного максимума (унимодальной функции). Еще раз напоминаем, что как метод Робинсона — Монро, так и метод Кифера — Вольфовица по существу являются градиент¬ ными методами отыскания экст¬ ремума. Если производная (или градиент) велика в данной точке (например, крутая гора), необходим большой шаг, так как k-я точка находится далеко от экстремума (вершины). При малой производной шаг в соот¬ ветствии с формулой (15-29) становится меньше, чтобы не «проскочить» экстремум (вершину). Для многомерного случая идеи методов Робин¬ 386 5) Рис. 15-29. Пояснения к многомерному поиску. а — метод Блюма; б — метод Сакса.
сона — Монро и Кифера — Вольфовица реализуются в методах Блюма и Сакса. При многомерном поиске по методу Блюма (рис. 15-29, а) очередной наклон касательной в точке хк определяется по замерам в этой и других точках, отличающихся от хк тем, что к каждой координате добавляется величина ск. Если обозначить через е;- единичный вектор с /-й коорди¬ натой, равной единице, и всеми остальными координатами, равными нулю, то аналитически испытуемые точки запишутся в виде Xq = Xй; х* = хк + скег\ хк = хк + ске2\ хк = хк + скеп. В качестве градиента в методе Блюма используется вектор с компо¬ нентами где z/ = z (ху) — величина замера в точке X/, которая из-за ошибок отличается от истинного у/. Сама процедура поиска запишется как _/г^1 г/г , yk[(zk-zk), (zk-zk), ..., (z*-zfe)] X “—X -\ , где ук — текущая длина шага. Для сходимости величины ук и ск должны удовлетворять тем же условиям, что и в одномерном методе Кифера — Вольфовица. Однако, как показал Сакс, из-за асимметричности точек возможно их группирование около ложного положения экстремума, что замедляет поиск. Поэтому Сакс предложил симметричную процедуру поиска, требующую двух экспериментов по каждой координате. В соответст¬ вии с рис. 15-29, б к точкам х? необходимо добавить еще п точек: xkv = хк — ске±\ хк2 ~ хк — ске2\ Так как в точке Хп эксперимента не производится, то метод Сакса тре¬ бует 2п точек по сравнению с п + 1 точками в методе Блюма. Тогда процедура симметричного поиска запишется в виде
Глава шестнадцатая ЛИНЕЙНОЕ ПРОГРАММИРОВАНИЕ Большинство задач оптимизации в кибернетике относится к нели¬ нейным. Однако решение нелинейных задач — это сложная вычисли¬ тельная проблема, не всегда доступная современным вычислительным машинам. Поэтому практически во всех разделах кибернетики для решения нелинейных задач используются приближенные методы реше¬ ния. Сущность этих методов состоит в том, что исходная постановка задачи сводится к одной линейной задаче или их совокупности. Таким образом, линейное программирование выделяется среди других мето¬ дов программирования как основа для многих процедур решения [Л. 77, 94 — 96]. 16-1. МАТЕМАТИЧЕСКАЯ ФОРМУЛИРОВКА ЗАДАЧИ Математически задача линейного программирования ставится сле¬ дующим образом: ищется максимум линейной формы (функции цели) п L = CiXi 4“ #2*2 СпХп = 2] #/*/ (16-1) 1=1 при условиях #/i*i + ai2x2 +.., + ainxn < i = 1, 2, ..., т\ т>п или - ацхг - ai2x2 -... - ainx„ + bt ^ 0. Словесно задачу линейного программирования можно сформули¬ ровать так: требуется найти максимум линейной формы от п перемен¬ ных при т ограничениях в виде неравенств или равенств. Нетрудно убедиться, что всегда можно говорить только о равенствах, так как введением дополнительных или слабых переменных хп+v (v = 1, ... ..., р т) неравенства всегда можно свести к строгим равенствам. Так, ограничение а{i*i + ща*! +... + ainxn < bt (16-2) можно свести к равенству, добавив переменную xn+ii #/1*1 4~ Я/2*2 4~ • • • 4" ainxn 4“ *л+1 = bi. (16-3) Тогда условие (16-2) сведется к (16-3) и условию неотрицательности переменной хп+г, Поэтому можно сказать, что при решении задачи ли¬ нейного программирования определяются такие значения п переменных Xjy которые бы обращали в максимум линейную форму L = c±Xi -(- #2*2 4" • • • "Г* #я*я при условии выполнения т равенств #/1*14~ #/2*2 4“ • • • 4" #/л*я = i — 1 > 2, ..., rn, 388
16-2. РАССМОТРЕНИЕ ПРИКЛАДНЫХ ЗАДАЧ Прежде чем дальше развивать теорию линейного программирова¬ ния, целесообразно рассмотреть несколько практических задач, кото¬ рые сводятся к линейному программированию. а) Транспортная задача В трех месторождениях добывается определенное количество угля. Имеются три пункта потребления угля. Известны, расстояния между пунктами добычи и потребления и стоимость перевозок (i = 1, 2, 3; / = 1, 2, 3). Необходимо так определить девять чисел xtj, озна¬ чающих количество грузов, перевозимых с пункта добычи на пункт потребления, чтобы суммарная стоимость перевозок была минимальна: L = ^CijXij = min ч при условиях *iy + *2/ + *з/ = bj, /= 1, 2, 3, требующих, чтобы спрос bj удовлетворялся во всех пунктах, и при усло¬ виях xn+xi2 + xi3 = ah /= 1, 2, 3, требующих, чтобы из каждого пункта добычи вывозилось угля не больше количества ah которое на нем производится. Как правило, в таких задачах считается, что сумма добытого коли¬ чества равна сумме потребляемого, т. е. з з = ь)> i= I /=1 хотя это ограничение непринципиально. б) Задача о рациональном питании При правильном питании калорийность пищевых продуктов должна полностью возмещать расход энергии человека, причем потребление отдельных растительных и животных жиров, белков, углеводов и вита¬ минов не должно превышать определенную норму. Придадим такой трактовке математическую форму. Предположим, имеется п различ¬ ных продуктов калорийностью агj (j = 1,2,..., п), равной числу кало¬ рий в .единице массы. В единице массы /-го продукта содержится а2/ жиров, a3J белков, aAJ углеводов. Обозначим через Ьъ Ьъ b3, Ь4 потреб¬ ность организма в энергии, жирах, белках и углеводах соответственно. Тогда при правильном питании должны выполняться следующие соотношения: #11*1 + #12*2 + • • • + ttinxn ^ Ьх, 021*1 + а22х2 +... ■+ а2пхп ^ Ь2\ #31*1 + #32*2 + • • • + #3/г*л ^ Ь3\ #41*1 + #42*2 + - • ♦ + аАпХп ^ 64, где Xj ^ 0 —- количество потребления /-го продукта. 389
Если ввести требование экономного расходования средств, то это эквивалентно критерию . п L = ^>]c/Xj = min. /=i Если поменять знаки Ьъ (/ = 1, 2, /г), то первое уравнение запишется в виде яп*1 + ^12*2 +. • • + аыхп ^ Ьъ После этого задача о рациональном питании приобретает стандартный вид задачи линейного программирования. в) Задача об использовании ресурсов Предприятие имеет определенное количество ресурсов: рабочую силу, сырье, оборудование и т. д. Для простоты будем считать, что число ресурсов равно трем, и каждого ресурса имеется Ьъ Ь21 b3 услов¬ ных единиц. Предприятие выпускает два вида товаров. Для производ¬ ства единицы каждого товара затрачивается atj ресурсов. Известна стоимость ct единицы каждого товара. Требуется при данных ресурсах выпустить такую комбинацию товаров хг и х2, чтобы доход предприятия L был максимален. При линейной зависимости стоимости продукции от количества продукции задача записывается в виде L = Ci*! + с2х 2 = max; 0*1*1 + 0/2*2 < bt\ i = 1, 2, 3; О и относится к классу задач линейного программирования. Если стои¬ мость товаров не зависит линейно от их количества, то имеет место задача нелинейного программирования. г) Задача о загрузке транспорта Пусть имеется транспортная единица грузоподъемностью b, кото¬ рую необходимо загрузить различными предметами Xj в разных коли¬ чествах, причем Су — стоимость; Wj — вес отдельного предмета /-го типа. Например, загружаются автомобили, тракторы, самолеты. Требуется определить оптимальную загрузку так, чтобы стоимость перевозимого груза была минимальной. Очевидно, что стоимость всего перевозимого груза задается фор¬ мулой п L = I] cixi■ /= 1 Необходимо найти такие целые числа Xj (/ = 1, ..., п), при которых эта линейная форма приняла бы максимальное значение при условиях
В отличие от предыдущих в этой задаче число ограничений i — 1. Она существенно отличается от ранее рассмотренных тем, что в ней искомые значения величин х{ — целочисленные. Поэтому ее можно отнести к задачам целочисленного линейного программирования, кото¬ рые решаются различными способами, рассмотренными в гл. 18, в том числе и с помощью динамического программирования. 16-3. ГЕОМЕТРИЧЕСКАЯ ИНТЕРПРЕТАЦИЯ ЗАДАЧ ЛИНЕЙНОГО ПРОГРАММИРОВАНИЯ В решении задач линейного программирования часто пользуются геометрическими интерпретациями в разных вариантах. Система неравенств (16-2) определяет в пространстве хъ ..., хп выпуклую область — выпуклый многогранник или многоугольник. Для простоты рассмотрим слу¬ чай для п = 2 переменных: 0n*i “1" 012*2 ^ 0; 021*1 + 022*2 + ь2 < 0; (16-4) 0/п1*1 + 0/п2*2 + Ьт ^ 0. Каждое из этих соотношений определяет область, лежащую по одну сторону от прямой:. 0/1*1 0/2*2 bi = 0. Выпуклой называется такая область G векторной переменной х, для которой справедливо сле¬ дующее свойство: если из лю¬ бых двух значений векторов х1 и х2, принадлежащих этой об¬ ласти (х1 gG, х2 е G), образовать выпуклую линейную комбинацию хг = Хх1 + (1 — X) х2, (16-5) где X — произвольное действительное число, для которого 0 ^ X с 1, то вектор х3 также будет принадлежать этой области: х3 е G. На рис. 16-1 изображены выпуклая и невыпуклая области значений х1 и х2. Действительно, если на рис. 16-1, б выбрать точку х3, равную линейной комбинации точек х1 и х2, то она не будет принадлежать за¬ штрихованной области, и поэтому эта область не будет выпуклой. С дру¬ гой стороны, нетрудно убедиться, что для любых двух точек, принад¬ лежащих заштрихованной области на рис. 16-2, а, выполняется усло¬ вие (16-5), и поэтому эта область является выпуклой. Рис. 16-1. Выпуклая (а) и невыпуклая (б) области значений переменных. 391
Линейная форма (16-1) в случае двух переменных принимает вид L = С1Х1 + с2х 2. (16-6) Это — уравнение прямой в плоскости (хъ х2), пересекающей оси лд их2 в точках Ысх и L/c2 соответственно (рис. 16-2). Величины сх и с2 определяют наклон прямой (угол наклона к оси хх задается формулой cos а.= cjYс\ + с\), L определяет расстояние от начала ко¬ ординат до прямой, которое находится из формулы d = L/Yс\ + с~. Теперь можно дать геометрическую интерпре¬ тацию задачи линейного программиро¬ вания. Если требуется определить такие хх и х2, которые придали бы линейной форме минимальное значение, то гео¬ метрически это означает, что необходимо провести прямую L (16-6), проходящую хотя бы через одну точку области и имеющую минимальное расстояние d от начала координат (рис. 16-3, а). В случае максимизации это расстояние должно быть максималь¬ ным (рис. 16-3, б). Могут пред¬ ставиться два варианта: прямая имеет с допустимой областью G одну общую точку в вершине об¬ ласти или совпадает с одним из ее ребер. Во втором варианте Рис. 16-2. Геометрическая интер¬ претация линейной функции цели. Рис. 16-3. Геометрическая интер¬ претация задачи линейного прог¬ раммирования для случаев ми¬ нимума (а) и максимума (б). Рис. 16-4. Геометрическая интер¬ претация задачи линейного программирования для вырож¬ денного случая. (рис. 16-4) имеет место вырожденный случай, т. е. линейная функ¬ ция цели совпадает с левой частью одного из ограничений. 392
16-4. РЕШЕНИЕ ЗАДАЧ ЛИНЕЙНОГО ПРОГРАММИРОВАНИЯ СИМПЛЕКС-МЕТОДОМ Задачи линейного программирования удобно решать симплекс- методом — специальным методом оптимального (направленного) пере¬ бора. Он заключается в последовательном переходе от одной вершины области допустимых значений к другой, соседней, в которой значение функции цели лучше, чем в исходной точке. Движение происходит по периметру контура двумерной области или в случае более двух пере¬ менных по ребрам многомерного многогранника. Более оптимальным, строго говоря, был бы путь не по периметру (или ребрам), а поперек области или вдоль грани, или внутри объема многогранника к оптималь¬ ной вершине. Аналитически доказывается, что: экстремум в задачах линейного программирования —единственный, т. е. локальный экстремум одновременно является и глобальным и достигается на границе области допустимых значений, как правило, в вершине (при этом исключаются из рассмотрения особые случаи, в том числе случаи достижения экстремума на множестве точек, рас¬ положенных на ребре выпуклой области допустимых значений); симплекс-метод обеспечивает сходимость к экстремальной точке за конечное число шагов (конечность симплекс-метода), так как он пре¬ дусматривает последовательный оптимальный просмотр вершин много¬ гранника, число которых конечно, и (при определенных оговорках) является оптимальной процедурой отыскания экстремума. Исходная формулировка задачи должна содержать только положи¬ тельные переменные и равенства, а не неравенства-равенства. Если этого нет, то изменением начала координат всегда можно добиться положи¬ тельности всех координат в допустимой области, а введением допол¬ нительных положительных переменных свести неравенства к равен¬ ствам. Геометрически этот метод означает следующее. На первом шаге выбирают любую вершину многогранника и проводят через нее пря¬ мую— функцию цели. Решения (конкретные значения хъ х2), соот¬ ветствующие вершине, будут опорными (базисными). По найденным значениям хъ х2 и функции цели находят направление к другой вершине (второй шаг), в которой функция цели возрастает (или убывает, если ищется минимум). В результате получают второе опорное решение. Симплекс-метод дает оптимальную последовательность шагов, приво¬ дящую к оптимальному решению, если оно существует. Наглядная геометрическая интерпретация процесса нахождения оптимального решения получится, если от исходной прямоугольной системы координат (х1у х2) перейти к двумерной косоугольной системе введением дополнительных неосновных свободных переменных Уyj = Xn+v> v=l, ..., т в соответствии с равенством (16-3). Тогда для случая двух переменных имеем: yv = -#vlAl Т" #v2-^2 ~\~ 393
В качестве преобразующих формул можно выбрать любые из соотно¬ шений (16-4). При этом в области допустимых значений yv положитель¬ ны. Из всего многообразия набора новых переменных yv следует выб¬ рать такую систему координат, в которой бы новое начало координат у = 0 совпадало с одной из вершин многогранника. В противном слу¬ чае придется приближать новое начало координат к одной из вершин многогранника. (16-7) (16-8) Рис. 16-5. Геометрическая интерпретация симплекс- метода' для двумерного случая (для примера 16-1). Пример 16-1. Максимизируем функцию L = — 4х} + *2 = max при ограничениях *i + 4*2— 8 ^ 0; 1 2*х — *2 + 2 0; — *х — *2+ 10 ^0; — *1 + 2лг2 + 2^0. Для этого перейдем от прямоугольной системы координат (*ь *2) к косоугольной (Уъ Уъ) (Рис- 16-5), для которой y1 = -x1 + 2xt+2 = xa; | Система j Уг = х i +4*2 —8 = *4. J В новой системе I осями координат будут прямые уг = 0, у2 = 0, совпадающие с ребрами AD и АВ, начало координат совпадет с вершиной А, координаты которой *! = 4, *2 = 1. Функция цели примет вид: / И . 17 7 1R L = — 4*i + x2 = -g- г/!—-g z/„— 15, так как 2 I 1 I A *i = — у У1 + -3^2 + 4; *2 = 6 ^"6 394
В начале координат (точка А) уг = х3 — 0; у2 = х4 = 0; LA = —15. Функция цели возрастает при увеличении ух = х3, поэтому следует двигаться в положитель¬ ном направлении оси ух — х3\ у2 = х4 — 0 и в вершине В перейти к новой системе координат: У г = *4 = + 4*2 8; | Система ц Уз = хъ = 2х1 — х2 + 2 ) (точка пересечения прямых у2 = 0, у3 = 0 определяет вершину В). Выражая из формул (16-8) хх и х2 через у2 и у3, получаем: 1 , 4 *1= д" Уг+д-У* 2 1 . о *2=-д У2 — -д Уз + 2. Подставляя эти выражения в линейную форму (16-7), имеем: 2 Г = — 4л:х + л:2 = — у2 — 2у3 + 2. Отсюда значение функции цели в вершине В Lb = +2. Поскольку оба коэффициента при у2 и у3 в линейной форме отрицательны, уве¬ личивать ее значение, оставаясь в пределах ограничений (16-8) (т. е. внутри много¬ угольника A BCD), больше невоз¬ можно — максимум достигнут. Заметим, что на рис. 16-5 граница области соответствует прямым yi = 0 (i = 1, 2, 3, 4). Однако нумерация всей косо¬ угольной системы координат ме¬ няется на каждом шаге. Так, на первом шаге прямая AD является осью */2, а прямая АВ— осью ух\. на втором шаге прямая А В яв¬ ляется осью у3, а прямая ВС — осью у2. Косоугольная система координат будет выбрана не¬ удачно, если У\ — —Х\ + 2л:2 + 2 = х3\ Уз = 2*i *2 “Ь 2 = х$. В этом случае начало коор¬ динат (ух = х3 = 0; у3 = *6 = 0) придется на точку Е с координа¬ тами хг = —1,5; *2 = —2, не принадлежащую области допу¬ стимых значений. Общее правило выбора начальной вершины за¬ ключается в том, что она должна лежать на пересечении пары осей косоугольных координат yi = 0 (i = 1, 2, ..., т) и при подстановке ее координат в другие ог¬ раничения остальные координаты yj должны быть положительны, т. е. точка долж¬ на принадлежать допустимой области. При большом числе переменных геометрическая интерпретация не так удобна и целесообразно найти аналитический алгоритм определения оптимального решения. В симплекс-методе, как это показано на примере 16-1, признаком движения вдоль грани является положительность знака коэффициента линейной функции цели, выраженной через косоугольные координаты. Двигаться к очередной вершине следует в положительном направле¬ нии той косоугольной координаты г/*, при которой коэффициент поло- Рис. 16-6. Геометрическая интерпретация симп¬ лекс-метода для трехмерного случая. 395
жителей, причем в случае многих переменных L = с1у1 + с2у2 +.,. + стут этот коэффициент должен быть наибольшим. При многих переменных геометрическая интерпретация симплекс-метода с помощью косоуголь¬ ной системы координат сохраняет свою силу, только число координат должно быть равно числу ребер, исходящих из данной вершины (рис. 16-6). Далее заметим, что косоугольные координаты yt совпадают с до¬ полнительными переменными xn+h которые вводятся для того, чтобы ограничения-неравенства перевести в строгие равенства. Рассмотрим рис. 16-7, на котором представлена область допустимых значений на плоскости (хи х2) и поверхность функции цели L (*ь х2). Так как ограничения линейные, то допустимая область представ¬ ляет собой выпуклый. много¬ угольник. Из-за линейности функции цели L(xu х2) = c1xl -f + с2х2 + b поверхность ее яв¬ ляется плоскостью в трехмерном пространстве, наклонной к гори¬ зонтальной плоскости (хъ х2) под определенным углом. Грани¬ ца области допустимых значений через функцию цели отобразится в некоторый многоугольник в плоскости L (х1у х2). Нетрудно с помощью геометрического во¬ ображения убедиться, что экст¬ ремум совпадает с одной из вер¬ шин этого многоугольника и он — единственный. В исключи¬ тельном случае экстремум достигается на ребре многоугольника, ле¬ жащего в плоскости (хъ х2)у когда линейная форма совпадает с одним из ограничений и сторона многоугольника в плоскости L (хъ х2) па¬ раллельна плоскости (*!, х2). Если функция цели нелинейная, то экстремум может достигаться в середине участка поверхности L (хъ х2) и экстремумов может быть несколько. Аналогичная ситуация может появиться при нелинейных ограничениях. Область допустимых значений тогда может быть много¬ связной, и в каждой односвязной области достигается свой экстремум. Таким образом, применительно к симплекс-методу геометрически задачу линейного программирования для случая двух переменных можно представить в следующем виде. Над допустимой областью зна¬ чений хъ х2 строится поверхность функции цели L (х1у х2). Так как функция цели линейная, то ее поверхность будет плоскостью в трех¬ мерном пространстве. Расстояние любой точки поверхности L(xъ х2) до горизонтальной плоскости (хъ х2) равно значению целевой функ¬ ции при соответствующих хъ х2. При симплекс-методе ищется вер¬ шина наиболее или наименее удаленная от плоскости хъ х2. Если Рис, 16-7. Пояснение к тому, что в линей¬ ном программировании локальный экстре¬ мум является также и глобальным. 396
взять три переменных, то необходимо провести четырехмерную плос¬ кость. Область допустимых значений ограничена многогранником в четырехмерном пространстве. Очевидно, что экстремум в этом случае будет достигаться или в вершине, или на ребре, или на грани. Ана¬ логичная ситуация имеет место и в случае любого числа переменных, только тогда будут многомерные многогранники и плоскости. При нелинейности функции цели в случае двух переменных целевая поверхность может иметь несколько минимумов или максимумов и встает так называемая многоэкстремальная задача, где требуется определить глобальный экстремум. Обычно считается, что линейная форма зависит от всех переменных п L = И cjxp i = 1 но в частных случаях некоторые из Cj равны нулю. На первом шаге выбирают т базисных переменных; Решение системы уравнений У j jXj ~\~ ь i — О i, / при нулевых значениях небазисных координат называется базисным решением. В качестве базисных переменных можно выбрать любые т переменных *у-, для которых векторы а, = || a-tj || линейно независимы, т. е. детерминант матрицы || || отличен от нуля. Однако на первом шаге их необходимо (как это видно из примера 16-1) так выбрать, что¬ бы базисное решение, соответствующее началу координат косоугольной системы, принадлежало допустимой области (было бы одной из ее вершин). Вопрос о выборе начального базиса (базисного решения) требует специального рассмотрения, которое будет выполнено ниже (см. пример 16-4). 16-5. ФОРМАЛИЗОВАННАЯ СИМПЛЕКС-ТАБЛИЦА Обычно процедура отыскания экстремума с помощью симплекс- метода оформляется в виде специальной таблицы. Разберем эту табли¬ цу на примере. Для этого преобразуем рассмотренную выше задачу к такому виду, чтобы можно было применить симплекс-метод. С этой целью введем дополнительные переменные хпН\ *3 = — Х\ -vj- 2*2 -f“ 2 ^-2: Oj *4 = Х\ -j- 4*2 — $ 0 ; *5= —*i — *2+10^0; (16-9) *б = 2*i — *2 + 2 ^ 0; L = — 4*i -j- *2* Пример 16-2. Пусть система ограничений с введением слабых переменных за¬ дана в виде равенств (16-9), т. е. *i — 2*2 + *з=2; —xL — 4х2 + *4= —8; *i + *2 + *5 = Ю; —2*1 + х2 + х6 = 2. 397
Минимизируем L= —4х4 + х2 при Х[ ^ 0, /= 1, 2, ..., 6. Очевидно, что решение х4 = О, х2 = 0, х3 =2, х4 = —8, х5 = 10, хв = 2 удовлетворяет уравне¬ ниям (16-9), но не удовлетворяет условию xj 0 и поэтому не является базисным. Очевидно, что выбираемые небазисные переменные образуют косоугольную систему координат в ранее рассмотренной геометрической интерпретации. Будем считать, что х3 и х4 — небазисные переменные, и выразим через них ба¬ зисные переменные и величину L: Посмотрим, не достигла ли L своего минимального значения. Коэффициент при х4 отрицательный, следовательно, возрастание х4 приведет к дальнейшему уменьше¬ нию L. Однако при этом необходимо следить, чтобы xlt х2, х5, х6, которые зависят от х4, не стали отрицательными, т. е. не вышли из допустимой области. Так как уве¬ личение х4 приводит к увеличению xlt х2, х6, то для этих переменных такой опасности не существует. Рассматривая переменную хъ, убеждаемся, что максимально допу¬ стимое значение х4 может быть х4= 10. При этом Поэтому за новый базис могут быть приняты переменные хъ х2, х4, х6} т. е. мы пе¬ решли к вершине х3 = 0, хь = 0. Для того чтобы приступить к следующему шагу, необходимо рыразить эти базисные переменные и L через небазисные (или, иначе, через координаты новой косоугольной системы координат). В итоге получим: Совершенно очевидно, что как бы мы ни увеличивали х3 и хъ, уменьшить L не удается. Следовательно, достигнуто окончательное решение, при котором Вычисление удобно оформлять в виде симплекс-таблицы для каждого шага. Вначале уравнения и линейную форму L на каждом шаге записывают так, что сво¬ бодные члены располагаются в правой части: хъ = ~2 *з — -2*4+5; > хв = 2 *з + "2“*4 + 9; г 17 7 1* (16-10) 1 2 *i=7 "з~; х2—2 -д- *, *з = 0; хь = 0; *6 = 14. х4 = х3 — 2х5+10; хв = — х3 + хъ + 14; £ = 3 — х3 + 2 -ф- хь — 26 -g-. Ч = 7 у; ^г = 2|; л;4=10; *6=14; 398
Первый шаг *з -j- Xi — 2х2 == 2’, х4 — *х — 4*2 = — 8 *5 -\-х-[ -j- х2 = 10; Xq —2xi -(- *2 = 2; L + 4*x — *2 = 0; Второй шаг I 2 1 Х]_ + -у *3—3 *4 = 4; 1 1 х2 g- *э —-g- *4 — 1; 1 Г 1 г у *3+4: *4 = 5; . 3 1 о *6 +~2 *з —у *4 = 9; 17 7 7, -—— *3 + -^- аг4 = — 15; Третий шаг . 1 , 2 У 1 *1 + -3 х3+^х5 = 7-^; х* _у*з+у *5=21“: *4 —*3 -(-2 *5=10; Xq + *3 + *5=14; г 10 7 2 L—тХз~& х-°=-26 т- Записи при вычислениях можно сократить, используя одну из форм симплекс- таблицы для каждого шага (см. табл. 16-1, 16-2, 16-3). В строках, за исключением последней, записываются коэффициенты при соот¬ ветствующих небазисных переменных, взятые со знаком минус, через которые выра¬ жена базисная переменная, соответствующая номеру строки. Таблица 16-1 Таблица 16-2 Симплекс-таблица для первого шага Симплекс-таблица для второго шага Базисные Свободные Небазисные переменные перемен¬ ные члены в ограничениях хх *2 Хз 2 , 1 —2 *4 -8 -1 —4 *5 10 1 1 *6 2 _2 1 L 0 4 — 1 *3 *4 *1 4 +1 1 1 '3 1 *2 1 1 “ “6 1 1 ""6 * 1 *S 5 ~~ 2 +— *6 9 +4 1 2 L — 15 17 '6 +i 399
Т а б л и it а 16-3 Симплекс-таблица для третьего шага *3 *4 ■1 1 2 хг 3 3 3 _ 2 1 1 x2 23 '3 3 x4 10 -1 2 /Xe 14 1 1 2 10 7 L — 26 — 3 “4Г ~~ 3~ На каждом шаге в базис включается одна из небазисных переменных, для кото¬ рой положителен (или отрицателен в случае максимизации линейной формы) элемент, находящийся в самой нижней строке таблицы. Благодаря этому выбирается та пере¬ менная, увеличение которой приводит к уменьшению линейной формы (например, на втором шаге переменная х4). При этом надо помнить, что числа .в самой нижней строке симплекс-таблицы равны коэффициентам при соответствующих небазисных переменных в линейной форме, взятых с обратным знаком. Одновременно вычерки¬ ваем из базисных переменных ту, которая дает наименьшее отношение свободного члена к коэффициенту в столбце, при соответствующей выбранной небазисной пере¬ менной в ограничениях, причем отрицательные отношения не учитываются, так как соответствующие переменные не могут стать отрицательными. Например, для табл. 16-2 отрицательное отношение свободного члена во второй строке к коэффи¬ циенту при переменной х4, которую рассматриваем на предмет возможности включе-; ния в базис, равно 1/ — 1/6 = —6. Это указывает на то, что за счет увеличения переменной х4 переменная x2t которую предполагаем исключить из базиса, не обра¬ щается в нуль, что и соответствует уравнению 1 . 1 . 1 *2=l+-g *3+g *4 [см. формулу (16-10)]. Поэтому ее исключать не следует. Геометрически это означает, что с включением переменной х2 и исключением переменной х4 вершина многогран¬ ника не будет достигнута. Для второго шага остается одна возможность — исклю¬ чить х5, при этом следующая вершина многогранника будет достигнута. На пересечении строки вводимой в базис переменной и столбца удаляемой пере¬ менной находится элемент, называемый центральным или опорным, который отме¬ чается звездочкой. Напомним, что симплекс-таблица строилась для случая минимизации линей¬ ной формы. 16-6. ПРЯМАЯ И ДВОЙСТВЕННАЯ ЗАДАЧИ ЛИНЕЙНОГО ПРОГРАММИРОВАНИЯ а) Предварительные сведения Прямая задача линейного программирования ставится следующим образом. Находят значения переменных (х1у х2у ..., хп)у удовлетворя¬ ющие условиям: anxi 4~ • • • 4~ anxi "Ь ai, +*•• .+ ainxn = Ьъ akixi + ••• '\~akixi~\~ak, i+ixi+i +••• -\-aknxn —bki ak+i, ixi 4“. • • 4“ &k+i, ixi ~b ftk+i, i+ixi+i 4” • • • 4~ Uk+i, nxn bk-M, amlxl + • • • 4“ amlxl 4- am, г+Л+1 4“ • • • 4“ amnxn ^ 400
обращающим в максимум линейную форму L = сгхг +... + спхп = шах. При этом допускается, что часть переменных х19 ..., х{ имеет любые знаки, а переменные хт, ..., хп ^ 0. Прямой задаче соответствует двойственная, в которой определя¬ ются двойственные переменные, удовлетворяющие соотношениям: апУ\ + • * • + 0*1*/* + 0*+1,1*/*+1 + . • . + ат\Ут = Съ 0i/*/i • +... + ciklyk + ak+i iyk+1 -f ... + amlym 01, l M*/l + . • • + CLk, 1+гУк + ak+l, /+!*/*+! + . . . + (lm, 1+1У1П Ф -/+!*> (16-12) &\пУ\ "Ь • • •“Ь 0/iтУк + аи+Ъ пУкЛ-1 ~t~ • • • ~\ @тпУт обращающим в минимум линейную форму L = b1y1 + ... + bfnym = min. Здесь переменные уъ ..., yk также могут иметь произвольные знаки, а */* + ъ • ••, Ут ^ 0. Заметим, что / равенствам (16-12) соответствуют сво¬ бодные переменные хъ ..., хь а п — / неравенствам — неотрицательные переменные прямой задачи х1 + 1у ..., хп. И наоборот, k равенствам пря¬ мой задачи (16-11) соответствуют свободные (неограниченные по знаку) переменные у19 ..., ykl а п — k неравенствам — неотрицательные пере¬ менные Ук + ъ • ••> Уп двойственной задачи. Коэффициенты fry, стоящие в правой части ограничений прямой задачи, фигурируют как коэффициенты линейной формы в двойственной задаче, а коэффициенты линейной формы прямой задачи становятся коэффициентами правых частей ограничений двойственной задачи. Мат¬ рица Ат коэффициентов левых частей ограничений двойственной за¬ дачи является транспонированной матрицей А коэффициентов левых ча¬ стей прямой задачи. Запишем эти матрицы в виде: А = Ат = 0ц... ■01/ 01/+1 • • • 01 п 0*1.. •0/г/ 0*/+1 * • • 0*я 0*+1,1 • * • 0*+i, / 0*+1, /+1 * • * 0*+1, п 0ml • * • 0т/ 0т, /+1 * • * &тп 011-. .0*1 0*+1,1 • * • 0т1 01/.. .0*/ 0*+1, /. • • 0т/ 01, л- 1 • . . 0*, / KL 0*+1, /+1 • • • 0т, /+1 01, п. • • 0*л 0*+1, п * • • 0/тт (16-13) = 0/ 401
В предлагаемом руководстве в основном, если нет специальных оговорок, используется матрица прямой задачи с т строками и п столб¬ цами и i меняется от 1 до /л, а / — от 1 до п. Поэтому переменные и коэффициенты имеют соответственно индексы Xj, aijy yit bh Cj. Соот¬ ветственно число ограничений двойственной задачи равно числу неиз¬ вестных п прямой, а число неизвестных двойственной задачи равно числу ограничений т прямой задачи. Кроме того, можно доказать так называемую теорему двойствен¬ ности, которая утверждает, что minL = maxL, т. е. оптимальные значения функционалов для решений прямой и двойственной задач совпадают. Все высказанные положения о взаимоотношении прямой и двой¬ ственной задач строго доказываются в специальных руководствах. Однако сейчас можно заметить, что все эти свойства основаны на свой¬ стве замкнутости пары прямой и двойственной задач, которое заклю¬ чается в том, что задача, двойственная к двойственной, совпадаете ос¬ новной, иногда они называются взаимно двойственными. По существу, используя метод конструирования, мы специально так подобрали фор¬ мализм прямой и двойственной задачи, чтобы удовлетворить сформули¬ рованному выше свойству замкнутости. Если попробовать изменить, к примеру, что-нибудь в формулировке двойственной задачи (минимум заменить на максимум или число свободных переменных изменить с k на k + 1), то это приведет к тому, что задача, двойственная к двой¬ ственной, не совпадет с прямой. На определенном уровне строгости, принятом в методе конструирования, никаких других доказательств не требуется. Свойство замкнутости (двойственности) широко исполь¬ зуется и по существу является укрупненным свойством, с помощью которого можно экономным способом доказывать различные положения и получать методы оптимизации. б) Некоторые свойства взаимно двойственных задач Рассмотрим две системы линейных однородных уравнений: #11*1 + #12*2 + • • + #1, т+/г*т+л — 0; #21*1 ~\г #22*2 + ... ~Ъ #2, т+п^т+п = 0» /1 с 1 л\ @т+п, 1*1 #т+/г*2 ~\~ • • • ~\~ &т+п, tn+n^m+n — 0» ЬцУ\ + ^12^2 + • • • + ^1, т+пУт+п = 0; ^21^/1 “Ъ ^22Уъ “Ь • • • +^2, т+пУт+п = Ьт+п, \У\ “Ь Ьщ+п, 2У2 • • • ~\~ Ьщ+п, т+пУт±п — 0* J Первая система содержит т + п переменных, из которых т пере¬ менных xt , xi у ..., Xi базисные и п.переменных х,у х-} , ..., х1 небазис- 1 2 tit IS It 402 (16-15)
ные (свободные), причем набор чисел ily i2, ..., im\ jly /2, jn представ¬ ляет собой некоторую перестановку из чисел 1, 2, т + п. Базис¬ ные переменные выделяются в системе (16-14) свойством независимости векторов " <*ij <h] Ящ+П, j составленных из коэффициентов при базисных переменных. Как пра¬ вило, считается, что на базисные переменные наложено условие неот¬ рицательности. Кроме того, для удобства в дальнейшем будем часто считать, что базисными переменными являются т первых переменных х1у х2, ..., хту чего всегда можно достигнуть изменением нумерации переменных и коэффициентов в исходной системе. Небазисные (сво¬ бодные) переменные не ограничены по знаку. Аналогично вторая система содержит п базисных yk , yk , ..., ykfi и т небазисных у^у у^у ..., у1т переменных, где набор индексов kly k2y ..., kn\ 11у /2, ..., 1т также представляет собой перестановку чисел 1, 2, ..., т + п. Благодаря независимости векторов ау и Ь/г, составлен¬ ных из соответствующих коэффициентов при базисных переменных, детерминанты квадратных матриц, составленных из этих векторов с учетом только их элементов, соответствующих независимым урав¬ нениям с номерами базисных переменных, будут отличны от нуля: = 0; CLiiifliiiz • • • > ov II di2ifli2i2 • . • ahim ' ’ a‘ m'm B6 = 6vAv- • Kla ■ Kln Ькп\ 6v2 ■ • ’ b/tnln : 0. Поэтому можно базисные переменные выразить через небазисные и переписать соотношения (16-14) и (16-15) следующим образом: = «УЛ+«у */2 + • • •+ *‘2 = aV'A + a4*h + • • • + %i nXi tl' X‘m = aitnhX>l + aiml\Xh + • • • + а‘т>пХ1п' Ук1 = Ьк111 У11 + Ьк11гУ11 + • • • + b4mlJl<n' Ук<1 = Ь1гг11У11 + Ьк212У12 + • • • + ЬцтУ1т\ Укп = bknliyi! + bknl2yi 2 + • • • + bknlmyim (16-16) (16-17) 403
Если подчинить коэффициенты систем (16-16) и (16-17) условиям au=~bkf (16-18) V|1 V |1 7 что для систем (16-14) и (16-15) соответствует аи= -Ъф (16-19) то пары систем (16-16), (16-17) и (16-14), (16-15) станут взаимно двой¬ ственными однородными линейными системами. Соотношение (16-18) имеет принципиальное значение, так как оно устанавливает жесткую связь двух наборов переменных в виде xtx */а ... */т хи хи ... xin \ X X t { (16-20) yliyl2...ylmyklyki---ykn J т. е. базисным переменным одной системы соответствуют небазисные переменные другой системы. Заметим, что если вместо (16-18) исполь¬ зовать условия aij =-Ьк , , (16-21) то связь переменных (16-20) преобразуется к виду xtlxtt ... Xim -xh Xk ... xin ■ it XXX { (16-22) Еще раз заметим, что, имея в виду соответствующее изменение нуме¬ рации исходных уравнений и переменных, всегда можно считать, что базисными переменными являются первые т переменных хи последние п переменных у. Аналогично различие между соотношениями (16-18) и (16-21), так же как и между (16-20) и (16-22), непринципиально и носит условный характер. Условия (16-18) и (16-21) означают, что матрицы коэффициентов исходных уравнений являются транспонированными одна по отноше¬ нию к другой и отличаются знаком, что использовалось ранее при опре¬ делении прямой и двойственной задач линейного программирования. Можно доказать, что если в одной из двух взаимно двойственных задач перейти к новому базису, а в другой к соответствующему базису, то взаимная двойственность систем сохранится. Это является основой так называемого двойственного симплекс-метода (или метода улучшения оценок) решения задач линейного программирования. Доказательство построим по методу полной индукции. Обозначим через р число базис¬ ных переменных, подлежащих замене. Рассмотрим вначале вариант с р = 1, считая что из базиса удаляется переменная xio а вводится х-и. Для этого необходимо, чтобы ^ 0, так как в противном случае детерминант матрицы коэффициентов при новых базисных переменных не будет отличен от нуля. В двойственной системе эта замена повлечет соответствующую замену вида yki уТакая замена базиса возможна, 404
так как bklit = — aitfx. Чтобы получить запись системы (16-16) в новом базисе, необходимо из первого уравнения выразить Xjx и под¬ ставить это значение в другие уравнения. В результате получим: 1 а, 'а, aiJ 2 а~ Xii “ “ Xjz ' hfi h h Чп 2/1 . Xt2 = ^— xir + \ai2j2 iii i \ hJ 2 hh Lth] *12 4n vn af , Lih 1 nii i if /1 i + I a‘m>, ~ T~ aimh) X'> ~ till _ _! a. ■ a. . )x. ••• I lmln a■ • Ы,тМ*'л' ’iJi j Xjnt (16-23) bJah,i • h У1? * * ‘ Л У1 m1 0bX/, &1Л ^2^1 \ I U L \ \ U Укг = g—У к, Л-\Ьк212 — j— b,!zh j lji2 — ... — ( 6*^ . kxl\ \ k\l\ / V m ,• "Mi / У i ; *2*1 r'm ’ kilo УК (16-24) **» = ^ ^ j 0. - • • - ^V2 - ^ Нетрудно убедиться, что системы (16-23) и (16-24) являются вза¬ имно двойственными. Действительно, коэффициент при xj2 в выражении для Xi2 со знаком минус равен коэффициенту при yi2 в выражении для Ук2, т.“е. — ЬК1, = -а/,/,- >"V>7‘i (— а*./.) = - А 1 ач/.1 ' а, , lll2 I 2/1 &i/i V 4/1/ ^ Ll^i/i Тем самым сохранение взаимной двойственности систем при р = 1 доказано. Теперь, предполагая, что оно справедливо для р— 1, докажем его для случая, когда число заменяемых переменных равно р. Будем считать, что из базиса удаляются перемецные х^ х^ ..., xip и вводятся переменные хд, Xjг, ..., лу . Чтобы такая замена стала воз¬ можной, детерминант a\h ■ • • аЧр Щ j ...Щ j V1 Vp должен быть отличен от нуля. Для этого необходимо, чтобы хотя бы один* из миноров порядка этого детерминанта был отличен от нуля. Допустим, что отличен от нуля минор щ j ... at j . Lr\ v v-\ lp-l'l .. at j 405
Это обеспечивает возможность такой замены, при которой переменные j г становятся базисными, а переменные х<^ ■ 'р-г - • г ' кеба- зисными. Если после этой замены сделать Xj базисной переменной вместо Xi ? то получается исходная замена р переменных. Тем самым показано, что замену можно производить в два этапа: вначале заменить р — 1 переменных затем одну переменную. И так как для р — 1 сохра¬ нение взаимной двойственности систем при замене переменных спра¬ ведливо по исходному предположению, а выше была доказана его справедливость при замене одной переменной, то отсюда следует, что оно справедливо в силу индукции для любого р. в) Теорема двойственности Докажем теорему двойственности для случая неотрицательных переменных прямой и двойственной задач, т. е. положим в соотноше¬ ниях (16-21) — (16-24) / = k = 0. В этом случае имеем: Прямая, задача 0n*i + • • • + й1пхп ^ ^1» Ят1*1+ • • • + 0/71Я*Я Ьт> L = сгхг +... + Спхп = шах; *iS2tO, xn^z0. Двойственная задача ttllUl + . . . + С1тлУт ^ СЪ ®1пУ\ + • • • + ®тпУт Сп\ L = b1y1 + ... + bmym = min; У1 0, •• •> Ут 0. (16-25) После введения дополнительных переменных xn+v (v = 1, 2, т) прямой и ут+1Х (jit — 1, 2, ..., п) двойственной задач в соответствии с фор¬ мулой (16-19) обе задачи могут быть записаны в* следующем виде: Прямая задача *я+1~ 011*1 • • • CLlnXn ”Ь ^1> Хп+т~ 0ml*l • • • 0/7Z/l*/l"t“^/7lJ L = ^1+... + спхп = max; хг ^ 0, ..., хп ^ 0, *л+1 ^ 0, ..., хп+т ^ 0. Двойственная задача Ут+1 = 011#1 + * • • + ат1Ут — С\\ Ут+п = втУг -j-... -J- ат1ут сП1 L = - Ьууг —... - Ьтут = max; г/i^0, ут^0, Ут+i 0» • • • у Ут+п 0. (16-26) При этом в двойственной задаче также ищется минимум линейной формы, в которой в отличие от задачи (16-12) изменены знаки при коэф¬ фициентах линейной формы, что справедливо в силу соотношения min L = max [— L\ = шах L. Требуется доказать, что maxL = minL= — max L = max L. Вводя дополнительные переменные t и s, которые принимают значения, 406
равные единице, перепишем соотношения (16-13) в следующем виде: Прямая задача хп+1 — — апх1 —... — ciinXn + Xfi+m ^mlXi • • • CLmnXn H“ bmt\ L = +... -f- cnxn + 0/. Двойственная задача Ут+i = #n*/i+• • • + аппУт — Ci s; Ут+п — CLmyi “Ь • • • ~f“ С1т1Ут CnSy L = - biyi -... - bmym - Os; (16-27) Две системы соотношений (16-27) являются взаимно двойственными в том же смысле, что и в предыдущем разделе. Между неизвестными хъ ..., хп+щ, t, L прямой и у1у ..., Уп + т s> L двойственной систем суще¬ ствует следующее соответствие: Х\ ... хп t xn+i ... хп+т L I I t_l II (16-28) Ут+1 • • • Ут+п L Ух ... ут S Эта жесткая связь определяется зависимостью между коэффициентами прямой и двойственной систем, которая имеет вид: j = bji. При оптимизации в прямой задаче требуется среди всех решений прямой системы (16-27), удовлетворяющих условиям хъ ..., хп + т ^ 0, t = 1 найти такое, для которого L принимает максимальное значение. Соответственно при оптимизации в двойственной задаче требуется среди всех решений двойственной системы (16-27), удовлетворяющих усло¬ виям уъ ..., уп + т ^ 0, s =1, найти такое, для которого L принимает максимальное значение. Решение прямой задачи оптимизации можно определить с помощью симплекс-метода. Его можно получить такой заменой базиса, при кото¬ рой все свободные члены в соотношениях прямой системы (16-26) станут неотрицательными, так как только при неотрицательных сво¬ бодных членах для нулевых значений небазисных переменных, стоящих в правых частях, базисные переменные, стоящие в левых частях, будут неотрицательны. Кроме того, экстремальное значение функции цели достигается при такой замене базисных переменных, при которой все коэффициенты при небазисных переменных в выражении для L отрицательны. Применительно к прямой системе (16-27) процедура поиска опти¬ мального решения означает такую замену базиса (переменных хъ ..., хт + п)у ПРИ которой все коэффициенты при t (кроме, может быть, послед¬ него) становятся неотрицательными, а все коэффициенты в выражении для L (кроме, может быть, последнего) неположительными. Обозначим такую систему соотношений через А. Искомый экстремум линейной формы L в ней будет равен значению коэффициента при ^ввьгражении для L. Если соответственно заменить базис в двойственной системе 407
(16-27), то получится система В, двойственная А в силу доказанного в предыдущем разделе положения. В системе В все коэффициенты при s (кроме, может быть, последнего) будут неотрицательны, а все коэффициенты при небазисных переменных в выражении для L (кроме, может быть, коэффициента при s) будут неположительны. Но это означает, что базисное решение системы В будет оптимальным для двойственной задачи_ (16-26) и коэффициент при s в выражении для L равен максимуму L. Если учесть взаимную двойственность систем А и В и связь переменных (16-28), то можно утверждать, что коэффи¬ циент при s в выражении для L (в системе В) лишь знаком отлича¬ ется от. коэффициента при t в выражении. для L (в системе Л), т. е. —шах L = max L, что и требовалось доказать. Теперь мы подготовлены к изложению двойственного симплекс- метода или, как его называют, метода последовательного улучшения оценок. Смысл его заключается в том, что вместо прямой задачи решают двойственную и затем в соответствии с соотношениями (16-28) по опти¬ мальным значениям переменных двойственной задачи определяют оптимальные значения прямой задачи, причем оптимальное базисное решение одной задачи получается приравниванием ее новых базисных переменных коэффициентам при соответствующих небазисных пе¬ ременных в линейной форме двойственной задачи, взятым со зна¬ ком «—». Двойственный симплекс-метод целесообразно применять, когда в исходной задаче число ограничений значительно больше числа неиз¬ вестных. Очевидно если в этом случае перейти к двойственной задаче, то симплекс-процедура будет проще, чем для прямой задачи. Кроме того, двойственный симплекс-метод широко применяется в различных методах рашения задач целочисленного программирования. Часто решение двойственной задачи называют псевдопланом, чтобы отличать его от решения прямой задачи, называемого просто планом. Проще всего проиллюстрировать двойственный метод на примере. Пример 16-3. Рассмотрим следующую задачу линейного программирования: г) Двойственный симплекс-метод — х1 + 2*2 — 3*3^ 1; 2*! —*2 —*з^—1; L = — xL — 2*2 — 3*з = max; (16-29) *i 0, *2 $5 0, *з^0. Составим- задачу, двойственную (16-29): — У1 + 2у2 ^ — 1; 201 — 02^ — 2; (16-30) Ух ^0, Уг^ °- 408
Вводя добавочные переменные z/3, #4, у5, сведем ограничения в виде неравенств к ог¬ раничениям в виде равенств. Тогда задача (16-30) примет вид:' — У1 + %У2 — Уз =—1; 2^1 — Уг —У4 = — 2; Ifъ ——3; (16-31) L = У\ — у 2 + ®Уз 0г/4 -f- 0у$ = min; у2^ 0, Уз^О, г/4^0, уь ^>0. Решая задачу (16-31) симплекс-методом, получим симплекс-таблицу (табл. 16-4). Таблица 16-4 Базисные переменные Свободные члены в огра¬ ничениях Небазисные переменные Уг Уг Уг У4 Уь У1 1 5 1 0 0 1 5 1 5 12 3 2 У2 5 0 1 0 5 5 28 7 3 Уз ~5~ 0 0 1 5“ ~Ъ 11 4 1 L 0 0 0 5 5 5 Из последней строки табл. 16^4 получим выражение линейной формы через пебазисные переменные Г 4 . 1 i=-g г/4+5-Уб- Отсюда, если учесть соответствие между переменными У\ Уг Уз У4 Уь Mitt *4 *5 *1 *2 *3, получим решение исходной задачи в виде п 4 1 *1 = 0; *2 = у; *3=5; 11 rna xL — . 5 . В этом примере использован по сравнению с примером 16-2 другой вариант симплекс-таблицы, в котором помимо столбцов, соответству-. ющих небазисным переменным, добавлены столбцы, соответствующие базисным переменным с нулевыми элементами, за исключением тех, которые стоят на пересечении строк и столбцов с одинаковыми номера¬ ми базисных элементов, равных единице. Симплекс-таблица такого типа называется полной или расши¬ ренной в отличие от сокращенной симплекс-таблицы примера 16-2. 409
16-7. ОБЩАЯ ТЕОРИЯ СИМПЛЕКС-МЕТОДА С ПОЗИЦИИ ЛИНЕЙНОЙ АЛГЕБРЫ Рассмотрим задачу линейного программирования aiiX1+ai2fi2 + ... + ainxn = bh i= 1, m; (16-32) L = с0-\- CiXi + -j-... cnxn = m in. Будем считать, что система уравнений (16-32) содержит г линейно независимых уравнений, где г ^ т. Эти г переменных на первом шаге являются базисными переменными, т. е. определяют базис. Строго говоря, с практической точки зрения можно считать, что г = т, так как в противном случае равенства (16-32) или несовместны, или хотя бы одно из них представляет линейную комбинацию остальных и поэтому является лишним. Разрешив уравнения (16-32) относительно этих переменных, получим: Х1 = Ь\ — {^ацхт^, 1 = 1, 2, г. Без потери общности можно считать, что независимы первые г уравнений (16-32). Предположим, что свободные коэффициенты Ъ\ неотрицательны. Каж¬ дое из этих уравнений можно рассматри¬ вать как проекцию векторного уравнения Рис. 16-8. Геометрическая интер¬ претация базисных переменных для трехмерного случая. 2 Xipi = Ро - 2 xjPj (16-33) 1=1 /=Г+! на единичные векторы, направленные по координатным осям (ортам) Pi> р2> •••» Ргу где Pi = (1, 0, 0); р2 = (0, 1, 0, ..., 0); Рг = (0, 0, ..., 1). Векторы рь ..., рг образуют базис в m-мерном пространстве (рис. 16-8). При этом матрица разложений векторов р0, рь р2, ..., рп в базисе Ръ р2> •••> Рг представляется в виде Pi Р2 Рг Ро Рг+1 • • • Рп 1 0 ... 0 Ьг alr+i ... а\п 0 1 ... 0 Ь2 а2> r+i ... й2п (16-34) 0 0 ... 1 br dm, r+1 . . . dmn В этой матрице первые г столбцов представляют собой орты системы координат. Столбец г + 1 состоит из свободных членов ограничений. Последние п — г столбцов состоят из компонент проекций вектор- столбцов рг+1, ..., рл на орты рь р2, ..., рг. В целом матрица состоит из п + 1 вектор-столбцов с т компонентами каждый. 410
Очевидно, что симплекс-таблица теперь примет вид табл. 16-5. Таблица 16-5 1 %г+1 •• *1 Ьг а'ъ г+1 • •• a'in х2 Ь2 Я 2» Г+1 • .. а'2п хг Ьщ а'П Г+1 ... i^/i с0 с'х ... с’п Причем соотношение для L запишется как L=c0-^ |] (16-35) Следующей небазисной переменной, которую следует включить в базис, будет такая Xj (/ = г -f 1, ..., ti), в столбце которой имеется положительная с). Пусть это будет столбец jv Исключается из базиса та переменная xt (i = 1, ..., г), для которой выражение { Ь;/яг/,} минимально для всех положительных а1к. Пусть это будет переменная iv Тогда новый базис будет состоять из координат х,\ и Xi (г = 1, .... h — 1. h + П. которые выражаются через неба¬ зисные переменные следующим образом: (16-36) «- (* -- [- Ъ-+,1, (а" ■ tt)"]: / 7е /1 i ^ 1, 2, . •», /х 1, f*i Т 1, • • *, г. Эти формулы прямо следуют из формул (16-33). Группа векторов р1( р2, ..., p,,_i, Р/„ рг.+i, ..., рг образует новый нат, отличен от нуля . Действительно, 1 Pi Р2 Рч-1 р/1 Рч+l Рг 1 0. ..0 а\и 0.. .0 0 1 . ..0 02/, 0 . . .0 0 0. .. 1 O/.-l,/. °‘ ..0 0 0. ..0 ..0 0 0. ..0 Я/1 +1, /, 1 • ..0 — я»,/, > 0. 0 0 ... 0 a,njl 0 ... 1 411
Следовательно, эти векторы независимы и могут быть выбраны за новый базис. В данном случае этот базис ненормирован, но если раз¬ решить переменную xjt, как это сделано в соотношении (16-36), то на втором шаге снова придем к матрице вида (16-34). Повторяя этот процесс до тех пор, пока все числа в последней строке симплекс-таблицы (16-5) станут неположительны, получим оптималь¬ ное решение. Еще раз напомним, что в практически важных случаях г = т. В зависимости от конкретных значений коэффициентов симплекс- таблицы 16-5 могут представиться три взаимоисключающие возмож¬ ности: 1. с0 и с) ^ 0 для всех /. В этом случае базисное решение будет опти¬ мальным, так как всякое увеличение любой из независимых перемен¬ ных (которые не могут стать отрицательными) в силу неотрицательности коэффициентов Cj привело бы к увеличению, а не к уменьшению зна¬ чения линейной формы L. 2. Cj <С 0 по крайней мере для одного j = j\ и ащх ^ 0 для всех h. В этом случае значение линейной формы можно сколько угодно умень¬ шать. Увеличив до сих пор равную нулю переменную xr+jl и оставив за другими независимыми (небазисными) переменными их прежнее нулевое значение, получим, что функция L в силу условия cjx < О будет монотонно уменьшаться. Базисные переменные не уменьшаются, так как a'hj1 ^ 0. Здесь имеет место «оптимальный луч», определен¬ ный соотношениями 3. Cj <0 по крайней мере для одного / = /х, и для всякого такого jx имеется по крайней мере одно i = ix такое, что ailjx < 0. В этом слу¬ чае, делая замену переменных, можно прийти к новому базису с мень¬ шим значением L. Увеличивая независимую переменную хг+/1, будем уменьшать L, но в отличие от второго случая здесь будут уменьшаться и такие зависимые переменные, для которых ацх < 0. Переменную xr+jl можно увеличивать лишь до тех по.р, пока какая-нибудь до сих пор положительная базисная переменная не обратится в нуль. Будем считать, что эта переменная одна и имеет номер iv Очевидно, что критерием выбора этой переменной может служить В результате получаем новый базис, в который вместо переменной. Xix введена xr+/l. Если имеется несколько переменных, для которых выражение (16-37) принимает одинаковые значения, например xix и Xi2i то эти переменные одновременно обращаются в нуль. Включив xixв базис, видим, что также примет нулевое решение, хотя она xr+j = 0; xr+ft = 7; Xh = & ji~\~ 'htthji’t j =7Z^: jl\ 7 0» на котором линейная форма не ограничена снизу: L = c0 -j- 7с j t —> — оо. (16-37) 412
и остается базисной. Здесь имеет место вырожденный случай, так как функция L неоднозначно определяется значениями независимых пере¬ менных. Так, если b'i= 0, и #;,/,<< О, то нельзя увеличивать xr+jlt так как xit примет отрицательное значение. Поэтому xr+jt хотя и входит в базис, но сохраняет нулевое значение, другие переменные и L тоже сохраняют постоянное значение, т. е. выполнено «холостое» симплекс- преобразование, которое может привести к зацикливанию, приводя¬ щему к бесконечному процессу счета. Однако имеются формальные правила, позволяющие обойти зацикливание. Мы уже имели дело с другой, расширенной по сравнению с табл. 16-5 симплекс-таблицей, которая содержит п + 1 столбец, т. е. в нее по примеру матрицы (16-34) включены в соответствии с векторным уравнением (16-33) еще г столбцов, соответствующих базисным пере¬ менным, причем каждый из этих столбцов содержит только один ненулевой элемент, равный единице. Если сокращенная таблица соот¬ ветствует векторному равенству хб = Ь' — А'хнб; * (16-38) хб = ||*1. •••. хг\\; Хиб = I /-11 > • * • j [I > А' = I а'ц || = I а/ [|= Аб‘а;-; Ь' = \\Ь'и К, .... К|| = Аб‘Ь, (16-39) где Аб — подматрица А, состоящая из независимых столбцов ау- = = 11 аи 11> то расширенная симплекс-таблица соответствует равенству О = b' + Ехб — А'хнб. я 16-8. ВЫБОР ИСХОДНОГО ДОПУСТИМОГО РЕШЕНИЯ Допустим, задача линейного программирования записана в виде Ах = Ь; ) Cx = min; | (16-40) х^ 0; J где b ^ 0; С = \\clf с2, сп\\. Исходный базис считается найденным, если ограничения, содержащиеся в задаче (16-40), записаны как Xv = bv — (aVtm+iXm+i + --- + avnXn)> v = 1, 2, ..., m, где bv ^ 0, так как положив небазисные переменные хт+к = 0 (k — = 1, 2, ..., п — т), получим значения xv = bv^ 0, которые являются допустимыми и соответствуют одной из вершин. Иногда сразу удается выделить первый базис. Однако в общем случае это не простая задача. Для каждого ограничения вводим вспомогательную переменную Zi(i= 1, ..., т). Тогда ограничения системы (16-40) будут выглядеть как Ax-fz=b; х^0; z ^ 0. (16-41) Без нарушения общности считаем, что b неотрицательна, так как этого всегда можно достигнуть, поменяв соответствующие знаки встро- 413
ках матрицы А. Поэтому'допустимым базисным решением будет х = О, z = Ь. Соответствующая симплекс-таблица на первом шаге запишется в виде z = b — Ах, т. е. за, базис взят вектор z. На первом шаге минимизируется функция цели 2 zj ПРИ ограниче- / ниях (16-41). Непосредственно из этих ограничений следует, что если минимум функции является положительной величиной, то система (16-41) не имеет неотрицательных решений, для которых гъ ..., zm =0, так как в противном случае min Zzy = 0. Это означает, что исходная система (16-41) не имеет неотрицательных решений. Если min 2гу =0, т. е. Zj = 0 для всех /, то вектор z является базисным. Отправляясь от этого базиса, мы стремимся прийти к базису, не содержащему ни одной вспомогательной переменной Ху = by (OLyt т+lXm+l “Ь • • • ttvnXn “Ь &vlzl ~Ь v=l, 2, m, (16-42) где by s? 0. Полагая в системе (16-41) Zj = 0, придем к системе Ху = by (#v, m+l*m+l • • • ~\~ ЯупХп)> V = 1, 2, ..., 171, которая равносильна исходной (16-40). Но здесь хъ х2, хт — базис¬ ные переменные. Следовательно, задача нахождения базиса решена. Может получиться, что при переходе от базиса гъ z2, ..., zm к следую¬ щему эти переменные будут оставаться в следующем базисе. Тогда необходимо постепенно их перевести в небазисные. Если среди, неизвестных хъ х2, хт имеется такая переменная/ например хъ которая входит только в одно уравнение, например в пер¬ вое, причем коэффициент при этой переменной ап имеет тот же знак, что и свободный член Ьъ тогда не имеет смысла вводить*для первого уравнения искусственную переменную, так как хг сразу войдет в базис. Действительно, первое уравнение можно представить в виде Xi = b[ — (а[2х2 +... + а[пхп)у где b\ — Ь^ац ^ 0. Если таких неизвестных несколько, то все их можно сразу включить в базис. Пример 16-4. Дана система *i — 2х2 + х3 = 2; —х1 — 4х2 + х4 = —8; *1 + х2 + хъ = Ю; —2х1 + х2 х6 = 2, рассмотренная в примере 16-2. Так какх3, х5, х6 входят каждая только в одно огра¬ ничение и коэффициенты при них имеют тот же знак, что и соответствующие свобод¬ ные члены, включаем их сразу в базис. Для оставшегося ограничения вводим искус¬ ственную переменную гх. В итоге получаем: х3 = 2 — (х1 — 2х2); *5=ю—(*i+*2); хв = 2 — (—2х1+х2); Zi-8 — (*1 + 4л:2 — *4); ^0; г1 ^ 0. (16-43) 414
С помощью симплекс-метода требуется минимизировать форму L4 = гх — = 8 — (*i + 4х2 — х4) при ограничениях (16-43). Составляем симплекс-таблицу на первом шаге (табл. 16-6). Т а б л и ц а 16-6 Симплекс-таблица Xi Х2 хЛ 1 4 -1 X3 2 * 1 —2 Хъ 10 1 1 Ч 2 —2 1 *1 8 1 4 -1 Li 8 1 4 -1 L 0 4 -1 Необходимо минимизировать L. Опорный элемент выбираем на пересечении строки х3 и столбца xv После первого шага получаем базис (хъ х5, x6t гг). На втором шаге опорный элемент выбирается на пересечении строки гг и столбца х4, поэтому искусственная переменная гг выводится из базиса. При этом L4 = 0. Таким образом, базис найден и состоит из хъ х2, х5, xQ: л 2 , 1 *1 = 4 — -д-^З+З *4! 1 , 1 , 1 *2 = 1+"g-*3 + g *4? С , 1 1 *6=5+-2*з—xt’ 3 J , *6 ^ g *3+ 2 *4» 17 7 L = — 15 + -g- *з—-g *4- Глава семнадцатая НЕЛИНЕЙНОЕ ПРОГРАММИРОВАНИЕ 17-1. КЛАССИФИКАЦИЯ МЕТОДОВ НЕЛИНЕЙНОГО ПРОГРАММИРОВАНИЯ Нелинейное программирование включает в себя методы определе¬ ния минимума функции п переменных F (х), где х = || х1} х2, хп || при т + п ограничивающих условиях ф,- (х) й^О, i=l,..., т\ XjSzO, j= 1 п, т. е. r(x) = min(max); ф==£0; х 0. (17-1) (17-2) 415
Соотношения (17-2) следует понимать таким образом, что каждая ком¬ понента векторов и х в них не менее нуля. Иногда сокращенно соот¬ ношения (17-1) и (17-2) записывают в виде min {F (х) | Xj Ss 0, /=1,2,..., п\ фг- (х) С 0, / = 1, 2, ..., т} или min {F (х) | х <= G}, где область G задается условиями G={x|x^0, ф;(х)=^0 для всех i}. В нелинейном программировании допускаются в общем случае любые соотношения между п и т, т. е. п > т, п = т, т <; п. . В задачах нелинейного программирования, так же как и в задачах линейного программирования, могут встречаться другие формы напи¬ сания условий. Но все возможные формы могут быть сведены к виду (17-1), который в дальнейшем будем называть нормальным [Л. 89, 96]. В общем случае функции F (х) и ф; (х) бывают произвольными и, в частности, линейными. Нетрудно убедиться, что задачи, решаемые прямыми методами поиска, являются частными случаями задач вида (17-1), (17-2). Задачи поиска экстремума функции при наличии ограничений можно решать с помощью классических методов, но они рассматривают только случаи, когда неравенства имеют вид строгих равенств: jF(x) = mill (max); Ф* (х) = 0. При этом не требуется, неотрицательности переменных Xj, т<^пу а функции F (х) и ф,- (х) непрерывны и имеют частные производные, по крайней мере до второго порядка. Для нелинейного программирова¬ ния классические методы имеют большое теоретическое значение, так как основополагающая теорема Куна — Таккера в выпуклом про¬ граммировании обобщает теорему Лагранжа для классических задач. Поэтому в начале главы будут рассмотрены классические методы отыс¬ кания экстремума функции с ограничениями. Основной недостаток методов нелинейного программирования зак¬ лючается в том, что с их помощью не удается найти глобальный экстре¬ мум при наличии нескольких локальных экстремумов. Определить глобальный экстремум можно лишь методом динамического програм¬ мирования. Однако его применение зависит от определенных условий, обеспечивающих выполнение принципа оптимальности Беллмана. Решение задач нелинейного программирования методом динамического программирования имеет свою специфику, благодаря которой динами¬ ческое программирование часто рассматривают в разделе нелинейного программирования. Применение дискретного принципа максимума Понтрягина для решения задач нелинейного программирования в насто¬ ящее время не разработано так детально, как Применение динамическо¬ го программирования. Следует заметить, что этот метод более «чув¬ ствителен» к введению ограничений на переменные. 416
Теоретически нелинейное программирование разработано только для одного частного случая выпуклых функций F (х) и ф; (х), и соот¬ ветственно этот раздел назван выпуклым программированием (рис. 17-1). Функция f (х) п пере¬ менных || къ ..., хп || = = х е G называется вы¬ пуклой функцией в выпук¬ лой области G, если для любых двух точек из G вы¬ полняется соотношение f{№ + (l-X)x*\^Kf(x') + + (1 — Я)/(х*), (17-3) где 0<А,<1. Функция будет строго выпуклой, если здесь знак « ^ » можно заме¬ нить на «<». Соотношение (17-3) означает, что выпук¬ лая функция не может принимать больших значе¬ ний, чем линейная функ¬ ция, интерполирующая значения / (х1) и /(х2). На рис. 17-2- приведен пример выпуклой функции одной переменной. Соответственно функция / (х) называется вогнутой (или строго вогнутой), если функция — / (х) выпукла (строго выпукла). Следует заметить, что определение вогнутости и выпуклости может показаться на первый взгляд неправильным. Например, тарелка, стоя¬ щая на столе, считается вогнутой, но если рассматривать ее с точки зрения нашего определения, т. е. при направлении третьей оси вверх, она выпукла. Дело в том, что обыч¬ ное понятие выпуклости всегда совпадает с математическим, если смотреть по положительному, а не по отрицательному направлению оси, относительно которой опре¬ деляется выпуклость. В примере с тарелкой на столе на нее следует смотреть снизу стола, тогда она будет выпуклой. Заметим, что для выпуклых функций (см. рис. 17-2) о. Метод считается теоретически разработанным, если найдены соот¬ ношения, являющиеся необходимыми и достаточными условиями оптимума, и алгоритмы поиска экстремума с доказательством их Рис. 17-2. К определению выпуклой функции. Рис. 17-1. Классификация методов нелинейного программирования. А/214 Основы кибернетики 417
сходимости. Этим требованиям, строго говоря, удовлетворяют только методы, рассматриваемые в разделе квадратичного программирования, частично методы решения задач с сепарабельными функциями и в зна¬ чительно меньшей степени прямые методы. Функция / (х) = / (х19 ..., хп) называется сепарабельной, если она представлена в виде tl f(Xi, *2. •••, Хп) — 2 Cjf J (Xj) — C]fi (Xi) + C2/2 (*2) + • • • + cnfn (xn). /=1 В общем случае эти функции не являются выпуклыми. Однако если каждая из функций fj {xj) выпуклая и коэффициенты Cj неотрицательны, то функция / (х) тоже выпуклая. Методы решения задач с сепарабель¬ ными функциями, основанные на замене нелинейных функций ломаными кривыми, составленными из отрезков прямых, ищут локальный экстре¬ мум и не гарантируют отыскание глобального экстремума [Л. 89]. Теоретически наиболее широко и детально в нелинейном програм¬ мировании разработан раздел выпуклого* программирования, назы¬ ваемый квадратичным, в котором функции представляются в виде суммы линейной и квадратичной форм и имеют вид: п п п f (х) = рх + хСх = J]pjXj + S Л CjkXjXk — /= 1 /=1 k=\ = Plxl + • • • + Рпхп + Ci2xix2 + . . . + ClnXiXn + . . . + СппХп. (17-4) Для выпуклости необходимо, чтобы матрица С = || cjk || представляла собой симметричную положительную полуопределенную матрицу, т. е. чтобы для любых х выполнялись условия симметрии cjk = ckj и поло¬ жительной полуопределенности хСх ^ 0. Однако и этот достаточно узкий раздел не представляет единого целого, а состоит из набора методов, справедливых для более частных видов функции (17-5) и отличающихся разной эффективностью, для которой пока еще нет удобных способов сравнительной оценки. Методы квадратичного программирования можно разделить на три группы: алгоритмы, использующие симплекс-метод; градиентные и прочие специальные'методы, (см. рис. 17-1). Отличие градиентных методов, рассматриваемых в квадратичном программировании, от рассмотренных в разделе прямых методов заключается в том, что в первом случае благодаря заданию функций в виде (17-4) удается получить значительно больше результатов, харак¬ теризующих конкретный метод. В прямых методах поиска в градиентных и других алгоритмах, как правило, функция цели неизвестна (счи¬ тается просто, что она выпукла), в традиционных руководствах по нели¬ нейному программированию в большинстве случаев она задана анали¬ тически, в виде таблиц или другим способом. Прямые методы по тради¬ ции много внимания уделяют аспектам поиска «вслепую» в условиях неопределенности, выбору оптимальной в каждом случае стратегии поиска. 418
17-2. ОСОБЕННОСТИ ЗАДАЧ НЕЛИНЕЙНОГО ПРОГРАММИРОВАНИЯ Задачи нелинейного программирования по сравнению с задачами линейного программирования обладают большим многообразием. На рис. 17-3 представлены возможные варианты расположения точки ма в задачах нелинейного программи¬ рования. экстремума для случая двух пе¬ ременных. Так, в случае линей¬ ных ограничений и нелинейной функции цели экстремума можно достигнуть в крайней точке (вер¬ шине) допустимой области значе¬ ний (рис. 17-3, а), в одной из точек, лежащих на - ограничиваю¬ щих прямых (рис. 17-3, б), и, на¬ конец, в точке, расположенной внутри области (рис. 17-3, в). Пунктирные концентрические ок¬ ружности изображают линии по¬ стоянных значений функции цели, сплошные линии — границу обла¬ сти допустимых значений. В слу¬ чае на рис. 17-3, б экстремум оп¬ ределяется как точка касания прямой, ограничивающей допусти¬ мую область значений, и линии равных значений функции цели. Рис. 17-4. Случай двух экстремумов при односвязной области допустимых значений. Решение задач нелинейного программирования может давать два или более экстремума, тогда как решение задач линейного програм¬ мирования дает один экстремум. На рис. 17-4 показан случай, соот¬ ветствующий линейным ограничениям и нелинейной (квадратичной) функции цели, где она достигает максимального значения в двух точ¬ V214* 419
ках А (локальный максимум) и В (глобальный максимум). На этом рисунке пунктиром обозначены постоянные значения функции цели F = const = С,-, сплошной линией Рис. 17-5. Случай двух экстремумов при двусвязной области допустимых значений. ограничена область допустимых значений. При нелинейных ог¬ раничениях может иметь место случай многосвязной области допустимых значений, и в каж¬ дой изолированной подобласти функция цели может достигать своего одного или нескольких локальных экстремумов. На рис. 17-5 представлен случай двусвязной области, в которой функция цели достигает ло¬ кальных экстремумов. Макси¬ мум в точке В — глобальный для всей области допустимых значе¬ ний, в точке А — локальный. 17-3. КЛАССИЧЕСКИЕ МЕТОДЫ ОПРЕДЕЛЕНИЯ ЭКСТРЕМУМА ФУНКЦИИ а) Задача на абсолютный экстремум Если непрерывная функция п переменных х = (хъ ... ,хп) F (х) имеет в точке хопт максимум, то существует е > 0 такое, что для всех х из е-окрестности точки хопт F(x)^F (хопт) ИЛИ f(x)-f(U<0. Выберем два вида приращения Xj вдоль /-й координаты Дл^* = Xj Xj опт Дл^у == Xj Xj опт <^ О* Тогда - ^опт-- ^ 0 при Дл:;->0; F{xj) F (xj „пт) ^ q при д*у<р. A Xj Переходя в этих соотношениях к пределу при Длу 0, получаем: —-^опт-^^О; дГ (*] опт) 0. (17-5) dXj 1 дх ;■ v 7 Из этих соотношений следует, что dF (XJ опт) дР (Х опт) А 2 1 О п (]7 Щ -~Щ ~u’ п' 420
Аналогичное соотношение можно получить для случая минимума функции. Таким образом, доказана необходимость условий (17-6) для достижения в точке хопт максимума или минимума функции F (х), т. е. если имеется экстремум, то условия (17-6) удовлетворяются. Но равенство нулю всех производных в точке хопт еще не обеспечивает существования в ней экстремума, т. е. условия (17-6) не являются доста¬ точными. Геометрически это означает, что в случае нулевой производной от функции одной переменной может иметь место точка перегиба, а не максимум (или минимум), а в случае функции двух переменных — седловая точка, а не экстремум и т. д. Поэтому точки хопт, в которых выполняются соотношения (17-6), называются стационарными. Заметим, что условие (17-6) удалось получить благодаря возмож¬ ности придавать переменной х приращения двух знаков, откуда и возникли два неравенства (17-5). Если допустимая область значений х ограничена неотрицательными значениями х ^ 0,. то внутри области, где х > 0, справедливость условия (17-6) сохраняется, так как там допустимы приращения обоих знаков. На границе области х ^ О, где х = 0, допускается только положительное приращение Дх > О, можно говорить только об односторонней производной, и из (17-6) следует следующее необходимое условие максимума: дГ (хопт) ^ Q dxj ' Необходимое условие минимума на границе области Xj = 0 запишется в виде дГ (х0пт) Q dxj б) Задача на условный экстремум При определении условного экстремума функции, когда требуется определить максимум (Или минимум) функции F (х) при ограничива¬ ющих условиях: Фi(x) = bh t = 1, m, т. е. F (х) = шах; Ф i (х) = Ьи используется также метод множителей Лагранжа, который, так же как в случае классического вариационного исчисления (гл. 11), заклю¬ чается во введении функции Лагранжа т <D = F(x) + 24^-<Pi(x)]f (17-7) i= 1 где — неопределенные множители Лагранжа. Полагая, что функция является частным случаем функционала, или применяя методы, аналогичные использованным в гл. И (§ 6), получаем, что необходимые условия экстремума находятся прямым 14 Основы кибернетики 421
дифференцированием соотношения (17-7) и записываются в виде т дФ dF dq>i л * i ^ ~дх] ~ Hxj ~ 2dl~dxi~~ (17-8) t = 1 = bi — (pi (х) = 0, г= 1, т. (17-9) Если ввести в рассмотрение векторы Л. = || Ad, , Ят ||; <Р= II ф1. Фт II; b — || Ьъ bm ||; &}. соотношения (17-8) и (17-9) перепишутся как grad Ф = grad F — % grad q> = 0; b — ф = О, где равенство нулю векторов понимается покомпонентно. Рис. 17-6. Пояснение к задаче на условный экст¬ ремум. В случае п = 2 и т = 1 геометрическая задача об отыскании услов¬ ного экстремума сводится (рис. 17-6) к отысканию точки касания А кривой ф = b к одной из кривых постоянного уровня F = const. в) Минимаксная трактовка задачи на условный экстремум функции Предположим, что функция F (х) имеет в точке хопт максимум при ограничивающих условиях ф* (х) = bt (i = 1, ..., m). Соответствующий этой точке множитель Лагранжа обозначим через ^опт = П^1опт> •••» /woпт II- Если исключить особые случаи, то можно считать, что функция 422
Лагранжа Ф (х, Хои1) имеет в точке хопт безусловный максимум, т. е. ... Ф (X, Кпт) ; й Ф (Хопт, ^опт) для всех х из некоторой малой е-окрестности точки хопт. Опять, исклю¬ чая из рассмотрения особые случаи, считаем, что для некоторой окрест¬ ности б точки копт функция Ф (х, к) имеет безусловный максимум по х и удовлетворяет условиям дФ дх,- ■ О /-> «• i= 1 (17-10) Будем считать, что эти уравнения имеют единственное решение х при любом к из б-окрестности копт. Тогда точку максимума хопт можно рас¬ сматривать как функцию к и для б-окрестности копт можно записать: шахФ(х, ^) = Ф(х, k) = h(k), х т. е. максимум по х будет функцией Я,. Очевидно, что ^ (Я'ОПт) “ Ф (Хопт, ^опт) “ F (Хопт), так как при к = копт и х = хопт <рг (х) = Ь( и Ф(х, k) = F (х). Обозначим допустимую область значений х, ограничениям b — <р (х) = 0, через G. Тогда (17-11) гпахФ(х, k) — maxF(x) — F(x) = h(k хео xcg удовлетвор яющих ,пт). (17-12) Область G в соотношении (17-12) составляет часть от общей области изменений х, по которой ищется максимум в соотношении (17-11). Поэтому h(k)^h(kom). (17-13) Эта запись означает, что h (к) имеет минимум в точке Я,опт. Но так как для хи1, удовлетворяющих условию (17-22), /г (Я) = Ф (х, к), то выраже¬ ние (17-13) утверждает, что Ф (х, к) имеет минимум по Я, в точке Яопт при условии выполнения (17-10). Задача минимизации Ф (х, Я,) по к при ограничениях (17-10), кото¬ рые для каждого к определяют соответствующее х, называется задачей, двойственной к задаче отыскания максимума F (х) при ограничениях Ф; (х) = bi (i = 1, .... m): Прямая задача maxF(x) = ?; X ф/(х) = &/, i = 1, : m. Двойственная задача ттФ(х, ^) = min[/7(x) — dF дх,- - 2 к (ф; - Ь{) i=1 т -Ъж-о- i-1 1=1 n. 14* 423
Двойственные задачи обладают тем свойством, что в окрестности хопт в соответствующих ограничениях min Ф (х, к) = max F(x) = F (хопт) = h (Л,опт); К х grad F = к grad <р; Ь = <р. Но в соответствии с равенством (17-11) шахФ(х, %) = h(k) и min h (к) = h (^опт) х А, и поэтому F (х0пт) = min шах Ф (х, %). Я, х Это важнейшее соотношение означает, что задача оптимизации функции при ограничениях сводится к решению задачи на минимакс. Оно смы¬ кается с теорией игр и утверждает, что задачи на условный экстремум сводятся к игровым задачам, в частности отысканию седловой точки. Последнему ут¬ верждению можно придать более четкую форму. Если рассматри¬ вать малую окрестность точки [х0Пт, ^опт^ в (п + т)-мерном пространстве, то в силу того, что Ф (х, к) имеет максимум по х, для любого к из этой окре¬ стности можно написать: Ф (Х, ^опт) ^ Ф (хопт> ^опт) = = F(X опт). (17-14) далее, ^.(хопт, Ч = г (хопт), так как хопт <= G. Поэтому Ф (хопт, к) = F (хопт, к), С учетом этого и соотношения (17-14) можем написать: Ф(х, ^0ПТ)^Ф(х ОПТ» ^опт) Ф (Хопт» ^)* Тем самым доказано, что функция Лагранжа имеет в оптимальной точке (хопт, ^опт) седловую точку, правда, вырожденного типа, так как справа стоит знак строгого равенства (рис. 17-7). Точка (хопт, Х-опт) функции двух векторных переменных (х, к) на¬ зывается седловой, если удовлетворяются соотношения Т(Х, ^^^(Хопт, ^опт) < Y (Хопт, Ц- Заметим, что знак «=» можно заменить более широким знаком «^». Классические методы оптимизации функции при наличии ограниче¬ ний, так же как и классическое вариационное исчисление, в принципе позволяют определять экстремум функции при ограничениях в виде нестрогих равенств, и, в частности, при требовании неотрицательности переменных. Однако это сопряжено с возрастанием трудоемкости вы¬ числений. Рассмотрим вначале случай неотрицательности переменных. Пусть имеется задача оптимизации вида max {z = F(x) |х^0, <р4(х) = Ь*, i=l9 m; т<ц}. 424
Допустим, что максимум достигается в точке хопт, которая лежит внутри или на границе области допустимых значений. Первона-' чально исследуют все внутренние точки положительного октанта д-мерного пространства и в них вычисляют значения функции цели г. Затем исследуют границу положительного октанта, причем на пер¬ вом этапе приравнивают нулю одну переменную, решают задачу на оптимум с оставшимися п — 1 переменными и т ограничениями и вычисляют значение функции цели для каждого решения. Так как переменных пу то на первом этапе необходимо решить п задач сп — 1 переменными и т ограничениями. На втором этапе при¬ равнивают нулю каждые две координаты и решают задачу с п — 2 переменными и т ограничениями. Можно показать, что число таких задач будет пМ2! (п — 2)!. В последующих задачах нулю приравнивают¬ ся три, четыре и т. д. координаты. Отсюда сразу видна трудоемкость такого вычислительного процесса. Если не все переменные подчинены условию неотрицательности, то нулю приравниваются только те, для которых это требование имеет место. Теперь рассмотрим случай, когда нет условий неотрицательности, но некоторые из ограничений имеют форму неравенств. Пусть т. е. v ограничений имеют форму неравенств, остальные т — v — форму равенств. Добавим v переменных хф ^ 0, которые сводят нера¬ венства (17-15) к равенствам вида Теперь задача свелась к ранее рассмотренной: ограничения заданы в виде строгих равенств, но имеется требование неотрицательности и -f v переменных хф. Заметим, что условие ^(х) ^ bt эквивалентно xcpt >0 (i = 1, ..., u)f а условие gt (х) ^ bt эквивалентно хф. ^ О (i = и + 1, ..., v). Экстремум может достигаться внутри неотрицатель¬ ного октанта ^-мерного пространства, где *Ф.> 0, и на его границах, где одно или несколько хф.=0. Рассмотрим вначале вариант с *ф > 0. Функция Лагранжа для уравнений (17-16) будет иметь вид: фДхХб/, i= 1, ..., и\ Фi(x)Ss5&f, i = u+ 1, ..., v; Фi(x) = bh i = v + 1, ..., m; (17-15) тахЕ(х) = ?, фДх) + л:ф. = 6ь i= 1, и\ фДх) — хщ = Ьь i = u+ 1, ..., v\ Фi(x) = bi, i = v-1-1, , т\ (17-16) шах F (х) = ? и Ф(х, хф, X) = F (х) + Д] %i [bi - х<р. — фг (х)] + 1=1 V т / = и+1 i=v +1 425
Для точки оптимума частные производные от этой функции по всем переменным, в том числе и по яф, должны равняться нулю. Поэтому дФ л л • 1 ■д— — %i — 0, i — 1, и у ОХ ф. !^ = Яг = 0, г = м+1,...,у. их ф (17-17) Эти соотношения означают, что если в точке экстремума хф. > О, то соответствующие Xt = 0, т. е. ограничения, которые в точке экстре¬ мума имеют вид строгих неравенств, можно не учитывать. При дви¬ жении по границе, где некоторые = 0, соответствующие ограниче¬ ния следует учитывать и для них Xt Ф 0. По существу доказано очень важное соотношение, что в точке оптимума или вспомогательные пере¬ менные Ху = 0, или соответствующие множители Лагранжа Xt = 0, т. е. 'Xi опт-^ф^ опт = ^ (17-18) или дФ _п XViопт dX(t. ~ и‘ Таким образом, вначале просматривают внутреннюю часть области положительного октанта ^-мерного пространства Ху , т. е. по существу отбрасывают все ограничения в форме неравенств (v штук), ищут реше¬ ние и вычисляют значение г. Затем поочередно подключают одно соот¬ ношение, эквивалентное Ху = 0, далее по два соотношения и т. д. и каждый раз вычисляют значения г. Наибольшее из этих г соответ¬ ствует точке экстремума. 17-4. ВЫПУКЛОЕ ПРОГРАММИРОВАНИЕ Интенсивное развитие нелинейного программирования в значи¬ тельной степени вызвано доказанной в 1951 г. фундаментальной теоре¬ мой Куна и Таккера о седловой точке в задачах выпуклого програм¬ мирования. Эта теорема распространяет результаты о минимаксе, полученные в предыдущем параграфе применительно к классическому варианту для задач на условный экстремум, на случай задания огра¬ ничений в виде неравенств. Особый интерес представляет эта теорема для недифференцируемых функций, о чем вообще не говорилось в клас¬ сических методах. Вначале получим условия существования седловой точки у непре¬ рывной функции двух векторных переменных. Затем покажем, что эти условия удовлетворяются для оптимальной точки задачи нелинейного программирования. Условия существования седловой точки. По определению функция Ф (х, X) двух векторных переменных х = || хъ ..., хп || и X = || Х1у ..., Хт | | имеет в точке (хопт, ^опт) седловую точку, если выполняются соот¬ ношения Ф (х> ^опт) Ф (^опт> ^опт) Ф (^опт» ^) -(17-19) 426
для всех х и к из е-окрестности (хопт, копт). Будем считать, что х ^ О ИЬ >0. Геометрически соотношение (17-19) интерпретируется с по¬ мощью рис. 17-8 и 17-9. При этом допускается и вырожденный слу¬ чай, когда в левой или правой части стоит знак равенства. Докажем, что необходимыми и достаточными условиями существо¬ вания седловой точки для функции двух векторных переменных явля¬ ются соотношения т. е. требуется доказать, что из условий (17-19) следуют (17-20) — (17-25) (необходимость) и из условий (17-20) — (17-25) следуют (17-19) (достаточность). Действительно, если при Xj ^ 0 предположить соот¬ ношения, обратные (17-20) и (17-21), т. е. Ф (Хопт> ^опт) 7- 0 При Xj Z> 0, Ф (хопт, ^опт) 0 При Xj = 0, то это означало бы, что точка хопт при к = копу не является максимумом, так как для внутренних точек, где Xj > 0, в точке максимума должна равняться нулю первая производная ® (^опт> ^опт) = 0, а на границе области, где Xj = 0, первая производная для случая мак- 427
симума должна быть неположительна, т. е. -|-Ф(Хопт, ЬоптХО. При этом подразумевается, что для внутренних точек, где Xj >0, соотношение (17-20) носит характер строгого равенства, а для гранич¬ ных точек, где Xj = 0, — характер неравенства. Соотношение (17-21) выполняется для внутренних точек за счет равенства нулю производной, а для граничных точек — за счет равенства нулю координаты. Анало¬ гично доказывается необходимость условий (17-23) и (17-24) при Xt ^ 0, т. е. они следуют из условия минимизации функции Ф (х, X) относи¬ тельно X, если учесть, что при фиксированном х эта функция линейная относительно Xt. Действительно, если учесть, что ^ т Ф(х, J0 = f(x) + I№-<P. (x)], 1=1 то соотношение (17-23) является просто другой записью исходных ограничений ф, (х) ==S bt. так как дФ < , v -Щ = ^-Фг(х). Как было показано ранее [формулы (17-17) и (17-18)], если в окрест¬ ности точки экстремума bt — (х) ^ 0 ив точке экстремума bt — — Ф; (хопт) > 0, то соответствующие XionT = 0. Для тех индексов f, при которых в точке экстремума (и малой окрестности ее) bt — ер; (х) = = 0, Ф (х, X) = F (х), XionT 7^=0 (а именноД* > 0). Поэтому всегда или Xi = 0, или дФ/дХ( = 0 и соотношение (17-18) выполняется. Другой способ доказательства справедливости соотношений (17-23) и (17-24) аналогичен использованному ранее доказательству справед¬ ливости соотношений (17-21) и (17-22). А именно, так как функция Ф (х, X) при фиксированном хопт имеет минимум по X в точке X = ^опт, то для внутренних точек Х>0 дФ/dXi = 0, а для граничных X = 0 дФ/dXi ^ 0. Тем самым доказано, что из условий существования седловой точки (17-19) следуют соотношения (17-20) — (17-25). Чтобы доказать их достаточность для существования седловой точки, предположим вогнутость функции Ф (х, X) по х и, разложив ее в ряд Тейлора, получим: Ф(Х, Кпт) ^ Ф (Хопт, Ц + (X - Хопт) -дф(х°пт. Ьопт) = = Ф(х0Пт, К.т) + х —(ХХ ^опт)- < Ф (Х0ПТ, копг), XSsO. (17-26) В формуле (17-26) под производной дФ(х, X)ldx, понимается гра¬ диент функции Ф по х, т. е. “<|^_grad,®(x, 428
Очевидно, что для вогнутой функции в соответствии с рис. 17-10 значение ординаты, касательной вблизи точки вогнутости (хопт, Л/опт)» не менее значения самой функции. Кроме того, если сложить все равен¬ ства (17-21) по /, получим: Хопт дФ (ХХ Кпг) = Хопт gradx Ф (хопт, Кт) = 0. (17-27) В соответствии с этой формулой в соотношении (17-26) справедлив знак равенства. И, наконец, если сложить по / все соотношения (17-20), получим:’ дФ (Хрпт> ^опт) дх = gradx Ф(хопт, Поэтому в соотношении (17-36) при х ^ 0 справедлив послед¬ ний знак неравенства. Тем самым доказана левая часть соотношения (17-19), т. е. ус¬ ловие максимума функции Ф (х, к) по х в точке (хопт, копт). Доказательство правой части этой формулы может выполняться двумя путями. Для любой выпуклой по к функции Ф (х, Я,) аналогично соотношению (17-27) можно написать: Ф (Х0„т, (Хопт, Ьопт) + (X - Яопт) аФ(Х°^’ ^°Пт) = = Ф(Хопт, Ьопт) + - Ф ^1~опт)-5* ф (х0пт, 70ПТ), или, учитывая линейность Ф (х, к) по к, m Ф (х, К) = F (х) -f 2 X; [bi - ф, (х)] 1=1 (и не предполагая выпуклости ее по к), получаем: Ф (Хопт, Ц = Ф (Хопт, Ьопт) + ~ Кп?) —(Х-°^’ Х°ПТ) = = Ф (Хопт, Кп) + Я. дФ (Х011 Х°ПТ) ^ Ф (Хопт, Ьопт). (17-28) Первый знак равенства справедлив в силу линейности функции Ф (хопт, к) относительно к. Второй знак равенства справедлив или в силу соотношений (17-24), если их просуммировать по t, или в силу уже применявшихся рассуждений о том, что или дФ (х, k)ldki = 0, или ^опт = 0. Тем самым доказана правая часть соотношения (17-19) и доста¬ точность условий (17-20)—(17-25) для существования седловой точки. 429 Ф^опт^олт) ф $Ф(хопт> ^опт) * 9rQdx Ф(хопп%опт)' у/ ^ опт) /|Ф'1 ^ОПТ)■ 1 1 1 1 1 1 1 ! х ХППГ Рис. 17-10. Пояснение к разложению вогну¬ той функции в ряд Тейлора.
Если имеется в виду седловая точка с минимумом по х и макси¬ мумом по Я,, то соотношения (17-19) — (17-25) перепишутся в виде Ф (Хопт, (Хопт, Кпт) < Ф (X, КптУ, (17-29) ^гФ(х0пт, ^опт) 0; (17-30) Хопт -Щ Ф (Хопт, ^опт) = 0; (17-31) XjSs 0; (17-32) ■щф(х, а,)<0; (17-33) К опт -Щ Ф (Хопт, ^опт) = 0; (17-34) К^О. (17-35) 17-5. ТЕОРЕМА КУНА-ТАККЕРА Формулы (17-20)—(17-25) составляют содержание теоремы Куна — Таккера, только в отличие от предыдущего параграфа, где функция Ф (х, i) была произвольной, в данном случае она является функцией Лагранжа для задачи максимизации нелинейного программирования, а (х0Пт» ^опт) — точка экстремума. Сама теорема может быть сформули¬ рована следующим образом: соотношения (17-20)—(17-25) являются необходимыми и достаточными условиями, для того чтобы точка хопт представляла собой решение задачи выпуклого нелинейного програм¬ мирования: max {F(x) | лг7^0, / = 1, ..., /г; ср i(x)^bh i=l,...,m}. (17-36) Сведем исходную задачу к классической постановке. Для этого прежде всего ограничения-неравенства фг- (х) ^ bt сведем к равен¬ ствам, введя и переменных xs. ^ 0 (i = 1,2,..., и), соответствующим неравенствам. Остальные т — и ограничений считаются строгими равенствами. Тогда ф;(х)+*5. = &ь i = 1, 2, ..., и\ q>i(x) = bi, i = u-j- 1, ..., т; х^0; xs. г* 0; max z = max F (х) = ? Тем самым допускается, что часть из т неравенств имеет вид строгих равенств. Предположим, что для этой задачи х = хопт. Обозначим через J множество индексов / (/ = 1, ..., п), для которых xJonT > 0, а через / — множество индексов /, для которых Хуопт = 0. Аналогично будем считать, что I — множество индексов i (i = 1, ..., и), для которых Ф* (хопт) = 1 — множество, состоящее из индексов *, для которых ограничения на ф/ (хопт) выполняются со знаком строгого неравенства 430
ф (хопт) < bt. Заметим, что речь идет только о точке оптимума хопт и* знак нестрогого неравенства «^» теряет свой смысл и соотношение превращается или в строгое неравенство (типа 5 > 4) или в строгое равенство (типа 3=3). На основании результатов, полученных в § 17-3, можем написать, что т d-L^A - 2 к опт d<PitnT)- = 0, уе/, (17-37) 1 1=1 так как множество J соответствует внутренней области допустимых значений, и XionT = 0, i <= /, так как множество / соответствует огра¬ ничениям- в виде строгих неравенств, которые можно не учитывать. Далее т дНдхопт) - J ^ опт < 0, j е /, (17-38) 7 i=\ 1 так как множество J соответствует границе области допустимых зна¬ чений. Соотношения (17-37) и (17-38) обеспечивают выполнение условия (17-20) Ф (хопт> ^опт)^0. Теперь нетрудно убедиться, что п ^ дФ (хопт, А;опт) Y Г &F (хопт) VI л dept (х0Пт) I а Xj опт dXj ~ опт L dXf ,7^ опт dXj J —и. i=l Это соотношение обеспечивает выполнение формулы (17-21). Затем имеем: дФ 1*ОПТ;.ЛоПт1 =Ь,_ ф, (Хопт) ^ Q| (17-39) так как множество I соответствует границе области. Эти разности неотрицательны, а остальные п — и равны нулю по условию. Формула (17-39) обеспечивает выполнение условия (17-23), которое по существу совпадает с ограничениями в исходной задаче нелинейного програм¬ мирования. Наконец, условие (17-24) выполняется в силу доказанных ранее соотношений (17-17), согласно которым для ограничений в виде строгих неравенств = ь, _ Ф. (Хопт) > 0 соответствующий множитель Лагранжа А,* = 0 и =^0 только при дф {Хг2] w) = bt- Ф, (хопт)=о. Таким образом, доказано, что в точке оптимума задач нелинейного программирования выполняются необходимые и достаточные условия 431
существования седловой точки (необходимость теоремы Куна — Так- кера). Для доказательства достаточности этой теоремы необходимо дополнительно потребовать выпуклости (вогнутости) и использовать методы доказательства достаточности условий (17-20) — (17-25) для существования седловой точки. Тем самым доказана теорема Куна Таккера для случая дифференцируемых функций. В литературе [Л. 96] имеются доказательства этой теоремы для недифференцируемых функций F (х) и фДх). В этом случае теорема формулируется следующим образом: вектор хопт тогда и только тогда является решением задачи (17-36), когда существует вектор ^опт, такой, что справедливы соотношения Хопт^О; ^опт^О; (17-40) Ф(х0пт, ^)^ф(х0пт, ^опт)^Ф(х, 30 (17-41) для всех х 35 0 и % Зг 0, т. е. задача о максимизации F (х) соответст¬ вует задаче о седловой точке, иными словами, задаче о максимине для функции Ф(х, Я,). 17-6. КВАДРАТИЧНОЕ ПРОГРАММИРОВАНИЕ Рассмотрим здесь только задачи нелинейного программирования, относящиеся к задачам квадратичного программирования, в которых F(x) является квадратичной функцией F(x) = Q (х) = рх + хСх, (17-42) где С — симметричная положительно полуопределенная матрица, а функции в ограничениях представляют собою линейные функции: Фг (х) - Ьг = агх - Ъи (17-43) где а/= || ад, ад,..., ад||. Сама задача квадратичного программиро* вания может быть записана в виде min {Q (х) | Ах С Ь, х ^ 0}, где А^= || ад ||, Ь = || 6,-1|. Все коэффициенты в формулах (17-42), (17-43) могут быть произ¬ вольными, за исключением коэффициентов матрицы С. Симметричность этой матрицы необходима для квадратичности функции цели, чтобы члены аы xk х\ и ад xt xk равнялись друг другу и объединялись в один 2 aklxkxt. Можно доказать [Л. 96], что если С — положительно полуопреде¬ ленная матрица, т. е. хСх ^ 0 для всех х, то функция Q (х) = хСх — выпукла. Квадратичные программы могут быть записаны в одном из трех видов: I. min {рх + хСх | Ах^Ь, х^О}; II. min {рх + хСх | Ах = Ь, х^О}; III. min {рх + хСх | Ах ^Ь}. 432
Очевидно, что с помощью уже применявшихся приемов можно любую из трех задач свести друг к другу. Функция Лагранжа для них запи¬ шется как т Ф (х, А,) = Q (х) + 2 (а/х — h) = рх + хСх + А, (Ах — Ь). i=i Обозначив получим: дФ дх' V’ дХ v = p + 2Cx + ATX = у = — Ах — b = — а® = у. ЗФ_ дх дФ дХ ' (17-44) (17-45) Условия Куна — Танкера для этих трех задач имеют вид: I. min {рх + хСх [ Axsgb, xSsO}: а) Ax + y = b в соответствии с (17-45); (17-32); (17-30), (17-32); (17-33), (17-35); (17-31), (17-34). г 0}: б),2Сх — v -f- АТХ, = — р то же , Х2г0, v ^ 0 В) у 0, Х^О г) xv + y^ = 0 II. min {рх + хСх | Ах = b, а) Ах = Ь; б) 2Сх —^ + AT?i, = — р в соответствии с (17-44); в) х^гО, Х^О то же (17-44), (17-45); г) xv = 0 » » (17-43). III. min {рх + хСх | Ах ==£ Ь}: а) Ах + у = Ь в соответствии с (17-45); б) 2Сх + АтХ = — р; в) у За 0, Х^О то же (17-45), (17-47); г) у). = 0 » » (17-46). (17-46) (17-47) (17-48) Соотношение (17-48, б) следует из того, что при отсутствии огра¬ ничений на знак переменной «работают» классические методы и дФ дх X к ОПТ» опт = 0. С помощью соотношений (17-46), (17-48), выражающих условия Куна — Таккера, по существу нахождение д-мерного вектора х све¬ лось к нахождению двух n-мерных векторов х и v и двух т-мерных векторов А, и у, удовлетворяющих или условиям (17-46), или (17-47), или (17-48). Все значение теоремы Куна — Таккера заключается 433
в том, что задача нелинейного программирования сводится к решению систем уравнений (17-46) — (17-48). Для квадратичного программиро¬ вания условия Куна — Таккера были получены Баранкиным и Дорс]> маном. Надо заметить, что они имеют различный характер. Так, соот¬ ношения (17-46, а), (17-48, а) и (17-46, б), (17-48, б) представляют собою линейные алгебраические уравнения, тогда как условия (17-46, г), (17-48, г) носят комбинаторный характер. Условия (г) требуют, чтобы из каждых двух ограниченных переменных Xj и vj9 общим числом 2/г, или Xt и у1у общим числом 2/п, по крайней мере одна равнялась нулю. Поэтому все те решения систем (17-46, а — в), (17-48, а — в), которые образуют множество возможных решений уравнений (17-46,г),(17-48,г), характеризуются тем, что имеют самое большее столько компонент, отличных от нуля, сколько имеется в (17-46,а,б) (17-48,а,б) огра¬ ничений в форме равенств, т. е. т + п. Эти решения являются базис¬ ными, и только среди них следует искать такое, которое бы удовлет¬ воряло условиям (г). Поэтому для задач (17-46) — (17-48) можно при¬ менять видоизменный симплекс-метод, который подробно будет изло¬ жен в методе Баранкина и Дорфмана. 17-7. МЕТОД БАРАНКИНА И ДОРФМАНА Этот метод применяется к задаче квадратичного программирова¬ ния, сформулированной в виде I, min {px-f-xCx j Ах^ Ь, х^ 0}. В данном случае условия Куна — Таккера в соответствии с форму¬ лами (17-46) запишутся в виде Ах + у = b; j 2Cx-v + A*, = — р; (17-49) х^г 0, у^О, v ^ 0, Х^О; J xv-fy^ = 0. (17-50) Отметим, что соотношение (17-50) может выполняться только для допустимого базисного решения системы (17-49), которое характе¬ ризуется той особенностью, что из 2 (п + т) ограниченных по знаку переменных х, vy уу X самое большее N переменных, где N = п + т — число равенств в этой системе, отличны от нуля. Идея метода Баранкина и Дорфмана заключается в том, что про¬ цедура последовательного отыскания решения начинается с базисного решения системы (17-49), которое не обязательно удовлетворяет условию (17-50). Затем с использованием симплекс-метода добиваются равенства нулю выпуклой функции xv + уХ. а) Алгоритм Для удобства изложения представим все переменные в виде 2АЛ мерного вектора Z = || X, у, V, I 11 = 11 ХЬ Хп, Ух Ут, Ух, , vn, Xlt . . . , кт Ц. 434
д1оЖНО поставить в соответствие каждому вектору г вектор г, опре¬ деляемый соотношением Z=|| V, I, X, у II, такой, что %i+N> ^i+N %it /=1,2W, и XV + yl=— ZZ. С помощью этих векторов условия (17-49) и (17-50) запишутся в виде А Е 0 0 2С 0 —Е Ат z^O; z = zz = 0 (17-51) Исходя из некоторого допустимого базисного решения системы (17-51), совершим последовательность симплексных преобразований, с помощью которых будем уменьшать выпуклую функцию Т (z) = zz, пока не достигнем значения Т = 0. Симплекс-метод в данном случае аналогичен использованному в линейном программировании, только усложняются правила выбора включаемых в базис переменных из-за нелинейности функции Т (z). Допустим, имеется некоторое допустимое базисное решение си¬ стемы (17-51). Симплекс-таблица в данном случае должна задавать входящие в базис переменные zg как функцию от N небазисных пере¬ менных Zyh = /Л, не входящих в базис Zg — dgo -f- dghthi § 1 > 2,..., 2N. h=l (17-52) Эту запись можно использовать и для небазисных переменных из числа zg. Для этого симплекс-таблица дополняется строками, все элементы которой, кроме одного, равного единице, равны нулю. В этих строках для небазисной переменной zg = tj будет dgh = 0, h Ф /, a dgj = 1. Нумерация всех переменных zg базисных и небазисных дается от g = 1 до g = 2N. Функциональную зависимость (17-52) можно записать в векторном виде: N z = do + ^thdh, (17-53) h=1 где d/j — h-й столбец симплекс-таблицы. При небазисных переменных th = 0 формула (17-53) перепишется в виде z = d0 ^ 0 и Т = d0d0. 435
Включим в базис переменную tj, равнявшуюся нулю, сделав ее поло¬ жительной (tj = “0 > 0) и сохранив за остальными небазисными пере¬ менными th (h =7^ j) нулевые значения. После этого вектор z = d0 + Od у. Увеличивать переменную tj можно до тех пор, пока некоторая /-я из базисных переменных не обратится в нуль. Эта /-я переменная опре¬ деляется из условия 0/ = тт{г|-ПРИ dgJ<0}. Положив tj = О/, получим новое базисное решение, в котором вектор z принимает значение z = d0 + G /d у, (17-54) а величина 7" соответственно Так как то где Т, = Т (г) = (d„ + flvd,.) (do + Ы-). N N dyd0 = j clj fdj+N. о ^ j dj+N, jdit о= dody, 1=1 t=i Tj = d0d0 + 2flydyd0 + 0 ]dydy = T + Gy/ty, (17-55) /Cy = 2ay + GyPy; (17-56) ay = dyd0; (17-57) Py = dydy. (17-58) Очевидно, что правило включения в базис новой переменной должно быть таким, чтобы /Су < 0, так как при этом уменьшается значение Т. Если отрицательных чисел /Су несколько, выбирается то, которому соответствует наименьшее отрицательное произведение Оу/Су. Вели¬ чины |3у, представляющие собою вторые производные от Гу по tj = = фу, в силу выпуклости функции Г всегда неотрицательны. Поэтому величина /Су может быть отрицательна только за счет ay. В данном случае для тех /, для которых ay <С 0, необходимо проверять, умень¬ шает ли базисное решение, в которое включены переменные tjy зна¬ чение функции Г. В этом состоит отличие от линейного программиро¬ вания, при котором функция цели в силу линейности монотонно умень¬ шается при отрицательной первой производной ay, и достаточно про¬ верять только знак ay. В случае квадратичной выпуклой функции цели Г исследования первых производных может быть недостаточно, так как эта функция может принимать экстремальное значение на отрезке, соединяющем старое и новое базисные решения. Может быть и так, что /Су > 0 для всех /, хотя Г > 0. На рис. 17-11 пунктиром изображены линии равных значений функций цели 436
f и сплошными линиями — многогранник допустимых значении, определяемый соотношениями (17-51). Вершины соответствуют базис¬ ным решениям, а симплексное преобразование — переходу к сосед¬ ней вершине. Для этого примера пе¬ реход из точки Рг в Р2 и Р6 приводит к увеличению функции цели, хотя Рг не является глобальным минимумом. В данном случае метод Баранкина и Дорфмана в изложенном выше плане неприменим. Приходится идти на временное увеличение функции Т, включая в- базис переменную с поло¬ жительным значением /Су и пытаясь пробиться через эту «мертвую зону». При дальнейшем развитии этого ме¬ тода, реализованного в методе Фран¬ ка и Вульфа, удается избавиться от этого недостатка. 4 •Р*- Рис. 17-11. Пояснение Баранкина и Дорфмана. к методу б) Вычислительная схема Исходный базис можно найти, использовав метод вспомогатель¬ ных переменных, применяемый в линейном программировании (см. гл. 16), постепенно сводя эти переменные к нулю. Последователь¬ ность метода такова, что после определения допустимого базисного решения приступают к минимизации функции цели, для чего строят симплексную-и дополнительную таблицы в виде табл. 17-1. Таблица 17-1 Симп¬ лексная таблица 1 2vi ••• хг —гг Ут = ZN У1 = гАЧ-1 — ZiN ^ii ••• dlf л/ dN, 0 dNt l ••• d N, N dN+i, 0 dN-bi,i ••• dN+i,N d2N, 0 diNt 1 '•* d4N, N Дополнительная таблица a0 ax ... aN Pi •••Pa/ <>i ••• Кг ... KN В отличие от стандартной симплекс-таблицы здесь добавлена таб¬ лица для дополнительных переменных а0, а у, (Зу, Фу, /Су, которые вычис¬ ляются по следущим формулам: N ocq = Т = d0d0 — 22 о* i=i 437
Приа0 = 0 сразу получаем оптимальное решение. В противном случае дополнительно находим: N осу dydo — | (di jdi+Nt g -j- di+N' jdjq), у — 1, ..., N * Далее для /, для которых а у <; 0, определяются N Ру = dA = 2 2 h •&j = min ПРИ Для определения элемента j вычисляются /Су — 2а;- + ^уРу* В качестве заменяющего столбца выбирается такой, для которого отрицательное произведение Фу/Су наименьшее. Элемент dgJ, по кото¬ рому определено Оу = dgo/I dgj I, становится опорным, и из базиса удаляется соответствующая ему g-я переменная (заменяющая строка), которая встает на место переменной заменяющего столбца. Затем все элементы заменяющего столбца делятся на опорный, который при этом становится равным единице. Тем самым получаем заменяющий стол¬ бец с новыми элементами. Для получения остальных столбцов новой таблицы из соответствующих столбцов старой вычитаем уже постро¬ енный заменяющий столбец, умноженный на элемент, стоящий на пересечении преобразуемого столбца старой таблицы и заменяющей строки. Описанный .выше процесс формирования новой симплекс-таблицы полностью аналогичен такому процессу в линейном программиро¬ вании и определяется в соответствии с формулой, которая получается из соотношения (17-51),если выразить переменную /у, вводимую в базис, через остальные переменные. Допустим что опорный элемент стоит на пересечении f-й строки и /-го столбца: Первое соотношение соответствует делению элементов заменяющего столбца на опорный элемент и определяет новую (вводимую) строку. Второе соотношение определяет остальные строки или столбцы. Эле¬ менты нового вводимого столбца (соответствующего новой небазисной переменной zt) формируются по тому же правилу, только в качестве элементов старого столбца берутся нули. Новая таблица подверга¬ ется такой же серии преобразований, как и старая. Процесс продолжа¬ ется до тех пор, пока Т не примет нулевого значения. Однако можно zi + '^i{dgk — dgj-j^tk ; tj — Zjy tk — Zfc* 438
еще улучшить процедуру вычислений, если сначала определить в соот¬ ветствии с формулой (17-54) первый столбец таблицы dg0 = dg0 + + 'O'y dgj и no dgо, пользуясь формулой (17-57), вычислить а0. Если а0 = 0, то новое базисное решение оптимально, и мы сэкономили на одном симплекс-преобразовании. Пример 17-1. Минимизируем функцию Q = —Qx± + 2х\ — 2х±х2 + 2х\ при ограничениях хг + х2 ^ 2, хх ^0, х2^ 0. Здесь А = || 1 111; В = 2; 2 —1 —6 с = —1 2 ; р = 0 Запишем условия Куна —Таккера (17-51) для данного примера: 2 6 0 Найдем допустимое базисное решение данной системы уравнений, используя дополнительные переменные b || IIА Е 0 0 || 1 1 1 0 0 4 -2 0 -1 1 z = —2 4 0 -1 1 Е — (I 6i> Ег> • • • » S/i+m II — РИ п-\-т 2С 0 -Е Ат z, и вспомогательную функцию цели f= 2 ^ с применением симплекс-метода. Ис- i = 1 ходная симплекс-таблица запишется в виде табл. 17-2. Т а б л и ц а 17-2 Т а б л и ца 17-3 1 Ч Ч У1 Ч Xi / 8 3 3 1 — 1 —1 2 Ei 2 1 1 1 0 0 0 Е2 6 4 —2 0 —1 0 1 Ез 0 —2 4 0 0 —1 1 1 *1 *2 У1 ^2 / 8 7 —5 1 —1 1 Ei 2 1 1 1 6 6 —1 —1 1 —2 4 —1 Затем получим последовательность симплекс-таблиц (табл. 17-3, 17-4, 17-5). Таблица 17-4 Таблица 17-5 1 *1 *2 ^2 / 6 6 —6 —1 1 У1 2 1 1 Ез 6 6 —6 —1 1 bi —2 4 — 1 1 Ч х2 / 0 0 0 0 Уг 2 1 1 Ч 6 6 —6 — 1 К 6 , 4 —2 — 1 Согласно соотношениям (17-51), (17-56) — (17-58) и табл. 17-1, 17-5 составим следующую последовательность симплекс-таблиц (табл. 17-6, 17-7). 439
Таблица 17-6 Таблица 17-7 1 X1 *2 01 *1 1 Х2 1 Уг 2 —1 — 1 Vl 1 ^2 6 —6 6 1 *1 6 —4 2 1 ОС; 24 —14 4 2 Ру 8 ду 1 —20 Вычисляя предварительно на каждом шаге значение Т = а0 = а0 + ^ /Сх, можно избежать вычисления следующей последней таблицы. В данном случае на следующем шаге значение функции согласно соотноше¬ нию (17-55) 7=4+1 (-8) = 0. Следовательно, осталось вычислить оптимальные значения компонент вектора. Итак. *1=1- (-1/2). 1=3/2} х2 = 0 —(—1/2) • 1 = 1/2; г/1=0; »i = 0; щ = 0; Х1 = 0. Оптимальное значение функции Q = —11/2. 17-8. ГРАДИЕНТНЫЕ МЕТОДЫ В n-мерном пространстве поверхности Q (х) = хСх + рх = const (17-59) представляют собой концентрически расположенные эллипсоиды с цент¬ ром в точке х0пг = уС-1р, (17-60) которая и является решением задачи квадратичного программирования 440
при условии соблюдения допустимых ограничений. Вектор-градиент функции (17-59) -^-= grad Q = 2Сх + р всегда перпендикулярен к поверхности (17-59), точнее, ко всем век¬ торам, лежащим в плоскости, касательной к этой поверхности. В этом нетрудно убедиться, если записать уравнение (17-59) в виде дифферен¬ циального п dQ = '2i^Xi = gxadQd\ = 0, (17-61) 1=1 1 которое означает, что дифференциал равен нулю, если равно нулю скалярное произведение grad Qdx. Координаты точки оптимума (17-60) определяются из уравнения 2Сх = —р. Градиентный метод заключается в дви¬ жении из некоторой начальной точки х°, лежащей на поверхности Q = const, по кривой, ортогональной к этой по¬ верхности и определяемой уравнением ^ = -gradQ(x) = -(p + 2Cx). (17-62) Если имеется задача нелинейного программирования шах {Q (х) | ф,- (х) < 0}, то для выпуклых функций Q (х) и области допустимых значений гео¬ метрически градиентный метод может быть иллюстрирован с помощью рис. 17-12. В случае, изображенном на этом рисунке, максимум дости¬ гается в точке, лежащей на кривой \\)3 = 0, в которой кривая Q (х) = = const касается кривой ф3 = 0. Общая характеристика дискретных градиентных методов. Непре¬ рывные или дифференциальные методы малопригодны для расчетов на ЦВМ. Поэтому предпочтение оказывают дискретным или поша¬ говым градиентным методам. Первый метод Эйлера, применяемый в отсутствие ограничений, заключается в замене дифференциального уравнения (17-62), опреде¬ ляющего непрерывный градиентный метод, разностным уравнением. Если обозначить R (х) = —р — 2Сх, то уравнение (17-62) можно записать в виде Дх*= RkAtk, k— 1, 2, Atk — tk+i — h\ Axk = x*+1 —- xft. Рис. 17-12. Пояснение к гради¬ ентному методу в нелинейном программировании. 15 Основы кибернетики 441
Другим дискретным градиентным методом является метод сопря¬ женных градиентов. В этом методе [Л. 96] поиск точки хопт начинается из некоторой точки х° в направлении s°. При этом решают уравнения типа (17-61). Очередное приближение определяют из формулы где Очередное направление х1 = х° y°s°, vo= g°sQ . Г 2s°Cs° ' g° = р° + 2Cx°. s1 выбирают сопряженным предыдущему, т. е. удовлетворяющим уравнению sK&»=0. На k-м шаге sk выбирают сопряженным s°, х, а) s'-,..., sft \ т. е. s*Cs^ = 0, / = О, 1, ..., Далее формируют = Р + 2Cxft; jjft+1 _ Xft _|_ k-\. (17-63) где g*s 2s«Cs*’ (17-64) x’ Рис. 17-13. Пояснение к ме¬ тоду сопряженных градиен* Можно доказать, что этот алгоритм при¬ водит к экстремуму при отсутствии огра¬ ничений за конечное число шагов г ^ п. Если первый шаг сделан вдоль коорди¬ натной оси, то следующий делается пер¬ пендикулярно ей при условии, что С —еди¬ ничная матрица, т. е. поверхность функции цели представляет собою часть сферы, при¬ чем таких направлений может быть (п— 1) (рис. 17-13, а). В этом случае метод сопряженных градиентов напо¬ минает метод покоординатного спуска, однако в последнем движение происходит вдоль той координаты, для которой значение производной максимально. Если матрица С — неединичная, то в соответствии со значениями ее элементов происходит деформация пространства (или плоскости при п = 2) значений функции цели, и угол между направ¬ лением последующего и предыдущего шагов становится не равным 90°, а определяется характером и степенью деформации пространства, т. е. траектория поиска как бы вписывается в рельеф (рис. 17-13, б). Величина k-ro шага в соответствии с числителем gksk формулы (17-64) определяется углом между направлением градиента функции цели в fe-й точке и направлением fe-ro шага. Знаменатель формулы (17-64) принципиальной роли не играет и просто нормирует величину шага в зависимости от длины векторов s/e. Все векторы skt сопряженные с s/ (/ = 0,1,..., к — 1) и имеющие начало в точке xkf образуют( п — ку 442
мерное линейное подпространство, содержащее в себе центр эллип¬ соидов Q = const. При наличии ограничений ф* (х) ^ 0 (i = 1, 2,..., in) эта точка может вообще не лежать в допустимой области. В этом случае точка хопт будет лежать на пересечении некоторых гиперпло¬ скостей а/X = bh ограничивающих допустимую область. Обозначим этот геометрический образ через D. Он имеет размерность г, где 0 ^ ^ г ^ п — 1, и пересекает при г > 1 поверхность Q (х) = const по эллипсоиду размерностью г—1, центр которого и будет искомым оптимумом. Если известно заранее, что хопт лежит в многообразии D, то, выбирая очередное sk в соответствии с формулой (17-63) при усло¬ вии, что sk е D, можно за конечное число шагов достигнуть оптимума, не выходя из многообразия. Если при определении хк+1 встретится какое-нибудь новое ограничение, то это означает, что необходимо изме¬ нить D, т. е. исходное многообра¬ зие не содержало хопт. Очевидно, что за конечное число шагов можно достичь правильного многообразия и внутри его оптимальной точки. В дискретных градиентных ме¬ тодах при ограничениях от k-и точки хк двигаются в направлении градиента или, если не позволяют • ограничения, в направлении вектора s, образующего с направлением градиента острый угол s grad F (:хк) > 0, до тех пор пока на этой пря¬ мой не будет достигнут максимум или движение будет невозможно (рис. 17-14). Одна группа методов (Зойтендейка) очередное (k + 1)-е направление движения определяет таким образом, чтобы скалярное произведение s grad F было максимально при выполнении условия, требующего, чтобы при движении из точки хк в направлении s траек¬ тория в достаточно малой окрестности точки хк не выходила из допус¬ тимой области, т. е. эти методы связывают определение направ¬ ления очередного шага с решением некоторой экстремальной задачи. Другая группа методов (например, Розена) этого не требует, но она связывает выбор вектора s с его расположением в некотором линейном многообразии размерностью, меньшей п. В классическом методе Розена градиент проектируется на границу допустимой области размерно¬ стью, меньшей всего пространства. диентного метода при ограничениях. 17-9. МЕТОД ДОПУСТИМЫХ НАПРАВЛЕНИЙ ЗОЙТЕНДЕЙКА Предполагается, что задана вогнутая функция цели Q, необяза¬ тельно квадратичная, с непрерывным градиентом grad Q = g(x): dQ dQ dQ дхх ’ дх2' " " ’ дхп и требуется определить максимум этой функции при ограничивающих 15* 443
условиях a iX^biy i — 1, 2, ..., т. (17-65) Необходимо так определить направление перехода из точки хк в точку xk+i = xk ySk? чтобы новая точка при достаточно малом у > 0 при¬ надлежала области допустимых значений G, определяемой соотно¬ шениями (17-65). Необходимым и достаточным условием соблюдения этого требования является следующее: для всех ieS, (17-66) где S — множество всех индексов i, для которых a iXk = bh (17-67) т. е. это означает, что множество S соответствует границе допустимой области, достигнутой на предыдущем шаге, а условие (17-66) озна¬ чает, что последующий шаг направлен внутрь и по границе области допустимых значений. Направления, удовлетворяющие условиям (17-66) и (17-67), назы¬ ваются допустимыми. Второе требование к выбору направления очередного шага заклю¬ чается в том, чтобы функция цели увеличивалась вдоль выбранного направления хотя бы для малых у, что обеспечивается неравенством s*g(x*)>0. (17-68) Направления, удовлетворяющие условию (17-68), называются под¬ ходящими. Из допустимых и подходящих направлений выбирается некоторое частное направление с помощью условий нормализации, которыми и отличаются различные градиентные методы. Процедура определения длины очередного шага yk при опреде¬ ленном s* во всех методах одинакова, а именно, определяется такое значение параметра у', при котором луч «протыкает» область допус¬ тимых значений G, определяемую соотношением (17-65), или такое зна¬ чение у", при котором Q достигает максимума, т. е. sfeg (x*-f-y"s/e) = 0, (17-69) причем у' и у" могут быть бесконечно большими. После этого длина очередного шага определяется из соотношения у* = min (у', у"). (17-70) При бесконечно^ большом значении у* функция цели неограниченна. Если yk конечна, очередная точка вычисляется по формуле xft+1 = хк -4- yksk. Метод Зойтендейка решает на каждом шаге частные небольшие линейные и нелинейные вспомогательные программы, в которых может с успехом применяться симплекс-метод. Метод применим не только к квадратичным функциям цели и линейным ограничениям. Он- не дает сходимости за конечное число шагов, однако если доба¬ вить условия сопряженности, то такая сходимость обеспечивается. 444
хг--0 N3: Сформулируем вспомогательные программы Зойтендейка. Их идея заключается в том, что новое направление sk ищется оптимальным в том смысле, чтобы функция цели не просто увеличивалась, что обеспечивается соотношением (17-68), а увеличивалась за каждый шаг максимальным образом при определенных условиях, т. е. тре¬ буется найти s/e, такое, что / ьч x,z0 gs = max, где g = g(xft) т ' ' при ограничениях a,s^0 для / е S (17-71) и одном' из пяти дополни¬ тельных нормирующих ус¬ ловий: N±: ss<l; (17-72) N2' — 1 ^ Sj с 1 для всех /= 1, 2, л; (17-73) Si < 1 для gi > 0; Si>— 1 для gi < 0; (17-74) М4: gs< 1; (17-75) N6: at-(s + х/г) ^ bi для всех i= 1, 2, m. (17-76) Следует заметить, что условие (17-71 ^справедли¬ вое для подмножества ин¬ дексов i е 5, содержится в соотношении (17-71). Условия нормализации необходимы для ограниче¬ ния величины sfe, так как иначе величину gs можно сделать сколь угодно большой при условии существования допустимого направления, для которого gs > 0. Если некоторые из ограничений исходной программы (17-73) имеют знак строгого равенства, то в соответствующих соотно¬ шениях (17-66) также должен стоять знак равенства, т. е. a,s = 0. Можно ввести другие условия нормализации, и тогда получится но¬ вый градиентный метод. Условие (17-72) ограничивает квадрат модуля вектора s. Условно это ограничение представлено на рис. 17-15,я в виде окружности. Ограничения (17-73) определяют куб допустимых значений вектора направления fe-ro шага sk, который может быть направлен в одну из вершин куба (рис. 17-15,6). Условие (17-74) для случая gt > 0 пред¬ ставлено на рис. 17-15,в. Допустимая область векторов sk на этом рисунке ограничена двумя лучами, пересекающимися под прямым углом. В случае нормирующего условия (17-75) область допустимых значений векторов sk лежит по одну сторону от прямой gs = 1 и не Рис. 17-15. Пояснение к методу Зойтендейка. 445
ограничена. Эти условия носят несколько более сложный характер, но очевидно, что вся допустимая область х является приемлемой с точки зрения выбора очередного шага, т. е. конец вектора s* может лежать в любой точке этой области (рис. 17-15, г), так как вектор s/e складывается с вектором xk, и их сумма не должна выходить за пре¬ делы допустимой области значений х. Соотношения (17-76) допускают выбор сколь угодно больших отрицательных значений sh т. е. область допустимых значений s не ограничена. Оказывается, что ограничения (17-72) приводят к нелинейным, а ограничения (17-73) и (17-74) —- к линейным программам. Пример 17-2. Рассмотрим случай с нормирующими условиями (17-76) при квадратичной функции цели Q = рх — хСх (С положительно полуопределена), g (xft) = р—2Cxft=gfe. (17-77) Длину очередного шага определим из соотношения Yft = min(v', у"), где у" =gsft/2 (s*) Cs*. (17-78) Формулу (17-78) получим из (17-69), учитывая (17-77), s*g (х* + y"sk) = sk [р - 2С (xk + y'sk)] = = s*p — sk2Cxk — s2Cy= skg (xk) — s2Cy "s* = 0. Физически это означает, что очередной шаг выбирается таким образом, чтобы сразу попасть в точку экстремума. В случае (17-76) величина, обеспечивающая «проты¬ кание» лучом области допустимых значений, всегда равна единице, так как в соот¬ ветствии с формулой (17-76) сам вектор sk выбирается так, чтобы «проткнуть» эту область. Рассмотрим задачу, решенную в примере 17-1. Максимизируем квадратичную форму Q = 6*! — 2х\ + 2ххх2 — 2х§ = max при ограничениях хх + х2 ^ 2, хх ^ 0, х2 > 0. Здесь 6 , с = 2 -1 0 —1 2 В качестве исходной точки возьмем х°= || 0, 0 ||. Вопрос о выборе ;зтой точки тре¬ бует специального обсуждения, на котором здесь мы не останавливаемся. Начальное значение градиента g(x°)=go = ||6, 0||. 1. Первая вспомогательная программа в соответствии с нормализацией (17-76) заключается в том, чтобы максимизировать выражение g°s = 6sx = max при огра¬ ничениях si + s2^2; sx^0; s2^0. (17-79) Это — задача линейного программирования. Для ее решения введем вспомогатель¬ ную переменную ух и составим симплекс-таблицу (табл. 17-8). Уже на следующем шаге с помощью оптимальной симплекс-таблицы (табл. 17-9) придем к оптимальному решению. Таблица 17-8 Таблица 17-9 1 Sl «2 У\ 2 — 1 + 1 g°s 0 6 0 1 У\ Sl s2 2 —1 — 1 g°s 12 —6 —6 446
Чтобы из табл. 17-9 получить оптимальное решение, необходимо значения коор¬ динат, соответствующих небазисным переменным, приравнять нулю (sx = 0), а осталь¬ ные переменные (sj = 2) взять из таблицы: s° = || 2, 0 ||. Далее, g°s° = 12, s°Cs° = б, у" = 12/2-6= 1. Так как при условиях (17-76) у' = 1, то у0 = min (у', у'7) = 1. После первого шага координаты следующей точки определятся как х1 = х° + y°s° = || 2, 0 ||; gi — Р — 2Сх] =|| — 2, 41|. Поскольку у° = у", используем условие сопряженности s°Cs = 0, а именно, 4s1-2s2 = 0, (17-80) т. е. добавим условие (17-80) к ограничениям (17-79). Можно показать [Л. 96], что при вычислениях удобно пользоваться заменой § —»-1 в соответствии с формулой t = xk + s. Это в ряде случаев позволяет приме¬ нить сокращенный метод таблиц. Подставим t1 = х1 + s. Тогда дополнительное условие (17-80) запишется в виде 4к — 212 = 8. 2. Во второй вспомогательной программе требуется найти максимум gH1 = = —2к + 4/2 при условиях fi + fa + ^1 = 2, yi^O; 4*х — 2f2 + */2 = 8, у2 = 0; к ^0; t2 ^ 0. Составим первую и вторую симплекс-таблицы второго шага (табл. 17-10, 17-11). Таблица 17-11 1 к Уг к 2 —1 —1 Уг 12 —6 2 git 8 —6 —1 Из табл. 17-10 и 17-11 имеем: t1 = 11-0, 21|; s1 =|| — 2, 2 ||; gx si =-12; s^s1 = 24; —12 1 . / \\ 1 * =2Т24=-Т: V =min (l, -Т)=-7. После второго шага имеем: x2=xl+Y1S1=|y1 -у 81 =11—5, 7||. Поскольку у0 = у", у1 = у", для третьего шага к ограничениям (17-79) необходимо добавить уже два дополнительных условия, соответствующих s0Cs = 0 и s1Cs = 0, а именно, 4% — 2% = 0; —6sx + 6% = 0. Теперь подставим t2 = х2 + s и получим задачу третьего шага. 3. В третьей вспомогательной программе требуется найти максимум g2t2 —• = —Ыг + 7/2 при условиях к + к + 01 = 2, у 1^0, f12^0; 4 к — 2к -f- у2 = 9, у2 = 0; 6ft — 6/2 + 0 =12, у3 = 0. Решение находим аналогично предыдущему: t2 = || 0, 2 ||;
Выбираем у2 = у" = 2/5. После третьего шага х3 = || 3/2, 1/2 ||. Поскольку g3 = || i? 1 ц? к ограничениям (17-79) следует добавить уже три дополнительных условия 4 sx — 2 s2 = 0; 6sx — 6s2 = 0; 15 15с_П "2^Sl 2 соответствующие условиям сопряженности sQCs = 0; siCs = 0; s2Cs = 0. Подставим t3 = x3 + s и получим задачу четвертого шага. 4. На четвертом шаге необходимо найти максимум g3t3 = Ц + t2 = max при условиях: ti— 2, #i ^ 0, ^12^0; 4^-2^ + г/2 = 5, #2 = 0; б/i — 6/2 -\~Уз = 6, г/з = 0; 15, i5, . 15 Л ~2 h—2"/2+#4-2~, #4 = 0. Решение четвертой вспомогательной программы запишется как taJIA 1 1 2 ’ 2 s3 = t3—х3=|10, 0||, откуда решение искомой квадратичной программы найдется в виде х3 = || 3/2, 1/2 || и Фмакс = Q (х3) = ~2 • Глава восемнадцатая ЦЕЛОЧИСЛЕННОЕ ПРОГРАММИРОВАНИЕ Математическая формулировка задач целочисленного програм¬ мирования аналогична задачам нелинейного программирования: min {F (х) | ^ 0; / = 1,2,..., п\ ф* (х) ^ 0, /=1, 2, ..., т}. (18-1) Однако специфика задач целочисленного программирования за¬ ключается в том, что переменные Xj и функции F(x), фу- (х) могут при¬ нимать только дискретные значения. Нормировкой или специаль¬ ными преобразованиями в подавляющем большинстве случаев можно свести эти дискретные значения к целочисленным. В общем случае целочисленными могут быть не все, а части пере¬ менных и функций. Иногда целочисленное программирование назы¬ вается дискретным программированием [Л. 97]. Однако, как уже указывалось выше, при полном рассмотрении всех методов оптими¬ зации этот термин оказывается занятым в другом смысле. Если все 448
функции F (х) и ф/ (х) в задаче (18-1) линейные, то имеет место линей¬ ная задача целочисленного программирования. Методы решения таких задач получили наибольшее распространение. Очевидно, что могут встречаться задачи с целочисленными переменными Xj и функ¬ циями F(x) и ф* (х) и целочисленными переменными и непрерывными функциями (рис. 18-1). Как правило, именно этот последний случай рассматривается в большинстве руководств. Кроме того, встречаются задачи частично и полностью целочисленные в зависимости от того, часть или все переменные Xj принимают целочисленные значе¬ ния. Как уже отмечалось, допустимые дискретные значения, входя¬ щие в множество, могут быть даже нецелочис¬ ленными. В частности, это множество может быть бесконечным, ко¬ нечным или даже состоя¬ щим всего из двух зна¬ чений: 0 и 1. В этом случае имеет место цело¬ численное программиро¬ вание с булевыми пере¬ менными, методы которо¬ го в значительной мере перекрываются логиче¬ ским синтезом конечных автоматов. Следует заметить, что методы целочисленного программирования зна¬ чительно отличаются от методов оптимизации, рассмотренных в первых главах данной части, и по существу своему отно¬ сятся к дискретной математике. Они не обладают таким единством, как методы вариационного исчисления, ивболынинстве представляют собой набор частных приемов, пригодных для решения частных задач. Однако их актуальность требует их дальнейшего развития и совершенство¬ вания, так как наиболее важные прикладные задачи типа оперативно¬ календарного планирования сводятся к задачам целочисленного про¬ граммирования. Со значительными оговорками все методы решения задач цело¬ численного программирования можно разделить на четыре группы (рис. 18-2): методы отсечения, комбинаторные, приближенные и дру¬ гие методы, которые нельзя отнести ни к одной из трех первых групп 1Л. 89, 97). Первая группа использует процедуру линейного программиро¬ вания для последовательности задач, в которые постепенно вводятся линейные ограничения, и тем самым реализуется процесс правильного Рис. 18-1. Классификация задач целочисленного программирования. 449
отсечения. Основу всех методов этой группы составляют три алго¬ ритма Гомори и их модификации. Большинство комбинаторных методов не использует процедуру симплекс-метода, а достигает сокращения поиска оптимальных зна- чений анализом исходного множества. С развитием прикладных разделов кибернетики все большее зна¬ чение приобретают приближенные методы решения задач оптимиза¬ ции, которые для частной исходной постановки обеспечивают эффек¬ тивное отыскание приближенного решения за значительно меньшее число шагов. Здесь ши¬ роко применяются слу¬ чайные методы поиска, аналогичные градиент¬ ным и прямым, а также специальные методы, ис¬ пользующие эвристиче¬ ский подход. Следует напомнить, что целочисленные мето¬ ды оптимизации отлича¬ ются от дискретных пря¬ мых методов аналитиче¬ ской постановкой задачи вида (18-1) и доказатель¬ ством сходимости, опти¬ мальности и т. д. Дискретное динамическое программирование по-преж¬ нему успешно применяется для решения задач целочисленного програм¬ мирования и в приведенной на рис. 18-2 классификации содержится в разделе комбинаторных методов, так как по существу оно является на¬ правленным методом перебора. Значительно реже используется диск¬ ретный принцип, максимума. Широкие возможности в части решения прикладных задач большой размерности открываются при исполь¬ зовании человеко-машинных методов оптимизации. Однако для эффек¬ тивного их использования требуются развитые операционные системы ЦВМ, технические и программно-информационные средства общения человек — машина. По своей идеологии эти методы примыкают к линг¬ вистическим с добавлением блоков эвристики, в качестве которых выступает человек при общении с ЦВМ. Человеко-машинные методы еще недостаточно разработаны и по¬ этому в данном руководстве они подробно не рассматриваются. 18-1. ОСОБЕННОСТИ ЗАДАЧ ЦЕЛОЧИСЛЕННОГО ПРОГРАММИРОВАНИЯ Характерная особенность общей задачи целочисленного програм¬ мирования заключается в ее нерегулярности. Под регулярностью понимают совокупность необходимых и достаточных условий экстре¬ мума, которые позволяют создать конечную процедуру его отыска¬ ния. Условиям регулярности удовлетворяют задачи линейного и выпук¬ Рис. 18-2. Классификация методов решения задач целочисленного программирования. 450
лого программирования. В регулярных задачах локальный экстре¬ мум совпадает с глобальным. Указанные выше обстоятельства опре¬ деляются характером области допустимых значений, которая стано¬ вится многосвязной из-за требования целочисленности (дискретности), а также невыпуклой. Несовпадение целочисленного и нецелочислен¬ ного экстремумов иллюстрируется при¬ мером. Пример 18-1. Требуется найти решение сле¬ дующей задачи целочисленного программирова¬ ния: -ту*!—*2^2; -g- *1 + Х2 : : 3; *1- -3 ^2^4; 0; *1. Х2 1 max z = — х} +х2. Рис. 18-3. Пояснение к примеру 18-1. При целочисленности переменных максимум zonT = 2 -g- достигается в точке *юПт=3, *2опт = 2, в то время как при исключении этого требования гопт = 3 в точке хх = 3 5 = 1 у, *2 = 2 -у. Округление результата до целых не дает оптимума исходной за¬ дачи, как это видно из рис. 18-3. Заметим, что условие целочисленности z при сня¬ тии этого требования к переменным х1 и х2 определяет оптимум при других значе¬ ниях хх и х2. Из этого простейшего примера виден комбинаторный характер задач целочисленного программирования, который часто требует прямого перебора. Покажем, как задача дискретного нецелочислен¬ ного программирования может быть сведена к задаче целочисленного программирования IЛ. 97]. Допустим, имеется задача математиче¬ ского программирования в виде min {F (х)\xj^0t /=1, 2, ..., п\ %(х)^0, *=1, 2, т}. Будем считать что переменная xJ0 может принимать только одно из заданного множества значений х/0е {£}„, k%, tf]. Введем дополнительные булевы переменные уи г/2,..ур и запишем условие дискретности для xJ0 в виде Xjo — k)0yi + k%г/2 +. ■ + k%tf- .. p; (18-2) Hi + У 2 + • • • + Ур = i • Последнее соотношение требует, чтобы только одна переменная yv была 451
отлична от нуля. Нетрудно убедиться, что формулы (18-2) обеспечи¬ вают дискретность переменной xJ0. Таким образом, путем введении булевых переменных yv можно всегда свести нецелочисленную диск¬ ретную задачу математического программирования к целочисленной. Как видно, соотношения (18-2) представляют собой р-кратную логи¬ ческую альтернативу: Для лучшего понимания связи задач целочисленного программиро¬ вания с задачами на многосвязных, и невыпуклых областях покажем, как эти последние сводятся к задачам целочисленного программиро¬ вания. Пусть допустимая область изменения переменной лу0 много¬ связная и задается соотношениями Введем дополнительную булеву переменную yJOl которую не будем включать в функцию цели, а заменим рассмотренные соотношения следующими: Очевидно, что соотношения (18-2а) и (18-26) эквивалентны. Действи¬ тельно, когда у}-о = 1, то (18-26) сводится к xJ0 >0 и xJ0 ^ а\ когда yjо = 0, то к Xjo ^ b и Xj0 ^ kj0. Таким образом, многосвязность области допустимых .значений легко учитывается введением дополни¬ тельных булевых переменных. Этот метод без труда распространя¬ ется на случай многих переменных. Процедура сведения невыпуклой области изменения перемен¬ ных к стандартным ограничениям состоит в следующем. Область раз¬ бивается на выпуклые подобласти, и между некоторыми парами их вводятся альтернативные условия (дизъюнкции). Для каждой подоб¬ ласти определяется верхняя граница и вводятся дополнительные ограничения, включающие для каждой пары подобластей булевы переменные. Пример 18-2. Рассмотрим процедуру сведения задачи невыпуклого программи¬ рования к целочисленному программированию. Пусть область допустимых значе¬ ний задана системой неравенств «Xj0 = klt ИЛИ Xj0 = kl, ИЛИ ИЛИ Xj0 = kP». «ИЛИ (18-2а) Xjo -b + byJ0 0; — Xjo ay jo -\-kj о (1 — уj0) ^ 0; (18-26) *+-£-*2 *£2;
Соответствующая область представлена на рис. 18-4. Первая и вторая пара нера¬ венств образуют выпуклые подобласти хх и х2 с учетом неотрицательности перемен¬ ных с верхними границами л'1макс и х2макс соот¬ ветственно. Введение булевой переменной у приводит к дополнительным неравенствам Х1 ДО макс х2 0 ~ У) хмакс ^ О* Здесь каждое условие относится ко всем не¬ равенствам соответствующей области. Нетрудно убедиться, что аналогичный спо¬ соб применим в случае числа переменных, большего двух. 18-2. НЕЛИНЕЙНОЕ И ЦЕЛОЧИСЛЕННОЕ ПРОГРАММИРОВАНИЕ Можно показать, что любая задача выпуклого нелинейного про¬ граммирования может быть приближенно сведена к соответствующей задаче целочисленного программирования. Допустим, что функция цели F (х) имеет вид сепарабельной функции F {хъ *2, ..., хп) = 2 Fj {xj). (18-3) /=i Будем считать, что каждое слагаемое Fj (xj) представляет собой выпук¬ лую функцию, и в дальнейшем изложении опустим индекс /, исполь¬ зуя обозначение F (х). Разобьем весь интервал изменения х (рис. 18-5) на участки Ак = Ыи_ъ d] длиной hk = dk — d^-Если ввести новые переменные, равные длине пересечения отрезка [0, х\ с отрезком Аку т. е. Ук — mes {[0, х] П А* }, (18-4) где 0^Ук^Ьк, k=l,2,...,p, (18-5) ТО х = Ui + У>1 + • • • + Ур- При этом функция F (х) может быть приближенно заменена на F (х) “ со Уъ + • • • ~\~ср Ур• (18-6) Для выпуклой функции F (х) коэффициенты ск образуют монотонную последовательность су ^ с3 с4 ^^ ср. (18-7) Задача минимизации функции F (х), задаваемой формулой (18-6) при условиях (18-4) и (18-5), является задачей частично целочисленного программирования. Частичную целочисленность задачи можно пояс¬ нить следующим образом. Прежде всего, заметим, что оптимальное ре¬ шение линейной задачи можно записать в виде *опт = f/l + #2 + • • ko^Pj (18-8) где ух = 1гъ y2 = h2, ..., yko_i = hko-u 0 <ук< hko, а все ук для k > k0 равны нулю. Здесь по существу намечена некоторая процедура 453 Рис. 18-4. Пример невыпуклой области, состоящей из выпук¬ лых многогранников.
поиска оптимального решения. В начале ух увеличивается до своего максимального значения. Если экстремум не достигнут, то, зафиксировав ух на максимальном значении, увеличивают у2 от нулевого значения у2 = 0 до максимального и т. д., пока не дойдут до уко. Если yko взять максимальной, то нарушится соотношение (18-8). Необходимо эту переменную уменьшить до значения, удовлет¬ воряющего соотношению (18-8). Остальные yk (k> k0) следует поло¬ жить равными нулю, что является следствием выпуклости функции цели, которая обусловливает соотношения (18-7). В соответствии с этим условием нецелесообразно брать переменную ук+ъ отличную от нуля, пока yk не достигла своего максимального значения. Фор¬ мально последнее утверждение может быть записано с помощью заменим исходную функцию цели приближенно кусочно-линейной функцией в соответствии с формулой (18-6). Однако при этом не соб¬ людается условие монотонности коэффициентов ск [см. формулу (18-7)]. Можно попытаться довести до верхней границы вначале значение ук, соответствующее наименьшему ску затем значение уку соответствую¬ щее следующему по величине ch и т. д., однако при этом отрезки Дя, из которых комплектуется оптимальное значение х, получаются не¬ связными. Для обеспечения их связности необходимо условие (18-9) ввести как обязательное, так как оно в данном случае автоматически не выполняется. Сведем его к целочисленной программе. Для этого воспользуемся дополнительными переменными т F(x) следующих логических соотношений, носящих альтернативный харак¬ тер: «или yk — hk = О, d0 dt d2 dg d4 d5 Рис. 18-5. Пояснение к методу сведения задач невы¬ пуклого программирования к задачам целочислен¬ ного программирования. Af A g A3 А^ X X или ук+1 = 0». (18-9) Это условие в рассмот¬ ренной выше задаче ми¬ нимизации (18-6) при условиях (18-4) и (18-5) не является дополни¬ тельным и автоматически выполняется при соб¬ людении условий (18-4) и (18-5). Рассмотрим теперь невыпуклую функцию F (х) (рис. 18-5). Опять (18-10) Тогда условие (18-9) можно заменить соотношениями (18-11) 454
Нетрудно убедиться, что zk = 1 соответствует достижению yk своей верхней границы, так как первое соотношение (18-11) превращается в уи т- е. yk = К [переменная yk по условию (18-4) не может быть больше hk\. Значение zk соответствует условию yk < Л/г, так как второе соотношение (18-11) превращается в ум ^ 0, которое в силу (18-4) означает, что yk+1 = 0. Далее, замечая, что ограничения, наложенные сверху на yk в соотношениях (18-4), уже содержатся в формулах (18-11), кроме ограничения на уъ можно заменить ограничения (18-4) и (18-11) на следующие: В итоге исходная задача невыпуклого программирования свелась к задаче целочисленного программирования Кроме того, если в исходной нелинейной программе имеют место ограничения их следует добавить к ограничениям (18-14). Приведенный выше способ сведения невыпуклой нелинейной про¬ граммы к частично целочисленной программе реализуется за счет вве¬ дения большого числа дополнительных переменных и ограничений. К частным задачам целочисленного программирования можно иметь, по крайней мере, два подхода: исследовать частные математи¬ ческие формулировки, специальные задачи целочисленного програм¬ мирования, или прикладные задачи, сводя их к целочисленному про¬ граммированию. В данном разделе будут использованы оба подхода, тем более, что очень часто они перекрываются. ук'^ 0, k—\, 2, .... р; (18-12) Ух < hx, Уи Зг hk zh\ (18-13) Ук+1 2ft» k=l, 2, р — 1- F (*) = с0 + СхУх + • • • + ср ур = min; У к 0, х — У\ + Уъ + • • • + Ур\ (18-14) У и Э5 hk Zk, Ук+х ^ hkZk‘, k= 1, 2, p. i|),-(x)<0, /= 1, 2, m, 18-3. ПРИМЕРЫ ЗАДАЧ ЦЕЛОЧИСЛЕННОГО ПРОГРАММИРОВАНИЯ 455
а) Задачи планирования перевозок Классическим образцом этой группы задач является транс¬ портная задача, известная еще из гл. 14: т п 2 Исихи = min; /«1 /=1 (18-15) У! %ij /=1 т /= 1 i = l,2,...,m;/= 1,2,..., лг. При условии целочисленности исходных данных: наличия товара cii (i = 1, 2, т) на i-м складе и спроса Ь/ (/ = 1, 2, ..., п) на /-м пункте потребления эта задача решается целочисленно любым спо¬ собом: симплекс-методом, методом динамического программирования и принципа максимума. Такая особенность данной задачи определя¬ ется свойством ее матрицы. Аналогичным свойством обладают и дру¬ гие задачи, в том числе задача о назначениях, которая сводится к транспортной, задачи о максимальном потоке и потоке минимальной стоимости [Л. 97]. Транспортная задача имеет много модификаций и обобщений (иногда ее называют обобщенной транспортной задачей). Рассмотрим одно из них. Предположим, имеется п транспортных линий. По /-й линии необходимо выполнить bj рейсов. Общее количество транспорт¬ ных единиц т и каждая из них имеет резерв полезного времени at (i = 1, 2, m). На выполнение i-й транспортной единицей /-го рейса требуется время ttj и затраты Если обозначить через Ху коли¬ чество рейсов, которое должна выполнить i-я транспортная единица по /-у маршруту, то получится следующая формулировка задачи: 2 2 Сц Хц = min; < = 17 = 1 /=! IJ *1) У %ij — /= 1 Xij^z 0; хц — целые; i=±= 1, 2, ..., m; j= 1, 2, (18-16) (18-17) (18-18) n. (18-19) Соотношение (18-18) означает, что все необходимые на /-й линии рейсы должны быть выполнены. Условие (18-17) обеспечивает огра¬ ничение по резервам времени i-й транспортной единицы. В данной задаче целочисленность является обязательным условием. 456
б) Задача о назначении Имеется п работ и п кандидатов на выполнение каждой работы. Назначение i-то рабочего на /-ю работу вызывает затраты с^ (или дает прибыль). Требуется определить наилучшее с точки зрения минимума суммарных затрат распределение рабочих. В комбинатор¬ ном смысле задача представляет собой перестановку (ръ _р2} ..., рп) чисел (1, 2, п). Каждое назначение одного /-го рабочего на pt рабочее место описывается соответствием i -> pt. Требуется опреде¬ лить перестановку (/?*, /?*, ..., pt), при которой п Pi = rnin. (18-20) / = i Значение суммы необходимо вычислить по всем перестановкам {ръ /?2,рп) индексов (1, 2,/г), например при (1, 2,..., я), (2, 1, 3, ..., п). При больших п получается очень сложный вычислительный процесс: сильно возрастает число перестановок \п\ = 1 -2*3•... • (лг— 1) п\. Посредством булевых переменных 1, если /-й кандидат назначается на /-ю работу; (18-21) О — в противном случае сведем эту задачу к задаче целочисленного программирования вида m п Tt 2c</*y = rnin; (18-22) / = 1 /=1 п m Ц%=1, (18-23) /= 1 / = 1 где xtj — целые. Геометрически в я2-мерном пространстве каждая перестановка изображается точкой, точки — вершиной я2-мерного куба с единич¬ ной длиной ребра. Каждой точке соответствует квадратная (п X п)- матрица X = || xtj |. Условия (18-23) означают, что в этой матрице только один элемент в каждой строке и столбце может быть отличен от нуля и его значение равно единице. Задача о назначении легко сводится к транспортной, если усло¬ вие (18-21) заменить на требование неотрицательности % > 0 и учесть, что в данном случае пг = п и at = bt = 1. Известна квадратичная задача о назначении, в которой требуется определить набор элементов xtj, принимающих значения 0 или 1 при условиях п п п п 2 21 I] ^а1]к1хихы = т\г\) (18-24) i=1/=]к=1/=1 i>v=l; (18-25) /=1 2>//=1, * (18-26) / = 1 457
где ciijki — некоторые заданные числа. К ней сводится видоизменен¬ ная задача о назначениях, когда в функции цели учитывается взаимное влияние назначений i и /, которое считается пропорциональным рас¬ стоянию по Хэммингу dp.p. между соответствующими точкамй р{ и pf. п т п SMp/р,- (18-27) i = \ i = \j=\ В этом выражении ftj — заданные величины. Дальнейшее развитие задачи о назначении заключается в добав¬ лении к классической постановке условия, которое разрешает i-y рабочему назначение только на рабочее место из заданного подмно¬ жества S (i). Все остальные рабочие места являются запретными. Это условие легко можно учесть, положив в формуле (18-22) или (18-27) Cij = оо для запретных относительно 5 (i) элементов /. В этом случае задача о назначении (распределении) или транспортная соединяется с задачей о расписании (см. гл. 14). в) Задача о коммивояжере (бродячем торговце) Имеется п + 1 городов и заданы расстояния между ними с^. Выезжая из одного города {обозначаемого индексом 0), коммивояжер должен побывать в каждом городе по одному разу и вернуться в город 0. Требуется определить порядок, в котором следует объезжать города, чтобы суммарное расстояние было бы минимальным. Если ввести переменные ( 1, если коммивояжер из города i переезжает в город /; Xij== { Л (18-28) ( 0 в противном случае, то данная задача сведется к следующей: п п 2 2 CijXij = min; i = 0 / = 0 / =о 2% = i; /=о где /=1,2 п\ /= 1, 2, т\ Ui — Uj + nXij^n— 1, i,/= 1, 2, п, 1ф1; xtj — целые. Условия (18-30) и (18-31) означают, что коммивояжер один раз выезжает из каждого города и въезжает в каждый город один раз. Соотношения (18-29), (18-30) и (18-31) определяют задачу о назначении, (18-29) (18-30) (18-31) (18-32) 458
которая отличается от задачи коммивояжера отсутствием требования цикличности пути решения. Аналитически требование цикличности записывается в виде (18-32), где переменные щ могут принимать произвольные вещественные зна¬ чения. Допустим обратное: имеется подцикл т с числом ребер k < п, не проходящий через город 0. Складывая все неравенства (18-32) при Xij = 1 вдоль подцикла т, получаем противоречивое неравенство: nk ^ (п — 1) й, так как все разности щ— Uj уничтожаются. Таким образом, условие (18-32) не допускает цикла, не проходящего через город 0. Покажем, что можно выбрать значения uh при которых для цикла, проходящего через город 0 (i = 0), удовлетворяются со¬ отношения • (18-32). Для этого предположим, что щ = р,. если город i посещается на р-м шаге, где р= 1, 2, ..., п. Очевидно, при этом щ — Uj^n — 1 для любых i и /. Тем самым доказано, что соотношения (18-32) для xtj = 0 удовлетворяются. При xtj = 1 эти соотношения превращаются в равенства. Действительно, учитывая (18-28), имеем: Ui—Uj-\-riij = p — (p-\- \)-\-п = п—\. (18-33) Задача о коммивояжере из-за условия цикличности не сводится к транспортной и является типичной задачей дискретной математики с резко выраженными комбинаторными свойствами. г) Задача о покрытии В задаче о минимальном покрытии требуется при заданном графе Г найти минимальное количество ребер, таких, что любая вершина графа инцидентна (принадлежит) ребру, входящему в покрытие. Обозначим вершины графа через i (i = 1, 2, ..., m), а ребра через / (/ = 1, 2, ..., п) и введем матрицу инциденций А ■= aтакую, что [ 1, если вершина i инцидентна ребру /; lj I 0 в противном случае. Вводя булевы переменные Xj (/ = 1, 2, ..., п) такие, что 1, если ребро j войдет в покрытие; 0 в противном случае, (18-34) получаем, что задача о минимальном покрытии сводится к линеинои задаче целочисленного программирования вида 2*/ = min; /= I 1; YiaHxr- /=1 i = 1, 2, ..., m; Xj — булевы переменные. (18-35) 459
Второе условие (18-35) означает, что каждая вершина инцидентна хотя бы одному ребру. Существует более общая формулировка задачи о покрытии, когда вместо ребер, составляющих покрытие, фигурируют подграфы исход¬ ного графа. Алгебраически она может быть сформулирована следую¬ щим образом. Задано конечное множество S = {ах, а2> •••> ат}> со¬ стоящее из т элементов, и конечное множество его подмножеств Sj (/ = 1, 2, ..., п). Требуется найти минимальное покрытие, т. е. минимальный набор подмножеств Sy-, при котором любой элемент множества S принадлежит хотя бы одному из подмножеств Sj. Так же как и ранее, вводится матрица || atj |, каждый элемент которой Если еще ввести веса Cj элементов покрытия, то придем к следующей задаче целочисленного программирования: Задаче о покрытии можно дать простую интерпретацию. Допустим, требуется с помощью п малых веток дерева покрыть большую ветку. Для минимального покрытия потребуется наименьшее число веток. Условие покрытия означает, что у покрываемой ветки нет свободных вершин (или ребер). Помимо задачи о покрытии существует задача об укладке, которая заключается в том, что при заданных множествах S и S;- (где Sj — подмножества S) требуется так разместить подмножества Sj в S, чтобы любой элемент Sj принадлежал бы S, т. е. чтобы свободных элементов множества S* было минимальное количество. Рассмотренные задачи о покрытии и укладке имеют большое при¬ кладное значение при привязке типовых разработок к конкретным системам. В частности, типовая АСУП может быть представлена в виде набора графов (множеств) Sj (типовых решений). Результаты систем¬ ного обследования конкретного предприятия могут быть представлены в виде графа S. Привязка типовой АСУП к конкретному предприятию заключается в решении задачи минимального покрытия графами Sj графа S. Интересные приложения находит задача о минимальном покрытии в вопросах синтеза релейных схем [Л. 97]. [ 1, если Gi^Sj; \ 0 в противном случае. (18-36) Введем переменные 1, если Sj войдет в покрытие; О в противном случае. (18-37) п = min; / = i п У jXj 1, (18-38) /=1 i 1, 2, ..., tif Xj — булевы переменные. 460
д) Задача планирования В § 14-9 кратко рассматривалась общая задача планирования, которая, как правило, состоит из двух связанных задач: расписания и распределения. Большинство ранее рассмотренных задач подпадало ,под одно из этих двух понятий или их совокупность. Так, задача о назначении и транспортная относятся к задачам распределения, так как в них отсутствует параметр время, или, применительно к задачам целочисленного программирования, календарь, под которым понима¬ ется упорядоченная последовательность целых (дискретных) значений времени: 1, 2, 3, ..., Т. Однако практически задачи планирования представляют собой сложную совокупность этих двух задач, к кото¬ рой всегда добавляются условия соблюдения заданной последователь¬ ности операций и, как правило, целочисленность переменных. Если по¬ пытаться пояснить связь задач распределения и расписания на примере оперативно-календарного планирования металлообрабатывающего це¬ ха [Л. 8], то очевидно, что составление оптимального плана практически слагается из итерационной последовательности первоначального гру¬ бого распределения работ по станкам с учетом их заданной технологи¬ ческой последовательности операций. После этого переходят к задаче расписания, в которой проверяют время выполнения всей работы и ее частей. И вот здесь происходит возврат к задаче распределения, которую пересматривают для сокращения сроков. Здесь и прослежи¬ вается связь двух задач. После серии таких итераций вырабатывается оптимальный план. 18-4. МЕТОДЫ ОТСЕЧЕНИЯ В основном данный параграф будет посвящен линейной задаче целочисленного программирования и первому алгоритму Гомори [Л. 97], который заложил фундамент теории целочисленного программирова¬ ния. В заключение будут изложены приемы решения целочисленной задачи с линейной "функцией цели и нелинейными ограничениями. Для удобства изложения методов целочисленного программиро¬ вания используют специфические обозначения, на которых целесо¬ образно прежде всего остановиться. Задачу целочисленного програм¬ мирования рассмотрим в виде п х0 = У] CjXj = max; (18-39) /= i П 2 dijXj = bf, i = 1, 2, ..., m\ (18-40) /= i *,5=0; /'= 1, 2, .... n; (18-41) Xj — целое; /= 1, 2, ..., nv (18-42) При nx = n задача (18-39) — (18-42) является полностью, а при пг с п частично целочисленной задачей линейного программирования. По аналогии с задачей линейного программирования (см. гл. 14) 461
введем ряд понятий. Множество наборов (хх х2,..., ^^удовлетворя¬ ющих условиям (18-40) — (18-42), называется областью определения или допустимой областью задачи целочисленного программирования и обозначается через Lц. Для сокращенного обозначения задачи (18-39) — (18-42) применяется запись (£ц, с), где с — вектор-столбец, состоящий из элементов ct. Оптимальное решение или оптимальный план обозначается через х (Ац, с). Наряду с оптимальным планом Хопт = (*1опт> *2опт, •••> */юпт) будет рассматриваться расширенный оп¬ тимальный план Хопт == С^Оопт» ^Топт> • • • » -^/гопт)» где п Xq = СjXj. /~1 Сокращенно оптимальный расширенный план обозначается как х(/Д с). В целочисленном программировании рассматриваются целочис¬ ленные многогранники, под которыми понимаются многогранники с целочисленными вершинами, и целочисленные симплекс-таблицы, со¬ стоящие из целочисленных элементов. Заметим, что множество точек, ограниченное целочисленным многогранником, не обязательно состо¬ ит из целочисленных точек, требуется только целочисленность вершин (крайних точек) многогранника. а) Общая идея методов отсечения Основная идея методов отсечения заключается в построении такой эквивалентной задачи линейного программирования (А, с), при ко¬ торой исходная задача целочисленного программирования (Ац, с) сводится к ее решению. Иногда это называют линейной аппроксима¬ цией целочисленного программирования (Ац, с)/ Введем понятие правильного отсечения, физически означающее выбор такой гиперплоскости, которая разделяет оптимальные решения целочисленной линейной задачи х (Ац, с) и задачи линейного програм¬ мирования х (L, с), причем последняя не удовлетворяет условию цело¬ численное™ х (L, с) ф L\ Математически правильное отсечение означает выбор такого чис¬ ла р, при котором неравенство Р (18“43) / выполняется при условиях ax(L, с)>Р; (18-44) {х (L\ с) | ах < р} е L\ (18-45) где а — вектор-строка, состоящая из элементов а}. 462
Метод отсечений позволяет построить процедуру последовательного выделения оптимального решения целочисленной задачи по извест¬ ному решению соответствующей линейной задачи, в которой исклю¬ чены требования целочисленности. Эта процедура решения задачи (Ll\ с) может быть описана следующим образом: 1. На k-м этапе решается вспомогательная задача линейного про¬ граммирования (L,n с), k = 0, 1, 2, где L0 = L. 2. Если на k-м этапе оптимальное решение х (Lk, с) удовлетворяет условию целочисленности, то оно будет также оптимальным решением х (L*, с) исходной задачи (L^, с), так как на всех этапах множества целочисленных точек совпадают, т. е. что является специальным условием при отсечении. 3. Если на k-м этапе решение не удовлетворяет условиям целочис¬ ленности, то х (L*, с) не является оптимальным решением исходной целочисленной задачи. В этом случае переходят от k-ro этапа к (k + 1)-му, добавляя к линейным ограничениям задачи (Lk, с) условие правильного отсечения а*х<р*, (18-46) которое превращает многогранник (множество) Lk в многогранник Lk+1. Каждый конкретный метод имеет свой способ задания отсечения, но в алгоритмах Гомори гарантируется конечное число процедур. б) Первый алгоритм Гомори В этом алгоритме впервые была реализована идея метода отсече¬ ния. Он дает конечную процедуру решения полностью целочисленной задачи линейного программирования, заданной в виде (18-47) (18-48) (18-49) (18-50) где i = 1, 2 ..., т\ / = 1, 2, ..., п. Выразим функцию цели х0 и все переменные хъ ..., хп через неба¬ зисные переменные Xj (/ е N), где N — множество г индексов, соот¬ ветствующее небазисным переменным Xi = Xi0+ 2 Xij(-Xj), i = 0, 1, 2, п. (18-51) i^N Здесь используются для удобства другие по сравнению с гл. 16 обоз¬ начения: xi0 = bl — свободные члены; xtJ = alj — коэффициенты при а х0= ^ CjXj = шах; j = 1 п Q'ijXj = &i> / = Г Xj 32= 0; Xj — целое, 463
/-й небазисной переменной; x0J= с}, причем xi0 = 0 при i > m, а для i > т х-={~1г / = /; " I 0, /#/. Кроме того, нулевые компоненты в векторах иногда будут опускаться, например, для вектора-столбца Х0 = 1*00». *10, *т0, 0, о [| = (1*00, *10 j •••> *т0 ||* В дальнейшем в формуле (18-51) будет иногда меняться порядок нумерации и не обязательно т первых переменных xi0 будут отличны от нуля. Обозначим через [*] целую часть вещественного числа, рав¬ ную наибольшему целому числу, не превышающему *. Дробная часть числа определяется как {х} =х—[х]. Допустим, что x(L, с) — решение задачи (18-47) — (18-49) без требования целочисленное™. Оно полу¬ чается приравниванием нулю небазисных переменных в соотношении (18-51), соответствующем последнему этапу симплекс-процедуры хь = xi0. Считая (18-51) решением задачи линейного программирования без требования целочисленное™,' запишем его в виде XI = Ко] + Ко} + 1] (К,! + {%}) (-Xj) = [х,0] - У e=N - Ц КуК + Ко}- 2 {Xij}Xj. (18-52) I^N . j'eeN Для любого целочисленного решения, задаваемого формулой (18-51), величина xi - Ко] + 2 КлК (18-53) i^N должна быть целой. Но отсюда с учетом (18-52) следует, что Ко} - 2 КуК/ (18-54) i<=N также должна быть целой. Так как величина 2 i*y/}*y j<=N не может быть отрицательной, потому что {**;} ^ 0, *; '^ 0 и 0 < < {**о} величина (18-54) не может быть положительным целым чис¬ лом. Следовательно, любое допустимое решение*; целочисленной задачи (18-47) — (18-50) должно удовлетворять неравенству Ко}-'2 КЛ*у<0 (18-55) JSN ИЛИ 2 (-{%})*,<-Ко}- (18-56) /елг Нетрудно убедиться, что решение задачи (18-47) — (18-49) без требования целочисленности не удовлетворяет неравенству (18-56). Тем самым условие отсечения (18-44) удовлетворяется. 464
Соотношение (18-56) определяет гиперплоскость, которая отсекает нецелочисленное решение, оставляя по другую сторону целочислен¬ ное решение. Это правило отсечения и составляет основное содержание метода Гомори. Его следует добавить к ограничениям (18-48), тогда их станет т + 1. Для соотношения (18-56) можно ввести дополни¬ тельную переменную хп+1 = ~ Ы + Е XJ’ (18-57) у еЛГ которая будет целочисленной, благодаря чему задача останется пол¬ ностью целочисленной. Задачу с добавлением ограничения (18-57) будем называть расширенной. Можно показать, что для ее решения нет необходимости решать все заново. Действительно, если обозначить через Аб матрицу, состоящую из г линейно-независимых столбцов ма¬ трицы A =|j ctijl исходной системы (18-48), тогда базисное, но не обязательно допустимое решение (18-51) может быть записано в виде хб = х0 = Аб Jb = || xi01|, (18-58) где небазисные переменные лу (/ е М) приравнены нулю. Обозначим через Аб1 матрицу, соответствующую базису расширен¬ ной задачи А 1|А*°| И1° 4 тогда 4—-Р' ° 61 “1о 1 В эти матрицы добавлен вектор-столбец WHI.0, о,..., о, 1||, г+1 соответствующий дополнительному ограничению (18-57). Теперь ба¬ зисное решение расширенной задачи запишется как Аб"} IЬ, -{*<иИН|х0, - Ы ||, (18-59) причем для оптимального решения нецелочисленной линейной задачи г = сбх0 = сбхб, где = || СбЬ Сб2> • • • > Сг || — вектор оценок, компоненты которого состоят из коэффициентов •функции цели при базисных переменных. Это базисное решение не¬ допустимо, так как - {*ю} < 0. Соответствующий базису А61 вектор оценок для расширенной задачи будет равен || сб, 0 ||. Далее введем вектор || %lji • • • Xrj I == Аб Яу > 465
где aj — /-й вектор-столбец матрицы А и величины Zj = сбху, причем xQj = с) — Cj. Тогда получим, что величины с}, равные коэффициентам функции цели при /-х переменных для расширенной задачи, будут такими же, как и для оптимального решения линейной задачи (18-47) — (18-49) без условия целочисленности (18-50), так как векторы Ху / е N для расширенной задачи, которые обозначим через х/1’, будут равны: х7’ = Аб11| -{%}! = II Ху, -{х(7}||. (18-60) Так как мы исходим из того, что получено оптимальное решение линейной задачи без требования целочисленности, то в соответствии с результатами гл. 16 должно быть Zj — ^ 0. Если при этом учесть, что вектор оценки для расширенной задачи имеет вид || сб, 0 ||, то полу¬ чится базисное, но недопустимое решение расширенной задачи, для которого Zj — Cj ^ 0. Но отсюда следует, что выгоднее для поиска решения расширенной задачи использовать двойственный, а не пря¬ мой симплекс-метод. При этом, грубо говоря, процедура поиска со¬ кращается в два раза, так как при использовании двойственного симплекс-метода величины Zj — су, равные свободным коэффициен¬ там ограничений двойственной задачи (и коэффициентам функции цели прямой задачи), остаются неотрицательными, что указывает на то, что на всех этапах двойственного симплекс-метода имеет место базисное решение двойственной задачи, не допустимое для прямой. Если применять прямой симплекс-метод, в данном случае пришлось бы выполнить обе половины процедуры, т. е. искать решения среди базисных. Это повлекло бы за собой изменение знаков коэффициентов Zj — Cj и потерю базисного начального решения двойственной задачи. Чаще всего для решения расширенной задачи двойственным сим¬ плекс-методом достаточно одной итерации. Если решение получится не целочисленным, его повторяют, добавляя новые дополнительные ограничения типа (18-57), выбирая другое значение i. Эта процедура продолжается до тех пор пока не будет получено оптимальное решение целочисленной задачи (18-47) — (18-50). Таким образом получается ите¬ рационная процедура отыскания оптимального решения целочисленной задачи линейного программирования. На первом этапе решается за¬ дача Qo линейного программирования без требования целочисленности. Если полученное решение допустимо для целочисленной задачи, то оно является оптимальным. В противном случае переходят ко второму этапу, где решают двойственным симплекс-методом задачу QY линей¬ ного программирования без - требования целочисленности, которая имеет на одно ограничение и одну переменную больше, чем задача Q0. После этого или процесс прекращают, если полученное решение допустимо для целочисленной задачи, или переходят к решению сле¬ дующей задачи Q2 без требования целочисленности, которая получа¬ ется в результате построения нового отсечения, и т. д. Если ввести индекс k для обозначения номера очередного этапа (k = 0, 1, ...), то, очевидно, что на первых э гапах число дополнительных ограничений будет расти с ростом k. Но можно утверждать, что какое бы большое k ни было, общее число различных дополнительных ограничений (отсечений) в задаче Qk не мэжет превышать ti + 1, так как общее 466
число переменных в исходной задаче равно п и, по-видимому, можно ожидать, что общее число отсекающих гиперплоскостей будет равно п (далее они будут повторяться). Дело в том, что вспомогательная пе¬ ременная xn+k_ly которая является базисной в задаче Qk_ly при постро¬ ении задачи Qk может быть опущена, так как не обязательно,чтобы выполнялось ограничение, соответствующее этой переменной. Резуль¬ таты решения задачи Qk_x учитываются в задаче Qk использованием переменных xjy которые'входили в оптимальное решение задачи Qk_v Исключение лишнего ограничения осуществляется. вычеркиванием в симплекс-таблице, составленной для задачи Qk-ly строки и столбца, соответствующих переменной xn+k_l9 причем имеется в виду симплекс- таблица типа (п — 1) X (га + 1). В силу того что исходная задача содержит п переменных, после исключения из задачи Qkограничений, соответствующих вспомогательным переменным xn+v, вошедшим в оп¬ тимальное базисное решение этой задачи, получается задача, содер¬ жащая не более п дополнительных ограничений. С переходом от нее к задаче Qk необходимо добавить одно ограничение, поэтому общее число ограничений в задаче Qk может превосходить общее число огра¬ ничений в задаче Q0 не более чем на п + 1. Гомори доказал, что для случая целочисленных элементов матрицы А и компонент вектора b решение исходной задачи целочисленного линейного программиро¬ вания можно получить, решив конечное число задач Qk. Процедура классического метода Гомори отличается от вышерас¬ смотренной двумя положениями. Во-первых, необязательно решать исходную задачу линейного программирования. На первом этапе можно использовать любое базисное, но необязательно допустимое решение, для которого все Zj — Cj ^ 0. Во-вторых, в алгоритме Гомори на каждом этапе ищется решение так называемой лексикографической задачи линейного программирования (/-задачи), что позволяет выби¬ рать решение при условии неоднозначности задачи. Вектор х = = (xl9 х2, ..., хп) = || лгу || называется лексикографически положитель¬ ным, т. е. х £- 0, если первая отличная от нуля его компонента поло¬ жительна, т. е. Xi > 0, где / = min {j/xj Ф 0}. Расширенный план хопт (допустимое решение) называется лексико¬ графически оптимальным, если для всех расширенных планов х раз¬ ность хопт — х лексикографически положительна: хопт — х 0. В рассмотренных выше процедурах отсутствует правило выбора переменной и соотношения типа (18-52), с помощью которого строится правильное отсечение, когда несколько компонент оптимального век¬ тор-решения исходной линейной задачи нецелочисленны. В алгоритме Гомори используется первая по номеру нецелочисленная переменная. Если переписать соотношения (18-52) для k-и итерации (этапа) Qk в виде Xi = 4>+ Е ХЬ (-*/)> г' = °> !. 2 «> (18-61) j<=Nk то правило выбора очередной переменной в алгоритме Гомори запи¬ шется как и = тт {/[/ е {0, 1, п}\ х% — не целое} (18-62) 467
и правильное отсечение на (к + 1)-м этапе запишется в виде xn+k+l = “ {хио\ + 2 (“ {*«/}) ( ~~ xij)> (18-63) i^Nk xn+k+i=^0» ' (18-64) xn+k+i целое, (18-65) Причем функция цели также включена в систему (18-61) под номером i = 0. Таким образом, если функция цели имеет на нулевом этапе нецелочисленное значение, то первое отсечение строится с ее учетом. Если гарантирована целочисленность функции цели, то правило (18-62) запишется в виде tt = min {/|/е {1,..., л}; х% — ш целое}. Для неособого случая задачи линейного программирования, когда множество оптимальных планов не пусто и ограниченно, всегда суще¬ ствует лексикографический оптимальный план задачи. . Лексикографический симплекс-метод, или /-метод, отличается от симплекс-метода главным образом правилом для определения вектора, вводимого в базис, которое на следующем шаге обеспечивает лексико- графичность симплекс-таблицы [Л. 97]. Можно показать, что если множество допустимых значений исходной линейной задачи выпукло и ограниченно, то строки симплекс-таблицы Т = 1 лг/у|| • (/ = 0, 1, ..., я; /eJV0) могут быть лексикографически упорядочены, т. е. любой столбец лексикографически положителен: х;- = I xvj || 0 для всех j е N0, где N0 = (01J N). Как всегда, из базиса выводится наибольшая по модулю отрицатель¬ ная переменная хр (р <= А/б). Приведенная выше симплекс-таблица приспособлена для двойствен¬ ного симплекс-метода и имеет п + 1 строк и т столбцов с первой стро¬ кой, состоящей из свободных членов x0j. Для определения вводимой в базис переменной последовательно повторяется процедура опреде¬ ления максимальных отношений. Сначала вычисляется ~~ = шах хр/<0. (18-66) xpl j(=N XPJ Если / единственно, l-й столбец вводится в базис. В противном случае для тех /, для которых выполняется (18-66), снова вычисляют тах^-. (18-67) хр/ Если максимум достигается при одном /, этот столбец вводится в ба¬ зис. В противном случае повторяют процесс определения максимума для тех /, для которых он достигается, т. е. шах —-С и т. д. xpj 468
такой, что или Тем самым однозначно определяется столбец хь вводимый в базис, так как иначе один вектор ху оказался бы пропорционален другому, что невозможно из-за условия независимости векторов ау, составля¬ ющих матрицу Аб = 1 ау||, если учесть, что хУ = 1%1 = Аб'а,-. В результате этого будет найден вектор i)x,s“o’ -^Ь-(-:<Ух'ьо' *«<“■ '-Л' О8'68» Xj — Xi с- 0 для всех ]'ф1^Ы0, (18-69) Хр1 так как в соответствии с формулой (18-67) выбран вектор X/ с мини¬ мальным значением л:0//1 лгр/1. Левая часть формулы (18-69) определяет все компоненты вектора ху следующего этапа Q2 за исключением р-й компоненты. Вектор ху определяет /-й столбец новой симплекс-таблицы, которая получается из предыдущей исключением хр из базиса и включением в него X/. Эта симплекс-таблица согласно (18-69) за вычетом р-й строки будет лексикографически правильной. Ранее было доказано, что исходные симплекс-таблицы задач Q0 и Q± были лексикографически правиль¬ ными. Проверим, не нарушит ли p-я компонента лексикографичность вектора ху. Компонента р столбца ху равна xpj/xpi. А вектор-столбец симплекс-таблицы, соответствующий переменной хру ставший теперь небазисной переменной, имеет компоненты тг- Хц при 1фр; Лр1 А<0 при i = р. Хр1 (18-70) Вектор X/ = I хц || был лексикографически положителен, и его пер¬ вая, отличная от нуля компонента была положительна. Следова¬ тельно, этой компонентой не могла быть xph которая меньше нуля. Поэтому вектор-столбец, соответствующий переменной хру благодаря условиям (18-70) будет лексикографически положителен. Так как хР1 не является первой ненулевой компонентой xh то в силу (18-70) х ^ 0, j Ф I ^ N. Кроме того, для всех /, входящих в новое множе¬ ство N небазисных переменных, полученное из N исключением / = I и добавлением соответствующего хру имеем ху £- 0. Далее, в соответствии с условиями (18-70) — хН—~ xpi xpi где ер — единичный вектор с единичной компонентой. Отсюда х0 — х0 с- 0. (18-72) 469
Это означает, что при лексикографическом симплекс-методе вектор х0 лексикографически уменьшается. Данное утверждение справедливо для любого этапа k, так как в задаче Q/t+1 (п + 1)-я компонента исходного вектора х0 равна соот¬ ветствующим компонентам вектора х0 в задаче Qk. При добавлении на каждом шаге ограничений, осуществляющих очередное отсечение, число компонент вектора Ху увеличивается. В результате исключения ограничений, вспомогательные переменные которых вошли в базис, условие ху- £- 0, / £ N не нарушится. Дей¬ ствительно, ранг матрицы X = || xtJ || = || ху- || = || alj || в задаче (18-61), состоящий из г + / столбцов Ху, равен r+ 1. После каждого этапа (итерации) первые п + 1 уравнений останутся такого же типа, как и (18-61). Поэтому мало вероятно, что п + 1 компонент некото¬ рого вектора Ху обратятся в нуль и лексикографическая положитель¬ ность этого вектора всегда будет определяться п + 1 его первыми ком¬ понентами. Это обеспечивает конечность процедуры выбора вектора, вводимого в базис, которая сводится к перебору п строк. Случай, когда все xpj ^ О, / <= N, не рассматривается, так как в нем двой¬ ственная задача имеет неограниченное решение, а прямая целочислен¬ ная задача не имеет допустимого решения Обозначим симплекс-таблицу, соответствующую k-y этапу, через где = {0, 1, ..., п} — множество индексов; = Qn — N% или Л^о = {0» 1, •••, ft} — Л/б — множество индексов, соответствующее небазисным переменным Nk и нулевой переменной на k-м этапе. Тогда с переходом к (k + 1)-у этапу строка xn+k+l9 задаваемая формулой (18-63), приписывается снизу к таблице Tk. В результате получаем не¬ допустимую только по строке xn+k+1 и так называемую /-нормальную таблицу, в которой любой вектор-столбец ху лексикографически поло¬ жителен: Ху = || xVJ || Ь- 0 для всех / е N\9 т. е. первая ненулевая компонента этого вектора положительна. К этой таблице применим /-метод, причем, как уже указывалось, пере¬ менная xn+k+1 (k ^ 0) выводится из базиса сразу же после введения ограничения хп+к+1 ^ 0, где xn+k+1 = (3Л — а*х. После вывода перемен¬ ной хп+к+1 из базиса соответствующая строка вычеркивается, а после ввода в базис переменной xt (/ ^ п + 1) соответствующая строка не восстанавливается. Размер симплекс-таблицы на каждом шаге огра¬ ничен числом (п + 2) X (т + 1), где п — число переменных Ху в ис¬ ходной задаче; г — число небазисных переменных на k-м этапе, кото¬ рое совпадает с числом небазисных переменных в исходной задаче, причем один столбец отводится на свободные члены xi0 [формула (18-58)], (п + 1)-я строка соответствует переменным х0, хь ..., хл, одна строка — переменной xn+k+1 (в момент ее введения в базис). Если в ходе дальнейших вычислений переменная xn+k+1 снова попадает в базис, то соответствующая строка в симплекс-таблице не восстанав¬ ливается и в дальнейших вычислениях эта переменная не участвует. 47Q
Такие сокращения вычислительных процедур возможны потому, что дополнительные ограничения а*х (3/г, связанные с правильными отсечениями, используются только как средство отсечения нецело¬ численного решения и перехода от fe-ro этапа к (k + 1)-му этапу. Сами ограничения нас как бы не интересуют, так как их влияние учтено через введение новых базисных переменных. Очевидно, что в методе Гомори можно выделить большие итерации, которые начинаются с введения дополнительного ограничения (18-63), и малые итерации симплекс-метода для решения задачи линейного программирования с этим ограничением. Пример 18-3. Решим с помощью алгоритма Гомори следующий численный при¬ мер: *0 = *2 + *2 = тах; 2хг -j- 9*2 ^ 38; *2 — 2*2 ^ 2; *1, *2^0, *., *2 —целые. Введением неотрицательных целочисленных переменных *3 и *4 каноническая форма рассматриваемой системы приобретает вид: *0 =*1+*2 = тах; 2*2 -J- 9*2 + *3 = 38; *2 — 2*2 + *4 = 2; *у^0, Xj — целые, / = 1, 2, 3, 4. Соответствующая /-задача будет определяться следующим образом: 1. Опорный план хисх = {0, 0, 0, 38, 2}. 2. Номера базисных переменных Л/”сх = {3, 4}. 3. Номера небазисных переменных Л/исх = Q — /Vgcx = {1, 2}. Небазисные переменные выразим через базисные по формуле (18-66): *з = 38 — 2*2 — 9*2; *4= 2— *2 + 2*2. ,'.т Для получения лексикографической симплекс-таблицы исходного /-псевдоплана введем новую переменную *5=м+ 23 1 (-*/)! W = {l, 2} *5 S:- 0; т. е. M^xi+x^ (при лг3=лг4 = 0). Решая систему уравнений, с учетом целочисленности переменных *х и *2 имеем строгое неравенство *i+*2 <6у+ 2 у = 9 у. Следовательно, М — 9, *5 = 9 —*х—*2. Лексикографически правильная симплексная таблица 18-1 [Ги^оз] имеет вид: 471
где хИцх^ — коэффициенты в правых частях уравнений; Q0 = {0, 1, 2, 3, 4, 5} расширенное множество индексов переменных; /V0 = (О, 1,2} — расширенное мно¬ жество индексов н^базисных переменных; N$= {3, 4, 5} — номера базисных пере¬ менных. Таблица 18-1 Таблица 18-2 —*1 Xо *0 ■ 0 —1 -1 хг 0 —1 0 *2 0 0 — 1 *3 38 2 9 2 1 —2 *5 9 1 * 1 *0 9 1 0 *1 9 1 1 *2 0 0 — 1 *3 20 2 7 *4 —7 — 1 —3* ХЪ 0 ^-1 0 Найдем переменную, выводимую и вводимую в базис, по правилам (18-62) и (18-17) соответственно. Направляющим элементом, помеченным в табл. (18-1) звез¬ дочкой, является *k*l* ' Переменная х1 выводится из базиса, вводимой в базис переменной является х5. Эле¬ менты симплекс-таблицы при этом преобразуются по следующим соотношениям: М Л*+1) — п “ Лк)» / = 0, 1, 2, 3, 4, 5; где знак « \ » означает вычитание множеств. В результате преобразований, соответ¬ ствующих двойственному циклу, /-нормальная таблица приобретает вид табл. 18-2 [Т'ИСХЦ)] В соответствии с первым шагом Таблица 18-3 алгоритма Гомори решаем /-задачу, со¬ стоящую в проверке условия допусти¬ мости, нахождении переменной, выво¬ димой из базиса, переменной, вводимой в базис, и пересчете таблицы, анало¬ гично предыдущим преобразованиям. При этом k* — 4, /* = 2, направляю¬ щим элементом таблицы является х42 = = —3, а индекс / принимает значе¬ ния /G(tf\{/})U{0}-{0, 5}. В результате этого двойственного цикла, когда новая переменная вводится в базис; приходим к исходной /-за¬ даче, данные которой отражены в табл. 18-3. — *5 — *4 *0 9 1 0 ' Ч 20/3 2/3 1/3 ч 7/3 1/3 -1/3 Хз 11/3 — 1/3 . 7/3 х4 0 0 —1 х5 0 —1 0 472
Максимизация расширенного плана (/-задача) имеет вид: 1) /-псевдоплан хисх(2) = {ЛГо> *a| ^} = {9, 20/3, 7/3, 11/3, 0, 0}; 2) номера базисных переменных л^сх<2> = {1, 2, 3}; 3) номера небазисных переменных д,исХ121 = (дг\{/})и{й} = {4) 5}, Л/“сх <2> = {0, 4, 5}. Для табл. 18-3 повторяем общую итерацию /-метода; /-псевдоплан удовлетворяет условию допустимости и, следовательно, является /-оптимальным планом. В соот¬ ветствии с алгоритмом Гомори переходим ко второму и последующим шагам. Второй шаг. Проверяем, является ли /-оптимальный план целочисленным. План иецелочислен, — переходим к третьему шагу. Третий шаг. Полагаем к = 0 (нулевая большая итерация). Четвертый шаг. Выбираем наименьшую по номеру,строку табл. 18-3, которой соответствует нецейочисленная компонента M = min {/1 / = {0, 1, 2, 3, 4, 5,}, —не целое} = 1. Пятый шаг. Строим правильное отсечение: 2 20 2 1 (- {*1/1) X (—*/)=— у + д- *5 +3- *4 5= 0. / € {5. 4} Шестой шаг. Приписываем строку, соответствующую новому ограничению, к таблице Т° (табл. 18-3) и получаем таблицу Т° (табл. 18-4). Формирование нового ограничения и переход к реше¬ нию очередной /-задачи отражает прямой цикл алгоритма. Седьмой шаг. К /-задаче, записанной в виде /-нормальной таблицы Т0, применяем /-метод и производим описанные ранее процедуры. Результаты последующих преобразований отражены в табл. 18-5, табл. 18-6, табл. 18-7. /-оптимальный план является целочисленным; таким образом, получаем максимум линейной формы 2=8 при хх = 6 и *2 = 2., Геометрическая иллюстра¬ ция решения целочисленной за¬ дачи дана на рис. 18-6. Пункти¬ ром показаны прямые, осущест¬ вляющие правильные отсечения. Следует заметить, что практика решения задач с помощью первого алгорит¬ ма Гомори. показывает практически малую его эффективность из-за большого количества требуемых итераций. Так, в задачах, в которых без требования целочисленности было необходимо 20 итераций, для получения решения в соответствии с пер¬ 16 Основы кибернетики 473 .\ К=0 \ I г7=0\ ! \\4»в I "It'il Рис. 18-6. Пояснение к примеру 18-3.
вым алгоритмом Гомори для целочисленной задачи даже 2 ООО итераций еще не дали сходимости [Л. 89]. Поэтому на практике очень часто используют другие алгоритмы решения линейных задач целочислен¬ ного программирования, основанные на некоторых эвристических принципах, используемых для построения отсечения. Хотя сходимость этих алгоритмов в общем случае не доказана, они очень часто обеспе¬ чивают достаточно быструю сходимость. Таблица 18-4 Таблица 18-5 —*ь — х4 *0 9 1 0 *1 20/3 2/3 1/3 Х2 7/3 1/3 -1/3. Х3 11/3 -1/3 7/3 Х4 0 0 — 1 *5 0 — 1 0 *6 —2/3 —2/3 -1/3* Таблица 18-6 —х3 —*6 . Xо 44/5 1/5 7/5 xi 6 0 1 х2 Н/5 1/5 2/5 *3 0 —1 0 х4 8/5 2/5 —1/5 Хь 1/5 -1/5 —7/5' *7 —4/5 — 1/5* —2/5 — хъ — Х(1 ' *о 9 1 ' 0 6 0 1 Хг 3 1 —1 *3 — 1 —5* 7 х4 2 2 —3 *5 0 —1 0 Таблица 18-7 —*7 —*6 *0 8 1 1 Х\ 6 0 1 х2 2 1 0 X3 4 —5 2 х4 0 2 —1 Х5 1 —1 —1 Так, в отличие от алгоритма Гомори дополнительную отсекающую плоскость (18-51) можно выбирать так, чтобы она пересекала ось Xj (/ е JV) в точках, как можно более удаленных от начала коорди¬ нат. При этом переменные ху, удовлетворяющие уравнению (18-51), будут принимать максимальные значения, что соответствует наиболь- 474
шему продвижению в область допустимых решений от точки х = || х0, 0 1|. В соответствии с этой идеей выбирается такая перемен¬ ная, для которой отношение {*/0}/{%} имеет максимальное значение. Другая идея основана на одновременном построении всех сечений, соответствующих неделочисленным переменным, и включении их в расширенную задачу. Число отрицательных переменных в этой задаче будет равно' числу дополнительных ограничений. ' В случае применения ЦВМ при решении задач целочисленного программирования возникают дополнительные трудности, связанные с проблемой округления. Дело в том, что решение, вычисленное ЦВМ, может быть в результате округлений нецелочисленным. 18-5. КОМБИНАТОРНЫЕ МЕТОДЫ Как уже указывалось, все комбинаторные методы решения задач целочисленного программирования основаны на той или иной идее направленного перебора вариантов, в результате которого путем перебора сокращенного числа допустимых решений отыскивается оптимальное решение. Перебор осуществляется с помощью опреде¬ ленного комплекса правил, которые позволяют исключать подмно¬ жества вариантов, не содержащие оптимальной точки. В целом эти методы легче справляются с проблемой округлений, чем методы отсечения, как правило, не используют симплекс-проце¬ дуру линейного программирования и имеют более «простую арифме¬ тику» и более «сложную логику». Основное содержание этих методов составляют динамическое про¬ граммирование и совокупность способов решения, объединенных об¬ щим термином — метод «ветвей и границ».. а) Решение задач целочисленного программирования с помощью динамического программирования. Динамическое программирование является универсальным мето¬ дом отыскания глобального экстремума любых задач, для которых справедлив принцип оптимальности. В последних трех главах изло¬ жение подчинялось позадачной ориентации, но, естественно, что по- методийная линия, использованная в первых главах «Методов оптими¬ зации», с успехом может быть применена и для решения задач цело¬ численного программирования. Принцип оптимальности Беллмана заведомо применим к сепарабельным и линейным функциям цели (см. гл. 14). Ограничения в виде неравенств и целочисленности учитываются в рекуррентном процессе решения функционального уравнения Белл¬ мана, так же как в решении транспортной задачи. Для случая сепарабельной функции цели можно составить общую вычислительную схему решения задачи нелинейного целочисленного программирования по методу динамического программирования [JI. 89]. Причем размерность задачи динамического программирования опре¬ 16* 475
деляется характером функции цели и ограничений. В этом можно убедиться на примере транспортной задачи, рассмотренной в гл. 15. Основная трудность при использовании метода динамического программирования заключается в сведении исходной задачи к модели многоэтапного процесса оптимизации, используемого в этом методе, с введением функции Беллмана. В каждой конкретной задаче при этом используются свои приемы, комплексом которых можно овла¬ деть после известного опыта. На примере задачи об опасной переправе рассмотрим применение этого метода. Группа, состоящая из т миссионеров и / людоедов, должна переправиться через реку на лодке, которая имеет ограничен¬ ную грузоподъемность К [Л. 80]. Лодка управляется одним или более пассажирами в любой комбинации. На каждом берегу и в лодке должно соблюдаться условие нелюдоедства, заключающееся в том, чтобы число людоедов в группе не превышало числа миссионеров (т ^ /). Обозначим число миссионеров и людоедов на левом берегу через т1 и 11у на правом берегу т2 и /2 и в лодке т и /. Соответственно сфор¬ мулируем более общие условия нелюдоедства: Ri (тъ к) ^0 на левом берегу; 4)^=0 на правом берегу; R3(my /) в лодке. Составим функциональное уравнение Беллмана, для чего введем функцию SN (т1у /х), равную максимальному числу людей на правом берегу после N шагов при условии, что процесс перевозки начинался с тг миссионеров и к людоедов на левом берегу и т2 и /2 на правом берегу. Считается, что на любом шаге ни один человек не возвращается на первый берег со второго, если все уже находятся на втором берегу. Один шаг заключается в перевозке х± миссионеров и ух людоедов с левого на правый берег и в обратной перевозке х2 миссионеров и у2 людоедов с правого на левый берег. В соответствии с принципом оптимальности для N ^ 2 можно написать: SN(mly l1) = max SN-\ (т1-х1 + х2у к — Ух + У*), *i, Ух где величины хг, уъ х2, у2 должны удовлетворять следующим условиям: 0 Х\ ^ /721, 0 У\ ^ /]; 0^х2^: т2 хь 0 ^ у2 ^ /2 4" Уъ 0 < Xi -\~Уг ^ К у 0 <С х2 -]- у2 ^ /С; Rs {Хъ уд ^ 0, R3 (х2, у2) ^ 0; * _Ri(m1-x1, к-Уд^ 0; (18_73) Ri(mi — x1JrX2y к~yi~\~y2) 0; Rz(m2 + Xit к + уд^®’ R2{pi2-\rx1 — x2y кдгУ1 — Уд ^ 0. 476
Для N = 1 имеемг Si (mi, /1) = max[(m2 + x1) + (/2 + </1)]. (18-74) Xt, Ui Минимальное число перевозок равно такому N, для которого Sw = trii -(- ш2 1\ “Ь 4- (18-75) Пример 18-4. Допустим, что суммарное количество миссионеров т1 + т2 = 3 и суммарное количество людоедов 1Х 4* /2 = 3, грузоподъемность лодки К = 2. (0 0,2 (3,3,1) =$>(0,0,0) 1этап (2)0,1 у* ч (3,1,0) (3,2,0) (2,2,0) ч ч (з,г,о ; (3)0,Z 1 И этап. (3,0,0) 1 (4)0,1 t (ЗА,<) (5)2,0 \ Шзтап т (В) V ♦ (2&<) (7)2,0 ) Wdman (0,2,0) 1 (в) 0,1 у (о&О (В) ,0,2 1 Уэтап VI этап (10)0,< (И) 0,2 (0,1,0) У \ (0,2,1) 0,1.1) -~"Ч'"7" , (0,0,0) =$>(0,0,0) Рис. 18-7, , Пояснение к примеру 18-4. Обозначим через (/, /') состояние, при котором i миссионеров и / людоедов находятся на левом берегу, а 3 — / и 3 — / — на правом берегу. Тогда с точки зрения не людо¬ едства допустимы только следующие состояния: (0, 1), (1, 1), (3, 1), (0, 2), (2, 2), (3, 2), (О, 3), (3,3). Используя функциональное уравнение, получаем: 5Х (0, 1) = 6; Sl (1,1) = = 6; (3, 1) = 2; Sx (0, 2) = 6; Sx (2, 2) = 3; (3, 2) = 2; (0, 3) = 4; (3, 3) = = 1. Нетрудно убедиться, что, если Sv(£, /) = 6, то Sv+lA(i, ])= 6, |л=1, 2, ... 477
Учитывая это обстоятельство, с помощью рекуррентных функциональных уравне¬ ний получаем: 52(3, 1) = 3; 52 (2, 2) = 4; Sa (3, 2) = 2; S2 (О, 3) = 6; 52(3, 3) = 2; 53 (3, 1) = 4; 53(2, 2) = 6; 53(3, 2) = 3; S4 (3, 2) ==4; 54(3, 3) = 3; S5(3, 2) = 6; S6 (3, 3) = 2; SB(3, 1) = 6; 55(3, 3) = 4; 5б (3, 3) = 6. Отсюда следует, что минимально требуемое число перевозок равно шести. Процедуру решения рассмотренной задачи легко проследить с помощью графа, представленного на рис. 18-7. Каждое ребро графа соответствует перевозке с одного берега на другой. Таким образом, одному этапу динамического программирования соответствуют два ребра графа. Стрелки указывают направление действия.-Цифры в скобках около каждой вершины означают: первая — число миссионеров, вторая — число людоедов на одном из берегов, последняя цифра обозначает левый (1) и пра¬ вый (0) берега; две цифры слева соответствуют числу перевозимых миссионеров и людоедов. Таким образом, процедура направленного поиска оптимального решения заклю¬ чается в следующем: 1) перевозим двух людоедов с левого берега на правый; 2) возвращаем одного людоеда назад на левый берег; 6) перевозим одного миссионера и одного людоеда с правого на левый берег; И) перевозим двух людоедов с левого берега на правый. Соответствующие значения функции Беллмана на каждом этапе будут следующие: S{ (3, 3) = 1; SIV (2, 2) = 3; Sn (3, 2) =2; Sy (0, 3) =4; Sm(3, 1) =2; SVI (0, 2) =6. Из рис. 18-7 видно, что в проблеме миссионеров и людоедов существует более одного оптимального пути решения. Так, на первом этапе можно или перевезти двух людоедов и затем одного людоеда об¬ ратно или одного миссионера и одного людоеда, а потом одного миссионера обратно. Число перевозок и шагов по¬ иска решения будет одинаковым. б) Метод ветвей и границ Комплексный подход по схеме ветвлений объединяет целый ряд близких комбинаторных ме¬ тодов, как-то: метод ветвей и границ, метод последовательного конструирования, анализа и от¬ сева вариантов и др. Общая идея метода крайне проста. Множе¬ ство допустимых планов некото¬ рым способом разбивается на подмножество. В свою очередь каж¬ дое из подмножеств по этому же или другому способу снова раз¬ биваются на подмножества до тех пор, пока каждое подмноже¬ 478 Рис. 18-8. Пояснение к методу ветвей и границ.
ство не будет представлять собой точку в многомерном простран¬ стве. В силу конечности наборов значений переменных дерево под¬ множеств (схема ветвлений) конечно. Построение схемы ветвления есть не что иное, как формирование про¬ цедуры перебора. Перебор может осуществляться различными спосо¬ бами. Сечение исходной допустимой области G0 гиперплоскостью на части Gn и G12 с последую¬ щим разделением Gn на G21 и G22 (рис. 18-8) представляет собой построение дерева вет¬ влений с соответствующими подмножествами, как это по¬ казано на рис. 18-9. Возможность оценки об¬ разуемых подмножеств по наибольшему (наименьшему) значению для задач максими¬ зации (минимизации) позво¬ ляет сократить перебор в силу того, что одно из подмно¬ жеств при выполнении опре¬ деленных соотношений исклю¬ чается и не нуждается в пос¬ ледующем анализе. Рис. 18-9. Граф решения для метода ветвей Понятно, что выбор оце- и границ, нок и схемы ветвления взаимо¬ связаны и трудно указать общие рекомендации по использованию на практике этого метода. Схема ветвления иллюстрируется решением обобщенной задачи одномерного раскроя (пример 18-5) с конкретными числовыми данными. Пример 18-5. Имеются заготовки длиной а± = 18, а2 = 16, а3 = 13. Разрезая их на части, но не склеивая, можно получать детали длиной Ь1= 12, Ь2 = 10, Ь3 = 8, 64 = 6, Ьъ = 5, Ь6 = 4. Стоимость каждой детали известна и в условных единицах численно равна их длине. Перечисленные детали представляют собой «портфель за¬ казов», который желательно обеспечить в первую очередь. В том случае, если это невозможно, максимизируется стоимость получаемых деталей из заданной номен¬ клатуры. Если же портфель заказов обеспечивается,' необходимо максимизировать стоимость дополнительной продукции. п т Величину 6= ^ — У] ai будем называть дефицитом. Отрицательность де- / = 1 i = 1 фицита еще не означает существование варианта раскроя, при положительном де¬ фиците раскрой невозможен. Это свойство может быть использовано для указания перспективности варианта. Так, если заготовка а2 раскраивается на Ь3 и b5f то неза¬ висимо от комбинаций остальных отрезков раскрой невыполним, поскольку для оставшихся отрезков дефицит положителен. .Первые этапы приводимой ниже схемы ветвления, использующей комбинатор¬ ные отношения подмножеств вариантов, показаны на рис. 18-10. На первом этапе формируются разбиения первой группы отрезков (заготовок) на вторую группу (деталей) независимо от того, какой именно отрезок первой группы разрезается. Количество ветвей первого этапа можно вычислить лишь по рекуррентным соотноше¬ ниям. Смысл подмножества {1, 2, 3} заключается в том, что один из отрезков первой группы в результат^ раскроя дает один отрезок второй группы, один из оставшихся 479
отрезков первой группы раскраивается на два отрезка второй группы из. числа оставшихся и, наконец, последний отрезок первой группы делится на три части, образуя три отрезка второй группы. На втором этапе формируются все перестановки (с учетом порядка) элементов первого этапа. Скажем, вариант (2, 1, 3} означает, что именно первый элемент первой группы ах разрезается на две части и т. д. Очередной этап ветвления образуется фиксацией отрезков второй группы при указанном на предыдущем этапе числе частей, на которое разрезается первый эле¬ мент. Другими словами, формируем сочетания по числу разделений первого эле¬ мента первого множества на число элементов второго множества. В дальнейшем фиксируем отрезки второй группы при втором элементе первой группы и, наконец, Рис. 18-10. Пояснение к примеру 18-5. при оставшемся элементе первой группы получаем конкретные варианты раскроя, всего 447 вариантов. В подробно описанной схеме ветвления в отличие от часто при¬ меняемых ни на одном этапе не используется конкретный числовой материал. Реко¬ мендуется построить для этого же примера иную схему ветвления, начиная с треть¬ его этапа, по следующему признаку: отрезки второй группы фиксируются при эле¬ менте первой группы, разрезаемом на меньшее число частей. Затем надо сравнить схемы. Нетрудно убедиться, что на каждом этапе ветвление осуществляется по ре¬ гулярной процедуре, что позволяет запоминать лишь один вариант. Сравнение де¬ фицитов предыдущего и последующего вариантов позволяет выделить перспектив¬ ный и соответствующую ему ветвь. Окончательный результат имеет вид: {(&2, Ь„), (*«. Ь3> b3), (*l)} {Фъ bt), Ф*. h), Фз> *.)} {(*1. Ь), Фз> ьц, СО bt)\ {Фъ bty, Ф-ъ h), Фз, ьо)} {(**, b3), Фъ bt;), Фъ Ь-о)} {Фг, h), Фг. bi), Фз> *»)} т, bt), Фъ Ь»), Фз> Ьь)} Формально задачу можно было бы свести к общему виду линейной задачи целочисленного программирования, но такое сведение приве¬ дет к значительному увеличению количества переменных и другим трудностям. Матрица коэффициентов при этом приобретает квази- блочный вид с неплотным заполнением ее отличными от нуля элемен¬ тами. Как правило, задачи многоиндексные с большим числом условий и сложной упорядоченностью рекомендуется решать по схеме ветвле*- ний, используя специфику условий и ограничений. 480
Для задач дискретного типа этот метод получил наибольшее распространение в силу простоты и доступности самого метода и, кроме того, наиболее естественной формы описания систем условий и ограничений, являющихся, как правило, отправным пунктом постро¬ ения дерева ветвления. По существу большинство оригинальных ал¬ горитмов (Балаша — Фора — Мальгранжа, Черенина, Джеффриона, Хиллиера и др.) являются модификациями метода ветвей и границе учетом специфики условий задачи [Л. 97]. 18-6. ДРУГИЕ МЕТОДЫ ОПТИМИЗАЦИИ Сюда относятся прежде всего приближенные методы решения за¬ дач целочисленного программирования, не гарантирующие сходимо¬ сти за конечное число шагов, а также вероятностные методы, обеспе¬ чивающие сходимость в вероятностном смысле. Сюда же относятся эвристические методы в чистом виде и в комбинации с вероятностными. Упоминавшиеся ранее человеко-машинные методы оптимизации сле¬ дует отнести также к этой группе. Кроме того, здесь же рассматрива¬ ются новые методы решения типа лингвистических, близкие к чело¬ веко-машинным. Решение задач целочисленного программирования с помощью лингвистических моделей. Специфические свойства лингвистических методов позволяют эффективно их использовать при разработке си¬ стем управления большими системами. К таким свойствам в первую очередь отнесем простоту общения человека с машиной, так как линг¬ вистические методы используют в качестве входных языки, более понятные неспециалисту, чем известные, алгоритмические языки, а также автоматизированный (в режиме диалога) процесс формирования модели решения задачи. Проследим основные моменты метода лингвистического моделиро¬ вания на решении задачи об опасной переправе [Л. 15]. Обозначим присутствие миссионера символом /л, присутствие людоеда символом /. Тогда цепочка символов (которую в дальнейшем будем понимать как фразу языка описания состояний управляемой системы) mmmmllll будет описанием начального состояния на левом берегу. При этом способе описания состояний каждая перевозка соответствует правилу вида а -> е, где а — цепочка из символов т и (или) /, а е — пустой символ. Отметим, что длина цепочки а не должна превышать грузо¬ подъемность лодки, а количество символов т не должно.быть меньше числа символов / (условие нелюдоедства в лодке). Так, для случая, когда на левом берегу 4 миссионера и 3 людоеда, имеет место состоя¬ ние ттттШ. Пусть мы хотим перевезти двух миссионеров и одного людоеда, тогда правило выглядит как подстановка mml ->■ в, приме- Г 1 нение которой к описанию состояния дает mmmmlll mrrnll = tnmll. Введем в рассмотрение двойные перевозки, т. е. предположим, что лодка совершает рейс с левого берега на правый и обратно. Такие пере¬ возки запишутся как правила вида а -> (3, где аир — непустые цепочки, по длине не превышающие величины грузоподъемности лодки, 481
и, кроме того, в них соблюдаются условия нелюдоедства. Если состо¬ яние на левом берегу имеет описание mmmmlll и мы перевозим с левого берега на правый двух миссионеров и одного людоеда, а обратно од¬ ного миссионера и одного людоеда, то правило приобретает вид: mtnl ml, а результат его применения — mmmmlll -> mmmlll. Таким образом, мы сформировали знакомую модель задачи, содержащую S-язык описания состояний, который определяется как подмноже¬ ство множества 2 всех цепочек, составленных из символов т и /, и множество правил преобразования, каждое из которых имеет вид сс —^ р, где а, (3 е 2, а. 2 — алфавит, состоящий из символов /пи/. Построенная модель не дает еще ничего нового. В самом деле, она представляет собой просто удобную запись порождения графа управления — ориентированного графа, вершины которого отожде¬ ствлены с состояниями на левом берегу, а ребра — с двойными пере¬ возками (см. рис. 18-7). Эта модель не дает никаких сведений о том, какую перевозку из нескольких возможных для каждого состояния следует применить, чтобы общее число перевозок было минимальным. Заметим, что метод динамического программирования имеет дело практически с тем же самым описанием. Основная особенность методов лингвистического моделирования заключается в том, что они вводят некие макроописания задачи, ко¬ торые позволяют объединять сходные по структуре описаний состо¬ яния в макросостояния. Этим достигается рассмотрение задачи с более общей точки зрения, т. е. решение ищется не на графе, а на макрографе управления, имеющем гораздо меньше вершин и ребер. Построение макросостояний осуществляется при помощи специ¬ ального аппарата порождающих грамматик, разработанного Н. С. Хом¬ ским [JI. 98] в целях моделирования естественных языков. Порожда¬ ющая грамматика Г представляется как совокупность терминального словаря Т, нетерминального словаря N, Т f) N = ф, начального символа Sg JV'H множества правил вывода Р, имеющих вид а -> (3, где в простейшем случае a eilf, (3 е (N U Т) — цепочка, сос¬ тавленная из символов терминального и нетерминального сло¬ варей. Существуют специальные методы построения грамматик поданному подмножеству фраз языка. Эти методы в некоторых случаях допу¬ скают автоматическое построение грамматики [Л. 99], но в большин¬ стве случаев оказывается возможным автоматизированное (в режиме диалога) построение. В случае задачи об опасной переправе удается осуществить авто¬ матическое построение грамматик, в результате которого получаются три грамматики, разбивающие все множество состояний на три под¬ множества, соответствующие условиям нелюдоедства. Пример 18-6. Дадим решение задачи о людоедах и миссионерах для конкрет¬ ного случая 4 миссионеров (М = 4) и 4 людоедов (L = 4) на левом берегу. Условия нелюдоедства в данном случае имеют вид: М ^ L, М = 0. Каждая из упомянутых грамматик соответствует одному из макросостояний управляемой системы. Формальная запись в данном случае выглядит следующим 482
образом: Т, Ръ S); N1 = (St Ai, А2, Л3, /Ц)^ T = (m, I, е); Р1== (5 -* mmmmAfr Л4->Л3/, Л4Л3, Л3Л2/, Л3 —> Л2, Л2—► Лх/, Л2 —> Лх, Лх -> /, Лх -> е); Г2 = (Л/2, Г, Р2, 5); A/2=(S, D2, D3, D4); P^ — iS—^D^ D^—>mD3ly D4 —> D3, D3 —>■ z?zD2/, D3 —► D2, D2 —>■ mD±l, D2 —► Dx, Dx —zzz/, Dx —>■ e)j r3=(N, Ty P3y S); Р3 = (5->Л4, Л4-*Л3/, Л4-*Л3, Л3 —>■ Л2/, Л3 —> Л2, Л2 —► Лх^, Л2 —► Лх, Лх -> /, Лх —► е). Каждая -из этих грамматик может использоваться для описания как порожде¬ ния состояний из соответствующего макросостояния, так и для отнесения произ¬ вольного состояния к одному из макросостояний, соответствующих основным усло¬ виям нелюдоедства. Следующий этап построения решения заключается в формировании так назы¬ ваемых макродействий, которые представляют собой обобщенные правила передви¬ жения как между состояниями, принадлежащими одному макросостоянию, так и различным макросостояниям. Поскольку в любой цепочке (фразе) языка вместо какой- либо ее подцепочки можно подставить цепочку того же типа (выводимую из того же нетерминального символа) и полученная фраза будет принадлежать языку, то будем рассматривать изъятие подцепочки из описания состояния на левом берегу как перевозку с левого берега на правый, а подстановку цепочки того же типа как пере¬ возку в обратном направлении. При этом однотипные цепочки должны быть непу¬ стыми, так как лодка может двигаться только с людьми на борту, и по величине не превышающими величины грузоподъемности. Пуст^ Ф (X) — множество цепочек типа X (выводимых из нетерминального символа X). Тогда обозначим через Ф* (X) множество цепочек типа X, удовлетворяющих введенным ограничениям. В этом слу¬ чае правила перехода внутри макросостояний могут быть записаны в виде Тх: mmmmAiср -«-*• ттттЛхф; ср, ф е= Ф* (Л3); Т3 : Лхф — Лхф; ф, Ф<ееФ*(Л3). Переходы между элементами макросостояния, соответствующего Г2, невоз¬ можны, так как для любого /, 1 sc i sc 4, Ф* (Dz) содержит только одну цепочку ml. Переходы между состояниями, принадлежащими различным макросостояниям, могут быть представлены в виде Т12: mmmmA2l ++ mmD2ll; Т23 : mD2l •*-*■ A2ll. Итак, теперь построен макрограф управления, содержащий три вершины 5Х, S2, S3y соответствующие макросостояниям, и ребра, соответствующие макродейст¬ виям. Построением макрографа заканчивается формирование семиотической модели решения задачи. Пусть начальное состояние имеет описание у0 = mmm/лШ, а конеч¬ ное уп = е. Нетрудно убедиться, что у0 е L (/\-) или у0 е L (Г2) (т. е. у0 может быть порождена грамматиками /\ или Г2), а уп <= L (Г2) или уп е L (Г3). Поскольку у0 ф уп и переход между элементами макросостояния S2 невозможен, то считаем, что у0 е L (Гх), y„gL (Г3). В этом случае общая запись решения может быть представлена в терминах макродействий как последовательность 7\, 7\2, Г23, Т3. Для того чтобы было ВОЗМОЖНО' S/j 5х *■ е= S2 *■ Sf S: S3, приравняем правую часть Т12 к левой Г23, т. е. mmD2ll = tnD2l. 483
Это равенство будет выполняться, если в макродёйствии Т12 применить правило D2 Di, а в Т23 — D2 mD^l. Тогда переход из Sx в 53 имеет вид: mmmmA2l -*■ mmDxll --*■ A2ll. Применив к полученному выражению те или иные правила грамматик /\, Г2, Гз, можно получить все возможные переходы из 5^ в 53. Для построения пути в подставим в 7\ цепочки типа А3. В соответствии с Ф* (Л3) = {///, //, /} число возможных переходов ограничено. Применив правило Ах —> / или А1 -*■ е, можно получить, что из начально¬ го состояния за одну транспортировку лодки дости¬ жимы состояния с описаниями mmmmlll и mtnmmll, а за две — mmmml. При построении пути в 53 учтем тот факт, что при последней транспортировке лодка остается на правом берегу, т. е. если в левой части выражения для Т3 длина цепочки Aj(p не превышает величи¬ ны грузоподъемности, то возможно применение Рис. 18-11. Возможные переходы ментами для примера 18-6. между эле- Рис. 18-12. Возможные пути из начального в конечное со¬ стояние для примера 18-6. оператора Лхф -> е. Применив правило Аг -> / или Ах е, получим, что конечное состояние достижимо за один переход из с остояний с описаниями Ш, //, / и за два перехода из состояний 1111. Объединяя пути в Sx и S3, получаем возможные ре¬ шения, порождаемые из последовательности макродействий 7\, T12l Т23, Т3 (рис. 18-11). Отметим, что каждый из этих путей имеет минимальную для данных условий задачи длину. Отметим также, что здесь предполагается возможность осуществления парал¬ лельного вывода, в случае же последовательного вывода каждый из путей, показан¬ ных на рис. 18-12, был бы получен поочередно.
1"- со ю 00 ОО 00 Ю со 05 ю о со ОС 05 'н h- 05 о см со ^р ю Ю со t ■ оо 05 05 '—' оо оо 05 05 05 05 05 05 05 05 05 05 05 05 * 05 05 05 05 05 05 05 05 05 05 05 05 05 05 е О о cf о о о о" о" о" cf о" о о" о" Ю 05 со ю со 1"- оо 00 05 05 05 05 05' СО со со 05 05 05 05 05 05 05 05 05 05 05 05 05 05 05 05 05 05 05 05 05 05 05 05 05 А 05 05 05 05 05 05 05 05 05 05 05 05 05 05 от О о о о ©" о cf cf о" о" о" cf о" cf Ю о ю о «о о iO о ю о ю S' о о СМ со со ю Ю со со Г- г— о ю о оГ of of of см" см" см" см" см" см" cf4 со" .со" см см ю 05 00 со см р- 'н со 05 !0 о ю 05 h- р- 05 см ТР со СО со ю ю ю со СО Г"- г- г— р~ оо оо оо * 05 05 05 С5 05 05 05 05 05 05 .05 05 05 05 05 е o' ° o' ° o' о cf о cf cf о" о" о" cf cf со' со 00 t— 00 см со СО о со СО со о со со 05 см ТР ю со р- р- 00 xS СО Г- о- оо 00 оо оо 05 05 05 05 05 05 05 05 А 05 05 05 05 05 05 05 05 05 05 05 05 05 05 o' о" о o' o' о о" о" о" о о" cf о" о" cf О ю о ю о ю о ю о ю о ю о ю о ю 1C со со 00 оо 05 05 о о см см" см" of см" см" со 05 05 со со 05 05 тр см ю см ю со 00 см ю ОО со ^р ^Р ХР со 05 СО оо о СМ ю со р- 00 05 о см * Г— I— ОС 00 оо 00 оо оо 00 оо 00 05 05 05 05 е о о o' о о о" cf о" о" о о" о" о" о" о см г- 05 05 Г"- см со 05 о 00 со г- см о со о см см о со о см со см 05 тр 05 см ^р СО оо 05 см со тр ю ю г- IM г— со оо 00л оо оо 05 05 05 05 05 05 О1 о о о o' о о" ° о" о" о" о" cf о" о" cf ю о ю о ю о ю о ю о ю о ю о ю н 00 00 05 05 о о (N <N со со cf cf cf о" cf 1—1 ' 1 о 05 оо со со г- 05 00 СО ю 00 р- см о 2 о 05 05 05 05 оо г— со ю со 00 ю см оо о со ю г- 05 со ю г— 05 о см ю * ю ю ю ю ю ю со со со со СО р- р- г— е © о o' о о" о o' о" о" cf cf о" о cf о" о ю о со со- тр тр ю ю со 05 о 00 о со см 00 см со оо 05 00 ю о со со см Г"- о ю СО см г— см г- см г- см со о г- о о о см см со СО ю ю со СО со о о о о о о" cf о" о" о о" cf о" cf о" о 15 о ю. о ю о ю о ю о ю о ю о н о О. т—’ Т—1 см см со со ^р тр ю ю со со г- о о о о" о cf о" о" о" cf о о" о" cf о" * е I ii X е ii 485 П р и м еч а н и я: 1. Значения функции Ф (л:) и Ф* (х) заимствованы из [Л. 21, 44]. 2. Ф* (—оо) = 0; Ф* (-j- со)
Таблица ^-распределения с г степенями свободы: Р (v>%2) Cl о о о' о о ГО см Г— СО СЮ СЮ 03 ф ю lO 00 —^02 СО^ГО 02^ —^ СЮ со^ ОО 00^ СО^ 00^ ГО^ 1"^ 03 o' го" CD*' ОсГ cfof ф" со"Г—" of —~ of ф" СО"Г"-'' of О of СО Ю" со"оо" сГ г-Г ^-,^-,_1,-1С<1СМОЗОЗОЗОЗСОГОГОСОСОГОФФФФФФФЮ Ф —' Г- СЮ 02 — 00 со сч оо оз^с^со^ф^—— со © ^оо оз^со о^го со о со" of —Г со" ю" со" оо" о —" го" ф" со" t"-" of о of го" ф" со" О-" оо" о —" го" .г-чСМСКЮЗОЗОЗОЗОЗГОГОГОГОГОСОГОФФФ <м о о'' — 03 Ф Г- 02 СО Ol Г— 00 Ф G0 00 СО СО О СО ^СО 03 СОл—' lO 02 го со о со г*- о го t— о го ю" t"-" of —"го" ю" со" о of —Г of ф" ю" со" со" of —Г of со" ю" со" о-" of cf —■’——''—■ 01 01 01 оз 01 oi 01 со со со го со со со Ф iO о о Ф02 03 02Г'-02Г-- 03 —> 0Q oo o^oo ф о юло ю^О) го со о ф^сого со 02 —лф t— 02 оз фл со" tO t^-" of I—" of ф" ю" со" oo" of-of го" Ю" СО" Г"-" оо" cf —of го" Ю" со" о о' 0 01 о — ОЮОО^^МСООООООЮ — Г- СО OJ Г- 03 со О го со 02^03 ю^оо - гоюооооз^сосоооз^ of ф" со" of cf of со" ф" ю" о-" оо" of — of го" ф" со" о-" оо" of cf of го" — ’—1 ’—1 ’—1 ’—11—1 — '—101 oi оз oi oi оз оз оз со го со О! Ф-МФОЗОЗСООГОФФРО — ОСЮ- СО oi^ СО 02 03 ю ос о ОЗ^Ф СО ОО 02 — ГО Ю СО 00 02 О 03 СО Ф СО — со" ф" ю" г-" oo" of — of го" ф" ю" со" ос" of cf — of го" ю со" t^-" оо" of ,—( ,— •— 1 г—1 ’—1 03 01 ОТ О! 03 03 О! С4} ■'О! 0,30 | ф — СО 00 СО СО 00 03 СО OO С2 — 03 03 03 03 — О Ф^СО 00 <0 03 00 Ю СО t" 02^0 — 01^00 СО Г'- 00^ 02^ 02^ СО — — of го" ф"со" о-" оо" of о — of ф" ю" со" О-" оо" of cf —" of го" ф" со" о-" ,—, — — ’—■ ’—> ’—> — ’—' CVJ 03 СХ1 <0П 03 coi Od о ю о' ю со ЮООГ—СОЮЮЮФФФФФФФФФФФФФ . Ф^СО СО^ГС го го го го го о со го го го о го го го го го го го оо cf — of го" ф" ю" со" t"-" оо" of о —" of го" ф" ю" со" Г-" оо" cf cf — of оо" о о ОО го Ф Ф — 0100ГОО-Г002Г-10ГОГ0 010303ГОФЮГ~000 01Ф — Г^ф 03^0^00 СО^Ю ГО 03 — С2 С^ОО^Г— СО^ 1Q Ф^го_03 — —со cf cf — of со" оо" ф" ю" со" о-" оо" of of cf — of го" ф" ю" со" о-" оо" of of о оо о' Ф СО Ю 02 С0ФОФФ0-03 020С0002 — СОГ- — ЮОСООЗООФ — 02С0 ОФ О со го О 00 ю го — С200СОФ СО — ООО-Г^-ЮФГО — О cf cf — — of го" го" ф" ю" со" со"г-" оо" of cf —of of го" ф" ю" со" о-" оо" о оо о со — ф ф О — — OOCO — ОГОО^СООООФОЮ- ООСОЮФФФЮСО СО ОЗ^Ю ОСООЗООФ —ООЮГООГ^ЮГОО 00 со Ф О! о оо со cf о cf — —"of of го" ф" ф" ю" со" о-" oo" cf о" О — Ol" го" ф" ф" ю" 0,95 ФГООЗ-ЮЮ' ООЮ— ФГ0^С0ОЗФ00С0О21^СОСО^О2 — Ю02ФОЮ О — ГС Г- — СО — t'- го 02 LO^Ol OO^iO 03 02 СО со — 00JO ГО О 00^ cf cf cf cf —"—"of of го" го" ф" ю" ю" со" о-" Г—" оо" of cf о" —" of со" со" со СП о' СП СТ> о — О Ю <02 03 ф ф ОФОООЗЮГОСОГОГОСО — ОС СО Г- 00 — СО — Г— Ф 03 О 02 02 ОО — Ф1Ф — 1-0 О Ю О СО — Г-С002С00302Ю0302 СО^ОЗ 02 о" о" о" о" cf —"—"of of го" го" ф" ф" ю" ю" со" Г'-'4!"-" oo" of of cf — —" О О Ю t— ФОЗС2СО * 003 — О2ЮГ^Г0ФО2СОЮО- — сого — — ОЗГОСООФОСО ОлО — ОЗ^Ю 00^03 СО О Ю O^ICO —лСО ОЗ^ОО^Ф О СО 03 02 Ю 03^ 00 cf cf cf cf cf О —"—"of of го" со" ф" ф" ю" ю" со" Г''-' К" оо" оо" of со со — ОЗГ0ФЮСО^0002О — ОЗСОФЮ'СО Г^юо 02 О — 03 го Ф — — — — — — — — — — 0303030301 486
Продолжение прилож. 0,001 СОЮ 05 СО СМ ю" со" оо" CD Ю iQ Ю Ю Ю iO о о' со юо со со TjJ4 iff Г"" оо" CD О ^ ^ Tf LQ С<1 о о Г- 05^*— Tf со —Г of 'ф" ю" со" оо" ^ ^ ^ ^ \0 о о' Г-0^1-^ со СО со оо" о of СО СО СО Tt ^ о.т | <0^1^05 —^ СО io" со" г~г of О СО СО СО СО СО "Tt* о <N o' ОС 05^CD_ —^СМ^ О —Г of ю" со" СО СО со со со со о СО о' CKNCO't юю оо" of о —Г of со" см см со со со со о ю о' со со со со со со Т^" ю" со" Г"-" оо" of CM CM CM MJ <М СМ о г- о' 05^00 со со Ю О —Г of со" ю" СМ 01 СМ СМ СМ см о ОО о' ^ см O^oot^co ю ^ оо" of о —^ of со" — — см см см см | 0б‘0 г- 05 *—■ ^ Г~~ -*<М —^O^t^CO со" Г"-" оо" оо" cd" о |П ст> ©" т—* ОС lO СО ’—1 05 ЮГО-С» Г- ’ф" io" со" со" г-с оо" со сп о* О —1 СМ Ю Г ь ^ — оо Ю со см" со" ю" со" СУ) СП о' см о оо со со Ю Ю СМ 00 Ю (М 05 г-н" of см со" - lO СО Г- 00 05 о см см см <м см со со. й СУ) о —' СМ СО Т* ю со г*- ^ — СО СО О СО со 05^ СО оо 05 М4 со" Т-Г см" оо’ со" ю" ю" СО со —< СО СУ) <У) о оо СП о 1(0 СП о' СП о о г^. о" см ^ о со — о 05^ 00 со г-^ »о со" of ю" оо" СО СО ^ Ю СО ^ О 00 05' Ю Г^СО — О -н" со" со" со" со" со" со —' О оо Г- Г» Ю со со —н г— HvjH 00 см" ’ф" со" см" см см" см" СО Ю -(MI0WOWO5 СО 05 СО 05 ОО со" of см" см см —Г —Г со оо со со о ю ОО оо со со Г'- М4 ^ О со со ю ^ ^ ^ СО СО О О СО М’ 05 СО со Ю 05 Ю со —■ 05 СО СМ ’—1 —' 9*0 со — 00 — О со СО 1— СО Г- ^ СМ о 05 СО О 05 05 05 05 ОО r-Tr-Tcf о о о" о iO о" о СО Ю —1 Г- 00 —' О — со ^ СМ г-н Т-Н OOObr-^h-r- г-Г о" о" о" о" о" о" о' Г"- Г- tJ< 05 05 СО 05 СМ ^ 00 СО Ю Ю ^ Г4’ со ю ю ю ю ю о" о" о" о" о" С5 о" СО о' (М о" О Ю ^ ^ 00 ^ см ’—1 М^'СМ — о о о Ю ''t ^ Ч1 о" о" о" о" о" о" о" Ю 05 Г» —« Г" Ю со CM 00 Г"- Г— СО СО СО со см см см см см см о" о" о" о" о" о" о" о" 00 CM Тр СМ — о Ю ^ со со СО со со о" о" о" о" о" о" о" 1 с СМ СО ’’Ф Ю СО Г"* 487
Продолжение прилож. со. 00 05 © — СМ0ОФЮСО1—00 02© — (МСО^ЮСО^ООООООО т_н^,_(г_чг_ч___н_*_г_СМ<^]СМСЧо}Сч1Сч}(;ч1Сч|Счч100тЗ<С£)(;м СТ> ст> ОУ о СП о' Ф00 05 02 СМСМФ1—СМСОСМ00ЮСМО51— Ф CM — О) СО Ю Ю CD h- ОМО Ф^^-О О 02 05 00 оо 00 Г—ЬГ-^ССССООЮ^ОО lO ф" ф" ф" ф" ф" ф" ф" ф" со со со со со со со со со со со со со со со со со СО Ю 1— — СО — ООЮЮОООСОФООМСМООООГ- СО СО Ю О Ю (М ОО СМ '—' '—'©©050505050000c000000000t— t— t— t— I— CD СО со со со со со со см" см" см" см" см" см" см" of сТ of .of of of см" cm" cm" of cm" cm cm" СО О), о’ ©СМСОСМ00ЮСМ©00Г— ЮФ00СМ — © 05 00 00 Г— 1— CO CO CM 05 CO ©OOt-t—СОСОСОСОЮЮЮЮЮЮЮЮФФФФФФФФСССО см см cm" cm" cm" cm" CM"of cm" cm" cm" cm" cm" cm" cm of cm" cm cm" of cm" cm" cm" cm" cm" cm" ю , . о' СП о о — СООО©ООСОФСОСМ — ©05 05 001— l— СОСОСОЮЮФФСМОСО 00 CM CM CM '—1 ’—1 ’—1 ’—1 — — — 0000000000000005 cm" cm" CM CM cm" cm" of of cm" CM of cm" of of of of of of cm" of cm" of of of cm" r-T ©ООСМЮСМ — — С0СО©ФО5Ю — t— Ф — OOCOOO — G5t— Ф — OO CO 05 ■—'05C0t—СОЮФФОО CM CM CM —1 ’—1 — О О О О 05 05 00 Г— lO oooooot—i—t—t—r"~t—i—г—t—1— Г— t— I— t—t— t— Г— t— COCOCOCOCO «ц«Ч«Ч«Ч*Ч*Ч*Ч«Ч*Ч«Ч*Ч»>»ч«Ч«Ч*Ч*Ч«Ч»ч«Ч»ч«Ч»Ч#Ч*Ч«« 00 о r-ГОСМООСООЮ — Г— ГОООСЮСО — О500СОЮФСС — О00СОО5 05001—СОЮЮФФСООООО СМ СМ СМСМ — — — — — — — — ©02 00 СО со СО(ГО OICOOOCOCOCOOOOCCOCOCOCOCOCOCOOOOOCOCOOOOICM t"> o' 00О00 00 00 05С0Ф — 05 Г— СО ^ ОС - © 02 00 ОО Г— СОЮЮОСО- О О 05 00 ОО Г— Г— t— t— СО СО СО СО СО СО СО Ю Ю ю IO Ю Ю Ю Ю Ф Ф — — ©^ ©^ ©^ © © © © © © © © ©^ ©^ © © © ©^ ©^ ©^ ©^ о о о о со о' 05 ОС 02 СО 00 О 00 СО Ю СО СМ — О 05 00 00 Г— СО СО 'О 1Q Ф Ф ■—1 СО Ю ОС СО I— Г- t— t— СО СО СО СО СО СО СО Ю >С Ю Ю Ю Ю Ю Ю СО Ю Ш Ф Ф ооооооооооооооооооооосоосооооооооооооооооооооооооооо о" о" о" о" о" о" о" о" о" о" о" о" о" о" о" о" о" о" о" о" о" о" о" о" о" о" LO -о' СО СО © Г— ЮФСМ — © 05 00 ОО Г— СО СО Ю Ю Ф Ф Ф СО СО ГО — 05 t— О О О 02 05 05 02 05 05 00 ОС 00 00 00 00 00 ОО 00 00 00 ОО ОС 00 00 t— t— t— Г'- t— сососососососососососососососососососососососо о" о" о" о" о" о" о" о" о" о" о" о" о" о" о" о о" о" о" о" о" о" о" о" о" о" ф. о' С0С0СМО05001—СОЮФФСОСОСМСМСМ — — — — © © © 02 Г— СО ФФФФСОСОСОСОСОСОСОСОСОСОСОСОСОСОСОСОСОСОООСМСМСМ Ю Ю Ю Ю Ю Ю ЮЮЮЮЮЮЮЮ Ю Ю Ю Ю Ю Ю Ю Ю lO LO ю о о о о о о о о о о о о о с о' о о о о о о о о о о о 0,1 I 0,2 ! 0,3 05 00 t— СО lO Ф СО СО СМ СМ СМ 1—1 -—1 >—1 О О О О О 02 05 05 05 ОС (— СО 05 05 02 02 02 05 05 05 05 05 05 05 05 05 05 05 05 05 05 00 00 00 00 00 00 00 °°..СО ^CYD оо со го со со 00 СО со со со со 00 о о" о о о" о" о" о" о о" о" о" о" о о о" о о о" о" о" о" о" о с" о" CM — ©©05 05 00 00,00 Г— t— [— t— t— СОСОСОСОСОСОСОСОСОЮФФ CO CD СО СО Ю Ю to Ю^О Ю Ю Ю Ю to Ю 1Q Ю Ю to to Ю 'О IO Ю Ю to CM CM CM CM CM ем см см см CM CM CM CM CN СМ СМ СМ СМ см см см см см см см см о о о о"о"о о о о"о"о"о" о" о"о о о о о о о о о о о" о" ©05 02 05 00 00 00 00 00 00Г— Г-t— t— t— t— t— Г— С— Г— Г— t— Г— СО СО СО оосмсмсмсмсмсмсмсмсмсмсмсмсмсмсмсмсмсмсмсмсмсмсмсмсм о о о о о о о о о о о о о о о о о о о о о о о о о о т е 00050 — СМООФЮСОГ—00050—СМООФ Ю СО t— 00 05 о о о о г_.СМСМСМСМСМСМСМСМСМСМООФСОСЧ 488 Примечание. Таблица заимствована из [JI. 21].
Доверительные пределы для вероятности р биномиального распределения <т> г— ю со о о ю оо о> см ю со со Ю О Ю О Ю ю го о м Ю О) о о ю о о о со оо ю г- ^05^f05ina5C005C005t--05 о o' о*' о о" о ©о © © © о 10 CM t"- ^ СМ СМ 05 Г- 00 1-0 05 ^ — ОГ^-ЮСМГ--05СО'^ОСОСМ 05 05 СМ 00 ОО t'— СМ СО ОО Ю t^- — со ©^ ^ 05^ 05^ Ю 05 ю 05 СО 05 оооооооооооо оо ОО О Ю О) О ГО X) ^ МО lOOOOOt^t^O^^ оо оо — 05 Ю 05 —«Г— Г- 05 СО 00 СМ СО Tt« О Tt1 05 Ю 05 Ю 0>ЛС0 O^I> 05^ • оооооооооооо" ОО — СО lO О 00 — CM Ю СО СО — OOC^COrfCOCOOi-Q^CO Ю 00 ОО 00 t"— 05 СО Ю ^ ^ О СО о^со 0^'^054'4t О^Ю 05чС0^05 о о о о о о о о о о о о f- Щ — t^l0 00C0O 00 05 00t^- 00 05 О 00 00 СО 05 00 00 СО 1"~ СО 05 — 05 С 05 СМ 05 05 00 О) О 00О5^О5^О5ЮО5ЮО5 СО (О О о о о о о о о о о о о Tf05t^-C00505Tf005CMlOOO t"* Г"" СО CM 05 —1 О 05 05 05 05 CM 000^o0 05t"-l0l00c0005 СО 05^ СО 05 CO 05 ^ 05 Ю 05 СО 00 о о" о o'4 о о о" o' о о о о^ со -н СО СО со 00 Tf w '(t - СО Г— Щ 05 СО ОО — СО 05 СМ Г" Ю 05 05 г— 05 Ю 05 СМ 05 Г- 05 ^ ОО Ю Ю СО 05 СО 05^^05^10 05^ СО^О^ о о о о о о о о с о сГ сГ ООСОСМСО — — COCOOOTfOCTf Г-СОС0005000СО — — С005 Ю ОО 05 ОО тр СО О Ю СО 05 СО Г*— СМ© (N050005^05^0510 00, оооооооо о" о о о ift OCMCOCOOOOOCMiOr—COiOCN) ^О5тГ00 0СЮ00 — 05СМОС0 1-0 05 05 05 1-0 05 ’—1 05 СО ОО •—' >0 СМ05СМ05С005^05^05С005 ОСМСОСО^СОСОСОООСМСЛО co^cot^-oco — СОСО — со О) О 00 СО Г"- 05 СО т}4 О СМ — СО СМ ©лСМ © СМ © СО 05^ 05 Ю 00 оооооооооооо оооооооооооо*" — О — ОС005С000 — СМОО — Ю 05 СМ 00 СО "'vf СМ 05 СО 05 Ю ^ 00O5CMO500O5Tf00 —- Г", -Tf — 05^0^05 CM ©СО 05^05^0 05^ оо'оооооооооо COCO — CMOOt^COCMCMTfoOOO СО— СОСОСМСО — Г-СОГ^СОСО ^00^^(МЮГ-СОСОО^СО — 05 — О СМ 05 СМ 05 со 05 Tt 00 000 0000000(00 го С0Гч05Ю-чГ-С0С0ЮОС0гр oooot^^cooot^o^coo — О5^О5О5О5^00СМГ^ЮСО — 05 — 05—©СМфСО©^©^ ОООООООООООО оо — сососососососооо^см 05 Г— Ю t~— СО 1"- 05 СО СО Г"- 05 СО ооь-осо^^оосм^ооюо О О — 05^— 05^— 05 см 00 СО 00 оооооооооооо <м СО 05 t"- СО СО СО О 00 Ю СО СО — OOOOCO^f — ЮСОЮЮСООО 05 О 05 05 05 СО 00 05 СО СМ О о 05 О 05 О 05 —^ 05^ —^ 05^ СО 05^ оооооооооооо h-COOOCO'tCO^CO^OO ©ОСМООГ'-СМ^-СМСМГ^СОГ- смг-^юсосооо^ю^ю О 05 О 05 О 05 О 05 — 00 CM t^ о о~ о~ о o'" о о о о*" о о~ о - ююоосо^сог-сог-оо СМГ'-ЮЮСМГ'-Ю^ — 00 ^ СО 005005 — оо см г- ю ^ со со О 05 О 05^0 05^С5©^С^© — 00 оооооооооооо t^coco —Tht^ot^iocM^t^ — оосо — ООЮС^^^Г*^ — со ОЮО^ОО — СОС0005Г- О 05 О 05 О 05 О 00 О 00 О СО оооооооооооо о оооооооооооо оюоооюоооооо 0©0©ОГ-0 10 000Ю О 05 о ©^0^05^0 05^0 05^0 Г*^ оооооооооооо 0с0000050^00000 005000 — О СО О СО О О осмооо^ог—ООСОО 0^05^0 05 ООО О г- © СО О IQ оооооооооооо 1-ОСОООЮЮОООООО О 05 — 05 СМ Г- ю ‘ О О О Ю Ю О 05 о 05 О (О О © — 05 СМ Г--^ оо оооооооооо Ю 1-0 о о ю ю о о о о о о 005-05СМЬЮЮООЮЮ О 05 О 05 005^0 05 — <рсм Г- оооооооооооо -с? 1 - • см 489
Продолжение прилож. о -ае а> оо г— со о 1—1 ’—1 cd — г- со см — CD Г- —' ОО 1-0 OJ со ^ ^ ^ CD Г- СО CM t"* CM CM О — Ю cocd^co ® 4,°l 4,^. oooooooooooo С) О ’—1 М1 О 05 ю о CDOOOOOO — СМОСММ’СОСМ Г- —1 О CD 1-0 Г'- CD со — —1 Ю смосооосооосомнооюг^ о~ о" о о o' o' о о o'4 o' о со t^t^COCMCOOOCOlNCSKMiOt^ CO CO O) О 02 Ю -<ФЮОО ОЮСОЮСПООСОМОООЛ'-^ со О) 00 CD^CO CD^M^CD М^ОО Ю СО oooooooooooo 00 CD СМ 00 Tt 00 00 10 со см ююсмозю — ^ — ососо ^OD-OO — (ОЮОСЗООСО СМ О СМ 00 СО СЮ со ^ Г" т* 1— ооооооооооо о ОО'-'ЮЮОО^Ь'СОСМСО^ ХРСОГ-СМ^-СОСОСМОО^СММ4 СОСОФЮ’^ООО)’-100 ^ CM СМ О СМ о со а^СО о ^00 lO оо оо^оооооооооо Щ СО CD Ю Г"- СО СМ СО СО СО — оосо^оосоооюсм — юо О О СО Г'— Г— ^ — СО 00 Tt1 —— CMOOCMOOCMOOCOCOt'-^t'- о о о" о" о" о о о" о о о С£) '—| ^ О Ю СО '—1 05 (N СО 1-0 О Ю ООООЮФЮ^ГООООО^ ^IQIO^OIN^OONOO СМ О COO СМ О^СО CD 'Т ОС М^ОО oooooooooooo со Ю О Ю СС ю со Г- Ю ю (О ою^мососм — г-cd — см COOOCDCOCOCOf-- — юооо —«00 — ООСМООСМООГ-^СО о о о" о о" о" o' о о о о lD l"-iO(MCMCT>OOCMCDCO—' ю ^ OOlOOO^f^t-OOO^fCO^fO СО'ООСО^ — ОООО^Ю^!^ — CD — CD CM CD СМ^ОО со оо Г"^ oooooooooooo СОГ— ^fCO—’CDTfCOt'-t'-CO 00 ■—1 О О Г'- СМ см. Г" см о о СМГ'-Ю^ОО—■ СМ СО СО Ю ^ ' СО ’—1 ОО '—1 ос см см г-- со со о о~ о о о о'о О о о о t— r^- СО Ol — О СО CM СО "'cf С© О М О) ^ Ю —• ОО О 00 со ^^^(MOOOCMh-t^rOt^^ | О ’—1 О ’—1 О СМ 00 см оо со oooooooooooo OOCDCOOOOOOT^OOO СО СО Ю CD 1"- 00 Г— О CD — 00 ОО Ю О CM СО 00 СО ’— CD CD О О 00 T-l°0>s—^о^-^см^со см со о о о о о о о o' о о о СО 'со Г- ОО СО —1 О СМ ОО CD — CD —' СОСС^ЮОО — COCOOCDCOCO со со оо —■ —' со ю ^ о а о о 0000)^00-' 00 СМ С"- СМ Г—^ о о о Ь" о с о о о с о о Ю СО 00 ОО СМ —' CD СО Ю t"- О О — Ю Ю — со ю о ю со со О со ю 1 о СМ 1-0 О 00^0 00 О Г- гн ^ СО см ю ооооооооооо <м СМГ-СМТ^СМООСООСМСОССО м^ооозюю^^^юа^ оооооооооо-ь-ю о о о о о о о о о о о о ъ OOOr-Nh-CO'^OC'MO- lO D— CM СО СО О СО ОС СО ОС СО — CD СМ СО со О Ю Г- О' со 00 О h С h О Г- О О 1.0 - о о о о о о о о о о о - СО’— iO '—1СОО^''^ОЮТ^14' — 05 01 05 СО Ю СМ — СОФОСО ооооюоо-юсм^ю^ О 00 о оо о оо о^г^о со о ю oooooooooooo ОООГ'-Г-СМСМЮ'^ООООЮ О СО — Ю ^ — со г- о со о О^ООО^О-’-^оО or^ot— о со о о ю о со о" о о" о" о о о о" о о о" 0000000(000000 OCDOM'Ot'-O—1 о ю о о ОСМООООООСООСООГ^ о оо О t^o 0^0 со^о ю о СО oooooooooooo ООООООООООО-• о со о — О — О О О) о см оюооосмооооо ОСООСООЮООСООСМ о~о о о о о~о о о о о ?• ююооююоооооо 00)-0)СММОЮ0010Ю О CD О О ОДО CD — О^СМ Г-^ оооооо~оооооо ююооююооооо О CD — ООМОООЮЮ О CD о CD^O CD О— CD СМ Г- ооооооооооо в 1 С со ю 490
Продолжение прилож. £ СО О) Г- Щ 00 Ю ^ СО — — 00 — СОСМОСОООСМСОСОЮГ'-Г-- союсосооэосог^г'-оо^г- С^ОО СМ 00 Ml OO^CO^IM СО Г- М4 СО ооооосГоооооо О^^ОЮ^ООО-СОО) — оссмсо^ — ^оосмсою 05 со — — г— t— © тр h- — r^CM^r- CM h- см со со со со ю оооооооооооо ■ О О СО ю о со со СМ О ОС ю со СМ 00 — со — со — сГ со со о о со СМСМООЮСОСООСЧСООСО — 1-0 — 00 О ю Г" о СО — г-*- Ю 00 O'^CKMCOCOOLO't-1 — о СМ СО СМ СО CM tq со tq СО rq 'чГ со оооооооооооо ОСОмРОСО^ОСОСМГ—Г'-О юсм^ооюсм^ооюсмо СО Ю 00 СМ — О Tf to г- — ^ ю — tq — t^CM со CM СО СМ СО^СО lO ОООООООООООО СО Г'- Г— СО ОО СО СО СО СО см со со о со — со — со — dddod 'МСО['-СОМ<СОСОМ<СО^СОГ- С-1 l"~ ^ 10 О СО СО СО ^ 10 00 — С- С1 О) О со СО СО со О СО Г- СМ — ОС — 00 СМ С-' см г- со СО СО со оооооооооооо — ^CMCOTfh-OO — Т^СООО ^^ЮСЗЗ^О - Ю СО М4 00 СМ со со ю о оо г- - со ^ о о см — Г ,Г^ — со см со см ю оо ю о" о" о" о" о" о о о о о о о хр СМ СМ 00 Ь- СМ 0-1 со со 00 о — — оо со • — со — ю — dddod со сосооо — сосооооо — ООО 00 — OOt^CMOO^CMOOCOCO — со — юооо^гсм — сососоо — оо — г- — г- см г-^см со со ю оооооооооооо сосм — юосоооо^^^о со со ю со СМ Ю 1"- 00 о ю — о о — см оо ю ^ г- о — со г— о —^ rq —^ со — со г ^ cq см ю см^ q оооооооо о о cd o' 0,0801 0,5878 0,0925 0,5612 0,1128 lO ’fioio-^coooo^r-aih- СО —- — Ю — ОС ’—М* ОС Г'- СО О О С4 ! со >о см оо ОС — со 00 ю — I'- — Г- — — со см со см ю ddcddodcoded — CM Tf r- CM CM Г- ^ О Г- СМ со О 00 ^ СО ОС СО — СМ — О Мч ОООООЮ — — ^ft^r^COCOlO ОСООСО — со — Ю — LOCMMh o' o' o' о o' о d dd'o'd cd СО 00 ОО — СО ос со ос см со Ю Ю СО со 00 о ю о iqo ©cdocd© OOOOh-OOCO — — (МСМЮ^ — оо СО со г— О СМ Ю О О о со — С0С00000ОО00 1.0С0ОС0 — OhO Г'- — со — со — ю см ю с о о о о о о о о о о o' cocoo^coo — ocoocor- (Mt^^I'-CO-TfOOCl^ - , 1.0 Ю CO Cl СО ОО Осо O) oo —' О со О со О Ю — iq — — oooooocdooooo 00 — — со Ю Г— Г- СО 00 О со CM тр со со о ю о dddod со O^iOOh-lOCOCOOOr-COh- Г-'-iOt'-CMCDCMI'—COi-O’—1 Ю t"" 00 со ^ о со Ю 00 о — ю.г-- ю о^ог-осоосо-ю-^ o' о о о о о о о о о о о oocooooo^t — — г^осоюю ЬОЮ^-ОООСО^ОО^^ — CM CM CO 00 LO со Ю О OO со CO О 0 О ЮлО Ю 0^0^ -л W о о о о с о о о о о о о г- ^ ^ со 00 о ОО Ю ОО Ю — оо со ю со о ^ о ^ о о о о о о <м — О со — — СО ОО — СМ 1-0 CM CM t— oooooooooi^o — О — 1-0 см о — ^ГСОООО ОСООСООСО^ЮО^-СО о о о о о о о о о о о о оооосоо — ю — смюсосм ОСМСМГ-О^ОООЮЮО- ОС— — СОСМООСОСОмРООООО оюоюо^о^осоосо оооооооо о~ o' о о со со О О) со со — со со ^ о ^ о о — о о о о o' о o' о - СОЮСООСМЮ^Г- — СМ 00 Г'- О — — СО СО СО СО О СО СО Щ СМ осооооосмог^ — осоо ОСООЮОЮО^О^ОСО ddddddoc o' о о о ЮСООООСООО^-т^ЮСМООСО OOOOOCMCMrf^CDOtOCO ооосоо — осоо — смсм о Ю 0^0 ^to СО О со о см о о о о о о cd о о о о о" со ^ со оо со о — о 00 — 0000^0 о со О со о <о о о о о о ООО — ОСООСМОСООГ- ОООСМООООООООО O^OOOOOO^OOOON О Ю О ^0^0 со о^см о — о о о с о о о о о о о о осооооюосоог-о^ О — 0 05Q0000001000 0-0 СО О О О 1-0 о о о см О ^ ОСООСООСМОСМО — оооооооооооо о со о ^ о OhO^O о О О со о О (МО см со о о сГо cd ?- Ю 1-0 о о ю ю о о о о о о оо-оеммоюооюю ОООООООО — ОЗСМГ- оооооооооооо ююооююоооооо оо-оеммоюооюю ООО о о оо о — о см г— ОООООООООООО ю ю о о ю о со — о см о со о о о о © © © cd 1 г- о ю 491
Продолжение прилож. 492
Продолжение прилож. о CD (0(М01Ю00^С0ЮЮЮОО 05 О Ю оо со ю со СО ю ю ю 05 05 — Г- СМ ^ ^ —• СО ОО О СО — — — oq^CM 00 о" о" о о о о о o'о о о" o' ^Р СМ 05 Ю СМ 05 О — СМ — — 05 Ю 00 —< СМ СМ 05 СМ — ^tot-o lO О СО 05 t4— СО ОС Ю 05 СО — 05 осоосмосмосмосм — — О О О О do О О О О О © С5 h- ю о 05 ^Р O') тр 00 — СМ Г- го СО сс ю о —° — о^— o'ddddo 00 00 05CM0C05l0 00OC0t— t^- — СОСО^^ОСМСОЮСОСОСОСО ОО Г- 05 Ю — СМ СМ 05 ^ СО 00 — О Tf — rf — СО —<Г0 —^С0 о' о о о о о о о о o' о" o' — ООО—'ЮГ— Ю О О СО 1— со СО — СМ СО — СО О Ю СМ тр ГО — "^Р 05 lO г— со Ю t—- ГО ОС ’—1 О ОС о см о СМ' о см о см о см — — dodo о о о o'-о о о о сом ^--(ЮГ- тр со Г- Tf см о СМ со СМ ю ГО ^р <0 — 0 — о — о о о о о о t- OO^iOOOhiiOOO'- СО 00 Г- COlOh«C4(N©r^-. СО О — О CDiOh-COOQOMN^fOOO O^ 0^000 -—^00 — 00 — CM OO^OOOOOOOOOO*' —'СОСООООГ-—'С0Г-0СО50С Г—* ^ СМ 05 О СО 05 00 05 t'— 05 Ю со f— тр 1.0 Ю со Ю — со 05 00 СО О^СМ О СМ О СМ О О) О — О — о" o' o' o' o' o' о о o' o' o' о ^Р г- см со г- — 05 см см со со о — ю см тр см оо О — О — О — о о" о о о о СО О 05 05 о ЮГ~-ООСООО©Ю (N О О ОО ^ r- CD LO Ю ОО ^ ЮСОСООГ—Г'-ОО^О — COCO О ^<0^0^ 00 О оо — 00 —^см o' o' o' © o' o' О o' © o' о o' сосо6аоосог-г^юсо^05со 00 CO CM О О 00 t— О Г> О Ю 05 (М Ю со ^ Xt"- ^ О Ю ОО 1- ^ о^см^о см о см о. СМ О — О —1 с о о о о о с о о с с о г- — — о — — ^Р —* t— СМ — 05 — Tf — со СМ — о — о — о — o' o' о о о о ю 00 СМГ- O^OO-O't^CD'^ 00С500Г— oor- СО О ^ СО ЮО '—1 00 OO '—'00 0^0000000000 CM — CM^ o' o' o' o' o' о о о o'' o' о о" —' Г-’ 05 со 01 СО 1-0 Г- 05 — СО О о СО со — О 05 СО — тг СМ — СМ СМ со СМ 0 -1 ГО 05 со 00 ^ СО СО го О СМ О СМ© — О — О-О- о о o' o' о о о о © о о o' ^Р — со — СО Г- О 05 см о ю г— — 0-1 — 01 — о о — о — о — o' o' о" o' о о OI СМ Ю to 05 Г- 1-0 ^ Ю О (М 05 тр тр 05 О 00 СО 00 00 i—1 Г— 00 Г— (МГ^'МЮСО — ^ООЮЮООО О СО^О^ОО^О оо^о см о СМ^О см о о о о о о о о о о о о Г— ^ со со со о t— со г— со см г— О! Ю LO О О 05 Ю — 01 01 г- со — — — OOir-CMCOCOxfrt — 0^01 о см о — о^— о — о — 00000000G500 0'' Ю 0-1 О СО СО со со со ОО г- о ю О — О О — 05 0-0-00 dodo o'о~ со тр — ©сог-оооосм©ео©г*- СМ©СОСОСМСМО5гр©С0СМЮ 1—■ СМООСМЮ'^СМСОГ'' О оо О 00 © СМ^О СМ^©лСМ © —1 о о о о о о о о о о о о iOCMxr^OOt-COC5CI-biO СО СМ ОС — СОЮС5 - — СМ ^Р О 05 О t'- — Ю — СО CM CM 00 05 о^—о^— о — о — о^— о о о о о о о о о о о о о о со со со со о оо СО CM тр со 0-1 О О О 05 О оо 0-0000 оооооо С4! 05 10 00-—■ 05 00 00 05 00 СО — 00ОЮС005СМ00Ю05ЮЮ© OOOt-O^’-'-'^OOOO^ о 00 о см о см^ © см^ СО — О — оооооооооооо 0^*050^ - О5СМС0 — Ю О см со см см тр см со со © 05 оо ^р ОСООЮОСОО — — 05 — Г— <0 — 0, —О — О — о о^о^о ооо^оо^ооооооо О оо Ю 05 тр — — Г- — 05 СМ 05 о оо о г- о со о о о о о ©^ о о" о о о о - (N0^^0^005010001 © СО О 05 — СО СМ 05 ХГ —■ — О ©Ю©СМ©05©С0©^Р — © о см о см о — <3 — 0 — 0^—^ , о о о о о о о о о о о о — С5 О) ОНО Ю О 1- — — СО 05 осоосоо^—осм^гю — осоосмоооооог-ою О^— 0-0 — о О 0^0 о о о о о о o' о" o' o' o' o' о" o' — со — 05 СО 05 о — о со о со О Г- о со о ю оооооо dpdodd О OOOCMOCMO05OOOCJ5 О — OOOOt^OCMOCOOOO 005000000—'ООООЮ 0 — 0 — О — О— О О 0^0 оооооооооооо ОЮООО — ОСМОООСО OOOCOO — OOOOiOOh ОООООО^ОЮО’ФОМ 0 — 0 O^O^O^O ООО о о оооооооооооо о со о о о см о — о ю о со 'ОЮО^ОСО о о о о о о <0 0 00 0 о > ююооююоооооо 005 — С5СММЛЮООЮЮ 005005005005 — 05 CM h- оооооооооооо ююооююоооооо 005 — 05 СМ Г- ююооюю О ©О 05 0^05 © © — 05 см г—^ о о о о o' о .о о о о о о ю ю о о ю ю О 05 - 05 (М t- О 05 О 05 О 05 Оо ОООо 1 С 25 50 100 493
Продолжение прилож. о оо г- ю СМ —1 ОО ОО СП О Г- СО Г" 00 Ю СО СО О О >—'О-—'О — О О О О О О СМОСПСО — ОООСГ— !"~О0ЮО0 сооососоооооспоог^оооо ООООООООООСО’—'С4!’—'СМ оооооооооооо o' o' o' o' 0~ o' o' o' o' o' © o' ОС ^ (О (О ю г- Г- 03 оо Г— Ю ОО ОО CN •—1 lQ 05 <0 — О —^О О ООоООО ’— Clh'OOCOOOiMlM'^t— 0-1 Ю СО Ю СО СО О h СО О Ю 1—' ’—1 OCOOOCOOOOCMOCM — CM оооооооооооо © o~ © © © © © © o'4 © о © tr- — 00 ОО го г- оо ’—' О СО Г— t— О ос — оо о ^ оо 0—0—00 о о" о о о" о О^СОООСОСЧЮООГ^-'ОО Ч-СС’^'-'ЮООСОЮ^СООО ОООООООСМОСМОСМ — —' оооооооооооо ©о©©©©©©©©©© '■О о СО О (М о г- ^OOOt^OO О) О ОО О) ^ 0-0000 o' о dodo осоюю^сомоосчг- со © ООООСОО^ЮЮООСООООСО OCOOMOfNOMOMO-' оооооооооооо o'cddddddddo o' О Ю 00 LO 01 о СО t"- оо СО С1 о — сп см оо ос со О О О О о о ’-'XlOOCMOOih'OOCnt^r- смг'-смюооооооо^оосо^ О Cl О М О (М О СМ О ’—'O’—1 О О О О 0^0 о о о о о о О о о о о о o' о" o' o' о" o' о" o' о" o' o' о N0)05^^^ со Ю СО ю ^ о ’—1 ОО ’—1 О) uO о о о о о о о о о о о о ООООЮСПММ^'-'ЮООО^ -н^гч(МСЧОА^00С0ЮЮ(М OfMOfNOMO^O-O-1 v оооооооооооо оооооооооооо со О СО Г- Г- 00 — ОО со О оо со СП • О Г— — СО — ^ о о о о о о о о о о о о Г— Г'ОООСМООСОООСМСМ^ — O’—'О©1—1 Г- '—1 Ю (М со со о О СМ О ’—'O’—'O’—'O’—'©’—1 0^0 оооооооооо © 0.0 о о"о о"о о’'о о*4о CSJ Ю ^ СМ 00 Tt — СО О LO 1—'О со О СО О Ю О 00 о о о о о о о о о о о о СМООООСОЮСОГ— Ю — СОООО ООООСОО^ОСМ’-О^^ ©’—'O’—'O’—'O’—'O’—'ОО ОООООООООООО босо о © © o' о о'' o' © - ю^оооо^. о со — 00 см со о^оооосч о о о о о о о о о o' о о Or-0(M^^’-l’t(Mt^CO^ О^ОСООт-' О СП О Г- О Ю О’—'О*—'©’—1 О О О О О О оооооооооооо © © © © © © © о' о о o' © О О Ю О 00 О 00 О О О CN О 00 О СМ О 03 О «—1 о о о о о о о о о о o'4 о ОЮОМО^ОООСООСО ОООФОЬОСООТСОМ о—оооооооооо ©ООО© 0^00^0 ООО о б о о б о б о о о о о > о о о о о о ю ю о о ю ю о сп — см г- © © © © о © ю ю о о ю ю о о о о о о О СП — 05 ОТ С- Ю Ю о о ю ю о О о СП о СП О — О СМ оооооооооооо -с? 1 С 100 о о ю 494 Если k0 = 0, то в качестве нижнего предела следует взять 0; если k0 = п> то верхний предел следует положить равным 1, причем у = О ~h Р)/2 (Р —доверительная вероятность), а/2 = 1 —у.
ПРИЛОЖЕНИЕ 5 Таблица функций р(Х) = 1- fj {-\)ке-°-кг% k= — CO X р(Ь) х р(Х) X р (X) 0,0 1,000 0,7 0,711 1,4 0,040 0,1 1,000 0,8 0,544 1,5 0,022 0,2 1,000 0,9 0,393 1,6 0,012 0,3 1,000 Ю 0,270 1,7 • 0,006 0,4 0,997 1,1 0,178 1,8 0,003 0,5 0,964 1,2 0,112 1,9- 0,002 0,6 о,т 1,3 0,068 2,0 0,001 Примечание. Таблица заимствована из [Л. 21, 37]. ПРИЛОЖЕНИЕ 6 Таблица 400 случайных цифр 86515 90795 66155 66434 56558 12332 94377 57802 69186 03393 42502 99224 88955 53758 91641 18867 41686 42163 85181 38967 33181 72664 53807 00607 86522 47171 88059 89342 67248 09082 12311 90316 72587 93000 89688 78416 . 27589 99528 14480 50961 52452 42499 33346 83935 79130 90410 45420 77757 76773 97526 27256 66447 25731 37525 16287 '66181 04825 82134 80317 75120 45904 75601 70492 10274 87113 84778 45863, 24520 19976 04925 07824 76044 84754 57616 38132 64294 15218 49286 89571 42903 Примечания: 1. Случайные цифры имитируют значения случайной величины /0 1 2 ... 9 \ с распределением ^ ^ _ 0l J • 2. Таблица заимствована из [Л. 43].
СПИСОК ЛИТЕРАТУРЫ 1. Винер Н. Кибернетика или управление и связь в животных и машине. М., «Советское радио», 1953. 2. Винер Н. Кибернетика и общество. М., Изд-во иностр. лит*., 1959. 3. Эшби Росс У. Введение в кибернетику. М., Изд-во иностр. лит., 1959. 4. Бир Ст. Кибернетика и управление производством. М., Физматгиз, 1963. 5. Клаус Г. Кибернетика и общество. М., «Прогресс», 1967. 6. Системные исследования. — «Ежегодник 1971», М., «Наука», 1971. 7. Акофф Р., Сасиени М. Основы исследования операций. М., «Мир», 1971. 8. Глушков В. М. Введение в АСУ. Киев, «Техника», 1972. 9. Bar-Hillel J., Carnap R. Semantic information. The Britich J, for the Philo¬ sophy of Science, 4, № 14 (1953). 10. Колмогоров A. H. Три подхода к определению понятия количества инфор¬ мации. Проблемы передачи информации. Т. I. М., «Наука», 1965, вып. I. 11/Андронов А. А., Витт А. А., ХайкинХ. Э.-Теория колебаний. Изд. 2-е. М., Физматгиз, 1958. 12. Аморел С. Подход к автоматическому формированию теорий. — В кн.: Принципы организации. М., «Мир», 1966. 13. Кузин Л. Т. «Основные проблемы проектирования больших систем». Неко¬ торые, вопросы кибернетики. Вып. I, М., МИФИ, 1970. 14. Экономическая семиотика. М., «Наука», 1970. 15. Семиотические методы управления в больших системах. Материалы семи¬ нара. М., МДНТП, 1971. 16. Кулик В. Т. Алгоритмизация объектов управления. Справочник. Киев, «Наукова думка», 1968. 17. Зейденберг В. К., Матвеенко Н. А., Тароватова Е. В. Обзор зарубежной вычислительной техники по состоянию на 1972 г. ИТМ и ВТ АН СССР. М., 1972. 18. Человек и вычислительная техника. Киев, «Наукова думка», 1971. 19. Ляпунок А. А., Яблонский С. В. Теоретические проблемы кибернетики. М., Физматгиз, 1963, вып. 9. 20. Кузин Л. Т. Основы кибернетики. Ч. I. М., МИФИ, 1970. 21. Вентцель Е. С. Теория вероятностей. М., ФиВматгиз, 1962. 22. Крамер Г. Математические методы статистики. М., Изд-во иностр. лит., 1948. 23. Гнеденко Б. В. Курс теории вероятностей. М., Физматгиз, 1962. 24. Ван-дер-Варден. Математическая статистика. М., Изд-во иностр. лит., 1960. 25. Хальд А. Математическая статистика с техническими приложениями. М., Изд-во иностр. лит., 1954. 26. Дунин-Борковский И. В., Смирнов Н. В. Теория вероятности и математиче¬ ская статистика в технике. М., Гостехиздат, 1955. 27. Лэннинг Д. X., Бэттинг Р. Т. Случайные процессы в задачах автоматичес¬ кого управления. М., Изд-во иностр. лит., 1958. 28. Солодовников В. В. Статистическая динамика линейных систем -автомати¬ ческого управления. М., Физматгиз, 1960. 496
29. Солодовников В. В., Усков А. С. Статистический анализ объектов регу¬ лирования. М., Машгиз, 1960. 30. Свешников А. А. Прикладные методы теории случайных функций. М., «Наука», 1968. 31. Миддльтон Д. Введение в статистическую теорию связи. Т. 1 и 2. М., «Со¬ ветское радио», 1962. 32. Пугачев В. С. Теория случайных функций. М., Физматгиз, 1962. 33. Гнурман В. Е. Введение в теорию вероятностей и математическую статистику. М., «Высшая школа», 1966. 34. Башаринов А. Е., Флейшман Б. С. Методы статистического последователь¬ ного анализа и их приложения. М., «Советское радио», 1962. 35. Чернов Т., Мозес JI. Элементарная теория статистических .решений. М., «Советское радио», 1962. 36. Нейман Ю. Вводный курс теорий вероятностей и математической статистики. М., «Наука», 1966. 37. Вальд А. Последовательный анализ. М., Физматгиз, 1960. 38. Бусленко Н. П., Шредер Ю. А. Метод статистических испытаний. М., Физ¬ матгиз, 1961. 39. Бусленко Н. П. Математическое моделирование производственных процессов. М., «Наука», 1964. 40. Метод статистических испытаний. М., Физматгиз,' 1962. 41. Феллер В. Введение в теорию вероятностей и ее приложения. М., «Мир», 1967. 42. Голенко Д. И. Моделирование и статистический анализ псевдослучайных чисел на электронных вычислительных машинах. М., «Наука», 1965. 43. Соболь Н. М. Метод Монте-Карло. М., «Наука», 1968. 44. Гончаров В. J1. Теория вероятностей. М., Оборонгиз, 1939. 45. Оуэн Д. Б. Сборник статистических таблиц. М., ВЦ АН СССР, 1966. 46. Кузин Jl. Т. Анализ и синтез дискретных систем автоматического регулиро¬ вания. Техническая кибернетика. Т. 1. Кн. 2. Под ред. В. В. Солодовникова. М., «Машиностроение», 1967. 47. Тарасенко Ф. П. Введение в курс теории информации. Томский универ¬ ситет, 1963. 48. Харкевич А. А. Очерки общей теории связи. М., Гостехиздат, 1955. 49. Глушков В. М. Введение в кибернетику. Киев, Изд-во АН СССР, 1964. 50. Брюэллен J1. Наука и теория информации. М., Физматгиз, 1960. 51. Гольдман С. Теория информации. М., Изд-во иностр. лит., 1957. 52. Пирс Дж. Символы, сигналы и шумы. М., «Мир», 1967. 53. Шеннон К. Работы по теории информации и кибернетике. М., Изд-во иностр. лит., 1963. 54. Яглом А. М., Яглом Н. М. Вероятность и информация. М., Физматгиз, 1960. 55. Рыжин Н. М., Градштейн Н. С. Таблицы интегралов, сумм, рядов и произ¬ ведений. М., Гостехиздат, 1951. 56. Котельников В. А. Теория потенциальной помехоустойчивости. М., Гос¬ техиздат, 1956. 57. Бородин J1. Ф. Введение в теорию помехоустойчивого кодирования. М., «Советское радио», 1968. 58. Клюев Н. И. Информационные основы передачи сообщений. М., «Советское радио», 1966. 59. Хэмминг Р. В. Коды с обнаружением и исправлением ошибок. — В кн.: Коды с обнаружением и исправлением ошибок. Под ред. А. М. Петровского. М., Изд-во иностр. лит., 1956. 60. Ланкастер Ф. У. Информационно-поисковые системы. М., «Мир», 1972. 61. Информационный поиск (сборник материалов). Под ред. К. Н. Трофимова. М., Воениздат, 1970. 62. Мидоу Ч. Анализ информационно-поисковых систем. М., «Мир», 1970. 63. Система автоматической обработки данных на базе языка КОБОЛ. М., «Статистика», 1971. 64. Кушнерев Н. Т., Неменман М. Е., Цательский В. И. Программирование для ЭВМ «Минск-32». М., «Статистика», 1972. 65. Обработка информационных массивов в автоматизированных системах управления. Киев, «Наукова Думка», 1970. 497
66. Михайлов А. И., Черный А. И., Гиляровский Р. С. «Основы информатики». М., «Наука», 1968. . 67. Лавров С. С., Гончарова Л. И. Автоматизированная обработка данных. М., «Наука», 1971. 68. Научно-техническое прогнозирование для промышленности и правитель- ственных учреждений. Под ред. Дж. Брайта. М., «Прогресс», 1972. 69. Лопухин М. М. Паттерн-метод планирования и прогнозирования научных работ. М., «Советское радио», 1971. 70. Смирнов В. И. Курс высшей математики. Т. IV. М., Гостехиздат, 1957. 71. Петров Ю. П. Вариационные методы теории оптимального управления. М. —Л., «Энергия», 1965. 72. Фельдбаум А. А/Основы теории оптимальных автоматических систем. М., Физматгиз, 1963. 73. Лаврентьев М. А., Люстерник Л. А. Курс вариационного исчисления. М.—Л., Гостехиздат, 1950. 74. Эльсгольд Л. Э. Вариационное исчисление. М. — Л., Гостехиздат, 1952. 75. Кротов В. Ф. Разрывные решения вариационных задач. — «Изв. вузов. Математика», 1960^, № 5; 1961, № 2. 76. Современная математика для инженеров. Под ред. Э. Ф. Беккенбаха. М., Изд-во иностр. лит., 1959. 77. Цлаф Л. Я. Вариационное исчисление и интегральные уравнения. М. — Л., «Наука», 1966. 78. Мерриэм К. Теория оптимизации и расчет систем управления с обратной связью. М., «Мир», 1967. 79. Математическая теория оптимальных процессов. М., Физматгиз, 1961. 80. Веллман Р., Дрейфус С. Прикладные задачи динамического программирова¬ ния. М., «Наука», 1965. 81. Болтянский В. Г. Математические методы оптимального управления. М., «Наука», 1966. 82. Tcharman A. On Bellman’s functional equation and a class optimal control systems. H. of Franklin Institute, 1965, № 6, p. 493—505. 83. Кузин Л. Т. Основы кибернетики. Ч. 2. М., МИФИ, 1972. 84. Кузин Л. Т., Плужников Л. Н., Белов Б. Н. Математические методы в экономике и организации производства. М., МИФИ, 1968. 85. Вентцель Е. С. Элементы динамического программирования. М., «Наука», 1964. 86. Кофман А., Фор Р. Займемся исследованием операций. М., «Мир», 1966. 87. Основы исследования операций в военном деле. М., «Советское радио», 1966. 88. Фан Лянь-цэнь, Вань Чу-сен. Дискретный принцип максимума. М., «Мир», 1967. 89. Хедли Дж. Нелинейное и динамическое программирование. М., Изд-во иностр. лит., 1968. 90. Беллман Р., Калаба Р. Динамическое программирование и современная теория управления. М., «Наука», 1969. 91. Кофман А., Дебазей Г. Сетевые методы планирования. М., «Прогресс», 1968. 92. Уайльд Д. Д. Методы поиска экстремума. М., «Наука», 1967. 93. Моисеев Н. Н. Численные методы в теории оптимальных систем. М., «Наука», 1971. 94. Солодовников В. В. Введение в линейную алгебру и линейное программи¬ рование. М., «Просвещение», 1966. 95. Барсов А. С. Линейное программирование в технико-экономических за¬ дачах. М., «Наука», 1964. 96. Кюнци Г. П., Крелле В. Нелинейное программирование. М., «Советское радио», 1965. 97. Корбут А. А., Филькельштейн Ю. Ю. Дискретное программирование. М., «Наука», 1969. 98. Хомский Н., Миллер Дж. Формальный анализ естественных языков. — Кибернетический сборник (новая серия). М., «Мир», 1965, вып. 1. 99. Гинзбург С. Математическая теория контекстно-свободных языков. М., «Мир», 1970. 498
ОГЛАВЛЕНИЕ Предисловие Введение в кибернетику (общие сведения) В-1. Истоки кибернетики В-2. Основные черты кибернетики В-3. Методы кибернетики В-4. Кибернетика и вычислительные машины В-5. Специальные и прикладные вопросы кибернетики В-6. Структура кибернетики . ЧАСТЬ первая МАТЕМАТИЧЕСКАЯ СТАТИСТИКА Глава первая. Предельные теоремы теории вероятностей 1-1. Закон больших чисел . . а) Теорема Чебышева б) Теорема Маркова в) Теорема Бернулли ’ 1-2. Центральная предельная теорема а) Центральная предельная теорема для одинаково распределенных случайных величин б) Теорема Муавра — Лапласа Глава вторая. Теория оценок 2-1. Оценка математического ожидания и дисперсии 2-2. Приближенные методы определения доверительных интервалов для оценок математического ожидания и дисперсии 2-3. Точные методы построения доверительных интервалов ' 2-4. Определение доверительных интервалов для вероятности 2-5. Оценки для характеристик стационарных случайных процессов а) Оценки первого и второго моментов б) Оценка спектральной плотности случайного стационарного про¬ цесса * 2-6. Элементы статистического анализа совокупности случайных вели¬ чин а) Метод наименьших квадратов б) Элементы корреляционного и регрессионного анализа Глава третья. Проверка статистических гипотез 3-1. Понятие статистического ряда и гистограммы 3-2. Критерии согласия 3-3. Проверка статистических гипотез . а) Свойства критерия Неймана — Пирсона о О 5 6 8 15 17 20 23 29 30 32 35 35 37 38 44 45 47 48 52 61 66 67 74 79 81 86 92 93 95 103 105 499
б) Последовательный критерий Вальда. . .- 110 в) Сравнение последовательной и классической процедур 114 Глава четвертая. Применение вычислительных машин для иссле¬ дования случайных величин и процессов 118 4-1. Общая характеристика метода Монте-Карло 119 4-2. Получение последовательности случайных чисел 121 4-3. Точность метода Монте-Карло 129 4-4. Примеры расчетов по методу Монте-Карло 134 ЧАСТЬ ВТОРАЯ ТЕОРИЯ ИНФОРМАЦИИ И КОДИРОВАНИЯ. Глава пятая. Сигнал 143 . 5-1. Примеры сигналов. Модели сигнала 145 5-2. Частотные свойства сигнала (теорема Котельникова) 148 5-3. Элементы квантовой теории информации 153 5-4. Передача сообщения квантами информации 158 Глава шестая. Количество информации и энтропия сообщений .... 159 6-1. Комбинаторное определение количества информации по Хартли 160 6-2. Вероятностное определение количества информации по Шеннону 161 6-3. Понятие энтропии 164 а) Понятие энтропии при наличии связей между элементами .... 164 б) Термодинамическая и информационная энтропии 166 в) Энтропия непрерывных сообщений 167 г) Экстремальные свойства энтропии непрерывных сообщений .... 169 д) Энтропийная мощность непрерывных сообщений 172 е) Изменение дифференциальной энтропии при линейной фильтрации 174 ; Глава седьмая. Передача сообщений по каналу связи 175 7-1. Понятие относительной информации 175 7-2. Пропускная способность каналов связи 178 7-3. Понятие избыточности сообщения 182 7-4. Некоторые вопросы помехоустойчивости 183 а) Метод накопления 184 б) Метод фильтрации периодического сигнала в шумах 185 в) Корреляционный метод приема . 185 г) Синхронное накопление 186 7-5. Общая теория помехоустойчивости 187 Глава восьмая. Теория кодирования 192 8-1. Примеры кодов 192 8-2. Оптимальный код Шеннона — Фено. 194 8-3. Корректирующие коды 196 а) Корректирующие коды Хэмминга 196 б) Геометрическая интерпретация корректирующих кодов ...... 200 в) Групповые коды 200 Глава девятая. Некоторые вопросы обработки информации с по¬ мощью ЦВМ 209 9-1. Понятие тезауруса информационной системы 210 9-2. Модель передачи информации, использующая тезаурусы 214 9-3. Информационно-поисковые системы . 216 9-4. Представления данных на машинных носителях 219 а) Организация массивов информации 220 б) Структура записи информационных массивов 220 в) Представление информации о структуре массива . 222 г) Роль запоминающей среды при организации массивов 223 9-5. Математическое обеспечение в системах автоматизированной об¬ работки данных (САОД) 225 500
9-6. Структурные методы преобразования информации •. 226 а) Основные операторы 226 б) Схемы документооборота 228 ЧАСТЬ ТРЕТЬЯ МЕТОДЫ ОПТИМИЗАЦИИ Глава десятая. Общие сведения о методах оптимизации 235 10-1. О системном подходе при оптимизации 235 10-2. О критериях оптимизации 236 а) Критерий среднего квадрата ошибки 239 б) Интегральный критерий 241 в) Критерий максимального быстродействия 241 г) Критерий минимума стоимости функционирования системы в еди¬ ницу времени ...'.. 242 д) Критерий минимума критического времени выполнения работы 243 е) Минимаксный критерий ■ 244 10-3. Классификация методов оптимизации 245 Глава одиннадцатая. Методы классического вариационного ис¬ числения 248 11-1. Уравнение Эйлера 249 11-2. Условие Лежандра 255 11-3. Задача с подвижными концами 256 11-4. Условие трансверсальности 257 11-5. Задача на условный экстремум 260 11-6. Обобщенная задача Лагранжа. Задачи Майера и Больца .... 262 11-7. Задача с ограничениями в классическом вариационном исчисле¬ нии ........ 264 11-8. Вырожденные функционалы . 271 11-9. Каноническая форма уравнений Эйлера 273 11-10. Прямые методы вариационного исчисления 279 а) Метод Ритца . . . 279 б) Метод Эйлера (метод конечных разностей) 281 Глава двенадцатая. Непрерывный принцип максимума Понтря¬ гина 284 12-1. Получение уравнений принципа максимума из уравнений Га¬ мильтона — Эйлера 286 12-2. Порядок решения частных задач с помощью принципа максимума 294 12-3. Решение задач оптимального быстродействия методом фазовой плоскости г 300 Глава тринадцатая. Непрерывное динамическое программиро¬ вание 304 13-1. Принцип оптимальности 304 13-2. Функциональное уравнение Беллмана 306 13-3. Дифференциальное уравнение Беллмана -. . 307 13-4. Динамическое программирование и принцип максимума 310 13-5. Геометрическая интерпретация динамического программирования 312 Глава четырнадцатая. Оптимизация дискретных процессов уп¬ равления 315 14-1. Дискретное динамическое программирование как численный метод решения непрерывных задач оптимизации 316 14-2. Задача о кратчайшем пути 318 14-3. Задача о критическом пути ...^ 319 14-4. Задача распределения ресурсов 322 14-5. Транспортная задача . 326 14-6. Блок-схема вычислительного процесса для динамического про¬ граммирования 331 501
14-7. Формальный математический аппарат 333 14-8. Эффективность динамического программирования 336 14-9. Задачи планирования 338 14-10. Стохастические задачи динамического программирования .... 339 14-11. Модель многошагового процесса управления 343 14-12. Дискретный принцип максимума Понтрягина 347 14-13. Решение транспортной задачи с помощью дискретного принципа максимума 354 Глава пятнадцатая. Прямые методы отыскания экстремума функ¬ ции 357 15-1. Особенности одномерного поиска 359 15-2. Пассивный поиск 361 15-3. Последовательный поиск 365 а) Метод дихотомии . ' 365 б) Метод Фибоначчи . . 366 в) Метод золотого сечения 368 г) Поиск по дискретным точкам 370 15-4. Метод рандомизации 372 15-5. Особенности многомерного поиска 374 15-6. Случайный поиск 375 15-7. Метод исключения касательными 376 15-8. Градиентный метод 378 а) Метод Ныотона 379 б) Метод секущих 380 15-9. Овражный метод 380 15-10. Методы отыскания экстремума в условиях помех 382 Глава шестнадцатая. Линейное программирование 388 16-1. Математическая формулировка задачи 388. 16-2. Рассмотрение прикладных задач 389 а) Транспортная задача 389 б) Задача о рациональном питании 389 в) Задача об использовании ресурсов 390 г) Задача о загрузке транспорта 390 16-3. Геометрическая интерпретация задач линейного программиро¬ вания . . 391 16-4. Решение задач линейного программирования симплекс-методом 393 16-5. Формализованная симплекс-таблица 397 16-6. Прямая и двойственная задачи линейного программирования . . 400 а) Предварительные сведения 400 б) Некоторые свойства взаимно двойственных задач 402 в) Теорема двойственности 406 г) Двойственный симплекс-метод 408 16-7. Общая теория симплекс-метода с позиции линейной алгебры . . . 410 16-8. Выбор исходного допустимого решения 413 Глава семнадцатая. Нелинейное программирование 415 17-1. Классификация методов нелинейного программирования .... 415 17-2. Особенности задач нелинейного программирования. 419 17-3. Классические методы определения экстремума функции 420 а) Задача на абсолютный экстремум 420 б) Задача на условный экстремум 421 в) Минимаксная трактовка задачи на условный экстремум функции 422 17-4. Выпуклое программирование 426 17-5. Теорема Куна — Таккера 430 17-6. Квадратичное программирование 432 17-7. Метод Баранкина и Дорфмана 434 а) Алгоритм - 434 б) Вычислительная схема . . . 437 17-8. Градиентные методы 440 17-9. Метод допустимых направлений Зойтендейка 443 502
Глава восемнадцатая. Целочисленное программирование 448 18-1. Особенности задач целочисленного программирования 450 18-2. Нелинейное и целочисленное программирование 453 18-3. Примеры задач целочисленного программирования 455 а) Задачи планирования перевозок 456 б) Задача о назначении ' 457 в) Задача о коммивояжере (бродячем торговце) 458 г) Задача о покрытии 459 д) Задача планирования 461 18-4. Методы отсечения 461 а) Общая идея методов отсечения 462 б) Первый алгоритм Гомори 463 18-5. Комбинаторные методы 475 а) Решение задач целочисленного программирования с помощью ди¬ намического программирования 475 б) Метод ветвей и границ 478 18-6. Другие методы оптимизации * ■ 481 Приложения 485 Список литературы . 496
ЛЕВ ТИМОФЕЕВИЧ КУЗИН ОСНОВЫ КИБЕРНЕТИКИ. Т. 1. МАТЕМАТИЧЕСКИЕ ОСНОВЫ КИБЕРНЕТИКИ Рецензенты: Д. А. Поспелов А. С. Шаталов Редактор А. И. Галушкин Редактор издательства Н. А. Медведева Переплет художника А. А. Иванова Технический редактор Л. В. Иванова Корректор И. А. Володяева. Сдано в набор 22/1II 1973 г. Подписано к печати 17/IX 1973 г. Т-14470 Формат 60x90Vi6. Бумага типографская № 3. Печ. л. 31,5. Уч.-изд. л. 34,09. Тираж 30 000 экз. Зак. 755. Цена 1 р. 42 к. Издательство «Энергия». Москва, М-114, Шлюзовая наб., 10. Ордена Трудового Красного Знамени Ленинградская типография № 1 «Печатный Двор» имени А. М.. Горького Союзполиграфпрома при Госу¬ дарственном комитете Совета Министров СССР по делам издательств, полиграфии и книжной торговли. Ленинград, Гатчинская ул., 26.