Текст
                    13.
^r. 13.
«//^ТЕМЛТИЧ ески й
ЛППЛРЛТ
БИОЛОГИЧЕСКОЙ
КИБЕРНЕТИКИ
Под редакцией и с предисловием
члена корреспондента Академии медицинских наук СССР
пр оф. Н А БЕРНШТЕЙНА
ИЗДАТЕЛЬСТВО «МЕДИЦИНА»
МОСКВА —1964

УДК 57+61]: 62—50 АННОТАЦИЯ Книга в доступной форме знакомит читателя с математическими методами общей кибернетики и дает дополнительные сведения, необходимые для работы в области биологической кибернетики. Рассматриваются вопросы конкретного математического изучения различ- ных биологических систем управления и протекающих в этих системах про- цессов. Дается анализ значения применения математических методов кибер-' нетики для решения различных вопросов медицины и физиологии. Приводятся основные сведения по теории множеств, функциям, теории вероятностей, ма- тематической статистике, теории информации, математической логике, при- кладной теории алгоритмов и теории игр, а также по структуре и работе управляющих систем. Книга рассчитана на медиков, физиологов и биологов, интересующихся вопросами применения методов кибернетики в медицинских и биологических исследованиях, а также на студентов старших курсов университетов и вузов медицинского и биологического профиля.
ПРЕДИСЛОВИЕ О ПЕРСПЕКТИВАХ МАТЕМАТИКИ В БИОКИБЕРНЕТИКЕ Эта книга ставит своей задачей восполнить важный пробел, имеющий место в современной биокибернетиче- ской литературе. В наши дни биокибернетика интенсивно развивается; в ней возникают все новые направления и ветви (бионика, эвристика, биология активности и др.). Во всех этих отраслях важнейшее место занимает мате- матика, причем не столько ее «классические» разделы, сколько вновь разрабатываемые дисциплины, стремя- щиеся стать подходящими ключами к замкам и запорам биологической области, не поддававшимся до самого последнего времени никаким усилиям отомкнуть их. Если исключить немногие узкоспециальные отрасли фи- зиологии (оптика, акустика, артериальное кровообраще- ние) и приживавшиеся то здесь, то там без принципиаль- ного обоснования вычислительные приемы вариационной статистики, то действительно до самого недавнего времени биологическая проблематика не поддавалась никаким уси- лиям поставить ее на математические рельсы. В чем следует видеть причину того перелома, который характеризует собой немногие последние десятилетия? Как назвать ту «иерихонскую трубу», которая смогла, наконец, произвести широкий пролом в стенах непри- ступной биологической твердыни? Чаще всего в объяс- нение приводятся два фактора (сами по себе бесспорные): огромный качественный рост технических возможностей обнаружения и точной регистрации жизненных процессов и их субстратов и возникновение не менее замечательного арсенала машинной вычислительной техники, что позво- лило находить числовые решения таких уравнений и систем, к которым до этого времени нельзя было и при- ступиться. 3
Хотя все это и справедливо, но думается, что сущест- венная причина создания этой бреши состоит в другом. Ведь наши предшественники, физиологи XIX столетия, только нам представляются обделенным; судьбой, тогда как с их точки зрения каждый очередной момент их бурно прогрессировавшего века тоже выглядел как великолеп- ное достижение и в экспериментальной и в вычислительной технике х; однако ни один из этих моментов не создал предпосылок для математического моделирования и фор- мулирования. Главной причиной того, что математика и биология стали наконец обретать долгожданный общий язык, явилось, несомненно, формирование и разработка новых понятий и обобщений. Такими понятиями оказа- лись: управление, информация, кодирование, связь, мно- гоступенчатая регуляция — словом, тот именно круг идей, который в основном охватывается термином «кибер- нетика». Как уже сказано, новые вопросы потребовали как приложения старых, так п в основном развития новых математических дисциплин. Это обстоятельство опреде- лило и план настоящей книги. В начале она дает очерки «классических» разделов математики,— основ теории мно- жеств, введения в теорию вероятностей и в математиче- скую статистику под тем углом зрения, который необходим для понимания последующих специальных глав; в этих последних, уже с большей обстоятельностью, об- рисовываются; элементы математической логики (гл. 4), общая теория связи (гл. 5), теория информации (гл. 6), начала теории алгоритмов и теории игр (гл. 7). В заключительной, 8-й главе содержится краткий обзор приложения перечисленных дисциплин к изучению функ- ций головного мозга на новых началах. Книга такого типа, как эта, конечно, не может претен- довать на то, чтобы служить учебником или настольным руководством по освещаемым вопросам. В настоящем своем виде она преследует троякую цель. Во-первых, она стремится облегчить читателю возмож- ность понимания читаемой им новой журнальной и книж- ной литературы, которая во все возрастающей мере на- сыщается математическими понятиями и символами и 1 Вспомним хотя бы «телефонпческую» технику Н. Е. Введен- ского, струнный гальванометр Эйнтхофена, планиметры и инте- граторы Амслера и многое другое.
опирается в выводах на более или менее новый и сложный математический аппарат. Во-вторых, не покушаясь, конечно, на то, чтобы на- учить исследователя-биолога применять те или другие математические дисциплины и методы для его научной работы, книга должна в достаточной мере ориентировать его в смысле выбора соответственного математического аппарата и характеристики того, чего можно от него ожидать. Более глубокое и обстоятельное знакомство с выбранной им областью он сможет далее почерпнуть пз специальной литературы, обширный список которой дает- ся в конце книги. В третьих, наконец, книга ставит своей задачей под- вести читателя как можно более вплотную к «переднему краю» развивающихся пе по дням, а по часам молодых ветвей прикладной математики,— к тем проблемам и до- стижениям, которые еще не смогли найти себе место в устоявших'ся учебных руководствах и пока только начи- нают завоевывать себе права гражданства в рабочем ин- вентаре математических наук. В какой мере удалось авторскому коллективу 1 решить перечисленные три главные задачи — об этом, конечно, выскажется в свое время читательский суд. Каковы могут быть вероятные пути и перспективы раз- вития математики в области биологического круга наук вообще и биокибернетики в частности? Для попытки ка- кого бы то ни было прогнозирования в этом направлении будет уместно начать с нескольких наблюдений над исто- рическими путями развития математики. Первое относится к общеизвестным фактам. Это напо- минание о том, что исторически математика развивалась, обогащаясь новыми разветвлениями, идеями и вычисли- тельными средствами, под прямым воздействием изменяв- шихся условий жизни и запросов со стороны технической практики. Не всегда эта обусловленность выявлялась с полной ясностью. Иногда она вписывалась в более слож- ные формы взаимозависимости и в переплетения очень разнообразных факторов; однако в целом она неоспорима. Ограничимся немногими отрывочными примерами. У при- брежных обитателей ежегодно разливавшихся великих 1 Главы 1—7 написаны В. И. Чернышом, глава 8 — А. В. Напалковым. Кроме того, А. В. Напалковым внесен ряд дополнений, примеров и т, д. в главы 4 и 7.
равнинных рек,— ассиро-вавилонян и египтян — необхо- димость восстановления землемерных участков обусло- вливала развитие начатков геометрии, а необходимость предвидеть наступление разливов и засух — работу над календарем, потребовавшую развития знаний о важней- ших арифметических правилах и алгоритмах х. Потреб- ности торгового мореплавания повлекли за собой у фи- никинян (может быть, только переносчиков знаний) дальнейшее развитие арифметики (пропорции, тройное и цепное правила и т. п.) как средства для торговых рас- четов. У их прямых наследников по обитанию и происхож- дению — средневековых арабов (заслуживших вечную признательность науки за спасение античных достижений от христианского изуверства) те же потребности, пере- растая уже в теорию и практику навигации, повели к созданию алгебры, тригонометрии и к разработке общей теории уравнений 1 2. Нельзя не вспомнить о блестящем расцвете алгебры у итальянцев на самой заре эпохи вели- ких мореплаваний 3 и разработке в этот же период вычис- лительного аппарата логарифмов 4, выросшего из создан- ных ранее тригонометрических таблиц. Мы видим, как на почве великих антифеодальных и антиклерикальных бурь 1 Древнейшими открытиями в этой последней области, сделан- ными вавилонянами еще ранее 2-го тысячелетия до н. э., были вы- воды из двух гениальных идей, уже много позже наименованных аксиомой Архимеда и алгоритмом Евклида; из первой выросло пред- ставление чисел в форме степенных рядов (по десятичной и шести- десятиричной системам), из второго — аппарат цепных дробей, явившийся основой для аппроксимации соотношений периодов об- ращения небесных объектов. 2 Языковыми следами арабского наследства по сей день оста- ются: заимствованные ими самими у индийцев цифры (Cipher, арабское название нуля, до сих пор сохранилось в том же значении в английском языке), слово алгебра (al gebr wal mokabala) и имя философа-математика IX века Бен-Муза-Альхваризми (т. е. из Хорезма), превратившееся в увековечивший его термин алгоритм. 3 Яркое преобладание в алгебре в этот период граждан процве- тавших итальянских торговых республик очень характерно; он украшен именами Сципионе дель-Ферро, Тартальи, Кардано, Леонарда Фибоначчи. К этому перечню следует прибавить еще Паскаля и Ферма, поддерживавших с первыми тесные связи. 4 Логарифмы (Бюрги, Непер, Влакк, Бригг) первоначально преследовали чисто прикладную, вычислительную цель, в чем как раз в эту пору назрела настоятельная необходимость. Заложен- ная в них и уже понятая Непером глубокая теоретическая идея логарифмической и показательной функции была разработана значительно позже, уже в XVIII веке. б
и разрыва с мертвой догматикой назрел тот живей интерес ко всевозможным задачам и объектам естествознания и техники, который ознаменовал собой все 17-е столетие и был математически подытожен одновременным великим открытием Лейбница и Ньютона — анализом бесконечно- малых. Не умножая примеров из истории, отметим только, что и возникновение, и начавшаяся математизация био- кибернетики не менее выпукло обнаруживают свою обусловленность задачами и потребностями времени. Проя- вившись в 20-х годах нашего века первыми проблесками изучения человека в труде (психотехника, биомеханика, профессиография и т. п.), исследовательская работа быстро приближается вплотную к проблематике комплекса чело- века и машины, к изучению слабых и сильных сторон чело- века в работе, к компенсированию первых и посильному подражанию вторым Кибернетика вообще и ее биоло- гические ветви в частности явились, конечно, прямым откликом науки на ту гигантскую революцию в технике и в формах производства, какую мы переживаем в на- ши дни. Следующее наблюдение будет, быть может, менее три- виальным. Несколько схематизируя, можно подразделить все рабочие элементы, входящие в сферу действия мате- матики, на два больших класса. Уже давно получили права гражданства и наименования для этих классов. Явная структурная близость между логикой мышления с отражающей ее системой речи и математикой во всем ее объеме проявилась в том, что наименование одного из этих классов создалось в языковедении, другого — в ма- тематических науках. К первому из этих классов, который мы вслед за лин- гвистами обозначим как класс номинативных элементов, номинаторов, относятся те объекты, над которыми совер- шаются математические действия: числа всех родов, ве- личины, геометрические объекты, кольца, группы, наконец, функции и их совокупности как объекты совершаемых 1 Ни физиология труда, ни вообще физиология человека не проявили себя в XIX веке ничем, кроме очень немногих крупных, но единичных научных достижений, как, например, энергетические исследования Рубнера, «Очерк рабочих движений человека» Се- ченова, «кривая» Крепелина, никем не подхваченных и в то время не получивших дальнейшего развития. 7
над ними операций. Во второй класс операторов от- ходят все виды действий над номинативными объектами, слишком хорошо известные и многочисленные, чтобы пере- числять их здесь х. Как тот, так и другой класс обнаруживает в историче- ском аспекте неуклонное развитие и обогащение. Это обо- гащение не обязательно проходило синхронно для обоих классов; не всегда можнэ проследить здесь какую-либо взаимную обусловленность, хотя, как правило, расшире- ние и углубление номинативных понятий возникало как следствие эволюции операторов. В одних случаях и в одни моменты развитие тех и других протекало как раз- двигание рамок и границ соответственных категорий, в других как уточнение, аксиоматизация и т. п. Очень часто предчувствие тех или иных операторных форм уходит своими корнями далеко в глубь истории, проявляясь за- долго до того, как созреет возможность их полноценного формулирования. В качестве немногих примеров приведу здесь последовательное применение принципа перехода к пределу, позволившее Архимеду решить целый ряд задач нахождения определенного интеграла; первые шаги идеи экспоненциальной функции (получившей полное определение на два тысячелетия позже) у того же гениаль- ного автора «Исчисления песка»; возникающие то здесь, то там проблески дифференцирования, конформного отоб- ражения, корректного применения правил пробабили- стики и т. д. 2. 1 В общепринятом алгебраическом алфавите номинаторы обыч- но обозначаются буквами и цифрами, операторы — всевозможными знаками действий (+, —, V и т. п.) 2 Интересно отметить первый в истории случай использования теории вероятностей (на правило умножения независимых вероят- ностей)— в труде Коперника, т. е. в приложении к решению чисто- физической проблемы. Мало известен, но вполне достоверен факт, что решающим аргументом в пользу гелиоцентрической концепции яви- лась для Коперника не чрезмерная сложность кинематики Птолемея и пе низкая точность рассчитываемых по его системе таблиц (у Ко- перпика точность получалась меньшей!), а одно наблюдение, оста- новившее на себе его внимание: угловая величина видимого суточ- ного движения: а) солнца, б) обеих внутренних планет — по де- ферентам и в) всех трех известных тогда внешних планет — по суммам смещений по деферентам и эпициклам оказалась во всех 6 случаях совершенно одинаковой [59,14']. Копернику было ясно, что вероятность случайного шестикратного совпадения между пе- риодичностями объектов, ничем причинно не связанными между со- бой у Птолемея, обязана быть близкой к нулю. В его гелиоцентри- 8
Один своеобразный факт, много раз подтверждавшийся, имеет самое непосредственное отношение к нашей основной теме. Он сводится к тому, что во все времена признание создававшихся новых номинаторов или расширение ра- нее известных категорий проходило, как правило, с не- сравненно большими трудностями, гораздо болезненнее, нежели принятие новых операторов. Борьба против новых, обогащенных форм номинаторов длилась иной раз целыми столетиями, что по отношению к некоторым из них способ- но вызвать у нас теперь только недоумение. Трудно пред- ставить себе в наши дни, что даже после создания анали- тической геометрии, уже в XVIII веке, «признание» отрицательных чисел все еще вызывало сомнения (напри- мер, у Даламбера); мнимые же и комплексные числа до конца того же XVIII века продолжали считаться и назы- ваться «невозможными» числами, хотя уже с начала века д 1я них существовала геометрическая интерпрета- ц”>~ Обнаружение иррациональных величин взволновало пи р.чгорейцев до того, что они скрывали от непосвященных эти «опасные» факты. Вспомним, что подобная же судьба постигла, уже в XIX веке, номинативные объекты гео- метрий Лобачевского и Бойяи, несмотря на осенявший их непререкаемый авторитет Гаусса. Наконец, в текущем столетии столь же бурные проявления недоверия встре- тили, напрпмер, трансфиниты Кантора, или множества, упорядочиваемые с помощью постулата Цермело * 1 2. В то же время такие революционизирующие нововведения в операторной сфере, как аналитика Декарта, логарифми- рование или решение дифференциальных уравнений с помощью рядов, воспринимались и врастали в вычисли- тельную практику совершенно безболезненно. По-види- ческом варианте эта величина, 59,14', участвует только однажды: это суточный путь самой земли по ее орбите (см. W. Bolsche, Ent- wicklungsgeschichte der Natur, Bd. I, 1894, pp. 117 и 129, также сб. «Николай Коперник», АН СССР, 1947). В начале XIX века Лаплас для обоснования своей космогонической гипотезы уже впол- не сознательно обращается к тому же правилу, находя в солнечной системе 43 совпадения по плоскостям и формам орбит и оценивая вероятность их случайного возникновения в единицу на 4 трил- лиона (см. Р. S. Laplace, Expos, du systeme du monde, v. 5., гл. 6,1796; цит. no Bolsche). 1 См. H. Б у p б а к и. Очерки по истории математики. Из-во Иностранной литературы, 1963, стр. 29. 2 См. Е. Borel. Lefons sur la theorie des fonctions. Paris, 1914, pp. Ill, 135. 9
м ,му, здесь проявляется какое-то очень общее свойство психологии мышления, поскольку мы встречаемся с та- ким же точно явлением и в других областях науки х. Это наблюдение еще сможет понадобиться нам в дальнейшем. В самой тесной генетической связи с понятием мате- матических операторов стоит обширный класс алгорит- мов, повышенный теоретический интерес к которым в наши дни находится в прямой связи с вопросами машин- ного программирования. На понятии алгоритма (А) и его эволюции необходимо остановиться несколько подробнее. В первоначальном словоупотреблении термин А. почти совпадал с понятием оператора, отличаясь от последнего разве лишь тем, чем отличается, например, целостная производственная операция от составляющих ее после- довательных технических элементов. В этом значении А. представлял собой систему точных операторных предписа- ний, обеспечивавшую выполнение того или иного вычис- лительного процесса. В качестве примеров таких А. (мы будем называть их далее А. 1-го рода) можно назвать, начав с «А. Евклида»: А. решения квадратных или куби- ческих уравнений, А. дифференцирования, А. вычисления коэффициента корреляции и т. п. Однако уже с первых моментов кристаллизации понятия А. оно стало испыты- вать очень характерную эволюцию, частью осознанную, частью протекавшую стихийно,— эволюцию, по ходу которой А. все больше дивергировал от первоначального своего значения, родственного с терминологическим зна- чением оператора. Так как по существу каждый А. под- разумевает целенаправленное действие, имеющее целью об- разовать по одному или нескольким производящим элемен- там (числам, величинам, функциям) — один или более ре- зультирующих или производимых элементов, стоящих по отношению к первым в определенной смысловой зависимости, то по ходу эволюции понятия А. центр тяжести его мате- матического значения в возрастающей степени стал пере- 1 Такое же долгое и мучительное педоверие к субстратам мы встречаем, например, в физике по отношению к реальности атомов, оспаривавшейся еще Оствальдом на самом рубеже XX века, или по отношению к двойной, корпускулярно-волновой структуре лучистой энергии, к реальному существованию нейтрино или ан- тичастиц и т, и. (см. например, сборник «Философские вопросы современной физики», АН СССР. М., 1952). И в биологии такую же участь испытали такие вновь вводившиеся субстратные понятия, как нейрон, ген или живой, по небелковый вирус. 10
мещаться от процессуальной стороны именно в сторону указанной обусловленной зависимости. Существенным для А. оказалось то, из чего исходит данный математиче- ский процесс и что ищется при его посредстве, неза- висимо от того, какими техническими средствами (опера- торами) может быть получено искомое и даже от того, существуют ли эти технические средства, во всяком слу- чае могут ли они быть унифицированы в виде стандартной системы. Этот более новый и, как мы увидим, неисчерпаемо более обширный подкласс А. мы назовем А. 2-го рода. Ниже будут приведены аргументы в пользу огромного значения именно этого последнего рода А. для биологиче- ской математики и биокибернетики. Выразительнейшим примером стихийно создававше- гося А. 2-го рода может служить процесс нахождения неопределенного интеграла, определявшийся классиками анализа как обращение дифференцирования. В то время как полный канон дифференцирования может быть изло- жен на четырех страницах, задача нахождения примитив- ной для функций разных видов задала работу на целое XVIII столетие украсившей его великолепной плеяде математиков, оставив еще много темных пятен и на по- следующие периоды. Как известно, эта задача потребовала изобретения ряда новых функций, новых вспомогательных числовых величин, как рациональных (числа Бернулли и Эйлера), так и иррациональных (эйлерова постоянная С и т. п.). Что еще характернее, она обусловила расчет многообразных вспомогательных числовых таблиц (Г-функция, бесселевы функции, шаровые и эллиптиче- ские интегралы и пр.), представляющих собой по сути и смыслу несомненную разновидность все тех же А. 2-го рода К 1 Таблицы вычисленных дискретных значении функции пред- ставляют собой форму использования обходных приближенных путей там, где А. 1-го рода или отсутствуют или являются крайне невыгодными по их трудоемкости. Не задерживаясь здесь на дру- гих примерах стихийного применения А. 2-го рода в математических задачах (задачи по нахождению корней уравнений высших степе- ней, по интегрированию дифференциальных уравнений в частных производных, теоретико-механическая задача о трех телах и т. п.), отметим только, что на практике часто предпочитают непрямые и, в сущности, непринципиальные приемы по типу А. 2-го рода да- же и там, где налицо ясные и недвусмысленные А. 1-го рода. Во всех таких случаях останавливает на себе внимание непринципи- 11
Рост интереса к А. 2-го рода за последние 100—150 лет, интереса уже не стихийного, а сознательного, обосно- вываемого математически и философски, объясняется, конечно, огромным расширением области тех понятий и процессов, которые оказывается возможным и необходи- мым включить в обсуждаемый род А. Своевременно будет сразу указать на полную аналогию с тем, как развитие класса операторов повлекло за собой появление новых, все более абстрактных и все менее представимых «идеальных» номинаторов. И здесь углуб- ление теории А. 2-го рода вместе с расширением и каче- ственным осложнением классов изучаемых функций со- провождалось формулированием новых родов «идеальных» операторов, адекватных тем процессам, которые требовали бы применения А. 2-го рода. Там, где оказывалось необ- ходимым либо распространить действие уже разработан- ных операторов на ранее недоступные им области, либо перебросить своего рода мост через поле номинативных объектов, допускающих только условное определение, теория функций, как и теория множеств, смело шла на введение в работу процессов, прямо принадлежащих к категории А. 2-го рода и простирающихся на поля таких «идеальных» объектов г. альность даже самого по себе способа апроксимативного изображе- ния иррациональных количеств систематическими степенными много- членами (по десятичной или другой системе) потому уже, что здесь отсутствует какая бы то ни было возможность написать общий член такого выражения, в резком отличии, например, от строки Макло- рена или цепной дроби. Любое руководство по вычислительной ма- тематике пзобилует примерами, подтверждающими сказанное (см. Л. Канторович. «Функциональный анализ и прикладная математи- ка», Успехи математических наук, 1948; И. Березип и Н. Жидков. «Методы вычислений». Физматгиз, 1962, и др.) 1 Примеры объектов «идеального» типа слишком многочислен- ны, что затрудняет выбор даже наиболее характерных. Так, задачи теории чисел привели Куммера к классу «идеальных чисел»; по ходу развития теории алгебраических полей формулируется обоб- щенный «идеал» Дедекинда; Борель определяет «идеальные функ- ции», вытекающие из анализа трансфинитов и формулирования понятия «функциональной непрерывности» по аналогии с сечения- ми Дедекинда (см. Е. Borel. Lemons sur la theorie des fonctious, 1914, стр. 118; H. Бурбаки. «Очерки по истории математики». ИЛ, 1963, стр. 71). Анализируя классификацию функций Бэра и доказы- вая существование и определимость функций класса, превышающего любую заданную величину по рангу, тот же Борель подчеркивает, что «cette definition exigera en general des operations transcendan-
Остается сделать последнее историческое замечание. В каждой возникавшей области и ветви разраставшихся математических паук можно проследить трп фазы разви- тия — фазы, если и не обязательно хронологические (дей- ствительность всегда сложнее любой схемы), то смысло- вые, очевидно, стоящие в принципиальной связи с общей логикой развития. Первой из этих фаз обычно является в ы ч п с л и- тельная. Новый разрабатываемый математический процесс преследует одну главную цель — обеспечить численное или обобщенно-вычислительное решение нового класса задач. Так было в древности с разработкой способов решения уравнении, у «классиков» анализа — с оператор- ной техникой интегрирования дифференциальных урав- нений; то же имеет место в наши дни, например, с шен- ноновскими вычислительными алгоритмами теории ин- формации или с бесчисленными прикладными задачами строительной механики, аэродинамики и т. д. По ходу дальнейшего развития за этой фазой наступает вторая, которую можно было бы назвать фазой моделирова- ния. Центр тяжести интереса переключается здесь с результатов вычисления на исследование и критический анализ смысловых, структурных соотношений внутр!! раз- рабатываемого класса математических объектов, строения формул, выражающих эти соотношения, роли и взаимной зависимости входящих в них элементов и т. д. В этой фазе исследуются границы существования или приложимости, условия сходимости рядов, свойства определенных ин- тегралов, связанных с этим классом. Характерным при- мером скачкового перехода от вычислительной фазы к моделирующей является победа над непринципиальной, чисто вычислительной птолемеевой системой эпициклов, одержанная сперва с помощью трех строгих кинематиче- ских законов Кеплера, а затем — с помощью могучего ньютоновского аппарата, опирающегося на теорию тяго- тения. Яркий образец математика, вся творческая деятель- ность которого протекала в направлении этой второй tespratiquement me ecu tables» (Е. Borel. Lecons sur les fractions de variables reellcs, 1905, p. 156). Следовало бы упомянуть здесь еще о непрерывных функциях, не имеющих производной ни в одной точке (см. Н. Лузин. «Интеграл», 1914, стр. 31, а также Н. Бурбаки, стр. 26), приводивших в комический ужас Эрмита (см. Hermite et Stieltjes, Correspondance. Paris, 1905). 1;
фазы, являет нам «великий алгебраист» XIX века А. Л. Коши 1. С той же неизбежностью возникает и третья фаза,— назову ее фазой классификации и аксиома- тизации. Эта фаза стоит в наиболее гесных взаимо- отношениях с общей теорией познания; для одних мате- матических дисциплин она наступала раньше, для других позже, но проследить ее можно, как кажется, везде. Пио- нером этой фазы в одной из проблем геометрии бесспорно является Н. И. Лобачевский, основоположниками геомет- рической аксиоматики в самом общем смысле — Больцано и Гильберт. В теории вероятностей естественно приходят на мысль А. Пуанкаре и С. Н. Бернштейн. Целиком к этой фазе относятся работы Дедекинда по анализу ирра- циональностей, изыскания авторов общей теории мно- жеств Г. Кантора и всех его продолжателей, прогресси- рующее углубление и расширение понятия интеграла Коши, Риманом, Лебегом, Данжуа и др 2. Нет надобности умножать число примеров; нужно только подчеркнуть, что во всех случаях разработка аксиоматики неразрывно связывается с определением и анализом классов изучае- мых фактов и отношений, что и побудило-меня дать этой фазе двойное название. Исследование тех глубоких кор- ней, которые в принципе характеризуют эти классы и их системы, приводит при этом неизбежно к наиболее аб- страктным разделам и направлениям теории. Те исторические наблюдения над ходом и логикой раз- вития разраставшегося древа математики, которые были -обрисованы выше, смогут вооружить нас в первых попыт- ках если не прогнозирования вероятных линий развития математики в биологии и бпокибернетике, то по крайней мере обоснованного выделения стоящих перед ней суще- ственных направлений и задач. 1 Дальнейшими примерами этой фазы в математике могут слу- жить: «классическая» теория вероятностей, теория функций, наи- менее отличающихся от пуля, аналитическое продолжение и ряды полиномов и т. д.; в математической физике — волновые уравнения, матрицы всеобщей теории относительности и многое другое. 2 См. С. Н. Бернштейн. Теория вероятностей, 1934, стр. 10; Э. Б о р е л ь. Вероятность и достоверность. Физматгиз, 1961; De la Vallee-Poussin Ch. Lecons sur la thc-orie des fonctions; H. H Лузин Интеграл. M., 1915; A. D e n j о у C. R. de L’Acad. Sei IV, 1912, и i Д. 14
Уточним сразу, что речь должна идти не о каком-то приживлении или подсадке математики к биологии извне (такие попытки делались и,несомненно, будут еще делать- ся и впредь). Вопрос стоит так, что в настоящее время созрела и необходимость и возможность выращивания биологической математики изнутри, из самого существа тех проблем, которые ставят перед нами науки о жизнедеятельности. При этом кажется правдо- подобным и предположение, что биокибернетике — непо- средственному предмету этой книги — суждено стать в дальнейшем не одной из ветвей биологии, а очередной ступенью развития всей биологии в целом, и при этом именно той ступенью, которая имеет достаточные предпо- сылки для успешного развития биоматематики. Исторически и в обсуждаемом здесь круге вопросов дело началось с типичных проявлений первой, вычисли- тельной фазы математизации. Уже в прошлом веке мы встречаемся с целым рядом примеров приложения к био- логическим задачам вариационной статистики, которую Пирсон и его продолжатели специально развивали и рас- ширяли, чтобы сделать ее алгоритмы как можно более пригодными к оценкам, сравнениям и количественным характеристикам биологических явлений. Наше время сумело расширить эту же базу разработкой, а потом и автоматизацией алгоритмов ауто-и кросскорреляции. Не- мало поисков было в последние десятилетия в направле- нии анализа биоэлектрических кривых всякого рода (электроэнцефало-, электромио-, электроретинограмм ит. п.); но здесь каждый раз при попытках подняться из вычислительной фазы в фазу моделирования перед анали- стами вырастала непроходимая стена, и эти кривые, вне всякого сомнения насыщенные богатым внутренним содер- жанием, как заколдованные, не поддались к настоящему моменту еще никакой моделирующей расшифровке. Остается добавить к этому списку диаграмму Никвиста, подборки и сводки «эмпирических формул» * 1 и еще сколько- то примеров столь же чисто утилитарного порядка. 1 К. А. Семендяев. Эмпирические формулы. ГТТИ, 1933; L i р k a. Graph, and mechan. Computations, N. Y., 1921; Running. Empirical Formulas, N. Y., 1917; H. Helmholtz. Die Lehre von den Tonempfindungen. Lpz., 1879; E. Hering, cm. Hermann's Handb. d. Physiologic etc.; 0. Fischer. Kinematik organischer Gelenke. Braunschweig, 1907 и т< п. IS
Вторая по счету фаза — фаза математического моде- лирования родилась применительно к биологии, по-ви- димому, только одновременно с кибернетикой. Если не считать малоудачных попыток моделирования явлений слуха (Гельмгольц, Геринг, Эвальд) и еще менее удавших- ся уравнений кинематики суставов (О. Фишер), то пер- вые проявления интереса к теоретическим моделям в биологии более или менее совпадают с зачатками элек- тронной техники и того, что мы теперь называем био- никой. Пионерами в направлении обобщающего моделиро- вания в биологии нужно, по-видимому, считать Ж. Леба и особенно П. П. Лазарева с развитой им ионной теорией возбуждения r. С момента рождения кибернетики фаза моделирования проявила себя энергичным и разносторон- ним развитием и широко отражена в современной литера- туре 1 2. К этой же фазе нужно отнести многочисленные работы по теоретическому моделированию нервных сетей, процессов запоминания и обучения по линии так называе- мой перцептроники и т. д. 3. Третья фаза, фаза классификации и аксиоматизации, еще очень мало и только ощупью дает знать о своем суще- ствовании в области биологии. К ней приходится отнести только опыты «биологической топологии» Рашевского, «гипотезу компактности» Э. М. Бравермана и, пожалуй, одно из частных, но глубоких прозрений самого творца кибернетики Н. Винера, обратившего внимание на суще- ственное значение тригонометрических рядов для откры- той им проблемной области 4. Между тем представляется очевидным, что при посадке нового дерева нужно прежде всего позаботиться о его корнях: укрепятся корни, будут и листья. Именно по- стольку, поскольку дело идет не о прикладной математике или приложениях математики к биологии, а о биологиче- ской математике как самостоятельной дисциплине, кото- 1 П. П. Лазарев. Исследования по ионной теории возбуж- дения. М., 1918, и др Там же лит. ссылка на Леба, Нернста. 2 См., например, «Моделирование в биологии»., сборник ИЛ, 1963; В. Моисеев Вопросы кибернетики в биологии и медици- не. Медгиз, 1960. 3 См. литературные указания по главе 8 настоящей книги. 4 Е. Rashevsky. IRE Transactions, N.—Y., 1960. Э. M. Б p а в e p м a h. «Автоматика и телемеханика», 1962. т. 23, № 3; см. также М. А. Айзерман. Сборник. «Биологические аспекты кибернетики». АН СССР, 1962, стр. 174. 16
рая должна выкристаллизоваться из стой биологии на соответствующем этапе зрелости последней, постольку эта дисциплина должна прежде всего пайти для себя самую общую, классификационную и аксиоматическую основу. Это п есть сейчас основная задача, которую должны решить совместные усилия математиков и биологов. Можно ли, основываясь на отраженном в литературе опыте последних лет и опираясь на проделанный выше исторпчоскпп анализ, высказать что-либо определенное относительно выявляющихся важных и широких классов биоматематических отношений? Думается, что в настоя- щий момент это уже возможно, по крайней мере,— что уже наступило время для предположений и дискуссий в этом обобщающем направлении. Все сказанное выше по поводу эволюции математических направления даст для таких предположений соответствующие точки опоры. Ого- вариваюсь: все высказываемое дальше изобилует, может быть, и пробелами, и неправильной расстановкой ударе- ний, и просто ошибками, но их надо целиком отнести за счет моей очень недостаточной компетенции, и они не должны заслонить собой всего того принципиального, что я пытался в них выразить. Становясь на уровень фазы классификации, можно уже, по-видимому, выделить и пробовать определить по меньшей мере четыре крупных класса или категории ма- тематических отношений в биологии, которые можно провизорно обозначить как: а) класс отображений, б) класс функций разброса, в) класс биоструктур управления и г) класс функций сличения и оценки. Между ними могут уже сейчас быть указаны, а в по- следующем несомненно уточнятся глубокие внутренние связи и отношения иерархии и соподчиненности. Начну с класса отображений. В этот про- визорно-определяемый класс войдет и обширный круг отношении, близко и давно известных математике, и на- ряду с этим и целый ряд зависимостей, проникающих в самое существо жизненных явлений. Чтобы охватить этот круг как можно более широко, попытаемся определить класс отображений следующим образом. Если для двух совокупностей (функций, мно- жеств, полей и т.п.), А и {Л}, имеют место условии: 17
1) каждый элемент а (или группа элементов) совокуп- ности А соотнесен к группе элементов {а} совокупности {А} по определенному закону соотнесения Ф (одно- пли многозначному), так что {Л} = Ф{А}; 2) свойства эле- мента (точки ) а совокупности А и его окрестности (напри- мер, такие, как непрерывность, дифференцируемость, принадлежность к числу точек сгущения, вероятность и т. д.) — (ра, qa, ta) обусловливают соответственный пакет свойств (ра', Qa , ta) элемента {а} по законуф, так что (ра', qa', ta') =(р{ра, Ча, ta), то совокуп- ность {Л} есть отображение пли образ совокупности Л. Эту последнюю мы назовем отображаемой или оригиналом. Указанная зависимость может быть как обратимой, так п необратимой. II теорети геская математика, и математическая физика изобилуют объектами, принадлежащими к описываемому здесь классу, причем зависимости Ф и ф оперативно свя- зываются в них с алгоритмами как 1-го, так и 2- рода. Из теоретических объектов к этому классу относятся, например, отображения проективные и конформные, отображение функции в аналитическом продолжении или в ряде полиномов; интегралы Грина и Стокса; отображе- ние системы функций в описывающем их дифференциаль- ном уравнении; изображения по Лапласу или Карсон- Хевисайду и т. п. В теоретической физике к этому классу отойдут, например, теория поля потенциала, уравнения Максвелла, отображение движения частицы волновой функцией и др. Для нашей задачи важно отметить здесь положения, возникавшие, очевидно, стихийно, харак- теризуемые твердым предпочтением отображения его оригиналу, даже в случаях вычислимости последнего (это справедливо, например, по отношению к дифферен- циальным уравнениям Максвелла) и тем более — в слу- чаях, при которых оригинал, связанный с отображением каким-либо А. 2-го рода, вообще не поддается ни конкрет- ной интерпретации, ни наглядному изображению. Это, однако, нимало не мешает строгим и полным формулиров- кам физического закона на одних только отображениях. Сказанное можно подтвердить двумя замечательными примерами, которые заслуживают быть приведенными здесь, ввиду того что сходные с ними ситуации не преминут с неизбежностью выявиться и в области биологических отображений. 18
Первый пример относится к распространению cneia. Во всех руководствах по оптике приводятся перспективные графики хода электрического и магнитного векторов плоско-поляризонанного луча (рис. I). Между тем, по- видимому, не существует никакого способа представить аналогичным образом картину самого нормального непо- ляризованного луча (пучка, фронта), или, хотя бы, луча, поляризованного по кругу. Их процессуальное поведение остается совершенно недо- ступным для пространствен- ного изображения, что, одна- ко, ничуть не мешает воз- можности делать все требуе- мые выводы из отображения такого процесса, в данном случае из его дифференциаль- ного уравнения. Второй замечательный пример, снова из области оп- тики, относится к отображе- нию световых колебаний про- цесса излучения в форме его спектра, при алгоритме, ко- 19
торым является здесь пп.эграл Фурье. Нам в точности известна форма колебания, соответствующая сплошному спектру излучения раскаленного тела (так называемая импульсная функция, рис. II). Но совершенно неизве- стно, как может выглядеть аналогичная кривая колебаний для случая линейчатого спектра поглощения или хотя бы для случая одной единственной полоски поглощения, на- пример, линии D патрия. Мы не знаем, как произвести вычитание из суммарной функции одной какой-нибудь ча- стоты и что при этом могло бы получиться; и тем пе менее такая непзобразимость оригинала нисколько не озабочи- вает, поскольку все необходимые выводы и расчеты с исчерпывающей ясностью получаются в данном случае из его отображения в виде фотометрического (профиль- ного) спектра. Не трудно представить себе, насколько широка об- ласть класса отображений в биологической проблематике, где она включает многие из жизненно важных отношений между подсистемами организма или между организмом п средой, ‘ внутри которой он действует. Кодированная информация, поступающая в организм, на всех этапах ее следования через рецептор, афферентный путь и мозговые синаптические системы в кортикальные аппараты мозга — это целая цепь явлений из обсуждаемого класса отображе- ний. Каждый афферентный процесс отображается (далеко не однозначно!) в ответном двигательном или ином дей- ствии. В основе каждой программы пли проекта действия лежат внутренние процессуальные системы,. которые я обозначил в других работах как «модели настоящего и будущего» С Коды РНК и ДНК являются биологическими отобра- жениями процессов предстоящего развития и роста. Речь как психобиологическая и психосоциальная структура есть опять-таки сложное и отнюдь не примитивно-поэле- ментное отображение воспринимаемого мира и своей активности в нем. Самой важной задачей для исследова- телей является теперь анализ (уже не в частных случаях, а в самых общих и определяющих чертах) тех законов, ко- торые властвуют в сфере биологических отображений. Можно было бы назвать еще много примеров; не умножая их более, я остановлю свое внимание на одной своеобраз- 1 См., например, «Вопросы философии», 1961, № 6. 20
ной разновидности отношений отображения, принадле- жащей исключительно биологическому кругу явлений и явно имеющей там очень большое значение. Это отобра- жение двигательного или любого иного активного про- цесса, смоделированного или запрограммированного в виде «модели будущего», в его фактическом осуществле- нии. Обозначая эту модель через F, действие, отображаю- щее ее, через {/'’}, будем иметь {F(< + t)} = Ф [F (<)], где т время предварения моделью того действия, которое должно последовать за ней. Эта формула, грубо прибли- зительная уже потому, что г не есть постоянная величина, по самому смыслу своему существенно отличает совокуп- ности протекающих здесь процессов от встречающихся в искусственных автоматах с какими бы то ни было линиями задержки. Обрисованная разновидность образует мост от класса отображений к классу структур управления, о которых будет сказано ниже. Необходимо сделать здесь ударение на том, что в сфере биол ;гических задач и соотношений еще в несравненно больней степени, чем, например, в теоретической физике, должны будут играть важную, может быть, решающую роль далекие от прямой вычислимости алгоритмы 2-го рода. Именно здесь более чем где бы то ни было приходится ожидать появления «идеальных» форм операторов, функ- ций, чисел, неопределимых как числа («nombres incalcu- lables») и т. д. К этому вопросу мы еще вернемся. Глубокое своеобразие класса отображений в биоло- гических объектах и присущей ему алгоритмики выяв- ляется более ясно при рассмотрении следующего класса, к которому мы теперь обратимся, класса функций разброса. Начнем издалека. Большой многолетний опыт точного изучения различ- ных двигательных актов человека показал автору неиз- менно присущую им всем черту, особенно ясно выступаю- щую применительно к навыковым, многократно повто- ряемым двигательным актам — таким, как ходьба, бег, письмо, простые производственные операции и т. п. Эта черта состоит в неизменно свойственной всем этим актам довольно значительной вариативности их точного кинема- тического рисунка или параметров кинематических урав- нений, описывающих эти движения. Такая вариативность далеко не всегда имеет приспособительный характер, вы- 21
зываясь, например, неровностями дороги при ходьбе, порывами ветра, сопротивлением материала или против- ника и т. п. Наоборот, и при идеально ровной и однород- ной дорожке при всех прочих равных условиях все-таки между отдельными последовательными циклами движения имеет место довольно значительный разброс. Создается впечатление, что организму, по удачному определению одного из моих коллег, в каких-то пределах «все равно», будет ли очередной цикл движения кинематически реали- зован так или на сколько-то сантиметров либо десятых секунды иначе г. Может быть, есть смысл попытаться описать данный род движений подогнанным к нему уравнением (или совокуп- ностью таковых), где параметры, входящие в него наряду с основными переменными, были бы численно ответствен- ны за различия циклов, и затем надстроить над первым уравнением другое, которое описывало бы закон измене- ния этих параметров в функции времени? Этот закон со- держал бы в своей формулировке свои параметры, так сказать, более высокого порядка; и тогда нужно было бы, чтобы быть последовательными, стараться сформулиро- вать «закон изменения закона параметров» и т. д. Не слишком ли похож такой приступ к биокинематическим явлениям на наслаивание эпициклов, загромоздивших, но не спасших систему Птолемея? Прежде чем добиваться альтернативных путей к более принципиальному анализу указанной вариативности, надо остановиться еще на факте очень большой широты охвата этого рода явлений, что телает их заслуживающими серь- езного научного вниманит. Описанная «принципиальная беспринципность», или правило «все равно», господствует не только в сфере произвольных движений, которая и сама по себе достаточно широка. Та же картина наблюдается и в движениях гладкой мускулатуры (например, пери- 1 Амплитуда разброса есть, конечно, очень изменчивая вели- чина, и по ходу приближения к целевым точкам движения (ес- ли таковые имеются, например в движениях с установкой на мет- кость) она стремится к значениям, близким к нулю. Более того, в метких баллистических движениях (например удар кием по шару на биллиарде) при значительных амплитудах разброса на промежуточных этапах движения самый удар наносится опыт- ной рукой с совершенно поразительной точностью, как могут по- казать простейшие расчеты. 22
стальтика, движения червей или моллюсков и пр.), и в циклах электрокардиограммы, и в кинематике мерца- тельного эпителия. Но обсуждаемый круг еще более ши- рок — он захватывает и область морфологии. В неживой природе нет ни одного примера того постоян- ного свойства живых тканей и органов, которое чисто условно можно назвать мягкостью. Твердые тела неорга- нического мира обладают разными степенями упругости, пластичной вязкости, твердости и т.д., с разными значения- ми всех этих’параметров, но среди них вряд ли найдется хоть одно, способное моделировать фактуру, напри- мер, головного мозга или печени, хорошо знакомую всем, кто видел их на секционном столе ’ . Помимо интервариа- тивности, межиндивидуальной неодинаковости, которой я коснулся в другой работе 1 2, ни один орган или элемент тела вплоть до клетки (кроме костного или хитинового скелета) не имеет присущей ему строго определенной формы, которую можно было бы в целях количественного описания счесть за главную, характеризуя далее все де- формации органа как отклонения от нее. И на секционном столе, и in situ каждый такой объект проявляет себя не- престанной вариативностью формы во времени, причем и здесь эти изменения формы подчиняются правилу «все равно», хотя такое обозначение и нельзя считать строго научным. Очень возможно, что у читателя, хотя бы применитель- но к затронутой вначале кинематической вариативности, давно уже назрело готовое предложение. Вариативность циклов движения бесспорна; если зарегистрировать до- статочно большое количество повторов движения при строго равных условиях, то каждой фазе движения будет соответствовать рой или кучка точечных положений, какие занимал данный пункт тела (например, конечности) в последовательных циклах движения. Далее, к нашим услугам имеется аппарат вариационной статистики; рас- пределение «точек вариативности» в каждом данном об- 1 Химия научилась в последнее время воспроизводить эти механические свойства «мягкости» в различных органических полимерах, но, состоя из больших органических молекул и будучи первоначально синтезированы в подражание естественным, большей частью растительным веществам, такие полимеры, конечно, не нарушают справедливости высказанной в тексте мысли. 2 См. «Вопросы философии», 1962, № 8, стр. 78. 23
лачке точек должно отвечать закону Гаусса, и движение сможет быть исчерпывающим образом описано и охаракте- ризовано, если мы сумеем установить для каждой из по- следовательных фаз средние значения (по координатам х, у, z, t) и квадратичные отклонения. Но так ли это и имеем ли мы право на беспринципное перенесение на фи- зиологический факт нормального закона распределения только потому, что он безупречно строго оправдал себя в термодинамике или в законах, управляющих поведением растворов и газов? Для ответа вспомним, что «нормальный» закон Гаусса выведен из совершенно определенных предпосылок тео- рии вероятностей, на основе закона биномиальных коэф- фициентов и закона больших чисел. Ситуация, к которой он относится и которую выражает, имеющая место с пол- ной строгостью применительно к кинетической теории газов и жидкостей,— это ситуация, где налицо очень большие (порядка не ниже 10 20 или «числа Авогадро», 6,06-1023) количества молекул, которые мы имеем все основания считать неразличимо одинаковыми внутри каждого их сорта. Здесь эта одинаковость прямо уполномо- чивает на применение биномиального принципа распре- деления, высокие порядки количеств — на обобщение посредством закона больших чисел. Но теперь, спраши- вается, где же перед нами хоть сколько-нибудь сходные условия в любом биологическом объекте или процессе, к какому бы мы ни обратились? Порядки числовых величин, с какими мы сталкиваемся в анатомии или физиологии, например столь часто встре- чаемое в настоящее время в кибернетической литературе ориентировочное число клеточных элементов человече- ского мозга, представляются нам большими, покуда мы берем их безотносительно;-но ни это число («1010), ни, например, число эритроцитов во всем кровяном русле взрослого (около 1013) не идут ни в какое сравнение с упо- мянутыми вышэ физическими величинами, будучи по меньшей мере на 10 порядков ниже. Но дело еще даже не в этом. В самом деле, за исключением эритроцитов (кото- рые после выхода из стадии эритробластов на короткий срок своей службы в кровяном русле уже, собственно говоря, представляют собой неживые, безъядерные клет- ки), есть лив организме где бы то ни было клетки, которые мы были бы вправе считать неразличимыми в таком же 24
смысле, как неорганические ионы в растворах? Вся сов- ременная теория мозга, в частности, целиком базируется на индивидуализации нейронов, подкрепляемой также и морфологией их тел и проводящих систем. Ту же удален- ность от высоких порядков по численности и от «обезлич- ки» клеток мы встретим и в скелетно-мышечной, и в почеч- ной, и в печеночной ткани — вообще в каждой структу- рированной системе организма. Так не значит ли это, что совершенно непринципиальное применение «нормальной» кривой распределения ко всяким явлениям биологиче- ских вариаций, характерное и, пожалуй, естественное для «вычислительной» фазы научного уровня, должно быть категорически отвергнуто с наступлением фазы моделиро- вания, а тем более фазы аксиом и классификаций? Мы имеем сейчас уже все возможности ставить вопросы совершенно по-другому, с самым пристальным вниманием как раз к тому, что вычислительная фаза старалась или игнориро- вать или нивелировать с помощью усреднений. Чтобы подойти к вопросу более принципиально, по- пытаемся наметить возможное объяснение фактов раз- броса и явлений «все равно», а также и того, что при всей широкой изменчивости амплитуд разбросов подобного рода индифферентизм совершенно отсутствует по отно- шению к некоторым существенным сторонам или фазам действий. Применительно к управлению двигательными актами наиболее правдоподобной гипотезой представляет- ся сейчас гипотеза низовых матриц, выдвинутая рабочей группой И. М. Гельфанда, В. С. Гурфинкеля и М. Л. Цет- лина и начавшая уже получать серьезные эксперимен- тальные подкрепления в электромиографии г. По этой ги- потезе вышестоящий программирующий и управляющий прибор мозга направляет вниз по эфферентным путям не конкретные и детализированные эффекторные команды, а лишь команды включения тех или иных рабочих матриц, выработавшихся ранее п локализованных, по всем данным, в сегментарных аппаратах спинного мозга в составе альфа- и гамма-мотонейронов, афферентов разных рангов, клеток Реншо и, видимо, еще каких-то вставочных образований. Каждая такая матрица, будучи включенной (активирован- 1 И. М. Гельфанд, В. С. Г у р ф и п к е л ь, М. Л. Ц е т- л и н. О тактиках управления сложными системами в связи с фи- зиологией. В сб. Биологические аспекты кибернетики. Изд. ЛГ1 СССР, 1962, стр. 66. 25
ной), обладает достаточной степенью автономности в осу- ществлении двигательных операций, причем переключе- ние их наступает или по требованиям мозговых приборов сличения на основании аффере ггных сигналов о наступив- шем рассогл асовании, или же вследствие своего рода апел- ляции, исходящей от самой сегментарной системы в слу- чае, если сама она оказывается не в состоянии справиться с задачей п ситуацией. Если представить себе, что струк- турно такие низовые матрицы находятся в наиболее близ- кой аналогии с игровыми, причем поведение их опреде- ляется «платами» или «штрафами» каких-то афферентных порядков, то упомянутая апелляция кверху может про- истечь, например, из ситуации наступившего «разорении» игрока. Нам нет надобности здесь углубляться в развитие этой несомненно эвристически-плодотворной гипотезы, более важно оттенить другое. Если действительно вариа- тивность и разброс возникают за счет функциональных свойств п «игровых» условий низовых матриц, то матема- тические характеристики наблюдаемых разбросов должны самым прямым образом зависеть от упомянутых свойств матричного аппарата и управляющих им приборов. А это значит, что функции разброса в каждом данном случае являются своего рода отображениями тех процессов, в которых они фигурируют. Если эта мысль справедлива, то сами процессы управления и реализации актов дей- ствия, трудно доступные как для регистрации, так и для прямой математической интерпретации, смогут найти себе эту интерпретацию в своих отображениях через функции разброса, во всем широком качественном разнообразии и своеобразии этих последних. Какими именно алгоритмами эти функции окажутся связанными со своими оригина- лами и будут ли эти алгоритмы изобразимы в существую- щих на сегодня понятиях и символах — это, разумеется, не играет принципиальной роли и, может быть, приведет только еще к одной или нескольким категориям «идеалов», которые, надо надеяться, пройдут более безболезненно, чем это бывало в прежние времена. Стоит ли описанное выше морфологическое свойство «мягкости» в какой-нибудь смысловой связи с явлениями кинематической вариативности, или здесь перед нами не более чем чисто внешняя аналогия; удастся ли найти со- ответственные математические средства для того, чтобы охватить сразу всю широту класса «функций разброса»,— 26
пока еще совершенно неясно. С большой степенью уверен- ности можно сказать только, что по всему обсуждаемому классу ведущая роль должна будет принадлежать теории вероятностей; но, очевидно, относящиеся сюда проблемы потребуют создания новых и глубоко своеобразных раз- делов ее. О классе биологических структур управления придется сказать значительно меньше. Дело в том, что этот класс успел получить и по фазе вы- числений, и по фазе моделирования широкую и глубокую разработку в форме общей теории автоматики. Поэтому, хотя обсуждаемый класс все еще мало разработан по линии биологических объектов, в особенности в смысле их углубленного анализа в фазе аксиоматизации, но для высказывания в этих последних направлениях все равно необходима значительно большая компетенция, нежели та, которой располагает автор. Остановимся поэтому только на двух интересных пунктах. Первое, что заслуживает внимания, это то, что все связанное с кругом понятий управления совершенно от- сутствует в неживой природе. И само управление, и те технические формы и средства, которые им используются, являются исключительной (но зато всеобщей) принадлеж- ностью органического мира, и все искусственные устрой- ства этого рода представляют собой по сути дела их ими- тации. Действительно, управление не может иметь смыс- ла, если оно беспредметно; оно всегда предполагает на- личие целевой установки или задачи, которая требует активного решения с преодолением возникающих на этом пути препятствий. Поэтому управление находится в самой тесной связи с той категорией «моделей будущего», которая уже упоминалась в связи с классом отображений. В ис- кусственных автоматических системах такая модель бу- дущего суррогатно заменяется закладываемой в них про- граммой; а в экспериментальных образцах самопрограм- мирующихся систем по мере их усовершенствования все ближе воспроизводится само явление внутреннего экстра- полирования и моделирования. Насколько далеко зайдет при этом приближение к реальным живым формам, пока- жет время, может быть, и не слишком далекое. Второе, что, по нашему мнению необходимо сделать,— это подчеркнуть теснейшую внутреннюю связь между классом биоструктур управления в организмах и опять- 27
таки все тем же гигиантским классом отображений. Можно сказать, что биоструктуры управления — его строение, блоксхема и обусловливаемые ими процессы — стоят по отношению к классу отображений в такой же зависимо- сти, в какой алгоритмы стоят по отношению к соответ- ствующим производящим и производимым элементам ма- тематического процесса. При этом вся структура управ- ления организуется так, чтобы минимизировать при всех побочных воздействиях и помехах нарушения требуемой зависимости между отображением и его оригиналом. Если выразить эту зависимость, как и выше, символом Ф, то закономерности активной минимизации ее нарушений нужно будет выразить в форме некоторого функционала F®, отражающего степень остаточного нарушения и стремящегося к нулю за счет действия управляющих си- стем организма г. О классе сличений и оценок также придется сказать немного. Доказывать или обосновывать как-либо его все- проникающую биологическую значимость не приходится; поэтому я остановлюсь здесь только на том своеобразном чисто математическом интересе, который этот класс пред- ставляет. Немецкими учеными были предложены удачные тер- мины, которые начинают понемногу прививаться и в нашей отечественной литературе. По каждой переменной, подле- жащей регулированию (Regelgrosse), ее программное зна- чение, требуемое на данный момент, обозначается как золльверт (Sollwert, Sw), а ее фактическое значение в тот же момент — как истверт (Istwert, Iw). Эти переменные значения истверта замеряются соответственными рецеп- 1 В настоящем контексте интересно будет привести замеча- ние, сделанное Нейраком, что «в биологии организация управля- ется группой атомов, особо хорошо организованной и при этом представляющей собой количественно лишь малую часть управля- емой ею материи». С точки зрения физиологии активности эта малая часть есть, очевидно, пункт или область наиболее интенсив- ных антиэнтропических процессов, говоря математически — пункт наибольших (отрицательных) градиентов энтропии открытой си- стемы организма (цит. по Р. Nayrac. Les modeles en biologie, Nucle- us, 1963, № 1). См. также R. Wagner. Probleme und Beispiele biologischer Regelung, Stuttg., 1954; П. К. Анохин. Проблемы центра и периферии. Горький, 1935; о н ж е. Вопросы психологии, 1955, № 6; Н. А. Бернштейн. Очередные проблемы физио- логии активности. Проблемы кибернетики, 1961, в. 6, стр. 101; Л. В. Ч х а и д з е. Там же, в. 8, стр. 309 и др. 28
торами и сигнализируются по каналам обратной связи в приборы сличения, которые сопоставляют прибывающую информацию с текущими значениями золльверта и опре- деляют меру рассогласования Д и\ Процессы сличения и оценки пмеют место отнюдь не только в случаях сопоставления величин Sw и Iw. Они встречаются в весьма разнообразных формах и проявлениях также при сопоставлении различных Iw, одновременных либо последовательных, например в явлениях, связанных с порогами различения рецепторов. И по отношению к этим случаям целесообразно обобщить результаты сравне- ний и сличений под общим символом Дш. Но теперь возникает вопрос, какую именно функцию представляет собой эта величина Дю, каким алгоритмом или алгоритмами она определяется. Имеет ли здесь место Д w = Iw — Sw или Д « = fw~Sw. или д w = l0g Z™? & W Что это, вообще, за функция Дш = / (Iw, SW,I'W,I"W ..)? Одинакова ли функция Дю по своей глубинной структуре и свойствам в разных управляющих системах организма и правдоподобно ли, чтобы здесь, наоборот, выявлялись многие механизмы, не имеющие между собой ничего об- щего, а тем самым и разнородные алгоритмы? Как известно, попытки выявить математический смысл величины Ди? делались уже давно и многократно, но обыч- но они оказывались не более как грубоватой апроксима- цией. К числу этих попыток надо отнести и «закон» лога- рифмической зависимости Вебера и Фехнера, испыты- вавшийся на рецепторах всех видов, и характеристики тех тонких разновидностей воспринимающих приборов, ко- торые были в самое недавнее время обнаружены бионикой и показали себя отзывчивыми и на первую, и на вторую производную раздражения, и на «он» и на «о//» и т. д. Вот тут и возникает вопрос, интересный и вполне свое- временный. Если величина или функция Д w (включающая также и нижний порог раздражимости) до настоящего времени формулировалась, с большим или меньшим успе- хом и приближением, лишь с чисто вычислительных пози- ций, импонируя наблюдателям то как арифметическая разность, то как логарифм, то как расчетный элемент шен- ноновских формул, w. log (V и т. д., то: 1) не является ли она в действительности единым видом математической за- висимости, до сих пор не поддававшимся аналитическому 29
изображению, и 2) не проистекает ли математическая не- уловимость функции Д и’ из того, что она и не может быть принципиально изображена средствами существующего математического аппарата? Обобщение, внесенное в свое время алгеброй в поро- дившую ее арифметику, состояло в замене числовых но- минаторов этой последней на обобщенные буквенные Не своевременно ли поставить на службу биологической ма- тематике дальнейшее обобщение, которое так или иначе и само уже брезжит и проявляется в самых различных раз- делах математики — на этот раз алгеброподобное обобщение операторов? Если применительно к разбирае- мому частному вопросу о функции сличения констатиро- вать, что функция Д «' = (Iwi)X(Iw2) представляет собой результат сопоставления величин Iw, сравниваемых по оператору X, то уже наперед можно сказать, что с наи- большей вероятностью этот оператор X окажется чем-то далеким от давно утвердившихся и создававшихся для других задач и целей операторов алгебры. Пойдет ли раз- работка новых, обобщенных или «алгебраизированных» операторов по путям, намечавшимся Абелем и Галуа и характеризуемая Бурбаки в их историческом очерке1? Окажутся ли адекватными для вопросов, возникающих здесь, идеи, мелькавшие еще перед взором Лейбница, day идеи о возможности существования производных при любых нецелочисленных значениях их порядка а, сей- час невозможно предвидеть. Может быть, придется снова обратиться к идеям Бореля о nombres et fonctions prati- quement incalculables (даже fonctions pathologiques!)2, или наиболее гибким аппаратом окажется теория произ- вольных функций, уже принесшая немалую пользу фи- зике 3. Все это ожидает выяснения и, конечно, будет выяснено совместными дружными усилиями биологов и математиков. Профессор Н. А. Бернштейн 1Н. Бурбаки. Очерки по истории математики. ИЛ., 1963, стр, 69—71, 201. 2 Е. Borel. Lecons sur la theorie des fonctions, p. 109, 118, 218. 3 H, Лузин. Интеграл, 1915, стр, 21Г, А, Я. X и н ч и н. Метод произвольных функций. В сб.: Философские вопросы со- временной физпкп. Изд. АН СССР, 1952, стр. 522; Е. Borel. Lemons etc., р. 132. 30
ВВЕДЕНИЕ РОЛЬ МАТЕМАТИЧЕСКОГО АППАРАТА БИОЛОГИЧЕСКОЙ КИБЕРНЕТИКИ В БИОЛОГИИ И МЕДИЦИНЕ В настоящее время в биологию и медицину внедряются методы и понятия кибернетики — науки об управлении и управляющих системах. На базе этого внедрения рож- дается новое научное направление — биологическая ки- бернетика, ставящая своей целью изучение различных форм управления, действующего в живой природе. Необходимость изучения биологических форм управле- ния вполне очевидна. Жизнь клетки, развитие организма, поведение живого существа, эволюция органического мира в целом — все это процессы, протекающие под действием определенных управляющих процессов. Процессы управ- ления оказывают существенное влияние на жизнедеятель- ность организма не только в норме, но и в патологии. Це- лый ряд заболеваний связан с нарушением нормальных управляющих функций организма. Например, в челове- ческом организме с расстройством управления связаны такие болезни, как диабет, гипертония, большинство форм нервных болезней, некоторые из сердечно-сосудистых заболеваний, развитие злокачественных опухолей, а также наследственные болезни, связанные с серповидноклеточ- ностью гемоглобина, гемофилия и другие заболевания [56]. Управления как специфического природного явления, состоящего в организации целенаправ- л е н п ы х действий, по-видимому, не существовало на земле до появления жизни; можно поэтому считать, что первый «патент» на управление принадлежит живой природе. Управление возникло на нашей планете вместе с зарождением жизни и явилось одним из основных средств ее эволюции. Поэтому какую бы форму жизни мы теперь не изучали, мы всегда находим и будем находить, что она 31
связана с процессами управления, и, наоборот, повсюду, где мы встречаем в природе процессы управления, мы встречаем и явления жизни. Наличие управления — ха- рактерная черта всех живых систем. Изучением процессов управления во всех его специ- фических для живой природы видах и строения разнооб- разных биологических управляющих систем и занимается биологическая кибернетика. Содержанием любого управления, независимо от его конкретной природы, являются процессы прие- ма, хранения, переработки и передачи информации. В этих процессах преобладают коли- чественные и логические закономерно- сти, поэтому основным орудием изучения управления и управляющих систем является математический ап- парат. Специфические особенности количественных и логиче- ских закономерностей, проявляющихся в процессах уп- равления, и определяют тот своеобразный круг математи- ческих средств, которые используются в кибернетических исследованиях. Основу математических методов кибер- нетики составляет ряд разделов математики — теория множеств, теория вероятностей, математическая стати- стика, алгебра, топология, функциональный анализ, ма- тематическая логика, теория алгоритмов. Следует подчеркнуть, что удельное значение матема- тических методов в общем арсенале средств биологических и медицинских исследований в настоящее время заметно возросло и имеет тенденцию еще больше возрастать в бу- дущем. И это не случайно. В последние десятилетия бурное проникновение эк- спериментальных методов и понятий точного естествозна- ния в биологию и медицину привело к тому, что центры исследований этих наук совместились в сторону количе- ственного изучения материальных основ явлений, кото- рые до этого изучались в основном лишь с качественной стороны. Тем самым биология и медицина фактически вошли в новую область исследований, в которой важную роль играют процессы механической, физической и хими- ческой природы. В протекании этих процессов преобла- дают количественные закономерности и это определяет методы их изучения, среди которых основное место долж- ны, по-видимому, занимать математические методы. 32
Действительно, коренное переоснащение эксперимен- тальной базы медицинских и биологических исследований современгым лабораторным оборудованием уже в настоя- щее время привело к резкому увеличению потока первич- ных данных, получаемых в течение каждого эксперимента; Изменяется и сама природа этих данных, которые все более приобретают количественный характер. Между тем обра- ботка первичного материала и его теоретический анализ продолжают осуществляться в основном прежними мето- дами, которые, как показывает практика, явно не справ- ляются с этой новой задачей. В результате из всего потока поступающих экспериментальных данных при обработке извлекается лишь доля заключенной в них полезной ин- формации и основная масса этих данных превращается в мертвый архивный материал. Наблюдается странный парадокс: если по уровню осна- щения новым лабораторным оборудованием любая совре- менная физиологическая или медицинская лаборатория ничем не уступает, скажем, любой физической лаборато- рии, то но уровню первичной обработки и по теоретиче- скому анализу при аналогичном сопоставлении обнаружи- вается резкий контраст. Ясно, что причина этого явления кроется, конечно, не в людях, а в применяемых методах теоретического анализа. Очевидно также, что выход из этого явно невыгодного для биологии и медицины по- ложения лежит через внедрение в эти науки новых высо- копроизводительных методов обработки и теоретического анализа. Такие методы существуют; в настоящее время они в широких масштабах используются в точном есте- ствознании и технике. Эти методы — разветвленная сеть математического аппарата и электронно-вычислительные машины. Общая схема машинизации математических методов довольно проста. Она состоит в обработке первичных дан- ных на электронной вычислительной машине, построении соответствующей математической модели изучаемого яв- ления и ее проверке на вычислительной машине; затем следует постановка соответствующих экспериментов для проверки полученных при этом результатов на ориги- нале. Отличительной особенностью современных матема- тических методов научного анализа как раз и является их высокая производительность. В самом деле, математиче- ское описание изучаемых явлений дает возможность 2 Черныш В. И. 33
переложить трудоемкие функции обработки первичного материала на вычислительную машину, обладающую большим быстродействием, получить за относительно короткие промежутки времени результаты обработки и на их основе строить соответствующие рабочие гипотезы с последующей быстрой проверкой этих гипотез на топ же вычислительной машине. Результаты машинной проверки той или иной гипотезы в свою очередь стимулируют по- становку новых экспериментов. Тем самым создаются объективные условия для повышения темпов всесторон- него научного анализа изучаемых проблем. Использо- вание математических методов не только многократно повышает темп и эффективность анализа первичного эк- спериментального материала, но и коренным образом из- меняет методологию научных исследований, повышает роль теоретических разработок, снижает удельный вес дорогостоящих и длительных экспериментов. Учитывая это, можно с полной уверенностью считать, что в дальнейшем прогресс биологических и медицинских исследований по ведущим направлениям будет сущест- венным образом зависеть от масштабов использования в этих науках математических методов. Уже теперь внедре- ние в биологические и медицинские исследования матема- тических машин таит в себе огромные потенциальные возможности, однако это внедрение тормозится из-за от- сутствия у биологов и медиков квалифицированных мате- матических знаний для математического описания изу- чаемых ими явлений. Таким образом, современные тенденции развития био- логии и медицины выдвигают перед биологами и медиками новые требования. В соответствии с этими требованиями биолог и медик должны не только уметь практически ре- шать задачи, укладывающиеся в традиционные рамки, но также формировать и решать совершенно новые задачи, требующие применения новых методов и понятий, в том числе и непривычного пока для них математического аппарата. Математика, как и всякая другая наука, имеет ряд своих основных понятий, па которых она бази- руется; этими основными понятиями для нее служат понятия числа, точки, прямой, плоскости, случайной вели- чины и др. Математически строгое определение этих по- нятий не дается: эти понятия вносятся в математику прак- 34
тикой и на каждой сгупени развития науки пригодны для нее в качестве исходных. Другим важным внутренним элементом математики является аксиома; аксиома указывает на основные свойства изучаемых объектов. Так же как и основные понятия, аксиомы имеют опытное происхождение и, сле- довательно, математически не доказуемы. Аксиомы вы- бираются (задаются) с таким расчетом, чтобы они наилуч- шим образом отражали реальные соотношения материаль- ного мира. Наконец, третье важное математическое понятие— это определение; каждое определение разъясняет, какой смысл придается тому или иному понятию, не яв- ляющемуся первоначальным. Содержание всякого чисто математического исследова- ния состоит в изучении тех объектов, которые были вве- дены либо в качестве первоначальных понятий, либо в ка- честве определений. Это изучение осуществляется в форме теорем, представляющих собой логические след- ствия из определений и аксиом. Логические умозаключе- ния, которые нужно проделать, чтобы из аксиом или из известных ранее теорем вывести новую теорему, называет- ся доказательством этой теоремы. Доказанные теоремы позволяют вскрыть более глубо- кие свойства объектов математического исследования — те свойства, которые хотя и заключались в скрытом виде в определениях и аксиомах, но смогли быть обнаружен- ными только в результате глубокого анализа этих опре- делений и аксиом; этот анализ и составляет содержание всякого математического исследования. В математике ни один результат не может считаться доказанным, пока ему не дано логическое доказательство, и это даже в том случае, если специальные эксперименты подтверждают этот результат. Сила математических доказательств со- стоит в том, что они опираются на строгие правила ло- гики, выкристаллизовавшиеся лишь после тысячелет- ных наблюдений за течением процессов в природе. Наиболее законченные результаты математических исследований внедряются затем в практику, в частности в естествознание, где на их основе разрабатываются спе- циальные математические методы изучения тех или иных конкретных явлений природы. 2* 35
Постановка задач и формулировка теорем математики также возникают из запросов практики. Математика воз- никла из практических нужд, и ее связи с практикой со временем становятся все более и более глубокими и много- образными. За последние годы мы стали свидетелями ог- ромного расширения сферы приложения математики. Многие отрасли науки, которые еще недавно были далеки от математики, воспринимают сейчас математический под- ход к изучаемым вопросам и добиваются благодаря этому новых крупных результатов. Это замечательно подтвер- ждает слова К. Маркса о том, что «наука только тогда до- стигает совершенства, когда ей удается пользоваться ма- тематикой» (Воспоминания о Марксе и Энгельсе. Госпо- литиздат. М., 1956, стр. 66). До недавнего времени математические методы нахо- дили весьма ограниченное применение в биологических и медицинских исследованиях. Теоретическая кибернетика, опираясь, с одной стороны, на вычислительную технику, а с другой — на точную экспериментальную базу современ- ной биологии и медицины, впервые намечает конкретные, пути для широкого внедрения математических методов в эти науки. Поэтому уже теперь процесс математиза- ции исследований начинает широким фронтом захваты- вать биологию и медицину. Цель настоящей книги — спо- собствовать этому процессу.
ГЛАВА 1 ТЕОРИЯ МНОЖЕСТВ. ФУНКЦИИ Биологам и медикам на каждом шагу приходится стал- киваться с таким понятием, как совокупность, множество. Например, можно говорить о совокупности всех бактерий, находящихся в данной пробирке, о совокупности волос- ковых клеток кортиева органа, о множестве больных, имеющихся в данной больнице и т. п. Понятие совокупности объектов постоянно встречается также в математике, физике, механике, экономике и др. Необходимость анализа различных совокупностей объ- ектов, их свойств и закономерностей вызвала к жизни спе- циальный математический аппарат, который получил название теории множеств [1, 20, 48, 74, 96, 138, 143]. В сущности, понятие множества принадлежит к числу простейших математических понятий, поэтому не уди- вительно, что теория множеств стала фундаментом ряда основных математических дисциплин (теории функций действительного переменного, общей топологии, общей ал- гебры, функционального анализа и др.); теоретико-мно- жественные построения пронизывают ныне весь матема- тический аппарат теоретической кибернетики. В рамках данного изложения мы кратко ознакомимся лишь с основными понятиями теории множеств. 1. Множества Под множеством в математике подразумевается любое объединение в одно целое М каких-либо объектов т (на- пример, клеток, особей, популяций, больных и т. п.). Объекты, составляющие данное множество, называются его элементами. В биологии, физиологии и медицине очень часто при- ходится иметь дело с различными множествами, например 37
с множеством хромосом ядра клетки, множеством клеток нервной системы, множеством позвонков в позвоночнике, множеством симптомов данной болезни и т. п. Множество задано (или, что то же, определено), если про всякий объект можно сказать, принадлежит ли он к этому множеству или не принадлежит. Для того чтобы указать, что данное множество М со- стоит из элементов т, обычно пишут: М = {т} Фигурные скобки {...} означают акт объединения элемен- тов т в одно целое для составления из них множества М Из приведенных примеров видно, что элементами мно- жества могут быть самые разнообразные объекты: хромо- сомы, клетки, больные и т. д. Отсюда с самого начала ясна чрезвычайная широта теории множеств и ее приложимость не только к математике, но и к очень многим областям знания (к биологии, медицине, физике и др.). Все приведенные выше примеры множеств обладают одним существенным свойством: все эти множества со- стоят из определенного конечного числа элементов (хотя это число для некоторых множеств может быть и боль- шим). Множество, состоящее лишь из конечного числа элементов, называется конечным множеством. В практике часто приходится сталкиваться и с другими, не конечными, или, как принято в математике говорить, бесконечными множествами. Таковы, например, множе- ства всех вирусов, всех бактерий, всех млекопитающих, всех птиц настоящих и будущих и т. п. Множество, со- стоящее из бесконечного числа элементов, определяется обыкновенно свойствами его элементов: множество А за- дано, если указано свойство, которым обладают все эле- менты, принадлежащие множеству А и которым объекты, не принадлежащие множеству А, не обладают. Так, на- пример, в множество вирусов входят только те простей- шие, которые обладают свойством размножаться за счет веществ бактериальных клеток; к множеству птиц отно- сятся теплокровные позвоночные, которые обладают крыльями и опереньем и т. п. К числу конечных множеств относится и пустое мно- жество, т. е. множество, не содержащее ни одного эле- мента; ведь когда мы определяем тем или иным способом множество, то мы можем и не знать заранее, содержит ли 38
оно хотя бы один элемент. Например, вероятно, множе- ство кошек, находящихся в данный момент в Антарктиде, пусто; однако мы не можем утверждать этого с уверен- ностью, так как, может быть, участник какой-нибудь эк- спедиции и завез какую-то кошку в Антарктиду. Пустое множество обозначается в математике через Л. К конечным множествам присоединяются также еди- ничные множества, каждое из которых обладает одним единственным элементом. Единичное множество с един- ственным элементом а обозначается через {а}. Множества обычно обозначаются заглавными буквами латинского алфавита, элементы множеств — строчными буквами латинского алфавита, а свойства этих элемен- тов — буквами греческого алфавита. Например, мно- жество N с элементами а, Ъ, с запишется так: N = {а, Ь, с}. Сам факт вхождения элемента в множество обозна- чается значком £. Таким образом, факт вхождения, на- пример, нейрона п в нервную систему N записывается так: га 6 N (читается: п входит в N) или так: п (читает- ся: множество N содержит п). Если а не является элемен- том N, то символически это записывается так: a£N. Множество А, все элементы которого могут быть за- нумерованы в бесконечную последовательность alt а2, а3, ап ... так, чтобы при этом каждый элемент получил лишь один номер п и каждое натуральное число п было бы в качестве номера дано одному и лишь одному элементу множества, называется счетным. Бесконечное множество, не являющееся счетным, на- зывается несчетным множеством, например множество точек на отрезке прямой от 0 до 1. При рассмотрении какого-либо множества часто при- ходная иметь дело не только с его элементами, взятг«.ги в отдельности, но и с упорядоченными парами, упорядо- ченными тройками, упорядоченными четверками.... упо- рядоченными га-ками ... его элементов. Примерами упо- рядоченных наборов элементов могут служить располо- жение палочек и колбочек в сетчатке, волосковых клеток в кортиевом органе, позвонков в позвоночном столбе, азотистых оснований аденин-тимин и гуанин-цитозин в ДНК и т. п. Подобные упорядоченные наборы элементов множеств в теории множеств называются кортежами. Кортеж, составленный из элементов множества М, назы- вается короче кортежемнадМ. Кортеж над М, со- 39
ставленный из элементов xt, хг, х3, xs, взятых именно в таком порядке, обозначают {xi, х2, ..., и говорят, что i-тая координата, или компонента, этого кортежа есть Xi (i-тая координата колбочки xt в кортеже сетчатки, j-тая координата волосковой клетки yj в кортеже кор- тиева органа и т. д.). Длиной кортежа {xit х2, %s} называется число $ его координат. Наряду с кортежами 2, 3, 4 и т. д. можно говорить о кортежах {х} длины 1 и о пустом кортеже Л. Примерами кортежей длины 2 могут служить кортежи глаз, ушей, кортежи азотистых оснований аденин-тимин, гуанин-цитозин в ДНК и т. п. Если каждый элемент множества М j содержится и во множестве М, то М j называется частью, или подмноже- ством, множества. В этом случае мы будем писать: MtcM, или Соотношение, выраженное знаком с:, называется вклю- чением. Выделение подмножеств из множеств или одних мно- жеств из других, более общих, производится на основа- нии следующего критерия: элементы выделенного под- множества (множества) должны обладать некоторыми специфическими свойствами, которыми обладают не все элементы более общего множества. Понятие «множество» и «свойство» тесно связано между собой; свойство а определяет множество М элементов, обладающих этим свойством. При этом предполагается, что в множество М входят все объекты, обладающие свой- ством а. Но справедливо также и обратное. Если некоторое множество М определено, то определено тем самым и свой- ство, принадлежащее множеству М. Однако нетрудно найти такое свойство, которым не обладал бы ни один объект. Так, не существует таких клеток, которые не гибнут при температуре 500°, нет таких организмов, которые не умирают и т. п. Такие, не содержащие ни одного элемента, множества, как уже от- мечалось, носят название пустых множеств. Примеры: 1. Пусть множеством N являются клетки нервной системы, подмножеством — клетки сетчатки, подмножеством N2 — клетки кортиева органа, подмножеством N3 — все клетки сухожильных рецепто- ров и мышечных веретен, подмножеством Л\ — нейроны 40
ретикулярной формации, подмножеством TV5 — клетки мозжечка и т. и. Элементами подмножества Ni являются палочки п (ai;a2, аа, ...,ап) = 2 at и колбочки (6р Ьг, Ьа, bh) = 1=1 k = 2 bj-, элементами подмножества N2 — волосковые i=l i клетки (сл, с2, с3, с ) = 2 сг; элементами подмножества г = 1 N3 — клетки сухожильных рецепторов (dj, d2, d3, ..., I m dt) =^dt и мышечных веретен (e1T e2, e3, em) = 2 et i=i 1 = 1 и т.п. (Символом 2 сокращенно обозначается сумма объек- тов множества, начиная с первого (а{ = а,) и до послед- него (а; = ап), индексом i — последовательная смена номеров объектов в этой сумме), п Очевидно «л £ N i', а2 Е TV л ... 2 at € N t в то же время i=l п а л £ N, а2 £N ... 'SLa.i Е TV; следовательно TV л czN. Анало- г = 1 Q Q гично: c4 E TV ... 2 c; E TV2, но Ci E TV, ... 2 ct £N, отсюда i=l t=l P TV2 E TV и т. n. 2 N( = TV. i=l 2. Пусть множеством L является лежбище морских k котиков, подмножествами Llt L2, ... ^Aj — гаремы; i — 1 элементами подмножества L{ являются самец (секач) klt' самки Ц, 12, 13, детеныши иг л, т2, т3, элементами L2 — самец к2, самки Z4, Z5, Ze, Z7, детеныши иг4, т5 и т. п. з Очевидно />:л 6 Ал, Zл Е Т^л, н0 Е А, з Z‘ 6 А, mi £ А; следовательно, Ал с: А. Аналогично f=i it L2 cz. L, L3 cz L, ..., у A; g A. i = l 3. Множеством Q являются форменные элементы кро- ви—клетки. Подмножеством Q л являются эритроциты, под- множеством Q 2 — лейкоциты и подмножеством Q3 — тром- 41
боциты. Элементами подмножества Qi являются красные р кровяные тельца qi, q2, , qp = 2 9В элементами Q2 — i= 1 белые кровяные тельца (лейкоциты) р й р2, р3, рт = т ^Pi', элементами Q3 — кровяные пластинки (тромбоциты) 1=1 s2, «3! •••» = 2s*- 9i £ Qь 92 E Сн •••; Qp E (Л; i-1 но Qi E <2; •••; Qp E <2; следовательно, Qi cz Q', аналогич- но Q2 cz Q и <2з cz Q. 2. Мощность множества. Кардинальные числа Когда мы имеем два конечных множества, то их можно сравнивать по числу элементов. Если множество М имеет т элементов, а множество N имеет п элементов, то будет иметь место одно и только одно из трех соотношений: т = п; т<2 п; т^>п. Если данные множества бесконечные, то сравнивать их по числу элементов уже нельзя, так как в этом случае не имеет смысла говорить о числе их элементов. Но конечные множества можно сравнивать и другим способом. Пусть М и N — конечные множества, и пусть по некоторому правилу удалось каждому элементу g М поставить в соответствие один и только один элемент Ь N, причем каждый элемент bj Е N оказался по- ставленным в соответствие одному и только одному эле- менту at £ М. Такое попарное соответствие между элемен- тами двух множеств называется взаимнооднозначным или 1 = 1-соответствием. В этом случае говорят, что между элементами множеств М и N удалось установить взаимно- однозначное соответствие, а сами множества М и N на- зываются эквивалентными. Эквивалентность множеств записывается так: М N. Взаимно однозначное соответ- ствие между элементами конечных множеств М nN можно установить только в том случае, когда число элементов М nN равно. Поэтому для конечных множеств М и N по- нятие «эквивалентность» и «равночисленность» совпадают. Для эквивалентных множеств М и N справедливы сле- дующие свойства: 42
1) Свойство симметрии (или взаимности). Если множе- ства М и N эквивалентны, то эквивалентны также N и М, т. е. если М ~ N, то TV ~ М. 2) Свойство транзитивности (или переходи о- с т и). Если эквивалентны множества М и N, а также мно- жества N и Р, то множестваМиР тоже эквивалентны (два множества М и N, эквивалентные третьему множеству Р, эквивалентны между собой), т. е. если М N и N Р, то М ~ Р. 3) Наконец, каждое множество М эквивалентно самому себе: М ~ М-, это свойство отношения эквивалентности называется свойством рефлексивности. Если сравнивать по числу элементов можно только конечные множества, то сравнивать путем приведения элементов во взаимно однозначное соответствие можно и бесконечные множества. Для этой цели вводится понятие мощность множества, как некоторое обобщение поня- тия числа элементов. Мощность — это то, что является общим для всех эк- вивалентных между собой множеств. Эквивалентные мно- жества равномощны. В силу этого определения множества можно ввести в классы равномощных между собой множеств и тогда выражение «мощность данного множества» будет означать принадлежность данного множества к тому или другому классу. Так, например, сетчатки правого и ле- вого глаза человека, рассматриваемые как множества па- лочек и колбочек, равномощны между собой. Так как у конечных эквивалентных между собой мно- жеств общим является число элементов, из которых со- стоит каждое множество, и при этом неэквивалентные между собой конечные множества состоят из различного числа элементов, то под мощностью конечного множества обычно подразумевается число элементов этого множества. В этом случае классу конечных эквивалентных множеств, состоящих из п элементов, ставится в соответствие число п, называемое его кардинальным числом. Можно говорить о кардинальном числе нейронов данного мозга, естествен- ного и искусственного, о кардинальном числе особей той или иной популяции и т. п. Мощность всех бесконечных счетных множеств оди- накова, так как каждое из них по определению эквивалент- но одному и тому же множеству всех чисел натурального ряда, а в силу транзитивности они, следовательно, экви- 43
валентны и между собой. Такие множества называют еще перечислимыми, не потому, что элементы бесконечного множества возможно исчерпывающим образом перечис- лить, а потому, что их элементы всегда могут быть пере- числяемы в порядке своих номеров, причем этот процесс может быть продолжен сколь угодно далеко. Примерами счетных множеств с единой для них мощностью могут служить, например, множество всех четных чисел, мно- жество кубов целых чисел, множество попарных сумм целых чисел и т. п. В теории множеств доказывается, что мощность множе- ства всех элементов любой непрерывной протяженности, например, всех точек прямолинейного отрезка длиной от О до 1 (все равно, в каких измерительных единицах), выше, нежели мощность счетного множества, и для всех непрерывных геометрических объектов любого числа измерений (отрезок, часть поверхности, геометрическое тело, область фазового TV-мерного пространства и т. п.) одна и та же. Ей присвоено название мощности кон- тинуума. Существуют множества (например, множест- во всех вообще математических функций), мощность которых выше, чем мощность континуума. 3. Операции над множествами Между множествами могут существовать различные соотношения. Рассмотрим некоторые из них. 1. Включение. Множество А входит (включено) в мно- жество В, если каждый элемент множества А входит также в множество В. Это соотношение между множествами А и В записывается так: А а В. Следовательно, А с: В, если из а £ Л следует, что а Е В. Часто встречаются дру- гие выражения: «множество А составляет часть множества В», «множество А является подмножеством множества В». Примеры включений мы уже рассматривали в преды- дущем разделе. Если в множестве В имеются элементы Ь, не входящие в множество А, то говорят, что множество А составляет правильную часть множества В. Так, например, множе- ства рецепторных клеток сетчаток, кортиевых органов, вестибулярного аппарата и т. п. составляют правильные части множества нейронов нервной системы. Пустое мно- жество входит в любое множество. 44
Если множество А определяется свойством а, а мно- жество В определяется свойством f и Л сВ, то любой объект, обладающий свойством а, обладает также и свой- ством Р и записывается это так: a zd р. Так, множество всех млекопитающих определяется свойством вскармли- вания потомства своим молоком, множество же млекопи- тающих — хищников определяется, кроме того, свойст- вом питаться убитыми ими животными. Следовательно, хищники, входя в множество млекопитающих, должны обладать свойствами питаться мясом и вскармливать де- тенышей молоком. 2. Сумма множеств. Объект с входит в множество С, называемое суммой (или объединением) множеств А и В, если он входит в множество А или в множество В, т. е. с £ С в том и только в том случае, когда с £ Л или с £ В. Иными словами, прибавить к множеству А множество В значит образовать новое множество С, включающее как все элементы множества А, так и все элементы множества В, не входящие в множество А. Сумма множеств записы- вается так: A U В (иногда: А + В). Сумма множества А, элементы которого обладают свойством а, и множества В, элементы которого обладают свойством р, есть множество С, элементы которого обла- дают свойством а или свойством р. Свойство обладать свой- ством а или свойством Р называется в теории множества произведением свойств а и р и обозначается а • р. Примером суммы множеств может служить упомяну- тое ранее множество форменных элементов крови. В дан- ном случае, согласно определению, Q = <21 U Qi U <2з- Элементы множества Q i обладают свойством он (перенос кислорода от легких к клеткам тела), элементы Q2 — свой- ством а2 (абемоидные движения и фагоцитоз), элементы Q3 — свойством а3 (выделение тромбокиназы и свертыва- ние крови). Следовательно, множество Q обладает свой- ством а = он V а2 V аз- 3. Пересечение множеств. Объект с входит в множест- ство С, называемое пересечением (или произведением) множеств А и В, если он входит как в множество Л, так и в множество В, т. е. с £ С в том и только в том случае, когда с Е А и с £ В. Пересечение множеств А и В записы- вается символически так: А А В (иногда А • В). Если элементы множества А обладают свойством а, а элементы множества В — свойством р, то элементы множества 45
A n 13 должны обладать как свойством а, так и свой- ством р. Свойство обладать как свойством а, так и свой- ством р называется суммой свойств а и Р и обозначается: а + р. Пример. Путь М — множество особой популяции, обладающих признаком a, N — множество особей, обла- дающих признаком Р, и Р — множество гибридов этой по- пуляции, обладающих как признаком а, так и признаком р. Очевидно, Р представляет собой пересечение множеств М и N: P = M(]N. Если множества А А В не имеют общих элементов, то их пересечение образует пустое множество: А А В = Л. 4. Разность множеств. Разностью двух множеств М и А называется множество В тех элементов множества М, которые не входят в множество А. Разность множества М и А обозначается: (иногда М — И). Пример. Как известно, рецепторные поля кожной чувствительности обычно перекрывают друг друга (ре- цепторным полем называется поверхность, иннервируе- мая одиночным афферентным волокном). Пусть В — поле тактильных рецепторов кожи, иннер- вируемое афферентным волокном Р и С — часть участка В, перекрываемого полем тактильных рецепторов волок- на у. Тогда В\С' = В' будет представлять собой раз- ность тех элементов (рецепторов) множества В, которые не входят в множество С. 4. Количественные зависимости между явлениями Для любой биологической системы управления, будь то генетический аппарат наследственности, ядерный ме- ханизм клетки или нервная система животного, харак- терно наличие большого количества связей и зависимо- стей между ее внутренними элементами. Взаимосвязи и зависимости имеются также между управляющей систе- мой и внутренними органами животного, между управ- ляющей системой и внешней средой, между отдельны- ми управляющими системами и т. д. Изучение зависимо- стей между явлениями играет поэтому важную роль в кибернетических исследованиях биологических объ- ектов. 46
Математический аппарат практически незаменим при исследовании одной существенной стороны взаимосвязи между явлениями, имеющей особо важное значение в функционировании систем управления, а именно зависи- мости между количественными характеристиками этих яв- лений. Всякая количественная характеристика того или иного явления или объекта называется величиной. К таким ве- личинам относятся, например, время, температура, дав- ление, масса, длина и т. д. Эти величины полностью опре- деляются с помощью чисел (т. е. заданием их численных значений). Наиболее тесным, жестким видом связи между величи- нами является функциональная зависи- мость, когда каждому значению одной величины соот- ветствует вполне определенное (одно или несколько) чис- ленное значение другой величины. Так, например, при облучении живой ткани рентгеновыми лучами зависи- мость между толщиной этой ткани и количеством погло- щенных лучей выражается соотношением: 1=1^-^, где 10— интенсивность падающего на ткань излучения I — интенсивность излучения, прошедшего через нее d — толщина ткани и ц — коэффициент ослабления. В общем случае две величины х тз. у называются функ- ционально зависимыми, если, зная численное значение одной из них, можно точно указать значение другой. Так, например, если нам известна толщина облучаемой ткани d, то при заданном значении падающего на эту ткань излучения 10 мы сможем точно вычислить величину по- глощения. Однако для живой природы, по-видимому, более ха- рактерен тип взаимосвязи, когда каждому значению одной величины соответствует множество возможных значений другой величины и степень рассеяния этих возможных значений определяет большую или меньшую тесноту связи между рассматриваемыми величинами. Указанное рас- сеяние вызывается наличием большого количества второ- степенных факторов, от которых отвлекаются, изучая связь между данными величинами. Такой тип связи между величинами в математике получил название вероятностной зависимости. 47
Если величины X и Y находятся в вероятностной за- висимости, это не означает, что с изменением величины X величина Y изменяется вполне определенным образом; это лишь означает, что с изменением величины X величи- на У имеет тенденцию также изменяться (напри- мер, возрастать пли убывать при возрастании АЛ). Эта тенденция имеет место лишь в среднем, в общих чертах, и в каждом отдельном случае от нее возможны отступ- ления. Рассмотрим, например, две величины: Н — рост на- угад взятого человека, G — его вес. Очевидно, величины Н п G находятся в определенной вероятностной зависи- мости; она выражается в том, что в общем люди с большим ростом имеют больший вес. Можно даже составить эмпи- рическую формулу, приближенно заменяющую эту ве- роятностную зависимость функциональной. Такова, на- пример, общеизвестная формула, приближенно выражаю- щая зависимость между весом и ростом людей: G(ks) = Н(см) — 100. Формулы подобного типа, очевидно, не являются точ- ными и выражают лишь некоторую среднюю, массовую закономерность, тенденцию, от которой в каждом кон- кретном случае возможны отступления. Вероятностная зависимость может быть более или ме- нее тесной; по мере увеличения тесноты вероятностной за- висимости она все более приближается к функциональ- ной. Поэтому функциональную зависимость можно рас- сматривать как крайний, предельный случай наиболее тесной вероятностной зависимости. Другой крайний слу- чай — полная независимость случайных величин. Между этими двумя крайними случаями лежат все градации ве- роятностной зависимости — от самой сильной до самой слабой. В приведенном выше примере мы имели дело со случаем явно выраженной зависимости. Рассмотрим теперь такие величины: Н — рост наугад взятого человека, Z — его возраст. Очевидно, для взрослого человека величины Н и Z можно считать практически независимыми; наоборот, для ребенка величины Н и Z являются зависимыми. Те величины, которые на практике мы считаем функ- ционально зависимыми, в действительности связаны очень тесной вероятностной зависимостью: при заданном значе- 48
нии одной из этих величин другая колеблется в столь узких пределах, что ее практически можно считать вполне определенной. С другой стороны, те биологические вели- чины, которые мы на практике считаем независимыми, в действительности часто находятся в некоторой взаимной зависимости, но эта зависимость настолько слаба, что ею для практических целей можно пренебречь. В настоящее время для вычислительных машин и тех- нических систем управления характерна функциональная связь между элементами и блокайи, в то время как в био- логических системах управления, по-видимому, важней- шую роль играют вероятностные зависимости. Для исследования количественных зависимостей между явлениями в математике разработаны специальные мате- матические аппараты: математический анализ [1, 13, 20т 74, 97, 103, 133, 138, 142, 143] и теория вероятностей-, первый из них служит для изучения зависимостей функ- ционального типа, а второй — для исследования вероят- ностных зависимостей. В последующих двух главах мы познакомимся с основ- ными понятиями и методами аппарата теории вероятно- стей. 5. Функции В биологии и медицине часто приходится встречаться с величинами самой разнообразной природы. В конкрет- ных условиях одни из этих величин остаются неизменны- ми, другие же могут изменяться. Так, например, уровень сахара в крови человека практически не изменяется, в то время как напряженность мышц его скелетно-мышечной мускулатуры изменяется в зависимости от внешних и внутренних условий. Обычно при изучении явлений природы методами мате- матики вместо самих величин (физиологических, биологи- ческих, физических и др.) рассматривают измеряющие их числа, вследствие чего соответствие менаду такими вели- чинами заменяется соответствием между числами. Если в рассматриваемых условиях некоторая величина может принимать различные числовые значения, то эта величина называется переменной. Если же в рассматри- ваемых условиях некоторая величина имеет вполне опре- деленное, неизменное значение, то она называется постоян- ной величиной, или константой. 49
Примерами переменных величин могут служить ча- стота импульсации в нервных волокнах, величина потен- циала электротона рецепторов при их возбуждении, забо- леваемость гриппом в данной местности в различные пе- риоды года и т. п.; постоянными (более или менее) — уровень ph, величина мембранного потенциала клетки в покое, амплитуда нервных импульсов, частота иульса сердца в норме и т. д. Переменные величины в математике обозначаются бук- вами латинского алфавита х, у, z, и...-, постоянные — бук- вами а, Ь, с... Ни в одну физиологическую или медицинскую задачу переменные величины не входят изолированно, вне связи с другими величинами. В каждой такой задаче обычно встречается несколько переменных величин, связанных друг с другом; при этом изменение значений некоторых из этих величин влечет за собой изменение значений других величин. Если в силу некоторого закона или свойства каждому значению переменной х, отвечает одно или несколько оп- ределенных значений переменной у, то переменную у называют функцией от переменной х. Для указания того факта, что переменная у является функцией от х в математике употребляются записи вида: У = / (х), у = F (х), у =<р(х) ит. д. Буквы /, F, <р, ... символизируют собой тот закон или правило, в силу которого получается значение у, отве- чающее заданному значению х. Хотя буква / и связана со словом «функция» (/ — начальная буква латинского слова functio — функция), все же для обозначения функций употребляются и любые другие буквы: у = h (х), у =g (х), а иногда используется запись: у = у (х) и даже у = ух. По своему содержанию понятие функции совпа- дает с понятием соответствия. Именно, если имеют- ся два любых множества М = {х} и N = {р} какой угод- но мощности, составленных из каких угодно элементов х и у, и если каждому элементу xt множества М соответ- ствует один или несколько элементов У] множества N, то говорят, что имеется функция, определенная на множе- стве М, и пишут символическое равенство: У = 1 (ж), £0
где у есть тот самый элемент множества N, который со- ответствует элементу х множества М. Про сами множества М и N говорят, что они связаны между собой функцио- нальной зависимостью и обозначают это М -> N. В том случае, когда между множествами М и N имеется вероятностная зависимость, каждому эле- менту yj множества N будет соответствовать не один, а несколько или непрерывная область вариации элементов, образующих подмножество xt = {xt} множества М, так что: У = ?(Х'), где Xt czM. Элементы х множества М, которым ставятся в соответ- ствие элементы второго множества N, называются значе- ниями аргумента, а все данное множество М называется множеством значений аргумента или областью задания (определения) данной функции. Элемент у множества N, поставленный в соответствие (в силу некоторого закона или правила) числовому значению аргумента х, принад- лежащего множеству М, называется значением функции, соответствующим х. Переменная х, определяющая значение функции, на- зывается независимой переменной', функция называется иногда зависимой переменной. Частное значение функции находится подстановкой в выражение для функции вместо независимой переменной конкретного ее числового значения. Пусть частное значе- ние функции у — / (х) при х = а равно Ь. Это записывает- ся следующим образом: b=f(a). Всякое значение аргумента а принято также называть прообразом, а соответствующее ему значение функ- ции / (а) — его образом. Следовательно, всякому элементу множества М соответствует его образ в множе- стве N. Все множество значений функции можно назвать образом множества значений аргумента. Вместо слова «функция» в качестве синонима употребляется термин отображение. Когда возникает вопрос о той или иной функции, то существенными являются область задания функции, т. е. множество М независимой переменной х, и закон соответ- ствия между переменными. Что касается множества 51
значений функции (т. е. множества N), то его обычно не указывают, поскольку данный нам закон соответствия между переменными уже определяет собой множество принимаемых функцией значений у. Примеры. 1. Как известно, при укорочении мышцы выделяется тепло. Зависимость между общим количеством выделяемого тепла Q и степенью укорочения мышцы х определяется приближенным эмпирическим соотноше- нием: Q = А ах, где А — постоянная величина теплоты активации и а — постоянная, не зависящая от нагрузки. Формула эта выражает собой закон, в силу которого значениям независимой переменной х отвечают опреде- ленные значения переменной Q. Между величинами Q и х имеется функциональная зависимость типа Q = / (х). Областью определения функции служит множество всех возможных сокращений мышцы. Значениями аргумента х являются отдельные числовые величины укорочения мыш- цы; значения функции — отдельные числа на шкале вы- деляемых мышцей теплот Q. Множество значений функции заполняет всю шкалу возможных для мышцы значений вы- деляемых теплот. 2. Рост и вес людей находятся в определенной вероят- ностной зависимости, которая выражается приближенной формулой: G (кг) = Н (см) — 100. Эта формула выражает собой правило, в силу которого множеству, определенных значений весов людей G = {g} отвечает определенное множество человеческих ростов Н = {h}-. G^H. Область определения функции есть множество всех воз- можных человеческих ростов (скажем, от 0,5 до 2,5 м). Значениями аргумента h}- являются отдельные значения роста людей; значениями функции — отдельные веса. Множество значений функции заполняет всю шкалу воз- можных для человека весов. Если нам известен вес какого-либо человека gt и мы не знаем его роста, то по этому весу мы сможем приблизи- 52
тельно определить границы его роста, т. е. gr-F(Hj), где Hj = {hj} — подмножество возможных ростов, соот- ветствующих данному весу человека, Hj czIJ. 3. Частота следования нервных импульсов, генери- руемых в афферентных волокнах терморецепторов, оп- ределяется температурой окружающей среды. Обозна- чив частоту следования нервных импульсов, генерируе- мых терморецептором, через й, а температуру внешней среды — через Г, имеем: Й = /(Г7), где Tj — {?, } — подмножество возможных значений тем- пературы, для которых терморецептор будет генерировать импульсы с данной частотой. Область определения функции есть множество всех возможных значений температуры внешней среды Tj = =-- {tj}, на которые может реагировать терморецептор. Значениями аргумента tj являются отдельные значения температуры; значениями функции — отдельные частоты импульсации в афферентном волокне, идущем от терморе- цептора. Множество значений функции заполняет всю шкалу возможных для терморецептора частот импульса- ции. Множеством значений функции может быть любое чи- словое множество. В частности, это множество может со- стоять лишь из одного числа С. В этом случае всякому зна- чению аргумента ставится в соответствие одно и то же число С, т. е. при любом значении аргумента х имеем / Ю - с. Если при любом значении аргумента соответствующее значение функции равно одному и тому же числу, то го- ворят, что эта функция постоянна или что функция есть константа. Если функция / (ж) постоянна, то пишут / (ж) = С или / (х) = const. До сих пор мы рассматривали только функции, значе- ния которых определялись по переменной, принадлежащей к какому-либо одному множеству; такие функции назы- ваются функциями одной переменной, или одноместными функциями. 53
В том случае, если какая-либо величина реального явления зависит не от одной, а от двух переменных вели- чин, описывающая эту зависимость математическая функ- ция будет определяться уже не одним, а двумя аргумен- тами; такого рода функция называется функцией двух пе- ременных, пли двухместной функцией. Двухместные функ- ции записываются так: а) при функциональной зависимости между перемен- ными 2 = /(ж, у), б) при вероятностной зависимости между перемен- ными Z = F(X, У), где X = {xt}, Y = {уt} — подмножества независимых переменных х и у. Областью определения двухместной функции являются множества М = {ж} и N = {г/}; область значений функ- ции находится в множестве U = {z}. П ример. Ориентационное движение рыб осуще- ствляется нервной системой на основе сигналов, посту- пающих от двух приборов: статолитов и глаз. Обозначив эфферентную импульсацию, определяющую ориентацион- ное движение рыбы, через Z, афферентную импульсацию от статолитов — через X, а импульсацию глаз — через У, имеем: Z = F(X, У). Точно таким же образом можно определить понятие трехместной, четырехместной функции и т. д. Вообще п-местная функция применима к упорядоченной системе п аргументов и дает некоторое значение при условии, что упорядоченная система п аргументов принадлежит к об- ласти определения функции. Значение га-местной функции для данных п аргументов обозначается символом функ- ции, к которому приписываются справа в определенном порядке латинские буквы аргументов, взятые в скобки и разделенные запятыми. Так, например, функция, зави- сящая от переменных х, у, z, и, w, является пятиместной функцией и записывается так: V — (х, у, z, и, w). 54
6. Способы задания функции Математически задать функцию — это значит указать совокупность всех значений, которые принимают неза- висимые переменные, и способ, при помощи которого по данным значениям независимых переменных находятся соответствующие им значения функции. Существует тргг основных способа задания функции: аналитический, графический и таб- личный. 1. При аналитическом задание функции закон или правило соответствия между зна- е шями переменных в функции задается с помощью формулы, которая представ- ляет эту функцию в виде аналитического выра- жения, указывающего те математические операции или действия над числами и переменными величинами, ко- торые нужно произвести, чтобы получить соответствующее значение функции. Всякая функция, которая задана формулой, называет- ся аналитически заданной. С примерами задания функций в виде формул мы уже знакомились в предыдущих параграфах. К числу достоинств аналитического способа задания функции относится: возможность определения значения функции, в которой аргументами являются не одна, а две и более переменных; сжатость и компактность выраже- ния (короткие формулы определяют значения функции для всех рассматриваемых значений независимых перемен- ных, а также возможность вычислить значения функции для любых значений независимых переменных, при ко- торых указанные в формуле действия имеют смысл); удоб- ство для изучения наиболее тонких и глубоких свойств функции. Неудобства аналитического метода заключаются в не- достаточной наглядности и в необходимости производить вычисления, подчас достаточно громоздкие. Кроме того, не всякая функция может быть задана аналитически. 2. Функция одной переменной и функция двух пере- менных могут быть заданы графически. График функции одной переменной представляет собой совокупность точек на плоскости хОу, абсциссы ко- торых являются значениями независимой переменной (принадлежат к области определения 55
функции), а ординаты равны соответствующим з на- чениям функции. При функциональной зависимости между пе- ременными каждому определенному значению независи- мой переменной, взятому по оси абсцисс, отвечает какое- то одно значение функции по оси ординат. Пример. На рис. 1 приведен график функциональ- ной зависимости между величиной прикладываемого к нервной ткани напряжения и длительностью его действия, необходимого для вызова возбуждения. Здесь независимой переменной является время действия прикладываемого напряжения, а функцией — напряжение, необходимое для вызова возбуждения. Для того чтобы с помощью этого графика найти по данному значению независимой перемен- ной (например, при Ц = 0,1 мсек) соответствующее зна- чение функции, нужно отложить по оси абсцисс отрезок, представляющий в выбранном масштабе значение незави- симой переменной (Ot = 0,1 мсек), и измерить ординату точки линии, соответствующей этой абсциссе; в данном случае величина необходимого для возбуждения напря- жения равна 40 в (так как отрезок OU! = 40 в). Наша точка М имеет на графике координаты Л/(/1 = 0,1, Ul = 40). Графиками функций одной переменной обычно служат линии. И обратно, всякая линия на координатной плос- 56
кости изображает некоторую функцию — именно ту, значения которой равны ординатам линии при значе- ниях независимой переменной, равных абсциссам. Еслп функция у = / (х) не слишком сложна, то ее график пред- ставляет собой обычно более или менее простую линию на плоскости. Графиком постоянной величины служит пря- мая, параллельная оси абсцисс. Таким образом, понятия линии и функции тесно свя- заны. Заданием функции порождается линия — ее гра- фик; заданием линпи в координатной плоскости порож- дается функция — та, для которой эта линия служит гра- фиком. В последнем случае и говорят, что функция задана графически. Если функция задана формулой, связывающей незави- симую переменную х с функцией у, то графиком этой функ- ции является линия, для которой эта формула служит у р а в п е н и е м. В случае, если функция задана графически, нередко одного взгляда на график достаточно, чтобы судить о поведении функции; при этом можно увидеть такие черты, которые лишь в результате длительных подсчетов можно было бы установить, исследуя ее аналитическое выраже- ние. Поэтому часто бывает важно даже в тех случаях, когда функция у = / (х) задана каким-либо иным способом, по- строить ее график. Это можно осуществить следующим об- разом. Для ряда близких между собой значений перемен- ного х мы вычисляем соответствующее значение у = / (х). Результаты вычислений записываем в виде таблицы: X Х\ Х2 Х3 ••• / (*) У1 Уг Уз ••• Уп Затем на плоскости хОу строим точки М{ (xt у i); М2 (.г2, у2); ...; Мп (хп, уп). Соединяя эти точки плавной линией, мы получим приближенно график функции У = /(я). При наличии вероятностной связп между переменными каждому значению функции соответствует подмножество- значений независимой переменно)! Y = J< (X). 57
Поэтому графиком вероятностной функции является се- мейство кривых; каждая кривая в этом семействе назы- вается конкретной реализацией вероятностной функции. На рис. 2 приведен график изменения температуры тела человека в течение суток. На этом графике имеются че- тыре реализации функции, соответствующие различным людям. Графический способ задания функции часто приме- няется в экспериментальных работах, особенно там, где имеется возможность использования самопишущих при- Область определения функции Рис. 2. боров, автоматически записывающих изменения некото- рой величины в зависимости от изменения другой величины (чаще всего времени). В результате па ленте прибора полу- чается линия, графически задающая регистрируемую при- бором функцию. Иногда график является единственным доступным средством (или самым простым из возможных средств) задания функции одной переменной. Функцию двух пере- менных z = / (ж, у) можно задать графически уже не в плоскости, а в пространстве трех измерений. При этом значения аргументов откладываются по осям х и у гори- зонтальной плоскости хОу, а значения функции / (х, у' отсчитывают по вертикальной оси z. Вообще га-местная функция может быть задана графиче- ски в пространстве не менее чем га-измерений и теряет всякую наглядность. Поэтому на практике графический способ задания функций используется в основном для функций одной переменной и реже для функций двух пе- ременных. 58
3. Функция называется заданной таблично, если при- ведена таблица, в которой указаны численные значения функции для некоторых значений независимых перемен- ных. Табличный способ задания функции широко исполь- зуется в науке. В частности, к таблицам часто прибегают при записи результатов экспериментального изучения за- висимости между величинами. Так, например, измеряя температуру тела 9-дневного птенца крапивника tn при изменении температуры окружающей среды /ь, мы по- лучим таблицу, задающую tn как функцию от ti>: ‘в 10 21 27 32 36 38 41 1п 14 26,5 35,5 37 38,6 40,5 42 Табличный способ удобно применять, если нужно про- следить, как изменяется какая-либо величина с течением времени: мы измеряем эту величину в различные моменты времени и заносим результаты в таблицу; полученная таблица есть таблица значений искомой функции; роль не- зависимого переменного играет время t. Табличный способ задания функции бывает полезен и тогда, когда нужно найти те или иные конкретные зна- чения функции, не производя дополнительных вычислений. Этой цели служат, в частности, таблицы ряда функций e-^dt-, f(p) = —р log2p и др.], приведен- ные в конце данной книги. Кроме того, таблица значений функции является, как мы видели, промежуточным звеном при построении графика функции. Однако табличный способ имеет и свои недостатки: он не дает достаточно наглядного представления о харак- тере изменения функции с изменением независимых пере- менных; кроме того, таблица дает значения функции только для некоторых дискретных значений независимых переменных. Рассмотренные нами способы задания функции не яв- ляются единственно возможными. Иногда приходится за- давать функцию, комбинируя указанные способы, или за- давать функцию каким-либо иным способом. 59
7. Изоморфные системы В практике часто встречаются отдельные физически- разнородные множества, между которыми можно, однако, установить взаимно однозначное соответствие. Возьмем в качестве примера рефлекс икроножной мыш- цы лягушки. Как известно, этот рефлекс осуществляется нейронами, входящими в состав рефлекторной дуги мышеч- ного рефлекса. Мы можем промоделировать этот рефлекс, используя для этой цели не нейроны, а другие физические элементы, например радиолампы, сопротивления и т. п. Наконец, можно представить процесс осуществления мы- шечного рефлекса математически, изобразив нейроны условными геометрическими фигурами или обозначив их буквами аь а2, а3, ... и описывая процессы взаимосвя- зи между ними с помощью, например, аппарата математи- ческой логики. Во всех трех случаях, несмотря на различие физиче- ских объектов, мы получим один и тот же результат — осу- ществление мышечного рефлекса. Производя математиче- ские операции над условными нейронами, мы можем вовсе и не думать о реальных нейронах, их особенностях. Однако ясно, что любой реальный нейрон и любая опера- ция над ним могут иметь соответствующие аналогии в виде физико-технических или математических элементов и операции над ними. Мы ставим задачу описать коленный рефлекс, затем переводим эту задачу на физико- технический или математический язык и решаем ее в тех- нических или математических терминах и понятиях, аб- страгируясь от физиологии. Дойдя до результата и снова переведя его на язык физиологии, мы получим тот же ответ, который мы получили бы, решая эту задачу экспе- риментальным путем на препарате лягушки. Мы получим правильные результаты. В этом примере мы имели некоторые множества: мно- жество физиологических нейронов, множество искусст- венных нейронов и множество математических нейронов. Каждое такое множество состояло из конечного числа эле- ментов (нейронов), которые обладали определенными свойствами (способностью отвечать на раздражения воз- буждением) п между которыми установлены некоторые отношения (связь через синаптические контакты); множе- ство нейронов такого типа образует систему. 60
13 нашем примере мы имели три системы: систему фи- зиологического мышечного рефлекса, систему искусствен- ного мышечного рефлекса и систему математического мы- шечного рефлекса. При решении задачи в каждом случае мы отвлекались от качественной физической природы эле- ментов этих систем, их свойств и отношений. При таких допущениях каждая система из конкретной превращается в абстрактную. Об элементах системы мы можем ничего не знать, кроме отмеченных свойств и отношении, имеющихся между ними в системе. В этом случае устанав- ливается только структура системы, а природа се элементов остается неопределенной во всех отношениях, кроме одного — что они согласуются с этой системой. Все представители одной и той же абстрактной системы (или схемы) всегда изоморфны между собой. В тео- ретико-множественном смысле системы (или множества) М и N называются изоморфными, если выполняются сле- дующие условия: 1) каждый элемент х £ М может быть взаимно одно- значно сопоставлен с элементом у £ N, т. е. х у и у х; 2) каждая операция / (из некоторого класса операций, выражающих отношения между элементами множества), преобразующая элемент Xi £ М в х2£ М в системе М (в нашем примере эта операция соответствует передаче возбуждения с одного нейрона па другой), / (яч) = х2 может быть взаимно однозначно сопоставлена с операцией <р, преобразующей элемент у{ g N в у2 g N: <р (j/i) = J/2, т. е. / —*- <р, <р — 3) если Xi g М соответствует yi g N и х2 g М соот- ветствует у2 g 7V, а также / (яч) = я?2 и / -> <р, то для всех х, у, / будет иметь место <р (г/i) = у2- Два множества изоморфны, если их элементы попарно взаимно однозначно соответствуют друг другу и преобра- зования элементов одного множества соответствуют пре- образованиям соответствующих элементов другого мно- жества. Каждая абстрактная схема определяет целый класс изоморфных между собой систем, и каждая система этого класса может представлять собой схему, если элементы ее обладают свойствами п такими отношениями, которые имеют место в любой системе заданного класса. Не трудно убедиться, что в нашем примере все системы изоморфны между собой. В системе записей, оформленной 61
в виде истории болезни, врач стремится к максимальному изоморфизму ее реальной болезни и процессам ее лечения. Можно говорить об изоморфизме теории и практики вооб- ще, если теоретические выводы действительно согласуются с практическими результатами. Понятие изоморфизма играет фундаментальную роль в методологии научных исследований, так как в нем теоре- тически обосновывается очень важное в практическом от- ношении положение, что в любом научном исследовании изучаемое явление на отдельных этапах может быть за- менено изоморфной ему моделью и дальнейшее изучение явления может быть сведено к изучению модели. В част- ности, изоморфизм явлений биологической, технической и математической природы позволяет осуществлять мо- дели различных биологических и физиологических объек- тов и протекающих в них процессов. Понятие моделиро- вания включает воспроизведение той или иной стороны реального биологического явления на изоморфной физико- технической или математической модели, которая отлична от воспроизводимого явления по своей природе. Само изу- чаемое биологическое, физиологическое или патофизио- логическое явление может быть недоступно для прямого изучения либо вследствие своих пространственно-времен- ных масштабов (филогенетические механизмы эволюции) либо вследствие недоступности для непосредственного наблюдения (работа сердца в организме человека, деятель- ность молекулярных систем управления в клетке и т. п.). Изоморфная модель, например математическая, воспро- изводит законы протекания реального биологического процесса и делает доступной оценку его течения в широких пределах изменения внешних и внутренних условий. Создание математических моделей реальных явлений важ- но еще и в том отношении, что оно делает возможным во- влечение в исследования электронно-вычислительных ма- шин — этих мощных вспомогательных инструментов теоре- тического анализа.
ГЛАВА 2 ВЕРОЯТНОСТИ 1. Случайные события. Методы изучения В предыдущей главе мы уже отмечали, что в функцио- нировании разнообразных систем управления, созданных живой природой, по-видимому, главную роль играют за- висимости вероятностного типа. В основе вероятностных зависимостей лежат массовые случайные со- бытия. Теория вероятностей [4, 6, 7, 19, 20, 27, 29, 42, 43,45, 46, 49, 55, 71, 72, 75, 87, 102, 110, 111, 116, 117, 122, 123, 137, 140, 146, 160, 162] как раз и изучает и отображает в математической форме закономерности, присущие слу- чайным событиям именно массового характера. Следует отметить, что такого рода закономерности вообще играют исключительно важную роль в биологии и медицине. Дви- жения и столкновения молекул и ионов в биохимических процессах; возбуждение нейронов и нейронных скопле- ний при распространении процессов возбуждения и тор- можения в нервной системе; реакции скрещивания между особями популяции; распространение вирусных заболе- ваний в населенных пунктах и т. д.— все это примеры массовых случайных явлений. При изучении таких явле- ний с помощью аппарата теории вероятностей обнаружи- ваются своеобразные новые закономерности и законы. Эти законы тем более точны, чем к большему числу однородных явлений они относятся. Таким образом, о случайных явлениях, взятых в боль- шом числе, возможно точное знание. Так, биохимические реакции являются процессами случайными и в то же время точными, если речь идет о достаточно больших числах мо- лекул и ионов. Если число молекул и ионов достаточно велико, то ход реакции практически не зависит от траек- торий отдельных молекул и ионов и подчиняется вполне 63
определенным' и простым закономерностям. Случайные особенности, свойственные движению каждой отдельной молекулы или иона, в массе взаимно компенсируются; в результате, несмотря на сложность и запутанность отдель- ного случайного явления, мы получаем весьма простую закономерность, справедливую для массы случайных яв- лений. Отметим, что именно массовость случайных явле- ний обеспечивает выполнение этой закономерности; при ограниченном числе молекул и ионов начинают сказываться случайные отклонения от закономерности, так называе- мые флюктуации. Совершенно очевидно, что в природе нет ни одного биологического явления, в котором не присутствовали бы в той или иной мере элементы случайности. Как бы точно и подробно не были зафиксированы условия опыта, не- возможно достигнуть того, чтобы при повторении опыта результаты полностью и в точности совпадали. Случайные отклонения неизбежно сопутствуют любому закономерному явлению. Тем не менее в ряде практических задач этими случайными элементами можно пренебречь, рассматривая вместо реального явления его упрощенную схему, модель и предполагая, что в данных условиях опыта явление протекает вполне определенным образом. При этом из бесчисленного множества факторов, влияю- щих на данное явление, выделяются самые главные, ос- новные, решающие; влиянием остальных, второстепенных факторов просто пренебрегают. Такая схема изучения явлений постоянно применяется, например, в физике. При пользовании этой схемой для решения любой задачи прежде всего выделяется основной круг учитываемых усло- вий и выясняется, на какие параметры задачи они влияют; затем применяется тот или иной математический аппарат (например, составляются и интегрируются дифференци- альные уравнения, описывающие явление); в результате устанавливается основная, принципиальная закономер- ность, свойственная данному явлению и дающая возмож- ность с большей или меньшей точностью предсказать результат опыта по его заданным условиям. По мере раз- вития науки число учитываемых факторов становится все больше, явление исследуется все подробнее, научный про- гноз становится все точнее. Однако для решения биологических проблем описанная классическая схема точных наук, по-видимому, плохо 6i
приспособлена. Для большинства биологических и меди- цинских задач интересующий нас исход опыта зависит от столь большого числа факторов, что практически невоз- можно все их зарегистрировать и учесть. Это задачи, в которых многочисленные второстепенные, тесно перепле- тающиеся между собой случайные факторы играют замет- ную роль, а вместе с тем число их так велико и влияние столь сложно, что применение классических методов ис- следования точного естествознания себя не оправдывает. Рассмотрим пример. При возбуждении нервной системы подопытного животного каким-либо пусковым услов- ным раздражителем, например зажиганием лампочки, происходит включение определенного рефлекса. При этом возбуждение в виде серий параллельно-последовательных импульсов начинает распространяться от палочек и кол- бочек сетчаток глаз по афферентному пути в кору и под- корку головного мозга, охватывая огромные количества нейронов, а затем локализуется в строго ограниченных участках, заканчиваясь на определенных эфферентных волокнах нейронов подкорки и спинного мозга. Возникает ряд в-опросов. Какая часть из всех возбуждающихся при осуществлении данного рефлекса нейронов и синапсов не- посредственно участвует в замыкании рефлекторной ду- ги? Каково минимально необходимое количество возбуж- денных нейронов, которое требуется для осуществления рассматриваемого рефлекса? Чем вызвано такое, каза- лось бы, нерациональное возбуждение огромного числа нейронов и синапсов? Чем обусловлена специфика нейрон- но-синаптической организации рабочих структур рефлек- торной дуги? Для того чтобы ответить на подобные вопросы, обычные схемы исследования как классической физиологии, так и современной электроэнцефалографии и микроэлектродной техники будут, очевидно, недостаточны. Эти вопросы ор- ганически связаны со случайной природой явления; для того чтобы на них ответить, очевидно, нельзя просто пре- небречь случайностью, надо изучить случайное явление возбуждения отдельных синапсов и нейронов различных участков в нервной системе с точки зрения закономерно- стей, присущих ему именно как случайному явлению. Нужно исследовать закон, по которому возбуждаются ансамбли нервных клеток; надо выяснить случайные причины, вызывающие распространение возбуждения на 3 Черныш В. И. 65
другие участки нервной системы, непосредственно не уча- ствующие в осуществлении данного рефлекса, сравнить эти причины между собой по степени важности и т. д. Все подобные задачи, число которых в биологии и медицине чрезвычайно велико, требуют изучения не только основных, главных закономерностей, определяющих яв- ление в общих чертах, но и анализа случайных возмущений и искажений, связанных с наличием привходящих фак- торов и придающих исходу опыта при заданных условиях элемент неопределенности. Какие же существуют пути и методы для исследования случайных явлений? С чисто теоретической точки зрения те факторы, ко- торые мы условно назвали «случайными», в принципе ничем не отличаются от других, которые мы выделили в качестве «основных». Теоретически можно неограниченно повышать точность решения каждой задачи, учитывая все новые и новые группы факторов: от самых существен- ных до самых ничтожных. Однако практически такая попытка одинаково подробно и тщательно проанализи- ровать влияние решительно всех факторов, от которых зависит явление, привела бы только к тому, что решение задачи в силу непомерной громоздкости и сложности ока- залось бы практически неосуществимым и к тому же не имело бы никакой познавательной ценности. Например, теоретически можно было бы поставить и решить задачу об определении конкретного пути распро- странения возбуждения от нескольких колбочек сетчатки вплоть до концевого эфферентного нейрона (или группы нейронов) с учетом трофического и электрофизиологиче- ского состояния всех возбуждаемых распространяющи- мися нервными импульсами нервных волокон, синапсов и нейронов, учитывая скорость распространения воз- буждения по конкретным волокнам, все синаптические задержки, величины мембранных потенциалов отдельных нейронов и т. д. Такое решение не только было бы чрезвы- чайно сложным, но и не имело бы никакой практической ценности, так как относилось бы только к данным кон- кретным импульсам, распространяющимся от нескольких фиксированных колбочек сетчатки в данных конкрет- ных условиях, которые практически больше не повто- рятся . Очевидно, должна существовать принципиальная раз- ница в методах учета основных, решающих факторов, оп- 66
ределяющих в главных чертах течение явления, и вторич- ных, второстепенных факторов, влияющих на течение явления в качестве «погрешностей» или «возмущений». Элемент неопределенности, сложности, многопричинно- сти, присущий случайным явлениям, требует создания спе- циальных методов для изучения этих явлений. Такие методы и разрабатываются в теории вероятно- стей. Ее предметом являются специфические закономер- ности, наблюдаемые в случайных явлениях. Эти законо- мерности наблюдаются всегда, когда мы имеем дело с массой однородных случайных явлений. Закономерно- сти, присущие этой массе, оказываются практически не зависящими от индивидуальных особенностей отдельных случайных явлений, входящих в массу. Эти отдельные осо- бенности в массе как бы взаимно погашаются, нивели- руются, и средний результат массы случайных явлений оказывается практически уже не случайным. Именно эта многократно подтвержденная опытом устойчивость массо- вых случайных явлений и служит базой для применения вероятностных (статистических) методов исследования. Методы теории вероятностей по своей природе приспособ- лены только для исследования массовых случайных явлений; они не дают возможности предсказать исход от- дельного случайного явления, но дают возможность пред- сказать средний суммарный результат массы однородных случайных явлений, предсказать средний исход массы аналогичных опытов, конкретный исход каждого из ко- торых остается неопределенным, случайным. Чем большее количество однородных случайных явле- ний участвует в задаче, тем определенее и отчетливее про- являются присущие им специфические законы, тем с боль- шей уверенностью и точностью можно осуществить науч- ный прогноз. Во всех случаях, когда применяются вероятностные ме- тоды исследования, цель их состоит в том, чтобы, минуя слишком сложное (и зачастую практически невозможное) изучение отдельного явления, обусловленного слишком большим количеством факторов, обратиться непосред- ственно к законам, управляющим массами случайных явлений. Изучение этих законов позволяет не только осуще- ствить научный прогноз в своеобразной области случай- ных явлений, но и в ряде случаев помогает целенаправ- ленно влиять на ход случайных явлений, контролировать 3! 67
пх, ограничивать сферу действия случайности, сужать ее влияние Для современного этапа развития естествознания ха- рактерно весьма широкое и плодотворное применение ве- роятностных методов во всех областях знания. В одних науках в сплу специфики предмета и исторических усло- вий внедрение вероятностных методов наблюдается рань- ше, в других — позже; к числу последних относится п биология. Возникшая в XVI — XVII веках благодаря работам Тартальн, Кардана, Паскаля, Ферма. Гюйгенса как скромный инструмент математического анализа рас- пространенных в ту эпоху азартных игр, теория вероят- ностей стала ныне одним из мощнейших математических орудий научного исследования. В настоящее время нет почти ни одной естественной науки, в которой в том или ином виде не применялись бы вероятностные методы. На- пример, целые разделы современной физики (в частно тп, ядерная физика) основываются па методах теории вероят- ностей. На методах и понятиях теории вероятностей базируется теория информации. Важнейшая часть совре- менной биологии — генетика — все более пронизывается статистическими методами. В последнее время вероят- ностные методы начинают успешно внедряться в исследо- вания нервной системы. Математические законы теории вероятностей — от- ражение реальных статистических законов, объективно существующих в массовых случайных явлениях природы. К изучению этих явлений теория вероятностей применяет математический метод и, следовательно, является одним из разделов математики, столь же логически точными стро- гим, как и другие математические науки. Поэтому путь ее ость путь точного рассуждения, а орудиями ее служат формула, таблица, чертеж и другие символические сред- ства математического языка. Каждая наука, развивающая общую теорию какого- либо круга явлений, содержит ряд основных понятий, на которых она базируется. Такие основные понятия существуют и в теории вероят- ностей. В качестве первого из них введем понятие слу- чайного с о б ы т п я. Под случайным событием в теории вероятностей подразумеваются такие события, которые могут произойти пли не произойти при осуще- ствлении определенного фиксированного комплекса усло- 68
вий. Разумеется, речь идет об условиях, существенным образом связанных с возможностью появления данных событий. При этом предполагается, что этот комплекс условий можно воспроизводить неограниченное количе- ство раз. Каждое осуществление рассматриваемого ком- плекса условий называется испытанием (опытом, экспери- ментом, операцией). Приведем несколько примеров событии: А — рождение одного слоненка-самца у слонихи; В — рождение трех слонят-самцов у слонихи; С — появление контролируемой мутации в первом по- колении культуры. D — возникновение в мотонейроне пикового потен- циала; Е — появление у подопытной собаки пищевого реф- лекса после включения звонка. Рассматривая приведенные выше события, мы видим, что каждое из них обладает какой-то степенью возмож- ности: одни — большей, другие — меньшей, причем для некоторых из этих событий мы сразу же можем решить, какое из них более, а какое менее возможно. Например, сразу видно, что событие А более вероятно, чем В. Отно- сительно событий С, D и Е аналогичных выводов сразу сделать нельзя; для этого следовало бы несколько уточ- нить условия опыта. Так или иначе ясно, что каждое из таких событий обладает той или иной степенью возмож- ности. 2. Частота. Вероятность Если про рассматриваемый нейрон говорят, что он при данных условиях опыта дает 95% возбуждений, то это означает, что из сотни опытов, произведенных в опреде- ленных условиях (например, при подаче на нейрон одного и того же калиброванного возбуждения пороговой силы при одном и том же функциональном состоянии нейрона и т. п.), в среднем бывает примерно 95 удачных, при кото- рых в ответ на внешнее возбуждение нейрон генерирует свой собственный импульс, и около 5 неудачных. Конеч- но, не в каждой сотне опытов будет 95 удачных; иногда их будет 96 или 98, иногда 93 или 91; подчас число их может оказаться даже значительно меньше или больше чем 95; но в среднем при многократном повторении опыта в тех же 69
условиях этот процент генерации импульсов будет оста- ваться неизменным, пока с течением времени не произой- дет каких-нибудь существенных изменений (например, ухудшится фугкц опальное состояние нейрона). Цифра 95%, служащая показателем возбуждаемости нашего нейрона в пороговых условиях, бывает обычно очень устойчивой, т. е. процент возбуждений в большинстве опытов (в тех же условиях) будет для данного нейрона почти один и тот же, лишь в редких, исключительных слу- чаях уклоняясь сколько-нибудь значительно от своего среднего значения. Рассмотрим еще один пример. В некоторой чистой культуре бактерий было установлено, что в данных усло- виях в среднем 2% исследуемых бактерий оказались с какой-то целсю мечеными. Это означает, что в участке культуры, состоящем, скажем, из 1000 бактерий, еще не подвергнутых тщательному обследованию, будет примерно 20 меченых. Иногда, конечно, число меченых бактерий будет несколько больше, иногда несколько меньше, но в среднем это число будет близко к 20, и в большинстве участков культур по 1000 бактерий в каждом оно также будет близко к 20. Понятно, что и здесь мы предполагаем, что условия для всей культуры будут одинаковыми (сво- бодная миграция, постоянная температура и т. д.) Подобных примеров можно привести сколько угодно. Во всех этих примерах мы видим, что при однородных мас- совых операциях (многократное повторение калиброван- ного возбуждения нейрона, метка отдельных бактерий культуры и т. п.) процент того или другого вида важных для нас событий (генерация нейроном ответного импульса, меченая бактерия и пр.) при данных условиях почти всег- да бывает примерно одним и тем же, лишь в редких слу- чаях уклоняясь сколько-нибудь значительно от некоторой средней цифры. Можно поэтому сказать, что эта средняя цифра служит характерным показателем данной массовой операции (при данных строго установленных условиях). Процент генерации ответных импульсов является показа- телем возбуждаемости нейрона, процент мечености бакте- рий — показателем «чистоты» культуры. Само собой по- нятно поэтому, что эначение таких показателей важно в самых различных областях: в физиологии, генетике, экологии, микробиологии, диагностике и пр.; оно позволяет не только оценивать уже происшедшие массовые явления, 70
но п предвидеть исход той пли иной массовой операции в будущем. Вернемся к первому примеру. Подсчитаем, какая часть опытов оказалась удачной. Для этого разделим число опы- тов с генерацией нейроном ответного импульса на общее число проведенных опытов, т. е. возьмем отношение числа случаев наступления события п (генерация ответного им- пульса) к полному числу опытов N. Полученное отноше- ние называется частотой появления события. В нашем 95 случае п = 95 и N = 100, поэтому частота равна = 0,95. В массовых явлениях частота наступления события от одной серии опытов (операций) к другой остается прибли- зительно постоянной, мало отличаясь от некоторого средне- го значения. Отклонение от среднего значения оказывает- ся обычно тем меньше, чем больше число испытаний. Очевидно, что для таких явлений объективно существует некоторая средняя частота, которая может быть с боль- шей плп меньшей точностью определена в серии опытов. Массовые случайные события, которые обладают устой- чивой частотой, составляют предмет теории вероят- ностей. Количественной характеристикой устойчивой частоты служит вероятность. Если нейрон в данных условиях ка- либрованного возбуждения генерирует в среднем в 95 опытах из 100, то мы говорим, что для этого нейрона п в этих условиях вероятность генерирования ответного им- 95 пульса составляет 0,95 (или 95%, пли ^). Если в данных условиях в среднем на каждую 1000 бактерий некоторой культуры приходится 20 меченых, то мы говорим, что вероятность попасть на меченую - бактерию равна для данной культуры 0,02 (или 2%). При этом всегда чадо иметь в виду, что вопрос о ве- роятности того или другого события (результата) имеет смысл только в точно определенных условиях, в которых протекает наша массовая операция. Всякое существенное изменение этих условий влечет за собой, как правило, изменение интересующей нас вероятности. В общем случае вероятность — это то число, вблизи которого колеблется частота случайного события при мас- 71
совых испытаниях, ilchii массовая операция такова, что событие А (например, генерация нейроном ответного им- пульса) наблюдается в среднем п раз среди N единичных операций (опытов), то вероятность события А в данных условиях составляет (пли ?-%). Само собой разумеет- ся, что если вероятность какого-либо события равна , то в каждой серии из N единичных операций это событие может наступить и более чем п раз, и менее чем п раз; только в среднем оно наступает примерно п раз, и в боль- шинстве таких серий из N операций число случаев наступ- ления события А будет близко к и, в особенности если N большое число. Пример. В некотором городе в течение первого квартала,родились: в январе — 145 мальчиков и 135 девочек, в феврале — 142 мальчика и 136 девочек, в марте — 152 мальчика и 140 девочек [46]. Как велика вероятность рождения мальчика? Доля рождения мальчиков: в январе — gfj ~ 0,518 = 51,8% I в феврале — ^ « 0,511 = 51,1% }• в марте -g| « 0,520 = 52,0% j В среднем за три месяца 0,516 = 51,6% Мы видим, что среднее арифметическое долей за от- дельные месяцы близко к числу 0,516 = 51,6%; искомая вероятность в данных условиях составляет примерно 0,516, или 51,6%. Таким образом, мы ввели в рассмотрение второе основ- ное понятие теории вероятностей — понятие вероятности события. Вероятность события есть численная мера сте- пени объективной возможности этого события. 3. Достоверные и невозможные события Сравнивая между собой различные события по степени их возможности, мы должны установить какую-то единицу измерения. В качестве такой единицы измерения при- нимается вероятность достоверного события, т. е. такого 72
события, которое в результате опыта непременно должно произойти. Пример достоверного события — потеря зре- ния при удалении глаза или перерыве зрительного нерва. Если приписать достоверному событию вероятность, равную единице, то все другие события — возможные, но не достоверные — будут характеризоваться вероятно- стями, меньшими единицы, составляющими какую-то долю единицы. В случае, если событие заведомо не может произойти при осуществлении заданного комплекса условий, то его частота и его вероятность равны нулю. Такое событие на- зывается невозможным. Пример невозможного события — сохранность зрения при перерыве зрительного нерва. Таким образом, вероятность события всегда есть по- ложительное число или нуль. Она не может быть больше единицы, потому что у дроби, которой она определяется, числитель не может быть больше знаменателя (число «удачных» операций не может быть больше всех предпри- нятых операций). Условимся обозначать через р (Л) ве- роятность события А. Каково бы ни было это событие, О < р(Л) < 1. Чем больше р (Л), тем чаще наступает событие Л. На- пример, чем больше вероятность возбуждения нейрона, тем чаще будут «удачные» опыты. Если вероятность собы- тия очень мала, то оно наступает редко. Для невозмож- ного события р (Л) = 0. Напротив, если р (Л) близко к единице, то у дроби, которой выражается эта вероятность, числитель близок к знаменателю, т. е. подавляющее боль- шинство операций «удачно», для достоверного события р (Л) = 1. Если р (Л) = ’/2, то событие Л наступает при- мерно в половине всех случаев; это значит, что «удачных» операций наблюдается примерно столько же, сколько «не- удачных». Если р (Л) > ’/2, событие Л наступает чаще, чем не наступает; при р (Л) <’/2 мы имеем обратное явление. Таким образом, установлены: единица измерения ве- роятностей (вероятность достоверного события) и диапа- зон изменения вероятностей любых событий (числа от 0 до 1). Говоря о событиях, мы различаем события совме- стимые (или совместные) и несовмести- мые (несовместные). Несколько событий назы- ваются несовместимыми в данном опыте, если никакие 73
два из них не могут появиться вместе, т. е. взаимно ис- ключаются. Если же при осуществлении события А воз- можно также и осуществление события В, то такие два события называются совместимыми. Рассмотрим пример. У кенгуру родился детеныш (ус- ловия а). Данный детеныш может оказаться либо самцом (событие Л), либо самкой (событие В). События А и В, оче- видно, несовместимы: детеныш не может быть одновре- менно и самцом и самкой. Однако в том случае, когда у кенгуру родятся близнецы (условия р), события А и В будут совместимы, чак как рождение самца (событие Л) не исключает рождение близнеца-самки (событие В). 4. Сложение вероятностей Самым простым и самым важным общим правилом, употребляемым при расчете вероятностей, является пра- вило сложения, которое мы теперь рассмотрим. Начнем с примера. В препарат спинномозгового сег- мента, состоящий из афферентных, вставочных нейронов и мотонейронов, вводится микроэлектрод, и по внезапному появлению всплеска на экране катодно-лучевой трубки об- наруживается, что кончик микроэлектрода проник в какой-то нейрон. Пусть соотношение количеств мотоней- ронов, вставочных и афферентных нейронов таково, что вероятность попасть микроэлектродом на мотонейрон составляет 0,30, а вероятность попасть на афферентный нейрон — 0,25. Какова вероятность того, что в первом же опыте проколотым нейроном окажется либо афферентная клетка, либо мотонейрон? На этот вопрос легко ответить. Из каждой сотни опытов, в которых кончик микроэлек- трода попадает в какой-то нейрон, примерно в 30 опытах этим нейроном окажется мотонейрон и примерно в 25 — афферентная клетка. Значит, в каждой сотне опытов будет примерно 30 -J- 25 — 55 опытов, в которых микроэлек- трод попадает либо на афферентный нейрон, либо на мо- тонейрон. Искомая вероятность равна поэтому 0,55 = — 0,30 -4- 0,25. Вероятность того, что в опыте микроэлек- трод попадает либо в мотонейрон, либо в афферентную клетку, равна сумме вероятностей попаданий в мотоней- рон и в афферентную клетку. Мы можем теперь провести общее рассуждение. 74
При проведении некоторой массовой операции уста- новлено, что в каждой серин из N единичных операций наблюдается в среднем ni раз некоторый результат А ь п2 раз некоторый результат А2, п3 раз некоторый результат А3 и т. д., причем в каждой операции может наступить толь- ко один из таких результатов. Иначе говоря: вероятность события А j равна вероятность события А2 равна вероятность события А3 равна 2? и т- Д- Как велика вероятность того, что в некоторой единич- ной операции наступит какой-либо один (все равно какой) пз результатов Ait А2, А3, ...? Интересующее вас событие можно назвать «А п либо А2, либо А3, либо ...» и записать: AiA~ И2+ А3-- ... (иногда встречается такая форма записи: At U А2 U Л3...). Это событие в серии из N операций наступает «1 + п2 4 и3 + ... раз; значит, искомая вероятность равна: п1 4“ пг + пз 4“ • • _п\ I пг I пп I Лг ~ /V N .'V ' Это можно записать следующей формулой: р (A i 4 А 2 4 Аз 4-...) — р (А ,) -I- р (J 2) 4 р (И34- ... При этом, как в нашем примере, так и в общем рас- суждении мы все время предполагали, что любые два из рассматриваемых результатов (например, А, и Л2) несов- местимы между собой, т. е. не могут наблюдаться в одной и той же единичной операции. Так, например, пришедший на прием к врачу пациент не может быть одновременной первичным и повторным на приеме у данного врача. Это предположение о взаимной несовместимости от- дельных интересующих нас результатов очень важно; без него правило сложения становится неверным и примене- ние его приводит к грубым ошибкам. Рассмотрим, напри- мер, следующую задачу. Установлено, что для некоторой группы населения частота встречаемости пли вероятность обнаружения зачатков сколиоза у детей школьного воз- раста составляет 0,3, а вероятность начинающейся порчи 75
зубов — 0,7. Какова вероятность наличия у данного школьника того или другого из этих нарушений? Если бы мы хотели применять к решению этой задачи правило сложения, то мы сразу нашли бы, что искомая вероят- ность равна 0,6 4~ 0,7 — 1,3 — результат явно нелепый, та" как мы у не знаем, что-вероятность события поможет быть больше едиппцы. К атому неверному и бессмыслен- ному ответу мы пришли потому, что применили правило сложения к такому случаю, где его применять нельзя; ге два результата, о которых идет речь в этой задаче, как мы утке отмечали, совместимы друг с другом: сколиоз и кариес могут встретиться у одного и того же ребенка. Значительная часть ошибок, которые делаются при первых неопытных расчетах вероятностей, основывается именно на таком неправильном применении правила сло- жения; необходимо поэтому тщательно остерегаться этой ошибки и при каждом применении правила сложения про- верять, действительно ли среди тех событий, к которым мы его хотим применить, каждые два несовместимы друг с другом. Теперь мы можем дать общую формулировку правила сложения. Вероятность наступления в некоторой опера- ции какого-либо одного (безразлично какого именно) из результатов А ь А 2, ..., Ап равна сумме вероятностей этих результатов, если каждые два из них несовместимы между собой. 5. Полная система событий. Равновероятные события Как известно, у млекопитающих в оплодотворении яйцеклетки участвует множество сперматозоидов, однако в ядро яйцеклетки проникает лишь один, а остальные погибают. Иначе говоря, при общем количестве спермато- зоидов т каждый из них имеет вероятность проникнуть в 1 к ядро яйцеклетки, равную — , л вероятность погибнуть, равную Проникновение в ядро яйцеклетки и гибель —противоположные события, т. е. та- кие два события, из которых одно и только одно обяза- тельно наступает для каждого сперматозоида. Сумма их вероятностей 1 т — 1__1 -|- hi - 1 _ J т'т т ’ 76
и это не случайно. Вообще, если At и Л2 — два противо- положных события и если из N операций событие A j на- ступает раз, а событие А2 наступает п2 раз, то, оче- видно, ni + n2 = N. Но p(Ai) = ^: р(А2) = ^, так что р(л1)+р(л2)=^+^=^±^-=1. Можно получить тот же результат и из правила сложения: так как противоположные события несовместимы между собой, то Р(Л)Н-p(At) = p(At + Л2); (1) но событие Л 1 + Л 2 есть событие достоверное, так как из определения противоположных событий следует, что оно наверняка должно наступить; поэтому вероятность его равна единице, и мы снова получаем: р(Л1) + р(Л2)=1. Сумма вероятностен двух противоположных событий рав- на единице. Это правило допускает весьма важное обобщение, ко- торое можно доказать тем же способом. Пусть мы имеем т (любое число) событий Л ь Л2, ..., Лт, таких, что в каж- дой единичной операции обязательно должно наступить одно и только одно из этих событий; условимся такую группу событий называть полной системой', в частности, всякая пара противоположных событий, очевидно, обра- зует полную систему. Сумма вероятностей событий, об- разующих полную систему, равна единице. Действительно, по определению полной системы лю- бые два из событий этой системы несовместимы между со- бой, так как правило сложения дает: Р + Р (^2) “Ь • •• + р (Лт) = р (Л, Л2 Ат). Но правая часть этого равенства есть вероятность досто- верного события и поэтому равна единице; таким образом, для полной системы р(Л,) + р(Л2) + „.+/>(Ля) --1, что и требовалось доказать. 77
Пример. При подаче калиброванного возбуждения пороговой силы на группу афферентных волокон колен- ного рефлекса в разных опытах возбуждались 1,2, 3 или 4 нейрона спинномозгового сегмента; в некоторых опытах не возбуждался ни один нейроп Пусть из каждых 100 опытов возбуждаются в среднем’. в 45 опытах 1 нейрон (событие At), в 25 опытах 2 нейрона (событие А2), в 15 опытах 3 нейрона (событие А3), в 12 опытах 4 нейрона (событие Л4), в 3 опытах 0 нейронов (событие Л5) (45 4-25 4- 15 + 12 + 3 = 100). Эти пять результатов эксперимента составляют, оче- видно, полную систему событий. Вероятности их соответ- ственно равны: р (Л,) = 0,45; р (Л2) = 0,25; р(Лэ) = 0,15 р(Л4) = 0,12: р(Л5) = 0,03 поэтому мы имеем 0,45 4- 0,25 4- 0,15 4- 0,12 4- 0,03 = 1. Событие, состоящее в том, что А не происходит, назы- вается противоположным или дополнительным к событию А и обозначается А Поскольку в каждой операции собы- тие А либо наступает, либо не наступает, т. е. наступает событие А, то на основании (1) будем иметь: G р(Л4- Л) = р(Л) + р(Л) = 1 как вероятность достоверного события. Отсюда вероят- ность дополнительного события равна: р(Л) = 1— р(А). (2) Так, если в нашем примере событием А считать возбужде- ние хотя бы одного нейрона и событием А — невозбужде- ние ни одного нейрона, то вероятность того, что в данном опыте пе возбудится ни один нейрон, можно подсчитать по формуле (2): р (А) = 1 — (0,45 4- 0,25 4- 0,15 4- 0,12) = 1 — 0,97 = 0,03. На установленной здесь теореме о полной системе со- бытий чдсго с успехом основывают так называемый априор- ный, т. е. доопытный расчет вероятностей. Так, если из 78
поступающей информации нам становится известным, что применительно к некоторой системе (например, куль- туре микробов) событие А наступает с частотой или ве- роятностью р (Л) = 0,30, а несовместимое с ним событие В — с вероятностью р (В) — 0,45 (пусть, например, это будет соответственно невредимость бактерии или полный бактериолиз), то из суммы обеих вероятностейр (А + В) = = 0,75 прямо следует, что мы имеем дело с неполной системой п что остается вероятность р (А + В) = 1 — — 0,75 = 0,25 того, что наступит одно или несколько со- бытий, нами не предусматривавшихся (например, агглю- тинация и т. п.). Введем еще понятие равновероятности. Несколько со- бытий в данной системе опытов называются равнове- роятными (или равновозможными), если по условиям есть основание считать, что ни одно из этих событий не является объективно более, либо менее воз- можным, чем остальные. Особенно существенным надо считать случай, когда равновероятные события образуют полную систему. Тогда если число таких (несовмести- мых!) событий равно п, то вероятность каждого из них равняется 1/п. Пример. Исследуемое афферентное волокно длиной 200 мм, входящее в состав нерва, из-за допущенной не- брежности оказалось где-то поврежденным. Чему равна вероятность того, что повреждение находится не далее чем в 20 мм от рецепторного конца? Разложив мысленно все волокно на отдельные миллиметры, мы можем в силу реальной равновероятности нанесения повреждения на любом участке волокна допустить, что вероятность по- вреждения одна и та же для каждого миллиметра. Отсю- да легко находим, что искомая вероятность равна: 6. Условные вероятности Во многих случаях встречаются события, вероятность которых зависит от того, произошло иля не произошло не- которое другое событие. Рассмотрим следующие примеры. 1. Как известно, сетчатка глаза содержит несколько сот миллионов рецепторов — палочек и колбочек, причем плотность расположения палочек падает к цеюру сетчагки 79
и растет к периферии, а плотность колбочек, наоборот, максимальна в центре п уменьшается к периферии сетчат- ки. Предположим, мы задались пелью отводить с по- мощью микроэлектрода импульсы от одной колбочки сет- чатки. Можно считать, что вероятность того, что первым рецептором, в который будет наугад введен наш микроэлек- трод, окажется колбочка, будет зависеть от того, в какой участок сетчатки мы введем микроэлектрод — централь- ный или периферийный. 2. Пусть мы имеем популяцию, состоящую из особей двух близких видов, причем особи первого вида состав- ляют примерно 70% всего состава популяции, а особи второго — 30%. Из каждых 100 особей первого вида в среднем 65 являются самцами, а из 100 особей второго вида — 55 самцов. Как легко подсчитать из этих данных, в среднем на каждые 100 особей популяции приходится 62 самца. Действительно, 65-0,70 + 55-0.30 = 62. Сле- довательно, вероятность того, что первая попавшаяся особь популяции окажется самцом, равна 0,62. Но допу- стим теперь, что мы выяснили, что группа обследуемых нами особей популяции вся принадлежит к первому виду. Тогда вероятность того, что первая попавшаяся особь окажется самцом, изменится — она будет равна: S=0’65- Рассмотренные примеры показывают, что добавление к общим условиям, в которых происходит операция (в наших примерах — ввод микроэлектрода в рецептор сет- чатки, выбор особи популяции), некоторого существен- ного нового условия (выяснение того, в какую область сетчатки вводится микроэлектрод, к какому виду при- надлежит особь) может изменить вероятность того или иного исхода единичной операции. Это и понятно: ведь са- мо понятие вероятности требует, чтобы совокупность усло- вий, при которых проводится данная массовая операция, была точно определена. Присоединяя к этой совокупности какое-либо новое условие, мы вообще существенно изме- няем эту совокупность. Наша массовая операция прово- дится после этого уже в новых условиях, фактически это уже другая операция, а i-.отому п вероятность того или иного ре.ы льтата в ней уя,е не та, -что в первоначальных условиях. S0
Мы имеем, таким образом, две различные вероятности одного и того же события — выбора самца из данной по- пуляции, но эти вероятности рассчитаны в различных условиях: покуда мы пе налагаем добавочного условия (не учитываем, к какому виду принадлежит самец), мы имеем безусловную вероятность выбора самца из данной популя- ции, равную 0,62; при наложении же добавочного условия (того, что самец принадлежит к первому виду) мы полу- чаем условную вероятность 0,65, несколько отличающую- ся от предыдущей. Если мы обозначим через Л го'ытие выбора самца и через В — событие принадлежности его к первому виду, то через р (А) обозначается безусловная вероятность события А и через р (А|/?) — вероятность того же события А при условии, что состоялось событие В, т. е. что самец принадлежит к первому виду -встре- чается и другое обозначение условной вероятности: рв (А)]. Мы имеем, таким образом: р (А) = 0,62; p(AjJ) = 0,65. Так как о вероятности того или иного результата дан- ной операции можно говорить лишь при некоторых точно определенных условиях, то, строго говоря, всякая ве- роятность есть условная вероятность; безусловных ве- роятностен в буквальном смысле этого слова существовать не может. Однако в большинстве конкретных задач дело обстоит так, что в основе всех рассматриваемых в данной задаче операции лежит некоторая определенная совокуп- ность условий G, которые предполат аются выполненными для всех операций. Если при вычислении какой-либо вероятности никаких иных условий, кроме совокупности G не налагается, то такую вероятность мы назовем безусловной', условной же будет называться вероятность, вычисленная в предположении, что, кроме общей для всех операций совокупности условий G, выполняются еще те или другие, точно оговоренные дополнительные условия. Так, в наших примерах мы предполагаем, конечно, что микроэлектрод вводится в колбочку при некоторых опре- деленных условиях, одппх и тех же для всех колбочек сетчатки, или же что выбор данного самца производится при тех же условиях, что и выбор другой любой особи по- пуляции. Это предположение настолько неизбежно и очевидно, что мы в формулировке задачи даже не нап ти 81
нужным упомянуть о нем. Если на данный рецептор сет- чатки или на данную особь популяции мы не налагаем никаких дополнительных условий, то вероятность того или другого результата ввода микроэлектрода в рецептор или выбора особи популяции мы называем безусловной. Если же сверх этих условий мы налагаем еще какие-либо дополнительные требования, то вычисляемые при этих требованиях вероятности будут уже условными. 3. Во второй задаче, описанной нами в начале этого раздела, вероятность того, что первая попавшаяся особь популяции окажется принадлежащей ко второму виду, очевидно, равна 0,3. Установлено, что эта особь оказалась самцом. Какова после этого наблюдения вероятность того, что этот самец принадлежит ко второму виду? Из каждых 1000 особей популяции в среднем 620 яв- ляются самцами, причем 455 из них — самцы первого вида и 165 — самцы второго вида. Это легко подсчитать следующим образом. Из каждых 1000 особей популя- ции 700 в среднем принадлежат к первому виду, а из каж- дых 100 особей первого вида в среднем 65 являются сам- цами. Следовательно, из 700 особей первого вида самцами будут в среднем 7.65 — 455 особей. Остальные 3.55 = 165 самцов принадлежат ко второму виду. После сделанного наблюдения вероятность принадлежности самца ко вто- рому виду составляет поэтому Это—условная вероятность принадлежности особи ко вто- рому виду, вычисленная при условии, что данная особь является самцом. В наших прежних обозначениях событие В означает принадлежность самца к первому виду, по- этому принадлежность его ко второму виду можно обозна- чить как событие В (непринадлежность самца к первому виду в нашей полной системе, т. е. в рассматриваемой по- пуляции). Следовательно, мы можем написать: р (В)«0,3; р (В\А) = 0,26. 4. Производившиеся в некотором районе многолетние наблюдения показали, что из 100 000 детей, достигших 10-летнего возраста, до 40 лет доживает в среднем 82 277, а до 70 лет — 37 977. Найти вероятность того, что если 82
человек доживет до ^О-летнего возраста, то он доживет и до 70 лет [40]. Так как из 82 277 40-летних до 70 лет доживает в сред- нем 37 977, то вероятность 40-летпему дожить до 70 лет равна: Если через А а В обозначить события, состоящие: первое — в дожпвании 10-летнего ребенка до 70 лет, а второе — в достижении им 40-летшэго возраста, то мы имеем: р (А) = 0,37977 «0,38. р (А|В) «0.46. Условная вероятность, так же как и безусловная, имеет величину, лежащую в пределах от нуля до единицы. Для нее остается справедливым правило сложения. Если условная вероятность р (А|В) равна безусловной вероят- ности р (А), то события А и В являются статистиче- ски независимыми. Если р (А) не равна р (А|.В), то события А и В оказываются статистически с в я з а н н ы м и, между ними существует корре л я- ц и я. Наступление одного из них меняет вероятность другого. В крайних случаях наступление одного события делает наступление другого достоверным или невозмож- ным. В этом случае мы имеем обычную функциональную связь двух событий. 7. Умножение вероятностей Вернемся к третьему примеру предыдущего параграфа. Из каждой 1000 особей популяции в среднем 300 принад- лежат ко второму виду, а из этих 300 особой самцами ока- зываются в среднем 165. Отсюда мы получаем, что вероят- ность принадлежности первой попавшейся особи ко вто- рому виду (событие В) равна зоо n q Р(В)~1ббО~0’3’ а вероятность того, что эта особь окажется самцом при условии, что он принадлежит ко второму виду, равна p(A|B) = |g = 0,55. 83
Так как кз каждой 11)00 особей 105 принадлежат ко второму виду и в то же время являются самцами, то ве- роятность совместного наступления событий А (особь является самцом) и В (особь принадлежит ко вто- рому виду) равна 1 , , р, 3U0 -5. р (А- В) — 1000 — 1000 • ЗП0 — р (В) • р (А\В). Это правило умножения (или совмещения) легко распро- странить и на общий случай. Пусть в каждой серин из п операций результат В наступает в среднем га раз. а в каждой серин, составленной из т таких операций, где ре- зультат В наблюдался, I раз наступает результат А. Тогда в каждой серии из п операции совместное наступление событий В и А будет наблюдаться в среднем I раз. Таким образом, д(Ь') = ^ р(Л|Ь) = 1, (1) P(AB) = -L = ^ .± = р(В).р(А\В). Дадим общую формулировку правила умножения. Ве- роятность совместного наступления двух событий равна произведению вероятности первого события на условную вероятность второго, вычисленную в предположении, что первое событие состоялось. Разумеется, мы можем называть первым любое из двух данных событий, Tai. что на равных основаниях с форму- лой (1) можем писать н Р(А -В)=.р (А)-р(В\А), (1а) откуда получаем важное соотношение р (А) р (В\А) =-р (В) • р (Л В). (2) В нашем примере было Р(-4’5)-^10б0 ’ р 1бо’ р < L bl ) “ 620 ’ формула (1а) подтверждается. Пример. В некотором населенном пункте, охвачен- ном вирусным заболеванием, 80% жителей оказались больными (событие А); из каждой сотни больных в сред- нем 20 требуется срочная медицинская помощь (собы- 1 Иногда вместо р (А-В) пишут /, (Л(\В) 8-1
тие В). Найти вероятность того, что в первом попавшемся доме окажется житель, которому необходима срочная ме- дицинская помощь. Нужно найти р (АВ), так как для того чтобы вызвать срочную медицинскую помощь, необходимо, чтобы попав- шийся житель был болен (событие Л) и чтобы его болезнь была в такой стадии, которая требует срочной медицин- ской помощи (событие В). В силу условий задачи р(Л) = 0,8, р(В> А) = 0,2. Поэтому на основании формулы (1) р (ЛВ) = 0,8 0,2 _ 0,16. Может случиться, что вероятность события не зави- сит от того, осуществилось или пет некоторое другое со- бытие. Рассмотрим следующий пример. У 2 подопытных со- бак, находящихся в разных изолированных камерах, был выработан пищевой рефлекс на электрозвонок, который включался одновременно в 2 камерах от общей кнопки. Оказалось, что при включении звонка без подкрепления его безусловным раздражителем у первой собаки пищевой рефлекс включается с вероятностью 0,8, а у второй —с вероятностью 0,65. Найти вероятность того, что данное включение звонка вызовет пищевой рефлекс и у первой, и у второй подопытной собаки. Обозначим через А событие, состоящее в том, что вклю- чение звонка вызывает пищевой рефлекс у первой собаки, и через В — аналогичное событие для второй собаки. Так как нужно найти р (АВ), то мы применяем правило умно- жения: р(ЛВ) = р(Л)р(В|Л). Здесь, очевидно, р (Л) = 0,8. Но что такое р (В\А)? Со- гласно общему определению условных вероятностей, это есть вероятность того, что данное включение звонка вы- зовет появление пищевого рефлекса у второй собаки, если появится пищевой рефлекс на этот же звонок у первой собаки. Но вероятность события В не зависит от того, произошло или нет событие Л, так как обе собаки нахо- дятся в совершенно изолированных камерах. Практически это означает, что процент опытов, в которых у второй 85
собаки появится пищевой рефлекс на включение непод- крепленного звонка, не зависит от того, какой окажется нервная система у первой собаки, т. е. р(В|Л) = р(В) = 0,65. Отсюда следует, что р(А-В) = р (А}- р (В|Л) = р (Л )-р (В) = 0,8-0,65 = 0.52. Особенность, отличающая этот пример от предыдущих, состоит, как мы видим, в том, что здесь вероятность резуль- тата В не изменяется от того, что к общим условиям мы прибавляем требование, чтобы состоялось событие А. Иначе говоря, условная вероятность р (В|Л) равна безу- словной вероятности р (В). В этом случае мы будем крат- ко говорить, что событие В не зависит от события А. Легко убедиться, что если В не зависит от Л, то и Л не зависит от В; в самом деле, если р (В|Л)= р (В), то в силу формулы (2) и р (Л |В) = р (Л), а это значит, что со- бытие Л не зависит от события В. Таким образом, неза- висимость двух событий есть свойство взаимное. В общем случае, если наступление пли ненаступление одного из событий не меняет вероятности другого, то такие события называются независимыми. Мы видим, что для взаимпо независимых событий правило умножения получает осо- бенно простой вид: р (Л-В) = р (Л) р (В). (3) Подобно тому как при всяком применении правила сложения необходимо предварительно установить взаим- ную несовместимость данных событий, так и при всяком применении правила (3) необходимо убедить- ся, что события Л и В взаимно независимы. Пренебрежение этим указанием приводит к большому числу ошибок. Если события Л и В взаимно зависимы, то формула (3) не верна и должна быть заменена более общей формулой (1) или (1а). Правило (3) легко распространяется на случай, когда ищется вероятность наступления не двух, а трех или более взаимно независимых событий. Пусть, например, мы имеем три взаимно независимых события Л, В и С (это означает, что вероятность каждого из них не зависит от того, наступили или не наступили два других события). Так как события Л, В и С взаимно независимы, то по пра- 86
в ил у (3) имеем: р (А В С) = р [(Л В) С] = р (А В) р (С); вставляя же вместо р (АВ) выражение этой вероятности из формулы (3), находим: р (А В-С) = р (А)-р (В)-р (С). (4) Ясно, что такое же правило имеет место в случае, когда рассматриваемая группа содержит любое число событий, лишь бы эти события были взаимно независимы (т. е. ве- роятность каждого из них не зависела бы от наступления или ненаступления остальных событий). Вероятность совместного наступления любого числа взаимно независимых событий равна произведению вероят- ностей этих событий. Примеры: 1. Участковый врач обслуживает на дому 3 больных. Вероятность того, что в ближайший пе- риод в течение каждых суток больной не потребует внима- ния врача, равна для первого больного 0,9, для второго 0,5 и для третьего 0,7, Найти вероятность того, что в те- чение некоторых суток ни один больной не вызовет по те- лефону к себе на дом участкового врача. Считая, что пациенты врача болеют независимо друг от друга, находим по формуле (4), что искомая вероят- ность равна 0,9-0,5-0,7 = 0,315. 2. В условиях примера 1 найти вероятность того, что по крайней мере один из 3 больных не потребует внимания участкового врача в течение суток. В этой задаче речь идет о вероятности события вида А, или В, или С, и поэтому наша мысль прежде всего устремляется, конечно, к пра- вилу сложения. Однако мы немедленно убеждаемся, что это правило в данном случае неприменимо, так как любые два из трех рассматриваемых события совместимы друг с другом (ничто не мешает 2 пациентам болеть в течение одних и тех же суток), да и независимо от этого рассуж- дения мы сразу видим, что сумма трех данных вероятно- стей значительно превышает единицу и потому вообще никакой вероятностью быть не может. Вероятность того, что больной вызовет на дом врача, равна 0,1 для первого пациента, 0,5 для второго и 0,3 для третьего. Так как эти три события взаимно незави- 87
симы, то вероятность того, что осуществятся все эти три события, по правилу (4) равна 0,10,5-0,3 =-0,015. Но события «все три пациента будут вызывать врача» и «по крайней мере один из трех пациентов не вызовет вра- ча», очевидно, представляют собой пару противоположных событий. Поэтому сумма их вероятностей равна единице, и, следовательно, искомая вероятность равна 1—0,015 = 0,985. Когда вероятность события столь близка к единице, то это событие можно практически считать достоверным. Это означает, что почти всегда в течение суток по меньшей мере один из трех пациентов не будет вызывать на дом врача. То рассуждение, которым мы пользовались в последнем примере, легко может быть обобщено и приводит к важ- ному общему правилу. В этом случае речь шла о вероят- ности р (Л j + Л 2 + ... + Ат) наступления по меньшей мере одного из нескольких взаимно независимых событий Ai, А 2... Ат. Если мы обозначим через Ак событие, со- стоящее в том, что Л* не наступает, то события A h и A k взаимно противоположны, так что р(Л) + р(А)--_1. _ G другой стороны, события А 1( Л2, Ат, очевидно, взаимно независимы, так что р(Л,- А2-... Ат) = р (AJ- р (Аг)..... р (Ат) = [1 — р(Л,)]х Х[1 - р(Л2)]...[1-р(Ат)] Наконец, события A t + А2 + -.+Ат и Л1-Л2, ... Ат, очевидно, противоположны друг другу (одно из двух: либо наступает по меньшей мере одно из событий Ak, либо наступают все события Лд). Поэтому Р (Л + Л2 -н ...Ат) = 1 — р(Л,- Л2-.... Лт)=1—[1—р(Л,)]х X [1 — р (Л2)]...[1 -р(Ат)] (5) Эта важная формула, позволяющая вычислить вероят- ность наступления по меньшей мере одного (т. е. одного или более) из событий Л 1( Л2.Ат по данным вероят- ностям этих событий, верна тогда и только тогда, когда эти события взаимно независимы. В частном 88
случае, когда все события А имеют одну и ту же вероят- ность р (как это было в примере 3), Р(Л + л2+... + лт) = 1-(1-р)'». (6) 8. Формула полной вероятности Вернемся к примеру с особями двух видов на стр. 82. Мы имеем: А — особь является самцом, А — особь не является самцом, В — особь принадлежит к первому виду, В — особь принадлежит ко второму виду. Очевидно, А и А составляют пару противоположных событий; такую же пару составляют события В и В. Если особь является самцом (Л), то либо он принадле- жит к первому виду (А.В), либо ко второму (А.В). Вероят- ность того, что особь является самцом при условии при- надлежности ко второму виду, равна, как мы видели уже не раз, р(Л/В) = ^ = 0,55; вероятность того же события при условии, что самец при- надлежит к первому виду, составляет р(а;в)=^=о,65. Допустим, что эти два числа нам известны и что известны также вероятности принадлежности особи к первому виду р(В) = 0,7 и ко второму р(В) = 0,3. Требуется найти безусловную вероятность р (Л), т. е. вероятность того, что особь является самцом, вычислен- ную без всяких предположений о принадлежности его к первому или второму виду. Чтобы решить эту задачу, будем рассуждать так. Обо- значим через Е двойное событие, состоящее в том, что: 1) особь принадлежит к первому виду п 2) она является сам- цом, а через F — такое же событие для второго вида. Так 89
как всякий самец рассматриваемой популяции принад- лежит к первому или второму виду, то событие А равно- сильно событию Е 4- F, а так как события Е и F друг с другом несовместимы, то по правилу сложения pM) = p(£) + p(F). (1) С другой стороны, чтобы имело место событие Е, необ- ходимо: 1) чтобы особь принадлежала к первому виду (В) и 2) чтобы она являлась самцом (Л); поэтому событие Е равносильно событию В.А, откуда по правилу умноже- ния р(Е) = р(В)-р(Л|В). Совершенно таким же путем находим: р (F) — р (В) р (А\В); подставляя эти выражения в равенство (1), получаем" р (А)= р (В) -р(А\В) р(В) -р (А\В). 2) Эта формула и решает поставленную нами задачу. Под- ставляя данные числа, находим (см. также вывод в разде- ле 7, стр. 84). р (Л) = 0,7-0,65 + 0,3-0,55 = 0,62. Пример. Для посева заготовлены семена пшеницы сорта J, содержащие небольшое количество примесей других сортов — II, III, IV. Возьмем одно из этих зерен. Событие, состоящее в том, что это зерно сорта I, обозна- чим через Л ь что оно сорта 11 — через Л 2, сорта III — через Л3 и, наконец, сорта IV — через Л4. Известно, что вероятности того, что наудачу взятое зерно окажется того или иного сорта, равны: р (Л,) = 0,96; р(Л2) = 0,01; р (ЛД = 0.02; р(Л4) = 0,01 (сумма этих четырех чисел равна единице, как это и долж- но быть для полной системы событий). Вероятность того, что из зерна вырастает колос, содер- жащий не менее 50 зерен, равна: 0,50 из зерна сорта I, 0,15 из зерна сорта II, 0,20 из зерна сорта III, 0,05 из зерна сорта IV. 90
Требуется найти безусловную вероятность того, что колос будет иметь не менее 50 зерен [46]. Пусть к — событие, состоящее в том, что к злое будет содержать не менее 50 зерен; тогда по условию задачи р (/c|Aa) = 0,5; р (/с|.42) = 0,15; р (/с|Ла) = 0.2; р (к\А^ = 0,05. Наша задача состоит в определении р (к). Обозначим через Et событие, состоящее в том, что зерно окажется сорта I и колос, выращенный из него, будет содержать не менее 50 зерен, так что Ег равносильно событию (Ai-k). Подобным же образом обозначим через: Е2 — событие (А 2 -к), Е3 — событие (А3-к), Et — событие (А4-к). Очевидно, что для наступления события к необходимо, чтобы наступило одно пз событий Et, Е2, Е3, Eit а так как любые два из этих событий друг с друюм несовместимы, то по правилу сложения получаем: p(/C) = p(E1) + p(E2) + p(Es) + p(^4), (3) С другой стороны, по правилу умножения, ptE^p^-k^ptAJ-p^AJ, р(^2) =/>(Л2.70 = р (Лв).р(*|Аа), Р (£з) = Р (Л *) = Р U,) Р (*Из)> Р (EJ = p(At-k) = p (Л4) р (k\At). Вставляя эти выражения в равенство (3), мы находим: р(к) = р (Л,).р (k\AJ + P (Аг)-р(к\А.) +р (А,)р (*И,) + + ?М4).р(/с|Л4), что и решает, очевидно, нашу задачу. Подставляя данные числа, находим: р (к) = 0,486. Два примера, которые мы здесь подробно рассмотрели, приводят нас к важному общему правилу, мы можем те- перь сформулировать и доказать его без всяких затрудне- ний. Пусть данная операция допускает результаты AltA2> ..., Ат, образующие полную систему событий (это оз- 91
начает, что любые два из этих событий друг с другом несов- местимы и что какое-нибудь из них обязательно должно наступить). Тогда для любого возможного результата к этой операции имеет место соотношение Р (к) = Р (А J • Р (Ф г) + - • + Р (А J ‘ Р (к\Ат) = т =£ p^ilx-pu^i)- (4) Соотношение (4) обычно называют формулой полной ве- роятности.
ГЛАВА 3 • СЛУЧАЙНЫЕ ВЕЛИЧИНЫ 1. Случайная величина В предыдущей главе мы много раз уже встречались с такими величинами, численное значение которых не может быть раз навсегда определено, а меняется под влия- нием случайных воздействий. Приведем еще несколько примеров величин такого рода. 1. Подавая калиброванное раздражение околопоро- говой силы на одну и ту же группу афферентных волокон и при одних и тех же неизменных условиях опыта, мы тем не менее наблюдаем, что в каждом опыте возбуждается неодинаковое количество нейронов. Число возбуждаю- щихся нейронов есть величина, в различных опытах получающая в зависимости от не поддающихся предвари- тельному учету случайных обстоятельств различные значения. 2. Малые (±5 лыи рт. ст.) колебания систолического кровяного давления происходят от разнообразных не поддающихся учету причин. Ввиду того что для нормаль- ного организма колебание кровяного давления такого масштаба может наступить или не наступить, такие коле- бания носят чисто случайный характер. 3. Число колониальных птиц, заселяющих данный морской остров в период гнездования, в разные годы не постоянно, а подвержено значительным колебаниям в зависимости от целого ряда обстоятельств случайной природы. 4. Вес зерен пшеницы, выращенных на некотором участке, не равен некоторой определенной величине, а меняется от одного зерна к другому. В силу невозмож- ности учесть влияние всех факторов (качество участка почвы, на котором вырос колос с данным зерном, условия 93
освещения зерна, водный режим и пр.), определяющих рост зерна, его вес является величиной со случайным характером колебаний значения. 5. Количество пациентов, приходящих на прием в данную поликлинику, изо дня в день меняется в силу целого ряда случайных причин. Несмотря на всю разнородность рассмотренных при- меров, все они с интересующей нас теперь точки зрения представляют собой одну и ту же картину. В каждом из этих примеров мы имеем дело с величиной, так или иначе характеризующей результат предпринятой операции (на- пример, счета числа возбужденных нейронов, измерения кровяного давления); каждая из этих величин может при различных операциях, какими бы однородными мы пи старались сделать их условия, принимать различные значения в зависимости от ускользающих от нашего контроля случайных различий в обстановке этих опера- ций. Такого рода величины, принимающие в зависимости от результатов одной и той же операции то или иное численное значение (причем неизвестно заранее, какое именно), в теории вероятностей называются случайными величинами. Случайные величины служат главным предметом при- ложений теории вероятностей. Приведенных здесь приме- ров уже достаточно, чтобы убедить нас, сколь важным может быть изучение закономерностей случайных величин для приложений теории вероятностей к самым разнооб- разным областям биологии и медицины. Случайную величину следует отличать от случайного события, так как для последнего случайным является его появление: для случайной же величины появление ее не вызывает сомнения, и случайным является ее значение. Примером случайного события может служить, например, возбуждение того или иного отдельного нейрона при подаче тестового сигнала на афферентные волокна, примером случайной величины — число возбудившихся в данном опыте нейронов. В зависимости от типа того множества значений, кото- рые может принимать случайная величина, выделяют два наиболее важных типа случайных величин: дискрет- ный и непрерывный. Возможные значения дискретных величин могут быть заранее перечислены. Возможные значения непрерывных величин не могут 94
быть заранее перечислены и непрерывно заполняют не- который промежуток (принимают все значения некоторого интервала). Так, случайные переменные, приведенные в первом, третьем и пятом примерах. — дискретного типа; случайная величина во втором и четвертом примерах — непрерыв- ного типа. Задать данную случайную величину — это не значит, конечно, знать ее численное значение, ибо если мы, например, знаем, что калиброванный залп возбудил 7 нейронов, то тем самым уже этот результат пригял определенное численное значение и перестал быть слу чайной величиной. Что же мы должны знать о случайной величине, для того чтобы иметь всю возможную полноту сведений о ней именно как о случайной величине? Очевидно, для этого прежде всего мы должны знать все численные значения, которые она способна принимать. Так, если при тестовом возбуждении группы афферентных нейронов в некоторых определенных условиях опыта наименьшее количество возбуждающихся нейронов равно двум, а наибольшее — десяти, то результаты данной серии опытов способны принимать все значения, заклю- ченные между этими двумя границами. В пятом примере очевидно, что число пациентов, приходящих на ежеднев- ный прием, может иметь своим численным значением любое целое неотрицательное число от 0 и, скажем, до 300 и т. д. Однако знание лишь одного перечня возможных значений случайной величины не дает о ней еще таких сведений, которые могли бы служить материалом для практически необходимых оценок. Так, если рассмотреть взрослое население в возрасте 20—40 лет с точки зрения состояния их кровяного давления в условиях средних широт и тропиков, то границы возможных численных значений кровяного давления для обеих групп скорее всего одни и те же, и, следовательно, перечень этих зна- чений не дает возможности какой-либо сравнительной оценки влияния различных широт. Между тем различие широт указывает на весьма су- щественное различие в кровяном давлении для населения этих широт — различие, о котором один только перечень возможных значений кровяного давления не дает нам никаких представлений. Если мы хотим оценить, например, влияние географической широты, а нам дают только список 95
возможных значений кровяного давления для населения этой широты, то мы, естественно, спрашиваем, как часто наблюдается та или иная величина кровяного давления. Другими словами, мы стремимся узнать вероятности’ различных возможных значений интересующей нас слу- чайной величины. 2. Функция распределения Возьмем для начала следующий простой пример. Устанавливается диагноз болезни. Применение различных диагностических методов дает три возможных исхода: 1) установленный диагноз полностью соответствует реаль- ной болезни, 2) диагноз частично соответствует реальной болезни и 3) диагноз не соответствует болезни. Введем трехбальную систему оценки каждого применяемого диагностического метода: получение 1-го исхода (точный диагноз) дает методу 3 балла, 2-го исхода — 2 балла и 3 исхода (ошибочный диагноз) — 1 балл. Рассмотрим в качестве случайной величины X число баллов, получаемых применяемым диагностическим мето- дом за отдельный результат; возможными значениями здесь служат числа 1, 2 и 3; обозначим соответственно через р2 и р3 вероятности этих трех значений, так что, например, р3 означает вероятность точного диагноза. В то время как возможные значения нашей случайной величины для всех диагностических методов одни и те же, вероятности plt р2 и р3 для различных методов могут весьма существенно отличаться друг от друга, и очевидно, что этим различием и определяется различие в качестве диагностики. Так, для очень хорошего диагностического метода может быть, например, р3 — 0,8, р2 — 0,2, pt = 0; для среднего метода р3 — 0,3, р2 = 0,5, pt — 0,2; для совсем плохого диагностического методар3 = 0,1, р2 =0,3, Pt = 0,6. Если в некоторой больнице производится диагности- рование 100 больных, то возможными значениями числа диагнозов с 1-м, 2-м и 3-м исходами будут служить все целые числа от 0 до 100 включительно; но сам по себе этот факт еще не дает нам возможности судить о качестве диагностики; напротив, мы можем составить себе исчер- пывающее представление об этом качестве, если, кроме пределов возможных значений числа диагнозов (здесь 96
О—100), нам даются и вероятности этих значений, т. е. числа, показывающие, как часто применение данного диагностического метода дает тот или иной результат. Ясно, что так будет обстоять дело и во всех случаях; зная вероятности различных возможных значений слу- чайной величины, мы тем самым будем знать, как часто следует ожидать появление более выгодных или менее выгодных ее значений; а этого, очевидно, достаточно для суждения- об эффективности или доброкачественности той операции, с которой связана данная случайная вели- чина. Практика показывает, что знания вероятностей всех возможных значений изучаемой случайной величины обычно вполне достаточно для решения любого вопроса, связанного с оценкой этой случайной величины как показателя доброкачественности соответствующей опе- рации. Итак, мы приходим к выводу, что для полной характеристики той или другой случайной величины как таковой необходимо и достаточно знать: 1) перечень всех возможных значений этой случайной величины и 2) вероятность каждого из этих значений. Отсюда видно, что задавать случайную величину удобно посредством таблицы из двух строк; верхняя строка содержит в каком-нибудь порядке возможные значения случайной величины, а нижняя — их вероят- ности, так что под каждым из возможных значений стоит его вероятность. Так, в рассмотренном выше примере число баллов, набираемых при одном диагнозе лучшим из диагностических методов, может, как случайная величи- на, быть представлено таблицей (1) Условимся случайные величины обозначать большими буквами, а их возможные значения — соответствующими малыми буквами. Например, X — число баллов, полу- чаемых применяющимся диагностическим методом, его возможные значения: х^ = 1; = 2; х3 = 3. 4 Черныш В. И. 97
Рассмотрим дискретную случайную величину X с возможными значениями xi, х2, хп. Каждое из этих значений возможно, но не достоверно, а величина X может принять каждое из них с некоторой вероятностью. В результате операции величина X примет одно из этих значений, т. е. произойдет одно из полной группы несов- местимых событий: Х = х1 Х = хг (1) Х = хп Обозначим вероятности этих событий буквами р с соответствующими индексами: Р(Х = х1) = р,- P(X = x2) = pt‘, ... Р(Х=хп) = рп. Так как несовместимые события (1) образуют полную группу, то п Х = 1 т. е. сумма вероятностей всех возможных значений слу- чайной величины равна единице. Эта суммарная вероят- ность каким-то образом распределена между отдельными значениями. Случайная величина может быть полностью описана с вероятностной точки зрения, если мы зададим это распределение, т. е. в точности укажем, какой вероятностью обладает каждое из событий (1). Этим мы установим так называемый закон рас- пределения случайной величины. Законом распределения случайной величины называется всякое соотношение, устанавливающее связь между воз- можными значениями случайной величины и соответст- вующими им вероятностями. Про случайную величину мы будем говорить, что она подчинена данному закону распределения. Установим форму, в которой может быть задан закон распределения случайной величины X. Простейшей формой задания этого закона является принятая нами таблица типа (1), в которой перечислены возможные 98
значения случайной величины и соответствующие им вероятности Pi Рг ••• Рп Такую таблицу мы будем называть рядом распределе- ния случайной величины X. Чтобы придать ряду распределения более наглядный вид, часто прибегают к его графическому изобра- жению: по оси абсцисс откладывают возможные значения случайной величины, а по оси ординат — вероятности этих значений. Для наглядности полученные точки соеди- няются отрезками прямых. Такая фигура называется многоугольником распределения (рис. 3). Иногда вероят- ности изображают столбиками, и вся фигура получает вид лесенки; такого типа график называют гистограммой. Многоугольник распределения, так же как и ряд распределения, полностью характеризует дискретную случайную величину; он является одной из форм закона распределения. Однако эти характеристики не являются универсальными. Для непрерывной случайной величины таких характеристик построить нельзя. Действительно, непрерывная случайная величина имеет бесчисленное (несчетное) множество возможных значений, сплошь заполняющих некоторый промежуток. Составить таблицу, в которой были бы перечислены все возможные значения 4* 99
такой случайной величины, невозможно. Кроме того, каждое отдельное значение непрерывной случайной ве- личины (ведь оно является одной из бесконечного коли- чества возможностей!) не обладает никакой отличной от нуля вероятностью. Следовательно, для непрерывной случайной величины не существует ряда распределения в том смысле, в каком он существует для дискретной ве- личины. Однако различные области возможных значений случайной величины все же не являются одинаково ве- роятными, и для непрерывной величины существует рас- пределение вероятностей, хотя и не такое по характеру, как для дискретной. Для количественной характеристики этого распределе- ния вероятностей удобно пользоваться не вероятностью события X = х, а вероятностью события X <Zx, где X — некоторая текущая переменная. Вероятность этого события, очевидно, зависит от х, есть некоторая ф у н к- ц и я от х. Эта функция называется функцией распределе- ния случайной величины X и обозначается F(x)\ F(x) = P(X< х). (2) Функцию распределения F (х) иногда называют также интегральной функцией распределения, или интегральным законом распределения. Функция распределения— самая универсальная харак- теристика случайной величи- ны. Она существует для всех случайных величин, как ди- скретных, так и непрерыв- ных. Функция распределения полностью характеризует случайную величину с веро- ятностной точки зрения, т. е. представляет собой одну из форм закона распределения. График функции распре- деления F (х) в общем слу- чае — это график неубываю- щей функции (рис. 4 и 5), значения которой начина- ются от 0 и доходят до 1, причем в отдельных точках функция может иметь скачки (разрывы). 100
Зная ряд распределения дискретной случайной вели- чины, можно легко построить функцию распределения этой величины. Действительно, F (х)=Р (X <Z х) = (X — Xt), xl<Zx, х«х где неравенство Xi <Zx под знаком суммы указывает, что суммирование распространяется на все те значения xt, которые меньше х. Когда текущая переменная х проходит через какое- нибудь из возможных значений дискретной величины X, функция распределения меняется скачкообразно, причем величина скачка равна вероятности этого значения. Примеры. 1. Построим функцию распределения числа набираемых баллов для лучшего диагностического метода, рассмотренного нами в примере, приведенном в начале этого раздела. Ряд распределения для этого метода имел вид: Находим: при значении я = 0 О х < 1 1 ==Sz <2 2=Ся < 3 3 Я/ 1 2 3 Pi 0 0,2 0,8 F (х) становится равной = Р(Х <я) = 0 = 0 =0+0=0 =0+0+0,2 = 0,2 = 0+0 + 0,2+0,8=1 По полученным значениям функции распределения F (х) строим ее график (рис. 4). В точках разрыва функция F (х) принимает значения, отмеченные на графике точками (функция непрерывна слева). Пример 2. Число баллов, набираемое за диагноз одного больного одним диагностическим методом, имеет ряд распределения таблицы (1); такое же число баллов для другого диагностического метода имеет другой ряд распределения: У1 1 2 3 Pi 0,2 0,5 0,3 (2) 101
Нужно найти ряд и функцию распределения для суммы баллов, набираемых обоими методами. > Ясно, что сумма, о которой идет речь,— случайная величина; наша задача — составить ее таблицу. Для этого мы должны рассмотреть все возможные результаты сов- местного диагноза нашими двумя методами; мы распо- ложим эти результаты в следующую таблицу, где вероят- ность каждого результата вычисляется по правилу умно- жения для независимых событий и где х означает число баллов, набираемых за диагноз первым диагностическим методом, а у — число баллов, набираемых вторым диа- гностическим методом. pt = ^р (х) р (у) — вероятности результата обследования обоими методами; Таким образом, для случайной величины X + Y мы Таблица (3) полностью решает поставленную задачу. Сумма всех четырех вероятностей в таблице (3) равна единице (0,04 + 0,26 + 0,46 + 0,24 = 1); этим свойством должен, конечно, обладать каждый закон распределения, так как речь идет о сумме вероятностей всех возможных значений случайной величины, т. е. о сумме вероятностей некоторой полной системы событий. Этим свойством за- конов распределения удобно пользоваться как контроль- 102
ным приемом для проверки правильности произведенных вычислений. Функцию распределения случайной величины X + У строим тем (стр. 101). на рис. 5. же путем, какой был применен в примере 1 График функции распределения представлен случайной величины ними число скачков Функция распределения любой дискретной величины всегда есть разрывная ступенчатая функция, скачки кото- рой происходят в точках, соответствующих возможным значениям случайной величины и равны вероятностям этих значений. Сумма всех скачков функции F (х) равна единице. По мере увеличения числа возможных значений и уменьшения интервалов между становится больше, а сами скач- ки —меньше; ступенчатая кри- вая становится более плавной; случайная величина постепен- но приближается к непре^ рывной величине, а ее функ- ция распределения — к непре- рывной функции (рис. 6). Пусть теперь мы имеем непрерывную случайную вели- чину X с функцией распреде- ления F (х), которую мы пред- положим тоже непрерывной. Вычислим вероятность попада- ния нашей случайной величины на участок от я: до х + Д х-. Р (х < X < х + Дж) = F (х 4- Дж) — F (х). 103
Рассмотрим отношение этой вероятности к длине вы- деленного нами участка Дх, т. е. среднюю веро- ятность, приходящуюся на единицу длины на этом участке, и будем затем еще больше сужать Дх, приближая его к нулю. В пределе (обозначается: lim) получим про- изводную от функции распределения: lim ^(г + Д*)-^) = F>(x] (3) Дж-*0 Дя V ' V Условимся обозначать: F'lx) = f(x). (4) Функция / (х) характеризует как бы плотность, с которой распределяются значения случайной величины в данной точке. Эта функция называется плотностью распределения (иначе тлотностъю вероятности») непре- рывной случайной величины X. Кривая, изображающая плотность распределения случайной величины, называется кривой распределения (рис. 7). Пример. Построим кривую распределения для графика теплоотдачи кисти руки человека при темпера- туре 15°, приведенного на рис. 8, а. Для этого проведем горизонтальные прямые и, подсчитывая число пересе- чений этих прямых с графиком нашей функции Q (Z), построим ио полученным значениям искомую кривую распределения / (Q). Очевидно, чем больше участок 104
исследуемого графика, тем точнее определение кривой распределения вероятностей. Описанный прием, очевидно, пригоден только в тех случаях, когда мы имеем в своем распоряя«ении отрезок кривой с достаточно большим числом волн, как в примере рис. 8, а. Можно, однако, выполнить аналогичное построе- ние и по кривой с небольшим сравнительно числом волн. Для этой цели следует вместо подсчета количества пересечений измерить для каждой из горизонталей общее протяжение всех участков, на которых кривая пролегает выше данной горизонтали (рис. 8, б). Отно- шения полученных суммарных протяжений ко всей длине абсциссы измеряемого куска кривой образуют ряд значений, соответствующих по смыслу функции рас- пределения F (х). Результат получится тем точнее, чем 105
больше находящийся в нашем распоряжении отрезок кривой, и тем детальнее, чем меньше будут промежутки между смежными горизонталями. Если вместо значений функции F (х) нанести на график разности значений ее между каждыми двумя смеж- ными горизонталями, то мы получим кривую распреде- ления / (х) для заданной экспериментальной кривой. Плотность распределения, так же как и функция распределения, есть одна из форм закона распределения. В противоположность функции распределения эта форма не является универсальной: она существует только для непрерывных случайных величин. Рассмотрим непрерывную случайную величину X с плотностью распределения / (х) и элементарный (пре- дельно малый) участок dx, примыкающий к точке х (рис. 7). Вероятность попадания случайной величины X на этот элементарный участок (с точностью до бесконечно малых величин) равна / (х) dr. Величина / (х) dx называется элементом вероятности. Геометрически это есть площадь элементарного прямоугольника, опирающегося на отре- зок dx (рис. 7). Выразим вероятность попадания величины X на отрезок от хI до х2 (рис. 7) через плотность распределения. Очевидно, она равна сумме элементов вероятности на этом участке, т. е. интегралу: х2 Р(х,<Х<хг) = J / (х) dx. (5) Следовательно, вероятность попадания величины X на участок (j?i, х2) (т. е. вероятность того, что X примет какое-нибудь значение от х4 до z2) равна площади кривой распределения, опирающейся на этот участок (рис. 7). Геометрически основные свойства плотности распре- деления сводятся к тому, что: 1) вся кривая распределения лежит не ниже оси аб- сцисс; 2) полная площадь, ограниченная кривой распреде- ления и осью абсцисс, равна единице: + СП S — У / (x)dx = i — со 106
3. Среднее значение (математическое ожидание) В предыдущем разделе мы познакомились с рядом полных, исчерпывающих характеристик случайных ве- личин, так называемых законов распределения. Такими характеристиками были: для дискретной случайной величины: а) функция распределения; б) ряд распределения (графически — многоуголь- ник распределения или гистограмма); для непрерывной величины: а) функция распределения; б) плотность распределения (графически — кривая распределения). Каждый'закон распределения представляет собой не- которую функцию и указание этой функции полностью описывает случайную величину с вероятностной точки зрения. Однако во многих вопросах практики нет необходи- мости характеризовать случайную величину полностью, исчерпывающим образом. Зачастую достаточно бывает указать только отдельные числовые параметры, до неко- торой степени характеризующие существенные черты распределения случайной величины: ее среднее значение, число, характеризующее степень разбросанности ее зна- чений относительно среднего и т. д. Пользуясь такими характеристиками, мы стремимся все существенные сведения относительно случайной величины, которыми мы располагаем, выразить наиболее компактно с помощью минимального числа числовых параметров. Такие харак- теристики,. назначение которых выразить в сжатой форме наиболее существенные особенности распределения, назы- ваются числовыми характеристиками случайной величины. В теории вероятностей числовые характеристики й операции с ними играют огромную роль. С помощью числовых характеристик существенно облегчается решение многих вероятностных задач. Очень часто удается решить задачу до конца, оставляя в стороне законы распределения и оперируя одними числовыми характеристиками. В теории вероятностей и математической статистике применяется значительное количество числовых харак- теристик, имеющих различное назначение и различные 107
области применения. Из них мы рассмотрим только некоторые, наиболее часто применяемые. Среди числовых характеристик случайных величин нужно прежде всего отметить те, которые характеризуют положение случайной величины X на ее числовой оси х, т. е. указывают некоторое среднее, ориентировочное значение, около которого группируются все возможные значения случайной величины. Среднее значение случайной величины X есть некото- рое число, являющееся как бы «представителем» и заме- няющее ее при грубо ориентировочных расчетах. Когда мы говорим: «средняя продолжительность жизни у нас равна 65 годам» или «средний район гнездования прилет- ных птиц в данной местности сместился на 30 км к югу», мы этим указываем определенную числовую характери- стику случайной величины, описывающую ее местополо- жение на числовой оси, т. е. «характеристику положения». Из характеристик положения в теории вероятностей важнейшую роль играет среднее значение случайной вели- чины, которое часто называют математическим ожиданием случайной величины X. Среднее значение обозначается через х [иногда через М (ж)]. Начнем с дискретной случайной величины X. Пусть по каждому из встречаемых значений этой величины жь х2, ..., Xk собрано соответственно «1, п2, ..., наблюде- ний (или операций). В каких бы единицах ни были выра- жены значения х, очевидно, что по значению х{ окажутся накопленными этих единиц и ио каждому из наблю- давшихся значений xt — аналогичным образом пгжг еди- ниц. Так как общее число собранных нами наблюдений (операций) равно k п1 + пг+ -• + nk='^t nt = N, то ясно, что если разложить поровну все набранное коли- k чество единиц, т. е. 2 п;жг, на общее число наблюдений i = l 2П|, то на одно наблюдение в среднем придется k V ntxt li (1) 108
Полученная величина, обозначаемая х, носит название среднего арифметического по случайной величине X. В том нередком на практике случае, когда числа наблю- дений по всем дискретным значениям х одинаковы так, ЧТО = п2 = ... Пк = п, это число п можно выпести в формуле (1) за знак суммирования. Формула прини- мает тогда более простой вид: 1г (2) г=1 Величину х обозначают еще как среднее взвешенное или как математическое ожидание величины X. Оба тер- мина требуют пояснения. Смысл термина «среднее взвешенное» понятен: чем реже (т. е. в меньшем числе ref случаев) встречается то или иное Х{, тем, естественно, меньшее влияние это xt оказывает на итог и, тем самым, на среднее. Наоборот, более частые значения данной случайной величины как сравнительно более типичные, характерные для нее, дают о ней и более вескую информацию. Этот признак сравни- тельной весомости данных и отражен как в формуле (1), так и в термине «среднее взвешенное». Термин «математическое ожидание» исторически возник из анализа шансов игроков в азартных играх; там среднее взвешенное или математическое ожидание выражает собою ту цифру выигрыша (или штрафа), какую игрок может в среднем ожидать за одну игровую операцию (ход, бан- кометание и т. п.). Но этот же термин имеет реальный смысл и в биологии, подчеркивая то предсказательное или прогностическое значение, какое может иметь стати- стически выведенное среднее арифметическое. Ограни- чимся перечнем немногих примеров: а) ожидаемое число заболеваний с данным диагнозом, в данной местности на известный период времени вперед; б) ожидаемая величина прироста веса грудного ребенка за первый месяц или квартал его жизни в условиях данного выверенного ясель- ного режима; в) ожидаемые количества дождей или выпав- ших осадков на такой-то месяц на такой-то агроплощадке и многое другое. Часто встречается необходимость найти среднее значе- ние для суммы двух (или больше) случайных величин. Пусть это случайные величины X и У, средние значения 109
которых, х та. у, известны. Если X и У относятся к двум совершенно независимым и не перекрывающимся контин- гентам наблюдений, то для нахождения общего среднего но сумме обоих контингентов X + У = Z имеет место очень простое правило: искомое среднее z равно всегда сумме средних каждого контингента, т. е. z = х + у, ___________________________________ k в общем же случае к контингентов z по сумме SJQ равно fe 1 Zxt. Например, если средняя мера осадков за июль для округа А составляет пА см, а для округа В — пв см, то по обоим округам вместе взятым она, естественно, составит пА + пв см. Тот же вопрос, который мы решили для суммы случай- ных величин, иногда приходится рассматривать и для их произведений. Задача состоит в отыскании такого правила, которое позволило бы во всех случаях выражать среднее значение ху величины XY через сред- ние значения сомножителей. Однако в общем случае решение этой задачи оказывается невозможным. Знанием средних значений х и у величина ху, вообще говоря, не определяется однозначно (т. е. при одних и тех же х и у возможны различные значения величины хуу, вследствие этого никакой общей формулы, выражающей ху через х и у, существовать не может. Но есть один важный случай, когда такое выражение возможно, и тогда получаемая связь носит чрезвычайно простой характер. Условимся называть случайные величины X и У вза- имно независимыми, если события X = х, и У = у} при любых i и j взаимно независимы, т. е. если условие, что одна пз наших двух случайных величин приняла то или другое конкретное значение, не влияет на закон распре- деления второй случайной величины. Если величины X и У взаимно независимы в только что определенном смысле и если вероятности случайных событий xt по первой величине соответственно равны pt, а (независимые от них) вероятности событий г/у по второй величине равны qf, то по правилу умножения вероятностей независимых событий (см., стр. 86) Pij = Рг<Ь, где i = 1, 2, 3 ... I 7 = 1, 2, 3 ... / ПО
Величина рц выраягает вероятность того, что произ- ведение наших двух величин составится из значений и У]. Сумма произведений каждой мыслимой попарной комбинации Xiyj на вероятность этой комбинации рц и дает нам искомое среднее значение произведения, ху (так как ведь каждая из вероятностей р и q есть реальное число наблюдений с данным значением случайной вели- чины, деленное на все совокупное количество наблюдений N). Таким образом * i k i = IL Pij= £ £ х,у f(p,qj) = 1 1 k I 1 = 1 /=1 (3) Для взаимно независимых случайных величин среднее значение их произведения равно произ- ведению средних значений сомножителей. Пример. По участку нервного волокна, электриче- ское сопротивление которого зависит от случайных обстоятельств, проходит ток действия, сила которого также зависит от случая. Пусть будет установлено, что среднее значение сопротивления данного участка нервного во- локна равно 20-10’ ом, а средняя сила тока равна 10~9 а. Требуется подсчитать среднее значение электродвижущей силы Е проходящего по волокну тока. Согласно закону Ома E = RI, где R — сопротивление участка нервного волокна, I — сила тока. Так как по нашему допущению г = 20-10’, Г=1-10-э, то, положив величины R и I взаимно независимыми, находим, что е = г i = 20-10’ • 1 • 10-9 = 20 10'3e —2U мо, 111
4. Среднее квадратическое уклонение и дисперсия Мы видели, что среднее значение случайной величи- ны дает первое примерное, ориентировочное представление о ней, и есть много случаев, когда для практических це- лей, стоящих перед нами, этого представления бывает достаточно. Так, для сравнения двух методов диагно- стирования для отбора лучшего из них могло быть доста- точным знание средних значений чисел набираемых ими баллов. В подобных случаях мы получаем существенную выгоду, описывая нашу случайную величину одним чис- лом—ее средним значением вместо того, чтобы задавать ее сложным законом распределения. Дело обстоит так, как будто бы перед нами была не случайная, а достоверно известная величина с совершенно определенным значением. Однако гораздо чаще встречается другое положение вещей, когда наиболее важные для практических целей черты случайной величины ни в какой мере не опреде- ляются ее средним значением, а требуют более детального знакомства с ее законом распределения. Типичный случай этого рода мы имеем при исследовании распределения ошибок измерений. Пусть X — величина ошибки, т. е. отклонение полученного значения измеряемой величины от ее истинного значения. При отсутствии систематиче- ских ошибок среднее значение ошибки измерения, которое мы обозначим через х, равно нулю. Допустим, что изме- рения происходят именно при таком условии. Спраши- вается, как будут распределяться ошибки? Как часто будут встречаться ошибки той или иной величины? На все эти вопросы мы, зная только значение х = 0, не можем получить никакого ответа. Мы знаем только, что воз- можны ошибки положительные и отрицательные и что их шансы примерно одинаковы, ибо среднее значение величины ошибки равно нулю. Но мы не знаем самого главного: будут ли результаты измерений в своем боль- шинстве л<эжиться близко к истинному значению измеряе- мой величины, так что можно будет рассчитывать с боль- шой надежностью на каждый результат измерения, или же они в своей основной массе будут раскиданы на боль- ших расстояниях от истинного размера по обе стороны. Обе возможности вполне допустимы. Два экспериментатора могут, производя измерения с одним и тем же средним значением ошибки х, давать 112
измерения различной степени точности. Может случиться, что один из них дает систематически большее «рассеяние» результатов измерений, чем другой. Это означает, что у этого экспериментатора ошибки в среднем могут прини- мать бблыпие значения, а значит измерения будут дальше отстоять от измеряемой величины, чем у другого. И это возможно, хотя для обоих экспериментаторов средняя величина ошибки измерения одна и та же. Рассмотрим другой пример. Представим себе, что испы- тываются на урожайность два сорта пшеницы. В зависи- мости от случайных обстоятельств (количество осадков, распределение удобрений, солнечная радиация и пр.) урожай с квадратного метра подвержен значительным колебаниям и представляет собой случайную величину. Предположим, что при одинаковых условиях средний урожай для каждого сорта один и тот же — 240 г с квад- ратного метра. Можно ли судить о качестве испытываемого- сорта только по значению среднего урожая? Очевидно, что нет, так как наибольший хозяйственный интерес представ- ляет тот сорт, урожайность которого меньше подвержена случайным влияниям метеорологических и других факто- ров, иными словами, для которого «рассеяние» урожай- ности меньше. Мы видим, таким образом, что при испыта- нии того или иного сорта пшеницы на урожайность не меньшее значение, чем средняя урожайность, имеет размах возможных ее колебаний. Приведенные примеры, так же как и ряд других, аналогичных, убедительно показывают, что во многих случаях для описания практически наиболее интересных черт случайных величин задания их средних значений бывает совершенно недостаточно. Эти практически инте- ресные черты при таком задании остаются совершенно- неизвестными, и для освещения их мы должны либо иметь перед собой всю таблицу распределения такой величины, что практически почти всегда сложно и не- удобно, либо постараться, кроме среднего значения такой величины, ввести для ее описания еще одно — два числа подобного -же рода, чтобы в своей совокупности эта не- большая группа чисел давала практически достаточную характеристику тех черт изучаемой величины, которые- представляются нам наиболее существенными. Посмот- рим, как может быть осуществлена эта последняя воз- можность. 113
Как показывают рассмотренные нами примеры, во многих случаях практически наиболее важным оказы- вается вопрос о том, насколько велики, вообще говоря, •отклонения значений, фактически принимаемых данной случайной величиной, от ее среднего значения, т. е. как сильно эти значения раскиданы, рассеяны, будут ли они по большей части тесно сгруппированы вокруг среднего значения, а значит, и между собой, или, напротив, боль- шинство из них будет отличаться от среднего значения очень резко (в этом случае некоторые из них по необхо- димости будут значительно отличаться друг от друга). Таким образом, наша задача — найти число, которое разумным образом могло бы давать нам меру рассея- ния случайной величины, которое хотя бы ориентировочно указывало нам, сколь больших отклонений этой величины от ее среднего значения нам следует ожидать. Отклонение л: — х случайной величины X от ее среднего значения х само есть, очевидно, случайная величина; случайной величиной будет и абсолютное значение | х — х | этого отклонения, характеризующее его размер вне зависимости от знака. Желательно иметь число, которое могло бы ори- ентировочно охарактеризовать это случайное отклонение ]х — х\, сказать нам о том, сколько большим, примерно, может оказаться это отклонение. Для решения этого вопроса существует много различных способов, из кото- рых наиболее употребительными на практике являются: 1) среднее абсолютное уклонение, 2) среднее квадратическое уклоне- ние и 3) дисперсия. За ориентировочное значение величины | х — х | естественнее всего и здесь принять ее среднее значение }х —х\. Это среднее значение абсолютной величины укло- нения называют средним абсолютным уклонением величины X. Если случайная величина X задается таблицей х1 Х2 ... хк Р1 Рг ... Рк Ш
то таблица случайной величины |я—я:| имеет вид: l*i—|*2—*1 ... I**—*1 Pi Рг ... Рк где x = ZxiPt. (3) i = i Для среднего уклонения Мх величины X мы имеем формулу, во всем аналогичную формуле (3): k Мх = \х—х\= ^\xt-x\-pi, (4) _ к где, разумеется, снова х = SxfPi. i = i Пример. Вычислим средние уклонения для слу- чайных величин, определяемых таблицами (1) и (2) на стр. 97—101. Мы видели, что средние значения этих величин соответственно равны 2,1 и 2,2, т. е. близки друг другу. Среднее абсолютное указание для первой величины равно Afx(1, = | 1-2,1 |.0,4+|2—2,1 |. 0,1 + /3—2,1|-0,5=0,9, а для второй Л/х<2) = | 1 —2,21-0,1+ |2—2,21-0,6+ |3—2,2 f-0,3 = 0,48. Мы видим, что для второй величины среднее уклонение почти вдвое меньше, чем для первой; практически это означает, очевидно, что хотя в среднем оба диагности- ческих метода набирают примерно одинаковое число баллов и в этом смысле могут быть признаны одинаково искусными, но в то же время у второго метода определение диагноза носит значительно более ровный характер, его результаты значительно менее рассеяны, чем у первого метода, который при том же самом среднем количестве баллов диагностирует неровно, часто давая результаты как много лучше, так и много хуже средних. Измерять ориентировочную величину уклонения с помощью среднего абсолютного уклонения очень естест- 115
венно, но этот способ недостаточно чувствителен для различения между малыми отклонениями и большими, между безобидными и грубыми ошибками. Между тем, очевидно, что, например, 3 раза встретившаяся ошибка в 1 единицу гораздо менее опасна, чем одна ошибка в целых 3 единицы. Поэтому на практике для оценки вели- чины уклонения обычно предпочитают применять другую меру. Если вместо самой (абсолютной) величины уклонения мы возьмем квадрат этой величины, т. е. \х — х\2, то он окажется мерой, гораздо более чувствительной к грубым уклонениям. В самом деле, в приведенном примере квад- рат ошибки в 1 единицу есть также 1, и сумма этих квад- ратов по трем ошибкам составит 3, как и в случае среднего абсолютного уклонения; квадрат же ошибки в 3 единицы составит уже 9 единиц. Заметим, что поскольку квадрат есть величина положительная, постольку здесь уже от- падает необходимость делать ударение на абсолютной величине слагаемых. Так же, как и уклонение \х — х\ случайной величины X от ее среднего значения х, квадрат 1х — xj2 этого уклонения есть случайная величина, таблица которой в наших обозначениях имеет вид |ж,—ж |а | Iдса —дс/а / я; |а Pl I pa--- I Pk Среднее значение этого квадрата равно поэтому 21®/~ х |2,Pf Эта величина дает нам представление о том, чему в сред- нем равен квадрат уклонения )х — xj; поэтому, извлекая из этой величины квадратный корень °х = V 21®.—®12-Р;> (5а) / = 1 мы получаем величину, способную охарактеризовать нам примерный размер нашего уклонения. Величина ож называется средним квадратическим уклонением случайной 116
величины X, а квадрат ее, т. е. величина ох2 — ее дис- персией D(x). k — D (х) = <?х = 21*4“х ?'Pi (5Ь) Для непрерывных величин D (х) = | х—x\2f(x)dx, (5с) где / (х) — плотность вероятности. Для читателей, знакомых с началами механики, не- безынтересным будет сопоставление, имеющее прямое отношение к одной из важных ветвей физиологии — био- механике. Пусть имеется прямолинейный рычаг пренебре- жимого веса, имеющий опору в точке О и загруженный в к точках с абсциссами хг грузами величинойрг (рис. 96, А). Для каждого из этих грузов произведение ptxt будет представлять собой его статический момент относительно точки О, сумма же статических моментов по всем грузам, деленная на сумму самих грузов, т. е. k 2 pfli 2 Pi i — l есть не что иное, как абсцисса центра тяжести всей системы грузов, отсчитываемая от точки О. Как видим, формула для ее расчета в точности совпадает с формулой для определения среднего арифме- тического х (вот, между прочим, еще одно основание для термина «среднее взвешенное»). Далее, если (рис. 96, Б) перенести опору рычага в течку х, то он окажется уравновешенным при любом наклоне или повороте относительно точки (шарнира) х. Если возвести в квадрат расстояния всех грузов на этот раз от точки х и полученные значения \х, — х\2, помножив на соответствующие веса pt, просуммировать, то величина ft _ 7=2 \xt — я|а-р, будет не чем иным как моментом i=i инерции системы рычага с грузами. Как видим, формула для I в точности совпадает с выведенной выше для дисперсии D (х), а корень квадратный из этой 117
величины, т. е. среднее квадратичное ук- лонение <\= 'Z^i—Фр,, Z=1 деленное снова на сумму всех грузов Spz, есть радиус инерции нашего рычага относительно ого центра тяжести, р. Если рычаг загружен не точечно, а непрерывно (как например, звено конечности, собственным весом которого уже нельзя пренебречь) то и в этом случае абсцисса центра тяжести вычисляется по такой же формуле, как среднее арифметическое (см. стр. 108), а момент инерции I — по формуле дисперсии (5с). 5. Закон больших чисел Как уже отмечалось, математические законы теории вероятностей получены абстрагированием реальных стати- стических закономерностей, свойственных массовым слу- чайным явлениям. Наличие этих закономерностей связано именно с массовостью явлений: с большим числом скла- дывающихся случайных воздействий, порождающих в своей совокупности случайную величину, подчиненную вполне определенному закону. Свойство устойчивости массовых случайных явлений сводится к следующему: конкретные особенности каждого отдельного случайного явления почти не сказываются на среднем результате массы таких явлений; случайные отклонения от среднего, неизбежные в каждом отдельном явлении, в массе взаим- ного погашаются, нивелируются, выравниваются. Именно эта устойчивость средних и представляет собой физиче- ское содержание закона больших чисел, понимаемого в широком смысле слова: при очень большом числе случай- ных явлений средний их результат практически перестает быть случайным и может быть предсказан с большой степенью определенности. В узком смысле под законом больших чи- сел в теории вероятностей понимается ряд математи- ческих теорем, в каждой из которых для тех или иных условий количественно устанавливается факт приближе- ния средних характеристик большого числа опытов к некоторым определенным постоянным. 118
6. Типичные законы распределения вероятностей Мы уже видели, что большое количество явлений в биологии и медицине протекает при существенном уча- стии тех или иных случайных величин. Часто до того, как явление, процесс или операция не завершены, все, что мы можем знать об этих случайных величинах,— это их законы распределения, т. е. списки их возможных зна- чений с указанием вероятности каждого из этих значении. Если величина может получать бесчисленное множество1 различных значений, то предпочтительно указывать ве- роятности не отдельных значений ее, а целых участков, таких значений. Это соображение не меняет существа дела: чтобы кон- тролировать и владеть случайной величиной, мы должны получить возможно точное представление о ее законе распределения. Если бы мы, стараясь узнать законы распределения встречающихся нам случайных величин, отказались от всяких рассуждений и догадок общего характера и к каж- дой случайной величине подходили без всяких предвари- тельных предположений, стремясь найти чисто опытным путем все черты свойственного ей закона распределения, то мы поставили бы себя перед задачей, практически почти невыполнимой по своей трудоемкости. В каждом новом случае потребовалось бы большое число опытов, чтобы установить хотя бы важнейшие черты нового, неизвест- ного нам закона распределения. Поэтому уже давно делались попытки найти такие общие типы законов рас- пределения, наличие которых можно было бы с разумным основанием предвидеть, ожидать, подозревать, если не для всех, то по крайней мере для широких классов встре- чающихся на практике случайных величин. И уже давно некоторые такие типы были теоретически установлены, а затем наличие их было подтверждено опытом. Понятно, насколько выгодно бывает на основании теоретических предпосылок и всего предшествующего опыта заранее иметь возможность предугадать, какого типа должен быть закон распределения вновь встретившейся нам слу- чайной величины. Если такая догадка оказывается пра- вильной, то обычно уже весьма небольшого числа опытов или наблюдений бывает достаточно, чтобы установить- все нужные нам черты искомого закона распределения. 11»
Теоретические исследования показали, что в большом числе встречающихся на практике случаев мы с достаточ- ным основанием можем ожидать законов распределения некоторого совершенно определенного типа, поддающихся строгому математическому описанию. Такими типичными законами распределения являются: нормальный закон, закон равномерной плотно- сти, биномиальный закон, закон Пу- ассона и др. В рамках данного сжатого изложения мы ограничимся только рассмотрением нормального закона распределения случайной величины. Нормальный закон распределенил (часто называемый законом Гаусса) играет исключительно важную роль в теории вероятностей и занимает среди других законов распределения особое положение. Это — наиболее часто встречающийся на практике закон распределения. Глав- ная особенность, выделяющая нормальный закон среди других законов, состоит в том, что он является пре- дельным законом, к которому приближаются другие законы распределения при весьма часто встречаю- щихся типичных условиях. * * Можно доказать, что сумма достаточно болышй’о числа независимых (или слабо зависимых) случайных величин, подчиненных каким угодно законам распределения (при соблюдении некоторых весьма нежестких ограничений), приближенно подчиняется нормальному закону, и это выполняется тем точнее, чем большее количество случай- ных величин суммируется. Большинство встречающихся на практике случайных величин могут быть представлены как суммы весьма большого числа сравнительно малых слагаемых, каждое из которых связано с действием от- дельной незначительной причины, не зависящей от ос- тальных . Пусть, например, мы исследуем закономерности воз- буждения данного нейрона через X синаптических окон- чаний на этом нейроне от дендритов других клеток. Мы, естественно, допускаем, что при подаче определенного калиброванного возбуждения на группу связанных с данным нейроном клеток это возбуждение будет переда- ваться от них на исследуемый нейрон через какое-то среднее количество синапсов х. В каждом опыте количество 120
возбуждаемых синапсов xt будет уклоняться от х, раз- ность xt — х составляет как бы «погрешность», или «ошибку», возбуждения, и изучение случайной величины X целиком и непосредственно сводится к изучению «слу- чайной ошибки» xi — X. Но такая ошибка, меняющая свою величину от опыта к опыту, зависит, как правило, от многих причин, дейст- вующих независимо друг от друга: от случайных колеба- ний в снабжении клеток сахаром и уносе продуктов метаболизма через кровь, от изменений температуры, величины мембранного потенциала покоя, изменения в механизмах синтеза ацетилхолина синапсов и т. п. Все эти и многие другие причины способны вызвать «ошибки» в возбуждении количества синапсов. Все эти частичные «ошибки» будут независимыми между собой случайными величинами, причем такими, что действие каждой из- них составляет лишь очень малую долю их совокупного действия, а окончательная ошибка яг — х, которую мы хотим исследовать, будет просто суммарным действием всех этих случайных ошибок, происходящих от случай- ных причин. Тацдд образом, в нашем примере интересующая нас ошибка? является суммой большого числа взаимно неза- висимых случайных величин, и ясно, что подобным же- образом дело будет обстоять для большинства случайных «ошибок», с которыми мы имеем дело на практике. Нормальный закон распределения характеризуется плотностью вероятности вида: (ж;—ж)а = 202 ’ (6) где х — есть среднее значение, а о — среднее квадрати- ческое уклонение. Графически формуле (6) соответствует кривая, пред- ставленная на рис. 9а. Как видно из графика, кривая распределения по нормальному закону имеет симметрич- ный холмообразный вид. Максимальная ордината кривой,. 1 — равная ——=, соответствует точке х=т\ по мере удаления о У 2л от точки х плотность распределения / (х) падает. Симмет- 121-
ричность кривой говорит о том, что значения величины X, равноудаленные от среднего значения х, имеют оди- наковые плотности распределения. О х, X Хг Рис. 9а. Выясним роль параметров х и о нормального распре- деления. Непосредственно из формулы (6) видно, что если изменять значение х, кривая распределения будет сме- 122
щаться вдоль оси абсцисс, не изменяя своей формы. Значение величины х, являющейся на кривой нормального распределения центром рассеивания случайной величины X, характеризует положение распределения на оси аб- сцисс. Параметр о характеризует не положение, а самую форму кривой распределения. Это есть характеристика рассеивания. Наибольшая ордината кривой распределения обратно пропорциональна о; при увеличении о максималь- ная ордината уменьшается. На рис. 9а показаны три нормальные кривые (I, II, III) при х0 = х; из них кри- вая I соответствует самому большому, а кривая III — самому малому значению о. Изменение среднего квадра- тического уклонения о равносильно изменению масштаба кривой распределения — увеличению масштаба по одной оси и такому же уменьшению по другой. Так как для всякой кривой распределения вся расположенная под ней площадь равна единице (ибо площадь эта равна ве- роятности того, что данная случайная величина примет какое бы то ни было из своих значений, т. е. вероятности достоверного события), то суммарная площадь, одна 123
и та же для всех кривых I, II и III рис. 9а, различным образом распределена между различными участками этих кривых. Для нормальных законов, как показывают кривые на рис. 9а, вопрос в основном заключается в том, какая доля этой суммарной площади сосредоточена над участками, непосредственно примыкающими к среднему значению х, и какая над участками, более удаленными от этого значения. Для закона, представленного на рис. 9а, III почти вся площадь сосредоточена в непосредственной близости к среднему значению; это означает, что случайная величина с подавляющей вероятностью — и, значит, в подавляющем большинстве случаев — принимает значе- ния, близкие к ее среднему значению, т. е. она мало рассеяна; в частности, ее дисперсия и среднее квадрати- ческое уклонение малы. Наоборот, в случае, представлен- ном на рис. 9а, I, площадь, сосредоточенная в непо- средственной близости от среднего значения, составляет лишь небольшую долю суммарной площади (мы сразу увидим различие, если сопоставим на рис. 9а, I и III участки xt, х2 одинаковой длины х и расположенные под ними площади.) Здесь весьма вероятно поэтому, что случайная величина будет получать значения, заметно уклоняющиеся от ее среднего значения. Величина сильно рассеяна, ее дисперсия и среднее квадратическое уклоне- ние велики. Случай II на рис. 9а, очевидно, занимает положение, промежуточное между случаями I и III. Важно указать, что, какова бы ни была степень рас- сеяния случайной величины, выраженной посредством нормального закона распределения (Гаусса), во всех случаях имеют место одни и те же соотношения между величиной уклонения от среднего значения, выраженной в сигмах (о), и частотой случаев, в которых уклонение не превышает указанной величины. В числах: Уклонение о г среднего Домн всех случаев знамення с уклонением не выше указан. 1а 0,6826 = 68,26% 2а 0,9546 = 95,46% За 0,9974 = 99,74% Таким образом, при нормальном законе распределения вероятность уклонений, превышающих +3о, составляет 124
всего 0,0026 или 0,26%, т. е. практически почти все зна- чения случайной ‘величины заключаются между (х — За) и (х + За). Отметим еще один измеритель процента уклонений, введенных Гауссом,— это та грань, выше которой и ниже которой приходится по равному числу или по 50% всех уклонений. Эта мера равна ±0,6754а; ее часто обозначают термином «вероятная ошибка» и знаком ow. На графиках нормального распределения (рис. 9а) ординаты — ow и Н-Оц, на всех кривых пройдут через те точки их по обе стороны от максимума, где выпуклость кверху сменяется на выпуклость книзу (так называемые точки перегиба кривой). На практике часто приходится вычислять для случай- ной величины X, подчиненной нормальному закону, вероятность попадания на заданный участок. Вероятность попадания случайной величины X, под- чиненной нормальному закону, на участок от xt до х2 может быть вычислена по следующей формуле: (7) где —так называемая функция Лапласа или интеграл вероятности. Заменив переменную Х(-X а VI z, получим Р (я. < X < хг) = ± [ф (2,)-Ф( Z,)]. (7а) Для вычисления Ф (z) пользуются готовыми таблицами (см. табл. 1 приложения). Формулы (7—7а) и таблицы функций Лапласа позволяют очень просто вычислять вероятности нахождения любой нормально распределен- ной величины X в любом интересующем нас интервале xiy х2. Пример. Установлено, что распределение людей по росту соответствует нормальному распределению. Измеряется рост взрослого мужчины. Известно, что в данной местности средний рост взрослых мужчин равен h — 170 см, среднее квадратическое уклонение а = 10 см. 125
Найти вероятность того, что рост нашего мужчины попа- дает в следующие интервалы: 160, 180; 155, 165; 185, 195: 140, 200. Пользуясь формулой (7) и таблицей 1 приложения, находим: для интервала (160, 180) Р(160<Я<180) = 1 ГфГ18°~Д70>)—Ф Л16° — 170Л1 2 L к 10/2 У к 10/2 Л =4 [Ф (0,7) -Ф (— 0,7)] = 4 [0,6778 - (— 0,6778)]; Р(160<Я< 180)= 0,6778=0,68 = 68%; для интервала (155, 165) Р (155 < Н< 165) = 1 Гф (165 ~ 1-°>) —Ф (155 1 = v ’ 2 [ V ю/2 J к 10/2 Л = i [— 0,3794 - (— 0,8624)] Р(155<Я<165)=0,24=24%; для интервала (185, 195) Р (185<Я<195) = 4 [Ф ~Ф С10/7°)] = = 4 (°,9804-0,8624); Р (185 < Н < 195)=0,059=6 %; для интервала (140, 200) Р (140<Ж200) = 4 [ф (— -Ф (140 ~- Л 1 = V ’ 2 L к 10/2 J к 10/2 Л = 4 [°,"73-(— О,"73)]; Р (140 < Н < 200) = 0,9973=99,7 %. Таким образом, из 1000 взрослых мужчин в данном населенном пункте примерно у 680 человек рост будет от 160 до 180 см, у 240 человек — от 155 до 165 см, у 60 человек — от 185 до 195 см и только 3 мужчин могут оказаться ростом ниже 140 см или выше 200 см. Графическая иллюстрация произведенных вычисле- ний показана на рис. 10. Рассматривая последний резуль- 126 126
тат, мы видим, что вероятность нахождения случайной величины в интервале х — За, х + За весьма близка к единице, она с высокой точностью равна 0,9974. Поэтому границы х ± За принимаются обычно за практические границы предельных возможных значений нормально распределенной случайной величины. 7. Экспериментальное определение законов распределения Математическая статистика Закон теории вероятностей представляет собой мате- матическое выражение реальных закономерностей, факти- чески существующих в массовых случайных явлениях природы. До сих пор, говоря о законах распределения случайных величин, мы не затрагивали вопроса о том, откуда берутся, на каком основании устанавливаются эти законы. На вопрос можно ответить вполне определенно: в основе всех этих характеристик лежит опыт; каждое исследование случайных явлений, выполняемое методами теории вероятностей, прямо или косвенно опирается на экспериментальные данные. Оперируя такими понятиями, как события и их вероятности, случайные величины, их 127
законы распределения и числовые характеристики, теория вероятностей дает возможность теоретическим путем оп- ределить вероятности одних событий через вероятности других, законы распределения и числовые характеристики одних случайных величин через законы распределения и числовые характеристики других. Такие косвенные методы позволяют значительно экономить время и сред- ства, затрачиваемые на эксперимент, но отнюдь не исклю- чают самого эксперимента. Каждое исследование в области случайных явлений, как бы отвлеченно оно не было, корнями своими всегда уходит в эксперимент, в опытные данные, в систему наблюдений. Разработка методов регистрации, описания и анализа статистических экспериментальных данных, получаемых в результате наблюдения массовых случай- ных явлений, составляет предмет специальной науки — математической статистики. Все задачи математической статистики касаются вопро- сов обработки наблюдений над массовыми случайными явлениями, но в зависимости от характера решаемого практического вопроса и от объема имеющегося экспе- риментального материала эти задачи могут принимать ту или иную форму. Мы здесь кратко рассмотрим лишь некоторые из них, наиболее важные по своему практи- ческому применению. Мы уже имели возможность убедиться, что закономер- ности, наблюдаемые в массовых случайных явлениях, проявляются тем точнее и отчетливее, чем больше объем обрабатываемого статистического материала. При обра- ботке обширных по своему объему статистических данных часто возникает вопрос об определении законов распреде- ления тех или иных случайных величин. Теоретически при достаточном количестве опытов свойственные этим случайным величинам закономерности будут осуществ- ляться сколь угодно точно. На практике нам всегда при- ходится иметь дело с ограниченным количеством экспери- ментальных данных; в связи с этим результаты наших наблюдений и их обработки всегда содержат больший или меньший элемент случайности. Возникает вопрос, какие черты наблюдаемого явления относятся к постоян- ным, устойчивым и действительно присущи ему, а какие являются случайными и проявляются в данной серии наблюдений только за счет ограниченного объема экспе- 128
риментальных данных. Естественно, к методике обработки экспериментальных данных следует предъявить такие требования, чтобы она по возможности сохраняла типич- ные, характерные черты наблюдаемого явления и отбра- сывала все несущественное, второстепенное, связанное с недостаточным объемом экспериментального материала. В связи с этим возникает характерная для математической г-лтистики задача с г л а ж и г’ а н и я или выравни- вания статистических данных, представления их в наиболее компактном виде с помощью простых аналити- ческих зависимостей. При этом выдвигаются те или иные гипотезы. Обраба- тываемый статистический материал может с большим или меньшим правдоподобием подтверждать или но под- тверждать эти гипотезы. Например, может возникнуть такой вопрос: согласуются ли результаты эксперимента с гипотезой о том, что данная случайная величина под- чинена закону распределения F (х). Другой подобный вопрос: указывает наблюденная в опыте тенденция к зависимости между двумя случайными величинами на наличие действительной объективной зависимости между ними или же она объясняется случайными причинами, связанными с недостаточным объемом наблюдений. Часто при обработке статистического материала вовсе пе возникает вопрос об определении законов распределения случайных величин. Обыкновенно это бывает связано с крайне недостаточным объемом экспериментального ма- териала. Иногда же характер закона распределения ка- чественно известен до эксперимента, из теоретических соображений. Например, часто можно утверждать зара- нее, что случайная величина подчинена нормальному закону. Тогда возникает более узкая задача обработки наблюдений — определить только некоторые параметры (числовые характеристики) случайной величины или системы случайных величин. При небольшом числе опытов задача более или менее точного определения этих пара- метров не может быть решена; в этих случаях экспери- ментальный материал содержит неизбежно значительный элемент случайности; поэтому случайными оказываются и все параметры, вычисленные на основе этих данных. В таких условиях может быть поставлена только задача об определении так называемых подходящих зна- чений или оценок для искомых параметров, т. е. таких Черныш В. И. 129
приближенных значен 1Й, которые при масс в >и приме- нении приводили бы в среднем к меньшим ошибка ±, чем всякие другие. С задачей отыскания подходящих значений числовых характеристик тесно связана задача оценки их точности и надежности. Для решения подобных задач математическая стати- стика выработала ряд специальных приемов. Предположим, что 'ччаотся некоторая случайнее величина X, закон распределил,. ..отерой в точности неизвестен, и требуется определить этот закон из опыта или проворить экспериментально гипотезу о том, что ве- личина X подчинена тому или иному закону. С этой целью над величиной X производится ряд независимых опыте” (наблюдений). В каждом из этих опытов случайная вели- чина X принимает определенное значение. Совокуп- ность наблюденных значений величины и представляет собой первичный статистический материал, подлежащий обработке, осмыслению и научному анализу. Такая сово- купность называется простой статистической совокуп- ностью, или простым статистическим рядом, В биологической и медицинской статистике часто приходится исследовать распределение того или иного признака для весьма большой совокупности индивиду- умов, образующих статистический коллектив (таким признаком может быть, например, вес тела особи данной популяции, иммунитет индивидуума к данной болезни в определенном населенном пункте и т. д.). Данный признак является случайной величиной, значение кото- рой от индивидуума к индивидууму меняется. Однако для того чтобы составить представление о распределении этой случайной величины или об ее важнейших характе- ристиках, нет необходимости обследовать каждый инди- видуум данной обширной совокупности; можно обследо- вать некоторую выборку достаточно большого объема для того, чтобы в ней были выявлены существенные черты изучаемого распределения. Та обширная совокупность, из которой производится выборка, носит в статистике название генеральной совокупности. При этом предпола- гается, что число членов (индивидуумов) N в генеральной совокупности весьма велико, а число членов п в выборке ограничено. При достаточно большом N оказывается, что свойства выборочных (статистических) распределений и характеристик практически но зависят от величины N. 130
Обычно простая статистическая совокупность офор- мляется в виде таблицы с одним входом, в первом столбце которой стоит номер опыта г, а во втором — наблюденное значение случайной величины. Пример. Случайная величина а — максимальное кровяное давление пациента в момент измерения. Произ- ведено 20 измерений у 20 различных пациентов; у каждого из них измерено максимальное кровяное давление в мил- лиметрах. Результаты измерения сведены в простой ста- тистический ряд: г “г 1 ai 1 98 и 123 2 1С0 12 125 3 135 13 129 4 128 14 132 5 130 15 154 6 114 16 115 7 123 17 126 8 134 18 П2 9 128 19 136 10 107 20 130 Простой статистический ряд представляет собой первич- ную форму записи статистического материала и может быть обработан различными способами. Одним из спосо- бов такой обработки является построение статисти- ческой функции распределения пли эмпирической функции распределе- ния, которая обозначается так же, как и теоретическая функция распределения F (х), но снабжается значком *: F* (х) (встречаются и другие обозначения, например F («)) Статистической функцией распределения. F*(x) слу- чайной величины X называется частота Р*(Х<&) события X <С.х в данном статистическом материале: F* (х) = Р*(Х< х). (1) Для того чтобы найти значение статистической функ- ции распределения при данном х, нужно подсчитать число опытов, в которых величина X приняла значение, меньшее 5* 131
чем х, и разделить на общее число п произведенных опытов. Статистическая функция распределения любой слу- чайной величины—дискретной или непрерывной — пред- ставляет собой прерывную ступенчатую функцию, скачки которой соответствуют наблюденным значенпям случайной величины и по величине равны частотам этих зна- чений. Если каждое отдельное значение случайной вели- чины X было наблюдено только один раз, скачок статисти- ческой функции распределения, в каждом наблюденном 1 е. значении равен —, где п — число наблюдении. При увеличении числа опытов п при любом х частота Р* (X <Zx) приближается к вероятности этого события Р (X <х). Поэтому при увеличении п статистическая функция распределения F*(x) приближается к подлинной функции распределения F (х) случайной величины X. Если X — непрерывная случайная величина, то при увеличении числа наблюдений п число скачков функции F*(x) увеличивается, самые скачки уменьшаются и график функции F*(x) неограниченно приближается к плавной кривой F (х) — функции распределения величины X. В принципе построение статистической функции рас- пределения уже решает задачу описания эксперименталь- ного материала. Однако при большом числе опытов п (порядка сотен) простая статистическая совокупность перестает быть удобной формой записи статистического материала — она становится слишком громоздкой и мало наглядной; построение F* (х) описанным ’ выше способом весьма трудоемко. Для придания полученному статисти- ческому материалу большой компактности и наглядности он должен быть подвергнут дополнительной обработке, для чего строится так называемый статистический (или вариационный) ряд; при этом пользуются другими харак- теристиками статистических распределений, аналогичны- ми не функции распределения F (х), а плотности / (х). Предположим, что имеющиеся в нашем распоряжении результаты наблюдений над непрерывной случайной величиной X оформлены в виде простой статистической совокупности. Разделим весь диапазон наблюденных значений X на интервалы или разряды и под- считаем количество значений т, приходящееся на каждый (-разряд. Это число разделим на общее число наблюдений 132
п и найдем частоту, соответствующую данному разряду: Pi "Ч ni ' (2) Сумма всех разрядов, очевидно, должна быть равна единице. Построим таблицу, в которой приведены разряды в порядке их расположения вдоль оси абсцисс и соответст- вующие частоты. Эта таблица называется статисти- ческим рядом. х, 4- х2 Ж2 4- х3 Xfr Xi+l хк ’ xk+i * Р1 * Р2 * Pi * Pk Здесь i есть г-й разряд; xt -4- х1+1 — его границы; рг* — соответствующая частота; к — число разрядов. Пример. В некоторой поликлинике произведен анализ содержания гемоглобина в крови у 500 девочек школьного возраста. Результаты измерений содержания гемоглобина (в %) сведены в статистический ряд: Содержание гемоглобина (В %) 70—80 80-85 85—90 90—95 95- 100 100- 105 105 — 110 110- 1 14 Число девочек с данным уровнем (тп/> 6 25 72 133 120 88 46 10 * Pi 0,012 0,050 0,144 0,266 0,240 0,176 0,092 0,023 г, . т\ т; Здесь = — —j-gj) — соответствующие частоты. При группировке наблюдаемых значений случайной величины по разрядам возникает вопрос о том, к какому разряду отнести значение, находящееся в точности на границе двух разрядов. В этих случаях можно рекомен- довать (чисто условно) считать данное значение принадле- жащим в равной мере к обоим разрядам и прибавлять к числам тг того и другого разряда по ’/2. 133
Число разрядов, на которые следует гр уппироват ь статистический материал, не должно быть слишком боль- шим (тогда ряд распределения становится невыразитель- ным, а частоты в нем обнаруживают незакономерные колебания); с другой стороны, оно не должно быть слишком малым (при малом числе разряда свойства рас- пределения описываются статистическим рядом слишком грубо). Практика показывает, что в большинстве случаев рационально выбирать число разрядов порядка 10—20. Чем богаче и однороднее статистический материал, тем большее число разрядов можно выбрать при составлении статистического ряда. Длины разрядов могут быть как одинаковыми, так и различными. При оформлении в виде статистического ряда данных о случайных величинах, распределенных крайне неравномерно, иногда бывает удобно выбирать в области наибольшей плотности рас- пределения разряды более узкие, чем в области малой плотности. Статистический ряд часто оформляется графически в виде гистограммы. Гистограмма строится следующим образом. По оси абсцисс откладываются разряды, и на каждом из них как на основании строится прямоугольник, площадь которого равна частоте данного разряда. Для построения гистограммы нужно частоту каждого разряда разделить на его длину и полученное число взять в ка- честве высоты прямоугольника, В случае равных по длине разрядов высоты прямоугольников пропорцио- нальны соответствующим частотам. Из способа построения гистограммы следует, что полная площадь ее равна еди- нице. Ранее мы рассматривали некоторые числовые характе- ристики случайных величин: среднее значение, среднее квадратическое уклонение, дисперсия и др. Аналогичные числовые характеристики существуют и для статисти- ческих распределений. Мы будем эти статистические аналогии обозначать теми же буквами, что и соответст- вующие числовые характеристики, но как и прежде, снабжать их значком*. Для основной характеристики положения — сред- него значения случайной величины — такой аналогией является среднее арифметическое (средневзвешенное) наблюденных значений слу- 134
чанной величины: где xt — значение случайной величины, наблюденное в z-м опыте, р — число опытов. Эту характеристику мы будем называть статистиче- ским средним (или эмпирическим средним) случайной величины. Согласно закону больших чисел, при неограниченном увеличении числа опытов статистическое среднее прибли- жается к (теоретическому) среднему значению. При доста- точно большом и статистическое сроднее может быть при- нято приближенно равным среднему значению. При огра- ниченном числе опытов статистическое среднее является случайной величиной, которая тем но менее связана со средним значением и может дать о нем известное пред- ставление. Статистическая дисперсия случайной величины X определяется из: п Д*(х)='-^-------, (5) где х* — статистическое среднее. При очень большом числе опытов вычисленные харак- теристики по формулам (4) и (5) становятся чрезмерно громоздкими, и можно применить следующий прием: воспользоваться темп же разрядами, на которые был расклассифицирован статистический материал для по- строения статистического ряда или гистограммы, и считать приближенно значение случайной величины в каждом разряде постоянным и равным среднему значению, кото- рое выступает в роли «представителя» разряда. Тогда статистические числовые характеристики будут выражать- ся приближенными формулами: _ k „ ж*= ^xiPl, (4а) 1 = 1 D* (z) = У (xi—х*У-Р(, (5a) t = l где Xt — «представитель» i-го разряда; p,* — частота t-го разряда; k — число разрядов. 135
Для генеральной совокупности и выборки различают соответственно точные и выборочные ха- рактеристики (среднее значение, дисперсия и т. д.). Вы- борочные характеристики отличаются от соответствующих характеристик генеральной совокупности в результате ограниченности объема выборки и; при неограниченном увеличении и, естественно, все выборочные характери- стики приближаются к соответствующим характеристикам генеральной совокупности. Во всяком статистическом распределении неизбежно присутствуют элементы случайности, связанные с тем, что число наблюдений ограничено, что произведены именно то, а не другие опыты, давшие именно те, а не другие результаты. Только при очень большом числе наблюдений эти элементы случайности сглаживаются и случайное явление обнаруживает в полной мере присущую ему зако- номерность. На практике мы почти никогда не имеем дела с таким большим числом наблюдений и вынуждены счи- таться с тем, что любому статистическому распределению свойственны в большей пли меньшей мере черты случай- ности. Поэтому при обработке статистического материала часто приходится решать вопрос о том, как подобрать для данного статистического ряда теоретическую кривую распределения, выражающую существенные черты данного статистического материала, но но случайности, свя- занные с недостаточным объемом экспериментальных данных. Такая задача называется задачей выравнивания (сгла- живания) статистических рядов. Задача выравнивания заключается в том, чтобы подоб- рать теоретическую плавную кривую распределения, с той или иной точки зрения наилучшим образом описы- вающую данное статистическое распределение. Как правило, принципиальный вид теоретической кривой выбирается заранее из соображений, связанных с существом задачи, а в некоторых случаях просто с внеш- ним видом статистического распределения. Аналитиче- ское выражение выбранной кривой распределения зависит от некоторых параметров; задача выравнивания стати- стического ряда переходит в задачу рационального выбора тех значений параметров, при которых соответствие между статистическим и теоретическим распределением оказы- вается наилучшим. 136
Предположим, например, что исследуемая величина X есть ошибка измерения, возникающая в результате суммирования воздействий множества независимых эле- ментарных ошибок; тогда из теоретических соображений можно считать, что величина X подчиняется нормальному закону: 1 (х-~ху / (х) = 7= • е га' 1 v ' <т /2л и задача выравнивания переходит в задачу о рациональном выборе параметров х и а в данном аналитическом выра- жении этого закона. Следует иметь в виду, что любая аналитическая функ- ция / (х), с помощью которой выравнивается статистиче- ское распределение, должна обладать основными свой- ствами плотности распределения: / (х) О, + СС / (х) dx = 1 -СО Предположим, что, исходя из тех или иных сообра- жений, мы выбрали теоретическую функцию f(x), удовлет- воряющую условиям (6), с помощью которой мы хотим выровнять данное статистическое распределение; в выра- жение этой функции входят несколько параметров а, Ь, ...; требуется подобрать эти параметры так, чтобы функция / (х) наилучшим образом описывала наш стати- стический материал. В математической статистике при решении этой задачи пользуются так называемым методом моментов. Согласно методу моментов, параметры а, Ь,... выби- раются с таким расчетом, чтобы несколько важнейших числовых характеристик (моментов) теоретического рас- пределения, например среднее значение и дисперсия, были равны соответствующим статистическим характе- ристикам. Например, если теоретическая кривая / (х) зависит только от двух параметров а и Ь, эти параметры выбираются так, чтобы среднее значение х и дисперсия D (х) теоретического распределения совпадали с соответ- ствующими статистическими характеристиками X* и D*(x). 137
8. Способы оценки погрешностей (ошибок) измерения На практике большое значение имеют методы оценки неизбежных погрешностей измерения и, следовательно, определения наиболее вероятного значения «истинной» меры изучаемой величины. Повторные измерения одной и той же величины (которую мы находим возможным считать объективно неизменной) будут все в большей или меньшей степени отличаться друг от друга вследствие неустранимых погрешностей, т. е. будут иметь все при- знаки случайной величины; поэтому для получения ответа на указанные выше вопросы применяются те же методы вариационной статистики, которые были обри- сованы в связи с вопросами о случайных величинах вообще. Так, если полученная в результате многократных измерений эмпирическая кривая распределения, гисто- грамма ит. п. не обнаруживает каких-либо существенных отклонений от нормальной кривой Гаусса (например, резкой асимметричности, неодновершинности и т. д.), то за наиболее вероятное, «истинное» значение измеряе- мой величины можно смело принять ее среднее арифмети- ческое х, за вероятную ошибку — величину ст и т. д. К числу таких заведомо неизменных величин можно от- нести длину земного меридиана и его отрезков (измеряв- шуюся многократно для определения размеров и формы земного шара), длину образцового метра, сохраняемого в палате мер и весов, число Авогадро (количество молекул в граммомолекуле вещества) и т. п. Близкую группу к указанной, притом имеющую наи- большее значение как раз в биологических вопросах, составляют случайные величины, отображающие уже не неизменную величину, как выше, а величину объективно колеблющуюся вокруг некоторого среднего значения из-за действия факторов и причин, никак не поддающихся точному учету или просто недоступных измерению. К такого рода величинам можно отнести, например, зна- чения плотностей выборочных объемов газа, колеблющиеся в силу флюктуаций, количества эритроцитов на 1 мм3, колеблющиеся от объема к объему из-за условий, мешаю- щих строгому перемешиванию и т. д. В отличие от рассмат- ривавшихся выше вариационных рядов с широкими раз- бросами значений здесь речь идет о сравнительно узких границах колебаний, вызываемых действием привходящих 138
случайных причин и нуждающихся лишь в том, чтобы как можно достовернее элиминировать влияния этих причин и разглядеть сквозь них (как сквозь мутную среду или малопрозрачное стекло) наиболее надежное среднее или истинное значение. И в этого рода случаях оценки ошибки и достоверности производятся по общим правилам вариационной статистики. Другой аспект проблемы достоверности измерений заключается в следующем. Если построить с помощью вариационно-статистических приемов теоретическое урав- нение вариационной кривой, наиболее близко подходящей к данному эмпирическому ряду, то между последователь- ными значениями ординат этой кривой и соответствующих ординат эмпирического ряда все же будут иметь место расхождения: в деталях теоретический закон F (х) будет обнаруживать несогласия с эмпирическим рядом F*(x), на основании которого он был рассчитан. Для оценки степени совпадения теоретической кривой с эмпирической Пирсон предложил прием, основывающийся на том же принципе суммирования квадратов (в данном случае квадратов расхождений), который был применен выше к определению дисперсии, среднего квадратичного откло- нения и средней ошибки. Пусть значение очередной ординаты теоретической кривой равно Xj, а соответствующей (т. е. находящейся на той же абсциссе) ординаты эмпирической кривой равно х^. Прежде всего подсчитываются их относительные раз- ности, т. е. + г ♦ - xi Х1 л Х1 эти разности по всем дискретным парам ординат возводятся в квадрат (это, как и раньше, нивелирует между собой положительные и отрицательные расхождения), и эти ” / ж*\2 квадраты суммируются. Величина 1—_1 ) обознача- 1 \ X; / чается знаком %2 и носит название критерия Пирсона. Очевидно, что чем больше полученное значение критерия X2, тем меньше согласие между наилучшим возможным теоретическим распределением и тем, какое было конста- тировано на самом деле, иными словами, тем сильнее влияние побочных искажающих помех. 139
Величина %2 дает возможность вычислить так назы- ваемую меру совпадения Р, дающую наиболее строгую оценку качества результатов и, что еще важнее, качества самого применявшегося метода. Эта мера равняется __ уй Г у2 у4 -уб "1 п г И _J_ _А_ I--------------1_ _|_____*________ Р = е • L Г 2 ^2-4^2-4-6 ' • • • т 2-4-6-• •-(га—3)J ’ где п есть число разрядов, на которые разбито все протя- жение независимой переменной, иначе говоря, число ди- скретных ординат или членов суммирования, участво- вавших в определении величины %2; если п — четное число, то его искусственно увеличивают на 1 путем ус- ловного добавления нулевого разряда. Мера Р есть всегда правильная положительная дробь, 0<Р <1; она выражает вероятность того, что полученная сумма квадратов расхождений %2 не будет увеличиваться при дальнейших повторных измерениях, т. е. что методу дей- ствительно присуща та степень надежности или достовер- ности, какую выявило' нам %2 в уже состоявшейся сово- купности измерительных опытов. В справочниках при- водятся таблицы, по которым мера совпадения Р может быть найдена без вычислений по данным звачениям %2 и п. Значение Р тем меньше, чем больше %2 (что очевидно) и чем меньше п, т. е. чем грубее была разбивка материала по разрядам. Распределение %2 дает возможность оценить степень согласованности теоретического и статистического распре- делений. Будем исходить из того, что величина X действи- тельно распределена по закону, скажем, F (х). Тогда вероятность Р, определенная по таблице, есть вероятность того, что в результате чисто случайных причин мера рас- хождения теоретического и статистического распределений ( 1 — — ) будет не меньше, чем фактически наблюденное /el \ xi / в данной серии опытов значение %2. Если эта вероятность Р весьма мала (настолько мала, что событие с такой ве- роятностью можно считать практически невозможным), то результат опыта следует считать противоречащим подобранной нами теоретической кривой F (х) и ее следует отбросить как несоответствующую опытным данным. 140
Напротив, если вероятность Р сравнительно велика, можно признать расхождения между теоретическим и статистическим распределениями несущественными и от- нести их за счет случайных величин. Гипотезу о том, что величина X распределена по закону F (х), можно считать правдоподобной или, по крайней мере, не противо- речащей опытным данным. Насколько мала должна быть вероятность Р для того, чтобы отбросить или пересмотреть гипотезу, пока еще определить трудно. На практике, если Р оказывается меньше чем 0,1, рекомендуется проверить эксперимент, если возможно, повторить его и в случае, если заметные расхождения снова появятся, попытаться искать более подходящий для описания статистических данных закон распределения. Следует отметить, что с помощью критерия (или любого другого критерия согласия) можно только в не- которых случаях опровергнуть выбранную гипотезу и отбросить ее как явно несогласную с опытными данными; если же вероятность Р велика, то этот факт сам по себе ни в коем случае не может считаться доказательством справедливости выбранной гипотезы, а указывает только на то, что она не противоречит опытным данным. Заметим, что при пользовании критерием %2 доста- точно большим должно быть не только общее число опытов N, но и числа наблюдений тп, в отдельных разрядах. На практике рекомендуется иметь в каждом разряде не менее 5—5—10 наблюдений, Еслп числа наблюдений в отдельных разрядах очень малы (порядка 1-5-2), имеет смысл объединять некоторые разряды. Очень близко к охарактеризованной группе вопросов стоит задача, часто имеющая исключительно большое значение для биолога или клинициста. Если производится какой-либо массовый эксперимент, например испытание действия какого-нибудь нового лекарства, то при большом числе N1 опытов и сравнимо большом числе N2 контроль- ных наблюдений обычно бывает достаточно построить вариационные ряды по обеим группам, подопытной и контрольной, п определить по ним средние квадратиче- ские отклонения (и). Общепринято и хорошо выверено положение, что если разность средних по обеим группам, 1, не ниже За, то ее смело можно считать не- случайной, а результат опыта — заслуживающим доверия. 141
Иначе обстоит дело, когда условия почему-либо не дают возможности проводить опыты массовым порядком, т. е. когда и экспериментальная и контрольная группы или же две экспериментальные группы с подлежащей сравнению постановкой опыта малы и позволяют собрать всего по одному-двум десяткам наблюдений. И в этих случаях желательно иметь критерий, который позволил бы оценить, насколько вероятно, что обнаруженное раз- личие в средних результатах, х* и х*г, неслучайно, значимо в смысле действительно существующей разницы между сопоставляемыми группами. Методы такой оценки были разработаны Стюдентом и Фишером (Student, Fischer) для ситуаций, когда количества сравниваемых случаев не превышают 30 в той и другой группе. Пусть в нашем распоряжении имеются два вариацион- ных ряда независимых1 между собой наблюдений, подлежащие сравнению по их результатам. Средние значения и средние квадратичные ошибки по рядам № 1 п № 2 обозначим соответственно х* и о’х* по 1-му и Х‘ и о72 по 2-му ряду; количества имеющихся наблюдений составляют Nt и N2 (N\ и 7V2=c30). Величины — 1) и (N2 — 1) носят название количеств степеней свободы по тому и другому ряду. Образуем сумму п1 = (Л\-1) + (JV2 -1) = ЛГ, + ЛГ2 -2 и подсчитываем величину t, представляющую собой от- ношение разности средних значений х, —х2 к среднему отклонению этой разности, od= 1/ Тогда по F xi х2 имеющимся таблицам, рассчитанным Стюдентом и Фише- ром, можно сразу определить по найденным значениям п1 и t вероятность Р того, что разность средних по результа- там не случайна, а выражает объективно существующую картину явлений. В таблице с двумя входами в качестве независимых переменных обычно помещают значения суммы степеней свободы п1 (от 2 до 20 и выше) и величины t (от 0 до 5 единиц; выше этого значения искомое Р стано- вится константно равным 1 для всех возможных п1). Значения Р, как и раньше, колеблются между 0 и 1; результат тем надежнее, чем Р больше. 1 В случаях, когда корреляция между обоими рядами не равна нулю, вычисления несколько осложняются. 142
Пример [73]. Действие снотворного лекарства определялось на 10 пациентах по числу добавочных часов сна у них по сравнению с контрольными сутками. Результаты сведены в таблицу. № больного Прирост часов сна Отклонение от среднего Квадрат отклонения 1 1,2 —0,38 0,1444 2 2,4 +0,82 0,6724 3 1,3 —0,28 0,0784 4 1,3 —0,28 0,0784 5 0 —1,58 2,4964 6 1,0 —0,58 0,3364 7 1,8 +0,22 0,0484 8 0,8 —0,78 0,6084 9 4,6 +3,02 9,1204 10 1,4 —0,18 0,0324 Сумма: 15,8 часа Сумма: 13,6160 Среднее х* : 1,58 часа n' = N — 1 = 9 ст= ]/^Ц^=1,23 ^=W = 0’389 ‘“^т1'58'Яз“±4’°6- По таблице Стюдента по п‘ и t находим Р = 0,997, т. е. имеется 99,7% в пользу достоверности результата и только 0,3% — в пользу того, что он случаен.
ГЛАВА 4 ЭЛЕМЕНТЫ МАТЕМАТИЧЕСКОЙ ЛОГИКИ В работе любой системы управления участвуют про- цессы двоякого рода: количественные и логические. Течение количественного процесса обусловливается зави- симостями между числовыми величинами участвующих в этом процессе элементов, в то время как для логического процесса характерна зависимость между отдельными сто- ронами свойств, признаков п состояний этих элементов — так называемая логическая зависимость. С некоторыми математическими методами изучения количественных зависимостей мы уже познакомились в предыдущих главах. В данной главе мы кратко ознако- мимся с аппаратом псслодоваппя зависимостей логического характера — математической логикой 112, 36, 48, 65, 66, 64, 79, 83, 84, 88, 96, 105, 128, 129, 147, 150]. Хотя логические отношения и зависимости и не от- носятся к области явлений количественной природы и, следовательно, математическая логика не является частью математики, логика и математика тесно связаны между собой. Поэтому не удивительно, что большинство специа- листов по математической логике — математики. Основы математической логики были заложены в середине XIX ве- ка английским математиком и логиком Дж. Булем. Современная математическая логика все больше ста- новится рабочим инструментом проведения точных логи- ческих доказательств в различных научных исследованиях н одним из важнейших теоретических орудий исследования управляющих систем. 1. Метод формализации Логические процессы участвуют в каждом конкретном научном исследовании. При помощи логических операций устанавливаются связи и отношения между исходными
данными и делаются выводы о существовании определен- ных закономерностей в рассматриваемом явлении. Исход- ные данные и выявляемые закономерности специфичны для каждого конкретного исследования (например, физио- логического, медицинского и др.) и определяются внут- ренней природой самого изучаемого явления. Логические же процессы являются общими для всех исследований независимо от природы пх конкретных объектов; эти процессы подчиняются своим внутренним законам — законам логики. В содержании каждого конкретного исследования нахо- дят свое отражение как исходные данные и полученные результаты, так и сами логические средства исследования; последние принимают форму понятий, суждений, доказа- тельств и умозаключений (выводов). Средствами выраже- ния содержания научного исследования обычно служат предложения — наборы букв, слов и знаков препинания, построенных по определенным (грамматическим) правилам. Однако этот привычный нам символический аппарат не всегда оказывается эффективным. При наличии большого числа исходных данных и сложном характере их взаимо- действия применяемые для их описания обычные языковые средства зачастую оказываются слишком громоздкими и расплывчатыми, допускающими подчас значительные неточности и ошибки в логических доказательствах и выводах. Поэтому в естествознании часто наряду с обычным языком используются и другие символические средства. Так, например, в химии применяются отдельные буквы и знаки для обозначения химических элементов, их свойств (валентности, заряда и т. п.) и реакций. В теоре- тической физике широко используется символический язык математики. Придавая логическим выводам простоту, ясность и наглядность, эта символика вместе с тем дает возможность применять в исследованиях различные мате- матические методы. Однако символический язык мате- матики ограничивается лишь областью количественных характеристик явлений. Математическая логика вводит символику, подобную химической и математической, для отдельных свойств, признаков, понятий, а также для отдельных операций логического характера. Формулировка исходных данных (предпосылок) осуществляется в виде формул — комбина- 145
ций символов, каждый из которых может соответствовать определенному свойству или понятию, а получение ко- нечных результатов представляет собой вывод конечных формул из начальных. Сам вывод формул сводится при этом к обычной расчетной процедуре, т. е. к выполнению совокупности стандартных логических операций над символами и формулами по точным правилам. Эти пра- вила, подобно математическим, носят формальный харак- тер, т. е. таковы, что для проверки правильности их применения нет надобности пнтересоваться ни смыслом формул, к которым они применяются, ни смыслом формул, получаемых в результате; нужно лишь убедиться, что эти формулы построены из таких-то символов, так-то расположенных. Формальный характер логических пра- вил обусловлен относительной независимостью явлений логической природы, задающих структуру этих правил, от разнообразных специфических факторов, с которыми имеют дело в каждом конкретном научном исследовании. Таким-образом, первым шагом на пути внедрения ма- тематической логики в конкретное исследование является формализация, т. е. использование определенных точных правил и особого символического языка. Метод формали- зации сводит различные логические построения, доказа- тельства, выводы и т. п., необходимые для получения ко- нечных или промежуточных результатов, к своего рода вычислительным процессам. Вычисления ве- дутся здесь над формулами по совершенно определенным правилам, аналогичным правилам обычных математи- ческих действий. При этом конкретные значения, которые связываются с отдельными символами и формулами, называются интерпретациями этих символов и формул. Благодаря математико-логической формализации ло- гическим построениям придается наглядность, ясность и точность, значительно уменьшается возможность допу- щения логических ошибок и неоднозначностей, что осо- бенно важно в биологических и медицинских исследовани- ях, где всегда приходится иметь дело с большим числом исходных и промежуточных данных и зависимостей. Так, например, в диагностике постановке диагноза предшест- вует процесс анализа симптомов, обнаруженных у боль- ного при его обследовании, показаний самого больного и медицинских сведений, указывающих связь между сим- птомами и болезнями. Формализация симптомов, болезней 146
и логических операции сводит процесс постановки диа- гноза к обычному вычислительному процессу, дающему точные результаты, а также допускающему использование вычислительных машин. Вопрос о применении математи- ческой логики в диагностических исследованиях впервые был поставлен Р. С. Ледли и Л. Б. Ластед [72]. Математико-логическая формализация доказательств каждого конкретного исследования начинается с ввода специальной символики. Символы вводятся как для ис- ходных данных, так и для самого логического аппарата исследования. Для исходных данных введем понятие терма. Термами могут быть отдельные свойства, признаки, понятия и т. д., например отдельные признаки болезни (скажем, симптомы гипертонии и т. п.). Термы мы будем обозначать малыми латинскими буквами а, в, с, ... и т. д. Для операций логического характера вводятся следую- щие стандартные символы: 1) логические связки'. «Д» (и), «V» (или), «—» (не), «->» (влечет); 2) кванторы', «у» (для всех), «Я» (существует); 3) символ предикатов: «=» (рав- няется); 4) скобки: (,). Слова, указанные в скобках, яв- ляются интерпретациями соответствующих символов. Символы, указанные в пунктах 1—3, называются логиче- скими операторами. Из перечисленных выше формальных символов могут быть составлены конечные последовательности их сочета- ний или вхождений, такие конечные логические последо- вательности символов называются логическими формулами. В частности, формулами являются выражения вида F (a), G (а, с, d), которые в нашем случае могут интерпре- тироваться так: «у больного есть признак а», «у больного имеются признаки а, с и d». Формулы, получаемые непосредственно из термов, мы будем называть элементарными формулами. В дальнейшем элементарные формулы мы будем обозначать большими латинскими буквами А, В, С, ..., подразумевая под ними отдельные утверждения о соответствующих признаках а, в, с, ... . Например, формула А может интерпретиро- ваться как высказывание типа: «у больного имеется признак а» и т. п. Из одной или нескольких элементарных формул можно составить сложное выражение или сложную формулу. Для объединения элементарных формул в сложные при- 147
меняются логические операторы. Каждый шаг объеди- нения производится следующим образом. Пусть мы имеем одну или две элементарные формулы (или более сложные выражения). Заключаем формулу (пли каждую из данных формул) в скобки и вводим один из следующих логических операторов: Л, v> V, я, = (1) Формула (илп выражение), которой поставлен в соответст- вие определенный логический оператор, называется об- ластью действия оператора. Так, например, если эле- ментарной формуле А поставлен в соответствие логиче- ский оператор «—», то в полученной новой формуле как конечной последовательности формальных символов об- ласть действия операторов можно установить однозначно, исходя из расположения скобок. Область действия опе- раторов «—», «V» л «Я» всегда состоит только из одного выражения, поэтому это выражение непосредственно заключают в парные скобки и оператор ставят либо над парой этих скобок (для оператора «—»), либо рядом с левой скобкой (для операторов «V», «Я»). Область действия операторов «-»>, «,» «Д», <<\/», «=» обычно состоит из двух выражений. Каждое из этих двух выражений непосред- ственно заключают в парные скобки, а оператор ставят непосредственно между правой скобкой пары, в которую заключено левое выражение, и левой скобкой пары, в которую заключено правое выражение. Так, например, если исходными выражениями являются формулы (Л) и В и им ставят в соответствие оператор «V», то областью действия этого оператора будут формулы (Л), В, т. е. (Я) V (В). Таким образом, в сложной формуле как конечной последовательности формальных символов скобки одно- значно определяют области действия отдельных операторов и, следовательно, дают возможность выяснить все сущест- венные детали строения этой формулы. Для сокращенной записи сложных логических формул удобно опускать лишние скобки, учитывая, что, например, оператор «Д» имеет ранг более высокий, чем оператор «V». Ранги от- дельных логических операторов понижаются в том порядке, в котором они перечислены в (1). Чтобы восстановить любые скобки, опущенные при сокращении логической 148
формулы, нужно в этой формуле последовательно выби- рать операторы, раньше других встречающиеся в списке (1) и, следовательно, имеющие более высокие ранги, и придавать им наибольшую область действия, затем выби- рать операторы рангом пониже и т. д. Например, слож- ная формула A ->BVC/\D дает последовательность A-+(BVC/\D), A-^BVC)/\D), Применение логических операторов к тем или иным формулам или выражениям определяется правилами, позволяющими из этих формул (выражений) образовывать новые. Эти правила называются правилами вывода. Образование конечной формулы из исходной путем при- менения правил вывода, называется формальным выводом данной формулы и обозначается символом « (- » (читается: дает). Символу « (- » обычно предшествует последователь- ность исходных формул, а за ним следует выводимая формула. Это делает определенной область вхождения «|-» в формулы. Так, например, выражение Alt А2, Ае[-Е означает, что формулу Е можйо получить посред- ством правил вывода из формул A i, Л2, Ае. 2. Операции алгебры логики Алгебра логики (называемая также болевой алгеброй, исчислением высказываний) представляет собой первую необходимую часть математической логики. В настоящее время она получила широкое применение в теории вы- числительных машин и технических управляющих систем. В алгебре логики используются всего четыре логи- ческих оператора: Д, V, —. Формулы, используемые в вычислениях алгебры ло- гики, обозначаются большими латинскими буквами А, В, С, ... или теми же буквами с индексами, например А и А 2, А3, ...ит. д. Содержание элементарных формул, используемых в логических вычислениях, подсказывается их интерпретацией. Однако это содержание учитывается только при введении буквенных обозначений для этих формул (для различных формул вводятся разные буквы) и в дальнейших расчетах уже не принимается во внимание. Каждая формула в алгебре логики оценивается только по двум значениям: либо она истинна, либо ложна. Так, например, если формула А интерпретируется как 149
утверждение: «боль в пояснично-крестцовой области — симптом радикулита»,— то она истинна; если же эта формула выражает фразу: «боль в пояснично-крестцовой области — симптом гипертонии» — она ложна. Будем считать, что значение истинности данной фор- мулы равно единице (1), если она истинна, и равно нулю (0), если она ложна. Так, например, запись А = 1 озна- чает, что формула А истинна; запись С = 0 означает, что формула С ложна. Две формулы называются эквивалентными, если зна- чения истинности их одинаковы. Запись эквивалентности двух формул обозначают знаком равенства. Так, запись А = В означает, что значение истинности формул А и В одинаково, т. е. они одновременно либо истинны, либо ложны. Каждая конкретнш формула имеет вполне определен- ное значение истинности. Но это значение истинности может быть ипеременным. Так, например, значение истинности формулы А, интерпретируемой утверждением «температура 39° — симптом менингита», равна единице лишь в некоторых частных случаях, так как повышенная температура тела человека возможна и при других бо- лезнях. Переменная величина, которая принимает лишь два значения (1 или 0), называется двоичной перемен- ной. Если одной или двум формулам (элементарным или сложным) ставится в соответствие один из логических оператов (->, Д, V или —), то этот процесс называется логической операцией. Рассматривая формулы как величины, принимающие значения 0 или 1, можно с помощью логических операций из данных формул получать новые. Приведем некоторые основные типы логических опе- раций над двумя формулами (Л и В). 1) Отрицание. Обозначается А. Читается: не А. Отрицанием формулы А называется логическая операция, при которой формуле А ставится в соответствие оператор отрицания «—». В результате выполнения операции отри- цания образуется сложная формула А, которая истинна, когда исходная формула А ложна и ложна, когда А истинна. Значение истинности формулы А при различных значениях истинности А для операции отрицания опре- 150
деляется из таблицы А О 1 1 О Из этой таблицы видно, что А = А, если под символом А понимать (Л) («не не-А»), Действительно: О=0) = Т=О; 1 = (1) = 0 = 1. 2) Логическое умножение (конъюнк- ция). Обозначается символом А/\В (иногда A-В или А&В). Читается: А и В. Логическим умножением двух формул А и В называется операция, при которой формулам А и В ставится в соответствие логический оператор конъ- юнкции «Д». В результате выполнения логического умно- жения образуется сложная формула А/\В, которая, ис- тинна лишь в случае истинности обоих исходных формул, ее образующих; во всех остальных случаях эта сложная формула ложна. Значение истинности формулы А/\В при различных значениях истинности исходных формул А и В для опе- рации «логическое умножение» задается таблицей ДАВ О 1 О 1 о о о 1 Из определения операции «логическое умножение», а также из таблицы вытекает, что: АД0 = 0; АД1 = А; АДА=А; АДА = 0; А/\В = В/\А-, АД (ВДС) = (АДВ)ДС. 3) Логическое сложение (дизъюн- кция). Обозначается символом А\/В (иногда А + В). Читается: А или В. Логическим сложением двух формул, 151
А и В, называется операция, при которой формулам А и В ставится в соответствие логический оператор дизъюн- кции «V». При выполнении логического сложения обра- зуется сложная формула А\/В, которая ложна только в случае ложности обоих составляющих ее формул А и В и истинна в остальных случаях. Значение истинности формулы А \/ В при различных значениях истинности исходных формул А и В для опе- рации «логическое сложение» задается таблицей AVB О о 1 1 О 1 1 1 1 О 1 Из определения операции «логическое сложение» и из таблицы видна справедливость следующих формул: Л\/0=А; А\/1 = 1; А\/А = А; А\/А = 1; A\JB = B\JA; A\J (B\jС) — (A\JВ)\/С. Справедливость двух последних формул проверяется путем подставки в них вместо А и В в различных комбинациях значений 0 и 1 и применения таблицы. 4) Операция следования (имплика- ция). Обозначается символом А->В. Читается: если А, то В. Следованием называется логическая операция, при которой формулам А и В ставится в соответствие оператор импликации «->». Импликация формул А и В представ- ляет собой сложную формулу А->В, - которая ложна в том и только в том случае, когда А истинна, а В ложна. Следует заметить, что импликация не имеет смысла связи между причиной и следствием, т. е. из истинности А еще не следует обязательно истинность В. Наоборот, для того чтобы сложная формула, образованная опера- цией следования, была истинной, достаточно уже ложности формулы А. Значение истинности формулы А-*-В при различных значениях истинности исходных формул А и В для опе- 152
рации следования задается таблицей А О о 1 1 о 1 о 1 1 1 о 1 5. Равнозначность двух формул. Записывается так: А — В. Читается: А равнозначно В. Равнозначность двух формул представляет собой слож- ная формула, истинная тогда, когда значения истинности составляющих формул одинаковы, и ложная в противном случае. Значение истинности сложной формулы Л-^-В полу- чается по значениям истинности составляющих формул А п В с помощью логической операции, определяемой таблицей А В 1 — В О О 1 1 о 1 о 1 1 о о 1 Путем непосредственной проверки по этой таблице убеждаемся в справедливости формул /1-1 -/1. Л-0--П. Рассмотренные выше логические операции но являются независимыми и могут выражаться друг через друга. В сущности, все логические связи можно выразить при помощи трех основных связей: отрицания, конъюн- кции и дияъюнкцп и. Пример. Убедимся, что связь «—» (равнозначность) можно представить с помощью операторов «—», «Д>> и «V»- Докажем, например, что формулу А — В можно заменить формулой (А \/ В) /\ (А V В)- Для этого под- ставим в наши формулы вместо А и В какие-нибудь 153
конкретные значения. Пусть Л ~ 1 и В = I, т. е. обе формулы, А и В, истинны. 13 этом случае имеем А ~ В = ~ 1 ~ 1. Из таблицы для операции равнозначности на- ходим: 1 ~ 1 - - 1. Следовательно, для того чтобы А ~ В= (А V В) /\ (Л V ^)> необходимо, чтобы (Л V В)/\ /\ (Л V В) при подставке в него значения Л = 1 и В = 1 тоже равнялось 1. Проверяем это. Подставляя Л = 1 и В — 1 и учитывая, что В = (1) = 0 и Л = (1) = О, получим (Л V В) А (Л V В) = (7 V 0) А (О V 1). Со- гласно таблице для операции дизъюнкции 1 \] 0 = 1 и Оу 1 = 1. Поэтом./ (Л V В) /\ (Л V В) = 1 А 1- Так как по таблице конъюнкции 1 А 1 = 1, то (Л V В) /\ А (Л у В) — 1. Следовательно, Л ~ В - (Л \/ В) /\ А (Л V В), что и требовалось доказать. Аналогичным образом можно доказать, что А—23 = 71 у#. В алгебре логики, как п в обычной математике, для каждой конкретной задачи стремятся найти способ ее решения (алгоритм). Само же решение осуществляется путем стандартных действий над символическими форму- лами по правилам, определяемым рассмотренными выше таблицами логических операций. Возникающие при каж- дом конкретном решении задачи логические выражения обычно довольно громоздки, поэтому возникает задача приведения этих выражений к удобному виду. Наиболее наглядно структура логического выражения видна тогда, когда оно приведено к одной из так называе- мых нормальных форм. Первая — конъюнктивная нор- мальная форма — представляет собой некоторую конъюн- кцию дизъюнкций, причем в каждой дизъюнкции отдель- ные члены представляют собой либо основные формулы, либо их отрицания. Примером конъюнктивной нормальной формы может служить выражение: (A\/B\/C)/\(A\JB\JC}/\(A\IB\IC). Дизъюнктивная нормальная форма — это некоторая дизъюнкция конъюнкций; в каждой конъюнкции отдель- ные члены являются либо основными формулами, либо их отрицаниями, 15-1
Пример дизъюнктивной нормальной формулы: Любое логическое выражение может быть приведено к одной из нормальных форм. Последние удобны для анализа, в частности для выделения двух классов выра- жений: 1) постоянно истинных и 2) постоянно ложных. Истинность или ложность сложного выражения за- висит, вообще говоря, от значений истинности формул, входящих в его состав. Однако могут быть построены такие сложные выражения, в которых значения истин- ности являются постоянными независимо от того, какие значения истинности принимают отдельные члены этих выражений. При упрощении сложных логических выра- жений нужно выявлять постоянно истинные формулы I опускать их или заменять их одним символом. Постоянно истинные выражения легко распознаются тогда, когда сложное выражение сведено к своей конъюн- ктивной нормальной форме. Определить постоянно ис- тинное выражение можно на основе применения простых правил: Л\/Л = 1, (1) 1\/5 = 1, (2) 1Л1=1. (3) Из этих правил следует, что если в конъюнктивной нор- мальной форме каждая дизъюнкция содержит по крайней море один член вместе со своим отрицанием, то все логи- ческое выражение является постоянно истинным. Пример. Докажем, что выражение В) /\ /\ (Л у В \/ А) всегда истинно. Подставляя в первые и вторые скобки этого выражения согласно правилу (1) В у В = 1 и А у А.= 1, имеем: Hvbvb)AHV^V^) = HV1)A(1V5)- Учитывая правила (2) и (3), получим: (AVBVB)AHV5V^)=HV1)A(1V-B)=iA1 = 1- Убедимся теперь, что это выражение при любых значе- ниях А и В будет равно 1 (т. о оно всегда истинно). Пусть, например, А =0 и В = 0 (Л и В ложно). Подставим 155
эти значения в первые и вторые скобки: (4VBV£)=ovovJ=pvovi^ 1 (Л \/5\/л) = о\/о\/о = оуо\/1 =1. Отсюда: Такой же результат получится и при любых других значениях А и В. Постоянно ложные выражения легко распознаются в выражениях, сведенных к дизъюнктивной нормальной форме, на основе правил: лдл = о, (4) 0Д5 = 0, (5) 0Д0 = 0. (6) Сложное логическое выражение является постоянно ложным, если в его дизъюнктивно нормальной форме каждая конъюнкция содержит по кранной море один член вместо со своим отрицанием. Пример. Докажем, что выражение (А/\В/\С/\В)\/(А^С^В/\А)\/(В/\С^А^С) является постоянно ложным. Учитывая правила (4—6), получим: (А/\ВЛС№)ЩАЛС№/\А)ЩВ/\С/\АЛС) = = (ллолс)7(ОЛвлс)7(5АОЛЛ) = (Одс)\/(ОДС). 7(вдо) = о\/о\/о=о. Описанные выше логические операции могут быть реализованы в автоматах, имеющих относительно простую структуру. Ниже мы приводим схему работы простых элементов, осуществляющих операцию конъюнкции (см. рпс. 11, а) и дизъюнкции (см. рис. 11, б). Более сложные логические операции могут быть осу- ществлены автоматами, конструкция которых состоит из особым образом связанных между собой схем конъюнк- ции и дизъюнкции Например, мы уже говорили о том, что операция равнозначности может быть сведена к опе- раторам «—», «Д» и «V». Соответственно в структуре автомата эта операция может быть реализована соот- ветствующим набором схем «конъюнкции», «дизъюнкции» и «отрицания». 156
3. Исчисление предикатов Исчисление предикатов представляет собой более слож- ный раздел математической логики. В этом разделе ис- пользуются все операции алгебры логики и вводятся две новые логические операции: «V» и «Я». В логических исчислениях алгебры логики берется во внимание только общее значение истинности формул (1 или 0), над кото- рыми производятся логические операции, и не учиты- вается внутреннее содержание этих формул. В исчислении предикатов разрешается рассматривать также внутреннюю структуру формул и производить ло- гические вычисления с учетом этой внутренней структуры. Пусть М — некоторое множество термов и а, в, с, d —.какие-то конкретные термы из этого множества. Тогда определенные утверждения об этих термах мы будем обозначать в виде Л (а), Л (а, в), Р (a, d), R (а, с, d), F (х) и т. д. Л (а) означает определенное утверждение о терме а, А (а, в) — высказывание о термах а и в и т. д. Пусть, например, М представляет собой множество признаков различных болезней, а термы а, в, с, ... соответствуют отдельным признакам, например, терму а соответствует признак «повышенная температура», терму в — признак «пониженное давление крови» и т. д. Тогда Л (а) будет например, утверждением: «у больного повышенная тем- пература», Л (а, е) — «у больного повышенная темпера- тура и пониженное давление». Такие утверждения могут быть как истинны, так и ложны. Как и в алгебре логики, мы будем рассматривать эти утверждения как элементарные формулы, и учитывать значения их истинности (7, 0). Но, в отличие от алгебры логики, здесь мы будем считать, что значения истинности 1 или 0 ставятся в соответствие определенным термам или группам термов. Так, в рассмотренном выше примере Л (а) представляет собой 1 или 0, поставленные в соот- ветствие с термом а: если у больного действительно ока- жется повышенная температура, то Л (а) = 1, в против- ном случае, когда у больного будет нормальная темпе- ратура, Л (а) = 0. Пусть М — произвольное множество, а х представ- ляет собой произвольный терм из этого множества. Тогда формула F (х) может интерпретироваться как утвержде- ние, которое становится определенным, когда х замещено 157
определенным термом из М. Формулы F (a), F (в), ... уже представляют собой определенные формулы. Напри- мер, если М есть множество признаков болезней, то F (ж) может обозначать «ж — симптом болезни». Это неопределенное утверждение становится опреде- ленным, если ж заменить некоторым конкретным призна- ком; пусть ж = с, где с означает «головная боль», в этом случае мы будем иметь утверждение: «головная боль — симптом болезни». Так как каждая формула имеет определенное значение истинности: 1 или 0, то выражение F (х) означает, что каждому терму из множества М поставлено в соответствие одно из значений: 1 или 0. Иначе говоря, F (ж) представ- ляет собой функцию, определенную на множестве М и принимающую только два значения: 1 или 0. Таким же образом неопределенные утверждения о двух и более термах Р (ж, у), Q (ж, у, z) и т. д. представляют собой фуг^- цию двух, трех и т. д. п переменных, т. е. двух-, трех-, ... n-местную функцию. При этом переменные ж, у, z про- бегают множество М, а функция принимает значение 1 или 0. Такие неопределенные утверждения или функции одного или нескольких переменных называются преди- катами или логическими функциями. Предикатом с одним переменным можно выразить свойство терма, например: «ж — симптом болезни». Пре- дикатом с двумя и более переменными можно выразить отношения между термами. Пусть М — множество при- знаков и болезней. Тогда предикатами можно выразить отношения между симптомами и болезнями. Если терм ж = а множества М мы будем интерпретировать как при- знак «головная боль», а у = в — как «мигрень», то пре- дикат Q (а, в) будет интерпретироваться, как «головная боль — симптом мигрени». Все вводимые понятия всегда относятся к некоторому произвольному множеству, которое называется полем. Элементы этого поля обычно обозначаются малыми латин- скими буквами (с индексами и без индексов). Буквами конца латинского алфавита — z, х, у, и, V, »>, жь ... обозначают неопределенные элементы поля. Их можно назвать свободными переменными или термовыми пере- менными. Буквами начала алфавита обозначают свобод- ные переменные, принимающие определенные значения. Они называются связанными переменными или термами. 158
Большими латинскими буквами — А, В, X, Y, A t, ... и т. д., как и в алгебре логики, обозначают формулы, принимающие значения 0 и 1. Если формула в зависимости от условий изменяет свое значение с 0 на 1 и наоборот, то она называется переменной формулой. Формула, не изменяющая свое значение истинности, называется постоянной или константной формулой. Выражения Р (z), Q (х, у), A (xlt х2, ..., хп), В (Х{Х) означают предикаты, т. е. функции, аргументы которых принимают значения из поля М, а сами функции могут принимать только два значения: 1 и 0. Предикаты, константные и переменные формулы, обо- значаемые большими латинскими буквами, называются элементарными формулами в отличие от сложных формул, которые составляются из элементарных. Символы термов и свободных переменных не являются формулами. То обстоятельство, чт’о предикаты Р (х), Q (х, у) и т. д. могут принимать только два значения (0, 1), дает воз- можность их связывать между собой логическими опера- циями алгебры логики: «->», «Д», «V», <(—*>• Пример. Пусть мы имеем два предиката А (а) и А (в), которые имеют следующие интерпретации: А (а) — «у больного есть признак а», А (в) — «у больного есть признак в». ' Тогда сложная формула Л (а) будет иптепретироваться как «у больного нет признака а»; сложная формула А (а) \/ А (в) — как «у больного есть или признак а, или признак в, или оба вместе»; формула А (а) Д А (в) — как «у больного есть и признак а и признак в»; А (а) -* -> А (в) — как «если у больного есть признак а, то у него есть и признак в». Значения истинности этих сложных формул определяются из значений истинности исходных элементарных формул по таблицам для соответствующих логических операций, рассмотренных нами в преды- дущем параграфе. Однако, кроме операций алгебры логики, к предикатам применимы еще две новые операции, связанные с особен- ностями логики предикатов. Это так называемые операции навешивания кванторов. Пусть Q (х) — вполне определенный предикат, при- нимающий значение 1 или Q. для каждого элемента г 159
некоторого поля М. Тогда под выражением ya: Q (х) подразумевается формула — истинная, когда Q (ж) ис- тинно для каждого элемента поля М, и ложная в против- ном случае. Символ у называется квантором всеобщности, а выражение ух — квантором всеобщности по перемен- ной х. Пусть теперь предикат Q (у, z) содержит ровно две свободные переменные: у, z. Тогда выражение yyQ (у, z) превращается из двуместного в одноместный предикат с единственной свободной переменной z, так как квантор у у придает переменной у конкретное значение, т. е. он связывает свободную переменную у в предикате Q (у, z); этот предикат вполне определяется заданием значений всех переменных, кроме у, и, значит, от у не зависит. Переход от предиката Q (ж) к предикату yxQ (ж) на- зывается навешиванием на предикат Q (ж) квантора все- общности по переменной X и интерпретируется так: «для всякого значения переменной ж формула, получаю- щаяся подстановкой этого значения вместо ж в Q (ж), истинна». В случае, если областью определения (полем) предиката Q (х) являются все элементы множества М, т. е. (ж) принимает значение 1 или 0 для всех ж М, те yxQ (ж) истинно для каждого элемента ж поля М и логйно в противном случае. Пример. Пусть мы имеем предикат А (ж), который имеет интерпретацию «у больного есть признак ж». Тогда в результате навешивания квантора ух на предикат А (ж) мы получим формулу ух-А (ж), которая будет интерпре- тироваться так: «все больные имеют признак ж». Пусть снова Q (ж) — предикат, содержащий единствен- ную свободную переменную ж. Мы свяжем с ним формулу #ж Q (ж), определив ее значение как истину (1), если существует элемент поля М, для которого Q (ж) истинно, и ложь (0) в противном случае. Символ # называется квантором существования, а вы- ражение gx — квантором существования по переменной ж. Переход от формы Q (х) к форме дх Q (ж) называется навешиванием на предикат Q (ж) квантора существования по переменной ж и интерпретируется следующим образом: «существует такое значение переменной ж поля М, что 160
предикат, получающийся подстановкой этого значения вместо х в Q (х) истинен». При навешивании квантора существования дх на пре- дикат Q (х) свободная переменная х связывается. Пусть М — некоторое множество, на котором определяются пре- дикаты (поле предикатов). Каждому предикату одного переменного Q (х) можно поставить в соответствие под- множество тех элементов х из поля М, для которых Q (х) истинно. Обозначим это подмножество через МОбратно, каждому подмножеству Mi, содержащемуся в М (т. е. Mi czM), можно поставить в соответствие предикат Q (х), так что хеМ t- Тогда предикат Q (х) будет принимать значение 1 (истинно) на Mi и 0 (ложно) вне Mi. Пример. Пусть мы имеем предикат В (х) с интер- претацией «болезнь имеет признак х». Тогда при навеши- вании квантора дх на предикат В (х) мы получим формулу дхВ (х), которая будет интерпретироваться так: «суще- ствуют болезни, которые имеют признак х». Математическая логика те^но связана с теорией авто- матов, новым направленье!® науки, интенсивно развиваю- щимся в последние годы. Этот отдел кибернетики изучает теорию и принципы конструирования машин, перераба- тывающих информацию. Одной из основных при этом является проблема способов синтеза автоматов, способных к различным сложным формам деятельности, а также проблема анализа строения (структуры) уже существую- щих в природе систем, перерабатывающих информацию. Этот отдел кибернетики имеет большое значение для изучения работы нервной системы. Мозг человека и жи- вотных с теоретической точки зрения представляет собой некоторый частный случай автомата, к изучению которого оказываются применимыми все основные положения аб- страктной теории автоматов. Одним из разделов теории автоматов является теория нервных сетей. Эта теория ставит своей целью изучение автоматов, состоящих из элементов, близких по своим свойствам к свойствам нервных клеток. Основной задачей является выявление тех структур нервных клеток, которые лежат в основе сложных форм работы мозга. Известно, что в системах элементов возникают новые свойства и явления, которые не проявляются в одиночных нейронах. Именно эти явления характеризуют деятель- 6 Черныш В И. 161
ность нервной системы. Этот вопрос имеет решающее зна- чение для исследования тех реальных структур нервных элементов, которые лежат в основе сложных форм ра- боты мозга. В связи с этим оказывается важным разра- ботка таких приемов исследования, которые позволяли бы уловить качественный скачок, наблюдаемый при рассмо- трении сложных систем элементов. Этой задачи не решают обычные физиологические методы. Оказывается необходи- мым тесное сочетание развития абстрактной теории с про- ведением непосредственного изучения головного мозга. Теория автоматов создает теоретическую базу для такого исследования. При разработке теории нервной сети вводится понятие «абстрактного нейрона» и изучаются различные структуры сетей, состоящих из таких нейронов. При создании аб- страктных моделей нейронов математики стремятся пол- ностью воспроизвести все их основные свойства, как элементов, перерабатывающих информацию. Вместе с тем не учитываются те биохимические и биофизические процессы, которые лежат в основе работы нервных клеток. При разработке этих проблем, кроме аппарата мате- матической логики, используется также аппарат теории рекурсивных функций. 4. Нервные сети Клини В работе мозга как управляющей системы наряду с количественными процессами всегда участвуют и логи- ческие процессы. Поэтому возникает естественный вопрос: нельзя ли применить аппарат математической логики для исследования этих процессов. Оказалось, что можно. Впервые такой подход к изучению логических процес- сов нервной системы был осуществлен Маккаллоком и Питтсом в 1943 г. [79]. Этими исследователями была раз- работана упрощенная математическая модель нервной сети, реализующей отдельные логические операции. В этой сети основными элементами являются искусствен- ные (абстрактные) нейроны. Искусственный нейрон со- стоит из т е л а (с о м ы) и отходящих от него отростков — аксонов. Каждый такой нейрон связан с целым рядом других нейронов через окончания аксонов — конце- 162
вые пластинки. Места контактов концевых пла- стинок с телами других нейронов образуют синапсы. Синапсы могут быть двух видов: возбуждающие и тормозные. Через аксоны и соответствующие концевые пластинки, оканчивающиеся на других нейро- нах, данный нейрон может передавать свои импульсы, а с другой стороны, сам может воспринимать импульсы от других нейронов, концевые пластинки которых кон- тактируют с его телом. Совокупность таких соединений искусственных нейронов и образует модель нервной сети Маккаллока — Питтса. Каждый нейрон нервной сети Маккалока — Питтса обладает следующими свойствами: 1) Работа нейрона характеризуется двумя состояниями: возбуждение и покой. Возбужденное со- стояние обозначается единицей, а состояние покоя — 0. 2) Каждый нейрон имеет некоторую дискретную п о- роговую величину возбуждения h, равную некото- рому минимальному числу одновременно поступающих импульсов от других нейронов. Эта величина может иметь разное численное значение для различных нейро- нов. 3) Работа нейрона учитывается в дискретные проме- жутки времени. В каждый такой промежуток нейрон .находится либо в возбужденном состоянии (1), либо в покое (0). 4) Активность какого-либо тормозящего синапса исклю- чает в этот момент возможность возбуждения данного нейрона. При принятых допущениях состояние нейрона в каж- дый дискретный момент времени описывается преди- катом, в котором свободной переменной является время t, причем этот предикат может принимать одно из двух значений: 1 или 0. , Оказалось, что при такой интерпретации нейронов состояния нервной сети Маккаллока — Питтса в разные дискретные моменты времени могут быть описаны с по- мощью логических операций исчисления предикатов. В дальнейшем С. Клини [65], основываясь на резуль- татах Маккаллока и Питтса, придал логико-математиче- ской модели нервной сети простую и наглядную форму. Ниже мы познакомимся с некоторыми элементами сетей Клини. 6е 163
В нервных сетях Кляни нейроны, к которым но при- мыкают никакие концевые пластинки, называются в х о д- п ы м и нейрона м и; остальные нейроны назы- ваются внутренними. В равноотстоящие дискретные моменты времени каж- дый нейрон сети является возбужденным или невозбужден- ным (спокойным). Для входного нейрона возбужденность или новозбуждепность в любой момент времени I опре- деляется условиями, внешними по отношению к сети. Для внутреннего нейрона условие возбужденности в момент t состоит в том, что по меньшей мере h возбуж- дающих концевых пластинок действуют, а ни одна из тормозящих не действует в момент t — 1. Единственным принимаемым во внимание запаздыванием движения импульса в нервной сети Кливи является синапти- ческая задержка, т. е. время между моментом получения нейроном импульса и моментом распростра- нения им собственного импульса; эта задержка условно принимается равной 1. На рис. 11,а представлено элементарное звено сети Клини, реализующее операцию «логическое ум- но ж он и е» (конъюнкция)». В этом звене нейроны I, К, L, М и N являются входными, а нейрон Р — внутренний. Нейроны I, К и L контактируют с нейроном Р возбуждающими концевыми пластинками (белые круж- ки), а нейроны М и N — тормозящими (черные кружки). Цифра, стоящая внутри нейрона Р, указывает величину порога возбуждения нейрона (число одновременно посту- пающих возбуждающих импульсов). Состояние нейрона описывается предикатом P(Z); возбужденное состояние обозначается через Р (Л), невозбужденное через Р (t). На рис. 11,6 представлено звено, реализующее опера- цию «логическое сложение» (дизъюнкция). На рис. 11,г представлено звено сети Клини, реали- зующее задержку во времени; эта задержка может быть выражена следующим образом: Р^ЬЛЦг,-!), Q(te)^N(ta-2). Состояние в течение некоторого промежутка времени входных нейронов, контактирующих с определенными внутренними нейронами нервных сетей Клини, может 164
быть задано таблицей или описано логической формулой. Так, например, состояния двух входных нейронов, Nt Р с. И, а, б, в, г. и Nz, в течение времени, равного двум синаптическим задержкам, может быть описано таблицей вида! 6 Nt 1 0 «о~ 1 1 1 «о-2 0 1 или таблицей: tb Nt to 1 0 «0—1 1 0 «о 2 1 0 О) (2) 16’г
или любой другой подобной таблицей. В каждой из этих таблиц цифра на пересечении столбца и строки указывает состояние соответствующего нейрона в рассматриваемый момент времени. Например, цифра 1 в первой строке и первом столбце таблицы (1) означает, что нейрон возбужден в момент £0; 0 в третьей строке и втором столбце таблицы (2) означает, что N2 не возбужден в момент t — 2 и т. д. Если каждую из этих таблиц продолжать вниз до бесконечности, то можно получить представление о состоянии нейронов N t и N2 в отдельные моменты времени в длительном прошлом (весь «опыт» нейронов и N2). Рис. 12 Так как состояния входных нейронов JV, и N2 опре- деляются внешними по отношению к сети Клини воздей- ствиями, то в таблицах (1) и (2) и в соответствующих им логических формулах (1) и (2) могут отражаться вполне конкретные внешние воздействия. Эти внешние воздей- ствия («с о б ы т и я») через входные нейроны Nt и N2 могут получить определенный отклик в нервной сети Клипи. Так, на рис. 12 представлен участок сети Клини, реагирующий на наступление одного из внешних собы- тий, определяемых таблицами (1) и (2) [или соответствую- щими логическими формулами (1) и (2)]. Нейрон Р на рис. 12 возбудится в момент времени t0 + 2 только в том случае, если отклик на одно из рассматриваемых событий, заканчивающееся в момент t0, достигает этого нейрона с запаздыванием 2. Такая задержка импульса осущест- вляется нейронами Nt, и Nu образующими вместе 166
с соединяющими их аксонами участок задержки (см. рис. И,г). Синапс нейрона Mt, имеющий на себе шесть кон- цевых пластинок, является «конъюктивным» участком сети (рис. И,а). Синапс нейрона Р является «дизъюнктив- ным» участком сети (рис. 11,6). Согласно последним данным нейрофизиологии, реаль- ные нервные клетки отличаются от формального нейрона Маккаллока — Питтса. В настоящее время разрабатываются более сложные модели нейронов. При этом наибольший интерес представ- ляет рассмотрение не одиночных моделей, а «нервных сетей», объединяющих большое количество нервных эле- ментов п имеющих различную структуру. Уже при рассмотрении нервных сетей, состоящих из формальных нейронов Маккаллока — Питтса, было до- казано, что эти системы обладают весьма важными свой- ствами. При использовании более совершенных моделей нейронов, видимо, окажется возможным воспроизвести и исследовать многие важные особенности работы мозга. Большие успехи достигнуты в изучении абстрактных нервных сетей, способных к процессу самообучения. Теория «обучающихся матриц», при разработке которой были учтены сведения в области физиологии, объясняет все факты, относящиеся к области обучения. Важно отметить, что при разработке этой теории оказывается необходимым выделение в абстрактных нервных сетях определенных отделов и подотделов, обладающих раз- личными функциями. Таким образом, разрабатывается абстрактная «теория нервных структур», которая может играть большую роль в расшифровке смысла структурных особенностей построения центральной нервной системы. Разработка абстрактной теории нервных сетей сама по себе не решает вопроса об организации нервных струк- тур головного мозга. Однако она может играть важную роль при разработке гипотез, которые затем могут стать основой для проведения специальных экспериментов. Плодотворным может оказаться комплексное исполь- зование абстрактной теории с экспериментальными иссле- дованиями. Следует отметить, что модели нервных клеток с точки зрения теории автоматов могут быть рассмотрены как узлы логической сети. Таким образом, теория нервных сетей является частным случаем общей теории абстрактных 167
автоматов, п к нея оказываются приложимыми все выводы этой области науки. При исследовании работы мозга часто оказывается несущественным создание моделей нейронов, так как многие вопросы могут быть решены в более общем плане, на основе теории автоматов, путем рассмотрения логи- ческих сетей, состоящих из более простых элементов, например операторов конъюнкции, дезъюнкции. В связи с этим вопрос о полном соответствии «формальных ней- ронов» реальным нервным клеткам является несущест- венным при использовании теории автоматов, при из- учении мозга.
ГЛАВА 5 ЭЛЕМЕНТЫ ОБЩЕЙ ТЕОРИИ СВЯЗИ 1. Управление и связь Все известные живые системы, будь то клетка, много- клеточный организм животного, стадо, популяция, био- геоценоз ит. д., с точки зрения кибернетики представляют собой сложные самоорганизующиеся (или самонастраи- вающиеся, приспосабливающиеся, самоуправляющиеся) системы. Важной чертой любой самоорганизующейся системы является способность воспринимать определен- ную информацию, сохранять эту информацию в определенных структурах, именуемых памятью, п е ре- да в а т ь ее по присущим данной системе линиям связи иперерабатывать ее в сигналы, направля- ющие деятельность системы. Процессы восприятия информации, ее хранения и передачи называются в ки- бернетике связью; переработка воспринятой информации в управляющие сигналы составляет содер- жание управления; переработка информации, поступаю- щей по линиям обратной связи, в сигналы, кор- ректирующие деятельность самоорганизующейся системы, называется контролем. Общая схема самоорганизующейся системы приведена на рис. 13. Управляемый объект (например, система внешних и внутренних органов многоклеточного животного) на- ходится в определенных стационарных условиях внешней среды (температура, давление, влажность и т. п.), под- вергаясь разнообразным внешним воздействиям F (напа- дение хищника, прием пищи и т. п.). Управляемый объект может совершать некоторый набор действий, направлен- ных на изменение своего внутреннего состояния и со- 1J9
стояния близлежащей части внешнего мира. Сигналы, содержащие информацию о внешних (стацио- нарных) условиях I(U) ивнешних воз- действиях (возмущениях) 1(F), а также о внутреннем состоянии самоорганизующейся системы (организма животного) I (г), поступают на входы системы связи (органы рецепции), а оттуда — в систему управления и контроля (головной и спинной мозг), где Рис. 13. они перерабатываются в управляющие (командные) сиг- налы WR. Сигналы WR служат для того, чтобы установить, какое из возможных действий управляемый объект дол- жен выполнить. Под действием сигналов WR управляемый объект вырабатывает внешнюю реакцию R. Информация о результатах реакции управляемого объекта поступает по линиям обратной связи в систему управле- ния и контроля. Сигналы обратной связи обрабатываются и хранятся в системе, и последующие команды управле- ния согласовываются с этими сигналами. 170
Всякая самоорганизующаяся система характеризуется наличием цели или набором целей. Так, например, для организма животного как самоорганизующейся системы такими целями являются: поддержание уровня обмена веществ, температуры, давления и т. п. в рамках биоло- гически допустимых границ и т. д. Деятельность управ- ляющей системы как раз и заключается в том, чтобы на- править действие управляемого объекта на достижение этих целей. Важным свойством самоорганизующейся системы является ее способность самостоятельно находить оптимальный режим управления, при кото- ром автоматически обеспечивается достижение целей в условиях, когда внешние и внутренние факторы изме- няются. Общая теория самоорганизующихся систем [3, 15, 16, 17, 20, 21, 22, 23, 38, 51, 52, 58, 60, 63, 68, 70, 107, 108, 124, 126, 127, 134, 141, 155, 156, 157, 158, 161] возникла совсем недавно и в настоящее время еще находится в начальной стадии развития. Однако отдель- ные стороны этой теории уже теперь имеют достаточно обширную и глубокую теоретическую базу. В частности, теоретический фундамент систем управления и контроля состоит из таких разделов математики и кибернетики, как теория алгоритмов, математическая логика, теория вероятностей, теория информации, теория автоматов, теория управляющих систем, математическая теория игр и статистических решений, линейное и динамическое про- граммирование; теория информации является также теоретической основой связи. Изучение весьма разнообразных систем управления и контроля, созданных живой природой, особенно важно. Жизнь клетки, развитие организма, поведение животного, эволюция живой природы в целом — все это явления, протекающие под действием специфических управляющих процессов. Не меньшее значение имеет изучение систем управле- ния и контроля для медицины. Целый ряд заболеваний есть результат нарушения нормальных управляющих функций организма. К ним можно отнести гипертониче- скую болезнь, развитие злокачественной опухоли, ряд нервных и психических расстройств и другие заболева- ния. Для лечения подобных болезней очень важно знать, как протекает нормальное управление жизнедеятельпо- 171
стью организма и в чем состоят нарушения при болезнен- ном состоянии. Здесь кибернетика открывает новые воз- можности лечения многих болезней, дает средства для того, чтобы от отдельных симптомов перейти к созданию целостной картины заболеваний. Возникают новые пер- спективы управления физиологическими и патофизиоло- гическими процессами в организме. Сказанное в полной мере относится и к системе связи, без которых немыслима работа любой системы управле- ния и контроля. Теоретическую основу систем связи составляют общая теория связи и количественная теория информации. Ос- новы теории информации были заложены немногим более 10 лет назад известным американским ученым К. Шенно- ном. Первые его работы [151, 131] способствовали появ- лению бурного потока работ его последователей, благодаря чему теория информации за относительно короткий период превратилась в глубокое, содержательное научное на- правление. В настоящее время теория информации пред- ставляет собой важный раздел кибернетики. Математическим аппаратом теории информации яв- ляются теория вероятностей, математическая статистика, теория множеств и теория статистических решений. В данной главе мы познакомимся с основными поня- тиями общей теории связи. 2. Система связи Выше отмечалось, что связь состоит в восприятии, хранении и передаче информации. Устройство, реализую- щее связь, называется системой связи. Общая схема си- стемы связи представлена на рис. 14. Источник подает сообщения {п}, которые поступают на передатчик Тк. В передатчике сообщение {п} превращается в сигнал {z}. Сигнал не есть сообщение, но между сообщением и сигналом должно быть однозначное соответствие для того, чтобы на приемном конце сигнал мог быть снова превращен в сообщение {</}, соответствующее поданому сообщению {п}. Это обратное превращение выполняется приемником Тп. Передатчик и приемник связаны между собой линией связи Тл. Примеры. 1. Рассмотрим систему связи, реали- зующую процесс общения врача с пациентом. Предполо- 172
жим, врач задал пациенту вопрос: «На что жалуетесь?» В этом случае источником сообщения «на что жалуетесь?» является головной мозг врача, сообщением — комбина- ция нервных импульсов мозга, соответствующая задавае- мому вопросу; передатчиком служат мозговые центры Сообщение Сигнал Сигнал Сообщение М М {У} М Рис. 14. устной речи врача, преобразующие эту комбинацию в возбуждение эфферентных волокон речевого аппарата; линия состоит из четырех участков: эфферентных волокон речедвигательного аппарата врача, воздушной среды в Линия связи Рис. 15. промежутке между врачом и пациентом, жидкости внут- реннего уха и, наконец, слухового нерва пациента; приемником являются слуховые центры речи; получате- лем слу/кит головной мозг пациента (рис. 15). 2. Система связи «мышечное веретено — мотонейрон». Здесь источником сообщений служит мышечное веретено; сообщенпями являются данные о степени растяжения и сокращения мышечных волокон веретена; передатчиком 173
служит система чувствительных окончаний афферентного волокна, в которых растяжения мышечных волокон веретена преобразуются в нервные импульсы (сигналы); само волокно вместе с афферентной клеткой служит, очевидно, линией связи; система синаптических оконча- ний волокна афферентной клетки на мотонейроне вместе с постсинаптической мембраной мотонейрона образуют приемник сигнала; получателем сообщения является мембрана мотонейрона. 3. Система связи, функционирующая в механизме синтеза белка. Основную роль в процессе передачи ин- формации от ДНК хромосом к синтезируемым в рибосомах белковым молекулам играют молекулы РНК. В данном случае источником сообщения является молекула ДНК; передатчиком служит хромосома; сигналом является молекула РНК, приемником — рибосома и получателем сообщения — синтезируемая молекула белка. Мы привели лишь несколько примеров биологических систем связи. Ясно, что число подобных примеров может быть увеличено. В идеальном случае принятое сообщение должно быть тождественно поданному. В действительности имеются искажения; степень этих искажений определяет надеж- ность связи. В приемник попадает не только посланный передатчиком сигнал, но и помеха. Помехи могут быть как внешние, так и внутренние. Однако для общего рассмотрения удобнее объединить источники помех в один источник (рис. 14). В общем случае работа однокапальной системы связи математически может быть представлена следующим со- отношением {я} = • Т* • Тп • {и}. (1) Здесь {п} и {г} — исходное и принятое сообщение, а У1 2п(п> — преобразования, выполняемые соответст- венно передатчиком (кодирование, модуляция) и при- емником (декодирование, демодуляция), тогда как Т'1^ характеризует влияние среды (или канала), в которой происходит распространение, на закодированное сообще- ние (сигнал) 2п(л>-{п}. Индекс (N) указывает на возмож- ность влияния помех на различных этапах процесса пере- двчп сообщения. l.'i
3. Сообщения Под сообщением подразумевается все то, что подлежит передаче в системе связи — поступает на вход передат- чика или создается на выходе приемника. Сообщения бывают двух видов: непрерывные и дискретные. Непрерывные сообщения имеют характер непрерывно изменяющейся величины, в то время как дискретные сообщения состоят из отдельных отли- чающихся друг от друга ступеней или градаций. Примерами непрерывных сообщений могут служить изменяющиеся величины давления крови, температуры тела, напряжения мышц и т. п., регистрируемые соответ- ствующими интерорецепторами, падающие на сетчатки глаз световые потоки изображений и т. д. Дискретными сообщениями являются: комбинации импульсов нервных сетей головного мозга, поступающих на входы речедви- гательного анализатора человека при общении; хими- ческие частицы, действующие на рецепторы органов обо- няния; основания молекулы ДНК и т. п. Непрерывные сообщения математически описываются функциями. При этом функции могут задаваться аналити- чески и в виде графических кривых. Так, например, в случае, если сообщением является плоское изображение, оно может быть представлено функцией двух аргументов вида: в Ы= S SAw-cos [2л 4 й=о1 = 0 I \ш п 1 J Здесь В (х±у) выражает распределение яркости В в любой точке изображения х, у. Этот аналитический ряд пред- ставляет собой последовательность синусоидальных со- ставляющих широкого диапазона частот, выражающих закон изменения яркости по площади изображения в различных направлениях. Если сообщением является подвижное изображение, оно может быть представлено функцией трех переменных В (х, у, t) или несколькими функциями этих переменных (объемные изображения). На рис. 16 представлен график изменения яркости по линии изображения х. Аналогичным образом задаются и другие типы непре- рывных сообщений. 175
Дискретные сообщения в математической форме опи- сываются обычно рядом чисел или букв. Так, если сооб- щением является комбинация импульсов в Труппе воло- кон, оно может быть пред- ставлено совокупное тью цифр 1 и 0, где 1 означает наличие импульса в данном нервном волокне, 0 — отсут- ствие его; последователь- ность оснований аденина, гуанина, цитозина и тими- на в молекуле ДНК мож- но представить комбинаци- ями чисел 0, 1, 2 и 3, где 0 соответствует аденину, 1 — гуанину, 2 — цитозину и 3 — тимину, и т. п. 4. Сигнал 1. Превращение сообщения в сигнал. Выше сообщение было определено как то, что подлежит передаче. Для того чтобы сообщение было передано данной системой связи, оно должно быть преобразовано на входе этой системы в физическую форму, пригодную для передачи по ее внутренним линиям (каналам). Так, для передачи сообщений, возникающих при общении в мозгу говоря- щего человека в виде определенных комбинаций нервных импульсов, последние должны быть преобразованы в форму звуков, письменных знаков и т. п. Эта возникающая в системе связи в результате преобразования новая физи- ческая форма сообщения называется сигналом. Превращение сообщения в сигнал состоит из трех операций, которые могуг быть независимыми или совме- щенными. Эти три операции следующие: преобразо- вание, кодирование и модуляция. Под преобразованием понимается просто перевод одних физических величин, определяющих первоначальное со- общение, в другие. Так, переменное звуковое давление, определяющее, например, шорох, пение птицы и т. п., преобразуется в соответствующее колебание жидкости внутреннего уха с помощью косточко-молоткового меха- низма среднего уха слухового органа. Пучки света, соот- 176
ветствующие какому-либо изображению, при попадании на палочки и колбочки сетчатки преобразуются в соот- ветствующие изменения потенциала электрона этих ре- цепторов. В обоих приведенных примерах среднее ухо и рецепторы сетчатки являются преобразователями со- ответствующих физических переменных величин исход- ных сообщений (звукового давления воздуха и светового потока) в другие (движение жидкости, изменение потен- циала электрона). Кодированием называется построение сигнала по опре- деленному правилу, благодаря которому между исходным сообщением и возникшим сигналом устанавливается одно- значное соответствие. Материальное звено системы связи, реализующее процесс кодирования, называется кодирую- щим устройством. И, наконец, под модуляцией понимается воздействие на некоторый параметр физического процесса, возникаю- щего при преобразовании сообщения в сигнал, в резуль- тате чего в изменениях этого параметра оказывается, так сказать, заложенным исходное сообщение. Можно сказать, что кодирование определяет мате- матическую сторону, а модуляция —физиче- скую сторону процесса превращения сообщения в сиг- нал. Так, например, при превращении световых потоков проецирующегося на сетчатку глаза изображения какого- либо внешнего события в изменения потенциалов электро- тона рецепторов сетчатки соответствие между сообщением и сигналом достигается количеством и геометрией располо- жения рецепторов в самой сетчатке (кодирование), в то время как передача изменения яркости в различных точках исходного изображения осуществляется путем изменения величины потенциала электротона в соответст- вующих рецепторах сетчатки (модуляция). Оба эти вопроса — кодирование и модуляция — до- вольно обширны. Некоторые подробности будут даны в следующем разделе. , 2. Квантование. Так же как и сообщения, сигналы могут быть непрерывными и дискрет- ными. Непрерывными сигналами являются, например, звуки напеваемой человеком мелодии, мимические жесты и т. п. Примерами дискретных сигналов могут служить импульсы нервных волокон, гормоны эндокринной си- стемы, молекулы РНК и т. ц. 177
Непрерывные сообщения могут быть преобразованы в дискретные сигналы и наоборот. Возможность преобразо- вания непрерывной функции в набор дискретных величин с исчерпывающей точностью впервые математически была доказана В. А. Котельниковым. Как правило, полоса частот непрерывной физической функции не простирается до бесконечности потому уже, что реальные системы связи, на входы которых поступают непрерывные сообщения, обычно способны пропускать лишь ограниченный спектр частот. Так, воспринимаемый спектр или полоса частот для органов зрения человека лежит в диапазоне от 4 • 1014 до 7,5 -1014 гц, а для слуха — от 16 гц до 20 кгц. Это значит, что, например, амплитуды частотных составляющих непрерывного сообщения с длинами волн ниже 380 и выше 780 ммк 1 на входе зри- тельного анализатора человека полностью подавляются. Обычно о таком факте говорят как об ограничен- ной частотной полосе пропускания канала связи. Ширина полосы, пропускаемых частот Д/ определяется как разность между самой высокой и самой низкой из пропускаемых частот. В простейшем случае 'М=fмаке —f мин, где fMai№ — максимальная (верхняя) пропускаемая частота, fMUH — минимальная (нижняя) частота. Для рецепторного слоя сетчатки человеческого глаза имеем Д / = 7,5-1014 — 4-Ю14 = 3,5-1014 гц. Фак- тически полоса пропускания каждого отдельного рецеп- тора гораздо ниже; она имеет также различное значение для разных палочек и колбочек. Очевидно, если fMUH = 0, то Д / = fMaKc. Сущность теоремы Котельникова состоит в следующем. Пусть информация, передаваемая по каналу в форме функции времени / (f), представляет собой совокупность колебаний с частотами v, конечную или бесконечную, дискретную или непрерывную; во всех этих случаях до- статочно, чтобы / (/) была непрерывной и ограниченной на изучаемом интервале времени, чтобы быть однозначно изобразимой посредством соответствующей тригонометри- ческой суммы или интеграла. Сколь бы далеко в область высоких значений v ни простиралась полоса частот, вос- производящих функцию / (f), практически обычно пред- ставляется достаточным по точности ограничить исполь- 1 Так называемые инфракрасная и ультрафиолетовая области светового спектра. 178
зуемую частотную полосу сверху некоторой частотою гр 1 vMaKC, которой соответствует по времени период 1 ле!,к—-• VntaKC Очевидно, точность аппроксимации функции / (/) будет при этом пропорциональна выбранному предельному значению vunKC или обратно пропорциональна значению Тпт- Можно показать, что функция / (£) будет в пределах избранной степе (гп точности исчерпывающим образом описана дискретной последовательностью ее значений (ордпны), если интервал между смежными значениями, Д t ж- . Геометрически (рис. 17) это значит, что на каждый полный период изменений самой высоко- частотен слагающей придутся минимум две ординаты. Изложенная теорема формулирует, таким образом, те условия, которым должно удовлетворять при назначенной степени точности изображение непрерывной функ- ции f(t) дискретно й последовательностью, пригод- ной для дальнейшей обработки данных на цифровой вычислительной машине. Таким образом, протекающая по каналу функция непрерывного сообщения всегда имеет ограниченный спектр, т. е. содержит в своем спектре лишь те частоты, которые лежат в полосе пропускания канала. Поэтому можно представить непрерывную функцию / (/) с помощью дискретных величин, указав мгновенные значения этой функции в определенные д 1 друг от друга на Аг = 2ду сигнал, представляющий пульсов, равных мгновенным функции / (f) и отстоящих друг от друга на интервалы 1 Д i =- позволяет однозначно восстановить непрерывное сообщение. Если непрерывная имеет длительность (продолжительность) от О число таких импульсов равно п = £ = 2Д/.Г. моменты времени, отстоящие секунды (рис. 17). Дискретный собой последовательность им- значениям непрерывной исходное функция до Т, то Таким образом, передача непрерывной функции с ог- раниченным сверху спектром частот может быть заме- 119
нена последовательностью дискретных значений, которые иногда называют независимыми отсчетами. Представление непрерывного сообщения в виде дис- кретных значений называется квантованием, а сигнал, представляемый последовательностью дискретных значе- ний, называется квантованным. Различают два случая: квантование во времени и квантова- ние по уровню. При квантовании по времени в сиг- 180
нале фиксируются те величины непрерывного сообщения, которые существуют в заданные мгновения времени (рис. 17). В случае квантования по уровню дискретный сиг- нал остается неизменным до момента, когда значение не- прерывного сообщения достигнет очередного значения некоторой заданной величины; это может произойти в любой момент времени (рис. 18). При квантовании сигнала уменьшается вредное влия- ние помех. Случайный импульс помехи, накладываясь на передаваемый сигнал, искажает результат. Избежать возникающую неопределенность, очевидно, можно путем выбора дискретной шкалы передаваемых уровней с таким расчетом, чтобы помеха не превосходила половины ин- тервала между двумя соседними уровнями. При таких условиях, приняв сигнал некоторой непрерывной величи- ны и отнеся его кближайшему дискретному уровню установленной шкалы, можно заведомо не совершить ошибки. Механизм квантования по уровню на передающем конце сводится к тому, что вместо данного мгновенного значения передаваемой величины (при непрерывном со- общении) передается ближайшее значение по установлен- 181
ной шкале дискретных уровней. Графически процесс квантования непрерывного сообщения х (f) по уровню и по времени можно представить как показано на рис. 19. Кривая х (/) наложена на прямоугольную сетку с ячейками Д t -\х, где Д t — шаг квантования по времени, Да: — шаг квантования по уровню. Квантование состоит в том, что вырабатываются импульсы, высота которых равна не ор- динате кривой, а высоте ближайшего квантованного уровня (рис. 19,а). Квантование по уровню всегда сопровождается не- большим искажением, так как посылаемые импульсы вос- производят функцию сообщения х (/) неточно. Разность между квантованными импульсами и фактической высотой о: (АД /), обозначенную на рис. 19,6 через ek и образующую последовательность импульсов, представленную на рис. 19, б, можно рассматривать как особого рода помеху. Она известна под названием шума квантования. Этот недостаток, однако, с избытком компенсируется вы- сокой помехоустойчивостью систем квантования. По- этому неудивительно, что механизмы квантования широко используются в рецептивных системах живых орга- низмов. 5. Кодирование. Модуляция 1. Код и его элементы. Кодом называется правило или набор правил, по которым составляются отдельные ком- бинации из элементов. Элементами кода являются символы и позиции. В непрерывных сообщениях и сигналах эле- ментарными символами являются значения, отсчитывае- мые по непрерывной шкале уровней изменения конкрет- ных физических величин. Так, для цветных изображений элементарными символами служат отдельные уровни градаций яркости, цветовых тонов; для звуков — высоты тонов, громкости; для мышечных сокращений — уровни растяжения мышц и т. п. Примерами символов дискретных сообщений и сигналов могут служить нервные импульсы, молекулы пахучих частиц, основания молекулы ДНК (рис. 20), аминокислоты белковых молекул, буквы, цифры, знаки и т. п. Весь ассортимент символов, используемых в сообщении или сигнале, образует алфавит сообщения (сигнала), а 182
состояние физического объекта или процесса, реализую- щего этот алфавит,— физический алфавит. Так, алфавит сигнала нервной системы состоит из двух символов: 1) «наличие импульса» и 2) «отсутствие импульса»; алфавит молекулы РНК состоит из четырех символов: аденина, гуанина, цитозина и урацила и т. д. Алфавиты непрерыв- ных сообщений и сигналов, математические функции ко- торых имеют ограниченные спектры, состоят из конечного множества символов; алфавиты сообщений с неограничен- ными спектрами, вообще говоря, бесконечны. Символы — безразмерные величины. Позиция является вторым элементарным структурным звоном комбинации. Множество позиции определяет про- странственное и временное размещение элементарных символов при кодировании сообщений и сигналов. В со- ответствии с этим имеются два типа позиций; простран- ственные позиции и временные по- зиции. Пространственные позиции служат для размещения символов алфавита в пространстве. Примерами элемен- тарных пространственных позиции могут служить рецеп- торы сетчатки, волоски слуховых клеток кортиева органа, тактильные рецепторы кожи и т. п., синаптические бляшки нейронов, углеводные остатки пентозы молекулы ДНК (рис. 20), разряды чисел и т. д. Пространственные позиции измеряются в единицах длины, площади, объема (например, в сантиметрах, квад- ратных сантиметрах, кубических сантиметрах и т. п.). Временные элементарные позиции задают размещение символов алфавита во времени. Временными элементар- ными позициями являются: точки отсчетов импульсов 1 2А/ временных функций при их квантовании; длитель- ности рефрактерных периодов в нервных волокнах и нейронах ш т. д. Временные позиции измеряются в единицах времени (секундах, минутах и т. п.). При кодировании и декодировании сообщений и сиг- налов каждой позиции ставится в соответствие один из символов алфавита применяемого кода. Так, например, при кодировании изображения в сетчатке каждой палочке и колбочке ставится в соответствие один из элементарных символов шкалы возможных уровней потенциала элект- 183
Тимин (2) Аденин (3) Гуанин Цитозин (0) Н Н-С-Н11 н н-с—н о н :—-с. Х'----2С-. А- 1 Сахар-фосфат 1 I Сахар-фосфат НО Н Н-С-Н О Н ' \ I ________J 11 и Сахар-фосфат ц Сахар-фосфат N N—С \ /ом Нис 20. •С. Нн^с-н н
ротона; при кодировании наследственных сообщений в молекуле ДНК каждому углеводному остатку пентозы ставится в соответствие один из четырех символов: аде- нин, тимин, гуанин или цитозин; при кодировании степе- ни растяжения мышцы каждому рефрактерному периоду нервного волокна ставится в соответствие один из симво- лов двоичного алфавита нервной системы: наличие или отсутствие импульса, и т. п. В различных кодах может применяться разное коли- чество элементарных позиций, причем их пространствен- ное и временное распределение в комбинациях создавае- мых сообщений и сигналов определяется правилами этпх кодов. В кодах, участвующих в образовании непрерыв- ных сообщений и сигналов с неограниченным спектром, количество применяемых элементарных позиций практи- чески бесконечно. Таковы коды, участвующие в образова- нии сообщений и сигналов реальных изображений. Коды, применяющиеся при создании дискретных сообщений и сигналов, обычно содержат конечное множество элемен- тарных позиций. Так, например, первичный код сетчат- ки человеческого глаза имеет примерно 140-103 элемен- тарных пространственных позиций (соответствующих ко- личеству палочек и колбочек); коды нейронов имеют от нескольких единиц до нескольких тысяч элементарных позиций (синаптических бляшек) и т. п. Количество (ассортимент) используемых в коде элемен- тарных символов (букв) образует основание кода, а сово- купность используемых элементарных позиций — раз- рядность кода. Основание кода обычно обозначается бук- вой т, а разрядность — буквой п. ' При кодировании сигнала происходит сопоставление множества элементарных символов и позиций исходного сообщения с множеством символов и позиций сигнала, причем это сопоставление осуществляется по определен- ным правилам. Правила, используемые при кодировании и декодиро- вании сообщений и сигналов, могут иметь самую разно- образную природу. Например, правила, применяемые при кодировании сообщений зрительного характера (кар- тины, изображения), определяются геометрией (геометри- ческой формой) и оптическими свойствами самих источни- ков сообщений; аналогично этому, при кодировании зву- ковых сообщений они определяются геометрией и упру- 185
гими свойствами источников; при кодировании устных и письменных сообщений человеческой речи — граммати- кой данного языка, логикой; при кодировании дискрет- ных сигналов в форме молекул РНК — геометрией и хи- мическими свойствами молекулы ДНК и т. п. Правила, используемые в кодах каналов связи, входя- щих в состав самоорганизующейся системы, обычно за- даются в виде фиксированных структур; однако в слож- ных самоорганизующихся системах, функционирующих, например, в организмах высших животных и человека, некоторые правила могут формироваться самими звень- ями управления и контроля этих систем. Таковы правила грамматики, по которым осуществляется кодирование и декодирование сообщений и сигналов в виде устной и пись- менной речи. В сущности, любые специальные сведения, введенные в человеческий мозг тем или иным путем, фор- мируют в его системах связи комплексы правил, которые позволяют кодировать сложные сообщения и декодиро- вать сложные сигналы, например по медицине, физиоло- гии и т. п. Частным случаем кода является система счис- ления. Система счисления служит для кодирования количественных данных. Символами этого кода обычно служат цифры и знаки, позициями — разряды. В зависимости от величины основания кода различают двоичную, троичную, восьмеричную, десятичную и т. п. системы счисления. Например, код, у которого основание т = 2, т. е. состоит всего из двух символов: 0 и 1, назы- вается двоичной системой счисления; хорошо изве- стная нам десятичная система счисления представ- ляет собой код с основанием т = 10 (элементарными сим- волами являются цифры 0, 1, 2, 3, 4, 5, 6, 7, 8, 9) и т. п. В системах счисления каждый разряд (позиция) опре- деляет цену (значение) используемой цифры; при этом различают разряды единиц, десятков, сотен и т. п. На- пример, цифра 2, очевидно, имеет разную цену, находясь в разряде единиц, десятков и т. п. Основание т и разрядность п полностью определяют возможности избранного кода. Например, с помощью кода, имеющегося т = 10 и п = 1, можно представить в числовой форме не более 10 данных; от М = 0 до М = 9, выбирая для этого соответствующую цифру из ассорти- мента символов основания; при т = 10 и п = 2 можно 186
составить 100 (или 102) чисел: от М = 00 до М = 99; при т = 10 и п = 3 можно составить 1000 (или 103) чисел; при т = 10 и п = nt количество чисел или максимально возможное число выражается следующим соотношением М = 10";. Если же имеется другое количество разных символов и, следовательно, иное основание т, то в общем случае М — тп. (1) Любую систему счисления графически можно предста- вить двумерной системой символов, в которой одно изме- рение представляется совокупностью различных элемен- тарных символов (основанием), а второе — повторениями одинаковых символов в таком количество, которое необ- ходимо для составления данного числа (разрядность). Пример. Пусть мы имеем число М = 1000. Пред- ставим это число в разных системах счисления [130]. В единичной системе счисления основание т = 1 (со- стоит из единственного символа), поэтому число М, равное 1000, может быть представлено, очевидно, повторением этого символа 1000 раз (в пространстве или во времени), т. е. п = 1000. Этот случай отмечен на рис. 21,а цифрой I. В двоичной системе т = 2, а количество разрядов (позиций) находим из общего соотношения (1), которое после логарифмирования при основании 2 получает вид log2M = п log2wz, откуда п = у = logHOOO.^9 96658=10. log22 1 Здесь при полном использовании всех двоичных цифр 10 разрядов представляемое число равно 1024, т. е. двоичная система счисления перекрывает наше число. Этот факт мы отмечаем знаком приближенности М ~ 1000. Кодирование числа М == 1000 по двоичной системе с применением двух черных кружков (точек) отмечено на рис. 21, а цифрой II. Следует отметить, что для получения двух разных символов необязательно прибегать к одной (по горизонтали) и двум (по вертикали) точкам. Здесь можно воспользоваться двойственностью состояний одной точки, а также любого другого элементарного символа или физического явления. Этими состояниями могут быть наличие и отсутствие импульса в нервном волокне, воз- 187
буждение и торможение нейрона, наличие и отсутствие больного па больничной койке и т. и. Представление информации в той или иной системе счисления связано с решением задач кодирования. По простоте и надежности реализации, компактности и эко- номичности двоичное кодирование по сравнению с другими т-1000, п-1 т-2, п-10 Рис. 21, а. т-1, п-1000 п методами кодирования обладает существенными преиму ществами. Поэтому оно получило широкое распростране нпе в системах связи, управления и контроля, созданных живой природой, в особенности в нервной системе. На рис. 21, а под номером III показано кодирование по четверичной системе (т = 4): log,1000 log,1000 г П —:----- - --;-- О. При этом максимальное число будет 1024. 188
При десятичном кодировании т = 10 и _ log101000 log10 1000 „ п~ igloio - 1 -d- Этот случай представлен цифрой IV. На рис. 21,а (случай V) приведено кодирование того же числа по системе т = 32, п = 2. Наконец, случай VI на рис. 21,а представляет коди- рование по бесконечной системе счисления, которая ха- рактеризуется здесь измерениями т = М, п = 1. т зг зо VI Y М^т" ДляМ^ООО го т 1000 зг 10 4 г 1 п 1 .г з 5 to юоо а г 4 6810 3 5 го зозг п Рис. 22, а, 6 Рис. 21, 6. ю I На рис. 21,а мы в качестве символов использовали черные кружки. Различие в символах основания (алфа- вита) кода здесь достигается изменением высоты т или количеством черных кружков в соответствующем верти- кальном ряду. При кодировании чисел меньше 1000 неко- торые символы окажутся неиспользованными, и этому будут соответствовать белые кружки или пропуски. На рис. 21,6 приведены таблица для рассмотренных случаев кодирования числа М == 1000 и график, показы- вающий общую закономерность. Пронумерованные рим- скими цифрами точки соответствуют шести рассмотрен- ным выше случаям. Сопоставляя различные системы счисления, можно заметить, что чем ниже основание системы, т. е. чем мень- ше число цифр, которым она оперирует, тем больше раз- рядов (позиций) требуется для записи данного числа по данной системе. 189
2. Модуляция. В передаче сигналов всегда принимает участие некоторый физический агент, переносящий сиг- нал. Этот физический агент в теории связи называется переносчиком. Обычно в качестве переносчиков исполь- зуются физические процессы, обладающие свойством рас- пространяться, перемещаться в пространстве. К их числу относятся различные процессы волнового характера (зву- ковые, ультразвуковые волны, свет), ток газа, жидкости, теплопроводность, диффузия, механическое перемещение. Так, при устном общении людей переносчиками сигналов служат звуковые колебания, свет; переносчиками сигна- лов нервной системы — электрохимические волны воз- буждения; переносчиком химических сигналов эндокрин- ной системы (гормонов) — ток крови; переносчиком молекул РНК в клетке — процесс механо-химического перемещения и т. п. На передающем конце системы связи (в передатчике) переносчик испытывает некоторое воздействие, изменяю- щее в соответствии с сообщением тот или иной параметр переносчика. Например, при общении людей посредством разговора генерируемые в речедвигательном аппарате го- ворящего человека звуковые колебания при произнесе- нии слов изменяются по частоте и ампли- туд е в соответствии с фонетической структурой произ- носимого слова; при раздражении афферентного волокна внешним стимулом возникающая в нем импульсация и з- меняетсяпо частоте в соответствии с силой стимула; при возбуждении нервного центра гормональ- ным путем сила возбуждения изменяется в зависимости от изменения концентрации соответствую- щих гормонов в крови, омывающей мозг, и т. п. Это воз- действие и называется модуляцией. Параметрами процессов, подвергающимися из- менению (модуляции), могут быть частота, амплитуда, фаза, концентрация, плотность и т. п. В зависимости от того, какой параметр переносчика модулируется, различают модуляцию амплитудную, частотную, фазовую, импуль- сную и т. п. Например, при произнесении слова в рече- двигательном аппарате говорящего человека применяется амплитудная и частотная модуляция звуковых колебаний (рис. 22, а); при передаче сигналов в нервных волок- нах используется частотно-импульсная модуляция 190
(рис. 22, б). Таким образом, различие в видах модуляции есть различие в переносчиках и их параметрах. Функция, математически описывающая закономер- ность изменения параметра переносчика при модуляции, называется модулирующей функцией. Очевидно, модули- рующая функция сигнала равна функции исходного сооб- щения. Только модулирующая функция несет информацию, которая имелась в исходном сообщении. Этой функцией мо- гут быть: колебание, повторяющее речь, музыку; вспыхи- вание лампочки; изменение температуры, давления и т. п.; или же дискретные символы гормональной регуля- ции, молекулярной наследственной передачи и т. п. Фи- зический процесс, параметры которого подвергаются моду- ляции, является лишь средством перенесения информации. Может показаться, что для преобразования сообщения в сигнал достаточно только одной модуляции, так как мо- дулирующая функция повторяет функцию сообщения. В действительности это не так. Преобразование функции сообщения в модулирующую функцию на входе системы связи всегда осуществляется по определенным кодовым правилам; эти же правила учитываются при обратном пре- образовании модулирующей функции в функцию сообще- ния на выходе системы связи (декодирование и демодуля- ция), благодаря чему между сообщением на входе и сооб- щением на выходе системы связи устанавливается одно- значное соответствие. Пример. Предположим, врач осматривает боль- ного. В этом случае источником сообщения является тело больного. Часть отраженного от этого тела света попадет при осмотре в сетчатку глаз врача, создавая в ней изоб- ражение. Разные участки тела больного будут по-разному отражать падающий на них свет, одни будут отражать больше света, другие меньше; кроме того, одни участки будут отражать только красный свет, другие — только коричневый и т. п. Соответственно этому, на одни рецеп- торы сетчатки глаз врача будут попадать пучки света большей интенсивности, на другие — меньшей и т. п. В данном случае падающий на тело больного свет изменяется по амплитуде и частоте; те из отраженных от поверхности тела пучков света, которые попадут в сет- чатки глаз врача, будут, очевидно, представлять собой амплитудно и частотно модулированные сигналы, несущие информацию о больном. Сообщениями являются после- 191
дователъпо просматриваемые врачом отдельные участки поверхности тела больного. Символами этих сообщений служат единичные уровни поглощения и отражения света соответствующей непрерывной шкалы уровней; позициями являются элементарные площадки тела больного, способ- ные поглощать и отражать кванты света. Символами сиг- нала являются амплитудные и частотные составляющие спектра света, на которые реагируют рецепторы сетчатки; позициями служат пространственные координаты отдель- ных точек пучка, несущего изображение. При преобразовании функции сообщения, соответ- ствующей осматриваемому участку тела больного, в мо- дулирующую функцию сигнала происходит сопоставление символов и позиций сообщения с символами и позициями сигнала, причем правила сопоставления определяются, очевидно, геометрией и оптическими^ввойствами осматри- ваемого участка поверхности тел' оольного. При обрат- ном преобразовании сигнала в сообщение эти правила должны учитываться соответствующим структурным по- строением кодирующих и декодирующих устройств зри- тельного анализатора человека. Хотя сообщения на пере- дающем конце (участок тела больного) й на выходе пашей системы связи (мозг врача) построены из символов раз- личных алфавитов, между ними устанавливается одно- значное соответствие именно благодаря наличию процес- сов кодирования и декодирования 6. Линия и канал связи Линией связи называется среда, используемая для передачи сигнала от передатчика к приемнику. Этой средой может быть, например, приземный воздух атмос- феры, вода рек, морей, океанов, артериальная кровь, осевой цилиндр нервного волокна, кариоплазма и цито- плазма клетки и т. п. Линии связи могут быть одно- родными и неоднородными. В однородной линии связи среда распространения сиг- нала однородна по своему составу. Примером однородной линии связи может служить ассоциационное волокно, сое- диняющее между собой два отдельных участка коры го- ловного мозга. Неоднородная лппия связи обычно состоит из несколь- ких разнородных участков. Примером неоднородной ли- lb.
нпи может служить линия связи, по которой осуществляет- ся общение врача с пациентом. В этом случае участками линии будут: нервные волокна речедвигательного анали- затора говорящего врача, воздушная среда в промежутке, разделяющем врача и пациента, жидкость внутреннего уха и волокна слухового нерва пациента (рис. 15). Каждый участок неоднородной линии связи характе- ризуется своим физическим алфавитом. Сигнал, распро- страняющийся по неоднородной линии, на границах от- дельных ее участков испытывает преобразование из од- ного физического алфавита в другой, причем информация в сигнале, т. е. соответствие первоначальному сообщению, сохраняется. Так, в нашем примере сигнал на различных участках линии связи приобретает форму то комбинации нервных импульсов, то звуковых колебаний, то колеба- ний жидкости, то снова комбинации нервных импульсов, и тем не менее на приемном конце системы связи (рис. 15) сообщение по конечному сигналу полностью восстанавли- вается, что, как мы видели, обеспечивается работой соот- ветствующих кодирующих и декодирующих устройств. В приведенном выше примере общение врача с пациен- том осуществляется посредством устной речи. Однако своп мысли врач может передавать пациенту и с помощью ми- мики, жестов и т. п. Система связи, реализующая такую передачу, также будет состоять из разнородных участков (например, из лицевого и тройничного нервов врача, воз- душной среды и зрительного нерва пациента — при обще- нии посредством мимики). Кроме того, устная речь врача может сопровождаться жестами, мимикой и т. п. При таком общении в отдельные моменты времени могут, очевидно, одновременно переда- ваться два и более сообщения. В этом случае каждое сооб- щение следует по своему каналу связи. Напри- мер, произносимые врачом слова будут передаваться по речевому каналу, его жесты и мимика — по зрительному каналу и т. п. Каналом связи называется совокупность материальных элементов, обеспечивающих независимую передачу одного сообщения. Система связи, позволяющая передавать по одной ли- нии и по отдельному ее участку несколько независимых сообщений одновременно, называется многоканальной. Рассмотренная нами система связи «мозг врача — мозг пациента» является, очевидно, многоканальной. Другими 7 Чериыш в. и. 193
примерами многоканальных систем связи могут служить кровеносные сосуды, содержащие каналы передачи различ- ных химических сигналов, нервы внешней и внутренней рецепции, оптический и слуховой нерв и т. п. Схематически система двусторонней связи «мозг врача — мозг пациента» представлена на рис. 23. Сигналы звукового и зрительного каналов этой системы смешиваются на входе воздушного участка линии; на вы- ~{и'} | * Система связи Перевт зрит, канала Приемн. звуков. канала I ГГГ" тиЧ трепан звуков. I канала fir", Приемн. Ц2. зрит. ""Т" j канала <NL возк срёва /П| {и"1 •хканала риемн. звук. канала 'риемн. зрит, канала ^55 те анола источник I помех к <1 Рис. 23. ходе этого участка сигналы снова разделяются и затем в конце каждого канала преобразуются в независимые сообщения. Для того чтобы из смеси сигналов, поступаю- щих с общего участка линии, выделить сигнал некоторого капала, необходимо произвести операцию разделения (селекции). Эта операция в рассматриваемой системе осуще- ствляется рецепторами, которые выполняют функ- ции разделителей. В общем случае для выполнения опе- рации разделения необходимо, чтобы сигналы различных каналов отличались друг от друга по некоторому опреде- ленному физическому признаку и чтобы разделители способны были, основываясь на этом признаке, реагиро- вать на требуемый сигнал и не реагировать на все остальные. В многоканальной системе связи возникает новый вид помех: помехи от соседних каналов, обусловленных не- совершенством разделения. Так, если врач будет беседо- вать с пациентом в людном помещении, то доносящийся до 194
них говор, очевидно, будет в какой-то мере мешать их беседе. Влияние сигналов соседних каналов мы относим к помехам, определяя помехи как все то,-что не есть желае- мый сигнал. Помехи,, с которыми приходится сталкиваться в систе- мах связи, довольно разнообразны и по своему происхож- дению, и по характеристикам. Наиболее распространен- ные виды помех сводятся к двум основным типам: им- пульсные и флюктуационные (шум ы). Импульсные помехи характеризуются случайной вели- чиной длительности и моментом появления в линии (ка- нале) связи. Импульсные помехи обычно имеют ограничен- ный спектр, примерами их могут служить случайные по- сторонние звуки, вспышки света, шорох и т. п. для воздушных каналов связи, случайные импульсы в нервных волокнах, мутации в молекулярных каналах связи и т. д. Флюктуационные помехи, или шумы, представляют собой бесконечную последовательность коротких импуль- сов, имеющих случайную величину и следующие друг за другом через случайные промежутки времени. Шумы об- ладают неограниченным однородным спектром, поэтому их часто называют «белыми шу мам и» по аналогии с белым светом, имеющим сплошной и более или менее однородный (в пределах видимой части) спектр. Флюк- туационными помехами являются темновые шумы сетчат- ки, спонтанная импульсация нейронов, флюктуации уров- ней поляризации афферентных волокон и т. п, Белый шум в силу неограниченности своего спектра принципиально не может быть устранен простыми филь- трационными средствами; он мешает в каналах связи с любой шириной полосы и является поэтому особенно зло- вредным видом помехи. Тем не менее разработаны приемы, позволяющие очень значительно снизить нарушающее дей- ствие примеси белого шума на передаваемую информацию; о них см. ниже (стр. 259). Как импульсные, так и флюктуационные помехи обыч- но возникают на всех участках реальной системы связи. Выходом любой линии (канала) связи служит приемник. Приемник обычно выполняет операции, обратные функциям передатчика, восстанавливая перво- начальное сообщение из принятого сигнала. Однако при наличии помех сообщение, полученное с приемника, не всегда соответствует переданному сообщению. 7* 195
Получателем является материальная система (объект), к которой поступают принятые сообщения. Системы связи в целом делятся на три основных типа: дискретные, непрерывные п смешанные. Дискретной на- зывается система связи, в которой как сообщение, так и сигнал дискретны. Примером дискретной системы связи может служить система «ДНК — синтезируемый белок», где сообщением на входе системы является последователь- ность оснований в молекуле ДНК, сообщением па выходе — последовательность аминокислотных остатков в син- тезируемой молекуле белка, а сигналом — последователь- ность оснований в молекуле РНК. В непрерывной системе как сигнал, так и сообщение рассматриваются как непре- рывные функции. В смешанных системах имеются как не- прерывные, так и дискретные переменные, примером чего может служить рассмотренная уже нами система связи «мозг врача — мозг пациента». К числу систем связи можно отнести и системы памяти (запоминающие устройства) — материаль- ные структуры, специально предназначенные для хране- ния информации. Действительно, хранение сведений в памяти можно преставлять себе как передачу информации, но не в пространстве (пз одного места в другое), а во вре- мени (от одного момента времени до другого) [54]. При этом помехе соответствуют всевозможные причины, приво- дящие к забыванию и искажению хранящейся информации. Поэтому мы можем считать, например, любую карточку, содержащую какие-либо пометки (скажем, историю болезни), каналом связи, в котором кодирование осуще- ствляется при записи, а декодирование — при чтении. Другим каналом связи тина памяти может служить моле- кула ДНК; здесь кодирование осуществляется при син- тезе молекулы, декодирование — при ее дупликации. Число подобных примеров может быть увеличено.
ГЛАВА 6 ТЕОРИЯ ИНФОРМАЦИИ В предыдущей главе мы познакомились со структурой и механизмом функционирования одиночной системы связи, а также с основными типами систем связи. Теперь мы переходим к рассмотрению вопросов, ко- торые позволят нам оценивать производительность и, сле- довательно, эффективность работы каждой конкретной системы связи. Живая природа создала множество различных типов систем связи. Одни из этих систем более совершенны, дру- гие — менее; одни работают более эффективно, другие — менее. Ясно, что более эффективной будет система связи, которая способна за одно и то же время передать большее количество сообщений по сравнению с другими системами связи. Но как измерить это количество сообщений? Для этого нужно, очевидно, ввести прежде всего определенную количественную меру для сообщения. Такой мерой является количество информации, содержащейся в передаваемом сообщении. С установлением числовой меры для сообщений начи- нается новый очень важный раздел теоретической кибер- нетики — теория информации. Теория инфор- мации [14, 25, 28, 32, 40, 47, 50, 53, 54, 57, 61, 67, 68, 70, -82, 86, 94, 95, 104, 114, 115, 130, 131, 132, 134, 139, 144, 145, 148, 149, 151, 153, 154, 155, 162, 163] является мате- матическим аппаратом изучения количественных законо- мерностей, связанных с приемом, обработкой, хранением и передачей информации. Возникнув в 40-х годах из прак- тических задач теории связи, теория информации в на- стоящее время становится необходимым математическим инструментом при изучении всевозможных процессов уп- равления. 197
1. Информационная емкость Сообщения и сигналы, которыми оперирует каждая система связи, относятся к категории случайных явлений. В любой момент времени неизвестно, какое именно сооб- щение поступит на вход системы связи; сообщения, изве- стные получателю, не нуждаются в передаче. Поэтому в теории информации мера, связанная с понятием количе- ства информации, основывается на вероятностных соот- ношениях. Смысловое содержание сообщений, важное для систем управления и контроля, в системах связи не иг- рает никакой роли и не учитывается в понятии количества информации. Для системы связи существенно лишь, сколь часто появляются те или иные сообщения на ее входе и сколь вероятны искажения несущих их сигналов поме- хами внутри системы. По этой причине математиче- ское понятие информации, которым оперируют в тео- рии информации и в общей теории связи, не совпадает с обыденным значением этого термина. Для любой системы связи можно предположить, что передаваемое ею в данный момент сообщение принадле- жит некоторому заданному классу сообщений. Этот класс сообщений может иметь самую разнообразную природу. Например, множество сообщений, передаваемых по ка- налу речи в системе «мозг врача — мозг пациента» — это совокупность различных комбинаций импульсов мозга, соответствующих всевозможным фразам на русском языке; сообщения на входе сетчатки глаза принадлежат к мно- жеству всевозможных изображений, картин; сообщения на входе системы связи в механизме синтеза белка — сово- купность всевозможных сочетаний оснований в моле- кулах ДНК, соответствующих множеству наследственных признаков данного вида, и т. п. Если множество сообщений {и} принадлежит к кате- гории дискретных сообщений, то оно является конечным; при этом подсчет числа возможных сообщений N, состоя- щих из конечного числа символов и позиций, не состав- ляет труда. Пусть алфавит данного множества дискретных сообще- ний состоит из т символов, а разрядность сообщений — из п позиций. Будем рассуждать так. Если наше множество сообщений имеет алфавит т и разрядность п = 1 (т. е. каждое сообщение этого множества состоит из одной по- 193
зиции), то любое наугад выбранное из этого множества сообщение будет состоять из одного из символов алфавита иг, занимающего единственную позицию сообщения. Оче- видно, всего будет тп таких одноиозиционных сообщений. Если множество имеет алфавит m и разрядность п = 2, то каждое сообщение этого множества будет иметь две по- зиции и, следовательно, число возможных сообщений в этом множестве будет N = иг-иг = иг2. В общем случае, когда сообщения множества {и} имеют алфавит m и разрядность п и вероятность появления в любой позиций п каждого из символов иг алфавита одина- кова, будем иметь: N = mn. (1) Это число возможных сообщений в множестве {и}. Для множеств с непрерывным алфавитом число возмож- ных сообщений бесконечно велико. Однако, как мы виде- ли, передатчики реальных биологических систем связи реагируют только на отдельные дискретные значения не- прерывных величин. Поэтому квантованием этих величин можно представить любую такую функцию в виде конеч- ного алфавита символов с конечным числом разрядов. Таким образом, можно свести непрерывный алфавит к дискретному и пересчитать все возможные сообщения и в этом случае. Соотношение (1) определяет информационную емкость или максимально возможное число сообщений, которые способна выдать, передать или хранить в себе система, оперирующая алфавитом из т символов и разрядностью из п позиций. Этой системой может быть источник сообщений, канал связи или запоминающее устройство. Информационную емкость Q принято, однако, оцени- вать логарифмом числа возможных сообщений <2 = logeW = nlogam, (2) где а — основание логарифма. Применение логарифмической меры для измерения объемов информации и в других измерениях количеств информации оправдано тем, что она обладает рядом пре- имуществ, делающих удобными математические расчеты. 199
В частности, она обладает математическим свойством ад- дитивности, благодаря которому, например, объемы ин- формации различных источников сообщений могут сумми- роваться. Так, если мы имеем два источника сообщений с емкостями 7V, = mJ и TV2 = тп"2, то, нагружая оба этих источника на один канал связи, будем иметь общую информационную емкость сложного источника сообще- ний: У=У1.У2 = 7И?1.ш22. Логарифмируя это выражение, получим logfl У = loga (У, • NJ = loga У, + log„- Nt = = n1loga-m1+ra2loga-wi2; но logJV = Q, поэтому logJVi = Qi и logJV2 = Q2, следовательно, Q = Qi ~r Q2 = n Jog.mt 4- n2logazn2. Как мы видим, для определения информационной емко- сти одного и того же сложного источника в первом случае нам пришлось бы производить сложные вычисления воз- ведения в га-ные степени и умножения, в то время как во втором случае задача сводится к простым операциям ум- ножения и сложения. Кроме того, во втором случае мы имеем большую наглядность. Поэтому логарифмическая мера применяется во всех измерениях количества информа- ции. Выбор основания логарифма а в принципе безразличен. Обычно принимают а = 2. В этом случае источник, обла- дающий алфавитом всего из двух символов (т = 2) и од- ной позиции (п = 1), будет обладать емкостью q — п 1 og2 т = 1 log2 2—1. Эта минимальная величина информационной емкости на- зывается двоичной единицей информации. Она служит единицей измерения информационной емкости различных источников. В отечественной литературе ее обозначают «дв. ед»; в зарубежной литературе установилось обозна- чение «бит» («bit» от английского binary digit — двоичная единица). Иногда информацию измеряют в десятичных единицах (дес. ед.); при этом пользуются обычным десятичным лога- рифмом (а = 10). Десятичная единица примерно в 3,3 раза крупнее двоичной единицы (ибо log210 = 3,32). ;оо
Одной десятичной единице соответствует емкость элемен- тарного источника с алфавитом т = 10 и разрядностью п — 1. Таким образом, выбор основания логарифмов опреде- ляет единицы, в которых выражена информационная емкость. Для двоичного логарифма величина Q = log, У — п log2 т (2а) будет измеряться в двоичных единицах (битах). В даль- нейшем мы будем все время пользоваться двоичными ло- гарифмами. Если линия (канал) связи, по которой передаются сиг- налы в течение интервала времени Т, оперирует алфавитом Т m символов и разрядностью ге=ду квантования по времени, или одна временная позиция), то ее информационная емкость за этот отрезок времени будет п т . дв, ед, , Q — — log, m -д-------. (2в) Д/ 02 ед, времени ' ' позиции (где Д t — шаг Если Т равно одной секунде, то информационная емкость будет выражена в двоичных единицах на секунду. Типич- ным примером такого канала связи может служить нервное волокно; для нервных волокон Д t — длительность рефрак- терного периода (цикла возбуждения). Для линий (каналов) связи, передающих в течение ин- тервала времени Т сигналы, квантованные по времени и по уровню, информационная емкость равна Т . (. . х \ дв. ед. — 1оц 1 ---------I------------- Д< 62 \ Дж / ед. времени (2г) где х — значение величин, отсчитываемых по шкале ка- кпх-либо уровней (например, уровней яркости, интенсив- ности, температуры, давления и т. п.), Да: — шаг кванто- вания по уровню; . I х тп = 1 + -г- алфавит канала связи. Примерами этого типа каналов связи могут слу- жить рецепторные окончания органов внешней и внутрен- ней рецепции нервной системы животных и человека. П р и м е р ы. 1. Определим емкость некоторой идеаль- ной модели человеческой памяти 194]. Кудем считать ней- роны элементарными ячейками такой памяти. 201
Каждый нейрон в любой момент времени может нахо- диться в одном из двух состояний: 1) в возбужденном (ге- нерировать импульс) и 2) спокойном. Следовательно, ал- фавит нейрона состоит из двух символов: т = 2; разряд- ность п — 1 (одна пространственная позиция). Находим информационную емкость нейрона: qn = п log2 «г = 1 дв. ед. Далее, учитывая длительность рефрактерного периода, примем, что нейрон способен возбудиться до 15 раз в се- кунду; это значит, что нейрон в течение секунды может занимать 15 временных позиций. Учитывая некоторые имеющиеся биохимические данные, сделаем допущение, что в нервной системе никогда ничего не забывается, счи- тая, что однажды полученные впечатления могут лишь уходить из оперативных центров нервной деятельности (т. е. из центра внимания) в другие области, но не исче- зают окончательно. Тогда, принимая, что средняя дли- тельность человеческой жизни равна 60 годам, или 2-10® секундам, найдем, что один нейрон за это время может занять 15-2-10’ временных позиций (И|=15х х2-10’ = 3 -1010). Количество нейронов в человеческом мозгу будем счи- тать равным 14-10’, этому соответствует число про- странственных позиций пп = 14-10’ = 1,4-10”. Общая разрядность памяти п — nn-nt= 1,4• 10”-3• 10” = 4,2-10” позиций. Емкость памяти определяем из соотношения (2а): @ = га Iog2 «г = 4,2-10” log2 2 = 4,2-10” ди. ед. 2. Найдем информационную емкость хромосом ядра половой клетки 1163]. Носителями наследственной информации в хромосоме являются молекулы ДНК. Алфавит молекулы ДНК со- стопт из 4 символов: т = 4. Длина молекулы ДПК в хро- мосоме может достигать порядка нескольких тысяч угле- водных групп (а следовательно, и позиций), а число отдельных хромосом в ядре клетки может равняться не- скольким десяткам. Мы примем среднее число позиций в молекулах ДНК всех хромосом ядра половой клетки рав- ным га = 20 000. 202
Находим величину количества информации, которая может быть запасена в хромосомах клетки: Q = п log2 т — 20 000 log2 4 = 40 000 дв. ед. Это — огромное количество, которого с избытком хватает для хранения всех передающихся по наследству данных; зедь выписанная величина равна информации, доставляе- мой указанием одного из 420 000 равноправных вариантов, а уже число 410“ во много раз превышает число атомов во всей нашей Галактике. 3. Вычислим информационную емкость обыкновенного чистого листа бумаги, предназначенного для напечатания текста на медицинскую тему. Будем считать, что с учетом пробелов между словами на таком листе помещается 2000 знаков. Следовательно, разрядность тг=2000 позиций. Далее, алфавит текста, очевидно, будет включать буквы русского алфавита, буквы латинского алфавита, знаки препинания, цифры и знаки простых арифметических опе- раций (сложения, вычитания, умножения, деления, ра- венства). В итоге имеем: русский .алфавит т ( = 32, латинский алфавит 7П2 = 27, знаки препинания = 12, цифры 7714 = 10, арифметические знаки тп5 = 5. Отсюда находим «медицинский» алфавит: т — т1 4-тп2 4- тп2 4- 7п44-777, = 32 4-27 + 12 + 10 +- 5; 7п = 86 символов. Искомая информационная емкость нашего лисга Q = п log2 тп = 2000' log2 86 «а 2000-6,5 = 13 000 дв, гд. На этом основании может показаться, что наш лист бу- маги, если он заполнен каким-либо конкретным медицин- ским текстом, будет содержать 13 000 дв. ед. информации. Но мы еще не дали определения количества информации, мы определили лишь информационную емкость, а между этими двумя понятиями имеется существенное различие. Информационная емкость показывает, какое пре- дельное количество информации может хра- нить, выдать или передать система, если опа обладает кон- кретным алфавитом в т символов и разрядностью в п 203
позиций. Одпако при этом ничего не говорится об информа- ции. действительно содержащейся в данной системе. Чтобы подойти к определению понятия количества ин- формации, необходимо представить себе, как заполняется информационная емкость системы и какая ее часть дей- ствительно используется при хранении, передаче или вы- даче информации. По-видимому, ни один из 14 млрд, нейронов человече- ского мозга не находится в состоянии непрерывного воз- буждения с частотой, определяемой удвоенной длитель- ностью рефрактерного периода,— одни нейроны возбуж- даются чаще, другие реже; более того, один и тот же нейрон в разные моменты будет возбуждаться с различной частотой. Основания в молекулах ДНК чередуются не в любой последовательности; кроме того, в двойной спирали ДНК хромосомы аденин сочетается только с тимином, а гуанин — с цитозином. Знаки «медицинского» алфавита в каждом тексте будут bctj ечаться не в любой комбинации, а во вполне определенных сочетаниях; за сочетанием сим- го юв «нейр» чаще будет следовать символ «о», а не любой другой, между двумя последовательными сочетаниями сим- волов «нейрон» и «возбужден» всегда должна находиться пустая позиция (промежуток) и т. д. Все эти ограничения приводят к тому, что любое реальное сообщение (сигнал), представляющее собой, например, комбинацию возбужде- ний нейронов в человеческом мозгу, сочетание оснований в молекулах ДНК или медицинский текст, помещенный на листке бумаги, в подавляющем большинстве случаев со- держит количество информации, гораздо меньшее инфор- мационной емкости соответствующей системы. Но как же определить действительное количество ин- формации, содержащейся в сообщениях и сигналах, за- полняющих информационные емкости соответствующих источников, каналов связи или памяти? Для этого нужно, очевидно, подобрать такую количественную меру, которая учитывала бы специфические особенности сообщений и сигналов. 2. Количество информации. Энтропия Как мы видели, в основе формирования сообщений и сигналов лежат процессы кодирования-декодирования. Если код имеет т символов и п позиций, то с помощью этих 204
элементов можно было бы в принципе составить Л’ = тп различных сообщений. В действительности же большин- ство встречающихся кодов обычно содержат наборы правил, которые разрешают лишь определенные комбинации сим- волов и позиций из числа возможных и запрещают осталь- ные. Результатом этих ограничений является то, что в сообщениях и сигналах, получаемых при таком кодиро- вании, различные символы алфавита кода используются очень неравномерно: одни символы используются часто, другие — редко. Так, в любом сообщении, состав- ленном из букв русского алфавита по правилам русской грамматики, чаще всего будут встречаться буквы о, е, а, и, т и гораздо реже буквы ш, ц, щ, э, ф; в сообщениях, со- ставляющихся из символов двухбуквенного алфавита в нервных сетях мозга человека (например, врача при его общении с пациентом), символ «отсутствие импульса» будет встречаться, очевидно, чаще, чем символ «наличие импульса», ит. и. Таким образом, ограничения, накладываемые на воз- можные комбинации символов и позиций правилами при- меняемых кодов, ведут к тому, что в реальных сообщениях различные символы одного и того же алфавита в среднем встречаются с разной вероятностью. Пусть мы имеем код с основанием т символов и раз- рядностью п позиций. Предположим, что символами кода являются: /г,, /г2 .,/г,., . . ., /ги, вероятности появления которых не равны и выражены со- ответственно так: рл, рт. Это значит, что в сообщениях, составленных с помощью нашего кода, символ hi в среднем будет встречаться с ве- роятностью pt, символ h2 — с вероятностью р2 и т. д. Составим с помощью кода сообщение. Пусть в этом сообщении п, элементарных позиций будет занято символом hi, п2 позиций — символом h2, ..., пт позиций — символом hm. Искомое сообщение будет представлять собой одну из возможных комбинаций символов и позиций, допускаемых правилами нашего кода. Вероятность появления каждой данной комбинации из п позиций выразится произведе- нием вероятностей появления отдельных симво- лов, так как мы предполагаем, что появление каждого 205
данного символа есть независимое событие. Учитывая же наличие повторяемости одних и тех же символов в не- скольких элементарных позициях (символ h j повторяется в и, позициях, символ /?2 — в п2 позициях и т. д.), мы по- лучим вероятность появления нашего искомого сообщения Р-Рпг-Рпг.... Pnmm = f[PT (О i = i (знаком П сокращенно обозначается i произведений мно- жителей). Положим теперь, что число позиций п доста- точно велико, чтобы можно было считать п^р.-п- п2 = ргп; .. .; пт = рт-п, т. е. любое из составленных сообщений содержит р\-п символов Рг-п символов Л2, рт‘П символов hm. Одно сообщение отличается от другого порядком рас- положения символов по элементарным позициям. С дру- гой стороны, при достаточно большом п можно считать все перестановки, т. е. все возможные сообщения, равнове- роятными. Тогда наше искомое сообщение будет одним из равновероятных сообщений N, допускаемых правилами кода. Вероятность его появления, очевидно, равна 1 P — N > откуда для N — числа возможных сообщений — находим: д/ - _L =______*_______ (2} р р,п ргп „РтП" ' ' Р\ Рг • • • Рт Логарифмируя это выражение, получим количество инфор- мации в сообщении при неравновероятности появления в нем символов основания кода: 1 I = log2 N --= log2 - = — log2p = = (rap, log2 p, -I- rap2 log2 p2 + . . . + npm • log2 pm) = = —«gP/log8Pf (3) Для логарифма с основанием 2 количество информации в сообщении измеряется в двоичных единицах: I = — р, log2 pt дв. ед. (За) 206
Знак минус в формулах (3) и (За) не означает, что количе- ство информации в сообщении — отрицательная величина. Наоборот, она всегда положительна. Дело в том, что ве- роятность pi по определению меньше единицы и больше нуля. Но логарифм числа, меньшего единицы, отрицате- лен, т. е. logaPi — величина всегда отрицательная, в результате чего произведение оказывается положи- тельным. Использованные при выводе формулы (2) равенства, справедливые для больших п (при п —> оо), остаются в силе всреднем и для конечного числа п позиций. Если появление всех символов в сообщении равнове- 1 роятно, т. е. если р( = рг = ••• = рт = — > то, как легко убедиться, формула (3) переходит в (2) пре- дыдущего параграфа. Действительно, подставляя р! =рг= 1 . . . рт= — в формулу (3), имеем: / = n (pt log2 р, + р2 log2 р2 + .. . + рт log2 pm) = [ 1 , 1.1, 1 . , 1 . 1 \ = — п — log, —— log2—- • • • Н— log, — = \т ^>2 т т 1 1 т т ) 1/1 1 1 \ = -n-^log2- + l°g2-+... +log2-) = = — пlog2 ± = п log2 т. (36) В этом частном случае количество информации в сообще- нии равно информационной емкости системы, которая хранит, передает или выдает это сообщение. Разделив количество информации, содержащееся в сообщении, на общее число элементарных позиций п этого сообщения, мы получим количество информации, прихо- дящейся в среднем на одну элементарную позицию сооб- щения или информационную емкость од- ной позиции кода сообщения: Нх = = — Д Р, log2 pi- (4) Эта величина одновременно характеризует неопределен- ность появления отдельных символов алфавита в сообще- нии (сигнале) и называется энтропией. Действительно, если вероятность появления какого-либо одного символа 207
в данном сообщении равна единице, то при этом вероят- ность появления всех остальных символов равна нулю (так как все символы алфавита сообщения образуют пол- ную систему событий и, следовательно, сумма всех соот- ветствующих им вероятностей должна равняться еди- нице: л+а+ • • • Рт=Ъ а -1; i=i в этом случае энтропия сообщения равна нулю: Я, = — (1 log2 1-1-0 log2 0 + ... + 0 log2 0) = 0. Тот ясе результат будет получен, очевидно, и в другом крайнем случае, когда вероятности появления всех без исключения символов алфавита в данном сообщении равны нулю. И в первом и во втором случае результаты появле- ния отдельных символов в сообщении известны заранее и, следовательно, никакой неопределенности нет. Наобо- рот, при наличии сообщений с одинаковыми вероятностями появления в них каждого из символов (р( = р2 = ... = = рт = -^ имеет место наибольшая неопределенность, так как нет никаких оснований для предпочтения одного из этих символов; если подставить эти значения вероят- ностей в формулу (4), то окажется, что величина энтропии примет при этом максимальное значение. Максимальное значение энтропии легко найти из (4), подставляя вместо Ръ Р 2, ! Рт 1 , 1 \ величину - (так как р^ = р2 = ... = рт = ; „ 1 - 1 1 . 1 1 . 1 ^ = --log2---log2--... --10g2- = <4a) Сопоставляя формулы (4a) и (36), не трудно убедиться, что максимальная энтропия равна информационной емко- сти элементарной ячейки (позиции) сообщения. Пример. Пусть проводятся опыты, в которых ис- следуется реакция одиночного нейрона на действие внеш- них стимулов различной силы. Предположим, что каждый опыт состоит в подаче на икроножную мышцу лягушки постоянного тока, и с помощью микроэлектрода регистри- 208
руется реакция одиночного мотонеирона соответствующего спинномозгового сегмента; сила тока для каждой серии опытов изменяется. Подсчитаем энтропию отдельных сообщений о реакции мотонейрона для разных серий опытов. Пусть реакция мотонейрона на действие стимула сиг- нализируется зажиганием лампочки: при возбуждении мо- тонейрона лампочка зажигается, при невозбуждении — не зажигается. Тогда алфавит каждого сообщения будет состоять из двух символов: зажигания лампочки (мото- нейрон отвечает на действие стимула генерацией импульса) и незажигания лампочки (мотонейрон не отвечает на сти- мул). Вероятность зажигания лампочки (генерации им- пульса) в данной серии опытов будем обозначать через Pi, а вероятность незажигания лампочки (невозбуждении мотонейрона) — через р2. Всего проводится 11 серий опы- тов, причем каждая серия состоит из 10 опытов. Первая серия. Стимул имеет величину А Р Мотонейрон ни разу не возбуждается. В этом случае Pi — 0, р2 = 1- Энтропия каждого сообщения Н" = — (01og20 + 1 log21) = 0. Вторая серия. Стимул имеет величину А 2. Мотонейрон возбуждается всего один раз. Имеем: р t =0,1, р2 = 0,9. Я<2) = —(0,1 log2 0,1 4-0,9 log, 0,9) «0,47. Шестая серия. Стимул имеет величину As. Мо- тонейрон примерно в половине случаев возбуждается и в половине не возбуждается: р, = 0,5, р2 = 0.5. Н? = — (0,5 log2 0,5 + 0,5 log2 0,5) = 1,0. Одиннадцатая серия. Стимул имеет величи- ну А ц. Нейрон возбуждается во всех опытах: Pi = 1,0, р2 = 0. Н1П) = — (1 log21 4- 0 1 og2 0) = 0. Результаты вычислений зависимости энтропии Ht от величины рх и р2 (вероятностей возбуждения и невоз- 209
буждения мотонейрона) для всех 11 серий опытов пред- ставлены в таблице п на рис. 24. Как видно из таблицы и графика, для сообщений с неравными вероятностями Pi и р2 энтропия принимает различные значения в преде- лах между нулем и единицей. Когда р i стремится к нулю или единице, т. е. когда реакция мотонейрона заранее предопределена, энтропия равна нулю в полном соответ- ствии с нашими интуитивными представлениями. Мак- симум энтропии соответствует наибольшей неопределен- ности поведения мотонейрона, т. е. равным вероятностям Pi и Р 2' 7-1 0 0,1 0,2 0,3 0,4 0,5 0,6 0,7 0,8 0,9 1 Ра 1 0,9 0,8 0,7 0,6 0,5 0,4 0,3 0,2 0,1 0 Н 0 0,469 0,722 0,8813 0,97 1 0,97 0,8813 0,722 0,469 0 Указанная неопределенность существует в полной мере только до получения сообщения или в общем случае до проведения опыта. После получения сообщения (про- изведенного опыта) су- ществовавшая неопреде- ленность исчезает, так как по сведениям об исходе опыта мы получаем опре- деленную информацию. Очевидно, что чем больше была первоначальная не- определенность сообще- ния, тем больше должна быть получаемая инфор- мация. Так, например, неопределенность, прису- щая сообщениям из ше- стой серии опытов, для которых pi = рг = 0,5, приводит к получению большей информации, чем для сообщений с pi = 0,1, />2 = 0,9 из второй серии опытов, так как в этой серии исход опытов был почти предре- шен. 210
Таким образом, всякое сообщение несет тем больше информации, чем больше была первоначальная неопре- деленность появления отдельных символов алфавита в данном сообщении. Поэтому величина Н, определяющая степень неопределенности, также является удобной мерой для оценки количества информации. Обозначим энтропию, которую мы имели до получения информации, Нх. Пусть после получения информации эн- тропия уменьшилась до величины Нх. Количество полу- ченной информации будет равно в этом случае разности первой и второй энтропий: i = Hi — Ht. Если в результате получения информации полностью устранена всякая неопределенность, т. е. Н\ = 0, тогда i = Количество информации в этом случае численно равно той энтропии, которая имела место до получе- ния информации. Чем большая неопределенность устра- нена, тем больше полученная информация. Это количе- ственное равенство информации и первоначальной энт- ропии, конечно, не означает тождественности этих поня- тий. Они не только не тождественны, но противоположны друг другу; ведь информация равна не просто энтропии, а устраненной энтропии. Понятие энтропии применимо не только к сообщениям и сигналам, но и к источникам сообщений. Если какой-либо источник, обладающий множеством различных сообщений {и}, подает на вход системы связи отдельные сообщения (или, как говорят, «нагружает» систему связи) с вероятностями соответственно plt р2, ..., рь, то в этом случае можно говорить и об энтро- пии источника сообщений. При этом вероятности появления отдельных сообщений на входе системы связи задаются статистическими свойствами самого источника сообщений. Если источник выдает отдельные сообщения с разной вероятностью, то его энтропия будет тем меньше, чем больше вероятность появления одних сообщений и мень- ше — других. Наоборот, при равных вероятностях появ- ления различных сообщений на входе системы связи эн- тропия их источника будет максимальной. Так, напри- мер, если источником сообщения является книга, на каж- дой странице которой повторяются одни и те же известные читателю истины, то он при этом получит мало информа- 211
ции; поэтому такая книга будет обладать ццзкой^штро- пией. Напротив, если каждая глава, каждый параграф книги содержит что-то новое, такая книга может дать много информации читателю и, следовательно, имеет большую эн- тропию. 3. Избыточность Энтропия является удобной мерой для оценки эффек- тивности использования информационной емкости носи- телей сообщений и сигналов. Если энтропия сообщения (или сигнала) максимальна, то это значит, что в данном сообщении (сигнале) полностью используется информа- ционная емкость системы, которая его хранит или пере- дает; в том случае, когда энтропия сообщения ниже мак- симальной, информационная емкость системы использует- ся частично, неэкономно. Беря отношение конкретного значения энтропии дан- ного сообщения к ее максимальному значению в том же алфавите, мы можем оценить степень использования ин- формационной емкости системы, доставляющей (или хра- нящей) это сообщение. Это отношение носит название относительной энтропии (или коэффициента сжатия) и обозначается буквой Л: Л = Г (О 11 а Н Величина, обратная относительной энтропии, т. Q. , Рис. 25, а, б. показывает, во сколько раз можно уменьшить информа- ционную емкость, требующуюся для сообщения (или сиг- нала) с энтропией Н, если при том же алфавите закоди- ровать это сообщение опти- мальным кодом. Пример. Пусть мы имеем два коротких аффе- рентных нерва, А и В, начи- нающихся с разных групп мышц какого-либо животно- го. На рис. 25,а и б показаны условные срезы этих нервов; каждый нерв состоит из 64 во- локон; наличие в каком-либо волокне в фиксируемый мо- мент времени нервного импульса отмечается черным круж- 212
ком. а отсутствие импульса — белым кружком. Предполо- жим, что при максимальном раздражении соответствующих групп мышц нерв А отвечает наибольшей афферентной им- пульс ацией вида рис, 25, б, а нерв В — пмпульсацией вида рис, 25,а . Для определенности положим, что при этом в нерве А возбуждается в среднем 4 различных во- локна и не возбуждается 60 волокон, тогда как в нерве В число возбужденных и невозбужденных волокон будет примерно одинаковым. Таким образом, при кодировании сообщений о степени раздражений разных групп мышц в первом и во втором случаях используются коды Tka и Tk^ с одинаковыми ал- фавитами = m2 ~ 2 п разрядностями п l = п2 = 64. Для передачи сообщений в обоих случаях использованы одинаковые информационные емкости каналов связи: = Q2 = п log2 m — 64 дв. ед. (мы считаем волокна наших нервов настолько короткими, что в каждый момент времени при максимальной частоте следования импульсов любое волокно по всей длине может иметь не более одного импульса). Подсчитаем энтропию сигналов, передающихся по нер- вам А нВ. Для сигналов нерва А имеем: р1==А=А ; = 6О_ 15 6?“’ 16 • = —(l.log2^ + Jf log2J^ « 0,278 \16 °2 16 ' 16 16У волокно 4 Для сигналов нерва В имеем: pi = р2 = • £ ТГ(В) ( 1 . 1.1. 1 \ . дв. ед. В, = Hr log, -77 -4- — log, — = 1 ----- \ 2 2 2 2 53 - 2 J волокно С более редкими символами (нервными импульсами) сигналов нерва А связано больше информации. Однако в этих сигналах преобладают символы «отсутствие им- пульса», несущие меньшую информацию. Поэтому в сред- нем информация, приходящаяся на выбор одного сигнала пз множества сигналов, передаваемых по перву А, ока- зывается меньше, чем в случае равновероятностных воз- можностей сигналов нерва В. Максимальную энтропию, 213
равную информационной емкости одной элементарной позиции (волокна) нервов А и В, определяем по формуле (4а) предыдущего параграфа: II = log т = log т = 1 . 0 ^>2 1 02 2 вОЛОКНО Находим относительные энтропии для кодов TkA и Т kB: = ~ = 0,278, 2^0 Д<в> Таким образом, если во втором случае использовать более экономно информационную емкость нерва уже нельзя, то в первом случае при использовании лучшего кода тре- буемое количество волокон можно уменьшить почти в 4 раза. Вычитая значение относительной энтропии из ее мак- симального значения, мы получим величину, которая характеризует пой емкости: степень недозагруженности информацион- (2) 220 называется избыточностью. Она может Эта величина служить мерой числа излишних символов и позиций в пе- редаваемых сообщениях. Избыточность равна нулю только при Н = Н0, например для нерва В рис. 25, а. Для нерва А рис. 25, б избыточность равна: 1 — ^=1 — 0.278 = 0,722. До сих пор мы рассматривали сообщения в предполо- жении, что для них распределение символов по элемен- тарным позициям статистически независимо и вероятность того, что в какой-то позиции сообщения будет находить- ся данный символ, не зависит от того, какие символы на- ходятся в соседних позициях. Однако в большинстве сооб- щений символы распределяются по позициям не незави- симо друг от друга. Между отдельными символами, рас- пределенными по позициям, существуют вероятностные связи, определяемые статистической структурой кодов, используемых при кодировании данных сообщений. Так, например, если в русском тексте первая буква есть «ч», то из гласных букв следующей не может быть 214
«ы» или «я», наиболее вероятны буквы «и» и «е». Из со- гласных букв в качестве следующей за «ч» исключены «с», «ц», «ф» и т. д. Буква «т» весьма вероятна, но если пер- вые две буквы образуют комбинацию «чт», то вероятнее всего, что третья буква будет «о» («что»), хотя не исключе- но появление в качестве третьей буквы «е» (например, «чтение») или «и» (например, «чтить»). Появление же в качестве третьей буквы «у» не исключено, но очень мало вероятно, так как это соответствует немногочисленным и малоупотребительным в русском языке комбинациям («чтут», «чту»). Условные вероятности букв в данном языке опреде- ляются статистикой многобуквенных сочетаний — поли- грамм, т. е. двухбуквенных сочетаний — диграмм, трех- буквенных сочетаний — триграмм и т. д.. Наличие таких статистических закономерностей сильно сокращает число буквенных сочетаний, употребляемых в качестве слов. Так, например, если бы все комбинации были возможны, то, имея круглым счетом 30 букв, мы могли бы составить из них 30 однобуквенных слов, 302 = = 900 двухбуквенных, 303 = 27 000 трехбуквенных, 304 = 810 000 четырехбуквенных и т. д. Между тем в действительности язык содержит примерно 50 000 слов. Если принять среднее число букв в слове равным семи, то окажется, что лишь около 0,0002% всех возможных ком- бинаций букв являются словами. Сильные статистические связи между символами эле- ментарных позиций имеются также в изображениях, кар- тинах. Особенно значительны статистические связи между символами соседних позиций. Как правило, весьма велика вероятность того, что яркости двух соседних позиций рав- ны с точностью до одной градации (символа) или мало от- личаются друг от друга. Зная яркость одной элементар- ной позиции, можно с относительно большой вероят- ностью правильно предсказать символ (яркость) соседней позиции. Иными словами, информация, содержащаяся в сообщении о яркости данной позиции, заметно умень- шается, если уже была известна яркость предшествующей позиции. Появляется возможность соответственно умень- шить информационную емкость, требующуюся для записи изображений. На рис. 26 показано, как могут быть использованы меж- позиционные статистические связи символов алфавита 215
изображений для их сокращенной записи. В исходном двух- градационном изображении (рис. 26, а) черные и белые элементы (символы) встречаются практически одинаково часто (рчерн^рбел=^], т. е. так же, как и на рис. 25, а. Однако в отличие от сообщений рис. 25, а, здесь имеются заметные межпозиционные корреляционные связи симво- лов. Число переходов от черных к белым элементам (и наоборот) и мелких деталей относительно невелико. Ча- стоты, с которыми в позициях встречаются черные эле- менты после черных или белые после белых, во много раз превосходят частоты, с которыми происходят переходы от черного к белому или наоборот. Такое изображение может быть заменено контурным рисунком (рис. 26, б). Контуры указывают на места переходов от черного к белому и от белого к черному. Поскольку частота переходов относи- тельно мала, соответственно мало и число контурных эле- ментов. Если указать теперь координаты элементарных позиций этих контурных элементов и сопоставить их с по- зициями и символами какого-нибудь двоичного кода (на- пример, с нервными волокнами и их двоичным алфавитом), то при перекодировании потребуется гораздо меньшая ин- формационная емкость линии связи, чем для исходного изображения рис. 26, а ( к этому вопросу мы еще вернемся в разделе 6). Для многоградационного изображения (ш> 2) пришлось бы дополнительно указать величину перехода или градацию яркости после перехода, однако п в этом случае требуемая информационная емкость тоже существенно сократилась бы. Статистические связи наблюдаются не только между символами ближайших позиций, но и между символами более удаленных позиций изображения. 216
Так как воспринимаемые нами изображения обычно изменяются во времени относительно медленно, сущест- вуют сильные статистические связи и между значениями яркости одной и той же элементарной позиции изображе- ния, последовательно отсчитываемыми через дискретные интервалы времени, т. е. между символами времен- ных позиций изображения. Хорошо известно, что среднее число элементарных позиций, яркости которых изменяют- ся от кадра к кадру, относительно невелико. Если известна яркость данной позиции в. данном кадре, сообщение того же элемента в последующем кадре несет в среднем сравни- тельно мало информации. Для сообщений, в которых между символами позиций имеются вероятностные (корреляционные) связи, величина энтропии на одну позицию оппределяется из соотношения: = /.? , *p(ihh hJ' h^io^P^hi' (3) где г — общее число позиций в отрезке, в пределах кото- рого учитывается корреляционная связь между отдель- ными символам, а р (ht, hj, ...,ЬЯ) — вероятность появле- ния последовательности символов !ц, hj, ..., hs. Для сообщений, в которых учитывается статистиче- ская связь символов только двух соседних позиций, величина энтропии определяется пз соотношения: т Н2=—^Р (^ I К) ,0§2 Р I Л(). (Зй) где р (hj/hi) — условная вероятность появления символа hj в позиции /, если в предыдущей позиции i был символ ht. Среднюю энтропию на символ найдем, ус- редняя (За) по всем позициям i: т т т ff1 = -'Ep(^t)-H2=—yp(hi)^p(hjlhi) log2p (hj/ht). (36) 1=1 1=1 1 = 1 Это и есть общее выражение для энтропии сообщения при наличии в нем зависимостей ме;кду символами двух сосед- них позиций. Мы видим теперь, что энтропия сообщения, зависящая от числа позиций и алфавита сообщения, определяется также, во-первых, распределением вероятностей и, во- 217
вторых, наличием вероятностных связей между элемен- тами сообщения или, короче, от полных и условных ве- роятностей элементов сообщения. Можно подытожить все предыдущие результаты, пред- ставив их следующей сводкой: А. Информационная емкость носителей сообщений: Q=n log2 т. Б. Энтропия и количество информа- ции в сообщениях. Избыточность записи сообщений. 1. Элементы сообщений независимы и равновероятны Яо= log 2 т, I0=n log2 т, О0=0- 2. Элементы сообщений независимы и неравноверо- ятны: 3. ятны: 4. симы т = — log2p(hj), т D = 1—— n0 Элементы сообщений взаимозависимы и равноверо- я2 = — 2 P(hj\hi^°^p{hj\hi), z2 = —p{hj\ Л( ) log2jp(/zy[ Л(), 7=1 D = 1— n 0 Общий случай — элементы сообщений взаимозави- и неравновероятны: Н = — Д Р (^) Д Р (hj I h^> 1о^ Р (hJ I 1 = —п^ Р(Л,)§ /’(Л/1Л1)|0§2Р(Л/1М> ^=1 /=1 218
Пример. Пусть мы имеем множество сообщений {и}, алфавит которых состоит всего из двух символов hi и h2, так что т = 2, каждое сообщение множества со- стоит из 2 позиций (га = 2). Подсчитаем энтропию Н, ко- личество информации I и избыточность D для всех рас- смотренных нами случаев (145]. 1. Информационная емкость носителя каждого сооб- щения Q = и log2 т = 2 log2 2 = 2 дв. ед. 2. Элементы сообщений независимы и равновероятны. 70 = ralog2raz = 2 дв. ед. £>0 = 1 — Л = 0. 3. Элементы сообщений независимы и неравновероят- ны. Пусть вероятности нахождения символов в позициях сообщения таковы: р (Л,) =0,75; р(Л2)=0,25. Тогда = — [Р (Л>) log2 Р (Л>) + Р (К) l°g2 Р (*2)1 = = — (0,75 log2 0,75 + 0,25 1 og2 0,25) = 0,875 /2 = «Я, = 2 0,875= 1,75 дв. ед. D, = 1 —^1= 1 — 0,875 = 0,125. "о 4. Элементы сообщений взаимозависимы и равновероят- ны. Имеем: р (hi) = р (h2) = 0,5. Что касается условной вероятности, то здесь возможны следующие случаи (вытекающие из формулы полной ве- роятности): Р(Л11Л1)=Р(Л21Л2)=Р1’> P(^J^2) = P(M^i)=P2> причем, конечно, Pi + Рг = 1- Условная вероятность pi выражает вероятность повторе- ния одного и того же символа (hi или h2) в соседних пози- циях сообщения, а р2 — вероятность чередования симво- 219
лов hi и /г2 в соседних позициях. 11 г = — {[Р (/г11 Л1) log2 Р (К I Л>) + Р (Л21 /г>) !og2 р (h21 /г,)] + +L? (Л, | h2) log2 р (Л, | Л2) + р (h21 Л2) log2 (Л,1 Ла)]}, /2 = пН2, Значения Н2, 1г и D2, вычисленные для разных величин Pi и р2, сведены в таблицу. Pl Pi 0,5 0,5 0,25 0,75 0,125 0,875 0 1 H2 1 0,875 0,541 0 h 2 1,75 1,082 0 d2 0 0,125 0,459 1 Как видно из таблицы, энтропия резко зависит от соот- ношения pt и р2. Когда условные вероятности pi и р2 равны, то это равносильно независимости hi и h2 и мы по- лучаем такие же соотношения, как и в случае 2. Когда же, например, '/?! = 0, то это означает, что мы имеем в сообщениях вполне определенную последовательность: непрерывное чередование в позициях символов hi и h2. Так как характер этой последовательности наперед изве- стен, то никакой информации такого рода сообщение не несет и, следовательно, его энтропия Н2=0. 5. Элементы сообщений взаимозависимы и неравнове- роятны. Пусть две полные и четыре условные вероятности имеют следующие значения: р (/?i)=0,75; р (Л2)=0,25; Р (hi h^ = 0,66; р (h2 I hi) = 0,33; p (hi | h2) — 1; P (hz h2) = 0 (т. e. после h2 всегда следует hi). Тогда H= — {p (h2) [p (/?, I h2) log2 p (Л, I hj 4- + p(M^)log2p (Л21/*,)] + + P (h2> [P (К I h2) log2 p (h21 h2) + p (h21 h2) log2 p (h21 Л2)]}= = — [0,75 (0,66 log2 0,66 + 0,33 log2 0,33) 4- + 0,25 (1 log21 + 0 log2 0)] == 0,685 I — дв. ed. £> = !-—0,315. “й 220
Таким образом, наш пример показывает, что количе- ство информации, содержащейся в одинаковых по инфор- мационной емкости носителях сообщений (Q = 2 дв. ед.), падает при неравновероятности использования в них сим- волов алфавита применяемого кода и при наличии корре- ляционных связей между символами отдельных позиций. Так, при различной вероятности использования символов hi и h2 [р (/г,) = 0,75, р(/г2) = 0,25] количество информации в каждом сообщении уменьшилось на величину Д/ = /о—1\ — 2 —1,75 = 0,25 дв. ед; при этом в каждом .таком сообщении используется 12,5% лишних символов и позиций (D, = 0,125). При неравнове- роятности и взаимозависимости соседних элементов коли- чество информации в сообщениях падает на еще большую величину: ДТ = 70— / = 2—1,37 = 0,63 дв. ед.; число лиш- них символов и позиций в каждом сообщении возрастает до 31,5%. Количество информации в сообщениях дополни- тельно уменьшается в том случае, если в них имеются корреляционные связи между символами целых групп позиций. Чем больше группа элементов сообщения, на ко- торую распространяется статистическая связь, и чем силь- нее выражена эта связь, тем меньше будет величина энт- ропии на позицию сообщения и, следовательно, тем мень- шим будет количество информации в этом сообщении. Для английского языка (26 букв) максимальное зна- чение энтропии составляет Н = 4,7 —е- . При учете г поаиц статистической структуры языка, охватывающего буквы не более 8 предшествующих позиций, получается значение энтропии, равное Н = 2,35 дв ед . Следовательно, отно- х позии 2 35 сительная энтропия /г=0,5, а избыточность77=1—=0,5. Таким ебразом, в английском языке 50% букв определяют- ся структурой языка и являются с точки зрения передачи информации лишними. Проводившиеся опыты подтвердили это определение избыточности, показав, что при исклю- чении из английского текста 50% знаков удавалось вос- становить первоначальный текст. Избыточность сообщений снижает скорость выдачи со- держащейся в них информации. Действительно, если в сообщениях какого-либо источника на каждую элемен- 221
тарную позицию (занимаемую тем или иным символом ал- фавита сообщений) приходится в среднем информации • rr ds*ed i~H------ и если этот источник выдает символы соооще- позиц ний со скоростью nt временных позиций в единицу вре- мени, то поток или скорость выдачи (созда- ния) информации источника в целом составит = nt i= nt Н дв. ед. в ед. времени. (4) Чем больше Н источника, тем меньше символов и соот- ветствующих им временных позиций потребуется этому источнику для выдачи заданного количества информации и, следовательно, тем с большей скоростью он сможет выдавать эту информацию. В предельном случае, когда энтропия источника сообщений равна информационной емкости его элементарных позиций (Н = q), скорость вы- дачи (создания) им информации будет максимальной: Я01 = nt-H0 = nt-q дв. ед. в ед. времени. Пример. Предположим, мы имеем два источника сообщений. Пусть этими источниками являются два курса лекций, посвященных изложению одного и того же во- проса; различие между ними состоит только в методе из- ложения: в одном случае изложение вопроса дается на обычном литературном языке, а в другом — на математи- ческом языке формул и графиков. Избыточность матема- тического языка значительно уступает избыточности ли- тературного, поэтому математическое изложение вопроса потребует меньшего времени, чем литературное. Пусть на прочтение нашего курса в первом случае требуется 5 ча- сов, а во втором — 20. Будем считать, что излагаемый вопрос содержит количество информации I дв. ед. и что в обоих случаях информация будет выдаваться в среднем равномерно на протяжении всего курса. Определим ско- рость выдачи информации на каждом курсе. 1. Алфавит наших сообщений составляют слова, фор- мулы и графики; каждая временная позиция определяется длительностью произнесения слова, вычерчивания графика на доске или написания формулы. Для простоты будем считать, что средняя скорость произнесения слов, вычер- чивания графиков и формул на обоих курсах одинакова и составляет nt слов (формул, графиков) в час. 222
2. Определяем общее число временных позиций а) на литературном курсе п(,Л) = nt 20, б) на математическом курсе „(М) _ с 3. Среднее количество информации, приходящееся на одну временную позицию (на каждое произнесенное слово, вычерченный график или написанную формулу): а) на литературном курсе .(Л) _ / дв, ед. 1 позиц. ’ б) Jia математическом курсе ?-(М) _ 1 дв, ед- 1 • 5 поаиц. Ь.. Скорость выдачи информации а) на литературном курсе /?$Л) == п, • 4Л) = п,—^ = ^ = 0,05 I дв. ед. в час, * ‘Др ZU ZU б) на математическом курсе R\M) = nt- =-L = Q,2 I дв. ед. в час. О Таким образом, скорость выдачи информации на ма- тематическом курсе будет в 4 раза выше, чем на литера- турном курсе. Ясно, что при выборе курса нам следует отдать предпочтение математическому, так как в этом случае мы получим явный выигрыш во времени. При этом, конечно, мы должны владеть определенным математиче- ским аппаратом, который мог бы осуществлять декодиро- вание математического языка сообщений в приемных центрах нашего мозга; иначе эти сообщения останутся не- расшифрованными и, следовательно, не будут приняты мозгом. В том случае, когда имеющиеся у нас математи- ческие сведения окажутся недостаточными, наш мозг не будет успевать расшифровывать поступающие сообщения; для приема всех сообщений, выдаваемых источником, нам потребуется более медленный темп (скорость) выдачи этих сообщений. 22а
4. Пропускная способность На последнем примере предыдущего раздела мы могли убедиться в том, что различные системы связи пе- редают информацию по-разному. Так, система связи «мозг преподавателя — мозг студента», оперирующая с мате- матическим алфавитом кодирования и декодирования сообщений, способна передавать в единицу времени больше информации, чем система, работающая на обычном литературно-грамматическом коде; системы связи, рабо- тающие на одном и том же математическом коде, но имею- щие на приемном конце разные по степени совершенства аппараты декодирования, будут передавать сообщения а разной скоростью. Какая же система связи лучше? Одним из точных количественных критериев оценки эффектив- ности работы системы связи является ее пропускная спо- собность. Пропускной способностью системы связи называется то максимальное количество информации, которое может передавать эта система за единицу времени. Пропускная способность обычно обозначается буквой С. Если в системе связи за время Т возможно передать N различных сигналов, причем все сигналы равновероят- ны, то максимальная скорость, с которой информация будет передаваться в этой системе, есть 7? = (1) *<02 Y f * \х/ Эта скорость меняется с изменением общей длительности Т, но при неограниченном возрастании Т она стремится к пределу; этот предел и выбирается в качестве определения пропускной способности канала: С = lim 1оа2У (Л . (2) Так как максимальное количество информацииТ0=1о§2Лг(71) равно информационной емкости системы передачи в те- чение интервала времени Т, то пропускную способность можно определить как С = (2а) Для одноканальноп системы связи, способной в течение ' Т интервала времени Т занимать п2= — временных пози- д* 224
ций (Д£ — шаг квантования пли одна временная позиция) и имеющей информационную емкость q = п2 log2 т = = п2-Н0 (где Н а— максимальная энтропия сигнала), пропускная способность С,_±=<^=^. (26) Для многоканальной системы связи, состоящей из п2 па- раллельных каналов, пропускная способность С = пг. С, = , (2в) в системе где ге2(Г) = пг-пг — разрядность применяемого к ща на протяжении времени Т. Если система связи неоднородна, т. е. состоит из не- скольких последовательно соединенных участков, обла- дающих различной пропускной способностью С 1г С2, ..., то общая пропускная способность такой системы равна пропускной способности того из ее участков, которому присуще наименьшее С. Пример. Пусть мы имеем зрительный нерв, состоя- щий из 10е волокон. Будем считать, что максимальная частота следования импульсов в каждом волокне нерва равна 55 импульсам в секунду (частота слияния мелька- ний). Определим пропускную способность такого нерва. В данном случае разрядность двоичного кода каждого волокна в течение 1 секунды равна ге2 (Т) = 55; число во- локон ге2 = 10е. Общая разрядность п2 (Т) = п2 (Т)Х Хп, = 55-10® позиц. Максимальная энтропия сигналов нервных волокон Н = log, 2 = 1 . ° 02 позиц. Пропускную способность зрительного нерва опреде- ляем по формуле (2в): гг , дв, ед. и 55-10’ позиц.-1--------- „ „ £пг НЭ*”о позиц. 55• 10® е^' Т 1 сек сек На первый взгляд может показаться, что найденная нами величина равна пропускной способности зрительной си- стемы. В действительности это не так. Зрительная система связи состоит из нескольких участков передачи, каждый из 8 Черныш В. И. 225
которых имеет свою величину пропускной способности. Поэтому для определения пропускной способности зри- тельной системы нам’пришлось бы определять пропускные способности всех ее участков; участок с наименьшей ско- ростью передачи информации и будет равен пропускной способности зрительной системы в целом. Имея линию связи с заданной пропускной способностью и зная скорость выдачи информации источником, сообще- ния которого подлежат передаче, можно заранее сказать, пригодна для этой передачи имеющаяся линия связи или нет. Если пропускная способность линии связи превос- ходит среднее количество информации, поступающее в единицу времени на вход линии от источника сообщений, то вся поступающая информация может быть передана по линии. Если информация поступает в количестве, превы- шающем пропускную способность линии связи, то вся она не может быть передана. 5. Статистические коды После того как выбрана линия или канал передачи, возникает вопрос, как кодировать сообщения для того, чтобы наилучшим образом использовать пропускную спо- собность этой линии (канала). Иными словами, задача состоит в том, чтобы согласовать сообщения источ- ника, энтропия которых равна Н (и), с линией передачи, пропускная способность которой равна С. Предел возможностей согласования источника сообще- ний и линии передачи путем соответствующего кодирования устанавливается следующей основной теоремой о кодировании для линии (канала) без помех, впервые доказанной К. Шенноном: Если линия (канал') имеет пропускную способность С дв. ед. в секунду и получает сообщения от источника в коли- честве Н (и) дв. ед. на позицию, то наилучшая система кодирования позволит использовать линию (канал) в сред- нем со скоростью, сколь угодно близкой к п2 =ppj~j сим- волов в секунду, осуществить передачу с большей скоростью невозможно. С Нетрудно убедиться, что равно максимальной средней скорости передачи. Действительно, при кодиро- 226
вании сообщений в сигналы происходит сопоставление символов и позиций каждого сообщения с определенными символами и позициями из алфавита линии передачи. Наи- большая скорость передачи информации будет осуще- ствляться при таком кодировании, когда на передачу информации i = Н, содержащейся в каждом сочетании символа и позиции исходного сообщения, будет требовать- ся наименьшее количество символов и соответственно вре- менных позиций возникающего сигнала. В этом случае символ каждой временной позиции сигнала будет нести наибольшее возможное количество информации; энтропия этого сигнала будет максимальна. Но энтропия может иметь максимальное значение только .при равновероятном распределении символов по позициям. А так как такая эн- тропия в единицу времени для линии (канала) равна ее пропускной способности, то ясно, что передать информа- цию по линии с большей скоростью невозможно. Важно отметить, что при таком способе кодирования пропускная способность линии передачи рассчитывается не на информационную емкость носителей сообщений, а на их э нт р о и и ю, т. е. на действитель- ное количество содержащейся в этих сообщениях информа- ции. В этом случае неэкономное использование носителей сообщений не будет передаваться на линию связи и, сле- довательно, пропускная способность линии передачи может быть использована наилучшим образом. Так как в энтропии учитываются статистические свой- ства сообщений и их источников, то коды, базирующиеся на учете энтропии сообщений, фактически согласовывают пропускную способность линии передачи со статистиче- скими свойствами источников сообщений; поэтому такие коды называются статистическими, кодами. Рассмотрим принципы построения некоторых статисти- ческих кодов. Пусть мы имеем сообщения с алфавитом mit которые необходимо преобразовать в последовательность сигналов канала связи, оперирующего алфавитом т2. Будем счи- тать, что распределение символов по по- зициям в сообщениях и сигналах равно- вероятно и что алфавит сообщений больше алфавита канала связи, т. е. т{^> т2. Тогда количество информации, при- ходящееся на одну позицию сообщения, равно энтропии 8 227
сообщения, т. е. i, = //о1’ — log, иг,; количество информации, приходящееся на одну времен- ную позицию сигнала, равно энтропии сигнала: i2 = #<2)log2 тг. Так как т2, то, очевидно, и log2 иг!> log2 т2 или, что одно и то же, г !> i2. Так, если алфавит сообщений со- стоит из четырех символов (mt = 4), а алфавит сигналов — из двух символов (т2 = 2), то log2 = log24 = 2 дв. ед. п log2m2 = log2 2 = 1 дв. ед., т. е. ix = 2 i2. Отсюда видно, что при mt> т2 для количества ин- формации, приходящегося на одну позицию сообщения, при его перекодировании в сигнал потребуется несколько позиций канала связи; минимально необходимое число таких позиций может быть определено из отношения ,(2) _log2m, , 1мин~т^гг- - Пример. Пусть источником сообщений является колбочка центральной части сетчатки, облучающаяся светом, яркость которого меняется с постоянной частотой; каналом связи служит волокно зрительного нерва, кон- тактирующее с колбочкой через ганглиозную клетку. Будем считать, что колбочка способна реагировать только на 8 дискретных уровней градации, так что mt = 8; оче- видно, алфавит нашего канала связи т2 = 2. Определим минимальное количество рефрактерных периодов с наличием и отсутствием нервных импульсов в волокне, необходимых для передачи каждого сообщения колбочки (каждое такое сообщение будет содержать све- дения о яркости источника света в данный момент времени): ,(2) _log2m1 _log28_ Q —log,m2 —log22 — Таким образом, любое сообщение колбочки о яркости внешнего света может быть передано по нервному волокну посредством комбинации символов «наличие импульса» п «отсутствие импульса» в течение трех рефрактерных пе- риодов. При таком кодировании каждой временной пози- ции сообщения (яркость колбочки в каждый данный мо- мент) сопоставляются три временных позиции сигнала 228
(три рефрактерных периода). Подобные коды относятся к числу равномерных кодов, так как каждая их комбина- ция состоит из одинакового числа позиций, заполняющих- ся символами, и имеют, следовательно, одинаковую длину. Равномерные коды позволяют экономно использовать ка- налы связи только при преобразовании сообщений с рав- новероятным распределением элементов. Для сообщений с неравновероятным распределе- нием символов по позициям количество информации, со- держащейся в каждой позиции сообщения, как мы ви- дели, равно —р1\о^2р1 — ... — рт log2pm = = —У Pil°g2 Pi- Предельно экономное использование ка- г—1 нала связи по-прежнему будет происходить при равнове- роятном распределении символов по позициям сигналов, т. е. при i(2)= Я(02) = log2 т2. Поэтому для количества информации, приходящейся на одну позицию сообщения с неравновероятным распределе- нием элементов при его преобразовании в сигнал, требуе- мое среднее число позиций канала связи не может быть меньше, чем ,(2) _ Я, Zj“H~log2 m2" Если сообщения источника имеют разрядности в п j пози- ций, то при любом методе их кодирования потребуется не меньше, чем позиции канала связи для распределе- ния в них символов алфавита сигналов. Отсюда следует важное положение, заключающееся в том, что выбором наиболее подходящего кода можно до- биться того, чтобы среднее число позиций канала связи, приходящихся на одну позицию исходного сообщения, н было СКОЛЬ угодно близким К 1 'т (т- е' к отношению информации, содержащейся в одной позиции сообщения, к наибольшей информации, могущей содержаться в одной позиции сигнала). Как же осуществить такое кодирование? Прежде всего средняя величина комбинации символов и позиций сигнала на каждую комбинацию символа с позицией сообщения должна быть наименьшей. Средняя величина комбинации выражается непосредственно средним значением (матема- (16) 229
тическпм ожиданием). Если величина комбинации (число позиций) сигнала есть lk и если с этой комбинацией при ко- дировании сопоставляется символ из алфавита сообще- нии, вероятность появления которого в сопоставляемой позиции сообщения есть ph, то средняя длина комбинации будет: т ‘ /Л lap. - S . (2) k = 1 Для сообщений с равновероятным распределением элемен- тов средняя величина комбинации I т 1> = ^ (2а) й = 1 (так как в этом случае вероятность появления каждого символа в сообщении составляет Можно показать, что при использовании равномер- ного кода для кодирования сообщений с неравновероят- ным распределением элементов средняя длина комбинации элементов сигнала окажется большой, поэтому примене- ние равномерных кодов при преобразованиях такого рода сообщений в сигналы невыгодно. Наименьшее значение 1ср получается в том случае, если при кодировании более короткие комбинации элементов сигнала сопоставляются с более часто встречающимися в сообщениях символами, а более длинные — с редко появляющимися символами. Коды, осуществляющие та- кое кодирование, называются неравномерными кодами, так как в них для различных символов сообщения отво- дится разное количество позиций сигнала. Для получения наименьшего значения 1ср можно по- ступить так: расположить возможные кодовые комбинации позиций сигнала в порядке возрастающей длины, а все подлежащие кодированию символы сообщения — в порядке убывающей вероятности их появления в позициях сообщения. Пример. Пусть мы имеем хромосому с молекулой ДНК, в которой наследственно кодируется 10 признаков организма: А, В, ..., L. Определим величину I для не- скольких возможных кодов. Алфавит исходных сообщений т1 = 6, алфавит сиг- налов т2 4 (символами нашего канала передачи яв- 230
ляются основания ДНК, для которых мы введем обозна- чения: hi, h2, h3 и h^. Будем считать, что в нуклеотидных цепях молекулы ДНК возможны любые комбинации осно- ваний. Предположим, что кодируемые признаки независимы, по встречеются в организме неодинаково часто; пусть со- ответствующие этим частотам вероятности появления признаков в кодируемых сообщениях будут следующие: р(А) Р(В) Р(С) P(D) Р(Е) Р(Е) P(G) Р(Н) Р(К) P(L) 0,025 0,15 0,25 0,1 0,05 0,04 0,035 0,02 0,3 0,03 (при этом, конечно, должно быть = 1). Находим энтропию наследственных сообщений: = — 2 Pilog.Pi = 0,133 + 0,4105 + 0,5 + 0,3322 + + 0,2161 + 0,1858 + 0,1693+ 0,1129 + 0,5211 + 0,1518 = = 2,6198 2,62. Определяем минимально необходимое число углевод- ных остатков (позиций) молекулы ДНК на каждый коди- руемый наследственный признак: > __ Hi ___2.62_, ^UH-Iog2ro2- 2 При применении равномерного кода каждый исходный признак придется кодировать комбинацией из двух сим- волов и позиций молекулы ДНК, поэтому 10 ty-^pili^. 1 = 1 Таким образом, в случае, если исходные сообщения будут иметь разрядность raj = 100 (т. е. кодируемые десять раз- ных наследственных признаков повторяются в сообщениях в различных комбинациях 100 раз), при применении рав- номерного кода пришлось бы использовать 69 лишних углеводных остатков молекулы ДНК (так как (/ср— 1Мин)Х. Xni = (2-1,31)-100 = 69]. 231
Ниже приводится таблица возможных кодовых комби- наций для кодируемых наследственных признаков при использовании равномерного кода: Р(А) Р(В) р(С) P(D) Р(Е) Р(Р) P(G) P(H) PlK) P(L) 0,025 0,15 0,25 0,1 0,05 0,04 0,035 0,02 0,3 0,03 Mi ^2^1 h2h2 hji3 h J ^3^2 Так как все кодовые комбинации здесь имеют одинаковую длину (li = 2), то при декодировании по каждой такой ком- бинации соответствующий ей исходный признак (сообще- ние) может быть без труда однозначно восстановлен. Используем теперь неравномерный код. Для этого расположим кодируемые признаки в порядке убывающей вероятности и сопоставим наиболее частые признаки с короткими комбинациями символов и позиций молекулы ДНК, а редкие — с более длинными комбинациями. Так как кодовые комбинации будут иметь различные длины, мы должны предусмотреть способ распознавания каждой комбинации при декодировании. Для этого используем один из символов алфавита ДНК, повторяя его в длинных комбинациях по нескольку раз. В результате мы получим следующий код: P(K) p(C) P(B) P(D) P(E) P(F) P(G) p(i) P(A) P(H) 0,3 0,25 0,15 0,1 0,05 0,04 0,035 0,03 0,025 0,02 Ml h1h1 7^2^ 1^1 hzhxh । hjijii Не трудно убедиться, что никакое кодовое обозначение здесь не может оказаться началом другого, более длин- ного; поэтому каждое закодированное сообщение всегда может быть однозначно декодировано. Определяем среднее число позиций, приходящееся на каждый кодируемый признак: 4 =(0,3+0,25 + 0,15).! f (0,1+ 0,05+ 0,04).2 + + (0,035 + 0,03 + 0,025) • 3 + 0,02 • 4 = 1,43; 232
это значение меньше двух и ненамного отличается от 1мин = 1 >31. Следовательно, наш код можно считать доста- точно экономичным. В случае, если объектами передачи канала связи яв- ляются сообщения с вероятностными связями между элементами, для их эффективного преоб- разования в сигналы прежде всего необходимо устранение этих связей. Такого рода связь может быть выражена че- рез корреляцию сообщения; отсутствие взаимосвязи можно определить как отсутствие корреляции. Поэтому опера- цию устранения взаимосвязей обычно называют декорре- ляцией. В настоящее время в теории связи известны два спо- соба декорреляции сообщений (и сигналов): метод э к- страполяции (или предсказания) и метод укрупнения. При декорреляции сообщений методом экстраполяции (предсказания) используются вероятностные связи между символами соседних позиций сообщений. Предположим, что характер вероятностных взаимо- связей между элементами сообщения таков, что, приняв некоторую часть сообщения, можно по свойствам распре- деления символов в позициях этой части предугадать (пред- сказать) распределение символов по позициям в недостаю- щей части сообщения. Так, рассматривая какую-либо часть изображения, представленного на рис. 26, а, можно легко себе представить остальную часть этого изображения; читая в тексте сочетание букв «нейр», нетрудно предуга- дать, какой будет в этом сочетании следующая буква. Во всех таких случаях мы многое можем знать о последую- щих элементах, если нам уже известны соседние (или пред- шествующие во времени); информация, которую в сред- нем несет каждый последующий элемент, обычно невелика. Наиболее вероятно, что каждый последующий элемент на рис. 26, а будет иметь такую же яркость, как и соседний или предшествующий. Учитывая это, для передачи такого рода сообщений по какому-либо каналу связи можно пе- редавать не каждый элемент сообщения, а лишь разность между предсказанными и действительными значениями этих элементов. В этом случае, чтобы восстановить сообще- ние на приемной стороне канала связи, достаточно ука- зать лишь на те его элементы, в которых предсказание не оправдывается. Легко видеть, что таким путем можно 233
сократить сигнал, так как разностный сигнал — мы будем называть его сигналом ошибки — будет в значи- тельной мере декоррелирован и будет обладать более вы- годным распределением вероятностей. С математической точки зрения задача предсказания есть задача экстраполяции некоторой случайной последо- вательности. Обозначим элементы этой последовательно- сти через hk, и пусть /г0 означает данный элемент, hi — предыдущий, так что во времени последовательность располагается (от прошлого к настоящему) в следующем порядке: hn, ..., hk, ..., Л2, hlt ht. При наличии вероятностных взаимосвязей следует полагать, что наблюдаемое данное значение ha зависит от предшествующих значений hk (/с = 1, 2, 3, ..., п). Можно экстраполировать (предсказать) значение /гэ =f(hlt ht, ..., hn) (3) и потребовать, чтобы функция / была подобрана так, чтобы ошибка экстраполяции (ошибка предсказания) А=/г0— ha (4) была наименьшей. Это и есть задача экстраполяции. Если известны корреляционные свойства элементов сообщений, которые должны быть переданы, то можно по- добрать экстраполятор, который, исходя из известных пре- дыдущих значений hk, будет экстраполировать (предска- зывать) значение ha, которое должно появиться в рассмат- риваемой позиции сообщения. Ошибка экстраполяции Д определяется как разность между действительным и экстраполированным значением элемента сообщения. Так как экстраполированное значе- ние h3 известно до появления нового элемента сообщения /г0, то оно, согласно определению, не содержит никакой информации. Поэтому вся информация, которую может нести новый элемент сообщения, будет полностью заклю- чена в разности между действительным значением этого элемента и его экстраполированным значением, т. е. в Д = /г0—he Если действительное значение элемента отли- 234
чается от экстраполированного, то этот элемент сообщения несет информацию, заключенную вД = Ло — ha ; в случае если действительное значение элемента окажется равным экстраполированному, то Д = 0 и, следовательно, такой элемент сообщения не несет никакой информации и его незачем передавать по каналу связи. Функциональная схема простой системы связи с ис- пользованием принципа экстраполяции представлена на рис. 27. Элемент сообщения поступает па вычитающее устрой- ство и одновременно запоминается в устройстве памяти передатчика. Передатчик имеет экстраполятор, в котором обрабатываются накопленные в запоминающем устрой- стве предыдущие элементы сообщения, на основе которых Рис. 27. дается оценка ближайшим будущим элементам. Вычитаю- щее устройство вычитает экстраполированное значение из действительной величины элемента сообщения и выраба- тывает сигнал ошибки Д, который подается на вход коди- рующего устройства. Кодирующее устройство кодирует сигнал ошибки в алфавите линии связи; в закодированном виде сигнал попадает в приемник. В приемнике все про- цессы происходят в обратном порядке. В нем также имеется запоминающее устройство и идентичный экстраполятор, который экстраполирует то же значение /г0> как и экстра- полятор передатчика. С выхода декодирующего устрой- ства приемника сигнал ошибки Д поступает на суммирую- щее устройство, где он складывается с экстраполирован- ным значением ha и таким образом восстановливает элемент сообщения /г0. Этот элемент поступает на выход системы связи и, кроме того, в запоминающее устройство 235
приемника для использования при экстраполяции после- дующих элементов сообщений. Пример. Пусть мы имеем множество непрерывных сообщений, изменение которых во времени имеет харак- тер рис. 28, а. Этими сообщениями могут быть изменения потенциалов электротона колбочки сетчатки глаза, обус- Рис. 28, а, б, в, г, д. ловленные изменениями яркости проектирующихся на сет- чатку изображений, или волоска слуховой клетки кор- тиева органа, вызванные давлением жидкости внутрен- него уха за счет внешнего звука и др. Задача состоит в том, чтобы экономным способом пере- дать данные сообщения по линии связи, оперирующей с двоичным алфавитом. 236
Как видно из гр афика рис. 28, а, алфавит множества сообщений состоит из символов, отсчитываемых по непре- рывной шкале уровней h, разрядность — из элементар- ных временных позиций непрерывной шкалы времени. Так как любая реальная система связи обладает конечной по- лосой пропускания, то на входе этой системы сообщения будут проквантованы по уровню и по времени (рис.28, б. Здесь ДЛ — шаг квантования по уровню; Д t — шаг кван- тования по времени). Из графиков рис. 28, а и б видно, что между элемен- тами наших сообщений имеется сильная корреляционная связь. Поэтому для устранения этой связи в кодирующем устройстве передатчика необходимо применение декорре- лятора; пусть в этом декорреляторе используется принцип экстраполяции (рис. 27). В этом случае предыдущие зна- чения уровней hk будут запоминаться в устройстве памяти и на их основе экстраполятор будет выдавать значения ha. В вычитающем устройстве из текущих уровней каж- дого сообщения будут вычитаться экстраполированные, в результате чего на выходе устройства будут образовы- ваться сигналы ошибки +Л (рис. '28, в). Пусть в момент времени ti поступающий на вход декор- ррлятора элемент сообщения hi имеет нулевое значение (рис. 28, б); это значение запомнится в устройстве памяти и на его основе в следующий момент времени t2 экстрапо- лятор выдаст значение ha< равное нулю. Так как в этот момент новый элемент сообщения Л2 тоже будет иметь ну- левое значение, то разность значений Л2—ha будет, оче- видно, равна нулю и поэтому на выходе вычитающего устройства сигнал ошибки Д 2 тоже будет равен нулю. В последующие моменты времени t2, t3 и £4 все будет повто- ряться в аналогичном порядке. В момент времени эк- страполятор на основе значений hi, h2, h3 и Л4 выдаст ну- левое значение has. Однако в это время, как видно из гра- фика рис. 28, б, значение Л5 не равно нулю, поэтому на выходе вычитающего устройства возникнет сигнал ошибки Д5, пропорциональный разности Л5—has — h&. В момент tt экстраполятор выдаст значение hat, пропорциональное предыдущему значению сообщения Л5; однако в это время новое значение ht будет больше Л5, поэтому на выходе вы- читающего устройства возникнет новый сигнал ошибки Дв, пропорциональный разности /г,— hai и т. п. Так как сигналы ошибки разнополярны (сигналы положительной 237
полярности будут возникать в том случае, если действи- тельные значения принятых элементов будут превышать экстраполированные, а отрицательные сигналы будут возникать тогда, когда принятые значения меньше эк- страполированных), то необходимо применение двух ко- дирующих устройств: первое из них, Т& (+ А,)> будет ко- дировать сигналы ошибки положительной полярности, дру- гое, Tk(—Aj), будет кодировать отрицательные сигналы. Алфавит имеющихся каналов связи состоит из двух сим- волов, поэтому устройства 7\(+Aj) и —А;) должны кодировать сигналы ошибки +А; и —А; в двоичном алфа- вите. Пусть для этой цели используется частотно-импульс- ная модуляция; сигналам ошибки +Л ; большой амплиту- ды на выходе 7\(+Aj) и Ть(—& j) будут соответствовать сигналы с высокой частотой следования импульсов, и, наоборот, слабым сигналам ошибки будут соответствовать низкочастотные сигналы (рис. 28, г, д). Эти вторичные сигналы будут поступать в каналы связи и к2, выходы которых подключены к декодирующим устройствам прием- ника Тп (+Аг) и Тп (—А;). В приемнике все операции преобразования сигналов в сообщения выполняются в обратном порядке, а именно: де- кодирование и сложение сигналов ошибки с экстраполи- рованными по предыдущим значениям; восстановленные сообщения приемник выдаст получателю. Таким образом, при передаче сообщений с корреляцион- ными связями между элементами экономное использование каналов связи достигается ценой значительного усложне- ния кодирующих и декодирующих устройств. Однако та- кое усложнение передатчиков и приемников систем связи в ряде случаев оправдывает себя, так как оно позволяет экономно использовать не только линии связи, но и инфор- мационные емкости получателей сообщений. Экстраполяционный способ кодирования сообщений, по-видимому, используется в генетических механизмах на- следственности и в некоторых анализаторах нервной си- стемы животных и человека. Об этом свидетельствует, на- пример, факт наличия в сетчатке зрительного анализатора всего 2—3 типов ганглиозных клеток, дающих разряды в соответствующие волокна зрительного нерва: 1) клетки, реагирующие только на изменение яркости элементов про- ецирующихся на сетчатку изображений в сторону увели- чения (on-эффект, или эффект включения света); 2) клетки, 238
реагирующие только на уменьшение яркости элементов изображений (о//-эффект, или эффект выключения) и, на- конец, 3) клетки, дающие импульсации при любом харак- тере изменения яркости элементов изображений {on-off- эффект, или эффект включения — выключения); ганглиоз- ные клетки, реагирующие на постоянные уровни яркости, отсутствуют в сетчатке. Для приема неподвижных изо- бражений глаз непрерывно осуществляет мелкие колеба- тельные движения (тремор, скачки или саккадические дви- жения глаза и дрейф). Можно предположить, что эти дви- жения осуществляются именно для получения сигналов ошибки на входах ганглиозных клеток сетчатки; сами ган- глиозные клетки осуществляют, по-видимому, частотную модуляцию принятых сигналов. Другим методом устранения и ослабления вероятност- ных связей между элементами сообщений и сигналов яв- ляется метод укрупнения. Общая идея метода состоит в том, что подлежащие пере- даче сообщения (или сигналы) разбиваются не на эле- менты, а на отрезки, каждый из которых содержит по не- скольку символов и позиций. Такие отрезки могут рас- сматриваться как элементы некоторого нового сообщения, и можно показать, что вероятностные связи между такими укрупненными элементами слабее, чем между элементами первоначального, неукрупненного сообщения. Следует иметь в виду, что при укрупнении сообщения происходит его пребразование, состоящее в переходе к коду с более высоким основанием mt = (т if (где т j — первоначальное основание, аг — число позиций в укруп- ненном элементе) и более низкой разрядностью ns = (где п,—общее число позиций в первоначальном сообщении). Рассмотрим некоторые математические соотношения, относящиеся к методу укрупнения. Ограничимся рассмотрением случая, когда учитывает- ся связь только двух соседних элементов первоначального сообщения, т. е. когда появление данного элемента обу- словливается только значением одного предшествующего (или соседнего) элемента. В этом случае (см. раздел 3) энтропия сообщения равна: т т #2= - 2 р (h/lhi)- (5) i=i 7=1 239
Преобразуем это выражение при помощи формулы пол- ной вероятности (см. главу 2, раздел 8), из которой мы по- лучаем для условной вероятности <6> Здесь р (hthj) — вероятность появления определенной пары символов h{hj в двух соседних позициях сообщения i и /. Подставляя (6) в (5), находим: т т plhihj) log2- gp(^y~ = mm mm =—Щ £P (hihj) lo§2 P (M/)—g g P (№,) log2 P (Л,-)]. (7) Второй член в скобках можно упростить: — У 2 Р (hih/) (Ид = — 2 lOg2P 2 Р = г=1;—1 г=1 ; = i т = ~^P(h{, 1°ёгР (hi) = Нх г=1 [так как У р (hihj) = У р (Лг)]. ;=1 iSl Первый член в скобках выражения (7) также упростится, если мы будем рассматривать каждую пару значений hthj как новый элемент кч (число таких элемен- тов будет, очевидно, ттг[ = т\)'. т т ~~ jg £p (h:hJ log2 р (hihj) = = — 2 P UQ log2 p (kJ = Hh . V=1 Таким образом, в результате укрупнения элементов исходного сообщения парами выражение (7) приобретает простой вид: Я2 = ЯЙ—Я,. (7а) Из этого выражения видно, что при укрупнении элемен- 240
тов сообщения парами его энтропия возрастает на вели- чину Не. Hh=--H2 + Hv (8) Если бы пары были совершенно независимы, то укруп- ненное сообщение было бы полностью декоррелировано. В действительности корреляция может существовать между любыми соседними элементами сообщения. Поэтому корреляции имеются и между парами, так что мы должны принять: 2 2 mi т ^ = - 2 р (*»)2 р kJ io^p (kilkJ< <8a) v=i 7=1 где kL — данная пара, кч— предшествующая (или сосед- няя) пара. Но корреляция между парами, очевидно, сла- бее, чем между элементами первоначального сообщения. Это объясняется тем, что лишь последний элемент предше- ствующей пары оказывает влияние на первый элемент по- следующей пары. Поэтому, объединив элементы в пары, мы частично декоррелировали сообщение, и избыточность D2 Для укрупненного сообщения меньше, чем для перво- начального. Процесс укрупнения отрезков сообщения можно было бы продолжить. Так, например, пары можно было бы сое- динить в четырехэлементные группы; это дало бы даль- нейшую декорреляцию. Если сообщение разделено на от- резки к3, состоящие из г элементов каждый, и если общее возможное число таких отрезков (алфавит) есть = т[, то для полностью декоррелированного сообщения энтро- пия (количество информации на отрезок) есть т; нк= — 2 р (/U (*,), S=1 а количество информации на элемент 1 Н2=—~^Р(кг) ^og2p(ks). S= 1 Таким образом, метод декорреляции сообщений и сиг- налов укрупнением состоит в том, что формируется новое сообщение (или сигнал), элементами которого являются 241
отрезки из того или иного числа элементов первоначаль- ного сообщения (сигнала). Эта операция уменьшает избы- точность в тем большей мере, чем длиннее берутся отрезки. Разбивку элементов декоррелируемых сообщений на отдельные группы (отрезки) можно осуществлять по- разному. Один из способов укрупнения состоит в выделе- нии групп элементов сообщения по каким-либо призна- кам, характерным для каждого типа сообщений. Эти при- знаки могут иметь самую разнообразную природу. Так, например, для изображений такими признаками могут Рис. 29. быть геометрические контуры, частоты (или длины волн) световых колебаний; для акустических сообщений — зву- ковые контрасты, частоты звуковых колебаний; для мы- шечных сообщений — напряженность мышц и т. п. Множество элементов признака {х, у, z, ...} образует алфавит укрупненного сообщения. Так, прямые ли- нии, углы, вогнутые и выпуклые линии и т. п. образуют алфавит контура изображения; цвета, элементы контуров составляют алфавит укрупненных цветных изображений; форманты образуют алфавит звуков речи и т. п. Элементы укрупненных сообщений {х, у, z, ...} можно рассматривать как координаты некоторого n-мерного про- странства. В этом случае любое укрупненное сообщение с алфавитом {xt, yt, ...} представляется как некоторая об- ласть Ai в n-мерном пространстве {хг, у(, ...} с координа- тами (xi, yt, ...); такую область можно назвать обра- зом. Схема системы связи с использованием метода укруп- нения может быть представлена в следующем виде (рис. 29). Сообщение с корреляционными связями между эле- ментами поступает в анализатор передатчика, где оно рас- 242
пленяется на однородные- по анализируемому признаку (или группе признаков) участки. Каждому укрупненному участку присваиваются соответствующий символ из ал- фавита укрупнения и координаты; возникающие при этом сигналы кодируются в алфавите линпи связи. На приемном конце липни сигнал декодируется и поступает в синтези- рующее устройство приемника. В этом устройстве по принятым сигналам и их координатам из символов алфа- вита укрупнения, хранимого в памяти приемника, осуще- ствляется обратный синтез укрупненного сообщения. В процессе синтеза образующийся продукт сравнивается с имеющимися в устройстве* памяти приемника этало- нами или образцами (возникшими в результате синтеза ранее поступавших сообщений). При совпадении продукта синтеза с одним из имеющихся эталонов полу- чателю выдается совпавший эталон. При частичном совпа- дении продукта с каким-либо эталоном последний может модифицироваться и в таком виде выдаваться получателю; кроме того, модифицированный эталон запоминается. При несовпадении ни с одним из имеющихся эталонов приемник выдает полученный продукт синтеза; одновременно этот продукт поступает в устройство памяти приемника и за- поминается как новый эталон. При укрупнении сообщений в передатчике и при об- ратном синтезе и эталонировании в приемнике некоторая часть информации теряется (ошибки укрупнения); однако получаемый при этом выигрыш в скорости передачи и в экономном использовании каналов связи и запоминающих устройств получателя компенсирует эти потери. В ряде случаев эти потери укрупнения оказываются второстепен- ными и не играют существенной роли. Системы связи с укрупнением наиболее часто исполь- зуются в тех случаях, когда требуется быстрая передача ориентировочной информации о тех или иных событиях. Метод укрупнения используется, в сущности, во всех ана- лизаторах нервной системы животных и человека. Принцип укрупнения используется, например, в зри- тельном анализаторе [40]. Об этом свидетельствует, в ча- стности, факт наличия в высшем зрительном центре лягуш- ки и в зрительной покрышке (зрительные доли) четырех рядов окончаний зрительного нерва, каждый из которых связан с конкретным локализованным районом поверх- ности сетчатки и реагирует на строго определенные при- 243
знаки проектирующихся на сетчатку изображений, именно на движущиеся края, на затемнения, на прямолинейные края и на кривизну. В коре головного мозга кошки имеются клетки, ответ которых зависит от направления движения объектов; импульсация возникает, например, когда объект движется слева направо, но не справа налево [40]. В то же время, как мы видели, сетчатка содержит эк- страполирующие элементы. По-видимому, зрительный ана- лизатор использует как метод экстраполяции, так и метод укрупнения. При декорреляции сообщений обычно нарушается рав- новероятное распределение элементов: одни элементы (эк- страполяции пли укрупнения) в возникающих сигналах появляются чаще, другие — реже. Так, например, в об- разовавшихся после экстраполяции сигналах ошибки (рис. 28, в) «нулевые» значения встречаются в позициях гораздо чаще других значений; точно так же на рис. 28 г, д символ «отсутствие импульса» встречается чаще сим- вола «наличие импульса». Аналогично при декорреляции пространственных сообщений, как это, например, имеет место в сетчатке, распределение возникающих сигналов по отдельным каналам (например, по волокнам зрительного нерва) будет очень неравномерным: в одних каналах сиг- налы будут появляться чаще, в других — j еже. Следова- тельно, несмотря на устранение корреляции между‘эле- ментами, энтропия возникающих сигналов будет все же низкой из-за неравновероятного распределения символов по позициям. Поэтому после декорреляции сигнал должен быть подвергнут новому преобразованию для получения более или менее равновероятного распределения элементов. После такого пребразования* энтропия сигналов уве- личится и, следовательно, возрастет эффективность исполь- зования пропускной способности каналов связи. Пример. Рассмотрим возможную схему повторного преобразования декоррелированных сигналов в зритель- ном анализаторе человека. Можно заранее предположить, что такое перераспреде- ление осуществляется неравномерным распределением по времени фиксированного взгляда на контурных элемен- тах, местах переходов от одного цвета к другому, кон- трастах и других деталях объектов изображений в про- цессе их рассматривания Действительно, в процессе рассматривания крупных объектов глаза человека совер- 244
шают координированные, синхронизированные с большой точностью скачкообразные движения от одной точки фик- сации к другой [40]. Угловая скорость движений глаз во время этих скачков очень велика и достигает 400° в се- кунду. Благодаря этому на перемещение затрачивается в среднем лишьЗ% всего времени рассматрива- ния, а остальные 97% взор фиксирован на ка- ком-либо объекте (или его части). В период фиксированного взгля- да глаз осуществляет мелкие колебательные движения, благодаря которым и осуществля- ется, по-видимому, де- корреляция изображе- ний экстраполяцией. Распределение точек фиксации взора при рассматривании непо- движных объектов вид- но из рис. 30 и 31 (по Ярб^су [40]); на рис. 30 показана смена точек фиксации при чтении текста, а на рис. 31 — Рис. 30. при длительном рас- сматривании картпны. В первом случае информация рас- пределена относительно равномерно вдоль строчек текста и соответственно равномерно распределены точки фикса- ции. Во втором же случае распределение информации в картине очень неравномерно; основная часть информации заключена в контурах, переходах, а однородные участки между ними несут мало информации. В соответствии с этим плотность распределения точек фиксации взгляда здесь резко неоднородна; она велика на участках контурных элементов и переходов и мала на однородных участках. В то же время большая плотность точек фиксации ложится и на слабо различимую линию горизонта, что, по-види- мому, связано с влиянием на систему, управляющую дви- жением глаз, не только контурных деталей и переходов, 245
но и положения групп таких элементов, составляющих зрительные образы. Таким образом, благодаря соответствующему нерав- номерному распределению точек фиксации поток инфор- а. 6 Рис. 31, <7, б. мации, поступающий в зрительную систему, становится более равномерным и, следовательно, возрастает его эн- тропия. «Чтим, очевидно, достигается повышение эффек- тивности использования каналов связи зрительной 246
системы, обладающих ограниченной пропускной способно- стью. С учетом звеньев декорреляции сообщений структуру систем связи зрительного анализатора мы теперь можем представить следующей общей схемой (рис. 32). Сообще- ния, попадающие на вход сетчатки, передаются в мозг по двум линиям связи: основной и вспомогательной. В основ- ной линии связи декорреляция сообщений осуществляется по методу экстраполяции, передатчик этой линии локали- зован главным образом в центральной части сетчатки (колбочки, часть палочек, биполяры и ганглиозные клет- Рис. 32. ки). По основной линии связи передается большая часть информации, содержащейся в проектирующихся на сет- чатки изображениях. В передатчике вспомогательной линии связи декорреляция зрительных сообщений осуще- ствляется по методу укрупнения; сам передатчик локали- зован, в основном, на периферии сетчатки. По вспомога- тельной линии передается ориентировочная информация, необходимая в первую очередь для обнаружения объектов и наведения. В приемнике вспомогательной линии по при- нятым элементам укрупнения (прямым линиям, углам, цветам и т. п.) и их координатам осуществляется синтез образов. Часть сигналов, снимаемых с выхода вспомога- тельной линии связи, управляет также работой глазодвига- тельной системы, осуществляющей перераспределение веро- ятностей элементов декоррелированных сигналов (рис 32). 247
6. Действие помех До сих пор мы рассматривали количественные вопросы передачи сообщений и сигналов по линиям связи в отсут- ствии помех. Между тем в реальных условиях так факти- чески никогда не бывает — всегда возможны некоторые помехи, вызывающие искажение сигналов в процессе пе- редачи. В результате на приемном конце системы связи получателю будет выдано нечто отличное от посланного сообщения — сообщение, искаженное помехами. Если под- считать энтропию этого сообщения, то она окажется большей, чем энтропия посланного сообщения. Количе- ство информации возросло, однако ее содержание отнюдь не обогатилось, так как содержанием дополнительной ин- формации является помеха, которая накладывается на передаваемое сообщение. Сообщение на выходе системы связи при наличии помех перестает быть однозначно функ- ционально связанным с передаваемым сообщением на входе, менаду ними сохраняется только статистическая связь. Если помехи велики, то на выходе системы связи они преобладают над полезным сигналом и большая часть вы- ходных сигналов становится не относящейся к исходному сообщению. Возникает прежде всего вопрос: какое же ко- личество полезной информации передается при этом от входа к выходу системы связи? Чтобы получить ответ на этот вопрос, нам придется предварительно разобраться, как количественно оцени- вается влияние помех на передачу сообщений по линии связи. Пусть на вход системы связи подается множество сооб- щений {и}, алфавит которых состоит из символов hi, h2, •••, hh\ вероятности распределения символов по пози- циям сообщений соответственно р (hi), р (h2), р (hh). В результате передачи на другом конце системы связи будет принято множество сообщений {г?} с алфавитом gt, gz, gk и статистической структурой р (gt), р (g2), р (gk)- Отдельные символы алфавитов переда- ваемых и принимаемых сообщений отличаются друг от друга только индексами; при этом, например, символ вход- ного алфавита h2 идентичен символу выходного алфавита g2 и т. д. Однако статистическая структура распределения символов по позициям в выходных сообщениях вследствие 248
воздействия помех в общем случае будет отличаться от структуры передаваемых сообщений, так что р (Л2) не будет равно р (gz) и т. п. Действительно, при отсутствии помех между символами передаваемых и принимаемых сообщений имеет место однозначное соответствие и, на- пример, при передаче символа Лг всегда будет приниматься один и тот же символ g,. Если же передача сообщений осу- ществляется в условиях наличия помех, то действие по- следних приводит к тому, что каждому переданному сим- волу hi будет соответствовать целая группа символов выходного алфавита gj, g2, g3 ..., gk- Передавая, например, символ hit мы можем с вероятностью р (gi [ hi) на прием- ном конце получить правильный символ gi (так что Р (gi I hi) — это вероятность безошибочной передачи сим- вола hi), а с вероятностями р (g2 / h^, р (gs I hi), ..., p (gk I hi) расшифровать пришедший на приемный конец сигнал как g2, g3, ... gft. Аналогично этому, если передает- ся символ Л2, то на приемном конце мы можем с вероятно- стями р (gi I h2), р (g2lh2), ..., р (gklh2) получить символы gi, g2, •••, gk, ', если передается символ hk, то с вероят- ностями р (gi I hk), р (g2 I hk), ..., p (gh I hk) будут полу- чены на приемном конце символы gi, g2, ..., gk- Вероят- ности P(g^i), P(gjhi), ••• , P(gkK) P(gJhJ, P(gzlhJ, ••• , P(gklhJ P(gJhk), P(g^hk), , P(gklhk) статистически описывают помехи, имеющиеся в линии связи, т. е. они являются математическими ха- рактеристиками этой линии. Эта совокуп- ность вероятностей р (gj / Лг) обычно задается в виде мат- рицы, которую называют канальной матрицей. Обозначим соответственно через Н (и) и Н (v) энтро- пию входных сообщений (или энтропию на входе системы связи) и энтропию совокупности принимаемых символов (или энтропию на выходе системы). Эти две энтропии будут неодинаковы, потому что под действием помех изменяется статистическое распределение принимаемых символов: н (u) = —'^iP(hi)^ogip(hi), Н (y) = —S/’(^)bg2/’(g;)- 3 В отсутствие помех Н (и) равно Н (v). 249
Совместное появление какой-либо совокупности сим- волов и gj в сообщениях на входе и выходе системы связи можно рассматривать как сложное событие, энтро- пия которого Н(и, v)=-'^lp(hi, g/)log2Jp(/i,-, gj), г. з где р (hj, gj) — вероятность совместного появления сим- волов 1ц и gj. С другой стороны, P(ht, gj) = p(hi) p(g/ihi), где р (gj I hi) — вероятность появления символа gj, если появится символ hi- Учитывая’это, получим Н (U, V) = —22^ (М Р (gj!hi) (ЧМ) + ^2P(g jlhi)\ = = — £Р (hi) log2 Р (hl) 2 Р (gjlhi) — — SР (hi) S P (gj'hi) 1о§2 P (gjlhi). (1) i j Входящая во второй член полученного выражения вели- чина Я (i?//if) = р (gj[ht) log2 р (g^) есть энтропия на выходе системы связи при условии, что на входе системы передан символ /г,. Пользуясь этим обоз- начением, а также принимая во внимание, что S р (gjlhi) = з = 1 (как сумма вероятностей полной группы событий), можно выражение (1) переписать в следующем виде: Н(и, v) = H(u)+^p (hi)H(vlht). (la) i Поскольку hi — случайная величина, то энтропия Н (v I ht) также является случайной величиной. Поэто- му второй член правой части формулы (1а) можно рассмат- ривать как среднее значение величины Н (v / ht), вычис- ленное для совокупности передаваемых символов. Эта ве- личина Я(г('и) = 2р(Л,) Н (vlhi) = = — ^ Р №) 2 Р (8jlhi) 1о& Р (S/Ihi) = = -£р(Л/, gj)^og2p(giihi) (2) 250
носит название условной энтропии. Она харак- теризует среднюю неопределенность принимаемых сообще- ний, обусловленную действием помех, т. е. неуверенность в том, что принятое сообщение действительно соответст- вует переданному. Поэтому услов- ную энтропию от помехи иногда на- зывают ненадежностью, неоднозначностью или эквивокацией1. Подставляя (2) в (1а), имеем Н (и, v) = Н (vju). (3) Условная энтропия Н (v / и) не мо- жет быть больше безусловной#(и), т. е. всегда (v и)^Н (и). При отсутствии помех услов- ная энтропия Н (v I и) обращает- ся в нуль. Действительно, в этом случае каждый принятый символ будет соответствовать передан- ному, т. е. hi = g}-, поэтому Р (Sj I kt) — 1 и> следовательно, н (^/m)=2 р 1 1о§*1=°- В другом крайнем случае, когда действие помех столь значительно, что каждый принятый символ мо- жет расшифровываться как любой переданный, передаваемые и при- нимаемые сообщения становятся независимыми друг от друга. Тог- да р (gj I ht) = р (gj) (так как лю- бой переданный символ hi не оп- ределяет принятый gj) и поэтому Рис. 33, а, б, в. Н(о[и)^—^р(^)^р (g?) log2 р (gj) = = —(\) H(v)=A-H(v) = H (v). г т. е. все принятые сообщения ненадежны. 1 Последний термин — от франц, equivoque, англ, equivocal — двусмысленный. 251
Рассмотренные нами случаи действия помех на систему связи хорошо иллюстрируются графиками рис. 33. Здесь по оси абсцисс отложены передаваемые символы, а по оси ординат — принимаемые. При отсутствии помех (рис. 33, а) имеет место однозначное соответствие между пере- даваемыми и принимаемыми символами. При умеренных помехах (рис. 33, б) уже появляется некоторая неодно- значность. Хотя бблыпей частью принятые символы сот- ветствуют переданным (жирные точки), но могут иметь место и ошибки, когда принятый символ соответствует целой группе переданных. Наконец рис. 33, г характери- зует случай очень сильных помех, когда принятый символ с одинаковой вероятностью может соответствовать любому переданному. 7. Пропускная способность при наличии помех С точки зрения условий работы системы связи действие помех можно охарактеризовать уменьшением ее пропуск- ной способности. Пропускную способность линии связи мы определяли как наибольшее количество информации, ко- торое может передать эта линия в единицу времени (см. раздел 5). В отсутствие помех между энтропией источника сооб- щений Н (и), числом га 2 передаваемых символов в секунду (точнее, временных позипий на секунду) и пропускной спо- собностью линии связи С при оптимальном кодировании имело место следующее соотношение. С п*~ Н (и) пли га2-Я(и) = С. (1) При наличии помех вследствие появления элемента не- однозначности при той же скорости передачи га2 (времен- ных позиций на единицу времени) фактическое количество правильно принятых символов уменьшится и пропускная способность линии передачи должна определяться по фор- муле: С^) = гаг[Я(га)-Я(и/г)] (2) Здесь п2 Н {и I v) —среднее количество информации, 252
теряемой (рассеиваемой) в системе связи под действием помех. При отсутствии помех, когда, как мы видели, вели- чина Н (и I v) обращается в нуль, формула (2) превра- щается в формулу (1); иначе говоря, все количество ин- формации, выдаваемое источником в единицу времени, до- ходит до получателя. При весьма сильных помехах, когда Н (и I v) становится равным Н (и), по линии информация не проходит вовсе и ее пропускная способность обращается в пуль. Это, между’прочим, не означает, что все сигналы обязательно искажаются в линии. Так, например, если при передаче сигнала в алфавите (0,1) по линии целая по- ловина символов проходит без искажений и только поло- вина меняется на противоположные случайным образом, то пропускная способность такой линии оказывается рав- ной нулю. Этого не было бы, если бы на приемном конце линии было известно, какие именно символы переданы без искажений; но это подразумевало бы уже осложнения и нагрузку системы добавочной информацией, что в рассмат- риваемом примере не предполагается. Поскольку же факт искажения 50% символов известен получателю только статистически, постольку каждый прибывающий символ приходит с равной вероятностью р = V2 быть правиль- ным или ложным, а это равноценно тому, как если бы по- лучатель вместо приема последовательных сообщений (символов) просто восстанавливал каждый символ с по- мощью жребия; результат был бы такой же, как и при ис- пользовании линии связи. Таким образом, при наличии помех пропускная спо- собность системы связи может быть определена как число символов, которые могут быть переданы этой системой без ошибок в единицу времени. Пример. Определим пропускную способность зри- тельного нерва при наличии помех. Пропускная способ- ность зрительного нерва без учета действия помех была определена нами (см. пример раздела 4) как С = 55-10’ дв. -ед. т-г *» —. Пусть действие помех проявляется в том, что в нерве искажается 1% символов, т. е. из каждых 100 пе- реданных импульсов на приемном конце нерва (нейроны наружного коленчатого тела) в среднем один символ при- нимается неверно: вместо «1» (наличие импульса) при- нимается «0» (отсутствие импульса), и наоборот. Какова в этих условиях пропускная способность зрительного 253
нерва, т. е. фактическое количество передаваемых за одну секунду двоичных символов? 1. Если бы помех не было, то максимальная скорость передачи была бы достигнута при оптимальном кодирова- нии. В данном случае мы имеем дело с двоичным алфави- том, причем будем считать, что вероятности появления символов на входах зрительного нерва одинаковы: р (1) = р (0) = 0,5. Энтропия передаваемых сигналов (сообщений) при этом будет максимальной и равна И (и) =1 По формуле (1) имеем: С 55-Ю6 гг врем. поя. 719 —г — 1------— ЭЭ • IV ", 2 Н(и) 1 сек Именно с такой скоростью можно передавать информацию по нашему зрительному нерву в отсутствие помех. Мы не можем считать, что если 1% передаваемых символов под- вергается искажениям, то пропускная способность зри- тельного нерва снижается с 55 • 10’ ~~~ до значения 0,99-55 • 10’=54, 45-10’ д-в'-'ед". Так нельзя считать потому, сек •’ что на приемном конце нерва неизвестно, какие именно из переданных символов подверглись искажению. 2. После принятия любого символа условные вероят- ности равны: 1) вероятность того, что при передаче «0» принимается «0» р (0/0) = 0,99, 2) вероятность того, что при передаче «0» принимается «1» р (1/0) = 0,01, 3) вероятность того, что при передаче «1» принимается «1» р(Д 1) = 0,99, 4) вероятность того, что при передаче «1» принимается «0» р (0/1) = 0,01 (при этом, конечно, У р = 1). По этим значениям 254
вероятностей находим: Н (ujv) = — р (0) [р (0/0) log, р (0 0) + р (1 0) 1 og2 р (1 '0)] — —Р (!) [Р 1) log, р (0/1) + р (1/1) log, р (1 (1 ] = = —0,5 (0,99 log, 0,99+ 0,01 log, 0,01)- — 0,5 (0,01 log, 0,01 +0,99 log, 0,99) = = 0,081. Следовательно, Я(н) = 1 Я (и/») = 0,081. 3. Подставляя значения Я (и) и Я (и / v) в формулу (2), находим пропускную способность нашего зрительного нерва при наличии помех: Сw = и, [Я(и)—H(u[v)] = 55-10’ (1—0,081) = = 50,545-10’^-^ сек ’ (т. е. снижение на целых 8%). При определении пропускной способности линии пере- дачи мы все время молчаливо предполагали какую-то за- висимость этой величины от физических параметров самой системы связи. Так, например, при определении пропуск- ной способности зрительного нерва без учета помех мы априори задавались максимальной частотой следования импульсов в нервном волокне, принимая ее равной частоте мельканий. Теперь мы выясним конкретный характер этой зависимости. Ранее (см. раздел 4) пропускную способность линии связи (без учета влияния помех) мы определяли из соот- ношения С = loga (3) Из этой формулы видно, что пропускную способность ли- нии передачи можно увеличить путем увеличения значений и2 и ^2- На первый взгляд может показаться, что возмож- ности здесь совершенно безграничны. Действительно, ведь значение и2, например, может быть увеличено за счет уменьшения длительности временных позиций; при сокра- щении каждой временной позиции до мгновения число пз может возрасти до бесконечности.. На самом деле, од- нако, это не так. Как мы уже отмечали (см. раздел 4 гла- 255
Bai 5), любая реальная линия связи обладает ограничен- ной полосой пропускания частот Д/, вследствие чего она в единицу времени Т может занимать число временных по- зиций (количество независимых отсчетов), следующих через промежутки времени Д t = 1 2Д/’ не более чем (4) Так, например, если линией передачи является нервное волокно, то для него п2 в течение заданного промежутка времени Т не может быть больше некоторого критиче- ского значения, определяемого длительностью рефрактер- ного периода. Иначе говоря, максимальное число па вре- менных позиций, которые могут быть сопоставлены с раз- личными символами алфавита линии в единицу времени Т, является некоторой физической характе- ристикой линии, которую нельзя изменить, не внося структурных изменений в самую линию. Но, может быть, хотя бы число тп можно выбрать сколько угодно большим — ведь этого уже достаточно для того, чтобы добиться бесконечно большой пропускной способности С? К сожалению, это тоже неверно. Прежде всего невозможно использовать сигналы сколь угодно большой интенсивности, так как при этом на их соз^ jje требуется затрата громадной мощности. Существует vr определенная средняя мощность Р передаваемого сигнала, однозначно определяемая энергетическим питанием дан- ной линии связи. Кроме того, сигналы с близкими значе- ниями уровней (градаций) больше всего подвергаются искажениям со стороны помех, по которым трудно восста- новить переданные значения. В самом деле, если мы обоз- начим через N среднюю мощность этих помех (т. е. мощ- ность тех искажений, которым подвергаются сигналы в процессе передачи), то те сигналы, разность которых имеет много меньшую, чем N, мощность, на приемном кон- це нельзя будет различить никакими устройствами — не- большая разница между их символами будет полностью смазана более мощной помехой. Поэтому различимыми здесь окажутся те символы сигналов, которые отличаются между собой не меньше чем на некоторое определенное значение. Так как, кроме того, максимальный уровень сиг- налов (определяющийся средней мощностью Р) также не 256
может быть безгранично велик, то может существовать лишь конечное число т различимых между собой символов (градаций) алфавита сигнала. Не заботясь о строгости доказательства, определим пропускную способность линии передачи при наличии помех с учетом тех ограничений, которые налагаются на передаваемые сигналы физическими характеристиками ли- нии связи. Пусть сигналы в линии передачи подвергаются дей- ствию помех. Предположим, что помеха в системе есть бе- лый шум, ограниченный полосой пропускания линии Д/. Белый шум, как мы знаем (см. раздел 6 главы 5), ха- рактеризуется случайными значениями, которые равно- мерно распределены по частоте (в данном случае в преде- лах полосы пропускания); амплитуда этих значений будет в среднем равна УN. Эта помеха, добавляясь к передан- ному сигналу, даст принятый сигнал. Если переданный сигнал имеет мощность Р, то его амплитуда будет в сред- нем равна Р. Поэтому принятый сигнал будет иметь амплитуду ()/P+|/2V). В принятых сигналах различать можно, очевидно, только те символы, амплитуды которых различаются между собой на величину амплитуды шума, т. е ;а Y N. Следовательно, число различаемых символов • . выходе в среднем равно fq " _ (/Р+Г(У) _ -i/Z , ! т*~ уъ ~ V я Так как за время Т по линии может передаваться не боль- ше чем п2 = 2Д/-Т временных позиций, то общее число сигналов, которые на приемном конце можно различить, равно: Количество информации, которое за время Т может быть передано и в принципе безошибочно восстановлено, равно log2M = n2 \og2m2 и скорость передачи /?Г = 4^=^^ = 2Д/1о§2(|/ 4- +О’ 9 Черныш В И. 257
Оги предельная скорость безошибочной передачи', она равна пропускной способности линии связи при наличии помех- CW = 2A/log2(’|/^- + l) (5) Соотношение (5) играет фундаментальную роль в общей теории связи и теории информации и известно под назва- (роомулы Шеннона. Между шириной полосы пропускания линии передачи Д/ п минимально возможной длительностью временной по- зиция в этой линии A iMun имеется следующая связь: А/Д?лин=1. (6) Учитывая эго, мы можем переписать (5) иначе: Ст = 210^(У + 0 . (5а) К. Шеннон доказал [151], что для любой линия связи с помехами всегда можно подобрать специальный код, позволяющий передавать информацию по этой линии со скоростью, сколь угодно близкой к его пропускной спо- собности CW) (но обязательно все же несколько мень- шей, чем эта величина) так, чтобы вероятность ошибки в определении на приемном конце каждого переданного символа оказалась меньше любого заранее заданного числа g (например, меньшей чем 0,001 или чем 0,0001, или чем 0,00001 и т. д.). Никакой метод кодирования не допускает передачи с большей скоростью при произвольно малой частоте ошибок g. Тем самым было доказано, что осуществить передачу со сколь угодно малыми ошибками можно не только путем многократного повторения сигнала^ при котором сни- жается скорость передачи; фактически при тех же требо- ваниях к точности передачи можно вести передачу со скоростью, близкой к С(Л), добиваясь уменьшения ошибки за счет усложнения операций кодирования и декодирова- ния в передатчике и приемнике данной системы связи. Разумеется, эти коды будут зависеть от требований к до- пустимой вероятности появления ошибок, и чем меньше g, тем они будут, как правило, более сложными; с услож- нением кода в передатчике и приемнике удлиняются 258
задержки на осуществление процессов кодирования и декодирования сигналов п сообщений. При передаче информации по линии с большей, чем С(Л), скоростью количество принимаемых ошибок при любом методе кодирования будет превышать минимально допустимую величину g, и в тем большей степени, чем больше по сравнению с C(7V) будет действительная скорость передачи. Следует отметить, что безошибочная пропускная спо- собность линии передачи неограниченно возрастает при уменьшении мощности помех и в пределе стремится к скорости передачи в отсутствие помех: limCW = C. N—о При достаточном превышении сигнала над помехой можно пренебречь единицей в скобках формулы (5) и пропускная способность будет ~ Д1 log, 4 = Д/ 1о&е =1 ’443д/ тг <56) или, учитывая (6), (5в) 8. Помехоустойчивые коды Фактор действия помех на сигналы накладывает спе- цифические требования к кодирующим устройствам, поэтому задачи кодирования сообщений при наличии помех существенно отличаются от задач кодирования, при котором действие помех на сигналы отсутствует или не учитывается. Так, если избыточность источника сообще- ний в линиях, не подверженных действию помех, пред- ставляла собой вредное свойство, то для линий, подвер- женных действию помех, избыточность является надежным средством борьбы с помехами. Рассмотренные нами ранее статистические способы ко- дирования преследовали только цель осуществить наи- лучшее согласование (в статистическом смысле) источника сообщений с линией связи для возможно полного исполь- зования пропускной способности этой линии. В новых условиях, помимо достижения согласования, что всегда 5* 259
необходимо, следует осуществить такое кодирование, при котором вредное действие помех могло бы быть сведено к минимуму. Коды, устраняющие или ослабляющие влия- ние помех, называются помехоустойчивыми кодами, а системы связи, эффективно использующие эти коды,— помехоустойчивыми системами связи. Введем критерий и количественную меру помехоустой- чивости. Помехоустойчивость может определяться как надеж- ность при заданных помехах, условиях распространения ит, п. при условии исправности самой системы связи. Различие между надежностью и помехоустойчивостью состоит в том, что на надежность влияет ряд изменяю- щихся факторов, при определении же помехоустойчивости эти факторы считаются заданными, так что помехоустой- чивость отражает лишь влияние на надежность свойств самой системы связи, т. е, примененного в данной системе способа передачи. Надежность определяется как мера достоверности принятых сообщений, т. е. мера соответствия принятых сообщений переданным. Несоответствие между приня- тыми и переданными сообщениями, обусловленное влия- нием указанных выше факторов, выражается в о ш и б- к а х в принятом сообщении. Среднее относительное количество ошибок определяется вероятностью ошибки. Эта вероятность может служить мерой не- соответствия; величину, обратную вероятности ошибки, можно взять в качестве меры соответствия, т. е надежности, а следовательно, и помехоустойчивости. Однако в хорошей системе связи вероятность ошибки выражается малой дробью. Поэтому удобнее определять надежность и помехоустойчивость через логарифм вели- чины, обратной вероятности ошибки [145]. Выбор основа- ния логарифма не имеет значения; практически можно пользоваться двоичными логарифмами. Таким образом, в качестве количественной меры надежности и помехоустойчивости можно взять величину ^ = log4^=— log2Po> (1) Pq где — вероятность ошибки. Рассмотрим теперь принципы построения некоторых помехоустойчивых кодов. 260
Наиболее простой метод борьбы с помехами состоит в многократном повторении сигнала. Несколько принятых образцов или экземпляров сигнала оказываются по-раз- ному искаженными помехой, так как сигнал и помеха — процессы независимые. Поэтому, сличая на приемном конце линии передачи несколько экземпляров одного и того же сигнала, можно восстановить истинную форму переданного сигнала с тем большей уверенностью, чем большим числом экземпляров сигнала располагает прием- ник. Так как дело сводится в конечном счете к некоторому суммированию отдельных образцов сигнала, то метод этот может быть назван методом накопления. Многократное повторение сигнала может осущест- вляться двумя способами: а) повторением во времени и б) пространственным сумми- рованием. В первом случае сигнал несколько раз повторяется по одному каналу передачи; при простран- ственном суммировании один и тот же сигнал посылается в приемник одновременно по нескольким параллельным каналам. Рассмотрим следующий пример. Пусть мы имеем нерв- ное волокно, контактирующее с каким-либо нейроном несколькими своими синаптическими окончаниями. По этому волокну проходит сигнал в виде комбинации симво- лов 1 (наличие импульса) и 0 (отсутствие импульса) следующего вида: 1 001 001. Очевидно, этот сигнал будет передаваться на нейрон одновременно через все синапти- ческие окончания волокна на этом нейроне. Положим теперь, что синаптические контакты наиболее чувстви- тельны к действию определенных помех (например, моле- кулярной, ионной и другой природы). Само действие помех проявляется либо в том, что при наличии возбуж- дения на синаптической пуговке помеха препятствует его передаче на мембрану, либо, наоборот, при отсутствии возбуждения помеха может вызвать возбуждение в синап- тическом контакте. Пусть условия возбуждения нейрона таковы, что ней- рон генерирует импульс только в том случае, если воз- буждение на его мембрану поступает с большинства си- наптических контактов волокна; отсутствие возбуждения на одном, двух или трех синапсах не влияет на возбуж- дение нейрона в целом. При отсутствии возбуждения на всех синаптических контактах волокна или при наличии 261
возбуждения только на одном—трех контактах нейрон не генерирует импульс. Итак, мы имеем, например: комбинация в нервном волокне 1 001 001, комбинация в первом синапсе 1 001 011, комбинация во втором синапсе 1 101 001, комбинация в третьем синапсе 1 001 101, комбинация в г-том синапсе 1 101 001, В итоге комбинация в аксоне нейрона 1 001 001. Легко видеть, что помехоустойчивость синаптической передачи повышается этим методом. Действительно, пусть вероятность ошибки есть ра. Тогда, считая, что отдельная ошибка ость событие независимое, получим, что вероят- ность одной и той же ошибки в каждом из п синапсов есть р". Если помехоустойчивость при однократной пере- даче символа (1 пли 0) есть то при га-кратном повторении этого символа в п синапсах помехоустойчивость будет Sn= 10§2—= — re10g2Po = ^P (2) Р о т. е. возрастет в п раз. Если, например, вероятность ошибки равна ра = 0,1 (S = 1), то при четырехкратном повторении вероятность ошибки упадет до р”=(0,1)4 = = 0.0001 (<$4 = 4). Для реализации Метода накопления необходимо, во-первых, устройство для пространственного или вре- менного повторения сигнала на передающем конце, а во-вторых, суммирующее устройство — накопитель на приемном конце. Методы накопления широко используются в разнооб- разных линиях и каналах связи нервной системы животных и человека. Временное накопление и пространственное суммирование фактически используются во всех перифе- рийных рецепторных аппаратах анализаторов, проводя- щих путях головного и спинного мозга, в синаптических связях между отдельными нейронами и т. п. 262
Так как метод накопления основан на повторении сиг- нала, то повышение надежности достигается здесь ценой значительного уменьшения скорости передачи (при вре- менном накоплении) или за счет дублирования каналов передачи (при пространственной суммации); при этом избыточность сигнала сильно возрастает. Принципиальную возможность повышения надежности связи методом накопления можно пояснить следующим образом. Задача борьбы с помехами есть в сущности задача отличения сигнала от помехи или разделения сигнала и помехи. Отличить сигнал от помехи можно было бы по некото- рому определенному физическому признаку, которым сиг- нал обладал бы, а помеха нет, или наоборот. Но таких признаков нет: и сигнал, и помеха представляют собой случайные процессы, существующие одновременно и обладающие перекрывающимися частотными и ампли- тудными спектрами. Однако при многократном повторе- нии (пространственном или временном) сигнала ему сообщается новое свойство, отличающее его от помехи: повторяемость, периодичность. Дело сводится теперь к тому, чтобы использовать новое ка- чество сигнала для отличения его от помехи, что и осу- ществляется накопителем: амплитуда при частотной модуляции или частота — при амплитудной у периоди- ческого сигнала постоянна, а у помехи — флюктуирует, случайна, поэтому сигнал и помеха суммируются по разным законам и превышение сигнала над помехой на выходе накопителя растет неограниченно с увеличением числа дублирующих каналов или времени накопления. Метод накопления позволяет в принципе осуществить связь в тяжелых условиях, т. е. при малых и даже отри- цательных превышениях сигнала над помехой, когда мощ- ность помех превосходит (и даже значительно превосхо- дит) мощность сигнала. Другим методом борьбы с помехами является приме- нение на передающем и приемном концах линии передачи сложных кодирующих устройств, позволяющих обнару- живать и исправлять в сигналах ошибки, вызванные воз- действием помех. В этом случае избыточность передавае- мых сигналов хотя и преднамеренно увеличивается, но не в столь значптельгой степени, как при методе накопле- ния. Применяемые в подобных помехоустойчивых свсте- •2R.3
мах связи коды получили название корректирующих кодов. Общая идея построения корректирующих кодов со- стоит в том, что к обычной комбинации символов, несущих информацию, добавляются дополнительные контроль- ные (пли проверочные) символы, служащие для обнаружения и исправления ошибки; при этом все множество возможных для применяемого кода комбина- ций символов делится на разрешенные и за- н решенные. Передатчик посылает в линию сигналы только в виде разрешенных комбинаций; помехи превращают отдель- ные разрешенные комбинации в запрещенные, вследствие чего ошибки и обнаруживаются в приемнике. Для ис- правления ошибки используются различия между ком- бинациями: правильной комбинацией будет та, которая наименее отличается от ошибочной. Из корректирующих кодов самым простым является обнаруживающий код', этот код позволяет только выявлять ошибки в принимаемых сигналах, но не указывает их точное местонахождение и не исправляет эти ошибки. Представление о возможности выявления ошибок с помощью обнаруживающего кода может дать следующий простой пример. Пусть по линии связи, оперирующей с двоичным алфа- витом, передаются сигналы, представляющие собой группы (комбинации) символов и позиций по I позиций в каждой группе. Передача осуществляется в условиях помех, причем характер воздействия помех на сигналы таков, что вероятность появления в каждой группе более одной ошибки достаточно мала и ею можно пренебречь. Иначе говоря, в группе может появиться только одна ошибка (О вместо 1 или 1 вместо 0), но почти никогда не появится две или больше таких ошибок. Предположим, что в передатчике к каждой группе из I позиций добавляется еще одна позиция; символ («1» или «0»), занимающий эту позицию, в отличие от символов остальных позиций группы не несет информации, а яв- ляется контрольным. Контрольный символ выби- рается для каждой группы так, чтобы вся группа из ltЦ-1 позиций при суммировании символов этих позиций (т. е. нулей и единиц) давала бы, скажем, четное число. Тогда все передаваемые передатчиком кодовые группы 264
будут представлять собой четные числа. Эти числа и принимаются за разрешенные комбинации. Способ составления разрешенных комбинаций может быть про- иллюстрирован следующей таблицей: четность суммы и та группа, в которой помехой искажен один символ, немедленно будет опознана как ошибочная. Понятно, что такой код, хотя и позволяет выявить группу символов, имеющих одну ошибку, но не дает возможности указать ту позицию в группе, в которой произошла ошибка и, следовательно, исправить ее; кроме того, этот код не в состоянии обнаружить двойную ошибку. Более сложными и совершенными являются коррек- тирующие коды, которые не только обнаруживают, но и исправляют ошибки в принимаемых сигналах; эти коды называются самокорректируюгцимися кодами. В самокор- ректирующихся кодах обнаружение и исправление оши- бок достигается главным образом за счет усложнения структуры разрешенных комбинаций передаваемых сигна- лов. Рассмотрим примеры построения некоторых простых самокорректирующихся кодов [25]. Пусть мы имеем помехоустойчивую систему связи, в которой используется самокорректирующийся двойной код. В передатчике этой системы к каждой группе ин- формационных позиций lt добавляется группа из к кон- трольных позиций, так что каждая образующаяся таким образом разрешенная комбинация состоит из (lt + kj) позиций (будем по-прежнему считать, что в передаваемых группах символов может встречаться не более одной 265
ошибки) Так как в каждой контрольной группе позиций возможны любые сочетания символов «1» и «О» (двоичного алфавита линии пепедачи) с к позициями этой группы, то всего возможно 2* таких контрольных групп. Каждое конкретное сочетание «1» и «О» с к позициями в любой контрольной группе должно указывать: 1) либо, что ошибки в комбинации нет (т. е что принятая комбинация из информационной и контрольной групп является раз- решенной), 2) либо, если ошибка есть, то в какой позиции принятой комбинации она находится. В таблице (1) даны наибольшие числа позиций в ин- формационной группе, которые могут быть проверены при различных значениях к Как видно из этой таблицы, для обнаружения и исправ- яения ошибки необходимы минимум две контрольные позиции. В этом случае группа, несущая информацию, будет состоять всего из одной позиции. Метод обнаруже- ния и исправления ошибки в приемнике для этого случая иллюстрируется таблицей (2). Информацией Контрольная ная группа группа А X X В С (2) X X В передатчике символы («1» или «О») для позиций кон- трольной 1руппы В и С выбираются так, чтобы суммы (Л + В) и (А 4 С), помеченные в табл. (2) знаком х , были четными. В приемнике вычисляются обе суммы, и если одна из них окажется нечетной, проверяемый сигнал в ней содержит ошибку. 26b
Если, например, (4 + В) нечетна, а (Л 4 С) четна, то в позиции В символ неверен. Если имеется ошибка в позиции А, то обе суммы будут нечетными. Отсюда ясно, в какой позиции символ должен быть исправлен. Третий случай — код «четыре из семи»: четыре дво- ичных позиции для информации, три — для проверки. Проверка может осуществляться, как показано в таблице. Информационная группа Контрольная группа А В с D Е 1 F G X X X X X X X X X X X X Символами в информационных позициях могут быть либо «О», либо «1». Символы для контрольных позиций должны быть подобраны так, чтобы были четными суммы: A+B + C + D, ' А 4* В 4- D -|- F, А 4- С -и D 4- G. Приемник сопоставляет все эти суммы. Если все онц четны, то ошибки нет (в силу нашего предположения, что во всех позициях принимаемой комбинации не может быть больше одной ошибки). Если одна из сумм нечетна, то ошибка имеется в контрольной позиции (т. е. в Е, F или G) этой суммы. Если две суммы нечетны, то ошибка имеется в той позиции, которая является общей для обеих сумм, но не входит в третью. Так, если первые две суммы нечетны, то ошибка должна быть в позиции В. Если все три суммы нечетны, то ошибка в позиции А. Аналогичным образом могут быть построены коды и для четвертого и пятого случаев таблицы (1).ч Общее правило составления кодовых комбинаций для всех этих случаев заключается в следующем. Число проверочных сумм выбирается равным числу контроль- ных позиций к, причем в проверочные суммы входит всего один раз каждая из позиций контрольной группы. Ин- формационные группы отдельных проверочных сумм со- ставляются таким образом, что первая информационная 267
позиция (в наших примерах позиция Л) включается во все проверочные суммы; затем выбираются следующие информационные позиции (во втором примере позиции В, С и D) в количестве к штук так, чтобы каждая из этих позиций включалась в (к — 1) проверочных сумм; по- следующие информационные позиции в количестве 1 у к {к—1) штук используются в к проверочных суммах (к — 2) раз каждая и т. п. Вообще к контрольных позиций дают / = 1 4.к + 4 к 4- ... = 2k- k— 1 (4) возможностей проверки, так что величина 2к — к — 1 выражает максимальное число информационных позиций, которые могут быть проверены при использовании задан- ного числа контрольных позиций таблицы (I)1. Рассмотренный нами самокорректирующийся код из- вестен под названием кода Хемминга. Коды этого типа применимы, когда вероятность ошибки в сиг- налах невелика. При больших вероятностях ошибки, когда в кодовых комбинациях из I позиций достаточно часто появляются более одной ошибки, код Хемминга оставляет без изменений комбинации, в которых нет ошибок, корректирует одиночные ошибки, не исправляет принятые комбинации с четным числом ошибок и может внести одну дополнительную ошибку, если число их больше одной и является нечетным. В таких случаях применяются более сложные коды, например с повторным применением кодирования. Так, например, после исправления одиночных ошибок позиции избыточных контрольных символов отбрасываются и из оставшихся позиций составляются новые группы, состоя- щие из информационных и контрольных символов и т. п. В результате достигается возможность передать некото- рую информацию почти без ошибок, несмотря на значи- тельную вероятность ошибок в отдельной позиции, правда, 1 Изложенный принцип имеет много общего со старинным и известным карточным фокусом отгадывания задуманной пары карт при помощи пресловутого ключа (в русском варианте): «Наука умеет много гитик». Очень возможно, что какой-нибудь из вариан- тов этого фокуса и навел на изобретение принципа самокорректи- рующихся кодов (прим. ред.). 268
ценой значительной задержки во времени. Задержка при кодировании — общее явление для всех сложных кодов. Мы рассмотрели только два простых типа корректи- рующих кодов. В реальных системах связи используются, однако, и другие типы корректирующих кодов; структура любого из таких кодов в каждом конкретном случае оп- ределяется особенностями используемого алфавита, ха- рактером помех, требованиями к точности передачи и т. п. Общим для всех корректирующих кодов является то, что они повышают избыточность сигналов путем введения в них добавочных символов и позиций, и разделяют эти сигналы на разрешенные и запрещенные комбинации; помехи превращают разрешенные комбинации в запрещен- ные, по которым и обнаруживаются ошибки. Есть основания полагать, что корректирующие коды используются в некоторых биологических системах связи, в частности в системах передачи генетической информа- ции, где требования к помехоустойчивости особенно велики. Оценивая достоинства различных биологических систем связи и сравнивая их между собой, мы, естественно, должны были бы отдать предпочтение системе, обеспечи- вающей бблыпую помехоустойчивость. В то же время всякий метод повышения помехоустойчивости связан с увеличением избыточности сигналов, т. е. с понижением эффективности использования системы связи. При таком положении возникает задача нахождения приемлемого компромисса между находящимися в прямом противоречии требованиями: требованием высокой эф- фективности, для удовлетворения которого необходимо всячески сокращать избыточность сигнала, и требованием высокой помехоустойчивости, для удовлетворения кото- рого приходится увеличивать избыточность сигнала. Поэтому общая характеристика системы связи может быть сведена к двум показателям: э ф ф е ктивности и помехоустойчивости. Первый показатель дает количественную оценку работы системы связи, тогда как второй показатель — оценку качества се работы. Если система связи способна передавать сигналы с не- значительной избыточностью и в то же время обладает достаточно высокой помехоустойчивостью, то такую си- стему можно считать оптимальной. 269
9. Биологические системы связи В настоящее время в живой природе используются самые разнообразные системы связи И это вполне зако- номерно. Ведь связь необходима в любой системе управ- ления, а первые системы управления возникли на нашей планете многие миллионы лет назад одновременно с появлением первых живых организмов. С тех пор живая природа непрерывно развивала и совершенствовала свою «связь», и к настоящему времени она уже создала мно- жество разнообразных типов систем связи, начиная от простейших и кончая такими уникальными системами, как генетические аппараты наследственности. Особенно широким разнообразием структур представ- лена связь в нервной системе животных и человека. По выполняемым функциям все используемые в нервной системе связи можно разделить на четыре основных типа: 1) системы ввода информации, 2) командные системы связи, 3) системы внутренней связи, 4) системы внешней связи. 1. Системы ввода информации ответственны за сбор и доставку в нервные центры информации о тех внешних и внутренних событиях, которые играют существенную роль в поддержании жизнедеятельности данного орга- низма. К внешним событиям относятся абиотические и биоти- ческие факторы (температура, давление, влажность, ос- вещенность, корм, хищники и т. п.). Внутренние факторы характеризуют состояние различных внутренних органов и тканей организма животного или человека (уровень сахара в крови, напряженность мышц, давление крови, концентрация ph и т. п.). Так как информация о внешних и внутренних событиях в естественных условиях обычно содержится в носителях разнообразной физической природы, то в системах ввода информации имеются специальные преобразователи соот- ветствующих физических алфавитов в двоичный алфавит нервной системы — рецепторы. Каждый рецептор способен преобразовывать в алфавит нервной системы лишь определенный физический алфавит (световой, зву- ковой, температурный и т. п.). Поэтому в нервной системе каждого животного и человека имеются целые наборы 270
различных рецепторов, совместное функционирование которых и обеспечивает ввод в нервную систему всей необходимой информации о существенных для данного организма внешних и внутренних факторах. Рецепторы являются преобразующими элементами пе- редатчиков системы ввода информации, линиями передачи этих систем служат афферентные волокна, приемниками — нервные клетки головного и спинного мозга. 2. Командные системы связи служат для передачи сигналов управления (команд) из вы- числительных и логических центров нервной системы к управляемым объектам — органам и тканям организма. Передатчики этих систем связи локализованы в эфферент- ных нейронах, линиями передачи являются эфферентные волокна (аксоны) и приемниками — концевые пластинки, в которых нервные импульсы — носители командной ин- формации — преобразуются в механические, химические и другие реакции, непосредственно воздействующие на работу соответствующих органов или тканей. В сущности, каждая концевая пластинка представляет собой исполни- тельный орган, воспринимающий команды и непосредст- венно воздействующий на управляемый объект — орган или ткань организма. 3. По системам внутренней связи осуществляется обмен информацией между отдельными центрами и участ- ками нервной системы (например, между правым и левым полушариями головного мозга, между головным и спин- ным мозгом и т. д.). В этих системах связи передатчиками служат отдельные нейроны, линиями передачи — аксоны этих нейронов и, наконец, приемниками — синаптические окончания аксонов на поверхностях других нейронов. 4. Системы внешней связи служат для обмена инфор- мацией между нервными системами животных и людей. Это — наиболее сложный тип связи, применяющейся в нервных системах. Сложность систем внешней связи обусловлена необходимостью осуществления в них пре- образования сигналов нервных волокон в соответствующие сигналы внешней физической среды (воздуха, воды), которая используется в этих системах в качестве необ- ходимого рабочего участка их линий передачи, и затем обратного преобразования принятых физических сигналов в соответствующие комбинации импульсов нервных во- локон (рис. 34). 271
Задача использования физических процессов внешней среды для передачи сигналов нервной системы решается в животном мире самыми разнообразными способами. В простейшем случае функции кодирования, модуля- ции и преобразования передаваемых сигналов нервных волокон в сигналы внешней среды совмещаются в орга- низме животного с другими функциями. Так, например, в случае возникновения биологической опасности в нервной системе животного могут создаваться командные сигналы, специфически возбуждающие мышцы его наруж- ных органов, придающих этому животному характерную позу страха, а также движения, вызывающие, например, шорох. Возникающие при этом физические возмущения (световые, звуковые), распространяясь в воздушной среде, попадают на входы соответствующих внешних рецепторов другого животного и далее по нервным волокнам в форме комбинации нервных импульсов — в его мозговые струк- туры, в которых они будут расшифровываться как сигналы биологической опасности. В более сложных случаях мы сталкиваемся с фактами наличия у животных приспособлений, специально пред- назначенных для создания и приема внешних физических сигналов (специфические движения усиков у пчел и му- равьев, характерное дрожание головы у термитов, голосовые аппараты у птиц и млекопитающих). Наибольшего развития системы внешней связи полу- чили в животном мире у видов, для которых характерен групповой образ жизни (общины муравьев, ос, шмелей, трутней у членистоногих, стаи у рыб и птиц, стада у мле- копитающих). Так, например, у павианов-гамадрил за- регистрировано 18 специальных звуков общения. Среди них имеется отчетливо слышимый звук «О», произносимый 272
двумя обезьянами поочередно. Его биологическое значе- ние заключается в том, что при рассеивании стада в поисках корма при помощи этого звука осуществляется «перекличка». Своеобразный сигнал опасности «ак (х) — ак (х)» издается при приближении вожака, при прохож- дении его мимо, при взятии корма на глазах у вожака, при появлении необычного предмета. При обыскивании издается цокающий звук и т. п. Во всех перечисленных нами основных типах систем связи решается также задача достижения высокой поме- хоустойчивости при достаточно эффективном использо- вании пропускной способности этих систем.
ГЛАВА 7- АЛГОРИТМЫ 1. Алгоритмы Прием, хранение, передача и переработка информа- ции — непременное условие работы любой управляющей системы. Первые три функции решаются в основном системами связи, с которыми мы познакомились в двух предыдущих главах. Содержанием процессов переработки информации является выполнение в определенной после- довательности количественных («числовых») и логических операций. Поэтому любая переработка информации осу- ществляется процессами двоякого рода: количест- венными и логическими. В количественных процессах участвуют числовые характеристики различных величин и отношения между ними, в логических процес- сах — качественные особенности этих величин и их отношения. В каждой конкретной переработке информации вычис- лительные и логические операции чередуются в строго определенной последовательности, присущей именно данной переработке информации. Совокупность правил (или ограничений), определяющая порядок чередования отдельных операций для получения заданной переработки информации, называется алгоритмом (иначе: алгорифмом). Алгоритм состоит из ряда последовательных совершенно определенных простых шагов и точных правил, указы- вающих, когда и какой шаг должен быть сделан и когда выполняемый процесс должен прекратиться. Результатом переработки информации по заданному алгоритму всегда является решение. Таким образом, любой информационный процесс, задаваемый структурой алгоритма, расчленяется на от- дельные достаточно элементарные шаги. Каждый шаг состоит в смене одного состояния процесса другим (ис- 274
ходные данные и служат начальным состоянием). Переход от какого-либо состояния к непосредственно следующему происходит на основе так называемых правил непосред- ственной переработки, предполагаемых достаточно эле- ментарными. Некоторые состояния опознаются как заклю- чительные (на основе достаточно простых правил оконча- ния), и из них извлекается окончательный результат (также па основе достаточно элементарных правил). рецепторы аффер. метка. Рис. 35. Приме р. Рассмотрим алгоритм простой спинно- мозговой рефлекторной дуги мышечного рефлекса на растяжение (рис. 35). Для этого вначале выделим все основные операции, участвующие в осуществлении данной рефлекторной дуги: (1) измерение величины мышечной деформации; (2) перевод числовой величины мышечной деформации в соответствующую числовую величину ам- плитуды электротона рецепторных окончаний; (3) преобра- зование числовой величины потенциала электротона рецепторных окончаний в соответствующее (пропорцио- нальное) количество импульсов афферентного волокна; (4) преобразование числовой величины потенциала элект- ротона рецепторных окончаний в постоянную частоту импульсации афферентного волокна. 1 равную где T’peje — длительность рефрактерного периода; (5) преобра- зование числовой величины импульсации афферентного волокна в пропорциональную числовую величину им- пульсации мотонейрона; (6) преобразование числовой величины импульсации аксона мотонейрона в соответст- 275
вующее количество молекул ацетилхолина, выделяемых концевыми пластинками. Сформулируем теперь правила или указания, опреде- ляющие порядок чередования в рефлекторной дуге пере- численных выше операций: Шаг 1. Выполнить операцию (1). Переход к следую- щему шагу. Шаг 2. Выполнить операцию (2). Переход к следую- щему шагу. Шаг 3. Сравнить результат предыдущего шага с заданной пороговой величиной Л. Если этот результат меньше пороговой величины /г, переходить к шагу 1; если больше или равен — переходить к следующему шагу. Шаг 4. Сравнить результат предыдущего шага с задан- ной максимальной критической величиной Самаке. Если этот результат меньше Самаке — выполнять операцию (3); если больше пли равен — выполнять операцию (4). Переход к следующему шагу. Шаг 5. Выполнить операцию (5). Переход к следую- щему шагу. Шаг 6. Выполнить операцию (6). Прекратить процесс. Совокупность такого рода правил и составляет алго- ритм, или рецепт решения задачи получения рефлекторной дуги мышечного рефлекса, которая, так сказать, механи- чески получается, если следовать указаниям данного алгоритма шаг за шагом. Формальный характер этих операций как раз и заключается в том, что они автома- тически выполняются независимо от природы реализую- щих их элементов (натуральных или искусственных). На рассмотренном нами примере можно убедиться, что алгоритм фактически предписывает порядок и правила переработки информации, которые дают требуемое реше- ние конкретных задач. Действительно, в нашем примере веретена получают информацию о фактическом состоянии иннервируемых мышечных волокон. Эта информация затем перерабатывается на отдельных участках рефлек- торной дуги — в афферентном волокне, в мотонейроне, причем отдельные правила непосредственной переработки задаются внутренней структурой афферентного волокна и структурой синаптических окончаний афферентной клетки на мотонейроне, в результате чего и возникает соответствующее «решение» в форме конфигураций уп- 270
равляющей эфферентной импульсации, которая поступает на соответствующие мышечные волокна. Процесс выработки решения, т. е. нахождения пере- работанной информации, при наличии исходных данных расчленяется на некоторые элементарные акты, которые могут как-то чередоваться между собой. Каждый из этих актов представляет собой некоторую переработку той информации, которая имеется к моменту его выполнения. Порядок выполнения тех или иных элементарных актов должен быть точно определен. Он может быть либо опре- делен заранее раз навсегда, либо порядок выполнения этих актов зависит от результатов работы предшествую- щих актов. В таких случаях для нахождения очередного элементарного акта проверяется некоторый комплекс условий. Алгоритмом переработки информации как раз и яв- ляется объединение элементарных актов и проверяемых логических условий, которые обеспечивают такой порядок работы (т. е. проверки условий и выполнения элементар- ных актов), который при наличии исходной информации дает решение. Алгоритм всегда перерабатывает началь- ные данные в решение. Не всякая переработка информации может иметь своим результатом решение. Существуют процессы, которые осуществляют переработку информации и не дают ре- зультатов. Процессы переработки информации, не дающие решения, не имеют алгоритмов. Решения дают только алгоритмические процессы, т. е. такие процессы перера- ботки информации, в основе которых лежат те или иные алгоритмы. В системах управления основную роль играют алго- ритмические процессы переработки информации. Много- образие задач, решаемых системами управления, опреде- ляет и многообразие используемых в них алгоритмов. Существуют алгоритмы, пригодные для решения ши- рокого класса задач; такие алгоритмы называются уни- версальными алгоритмами. В то же время имеются инди- видуальные алгоритмы, осуществляющие решение только какой-то одной задачи. Если в алгоритме преобладают количественные опера- ции, то такой алгоритм называется численным алгоритмом. Алгоритмы, в которых основную роль играют логические операции, называются логическими алгоритмами. 277
Алгоритмы называются жесткими, если их структура в ходе решения задачи не изменяется. Примерами жестких алгоритмов могут быть алгоритмы безусловных рефлексов. Алгоритмы, структура которых меняется в зависимо- сти от характера начальных и промежуточных данных, называются гибкими алгоритмами. Примером могут слу- жить алгоритмы условных рефлексов. Алгоритмы, решающие простые задачи, называются элементарными алгоритмами. При решении определенных задач отдельные элемен- тарные алгоритмы в управляющей системе могут комби- нироваться между собой, образуя сложные алгоритмы. Различные алгоритмы могут решать разные по слож- ности задачи; поэтому можно говорить о квалифи- кации алгоритмов [77]. Критерием для квали- фикации каждого алгоритма служит оценка того,насколько сложные задачи может решать данный алгоритм. Одна и та же задача может решаться различными ал- горитмами по-разному; одни алгоритмы будут решать эту задачу за большее число элементарных шагов, дру- гие — за меньшее число шагов; иными словами, различ- ные алгоритмы имеют разную производитель- ность. Математическое понятие алгоритма тесно связано с понятием функции. В первой главе, говоря о функции, мы подразумевали под этим понятием некоторый закон (правило), согласно которому некоторым элементам одного множества (значениям аргумента) ставятся в соответствие элементы другого множества (значения функции). Никаких ограничений на характер закона соответствия при этом не накладывалось. Этот закон может быть каким угодно, в том числе и таким, который не дает реальной возмож- ности находить по значениям аргумента соответствующее значение функции. Для каждого алгоритма, так же как и для функции, существует некоторое множество исходных данных — элементов, к которым имеет смысл применять данный алгоритм (в рассмотренном нами примере — множество численных значении величины мышечной деформации). Если процесс применения алгоритма к какому-либо эле- менту множества М заканчивается с выдачей результата, то говорят, что он применим к этому элементу. При этом алгоритм, так же как и функция, может быть 278
применим не обязательно ко всем элементам данного множества исходных данных. Более того, применяя ал- горитм к какому-либо элементу пз совокупности возмож- ных исходных данных, мы, вообще говоря, можем и не знать наперед, получим ли мы результат, т. е. окажется in алгоритм применим к взятому элементу множества. Таким образом, для каждого алгоритма в множестве всех возможных исходных данных этого алгоритма выделяется область применимости алгоритма. Отсюда видно, что каждый алгоритм может задавать функцию, определенную на его области применимости и ставящую в соответствие каждому элементу этой области результат применения к нему алгоритма. Функция, которая может быть задана каким-либо алгоритмом, называется алгоритмически вы- числимой функцией или просто вычислимой функцией. Пусть мы имеем два множества: М = {ж} и N = {у}. Функция /, для которой все значения аргумента принад- лежат к М, а все значения функции — к N, называется вычислимой, если существует алгоритм, область примени- мости которого совпадает с областью определения функции /, и для любого- Xi из этой области результат применения алгоритма к Xi совпадает с f (х). При этом вовсе не тре- буется, чтобы вычислимая функция была определена на всех элементах множества М, необходимо лишь, чтобы существовал алгоритм вычисления ее значений, который, будучи применен к значению аргумента, принадлежа- щему к области определения функции, через какое-то количество шагов, заранее, вообще говоря, не известное и ничем не ограниченное, вычислит значение данной функции. Если же на исследуемом значении аргумента функция не определена, то мы можем ничего и не требо- вать от алгоритма вычисления значений функции, приме- ненного к этому значению аргумента, кроме того, чтобы он не приводил к заведомо неверному в этом случае результату. Возможно, что процесс применения алгоритма в этом случае остановится, не дав результата. -'Тогда мы узнаем, что функция была не определена на исследуемом значении аргумента. Но может оказаться, что алгоритм будет работать бесконечно и мы никогда не узнаем, то ли еще не было проделано достаточного числа шагов работы алгоритма для вычисления искомого значения функции, то ли функция на исследуемом значении аргу- мента не определима. 279
В математике разработан специальный аппарат из- учения алгоритмически .вычислимых функций — теория рекурсивных функций [66, 101, 105, 125]. В буквальном смысле слова (геснгго на латинском языке означает «бегу назад, возвращаюсь») рекурсивными в математике называются операции вычисления функций, которые осуществляются при помощи «возвращения» от неизвестного к известному. Функции, вычислимые по- средством операции рекурсии, называются рекурсивными. Понятие рекурсивной функции выделяет в особый класс функции, значения которых во всех-конкретных точках могут быть эффективно вычислены. Правда, переменные в теории рекурсивных функций принимают не все действительные, а лишь целые неотрицательные значения. Но именно с такого рода переменными имеет дело, в частности, нервная система. При рекурсивном определении функции задается зна- чение определяемой функции в некоторой начальной точке и указываются логические правила (алгоритм), по которым значения функции в остальных точках можно вычислить через значения в предыдущих-точках. Примеры. 1. — чисел q Пусть мы имеем натуральный ряд 1, 2, 3, ..., и, ... Дано: F (0) = 0 (1); F (1) = 1 (2); F (n+2) = F(n)+ + F (и+1) (3). Формула (3) позволяет определить F (и) при любом п с помощью возвращения через ряд проме- жуточных ступеней к непосредственно заданным форму- лам (1) и (2) значениям F (0) и F (1). Например, при вычислении F (4) пользуемся соотношениями F (4) = = F (3) + F (2); F (3) = F (2) + F (1); F (2) = F (1)+ 4- F (0); подставляя вместо /’•^1) и F (0) значения (1) и (2), находим F (2) = 1 4~ 0 — 1; F (3) = 1 + 1 = 2; F (4) = 2 4- 1 = 3. В этом примере «возвращение» про- исходит от искомого значения ф (и) к значениям ф (и') при п' < и1. 1 Примеры более сложных рекурсивных функций: а) Г (х 4-1) = х. Г (х) при Г(1) = Г(2) = 1 (гамма-функция). б) Р„+1 (х) = (-" + 1<) Х Рп (*)- ^ Рп-г (*) при Р,(х) = 1, Рх (х) = х (полиномы Лежандра). Рекурсивный метод используется чтя расчета чисел, играющих важную роль в высшем анализе, каковы: числа Бернулли, числа Эйлера и др. 280
2. Пусть мы имеем подмножество нейронов N 1# По- ложим, что нам известны функция gta, в которой зафикси- ровано состояние памяти подмножества Ni в момент времени ta, и функция задающая логические правила генерирования нервных импульсов подмножеством TVj в момент времени tt. Очевидно, функция fu задает правила рекурсивного вычисления состояния подмножества ней- ронов Ni в дискретные моменты времени от tt до ta по значению /(о. Существенным для рекурсивных определений в общем понимании этого термина являются лишь два обстоя- тельства: 1) возможность после конечного числа шагов вернуться от искомого неизвестного значения функции к известным заранее значениям той же функции или дру- гих ранее определенных функций, 2) невозможность прийти к противоречию при проведении вычислений двумя различными путями. В предыдущей главе, рассматривая сложные системы кодирования и декодирования .сообщений и сигналов (статистические коды, помехоустойчивые коды), мы от- мечали конкретные задачи, которые должны решаться этими системами. Эти задачи решаются переработкой ин- формации, в основе которой лежат определенные алго- ритмы, задаваемые соответствующими методами кодиро- вания и декодирования. Так, например, рассмотренная нами рефлекторная дуга мышечного рефлекса состоит из двух систем связи: системы ввода информации (мышечные веретена, сухо- жильные рецепторы, афферентное волокно, афферентная клетка и синаптические окончания на мотонейроне) и командной системы связи (тело и аксон мотонейрона, концевые пластинки). Кодирование и декодирование в каждой из этих систем Ъеущоствляется по определенным алгоритмам. Сочетание таких элементарных алгоритмов в рефлекторной дуге и образует сложный алгоритм — алгоритм рефлекторной дуги спинномозгового мышечного рефлекса. В сущности различные методы решения многочислен- ных примеров, которыми мы пользовались во всех пре- дыдущих главах, тоже представляют собой конкретные алгоритмы, следуя которым логические и решающие структуры нашего мозга и получали в каждом частном случае те или иные результаты. В этом смысле данная 281
книга в целом призвана, так сказать, расширить алго- ритмические возможности нашего мозга в его способности перерабатывать разнообразную биологическую и меди- цинскую информацию. Если сравнивать процессы переработки информации в управляющих системах с процессами промышленного производства, то алгоритм представляет собой «техноло- гию» переработки информации; «сырьем» и «полуфабри- катами» для каждого такого информационного «произ- водства» служат исходные и промежуточные данные, а «готовой продукцией» — получаемые конкретные реше- ния задач. До сравнительно недавнего времени понятие алгоритма использовалось лишь в чистой математике, математической логике и вычислительной технике. В математике, например, под этим термином подразумевается любой метод вычис- лений, дающий решение. Развитие кибернетики послужило толчком к возникновению в прикладной математике нового раздела — прикладной теории алгоритмов, в которой понятию алгоритма придается более широкий смысл [21, 22, 23, 24, 38, 41, 51, 56, 58, 59, 76, 77, 89, 90, 91, 92, 93, 124, 126, 135, 138, 141, 152, 161, 164]; это понятие приложимо к анализу информационных процессов любой природы. Рассмотренные нами выше оп- ределения как раз и относятся к алгоритмам прикладного характера. 2. Машина Тьюринга Понятие алгоритма наиболее полно и строго раскры- вается при анализе работы специальной простой модели идеального информационного устройства, известной под названием машины Тьюринга (в честь ее автора — ан- глийского математика Тьюринга). В этой модели расчленение процесса переработки информации на элементарные операции доведено в из- вестном смысле до предельной возможности. Это значи- тельно удлиняет процесс переработки информации, но вместе с тем логическая структура этого процесса сильно упрощается и приобретает весьма удобный для теорети- ческого анализа стандартный вид. Машина Тьюринга состоит из: 1) внешней памяти, в которой хранится вся информация, подлежащая пере- работке, а также записывается новая информация, воз-' 282
пикающая в ходе переработки; 2) логического блока L, непосредственно осуществляющего переработку информа- ции, п 3) блока управления Q, задающего режим логиче- скому блоку L (рис. 36). Внешняя память состоит из длинной не ограниченной с обеих сторон ленты, несущей информацию, и дополни- тельного устройства, сдвигающего ленту в ту или иную сторону. Вся информация кодируется на ленте конечным числом символов />,, Л2, ... . Л,.. Внешняя память Рис. 3b образующих внешний алфавит машины Тьюринга. Сама лента разбита на элементарные ячейки так, что в каждой из них может быть записан только один символ; каждой ячейке присваивается свой адрес. Среди символов внеш- него алфавита имеется пустой символ Л, посылка которого в какую-либо ячейку ленты гасит (или стирает) тот символ, который в ней раньше хранился, и оставляет ее пустой. О пустой ячейке можно говорить, что она хра- нит пустой символ. Любая информация, хранящаяся на ленте, представляется конечным набором символов внеш- него алфавита, отличных от пустого символа и храня- щихся по одному в некоторых ячейках ленты. Против одной из ячеек устанавливается неподвижный элемент г (рецептор), передающий информацию с данной ячейки в логический блок L (рис. 36). Сама переработка информации осуществляется в логическом блоке L, кото- 283
рый может пребывать в одном из конечного числа состоя- Ний' 9,. • - - . <1т- Логический блок имеет два входных канала. По одному из них в каждом такте работы машины поступает очеред- ной символ из обозреваемой ячейки, по другому — символ qe того состояния, которое предписывается блоку на дан- ный такт. При переходе машины Тьюринга от одного такта не- посредственно к следующему адрес обозреваемой ячейки может измениться не более чем на одну единицу, т. е. обозревается соседняя слева или соседняя справа ячейка, или же обозревается та же ячейка, что и в предыдущем такте. В каждом такте логический блок «читает» символ ht обозреваемой ячейки и в соответствии со своим внутренним состоянием qe «перерабатывает» его. Таким образом, каждый переработанный символ яв- ляется однозначной функцией от символов hi, qe, подан- ных на вход логического блока L. Переработанный символ ht по одному из выходных каналов логического блока засылается в обозреваемую ячейку ленты взамен прежнего (рис. 36). Одновременно с этим логический блок вырабатывает команду очередного состояния qn, которая засылается в блок управления Q в конце данного такта, а также одну из команд сдвига: (->), (ч-), (О) [(->) — обозревать соседнюю ячейку справа; (ч—) — обозревать соседнюю ячейку слева, (О) — продолжать обозревать ту же ячейку, что и прежде], управляющих сдвигом ленты внешней памяти (рис. 36). Символы (->), (->—), (О), q j, q2, ..., qm образуют внутрен- ний алфавит машины Тьюринга. Таким образом, в каждом такте логический блок L принимает два символа: hi и qe и выдает три символа: hp qn и Р [под Р здесь подразумевается любой из трех символов (->), (ч—) или (О)]. Это означает, что логический блок L реализует функцию, сопоставляющую каждой паре символов /г,, qe (всего таких пар будет к-т) тройку символов hp Р, qn. Эту функцию, которую можно назвать логической функцией машины Тьюринга, удобно изобра- зить в виде прямоугольной таблицы, столбцы которой занумерованы символами состояний qe, а строки — сим- волами внешнего алфавита hp, в каждой же клетке (ко- 84
ординате) таблицы записана соответствующая выходная тройка символов hj, qn, Р [см, таблицу (1)]. Такую таблицу можно назвать управляющей таблицей или логической схемой машины Тьюринга. Таким образом, работа машины Тьюринга вполне оп- ределяется той логической функцией, которую реализует логический блок L. Эта логическая функция и является алгоритмически вычислимой функцией. Работа машины Тьюринга (реализация алгоритма) протекает следующим образом. Перед ее запуском на ленту заносится (подается) начальная информация (на рис. 36 последовательность из пяти палочек) и в поле зрения рецептора г машины устанавливается определен- ная начальная ячейка (на рис. 36 ячейка, содержащая четвертую палочку справа), а в блоки Р и Q вводятся символы начального состояния (предположим, q^) и начального сдвига [например (О)]. Дальнейший процесс протекает уже автоматически и однозначным образом определяется логической схемой машины. Работа машины Тьюринга складывается из следующих друг за другом тактов, по ходу которых происходит переработка началь- ной информации; к концу каждого такта совокупность символов, хранящихся на внешней ленте, образует соот- ветствующую промежуточную информацию. В каждом так- те логический блок, находясь в одном из состояний q е, пере- рабатывает доставляемый с обозреваемой ячейки символ ht по правилам, определяемым логической функцией этого блока, и в результате выдает тройку символов hj, Р, qn. Последовательность смены состояний машины Тьюринга может задаваться и не таблично, а в форме списка ко- манд вида Qehl=^hp G=1. 2, - ”')• Такой список команд называется программой. В программе каждая команда определяет состояние машины в каждом такте. Команда qeht =Ф hj, Р, qn означает, что из состоя- ния qe машина переходит в состояние qn, символ ht перерабатывает в hf и осуществляет сдвиг Р внешней ленты (заменяет адрес обозреваемой ячейки). Если для некоторого I в программе нет ни одной команды вида 7Д.=Ф/гу, Р, qn. то состояние qji^ является заключительным 285
В качестве начальной информации на ленту можно подать любую конечную систему символов внешнего ал- фавита (любое слово в этом алфавите), расставленную произвольным образом по ячейкам. Однако в зависимости от того какая была подана начальная информация /0, возможны следующие случаи: а) после конечного числа тактов машина Тьюринга останавливается, подавая сигнал об остановке; при этом на ленте оказывается записанной некоторая информация Ц; б) остановка и сигнал об остановке никогда но насту- пают. Машина не применима к начальной информации Z„. Таким образом, машина решает некоторый класс задач в том случае, если она всегда применима к инфор- мации, изображающей на внешней ленте этой машины в определенном коде условия любой определенной задачи этого класса, и перерабатывает ее в информацию, изобра- жающую в том же коде решение этой задачи. П р п м е р. Пусть мы имеем машину Тьюринга, ко- торая перерабатывает информацию по алгоритму, задавае- мому следующей логической схемой [135]: х. Состояния Символы 4\ 42 4* 4; Л Л(—) 9* Л (—) <73 Л (-) <71 Л (0) д, Л (0) дй 1 а (0) д2 Р (0) 91 1 (-) 91 1 (*-)9> I (0) д, а а(Х <?, а (-’) 9г 1 (*“) 94 1 (^) 94 а(0) gs р Р(—) 91 Р(—) 9г Л (-») i (-*) 9* Р (0) 9, Введем в эту машину исходные данные некоторой задачи, условно закодированные в виде пяти черточек, как это показано на рис. 36, и посмотрим, как она будет решать эту задачу. Такт 1. Обозревается символ 1 (черточка) из начальной ячейки [сдвиг (0)] при состоянии q^. Результат: выходная 286
тройка символов имеет вид а(6,)</2, т. е. символ 1 заменен символом а, а в блоки Р и Q послана очередная команда (0?2- Такт 2. Обозревается символ а из той же ячейки ленты [сдвиг (О)] при состоянии q2. Выходная тройка имеет вид а (->) q2, т. е. символ а остается без изменения с переходом к команде (->) q2- Такт 3. Обозревается символ 1 из соседней справа ячейки [сдвиг (->)] при состоянии q2. Результат: символ 1 заменен символом р с переходом к команде (О) Как видно из последнего столбца логической схемы на странице 286, остановка машины Тьюринга произойдет лишь при условии, что в некоторой стадии процесса воз- никнет состояние gs. Действительно, каков бы ни был обозреваемый символ, он не будет заменен никаким дру- гим и машина будет продолжать обозревать его [сдвиг (О)] при том же состоянии qs. Это есть состояние, опозна- ваемое как заключительное, сигнализирующее о результативном завершении процесса в том случае, когда машина применима к информации Zo, подан- ной в нее до запуска. Мы рассмотрели логическую схему машины Тью- ринга, пригодную для решения задач только одного опре- деленного типа. Для решения других типов задач, оче- видно, потребуется построение других логических схем машины Тьюринга; при этом одни из них могут оказаться проще нашей, другие — сложнее. Однако все такие логические схемы строятся по одному общему принципу, определяемому структурой машины Тьюринга. Логические схемы машины Тьюринга являются важным аппаратом изучения алгоритмов различных процессов переработки информации. Оказалось, что различные алгоритмы могут быть представлены в одной и той же стандартной форме — именно в форме логической схемы машины Тьюринга. Основная гипотеза теории алгорит- мов как раз и гласит: всякий алгоритм может быть задан посредством Тъюринговой логической схемы, и реализован в соответствующей машине Тьюринга. Из этой гипотезы вытекает, что если какой-либо процесс переработки информации имеет алгоритм, то независимо от сложности этого алгоритма, его природы и способа реализации он может быть представлен в виде простой цепи тактов ма- шины Тьюринга и математически задан в форме логиче- 287
ской схемы машины Тьюринга. Алгоритм или систему алг ритмов любого сложного процесса переработки ин- формации теоретически можно выразить в форме Тыорин- говой логической схемы, являющейся достаточно простой; практические же трудности, встречаемые при реализации этих процессов, связаны с тем, что указанные алгоритмы являются очень длинными и требуют совершения огром- ного числа операций (хотя эти операции сами по себе простые). Из основной гипотезы также следует, что всякий раз, когда в будущем какая-либо совокупность правил или предппсгнио будут признаны алгоритмом, то независимо от того, в какой форме и какими средствами эта совокупность правил будет первоначально выражена, ее можно будет задавать также в виде логической схемы машины Тьюринга. Этот факт имеет важное принципиальное значение, так как он позволяет представлять алгоритмы различных реальных процессов в простои п точной математической форме, что дает возможность исследовать эти алгоритмы на вычислительных машинах. 3. Методы изучения управляющих алгоритмов Основной функцией управляющей системы любого организма является решение определенного класса задач, обеспечивающих поддержание в рамках биологически до- пустимых границ тех или иных величин (например, тем- пературы, давления, уровня сахара в крови и т. д. в организме животного) при значительных колебаниях условий внешней среды. А так как эта функция осущест- вляется в управляющей системе процессами переработки информации, то ясно, что эти процессы по своей природе должны быть алгоритмическими, т. е. в основе этих процессов должны лежать определенные алгоритмы; такие алгоритмы называются управляющими алгоритмами. Кибернетический метод изучения биологических уп- равляющих систем как раз и состоит в алгоритмическом описании процессов переработки информации в этих системах, в изучении строения отдельных перерабаты- вающих алгоритмов, их производительности и принципов их материальной реализации. Алгоритмическое описание процессов управления и переработки информации приобретает широкое значение 288
при изучении регулирования работы внутренних органов, при изучении сложных форм работы мозга, при анализе управления, осуществляемого ферментами в биохимиче- ских процессах, и пр. Алгоритмическое описание — существенный этап во всех перечисленных выше областях исследования, так как оно позволяет дать анализ механизмов, лежащих в основе сложных биологических процессов, например процесса фотосинтеза. Алгоритмическое описание создает предпосылки для моделирования биологических процессов в электронных устройствах и для выявления структурной схемы работы управляющих механизмов, например для выявления структуры нервных сетей. Алгоритмическое описание процесса работы мозга играет важную роль для изучения многих проблем высшей нервной деятельности. В настоящее время во многих областях биологии раз- рабатываются специальные методические приемы, позво- ляющие производить алгоритмическое описание процессов управления. Эти методы обычно основаны на сочетании экспериментального изучения и метода моделирования биологических явлений в электронных системах. Изучение алгоритмов переработки информации управ- ляющей системы всегда начинается с предварительного анализа структуры этих алгоритмов. Здесь возможны два подхода: макроподход и микроподход [161, 99]. При макроподходе структура алгоритма расшифровы- вается на основании наблюдений за внешней работой исследуемой управляющей системы. С этой целью задают те или иные наборы исходных сообщений (начальной информации) и по ответным реакциям управляющей системы смотрят, во что они перерабатываются. Такой подход осуществлялся, в частности, И. П. Павловым и его школой при исследовании нервной системы живот- ных. При микроподходе структура алгоритма выявляется на основе учета особенностей внутреннего строения ис- следуемой управляющей системы и характера протекания в ней отдельных актов (операций). Именно таким путем изучался нами в примере первого параграфа алгоритм рефлекторной дуги простого мышечного рефлекса. 10 Черныш В. И. 289
Предварительный анализ обычно служит для выявле- ния элементарных актов и проверяемых условий иссле- дуемого алгоритма. После того как такие данные получены, встает вопрос о том, как из них синтезировать алгоритм, имитирующий с достаточной точностью рас- сматриваемый процесс переработки информации. Здесь возможны два общих случая: 1) исследуемый алгоритм принадлежит к определенному классу алгорит- мов и 2) алгоритм является индивидуальным. Дело в том, что функционирование любой биологической системы уп- равления обеспечивается, как правило, не одним каким-то алгоритмом, а целой системой их. При этом одни из этих алгоритмов могут встречаться в управляющих системах различных биологических видов, другие являются специ- фическими, присущими только данному виду. Рас- смотрим, например, нервную систему животных. Функцио- нирование этой системы осуществляется на основе системы безусловных и условных рефлексов. Обычно структура безусловного рефлекса является общей для многих видов животных; соответственно этому общими являются и алгоритмы, лежащие в основе этих рефлексов, В то же время структуры некоторых условных рефлексов и соот- ветствующих им алгоритмов являются специфическими для каждого вида и даже для каждой особи одного и того же вида. Поэтому если изучается алгоритм, принадлежа- щий к целому классу сходных алгоритмов, то синтез соответствующего имитирующего алгоритма можно, очевидно, осуществлять на основе каких-то общих ме- тодов. Пока что такие методы отсутствуют, но они, по- видимому, будут со временем разработаны. Если же речь идет о специфическом алгоритме, то говорить об общих методах синтеза не имеет смысла; необходимо строить индивидуальный алгоритм, проявляя при этом максимум изобретательности. После того как алгоритм синтезирован, он проверяется на универсальной вычислительной машине либо на спе- циальной моделирующей установке. Для этого синтези- руемый алгоритм в виде программы вводится в машину и затем этой машине задаются наборы начальных данных, идентичные тем, которые задавались исследуемой управ- ляющей системе. Если при этом машина будет давать от- веты, в точности совпадающие с соответствующими реак- циями изучаемой управляющей системы, то алгоритм 290
последней считается изученным, В противном случае синтезируются новые схемы алгоритмов и делаются пов- торные проверки до тех пор, пока не будут получены сов- падающие результаты. Для того чтобы синтезированный алгоритм можно было проверить на вычислительной машине, он должен быть формализован, т. е. приведен к некоторой стандарт- ной форме наподобие логической схемы машины Тьюринга. Для этой цели разработан специальный математический аппарат — логические схемы алгоритмов [76, 77]. Назовем операторами отдельные акты алгоритма, перерабатывающие информацию. Соответственно харак- теру актов операторы могут быть следующих типов: 1) операторы ввода информации П (операторы преобразо- вания входной информации); 2) количественные (числен- ные) операторы А (операторы количественной перера- ботки информации); 3) логические операторы р (операторы логической переработки информации и проверки логи- ческих условий); 4) операторы вывода информации П (операторы выдачи решений); 5) оператор останова Я. Обозначения для всех операторов будем снабжать снизу номером (например, П_ lt Ао, А5, р3, р,, Яя). Удобно пользоваться символикой, принятой в математической логике для обозначения предикатов. Например, символом р (x<Zy) можно обозначать логическое условие (проверку которого осуществляет логический оператор), выполненное в том случае, когда неравенство, стоящее в скобках, истинно (равно 1); в противном случае это условие ложно (неравенство равно 0). Каждый оператор управляет процессом переработки информации в соответствующем акте. При переходе от акта к акту осуществляется передача управления от од- ного оператора к другому. Логическими схемами называются выражения, состав- ленные из операторов. Логическая схема определяет порядок работы опера- торов. Логические схемы могут задаваться аналитиче- ски, графически и таблично. С табличным способом задания логической схемы мы уже познакомились в предыдущем разделе, поэтому здесь мы ограничимся только кратким рассмотрением аналитического и графического способа. 10* 291
При аналитическом способе задания логической схемы операторы записываются в виде строчек по следующим правилам [64]: 1) Порядковый номер оператора в данной схеме изоб- ражается нижним индексом оператора; нумерация опера- торов — сквозная. 2) Если оператор зависит от параметра, то этот пара- метр изображается верхним индексом оператора (напри- мер, А}, р\ и т. п.). 3) Если знаки двух операторов стоят в схеме рядом, то оператор, записанный слева, передает управление оператору, записанному справа. 4) Если между двумя записанными рядом знаками операторов стоит точка с запятой, то от оператора, запи- санного слева, нет передачи управления оператору, запи- санному справа. 5) Передача управления оператору, записанному не рядом справа, обозначается стрелкой. Например, из операторов П, А, р и Я можно составить следующую логическую схему: I i n-iAaPiAv A,AtnjIt. I________t Для удобства записи горизонтальную часть стрелки можно опускать. При этом начало стрелки отмечается маленькой вертикальной стрелкой, направленной от оператора и снабженной номером оператора, которому передается управление, а конец стрелки — маленькой вертикальной стрелкой, направленной к оператору и помеченной номером оператора, от которого передается управление. Тогда наша схема примет вид: 1з tl 6) Так как логические операторы, проверяющие логи- ческие условия, передают управление не следующему справа оператору, а определенным операторам схемы в зависимости от выполнения или невыполнения данного логического условия, то при начертании логической схемы принято стрелки, отвечающие предикату р = 1 (условие выполнено), размещать над строкой операторов, а от- 292
вечающие предикату р = 0 (логическое условие не выпол- нено) — под строкой операторов; размещение стрелок, не связанных со значением логического оператора, произвольно. В приведенном выше примере это условие соблюдено. Работа алгоритма начинается с того, что сра- батывает самый левый оператор схемы. После того как некоторый оператор схемы сработал, определяется, какой оператор схемы должен работать вслед за ним. Если это обычный оператор, то он передает управление оператору, который стоит непосредственно справа за ним. Если по- следний сработавший оператор был логическим операто- ром, проверяющим определенное условие, то возможны два случая. Если проверявшееся условие выполнено, то должен работать оператор, соседний справа. Если оно нарушено, управление передается тому оператору, к ко- торому ведет стрелка, начинающаяся от проверяющего логического оператора. Работа алгоритма оканчивается либо тогда, когда последним из работающих операторов является оператор останова, либо тогда, когда на некото- ром этапе не оказывается такого оператора схемы, кото- рый должен был бы работать. Пример. Построим логическую схему алгоритма рефлекторной дуги мышечного рефлекса, рассмотренного нами в примере первого параграфа. Обозначим оператором П_ t выполнение операции (1), А а—выполнение операции (2), Pi — проверку логического условия U> h (U — суммарная величина потенциала электротона рецепторных окончаний афферентного волокна; h — пороговая вели- чина возбуждения афферентного волокна), р2 — проверку условия U <С Uмакс (Uмакс — критическая максимальная величина потенциала электротона рецепторных окончаний), As—выполнение операции (3), Л4 — выполнение опе- рации (4), А 5 — выполнение операции (5), Па — выпол- нение операции (6) и Я — останов. Строим логическую схему. Так как при невыполнении условия U Z> h оператор Pi = 0, то передачу управления в этом случае будем обозначать стрелкой под строкой операторов; при выполнении условия U> h управление будет передаваться следующему оператору (оператору р2)- Очевидно, то же самое будет иметь место при проверке оператором р2 логического условия U макс. 293
Искомая логическая схема имеет вид: или I----1 п-АрлА; АМЛ t। ।t t. t> Графически логическая схема может быть представлена в виде линейного комплекса, состоящего из узлов (вершин) и стрелок (ребер); такой линейный комплекс называется граф-схемой [59]. В граф-схеме каждый узел изображает определенный оператор, а стрелка — связь между операторами. В том случае, когда узел представляет собой логический оператор, из него исходит ровно две стрелки (каждая из них указывает, какому оператору передается управление при выполнении (1) или не выпол- нении (0) заданного логического условия); в остальных случаях — одна стрелка. Рис. 37. Пример. Построим граф-схему алгоритма мышечного рефлекса, рассмотренного нами в предыдущем примере. Будем изображать операторы кружками, а связи между ними — стрелками. Построение начинаем с оператора ввода информации П_ t и заканчиваем оператором оста- нова Я, (рис. 37). Графический способ задания логических схем отли- чается своей наглядностью. Описание алгоритма при помощи логической схемы используется как промежуточный этап для его проверки на вычислительной машине. Для того чтобы логическую схему можно было ввести в машину, ее нужно преобразо- вать в специальную «машинную» форму. Этот этап пре- образования алгоритма называется программированием, а получающийся в результате «машинный» алгоритм 294
называется программой [38, 64, 70, 71, 88, 94, 124, 125, 127, 135]. В программе алгоритм выражается в форме списка команд, каждая из которых определяет работу машины на одном элементарном акте переработки информации. При программировании каждому оператору логической схемы ставится в соответствие одна команда или группа команд (подпрограмма). Так как рабочим алфавитом Рис. 38. большинства вычислительных машин являются символы 1 и 0 двоичной системы счисления, то команды обычно эапйсываются в форме комбинаций цифр. Любая универсальная вычислительная машина состоит из трех основных частей, определяющих ее работу: 1) памяти (запоминающего устройства — ЗУ), 2) арифметического устройства (АУ), 3) устройства управления (УУ). Кроме того, вычислительная машина имеет вспомо- гательные устройства для ввода программ и исходных данных и выдачи полученных машиной результатов (рис. 38). Память служит для храпения программы, а также исходных и промежуточных данных. Обычно память 295
в машине (машинная память) состоит из ячеек, каждая из которых способна хранить одну команду программы или одно какое-либо число из входных или промежуточ- ных данных; команды и числа, хранящиеся в ячейках памяти, принято называть кодами. Все ячейки памяти машины раз и навсегда пронумерованы; номер каждой ячейки называется ее адресом. Адреса памяти машины учитываются при составлении программ. Память снабжена специальным читающим и пишущим устройством, при помощи которого может быть «прочи- тано» содержимое любой ячейки памяти и передано в какое-либо другое устройство машины, а также в любую ячейку может быть записана информация, поступающая из других устройств машины. Арифметическое устройство служит для производства вычислительных и логических операций над кодами, извлекаемыми из ячеек памяти, согласно программе. Всякая вычислительная машина имеет присущий ей список элементарных вычислительных (количественных) и логических операций, которые могут быть выполнены в ее арифметическом устройстве. Таким образом, в арифме- тическом устройстве непосредственно осуществляется переработка информации, т. е. элементарные акты введен- ного в машину алгоритма. Устройство управления расшифровывает отдельные команды программы, извлекаемые в каждом цикле машины из памяти, и согласно содержащимся в этих командах указаниям настраивает арифметическое устройство на выполнение соответствующих операций, управляет выбо- ром кодов из памяти, направлением их в арифметическое устройство, в устройство выдачи результатов, в другие ячейки памяти и в само устройство управления, а также пересылкой новых кодов, образующихся в арифметиче- ском устройстве, в некоторые ячейки памяти. Устройство управления управляет также порядком выполнения опе- раций согласно введенной программе. Таким образом, устройство управления машины реализует функции опе- раторов логической схемы алгоритма. Вычислительная машина в целом работает по циклам; в каждом цикле выполняется какая-либо одна команда программы. В команде содержатся указания, какая опе- рация должна быть выполнена в данном цикле, из каких ячеек памяти должны быть извлечены входные данные 298
(коды) этой операции и в какую ячейку памяти должен быть отправлен результат операции. Зти указания реа- лизуются устройством управления и арифметическим устройством. После выполнения данной команды машина запускается на новый цикл. При этом возможны два слу- чая. Если последняя выполненная команда была обычной, управление передается следующей по списку команде программы. Если же последней была команда, проверяв- шая определенное логическое условие, или же команда так называемого безусловного перехода, то управление в новом цикле машины будет передано команде, адрес которой содержится в данной последней команде. Пуск программы в машине начинается с набора на пульте управления машины номера адреса первой по списку («пусковой») команды программы и нажатия кнопки пуска, после чего вычисления и выдача результа- тов производятся автоматически. Современные универсальные вычислительные машины обладают быстродействием от нескольких тысяч до десят- ков и сотен тысяч элементарных операций в секунду. Таким образом, вычислительные процессы, с помощью которых на автоматических вычислительных машинах решают те или иные задачи, представляют cofой некото- рые алгоритмы переработки информации. Начальные данные играют роль перерабатываемой информации, а полученные окончательные данные есть результаты этой переработки. 4. Алгоритмы биологических систем управления Специфика алгоритмов, используемых в любой биоло- гической системе управления, обусловливается особенно- стями задач, которые должны решаться этой системой. Каковы же эти задачи? Это прежде всего такое управление жизнедеятельностью организма, которое обеспечивает ему шансы на выживание. В простейшем случае эта задача может решаться сле- дующим образом: в ответ на изменение внешних факторов управляющая система реагирует такой перестройкой внутренних параметров и связей организма, которая обеспечивает изменение существенных характеристик ор- ганизма в узких границах при значительных колебаниях внешних факторов. Свойство, живых организмов сохра- 297
пять определенные характеристики при значительном изменении внешних условий называется гомеостазисом, а системы управления, обеспечивающие поддержание гомеостазиса, носят название гомеостатических систем. Примерами гомеостатических систем в организме человека являются система регуляции содержания солей, система регуляции давления крови, система регуляции содержания сахара в крови и т. д. Для юмеостатических систем харак- терна регуляция многих величин, значения которых должны одновременно поддерживаться в определенных пределах. Поэтому гомеостатические системы обычно представляют собой ансамбли взаимосвязанных управляю- щих систем. Задачи, решаемые любой гомеостатической системой, можно наглядно сформулировать при использовании поня- тия фазового пространства [38]. Пусть мы имеем сово- купность значений параметров, характеризующих состоя- ние организма. Этими величинами могут быть уровень давления крови, температура тела, содержание воды в организме, содержание сахара в крови и т. д. Назовем эти величины фазовыми (обобщенными) координатами. Совокупность значений фазовых координат в некото- рый момент времени t полностью характеризует состояние исследуемого организма как системы в этот момент. Это состояние может быть изображено точкой в многомерном пространстве, где по координатным осям отложены значе- ния соответствующих фазовых координат; назовем эту точку изображающей точкой системы. Изменение пове- дения системы будет выражаться в изменении по крайней мере одной из координат; при этом изображающая точка будет находиться уже в другом месте. Если состояние системы меняется во времени, то изображающая точка перемещается в фазовом пространстве по некоторой кри- вой, называемой фазовой траекторией системы. Таким образом, описание поведения системы, часто весьма сложное, можно заменить описанием поведения изображающей состояние этой системы точки в фазовом пространстве. Для большей простоты и наглядности мы будем пользоваться только двумерным фазовым простран- ством, помня, что все рассуждения без изменений перено- сятся на случай любого числа измерений. Всякий живой организм характеризуется некоторой областью значений фазовых координат, в пределах кото- 298
рой можно говорить о системе как о едином целом (рис. 39). Если изменение какой-либо координаты приводит к вы- ходу изображающей точки из пределов этой области, система разрушается, организм как целое умирает. Будем такую область фазового пространства называть областью существования системы (область G на рис. 39). На практике граница области существования G редко бывает достаточно Рис. 39 четко очерчена, так как выход системы из строя часто характеризуется не только состоянием системы, но и продолжительностью нахождения ее в критическом состоянии. Выделим теперь внутри области существования си- стемы другую, меньшую область D нормальных состояний системы. В частном случае эта область может являться областью наиболее желательных состояний системы. Замк- нутую линию у, очерчивающую область нормальных состояний D, будем называть контуром переключения. Пусть в некоторый момент времени ta состояние си- стемы характеризуется изображающей точкой Л„, распо- ложенной внутри области D. В результате изменения внешних условий под действием возмущающих воздействий система будет изменять свое состояние и может выйти из области D. Изменение состояния системы — ее поведение— 299
будет характеризоваться некоторой фазовой траекторией (например, от Ао до В на рис. 39). Если при таком поведе- нии оставить параметры и структуру системы неизмен- ными, изображающая ее точка будет продолжать удаляться от области D и может выйти за пределы области G, т. е. система может выйти из строя. Задача гомеостатической управляющей системы как раз и состоит в том, чтобы при переходе изображающей точкой границы контура переключения у обеспечить такое изменение параметров и структуры системы, при котором изображающая точка снова войдет внутрь области D и будет продолжать нахо- диться в ней. Эта задача может решаться, например, так, как это показано на рис. 39. В результате воздействия гомеостатической системы на управляемую систему по- следняя начнет изменяться так, что изображающая ее состояние точка начнет двигаться по кривой cdef; следую- щее переключение режимов или изменение параметров либо структуры произойдет в точке к границы контура переключения. Процесс будет продолжаться до тех пор, пока не будут подобраны такие параметры и структура системы, что последняя перестанет выходить за границу у области D. Из сказанного следует, что сложная система, состоящая из гомеостатической управляющей и управляемой си- стемы, состояния которой должны поддерживаться в об- ласти D, должна иметь возможность автоматически оце- нивать свое состояние и в случае необходимости автомати- чески изменяться, меняя параметры и режимы работы или изменяя свою структуру; поэтому такого рода си- стемы и называются самоорганизующимися системами. Любая самоорганизующаяся система обладает способно- стью устойчиво сохранять свои состояния или некоторые характеристики своих состояний, несмотря на воздействия внешних факторов, имеющих тенденцию нарушать эти состояния. А так как этой способностью обладают все живые организмы, то ясно, что любой организм является самоорганизующейся системой. Здоровый организм немедленно и точно реагирует на небольшие отклонения регулируемых параметров от их оптимальных значений (изображающая точка находится в области D либо недалеко от нее). При заболевании орга- низма изображающая точка может отстоять от области D на значительном расстоянии и даже приблизиться к 300
границе области существования; при этом поведение организма резко изменяется: увеличивается частота пере- ключений, происходит интенсивный поиск нужного ре- жима, но вместе с тем пропадает точность следования небольшим изменениям внешней обстановки. Простейшая гомеостатическая управляющая система состоит из двух ступеней управления. Первая ступень управления непосредственно осуществляет обмен инфор- мацией с управляемой системой и функционирует согласно некоторому алгоритму, который учитывает «нормальный» режим внешних воздействий и обеспечивает требуемую реакцию на эти воздействия. Вторая ступень управления контролирует эффект, вызываемый работой первой сту- пени. Если этот эффект становится неудовлетворительным, что может произойти в том случае, когда характер внеш- них воздействий становится отличным от «нормального», то вторая ступень управления начинает воздействовать на строение алгоритма, по которому функционирует первая ступень, и следить за тем, входит ли изображающая со- стояния управляемой системы точка в область D. При этом возможны различные типы алгоритмов, согласно которым работает вторая ступень управления: в одних случаях изменения, вносимые второй ступенью управле- ния в алгоритм первой ступени, имеют детерминирован- ный характер, в других случаях эти изменения могут вноситься случайным образом. Существенно то, что при- нятие того или иного решения второй ступенью произво- дится на основании оценки реакций первой управляющей системы на фактически действующие внешние воздействия. В более сложных гомеостатических системах возможно многоступенчатое управление; в этом случае управляющие (алгоритмические) возможности системы повышаются. Так, например, в гомеостатической системе с трехступен- чатым управлением третья ступень может контролировать работу второй ступени управления и перестраивать ее алгоритм в тех случаях, когда диапазон внешних измене- ний будет превышать нормальную- для второй' ступени область изменений. Очевидно, трехступенчатая гомеоста- тическая система будет обладать большей гибкостью управления по сравнению с двухступенчатой системой. Обычной функцией гомеостатической управляющей системы является поддержание на каком-то заданном уровне вполне конкретных характеристик организма 301
(например, уровня сахара в крови, содержания воды в организме и т. д.). Поэтому для осуществления такой функции в гомеостатической системе могут использоваться жесткие алгоритмы, структура которых имеет детермини- рованный характер. Такие алгоритмы могут задаваться вполне определенной совокупностью правил последова- тельной переработки информации; хотя порядок чередо- вания отдельных операций в каждом таком алгоритме может изменяться в зависимости от изменений тех или иных внешних условий (учитываемых логическими элементами алгоритма), однако характер этих изменений тоже может регламентироваться определенными правилами. Гомеостатические системы управления получили ши- рокое распространение в живой природе; эти системы ис- пользуются как в растительном, так и в животном мире. По-видимому, гомеостатические системы исторически возникли первыми на земле и дали начало жизни. Большое значение имеют алгоритмы переработки ин- формации, обеспечивающие целесообразную перестройку работы всех систем внутренних органов при выполнении организмом определенных форм деятельности. Например, при опасности повышается уровень кровяного давления, изменяется интенсивность дыхания, сахар из печени поступает в кровяное русло, расширяются кровеносные сосуды мышц и сужаются сосуды, несущие кровь к органам пищеварения, тормозится перистальтика и выделе- ние пищеварительных соков. Если при гомеостазисе регуляторные механизмы под- держивают постоянство уровней протекающих процессов, то в данном случае, наоборот, наблюдается активное и целенаправленное их изменение. При этом наблюдается строго координированная перестройка в работе всех органов и систем живых организмов. Эта перестройка по степени своей сложности может быть сопоставлена с осуществлением перестройки экономики во время войны. Алгоритмы этой перестройки имеют большую сложность. Они изучаются специальными методами. Этот вопрос очень важен в связи с тем, что именно нарушение в работе этих механизмов может часто играть решающую роль в возникновении заболеваний. Есть веские основа- ния думать, что в основе гипертонической болезни, груд- ной жабы, бронхиальной астмы лежат патофизиологиче- ские механизмы, связанные с гипертрофированным и 302
застойным характером проявления в работе алгоритмов описанного выше типа. На более поздних ступенях филогенетического разви- тия животного мира наряду с гомеостазисом начал исполь- зоваться другой тип управления, в котором учитываются специфические особенности существования многоклеточ- ных животных — их подвижный образ жизни и необхо- димость питания готовыми органическими продуктами. Задачу на выживание, которую должны решать в послед- нем случае управляющие системы, можно сформулировать следующим образом: осуществлять такую регуляцию работы внешних органов животных, которая обеспечивала бы их автоматическое нахождение в биологически благо- приятных зонах внешней среды независимо от простран- ственно-временного перемещения этих зон; это может быть и удаление от хищника, и нахождение корма, и преследо- вание добычи и т. д. Так как распределение такого рода биотических факторов во внешней среде и во времени носит статистический характер, то ясно, что для решения этой задачи гомеостатические системы с их жесткими ал- горитмами плохо приспособлены. На низших ступенях филогенетического развития этот недостаток гомеостати- ческих систем компенсируется массовостью размножения. Однако с усложнением форм борьбы за существование такая компенсация становится неудовлетворительной, и поэтому на более поздних ступенях филогенетической лестницы возникает новый, статистический тип управления, базирующийся на учете статистиче- ских свойств распределения биотических факторов окру- жающей внешней среды. Этот тип управления получал свою реализацию в возникновении условнорефлек- торных нервных систем. Алгоритмы, лежащие в основе условного рефлекса, не имеют детерминированной, жесткой структуры, а определяются конкретным статистическим распределе- нием внешних факторов; такие алгоритмы можно назвать статистическими, или вероятностными, алгоритмами. В статистическом алгоритме порядок чередования от- дельных актов переработки информации задается стати- стическим распределением соответствующих биотических и абиотических элементов внешней среды и наличными корреляционными связями между ними; поэтому в данном случае можно говорить не о точном наступлении того или 303
иного акта переработки информации, а о вероятно- сти его наступления, характеризующейся определенной случайной величиной. Можно, следовательно, говорить также о среднем значении и о дисперсии каждого акта переработки информации в статистическом алгоритме. Статистические алгоритмы наряду с детерминирован- ными алгоритмами широко используются в нервных си- стемах животных. По-видимому, они играют основную роль в функционировании нервных систем высших жи- вотных и человека. Можно полагать, что эти алгоритмы лежат также в основе процессов мышления. 5. Алгоритмы взаимодействующих управляющих систем. Теория игр 1. Конгруэнтные и конфликтные взаимодействия. До сих пор мы рассматривали алгоритмы, определяющие в основном поведение одной управляющей системы вне связи с другими управляющими системами. При наличии такой связи структуры соответствующих алгоритмов, естественно, усложняются. В общем случае при взаимо- действии двух (и более) управляющих систем алгоритм каждой управляющей системы строится с учетом отдель- ных актов поведения (реакций) другой управляющей си- стемы, с которой она находится в корреляционной связи. При этом сам характер взаимодействия определяется за- дачами или целями, которые ставятся перед взаимодей- ствующими системами. В живой природе наибольшее развитие получили, по-видимому, два типа взаимодействия управляющих систем: 1) конгруэнтное взаимодействие [120], при котором вза- имосвязь управляющих систем вызывается общностью решаемой задачи (поставленной цели), 2) конфликтное взаимодействие, когда взаимодейст- вующие управляющие системы преследуют прямо проти- воположные цели. Примерами конгруэнтного взаимодействия управляющих систем могут служить корреляционные связи между нервными системами особей в общинах му- равьев, ос, пчел, термитов, в стаях птиц, рыб, в стадах млекопитающих. При конгруэнтном взаимодействии со- вокупность индивидуальных управляющих систем обра- 304
зует сложный управляющий комплекс, задача которого^ состоит в обеспечении оптимальных условий существова- ния для всех организмов, охваченных конгруэнтной зави- симостью. Такие управляющие комплексы могут быть устойчивыми (общины термитов, некоторых муравьев и др.), а также иметь временный характер (брачно-се- мейные группы у птиц, млекопитающих и др.). Примеры конфликтного взаимодействия не- менее многочисленны. Любая ситуация, возникающая, например, при поединке двух хищников, при преследова- нии хищником жертвы, при борьбе самцов за право обладания самкой и т. п., содержит элементы конфликт- ного взаимодействия управляющих систем: каждая из борющихся сторон принимает все доступные ей меры для того, чтобы воспрепятствовать противнику достигнуть успеха. Эта ситуация соревнования, борьбы встре- чается не только в естественных условиях. К конфликт- ным принадлежат ситуации, возникающие, например, в ходе эксперимента по выработке у животного заданной системы условных рефлексов; в этом случае каждое при- нимаемое экспериментатором решение можно рассматри- вать как борьбу с нервной системой подопытного живот- ного. При выборе метода лечения опытный врач обычно- руководствуется не только установленным диагнозом, но и учитывает терапевтические, моральные, бытовые и другие- факторы, связанные с особенностями данного больного, его семьи и общества, в котором он живет. Такой курс лечения, очевидно, насыщен конфликтными ситуациями, участниками которых являются, с одной стороны, пато- генные факторы, вызывающие и развивающие данную- болезнь, а с другой,— нервная система лечащего врача и сам организм больного. Конфликтные ситуации часто возникают также в об- ласти экономики, политики, в военном деле и т. п. Необходимость анализировать подобные ситуации выз- вала к жизни специальный математический аппарат, из- вестный под названием теории, игр [18, 30, 31, 33, 39, 78, 81, 85]. Теория игр по существу представляет собой, не что иное, как математическую теорию конфликтного- взаимодействия управляющих систем; она составляет основу методов количественного анализа и разработки алгоритмов ведения борьбы каждой из управляющих сис- тем в ходе конфликтных ситуаций. Основные понятия этой Черныш 305»
теории были сформулированы в 20—30-х годах в работах Э. Бореля и Дж. Неймана. Однако несмотря на свой молодой возраст, к настоящему времени теория игр уже успела превратиться в большую область, богатую интерес- ными результатами и имеющую большое количество прак- тических приложений. Ниже мы коротко познакомимся с основными положениями и выводами этой теории. 2. Игра. Каждая реальная конфликтная ситуация обычно очень сложна и анализ ее затруднен наличием многочисленных привходящих факторов. Чтобы сделать возможным математический анализ ситуации, необходимо отвлечься от этих второстепенных факторов и построить упрощенную, формализованную модель' ситуации; такая математическая модель называется игрой. От реальной конфликтной ситуации игра отличается тем, что ведется по вполне определенным правилам. Игра, таким образом, характеризуется системой правил, имею- щих некоторую формальную структуру и определяющих поведение участников игры. Подобные формализованные модели, являющиеся играми в буквальном смысле слова, издавна используются в обществе. Примерами могут служить шахматы, шашки, «коммерческие» (т. е. неазартные) карточные игры и т. д. Все эти игры носят характер соревнования, протекающего по известным формальным правилам и заканчивающегося победой (выигрышем) того или иного участника. Такие игры являются наиболее подходящими объектами для иллюстрации и усвоения основных понятий теории игр. Поэтому терминология, заимствованная из практики этих игр, применяется и при анализе других конфликт- ных ситуаций. Стороны, участвующие в игре, условно именуются участниками игры или игроками, а результат столкнове- ния — выигрышем одной из сторон. Каждая конкретная реализация игры называется партией. В игре могут сталкиваться интересы двух или более противников; в первом случае игра называется парной, а во втором — множественной. Участники множественной игры могут в ее ходе образовывать коалиции — постоян- ные или временные. При наличии двух постоянных коа- лиций множественная игра превращается в парную. Большое практическое значение имеют парные игры; наиболее простым и достаточно изученным классом парных .306
игр являются так называемые матричные (прямоугольные) игры; такие игры задаются прямоугольной таблицей чисел — матрицей. Здесь мы ограничимся рассмотрением только матрич- ных игр. Рассмотрим парную игру, состоящую из двух участ- ников, Л и В, с противоположными интересами. Под игрой будем понимать мероприятие, состоящее из ряда действий сторон А и В.Чтобы игра могла быть подвергнута математическому анализу, должны быть точно сформу- лированы ее правила. Под правилами игры подразуме- вается система условий, регламентирующая возможные варианты действий обеих сторон, объем информации каж- дой стороны о поведении другой, последовательность чередования ходов (т, е. определенных решений, принятых в процессе игры), а также результат или исход игры, к которому приводит данная совокупность ходов. Этот результат (выигрыш или проигрыш) не всегда имеет количественное выражение, но обычно можно, установив некоторую шкалу измерения, выразить его определенным числом. Например, в шахматной игре выигрышу можно условно присвоить значение +1, проигрышу —1, ничьей 0. Игра называется игрой с нулевой суммой или просто нулевой игрой, если один участник выигрывает то, что проигрывает другой, т. е. сумма выигрышей обеих сторон равна нулю. В игре с нулевой суммой интересы участников прямо противоположны. Так как в игре с нулевой суммой выигрыш одного из участников равен выигрышу другого с противоположным знаком (т. е. проигрышу), то, оче- видно, при анализе такой игры можно рассматривать выигрыш только одного из участников. Пусть это будет, например, участник А; в этом случае участник А будет выигрывающей стороной, а участник В — про- игрывающей. Развитие игры во времени состоит из ряда последова- тельных этапов или ходов. Ходом в теории игр называется выбор одного из предусмотренных правилами игры ва- риантов. Ходы бывают двух видов: личные и слу- чайные. Личным ходом называется активный выбор одним из участников одного из возможных в данной ситуации ходов и его осуществление. Пример личного хода — любой из ходов в шахматной игре. Выполняя очередной ход, игрок .307
делает сознательный выбор одного из вариантов, возмож- ных при данном расположении фигур на доске. Набор возможных вариантов при каждом личном ходе точно определен правилами игры и зависит от всей совокупно- сти предшествующих ходов обеих сторон. Случайным ходом называется выбор одного из данного множества вариантов, осуществляемый не решением участника игры, а каким-либо механизмом случайного выбора (например, бросанием игральной кости, тасовкой и раздачей карт и т. п.), причем вероятности выбора меха- низмом различных вариантов определяются правилами игры. Например, первый ход в преферансе — сдача пер- вой карты определенному игроку — есть случайный ход с 32 равновозможными вариантами. Чтобы игра была математически определенной, пра- вила игры должны для каждого случайного хода указы- вать распределение вероятностей воз- можных исходов. Некоторые игры могут состоять только из случайных ходов (например, рулетка) или только пз личных ходов (например, шахматы, шашки). Большинство карточных игр принадлежит к играм смешанного типа, т. е. содержат как случайные, так и личные ходы. Игры классифицируются не только по характеру ходов (личные, случайные), но и по характеру и по объему ин- формации, доступной каждому участнику игры относи- тельно действий другого. Особый класс игр составляют так называемые игры с полной информацией. Игрой с полной информацией называется игра, в которой каждый участник при каждом личном ходе знает результаты всех предыдущих ходов, как личных, так и случайных. Примерами игр с полной информацией могут служить шахматы и шашки. Большинство игр, имеющих практическое значение, на принадлежит к играм с полной информацией, так как неизвестность по поводу действий противника обычно является существенным элементом конфликтных ситуаций. Одним пз основных понятий теории игр является по- нятие стратегии. Стратегией (алгоритмом) участ- ника игры называется совокупность правил, определяю- щих однозначно выбор при каждом личном ходе данного участника в зависимости от ситуации, сложившейся в процессе игры. Множество стратегий, мыслимых в усло- 308
виях данной игры, вполне определяется ее структурой и ее правилами, но избрание тон или иной стратегии из этого множества без ограничений предоставлено каждому игроку. Обычно решение (выбор) при каждом личном ходе принимается участником в ходе самой игры в зависимости от сложившейся конфликтной ситуации. Однако теорети- чески дело не изменится, если представить себе, что все эти решения принимаются участником игры по заранее составленной программе. Для этого участник должен был бы заблаговременно составить перечень всех возмож- ных в ходе игры ситуаций и предусмотреть свое решение для каждой из них. В принципе (если не практически) это возможно для любой игры. Если такая система реше- ний будет принята, это будет означать, что участник игры выбрал чистую стратегию. Участник, выбравший чистую стратегию, может теперь не участвовать в этой игре лично, а заменить свое участие списком правил, которые за него .может реализовывать какое-либо заинте- ресованное лицо (например, судья). Чистая стратегия может быть также задана машине-автомату в виде опреде- ленной программы. Чтобы понятие стратегии имело смысл, необходимо наличие в игре личных ходов; в играх, состоящих из одних случайных ходов, стратегии отсутствуют. В зависимости от числа возможных стратегий игры делятся на конечные и бесконечные. Конечной называется игра, в которой у каждого участника имеется только конечное число стратегий; другие игры называются бесконечными. Для того чтобы решить вопрос о том, выиграл данный участник игры или проиграл, нужно знать, чего добивался он в игре, т. е. узнать предпочтительный для него резуль- тат. Лучше всего достигнутый результат оценить некото- рой числовой функцией, такой, при которой для участ- ника игры важнее всегда тот результат, который дает большую по величине функцию; такую функцию часто называют функцией выигрыша (функцией польз ы). Для того чтобы в практических случаях получить такую функцию, нужно расположить все результаты на шкале, отражающей степень предпочтения. Существует специальный прием для количественной оценки степени предпочтения различных объектов. Расположить в по- 309
рядке предпочтения несколько объектов обычно не пред- ставляет труда. Для этого достаточно сравнить их по- парно и в каждом случае решить, какой из них предпочти- тельнее. Если -такого решения для какой-либо пары объек- тов вынести нельзя, оба объекта имеют одинаковую степень предпочтения, т. е. выбор между ними безразличен. Построив функцию выигрыша для всех результатов данной игры, можно получить суждение о том, к какому именно результату стремится в игре данный участник. Очевидно, что он будет стремиться применить в игре ту стратегию, которая обеспечит ему наибольший выигрыш в установленном выше смысле, т. е. даст максимальное значение функции выигрыша. 3. Матричные игры. Рассмотрим конечную игру двух участников, Л и В, с нулевой суммой, в которой участник А имеет т стратегий, а участник В — п стратегий. Обозначим стратегии участника игры А через А Д 2, ..., Агя, а стратегии участника В — через В ь В2, ..., Вп. Если игра состоит только из личных ходов, то выбор участником А некоторой стратегии А; и участни- ком В некоторой стратегии Bj полностью определяет исход данной партии и величину выигрыша ati, скажем, участника А. Если игра содержит, кроме личных, случайные ходы, то выигрыш при паре стратегий At, Bj есть величина случайная, зависящая от исходов всех случайных ходов. В этом случае естественной оценкой ожидаемого выигрыша является его среднее значение (математическое о ж и д а н и е). Мы будем обозначать одним и тем же знаком atJ как сам выигрыш (в игре без случайных ходов), так и его среднее значение (в игре со случайными ходами). Пусть нам известны значения агу выигрыша (или среднего выигрыша) при каждой паре стратегий. Переби- рая по очереди все пары стратегий (Лг, В?), можно пере- числить все возможные варианты партий и их исходов. Далее можно построить таблицу — матрицу, каждая строка которой будет соответствовать стратегии Аг участника А, каждый столбец — стратегии Bj участника В. Тогда ситуациями игры окажутся клетки этой матрицы, стоящие на пересечениях каждой строки с каждым из столбцов. Например, на пересечении /-той строки и /-того столбца будет записан «^-выигрыш, ска- 310
жем, участника А (т. е. проигрыш участника В). Запол- нив все клетки — ситуации вещественными числами, описывающими выигрыш участника А в этих ситуациях, мы перечислим, таким образом, все возможные варианты партий данной игры. Полученная матрица называется матрицей выигрышей игры или, короче, матрицей игры. Матрицу, имеющую т строк и п столбцов, обычно называют (т X п)-матрицей, а игру, матрица которой есть (т X п)-матрица,— (тХп)-игрой. Матрица (тпХи)-игры может быть представлена в виде таблицы: А,- Их вг в„ А, а11 °12 °АП а21 °22 а2П Ат ami аШ2 атп Задание матрицы игры в виде таблицы более наглядно, поэтому в дальнейшем мы будем пользоваться только таб- личной формой; сокращенно матрицу игры мы будем обозначать // агу7. Примеры. 1. У подопытной собаки вырабаты- вается условный рефлекс на включение звонка и нажатие педали, являющийся отдельным звеном в сложной цепи рефлексов. Опыты производят следующим образом. Вклю- чается звонок. В ответ на этот звонок собака должна подойти к одной из имеющихся в помещении двух камер и лапой нажать на педаль входной дверцы камеры. В ка- честве безусловного подкрепления в одну из камер экспе- риментатор незаметно для животного помещает кормушку с пищей. Педали обеих камер соединены с единой электро- механической системой запирания таким образом, что 311
если первой нажимается педаль камеры с кормушкой, то обе камеры автоматически открываются и, следователь- но, собака сможет получить пищу; в противном случае обе камеры останутся закрытыми. Проанализируем эти опыты в теоретико-игровом плане. Будем считать каждый опыт «игрой», участниками которой являются экспериментатор и подопытная собака. В этой «игре» отдельными ходами являются: а) поднос кормушки в одну из камер и б) нажатие педали входной дверцы камеры. «Игра» состоит из двух ходов: ход экспе- риментатора и ход подопытной собаки. «Игра» не принад- лежит к играм с полной информацией, так как в момент хода выполняющий ее участник не знает, что сделал или сделает другой. Так как у каждого из участников имеется только один личный ход (поднос кормушки, нажатие педали), то страте 'пя каждого участника этой «игры» представляет собой выбор при этом единственном личном ходе. У экспериментатора (В) две стратегии: Bi — поместить кормушку в правой камере и В2 — поместить кормушку в левой камере; у подопытной собаки (Л) также две стра- тегии: A j — нажать педаль входной дверцы правой ка- моры и Л 2 — нажать педаль входной дверцы левой камеры. Таким образом, данная «игра» есть (2х2)-игра. Составим матрицу этой «игры». Для этого вычислим выигрыши для каждой комбинации стратегий. Будем считать выигрывающей стороной подопытную собаку, ее выигрыш (получение пищи) обозначим 1, а проигрыш—1. 1) Комбинация стратегий Л [В ) (собака нажимает педаль правой камеры, экспериментатор положил кор- мушку в правую камеру). В этом случае двери камер открываются и собака получит корм, т. е. она «выигры- вает»: au = 1. 2) Комбинация стратегий Л 2 (собака нажимает педаль правой камеры, экспериментатор положил кор- мушку в левую камеру). Двери обеих камер останутся закрытыми; собака «проигрывает» («выигрывает» экспе- риментатор): а12 = —1. 3) Комбинация стратегий Л 2В i (собака нажимает педаль левой камеры, экспериментатор поместил кормушку 312
в правую камеру). Собака «проигрывает»: a2i = —1. 4) Комбинация стратегий А2В2 (собака нажимает педаль левой камеры, кормушка оказалась в левой камере). Двери обеих камер открываются; собака «выигрывает»: а22 ~ 1- По полученным значениям выигрышей для каждой, комбинации стратегий строим матрицу «игры». Предположим вначале, что данная «игра» выполняется только один раз. Тогда, очевидно, бессмысленно говорить о каких-либо стратегиях участников этой «игры», более' разумных, чем другие (считать, например, что собака будет предпочитать стратегию А ь а экспериментатор — стратегию В2). Каждый из участников с одинаковым осно- ванием может принять любое решение (положить кормушку в правую или левую камеру, нажать педаль правой или левой камеры). Однако при повторении «игры» положение меняется. Действительно, допустим, что экспериментатор выбрал себе какую-то стратегию; скажем В и придерживается ее. Тогда уже по результатам первых нескольких ходов- подопытное животное сориентируется в стратегии экспе- риментатора и будет на нее отвечать наиболее выгодным для себя образом, т. е. нажимать педаль правой камеры. Экспериментатору явно «невыгодно» всегда применять какую-то одну стратегию; чтобы не оказаться в проигрыше, т. е. за нажатие педали каждый раз «платить» пищей, он должен ставить кормушку иногда в правую камеру, иногда — в левую. Однако если экспериментатор будет чередовать подачу кормушки в обе камеры в какой-то определенной последовательности (например, через один). 315
подопытная собака тоже может достигнуть обнаружения этого и ответить на эту стратегию «наихудшим» для экспе- риментатора образом. Очевидно, надежным способом, гарантирующим, что противник А не будет знать стратегии игрока В, будет такая организация выбора при каждом ходе, когда послед- ний и сам наперед не знает его (это можно обеспечить, например, подбрасыванием монеты). Здесь мы интуитив- ным путем подошли к одному из существенных понятий теории игр, которые мы рассмотрим позже,— к понятию смешанной стратегии, т. е. такой, когда чистые стратегии — в данном случае В j и В 2 — чередуются случайно с определенными частотами. В простейшем случае (пример с монетой) в силу симметрии стратегии Bi и В2 должны будут чередоваться с одинаковой часто- той. В более сложных играх решение может быть далеко не таким простым. 2. Население некоторого района поражено тремя ви- дами вирусных заболеваний: Сь С2 и С3. Медицинская группа, приехавшая в этот район для оказания помощи населению, владеет тремя методами лечения данных болезней: A А2 и А3, причем из статистических данных известно, что метод A t в 80% случаях эффективен при лечении инфекционной формы Cj, в 30% случаях — при лечении С2 и в 20% случаях — при лечении С3; метод А 2 дает положительные результаты соответственно в 30, 70 и 90% случаев; метод As — в 40, 80 и 20% случаев. Задача медицинской группы — ликвидировать инфекцию в пораженном районе — усложняется тем обстоятель- ством, что симптомы трех форм инфекции внешне прояв- ляются одинаково. Требуется сформулировать ситуацию в терминах теории игр. Ситуация может рассматриваться как «игра», «участ- никами» которой являются медицинская группа и инфек- ция, распространившаяся в данном районе. Эта «игра» характеризуется двумя личными и одним случайным ходом, т. е. является (ЗхЗ)-игрой. Личный ход ме- дицинской группы — выбор метода лечения больных; «личный ход» инфекции — форма инфекции, поразившая каждого обследуемого больного. Случайный ход — при- менение метода лечения на каждом больном; этот ход может закончиться выздоровлением больного либо его смертью. 314
Стратегиями медицинской группы являются три метода лечения: А А 2 и А3; инфекция тоже имеет «стратегии» — формы болезни C2^i С3. Построим матрицу игры. Расположим стратегии меди- цинской группы в столбец, а «стратегии» инфекции — в строку. Будем считать выигрывающей стороной медицин- скую группу. Выигрыш медицинской группы равен единице, если все население пораженного района будет вылечено, и равен нулю в противном случае. Искомая матрица имеет вид: Среднее значение выигрыша медицинской группы при каждой заданной паре стратегий есть не что иное, как вероятность ликвидации данной инфекционной болезни выбранным методом лечения. Так, например, если меди- цинская группа выбрала метод лечения А2, а все обсле- дуемые больные окажутся зараженными формой инфекции С3, то 90% этих больных будут вылечены; при этом вы- игрыш медицинской группы будет составлять 0,9. 4. Оптимальная стратегия. Принцип минимакса. Рассмотрим (лгхи)-игру со следующей матрицей: в} В1 Вг Вп А, а11 а12 а1п а2 °21 °22 а2П Ат атг . . . атп 315
Будем обозначать буквой i номер стратегии участника А, а буквой / — номер стратегии участника В. Целью участника А в матричной игре является, есте- ственно, получение по возможности большего выигрыша. Цель же участника В состоит в том, чтобы дать участнику А возможно меньший выигрыш. Попытаемся теперь определить наилучшую, опти- мальную стратегию участника А в этой игре. Опти- мальной стратегией участника игры в теории игр назы- вается такая стратегия, которая при многократном повто- рении игры обеспечивает данному участнику максимально возможный средний выигрыш (или, что то же, минимально возможный средний проигрыш). При выборе этой стра- тегии в основу кладется предположение, что другой участ- ник игры будет проявлять по меньшей мере такую же гибкость в своих действиях, как и его противник, и де- лает все для того, чтобы помешать противнику добиться своей цели. Проанализируем последовательно каждую из страте- гий участника А, начиная со стратегии А ь Выбирая стратегию At, участник А всегда должен рассчитывать на то, что противник ответит на нее той из стратегий Bj, для которой выигрыш а,-у участника А будет минимален. Определим это значение выигрыша, т. е. минимальное из чисел а,-у по i-й строке. Этот минимум по j от вели- чины а(у является гарантированной величиной, хуже которой результат для участника А не может быть, если он применит стратегию А,. Обозначим его через а,- = тшаг/. (1) i Здесь знаком min (минимум по /) обозначено минималь- ное из значений данного параметра при всех возможных /. Выпишем эти минимальные выигрыши аг для каждой стратегии At рядом с матрицей справа в виде добавочного столбца (см. таблицу на следующей стр.). Выбирая какую-либо свою стратегию At, участник А должен рассчитывать на то, что в результате достаточно гибких действий противника он не выигрывает больше, чем аг. Естественно, что, действуя наиболее осторожно и рассчитывая на наиболее сильного противника (т. е. избегая всякого риска), участник А должен остановиться на той из своих стратегий Аг, для которой минимально 316
В; А‘ Bl в3 Вп А, а11 Я12 а1П «1 л2 «21 Я22 а2П «2 л„ «ЯП Я/Я2 атп ап Р> Pi \ возможный выигрыш а, является наибольшим. Обозначим это максимальное значение выигрыша af через vt: vt = maxa;; г здесь знаком max (максимум по г) обозначено максимальное из значений а, при всех возможных I. Принимая во внимание формулу (1), получим; г\ = max min аг/. (2) г 3 Величина v f называется нижней ценой игры, иначе — максиминным выигрышем или просто максимином. Число v! лежит в определенной строчке матрицы; та стратегия участника Л, которая соответствует этой строчке, называется максиминной стратегией. Очевидно, если участник А будет придерживаться максиминной стратегии, то ему при любом поведении его противника гарантирован выигрыш, во всяком случае не меньший v р Поэтому величина v t и называется нижней ценой игры. Этот тот гарантированный минимум, который участник А может себе обеспечить, придерживаясь наи- более осторожной («перестраховочной») стратегии. Аналогичное рассуждение можно провести и за про- тивника В. Так как участник В заинтересован в том, чтобы обратить выигрыш своего противника (участника Л) 317
в минимум, он должен просмотреть каждую свою страте- гию с точки зрения максимального выигрыша при этой стратегии. Поэтому внизу матрицы мы выпишем макси- мальные значения ai}- по каждому столбцу: = max ai}- г и найдем наименьшее из обозначим это значение через vz: z?2 = minPy (3) i или v2 = min max ai}- (4) 3 г Величина vz называется верхней ценой игры, иначе минимаксом. Соответствующая минимаксному выигрышу стратегия противника называется его минимаксной стра- тегией. Придерживаясь своей наиболее осторожной минимак- сной стратегии, противник гарантирует себе следующее: что бы участник А ни предпринимал против него, он, игрок В, во всяком случае проигрывает сумму, не большую, чем v 2. Принцип осторожности, диктующий участникам игры выбор соответствующих стратегий (максиминной и мини- максной), в теории игр и ее приложениях часто называют принципом минимакса. Наиболее осторожные максимин- ную и минимаксную стратегии участников игры иногда обозначают общим термином минимаксные стратегии. Пример. Определим нижнюю и верхнюю цену игры и минимаксные стратегии игры, рассмотренной в пер- вом примере. В этой игре мы имели матрицу: А, '2 А, 1 — 1 — 1 а2 —1 1 — 1 1 1 а 3/ 318
Определим значения vt и v2 для стратегий участников' А и В. При выборе стратегии A t наименьшее значение выигрыша будет = —1; для стратегии Л2 значение а2 тоже равно —1; поэтому наибольшее значение проиг- рыша v j = —1. Для стратегии наибольшее значение Pi=l; для стратегии В2 02 тоже равно 1; следователь- но, v2 = +1. Отсюда видно, что любая стратегия участ- ника А является его максиминной, а любая стратегия участника В — его минимаксной стратегией. Вывод тривиа- лен: придерживаясь любой из своих стратегий, участник А может гарантировать, что он проиграет не более 1; то же самое может гарантировать и участник В. 2. Найдем нижнюю и верхнюю цену игры и минимакс- ную стратегию для второго примера. Матрица этой игры: с Ai С, Сг С, А, 0,8 0,3 0,2 0,2 А2 0,3 ’ 0,7 0,9 0,3 Аа 0,4 0,8 0,2 0,2 0,8 0,8 0,9 а/ Выпишем рядом с матрицей вправо значения а,, а внизу — Р;. По этим значениям определяем нижнюю и верхнюю цену игры: v1 = max а,- = 0,3 z?2 = min Ру.= 0,8. Наиболее осторожной (максиминной) стратегией меди- цинской группы (участника Л) является стратегия А2; пользуясь методом лечения А2, эта группа гарантирует, что она будет вылечивать больных независимо от того, 319
какой формой инфекции заражен каждый больной, в среднем не менее чем в 0,3 (т. е. в 30%) всех случаев. Мак- симинной «стратегией» инфекции является любая из ви- русных форм Ci и С2; благодаря своим адаптивным свойствам эти формы будут уничтожаться не более чем в 0,7 (70%) всех случаев. В этом примере наглядно проявляется одно важное свойство минимаксных стратегий — их неустойчивость. Пусть медицинская группа применит свою наиболее осто- рожную (минимаксную) стратегию А 2. В этих условиях наибольшее распространение получит инфекция Сi, так как при этой форме метод лечения А 2 малоэффективен. До тех пор, пока медицинская группа будет применять метод А 2, средний ее выигрыш будет равен нижней цене игры, т. е. 0,3. Допустим теперь, что медицинской группе стало известно, что при применяемом ею методе лечения начала интенсивно распространяться вирусная форма С(; в ответ на это группа немедленно начнет применять метод лечения A j и получит, таким образом, выигрыш 0,8. Однако при этом методе лечения станет усиленно распространяться инфекция С3, которая сведет выигрыш медицинской группы к 0,2 и т. д. Таким образом, положение, при котором оба участ- ника игры пользуются своими минимаксными стратегия- ми, неустойчиво и может быть нарушено поступив- шими сведениями о стратегии противной стороны; игры такого рода называются неопределенными играми. Существуют, однако, некоторые игры, для которых ми- нимаксные стратегии являются устойчивыми. Это игры, для которых нижняя цена равна верхней: Vl = V2 ИЛИ max min a;y= min max a!r i i i i Если нижняя цена игры равна верхней, то их общее зна- чение называется чистой ценой игры или просто ценой игры', сама игра называется вполне определен- н о п. Мы будем обозначать цену (значение) игры бук- вой 320
Пример. Пусть (3 X 3)-игра задана матрицей: \в, At в, в2 в3 0,4 0,5 0,9 0,4 -Л2 0,8 0,4 0,3 0,3 0,7 0,6 0,8 0,6 0,8 0,6 1 0,9 Определим нижнюю цену игры: = 0,6. Найдем верхнюю цену игры: г>2 = 0,6. Они оказались одинаковыми, следовательно, у игры есть чистая цена, равная v2 = v2= va = 0,6. Элемент 0,6, выделенный .в матрице выигрышей, яв- ляется одновременно минимальным в своей строке и мак- симальным в своем столбце. В геометрии точку на поверх- ности, обладающую аналогичным свойством (одновремен- ный минимум по одной координате и максимум по другой), называют седловой точкой; по аналогии этот термин применяется и в теории игр. Элемент матрицы, обладающий этим свойством, называется седловой точкой матрицы, а про игру говорят, что она имеет седло- вую точку. Седловой точке соответствует пара минимаксных стра- тегий (в данном примере А3 и В2); эти стратегии называют- ся оптимальными, а их совокупность — решением игры. Если в игре с седловой точкой обе стороны придержи- ваются своих оптимальных стратегий, то средний выигрыш равен чистой цене игры v2, одновременно являющейся ее нижней и верхней ценой. Решение игры с седловой точкой обладает следующим замечательным свойством. Если один из участников игры И Черныш В И. 321
(например, А) придерживается своей оптимальной страте- гии, а другой участник (В) будет любым способом откло- няться от своей оптимальной стратегии, то для участника, допустившего отклонение, это никогда не может оказаться выгодным; такое отклонение участника В может в лучшем случае оставить выигрыш А неизменным, а в худшем слу- чае — увеличить его. Наоборот, если В придерживается своей оптимальной стратегии, а А отклоняется от своей, то это ни в коем случае не может быть выгодным для А. Это утверждение легко проверить на примере рас- сматриваемой игры с седловой точкой. Таким образом, в случае игры с седловой точкой мини- максные стратегии обладают своеобразной устойчивостью: если одна сторона придерживается своей минимаксной стратегии, то для другой может быть только невыгодным отклоняться от своей. Заметим, что в этом случае на личие у любого участника игры сведений о том, что противник избрал свою оптимальную стратегию, не может изменить собственного поведения этого участника: если он не хочет противодействовать своим же интересам, он должен при- держиваться своей оптимальной стратегии. Пара опти- мальных стратегий в игре с седловой точкой является своего рода положением равновесия: любое отклонение от оптимальной стратегии приводит отклоняю- щегося игрока к невыгодным последствиям, вынуждающим его вернуться в исходное положение. Класс игр, имеющих седловую точку, представляет большой теоретический и практический интерес, однако среди конечных игр, имеющих практическое значение, такие игры встречаются сравнительно редко. Более ти- пичным является случай, когда нижняя и верхняя цена игры различны. 5. Смешанные стратегии. Основная теорема теории игр. Анализируя матрицы игр, имеющих различные верх- нюю и нижнюю цену, мы пришли к заключению, что если каждому участнику игры предоставлен выбор одной единственной стратегии, то в расчете на действия силь- ного противника этот выбор должен определяться прин- ципом минимакса. Придерживаясь своей минимаксной стратегии, участник А при любом поведении противника заведомо гарантирует себе выигрыш, равный нижней цене игры v j. Возникает вопрос: нельзя ли участнику А гаран- тировать себе средний выигрыш, больший v t, если он 322
будет применять не одну единственную стратегию, а чередовать случайным образом несколько чистых страте- гий? Такие комбинированные стратегии, состоящие в приме- нении нескольких чистых стратегий, чередующихся по случайному закону с определенным соотношением частот, в теории игр называются смешанными стратегиями. В (ттгХп)-игре смешанные стратегии участника А определяются наборами вероятностей Р = (р i, р2, ..., рт) т (причем 2 Pi = 1), с которыми этот участник выбирает первоначальные чистые стратегии A i, А2, Ат; анало- гично для участника В смешанные стратегии определяются набором вероятностей Q = (qt, q2, ..., qn) (при этом V</j=l). Если, например, смешанная стратегия участ- /=>1 ника А состоит в применении чистых стратегий A t и А 2 с вероятностями (частотами) pi и р2 (причем pi + Рг —1), то его смешанная стратегия S — ( А ' \Р1 Рг J Аналогично этому, смешанная стратегия противника, включающая стратегии В\ и В2 с вероятностями qi и q2 (<7i + Чг = 1). будет Очевидно, каждая чистая стратегия является частным случаем смешанной, в которой все стратегии, кроме одной, применяются с вероятностями, равными нулю, а данная — с вероятностью, равной единице. Оказывается, что, применяя не только чистые, но и смешанные стратегии, можно для каждой конечной игры получить решение, т. е. пару таких (в общем случае сме- шанных) стратегий, что при применении их обоими участ- никами выигрыш будет равен цене игры, а при любом од- ностороннем отклонении от оптимальной стратегии вы- игрыш может измениться только в сторону, невыгодную для отклоняющегося. Этот факт был впервые доказан Дж. Нейманом и со- ставляет содержание так называемой основной теоремы теории игр, которую иногда называют теоремой о 11* 323
минимаксе. Известные доказательства этой теоремы сравнительно сложны, поэтому мы ограничимся только ее формулировкой. Всякая конечная игра имеет решение, и у каждого уча- стника игры всегда имеется по меньшей мере одна опти- мальная (смешанная) стратегия. Выигрыш, получаемый в результате решения, назы- вается ценой (значением) игры. Из основной теоремы сле- дует, что каждая конечная игра имеет цену v,=F (SA, S*B), где S*A и S*B — оптимальные смешанные стратегии участников А и В. Эта цена всегда лежит между нижней ценой игры vi = F (SA, SB) и верхней ценой игры v2 = = F (S*A, SB), т. е. . F(SA,S'B)^F(S'A, Sb)^F(Sa, Sb). (1) Действительно, нижняя цена игры есть максимальный га- рантированный выигрыш, который участник А может себе обеспечить, применяя только свои чистые стратегии. Так как смешанные стратегии включают в себя в качестве ча- стного случая и все чистые, то, допуская, кроме чистых, еще и смешанные стратегии, участник А во всяком случае не ухудшит своих возможностей. Аналогично, рассматри- вая возможности участника В, нетрудно убедиться, что, используя оптимальные смешанные стратегии SB, он может нс дать А получить больше чем F (SA, SB). Итак F (SA, Sb ) представляет тот выигрыш, который А может надеять- ся получить,— он может получить его, выбирая опти- мальную стратегию SA, а В может ограничить его этим выигрышем, выбирая SB. Упорядоченная пара является решением игры (иногда ее называют страте- гической седловой точкой). Предположим, что нами найдено решение игры |SA, *^в|- В общем случае не все чистые стратегии, доступ- ные данному участнику, входят в его оптимальную смешан- ную стратегию, а только некоторые. Будем называть стра- тегии, входящие в оптимальную смейганную» стратегию данного участника, его полезными страте- гиями. Оказывается, что решение игры обладает еще одним замечательным свойством: если один из участников при- держивается своей оптимальной стратегии SA или SB , 324
то -выигрыш остается неизменным и равным цене игры F(Sa, Sb) независимо от того, что делает его противник, если он только не выходит за пределы своих полезных стра- тегий. Он, например, может пользоваться любой из своих стратегий в чистом виде, а также может смешивать их в любых пропорциях. Не останавливаясь на доказательстве данного утверждения, отметим, что это важное свойство широко используется при решении игр. 6. Элементарные методы решения игр. Имеются раз- личные способы решения игры, т. е. отыскания цены и оптимальных стратегий для обеих сторон (участников); мы рассмотрим лишь некоторые из них. Для (ттгхга)-игр, не имеющих седловой точки, нахож- дение решения есть вообще довольно трудная задача, осо- бенно при больших тип. Иногда эту задачу удается упростить, если предвари- тельно уменьшить число стратегий путем вычеркивания некоторых излишних. Излишние стратегии бывают: 1) дублирующие и 2) заведомо невыгодные. Рассмотрим, например, игру с матрицей В} Ai Bl в3 в. At 2 6 3 Аг 4 3 6 А. 2 6 3 А, 1 5 2 Легко видеть, что стратегия А3 в точности повторяет (дублирует) стратегию A ь поэтому любую из этих страте- гий можно вычеркнуть. Мы вычеркнем стратегию А3. Далее, сравнивая почленно элементы стратегий A i и Ait мы видим, что каждой элемент стратегии Л4 меньше соот- ветствующего элемента стратегии A t. Очевидно, участник А никогда не должен пользоваться стратегией Л4, так как она является заведомо невыгодной для него. Вычеркивая 11 Черныш В. И. • 325
A s и A 4, мы приводим матрицу к более простому виду: В/ 1 В, В2 А* в» Л, 2 6 3 А 4 3 6 Далее замечаем, что для участника В стратегия В3 заведомо невыгодна, так как каждый элемент столбца В3 больше соответствующего элемента В t, а для участника В важно свести проигрыш к минимуму. Вычеркивая эту стратегию, мы приводим матрицу к окончательному виду: Таким образом, (4 X 3)-игра вычеркиванием дуб- лирующих и заведомо невыгодных стратегий сведена к (2х2)-игре, при этом цена игры должна остаться одной и той же. Процедура вычеркивания дублирующих и заведомо невыгодных стратегий всегда должна предшествовать ре- шению игры. Наиболее простыми случаями конечных игр, которые всегда можно решить элементарными способами, являются (2х2)-игры и (2хтн)-игры. Рассмотрим (2х2)-игру с матрицей А‘ В1 В3 А, «11 Я12 А Я21 Я22 826
Здесь могут встретиться два случая: 1) игра имеет седловую точку; 2) игра не имеет седловой точки, В первом случае решением игры будет пара стратегий, пересекаю- щихся в седловой точке. Предположим, что в игре седловой точки нет и, следо- вательно, нижняя цена игры не равна верхней: Требуется найти оптимальную смешанную стратегию уча- стника А: Она огличается тем свойством, что, каковы бы ни были действия противника (если они только не выходят за пределы полезных стратегий), выигрыш будет равен цене игры г>0. В (2 X 2)-игре обе стратегии противника яв- ляются полезными — иначе игра имела бы решение в об- ласти чистых стратегий (седловую точку). Поэтому если участник А будет придерживаться своей оптимальной стратегии S*A = (^‘р3), то его противник, участник Bt может пользоваться любой из чистых стратегий Bt и В2, не изменяя среднего выигрыша участника А. В том слу- чае, когда участник Л будет применять оптимальную стра- тегию S*A, а участник В — чистую стратегию В цена v0 будет, очевидно, равна сумме выигрышей чистых страте- гий At и А 2 при стратегии В t, умноженных на соответ- ствующие вероятности их использования в оптимальной стратегии SA: (Ь То же для стратегии В2 (второй столбец): г;о = «12Л + а22Р2- (2) Решая совместно уравнения (1) и (2), находим: «11Р1 + «21Р2 = Й12Р1 + «22^2- Принимая во внимание, что + р2 = 1, имеем; «11Р1 + «2. (1 —Л) = «>2Р1 + «22 (1 —Р1) ИЛИ ~Ь ^21 ^21^1 4“ ^22 откуда получим: D „ а22 g2I /О\ 1 ®21 “ ®12 ®22 11* 327
Цену игры va найдем, подставляя найденные значения pt и р2 в уравнение (1) или (2). Зная цену игры, можно теперь определить оптимальную стратегию противника 5я = (д1®3); Для этого достаточно одного уравнения, например откуда, учитывая, что + д2 — 1> имеем: = ац91 + ai2 (1 — Яг), . а11 tt12 Примеры. 1. Найдем решение (2 х 2)-игры, рас- смотренной в первом примере. Мы имели матрицу и нижнюю и верхнюю цену «игры» = —1, v2 — 4-1. Следовательно, эта «игра» не имеет седловой точки, по- этому ее решение должно лежать в области смешанных стратегий: в = Нужно найти Pi, р2, qt, q2 и va. 1) Для стратегий SA, Bt и В2 имеем: г>„ = ( — l)p1-t-l-p2 )’ р'+р*~ ’ откуда 1 Pi-Н-1) (1 — Pi) = (—!)Pi 4-1 • (1 —pj; л—1 + Р1=—Р, +1—Л’> 1 л 1 Р> = т; р2 = 1-р, = т; i4 + (-i)-4=u- 828
2) Аналогично для А 4 и SB найдем: г,.= 1-5'1 + ( — I)?,! 4i + <h = i> откуда 1 1 ?i 2 ’ 2 ‘ Следовательно, оптимальная стратегия для каждого из участников этой «игры» состоит в том, чтобы чередовать случайным образом свои чистые стратегии, пользуясь одинаково часто каждой из них; при этом средний выигрыш будет равен нулю. Полученный вывод был достаточно ясен заранее. Од- нако для более сложных конфликтных ситуаций, для ко- торых решение является не столь очевидным, математи- ческий анализ оказывается ценным; в этом мы сможем убедиться на следующем примере. 2. К врачу на прием пришел больной. При обследовании у него были обнаружены симптомы бо- лезни, имеющей в 40% случаев смертельный исход. Врачу известны два метода лечения данной болезни. Первый метод обеспечивает вылечивание в 100% случаев, однако его применение возможно только в ранней стадии болезни; в поздней стадии этот метод не оказывает никакого влияния на ход болезни. Второй метод лечения дает положитель- ные результаты в 90% случаев, но его применение, наобо- рот, возможно только в поздней стадии развития данной болезни. Применение второго метода в ранней стадии про- тивопоказано — оно ведет к серьезным осложнениям, заканчивающимся в 50% случаев смертью больного. Врачу неизвестно, в какой стадии развития находится болезнь пациента, так как у данной болезни отсутствуют внешние признаки ранней и поздйей стадий. Требуется определить стратегию врача, при которой шансы больного на вылечивание окажутся наилучшими. Мы имеем простой случай (2 х 2)-игры. В этой «игре» выигрыш — вероятность успешного вылечивания больного. Стратегии врача: А 1 — метод лечения в ранней стадии болезни; А 2 — метод лечения в поздней стадии болезни. «Стратегии», болезни: С 4 — ранняя стадия болезни; С2 — поздняя стадия болезни. 329
Построим матрицу «игры», т. е. найдем средний выигрыш при каждой комбинации стратегий. 1) Комбинации стратегий AiCi (применен метод лече- ния Ait у больного оказалась ранняя стадия болезни С\). В этом случае вероятность успешного вылечивания больного будет равна единице- ai 1 = !• 2) Комбинация стратегий Л4С2 (применен метод лече- ния А], у больного оказалась поздняя стадия болезни С2). Применение А 4 не будет оказывать никакого влияния на ход болезни. Так как данная болезнь заканчивается в 40% случаев смертельным исходом, то а1г= 1 — 0,4= 0,6. 3) Комбинация стратегий А 2С 4 (применен метод лече- ния А 2, у больного — ранняя стадия болезни С 4). У боль- ного возникнут опасные осложнения, которые в 50% слу- чаях имеют смертельный исход, поэтому а21 = 1-0,5 = 0,5. 4) Комбинация стратегий А 2С 2 (применен метод лече- ния Л 2, у больного—поздняя стадия болезни С2). Ве- роятность успешного вылечивания больного равна 0,9: а„ = 0,9. Строим матрицу «игры»: Находим нижнюю и верхнюю цену «игры»: vf = 0,5; v2 = 0,9. Матрица не имеет седловой точки, поэтому решение ищем в области смешанных стратегий. 330
Для стратегии S*A, Ct и С2 имеем: Pi + 0-6р2 = v„, 0,5р1 + 0,9р2= v„, Pi +Р2 = откуда находим Pl 1 ?2> (1 — Рг) + 0>6р2 = (0,5—0,5р2) + 0,9plt P, = g=0,62, р,= 1—0,62 = 0,38, va = 0,38 + 0,6 0,62 = 0,75. Таким образом, оптимальной стратегией врача являет- ся SA* = ’ т- е‘ он Д°лжен чаще пользоваться методом лечения А2, чем А]. При этой стратегии он будет вылечивать в среднем не менее чем в 75% случаях (г>0 = 0,75) независимо от того, с какой частотой будут встре- чаться ранняя и поздняя стадии болезни у принимаемых больных. Определим теперь наименее благоприятные для врача частоты чередования форм болезни Ci и С2 у больных, при которых в случае изменения оптимальной стратегии SA его выигрыш будет наименьшим (равным v2=0,75). Имеем: q, 1 + q2-0,5 = 0,75 ?2 = 1~ откуда qt = 0,5; q2 = 0,5. Отсюда видно, что наименее благоприятным для врача является случай, когда среди его пациентов, страдающих данной болезнью, ранняя и поздняя стадии болезни будут встречаться одинаково часто. Мы рассмотрели метод решения только самых простых игр типа 2 X 2; в общем случае решение этим методом (т X п)-игры представляет довольно трудную задачу, причем сложность задачи и объем необходимых для реше- ния вычислений резко возрастают с увеличением числа стратегий тип. Поэтому при решении (тхп)-игр с большими тип обычно используются другие аналитиче- ские методы (метод линейного программирования, метод итераций и др.). 331
ГЛАВА 8 ИЗУЧЕНИЕ УПРАВЛЕНИЯ В ЖИВЫХ ОРГАНИЗМАХ В связи с развитием кибернетики возникли и успешно развиваются новые методические приемы изучения голов- ного мозга. Эта область исследования, которая обычно обозначается как «нейрокибернетика», предполагает ши- рокое использование математического аппарата. Новые методы можно условно разделить на две кате- гории: 1) методы изучения информационных процессов (принципов переработки информации). Или, иначе говоря, алгоритмического описания. Это направление, согласно терминоло1ии, предложенной А. А. Ляпуновым, можно характеризовать как исследование на макроуровне; 2) изу- чение структуры нервных сетей и процессов, протекаю- щих в этих системах (исследования на микроуровне). Оба направления тесно связаны между собой и могут быть рассмотрены как два этапа единого процесса иссле- дования. Алгоритмическое описание работы мозга — первый этап. Уже па этом «уровне» оказывается возможным ре- шение ряда актуальных вопросов и вскрытие механизмов работы мозга. Изучение информационных процессов соз- дает также необходимые предпосылки для изучения струк- туры нервных сетей, лежащих в основе сложных форм ра- боты мозга (второго этапа исследования). Без полного алгоритмического анализа оказывается затруднительным исследование работы нервной системы на «микроуровне». В области разработки теории и методики изучения ин- формационных процессов уже опубликовано большое ко- личество исследований. Обычно при исследованиях этого типа ставится цель дать научный анализ той или иной сложной формы работы мозга, например явления обуче- ния, решения проблем или узнавания образов и т. д. При 332
этом используются методы, отличные от психологии и фи- зиологии. Научный анализ работы мозга проводится на основе выявления алгоритмов переработки информации, лежащих в основе той или иной сложной формы работы мозга. Советскими математиками разработан ряд важных по- ложений, связанных с использованием теории алгоритмов в биологии. В. М. Глушковым было введено новое, более широкое определение понятия алгоритма, охватывающее те проблемы, которые встречаются при изучении нервной системы. Алгоритм — это любая конечная система пра- вил, позволяющая производить однозначное преобразова- ние информации, заданной в обобщенной (буквенной) форме. Выше уже были изложены основные положения тео- рии алгоритмов. Важно, что сложное явление, связанное например с решением задач того или иного класса, может быть понято на основе определенной последовательности простых операций по переработке информации. Наибольший интерес для изучения мозга представ- ляет изучение логических алгоритмов. Например, проб- лема поиска в лабиринте и соответствующая эксперимен- тальная методика являлись важными при исследовании обучения у животных. В настоящее время поиск в лаби- ринте является предметом исследования и в области ма- тематики. Теоретически найдены оптимальные алгорит- мы и доказана их эффективность. Эти исследования соз- дают базу для теории обучения живых организмов. Известный исследователь в области теории автомати- ческого управления профессор В. В. Солодовников сле- дующим образом характеризует особенности этого нового метода в изучении мозга: «Основным методом кибернетики является метод алгоритмизации. Согласно этому методу, всякий информационный процесс управления представ- ляется в виде некоторой последовательности связанных друг с другом математических и логических операций, на- зываемой алгоритмом. Чем более сложен процесс, тем более сложен и, как правило, более длинен его алгоритм. Почти каждая наука изучает определенную область ин- формационных процессов, и поэтому вопросы кибернетики связаны со многими науками. Если до сих пор алгоритми- ческий подход к описанию процессов использовался в основном лишь в математике, математической логике и в вычислительных машинах, то сейчас он входит во многие 333
новые отрасли науки и техники». Из сказанного ясно, что кибернетика не делает упора на физической, биологиче- ской, физиологической или какой-либо другой природе процессов управления. Она- стремится использовать ре- зультаты различных наук, специально посвященных изу- чению различных классов управляемых объектов, для того чтобы обобщить эти результаты в части, касающейся вопросов управления, алгоритмизировать и выявить об- щие принципы и законы управления различными объек- тами на основе понятия информации. При изучении мозга алгоритмы могут иметь весьма сложный характер. Например, известны идеи Н. Винера и Н. А. Бернштейна о том, что в основе работы самоорга- низующихся систем управления лежит комплекс взаимо- соподчиненных алгоритмов разного уровня. По-видимому программа работы мозга низшего уровня — это системы условных и безусловных рефлексов, лежащие в основе различных конкретных форм поведения животных, на- пример жесткие программы работы мозга насекомых. Он различен у различных животных и у различных людей. Алгоритм второго уровня, проявляющийся у позвоночных, это не само поведение, а система правил, лежащая в осно- ве обучения. Он обеспечивает формирование нового по- ведения в любых новых условиях. Алгоритмы третьего уровня ответственны за формирование и корректировку алгоритма второго уровня. Они проявляются преимущест- венно у человека и обеспечивают формирование новых принципов обучения. Для изучения алгоритмов работы мозга используется ряд специальных методических приемов. Большое значе- ние при этом имеет методика «многократного последова- тельного переноса». В экспериментах на людях и животных выявляется си- стема правил переработки информации (алгоритмы раз- личных уровней), лежащая в основе той или иной сложной формы работы мозга. Далее, для проверки того, что дей- ствительно данная система правил обеспечивает те слож- ные формы работы мозга, которые изучаются, обычно используется метод создания электронных моделей. Выяв- ленные в опытах алгоритмы в виде программы заклады- ваются в универсальную вычислительную машину. Анализ рабрты машины показывает, насколько точно и полно был дан научный анализ сложного явления работы мозга. 331
Обычно при первых попытках оказывается, что машина оказывается неспособной к осуществлению тех сложных форм деятельности, которые изучаются. Тогда выясняется, в чем недостатки работы машины, в какие моменты своей деятельности, при выполнении каких операций машина испытывает затруднения, в чем именно дефект ее работы. Такой анализ позволяет выявить дефекты созданных ра- нее гипотез о механизмах работы мозга и приводит к прове- дению новых опытов на живом организме. После этого создается новая программа для машины. В результате длительной работы, связанной с многократным переходом от опытов на живом мозге к модели и обратно, удается в конце концов вскрыть с достаточной полнотой систему правил переработки информации и доказать, что эта си- стема способна обеспечить сложную деятельность мозга. Таким образом удается дать научный анализ тех или иных сложных форм работы головного мозга. Например, была разработана теория, объясняющая механизмы, лежащие в основе способности мозга человека к решению различных проблем, к обучению и др. Следует подчеркнуть, что сущность механизмов работы головного мозга и его модели заключается именно в си- стеме правил переработки информации. Вычислительные машины имеют универсальный характер х. В зависимости от того, какой комплекс правил переработки информации будет в нее вложен, она приобретает те или иные новые способности. Устройство вычислительной машины во многом отличается от работы мозга, однако система пра- вил переработки информации оказывается тождествен- ной. Таким образом, для алгоритмического описания ра- боты мозга оказывается недостаточным физиологическое экспериментальное исследование. Необходимо тесное со- четание метода моделирования с биологическим экспери- ментом, а также использование математического аппарата тех основных разделов математики, которые излагаются в настоящей книге: теории вероятностей, теории информа- ции, теории множеств, математической логики, теории алгоритмов. На основе использования аппарата математической ло- гики, теории алгоритмов и теории вероятностей оказы- 1 Здесь не имеется в виду класс специализированных машин, построенных для вычислений по одной узкой группе задач. 335
вается возможным теоретический анализ результатов, по- лучаемых при моделировании и при проведении экспери- ментов на живых организмах. На этой основе решается вопрос о значении тех пли иных принципов работы мозга и о границах применимости различных алгоритмов, их преимуществах и недостатках. Может быть заранее тео- ретически вычислена оптимальная стратегия поиска при решении задач данного класса и сопоставлена с резуль- татами опытов. Использование теории вероятностей необходимо в связи с тем, что алгоритмы, лежащие в основе работы го- ловного мозга, часто включают элементы, в которых реа- лизуется случайный поиск организма во внешней среде, с целью получения нужной информации. При этом совер- шаются пробные действия, по определенным правилам оценивается и перерабатывается поступающая извне ин- формация. Важно иметь возможность провести расчет степени вероятности появления во внешней среде нужных для организма изменений и поступления необходимой информации. Разрабатываются также стохастические модели обуче- ния, основанные на вероятностных принципах. Описанные выше пути использования математического аппарата в физиологических исследованиях приводят не только к формальному математическому описанию био- логических явлений, но и к реальному прогрессу в изуче- нии механизмов работы мозга. Моделирование при этом является не самоцелью, а лишь методом для выявления новых законов работы мозга, составным элементом цело- стной системы исследования. Излагаемые в настоящей книге сведения в области ма- тематики могут позволить физиологу проводить исследо- вание работы мозга описанными выше методами в содру- жестве с математиками и инженерами и читать научную литературу в области изучения информационных процес- сов головного мозга. В разработке теоретических основ метода изучения ин- формационных процессов большое значение имели работы В. М. Глушкова, А. А. Маркова, А. Ньюэла, Шоу, Э. Фай- генбаума, М. Минского. Было выдвинуто положение о возможности научного анализа сложных форм работы мозга на основе выявления соответствующих «примитивных информационных процессов» и алгоритмического описа- 33&
ния. Процесс обучения, процесс отыскания системы ориен- тиров для опознания образов и выработки понятий, реше- ние проблем и другие проблемы могут быть рассмотрены с теоретической точки зрения, как решение определенных задач, в основе которого лежит использование алгорит- мов, сформировавшихся в процессе эволюции. В качестве примера в этом отношении можно привести проблему поиска в лабиринте, уже хорошо изученную в теоретическом отношении. Было показано также, что любая сложная форма работы мозга может быть воспроизведена в уже существующих универсальных вычислительных машинах, если только она будет алгоритмически описана. Это положение тесно связано с анализом работы машины Тьюринга, которое приведено в этой книге. Отсюда следует, что метод алго- ритмического описания становится мощным орудием для изучения механизмов сложных форм работы мозга. Ньюэл и Шоу отмечают, что изучение мозга может про- водиться на различных уровнях (молекулярном, клеточ- ном, уровне изучения психических явлений и т. д.). Опи- сываемый здесь аспект исследования осуществляется на уровне «информационных процессов». Это значит, что изу- чается, какие сигналы и комплексы сигналов поступают из внешней среды, по каким правилам эта информация пре- образуется в головном мозгу. Исследуются законы пере- комбинации и перегруппировки новой информации с ранее воспринятой и законы, определяющие, какие ответ- ные реакции возникают в тех или иных условиях. Далее анализируется, какие изменения во внешней среде вызы- вают реакции организма, какая новая информация воз- никает при этом и поступает в головной мозг и что да- лее происходит в головном мозгу с этой новой информа- цией. Следует подчеркнуть, что сущность проблемы именно в этих системах алгоритмов, в их взаимодействии. Рас- смотрение отдельных правил не приводит к пониманию механизмов работы мозга. Например, факт, что человек в ответ на определенные сигналы совершает движения данного типа, еще не дает возможности понять механизм процесса. Только в системе появляется то новое качество, которое мы изучаем. Алгоритмический анализ позволяет выявить это новое качество на основе системы простых правил переработки информации. 337
Для того чтобы понять, как из частных принципов в системе возникает новое явление, необходимо выявить все эти принципы, изучить, в какой последовательности они применяются, затем рассмотреть на основании этих принципов весь процесс в целом, включая те изменения, к которым приводят действия человека, то, что происходит во внешней среде, что он видит, какое действие он пред- принимает при тех или иных результатах. Каждое из вскрытых правил не приводит к пониманию механизмов явления в целом. Для этого необходимо рассмотрение всего комплекса алгоритмов, применяемых в определен- ной последовательности, и рассмотрение взаимодействий организма и среды. Такой синтез явления из простых компонентов часто представляет собой трудную задачу. Для ее решения и оказывается необходимым использование новых методов и, в частности, метода моделирования информационных пр оцессов. Вывод о ведущей роли алгоритмов в сложной деятель- ности мозга имеет решающее значение для изучения ме- ханизмов его работы. Видимо, трудности в изучении мозга были связаны с тем, что ученые ранее недооценивали зна- чение этой проблемы. Психологические исследования ста- вили целью изучение закономерностей психических явле- ний как таковых, нейрофизиологи искали ответа на вопрос о механизмах работы нервной системы только в изу- чении физиологических процессов, протекающих в нерв- ных элементах. Физиологи изучали динамику нервных процессов. При этом информационные процессы выпадали из поля зрения. А именно эти процессы являлись основ- ными в работе мозга. Видимо, в основе многих, еще не- доступных для научного анализа сложных форм работы нервной системы также лежат относительно простые ал- горитмы и, не выявив этих правил, мы не сможем понять механизмов этих сложных форм деятельности мозга. Это положение определяет пути изучения работы мозга. Если оно справедливо, то для анализов механизма работы моз- га следует применять не только физиологические методы, но п метод выявления комплекса алгоритмов работы мозга. Не решили проблемы алгоритмического тонуса и исследования школы бихевиористов. Эти исследования не ставят цель вскрытия механизмов работы мозга. Это привело к тому, что выявились лишь отдельные прин- 838
ципы, но не было создано теории и не было дано пол- ного алгоритмического описания. Идея алгоритмического анализа определяет возникно- вение новых целей исследования и новых способов анализа разработки экспериментальных данных. Если при физио- логическом исследовании обычно ожидают в результата экспериментов новых фактов о динамике нервных про- цессов, об электрофизиологических явлениях или о ло- кализации временных связей, то при исследовании инфор- мационных процессов результатом исследования служит выявление определенной системы правил переработки ин- формации — алгоритмов. Этот метод исследования оказывается весьма перспек- тивным при изучении головного мозга, однако он требует от научного работника подготовки в различных областях математики. Обычно исследования этого типа могут осуще- ствляться только при совместной работе специалистов, разных областей знания, нейрокибернетиков, математи- ков и специалистов в области технической кибернетики. Нейрокибернетик должен быть подготовлен для совмест- ной работы. Он должен четко представлять себе те требо- вания, которые необходимы для выявления и формули- ровки алгоритмов работы мозга и их моделирования. Он должен обладать определенной подготовкой для понимания тех результатов и выводов, которые могут быть сделаны при анализе работы модели и должен иметь возможность на основании этих результатов наметить план новых эк- спериментов на животных. Для этого необходимо знание и умение использовать аппарат математической логики, теории алгоритмов, теории информации и сведения об устройстве вычислительных машин. Алгоритмы, выявленные в экспериментах, записы- ваются в математической форме. После этого производит- ся разработка специальных программ для универсальной машины. Хотя при программировании необходима работа математиков, однако для нейрокибернетика, принимаю- щего участие в комплексном исследовании, необходимо понимание основных принципов этой работы. Описываемый путь исследования головного мозга уже привел к большим практическим результатам. Наиболее ярким выражением результатов является возможность моделирования ряда сложных форм работы мозга в маши- нах. Успехи в этом отношении весьма показательны, так 33»
как возможность искусственного воспроизведения явле- ния свидетельствует о том, что мы достаточно глубоко вскрыли его механизмы. На основе изучения алгоритмов работы головного мозга в настоящее время уже созданы программы, которые обес- печивают способность универсальных вычислительных машин к обучению, к решению проблем, к доказательству теорем в области евклидовой геометрии, к игре в шахматы. Интенсивно развивается новая область исследования «эвристическое программирование». Оно ставит своей целью анализ механизмов работы мозга человека, лежа- щих в основе творческой деятельности и воспроизведение этих механизмов в моделях. Эти успехи свидетельствуют о том, что удалось наме- тить перспективные пути изучения головного мозга и подойти к раскрытию весьма существенных механизмов его работы, так как в противном случае было бы невоз- можно воспроизведение в электронной модели указанных выше сложных форм его деятельности, а также и о том, что уже четко вырисовались основные черты нового метода изучения нервной системы. При изучении информа- ционных процессов встает ряд новых проблем, которые обычно не ставились в физиологии. Так, центральное место приобретают вопросы о принципах, лежащих в основе сокращения числа пробных действий во время поиска в неизвестной среде, вопрос о принципах работы мозга, лежащих в основе отбора достоверной, полезной и непротиворечивой информации. Выдвигается также за- дача выявления алгоритмов, лежащих в основе выдви- жения новых промежуточных подцелей при решении проблем. Важно отметить, что при алгоритмическом анализе ра- боты мозга и создании моделей мыслительной деятель- ности часто оказывается наиболее трудным изучить и вос- произвести относительно простые формы работы мозга (узнавание образрв, обучение), которые имеются и у жи- вотных, в то время как способность к логическим опера- циям уже легко моделируется в автоматах. А. Н. Кол- могоров специально указывал, что в настоящее рремя ки- бернетика уже достигла успехов в изучении Наиболее сложных форм работы мозга (логического мышления) и наиболее простых (условных рефлексов). Промежуточные же по сложности формы работы трудно поддаются науч- 340
ному анализу. Это объясняется тем, что в основе логиче- ских операций, как и в основе решения задач, лежат ал- горитмы, в значительной степени изобретенные самим че- ловеком и давно описанные в научной литературе. Эти алгоритмы были формализованы и использованы при раз- работке математической логики. Алгоритмы другого типа лежат в основе процесса обу- чения, узнавания образов, поиска в неизвестной среде. Отличие заключается в том, что эти алгоритмы возникли в процессе эволюции. В связи с этим необходимо их спе- циальное исследование. Этим определяются трудности создания автоматов, способных к перечисленным выше формам работы мозга. Следует отметить, что эти алгоритмы часто находятся вне сферы сознательной деятельности че- ловека. Человек не может дать о них словесного отчета. Например, при обучении езде на велосипеде человек производит много пробных движений. Характер, после- довательность пробных действий, а также отбор и перера- ботка поступающей при этом извне информации опреде- ляются сложной системой правил — алгоритмом; однако человек, научившийся ездить на велосипеде, не может дать отчета об этих правилах, он не может объяснить как он обучился. Именно выявление таких алгоритмов пред- ставляет наибольшие трудности для кибернетики и яв- ляется в то же время наиболее важным. Новые задачи определяют необходимость использова- ния новых методических приемов при экспериментальном изучении головного мозга. Оказывается необходимой раз- работка таких методик, которые бы позволили в ходе опыта изучать все стадии и формы переработки и преобразова- ния информации, которые происходят как в головном мозгу, так и во внешней среде. Вместе с тем оказывается важным иметь возможность для точного научного анализа, который позволил бы перейти от простого описания пове- дения к выявлению четких систем правил переработки ин- формации. При исследовании информационных процессов иссле- дователь сталкивается с весьма сложными системами яв- лений. При этом оказываются необходимыми методы вы- членений отдельных более простых процессов и изучение их в специальных экспериментах. Аналогичный прием исследования применим, например, в химии. Как изве- стно, развитие химии как науки стало возможным только 341
после того, как были выделены простые вещества и методом искусственного синтеза в пробирках были изучены про- стейшие реакции и выявлены основные законы взаимодей- ствия веществ. На основе этих аналитических опытов уда- лось подойти к анализу сложных явлений. Та же логика эксперимента характеризует изучение информационных процессов. Процесс исследования разбивается на ряд ста- дий по изучению элементарных информационных процес- сов. Путем специальных модельных экспериментов выяв- ляются отдельные частные принципы. При этом оказывается недостаточным использование какого-либо одного методического приема изучения мозга (например, методики лабиринта). Проводят комплекс экспериментов с использованием систем различных моде- лей, каждая из которых отражает какие-то характерные черты внешнего мира и какую-то существенную сторону информационной деятельности. Затем, как уже говори- лось, осуществляется синтез в электронных моделях. Все принципы, полученные в различных опытах, объеди- няются в единую программу. Производится теоретический анализ значения алго- ритмов. При алгоритмическом описании оказывается необхо- димым использование таких методик, которые позволяют точно учитывать все сигналы, поступающие на входы си- стемы и все элементарные движения (действия), которые являются результатом поступления возбуждения на вы- ходе автомата. Такое исследование непосредственно при- водит к выявлению алгоритмов. Вместе с тем объектом исследования должны быть действительно сложные про- цессы работы мозга, а не элементарные реакции. Для этих целей оказываются недостаточными методические приемы лабиринта и проблемных клеток или разработанные В. Келлером приемы исследования поведения и решение проблем на Животных. В последнем случае при исполь- зовании конкретных предметов результаты эксперимен- тов определяются характером этих предметов и тем ин- дивидуальным опытом, которым животное обладало в пользовании ими. При использовании других предметов результаты эксперимента будут другими. Основное же свойство алгоритма — его массовость. Он должен быть применим к целому классу задач и быть выражен в сим >- лической форме. В настоящее время разрабатываются 342
новые, более точные методы. Рассмотрение некоторых из этих методик представляет интерес в связи с тем, что они предполагают использование математического аппарата. Например, Ньюэлом, Шоу и Саймоном был разработан метод, основанный на решении человеком специальных задач, которые даются в виде символов математической логики. Этот метод имеет ряд важных преимуществ, так как вся информация, поступающая на вход системы, дается в виде абстрактных простых символов. Это позволяет из- бавиться от описанных выше трудностей. Испытуемым дается исходная формула, составленная из символов 'Математической логики, которую они должны преобразовать в другую формулу. Предлагается ряд правил, по которым можно производить преобразование •формул (допустимых подстановок). При решении задачи испытуемые не совершали случайного перебора, а опери- руя отдельными правилами, шаг за шагом они шли к цели. Эта методика использует математический аппарат теории ассоциативных систем и теории групп. Во время эксперимента изучаются алгоритмы поиска, используе- мые мозгом человека. Эта форма опыта удобна тем, что точно известен предыдущий опыт человека, используемый при решении задачи. Все операции совершаются с элемен- тарными сигналами, что позволяет проводить точный анализ. В то же время в этой более точной форме оказы- вается возможным исследовать алгоритмы работы мозга человека, используемые при решении различного типа проблем, встречающихся в его жизни. Значительный ин- терес представляет методика, предложенная американ- ским ученым А. Рапопортом, основанная на использова- нии специальных аппаратов, позволяющих учитывать элементарные поисковые движения и поступления в го- ловной мозг отдельных сигналов. Эти методики были с успехом применены для анализа механизмов, лежащих в основе решения проблем и дока- зательства теорем. Большое значение для выявления алго- ритмов и, в частности, алгоритмического описания про- цесса обучения имеет методика формирования условных рефлексов, разработанная И. П. Павловым. Им был разработан метод объективного исследования щ-дщей нервной деятельности. Этот метод связан с изоля- цией организма от реальной внешней среды и созданием искусственной, упрощенной модели внешнего мира в виде 343
комплекса включаемых экспериментатором сигналов. Он открывает большие возможности для более точного изуче- ния информационных процессов, так как позволяет вы- явить четкие правила переработки информации. Логиче- ским развитием этой методики, применительно к задачам кибернетики, было последовательное усложнение исполь- зуемых в эксперименте моделей внешней среды. Модели, используемые в классической методике условных рефлек- сов, отражали только один из простых случаев. Экспери- ментатор сам включал нужные сигналы. В естественных условиях жизни эти воздействия, облегчающие форми- рование систем рефлексов, отсутствуют. Как известно, внешнюю среду характеризует наличие причинноследст- венных закономерностей и случайных явлений. Вопрос о формальном описании внешней среды приоб- ретает большое значение. Для этой цели полезными ока- зываются рассмотрения поиска в абстрактном лабиринте. Этот вопрос входит в настоящее время в область изучения теории алгоритмов и теории автоматов. Для этого случая уже сейчас может быть теоретически найдена оптимальная стратегия поиска и доказана эффективность таких алго- ритмов. Разработана также теория поиска в вероятност- ной среде. Однако в настоящее время еще нет полного соответ- ствия между экспериментальным исследованием живых организмов и теоретическими выводами. Одна из суще- ствующих причин, определяющих это отличие, заключает- ся в том, что реальная внешняя среда имеет ряд ограниче- ний, которые отличают ее от формального лабиринта и абстрактного автомата. Эти ограничения обеспечивают возможность более совершенных и сложных алгоритмов, используемых животными. В настоящее время проводятся исследования, в которых во внешнюю среду сознательно вносятся те или иные ограничения. Соответствующие мо- дели используются для изучения алгоритма обучения в этих условиях. Параллельно разрабатывается теория вопроса (И. М. Гельфанд, Н. А. Бернштейн, М. А. Але- ксеев, М, Л. Цетлин, Ю. Н. Кушелев, А. В. Напалков, В. Б. Свечинский). Живые организмы используют различ- ные алгоритмы. На основании алгоритмов высшего по- рядка производится общая оценка среды. Эта оценка определяет затем использование алгоритма обучения того или иного тина. 344
При алгоритмическом анализе оказывается важным не только учитывать процессы, происходящие в мозгу, но и те изменения, которые происходят в результате действия живых организмов во внешней среде. Если при проведе- нии физиологических экспериментов при включении сиг- налов в нужных комбинациях физиолога обычно не ин- тересует вопрос о том, могут ли такие сигналы возникнуть реально во внешней среде, то при алгоритмическом описа- нии оказывается необходимым анализ того, какие именно сигналы с какой степенью вероятности возникнут в ре- зультате того или иного пробного воздействия организма, почему одно пробное движение более выгодно, чем дру- гое. Таким образом, кибернетика рассматривает полный замкнутый цикл переработки информации в системе ор- ганизм — внешняя среда. При разработке этой проблемы большое значение имели работы Н. А. Бернштейна, соз- давшего новый отдел физиологии — физиологию актив- ности. Решение этих вопросов требует использования ма- тематического аппарата теории вероятностей и теории информации. Описываемый метод алгоритмического опи- сания имеет большое значение для изучения мозга. В прош- лом физиологией и психологией был выявлен ряд прин- ципов работы мозга. Однако отсутствие теории киберне- тики и метода моделирования приводило к тому, что было трудно проверить, действительно ли было дано пол- ное алгоритмическое описание работы мозга. Делались попытки сведения всех сложных форм работы мозга к этим элементарным принципам. Это было необосновано и приводило к дискредитации самого метода. Ряд принципов переработки информации был открыт, например, шк ,лой бихевиористов. Однако отсутствие методов алгоритмического описания привело к тому, что проблема анализа сложных форм работы мозга не была решена. В настоящее зремя эти недостатки устраняются ради- кальным образе..:. Любая гипотеза о механизмах обучения должна быть проверена путем создания модели. При этом возникают новые вопросы, появляется стимул для новых исследований. Т\,к, попытки создания обучающихся ав- томатов привели к новому экспериментальному изучению и к более полному алгоритмическому описанию работы мозга. Разработка этой проблемы по-новому ставит вопрос о механизмах работы мозга. В самом деле, в универсальных 12 Черныш В И. 345
машинах оказывается возможным воспроизвести любые сложные формы работы мозга, хотя они имеют относи- тельно простую конструкцию, не сравнимую по сложности со структурой мозга. Значит, механизмы сложных форм работы мозга тесно связаны с самими информационными процессами. Следует пересмотреть наше интуитивное представление, связывающее понятие механизма только с работой самих нервных клеток. Видимо, функции нерв- ных сетей мозга во многих случаях ограничиваются тем, что в них записаны алгоритмы. То же, что мы понимаем под сложными формами работы мозга, возникает только при взаимодействии организма со средой в результате пе- реработки информации по этим алгоритмам. В этом отно- шении интересно высказывание А. Н. Колмогорова, ко- торый подчеркивал, что, допуская переход количествен- ных накоплений в новое качество в неживой природе, мы часто не учитываем этого явления при анализе работы мозга. Между тем оно имеет большое значение. Действи- тельно, при переработке информации по системе отно- сительно простых правил возникают новые в качественном отношении явления, которые мы относим к разряду пси- хических. Раньше было трудно проследить, как возникает этот качественный скачок. Теперь электронное моделиро- вание позволяет воспроизвести это явление искусственно. Новые задачи и новые методики исследования опреде- ляют также необходимость новых приемов анализа полу- ченных экспериментальных данных. Как известно, анализ обычных физиологических экспериментов требует исполь- зования лишь очень простого математического аппарата. Более сложная картина возникает при изучении информа- ционных процессов. Здесь прежде всего встает проблема сопоставления результатов, полученных при использо- вании различных моделей внешней среды. Далее встает задача решения вопроса о том, действи- тельно ли данная система алгоритмов может обеспечить ту сложную форму работы мозга, которая изучается. Возникают также вопросы, какую роль играет тот или иной вскрытый в экспериментах принцип работы мозга в общей системе алгоритма? В результате каких причин и в каких условиях его использование является оправдан- ным? В чем проявляется его значение — в сокращении числа пробных действий системы управления, направлен- ных на изучение внешней среды, или в уменьшении коли- 346
чества запоминаемой системой управления информации? Какая система алгоритмов наиболее целесообразна в тех или иных условиях внешней среды и почему именно она целесообразна? Решение этих вопросов важно как для понимания ра- боты мозга (например, понимания причин, определяющих использование животными, стоящими на разных ступенях эволюции, различных алгоритмов), так и для решения вопроса об оптимальном использовании алгоритмов при создании самообучающихся автоматов. Решение всех перечисленных выше вопросов ока- зывается возможным на основе использования аппарата математической логики, теории, игр, теории вероятностей, теории алгоритмов. Конкретные пути использования можно найти в специальных работах. Приведенные выше принципы и методы алгоритмиче- ского описания оказываются актуальными при изучении процессов управления работой внутренних органов, про- цессов управления ростом и развитием, регулирования биохимических процессов. Например, при решении проблемы синтеза белка, фо- тосинтеза проблемы развития организма мы имеем также дело с решением сложных задач по управлению. В про- цессе управления участвует большое количество фермен- тов. Но основой, делающей возможной решение задачи, является, как и в других случаях, наличие алгоритма. Можно думать, что отыскание алгоритма явится тем ос- новным условием, которое позволит от сбора фактов пе- рейти к разработке теории вопроса и широко применить математический аппарат в биологии. Понятие алгоритма имеет широкое значение в природе. Возможность решения сложных задач на основе серии последовательных простых операций, видимо, играла очень большую роль при эволюции органического мира. В связи с этим анализ многих сложных явлений окажется возможным на этих путях. Обычно первый этап исследований проводится на основе изучения формирования поведения. Выявленные принципы используются затем в других областях биоло- гии. Дело в том, что изучение формирования поведения более удобно с методической точки зрения. Другой важной проблемой нейрокибернетики является выявление структуры нервной сети. 347
Один из основных выводов, который стал очевидным при создании кибернетических машин, заключается в том, что путем создания определенной системы (конструк- ции), состоящей из большого количества особым образом соединенных между собой относительно простых элемен- тов, можно воспроизвести весьма сложные формы деятель- ности автоматов. При этом определяющим моментом яв- ляется именно конструкция, принципиальная схема сети элементов, а не сами элементы. Если известна схема, то независимо от того, какие будут использованы элемен- ты — радиолампы, полупроводники или нейроны, эффект будет одинаков. В системах особым образом организованных элементов возникают совершенно новые явления. Этот вывод хорошо согласуется с основным положением диалектического материализма о переходе количествен- ных накоплений в новое качество. Вместе с тем он имеет большое значение для решения вопроса о путях изучения головного мозга. Стала очевидной справедливость идеи о том, что в основе многих сложных форм работы головного мозга, ме- ханизмы которых до сих пор не удалось раскрыть, лежит функционирование сложных, особым образом организо- ванных структур нервных элементов — нервных сетей. Только в этих системах возникают те сложные явления и способности, которые мы обычно определяем как память, обучение, мышление. Трудности в изучении мозга связа- ны, видимо, именно с тем, что существующие физиологи- ческие методы исследования не дают возможности подойти к изучению этих систем. Эта идея является весьма существенной, так как от ее справедливости будут зависеть методы изучения мозга. Если в основе сложных форм деятельности мозга лежат определенные структуры нервных сетей, то, не поняв принципов работы этих систем элементов, окажется не- возможным подойти к вскрытию механизмов работы го- ловного мозга, лежащих в основе сложных форм его дея- тельности. Становится очевидной актуальность поисков способов изучения тех структурных схем, в которые объе- диняются многие сотни тысяч нервных клеток. Нейрокибернетика решает эту проблему на путях разработки абстрактной теории, теории нервных сетей, в тесном сочетании с экспериментальным изучением моз- 348
га. Для изучения мозга важно то, что на основе исполь- зования теории автоматов оказывается возможным пред- видеть, какие новые в качественном отношении явления и свойства проявляются в тех или иных структурах, напри- мер может ли структура того или иного типа вос- принимать и запоминать различные события внешнего мира. Может быть изучен вопрос, какого типа структуры могут лежать в основе формирования систем условных реф- лексов. В настоящее время теория нервной сети разви- вается по различным направлениям. Например, была раз- работана теория «обучающихся матриц» (А. В. Нетушил, Ю. Н. Кушелев, С. Н. Брайнес, А. В. Напалков, В. Б. Свечинский, К. Штайнбух, В. Горке), которая рассматри- вает пути и принципы организации структуры, способной к самообучению. Фон Нейман, а позднее У. Мак-Каллох, А. Б. Ко- ган и др. разработали теорию структуры, обладающей большой надежностью. При повреждении одного из эле- ментов эти структуры не теряют способности к продолже- нию своей работы. Работа структуры, как целостного об- разования, не нарушается при поломке отдельных компо- нентов. В отличие от теории Фон Неймана теория структуры Мак-Каллоха не требует включения большого количества дублирующих компонентов. Разрабатываются различные модели нейронов, более близкие к реальным нервным клеткам, и изучаются те свойства, которые возникают в сетях, состоящих из таких нейронов. Разрабатывается математический аппарат, ко- торый позволяет заранее предвидеть свойства больших сетей. Соотношение разработки этой абстрактной теории с реальным изучением головного мозга можно сравнить с соотношениями, существующими между геометрией (аб- страктной наукой) и решением конкретных задач по пла- нированию земельных участков, строительству мостов и т. д. Так же, как геометрия как наука имеет свои законы развития от изучения простых явлений к все более и бо- лее сложным, так и теория нервной сети развивается в известной степени независимо от изучения мозга по своим законам, присущим этой науке. Между тем эта абстракт- ная наука оказывается весьма важной при изучении мозга. 349
Как известно, основой экспериментального исследова- ния всегда является выдвижение рабочих гипотез. Нейрокибернетика открывает новые возможности для разработки достоверных гипотез. На основании теории нервных сетей могут быть созданы гипотезы, более полно объясняющие все стороны изучаемого явления. При по- мощи метода моделирования может быть проведена про- верка достоверности гипотез. Может быть дан точный ответ на вопрос, действительно ли данная гипотеза может полностью обеспечить изучаемую форму работы мозга. После этого должна быть продумана такая серия экспе- риментов, которая может подтвердить одну из гипотез и отбросить как ложные другие. Таким образом, оказывает- ся возможным широкое использование метода создания рабочих гипотез и последующей проверки этих гипотез путем проведения специальных экспериментов. Этот метод с успехом используется в различных областях науки. Одной из предпосылок для успешного использования этого метода было проведение описанных выше исследо- ваний на так называемом «информационном уровне». Непосредственное изучение структуры нервной сети, лежащей в основе сложных психических явлений (обу- чения, формирования целесообразного поведения, реше- ния проблем и т. д.) — очень сложная проблема. Задача становится разрешимой в том случае, если мы сначала даем анализ этих сложных явлений на основании выявления системы алгоритмов. При этом выявляется полностью вся система принципов переработки информа- ции. В этом случае оказывается возможным создание плодотворных гипотез о механизмах работы головного мозга. Вторая предпосылка состоит в развитии теории нервной сети и других областей кибернетики. В самом деле, зная общие законы работы систем управления, ученые могут построить более полную и совершенную гипотезу о меха- низмах работы нервной системы. На основании теории нервной сети оказывается воз- можным создание гипотезы о том, какие структуры нерв- ных элементов лежат в основе системы выявленных ал- горитмов. В дальнейшем исследование идет на основе эк- спериментальной проверки правильности тех или иных гипотез. Гипотезы, не получившие подтверждения, от- 350
брасываются и заменяются новыми. Метод проверки гипо- тез является основным в науке. Он с успехом использует- ся, например, для изучения структурных формул хими- ческих соединений. Таким образом, изучение головного мозга разбивается на два этапа. На первом этапе дается анализ сложных форм работы мозга на основании выявления соответст- ствующих алгоритмов, лежащих в основе этого явления. Полнота научного анализа подтверждается созданием соответствующих моделей. Модель выявляет дефекты эк- спериментального исследования работы мозга и позволяет наметить перспективные пути дальнейшего изучения мозга. Затем на основе более полных данных строится новая модель. Таким образом шаг за шагом выявляется весь комплекс алгоритмов работы мозга. На втором этапе исследования дается анализ нервной сети, лежащей в основе описанных выше алгоритмов. Такой анализ оказы- вается значительно более легким, чем непосредственное изучение нервной сети, лежащей в основе сложных психи- ческих актов (способности к обучению, решению проблем и т. д.). В целом достигается полный анализ механизмов ра- боты мозга, лежащих в основе сложных форм его деятель- ности. Этот путь исследования оказывается важным и для создания кибернетических машин новых типов. Описанный путь, связанный с разделением анализа ме- ханизмов работы мозга на два этапа, хорошо согласуется с идеями И. М. Сеченова и И. П. Павлова. Как известно, И. М. Сеченов впервые высказал поло- жение о возможности научного анализа механизмов слож- ных явлений психической деятельности человека на ос- нове выявления и изучения простых принципов работы мозга (рефлекторного принципа). Другой важной идеей было утверждение о том, что этот анализ может быть успеш- ным только при рассмотрении организма в единстве с внешней средой. И. П. Павловым был разработан метод, позволяющий подойти к экспериментальному изучению этих явлений. Этот метод был связан с изоляцией организма от реальной среды и изучением его во> взаимодействии с искусственной средой. Экспериментальная среда состояла из включае- 351
мых в нужное время и в нужной последовательности сиг- налов и комплексов сигналов. Таким образом, мозг изу- чался в связи с внешним миром в условиях точного экспе- римента. После изучения простых явлений можно было перейти к более сложным. И. П. Павлов создал учение о системности в работе мозга как основе для понимания ме- ханизмов сложных форм его деятельности. И. П. Павлов, а также другие ученые вскрыли важные принципы пере- работки информации. Однако в то время отсутствовал ме- тод, позволяющий решить вопрос 0 том, действительно ли дано полное алгоритмическое описание процесса. Отсут- ствие разработанной теории изучения информационных процессов приводило к тому, что открытие новых прин- ципов носило случайный характер. Внимание ученых в основном привлекали вопросы динамики нервных про- цессов, и проблеме переработки информации не было уделено должного внимания. Между тем именно на этом пути имелись большие возможности и эта проблема в на- стоящее время стала важной проблемой кибернетики. Основные положения второго этапа в проведении исследований также хорошо согласуются с идеями И. П. Павлова. При создании той или иной гипотезы И. П. Павлов, естественно, опирался на имевшиеся в то время сведения в области техники, физики и химии. Успехи точных наук—физики и химии и возникновение кибернетики привели к возможности создания более полных и совре- менных гипотез, более точно отражающих эксперимен- тальные данные об алгоритмах работы мозга. Одним из важнейших направлений кибернетики яв- ляется разработка теории самоорганизующихся систем управления. При этом большую роль, как известно, сыг- рали исследования У. Росс Эшби, Аттли, Эндрью, Н. А. Бернштейна, А. В. Нетушила, Ю. Н. Кушелева, М. Л. Цетлина, И. М. Гельфанда и других исследовате- лей. Самоорганизующиеся системы управления обладают способностью изменять свою структуру в процессе своей деятельности. Новая структура должна обеспечивать це- лесообразное поведение организма или автомата в новых условиях внешней среды. Эта проблема непосредственно связана с изучением головного мозга, так как в процессе эволюции сформировались весьма совершенные механиз- 352
мы, обосновывающие работу мозга как самоорганизующей- ся системы. Намечаются различные пути исследования. Один из них связан с развитием теории автоматов. Изучается струк- тура элементов, способная к самоорганизации и к форми- рованию нового целесообразного поведения в новых ситу- ациях. Разрабатывается математический аппарат для описания процессов, разыгрывающихся в этих структу- рах. Для этой цели широко используется моделирование нейронов. Исследуются нервные сети, состоящие пз формальных нейронов, более близких к реальным нерв- ным клеткам, чем модель, разработанная Мак-Калло- хом и Питтсом. Наряду с этим широкое распространение получили попытки создания автоматов из сетей со случайным сое- динением элементов. Было показано, что такая структура при ее общении с внешним миром в ряде случаев постепен- но приобретает способность вырабатывать целесообразное поведение. При этом возникают новые структуры соеди- нения элементов, не предусмотренные конструктором при создании машины. Большое значение для решения проблемы самооргани- зующихся систем управления имеет учение И. П. Павлова. Принципы формирования условных режимов непосред- ственно связаны с образованием новых проводящих путей между нейронами и приводят к возникновению новых структур нервных клеток (Аттли, Эндрью, Цеманек, К. Штайнбух). Большой интерес представляют развивае- мые Н. А. Бернштейном и Н. Винером представления о том, что в основе работы самоорганизующихся систем лежат алгоритмы различных уровней. При этом центр тяжести в разработке проблемы переносится на схему информационных процессов. Другая важная проблема — это проблема опознания образов. В этой области значи- тельные успехи достигнуты в работах Ф. Розенблата, М. А. Айзермана, М. М. Бонгарда, Селфриджа и других исследователей. Разработка этой проблемы проводится в различных направлениях. Часть работ связана с изуче- нием и разработкой алгоритмов переработки информации, лежащих в основе явления опознавания образов. Другие исследования основаны на развитии теории автоматов и на создании теории статистического различения. Интересная 353
концепция, получившая название «теории компактности», была создана Э. М. Браверманом и М. А. Айзерманом. Большое значение для изучения этой проблемы имеет математический аппарат теории информации и математи- ческой статистики. На основе использования этих мате- матических методов автомат может выявить комплекс признаков, наиболее характерных для данного образа. Этот метод с успехом применяется также при установле- нии диагноза заболевания. В последнем случае также встает проблема выявления системы наиболее характерных симптомов, определяющих то или иное заболевание. После того как в автомат вводятся данные большого количества историй болезни и информация о диагнозе, машина на основе методов математической статистики выявляет признаки, наиболее характерные для того или иного за- болевания. После этого автомат, обладающий «таким опытом», оказывается способным сам устанавливать диа- гноз на основании вводимой в него информации о симпто- мах заболевания. Большие успехи достигнуты в научном анализе ряда сложных форм работы мозга, связанных с творческой деятельностью. Здесь основным методом исследования является метод анализа информационных процессов (Ньюэл, Шоу, Гелертер, Э. Файгенбаум, Саймон, М. Мин- ский, Селфридж, Маккарти, В. Райтман). При помощи метода эвристического программирова- ния удается создать автоматы, способные к принятию новых решений в сложных, неизвестных ранее автомату ситуациях, к доказательству теорем из области евклидо- вой геометрии, из области оснований математики и других областей. Оказывается возможным обеспечить выбор наи- лучшего пути поиска без просмотра всех вариантов на основании общего анализа ситуации и использования ра- нее накопленного «опыта». В этой связи большой интерес представляет научный анализ информационных процессов, лежащих в основе игры в шахматы, так как работа мозга в этом случае требует оценки различных ситуаций и выбора оптималь- ных путей решения проблемы. Достигнутые успехи сви- детельствуют о том, что удалось достаточно глубоко понять механизмы работы мозга, так как в противном случае было бы невозможно искусственное воспроизведение яв- ления в модели. Как уже говорилось, эти успехи достиг- 354
нуты именно на основе изучения информационных про- цессов мозга человека. Достижения в этой области оста- ются часто незамеченными физиологами, так как при исследовании информационных процессов ставятся цели, отличные от тех целей, которые стояли в физиологии. По- этому результаты исследования по эвристическому про- граммированию, которые формулируются обычно в виде систем правил переработки информации, реализующихся затем в виде программы для универсальных вычислитель- ных машин, не всегда в должной мере оцениваются физио- логами в связи с их необычной формой. В последнее время большое внимание привлекает проблема надежности. Известно, что в условиях неболь- шой надежности отдельных нейронов нервные сети голов- ного мозга как единое целое обладают очень большой сте- пенью надежности. При этом проявляется резкое отличие от технических устройств, в которых рост числа элементов системы приводит к быстрому падению надежности работы автомата как единого целого. В связи с этим проводятся исследования, ставящие целью выявить организацию структуры нервных сетей, обеспечивающих надежности в работе нервной системы (Фон. Нейман, Мак-Каллох, А. Б. Коган и др.). Большие исследования проводятся по созданию авто- матов, способных самостоятельно получать информацию из внешнего мира, отбирая ценную и достоверную информа- цию. Здесь встают проблемы изучения механизмов, обес- печивающих сокращение количества воспринимаемой и запоминаемой информации. Выявляются специальные ме- ханизмы работы мозга, обеспечивающие классификацию внешней информации и отбор только достоверной и нуж- ной информации (Аттли, Маккей). Большие исследования проводятся в последнее время по изучению механизмов ассоциативной памяти. При этом ставятся цели создания памяти, обеспечивающей быструю выборку нужной информации без просмотра всей ин- формации, хранящейся в запоминающем устройстве (Ю. Н. Кушелев). Нейрокибернетика помогает также в решении ряда проблем физиологии. Например, проблема локализации функции центральной нервной системы может быть решена новыми методами. На основании теории конечных автома- тов и теории нервных сетей может быть разработана 355
гипотеза по структуре нервной сети, лежащей в основе сложных форм работы мозга. При разработке такой ги- потезы возникает необходимость расчленения структуры абстрактной нервной сети на различные отделы, выпол- няющие различную функцию (теория нервных структур). Создание гипотезы поможет в анализе значения тех или иных структурных образований головного мозга. Можно уловить общие черты строения в абстрактной схеме, соз- данной на основании теоретического анализа, и в реаль- ной структуре мозга. Далее, на основе рассмотрения аб- страктной схемы можно предсказать, к каким именно изменениям в поведении приведет удаление или раздра- жение того или иного отдела. Это предположение можно затем проверить экспериментально и подтвердить тем са- мым рабочую гипотезу. Для подтверждения гипотезы могут быть использованы клинические данные, а также факты, уже известные из ранее проведенных экспериментов. Наличие совпадения в результатах, предсказанных на основе абстрактной теории и экспериментальных данных, может служить подтверждением правильности разрабо- танной гипотезы. Разработка всех указанных выше проблем нейроки- бернетики предполагает использование аппарата мате- матической логики, теории информации, теории игр и и других отделов математики. Успехи, достигнутые на пути изучения перечисленных выше проблем, приводят в настоящее время к значитель- ному прогрессу в понимании механизмов работы голов- ного мозга. Изучение процессов управления работой внутренних органов. При из- учении процессов управления работой внутренних органов оказываются важными все описанные выше методические приемы исследования нервной системы. В настоящее время становится очевидным решающее значение самоор- ганизующихся и самонастраивающихся систем управления в регуляции уровня кровяного давления, в регуляции процесса пищеварения и других функций организма. При управлении работой внутренних органов так же, как и при исследовании двигательных реакций организма, ве- дущую роль играет возникновение в процессе жизни ор- ганизма новых алгоритмов управления различных уровней (систем условных рефлексов). Ценные экспериментальные 356
данные в этом направлении, как известно, были получены К. М. Быковым, В. И. Черниговским и их учениками. Нейрокибернетика позволяет глубже подойти к изучению механизмов работы самоорганизующихся систем управ- ления работой внутренних органов. Большое значение при решении этой проблемы имеет также и механизм, связанный с опознаванием образов. При выработке антител и антитоксинов, а также при уп- равлении процессом пищеварения большое значение имеет опознание как попадающих в организм микроорганизмов, так и новых пищевых продуктов. При изучении проблемы управления работой внутрен- них органов встают две основные задачи: 1. Алгоритмическое описание процесса управления. 2. Анализ структуры нервной сети, лежащей в основе этих форм управления (исследование на микро- и ма- кроуровнях). В связи со сложностью изучения процессов управле- ния работой внутренних органов обычно возникает третья проблема — исследование и описание самого объекта управления, а также описание общего суммарного эффекта управления. Возникают трудности в проведении экспериментов по выявлению алгоритмов управления, так как не всегда оказывается возможным быстрое измерение кислотности желудочного сока, концентрации ферментов и учет других важных показателей. Методика «последовательного пере- носа опытов» от моделей к экспериментам на живых ор- ганизмах, которая, как мы говорили выше, играет боль- шую роль при изучении алгоритмов самоорганизующихся систем управления, не всегда может быть применена при исследовании работы внутренних органов. В связи с этим теоретические проблемы биологической кибернетики, на- пример проблему самоорганизующихся систем управле- ния, удобнее изучать на основе формирования двигатель- ных условных рефлекторных реакций. Полученные при этом результаты, связанные с разработкой общей теории, оказываются обычно применимыми и к анализу процессов управления работой внутренних органов. В связи с этим возникает специфика в изучении процессов управления работой внутренних органов.. Основой исследования в данном случае должно быть не выявление новых принципов переработки информации и не разработка теории нервной 357
сети, а приложение уже созданные теории к пониманию процесса управления работой тех или иных систем внут- ренних органов. Ведущую роль при этом также может играть моделирование. Процесс исследования может быть организован при этом следующим образом: а) выявляются все факты, ха- рактеризующие суммарный ход процесса и объект управ- ления; б) на основании теории информационных процессов создается гипотеза о возможных алгоритмах, необходи- мых для процесса управления данным объектом. Затем продумывается форма опыта, которая могла бы под- твердить или опровергнуть ту или иную гипотезу. На- пример, продумывается ситуация, при которой работа управляющего механизма, использующего один алгоритм, может привести к результату, отличному от результата работы системы, использующей другой алгоритм. Ре- зультат эксперимента позволит отбросить одну из гипо- тез и подтвердить другую. Большое значение может иметь также непосредственное использование математического аппарата различных разделов биологической киберне- тики. Например, знание теории самоорганизующихся и самонастраивающихся систем, а также теории автомати- ческого управления может играть большую роль в науч- ном анализе фактов, получаемых при экспериментальном изучении процесса управления работой внутренних орга- нов, позволяя глубже понять значение тех или иных наб- людаемых в эксперименте явлений и наталкивая экспери- ментатора на постановку новых опытов. В настоящее время проводятся работы по математиче- скому и электронному моделированию различных физио- логических процессов (М. Клайне, Л. А. Растригин). Эти работы позволяют ввести точные количественные методы в изучение физиологических процессов, а также выявить некоторые новые законы управления. Например, оказы- вается возможным точный расчет дозировки вводимых в организм фармакологических агентов. При анализе управления сложными биохимическими процессами большую роль может играть теория нервной сети. Как мы уже говорили, теория нервной сети позво- ляет исследовать работу систем, состоящих из большого числа взаимосвязанных простых элементов; эта теория позволяет выявить те новые в качественном отношении 358
явлении, которые возникают в системе как целостном об разовании. Работа системы взаимосвязанных и влияющих друг на друга ферментов, осуществляющих в целом управление биохимическими процессами, может быть в абстрактной форме представлена в виде причинно-следственной сети, тождественной в принципиальном отношении сети фор- мальных нейронов. 13 связи с этой прблемой приобретает большой интерес представление А. А. Маркова, который рассматривает кибернетику как науку о причинно-след- ственных сетях и разрабатывает математический аппарат, позволяющий описывать события в таких сложных систе- мах элементов. На основании теории нервных сетей может быть сделан вывод о том, как будут вести себя системы ферментов, к каким формам управления окажется способна эта система. Может быть понятно значение каждого из ферментов в этой целостной системе. Весьма вероятны случаи, когда теоретический анализ проблемы приведет к выводу о не- обходимости участия дополнительных компонентов в об- щей схеме управления. Тогда окажется необходимым проведение специальных экспериментов по обнаружению новых ферментов. При этом будет определено направле- ние поиска, что облегчит проведение экспериментов. Важной проблемой является изучение структуры нерв- ных сетей, лежащих в основе работы нервных центров и ответственных за управление работой внутренних орга- нов. Эта задача решается на основе тех же методов, что и изучение структуры нервных сетей головного мозга, ле- жащих в основе формирования систем двигательных реф- лексов и описанных нами ранее, в отделе, посвященном изучению головного мозга. Все перечисленные методы в исследовании, исполь- зующие математический аппарат кибернетики, приобре- тают решающее значение для медицины. Причины многих заболеваний тесно связаны с нарушением процесса управ- ления и с возникновением новых патологических форм управления. В связи с этим выявление основных прин- ципов работы управляющих механизмов приобретает решающее значение для медицины. На основе более полного понимания закономерностей управления могут быть рассмотрены случаи, в которых возможно нарушение систем управления. 359
Очевидно, что наибольшее значение при этом имеет изучение самоорганизующихся систем управления, так как в результате нарушений в деятельности этих систем могут возникать и стойко удерживаться новые программы управления, приводящие к патологическому отклонению в работе тех или иных органов, как это было показано спе- циальными экспериментами. Такие механизмы могут, на- пример, обеспечивать стойкое повышение уровня кровя- ного давления. При изучении причин возникновения заболеваний большое значение имеет непосредственное моделирование в электронных системах процессов развития патологиче- ских состояний. Такие работы в настоящее время уже привели к значительйым результатам. Например, Эшби была разработана новая концепция развития пси? иче- ских заболеваний. На основе описанных выше методов в настоящее время проводятся исследования в различных областях биологии и патофизиологии. Большое значение в этой связи приоб- ретает изучение механизмов развития злокачественных новообразований. Есть веские основания думать, что пато- физиологические механизмы в данном случае тесно свя- заны с нарушением регуляции .в процессе роста. В обла- сти ряда проблем биохимии, например проблемы фотосин- теза, проблемы синтеза белка, также решающее значение приобретает управление биохимическими реакциями, осуществляемое системой ферментов в живых организ- мах. Трудности в решении этой проблемы, видимо, свя- заны именно с отсутствием методов воспроизведения этой системы управления в условиях искусственного синтеза. Ряд проблем эмбриологии также непосредственно свя- зан с проблемой управления развитием организма. Имею- щийся в этом отношении фактический материал о влиянии отдельных участков тела эмбриона на формирование дру- гих отделов и о роли в процессе развития некоторых хи- мических соединений окажется несомненно более ценным, если он будет рассмотрен на базе основных положений теории управления. Большое значение процессы управления играют также в жизнедеятельности отдельных клеток организма. В этом отношении в последнее время проведено большое коли- чество исследований экспериментального характера, а также исследований, связанных с моделированием. 360
Широко известна также роль процесса кодирования и передачи информации в современной генетике. Изучение всех перечисленных выше проблем может быть более успешным при использовании новых методов биологической кибернетики. При этом решающее значе- ние имеет использование математического- аппарата, яв- ляющегося важнейшим орудием для исследования ак- туальных биологических проблем.
ПРИЛОЖЕНИЕ Таблица 1 Значения функции Лапласа Ф (х) — _Се dt Кл J о JC Ф(ж) Д1 X Ф(х) Д X Ф(ж) Д 0,00 0,0000 564 0,94 0,8209 218 1,90 0,9928 14 0,05 0,0564 561 1,00 0,8427 197 1,95 0,9942 11 0,10 0,1125 555 1,05 0,8624 178 2,00 0,9953 10 0,15 0,1680 547 1,10 0,8802 159 2,05 0,9963 7 0,20 0,2227 536 1,15 0,8961 142 2,10 0,9970 6 0,25 0,2763 523 1,20 0,9103 126 2,15 0,9976 5 0,30 0,3286 508 1,25 0,9229 111 2,20 0,9981 4 0,35 0,3794 490 1,30 0,9340 98 2,25 0,9985 3 0,40 0,4284 471 1,35 0,9438 85 2,30 0,9988 3 0,45 0,4755 450 1,40 0,9523 74 2,35 0,9991 2 0,50 0,5205 428 1,45 0,9597 64 2,40 0,9993 2 0,55 0,5633 406 1,50 0,9661 55 2,45 0,9995 1 0,60 0,6039 381 1,55 0,9716 47 2,50 0,9996 1 0,65 0,6420 358 1,60 0,9736 41 2,55 0,9997 1 0,70 0,6778 334 1,65 0,9804 34 2,60 0,9998 0 0,75 0,7112 309 1,70 0,9838 29 2,65 0,9998 1 0,80 0.7421 286 1,75 0,9867 24 2,70 0,9999 0 0,85 0,7707 272 1,80 0,9891 20 2,75 0,9999 0 0,90 0,7969 240 1,85 0,9911 17 2,80 0,9999 1 0,95 0,8209 1,90 0,9928 3,00 1,0000 1 В столбце Д даются разности последовательных значений функции Ф(х). 362
Таблица величин log2x Таблица 2 X 'og^x X Zog2x X Zog2a: 1 0,00000 35 5,12928 68 6,08746 2 1,00000 36 5,16993 69 6,10852 3 1,58496 37 5,20945 70 6,12928 4 2,00000 38 5,24793 71 6,14975 5 2,32193 39 5,28540 72 6,16992 6 2,58496 40 5.32193 73 6,18982 7 2,80735 41 5,35755 74 6,20945 8 3,00000 42 5,39232 75 6,22882 9 3,16993 43 5,42626 76 6,24793 10 3,32193 44 5,45943 77 6,26379 И 3,45943 45 5,49185 78 6,28540 12 3,58496 46 5,52356 79 6,30378 13 3,70044 47 5,55459 80 6,32193 14 3,80735 48 5,58496 81 6,33985 15 3,90689 49 5,61471 82 6,35755 16 4,00000 50 5,64386 83 6,37504 17 4,08746 51 5,67242 84 6,39232 18 4,16993 52 5,70044 85 6,40939 19 4,24793 53 5,72792 86 6,42626 20 4,32193 54 5,75489 87 6,44294 21 4,39232 55 5,78136 88 6,45943 22 4,45943 56 5,80735 89 6,47573 23 4,52356 57 5,83289 90 6,49185 24 4,58496 58 5,85798 91 6,50779 25 4,64386 59 5,88264 92 6,52356 26 4,70044 60 5,90689 93 6,53916 27 4,73489 61 5,93074 94 6,55459 28 4,80735 62 5,95420 95 6,56986 29 4,85798 63 5,97728 96 6,58496 30 4,90689 64 6,00000 97 6,59991 31 4,95420 65 6,02237 98 6,61471 32 5,00000 66 6,04439 99 6,62936 33 5,04439 67 6,06609 100 6,64386 34 5,08746 363
V98 № О\ £4 S Л № СО Таблица величин — plog2p
ЛИТЕРАТУРА 1. Александров П. С., Колмогоров А. Н. Введение в теорию функций действительного переменного. М.— Л., 1938. 2. Анохин П. К. Особенности афферентного аппарата условного рефлекса и его значение для психологии. Вопросы психоло- гии, 1955, 6. 3. А н о х и п П. К. Физиология и кибернетика. Вопросы фило- софии, 1957 , 4, 142—158. 4. А р л е й Н., Б у х К. Р. Введение в теорию вероятностей и ма- тематическую статистику. Изд-во иностранной литературы. М„ 1951. 5. А т т л и О. М. Машина условной вероятности и условные реф- лексы. В сб.: Автоматы. Под ред. К. Э. Шеннона и Дж. Мак- карти. М. Изд-во иностранной литературы, М., 1956. 6. Бартлетт М. С. Введение в теорию случайных процессов. Изд-во иностранной литературы. М., 1958. 7. БейлиН. Статистические методы в биологии. М., 1962. 8. Б е р г А. И. Кибернетику — на службу коммунизму (введе- ние. В сб.: Кибернетику — па службу коммунизму. Под ред. акад. А. И. Берга. Госэнергоиздат. М.— Л., 1961, стр. 7—33. 9. Б е р г А. И. Наука величайших возможностей (кибернетика и биология). Природа, 1962, 7, 16. 10. Берг А. И. Проблемы управления и кибернетика. В сб.: Философские проблемы кибернетики. Соцэкономиздат. М., 1961. 11. Берг А. И. Электроника и кибернетика. Известия высших учебпых заведений. Серия «Радиотехника», 1960, 3, 1, стр. 3—12. 12. Беркли Э. Символическая логика и разумные машины. Изд-во иностранной литературы, М., 1961. 13. Бе рм ант А. Ф. Курс математического анализа. Гостехиздат. М;, 1953, 1. 14. Бернштейн Н. А. Исторические истоки кибернетики и перспективы применения ее в медицине (предисловие). В кн.: В. Д. Моисеев. Вопросы кибернетики в биологии и медицине. Медгиз. М., 1960, стр. 3—24. 15. Бернштейн Н. А. Новые линии развития в физиологии и их соотношение с кибернетикой. Вопросы философии, 1962, 8, 78—87. 16. Б е р н ш т е й н II. А. Пути и задачи физиологии активности. Вопросы философии, 1961, № 6, стр. 77—92. 365
17. Биологические аспекты кибернетики. Сборник работ. Изд. АН СССР. М., 1962. 18. Б л е к у э л л Д. и Г и р ш и к М. А. Теория игр и стати- ческих решений. Изд-во иностранной литературы. М., 1958. 19. Б о е в Г. И. Теория вероятностей. Физматгиз. М.— Л., 1950. 20. Б о я р с к и й А. Я. Математика для экономистов. Госстатиз- дат. М., 1961. 21. Б р а й н е с С. И. Нейрокибернетика. В сб.: Кибернетику —на службу коммунизму. Под ред. акад. А. И. Берга. Госэнерго- издат. М.— Л., 1961, стр. 140—153. 22. Б р а й н е с С. Н., Напалков А. В. Некоторые вопросы теории самоорганизующихся систем. Вопросы философии, 1959, 6, 148—152. 23. БрайнесС.Н.,Напалков А. В.,СвечинскийВ. Б. Ученые записки (проблемы нейрокибернетики). Изд. АМН СССР. М., 1959. 24. Брайнес С. Н., Напалков А. В., Свечинский В. Б. Нейрокибернетика. Медгиз, 1962. 25. Бриллюэн Л. Наука и теория информации. Перев. с англ. Физматгиз. М., 1960. 26. БусленкоН. П., Голенко Д. И., СобольИ. М., Сра- г о в и ч В. Г., Ш н е й д е р Ю. А. Метод статистических ис- пытаний. Физматгиз. М., 1962. 27, Бурмистров Г. А. Основы способа наименьших квадратов. М., 1963.. 28. Васильев Р. Р., Ш а ст о в а Г. А. Передача телемеханиче- ской информации. М. — Л., 1961. 29. В е н т ц е л ь Е. С. Теория вероятностей. Физматгиз. М., 1962. 30. Вентцель Е. С. Элементы теории игр. Физматгиз, 1961. 31. Вильямс Дж. Д. Совершенный стратег или Букварь по теории стратегических игр. Изд-во «Советское радио». М., 1960. 32. В и н е р Н. Кибернетика. Перев. с англ. Изд-во «Советское радио». М., 1958. 33. Воробьев Н. Н. Математическая теория игр. Л., 1963. 34. В о р о н и н Л. Г., Н а п а л к о в А. В. Методические прие- мы образования сложных систем двигательных рефлексов у животных. Журнал высшей нервной деятельности, 1959, т. 1, в. 5. 35. В о р о н и н Л. Г., Н а п а л к о в.А.. В. К методике изучения высшей нервной деятельности человека-.- Доклады АПН РСФСР, 1960, № 2. 36. Варшавский В. И. О математической теории нейронных сетей. В сб.: Тезисы докладов третьего совещания по приме- нению математических методов в биологии. Изд-во ЛГУ. Л., 1961. 37. Воскресенский А. Д. иПрохоровА. И. Проблемы кибернетики в биологических науках. В сб.: Кибернетику — на службу коммунизму. Под ред. акад. А. И. Берга. Госэнерго- издат. М.— Л., 1961, стр. 107—140. 38. Гаазе-Рапопорт М. Г. Автоматы и живые организмы. Физматгиз. М„ 1961. 39. Г а с с С. Линейное программирование. Физматгиз, М., 1961. 366
40. Глезер В. Д. и Ц у к к е р м а и И. И Информация и зре- ние. Изд. АН СССР. М.— Л., 1961. 41. Г л ушко в В. М. Синтез цифровых автоматов. Физматгиз. М., 1963. 42. ГмурманВ. Е. Введение в теорию вероятностей и матема- тическую статистику. Изд-во «Высшая школа». М., 1963. 43. Г н е д е н к о Б. В. Курс теории вероятностей. Физматгиз. М., 1961. 44. Гнеденко Б. В. Математика. МСЗ, 1959, 5, 1018— 1023. 45. Г н е д е н к о Б. В. Некоторые вопросы кибернетики и стати- стики. В сб.: Кибернетику — на службу коммунизму. Под ред. акад. А. И. Берга. Госэнергоиздат. М.— Л., 1961, стр. 55—71. 46. Г н е д е н к о Б. В., X и н ч и н А. Я. Элементарное введение в теорию вероятностей. Физматгиз. М., 1961. 47. Г о л д м а н С. Теория информации. Изд-во иностранной лите- ратуры. М., 1957. 48. Г р а н д ш т е й н И. С. Прямая и обратная теорема. Физматгиз. М., 1959. 49. Гренадер У. Случайные процессы и статистические вы- воды. Изд-во иностранной литературы. М., 1961. 50. Г у р е в и ч Б. X. Кибернетика и некоторые вопросы современ- ной физиологии нервной системы. Вестник АН СССР, 1957, 9, 31—39. 51. Г у р е в и ч. Б. X. «Разумные» автоматы и высшие функции мозга. Вопросы психологии, 1959, 4, 3—15. 52. Д о г а н о в с к и й С. А. Автоматические самонастраиваю- щиеся системы. Изд-во «Знание». М., 1961. 53. Д о л у х а н о в М. П. Введение в теорию передачи информа- ции по электрическим каналам связи. М., 1955. 54. Д о б р у ш и н Р. Л. и X у р г и н Я. И. Вопросы теории ин- формации. В сб.: Кибернетика на службу коммунизму. Под ред. акад. А. И. Берга. Госэнергоиздат. М.— Л., 1961, стр. 71—80. 55. Дуб Дж. Л. Вероятностные процессы. Изд. иностранной лите- ратуры. М., 1956. 56. Е р ш о в А. П. Операторные алгоритмы. В сб.: Проблемы ки- бернетики. Физматгиз. М., 1958, 3, 5—48. 57. Жинкин Н. И. Механизмы речи. М., 1959. 58. Ивахненко А. Г. Техническая кибернетика. Киев, 1962. 59. Калужнин Л. А. Об алгоритмизации математических задач. В сб.: Проблемы кибернетики. Физматгиз, 1959, 2, 51—68. 60. Кальбертсон Дж. Т. Некоторые неэкономичные работы. В сб.: Автоматы. Под ред. К. Э. Шеннона и Дж. Маккарти. Изд-во иностранной литературы, М., 1956, стр. 140—162. 61. К а с т л е р Г. Азбука теории информации. В сб.: Теория информации в биологии. Перев. с англ. Изд-во иностранной литературы, М., 1960, стр. 8-65. 62. Кибернетика и жизнь. Экономическая газета, 12 июня 1960 г. 63. КильбернТ., Гримсдейл Р. Л.,Самнер Ф. Г. Экс- перименты с обучающейся и мыслящей машиной. Кибернетиче- ский сборник, 1962, 4, 183. 367'
64. Китов А. И., К р и н иц к ий Н. А. Электронные цифровые машины и программирование. Физматгиз. М., 1961. 65. К л и п и С. К. Представление событий в нервных сетях и ко- нечных автоматах. В сб.: Автоматы. Под ред. К. Э. Шеннона и Дж. Маккарти. Изд-во иностранной литературы. М., 1956, стр. 15—67. 66. К л и ни С. К. Введение в метаматематику. Изд-во иностранной литературы. М., 1957. 67. Колмогоров А. Н. Теория передачи информации. Изд. АН СССР. М., 1956. 68. К о л м о г о р о в А. Н. Кибернетика. МСЭ, 1959, 4, 715— 719. 69. К о с с а П. Кибернетика. Перев. с франц. Изд-во иностранной литературы. М., 1958. 70. К р а й з м е р Л. П. Бионика. Госэнергоиздат, М. — Л., 1962. 71. К р а м е р Г. Математические методы статистики. Изд-во ино- странной литературы. М., 1948. 72. Л е д л и Р. С. и Л а с т е д Л. Б. Объективные основания диагноза. В кн.: Кибернетический сборник. Изд-во ино- странной литературы. М., 1961, 2 , 5—40. 73. Леонтович А. В., Григорьев Г. А., Мандзюк А. И. Вариационная статистика. М., 1935. 74. Лузин Н. Н. Теория функций действительного переменного. Учпедгиз. М., 1948. 75. Л э н и н г Дж. X., Б е т т и н Р. Г. Случайные процессы в задачах автоматического управления. Изд-во иностранной литературы, М., 1958. 76. ЛяпуновА. А. О логических схемах программ. В сб.: Проблемы кибернетики. Физматгиз. М., 1958, 1,46—74. 77. ЛяпуновА. А. О некоторых общих, вопросах кибернетики В сб.: Проблемы кибернетики. Физматгиз. М., 1958, 1, 5—22. 78. Л ь ю с Р. Д., Райфа Х.‘ Игры и решения. М., 1961. 79. М а к-К аллох У. С., Питтс В. Логическое исчисле- ние идей, относящихся к нервной активности. В сб.: Автоматы. Под ред. К. Э. Шеннона и Дж. Маккарти. Изд-во иностран- ной литературы. М., 1956, 362—384. 80. М а к к е й Д. М. Проблема образования понятий автоматами. В сб.: Автоматы. Под ред. К. Э. Шеннона и Дж. Маккарти. Изд-во иностранной литературы. М., 1956 , 306— 325. 81. Мак-Кинси Дж. Введение в теорию игр. Физматгиз. М., 1961. 82. М а л о в В. С. Телемеханика.'Госэнергоиздат. М. — Л., 1960. 83. М а р к о в А. А. Логика математическая. БСЭ, 1954, 25, 338—341. 84. Марков А. А. Математическая логика и вычислительная математика. Вестник АН СССР, 1957, 8, 21—25. 85. Матричные игры. Сборник статей под ред. Н. Н. Воробьева. М., 1961. 86. М и д д л т о н Д. Введение в статистическую теорию связи. Пе- рев. с англ. Изд-во «Советское радио». М., 1961. 87. Митропольский А. К. Техника статических вычисле- ний. Физматгиз. М., 1961. 88. Моисеев В. Д. Вопросы кибернетики в биологии и меди- цине. Медгиз. М., 1960. 368
89. Напалков А. В. Изучение принципов переработки информа- ции головным мозгом. В сб.: Кибернетику — на службу ком- мунизму. Под ред. акад. А. И. Берга. Госэнергоиздат. М.— Л., 1961, 153—172. 90. Напалков А. В. Некоторые принцицы работы головного мозга. В сб.: Проблемы кибернетики. Физматгиз. М., 1960, 4, 183—196. 91. Н а п а л к о в А. В. Цепи двигательных условных рефлексов у голубей. Журнал высшей нервной деятельности, 1959, т. IX, в. 4. 92. Н а п а л к о в А. В. Физиологический анализ некоторых слож- ных форм поведения. Вопросы психологии, 1961, № 6. 93. Напалков А. В., ШтильманЕ. В. Изучение сложных форм аналитико-синтетической деятельности головного мозга. Вестник МГУ, 1959, в. 3. 94. Нейман Дж. Вычислительная машина и мозг. В кн.: Кибернетический сборник. Изд-во иностранной литературы. М., 1960, 1, 11—60. 95. Н о в и к И. Б. Негэнтропия и количество информации. Во- просы философии, 1962 , 6, 118—128. 96. Н о в и к о в П. С. Элементы математической логики. Физмат- гиз. М., 1959. 97. О ч а н Ю. С., Шнейдер В. Е. Математический анализ. Учпедгиз. М., 1961. 98. Павлов И. П. Полное собрание сочинений. Медгиз, 1956. 99. П а р и н В. В. Кибернетика в физиологии и медицине. Вопроси философии, 1961, 10, 92—104. 100. П а р и н В. В. Математика физики (идеи кибернетики в био- логии и медицине). Природа, 1962, 7, 22. 101. Петер Р. Рекурсивные функции. М., 1954. 102. Плохинский Н. А. Биометрия. Изд-во Сибирского от- деления АН СССР. Новосибирск; 1961. . : 103. Подтягин М. Е. Краткий курс высшей математики. Сельхозгиз. М., 1961. 104. Полетаев И. А. Сигнал. Изд-во «Советское радио». М., 1958. 105. Попов А. И. Введение в математическую логику. Изд-во ЛГУ. Л., 1959. " 106. Прохоров А. И/ Бионика. М., 1963. 107. Принципы построения самообучающихся систем; Сборник статей. Гостехиздат УССР. Киев, 1962. 108. Проектирование машин, имитирующих поведение человеческо- го мозга. Симпозиум. В кн.: Кибернетический сборник. Изд- во иностранной литературой. М., 1960, 1, 61—98. 109. Процессы регулирования в биологии. Перев. с нем. Сборник. Изд-во иностранной литературы. М., 1960. НО. Пугачев В. С. Теория случайных функций и ее примене- ние к задачам автоматического управления. Физматгиз. М., 1960. 111. Применение математических методов в биологии. Сбор- ник. Изд-во ЛГУ, 1960 и 1963. 112. Рапопорт А. Количественная оценка работы при решении логических задач с неопределенностью. Теория информации в биологии. Изд-во иностранной литературы. М., 1960, стр. 224. 369
413. Регуляция клеточного обмена. М., 1963. 114. Р е й м о н Ф. Автоматика переработки информации. Иерев. с франц. Физматгиз. М., 1961. 415. Розенблат Ф. Обобщение восприятий по группам пре- образования. Кибернетический сборник .№ 4. Изд-во иностран- ной литературы, 1962, стр. 151. 116. РокицкийП. Ф. Основы вариационной статистики для биологов. Минск, 1961. 417. Румшиский Л. 3. Элементы теории вероятностей. Физматгиз. М., 1960. 418. Савинов Р. В. Электрическое моделирование гомеоста- тических систем. В сб.: Проблемы кибернетики. Физматгиз. М., 1960, 4, 37—44. 419. Свешников А. А. Прикладные методы теории случайных функций. Суднромгиз. Л., 1961. 120. СеверцовС. А. Проблема экологии животных. М., 1951. 421. Сисакян Н. М. На новом этапе. Природа, 1962, 7, 13—21. 422. Смирнов Н. В., Дуни н-Б арковский И. В. Краткий курс математической статистики для технических приложений. Физматгиз. М., 1959. 123. Снедекор Дж. У. Статистические методы в применении к исследованиям в сельском хозяйстве и биологии. М., 1961. 424. Соболев С. Л., Ляпунов А. А. Кибернетика и есте- ствознание. Вопросы философии, 1958, 5, 127—138. 425. Соболев С. Л., Ляпунов А. А. Математические про- блемы современной кибернетики. Известия Сибирского отде- ления АН СССР, 1961, 5, 3—13. 426. Солодовников В. В. (ред.). Автоматическое управле- ние. Сборник статей. Изд. АН СССР. М., 1961, стр. 13. 427. Солодовников В. В. Кибернетика, автоматика, проблема автоматического управления и управляющие машины. В сб.: Применение вычислительной техники для автоматизации про- изводства. Машгиз. М., 1961, стр. 7—19. 428. Субботин А. Л. Математическая логика — ступень в развитии формальной логики. Вопросы философии, 1960, 9, 93—99. 429. Субботин А. Л. Что дает нам знание формальной логики. Вопросы философии, 1961, 4, 142—150. 130. Темников Ф. Е. Автоматические регистрирующие при- боры. Машгиз. М., 1960. 131. Теория информации и ее приложения. Сборник переводов. Физматгиз. М., 1959. 432. Теория передачи сообщений. Сборник. Перев. с англ. Изд-во иностранной литературы. М., 1957. 133. Толстов Г. П. Курс математического анализа. Гостехиз- дат. М., 1957. 434. Трапезников Б. А. Кибернетика и автоматическое уп- равление. Природа, 1962, 4, 27—34. 135. Трахтенброт Б. А. Алгоритмы и машинное решение задач. Физматгиз. М., 1960. 136. У и д р о у Б. Скорость настройки в системах управления. Ракетная техника (русский перевод), 1962, 9, 78—89. 137. Урбах В. Ю Математическая статистика для биологов и медиков. Изд. АН СССР. М., 1963. 370
138. Успенский В. А. Лекции о вычислимых функциях. Физматгиз. М., 1960. 139. Файнстейн А. Основы теории информации. Перев с англ. Изд-во иностранной литературы. М., 1960. 140. Феллер Ф. Введение в теорию вероятностей и ее прило- жения. Изд-во иностранной литературы. М., 1952. 141. Фельдбаум А. А. Вычислительные устройства в автома- тических системах. Физматгиз. М., 1959. 142. Фихтенгольц Г. М. Основы математического анализа. Гостехиздат. М., 1, 1960. 143. Фролов Н. А. Теория функций действительного перемен- ного. Учпедгиз. М., 1961. 144. ХаркевичА. А. Опознание образов. Радиотехника, 1959, 14, 5, 12—22. 145. Харкевич А. А. Очерки общей теории связи. М., 1955. 146. Хилл Бредфорд А. Основы медицинской статистики. Медгиз. М., 1958. 147. Хилтон А. М. Логика и цепи переключений.Перев. с англ. Госэнергоиздат. М. Л., 1962. 148. X и л ь м и Г. Ф. Теория информации и экология животных. Вопросы философии, 1957, 4, 168—172. 149. ХинчинА. Я. Об основных теоремах теории информации. Успехи математических наук, 1956, 11, 1, 17—75. 150. Черч А. Введение в математическую логику. Изд-во ино- странной литературы. Т. 1. М., 1960. 151. Шеннон К. Статистическая теория передачи электрических сигналов. В сб.: Теория передачи электрических сигналов при наличии помех. Изд-во иностранной литературы. М., 1953, стр. 7—87. 152. Ш а л ю т и н С. М. Алгоритмы и возможности кибернетики. Вопросы философии, 1962, 8, 78—87. 153. Шмальгаузен И.И. Естественный отбор и информация. Известия АН СССР, серия биологическая, 1960, 1, 19—38. 154. Шмальгаузен И. И. Наследственная информация и ее преобразования. Доклады АН СССР, 1958 , 20, 187—190. 155. Шмальгаузен И. И. Регулирующие механизмы эволю- ции. Зоологический журнал, 1958, 37,-9, 1291—1305. 156. Э н д р ь ю А. М. Системы регулирования с автоматической оптимизацией параметров и некоторые принципы более со- вершенного обучения машин. Первый международный кон- гресс по автоматическому управлению в Москве. ИФАК, 1960. 157. Эшби У. Росс. Введение в кибернетику. Изд-во иностран- ной литературы. М., 1959 158. Эшби У. Росс. Конструкция мозга. Изд-во иностранной литературы. М., 1962. 159. Эшби У. Росс. Схема усилителя умственных способностей. В сб.: Автоматы. Изд-во иностранной литературы, 1956. 160. Юл Дж. Э. и Кендэл М. Дж. Теория статистики. Гос- статиздат. М., 1960. 161. Яблонский С. В. Основные понятия кибернетики. В сб.: Проблемы кибернетики, 1959, 2, 7—38. 162. ЯгломА. М. иЯглом И. М. Вероятность и информация. Физматгиз, М., 1960. 163. Я г л о м И. М. Теория информации. Изд-во «Знание». М., 1961. 371
164. Янов Ю. И. О логических схемах алгоритмов. В сб.: Про- блемы кибернетики. Физматгиз. М., 1958, 75—127. 165. Defares J. G., Sneddon. An Introduction to the ma- thematics of medicine and biology. Amsterdam, 1960. 166. Farley B. G.,Clark W. A. Simulation of self-organized system by digital computer. IRE Thans., 1954, PGIT-4, IX 76. 167. Moran P. A. P. The stasistical processes of evolutionary theory. Oxford, 1962. 168. Rochester N., Holland J. H., Habit L. H. Test a call assembly theory of the action of the brain. IRE Transac- tion on information theory, 1956, v. I, sep. 3. 169. Steel R. G. D., T о r r i e J. H. Principles and procedures of statistics with special reference to the biological sciences. N. Y., Toronto, London, 1960.
СОДЕРЖАНИЕ Предисловие. О перспективах математики в биокибернетике 3 Введение. Роль математического аппарата биологической кибер- нетики в биологии и медицине............................31 Глава 1. Теория множеств. Функции............................37 1. Множества...........................................37 2. Мощность множества. Кардинальные числа..............42 3. Операции над множествами........................... 44 4. Количественные зависимости между явлениями ... 46 5. Функции.............................................49 6. Способы задания функции..................'. . . 55 7. Изоморфные системы..................................60 Глава 2. Вероятности.........................................63 1. Случайные события. Методы изучения............63 2. Частота. Вероятность..........................69 3. Достоверные и невозможные события.............72 4. Сложение вероятностей.........................74 5. Полная система событий. Равновероятные события 76 6. Условные вероятности..........................79 7. Умножение вероятностей........................83 8. Формула полной вероятности....................89 Глава 3. Случайные величины..................................93 1. Случайная величина............................93 2. Функция распределения.........................96 3. Среднее значение (математическое ожидание) . . . 107 4. Среднее квадратическое уклонение и дисперсия 112 5. Закон больших чисел..........................118 6. Типичные законы распределения вероятностей . . . .119 7. Экспериментальное определение законов распреде» ления. Математическая статистика .................127 8. Способы оценки погрешностей (ошибок) измерения . . 138 Глава 4. Элементы математической логики...............144 1. Метод формализации...........................144 2. Операции алгебры логики......................149 3. Исчисление предикатов........................157 4. Нервные сети Клини...........................162 373
Глава 5. Элементы общей теории связи..................169 1. Управление и связь........................... 169 2. Система связи.................................172 3. Сообщения.....................................175 4. Сигнал........................................176 5. Кодирование. Модуляция........................182 6. Линия и канал связи...........................192 Глава 6. Теория информации............................197 1. Информационная емкость........................198 2. Количество информации. Энтропия...............204 3. Избыточность..................................212 4. Пропускная способность..........................224 5. Статистические коды..............................226 6. Действие помех..................................248 7. Пропускная способность при наличии помех .... 252 8. Помехоустойчивые коды...........................259 9. Биологические системы связи .....................270 Глава 7. Алгоритмы..................................274 1. Алгоритмы...................................274 2. Машина Тьюринга.............................282 3. Методы изучения управляющих алгоритмов.......288 4. Алгоритмы биологических систем управления . . 297 5. Алгоритмы взаимодействующих управляющих систем. Теория игр......................................304 Глава 8. Изучение управления в живых организмах . . 332 Приложение. Таблицы..................................362 Литература...........................................370
Черныш Владимир Иванович Напалков Анатолий Викторович МАТЕМАТИЧЕСКИЙ АППАРАТ БИОЛОГИЧЕСКОЙ КИБЕРНЕТИКИ Редактор Н. А. Бернштейн Технический редактор М. М. Матвеева Корректор М. X. Хабусева Переплет художника С. Н. Невского Сдано в набор 15/П 1964 г. Подписано к печати 24/VII 1964 г. Формат бумаги 84x108'^ = 11,75 печ. л. (условных 19,27 л.), 18,81 уч.-изд. л. Тираж 5000 акз. Т-10558 МН—71 Издательство «Медицина». Москва, Петровериг- ский пер., 6/8 Первая Образцовая типография имени А. А. Жданова Главполиграфлрома Государственного комитета Совета Министров СССР по печати Москва, Ж-54, валовая, 28. Заказ 1328. Цена 1р. 14 к. Отпечатано с готовых матриц в областной типографии1 Т- Калинина,