БИОМЕТРИКА: БИОМЕТРИКА-2000
 

 РАЗВИТИЕ КОНЦЕПЦИЙ ИНФОРМАЦИИ 
В КОНТЕКСТЕ БИОЛОГИИ.

Л.В. ПОПОВ, А.Е. СЕДОВ, С.В. ЧУДОВ

I.  ПОИСКИ МЕЖДИСЦИПЛИНАРНОЙ МЕТОДОЛОГИИ:
ИСТОРИЯ И СОВРЕМЕННОСТЬ.

 Как изменялось понятие “информация” в разные периоды развития биологии и в разных ее контекстах?  Как достижения различных биологических наук обогащали это понятие и как, в свою очередь, результаты других наук расширяли и углубляли содержание понятия “информация” и методы ее количественных оценок  и этим  способствовали проникновению информационного подхода в биологию? 

 Различные исследователи  предлагали как разные  словесные  определения, так и  разные количественные меры информации. Анализ истории термина «информация» позволяет глубже понять некоторые  современные аспекты и разночтения его употребления.  Это латинское слово означает: «придание формы, свойств». В XIY веке так называли божественное «программирование» - вложение души и жизни в тело человека. Согласно легенде, в XYI веке эта прерогатива Бога была присвоена рабби Левом, в пражском гетто создавшим глиняного «робота» - Голема, который «оживал» всякий раз, когда хозяин  вкладывал ему под язык «программу»- текст с именем Бога (шем). Примерно в это же время слово «информация» стало означать и передачу знаний с помощью книг. Таким образом, смысл этого слова смещался от понятий «вдохновение», «оживление» к понятиям «сообщение», «сюжет». И рамками лишь двух последних понятий пытались ограничить развитие информационных концепций те советские философы, которые были противниками кибернетического подхода к естественнонаучным и гуманитарным проблемам. 

 Сейчас мы говорим, что получаем информацию (сведения), когда узнаем что-либо о событии, результат которого не был предопределен; и  чем более ожидаемым - вероятным - является событие, тем меньше информации мы получаем. На таких рациональных представлениях о том, как уменьшается неопределенность при получении тех или иных сведений, и базируются научные  концепции информации и количественные (вероятностные) меры ее оценки. 

    Первыми работами в этом направлении считают статьи Р. Хартли (1928 г.) [1] для равновероятных событий и К. Шеннона (1948 г.) [2] для совокупностей событий с различными вероятностями. И, хотя нельзя не отметить, что еще в 1933 г. появилась работа нашего соотечественника В.А. Котельникова  о квантовании электрических сигналов, содержавшая знаменитую “теорему отсчетов”[3], в мировой научной литературе считается, что именно 1948 г. – это год зарождения теории информации и количественного подхода к информационным процессам. 

    Появление этих работ было обусловлено стремительным развитием технических средств связи и необходимостью измерения “объемов” (количеств) передаваемых сведений. Теория информации возникла в недрах теории связи - как ее аппарат и  фундамент. Это отражено уже в названии основополагающей статьи К. Шеннона - «Математическая теория связи». При этом сам Шеннон был против распространения его подхода на другие научные направления: он писал о специфике задач связи, о трудностях и  ограничениях своей теории. 

     Однако следующие три десятилетия  стали периодом широчайшей экспансии теоретико-информационных представлений -  развития как  собственно теории информации, так и ее разнообразнейших приложений, благодаря которым сформировалась  настоящая общенаучная – философская – информационная парадигма. Вовлеченными в этот процесс оказались и “чистые” математики, и кибернетики, и специалисты по теории систем, и физики, химики, биологи (работы  которых мы и рассмотрим в данном цикле публикаций), и представители практически всех гуманитарных наук –  лингвисты,  психологи, социологи и философы. 

    Для этого “взрыва” были определенные предпосылки, сформированные развитием  физики. Математическое выражение для количества информации, введенное Р.Хартли и обобщенное К.Шенноном, - «копия» знаменитой формулы Л. Больцмана для физической энтропии системы. Это «совпадение»  далеко не случайно - оно  свидетельствовало о каких-то глубинных общностях. Потребовалась универсальная мера гетерогенности систем, которая позволила бы сравнивать их сложность и многообразие.  И в  дальнейшем эта мера использовалась как в термодинамике (в моделях идеального газа), так и в биологии (при анализе смысла генетических текстов, развития организма, работы нервной системы, экологической сукцессии и эволюции). 

   Проникновение термодинамических представлений в теоретико-информационные исследования привело  к переосмыслению работ классиков термодинамики и статистической физики. В публикациях того периода упоминаются работы П. Лапласа, Р. Майера, Д.Джоуля, Г. Гельмгольца, С. Карно, Р. Клаузиуса, Дж. Томпсона, Нернста, Дж. Гиббса, Л. Больцмана, Дж. Максвелла и Л. Сцилларда и других физиков. Но вместе с этими именами вернулись и соответствующие проблемы и парадоксы (например, «демон Максвелла»). 

   Представления термодинамики и статистической физики создатели теории информации стремились расширить до ранга общесистемных моделей. Своеобразным этапом в этом процессе стали работы Л. Бриллюэна [4], который на основе введенного им «негэнтропийного принципа» обосновал связь понятия количества информации с понятием физической энтропии.  Пользуясь современными терминами, отметим, что предметом  не только этих первых, но и большинства более поздних теоретико-информационных работ была лишь  “микроинформация” - информация, которую  система  не запоминает и которая является мерой разнообразия возможных микросостояний, определяющих данное макросостояние  системы. 

     Развитие теоретических термодинамических представлений привело, в частности, к выводам об возможности построения статистической - как равновесной, так и неравновесной - термодинамики на базе теории информации [5], а впоследствии -  и к построению (в том числе и на базе экспериментов) термодинамической теории информационных процессов, в которой установлены связи между информационными и энергетическими характеристиками [6]. По существу другой, дополнительный подход к понятию информации - подход кибернетический, охватывающий структуры и связи  систем. В 1936 году А.Тьюринг и Э.Пост независимо друг от друга разработали концепцию “абстрактной вычислительной машины”. Затем  А.Тьюринг описал гипотетический универсальный преобразователь дискретной информации (“машину Тьюринга”).  Н. Винер  в 1941 году опубликовал свой первый труд об аналогиях между работой математической машины и нервной системы живого организма, а в 1948 году -   фундаментальное исследование “Кибернетика, или Управление и связь в животном и машине” [7]. На необходимость двух принципиально различных подходов к построению теории информации указывал Дж. фон Нейман, отмечавший, что вероятностно-статистический и кибернетический подходы необходимы для информационного описания двух разных процессов (систем) – статистических и динамических

   Следует отметить, что важную роль в развитии  теории информации сыграли  математические исследования:  работы А.Н. Колмогорова [8] и его школы   привели  к новым определениям понятия количества информации -  не только вероятностному, но и комбинаторному и  алгоритмическому.  Алгоритмическое количество информации рассматривалось как минимальная длина программы (сложность), позволяющая однозначно преобразовывать одно множество в другое.  Эти подходы позволили весьма расширить круг конкретных задач, в частности - вовлечь во многие биологические  исследования мощь электронно-вычислительной техники. 

    Понятие информации отнюдь не случайно оказалось ключевым для наиболее быстро развивающихся дисциплин – как общенаучных (общей теории систем, семиотики, синергетики), так и специальных (молекулярной генетики, нейробиологии, теории эволюции, экологии, лингвистики, психологии, теории связи и многих других). Полагали, что теория информации поможет разрешить узловые проблемы гуманитарных, естественных и технических наук.  К этой позиции привели кризис механистического мировоззрения, всеобщая тяга к математизации науки, а также  понимание того, что гуманитарные и естественные науки все еще не столь строги и прогностичны, как бурно прогрессировавшая  теоретическая физика и ее технические приложения. Нужна была новая междисциплинарная методология, на которую возлагались очень большие ожидания. 

   Биологи воспринимали  шенноновскую теорию информации как спасительный маяк, освещавший путь к созданию теоретической биологии – столь же строгой и общезначимой, как теоретическая физика[9]. Эти надежды были вызваны бурными успехами как  зарождавшейся кибернетики, так и экспериментально-аналитических исследований сразу в нескольких разделах биологии. Именно полвека назад, в 1948 г., когда были созданы концепции кибернетики и основы математического аппарата общей теории информации, к анализу систем, сходных с модельными объектами этих теорий, но нерукотворных – существующих в организмах миллиарды лет – подошли две различных ветви экспериментальной биологии – генетика и нейрофизиология. 

   Развитие генетических представлений Г. Менделя в теории Т. Моргана о локализации генов в хромосомах (1912 г.), работы Г. Дейла  о механизмах передачи электрохимического импульса в нейронах (1929 г.) и созданная Л.Берталанфи теория биологических объектов как открытых систем   (1932 г.) к середине нашего века  привели к  исследованиям  разнообразных материальных носителей биологической информации. В 1947 г. О. Эвери, К. Мак-Леод и М. Мак-Карти доказали роль ДНК в наследственности у бактерий; в 1949 г. Э. Чаргафф определил правила соотношений нуклеотидов в ДНК – основы понимания ее первичной структуры и функций. В 1946-49 гг. Р. Джерард с сотрудниками разработали микроэлектродную технику анализа проведения импульсов в отдельных нейронах. Изначально как информационные макромолекулы (ДНК, РНК, белки), так и нейронные пути передачи сигналов рассматривались как полные аналоги рукотворных объектов – соответственно текстов и каналов связи. 

    Биологические системы сразу же стали очень перспективными объектами для кибернетики. С одной стороны, это – физические, материальные объекты, доступные разным методам экспериментальных исследований, воспроизводимые (и даже самовоспроизводящиеся).  С другой стороны – управление и информационный обмен являются важнейшими характеристиками поведения этих систем. Появление математических моделей и теорий управления и информационного обмена, общих для биологических и технических систем  - а именно так понимал кибернетику Н. Винер - позволяло рассчитывать на математизацию  биологии,  на  построение теоретической биологии по образу и подобию теоретической физики. 

   Тем самым физикализм и редукционизм оказались у самих истоков новой, еще не вполне ясно очерченной научной дисциплины – биофизики. Биологией занялись многие иследователи, получившие фундаментальное физическое или математическое образование и имевшие, как выразился И.М. Гельфанд, «прометеев комплекс» – стремление осветить тайны живого. И действительно, они были энтузиастами, уверенными в неисчерпаемых возможностях применения кибернетических подходов в биологии. 

   Международные конференции и симпозиумы по теории информации регулярно проходили с начала 1950-х гг. в Англии, Италии, США, а впоследствии – и в Германии, Канаде, Чехословакии. Организатором, председателем и редактором материалов некоторых из них – посвящЈнных применению теории информации в биологии (в 1953 и 1956 гг.) и в психологии (в 1954 г.) – был Г. Кастлер [10,11]. К середине 1950-х гг. теорией информации были “охвачены” разнообразные проблемы биологии: кодирование белков в ДНК, структурные изменения белков, проводимость нервов и мембран, работа иммунной системы, морфогенез клеточных органелл и модельных систем, разрушение белков и вымирание особей при старении и лучевых поражениях, зрительная перцепция, решение логических задач человеком [11]. В 1963 г. объектами теоретико-информационного анализа стали также открытый к тому времени  ДНК-белковый код, экологические модели, нейро- и психофизиологические феномены [12]. В 1966 г. состоялся 1-й симпозиум по теоретической биологии, “пронизанный” информационными проблемами и моделями, под руководством известного эмбриолога и генетика К. Уоддингтона; в нем участвовали крупнейшие биологи, а также математики, физики и химики [9]. 

   “Классическая” шенноновская теория информации позволяет измерять информацию текстов и сообщений, исследовать и разрабатывать приемы ее кодирования в передатчике и декодирования в приемнике, измерять пропускную способность канала связи между ними, вычислять уровень шума в канале и минимизировать его воздействия. Развитие кибернетики и теории информации как одного из ее разделов были обусловлены с представлениями о различных системах как об ориентированных графах  - блок-схемах из элементов, соединенных связями; термодинамическую негэнтропию - информацию - рассматривали как «наполнитель» этих элементов-блоков, «перетекающий» между ними по каналам связи. Полагали, что  информация как универсальная мера сложности и гетерогенности любых систем, анализ кодов, каналов связи и шумов станут  компонентами будущей общенаучной методологии – особенно на волне триумфов физикализма в точных и естественных науках. Уже в 1956 г. Г. Кастлер отметил, что “теория Шеннона была с энтузиазмом принята психологами, лингвистами, историками, экономистами, библиотекарями, социологами и биологами, интересующимися самыми различными вопросами”. Однако тогда же он отметил и принципиальные  ограничения этой теории: меры информации зависят от других характеристик систем; они относятся не к элементам, а к их совокупностям; они относительны, а не абсолютны; информационные емкости систем не всегда используются полностью [10,11]. Тем не менее, анализируя применения «приложений теории информации» в биологии, он показал, что «эти ограничения не столь серьезны, если постоянно помнить о них» ([11], с.195). Исключительно важно то, что уже в 1956 году Г.Кастлер в поисках новых подходов к проблемам биологии обратил внимание на семантическую сторону информации, которую начали исследовать в 1952 году  Р.Карнап и И.Бар-Хиллел [13]. 

    Мера, предложенная Клодом Шенноном для анализа сообщений, передаваемых  по каналам связи, стала чрезвычайно популярной среди биологов  - из-за простоты ее вычисления, аддитивности по отношению к последовательно поступающим сообщениям и сходства с важной физической величиной – термодинамической энтропией. Однако она отнюдь не могла стать единственной и универсальной мерой количества информации. Именно применительно к биологическим объектам ее ограниченность  выявилась особенно ярко:  последовательное применение этой меры, то есть фактическая оценка лишь «микро-информации» биосистем, приводила к парадоксам. Так, например,  Л.А. Блюменфельд показал, что тогда количество информации в теле человека - не больше, чем в  неживых системах, состоящих  примерно из такого же количества структурных элементов [14]. 

   Уже в 1950-е гг. Г. Кастлер понимал ограничения микроинформационного - статистического, или, как его еще называют теперь, синтаксического - подхода к биосистемам. Перечислив эти ограничения, он стал  вводить в биологию понятие смысла, биологической упорядоченности. Концепция информации в его работах тех лет соответствует современным представлениям как о микроинформации, так и о макроинформации. Информация по Г.Кастлеру представляет собой «запоминание случайного выбора» - изначально случайный, а затем запомненный выбор одного или нескольких осуществленных вариантов из всей совокупности возможных. Макроинформация  принципиально отличается от упомянутой выше  микроинформации именно тем, что системы ее запоминают

   В биологических системах именно проблемы запоминания, хранения, обработки и использования информации, необходимой  для жизнедеятельности, развития и эволюции организмов и их сообществ выходят на первый план. Сохранив рациональное  зерно шенноновской  концепции, в которой   количество информации служит статистической мерой, макроинформационный подход  позволил ввести в рассмотрение  также и понятие смысла информации. 

   Теоретико-информационные методы стали распространяться на такие модели открытых  термодинамически неравновесных динамических систем, в которых реализуются гетерогенные структуры   и сопряженные процессы. Именно благодаря этим особенностям  такие системы способны «запоминать» свои состояния; именно таковы все биологические системы. 

    Остановимся еще на одном  вопросе, который стал одним из узловых в развитии целого ряда направлений теоретической биологии. Речь идет о подходах к пониманию механизмов достижения упомянутого свойства “запоминания” макросистем: о критериях состояний систем, обладающих этим свойством. С точки зрения физики, специфика биологических систем заключена, в частности, в кинетической фиксации, или “запоминании” определенных черт структуры. Это свойство, по мнению авторов [15], “роднит структуры биологических систем с конструкциями искусственных машин или автоматов и позволяет говорить о выполнении ими определенных функций.” 
В частности,  так называемая линейная память полимерной цепи -   фиксация звеньев вдоль цепи, определяемая  системой энергетических взаимодействий -   дает возможность рассматривать именно молекулы биополимеров в качестве первой ступени разнообразия биологических структур [16] и предполагать, что именно на этом уровне происходила  предбиологическая эволюция. Отметим, однако, что микроинформационный   анализ биополимеров - на основе их первичных структур - оказался не эффективным, так как фактически он относится к модели так называемой “идеальной цепи” и не учитывает эффектов пространственных взаимодействий. 

   Вернемся к семантической составляющей   в концепциях  биологической информации - к понятию ценности информации. В чисто теоретико-информационных исследованиях можно выделить два подхода к определению понятия ценной (полезной) информации, т.е. информации, которая помогает достижению цели. Если вероятность достижения цели велика, то ценность информации определяется по критерию минимизации затрат на ее получение [17]. Если же достижение цели маловероятно, то мерой ценности (полезности) информации может служить некая функция отношения вероятности достижения цели после и до получения информации [18, 19]. 
Проблема ценности биологической информации, пожалуй, наиболее последовательно развивалась в трудах М.В. Волькенштейна, начиная с начала 1970-х гг. (см.[20]). Повышение ценности биологической информации трактовалось им как снижение избыточности (в теоретико-информационном смысле), как рост степени незаменимости информации в ходе эволюционного и индивидуального развития, и это возрастание ценности информации он предлагал рассматривать как один из важнейших принципов теоретической биологии. Представления о ценности биологической информации и информационный подход вообще активно использовались при разработке теорий и моделей самоорганизации и эволюционного развития [21–23]. 

   Переход с синтаксического  уровня описания систем и процессов на семантический уровень происходит и в исследованиях  распознавания и взаимного узнавания информационных  макромолекул (ДНК, РНК и белков). В последние два десятилетия эти явления изучает биомолекулярная динамика  на разных уровнях  структур - как первичных, так и более высоких порядков. Информация, кодируемая на всех этих уровнях, связана с работой генов, самосборкой клеточных структур, мембранным транспортом и межклеточными коммуникациями - процессами, лежащими в основе жизнедеятельности и развития живых организмов. 

    Как уже упоминалось выше, Дж. фон Нейман отметил, что для информационного описания двух разных процессов (систем) – статистических и динамических - необходимо два принципиально разных подхода.  Однако в реальном мире, а не в мире моделей, строго разграничить эти два типа систем невозможно, это разные способы описания одних и тех же физических объектов. Более четко этот дуализм был сформулирован еще А.Розенблютом и Н.Винером [24], предложившими  различать функциональное и бихевиористское (поведенческое) описание открытой - взаимодействующей с внешним миром - системы. При функциональном подходе изучают внутреннее устройство системы и выясняют, какие функции выполняют те или иные ее подсистемы, а при поведенческом -  способы ее взаимодействия с внешним миром, закономерности ее реакций на те или иные  внешние стимулы. 

   Таким образом, с помощью абстракции “черного ящика” Н. Винер разграничил причинно-следственный и кибернетический подход к системам, обладающим целенаправленным (телеологическим) поведением, продекларировав принципиальный отказ от физического принципа причинности, от сведения поведения системы (динамики макропеременных) к физическому устройству этой системы или к ее внутренним микросостояниям, причем это было сделано именно для того, чтобы снять вопрос о принципиальном отличии живого от неживого, создать точную науку, равно применимую и к техническим системам автоматического регулирования, и к биологическим, и к социально-экономическим системам. 

   Вопрос о фиксации состояний в открытых термодинамически неравновесных сложных системах, о возможности самопроизвольных процессов в таких системах стал одним из основных в междисциплинарном направлении, возникшем в начале 1970-х гг. и названном Г. Хакеном синергетикой [25]. В недрах синергетики даже сформировался специальный раздел – динамическая теория информации, у истоков которого были и Г. Хакен, и наш соотечественник Д.С. Чернавский [26,27]. Наблюдаемый факт пространственной и временной устойчивости самых разнообразных, в том числе и биологических, структур был объяснен И. Пригожиным на основе неравновесной термодинамики, назвавшим подобные системы диссипативными [28]. 

   Возвращаясь к вопросу о критериях, характеризующих устойчивость систем, упомянем о  так называемой  S-теореме Ю.Л. Климонтовича [29], согласно которой, информационная энтропия при переходе в более упорядоченное состояние убывает - происходит  самоорганизация. Такой подход был использован в медико-биологической диагностике - в частности, при анализе кардиограмм и результатов биохимических тестов [30, 31]. 

   Как недавно отметил Ю.Л. Климонтович, уже система Больцмана является не замкнутой, а открытой, так как значение энергии в ней не фиксировано, а флуктуирует, так что Людвига Больцмана можно считать основоположником статистической теории открытых систем [32].  Основоположником же второго, динамического (поведенческого, кибернетического) подхода мы можем считать Анри Пуанкаре: под системой тот понимал именно динамическую систему  уравнений - изменение решений этой системы во времени при варьировании тех или иных ее параметров (затухания, жесткости и т.п.) или начальных данных -  не зависимо от того, какой физический или иной процесс  эти уравнения описывают. При этом статистическую механику Больцмана он категорически отвергал, считая, что теория необратимых процессов и механика не совместимы. 

   Эти два подхода - разные попытки их совместить или разграничить области их применимости - стали одним из главных сюжетов всего последующего развития наук о сложных открытых системах. Именно здесь сталкивались противоположные философские воззрения - во многом как отголосок давних споров механицизма и витализма, холизма и редукционизма. И эти споры  не прекращаются по сей день. 
Все перечисленные подходы и методы немедленно находили применение в биофизических исследованиях и порождали надежду, что сложное поведение биологических систем наконец-то получит причинно-следственные объяснения. Однако  всякий раз эта надежда оправдывалась лишь частично. 

   Параллельно развивались и «кибернетические» методы – качественная теория дифференциальных уравнений, теория устойчивости движения, теория автоколебаний и автоматического регулирования, теория катастроф, теория динамических систем. Важнейшее открытие было сделано А.Н. Колмогоровым еще в 1943 году: он показал, что для детерминированных систем, в том числе и консервативных, принципиально возможен детерминированный хаос - их принципиально непредсказуемое поведение. Исследования этих феноменов привели к изучению новых математических объектов – странных аттракторов и фракталов, оказавшихся удивительно удобными концептуальными моделями, позволяющими понять  принципы динамики и морфологии самых разных сложных систем, включая  биологические. 

   В целом можно отметить, что термодинамическая парадигма все более уступает место кибернетической, и хотя в ряде случаев возможны оба подхода, мир динамических систем явно богаче и шире того, что удается воспроизвести статистическими методами. Поэтому  даже классики термодинамического подхода, например, И. Пригожин, все чаще отдают предпочтение подходу теории динамических систем. 
Двойственность биологических систем заключается, в частности, в том, что их можно рассматривать и как физические, и как своеобразные символьные системы [33]. Этот подход впоследствии оформился в самостоятельное научное направление – физическую семиотику [34]. Его преимуществом является, на наш взгляд, возможность достаточно полно использовать методы К. Шеннона (количественные оценки сложности собщений, пропускной способности каналов, уровней шумов и т.д.), оставаясь при этом в рамках семантической (семиотической) парадигмы. 

    Упомянутый выше алгоритмический подход, развитый школой 
А.Н. Колмогорова, связал  понятие информации с количественными мерами сложности. Теория сложности – весьма обширный раздел математики и программирования, содержащий немало нетривиальных и, к сожалению, пока мало использованных биологами результатов, потенциально важных для решения наиболее трудных проблем теоретической биологии (теории эволюции, биологии развития, экологии и многих других). 

    В частности, становится ясным, что нельзя отождествлять сложность алгоритма и сложность порожденных этим алгоритмом структур. Это особенно наглядно в случае фрактальных структур, весьма часто встречающихся и в живой, и в неживой природе [35]. Поэтому, в частности, нельзя рассматривать генетические тексты как непосредственное зашифрованное описание порождаемых ими структур. Скорее, это -  описания алгоритмов их пространственно-временной реализации, или даже  алгоритмы построения автоматов, реализующих эти алгоритмы. По-видимому, именно поэтому  сравнительно небольшой длине генетического кода организма соответствует огромный массив информации, необходимой как для непосредственного описания морфологических структур, так и   их развития. Попытки разрешения  этого парадокса были предприняты   еще в 1950-х гг.:  «изобретательность биологов» (по выражению Г.Кастлера) позволила анализировать многообразие цитоплазматических структур и принципы формообразования (см.[9], с.213-223; [36]). 

    Разрешение  этого парадокса, существующего до сих пор, может быть ключевым для понимания  онтогенеза и  эволюции: сравнительно небольшие изменения в генетических текстах могут приводить к разительным метаморфозам внешнего облика, к появлению новых таксонов с порой ошеломляющим разнообразием  признаков. Так проблема огромного семантического веса небольших блоков информации проявляется в биосистемах. Именно такие ценные блоки - предмет поисков и анализа современных исследователей генома, функционально важных пептидов и других биополимеров. На наш взгляд, эти области современной эмпирической биологии - перспективное, но пока не реализованное поле приложения теории динамических систем. 

    Применение теории информации в биологии до сих пор остается фрагментарным. Наиболее удачным оно было в и нейро- и психофизиологии и в изучении сигналов общения у различных животных; гораздо меньше удач, как ни странно, было в молекулярной генетике, в теории эволюции и в экологии. Однако теоретико-информационный подход  к биосистемам проявляет  удивительную “живучесть”.  Это свидетельствует о необходимости и глубинной эвристической ценности теоретико-информационного анализа биосистем – несмотря на многочисленные свидетельства его недостаточности. 

   Энтузиазм тех, кто использовал теорию информации в биологии, был вовсе не беспочвенным. О том, как взаимодействовали различные  теоретико-информационые концепции с конкретными ветвями биологии,  рассказывают следующие части нашей работы. Разумеется,  в данной публикаций - первой из намеченных -  нам удалось остановиться лишь на некоторых общих и частных проблемах. На наш взгляд, актуальны и требуют отдельного и достаточно подробного рассмотрения еще многие важные вопросы, в том числе: 

1. Что считать элементарной значимой единицей сообщения - символом, знаком - на каждом структурном и/или функциональном уровне системы? 

2. Что считать полной группой событий – синтаксической базой рассматриваемого “языка описания”, необходимой для теоретико-информационного анализа биологических “текстов” и “сигналов”? 

3. Что может дать  теория информации для исследований кодирования и перекодирования в биологических системах  (генетических текстов – в метаболические реакции, морфологические структуры, морфогенетические процессы  и последовательности событий онтогенеза,  констелляций нейронных импульсов – в акустические и визуальные сигналы и поведенческие акты и т.п. ) ? 

4. Для какого круга биологических проблем  можно использовать разработанные в математической теории информации  и ее приложениях представления о каналах связи, их пропускной способности, шумах и др.? Можно ли  считать  каналами связи пути  саморазвития биосистем (в онтогенезе, эволюции, сукцессии) ?  Как анализировать такие каналы связи - как бы «растущие под напором» информации? 

5.  Может ли шенноновская (или какая-либо другая) мера информации  служить интегральным критерием сложности, многообразия и/или организованности систем (в частности - биологических)?  И вообще - в какой мере необходим какой-либо интегральный критерий для  прогностических  моделей и теорий? 

6.  Каковы возможности современных общенаучных дисциплин  - кибернетики, синергетики, теорий сложности и устойчивости,  фрактальной геометрии и т.п., и их взаимодействий - для анализа теоретических и эмпирических проблем биологии, в первую очередь  процессов развития в онтогенезе  и эволюции, при которых создается новая информация, увеличивается ее количество и формируются системы связей и многоуровневые динамические структуры? 

7.  Информация каких конкретных уровней биосистем является «ведущей», а  каких - «ведомой» (подчиненной) в различных биологических феноменах? 

Эти вопросы будут рассмотрены в следующих статьях настоящего цикла, посвященным анализу особенностей использования теоретико-информационных представлений в генетике, нейробиологии и экологии. 

Литература

1.  R.V.L.Hartley. Transmission of Information. BSTJ, 7,3. P. 535-563 
    (1928). [Цитируется по “Теория информации и ее приложения”. 
    М.,  1959. Сб. пер. под ред. А.А.Харкевича, с. 5-35]. 

2.  К.Шеннон. Работы по теории информации и кибернетике. –   М.:      Изд. ин. лит., 1963. 

3.  В.А. Котельников, А.М. Николаев. Основы радиотехники. Ч.1. 
М.: Связьиздат, 1950. 

4. Л. Бриллюэн. Наука и теория информации.  М.: Физматгиз, 1960. 

5.  Д.Н.Зубарев. Неравновесная статистическая термодинамика. 
М.: «Наука», 1971. 

6.  Р.П.Поплавский. Термодинамика информационных процессов. 
М..: «Наука», 1981. 

7.  N.Wiener. Cybernetics or control  and communication in the animal 
and machine // The Technology Press and John Wiley & Sons, Inc., 
New  York – Hermann et Cie, Paris, 1948. [Имеется перевод: Норберт Винер, Кибернетика, или управление и связь в животном и машине. – М.: Советское радио, 1968.] 

8.  А.Н. Колмогоров. Три подхода к определению понятия количества информации. //Проблемы передачи информации. 1965. Вып. 1. Т.1, С. 3. 

9.  На пути к теоретической биологии. I. Пролегомены. (Материалы 
симпозиума 1966 г. в Беладжо, Италия. Пер. с англ., под ред. и с предисловием Б.Л.Астаурова). М.: Мир, 1970. 

10. Information theory in biology. /Ed. by H. Quastler. – Urbana: University 
 of Illinois Press, 1953. 

11.  Теория информации в биологии. (Материалы конференции 1956 г. 
 в Гатлинбурге, США. Пер. с англ., под ред. и с предисл. 
Л.А. Блюменфельда). М.: Изд. ин. лит. 1960. 

12. Концепция информации и биологические системы. (Материалы 
 конференции 1963 г. в Хьюстоне, США.  Пер. с англ., под ред. и с 
 предисл. В.С.Гурфинкеля). М.: Мир, 1966. 

13.  R.Carnap, Y.Bar-Hillel. Tech. Rep. Res. Lab. Electr., Mass. Inst. Technol. No247. 1952. 

14. Л.А.Блюменфельд. Термодинамика, информация и конструкция 
биологических систем. Соросовский образовательный журнал. 
1996.  No7. С.88-92. 

15.А.Ю. Гросберг, А.Р. Хохлов. Статистическая физика макромолекул.  М.: Наука, 1989 С. 296. 

16.  И.М.Лифшиц.  ЖЭТФ. 1968. 55. №6 С. 2408. 

17.  Р.Л. Стратонович. О ценности информации. Изв. АН СССР.  Сер. техн. Кибернетики. 1965 г.. №5. С. 3–12. 

18. А.А Харкевич. О ценности информации. Проблемы кибернетики. 1960. Вып. 4. С.53–57. 

19. Н.М. Бонгард. Проблема узнавания.  М.: Наука, 1967. С.134–157. 

20. М.В.Волькенштейн. Биофизика. М.: Наука, 1988. 

21. И.И.Шмальгаузен. Кибернетические вопросы биологии.  Наука,  СО АН СССР. Новосибирск. 1968. 

22. М.Эйген, Р.Винклер. Игра жизни. М.: Наука, 1979. 

23.  М.Эйген, Р.Шустер. Гиперцикл: примеры самоорганизации 
макромолекул.  М.: Наука, 1988. 

24.  A.Rosenblueth, N.Wiener, and J.Bigelow. Behavior, purpose and teleology. Philosophy of Science. Baltimore. 10. №1. P.18-24. 

25.  Г.Хакен. Синергетика. М.: Мир, 1980. 

26.  Г.Хакен. Информация и самоорганизация. М.: Мир, 1991. 

27.  Д.С. Чернавский. Синергетика и информация.  М.: Знание, 1990. 

28.  П.Гленсдорф, И.Пригожин. Термодинамическая теория структуры, 
устойчивость и флуктуации. М.: Мир, 1973. 

29. Ю.Л. Климонтович. Турбулентное движение и структура хаоса: новый подход к статистической теории открытых систем.  М.: Наука, 1990. 

30. В.С. Анищенко. Изв. вузов. Сер. Прикл. и нелин. динам.. 2(3), 55. 1994. 

31. В.С. Анищенко, П.И. Сапарин, Т.Г. Анищенко. Письма в ЖТФ, 24, 88. 1993. 

32. Ю.Л.Климонтович. Критерии относительной степени упорядоченности открытых систем. УФН, 166, №11, С. 1231–1243 (1996). 

33. А.Ньюэлл, Х. Саймон. Информатика как эмпирическое исследование: символы и поиск. В сб. “Лекции лауреатов премии Тьюринга”, М.: Мир, 1993. С.334. 

34. Ю.В. Немчинов. Физическая семиотика. М.: Наука, 1991. 

35. B.B. Mandelbrot. The fractal geometry of nature. Freeman, San Francisco. 1982. 

36. D.A.W. Thomson. Growth and Form. Cambridge University Press. 
       Cambridge, England, 1952. 



©  1999. Л.В. ПОПОВ, А.Е. СЕДОВ, С.В. ЧУДОВ