автореферат диссертации по философии, специальность ВАК РФ 09.00.08
диссертация на тему:
Философско-методологический анализ информационно-энтропийных свойств процессов развития

  • Год: 1989
  • Автор научной работы: Седов, Евгений Александрович
  • Ученая cтепень: доктора философских наук
  • Место защиты диссертации: Москва
  • Код cпециальности ВАК: 09.00.08
Автореферат по философии на тему 'Философско-методологический анализ информационно-энтропийных свойств процессов развития'

Полный текст автореферата диссертации по теме "Философско-методологический анализ информационно-энтропийных свойств процессов развития"

МОСКОВСКИХ! ОРДЕНА ЛЕНИНА II ОРДЕНА ТРУДОВОГО КРАСНОГО ЗНАМЕНИ ГОСУДАРСТВЕННЫЙ ПЕДАГОГИЧЕСКИЙ ИНСТИТУТ имени В. И. ЛЕНИНА

Специализированный совет Д 113.08.05

На правах рукописи

СЕДОВ Евгений Александрович

УДК 1:519722:530

ФПЛОСОФСКО-МЕТОДОЛОГПЧЕСКИЙ АНАЛИЗ ИНФОРМАЦИОННО-ЭНТРОПИЙНЫХ СВОЙСТВ ПРОЦЕССОВ РАЗВИТИЯ

Специальность: 09.00.08 — философские иопросы естествознания

АВТОРЕФЕРАТ

диссертации на соискание ученой степени доктора философских наук

/гЗ

Москва 1989

Работа выполнена в Институте повышения квалификации руководящих работников и специалистов Мпнпромсвязп СССР.

Официальные оппоненты: доктор философских наук, профессор НОВИК И. Б., доктор философских наук, профессор САЧКОВ Ю. В., доктор философских наук, профессор МЕТЛОВ В. И.

Ведущая организация: Институт управления им. С. Орджоникидзе.

Защита состоится «............» .............................. 1989 г. в ............час.

на заседании специализированного совета Д 113.08.05 по защите диссертаций на соискание ученой степени доктора наук при Московском ордена Ленина и ордена Трудового Красного Знамени государственном педагогическом институте им. В. И. Ленина по адресу: 119891, ГСП, Москва, Г-435, ул. Малая Пироговская, д. 29, ауд. 63.

С диссертацией можно ознакомиться в библиотечке МГПИ имени В. И. Ленина по адресу: 119891, ГСП, Москва, Г-435, ул. Малая Пироговская, д. 29.

Автореферат разослан «............» .............................. 1989 г.

Ученый секретарь специализированного совета, кандидат философских наук, доцент

МИХАЙЛОВ В. В.

I. ОБЩАЯ ХАРАКТЕРЛСТИКА РАБОТЫ

Актуальность теш. Темпы развития информатики и вычислительной техники, названных 1.1.С.Горбачевым "катализаторами научно-технического прогресса"^, обусловили актуальность рассматриваемых в данной работе проблем. Внедрение информатики и вычислительной техники во все сферы человеческой деятельности сопряжено с необходимостью решения целого ряда прикладных, общетеоретических и методологических задач. Одна из центральных методологических проблем заключается в осмыслении статуса самого понятия "информации", соотношения его с такими общенаучными понятиями, как энергия и энтропия, и с философскими категориями материя и движение. При этом необходимо учитывать, что эта проблема возникла з связи с введением в науку информационной количественной меры, благодаря которой информация превратилась из обиходного понятия в предает разносторонних исследований методами современной науки.

С установлением не только формальной, но и содержательной взаимосвязи между количеством используемой системами информации и их энтропией становится очевидным антиэнтропийный характер информационных процессов. Вместе с тем традиционное, применение методов теории информации распространяется лишь на искусственные каналы связи, в которых количество информации может лишь уменьшаться в результате воздействия всякого рода' помех. В связи с этим представляется весьма актуальной предпринятая в данной работе попытка разработки методологии анализа ин-' формационно-энтропийных процессов, приводящих к самопроизвольному накоплению информаци' И' в результате взаимодействий систем друг с другом и с внешней средой. - .

Разработка и дальнейшее использование этой методологии может служить.основой изучения информационно-энтропийных процессод лежащих в основе самоорганизации и развития как естественных,так и искусственно создаваемых систем.

Достижения таких интенсивно развивающихся областей современной науки, как синергетика, неравновесная термодинамика, генетика, общая теория систем, кибернетика, позволяют утверждать,что современная наука вышла на качественно новый этаи. В течение

1 Горбачев ГЛ.С. Коренной вопрос экономической политики партии. Доклад на совещании ЦК КПСС II июня 1985 г. // Коммунист, 1985, № 9.

длительного времени исследование законов развития представляло прерогативу философии.Биологические и космогонические теории эволюции имели описательный характер. Лишь в последние десятилетия появ::ласъ возможность использования аналитических методов исследований общих закономерностей процессов развития, предложенных целым рядок конкретных наук. При этом не уменьшается, а возрастает актуальность философско-глзтодологического анализа процессов развития, обусловленная следующими основными причинами:

1. Необходимостью выявления общности разнородных явлений,обнаруживаемой, как правило, на стыках конкретных научных областей, в частности, па стиках теории информации с термодинамикой,синергетикой, биологией, общей теорией систем.

2. Необходимостью сопоставления результатов исследований процессов самоорганизации, адаптации и эволюции конкретных систем с общими законами развития, установленными диалектическим материализмом.

3. Необходимостью философской интерпретации вновь выявляемых противоречий.

Так, например, в ходе проводимых в данной работе исследований кнформаиионно-энтропийшх свойств процессов развития были выявлены диалектические противоречия: мевду субъективны:,] и объективным аспектами информации; между информацией, отрицающей энтропию, к необходимой для возникновения новой информации энтропией, проявляющейся в простейшей форме в виде флуктуации при бифуркациях, а в более сложных формах - в виде генетических мутаций, случайных ассоциаций в эвристике и т.п.; между стремлением самоорганизующихся систем к прекращению развития при достижении нулевой энтропии т. увеличением информационной емкости путем формирования иерархических структур.

В процессе выявления подобных противоречий приобретает актуальность вопрос сопоставления информационно-энтропийных свойсте развивающихся систем с общими законами развития, установлении:,™ диалектическим материализмом.

Степень разработанности проблемы. Многие труды советских философов посвящены рассмотрению содержательного смысла научного термина "информация" и объективно протекающих информационных процессов на различных уровнях организации материи (Урсул А.Д., Ей-, рюков Б.В., Готт B.C., Новик И.Б., Котова Е.В., Потрушенко Л.Л., Сороко D.M. и др.). •

Главным аргументом в пользу указанной интерпретации понятия

"информация" служит универсальность предложенной К.Шенноном информационной количественной меры и ее связь с количественной мерой энтропии, применимой в равной степени к анализу как физических, так и биологических систем.

При таком подходе и энтропия и информация могут рассматриваться как неотъемлемое атрибуты всех материальных объектов, вследствие чего разработка универсальной методологии анализа информационных процессов применительно к объектам ;иво:1 и неорганической природы получила название атрибутивного подхода. Именно атрибутивный подход, главная цель которого заключается в выявлении общих инДормагдаонно-энтропийных свойств всех протекающих в природе процессов, приближает науку к решению проблемы, выдвинутой термодинам,икой и не находившей окончательного рехеяия в течение более чем ста лет. Речь вдет о противоречии меэду наблюдаемой в природе тенденцией самопроизвольного формирования и развития сложных систем и выявленной термодинамикой общей тенденцией деградации, сопровождающейся обусловленным действием второго закона термодинамики возрастанием энтропии.

Исследование механизмов самопроизвольного накопления информант в антиэнтропийных процессах позволит дать аргументированный отгет на этот вопрос.

Предпосылками развития атрибутивного подхода к анализу соотношения энтропийных и антиэнтропийных процессов могут слунить исследования информации в термодинамических процессах и термодинамический анализ влияния фя^ктуаций на пропускную способность информационных каналов сеязих.

Цель и задачи исследования. Несмотря на разносторонние конкретные исследования термодинамических свойств информации,, до сих пор по существу остается открытым поднятый Л.Бриллюэном' методоло-

х Бриллюэн Л. Наука и теория информации. М., Наука, I960; Терлецкий Я.П. Статис Tine екая физика. ;>]., Физматгиз, 1966; Стратонович P.JI. Теория информации. М., Наука, 1975; Митюгов В.В» Физические основы теории информации. М., Наука, 1976; Поплав-ский Р.П. Термодинамика информационных процессов. М., Сов.радио> 1981; Дюкрок А. Физика кибернетики // Кибернетика ожидаемая и кибернетика «еожиданнач. М., Наука, 1968: Joynes е.т.Information theory and statistical mechanJ.cs//Ptiisical Review vol. 106 ,1957,

I<5 ¡Trubud M.Iriforiimtion theory as tue basio for thernostatieu und

thennodynamics/ZJournal of Applied I.i'ech^nicsj,vol.6,1961 .![>.,

гкчески Еаяный вопрос содержательной интерпретации взаимосвязи информации к физической энтропии. Этот вопрос требует дальнейшей методологической проработки, поскольку предложенная Л.Бриллюэном содержательная интерпретация этой взаимосвязи сводится к зависимости физической энтропии системы от степени осведомленности наблюдателя о структуре этой системы. Таким образом, остается открыты:,; вопрос об объективном характере информационно-энтропийных взаимодействий и о природе приводящих к накоплению информации антиэнтропийных процессов.

Цель диссертационной работы заключается в разработке методологических принципов анализа информационно-энтропийных соотношений, возникающих в процессах самоорганизации, адаптации и эволюционного развития систем. Для достижения этой цели необходимо было провести три этапа исследований, каждый из которых потребовал решения ряда методологических задач.

Первый этап: разработка методологических основ информационно-энтропийного анализа путем вычленения 'объективного и субъективного аспектов понятия количества информации, выявления содержательной связи между понятиями информации и физической энтропии, соотношения естественнонаучных понятий информации, энтропии, энергии с философскими категориям;! движение и развитие.

Второй этап: выявление информационно-энтропийных закономерностей процессов развития.

Третий этап: сопоставление полученных информационно-энтропийных закономерностей процессов развития со свойствами реальных эволюционирующих систем различной природы (биологических, технических, космогонических, лингвистических и'др.) и с общими законами развития, установленными диалектическим материализмом.

Методологическая основа и принципы исследований. Методологической основой для выявления объективной сущности информации в самопроизвольно протекающих информационно-энтропийных процессах послужили разработанные материалистической диалектикой гносеологические принципы анализа субъект-объектных соотношений. На основе этих принципов выявлена взаимосвязь между объективной упорядоченностью структуры исследуемых систем и субъективной информацией, получаемой в результате статистических наблюдений этих систем. Указанный подход позволил определить информационную меру объективной упорядоченности (частичной детерминации) структуры систем и соотнести эту меру с таким субъективны?,; критерием, как избыточная информация систем.

.Методологическим принципом анализа взаимодействий-жестких и вероятностных связей с помощью информационно-энтропийных соотношений послужили выводы Ф.Энгельса о диалектическом единстве противоположных по своей сущности случайны:', и необходимых явлений, об отсутствии между случайностью и необходимостью "жестких разграничительных линий" и критические замечания в отношении :.:ета-физкческкх трактовок этих взаимосвязей, согласно которым "кагля-нибудь вещь, какое-нибудь отношение, какой-нибудь процесс либо случайны, либо необходимы, но не могут быть и тем и другим"1.

Развивая указанные положения Ф.Энгельса, В.й.Ленин продла-гал рассматривать диалектически противоположные свойства дглеаяй не как "мертвые, застывше", а как "живые, условные, подвижные, превращающиеся одна в другую"^. Иллюстрацией к данному вксказава-нию В.К.Ленина могут служить выявленные в диссертации "содка«*!»'* превращения внутрисистемных связей с постепенным переходом от полностью хаотичного состояния с равновероятным распределение:,: всех элементов и связей и максимальной энтропией к состоянию жесткой детерминации, реализуемому со стопроцентной вероятностью и характеризуемому нулевым значением энтропии.

" 3 диссертации показано, что используемая теорией информации статистическая функция энтропии з сочетании с условием нормировки, согласно которому при любых распределениях'вероятностей группы событий, сумма гсех вероятностей равна единице, позволяют описывать все промежуточные стадии перехода системы от хаотичного состояния до жесткой детерминации внутренних СЕязей.

Методология проводимых в данной работе исследований измене--ний информационно-энтропийных соотношений в процессах развития основывалась на сопоставлении выявляемых закономерностей с общими законами развития, сформулированными диалектическим материализмом.

Научная новизна диссертационной работы. По мере развития и расширения области применения методов теории информации становится все более очевидным антиэнтропийный характер информационных процессов..Столь же очевидным представляется теперь и тот факт, . что все процессы самоорганизации и развития обусловлены накоплением информации в структуре развивающихся систем. Вместе с тем

~ 1 Маркс К., Энгельс' Ф'. Сочинения. М.Политиздат, т. 20, с. 527-533.

? .... ■ . * Ленин В.И. Сочинеййя". М.Политиздат, т. 29, с. 58.

разработанные теорией информации методы количественных оценок до настоящего времени использовались исключительно для анализа потерь информации в различных каналах связи. Новизна анализируемого в данной работе подхода заключается в том, что он позволяет анализировать процессы самопроизвольного накопления информации в результате взаимодействий систем друг с другом или с внешней средой.

Для проведения такого анализа Епервые предложено использовать информационную количественную меру для оценки объективной упорядоченности структуры систем. Как указывалось выше, для введения такой меры необходимо было разграничить субъективный и объективней аспекты понятия информации и показать, что одна и та же ьеличина информации может характеризовать и субъективную меру осведомленности наблюдателя и объективную упорядоченность структуры систем.

Указанный подход позволил выявить ряд новых закономерностей в отношении взаимодействия и взаимных переходов жестких и вероятностных связей в структуре развивающихся систем и соотнести эти закономерности с диалектическими законами развития.

Впервые предложен количественный критерий (коэффициент сто-хастичности, определяемый как отношение количества накопленной и сохраняемой в структуре систем информации к величине их остаточной энтропии), позволяющий анализировать процесс постепенного накопления структурной информации, сопровождающийся ужесточением (увеличением взаимной корреляции) внутренних связей и соответст-вукжим уменьшением энтропии.

Показано, что выявленные информационно-энтропийные закономерности переходов на более высокие уровни иерархической структуры соответствуют установленным материалистической диалектикой законам развития по спирали с качественными скачками, обусловленными переходом количества накопленной информации в новое качество, соответствующее более высокому структурному уровню развития систем.

Мокно надеяться, что дальнейшие исследования объективных свойств информации, взаимосвязанной со структурой материальных систем, их энергией и энтропией, позволит науке в недалеком будущем сформулировать ряд законов развития, дополнительных к фунда-. ментальным'естественнонаучным законам сохранения энергии и возрастания энтропии, углубив тем самым представления об общих механизмах, определяющих свойство самодвижения, присущее всем уровням

организации материального мира.

Теоретическая и практическая ценность работы. В результате проведенного анализа удалось выявить общие закономерности происходящих в эволюционных процессах изменений соотношения жестких и вероятностных связей путем анализа изменения количественного соотношения сохраняемой в структуре систем информации и их энтропии.

Авторами ряда философских трудов отмечалось важное значение подхода, изложенного в опубликованных по теме диссертации работах, для развития методологии исследований проблем взаимосвязи случайных и необходимых явлений*. Дальнейшее развитие указанной методологии может послужить еще одним шагом на пути к решению сформулированной В.И.Лениным общенаучной задачи: "Исследовать и исследовать, каким образом связывается материя, якобы не ощущающая вовсе, с материей, из тех же атомов (или электронов) составленной и в то же время обладающей ясно выраженной способностью ощущений"^.

Универсальный характер предложенной методологии анализа информационно-энтропийных соотношений для исследований процессов самоорганизации и развития послужил основой для ее практического использования при решении теоретических и прикладных задач в различных научных областях3.

1 Материалистическая диалектика как общая теория развития/ ' под ред. акад. Л.Ф.Ильичева, М., Наука, 1983; Урсул А.Д. Информация. Методологические аспекты. Н., Наука, 1971; Котова К.В. Энер-; гия и энтропия. Киев, Наукоза думка, 1980; Сороко Э.М. Структур-1 ная гармония систем. Минск, Наука, 1984.

^ Ленин В.И. Полное собрание сочинений. М., Политиздат, т. 18, с.-40. •

3 Татаринов Л.П. Очерки по теории эволюции. 1,1., Наука,1987; Малышев В.П., Седов S.A. Общие информационные свойства самоорга- -J низуицихся иерархических систем // Вестник АН Каз.ССР,1984, ß 7; Малышев В.П., Бисенбаева 111.А. Об экспоненциальной модели температурной зависимости энтропии одноатомного идеального газа// Изв. АН Каз,ССР, Серия хим., IS86, й 4: Николов И. Труд как энергетический и информационный процесс. София, 1986; Глейзер С. Как трудно быть симхионом // Знание - сила,1983, J II; Генкин И.Л., Седов S.A. Об особенностях развития космических систем // Динатлика оесстолкновительных гравитирукхцих систем / Иод ред. А.Е.Курганова'. Алма-Ата,Наука,1988; Фабрикантова Е.В- Определение средних информационно-энтропийных характеристик сложной системы при статическом взаимодействия ее подсистем // НТИ; Серия 2, 1Ь 3, 1963; фабрикантова Е.В., Шилейко A.B. Теоретико-информационная оценка эффективности многопроцессорной системы // Вопросы информационной теории и практики, № 46, 1981; Назаретяа А.П1. Кибернетика и интеграция Наук. Ереван, Айастан, 1986.

лгфобация работы. Основные положения диссертации отражены в монографии к в опубликованных в научных сборниках и журналах статьях. По теме диссертации автором сделан ряд научных докладов: на методическом семинаре Научного совета по комплексной проблеме "Ки-сюрпетика" ЛИ СССР, Москва, 1974; на семинаре теоретической биологии МГУ, Москва, 1977; на методологическом семинаре Института биофизики ЛИ СССР, г. Пущино, 1979; на семинаре Высшей биологической школы МГУ и Тартуского университета, г. Тарту, 1978; на научно-исследовательском семинаре по логике и методологии науки при Научном совсте по комплексной проблеме "Кибернетика", кафедре математической логики физико-математического факультета 1ЯУ и кафедре логики философского факультета МГУ (I доклад в 1981 г., 2 доклада в 1982 г.); на методологическом семинаре ФИАН им. П.Н.Лебедева ЛИ СССР (1984 г., 1987 г.); на Всесоюзном совещании по теории и практике системных исследований (1985 г.).

Структура к объем работы. Диссертационная работа состоит из введения, четырех глав, заключения, списка литературы, включающего 284 наименования. Работа излозена на 233 страницах машинописного текста с 5 иллюстрациями и 19 страницах библиографии.

П. СОДЕРЖАНИЕ РАБОТЫ

Во введении обоснована актуальность темы диссертации, сформулированы цели проводимых исследований и отражена новизна полученных результатов.

Рассмотрены этапы становления научных взглядов на проблему содержательной взаимосвязи информации с физической энтропией систем, которые явились отправной точкой для проведенного в диссертации анализа информационно-энтропийных соотношений и изменений этих соотношений в процессах адаптации и эволюции различных систем.

Показано, что с момента создания теории информации до настоя-даго времени проблема взаимосвязи информации с физической энтропией остается предметом научных дискуссий.

Автор основополагающих научных трудов по теории информации К.Шеннон предложил использовать для количественных измерений информации БЕеденную в физику Л.Еольцманом статистическую функцию энтропии . При этом К.Шеннон подчеркивал, что использование в те-

ории информации математической формулы энтропии следует расценивать как чисто формальный прием, не отражающий сущности взаимодействий информационных сигналов с какими-либо физическими системами. Данная точка зрения, подтверждаемая авторами многих посвященных проблемам техники связи научных трудов, исключала возможность распространения методов теории информации на исследование физических процессов и ограничивала область их применения только кругом проблем, связанных с созданием технических информационных систем- .

Дальнейшее развитие методологических и прикладных аспектов теории информации выявило содержательную взаимосвязь физической и информационной энтропии, обусловленную тем обстоятельством, что как в самопроизвольно протекающих физических процессах, так и в -процессах передачи информации по искусственно созданным каналам связи энтропия может служить мерой хаотичности процессов, противостоящих той упорядоченности, которой обладают различные системы, будь то упорядоченная структура кристалла или передаваемый по техническим каналам связи упорядоченный сигнал.

И если бы самопроизвольно формирующиеся в природе кристаллы не обладали способностью сохранять информацию в своей упорядоченной структуре, техника не смогла бы создать искусственной кристаллической памяти, ставшей необходимой принадлежностью всех связанных с компьютерной техникой устройств и систем.

Поворотным моментом решения проблемы взаимосвязи информационной и фиэичеокой энтропии явились исследования Л.Бриллюэна, показавшего, что формальное различие между физической и информационной энтропией ваключазтся только в размерности используемых при •исчислениях единиц. На ряде конкретных примеров Д.Бриллюэн проиллюстрировал применимость информационно-энтропийных количественных оценок при анализе физических систем и процессов.-

Выводы Л.Бриллюэна стимулировали развитие методологии, расширяющей рамки применимости информационно-энтропийного анализа за пределы биологических и технических систем и получившей впоследствии наименование атрибутивного подхода к исследованию свойств информации и связанных о ней процессов.

Б первой главе проводится ретроспективный анализ становления научных взглядов на соотношение необходимого и случайного в окружающем мире. Подчеркивается выявленная еще в трудах мыслителей Древней Греции к получившая новое подтверждение в свете развития кибернетического подхода объективная роль случайностей в процессах развития. Дается критический анализ современных субъективистских концепций, в которых вероятность трактуется только как мера недостатка априорных сведений об исходном состоянии исследуемых систем. Показано, как понятие вероятности диалектически совмещает в себе и недостаток исходных данных и объективную стохастичность исследуемых процессов и систем. Содержащийся в вероятностных оценках субъективный фактор, определяемый недостатком исходных данных, уменьшается по мере исследований статистических систем, что и является главной целью статистических исследований и наблюдений.

Показано, что понятие вероятности диалектично в самой своей основе, поскольку лежащий в фундаменте теории вероятностей закон больших чисел диалектически совмещает в себе такие противоположные сзойства стохастичных процессов, как непредсказуемость единичных результатов и необходимость юс многократной повторяемости с наперед заданной их вероятностью частотой.

Показано, что все вероятностные описания отражают диалектическое единство противоположностей по принципу "И-й", поскольку всякое событие с заданной вероятностью Р может И ШТЬ (с вероятностью Р) и НЕ БЫТЬ (с вероятностью I - Р) или произойти одновременно И ЗДЕСЬ (с вероятностью Р) И ТАМ (с вероятностью I - Р). Диалектический принцип "И-И" в вероятностных описаниях явлений проявляется также и в том, что большинство исследуемых стохастических систем и процессов не являются чисто случайными, а диалектически сочетают в себе по принципу "И-И" И жесткие И вероятностные компоненты. Так, например, вероятностное поведение элементарных частиц регламентируется жестко детерминированными правилами сформулированных квантовой теорией запретов.

То же диалектическое сочетание частичной стохасткчности с частичной детерминацией обнаруживается во многих явлениях окружающего мира: вероятностный характер генетичеоких мутаций сочетается о детерминированной наследственностью основных признаков вида; вероятностный характер (непредсказуемость) письменных текстов частично регламентирован грамматическими и фонетически;«! правилами разрешений и запрещений тех или иных буквенных сочетаний; твор-

ческке процессы сочетают в себе жестко детерминированную (формальную) логику и интуитивный поиск случайных ассоциаций й т.п.

Все рассмотренные в главе I примеры могут служить иллюстрацией вывода Ф.Энгельса о том, что если с точки зрения метафизики явление может быть ЛИБО случайным, ЛИБО необходимым, то с точки зрения диалектики оно предстает одновременно И тем И другим.

На основе вероятностных описаний современной науке удалось сформировать диалектический взгляд на природу квантовых явлений, в которых элементарные частицы заключают в себе в потенции И корпускулярные И волновые свойства.

Ретроспективный взгляд на развитие естественнонаучного мировоззрения позволил сделать обобщающий вывод о том, что результатом анализа жестко детерминированных физических явлений оказываются законы сохранения, а для исследований законов превращений (энергии, элементарных частиц и др.) или законов развития принципиально необходим вероятностный подход.

Втотея глава посвящена анализу гносеологической роли информационной количественной меры и обоснованию возможности использования этой меры в качестве универсального критерия степени упорядоченности. (частичной или полной детерминации) структуры различных по своей природе систем.

Создание фундаментальных теорий естествознания было всегда сопряжено с пересмотром ранее сформировавшихся представлений об окружающем мире. Так, теория биологической эволюции Дарвина и космогоническая теория Канта, породили представления о диалектически развивающемся мире, пришедшие на смену метафизическим воззрениям, ■согласно которым мир повторяет свои неизменные циклы наподобие подчиняющихся законам Ньютона планет.

Установление законов термодинамики и открытие электрона углубили представления о свойствах материи. Теория Эйнштейна породила новые представления о пространстве и времени. Квантовая теория обогатила науку тлеющими общенаучное методологическое значение принципами дополнительности и соответствия.

Перечисленный ряд фундаментальных открытий й области физики, повлиявших на развитие философских взглядов на окружающий мир, может быть с полным правом пополнен' установленной современной наукой взаимосвязью информации и физической энтропии.

Вместе с тем необходимо отметить важную специфическую особенность процесса философского осмысления связанных с информацией явлений. Если все перечисленные выше явления интерпретировались фи-

лософией после завершения соответствующих естественнонаучных теорий, то теория' информации привлекла внимание философии задолго до создания более или менее завершенной теории информационных процессов.

Б свете достижений информатики как в прикладном, так и в теоретическом аспектах может показаться парадоксальным тот фзкт, что до сих пор наукой еще не предложено единое общепринятое определение информации, отражающее как давно сложившееся бытовое представление об информации как о сообщении новых сведений, так и вновь открытый (пока еще, в основном, интуитивно) антиэнтропийный характер самопроизвольно возникающих и протекающих в природе информационных процессов.

Парадоксальность сложившейся ситуации очень четко сформулировал Л.А.Петрушенко: "Информация - это всем известное явление, которое стало совершенно непонятным после появления кибернетики"^.

Исследования связанных с информацией явлений ведутся в самых разнообразных аспектах: техническом (Шеннон К. Математическая теория связи//Работы по теории информации и кибернетике. М., ИЛ,1963. Харкевич A.A. Очерки общей теории связи. М..Радиосвязь,1955), термодинамическом (Поплавский Р.П. Термодинамика информационных процессов. М.,Сов. радио,1981), семантическом (Еар-Хиллел Да. Семантическая информация и ее измерение//Труды десятой конференции по. кибернетике. Нью-Йорк, 1952), прагматическом (Харкевич A.A. О ценности информации//Проблемы кибернетики, вып. 4, М.,1966) и др.

Разнообразие свойотв' информации и связанных с нею процессов не снимает с повестки дня вопрос о поисках единой сущности этих процессов, позволяющей объединять их общим понятием "Информация", измерять и сравнивать количества информации, участвующей в разнообразных процессах, с помощью одинаковых единиц.

Более 100 лет назад в науке возникла аналогичная ситуация,

Петрушенко Л.А. Самодвижение материи в свете кибернетики. Философский очерк взаимодействия организации и дезорганизации в •• природе. ГЛ., Мысль, 1971.

когда в результате исследований разнообразных сил, обнаруженных в механике, в химии, в термодинамике, в электричестве, в магнетизме, возникла потребность объединить эти силы в едином понятии "энергия", чтобы в конце концов сформулировать закон сохранения энергии в процессах любых ее превращений из одной формы в другие.

Все сказанное свидетельствует о том, что предпринятая в диссертационной работе попытка анализа единого механизма Есех обусловленных накоплением информации антиэнтрояийных процессов представляется назревшей и актуальной задачей, выдвинутой как достижениями самой информатики, так и всем ходом развития современной науки.

Благодаря введению универсальных критериев количественных измерений выявилась общность понятия "информации" для различиях систем. Глубокая философская сущность понятия Информация" обусловлена тем, что именно информация,служащая своего рода "моего;,-" между субъектом и окружающим миром, непосредственно соприкасазт-, ся с осноеным философским вопросом о соотношении объективного и субъективного, материи и сознания, происходящих в окружающем мире объективных явлений и отражаю,®«; эти явления идеальных моделей5. Для решения этих вопросов особую важность приобретает раз- . работанная в диссертации методология Еычленения и сопоставления информации, характеризующей объективные свойства системы, с той , информацией, которую приобретает исследующий эту систему субъект.,

Разработке выдвинутой всем ходом развития современной науки проблемы изучения объективных свойств информации и механизмов самопроизвольно протекающих информационно-энтропийных процессов, существенно препятствовала инерционность традиционных представлений об информации как об исключительной принадлежности субъекта (корреспондента, получателя сообщений, наблюдателя и т.п.) и продукта разумной деятельности лвдей.

Развитие кибернетики, теории информации и их приложений;расширило рамки традиционных представлений об- информационных процессах, включив в их число обмен сигналами между животными,, кекцу внутренними органами и нервными клетками организмов,, между, звеньями создаваемых техникой информационных' систем.-

В науке и технике происходили события,- утверждавшие- способность информации проявлять себя в качестве-независимого' от чело-' века феномена. Так, например, расшифровка--генетических кодов показала, что основной принцип "построения текстоз на разных-европейских языках (составление слогов из букв, слов,из слогов и т.д.)

/

был Изобретен" природой за миллиарды лет до того, как люди придумали письменность. Т.ак же, как в письменных текстах, в генетическом коде есть и "начальный алфавит" (4 вида нуклеотвдов), и "слова" (коды 20 аминокислот), и "фразы" (коды клеток и тканей), и "концепции" (генетическая структура биологических видов).

В качестве не зависящего от конкретного субъекта феномена все в больней степени проявляет себя информация и в современных компьютерных информационных системах. Хотя в этих системах обработка информации ведется согласно заложенным в них человеком программам, человек уже далеко не всегда способен предвидеть, какую именно информацию породит реализуемый компьютерами информационный процесс.

Статистическая термодинамика исследовала объективные закономерности процессов перехода систем в равновесное состояние. Формальным описанием таких процессов служит переход от состояния с различными вероятностями поведения элементов системы (Р| й ^ ... Ф Р„ ) к равновероятному состоянию (Р^ = Р2 = ... = Рд,).

К.Шеннон использовал статистическую функцию энтропии для описания упорядоченных сигналов с различными вероятностями появления кодовых знаков или букв алфавита.

Для описания динамики антиэнтропийных процессов в диссертации предложено исследовать тенденции, противоположные стремлению к термодинамическому равновесию, т.е. переход от состояния с Р^ = Р2 = • •. = Рл/ к состоянию с р£ ?2 ^ • • • ^ IV •

При разработке теории информации подобные процессы оставались вне круга ее интересов, поскольку с помощью этой теории решались сугубо прикладные задачи создания технических каналов связи, в которых информация не возрастает, а уменьшается вследствие воздействия внутренних или внешних помех. Кроме того, передаваемые по техническим каналам связи сообщения предназначаются для их получателя, поэтому в анализируемых теорией информации процессах всегда подразумевалось присутствие некоего субъекта. Поэтому информационная количественная мэра первоначально интерпретировалась как "мера осведомленности", "мера неожиданности сообщений", т.е. с точки зрения конкретного или абстрактного субъекта (получателя сообщений).

Вместе с тем процесс "объективизации" (или, если угодно, - . "онтологизации") количественной меры информации шел параллельно с развитием прикладной теории информации, рассматривавший каналы ^^^пязи, неотъемлемой чаотью которых оставался принимавший сигналы

субъект.

За три десятилетия с момента опубликования основополагающих работ К.Шеннона научная мысль прошла три этапа восхождения от конкретной к абстрактной интерпретации информационной количественной меры.

1-й этап. Абстрагирование от конкретных свойств реальных сообщений (их ценности, конкретного смысла), позволившее К.шеннону ввести универсальную меру количественных оценок информации, содержащейся в сигналах, передаваемых по различным каналам связи.

2-й этап. Распространение методов теории информации, используемых первоначально только для решения прикладных задач техники связи, на исследование естественно протекающее информационных процессов. Выявление содержательной связи мевду понятиями количества информации и физической энтропии.

3-й этап составляет основное содержание данной диссертационной работы. Основная цель исследований на этом этапе заключается

в установлении соотношений между естественнонаучными понятиями информация, энтропия, энергия и философской категорией движение; между процессами накопления информации на различных иерархических ур&нях и философской категорией развитие, как движение по восходящей спирали от простейших форм к более сложным.

Абстрактный смысл научного понятия информация заключен в самом способе ее количественных измерений. В основу этого способа' положена статистическая интерпретация энтропии - самого абстрактного физического параметра из всех величин, с которыми приходилось иметь дело физике в период открытия второго начала термодинамики. ■В самом деле, если значения всех термодинамических параметров могли устанавливаться путем непосредственных измерений ("физика -это отклонение стрелок"), то энтропия была первой из'физических величин, которую не удавалось измерить, а приходилось вычислять либо через другие макроскопические параметры, либо путем статистического анализа микроструктуры физических тел.

С другой стороны, до внедрения в физические исследования методов теории информации физика не располагала объективными критериями оценки таких важных свойств физических объектов; как степень их структурной упорядоченности, хотя с проявлениями и изменениями этого свойства физике приходилось сталкиваться при исследованиях процессов намагничивания, поляризации, кристаллизации, не говоря уж об исследованиях биофизических систем.

Выявление взаимосвязи абстрактных информационных и эитропий-

кых свойств позволило найти подход к решении противоположной задач::: использованию абстрактных информационно-энтропийных моделей для анализа свойств конкретных физических процессов и систем.

Методологической основой решения указанных задач в диссертации послужил философский анализ единства и противоположности объективного к субъективного аспектов информации и энтропии, по-позволквший. предложить новый способ оценки количества информации, сохраняемой независимо от априоричх субъективных сведений о структуре систем.

В работе показано, что диалектическое единство объективного и субъективного аспектов понятия информации и энтропии находит свое отражение пренде всего в возможности использования единых методов количественных оценок, пригодных для измерений и таких объективных параметров, как энтропия физических тел и информация, сохраняемая в их упорядоченной структуре, так и для таких субъективных критериев, как степень неопределенности сведений о структуре объектов и сообщений или избыточная информация, получение которой некий субъект (получатель сообщений) способен заранее предсказать.

Б работе показано, что диалектическое единство объективного и субъективного аспектов понятия информации вырагхается в количественной адекватности двух величин: максимальное количество субъективной информации, которое-может быть получено наблюдателем в результате статистических исследований структуры, равно количеству информации, объективно сохраняемой в этой структуре.

Противоположность объективного и субъективного аспектов информации выражается в том, что та информация, которая интерпретируется как избыточная специалистом по информационным каналам связей, в то ке время выполняет свою объективную функцию, поскольку является не чем иным, как информацией правил, определяющих структурную целостность сообщений. В самом деле, разработанные теорией и техникой связи способы уменьшения избыточности текстовых сообщений базируются на априорных знаниях грамматических и фонетических правил и на обусловленных этими правилами вероятностных характеристиках письменных текстов. Очевидно, что тленно эта избыточная информация правил определяет структурную целостность языка как системы.

Точно'так не информация о том, что на свет появился птенец, у которого нет плавников, а есть крылья, является избыточной для получателя подобного сообщения, но отнюдь не "излишней" для ге-

нетического кода, содержащего программу развития организма птенца.

На основе разработанной методологии разграничения энтропии и количества информации, характеризующих, с одной стороны, объективное состояние систем, а с другой стороны, степень субъектив-. ной осведомленности о структуре тех же систем, был предложен способ вычленения количества информации, характеризующей объективную упорядоченность (степень частичной детерминации) систем. Эту. часть информации предложено интерпретировать как структурную информацию, определяемую как разность между максимальным и реальным значениями энтропии. При этом максимальному значению энтропии соответствует равное значение вероятностей всех анализируемых событий (реакций на воздействие среды, скоростей и направлений движения элементов, появления чередующихся элементов, например, букв письменных текстов и т.п.). Величина реальной энтропии оценивается о помощью той же статистической функции энтропии, но при под- . становке реальных значений вероятностей (например, вероятностей появления различных букв) и учете взаимной корреляции происходящих в системе событий.

В свете предложенного способа оценки количества информации, накапливаемой и сохраняемой в структуре систем, может быть по-новому интерпретирована доказанная К.Шенноном теорема, согласно которой энтропия множества, образовавшегося в результате взаимодействий двух исходных множеств, не может превышать сушу величин энтропии исходных множеств. Случаю равенства указанной суммы, и результирующей энтропии соответствует независимость исходных множеств. При зависимых исходных множествах результирующая энтропия оказывается меньше суммы исходных, а разность между исходными и результирующей энтропией есть не что иное, как приращение инфор- . мации, обусловленное образованием новых связей, возникших между • элементами множеств в результате их взаимодействий.

Те же соотношения остаются справедливыми в том случае, если рассматривать не абстрактные математические множества, а множества взаимодействующих элементов конкретных систем. При этом знак равенства будет относиться-к случаю систем, не способных взаимодействовать друг.с другом (например, при воздействии магнитного поля на немагнитные среды, электрического поля на нзполяризуемые среды и т.д.). Напротив, воздействие соответствующих полей на намагничиваемые и поляризуемые среды приводит л увеличению упорядоченности их структуры (ориентация электрических диполей, обр^зо-

ванне магнитных доменов и т.п.), причем, возникающая упорядоченность может быть в принципе оценена как приращение структурной информации, вычисляемые указанным выше способом с помощью статистической функции энтропии. Такой принцип количественной оценки упорядоченности через приращение структурной информации может быть распространен на все еиды систем (при условии полноты их статистических описаний).

Изложенная методология анализа процессов накопления информации не противоречит второму началу термодинамики (закону возрастания энтропии), поскольку уменьшение энтропии накапливающих структурную информацию систем всегда компенсируется приростом энтропии окружающей среды, так как перечисленные выше и вез подобные мм процессы увеличения упорядоченности структуры всегда сопровождаются выделением тепла в окружающую среду.

Описанный подход применим к самым разнообразным системам, имеющим различную материальную природу: неорганическим, биологическим, техническим, лингвистическим и проч. Благодаря этой общности предложенный информационно-энтропийный подход позволил установить взаимосвязь всех существующих в материальном мире информационных процессов и представить развитие материального мира в виде процесса накопления информации на всех структурных уровнях материи.

Очевидно, что предложенная в данной работе методика количе-'с.теонного анализа эволюционного изменения соотношения накапливаемой в структуре систем информации и их энтропии не исчерпывает всех связанных с информацией общенаучных и философских проблем. В частности,, мы не рассматриваем подробно вопрос о качественных различиях пнфюрмационных процессов в зависит;,ости от уровня организации материальных систем. Соответственно вне поля зрения остаются вопроси эволюционного возникновения специальных дифференцированных органов приема, переработки и хранения информации, представляющих собой атрибуты сложно организованных информационных систем. .

Специализированные органы памяти являются принципиальным от-лстием биологических систем от систем неорганической природы, у которых хранилищем информации является их собственная упорядоченная структура. Специализация информационных функций сложных сио-те.и порождает такие возможности, как опережающее отражение (моделирование) внешних воздействий, лежащее в основе предсказательного управления, предохраняющего систему от разрушающих или вредных

влияний внешней среды. Хотя объектам неорганической природ!,! также присущи охранительные, реакции на внешние воздействия (принцип Ле Шателье), их механизм является значительно более примитивны!,1, так как в отличие от биологических систем присущие им свойства отражения являются не опережающими, а синхронны:,;;-:, а способы управления - не предсказательными, а реактивными.

Анализ перечисленных особенностей сложных информационных систем требует учета ценности и смысла информации и составляет предмет специальных исследований. Напротив, абстрагирование от указанных конкретных различий информационных систем позволяет-выявить общие информационно-энтропийные свойства, не зависящие от уровня сложности рассматриваемых систем, подобно тому, как абстрагирование от коЕкретных свойств реального механического движения (наличия трения) в свое время позволило Галилею сделать решительный шаг в установлении общих законов механики.

В диссертации предложено рассматривать энтропию как статис- ■ тическую меру неупорядоченности движения, а информацию, содержащуюся в тех или иных сигналах, как "модель движения" элементов, воспринимающих.эту информацию систем. При такой интерпретации понятие "количество информации" становится общенаучны!.; понятием того же ранга, что и энергия, так как оба характеризуют категорию движение с различных сторон: энергия - мера интенсивности движения; информация - мера упорядоченности (степепи детерминации) "Л движения.

Ввиду того, что процесс плавного перехода от состояния максимального хаоса до состояния жестами детерминации в диссертации и в посвященных1 данной теме публикациях рассматривается впервые, необходимо уточнить терминологию, с помощью которой описывается подобный, процесс.

Плавному увеличению введенного для количественного анализа такого процесса коэффициента стохастичности, равного отношения количества накопленной информации к величине остаточной энтропии, соответствует постепенное приближение рассматриваемо;; системы к состоянию жесткой детерминации. Подобный процесс (именно процесс, а не стабильное состояние') -мы всегда называем детерминацией внутренних связей системы.

С точки зрения гносеологии принципиальное значение имеет вопрос соотношения между степенью объективной .упорядоченности (т.е. не жесткой, а частичной детерминации) внутренних связей системы и информацией, получаемой в результате ее статистических ниследе-

Пий. Показано, что по мере приобретения статистических данных об исследуемой системе неопределенность представлений наблюдателя об этой системе приближается к объективной стохастичности самой системы. Максимальное количество получаемой при наблюдении информации равно количеству информации, сохраняемой в структуре иссле-_дуемых систем. С этих позиций критикуются субъективистские трактовки физической энтропии как меры недостатка информации о структуре физических систем.

В третьей главе проводится информационно-энтропийный анализ механизмов процессов развития.

Все процессы накопления информации можно подразделить на две категории: матричные и эмерджентные. Эмердаентный характер накопления информации - необходимое условие развития систем. В отличие от процессов матричного накопления информации, приводящих к многократному количественному накоплению идентичных упорядоченных . структур (редупликация хромосом, кристаллизация, книгопечатание и т.п.), при эмерджентном накоплении информации по мере присоединения к системе ноеых элементов образуются новые межэлементные связи, вследствие чего рост структурной информации опережает рост числа присоединяемых элементов. Благодаря образованию новых связей .эмерджентные системы удовлетворяют одному из сформулированных диалектикой условий развития, согласно которому свойства сформировавшейся системы как целого не адекватны сумме свойств составивших эту систему частей.

•Показано, что статистическая формула энтропии может быть использована в качестве обобщенной математической модели процессов развития, а сами процессы развития в обобщенном виде могут быть представлены как процессы дифференцировки вероятностей, приводящие к уменьшению реальной энтропии системы и соответствующему приращению структурной информации, равной разности меэду максимальным и реальным значениями энтропии..

Полному эволюционному циклу соответствует переход эволюционирующей системы из состояния деградации, которому соответствует нулевое значение структурной информации и максимальная энтропия, к состоянию вырождения (жесткой детерминации), при котором структурная информация максимальна, а энтропия равра нуда. Достигая состояния жесткой детерминации, система теряет способность дальнейшей эволюции вследствие отсутствия мутаций (нулевой энтропии). Такая система неизбежно разрушается (то есть совершает скачкообразный переход из состояния вырождения в состояние деградации)

при изменении условий внешней среды. '

Состояния жесткой детерминации достигают только те системы, дальнейшее существование которых обеспечивается стабильностью условий внешней среды. В качестве примера можно привести формирование из распыленного в космосе вещества стабильных планетных систем. Состояния с высокой степенью детерминации достигают некоторые узкоспециализированные органы сложных организмов, некоторые паразитические организмы, специализированные языки (языки инструкций, финансово-бухгалтерских отчетов), рефлексы, инстинкты и т.п. Большинство систем в результате эволюции достигает оптимального соотношения жестких и вероятностных связей, определяемого степенью лабильности внешней среды. Дяя количественной оценки соотношения жестких и вероятностных связей предложено использовать коэффициент стохастичности, определяемый как отношение реальной энтропии к количеству информации, сохраняемой в структуре той не системы.

При переходе эволюционирующих систем на более высокие уровни иерархической структуры вступает в силу принцип увеличения разно-■ образия, суть которого заключается в том, что из ограниченного набора обладающих различными признаками элементов ("начального алфавита") может образовываться практически неограниченное число комбинаций ("слов", "фраз" и т.д.). Следствием принципа увеличения разнообразия является возрастание информационной емкости по мере повышения уровня иерархической структуры систем. Показано, что при переходе с нулевого уровня на п-ый структурный уровень информационная емкость возрастает в- Кп (где К - число элементов предыдущего уровня, образующих один элемент следующего уровня).

Разрешением диалектического противоречия между стремлением накапливающих структурную информацию систем к состоянию вырожде- ■ ния (жесткой детерминации), с одной стороны, и неограниченной -возможностью формообразования и совершенствования эволюционирующих систем, - с другой стороны, является образование иерархических структур, при котором неуклонно стремящаяся к состоянию жесткой детерминации система оказывается тем дальше от этого состояния, чем'более витков расширяющейся информационно-энтропийной спирали ей удалось пройти.

Анализ информационно-энтропийных, соотношений позволяет выявить не только общие закономерности процессов развития, ¡¡о и главные методологические особенности предлагаемого в данной работе нового подхода, позволяющего:

а) анализировать процессы накопления информации в структуре систем. Все ранее разработанные методы информационного анализа позволяют оценивать только потери информации, обусловленные действием помех или отрешением к состоянию термодинамического равновесия;

б) рассматривать обусловленные накоплением информации процессы упорядочивания, адаптации и эволюции систем. Ранее разработанные методы позволяли оценивать количество информации только для заранее сформированных систем.

При анализе процессов упорядочения связей в реальных системах необходимо четко вычленять тот иерархический уровень, на котором проводится подобный анализ при условии абстрагирования от других уровней, на которых может одновременно протекать противоположный процесс. В частности, кесгкая детерминация межэлементных связей не исключает наличия энтропии на более глубоком уровне, т.е. внутри каждого из элементов системы. Так, например,рассматривая жестко детерминированное движение планет по орбитам, мы абстрагируемся от разрушительных (энтропийных) процессов,протекающих внутри каждой из входящих в'систему планет.

Такой подход, согласно выражению В.И.Ленина, "огрубляет" и "омертвляет" реально протекающие в природе процессы. Однако именно в этом подходе и заключается выявленный диалектической гносеологией принцип познания, позволяющий выявить существенные и общие свойства явлений за счет абстрагирования от второстепенных (в контексте сформулированных целей анализа) свойств.

В четвертой главе выявленные в предыдущих главах общие информационно-энтропийные свойства эволюционных процессов сопоставляются с данными эмпирических исследований конкретных эволюционирующих систем. Сопоставления таких различных по своей природе систем, как язык, звездные и планетные системы, генетический код, инстинкты и рефлексы животных и др;, позволяют выявить общие закономерности развития этих систем, совпадающие с выводами предыдущей главы, полученными на основе анализа информационно-энтропийных соотношений.

Общее свойство перечисленных конкретных систем заключается в их стремлении к детерминации, функций и связей по мере их адаптации к конкретным условиям внешней среды. Кроме того,'системам присуши переходы на более высокие уровни-иерархической структуры после достижения определенной степени детерминации на низлезащем урозне. *

С позиций выявленного в предыдущей главе факта существования оптимального соотношения.случайных и детерминированных связей критикуется наметившаяся в современной науке "неометафизическая" тенденция абсолютизации роли случайностей в процессах эвристического мышления, базарукщаяся на опыте эвристического программирования ЗИЛ . Показано, что отмеченная тенденция есть нз что иное, как модификация отмеченного Ф.Энгельсом метафизического подхода к случайным явлениям, попытка искусственно расчленить на чисто случайную и жестко детерминированную части диалектически единый процесс

Использование меры количества информации для оценки степени упорядоченности систем позволило установить зависимость соотношения свободной и связанной энергии от количества информации, сохраняемой в структуре систем и их термодинамической энтропии. Показано, что все антиэнтропийные системы, подчиняясь второму закону термодинамики, вносят за накапливаемую ими структурную инфор- . мацию "энтропийную плату" в виде выделяемого во внешнюю среду тепла. ■ _ .

Благодаря установлению аналитической взаимосвязи между свободной энергией и информацией, сохраняемой в структуре систем, стало очевидно, что овободная часть внутренней энергии физических систем есть не что иное, как суммарная энергия их внутренних связей. Разрывая эти связи либо путем сжигания органических веществ, либо путем разрушения атомных ядер, мы приобретаем возможность использовать свободную энергию физических тел как для созидательных целей, так и для целенаправленных разрушений.

С помощью статистической функции энтропии показано, что пределом общей тенденции к увеличению степени детерминации является строгая периодичность, присущая, например, монохроматическим электромагнитным излучениям гак одному из видов полей. Все виды физических полей обладают той или иной степенью пространственной или временной упорядоченности, поэтому именно полям принадлежит роль носителей-информации, вносящих упорядоченность в те или

иные физические среды (процессы намагничивания, поляризации, кристаллизации, образования молекул сложных химических веществ и т.п.),

Показано, что методы синергетики- , включающие теории,, разработанные Пригожпным (метод обобщенных потоков и обобщенных сил, . теория бифуркаций) соотносятся с предложенными в данной работе методами информационно-энтропийного анализа так взаимно дополнительные подходы к исследованию процессов формирования термодинамических неравновесных систем.-

Оба указанных подхода (термодинамический и информационный) выявляют тенденцию самопроизвольного упорядочения структуры неравновесных систем. Главное преимущество информационного подхода заключается в его универсальности: если теория Пригожина описывает лиьь процессы образования простейших структуализованных систем, то развитие методов теории информации применительно к анализу процессов, упорядочения и самоорганизации позволяет анализировать подобные процессы как в объектах неорганической -Природы, так и в. сложных информационных системах, обладающих способностью восприятия сложной информации и ее перекодировки.

Если процессы упорядочения структуры физически тел обусловлены главным образом действием электромагнитных и ядерных полей, то основным фактором, увеличивающим упорядоченность вещества в космических процессах образования звездных и планетных систем, являются гравитационные поля. Современная астрофизика исследует антиэнтропийные гравитирующие системы, в .которых самопроизвольное течение процессов приводит не к уменьшению, а к увеличению . • разности температур'. В диссертационной работе показано, что системы типа Солнце-Земля-Космос можно рассматривать как космические "тепловые машины", превращающие часть тепловой энергии в направленную ("информированную") энергию электромагнитных излучений. Энергия солнечных излучений преврадается в другие формы энергии, необходимой для формирования упорядоченных информационных систем. Солнце является не только источником энергии, но и

первоисточником всей информации, накопленной на Земле.

Показано, что анализ взаимосвязи энергии, энтропии и информации позволяет вскрыть закономерности, общие для процессов формирования всех существую,дюс на Земле упорядоченных (структурных) систем. ■ '

В заключении делается вывод о том, что в решении извечного спора о соотношении случайных и жестко детерминированных связей в природе момент привлечения теории информации в известном смысле является ключевым. Для решения спора недостаточно было не только понятий о'случайных и необходимых событиях, но и их количественных оценок с помощью вероятностного аппарата. Для этого требуются такие сложные интегральные статистические меры, как мэра количества информации и энтропии.

С помощью количественной меры информации можно производить оценки структурных характеристик в состоянии статистического равновесия (гомеостазиса) заранее сформировавшихся сложных систем (гл. 2). В работе показано, что ту же статистическую функцию энтропии можно использовать для анализа эволюционной динамики развивающихся систем (гл. 3). Выводы, полученные в результате такого подхода, оказываются общими в той же мере, в какой понятие информации применимо ко всем видам эволюционирующих систем (гл. 4). А замечательная функция энтропии становится именно той'формулой, с помощью которой "демон Лапласа" может объять прошедшие, настоящие и будущие состояния мира с той лишь существенной оговоркой, что перед умственным взором предстает не запрограммированный метафизический, а непредсказуемо изменяющийся диалектический мир. При таком подходе становится очевидным, что процессы образования сложных систем из более простых компонентов являются не редким исключением из общего правила, как это было принято трактовать в посвященных анализу второго начала термодинамики философских трудах-, а одной из постоянно проявляющихся тенденций природы, противостоящей росту энтропии.

Показано, что общие свойства процессов развития, выявленные в результате информационно-энтропийного анализа эволюционирую;;^: систем, конкретизируют законы развития, сформулированные диалектическим материализмом.

Ш. ОСНОВНЫЕ РЕЗУЛЬТАТЫ РАБОТЫ

I. С позиций диалектико-материэлистической гносеология проводится критический анализ утверждений ряда ученых об отсутствии

содержательной связи между понятиями физической и информационной энтропии и предложенной в противовес этим утверждениям интерпретации физической энтропии как меры недостатка информации о микроструктуре систем.

2. В качеотве методологического принципа решения проблемы взаимосвязи количества информации с физической энтропией в работе предложено рассматривать эту проблему с точки зрения диалектического единства и противоположности субъективного и объективного аспектов понятия количества информации, выражающегося в следующих, выявленных в результате информационно-энтропийного анализа общих свойствах информационных систем:

а) Максимальное количество информации, получаемой в результата статистических исследований, систем (субъективный аспект), равно количеству информации, сохраняемой'в структуре этих систем (объективный аспект).

б) Информация, избыточная с точки зрения получателя сообщений (субъективный аспект), может использоваться в качестве количественной, характеристики степени упорядоченности структуры сообщений или любых других обладающих внутренней организованностью систем (объективный аспект).

3. На основе изложенной методологии предложено использовать меру количества информации в качестве статистической мери упорядоченности (степени частичной детерминации) движения.

Данная интерпретация меры количества информации в сопоставлении с определением энергии как меры интенсивности различных форм движения и энтропии как меры неупорядоченности (хаотичнооти) движения показывает, что энергия, информация и энтропия являются естественнонаучными категориями, характеризующими философскую категорию движение с различных сторон.

4. Теорему Шеннона об уменьшении результирующей энтропии двух взаимозависимых математических множеств предложено распространить на случаи взаимодействий реальных систем друг о другом

или о внешней средой. При этом отрицательному приращению энтропии соответствует положительное приращение информации, определяющей упорядоченность структуры формирующихся в результате взаимодействий систем. Накоплением структурной информации в результате взаи-медайотвий обусловлено свойство самодвижения, присущее всем уров-

ням организации материального мира.

5. Принципиальное методологическое отличие предлагаемого подхода от других методов информационного анализа систем заключается в возможности анализа процессов накопления информации, в то время как другие разрабатываемые на основе теории информации методы' учитывают лишь потери информации, обусловленные либо внутренними процессами, приближающими систему к состоянии термодинамического равновесия, либо возт действиями внешних помех.

,,6. Проведен сравнительный анализ матричной и прогрессивной форм накопления информации. К первой категории относятся процес-. сы тиражирования текстов, редупликации хромосом и т.п. В этом случае количество накапливаемой информации увеличивается прямо пропорционально числу включаемых в структуру элементов.

При прогрессивном накоплении информации между вновь присоединяемыми и ранее включенными в структуру элементами образуются новые структурные связи, поэтому увеличение количества структурной информации опережает рост числа элементов структуры. ' -

При этом проявляется установленное диалектикой соотношение части и целого в сложных системах: свойства образующейся в результате включения новых элементов и блоков системы неаддитивны свойствам входящих в нее составных частей.

7. В основу математических описаний динамических зависимостей заложены законы сохранения: энергии, вещества, количества движения, законы движения планет по неизменным орбитам и т.п. фундаментальным источником всех происходящих в окружающем мире качественных изменений (превращений энергии из одной формы з другую, взаимных превращений элементарных частиц, развития-самоорганизующихся систем, 'образования из космической пыли новых космических тел и др.) являются статистические закономерности; поэтому при исследованиях всех форм изменений, превращений и эволюционных преобразований наука неизбежно обращается к тем или иным статистическим мерам (вероятности, корреляции, информации, энтропии).

8. Статистическая формула энтропии может быть использована

в качестве математической модели, отражающей информационно-энтропийные закономерности эволюционного развития систем. Процессу развития соответствует образование корреляционных взаимосвязей между учитываемыми этой формулой событиями и дифференцировка значений вероятностей этих событий.

При атом процессу развития на неизменном структурном уровне соответствует дифференцировка значений входящих в эту формулу вероятностей, приводящая к накоплению структурной информации и уменьшению энтропии эволюционирующих систем.

9. В результате статистических взаимодействий эволюционирующей системы с внешней средой в системе устанавливается оптимальное (для заданных внешних условий) соотношение жестких и вероятностных связей, определяемое соотношением накопленной системой структурной информации и ее остаточной энтропии. Для систем, адаптированных к абсолютно стабильным условиям внешней среды, ... оптимальным оказывается состояние жесткой детерминации их внутренних связей.

К числу подобных систем относятся планетные системы, для которых космос в обозримые отрезки времени абсолютно стабилен. К такому состоянию приближаются приспособленные к неизменным условиям инстинкты или рефлексы, использующие стабилизирующее саморегулирование организма узко функциональные органы или паразитические организмы и т.д.

10. Теоретическим пределом всякого процесса накопления информации я упорядочения структуры оказывается состояние жесткой детерминации и нулевого значения энтропии. В этом состоянии-система теряет способность к дальнейшей эволюции вследствие отсутствия стохастических свойств (флуктуаций, мутаций). Данный вывод, вытекающий из рассмотрения свойств статистической функции энтропии, совпадает с изложенным в п. 7 данного раздела общим положением, сформулированным нами на основе анализа свойств сто-хастршых систем.

'II. При переходе зволюциснируюцей системы на более высокие уровни иерархической структуры вступает в действие принцип увеличения разнообразия признаков, сущность которого заключается в том, что из ограниченного набора различных признаков нижнего уровня ("начального алфавита") может быть составлено практически неограниченное число комбинаций. - "

12. Разрешением диалектического противоречия между тенденцией к жесткой детерминации и прекращению развития из-за отсутствия мутаций и противоположной ей тенденцией к-неограниченному формообразованию и совершенствованию развивающихся систем является формирование иерархических структур,.при котором неуклонно стремящаяся к жесткой детерминации система может оказаться тем дальше от этого состояния, чем больше витков иерархической спирала ей ;-~алось пройти.

- о О

-

13. До настоящего времени исследования процессов развития осуществлялись путем обобщения эмпирических данных (главным образом, из области биологии к палеонтологии). Предложенная з данной работе методология информационно-энтропийного анализа выявляет общие закономерности процессов накопления информации на основе общих информационно-энтропийных соотношений. Правомерность полученных выводов проверяется путем сопоставления выявленных общих закономерностей с исследованными эмпирическими свойствами ( таких различных по своей природе систем, как язык, биологический код, организмы, научные теории, произведения искусства и литературы, звездные и планетные системы и.др. При этом сравнение свойств письменных текстов, биологических, космических и прочих систем основано не на поверхностных аналогиях, отражающих лишь сходство отдельных внешних признаков разнородных систем, а на глубокой общнооти и единых закономерностях информационно-энтропийных соотношений, распространяющихся на все эволюционирующие системы и нашедших свое отражение.в свойствах статистической функции энтропии. ' --

14. На основе общих информационно-энтропийных соотношений проведен критический анализ наметившейся в связи с разработкой эвристических программ ЭВМ "неометафизической" тенденции в трактовке творческих процессов. Отмеченная Ф.Энгельсом метафизическая трактовка соотношения необходимого и случайного приводила к выводу, что явления могут быть "либо случайными, либо необходимыми", но не могут совмещать в себе детерминированных и стохастических свойств. Сторонники "неометафизических" трактовок (У.Эаби, Л.Бридлюэн, 'Д.Кэмпбелл и др.) признают наличие как случайных,так и детерминированных связей в процессах мышления, но пытаются при этом искусственно расчленить на "чисто случайную" и "жестко детерминированную" части диалектически единый творческий процесс.-Проведенный на основе общих информационно-энтропийных соотношений анализ процессов мышления показывает, что условием продуктивности творчества является оптимальное соотношение жестких и вероятностных связей (целенаправленного поиска и случайных ассоциаций), диалектически взаимодействующих на всех стадиях творческого процесса..

• 15. С позиций информаыионно-энтротийного подхода становится очевидным, что для решения начатого мыслителями Древней Греции и длящегося 2500 лет научного диспута о соотношении необходимого и случайного в окружающем мире недостаточно было не только самих

категорий необходимого и случайного, но их вероятностных мер. С введением в теорию таких интегральных статистических характеристик, как количество информации и энтропии, появилась возможность количественных оценок соотношения стохастичности и частичной детерминации и изменений этого соотношения в процессах эволюционного развития систем.

16. Важным методологическим обобщением является распространение общих информационно-энтропийных закономерностей на объекты неорганической природы. Принципиальным методологическим шагом, обоснованны:,! в данной работе, является введение количественных информационных критериев, позволяющих выявить общие и единые закономерности процессов накопления информации, начиная от элементарных частиц, атомов, кристаллов, органических и неорганических молекул а кончая образованием звездных и планетных систем, формированием научных концепций, сложных биологических, лингвистических и технических систем.

17. Все выводы относительно общих закономерностей процессов развития, полученные на основе рассмотрения информациояно-сятро-пийных соотношений, является конкретизацией общих положений диалектического материализма.

1У. ОСНОВНЫЗ ПОЛОЖЕНИЯ ДИССЕРТАЦИИ, ВЫНОСИМЫЕ НА ЗАЩИТУ

1. Традиционное использование количественной меры информации позволяет производить оценки степени осведомленности получателя сообщений (субъективный аспект).

В работе предложено использовать ту же информационную меру . для оценки степени упорядоченности структуры различных систем (объективный аспект).-

2. Разработанная в диссертации методология информационно-энтропийного анализа позволяет анализировать механизмы самопроизвольного накопления информации в антиэнтропийных процессах.

3. В результате анализа общих информационно-энтропийных соотношений процессов самоорганизации и развития выявлено диалектическое противоречие между стремлением всех эволюционирующих систем к жесткой детерминации и прекращению развития из-за отсутствия цутлцпй (нулевой энтропии) и тенденцией к неограниченному усложнению и совершенствованию форм.

Диалектическим разрешением этого противоречия оказывается формирование иерархических информационных структур«

о

4. Возможность разработанного и обоснованного в диссертации единого информационно-энтропийного подхода к сами,- разнообразным системам и к различным стадиям формирования этих систем доказывает актуальность проблемы создания нового научного направления - общей теории развития систем. Данная работа может расцениваться как один из первых шагов на этом многообещающем пути.

Публикации. По теме диссертации опубликованы 22 работы, я том числе одна монография и три научно-популярных книги: г.

1. Эволюция и информация. 1:1., Наука, 1273 (12 п.л., с. 232).

2. Взаимосвязь энергии, информации и энтропии в процессах управления и самоорганизации // Информация и управление. М., Наука, 1985 (1,5 п.л., с, 169-193). 3. Общие информационные свойства самоорганизующихся иерархических систем // Вестник АН Каз.ССР, 1384, & 7 (0,8 п.л., с. 47-53)'(в соавторстве). 4. К вопросу о соотношении энтропии информационных процессов и физической энтропии // Вопросы философии, 1965, 15 I (0,8 п.л., с. 135-145).

■5. Автоматизация технологических процессов изготовления средств связи // Техника средств связи, серия - автоматизированные системы управления., 1982, Вып. 2 (6) (0,3 п.л., с. 8-П)'. 6. Структура и функции АСУ гибким автоматизированным производством // Техника средств связи.' Серия - автоматизированные системы, 1983, вып. 2(10) (0,6 п.л., с. 3-9) (в соавторстве). 7. "одульпый принцип построения систем управления ГАП и интегрированных систем // Доклады на Всесоюзной конференции "Электроника и информатика в ГАП", Пермь, 1987 (0,2 п.л., с. 30-35) (в соавторство). 8. Системный подход к вопросам планирования, проектирования и внедрения ГАП // Тезисы докладов на Всесоюзной конференции "Совершенствование планирования и разработки новых поколений техники". !Л., .1906 (0,1 п.л., с. 24-26). '9. Системный подход к созданию и внедрению ГАП. Учебное пособие. ГЛ., Шшпромсвязи, 1986 (3 п.л., с. 76). 10. Одна формула и весь мир. Книга об-энтропии. М., Знание, 1982 (10 п.л., с. 170). II. Репортаж с ничейной земли. Рассказы об-информации, I«., Молодая гвардия, серил "Эврика", 1963, 1966, Токио, 1970 (16 п.л., с. 304). 12. Занимательно об электронике. М., Молодая'гвардия, серия "Эврика", 1965, 1970, Варшава, 1972, София; 1973, Белград, 1975, Гига, 1986. Ы., Мир, 1980, 1986, 1988 (на английском, испанском, индийском языках) (22 п.л., с. 350). 13. Проблема дилетантизма // Изобретатель и рационализатор, 1976, 15 5 (0,8 п.л., с. 63-79). II. Звоташя - почему и куда? // Химия и жизнь, 1978, 1; 9 (0,4 п.л., с. 47-52).

15. Вероятностный механизм эволюции // Наука и техника, Рига, 1976 (0,5 п.л., с. 16-28). 16. Информационный метод анализа статистических механизмов эволюционных процессов /У Тезисы докладов на семинаре Высшей биологической школы. Петрозаводск, 1976 (0,3 п.л., с. 43-54). 17. Язык науки и наука о языке // Химия _и жизнь, 1979, 9 (0,3 п.л., с. 19-22). 18. Спор, которому сто лет // Энергия, 1937, 2 (0,4 п.л., с. 25-30). 19. Вселенная как самоорганизующаяся кибернетическая система // Цурнал Всесоюзного химического общества им. Д.И.Канделеева, 1980, т. ХХУ, К 4 (0,8 п.л., с. 69-78). 20. Об особенностях развития космических систем // Динамика бесстолкновительных гравитирующих систем. Алма-Ата, Наука, 1930 (I п.л., с. 52-64) (в соавторстве). 21. Информационно-энтропийные свойства процессов развития // Тезисы докладов Всесоюзной конференции "Теория, методология и практика системных исследований", М., 1984 (0,2 п.л., с. 45-48). .22. Информационные критерии упорядоченности'и сложности структуры систем // Системные концепции информационных процессов. М., Наука, 1988.(1 п.л., с. 172-189).