загрузка...

§ 5. Сложность, упорядоченность; организация, информация


Понятие сложности (или сложного) широко употребляется как в естественнонаучной, так и в философской литературе. Между тем это понятие еще не получило достаточно четкого определения и до последнего времени даже не являлось предметом специального исследования в общетеоретическом плане. Что же следует понимать под сложным? Наиболее распространено понимание сложного как суммы частей, элементов. И. Б. Новик пишет: «Сложность прежде всего характеризуется как сложенность из элементов»*. И далее он различает две модификации такой сложности: аддитивная сложенность (когда свойства совокупности сводятся к сумме свойств элементов) и неаддитивная сложенность - целостность (когда свойства совокупности не сводятся к сумме свойств элементов).
Подход к сложности как к сумме берет начало из математики (хотя там рассматриваются и неаддитивные свойства математических структур). Нетрудно видеть, что в этом случае абстрагируются от качества составляющих совокупность эле-
Новик И. Б. О моделировании сложных систем (Философский очерк). М.: Мысль, 1965. С. 92.
ментов, - последние мыслятся как однородные (во всяком случае не предполагается их качественное отличие). Такое понимание сложности носит преимущественно количественный характер и не случайно в математике понятие количества рассматривается прежде всего как число элементов множества. Достаточно лишь взаимооднозначного соответствия между элементами двух множеств, для того чтобы сделать вывод об их одинаковой сложности (мощности). С этой точки зрения одинаково сложны совокупности из пяти искусственных спутников земли и пяти карандашей (ибо каждому спутнику соответствует карандаш, и наоборот).
Понятие неаддитивной сложности связано с учетом качественного отличия составляющих совокупность элементов, их взаимных отношений. Можно предполагать, что эта точка зрения на природу сложного берет свое начало из химии. В химии под сложным веществом понимается такое, которое состоит из различных качественно разнородных химических элементов.
Наличие двух видов, модификаций сложного ставит проблему их объединения на общей основе. Необходимость такого объединения вытекает даже из попыток количественного измерения сложности объектов.
Так, степень сложности объектов, состоящих только из однородных элементов или только из разнородных элементов, легко может быть определена сравнением числа элементов этих объектов, если они относятся к одному и тому же типу (путем установления взаимнооднозначного соответствия между элементами). Но как сравнивать между собой объекты, где одно - временно могут быть и одинаковые, и различные элементы при разном количестве и тех и других? Каким образом можно измерить степень относительной сложности таких комбинированных объектов?
Оказывается, формулы количества информации позволяют установить сложность объектов в количественном и в определенной степени в качественном отношении [§§§§§§]. Наиболее отчетливо это можно показать на примере статистической теории информации.
Если предположить, что в формуле Шеннона вероятности равны, то I = logp. Эта формула определяет логарифмическую меру количественной сложности статистических совокупностей.
Но формула Шеннона позволяет в некоторой степени учитывать и качественную сторону сложности. Дело в том, что различные в качественном отношении элементы можно обозначать (кодировать) различными вероятностями. Тогда статистические совокупности, состоящие из одинакового количества элементов, могут иметь различную сложность, которая зависит уже не от количества элементов (случайных событий), а от распределения, различия их вероятностей.
Методы теории информации позволяют определять сложность физических объектов (динамических систем, квантовых ансамблей и т. д.), химических веществ. Наиболее широко классическая теория информации проникла в биологический ком - плекс наук, где в первом приближении была оценена сложность различных составляющих организма на уровне молекул, клеток, органов. Удалось оценить сложность организмов (от одноклеточных до человека).
Методами теории информации можно измерять и сложность ряда общественных явлений. Французский социолог А. Моль, в частности, показывает, как можно определять сложность социальных групп при помощи упомянутой формулы Шеннона [*******]. Так, всякая замкнутая общественная группа (учреждение, предприятие, организация) состоит из определенного числа индивидуумов, принадлежащих к различным категориям. Под категориями индивидуумов понимается выделение их по социальным, профессиональным и иным признакам (управляющие, рабочие, инженеры и т. д.). Методами статистической теории информации определяется сложность структуры учреждения, предприятия и т. д., характеризуемая многообразием возможных положений индивидуума в группе и информацией, которая необходима, чтобы указать положение, в котором находится индивидуум.
Вполне естественно, что теория информации, впервые наиболее широко использованная в теории связи и других технических дисциплинах, может быть применена и для оценки сложно - сти технических, в том числе и некибернетических, устройств (например, легкового автомобиля).
Важность оценки сложности систем и изучения сложных систем возросла с возникновением и развитием кибернетики, предметом которой служат сложные динамические системы [†††††††].
Оценка сложности самовоспроизводящей системы имеет большое значение для развития теории автоматов. Уже в основополагающей работе Дж. фон Неймана по теории автоматов [‡‡‡‡‡‡‡] ставится эта проблема. Он отмечает, в частности, что сложность современных технических устройств (которая оценивается им по количеству элементов) на много порядков ниже, чем, скажем, организма, мозга человека и т. д. Это обстоятельство важно учитывать при создании различного рода автоматов, имитирующих определенные функции живых существ и интеллектуальные способности человека.
Вообще же поиски методов оценки сложности объектов представляют сейчас большой интерес для биологов, психологов и для ученых других специальностей. Возьмем для примера проблему происхождения жизни. Какой сложностью должна обладать система по отношению к окружающим условиям, чтобы ее можно было назвать живой? Предполагается, что первоначально



возникшая на земле самовоспроизводящая молекула должна содержать не менее 200 битов относительно окружающей среды, т. е. относительно более простых химических соединений [§§§§§§§].
Проблема сложности чрезвычайно актуальна и в математике (особенно в связи с развитием вычислительных машин). Методами теории информации оценивается, в частности, сложность математических таблиц [********]. Эта теория может быть использована и в лингвистике (оценка сложности слов, текстов), в логике (оценка сложности понятий, суждений, теорий и т. д.), в теории познания (оценка сложности системы научного знания) и т. д.
Короче говоря, при помощи теории информации в настоящее время можно измерять степень сложности (и ее различные производные) объектов и явлений неживой и живой природы, общества, мышления.
Не следует, однако, представлять, будто для оценки сложности используется лишь статистическая теория информации. Так, один из самых новейших подходов в теории информации - алгоритмический, развиваемый А. Н. Колмогоровым, исходит из определения количества информации как сложности одного индивидуального объекта относительно другого. При оценке сложности форм логического познания могут быть использованы методы семантической теории информации.
Важно отметить, что представление о количестве информации как о мере сложности объектов не противоречит представлению о нем как о количестве различия, разнообразия. Трактовка информации на основе категории различия является более общей, чем ее понимание как сложности. Для понятия сложности характерно лишь отношение тождества (принадлежности элементов к данному множеству) данной совокупности и отношения различия между элементами (качественного или количественного). Но это понятие не учитывает порядка расположения элементов во множестве, например, в пространственном, временном или ином отношении. В том случае, когда отношения порядка (отношения предшествования, отношения «больше» или «меньше» и т. д.) налицо, то это обстоятельство делает множество упорядоченным[††††††††].
Методы теории информации позволяют учитывать и отношения порядка, так как по существу это определенный вид различия (разнообразия). Не случайно в большинстве работ, где в той или иной степени делается попытка раскрыть смысл понятия информации, ее связывают с упорядоченностью.
Понятия сложности и упорядоченности характеризуют, таким образом, элементы множества и простейшие их отношения (отношения качественного и количественного различия, порядка). Однако эти понятия не учитывают всего разнообразия взаимосвязей и других отношений между элементами множества. Другими словами, для того чтобы установить сложность и упорядоченность множества, не имеет значения - находятся ли его элементы во взаимосвязи, взаимодействии или не находятся. Разнообразие взаимосвязей, взаимоотношений элементов во множестве характеризуется, на наш взгляд, другим понятием - организацией, родственным понятиям сложности и упорядоченности. При этом понятие информации объемлет все упомянутые типы разнообразия: и разнообразие элементов (сложность), и разнообразие отношений порядка (упорядоченность), и разнообразие любых отношений и взаимосвязей элементов во множестве (организация). Отсюда ясно, что оно является более широким, чем понятия сложности, упорядоченности или организации.
На связь информации с упорядоченностью и организацией указал еще Н. Винер [‡‡‡‡‡‡‡‡]. Некоторые авторы употребляют понятия упорядоченности и организации как равнозначные *. Однако, на наш взгляд, в понятии организации, в отличие от понятия упорядоченности, центральным моментом выступает представление о связи. Связь необходимо предполагает наличие того, что связывается, т. е. элементов, частей. Значит, организованное множество обязательно должно быть сложным. Кроме того, связь обязательно включает в себя и отношение порядка, ибо связь невозможна без этого отношения, тогда как последнее без связи возможно.

На значение связи, зависимости для понятия организации обращает внимание У Р. Эшби **. Дж. Ротштейн *** также отмечает, что понятие организации необходимо включает в себя связь, взаимодействие частей целого. 1де нет этой связи, взаимодействия, там нет и организации, а имеется просто совокупность индивидуальных элементов, изолированных друг от друга. Итак, понятие организации необходимо предполагает наличие элементов множества в их взаимосвязях и отношениях, а следовательно, включает в себя такие свойства множества, как сложность и упорядоченность .
Если разнообразие элементов множества определяет степень его сложности, а разнообразие отношений порядка - степень его упорядоченности, то разнообразие любых типов отношений и любых типов связей характеризует степень организации совокупности. Степень организации может быть определена как нулевая, если элементы совокупности не находятся между собой ни в каких связях и отношениях. Нетрудно видеть, что таких объектов внешнего мира, элементы которых не находились бы в связи и отношениях, не существует. В любом объекте действительности любые два элемента каким-то образом всегда взаимосвязаны. Однако они могут не находиться в каких-либо данных связях и отношениях (скажем, механических или электромагнитных). С этой точки зрения, любые объекты во Вселенной имеют организацию, однако в том или ином конкретном отношении организация может отсутствовать или количественно измеряться различной степенью.
Рассмотрим некоторую совокупность из конечного числа элементов. Если в этой совокупности хотя бы два элемента находятся во взаимосвязи и взаимных отношениях, то степень организации такой совокупности отлична от нулевой. Чем больше элементов в совокупности вступает во взаимосвязь (отношения) с другими элементами, тем выше становится степень организации совокупности. И наконец, степень организации объекта на данном уровне оказывается максимальной, когда любой элемент его взаимодействует (находится в отношении) с любым другим элементом. В соответствии с этим совокупности могут быть неорганизованными, частично организованными и полностью организованными (в том или ином отношении).
В количественном отношении степень организации может измеряться формулами теории информации. Однако для этой цели можно использовать не всякую формулу. Это относится, в частности, к известной формуле Шеннона (абсолютной негэнтро- пии). В самом деле, максимальная степень организации достигается при максимальной взаимозависимости составляющих данного объекта. Для статистической совокупности в этом случае формула Шеннона дала бы минимальное количество информации, а если бы события совокупности оказались независимыми друг от друга - максимальное количество информации, так как увеличение статистической связи между составляющими системы ведет к уменьшению количества информации.
Более адекватно степень организации объектов измеряется с помощью формулы относительной негэнтропии, предложенной
К. Шенноном для определения количества информации непрерывных совокупностей.
Таким образом, теория информации может послужить своего рода базой для исчисления организации. Как отмечает К. М. Хайлов, «приняв за единицу организации интеграцию (связь) двух элементов системы, можно показать, что она отвечает единице информации в двоичной системе исчисления» *.
Полное же измерение степени организации требует не одной простой формулы количества информации, а сложной формулы, где каждый член учитывает свой вид разнообразия, например, первый - разнообразие элементов, второй - разнообразие связей, третий - разнообразие отношений порядка, четвертый - другой класс отношений (топологических, функциональных и т. д.). Следует отметить, что такие формулы уже существуют (работы Э. Тракко, М. и М. Е. Валенти- нуцци и др.).
Еще до создания теории информации полагали, что можно измерить степень упорядоченности и организации при помощи методов термодинамической энтропии. Однако термодинамическая энтропия учитывает лишь один класс разнообразия - разнообразие, связанное с тепловым движением. Поэтому неправильно связывать степень организации и даже степень упорядоченности объектов высоких ступеней развития лишь с термодинамической энтропией. Как отмечает, например, М. Дж. Клейн, «степень порядка в системе, которая измеряется при помощи энтропии (низкая энтропия соответствует высокому порядку), не то же самое, что степень организации систем в том смысле, в кото - ром он употребляется биологами» .
Хайлов К. М. Биологическая организация, эволюция и энтропия // Проблемы исследования систем и структур: сб. [материалов к конф.]. М., 1965, с. 99.
Klein М. J. Order, Organization and Entropy // The British Journal of the Philosophy of Science, 1953. Vol. IV, № 4. P. 160. Эти вопросы рассматриваются также в статье К. М. Хайлова: Упорядоченность биологических систем // Успехи современной биологии. 1966. Т. 61. Вып. 2.
В процессе прогрессивного развития материальных систем одни классы разнообразия могут сужаться, другие увеличиваться. Но общее количество разнообразия всех классов на прогрессивной линии развития, несомненно, растет. И это увеличение количества разнообразия не может быть учтено лишь методами термодинамической энтропии. Уже в области биологических явлений представления термодинамики оказываются по меньшей мере ограниченными, а в области общественных явлений вообще неприменимыми. Между тем методы теории информации позволяют определять степень упорядоченности (или сложности), организации любых объектов и явлений.
Упорядоченность, организация реальных объектов может быть различных видов. В зависимости от отношений порядка, связи элементов системы подчиняются различным закономерностям. Очевидно, что для оценок упорядоченности и организации разных объектов должны выбираться различные теории информации. Поэтому сравнение степени организации, упорядоченности объектов, подчиняющихся качественно различным закономерностям, строго говоря, возможно лишь в определенном диапазоне их качественных изменений. Однако из этого не следует, что в принципе нельзя сравнивать и далекие друг от друга объекты по степени организации, упорядоченности. Ведь мы можем выделить некоторый класс разнообразия, общий для рассматриваемых качественно различных объектов, и применить к ним теоретико-информационный метод.
Необходимо указывать не только класс разнообразия, по которому сравниваются между собой объекты, но и начало отсчета этого разнообразия, начальный уровень различия. Например, в организме количество информации окажется существенно различным в зависимости от того, на каком уровне ведется отсчет - на уровне органов, клеток, молекул, атомов или элементарных частиц.
Рассмотренный выше информационный количественный критерий оказывается достаточно универсальным, если исходить из весьма общего понимания информации как разнообразия, а само разнообразие понимать не упрощенно, (скажем, лишь как разнообразие элементов), но и как разнообразие связей, отношений, функций, свойств и т. д. Универсальность рассмотренного информационного критерия сказывается в том, что он позволяет измерять степень организации всех объектов неживой и живой природы, общества, познания.
Однако, говоря о применении методов теории информации к исчислению организации, было бы неправильным ограничиваться только количественным аспектом информации. Ведь теория информации развивается и в качественном аспекте, и сюда мы относили, в частности, различные варианты семантических и прагматических концепций информации.
Так, ценность информации оказывается важной характеристикой для живых и вообще кибернетических систем, так как она связана с их функционированием, самоуправлением или управлением. В кибернетике считается установленным, что системе для выполнения некоторой функции, связанной с сохранением, устойчивостью, необходимо иметь определенное количество внутреннего разнообразия (закон необходимого разнообразия, сформулированный У. Р. Эшби).
Ценность информации оказывается тем большей, чем меньшее количество разнообразия способно выполнять заданную функцию. Прагматический критерий информации в некотором отношении противоположен количественному критерию, однако лишь тогда, когда сравниваются системы, имеющие различное внутреннее разнообразие и выполняющие одну и ту же функцию. Если же сравниваются системы, выполняющие различные функции, то ценностный критерий уже оказывается малопригодным, здесь для оценки степени организации по- прежнему можно использовать количество информации.

Наконец, в ряде социальных, теоретико-познавательных и логических систем может быть использован и семантический информационный критерий степени организации. Сейчас методы семантической теории информации применяются к измерению в основном смысла простейших форм научного познания - суждений. Однако уже делаются попытки более широко использовать эти методы: измерять с их помощью и довольно сложные лингвистические, логические, семиотические и др. системы. По- видимому, в таких системах следует применять не один какой- либо критерий, а все информационные критерии в комплексе. В некоторой степени этой цели отвечает семиотический информационный критерий, воплощающий в себе единство количест - венного (синтаксического), прагматического и семантического критериев. Можно думать, что и этот комплексный информационный критерий не является наиболее адекватным, так как сейчас многие свойства информации еще не изучены.
Предлагаемые здесь информационные критерии в теоретико-познавательном плане следует рассматривать не как принципиально различные критерии, а как взаимосвязанные стороны единого информационного критерия, который может быть выявлен во всей своей полноте лишь в ходе дальнейшего развития науки. Применение теоретико-информационного метода к выявлению степени организации, упорядоченности сделает возможной более точную оценку в различных отраслях знания качественной специфики объектов, находящихся на разных уровнях развития материи. 
<< | >>
Источник: Урсул А. Д.. Природа информации: философский очерк. 2010

Еще по теме § 5. Сложность, упорядоченность; организация, информация:

  1. Регулирование труда творческих работников средств массовой информации, организаций кинематографии, театров, театральных и концертных организаций, цирков и иных лиц, участвующих в создании и (или) исполнении произведений, профессиональных спортсменов
  2. 3.2.2. Определение потребности в информации и организация ее сбора
  3. 6.2. Обзор промежуточной финансовой информации, подготовленный аудитором организации
  4. Глава 20 Золотой век:ойкумена упорядоченная
  5. ОРГАНИЗАЦИЯ И ПРОГРАММА, МЕТОДЫ АНАЛИЗА И ПРОГНОЗА СОЦИОЛОГИЧЕСКОЙ ИНФОРМАЦИИ, ПРОЕКТИРОВАНИЕ РЕШЕНИЙ ПРОБЛЕМ ФИЗИЧЕСКОЙ КУЛЬТУРЫ И СПОРТА
  6. 3. ПОИСК ОДНОНАПРАВЛЕННОГО КОНТИНУУМА В ШКАЛАХ ГУТТМАНА (УПОРЯДОЧЕННАЯ НОМИНАЛЬНАЯ ШКАЛА)
  7. Астрология германской катастрофы Как была создана система упорядоченного хаоса поражения
  8. 1.5. Пользователи экономической информацией коммерческой организации и субъекты экономического анализа
  9. Сложность и устойчивость «Общепринятые воззрения»
  10. §157. Защита недвижимой собственности в отношениях по соседству А) Actio fim'um regundorum (об упорядочении границ)