Качество информации

Возможность и эффективность использования информации обусловливаются такими основными ее потребительскими показателями качества как репрезентативность, содержательность, достаточность, доступность, актуальность, своевременность, точность, достоверность, устойчивость.

 

 

Таблица 4.1

 

Единицы измерения информации и примеры

Мера информации Единицы измерения Примеры
Синтаксическая:     Шенноне кий подход   фон Неймановский подход Степень уменьшения неопределенности   Единицы представления информации Вероятность события   Бит, байт, Кбайт и т. д.
Семантическая Тезаурус   Экономические показатели Пакет прикладных программ, персональный компьютер, компьютерные сети и т.д.     Рентабельность, производительность, коэффициент амортизации и т.д.
  Мера информации     Единицы измерения   Примеры
  Прагматическая   Ценность использования   Емкость памяти, производительность компьютера, скорость передачи данных.   Денежное выражение.   Время обработки информации и принятия решений

 

Репрезентативность информации связана с правильностью ее отбора и формирования в целях адекватного отражения свойств объекта. Важнейшее значение здесь имеют: правильность концепции, на базе которой сформулировано исходное понятие; обоснованность отбора существенных признаков и связей отображаемого явления. Нарушение репрезентативности информации приводит нередко к существенным ее погрешностям.

Содержательность информации отражает семантическую емкость, равную отношению количества семантической информации в сообщении к объему обрабатываемых данных, т.е.: .

С увеличением содержательности информации растет семантическая пропускная способность информационной системы, так как для получения одних и тех же сведений требуется преобразовать меньший объем данных.

Наряду с коэффициентом содержательности С, отражающим семантический аспект, можно использовать и коэффициент информативности, характеризующийся отношением количества синтаксической информации (по Шеннону) к объему данных .

Достаточность (полнота) информации означает, что она содержит минимальный, но достаточный для принятия правильного решения состав (набор показателей). Понятие полноты информации связано с ее смысловым содержанием (семантикой) и прагматикой. Как неполная, т.е. недостаточная для принятия правильного решения, так и избыточная информация снижает эффективность принимаемых пользователем решении.

Доступность информации восприятию пользователя обеспечивается выполнением соответствующих процедур ее получения и преобразования. Например, в информационной системе информация преобразовывается к доступной и удобной для восприятия пользователя форме. Это достигается, в частности, и путем согласования ее семантической формы с тезаурусом пользователя.

Актуальность информации определяется степенью сохранения ценности информации для управления в момент ее использования и зависит от динамики изменения ее характеристик и от интервала времени, прошедшего с момента возникновения данной информации.

Своевременность информации означает ее поступление не позже заранее назначенного момента времени, согласованного с временем решения поставленной задачи.

Точность информации определяется степенью близости получаемой информации к реальному состоянию объекта, процесса, явления и т.п. Для информации, отображаемой цифровым кодом, известны четыре классификационных понятия точности:

- формальная точность, измеряемая значением единицы младшего разряда числа;

- реальная точность, определяемая значением единицы последнего разряда числа, верность которого гарантируется;

- максимальная точность, которую можно получить в конкретных условиях функционирования системы;

- необходимая точность, определяемая функциональным назначением показателя.

Достоверность информации определяется ее свойством отражать реально существующие объекты с необходимой точностью. Измеряется достоверность информации доверительной вероятностью необходимой точности, т.е. вероятностью того, что отображаемое информацией значение параметра отличается от истинного значения этого параметра в пределах необходимой точности.

Устойчивость информации отражает ее способность реагировать на изменения исходных данных без нарушения необходимой точности. Устойчивость информации, как и репрезентативность, обусловлена выбранной методикой ее отбора и формирования.

В заключение следует отметить, что такие параметры качества информации как репрезентативность, содержательность, достаточность, доступность, устойчивость, целиком определяются на методическом уровне разработки информационных систем. Параметры актуальности, своевременности, точности и достоверности обусловливаются в большей степени также на методическом уровне, однако на их величину существенно влияет и характер функционирования системы, в первую очередь ее надежность. При этом параметры актуальности и точности жестко связаны соответственно с параметрами своевременности и достоверности.

 

 

определение границ применимости классической теории информации

 

Мысль о нелинейной динамике, как о некотором плодотворном методологическом субстрате подтверждается возникновением на ее основе одного из "побегов" – динамической теории информации, в которой ставятся и решаются вопросы о механизмах генерации и рецепции информации, оценке ее ценности и эволюции ценности, новизне, различии целей, математических моделях развития мозаичных систем. В этой теории стадии информационного процесса как бы нанизаны на единый "синергетический стержень".

Заметим, что методология выявления связи информации и самоорганизация до сих пор не проработана в методологических исследованиях. Причинами этого являются множественность разнообразных, непохожих друг на друга трактовок понятия "информация", порой не выходящих за пределы метафор; неопределенность интерпретации на уровне термодинамических аналогий.

До сих пор методологами не вполне осознано различие роли информации в кибернетических и самоорганизующихся системах: в первых рассматривается процесс динамического равновесия между системой и ее окружением, что позволяет объяснить лишь сохранение достигнутого сконструированного человеком порядка (гомеостазис) [12]; во вторых достигается порядок за счет внутренних детерминант сильно удаленной от состояния равновесия системы, для которой радикальное значение имеет влияние флуктуаций, "организующее" когерентное поведение элементов системы, многовариантность путей эволюции [17].

Концептуальный каркас и понятийный аппарат традиционной теории информации создавался в условиях смешения языков формализма различных узкоспециальных отраслей знания. Это привело к ряду парадоксальных ситуаций, очевидных с позиций постнеклассических представлений, но вполне согласованных с традицией видения мира, жестко детерминированного, безальтернативного, описываемого линейными (или квазилинейными) закономерностями. В этом мире для сложного многостадийного процесса требовалось (и было достаточно) единственное определение. Ускользающая при этом сущность информационного процесса является результатом попытки сделать характеристику этапа процесса определением всего феномена.

Плюральность мира и многовариантность развития в постнеклассической науке находят свое отражение в полифундаментальности описания. С этих позиций в данной работе реализована обобщенная схема феномена информации, как целостного информационного процесса, содержащего отдельные стадии, которые невозможно описать на единственном языке. Это возникновение информации, ее рецепция, кодирование, запоминание, передача, декодирование, целенаправленное действие, воспроизведение. Этот методологический подход упорядочивает спектр определений феномена, сложившийся в конкретно-научных областях, каждое из которых раскрывает его значимые особенности, но не объемлет его во всей целостности. Таким образом удается снять противоречия частнонаучных определений.

Некоторые выводы могут показаться представителям гуманитарных наук тривиальными, ибо они уже используются на интуитивном уровне или априори. Вместе с тем тот факт, что естественные науки описали важные свойства динамики систем на лаконичном языке математики, выясняя отношения между элементами систем, представляется значимым и для гуманитарных наук. Исследование сложных систем, развитие которых сопровождается сменой доминирующих элементов (например, политических систем, научных школ, ареалов культуры), оптимально при обращении к неформализованным выводам динамической теории информации. Представления о слагаемых реального процесса эволюции логической информации позволяет установить рациональные границы для экстраполяций выводов сложившихся культурологических школ [30]. Это дает возможность увидеть не только широкий спектр трактовок сущности культуры, но и результаты исследования функционирования структурных элементов системы. Структуры, создаваемые культурой, не могут считаться естественными, так как генетически они не предопределены. Их нельзя считать искусственными, ибо они не являются запланированными продуктами интеллектуального творчества. Это делает сложной связь между развитием культуры и расширением знаний. Отсюда и противоречия между "двумя культурами", между естественным и гуманитарным знанием. Истоки противоречий в статическом взгляде на природу, характерном для классического образца рациональности, который не мог уживаться с фактом самопроизвольного создания структур культурой.

Обращение к постнеклассической картине мира позволяет увидеть множество неравновесных сложных открытых систем, самоорганизация которых демонстрирует роль хаоса как созидательного начала и конструктивного нелинейного многовариантного механизма эволюции. Выход из хаоса всегда связан с генерацией информации благодаря тому, что самоорганизующаяся система совершает выбор одного из представленных природой путей развития. Причем выбор этот случаен. Таким образом, эволюция любой самоорганизующейся системы это прежде всего повышение ценности ее информации. Важность этих событий в эволюционном развитии очевидна. Тем не менее вопросы об участии информации в эволюции самоорганизующихся систем при всей их актуальности ставились лишь в отдельных работах естественно-научного профиля (Г. Николиса, Дж. Николиса, И.Р. Пригожина, Г. Хакена, Д.С. Чернавского).

В монографии рассмотрены случаи, когда роль аттракторов процессов самоорганизации играют стационарные структуры. При этом за пределами рассмотрения остается не менее важное направление синергетических исследований научной школы А.А. Самарского и С.П. Курдюмова, существенно нестационарных, усложняющихся и деградирующих в режимах с обострением структур. Структуры при этом приобретают характер процессов, ибо связаны со становлением. Модели этих процессов методологически значительно сложнее, ибо содержат внутри себя возможности перехода на режим противоположного характера.

Эйфория пятидесятых-семидесятых годов в связи с представлением об информации как о некотором всеобщем свойстве материи, связанном с уровнем ее организации, т. е. свойстве, противоположном энтропии (негэнтропии), сменилась разочарованием и пессимистическим отношением к эвристичности информационного подхода.

С чем связана эта метаморфоза? Вероятно, не с умалением значения информации в жизни человека и окружающего его мира: мы постоянно убеждаемся в значимости информации в политической, экономической, социальной ситуациях; в трудах естествоиспытателей и философов в связи с обостренным интересом к событиям в открытых системах мы читаем, что это – системы, пронизываемые потоками вещества, энергии и информации; наконец, расшифровка в середине XX столетия генетического информационного кода всего живого сделала бесспорной определяющую роль информации в феномене жизни. Так что актуальность механизмов изучения информационных процессов не оставляет сомнений.

Проведенный в ряде работ анализ [22,23,40] обнаружил существенные фактические и методологические неточности, мешающие развитию общей теории информации. Так, оказалось весьма важным различать макро- и микроинформацию. Последнюю легко сопоставить с энтропией, но невозможно запомнить. Это нарушает ключевое свойство всякой информации – ее фиксируемость. Методологическим следствием этого различия является нарушение связи между переданным системе количеством макроинформации, определяемом по формуле Шеннона [42], и ее энтропией.

Применение информационного подхода к экологическим, научным и социокультурным системам невозможно без методологического ключа, позволяющего определить правомерность информационно-энтропийных соотношений. В качестве такого ключа предлагается использовать термодинамический подход к оценке характера той или иной величины (мера вещества, функция состояния, количественная мера процесса). Естественно разъединяется термин "информация" с термином "количество информации", использованного в классической теории информации. Становится ясным, что эта количественная теория не может быть распространена за пределы теории связи, что она не имеет никакого отношения ни к экономике, ни к искусству, ни к науке.

Требуется работа методолога по собиранию всего сделанного в направлении создания теории информации, в которой будет уделяться внимание не только количественной, но и содержательной, смысловой, а также аксиологической стороне вопроса [18,31].

Задачей теории информации является выявление самых общих свойств любой информации независимо ни от ее семантики, ни от ее природы. Другой, скорее методологической, чем научной, задачей является различие между зачастую неадекватно используемыми характеристиками информации – качеством, ценностью. Согласно традиционной теории ценность информации зависит от той цели, к которой стремится получающий информацию объект. Считалось, что цель ставится извне. Это придавало информации антропный характер, а главное, исключало возможность самопроизвольного изменения ценности информации.

 

4.1 . Случайный выбор, как источник генерации информации

 

Термин "информация" настолько дискуссионен, что до сих пор, несмотря на множество книг и статей, посвященных информации, несмотря на расширение сфер ее применения, не существует точного общепризнанного определения этого феномена. В общепризнанном (обыденном) смысле информация означает сумму сведений, которые получает человек об окружающем мире, об интересующих его явлениях, о других людях, о самом себе. Жизнь личности, жизнь общества основаны на сообщении и получении информации.

В середине XX века возникла новая наука – кибернетика, изучавшая процессы управления и связи в искусственных устройствах и живых организмах [7]. Благодаря кибернетике, одним из основных понятий которой является информация, стало ясным огромное значение информационных процессов при функционировании всего живого: растений, простейших организмов, животных. Казалось, что между живой и неживой природой имеется существенное "кибернетическое" различие. Неживые системы самопроизвольно переходят к состоянию максимальной неупорядоченности, отвечающему максимальной энтропии (второе начало термодинамики). Живые системы, обладающие заданной функциональной организацией, напротив, переходят к состояниям биологической упорядоченности. Эту особенность живых систем справедливо объяснили на основе сочетания открытости и сильной неравновесности, создающих предпосылки для протекания информационных процессов [28]. Оказалось, что любое биологическое упорядочение направляется информацией. Именно поэтому при развитии живого энтропия утрачивает характер жесткой альтернативы: в то время как одни системы вырождаются, другие достигают высокого уровня организации, их энтропия самопроизвольно понижается. Живые системы являются самоорганизующимися.

В семидесятых годах было четко показано, что самоорганизация не является прерогативой живых систем. Природа изобилует примерами неживых открытых систем, способных в неравновесных условиях использовать энтропию как источник организации, переходить "от хаоса к порядку", т. е. в этом отношении вести себя подобно живым системам [26]. В связи с этим оказался возможен объединяющий, а вовсе не взаимоисключающий подход к явлениям физики, химии, геологии, с одной стороны, и биологии – с другой. В рамках этого подхода, оказавшегося в настоящий момент в центре новейшей естественно-научной (постнеклассической) картины мира, встает вопрос о роли информации в процессах самоорганизации (вообще всех, а не только живых) систем. Трудно предположить, что явления самоорганизации в живой природе направляются потоками информации, а в неживой, – каким-то иным способом.

Становится очевидным, что на фоне развития теории самоорганизации (синергетики) понимание информации как суммы сведений весьма ограничено. Одно из наиболее содержательных определений, позволяющих понять роль информации в самоорганизующихся системах, а также подойти к оценке количества информации и единице ее измерения дано Генри Кастлером: информация есть случайный запоминаемый выбор варианта из многих возможных и равноправных [19].

Строго говоря, эта часто цитируемая формулировка относится не к определению содержания понятия "информация", а способу ее создания – особенностям генерации информации. Согласно определению Кастлера выбор варианта должен быть:

1) случайным;

2) совершаемым из многих возможных и равноправных (но не обязательно равновероятных) вариантов;

3) запоминаемым.

Рассмотрим последовательно условия 1)-3).

1) Итак, выбор должен быть случайным, если речь идет о возникновении новой информации. Если выбор подсказан на основе предшествующей информации, то речь может идти о ее восприятии, т. е. о рецепции.

Поскольку выбор экспериментальной базы классической науки исключает "задачи с развилками", т.е. в которых решение является детерминированным, то становится ясным, что генерация информации даже в столь простых и наглядных вариантах выносится "за скобки", как этой науки, так и классического детерминизма. В дальнейшем этот тезис будет развит вплоть до утверждения о том, что без введения дополнительных аксиом в виде концептуальных положений теории самоорганизации невозможно раскрыть смысл феномена информации.

Нетрудно видеть, что случайный выбор должна совершать самоорганизующаяся физико-химическая система, когда оказывается достигнутым порог ее устойчивости. При некотором значении варьируемого параметра состояния системы нарушается устойчивость термодинамической ветви, система оказывается в критической ситуации. Это отвечает точке бифуркации, после перехода через которую система может оказаться в одном из двух стационарных состояний. На рисунке 4.1. приведена типичная бифуркационная кривая. По оси абсцисс – параметр состояния, по оси ординат – стационарные значения некоторой переменной x.

 

 

Рис. 4.1. Симметричная бифуркационная диаграмма;

ОБ – термодинамическая ветвь, становящаяся неустойчивой правее точки Б. При b > b0 существуют два стационарных состояния.

Существование этих состояний предоставляет системе выбор: она может отдать предпочтение одной из возможностей. Каким образом система совершает выбор? В нем присутствует элемент случайности: нелинейное макроскопическое уравнение, описывающее временную эволюцию системы, предсказывая многовариантность траекторий эволюции, не в состоянии предсказать, по какой из возможных (разрешенных законами природы) траекторий пойдет дальнейшее развитие. Не помогает и обращение к микроскопическому описанию. Перед нами случайные явления, аналогичные исходу бросания игральной кости. В процессе случайного выбора, который совершает система, генерируется информация.

Случайность выбора создает платформу для статистической оценки количества информации и выбора единицы ее измерения.

2) В речь шла о выборе вариантов, принадлежащих одному множеству. Это и соответствует термину в определении Кастлера "равноправный". Мы уже отметили, что равноправность не означает равновероятность, но, тем не менее, вероятности выбора вариантов не очень далеки друг от друга.

3) Рассмотрим требование запоминаемости (рецепции) выбора. Если речь идет о человеке, сделавшем тот или иной выбор, то при фактической сложности процесса запоминания кажется более или менее ясным: человек обладает памятью, данной ему природой, он способен запоминать. А если речь идет о "бифуркационном" выборе? Что значит в этом случае "запомнить"? На физическом языке это значит привести систему в определенное устойчивое состояние. При этом возникает упорядоченность (структура), олицетворяющая нарушение прежней пространственной симметрии и установление новой асимметричной и в то же время более упорядоченной формы координации частиц, из которых состоит система. В термодинамически устойчивой изолированной системе закон максимума энтропии создает ограничения в виде требования пространственной инвариантности распределения вещества. Никакая информация не может быть запомнена равновесной системой, ибо она имеет лишь одно единственное состояние. Запоминать может только система, находящаяся в далеко неравновесных условиях, способная формировать диссипативные структуры, описанные в серии статей и монографий одного из создателей синергетики (учения о самоорганизации на основе термодинамики неравновесных структур) [26,27], а также в сотнях статей ученых-синергетиков.

Наличие порогов и четкая локализация в пространстве и времени являются очень эффективным путем осуществления регуляторных функций, которые обеспечивают запоминание. Создающиеся в результате выбора структуры – это результат информационного процесса. Запоминать могут и биологические молекулы, способные находиться в нескольких состояниях.

Таким образом, кастлеровское требование к информации "запомнить" реализуется в полном объеме только в рамках синергетики. Интуитивно ясное из обыденного опыта требование "запомнить" превращается во вполне научный термин, указывающий на определенные структурно-динамические изменения внутри системы, способной к самоорганизации.

Требование запоминания выбора реализуется в виде общего свойства любой информации, названного "фиксируемостью", т. е. с "записью" информации, не имеющей материальной природы, на материальном носителе [22]. Это вовсе не означает, что информация присутствует всюду, что она как некий статический компонент (подобно гипотетическому эфиру) заполняет весь материальный мир. Представление об информации как о субстанции – это такая же фикция, как гипотеза теплорода. Представление об информации должно быть связано с понятием процесса. В самом деле, выбор – это процесс; рецепция или прием, запоминаемой информации – это процесс изменения состояния системы; передача информации по каналам связи, ее кодирование, декодирование, трансформация тоже, несомненно, являются процессами.

Только в специальных искусственных или естественных устройствах-ячейках может храниться законсервированная память о протекших информационных процессах; тогда можно говорить о "накопленной" информации. Ясно, что "накопить" процесс невозможно, но ведь с успехом можно накопить последствия процесса. Так, нельзя накопить совершенную механическую работу, которая тоже является процессом, но результат работы может быть накоплен, например в виде увеличения внутренней энергии адиабатно сжимаемого газа.

Во всех реальных запоминающих устройствах время запоминания ограничено, ибо ограниченное время сохраняется то состояние, в которое перешел рецептор под влиянием переданной ему информации. Важно, чтобы интервал времени сохранения памяти был не меньше, чем длительность того процесса, в котором данная информация может понадобиться.

Таким образом, благодаря синергетике появляется возможность возвести идею о значимости информационных процессов в окружающем нас мире в ранг способа видения этого мира. Вместе с тем необходимо отметить, что процесс генерации информации не имеет аналогов в традиционной науке. Это – событие, синтезирующее "случай" и "необходимость", поскольку случайный выбор в момент генерации возможен только из числа состояний, разрешенных природой.

Информация бывает условная и безусловная. Условная информация это прежде всего код, соответствие между условными символами и реальными предметами. Условность информации при выборе любого кода людьми (например, телеграфного кода, азбуки Морзе) очевидна. Условной является и информация, содержащаяся в алфавите и словарном запасе языка. Заметим, что в последнее время наше представление о языке необычайно расширилось, что легко объясняется: большой интерес к проблемам языка связан с важностью изучения процессов мышления. В связи с этим развиваются такие области, как математическая лингвистика, разделяющаяся на статистическую и структурную. Перед математиками постоянно стоит задача построения искусственных языков для взаимодействия человека с вычислительной машиной. Для специалистов-кибернетиков изучение языка – это одна из основных задач, поскольку структура управления – это структура языка системы.

"Оставаясь на позициях кибернетики, мы рассматриваем язык как некоторый организм, полагая, что, возникнув под влиянием определенных (может быть, еще далеко не понятых нами, тем более в деталях) причин, он продолжает самостоятельно развиваться, проходя свой, специфический путь эволюции и оказывая подчас решающее влияние на иерархически вышестоящие системы, скажем, на мышление человека" [31].

Современная наука считает, что возникновение речи т. е. замена звуковых сигналов словами, положило начало человеческой истории. Связано ли появление языка с генерацией условной информации? Для положительного ответа на этот вопрос необходимо выяснить роль случайности при выборе того или иного способа общения с помощью языка. О том, что случайность здесь играет существенную роль, свидетельствует факт множественности языков (специалисты насчитывают около 3000 различных разговорных языков, на которых говорят народы Земли). Но даже если бы к настоящему моменту все языки слились в некий единый международный язык, мы не могли бы исключить влияния случая на его формирование, ибо это слияние могло бы быть результатом эволюции языковых систем, а не насаждением единого языка извне.

Считается, что логическая кодовая условная информация есть результат общественной деятельности, ибо кодовая информация может быть полезной только в том случае, если ею владеют несколько человек [40]. С помощью языка в свое время возник новый вид информации – так называемая логическая информация. Однако кодовой является и условная генетическая информация, генерация которой произошла задолго до появления существ, способных к общественной деятельности. Вместе с тем удается свести генетику к формальному описанию явлений в терминах языка, причем языка весьма жесткого и закрытого [40], так как в его словаре не происходит изменений, ибо любые изменения словаря приводят к летальному исходу для носителя информации. Это язык с застывшим словарем. Замечательно, что, в отличие от обычных языков, язык генетического кода является единым, его структура действительна как для человека, так и для растений.

Безусловной является информация:

- о реально происходящих событиях, т. е. смысловая, не возникающая случайно, а рецептирующаяся из окружающей действительности;

- генерирующаяся в процессах самоорганизации.

В работе [40] отмечается, что каждое сообщение содержит как условную, так и безусловную информацию, и разделить их иногда непросто. Так, например, математический формализм, унифицированный на нижних уровнях иерархической лестницы, кажется безусловной информацией. Однако следует помнить, что унификация математического аппарата произошла не сразу. Генерировалась условная информация рядом ученых-математиков. Унификация произошла в результате эволюции, приведшей к отбору наиболее приемлемого варианта.

В принципе математика – аксиоматизированная область знаний, что делает ее единой наукой, имеющей свою особенную логическую структуру. Идеал языка такой науки – это система правил оперирования со знаками. Чтобы задать "исчисление", необходимо составить алфавит первичных элементов-знаков, задать начальные слова исчисления, построить правила получения новых слов из начальных слов.

Таким образом, математическая мысль и система кодов неразделимы. Символы имеют для математика принципиальное значение: они –предмет изучения математики. Так, методологические установки Гильберта по Клини [24] состоят в том, что символы сами по себе являются окончательными предметами и не должны использоваться для обозначения чего-либо, отличного от них самих, математик смотрит на них, а не через них, и не на то, что за ними; таким образом, они являются предметами без интерпретации или значения.

Математическое знание содержится в кратких высказываниях – математических структурах. Возникает вопрос: а содержат ли (и если да, то какую) информацию доказательства теорем? Очевидно, да, содержат безусловную информацию, поскольку процесс доказательства не является строго формализованным. Эта информация является дочерней по отношению к базовой и рецептируется благодаря определенным генерируемым математическим идеям, что иллюстрируется, например, следующим высказыванием великого математика Карла Гаусса по поводу одного из его открытий: "Наконец, два дня назад я добился успеха, но не благодаря моим величайшим усилиям, а благодаря Богу. Как при вспышке молнии проблема внезапно оказалась решенной. Не могу сказать сам, какова природа путеводной нити, которая соединила то, что я уже знал, с тем, что принесло мне успех" [24]. Очевидно, речь идет о случайном выборе на уровне бессознательного, т. е. о генерации информации.

Мы затронули вопрос о "дочерней" информации, вопрос, связанный с ее качеством. В следующем разделе рассмотрим "качество" наряду с такими характеристиками информации, как ее "количество" и "ценность".

 

4.2. Современные взгляды на характеристики информации

Качество информации. В некоторых работахтермин"качество" употребляется в смысле "ценность" [41,43], что вносит путаницу в терминологию. Понятие о качестве связано с существованием иерархической структуры информации. Эта характеристика иллюстрируется продолжением выбора пути при разветвлениях [23]. Это разветвление имеется только на уже выбранном ранее направлении, т. е. этот новый выбор совершается на основе прежнего, причем прежний не предрешает последующего. Поэтому, несмотря на связь выборов, необходимо различать их уровни, т. е. уровни генерируемой информации.

Примером последовательных выборов системой пути своего развития является бифуркационная кривая (рис. 4.2.). В точке Б1 система совершает выбор между ветвями Б1В1 и Б1Г1 если выбор сделан в пользу Б1В1, то в точке Б2 система снова оказывается перед выбором: ветвь Б2В2 или ветвь Б2Г2. Очевидно, только предыдущий выбор ветви Б1В1 делает актуальным этот второй, затем третий и т. д. Выборы, как и в предыдущем примере. Ни один из последующих выборов не предрешается предыдущим. Отсюда – необходимость различать уровни генерируемой информации, каждый из которых отвечает определенному качеству.

 

Рис. 4.2. Бифуркационная диаграмма. По оси абсцисс – параметр состояния системы, по оси ординат – значения переменной x, описываемой нелинейным уравнением – моделью самоорганизующейся системы.

Эта разнокачественность обеспечивает иерархическую структуру. Информации на уровнях не только качественно различаются, образуя ряд подмножеств, но и связаны друг с другом, ведь для информации высокого уровня совершенно необходима более "древняя" информация нижних уровней. Существует специальный термин "тезаурус", который означает информацию более нижнего уровня, которая необходима для генерации или рецепции информации на верхнем уровне, качественно отличном от нижнего. Выбор варианта делается не между вариантами разных уровней, а всегда только на одном уровне. Это заложено в определении того, что есть генерация информации: выбор одного варианта, среди нескольких возможных и равноправных. "Равноправные" варианты – это варианты одного качества, т. е. одного иерархического уровня.

Количество информации. Как было отмечено раньше, формула, позволяющая определить количество информации, была получена Шенноном. Возможность обобщения этой формулы на все виды языков, передачу и использование любых видов сигналов, которые служат для передачи информации, наиболее полно проанализирована В.И. Корогодиным [22]. Целесообразно изложить его точку зрения потому, что многократные попытки приложить теорию Шеннона к самым различным областям человеческой деятельности встречаются с явными трудностями. Остановимся на двух из них.

Во-первых, в процессе упомянутых попыток определенные элементы сообщений совершенно неправомерно отождествлялись с информацией, как таковой. Эти элементы связаны лишь закономерностями передачи по каналам связи различных сигналов, не связанных с семантикой сообщения. Если сохранить все буквы осмысленного сообщения, переставив их, то осмысленность исчезнет, а количество информации, определяемое формулой Шеннона, останется прежним. Получается бессмысленная информация, т. е. вообще не информация. Получившееся в результате перестановок букв бессодержательное нечто не может называться информацией. В работе [22] предлагается назвать частотную характеристику элементов сообщения, определяемую правой частью формулы (1.14), информационной тарой, которая может содержать полезную информацию, а может быть пустой. Очевидно, что емкость информационной тары имеет вполне определенное числовое значение, не зависящее от степени заполнения тары.

Во-вторых, остается неясным вопрос о том, как сопоставить количество информации данного сообщения при переходе к другому языку. Другими словами, не известно, как в общем случае изменяется количество информации при переводе с одной системы записи на другую. Если Н – емкость информационной тары и если текст сообщения абсолютно компактен, то количество информации сообщения (I) равно емкости информационной тары. И только в этом случае можно пользоваться для определения I формулой (1.14). В общем случае I < Н.

Стремление некоторых авторов использовать формулу (1.14) для определения количества информации, связанной с любыми событиями основано на допущении о том, что информация, будучи общимсвойством материи, содержится во всех объектах и событиях природы. Эта неверная посылка и абсурдные следствия из нее свидетельствуют о том, что "вероятностное определение количества информации, перенесенное из математической теории связи в обобщенную теорию информации, утрачивает свою эвристичность" [22].

Ценность информации и ее эффективность. Математическая теория информации полностью игнорирует содержание информации. Поэтому вопрос о ее ценности не ставится. Рассчитывая пропускную способность канала связи, бессмысленно принимать во внимание содержание телеграмм.

Вопрос о ценности возникает, прежде всего, в биологии. Биологическая эволюция необратима и направленна. Исходный материал для эволюции – случайные мутации генов – не имеют заданной направленности, тем не менее, работает мощный направляющий фактор – естественный отбор, основанный на повышении ценности информации, трансформированной в итоге мутации. Таким образом, для биологии существенна не столько количественная, сколько ценностная характеристика информации. Информация может быть более или менее ценной в зависимости, от преследуемой цели, происхождение которой до недавнего времени в теории информации не обсуждалось. Ценной информацией считается та, которая помогает достижению цели.

Следует обратить внимание на следующее различие оценок "количество" и "ценность". В отличие от шенноновского определения количества информации, передаваемой по каналам связи, ценность проявляется в результатах рецепции. Она непосредственно связана с рецепцией. Ю.А. Шрейдеру принадлежит следующий наглядный пример [24]: "Имеется том 2 "Курса высшей математики" В.И. Смирнова. Эта книга содержит богатую информацию. Какова ее ценность? В ответ приходится спросить – для кого? Для школьника информация этой книги нулевая, так как он не обладает достаточной подготовкой, достаточным уровнем рецепции и не в состоянии эту информацию воспринять. Для профессора математики ценность тоже нулевая, так как он все это хорошо знает. Максимальной ценностью эта книга обладает для студентов того курса, которым книга предназначена, поскольку речь идет об очень хорошем учебнике. Зависимость ценности от уровня подготовки, от предшествующего запаса информации – тезауруса… – проходит через максимум" ( рис. 4.3.)

Известны несколько способов количественного определения ценности. Все они основаны на представлении о цели, достижению которой способствует полученная рецептором информация. Чем в большей мере информация помогает достижению цели, тем более ценной она считается.

 
 

Рис. 4.3. Зависимость ценности информации от тезауруса; Д – дошкольник, С – студент, П – профессор

 

1. Если цель наверняка достижима, и притом несколькими путями, то возможно определение ценности (V) по уменьшению материальных, или временных затрат благодаря использованию информации. Так, например, сочетание хороших предметного и алфавитного каталогов библиотеки, наличие библиографических справочников сокращают время на составление списка литературы по конкретному интересующему читателя вопросу.

2. Если достижение цели не обязательно, но вероятно, то используется один из следующих критериев:

а) мерой ценности, предложенной М.М. Бонгартом и А.А. Харкевичем [24,39], является величина

 

 

где р – вероятность достижении цели до получения информации, а Р – после; учитывая, что р и Р могут изменяться от 0 до 1, заключим, что пределы изменения V – от до ;

б) мерой ценности, предложенной В.И. Корогодиным [22], является величина

при этом V изменяется от 0 до 1.

Очевидно, величину V для некоторой информации невозможно задать одним единственным числом. Определенное значение ценности можно получить только лишь для известной пары источник-рецептор (например, учебник – студент).

Ценность информации, получаемой рецептором, зависит от ее количества. Так, если целью изучения учебника является овладение методом решения определенного цикла задач, то прочтение двух-трех параграфов в лучшем случае дает возможность решать лишь малую долю задач. С ростом количества информации увеличивается величина V.

 
 

В области малых значений I скорость увеличения V мала в силу изложенных выше соображений, но и в области больших I темп роста уменьшается, поскольку, начиная с некоторых значений V, дальнейший рост этой величины уже не влияет на успех решения задач из цикла: любая задача может быть решена. Это значит, что кривая V=f(I) для данной пары источник – рецептор имеет вид кривой с насыщением (рис. 4.4).

 

Рис. 4.4. Зависимость ценности информации от ее количества Рис. 4.5. Зависимость эффективности информации (e) от ее количества (I); Imax - оптимальное количество информации, emax - максимальное значение эффективности

 

По ходу кривой изменяется приращение ценности, приходящейся на единичный интервал I. Это позволяет ввести еще одну характеристику – эффективность информации e.

В работе [22] за эффективность принято отношение , что нельзя признать удачным. Предлагается, для e следующую величину:

 

 

Другими словами, эффективность информации равна первой производной функции V = V(I) для каждого заданного значения I.

Легко видеть, что зависимость e=f(I) представляет собой кривую с максимумом, причем только с одним (рис. 4.5). Площадь под кривой e=f(I) и осью абсцисс называют "информационным полем" [22].

 

4.3. Синергетический подход к классификации информации

 

В методологической и научной литературе неоднократно обсуждалась возможность сопоставлять количество информации (I) и величину термодинамической энтропии (S) системы. Анализ этих работ [2,3,13] выявил необходимость методологического уточнения корректности вышеупомянутого сопоставления в различных ситуациях.

Людвиг Больцман был первым ученым, обратившим внимание на связь величин I и S.

Говоря о необратимом увеличении энтропии идеального газа при его изотермическом расширении в пустоту (за 50 лет до формулы Шеннона), он заметил, что этот процесс сопровождается потерей информации о местонахождении (в общем случае о состояниях) молекул. Эта идея получила дальнейшее развитие после работ по математической теории связи, выполненных сотрудниками фирмы Вe1l Те1ерhоn [24,25,27]. Оказалось возможным использовать формулу (1.14) для подсчета количества информации о состояниях молекул, если принять, что Pi есть вероятность нахождения молекулы в ее i-м состоянии. Если учесть, что по Больцману энтропия, приходящаясяна одну молекулу, есть

 

(4.1)

 

где k – постоянная Больцмана, M – число состоянии молекул, то эквивалентность между увеличением термодинамической энтропии, происходящем при совершении некоторого процесса, и потерей информации о молекулах кажется очевидной.

Из формул (1.14) и (4.1) следует, что изменение энтропии однозначно связано с количеством информации:

 

(4.2)

 

или

 

 

где k = 1,38*10-23 Дж/К; 1,44 = log2е, а S0 > S1.

Мы применили обозначение IМИКР ибо (4.2) получено на основе представлений о микросостояниях. Это количество микроинформации. Один бит микроинформации может быть условно выражен в энтропийных единицах умножением на (1,38/1,44) • 10-23 Дж/К. Тогда согласно формуле (4.2)

 

(4.3)

 

где IМИКР выражено в энтропийных единицах.

Смысл связи I и S может быть продемонстрирован на следующем примере. Допустим, замораживается сосуд с водой. При этом убывает энтропия воды и возрастает информация о месторасположении ее молекул. Последнее связано с тем, что переход от жидкого состояния к кристаллическому сопровождается фиксацией молекул воды в узлах кристаллической решетки, что отвечает известному упорядочению, т. е. уменьшению энтропии. В этом случае речь идет о микроинформации. И.Р. Пригожин, определяя меру информации при продвижении на один шаг вдоль марковской цепи, пишет о самой непосредственной связи этой величины с энтропией. Однако в рассматриваемом в [16] случае речь идет также о микроинформации.

Микроинформация имеет мало общего с макроинформацией, во-первых, потому что ее создание не связано со случайным выбором; во-вторых, система молекул тела (при заданных условиях) имеет только одно устойчивое состояние (аттрактор) – это равновесное состояние в то время как система, рецептирующая кастлеровскую информацию должна иметь минимум два стационарных состояния; в-третьих (и это очень важно), эта информация не может быть заполнена. Так, информацией можно считать набор координат и скоростей молекул газа в данный момент времени. Запоминать это бессмысленно, поскольку через короткое время система о нем "забудет". Что же касается количества макроинформации, то в приведенном примере оно равно нулю, даже если все координаты и скорости молекул известны.

Д.С. Чернавский в [40] отмечает, что микроинформация не обязательно связана с микрочастицами. Любая незапоминаемая информация – это микроинформация.

В отличие от микроинформации, информация о макросостояниях "оплачивается" энтропией в неэквивалентной мере: возрастание энтропии во много раз превышает количество полученной информации [17]. Это хорошо видно на простом примере. Бросанию монеты должно отвечать изменение энтропии, по (4.3) примерно равное 10-23 Дж/К, но выделение энтропии при работе мышц (сила бросания), теплоты при ударе об пол монеты несоизмеримо больше. Заметим, что по I это изменение вообще нельзя определить, ибо оно зависит от массы монеты, ее упругости, степени шероховатости пола и т. д.

Рассматривая вопрос о математическом виде связи энтропии и информации, Л. Бриллюэн [2,3] ограничился случаем микроинформации, получив формулу (4.3). Именно поэтому этот феномен называют "информация в смысле Бриллюэна" [40], в отличие от рассмотренной выше макроинформации по Кастлеру.

Очевидной ошибкой Бриллюэна была неправомерная экстраполяция (4.3) на случай макроинформации, т. е. запись в виде

 

(4.4)

 

Отвечая положительно на вопрос об однозначности связи между информацией и энтропией, Бриллюэн комментирует это следующим образом: дополнительные знания, т. е. информация, уменьшают энтропию рецепиента, значит, формула (4.3) имеет универсальный характер. Пример Бриллюэна свидетельствует о том, что не верный, но и ошибочный научный вывод может служить движению вперед, ибо он охватил более широкий круг явлений, нежели тот, к которому первоначально относилась задача. Следствия неверной формулы (4.4) вылились в методологическую некорректность, что привело к сильнейшей путанице понятий, связанной с пресловутым негэнтропийным принципом.

Далее рассмотрим предпосылки генерации информации, ее характеристики и свойства. Все эти эпитеты, а также представления об эволюции информационных систем, имеют смысл по отношению к макроинформации. Поэтому в дальнейшем будет использоваться термин "информация'', в понимании под ним только макроинформации.

 

4.4. Методологический анализ рецепции информации

 

Подробное рассмотрение наиболее распространенных противоречий и ошибок в методологии изучения явления информации имеет под собой попытку вскрыть корни заблуждений, так как это является их главной причиной отставания в развитии общей теории информации, для которой уже созданы необходимые предпосылки. Подмена одного не очень ясного термина "информация" другим, еще более непонятным, таким, как "негэнтропия" или "отражение", создает только видимость прогресса. Что же касается печально знаменитого негэнтропийного принципа (т. е. утверждения о том, что количество информации служит определенным отрицательным вкладом в энтропию), то, как нетрудно показать, он оказался скомпрометирован своими же собственными следствиями. Но если не учитывать этих следствий (не думать о них) и не знать, в чем именно кроется то заблуждение, которое привело к неверному результату, то начинает казаться, что не так уж порочен и сам результат. А если учесть, что независимо друг от друга авторами неточностей были не кто-нибудь, а Винер и Бриллюэн, авторитеты которых были заслуженно очень велики, то нетрудно предвидеть живучесть заблуждении. В подразделе 4.3 было показано, что некорректность выводов Бриллюэна, состоит в экстраполяции формулы (4.4) на случай запоминаемой информации. Получено S1= S0 – I, т. е. информация дает отрицательный вклад в энтропию. Отсюда – легко прижившийся термин "негэнтропия" (негэнтропия равна количеству микроинформации со знаком минус и не имеет отношения к запоминаемой информации). Однако дело не в названии, а в тех "захватывающих возможностях", которые открывает негэнтропийный принцип. Получается, что нельзя изменить энтропию тела не создав или не уничтожив некоторое количество информации [24].

Одной из основных предпосылок негэнтропийного принципа является утверждение зависимости термодинамической энтропии от знания. Экспериментальное изучение какой-либо системы есть извлечение из нее информации, что согласно (4.3) должно сопровождаться возрастанием энтропии изучаемого объекта и ее уменьшением в голове экспериментатора, получившего порцию негэнтропии. Таким образом, с помощью информации удается регулировать энтропию исследователей. Поскольку энтропия присуща всем термодинамическим системам, то и негэнтропия (информация), как дополняющая ее характеристика должна быть приписана всей материи. Отсюда следуют такие некорректные, но до сих пор еще довольно популярные методологические положения.

1. Информация содержится в каждом материальном объекте, она вездесуща и, следовательно, является одним из свойств материи.

2. Существуют две характеристики степени порядка материальных объектов: неупорядоченность (энтропия) и упорядоченность (негэнтропия, равная информации).

Первое утверждение противоречит представлению об информации как о процессе, ибо процесс, да еще связанный со случайным выбором, может протекать, а может и отсутствовать. Генерация информации – это событие, которое не является детерминированным и уж конечно не представляет собой характеристику любого материального объекта.

Второе следствие является методологическим абсурдом, что иллюстрирует принципиальное неблагополучие с породившим его негэнтропийным принципом. Получается, что одна и та ж сущность – степень упорядоченности – потребовала для своего описания двух характеристик: энтропии (степень беспорядка) и негэнтропии (степень порядка).

Количественной мерой степени упорядоченности служит энтропия. Разные системы упорядочены в большей или меньшей степени. Если в "большей" – энтропия относительно мала, если в "меньшей" – относительно велика. Поэтому энтропия является одновременно характеристикой упорядоченности и неупорядоченности. Ведение негэнтропии, как величины, обратной по знаку энтропии, лишено физического смысла.

Заметим, что начало этой эквилибристики терминами и знаками положено Н. Винером: "Как количество информации в системе есть мера организованности системы, – говорит он, – точно так же энтропия системы есть мера дезорганизованности системы, одно равно другому, взятому с обратным знаком" [7]. Это определение содержит противоречие внутри самого себя. По Винеру количество информации I равно энтропии S со знаком минус

 

I = – S. (4.5)

 

Но, как уже отмечалось выше, S – функция состояния, существенно положительная (S > 0), следовательно, отрицательным является количество информации, что противоречит, как здравому смыслу, так и формуле Шеннона (1.14), из которой совсей определенностью следует I > 0. О недоразумении со знаками и размерностями в выражениях количества информации писал У. Эшби [45], но его замечание осталось незамеченным.

Формальное сходство между статистически определяемыми по формулам Шеннона и Больцмана величинами I и S, да еще вместе со случайной ошибкой в знаке, послужило поводом к далеко идущим обобщениям и к множеству некорректных расчетов количества информации в различных объектах.

По соотношению (4.5) информация является функцией состояния, что резко противоречит высказываниям самого Винера: ''Процесс получения и использования информации является процессом нашего приспособления к случайностям внешней среды и нашей жизнедеятельности в этой среде. Потребности и сложность современной жизни предъявляют гораздо большие, чем когда-либо раньше, требования к этому процессу информации, и наша пресса, наши музеи, научные лаборатории... должны удовлетворить потребности этого процесса" [7]. В этой характеристике понятие информации связано с представлением о процессе, а вовсе не сфункцией состояния – негэнтропией.

Описанная парадоксальная ситуация лишний раз свидетельствует о том, что даже крупные ученые не сговариваясь, могут допускать аналогичные ошибки, корень которых уходит в непроработанность методологии того или иного вопроса.

Негэнтропийный принципуже давно подвергнут заслуженной критике, однако в семидесятых годах он был в известной степени реставрирован. Дело в том, что с развитием термодинамики неравновесных систем появилась возможность поставить вопрос о том, что возникновение информации (запомненного выбора из набора возможных состояний) сопровождается образованием структуры, а значит, локальным понижением энтропии системы. Следовательно, снова возникает (теперь уже в связи с макроинформацией) вопрос о связи I и S. Какова эта связь? Точки зрения различных авторов на этот вопрос расходятся. Рассмотрим те из них, которые являются полярными.

Так, Е.А. Седов, сторонник информационно-энтропийного подхода к описанию процессов самоорганизации, утверждал: "Методы теории информации, разработанные К. Шенноном для чисто прикладных задач техники связи, оказываются универсальным средством анализа процессов самоорганизации как простейших физических тел, так и сложнейших интеллектуальных и социальных систем" [30]. И далее: "Мера, найденная Шенноном, оказалась единой универсальной мерой упорядоченности для всех существующих в мире систем" [30].

Полностью отрицает связь информации с энтропией В.И. Корогодин, который, детально проанализировав информационные процессы в живых системах, приходит к безапелляционному выводу о некорректности использования формулы Шеннона в случаях, выходящих за пределы задач теории и практики связи. Отсюда и вывод о невозможности сопоставления информации и энтропии. "Зачем отождествлять информацию с энтропией и выражать ее количество в термодинамических единицах эрг*град-1? Получается как в том анекдоте, когда семинарист, окрестив поросенка "карасем", спокойно слопал его в Великий пост... Не лучше ли за всеми этими феноменами сохранить присущие наименования и организацию продолжать именовать организацией, энтропию – энтропией, а информацию – информацией, выявив сущность этого понятия, а не производя подмену одних терминов другими?" [22].

Последний упрек можно отнести к Г. Хакену, который в своей монографии [38] проводит анализ изменения информации Шеннона в самоорганизующейся физико-химической системе. Как известно, формула Шеннона позволяет измерить количество информации, передаваемое в единицу времени при использовании заданного набора сигналов. Поэтому перенесение метода Шеннона на решение информационных проблем самоорганизации в самых разных системах требует специальных разъяснении. Хакен исследует изменение информации Шеннона при неравновесном фазовом переходе в состояние с большей степенью упорядоченности. При таком неравновесном фазовом переходе система приобретает способность хранить информацию о том выборе (или отборе), который привел ее к переходу "от хаоса к порядку". Это дает основание автору трактовать энтропию как информацию, что в рамках развиваемого им подхода означает возможность термин "информация" предпочесть термину "энтропия". Что это дает? По-видимому, не так уж много. В самом деле, вблизи порога, т. е. в области точки бифуркации, из-за критических флуктуаций информация сильно возрастает, поэтому автор возвращается к термину "энтропия", более уместному, по его мнению, в этой области. Однако при использовании энтропии Шеннона в качестве меры упорядоченности возникает трудность: в часто обсуждаемом Хакеном переходе в лазере через порог лазерного излучения энтропия, посчитанная по Шеннону, оказывается больше, чем в исходном "равновесном" состоянии. В этой ситуации трактовка энтропии Шеннона, как информации, снова оказывается предпочтительней, так, как состояние генерации оптической среды не может быть более хаотичным, чем равновесное [24]. Таким образом, анализ включения информационных процессов в самоорганизацию подменяется подбором удобных для каждого конкретного случая терминов. Все это снижает методологическую ценность инфармационно-энтропийного подхода к самоорганизующимся системам.

Рассмотрим наиболее прогрессивный взгляд на вопрос о связи информации и энтропии. При генерации информации в самоорганизующейся системе энтропия уменьшается. Однако это не дает основания говорить о связи информации и энтропии по следующей причине. I и S это величины, разные в термодинамическом отношении. Информация – это величина, которая характеризует процесс, ибо связана с выбором, запоминанием, кодированием, передачей и т. д. Подобные величины, характеризующие меру протекания процесса, известны в термодинамике. Это, например, тепло и работа – величимы, характеризующие процессы. Они отличаются от функций состояния таких, как внутренняя энергия, энтропия, свободная энергия тем, что обладают полными дифференциалами. В связи с этим первое начало термодинамики можно прочитать как утверждение о том, что приращение внутренней энергии (dU) равно сумме количества подведенного

 

тепла (Q) и совершенной внутренними силами работе (А'):

 

(4.6)

 

Речь не идет о соотношении U и Q или U и A'.Эти величины несопоставимы, сравнить можно только dU с dQ и dA'.

К сожалению, часто приходится встречаться с непродуманностью методологических подходов к термодинамическим величинам. Так, в процитированной монографии [38] Г. Хакен пишет: "Первое начало утверждает, что в замкнутой системе энергия сохраняется, причем энергия может принимать различные формы, такие, как внутренняя энергия, совершенная работа или тепло". Это неверная формулировка, ибо работа и тепло не формы энергии, а способы ее изменения. Можно накопить энергию, но невозможно накопить работу. Речь может идти не о переходе энергии в работу или тепло, а об изменении энергии системы, за счет совершения работы внешними силами или подвода к ней тепла. Это существенно, ибо в принципе исключает тождество Q и U. Только изменение величины U может быть сопоставлено с количеством подведенного тепла.

Точно так же обстоит дело с соотношением количества переданной информации и функцией состояния S. Энтропия системы изменяется при рецепции ею информации. В работах Винера и Шеннона процессам рецепции практически не уделялось внимания. От рецептора требовалось лишь умение отличать один кодовый символ от другого.

Самые общие соображения о процессе рецепции позволяют утверждать, что рецепция – процесс необратимый, так как информация не может самопроизвольно возвращаться вспять. Рецепция – процесс неравновесный, ибо потоки информации между источником и рецептором неуравновешены. После того, как были сформулированы основные положения синергетики, стало ясно, что поскольку рецепция информации означает возникновение определенной упорядоченности в воспринимающей системе, то это процесс, далекий от равновесия. Другими словами, рецепторная система есть система диссипативная, переходящая под влиянием информационного потока в состояние с уменьшенной энтропией.

Таким образом, рецепция информации есть необратимый, неравновесный процесс перехода системы из менее устойчивого состояния в более устойчивое. Этот процесс сопровождается уменьшением энтропии рецепторной системы.

Все сказанное позволяет заключить, что:

во-первых, количество информации – это величина, характеризующая процесс ее рецепции, не являющаяся функцией состояния;

во-вторых, количество информации, изменяя энтропию рецептирующей системы, связано не с функцией состояния системы, не с энтропией, а с величиной ее изменения.

Если убыль энтропии обозначить DS, то между количеством информации и убылью энтропии существует связь

 

I ~ – DS.

 

Важно понимать, что DS вовсе не энтропия системы, а ее убыль.

Переход от знака пропорциональности к знаку равенства возможен при введении коэффициента пропорциональности, который, в отличие от случая микроинформации, не является постоянным, а зависит от конкретной ситуации, и даже для одной и той же системы, получающей разное количество информации, может зависеть от этой величины. Другими словами, связь между I и S не только нелинейная, но и неопределенная. В некоторых случаях этот коэффициент очень велик, т. е. последствия получения информации несоизмеримо велики по сравнению с ее количеством.

Так, весь поток транспорта меняет направление при получении водителями одного бита информации – замены красного сигнала светофора на зеленый. Это – так называемая триггерная ситуация, постоянно реализующаяся в биологических системах.

Таким образом, нет оснований говорить, об определенной количественной связи между информацией системы и изменением ее энтропии. Кажущаяся реставрация синергетикой негэнтропийного принципа бросает тень на это научное направление, вызывая настороженное отношение к ее возможностям играть роль общенаучной концепции.

Взгляды на информацию в контексте постнекласси-

ческой науки

Трудности однозначного определения понятия "информация" объясняются попытками описать типично неклассический феномен в терминах классической науки. С классической точки зрения должно существовать единственное объективное описание явления, которое не зависит ни от способа, ни от времени наблюдения. Впервые с парадоксами фундаментального классического описания столкнулись физики в вопросах о локализации частицы, а также о волновой и одновременно корпускулярной их природе. Оказалось невозможным разрешить парадокс силами самой физики. Потребовался философский анализ, завершившийся генерацией идеи огромной значимости – принципом дополнительности, выдвинутым Нильсом Бором, принципом, выходящим далеко за пределы физики, стимулирующим переоснащение методологического инструментария в связи с многомерностью. Может оказаться, что содержание процесса, системы не исчерпывается каким-либо одним теоретическим языком, посредством которого можно было бы выразить параметры, способные принимать вполне определенные значения. Различные языки описания и точки зрения на то или иное явление могут оказаться дополнительными. Они связаны с одной и той же реальностью, но не сводятся к одному единственному описанию [17].

Полифундаментальность присуща тем областям предметного знания, в которых:

а) наиболее остро взаимодействуют философские основания теори