Понятие информации

Информация(одно из цен­тральных понятий современной филосо­фии и науки, широко вошедшее в обиход с 50-х гг. XX в.) все чаще рассматри­вается в ка­че­стве третьего компонента бытия - наряду с вещест­вом и энергией. Сам тер­мин ин­формация происходит от латинского informatio, что означает разъ­яс­нение, осве­дом­ление, изложение. Она есть от­ражение реаль­ного мира с помо­щью сведе­ний (со­об­щений). Сообщение - это форма пред­ставле­ния ин­формации в виде речи, тек­ста, изобра­жения, цифровых данных, графиков, таблиц и т.д. (заметим, что одно и то же информационное сообщение мо­жет содержать разное коли­чество информации для разных людей - в зави­симости от их предшествующих знаний, от уровня пони­мания этого сооб­щения и интереса к нему). В ши­роком смысле ин­фор­ма­ция - это обмен све­дениями между людьми, обмен сигна­лами между жи­вой и неживой приро­дой. Иначе - ин­фор­ма­ция это сведения об объектах и явл­ениях окружаю­щей среды, их пара­метрах, свойствах и состоянии, которые умень­шают имею­щуюся о них степень не­опреде­ленности, не­полноты знаний.

Несмотря на широкое распространение этого термина, понятие «инфор­мация» является одним из самых дискуссионных. В настоящее время наука пыта­ется найти общие свойства и закономерности, присущие ей, но пока оно во многом ос­тается ин­туитивным и получает раз­личные смысловые наполне­ния в разных от­раслях че­лове­ческой деятельно­сти. В обиходе информацией называют любые данные или сведе­ния, которые кого-либо интересуют. На­пример, сообщение о каких-либо событиях, о чьей-либо деятельно­сти и т.д. «Информировать» в этом смысле означает сооб­щить нечто, неизвестное ра­нее. В технике под информацией понимают сообще­ния, пе­реда­ваемые в форме зна­ков или сигналов. В кибернетике под информацией пони­мает ту часть знаний, которая использу­ется для ориентирования, активного дейст­вия, управления, т.е. в це­лях сохранения, со­вершенствования, или развития сис­темы.

При этом выделяют формы существования информации: статическая (книги, ри­сунки, зву­ковые за­писи и т.д.) и динамическая (процессы передачи информа­ции по каналам связи или в про­странстве), а также ее виды: биоло­гиче­ская и социальная. Био­ло­гиче­ская информация обеспечивает жизне­дея­тельность отдельно взя­того ор­ганизма, а со­циальная - неразрывно свя­зана с практи­че­ской деятельно­стью человека и здесь можно выделить столько ее ти­пов и разно­видно­стей, сколько имеется видов дея­тельности человека.

Наряду с информацией в информатике часто употребляется понятие данные. В чем их отличие? Данные могут рассматриваться как признаки или записанные на­блюдения, которые по каким-то причинам не используются, а только хранятся. В том случае, если появляется воз­можность использовать эти данные для умень­шения неопределенности о чем-либо, то данные пре­вращаются в информацию. По­этому можно утверждать, что информацией являются ис­пользуемые данные, т.е. преобра­зование и обработка данных по­зво­ляют извлечь информа­цию или знание о том или ином предмете, про­цессе или явлении. Короче, информация - это сведения, которые уменьшают неоп­ределенность зна­ния, т.е. приносят нам новое знание.

Чаще всего информация передаётся в форме сообщений от некоторого источ­ника инфор­ма­ции к её получателю посредством канала связи между ними (совокупности устройств, предметов и объектов, предназначенных для передачи информации), т.е. при работе с ин­фор­мацией должен иметься ее источ­ник и потреби­тель (полу­чатель), кроме того (в ди­намике) - пере­датчик, канал связи, прием­ник. Пути и про­цессы, обеспе­чиваю­щие передачу со­обще­ний от источника информа­ции к ее по­треби­телю, на­зыва­ются ин­формацион­ными коммуника­циями. Среда передачи объеди­няет ис­точник и получа­теля инфор­ма­ции в информацион­ную систему.

 

Источник ин­формации Передающее устройство Канал связи Приемное устройство Получатель информации

 

В науку понятие информации введено в 1928 г. американским инжене­ром Хартли для обозна­че­ния меры коли­чест­вен­ного измерения сведений. Для вычис­ле­ния количества ин­форма­ции как меры неоп­ределенности, уст­раняе­мой в резуль­тате получения инфор­мации, Хартли предложил лога­рифм при основании два:

I = log2 N ,

где I - ко­личество ин­формации, N - число воз­можных со­стояний объ­екта. Если код двоич­ный, т.е. использу­ются лишь два сим­вола - 0 или 1, то N = 2, тогда I = 1. Так оп­ределяется еди­ница ин­формации - бит, или «одно из двух»: либо «да», либо «нет» по от­но­ше­нию к во­просу, фикси­рую­щему не­определен­ность зна­ний.

В 1948 г. XX в. другой аме­риканский ученый - Шеннон, предложил бо­лее универ­сальную формулу определения количе­ства информации, учиты­вающую возможную неодинаковую вероятность со­общений в наборе:

I = - (p1 log2 p1 + p2 log2 p2 + … + pN log2 pN),

где pi - вероятность того, что именно i - е сообщение выделено в наборе из N сообщений. Если вероятности p1, …, pN равны, то каждая из них равна 1/N, и формула Шеннона превращается в формулу Хартли. Анализ формулы пока­зывает, что чем выше вероятность события, тем меньшее количество инфор­мации возникает после его осуществления, и наоборот, т.е. со­вершенно оче­вид­ное (с вероятностью, рав­ной 1) сообще­ние столь же пусто, как и пол­ное отсутствие сообщения (т.е. со­общения, веро­ят­ность которого заве­домо равна 0). Оба они, согласно до­пуще­нию Шеннона, неин­фор­ма­тивны, не несут получателю никакой инфор­мации.

Помимо рассмот­ренных под­ходов к опре­делению количества инфор­ма­ции, су­ществуют и другие. Важно помнить, что любые теоретические ре­зуль­таты применимы лишь к оп­ределён­ному кругу случаев, очерченному перво­начальными допущениями.

Следует сказать, что представление об информации как о количествен­ной мере сегодня уже явно недостаточно, поскольку нет ответа на вопрос о каче­стве, т.е. о ко­личе­стве какого качества идет речь. В последние годы, в связи с исследова­ниями кибернетических моделей машинного пере­вода с од­ного языка на дру­гой, теории игр и принятия решений, распознавания обра­зов и др., на­ряду с дальней­шей разра­боткой стати­стиче­ской кон­цепции ин­фор­мации, которая ото­бражает формально-структурные характерис­тики ин­формации и не затрагивает ее смысло­вого содержа­ния появились другие, бо­лее сложные - семантические и прагмати­че­ские концеп­ции. Се­мантиче­ский аспект предполагает учет смысло­во­го со­держания информации, а праг­мати­ческий аспект рас­смотрения связан с ценностью, полезностью ис­пользо­ва­ния информа­ции при выработке потребителем решения для достиже­ния своей цели.

И тем не менее, теория информациидопускает, что в опреде­ленных (весьма ши­роких) условиях можно пренебречь качественными осо­бенно­стями ин­формации, выразить ее количество числом, а также сравнить коли­чество информа­ции, содер­жащейся в различных группах данных. В слу­чаях, когда говорят об авто­матизиро­ванной работе с информацией, при посредстве каких-либо технических уст­ройств, обычно в первую очередь интересу­ются не содержанием сообщения, а тем, сколько символов это сообщение со­дер­жит.

Применительно к компьютерной обработке данных под информацией пони­мают не­которую последовательность символических обозначений (букв, цифр, закоди­ро­ванных графических образов и звуков и т.п.), несущую смы­словую на­грузку и пред­ставленную в понятном компьютеру виде. Каждый новый символ в такой по­следо­вательности символов увеличивает информа­ционный объём сооб­щения.

Единицей информации в компьютере, как отмечалось, является бит - ко­личе­ство ин­форма­ции, кото­рое можно записать в одном дво­ичном разряде и который мо­жет принимать значение либо 1, либо 0. Восемь последователь­ных битов (ком­бина­ция из 8 бит) составляют байт (один байт может при­нимать 256 раз­личных зна­че­ний). Более круп­ными едини­цами ин­формации являются кило­байты, мега­байты, гигабайты:

1 Кило­байт (Кбайт) = 1024 байт.

1 Мегабайт (Мбайт) = 1024 Кбайт.

1 Гигабайт (Гбайт) = 1024 Мбайт.

В последнее время в связи с увеличением объемов обрабатываемой ин­формации входят в употребление такие производные единицы, как терабайты и петабайты:

1 Терабайт (Тбайт) = 1024 Гбайт.

1 Петабайт (Пбайт) = 1024 Тбайт.

Классификация информации. Информацию можно классифицировать по разным признакам и крите­риям. Приведем пример классификации ин­фор­мации, циркулирующей в ор­ганизации (заметим, что любая класси­фикация всегда относительна). В ос­нову этой классификации положено пять наибо­лее общих признаков: место возникнове­ния, стадия обработки, способ ото­бражения, стабильность, функ­ция уп­равления.

По месту возникновения информацию можно разде­лить на вход­ную (информация, поступающая в организацию или ее подразде­ления), выходную (инфор­мация, поступающая из одной организации в другую), внутреннюю (ин­формация, возникающая внутри организации), внешнюю (информация за пределами организации).

По признаку стабильности информация может быть переменной (мо­жет ме­няться для каждого случая как по назначению, так и по количе­ству) и по­стоянной (неизменная и многократно используемая в течение дли­тель­ного периода времени).

По стадии обработки информация может быть пер­вичной (возни­кает в процессе деятельности организации и регистрируется на на­чальной ста­дии), вторич­ной (получа­ется в результате об­работки первич­ной инфор­ма­ции), промежу­точной (использу­ется в качестве исходных дан­ных для после­дующих расчетов), ре­зультатной (полу­чается в процессе обра­ботки первич­ной и про­межуточной инфор­мации и исполь­зуемая для выра­ботки управлен­ческих решений).

По способу отображения информация подразделя­ется на текс­товую (со­вокупность алфавитных, цифровых и специаль­ных сим­волов, с помощью ко­торых представляется информация на физическом но­сителе) и графиче­скую (различного рода графики, диаграммы, схемы, ри­сунки и т.д.).

По функциям управления обычно классифици­руют эконо­ми­ческую информацию. При этом выделяют следующие группы: плановую (информа­ция о параметрах объекта управления на буду­щий пе­риод), норма­тивно-справочную (содержит различные нормативные и спра­вочные данные), учетную (характери­зует деятельность организации за опреде­ленный про­шлый период времени) и оператив­ную (информация, используемая в опера­тивном управлении и характеризующая производственные процессы в теку­щий период времени).

Кроме классификации, понятие «информация» включает большое коли­чество разнообразных свойств, но наиболее важными из них являются сле­дующие: дуализм, пол­нота, достоверность, адекватность, доступ­ность, акту­альность.

Дуализм информации характеризует ее двойственность. С одной сто­роны, информация объективна в силу объективности данных, с другой - субъективна, в силу субъективности применяемых методов. Иными словами, методы могут вносить в большей или меньшей сте­пени субъективный фактор и таким образом влиять на информацию в целом. Более объективная инфор­мация при­меняет методы с меньшим субъективным элементом.

Полнота информации характеризует степень достаточности дан­ных для принятия решения или создания новых данных на основе имеющихся. Не­полный набор данных оставляет большую долю не­определенности, т.е. большое число вариантов выбора, а это потре­бует применения дополнитель­ных методов (например, экспертных оценок). Избыточный набор данных за­труд­няет доступ к нужным данным, создает повышенный информацион­ный шум, что также вызывает необходимость дополнительных мето­дов (напри­мер, фильтрацию). И неполный и избыточный наборы затрудняют получение информации и принятие адекватного решения.

Достоверность информации - это свойство, характеризующее сте­пень соответствия информации реальному объекту с необходимой точностью (при работе с неполным набором данных достоверность информации может ха­рактеризоваться вероятностью).

Адекватность информации выражает степень соответствия созда­вае­мого с помощью информации образа реальному объекту, процес­су, явлению. Пол­ная адекватность достигается редко, так как обыч­но приходится работать с не самым полным набором данных, т.е. присутствует неопределенность, за­трудняющая принятие адекватного решения (получение адекватной инфор­мации также затрудняется при недоступности адекватных методов).

Доступность информации - это возможность получения инфор­мации при необходимости. Доступность складывается из двух состав­ляющих: из доступности данных и доступности методов. Отсутствие хотя бы одного дает неадекватную информацию.

Актуальность информации. Информация существует во времени, так как существуют во времени все информационные процессы. Информация, актуальная сегодня, может стать совершенно ненуж­ной по истечении неко­торого времени.