Свойства информации.

К свойствам информации относят:

- Важность (ценность, полезность);

- Достоверность (истинность, правильность):

- полноту;

- оперативность (своевременность):

- понятность (доступность) и т.д.

1.3 Кодирование информации. Мера информации

Под кодомпонимают совокупность знаков(символов) предназначенных для представления информации в соответствии с определенными правилами. Процесс представления информации с помощью специальных знаков (кодов) называют кодированием. Кодируют информацию с целью ее передачи, хранения, преобразования. Под алфавитом языка кодирования понимают совокупность предназначенных для кодирования символов-знаков. В информатике и вычислительной технике широко используется алфавит, имеющий два знака. Такой алфавит называют двоичным. Знаками двоичного алфавита кодирования могут являться цифры – 0,1, слова – символы алфавита: да, нет; истина, ложь, состояние устройства: включено, выключено. В соответствии с этим введена и наименьшая единица информации –разряд (бит) (англ. Bit, от binary – двоичный, digit – знак).

Одного разряда информации достаточно, чтобы передать слово «да» или «нет», либо, например, закодировать состояние электроприбора (или лампочки) «включено» - «выключено». Сообщение о том, что прибор включен содержит 1 бит информации.

Попробуем закодировать состояние светофора в двоичном алфавите, одним разрядом (битом) уже не обойтись, так как у светофора может гореть один из трех цветов: красный, желтый, зеленый, следовательно, необходимо для кодировки использовать два бита. Возможен такой вариант кодировки: красный – 00,желтый – 01, зеленый –10. Такие наборы битов называют двоичными словами. Для передачи сообщения о состоянии светофора необходимо более одного бита информации.

Если закодировать семь цветов радуги, то потребуется 3 бита информации, например, красный – 000, желтый – 001, голубой – 010 и т.д., а сообщение о том какой цвет из семи выбран содержит более двух бит информации.

При кодировании каких-либо восьми объектов потребуется также три бита. Сообщение о том, что выбран один из восьми объектов содержит три бита информации.

В настоящее время получили распространение подходы к определению понятия «количество информации» (или информационный объём сообщения), основанные на том, что информацию, содержащуюся в сообщении, можно нестрого трактовать в смысле ее новизны, или, иначе, уменьшения неопределенности наших знаний об объекте.

Рассмотренные примеры позволяют сделать вывод, что чем больше необходимо закодировать альтернатив, тем больше для этого потребуется разрядов (бит).

Американский инженер З. Хартли в 1928 г. процесс получения информации рассматривал как выбор одного сообщения из конечного наперед заданного множества из N равновероятных сообщений, а количество информации I, содержащейся в выбранном сообщении, определял по формуле: