Синтаксическая мера информации оперирует с обезличенной информацией (данными), не выражающей смыслового отношения к объекту.
Для измерения информации вводится два параметра:
• количество информации (I);
• объем данных (Vд)
Объем данных в сообщении измеряется количеством символов (разрядов) в этом сообщении (длина информационного кода).
Например:
1. конкурс выиграл B Vд =17 символов
2. B стал победителем Vд =18 символов
3. A проиграл Vд = 10 символов
Количество информации о системе, полученное в сообщении, измеряется уменьшением неопределенности о состоянии системы.
Меру неопределенности в теории информации называют “энтропия”. Неопределенность не отделима от понятия вероятности. Одинаково ли количество информации в ответах на вопросы:
Вопрос | Ответ |
1. В каком из 4-х возможных состояний (твердое, жидкое, газообразное, плазма) находится некоторое вещество? 2. На каком из 4-х курсов учится студент техникума? | Если считать эти состояния равновероятными, то P(i)=1/4. Тогда ответ на вопросы 1 и 2 снимает равную неопределенность => содержит равное кол-во информации |
3. Как упадет монета при подбрасывании: “орлом” или “решкой”? | P(i)=1/2. Вероятность каждого состояния больше, а снимаемая ответом неопределенность меньше => содержит меньшее кол-во информации |