Синтаксическая мера информации

Синтаксическая мера информации оперирует с обезличенной информацией (данными), не выражающей смыслового отношения к объекту.

Для измерения информации вводится два параметра:

• количество информации (I);

• объем данных (Vд)

Объем данных в сообщении измеряется количеством символов (разрядов) в этом сообщении (длина информационного кода).

Например:

1. конкурс выиграл B Vд =17 символов

2. B стал победителем Vд =18 символов

3. A проиграл Vд = 10 символов

Количество информации о системе, полученное в сообщении, измеряется уменьшением неопределенности о состоянии системы.

Меру неопределенности в теории информации называют энтропия”. Неопределенность не отделима от понятия вероятности. Одинаково ли количество информации в ответах на вопросы:

 

Вопрос Ответ
1. В каком из 4-х возможных состояний (твердое, жидкое, газообразное, плазма) находится некоторое вещество? 2. На каком из 4-х курсов учится студент техникума? Если считать эти состояния равновероятными, то P(i)=1/4. Тогда ответ на вопросы 1 и 2 снимает равную неопределенность => содержит равное кол-во информации
3. Как упадет монета при подбрасывании: “орлом” или “решкой”? P(i)=1/2. Вероятность каждого состояния больше, а снимаемая ответом неопределенность меньше => содержит меньшее кол-во информации