рефераты конспекты курсовые дипломные лекции шпоры

Реферат Курсовая Конспект

Энтропия и количество информации

Энтропия и количество информации - раздел Экономика, Аналоговая и дискретная информация. Носители данных Получение Любой Информации - Необходимое Условие Для Снятия Неопределенности....

Получение любой информации - необходимое условие для снятия неопределенности. Задача, которая решается в ходе снятия неопределенности – уменьшение количества рассматриваемых вариантов, и выбор соответствующего ситуации варианта из числа всех возможных. Снятие неопределенности дает возможность принимать обоснованные управляющие решения и действовать.

Например, вы зашли в магазин и попросили продать жевательную резинку. Продавец, у которой 16 сортов жевательной резинки, находится в состоянии неопределенности. Но если вы уточнили: "Orbit", и теперь из 16первоначальных вариантов продавец рассматривает только 8 вариантов, соответствующих марке "Orbit", т. е. вы уменьшили неопределенность в два раза, что соответствует получению 1 битаинформации.

Если же вы сразу указали пальцем на витрину: "Вот эту!", то неопределенность снимается полностью. Таким жестом вы сообщили продавцу 4 бита информации.

Максимальная неопределенность возникает при наличии нескольких равновероятных альтернатив (вариантов), когда ни один из вариантов не является более предпочтительным. При этом, чем больше равновероятных вариантов рассматривается, тем больше неопределенность и тем больше информации требуется для этого получить.

Минимальная неопределенность будет равна нулю, когда выбор одного варианта сделан - это ситуация полной определенности, означающая, что вся необходимая информация получена.

Величина, характеризующая количество неопределенности в теории информации обозначается символом H и имеет название энтропия, или информационная энтропия.

Энтропия (H) – мера неопределенности, выраженная в битах. Энтропию можно так же рассматривать как меру равномерности распределения (рассеяния) случайной величины.

При полном рассеянии (равномерном распределении) энтропия максимальна, а при полной упорядоченности отсутствует. Примером максимальной величины энтропии (максимального рассеяния) может служить "белый шум" в радиоэфире.

Поведение энтропии для случая двух альтернатив

На рисунке показано поведение энтропии для случая двух вероятных событий, при изменении соотношения их вероятностей

(p, (1-p)).

Максимального значения энтропия достигает тогда, когда обе вероятности равны между собой, т. е. равны ½, а нулевое значение энтропии соответствует случаям (p0=0, p1=1) и (p0=1, p1=0).

Рис. Связь между энтропией и количеством информации.

Соотношение энтропии (H) и количества информации (I), характеризующих одну и ту же ситуацию представлено на рисунке. Можно сказать, что Iэто количество информации, которое требуется для снятия неопределенности H, или, другими словами, что информация –это отрицательная энтропия.

Когда неопределенность снята полностью, количество полученной информации I равно изначально существовавшей неопределенности H.

При частичном снятии неопределенности, полученное количество информации и оставшаяся неснятой неопределенность составляют в сумме исходную неопределенность: Ht + It = H.

Исходя из этого, формулы, по которым рассчитывается энтропия H, являются и формулами для расчета количества информации I, т. е. когда речь идет о полном снятии неопределенности, в них H можно заменить на I.

 

– Конец работы –

Эта тема принадлежит разделу:

Аналоговая и дискретная информация. Носители данных

Операции с данными... В ходе информационного процесса над данными производятся разнообразные... Вывод работа с информацией имеет огромную трудоемкость и ее необходимо...

Если Вам нужно дополнительный материал на эту тему, или Вы не нашли то, что искали, рекомендуем воспользоваться поиском по нашей базе работ: Энтропия и количество информации

Что будем делать с полученным материалом:

Если этот материал оказался полезным ля Вас, Вы можете сохранить его на свою страничку в социальных сетях:

Все темы данного раздела:

Аналоговая и дискретная информация. Носители данных
Итак, зарегистрированные сигналы или данные– это результат какого-либо информационного процесса. Зарегистрированные сигналы могут быть как аналоговыми

Кодирование данных. Системы счисления
Кодирование данных используется издавна: код Морзе, Брайля, морской сигнальный, алфавит и т. п. В истории человечества для кодировании чисел наиболее известны две системы счисления:

Правило 1.
Перевод целого десятичного числав систему счисления с любым основаниемосуществляетсяделениемего на основание системы счисления. Для пере

Хотите получать на электронную почту самые свежие новости?
Education Insider Sample
Подпишитесь на Нашу рассылку
Наша политика приватности обеспечивает 100% безопасность и анонимность Ваших E-Mail
Реклама
Соответствующий теме материал
  • Похожее
  • Популярное
  • Облако тегов
  • Здесь
  • Временно
  • Пусто
Теги