Энтропия дискретного ансамбля сообщений - раздел Философия, ТЕОРИЯ ИНФОРМАЦИИ Среднее Количество Информации, Содержащееся В Ансамбле ...
Среднее количество информации, содержащееся в ансамбле , определяется математическим ожиданием
. (2.6)
Величина называется энтропией ансамбля и имеет размерность . Под термином сообщение понимается элемент ансамбля : это может быть символ или набор символов, образующих некоторое сообщение и т. д.
Пример 1.Положим, образуют ансамбль сообщений . Вероятности реализаций этих сообщений соответственно равны 0.1, 0.4, 0.2, 0.3. Определим количество информации, содержащуюся в каждом сообщении, и меру неопределённости в ансамбле .
После расчетов получим
3.3219 , 1.3219 , 2.3219 , 1.7369 .
Энтропия ансамбля равна 1.84644 .
Как видно, наибольшее количество информации содержится в сообщении , которая реализуется с наименьшей вероятностью, и наименьшее количество информации содержится в сообщении , вероятность реализации которой наибольшая. Чем ближе к единице вероятность реализации сообщения, тем меньше информации содержится в этом сообщении. Эти выводы хорошо согласуются с субъективным представлением о ценности получаемых сведений.
Пример 2. Положим, одно из сообщений ансамбля реализуется с вероятностью 0. Тогда какое-то другое сообщение будет реализовываться с вероятностью 1. Вычислим энтропию вновь полученного ансамбля .
.
Получили неопределённость типа . Разрешив эту неопределённость, получим . Неопределённость в ансамблеотсутствует.
Энтропияхарактеризует меру средней неопределённости ансамбля .Пусть задан ансамбль : {} с распределением вероятностей , . Тогда энтропия удовлетворяет неравенству
. (2.7)
Доказательство. Левая часть неравенства следует из определения энтропии ансамбля . Для доказательства правой части рассмотрим разность и преобразуем её
В дальнейшем используем неравенство , рисунок 2.1. Знак равенства будет только в случае . Тогда имеем
.
Из последнего неравенства следует, что знак равенства в правой части неравенстве (2.7) будет в том случае, если
= 1 или .
Энтропия ансамбля будет максимальной, если все события равновероятны. Ценность информации в каждом сообщении, с точки зрения частоты её появления в результате опытов, будет равна .
Вычислим энтропию произведения ансамблей : и : . Произведение ансамблей образует матрицу сообщений
с распределением вероятностей
.
Пользуясь определением энтропии ансамбля, запишем энтропию произведения ансамблей
=
(2.8)
Условная энтропия зависит от условной меры информации - количества информации, содержащаяся в сообщении , при условии, что уже реализовалось сообщение , т.е. - это не случайное событие в условной мере информации , случайность реализацииучитывается в вероятности .
Если ансамбли и независимы, т.е. , то энтропия произведения ансамблей равна сумме энтропий ансамблей и
. (2.9)
Пользуясь методикой, применяемой при доказательстве неравенства (2.6), можно показать, что
. (2.10)
Если имеется множество ансамблей , то энтропия произведения ансамблей равна
Мера информации Мера информации по Шеннону Сообщения могут быть... Количество взаимной информации... Дискретный канал передачи информации Рассмотрим...
Если Вам нужно дополнительный материал на эту тему, или Вы не нашли то, что искали, рекомендуем воспользоваться поиском по нашей базе работ:
Энтропия дискретного ансамбля сообщений
Что будем делать с полученным материалом:
Если этот материал оказался полезным ля Вас, Вы можете сохранить его на свою страничку в социальных сетях:
Теорема Котельникова
Согласно теореме Котельникова, если спектр сигнала ограничен полосой
Квантование сигнала по уровню
Положим, дискретизация сигналов по времени произведено, и необходимо передавать сигналы в дискретные моменты времени. Можно передавать сигналы, используя амплитудно-импульсную модул
Мера информации по Шеннону
Сообщения могут быть закодированы разными символами. Число разных символов, из которых образуются сообщения, составляет основание кода, (русский алфавит имеет 33 символа, двоичный к
Энтропия непрерывного ансамбля сообщений
Выше мера информации была введена для дискретного ансамбля сообщений. Точно так же вводится мера информации на непрерывном ансамбле. Непрерывная случайная величина
Непрерывный канал передачи информации
Непрерывный канал передачи информации описывается одномерными и двумерными плотностями распределений вероятностей. Чтобы записать количество взаимной информации между входом и выход
Метод кодирования равномерным кодом
Чтобы уменьшить избыточность, содержащуюся в ансамбле X источника информации, создается новый ансамбль Y символов, энтропия которой близка к максимальному значению. За
Метод кодирования Шеннона-Фано
При кодировании по методу Шеннона следует придерживаться следующих правил.
1. Все сообщения
Метод кодирования Хафмана
Правило образования кодов состоит из следующих пунктов.
1. Все сообщения ансамбля
Канал связи
Под каналом связи понимается среда, в которой перемещается сигнал. В зависимости от типа сигнала каналы разделяются на непрерывные и дискретные.
Предполагается, что сигнал, передаваемый по
Пропускная способность канала связи
Ввиду того, что канал связи считается стационарным, на вход канала поступает последовательность символов ,
Канал без шумов
Шум в канале связи искажает физические параметры сигнала, что в свою очередь приводит к искажению символов. Вероятностная характеристика искажений – это условная вероятность
Канал с шумами
Наличие шума в канале связи приводит к тому, что условная энтропия не равна нулю. Условную
Непрерывный канал связи
Как и прежде, сигналы поступают в канал в дискретные моменты времени, но значения сигналов принимают непрерывные значения из некоторого множества. Примером такого канала является пе
Частотно ограниченного канала
Передача информации тесно связана с использованием физических сигналов. Свойства сигналов определяют канал связи. Известно, сигнал может быть представлен во времени и через спектрал
Кодирование в канале
Ранее были определены операции кодирования источников сообщений. Если полученную последовательность сигналов передавать через канал потребителю, то часть сигналов может быть искажен
Систематические коды
Для передачи информации используются разнообразные методы кодирования, зависящие от требований к восстанавливаемой информации, а также от свойств линий передачи информации. На рисун
Образование систематического кода
Обычно для построения кодов необходимо знать длину кодовой комбинации , кратность обнаруживаемых ошибок
Циклические коды
Циклические коды являются разновидностью систематических кодов. Они получили широкое распространение из-за простоты кодирования и декодирования. Все разрешённые кодовые комбинации п
Обнаружение однократной ошибки
Циклический код относится к классу систематических кодов. Ранее было показано, что при обнаружении одиночной ошибки минимальное кодовое расстояние равно
Исправление однократной ошибки
Исправление одиночной ошибки связано с определением разряда, в котором произошла ошибка. Это производится на основании анализа остатков от деления многочленов ошибок
Хотите получать на электронную почту самые свежие новости?
Подпишитесь на Нашу рассылку
Наша политика приватности обеспечивает 100% безопасность и анонимность Ваших E-Mail
Новости и инфо для студентов