рефераты конспекты курсовые дипломные лекции шпоры

Реферат Курсовая Конспект

Энтропия вероятностной схемы. Основные свойства энтропии. Аксиомы Хинчина и Фадеева.

Энтропия вероятностной схемы. Основные свойства энтропии. Аксиомы Хинчина и Фадеева. - раздел Философия, Дисциплина Теория информации Тема №2: Меры информации Простейший Дискретный Источник Сообщений X В Каждый Фиксированный Момент Врем...

Простейший дискретный источник сообщений X в каждый фиксированный момент времени выдает некоторый символ из конечного алфавита

X =, с вероятностью P()=

Выборка символов производятся независимо друг от друга.

 

Воспользуемся аксиомами для определения количества информации:

1. Информация одиночного события , происходящего с вероятностью pi имеет положительное значение:

 

2. Совместная информация двух независимых событий с совместной вероятностью , равна сумме их информаций:

 

 

3. Информация является непрерывной функцией от вероятности события

 

Аксиомы 1 и 2 утверждают, что информация нескольких событий не может взаимно уничтожаться. Из аксиомы 3 следует, что небольшое изменение вероятности события приводит к небольшому изменению ее информации.

Кроме того, аксиома 2 вводит понятие совместной информации событий. Из аксиомы 3 следует, что информация определяется как логарифмическая функция от вероятности события.

 
 

 

 


Вернемся к простейшему дискретному источнику, заданному вероятностной схемой Q→X={xi}, , =1, 0≤

Тогда сообщение X источника является ансамблем полной группы {xi}, несовместных событий xi с вероятностями .

По аксиоме 2 средняя информация таких событий будет равна:

,

где ni- частота появления i-го события;

k- количество разных событий;

Ii- информация i-го события;

Но , тогда:

, где - Энтропия сообщения (ансамбля событий).

 

Основание логарифма в формуле определяет единицу измерения количества информации и энтропии.

Возможны другие обозначения двоичного логарифма: log2(x)=ld(x)=lb(x), где ld(x) – дуальный логарифм, lb(x) – бинарный логарифм. Такие обозначения можно встретить в зарубежной литературе. Единица измерения энтропии при использовании двоичного логарифма «бит» информации. Можно использовать и натуральный логарифм, при этом единица измерения информации «нат».

 

Измерение количества информации (энтропии) в битах хорошо согласуется с двоичной логикой, применением двоичной системы счисления, двоичным кодированием и двоичной (релейной) техникой.


Свойства энтропии:

1. Энтропия всегда неотрицательна, т.к. значение вероятностей всегда

 

 

2. Энтропия равна нулю в том крайнем случае, когда вероятность одного из событий равна 1. Это случай, когда о сообщении (величине, опыте) все известно заранее и результат не приносит никакой новой информации.

 

 

3. Энтропия сообщения максимальна, но при условии, когда события в нем равновероятны:

,

Это свойство определяет совпадение меры информации по Шеннону и по Хартли и служит для оценки потенциальной информационной емкости сообщения.

Вспомним меру Хартли ,

где l – количество разрядов в сообщении;

h- алфавит сообщения;

Если рассмотреть один разряд l=1, то I1=log2h => I1=H0

В случае не равновероятных событий количество информации по Шеннону меньше информационной емкости системы.

Пример: Найти информационную емкость сообщения о двоичном событии (двоичной ячейки) и показать, как энтропия зависит от значений вероятности событий.

1. I= log2h; h=2; I=1 бит.

2. Если p1=p0=0,5, тогда

H0=

3. Если, например, p1=0,9, p0=0,1, тогда Р=-()=-[0,9(-0,152)+0,1(-3,32)]=0,46 => H1<H0 при p1≠p0

4. Если p1=1, p0=0, тогда

Р=-()=0. Событие достоверное.

4.Энтропия аддитивна.

Задана объединенная вероятностная схема C=AB.

Пусть два сообщения A=и B=.

A и B независимы и составляют полную группу, т.е.

Тогда,

 

 

 

Энтропия непрерывных сообщений, при достаточно малом интервале квантования (∆x→0) может представляться выражением:

, где p(x)- плотность распределения вероятности непрерывной величины x(t).

 

Подходы Шеннона к определению количества информации сообщения длины l в условиях вероятностной схемы

, сопровождающейся следующими требованиями:

1. Пустое сообщение не содержит информации;

2. Количество информации, содержащееся в сообщении пропорционально его длине.

Сообщение T, записанное в алфавите A, с объемом H, имеет длину l: , где .

Энтропия вероятностной схемы или количество информации, приходящееся на один символ порожденного сообщения.

 

Хинчин и Фадеев через задание системы аксиом показали, что энтропия конечной вероятностной схемы однозначно определяется с точностью до постоянного множителя.

, C.

– Конец работы –

Эта тема принадлежит разделу:

Дисциплина Теория информации Тема №2: Меры информации

Тамбовский государственный технический университет... Кафедра Информационные системы... Дисциплина Теория информации...

Если Вам нужно дополнительный материал на эту тему, или Вы не нашли то, что искали, рекомендуем воспользоваться поиском по нашей базе работ: Энтропия вероятностной схемы. Основные свойства энтропии. Аксиомы Хинчина и Фадеева.

Что будем делать с полученным материалом:

Если этот материал оказался полезным ля Вас, Вы можете сохранить его на свою страничку в социальных сетях:

Все темы данного раздела:

Взаимная информация и ее свойства. Условная энтропия.
Рассмотрим два дискретных источника A и B. Объединим их события в пары (ai,bj) объединенной вероятностной схемой C=AB. Мы получим простейшую модель связанных источников (рис.1

Свойства взаимной информации.
1. Взаимная информация - величина положительная. 2. Взаимная информация симметрична относительно пары вероятностных схем A и B. I(А;B)=I(B;A) 3. Если сообщение A и B неза

Понятие совместной энтропии.
Для двух источников, образующих объединенную вероятностную схему, используя понятие совместной вероятности пары событий p(ai,bj), можно определить среднюю информацию всех пар

Характеристики пары источников дискретных сообщений
Вероятностные характеристики источника Информация Энтропия Вероятность отдельного символа (события) — априорная вероят

Хотите получать на электронную почту самые свежие новости?
Education Insider Sample
Подпишитесь на Нашу рассылку
Наша политика приватности обеспечивает 100% безопасность и анонимность Ваших E-Mail
Реклама
Соответствующий теме материал
  • Похожее
  • Популярное
  • Облако тегов
  • Здесь
  • Временно
  • Пусто
Теги