рефераты конспекты курсовые дипломные лекции шпоры

Реферат Курсовая Конспект

Взаимная информация и ее свойства. Условная энтропия.

Взаимная информация и ее свойства. Условная энтропия. - раздел Философия, Дисциплина Теория информации Тема №2: Меры информации Рассмотрим Два Дискретных Источника A И B. Объединим Их События В Пары (A...

Рассмотрим два дискретных источника A и B. Объединим их события в пары (ai,bj) объединенной вероятностной схемой C=AB. Мы получим простейшую модель связанных источников (рис.1)

 


 

Рис. 1 – Модель двух связанных источников

Если два источника считать связанными друг с другом, то следует ожидать, что событие одного источника позволяют делать некоторые предположения о событиях другого. В терминах теории информации это означает, что неопределенность второго источника снижается, т.е. источники обмениваются взаимной информацией.

Для совместных событий известно, что

Или в обозначениях x:

p(ij)=pipij=qjpji

Прологарифмируем данное выражение:

 
 

 

 


Где - совместная информация объединенной вероятностной схемы C=AB или собственная информация пары событий.

Тогда

Прибавляя и одновременно вычитая а первой части равенства, а

=.

Таким образом, собственная информация пары событий определяется суммой собственных информаций этих событий за вычетом некоторой неотрицательной величины, которая снижает неопределенность, т.е. она сама в свою очередь является информацией. Эту величину называют взаимной информацией пары событий:

Для объединенной вероятностной схемы C=AB можно записать:

,

 

также случайная величина, тогда математическое ожидание этой случайной величины E будет равно:

Ic(A;B)=

Ic(A;B) – взаимная информация сообщения C (или объединенной вероятностной схемы)

– Конец работы –

Эта тема принадлежит разделу:

Дисциплина Теория информации Тема №2: Меры информации

Тамбовский государственный технический университет... Кафедра Информационные системы... Дисциплина Теория информации...

Если Вам нужно дополнительный материал на эту тему, или Вы не нашли то, что искали, рекомендуем воспользоваться поиском по нашей базе работ: Взаимная информация и ее свойства. Условная энтропия.

Что будем делать с полученным материалом:

Если этот материал оказался полезным ля Вас, Вы можете сохранить его на свою страничку в социальных сетях:

Все темы данного раздела:

Энтропия вероятностной схемы. Основные свойства энтропии. Аксиомы Хинчина и Фадеева.
Простейший дискретный источник сообщений X в каждый фиксированный момент времени выдает некоторый символ из коне

Свойства взаимной информации.
1. Взаимная информация - величина положительная. 2. Взаимная информация симметрична относительно пары вероятностных схем A и B. I(А;B)=I(B;A) 3. Если сообщение A и B неза

Понятие совместной энтропии.
Для двух источников, образующих объединенную вероятностную схему, используя понятие совместной вероятности пары событий p(ai,bj), можно определить среднюю информацию всех пар

Характеристики пары источников дискретных сообщений
Вероятностные характеристики источника Информация Энтропия Вероятность отдельного символа (события) — априорная вероят

Хотите получать на электронную почту самые свежие новости?
Education Insider Sample
Подпишитесь на Нашу рассылку
Наша политика приватности обеспечивает 100% безопасность и анонимность Ваших E-Mail
Реклама
Соответствующий теме материал
  • Похожее
  • Популярное
  • Облако тегов
  • Здесь
  • Временно
  • Пусто
Теги