рефераты конспекты курсовые дипломные лекции шпоры

Реферат Курсовая Конспект

Свойства взаимной информации.

Свойства взаимной информации. - раздел Философия, Дисциплина Теория информации Тема №2: Меры информации 1. Взаимная Информация - Величина Положительная. 2. Взаимная Информа...

1. Взаимная информация - величина положительная.

2. Взаимная информация симметрична относительно пары вероятностных схем A и B.

I(А;B)=I(B;A)

3. Если сообщение A и B независимы (несовместны), то I(А;B)=0.

Если сообщения A и B полностью зависимы, а именно совпадают (сообщения A и B содержат одну и ту же информацию), то

I(А;B)=I(A)+I(B)

 

Примеры, поясняющие это свойство:

1) Если A и B – сообщения, публикуемые различными источниками (газетами), то для получения возможно большей суммарной (совместной) информации взаимная (т.е. одинаковая в данном случае) информация, должна быть минимальной.

2) Если A и B – сообщения на входе и выходе канала связи с помехами, то для получения взаимно большей информации её получателем необходимо, чтобы взаимная информация была наибольшей.

В то же время для описания воздействия помех в канале связи на полезное сообщение используется понятие условной информации и условной энтропии.

Для определения условной информации и условной энтропии в заданной объединенной вероятностной схеме вернемся к соотношению:

==

Таким образом, совместная информацияпары событий информаций складывается из собственной информации каждого события или и некоторой информации, добавляемой вторым событием при условии, что произошло первое, т.е. I. Поэтому информациюIназывают условной информацией пары случайных событий.

Если аналогично тому, как мы это делали ранее, составить вероятностную схему для условной вероятности пары событий как для случайной величины:

,

тогда математическое ожидание E, которое и является энтропией этой случайной величины будет равно:

Найдем соотношение между условной энтропией объединенной вероятностной схемы и ее взаимной информации.

По определению взаимная информация пары событий равна

Аналогично:

Рассматривая взаимную информацию как случайную величину и, усредняя её (определяя математическое ожидание E) по объединенной вероятностной схеме, получим:

I(А;B) = EH(A) - H(A/B) = H(B) - H(B/A).

 

– Конец работы –

Эта тема принадлежит разделу:

Дисциплина Теория информации Тема №2: Меры информации

Тамбовский государственный технический университет... Кафедра Информационные системы... Дисциплина Теория информации...

Если Вам нужно дополнительный материал на эту тему, или Вы не нашли то, что искали, рекомендуем воспользоваться поиском по нашей базе работ: Свойства взаимной информации.

Что будем делать с полученным материалом:

Если этот материал оказался полезным ля Вас, Вы можете сохранить его на свою страничку в социальных сетях:

Все темы данного раздела:

Энтропия вероятностной схемы. Основные свойства энтропии. Аксиомы Хинчина и Фадеева.
Простейший дискретный источник сообщений X в каждый фиксированный момент времени выдает некоторый символ из коне

Взаимная информация и ее свойства. Условная энтропия.
Рассмотрим два дискретных источника A и B. Объединим их события в пары (ai,bj) объединенной вероятностной схемой C=AB. Мы получим простейшую модель связанных источников (рис.1

Понятие совместной энтропии.
Для двух источников, образующих объединенную вероятностную схему, используя понятие совместной вероятности пары событий p(ai,bj), можно определить среднюю информацию всех пар

Характеристики пары источников дискретных сообщений
Вероятностные характеристики источника Информация Энтропия Вероятность отдельного символа (события) — априорная вероят

Хотите получать на электронную почту самые свежие новости?
Education Insider Sample
Подпишитесь на Нашу рассылку
Наша политика приватности обеспечивает 100% безопасность и анонимность Ваших E-Mail
Реклама
Соответствующий теме материал
  • Похожее
  • Популярное
  • Облако тегов
  • Здесь
  • Временно
  • Пусто
Теги