рефераты конспекты курсовые дипломные лекции шпоры

Реферат Курсовая Конспект

Характеристики пары источников дискретных сообщений

Характеристики пары источников дискретных сообщений - раздел Философия, Дисциплина Теория информации Тема №2: Меры информации Вероятностные Характеристики Источника ...

Вероятностные характеристики источника Информация Энтропия
Вероятность отдельного символа (события) — априорная вероятность p(ai)=pi p(bj)=qj Источник задается вероятностной схемой Информация отдельного символа (события) I(ai)=-log2pi[бит] I(bj)=-log2qj[бит] Энтропия ансамбля событий H(A)=-∑pilog2pi [бит] H(B)=-∑qjlog2qj [бит]
Совместная вероятность двух символов (пары событий) p(ai, bj)=p(ij) Связанные источники задаются объединенной вероятностной схемой Информация пары символов (событий) I(ai, bj)=-log2p(ij) [бит]   Совместная энтропия связанных источников (средняя совместная информация по объединенной вероятностной схеме) H(AB)=EI(ai,bj)=-∑∑p(ij)log2p(ij) [бит]  
Условная вероятность символов (событий) — апостериорная вероятность p(ai/bj)=pji=p(ij)/qj p(bj/ai)=pij=p(ij)/pi Условная информация пары символов (событий) I(ai/bj)=-log2pji [бит] I(bj/ai)=-log2pij [бит] Условная энтропия связанных источников (средняя условная информация на объединенной вероятностной схеме) H(A/B)=EI(ai/bj)=-∑∑p(ij)log2pji [бит] H(B/A)=EI(bj/ai)=-∑∑p(ij)log2pij [бит]
  Взаимная информация пары символов: I(ai; bj)=log2(апостериорная вероятность/априорная вероятность)=log2(p(ai/bj)/pi)=log2(pji/pi)= log2(p(bj/ai)/qj)=log2(pij/qj) [бит]
  Средняя взаимная информация объединенной вероятностной схемы: I(A;B)=EI(ai;bj)=∑∑p(ij)log2((pji)/pi)=∑∑p(ij)log2((pij)/qj) [бит]
Информационные соотношения в связанных источниках: H(AB)=H(A)+H(B/A)=H(B)+H(A/B); H(AB)≤H(A)+H(B); H(A/B)≤H(A); H(B/A)≤H(B) I(A;B)=H(A)-H(A/B)=H(B)-H(B/A)

 

Замечание: Взаимная информация не имеет аналога в теории вероятности. Это совершенно новое понятие теории информации, играющее центральную роль в информационной технике. Взаимная информация связывает понятие канала с возможностью передачи информации по нему, т.е. с его пропускной способностью.

– Конец работы –

Эта тема принадлежит разделу:

Дисциплина Теория информации Тема №2: Меры информации

Тамбовский государственный технический университет... Кафедра Информационные системы... Дисциплина Теория информации...

Если Вам нужно дополнительный материал на эту тему, или Вы не нашли то, что искали, рекомендуем воспользоваться поиском по нашей базе работ: Характеристики пары источников дискретных сообщений

Что будем делать с полученным материалом:

Если этот материал оказался полезным ля Вас, Вы можете сохранить его на свою страничку в социальных сетях:

Все темы данного раздела:

Энтропия вероятностной схемы. Основные свойства энтропии. Аксиомы Хинчина и Фадеева.
Простейший дискретный источник сообщений X в каждый фиксированный момент времени выдает некоторый символ из коне

Взаимная информация и ее свойства. Условная энтропия.
Рассмотрим два дискретных источника A и B. Объединим их события в пары (ai,bj) объединенной вероятностной схемой C=AB. Мы получим простейшую модель связанных источников (рис.1

Свойства взаимной информации.
1. Взаимная информация - величина положительная. 2. Взаимная информация симметрична относительно пары вероятностных схем A и B. I(А;B)=I(B;A) 3. Если сообщение A и B неза

Понятие совместной энтропии.
Для двух источников, образующих объединенную вероятностную схему, используя понятие совместной вероятности пары событий p(ai,bj), можно определить среднюю информацию всех пар

Хотите получать на электронную почту самые свежие новости?
Education Insider Sample
Подпишитесь на Нашу рассылку
Наша политика приватности обеспечивает 100% безопасность и анонимность Ваших E-Mail
Реклама
Соответствующий теме материал
  • Похожее
  • Популярное
  • Облако тегов
  • Здесь
  • Временно
  • Пусто
Теги