рефераты конспекты курсовые дипломные лекции шпоры

Реферат Курсовая Конспект

Дискретный канал передачи информации

Дискретный канал передачи информации - раздел Философия, ТЕОРИЯ ИНФОРМАЦИИ   Рассмотрим Модель Канала Передачи Информации  ...

 

Рассмотрим модель канала передачи информации

 

, ,

,

[бит] - количество информации (мера неопределённости), содержащаяся в элементе ансамбля .

[бит] - количество информации, содержащееся в элементе при условии, на входе канала реализуется элемент ансамбля . Иногда её называют остаточной неопределённостью в элементе при условии реализации на входе канала элемента .

[бит] - количество информации, содержащееся в элементе на выходе канала связи относительно элемента на входе канала. Используя безусловную и условную вероятности и , можно получить

- количество информации, содержащееся в элементе относительно элемента .

Суммируя по всем возможным элементам и с соответствующими весами , получим

 

(2.19)

- количество взаимной информации, содержащейся в ансамбле относительно ансамбля .

(Зюко. Помехоустойчивость и эффективность систем связи. «Связь». 1972, 360 с.)

Выразим количество взаимной информации через энтропии ансамблей:

=. (2.20 а)

Формулу (2.18 а) можно интерпретировать как среднее количество информации, переданное по каналу связи. Условная энтропия зависит от характеристик шума и интерпретируется как среднее количество информации, теряемое в канале связи из-за шума, и её называют ненадёжностью [ Р. Фано , стр 66].

Используя соотношение (2.17), можно показать

. (2.20 б)

Энтропия - это среднее количество принятой информации, необходимое для определения принятого сигнала. Условная энтропия - среднее количество принятой информации, когда известны вероятностные характеристики ансамбля Y. Ввиду того, что сигнал и шум аддитивны и независимы, а характеристики сигнала учитываются в расчетах условной энтропии , то - среднее количество информации, необходимое для определения помехи, или энтропия помехи (шума) в канале связи. При отсутствии помех в канале связи

==0 и =.

Пример 1. Положим, сигналы в канале передачи данных не искажаются, т.е. шумы в канале отсутствуют. Условная вероятность появления символов и в этом случае равна

Тогда условная энтропия равна нулю и количество взаимной информации определяется энтропией ансамбля Z. Но ранее было показано, что =. Из этого равенства и отсутствия шума следует, что , то есть количество взаимной информации на выходе канала связи относительно входа равна энтропии (неопределённости) ансамбля на входе канала передачи данных. И чем больше энтропия , тем больше информации передаётся по каналу связи.

Пример 2. Положим, сигналы в канале передачи данных искажаются настолько, что сигналы на приёмном конце канала передачи данных можно считать статистически независящими от передаваемых значений . В этом случае условная вероятность запишется как

и количество взаимной информации будет равно нулю, то есть абонент не получит никакой информации, хотя он будет фиксировать принимаемые символы .

Из рассмотренных примеров видно, чем больше энтропия , тем больше информации может быть передано по каналу. Для дискретных источников информации, как было показано ранее, энтропия принимает наибольшее значение, если элементы ансамбля равновероятны. Это положение относится как к ансамблю X, так и к ансамблям Y и Z то есть

, , где N и K – количество элементов ансамблей X и Y. Для непрерывных распределений вероятностей , , имеющих конечную дисперсию, энтропия принимает максимальное значение, если значения x и y распределены по нормальному закону.

Ансамбль сообщений, энтропия которых равна максимальному значению, является оптимальным ансамблем в смысле наибольшего количества передаваемой информации [Клюев].

Для оценки того, насколько отличается энтропия ансамбля от максимального значения вводится понятие коэффициента сжатия:

.

Из определения видно, что . При каждое сообщение несёт максимальную информацию. Избыточность информации, содержащаяся в ансамбле, характеризуется коэффициентом избыточности

.

Чтобы уменьшить избыточность, содержащуюся в ансамбле X источника информации, создается новый ансамбль Y символов, энтропия которой близка к максимальному значению. Затем с помощью элементов ансамбля Y составляются сообщения из ансамбля X.

 

– Конец работы –

Эта тема принадлежит разделу:

ТЕОРИЯ ИНФОРМАЦИИ

Мера информации Мера информации по Шеннону Сообщения могут быть... Количество взаимной информации... Дискретный канал передачи информации Рассмотрим...

Если Вам нужно дополнительный материал на эту тему, или Вы не нашли то, что искали, рекомендуем воспользоваться поиском по нашей базе работ: Дискретный канал передачи информации

Что будем делать с полученным материалом:

Если этот материал оказался полезным ля Вас, Вы можете сохранить его на свою страничку в социальных сетях:

Все темы данного раздела:

Теорема Котельникова
  Согласно теореме Котельникова, если спектр сигнала ограничен полосой

Квантование сигнала по уровню
  Положим, дискретизация сигналов по времени произведено, и необходимо передавать сигналы в дискретные моменты времени. Можно передавать сигналы, используя амплитудно-импульсную модул

Мера информации по Шеннону
  Сообщения могут быть закодированы разными символами. Число разных символов, из которых образуются сообщения, составляет основание кода, (русский алфавит имеет 33 символа, двоичный к

Энтропия дискретного ансамбля сообщений
Среднее количество информации, содержащееся в ансамбле , определяется математическим ожиданием &nbs

Энтропия непрерывного ансамбля сообщений
  Выше мера информации была введена для дискретного ансамбля сообщений. Точно так же вводится мера информации на непрерывном ансамбле. Непрерывная случайная величина

Энтропия непрерывного ограниченного ансамбля
  Энтропия ансамбля после квантования была записана как

Непрерывный канал передачи информации
  Непрерывный канал передачи информации описывается одномерными и двумерными плотностями распределений вероятностей. Чтобы записать количество взаимной информации между входом и выход

Кодирование источника информации
  Источник информации может быть составлен из различных элементов. В частности это могут

Метод кодирования равномерным кодом
  Чтобы уменьшить избыточность, содержащуюся в ансамбле X источника информации, создается новый ансамбль Y символов, энтропия которой близка к максимальному значению. За

Метод кодирования Шеннона-Фано
  При кодировании по методу Шеннона следует придерживаться следующих правил. 1. Все сообщения

Метод кодирования Хафмана
  Правило образования кодов состоит из следующих пунктов. 1. Все сообщения ансамбля

Независимых сообщений.
  При заданном ансамбле из N независимых сообщений с энтропией

Канал связи
Под каналом связи понимается среда, в которой перемещается сигнал. В зависимости от типа сигнала каналы разделяются на непрерывные и дискретные. Предполагается, что сигнал, передаваемый по

Пропускная способность канала связи
Ввиду того, что канал связи считается стационарным, на вход канала поступает последовательность символов ,

Канал без шумов
Шум в канале связи искажает физические параметры сигнала, что в свою очередь приводит к искажению символов. Вероятностная характеристика искажений – это условная вероятность

Канал с шумами
  Наличие шума в канале связи приводит к тому, что условная энтропия не равна нулю. Условную

Непрерывный канал связи
  Как и прежде, сигналы поступают в канал в дискретные моменты времени, но значения сигналов принимают непрерывные значения из некоторого множества. Примером такого канала является пе

Частотно ограниченного канала
  Передача информации тесно связана с использованием физических сигналов. Свойства сигналов определяют канал связи. Известно, сигнал может быть представлен во времени и через спектрал

Знак равенства будет в том случае, когда значения сигнала распределены по нормальному закону.
  Согласно определению пропускной способности  

Кодирование в канале
  Ранее были определены операции кодирования источников сообщений. Если полученную последовательность сигналов передавать через канал потребителю, то часть сигналов может быть искажен

Систематические коды
  Для передачи информации используются разнообразные методы кодирования, зависящие от требований к восстанавливаемой информации, а также от свойств линий передачи информации. На рисун

Образование систематического кода
Обычно для построения кодов необходимо знать длину кодовой комбинации , кратность обнаруживаемых ошибок

Систематический код Хемминга
Соотношение между числом информационных символов , числом исправляемых ошибок

Циклические коды
  Циклические коды являются разновидностью систематических кодов. Они получили широкое распространение из-за простоты кодирования и декодирования. Все разрешённые кодовые комбинации п

Обнаружение однократной ошибки
  Циклический код относится к классу систематических кодов. Ранее было показано, что при обнаружении одиночной ошибки минимальное кодовое расстояние равно

Исправление однократной ошибки
Исправление одиночной ошибки связано с определением разряда, в котором произошла ошибка. Это производится на основании анализа остатков от деления многочленов ошибок

Хотите получать на электронную почту самые свежие новости?
Education Insider Sample
Подпишитесь на Нашу рассылку
Наша политика приватности обеспечивает 100% безопасность и анонимность Ваших E-Mail
Реклама
Соответствующий теме материал
  • Похожее
  • Популярное
  • Облако тегов
  • Здесь
  • Временно
  • Пусто
Теги