Избыточность

Считают, что имеется избыточность, если количество информации, содержащейся в сигнале (энтропия сигнала), меньше того количества, которое этот сигнал мог бы содержать по своей физической природе.

Пусть сигнал длиной символов содержит количество информации ; кроме того, наибольшее количество информации, которое может содержаться в данном сигнале с учетом наложенных ограничений (таких, как основание кода, заданная средняя мощность сигнала и т.п.), равно . Тогда количественной мерой избыточности является величина:

 

. (1.9)

Причина избыточности – статистические связи между символами сигнала и неэкстремальность распределения вероятностей отдельных символов. Введение избыточности приводит к удлинению сигнала, но повышает его информационную устойчивость при воздействии помех.

Статистические связи между сигналами наблюдаются в случае ИДС с памятью: здесь вероятность выдачи им очередного элемента сообщения зависит от того, какие элементарные сообщения были выданы ранее.

Примером ИДС с памятью является источник связного русского текста, где в качестве элементарных сообщений выступают буквы. Сочетание ‘ар’ будет встречаться чаще, чем ‘аъ’.

Избыточность показывает, какая доля максимально возможной при заданном объеме алфавита неопределенности (энтропии) не используется источником.

 

Пример

Дан ансамбль: .

Символы в последовательности независимы. Найти энтропию источника и вычислить избыточность.

 

Решение

Энтропия: .

Избыточность за счет неоптимальности (не равновероятности) распределения элементарных сообщений в источнике: , где .●

Пример

Алфавит источника состоит из трех букв . Определить энтропию на 1 букву текста для следующих случаев:

(а) появление букв не равновероятно: , а символы в последовательности на выходе источника статистически зависимы. Условные вероятности переходов заданы таблицей:

i – индекс предыдущей буквы j – индекс последующей буквы
 
0.4 0.2 0.4
0.0 0.6 0.4
0.3 0.0 0.7

(б) вероятности букв те же, что и в пункте (а), но символы независимы;

(в) символы в последовательности независимы, а вероятности букв одинаковы.

Вычислить избыточность источника для случаев (а) и (б).

 

Решение

(а) В случае не равновероятных и зависимых сообщений энтропию текста будем считать по свойству 1) условной энтропии, где

а условную энтропию по формуле (8):

Энтропия на один символ:

 

(б) При не равновероятных, но независимых сообщениях энтропия по свойству 2) условной энтропии:

Избыточность, обусловленная статистической зависимостью:

=.

 

(в) В случае равновероятных и независимых сообщениях энтропия:

.

 

Избыточность, обусловленная неоптимальностью распределения:

.

 

Полная избыточность (за счет неоптимальности распределения и наличия статистических зависимостей):

.●