Для двух источников, образующих объединенную вероятностную схему, используя понятие совместной вероятности пары событий p(ai,bj), можно определить среднюю информацию всех пар событий:
H(AB) = E– совместная энтропия двух дискретных источников
Не сложно доказать, что
H(AB)=H(A)+H(B/A)=H(B)+H(A/B)
Если источники независимы, справедливо:
H(A/B)=H(A), H(B/A)=H(B)., тогда очевидно, что для связанных источников
H(A/B)H(A); H(B/A)H(B).
Поэтому в общем случае справедливо соотношение:
Сведем все проведенные рассуждения в единую таблицу характеристик пары дискретных источников: