рефераты конспекты курсовые дипломные лекции шпоры

Реферат Курсовая Конспект

Математические меры информации.

Математические меры информации. - раздел Экономика, Определение количества информации, содержащегося в сообщении Информационные Меры, Как Правило, Рассматриваются В Двух Аспектах Синтаксичес...

Информационные меры, как правило, рассматриваются в двух аспектах синтаксическом и семантическом.

В синтаксическом аспекте сообщения рассматриваются как символы, абстрагированные от содержания и какой-либо ценности. Предметом анализа и оценивания являются частота появления символов, связи между ними, порядок следования, правила построения сообщений. В таком рассмотрении наиболее широко используют структурные и вероятностные (статистические) меры.

Структурные меры оценивают строение массивов информации и их измерение простым подсчетом информационных элементов или комбинаторным методом. Структурный подход применяется для оценки возможностей информационных систем вне зависимости от условий их применения.

При статистическом подходе используется понятие энтропии как ме­ры неопределенности, учитывающей вероятность появления и информативность того или иного сообщения. Статистический подход учитывает конкретные условия применения информационных систем.

Семантический подход позволяет выделить полезность или ценность информационного сообщения (в настоящем пособии не рассматривается).

При синтаксическом анализе информация определяется как мера уменьшения неопределенности знаний о каком-либо предмете в познавательном процессе. Если H1 – исходная (априорная) неопределенность до передачи сообщения, а H2 –остаточная (апостериорная) неопределенность, характеризующая состояние знания после получения сообщения, то содержащаяся в этом сообщении информация определяется их разностью

I=H1 – H2. (1.3)

Известно достаточно большое количество различных мер, различающихся подходом к определению неопределенности в (1.3). Далее рассматриваются только две из них – структурная аддитивная мера Хартли и вероятностная мера, называемая энтропия, предложенная К.Шенноном.

 

1.3. Структурная мера информации. Аддитивная мера Хартли.

 

Аддитивная мера (мера Хартли) использует понятия глубины q и длины n числа.

Глубина q числа — количество символов (элементов), принятых для представления информации. В каждый момент времени реализуется только один какой-либо символ.

Длина n числа — количество позиций, необходимых и достаточных для представления чисел заданной величины.

Эти понятия могут быть распространены и на вариант нечислового сообщения. В этом случае глубина числа тождественна размеру алфавита, а длина числа – разрядности слова при передаче символьного сообщения.

Если сообщение – число, понятие глубины числа будет трансформировано в понятие основания системы счисления. При заданных глубине и длине числа количество чисел, которое можно представить, N = qn.

Величина N не удобна для оценки информационной емкости. Исходная неопределенность по Хартли характеризуется логарифмической функцией

H1 = loga N. (1.4)

Неопределенность после получения сообщения, остаточная неопределенность,

H2 = loga n, (1.5)

где n – число возможных значения принятого символа после получения сообщения. В случае измерительного опыта, число n-характеризует число возможных значений величины после измерения, характеризующее погрешность. Если передается символ некоторого алфавита, n определяет возможную неоднозначность приема символа за счет искажений в канале связи.

Очевидно, что должно быть n < N, аn = 1 только в идеальном случае передачи сообщения без потери информации или, что тоже самое, измерения некоторой физической величины без ошибок. Количество информации по Хартли оценивается как

I=H1 – H2 = loga N - loga n = loga N/n. (1.6)

Основание логарифма в 1.5 определяет только единицы измерения неопределенности. При a=2 это двоичная единица информации, называемая бит. При a = 10 десятичная (дит), при a =e натуральная (нит). Далее мы будем всегда пользоваться двоичной единицей.

Логарифмическая мера, позволяющая, вычислять количество информации, содержащейся в сообщении, переданном числом длиной n и глубиной q:

I(q),=log2N=n log2 q , бит. (1.7)

Следовательно, 1 бит информации соответствует одному элементарному событию, которое может произойти или не произойти. Такая мера количества информации удобна тем, что она обеспечивает возможность оперировать мерой как числом. Количество информации при этом эквивалентно количеству двоичных символов 0 или 1.

Логарифмическая мера для неопределенности и информации выбрана не случайно. Она оказывается удобной при описании сложных опытов. Допустим, что задача состоит в одновременном приеме информации от двух источников, не зависящих друг от друга. При этом N1 и n1 – число возможных сообщение до и после приема информации от первого источника, а - N2 и n2 от второго. Пусть H11иH12 – исходная неопределенность знания первого и второго сообщения, соответственно, первого и второго источника. Естественно потребовать, чтобы общая неопределенность знания о двух сообщениях определялась суммой неопределенностей каждого, т.е. мера должна обладать свойством аддитивности

H = H11 + H12.

 

Число возможных сочетаний двух независимых величин из множеств N1 N2

N = N1 N2.

Тогда исходная неопределенность H = H11 + H12, ,аналогично остаточная неопределенностьH = H21 + H22.При наличии нескольких источников информации общее количество информации

I(q1, q2, ...,qn)= I(q1)+ I(q2)+...+I(qn), (1.8)

где I(qk) — количество информации от источника k.

Логарифмическая мера информации позволяет измерять количество информации и широко используется на практике. Однако всегда надо учитывать, что все сообщения в этой мере полагаются равновероятными и независимыми. Эти допущения приводит на практике к существенно завышенным оценкам.

– Конец работы –

Эта тема принадлежит разделу:

Определение количества информации, содержащегося в сообщении

На сайте allrefs.net читайте: "Определение количества информации, содержащегося в сообщении"

Если Вам нужно дополнительный материал на эту тему, или Вы не нашли то, что искали, рекомендуем воспользоваться поиском по нашей базе работ: Математические меры информации.

Что будем делать с полученным материалом:

Если этот материал оказался полезным ля Вас, Вы можете сохранить его на свою страничку в социальных сетях:

Все темы данного раздела:

Статистическая мера информации.
В статистической теории информации вводится более общая мера количества информации, в соответствии с которой рассматривается не само событие, а информация о нем. Этот вопрос глубоко проработан К. Ш

Хотите получать на электронную почту самые свежие новости?
Education Insider Sample
Подпишитесь на Нашу рассылку
Наша политика приватности обеспечивает 100% безопасность и анонимность Ваших E-Mail
Реклама
Соответствующий теме материал
  • Похожее
  • Популярное
  • Облако тегов
  • Здесь
  • Временно
  • Пусто
Теги