рефераты конспекты курсовые дипломные лекции шпоры

Реферат Курсовая Конспект

Статистический подход к определению информации.

Статистический подход к определению информации. - раздел Информатика, Исторический очерк развития кибернетики Любому Изучаемому Объекту Присуща Неопределенность Его Возможных Состояний. Ч...

Любому изучаемому объекту присуща неопределенность его возможных состояний. Чем больше количество состояний, тем выше неопределенность.

Количественная мера беспорядка в системе, выражающаяся в неопределенности его состояний, характеризуется энтропией системы.

Имеется два определения энтропии:

1 определение: энтропия системы равна log числа возможных состояний объекта.

Возможные состояния системы: S = 1,…,S

H0 = log S, (1)

Предположим, для передачи информации мы используем всего два сигнала: 0 и 1.

Последовательность из n двоичных сигналов позволяет описать 2n возможных состоянии.

2n = S n = log2S

Чаще всего в первом определении в качестве основания log используется 2. в этом случае энтропию системы можно интерпретировать как количество двоичных сигналов (бит), необходимых для передачи сообщения о действительном состоянии системы.

2 определение по Шеннону: первое определение энтропии соответствует так называемой вариационной неопределенности, когда все возможные состояния системы равновероятны. В случае, когда распределение вероятностей системы отличается от равномерного, определение энтропии следует скорректировать.

Формула определения энтропии была предложена Шенноном в 1948 г.

S = 1,…, S

P(S) – вероятность каждого состояния, P(S) = 1

(2)

Покажем, что если все состония системы равновероятны Н=Н0, P(S) = ½

Если состояния системы неравновероятны, то можно показать, что: Н≤Н0.

Наряду с энтропией говорят об информации или неэнтропии, как величине обратной по знаку энтропии: I = -H.

Энтропия обладает свойством аддитивности, т.е. энтропия системы, составленной из 2-х изолированных статистически независимых объектов равна сумме энтропии этих объектов.

Энтропия замкнутой изолированной системы со временем монотонно увеличивается вплоть до достижения максимального значения Н0.

Основоположник теории информации Клод Шеннон исходил из функционального подхода к понятию информации. Он рассматривал ее как снятую неопределенность об объекте в результате получения адресатом некоторого сообщения, касающегося этого объекта.

Пусть изучаемый объект может принять одно из S состояний: х1, х2,…,хS.

Предположим также, что на объект могут поступать воздействия, принимающий одно из М значений: у1, у2,…, уm. Воздействия носят случайный характер.

Введем вектор условных вероятностей P(X(Yj))=(P(X1/Yj), P(X2/Yj),…,P(XS/Yj))

Рассмотрим воздействия на объект Y как сигнал потенциально доступный наблюдению. До приема сигнала известны априорные вероятности Р(Yj) каждого возможного сообщения.

Сообщения, которые получает наблюдатель указывает конкретную реализацию Yj случайные величины Y. Определим информационную ценность полученного сообщения.

До получения сигнала априорные вероятности P0(Xi), i= 1,…,s, состояния объекта можно получить по формуле:

P0(Xi)=(Xi/Yj)Р(Yj)

После получения конкретного сигнала Yj апостериорная вероятность того, что объект будет находиться в этом состоянии задается формулой:

Р/(Xi)=Р(Xi/Yj)

Информационная ценность полученного сигнала равна изменению энтропии объекта в результате получения сигнала, а именно: априорная энтропия объекта:

Н(X)=-P0(Xs)*logP0(Xs)

Апостериорная энтропия объекта после получения сигнала Yj будет равна

Н(X/Yj) = -P/(Xs)*logP/(Xs)

Количество информации об объекте Х, полученной в результате получения сообщения Yj будет равно:

I(X, Yj)=H(X)-H(X/Yj)

Из последней формулы видно, что различные сигналы несут в себе разное количество информации

.

– Конец работы –

Эта тема принадлежит разделу:

Исторический очерк развития кибернетики

Модели с ассиметричной информацией... Под ассиметричной информацией понимается ситуация когда один из экономических... Рынок лимонов Акерлофа хорошие Vgood плохие Vbad...

Если Вам нужно дополнительный материал на эту тему, или Вы не нашли то, что искали, рекомендуем воспользоваться поиском по нашей базе работ: Статистический подход к определению информации.

Что будем делать с полученным материалом:

Если этот материал оказался полезным ля Вас, Вы можете сохранить его на свою страничку в социальных сетях:

Все темы данного раздела:

Исторический очерк развития кибернетики
1948 г. – появление термина «кибернетика». Норберт Викер опубликовал книгу под названием «Кибернетика или управление и связь в машине и животном организме». «Направляющий руль» - кибернети

Различные подходы к определению информации.
В первоначальном смысле термин информация означал знания вообще. С развитием кибернетики этот термин конкретизировался и стал употребляться в более точных смыслах. В настоящее время принято определ

Ценность информации в прагматическом аспекте
С экономической точки зрения информация позволяет принимать лучшие решения, чем и объединяется ее полезность для ЛПР (лица, принимающие решения). Предположим, целевая ЛПР задается функцией

Рынок «лимонов» Акерлофа
Предположим, подержанные авто бывают только: хорошие Vgood = 10000$ плохие Vbad = 5000$ Pgood = Pbad = ½  

Модель «бесполезного образования» Спенса
  Предположим, что люди бывают только 2-х типов: умные и отсталые Зарплата: у умных = Vg у отсталых = Vb

Понятия системы, основные характеристики системы.
Система – это совокупность элементов, находящихся во взаимодействии и связаны определенной структурой. Базовый блок любой системы – составляющие ее элементы, каждый элемен

Детерминированные динамические системы с дискретным временем.
Многие приложения в экономике требуют моделирования систем во времени. Состояние системы в момент времени t описывается мерным вектором X(t).   X1(t)

Автономные системы
Поведение автономных систем задается разностным уравнением   Xt+1 = f (Xt,

Теория устойчивости Ляпунова
Точка называется стабильной по Ляпунову, если для любого числа

Скалярные линейные системы
Скалярные линейные системы имеют форму: (1)

Однородные линейные системы
  Для скалярных систем удобно анализировать поведение системы при помощи фазовой диаграммы. Фазовая диаграмма – это график зависимости

Неоднородные линейные системы первого порядка
  (1)

ЛОГИСТИЧЕСКАЯ МОДЕЛЬ РОСТА И ЭЛЕМЕНТЫ ТЕОРИИ НЕЛИНЕЙНЫХ СИСТЕМ
Заменим на частично линейные системы.    

Хотите получать на электронную почту самые свежие новости?
Education Insider Sample
Подпишитесь на Нашу рассылку
Наша политика приватности обеспечивает 100% безопасность и анонимность Ваших E-Mail
Реклама
Соответствующий теме материал
  • Похожее
  • Популярное
  • Облако тегов
  • Здесь
  • Временно
  • Пусто
Теги