рефераты конспекты курсовые дипломные лекции шпоры

Реферат Курсовая Конспект

Измерение количества информации по К.Шеннону.

Измерение количества информации по К.Шеннону. - раздел Информатика, ЛЕКЦИЯ № 1. ТЕМА: ИНФОРМАЦИЯ И ИНФОРМАТИКА Концепцию Выбора Хартли Развил И Обобщил Из Вероятностных Позиций Американски...

Концепцию выбора Хартли развил и обобщил из вероятностных позиций американский ученый Клод Шеннон. Он создал в 1948-1949 гг. основы статистической теории информации, основным понятием которой является энтропия. Энтропия в теории информации – мера неопределенности, которая существует при принятии сообщений. Название свое мера неопределенности получила благодаря формальной схожести с термодинамической энтропией, но суть этих понятий совсем разная. Согласно с исходными «положениями» статистической теории информации, любое сообщение, которое необходимо передать, является результатом случайного выбора из совокупности возможных сообщений данного типа. Для получателя сообщения в связи со случайностью выбора существует неопределенность, которая снимается только после получения сообщения. Мера неопределенности для получателя сообщения зависит от того, насколько большим есть выбор из возможного набора сообщений. Информация по Шеннону – это сообщение, которое уменьшает неопределенность системы (явления), которая существовала до получения сообщения. Меру этой неопределенности Шеннон и назвал энтропией.

Содержание энтропии состоит в том, что увеличение энтропии означает уменьшение упорядоченности системы. Беспорядочной система кажется тогда, когда про нее очень мало известно. Энтропия такой системы высока. С получением новых знаний о ней, с получением определенной информации, энтропия системы уменьшается. Таким образом, получение информации способствует уменьшению энтропии, причем это уменьшение пропорционально информации, которая поступает. Следовательно, за меру информации можно взять определенное количество энтропии, которая соответствует этой информации.

По Шеннону количество информации в сообщении равняется

(1.8)

где Н0энтропия до получения сообщения, а Н1 – энтропия после получения сообщения. Следует отметить, что Шеннон практически не делает разницы между энтропией и количеством информации. Основоположник кибернетики американский ученый Н.Винер писал, что количество информации, по сути, - некоторая неотъемлемая энтропия.

– Конец работы –

Эта тема принадлежит разделу:

ЛЕКЦИЯ № 1. ТЕМА: ИНФОРМАЦИЯ И ИНФОРМАТИКА

ТЕМА ИНФОРМАЦИЯ И ИНФОРМАТИКА... ИНФОРМАТИКА КАК ФУНДОМЕНТАЛЬНАЯ... РАЗНЫЕ ПОДХОДЫ К ОПРЕДЕЛЕНИЮ ИНФОРМАЦИИ ОСОБЕННОСТИ ИНФОРМАЦИИ...

Если Вам нужно дополнительный материал на эту тему, или Вы не нашли то, что искали, рекомендуем воспользоваться поиском по нашей базе работ: Измерение количества информации по К.Шеннону.

Что будем делать с полученным материалом:

Если этот материал оказался полезным ля Вас, Вы можете сохранить его на свою страничку в социальных сетях:

Все темы данного раздела:

ИНФОРМАТИКА КАК ФУНДОМЕНТАЛЬНАЯ НАУКА.
Подходя к анализу жизни общества на различных ступенях его развития с точки зрения выяснения того, что определяло в тот или иной период его выживание и прогрессивное развитие, можно заметить, что в

Четвертая революция (70-е годы XX в.) связана с изобретением персонального компьютера.
Разработка и создание компьютеров, как электронных автоматических устройств для работы с информацией, были объективно предопределены. Начиная с последней четверти XX в. стали говорить об «информаци

ПОНЯТИЕ О ДИСКРЕТИЗАЦИИ.
В случаях, когда наука не может дать четкого определения конкретному объекту или явлению, приходится пользоваться понятиями. Понятия отличаются от определений тем, что разные люди при различных обс

СЕМАНТИЧЕСКИЙ, СИНТАКСИЧНЫЙ И ПРАГМАТИЧНЫЙ.
Есть три научных направления, связанных с исследованием информации: семантический (содержательный), синтаксический и прагматичный. Их впервые предложил рассматривать один из авторов так называемой

ИЗМЕРЕНИЕ ИНФОРМАЦИИ.
Существует несколько способов оценивания информации: алфавитный (объемный или технический), алгоритмический, комбинаторный, вероятностный. Наибольшую практическую ценность имеют алфавитный и вероят

Измерение количества информации по Р.Хартли.
Меру количества информации установил в 1928 году Р.Хартли на основе предложенной им концепции выбора. Согласно этой концепции связь между отправителем и получателем информации осуществляется только

Формула Шеннона (мера Шеннона).
Базируясь на вероятностном подходе к оцениванию информации, К.Шеннон в 1948 году вывел формулу, которая дает оценку информации, абстрагируясь от ее содержания:

Хотите получать на электронную почту самые свежие новости?
Education Insider Sample
Подпишитесь на Нашу рассылку
Наша политика приватности обеспечивает 100% безопасность и анонимность Ваших E-Mail
Реклама
Соответствующий теме материал
  • Похожее
  • Популярное
  • Облако тегов
  • Здесь
  • Временно
  • Пусто
Теги