рефераты конспекты курсовые дипломные лекции шпоры

Реферат Курсовая Конспект

Неопределенность, количество информации и энтропия

Неопределенность, количество информации и энтропия - раздел Информатика, Лекция 1. Информатика как наука Информация Не Является Ни Материей, Ни Энергией. В Отличие От Них, Она Может ...

Информация не является ни материей, ни энергией. В отличие от них, она может возникать и исчезать. Особенность информации заключается в том, что она проявляется только при взаимодействии объектов. Поэтому понятие «информация» обычно предполагает наличие двух объектов - «источника» информации и «приемника» (потребителя) информации (рис.1.2). Информация передается от источника к получателю в виде сигналов (например, электрических, световых, звуковых и т.д.), распространяющихся в определенной среде.

 

Рис. 1.2 Структурные компоненты обмена информацией

Сигнал - это физический процесс, несущий информацию о событии или состоянии объекта наблюдения.

Самый “популярный” носитель информации - электромагнитные волны, непосредственно воспринимаемые человеческими органами чувств как свет, звук и тепло [2]. Спектр данных волн представлен на рис.3.2.

 

 

Рис.3.2 Спектр электромагнитных волн

 

Информация может поступать непрерывно или дискретно, т.е. в виде последовательности отдельных сигналов (рис.3.3). Соответственно, различают непрерывную и дискретную информацию.

 

Рис.3.3 Представление непрерывного и дискретного сигналов

 

По определению А. Д. Урсула - «информация есть отраженное разнообразие». Количество информации есть количественная мера разнообразия.

 

Любое сообщение между источником и приемником информации имеет некоторую продолжительность во времени (длину сообщения). Но количество информации воспринятой приемником в результате сообщения, характеризуется в итоге вовсе не длиной сообщения, а разнообразием сигналапорожденного в приемнике этим сообщением.

Память носителя информации имеет некоторую физическую ёмкость, в которой она способна накапливать образы, и количество накопленной в памяти информации, характеризуется в итоге именно разнообразиемзаполнения этой ёмкости.

Разнообразие необходимо при передаче информации. Нельзя нарисовать белым по белому, одного состояния недостаточно. Если ячейка памяти способна находиться только в одном (исходном) состоянии и не способна изменять свое состояние под внешним воздействием, это значит, что она не способна воспринимать и запоминать информацию. Информационная емкость такой ячейки равна 0.

Минимальное разнообразие обеспечивается наличием двух состояний. Если ячейка памяти способна, в зависимости от внешнего воздействия, принимать одно из двух состояний, которые условно обозначаются обычно как «0» и «1», она обладает минимальной информационной ёмкостью.

Информационная ёмкость одной ячейки памяти, способной находиться в двух различных состояниях, принята за единицу измерения количества информации - 1 бит.

1 бит (bit - сокращение от англ. binary digit - двоичное число) - единица измерения информационной емкости и количества информации, а также и еще одной величины – информационной энтропии, с которой мы познакомимся позже.

На физическом уровне бит является ячейкой памяти, которая в каждый момент времени находится в одном из двух состояний: «0» или «1».

Количество информации равное 1 биту можно получить в ответе на вопрос типа «да»/«нет». Если изначально вариантов ответов было больше двух, количество получаемой в конкретном ответе информации будет больше, чем 1 бит, если вариантов ответов меньше двух, т.е. один, то это не вопрос, а утверждение, следовательно, получения информации не требуется, раз неопределенности нет.

Информационная ёмкость ячейки памяти, способной воспринимать информацию, не может быть меньше 1 бита, но количество получаемой информации может быть и меньше, чем 1 бит. Это происходит тогда, когда варианты ответов «да» и «нет» не равновероятны. Неравновероятность в свою очередь является следствием того, что некоторая предварительная (априорная) информация по этому вопросу уже имеется, полученная, допустим, на основании предыдущего жизненного опыта. Таким образом, во всех рассуждениях предыдущего абзаца следует учитывать одну очень важную оговорку: они справедливы только для равновероятного случая.

Количество информации мы будем обозначать символом I, вероятность обозначается символом P. Напомним, что суммарная вероятность полной группы событий равна 1.

 

– Конец работы –

Эта тема принадлежит разделу:

Лекция 1. Информатика как наука

Обработка информации... Информация предназначенная для обработки называется данными Для достижения цели обработки данных должен быть...

Если Вам нужно дополнительный материал на эту тему, или Вы не нашли то, что искали, рекомендуем воспользоваться поиском по нашей базе работ: Неопределенность, количество информации и энтропия

Что будем делать с полученным материалом:

Если этот материал оказался полезным ля Вас, Вы можете сохранить его на свою страничку в социальных сетях:

Все темы данного раздела:

Информатика, история возникновения информатики
Наука информатика возникла сравнительно недавно, так что ни её определение, ни цели, ни задачи до сих пор не определены. Часто эту науку путают то с компьютерными науками, то с киб

Место информатики в системе наук
Так как информатика является наукой молодой, развивающейся, ее предметом является информация, движение которой существенно влияет на общество; информация используется повсюду, все это означает что

Структура информатики
  Информатику можно рассматривать как - фундаментальную науку - занимается разработкой методологии создания информационного обеспечения процессов управления

Правовые аспекты информатики
Деятельность программистов и др. спец., работающих в сфере И., все чаще выступают в качестве объекта правового регулирования. 1992 - был принят Закон Российской Федерации "

Понятие информации
  Понятие информации является одним из фундаментальных в современной науке и базовым для информатики. В бытовом понимании это некоторые сведения, данные, знания и т. д.

Хранение информации
— Письменность — графическое изображение символов на камне, глине, папирусе, бумаге. Огромное значение в развитии этого направления имело изобретение книгопечатания.

Свойства информации
  Субъективное восприятие информации осуществляется через набор ее свойств: - важность, - достоверность, - своевременность, - доступность и

Качество информации
  Качество информации - совокупность свойств, которая обусловливает ее способность удовлетворять определенные потребности людей Показатели качества информаци

Передача информации
Передачей информацииназывается процесс её пространственного переноса от источника к получателю. (Речь, письмо и т.д.) Для осуществления передачи информация должна быть некоторым об

Меры информации семантического уровня
Для измерения смыслового содержания информации, т.е. ее количества на семантическом уровне, наибольшее распространение получила тезаурусная мера, которая связывает семантические свойства информации

Подходы к определению количества информации. Формулы Хартли и Шеннона.
  Американский инженер Р. Хартли в 1928 г. процесс получения информации рассматривал как выбор одного сообщения из конечного наперёд заданного множества из

Хотите получать на электронную почту самые свежие новости?
Education Insider Sample
Подпишитесь на Нашу рассылку
Наша политика приватности обеспечивает 100% безопасность и анонимность Ваших E-Mail
Реклама
Соответствующий теме материал
  • Похожее
  • Популярное
  • Облако тегов
  • Здесь
  • Временно
  • Пусто
Теги