рефераты конспекты курсовые дипломные лекции шпоры

Реферат Курсовая Конспект

Формула Шеннона.

Формула Шеннона. - раздел Информатика, ИНФОРМАТИКА IСр=-(P1Log2P1+P2...

Iср=-(p1log2p1+p2log2p2+…pNlog2pN),

где рi – вероятность того, что именно i-е сообщение выделено в наборе из N сообщений.

К. Шеннон назвал полученную величину энтропией.Обозначают, как правило, буквой Н. Впервые понятие энтропии было введено в 1865г. немецким физиком Рудольфом Клаузиусом как функции состояния термодинамической системы, определяющей направленность самопроизвольных процессов в системе.

Энтропия обладает следующими свойствами:

  • энтропия всегда неотрицательна, так как значения вероятностей выражаются величинами, не превосходящими единицу, а их логарифмы − отрицательными числами или нулём;
  • энтропия равна нулю в том крайнем случае, когда одно из pi равно единице, а все остальные равны нулю;
  • энтропия имеет наибольшее значение, когда все вероятности равны между собой;
  • энтропия объекта АВ, состояния которого образуются совместной реализацией состояний А и В, равна сумме энтропий исходных объектов А и В.

Если все события равновероятны и статистически независимы, то оценки количества информации по Хартли и Шеннону совпадают (полное использование информационной ёмкости системы). В случае неравных вероятностей количество информации по Шеннону, меньше информационной ёмкости системы. Максимальное значение энтропии достигается при р = 0.5, когда два состояния равновероятны. При р = 0 или р = 1, что соответствует полной невозможности или полной достоверности события, энтропия равна нулю. Количество информации только тогда равно энтропии, когда неопределённость ситуации снимается полностью. В общем случае можно считать, что количество информации есть уменьшение энтропии вследствие опыта или какого – либо другого акта познания. Наибольшее количество информации получается тогда, когда полностью снимается неопределённость, причём эта неопределённость была наибольшей.

Практически одновременно такие же исследования по теории передачи информации велись в СССР. Например, в том же 1948 г. вышла работа советского математика А.Н. Колмогорова «Математическая теория передачи информации».

Помимо рассмотренных подходов к определению количества информации существуют и другие. Например, структурная мера информации. В структурном аспекте рассматривается строение массивов информации и их измерение простым подсчетом информационных элементов или комбинаторным методом.

Итак, в качестве единицы информации условились принять один бит. Это, то количество информации, которое необходимо для различения двух равновероятных событий. В вычислительной технике бит (разряд) – это наименьший объем памяти, необходимый для хранения одного из двух чисел «0» или «1».

На практике применяется более крупная единица измерения – байт. Отметим, что байт – это наименьшая адресуемая единица информации. Для современных ЭВМ 1 байт = 8 битам.

Широко используются еще более крупные единицы информации:

1 Килобайт(Кбайт)=1024 байт=210 байт

1 Мегабайт(Мбайт)=1024 Кбайт=220 байт

1 Гигабайт(Гбайт)=1024 Мбайт=230 байт

1 Терабайт(Тбайт)=1024 Гбайт=240 байт

1 Петабайт(Пбайт)=1024 Тбайт=250 байт.

Не следует путать понятия «количество» информации и «объем» информации. Поясним на примере различие этих понятий. Два ученика набирали в текстовом редакторе сочинение. Количество страниц у них получилось одинаковым. Но один ученик изложил свои мысли, а второй заполнил все листы символом «*». Объем информации в этих двух сочинениях одинаков, а вот количество информации различно. Страницы, заполненные символом «*» не несут никакой информации.

Рассмотрим практический пример использования формулы Хартли.

Задача 1.

В корзине с фруктами лежит 8 яблок, 6 груш и 2 персикa. Какое количество информации содержит сообщение о том, что из корзины случайно взяли одно яблоко, либо одну грушу, либо один персик?

Решение.

Определим количество фруктов в корзине: N=8+6+2=16.

Для каждого из событий «взять яблоко», взять «грушу», взять «персик» определим его вероятность:

р1=8/16 =1/2 - вероятность события «случайно взять яблоко»;

р2=6/16=3/8 – случайно взять грушу;

р3=2/16=1/8 – случайно взять персик.

Для решения задачи воспользуемся формулой: I=log(1/p). Подставим в формулу вероятности событий, получим:

I1=-log2(1/2)=1

I2=-log2(3/8)=1.415

I3=-log2(1/8)=3 .

Ответ: I1=1 бит, I2=1.415 бит, I3= 3 бита.

Задача 2.

В коробке лежит 16 шариковых ручек. Ручки либо с синей пастой, либо с черной пастой. Сообщение о том, что вынули ручку с синей пастой, несет 2 бита информации. Определить, сколько в коробке ручек с синей пастой.

Дано: N=16;

Ic=2 бита.

Найти: количество ручек с синей пастой.

Решение.

Пусть х – искомое число синих ручек.

Определим вероятность того, что вынута синяя ручка: р=х/16.

Воспользовавшись формулой I=log2(1/p), найдем х.

I=log2(1/p) ® 2=log2(1/p) ® 22=16/x ®x=4.

Ответ: в коробке 4 синих ручки.

 

1.4 Преобразование информации

 

Информация передаётся в виде сообщений от некоторого источника информации к её приёмнику посредством канала связи между ними. Информационные сообщения подразделяются на дискретные и непрерывные. Дискретные сообщения состоят из конечного множества элементов, создаваемых источником последовательно во времени. Набор элементов (символов) составляет алфавит источника. Непрерывные сообщения задаются какой – либо физической величиной, изменяющейся во времени. Получение конечного множества сообщений за конечный промежуток времени достигается путём дискретизации ( во времени), квантования (по уровню). В большинстве случаев информация о протекании того или иного физического процесса вырабатывается соответствующими датчиками в виде сигналов непрерывно изменяющихся во времени. Переход от аналогового представления сигнала к цифровому, даёт в ряде случаев значительные преимущества при передаче, хранении и обработке информации. Преобразование осуществляется с помощью специальных устройств – преобразователей непрерывных сигналов и может быть выполнено дискретизацией во времени и квантованием по уровню. Операцию, переводящую информацию непрерывного вида в информацию дискретного вида, называют дискретизацией. Квантование по уровню состоит в преобразовании непрерывного множества значений сигнала в дискретное множество значений. В результате дискретизации непрерывная информация заменяется совокупностью отдельных значений. По совокупности дискретных значений (сигналов) можно восстановить исходное непрерывное сообщение, но с некоторой погрешностью.

1.5 Формы представления информации

Информация может существовать в виде:

· текстов, рисунков, чертежей, фотографий;

· световых или звуковых сигналов;

· радиоволн;

· электрических и нервных импульсов;

· магнитных записей;

· жестов и мимики, и т.д.

Информация всегда представляется в виде сообщения, которое передается некоторой физической средой. Носителем информации может быть любая предметная среда, которая меняет состояние в зависимости от передаваемой информации. Это может быть бумага, на которой информация изображается либо знаками, либо специальными отметками (например, перфорация); магнитный материал (лента, диск и т. п.).

Различают две формы представления информации: статическую Iс, и динамическую Iд Возможность передачи сообщения посредством электрического сигнала реализуется с помощью канала связи, соединяющего источник и приемник информации. Чтобы передать информацию, необходимо ее предварительно преобразовать. Кодирование — преобразование сообщения в форму, удобную для передачи по данному каналу.

В качестве простого примера можно привести передачу сообщения в виде телеграммы. Все символы кодируются с помощью телеграфного кода.

Из существующих возможных методов кодирования вероятно наиболее простым является метод алфавитного кодирования. Знаки первичного алфавита кодируются комбинациями символов двоичного алфавита. Длина кодов и, соответственно, длительность передачи отдельного кода, могут различаться. Длительности элементарных сигналов при этом одинаковые.

Декодирование — операция восстановления принятого восстановления сообщения. В систему связи необходимо ввести устройства для кодирования и декодирования информации . Информационную модель канала связи с шумами можно представить следующим образом:

– Конец работы –

Эта тема принадлежит разделу:

ИНФОРМАТИКА

МАТИ Российский Государственный Технологический Университет им К Э... Глава Базовые понятия информатики...

Если Вам нужно дополнительный материал на эту тему, или Вы не нашли то, что искали, рекомендуем воспользоваться поиском по нашей базе работ: Формула Шеннона.

Что будем делать с полученным материалом:

Если этот материал оказался полезным ля Вас, Вы можете сохранить его на свою страничку в социальных сетях:

Все темы данного раздела:

И Н Ф О Р М А Т И К А
Молчанова С.И.     Оглавление Глава 1. Базовые понятия информатики. 2 1.1 Информатика. 5 1.2 Информация. 5 1.3 Кодирова

Свойства информации.
К свойствам информации относят: - Важность (ценность, полезность); - Достоверность (истинность, правильность): - полноту; - оперативность (своевременность):

I=log2N.
Отсюда следует, что 2I=N. Рассмотрим пример: допустим, нужно угадать число из набора целых чисел от нуля до 63. В соответствии с формулой Хартли количество информации в сообщени

Источник – кодирующее устройство – кодер канала – канал связи – декодер канала – декодирующее устройство – приёмник.
Теоретическое обоснование таких систем дал в своих работах К. Шеннон. Рядом теорем он показал эффективность введения кодирующих и декодирующих устройств, назначение которых состоит в согласовании с

Принципы фон Неймана
В 1946 году Д. фон Нейман, Г. Голдстайн и А. Беркс в своей совместной статье изложили новые принципы построения и функционирования ЭВМ. В дальнейшем на основе этих принципов производились первые дв

ЭВМ — программно-управляемый цифровой автомат.
· ЭВМ — автомат для переработки и преобразования цифровой или дискретной информации. Это означает, что вся подаваемая на вход ЭВМ информация (текстовая, графическая, числовая и т. п.) должна быть п

Открытая архитектура.
Открытая архитектура, разработанная корпорацией IBM предполагает: - наличие общей информационной шины, к которой подключаются дополнительные устройства через разъёмы расширения; -

Краткая история развития ЭВМ
История счётных устройств насчитывает много веков. Ниже в хронологическом порядке приводятся некоторые наиболее значимые события этой истории, их даты и имена участников. Около 500 г. н.э.

Первое поколение
К первому поколению обычно относят машины, созданные на рубеже 50-х годов. В их схемах использовались электронные лампы. Эти компьютеры были огромными, неудобными и слишком дорогими машинами, котор

Второе поколение
Второе поколение компьютерной техники — машины, сконструиро-ванные примерно в 1955—65 гг. Характеризуются использованием в них как электронных ламп, так и дискретных транзисторных логических элемен

Третье поколение
Машины третьего поколения созданы примерно после 60-x годов. Поскольку процесс создания компьютерной техники шел непрерывно, и в нём участвовало множество людей из разных стран, имеющих дело с реше

Четвертое поколение
Четвёртое поколение — это теперешнее поколение компьютерной техники, разработанное после 1970 года. Наиболее важный в концептуальном отношении критерий, по которому эти компьютеры можно от

Графический способ записи алгоритмов.
При графическом представлении алгоритм изображается в виде последовательности связанных между собой функциональных блоков, каждый из которых соответствует выполнению одного или нескольких действий.

Псевдокод.
Псевдокод представляет собой систему обозначений и правил, предназначенных для единообразной записи алгоритмов. Псевдокод занимает промежуточное место между естественными и формальными язы

Двоично-восьмеричная система счисления.
Запишем некоторое число в двоичной системе счисления: 1001101.10112 Для того, чтобы представить исходное число в восьмеричной системе счисления разобьем его на триады.

Перечень базисов.
1. - базис Пирса (элемент Вебба); 2.

Рассмотрим практическое применение изложенного материала.
  Задача 1. На вопрос, кто из трех студентов изучал логику, был получен следующий ответ: если изучал первый, то изучал и второй, но неверно, что если изучал третий, то изучал л

Задачи для самостоятельного решения.
  1. В бутылке, стакане, кувшине и банке находятся молоко, лимонад, квас и вода. Известно, что вода и молоко не в бутылке, сосуд с лимонадом стоит между кувшином и сосудом с квасом, в

Регистры.
Функциональный узел ЭВМ, предназначенный для запоминания многоразрядных кодов и выполнения над ними некоторых логических преобразований называется, регистром. Регистр включает в себя отдельные триг

Счётчики.
Функциональный узел, предназначенный для подсчёта числа входных сигналов и запоминания кода этого числа соответствующими триггерами, называется счётчиком. Дешифраторы. Комбинацион

Основные функции СУБД
управление данными во внешней памяти (на дисках); управление данными в оперативной памяти с использованием дискового кэша; журнализация изменений, резервное копирование и

По способу доступа к БД
Файл-серверные В файл-серверных СУБД файлы данных располагаются централизованно на файл-сервере. СУБД располагается на каждом клиентском компьютере (рабочей станции). Доступ СУ

Образцы заданий к теме «Арифметические основы ЭВМ».
1.Найти наименьшее основание позиционной системы счисления х, при котором 51х =44у.   2. Представить в виде обыкновенной дроби в десятичной системе счис

Представление целых чисел. Формат с фиксированной точкой.
Задачи: Найти дополнительные коды для чисел:-45, 123, -98, -А516, -111, -778. Формат представления данных один байт со знаком. На

Представление действительных чисел в памяти ЭВМ. Формат с плавающей точкой.
Задача 1. 2.Найти десятичное значение числа A= 42E3C000 , представленного в шестнадцатеричной системе счисления в формате с плавающей точкой. Тип числа - single для basic

Хотите получать на электронную почту самые свежие новости?
Education Insider Sample
Подпишитесь на Нашу рассылку
Наша политика приватности обеспечивает 100% безопасность и анонимность Ваших E-Mail
Реклама
Соответствующий теме материал
  • Похожее
  • Популярное
  • Облако тегов
  • Здесь
  • Временно
  • Пусто
Теги