рефераты конспекты курсовые дипломные лекции шпоры

Реферат Курсовая Конспект

Основные положения

Основные положения - раздел Информатика, ИНФОРМАТИКА 1. Общие Сведения Об Информации....

1. Общие сведения об информации.

Понятие «информация» происходит от латинского слова informatio- разъяснение, осведомление, изложение и обозначает одно из основных свойств материи. В рамках науки — информация — первичное, неопределенное понятие. Оно предполагает наличие материального носителя информации, источника информации, передатчика и т.п. Конкретное толкование элементов, связанных с понятием информации, связано с методологией конкретной области науки.

Можно выделить некоторые свойства информации, определяющие смысл этого понятия:

Ø Информация переносит знания об окружающем мире, которых в рассматриваемой точке не было до получения информации;

Ø Информация не материальна — она проявляется в форме материальных носителей — дискретных знаков, сигналов или функций времени;

Ø Информация может быть заключена в знаках или в их взаимном расположении;

Ø Знаки и сигналы несут информацию только для получателя, который может их распознать.

Термин «информация» имеет много определений. В широком смысле —

Информация — отражение реального мира.

Существует определение термина в узком смысле, применимого к предметной области автоматизированной обработки информации.

Информация — любые сведения, являющиеся объектом хранения, передачи и преобразования.

В процессе передачи информации важно определить следующие понятия:

Сообщение — информация, представленная в определенной форме и предназначенная для передачи. Сообщение представляется последовательностью знаков и сигналов.

Сигнал — процесс, несущий информацию. Таким образом, сигнал служит для переноса информации.

Знак — реально различимые получателем материальные объекты: буквы, цифры, предметы. Знаки служат для хранения информации.

Данные — информация, представленная в формализованном виде и предназначенная для обработки техническими средствами.

Таким образом, любой информационный процесс, может быть представлен как процесс передачи информации от объекта, являющегося источником информации, к получателю. Для обеспечения передачи информации необходим канал связи, некоторая физическая среда, через которую информация, представленная в виде сигналов, передается получателю.

Множество всех знаков и сигналов, использующееся для формирования сообщения, называется алфавит.

Размер (глубина) алфавита A определяется количеством символов, составляющих алфавит. Если считать, что сообщение передается одним знаком алфавита размером A, всего может быть передано N=А сообщений.

Из знаков алфавита может быть составлено слово. Если размер слова фиксировано и составляет n знаков, то количество возможных слов N составленных символов из алфавита А, таким образом, что каждый символ алфавита может входить в слово 0,1,2,…,n , раз определяется

N = Аn. (1)

Таким образом, с помощью слов можно представить информацию о любом из N сообщений.

Выражение (1) позволяет определить размер слова из алфавита А, с помощью которого можно представить N сообщений

n=élogA Nù. (2)

Мы можем сопоставить тому или иному сообщению комбинацию знаков, тогда при приеме сообщения, зная правила сопоставления, можно распознать сообщение.

Информация всегда представляется в виде сообщения, которое передается некоторой физической средой. Носителем сообщения выступает сигнал, выражающийся в изменении энергии среды передачи информации — канала связи. Для того, чтобы передать информацию по каналу связи необходимо сопоставить исходному сообщению некоторое правило изменения сигнала. Такое правило сопоставления называют кодированием.

Кодирование — представление сообщений в форме, удобной для передачи информации по каналам связи.

Естественно, можно говорить о кодировании на различных этапах передачи информации. Так, например, можно говорить о кодере источника, кодере канала связи и т.д. Принятое сообщение подвергается декодированию.

Декодирование — операция восстановления принятого сообщения. В системе связи необходимо ввести устройства кодирования и декодирования. Очевидно, что правила кодирования и декодирования в системе должны быть согласованы.

Важный вопрос теории передачи и преобразования информации — установление меры, количества и качества информации.

2. Математические меры информации.

Информационные меры, как правило, рассматриваются в двух аспектах синтаксическом и семантическом.

В синтаксическом аспекте сообщения рассматриваются как символы, абстрагированные от содержания и какой-либо ценности. Предметом анализа и оценивания являются частота появления символов, связи между ними, порядок следования, правила построения сообщений. В таком рассмотрении наиболее широко используют структурные и вероятностные (статистические) меры.

Структурные меры оценивают строение массивов информации и их измерение простым подсчетом информационных элементов или комбинаторным методом. Структурный подход применяется для оценки возможностей информационных систем вне зависимости от условий их применения.

При статистическом подходе используется понятие энтропии как ме­ры неопределенности, учитывающей вероятность появления и информативность того или иного сообщения. Статистический подход учитывает конкретные условия применения информационных систем.

Семантический подход позволяет выделить полезность или ценность информационного сообщения (в настоящем пособии не рассматривается).

При синтаксическом анализе информация определяется как мера уменьшения неопределенности знаний о каком-либо предмете в познавательном процессе. Если H1 — исходная (априорная) неопределенность до передачи сообщения, а H2 — остаточная (апостериорная) неопределенность, характеризующая состояние знания после получения сообщения, то содержащаяся в этом сообщении информация определяется их разностью

I=H1 – H2. (3)

Известно достаточно большое количество различных мер, различающихся подходом к определению неопределенности в (3). Далее рассматриваются только две из них — структурная аддитивная мера Хартли и вероятностная мера, называемая энтропия, предложенная К.Шенноном.

3. Структурная мера информации. Аддитивная мера Хартли.

Аддитивная мера (мера Хартли) использует понятия глубины А и длины n числа.

Глубина числа — количество символов (элементов), принятых для представления информации. В каждый момент времени реализуется только один какой-либо символ.

Длина n числа — количество позиций, необходимых и достаточных для представления чисел заданной величины.

Эти понятия могут быть распространены и на вариант нечислового сообщения. В этом случае глубина числа тождественна размеру алфавита, а длина числа — разрядности слова при передаче символьного сообщения.

Если сообщение — число, понятие глубины числа будет трансформировано в понятие основания системы счисления. При заданных глубине и длине числа количество чисел, которое можно представить, N = Аn. Очевидно, что N однозначно характеризует степень исходной неопределенности. Исходная неопределенность по Хартли определяется

H1 = loga N. (4)

Неопределенность после получения сообщения, остаточная неопределенность,

H2 = loga N*, (5)

где N* — число возможных значений принятого слова после получения сообщения.

Основание логарифма в (5) определяет только единицы измерения неопределенности. При a=2 это двоичная единица информации, называемая бит. При a = 10 десятичная (дит), при a =e натуральная (нат). Далее мы будем всегда пользоваться двоичной единицей.

N* равно единице, если после получения информации нет неопределенности, т.е. получатель гарантировано получил то сообщение, которое было передано. Если получателю приходится после приема информации выбирать сообщения из некоторого множества, а это происходит тогда, когда в канале связи за счет влияния помех возникают искажения переданного сигнала, то характеризует число возможных сообщений при выборе. Таким образом, если передается символ некоторого алфавита, N* определяет возможную неоднозначность приема символа за счет искажений в канале связи. В случае измерительного опыта, число N* — характеризует число возможных значений величины после измерения и определяет погрешность измерения.

Очевидно, что должно быть N* < N, а N* = 1 только в идеальном случае передачи сообщения без потери информации или, что то же самое, измерения некоторой физической величины без ошибок. Количество информации по Хартли оценивается как

I=H1 – H2 = loga N - loga N* n = loga N/ N* . (6)

Логарифмическая мера, позволяющая, вычислять количество информации, содержащейся в сообщении, переданном числом длиной n и глубиной А:

I(q) =log2 N=n log2 А, бит. (7)

Следовательно, 1 бит информации соответствует одному элементарному событию, которое может произойти или не произойти. Такая мера количества информации удобна тем, что она обеспечивает возможность оперировать мерой как числом. Из сравнения (7) и (2) следует, что численное значение неопределенности определяет число двоичных разрядов, необходимое для кодирования символа алфавита А.

Логарифмическая мера для неопределенности и информации выбрана не случайно. Она оказывается удобной при описании сложных опытов. Допустим, что задача состоит в одновременном приеме информации от двух источников, не зависящих друг от друга. При этом N1 и n1 — число возможных сообщений до и после приема информации от первого источника, а — N2 и n2 от второго. Пусть H11 и H12 — исходная неопределенность знания первого и второго сообщения, соответственно, первого и второго источника. Естественно потребовать, чтобы общая неопределенность знания о двух сообщениях определялась суммой неопределенностей каждого, т.е. мера должна обладать свойством аддитивности

H = H11 + H12.

Число возможных сочетаний двух независимых величин из множеств N1N2 N = N1 N2.

Тогда исходная неопределенность H =H11 + H12, , аналогично остаточная неопределенность H=H21+H22.

При наличии нескольких источников информации общее количество информации

I(q1, q2, ...,qn)= I(q1)+ I(q2)+...+I(qk), (8)

где I(qk) — количество информации от источника k.

Логарифмическая мера информации позволяет измерять количество информации и широко используется на практике. Однако всегда надо учитывать, что все сообщения в этой мере полагаются равновероятными и независимыми. Эти допущения приводит на практике к существенно завышенным оценкам.

Примечание. Для рассмотрения дальнейшего материала необходимо использовать понятие «вероятность события». Под вероятностью события (см., например, Лютикас В.С. Факультативный курс по математике. Теория вероятностей. М.: Просвещение, 1990.) принимается постоянная величина, около которой группируются значения частоты появление некоторого события, например, передачи одного из символов алфавита. Если частота появления любого символа алфавита при передаче длинной последовательности символов одинакова, то говорят о равновероятных событиях, символах, сообщениях и т.п. Независимыми сообщения полагают, если вероятности их передачи не зависят от того, какие сообщения были переданы ранее.

4. Статистическая мера информации.

В статистической теории информации вводится более общая мера количества информации, в соответствии с которой рассматривается не само событие, а информация о нем. Этот вопрос глубоко проработан К. Шенноном в работе «Избранные труды по теории информации». Если появляется сообщение о часто встречающемся событии, вероятность появления которого близка к единице, то такое сообщение для получателя малоинформативное. Столь же мало информативны сообщения о событиях, вероятность появления которых близка к нулю.

События можно рассматривать как возможные исходы некоторого опыта, причем все исходы этого опыта составляют ансамбль, или полную группу событий. К. Шеннон ввел понятие неопределенности ситуации, возникающей в процессе опыта, назвав ее энтропией. Энтропия ансамбля есть количественная мера его неопределенности и, следовательно, информативности, количественно выражаемая как средняя функция множества вероятностей каждого из возможных исходов опыта.

Поясним содержание статистической меры на следующем частном случае. Пусть выполняется посимвольная передаче текста, состоящего из символов алфавита А. Текст составлен из K символов алфавита. Опыт состоит в передаче очередного символа текста. Так как в один момент времени может быть передан любой символ алфавита, всего возможно А исходов опыта. Очевидно, что одни символы в тексте будут появляться часто, а другие — реже. Различные символы несут разную информацию. Обозначим через ki количество появления символа в тексте, а количество вносимой этим символом информации как Ii. Будем полагать, что передаваемые символы независимы, т.е. передача i –того символа происходит с вероятностью, независящей от того, какой символ был передан ранее. Это означает, информация, вносимая символом постоянна для любых сочетаний символов. Тогда средняя информация, доставляемая одним опытом,

Iср = (k1I1+ k 2I2+…+ k AIA)/K. (9)

Но количество информации в каждом исходе связано с его вероятностью рi , и выражается в двоичных единицах (битах) как

Ii = log2 (1/pi) = -log2 pi .

Тогда

Iср =[ k 1 (-log2 p1)+. . .+ k A (-log2 pA)]/K. (10)

Выражение (10) можно записать также в виде

Iср =k1/K (-log2 p1)+. . .+kA/K (-log2 pA). (11)

Но отношения n/K представляют собой частоты повторения исходов, а, следовательно, могут быть заменены их вероятностями:

pi =ki/K ,

Тогда средняя информация в битах

Iср = p1 (-log2 p1)+. . .+pA (-log2 pA),

или

Iср =∑ pi (-log2 pi) = H (12)

 

Полученную величину H называют энтропией. Энтропия обладает следующими свойствами:

1. Энтропия всегда неотрицательна, так как значения вероятностей выражаются величинами, не превосходящими единицу, а их логарифмы — отрицательными числами или нулем, так что члены суммы (12) — неотрицательны.

2. Энтропия равна нулю в том крайнем случае, когда одно из рi , равно единице, а все остальные — нулю. Это тот случай, когда об опыте или величине все известно заранее и результат не дает новую информацию.

3. Энтропия имеет наибольшее значение, когда все вероятности равны между собой:

– Конец работы –

Эта тема принадлежит разделу:

ИНФОРМАТИКА

Государственное образовательное учреждение высшего профессионального образования... Санкт Петербургский государственный университет аэрокосмического...

Если Вам нужно дополнительный материал на эту тему, или Вы не нашли то, что искали, рекомендуем воспользоваться поиском по нашей базе работ: Основные положения

Что будем делать с полученным материалом:

Если этот материал оказался полезным ля Вас, Вы можете сохранить его на свою страничку в социальных сетях:

Все темы данного раздела:

Методические указания к выполнению лабораторных работ
    Составители: А.В.Зюбан, А.А.Ключарев, М.В.Соколовская     Рецензент: Д.т.н., профессор Л.А.Осипов    

Порядок выполнения лабораторной работы
1. Перейти в командной строке на внешний носитель. 2. Поменять цвет экрана и шрифта. 3. Создать три каталога: КАТ1, КАТ2, КАТ3 — НАЗВАНИЯ КАТАЛОГОВ, ПОДКАТАЛОГОВ И ФАЙЛ

Основные сведения о DOS
1. Приглашение DOS Когда DOS готова к работе с пользователем, она выдает на экран приглашение: ü A>; ü C:> — диск

Работа с файлами в MS DOS
1. Создание текстовых файлов Небольшие текстовые файлы можно набрать непосредственно с клавиатуры. Для этого необходимо ввести команду: cop

Порядок выполнения лабораторной работы
1. Создать книгу MS EXCEL и сохранить ее под своей фамилией в каталоге учебной группы на сервере. СОХРАНЕНИЕ ФАЙЛА НА ЛОКАЛЬНОМ ДИСКЕ КОМПЬЮТЕРА НЕ ДОПУСКАЕТСЯ. 2. В книге

Основные сведения об MS EXCEL
1. Структура экрана Окно приложения MS Excel обладает всеми элементами окон Windows: строка заголовка окна, кнопки управления размерами окна, систе

Преобразование данных
1. Формулы Формулы являются удобным средством работы с данными электронной таблицы. С их помощью можно выполнять различные операции над данными, та

Наглядное представление данных
1. Графики и диаграммы Диаграмма является графическим представлением данных рабочего листа. Дополнение табличных материалов диаграммами делает проц

Порядок выполнения лабораторной работы
1. Создать таблицу (50 рабочих строк) в Excel аналогичную рис.1.     Таблица расчета энтропии источника

Порядок выполнения лабораторной работы
Исходными данными для данной лабораторной работы являются результаты статистической обработки текста, выполненной в предыдущей лабораторной работе. Из лабораторной работы «Определение количества ин

Основные положения
При кодировании дискретных источников информации часто решается задача уменьшения избыточности, т.е. уменьшения количества символов, используемых для передачи сообщения по каналу связи. Это позволя

Порядок выполнения лабораторной работы
Исходными данными для данной лабораторной работы являются результаты статистической обработки текста, выполненной в лабораторной работе «Кодирование дискретных источников информации методом Шеннона

Основные положения
От недостатка неоднозначного кодирования, рассмотренного в предыдущей лабораторной работе алгоритма свободна методика Д.Хаффмана. Она гарантирует однозначное построение кода с наименьшим для данног

Хотите получать на электронную почту самые свежие новости?
Education Insider Sample
Подпишитесь на Нашу рассылку
Наша политика приватности обеспечивает 100% безопасность и анонимность Ваших E-Mail
Реклама
Соответствующий теме материал
  • Похожее
  • Популярное
  • Облако тегов
  • Здесь
  • Временно
  • Пусто
Теги