рефераты конспекты курсовые дипломные лекции шпоры

Реферат Курсовая Конспект

ПОНЯТИЕ О ДИСКРЕТИЗАЦИИ.

ПОНЯТИЕ О ДИСКРЕТИЗАЦИИ. - раздел Информатика, ЛЕКЦИЯ № 1. ТЕМА: ИНФОРМАЦИЯ И ИНФОРМАТИКА В Случаях, Когда Наука Не Может Дать Четкого Определения Конкретному Объекту ...

В случаях, когда наука не может дать четкого определения конкретному объекту или явлению, приходится пользоваться понятиями. Понятия отличаются от определений тем, что разные люди при различных обстоятельствах могут вкладывать в них различное содержание. На бытовом уровне под информацией понимаются те сообщения (сведения), которые получают от природы и общества. Биологи в понятие информации вкладывают генетический код. В технике понятие информации отождествляют с различного рода сигналами. В теории информации, основы которой заложил Клод Шеннон, информация – это сообщение, которое снимает или уменьшает неопределенность. В неживой природе понятие информации связывают с отображением. В лингвистике понятие информации связано со смыслом (содержанием) сообщения. В этом случае под информацией понимают сообщения, которые являются новыми и полезными. В теории связи под информацией понимают любую последовательность сигналов, абстрагируясь от их содержания. В кибернетике информацией считают ту часть сообщений, которая берет участие в управлении. В документалистике под информацией понимают все то, что определенным образом зафиксировано в знаковой форме в виде документа.

Таким образом, в разных научных дисциплинах и в разных отраслях техники существуют разные понятия информации. Объединяет все эти подходы четыре основные особенности информации: ее можно создавать, передавать (и, соответственно, принимать), хранить и обрабатывать. Важной особенность информации является ее неисчерпаемость. Информация – это единый ресурс жизнеобеспечения, который не уменьшается, а его объем со временем возрастает. Это стало особенно заметно, начиная с середины ХХ столетия. В 70-х годах ХХ столетия объем информации удваивался каждые 5-7 лет, в 80-х – каждые 20 месяцев, а в 90-х – каждый год.

Характерные черты информации:

1. Информация приносит знания об окружающем мире, которых не было в рассматриваемой точке до получения информации.

2. Информация нематериальна, но передается с помощью материальных носителей – знаков и сигналов.

3. Знаки и сигналы несут информацию только для адресата, способного распознать их.

4. Во время передачи информации от источника до адресата информация в источнике не исчезает (не уменьшается).

Информация является основной составляющей цивилизации, информационных процессов. Особую роль в жизни человека играет научная информация. Научная информация – это полученная в процессе познания логическая информация, которая адекватно (соответственно) отображает явления и законы природы, общества, мышления и используются в общественно-исторической практике. Научная (как и бытовая) информация подается с помощью сообщений. Сообщение – это форма подачи информации в виде языка, текста, изображения, цифровых данных, таблиц, графиков и т.д. Способы подачи информации – знаки и сигналы. Информация и сообщения – неопределяемые понятия. Связь между ними устанавливается через понятие отображение, которое является результатом договоренности между отправителем (источником) и получателем сообщения (адресатом), или описанием (алгоритмом). Отображение сообщения P на информацию I называют правилом интерпретации: . Информация передается с помощью конкретного сообщения. Правило интерпретации для данного сообщения часто получается как отдельный случай некоторого общего правила, которое применяется к целому множеству M сообщений, построенных по одинаковым законам. Если формулируется сообщение на некотором языке, то выражение «x понимает язык М» выражает тот факт, что особа х знает правило интерпретации для всех (по крайней мере, для большинства) сообщений, сформулированных на данном языке. Иногда правило интерпретации известно ограниченному кругу особ: к этому относятся правила интерпретации для специальных языков, в частности для профессиональных и научных языков (жаргонов). Связь между сообщениями и информацией особенно четко просматриваются в криптографии (способ тайнописи, основанный на использовании шрифта): здесь никто посторонний не должен иметь возможность получить информацию с сообщением, которая передается, иначе это означало бы, что он имеет «ключ».

Соответствие между сообщением и информацией не является однозначной. Разные сообщения могут содержать одну и ту информацию (класс эквивалентности сообщений). Например, сообщение на разных языках о результатах матчу на кубок Европы. Одно и тоже сообщение может содержать разную информацию. Например, сообщение об авиакатастрофе несет разную информацию для руководства авиакомпании и для родственников погибших; разную информацию получают из политической статьи в газете политолог и обыкновенный гражданин.

Информация может быть одной и той же, но ее представления – различными. Обработка информации начинается с представления ее в той или иной форме. Информация, выраженная с помощью букв, чисел, математических символов, естественного языка называется сообщением. Сообщение – это различные представления какой-либо информации. Сообщения состоят из знаков. Знаки обычно объединяются в слова. Система знаков, предназначенная для выражения сообщений, называется знаковой системой. К знаковым системам относится, например, естественный язык общения, язык программирования, язык химических формул и реакций и т.д. Основой знаковой системой является алфавит. Алфавит – это минимальный упорядоченный набор знаков, с помощью которого строятся слова.


Каждой знаковой системе присущи, как правило, определенные свойства. Одним из таких свойств является полнота знаковой системы. Если знаковая система обладает полнотой, то с ее помощью можно выразить любое сообщение. Так алфавит десятичных (арабских) цифр является полным с точки зрения выполнения арифметических действий над числами. Точно так же полным является алфавит кириллицы с точки зрения русского языка. Хотя большинство естественных языков устроено таким образом, что пропуск одной или даже нескольких букв незначительно усложняет восприятие сообщений. Это достигается благодаря другому свойству знаковой системы – избыточности. Избыточность позволяет правильно понимать сообщения в условиях воздействия помех. Одно и то же сообщение можно выразить в различных знаковых системах. Например, дату 22 мая 2000 года, которая записана с помощью кириллицы и арабских цифр, можно записать в латинском алфавите и цифрами (22 may 2000), с помощью знаков и цифр (22.05.00 или 22/05/00). Суть сообщения от этого не изменится. Различные представления одной и той же информации называются эквивалентными сообщениями.

Таким образом, для одной и той же информации могут существовать сообщения в разных знаковых системах. С другой стороны, одно и то же сообщение может нести различную смысловую нагрузку, различную информацию для разных получателей. Для любого сообщения важна его интерпретация, толкование. Чтобы понять, какую информацию несет сообщение, нужно знать способ кодирования сообщения. Чтобы сообщение можно было обработать с помощью электронной аппаратурой (в том числе, компьютера), его преобразуют в электрический сигнал. Сигналом называется смена некоторой физической величины во времени, которая обеспечивает передачу сообщения (тем самым и информации).Сигналы бывают непрерывными (аналоговыми) либо дискретными (импульсивными). Непрерывный сигнал можно описать функцией, которая плавно изменяется во времени. Сигнал называется непрерывным или аналоговым, если его параметр принимает непрерывные значения.

Дискретные сигналы описываются функцией U(t), которая в определенные моменты времени изменяется скачком. Сигнал называется дискретным, если параметр сигнала может принимать конечное число значений и существенен лишь в конечном числе моментов времени. Сообщения, которые могут быть переданы с помощью дискретных сигналов, называют дискретными сообщениями. Они передают дискретную информацию. Дискретизация позволяет подать непрерывную информацию дискретно, в виде таблицы, которую можно поместить в память компьютера для последующей обработки. Дискретизация часто используется для анализа результатов физических, биологических и других экспериментов. Таким образом, любую непрерывную информацию можно аппроксимировать дискретной информацией с любой степенью точности, поэтому дискретная форма подачи информации является универсальной. Дискретные сигналы чрезвычайно важны в вычислительной технике. Компьютеры имеют дело только с дискретной информацией, которая подается физически (кодируется) в виде последовательности цифровых (дискретных) сигналов.

 

3. ОСНОВНЫЕ НАУЧНЫЕ НАПРАВЛЕНИЯ ИССЛЕДОВАНИЯ ИНФОРМАЦИИ:

– Конец работы –

Эта тема принадлежит разделу:

ЛЕКЦИЯ № 1. ТЕМА: ИНФОРМАЦИЯ И ИНФОРМАТИКА

ТЕМА ИНФОРМАЦИЯ И ИНФОРМАТИКА... ИНФОРМАТИКА КАК ФУНДОМЕНТАЛЬНАЯ... РАЗНЫЕ ПОДХОДЫ К ОПРЕДЕЛЕНИЮ ИНФОРМАЦИИ ОСОБЕННОСТИ ИНФОРМАЦИИ...

Если Вам нужно дополнительный материал на эту тему, или Вы не нашли то, что искали, рекомендуем воспользоваться поиском по нашей базе работ: ПОНЯТИЕ О ДИСКРЕТИЗАЦИИ.

Что будем делать с полученным материалом:

Если этот материал оказался полезным ля Вас, Вы можете сохранить его на свою страничку в социальных сетях:

Все темы данного раздела:

ИНФОРМАТИКА КАК ФУНДОМЕНТАЛЬНАЯ НАУКА.
Подходя к анализу жизни общества на различных ступенях его развития с точки зрения выяснения того, что определяло в тот или иной период его выживание и прогрессивное развитие, можно заметить, что в

Четвертая революция (70-е годы XX в.) связана с изобретением персонального компьютера.
Разработка и создание компьютеров, как электронных автоматических устройств для работы с информацией, были объективно предопределены. Начиная с последней четверти XX в. стали говорить об «информаци

СЕМАНТИЧЕСКИЙ, СИНТАКСИЧНЫЙ И ПРАГМАТИЧНЫЙ.
Есть три научных направления, связанных с исследованием информации: семантический (содержательный), синтаксический и прагматичный. Их впервые предложил рассматривать один из авторов так называемой

ИЗМЕРЕНИЕ ИНФОРМАЦИИ.
Существует несколько способов оценивания информации: алфавитный (объемный или технический), алгоритмический, комбинаторный, вероятностный. Наибольшую практическую ценность имеют алфавитный и вероят

Измерение количества информации по Р.Хартли.
Меру количества информации установил в 1928 году Р.Хартли на основе предложенной им концепции выбора. Согласно этой концепции связь между отправителем и получателем информации осуществляется только

Измерение количества информации по К.Шеннону.
Концепцию выбора Хартли развил и обобщил из вероятностных позиций американский ученый Клод Шеннон. Он создал в 1948-1949 гг. основы статистической теории информации, основным понятием которо

Формула Шеннона (мера Шеннона).
Базируясь на вероятностном подходе к оцениванию информации, К.Шеннон в 1948 году вывел формулу, которая дает оценку информации, абстрагируясь от ее содержания:

Хотите получать на электронную почту самые свежие новости?
Education Insider Sample
Подпишитесь на Нашу рассылку
Наша политика приватности обеспечивает 100% безопасность и анонимность Ваших E-Mail
Реклама
Соответствующий теме материал
  • Похожее
  • Популярное
  • Облако тегов
  • Здесь
  • Временно
  • Пусто
Теги