Предмет информатики как науки

Информатика – это техническая наука, изучающая способы создания, хранения, обработки и передачи данных средствами вычислительной техники, а также принципы функционирования этих средств и методы управления ими. Предметом информатики как науки является информационная технология. Информационной технологией называется совокупность процессов обработки, представления и передачи данных.

Информационная технология характеризуется следующими свойствами:

· предметом (объектом) обработки являются данные;

· цель процесса обработки – получение информации;

· средства выполнения процесса обработки – программное и аппаратное обеспечение ЭВМ;

· процессы обработки данных разделены на операции в соответствии с областью применения информационной технологии.

Предмет информатики включает в себя следующие понятия:

· аппаратное обеспечение средств вычислительной техники;

· программное обеспечение ЭВМ;

· средства взаимодействия аппаратного и программного обеспечения;

· средства взаимодействия пользователя с аппаратными и программными средствами ЭВМ.

Поскольку информатика – это практическая наука, в составе её основной задачи можно выделить следующие направления для практических применений:

архитектура вычислительных систем (методы построения систем, предназначенных для обработки информации);

интерфейсы вычислительных систем (приемы и методы управления программными и аппаратными средствами);

программирование (языки и системы программирования, методы и средства разработки программного обеспечения);

методы кодирования данных;

защита информации;

стандартизация (обеспечение совместимости между аппаратными и программными средствами, между различными форматами представления данных, используемых на ЭВМ различных типов).

В данном учебном пособии будут рассмотрены основные понятия информатики, необходимые для изучения основ алгоритмизации и программирования, структура аппаратных средств и программного обеспечения ПЭВМ, описана методология структурного проектирования алгоритмов и способы представления алгоритмов, и дано описание синтаксиса и семантики конструкций языка Borland Pascal 7.0.

 

 

1.2. Информация: структура, форма, измерение

 

Изучение любой дисциплины, так или иначе, начинается с формулировки определений ее фундаментальных терминов и категорий. Особенностью термина "информация" является то, что, с одной стороны, он является интуитивно понятным практически для всех, а с другой - общепризнанной его трактовки в научной литературе не существует. Одновременно следует особо отметить, что как научная категория "информация" составляет предмет изучения для самых различных областей знания: философии, информатики, теории систем, кибернетики и т. д.

Как известно, термин "информация" происходит от латинского слова "informatio", изначально означающего изложение или разъяснение. В качестве примера приведем следующее его определение. Информация – это отражение реального мира с помощью сообщений. Сообщение – это форма представления информации в виде речи, текста, числовых данных, изображений, графиков и т.д.

В широком смысле информация – это сведения об объектах реального мира, которые уменьшают степень неопределенности, неполноты знаний о них. Понятие «информация» было формализовано специалистом по связи
К. Шенноном в 1948 году. Шеннон ввел математическое понятие количества информации, положив начало теории информации как математической и технической дисциплины.

Информация - это совокупность сигналов, воспринимаемых нашим сознанием, которые отражают те или иные свойства объектов и явлений окружающей нас действительности. Природа данных сигналов подразумевает наличие принципиальных возможностей по их сохранению, передаче и трансформации (обработке).

Очевидно, что данное определение носит исключительно пояснительный характер и ни в коей мере не претендует на научную строгость, так как базируется на достаточно нечетких и расплывчатых категориях: "сигналы", "объекты", "действительность", "восприятие" и т. п.

Другой подход к определению информации отталкивается от схематичного представления процесса ее передачи. На предельном уровне абстрагирования в нем можно выделить два фундаментальных элемента:

источник (передатчик);

приемник (потребитель, клиент).

При их взаимодействии, собственно говоря, и возникает информация - некоторое сообщение, которое тем или иным способом уменьшает незнание потребителя (приемника) о некотором объекте, факте или явлении. Основываясь на данном подходе, один из основоположников теории информации Клод Шеннон определил информацию как снятую неопределенность.

Под данными обычно понимают информацию, представленную в конкретных формах, которые адекватны возможным (ожидаемым) процессам ее обработки.

Важнейшими характеристиками информации являются ее структура и форма.

Структура информации - это то, что определяет взаимосвязи между ее составными элементами. Фундаментальным свойством информации является свойство системности. Как известно, системой называют такую совокупность, которая обладает такими свойствами, которыми не обладает ни один из входящих в нее элементов в отдельности. Без труда можно привести массу примеров, демонстрирующих, что соединение разрозненных информационных сигналов порождает систему, обладающую качественно более высокой содержательной ценностью.

Другой стороной информации является форма ее представления. Среди основных форм представления информации могут быть перечислены:

символьно - текстовая (информация, представленная совокупностью букв, цифр, знаков и т. п.);

графическая (изображение и т. п.);

звуковая.

Практическое значение научных подходов к определению термина "информация" связано с решением проблемы измерения информации. В соответствии с положениями общей теории информации в качестве эталона меры для нее выбирается некоторый абстрактный объект, который может находиться в одном из двух состояний (например, включен /выключен, да/нет, 0/1 и т. п.), или, как еще говорят, бинарный объект. Говорят, что такой объект содержит информацию в 1 бит. Безусловно, данный метод измерения информации во многом был предопределен возможностями ее хранения в различных технических устройствах, где на элементарном уровне информация запоминается с помощью магнитно-электрических устройств, которые могут находиться либо в намагниченном, либо в размагниченном состояниях. От бита как наименьшей меры количества информации происходят производные единицы:

1 байт - 8 бит,

1 килобайт (Кбайт) - 1024 байт = 210байт,

1 мегабайт (Мбайт) - 1024 килобайт = 220 байт,

1 гигабайт (Гбайт) - 1024 мегабайт = 230 байт и т. д.

Как можно заметить, приставки кило-, мега- и т. д. здесь употребляются в отличающемся от традиционного смысле, означая умножение на 1024 = 210, а не на тысячу. Данное решение позволяет гармонично связать методы измерения информации с бинарной (двоичной) организацией системы ее хранения.