Процесс кодирования — это преобразование формы представления информации в новую форму, удобную для ее хранения, передачи и обработки.

Особенно широко понятие «кодирование» стало употребляться с развитием технических средств хранения, передачи и обработки информации (телеграф, радио, компьютеры). Например, в начале XX века телеграфные сообщения кодировались и передавались с помощью азбуки Морзе. Иногда кодирование производится в целях засекречивания содержания текста. В таком случае его называют шифровкой.

Еще одной разновидностью процесса обработки информации является ее сортировка (иногда говорят — упорядочение). Например, вы решили записать адреса и телефоны всех своих друзей на отдельные карточки. В каком порядке нужно сложить эти карточки, чтобы затем было удобно искать среди них нужные сведения? Наверняка вы разложите их в алфавитном порядке по фамилиям.

Еще одна разновидность процесса обработки — поиск информации. Нам с вами очень часто приходится этим заниматься: в словаре искать перевод иностранного слова, в телефонном справочнике — номер телефона, в железнодорожном расписании - время отправления поезда, в учебнике математики — нужную формулу, на схеме метро — маршрут движения, в библиотечном каталоге — сведения о нужной книге. Можно привести еще много примеров. Все это — процессы поиска информации на внешних носителях: книгах, схемах, таблицах, картотеках.

3.

Чтобы компьютер мог обработать информацию, она должна быть представлена в закодированном виде, понятном ему. Причём, понятна единственным образом. То есть, информация, вводимая в компьютер, должна быть конкретной и однозначной.

Для обработки компьютером любая информация представляется в виде чисел, записанных с помощью цифр. Цифрам соответствуют электрические сигналы, с которыми работает компьютер. Для простоты технической реализации в компьютере используются сигналы двух уровней. Один из них соответствует цифре 1, другой цифре – 0. Цифры 0 и 1 называют двоичными. Они являются символами, из которых состоит язык, понимаемый и используемый компьютером. Информация, с которой работает компьютер, кодируется с помощью этого языка. Любой компьютер должен иметь запоминающее устройство, в которое можно было бы записывать двоичные коды. С другой стороны, нужны устройства для декодирования, то есть для представления информации в исходном, привычном для нас виде. Такие устройства называются устройствами ввода-вывода.

Таким образом, вся информация в компьютере представлена в двоичных кодах (используется двоичная система счисления). Двоичная система счисления обладает такими же свойствами, что и десятичная, только для представления чисел используется не 10 цифр, а всего 2. Рассмотрим представление чисел в двоичной системе счисления.

Запись числа в двоичной системе:

an·2n + an-1·2n-1 + an-2·2n-2 + ... + a2·22 + a1·21 + a0·20 , где коэффициенты an … a0 – либо 0, либо 1, причём an=1.

Простыми вычислениями можно показать, что используя n битов, можно записывать двоичные коды чисел от 0 до 2n-1, то есть всего 2n чисел.

Рассмотрим для примера запись некоторых чисел в двоичной системе:

десятичная
двоичная

 

Например, 1101 = 1·23 + 1·22 + 0 · 21 + 1· 20 = 8 + 4 + 0 + 1 = 13

Наименьшим количеством информации является одно из двух возможных значений – 0 или 1. такое количество информации называется бит (от англ. binary digit двоичная цифра). То есть, бит – наименьшая единица измерения количества информации в компьютере. Бит можно понимать как ячейку в которой помещается либо 0, либо 1.

Обработка информации происходит в процессоре - устройстве, которое может обработать сразу несколько бит (8, 16, 32, 64, ...). Чем больше бит информации одновременно обрабатывается, тем быстрее работает компьютер. Первые компьютеры обрабатывали одновременно 8 бит информации, поэтому появилась новая единица измерения - байт.