Кодирование данных двоичным кодом

Важнейшим аспектом преобразования данных является автоматизация этого процесса потому что она существенно сокращает время работы. Для автоматизации работы с данными очень важно их унифицировать, то есть привести к единому виду. Для этого обычно используется прием кодирования, т.е. выражение данных одного типа через данные другого. Например человеческий язык есть не что иное, как средство кодирования его мыслей. Средством кодирования человеческого языка является азбука, т.е. кодирование с помощью графических символов.

Создание универсального языка, как средства кодирования являлось и является одной из важнейших задач в различных областях науки, техники и культуры.

Система кодирования, разработанная для вычислительной техники, называется двоичное кодирование и основана она на представлении данных последовательностью всего двух знаков: 0 и 1. Эти знаки называются двоичными цифрами, что в переводе на английский язык – binary digit или сокращенно bit (бит).

С помощью одного бита могут быть выражены два понятия, обычно противоположные: 0 или 1 - да или нет, черное или белое, истина или ложь и др. Если количество бит увеличить до двух, то уже можно выразить четыре разных понятия:

00 01 10 11

С помощью трех бит – восемь понятий:

000 001 010 011 100 101 110 111.

Увеличивая на единицу количество бит (т.н. разрядов в отдельного слова в кодировании) мы увеличиваем в два раза количество значений, которое может быть выражено в данной системе, т.е. общая формула имеет вид:

N=2m,

где N – количество независимых кодируемых значений, m – разрядность двоичного кода.

 

Лекция 2