Для автоматизации работы с данными, относящимися к различным типам, очень важно унифицировать их форму представления — для этого обычно используется прием кодирования, то есть выражение данных одного типа через данные другого типа.
Своя система существует и в вычислительной технике — она называется двоичным кодированием и основана на представлении данных последовательностью всего двух знаков: 0 и 1. Эти знаки называются двоичными цифрами, по английски — binary digit или, сокращенно, bit {бит).
Пример. Так, информационная емкость буквы в русском алфавите, если не использовать букву «ё», составляет: 32 = 21, т. е. I = 5 битов. На основании алфавитного подхода можно подсчитать количество информации в сообщении Iс, для этого необходимо умножить количество информации, которое несет один символ I, на количество символов К в сообщении: Ic = I К.
Решение
■
■