Упаковка данных

Данные многих форматов имеют значительный объем, поэтому их хра­нение и передача зачастую требуют значительных ресурсов. Одним из способов решения этой проблемы является повышение емкости запоми­нающих устройств и пропускной способности каналов связи. Однако во многих случаях применима и более дешевая альтернатива этим мето­дам — упаковка данных.

Научной основой всех методов упаковки является теория информации: дан­ные, в которых имеются статистические автокорреляции, называются избы­точными или имеющими низкую энтропию. Устранив эти автокорреляции, т. е. повысив энтропию, объем данных можно уменьшить без потери смыс­ла, а зачастую и с возможностью однозначно восстановить исходные дан­ные. Методы повышения энтропии, которые не позволяют по упакованному потоку восстановить исходный, называются необратимыми, приблизительны­ми или сжимающими с потерями (losing compression). Соответственно, методы, которые позволяют это сделать, называются обратимыми, точными, или сжимающими без потерь (losless compression).

Один из первых методов упаковки был предложен задолго до разработки современной теории информации; в 1844 году Сэмюэл Морзе построил пер­вую линию проволочного телеграфа. Система кодировки букв, известная как Азбука Морзе (табл. 1.4), использовала для представления различных букв алфавита посылки различной длины, при этом длина посылки зависела от частоты использования соответствующего символа в английском языке. Часто встречающиеся символы кодировались более короткими последова­тельностями.

В конце сороковых годов XX века основателем современной теории инфор­мации Шенноном, и независимо от него, Фано был разработан универсаль­ный алгоритм построения оптимальных кодов. Более известый аналог этого алгоритма был предложен несколько позже Дэвидом Хаффманом. Принцип построения этих кодов в целом соответствует логике, кото­рой руководствовался Морзе, — кодировать значения, которые часто повто­ряются в потоке, более короткими последовательностями битов.

Коды Хаффмана и Шеннона-Фано устраняют автокорреляции, соответствую­щие неравномерности встречаемости символов, но сохраняют без измене­ний часто встречающиеся последовательности символов, а они ответственны за значительную часть избыточности текстов на естественных и синтетиче­ских языках. Для упаковки данных такого рода в конце 70-х Лемпелем и Зиффом было предложено семейство алгоритмов, наиболее известные из которых — LZ77 и LZW.

Все эти алгоритмы сводятся к поиску в потоке повторяющихся последова­тельностей и замене этих последовательностей на их номер в динамически формируемом словаре. Различие состоит в способах кодирования номера и формирования словаря. Номер последовательности в словаре должен содер­жать больше битов, чем символы исходного потока, хотя бы уже для того, чтобы его можно было отличить от символа, поэтому алгоритмы Лемпеля-Зиффа предполагают дальнейшее перекодирование преобразованного пото­ка кодом Хаффмана. Большинство современных архиваторов, такие, как PkZip, GNU Zip, RAR, основаны на вариациях и аналогах алгоритмов Лемпеля-Зиффа.

При упаковке нетекстовых данных могут применяться и другие способы удаления повторений. Например, при упаковке растровых изображений ши­роко используется метод RLE (Run-Length Encoding), когда повторяющиеся пикселы заменяются счетчиком повторений и значением пиксела.. Все перечисленные алгоритмы способны только устранять автокорреляции, уже существующие во входном потоке. Понятно, что если автокорреляций не было, то упаковки не произойдет, поэтому гарантировать уровень упа­ковки эти алгоритмы не могут.

Для упаковки данных, полученных оцифровкой реальных сигналов, прежде всего изображений и звука, точные алгоритмы не подходят совершенно. Де­ло в том, что реальный сигнал всегда сопровождается тепловым, так назы­ваемым белым (равномерно содержащим все частоты) шумом. Этот шум ис­кажает наличествующие в сигнале автокорреляции, сам же автокорреляций не имеет, поэтому обратимые алгоритмы с зашумленным сигналом спра­виться не могут.

Чтобы убедиться в этом, можно попробовать упаковать любым, или даже несколькими из распространенных архиваторов трек аудио-CD или цифро­вую фотографию впрочем, чтобы с цифровой фотографией фокус получил­ся, необходимо, чтобы кадр был снят без обработки встроенным упаковщи­ком камеры.

Идея обширного семейства алгоритмов, пригодных для сжатия зашумленных сигналов, была позаимствована из принципа работы цифровых фильтров - «шумодавов». Шумодав работает следующим образом: он осуществляет над сигналом преобразование Фурье и удаляет из полученного спектраль­ного образа самые слабые частоты, которые ниже порога подавления.