Расширения видеофайлов

 

AVI (Audio-Video Interleaved) - это расширение огромного количества видеофайлов, но не является форматом или кодеком. Это контейнер, разработанный Microsoft, в котором могут храниться потоки 4-х типов - видео, аудио, текст и midi.

WMV (Windows Media Video) - это формат от Microsoft, именно в нем можно получить видеоролик, сделанный с помощью программы Movie Maker.

MOV - формат Apple Macintosh QuickTime, может содержать кроме видео также графику, анимацию, 3D. Чаще всего для проигрывания этого формата нужен QuickTime Player.

MKV - тоже контейнер, который может содержать видео, аудио, субтитры, меню и пр. Имеет открытый код, пока не очень распространен, но очень перспективен.

3gp - видео для мобильных телефонов третьего поколения, имеют малый размер и низкое качество.

FLV (Flash Video) - формат видео для размещения и передачи в Интернете, используется такими площадками для размещения видеоклипов, как YouTube, RuTube, Tube.BY, Google Video, Муви и многие другие.

SWF (Shockwave Flash) - это расширение анимации созданной в программе Adobe Flash, а также видео в формате flash, проигрывается браузерами с помощью Flash Player. Флеш-ролики широко распространены в Интернете.

m2v, m2p - расширения видео в формате MPEG-2.

 

Количество информации. Формулы Хартли и Шеннона

 

Следует различать объем информации и количество информации. Ранее мы говорили лишь об объемах информации, понимая под этим объем хранимых или передаваемых данных.

Существует множество ситуаций, когда возможные события имеют различные вероятности реализации. Например, если монета несимметрична (одна сторона тяжелее другой), то при ее бросании вероятности выпадения "орла" и "решки" будут различаться.

Формулу для вычисления количества информации в случае различных вероятностей событий предложил Клод Шеннон в 1948 году. В этом случае количество информации определяется по формуле:

   

где I - количество информации;
N - количество возможных событий;
рi - вероятность i-го события.

Например, пусть при бросании несимметричной четырехгранной пирамидки вероятности отдельных событий будут равны:

 

Р1 = 1/2, р2 = 1/4, р3 = 1/8, р4 = 1/8.

 

Тогда количество информации, которое мы получим после реализации одного из них, можно рассчитать по формуле

 

 

Такой подход к определению количества информации называется вероятностным.

Для частного, но широко распространенного и рассмотренного выше случая, когда события равновероятны (pi= 1/N), величину количества информации I можно рассчитать по формуле Ральфа Хартли

 

открытой им в 1928 г.

По этой формуле можно определить, например, количество информации, которое получим при бросании симметричной и однородной четырехгранной пирамидки:

I = log24 = 2 бита. Таким образом, при бросании симметричной пирамидки, когда события равновероятны, мы получим большее количество информации (2 бита), чем при бросании несимметричной (1,75 бита), когда события неравновероятны.

Количество информации, которое мы получаем, достигает максимального значения, если события равновероятны.