Количество информации равно единице, когда число сооб­щений равно двум. Такая единица измерения количества инфор­мации получила название БИТ.

Чаще используется единица 1 байт = 8 бит.

Пример: Подсчитать количество информации, которую не­сет одна буква русского алфавита. Приближенно будем считать N = 32 и использо­вание каждой буквы равновероятно. J = log232 = 5 бит.

Следовательно, каждая буква русского алфавита несет информацию в 5 бит, если считать исполь­зование всех букв рав­новероятным. Но сообще­ние, полученное от какого-либо объекта, является случайным явлением. Так, например, буква А в любом тексте встречается чаще, чем буква Ы. В медицине сообщение зависит от многих явлений и процес­сов, протекающих в организме человека и в окружающей среде. Поэтому для количест­венной оценки информации используется теория информации.

Преобразуем: J = logN = -log1/N

1/N - это вероятность появления одного сообще­ния Аi, по­этому, J = -logP(Ai) - информация любого сообщения (осно­вание логарифма не ставим, всегда считая его равным двум). Если в некотором опыте возможно появление несколь­ких сообщений А1, А2, А3, ... Аi (симптомы, анализы) и мы проводим опыты п раз (n - боль­ных с одним диагнозом). Причем, А1 появ­ляется m1, раз, А2 - m2раз, А3 - m3 раз и т.д., то общая информа­ция подсчитывается по формуле:

J = - m­­­1logP(A1) - m2logP(A2) - m3logP(A3)-... = - ∑m1 logP(Ai),

а среднее значение информации на одно сообще­ние:

J = - ∑P(Ai)logP(Ai), т.к. m1/n = P(Al ), m/n = P(А2), ..., mi­/n = P(Аi)

Эту же формулу можно получить, проделав ряд преобразова­ний:

J = - log1/N, J = - N1/N log1/N, J = - ∑P(Ai)logP(Ai)

Пример: Т.к. использование букв русского алфавита собы­тия не равновероятные и зависи­мые, то реальное количество ин­формации, приходящееся на одну букву, составляет около 4 бит.

Величину H = ∑P(Ai)logP(Ai) называют инфор­мационной энтропией. Энтропия характеризует степень неопределенности системы. Т.к. J и Н имеют различные знаки (J = - Н), то получение инфор­мации от системы уменьшает ее степень неопределенности. Кроме величины информа­ции и энтропии, в информатике введено понятие - ценность информации.