1.3. Количество информации в сообщении
Для того чтобы иметь возможность сравнивать различные источники сообщений и различные линии и каналы связи, необходимо ввести некоторую количественную меру, позволяющую оценивать содержащуюся в сообщении и переносимую сигналом информацию. Такая мера в виде количества информации была введена К. Шенноном [1] на основе концепции выбора, что позволило ему построить достаточно общую математическую теорию связи.
Рассмотрим основные идеи этой теории применительно к дискретному источнику, выдающему последовательность элементарных сообщений. Попытаемся найти удобную меру количества информации, заключенной в некотором сообщении. Основная идея теории информации заключается в том, что эта мера определяется не конкретным содержанием данного сообщения, а тем фактом, что источник выбирает данное элементарной т общение из конечного множества
. Эта идея оправдана тем, что на ее основании удалось получить ряд далеко идущих и в то же время нетривиальных результатов, хорошо согласующихся с интуитивными представлениями о передаче информации. Основные из этих результатов будут изложены далее.
Итак, если источник производит выбор одного элементарного сообщения
(
) из множества алфавита
, то выдаваемое им количество информации зависит не от конкретного содержания этого элемента, а от того, каким образом этот выбор осуществляется. Если выбираемый элемент сообщения заранее определен, то естественно полагать, что заключающаяся в нем информация равна нулю. Поэтому будем считать, что выбор буквы
происходит с некоторой вероятностью
. Эта вероятность может, вообще говоря, зависеть от того, какая последовательность предшествовала данной букве. Примем, что количество информации, заключенное в элементарном сообщении
является непрерывной функцией этой вероятности
, и попытаемся определить вид этой функции так, чтобы он удовлетворял некоторым простейшим интуитивным представлениям об информации.
С этой целью произведем простое преобразование сообщения, заключающееся в том, что каждую пару «букв»
, создаваемых последовательно источником, мы будем рассматривать как одну укрупненную «букву». Такое преобразование назовем укрупнением алфавита. Множество
укрупненных «букв» образует алфавит объемом
, так как вслед за каждым из
элементов алфавита
может, вообще говоря, выбираться любой из
элементов. Пусть
есть вероятность того, что источник произведет последовательный выбор элементов
и
. Тогда, рассматривая пару
,
как букву нового алфавита
можно утверждать, что в этой паре заключено количество информации
.
Естественно потребовать, чтобы количество информации, заключенное в паре букв, удовлетворяло условию аддитивности, т. е. равнялось сумме количеств информации, содержащихся в каждой из букв
и
первоначального алфавита
. Информация, содержащаяся в букве
, равна
, где
— вероятность выбора буквы
после всех букв, предшествовавших ей. Для определения информации, содержащейся в букве
, нужно учесть вероятность выбора буквы
после буквы
с учетом также всех букв, предшествовавших букве
. Эту условную вероятность обозначим
. Тогда количество информации в букве
выразится функцией
.
С другой стороны, вероятность выбора пары букв по правилу умножения вероятностей равна
. (1.2)
Требование аддитивности количества информации при операции укрупнения алфавита приводит к равенству
.
Пусть
и
. Тогда для любых
и
должно соблюдаться уравнение
(1.3)
Случаи
или
мы исключаем из рассмотрения, так как вследствие конечного числа букв алфавита эти равенства означают, что выбор источником пары букв
,
является невозможным событием.
Равенство (1.3) является функциональным уравнением, из которого может быть определен вид функции
. Продифференцируем обе части уравнения (1.3) по р:
.
Умножим обе части полученного уравнения на р и введем обозначение
, тогда
(1.4)
Это уравнение должно быть справедливо при любом
и любом
. Последнее ограничение
не существенно, так как уравнение (1.4) симметрично относительно
и
и, следовательно, должно выполняться для любой пары положительных значений аргументов, не превышающих единицы. Но это возможно лишь в том случае, если обе части (1.4) представляют некоторую постоянную величину
, откуда
,
.
Интегрируя полученное уравнение, найдем
, (1.5)
где
— произвольная постоянная интегрирования.
Формула (1.5) определяет класс функций
, выражающих количество информации при выборе буквы
, имеющей вероятность
, и удовлетворяющих условию аддитивности. Для определения постоянной интегрирования
воспользуемся высказанным выше условием, по которому заранее предопределенный элемент сообщения, т. е. имеющий вероятность
, не содержит информации. Следовательно,
, откуда сразу следует, что
.
Что касается коэффициента пропорциональности
, то его можно выбрать произвольно, так как он определяет лишь систему единиц, в которых измеряется информация. Однако, поскольку
, разумно выбирать
отрицательным, для того чтобы количество информации было положительным. Наиболее простым является выбор
. Тогда
(1.6)
При этом единица количества информации равна той информации, которая содержится в элементарном сообщении, имеющем вероятность
(
— основание натуральных логарифмов), или, другими словами, равна информации, содержащейся в сообщении о том, что наступило событие, вероятность которого равнялась
. Такую единицу информации называют натуральной единицей.
Чаще выбирают
. Тогда
или
(1.6а)
При таком выборе
единица информации называется двоичной. Она равна информации, содержащейся в сообщении о том, что наступило событие, вероятность которого равнялась ½ т. е. которое могло с равной вероятностью наступить и не наступить. Иногда используют и другие единицы информации, например десятичные. Мы будем применять как двоичные, так и натуральные единицы количества информации. В тех случаях, когда выбор единиц не играет роли, мы будем писать
, (1.6б)
считая, что логарифм берется по любому основанию, лишь бы это основание сохранялось на протяжении решаемой задачи.
Благодаря свойству аддитивности информации выражения (1.6) позволяют определить количество информации не только в букве сообщения, но и в любом сколь угодно длинном сообщении. Нужно лишь принять за
вероятность выбора этого сообщения из всех возможных с учетом ранее выбранных сообщений.