3.2. ЛОГАРИФМИЧЕСКАЯ МЕРА ИНФОРМАЦИИЧтобы разработать подходящую меру для информации, рассмотрим две дискретные случайные величины и с возможными значениями , , и , соответственно. Допустим, мы наблюдаем некоторый выход и мы желаем количественно определить величину информации, которую обеспечивает выборка события относительно события , . Заметим, что если и статистически не, зависят друг от друга, выбор не даёт информации о выборе события . С другой стороны, если и полностью зависимы, так что выбор однозначно определяет выбор , информационное содержание этого выбора точно такое же, как при выборе события . Подходящая мера информации, которая удовлетворяет указанным условиям, - это логарифм отношения условной вероятности к вероятности . Это значит, что количество информации, полученное при появлении события относительно события определяется как . (3.2.1) названа взаимной информацией между и . Единица измерения определяется основанием логарифма, в качестве которой обычно выбирается или 2, или . Когда основание логарифма равно 2, единицей измерения является бит, а когда основание равно , единицей измерения является нат (натуральная единица). (Стандартная аббревиатура для - это .) Так как , то количество информации, измеренное в натах, равно количеству информации измеренной в битах, умноженному на . Когда случайные величины и статистически независимы, то , следовательно, . С другой стороны, когда выбор события полностью определён выбором события условная вероятность в числителе (3.21) равна единиц и, следовательно, . (3.2.2) Но (3.22) как раз определяет информацию . Исходя из этих соображений, её называют собственной информацией события . Она обозначается так: , (3.2.3) Заметим, что событие, которое выбирается с высокой вероятностью, сообщает меньше информации, чем маловероятное событие. Действительно, если имеется единственное событие с вероятностью , тогда . Чтобы далее показать, что логарифмическая мера количества информации является единственно приемлемой для цифровой связи, рассмотрим несколько примеров. Пример 3.2.1. Предположим, что имеется дискретный источник, который выдаёт двоичную цифру 0 или 1 с равной вероятностью каждые секунд. Количеств информации при каждом появлении новой цифры (бит), . Теперь предположим, что последовательные цифры на выходе источника статистически независимы, т.е. источник не имеет памяти. Рассмотрим блок символов источника из двоичных цифр, который существует на интервале . Имеется таких возможных -битовых блоков, каждый с равной вероятностью . Собственная информация -битового блока равна бит, и она выдаётся на временном интервале . Таким образом, логарифмическая мера количества информации обладает желаемыми свойствами аддитивности, когда определённое число единичных выходов источника рассматривается как один блок. Теперь вернёмся к определению взаимной информации, определяемой (3.2.1), и умножим числитель и знаменатель отношения вероятностей на : . Отсюда делаем вывод . (3.2.4) Таким образом, информация, содержащаяся в выборе события относительно события , идентична информации, содержащейся в выборе события относительно события . Пример 3.2.2. Предположим, что и -двоичные {0,1} случайные величины, представляющие вход и выход канала с двоичным входом и двоичным выходом. Входные символы равновероятны, а условные вероятности выходных символов при заданном входе определяются так: , , , . Определим, сколько информации об и содержится в событии . Из заданных вероятностей получим ; . Тогда взаимная информация о символе при условии, что наблюдается , равна . Аналогично взаимная информация о символе при условии, что наблюдается , равна . Рассмотрим несколько частных случаев. В первом, когда , канал называют каналом без шумов и бит. Следовательно, когда выход точно определяет вход, нет потери информации. С другой стороны, если , канал становится непригодным так как . Если , то бит; бит. Помимо определения взаимной информации и собственной информации полезно определить условную собственную информацию как . (3.2.5) Тогда, комбинируя (3.2.1), (3.2.3) и (3.2.5), получаем соотношение . (3.2.6) Мы интерпретируем как собственную информацию о событии после наблюдения события . Из условия и следует, что когда , и , когда . Следовательно, взаимная информация между парой событий может быть или положительной, или отрицательно или равной нулю.
|