Читать в оригинале

<< Предыдущая Оглавление Следующая >>


18.7. Энтропия и информация для систем с непрерывным множеством состояний

До сих пор мы рассматривали физические системы, различные состояния которых  можно было все перечислить; вероятности этих состояний были какие-то отличные от нуля величины . Такие системы аналогичны прерывным (дискретным) случайным величинам, принимающим значения  с вероятностями . На практике часто встречаются физические системы другого типа, аналогичные непрерывным случайным величинам. Состояния таких систем нельзя перенумеровать: они непрерывно переходят одно в другое, причем каждое отдельное состояние имеет вероятность, равную нулю, а распределение вероятностей характеризуется некоторой плотностью. Такие системы, по аналогии с непрерывными случайными величинами, мы будем называть «непрерывными», в отличие от ранее рассмотренных, которые мы будем называть «дискретными». Наиболее простой пример непрерывной системы - это система, состояние которой описывается одной непрерывной случайной величиной  с плотностью распределения . В более сложных случаях состояние системы описывается несколькими случайными величинами  с плотностью распределения . Тогда ее можно рассматривать как объединение  простых систем .

Рассмотрим простую систему , определяемую одной непрерывной случайной величиной  с плотностью распределения  (рис. 18.7.1). Попытаемся распространить на эту систему введенное в  18.1 понятие энтропии.

image11

Рис. 18.7.1.

Прежде всего отметим, что понятие «непрерывной системы», как и понятие «непрерывной случайной величины», является некоторой идеализацией. Например, когда мы считаем величину  - рост наугад взятого человека - непрерывной случайной величиной, мы отвлекаемся от того, что фактически никто не измеряет рост точнее, чем до 1 см, и что различить между собой два значения роста, разнящиеся, скажем, на 1 мм, практически невозможно. Тем не менее, данную случайную величину естественно описывать как непрерывную, хотя можно было бы описать ее и как дискретную, считая совпадающими те значения роста, которые различаются менее чем на 1 см.

Точно таким образом, установив предел точности измерений, т. е. некоторый отрезок , в пределах которого состояния системы  практически неразличимы, можно приближенно свести непрерывную систему  к дискретной. Это равносильно замене плавной кривой  ступенчатой, типа гистограммы (рис. 18.7.2); при этом каждый участок (разряд) длины  заменяется одной точкой-представителем.

image10

Рис. 18.7.2.

Площади прямоугольников изображают вероятности попадания в соответствующие разряды: . Если условиться считать неразличимыми состояния системы, относящиеся к одному разряду, и объединить их все в одно состояние, то можно приближенно определить энтропию системы , рассматриваемой с точностью до :

.                  (18.7.1)

При достаточно малом :

,

и формула (18.7.1) принимает вид:

.                 (18.7.2)

Заметим, что в выражении (18.7.2) первый член получился совсем не зависящим от  - степени точности определения состояний системы. Зависит от  только второй член , который стремится к бесконечности при . Это и естественно, так как чем точнее мы хотим задать состояние системы , тем большую степень неопределенности мы должны устранить, и при неограниченном уменьшении  эта неопределенность растет тоже неограниченно.

Итак, задаваясь произвольно малым «участком нечувствительности»  наших измерительных приборов, с помощью которых определяется состояние физической системы , можно найти энтропию  по формуле (18.7.2), в которой второй член неограниченно растет с уменьшением . Сама энтропия  отличается от этого неограниченно растущего члена на независимую от  величину

.                    (18.7.3)

Эту величину можно назвать «приведенной энтропией» непрерывной системы . Энтропия  выражается через приведенную энтропию  формулой

.              (18.7.4)

Соотношение (18.7.4) можно истолковать следующим образом: от точности измерения  зависит только начало отсчета, при котором вычисляется энтропия.

В дальнейшем для упрощения записи мы будем опускать индекс  в обозначении энтропии и писать просто ; наличие  в правой части всегда укажет, о какой точности идет речь.

Формуле (18.7.2) для энтропии можно придать более компактный вид, если, как мы это делали для прерывных величин, записать ее в виде математического ожидания функции. Прежде всего перепишем (18.7.2) в виде

.              (18.7.5)

Это есть не что иное, как математическое ожидание функции  от случайной величины  с плотностью :

.                       (18.7.6)

Аналогичную форму можно придать величине :

.                             (18.7.7)

Перейдем к определению условной энтропии. Пусть имеются две непрерывные системы:  и . В общем случае эти системы зависимы. Обозначим  плотность распределения для состояний объединенной системы ;  - плотность распределения системы ;  - плотность распределения системы ;  - условные плотности распределения.

Прежде всего определим частную условную энтропию , т. е. энтропию системы  при условии, что система  приняла определенное состояние . Формула для нее будет аналогична (18.4.2), только вместо условных вероятностей  будут стоять условные законы распределения  и появится слагаемое :

.                    (18.7.8)

Перейдем теперь к полной (средней) условной энтропии , для этого нужно осреднить частную условную энтропию  по всем состояниям  с учетом их вероятностей, характеризуемых плотностью :

                 (18.7.9)

или, учитывая, что

,

.             (18.7.10)

Иначе эта формула может быть записана в виде

                     (18.7.11)

или

.                          (18.7.12)

Определив таким образом условную энтропию, покажем, как она применяется при определении энтропии объединенной системы.

Найдем сначала энтропию объединенной системы непосредственно. Если «участками нечувствительности» для систем  и  будут  и , то для объединенной системы  роль их будет играть элементарный прямоугольник . Энтропия системы  будет

.                       (18.7.13)

Так как

,

то и

.                (18.7.14)

Подставим (18.7.14) в (18.7.13):

,

или, по формулам (18.7.6) и (18.7.12)

,                       (18.7.15)

т. е. теорема об энтропии сложной системы остается в силе и для непрерывных систем.

Если  и  независимы, то энтропия объединенной системы равна сумме энтропий составных частей:

.                 (18.7.16)

Пример 1. Найти энтропию непрерывной системы , все состояния которой на каком-то участке  одинаково вероятны:

Решение.

;

или

.                (18.7.17)

Пример 2. Найти энтропию системы , состояния которой распределены по нормальному закону:

.

Решение.

.

Но

,

и

.                   (18.7.18)

Пример 3. Состояние самолета характеризуется тремя случайными величинами: высотой , модулем скорости  и углом , определяющим направление полета. Высота самолета распределена с равномерной плотностью на участке ; скорость  - по нормальному закону с м.о.  и с.к.о. ; угол  - с равномерной плотностью на участке . Величины  независимы. Найти энтропию объединенной системы.

Решение.

Из примера 1 (формула (18.7.17)) имеем

,

где  - «участок нечувствительности» при определении высоты.

Так как энтропия случайной величины не зависит от ее математического ожидания, то для определения энтропии величины  воспользуемся формулой (18.7.18):

.

Энтропия величины :

.

Окончательно имеем:

или

.              (18.7.19)

Заметим, что каждый из сомножителей под знаком фигурной скобки имеет один и тот же смысл: он показывает, сколько «участков нечувствительности» укладывается в некотором характерном для данной случайной величины отрезке. В случае распределения с равномерной плотностью этот участок представляет собой просто участок возможных значений случайной величины; в случае нормального распределения этот участок равен , где  - среднее квадратическое отклонение.

Таким образом, мы распространили понятие энтропии на случай непрерывных систем. Аналогично может быть распространено и понятие информации. При этом неопределенность, связанная с наличием в выражении энтропии неограниченно возрастающего слагаемого, отпадает: при вычислении информации, как разности двух энтропий, эти члены взаимно уничтожаются. Поэтому все виды информации, связанные с непрерывными величинами, оказываются не зависящими от «участка нечувствительности» .

Выражение для полной взаимной информации, содержащейся в двух непрерывных системах  и , будет аналогично выражению (18.5.4), но с заменой вероятностей законами распределения, а сумм - интегралами:

                (18.7.20)

или, применяя знак математического ожидания,

.                     (18.7.21)

Полная взаимная информация  как и в случае дискретных систем, есть неотрицательная величина, обращающаяся в нуль только тогда, когда системы  и  независимы.

Пример 4. На отрезке  выбираются случайным образом, независимо друг от друга, две точки  и , каждая из них распределена на этом отрезке с равномерной плотностью. В результате опыта одна из точек легла правее, другая - левее. Сколько информации о положении правой точки дает значение положения левой?

Решение. Рассмотрим две случайные точки  и  на оси абсцисс  (рис. 18.7.3).

Рис. 18.7.3.

Обозначим  абсциссу той из них, которая оказалась слева, а  - абсциссу той, которая оказалась справа (на рис. 18.7.3 слева оказалась точка , но могло быть и наоборот). Величины  и  определяются через  и  следующим образом

;          .

Найдем закон распределения системы . Так как , то он будет существовать только в области , заштрихованной на рис. 18.7.4.

image12

Рис. 18.7.4.

Обозначим  плотность распределения системы  и найдем элемент вероятности , т. е. вероятность того, что случайная точка  попадет в элементарный прямоугольник . Это событие может произойти двумя способами: либо слева окажется точка , а справа , либо наоборот. Следовательно,

,

где  обозначена плотность распределения системы величин .

В данном случае

                  ,

следовательно,

;

и

Найдем теперь законы распределения отдельных величин, входящих в систему:

  при  ;

аналогично

  при  .

Графики плотностей  и  изображены на рис. 18.7.5.

image13image14

Рис 18.7.5.

Подставляя ,  и  в формулу (18.7.20), получим

.

В силу симметрии задачи последние два интеграла равны, и

 (дв. ед.).

Пример 5. Имеется случайная величина , распределенная по нормальному закону с параметрами , . Величина  измеряется с ошибкой , тоже распределенной по нормальному закону с параметрами , . Ошибка  не зависит от . В нашем распоряжении - результат измерения, т. е. случайная величина

Определить, сколько информации о величине  содержит величина .

Решение. Воспользуемся для вычисления информации формулой (18.7.21), т. е. найдем ее как математическое ожидание случайной величины

.                        (18.7.22)

Для этого сначала преобразуем выражение

.

В нашем случае

,

   (см. главу 9).

Выражение (18.7.22) равно:

.

Отсюда

.               (18.7.23)

Ho , следовательно,

               (18.7.24)

Подставляя (18.7.24) в (18.7.23), получим

 (дв. ед.).

Например, при

 (дв. ед.).

Если ; , то  (дв. ед.).

 



<< Предыдущая Оглавление Следующая >>