18.4. Условная энтропия. Объединение зависимых систем
Пусть имеются две системы
и
, в общем случае зависимые. Предположим, что система
приняла состояние
. Обозначим
условную вероятность того, что система
примет состояние
при условии, что система
находится в состоянии
:
. (18.4.1)
Определим теперь условную энтропию системы
при условии, что система
находится в состоянии
. Обозначим ее
. По общему определению, имеем:
(18.4.2)
или
. (18.4.2')
Формулу (18.4.2) можно также записать в форме математического ожидания:
, (18.4.3)
где знаком
обозначено условное математическое ожидание величины, стоящей в скобках, при условии
.
Условная энтропия зависит от того, какое состояние
приняла система
; для одних состояний она будет больше, для других - меньше. Определим среднюю, или полную, энтропию системы
с учетом того, что система может принимать разные состояния. Для этого нужно каждую условную энтропию (18.4.2) умножить на вероятность соответствующего состояния
и все такие произведения сложить. Обозначим полную условную энтропию
:
(18.4.4)
или, пользуясь формулой (18.4.2),
.
Внося
под знак второй суммы, получим:
(18.4.5)
или
. (18.4.5')
Но по теореме умножения вероятностей
, следовательно,
. (18.4.6)
Выражению (18.4.6) тоже можно придать форму математического ожидания:
. (18.4.7)
Величина
характеризует степень неопределенности системы
, остающуюся после того, как состояние системы
полностью определилось. Будем называть ее полной условной энтропией системы
относительно
.
Пример 1. Имеются две системы
и
, объединяемые в одну
; вероятности состояний системы
заданы таблицей


|

|

|

|

|

|
0,1
|
0,2
|
0
|
0,3
|

|
0
|
0,3
|
0
|
0,3
|

|
0
|
0,2
|
0,2
|
0,4
|

|
0,1
|
0,7
|
0,2
|
|
Определить полные условные энтропии
и
.
Решение. Складывая вероятности
по столбцам, получим вероятности
:
;
;
.
Записываем их в нижней, добавочной строке таблицы. Аналогично, складывая
по строкам, найдем:
;
;

и запишем справа дополнительным столбцом. Деля
на
, получим таблицу условных вероятностей
:
По формуле (18.4.5') находим
. Так как условные энтропии при
и
равны нулю, то
.
Пользуясь таблицей 7 приложения, находим
(дв. ед.).
Аналогично определим
. Из формулы (18.4.5'), меняя местами
и
, получим:
.
Составим таблицу условных вероятностей
. Деля
на
получим:
Отсюда
(дв. сл.).
Пользуясь понятием условной энтропии, можно определить энтропию объединенной системы через энтропию ее составных частей.
Докажем следующую теорему:
Если две системы
и
объединяется в одну, то энтропия объединенной системы равна энтропии одной из ее составных частей плюс условная энтропия второй части относительно первой:
. (18.4.8)
Для доказательства запишем
в форме математического ожидания (18.3.3):
.
По теореме умножения вероятностей
,
следовательно,
,
откуда

или, по формулам (18.2.11), (18.3.3)
,
что и требовалось доказать.
В частном случае, когда системы
и
независимы,
, и мы получаем уже доказанную в предыдущем
теорему сложения энтропий:
.
В общем случае
. (18.4.9)
Соотношение (18.4.9) следует из того, что полная условная энтропия
не может превосходить безусловной:
. (18.4.10)
Неравенство (18.4.10) будет доказано в
18.6. Интуитивно оно представляется довольно очевидным: ясно, что степень неопределенности системы не может увеличиться оттого, что состояние какой-то другой системы стало известным.
Из соотношения (18.4.9) следует, что энтропия сложной системы достигает максимума в крайнем случае, когда ее составные части независимы.
Рассмотрим другой крайний случай, когда состояние одной из систем (например
) полностью определяет собой состояние другой (
). В этом случае
и формула (18.4.7) дает
.
Если состояние каждой из систем
однозначно определяет состояние другой (или, как говорят, системы
и
эквивалентны), то
.
Теорему об энтропии сложной системы легко можно распространить на любое число объединяемых систем:
, (18.4.11)
где энтропия каждой последующей системы вычисляется при условии, что состояние всех предыдущих известно.