18.4. Условная энтропия. Объединение зависимых систем
          Пусть имеются две системы  и
 и  , в общем случае зависимые. Предположим, что система
, в общем случае зависимые. Предположим, что система  приняла состояние
 приняла состояние  . Обозначим
. Обозначим  условную вероятность того, что система
 условную вероятность того, что система  примет состояние
 примет состояние  при условии, что система
 при условии, что система  находится в состоянии
 находится в состоянии  :
:
           .                    (18.4.1)
.                    (18.4.1)
          
          
          Определим теперь условную энтропию системы  при условии, что система
 при условии, что система  находится в состоянии
 находится в состоянии  . Обозначим ее
. Обозначим ее  . По общему определению, имеем:
. По общему определению, имеем:
           (18.4.2)
                   (18.4.2)
          или
           .                      (18.4.2')
.                      (18.4.2')
          Формулу (18.4.2) можно также записать в форме математического ожидания:
           ,                   (18.4.3)
,                   (18.4.3)
          где знаком  обозначено условное математическое ожидание величины, стоящей в скобках, при условии
 обозначено условное математическое ожидание величины, стоящей в скобках, при условии  .
.
          Условная энтропия зависит от того, какое состояние  приняла система
 приняла система  ; для одних состояний она будет больше, для других - меньше. Определим среднюю, или полную, энтропию системы
; для одних состояний она будет больше, для других - меньше. Определим среднюю, или полную, энтропию системы  с учетом того, что система может принимать разные состояния. Для этого нужно каждую условную энтропию (18.4.2) умножить на вероятность соответствующего состояния
 с учетом того, что система может принимать разные состояния. Для этого нужно каждую условную энтропию (18.4.2) умножить на вероятность соответствующего состояния  и все такие произведения сложить. Обозначим полную условную энтропию
 и все такие произведения сложить. Обозначим полную условную энтропию  :
:
           (18.4.4)
                 (18.4.4)
          или, пользуясь формулой (18.4.2),
           .
.
          Внося  под знак второй суммы, получим:
 под знак второй суммы, получим:
           (18.4.5)
           (18.4.5)
          или
           .                (18.4.5')
.                (18.4.5')
          Но по теореме умножения вероятностей  , следовательно,
, следовательно,
           .            (18.4.6)
.            (18.4.6)
          Выражению (18.4.6) тоже можно придать форму математического ожидания:
           .                                  (18.4.7)
.                                  (18.4.7)
          Величина  характеризует степень неопределенности системы
 характеризует степень неопределенности системы  , остающуюся после того, как состояние системы
, остающуюся после того, как состояние системы  полностью определилось. Будем называть ее полной условной энтропией системы
 полностью определилось. Будем называть ее полной условной энтропией системы  относительно
 относительно  .
.
          Пример 1. Имеются две системы  и
 и  , объединяемые в одну
, объединяемые в одну  ; вероятности состояний системы
; вероятности состояний системы  заданы таблицей
 заданы таблицей
          
            
              | 
 
 | 
 | 
 | 
 | 
 | 
            
              | 
 | 0,1 | 0,2 | 0 | 0,3 | 
            
              | 
 | 0 | 0,3 | 0 | 0,3 | 
            
              | 
 | 0 | 0,2 | 0,2 | 0,4 | 
            
              | 
 | 0,1 | 0,7 | 0,2 |   | 
          
          Определить полные условные энтропии  и
 и  .
.
          Решение. Складывая вероятности  по столбцам, получим вероятности
 по столбцам, получим вероятности  :
:
           ;
;  ;
;  .
.
          Записываем их в нижней, добавочной строке таблицы. Аналогично, складывая  по строкам, найдем:
 по строкам, найдем:
           ;
;  ;
;  
   
          и запишем справа дополнительным столбцом. Деля  на
 на  , получим таблицу условных вероятностей
, получим таблицу условных вероятностей  :
:
          
          По формуле (18.4.5') находим  . Так как условные энтропии при
. Так как условные энтропии при  и
 и  равны нулю, то
 равны нулю, то
           .
.
          Пользуясь таблицей 7 приложения, находим
           (дв. ед.).
 (дв. ед.).
          Аналогично определим  . Из формулы (18.4.5'), меняя местами
. Из формулы (18.4.5'), меняя местами  и
 и  , получим:
, получим:
           .
.
          Составим таблицу условных вероятностей  . Деля
. Деля  на
 на  получим:
 получим:
          
          Отсюда
           (дв. сл.).
 (дв. сл.).
          Пользуясь понятием условной энтропии, можно определить энтропию объединенной системы через энтропию ее составных частей.
          Докажем следующую теорему:
          Если две системы  и
 и  объединяется в одну, то энтропия объединенной системы равна энтропии одной из ее составных частей плюс условная энтропия второй части относительно первой:
 объединяется в одну, то энтропия объединенной системы равна энтропии одной из ее составных частей плюс условная энтропия второй части относительно первой:
           .                       (18.4.8)
.                       (18.4.8)
          Для доказательства запишем  в форме математического ожидания (18.3.3):
 в форме математического ожидания (18.3.3):
           .
.
          По теореме умножения вероятностей
           ,
,
          следовательно,
           ,
,
          откуда
          
          или, по формулам (18.2.11), (18.3.3)
           ,
,
          что и требовалось доказать.
          В частном случае, когда системы  и
 и  независимы,
 независимы,  , и мы получаем уже доказанную в предыдущем
, и мы получаем уже доказанную в предыдущем  теорему сложения энтропий:
 теорему сложения энтропий:
           .
.
          В общем случае
           .                 (18.4.9)
.                 (18.4.9)
          Соотношение (18.4.9) следует из того, что полная условная энтропия  не может превосходить безусловной:
 не может превосходить безусловной:
           .                             (18.4.10)
.                             (18.4.10)
          Неравенство (18.4.10) будет доказано в  18.6. Интуитивно оно представляется довольно очевидным: ясно, что степень неопределенности системы не может увеличиться оттого, что состояние какой-то другой системы стало известным.
 18.6. Интуитивно оно представляется довольно очевидным: ясно, что степень неопределенности системы не может увеличиться оттого, что состояние какой-то другой системы стало известным.
          Из соотношения (18.4.9) следует, что энтропия сложной системы достигает максимума в крайнем случае, когда ее составные части независимы.
          Рассмотрим другой крайний случай, когда состояние одной из систем (например  ) полностью определяет собой состояние другой (
) полностью определяет собой состояние другой ( ). В этом случае
). В этом случае  и формула (18.4.7) дает
 и формула (18.4.7) дает
           .
.
          Если состояние каждой из систем  однозначно определяет состояние другой (или, как говорят, системы
 однозначно определяет состояние другой (или, как говорят, системы  и
 и  эквивалентны), то
 эквивалентны), то
           .
.
          Теорему об энтропии сложной системы легко можно распространить на любое число объединяемых систем:
           ,         (18.4.11)
,         (18.4.11)
          где энтропия каждой последующей системы вычисляется при условии, что состояние всех предыдущих известно.