ЗАДАЧИ
3.1. Рассмотрим совместный эксперимент из задачи 2.1 с заданной совместной вероятностью
. Допустим, мы наблюдаем выходы
,
, эксперимент
.
a. Определите взаимную информацию
для
и
в битах.
b. Определите среднюю взаимную информацию
.
3.2. Предположим, что выходы
,
, в задаче 3.1 представляют три возможных выходных слова ДИБП. Определите энтропию источника.
3.3. Докажите, что
и продемонстрируйте законность этого неравенства, построив кривые
и
.
3.4.
и
являются двумя дискретными случайными величинами с вероятностями
. Покажите, что
, причём равенство имеет место тогда, и только тогда, когда
и
статистически независимы.
[Подсказка: используйте неравенство
для
, чтобы доказать, что
.]
3.5. Выход ДИБП состоит из возможных символов
, которые появляются с вероятностями
соответственно. Докажите, что энтропия
источника не превышает
.
3.6. Определите дифференциальную энтропию
равномерно распределённой случайной величины
с ФПВ ![](/archive/arch.php?path=../htm/book_p_net/files.book&file=p_net_44.files/image024.gif)
для следующих трёх случаев:
a)
;
b)
;
c)
.
Обратите внимание, что из расчётов следует, что
является не абсолютной, а только относительной мерой неопределённости.
3.7. ДИБП имеет алфавит из восьми символов
,
, с вероятностями 0,25; 0,2; 0,15; 0,12; 0,10; 0,08; 0,05 и 0,05.
a) Используйте процедуру кодирования Хаффмена, чтобы определить двоичный код для выхода источника.
b) Определите среднее число
двоичных символов на символ источника.
c) Определите энтропию источника и сравните с
.
3.8. ДИБП источника имеет алфавит из пяти символов
,
, каждый из которых появляется с вероятностью 1/5 . Вычислите эффективность равномерного двоичного кода, если:
a) Каждый символ кодируется отдельно в двоичную последовательность.
b) Два символа вместе кодируются в двоичную последовательность.
c) Три символа вместе кодируются в двоичную последовательность.
3.9. Напомним (3.2.6)
.
Докажите, что
a)
;
b)
, где
.
3.10. Пусть
- геометрически распределённая случайная величина, т.е.
, ![](/archive/arch.php?path=../htm/book_p_net/files.book&file=p_net_44.files/image038.gif)
a) Найдите энтропию
.
b) Известно, что
, где
- заданное целое положительное число. Чему равна энтропия
?
3.11. Пусть
и
обозначают две совместно распределённые дискретные случайные величины.
a) Покажите, что
,
.
b) Используйте полученный выше результат, чтобы показать, что
. Когда наступает равенство?
c) Покажите, что
и что равенство имеет место тогда, и только тогда, когда
и
независимы.
3.12. Две двоичные случайные величины
и
распределены согласно совместным вероятностям
. Вычислите
,
,
,
и
.
3.13. Дан марковский процесс с одношаговой памятью, т.е. такой процесс, что
для всех
. Покажите, что для стационарного марковского процесса энтропийная скорость определяется через
.
3.14. Пусть
, где
обозначает детерминированную функцию. Покажите, что в общем
. Когда наступает равенство?
3.15. Покажите, что
.
3.16 Покажите, что для статистически независимых событий
.
3.17. Покажите, что в канале без шумов
.
3.18. Покажите, что
и что
.
3.19. Пусть
является случайной величиной с ФПВ
и пусть
- линейное преобразование
, где
и
- две константы. Определите дифференциальную энтропию
через
.
3.20. Выходы
,
и
от ДИБП с вероятностями
,
и
преобразуются линейным преобразованием
, где
и
- константы. Определите энтропию
и поясните влияние преобразования на энтропию сигнала.
3.21. Оптимальный четырёхуровневый неравномерный квантователь для сигнала с гауссовским распределением амплитуд выдаёт четыре уровня
,
,
и
с вероятностями
и
.
a) Определите код Хаффмена, который кодирует отдельные уровни, и определите среднюю битовую скорость.
b) Определите код Хаффмена, который кодирует два выходных уровня вместе, и определите среднюю битовую скорость.
c) Какую минимальную битовую скорость можно получить, кодируя
выходных уровней, когда
.
3.22. Марковский источник первого порядка характеризуется вероятностями состояния
,
, и переходными вероятностями
,
и
. Энтропия марковского источника
, где
- энтропия источника при условии, что он находится в состоянии
.
Определите энтропию двоичного источника первого порядка, показанного на рис. 3.22, который имеет переходные вероятности
и
[заметим, что условные энтропии
и
определяются двоичными энтропийными функциями
и
соответственно]. Как соотносится энтропия марковского источника с энтропией двоичного ДИБП с теми же вероятностями выходных символов
и
?
![](/archive/arch.php?path=../htm/book_p_net/files.book&file=p_net_44.files/image096.jpg)
Рис. Р.3.22
3.23. Источник без памяти имеет алфавит
с соответствующими вероятностями {0,05; 0,1; 0,1; 0,15; 0,05; 0,25; 0,3}.
a) Найдите энтропию источника.
b) Предположив, что источник квантуется согласно правилу квантования
,
,
,
найдите энтропию квантованного источника.
3.24. Постройте троичный код Хаффмена, использующий выходные символы 0, 1 и 2 при кодировании источника с вероятностями выходных символов алфавита {0,05; 0,1; 0,15; 0,17; 0,18; 0,22; 0,13}. Какова результирующая средняя длина кодового слова? Сравните среднюю длину кодового слова с энтропией источника. (С каким основанием будете вычислять логарифмы в выражении для энтропии для полностью осмысленного сравнения?).
3.25. Найдите код Лемпела-Зива при кодировании двоичной последовательности источника 000100100000011000010000000100000010100001000000110100000001100.
Восстановите исходную последовательность по коду Лемпела-Зива. [Подсказка: Вам потребуются два прохода двоичной последовательности, чтобы принять решение о размере словаря.]
3.26. Найдите дифференциальную энтропию непрерывной случайной величины
в следующих случаях:
a)
- случайная величина с экспоненциальным распределением с параметром
, т.е.
![](/archive/arch.php?path=../htm/book_p_net/files.book&file=p_net_44.files/image102.gif)
b)
- случайная величина с распределением Лапласа с параметром
, т.е.
.
c)
- случайная величина с треугольным законом распределения с параметром
, т.е.
![](/archive/arch.php?path=../htm/book_p_net/files.book&file=p_net_44.files/image104.gif)
3.27. Можно показать, что для источника с рапределением Лапласа
функция скорость-искажение с абсолютной величиной меры ошибки искажений
определяется как
![](/archive/arch.php?path=../htm/book_p_net/files.book&file=p_net_44.files/image107.gif)
(См. Бергер, 1971)
a) Сколько требуется бит/отсчёт для представления выходов источника со средним искажением, не превышающим
?
b) Постройте график
для трёх различных значений
и обсудите влияние изменения
на этих кривых.
3.28. Можно показать, что если
- непрерывная случайная величина с нулевым средним и дисперсией
, то её функция скорость-искажение при среднеквадратичной мере искажений удовлетворяет нижней и верхней границам, определяемым неравенствами
,
где
означает дифференциальную энтропию случайной величины
(см. Ковер и Томас, 1991)
a) Покажите, что для гауссовской случайной величины верхней и нижней границ совпадают.
b) Постройте график для нижней и верхней границ для источника с лапласовским распределением при
.
c) Постройте график для нижней и верхней границ для источника с треугольным распределением при
.
3.29. Стационарный случайный процесс имеет автокорреляционную функцию
и известно, что случайный процесс никогда не превышает по амплитуде величину 6. Сколько требуется уровней квантования амплитуды, чтобы гарантировать отношение сигнал/шум квантования не хуже 60 дБ?
3.30. Канал с аддитивным белым гауссовским шумом имеет выход
, где
- вход канала, а
- шум с ФПВ:
.
Для случая, когда
- гауссовский белый шум с параметрами
и
, определите:
a) условную дифференциальную энтропию
;
b) среднюю взаимную информацию
.
3.31. ДИБП имеет алфавит из восьми символов
,
с вероятностями из задачи 3.7. Используйте процедуру кодирования Хаффмена для нахождения троичного кода (с символами 0, 1 и 2) для кодирования выхода источника. [Подсказка: прибавьте символ
с вероятностью
и группируйте по три символа на каждом шаге.]
3.32. Определите, существует ли двоичный код с кодовыми словами длиной
, удовлетворяющий условию префиксности.
3.33. Рассмотрите двоичный блоковый код с
кодовыми словами одинаковой длины
. Покажите, что неравенство Крафта выполняется для такого кода.
3.34. Покажите, что энтропия
-мерного гауссовского вектора
с нулевым средним
матрицей ковариаций
равна
.
3.35. Рассмотрите ДИБП с равновероятными двоичными выходными символами (0,1). Установите меру искажений как
, где
- вероятность ошибки при передаче двоичных символов пользователю через двоичный симметричный канал (ДСК). Тогда функция скоросгь-искажеине равна (Бергер. 1971)
,
.
Постройте график
для ![](/archive/arch.php?path=../htm/book_p_net/files.book&file=p_net_44.files/image133.gif)
3.36. Вычислите функцию скорость-искажение для
-ичного симметричного канала
![](/archive/arch.php?path=../htm/book_p_net/files.book&file=p_net_44.files/image134.gif)
для
и 16.
- вероятность ошибки.
3.37. Рассмотрите пользу от взвешенной СКО как меры искажений, определённом как
,
где
- симметричная, положительно-определённая взвешивающая матрица. Путём факторизации
как
покажите, что
эквивалентно невзвешенной СКО как меры искажений
содержащей преобразованные векторы
и
.
3.38. Рассмотрите стационарную случайную сигнальную последовательность
с нулевым средним и автокорреляционной функцией
![](/archive/arch.php?path=../htm/book_p_net/files.book&file=p_net_44.files/image145.gif)
a) Определите коэффициенты предсказания для предсказателя первого порядка с минимизацией СКО для
, заданной посредством соотношения
,
и соответствующее значение минимальной СКО
.
b) Повторите (a) для предсказателя второго порядка
.
3.39. Рассмотрите кодирование случайных величин
и
которые характеризуются СФПВ
, заданной как показано на рис. Р.3.39. Вычислите битовую скорость, требуемую при равномерном раздельном квантовании
и
(скалярное квантование) и комбинированном (векторном) квантовании
. Определите разницу в битовой скорости при
.
![](/archive/arch.php?path=../htm/book_p_net/files.book&file=p_net_44.files/image154.gif)
![](/archive/arch.php?path=../htm/book_p_net/files.book&file=p_net_44.files/image155.jpg)
Рис. Р.3.39
3.40. Рассмотрите кодирование двух случайных величин
и
, которые имеют равномерное распределение в области между двумя квадратами, как показано на рис. Р3.40.
![](/archive/arch.php?path=../htm/book_p_net/files.book&file=p_net_44.files/image156.jpg)
Рис.Р.3.40
a) Найдите
и
.
b) Предположите, что каждая из случайных величин
и
квантуется с использованием четырёхуровневого равномерного квантователя. Каково результирующее искажение? Каково результирующее число бит на пару
?
c) Предположите, что вместо скалярного квантования
и
мы используем векторный квантователь для достижения того же уровня искажений, как в (b). Каково результирующее число битов на выходную пару источника
?
3.41. Две случайные величины
и
распределены равномерно в квадрате, показанном на рис. Р3.41.
![](/archive/arch.php?path=../htm/book_p_net/files.book&file=p_net_44.files/image160.jpg)
Рис. Р.3.41
a) Найдите
и
.
b) Предположите, что каждая из случайных величин
и
квантуется посредством четырёхуровневого равномерного квантователя. Каково результирующее искажение? Каково результирующее число бит на пару источника
?
c) Предположите, что вместо скалярного квантования
и
мы используем векторный квантователь с тем же числом бит на пару источника
, что в (b). Каково результирующее искажение для этого векторного квантователя?