ЗАДАЧИ3.1. Рассмотрим совместный эксперимент из задачи 2.1 с заданной совместной вероятностью . Допустим, мы наблюдаем выходы , , эксперимент . a. Определите взаимную информацию для и в битах. b. Определите среднюю взаимную информацию . 3.2. Предположим, что выходы , , в задаче 3.1 представляют три возможных выходных слова ДИБП. Определите энтропию источника. 3.3. Докажите, что и продемонстрируйте законность этого неравенства, построив кривые и . 3.4. и являются двумя дискретными случайными величинами с вероятностями . Покажите, что , причём равенство имеет место тогда, и только тогда, когда и статистически независимы. [Подсказка: используйте неравенство для , чтобы доказать, что .] 3.5. Выход ДИБП состоит из возможных символов , которые появляются с вероятностями соответственно. Докажите, что энтропия источника не превышает . 3.6. Определите дифференциальную энтропию равномерно распределённой случайной величины с ФПВ для следующих трёх случаев: a) ; b) ; c) . Обратите внимание, что из расчётов следует, что является не абсолютной, а только относительной мерой неопределённости. 3.7. ДИБП имеет алфавит из восьми символов , , с вероятностями 0,25; 0,2; 0,15; 0,12; 0,10; 0,08; 0,05 и 0,05. a) Используйте процедуру кодирования Хаффмена, чтобы определить двоичный код для выхода источника. b) Определите среднее число двоичных символов на символ источника. c) Определите энтропию источника и сравните с . 3.8. ДИБП источника имеет алфавит из пяти символов , , каждый из которых появляется с вероятностью 1/5 . Вычислите эффективность равномерного двоичного кода, если: a) Каждый символ кодируется отдельно в двоичную последовательность. b) Два символа вместе кодируются в двоичную последовательность. c) Три символа вместе кодируются в двоичную последовательность. 3.9. Напомним (3.2.6) . Докажите, что a) ; b) , где . 3.10. Пусть - геометрически распределённая случайная величина, т.е. , a) Найдите энтропию . b) Известно, что , где - заданное целое положительное число. Чему равна энтропия ? 3.11. Пусть и обозначают две совместно распределённые дискретные случайные величины. a) Покажите, что , . b) Используйте полученный выше результат, чтобы показать, что . Когда наступает равенство? c) Покажите, что и что равенство имеет место тогда, и только тогда, когда и независимы. 3.12. Две двоичные случайные величины и распределены согласно совместным вероятностям . Вычислите , , , и . 3.13. Дан марковский процесс с одношаговой памятью, т.е. такой процесс, что для всех . Покажите, что для стационарного марковского процесса энтропийная скорость определяется через . 3.14. Пусть , где обозначает детерминированную функцию. Покажите, что в общем . Когда наступает равенство? 3.15. Покажите, что . 3.16 Покажите, что для статистически независимых событий . 3.17. Покажите, что в канале без шумов . 3.18. Покажите, что и что . 3.19. Пусть является случайной величиной с ФПВ и пусть - линейное преобразование , где и - две константы. Определите дифференциальную энтропию через . 3.20. Выходы , и от ДИБП с вероятностями , и преобразуются линейным преобразованием , где и - константы. Определите энтропию и поясните влияние преобразования на энтропию сигнала. 3.21. Оптимальный четырёхуровневый неравномерный квантователь для сигнала с гауссовским распределением амплитуд выдаёт четыре уровня , , и с вероятностями и . a) Определите код Хаффмена, который кодирует отдельные уровни, и определите среднюю битовую скорость. b) Определите код Хаффмена, который кодирует два выходных уровня вместе, и определите среднюю битовую скорость. c) Какую минимальную битовую скорость можно получить, кодируя выходных уровней, когда . 3.22. Марковский источник первого порядка характеризуется вероятностями состояния , , и переходными вероятностями , и . Энтропия марковского источника , где - энтропия источника при условии, что он находится в состоянии . Определите энтропию двоичного источника первого порядка, показанного на рис. 3.22, который имеет переходные вероятности и [заметим, что условные энтропии и определяются двоичными энтропийными функциями и соответственно]. Как соотносится энтропия марковского источника с энтропией двоичного ДИБП с теми же вероятностями выходных символов и ? Рис. Р.3.22 3.23. Источник без памяти имеет алфавит с соответствующими вероятностями {0,05; 0,1; 0,1; 0,15; 0,05; 0,25; 0,3}. a) Найдите энтропию источника. b) Предположив, что источник квантуется согласно правилу квантования , , , найдите энтропию квантованного источника. 3.24. Постройте троичный код Хаффмена, использующий выходные символы 0, 1 и 2 при кодировании источника с вероятностями выходных символов алфавита {0,05; 0,1; 0,15; 0,17; 0,18; 0,22; 0,13}. Какова результирующая средняя длина кодового слова? Сравните среднюю длину кодового слова с энтропией источника. (С каким основанием будете вычислять логарифмы в выражении для энтропии для полностью осмысленного сравнения?). 3.25. Найдите код Лемпела-Зива при кодировании двоичной последовательности источника 000100100000011000010000000100000010100001000000110100000001100. Восстановите исходную последовательность по коду Лемпела-Зива. [Подсказка: Вам потребуются два прохода двоичной последовательности, чтобы принять решение о размере словаря.] 3.26. Найдите дифференциальную энтропию непрерывной случайной величины в следующих случаях: a) - случайная величина с экспоненциальным распределением с параметром , т.е. b) - случайная величина с распределением Лапласа с параметром , т.е. . c) - случайная величина с треугольным законом распределения с параметром , т.е. 3.27. Можно показать, что для источника с рапределением Лапласа функция скорость-искажение с абсолютной величиной меры ошибки искажений определяется как (См. Бергер, 1971) a) Сколько требуется бит/отсчёт для представления выходов источника со средним искажением, не превышающим? b) Постройте график для трёх различных значений и обсудите влияние изменения на этих кривых. 3.28. Можно показать, что если - непрерывная случайная величина с нулевым средним и дисперсией , то её функция скорость-искажение при среднеквадратичной мере искажений удовлетворяет нижней и верхней границам, определяемым неравенствами , где означает дифференциальную энтропию случайной величины (см. Ковер и Томас, 1991) a) Покажите, что для гауссовской случайной величины верхней и нижней границ совпадают. b) Постройте график для нижней и верхней границ для источника с лапласовским распределением при . c) Постройте график для нижней и верхней границ для источника с треугольным распределением при . 3.29. Стационарный случайный процесс имеет автокорреляционную функцию и известно, что случайный процесс никогда не превышает по амплитуде величину 6. Сколько требуется уровней квантования амплитуды, чтобы гарантировать отношение сигнал/шум квантования не хуже 60 дБ? 3.30. Канал с аддитивным белым гауссовским шумом имеет выход , где - вход канала, а - шум с ФПВ: . Для случая, когда - гауссовский белый шум с параметрами и , определите: a) условную дифференциальную энтропию ; b) среднюю взаимную информацию . 3.31. ДИБП имеет алфавит из восьми символов , с вероятностями из задачи 3.7. Используйте процедуру кодирования Хаффмена для нахождения троичного кода (с символами 0, 1 и 2) для кодирования выхода источника. [Подсказка: прибавьте символ с вероятностью и группируйте по три символа на каждом шаге.] 3.32. Определите, существует ли двоичный код с кодовыми словами длиной , удовлетворяющий условию префиксности. 3.33. Рассмотрите двоичный блоковый код с кодовыми словами одинаковой длины . Покажите, что неравенство Крафта выполняется для такого кода. 3.34. Покажите, что энтропия -мерного гауссовского вектора с нулевым средним матрицей ковариаций равна . 3.35. Рассмотрите ДИБП с равновероятными двоичными выходными символами (0,1). Установите меру искажений как , где - вероятность ошибки при передаче двоичных символов пользователю через двоичный симметричный канал (ДСК). Тогда функция скоросгь-искажеине равна (Бергер. 1971) , . Постройте график для 3.36. Вычислите функцию скорость-искажение для -ичного симметричного канала для и 16. - вероятность ошибки. 3.37. Рассмотрите пользу от взвешенной СКО как меры искажений, определённом как , где - симметричная, положительно-определённая взвешивающая матрица. Путём факторизации как покажите, что эквивалентно невзвешенной СКО как меры искажений содержащей преобразованные векторы и . 3.38. Рассмотрите стационарную случайную сигнальную последовательность с нулевым средним и автокорреляционной функцией a) Определите коэффициенты предсказания для предсказателя первого порядка с минимизацией СКО для , заданной посредством соотношения , и соответствующее значение минимальной СКО . b) Повторите (a) для предсказателя второго порядка . 3.39. Рассмотрите кодирование случайных величин и которые характеризуются СФПВ , заданной как показано на рис. Р.3.39. Вычислите битовую скорость, требуемую при равномерном раздельном квантовании и (скалярное квантование) и комбинированном (векторном) квантовании . Определите разницу в битовой скорости при . Рис. Р.3.39 3.40. Рассмотрите кодирование двух случайных величин и , которые имеют равномерное распределение в области между двумя квадратами, как показано на рис. Р3.40. Рис.Р.3.40 a) Найдите и . b) Предположите, что каждая из случайных величин и квантуется с использованием четырёхуровневого равномерного квантователя. Каково результирующее искажение? Каково результирующее число бит на пару ? c) Предположите, что вместо скалярного квантования и мы используем векторный квантователь для достижения того же уровня искажений, как в (b). Каково результирующее число битов на выходную пару источника ? 3.41. Две случайные величины и распределены равномерно в квадрате, показанном на рис. Р3.41. Рис. Р.3.41 a) Найдите и . b) Предположите, что каждая из случайных величин и квантуется посредством четырёхуровневого равномерного квантователя. Каково результирующее искажение? Каково результирующее число бит на пару источника ? c) Предположите, что вместо скалярного квантования и мы используем векторный квантователь с тем же числом бит на пару источника , что в (b). Каково результирующее искажение для этого векторного квантователя?
|