Читать в оригинале

<< ПредыдущаяОглавлениеСледующая >>


5.3. Свойства решетчатой структуры

Решетчатый фильтр имеет более сложную структуру, и для реализации передаточной функции требуется большее количество численных операций, чем для непосредственной реализации фильтра прямой формы. Однако эта повышенная сложность компенсируется несколькими преимуществами решетчатой структуры, включающими проверку степени устойчивости, каскадную ортогонализацию входного сигнала и физическую интерпретацию в виде распространения волны в слоистой среде. Решетчатая структура фильтра легко получается для предсказывающего фильтра, когда применяются условия ортогональности. В данном разделе представлены свойства решетчатого оценивающего фильтра. В разд. 5.3.2 для демонстрации физической интерпретации коэффициентов отражения в качестве решетчатого фильтра рассматривается модель голосового тракта человека в виде акустической трубы.

5.3.1. Ортогонализирующие свойства

В ранних работах, посвященных решетчатой структуре, была отмечена связь с ортогональными полиномами [45, 156, 211, 219]. Реализации решетчатых фильтров были получены ортогонализацией пространства состояний передаточной функции с помощью ортогональных полиномов Цего. Теория полиномов Цего и их применение в теории систем (контроле устойчивости) и стохастических задачах (теории прогнозирования и спектральном анализе) обсуждаются в работе [133]. В контроле устойчивости  по методу Шура свойства ортогональных полиномов используются для определения того, находятся ли полюса передаточной функции внутри единичного круга и, следовательно, устойчива ли передаточная функция. Чтобы осуществить контроль, сначала применяется алгоритм 5.1 для расчета решетчатого фильтра, а затем проверяется, не превосходит ли единицу величина какого-либо коэффициента отражения .

Для задач оценивания уравнения оценки по методу минимальной среднеквадратичной ошибки можно преобразовать в уравнения каскадной оптимизации с помощью рекурсивного метода при оптимальном порядке фильтра. Можно провести каскадную оценку параметра рекурсивного метода, поскольку он зависит от величин, ортогональных для разных каскадов. Это ортогонализирующее свойство сейчас исследовано для предсказывающих фильтров           (с передаточной функцией, имеющей только нули).

Для предиктора - го порядка выборка данных во время , , аппроксимируется линейной комбинацией предыдущих выборок . Чтобы получить минимальное значение среднеквадратичной ошибки, ошибка прямого предсказания должна быть ортогональна предыдущим выборкам данных. Это определяет весовые коэффициенты  по предыдущим выборкам данных:

              (5.2)

Операция  обозначает математическое ожидание. Полученное значение ошибки предсказания называют также остатком предсказания или нововведением, когда выбираются коэффициенты таким образом, чтобы получить минимальное значение среднеквадратичной ошибки.

Ошибку обратного предсказания   можно аналогично определить для предсказания  из тех же выборок :

            (5.3)

Здесь коэффициенты  выбираются такими, чтобы они удовлетворяли этому условию. Отметим, что обе ошибки предсказания удовлетворяют одним и тем же условиям ортогональности.

При увеличении порядка предсказания до  ошибка  дает компоненту , которую нельзя предсказать из , . Ошибка - го предсказания использует всю информацию вплоть до , так что теперь следует включить информацию об , которую можно предсказать из . Однако  часть этой информации уже содержалась в . Ошибка обратного

предсказания  представляет новую информацию в выборке . Допустимым результатом рекурсивного метода для  будет приводимая формула (5.4), где скаляр  определяется так, чтобы ошибка  удовлетворяла новым условиям ортогональности:

     (5.4)

Единственное ограничение, которое непосредственно не удовлетворяется, включает  и задается выражениями:

                        (5.5)

Подставляя (5.3) и (5.4) в (5.5), получаем оптимальное значение  для  :

Аналогично найдем результат рекуррентного метода для обратного предиктора:

                (5.7)

и определим оптимальное значение :

                          (5.8)

Для обобщения предсказывающего фильтра на следующий более высокий порядок  необходимо вычислить новые ошибки предсказания  и   по формулам (5.4) и (5.7). Таким образом можно построить предсказывающий фильтр, используя только решетчатую структуру при последовательном увеличении порядка фильтра. Это является свойством каскадной ортогонализации решетчатой структуры, где независимо определяется каждый коэффициент отражения. Для фильтра на линии задержки с отводами (5.2) не удается выполнить такое же каскадное вычисление коэффициентов предсказания. Коэффициенты являются взаимозависимыми и изменяются при увеличении порядка фильтра.

Дальнейшее изучение свойств ошибок предсказания выполнено в работе [214]. Ошибка обратного предсказания получается путем ортогонализации типа Грамм – Шмидта набора версий сигнала с временной задержкой. Это свойство ортогональных переменных делает решетчатую структуру предпочтительной для адаптивной фильтрации. Кроме того, легко определяется уменьшение энергии сигнала после каждого каскада предсказания. Эту особенность можно использовать для масштабирования ошибок предсказания, с целью сохранения хороших расчетных характеристик алгоритма. Ниже суммируются наиболее важные из рассмотренных свойств:

    (5.9)

             (5.10)

            

                           (5.11)

   (5.12)

Когда сигнал  является стационарным и автокорреляционная функция известна, энергии ошибок прямого и обратного предсказания в каждом каскаде идентичны . Тогда два коэффициента отражения равны и симметричная решетчатая структура на базе двух умножителей позволяет рассчитать эти ошибки предсказания с помощью рекурсивного метода. Если принимается допущение о том, что моделируемый сигнал является стационарным, то единственный коэффициент отражения  определяется путем комбинирования оценок выборок данных и . Такой решетчатый фильтр с постоянными коэффициентами является решетчатым фильтром с прямым прохождением сигнала (5.1); он рассмотрен в разд. 5.2. Для нестационарных сигналов адаптивные оценки получаются из коэффициентов отражения, изменяющихся во времени.

Коэффициенты отражения тесно связаны с коэффициентами частной корреляции, обладающими рядом интересных статистических свойств. Функция корреляции между и , после того как исключается их взаимная линейная зависимость .       Это выражение следует из ортогонализирующих свойств решетки. Функцию корреляции после нормировки на дисперсию  и   называют коэффициентом частной корреляции - го порядка. Автокорреляционную функцию стационарного дискретного во времени процесса с единичной дисперсией можно однозначно охарактеризовать последовательностью коэффициентов отражения, меньших или равных 1 [21, 267]. Для любого авторегрессивного (АР) процесса -го порядка коэффициент частной корреляции более высокого порядка с запаздыванием  равен нулю. Для стационарного АР - процесса выборочные оценки коэффициентов частной корреляции являются асимптотически гауссовыми и независимыми (подробнее о статистических свойствах см. в работе [243]).

В таких применениях, как подавление шума или коррекция канала связи, ортогонализирующие свойства решетки представляют первоочередной интерес для достижения быстрого слежения или сходимости (см. разд. 5.6). Ошибки обратного предсказывания   широко используются, так как они представляют собой  результаты ортогонализации Грамм – Шмидта версий серии входных импульсов с различной временной задержкой.



<< ПредыдущаяОглавлениеСледующая >>