Читать в оригинале

<< ПредыдущаяОглавлениеСледующая >>


3.3.4. Обучающая кривая

Как упоминалось в разд. 3.1. дисперсия сигнала на выходе фильтра часто используется в качестве меры его рабочей характеристики. Рассмотрим дисперсию выходного сигнала и ее влияние на итеративное вычисление вектора коэффициентов. Из выражений (3.46), (3.58) и (3.63) немедленно следует

             (3.85)

Было показано, что элементы  экспоненциально стремятся к нулю с постоянными времени, задаваемыми формулой (3.68). Поскольку функция  включает сумму квадратов элементов , она будет экспоненциально уменьшаться со скоростью, в 2 раза превышающей скорость затухания . Иначе говоря, постоянные времени, связанные с , будут равны  половине постоянных времени, связанных с . Следовательно, постоянна времени, связанная с - ой модой, равна:

          (3.86)

Кривую зависимости  от числа итераций в литературе называют «обучающей кривой». Кривая начинается с

            (3.87)

и спадает до конечного значения

           (3.88)

В алгоритме МНК истинная дисперсия на выходе будет больше, чем предсказанная формулой (3.85), из-за «шумовых свойств» вектора ошибки коэффициентов . Из (3.49) и того факта, что  и  не коррелированы, следует:

        (3.89)

Подставляя их асимптотическую ковариацию ошибки из (3.84) в (3.89), получаем

            (3.90)

Используя терминологию, введенную в литературе по адаптивной фильтрации, определим коэффициент расстройки :

                 (3.91)

Эта формула хорошо работает для малых величин расстройки , так как для ее справедливости необходимо, чтобы вектор был достаточно близок к оптимальному значению . Для стационарного входного сигнала всегда можно достичь малой расстройки, выбрав достаточно малые величины .

Напомним, что коэффициент расстройки алгоритма РНК определяется как  [см. (3.50)]. Коэффициент расстройки для алгоритма МНК задается величиной  [см. (3.91)].

Можно составить два алгоритма для работы с одинаковыми коэффициентами расстройки, выбрав такие параметры и , чтобы . Если входной сигнал нормирован так, что его дисперсия равна единице, мы получаем . Данная формула полезна для сравнения характеристик этих двух алгоритмов.

Для расчета полезно выразить коэффициент расстройки через порядок фильтра и скорость адаптации. Отметим, например, что

            (3.92)

где - среднее значение характеристических чисел ковариационной матрицы. Из (3.86) следует

          (3.93)

где  - среднее значение характеристических чисел ковариационной матрицы. Из (3.86) следует

              (3.94)

получаем,

   (3.95)       

Таким образом,

                  (3.96)

Эта формула связывает коэффициент расстройки со средним временем установления обучающей кривой и числом коэффициентов фильтра.

Еще одно расчетное ограничение, которое необходимо учитывать, связано с устойчивостью разностного уравнения (3.80) или эквивалентного детерминированного уравнения (3.62). Для обеспечения устойчивости матрицы необходимо, чтобы . Чтобы избавиться от вычисления характеристических чисел ковариационной матрицы выборок, на практике часто пользуются следующим эмпирическим правилом:

   (3.97)

Это условие следует из того, что для положительно определенных матриц:

              (3.98)

и, следовательно, величина  гарантирует, что . Если использовать (3.97), то  можно легко вычислить (при величине , оцененной по входному сигналу).

Как и в детерминированном случае [см. (3.69)], скорость сходимости лежит в пределах разброса характеристических чисел ковариационной матрицы данных.

 



<< ПредыдущаяОглавлениеСледующая >>