3.3.4. Обучающая криваяКак упоминалось в разд. 3.1. дисперсия сигнала на выходе фильтра часто используется в качестве меры его рабочей характеристики. Рассмотрим дисперсию выходного сигнала и ее влияние на итеративное вычисление вектора коэффициентов. Из выражений (3.46), (3.58) и (3.63) немедленно следует (3.85) Было показано, что элементы экспоненциально стремятся к нулю с постоянными времени, задаваемыми формулой (3.68). Поскольку функция включает сумму квадратов элементов , она будет экспоненциально уменьшаться со скоростью, в 2 раза превышающей скорость затухания . Иначе говоря, постоянные времени, связанные с , будут равны половине постоянных времени, связанных с . Следовательно, постоянна времени, связанная с - ой модой, равна: (3.86) Кривую зависимости от числа итераций в литературе называют «обучающей кривой». Кривая начинается с (3.87) и спадает до конечного значения (3.88) В алгоритме МНК истинная дисперсия на выходе будет больше, чем предсказанная формулой (3.85), из-за «шумовых свойств» вектора ошибки коэффициентов . Из (3.49) и того факта, что и не коррелированы, следует: (3.89) Подставляя их асимптотическую ковариацию ошибки из (3.84) в (3.89), получаем (3.90) Используя терминологию, введенную в литературе по адаптивной фильтрации, определим коэффициент расстройки : (3.91) Эта формула хорошо работает для малых величин расстройки , так как для ее справедливости необходимо, чтобы вектор был достаточно близок к оптимальному значению . Для стационарного входного сигнала всегда можно достичь малой расстройки, выбрав достаточно малые величины . Напомним, что коэффициент расстройки алгоритма РНК определяется как [см. (3.50)]. Коэффициент расстройки для алгоритма МНК задается величиной [см. (3.91)]. Можно составить два алгоритма для работы с одинаковыми коэффициентами расстройки, выбрав такие параметры и , чтобы . Если входной сигнал нормирован так, что его дисперсия равна единице, мы получаем . Данная формула полезна для сравнения характеристик этих двух алгоритмов. Для расчета полезно выразить коэффициент расстройки через порядок фильтра и скорость адаптации. Отметим, например, что (3.92) где - среднее значение характеристических чисел ковариационной матрицы. Из (3.86) следует (3.93) где - среднее значение характеристических чисел ковариационной матрицы. Из (3.86) следует (3.94) получаем, (3.95) Таким образом, (3.96) Эта формула связывает коэффициент расстройки со средним временем установления обучающей кривой и числом коэффициентов фильтра. Еще одно расчетное ограничение, которое необходимо учитывать, связано с устойчивостью разностного уравнения (3.80) или эквивалентного детерминированного уравнения (3.62). Для обеспечения устойчивости матрицы необходимо, чтобы . Чтобы избавиться от вычисления характеристических чисел ковариационной матрицы выборок, на практике часто пользуются следующим эмпирическим правилом: (3.97) Это условие следует из того, что для положительно определенных матриц: (3.98) и, следовательно, величина гарантирует, что . Если использовать (3.97), то можно легко вычислить (при величине , оцененной по входному сигналу). Как и в детерминированном случае [см. (3.69)], скорость сходимости лежит в пределах разброса характеристических чисел ковариационной матрицы данных.
|