5.7. Метод наименьших квадратов с решеткой, нормированной на корень квадратныйСложность рекурсивных выражений можно уменьшить, а численные значения переменных улучшить, если переписать решетчатый алгоритм для метода наименьших квадратов через нормированные переменные. Метод наименьших квадратов через нормированные переменные. Метод наименьших квадратов с нормированной по корню квадратному решеткой , разработанный Ли [188], приводит лишь к трем рекурсивным выражениям на порядок для каждой временной выборки, когда все три переменные имеют единичную дисперсию. Переход от РНК – метода к НККРНК – методу требует нормирования двух видов. Нормирование по дисперсии масштабирует переменные с учетом их собственных дисперсий. Нормирование по оптимальному весовому коэффициенту, с учетом коэффициента правдоподобия также необходимо. Здесь кратко представлена разработка НККРНК – метода (более подробно см. в работе [190]). Прямая и обратная ошибки предсказания после нормировки обозначаются и соответственно. Нормирующими коэффициентами будут корни квадратные из дисперсий и корень квадратный из оптимального весового коэффициента : (5.64) Комбинируя два коэффициента отражения из РНК – алгоритма, можно определить нормированную частную корреляцию подобно тому, как определяется коэффициент корреляции. Этот единственный параметр является новым коэффициентом отражения: (5.65) Сначала из РНК – алгоритма выведем рекурсивное выражение для коэффициента частной корреляции (5.65). Дисперсии ошибок предсказания (с экспоненциальным весовым коэффициентом ) приводят к рекурсивному выражению для временной корректировки [см. выражение (5.53)]: Деля это выражение на и используя определение для временной корректировки дисперсии, можно связать с новыми переменными и получить соотношение для ошибок прямого и обратного предсказания: (5.66) (5.67) Рекурсивное выражение для корректировки в случае нормированных частных корреляций получают путем подстановки выражения (5.57) для (включая экспоненциальный весовой коэффициент ) в (5.65): (5.68) Первый член можно заменить, согласно определения , а второй член будет : Используя (5.66) и (5.67), можно упростить новое выражение для временной корректировки в случае нормированной частной корреляции: (5.69) Теперь рекурсивные выражения для решетчатого фильтра можно представить через эти новые переменные. Рекурсивные выражения корректировки порядка для ошибок прямого предсказания (5.42) можно записать с помощью нормированных коэффициентов частичной корреляции: (5.70) Чтобы упростить данное выражение, необходимо вывести с помощью РНК – метода два уравнения для корректировки порядка: для коэффициента правдоподобия (5.47) и дисперсий ошибки предсказания: Используя эти соотношения, выражение (5.70) можно привести к простому выражению для нормированных ошибок прямого предсказания, а также получить аналогичное выражение для ошибок обратного предсказания: (5.71) (5.72) Теперь мы имеем выражения (5.69), (5.71) и (5.72) – это рекурсивные выражения для решетчатого фильтра; они позволяют вычислить нормированные ошибки предсказания и , и коэффициенты отражения для каждого каскада решетки и для каждой выборки данных. Чтобы начать вычисление рекурсивных выражений при величинах дисперсии, равных единице, требуются соответствующие начальные условия. Коэффициенты отражения, используемые в НККРНК – методе, все еще имеют значения, ограниченные 1, но теперь ошибки предсказания также являются ограниченными. Число рекурсивных выражений для решетчатых фильтров уменьшилось с шести до всего лишь трех на каждую корректировку по времени и порядку. Необходимо выполнить операции извлечения квадратного корня. Это можно эффективно сделать с помощью поразрядных рекурсивных алгоритмов, например CORDIC – метода (обсуждаемого в следующем разделе). Простые рекурсивные выражения и их потенциально лучшие численные значения позволяют отдать предпочтение НККРНК – алгоритму по сравнению с ненормированным РНК – алгоритмом. Только что развитый НККРНК – метод применяется для экспоненциально взвешенных данных. Однако использование экспоненциального весового коэффициента , входящего в (5.68), в этих рекурсивных выражениях неочевидно. При объединении трех рекурсивных выражений временной корректировки для , и в одно рекурсивное выражение для влияние не прослеживается. Когда используется новая выборка данных, экспоненциальный весовой коэффициент применяется для оценки дисперсии выборки. Алгоритм 5.4 (см. ниже), в конечном итоге, приведет к оцениванию по методу наименьших квадратов с решеткой, нормированной на корень квадратный. Во избежание деления на нуль дисперсия выборки начинается с некоторой величины . Хотя НККРНК – алгоритм представляет собой очень эффективный и компактный алгоритм, при использовании его могут возникнуть сложности из-за необходимости вычислять квадратные корни. Анализ величины ошибки в фиксированной точке для данного алгоритма [278] показал, что вычисление квадратных корней с помощью арифметики с конечной длиной слова приводит к небольшим смещениям для коэффициентов отражения. В оценке это смещение преобладало над дисперсией ошибки и, обычно, было весьма малым. Смещение возрастало по мере сокращения длины слова или по мере приближения экспоненциального весового коэффициента к 1. Алгоритм 5.4. Метод наименьших квадратов с решеткой, нормированной на корень квадратный (НККРНК), при экспоненциально взвешенных скалярных данных. Входные параметры: - максимальный порядок решетчатого фильтра, - экспоненциальный весовой коэффициент (обычно от 0,98 до 1,0), - исходная дисперсия, - выборка данных в момент времени . Переменные: - оценка дисперсии , - коэффициент отражения, - нормированная ошибка прямого предсказания, - нормированная ошибка обратного предсказания, Начальные данные:
Итерация для каждой выборки данных Новая выборка данных и предыдущие результаты , , :
Для каждого каскада решетки при от 0 до : ,
|