ЕГЭ и ОГЭ
Хочу знать
Читать в оригинале

<< Предыдущая Оглавление Следующая >>


5.7. Метод наименьших квадратов с решеткой, нормированной на корень квадратный

Сложность рекурсивных выражений можно уменьшить, а численные значения переменных улучшить, если переписать решетчатый алгоритм для метода наименьших квадратов через нормированные переменные. Метод наименьших квадратов через нормированные переменные. Метод наименьших квадратов с нормированной по корню квадратному решеткой , разработанный Ли [188], приводит лишь к трем рекурсивным выражениям на порядок для каждой временной выборки, когда все три переменные имеют единичную дисперсию. Переход от РНК – метода к НККРНК – методу требует нормирования   двух видов. Нормирование по дисперсии масштабирует переменные с учетом их собственных дисперсий. Нормирование по оптимальному весовому коэффициенту,  с учетом коэффициента правдоподобия  также необходимо. Здесь кратко представлена разработка НККРНК – метода (более подробно см. в работе [190]).

Прямая и обратная ошибки предсказания после нормировки обозначаются  и  соответственно. Нормирующими коэффициентами будут корни квадратные из дисперсий  и корень квадратный из оптимального весового коэффициента :

         (5.64)

Комбинируя два коэффициента отражения из РНК – алгоритма, можно определить нормированную частную корреляцию  подобно тому, как определяется коэффициент корреляции. Этот единственный параметр является новым коэффициентом отражения:

          (5.65)

Сначала из РНК – алгоритма выведем рекурсивное выражение для коэффициента частной корреляции (5.65). Дисперсии ошибок предсказания (с экспоненциальным весовым коэффициентом ) приводят к рекурсивному выражению для временной корректировки   [см. выражение (5.53)]:

Деля это выражение на  и используя определение для временной корректировки дисперсии, можно связать с новыми переменными и получить соотношение для ошибок прямого и обратного предсказания:

     (5.66)

               (5.67)

Рекурсивное выражение для  корректировки в случае нормированных частных корреляций получают путем подстановки выражения (5.57) для (включая экспоненциальный весовой коэффициент ) в (5.65):

    (5.68)

Первый член можно заменить, согласно определения , а второй член будет :

Используя (5.66) и (5.67), можно упростить новое выражение для временной корректировки в случае нормированной частной корреляции:

             (5.69)

Теперь рекурсивные выражения для решетчатого фильтра можно представить через эти новые переменные.  Рекурсивные выражения корректировки порядка для ошибок прямого предсказания (5.42) можно записать с помощью нормированных коэффициентов частичной корреляции:

            (5.70)

Чтобы упростить данное выражение, необходимо вывести с помощью РНК – метода два уравнения для корректировки порядка: для коэффициента правдоподобия (5.47) и дисперсий ошибки предсказания:

Используя эти соотношения, выражение (5.70) можно привести к простому выражению для нормированных ошибок прямого предсказания, а также получить аналогичное выражение для ошибок обратного предсказания:

  (5.71)

     (5.72)

Теперь мы имеем выражения (5.69), (5.71) и (5.72) – это рекурсивные выражения для решетчатого фильтра; они позволяют вычислить нормированные ошибки предсказания  и , и коэффициенты отражения  для каждого каскада решетки и для каждой выборки данных. Чтобы начать вычисление рекурсивных выражений при величинах дисперсии, равных единице, требуются соответствующие начальные условия.

Коэффициенты отражения, используемые в НККРНК – методе, все еще имеют значения, ограниченные 1, но теперь ошибки предсказания также являются ограниченными. Число рекурсивных выражений для решетчатых фильтров уменьшилось с шести до всего лишь трех на каждую корректировку по времени и порядку. Необходимо выполнить операции извлечения квадратного корня. Это можно эффективно сделать с помощью поразрядных рекурсивных алгоритмов, например CORDIC – метода (обсуждаемого в следующем разделе). Простые рекурсивные выражения и их потенциально лучшие численные значения позволяют отдать предпочтение НККРНК – алгоритму по сравнению с ненормированным РНК – алгоритмом.

Только что развитый НККРНК – метод применяется для экспоненциально взвешенных данных. Однако использование экспоненциального весового коэффициента , входящего в (5.68), в этих рекурсивных выражениях неочевидно. При объединении трех рекурсивных выражений временной корректировки для ,  и  в одно рекурсивное выражение для  влияние   не прослеживается. Когда используется новая выборка данных, экспоненциальный весовой коэффициент применяется для оценки дисперсии выборки. Алгоритм 5.4 (см. ниже), в конечном итоге, приведет к оцениванию по методу наименьших квадратов с решеткой, нормированной на корень квадратный. Во избежание деления на нуль дисперсия выборки  начинается с некоторой величины .

Хотя НККРНК – алгоритм представляет собой очень эффективный и компактный алгоритм, при использовании его могут возникнуть сложности из-за необходимости вычислять квадратные корни. Анализ величины ошибки в фиксированной точке для данного алгоритма [278] показал, что вычисление квадратных корней с помощью арифметики с конечной длиной слова приводит к небольшим смещениям для коэффициентов отражения. В оценке это смещение преобладало над дисперсией ошибки и, обычно, было весьма малым. Смещение возрастало по мере сокращения длины слова или по мере приближения экспоненциального весового коэффициента  к 1.

Алгоритм 5.4. Метод наименьших квадратов с решеткой, нормированной на корень квадратный (НККРНК), при экспоненциально взвешенных скалярных данных.

Входные параметры:

- максимальный порядок решетчатого фильтра,

  - экспоненциальный весовой коэффициент (обычно от 0,98 до 1,0),

  - исходная дисперсия,

  - выборка данных в момент времени .

Переменные:

  - оценка дисперсии ,

  - коэффициент отражения,

  - нормированная ошибка прямого предсказания,

  - нормированная ошибка обратного предсказания,

Начальные данные:

   

   

   

Итерация для каждой выборки данных

Новая выборка данных и предыдущие результаты , , :


Для каждого каскада решетки при  от 0 до :

,

 



<< Предыдущая Оглавление Следующая >>