Читать в оригинале

<< ПредыдущаяОглавлениеСледующая >>


Приложение П5.3. Прогнозирование при помощи общего проинтегрированного представления

П5.3.1. Общий метод получения проинтегрированного представления

Подчеркнем еще раз, что для практического вычисления прогнозов использование разностного уравнения — наиболее простой путь. Нижеследующее общее рассмотрение проинтегрированного представления нужно, чтобы совершенствовать уже полученные прогнозы. В этом рассмотрении вместо того, чтобы получить явное выражение для функции прогноза, как мы делали в примерах из разд. 5.4, будет удобнее выписать общее выражение для эвентуальной прогнозирующей функции, включающее  подстраиваемых коэффициентов. Мы затем покажем, как нужно изменять эвентуальную прогнозирующую функцию, чтобы получать первые  прогнозов при  В завершение будет показано, как корректировать подстраиваемые коэффициенты при переходе от момента   к моменту  .

Поскольку очевидно, что  для   то, используя рассуждения об условных математических ожиданиях в разд. 5.1.2, легко прийти к разностному уравнению для прогнозов

(П5.3.1)

Эвентуальная прогнозирующая функция — это решение последнего уравнения и может быть представлена как

            (П5.3.2)

Когда эвентуальная прогнозирующая функция дает прогнозы  ... для всех упреждений

Как пример такой модели с  рассмотрим

так что  и Тогда

где  действует теперь на , а не на . Решение этого разностного уравнения дает функцию прогноза

Если  то для упреждения  прогнозирующая функция будет иметь дополнительные члены, содержащие . Отсюда

            (П5.3.3)

где  и  можно выразить явно, подставив (П5.3.3) в (П5.3.1). Например, рассмотрим стохастическую модель

в которой  и   Пользуясь рекуррентным соотношением (5.2.3), получаем  Далее, из (П5.3.3) следует

                                            (П5.2.3)

Кроме того, (П5.3.1) дает

          

 так что из (П5.3.4) имеем

и, следовательно,  Аналогично из (П5.3.1)

и отсюда, пользуясь (П5.3.4), имеем

что приводит к

Следовательно, прогнозирующая функция будет

П5.3.2. Коррекция общего проинтегрированного представления

Коррекцию формул для коэффициентов можно осуществить, используя тождество (5.2.5) с  замененным на

Тогда для

                     (П5.3.5)

Решив  таких уравнений для разных , получим требуемую формулу для коррекции в виде

Заметим, что коррекция каждого коэффициента функции прогноза зависит только от ошибки прогноза на один шаг  В качестве примера рассмотрим опять стохастическую модель

В разд. П5.3.1 было показано, что прогнозирующая функция для этого примера равна

Удобно использовать тождество коррекции (П5.3.5) для частных значений  Пользуясь рекуррентным соотношением (5.2.3), получаем веса  для этих значений:  Отсюда, используя (П5.3.5), получаем матричное уравнение

Первые три уравнения легко решить относительно а четвертое и пятое — относительно  Окончательное решение будет

что дает требуемую формулу коррекции для каждого из 5 коэффициентов

П5.3.3. Сравнение с методом взвешенных наименьших квадратов Брауна

Хотя проинтегрированное представление приводит к усложнению вычисления прогнозов, оно позволяет нам сравнить рассмотренный здесь прогноз с наименьшей среднеквадратичной ошибкой с другим достаточно известным типом прогноза. Запишем

Тогда, пользуясь (П5.3.5) для  получим для

что дает

или

                                                       (П5.3.6)

Это выражение имеет ту же алгебраическую форму, что и корректирующая функция, предлагаемая в методике «взвешенных наименьших квадратов» Брауна [2, 50]. Для сравнения, если мы обозначим ошибку прогноза, даваемую этим методом, ,  то формулу коррекции Брауна можно записать в виде

                                                        (П5.3.7)

где  — вектор настраиваемых коэффициентов. Та же матрица  появляется в (П5.3.6) и (П5.3.7). Это неизбежно, так как первый множитель просто учитывает изменения в коэффициентах, возникающие при переходе к новому начальному моменту, и должен появиться в любой формуле такого типа. Рассмотрим, например, функцию прогноза в виде прямой линии

где  — ордината в момент  начала прогноза Можно также записать

где  — теперь ордината в момент . Очевидно, если мы корректируем прогноз в момент  коэффициент  должен быть соответствующим образом подправлен, даже если бы функция прогноза осталась неизменной.

В общем матрица  не изменяет прогнозирующую функцию, а просто перемещает ее. Истинная корректировка производится вектором коэффициентов  или . Далее мы увидим, что коэффициенты , дающие прогнозы с минимальной среднеквадратичной ошибкой, и коэффициенты  Брауна в общем полностью отличны друг от друга.

Метод прогнозирования Брауна

1) Прогнозирующая функция выбирается из общего класса линейных комбинаций и произведений полиномов, экспонент, синусов и косинусов.

2) Выбранная прогнозирующая функция подгоняется к прошлым значениям при помощи методики «взвешенных наименьших квадратов». В этой методике коэффициенты оцениваются и корректируются так, что минимизируется сумма

                                                         (П5.3.8)

взвешенных квадратов расхождения прошлых значений ряда и значений, даваемых для соответствующих времен в прошлом прогнозирующей функцией. Весовая функция  выбирается произвольно, так чтобы она спадала по степенному закону  где константа , обычно называемая константой сглаживания, выбирается равной опять-таки произвольному значению в диапазоне 0,1—0,3.

Различие между прогнозами с минимальной среднеквадратичной ошибкой и прогнозами Брауна.

Чтобы проиллюстрировать эти замечания, рассмотрим прогнозирование цен акций IВМ, обсуждавшееся Брауном [2, стр. 141]. В этом исследовании он использовал квадратичную модель, которая в обозначениях этой книги может быть представлена как

Он применил к этой модели свой метод «взвешенных наименьших квадратов», чтобы предсказать биржевые цены на три дня вперед. Результаты, полученные его методом, показаны для участка ряда IВМ на рис. П5.2, где они сравниваются с прогнозами с минимальной среднеквадратичной ошибкой.

Метод «взвешенных наименьших квадратов» можно подвергнуть критике на следующих основаниях:

1) Вид прогнозирующей функции должен определяться оператором авторегрессии  стохастической модели, а не выбираться произвольно. В частности, его нельзя уверенно выбрать в результате визуального просмотра ряда. Рассмотрим, например, биржевые цены акций IBM на рис. П5.2. Видно, что квадратичная функция может быть использована для подгонок коротких участков этого ряда к уже имеющимся значениям. Если бы такая подгонка имела отношение к прогнозированию, мы могли бы заключить, как и сделал Браун, что прогнозирующая функция должна быть полиномом второй степени.

Наиболее общий линейный процесс, для которого квадратичная функция давала бы прогнозы с наименьшей среднеквадратичной ошибкой при любом упреждении определяется моделью (0,3,3)

которая на основании тех же рассуждений, что и в разд. 4.3.3, может быть представлена в виде

Однако в гл. 7 будет показано, что если правильно подогнать эту модель, оценки ее параметров, полученные методом наименьших квадратов, окажутся равными  и  Отсюда с , близкими к нулю, будет подходящей стохастической моделью, и соответствующий прогнозирующий полином будет , т.е. нулевой, а не второй степени по .

2) Выбор весовой функции , в (П5.3.8) должен также определяться стохастической моделью, а не быть произвольным. Метод «взвешенных наименьших квадратов» будет давать прогнозы с минимальной среднеквадратичной ошибкой только в очень частном случае, когда

а) процесс имел порядок (0,1,1), так что

б) подгонялся полином нулевой степени;

в) константа сглаживания  была принята равной нашему .

Рис. П5 2. Ряд биржевых цен акций IВМ; сравнение с прогнозом на три шага вперед, основанным на лучшей модели ПСС (0,1,1), к квадратичным

прогнозом Брауна для периода, начинающегося 11 июля 1960 г.: а — квадратичный прогноз Брауна, б — прогноз с минимальной среднеквадратичной ошибкой.

1 — данные; 2 — прогнозы на три шага вперед.

В данном примере, даже если бы была выбрана правильная степень полинома (нуль), значение , используемое Брауном, оказалось бы весьма не подходящим к случаю. Правильное значение  для этого ряда близко к единице.

3) Методика экспоненциально взвешенных наименьших квадратов вынуждает все коэффициентов в корректирующем векторе  быть функциями одного сглаживающего параметра . Фактически же они должны быть функциями  независимых параметров .

Итак, различия между двумя методами нетривиальны, и интересно сравнить на данных IBM, как они действуют. Прогноз с минимальной среднеквадратичной ошибкой равен  с корректировкой   где . Если взять  точно равным единице, это эквивалентно использованию

                                           ,

т. е. лучший прогноз цен акций для всех будущих моментов времени есть текущая цена. Идея, что биржевые цены ведут себя так, конечно, не нова и восходит к Бейгельеру [51]. При , что свидетельствует, что  — случайное блуждание.

Для сопоставления прогноза с минимальной среднеквадратичной ошибкой (СКО) с квадратичными прогнозами Брауна было проведено прямое сравнение на базе ряда цен акций IBM за период с 11 июля 1960 г. по 10 февраля 1961 г. (150 наблюдений). Для этого участка ряда прогноз с минимальной СКО был получен для модели , или . На рис. П5.2 показаны прогнозы с минимальной СКО для упреждения 3 и соответствующие значения квадратичного прогноза Брауна. Видно, что прогнозы с минимальной СКО, которые, по существу, эквивалентны использованию сегодняшней цены для предсказания цены на 3 дня вперед, значительно лучше, чем полученные с помощью существенно более сложной методики Брауна.

Среднеквадратичные ошибки прогноза при разных упреждениях, вычисленные прямым сравнением значений ряда и их прогнозов с упреждением , показаны в табл. П5.3 для двух типов прогнозов. Видно, что квадратичные прогнозы Брауна имеют значительно большие среднеквадратичные ошибки, чем прогнозы, полученные методом минимальной среднеквадратичной ошибки.

Таблица П5.3. Сравнение среднеквадратичных ошибок прогнозов, полученных при различных упреждениях, по наилучшему из процессов ПСС(0,1,1) и по методике Брауна

Упреждение

1

2

3

4

5

6

7

8

9

10

СКО (Браун)

102

158

218

256

363

452

554

669

799

944

СКО

42

91

136

180

282

266

317

371

427

483



<< ПредыдущаяОглавлениеСледующая >>