Приложение П7.5. Точная функция правдоподобия для процесса авторегрессииПоложим, что данный ряд
причем временно предполагается, что
из-за обратимости общего процесса матрица
где
Для фиксированных с единичным якобианом. Отсюда имеем
Кроме того,
Тогда
где
Кроме того,
где Пусть
Тогда
и элементы
и после приравнивания элементов двух матриц имеем
Продолжая действовать таким же образом, для процессов порядка 1 и 2 находим Например, для
что совпадает с результатом (П7.4.15). Эта процедура должна привести к матрицам Из (П7.5.4) очевидно, что
Запишем теперь
Рассмотрение (П7.5.4) показывает, что элементы
где сумма Наконец, мы можем записать точное выражение для плотности вероятности и, следовательно, для функции правдоподобия:
где
и логарифмическая функция правдоподобия равна
Оценки максимального правдоподобия. Дифференцируя по
где
Отсюда можно получить оценки максимального правдоподобия - для этого надо приравнять все производные нулю и решить получающиеся уравнения. Из (П7.5.11) сразу получаем
Оценки 1) Оценки наименьших квадратов. В то время как математическое ожидание Если мы пренебрежем влиянием этого члена, то
и оценки
которые в очевидных матричных обозначениях можно записать как
так что
Эти оценки наименьших квадратов максимизируют апостериорную плотность вероятности (7.4.15). 2) Приближенные оценки максимального правдоподобия. Вспомним полученный ранее результат (3.2.3), который можно записать в виде
Беря математические ожидания от обеих частей (П7.5.12) и пользуясь тем, что
Умножив (П7.5.16) на
Далее, используя
Подставляя эту оценку в (П7.5.12), находим
что ведет к системе линейных уравнений в форме (П7.5.15), в которых вместо
3) Оценки Юла-Уокера. Наконец, если Это хорошо известные уравнения Юла—Уокера. В матричных обозначениях (7.3.1) их можно записать как
что соответствует уравнению (3.2.7), в котором Чтобы продемонстрировать различия трех оценок, рассмотрим случай
Приближение (1) полностью игнорирует слагаемое
Приближение (2) соответствует подстановке вместо
Приближение (3) заменяет числитель и знаменатель этой дроби стандартными выборочными оценками автоковариаций (2.1.10), что дает
Обычно, как и в этом примере, для не слишком малых выборок различия между оценками, получаемыми путем разных приближений, малы. Как правило, мы пользуемся оценками наименьших квадратов из приближения (1). Эти оценки можно, конечно, вычислить и прямо по (П7.5.15). Однако, предполагая возможность расчетов на ЭВМ, вряд ли стоит рассматривать отдельно процессы авторегрессии; мы нашли, что более просто, даже в случае подгонки процессов авторегрессии, пользоваться общим итеративным алгоритмом, описанным в разд. 7.2.1, позволяющим находить оценки наименьших квадратов для любого процесса АРСС. Оценки
Выполнив умножение в правой части и учтя, что
Легко показать, что
что согласуется с результатом (3.2.8). Сходные выражения для Информационная матрица. Дифференцируя (П7.5.11) и (П7.5.18) второй раз, получим
Далее, так как
отсюда следует, что для средних и больших выборок и
где
Далее, пользуясь (П7.5.21в), получим
Отсюда
Дисперсии и ковариации выборочных оценок параметров авторегрессии. При условиях, подробно рассмотренных в [87], матрица, обратная информационной, является асимптотической матрицей ковариации оценок максимального правдоподобия (МП). Более того, если логарифмическая функция правдоподобия приближенно квадратична и ее максимум не близок к границе, даже для выборки средних размеров элементы этой матрицы хорошо аппроксимируют дисперсии и ковариации оценок. Пользуясь (П7.5.22) и (П7.5.20б), находим
В частности, для процессов авторегрессии первого и второго порядков
Оценки дисперсий и ковариаций можно получить, заменив в (П7.5.24) параметры их выборочными оценками. Например, подставив
Распространение результатов для авторегрессий на более общие процессы. Имеется интересное соотношение, позволяющее нам распространить результаты оценивания для моделей авторегрессии на более общие модели. Пусть наблюдения генерируются моделью АРСС
где
Пусть
Заменив неизвестные предварительные значения нулями, мы можем использовать это выражение для генерирования соответствующего ряда
Такой выбор параметров показывает, что
и, следовательно,
или с хорошей степенью приближения при малых
Соответствующая функция правдоподобия имеет вид
Для средних и больших выборок приближения на концах ряда не будут оказывать существенного влияния; функция правдоподобия мала для больших
Немедленно получаем следующие результаты. 1) Положим, что информационная матрица для параметров
есть равна
где матрица разбита на части после
2) На рассмотренном уровне приближения отсюда следует, что определители информационных матриц для процессов АРСС 3) Так как для средних и больших выборок матрица, обратная информационной, является хорошим приближением к ковариационной матрице параметров
4) Запишем теперь
Тогда, пользуясь (П7.5.22), находим
Кроме того,
где
— якобиан преобразования. Процессы скользящего среднего; дисперсии и ковариаций оценок МП. Легко показать, что для больших выборок ковариационная матрица оценок МП чистого процесса скользящего среднего точно такая же, как для чистого процесса авторегрессии того же порядка. Тогда, согласно (П7.5.24), для процессов скользящего среднего первого и второго порядков имеем
Смешанные процессы авторегрессии — скользящего среднего; дисперсии и ковариаций оценок МП. Для того чтобы проиллюстрировать, как используется (П7.5.31), рассмотрим процесс АРСС
который мы сопоставим с процессом
Матрица ковариаций для
Отсюда соответствующие дисперсии и ковариации для процесса АРСС
|