Читать в оригинале

<< Предыдущая Оглавление Следующая >>


§ 3.21. Связь с байесовским методом

Байесовский метод приводит при конечном числе наблюдений к наилучшим оценкам оптимального вектора  с точки зрения минимума некоторой функции потерь. Это достигается благодаря полному использованию достаточной априорной информации о распределениях и, к сожалению, довольно громоздким вычислениям.

Для отдельных классов распределений критерий оптимальности вида условного математического ожидания можно представить как выборочное среднее, так, что

.    (3.81)

Это равенство справедливо, в частности, для экспоненциальных распределений.

Таким образом, алгоритм адаптации (3.62) одновременно минимизирует условное математическое ожидание (3.81); при этом он является приближенно наилучшим. Если же  — квадратичная функция относительно , то алгоритм становится наилучшим без всяких приближений. Отсюда можно сделать заключение, что при специальном выборе вероятностные итеративные методы в случае квадратичных функций потерь приводят к тем же результатам, что и байесовский. Найденное значение  зависит от всех имеющихся в нашем распоряжении значений векторов , получившихся при конечном числе наблюдений . Заметим, однако, что с ростом размерности вектора  возрастают и вычислительные трудности, зачастую лишающие нас возможности использовать даже современные вычислительные машины с их большой, но все же ограниченной оперативной памятью. Нельзя ли преодолеть эти трудности? Оказывается, можно.

Будем в интервалах между поступлением текущих данных использовать в вероятностных итеративных алгоритмах простые выражения  типа , а необходимое для этих алгоритмов бесконечное число наблюдений заменим периодическим повторением имеющегося в нашем распоряжении конечного числа наблюдений. При этом вероятностные итеративные алгоритмы будут приводить к такой же наилучшей оценке вектора , как и наилучшие алгоритмы при . Разумеется, эта периодизация наблюдений должна вестись в ускоренном масштабе времени так, чтобы успевать определять оценку  внутри каждого интервала между -м и -м наблюдениями.

 



<< Предыдущая Оглавление Следующая >>