§ 3.21. Связь с байесовским методомБайесовский метод приводит при конечном числе наблюдений к наилучшим оценкам оптимального вектора с точки зрения минимума некоторой функции потерь. Это достигается благодаря полному использованию достаточной априорной информации о распределениях и, к сожалению, довольно громоздким вычислениям. Для отдельных классов распределений критерий оптимальности вида условного математического ожидания можно представить как выборочное среднее, так, что . (3.81) Это равенство справедливо, в частности, для экспоненциальных распределений. Таким образом, алгоритм адаптации (3.62) одновременно минимизирует условное математическое ожидание (3.81); при этом он является приближенно наилучшим. Если же — квадратичная функция относительно , то алгоритм становится наилучшим без всяких приближений. Отсюда можно сделать заключение, что при специальном выборе вероятностные итеративные методы в случае квадратичных функций потерь приводят к тем же результатам, что и байесовский. Найденное значение зависит от всех имеющихся в нашем распоряжении значений векторов , получившихся при конечном числе наблюдений . Заметим, однако, что с ростом размерности вектора возрастают и вычислительные трудности, зачастую лишающие нас возможности использовать даже современные вычислительные машины с их большой, но все же ограниченной оперативной памятью. Нельзя ли преодолеть эти трудности? Оказывается, можно. Будем в интервалах между поступлением текущих данных использовать в вероятностных итеративных алгоритмах простые выражения типа , а необходимое для этих алгоритмов бесконечное число наблюдений заменим периодическим повторением имеющегося в нашем распоряжении конечного числа наблюдений. При этом вероятностные итеративные алгоритмы будут приводить к такой же наилучшей оценке вектора , как и наилучшие алгоритмы при . Разумеется, эта периодизация наблюдений должна вестись в ускоренном масштабе времени так, чтобы успевать определять оценку внутри каждого интервала между -м и -м наблюдениями.
|