Читать в оригинале

<< ПредыдущаяОглавлениеСледующая >>


§ 3.4. Вероятностные итеративные методы

Вероятностные итеративные методы тесло связаны с методом стохастической аппроксимации, который, несмотря па свое совершеннолетие и большую популярность в статистической журнальной литературе, долгое время не находил себе настоящего применения для решения технических задач.

Для того чтобы изложить идею вероятностных итеративных методов, обратимся к условию оптимальности (2.2), которое с учетом (3.1) теперь можно записать в более подробной и удобной для нас форме:

,                 (3.2)

где

  (3.3)

представляет собой градиент  по .

В (3.2) нам неизвестен градиент функционала, т. е. , а известны лишь реализации. Оказывается, что при надлежащем выборе матрицы  мы можем воспользоваться многими разновидностями регулярных методов, заменив в них градиент функционала  реализациями . И этом как раз и заключена центральная идея вероятностных итеративных методов. Таким образом, вероятностный алгоритм оптимизации, или, более кратко, алгоритм адаптации, можно представить в рекуррентной форме:

                 (3.4)

Алгоритмы адаптации можно представить в разностной форме

,                    (3.5)

либо в суммарной форме

.           (3.6)

Легко видеть аналогию между регулярными алгоритмами (2.4), (2.7), (2.8) и вероятностными алгоритмами (3.4), (3.5), (3.6). Но в то же время они существенно отличаются друг от друга хотя бы тем, что теперь при

.                                                  (3.7)

Из-за этой особенности приходится наложить определённые условия на характер , чтобы обеспечить сходимость. Речь об этих условиях пойдет ниже.

Сейчас же мы, рассматривая алгоритмы адаптации (3.4) — (3.6) как уравнения некоторой дискретной системы с обратной связью, построим ее структурную схему.

Рис. 3.1.

Она изображена на рис. 3.1 и отличается от структурной схемы, соответствующей регулярному алгоритму оптимизации (рис. 2.1), тем, что теперь, помимо воздействия  к функциональному преобразователю приложено внешнее воздействие . При адаптации мы получаем уже неавтономную систему, в которую извне поступает информация о сигнале . Обработка этой текущей информации и позволяет компенсировать недостаточность априорной информации.

 



<< ПредыдущаяОглавлениеСледующая >>