§ 4.10. Алгоритмы восстановленияДля определения перепишем (4.51) в виде (4.52) и будем рассматривать (4.52) как уравнение относительно . Применим к нему алгоритм обучения. Тогда получим . (4.53) Этот алгоритм при выполнении условий сходимости (3.34), взятых для одномерного случая, при определяет искомое значение , а следовательно, и — с вероятностью единица. Алгоритм (4.53), позволяющий определять также и моменты при специальном выборе , реализуется в виде одномерных линейных импульсных систем с переменными коэффициентами. Одна из таких систем изображена на рис. 4.8 (для -й компоненты). Общая схема устройства для определения по данным наблюдения изображена на рис. 4.9. Рис. 4.8. Рис. 4.9. Если данные поступают непрерывно, то при выполнении условия стационарности можно воспользоваться непрерывным алгоритмом (3.28). Тогда вместо (4.53) получим . (4.54) Схема, реализующая этот алгоритм, отличается от изображенной на рис. 4.9 лишь тем, что дискретные интеграторы (диграторы) заменяются непрерывными. Можно показать, используя результаты §§ 3.16—3.17,что выбор является оптимальным для алгоритма типа (4.53) с точки зрения минимума дисперсии оценки при любом фиксированном значении . Для непрерывного алгоритма типа (4.54) оптимальным является зависимость . Вместо алгоритмов (4.53) и (4.54) можно также воспользоваться модифицированными алгоритмами с оператором усреднения типа (3.42) , (4.55) и аналогично . (4.56) Схема, реализующая эти алгоритмы, приведена на рис. 4.10. Она отличается от предыдущих наличием дополнительного интегратора. Другая интерпретация основных и модифицированных алгоритмов будет дана в § 5.6. Рис. 4.10. В модифицированном алгоритме (4.55) выбор является оптимальным с точки зрения минимума суммы дисперсии оценки и взвешенной первой разности, т. е. с точки зрения минимума функционала типа (3.50) . (4.57)
|