§ 4.4. Общие алгоритмы обученияПрежде всего уточним вид аппроксимирующей функции. Напомним, что выбор аппроксимирующей функции не произволен, а связан с ограничениями первого рода. Довольно широкий круг задач можно охватить, приняв, что
или
где Подставляя (4.6) в функционал (4.4), получаем
Поскольку функционал (4.7) явно неизвестен, то минимум В рассматриваемом случае
Применяя алгоритм адаптации (3.9) и принимая
Этот алгоритм, который уместно назвать алгоритмом обучения, и определяет при Алгоритм обучения (4.9) можно представить и в несколько иной форме. Обозначим
и
Умножая обе части (4.9) скалярно на
Принципиально иные алгоритмы можно получить на основании алгоритма адаптации поискового типа (3.15). В этом случае
где оценка градиента
а векторы Вряд ли стоит использовать поисковый алгоритм обучения, если функция В ряде случаев может оказаться удобным использовать непрерывные алгоритмы обучения, например алгоритмы вида
Смысл этого алгоритма удобнее будет пояснить несколько позже на конкретном примере.
|