Читать в оригинале

<< Предыдущая Оглавление Следующая >>


5.4.2. Фаза обучения на основе самоорганизации

Этап 1. Фиксация функций принадлежности. До настоящего момента при формировании структуры модуля управления мы исходили из того, что должны быть известны (хотя бы в первом приближении) как функции принадлежности нечетких множеств, так и связанные с ними нечеткие правила. Только на основе этих знаний могла быть создана структура с начальными функциями принадлежности и с базой правил, реализованной в виде связей элементов нейронной сети. Цель обучения заключалась только в оптимальной адаптации функций принадлежности для того, чтобы погрешность на выходе модуля нечеткого управления оказалась минимальной.

Займемся решением первой проблемы - первичным подбором функций принадлежности. Для того чтобы начать обучение, необходимо выбрать способ разделения каждого пространства входных и выходных переменных. Другими словами, для каждой лингвистической переменной (например, «температура») необходимо задать ее словесные значения (например, «низкая», «средняя», «высокая»), которые становятся названиями нечетких множеств, а также определить размещение и структуру соответствующих им функций принадлежности. Конечно, можно воспользоваться одним из рассмотренных ранее методов, в частности, разместить функции принадлежности с учетом знаний и интуиции экспертов либо распределить их просто равномерно.

При наличии обучающих данных в виде пар  в случае фиксации количества нечетких множеств можно воспользоваться одним из методов обучения на основе самоорганизации, подобных статистическому группированию (statistical clustering). Речь идет о таком размещении центров функций принадлежности, чтобы они охватывали только те области входных и выходных пространств, в которых находятся данные. Для достижения этой цели можно применять хорошо известные методы конкурентного обучения (competitive learning) [6-8,17]

Допустим, что ищутся центры функций принадлежности нечетких множеств, соответствующих -й переменной , для которой количество словесных значений (и, следовательно, количество функций принадлежности) равно . Первоначально все центры можно разместить равномерно по всему пространству значений конкретной входной переменной. После этого необходимо определить, какой центр лежит ближе всего к заданному значению  посредством выражения

,              (5.54)

где  обозначает искомый ближайший центр, а  - номер очередного шага ( соответствует начальному размещению). Очередное значение центра можно найти по адаптивной формуле

,             (5.55)

где  - монотонно убывающий коэффициент, управляющий скоростью обучения. Остальные центры остаются неизменными.

 для .                 (5.56)

Для каждой лингвистической переменной выполняется независимое обучение по представленному алгоритму.

После нахождения центров функций принадлежности можно перейти к вычислению их ширины. Для этого воспользуемся определением понятия соседство, точнее - методом « ближайших соседей», с помощью которого будем минимизировать относительно искомого параметра  функцию [10]

,            (5.57)

где  - параметр, определяющий степень наложения функций. Поскольку на второй фазе обучения будут устанавливаться оптимальные значения как центров, так и ширины функций принадлежности, то можно ограничиться нахождением «первого ближайшего соседства» и использовать для расчета  выражение

.                   (5.58)

Этап 2. Формирование структуры. Прежде чем приступить к построению правил, следует сформировать предварительную структуру необходимой для этого сети. На рис. 5.28 представлена примерная схема подобной системы. По сравнению со структурами, которые рассматривались ранее, в ней модифицированы элементы третьего и четвертого слоев: в процессе построения правил они будут передавать сигнал в обратном направлении - к предыдущим слоям. Направление распространения сигнала показано стрелками.

343.jpg

Рис. 5.28. Структура модуля нечеткого управления на этапе построения правил.

Перейдем теперь к подробному обсуждению каждого из четырех слоев. Функционирование подобных модулей управления достаточно полно рассматривалось в предыдущих разделах, поэтому описание общих вопросов будет сведено к минимуму.

Слой L1. Каждый элемент соответствует одной функции принадлежности. На выходах узлов вырабатывается информация о степени принадлежности данной входной переменной к нечеткому множеству. Например, если в качестве функции принадлежности используется функция Гаусса, то на выходе этого слоя получаем

.                    (5.59)

Существенное значение имеет исходное количество элементов в слое (т.е. количество функций принадлежности, соответствующих каждому входу), а также начальное размещение и форма этих функций, определяемые параметрами  и . Используются значения, найденные на предыдущем этапе.

Следует обратить внимание на тот факт, что функции единичного узла (элемента слоя) может также выполнять простая нейронная сеть, которая после обучения в режиме оффлайн способна отображать функции принадлежности любой сложности (см. разд. 5.5).

Слой L2. На выходах этого слоя мы получаем степень активности правил, определяемую как минимальное из значений степеней принадлежности, рассчитанных на выходе слоя L1. Слой L2 решает задачу подбора условий (суждений) для соответствующих нечетких правил. Каждый узел интерпретируется как условие отдельного правила, имеющее вид

IF  это  AND  это  ... AND  это  THEN ...

Количество элементов в слое равно количеству правил. Они должны выполнять нечеткую операцию AND, поэтому может использоваться, например, оператор типа минимум. Конкретные элементы слоя L2 должны быть связаны с теми выходами слоя L1, которые относятся к нечетким множествам, учитываемым в данном правиле. Если правила не известны, то оба слоя соединяются так, чтобы получить все возможные комбинации. В результате мы получаем в слое L2  элементов, где ,  - количество нечетких множеств для -й лингвистической переменной.

Слой L3. В процессе построения правил этот слой передает сигналы в обратном направлении (см. обозначения на рис. 5.28). Элементы слоя реализуют функции принадлежности нечетких множеств, соответствующих заключениям конкретных правил. Вначале все элементы слоя L2 соединяются со всеми элементами слоя L3, т.е. образуются все возможные соединения суждений правил с их заключениями. Это означает, что выводы правил еще не определены. В процессе обучения суммарное количество связей уменьшается. Остаются лишь те связи, которые соответствуют правильным суждениям и заключениям, образующим базу правил. Таким образом, формируется окончательная структура модуля нечеткого управления.

Слой L4. Элемент этого слоя также передает сигнал в обратном направлении. Он вводит в сеть эталонный сигнал.

Этап 3. Фиксация нечетких правил. Задача этого этапа заключается в построении корректных нечетких правил на основе обучающих данных с использованием выполненного на первом этапе разделения входного и выходного пространств, а также предварительного выбора формы функций принадлежности. Данные в сеть будут поступать с обеих сторон, т.е. к элементам первого и последнего слоев с последующим их двунаправленным распространением через L1 и L2 с одной стороны и через L3 и L4 - с другой. Выходы второго слоя - это степени активности правил, а выходные сигналы третьего слоя  задают степени принадлежности эталонного сигнала к нечетким множествам, присутствующим в заключениях правил. Корректные соединения выходов слоев L2 и L3 (т.е. условий и выводов правил) можно установить с использованием так называемого алгоритма на основе конкуренции (competitive learning algorithm). Как уже отмечалось, вначале в третьем слое устанавливаются все возможные соединения. Обозначим   вес связи между -м элементом слоя L2 и -м элементом слоя L3. Для его актуализации применяется зависимость [10]

,               (5.60)

где  обозначает степень активности -го правила.

Этап 4. Исключение правил. По завершении обучения веса связей третьего слоя определяют существование заключений соответствующих правил. Если некоторый элемент слоя L2 связан с различными элементами слоя L3, то выбирается не более одного соединения с наибольшим весом, а остальные исключаются. Таким образом, конкретному условию правила ставится в соответствие только одно заключение. В случае, когда веса всех связей пренебрежимо малы, они все исключаются и считается, что данное правило не оказывает существенное влияние на выходную переменную. Если в результате исключаются все связи между некоторым элементом слоя L2 и слоем L3, то можно исключить и этот элемент, поскольку он не оказывает воздействие на выходной сигнал.

Этап 5. Объединение правил. После построения заключений правил можно перейти к фазе уменьшения их количества путем объединения. Конкретные правила (точнее, их условия) отображаются элементами второго слоя. Для объединения элементов слоя L2 могут применяться следующие критерии:

1) правила имеют одинаковое заключение,

2) некоторые условия правил совпадают;

3) некоторые условия правил образуют полное множество названий значения какой-либо лингвистической переменной.

Если какое-либо множество элементов слоя L2 удовлетворяет всем этим критериям, то его можно заменить единственным элементом. Пример иллюстрируется на рис. 5.29.

345.jpg

Рис. 5.29. Пример объединения элементов слоя L2.

Очевидно, что формируемые таким образом правила могут верифицироваться экспертом. Этот этап может быть пропущен; если база правил известна, то задача эксперта будет заключаться в формировании начальных функций принадлежности и в установлении связей, обусловленных этими правилами.

 



<< Предыдущая Оглавление Следующая >>