М.В. БУРАКОВ ГЕНЕТИЧЕСКОЕ КОНСТРУИРОВАНИЕ НЕЙРОНЕЧЕТКИХ СИСТЕМ

реклама
ISBN 5-7262-0634-7. НЕЙРОИНФОРМАТИКА – 2006. Часть 3
М.В. БУРАКОВ
Санкт-Петербургский государственный
университет аэрокосмического приборостроения
[email protected]
ГЕНЕТИЧЕСКОЕ КОНСТРУИРОВАНИЕ
НЕЙРОНЕЧЕТКИХ СИСТЕМ
Аннотация
В докладе рассматриваются особенности использования генетического
алгоритма при настройке нейронечетких регуляторов для управления динамическими объектами.
Генетический алгоритм (ГА) является предметно независимым инструментом глобальной оптимизации, эффективность которого хорошо
известна и для решения задач параметрической настройки нейронных
сетей (НС) ([1 – 4] и др.).
Использование ГА предполагает, что параметры НС (обычно это веса
межнейронных связей) кодируются цепочкой битов – хромосомой.
Совокупность хромосом образует популяцию. Первоначальная генерация популяции осуществляется случайным образом в исследуемой области решений. После этого начинается циклическая работа ГА. На первом
шаге происходит тестирование всех по очереди хромосом популяции, после чего каждая хромосома получает фиксированный на данном шаге
признак – относительную пригодность (ОП) (англ. fitness function). В соответствии с выбранной стратегией хромосомы копируются в будущую
популяцию на основании своих значений ОП.
Операция отбора (копирования) является первой генетической операцией. Затем используются генетические операторы скрещивания и мутации. Как известно, операция скрещивания позволяет выйти на субоптимальное решение в рамках некоторой достаточно ограниченной области
поиска, в то время как операция мутации позволяет выполнять пробные
шаги в разных точках всего пространства поиска.
Существует достаточно большое количество исследований, посвященных вариантам выполнения операций отбора, скрещивания и мутации.
Однако очевидно, что эффективная работа ГА невозможна без правильного расчета ОП хромосом. Во многих практических задачах такая проблема
не возникает, но в задаче генетического обучения нейронного регулятора
(НР) она может иметь критическое значение [5].
УДК 004.032.26(06) Нейронные сети
43
ISBN 5-7262-0634-7. НЕЙРОИНФОРМАТИКА – 2006. Часть 3
Использование ГА при синтезе НР предполагает, что каждому варианту параметров НР соответствует своя хромосома. Для оценки ОП i-й хромосомы необходимо знать, какой переходный процесс Xi(t) ей соответствует. При обычном размере популяции в сотни и тысячи хромосом требуется очень большое количество экспериментов, что делает необходимым использование имитационной модели (ИМ) объекта. При этом возникает две фундаментальные проблемы:
 ИМ должна быть достаточно быстрой, иначе нехватка вычислительных ресурсов дискредитирует использование ГА;
 при расчете ОП хромосом нужно учитывать неизбежное неполное
несоответствие ИМ и объекта.
Эти проблемы взаимосвязаны, потому что чем точнее описание объекта, тем меньше быстродействие модели и наоборот. Проблема неполного
соответствия объекта и модели будет возникать, естественно, и при
управлении в реальном времени.
Основоположник теории нечетких множеств Л. Заде подчеркивал, что
требования к точности описания объекта управления могут быть снижены
за счет повышения интеллектуальности системы управления [6]. Нечеткие
регуляторы являются примером подобного подхода. Однако генетическое
обучение классических нечетких регуляторов сопряжено с некоторыми
проблемами, которых нет при обучении НР (см. [5]).
Учитывая сделанные замечания, совершенно естественным представляется переход от НР к нейронечеткому регулятору (ННР). В ННР один
нейрон используется для представления одного нечеткого правила. Пусть
нечеткое правило имеет вид:
Если (x1=w1*)и(x2=w2*)и…(xn=wn*), то u=v1*,
где w1*, w2* ,…wn* – термы лингвистических переменных (ЛП), описывающих посылки правила, v* – терм ЛП заключения.
Если использовать для представления термов гауссову функцию (ГФ),
то правило можно представить как нейрон с n входами (рис. 1).
Входные сигналы xi преобразуются в нечеткую форму, образуя центры
ГФ, описывающих функции принадлежности μi(x):

1
2
 xi  x   ,
 2

i ( x)  exp 
(1)
где параметр β отвечает за ширину «окна» ГФ.
УДК 004.032.26(06) Нейронные сети
44
ISBN 5-7262-0634-7. НЕЙРОИНФОРМАТИКА – 2006. Часть 3
x1
w1*
x1*
α1
w1
x2
w2*
x2*
w2
xn
xn*
u*
αmin
α2
αmin,
u*
v
wn* αn
wn
Рис. 1. Нейронное представление нечеткого правила
Аналогично преобразуются в нечеткую форму веса wi и v.
Степень соответствия посылки и заключения описывается формулой:
 i  sup xi*  wi* .
(2)
x
НС для реализации ННР должна быть двухслойной, задача второго
слоя заключается в выполнении функции дефаззификации – вычисления
совместного действия всех правил [7].
Если считать, что ширина ГФ β не меняется в процессе обучения, то
НС на рис. 1 описывается таким же набором параметров, что и обычная
НС прямого распространения: wi соответствуют весу входа, а v – параметр
активационной функции. Второй слой в процессе обучения не участвует,
поэтому можно сказать, что хромосома имеет одинаковый вид при генетическом обучении как НР, так и ННР.
Основное преимущество использования ННР по отношению к НР заключается в том, что ННР сохраняет такие полезные свойства нечеткого
регулятора как естественную адаптивность и слабую чувствительность к
помехам. Степень запуска правила αmin зависит от сходства ситуации поУДК 004.032.26(06) Нейронные сети
45
ISBN 5-7262-0634-7. НЕЙРОИНФОРМАТИКА – 2006. Часть 3
ступившей от объекта – {x1, x2, …xn} и эталонной ситуации {w1, w2, … wn}.
Изменяя β, можно обобщать или, наоборот, конкретизировать условия
срабатывания правил.
При генетическом обучении ННР возникает сходная задача оценки
сходства эталонной и реальной траекторий с целью определения ОП хромосомы. Нечеткое описание и здесь может быть использовано для построения простого и эффективного алгоритма оценки ОП.
Рассмотрим задачу обучения НР (или ННР) подробнее. В простейшем
случае, когда объект управления одномерный, имеется эталонный переходный процесс Z(t), описывающий реакцию на типовое входное воздействие, и заданный совокупностью точек, соответствующих n моментам
времени: z1, z2, … zn.
НР включается в цепь обратной связи по ошибке управления. Если параметры НР выбраны правильно, то реальный переходный процесс X(t),
заданный точками x1, x2, … xn , будет с достаточной степенью точности
соответствовать Z(t):
n
z
i 1
i
 xi   ,
где ε – малая величина.
Однако при генетическом обучении НР количественные оценки, основанные только на использовании функций расстояния, малоэффективны.
Известно, что задача вычисления сходства кривых на плоскости требует
анализа их качественного соответствия [9]. На начальной стадии обучения
все хромосомы могут быть одинаково далеки от оптимума.
Рассмотрим, как могут быть построены нечеткие оценки ОП хромосом. Основная идея предлагаемого подхода заключается в переходе из
пространства состояний объекта в нечеткое фазовое пространство.
Преобразуем каждое значение xj в нечеткое число. Для этого можно,
следуя рис. 1, рассматривать xj как центр ГФ, определяющей функцию
принадлежности (рис. 2, где Ti(x) – функция принадлежности).
Совокупность xi* может рассматриваться в качестве термов лингвистической переменной (ЛП) Li с названием, соответствующим координате x:
Tz(Li)={ zi*, zi*,… zi*}
Ti(x
)
1
УДК 004.032.26(06)
xn-1* x3* Нейронные
x1* xn*сети
x2*
46
ISBN 5-7262-0634-7. НЕЙРОИНФОРМАТИКА – 2006. Часть 3
Рис. 2. Фаззификация выхода модели
Таким же образом можно построить ЛП, описывающую эталонный
процесс:
Tx(Li)={ xi*, xi*,… xi*}
Степень сходства этих двух ЛП можно оценить формулой, аналогичной формуле расчета уровня активации нечеткого правила (2):
1  min sup xi*  zi*  .
i

x

(3)
Если объект имеет k выходных координат, то формула (3) обобщается:
   min  j ,
j
j  1, k .
(4)
И тогда эта величина может быть использована в качестве значения
ОП хромосомы.
Таким образом, ОП хромосомы изменяется в пределах от 0 до 1. Значение 0 означает полное несоответствие, а значение 1 – полное соответствие реальной и желаемой траектории.
В соответствии с (1), изменяя β можно менять чувствительность ОП –
чем больше значение этого параметра, тем больше хромосом могут иметь
высокие оценки ОП. В начале процесса обучения можно устанавливать
большое значение β, позволяя многим хромосомам участвовать в отборе.
По мере развития популяции можно постепенно уменьшать β. Можно
УДК 004.032.26(06) Нейронные сети
47
ISBN 5-7262-0634-7. НЕЙРОИНФОРМАТИКА – 2006. Часть 3
также рассматривать нечеткое сходство для приращений Δx1, Δx2,… Δxn и
Δz1, Δz2,… Δzn.
Нечеткие оценки ОП призваны направлять генетический поиск в перспективные области пространства параметров. Если все хромосомы имеют в соответствии с (4) нулевое значение ОП, то использовать количественные оценки и генетические операции бессмысленно – лучше выполнить новую инициализацию популяции.
Симбиоз НС и нечетких правил обычно обосновывается тем, что поведение НС получает в этом случае семантическое описание, а нечеткая система становится способной к обучению. Однако, еще одно, возможно –
более важное, достоинство ННР заключается в возможности учитывать
неопределенность, возникающую при сравнении эталонных ситуаций и
реального поведения объекта управления. Такая же неопределенность
должна быть учтена и при генетическом обучении ННР.
Описанные подходы к организации генетического обучения НР и ННР
были апробированы при исследовании процессов управления реальными
сложными объектами [9 – 11].
Список литературы
1. Holland J. Adaptation in Natural and Artificial Systems: An Introductory Analysis with
application to Biology, Control and Artificial Intelligence. - University of Michigan Press, 1975.
2. Goldberg D.E. Genetic Algorithms in Search, Optimization and Machine Learning. Addison-Wesley, Reading, MA. 1989.
3. Скурихин А.Н. Генетические алгоритмы // Новости искусственного интеллекта, №4,
1995. С. 6-46.
4. Бураков М.В. Синтез нейронного регулятора // Изв. Академии наук. Теория и системы управления, 1999, №3. С. 140-145.
5. Бураков М.В., Коновалов А.С. Проектирование нейронных и нечетких регуляторов с
помощью генетического алгоритма //В кн. Управление в условиях неопределенности. Под
ред. Городецкого А.Е. / С.–Петербург, издательство СПбГТУ, 2002, 399 с.
6. Zadeh L.A. The Concept of a Linguistic Variable and Its Application to Approximate Reasoning, Information Sciences, Part 1, 8 (1975), 199-249; Part 2, 8 (1975), 301-357; Part 3 8 (1975),
43-80.
7. Gupta M.M., Rao D.H. On the principles of fuzzy neural networks // Fuzzy Sets and Systems, vol. 61, 1984, p. 1-18.
8. R.O. Duda, P.E. Hart. Pattern classification and scene analysis. New York, 1973.
9. Бураков М.В., Коновалов А.С. Нейронечеткие системы управления // Информационно-управляющие системы, №1, 2002г., с. 2-7.
10. Бураков М.В. Структура нейронечеткого регулятора // Изв. Академии наук. Теория и
системы управления, 2001, №6. с. 160-165.
11. Бураков М.В., Коновалов А.С., Шумилов П.Е. Интеллектуальные системы авиационной антиюзовой автоматики. СПб: Изд-во политехнического университета, 2005. 242 с.
УДК 004.032.26(06) Нейронные сети
48
Скачать