18 ЭВОЛЮЦИОННЫЕ АЛГОРИТМЫ: ОЦЕНКА МАТЕМАТИЧЕСКОГО ОЖИДАНИЯ И ДИСПЕРСИИ1 Р.Р. Шарапов2 2 Уральский государственный университет им А.М. Горького, 620083, г. Екатеринбург, ул. Ленина, 51. [email protected] Рассматривается эволюционный алгоритм с элитарной стратегией отбора, произвольной рекомбинацией и мутацией, работающий в конечном пространстве поиска. Для алгоритмов такого типа получена оценка математического ожидания и дисперсии результата работы алгоритма. Для ряда генетических операторов оценка конкретизирована. Введение Эволюционные методы оптимизации получили довольно широкую популярность в последнее время как эффективный и гибкий инструмент глобальной оптимизации. Часто эволюционные методы используют в сочетании с нейронными сетями и нечеткими системами. Данные методы демонстрируют неплохую эффективность и довольно часто используются в задачах распознавания образов и обработки изображений. Эволюционные методы, как это следует из названия, основываются на идее эволюции: пул (популяция) потенциальных решений эволюционирует посредством мутации, скрещивания и отбора лучших особей. При этом особь с большим значение целевой функции (называемой также функцией приспособленности) имеет большие шансы на выживание. Мы рассмотрим подкласс работающих в конечном пространстве поиска X алгоритмов следующей структуры 0. инициализация 1. селекция 2. кроссинговер (скрещивание) 3. мутация 4. формирование нового поколения Шаги 1–4, называемые также генетическими операторами, повторяются до выполнения условий останова. Операторы 1, 2 и 3 (реже 4) носят стохастический характер, как и сам алгоритм. Таким образом, гарантий того, что алгоритм найдет решение, нет. Свойства алгоритмов такого типа хорошо изучены и показано, что при определенных условиях данный алгоритм сходится по вероятности и среднему [1,2]. Здесь мы рассмотрим алгоритм как последовательность случайных величин и оценим их математическое ожидание и дисперсию. Оценка математического ожидания Рассмотрим эволюционный алгоритм в конечном пространстве поиска с изложенной выше структурой. Для получения оценки нам нужно, чтобы оператор мутации обладал следующим свойством: x, y : P(mut ( x) y ) 0 . Т.е. посредством мутации из любого элемента пространства поиска мы можем достичь любого другого элемента с ненулевой вероятностью. Предложим также, что имеет место элитарная стратегия отбора, т.е. лучший элемент из объединения родительской популяции (перед шагом 1) и дочерней (после шага 3) всегда попадает в _____________________________________________________________________________ Работа выполнена при поддержке гранта Президента РФ поддержки ведущих научных школ НШ-5595.2006.1 1 (1) 19 следующее поколение. Это гарантирует нам, что от итерации к итерации результат может только улучшиться. Прежде чем рассмотреть собственно математическое ожидание, докажем следующее простое утверждение: Лемма Для произвольного элемента y и произвольной популяции B, не содержащей y, выполняется: P( y cross ( B)) 1 (1 p c ) n , (2) где 2n – число элементов в популяции B, pc – вероятность скрещивания в паре, cross(B) – популяция после кроссинговера. Доказательство Т.к. пары скрещиваются независимо друг от друга вероятность того, что скрещиваний в парах не будет, равна (1– pc)n. Т.к. y может появиться только в результате скрещивания, то вероятность появления y в популяции, очевидно, не может превышать вероятности скрещивания в популяции (т.е. вероятности того, что в популяции произойдет хотя бы одно скрещивание), которая равна 1–(1– pc)n. Данная лемма легко очевидным образом формулируется и для нечетного числа элементов в популяции, однако, для простоты, здесь и далее мы везде предполагаем, что оно четно и равно 2n, а число пар, соответственно, n. Теорема Если для эволюционного алгоритма с элитарной стратегией отбора справедливо (1), f ≥ 0 на X, то f * Ef k f * (1 S k ) S (1 ) 2 n (1 (1 pc ) n ), (3) где f* – искомый максимум функции f на X, 2n – число особей в популяции, Efk – математическое ожидание результата работы алгоритма на k-ой итерации. Доказательство fk – результат работы алгоритма после k-ой итерации. Очевидно это дискретная случайная величина. Тогда f * Ef k p ki f i f * p k* . i (4) Здесь { fi } = f(X) – множество возможных исходов работы алгоритма, pik вероятность того, что fi результат алгоритма после k-ой итерации. p*k – вероятность нахождения решения на k-ой итерации. Далее пусть Ak – событие, состоящее в том, что на k-ой итерации решение не будет найдено. Очевидно p*k = 1 – P(Ak). Так как имеет место элитарная стратегия отбора, то решение, однажды появившись, исчезнуть уже не может, следовательно P ( Ak ) P ( Ak Ak 1 ) P ( Ak 1 ). (5) Оценим сверху P(Ak | Ak-1). Пусть M – событие, состоящее в том, что после мутации решение не появится, а C – в том, что решение появится после кроссинговера, при условии, что его не было до него. По формуле полной вероятности P( Ak Ak 1 ) P( M C ) P(C ) P( M C ) P(C ) (6) P( M C ) P(C ) P( B C ). По лемме P(C) ≤ 1 – (1 – pc)n. По условию (1) P(mut(x)=y) ≥ δ > 0 для любого y. Соответственно P(mut(x)≠y) ≤ 1 – δ. Т.к. в популяции особи мутируют независимо друг от друга, то для произвольной популяции B выполняется P( y mut( B)) (1 ) 2 n . (7) Если в качестве y положить решение x*, а в качестве B взять популяцию перед мутацией, то получим 20 P( M C ) (1 ) 2 n P( M C ) (1 ) . 2n (8) Подставляя в (6), получаем P( A k A k 1 ) (1 ) 2 n (2 (1 p c ) n ) . (9) Если теперь обозначить правую часть неравенства (6) за S, то из (5) по индукции получаем P( Ak ) S k P( A0 ) S k pk* 1 P( Ak ) 1 S k . Оценка дисперсии Для оценки дисперсии заметим, что при S < 1 справедливо (11) Учитывая то, что Efk2 ≤ f*2, получаем оценку сверху для дисперсии: 2 Df k Ef k2 ( Ef k ) 2 f * S k (2 S k ) . (12) Очевидно, Dfk → 0 при k→ ∞. Примеры оценок Рассмотрим случай побитовой и случайной мутации для эволюционного алгоритма работающего в пространстве бинарных строк фиксированной длины X = {0,1}m. В случае побитовой мутации каждый бит хромосомы мутирует независимо от других с вероятностью pmut. Тогда вероятность мутации равна k P(mut ( x) y ) p mut (1 p mut ) m k , p mut 0. M (15) Заключение Заметим, что из S < 1 следует сходимость по среднему. 2 (14) Таким образом, для побитовой мутации δ = (pmut)m > 0. Случай классического генетического алгоритма с побитовой мутацией и одноточечным кроссинговером подробно разобран в [3]. Случайная мутация предполагает, что с вероятностью pmut исходная особь будет заменена некоторой случайно выбранной особью. Очевидно, что если мощность пространства поиска |X| = M, то (10) Отсюда из (4) получаем (3). ( Ef k ) 2 (1 S k ) 2 f * . k mk m . P(mut ( x) y ) p mut p mut p mut (13) где k – количество несовпадающих бит у x и y (0 ≤ k ≤ m). В предположении, что 0 < pmut ≤ 0.5, получаем Заметим, что рассуждения, примененные для кроссинговера, верны для произвольного генетического оператора, выполняемого с некоторой вероятностью pc. Более того, данный результат легко обобщить на случай последовательности генетических операторов. Другое следствие, непосредственно вытекающее из (3), состоит в том, что наиболее эффективным будет алгоритм вообще без кроссинговера, т.к. min{S | 0 ≤ pc ≤ 1} достигается при pc = 0. В этом случае S = (1 – δ)2n < 1. Несомненный интерес представляет получение подобного рода оценок для эволюционных алгоритмов с континуальным пространством поиска. Список литературы 1. T.E. Davis. Toward an extrapolation of the simulated annealing convergence theory onto the simple genetic algorithm // PhD Thesis, University of Florida, Gainesville, 1991. 2. G. Rudolph. Finite Markov Chain Results in Evolutionary Computation: A Tour d’Horizon // Fundamenta Informaticae. – 1998. – Vol.22, No.1. 3. R.R. Sharapov, A.V. Lapshin. Convergence of genetic algorithms // Pattern Recognition and Image Analysis: Advances in Mathematical Theory and Applications. - 2006. - Vol. 16, No.3. - P. 392-397.