Хеш-функция на основе векторного персептрона.

advertisement
Труды
V
Всероссийской
научно-технической
"НЕЙРОИНФОРМАТИКА-2003", ч.1, с.211.
конференции
Б.В.КРЫЖАНОВСКИЙ, В.М.КРЫЖАНОВСКИЙ
Институт оптико-нейронных технологий РАН, Москва
Московский инженерно-физический институт
iont@iont.ru , kryzhanov@mail.ru
ХЕШ-ФУНКЦИЯ НА ОСНОВЕ ВЕКТОРНОГО
ПЕРСЕПТРОНА*
Аннотация
В данной работе предлагается простой алгоритм, позволяющий
производить быстрый ассоциативный поиск изображения по его ключу
при наличии больших искажений. В работах [1-3] описана
параметрическая нейросеть, обладающая большой емкостью памяти и
способностью восстанавливать вектор при большом искажении.
Предложенная в данной работе схема векторного персептрона
базируется на результатах, полученных [1-3].
Постановка задачи
Имеется множество N-мерных векторов X  , каждому вектору из
 
этого множества поставлен в соответствие однозначным образом ключ
(идентификатор -  ). По искаженному образу необходимо
восстановить ключ, по которому впоследствии однозначно
 

определяется вектор X  , где X   {x 1 , x  2 ,..., x N } , (=1,2,…,M),
xj - некоторый единичный вектор направленных вдоль одного из ортвекторов q-мерного векторного пространства, задающий состояние j-го
нейрона.
Решающий эту задачу персептрон, представлен на рис.1. Он
состоит из двух слоев нейронов, где каждый нейрон входного слоя
связан со всеми нейронами выходного слоя. Алгоритм его работы
реализован следующим образом.
Работа выполнена при финансовой поддержке ОИТВС РАН (проект
ОИТВС-01 № 1.8).
*
N

1. Суть алгоритма:
Для каждого образа X  генерируется дополнительный вектор
 

Y  ( y 1 , y  2 ,..., y n ) , число компонент которого n  [log qM ]  1
достаточно для кодировки ключа данного образа: последовательность
номеров орт-векторов q-мерного векторного пространства, вдоль
 

y 1 , y  2 ,..., y n , есть
которых направлены единичные векторы
число μ в q-ичной записи. Иными словами Y  есть кодировка номера
μ.

Формируем
новый,
векторов { X  } размерности
модифицированный,
(N+n)
по
правилу
набор
«конкатенации»
 
  

X   {x1 , x 2 ,..., xN , y 1 , y  2 ,..., y n } , 1    M
 На основе полученных векторов строим векторную нейросеть
(рис.1), состоящую из (N+n) нейронов с q состояниями [3], где веса
синоптических межсвязей вычисляются по обобщенному правилу
Хебба:
M
 
Tij   y i x j ,
1 i  n, 1 j  N ,
 1
где

x j - вектор-строка, а величина межсвязи Tij между i-м и j-м
нейронами не скаляр, как в обычной модели Хопфилда, а qq матрица.
2. Поиск идентификатора
 Пусть на вход сети подается некий образ
 

Z  ( z1 , z 2 ,..., z N ) ,
представляющий из себя искаженный вариант некоторого m-го
эталонного паттерна X m .
 Для каждого i-го выходного нейрона считаем локальное поле со
стороны нейронов входного слоя:
N


ˆ z
hi  h0i   T
ij j
j 1
,

1 M 
h0i    x i , 1  i  n
q  1
 Под воздействием локального поля i-й выходной нейрон
ориентируется вдоль орта, направление которого наиболее близко
направлению внешнего поля. При этом, восстанавливается
кодирующий выходной вектор Ym .

Обозначим через
a k номер орта, вдоль которого направлен

вектор y k . Тогда номер эталона, искажением которого является
вектор Z, определится выражением m 
1 r
 ak q k .
q 1
Вероятность того, что номер m вектора определен неверно, задается
выражением
Pn
 Nq 2

M
exp  
(1  b) 2 
N
 4M

где b – параметр шума, т.е. вероятность того, что i-я компонента
входного вектора искажена.
Число образов, которые можно записать при заданных параметрах
(величине искажений b и ошибке распознавания P0)
M
Nq 2 (1  b) 2
q 2 (1  b)
2 ln(
)
P0
Как известно, быстрый поиск при наличии больших искажений
(зашумленности) входных данных крайне затруднен. Одним из
вариантов решения этой задачи является применение векторного
персептрона.
Список литературы:
1. Б.В.Крыжановский, А.Л.Микаэлян. ”О распознающей способности нейросети на
нейронах с параметрическим преобразованием частот ”. Доклады АН, сер. мат.физика, т.
383, №3, с.318-321, 2002.
2. B.V.Kryzhanovsky, V.M.Kryzhanovsky, A.L.Mikaelian and A.Fonarev. “Parametric
dynamic neural network recognition power". Optical Memory&Neural Network, Vol. 10, №4,
pp.211-218 (2001).
3. Б.В.Крыжановский,
А.Л.Микаэлян.
”Ассоциативная
память,
способная
распознавать сильно скоррелированные образы ”. Доклады АН, информатика, т 390, №1,
с.27-31, 2003.
4. Б.В. Крыжановский, В.М. Крыжановский. Распознавание коррелированных
образов с помощью векторной нейросети. Сборник трудов II-й международной
конференции «Интегрированные модели и мягкие вычисления в искусственном
интеллекте», с.321-327, Коломна-2003.
Download