138001_lection4

реклама
Методы обработки и
распознавания изображений
Раздел 4
Лекция 7.
Методы распознавания изображений с
использованием искусственных нейронных
сетей
Лектор – проф. Тропченко А.Ю.
Схема процесса распознавания
Цели и задачи работы
изображений
Схема процесса поиска при
Цели и задачи работы
распознавания изображений
Алгоритм ввода данных в систему
Цели и задачи
работы
автоматического
распознавания
изображений
Основные задачи, решаемые с
Цели и задачи работы
помощью нейронной сети
Строение биологического нейрона
Цели и задачи работы
Кибернетическая модель нейрона
Цели и задачи работы
Кибернетическая модель нейрона
Цели
и задачиописание)
работы
(математическое
Информация, поступающая на вход нейрона,
суммируется с учетом весовых коэффициентов сигналов:
где w0 – сдвиг (порог, смещение) нейрона
Сдвиг обычно интерпретируется как связь, исходящая от элемента,
активность которого всегда равна 1.Для удобства входной вектор расширяется
добавлением этого сигнала до
х = (1,х0,...,xn) и порог w0 вносится под знак суммы:
Кибернетическая модель нейрона
Цели
и задачиописание)
работы
(математическое
Пороговая функция пропускает информацию,
если алгебраическая сумма входных сигналов
превышает некоторую постоянную величину Р*:
Определенным компромиссом между линейной и ступенчатой функциями
является сигмоидальная функция активации :
Y = 1/(1+exp(-kP))
Функции переноса искусственных нейронов
Цели и задачи работы
а) линейная;
б) ступенчатая;
в) сигмоидальная.
Архитектура искусственных нейронных сетей
Цели и задачи работы
Персептрон Розенблатта.
Архитектура искусственных нейронных сетей
Цели и задачи работы
Персептрон Розенблатта.
Число входов сети определяет размерность пространства,
из которого выбираются входные данные:
для двух признаков пространство оказывается двумерным,
для трех – трехмерным, а для m признаков – m-мерным.
Если прямая или гиперплоскость в пространстве
входных данных может разделить все образцы на соответствующие им классы,
то проблема является линейной, в противном случае – нелинейной.
На рисунке показаны множества точек на плоскости
а) граница линейная,
б) нелинейная.
Схема многослойного персептрона
Цели и задачи работы
Для решения нелинейных проблем предназначены
модели многослойных персептронов (MLP),
способные строить ломаную границу между распознаваемыми образами.
Классификация нейронных сетей
Цели и задачи работы
Многослойные нейронные сети
Цели и задачи работы
Архитектура многослойной нейронной сети и её применение для распознавания изображений.
Нейрон с максимальной активностью (здесь первый) указывает
принадлежность к распознанному классу
Обучение многослойной нейронной сети
Цели и задачи работы
Обучаются МНС при помощи алгоритма обратного распространения ошибки,
являющегося разновидностью градиентного спуска в пространстве весов с целью
минимизации суммарной ошибки сети:
dE
W  
dW
,
1
2
E  (yj  tj)
2 j
где tj – эталонное значение выходов сети
Одними из главных проблем МНС являются следующие:
1. Проблема локального минимума, которая заключается в том,
что при итерационном спуске может наступить момент,
когда решение заходит в локальный минимум,
из которого вследствие малой величины шага не может выбраться.
2. Выбор архитектуры сети (количество нейронов, слоёв, характер связей).
С этим также связана проблема переобучения, которая заключается в том,
что сеть с избыточным числом элементов теряет обобщающую способность и
хорошо работает только на тренировочной выборке.
3. Выбор шага (скорости) обучения, связанная с тем, что при малом шаге время обучения
будет большим и сеть может зависать в локальных минимумах,
а при больших шагах возможно расхождение процесса обучения или паралич сети.
Применение МНС для решения задач распознавания
(по коэффициентам ДКП)
Цели и задачи работы
Для распознавания может быть использовано двумерное ДКП
дискретное косинусное преобразование (ДКП):
Двумерное обратное косинусное преобразование:
,
Дискретное преобразование Хартли:
Hk   X ^ m cas 2km / N 
m

Вычисление ДКП через ДПХ:

c^ k  H k cosk / 2 N   sink / 2 N   H N  k cosk / 2 N   sink / 2 N  / 2
где k = [1,...,N-1], причем c^ 0  H 0 .
Применение МНС для решения задач распознавания
(По коэффициентам ДКП)
Цели и задачи работы
•
,
Использовались первые 25-35 коэффициентов ДКП изображения размером 92х112
пикселов (из10304, т.е. около 0.2% от общего количества коэффициентов) и
двухслойная нейронная сеть. Коэффициенты выбирались двумя способами. В первом
способе брались первые коэффициенты из левого верхнего угла матрицы
коэффициентов, ограниченного диагональю. Во втором способе выбирались
коэффициенты, которые давали наименьшую погрешность реконструкции
изображения. Разница в точности при этом была неразличима.
Применение МНС для решения задач распознавания
по методу главных компонент
Цели и задачи работы
•
,
Суть метода главных компонент заключается в получении максимально
декореллированных коэффициентов, характеризующих входные образы. Такие
коэффициенты называются главными компонентами и используются для
статистического сжатия и реконструкции изображений. При этом небольшое число
коэффициентов используется для представления всего образа. Каждое изображение
разлагается на линейную комбинацию собственных векторов. Для набора изображений
лиц собственные векторы могут быть представлены в виде изображений, такие
изображения похожи на лица и называются собственными лицами (eigenfaces). Сумма
собственных векторов, умноженных на соответствующие им главные компоненты,
представляет собой реконструкцию изображения.
Применение МНС для решения задач распознавания
по методу главных компонент
Цели и задачи работы
Собственные лица (eigenfaces)
,
Архитектура рециркуляционной сети для извлечения
главных компонент
Цели и задачи работы
•
•
•
,
НС содним скрытым слоем, содержащим m нейронов, число которых много меньше,
чем размерность изображения (m<<n) и обученная по методу обратного
распространения ошибки восстанавливать на выходе изображение, поданное на вход,
формирует на выходе скрытых нейронов коэффициенты первых m главных компонент,
которые и используются для сравнения изображений. Такая НС называется
рециркуляционной.
Достоинства рециркуляционной сети для извлечения
главных компонент
Цели и задачи работы
Преимущества применения РНС
,
для извлечения главных компонент перед решением матричных уравнений:
алгоритм обучения РНС прост и универсален;
нелинейная активационная функция позволяет точнее реконструировать изображение;
при решении матричных уравнений возможны проблемы, если объекты похожи друг на друга,
РНС лишена такого недостатка;
не требуется вычислять все собственные векторы. Таким образом, время обучения сети
линейно зависит
от количества извлекаемых главных компонент;
для предварительных экспериментов можно использовать меньшее число
обучающих циклов, что снижает время обучения.
Достоинства рециркуляционной сети для извлечения
главных компонент
Цели и задачи работы
Преимущества применения РНС
,
для извлечения главных компонент перед решением матричных уравнений:
алгоритм обучения РНС прост и универсален;
нелинейная активационная функция позволяет точнее реконструировать изображение;
при решении матричных уравнений возможны проблемы, если объекты похожи друг на друга,
РНС лишена такого недостатка;
не требуется вычислять все собственные векторы. Таким образом, время обучения сети
линейно зависит
от количества извлекаемых главных компонент;
для предварительных экспериментов можно использовать меньшее число
обучающих циклов, что снижает время обучения.
Методы обработки и
распознавания изображений
Лекция 8.
Методы распознавания изображений с
использованием искусственных нейронных
сетей
Лектор – проф. Тропченко А.Ю.
Нейронные сети высокого порядка.
Цели иМоментные
задачи работы
НС
Нейронные сети высокого порядка (НСВП, по-английски – High Order Neural
Network)
отличаются от МНС тем, что у них только один слой, но на входы нейронов
поступают
так же термы высокого порядка, являющиеся произведением двух или более
компонент
входного вектора, например для сетей второго порядка:
n
n
n
S   wi xi   wij xi x j  T
i 1
i 1 j 1
Радиально-базисные нейронные сети
Цели и задачи работы
Радиально-базисные нейронные сети (РБНС, по-английски – Radial Basis Function
Network, RBF) состоят из двух слоёв,
 S2
Первый слой имеет радиально-базисную активационную функцию:
y  exp(
)
2 2
S определяется как расстояние между входным и весовым вектором:
S 2 | X  W |2   ( xi  wi ) 2
i
Топологически упорядоченное
Цели
и задачи
работы
преобразование
пространства
Векторные квантователи и самоорганизующиеся карты Кохонена
(Self-Organizing Maps, SOM) используются для сжатия данных и
извлечения ключевых характеристик. Так же они служат основой для
радиально-базисных сетей и когнитронов.
Активным считается нейрон, имеющий наибольшее выходное
значение:
Веса такого нейрона изменяются в сторону
T
S j  wij xi  W j X
соответствия входному вектору, например

i
Правило модификации весов
W j (t  1)  W j (t )   (t )( X  W j (t ))
W j (t  1)  W j (t )   (t )h(t , i, j )( X  W j (t ))
Вводится функция соседства h, убывающая с расстоянием между нейронами
 i j2 

h(t , i, j )  exp 
 2 2 (t ) 


Пример применения карт Кохонена для уменьшения
размеров участков изображений
Цели и задачи работы
Слева – топографическая карта
участков изображений
до обучения,
справа – после обучения.
Отклики нейронной сети.
1 – наиболее вероятное положение глаза
, 2 – менее вероятные места расположения (шумы)
Структура когнитрона
Цели и задачи работы
Главные отличия когнитрона - каждый нейрон связан только с локальной областью
предыдущего слоя, и такие области перекрываются друг с другом.
Слоёв в когнитроне больше, чем в сетях других типов.
Таким образом достигается иерархическая организация, когда на высших слоях
когнитрон реагирует на более абстрактные образы,
меньше реагирует на их смещение и искажение.
Обучается когнитрон конкурентным обучением (без учителя).
Неокогнитрон
Цели и задачи работы
Главное отличие неокогнитрона от когнитрона – двумерная организация
локальных участков и плоскостная иерархическая структура
Последовательность
использования неокогнитрона
Первоначальное обучение
неокогнитрона
Последующее
использование
неокогнитрона в качестве
распознавателя
- Сравнительно большие вычислительные затраты
- Выполняется редко
- Может не включатся в функциональность конечной
реализации
- Вычислительные затраты невелики
- Распознаватель может включатся в иные
алгоритмы распознавания
Затраты ресурсов компьютера на этапах
использования неокогнитрона
Этап использования неокогнитрона
Ресурс
Обучение
Распознавание
Время
выполнения
Порядка
нескольких
дней
Около секунды на
одно изображение
Память
компьютера
До нескольких
сотен
мегабайт
До десяти мегабайт
Последовательность обучения
неокогнитрона
Подготовка входного набора изображений
Послойное обучение неокогнитрона (без учителя)
Обучение последнего (классифицирующего)
слоя неокогнитрона (с учителем)
Проверка неокогнитрона на всём обучающем множестве
нет
Достигнута заданная
точность?
да
Формирование компактного представления
конфигурации нейросети и сохранение
параметров в файле
Расчёт откликов нейронов в
неокогнитроне
Отклик нейронов первого слоя (выделение контраста)
Отклик нейронов S-слоёв
Отклик тормозящих нейронов
Структура неокогнитрона
Четырёхуровневая структура неокогнитрона
(из статьи К. Фукушимы)
Связи между нейронами соседних уровней
Инвариантность неокогнитрона.
Дополнительные символы
Инвариантность неокогнитрона.
Зашумление
Инвариантность неокогнитрона.
Искажение
Инвариантность неокогнитрона.
Смещение
Сверточная нейронная сеть
Цели и задачи работы
Архитектура свёрточной НС основывается на принципах архитектуры неокогнитрона,
упрощённого и дополненного обучением алгоритмом обратного распространения ошибки.
Схема системы распознавания личности человека по
изображению его лица
Цели и задачи работы
Схема системы распознавания личности человека по
изображению его лица
Цели и задачи работы
Первый метод – создание вектора данных из набора
отсчетов в локальном окне изображения.
Второй метод - создание локального шаблона ,
т.е. выходного вектора как разности яркости между центральным
и всеми другими пикселями в квадратном окне.
Архитектура системы распознавания личности по
портрету
Цели и задачи работы
Применение ИНС для классификации по заранее
Целиизвлеченным
и задачи
работы
признакам
Метод собственных фильтров для распознавания лица
Задача анализа главных компонент –
выбрать базис пространства
u=(u1, u2, …, uk) так,
чтобы вариация (дисперсия)
проекции была минимальной.
Минимум этой функции достигается
решением задачи на
собственные значения
Ru =λu
Метод сравнения эластичных графов на основе
вейвлетов Габора
Цели и задачи работы
В результате преобразования Габора спектральная плоскость
разбивается на
m частотных и n ориентационных диапазонов:
ĝij(ω)= exp(-½(ω-ωij)t RjΣij-l (ω-ωij))…
ωij - вейвлет, соответствующий (i,j) ориентации и масштабу,
где 1≤i≤m, 1≤j≤n,
Rj – матрица поворота, а Σij – диагональная матрица
Метод сравнения эластичных графов на основе
вейвлетов Габора
Цели и задачи работы
Фильтры Габора и результат их применения выделенныелокальные признаки изображения
Методы распознавания на основе Скрытых
Цели Марковских
и задачи
работы
моделей
Схема сегментации изображения на основе скрытой Марковской модели и
Структурные признаки изображения, выделенные скрытой Марковской моделью
Процесс распознавания в Скрытой Марковской Модели:
• Системе подается на вход некоторое изображение;
• Система строит из него входную последовательность;
• Система строит вероятности построения такой входной последовательности
• всеми моделями
• Выдается наиболее вероятный ответ и вероятность соответствия.
Программные средства моделирования
Цели и задачи
работы
нейросетей
Программные средства моделирования
Цели и задачи
работы
нейросетей
Программные средства моделирования
Цели и задачи
работы
нейросетей
Программные средства моделирования
Цели и задачи
работы
нейросетей
Обобщенная
классификация
нейрочипов
Цели и задачи работы
Аппаратные средства реализации ИНС
Цели и задачи работы
Наименование
Фирма изготовитель
Разрядность, бит
Максимальное
количество
синапсов*
Максимальное
слоев**
MA16
Siemens
48 (умножители
и сумматоры)
-
-
400 ММАС.
NNP
(Neural
Networks Processor)
Accurate Automation
Nx16
-
-
MIMD, N процессоров.
СNAPS-1064
Adaptive Solutions
16
128 Кбайт
64
100 NAP Chip
HNC
32
512 Кбайт
4
Плав.
Арифм.
4
процессорных элемента
Neuro
Matrix
NM6403,
Такт.
частота 50 МГц.
Модуль, Россия
64
(вект.
процессор), 32
RISC ядро
4096 шт.
24
Совместим с портами
TMS320C4x
Neuro
Matrix
NM6404,
Такт.
частота 133 МГц.
Модуль, Россия
64
(вект.
процессор), 32
RISC ядро
4096 шт.
~48
Совместим с портами
TMS320C4x
CLNN 32 CLNN 64
Bellcore
32 нейрона
108 перекл./с 2 x 108
перекл./с
32
64
496
1024
число
Примечание
число
Аппаратные средства реализации ИНС
Цели и задачи работы
4096 шт.
32
-
36 нейронов
Частота
20МГц,
Векторно-прототипный
нейрочип
64 входа
Два банка весов
64х80
64 нейрона в слое, 3
слоя.
Аналоговая
Micro Devices
16
64 шт.
8
8 нейронов
MT 19003 - Neural
Instruction
Set
Processor
Micro Circuit Engineering
(MCE)
16
разр.
Умножитель 35
разр. сумматор
-
1
RISC
МП
специальными
командами
Neuro Fuzzu
National Semiconductor
-
-
-
NI 1000
Nestor
5-16
(одного
нейрона)
-
1024 прототипных 256
мерных векторов
NC 3001
NeuriGam
16
IBM
64
входного
вектора
ETANN 80170NW
Intel
MD-1220
ZISC
036
Instruction
Computer)
(Zero
Set
разр.
c
7
Векторно-прототипный
нейрочип
Аппаратные средства реализации ИНС
Цели и задачи работы
NLX420 (NLX 110,
230)
Adaptive Logic
16
1 Мбайт
16
OBL Chip
Oxford Computer
16
16 Мбайт
-
16
1536
16
192 (12х16)
L-Neuro
L-Neuro 2.3
1.0
Philips
16
16
процессорных
элементов
нейронов
26
60 МГц
RSC
(Speech
Recognition Chip) 164
Sensory Circuits
-
-
-
ORC 110xx (Object
Recognizer Chip)
Synaptics
-
-
-
Pram-256 Chip
UCLi Ltd.
8
(одного
нейрона)
-
256 нейронов
33МГц.
SAND
Datafactory
16
-
4
200 MCPS
МГц
Аппаратные средства реализации ИНС
Цели и задачи работы
ACC
16
-
-
16
1 Мбайт
64
70 вх. нейронов
-
6 (внутр) 1 вх., 1 вых.
2 х 1010 перекл./с
4096 весов
-
Число
входов
нейрона 256-16.
Геркулес
Россия
Neuro Classifier
Университет
DESY
ANNA
AT&T
Число
нейроннов
256
WSC (Wafer Scale
Integration)
Hitachi
-
64
связи
нейрон
SASLM2
Mitsubishi
2
(одного
нейрона)
-
4096(64x64) нейронов
50 МГц
TOTEM
Kent (Univer
Trento (Italy)
16
(одного
нейрона)
-
64 нейрона
30 МГц
-
Наличие параллельных,
последовательных
и
коммуникацинных
портов
Neuron
Neurom 3150
3120,
Echelon (США)
Твента,
UK),
di
8 бит
данных)
16-
(шина
-
на
у
576 нейронов
Сравнительные характеристики нейрочипов
Цели и задачи работы
Производительность ряда процессоров при
выполнении алгоритмов ЦОС
Цели и задачи работы
BOOT
INTA
INT
TIMER
CLKIN
RESET
Цели Структура
и задачи
работы
нейрочипа
HOLD / BACK
HOLDA / BREQ
LHOLDA / LBREQ
CONTROL UNIT
LHOLD / LBACK
...
RDY
LRDY
INSTRU CTION BUS
15
ADDR BUS
2
OE
RAS
M
U
X
M
U
X
DATA ADR ESS BUS 1
64
DATA BUS
LWE
LRAS
2
DATA ADR ESS BUS 2
CAS
W/R
32
64 32
32
64
32
2
LCAS
LW / R
INSTRU CTION BUS
32
2
LOE
DATA BUS 2
64
32
8
SCALAR
PROCESSOR
VEKTOR
PROCESSOR
DMA
CO - PROCESSOR
inp.
buffer 0
Out.
buffer 0
Inp.
buffer 1
z.
buffer 1
LINK 0
Port 0
WE
DATA BUS 1
4
8
LINK 1
Port 1
64
DATA BUS
15
ADDR BUS
INSTRU CTION ADD RESS BUS
4
Скачать