Работа с текстом
<<  Алгоритм работы с текстом (часть С) Автоматизированная система контроля исполнения документов и поручений  >>
Методы обработки и распознавания изображений
Методы обработки и распознавания изображений
Цели и задачи работы
Цели и задачи работы
Цели и задачи работы
Цели и задачи работы
Цели и задачи работы
Цели и задачи работы
Цели и задачи работы
Цели и задачи работы
Цели и задачи работы
Цели и задачи работы
Цели и задачи работы
Цели и задачи работы
Цели и задачи работы
Цели и задачи работы
Цели и задачи работы
Цели и задачи работы
Цели и задачи работы
Цели и задачи работы
Цели и задачи работы
Цели и задачи работы
Цели и задачи работы
Цели и задачи работы
Цели и задачи работы
Цели и задачи работы
Цели и задачи работы
Цели и задачи работы
Цели и задачи работы
Цели и задачи работы
Цели и задачи работы
Цели и задачи работы
Цели и задачи работы
Цели и задачи работы
Цели и задачи работы
Цели и задачи работы
Цели и задачи работы
Цели и задачи работы
Цели и задачи работы
Цели и задачи работы
Цели и задачи работы
Цели и задачи работы
Цели и задачи работы
Цели и задачи работы
Цели и задачи работы
Цели и задачи работы
Методы обработки и распознавания изображений
Методы обработки и распознавания изображений
Цели и задачи работы
Цели и задачи работы
Цели и задачи работы
Цели и задачи работы
Цели и задачи работы
Цели и задачи работы
Цели и задачи работы
Цели и задачи работы
Цели и задачи работы
Цели и задачи работы
Цели и задачи работы
Цели и задачи работы
Последовательность использования неокогнитрона
Последовательность использования неокогнитрона
Затраты ресурсов компьютера на этапах использования неокогнитрона
Затраты ресурсов компьютера на этапах использования неокогнитрона
Последовательность обучения неокогнитрона
Последовательность обучения неокогнитрона
Расчёт откликов нейронов в неокогнитроне
Расчёт откликов нейронов в неокогнитроне
Структура неокогнитрона
Структура неокогнитрона
Инвариантность неокогнитрона
Инвариантность неокогнитрона
Инвариантность неокогнитрона
Инвариантность неокогнитрона
Инвариантность неокогнитрона
Инвариантность неокогнитрона
Инвариантность неокогнитрона
Инвариантность неокогнитрона
Цели и задачи работы
Цели и задачи работы
Цели и задачи работы
Цели и задачи работы
Цели и задачи работы
Цели и задачи работы
Цели и задачи работы
Цели и задачи работы
Цели и задачи работы
Цели и задачи работы
Цели и задачи работы
Цели и задачи работы
Цели и задачи работы
Цели и задачи работы
Цели и задачи работы
Цели и задачи работы
Цели и задачи работы
Цели и задачи работы
Цели и задачи работы
Цели и задачи работы
Цели и задачи работы
Цели и задачи работы
Цели и задачи работы
Цели и задачи работы
Цели и задачи работы
Цели и задачи работы
Цели и задачи работы
Цели и задачи работы
Цели и задачи работы
Цели и задачи работы
Цели и задачи работы
Цели и задачи работы
Цели и задачи работы
Цели и задачи работы
Цели и задачи работы
Цели и задачи работы
Цели и задачи работы
Цели и задачи работы
Цели и задачи работы
Цели и задачи работы

Презентация на тему: «Методы обработки и распознавания изображений». Автор: Слон. Файл: «Методы обработки и распознавания изображений.ppt». Размер zip-архива: 2097 КБ.

Методы обработки и распознавания изображений

содержание презентации «Методы обработки и распознавания изображений.ppt»
СлайдТекст
1 Методы обработки и распознавания изображений

Методы обработки и распознавания изображений

Раздел 4 Лекция 7. Методы распознавания изображений с использованием искусственных нейронных сетей Лектор – проф. Тропченко А.Ю.

2 Цели и задачи работы

Цели и задачи работы

Схема процесса распознавания изображений

3 Цели и задачи работы

Цели и задачи работы

Схема процесса поиска при распознавания изображений

4 Цели и задачи работы

Цели и задачи работы

Алгоритм ввода данных в систему автоматического распознавания изображений

5 Цели и задачи работы

Цели и задачи работы

Основные задачи, решаемые с помощью нейронной сети

6 Цели и задачи работы

Цели и задачи работы

Строение биологического нейрона

7 Цели и задачи работы

Цели и задачи работы

Кибернетическая модель нейрона

8 Цели и задачи работы

Цели и задачи работы

Кибернетическая модель нейрона (математическое описание)

Где w0 – сдвиг (порог, смещение) нейрона

Сдвиг обычно интерпретируется как связь, исходящая от элемента, активность которого всегда равна 1.Для удобства входной вектор расширяется добавлением этого сигнала до х = (1,х0,...,xn) и порог w0 вносится под знак суммы:

Информация, поступающая на вход нейрона, суммируется с учетом весовых коэффициентов сигналов:

9 Цели и задачи работы

Цели и задачи работы

Кибернетическая модель нейрона (математическое описание)

Y = 1/(1+exp(-kP))

Пороговая функция пропускает информацию, если алгебраическая сумма входных сигналов превышает некоторую постоянную величину Р*:

Определенным компромиссом между линейной и ступенчатой функциями является сигмоидальная функция активации :

10 Цели и задачи работы

Цели и задачи работы

Функции переноса искусственных нейронов

А) линейная; б) ступенчатая; в) сигмоидальная.

11 Цели и задачи работы

Цели и задачи работы

Архитектура искусственных нейронных сетей

Персептрон Розенблатта.

12 Цели и задачи работы

Цели и задачи работы

Архитектура искусственных нейронных сетей

Персептрон Розенблатта.

Число входов сети определяет размерность пространства, из которого выбираются входные данные: для двух признаков пространство оказывается двумерным, для трех – трехмерным, а для m признаков – m-мерным. Если прямая или гиперплоскость в пространстве входных данных может разделить все образцы на соответствующие им классы, то проблема является линейной, в противном случае – нелинейной. На рисунке показаны множества точек на плоскости а) граница линейная, б) нелинейная.

13 Цели и задачи работы

Цели и задачи работы

Схема многослойного персептрона

Для решения нелинейных проблем предназначены модели многослойных персептронов (MLP), способные строить ломаную границу между распознаваемыми образами.

14 Цели и задачи работы

Цели и задачи работы

Классификация нейронных сетей

15 Цели и задачи работы

Цели и задачи работы

Многослойные нейронные сети

Архитектура многослойной нейронной сети и её применение для распознавания изображений. Нейрон с максимальной активностью (здесь первый) указывает принадлежность к распознанному классу

16 Цели и задачи работы

Цели и задачи работы

Обучение многослойной нейронной сети

Где tj – эталонное значение выходов сети

Обучаются МНС при помощи алгоритма обратного распространения ошибки, являющегося разновидностью градиентного спуска в пространстве весов с целью минимизации суммарной ошибки сети:

Одними из главных проблем МНС являются следующие: 1. Проблема локального минимума, которая заключается в том, что при итерационном спуске может наступить момент, когда решение заходит в локальный минимум, из которого вследствие малой величины шага не может выбраться. 2. Выбор архитектуры сети (количество нейронов, слоёв, характер связей). С этим также связана проблема переобучения, которая заключается в том, что сеть с избыточным числом элементов теряет обобщающую способность и хорошо работает только на тренировочной выборке. 3. Выбор шага (скорости) обучения, связанная с тем, что при малом шаге время обучения будет большим и сеть может зависать в локальных минимумах, а при больших шагах возможно расхождение процесса обучения или паралич сети.

,

17 Цели и задачи работы

Цели и задачи работы

Применение МНС для решения задач распознавания (по коэффициентам ДКП)

,

18 Цели и задачи работы

Цели и задачи работы

Применение МНС для решения задач распознавания (По коэффициентам ДКП)

Использовались первые 25-35 коэффициентов ДКП изображения размером 92х112 пикселов (из10304, т.е. около 0.2% от общего количества коэффициентов) и двухслойная нейронная сеть. Коэффициенты выбирались двумя способами. В первом способе брались первые коэффициенты из левого верхнего угла матрицы коэффициентов, ограниченного диагональю. Во втором способе выбирались коэффициенты, которые давали наименьшую погрешность реконструкции изображения. Разница в точности при этом была неразличима.

,

19 Цели и задачи работы

Цели и задачи работы

Суть метода главных компонент заключается в получении максимально декореллированных коэффициентов, характеризующих входные образы. Такие коэффициенты называются главными компонентами и используются для статистического сжатия и реконструкции изображений. При этом небольшое число коэффициентов используется для представления всего образа. Каждое изображение разлагается на линейную комбинацию собственных векторов. Для набора изображений лиц собственные векторы могут быть представлены в виде изображений, такие изображения похожи на лица и называются собственными лицами (eigenfaces). Сумма собственных векторов, умноженных на соответствующие им главные компоненты, представляет собой реконструкцию изображения.

Применение МНС для решения задач распознавания по методу главных компонент

,

20 Цели и задачи работы

Цели и задачи работы

Применение МНС для решения задач распознавания по методу главных компонент

Собственные лица (eigenfaces)

,

21 Цели и задачи работы

Цели и задачи работы

Архитектура рециркуляционной сети для извлечения главных компонент

НС содним скрытым слоем, содержащим m нейронов, число которых много меньше, чем размерность изображения (m<<n) и обученная по методу обратного распространения ошибки восстанавливать на выходе изображение, поданное на вход, формирует на выходе скрытых нейронов коэффициенты первых m главных компонент, которые и используются для сравнения изображений. Такая НС называется рециркуляционной.

,

22 Цели и задачи работы

Цели и задачи работы

Достоинства рециркуляционной сети для извлечения главных компонент

Преимущества применения РНС для извлечения главных компонент перед решением матричных уравнений: алгоритм обучения РНС прост и универсален; нелинейная активационная функция позволяет точнее реконструировать изображение; при решении матричных уравнений возможны проблемы, если объекты похожи друг на друга, РНС лишена такого недостатка; не требуется вычислять все собственные векторы. Таким образом, время обучения сети линейно зависит от количества извлекаемых главных компонент; для предварительных экспериментов можно использовать меньшее число обучающих циклов, что снижает время обучения.

,

23 Цели и задачи работы

Цели и задачи работы

Достоинства рециркуляционной сети для извлечения главных компонент

Преимущества применения РНС для извлечения главных компонент перед решением матричных уравнений: алгоритм обучения РНС прост и универсален; нелинейная активационная функция позволяет точнее реконструировать изображение; при решении матричных уравнений возможны проблемы, если объекты похожи друг на друга, РНС лишена такого недостатка; не требуется вычислять все собственные векторы. Таким образом, время обучения сети линейно зависит от количества извлекаемых главных компонент; для предварительных экспериментов можно использовать меньшее число обучающих циклов, что снижает время обучения.

,

24 Методы обработки и распознавания изображений

Методы обработки и распознавания изображений

Лекция 8. Методы распознавания изображений с использованием искусственных нейронных сетей Лектор – проф. Тропченко А.Ю.

25 Цели и задачи работы

Цели и задачи работы

Нейронные сети высокого порядка. Моментные НС

Нейронные сети высокого порядка (НСВП, по-английски – High Order Neural Network) отличаются от МНС тем, что у них только один слой, но на входы нейронов поступают так же термы высокого порядка, являющиеся произведением двух или более компонент входного вектора, например для сетей второго порядка:

26 Цели и задачи работы

Цели и задачи работы

Радиально-базисные нейронные сети

Радиально-базисные нейронные сети (РБНС, по-английски – Radial Basis Function Network, RBF) состоят из двух слоёв, Первый слой имеет радиально-базисную активационную функцию:

S определяется как расстояние между входным и весовым вектором:

27 Цели и задачи работы

Цели и задачи работы

Топологически упорядоченное преобразование пространства

Векторные квантователи и самоорганизующиеся карты Кохонена (Self-Organizing Maps, SOM) используются для сжатия данных и извлечения ключевых характеристик. Так же они служат основой для радиально-базисных сетей и когнитронов. Активным считается нейрон, имеющий наибольшее выходное значение:

Веса такого нейрона изменяются в сторону соответствия входному вектору, например

Правило модификации весов

Вводится функция соседства h, убывающая с расстоянием между нейронами

28 Цели и задачи работы

Цели и задачи работы

Пример применения карт Кохонена для уменьшения размеров участков изображений

Слева – топографическая карта участков изображений до обучения, справа – после обучения.

Отклики нейронной сети. 1 – наиболее вероятное положение глаза , 2 – менее вероятные места расположения (шумы)

29 Цели и задачи работы

Цели и задачи работы

Структура когнитрона

Главные отличия когнитрона - каждый нейрон связан только с локальной областью предыдущего слоя, и такие области перекрываются друг с другом. Слоёв в когнитроне больше, чем в сетях других типов. Таким образом достигается иерархическая организация, когда на высших слоях когнитрон реагирует на более абстрактные образы, меньше реагирует на их смещение и искажение. Обучается когнитрон конкурентным обучением (без учителя).

30 Цели и задачи работы

Цели и задачи работы

Неокогнитрон

Главное отличие неокогнитрона от когнитрона – двумерная организация локальных участков и плоскостная иерархическая структура

31 Последовательность использования неокогнитрона

Последовательность использования неокогнитрона

Первоначальное обучение неокогнитрона

Последующее использование неокогнитрона в качестве распознавателя

Сравнительно большие вычислительные затраты Выполняется редко Может не включатся в функциональность конечной реализации

Вычислительные затраты невелики Распознаватель может включатся в иные алгоритмы распознавания

32 Затраты ресурсов компьютера на этапах использования неокогнитрона

Затраты ресурсов компьютера на этапах использования неокогнитрона

Ресурс

Ресурс

Этап использования неокогнитрона

Этап использования неокогнитрона

Обучение

Распознавание

Время выполнения

Порядка нескольких дней

Около секунды на одно изображение

Память компьютера

До нескольких сотен мегабайт

До десяти мегабайт

33 Последовательность обучения неокогнитрона

Последовательность обучения неокогнитрона

34 Расчёт откликов нейронов в неокогнитроне

Расчёт откликов нейронов в неокогнитроне

Отклик нейронов первого слоя (выделение контраста)

Отклик нейронов S-слоёв

Отклик тормозящих нейронов

35 Структура неокогнитрона

Структура неокогнитрона

Связи между нейронами соседних уровней

Четырёхуровневая структура неокогнитрона (из статьи К. Фукушимы)

36 Инвариантность неокогнитрона

Инвариантность неокогнитрона

Дополнительные символы

37 Инвариантность неокогнитрона

Инвариантность неокогнитрона

Зашумление

38 Инвариантность неокогнитрона

Инвариантность неокогнитрона

Искажение

39 Инвариантность неокогнитрона

Инвариантность неокогнитрона

Смещение

40 Цели и задачи работы

Цели и задачи работы

Сверточная нейронная сеть

Архитектура свёрточной НС основывается на принципах архитектуры неокогнитрона, упрощённого и дополненного обучением алгоритмом обратного распространения ошибки.

41 Цели и задачи работы

Цели и задачи работы

Схема системы распознавания личности человека по изображению его лица

42 Цели и задачи работы

Цели и задачи работы

Схема системы распознавания личности человека по изображению его лица

Первый метод – создание вектора данных из набора отсчетов в локальном окне изображения. Второй метод - создание локального шаблона , т.е. выходного вектора как разности яркости между центральным и всеми другими пикселями в квадратном окне.

43 Цели и задачи работы

Цели и задачи работы

Архитектура системы распознавания личности по портрету

44 Цели и задачи работы

Цели и задачи работы

Применение ИНС для классификации по заранее извлеченным признакам

Метод собственных фильтров для распознавания лица

Задача анализа главных компонент – выбрать базис пространства u=(u1, u2, …, uk) так, чтобы вариация (дисперсия) проекции была минимальной. Минимум этой функции достигается решением задачи на собственные значения Ru =?u

45 Цели и задачи работы

Цели и задачи работы

Метод сравнения эластичных графов на основе вейвлетов Габора

В результате преобразования Габора спектральная плоскость разбивается на m частотных и n ориентационных диапазонов: ?ij(?)= exp(-?(?-?ij)t Rj?ij-l (?-?ij))… ?ij - вейвлет, соответствующий (i,j) ориентации и масштабу, где 1?i?m, 1?j?n, Rj – матрица поворота, а ?ij – диагональная матрица

46 Цели и задачи работы

Цели и задачи работы

Метод сравнения эластичных графов на основе вейвлетов Габора

Фильтры Габора и результат их применения - выделенныелокальные признаки изображения

47 Цели и задачи работы

Цели и задачи работы

Методы распознавания на основе Скрытых Марковских моделей

Схема сегментации изображения на основе скрытой Марковской модели и Структурные признаки изображения, выделенные скрытой Марковской моделью

Процесс распознавания в Скрытой Марковской Модели: Системе подается на вход некоторое изображение; Система строит из него входную последовательность; Система строит вероятности построения такой входной последовательности всеми моделями Выдается наиболее вероятный ответ и вероятность соответствия.

48 Цели и задачи работы

Цели и задачи работы

Программные средства моделирования нейросетей

49 Цели и задачи работы

Цели и задачи работы

Программные средства моделирования нейросетей

50 Цели и задачи работы

Цели и задачи работы

Программные средства моделирования нейросетей

51 Цели и задачи работы

Цели и задачи работы

Программные средства моделирования нейросетей

52 Цели и задачи работы

Цели и задачи работы

Обобщенная классификация нейрочипов

53 Цели и задачи работы

Цели и задачи работы

Аппаратные средства реализации ИНС

Наименование

Фирма изготовитель

Разрядность, бит

Максимальное количество синапсов*

Максимальное число слоев**

Примечание

MA16

Siemens

48 (умножители и сумматоры)

-

-

400 ммас.

NNP (Neural Networks Processor)

Accurate Automation

Nx16

-

-

MIMD, N - число процессоров.

Сnaps-1064

Adaptive Solutions

16

128 Кбайт

64

100 NAP Chip

HNC

32

512 Кбайт

4

Плав. Арифм. 4 процессорных элемента

Neuro Matrix NM6403, Такт. частота 50 МГц.

Модуль, Россия

64 (вект. Процессор), 32 RISC ядро

4096 шт.

24

Совместим с портами TMS320C4x

Neuro Matrix NM6404, Такт. частота 133 МГц.

Модуль, Россия

64 (вект. Процессор), 32 RISC ядро

4096 шт.

~48

Совместим с портами TMS320C4x

CLNN 32 CLNN 64

Bellcore

32 64

496 1024

32 нейрона

108 перекл./С 2 x 108 перекл./С

54 Цели и задачи работы

Цели и задачи работы

Аппаратные средства реализации ИНС

NC 3001

NeuriGam

16

4096 шт.

32

ZISC 036 (Zero Instruction Set Computer)

IBM

64 разр. Входного вектора

-

36 нейронов

Частота 20МГц, Векторно-прототипный нейрочип

ETANN 80170NW

Intel

64 входа

Два банка весов 64х80

64 нейрона в слое, 3 слоя.

Аналоговая

MD-1220

Micro Devices

16

64 шт.

8

8 нейронов

MT 19003 - Neural Instruction Set Processor

Micro Circuit Engineering (MCE)

16 разр. Умножитель 35 разр. сумматор

-

1

RISC МП c 7 специальными командами

Neuro Fuzzu

National Semiconductor

-

-

-

NI 1000

Nestor

5-16 (одного нейрона)

-

1024 прототипных 256 мерных векторов

Векторно-прототипный нейрочип

55 Цели и задачи работы

Цели и задачи работы

Аппаратные средства реализации ИНС

NLX420 (NLX 110, 230)

Adaptive Logic

16

1 Мбайт

16

16 процессорных элементов

OBL Chip

Oxford Computer

16

16 Мбайт

-

L-Neuro 1.0 L-Neuro 2.3

Philips

16 16

1536

16 нейронов 192 (12х16)

26 МГц 60 МГц

RSC (Speech Recognition Chip) - 164

Sensory Circuits

-

-

-

ORC 110xx (Object Recognizer Chip)

Synaptics

-

-

-

Pram-256 Chip

UCLi Ltd.

8 (одного нейрона)

-

256 нейронов

33МГц.

SAND

Datafactory

16

-

4

200 MCPS

56 Цели и задачи работы

Цели и задачи работы

Аппаратные средства реализации ИНС

ACC

16

-

-

Геркулес

Россия

16

1 Мбайт

64

Neuro Classifier

Университет Твента, DESY

70 вх. Нейронов

-

6 (внутр) 1 вх., 1 вых.

2 х 1010 перекл./С

ANNA

AT&T

Число нейроннов 16-256

4096 весов

-

Число входов у нейрона 256-16.

WSC (Wafer Scale Integration)

Hitachi

-

64 связи на нейрон

576 нейронов

SASLM2

Mitsubishi

2 (одного нейрона)

-

4096(64x64) нейронов

50 МГц

TOTEM

Kent (Univer UK), di Trento (Italy)

16 (одного нейрона)

-

64 нейрона

30 МГц

Neuron 3120, Neurom 3150

Echelon (США)

8 бит (шина данных)

-

-

Наличие параллельных, последовательных и коммуникацинных портов

57 Цели и задачи работы

Цели и задачи работы

Сравнительные характеристики нейрочипов

58 Цели и задачи работы

Цели и задачи работы

Производительность ряда процессоров при выполнении алгоритмов ЦОС

59 Цели и задачи работы

Цели и задачи работы

Структура нейрочипа

«Методы обработки и распознавания изображений»
http://900igr.net/prezentacija/informatika/metody-obrabotki-i-raspoznavanija-izobrazhenij-143814.html
cсылка на страницу
Урок

Информатика

130 тем
Слайды
900igr.net > Презентации по информатике > Работа с текстом > Методы обработки и распознавания изображений