Что такое findslide.org?

FindSlide.org - это сайт презентаций, докладов, шаблонов в формате PowerPoint.


Для правообладателей

Обратная связь

Email: Нажмите что бы посмотреть 

Яндекс.Метрика

Презентация на тему Искусственные нейронные сети

Содержание

ЛитератураХайкин С. Нейронные сети. Полный курс, 2-е изд. – М.: «И.Д. Вильямс», 2016.Галушкин А.И. Нейронные сети: основы теории. – М.: Горячая линия – Телеком, 2012.Тархов Д.А. Нейросетевые модели и алгоритмы. Справочник – Радиотехника, 2014.Рутковская Д., Пилиньский
Высшая школа экономики, Нижегородский филиалКафедра прикладной математики и информатикист.преп. Бабкина Татьяна Сергеевнаtbabkina@hse.rutaty-bab@yandex.ru2016Искусственные нейронные сети ЛитератураХайкин С. Нейронные сети. Полный курс, 2-е изд. – М.: «И.Д. Вильямс», Искусственные нейронные сети –  вычислительные структуры, которые  моделируют процессы человеческого 1904 	С.Рамон-и-КахальОткрытие нейронов – нервных клеток1943 	У.Мак-Каллок, У.ПиттсМодель искусственного нейрона; основные принципы 1957 	В.И.Арнольд, А.Н.КолмогоровРешение 13 проблемы Гильберта: любую непрерывную функцию многих переменных можно Немного истории1986		Д.Румельхарт, Дж.Хинтон, Р.ВильямсМетод обратного распространения ошибкиСередина 1980х				Нейросетевой бумНовые модели нейронных сетей1987 Задачи, решаемые с помощью ИНСКлассификация образовОпределить принадлежность входного образа одному из заранее ОптимизацияНайти решение x, удовлетворяющее системе ограничений и максимизирующее (минимизирующее) целевую функциюПринятие решений Биологический нейронЯдро – 1Тело – 2Нервные волокна(дендриты – 3, аксон – 4)Синаптические окончания – 51233455 Искусственный нейрон⊗⊗b∑fw1w2wn⊗x1x2xnSy Искусственный нейрон∑f⊗⊗w1w2wn⊗x1x2xnSy⊗1 Математическая модель искусственного нейронаS = ∑wixi + by = f (S)xi, i=1,2…n Функции активацииПороговыеСигмоидныеs ЛинейнаяПолулинейнаяЛинейная с насыщениемПолулинейная с насыщением1-110ssФункции активации ТреугольнаяРадиальная базисная      (гауссова)Функции активации Искусственная нейронная сетьИНС – набор искусственных нейронов, соединенных между собойФункции активации фиксированыВеса Пример Построение ИНСВыбор архитектурыТопология 	Функции активацииВходы-выходыДля каждой задачи – своя архитектураОбучение«С учителем» и Классификация ИНС  По топологииПолносвязныеСлабосвязныеМногослойные Классификация ИНС  По наличию задержекСтатическая сетьДинамическая сетьDD Классификация ИНС  По наличию обратной связи По функциям активацииОднородныеНеоднородныеПо типу входного сигналаБинарныйЦелыйДействительныйКлассификация ИНС Увеличение числа слоев и числа нейронов повышает возможности сети, но замедляет обучениеВведение Обучение ИНСНейронная сеть – адаптивная системаСпособность сети обрабатывать информацию развивается в результате Многослойная ИНСx1x2xny1y2ym……L0L1L2 Теоретические результатыТеорема Хехт-Нильсенаm-мерная функция от n переменных с заданной точностью может быть Число нейронов в скрытом слоеМногослойная сеть с сигмоидными функциями активации	mN/(1+log2N) ≤ Lw Отсутствует строгая теория, касающаясяМногослойных сетей (число слоев больше 2)Большинства рекуррентных сетей Сетей Технологии обучения«С учителем»Обучающее множество – множество пар (сигнал, правильный ответ)Q={(X1,D1) … (XN,DN)} Технологии обучения«Без учителя»Обучающее множество – множество примеров; правильные ответы неизвестныQ={X1 … XN}Самоорганизующееся обучениеОбучение с подкреплением Сеть обучена, если она дает правильные ответы на примеры из обучающего множестваСеть Обучение «с учителем»Имеется неизвестная функция Y=F(X), X∈G⊆ Rn, Y∈RmЗадано множество Q={(X1,D1) … Проблемы обученияНедообучениеСеть недостаточно точно аппроксимирует данные обучающего множества (не способна обучиться)Усложнить сетьПереобучениеСеть Аналогия с полиномом аппроксимацииСтепень полинома недостаточнаСтепень полинома избыточна Контрольное и тестовое множестваКак проверить качество обучения?Кросс-проверкаQ=Q1∪Q2 (обучающее+контрольное)E(Q1) и E(Q2) убывают – Обучение ИНС – задача многомерной оптимизацииЗадача оптимизации:	  min E(W) Практика  Решение задачи классификацииimport numpy as npimport pylab as plimport neurolab Практика  Решение задачи классификацииСоздание сети прямого распространения с сигмоидными функциями активацииMyFirstNet Обучение сетиerr = MyFirstNet.train(xtrain, d, show=15)Опрос обученной сетиy = MyFirstNet.sim(xtrain)for i in Создание тестового множестваntest = 25 * 25xtest = np.zeros(ntest * 2)xtest = Проверка способности сети к обобщениюy = MyFirstNet.sim(xtest)for i in range(ntest):  if
Слайды презентации

Слайд 2 Литература
Хайкин С. Нейронные сети. Полный курс, 2-е изд.

ЛитератураХайкин С. Нейронные сети. Полный курс, 2-е изд. – М.: «И.Д.

– М.: «И.Д. Вильямс», 2016.
Галушкин А.И. Нейронные сети: основы

теории. – М.: Горячая линия – Телеком, 2012.
Тархов Д.А. Нейросетевые модели и алгоритмы. Справочник – Радиотехника, 2014.
Рутковская Д., Пилиньский М., Рутковский Л. Нейронные сети, генетические алгоритмы и нечеткие системы. – М.: Горячая линия – Телеком, 2013.
Борисов В.В., Круглов В.В., Федулов А.С. Нечеткие модели и сети. – М.: Горячая линия – Телеком, 2012.
Конышева Л.К., Назаров Д.М. Основы теории нечетких множеств. – Питер, 2011.
Круглов В.В., Борисов В.В. Искусственные нейронные сети. Теория и практика. – М.: Горячая линия – Телеком, 2001– 382 с.
Круглов В.В., Дли М.И., Голунов Р.Ю. Нечеткая логика и искусственные нейронные сети: Учеб. Пособие. – М.: Издательство Физико-математической литературы, 2001– 224 с.
George F. Luger Artifitial Intelligence. Fifth Edition. – Addison Wesley, 2005. – 903 p. (353 – 357, 453 – 506 pp.)

Слайд 3 Искусственные нейронные сети – вычислительные структуры, которые

Искусственные нейронные сети – вычислительные структуры, которые моделируют процессы человеческого мозга Способность к обучениюИскусственный нейрон

моделируют процессы человеческого мозга
Способность к обучению
Искусственный нейрон


Слайд 4 1904 С.Рамон-и-Кахаль
Открытие нейронов – нервных клеток
1943 У.Мак-Каллок, У.Питтс
Модель

1904 	С.Рамон-и-КахальОткрытие нейронов – нервных клеток1943 	У.Мак-Каллок, У.ПиттсМодель искусственного нейрона; основные

искусственного нейрона; основные принципы построения ИНС
1949 Д.Хебб
Идеи о соединении

и взаимодействии нейронов мозга; правила обучения ИНС
1951 М.Минский, Д.Эдмондс
SNARC: крыса в лабиринте

Немного истории


Слайд 5 1957 В.И.Арнольд, А.Н.Колмогоров
Решение 13 проблемы Гильберта: любую непрерывную

1957 	В.И.Арнольд, А.Н.КолмогоровРешение 13 проблемы Гильберта: любую непрерывную функцию многих переменных

функцию многих переменных можно представить как суперпозицию непрерывных функций

одной переменной и сложения
1962 Ф.Розенблатт Энтузиазм
Персептрон; попытки предсказания погоды, анализа электрокардиограмм, распознавания рукописных букв
1969 М.Минский, С.Пейперт Пессимизм
Критическая работа «Персептроны»; возможности персептронов ограничены
1970е Т.Кохонен, С.Гроссберг и др.
Многослойные сети различной архитектуры; успешное решение задач, считавшихся неразрешимыми
1982 Дж.Хопфилд
Динамическая сеть

Немного истории


Слайд 6 Немного истории
1986 Д.Румельхарт, Дж.Хинтон, Р.Вильямс
Метод обратного распространения ошибки
Середина 1980х Нейросетевой

Немного истории1986		Д.Румельхарт, Дж.Хинтон, Р.ВильямсМетод обратного распространения ошибкиСередина 1980х				Нейросетевой бумНовые модели нейронных

бум
Новые модели нейронных сетей
1987 Р. Хехт-Нильсен
Вариант 13 проблемы Гильберта:

любую непрерывную функцию многих переменных можно с любой точностью приблизить с помощью трехслойного персептрона
1990е
Развитие новых нейропарадигм замедлилось; нейрочипы, нейрокомпьютеры

Слайд 7 Задачи, решаемые с помощью ИНС
Классификация образов
Определить принадлежность входного

Задачи, решаемые с помощью ИНСКлассификация образовОпределить принадлежность входного образа одному из

образа одному из заранее заданных классов
Распознавание речи и изображений,

мед.диагностика
Кластеризация (классификация без учителя)
Разместить близкие образы в один кластер (кластеры заранее не определены)
Сжатие данных, извлечение знаний
Аппроксимация функций
Найти оценку неизвестной функции F(x) по обучающей выборке {(x1,y1)…(xN,yN)}
Инженерное и научное моделирование
Прогноз
Найти неизвестное y(tN+1) по известным y(t1)…y(tN)
Принятие решений в науке, технике, бизнесе


Слайд 8 Оптимизация
Найти решение x, удовлетворяющее системе ограничений и максимизирующее

ОптимизацияНайти решение x, удовлетворяющее системе ограничений и максимизирующее (минимизирующее) целевую функциюПринятие

(минимизирующее) целевую функцию
Принятие решений в науке, технике, бизнесе
Ассоциативная память


Организовать память с доступом по частичному или искаженному содержанию
Информационно-вычислительные системы
Управление
Рассчитать управляющее воздействие u на динамическую систему {u(t),y(t)}, чтобы выход y совпадал с эталоном

Задачи, решаемые с помощью ИНС


Слайд 9
Биологический нейрон







Ядро – 1
Тело – 2
Нервные волокна
(дендриты –

Биологический нейронЯдро – 1Тело – 2Нервные волокна(дендриты – 3, аксон – 4)Синаптические окончания – 51233455

3, аксон – 4)
Синаптические окончания – 5
1
2
3
3
4
5
5


Слайд 10 Искусственный нейрон





b

f

w1


w2
wn

x1
x2
xn
S
y

Искусственный нейрон⊗⊗b∑fw1w2wn⊗x1x2xnSy

Слайд 11 Искусственный нейрон



f



w1


w2
wn

x1
x2
xn
S
y

1

Искусственный нейрон∑f⊗⊗w1w2wn⊗x1x2xnSy⊗1

Слайд 12 Математическая модель искусственного нейрона
S = ∑wixi + b
y

Математическая модель искусственного нейронаS = ∑wixi + by = f (S)xi,

= f (S)

xi, i=1,2…n – сигнал от другого нейрона
wi,

i=1,2…n – сила синаптической связи
b – смещение
f – функция активации нейрона
y – выходной сигнал нейрона

Слайд 13 Функции активации
Пороговые
Сигмоидные
s

Функции активацииПороговыеСигмоидныеs

Слайд 14 Линейная
Полулинейная
Линейная с насыщением
Полулинейная с насыщением
1
-1
1
0
s
s
Функции активации

ЛинейнаяПолулинейнаяЛинейная с насыщениемПолулинейная с насыщением1-110ssФункции активации

Слайд 15 Треугольная
Радиальная базисная
(гауссова)
Функции

ТреугольнаяРадиальная базисная   (гауссова)Функции активации

активации


Слайд 16 Искусственная нейронная сеть
ИНС – набор искусственных нейронов, соединенных

Искусственная нейронная сетьИНС – набор искусственных нейронов, соединенных между собойФункции активации

между собой
Функции активации фиксированы
Веса и смещения могут изменяться (свободные

параметры)
Входные и выходные нейроны


Слайд 17 Пример

Пример

Слайд 18 Построение ИНС
Выбор архитектуры
Топология
Функции активации
Входы-выходы
Для каждой задачи –

Построение ИНСВыбор архитектурыТопология 	Функции активацииВходы-выходыДля каждой задачи – своя архитектураОбучение«С учителем»

своя архитектура
Обучение
«С учителем» и «без учителя»
Настройка весов и смещений

(10000)
Для каждой архитектуры – свои алгоритмы

Наиболее изученные: персептрон,
сеть Кохонена, обобщенно-регрессионная сеть
и др.


Слайд 19 Классификация ИНС По топологии
Полносвязные
Слабосвязные
Многослойные

Классификация ИНС По топологииПолносвязныеСлабосвязныеМногослойные

Слайд 20 Классификация ИНС По наличию задержек

Статическая сеть




Динамическая сеть
D
D

Классификация ИНС По наличию задержекСтатическая сетьДинамическая сетьDD

Слайд 21 Классификация ИНС По наличию обратной связи

Классификация ИНС По наличию обратной связи

Слайд 22 По функциям активации
Однородные
Неоднородные

По типу входного сигнала
Бинарный
Целый
Действительный
Классификация ИНС

По функциям активацииОднородныеНеоднородныеПо типу входного сигналаБинарныйЦелыйДействительныйКлассификация ИНС

Слайд 23 Увеличение числа слоев и числа нейронов повышает возможности

Увеличение числа слоев и числа нейронов повышает возможности сети, но замедляет

сети, но замедляет обучение

Введение обратных связей повышает возможности сети,

но возникает вопрос об устойчивости

Слайд 24 Обучение ИНС
Нейронная сеть – адаптивная система
Способность сети обрабатывать

Обучение ИНСНейронная сеть – адаптивная системаСпособность сети обрабатывать информацию развивается в

информацию развивается в результате обучения на примерах
Нейронная сеть –

«черный ящик»
Знания накапливаются в виде весовых коэффициентов и не поддаются содержательной интерпретации

Слайд 25 Многослойная ИНС
x1
x2
xn
y1
y2
ym


L0
L1
L2

Многослойная ИНСx1x2xny1y2ym……L0L1L2

Слайд 26 Теоретические результаты
Теорема Хехт-Нильсена
m-мерная функция от n переменных с

Теоретические результатыТеорема Хехт-Нильсенаm-мерная функция от n переменных с заданной точностью может

заданной точностью может быть приближена функцией, вычисляемой двуслойной ИНС

с прямыми связями
Теорема о полноте (следствие)
Любая непрерывная функция на замкнутом ограниченном множестве может быть равномерно приближена функциями, вычисляемыми ИНС, функции активации которых непр. и дважды непр. дифференцируемы


Слайд 27 Число нейронов в скрытом слое
Многослойная сеть с сигмоидными

Число нейронов в скрытом слоеМногослойная сеть с сигмоидными функциями активации	mN/(1+log2N) ≤

функциями активации
mN/(1+log2N) ≤ Lw ≤ m(N/m+1)(n+m+1)+m

Двуслойная сеть
L=Lw/(n+m)

Другая формула для

двуслойной сети
N/10-n-m ≤ L ≤ N/2-n-m

Слайд 28 Отсутствует строгая теория, касающаяся
Многослойных сетей (число слоев больше

Отсутствует строгая теория, касающаясяМногослойных сетей (число слоев больше 2)Большинства рекуррентных сетей

2)

Большинства рекуррентных сетей

Сетей со связями от слоя l

к слою l+k

Слайд 29 Технологии обучения
«С учителем»
Обучающее множество – множество пар (сигнал,

Технологии обучения«С учителем»Обучающее множество – множество пар (сигнал, правильный ответ)Q={(X1,D1) … (XN,DN)}

правильный ответ)
Q={(X1,D1) … (XN,DN)}


Слайд 30 Технологии обучения
«Без учителя»
Обучающее множество – множество примеров; правильные

Технологии обучения«Без учителя»Обучающее множество – множество примеров; правильные ответы неизвестныQ={X1 … XN}Самоорганизующееся обучениеОбучение с подкреплением

ответы неизвестны
Q={X1 … XN}
Самоорганизующееся обучение
Обучение с подкреплением


Слайд 31 Сеть обучена, если она дает правильные ответы на

Сеть обучена, если она дает правильные ответы на примеры из обучающего

примеры из обучающего множества

Сеть способна к обобщению, если она

дает правильные ответы на примеры из всей области определения

Обучение «с учителем»


Слайд 32 Обучение «с учителем»
Имеется неизвестная функция Y=F(X), X∈G⊆ Rn,

Обучение «с учителем»Имеется неизвестная функция Y=F(X), X∈G⊆ Rn, Y∈RmЗадано множество Q={(X1,D1)

Y∈Rm
Задано множество Q={(X1,D1) … (XN,DN)}, где
Dk=F(Xk), Xk∈G, k=1,2…N
Найти

функцию A(X), вычисляемую ИНС и близкую к F(X) в смысле некоторой функции ошибки E

Сеть обучена: A(X) близка к F(X) на множестве Q
Сеть способна к обобщению: A(X) близка к F(X) на всем множестве G
Качество обучения зависит:
от количества обучающих примеров
от полноты описания области определения G

E = 1/N ∑ ||Dk-A(Xk)||2


Слайд 33 Проблемы обучения
Недообучение
Сеть недостаточно точно аппроксимирует данные обучающего множества

Проблемы обученияНедообучениеСеть недостаточно точно аппроксимирует данные обучающего множества (не способна обучиться)Усложнить

(не способна обучиться)
Усложнить сеть

Переобучение
Сеть чрезмерно точно аппроксимирует данные обучающего

множества (обучена, но не способна к обобщению)
Упростить сеть

Слайд 34 Аналогия с полиномом аппроксимации






Степень полинома
недостаточна






Степень полинома
избыточна

Аналогия с полиномом аппроксимацииСтепень полинома недостаточнаСтепень полинома избыточна

Слайд 35 Контрольное и тестовое множества
Как проверить качество обучения?
Кросс-проверка
Q=Q1∪Q2 (обучающее+контрольное)
E(Q1)

Контрольное и тестовое множестваКак проверить качество обучения?Кросс-проверкаQ=Q1∪Q2 (обучающее+контрольное)E(Q1) и E(Q2) убывают

и E(Q2) убывают – обучение идет правильно
E(Q1) убывает, E(Q2)

возрастает – переобучение
E(Q1) и E(Q2) не убывают – недообучение
Многократная проверка нескольких сетей
Q=Q1∪Q2 ∪Q3 (обучающее+контрольное+тестовое)

Слайд 36 Обучение ИНС – задача многомерной оптимизации
Задача оптимизации:

Обучение ИНС – задача многомерной оптимизацииЗадача оптимизации:	 min E(W)

min E(W) W
Произвольный вид функции

E, большая размерность
Многомерная невыпуклая задача оптимизации
Алгоритмы
Локальная оптимизация с использованием производных первого порядка
Градиентный метод, метод сопряженных градиентов
Локальная оптимизация с использованием производных первого и второго порядков
Ньютона, Гаусса-Ньютона, разреженных матриц Гессе
Стохастическая оптимизация
Монте-Карло, имитация отжига, генетические алгоритмы

Слайд 37 Практика Решение задачи классификации
import numpy as np
import pylab

Практика Решение задачи классификацииimport numpy as npimport pylab as plimport neurolab

as pl
import neurolab as nl
Рисование линии, разделяющей классы
pl.plot([0., 5.],[5.,

0.], 'b’)
Создание и рисование обучающих примеров
n = 10
xtrain = np.random.uniform(0, 5, (n, 2))
for i in range(n):
pl.plot(xtrain[i, 0], xtrain[i, 1], 'b+’)
Вычисление правильных ответов
d = np.zeros(n)
for i in range(n):
d[i] = np.sign(xtrain[i, 0] + xtrain[i, 1] - 5)
d = d.reshape(n, 1)

Слайд 38 Практика Решение задачи классификации
Создание сети прямого распространения с

Практика Решение задачи классификацииСоздание сети прямого распространения с сигмоидными функциями активацииMyFirstNet

сигмоидными функциями активации
MyFirstNet = nl.net.newff([[0, 5], [0, 5]], [5,

1])

Опрос необученной сети
y = MyFirstNet.sim(xtrain)
for i in range(n):
if y[i] > 0:
pl.plot(xtrain[i, 0], xtrain[i, 1], 'ro')
if y[i] < 0:
pl.plot(xtrain[i, 0], xtrain[i, 1], 'go')


Слайд 39 Обучение сети
err = MyFirstNet.train(xtrain, d, show=15)

Опрос обученной сети
y

Обучение сетиerr = MyFirstNet.train(xtrain, d, show=15)Опрос обученной сетиy = MyFirstNet.sim(xtrain)for i

= MyFirstNet.sim(xtrain)
for i in range(n):
if y[i] >

0:
pl.plot(xtrain[i, 0], xtrain[i, 1], 'ro')
if y[i] < 0:
pl.plot(xtrain[i, 0], xtrain[i, 1], 'go')

Практика Решение задачи классификации


Слайд 40 Создание тестового множества
ntest = 25 * 25
xtest =

Создание тестового множестваntest = 25 * 25xtest = np.zeros(ntest * 2)xtest

np.zeros(ntest * 2)
xtest = xtest.reshape(ntest, 2)
i = 0
k0 =

0.
while k0 < 5:
k1 = 0.
while k1 < 5:
xtest[i, 0] = k0
xtest[i, 1] = k1
i += 1
k1 += 0.2
k0 += 0.2

Практика Решение задачи классификации


  • Имя файла: iskusstvennye-neyronnye-seti.pptx
  • Количество просмотров: 130
  • Количество скачиваний: 0