Лекции.Орг


Поиск:




Категории:

Астрономия
Биология
География
Другие языки
Интернет
Информатика
История
Культура
Литература
Логика
Математика
Медицина
Механика
Охрана труда
Педагогика
Политика
Право
Психология
Религия
Риторика
Социология
Спорт
Строительство
Технология
Транспорт
Физика
Философия
Финансы
Химия
Экология
Экономика
Электроника

 

 

 

 


Ограниченность однослойного персептрона

Нейроинформатика

В рамках нейроинформатики рассматриваются устройства структурно и функционально подобные мозгу человека.

Поэтому схематично нейрон можно представить в следующем виде:

Дендриты
Тело клетки
Аксон

 

 


Выделим основные типы задач, успешно решаемых при помощи искусственных нейронных сетей в настоящее время:

1) аппроксимация функций (построение моделей трудно формализуемых зависимостей).

Предположим, что имеется обучающая выборка ((x1, y1), (x2, y2), …, (xn, yn)), представленная парами вход – выход, которая генерируется неизвестной функцией y = f(x), искаженной шумом.

Задача аппроксимации состоит в нахождении оценки неизвестной функции y = f(x), что используется при решении многочисленных инженерных и научных задач моделирования

2) классификация образов (задача состоит в указании принадлежности входного образа, представленного вектором признаков, одному или нескольким предварительно определенным классам)

3) кластеризация (в этом случае отсутствует обучающая выборка с метками классов).

Алгоритм кластеризации основан на подобии образов и размещает похожие образы в один кластер, а не похожие – в другой.

4) прогнозирование

5) задачи оптимизации

6) задачи управления.

Для применения нейронных сетей желательно выполнение следующих условий:

1. Накоплены достаточные объемы данных о поведении системы в предыдущие периоды времени;

2. Не существует традиционных методов или алгоритмов, которые удовлетворительно решают требуемую задачу;

3. Исходные данные частично искажены, противоречивы или не полны и поэтому традиционные методы решения выдают неудовлетворительный результат.

Далее обратимся к истории развития искусственных нейронных сетей.

В модели математического нейрона можно выделить три основных элемента:

1. Набор связей (синапсов), каждая из которых характеризуется своим весом.

2. Сумматор.

3. Функция активации.

В математическом нейроне в качестве функции активации использовалась пороговая функция (рис. 3.2).

Математические нейроны могут реализовывать различные логические функции. Так, математический нейрон, имеющий два входа с единичными силами связей , реализует функцию логического умножения «И» при и функцию логического сложения «ИЛИ» при .

Нейрон с одним входом, у которого , реализует логическую функцию «НЕТ» при .

 

Фактически рассматриваемый персептрон состоит из одного единственного математического нейрона, который вместо реализации логических функций проводит классификацию цифр на четные и нечетные.

 

Ограниченность однослойного персептрона

Когда Ф. Розенблатту удалось обучить персептрон распознаванию букв латинского алфавита, это был колоссальный успех.

Многослойный персептрон

 

Двухслойный персептрон является наиболее общим классом сетей и способен формировать произвольные выпуклые многоугольные решающие области.

Именно двухслойные персептроны, содержащие входной, скрытый и выходной слои нейронов, чаще всего применяются на практике, так как они позволяют воспроизводить достаточно сложные зависимости.

В общем случае можно выделить три фундаментальных класса архитектур нейронных сетей:

Рассмотрим чуть подробнее первый вид архитектуры.

Второй вид архитектуры –

Третий вид архитектуры –

В искусственных нейронных сетях, используемых в научных и практических целях в настоящее время используются различные функции активации. Рассмотрим наиболее распространенные из них. Пусть значение, подаваемое в качестве аргумента для пороговой функции обозначено как и ранее через , а выходной сигнал -

Виды функций активации:

1. Пороговая функция

 

2. Сигмоидальная функция

 

а) логистическая функция

б) гиперболический тангенс

3. Линейная функция

а) с неограниченной областью изменения

б) с ограниченной областью изменения

4. Радиально-базисная функция

 

Рассмотрим алгоритм решения задач при использовании искуссвенных нейронных сетей:

1. Постановка задачи

2. Формирование обучающего множества (обучающей выборки)

3. Выбор нейросетевой модели (структуры нейронной сети), в рамках которой будет производиться решение задачи

4. Выполнение алгоритма обучения сети

5. Тестирование обученной сети на новых данных, которых не было в обучающем множестве.

Далее рассмотрим немного подробнее вопрос обучения нейронных сетей. В целом, суть всего процесса обучения нейросетей состоит в подстройке синаптических весов (то есть величин, обозначенных wij). Первоначальные значения указанных величин в большинстве случаев назначаются датчиком случайных чисел, после чего происходит их корректировка в соответствии с некоторыми правилами.

Схему процесса обучения нейронной сети можно представить в следующем виде:

Рассмотрим парадигмы обучения нейронных сетей.

 

Таким образом, для обучения с учителем характерно наличие в обучающей выборке ожидаемых ответов сети. Например, для обучения нейронной сети, используемой для аппроксимации значений неизвестной функции, обучающее множество можно представить в виде:

x            
y 0.6          

 

Выделим наиболее распространенные алгоритмы обучения нейронных сетей в рамках обучения с учителем:

1. Методы локальной оптимизации с вычислением частных производных 1-го порядка:

а) метод градиентного спуска (наиболее распространенный пример - алгоритм обратного распространения ошибки)

б) методы с одномерной и двумерной оптимизацией целевой функции в направлении антиградиента

в) метод сопряженных градиентов

 

2. Методы локальной оптимизации вычислением частных производных 1-го и 2-го порядков:

а) квазиньютоновские методы

б) методы оптимизации с разреженными матрицами Гессе

в) метод Левенберга-Маркардта

 

3. Методы стохастической оптимизации:

а) методы случайного поиска

б) метод Монте-Карло

в) метод квази Монте-Карло

 

4. Методы глобальной оптимизации (переборные методы).

Задачи глобальной оптимизации решаются с помощью перебора значений переменных, от которых зависит целевая функция.

Для сравнения эффективности методов обучения нейросетей используют следующие критерии:

· количество шагов алгоритма;

· количество дополнительных переменных.

 

 


Выделим наиболее распространенные алгоритмы обучения нейронных сетей в рамках обучения без учителя:

1. Алгоритмы обучения Хебба

а) сигнальный метод обучения Хебба

б) дифференциальный метод обучения Хебба

 

2. Алгоритм обучения Кохонена

 



<== предыдущая лекция | следующая лекция ==>
V. Организация деятельности МЧС России | Примеры практического применения
Поделиться с друзьями:


Дата добавления: 2017-02-24; Мы поможем в написании ваших работ!; просмотров: 1493 | Нарушение авторских прав


Поиск на сайте:

Лучшие изречения:

Своим успехом я обязана тому, что никогда не оправдывалась и не принимала оправданий от других. © Флоренс Найтингейл
==> читать все изречения...

2351 - | 2153 -


© 2015-2024 lektsii.org - Контакты - Последнее добавление

Ген: 0.013 с.