Лекции.Орг


Поиск:




Категории:

Астрономия
Биология
География
Другие языки
Интернет
Информатика
История
Культура
Литература
Логика
Математика
Медицина
Механика
Охрана труда
Педагогика
Политика
Право
Психология
Религия
Риторика
Социология
Спорт
Строительство
Технология
Транспорт
Физика
Философия
Финансы
Химия
Экология
Экономика
Электроника

 

 

 

 


Алгоритм переменной метрики (АПМ)




В основе АПМ лежит ньютоновский алгоритм оптимизации с использованием вторых производных оценки, т.е. трех первых слагаемых в разложении (3.2). Для достижения минимума необходимо, чтобы , т.е. дифференцированием (3.2) условие оптимальности можно получить в виде с очевидным решением

(3.5)

однозначно указывающим направление, гарантирующее достижение на данном шаге минимальной .

Применение (3.5) требует положительной определенности на каждом шаге, что в общем случае практически неосуществимо, поэтому в известных реализациях алгоритма, как правило, вместо точного используется его приближение , при котором гессиан или обратная ему величина модифицируется на величину некоторой поправки, вычис–ляемой по формулам Бройдена–Флетчера–Гольдфарба–Шенно (BFGS – метод) или Дэвидона–Флетчера–Пауэлла (DFP – метод). Если обозначить то процесс уточнения матрицы V можно описать рекуррентными зависимостями: для BFGS – метода –

(3.6)

 

а для DFP – метода –

(3.7)

где в качестве начального значения обычно принимается V 0=1, а первая итерация выполняется в соответствии с АНС. Показано, что обеспечение с помощью (3.5), (3.6) положительной определенности гессиана на каждом шаге итерации действительно гарантирует решение проблемы оптимизации, причем метод BFGS менее чувствителен к различным погрешностям вычислительного процесса.

АПМ характеризуется более быстрой сходимостью, чем АНС, и именно он в настоящее время считается одним из наиболее эффективных методов оптимизации функций нескольких переменных, а, следовательно, и обучения ИНС. Его недостаток – это большие вычислительные затраты, связанные с необходимостью расчета и хранения в памяти n 2 элементов гессиана в каждом цикле, что при оптимизации функции с большим количеством переменных может стать серьезной проблемой. По этой причине метод применяется для не очень больших НС, имеющих не более тысячи взвешенных связей.

3.2.1.3. Алгоритм Левенберга–Марквардта (АЛМ)

Как и АПМ, АЛМ относится к ньютоновским методам оптимизации с заменой приближенным , рассчитываемым на основе имеющейся информации о с учетом некоторого фактора регуляризации. Обозначая

(3.8)

где , вектор градиента и матрицу можно представить в виде

(3.9)

где – компоненты с высшими производными относительно , которые в АЛМ аппроксимируются с помощью скалярного параметра Левенберга–Марквардта u, изменяющегося в процессе оптимизации таким образом, что

(3.10)

В начале обучения, когда значения далеки от решения, используют , т.е. и , однако по мере уменьшения погрешности первое слагаемое в (3.10) начинает играть все более важную роль. Эффективность метода сильно зависит от выбора ut. Существуют различные способы подбора этого параметра, однако наиболее известна методика Д. Марквардта:

– если , то , где r >1 – коэффициент уменьшения u;

– если , а , то ;

– если и , то до достижения .

Заметим, что в непосредственной близости к точке решения u =0, процесс определения сводится к аппроксимации 1–го порядка, а АЛМ превращается в алгоритм Гаусса–Ньютона, характеризующийся квадратичной сходимостью к оптимальному решению.





Поделиться с друзьями:


Дата добавления: 2015-11-23; Мы поможем в написании ваших работ!; просмотров: 704 | Нарушение авторских прав


Поиск на сайте:

Лучшие изречения:

Если вы думаете, что на что-то способны, вы правы; если думаете, что у вас ничего не получится - вы тоже правы. © Генри Форд
==> читать все изречения...

2261 - | 2183 -


© 2015-2024 lektsii.org - Контакты - Последнее добавление

Ген: 0.01 с.