В основе АПМ лежит ньютоновский алгоритм оптимизации с использованием вторых производных оценки, т.е. трех первых слагаемых в разложении (3.2). Для достижения минимума необходимо, чтобы , т.е. дифференцированием (3.2) условие оптимальности можно получить в виде с очевидным решением
(3.5)
однозначно указывающим направление, гарантирующее достижение на данном шаге минимальной .
Применение (3.5) требует положительной определенности на каждом шаге, что в общем случае практически неосуществимо, поэтому в известных реализациях алгоритма, как правило, вместо точного используется его приближение , при котором гессиан или обратная ему величина модифицируется на величину некоторой поправки, вычис–ляемой по формулам Бройдена–Флетчера–Гольдфарба–Шенно (BFGS – метод) или Дэвидона–Флетчера–Пауэлла (DFP – метод). Если обозначить то процесс уточнения матрицы V можно описать рекуррентными зависимостями: для BFGS – метода –
(3.6)
а для DFP – метода –
(3.7)
где в качестве начального значения обычно принимается V 0=1, а первая итерация выполняется в соответствии с АНС. Показано, что обеспечение с помощью (3.5), (3.6) положительной определенности гессиана на каждом шаге итерации действительно гарантирует решение проблемы оптимизации, причем метод BFGS менее чувствителен к различным погрешностям вычислительного процесса.
АПМ характеризуется более быстрой сходимостью, чем АНС, и именно он в настоящее время считается одним из наиболее эффективных методов оптимизации функций нескольких переменных, а, следовательно, и обучения ИНС. Его недостаток – это большие вычислительные затраты, связанные с необходимостью расчета и хранения в памяти n 2 элементов гессиана в каждом цикле, что при оптимизации функции с большим количеством переменных может стать серьезной проблемой. По этой причине метод применяется для не очень больших НС, имеющих не более тысячи взвешенных связей.
3.2.1.3. Алгоритм Левенберга–Марквардта (АЛМ)
Как и АПМ, АЛМ относится к ньютоновским методам оптимизации с заменой приближенным , рассчитываемым на основе имеющейся информации о с учетом некоторого фактора регуляризации. Обозначая
(3.8)
где , вектор градиента и матрицу можно представить в виде
(3.9)
где – компоненты с высшими производными относительно , которые в АЛМ аппроксимируются с помощью скалярного параметра Левенберга–Марквардта u, изменяющегося в процессе оптимизации таким образом, что
(3.10)
В начале обучения, когда значения далеки от решения, используют , т.е. и , однако по мере уменьшения погрешности первое слагаемое в (3.10) начинает играть все более важную роль. Эффективность метода сильно зависит от выбора ut. Существуют различные способы подбора этого параметра, однако наиболее известна методика Д. Марквардта:
– если , то , где r >1 – коэффициент уменьшения u;
– если , а , то ;
– если и , то до достижения .
Заметим, что в непосредственной близости к точке решения u =0, процесс определения сводится к аппроксимации 1–го порядка, а АЛМ превращается в алгоритм Гаусса–Ньютона, характеризующийся квадратичной сходимостью к оптимальному решению.