Лекции.Орг


Поиск:




Категории:

Астрономия
Биология
География
Другие языки
Интернет
Информатика
История
Культура
Литература
Логика
Математика
Медицина
Механика
Охрана труда
Педагогика
Политика
Право
Психология
Религия
Риторика
Социология
Спорт
Строительство
Технология
Транспорт
Физика
Философия
Финансы
Химия
Экология
Экономика
Электроника

 

 

 

 


Основные конфигурации ИНС и их свойства




Искусственная нейронная сеть (ИНС) представляет собой совокупность определенным образом соединенных между собой и с внешней средой нейронов трех типов – входных, выходных и промежуточных. С точки зрения топологии ИНС различают:

1) полносвязные НС (рис. 3.1 а), где каждый нейрон передает свой выходной сигнал всем остальным, в том числе и самому себе, все входные сигналы подаются всем нейронам, а выходными сигналами могут быть отклики всех или некоторых нейронов после нескольких тактов функционирования сети;

2) слоистые или многослойные НС, в которых нейроны расположены в несколько слоев. Нейроны нулевого слоя служат для приема входных сигналов и передачи их через точки ветвления всем нейронам следующего (скрытого) слоя без обработки, 1-й слой осуществляет первичную обработку входных сигналов и формирует сигналы для 2-го слоя, который таким же образом формирует сигналы для 3-го и т.д. вплоть до последнего слоя, который образует выход НС. Число нейронов в каждом слое может быть любым и никак не связанным с количеством нейронов в других слоях. Если не оговорено особо, то каждый выходной сигнал i-го слоя подается на входы всех нейронов (i+1)-го.

Среди многослойных НС выделяют, в свою очередь, следующие типы:

а) НС прямого распространения, в которых отсутствуют обратные связи (ОС), т.е. подача выходных сигналов любого слоя на входы нейронов этого же или любого предыдущего слоя.

б) рекуррентные НС, где указанные ОС присутствуют в том или ином варианте.

Наиболее часто используются трехслойные НС прямого распространения с одним скрытым слоем (рис. 3.1 б), которые иногда называют двухслойными из-за отсутствия обработки информации нейронами входного слоя;

3) слабосвязные НС, где нейроны располагаются в узлах прямоугольной или гексагональной решетки. При этом каждый нейрон может быть связан с четырьмя (окрестность фон Неймана, рис. 3.1 в), шестью (окрестность Голея) или восемью (окрестность Мура, рис. 3.1 г) ближайшими соседями.

 

Выбор структуры НС обусловлен спецификой решаемой задачи и подчиняется следующим правилам:

- информационная мощность НС возрастает с увеличением числа слоев, нейронов, связей, усилению мощности НС способствует также использование в ее составе различных типов нейронов;

- возможности НС увеличивает введение ОС, однако при этом возникает проблема обеспечения динамической устойчивости сети.

Вопрос о необходимых и достаточных свойствах НС для решения тех или иных задач представляет собой целое направление нейрокомпьютерной науки. Подробные рекомендации здесь практически отсутствуют и в большинстве случаев оптимальный вариант получается на основе интуитивного подбора, хотя в принципе для любого алгоритма существует реализующая его НС.

Подавляющая часть прикладных задач может быть сведена к реализации некоторого многомерного функционального преобразования (вход) X®Y (выход), где правильность выходных сигналов необходимо обеспечить в соответствии:

- со всеми примерами обучающей выборки;

- со всеми возможными входными сигналами, не вошедшими в обучающую выборку, что в значительной степени осложняет задачу формирования последней.

Вообще говоря, построить многомерное отображение X®Y – это значит представить его с помощью математических операций над не более чем двумя переменными. В результате многолетней научной полемики между А.Н. Колмогоровым и В.В. Арнольдом в 1957 году была доказана теорема о представимости непрерывных функций нескольких переменных суперпозицией непрерывных функций одной переменной, которая в 1987 году была переложена Хехт–Нильсеном для нейронных сетей: любая функция нескольких переменных может быть представлена двухслойной НС с прямыми полными связями с N нейронами входного слоя, (2 N +1) нейронами скрытого слоя с ограниченными функциями активации (например, сигмоидальными) и М нейронами выходного слоя с неизвестными функциями активации.

Из теоремы Колмогорова–Арнольда–Хехт–Нильсена (КАХН) следует, что для любой функции многих переменных существует отображающая ее НС фиксированной размерности, при настройке (обучении) которой могут использоваться три степени свободы:

- область значений сигмоидальных функций активации нейронов скрытого слоя;

- наклон сигмоид нейронов этого слоя;

- вид функций активации нейронов выходного слоя.

Точной оценки числа нейронов К в скрытом слое для каждой конкретной выборки с р элементами нет, однако можно использовать одно из наиболее простых приближенных соотношений:

(3.1)

Иногда целесообразно использовать НС с бóльшим числом слоев, имеющие (при решении тех же задач) меньшие размерности матриц [W] нейронов скрытых слоев, однако строгой методики построения таких НС пока нет.





Поделиться с друзьями:


Дата добавления: 2015-11-23; Мы поможем в написании ваших работ!; просмотров: 832 | Нарушение авторских прав


Поиск на сайте:

Лучшие изречения:

Самообман может довести до саморазрушения. © Неизвестно
==> читать все изречения...

2514 - | 2363 -


© 2015-2024 lektsii.org - Контакты - Последнее добавление

Ген: 0.012 с.