Основы теории нейронных сетей

       

Обучение когнитрона


Так как когнитрон реализован в виде многослойной сети, возникают сложные проблемы обучения, связанные с выбранной структурой. Получая обучающий набор входных образов, сеть самоорганизуется посредством изменения силы синаптических связей. При этом отсутствуют предварительно определенные выходные образы, представляющие требуемую реакцию сети, однако сеть самонастраивается с целью распознавания входных образов с замечательной точностью.

Алгоритм обучения когнитрона является концептуально привлекательным. В заданной области слоя обучается только наиболее сильно возбужденный нейрон. Автор сравнивает это с "элитным обучением", при котором обучаются только "умные" элементы. Те нейроны, которые уже хорошо обучены, что выражается силой их возбуждения, получат приращение силы своих синапсов с целью дальнейшего усиления своего возбуждения.

На рис. 13.2 показано, что области связи соседних узлов значительно перекрываются. Такое расточительное дублирование функций оправдывается взаимной конкуренцией между ближайшими узлами. Даже если узлы в начальный момент имеют абсолютно идентичный выход, небольшие отклонения всегда случаются; один из узлов всегда будет иметь более сильную реакцию на входной образ, чем соседние. Его сильное возбуждение будет оказывать сдерживающее воздействие на возбуждение соседних узлов, и усиливаться будут только его синапсы — синапсы соседних узлов останутся неизменными.

Обучение когнитрона

Рис. 13.2. 

Возбуждающий нейрон.

Можно сказать, что выход возбуждающего нейрона в когнитроне определяется отношением его возбуждающих входов к тормозящим входам. Эта необычная функция имеет важные преимущества, как практические, так и теоретические. Суммарный возбуждающий вход в нейрон является взвешенной суммой входов от возбуждающих входов в предшествующем слое. Аналогично суммарный вход является взвешенной суммой входов от всех тормозящих нейронов. В символьном виде

Обучение когнитрона

где

Обучение когнитрона
— вес
Обучение когнитрона
-го возбуждающего синапса,
Обучение когнитрона
— выход
Обучение когнитрона
-го возбуждающего нейрона,
Обучение когнитрона
— вес
Обучение когнитрона
-го торозящего синапса,
Обучение когнитрона
— выход
Обучение когнитрона
-го торозящего нейрона.




Заметим, что веса имеют только положительные значения. Выход нейрона затем вычисляется следующим образом:

Обучение когнитрона


Предполагая, что NET имеет положительное значение, можно записать:

Обучение когнитрона


Когда тормозящий вход мал (
Обучение когнитрона
), OUT может быть аппроксимировано как

Обучение когнитрона


что соответствует выражению для обычного линейного порогового элемента (с нулевым порогом).



Таким образом,

Обучение когнитрона


где
Обучение когнитрона
,
Обучение когнитрона
— возбуждающий вес
Обучение когнитрона
.

Процедура обучения.

Как объяснялось ранее, веса возбуждающих нейронов изменяются только тогда, когда нейрон возбужден сильнее, чем любой из узлов в области конкуренции. Если это так, изменение в процессе обучения любого из его весов может быть определено следующим образом:

Обучение когнитрона


где
Обучение когнитрона
— тормозящий вес связи нейрона
Обучение когнитрона
в слое 1 с тормозящим нейроном
Обучение когнитрона
,
Обучение когнитрона
— выход нейрона
Обучение когнитрона
в слое 1,
Обучение когнитрона
— возбуждающий вес
Обучение когнитрона
,
Обучение когнитрона
— нормирующий коэффициент обучения.

Изменение тормозящих весов нейрона
Обучение когнитрона
в слое 2 пропорционально отношению взвешенной суммы возбуждающих входов к удвоенному тормозящему входу. Вычисления проводятся по формуле

Обучение когнитрона


Когда возбужденных нейронов в области конкуренции нет, для изменения весов используются другие выражения. Это необходимо, поскольку процесс обучения начинается с нулевыми значениями весов; поэтому первоначально нет возбужденных нейронов ни в одной области конкуренции, и обучение производиться не может. Во всех случаях, когда победителя в области конкуренции нейронов нет, изменение весов нейронов вычисляется следующим образом:

Обучение когнитрона


где
Обучение когнитрона
— положительный обучающий коэффициент, меньший, чем
Обучение когнитрона
.

Приведенная стратегия настройки гарантирует, что узлы с большой реакцией заставляют возбуждающие синапсы, которыми они управляют, увеличиваться сильнее, чем тормозящие синапсы. Верна и обратная зависимость: узлы, имеющие малую реакцию, вызывают малое возрастание возбуждающих синапсов, но большее возрастание тормозящих синапсов. Таким образом, если узел 1 в слое 1 имеет больший выход, синапс
Обучение когнитрона


возрастет больше, чем синапс
Обучение когнитрона
. И наоборот, узлы, имеющие малый выход, обеспечат малую величину для приращения
Обучение когнитрона
. Однако другие узлы в области связи будут возбуждаться, тем самым увеличивая сигнал INHIB и значения
Обучение когнитрона
.

В процессе обучения веса каждого узла в слое 2 настраиваются таким образом, что вместе они составляют шаблон, соответствующий образам, которые часто предъявляются в процессе обучения. При предъявлении сходного образа шаблон соответствует ему и узел вырабатывает большой выходной сигнал.



Сильно отличающийся образ вызывает малый выход и обычно подавляется конкуренцией.

Латеральное торможение. На рис. 13.3 показано, что каждый нейрон слоя 2 получает латеральное торможение от нейронов, расположенных в его области конкуренции. Тормозящий нейрон суммирует входы от всех нейронов в области конкуренции и вырабатывает сигнал, стремящийся к торможению целевого нейрона. Этот метод является эффектным, но с вычислительной точки зрения медленным. Он охватывает большую систему с обратной связью, включающую каждый нейрон в слое; для его стабилизации может потребоваться большое количество вычислительных итераций.

Для ускорения вычислений используется остроумный метод ускоренного латерального торможения (см. рис. 13.4). Здесь дополнительный узел латерального торможения обрабатывает выход каждого возбуждающего узла для моделирования требуемого латерального торможения. Сначала он определяет сигнал, равный суммарному тормозящему влиянию в области конкуренции:

Обучение когнитрона


где
Обучение когнитрона
— выход
Обучение когнитрона
-го нейрона в области конкуренции,
Обучение когнитрона
— вес связи от этого нейрона к латерально-тормозящему нейрону;
Обучение когнитрона


выбраны таким образом, что
Обучение когнитрона
.

Обучение когнитрона

Рис. 13.4. 

Выход тормозящего нейрона
Обучение когнитрона
затем вычисляется следующим образом:

Обучение когнитрона


Благодаря тому что все вычисления, связанные с таким типом латерального торможения, являются нерекурсивными, они могут быть проведены за один проход для слоя. Такой подход позволяет весьма эффективно экономить вычисления.

Метод ускоренного латерального торможения решает и другую сложную проблему. Предположим, что узел в слое 2 возбуждается сильно, но возбуждение соседних узлов уменьшается постепенно с увеличением расстояния. При использовании обычного латерального торможения будет обучаться только центральный узел: другие узлы определят, что центральный узел в их области конкуренции имеет более высокий выход. С предлагаемой системой латерального торможения такой ситуации случиться не может. Множество узлов может обучаться одновременно, и процесс обучения становится более достоверным.


Содержание раздела