Основы теории нейронных сетей

       

Матрица Хебба с ортогонализацией образов


На предыдущей лекции было установлено, что ортогональность образов обучающей выборки является весьма благоприятным обстоятельством, так как в этом случае можно показать их устойчивое сохранение в памяти. При точной ортогональности достигается максимальная емкость памяти, равная

Матрица Хебба с ортогонализацией образов
— максимально возможному числу ортогональных образов из
Матрица Хебба с ортогонализацией образов
компонент.

На этом свойстве ортогональных образов и основан один из наиболее часто используемых способов улучшения правила Хебба: перед запоминанием в нейронной сети исходные образы следует ортогонализовать. Процедура ортогонализации приводит к новому виду матрицы памяти:

Матрица Хебба с ортогонализацией образов

где

Матрица Хебба с ортогонализацией образов
— матрица, обратная к матрице
Матрица Хебба с ортогонализацией образов
:

Матрица Хебба с ортогонализацией образов

Такая форма матрицы памяти обеспечивает воспроизведение любого набора из

Матрица Хебба с ортогонализацией образов
образов. Однако существенным недостатком этого метода является его нелокальность: обучение связи между двумя нейронами требует знания состояний всех других нейронов. Кроме того, прежде чем начать обучение, необходимо заранее знать все обучающие образы. Добавление нового образа требует полного переобучения сети. Поэтому данный подход весьма далек от исходных биологических оснований сети Хопфилда—Хебба, хотя на практике приводит к заметным улучшениям ее функционирования.



Содержание раздела