Персептрон. Процедура обучения Розенблатта
Данную процедуру предложил американский учёный Ф. Розенблатт в 1959 г. для нейронной сети, которую он назвал персептроном. Персептрон – это сеть, состоящая из S, A и R нейронов. Нейроны слоя S называются сенсорными и предназначены для формирования входных сигналов в результате внешних воздействий. Нероны слоя A называются ассоциативными и предназначены для непосредственной обработки входной информации. Нейроны слоя R называются эффекторными. Они служат для передачи сигналов возбуждения к соответствующему объекту, например, к мышцам. Таким образом, персептрон Розенблатта содержит один слой обрабатывающих нейронных элементов с пороговой функцией активации. Поэтому обучение персептрона происходит путем настройки весовых коэффициентов W между слоями S и А. В дальнейшем будем использовать стандартную интерпретацию нейронной сети Розенблатта, которая состоит из набора входных нейронов, выполняющих чисто распределительные функции, и набора выходных нейронов с пороговой функцией активации. Математическую формулировку правила обучения Розенблатта можно представить в следующем виде: wij (t +1) = wij (t) + a xi tj где tj – эталонное значение j -го выхода сети; a=const – скорость обучения (0<a£1). Процедура обучения Розенблатта называется алгоритмом обучения с подкреплением. Она характеризуется тем, что весовые коэффициенты нейронной сети изменяются только в том случае, если выходная реакция сети не совпадает с эталонной. Алгоритм обучения Розенблатта состоит из следующих шагов: 1. Весовые коэффициенты W нейронной сети инициализируются случайным образом или устанавливаются в нулевое состояние. 2. На входы сети поочередно подаются входные образы X из обучающей выборки, которые трансформируются в выходные сигналы нейронных элементов Y. 3. Если реакция нейронной сети уj совпадает с эталонным значением tj (уj = tj), то весовой коэффициент wij не изменяется. 4. Если выходная реакция не совпадает с эталонной (уj ¹ tj), то производится модификация весовых коэффициентов по правилу: wij (t +1) = wij (t) + a xi tj. 5. Алгоритм продолжается до тех пор, пока не станет уj = tj для всех входных образов, или не перестанут изменяться весовые коэффициенты. Согласно теореме сходимости персептрона, алгоритм сходится за конечное число шагов, если существует решение задачи. Основные отличия процедуры обучения Розенблатта от правила обучения Хебба заключаются в следующем: 1. В правиле обучения Розенблатта для персептрона присутствует скорость обучения a. 2. Персептрон не изменяет весовые коэффициенты, если выходные сигналы совпадают с эталонными. 3. Входные образы из обучающей выборки в модели персептрона подаются до тех пор, пока не произойдет обучение сети. 4. Персептрон обучается за конечное число шагов, если существует решение задачи. ♦ Линейная разделяющая поверхность, формируемая персептроном, ограничивает круг решаемых им задач. Это исследовали в 1969 г. М. Минский и С. Пайперт, которые показали, что персептрон не может решить логическую задачу ИСКЛЮЧАЮЩЕЕ ИЛИ. Выводы их по поводу перспектив персептронной модели были весьма пессимистичными. В связи с этим исследования в области нейронных сетей были почти полностью прекращены вплоть до конца 70-х годов.
|