Лучшие вопросы
Таймлайн
Чат
Перспективы

Дельта-правило

Из Википедии, свободной энциклопедии

Remove ads

Де́льта-пра́вило — метод обучения перцептрона по принципу градиентного спуска по поверхности ошибки. Его дальнейшее развитие привело к созданию метода обратного распространения ошибки.

Дельта-правило

Суммиров вкратце
Перспектива

Собственно дельта-правилом называют математическую форму записи. Пусть вектор  — вектор входных сигналов, а вектор  — вектор сигналов, которые должны быть получены от перцептрона под воздействием входного вектора. Здесь  — число нейронов, составляющих перцептрон. Входные сигналы, поступив на входы перцептрона, были взвешены и просуммированы, в результате чего получен вектор выходных значений перцептрона. Тогда можно определить вектор ошибки , размерность которого совпадает с размерностью вектора выходных сигналов. Компоненты вектора ошибок определяются как разность между ожидаемым и реальным значением выходного сигнала перцептронного нейрона:

При таких обозначениях формулу для корректировки j-го веса i-го нейрона можно записать следующим образом:

Номер сигнала изменяется в пределах от единицы до размерности входного вектора . Номер нейрона изменяется в пределах от единицы до количества нейронов . Величина  — номер текущей итерации обучения. Таким образом, вес входного сигнала нейрона изменяется в сторону уменьшения ошибки пропорционально величине суммарной ошибки нейрона. Часто вводят коэффициент пропорциональности , на который умножается величина ошибки. Этот коэффициент называют скоростью или нормой[1] обучения. Таким образом, итоговая формула для корректировки весов:

Remove ads

Обобщенное дельта-правило

Суммиров вкратце
Перспектива

С целью расширения круга задач, решаемых перцептроном, Уидроу и Хоффом[2] была предложена сигмоидальная функция активации для нейронов. Это позволило перцептрону оперировать с непрерывными сигналами, но потребовало модификации алгоритма обучения[3]. Модифицированный алгоритм направлен на минимизацию функции среднеквадратичной ошибки:

Эта функция определяется матрицей весовых коэффициентов . Здесь  — номер нейрона, а  — номер входа. Поверхность, описываемая этой функцией имеет форму псевдопараболоида[4]. Задачей обучения является нахождение глобального минимума этой поверхности. Одним из способов нахождения минимума является метод градиентного спуска. Корректировка весов производится в направлении антиградиента поверхности:

Здесь  — коэффициент скорости обучения.

Функция ошибки является сложной и зависит в первую очередь от выходных сигналов перцептрона. В соответствии с правилами дифференцирования сложных функций:

(*)

Выходной сигнал каждого нейрона определяется по формуле:

Здесь  — число входов перцептрона,  — сигнал на j-ом входе, а  — функция активации. Тогда получим:

(**)

Продифференцировав функцию ошибки по значению выходного сигнала получим:

(***)

Подставив формулы (**) и (***) в выражение (*) получим выражение для корректировки веса j-го входа у i-го нейрона при любой активационной функции[5]:

Из этой формулы видно, что в качестве активационной функции при использовании обобщенного дельта-правила функция активации нейронов должна быть непрерывно дифференцируемой на всей оси абсцисс. Преимущество имеют функции активации с простой производной (например — логистическая кривая или гиперболический тангенс).

На основе дельта-правила Уидроу и Хопфом был создан один из первых аппаратных нейрокомпьютеров Адалин (1960).

Remove ads

Примечания

См. также

Литература

Loading related searches...

Wikiwand - on

Seamless Wikipedia browsing. On steroids.

Remove ads