Top Qs
Chronologie
Chat
Contexte

Redresseur (réseaux neuronaux)

la fonction 𝑓 définie par 𝑓(𝑥)=max{0, 𝑥} De Wikipédia, l'encyclopédie libre

Redresseur (réseaux neuronaux)
Remove ads

En mathématiques, la fonction Unité Linéaire Rectifiée (ou ReLU pour Rectified Linear Unit) est définie par :

Thumb
Graphique de la fonction Unité Linéaire Rectifiée

pour tout réel

Elle est fréquemment utilisée comme fonction d'activation dans le contexte du réseau de neurones artificiels pour sa simplicité de calcul, en particulier de sa dérivée.

Remove ads

Variations

Un désavantage de la fonction ReLU est que sa dérivée devient nulle lorsque l'entrée est négative ce qui peut empêcher la rétropropagation du gradient[1]. On peut alors introduire une version appelée Leaky ReLU définie par :

pour tout réel

Le paramètre est un réel strictement positif et inférieur à 1 La dérivée est alors égale à lorsque x est strictement négatif, ce qui permet de conserver la mise à jour des poids d'un perceptron utilisant cette fonction d'activation.

Remove ads

Notes et références

Loading related searches...

Wikiwand - on

Seamless Wikipedia browsing. On steroids.

Remove ads