Timeline
Chat
Prospettiva
Rete neurale residuale
Da Wikipedia, l'enciclopedia libera
Remove ads
Una rete neurale residuale o residua (oppure ResNet)[1] è un'architettura di apprendimento profondo in cui i livelli apprendono le funzioni residue con riferimento agli input degli strati stessi. È stato sviluppato nel 2015 per il riconoscimento delle immagini e ha vinto l'ImageNet Large Scale Visual Recognition Challenge (ILSVRC) di quell'anno.[2][3]

Come terminologia, "connessione residuale" si riferisce al pattern di struttura architettonica:
dove è un modulo di rete neurale arbitrario. Il pattern era già stato utilizzato in precedenza (vedi §Storia per i dettagli). Tuttavia, la pubblicazione di ResNet lo ha reso molto popolare per le reti feed-forward, comparendo in reti neurali apparentemente non correlate a ResNet.
La connessione residuale stabilizza l'addestramento e la convergenza delle reti neurali profonde con centinaia di livelli ed è un pattern comune in queste, come i modelli di trasformatori (ad esempio BERT e modelli GPT come ChatGPT ), il sistema AlphaGo Zero, il sistema AlphaStar e il sistema AlphaFold.
Remove ads
Matematica
Connessioni residuali
In un modello di rete neurale multilivello, si consideri una sottorete con un certo numero di strati impilati (ad esempio, 2 o 3).
Indichiamo con la funzione eseguita da questa sottorete, dove è l'input alla sottorete. L'apprendimento residuo riformula questa sottorete facendo in modo che i layer parametrizzati rappresentino una funzione residua . L'uscita di questa sottorete viene quindi rappresentata come:
Remove ads
Note
Wikiwand - on
Seamless Wikipedia browsing. On steroids.
Remove ads