Top-Fragen
Zeitleiste
Chat
Kontext

Dropout (künstliches neuronales Netz)

Regularisierungsmethode Aus Wikipedia, der freien Enzyklopädie

Remove ads

Dropout ist eine Regularisierungsmethode, die in künstlichen neuronalen Netzen Anwendung findet und die Gefahr von Overfitting verringert.

Dabei wird beim Training des Netzwerks eine vorher spezifizierte Anzahl (etwa 30 %) von Neuronen in jedem Layer des Netzwerks ausgeschaltet (“dropout”) und für den kommenden Berechnungsschritt nicht berücksichtigt.[1] Dies stellt einen sehr effektiven Weg zum Training von tiefen neuronalen Netzen dar.[2]

Remove ads

Siehe auch

Literatur

  • Nitish Srivastava, Geoffrey Hinton, Alex Krizhevsky, Ilya Sutskever, Ruslan Salakhutdinov: Dropout. A Simple Way to Prevent Neural Networks from Overfitting. In: Journal of Machine Learning Research. Band 15, Nr. 2. Department of Computer Science University of Toronto, 2014, ISSN 1532-4435, OCLC 5973067678, S. 1929–1958 (cs.toronto.edu [PDF; abgerufen am 17. November 2016]).
  • Nitish Srivastava: Improving Neural Networks with Dropout. Department of Computer Science University of Toronto, 2013 (cs.utoronto.ca [PDF; abgerufen am 17. November 2016]).
Remove ads

Einzelnachweise

Loading related searches...

Wikiwand - on

Seamless Wikipedia browsing. On steroids.

Remove ads