Top-Fragen
Zeitleiste
Chat
Kontext

Modellkollaps

Phänomen in maschinellem Lernen Aus Wikipedia, der freien Enzyklopädie

Remove ads

Modellkollaps bei maschinellem Lernen, respektive künstlicher Intelligenz kann bei generativen Modellen auftreten, falls unkontrolliertes zusätzliches Training mit Resultaten anderer Modelle oder früherer Versionen desselben Modells durchgeführt wird.[1][2] Solche Resultate / Ausgaben werden im Gegensatz zu noch nicht von KI-Modellen verwendeten Eingaben als synthetische Daten bezeichnet.[3] Dadurch kann allmählich ein Modell an Leistungsfähigkeit verlieren bis hin zu seinem Kollaps.[4] Modellkollaps kann bei verschiedenartigen Modellen auftreten. Neben LLMs wie bei GPT[5] wurde dieses Phänomen auch beim einfachen, eindimensionalen Gauss-Modell, multidimensionalen Gauss-Modellen,[1] linearer Regression[6] und statistischen Sprachmodellen.[7]

Alternative Bezeichnungen für Modellkollaps sind algorithmische Inzucht[8] oder katastrophales Vergessen.

Es wurden zwei Stadien der Verschlechterung unterschieden: früher Modellkollaps und später Modellkollaps. Beim frühen Modellkollaps verliert das Modell Informationen aus seltener auftretenden Randgebieten. Dieses Stadium ist weniger offensichtlich, weil die Gesamtleistung des Modells kaum beeinträchtigt wird. Beim späten Modellkollaps verliert das Modell einen signifikanten Teil seiner Leistungsfähigkeit, verwechselt Konzepte und verliert den größten Teil seiner Variabilität.[1]

Remove ads

Mechanismen

Zusammenfassung
Kontext
Thumb
Gefahr durch Modellkollaps bei der Akkumulierung von Daten kann vermindert werden.

Ein experimentell durchgeführter Extremfall war ein Modellkollaps, bei welchem wiederholt Resultate/Ausgaben des Modells iterativ wieder als Lerndaten in dasselbe Modell eingespeist wurden. In diesem Extremfall spricht man von einer vollsynthetischen Schleife.[9] Dadurch verlor das Modell zunehmend seine Fähigkeit zur Generierung sinnvoller, differenzierter Ausgaben bis hin zur Unbrauchbarkeit.[1]

In der realen Welt warnen Forscher und Kommentatoren, dass dieses Phänomen die zukünftige Entwicklung generativer KI grundlegend bedrohen könnte.[10][11] Gefährdet sind insbesondere Modelle, welche fortlaufend neue Daten erfassen und als zusätzliche Lerndaten verwenden. Da KI-generierte Daten (synthetische Daten) im Internet geteilt werden, landen sie in zukünftigen Trainingsdatensätzen, die oft aus dem Internet zusammengestellt werden. Bei der Auswahl von Trainingsdaten werden teilweise Filter verwendet, welche Duplikate nicht berücksichtigen. Es wird auch versucht, KI-erstellte Daten zu kennzeichnen und sie bei weiteren Lernprozessen auszusortieren.[12] Andere Forscher zeigten, dass ein Modellkollaps vermieden wird, wenn sich synthetische Daten neben bestimmten menschlich generierten Daten ansammeln wie dies bei synthetischen Verstärkerschleifen oder frischen Datenschleifen der Fall ist.[9][13] Die Forscher argumentieren, dass die Akkumulation von Daten über die Zeit eine realistischere Beschreibung der Realität sei als das jährliche Löschen aller vorhandenen Daten und dass die tatsächlichen Auswirkungen des Modellkollapses möglicherweise nicht so katastrophal sind, wie befürchtet.[14][15]

Remove ads

Literatur

Einzelnachweise

Loading related searches...

Wikiwand - on

Seamless Wikipedia browsing. On steroids.

Remove ads