- Nach der LLM Brain-Rot-Hypothese führt anhaltende Exposition gegenüber Webtexten geringer Qualität dazu, dass LLMs einen Rückgang der kognitiven Fähigkeiten erleiden.
- In den Experimenten wurde bei nachtrainierten LLMs mit minderwertigen Daten ein Rückgang von Schlussfolgern, Langtextverständnis und Sicherheit sowie ein Anstieg der „dunklen Merkmale“ beobachtet.
- Mit steigendem Anteil an Junk-Daten verschärft sich der Abbau kognitiver Fähigkeiten.
- In der Fehleranalyse zeigte sich das Hauptmuster als Denkprozess-Sprüngen/Auslassen (thought-skipping): das Überspringen von Argumentationsketten beim Schlussfolgern.
- Eine teilweise Erholung ist durch hochwertige Daten und Tuning möglich, vollständige Wiederherstellung ist jedoch schwierig.
Studienübersicht
- In dieser Studie wurde die LLM Brain Rot Hypothesis (Brain-Rot-Hypothese) vorgestellt und validiert.
- Es wurde experimentell untersucht, ob LLMs (Large Language Models) bei wiederholter Exposition gegenüber minderwertigen (Junk-)Webtexten langfristig kognitive Fähigkeiten verlieren.
- Um Ursache und Effekt zu trennen, wurden auf Basis des Original-Datensatzes von Twitter/X zwei Datensätze erstellt: ein verschmutzter (Junk-)Datensatz und ein Kontrollsatz, jeweils nach zwei Verfahren (M1: Beteiligungsbasiert, M2: Semantikqualitätsbasiert) verglichen.
- Beide Verfahren wurden so abgeglichen, dass Tokenanzahl und Trainingsbedingungen übereinstimmten, sodass die Veränderung der Datenqualität die einzige unabhängige Variable war.
Hauptergebnisse
- Bei 4 LLMs wurde nach zusätzlichem Pre-Training mit minderwertigen Daten ein klarer Rückgang kognitiver Fähigkeiten in den Metriken wie Schlussfolgern, Verstehen langer Kontexte und Sicherheit beobachtet.
- Gleichzeitig zeigte sich auch ein Anstieg der „dunklen Merkmale“ (z. B. Psychopathie, Narzissmus).
- Im M1-Setup sank die ARC-Challenge-Metrik auf Basis von Chain of Thoughts von 74.9 → 57.2 und RULER-CWE von 84.4 → 52.3; bei höherem Junk-Datenanteil war der Leistungsabfall ausgeprägter.
- Mit schrittweise erhöhtem Anteil von Junk-Daten zeigte sich ein proportional stärker werdender Rückgang kognitiver Fähigkeiten, ein klarer „Dosis-Wirkungs“-Effekt.
Fehlerursachenanalyse
- Das Hauptmuster der Degeneration zeigte sich als ausgeprägte Tendenz zum Denkprozess-Aussparen (thought-skipping).
- LLMs überspringen den Schlussfolgerungsprozess zunehmend immer häufiger, wodurch Fehler zunehmen.
- Teilweise Erholung: Durch Instruction Tuning und erneutes Training auf hochwertigen Daten lässt sich der kognitive Abbau weitgehend beheben, aber nicht vollständig auf das Baseline-Niveau zurückführen; dies deutet darauf hin, dass die Ursache nicht auf Forminkonsistenzen, sondern auf eine Repräsentationsänderung zurückzuführen ist.
- Popularität statt Stil: Tweet-Popularität (ein nicht-semantikbasiertes Signal) ist in M1 ein deutlich stärkeres Indiz für den Einfluss von Brain Rot.
Schlussfolgerung und Implikationen
- Die Ergebnisse belegen aus mehreren Perspektiven, dass Datenqualität der Hauptauslöser für Leistungsabfälle von LLMs ist.
- Im kontinuierlichen Re-Training von LLMs wird Datenkuratierung als Problem der „Sicherheit im Training“ neu definiert.
- Es wird empfohlen, bei produktiv eingesetzten LLMs regelmäßige „kognitive Gesundheitschecks“ durchzuführen.
1 Kommentare
Hacker News Kommentare
Der Begriff „Brain Rot“ klingt bei der Übertragung auf Datenkuratierung bei LLMs ziemlich pseudo-intellektuell; es wirkt eher so, als sei der Autor selbst in ein LLM-ähnliches Denken geraten.
Wenn du neugierig auf LLM-Trainingsdaten bist, empfiehlt sich, einfach zufällige Common-Crawl-Daten herunterzuladen und selbst reinzuschauen (etwa 100 MB): https://data.commoncrawl.org/crawl-data/CC-MAIN-2025-38/segments/1757047532641.17/wet/CC-MAIN-20250905112101-20250905142101-00000.warc.wet.gz
Beim Durchsehen war auch eine Menge problematischer Daten dabei, die man schwerer formulieren kann. Natürlich sollte das in der Praxis durch Vorverarbeitung herausgefiltert werden. Aber einzelne Base-/Text-Modelle wie Llama haben schon schockierende Ergebnisse produziert, daher bleibt die Frage, wie durchdringend diese Bereinigung tatsächlich ist.
Dass der Output schlechter wird, wenn man Müll in LLMs steckt, ist keine neue Beobachtung, also nicht wirklich überrascht.
Das Paper nennt zwei große Punkte:
Beim Lesen hatte ich den Eindruck, es sei vielen bereits klar, dass die Trainingsdaten chaotisch sind, aber kaum jemand nimmt es ernst. Müll einzuspeisen und dann so zu tun, als wäre man über die daraus resultierende Verschlechterung erstaunt, wirkt eher wie Hohn – ist das nicht eigentlich ohnehin bekannt?
Die Metapher von „kognitiver Hygiene“ passt nicht. LLMs haben keine Kognition, daher ist das auch kein passendes Bild; im Kern geht es darum, dass Datenlieferanten billige, teils missbräuchliche und urheberrechtlich problematische Daten einspeisen.
Brain-rot-Texte können schädlich sein, aber brain-rot-Videos sind oft unheimlich und inhaltlich dicht und können daher sogar ein Hebel für Leistungsverbesserung sein (siehe Brain-Rot-Analysevideo aus Deutschland). Auch Kunst wie von Švankmajer gehört für mich im Museum dazu und ist ein „proto-brainrot“. Ich sehe hier auch begriffliche Unschärfe: Es geht eher um den Unterschied zwischen minderwertigen und inhaltsreichen Inhalten.
Es wirkt wie eine Neuauflage von „garbage in, garbage out“ und eher wie ein Clickbait-Titel.
Ich halte es für unangemessen, Metaphern wie „brain rot“, „thought-skipping“, „primary lesion“, „cognitive declines“ in einem Informatikpaper zu verwenden. Neben der Ungenauigkeit besteht zudem die Gefahr, menschliche Eigenschaften auf Computer zu projizieren. Wenn sich die Forschungscommunity in diese Begriffe verstrickt, wird es später schwieriger, sie wieder loszuwerden.
Dieses Paper lässt mich fragen, welche langfristigen Auswirkungen die Medienumgebung auf Kinder der Generation Alpha hat.