- Während KI zahlreiche Arbeitsplätze ersetzt, nimmt gleichzeitig die Zahl neuer Jobs zu, in denen Menschen die von KI erzeugten sinnlosen Ergebnisse sauber aufräumen
- Mit der Verbreitung generativer Tools explodiert die Menge an günstig und schnell produziertem Content, während Qualitätsmängel und Fehler durch menschliche Nachbearbeitung und Korrekturarbeit ausgeglichen werden
- In Text, Bild und Video überschwemmt AI slop alle Bereiche, und das strukturelle Problem verfestigt sich über virale, Such- und Commerce-Plattformen
- Immer mehr Autorinnen und Autoren, Designerinnen und Designer sowie Entwicklerinnen und Entwickler arbeiten nicht als Kreative, sondern als „Aufräumkräfte“
- Die Branche steigert nicht mit Techniken wie mehrteiliger Korrektur oder Hedge Requests die Qualität, sondern durch digitale Reinigungsarbeit, die auf menschlichem Kontext, Emotion und Faktenbewertung beruht
- Entgegen dem Versprechen, die Einstellung originärer Kreativer zu ersetzen, entstehen dadurch neue Kosten für die Korrektur von KI-Outputs sowie ein erhöhtes Burnout-Risiko
- Die grundlegende Lösung liegt darin, durch Human-in-the-Loop-Designs und eine Neudefinition von Qualitätsstandards den Einsatz von KI als Werkzeug klar festzulegen und eine an Authentizität und Integrität orientierte Produktionskultur wiederherzustellen
Die Ironie eines Zeitalters, in dem Menschen KI-Probleme aufräumen
- Während KI zahlreiche Arbeitsplätze ersetzt, entsteht zugleich eine Situation, in der Menschen dafür angestellt werden, sinnlose und fehlerhafte KI-Ergebnisse (slop) zu bereinigen, wodurch eine neue Berufskategorie geschaffen wird
- Designer, Autorinnen und Autoren sowie digitale Künstlerinnen und Künstler werden nicht für originäre Kreativarbeit, sondern für die Korrektur und Verbesserung ungenauer KI-Outputs eingesetzt
WAS IST AI SLOP
- AI slop ist eine weiterentwickelte Form von Spam und bezeichnet massenhaft produzierte minderwertige Inhalte, die oberflächlich ansprechend wirken, aber ohne Kreativität, Bedeutung und Verlässlichkeit sind
- Durch Tools wie ChatGPT und Midjourney werden große Mengen an qualitativ schwachem Content erzeugt
- Er verbreitet sich in vielen Formen, darunter Social Posts, Amazon-E-Books, Spotify-Musik, Presseartikel und sogar Bilder in Fachjournalen
- Solche Inhalte wirken auf den ersten Blick plausibel, ähneln aber in ihrer Natur „leeren Kalorien“ ohne Bedeutung, Originalität oder Glaubwürdigkeit
- Durch sinkende Kosten für KI-Videos nimmt auch Video-Slop überhand; zahlreiche surreale virale Beispiele wie Möwen, die Autoscheiben einschlagen, wurden bereits beobachtet
- CCTV-artige Videos von Kaninchen auf einem Trampolin zeigen häufig Fehler wie zwei Köpfe oder plötzlich verschwindende Objekte
- Auch in Unternehmenswerbung kommt es zu verzerrtem Text, etwa bei Schreibfehlern im **Coca-Cola-Logo („Coca-Coola“) **
SCHÄDEN DER AI-SLOPOCALYPSE
- KI produziert in großen Mengen minderwertige Artikel, Reviews und Posts, die überzeugend wirken, und beschleunigt damit den Vertrauenszerfall in der Informationsflut
- Das geht über die Enshittification von Online-Business hinaus und weitet sich zu einer Enshittification der Kultur aus
- Kunst, Musik, Videos, Bücher und Reviews, die zuvor von Kreativen geschaffen wurden, werden von KI recycelt und neu reproduziert, wodurch die Kultur selbst verflacht
- Bei der Erstellung von KI-Outputs werden enorme Mengen an Strom und Wasser verbraucht, was die Umwelt zusätzlich belastet
- Der hohe Strom- und Wasserverbrauch beim Betrieb großer Modelle erhöht die Umweltkosten und führt bei den Menschen, die die Reinigungsarbeit übernehmen, zu Frustration und Burnout
- Fälle wie die Geister-Halloween-Parade in Dublin 2024 zeigen, wie Fehler und wirrer Text in KI-Erzeugnissen die Öffentlichkeit in die Irre führen können
- Der Fall einer KI-generierten Illustration in einem zurückgezogenen Frontiers-Artikel kann als Warnsignal für eine Verunreinigung des wissenschaftlichen Bereichs gelten
DAS AUFRÄUMTEAM EILT ZUR RETTUNG
- Entgegen dem Effizienzversprechen des KI-Zeitalters entsteht eine Struktur, in der Menschen die unsichtbaren Kosten tragen – also Aufräumen und Qualitätskontrolle –, wodurch die Nachfrage nach spezialisierten Fachkräften für nachträgliche Korrekturen stark steigt
- AI-Content-Rewriter: schreiben KI-Texte neu, indem sie Kontext, Emotion und Faktenbezug ergänzen
- Art Fixer: korrigieren unrealistische Elemente, Buchstabenfehler und andere Probleme in KI-generierten Illustrationen, Logos und Bildern
- Code-Debugger: beheben Fehler in unvollständigem Code von Copilot oder ChatGPT und optimieren ihn
- Video-Polisher: VFX-Künstler korrigieren physikalische Fehler oder mangelnde Natürlichkeit in KI-Videos
- Die meisten dieser Jobs bestehen nicht aus Zusammenarbeit, sondern aus Arbeit, die auf Korrektur und Nachbesserung fokussiert ist; sie bieten keinen Raum für echte menschliche Kreativität
- Auf Upwork, Fiverr und Freelancer steigt die Nachfrage nach menschlich geführter Kreativ- und Korrekturarbeit
- Künstlerinnen und Künstler sowie Autorinnen und Autoren werden zunehmend in einfache Aufräumarbeiten gedrängt, wie digitale Reinigungskräfte, was Kreativitätsverlust und Erschöpfung verschärft
Die eigentliche Ironie und die Lösung
- Es sah so aus, als würde KI den Menschen ersetzen, tatsächlich entsteht aber eine doppelte Struktur, in der Menschen neu eingestellt werden, um die Unreife der KI auszugleichen
- So bildet sich eine Parallelökonomie, in der Menschen KI erst menschenähnlich machen, und manche, die eigentlich Kreative geworden wären, werden tragischerweise zu „Putzkräften“ umverteilt
- Das eigentliche Problem ist nicht KI an sich, sondern die menschliche Entscheidung, Geschwindigkeit, Masse und Kosten vor Qualität zu stellen
- Die Lösung liegt weder in der Aufgabe von KI noch in einer Steigerung der KI-Intelligenz, sondern in ihrer klugen Nutzung und menschlichen Einbindung
- KI muss neu definiert werden als Werkzeug, das mit echter menschlicher Kreativität und Empathie verbunden ist
- Der Mensch muss im Zentrum stehen, und es darf sich keine Struktur verfestigen, in der Menschen ständig die Probleme von KI-Ergebnissen aufräumen müssen
- Die wirkliche Gefahr besteht darin, dass wir uns an AI slop gewöhnen und den Wert menschlicher Kreativität vergessen
- Die heutigen Aufräumkräfte sind nur eine Übergangslösung; langfristig sollte die technologische Zukunft auf echter menschlicher Kreativität und Authentizität basieren
1 Kommentare
Hacker-News-Kommentare
Es hieß immer, AI werde Menschen ersetzen, aber tatsächlich gibt es meiner Meinung nach zwei Phänomene. Erstens hat AI qualifizierte Arbeit nicht verallgemeinert, zweitens verwässert und verschlechtert sie die Medienkultur. Beim ersten Phänomen warte ich noch auf mehr Indikatoren wie etwa Daten des BLS. Das zweite ist, dass eine neue Medienkategorie entstanden ist, die sich ein wenig wie Chiptune oder „Deep Fried“-Memes anfühlt
Tatsächlich werden qualifizierte Arbeitskräfte, zum Beispiel Übersetzer, Designer oder Copywriter, auf mittlerem Niveau und darüber weiterhin gebraucht. Diese Leute werden so schnell nicht ersetzt, deshalb sieht man das in offiziellen Statistiken kaum. Eher ersetzt werden oder gar nicht erst neu eingestellt werden Praktikanten oder Junior-Kräfte. Diesen Anteil kann AI recht gut übernehmen, aber auch solche Veränderungen tauchen in offiziellen Arbeitslosenstatistiken kaum auf. Man kann höchstens den Rückgang bei Stellenausschreibungen sehen, und selbst der kann an vielen Variablen liegen, etwa wirtschaftlicher Unsicherheit oder der internationalen Lage. Am Ende wird die Medien- und Kreativbranche in ein paar Jahren völlig kaputt sein. Wenn AI den Einstieg in die Karriere blockiert, verschwinden Praktika, dann Junioren und nach und nach auch Mid-Level- und Senior-Leute. Am Ende bleiben nur Leute im Anzug übrig, die vor 15 Jahren mal Photoshop angefasst haben, plus das Vertriebsteam
Ob die offiziellen BLS-Statistiken überhaupt noch vertrauenswürdig sein werden, ist fraglich. Wenn man bedenkt, wie Präsident Trump mit der Behörde umgegangen ist, nachdem sie Arbeitslosenzahlen veröffentlicht hatte, die ihm nicht gefielen, sinkt das Vertrauen noch weiter
Menschliche Kreativität und Erklärungskraft haben bislang gut mit Zufälligkeit gearbeitet und sich dabei der Konkretheit angenähert. Jetzt aber stumpft diese Automatisierung der Zufälligkeit, weil AI nicht auf Konkretheit trainiert ist, eher die Spitze der Kreativität ab, und wirklich feine Details rücken immer weiter weg. Besonders deutlich wird dieser Rückschritt, wenn Menschen AI-Ausgaben für plausibel und detailliert halten. Das ist verrückt, wird durch Technik aber normalisiert
Das ist nicht ironisch. In Fabriken haben Menschen die Aufgabe, Ausschuss auszusortieren, obwohl es früher Zeiten gab, in denen diese Leute die Produkte als Handwerker von Anfang an selbst gefertigt hätten
In Fabriken ist Ausschuss selten und leicht zu erkennen. Man wirft ihn einfach weg, und die Maschine produziert den Rest weiter. Das ist viel schneller als ein Handwerker. Bei AI ist das Problem aber, dass nicht ständig dasselbe hergestellt wird, weshalb die Fehleranalyse schwierig ist, und selbst wenn man einen Fehler findet, muss man ihn einzeln von Hand korrigieren, was am Ende dazu führen kann, dass man doch alles wegwirft und von vorn anfängt. Dann waren die gesamte in AI gesteckte Zeit und Mühe verschwendet, und es wäre besser gewesen, gleich einen Handwerker damit zu beauftragen
Gemessen daran, wie AI als große Revolution der letzten Jahrhunderte vermarktet wurde, ist das schon ernüchternd. Im Ergebnis sind wir noch gar nicht im AI-Zeitalter angekommen
Bei der Formulierung „Menschen sortieren in Fabriken Ausschuss aus“ musste ich an die Website eines indischen Outsourcing-Anbieters denken, laut der die Beschäftigten dort Ausschuss nicht aussortieren, sondern „clean up“ machen. Selbst wenn man annimmt, dass in einer Fabrik die meisten Produkte Ausschuss sind und sich leicht erkennen lassen, wäre der Energieaufwand im Produktionsprozess enorm, wenn man sie nicht wegwerfen, sondern alle reparieren müsste
Dass Menschen die Fehler anderer Menschen aufräumen, ist überall üblich. In der Softwareentwicklung ist es besonders schlimm
Dass E-Commerce der erste Bereich ist, den AI sichtbar verändert hat, ist gar nicht so überraschend. Die meisten Online-Shops haben nur ein zentrales Versprechen, und die Präsentation ist nicht besonders wichtig. Solange es nicht wie eine Homepage von 2003 aussieht, ist es in Ordnung, und ehrlich gesagt interessiert es fast niemanden groß, wie ein Shop-Frontend im Jahr 2025 aussieht. Werbung muss nur Aufmerksamkeit erzeugen, sie soll keine Kunst sein. Und worin AI gut ist: etwas Durchschnittliches zu erzeugen, das für die meisten Leute okay aussieht. In Wirklichkeit ist es ziemlich fade. Bei Musik, Bildern und Texten ist es genauso. Natürlich bleiben offensichtliche Dinge, etwa Bilder mit acht Fingern, noch ungelöste Aufgaben, aber für oberflächliches Hinschauen sind AI-Ergebnisse inzwischen fast nicht mehr von echten zu unterscheiden. In diesem Moment ist AI also gut darin, „Gussformen“ zu produzieren. Früher war Lorem Ipsum ein Textmuster, heute druckt AI in allen Bereichen solche Gerüste für genau diesen Zweck aus. Menschen müssen dieser von AI ausgestreuten Grundlage dann Individualität hinzufügen. Wenn man etwas schafft, braucht es immer Risiko und Entscheidungen. In diesen Entscheidungen steckt Geschmack, und irgendjemand muss dafür Verantwortung übernehmen. Es geht zwar auch darum, offensichtliche Fehler zu korrigieren, aber letztlich ist entscheidend, dieses Gerüst jeweils an die konkrete Situation angepasst umzuformen
Wie Brad Pitts Figur Rusty sagte: „Use only your own words when you can. Don’t run if you can walk; keep your eyes straight on your goal. Be specific, but not memorable. Be funny, but don’t make him laugh. He’s got to like you, then forget you the moment you’ve left his side. And for God’s sake, whatever you do, don’t, under any circumstances...“ (Zitat aus dem Film <Ocean's Eleven>)
Shopping und Werbung sind Bereiche, in denen AI ihre Stärken ausspielen kann. Es gibt klare Feedback-Signale dafür, ob etwas erfolgreich ist. Natürlich muss man diese Feedback-Signale auch wirklich sinnvoll nutzen; es reicht nicht, einfach nur LLM-Ausgaben irgendwo hineinzukopieren
Letztlich unterscheidet sich das kaum von bisherigen Consultants. Sie machen den Code sauberer und verbessern die Effizienz von Jobseiten. Wirklich neu ist daran wenig. Das war von allen so vorhergesagt worden
Es fühlt sich an, als sei eine Rolle entstanden, die einem mittleren Manager gleicht, der Mitarbeitende beaufsichtigt, die nicht lernen können
Noch bevor AI das versprochene AGI erreicht, wirkt es schon so, als würden alle in einer Art Slopocalypse wie in PKDs Kurzgeschichte „Sales Pitch“ den Verstand verlieren. Sales Pitch (short story)
Die größte Ironie ist, dass sogar der einzige Kommentar unter dem Artikel ein von AI geschriebener Kommentar ist
Ich glaube nicht, dass wir schon im AI-Zeitalter angekommen sind. Es scheint aber bald zu kommen. Für mich sind LLMs nicht wirklich AI, und Machine Learning ist praktischer. Ob sich LLMs in Zukunft weiterentwickeln oder wieder verschwinden, weiß ich nicht
LLMs sind eine Anwendung von Machine Learning, daher beeinflussen sich beide wechselseitig. LLMs sind zwar nicht die eine AI, die wir uns vorstellen, aber sie haben beim Sprachverstehen definitiv einen gewaltigen Meilenstein gesetzt. Früher galt die Verarbeitung natürlicher Sprache als eines der repräsentativen Kriterien für AGI. Letztlich ist es nur eine Frage der Zeit, bis große Modelle kommen, die alle fünf Sinne des Menschen verstehen und lernen können, multisensorisch sind und sich selbst modifizieren können. Es könnte sogar Modelle geben, die neue Sinne verarbeiten, die Menschen gar nicht haben
Es fühlt sich an, als würde der Maßstab jedes Mal ein Stück weiter nach hinten verschoben
Solche Arbeit machen wir seit Jahrzehnten. Ich wurde vor über 20 Jahren dafür bezahlt, Spracherkennungs- oder OCR-Programme zu korrigieren und zu trainieren, und ein Freund von mir hat Geotags berichtigt. AI-Systeme haben eine lange Geschichte; in den frühen Tagen gaben Menschen Prolog-Regeln noch direkt ein, oder Programmierer codierten Regeln einzeln in Programme wie ELIZA oder den Generalised Problem Solver ein