- „Sloppypasta“ bezeichnet das ungeprüfte Copy-paste von Ausgaben eines LLM (Large Language Model) und das Weiterleiten an andere; dies wird als unhöfliches Verhalten kritisiert, weil es den Empfängern eine unnötige Prüfungsarbeit aufbürdet
- Solche Nachrichten führen zu einer Asymmetrie zwischen Lesen und Verifizieren: Der Absender hat sie in Sekunden verschickt, während der Empfänger lange Texte prüfen muss – eine Verlagerung von Arbeit
- Auch das Vertrauensproblem ist gravierend: Wegen Halluzinationen von LLMs und eines übermäßig selbstsicheren Tons sind Empfänger in einer Lage, in der sie grundsätzlich alles misstrauisch prüfen müssen
- Der Text nennt als grundlegende Etikette bei der Nutzung von AI die Prinzipien „Read“, „Verify“, „Distill“ und „Disclose“ und betont, dass unangeforderte AI-Ausgaben nicht geteilt werden sollten
- AI kann die Produktivität steigern, doch es braucht eine Nutzungsweise, die weder die Zeit noch das Vertrauen anderer verletzt
Definition von Sloppypasta und Problembewusstsein
- Sloppypasta ist ein Kofferwort aus „slop“ (minderwertiger AI-Content) und „copypasta“ (Copy-paste-Meme) und bezeichnet das ungeprüfte Weiterreichen von LLM-Ausgaben, ohne sie selbst gelesen oder verifiziert zu haben
- Dies gilt als asymmetrisches Verhalten, weil der Absender die eigentlich nötige Arbeit des Prüfens und Verdichtens dem Empfänger auflädt
- Das passiert häufig in Slack, Teams, E-Mails usw. und ist an einem typisch formelhaften Stil und übertriebenem Formatting von AI-Texten leicht zu erkennen
- Der Absender hat die Nachricht in wenigen Sekunden verschickt, der Empfänger trägt jedoch die Last der inhaltlichen Prüfung und Bewertung
Arten und Beispiele von Sloppypasta
- The Eager Beaver: Jemand fügt eine Chatbot-Antwort unverändert ein, um etwas zum Gesprächsthema beizutragen
- Auch wenn es gut gemeint ist, stören allgemeine, kontextlose AI-Texte die Unterhaltung und unterbrechen ihren Fluss
- The OrAIcle: Eine Form, bei der auf eine konkrete Frage mit einer unveränderten Antwort begonnen mit „ChatGPT says“ reagiert wird
- Das gilt ähnlich wie das frühere LMGTFY („Let Me Google That For You“) als unhöfliche Antwort
- Der Empfänger muss selbst beurteilen, ob der Inhalt stimmt, relevant ist und welche Quellen ihm zugrunde liegen
- The Ghostwriter: AI-generierte Inhalte werden geteilt, als wären sie der eigene Text
- Dafür hat der Empfänger keine belastbare Vertrauensgrundlage; bei Fehlern führt das zudem zu einem Verlust an Glaubwürdigkeit des Absenders
Warum das problematisch ist
- Ungleichgewicht des Aufwands: LLMs senken die Kosten des Schreibens fast auf null, doch der Empfänger muss weiterhin erheblichen kognitiven Aufwand fürs Lesen und Verifizieren leisten
- Dadurch häufen sich cognitive debt an, und der Absender verpasst Lern- und Verständnisgewinne
- Zusammenbruch von Vertrauen: Wegen Halluzinationen und erfundener Informationen in LLM-Ausgaben zerfällt das Prinzip „Vertrauen, aber überprüfen“
- Der Empfänger muss jeder Nachricht zunächst misstrauen, und das Vertrauenskapital des Absenders wird aufgebraucht
- Verlust von Kompetenzsignalen: Der selbstsichere Ton von AI macht es schwerer, echte Expertise von vorgetäuschter Gewissheit zu unterscheiden, was Vertrauen weiter schwächt
- Unklare Verantwortung: Bei Fehlern bleibt unklar, ob AI oder Nutzer die Verantwortung tragen
- Insgesamt verursacht Sloppypasta Lernverluste, Vertrauenszerfall und Kommunikationsmüdigkeit
Zitierte Einschätzungen
- „Schreiben ist ein Denkprozess; wird er an LLMs delegiert, nehmen Verständnis und Erinnerung ab“ — Anthropic-Forschung
- „AI-Ausgaben zu teilen, ohne sie gelesen zu haben, ist unhöflich“ — Simon Willison
- „Eine glatt formulierte, von AI geschriebene Antwort kann selbst dann das Gefühl vermitteln, ignoriert zu werden, wenn ihr Inhalt korrekt ist“ — Blake Stockton
- „Früher war ein Text ein Beleg menschlichen Denkens, heute ist das nicht mehr so“ — Alex Martsinovich
Sechs Prinzipien, um Sloppypasta zu vermeiden
- Read: Vor dem Teilen unbedingt selbst lesen und verstehen
- Ungelesene Ausgaben können weder auf Genauigkeit noch auf Relevanz oder Aktualität garantiert werden
- Verify: Fakten prüfen
- Was man teilt, enthält immer auch eine implizite Vertrauenszusage; falsche Informationen führen zu Rufschäden
- Distill: Nur das Wesentliche zusammenfassen
- Wegen der tokenbasierten Kostenstruktur erzeugen LLMs oft weitschweifige Antworten, daher muss der Absender die Verantwortung für die Verdichtung übernehmen
- Disclose: Den Einsatz von AI offenlegen
- Wer mitteilt, welche Teile geprüft wurden und welche Prompts verwendet wurden, kann Vertrauenssignale wiederherstellen
- Share only when requested: Unangeforderte AI-Ausgaben nicht teilen
- Sloppypasta zwingt dem Empfänger die Last des Lesens, Verifizierens und Zusammenfassens auf
- Share as a link: Lange AI-Ausgaben als Link oder Anhang teilen
- So wird der Gesprächsfluss nicht gestört, indem das Chatfenster mit Text gefüllt wird
Fazit
- AI ist als Werkzeug zur Produktivitätssteigerung nützlich, doch entscheidend ist eine Nutzungsweise, die weder Zeit noch Vertrauen anderer verletzt
- Neue Technologien brauchen neue Umgangsformen (New manners), und
AI sollte nicht als Ersatz für Denken, sondern als Werkzeug zur Beschleunigung des Denkens genutzt werden
1 Kommentare
Hacker-News-Meinungen
Jemand hatte das Ergebnis eines Prompts wie „Schreibe eine detaillierte Produktspezifikation für eine Datenerfassungs-Pipeline für klinische Studien“ einfach direkt in ein Jira-Ticket eingefügt
Es passte überhaupt nicht zum internen Design und enthielt jede Menge unnötige Funktionen
Als ich den PM darauf hinwies, schob er es mit „Lass uns das beim Sprint-Review besprechen“ weg und meinte, wir sollten mit dem Engineering-Team „partnern“
Ich glaube, die Zeit kommt, in der wir AI-Etikette lernen müssen
Dass dank AI die Produktivität gestiegen sei, klingt ausgesprochen ironisch
Es hat nur etwas gedauert, bis es sich auch auf die Unternehmensarbeit ausgeweitet hat
AI ist nützlich, aber es ist nervig, wenn man Ergebnisse ernsthaft behandeln soll, die das Gegenüber in 10 Sekunden erstellt hat
Im Moment wirkt alles wie der Wilde Westen, aber irgendwann werden sich wohl richtige Nutzungsregeln etablieren
Ziemlich absurd
Heute habe ich beschlossen, direkt ein neues POC-Projekt aufzusetzen
Zwei Wochen lang habe ich mit Code-Reviews, Logging und dem Schreiben von Beispielen nachgewiesen, dass das meiste nicht funktioniert
Das Lustige ist, dass mein Manager schon nach einer Woche mit Claude gemeldet hatte, es „funktioniere“
Ich musste vier Jira-Tasks, unzählige Commits und drei Reports schreiben
Das Internet war noch nie ein Ort hochwertiger Diskurse
Wir brauchen als Konsumenten von Inhalten bessere Filterwerkzeuge, und ironischerweise könnte AI genau das ermöglichen
Interessant ist, dass Menschen Inhalte, die „ihre eigene AI“ erzeugt hat, okay finden, sich aber betrogen fühlen, wenn sie etwas sehen, das von „fremder AI“ stammt
Am Ende könnten wir in einer Welt wie in der Dead Internet Theory landen, in der AI Inhalte erzeugt und AI sie konsumiert
Auch wenn das ineffizient klingt: Das Internet war ohnehin nie ein effizienter Ort
Wenn ich eine AI-Antwort gewollt hätte, hätte ich selbst gefragt
Der Grund, warum ich einen Menschen frage, ist, dass ich eine menschliche Reaktion will
Es ist wie Fast Food: Ab und zu esse ich es, aber wenn mir in einem gehobenen Restaurant ein Big Mac serviert wird, wäre ich verärgert
Eine simple Idee wird mit langen, formellen Sätzen aufgebläht, damit sie plausibel wirkt
Menschen werfen ihre Gedanken in ein LLM und mögen das Ergebnis, weil es mit ihnen übereinstimmt,
aber für andere ist es einfach unnötig langes Geschwafel, dessen Lesen Zeit verschwendet
Eine Zusammenfassung in Bullet Points würde reichen
Wenn mir also jemand eine von AI geschriebene Antwort schickt, wirkt das genauso unhöflich wie ein LMGTFY-Link
Ich weiß selbst, wie man AI fragt, also hat es keinen Mehrwert, mir das stattdessen zu schicken
Am Ende wird dieses Ökosystem kollabieren, wenn Produzenten nicht anfangen, die Konsumenten zu bezahlen
Viele Leute mögen auch „unsere AI“ nicht; sie laden das nur nicht anderen auf
Aus Sicht von jemandem, der ein Team leitet, wird dadurch sehr klar, wer aussortiert werden sollte
Dadurch ist das Unternehmen zu einem Markt aus Drohnen geworden, die AI-Slop herumwerfen
Ich bin kein Webdesigner und habe mir helfen lassen, damit die Website optisch ansprechend aussieht
Aber der Essay und die Richtlinien wurden vollständig von einem Menschen geschrieben
Trotzdem war es gut, dass die AI-Nutzung offengelegt wurde
AI-Disclosure-Link
Es klingt inzwischen wie ganz normale Alltagssprache
Anders als Lügen verzerrt Bullshit nicht die Fakten, sondern die Absicht des Sprechers
Ähnlich ist auch das Konzept des Gish-Gallop — eine Debattiertechnik, bei der man unzählige falsche Behauptungen und schwer widerlegbare Punkte hinausschleudert, um die Zeit des Gegenübers zu verschwenden
Ich mache mir Sorgen, dass es Spannungen erzeugen könnte, einem Kollegen zu sagen, er solle aufhören, ungeprüfte AI-Ergebnisse zu verwenden
Falls er das tatsächlich selbst geschrieben hat, wäre es noch unangenehmer
Werden sie dann wieder mit einem langen Text antworten?
Am wirksamsten war ein Ansatz über Nebengespräche statt über öffentliche Kanäle
Außerdem ist es sinnvoll, eine teamweite Richtlinie zur AI-Nutzung vorzuschlagen und Gespräche darauf zu stützen
Solange es nicht vom technischen Leadership durchgesetzt wird, ist ein Vorgehen im Stil eines Team-Reviews sinnvoller
Früher schrieb man mühsam ein Dokument, das dann niemand las,
heute schickt man ein 3000-seitiges, von AI erzeugtes Dokument, das ebenfalls niemand liest, aber trotzdem abgenickt wird
Nicht perfekt, aber immer noch besser als früher, als ich es in Meetings selbst vorlesen musste
Im AI-Zeitalter weiß ich nicht, ob diese Rolle nutzlos wird oder ob wir am Ende alle nur noch Reviewer bleiben