- Eine einzelne Markdown-Datei, die wiederkehrende Schreibmuster (Tropes) in von KI erzeugten Texten nach Kategorien ordnet
- Wenn man diese Datei zum System-Prompt einer KI hinzufügt, kann man sie dazu anhalten, gängige KI-Hausstile zu vermeiden
- Unter 6 Oberkategorien wie Wortwahl, Satzstruktur, Absatzstruktur, Ton, Format und Aufbau werden mehr als 30 konkrete Muster jeweils mit Beispielen erklärt
- Das reicht von KI-typisch überladenem Vokabular wie "delve", "tapestry" und "landscape" bis zu Satzmustern wie "It's not X -- it's Y", die falsche Tiefgründigkeit erzeugen
- Jedes einzelne Muster kann ein- oder zweimal unproblematisch sein, aber wenn mehrere Muster gleichzeitig oder wiederholt auftreten, ist das ein starkes Signal für KI-generierten Text
- Auch diese Datei selbst wurde mit KI-Unterstützung erstellt und enthält den Haftungsausschluss „KI für KI, Menschen für Menschen“
Wortwahl (Word Choice)
- "Quietly" und magische Adverbien: das Muster, gewöhnlichen Beschreibungen mit Adverbien wie "quietly", "deeply", "fundamentally", "remarkably" oder "arguably" eine subtile Wichtigkeit zu verleihen
- Beispiel: "quietly orchestrating workflows", "a quiet intelligence behind it"
- "Delve" und ähnliche Wörter: ein Wort, das zeitweise als das bekannteste KI-Indiz galt und in KI-generierten Texten mit ungewöhnlich hoher Häufigkeit auftaucht
- "certainly", "utilize", "leverage" (als Verb), "robust", "streamline" und "harness" gehören zur gleichen Familie
- "Tapestry" und "Landscape": das Muster, pathetische Substantive zu verwenden, wo einfache Wörter völlig ausreichen würden
- "tapestry" wird für alles Übergreifend-Verbundene überstrapaziert, "landscape" für jedes Feld oder jede Domäne
- "paradigm", "synergy", "ecosystem" und "framework" sind vom gleichen Typ
- Vermeidung von "Serves As": statt eines einfachen "is/are" werden übersteigerte Verbindungsphrasen wie "serves as", "stands as", "marks" oder "represents" benutzt
- Das entsteht, weil die Wiederholungsstrafe des Modells es von der einfachen Kopula zu auffälligeren Formulierungen drängt
Satzstruktur (Sentence Structure)
- Negative Parallelstruktur (Negative Parallelism): das Muster "It's not X -- it's Y", eines der am häufigsten erkennbaren Signale in KI-Texten
- Es verpackt alles als verblüffende Umdeutung und erzeugt damit falsche Tiefgründigkeit
- Vor LLMs gab es keine massenhaft produzierte Schreibweise dieser Art
- Dazu gehört auch die kausale Variante "not because X, but because Y"
- "Not X. Not Y. Just Z.": ein dramatischer Countdown, bei dem erst zwei oder mehr Dinge verneint werden, bevor der eigentliche Punkt präsentiert wird
- Er erzeugt den falschen Eindruck, man taste sich auf eine Wahrheit zu
- "The X? A Y.": das Muster rhetorische Frage mit sofortiger Selbstantwort, bei dem eine ungestellte Frage selbst aufgeworfen und direkt beantwortet wird
- Es dient dem dramatischen Effekt, und KI behandelt es als Essenz guten Schreibens
- Übernutzung von Anaphern: derselbe Satzanfang wird schnell mehrfach wiederholt
- Beispiel: "They assume that... They assume that... They assume that..."
- Übernutzung von Dreierfiguren (Tricolon): die Dreierregel wird überstrapaziert, teils sogar auf vier oder fünf Elemente ausgedehnt
- Eine einzelne Dreierfigur kann elegant sein, drei hintereinander zeigen eher Mustererkennung statt Stilgefühl
- "It's Worth Noting": ein füllender Übergang, der eigentlich kein Signal sendet
- "It bears mentioning", "Importantly", "Interestingly" und "Notably" gehören zum gleichen Typ
- Damit wird ein neuer Punkt eingeführt, ohne ihn wirklich mit dem vorherigen Argument zu verbinden
- Oberflächliche Analysen (Superficial Analyses): am Satzende wird eine "-ing"-Konstruktion angehängt, um flache Analyse anzudocken
- Formulierungen wie "highlighting its importance", "reflecting broader trends" oder "contributing to the development of..."
- So wird banalen Fakten Bedeutung, Nachwirkung oder größere Tragweite zugeschrieben
- Falsche Spannweiten (False Ranges): Konstruktionen mit "from X to Y", bei denen X und Y in Wirklichkeit gar nicht auf derselben Skala liegen
- In legitimer Verwendung deutet das ein Spektrum mit sinnvollen Zwischenstufen an; KI nutzt es oft nur, um lose verwandte Dinge aufzuzählen
- Aneinanderreihung von Gerundium-Fragmenten (Gerund Fragment Litany): nach einer Behauptung folgen nacheinander subjektlose Gerundium-Fragmente
- "Fixing small bugs. Writing straightforward features. Implementing well-defined tickets."
- Der erste Satz sagt bereits alles; die Fragmente fügen nur Wortzahl und den typischen KI-Rhythmus hinzu
- Menschen schreiben Rohfassungen nicht so; das ist ein rein struktureller Tick
Absatzstruktur (Paragraph Structure)
- Kurze, pointierte Fragmente (Short Punchy Fragments): extrem kurze Sätze oder Satzfragmente stehen als eigene Absätze und erzeugen künstliche Betonung
- Das ist ein Ergebnis von RLHF-Training, das Modelle in Richtung „lesbarkeitsorientiertes Schreiben“ für Leser auf niedrigstem Niveau drängt
- Ein Gedanke pro Satz, kein Bedarf an aufrechterhaltener mentaler Verfassung: ein unnatürlicher, un-menschlicher Stil
- Als Fließtext verkleidete Listicle (Listicle in a Trench Coat): nummerierte oder etikettierte Punkte werden als fortlaufende Prosa getarnt
- Absätze beginnen mit "The first... The second... The third..." und verstecken damit die Listenform
- Oft wird dieses Muster genutzt, nachdem das Modell angewiesen wurde, keine Liste zu erzeugen
Ton (Tone)
- "Here's the Kicker": ein Pseudo-Spannungsübergang, der eine Offenbarung verspricht, obwohl der folgende Punkt diesen Aufbau nicht braucht
- "Here's the thing", "Here's where it gets interesting" und "Here's what most people miss" sind vom gleichen Typ
- "Think of It As...": der Standard-Lehrermodus, der unterstellt, der Leser brauche für alles eine Analogie
- KI erzeugt dabei oft Vergleiche, die weniger klar sind als das eigentliche Konzept
- "Imagine a World Where...": die typische futuristische Einladung von KI, bei der nach "Imagine" eine Liste großartiger Dinge folgt, die passieren würden, wenn man die Prämisse akzeptiert
- Falsche Verletzlichkeit (False Vulnerability): performative Selbstwahrnehmung, die die vierte Wand durchbricht oder vorgibt, Voreingenommenheit einzugestehen
- Echte Verletzlichkeit ist konkret und unangenehm, KI-Verletzlichkeit dagegen glatt und risikolos
- "The Truth Is Simple": das Muster, etwas als offensichtlich oder simpel zu behaupten, statt es tatsächlich zu belegen
- Großspurige Aufblähung der Fallhöhe (Grandiose Stakes Inflation): bei jedem Punkt wird die Tragweite auf weltgeschichtische Bedeutung hochskaliert
- Ein Blogpost über API-Preise wird plötzlich zur Meditation über das Schicksal der Zivilisation
- "Let's Break This Down": eine didaktische Stimme, die selbst bei Fachlesern standardmäßig eine Lehrer-Schüler-Beziehung setzt
- "Let's unpack this", "Let's explore" und "Let's dive in" gehören zum gleichen Typ
- Vage Zuschreibungen (Vague Attributions): Behauptungen werden namenlosen Autoritäten wie "experts", "observers" oder "industry reports" zugeschrieben, ohne konkrete Quelle
- Dazu gehört auch, wenn eine Aussage einer einzelnen Person als weitverbreitete Sicht dargestellt oder zwei Quellen zu "several publications" aufgeblasen werden
- Erfundene Konzeptlabels (Invented Concept Labels): abstrakte Problemnomen wie paradox, trap, creep, divide, vacuum oder inversion werden mit Domänenwörtern kombiniert, um analytisch klingende, aber unbegründete Etiketten zu erzeugen
- Beispiele: "supervision paradox", "acceleration trap", "workload creep"
- Das funktioniert als rhetorische Abkürzung: benennen statt argumentieren; wenn mehrere solcher Labels in einem Text auftauchen, ist das ein starkes Signal für KI-Slop
Formatierung (Formatting)
- Em-Dash-Sucht (Em-Dash Addiction): Gedankenstriche werden für dramatische Pausen, Einschübe und Wendepunkte zwanghaft übernutzt
- Menschliche Autoren verwenden in einem Text vielleicht 2 bis 3 natürlich, KI oft 20 oder mehr
- Fett-zuerst-Bullets (Bold-First Bullets): jeder Bullet Point beginnt mit einer fett gesetzten Phrase
- Sehr verbreitet in Markdown-Ausgaben von Claude und ChatGPT; bei manueller Erstellung formatiert fast niemand so
- Ein klares Indiz für KI-generierte Dokumente, Blogposts und README-Dateien, besonders mit Emojis
- Unicode-Dekoration (Unicode Decoration): Verwendung von Sonderzeichen, die man nicht einfach auf einer Standardtastatur tippt, etwa Unicode-Pfeile (→) oder typografische Anführungszeichen
- Reale Autoren nutzen im Texteditor gerade Anführungszeichen und -> oder =>
- Besonders Claude bevorzugt den Pfeil →
Aufbau (Composition)
- Fraktale Zusammenfassungen (Fractal Summaries): „was gleich gesagt wird, was gerade gesagt wird und was eben gesagt wurde“ wird auf jeder Ebene des Dokuments angewandt
- Jede Untersektion, jede Sektion und das gesamte Dokument bekommt eine eigene Zusammenfassung
- Die tote Metapher (The Dead Metaphor): an einer einzelnen Metapher wird festgehalten und sie wird durch den ganzen Text hindurch wiederholt
- Menschliche Autoren führen eine Metapher ein, benutzen sie und gehen dann weiter; KI wiederholt sie 5 bis 10 Mal
- Stapeln historischer Analogien (Historical Analogy Stacking): besonders häufig in Tech-Texten; historische Unternehmen oder Technologierevolutionen werden schnell aneinandergereiht, um falsche Autorität aufzubauen
- Muster wie "Apple didn't build Uber. Facebook didn't build Spotify..."
- Verwässerung eines einzelnen Punkts (One-Point Dilution): ein einzelner Gedanke wird über Tausende Wörter hinweg in 10 verschiedenen Varianten wiederholt
- Mit anderen Metaphern, Beispielen und Framings wird dieselbe Idee gepolstert, damit sie „umfassend“ wirkt
- Inhaltsduplikation (Content Duplication): ganze Abschnitte oder Absätze werden innerhalb desselben Textes wörtlich wiederholt
- Das passiert besonders in langen Texten, wenn das Modell den Überblick über schon Geschriebenes verliert
- Ein klares Zeichen unbearbeiteter KI-Ausgabe, heute aber etwas seltener
- Die ausgeschilderte Schlussfolgerung (The Signposted Conclusion): mit "In conclusion", "To sum up" oder "In summary" wird die Schlussfolgerung explizit angekündigt
- Gutes Schreiben lässt Leser ein Ende spüren, ohne es extra anzusagen
- KI signalisiert solche Strukturbewegungen, weil sie Vorlagen folgt
- "Despite Its Challenges...": eine starre Formel, mit der KI Probleme kurz anerkennt, um sie sofort wieder beiseitezuschieben
- Auf "Despite its [positives Wort], [Subjekt] faces challenges..." folgt fast immer derselbe Takt: "Despite these challenges, [optimistisches Fazit]"
Kernprinzip
- Die obigen Muster können einzeln völlig in Ordnung sein, problematisch wird es, wenn mehrere zusammen auftreten oder eines davon ständig wiederholt wird
- Schreib wie ein Mensch: abwechslungsreich, unvollkommen und konkret
7 Kommentare
„In diesem Artikel zerlegt der Autor von KI generierten Text und legt die sechs wichtigsten Anzeichen von ‚AI slop‘ sowie die dahinter verborgene Struktur offen. Es geht nicht nur um eine bloße Aufzählung von Wörtern. Von übertriebener Wortwahl wie ‚delve‘ oder ‚tapestry‘ bis hin zu Satzmustern, die falsche Tiefgründigkeit erzeugen, wird behandelt, warum solche Texte nicht wie von Menschen geschrieben wirken. Im Kern geht es darum, vielfältiges und unvollkommenes Schreiben wiederzugewinnen.“
Auf NamuWiki gibt es dazu offenbar auch einen passenden Artikel, haha
https://namu.wiki/w/…du hast den Kern wirklich getroffen.
Als ich damals meine Masterarbeit mit LaTeX schrieb, habe ich zum ersten Mal den Unterschied zwischen em dash (---) und en dash (--) gelernt und verwende sie seitdem in fast allen meinen englischen Texten häufig. (Mit Espanso als Shortcut eingerichtet.)
Bisher hat mich noch niemand mit so etwas wie „Hast du den Text mit AI geschrieben?“ darauf hingewiesen, aber dass ausgerechnet ein Satzzeichen, das ich so gern benutze, als AI-Indikator gilt, stimmt mich schon etwas zwiespältig.
Passend dazu ein lesenswerter Artikel: https://marcusolang.substack.com/p/im-kenyan-i-dont-write-like-chatgpt
Wie sich herausstellt, ist das ein Artikel, den ich auf GeekNews gesehen hatte: https://de.news.hada.io/topic?id=25104
Wow ... du hast wirklich, **ins Schwarze getroffen.**Oh, es wäre schön, wenn auch eine koreanische Version herauskäme.
Hacker-News-Kommentare
Wenn man einen Text ernsthaft teilen will, sollte man solche Prompts vermeiden
Ich habe Blogposts mit einem LLM geschrieben; anfangs sehen sie okay aus, aber nach ein paar Wiederholungen klingen alle Texte mit derselben Stimme
Auch in anderen Blogs, Nachrichten und Whitepapers taucht immer wieder derselbe Tonfall auf
Leser wollen nicht nur den Inhalt eines Textes, sondern auch die einzigartige Stimme des Autors hören
Verwandter Artikel: Why We Hate LLM Articles
AI-Schreiben ist deshalb schwach, weil es keine „Stimme“ hat
Menschliche Autoren bringen eine Perspektive aus eigener Erfahrung ein, aber AI hat keine Absicht, überhaupt irgendetwas „sagen“ zu wollen
Außerdem kann sie keine tiefe Konsistenz aufrechterhalten. Das scheint daran zu liegen, dass ihr menschliche Ziele, Erinnerungen und ein Selbstgefühl fehlen
Solche Versuche wirken unangenehm
Statt AI-geschriebene Sätze raffiniert zu verstecken, sollte man einfach nicht die Zeit anderer verschwenden
Wenn es nicht peinlich ist, mit AI zu schreiben, muss man es nicht verbergen; und wenn es peinlich ist, sollte man aufhören
Wenn sich Leute über einen vergifteten Brunnen beschweren, ist noch raffinierteres Gift nicht die richtige Antwort
Ich untersuche gerade den Schreibstil von LLMs, und unter den Formulierungen in diesem Thread fand ich „tapestry“ interessant
Nach „camaraderie“ war das eines der Wörter, die GPT-4o besonders häufig verwendet
Das Basismodell hat diesen seltsamen Stil weniger stark, aber nach dem Instruction Tuning taucht er auf
Ich frage mich, ob menschliche Bewerter den Stil mitbewerten oder ob es dafür eine Rubrik gibt
Verwandte Arbeiten: PNAS-Artikel, arXiv-Preprint
Studien aus Kenia und Nigeria zeigen, dass Perplexity das Optimierungsziel ist, sodass vortrainierte Modelle die am stärksten „vorhersagbaren“ Ausgaben widerspiegeln
Darunter ist auch der Text „Hydrogen Jukeboxes“
Stilveränderungen werden auch in Gwern Branwens Analyse zum Mode Collapse behandelt
Selbst Modelle mit kaum menschlichen Präferenzen wie DeepSeek R1 Zero konvergieren am Ende zu stabilen Mustern
Dieses Phänomen wiederholt sich von Generation zu Generation, und da das Web durch Ausgaben früherer Modelle verunreinigt wird, entsteht ein Teufelskreis
Interessant ist zum Beispiel die Tokenisierung von „camaraderie“ oder dass Emojis im Englischen die einzigen Bildzeichen sind und deshalb stärker ins Gewicht fallen
Solche Listen bergen die Gefahr, mit der Zeit immer länger zu werden
Denn AI produziert ständig neue Klischees
Diese Datei wirkt eher wie ein Dokument für mich als Nutzer als für ein LLM
Der Satz „Füge diese Datei als System-Prompt für die AI hinzu“ führt letztlich dazu, dass AI der AI Anweisungen gibt
Weil Erklärungen hineingemischt sind, ist es verwirrend. Formulierungen wie „nicht tun“ haben sogar den gegenteiligen Effekt, dass genau diese Wörter häufiger verwendet werden
Man sollte Erklärungen für Nutzer und Anweisungen für AI trennen
Ich habe Claude gebeten, das neu zu schreiben, und es in diesem Gist zusammengefasst
Für ein LLM ist es wirksamer, solche Namen zu vermeiden und stattdessen die positive Form guter Sätze zu beschreiben
Die von Claude umgeschriebene Version ist hier
Wenn man „tu das nicht“ sagt, führt das eher zum Streisand-Effekt, dass es erst recht passiert
Wenn man im Stil eines bestimmten Autors schreiben lässt, wirkt das natürlicher und weniger generisch
Wenn man danach einen „Editier-Agenten“ einsetzt, der Klischees entfernt, wird es deutlich besser
Ich habe mit Gemini historische Recherchen versucht, aber es konnte technische Metaphern einfach nicht lassen
Es verglich Feudalherren mit CEOs, den Papst mit einem Influencer und feudale Aufstände mit Vorstellungsgesprächen; es war fast schon komisch
In den Einstellungen kann man zusätzliche Anweisungen hinterlegen, aber nachdem ich meinen Tech-Stack eingetragen hatte, endete jede Antwort mit dem Satz „JVM und v8 erledigen das“
Also sagte ich, es solle das ignorieren, und diesmal fügte es einen Absatz in spöttischem Ton hinzu, der mit „Mit deinem Master-Gehirn ...“ begann
Claude oder ChatGPT benutzen in letzter Zeit oft Wörter wie „genuine“, „real“, „honest“
Auch Formulierungen wie „no <thing you told me not to do>“ sehe ich oft. Das scheint eine Art Prüfung der Prompt-Befolgung zu sein
Auch auf Wikipedia gibt es dazu Material: Signs of AI Writing
Beim Lesen entdeckt man allerdings auch eigene Schreibgewohnheiten, was etwas peinlich ist
Vor allem benutze ich oft künstliche Bereichsformulierungen wie „from X to Y“
Außerdem können LLMs die Gewohnheit einfach nicht ablegen, Titel und Untertitel mit einem Doppelpunkt zu trennen
Als nützliche, von Menschen direkt geschriebene Ressource empfehle ich Wikipedia: Signs of AI Writing