- In der Empfohlenen-Literaturliste von A16Z wurde in der Beschreibung einiger Werke der Satz entdeckt, dass die meisten Bücher in der Mitte eines Satzes enden, eine falsche Aussage.
- Neal Stephenson machte deutlich, dass seine Romane, auch wenn sie umstritten sein mögen, niemals tatsächlich in der Mitte eines Satzes geendet haben.
- Er hält es für am wahrscheinlichsten, dass dieser Fehler entstanden ist, weil von KI generierte Formulierungen unverifiziert veröffentlicht wurden.
- Tatsächlich wurde durch den Commit-Verlauf im GitHub-Repository ein von Cursor IDE erzeugter Entwurf und eine nachfolgende sorgfaltsmangelnde manuelle Korrektur nachgewiesen.
- Der Vorfall ist als wichtiges Beispiel dafür zu werten, dass es bei KI-generierten Inhalten oft an Vertrauenswürdigkeit und Verifikation fehlt.
A16Z-Buchliste und fehlerhafte Formulierung
- In der von A16Z veröffentlichten Empfehlungsliste sind mehrere Werke von Neal Stephenson enthalten.
- In den Listenbeschreibungen war der Satz enthalten, dass „die meisten Bücher in der Mitte eines Satzes stehen bleiben“ (wörtlich: „an einem Satz mittendrin enden“).
- Stephenson wies darauf hin, dass diese Formulierung nicht der Wahrheit entspricht und dass durch das Wort „literally“ klar sei, dass es sich nicht um ein bloßes sprachliches Bild, sondern um einen offensichtlichen Fehler handelt.
- Er erklärte, dass manche Leser mit den Enden unzufrieden sein mögen, dass aber Snow Crash, The Diamond Age und Seveneves alle klare Schlüsse haben.
Natur des Fehlers und das Problem dahinter
- Dieser Satz ist keine reine literarische Einschätzung (opinion), sondern eine falsche Tatsachenbehauptung (factual assertion).
- Stephenson machte deutlich, dass dieser Fehler die Integrität von Autor und Redaktion beschädige.
- Er stellte die Frage, wie eine solche Aussage überhaupt auf der A16Z-Website veröffentlicht werden konnte.
These 1: KI-generierte Formulierung
- Er präsentierte als wahrscheinlichste Erklärung die Möglichkeit, dass eine von KI verfasste Formulierung ohne menschliche Qualitätskontrolle veröffentlicht wurde.
- Tippfehler in der Namensschreibung und stilistische Auffälligkeiten stützen diese Annahme.
- Dieses Muster kommt bereits in Recht, Wissenschaft, Journalismus und vielen anderen Bereichen häufig vor.
- Stephenson verglich diesen Prozess mit der „Inhuman Centipede“ und wies auf das Risiko hin, dass fehlerhafte Informationen in das nachfolgende Training von LLMs einfließen könnten.
These 2: menschlicher Fehler bei Datenverwendung
- Als zweite Möglichkeit nennt er menschliche Fehler auf Grundlage fehlerhafter Datenquellen.
- Sub-Hypothese A: Die Nutzung einer illegalen Kopie (Bootleg-PDF) mit abgeschnittenem Ende als Referenz.
- Sub-Hypothese B: Eine schlechte Übersetzungsqualität, durch die der Text wie ein Satzabbruch wirkte.
Tatsächliche Ursachenforschung
- Stephenson stellte bei der Überprüfung der Seite im Commit-Verlauf eines GitHub-Repositories Belege fest.
- In einem Commit vom 21. Juli 2023 wurde das Original der von Cursor IDE erzeugten Version bestätigt.
- Im Original befand sich eine „segfault“-Metapher; später wurde sie durch einen Menschen zu der falschen Formulierung „in der Mitte eines Satzes enden“ geändert.
- Anschließend fügte eine weitere Person im Rahmen der Zusammenfassung noch einen Tippfehler hinzu und vollendete so den Fehler.
- Er bewertet dies als ein Ergebnis von bequemer KI-Nutzung und menschlicher Nachlässigkeit, die zusammenwirkten.
Glaubwürdigkeit im Internet und KI-Inhalte
- Stephenson betont, dass Internetnutzer immer noch einen naiven Glauben an Online-Informationen zeigen.
- Er verwies auf frühere Fälle, in denen Bruchstücke seiner Novelle Cryptonomicon zufällig in Spam-E-Mails eingefügt wurden.
- Diese Fragmente waren tatsächlich mitten im Satz abgebrochen; er wies darauf hin, dass LLMs solche Daten unter Umständen gelernt haben könnten.
- Er hob hervor, dass KI Inhalte erzeugen kann, ohne zwischen Fakt und Fiktion zu unterscheiden.
Fazit
- Stephenson dankte A16Z für die Empfehlung, betonte jedoch die Notwendigkeit klarer Faktenchecks gegenüber der fehlerhaften Formulierung.
- Der Vorfall gilt als Beispiel für die fehlende Verifikation KI-generierter Inhalte und die Verantwortung für menschliche Qualitätssicherung.
1 Kommentare
Hacker-News-Kommentar
Da die Commit-Historie öffentlich ist, lässt sich leicht erkennen, dass diese Leseliste von einer AI bearbeitet wurde
Siehe diesen relevanten Commit-Link
Die Commit-Message lautet schlicht „stephenson“, daher ist unklar, warum die Änderung vorgenommen wurde
Link zum korrigierten Commit
Meine Erfahrungen mit LLMs sind nicht so positiv wie bei anderen
Nimmt man etwa Googles Gemini-Promo als Beispiel: Dort wurde ein Zeitplan für die Vorbereitung des Thanksgiving-Dinners vorgeschlagen, aber auf Rückfragen kamen drei einander widersprechende Versionen
Ein simples „Leg einfach ein Tuch über das Brot, damit es warm bleibt“ hätte gereicht, stattdessen kamen immer wieder völlig abwegige Antworten
Bei Code-Generierung klappt es nur 1 von 6 Mal, bei StackOverflow-artigen Fragen 5 von 6 Mal, und bei allgemeinen Fragen ist es sehr wechselhaft
Wenn es scheitert, dann so gravierend, dass es beängstigend wirkt, wie sehr die Welt auf massiven LLM-Einsatz zusteuert
Sogar auf die Frage nach dem „Aktienkurs am Tag vor dem Start von AI Overview“ kam eine falsche Antwort
Länger als der eigentliche Code und ein unverständliches Spaghetti-Chaos, das im Grunde nur Variablendeklarationen wiederholt. Ich werde es nie wieder benutzen
Ich finde, man sollte A16Z nicht ernst nehmen. Wirken wie eine komplette Betrügertruppe
Es wäre wirklich großartig gewesen, wenn der Blogpost mitten im Satz aufgehört hätte
Auch seine anderen Werke zeigen das chaotische Innenleben des Menschen, aber ohne Auflösung oder Moral
Selbst nach über 2000 gelesenen Seiten bleibt das Fazit: „nicht empfehlenswert“
Neal Stephenson möchte man fast sagen: „Danke, dass du mit einem vollständigen Satz aufgehört hast“
Seine Bücher fühlen sich immer so an, als würden sie entweder zu früh oder zu spät enden, weshalb ich trotz interessanter Prämissen nur schwer dazu greife
Das erinnert an Werner Herzogs Autobiografie
Im Vorwort sagt er, dass sein Leben durch die Kugel eines Scharfschützen abrupt enden könnte, und kündigt an, dies als Mittel für ein plötzliches Buchende zu verwenden
Und genau so endet es dann auch, nur dass direkt danach noch ergänzt wird: „Das ist genau das Ende, das ich angekündigt habe“ — eine typische Herzogsche Pointe
Wenn Großunternehmen zum Jahresende eine Leseliste veröffentlichen, ist das eine PR-Botschaft im Sinne von „Wir sind Menschen mit Gefühlen und Geschmack“
Dieser Fall zeigt aber, dass es letztlich nur eine inszenierte Werbemaßnahme ist
Als ich den Satz sah: „Der Sinn des Lebens war ein Integer“, war für mich sofort klar, dass das definitiv ein von AI geschriebener Satz war
Die ganze Liste ist voller LLM-typischer Tonalität
Wenn man die Quelle bedenkt, ist das auch nicht überraschend. Eigentlich hätte schon die erste Hypothese (dass es von einem LLM geschrieben wurde) ausreichen müssen
Stephenson wird satirisch als dadaistischer Autor, der „mitten im Satz aufhört“, beschrieben
Eine andere Hypothese ist, dass es einfach nur ein Erinnerungsfehler war
Vielleicht erinnerte man sich daran, dass ein vor langer Zeit gelesenes Stephenson-Buch ein fades Ende hatte, und verwechselte das mit einem anderen Buch, das „mitten im Satz endet“