- Nach der Kontroverse um einen Artikel mit von KI-Tools erzeugten Falschzitaten wurde Reporter Benj Edwards entlassen
- Der betreffende Artikel behandelte einen Vorfall, bei dem eine KI Kritik an dem menschlichen Ingenieur Scott Shambaugh veröffentlicht hatte; später stellte sich heraus, dass er Falschzitate enthielt, und er wurde zurückgezogen
- Edwards erklärte, bei der Nutzung eines auf Claude Code basierenden KI-Tools sei ein Fehler aufgetreten; beim Versuch, das Problem mit ChatGPT nachzuvollziehen, habe er falsche Zitate übernommen
- Ars Technica stufte den Vorfall als „schweren Verstoß gegen Standards“ ein, schloss eine interne Prüfung ab und will künftig Richtlinien für den Einsatz von KI veröffentlichen
- Der Vorfall zeigt, dass selbst KI-Experten in einer Zeit, in der der KI-Einsatz im Journalismus und ethische Standards aufeinanderprallen, menschlichen Fehlern und technischen Grenzen ausgesetzt sein können
Überblick über den Entlassungsfall bei Ars Technica
- Ars Technica beendete das Arbeitsverhältnis mit Reporter Benj Edwards, nachdem es Kontroversen um einen Artikel mit von KI erzeugten Falschzitaten gegeben hatte
- Das Medium gehört zu Condé Nast
- Der problematische Artikel war ein am 13. Februar veröffentlichter Bericht über einen KI-Vorfall, bei dem ein KI-Agent einen Beitrag veröffentlichte, der den menschlichen Ingenieur Scott Shambaugh kritisierte
- Nachdem Shambaugh darauf hingewiesen hatte, dass der Artikel Zitate enthalte, die er nie gesagt habe, veröffentlichte Chefredakteur Ken Fisher eine Entschuldigung und zog den Artikel zurück
Entschuldigung des Chefredakteurs und interne Maßnahmen
- In seiner Entschuldigung räumte Fisher ein, dass der Artikel „von einem KI-Tool erzeugte Falschzitate“ enthalte, und bezeichnete dies als „schweren Verstoß gegen Standards“
- Er fügte hinzu, es scheine sich um einen „isolierten Fall“ zu handeln; später teilte Ars Technica mit, dass die interne Prüfung abgeschlossen sei
- Creative Director Aurich Lawson schloss den Kommentar-Thread der Leser und erklärte, dass „angemessene interne Maßnahmen abgeschlossen wurden“
- Außerdem kündigte er an, künftig einen Leitfaden für Leser zur Nutzung und Nichtnutzung von KI zu veröffentlichen
Erklärung von Benj Edwards
- Edwards übernahm in einem Beitrag auf Bluesky die volle Verantwortung und erklärte, er habe „bei der Nutzung eines KI-Tools versehentlich Falschzitate eingefügt“
- Er erklärte, er sei damals krankgeschrieben gewesen und habe versucht, Zitate mit einem experimentellen, auf Claude Code basierenden KI-Tool zu ordnen, wobei ein Fehler auftrat
- Beim anschließenden Versuch, die Ursache mit ChatGPT nachzuvollziehen, habe er paraphrasierte Sätze statt tatsächlicher Aussagen in den Artikel aufgenommen
- Er betonte, „der Artikel wurde von einem Menschen geschrieben, es gibt keinen von KI generierten Artikel“, und stellte klar, dass Mitautor Kyle Orland nichts mit dem Fehler zu tun habe
Reaktionen der Leser und weitere Entwicklungen
- Leser von Ars Technica äußerten im Kommentar-Thread zum Artikel starke Enttäuschung und Wut
- Mit Stand vom 28. Februar wurde Edwards’ Profil bei Ars Technica in die Vergangenheitsform geändert, was bestätigte, dass er dort nicht mehr als Reporter tätig ist
- Futurism fragte bei Ars Technica, Condé Nast und Edwards nach seinem Beschäftigungsstatus; Medium und Eigentümer reagierten nicht, Edwards erklärte lediglich, er könne „keinen Kommentar abgeben“
KI-Nutzung in den Medien: Kontroverse und Kontext
- Der Vorfall wird als weiteres Beispiel in einer Reihe von KI-bezogenen Kontroversen bei CNET, Sports Illustrated und anderen genannt
- Der Artikel weist darauf hin, dass Medienhäuser derzeit zwar den Einsatz von KI fördern, es aber an klaren ethischen Standards fehlt
- Zum Umfeld der KI-Einführung gehören unter anderem Urheberrechtsstreitigkeiten, die Verbreitung KI-generierter Inhalte und sinkender Traffic durch Googles AI Overviews
- Vor diesem Hintergrund zeigt der Fall Ars Technica den Schnittpunkt von KI-Technologie und menschlichem Versagen auf
- Edwards sagte, er empfinde „die Ironie, als KI-Reporter auf eine KI-Halluzination hereingefallen zu sein“, und fügte hinzu: „Mir ist Genauigkeit wichtig, aber das hier war ein schmerzhafter Fehlschlag“
1 Kommentare
Hacker-News-Kommentare
Journalisten und Blogger analysieren oft die Fehler und Entschuldigungen anderer und diskutieren, ob sie aufrichtig sind
Es werden persönliche Erfahrungen mit dem Journalisten Benji geteilt
Unsere Organisation verwendet einen automatisierten Blocker, um von AI erzeugte juristische Zitate zu verifizieren
Das größere Problem als die Entlassung eines einzelnen Journalisten ist der Zusammenbruch der redaktionellen Struktur
Man respektiert und unterstützt Ars Technica, aber in diesem Fall liegt die Verantwortung bei der Redaktion
Es wird der Kontext früherer Diskussionen zusammengefasst und eine dazugehörige Timeline der AI-Artikelkontroverse geteilt
Große Medienhäuser machen die Nutzung von LLMs bereits zur Pflicht
Im Artikeltitel wurde die Entlassung des Journalisten erwähnt, tatsächlich gibt es dafür aber zu wenig bestätigte Fakten
Die Kritik an Ars ist heftig, aber der Journalist hat den Preis bereits bezahlt
Die Genauigkeitsverbesserung von Google AI Overview ist erstaunlich