2 Punkte von GN⁺ 2026-03-04 | 1 Kommentare | Auf WhatsApp teilen
  • Nach der Kontroverse um einen Artikel mit von KI-Tools erzeugten Falschzitaten wurde Reporter Benj Edwards entlassen
  • Der betreffende Artikel behandelte einen Vorfall, bei dem eine KI Kritik an dem menschlichen Ingenieur Scott Shambaugh veröffentlicht hatte; später stellte sich heraus, dass er Falschzitate enthielt, und er wurde zurückgezogen
  • Edwards erklärte, bei der Nutzung eines auf Claude Code basierenden KI-Tools sei ein Fehler aufgetreten; beim Versuch, das Problem mit ChatGPT nachzuvollziehen, habe er falsche Zitate übernommen
  • Ars Technica stufte den Vorfall als „schweren Verstoß gegen Standards“ ein, schloss eine interne Prüfung ab und will künftig Richtlinien für den Einsatz von KI veröffentlichen
  • Der Vorfall zeigt, dass selbst KI-Experten in einer Zeit, in der der KI-Einsatz im Journalismus und ethische Standards aufeinanderprallen, menschlichen Fehlern und technischen Grenzen ausgesetzt sein können

Überblick über den Entlassungsfall bei Ars Technica

  • Ars Technica beendete das Arbeitsverhältnis mit Reporter Benj Edwards, nachdem es Kontroversen um einen Artikel mit von KI erzeugten Falschzitaten gegeben hatte
    • Das Medium gehört zu Condé Nast
  • Der problematische Artikel war ein am 13. Februar veröffentlichter Bericht über einen KI-Vorfall, bei dem ein KI-Agent einen Beitrag veröffentlichte, der den menschlichen Ingenieur Scott Shambaugh kritisierte
  • Nachdem Shambaugh darauf hingewiesen hatte, dass der Artikel Zitate enthalte, die er nie gesagt habe, veröffentlichte Chefredakteur Ken Fisher eine Entschuldigung und zog den Artikel zurück

Entschuldigung des Chefredakteurs und interne Maßnahmen

  • In seiner Entschuldigung räumte Fisher ein, dass der Artikel „von einem KI-Tool erzeugte Falschzitate“ enthalte, und bezeichnete dies als „schweren Verstoß gegen Standards
  • Er fügte hinzu, es scheine sich um einen „isolierten Fall“ zu handeln; später teilte Ars Technica mit, dass die interne Prüfung abgeschlossen sei
  • Creative Director Aurich Lawson schloss den Kommentar-Thread der Leser und erklärte, dass „angemessene interne Maßnahmen abgeschlossen wurden
    • Außerdem kündigte er an, künftig einen Leitfaden für Leser zur Nutzung und Nichtnutzung von KI zu veröffentlichen

Erklärung von Benj Edwards

  • Edwards übernahm in einem Beitrag auf Bluesky die volle Verantwortung und erklärte, er habe „bei der Nutzung eines KI-Tools versehentlich Falschzitate eingefügt
    • Er erklärte, er sei damals krankgeschrieben gewesen und habe versucht, Zitate mit einem experimentellen, auf Claude Code basierenden KI-Tool zu ordnen, wobei ein Fehler auftrat
    • Beim anschließenden Versuch, die Ursache mit ChatGPT nachzuvollziehen, habe er paraphrasierte Sätze statt tatsächlicher Aussagen in den Artikel aufgenommen
  • Er betonte, „der Artikel wurde von einem Menschen geschrieben, es gibt keinen von KI generierten Artikel“, und stellte klar, dass Mitautor Kyle Orland nichts mit dem Fehler zu tun habe

Reaktionen der Leser und weitere Entwicklungen

  • Leser von Ars Technica äußerten im Kommentar-Thread zum Artikel starke Enttäuschung und Wut
  • Mit Stand vom 28. Februar wurde Edwards’ Profil bei Ars Technica in die Vergangenheitsform geändert, was bestätigte, dass er dort nicht mehr als Reporter tätig ist
  • Futurism fragte bei Ars Technica, Condé Nast und Edwards nach seinem Beschäftigungsstatus; Medium und Eigentümer reagierten nicht, Edwards erklärte lediglich, er könne „keinen Kommentar abgeben“

KI-Nutzung in den Medien: Kontroverse und Kontext

  • Der Vorfall wird als weiteres Beispiel in einer Reihe von KI-bezogenen Kontroversen bei CNET, Sports Illustrated und anderen genannt
  • Der Artikel weist darauf hin, dass Medienhäuser derzeit zwar den Einsatz von KI fördern, es aber an klaren ethischen Standards fehlt
  • Zum Umfeld der KI-Einführung gehören unter anderem Urheberrechtsstreitigkeiten, die Verbreitung KI-generierter Inhalte und sinkender Traffic durch Googles AI Overviews
  • Vor diesem Hintergrund zeigt der Fall Ars Technica den Schnittpunkt von KI-Technologie und menschlichem Versagen auf
  • Edwards sagte, er empfinde „die Ironie, als KI-Reporter auf eine KI-Halluzination hereingefallen zu sein“, und fügte hinzu: „Mir ist Genauigkeit wichtig, aber das hier war ein schmerzhafter Fehlschlag“

1 Kommentare

 
GN⁺ 2026-03-04
Hacker-News-Kommentare
  • Journalisten und Blogger analysieren oft die Fehler und Entschuldigungen anderer und diskutieren, ob sie aufrichtig sind

    • In diesem Fall löschte Aurich Lawson von Ars Technica einen Artikel, der von einem LLM erfundene Zitate enthielt, und veröffentlichte eine vage Nicht-Entschuldigung
    • Am Ende wurde der Journalist entlassen, aber Ars veröffentlichte nicht einmal einen Artikel darüber
    • In einer Zeit, in der Ehrlichkeit als Schwäche wahrgenommen wird, hatte man gehofft, dass Ars ein Vorbild für Transparenz und Verantwortungsbewusstsein sein würde, und ist nun enttäuscht
    • Dass Ars den Fehler eingestanden und den Journalisten entlassen hat, ist ein Übernehmen von Verantwortung
      • Der Journalist selbst hat sich auf Bluesky ebenfalls ausführlich erklärt
      • Die Unzufriedenheit besteht nur darin, dass diese Erklärung nicht wirklich zufriedenstellend war
    • Wenn der Journalist über AI-Themen schrieb, hätte er die von einem LLM erzeugten Zitate unbedingt überprüfen müssen
      • Falls auch die Redaktion das nicht geprüft hat, zeigt das die redaktionellen Standards von Ars
      • Man sollte prüfen, ob andere Artikel auf ähnliche Weise verschwunden sind
    • Es ist fraglich, ob es üblich ist, dass ein Medienhaus öffentlich macht, dass jemand entlassen wurde
      • Ars hatte damals das Problem mit der Herkunft der Zitate innerhalb weniger Tage aufgegriffen
    • Die Redaktion von Ars hatte schon früher niedrige Standards
      • Die Hälfte der Überschriften ist irreführendes Clickbait, das auf Klicks abzielt
      • Es gibt viel zu viele unglaubwürdige Schlagzeilen
    • Zu sagen, Aurich Lawson habe den Artikel gelöscht, klingt nach einer Form von „den Überbringer der Nachricht beschuldigen“
      • Er ist nur das Gesicht der Community und hatte wahrscheinlich gar nicht diese Befugnis
  • Es werden persönliche Erfahrungen mit dem Journalisten Benji geteilt

    • Zunächst gab es ein gutes Interview, aber als das Projekt später Aufmerksamkeit bekam und erneut Kontakt aufgenommen wurde, lehnte er unter Verweis auf Off-the-Record-Richtlinien ab
    • Die Beziehung zu Journalisten sei nicht transparent, und man habe eine Intransparenz der Medien gespürt
    • Bei der Kommunikation mit Journalisten sollte man unbedingt alles schriftlich dokumentieren
    • In Deutschland wird die Haltung, Journalisten zur Promotion persönlicher Projekte zu nutzen, sehr negativ gesehen
      • Benjis Reaktion wirkt eher wie eine normale und ethische Entscheidung
    • Als Journalist lehnt man Vorschläge zu Themen, die bereits in anderen Medien behandelt wurden, meist ab
      • Der Grund ist der Wunsch nach Exklusivität, und PR-Pitches werden fast immer abgelehnt
    • Manchmal antworten Journalisten auch einfach nicht, weil sie beschäftigt sind oder eine Absage schwerfällt
    • Journalisten behandeln dasselbe Thema nur ungern zweimal
    • Ars neigt dazu, externe Artikel zusammenzufassen und umzuschreiben oder nur exklusive Geschichten selbst zu recherchieren
  • Unsere Organisation verwendet einen automatisierten Blocker, um von AI erzeugte juristische Zitate zu verifizieren

    • Wenn ein Zitat nicht mit der offiziellen Datenbank übereinstimmt, wird es als Halluzination (hallucination) markiert und von Menschen erneut geprüft
    • AI ist nur ein Helfer für Entwürfe, die endgültige Entscheidung muss durch menschliche Prüfung gehen
    • Wie beim Ansatz von Anders Hejlsberg ist es sicherer, AI nicht die Arbeit erledigen zu lassen, sondern Werkzeuge bauen zu lassen
      • So wird der Prüfbereich kleiner, und man muss nur noch die Genauigkeit des Werkzeugs kontrollieren
  • Das größere Problem als die Entlassung eines einzelnen Journalisten ist der Zusammenbruch der redaktionellen Struktur

    • In den letzten zehn Jahren haben Medienhäuser Personal für die Prüfung abgebaut, wodurch die Faktencheck-Strukturen verschwunden sind
    • Mit der Einführung von AI-Tools wurde dann ohne Verifikation nur die Produktionsmenge erhöht, was zu einem systemischen Versagen führte
    • Das ist ein strukturelles Problem ähnlich dem Schweizer-Käse-Modell bei Industrieunfällen
    • Künftig braucht es eine Debatte darüber, dass Medienhäuser die Nutzung von AI transparent offenlegen sollten
  • Man respektiert und unterstützt Ars Technica, aber in diesem Fall liegt die Verantwortung bei der Redaktion

    • Wenn ein Artikel unter der Marke veröffentlicht wurde, hätte es zwingend einen Faktenprüfungsprozess geben müssen
    • Trotzdem gibt es bei Ars viele hervorragende Journalisten, daher sollte man nicht wegen eines einzigen Fehlers alles pauschal bewerten
    • Eric Berger ist gegenüber Musk voreingenommen, und Dan Goodin fehlt es an technischem Verständnis
      • Ashley Belanger ist dagegen mit eigener Recherche und tiefgehender Schreibe am vertrauenswürdigsten
      • Beth Mole verbindet ebenfalls Fachkompetenz mit Humor
    • Maggie Koerth und Jon Stokes aus früheren Zeiten werden vermisst
    • Man sollte die internen Prüfprozesse großer Medien nicht überschätzen
  • Es wird der Kontext früherer Diskussionen zusammengefasst und eine dazugehörige Timeline der AI-Artikelkontroverse geteilt

  • Große Medienhäuser machen die Nutzung von LLMs bereits zur Pflicht

    • Es gibt interne Richtlinien dazu, wie man AI-Ausgaben so überarbeitet, dass sie nicht auffallen, und wie Zitate zu verifizieren sind
    • Wegen Leistungsdruck werden Journalisten, die keine AI nutzen, teils sogar entlassen
    • Das ist nicht nur ein Problem von Ars, sondern ein allgemeines Phänomen, das durch eine klickzentrierte Struktur entstanden ist
    • Darauf gab es auch Gegenstimmen, die nach belastbaren Belegen fragten
      • Ohne konkrete Beweise zu behaupten, das sei ein „offenes Geheimnis“, kann wie ein Abwälzen von Managementverantwortung wirken
    • Es gab auch Stimmen, die gern mehr darüber hören würden, ob solche Richtlinien tatsächlich existieren und wie genau Methoden zur Tarnung von AI-Ausgaben aussehen
  • Im Artikeltitel wurde die Entlassung des Journalisten erwähnt, tatsächlich gibt es dafür aber zu wenig bestätigte Fakten

    • Als Belege wurden angeführt, dass sich die Autorenbeschreibung von „is“ zu „was“ geändert hat und Beteiligte dem nicht widersprochen haben
    • Liest man Benjs Bluesky-Beitrag, wirkt es nicht wie ein freiwilliger Rücktritt
  • Die Kritik an Ars ist heftig, aber der Journalist hat den Preis bereits bezahlt

    • Man glaubt, dass Ars künftig vorsichtiger sein wird
  • Die Genauigkeitsverbesserung von Google AI Overview ist erstaunlich

    • Inzwischen schaut man manchmal nicht einmal mehr auf die Links
    • Allerdings ist das nur eine Zusammenfassung von Suchergebnissen und eine Struktur, die die Inhalte der Quellseiten kannibalisiert
    • Tatsächlich liefert es auch häufig falsche Informationen
    • Oft stimmen die Inhalte der Links nicht mit der Zusammenfassung überein
    • Ein Nutzer berichtete, dass die AI ein Forschungsprojekt erfunden habe, das gar nicht existiert
    • Man sollte die Links oft überprüfen und sich der Grenzen der Zuverlässigkeit von AI bewusst sein