- Es wurde festgestellt, dass die fraglichen Zitate von einer AI erzeugt wurden, obwohl sie fälschlich einer Quelle zugeschrieben wurden, obwohl die tatsächliche Person diese Aussagen nie gemacht hatte
- Das Medium bezeichnete den Vorfall als schwerwiegendes Versagen redaktioneller Standards und stellte klar, dass alle direkten Zitate tatsächliche Aussagen der jeweiligen Person wiedergeben müssen
- Eine interne Überprüfung ergab, dass keine weiteren ähnlichen Fälle gefunden wurden und es sich nach aktuellem Stand um einen Einzelfall handelt
- Ars Technica bekräftigte seine Richtlinie, dass AI-generierte Inhalte nur dann zulässig sind, wenn sie zu Demonstrationszwecken klar gekennzeichnet sind, und entschuldigte sich bei den Lesern sowie bei der falsch zitierten Person
Rückzug des Artikels und Überblick über den Vorfall
- Ars Technica gab am Freitagnachmittag bekannt, einen Artikel zurückzuziehen, der von einem AI-Tool erzeugte falsche Zitate enthielt
- Die Zitate waren von einer AI erzeugte Aussagen, die fälschlich einer Quelle zugeschrieben wurden, obwohl sie nie von der betreffenden Person gemacht worden waren
- Das Medium stufte dies als „schwerwiegenden Verstoß gegen Standards“ ein
- Die Redaktion erklärte: „Direkte Zitate müssen zwingend wiedergeben, was die Quelle tatsächlich gesagt hat.“
Interne Überprüfung und Richtlinien
- Ars Technica hat sich seit Langem mit den Risiken einer übermäßigen Abhängigkeit von AI-Tools befasst, und diese Bedenken spiegeln sich auch in den internen Richtlinien wider
- Das Medium erklärte, dass die Veröffentlichung der Zitate in diesem Fall nicht im Einklang mit diesen Richtlinien erfolgt sei
- Nach einer Überprüfung jüngerer Arbeiten teilte Ars Technica mit, dass keine weiteren Probleme entdeckt wurden und der Vorfall derzeit als Einzelfall erscheine
Regeln für AI-generierte Inhalte
- Ars Technica verbietet grundsätzlich die Veröffentlichung von AI-generiertem Material
- Eine Ausnahme ist nur zulässig, wenn es klar gekennzeichnet ist und Demonstrationszwecken dient
- Im vorliegenden Fall wurde diese Regel nicht eingehalten
Entschuldigung und Folgemaßnahmen
- Das Medium entschuldigte sich bei den Lesern für dieses Versagen und richtete zudem eine direkte Entschuldigung an Scott Shambaugh, das Opfer des falschen Zitats
- Die Redaktion kündigte an, die redaktionellen Standards zu verschärfen und eine Wiederholung zu verhindern
Fazit
- Ars Technica bekräftigte durch diesen Vorfall erneut die Bedeutung von Prüfung und Transparenz bei AI-generierten Inhalten
- Zur Wiederherstellung redaktioneller Glaubwürdigkeit und zur Wahrung ethischer Berichterstattungsstandards werden interne Verfahren verschärft
Noch keine Kommentare.