- Ein Text über den Zusammenbruch des Vertrauens ins Internet, ausgehend von einem Fall, bei dem bei der Suche nach dem Neuauflagen-Spiel „Phantasy Star Fukkokuban“ für das japanische Sega Genesis ein von KI erzeugter Fake-Artikel entdeckt wurde, der tatsächlich nicht existierende Inhalte beschrieb
- Eine in den oberen Suchergebnissen platzierte Website veröffentlichte einen Beitrag mit Inhalten wie verbesserter Grafik und Wettereffekten, die mit den Tatsachen überhaupt nichts zu tun hatten; später stellte sich heraus, dass es sich um eine von einem Large Language Model (LLM) erzeugte Fiktion handelte
- Als der Autor ChatGPT bat, dasselbe Spiel zu beschreiben, lieferte es ebenfalls falsche Plattform- und Inhaltsangaben, wodurch er das Phänomen der Halluzinationen infolge unzureichender Trainingsdaten direkt bestätigte
- Solche automatisch erzeugten Inhalte fließen in großer Menge auf Werbeseiten mit SEO-Zweck, was eine Struktur verstärkt, in der plausibel klingende Falschinformationen ohne Verifikation verbreitet werden
- Infolgedessen wird die gemeinsame Wissensbasis des Internets beschädigt, und verlässliche Informationen lassen sich letztlich nur noch auf renommierte Websites aus der Zeit vor den LLMs stützen
Der Fall Phantasy Star Fukkokuban
- „Phantasy Star Fukkokuban“ für das Sega Genesis, 1994 in Japan veröffentlicht, ist eine Neuauflage, die das ursprüngliche Master-System-Spiel unverändert enthält
- Auf einigen Genesis-Konsolen lassen sich Master-System-Spiele nicht ausführen, weshalb auch dieses Modul dort nicht funktioniert
- Als der Autor das Erscheinungsdatum dieses Spiels überprüfen wollte, stieß er in den oberen Suchergebnissen auf eine Website mit Falschinformationen
- Die betreffende Website „Press Start Gaming“ erwähnte verbesserte Grafik, Wettereffekte und einen Tag-Nacht-Wechsel, die im tatsächlichen Spiel nicht existieren
- Obwohl der erste Satz des Artikels „Game data not found“ lautete, folgte dennoch ein von KI erzeugter, plausibel wirkender Beschreibungstext
Das Halluzinationsproblem großer Sprachmodelle
- LLMs arbeiten auf Basis der Vorhersage des nächsten Tokens und erzeugen bei seltenen Themen, die in den Trainingsdaten nicht vorkommen, plausibel klingende Fiktionen
- Durch die Kombination der Bedeutung der Wörter aus der Reihe „Phantasy Star“ und „Fukkokuban“ (Neuauflage) wurde sich eine nicht existierende Remake-Version ausgedacht
- Als der Autor ChatGPT bat, dasselbe Spiel zu beschreiben, erhielt er eine Antwort, die es fälschlich als eine Compilation für den Sega Saturn einordnete
- Tatsächlich wurde es offenbar mit einem anderen Spiel namens „Phantasy Star Collection“ verwechselt
- Ähnlich existiert auch zu einem anderen seltenen Spiel des Autors, „Mahjong Daireikai“, im japanischsprachigen Web eine von KI erzeugte fiktive Beschreibung
Der Zusammenbruch des Vertrauens ins Internet
- Bei der Website „Press Start Gaming“ handelt es sich vermutlich um eine automatisierte Content-Plattform zur Generierung von Werbeeinnahmen
- Am Seitenende steht der Hinweis „©2025 Cloud Gears Media“, doch eine tatsächliche Verbindung zu einem realen Unternehmen ist unklar
- Solche Websites priorisieren Sichtbarkeit in Suchmaschinen (SEO) statt faktentreuer Information
- Mit der Einführung von LLMs sind die Kosten für die Produktion von Falschinformationen drastisch gesunken, und ungeprüfte Inhalte verbreiten sich massenhaft
- Früher überprüften selbst schlecht bezahlte Autoren wenigstens noch minimale Fakten; heute erzeugt KI vollständig erfundene Inhalte
- Der Autor sagt, neuen Websites könne man inzwischen nur schwer vertrauen, und man sei dazu übergegangen, sich nur noch auf Medien zu verlassen, die sich bereits vor dem KI-Zeitalter einen Ruf aufgebaut haben
Beschädigung des Informationsökosystems im KI-Zeitalter
- Der Autor bewertet das gemeinsame Wissen des Internets (common) als bereits irreversibel beschädigt
- Selbst verlässliche Informationsquellen laufen Gefahr, durch KI-Inhalte kontaminiert zu werden
- Als Beispiel nennt er einen Fall, in dem Ars Technica einen Artikel mit einem KI-generierten Zitat veröffentlichte und ihn anschließend korrigieren und zurückziehen musste
- Wenn LLMs künftig mehr Daten integrieren, könnte sich die Genauigkeit eines Tages verbessern, doch der aktuelle Schaden entsteht bereits jetzt
- Der Autor bezeichnet den Text als bloßen Rant, betont damit aber gerade das konkrete Gefühl des Vertrauensverlusts ins Internet
Fazit
- Das von KI und SEO dominierte Content-Ökosystem priorisiert Produktionseffizienz statt Wahrheitsgehalt von Informationen
- Dadurch erscheinen automatisch erzeugte, nicht verifizierte Texte weit oben in den Suchergebnissen und beschädigen die Grundlage für Lernen und Nachforschung der Nutzer
- Der Autor beendet den Text mit der Feststellung „Man kann dem Internet nicht mehr trauen“ und deutet an, dass die Wiederherstellung des Vertrauens in digitales Wissen dringend ist
Noch keine Kommentare.