1 Punkte von GN⁺ 2026-01-07 | Noch keine Kommentare. | Auf WhatsApp teilen
  • Technologien zur KI-Videogenerierung sollten eigentlich die Hürden für kreatives Schaffen senken, doch in der Praxis erzeugen sie nur oberflächliche und klischeehafte Szenen
  • Verschiedene Modelle wie Sora, Runway ML und Veo erzeugen zwar technisch ausgereifte Videos, doch es ist schwer, Werke mit Absicht und Erzählung zu schaffen
  • Diese Videos besitzen eine unnatürliche Ästhetik, die typisch für ‚KI-Videos‘ ist, und lösen beim Publikum Unbehagen und Misstrauen aus
  • Besonders unter älteren Menschen verbreiten sich Videos mit Desinformation und Fake News rasant, wodurch die Grenze zwischen Realität und Fiktion verschwimmt
  • Letztlich verursachen KI-Videos sowohl direkte als auch indirekte Schäden und beschleunigen den Vertrauensverlust in visuelle Medien insgesamt

Erwartungen und Realität als Kreativwerkzeug

  • Bei der Einführung von OpenAIs Sora erwarteten Nutzer, mit eigenen Skizzen und Drehbüchern Kurzfilme erstellen zu können
    • In der Praxis lieferten die erzeugten Videos jedoch anders als in den Demos wiederholt Ergebnisse, die nicht zu den gewünschten Szenen passten
  • Auch andere Modelle wie Runway ML und Veo wurden getestet, erzeugten aber allesamt oberflächlich überzeugende Videos ohne erzählerische Kohärenz
  • Diese Resultate sind nicht nur Ausdruck technischer Grenzen, sondern weisen Merkmale auf, die sie als eigenständige ästhetische Kategorie namens ‚KI-Video‘ erkennbar machen

Ein neues Uncanny Valley

  • KI-Videos haben eine unverwechselbare visuelle Textur, die sofort erkennbar ist, und vermitteln ein subtil „falsches“ Gefühl
    • Auch wenn Zuschauer es nicht klar erklären können, spüren sie instinktiv die Unnatürlichkeit
  • Der Autor empfindet gegenüber solchen Videos starke Abneigung, und Menschen im Umfeld reagieren ähnlich
  • Laut einem Bericht der BBC verändert YouTube Videos per KI ohne Zustimmung der Urheber, sodass sogar echte Aufnahmen künstlich wirken
    • Gesichter erscheinen dabei übermäßig geglättet oder geschärft
    • Dadurch verwischt die Grenze zwischen echten Videos und KI-Videos

Missbrauch und Ausweitung der Schäden

  • Die wichtigsten Nutzer von KI-Videos sind Anwender mit Spam-, Betrugs- oder Propagandaabsichten
    • Sie nutzen KI-Tools, um Desinformation und manipulierte Inhalte in großem Umfang zu produzieren
  • Besonders ältere Menschen sind die Hauptbetroffenen: In Gruppen-Chats mit Familie und Bekannten verbreiten sich gefälschte Videos mit Aussagen prominenter Personen oder Gesundheitsdesinformation schnell
    • Beispiele: ein Ratgebervideo von Denzel Washington, religiöse Aussagen von Obama oder ein Meinungswechsel von Trump
  • Der Autor weist wiederholt auf Anzeichen für KI-Videos (z. B. Sora-Wasserzeichen) und Methoden zum Faktencheck hin, kann aber mit der Geschwindigkeit der Verbreitung nicht Schritt halten
  • Auch in YouTube-Kommentaren gibt es zahlreiche echte Nutzer, die ernsthaft mit gefälschten Personen interagieren

Der Zusammenbruch des Vertrauens

  • KI-Videotechnologie wird wirksamer für Manipulation und Ausbeutung als zur Unterstützung von Kreativen eingesetzt
  • Positive Einsatzmöglichkeiten in Bildung, Barrierefreiheit und Kunst wurden zwar erwogen, doch in der Praxis führen alle KI-Videos zu schädlichen Folgen
    • Direkte Schäden: Desinformation, Identitätsvortäuschung, Manipulation vulnerabler Gruppen
    • Indirekte Schäden: Verlust des Vertrauens in visuelle Medien insgesamt
  • Der Autor kommt zu dem Schluss: „Selbst harmlose KI-Videos beschleunigen den Vertrauenszerfall.“

Fazit: Von der Hürde des kreativen Schaffens zur Hürde des Vertrauens

  • KI-Videos haben sich als Technologie etabliert, die sich hervorragend für böswillige Zwecke eignet
  • Die von Kreativen erwartete Überwindung technischer Hürden bleibt weiterhin aus,
    und stattdessen ist nun das größere Problem einer „Hürde des Vertrauens“ entstanden
  • Dieser Vertrauensverlust bleibt ein deutlich schwerer zu behebendes Problem

Noch keine Kommentare.

Noch keine Kommentare.