- Technologien zur KI-Videogenerierung sollten eigentlich die Hürden für kreatives Schaffen senken, doch in der Praxis erzeugen sie nur oberflächliche und klischeehafte Szenen
- Verschiedene Modelle wie Sora, Runway ML und Veo erzeugen zwar technisch ausgereifte Videos, doch es ist schwer, Werke mit Absicht und Erzählung zu schaffen
- Diese Videos besitzen eine unnatürliche Ästhetik, die typisch für ‚KI-Videos‘ ist, und lösen beim Publikum Unbehagen und Misstrauen aus
- Besonders unter älteren Menschen verbreiten sich Videos mit Desinformation und Fake News rasant, wodurch die Grenze zwischen Realität und Fiktion verschwimmt
- Letztlich verursachen KI-Videos sowohl direkte als auch indirekte Schäden und beschleunigen den Vertrauensverlust in visuelle Medien insgesamt
Erwartungen und Realität als Kreativwerkzeug
- Bei der Einführung von OpenAIs Sora erwarteten Nutzer, mit eigenen Skizzen und Drehbüchern Kurzfilme erstellen zu können
- In der Praxis lieferten die erzeugten Videos jedoch anders als in den Demos wiederholt Ergebnisse, die nicht zu den gewünschten Szenen passten
- Auch andere Modelle wie Runway ML und Veo wurden getestet, erzeugten aber allesamt oberflächlich überzeugende Videos ohne erzählerische Kohärenz
- Diese Resultate sind nicht nur Ausdruck technischer Grenzen, sondern weisen Merkmale auf, die sie als eigenständige ästhetische Kategorie namens ‚KI-Video‘ erkennbar machen
Ein neues Uncanny Valley
- KI-Videos haben eine unverwechselbare visuelle Textur, die sofort erkennbar ist, und vermitteln ein subtil „falsches“ Gefühl
- Auch wenn Zuschauer es nicht klar erklären können, spüren sie instinktiv die Unnatürlichkeit
- Der Autor empfindet gegenüber solchen Videos starke Abneigung, und Menschen im Umfeld reagieren ähnlich
- Laut einem Bericht der BBC verändert YouTube Videos per KI ohne Zustimmung der Urheber, sodass sogar echte Aufnahmen künstlich wirken
- Gesichter erscheinen dabei übermäßig geglättet oder geschärft
- Dadurch verwischt die Grenze zwischen echten Videos und KI-Videos
Missbrauch und Ausweitung der Schäden
- Die wichtigsten Nutzer von KI-Videos sind Anwender mit Spam-, Betrugs- oder Propagandaabsichten
- Sie nutzen KI-Tools, um Desinformation und manipulierte Inhalte in großem Umfang zu produzieren
- Besonders ältere Menschen sind die Hauptbetroffenen: In Gruppen-Chats mit Familie und Bekannten verbreiten sich gefälschte Videos mit Aussagen prominenter Personen oder Gesundheitsdesinformation schnell
- Beispiele: ein Ratgebervideo von Denzel Washington, religiöse Aussagen von Obama oder ein Meinungswechsel von Trump
- Der Autor weist wiederholt auf Anzeichen für KI-Videos (z. B. Sora-Wasserzeichen) und Methoden zum Faktencheck hin, kann aber mit der Geschwindigkeit der Verbreitung nicht Schritt halten
- Auch in YouTube-Kommentaren gibt es zahlreiche echte Nutzer, die ernsthaft mit gefälschten Personen interagieren
Der Zusammenbruch des Vertrauens
- KI-Videotechnologie wird wirksamer für Manipulation und Ausbeutung als zur Unterstützung von Kreativen eingesetzt
- Positive Einsatzmöglichkeiten in Bildung, Barrierefreiheit und Kunst wurden zwar erwogen, doch in der Praxis führen alle KI-Videos zu schädlichen Folgen
- Direkte Schäden: Desinformation, Identitätsvortäuschung, Manipulation vulnerabler Gruppen
- Indirekte Schäden: Verlust des Vertrauens in visuelle Medien insgesamt
- Der Autor kommt zu dem Schluss: „Selbst harmlose KI-Videos beschleunigen den Vertrauenszerfall.“
Fazit: Von der Hürde des kreativen Schaffens zur Hürde des Vertrauens
- KI-Videos haben sich als Technologie etabliert, die sich hervorragend für böswillige Zwecke eignet
- Die von Kreativen erwartete Überwindung technischer Hürden bleibt weiterhin aus,
und stattdessen ist nun das größere Problem einer „Hürde des Vertrauens“ entstanden
- Dieser Vertrauensverlust bleibt ein deutlich schwerer zu behebendes Problem
Noch keine Kommentare.