1 Punkte von GN⁺ 2025-08-27 | 1 Kommentare | Auf WhatsApp teilen
  • Ein Konzertvideo von Will Smith geriet unter den Verdacht, ein AI-generiertes Fake-Publikum zu zeigen, basierte tatsächlich aber auf Aufnahmen echter Fans
  • Das betreffende Video wurde aus Konzertszenen und echten Festivalfotos des Publikums zusammengesetzt; einige Zuschauershots wurden mit einem Image-to-Video-AI-Modell animiert
  • Allerdings ließ ein Nachbearbeitungsexperiment von YouTube Shorts (Entschärfen von Unschärfen und Denoising) zusätzlich die Gesichter im Publikum bizarr entstellen und Schilder verzerren, sodass es wie AI-Manipulation wirkte
  • Dasselbe auf Instagram und Facebook veröffentlichte Video zeigte deutlich weniger Verzerrungen; die automatische Korrektur von YouTube verschärfte die Situation
  • Im Ergebnis war das Publikum real, doch die Kombination aus AI-Nachbearbeitung auf Künstlerseite und YouTube-Filtern löste die Debatte um echt oder fake aus

Beginn der Kontroverse

  • Nach Veröffentlichung des problematischen einminütigen Videos berichteten große Medien wie Rolling Stone, NME und Mashable über den Verdacht auf AI-Manipulation
  • Die Gesichter im Publikum zeigten für AI typische Verzerrungen, mehrere Finger und bizarre Markierungen
  • Vor allem ein Schild mit der Aufschrift „From West Philly to West Swizzy“ wurde fehlerhaft erkannt und löste zusätzliche Diskussionen aus

Bestätigung der echten Konzertaufnahmen

  • Das Video ist ein Kreuzschnitt aus Publikumsaufnahmen des Positiv Festival in Orange, Frankreich, des Gurtenfestival und des Paléo Festival in der Schweiz sowie des Ronquieres Festival in Belgien
  • Anhand zugehöriger Konzertfotos und von Fans aufgenommenen Videos konnten dieselben Personen und Schilder identifiziert werden, womit belegt ist, dass das Publikum real war
  • Auch das Schild mit der Geschichte eines Paares im Kampf gegen Krebs existiert; auf dem Instagram-Account von Will Smith finden sich mehrere Fotos und Videos dazu

Zwei Stufen der AI-Bearbeitung

  1. Das Team von Will Smith erzeugte mithilfe offizieller Konzertfotos und eines AI-Image-to-Video-Modells (Runway, Veo 3 usw.) kurze Clips
  2. Die automatische Nachbearbeitung von YouTube Shorts (Unblur, Denoise) wurde zusätzlich angewendet, wodurch das Video noch verschwommener und unnatürlicher verformt wurde

Experiment von YouTube Shorts

  • Die Uploads auf Instagram und Facebook sind vergleichsweise klar, doch YouTube wandte ein „Experiment mit AI-Verbesserungstechnologie“ an, was insgesamt zu einem verzogenen Bildeffekt führte
  • YouTube erklärte, es handle sich um eine „traditionelle auf Machine Learning basierende Schärfungstechnologie“, doch die Anwendung ohne vorherige Ankündigung verschärfte die Kontroverse
  • Nach Kritik von Creatorn kündigte das Unternehmen an, später eine Opt-out-Funktion hinzuzufügen

Fazit

  • Die meisten Nutzer auf YouTube, Reddit und X glauben, es handle sich um ein Video mit per generativer AI erzeugten „Fake-Fans“
  • Tatsächlich sind echte Zuschauer zu sehen, doch durch die Image-to-Video-Umwandlung des Teams von Will Smith und die Nachbearbeitung von YouTube wurde der künstliche Eindruck stark verstärkt
  • Es wird die Notwendigkeit einer ethischen Abgrenzung aufgeworfen zwischen kurzen Animationseffekten für Konzertfotos per Image-to-Video-Modell und der vollständigen Erzeugung einer fiktiven Menschenmenge
  • Letztlich zeigt dieser Fall, wie ein reales Konzert durch AI-Tools ‚weniger echt‘ wirken kann

1 Kommentare

 
GN⁺ 2025-08-27
Hacker-News-Kommentare
  • AI-hochskalierte Videos wirken genauso störend wie die Ungelenkheit, bevor man bei einem neuen Fernseher die Frame-Interpolation ausschaltet. Ich frage mich, wer diese falsche künstliche Schärfe eigentlich besser findet. Neulich habe ich eine AI-hochskalierte Version eines Konzerts von David Bowie & Nine Inch Nails gesehen, und besonders bei Minute 2 fühlte es sich so an, als würde der Realismus kippen, was bei mir psychisch ein enormes Unbehagen ausgelöst hat. Das Originalvideo ist zwar niedrig aufgelöst, transportiert aber meiner Meinung nach die Atmosphäre und die beabsichtigte Wirkung viel besser. Es gibt heute großartige Kameras und Objektive, daher besteht kein Bedarf, die Bildqualität mit AI gewaltsam hochzuziehen
    • Das Erstaunliche ist, dass die Leute so etwas anscheinend sogar mögen. Gestern hat mein Partner ein neues Smartphone ausgesucht, und ihm war die Kamerabildqualität wichtig; er fand es toll, dass auch beim Hineinzoomen alles scharf blieb. Aber als ich nach einer kurzen Verzögerung dieses künstlich rekonstruierte, verzerrte Bild sah, das mich an Upscaling-Filter aus alten Konsolen-Emulatoren erinnerte, fand ich es etwas bitter, dass ein Mensch, den ich wirklich liebe, lieber Selfies mag, bei denen nur das Gesicht weichgezeichnet ist und im Hintergrund ein unnatürliches Fake-Bokeh liegt, statt realistische, natürliche Fotos
    • Dieses Bild ist wirklich urkomisch
    • Als ich früher meine Lieblingsserie auf dem neuen Fernseher meiner Eltern gesehen habe, wirkte irgendetwas seltsam und billig, die Schauspieler kamen unbeholfener rüber und sogar die Dialoge fühlten sich schlechter an, sodass ich lange über den Grund nachgedacht habe. Mit der Zeit habe ich dann herausgefunden, dass es an der automatischen Glättung des Fernsehers lag. Das ist der sogenannte Soap Opera Effect
    • Dass ständig Technik durchgedrückt wird, die Verbraucher gar nicht wollen, läuft ungefähr so: Druck, den Aktienkurs zu halten -> Managementdruck, den Marktanteil zu erhöhen -> PMs bekommen die Vorgabe, neue Funktionen hinzuzufügen -> Entwickler wollen neue Technologien ausprobieren -> und am Ende entstehen AI-Chatbots, AI-Zusammenfassungen, Touchscreens im Auto, AI-Upscaling und ähnliches, die wir eigentlich gar nicht wollen
    • Die meisten Menschen nehmen diesen Unterschied nicht wirklich wahr. Ich habe zwar keinen Fernseher zu Hause, aber wenn ich bei Freunden bin, bemerke ich den Soap Opera Effect sofort. Beide Male habe ich vorgeschlagen, die Funktion auszuschalten, und danach stimmten die Freunde zu und haben sie nicht wieder aktiviert. Aber eigentlich haben sie mir vermutlich nur vertraut; ob sie den Unterschied wirklich selbst erkannt haben, weiß ich nicht sicher. Falls du das bei dir ausschalten willst, such einfach nach „TV-Markenname soap opera effect“, dann findest du in der Regel Anleitungen zu den Einstellungen. Viele Hersteller verwenden dabei seltsame Bezeichnungen. Besonders bei 2:06 verändert sich das Gesicht deutlich, während das Original an dieser Stelle sehr verschwommen ist. Die AI-Version versteht den Kameraeffekt überhaupt nicht. Der Vergleich zwischen AI-hochskalierter Version und Original macht das sehr deutlich. Praktisch, dass beide Links gepostet wurden, denn so lässt sich das leicht vergleichen
  • Viele Kommentare sprechen über YouTube, aber laut Artikel stammt der Großteil der AI-Bearbeitung daher, dass Wills Team AI verwendet hat, um Standbilder in Video umzuwandeln. In der Praxis sorgt YouTube nur dafür, dass das Endergebnis etwas weniger verschwommen aussieht, während die wirklich seltsamen AI-Artefakte größtenteils schon bei der Videoproduktion entstehen. Das gilt nur für Shorts. Siehe Vergleichsvideo
    • In diesem Video ist der Unterschied kaum zu erkennen
  • Ich frage mich, wie es gewesen wäre, wenn Coldplay diesen Sommer so eine Technik eingesetzt hätte. Im Ernst: Der Trend, AI in alles hineinzudrücken, ist ziemlich besorgniserregend. Früher hat es wirklich Spaß gemacht, über Spotify Discover Weekly neue Musik zu entdecken, aber inzwischen gibt es so viele AI-generierte Songs, dass mich das völlig aus dem Erlebnis reißt
    • Ich bekomme Lust, Spotify aufzugeben, CDs im örtlichen Plattenladen zu kaufen und meine Musiksammlung mit einem USB-CD-Laufwerk wieder selbst aufzubauen. Wenn man ständig nur den neuesten Songs hinterherläuft und danach strebt, dass „einfach alles verfügbar ist“, geht das emotionale Element verloren, dass echte Menschen Musik miteinander teilen
    • Das kann gut sein. Der Reiz von Musikempfehlungen besteht darin, zufällig echte Perlen zu entdecken, und wenn AI-generierte Stücke dazwischen auftauchen, geht diese Magie verloren. Spotify hat zwar nicht offiziell erklärt, absichtlich mehr AI-Musik zu empfehlen, aber im letzten Jahr ist AI-Musik auf Streaming-Plattformen insgesamt explodiert. Auch der Spotify-Algorithmus empfiehlt oft Musik, ohne zwischen menschlich und von AI erzeugt zu unterscheiden, besonders bei Genres, die AI leicht nachahmen kann, wie Ambient, lo-fi, EDM oder gefälliger Pop. Letztlich fühlen sich viele Menschen unwohl damit, dass AI in Bereiche eindringt, die eigentlich menschliche Kuratierung oder einen künstlerischen Zugang erfordern. Wenn du wissen willst, ob es bei bestimmten Diensten Möglichkeiten gibt, AI-Musik herauszufiltern oder nur Songs von Menschen empfohlen zu bekommen, kann ich das gern nachschauen
  • Das eigentliche Kernproblem hier ist die <i>Zustimmung</i>. Dass man beim Betreten einer Konzerthalle der Foto- und Videoaufnahme zustimmt, ist allgemein bekannt. Aber hat wirklich irgendjemand ausdrücklich zugestimmt, dass das Team des Künstlers mein Gesicht per AI in ein gefälschtes Video umwandelt? Ich frage mich ernsthaft, ob das je nach Land überhaupt legal ist
    • Vermutlich stand irgendwo in den AGB beim Ticketkauf oder auf Hinweisschildern am Eingang etwas wie „Mit Betreten stimmen Sie Aufnahmen zu“ und ähnliches. Moralisch fragwürdig, aber rechtlich wahrscheinlich ziemlich gut abgesichert
  • Wenn ich Marketer wäre, würde ich echte Bilder absichtlich so aussehen lassen, als wären sie von AI erzeugt, um kostenlos virale Aufmerksamkeit mitzunehmen. Kaum etwas bekommt mehr Aufmerksamkeit als Fehler oder Debatten über Fälschungen und Compositing. Wenn es in Wirklichkeit nicht gefälscht ist, entsteht dem Künstler oder seinem Team praktisch kein Schaden. Ich habe einmal mit einem Social-Media-Manager einer großen Marke gesprochen, und der sagte, dass absichtlich Beiträge mit Rechtschreibfehlern veröffentlicht werden, um mehr Kommentare und Reaktionen zu provozieren
    • Das nennt man Ragebait. In der Marketingbranche ist das längst eine gängige Taktik
    • Dass auf dem Poster zum neuen Naked-Gun-Film absichtlich zu viele Finger gezeichnet wurden, ist auch so ein Beispiel
  • Vielleicht sind meine Hardware/Software oder meine Augen kaputt, aber selbst wenn ich YouTube und Instagram nebeneinander vergleiche, sehe ich keinen großen Unterschied. Falls es nicht an meinen Augen liegt, frage ich mich, was ich überprüfen sollte und ob ich vielleicht meinen Monitor aufrüsten muss. Meine GPU ist nicht schlecht, ich benutze aber einen HDMI-zu-VGA-Adapter. Bei Fotos war es allerdings wirklich unerträglich auffällig. Ich vermute, dass es bei Videos ähnlich viele künstlich verzerrte Bilder gibt
    • Bei Videos zeigt sich der Unterschied subtiler. Er ist nicht in jedem Frame klar sichtbar, sondern eher daran, dass der Hintergrund plötzlich scharf und dann wieder unscharf wird, an seltsamen Texturen an Kopf und Hals oder daran, dass nur die Gesichtskonturen klar erscheinen, während die Haut unnatürlich glatt aussieht. Es hat etwas von Max Headroom
  • In meinem Umfeld gibt es wirklich niemanden, der solche Funktionen will. Ich frage mich ernsthaft, warum ständig so komplizierter und unnötiger Kram eingeführt wird
    • So wie manche Länder ihre Rüstung im Feld testen und dabei Know-how aufbauen, stelle ich mir manchmal vor, dass Google auf den Tag hinarbeitet, an dem es so etwas richtig ausnutzen kann, und dafür schon jetzt organisatorische Fähigkeiten aufbaut
    • Komplexität gibt es auch bei notwendigen Dingen, aber wenn kein Profit zu erwarten wäre, gäbe es keinen Grund, das voranzutreiben
  • YouTube-PM: „Machen wir es noch schwerer, AI-generierte Videos und echte Videos auseinanderzuhalten, damit es für die Nutzer natürlicher wirkt!“
    • Ich glaube nicht einmal, dass dahinter so viel kalkulierte Böswilligkeit steckt. Menschen, die von AI wirklich begeistert sind, wollen AI einfach in jedes Produkt einbauen, und wenn von oben jemand sagt „AI ist großartig, also baut sie ein“, wird sie einfach überall draufgegossen. In Meetings geht es dann nicht mehr darum, „Wie lösen wir Nutzerproblem X?“, sondern „Wo im Produkt könnten wir AI einsetzen?“
    • Falsche Anreize sind realistischer als Bosheit. Irgendjemands KPI ist an die Einführung von AI-Funktionen geknüpft, und deshalb ersetzt „AI enhancement“ bei YouTube irgendwann den alten Schärfen- und Denoise-Filter
    • Es gibt sogar tatsächlich einen Erklärleitfaden von YouTube zu AI-Transformationen
    • Dieser Ansatz könnte umgekehrt dazu führen, dass selbst echte Nachrichtenaufnahmen für AI-Fälschungen gehalten werden und dadurch an Glaubwürdigkeit verlieren. Die Leute würden eher misstrauischer und glauben weniger
    • Künftige Generationen werden ohnehin in einer Medienumgebung aufwachsen, die sich völlig von der früherer Generationen unterscheidet
  • Ich frage mich ernsthaft, aus wessen Kopf diese Funktion stammt, als weiterer Versuch, „AI nützlich zu machen“. Wenn ohnehin ein HD-Original vorliegt, sehe ich keinen Grund, Geld dafür auszugeben, zusätzlich noch Upscaling anzubieten. Selbst wenn es nur auf minderwertige Videos angewendet würde, wäre die Verzerrung der Wirklichkeit am Ende nur noch problematischer
    • Für Google ist Realitätsnähe nicht wichtig. Es geht um Werbung und Engagement
  • Wenn man T-Shirts mit dem Aufdruck „AI glitch“ verkauft, könnte man bei Fotos genau solche Effekte hervorrufen und so die Unterscheidung zwischen echt und falsch unmöglich machen
    • Mit der Zeit werden solche T-Shirts vermutlich zu einem kurzlebigen Accessoire wie Requisiten mit sechs Fingern als Anspielung auf generative AI oder Masken mit fünf Brillen zur Umgehung von Gesichtserkennung
    • Solche T-Shirts gibt es bereits, und oft werden von ChatGPT ausgespuckte Sprüche einfach ungeprüft direkt aufgedruckt