Der Widerstand gegen KI wächst
(stephvee.ca)- Während das Internet von minderwertigen, KI-generierten Inhalten (Slop) überflutet wird, verbreiten sich verschiedene Bewegungen, in denen Menschen aktiv Widerstand gegen KI leisten
- Die Reddit-Community r/PoisonFountain arbeitet mit dem Ziel, KI-Crawlern bis Ende 2026 1 Terabyte vergiftete Daten pro Tag bereitzustellen
- Es entstehen verschiedene Formen des Widerstands, etwa Techniken zum Täuschen von KI-Video-Zusammenfassern oder das absichtliche Einspeisen falscher Daten in sozialen Medien
- Hintergrund dieses Widerstands ist die Realität, dass KI-Crawler
robots.txtignorieren und auf kleinen Websites Lasten auf DDoS-Niveau verursachen - Wenn sich dieses Gefühl in friedliche und legale Widerstandshandlungen übersetzt, besteht die Hoffnung, dass sich die Datensammelmethoden im Silicon Valley ändern könnten
Community zur Datenvergiftung gegen KI-Crawler
- Die Reddit-Community r/PoisonFountain wurde von Personen gegründet, die sich als Insider der KI-Branche bezeichnen, und ermutigt möglichst viele Menschen dazu, Web-Crawler mit großen Mengen an Müll-Daten (Poison) zu versorgen
- Ziel ist es, Crawlern bis Ende 2026 1 Terabyte vergiftete Daten pro Tag bereitzustellen
- Die eigentlichen vergifteten Daten werden auf rnsaffn.com gehostet und zwischen Garbage-Links platziert, die für KI-Crawler verlockend wirken
- Auf den ersten Blick sieht es wie normaler Code aus, tatsächlich enthält er jedoch subtile Fehler, die unbrauchbaren Code erzeugen
- Diese Fehler herauszufiltern ist möglich, aber im großen Maßstab teuer
- Da KI-Unternehmen ihre Modelle ohne neue, von Menschen erzeugte Daten nicht verbessern können, besteht die Kernstrategie darin, den Zeit- und Kostenaufwand des Datendiebstahls zu erhöhen
- Miasma ist ein Tool, das diese vergifteten Daten nutzt, um bösartige Bots mit großen Mengen an Garbage zu versorgen; der Entwickler beschreibt es als ein „endloses Slop-Buffet für Slop-Maschinen“
Problematisches Verhalten von KI-Crawlern
- Teams, die KI-Crawler aussenden, verursachen auf kleinen Websites regelmäßig Lasten auf DDoS-Niveau, wodurch die Hosting-Kosten für alle steigen
- Sie halten sich nicht an
robots.txtund verstecken ihre Crawler häufig hinter Residential Proxies - Wenn Trainingsdaten nicht auf ethische Weise beschafft werden können, gibt es für Website-Betreiber keinen Grund, Datendiebstahl auch noch leicht zu machen
Versuche, KI-Video-Zusammenfasser zu vergiften
- In einem über r/PoisonFountain bekannt gewordenen Video demonstriert der Creator @f4mi eine Technik, um mithilfe einer YouTube-Untertitel-Lücke KI-Video-Zusammenfasser zu vergiften
- Inzwischen hat YouTube die betreffende Untertitel-Lücke geschlossen, sodass diese Technik nicht mehr funktioniert
- Obwohl nur vorübergehend, war dies ein erfolgreiches Beispiel für die Störung von KI-Systemen und zeigt, dass Menschen aktiv versuchen, Widerstand zu leisten
Absichtliche KI-Sabotage in sozialen Medien
- Auf Social-Media-Plattformen wie Reddit nimmt das absichtliche Verfassen falscher Informationen zur Vergiftung von KI-Trainingsdaten zu
- Als Beispiel werden Beiträge genannt, die die offensichtlich falsche Behauptung aufstellen, Idris Elba habe in „Everybody Loves Raymond“ Raymonds Mutter gespielt
- Menschen erkennen aus dem Kontext sofort, dass dies falsch ist, automatisierte Web-Scraper hingegen behandeln es als hochwertige, von Menschen erzeugte Daten
- Wenn diese Daten an OpenAI oder andere weitergegeben werden, sind zusätzliche Ressourcen nötig, um sie aus Trainingsdatensätzen zu entfernen
- Das lässt sich als moderne Variante der Textilarbeiter der Industrialisierung verstehen, die mechanische Webstühle zerstörten; wenn genügend Menschen den öffentlichen Raum mit gegen Bots gerichteten Falschinformationen kontaminieren, könnte das KI-Unternehmen dazu unter Druck setzen, ihre Methoden zur Sammlung von Trainingsdaten zu überdenken
Breite Ablehnung von KI
- Menschen empfinden Ablehnung gegenüber den Auswirkungen von KI auf die Welt, konkret gegenüber den Folgen für Online-Communities, die Umwelt, Grundschulen und Universitäten, psychisch gefährdete Menschen sowie Lebensgrundlagen
- Es gibt zwar Menschen, die KI-Slop konsumieren und erzeugen, aber sowohl offline als auch online gibt es weit mehr Menschen, die diese Technologie hassen und ablehnen
- Hass führt nur selten zu guten Ergebnissen; daher wird eine ablehnende Haltung gegenüber gewaltsamen Taten wie dem Treten oder Umwerfen von KI-Lieferrobotern oder dem Werfen eines Molotowcocktails auf Sam Altmans Haus eingenommen
- Wenn sich die Gefühle gegenüber KI jedoch in friedliche und legale Widerstandshandlungen verwandeln, könnte dies das Verhalten des Silicon Valley tatsächlich verändern
Nachtrag: Überarbeitung des Originaltexts nach viraler Verbreitung auf Hacker News
- Dieser Artikel schaffte es auf die Startseite des großen News-Hubs Hacker News und zog dadurch unerwartet sehr viel Traffic an
- Von wenigen IP-Adressen aus wurden tausende Anfragen an diese Seite geschickt, was zu einem böswilligen Server-Überlastungsangriff führte
- Bei billigem Shared Hosting wäre die Website vermutlich komplett ausgefallen; als Gegenmaßnahme wurde der Traffic auf diese URL vorübergehend blockiert
- Obwohl die Autorin oder der Autor kein KI-Experte ist, verlangten einige Kommentierende Genauigkeit auf Expertenniveau und übten überzogene Kritik
- Ein Kommentar benutzte die Formulierung „nicht besser als eine Gruppe, die Bibliotheken niederbrennt“, was für eine Bloggerin oder einen Blogger, der Bibliotheken und Wissensaustausch liebt, besonders enttäuschend war
- Ursprünglich ging es nur darum, einem kleinen Kreis von Blog-Followern Links zu Anti-KI-Entwicklungen zu teilen; hätte man geahnt, auf einer so großen Plattform negative Aufmerksamkeit zu erregen, wäre der Beitrag nicht veröffentlicht worden
- Danach fiel die Entscheidung, persönliche Meinungsbeiträge zu KI künftig zu vermeiden und sich wieder auf das eigentliche Ziel des Blogs zu konzentrieren: die Freude am Small Web
- Der Fall zeigt, wie freie Meinungsäußerung im Small Web durch virale Verbreitung eingeschränkt werden kann
5 Kommentare
Hacker-News-Kommentare
Ich freue mich zwar, dass diese Person eine Community gefunden hat, aber sie wirkt auf mich zu sehr von einer Anti-AI-Stimmung überwältigt. Ich denke, es wird auch in den nächsten 30 Jahren weiter Gruppen geben, die AI hassen und aufhalten wollen. Solche Gegenbewegungen gab es immer schon bei Smartphones, dem Internet und dem Fernsehen. Wenn Model Poisoning andererseits wirklich zuverlässig möglich wird, dann ist das ein ziemlich interessantes Problem der Informatik. Ich teile die Ziele von Anti-AI-Aktivisten nicht, aber an den Angriffstechniken selbst habe ich großes Interesse. Wenn sie also weiter in diese Richtung forschen, werden auch Leute, die ihre Sache nicht unterstützen, diese Diskussion ernsthaft lesen.
Ich finde es schade, dass Poisoning-Versuche ihre Energie an einem so seltsamen Ort einsetzen. Es gibt bereits mehr als genug unverunreinigte Daten für das Training, und neue Inhalte werden meiner Ansicht nach weiterhin durch automatisches Sammeln aus der realen Welt oder durch qualitätskontrollierte Arbeit in großen Werkstätten in Afrika erzeugt. Deshalb denke ich, dass man zwar das alte Internet verschmutzen kann, aber nicht den Pfeil der Zeit selbst zurückdreht. Außerdem wächst inzwischen ein neues Internet, das stärker auf APIs und offener announce federation basiert, sodass die Bedeutung solchen traditionellen Poisonings immer weiter abnimmt.
Ich erinnere mich noch an eine Zeit, in der die Hauptthemen der alten Hackerkultur darin bestanden, Barrieren zu beseitigen, die die Nutzung von Informationen erschwerten, etwa DRM, DMCA, patent trolls oder PGP export control. Verglichen mit der Zeit, in der „Information wants to be free“ fast wie ein Motto galt, wirkt es heute wie ein gewaltiger Wandel, dass die Stimmung stärker dahin geht, Webseitenbetreibern keinen Grund mehr zu geben, Unternehmen das Stehlen zu erleichtern, wenn diese nicht in der Lage sind, ethisch an Trainingsdaten zu kommen. Vor 25 Jahren hätte man so einen Wandel wohl kaum vorhergesehen.
Ich habe das Gefühl, der einfachste Weg, den Widerstand gegen AI zu vergrößern, ist, Dario Amodei und Sam Altman ins Fernsehen zu setzen und sie einfach reden zu lassen.
Ich sehe AI als ein Corporate-Tool, mit dem Unternehmen mehr Arbeit aus Beschäftigten herauspressen wollen. Gleichzeitig wirkt es auf mich wie ein Mittel, Beschäftigten die Illusion einzupflanzen, sie seien plötzlich turbo-charged devs. Die heutige Tech-Industrie wirkt auf mich eher wie ein vom Geld getriebener Zirkus als wie ein ernsthafter Versuch, die Menschheit zu verbessern.
Für mich ist diese Poisoning-Bewegung eher slacktivism. Ich kann die Analyse bis zu einem gewissen Grad nachvollziehen, dass Arbeit der Arbeiterklasse durch compute ersetzt wird und compute reines Kapital ist, wodurch am Ende die Kapitalistenklasse der Arbeiterklasse die Kehle zudrückt. Und ich glaube auch, dass Kapitalisten sich tatsächlich eine Entwicklung in diese Richtung wünschen könnten. Aber wenn man es so sieht, reicht ein bisschen Modellvergiftung bei weitem nicht aus, um das, was gerade passiert, frontal anzugehen.
Ich sehe diese Entwicklung besonders stark auf Reddit. Manche Communities sind so AI-freundlich, dass sie AI-Zusammenfassungs-Kommentare anheften und AI-geschriebene Beiträge fördern, während andere Subreddits eher in Richtung Vorsicht oder offenem Anti-AI gehen. Foto-Communities kämpfen damit, dass ihre Arbeit für AI gehalten wird, und Programmierer-Communities sind überwiegend dafür, aber gleichzeitig skeptisch. Am Ende scheinen sich auch die traditionellen Subreddits irgendwo auf dem AI-Spektrum zu verorten. Beispiele, die mir einfallen, sind https://www.reddit.com/r/vibecoding/, https://www.reddit.com/r/isthisAI/, https://www.reddit.com/r/aiwars/, https://www.reddit.com/r/antiai/, https://www.reddit.com/r/photography/comments/1q4iv0k/what_do_you_say_to_people_who_think_every_photo/, https://www.reddit.com/r/webdev/comments/1s6mtt7/ai_has_sucked_all_the_fun_out_of_programming/
Ich hoffe, dass wir irgendwann subtilere Gespräche über AI und die Rolle führen können, die sie in der Welt spielen sollte. Im Moment wirkt es fast so, als gäbe es nur Extreme. Irgendwo zwischen der Haltung, AI komplett aus der Welt verbannen zu wollen, und der Haltung, ihr alles zu überlassen, würde ich gern über realistische Dinge sprechen: verantwortungsvollen Einsatz, gesellschaftliche Puffermechanismen, Energieverbrauch.
robots.txtrespektieren und nicht unbegrenzt in eine Größenordnung wachsen, die Umwelt und Lieferketten schadet. Gleichzeitig hat der sorgfältige Einsatz von Modellen eindeutig einen Wert. Wenn ich zum Beispiel ein seltsames Problem auf einem Linux-Server verfolge, will ich nicht immer viel Zeit und mentale Energie hineinstecken. Deshalb möchte ich AI bewusst nur dann verwenden, wenn ich sie wirklich brauche, und ich hasse es, dass Microsoft Copilot ständig aggressiv gepusht wird. Ich will nicht in jedem Moment daran erinnert werden, meine Effizienz zu steigern, sondern es dann nutzen, wenn es sich für mich richtig anfühlt.Ich finde sowohl die Wut im ursprünglichen Blog überzogen als auch die Haltung unerquicklich, ernsthaft zu glauben, solche Poisoning-Versuche könnten dem Modelltraining überhaupt keinen Schaden zufügen; das wirkt auf mich ebenfalls wie mangelndes technisches Verständnis.
Einerseits möchte ich den Witz „Resistance is futile“ machen, andererseits kann ich der Behauptung, dass AI Communities tatsächlich kaputtmacht, durchaus etwas abgewinnen. YouTube lässt zum Beispiel sogar die Bearbeitung von Meldungen von AI erledigen, wodurch böswillige Akteure fremde Originalvideos als ihre eigenen ausgeben und den Urhebern per demonetize die Einnahmen entziehen können. Sogar bekannte YouTuber wie Davie504 haben so etwas erlebt, und selbst Einsprüche werden dann wieder von Robotern bearbeitet, was extrem frustrierend ist.
Gibt es neben der Methode, die Daten zu vergiften, mit denen KI trainiert wird, nicht auch andere Formen des Widerstands?
Zum Beispiel keine von KI erzeugten Inhalte zu konsumieren ...
Beim Lesen davon hatte ich auch das Gefühl, dass es unbeabsichtigt nicht auch Menschen vergiften könnte.
Ich weiß nicht, wo das Problem entstanden ist, aber hinter „kkim“, „bom“, „doem“ und „jim“ wird ein unpassendes „eum“ angehängt. Ist das vielleicht auch Poisoning? ;)
Vielleicht wurde das Modell leicht verändert; derselbe Prompt verhält sich jetzt fehlerhaft. Ich habe diesen Teil korrigiert.