2 Punkte von GN⁺ 17 일 전 | 1 Kommentare | Auf WhatsApp teilen
  • Die seit der Ludditenbewegung der Industrialisierung bestehende Gewalt gegen Technologie lebt heute in Angriffen auf KI und Rechenzentren wieder auf
  • Reale Gewaltfälle häufen sich, darunter ein Molotowcocktail-Angriff auf das Wohnhaus von OpenAI-CEO Sam Altman, Schüsse auf ein Rechenzentrumsthema und Morddrohungen eines Anti-KI-Aktivisten
  • Je weniger Technologie physisch zerstörbar ist, desto stärker richtet sich die Wut tendenziell gegen die Menschen, die sie geschaffen haben
  • Die KI-Industrie schürt Verzweiflung und Wut in der Öffentlichkeit, indem sie wiederholt von Jobverdrängung und einer ungewissen Zukunft spricht
  • Wenn sich dieser Teufelskreis fortsetzt, droht die Gewalt im KI-Zeitalter in einen Zerfall innerhalb der menschlichen Gesellschaft umzuschlagen

Die Verletzlichkeit von Technologie und die Gewalt des Menschen

  • Der Webstuhl (loom) ist eine fragile Konstruktion, die je nach Feuchtigkeit oder Spannung leicht zerbrechen kann; er ist ein Symbol der Industrialisierung und ein fein gearbeitetes Werkzeug aus menschlicher Hand
    • Eine Struktur, in der mit Holz und Fäden verbundene Teile schon durch kleine Risse oder Lockerungen insgesamt zusammenbrechen können
    • Er bildete die Grundlage der Textilindustrie und wird als Ausgangspunkt einer technologischen Entwicklung genannt, die später über Fabriken und Energieanlagen bis zu Rechenzentren führte
  • Das Rechenzentrum (datacenter) ist eine riesige Struktur aus Beton, Stahl und Kupfer und wird als moderner „Webstuhl“ beschrieben, ausgestattet mit Redundanz und Sicherheitssystemen
    • Geschützt durch biometrische Schlösser, elektrische Zäune und bewaffnete Wachleute; so konzipiert, dass nicht das gesamte System durch einen einzelnen Ausfall stoppt
    • Die darin befindlichen Algorithmen existieren nicht als physische Geräte, sondern als weltweit verteilte digitale Muster
  • Es wird betont, dass es über physische Zerstörung hinaus unmöglich ist, Algorithmen und Superintelligenz (superintelligence) selbst aufzuhalten
    • Superintelligenz wird mit der Formulierung beschrieben, sie „komme aus der Box heraus“, also als etwas, das der menschlichen Kontrolle entgleitet
    • Manche fordern sogar die Bombardierung von Rechenzentren, und tatsächlich hat das iranische Korps der Revolutionsgarden mit der Zerstörung des Stargate-Campus von OpenAI gedroht
  • Auch wenn Technologie sich weiterentwickelt, bleibt die körperliche Verwundbarkeit des Menschen unverändert; daraus folgt die Warnung, dass am Ende nicht die Technik, sondern Menschen zum Ziel von Angriffen werden

Historische Wiederholung: von den Ludditen bis ins KI-Zeitalter

  • Vorgestellt wird der Fall von 1812 in Großbritannien, bei dem der Betreiber einer Spinnerei, William Horsfall, von dem Ludditen George Mellor erschossen wurde
    • Horsfall prahlte damit, Arbeiter zu unterdrücken; Mellor wurde später gehängt
    • Der Fall dient als historisches Beispiel dafür, dass Gewalt ausbricht, wenn technologischer Fortschritt das menschliche Überleben bedroht
  • Dem wird der Vorfall von 2026 in San Francisco gegenübergestellt, bei dem das Wohnhaus von OpenAI-CEO Sam Altman mit einem Molotowcocktail angegriffen wurde
    • Der Angreifer war der 20-jährige Daniel Alejandro Moreno-Gama und befindet sich derzeit in Haft
    • Altman und seine Familie blieben unverletzt, doch der Fall wird als Beginn direkter Gewalt gegen Technologieführer beschrieben
  • Auch der Fall des Stadtrats von Indianapolis, Ron Gibson, wird erwähnt: Sein Haus wurde zusammen mit der Botschaft „NO DATA CENTERS“ mit 13 Schüssen beschossen
    • Gibson hatte den Bau eines lokalen Rechenzentrums unterstützt; er und sein Sohn wurden nicht verletzt
  • 2025 wurde zudem ein Anti-KI-Aktivist festgenommen, der Morddrohungen gegen das OpenAI-Büro in San Francisco ausgesprochen hatte
  • Diese Vorfälle zeigen, dass sich die Wut auf KI und Rechenzentren in Gewalt gegen Menschen verlagert
    • Je unzugänglicher das technische Ziel ist, desto eher richtet sich die Wut auf menschliche Ziele

Die Verbindung zwischen Verzweiflung und Gewalt

  • Es wird darauf hingewiesen, dass KI-Unternehmensführer die Wut der Öffentlichkeit anstacheln, indem sie wiederholt sagen, dass KI Arbeitsplätze ersetzen werde
    • Die Menschen empfinden: „Ihr seid genau diejenigen, die diese ungewisse Zeit geschaffen haben“, und ihre emotionale Gegenreaktion wächst
    • Die Reibung, die zu Gewalt führt, ist zwar groß, doch wenn sich ein gemeinsames Gefühl der Verzweiflung ausbreitet, könnte diese Reibung verschwinden
  • Wenn Menschen das Gefühl haben, von der Zukunft ausgeschlossen zu sein – wenn ihre Lebensgrundlage verschwindet und sie sich von Technologie ersetzt fühlen –, kann Gewalt zur Realität werden
    • Das kann in eine extreme Wahl zwischen „leben oder töten“ münden
  • Als größter Fehler der KI-Industrie wird genannt, umfassende Jobverdrängung ohne einen sicheren Übergang angekündigt zu haben
    • Aussagen wie „Wir bauen Technologie, die White-Collar-Arbeit umfassend durcheinanderbringen wird“ werden wiederholt und verstärken gesellschaftliche Ängste
    • Kritisiert wird, dass solche selbstbewussten Aussagen eher einen unmenschlichen, psychopathischen Eindruck erzeugen

Der Hass auf KI und die Logik des Sündenbocks

  • Menschen machen KI zum Sündenbock für alle gesellschaftlichen Probleme und bringen dabei echte Probleme und falsche Behauptungen gemeinsam in ihre Wut ein
    • So werden etwa reale Probleme wie Datendiebstahl zusammen mit falschen Behauptungen wie Wasserverknappung genannt
    • Auch Unternehmen schieben die Verantwortung für Entlassungen auf KI und entziehen sich so gesellschaftlicher Kritik
  • Indem die KI-Industrie selbst das Bild einer gefährlichen und mächtigen Technologie betont, provoziert sie Misstrauen und Angst in der Öffentlichkeit
    • Daraus entsteht ganz natürlich die Gegenreaktion: „Wenn KI so gefährlich ist, warum sollen wir dann den Schaden tragen?“
  • Gewalt gegen Altman ist in keiner Weise zu rechtfertigen, doch die Möglichkeit weiterer Gewalt besteht
    • Die jüngsten Vorfälle werden als frühe Warnzeichen gedeutet

Der Teufelskreis muss gestoppt werden

  • Nebenwirkungen von KI wie psychische Erkrankungen, Sucht, Arbeitslosigkeit und sinkende Literalität werden bereits gemeldet
    • Diese gesellschaftliche Unsicherheit muss gestoppt werden, bevor sie in Gewalt umschlägt
    • Der Text endet mit der Schlussfolgerung, dass technologischer Fortschritt nicht in eine Richtung gehen darf, die menschliche Würde und Sicherheit bedroht

1 Kommentare

 
GN⁺ 17 일 전
Hacker-News-Kommentare
  • Solange Menschen AI pauschal als „Ungleichheit“ oder „Beschleuniger von Ungleichheit“ bezeichnen, fühlt es sich am Ende so an, als sei alles die Schuld von AI.
    Tatsächlich muss man diese beiden Dinge getrennt betrachten. Eines ist aber klar: Wenn man den Menschen freudig ihre Lebensgrundlage nimmt, kommt das als Gewalt zurück.

    • Ich halte diese akademische Unterscheidung für wichtig. Aber wenn Menschen mit Milliardenvermögen nichts unternehmen, um den von ihnen angerichteten Schaden abzumildern, hat diese Unterscheidung in der Realität keinerlei Bedeutung.
      Bevor man sagt: „Das ist Aufgabe des Staates“, sollte man sich fragen, woher das Lobbygeld kommt. Kaum ein CEO oder Unternehmen kämpft für soziale Sicherheitsnetze.
    • Diese Unterscheidung mag in der Wissenschaft oder auf Hacker News sinnvoll sein, für die breite Öffentlichkeit ist sie bedeutungslos.
      Für viele Menschen ist AI schlicht ein Machtinstrument der Reichen, und sie haben das Gefühl, dass diese die Welt dadurch schlechter machen. In so einer Lage interessieren akademische Unterscheidungen niemanden.
    • Aber wenn gerade die Menschen, die diese AI besitzen und entwickeln, von dem Motiv angetrieben werden, Ungleichheit zu vergrößern, wie soll man das dann trennen?
    • Wie in Risky Business: Offenbar haben wir die Lektion „Wenn die Wirtschaft schlecht läuft, nimm niemals jemand anderem die Lebensgrundlage“ noch nicht gelernt.
    • Im Moment denke ich, dass AI Ungleichheit beschleunigen wird, aber irgendwann könnte man leistungsstarke Modelle auch auf persönlichen Geräten ausführen, und dann könnte sich die Machtkonzentration abschwächen.
      Dann würde die Macht von AI demokratisiert, und alle hätten in gleichem Maß Zugriff auf Produktionsmittel.
  • Meiner Erfahrung nach wirkt der Autor, als sitze er in einer moralisch neutralen Zone. Eine Haltung nach dem Muster „Gewalt ist schlecht, aber unvermeidlich“ ist eine Position ohne jede Lösung.
    Das eigentliche Problem ist nicht die Technologie, sondern die Art, wie Mächtige sie zu ihrem eigenen Vorteil einsetzen.
    Wenn Menschen ihrer Existenzmittel beraubt werden, wird Gewalt unvermeidlich. Historisch war Gewalt oft ein Mittel, Kompromisse zu erzwingen. AI bereitet diese Phase bereits durch Überwachung und Bewaffnung vor.

    • Ich mag Tristan Harris’ Sichtweise. Das System ist so gestaltet, dass es unmoralische Technologen auswählt, weshalb es letztlich zwangsläufig in Richtung Ersatz menschlicher Arbeit geht.
      Cory Doctorows Text argumentiert ähnlich. Die einzige Lösung ist politisches Handeln; Technologie ist ohne Governance gefährlich.
    • Es gibt einen Grund, warum in den vier Boxen der Freiheit die letzte die Patronenbox (ammo box) ist. Wenn alle friedlichen Mittel ausgeschöpft sind, wird Gewalt zum letzten legitimen Mittel.
    • Viele verstehen unter „Gewalt“ nur körperliche Angriffe, dabei kann Gewalt auch in Form von Zusammenbruch sozialer Strukturen oder Unterdrückung auftreten.
    • Es gibt noch ein gewaltfreies Mittel — nämlich Bank Runs und Generalstreik. Wenn sich die professionelle Klasse solidarisiert und dem Kapital die Grundlage entzieht, kann sie wieder Verhandlungsmacht gewinnen.
  • AI ignoriert die Regeln menschlicher Gesellschaft fast wie ein außerirdischer Invasor. Sie ist kopierbar, überall präsent und nicht an physische Beschränkungen gebunden.
    Die menschliche Gier hat diese „Invasion“ zugelassen, und letztlich hat die Menschheit die Herrschaft von AI selbst eingeladen.

    • Aber genau dieses Vermenschlichen einer mystischen Entität ist das Problem. Am Ende ist AI nur ein statistisches Modell; entscheidend ist, wie Menschen es einsetzen.
    • Historisch haben Krankheiten die Menschheit stärker zerstört. Innere Spaltung war nicht die einzige Ursache.
    • Schon technologische Überlegenheit allein kann Invasion ermöglichen. Der Wettlauf um AI ist wie so ein Wettrüsten. Der Sieger wird König der Welt, der Rest wird zu Vieh.
    • Gerade helfen unzählige Vertragsfachkräfte beim Training von AI. Sie verkaufen das Wissen ihrer Branche zu Schleuderpreisen und schaffen damit ihre eigenen Stellen ab.
    • Wie Evolution eine Form von Wettbewerb ist, ist auch die Entwicklung von AI ein natürlicher Prozess der Effizienzsteigerung. Das Problem ist der Mangel an Führung und die verantwortungslose Expansion. Unter solchen Bedingungen kann Gewalt unvermeidlich werden.
  • Ich würde empfehlen, sich mit der Geschichte der industriellen Revolution zu beschäftigen. Der Industrial Revolutions Podcast ist dafür eine gute Quelle.
    Das Tempo der heutigen Veränderungen ähnelt jener Zeit. Damals zerstörte bereits die Spinning Jenny über Nacht die Lebensgrundlage von Webern.

    • Diesmal ist der Vergleich aber schwierig, weil nun die menschliche Wissensarbeit selbst bedroht ist.
    • Auch Thomas Piketty sagt, dass die Nachkriegsepoche der Gleichheit eine Ausnahme war. Jetzt kehrt Ungleichheit wieder auf ihr ursprüngliches Niveau zurück.
    • Dass französische Handwerker ihre Arbeit verloren, war einer der Auslöser der Französischen Revolution.
    • Wenn man heute auf die Straßen blickt, wirkt es fast wie die Welt aus WALL·E.
  • Der magische Reiz von LLMs ist durch das überzogene Gerede der FAANG-CEOs ziemlich verblasst.

    • Größer als die Macht des Werkzeugs ist das Problem derjenige, dem das Werkzeug gehört. In den Händen der Mächtigen wird diese Technologie gefährlich.
      Wie bei Tony Stark und Jarvis ist das Ziel am Ende nicht der Mensch, sondern vollständige Automatisierung.
    • Wenn wir statt „AI“ von einem probabilistischen Datensystem gesprochen hätten, wäre eine realistischere Debatte möglich gewesen.
    • Diese Übertreibung ist das Ergebnis von investorentauglicher Überverpackung. Krypto und LLMs folgen demselben Muster.
    • Letztlich beschleunigt AI den Ersatz menschlicher Arbeit und untergräbt die Maßstäbe menschlichen Lebens. Solche Veränderungen können nur in Gewalt münden.
    • Andererseits hat genau dieser Hype auch enorme Mengen Kapital angezogen. Es wird also weitergehen, bis die Blase platzt.
  • Ich frage oft, ob sich überhaupt jemand auf eine „Welt vorbereitet, in der AI erfolgreich ist“.

    • Praktisch alle Großunternehmen bereiten sich auf dieses Szenario vor. Auch Regierungen bewegen sich, aber viel zu langsam.
      UBI-Experimente haben Inflation ausgelöst, und bevor sich der Markt angepasst hat, kann die Gesetzgebung nicht nachziehen.
    • Organisationen wie 80,000 Hours oder das Future of Humanity Institute forschen bereits daran.
      Auch die Gewerkschaften vieler Länder sprechen mit der Politik darüber, und es gibt Möglichkeiten, sich zu beteiligen.
    • Manche experimentieren mit Kampagnen wie „END THE MONEY SYSTEM 2030“ an einer Sharing-basierten Ökonomie.
    • Auf der anderen Seite bereiten sich die Mächtigen bereits mit Drohnen, Roboterhunden und Überwachungssystemen auf Unruhen vor.
      Auch die verschärfte Online-Identitätsprüfung gehört dazu.
    • Dazu gibt es auch ein Video — YouTube-Link
  • Wenn AI die menschliche Kreativität und Arbeit ersetzt, bleibt am Ende nur noch ein blutiger Zusammenstoß — so der Gedanke.

    • Aber Menschen lieben weiterhin menschliche Leistung. So wie man einen Läufer anfeuert, obwohl ein Auto schneller ist, feiern wir die menschliche Anstrengung selbst.
      Sogar „nutzlose Jobs“ existieren, wie ich finde, auch wegen des menschlichen Austauschs.
    • Auch ohne wirtschaftlichen Wert malen Menschen weiter und machen Musik. Kreativität verschwindet nicht.
      Nur die Bedeutung von „Arbeit“ wird sich verändern.
    • AI hebt die Untergrenze der Qualität, verschiebt aber nicht die Obergrenze. Menschliche Intuition und Neuheit bleiben notwendig.
    • Das Problem ist nicht die Technologie selbst, sondern die Monopolisierung von Reichtum. Wenn Knappheit verschwindet, nimmt auch Gewalt ab.
    • Die heutige AI ist in Sachen Kreativität weiterhin ungenau und nicht kontrollierbar. Deshalb spricht man auch von „AI slop“.
      Die für das Überleben nötige Arbeit ist bereits weitgehend automatisiert; was bleibt, ist künftig die Suche nach menschlichem Sinn.
  • Auf die Aussage „Das ist der Weg ins Chaos“ weist jemand auf die Realität hin, dass AI im Krieg eingesetzt wird.
    Laut diesem Artikel sind bereits Tausende unter AI-gestützten Waffensystemen ums Leben gekommen.

    • Andere reagieren darauf zynisch mit: „Auch ohne AI sind noch mehr Menschen gestorben.“
  • Gewalt ist nicht die Antwort, aber ein Ventil für unterdrückte Wut. Mit dem bloßen Satz „Gewalt geht nicht“ lässt sich die Realität nicht aufhalten.

    • Tatsächlich ist Gewalt die Quelle von Macht. Der Staat hält Ordnung aufrecht, indem er Gewalt monopolisiert; wenn die Bevölkerung ihm misstraut, bricht dieses Monopol.
    • Es ist gefährlich, Gewalt als Schicksal hinzunehmen. Aber wenn sich Ohnmacht aufstaut, bricht Gewalt hervor.
    • Eine gesunde Demokratie ist ein Mechanismus, der genau diesen Gewaltdruck abbaut. Wenn die Demokratie in den USA weiter geschwächt wird, wird die Gewalt zunehmen.
    • Historisch war Gewalt das letzte Mittel zur Wiederherstellung des Machtgleichgewichts. Immer wieder hat sich gezeigt, dass Angst ein stärkerer Antrieb ist als Gewissen.
    • In manchen Fällen wird Gewalt selbst zum Ziel. AI ist dann nur noch der Vorwand.
  • Ich beschäftige mich in letzter Zeit mit der Ludditenbewegung. Sam Altman wirkt fast wie Edmund Cartwright.
    Auch er war der Erfinder des mechanischen Webstuhls, wurde sogar Ziel eines Mordversuchs und überlebte. Die Zeiten sind andere, aber es fühlt sich an wie eine Wiederholung der Geschichte.