Die AI-Branche entdeckt, dass die Öffentlichkeit sie hasst
(newrepublic.com)- Die Ablehnung rund um AI und Datenzentren ist so stark gewachsen, dass es sogar zu politisch motivierter Gewalt kommt. Dazu gehören ein Molotowcocktail-Angriff auf das Wohnhaus eines AI-Unternehmenschefs sowie ein Schusswaffenangriff auf das Haus eines Stadtrats, der ein Datenzentrum unterstützt.
- Auch die Kluft zwischen Expertenoptimismus und öffentlicher Wahrnehmung ist deutlich größer geworden. Der Anteil der Menschen, die die langfristigen Auswirkungen von AI auf Jobs und Wirtschaft positiv sehen, liegt in der breiten Bevölkerung viel niedriger.
- Extreme Zukunftsszenarien und Forderungen nach riesigen Investitionen treffen auf ohnehin prekäre Beschäftigung, steigende Lebenshaltungskosten und Sorgen über höhere Strompreise. Dadurch wirkt AI für viele Menschen wie etwas, das ihnen gegen ihren Willen aufgezwungen wird.
- Die Produktivitätsversprechen sind bislang nicht klar belegt. Viele Unternehmen spüren nach der Einführung von AI keine Produktivitätssteigerung, und auch zahlreiche Pilotprogramme erwirtschaften keinen Gewinn.
- Für die Wiederherstellung von Vertrauen sind überprüfbare Taten wichtiger als Whitepaper oder PR: Transparenz über die tatsächliche Leistung, die Akzeptanz von Regulierung und Verantwortung sowie lokale Mitbestimmung beim Ausbau von Datenzentren.
Wachsende Gegenreaktion und Anzeichen von Gewalt
- Das Haus von OpenAI-CEO Sam Altman wurde mit einem Molotowcocktail angegriffen; der Verdächtige hinterließ ein Manifest, das vor einer existenziellen Bedrohung durch AI warnte.
- Der Verdächtige wurde noch am selben Tag festgenommen; Details dazu stehen im Bericht des SF Standard.
- Das Manifest enthielt Formulierungen darüber, dass CEOs von AI-Unternehmen getötet werden müssten, und bezeichnete den Verfasser auf Instagram als „butlerian jihadist“.
- In Indianapolis wurden auf das Haus des lokalen demokratischen Stadtrats Ron Gibson 13 Schüsse abgegeben; vor der Haustür wurde eine Notiz mit der Aufschrift „No Data Centers“ hinterlassen.
- Im Haus befand sich zu diesem Zeitpunkt sein achtjähriger Sohn, der jedoch unverletzt blieb.
- Gibson hatte ein mögliches Datenzentrumsprojekt in seinem Bezirk unterstützt; Näheres fasst PBS NewsHour zusammen.
- Beide Vorfälle werden als politisch motivierte Gewalt beschrieben, und in sozialen Medien zeigten sich sogar Reaktionen, die daran Gefallen zu finden schienen.
- Ein Beispiel dafür ist in diesem X-Post verlinkt.
Wahrnehmungslücke zwischen Öffentlichkeit und Branche
- Der Artificial Intelligence Index 2026 von Stanford zeigt eine große Kluft zwischen Expertenoptimismus und öffentlicher Wahrnehmung.
- Bei den langfristigen Auswirkungen auf Arbeitsplätze waren 73 Prozent der Experten positiv eingestellt, bei den Auswirkungen auf die Wirtschaft 69 Prozent.
- In der allgemeinen Bevölkerung sahen nur 23 Prozent bzw. 21 Prozent diese Punkte positiv, und fast zwei Drittel der Amerikaner gehen davon aus, dass AI in den nächsten 20 Jahren Arbeitsplätze abbauen wird.
- Eine Gallup-Umfrage vom März 2026 zeigt, dass die AI-Skepsis in der Gen Z stärker geworden ist.
- Der Anteil derjenigen, die sich von AI begeistert fühlen, fiel von 36 Prozent auf 22 Prozent.
- Der Anteil derjenigen, die wegen AI Wut empfinden, stieg von 22 Prozent auf 31 Prozent.
- Diese Entwicklung geht mit einer Gegenreaktion einher, die AI nicht als gewöhnliche Technologie, sondern als politisches Eliteprojekt betrachtet.
- Jasmine Sun beschreibt dies hier als ein Weltbild, in dem abgehobene Milliardäre der unwilligen Öffentlichkeit etwas aufzwingen.
Botschaften der Branche und reale Kosten als Treiber der Ablehnung
- Führende CEOs der AI-Branche haben lange Zeit abwechselnd extreme Zukunftsbilder betont.
- Auf der einen Seite wird die Gefahr beschworen, AI könne die Menschheit etwa durch biologische Superwaffen auslöschen.
- Auf der anderen Seite wird behauptet, AI könne ganze Jobs ersetzen oder letztlich eine Wirtschaft schaffen, die Menschen in die Gig Economy drängt.
- Diese Botschaften kollidieren mit den bereits bestehenden prekären Lebensumständen vieler Menschen.
- Besonders der Arbeitsmarkt, auch für neue Absolventen, wird als extrem instabil beschrieben.
- Die wirtschaftlichen Gewinne konzentrieren sich bei den obersten 0,1 Prozent, während Preise für Lebensmittel, Wohnen und Benzin weiter steigen.
- Gleichzeitig verlangt die Branche unter diesen Bedingungen massive Investitionen und einen großflächigen Ausbau von Datenzentren.
- Der Stanford-Bericht beschreibt einen Trend, in dem die Branche fortlaufende Investitionen in Höhe von Hunderten Milliarden Dollar einfordert.
- Der Ausbau von Datenzentren wirkt sich bereits auf lokale Stromrechnungen aus; dazu hat Brookings veröffentlicht.
- In Virginia, dem Zentrum des US-Datenzentrumsbooms, könnten die Strompreise für Haushalte bis 2030 laut der Georgetown Environmental Law Review um bis zu 25 Prozent steigen.
Die Kluft zwischen Produktivitätsversprechen und realen Ergebnissen
- Solche Kosten wären nur tragbar, wenn AI konkreten öffentlichen Nutzen oder klare Verbesserungen bei der Arbeit zeigen würde, doch die Belege dafür sind bislang schwach.
- Laut einem NBER-Papier vom Februar 2026 berichten 80 Prozent der Unternehmen, die AI aktiv eingeführt haben, von keinem Einfluss auf die Produktivität des Unternehmens.
- Diese Zahl wird über eine Zusammenfassung von Tom's Hardware zitiert.
- Eine MIT-Studie aus dem Jahr 2025 kam zu dem Ergebnis, dass 95 Prozent der AI-Pilotprogramme in Unternehmen überhaupt keinen Gewinn erzielten.
- Das entsprechende Material steht im State of AI in Business 2025 Report.
- Selbst in Bereichen mit besonders hohen Erwartungen an AI, etwa Programmierung und technische Arbeit, gerät die Überprüfbarkeit von Produktivitätszahlen ins Wanken.
- Der Machine-Learning-Ingenieur Han-Chung Lee schreibt in diesem GitHub-Beitrag, dass intern positive Kennzahlen auch deshalb entstehen könnten, weil sie auf Einführungsziele zugeschnitten seien, und dass sich die Wirkung von außen nur schwer wirksam auditieren lasse.
- Zugleich sollte man berücksichtigen, dass ChatGPT erst im November 2022 als erste breite öffentliche Demonstration erschien; dass neue Technologien eine holprige Einführungsphase durchlaufen, ist an sich nicht ungewöhnlich.
Was für die Wiederherstellung von Vertrauen nötig ist — und wo die Grenzen liegen
- Die Kluft zwischen den tatsächlichen Technikerfahrungen der Öffentlichkeit und der Selbstdarstellung der Branche führt bereits zu sichtbaren Folgen.
- In den USA wurde laut TechRadar fast die Hälfte der für 2026 geplanten Datenzentren gestrichen oder verzögert.
- Es gibt sogar Umfrageergebnisse, nach denen die AI-Branche unbeliebter als ICE oder Donald Trump ist.
- Auch Big Tech erkennt offenbar die Probleme, die auf die breite Öffentlichkeit zukommen könnten, und beginnt, einige Abmilderungsmaßnahmen vorzulegen.
- OpenAI veröffentlichte im April ein Industrial Policy White Paper mit Vorschlägen wie einem Public Wealth Fund, einer Reform des sozialen Sicherungsnetzes und einer Echtzeitmessung der Arbeitsmarktauswirkungen von AI.
- Microsoft versprach im Januar im Rahmen der Community-First AI Infrastructure Initiative Unterstützung bei öffentlichen Versorgungsgebühren in Regionen mit neuen Datenzentren sowie einen geringeren Wasserverbrauch.
- Doch zwischen den Versprechen in Pressemitteilungen und der Umsetzung vor Ort bleibt erneut eine Lücke.
- Microsofts Community-First Initiative enthält keinen unabhängigen Mechanismus zur Nachverfolgung von Verantwortung.
- Das neue Whitepaper von OpenAI wirkt zwar wie eine Bewegung in Richtung progressiver Technologiepolitik, doch Greg Brockman spendete Millionen Dollar an ein SuperPAC, das AI-Regulierung auf Ebene der Bundesstaaten blockieren soll; darüber berichtet Fortune.
- OpenAI unterstützt außerdem in Illinois den Senate Bill 3444, der in dem Bericht als ein Gesetz beschrieben wird, das Unternehmen vor großflächigen Schäden durch AI-Modelle schützen soll.
- Im selben Artikel heißt es, Anthropic lehne den Gesetzentwurf ab.
- Im Zusammenhang mit Ronan Farrows New-Yorker-Artikel über Sam Altman wird auch ein wiederkehrendes Muster hervorgehoben: öffentlich unterstützende Positionen zu vertreten und dann schnell die Richtung zu wechseln, sobald dies dem Unternehmen nützt.
- Um Vertrauen wiederherzustellen, sind kontinuierliche und überprüfbare Handlungen wichtiger als ein weiteres Whitepaper.
- Es braucht echte Transparenz darüber, was Produkte tatsächlich leisten können.
- Sinnvolle Regulierung und Verantwortlichkeit müssen akzeptiert werden, auch wenn damit finanzielle Kosten verbunden sind.
- Der Ausbau von Datenzentren braucht echte demokratische Mitbestimmung der lokalen Gemeinschaften.
- Andernfalls könnten sowohl der wachsende AI-Populismus als auch das damit verbundene Gewaltpotenzial weiter zunehmen.
1 Kommentare
Hacker-News-Meinungen
Ich denke, KI-Kritik muss man mindestens in drei Bereiche aufteilen und getrennt diskutieren. Die Lösungen dafür sind unterschiedlich.
Erstens gibt es den Verlust von Arbeitsplätzen, und das ist vergleichsweise einfach. Man muss die Produktivität von KI mit der gesamten Gesellschaft teilen, besonders wenn man bedenkt, dass KI auf den Arbeitsergebnissen der Gesellschaft trainiert wurde. Der einfachste Weg wäre aus meiner Sicht, eine Steuer auf KI-Nutzung zu erheben und als UBI auszuschütten. Wenn das Einkommen auch nach dem Verlust des Jobs erhalten bliebe, wäre der Unmut deutlich geringer.
Zweitens sind da die Umweltkosten, und das ist schwieriger. Entscheidend sind Effizienzverbesserungen und der Ausbau sauberer Energie; Besteuerung und Effizienzregulierung könnten ein Ausgangspunkt sein. Nachhaltige Energietechnologien existieren bereits, sind aber teuer, und wenn KI weiterhin enorme Mengen Strom verbrauchen soll, darf es hier keine Kompromisse geben.
Der letzte Punkt ist der wirklich schwierige. Es gibt keine Antwort darauf, wie viel kreative Arbeit man an KI übertragen sollte und wie man mit von KI geschaffenen Werken umgehen soll.
Hinzu kommt das damit verbundene Problem, dass KI in großem Maßstab Betrug und Täuschung betreiben kann, indem sie sich als Mensch ausgibt. Die heutigen Abwehrmechanismen beruhen darauf, dass viele Betrugsformen Zeit und Mühe kosten, aber genau diese Annahme bricht nun weg.
KI-Rechenzentren sollten meiner Meinung nach vollständig mit eigener nachhaltiger Stromerzeugung betrieben werden. Es gibt keinen Grund, über Jahrzehnte Verbesserungen bei Strom- und Wassereffizienz zu erreichen, nur damit einige gierige Unternehmen das alles wieder aufsaugen.
Es klingt vielleicht wie ein Witz, aber ich möchte, dass KI für mich den Abwasch macht und die Wäsche zusammenlegt, während ich Bücher schreibe und Musik mache. Nicht umgekehrt.
Ich glaube nicht, dass sich so etwas allein über die Besteuerung von KI-Unternehmen finanzieren ließe, und wer von Grundeinkommen spricht, muss die Zahlen sehr viel ernster durchrechnen. Als realistische Lösung wirkt das nicht.
Falls tatsächlich 50 % der Arbeitskraft durch KI ersetzt würden, ginge ihr Einfluss weit über alles Vorstellbare hinaus.
Die Technik ist noch weit davon entfernt, aber als Beispiel für KI-artige Massenproduktion könnte man an die Automatisierung der Verfilmung von Romanen denken. Solche Veränderungen können Menschen stärken, die Qualität von Kunst senken oder steigern und die Gesellschaft spalten oder auch zusammenführen.
[1]: https://en.wikipedia.org/wiki/Art_Deco#Late_Art_Deco
KI-CEOs rufen seit Jahren: KI ist beängstigend, sie wird dir deinen Job wegnehmen.
„Mythos ist zu gefährlich, um veröffentlicht zu werden“
„Wir zahlen eine Belohnung, wenn du mit ChatGPT Methoden für Bioterrorismus herausbekommst“
„Agentenbasierte KI wird ganze Berufskategorien abschaffen“
Diese Botschaften wirken nicht wie Signale an die breite Öffentlichkeit, sondern an Regierungen und Großkunden, die viel Geld haben, Kosten senken wollen und Grenzen schützen oder ausweiten möchten.
Dass Menschen KI nicht mögen, ist überhaupt nicht überraschend. Sie wurde fast nie als Produkt für Menschen vermarktet.
Außerhalb der KI-Branche war diese Entwicklung völlig vorhersehbar. Branchenführer sprachen von der Abschaffung von Millionen Jobs, von massiven Umwälzungen in anderen Tätigkeiten und sogar von der Automatisierung tödlicher Gewalt, erklärten aber zugleich, dass sie die Entwicklung trotzdem fortsetzen würden.
Selbst die jüngste wirtschaftliche Unsicherheit und Massenentlassungen wurden von den verantwortlichen Führungskräften KI zugeschrieben, und große KI-Unternehmen haben ohne große Skrupel geistiges Eigentum zum Training verwendet und anschließend KI allen aufgedrängt.
Es ist nicht seltsam, dass die Öffentlichkeit KI ablehnt, und die Branche hat sich kaum Mühe gegeben, sympathisch zu wirken.
Letztlich wirken die CEOs dieser Firmen so, als wollten sie nur ihre Unternehmen ausbauen, egal wie hoch die gesellschaftlichen Kosten sind.
In einem Markt, in dem alle dasselbe Schlangenöl einsetzen, ist das kein Differenzierungsmerkmal, sondern eher ein Weg, teuer Durchschnitt zu bekommen.
Die Booster auf X, der Mittelmanager-Typus, die KI-Influencer auf LinkedIn und die Produzenten gefälschter Videos auf Facebook — all das scheint genau diese Sorte Leute anzuziehen.
Ich bin nicht sicher, ob das wirklich so ist. Am Freitag gab es bei uns in der Firma eine pro-KI-Präsentation, und dort hieß es, bei einer Umfrage unter Teilnehmern einer KI-Konferenz hätten 93 % positive Erwartungen an KI geäußert.
Das wurde mit einem Gesichtsausdruck vorgetragen, als sage man ernsthaft etwas wie: „Menschen mögen doch Welpen.“
Der Mangel an Selbstwahrnehmung wirkte enorm.
Kaum jemand möchte sich so einen Ruf einhandeln, und genau deshalb entsteht noch stärker diese Atmosphäre der Unvermeidlichkeit, dass die Technologie kommt, ob man will oder nicht.
Bei der derzeitigen Marktlage fragt man sich auch, wie viele Leute gegenüber ihrem Chef oder in der Öffentlichkeit entspannt sagen würden: „KI ist ziemlicher Unsinn.“
Wenn sogar interne Produktivitätszahlen so auf Einführungsziele zugeschnitten sind, dass sie sich extern kaum überprüfen lassen, dann unterscheidet sich das faktisch nicht sehr von dem, was viel MBA-artige BI ohnehin tut.
Meiner Erfahrung nach war BI oft wie ein Kartenhaus und eher eine Übung darin, eine hübsche Erzählung zu basteln, ähnlich wie beim Schreiben eines Lebenslaufs.
Am Ende scheint die Grundeinheit amerikanischer Unternehmen oft darin zu bestehen, wie gut man ein überzeugendes politisches Narrativ erzeugen kann.
In einer Zeit, in der Beschäftigung sich ohnehin unsicher anfühlt, zu sagen: „Wir werden deinen Job abschaffen und dich nutzlos machen“, und dann auf öffentliche Sympathie zu hoffen, ist absurd.
Noch mehr gilt das, wenn man keinen alternativen Weg zum Vermögensaufbau anbietet, wirtschaftliche Probleme wie Wohn- oder Gesundheitskosten nicht löst und stattdessen nur den sozialen Zusammenhalt und die Energiepreise weiter verschlechtert.
Wenn die Branche den öffentlichen Widerstand gegen die gesellschaftlichen Folgen von KI weiter fröhlich ignoriert, könnte es zu einem Gegenwind kommen, der noch stärker ist als die Anti-Atomkraft-Stimmung nach Tschernobyl.
Wenn man sich die in diesem Artikel behandelte Umfrage anschaut, fällt auf, dass es unter den Befragten insgesamt kaum überhaupt beliebte Dinge gibt. KI ist zwar unpopulär, aber sie ist auch Teil einer breiteren allgemeinen Stimmung des Hasses in alle Richtungen.
Politiker geben Geld für Krieg und Zerstörung aus, sind aber bei Sozialprogrammen geizig, und der Aufstieg des Internets macht es zugleich leichter und schwieriger, bestehende Narrative zu hinterfragen.
Inmitten dieses Chaos und dieser Unsicherheit ist es nicht verwunderlich, dass das Bedürfnis wächst, jemandem die Schuld zu geben.
Ich wünschte, solche Artikel würden zumindest die breite Einführung unter Programmierern stärker anerkennen. Das ist überhaupt nicht mit gelegentlich formulierten E-Mails vergleichbar; in der Softwareentwicklung hat es bereits erheblichen Einfluss.
Wenn man das als kleines Tool beschreibt, das bisher nur von einigen getestet wird, verfehlt man die Realität.
Besonders die Einführungsquote kann eine bedeutungslose Kennzahl sein. Sie wird oft erzwungen, obwohl das Tool in Wirklichkeit wenig hilft oder selbst dann, wenn es hilft, seine Nutzung Menschen miserabel fühlen lassen kann.
Außerdem häuft sich ein expertise debt an, bei dem niemand weiß, welche langfristigen Folgen er haben wird.
Gleichzeitig arbeitet die KI-Branche eifrig daran, genau ihre Jobs ganz abzuschaffen.
Für viele Menschen ist KI einfach Bildgenerierung und Textgenerierung. Und wenn man nur diese Anwendungsfälle betrachtet, ist es nachvollziehbar, sie Zeit, Geld und Energie nicht wert zu finden.
Aber es gibt Bereiche, die Menschen schlechter sehen, etwa die Medizin, wo KI tatsächlich hilfreich sein kann. Dazu gehören Wirkstoffforschung, Krebsforschung und Früherkennung sowie die Analyse von CT und MRT, und diese Anwendungen sind viel wichtiger, werden aber kaum besprochen.
Wenn man KI nur als ein einziges monolithisches Ding betrachtet, läuft man Gefahr, auch die guten Teile mit wegzuwerfen.
Zu sagen, medizinische Anwendungen seien wichtiger, geht auch etwas am Punkt vorbei. Natürlich ist es wichtiger, wenn Menschen geheilt werden, als wenn Leben ruiniert werden, aber dadurch verschwinden die anderen Schäden von KI nicht.
KI gegenüber negativ eingestellt zu sein bedeutet nicht, dass man auch die positiven Seiten abschaffen möchte.
KI wird von den Leuten der Branche offen als Werkzeug zum Ersetzen deines Jobs verkauft. Falls das so ist, dann vermarkten sie es entweder katastrophal, oder die Gewinne in anderen Branchen sind gering bzw. schaffen keinen Shareholder Value.
Wenn KI in solchen Bereichen wirklich bedeutende Fortschritte erzielt, kann man dann ernsthaft darüber sprechen. mRNA und GLP-1, zumindest soweit ich weiß zwei der stärksten Kandidaten für medizinische Durchbrüche des 21. Jahrhunderts, sind keine Fälle, in denen LLMs eine Schlüsselrolle gespielt hätten.
Solange solche Ergebnisse nicht tatsächlich eintreten, ist diese Behauptung eher Fanfiction. Und noch härter gesagt: Wenn Jobs verloren gehen, das Vertrauen in Informationen zerfällt und alles mit Slop überflutet wird, was bedeutet es dann überhaupt, einfach nur länger zu leben? Das ist keine Zukunftsfantasie, sondern bereits eingetretener Schaden.
Genau daraus entsteht auch das Narrativ von Umsätzen in Billionenhöhe.
Nach dem Eindruck aus Gesprächen mit Menschen außerhalb der Tech-Welt lehnt ein erheblicher Teil der Öffentlichkeit KI schlicht ab. Eigentlich wirkt das sogar wie die vernünftige Standardposition.
Persönlich finde ich ein Gemini-Ultra-Abo seinen Preis wert, und es macht mir Spaß und weckt intellektuelles Interesse, bei AntiGravity mit starken APIs zu arbeiten oder Produkte aus der Claude-Familie, die Gemini App und NotebookLM zu nutzen.
Aber wenn man mich fragt, ob sich damit auch gesellschaftliche Kosten wie Rechenzentrumsausgaben oder eine mögliche Rettung von KI-Großunternehmen durch die US-Regierung rechtfertigen lassen, würde ich Nein sagen.
Im Gegenteil scheint China uns zu überholen. Die Gewinnerstrategie wirkt eher, billigere KI zu bauen, und GLM-5.1 sowie Deepseek v4 sind für ihre deutlich niedrigeren Inferenzkosten erstaunlich effektiv.