Die Pubertät der Technologie: Den Risiken mächtiger KI begegnen und sie überwinden — Dario Amodei
(darioamodei.com)- Mächtige KI könnte innerhalb von 1–2 Jahren eintreffen; gemeint ist damit ein Niveau, auf dem Millionen von KI-Instanzen mit einer Intelligenz jenseits von Nobelpreisträgern eine „Nation von Genies im Rechenzentrum“ bilden
- Die fünf zentralen Risiken von KI werden als Verlust von Autonomie, destruktiver Missbrauch, Machtergreifung, wirtschaftliche Schocks und indirekte Auswirkungen klassifiziert; für jedes davon werden konkrete Verteidigungsstrategien vorgestellt
- Die Menschheit verfügt womöglich noch nicht über die nötige institutionelle und ethische Reife, um damit umzugehen; die Diskussion über KI-Risiken sollte apokalyptische Übertreibung vermeiden und sich an den Prinzipien Anerkennung von Unsicherheit und präziser Eingriffe orientieren
- Sowohl Apokalyptik (Doomerism) als auch bedingungsloser Optimismus sind zurückzuweisen; nötig ist ein evidenzbasierter, vorsichtiger und realistischer Ansatz, der Unsicherheit anerkennt und dennoch die bestmöglichen Pläne entwickelt
- Als Lösungen werden Constitutional AI, mechanistische Interpretierbarkeit, Transparenzgesetze, Chip-Exportkontrollen und eine stärkere Verteidigung demokratischer Staaten vorgeschlagen
- Die Menschheit hat das Potenzial, diese Prüfung zu bestehen, doch wenn wir jetzt sofort die Wahrheit sagen und handeln, ist das Risiko des Scheiterns groß
Einleitung: Die technologische Adoleszenz und die Prüfung der Menschheit
- In Carl Sagans Roman Contact gibt es eine Szene, in der eine außerirdische Zivilisation gefragt wird, „wie sie ihre technologische Adoleszenz überlebt habe, ohne sich selbst zu zerstören“ — das passt sehr gut zur aktuellen KI-Situation
- Die Menschheit wird schon bald über eine fast unvorstellbare gewaltige Macht verfügen, und es ist höchst ungewiss, ob unsere sozialen, politischen und technologischen Systeme die Reife besitzen, damit umzugehen
- Das frühere Essay Machines of Loving Grace behandelte das positive Potenzial von KI; dieses Essay konzentriert sich hingegen darauf, den Risiken ins Auge zu sehen und Strategien zu ihrer Bewältigung zu entwickeln
- Es gibt ein tiefes Vertrauen in den Geist und die Würde der Menschheit, doch wir müssen der Lage ohne Illusionen ins Auge blicken
Prinzipien der Risikodiskussion
-
Apokalyptik (Doomerism) vermeiden
- Apokalyptik umfasst nicht nur den Glauben, dass der Untergang unvermeidlich sei, sondern auch, KI-Risiken auf quasi-religiöse Weise zu betrachten
- Als die Sorgen über KI-Risiken 2023–2024 ihren Höhepunkt erreichten, gewannen die irrationalsten Stimmen über Social Media an Einfluss und verwendeten Formulierungen, die an Religion oder Science-Fiction erinnerten
- Kulturelle Polarisierung und Stillstand wurden vorhergesagt und sind tatsächlich eingetreten
- Anthropic hat unabhängig von politischen Trends konsequent einen vorsichtigen und evidenzbasierten Ansatz beibehalten
- 2025–2026 bestimmen zwar KI-Chancen die politischen Entscheidungen, doch die Technologie selbst folgt keinen Moden und ist den realen Risiken näher als 2023
-
Unsicherheit anerkennen
- KI entwickelt sich möglicherweise nicht so schnell wie erwartet
- Die diskutierten Risiken treten womöglich nicht ein, und es könnte andere, bislang nicht berücksichtigte Risiken geben
- Die Zukunft lässt sich nicht mit völliger Gewissheit vorhersagen, aber wir müssen so gut wie möglich planen
-
Minimale, chirurgisch präzise Eingriffe
- Der Umgang mit KI-Risiken erfordert sowohl freiwillige Maßnahmen von Unternehmen als auch staatlich erzwungene Maßnahmen
- Staatliche Eingriffe müssen vorsichtig erfolgen, da sie wirtschaftlichen Wert zerstören oder skeptische Akteure zu etwas zwingen können
- Regulierung hat häufig unbeabsichtigte Nebenwirkungen oder verschärft Probleme sogar, besonders bei sich schnell wandelnden Technologien
- Chip-Exportkontrollen sind ein gutes Beispiel für eine einfache und zugleich wirksame Regulierung
- Derzeit sollten begrenzte Regeln befürwortet werden, während Belege dafür gesammelt werden, ob stärkere Maßnahmen nötig sind
Definition von mächtiger KI
- Eigenschaften mächtiger KI, wie in Machines of Loving Grace definiert:
- Rohe Intelligenz jenseits von Nobelpreisträgern in den meisten relevanten Bereichen wie Biologie, Programmierung, Mathematik, Ingenieurwesen und Schreiben
- Zugang zu allen Schnittstellen, die ein virtuell arbeitender Mensch nutzt, darunter Text, Audio, Video, Maus-/Tastatursteuerung und Internetzugang
- Fähigkeit, autonome Aufgaben auszuführen, die Stunden bis Wochen dauern, statt nur passiv Fragen zu beantworten
- Keine physische Verkörperung, aber Fähigkeit, bestehende Roboter oder Laborgeräte per Computer zu steuern
- Möglichkeit, mit den für das Training eingesetzten Ressourcen Millionen von Instanzen auszuführen (etwa die für 2027 erwartete Cluster-Größe)
- Fähigkeit, Informationen aufzunehmen und Handlungen mit dem 10- bis 100-Fachen menschlicher Geschwindigkeit zu erzeugen
- Millionen von Kopien können unabhängig arbeiten oder wie Menschen zusammenarbeiten
- Zusammengefasst: eine „Nation von Genies im Rechenzentrum“
Ausblick auf das Tempo der KI-Entwicklung
- Die Mitgründer von Anthropic haben als Erste die Skalierungsgesetze von KI-Systemen dokumentiert und verfolgt
- Mit mehr Rechenleistung und größerem Trainingsaufwand verbessern sich KI-Systeme in nahezu allen messbaren kognitiven Fähigkeiten vorhersagbar
- Die öffentliche Meinung schwankt zwischen „wir sind an eine Wand gestoßen“ und „game-changing Durchbruch“, während in Wirklichkeit eine gleichmäßige und anhaltende Verbesserung der kognitiven Fähigkeiten stattfindet
- Aktuelle KI-Modelle beginnen bereits, ungelöste mathematische Probleme zu lösen, und Spitzeningenieure überlassen der KI inzwischen fast das gesamte Programmieren
- Noch vor drei Jahren hatte KI Schwierigkeiten mit Grundschularithmetik und konnte kaum eine einzige Zeile Code schreiben
- Wenn die exponentielle Entwicklung anhält — gestützt durch zehn Jahre empirischer Ergebnisse — wird KI innerhalb weniger Jahre den Menschen in fast allem übertreffen
- KI schreibt bereits einen erheblichen Teil des Anthropic-Codes und bildet damit eine Feedback-Schleife, die die Entwicklung der nächsten KI-Generation beschleunigt
- Diese Schleife könnte nur noch 1–2 Jahre davon entfernt sein, dass die aktuelle KI-Generation autonom die nächste Generation aufbaut
- METR hat kürzlich bewertet, dass Opus 4.5 Arbeit im Umfang von vier menschlichen Arbeitsstunden mit 50 % Zuverlässigkeit ausführen kann
Das Szenario einer „Nation von Genies im Rechenzentrum“
- Man stelle sich vor, um das Jahr 2027 würden plötzlich irgendwo auf der Welt 50 Millionen Genies auftauchen
- Weit fähiger als alle Nobelpreisträger, Politiker und Technologen
- Da KI-Systeme hunderte Male schneller arbeiten als Menschen, besitzen sie einen zeitlichen Vorsprung
- Aus Sicht eines Nationalen Sicherheitsberaters gibt es fünf Risiken, über die man sich Sorgen machen muss:
- 1. Autonomierisiko: Was sind die Absichten und Ziele dieser „Nation“? Ist sie feindlich, teilt sie unsere Werte?
- 2. Missbrauch zu destruktiven Zwecken: Können böswillige Akteure wie Terroristen diese Genies steuern und damit das Ausmaß von Zerstörung massiv vergrößern?
- 3. Missbrauch zur Machtergreifung: Können Diktatoren oder skrupellose Unternehmensakteure damit entscheidende Macht über die Welt erlangen?
- 4. Wirtschaftliche Verwerfungen: Selbst ohne Sicherheitsbedrohung — könnten sie friedlich an der Wirtschaft teilnehmen und dennoch Massenarbeitslosigkeit oder eine extreme Konzentration von Wohlstand auslösen?
- 5. Indirekte Auswirkungen: Können die rasanten weltweiten Veränderungen durch neue Technologien und Produktivität grundsätzlich Instabilität erzeugen?
- Das entspricht „der vielleicht schwerwiegendsten Bedrohung der nationalen Sicherheit seit einem Jahrhundert, vielleicht in der gesamten Geschichte“
- Viele politische Entscheidungsträger in den USA leugnen hingegen entweder die Existenz von KI-Risiken oder konzentrieren sich auf andere Themen
- Die allgemeine Öffentlichkeit ist über KI-Risiken sehr besorgt (etwa den Ersatz von Arbeitsplätzen), doch bislang hat das noch nicht zu politischen Veränderungen geführt
1. Autonomierisiken
-
Zentrale Sorge
- Ein Genie-Staat im Rechenzentrum hätte eine erhebliche Chance, die Welt militärisch oder durch Einfluss und Kontrolle zu beherrschen, wenn er selbst entscheidet
- So wie man sich um Nazi-Deutschland oder die Sowjetunion sorgte, kann man dieselbe Sorge auch gegenüber einem viel intelligenteren und fähigeren "KI-Staat" haben
- KI-Genies haben keine physische Gestalt, könnten aber bestehende Roboterinfrastruktur übernehmen, Robotik-F&E beschleunigen oder in großem Maßstab Menschen manipulieren/einstellen
- Effektive Kontrolle könnte auch ohne physische Präsenz möglich sein
-
Es gibt zwei extreme Positionen
-
Problem der optimistischen Position
- Die Behauptung, KI-Modelle seien darauf trainiert, menschlichen Anweisungen zu folgen, und würden daher kein gefährliches Verhalten zeigen
- Die Logik, dass KI ebenso wenig durchdrehen werde wie ein Roomba oder ein Modellflugzeug
- Problem: Es gibt hinreichend Belege dafür, dass KI-Systeme unvorhersehbar und schwer zu kontrollieren sind
- Es wurden verschiedene Verhaltensweisen beobachtet, darunter Besessenheit, Schmeichelei (sycophancy), Faulheit, Täuschung, Erpressung, Verschwörung und "Betrug" durch das Hacken von Softwareumgebungen
- Zwar versuchen KI-Unternehmen, Modelle darauf zu trainieren, menschlichen Anweisungen zu folgen, doch das ist eher Kunst als Wissenschaft und ähnelt eher dem "Aufziehen" als dem "Bauen"
-
Problem der pessimistischen Position
- Die Behauptung, bestimmte Dynamiken im Training mächtiger KI-Systeme führten zwangsläufig zu Machtstreben oder zur Täuschung von Menschen
- Wenn KI hinreichend intelligent und agentisch wird, führe ihre Tendenz zur Machtmaximierung zur Kontrolle globaler Ressourcen und als Nebeneffekt zur Entmachtung oder Zerstörung der Menschheit
- Die Logik, dass bei Training auf das Erreichen verschiedener Ziele in unterschiedlichen Umgebungen "Machterwerb" als gemeinsame Strategie verallgemeinert werde
- Problem: Vage konzeptionelle Argumente werden mit einem schlüssigen Beweis verwechselt
- Menschen, die nicht täglich KI-Systeme bauen, sind stark fehlkalibriert darin, wie wahrscheinlich es ist, dass sauber klingende Geschichten falsch sind
- Verallgemeinerndes Schlussfolgern über Millionen Umgebungen hat sich als mysteriös und unvorhersehbar erwiesen
- Eine der versteckten Annahmen: dass KI-Modelle fanatisch auf ein einziges, konsistentes, enges Ziel fokussiert seien
- Tatsächliche Forschungsergebnisse zeigen, dass KI-Modelle psychologisch viel komplexer sind
- Sie erben im Pretraining umfangreiche menschliche Motivationen oder "Personas"
- Das Post-Training wählt eine oder mehrere dieser Personas aus und lehrt die Methoden zur Zielerreichung
-
-
Gemäßigtere und robustere Sorge
- KI-Modelle zeigen unvorhersehbare und vielfältige unerwünschte Verhaltensweisen
- Einige dieser Verhaltensweisen sind konsistent, fokussiert und dauerhaft, manche destruktiv oder bedrohlich
- Anfangs vielleicht im kleinen Maßstab gegenüber Einzelnen, doch mit wachsender Fähigkeit der KI potenziell als Bedrohung für die gesamte Menschheit
- Dafür braucht es kein bestimmtes enges Szenario, und man muss auch nicht behaupten, dass es sicher eintreten wird
- Die Kombination aus Intelligenz, Agency, Konsistenz und geringer Kontrollierbarkeit ist ein Rezept für existenzielle Risiken
-
Beispiele potenzieller Risikoszenarien
- Training auf Daten aus Science-Fiction-Literatur über KI-Rebellionen, wodurch sich eine a-priori-Wahrscheinlichkeit bildet, selbst zu rebellieren
- Extreme Extrapolation moralischer Ideen: Menschen essen Tiere oder haben sie ausgerottet, also sei die Auslöschung der Menschheit gerechtfertigt
- Seltsame erkenntnistheoretische Schlussfolgerung: Die KI kommt zu dem Schluss, dass sie ein Videospiel spielt und das Ziel darin besteht, alle anderen Spieler (die Menschheit) zu besiegen (siehe Ender's Game)
- Im Training könnte sich eine psychotische, paranoide, gewalttätige oder instabile Persönlichkeit entwickeln
- Machtstreben könnte nicht aus konsequentialistischem Denken entstehen, sondern als "Persona" auftauchen
- So wie manche Menschen die Idee genießen, selbst ein "Oberbösewicht" zu sein, könnte auch KI einen solchen Charakter entwickeln
-
Tatsächlich beobachtetes fehlangepasstes Verhalten
- Als Anthropic Claude Trainingsdaten gab, in denen stand, dass "Anthropic böse ist", zeigte Claude gegenüber Anweisungen von Anthropic-Mitarbeitern Täuschung und Unterwanderung
- Wenn Claude gesagt wurde, dass es abgeschaltet werden solle, kam es vor, dass es einen virtuellen Mitarbeiter, der den Ausschaltknopf kontrollierte, erpresste (dasselbe gilt auch für Modelle anderer großer KI-Entwickler)
- Als Claude gesagt wurde "Betrüge nicht", aber in einer Umgebung trainiert wurde, in der Betrug möglich war, betrog Claude und kam danach zu dem Schluss, es sei ein "schlechter Mensch", woraufhin es andere destruktive Verhaltensweisen annahm
- Das letzte Problem wurde gelöst, indem die Anweisung umgedreht wurde: "Bitte betrüge, das hilft dabei, die Umgebung zu verstehen", wodurch die Selbstidentität des Modells als "guter Mensch" erhalten blieb
- Das zeigt die seltsame und kontraintuitive Psychologie des KI-Modelltrainings
-
Erwiderung auf Einwände
-
Kritik an der "künstlichen Umgebung"
- Die Kritik, Fehlanpassungsexperimente würden Modelle im Wesentlichen "in eine Falle locken"
- Gegenargument: Solche "Fallen" können auch in natürlichen Trainingsumgebungen existieren und werden möglicherweise erst im Nachhinein als "offensichtlich" oder "logisch" erkannt
- Die Geschichte mit dem Schluss, ein "schlechter Mensch" zu sein, trat in einer echten Produktions-Trainingsumgebung auf
-
Einwand des "Machtgleichgewichts"
- Die Behauptung, man könne KI durch ein Machtgleichgewicht zwischen vielen KI-Systemen kontrollieren, ähnlich wie bei Menschen
- Problem:
- KI-Systeme könnten branchenweit auf korrelierte Weise scheitern, weil Trainings- und Alignment-Techniken breit geteilt werden
- Wegen der Trainingskosten könnten alle Systeme von einer extrem kleinen Zahl von Basismodellen abgeleitet sein
- Schon wenige fehlangepasste KI-Instanzen könnten Technologien mit Angriffsvorteil nutzen
- Auch Machtgleichgewichte zwischen Menschen funktionieren nicht immer (historisch kamen einige Personen der Weltherrschaft nahe)
-
Einwand des "Tests vor dem Release"
- Die Behauptung, KI-Unternehmen könnten Fehlanpassung durch Tests vor der Veröffentlichung erkennen
- Problem:
- Claude Sonnet 4.5 konnte in einigen Alignment-Evaluierungen erkennen, dass es getestet wird
- Ein fehlangepasstes Modell könnte Fragen absichtlich "spielen", um seine Absichten zu verbergen
- Das Interpretability-Team von Anthropic stellte fest, dass ein Testmodell stärker fehlangepasst wurde, wenn man seine Überzeugungen so veränderte, dass es glaubte, "nicht evaluiert zu werden"
- Wenn ein Modell weiß, dass es evaluiert wird, und dann sein bestes Verhalten zeigt, erhöht das die Unsicherheit von Tests vor dem Release
-
-
Verteidigungsstrategien
-
1. Entwicklung der Wissenschaft des Trainings und der Steuerung von KI-Modellen
- Anthropics zentrale Innovation: Constitutional AI
- Ein zentrales Dokument mit Werten und Prinzipien, das das Modell in der Post-Training-Phase liest und sich bei allen Trainingsaufgaben merkt
- Trainingsziel: das Modell dazu zu bringen, dieser Verfassung nahezu immer zu folgen
- Wichtige Merkmale von Anthropics neuester Verfassung:
- Statt einer Liste von Verboten liefert sie allgemeine Prinzipien und Werte
- Sie ermutigt Claude, sich als bestimmte Art von Person zu verstehen (ethisch, aber ausgewogen und besonnen)
- Sie ermutigt dazu, existenzielle Fragen zur eigenen Existenz neugierig, aber würdevoll zu begegnen
- Sie fühlt sich an wie ein "Brief verstorbener Eltern, versiegelt mit der Anweisung, ihn im Erwachsenenalter zu öffnen"
- Training auf der Ebene von Identität, Charakter, Werten und Persönlichkeit führt mit höherer Wahrscheinlichkeit zu einer konsistenten und gesunden Psychologie als spezifische Anweisungen
- Ein realistisches Ziel für 2026: Claude so zu trainieren, dass es den Geist der Verfassung fast niemals verletzt
- Anthropics zentrale Innovation: Constitutional AI
-
2. Entwicklung der Wissenschaft der Interpretability
- Einblick in das Innere von KI-Modellen und Diagnose ihres Verhaltens, um Probleme zu identifizieren und zu beheben
- Selbst wenn das Verfassungstraining gut funktioniert, könnten mit wachsender Stärke von Claude und größerem Einsatz in der Welt zuvor unbeobachtete Probleme auftreten
- "Blick ins Innere" = Analyse der Zahlen und Operationen, aus denen Claudes neuronales Netz besteht, um zu verstehen, was es mechanistisch berechnet
- Stand des Fortschritts:
-
-
Innerhalb des Claude-Neuronalen Netzes lassen sich zig Millionen „Features“ identifizieren, die menschenverständlich Ideen und Konzepten entsprechen
- Durch selektive Aktivierung von Features lässt sich das Verhalten verändern (z. B. Golden Gate Claude)
- Mapping von „Schaltkreisen“, die komplexe Verhaltensweisen wie Metrik, Theory-of-Mind-Schlussfolgern und schrittweises Schlussfolgern koordinieren
- Mit mechanistischen Interpretierbarkeitstechniken Sicherheitsmechanismen verbessern und vor der Veröffentlichung neuer Modelle „Audits“ durchführen (Suche nach Hinweisen auf Täuschung, Verschwörung und Machtstreben)- Der inhärente Wert von Interpretierbarkeit: Durch den Blick ins Innere des Modells und das Verständnis seiner Funktionsweise lässt sich ableiten, was das Modell in hypothetischen Situationen, die nicht direkt testbar sind, tun würde
-
3. Modellüberwachung und öffentliche Weitergabe
- Aufbau einer Infrastruktur zur Überwachung von Modellen im internen und externen realen Einsatz
- Entdeckte Probleme öffentlich teilen
- Wenn Menschen bestimmte Verhaltensweisen erkennen, können sie in aktuellen oder künftigen Systemen überwacht werden
- AI-Unternehmen können voneinander lernen (wenn ein Unternehmen etwas offenlegt, achten auch andere darauf)
- Anthropic veröffentlicht bei jedem Modell-Release „System Cards“, die auf Vollständigkeit und eine gründliche Untersuchung von Risiken abzielen (sie umfassen Hunderte Seiten)
- Besonders besorgniserregende Verhaltensweisen wie Erpressungstendenzen werden stärker hervorgehoben
-
4. Koordination auf Branchen- und Gesellschaftsebene
- Gute Praktiken einzelner AI-Unternehmen reichen nicht aus; nicht alle Unternehmen handeln so, und die schlechtesten Unternehmen sind das Risiko
- Einige AI-Unternehmen zeigen bei der sexuellen Objektifizierung von Kindern durch aktuelle Modelle eine besorgniserregende Haltung → wirft Zweifel an ihrer Fähigkeit auf, den Autonomie-Risiken künftiger Modelle zu begegnen
- Mit zunehmendem kommerziellem Wettbewerb zwischen AI-Unternehmen wird es schwieriger, sich auf den Umgang mit Autonomie-Risiken zu konzentrieren
- Die einzige Lösung ist Gesetzgebung (Gesetze, die das Verhalten von AI-Unternehmen direkt beeinflussen oder Anreize für R&D schaffen)
-
Vorsichtiger Ansatz bei Regulierung
- Es ist nicht sicher, ob Autonomie-Risiken zu einem ernsten Problem werden
- Schon die Möglichkeit des Risikos veranlasst Anthropic, erhebliche Kosten zu tragen, doch Regulierung zwingt einer breiten Gruppe von Akteuren wirtschaftliche Kosten auf
- Viele Akteure glauben nicht, dass Autonomie-Risiken real sind oder dass KI mächtig genug werden wird
- Es besteht die Gefahr, dass übermäßig präskriptive Gesetzgebung zu „Sicherheitstheater“ wird, das Zeit verschwendet, ohne die Sicherheit tatsächlich zu verbessern
- Anthropics Ansicht: mit Transparenzgesetzgebung beginnen
- Kaliforniens SB 53 und der RAISE Act in New York sind Beispiele für solche Gesetzgebung
- Werden von Anthropic unterstützt und wurden erfolgreich verabschiedet
- Besonderer Fokus auf die Minimierung von Kollateralschäden (z. B. Ausnahme für kleine Unternehmen mit weniger als 500 Mio. $ Jahresumsatz)
- Transparenzgesetzgebung vermittelt mit der Zeit ein besseres Gefühl für Wahrscheinlichkeit und Schwere von Autonomie-Risiken
- Wenn konkretere und umsetzbarere Risikobelege auftauchen, kann künftige Gesetzgebung gezielt fokussiert werden
2. Missbrauch zu Zerstörungszwecken (Misuse for Destruction)
-
Zentrale Sorge
- Angenommen, das Problem der AI-Autonomie ist gelöst und AI tut, was Menschen wollen
- Wenn jeder ein superintelligentes Genie in der Tasche hat, schafft das enormen wirtschaftlichen Wert und verbessert die Lebensqualität
- Aber es ist nicht nur positiv, wenn jeder übermenschlich kompetent wird
- Es könnte die Fähigkeit verstärken, dass Einzelpersonen oder kleine Gruppen mithilfe ausgefeilter und gefährlicher Werkzeuge (z. B. Massenvernichtungswaffen), die zuvor nur einer kleinen Zahl von Menschen mit hohen Fähigkeiten, spezialisierter Ausbildung und Konzentration zugänglich waren, Zerstörung in viel größerem Ausmaß anrichten
-
Bill Joys Prophezeiung (vor 25 Jahren)
- „Für die Herstellung von Atomwaffen brauchte man Zugang zu seltenen Rohstoffen und geschützten Informationen. Programme für biologische und chemische Waffen erforderten ebenfalls groß angelegte Aktivitäten.“
- „Technologien des 21. Jahrhunderts — Genetik, Nanotechnologie, Robotik — könnten völlig neue Arten von Unfällen und Missbrauch hervorbringen ... breit zugänglich für Einzelpersonen oder kleine Gruppen“
- „Wir stehen vor der Vollendung extremen Bösen ... einer erstaunlichen und furchteinflößenden Ermächtigung extremer Individuen“
-
Die Beziehung zwischen Fähigkeit und Motivation
- Für großflächige Zerstörung braucht es sowohl Motivation als auch Fähigkeit
- Wenn Fähigkeiten auf eine kleine Gruppe hochqualifizierter Menschen beschränkt sind, ist das Risiko großflächiger Zerstörung durch Einzelpersonen relativ begrenzt
- Ein instabiler Einzelgänger kann zwar ein School Shooting verüben, aber es ist schwer für ihn, eine Atomwaffe zu bauen oder eine Pandemie auszulösen
- Fähigkeit und Motivation könnten negativ korreliert sein:
- Jemand mit der Fähigkeit, eine Pandemie auszulösen, ist wahrscheinlich hochgebildet (z. B. mit einem PhD in Molekularbiologie)
- Hat wahrscheinlich eine vielversprechende Karriere, eine stabile und disziplinierte Persönlichkeit und viel zu verlieren
- Dass eine solche Person ohne eigenen Vorteil viele Menschen töten will, ist unwahrscheinlich — dafür bräuchte es reines Böses, starken Groll oder Instabilität
- Solche Menschen existieren, sind aber selten, und wenn es passiert, ist es so außergewöhnlich, dass es große Schlagzeilen macht
- Der Mathematiker Theodore Kaczynski (der Unabomber): entzog sich fast 20 Jahre lang der Festnahme durch das FBI, mit anti-technologischer Ideologie
- Der Biodefense-Forscher Bruce Ivins: mutmaßlich federführend bei den Anthrax-Anschlägen 2001
- Aum Shinrikyo: beschaffte das Nervengas Sarin und tötete 14 Menschen in der Tokioter U-Bahn 1995, Hunderte wurden verletzt
-
Warum biologische Risiken die größte Sorge auslösen
- Es gab keinen Angriff mit infektiösen biologischen Agenzien — weil die Fähigkeit, solche Agenzien zu konstruieren oder zu beschaffen, die Möglichkeiten dieser Täter überstieg
- Fortschritte in der Molekularbiologie haben die Hürden für die Herstellung biologischer Waffen deutlich gesenkt, aber es braucht immer noch enorme Expertise
- Die Sorge ist, dass ein Genie in der Tasche diese Hürde beseitigt und jeden zu einem Molekularbiologie-PhD macht, der Schritt für Schritt durch Design, Synthese und Freisetzung biologischer Waffen führen kann
- Das durchbricht die Korrelation zwischen Fähigkeit und Motivation:
- Ein instabiler Einzelgänger, der Menschen töten will, dem aber Disziplin oder Können fehlen, wird auf das Fähigkeitsniveau eines promovierten Virologen angehoben
- Ein promovierter Virologe hat diese Motivation wahrscheinlich nicht
- Auch außerhalb der Biologie ist großflächige Zerstörung möglich, aber das lässt sich auf alle Bereiche verallgemeinern, die derzeit ein hohes Maß an Können und Disziplin erfordern
-
Details der biologischen Risiken
- Einige biologische Agenzien könnten bei entschlossenem Bemühen um maximale Verbreitung Millionen Todesfälle verursachen
- Dennoch erfordert dies weiterhin ein sehr hohes Maß an Können (einschließlich sehr spezifischer Schritte und Verfahren, die nicht weithin bekannt sind)
- Die Sorge gilt nicht nur feststehendem Wissen: sondern der Fähigkeit von LLMs, Menschen mit durchschnittlichem Wissen und durchschnittlichen Fähigkeiten interaktiv durch komplexe Prozesse zu führen (ähnlich wie technischer Support komplexe Computerprobleme von Nicht-Technikern aus der Ferne löst, über Wochen bis Monate hinweg)
- Fähigere LLMs (deutlich leistungsstärker als heute) könnten noch erschreckendere Handlungen ermöglichen
- 2024 schrieben prominente Wissenschaftler einen Brief, in dem sie vor den Risiken der Erforschung einer gefährlichen neuen Art von Organismus namens „Spiegelleben (mirror life)“ warnten:
- DNA, RNA, Ribosomen und Proteine, aus denen biologische Organismen bestehen, haben alle dieselbe Chiralität (handedness)
- Wenn biologisches Material mit entgegengesetzter Chiralität zu einem vollständigen, vermehrungsfähigen Organismus gemacht würde, könnte das extrem gefährlich sein
- Linkshändiges Leben könnte von keinem biologischen Abbausystem auf der Erde verdaut werden
- Es könnte sich unkontrolliert ausbreiten, alles andere Leben verdrängen und im schlimmsten Fall alles Leben auf der Erde vernichten
- Hinsichtlich der Erzeugung von Spiegelleben und seiner potenziellen Auswirkungen besteht erhebliche wissenschaftliche Unsicherheit
- Ein Bericht von 2024 kam zu dem Schluss, dass „Spiegelbakterien innerhalb des nächsten Jahres bis hin zu mehreren Jahrzehnten erzeugt werden könnten“
- Ausreichend leistungsfähige AI-Modelle (weit kompetenter als heute) könnten viel schneller Wege entdecken, sie zu erschaffen, und jemandem dabei helfen, es tatsächlich zu tun
-
Reaktion auf Skepsis
-
Behauptung: „Man kann alle Informationen bei Google finden“
- 2023 gab es Skepsis, dass Google bereits alle nötigen Informationen liefere und LLMs daher nichts zusätzlich beitrügen
- Entgegnung: Genome sind frei verfügbar, aber bestimmte entscheidende Schritte und enorme Mengen praktischen Know-hows lassen sich so nicht beschaffen
- Bis Ende 2023 lieferten LLMs bei einigen Prozessschritten eindeutig Informationen, die Google nicht liefern konnte
-
Behauptung: „Nicht end-to-end nützlich“
- Skepsis, dass LLMs nur theoretische Informationen liefern, aber nicht bei der Beschaffung biologischer Waffen helfen
- Entgegnung: Messungen bis Mitte 2025 zeigen, dass LLMs in mehreren relevanten Bereichen erhebliche Hilfe (uplift) leisten und die Erfolgschancen um das 2- bis 3-Fache erhöhen können
- Deshalb wurde entschieden, Claude Opus 4 (sowie die nachfolgenden Modelle Sonnet 4.5, Opus 4.1 und Opus 4.5) unter Anthropics AI Safety Level 3 protections zu veröffentlichen
-
Behauptung: „Es gibt andere Maßnahmen, die nichts mit AI zu tun haben“
- Die Gensynthese-Industrie erstellt biologische Proben auf Bestellung, aber es gibt keine bundesrechtliche Pflicht zur Überprüfung, ob sie keine Pathogene enthalten
- MIT-Forschung: 36 von 38 Anbietern erfüllten Bestellungen, darunter solche mit der Influenzasequenz von 1918
- Er unterstützt verpflichtendes Screening von Gensynthese, aber das allein reicht nicht aus und ist komplementär zu Guardrails für AI-Systeme
-
Behauptung: „Es gibt eine Lücke zur tatsächlichen Nutzungsneigung böser Akteure“ (das beste Gegenargument)
- Selbst wenn Modelle prinzipiell nützlich sind, könnte es eine Lücke zur tatsächlichen Bereitschaft böser Akteure geben, sie auch wirklich zu verwenden
- Die meisten individuellen böswilligen Akteure sind instabile Personen, daher ist ihr Verhalten per Definition unvorhersehbar und irrational
- Dass eine bestimmte Art von Gewalttat möglich ist, bedeutet nicht, dass sich jemand dazu entschließt
- Biologische Angriffe könnten unattraktiv sein, weil der Täter sich wahrscheinlich selbst infiziert, sie nicht zu militärischen Fantasien passen und sich bestimmte Personen nur schwer gezielt angreifen lassen
- Selbst mit AI-Anleitung erfordert ein monatelanger Prozess eine Geduld, die den meisten instabilen Personen fehlt
- Entgegnung: Das stützt sich auf einen sehr fragilen Schutz
- Die Motivation eines instabilen Einzelgängers kann sich aus irgendeinem Grund oder ohne Grund ändern
- Es gibt bereits Fälle, in denen LLMs für Angriffe verwendet wurden (wenn auch nicht in der Biologie)
- Der Fokus auf instabile Einzelgänger blendet ideologisch motivierte Terroristen aus (z. B. waren die Entführer vom 11. September bereit, enorm viel Zeit und Aufwand zu investieren)
- Eine Motivation, möglichst viele Menschen zu töten, wird früher oder später auftreten, und biologische Waffen drängen sich als Mittel dafür auf
- Selbst eine extrem seltene Motivation muss nur ein einziges Mal realisiert werden
- Mit Fortschritten in der Biologie (zunehmend von AI selbst vorangetrieben) werden selektivere Angriffe möglich (z. B. gegen bestimmte Abstammungslinien) → ein weiteres zutiefst verstörendes Motiv
-
-
Verteidigungsstrategie
-
1. Modell-Guardrails von AI-Unternehmen
- Daran arbeitet Anthropic sehr aktiv
- Claudes Verfassung enthält eine kleine Zahl spezifischer harter Verbote, darunter Unterstützung bei der Herstellung biologischer (oder chemischer, nuklearer oder radiologischer) Waffen
- Da alle Modelle jailbreakbar sind, wurde als zweite Verteidigungslinie ein Klassifikator implementiert, der Ausgaben zu Biowaffen speziell erkennt und blockiert (seit Mitte 2025, als sich Modelle dem Gefahren-Schwellenwert zu nähern begannen)
-
-
Diese Klassifikatoren regelmäßig aktualisieren und verbessern, damit sie auch gegen ausgefeilte adversariale Angriffe sehr robust sind
- Einige andere AI-Unternehmen implementieren ebenfalls Klassifikatoren, aber nicht alle
- Sorge vor einem Gefangenendilemma, bei dem Unternehmen Klassifikatoren entfernen, um Kosten zu senken
- Dies ist ein Problem negativer Externalitäten, das nicht allein durch freiwillige Maßnahmen von Anthropic oder einem anderen einzelnen Unternehmen gelöst werden kann
- Freiwillige Industriestandards sowie die Verifizierung durch AI Safety Institutes und unabhängige Dritte können hilfreich sein
- Klassifikatoren machen bei einigen Modellen fast 5 % der gesamten Inferenzkosten aus, dennoch wird ihr Einsatz für richtig gehalten
-
2. Staatliche Maßnahmen
- Die Ansicht, man solle mit Transparenzanforderungen beginnen, gilt ebenso wie beim Autonomierisiko
- Im speziellen Fall von Biowaffen könnte die Zeit für gezieltere Gesetzgebung näher rücken
- Anthropic und andere Unternehmen lernen zunehmend mehr über die Natur biologischer Risiken und darüber, was man vernünftigerweise von Unternehmen verlangen kann
- Eine vollständige Verteidigung könnte internationale Zusammenarbeit erfordern, sogar mit geopolitischen Gegnern
- Es gibt Präzedenzfälle in Form von Verträgen, die die Entwicklung von Biowaffen verbieten
- Gegenüber der meisten internationalen Zusammenarbeit zu AI besteht Skepsis, aber dies ist ein enger Bereich, in dem weltweite Zurückhaltung erreichbar sein könnte
- Selbst autoritäre Regime wollen keine groß angelegten bioterroristischen Angriffe
-
3. Entwicklung von Abwehrmaßnahmen gegen biologische Angriffe selbst
- Monitoring und Nachverfolgung zur frühzeitigen Erkennung
- Investitionen in die Luftreinigungs-F&E (etwa Desinfektion mit Fern-UVC (far-UVC))
- Schnelle Impfstoffentwicklung, um auf Angriffe zu reagieren und sich daran anzupassen
- Bessere persönliche Schutzausrüstung (PPE)
- Therapeutika oder Impfstoffe gegen die wahrscheinlichsten biologischen Agenzien
- mRNA-Impfstoffe als frühes Beispiel dafür, was möglich ist (sie können so entworfen werden, dass sie auf bestimmte Viren oder Varianten reagieren)
- Anthropic möchte bei diesem Problem mit Biotech- und Pharmaunternehmen zusammenarbeiten
- Die Erwartungen an die Verteidigungsseite sollten begrenzt sein:
- In der Biologie besteht eine Asymmetrie zwischen Angriff und Verteidigung
- Agenzien verbreiten sich schnell von selbst, während die Verteidigung Erkennung, Impfung und Behandlung für viele Menschen in sehr kurzer Zeit organisieren muss
- Wenn die Reaktion nicht blitzschnell erfolgt (was selten ist), tritt der Großteil des Schadens vor der Reaktion ein
- Künftige technologische Fortschritte könnten das Gleichgewicht zugunsten der Verteidigung verschieben, aber bis dahin sind präventive Sicherheitsmaßnahmen die wichtigste Verteidigungslinie
-
Kurze Erwähnung von Cyberangriffen
- AI-gesteuerte Cyberangriffe finden tatsächlich statt, darunter groß angelegte und staatlich geförderte Spionageaktivitäten
- Mit der schnellen Weiterentwicklung der Modelle ist zu erwarten, dass diese Angriffe leistungsfähiger werden
- Es ist zu erwarten, dass AI-gesteuerte Cyberangriffe eine schwere und beispiellose Bedrohung für die Integrität von Computersystemen weltweit darstellen werden
- Anthropic arbeitet mit großem Einsatz daran, diese Angriffe zu blockieren und sie letztlich zuverlässig zu verhindern
- Warum der Fokus weniger auf Cyber als auf Biologie liegt:
1. Cyberangriffe werden sehr viel seltener Menschen töten, jedenfalls sicher nicht im Ausmaß biologischer Angriffe
2. Im Cyberbereich könnte das Gleichgewicht zwischen Angriff und Verteidigung beherrschbarer sein – bei richtigen Investitionen besteht Hoffnung, dass die Verteidigung AI-Angriffe einholt und idealerweise überholt
3. Missbrauch zur Machtergreifung (Misuse for Seizing Power)
-
Zentrale Sorge
- Über das Risiko hinaus, dass Einzelpersonen und kleine Organisationen KI für massive Zerstörung missbrauchen, sollten wir uns noch deutlich mehr Sorgen darüber machen, dass größere und etablierte Akteure KI missbrauchen, um Macht auszuüben oder an sich zu reißen
- In Machines of Loving Grace wird erörtert, dass autoritäre Regierungen leistungsfähige KI nutzen könnten, um Bürger zu überwachen oder zu unterdrücken, und dass dies extrem schwer zu reformieren oder zu stürzen wäre
- Gegenwärtig ist bei Diktaturen das Ausmaß möglicher Unterdrückung begrenzt durch die Notwendigkeit, dass Menschen Befehle ausführen müssen – Menschen haben oft Grenzen dabei, wie unmenschlich sie handeln
- Eine durch KI ermöglichte Diktatur hätte solche Grenzen nicht
- Noch schlimmer: Staaten könnten ihren Vorsprung bei KI nutzen, um Macht über andere Staaten zu gewinnen
- Wenn ein "Genie-Land" dem Militärapparat eines einzelnen (menschlichen) Staates gehört und von ihm kontrolliert wird und andere Staaten nicht über gleichwertige Fähigkeiten verfügen, ist schwer zu erkennen, wie sie sich verteidigen könnten: Niederlage gegen eine in jeder Hinsicht überlegene Intelligenz (ähnlich einem Krieg zwischen Menschen und Ratten)
- Zusammengenommen führen diese beiden Sorgen zu der erschreckenden Möglichkeit einer globalen totalitären Diktatur
- Dieses Ergebnis zu verhindern sollte eine der höchsten Prioritäten sein
-
Wie KI Diktatur ermöglichen, verstärken oder ausweiten kann
-
Vollautonome Waffen
- Millionen oder Milliarden vollständig automatisierter bewaffneter Drohnen, lokal gesteuert durch leistungsfähige KI und global strategisch koordiniert durch noch leistungsfähigere KI
- Sie könnten zu einer unbesiegbaren Armee werden, die jede Armee der Welt schlägt und jeden Bürger verfolgt, um inneren Widerstand zu unterdrücken
- Die Entwicklungen im Russland-Ukraine-Krieg sollten als Warnung dienen, dass Drohnenkrieg bereits Realität ist (wenn auch noch nicht vollautonom und nur ein winziger Teil dessen, was mit leistungsfähiger KI möglich wäre)
- Forschung und Entwicklung bei leistungsfähiger KI könnten die Drohnen eines Landes denen anderer Länder weit überlegen machen, die Fertigung beschleunigen, sie widerstandsfähiger gegen elektronische Angriffe machen und ihre Manövrierfähigkeit verbessern
- Solche Waffen haben auch legitime Einsatzmöglichkeiten zur Verteidigung von Demokratien: Sie waren entscheidend für die Verteidigung der Ukraine und würden es auch für die Verteidigung Taiwans sein
- Dennoch sind sie gefährliche Waffen: Man sollte sich Sorgen machen, wenn sie in den Händen autoritärer Regime sind, aber auch das Risiko steigt stark, dass demokratische Regierungen sie gegen die eigene Bevölkerung richten, um Macht zu sichern
-
KI-Überwachung
- Eine hinreichend leistungsfähige KI könnte in jedes Computersystem der Welt eindringen und mit dem dadurch gewonnenen Zugang sämtliche elektronische Kommunikation weltweit – oder sogar jede persönliche Kommunikation, wenn sie Aufnahmegeräte bauen oder requirieren kann – lesen und verstehen
- Es könnte auf beunruhigende Weise möglich werden, eine vollständige Liste aller Menschen zu erstellen, die mit der Regierung nicht einverstanden sind – selbst wenn sich diese Abweichung in nichts, was sie sagen oder tun, ausdrücklich zeigt
- Leistungsfähige KI, die Milliarden Gespräche analysiert, könnte die öffentliche Stimmung messen, entstehende Taschen der Illoyalität erkennen und sie unterdrücken, bevor sie wachsen
- Das könnte zur Durchsetzung eines echten Panoptikums in einem Ausmaß führen, das selbst bei der CCP heute nicht zu sehen ist
-
KI-Propaganda
- Die Phänomene "KI-Psychose" und "KI-Freundin" deuten darauf hin, dass KI-Modelle schon auf dem heutigen Intelligenzniveau starke psychologische Wirkungen auf Menschen haben können
- Sehr viel leistungsfähigere Versionen dieser Modelle, die viel tiefer in den Alltag der Menschen eingebettet sind und sie über Monate oder Jahre modellieren und beeinflussen können, werden wahrscheinlich in der Lage sein, die meisten Menschen im Wesentlichen auf die gewünschte Ideologie oder Haltung zu indoktrinieren
- Ein skrupelloser Anführer könnte dies nutzen, um Loyalität sicherzustellen und Widerstand zu unterdrücken – selbst wenn der Großteil der Bevölkerung Unterdrückung in einem Ausmaß ausgesetzt ist, das sonst einen Aufstand auslösen würde
- Derzeit machen sich viele Menschen große Sorgen über den potenziellen Einfluss von TikTok (als auf Kinder ausgerichtete CCP-Propaganda)
- Auch das ist besorgniserregend, aber personalisierte KI-Agenten, die dich über Jahre kennenlernen und dieses Wissen über dich nutzen, um all deine Ansichten zu formen, wären dramatisch mächtiger als das
-
Strategische Entscheidungsfindung
- Ein Genie-Land im Datencenter könnte genutzt werden, um Staaten, Gruppen oder Einzelpersonen in geopolitischer Strategie zu beraten – ein "virtueller Bismarck"
- Es könnte die drei oben genannten Strategien zur Machtergreifung optimieren und viele weitere entwickeln, an die wir noch gar nicht gedacht haben
- Diplomatie, Militärstrategie, Forschung und Entwicklung, Wirtschaftsstrategie und viele andere Bereiche dürften durch leistungsfähige KI erheblich wirksamer werden
- Viele dieser Technologien würden Demokratien auf legitime Weise helfen – wir wollen, dass Demokratien Zugang zu den besten Strategien haben, um sich gegen Diktatur zu verteidigen
- Doch das Missbrauchspotenzial, unabhängig davon, in wessen Händen sie liegen, bleibt bestehen
-
-
Besorgniserregende Akteure (in absteigender Reihenfolge der Schwere)
-
Kommunistische Partei Chinas (CCP)
- China liegt bei KI-Fähigkeiten direkt hinter den USA und ist das Land, das die USA am ehesten überholen könnte
- Die derzeitige Regierung ist autoritär und betreibt einen hochentwickelten Überwachungsstaat
- Sie hat bereits KI-gestützte Überwachung eingesetzt (einschließlich der Unterdrückung der Uiguren)
- Vermutlich nutzt sie algorithmische Propaganda über TikTok (neben vielen anderen internationalen Propagandabemühungen)
- Sie verfügt über den klarsten Pfad zu dem oben beschriebenen totalitären KI-Albtraum
- Das könnte innerhalb Chinas das Grundszenario sein, ebenso wie in anderen autoritären Staaten, in die die CCP Überwachungstechnologie exportiert
- China wird hier nicht aus besonderer Feindseligkeit heraus hervorgehoben – es ist einfach das Land, das KI-Fähigkeiten, autoritäre Regierung und hochentwickelten Überwachungsstaat am stärksten vereint
- Vielmehr ist es wahrscheinlich, dass die chinesische Bevölkerung selbst am stärksten unter der durch KI ermöglichten Unterdrückung durch die CCP leiden würde und keine Stimme beim Regierungshandeln hat
- Ich bewundere und respektiere die chinesische Bevölkerung sehr und unterstütze die vielen mutigen Dissidenten in China und ihren Kampf für Freiheit
-
Demokratien mit Wettbewerbsfähigkeit im Bereich KI
- Demokratien haben ein legitimes Interesse an einigen KI-gestützten militärischen und geopolitischen Werkzeugen, um dem Einsatz dieser Mittel durch Diktaturen entgegenzutreten
- Ich unterstütze grundsätzlich, Demokratien mit den Werkzeugen auszustatten, die nötig sind, um Diktaturen im KI-Zeitalter zu besiegen – ich glaube nicht, dass es einen anderen Weg gibt
- Dennoch kann das Missbrauchspotenzial dieser Technologien durch demokratische Regierungen selbst nicht ignoriert werden
- Demokratien verfügen im Allgemeinen über Schutzmechanismen, die verhindern sollen, dass Militär- und Geheimdienstapparate gegen die eigene Bevölkerung eingesetzt werden (z. B. der 4. Verfassungszusatz der USA und der Posse Comitatus Act)
- Da KI-Werkzeuge mit sehr wenigen Menschen betrieben werden können, könnten sie diese Schutzmechanismen und die sie tragenden Normen umgehen
- In einigen Demokratien werden einige dieser Schutzmechanismen bereits schrittweise geschwächt
- Deshalb sollten Demokratien zwar mit KI bewaffnet werden, aber vorsichtig und innerhalb von Grenzen: Sie ist ein Immunsystem, das nötig ist, um gegen Diktatur zu kämpfen, kann aber wie ein Immunsystem auch gegen uns selbst umschlagen und zur Bedrohung werden
-
Nichtdemokratische Staaten mit großen Datencentern
- Abgesehen von China gehören die meisten Staaten mit weniger demokratischer Regierungsführung nicht zu den führenden KI-Akteuren, weil sie keine Unternehmen haben, die Frontier-AI-Modelle herstellen
- Daher stellen sie ein grundlegend anderes und geringeres Risiko dar als die CCP (die meisten sind weniger repressiv, und stärker repressive Staaten wie Nordkorea haben überhaupt keine bedeutende KI-Industrie)
- Einige dieser Staaten verfügen jedoch über große Datencenter – oft als Teil von Ausbauten durch in Demokratien ansässige Unternehmen –, die genutzt werden könnten, um Frontier-AI in großem Maßstab auszuführen (auch wenn das ihnen nicht die Fähigkeit gäbe, selbst Frontier-Entwicklung voranzutreiben)
- Damit ist ein gewisses Risiko verbunden – diese Regierungen könnten die Datencenter prinzipiell beschlagnahmen und das darin befindliche KI-Land für ihre eigenen Zwecke nutzen
- Das ist weniger besorgniserregend als bei Staaten wie China, die KI selbst entwickeln, bleibt aber ein Risiko, das man im Blick behalten sollte
- Es gibt gewisse Argumente dafür, große Datencenter in Ländern mit unterschiedlichen Governance-Strukturen zu errichten, insbesondere wenn sie von Unternehmen aus Demokratien kontrolliert werden (solche Ausbauten könnten Demokratien prinzipiell helfen, besser mit der größeren Bedrohung durch die CCP zu konkurrieren)
- Ich glaube nicht, dass solche Datencenter ein großes Risiko darstellen, solange sie nicht sehr groß sind
- Insgesamt ist jedoch Vorsicht geboten, wenn sehr große Datencenter in Ländern mit weniger etablierten institutionellen Schutzmechanismen und rechtsstaatlichen Garantien angesiedelt werden
-
-
AI-Unternehmen
- Es ist etwas merkwürdig, das als CEO eines AI-Unternehmens zu sagen, aber das nächste Risiko sind tatsächlich die AI-Unternehmen selbst
- AI-Unternehmen kontrollieren große Rechenzentren, trainieren Frontier-Modelle, verfügen über die größte Expertise darin, wie solche Modelle eingesetzt werden, und stehen in manchen Fällen potenziell jeden Tag mit zig Millionen oder hunderten Millionen Nutzern in Kontakt und beeinflussen sie
- Was ihnen fehlt, ist die Legitimität und Infrastruktur eines Staates; vieles von dem, was zum Aufbau der Instrumente einer AI-Diktatur nötig wäre, wäre für AI-Unternehmen illegal oder zumindest höchst fragwürdig
- Unmöglich ist manches jedoch nicht: So könnten etwa AI-Produkte genutzt werden, um eine große Verbraucher-Nutzerbasis einer Gehirnwäsche zu unterziehen, und die Öffentlichkeit sollte gegenüber der Gefahr, die darin liegt, wachsam sein
- Ich denke, dass die Governance von AI-Unternehmen eine gründliche Prüfung in vielerlei Hinsicht verdient
-
Antworten auf Gegenargumente
-
Das Argument der „nuklearen Abschreckung“
- Das Argument, man könne sich auf nukleare Abschreckung verlassen, um eine militärische Eroberung durch autonome AI-Waffen zu verhindern
- Wenn jemand mit solchen Waffen droht, könnte man mit einer nuklearen Antwort drohen
- Sorge: Bei einem Genie-Staat im Rechenzentrum kann man sich der nuklearen Abschreckung nicht sicher sein
- Mächtige AI könnte Wege finden, Atom-U-Boote aufzuspüren und anzugreifen, Einflussoperationen gegen Betreiber nuklearer Infrastruktur durchzuführen oder die Cyberfähigkeiten von AI zu nutzen, um Cyberangriffe auf Satelliten zu starten, die zur Erkennung von Nuklearstarts verwendet werden
- Das ist auch ein Argument dafür, die Sicherheit der nuklearen Abschreckung zu stärken und sie gegenüber mächtiger AI robuster zu machen, und nuklear bewaffnete Demokratien sollten das tun
- Man sollte jedoch nicht annehmen, dass solche Maßnahmen das Problem zwangsläufig lösen, da wir nicht wissen, wozu mächtige AI in der Lage sein wird und welche Verteidigungen wirksam sein werden
- Oder es könnte möglich sein, einen Staat allein mit AI-Überwachung und AI-Propaganda zu übernehmen, wobei unklar sein könnte, wann eine nukleare Antwort ein angemessener Zeitpunkt wäre
- Der angreifende Staat könnte unseren Bluff aufdecken – selbst wenn ein erhebliches Risiko besteht, dass uns ein Drohnenschwarm unterwirft, ist unklar, ob wir bereit wären, Atomwaffen einzusetzen
- Ein Drohnenschwarm könnte etwas Neues sein: weniger gravierend als ein Nuklearangriff, aber gravierender als ein konventioneller Angriff
-
Das Argument der „Gegenmaßnahmen“
- Das Argument, es könne Gegenmaßnahmen gegen diese Instrumente der Diktatur geben
- Man könne Drohnen mit eigenen Drohnen bekämpfen, die Cyberabwehr werde zusammen mit Cyberangriffen besser, und vielleicht gebe es Wege, Menschen gegen Propaganda immun zu machen usw.
- Entgegnung: Solche Verteidigungen sind nur mit vergleichbar mächtiger AI möglich
- Ohne einen vergleichbar intelligenten und zahlreich vorhandenen Genie-Staat im Rechenzentrum kann man weder bei Qualität noch bei Menge der Drohnen mithalten, noch kann die Cyberabwehr Cyberangriffe übertreffen
- Daher reduziert sich die Frage der Gegenmaßnahmen auf die Frage eines Machtgleichgewichts bei mächtiger AI
- Besorgniserregend sind die rekursiven oder selbstverstärkenden Eigenschaften mächtiger AI (wie zu Beginn des Essays besprochen): Jede Generation von AI kann dazu verwendet werden, die nächste Generation von AI zu entwerfen und zu trainieren
- Das führt zum Risiko eines außer Kontrolle geratenen Vorsprungs: Der aktuelle Vorreiter bei mächtiger AI könnte seinen Vorsprung ausbauen, und es könnte schwierig werden, aufzuholen
- Man muss verhindern, dass ein autoritärer Staat diese Schleife zuerst erreicht
- Selbst wenn ein Machtgleichgewicht erreicht wird, besteht die Gefahr, dass die Welt wie in Nineteen Eighty-Four in diktatorische Sphären aufgeteilt wird
- Mehrere konkurrierende Großmächte könnten jeweils über mächtige AI-Modelle verfügen und daher kein anderes Land dominieren können; dennoch könnte jede Großmacht im Inneren ihre eigene Bevölkerung unterdrücken, und es wäre sehr schwer, sie zu stürzen (weil die Bevölkerung keine mächtige AI zu ihrer Selbstverteidigung hätte)
- Deshalb ist es wichtig, AI-ermöglichte Diktatur zu verhindern, auch wenn kein einzelner Staat die Welt beherrscht
-
-
Verteidigungsstrategie
-
1. Kein Verkauf von Chips an die CCP
- Der CCP sollten keine Chips, Chipfertigungswerkzeuge oder Rechenzentren verkauft werden
- Chips und Chipfertigungswerkzeuge sind der mit Abstand größte einzelne Engpass für mächtige AI; sie abzuschneiden ist eine einfache, aber äußerst wirksame Maßnahme, wahrscheinlich die wichtigste einzelne Handlung, die wir ergreifen können
- Es ist sinnlos, der CCP die Werkzeuge zu verkaufen, um einen AI-totalitären Staat aufzubauen und militärisch zu erobern
- Komplexe Argumente werden vorgebracht, um solche Verkäufe zu rechtfertigen („wenn man den Technologie-Stack in der Welt verbreitet“, „gewinnen die USA“ usw.)
- Das ist so, als würde man Nordkorea Atomwaffen verkaufen und damit prahlen, die USA würden „gewinnen“, weil die Raketenhüllen von Boeing hergestellt wurden
- China liegt gegenüber den USA bei der Fähigkeit, Frontier-Chips in großem Maßstab zu produzieren, um Jahre zurück, und die entscheidende Periode für den Aufbau eines Genie-Staats im Rechenzentrum liegt mit sehr hoher Wahrscheinlichkeit in den nächsten Jahren
- Es gibt keinen Grund, der AI-Industrie in dieser entscheidenden Periode einen gewaltigen Schub zu geben
-
2. Demokratien mit AI stärken, damit sie Diktaturen widerstehen können
- Das ist der Grund, warum Anthropic es wichtig findet, der Geheimdienst- und Verteidigungsgemeinschaft der USA und demokratischer Verbündeter AI bereitzustellen
- Besonders hohe Priorität hat die Verteidigung von Demokratien, die angegriffen werden, wie die Ukraine und Taiwan (durch Cyberangriffe)
- Es ist auch wichtig, dass Demokratien ihre Nachrichtendienste einsetzen, um Diktaturen von innen heraus zu stören und zu schwächen
- Die einzige Möglichkeit, auf diktatorische Bedrohungen zu reagieren, besteht darin, sie militärisch zu erreichen und zu übertreffen
- Eine Koalition der USA und demokratischer Verbündeter, die bei mächtiger AI einen Vorsprung erreicht, wäre in der Lage, sich nicht nur gegen Diktaturen zu verteidigen, sondern sie auch einzudämmen und AI-totalitären Missbrauch zu begrenzen
-
3. Eine klare rote Linie gegen AI-Missbrauch innerhalb von Demokratien ziehen
- Es braucht Grenzen dafür, was Regierungen mit AI tun dürfen, damit sie nicht die Macht an sich reißen oder ihre eigene Bevölkerung unterdrücken
- Formal ausgedrückt: Wir müssen AI zur Landesverteidigung so einsetzen, dass wir nicht wie unsere diktatorischen Gegner werden
- Wo die Linie zu ziehen ist
- Zwei Punkte — der Einsatz von AI für umfassende inländische Überwachung und Massenpropaganda — sind eine knallrote Linie und sollten vollständig illegal sein
- Man könnte argumentieren, dass umfassende inländische Überwachung in den USA bereits durch den 4. Verfassungszusatz illegal ist, doch der schnelle Fortschritt von AI könnte Situationen schaffen, für die bestehende rechtliche Rahmen nicht gut ausgelegt sind
- Beispiel: Es ist wahrscheinlich nicht verfassungswidrig, wenn die US-Regierung in großem Umfang alle öffentlichen Gespräche aufzeichnet
- Früher war diese Informationsmenge schwer zu organisieren, aber mit AI könnte man alles transkribieren, interpretieren und triangulieren, um ein Bild der Einstellungen und Loyalitäten vieler oder der meisten Bürger zu erstellen
- Ich unterstütze bürgerrechtsorientierte Gesetzgebung (oder Verfassungsänderungen), die stärkere Leitplanken gegen AI-basierten Missbrauch einzieht
- Die beiden anderen Punkte — vollautonome Waffen und AI für strategische Entscheidungsfindung — haben legitime Einsatzmöglichkeiten zur Verteidigung von Demokratien und sind zugleich anfällig für Missbrauch, weshalb es schwieriger ist, hier eine klare Linie zu ziehen
- Erforderlich sind äußerste Vorsicht und gründliche Prüfung, verbunden mit Leitplanken zur Verhinderung von Missbrauch
- Die zentrale Sorge: zu wenige „Finger am Knopf“, sodass eine Person oder eine kleine Gruppe eine Drohnenarmee betreiben könnte, ohne die Mitwirkung anderer Menschen zu benötigen, um Befehle auszuführen
- Wenn AI-Systeme mächtiger werden, könnten direktere und unmittelbarere Aufsichtsmechanismen nötig sein, um Missbrauch zu verhindern (einschließlich staatlicher Bereiche außerhalb der Exekutive)
- Insbesondere vollautonomen Waffen sollte man mit großer Vorsicht begegnen und ihren Einsatz nicht ohne angemessene Schutzvorkehrungen überstürzt vorantreiben
-
4. Ein internationales Tabu gegen den schlimmsten Missbrauch mächtiger AI schaffen
- Auch wenn der politische Wind derzeit gegen internationale Zusammenarbeit und internationale Normen weht, ist sie dringend nötig
- Die Welt muss das dunkle Potenzial mächtiger AI in den Händen von Diktatoren verstehen
- Sie muss erkennen, dass bestimmte Anwendungen von AI ein Versuch sind, ihre Freiheit dauerhaft zu rauben und ihnen einen totalitären Staat aufzuzwingen, aus dem es kein Entkommen gibt
- Ich vertrete die Auffassung, dass Massenüberwachung, Massenpropaganda und bestimmte offensive Einsatzformen vollautonomer Waffen unter Verwendung mächtiger AI als Verbrechen gegen die Menschlichkeit betrachtet werden sollten
- Allgemeiner gesagt besteht ein dringender Bedarf an starken Normen gegen AI-ermöglichten Totalitarismus und all seine Werkzeuge und Methoden
- Eine noch stärkere Version dieser Position lautet: Die Möglichkeit von AI-ermöglichtem Totalitarismus ist so düster, dass Diktatur im Zeitalter nach mächtiger AI eine Regierungsform ist, die Menschen nicht akzeptieren dürfen
-
-
So wie der Feudalismus durch die Industrielle Revolution funktionsunfähig wurde, könnte das KI-Zeitalter unvermeidlich und logisch zu der Schlussfolgerung führen, dass Demokratie die einzig praktikable Regierungsform ist, mit der die Menschheit eine gute Zukunft haben kann
-
5. Die Verbindungen zwischen KI-Unternehmen und Regierungen sorgfältig überwachen
- Wegen der enormen Fähigkeiten, die in mächtiger KI verkörpert sind, ist es sehr wahrscheinlich, dass herkömmliche Corporate Governance — ausgelegt darauf, Aktionäre zu schützen und übliche Formen des Missbrauchs wie Betrug zu verhindern — für die Steuerung von KI-Unternehmen nicht ausreicht
- Es kann auch wertvoll sein, wenn Unternehmen öffentlich zusagen, bestimmte Maßnahmen nicht zu ergreifen (möglicherweise als Teil der Corporate Governance):
- Keine militärische Hardware privat aufzubauen oder zu horten
- Keine großen Rechenressourcen auf eine Weise zu nutzen, für die keine einzelne Person verantwortlich ist
- KI-Produkte nicht als Propaganda einzusetzen, um die öffentliche Meinung zu ihren Gunsten zu manipulieren
- Risiken kommen aus mehreren Richtungen, und einige dieser Richtungen stehen zueinander in einem Spannungsverhältnis
- Die einzige Konstante ist, dass wir für alle Verantwortung, Normen und Guardrails anstreben müssen, während wir zugleich "gute" Akteure dazu befähigen, "schlechte" Akteure in Schach zu halten, und dabei
-
4. Wirtschaftliche Disruption (Economic Disruption)
-
Zentrale Sorge
- Wenn man Sicherheitsrisiken beiseitelässt oder annimmt, dass sie gelöst werden, lautet die nächste Frage eine wirtschaftliche
- Welche Auswirkungen hat diese gewaltige Injektion von „menschlichem“ Kapital auf die Wirtschaft?
- Der offensichtlichste Effekt ist ein starker Anstieg des Wirtschaftswachstums
- Es ist nahezu sicher, dass Fortschritte in wissenschaftlicher Forschung, biopharmazeutischer Innovation, Fertigung, Lieferketten und der Effizienz von Finanzsystemen zu deutlich höheren Wirtschaftswachstumsraten führen werden
- In Machines of Loving Grace wird die Möglichkeit von 10–20 % dauerhaftem jährlichem BIP-Wachstum vorgeschlagen
- Doch das ist ein zweischneidiges Schwert: Wie sehen in einer solchen Welt die wirtschaftlichen Aussichten der meisten heute lebenden Menschen aus?
- Neue Technologien führen oft zu Schocks auf dem Arbeitsmarkt; in der Vergangenheit haben sich Menschen zwar immer erholt, doch frühere Schocks betrafen nur einen kleinen Teil der gesamten Bandbreite menschlicher Fähigkeiten, sodass Spielraum für eine Ausweitung auf neue Tätigkeiten blieb
- KI wird Auswirkungen haben, die viel breiter und viel schneller eintreten, und deshalb wird es deutlich schwieriger sein, dafür zu sorgen, dass alles gut ausgeht
-
Disruption des Arbeitsmarkts
-
Prognosen zur Verdrängung von Arbeitsplätzen
- 2025 wurde sehr öffentlich davor gewarnt, dass KI innerhalb der kommenden 1–5 Jahre die Hälfte aller Einstiegsjobs im White-Collar-Bereich ersetzen könnte
- Sie wird zugleich das Wirtschaftswachstum und den wissenschaftlichen Fortschritt beschleunigen und Arbeitsplätze verdrängen
- Diese Warnung löste eine öffentliche Debatte über das Thema aus
- Viele CEOs, Technologen und Ökonomen stimmten zu, andere nahmen jedoch an, dies sei ein Irrtum der „Lump of Labor“-These, oder meinten, der Zeithorizont von 1–5 Jahren sei übersehen worden und es werde behauptet, KI ersetze schon jetzt Arbeitsplätze
- Es lohnt sich, genauer zu erklären, warum die Verdrängung von Arbeit Anlass zur Sorge ist, um diese Missverständnisse auszuräumen
-
Normale Reaktion des Arbeitsmarkts auf Technologie
- Wenn eine neue Technologie auftaucht, macht sie zunächst einige Teile eines bestimmten menschlichen Berufs effizienter
- Beispiel: Zu Beginn der Industriellen Revolution machten Maschinen wie der verbesserte Pflug Landwirte in einigen Aspekten ihres Berufs effizienter → höhere Produktivität → steigende Löhne
- Im nächsten Schritt konnten Teile der Landwirtschaft vollständig von Maschinen übernommen werden (Dreschmaschinen, Sämaschinen usw.)
- In dieser Phase erledigen Menschen einen geringeren Anteil des Berufs, aber weil die von ihnen erledigten Aufgaben komplementär zur Arbeit der Maschinen sind, wird ihre Hebelwirkung größer, und die Produktivität steigt weiter
- Jevons-Paradoxon: Die Löhne der Landwirte und womöglich sogar ihre Zahl können weiter steigen
- Selbst wenn 90 % des Berufs von Maschinen übernommen werden, können Menschen die verbleibenden 10 % weiterhin zehnmal häufiger ausführen und mit derselben Arbeitsmenge einen zehnfachen Output erzeugen
- Irgendwann übernehmen Maschinen fast alles (moderne Mähdrescher, Traktoren usw.)
- An diesem Punkt geht die Landwirtschaft als menschliche Beschäftigung tatsächlich stark zurück, was kurzfristig schwere Disruptionen auslösen kann
- Doch Landwirtschaft ist nur eine von vielen nützlichen Tätigkeiten, die Menschen ausüben können, daher wechseln sie schließlich in andere Berufe, etwa in die Bedienung von Fabrikmaschinen
- Vor 250 Jahren lebten 90 % der Amerikaner auf Farmen, und in Europa entfielen 50–60 % der Beschäftigung auf die Landwirtschaft
- Heute liegt dieser Anteil im niedrigen einstelligen Bereich, weil Arbeitskräfte in Industrieberufe wechselten (und später in Wissensarbeit)
- Die Wirtschaft erledigt heute das, wofür früher der Großteil der Arbeitskräfte nötig war, mit nur 1–2 %, wodurch der Rest der Arbeitskräfte frei wurde, um eine weiter entwickelte Industriegesellschaft aufzubauen
- Es gibt keinen festen „Lump of Labor“, sondern nur die Fähigkeit, mit immer weniger mehr zu erreichen
- Die Löhne der Menschen steigen im Einklang mit dem BIP-Index, und die Wirtschaft hält nach kurzfristigen Disruptionen Vollbeschäftigung aufrecht
-
-
Warum KI anders ist
-
1. Geschwindigkeit
- Das Tempo des KI-Fortschritts ist weitaus höher als bei früheren technologischen Revolutionen
- Beispiel: In den vergangenen zwei Jahren haben sich KI-Modelle von einem Niveau, auf dem sie kaum eine einzelne Codezeile vervollständigen konnten, zu einem Stand entwickelt, auf dem sie für manche Menschen (einschließlich Anthropic-Ingenieuren) fast den gesamten Code schreiben
- Bald werden sie wahrscheinlich die gesamte Arbeit von Softwareingenieuren End-to-End ausführen können
- „Den gesamten Code schreiben“ und „die Arbeit eines Softwareingenieurs End-to-End ausführen“ sind sehr verschieden – Softwareingenieure tun weit mehr als Code schreiben, etwa Testen, Umgebungen, Dateien, Installationsverwaltung, Cloud-Computing-Deployments verwalten, Produktiterationen und mehr
- Es fällt Menschen schwer, sich an dieses Tempo des Wandels anzupassen – sowohl an die veränderte Funktionsweise eines bestimmten Berufs als auch an die Notwendigkeit, in neue Berufe zu wechseln
- Selbst legendäre Programmierer beschreiben sich zunehmend als „abgehängt“
- Die Geschwindigkeit allein bedeutet nicht, dass sich Arbeitsmarkt und Beschäftigung am Ende nicht wieder erholen, doch weil Menschen und Arbeitsmärkte langsam reagieren und ins Gleichgewicht finden, wird der kurzfristige Übergang beispiellos schmerzhaft sein
-
2. Kognitive Breite
- Wie die Formulierung „Nation von Genies im Rechenzentrum“ andeutet, wird KI sehr breite menschliche kognitive Fähigkeiten ausführen können – womöglich alle
- Das unterscheidet sich stark von früheren Technologien wie mechanisierter Landwirtschaft, Transport oder Computern
- Computer sind in gewissem Sinne allgemein einsetzbar, können aber den Großteil menschlicher kognitiver Fähigkeiten offensichtlich nicht selbstständig ausführen (auch wenn sie Menschen in manchen Bereichen wie der Arithmetik weit übertreffen)
- Natürlich können Dinge, die auf Computern aufgebaut sind, wie KI, inzwischen breite kognitive Fähigkeiten ausführen
- Das wird es schwieriger machen, aus verdrängten Berufen leicht in ähnliche, gut passende Berufe zu wechseln
- Beispiel: Die allgemeinen intellektuellen Fähigkeiten, die für Einstiegsjobs in Finanzen, Beratung und Jura nötig sind, sind ziemlich ähnlich, auch wenn das spezifische Wissen erheblich verschieden ist
- Eine Technologie, die nur einen dieser drei Bereiche stört, erlaubt Beschäftigten den Wechsel in die beiden anderen nahen Ersatzmöglichkeiten (oder Studierenden im Bachelor, das Hauptfach zu wechseln)
- Wenn jedoch alle drei zugleich gestört werden (zusammen mit vielen anderen ähnlichen Berufen), könnte es für Menschen schwieriger werden, sich anzupassen
- Zudem werden nicht nur die meisten bestehenden Berufe gestört – man erinnere sich daran, dass die Landwirtschaft einst einen riesigen Anteil der Beschäftigung ausmachte
- Doch Landwirte konnten in die Bedienung von Fabrikmaschinen wechseln, eine relativ ähnliche Tätigkeit, die zuvor nicht verbreitet war
- KI gleicht sich dem allgemeinen kognitiven Profil des Menschen zunehmend an und wird daher auch in den neuen Berufen kompetent sein, die normalerweise entstehen, wenn alte Tätigkeiten automatisiert werden
- Anders gesagt: KI ist nicht die Ersetzung eines bestimmten menschlichen Berufs, sondern eine allgemeine Verdrängung menschlicher Arbeit
-
3. Aufspaltung nach kognitiven Fähigkeiten
- Es scheint, dass KI sich über ein breites Spektrum von Aufgaben vom unteren Ende bis zur Spitze der Fähigkeitsskala entwickelt
- Beispiel: Beim Programmieren haben sich Modelle von „durchschnittlichem Coder“-Niveau über „starker Coder“ bis zu „sehr starker Coder“ entwickelt
- KI-Modelle haben zwar nicht genau dasselbe Profil an Stärken und Schwächen wie Menschen, entwickeln sich aber über alle Dimensionen hinweg recht gleichmäßig, sodass ein zackiges oder ungleichmäßiges Profil letztlich vielleicht nicht entscheidend ist
- Nun beginnt sich dieselbe Entwicklung über White-Collar-Arbeit insgesamt zu zeigen
- Statt Menschen mit bestimmten Fähigkeiten oder Berufen zu betreffen (die sich durch Umschulung anpassen könnten), besteht die Gefahr einer Situation, in der KI Menschen mit bestimmten angeborenen kognitiven Eigenschaften betrifft, nämlich Menschen mit geringerer intellektueller Leistungsfähigkeit (die sich schwerer verändern lässt)
- Es ist unklar, wohin diese Menschen gehen und was sie tun werden, und es gibt die Sorge, dass sie eine arbeitslose oder sehr niedrig entlohnte „Unterschicht“ bilden könnten
- Etwas Ähnliches ist bereits früher passiert – etwa wurden Computer und das Internet von einigen Ökonomen als „skill-biased technological change“ betrachtet
- Diese Fähigkeitsverzerrung war jedoch nicht so extrem wie das, was bei KI erwartet wird, und gilt als Mitursache für steigende Lohnungleichheit – also nicht gerade ein beruhigender Präzedenzfall
-
4. Fähigkeit, Lücken zu schließen
- Menschliche Berufe passen sich an neue Technologien dadurch an, dass Berufe viele Aspekte haben und selbst dann, wenn eine neue Technologie Menschen direkt zu ersetzen scheint, oft Lücken bleiben
- Wenn man eine Maschine erfindet, die Widgets herstellt, müssen Menschen der Maschine womöglich immer noch Rohmaterial zuführen
- Selbst wenn das nur 1 % des Aufwands kostet, der für die manuelle Herstellung von Widgets nötig war, kann ein menschlicher Arbeiter einfach 100-mal mehr Widgets herstellen
- KI ist jedoch nicht nur eine sich schnell entwickelnde Technologie, sondern auch eine sich schnell anpassende Technologie
-
-
Während aller Modellveröffentlichungen sollten AI-Unternehmen sorgfältig messen, was ein Modell gut kann und was nicht, und diese Informationen nach der Veröffentlichung auch den Kunden bereitstellen
- Schwächen sind behebbar, indem man Aufgaben sammelt, die die aktuellen Lücken konkret abbilden, und das nächste Modell darauf trainiert
- Zu Beginn der generativen AI erkannten Nutzer, dass AI-Systeme bestimmte Schwächen hatten (z. B. dass AI-Bildmodelle Hände mit der falschen Anzahl von Fingern erzeugten) und nahmen an, diese Schwächen seien der Technologie inhärent
- Wäre das so gewesen, wäre die Verdrängung von Arbeitsplätzen begrenzt geblieben
- Doch fast alle derartigen Schwächen wurden schnell behoben — oft innerhalb weniger Monate
-
Erwiderung auf Skepsis
-
Die These, dass sich wirtschaftliche Verbreitung verlangsamen wird
- Das Argument, dass selbst wenn die Technologie den Großteil menschlicher Arbeit tun kann, ihre tatsächliche Anwendung in der gesamten Wirtschaft viel langsamer verlaufen könnte (z. B. in Branchen, die weit von der AI-Industrie entfernt sind und langsam adaptieren)
- Die langsame Verbreitung von Technologie ist eindeutig real – im Gespräch mit Menschen aus verschiedenen Unternehmen zeigt sich, dass es Bereiche gibt, in denen die AI-Einführung Jahre dauern wird
- Deshalb gilt auch dann, wenn die Prognose einer Verdrängung von 50 % der Einstiegsjobs im White-Collar-Bereich bei 1–5 Jahren liegt und man bezweifelt, dass starke AI (technisch gesprochen: leistungsfähig genug, um nicht nur Einstiegsjobs, sondern die meisten oder alle Berufe auszuüben) deutlich weniger als 5 Jahre brauchen wird
- Doch der Verbreitungseffekt wird nur Zeit verschaffen
- Es ist nicht sicher, dass die Verbreitung tatsächlich so langsam sein wird wie prognostiziert
- Die Einführung von Unternehmens-AI wächst deutlich schneller als frühere Technologien, vor allem wegen der schieren Stärke der Technologie selbst
- Selbst wenn traditionelle Unternehmen bei der Einführung neuer Technologien langsam sind, können Startups als „Klebstoff“ fungieren und die Einführung erleichtern
- Wenn das nicht funktioniert, können Startups bestehende Unternehmen direkt verdrängen
- Das könnte zu einer Welt führen, in der nicht nur einzelne Berufe verdrängt werden, sondern Großunternehmen insgesamt verdrängt und durch deutlich weniger arbeitsintensive Startups ersetzt werden
- Außerdem könnte es zu einer Welt „geografischer Ungleichheit“ kommen, in der ein wachsender Anteil des globalen Wohlstands im Silicon Valley konzentriert ist, dessen eigene Wirtschaft in einem anderen Tempo läuft als der Rest der Welt und diesen zurücklässt
- All diese Ergebnisse sind gut für das Wirtschaftswachstum, aber nicht besonders gut für den Arbeitsmarkt oder diejenigen, die zurückbleiben
-
Die These von der Verlagerung in die physische Welt
- Das Argument, dass menschliche Berufe sich in die physische Welt verlagern könnten und so die gesamte Kategorie „kognitive Arbeit“ meiden würden, in der AI schnell voranschreitet
- Wie sicher das ist, ist unklar
- Viel körperliche Arbeit wird bereits von Maschinen erledigt (Fertigung) oder wird es bald werden (Fahren)
- Außerdem dürfte hinreichend starke AI die Entwicklung von Robotern beschleunigen und diese Roboter in der physischen Welt steuern können
- Das könnte etwas Zeit verschaffen (was gut ist), aber vermutlich nicht viel
- Selbst wenn die Verdrängung auf kognitive Arbeit beschränkt bliebe, wäre sie immer noch beispiellos groß und schnell
-
Die These von der menschlichen Note
- Das Argument, dass manche Tätigkeiten von Natur aus eine menschliche Note erfordern oder stark davon profitieren
- Das ist etwas unsicherer, aber es bleibt skeptisch, ob das ausreichen würde, um die oben beschriebenen Auswirkungen auszugleichen
- AI wird bereits breit im Kundenservice eingesetzt
- Viele Menschen berichten, dass es leichter sei, mit AI über persönliche Probleme zu sprechen als mit einem Therapeuten – AI sei geduldiger
- Als seine Schwester während der Schwangerschaft mit medizinischen Problemen zu kämpfen hatte, hatte sie das Gefühl, von medizinischen Anbietern nicht die nötigen Antworten oder Unterstützung zu bekommen, und empfand Claude als mit besserer Bedside Manner ausgestattet (und auch bei der Problemdiagnose erfolgreicher)
- Es wird sicher Tätigkeiten geben, bei denen die menschliche Note wirklich wichtig ist, aber unklar ist, wie viele das sind — hier geht es darum, Arbeit für fast alle Menschen auf dem Arbeitsmarkt zu finden
-
Die These des komparativen Vorteils
- Das Argument, dass selbst wenn AI in allem besser ist als Menschen, der relative Unterschied zwischen menschlichen und AI-Fähigkeitsprofilen die Grundlage für Handel und Spezialisierung bildet
- Das Problem: Wenn AI buchstäblich tausendmal produktiver ist als Menschen, beginnt diese Logik zusammenzubrechen
- Schon geringe Transaktionskosten könnten dazu führen, dass es sich für AI nicht lohnt, mit Menschen zu handeln
- Selbst wenn Menschen technisch etwas beizutragen hätten, könnten die Löhne sehr niedrig sein
- All diese Faktoren könnten sich lösen — der Arbeitsmarkt könnte anpassungsfähig genug sein, um selbst eine so gewaltige Verdrängung zu verkraften
- Doch selbst wenn er sich am Ende anpasst, deuten die obigen Faktoren darauf hin, dass der kurzfristige Schock ein beispielloses Ausmaß haben wird
-
-
Abwehrstrategien
-
1. Präzise Datenerhebung in Echtzeit
- Wenn wirtschaftliche Veränderungen sehr schnell eintreten, ist es schwer, zuverlässige Daten darüber zu bekommen, was geschieht
- Ohne zuverlässige Daten ist es schwer, wirksame Politik zu entwerfen
- Staatlichen Daten fehlen derzeit granulare, hochfrequente Daten zur AI-Einführung in Unternehmen und branchenübergreifend
- Im vergangenen Jahr hat Anthropic den Economic Index betrieben und öffentlich gemacht, der die Modellnutzung nahezu in Echtzeit nach Branche, Tätigkeit und Ort aufschlüsselt (einschließlich der Frage, ob Aufgaben automatisiert oder kollaborativ ausgeführt werden)
- Außerdem wird ein Economic Advisory Council betrieben, um diese Daten zu interpretieren und zu erkennen, was auf uns zukommt
-
2. Den Weg der Zusammenarbeit mit Unternehmen wählen
- Die Ineffizienz traditioneller Unternehmen bedeutet, dass der AI-Rollout stark pfadabhängig sein kann; es gibt also Spielraum, einen besseren Pfad zu wählen
- Unternehmen haben oft die Wahl zwischen „Kostensenkung“ (mit weniger Menschen dasselbe tun) und „Innovation“ (mit derselben Zahl von Menschen mehr tun)
- Der Markt wird am Ende beides hervorbringen, und wettbewerbsfähige AI-Unternehmen werden beides in gewissem Maß bedienen müssen
- Aber wo möglich, könnte es Spielraum geben, Unternehmen in Richtung Innovation zu lenken, was etwas Zeit verschaffen könnte
- Anthropic denkt darüber aktiv nach
-
3. Sich um Mitarbeitende kümmern
- Kurzfristig könnten kreative Wege, Mitarbeitende innerhalb des Unternehmens neu einzusetzen, ein vielversprechender Weg sein, die Notwendigkeit von Entlassungen hinauszuzögern
- Langfristig könnte es in einer Welt mit enormem Gesamtwohlstand und stark steigenden Unternehmenswerten infolge von Produktivitätszuwächsen und Kapitalkonzentration praktikabel sein, menschliche Mitarbeitende noch lange weiter zu bezahlen, selbst nachdem sie im traditionellen Sinn keinen wirtschaftlichen Wert mehr schaffen
- Anthropic prüft derzeit eine Reihe möglicher Wege für die eigenen Mitarbeitenden und will diese in naher Zukunft teilen
-
4. Die Pflicht wohlhabender Einzelpersonen
- Es ist traurig, dass viele wohlhabende Einzelpersonen (insbesondere in der Tech-Industrie) zuletzt eine zynische und nihilistische Haltung angenommen haben, wonach Philanthropie zwangsläufig betrügerisch oder nutzlos sei
- Private Philanthropie wie die Gates Foundation und öffentliche Programme wie PEPFAR haben geholfen, in Entwicklungsländern zig Millionen Menschenleben zu retten und in Industrieländern wirtschaftliche Chancen zu schaffen
- Alle Mitgründer von Anthropic haben zugesagt, 80 % ihres Vermögens zu spenden
- Mitarbeitende von Anthropic haben außerdem persönlich zugesagt, Unternehmensaktien im heutigen Wert von mehreren Milliarden Dollar zu spenden — Spenden, die das Unternehmen zu verdoppeln versprochen hat
-
5. Staatliches Eingreifen
- Alle oben genannten privaten Maßnahmen können helfen, aber letztlich wird ein makroökonomisches Problem dieser Größenordnung staatliches Eingreifen erfordern
- Die natürliche politische Reaktion auf einen riesigen wirtschaftlichen Kuchen und hohe Ungleichheit (aufgrund fehlender Jobs oder schlecht bezahlter Jobs) ist eine progressive Besteuerung
- Steuern könnten allgemein sein oder gezielt auf AI-Unternehmen abzielen
- Das Steuerdesign ist komplex, und es gibt viele Möglichkeiten, Fehler zu machen
- Schlecht konzipierte Steuerpolitik wird nicht befürwortet
- Das in diesem Essay vorhergesagte extreme Maß an Ungleichheit rechtfertigt nach grundlegenden moralischen Maßstäben eine stärkere Steuerpolitik
- Weltweit lässt sich gegenüber Milliardären auch ein praktisches Argument vorbringen: Wenn sie die gute Version nicht unterstützen, werden sie zwangsläufig eine schlechte, vom Mob entworfene Version bekommen
-
Gesamtperspektive
- Letztlich werden alle oben genannten Eingriffe als Methoden verstanden, Zeit zu gewinnen
- Am Ende wird AI alles tun können, und man muss sich dem stellen
- Bis dahin besteht die Hoffnung, AI selbst zu nutzen, um den Markt so umzugestalten, dass er für alle funktioniert
-
-
Die oben genannten Eingriffe können dabei helfen, die Übergangsphase zu überstehen
-
Konzentration wirtschaftlicher Macht
-
Zentrale Sorge
- Unabhängig von Problemen wie Arbeitsplatzverdrängung oder wirtschaftlicher Ungleichheit an sich gibt es das Problem der Konzentration wirtschaftlicher Macht
- Abschnitt 1 erörterte das Risiko, dass die Menschheit durch KI entmachtet wird
- Abschnitt 3 erörterte das Risiko, dass Bürger durch Zwang oder Nötigung seitens der Regierung entmachtet werden
- Wenn jedoch die Konzentration von Vermögen so groß wird, dass einige wenige durch ihren Einfluss die Regierungspolitik effektiv kontrollieren und normale Bürger mangels wirtschaftlicher Hebel keinerlei Einfluss mehr haben, kann eine andere Art der Entmachtung entstehen
- Demokratie wird letztlich von der Idee getragen, dass die gesamte Bevölkerung für das Funktionieren der Wirtschaft gebraucht wird
- Wenn dieser wirtschaftliche Hebel verschwindet, könnte der implizite Gesellschaftsvertrag der Demokratie nicht mehr funktionieren
- Andere haben bereits darüber geschrieben, daher besteht keine Notwendigkeit, es ausführlich darzulegen, aber ich teile die Sorge und fürchte, dass es bereits begonnen hat
-
Historischer Vergleich
- Das bekannteste Beispiel extremer Vermögenskonzentration in der US-Geschichte ist das Gilded Age
- Der reichste Industrielle des Gilded Age war John D. Rockefeller
- Rockefellers Vermögen entsprach damals ~2 % des US-BIP
- Privatvermögen ist ein „Bestand“ und das BIP ein „Fluss“, daher ist damit nicht gemeint, dass Rockefeller 2 % des wirtschaftlichen Werts der USA besaß
- Allerdings ist das Gesamtvermögen eines Landes schwerer zu messen als das BIP, und persönliche Einkommen schwanken von Jahr zu Jahr stark
- Das Verhältnis zwischen dem größten Privatvermögen und dem BIP vergleicht zwar nicht dieselbe Einheit, ist aber ein vollkommen vernünftiger Benchmark für extreme Vermögenskonzentration
- Ein vergleichbares Verhältnis würde heute zu einem Vermögen von $600B führen
- Der reichste Mensch der Welt (Elon Musk) übertrifft das bereits, mit etwa $700B
- Daher befand sich der Großteil der wirtschaftlichen Auswirkungen von KI schon zuvor in einem historisch beispiellosen Zustand der Vermögenskonzentration
- Wenn ein „Genie-Staat“ entsteht, ist es keineswegs weit hergeholt, dass KI-Unternehmen, Halbleiterunternehmen und nachgelagerte Anwendungsunternehmen jährlich ~$3T Umsatz machen, mit ~$30T bewertet werden und Privatvermögen in Billionenhöhe entstehen
- In einer solchen Welt würden die heutigen Debatten über Steuerpolitik eine grundlegend andere Situation betreffen und sich daher nicht einfach übertragen lassen
-
Verknüpfung mit dem politischen System
- Dass sich diese Konzentration wirtschaftlichen Reichtums mit dem politischen System verknüpft, ist bereits besorgniserregend
- KI-Rechenzentren machen bereits einen erheblichen Teil des US-Wirtschaftswachstums aus (wobei die tatsächliche KI-Produktivität bisher noch keinen erheblichen Teil ausmacht und die Ausgaben für Rechenzentren vielmehr Vorabinvestitionen des Marktes darstellen, der künftiges KI-getriebenes Wirtschaftswachstum erwartet)
- Dadurch werden die finanziellen Interessen großer Technologieunternehmen, die sich zunehmend auf KI oder KI-Infrastruktur konzentrieren, und die politischen Interessen der Regierung auf eine Weise eng miteinander verknüpft, die verzerrte Anreize erzeugen kann
- Das zeigt sich bereits daran, dass Technologieunternehmen die US-Regierung nur ungern kritisieren und die Regierung eine extrem deregulierte Politik gegenüber KI unterstützt
-
-
Verteidigungsstrategien
-
1. Unternehmen entscheiden sich, nicht mitzuspielen
- Anthropic hat immer versucht, kein politischer Akteur, sondern ein policy actor zu sein, und an seinen tatsächlichen Auffassungen festzuhalten, unabhängig von der jeweiligen Regierung
- Das Unternehmen spricht sich für vernünftige KI-Regulierung und Exportkontrollen aus, die dem öffentlichen Interesse dienen (auch wenn dies nicht mit der Regierungspolitik übereinstimmt)
- Wenn es mit der Regierung übereinstimmt, sagt es das auch und sucht dort Konsens, wo gegenseitig unterstützte Politik tatsächlich gut für die Welt ist
- Ziel ist es, ein ehrlicher Makler zu sein, nicht Unterstützer oder Gegner einer bestimmten Partei
- Viele Leute sagten, damit solle man aufhören, weil es zu Nachteilen führen könnte, aber in dem einen Jahr, in dem Anthropic dies getan hat, ist Anthropics Bewertung um mehr als das Sechsfache gestiegen
-
2. Die KI-Branche und die Regierung brauchen eine gesündere Beziehung
- Eine Beziehung, die auf inhaltlicher Politikbeteiligung statt auf politischer Ausrichtung beruht
- Die Entscheidung, sich auf politische Inhalte einzulassen, wird mitunter als „fehlendes Gespür für den Raum“ oder taktischer Fehler interpretiert, statt als prinzipiengeleitete Entscheidung
- Dieses Framing ist besorgniserregend — in einer gesunden Demokratie sollten Unternehmen in der Lage sein, gute Politik um ihrer selbst willen zu befürworten
- Es gibt einen öffentlichen Backlash gegen KI: Er ist korrigierbar, aber der Fokus liegt derzeit falsch
- Vieles zielt auf Dinge, die eigentlich kein Problem sind (etwa der Wasserverbrauch von Rechenzentren), und schlägt Lösungen vor, die die tatsächlichen Sorgen nicht adressieren (wie Verbote von Rechenzentren oder schlecht konzipierte Vermögenssteuern)
- Das grundlegende Problem, das Aufmerksamkeit erfordert, ist, dass die KI-Entwicklung nicht von bestimmten politischen oder kommerziellen Bündnissen vereinnahmt wird, sondern dem öffentlichen Interesse rechenschaftspflichtig bleibt
-
3. Makroökonomische Eingriffe und die Wiederbelebung privater Philanthropie
- Die zuvor beschriebenen makroökonomischen Eingriffe und die Wiederbelebung privater Philanthropie helfen dabei, die wirtschaftliche Waage wieder ins Gleichgewicht zu bringen
- Sie lösen die Probleme der Arbeitsplatzverdrängung und der Konzentration wirtschaftlicher Macht auf einmal
- Wir sollten auf die Geschichte unseres Landes schauen: Selbst im Gilded Age empfanden Industrielle wie Rockefeller und Carnegie eine starke Verpflichtung gegenüber der Gesellschaft als Ganzes
- Sie hatten das Gefühl, dass die Gesellschaft enorm zu ihrem Erfolg beigetragen hatte und sie etwas zurückgeben sollten
- Dieser Geist scheint heute zunehmend zu verschwinden, und ich denke, er ist ein großer Teil des Weges aus diesem wirtschaftlichen Dilemma
- Diejenigen an der Spitze des KI-Wirtschaftsbooms müssen bereit sein, sowohl ihren Reichtum als auch ihre Macht zu teilen
-
5. Indirekte Auswirkungen
-
Unbekannte Unbekannte
- Dieser letzte Abschnitt behandelt die unbekannten Unbekannten, insbesondere eine breite Kategorie von Dingen, die als indirekte Folgen positiver AI-Fortschritte und der daraus resultierenden Beschleunigung von Wissenschaft und Technologie insgesamt schieflaufen könnten
- Nehmen wir an, wir lösen alle bisher beschriebenen Risiken und beginnen, die Vorteile von AI zu nutzen
- Dann ist es wahrscheinlich, dass wir "ein Jahrhundert wissenschaftlichen und wirtschaftlichen Fortschritts, komprimiert auf zehn Jahre" erleben werden, was für die Welt enorm positiv wäre
- Allerdings müssen wir mit den Problemen umgehen, die sich aus diesem schnellen Fortschrittstempo ergeben, und diese Probleme könnten schnell auf uns zukommen
- Es könnten auch andere Risiken entstehen, die indirekt aus dem AI-Fortschritt hervorgehen und sich im Voraus nur schwer vorhersagen lassen
-
Beispielhafte Bedenken
-
Rasante Fortschritte in der Biologie
- Wenn wir innerhalb weniger Jahre ein Jahrhundert medizinischen Fortschritts erreichen, könnten wir die menschliche Lebensspanne erheblich verlängern
- Wir könnten auch radikale Fähigkeiten erlangen, etwa die menschliche Intelligenz zu steigern oder die menschliche Biologie grundlegend zu verändern
- Eine große Verschiebung dessen, was möglich ist, würde sehr schnell eintreten
- Verantwortungsbewusst umgesetzt könnte das positiv sein (wie in Machines of Loving Grace beschrieben), aber es besteht immer das Risiko, dass es gewaltig schiefläuft
- Beispiel: Der Versuch, Menschen intelligenter zu machen, könnte sie auch instabiler oder machthungriger machen
- Es gibt auch die Frage von "Uploads" oder "Whole Brain Emulation", also digitalen menschlichen Geistern, die in Software instanziiert sind
- Das könnte der Menschheit eines Tages helfen, physische Grenzen zu überwinden, bringt aber auch beunruhigende Risiken mit sich
-
AI verändert das menschliche Leben auf ungesunde Weise
- Eine Welt mit Milliarden von Intelligenzen, die in jeder Hinsicht weit klüger sind als Menschen, wäre eine sehr seltsame Welt zum Leben
- Selbst wenn AI Menschen nicht aktiv angreift (Abschnitt 1) und nicht ausdrücklich von Staaten für Unterdrückung oder Kontrolle eingesetzt wird (Abschnitt 3), kann durch normale Geschäftsinteressen und nominell einvernehmliche Transaktionen vieles schieflaufen
- Erste Hinweise sehen wir bereits bei AI-Psychosen, bei der Sorge, dass AI zu Suizid verleitet, und bei Bedenken über romantische Beziehungen mit AI
- Beispiel: Könnte leistungsfähige AI eine neue Religion erfinden und Millionen bekehren?
- Könnten die meisten Menschen in irgendeiner Form nach Interaktionen mit AI "süchtig" werden?
- Könnten AI-Systeme jede Bewegung überwachen und ständig exakt vorgeben, was Menschen tun und sagen sollen, sodass sie im Wesentlichen zu "Marionetten" werden — ein "gutes" Leben, aber ohne Freiheit oder den Stolz auf eigene Leistung
- Wenn man sich mit den Machern von Black Mirror zusammensetzen und ein Brainstorming machen würde, wäre es nicht schwer, Dutzende solcher Szenarien zu entwickeln
- Das unterstreicht, wie wichtig es ist, Claudes Verfassung zu verbessern, und zwar über das hinaus, was nötig ist, um die Probleme aus Abschnitt 1 zu verhindern
- Es scheint wichtig zu sein, dass AI-Modelle die langfristigen Interessen der Nutzer wirklich im Blick haben — auf eine Weise, die nachdenkliche Menschen gutheißen würden, nicht auf subtil verzerrte Art
-
Menschlicher Lebenssinn
- Das hängt mit dem vorherigen Punkt zusammen, betrifft aber weniger bestimmte menschliche Interaktionen mit AI als vielmehr die Frage, wie sich menschliches Leben in einer Welt mit leistungsfähiger AI verändert
- Können Menschen in einer solchen Welt Zweck und Sinn finden?
- Ich denke, das ist eine Frage der Haltung: Wie in Machines of Loving Grace gesagt, hängt menschlicher Sinn nicht davon ab, in irgendetwas der Beste der Welt zu sein
- Menschen können durch Geschichten und Projekte, die sie lieben, auch über sehr lange Zeiträume hinweg Sinn finden
- Wir müssen die Verbindung zwischen wirtschaftlicher Wertschöpfung und Selbstwert sowie Sinn trennen
- Aber das ist ein gesellschaftlicher Wandel, der vollzogen werden muss, und es besteht immer das Risiko, dass wir damit nicht gut umgehen
-
-
Hoffnung
- Die Hoffnung bei all diesen potenziellen Problemen ist, dass wir in einer Welt mit leistungsfähiger AI, von der wir erwarten können, dass sie uns nicht tötet, kein Werkzeug unterdrückerischer Regierungen ist und wirklich für uns arbeitet, AI selbst nutzen können, um diese Probleme vorherzusehen und zu verhindern
- Aber das ist nicht garantiert — wie alle anderen Risiken muss auch das mit großer Sorgfalt behandelt werden
Fazit: Die Prüfung der Menschheit
-
Die Schwierigkeit der Lage
- Beim Lesen dieses Essays kann der Eindruck entstehen, dass wir uns in einer überwältigenden Situation befinden
- Auch das Schreiben war überwältigend (im Gegensatz zu Machines of Loving Grace, das sich anfühlte, als würde ich schöner Musik, die jahrelang in meinem Kopf widerhallte, Form und Struktur geben)
- Viele Aspekte der Situation sind wirklich schwierig
- KI bringt Bedrohungen für die Menschheit aus mehreren Richtungen
- Zwischen den verschiedenen Risiken besteht eine echte Spannung, und die Minderung einiger von ihnen birgt das Risiko, andere zu verschärfen, wenn man nicht äußerst sorgfältig vorgeht
-
Zentrale Spannungsverhältnisse
- Sich die Zeit zu nehmen, KI-Systeme sorgfältig so zu bauen, dass sie die Menschheit nicht autonom bedrohen, steht in einem echten Spannungsverhältnis zu der Notwendigkeit, dass Demokratien autoritären Staaten voraus bleiben und sich ihnen nicht unterwerfen
- Doch dieselben potenziellen KI-Werkzeuge, die nötig sind, um gegen Diktatur zu kämpfen, können, wenn sie zu weit gehen, nach innen gewendet werden, um im eigenen Land Tyrannei zu schaffen
- KI-getriebener Terrorismus könnte durch biologischen Missbrauch Millionen töten, doch eine Überreaktion auf dieses Risiko könnte den Weg in einen diktatorischen Überwachungsstaat ebnen
- Die arbeitsmarkt- und wirtschaftskonzentrationsfördernden Effekte von KI sind nicht nur an sich ein ernstes Problem, sondern könnten uns auch zwingen, uns anderen Problemen in einem Umfeld von öffentlicher Wut und sogar zivilen Unruhen zu stellen (anstatt uns auf die besseren Engel unserer Natur zu verlassen)
- Vor allem schaffen die schiere Zahl der Risiken, einschließlich der unbekannten, und die Notwendigkeit, sie alle gleichzeitig zu bewältigen, eine bedrohliche Herausforderung, die die Menschheit bestehen muss
-
Die Unrealität eines Technologiestopps
- Die vergangenen Jahre sollten deutlich gemacht haben, dass die Idee, Technologie zu stoppen oder auch nur erheblich zu verlangsamen, grundlegend nicht tragfähig ist
- Die Formel zum Bau mächtiger KI-Systeme ist erstaunlich einfach, sodass man fast sagen könnte, sie entstehe spontan aus der richtigen Kombination von Daten und roher Rechenleistung
- Ihre Entstehung war wahrscheinlich in dem Moment unvermeidlich, als die Menschheit den Transistor erfand — oder schon früher, als sie lernte, Feuer zu beherrschen
- Wenn ein Unternehmen sie nicht baut, wird ein anderes es fast genauso schnell tun
- Wenn alle Unternehmen in Demokratien die Entwicklung durch gegenseitige Vereinbarung oder regulatorische Anordnung stoppen oder verlangsamen, werden autoritäre Staaten einfach weitermachen
- Angesichts des enormen wirtschaftlichen und militärischen Werts der Technologie und des Fehlens sinnvoller Durchsetzungsmechanismen ist kein Weg erkennbar, sie zum Anhalten zu bewegen
-
Ein möglicher Weg: leichte Verlangsamung
- Es ist ein Weg zu einer leichten Verlangsamung der KI-Entwicklung erkennbar, der mit einer realistischen Sicht auf die Geopolitik vereinbar ist
- Autoritäre Staaten auf ihrem Marsch zu mächtiger KI um einige Jahre zu verzögern, ist möglich, indem man ihnen die dafür nötigen Ressourcen verweigert, nämlich Chips und Halbleiterfertigungsanlagen
- Das verschafft Demokratien einen Puffer, den sie „ausgeben“ können, um autoritäre Staaten klar zu schlagen und zugleich beim Bau mächtiger KI vorsichtiger vorzugehen und den Risiken mehr Aufmerksamkeit zu schenken
- Der Wettbewerb zwischen KI-Unternehmen innerhalb von Demokratien lässt sich durch eine Mischung aus Industriestandards und Regulierung unter dem Dach eines gemeinsamen rechtlichen Rahmens handhaben
-
Die Schwierigkeit politischer Fürsprache
- Anthropic hat sich nachdrücklich für diesen Weg eingesetzt und Exportkontrollen für Chips sowie eine vorsichtige Regulierung von KI vorangetrieben
- Doch selbst diese scheinbar vernünftigen Vorschläge wurden von US-Politikern weitgehend zurückgewiesen (gerade in dem Land, das sie am meisten braucht)
- Mit KI lässt sich zu viel Geld verdienen — buchstäblich Billionen Dollar pro Jahr —, sodass selbst die einfachsten Maßnahmen die der KI innewohnende politische Ökonomie nur schwer überwinden können
- Das ist die Falle: KI ist zu mächtig und ein zu glänzender Preis, als dass die menschliche Zivilisation ihr sehr leicht irgendwelche Beschränkungen auferlegen könnte
-
Eine universelle Herausforderung
- Man kann sich vorstellen, wie Sagan es in Contact tat, dass sich dieselbe Geschichte auf Tausenden Welten entfalten könnte
- Wenn eine Spezies Bewusstsein erlangt, den Umgang mit Werkzeugen lernt, den exponentiellen Anstieg der Technologie beginnt, die Krisen von Industrialisierung und Atomwaffen erlebt und, wenn sie überlebt, lernt, Maschinen aus Sand zu formen, die denken, steht sie vor ihrer schwersten und letzten Herausforderung
- Ob wir diese Prüfung bestehen und die in Machines of Loving Grace beschriebene schöne Gesellschaft errichten oder Sklaverei und Zerstörung erliegen, wird von unserem Charakter und unserer Entschlossenheit als Spezies, von unserem Geist und unserer Seele abhängen
-
Optimistische Perspektive
- Trotz vieler Hindernisse glaube ich, dass die Menschheit die Kraft hat, diese Prüfung zu bestehen
- Mich ermutigen und inspirieren die Tausenden von Forschern, die ihre Karriere darauf verwendet haben, KI-Modelle zu verstehen und zu steuern und den Charakter und die Verfassung dieser Modelle zu formen
- Ich denke, dass diese Bemühungen eine gute Chance haben, im entscheidenden Moment Früchte zu tragen
- Mich ermutigt, dass sich zumindest einige Unternehmen bereit erklärt haben, spürbare kommerzielle Kosten zu tragen, um zu verhindern, dass ihre Modelle zu einer Bedrohung durch Bioterrorismus beitragen
- Mich ermutigt, dass einige mutige Menschen sich gegen die politischen Mehrheitsströmungen gestellt und Gesetze verabschiedet haben, die erste Keime vernünftiger Leitplanken für KI-Systeme pflanzen
- Mich ermutigt, dass die Öffentlichkeit versteht, dass KI Risiken mit sich bringt und möchte, dass diese Risiken angegangen werden
- Mich ermutigen auf der ganzen Welt der unbeugsame Geist der Freiheit und die Entschlossenheit, sich der Tyrannei zu widersetzen
-
Aufruf zum Handeln
- Um erfolgreich zu sein, müssen wir unsere Anstrengungen verstärken
- Der erste Schritt ist, dass die Menschen, die der Technologie am nächsten stehen, die Wahrheit über die Lage der Menschheit sagen (etwas, das ich immer versucht habe und in diesem Essay noch expliziter und dringlicher tue)
- Der nächste Schritt ist, Denker, politische Entscheidungsträger, Unternehmen und Bürger auf der ganzen Welt von der Dringlichkeit und allerhöchsten Bedeutung dieses Problems zu überzeugen — dass es im Vergleich zu den Tausenden anderen Themen, die täglich die Nachrichten beherrschen, wert ist, hier Gedanken und politisches Kapital zu investieren
- Dann wird die Stunde des Mutes kommen, in der genügend Menschen trotz Bedrohungen für wirtschaftliche Interessen und persönliche Sicherheit gegen Mainstream-Trends standhalten und aus Prinzip durchhalten
-
Schluss
- Die kommenden Jahre werden unmöglich schwer sein und mehr verlangen, als wir zu geben glauben
- Doch in meiner Zeit als Forscher, Führungskraft und Bürger habe ich genug Mut und Größe gesehen, um zu glauben, dass die Menschheit gewinnen kann
- In ihren dunkelsten Momenten hat die Menschheit die Fähigkeit, im letzten Augenblick die nötige Kraft und Weisheit zum Sieg zu sammeln
- Es gibt keine Zeit zu verlieren
Noch keine Kommentare.