14 Punkte von GN⁺ 2026-02-26 | 2 Kommentare | Auf WhatsApp teilen
  • Das KI-Forschungsunternehmen Anthropic hat ein zentrales Versprechen seiner wichtigsten Sicherheitsrichtlinie, der Responsible Scaling Policy (RSP), zurückgezogen
  • Zuvor hatte das Unternehmen zugesagt, das Training von KI-Modellen zu stoppen, falls Sicherheitsmaßnahmen nicht ausreichend gewährleistet seien; in der neuen Richtlinie wurde dieser Passus gestrichen
  • Die neue RSP verspricht mehr Transparenz und Sicherheitsanstrengungen mindestens auf dem Niveau der Konkurrenz und hält fest, dass die Entwicklung bei schwerwiegenden Risiken „verzögert“ werden könne
  • Das Unternehmen erklärt, die Änderung sei nicht durch Marktdruck verursacht, sondern eine Reaktion auf politische und wissenschaftliche Realitäten
  • Fachleute bewerten den Schritt als Signal dafür, dass die gesellschaftliche Vorbereitung auf das Risiko einer KI-Katastrophe unzureichend ist

Hintergrund der Änderungen an der RSP (Responsible Scaling Policy)

  • Anthropic kündigte 2023 an, keine KI-Systeme zu trainieren, wenn Sicherheitsmaßnahmen nicht ausreichend nachgewiesen seien
    • Dies war eine zentrale Richtlinie, die das Unternehmensbild stärkte, Sicherheit über den Marktwettbewerb zu stellen
  • Kürzlich hat das Unternehmen die RSP umfassend überarbeitet und das Versprechen zurückgezogen, ohne vorherige Sicherheitsgarantien keine Modelle zu veröffentlichen
  • Jared Kaplan (Chief Science Officer) erklärte, „ein einseitiges Versprechen sei angesichts der Geschwindigkeit des KI-Fortschritts nicht realistisch“

Die wichtigsten Inhalte der neuen Richtlinie

  • Die neue RSP umfasst mehr Transparenz bei KI-Sicherheitsrisiken
    • Anthropic will zusätzliche Ergebnisse von Sicherheitstests seiner Modelle offenlegen und festhalten, Sicherheitsmaßnahmen mindestens auf dem Niveau der Konkurrenz beizubehalten oder zu übertreffen
  • Falls das Unternehmen im KI-Wettlauf vorne liegt und das Risiko einer Katastrophe als hoch eingeschätzt wird, kann es die Entwicklung „verzögern“
  • Eine klare Grenzlinie, die wie früher das Training von Modellen ab einem bestimmten Niveau untersagt, existiert jedoch nicht mehr

Industrieller Kontext der Richtlinienänderung

  • Anthropic erzielt derzeit kommerzielle Erfolge mit dem Claude-Modell und Claude Code
    • Im Februar 2026 wurden eine Kapitalaufnahme von 30 Milliarden US-Dollar, eine Bewertung von rund 380 Milliarden US-Dollar und ein verzehnfachtes jährliches Umsatzwachstum gemeldet
  • Das B2B-orientierte Geschäftsmodell des Unternehmens gilt als verlässlicher als die verbraucherorientierte Strategie von OpenAI
  • Kaplan betonte, die Änderung sei nicht auf Marktdruck zurückzuführen, sondern eine pragmatische Anpassung an veränderte politische und wissenschaftliche Rahmenbedingungen

Regulatorische und wissenschaftliche Grenzen

  • Bei der Einführung der RSP hatte Anthropic gehofft, dass andere Unternehmen ähnliche Maßnahmen übernehmen würden, doch dazu kam es nicht
  • Es folgten das Fehlen eines bundesweiten KI-Regulierungsgesetzes in den USA, die deregulatorische Linie der Trump-Regierung und das Scheitern internationaler Zusammenarbeit
  • Auch die Komplexität der Wissenschaft zur KI-Evaluierung wird als Problem genannt
    • 2025 erklärte Anthropic, man könne nicht ausschließen, dass die eigenen Modelle für Bioterrorismus missbraucht werden könnten, doch es fehlte an wissenschaftlicher Grundlage, um dies zu belegen

Interne Diskussionen und Entscheidungsprozess

  • Rund ein Jahr lang diskutierte die Unternehmensführung über eine Neugestaltung der RSP für das neue Umfeld
    • Ein zentraler Punkt war das Gründungsprinzip, dass für KI-Sicherheitsforschung Frontline-Modelle direkt entwickelt werden müssen
  • Laut Kaplan kam CEO Dario Amodei zu dem Schluss, „dass es sogar gefährlicher wäre, wenn nur Anthropic stoppt, während die Konkurrenz weiterentwickelt“
  • In der Einleitung der neuen RSP heißt es: „Wenn der Entwickler mit den schwächsten Schutzmaßnahmen das Tempo bestimmt, verlieren verantwortungsvolle Entwickler ihre Fähigkeit zur Sicherheitsforschung“

Externe Bewertungen und Sorgen

  • Chris Painter (Policy Director bei METR) bewertet die Änderung als nachvollziehbar, sieht darin aber auch, dass die gesellschaftliche Vorbereitung auf KI-Katastrophenrisiken unzureichend ist
    • Er sagte, Anthropic habe in einen Notfallmodus (Triage-Modus) gewechselt, weil Risikobewertung und Methoden zur Risikominderung mit dem Tempo des technischen Fortschritts nicht Schritt halten
  • Painter bewertete die transparente Risikoberichterstattung und die Veröffentlichung einer Sicherheits-Roadmap in der neuen Richtlinie positiv,
    • warnte jedoch, dass mit dem Wegfall der binären Stopp-Schwelle (binary threshold) der früheren RSP ein „Frosch-im-kochenden-Wasser-Effekt“ entstehen könne, bei dem Risiken schleichend zunehmen

Künftige Pläne und Offenlegungszusagen

  • Anthropic erklärt, die neue RSP bewahre die zentralen Vorteile der bisherigen Richtlinie
    • In der Vergangenheit wirkten Beschränkungen bei der Modellveröffentlichung als Anreiz für die Entwicklung von Sicherheitsmaßnahmen
    • Um diesen Anreiz auch in der neuen Richtlinie zu erhalten, will das Unternehmen regelmäßig „Frontier Safety Roadmaps“ veröffentlichen
  • Außerdem sollen alle 3 bis 6 Monate „Risk Reports“ erscheinen, die
    • Fähigkeiten der Modelle, Bedrohungsszenarien, Maßnahmen zur Risikominderung und das gesamte Risikoniveau bewerten
  • Kaplan betonte: „Wenn Wettbewerber transparent mit katastrophalen Risiken umgehen, wird Anthropic gleichwertige oder höhere Sicherheitsstandards einhalten“

2 Kommentare

 
tsboard 2026-02-26

Selbst wenn Anthropic noch so stur bleibt, muss es am Ende wohl doch tun, was das US-Verteidigungsministerium vorgibt. War es letztlich nicht absehbar, dass es genau so kommen würde?

 
GN⁺ 2026-02-26
Hacker-News-Kommentare
  • Dass Anthropic als Begründung für die Rücknahme seines Versprechens, das Training von AI-Modellen auszusetzen, angab, „weil die Konkurrenz voraus ist“, zeigt letztlich wohl, dass es am Ende ums Geld geht
    Es klingt nach der Logik: „Wenn alle Hunde treten, müssen wir das auch tun.“
    Die Leute glaubten, Anthropic sei ein „gutes Unternehmen“, aber am Ende verfolgen sie alle nur den Profit

    • Anthropic kann nicht die Vernunft des Marktes verkörpern. Diese Rolle muss ein staatliches Regulierungs- und Aufsichtssystem übernehmen
      In der Realität stehen die meisten AI-Unternehmen aber unter einer „Regierung auf dem Papier“
    • Tatsächlich ist „Nur gewinnen zählt“ in fast jeder Branche die übliche Realität
      Das ist kein Problem nur von AI-Unternehmen, aber deshalb ist es noch lange nicht gerechtfertigt
    • Wenn am Ende doch nur Geld zählt, dann stimme ich mit meinem Geldbeutel ab und habe mein Max-Abo gekündigt
    • Wenn Wettbewerb ohne Regulierung sich selbst überlassen wird, verursachen am Ende alle erfolgreichen Unternehmen Betrug und Schaden
      Deshalb sind Regeln zu Sicherheit, Umwelt und Korruptionsbekämpfung zwingend nötig
  • Wirkt wie der typische Zyklus eines AI-Startups
    „Lasst uns einen Burggraben bauen, um die Menschheit zu retten“ → „Lasst uns Open-Source-Konkurrenten regulieren“ → „Sicherheit stört die Q3-Zahlen“

    • Am Ende läuft es auf die Aussage hinaus, dass das Budget des Pentagon wichtiger sei als Sicherheit
    • Sobald sie Marktführer sind, werden sie über von ihnen finanzierte Non-Profits staatliche Regulierung anschieben
    • Erstaunlich ist, wie unglaublich schnell dieser Wandel eingetreten ist
    • Nicht nur bei AI, auch andere Unternehmen, die mit dem Wort „open“ werben, sind ähnlich
      In Wirklichkeit sind sie geschlossen und gaslighten die Leute damit, sie seien „offen“
    • Auch Politiker mögen Regulierung. Vor allem, so der spöttische Kommentar, wenn Wein und Steak dazu serviert werden
  • Ich habe früher bei Anthropic gearbeitet, und Leute wie Jared Kaplan haben sich aufrichtig darum bemüht, Sicherheitsforschung und Frontier-Technologie in Balance zu halten
    Diese Entscheidung ist aber enttäuschend. Ich glaubte, die „Responsible Scaling Policy“ sei ein substanzielles Versprechen, das selbst in solchen Situationen eingehalten würde
    Dieses Versprechen ließ Anthropic wie „das am wenigsten riskante Labor“ erscheinen, aber dieses Signal ist jetzt schwächer geworden
    Ich mache mir Sorgen, dass künftig der Erhalt des eigenen Postens wichtiger wird als Prinzipien

    • Zu sagen „Ich hoffe, sie handeln nach ihren Werten“ könnte eine allzu naive Erwartung sein
      Wenn aber noch Werte übrig sind, halte ich es trotzdem für besser, wenigstens unter Labs ohne jede Werte noch Einfluss auszuüben
    • Wenn man selbst die RSUs (Aktienvergütung) nicht aufgibt, kann man das auch vom Management nicht erwarten
      Moralische Verantwortung müssen wir alle mittragen
    • Das Versprechen ist rechtlich nicht bindend, hat aber Bedeutung als Signal an den Markt
      Dass sie dieses Signal selbst zurückziehen, bedeutet, dass sie sich nun an einen anderen Markt wenden wollen
    • Ich hatte letztes Jahr ein Vorstellungsgespräch bei Anthropic, und es wirkte wie eine Ethik-Show
      Bewerber mussten einen Aufsatz über AI-Sicherheit schreiben, und alle spielten das Theater vom „Retten der Welt“ mit
      Aber jetzt, wo Geld auf dem Spiel steht, sagt plötzlich niemand mehr etwas
    • Solche Prinzipien können letztlich nur auf Regierungsebene aufrechterhalten werden
      Unternehmen können strukturell ihrem Instinkt zur Gewinnmaximierung nicht entkommen
  • Diese Entscheidung erinnert an den Moment, als Mozilla DRM akzeptierte
    Nicht perfekt, aber Anthropic versucht immerhin noch, ein Mindestmaß an Verantwortungsbewusstsein zu zeigen
    Im Vergleich zu OpenAI gibt es dort zumindest vorerst noch eher Grund für Vertrauen

  • Die Überschrift des Artikels ist übertrieben. In dieser Kontroverse geht es nicht um Verhandlungen mit dem Pentagon, sondern um die von Anthropic veröffentlichte Responsible Scaling Policy 3.0

    • Natürlich kann man nicht mit Sicherheit sagen, dass beide Themen völlig nichts miteinander zu tun haben
      Im Gegenteil, es könnte auch eine präventive Maßnahme sein
    • Ich halte diese Richtlinienänderung sogar für die gravierendere Veränderung als das Pentagon-Thema
  • Es gab Druck vonseiten der Regierung, aber der Artikel erwähnt das überhaupt nicht

    • Laut zugehöriger Berichterstattung wurde ein Treffen zwischen Hegseth und Anthropic-CEO Dario Amodei bestätigt
    • Deshalb, so eine Meinung, habe man wohl den Exklusivbericht bekommen
    • Manche sehen darin Meinungsmanipulation (Consent manufacturing)
    • Kritisiert wird, dass im Artikel nicht einmal der Name Hegseth vorkommt
  • Ein Beitrag, der mit „Als man anfangs Modelle ohne Sicherheitsprüfung veröffentlichte, sagte niemand etwas …“ beginnt, klingt wie eine warnende Parabel
    Am Ende war niemand vorbereitet, und als das Problem auftrat, war es zu spät

    • Diese kollektive Ignoranz ist ein chronisches Problem menschlicher Gesellschaften
    • Warnungen gab es genug, aber die Menschen waren in Gier und kurzfristigem Denken gefangen
    • In HN-Sprache umformuliert waren wir am Ende alle Komplizen dieses Systems
    • Manche meinten auch, es klinge ein bisschen wie der Anfang einer Terminator-Erzählung
    • Realistisch gesehen ist ein Szenario, in dem AI außer Kontrolle gerät, aber noch weit entfernt
      Das eigentliche Problem liegt eher im Bereich Politik und Kultur als in der Technologie
  • Dass das Sicherheitsversprechen gerade jetzt zurückgezogen wurde, ist vielsagend
    Solche Unternehmen halten sich an ethische Kodizes, bis ihre Gewinne bedroht sind, und werfen sie dann sofort über Bord
    Am Ende geht es darum, den Wert von White-Collar-Arbeit zu entwerten
    Werden sie diesen Übergang ethisch gestalten oder den Wohlstand einfach an die Aktionäre umleiten?

    • Dieses Timing könnte auch ein Startsignal für staatlichen Druck sein
    • Aber wenn die Mittelschicht zerbricht, verschwindet am Ende auch die Konsumentenbasis
      Das ist, als würde eine Schlange ihren eigenen Schwanz fressen
    • Slogans wie „Don’t be evil“ sind letztlich nur Verpackung für den Profit
      Das Wesen von Unternehmen ist Gewinnstreben, und das ist an sich nicht schlimm, aber diese moralischen Gesten wirken heuchlerisch
  • Googles „Don’t be evil“ hielt 15 Jahre durch, aber Anthropics Responsible Scaling Policy verschwand nach nur zweieinhalb Jahren
    Die Halbwertszeit des AI-Idealismus wird immer kürzer

  • Schade, dass Anthropic sich verändert, aber realistisch gesehen darf man selbst aus Sicherheitsgründen im Wettbewerb nicht zu weit zurückfallen
    Jetzt ist Pragmatismus gefragt. Anthropic könnte später „böse werden“, aber im Moment ist es noch immer die sicherste Seite

    • Es wurde auch gefragt, warum man Anthropic so vertraut
      Positiv gesehen wird, dass der CEO den militärischen Einsatz von AI abgelehnt hat
    • Solche Veränderungen könnten aber schon ein Signal dafür sein, dass es bereits schlechter wird
      Man sollte wachsam werden, bevor es zu spät ist
    • Es gab auch die zynische Reaktion, dass die Welt wegen der Pragmatiker zugrunde gehe