Anthropic veröffentlicht Erkennung und Abwehr illegaler Destillationsangriffe chinesischer AI-Unternehmen auf Claude
(anthropic.com)Anthropic hat offiziell bekannt gegeben, dass die drei chinesischen AI-Unternehmen DeepSeek, MiniMax und Moonshot AI illegal Fähigkeiten von Claude extrahiert haben.
Umfang des Angriffs
Die drei Unternehmen erstellten insgesamt 24.000 Fake-Accounts und führten damit mehr als 16 Millionen Gespräche mit Claude. Das stellt einen klaren Verstoß gegen die Nutzungsbedingungen von Anthropic und gegen regionale Zugriffsbeschränkungen dar.
Die Merkmale der einzelnen Unternehmen sind wie folgt. DeepSeek konzentrierte sich mit mehr als 150.000 Gesprächen darauf, Fähigkeiten in grundlegender Logik und bei policy-sensitiven Anfragen zu gewinnen. MiniMax erzeugte mit 13 Millionen Gesprächen mehr als 80 % des Gesamtvolumens und fokussierte sich auf agentisches Coding, Tool-Nutzung und Orchestrierung. Anthropic erkannte dies in Echtzeit und identifizierte MiniMax noch bevor das Unternehmen sein Modell veröffentlichte. Besonders auffällig war die Agilität von MiniMax: Als Anthropic ein neues Modell veröffentlichte, verlagerte MiniMax innerhalb von 24 Stunden die Hälfte seines Traffics auf das neue Modell.
Vorgehensweise des Angriffs
Da der Zugriff auf Claude innerhalb Chinas aus Gründen der nationalen Sicherheit blockiert ist, wurde dies über Proxy-Dienste umgangen, die Zehntausende Fake-Accounts betrieben ("hydra cluster"-Architektur). In einem Fall betrieb ein einzelnes Proxy-Netzwerk gleichzeitig mehr als 20.000 Fake-Accounts. Um die Erkennung zu erschweren, wurde der Verkehr mit normalem Nutzer-Traffic vermischt übertragen.
Reaktion von Anthropic
Anthropic hat Klassifikatoren für verhaltensbasierte Erkennung (behavioral fingerprinting) und zur Erkennung von Mustern bei der Extraktion von Chain-of-Thought aufgebaut und teilt technische Indikatoren mit anderen AI-Unternehmen, Cloud-Anbietern und zuständigen Behörden. Außerdem wurden die Verifizierungsprozesse für Wege verschärft, die häufig zur Eröffnung von Fake-Accounts missbraucht werden, etwa Bildungs- und Startup-Accounts.
Perspektive der nationalen Sicherheit
Anthropic stuft dies nicht als bloßen Verstoß gegen die Nutzungsbedingungen ein, sondern als Bedrohung der nationalen Sicherheit. Illegal destillierte Modelle entfernen mit hoher Wahrscheinlichkeit Schutzmechanismen zur Verhinderung der Entwicklung biochemischer Waffen oder zur Blockierung von Cyberangriffen. Damit würden laut Anthropic die US-Exportkontrollen für AI faktisch ausgehebelt. Mit den Worten "Kein Unternehmen kann das allein lösen" fordert das Unternehmen eine gemeinsame Reaktion von Branche, Cloud-Anbietern und politischen Entscheidungsträgern.
Zuvor hatte auch OpenAI den Kongress über ähnliches Verhalten von DeepSeek informiert, weshalb nun voraussichtlich eine koordinierte Reaktion der gesamten US-AI-Industrie intensiver diskutiert wird.
8 Kommentare
OpenAI und Anthropic sind wirklich ein jämmerlicher Anblick: Bei der Basistechnologie und Forschung nutzen sie einfach das, was Google entwickelt hat, und bei den Datensätzen bedienen sie sich durch Piraterie, aber wenn man dann sieht, wie sie im Kongress dafür lobbyieren, Open-Source-Modelle zu kriminalisieren, zeigt das wohl ziemlich deutlich, was Gier ist.
Es ist schon eine Farce, dass ausgerechnet der etablierte Big Tech wie Google und chinesische AI-Unternehmen bei der Veröffentlichung von Forschung aktiver sind.
Wer entwickelt hier bitte angeblich Technologie zum Wohl der Menschheit ... heuchlerisch und irreführend.
Ich stimme zu. Vor allem Anthropic wirkt in letzter Zeit mit praktisch jedem Schritt wirklich unerquicklich. Es scheint, als wären da Leute aufgetaucht, die sogar noch schlimmer als Google sind.
Wenn sie sich untereinander schon so verhalten, zeigt das doch deutlich, dass das Gerede über nationale Sicherheit am Ende nichts weiter als Framing ist...
Vielleicht ist es so, dass einem das, was man selbst aufgebaut hat, zu schade ist, und das, was andere erarbeitet haben, irgendwie gering erscheint.
Vielleicht ist die Zeit des fairen Wettbewerbs vorbei ... denke ich manchmal.
Menschen, die die Schuld für ihren eigenen Diebstahl nicht hinterfragen ...
https://cnbc.com/2026/02/…
Wenn man sieht, dass sie erst jetzt ein Problem darin sehen, nachdem sie bereits an das eigene Verteidigungsministerium geliefert haben, dann wirken die Regeln gegen eine militärische Nutzung meiner Meinung nach nur wie ein Vorwand und in sich widersprüchlich. Es ist eine Gruppe, deren Außendarstellung und tatsächliches Handeln nicht zusammenpassen. Das erinnert mich an jemanden, der behauptet, Geld interessiere ihn nicht, dabei aber geradezu vom Geld besessen ist.
Wenn man darüber nachdenkt, wurden die meisten LLMs ohnehin aus bereits geschriebenen Texten und Daten anderer Leute erstellt...
Wo lässt sich überhaupt die Grenze ziehen, ab wann man das als Piraterie bezeichnen kann?
Wie zu erwarten, hat natürlich auch der chronisch auf X herumhängende Elon Musk seinen Senf dazugegeben
https://x.com/elonmusk/status/2026052687423562228
„Anthropic hat sich des groß angelegten Diebstahls von Trainingsdaten schuldig gemacht und hätte für diesen Diebstahl Schadensersatz in Milliardenhöhe zahlen müssen. Das ist eine unbestreitbare Tatsache.“
Es wirkt ein wenig so, als würden sie das Modell erst einmal illegal hochziehen und sich später dann mit einem kleinen Betrag einigen..