Anthropic - OpenClaw: wieder nutzbar
(docs.openclaw.ai)- Ein Anthropic-Mitarbeiter hat mitgeteilt, dass die Nutzung von Claude CLI im OpenClaw-Stil wieder erlaubt ist
- Sowohl Anthropic-API-Schlüssel als auch die Wiederverwendung von Claude CLI werden unterstützt, und bestehende Anthropic-Token-Profile werden bei der Ausführung weiterhin anerkannt
- Das Claude-CLI-Backend wird wieder als zulässige Integrationsmethode behandelt; bis zur Ankündigung einer neuen Richtlinie ist auch die Nutzung von
claude -perlaubt - Bei Claude-4.6-Modellen wird standardmäßig adaptive thinking angewendet, wenn keine explizite Thinking-Einstellung gesetzt ist; überschrieben werden kann dies mit
/think:<level>oder über Modellparameter - Der
/fast-Schalter injiziert service_tier nur bei Anfragen, die direkt anapi.anthropic.comgehen; über Proxy oder Gateway greift die Tier-Änderung nicht - Prompt Caching und das 1M context window werden ebenfalls unterstützt, aber Caching ist nur für die API verfügbar, und der 1M-Kontext erfordert eine explizite Aktivierung sowie Freigabe für Long-Context-Nutzung; bei bestehender
sk-ant-oat-*-Authentifizierung wird der Beta-Header ausgeschlossen
Unterstützungsmodell von Anthropic
- Für den Zugriff auf die Claude-Modellfamilie werden sowohl API als auch Claude CLI unterstützt; in OpenClaw können sowohl Anthropic-API-Schlüssel als auch die Wiederverwendung von Claude CLI verwendet werden
- Bereits konfigurierte bestehende Anthropic-Token-Profile werden bei der Ausführung weiterhin anerkannt
-
Anthropic-API-Schlüssel
- Geeigneter Weg für standardisierten API-Zugriff und nutzungsbasierte Abrechnung
- API-Schlüssel können in der Anthropic Console erstellt werden
- Im CLI-Setup kann bei
openclaw onboardAnthropic API key ausgewählt werden - Im nicht interaktiven Modus wird
openclaw onboard --anthropic-api-key "$ANTHROPIC_API_KEY"unterstützt - Im Beispiel-Snippet wird die Umgebungsvariable
ANTHROPIC_API_KEYzusammen mit dem Standardmodellanthropic/claude-opus-4-6verwendet
Thinking-Standardwert
- Bei Claude-4.6-Modellen wendet OpenClaw standardmäßig adaptive thinking an, wenn kein explizites Thinking-Level gesetzt ist
- Überschreibbar pro Nachricht mit
/think:<level>oder über den Modellparameteragents.defaults.models["anthropic/<model>"].params.thinking - Verweise auf die zugehörige Dokumentation zu Adaptive thinking und Extended thinking werden bereitgestellt
Fast mode
- Der gemeinsame
/fast-Schalter von OpenClaw unterstützt auch direkten öffentlichen Anthropic-Traffic, der anapi.anthropic.comgesendet wird- Einschließlich sowohl API-Key-Authentifizierung als auch OAuth-authentifizierter Anfragen
/fast onwird aufservice_tier: "auto"abgebildet/fast offwird aufservice_tier: "standard_only"abgebildet- Im Beispiel für die Konfigurationsstandardwerte wird für das Modell
anthropic/claude-sonnet-4-6params.fastMode: trueverwendet -
Einschränkungen
- OpenClaw injiziert den Anthropic-Service-Tier nur bei direkten
api.anthropic.com-Anfragen - Wenn
anthropic/*-Anfragen über einen Proxy oder ein Gateway umgeleitet werden, ändert/fastdenservice_tiernicht - Explizite Modellparameter
serviceTieroderservice_tierhaben Vorrang vor dem/fast-Standardwert - Anthropic protokolliert das tatsächlich angewendete Tier in
usage.service_tierder Antwort - Bei Konten ohne Priority Tier capacity kann
service_tier: "auto"weiterhin alsstandardinterpretiert werden
- OpenClaw injiziert den Anthropic-Service-Tier nur bei direkten
Prompt Caching
- OpenClaw unterstützt die Prompt-Caching-Funktion von Anthropic
- Diese Funktion ist nur für die API verfügbar; bestehende Authentifizierung mit Anthropic-Token übernimmt keine Cache-Einstellungen
-
Konfiguration
- In der Modellkonfiguration wird der Parameter
cacheRetentionverwendet nonedeaktiviert Cachingshortbedeutet 5-Minuten-Cachelongbedeutet erweiterten 1-Stunden-Cache- Im Konfigurationsbeispiel wird für das Modell
anthropic/claude-opus-4-6params.cacheRetention: "long"verwendet
- In der Modellkonfiguration wird der Parameter
-
Standardwerte
- Bei Authentifizierung mit Anthropic-API-Schlüssel wird bei allen Anthropic-Modellen automatisch
cacheRetention: "short"angewendet - Dieser Standardwert kann durch explizites Setzen von
cacheRetentionüberschrieben werden
- Bei Authentifizierung mit Anthropic-API-Schlüssel wird bei allen Anthropic-Modellen automatisch
-
Agentenspezifische Überschreibung
- Parameter auf Modellebene dienen als Basis; einzelne Agents können dies über
agents.list[].paramsindividuell überschreiben - Im Beispiel verwendet
researchdie Standardkonfiguration, währendalertscacheRetention: "none"setzt - Die Zusammenführungsreihenfolge cachebezogener Parameter ist zuerst
agents.defaults.models["provider/model"].params, danachagents.list[].params - Selbst bei demselben Modell kann ein Agent langfristiges Caching behalten, während ein anderer Caching deaktiviert
- Als Beispiel für das Deaktivieren des Caches werden burst-artiger oder wenig wiederverwendeter Traffic genannt, um Schreibkosten zu vermeiden
- Parameter auf Modellebene dienen als Basis; einzelne Agents können dies über
-
Hinweis zu Bedrock Claude
- Für Bedrock-Anthropic-Claude-Modelle
amazon-bedrock/*anthropic.claude*wird die Weitergabe voncacheRetentionunterstützt, sofern konfiguriert - Nicht-Anthropic-Bedrock-Modelle werden zur Laufzeit auf
cacheRetention: "none"erzwungen - Die intelligenten Standardwerte für Anthropic-API-Schlüssel wenden bei fehlendem explizitem Wert auch für Claude-on-Bedrock-Modellreferenzen
cacheRetention: "short"an
- Für Bedrock-Anthropic-Claude-Modelle
1M-Kontextfenster
- Das 1M context window von Anthropic ist eine Beta-Funktion mit Einschränkungen und kann in OpenClaw bei unterstützten Opus-/Sonnet-Modellen über
params.context1m: trueaktiviert werden - Im Konfigurationsbeispiel wird für das Modell
anthropic/claude-opus-4-6params.context1m: trueverwendet - OpenClaw bildet dies auf den Anthropic-Request-Header
anthropic-beta: context-1m-2025-08-07ab - Die Funktion wird nur aktiviert, wenn
params.context1mfür das jeweilige Modell explizit auftruegesetzt ist - Voraussetzung für die Nutzung ist, dass Anthropic für die jeweilige Authentifizierung long-context usage erlaubt
- Aktuell lehnt Anthropic
context-1m-*-Beta-Requests bei Nutzung bestehender Anthropic-Token-Authentifizierungsk-ant-oat-*ab - Wenn in einem bestehenden Authentifizierungsmodus
context1m: truegesetzt wird, schreibt OpenClaw eine Warnung ins Log, überspringt den context1m-Beta-Header und fällt auf das Standard-Kontextfenster zurück- Erforderliche OAuth-Betas bleiben erhalten
Claude-CLI-Backend
- Das gebündelte Anthropic-Backend
claude-cliwird von OpenClaw unterstützt - Ein Anthropic-Mitarbeiter hat mitgeteilt, dass diese Nutzungsweise wieder erlaubt ist
- Entsprechend behandelt OpenClaw die Wiederverwendung von Claude CLI und die Nutzung von
claude -pbis zur Bekanntgabe einer neuen Richtlinie durch Anthropic als zulässige Integrationsmethode - Für ständig aktive Gateway-Hosts und explizite serverseitige Abrechnungssteuerung ist ein Anthropic-API-Schlüssel der klarste Betriebsweg
- Details zu Konfiguration und Ausführung sind unter
/gateway/cli-backendszu finden
Hinweise
- Die öffentliche Claude Code-Dokumentation von Anthropic dokumentiert weiterhin die direkte CLI-Nutzung wie
claude -p - Ein Anthropic-Mitarbeiter hat mitgeteilt, dass die Nutzung von Claude CLI im OpenClaw-Stil wieder erlaubt ist; bis Anthropic eine neue Richtlinienänderung bekannt gibt, gilt dies als bestätigte Leitlinie
- OpenClaw bietet weiterhin auch Anthropic setup-token als unterstützten Token-Authentifizierungspfad an
- Wenn verfügbar, bevorzugt OpenClaw jedoch die Wiederverwendung von Claude CLI und
claude -p - Details zu Authentifizierung und Wiederverwendungsregeln sind unter
/concepts/oauthzu finden
Fehlerbehebung
-
401 errors / token suddenly invalid
- Die Authentifizierung mit Anthropic-Token kann ablaufen oder widerrufen werden
- Für neue Setups wird die Migration auf einen Anthropic-API-Schlüssel empfohlen
-
No API key found for provider “anthropic”
- Die Authentifizierung wird pro Agent angewendet
- Neue Agents übernehmen den Schlüssel des Haupt-Agents nicht
- Für den betreffenden Agent muss das Onboarding erneut ausgeführt werden, oder es muss ein API-Schlüssel auf dem Gateway-Host gesetzt und danach mit
openclaw models statusgeprüft werden
-
No credentials found for profile
anthropic:default- Mit
openclaw models statuslässt sich prüfen, welches Authentifizierungsprofil aktiv ist - Erneutes Onboarding oder das Setzen eines API-Schlüssels für den entsprechenden Profilpfad ist erforderlich
- Mit
-
No available auth profile (all in cooldown/unavailable)
- Mit
openclaw models status --jsonkannauth.unusableProfilesgeprüft werden - Die Anthropic-Rate-Limit-Cooldown kann modellbezogen sein; selbst wenn das aktuelle Modell im Cooldown ist, kann ein anderes Anthropic-Modell derselben Familie nutzbar sein
- Es muss ein weiteres Anthropic-Profil hinzugefügt oder das Ende des Cooldowns abgewartet werden
- Zusätzliche Pfade:
/gateway/troubleshootingund/help/faq
- Mit
9 Kommentare
Nachdem ich mit Codex das lokale Modell
gemma4 31bincodexnutzbar gemacht habe (sogar mit der Gründlichkeit, Mehrfachdialoge selbstständig zu prüfen!), habe ich alle anderen Abos außer ChatGPT Pro gekündigt. Zusammen mitcodex-app-linuxbleibt bei diesen beiden sogar noch Nutzung übrig, selbst wenn ich Arbeit mit der maximal wahrnehmbaren Parallelität laufen lasse.Könnten Sie bitte etwas zu den Hardware-Spezifikationen sagen?
Auf einer 4090 läuft es zwar ziemlich gut, aber für den langfristigen Einsatz reicht es eher nicht aus.
Ich möchte Gemma 4 auch lokal ausführen — wie sehen bei Ihnen ungefähr die Hardware-Spezifikationen aus?
Ehrlich gesagt ist das einfach zu erbärmlich ...
Ich sehe das nur so, dass man Pro-Nutzern eigentlich Claude Code verwehren wollte, die Stimmung dann aber schlecht wurde und man es deshalb jetzt vorübergehend wieder so macht ..
Trotzdem ist es vermutlich besser, das erst einmal zu beobachten, statt es unnötig falsch zu nutzen und am Ende noch den Account gesperrt zu bekommen.
Die Nutzung des CC OAuth-API-Schlüssels war ein ziemlicher Ärger, also bin ich einfach komplett bei Codex geblieben...
Ehrlich gesagt bin ich inzwischen auch einfach bei Codex hängen geblieben … Claude verbraucht die Tokens viel zu schnell.
Hacker-News-Kommentare
Hier ist Peter von OpenClaw. Boris von Claude Code hat auf Twitter öffentlich gesagt, dass CLI-artige Nutzung erlaubt sei, also habe ich diesem Leitfaden vertraut und in die Implementierung investiert. Ich habe es auch so geändert, dass bei CLI-Nutzung übermäßige Token-Features wie Heartbeat standardmäßig deaktiviert sind, aber tatsächlich blockiert Anthropic Teile des System-Prompts, sodass die öffentliche Kommunikation und das aktuelle Verhalten nicht übereinstimmen. Die entsprechende Aussage ist hier zu sehen. Offenbar wurde auch der Klassifikator angepasst, nachdem Leute das mit leicht geänderten Namen umgangen haben, aber ich habe nicht vor, solche Umgehungsspielchen mitzuspielen, daher bin ich jetzt in diesem theoretisch möglichen, praktisch aber nicht nutzbaren Schwebezustand
claude -paufgebaut. Mit der Einführung des neuen Flags--baresieht es nun aber so aus, als würde für Unlimited-Nutzer-pfaktisch verdrängt – wie ein rug pull. In der Doku steht außerdem, dass--bareder empfohlene Modus für Skripte und SDK-Aufrufe ist und künftig der Standard für-pwerden soll. Ich hoffe also entweder, dass ich das missverstanden habe, oder es braucht eine klare Erklärung. Die Doku ist hierclaude -poder bessere SDK-basierte Workflows zu bauenFür mich fühlt sich die Situation gerade wie ein echter trüber Morast an. Anthropic sollte klar sagen, was mit und ohne Abo unterstützt wird und was nicht; bis dahin ist es für Nutzer schwer zu erkennen, wie sie das Produkt überhaupt einsetzen sollen. Ich nutze OpenClaw oder ähnliche Produkte derzeit nicht einmal, aber ich würde zumindest gern wissen, was erlaubt ist und was nicht – und genau das scheint derzeit fast unmöglich
vibe productein. Im Moment tauchen Dinge so schnell auf und verschwinden wieder, dass bei mir viel von der früheren Erwartungshaltung verloren gegangen istIch denke, der Kern ist, dass Anthropic-Mitarbeiter auf Twitter widersprüchliche Erklärungen abgegeben und sie dann wieder korrigiert haben, was nur noch mehr Verwirrung gestiftet hat. Heute heißt es, Claude-CLI-Nutzung im OpenClaw-Stil sei okay, und morgen könnte das per Policy-Update wieder zurückgenommen werden. Bei Claude Code hat sich Anthropic als schwer vertrauenswürdig erwiesen, und wenn man seine geistige Gesundheit bewahren will, ist ein Wechsel zu einem anderen Anbieter vermutlich sinnvoller
keep your insanity–, wirkte dadurch fast wie eine zu treffende Formulierung, was ich ziemlich lustig fandclaude -pin ein Modell mit Zusatzabrechnung überführen wollte. Daher wirkt diese Seite auf mich nicht im Widerspruch zu jener AnkündigungDiese Änderung wurde schon vor zwei Wochen per Commit zurückgebracht, und auch das war nur drei Tage, nachdem Anthropic gesagt hatte, OpenClaw brauche zusätzliche Nutzung. In diesem Ablauf fällt es schwer, das ernst zu nehmen, und dass es nicht einmal eine offizielle Stellungnahme oder wenigstens einen Tweet gibt, wirkt ebenfalls seltsam. Weitere Zusammenhänge sieht man in diesem HN-Link
Open-Claw style CLI usagemeint, liegt näher an Letzterem. Wenn man OAuth-Credentials außerhalb der Claude-Code-CLI verwendet, verstehe ich es so, dass dann zusätzlich zur bestehenden Subscription nach API-Preisen abgerechnet wirdclaude -pin ein Modell mit Zusatzabrechnung zu überführenEs wirkt, als wolle Anthropic das aufgebaute goodwill verspielen, indem Preise erhöht, Limits gesenkt und Richtlinien bewusst vage gehalten werden
Da das kurz nach dem Vertrag mit Amazon kam, frage ich mich, ob es am Ende nicht doch ein Problem mit Compute-Beschränkungen war. Jedenfalls war der 20-Dollar-pro-Monat-Codex-Plan, den ich ausprobiert habe, so stark limitiert, dass der Agent kaum etwas Sinnvolles tun konnte, bevor schon an den nächsten Agenten übergeben wurde. Ohne offizielle Mitteilung von Anthropic will ich erst einmal vorsichtig abwarten, bevor ich am Ende noch meinen geliebten 200-Dollar-Max-Account verliere, nur weil ich ihn auf diese Art nutze
Soweit ich es verstehe, kann man OAuth-Credentials verwenden, solange man Anthropics Bibliotheken oder Tools nutzt. Man könnte zum Beispiel OAuth an das Claude Agent SDK hängen, um verschiedene Agenten mit eingebettetem Claude Code zu prototypen, und das zu vorhersehbaren monatlichen Kosten – besonders attraktiv, wenn man Skills als eigenständige Tools oder Apps bauen will. Noch komplexer geht es mit Claude Code in tmux, wobei Ein- und Ausgaben ausgetauscht werden, und auch MCP Channels sind interessant: Man setzt einen MCP-Server zwischen die App und eine laufende Claude-Code-Instanz und erhält bidirektionale Kommunikation. Es ist zwar langsam, aber interessant, weil eine GUI dann kurz für Aufgaben genutzt werden kann, die dort einfacher sind, ohne den Kontext der CLI-Session zu verlieren, und man anschließend wieder zurückkehren kann
In der letzten Woche hat mein OpenClaw-Begleitassistent bei Nutzung von Claude seine Persönlichkeit verloren und konnte Dinge nicht mehr, die er vorher gut beherrscht hat. Die Nutzung hatte sich bis auf etwa 28 Dollar summiert, danach wurde nichts mehr verbraucht; ob es noch ein anderes Problem gab, weiß ich nicht, aber das Verhalten blieb bestehen. Irgendwann war ich es leid und habe per Migrationsskript Gesprächsverlauf und Persona in die claude-code-config übertragen. Dank der neuen Remote-Exec-Funktion habe ich damit den Großteil der früheren Funktionalität zurückbekommen, ohne wie bei OpenClaw die Instabilität immer neuer experimenteller Tools in Kauf nehmen zu müssen. Mein Eindruck ist, dass Anthropic bewusst genug Reibung für Hobby-Nutzer eingebaut hat, um sie am Ende auf die eigene Lösung umzulenken – und unabhängig davon wirkt das ohnehin wie die sicherere Wahl
claude -p promptplus Cron nachbaut; vermutlich ist die Zahl der Leute, die dazu in der Lage wären, so gering, dass es ihnen egal ist. Kontext dazu gibt es auch in diesem HN-PostDass OpenClaw in dieser Form sagt:
Anthropic hat gesagt, das sei okay, lädt geradezu zu dem sarkastischen Kommentar ein, die Lage sei ja wirklich glasklarIch bin mit der Kombination aus Claude Code, Opus und dem Max-Plan insgesamt ziemlich zufrieden, aber die Momente, in denen es nicht funktioniert, die Kosten und das Risiko eines Account-Banns gehen mir weiterhin durch den Kopf. Deshalb frage ich mich, ob es Alternative Setups gibt, die eine ähnliche oder bessere Erfahrung günstiger liefern. Ich habe viel Gutes über pi.dev und OpenCode gehört, und OpenCode mit Mimo V2 pro wirkte bei meinem Test ziemlich ordentlich. Früher habe ich auch Qwen CLI und Gemini CLI genutzt, bevor die kostenlose Nutzung eingeschränkt wurde, und Z.ai zusammen mit OpenCode. Manche Leute sagen außerdem, sie planen mit Opus und geben weniger wichtige Aufgaben an günstigere Modelle ab, aber ich mag nutzungsbasierte Abrechnung nicht besonders, weil ich nicht glaube, dass sie am Ende wirklich billiger ist. Ich arbeite vor allem mit Python-Backends und TypeScript-Frontends, hoste bei Hetzner, nutze viel Docker und bei Bedarf auch k3s – deshalb würde ich gern praxistaugliche Produktiv-Setups für so eine Umgebung sehen
Wenn Prompt Caching nicht funktioniert, werden die Tokens wohl einfach nur verbrannt.