15 Punkte von GN⁺ 8 일 전 | 9 Kommentare | Auf WhatsApp teilen
  • Ein Anthropic-Mitarbeiter hat mitgeteilt, dass die Nutzung von Claude CLI im OpenClaw-Stil wieder erlaubt ist
  • Sowohl Anthropic-API-Schlüssel als auch die Wiederverwendung von Claude CLI werden unterstützt, und bestehende Anthropic-Token-Profile werden bei der Ausführung weiterhin anerkannt
  • Das Claude-CLI-Backend wird wieder als zulässige Integrationsmethode behandelt; bis zur Ankündigung einer neuen Richtlinie ist auch die Nutzung von claude -p erlaubt
  • Bei Claude-4.6-Modellen wird standardmäßig adaptive thinking angewendet, wenn keine explizite Thinking-Einstellung gesetzt ist; überschrieben werden kann dies mit /think:<level> oder über Modellparameter
  • Der /fast-Schalter injiziert service_tier nur bei Anfragen, die direkt an api.anthropic.com gehen; über Proxy oder Gateway greift die Tier-Änderung nicht
  • Prompt Caching und das 1M context window werden ebenfalls unterstützt, aber Caching ist nur für die API verfügbar, und der 1M-Kontext erfordert eine explizite Aktivierung sowie Freigabe für Long-Context-Nutzung; bei bestehender sk-ant-oat-*-Authentifizierung wird der Beta-Header ausgeschlossen

Unterstützungsmodell von Anthropic

  • Für den Zugriff auf die Claude-Modellfamilie werden sowohl API als auch Claude CLI unterstützt; in OpenClaw können sowohl Anthropic-API-Schlüssel als auch die Wiederverwendung von Claude CLI verwendet werden
    • Bereits konfigurierte bestehende Anthropic-Token-Profile werden bei der Ausführung weiterhin anerkannt
  • Anthropic-API-Schlüssel

    • Geeigneter Weg für standardisierten API-Zugriff und nutzungsbasierte Abrechnung
    • API-Schlüssel können in der Anthropic Console erstellt werden
    • Im CLI-Setup kann bei openclaw onboard Anthropic API key ausgewählt werden
    • Im nicht interaktiven Modus wird openclaw onboard --anthropic-api-key "$ANTHROPIC_API_KEY" unterstützt
    • Im Beispiel-Snippet wird die Umgebungsvariable ANTHROPIC_API_KEY zusammen mit dem Standardmodell anthropic/claude-opus-4-6 verwendet

Thinking-Standardwert

  • Bei Claude-4.6-Modellen wendet OpenClaw standardmäßig adaptive thinking an, wenn kein explizites Thinking-Level gesetzt ist
  • Überschreibbar pro Nachricht mit /think:<level> oder über den Modellparameter agents.defaults.models["anthropic/<model>"].params.thinking
  • Verweise auf die zugehörige Dokumentation zu Adaptive thinking und Extended thinking werden bereitgestellt

Fast mode

  • Der gemeinsame /fast-Schalter von OpenClaw unterstützt auch direkten öffentlichen Anthropic-Traffic, der an api.anthropic.com gesendet wird
    • Einschließlich sowohl API-Key-Authentifizierung als auch OAuth-authentifizierter Anfragen
  • /fast on wird auf service_tier: "auto" abgebildet
  • /fast off wird auf service_tier: "standard_only" abgebildet
  • Im Beispiel für die Konfigurationsstandardwerte wird für das Modell anthropic/claude-sonnet-4-6 params.fastMode: true verwendet
  • Einschränkungen

    • OpenClaw injiziert den Anthropic-Service-Tier nur bei direkten api.anthropic.com-Anfragen
    • Wenn anthropic/*-Anfragen über einen Proxy oder ein Gateway umgeleitet werden, ändert /fast den service_tier nicht
    • Explizite Modellparameter serviceTier oder service_tier haben Vorrang vor dem /fast-Standardwert
    • Anthropic protokolliert das tatsächlich angewendete Tier in usage.service_tier der Antwort
    • Bei Konten ohne Priority Tier capacity kann service_tier: "auto" weiterhin als standard interpretiert werden

Prompt Caching

  • OpenClaw unterstützt die Prompt-Caching-Funktion von Anthropic
  • Diese Funktion ist nur für die API verfügbar; bestehende Authentifizierung mit Anthropic-Token übernimmt keine Cache-Einstellungen
  • Konfiguration

    • In der Modellkonfiguration wird der Parameter cacheRetention verwendet
    • none deaktiviert Caching
    • short bedeutet 5-Minuten-Cache
    • long bedeutet erweiterten 1-Stunden-Cache
    • Im Konfigurationsbeispiel wird für das Modell anthropic/claude-opus-4-6 params.cacheRetention: "long" verwendet
  • Standardwerte

    • Bei Authentifizierung mit Anthropic-API-Schlüssel wird bei allen Anthropic-Modellen automatisch cacheRetention: "short" angewendet
    • Dieser Standardwert kann durch explizites Setzen von cacheRetention überschrieben werden
  • Agentenspezifische Überschreibung

    • Parameter auf Modellebene dienen als Basis; einzelne Agents können dies über agents.list[].params individuell überschreiben
    • Im Beispiel verwendet research die Standardkonfiguration, während alerts cacheRetention: "none" setzt
    • Die Zusammenführungsreihenfolge cachebezogener Parameter ist zuerst agents.defaults.models["provider/model"].params, danach agents.list[].params
    • Selbst bei demselben Modell kann ein Agent langfristiges Caching behalten, während ein anderer Caching deaktiviert
    • Als Beispiel für das Deaktivieren des Caches werden burst-artiger oder wenig wiederverwendeter Traffic genannt, um Schreibkosten zu vermeiden
  • Hinweis zu Bedrock Claude

    • Für Bedrock-Anthropic-Claude-Modelle amazon-bedrock/*anthropic.claude* wird die Weitergabe von cacheRetention unterstützt, sofern konfiguriert
    • Nicht-Anthropic-Bedrock-Modelle werden zur Laufzeit auf cacheRetention: "none" erzwungen
    • Die intelligenten Standardwerte für Anthropic-API-Schlüssel wenden bei fehlendem explizitem Wert auch für Claude-on-Bedrock-Modellreferenzen cacheRetention: "short" an

1M-Kontextfenster

  • Das 1M context window von Anthropic ist eine Beta-Funktion mit Einschränkungen und kann in OpenClaw bei unterstützten Opus-/Sonnet-Modellen über params.context1m: true aktiviert werden
  • Im Konfigurationsbeispiel wird für das Modell anthropic/claude-opus-4-6 params.context1m: true verwendet
  • OpenClaw bildet dies auf den Anthropic-Request-Header anthropic-beta: context-1m-2025-08-07 ab
  • Die Funktion wird nur aktiviert, wenn params.context1m für das jeweilige Modell explizit auf true gesetzt ist
  • Voraussetzung für die Nutzung ist, dass Anthropic für die jeweilige Authentifizierung long-context usage erlaubt
  • Aktuell lehnt Anthropic context-1m-*-Beta-Requests bei Nutzung bestehender Anthropic-Token-Authentifizierung sk-ant-oat-* ab
  • Wenn in einem bestehenden Authentifizierungsmodus context1m: true gesetzt wird, schreibt OpenClaw eine Warnung ins Log, überspringt den context1m-Beta-Header und fällt auf das Standard-Kontextfenster zurück
    • Erforderliche OAuth-Betas bleiben erhalten

Claude-CLI-Backend

  • Das gebündelte Anthropic-Backend claude-cli wird von OpenClaw unterstützt
  • Ein Anthropic-Mitarbeiter hat mitgeteilt, dass diese Nutzungsweise wieder erlaubt ist
  • Entsprechend behandelt OpenClaw die Wiederverwendung von Claude CLI und die Nutzung von claude -p bis zur Bekanntgabe einer neuen Richtlinie durch Anthropic als zulässige Integrationsmethode
  • Für ständig aktive Gateway-Hosts und explizite serverseitige Abrechnungssteuerung ist ein Anthropic-API-Schlüssel der klarste Betriebsweg
  • Details zu Konfiguration und Ausführung sind unter /gateway/cli-backends zu finden

Hinweise

  • Die öffentliche Claude Code-Dokumentation von Anthropic dokumentiert weiterhin die direkte CLI-Nutzung wie claude -p
  • Ein Anthropic-Mitarbeiter hat mitgeteilt, dass die Nutzung von Claude CLI im OpenClaw-Stil wieder erlaubt ist; bis Anthropic eine neue Richtlinienänderung bekannt gibt, gilt dies als bestätigte Leitlinie
  • OpenClaw bietet weiterhin auch Anthropic setup-token als unterstützten Token-Authentifizierungspfad an
  • Wenn verfügbar, bevorzugt OpenClaw jedoch die Wiederverwendung von Claude CLI und claude -p
  • Details zu Authentifizierung und Wiederverwendungsregeln sind unter /concepts/oauth zu finden

Fehlerbehebung

  • 401 errors / token suddenly invalid

    • Die Authentifizierung mit Anthropic-Token kann ablaufen oder widerrufen werden
    • Für neue Setups wird die Migration auf einen Anthropic-API-Schlüssel empfohlen
  • No API key found for provider “anthropic”

    • Die Authentifizierung wird pro Agent angewendet
    • Neue Agents übernehmen den Schlüssel des Haupt-Agents nicht
    • Für den betreffenden Agent muss das Onboarding erneut ausgeführt werden, oder es muss ein API-Schlüssel auf dem Gateway-Host gesetzt und danach mit openclaw models status geprüft werden
  • No credentials found for profile anthropic:default

    • Mit openclaw models status lässt sich prüfen, welches Authentifizierungsprofil aktiv ist
    • Erneutes Onboarding oder das Setzen eines API-Schlüssels für den entsprechenden Profilpfad ist erforderlich
  • No available auth profile (all in cooldown/unavailable)

    • Mit openclaw models status --json kann auth.unusableProfiles geprüft werden
    • Die Anthropic-Rate-Limit-Cooldown kann modellbezogen sein; selbst wenn das aktuelle Modell im Cooldown ist, kann ein anderes Anthropic-Modell derselben Familie nutzbar sein
    • Es muss ein weiteres Anthropic-Profil hinzugefügt oder das Ende des Cooldowns abgewartet werden
    • Zusätzliche Pfade: /gateway/troubleshooting und /help/faq

9 Kommentare

 
ceruns 7 일 전

Nachdem ich mit Codex das lokale Modell gemma4 31b in codex nutzbar gemacht habe (sogar mit der Gründlichkeit, Mehrfachdialoge selbstständig zu prüfen!), habe ich alle anderen Abos außer ChatGPT Pro gekündigt. Zusammen mit codex-app-linux bleibt bei diesen beiden sogar noch Nutzung übrig, selbst wenn ich Arbeit mit der maximal wahrnehmbaren Parallelität laufen lasse.

 
woodev 7 일 전

Könnten Sie bitte etwas zu den Hardware-Spezifikationen sagen?
Auf einer 4090 läuft es zwar ziemlich gut, aber für den langfristigen Einsatz reicht es eher nicht aus.

 
beoks 7 일 전

Ich möchte Gemma 4 auch lokal ausführen — wie sehen bei Ihnen ungefähr die Hardware-Spezifikationen aus?

 
ingwannu 7 일 전

Ehrlich gesagt ist das einfach zu erbärmlich ...
Ich sehe das nur so, dass man Pro-Nutzern eigentlich Claude Code verwehren wollte, die Stimmung dann aber schlecht wurde und man es deshalb jetzt vorübergehend wieder so macht ..

 
jimmy2056 7 일 전

Trotzdem ist es vermutlich besser, das erst einmal zu beobachten, statt es unnötig falsch zu nutzen und am Ende noch den Account gesperrt zu bekommen.

 
hmmhmmhm 8 일 전

Die Nutzung des CC OAuth-API-Schlüssels war ein ziemlicher Ärger, also bin ich einfach komplett bei Codex geblieben...

 
xguru 8 일 전

Ehrlich gesagt bin ich inzwischen auch einfach bei Codex hängen geblieben … Claude verbraucht die Tokens viel zu schnell.

 
GN⁺ 8 일 전
Hacker-News-Kommentare
  • Hier ist Peter von OpenClaw. Boris von Claude Code hat auf Twitter öffentlich gesagt, dass CLI-artige Nutzung erlaubt sei, also habe ich diesem Leitfaden vertraut und in die Implementierung investiert. Ich habe es auch so geändert, dass bei CLI-Nutzung übermäßige Token-Features wie Heartbeat standardmäßig deaktiviert sind, aber tatsächlich blockiert Anthropic Teile des System-Prompts, sodass die öffentliche Kommunikation und das aktuelle Verhalten nicht übereinstimmen. Die entsprechende Aussage ist hier zu sehen. Offenbar wurde auch der Klassifikator angepasst, nachdem Leute das mit leicht geänderten Namen umgangen haben, aber ich habe nicht vor, solche Umgehungsspielchen mitzuspielen, daher bin ich jetzt in diesem theoretisch möglichen, praktisch aber nicht nutzbaren Schwebezustand

    • Auch außerhalb von OpenClaw haben viele Leute diesem Tweet vertraut und recht tiefgehende Workflows auf Basis von claude -p aufgebaut. Mit der Einführung des neuen Flags --bare sieht es nun aber so aus, als würde für Unlimited-Nutzer -p faktisch verdrängt – wie ein rug pull. In der Doku steht außerdem, dass --bare der empfohlene Modus für Skripte und SDK-Aufrufe ist und künftig der Standard für -p werden soll. Ich hoffe also entweder, dass ich das missverstanden habe, oder es braucht eine klare Erklärung. Die Doku ist hier
    • Wenn wir schon über erlaubte Nutzung sprechen, frage ich mich auch, wie weit die Codex-Quota von OpenAI genutzt werden darf. Ich gehe davon aus, dass die Nutzung in OpenClaw erlaubt ist, aber ich habe keine Antwort darauf gefunden, ob Nutzer ihre eigene Codex-Quota auch in anderen Coding-Harnesses oder bezahlten Apps verwenden dürfen. Für kleine Anbieter ist es schwer, Token-Kosten zu subventionieren; wenn solche Richtlinien offener wären, gäbe es deutlich mehr Einsatzmöglichkeiten. Vielleicht bleibt das wegen des Abo-Modells absichtlich vage, was es nur frustrierender macht
    • Ich finde, man müsste OAuth-Token einfach nur mit einem Rate Limit versehen. Das Prinzip ist simpel: Abos sind für menschlich nachvollziehbare Nutzung in menschlichem Maßstab da, API-Keys für alles andere an Automatisierung. Anthropic sollte maschinelle Nutzung einschränken, Menschen aber ermöglichen, mit ihrem eigenen OAuth-Token claude -p oder bessere SDK-basierte Workflows zu bauen
    • Ich verstehe auch, dass die Lage für Anthropic schwierig ist. Als Analogie: Waymo betreibt ein subventioniertes Abo-Modell, und Leute fangen an, fahrerlose Autos per Timer zu buchen und sie anders zu nutzen als ursprünglich gedacht. Gelegentlich damit Einkäufe erledigen zu lassen wirkt noch okay, aber jeden Tag zur gleichen Zeit ein Eis holen zu lassen liegt in einer Grauzone. Das Problem ist: Sobald man die Kriterien klar formuliert, umgehen Leute genau diese Formulierungen wieder, um wirtschaftliche Vorteile herauszuholen. Gleichzeitig scheint es auch nicht richtig, einen Plan, der für legitime Nutzer gedacht war, komplett abzuschaffen
    • Es wirkt so, als wolle man jetzt den Kurs korrigieren, aber Vertrauen wurde dabei bereits stark verspielt. Und wenn man auch die neuen, niedrigeren Limits bedenkt, frage ich mich, ob es für OpenClaw überhaupt noch genug Mehrwert bietet, um weiter darauf zu setzen
  • Für mich fühlt sich die Situation gerade wie ein echter trüber Morast an. Anthropic sollte klar sagen, was mit und ohne Abo unterstützt wird und was nicht; bis dahin ist es für Nutzer schwer zu erkennen, wie sie das Produkt überhaupt einsetzen sollen. Ich nutze OpenClaw oder ähnliche Produkte derzeit nicht einmal, aber ich würde zumindest gern wissen, was erlaubt ist und was nicht – und genau das scheint derzeit fast unmöglich

    • Wenn ich sehe, wie Anthropic das, was man für ein Abo bekommt, wöchentlich verändert, möchte ich nicht mehr als auf dem Niveau einer Hobby-Lizenz dafür ausgeben. Das Produkt mag großartig sein, aber es wirkt so, als hinge alles davon ab, zu welcher Tageszeit man es nutzt und wie das Unternehmen die Situation gerade bewertet. Dass es inzwischen etliche Modelle mit offenen Gewichten gibt, die schlechtem Verhalten zumindest eine Obergrenze setzen, beruhigt mich eher
    • Ich würde mit meiner Claude-Code-Lizenz gern ein custom harness verwenden, das ich erweitern kann, oder ein selbst gebautes Harness anschließen, und nach Möglichkeit auch die Token-Kosten senken. Ich finde, Anthropic sollte ab dem nächsten Modell klare Kriterien setzen, um den Token-Verbrauch oder die Betriebskosten zu reduzieren. Wenn der Durchsatz ähnlich bleibt, wäre es für mich okay, wenn es etwas langsamer wäre, solange die Kosten sinken und ich es mit meinem eigenen Harness nutzen kann
    • Was mir Sorgen macht, sind die schlechte Kommunikation und die ständigen Kurswechsel. Einer meiner zentralen Workflows nutzt Hook-Skripte, die bestimmte Aufgaben auf mehrere Modelle routen; niemand weiß, ob so etwas später ebenfalls verboten wird. Wenn Anthropic keine konsistente Erklärung liefern kann, ist es schwer, in dieses Ökosystem zu investieren
    • Ich bin etwas erstaunt, warum so viele Leute darüber so überrascht sind. An Beispielen wie der Twitter API hat man doch schon gesehen, dass APIs oft so lange offen bleiben, wie sie akut beim Lösen eigener Probleme helfen, und später, wenn Unternehmen Funktionen selbst bauen, die Leute tatsächlich nutzen, werden konkurrierende Clients typischerweise eingeschränkt
    • Als Gegenstück zu vibe coding fällt mir vibe product ein. Im Moment tauchen Dinge so schnell auf und verschwinden wieder, dass bei mir viel von der früheren Erwartungshaltung verloren gegangen ist
  • Ich denke, der Kern ist, dass Anthropic-Mitarbeiter auf Twitter widersprüchliche Erklärungen abgegeben und sie dann wieder korrigiert haben, was nur noch mehr Verwirrung gestiftet hat. Heute heißt es, Claude-CLI-Nutzung im OpenClaw-Stil sei okay, und morgen könnte das per Policy-Update wieder zurückgenommen werden. Bei Claude Code hat sich Anthropic als schwer vertrauenswürdig erwiesen, und wenn man seine geistige Gesundheit bewahren will, ist ein Wechsel zu einem anderen Anbieter vermutlich sinnvoller

    • Dieser Tippfehler, der kein richtiger Tippfehler war – keep your insanity –, wirkte dadurch fast wie eine zu treffende Formulierung, was ich ziemlich lustig fand
    • Ich verstehe nicht, warum solche Ankündigungen immer wieder über Twitter kommen. Richtlinien sollten über einen offiziellen Blogpost veröffentlicht werden, inklusive einer Erklärung, wie alternative Harnesses funktionieren sollen. So wirkt das alles wirklich unprofessionell
    • Ich finde diese Art der Informationsweitergabe auch seltsam. Warum meldet das OpenClaw und nicht Anthropic selbst? Solange Anthropic das nicht direkt sagt, fällt es mir schwer, das wirklich zu glauben
    • Soweit ich das sehe, ging es in der jüngsten Ankündigung von Anthropic nur darum, dass Abo-Nutzer bei Verwendung von OpenClaw zusätzlich belastet werden, nicht darum, dass es verboten wird. Und der spätere Wechsel ein paar Tage später könnte schlicht daran gelegen haben, dass man statt der bisherigen direkten Sperre für die Nutzung von OAuth-Token in Drittanbieter-Harnesses nun sowohl diese Nutzung als auch claude -p in ein Modell mit Zusatzabrechnung überführen wollte. Daher wirkt diese Seite auf mich nicht im Widerspruch zu jener Ankündigung
    • Ich vergleiche den Wechsel von Dienstanbietern mit meinen Erfahrungen beim Hin- und Herwechseln zwischen Uber One und Lyft Pink. Jedes Mal, wenn der Kundendienst miserabel war, habe ich gewechselt, aber am Ende kam ich zu dem Schluss, dass es besser ist, sich einen bekannten Teufel auszusuchen und sich an dessen Eigenheiten zu gewöhnen. Im Moment bleibe ich bei Claude, weil mich das OpenClaw-Thema weniger betrifft und weil mir die Hegseth-Altman-DoD-Sache unangenehm ist, aber ehrlich gesagt sind Google, Anthropic und OpenAI bei AI-Kommunikation und Kundenumgang alle nicht gerade vorbildlich
  • Diese Änderung wurde schon vor zwei Wochen per Commit zurückgebracht, und auch das war nur drei Tage, nachdem Anthropic gesagt hatte, OpenClaw brauche zusätzliche Nutzung. In diesem Ablauf fällt es schwer, das ernst zu nehmen, und dass es nicht einmal eine offizielle Stellungnahme oder wenigstens einen Tweet gibt, wirkt ebenfalls seltsam. Weitere Zusammenhänge sieht man in diesem HN-Link

    • Ich glaube, die Verwirrung kommt daher, dass es zwei Arten gibt, Claude-Code-Credentials zu verwenden. Die eine ist, OAuth-Credentials zu übernehmen und daraus einen eigenen Agenten zu bauen; das ist nicht erlaubt. Die andere ist, eine Agent-App direkt innerhalb einer offiziellen Claude-Code-Session laufen zu lassen; das ist erlaubt. Was OpenClaw mit Open-Claw style CLI usage meint, liegt näher an Letzterem. Wenn man OAuth-Credentials außerhalb der Claude-Code-CLI verwendet, verstehe ich es so, dass dann zusätzlich zur bestehenden Subscription nach API-Preisen abgerechnet wird
    • Für mich passt das auch weitgehend zu den jüngsten Aussagen von Anthropic. Nirgendwo steht hier, dass es keine Zusatzabrechnung gibt; der Kern scheint eher zu sein, dass es nicht um ein Verbot geht, sondern darum, sowohl direkte OAuth-Token-Nutzung in Drittanbieter-Harnesses als auch claude -p in ein Modell mit Zusatzabrechnung zu überführen
    • Auf die Bemerkung, dass es keine offizielle Ankündigung und nicht einmal einen Tweet gebe, halb im Scherz, halb im Ernst: Release Notes und Ankündigungen wirken inzwischen fast wie ein agentic anti-pattern. Fast so, als hieße es, wenn man sich noch darum kümmert, mache man Agentic falsch
    • Auf mich wirkt diese Reaktion auch wie eine typische Verstärkung von FUD. Negative Auslegungen werden großgezogen, positive Signale gehen dabei unter
  • Es wirkt, als wolle Anthropic das aufgebaute goodwill verspielen, indem Preise erhöht, Limits gesenkt und Richtlinien bewusst vage gehalten werden

    • Solche Änderungen fühlen sich an wie ein langsames Erhöhen der Temperatur beim Froschkochen
    • Andersherum gesagt: Wenn LLM-Dienste dauerhaft bestehen sollen, müssen Anbieter am Ende mehr verdienen als sie für Hosting ausgeben. Und ich glaube, von diesem Punkt sind wir noch ziemlich weit entfernt
    • In solchen Momenten drängt sich der zynische Gedanke auf, dass man doch bitte auch an die Aktionäre denken müsse
    • So etwas hat fast schon den Effekt, dass man zu chinesischen Klonen gedrängt wird, die Anthropic selbst als schlechte Akteure sehen würde
    • Andererseits könnte das auch einfach bedeuten, dass Unternehmen nun genau den Nachhaltigkeitsweg gehen, von dem Hacker News schon immer gesprochen hat. AI sei nützlich, aber ihre Nachhaltigkeit unsicher – und jetzt steigen die Preise, die Token werden knapper, und alle sind wütend. Das hat etwas Ironisches
  • Da das kurz nach dem Vertrag mit Amazon kam, frage ich mich, ob es am Ende nicht doch ein Problem mit Compute-Beschränkungen war. Jedenfalls war der 20-Dollar-pro-Monat-Codex-Plan, den ich ausprobiert habe, so stark limitiert, dass der Agent kaum etwas Sinnvolles tun konnte, bevor schon an den nächsten Agenten übergeben wurde. Ohne offizielle Mitteilung von Anthropic will ich erst einmal vorsichtig abwarten, bevor ich am Ende noch meinen geliebten 200-Dollar-Max-Account verliere, nur weil ich ihn auf diese Art nutze

    • Meine Erfahrung war ziemlich anders. Ich habe in Claude Web mit Opus 4.7 angefangen und dann mit Claude Code weitergemacht, und nach gerade einmal 6 bis 10 Prompts waren schon zwei Quota-Zyklen aufgebraucht. Mit pi.dev und codex dagegen habe ich stundenlang gearbeitet und dabei nur etwa 50 Prozent meines Codex-Pro-Abos verbraucht. Der Unterschied im Verbrauchsverhalten ist für mich also ziemlich groß
    • Wenn man viel Volumen braucht, könnte auch Z.ai einen Blick wert sein. GLM ist inzwischen ziemlich gut, auch wenn die API gelegentlich instabil ist. Früher habe ich hauptsächlich GLM genutzt und Claude Pro nur für Review und Zusammenfassungen, inzwischen verwende ich einfach nur noch GLM. Claude Max hat zwar kein grundsätzlich schlechtes Preis-Leistungs-Verhältnis, aber für mich ist es mehr als nötig, und meine Sympathie für Anthropic nimmt ohnehin ab
    • Soweit ich mich erinnere, hat Anthropic von Anfang an gesagt, dass es ein Problem mit Compute-Beschränkungen sei und OpenClaw deutlich mehr Nutzung verursache, als man verkraften könne
    • GPT-5.4 fühlt sich für mich wie ein echter Token-Fresser an. Selbst wenn es wenig redet, war gpt-5.3 codex beim Coden und Planen sehr klug und deutlich sparsamer beim Token-Verbrauch
  • Soweit ich es verstehe, kann man OAuth-Credentials verwenden, solange man Anthropics Bibliotheken oder Tools nutzt. Man könnte zum Beispiel OAuth an das Claude Agent SDK hängen, um verschiedene Agenten mit eingebettetem Claude Code zu prototypen, und das zu vorhersehbaren monatlichen Kosten – besonders attraktiv, wenn man Skills als eigenständige Tools oder Apps bauen will. Noch komplexer geht es mit Claude Code in tmux, wobei Ein- und Ausgaben ausgetauscht werden, und auch MCP Channels sind interessant: Man setzt einen MCP-Server zwischen die App und eine laufende Claude-Code-Instanz und erhält bidirektionale Kommunikation. Es ist zwar langsam, aber interessant, weil eine GUI dann kurz für Aufgaben genutzt werden kann, die dort einfacher sind, ohne den Kontext der CLI-Session zu verlieren, und man anschließend wieder zurückkehren kann

    • Tatsächlich braucht man für die Claude-Code-CLI nicht einmal zwingend tmux. Die CLI selbst unterstützt streaming JSON für Ein- und Ausgabe, sodass sie sich über stdin- und stdout-Pipes steuern lässt. Ich nutze das aktuell in ask, und es funktioniert ziemlich gut
  • In der letzten Woche hat mein OpenClaw-Begleitassistent bei Nutzung von Claude seine Persönlichkeit verloren und konnte Dinge nicht mehr, die er vorher gut beherrscht hat. Die Nutzung hatte sich bis auf etwa 28 Dollar summiert, danach wurde nichts mehr verbraucht; ob es noch ein anderes Problem gab, weiß ich nicht, aber das Verhalten blieb bestehen. Irgendwann war ich es leid und habe per Migrationsskript Gesprächsverlauf und Persona in die claude-code-config übertragen. Dank der neuen Remote-Exec-Funktion habe ich damit den Großteil der früheren Funktionalität zurückbekommen, ohne wie bei OpenClaw die Instabilität immer neuer experimenteller Tools in Kauf nehmen zu müssen. Mein Eindruck ist, dass Anthropic bewusst genug Reibung für Hobby-Nutzer eingebaut hat, um sie am Ende auf die eigene Lösung umzulenken – und unabhängig davon wirkt das ohnehin wie die sicherere Wahl

    • So wie ich es verstanden habe, wurde OpenClaw wegen der Belastung für das System untersagt. Drittanbieter-Tools waren ohnehin nie erlaubt und sind es streng genommen immer noch nicht, wirken aber inzwischen mit Zusatzabrechnung und stillschweigender Duldung in einer Grauzone. Allerdings glaube ich nicht, dass sich die Lage verbessert, wenn man noch 50.000 Zeichen an proprietärem System-Prompt mit geringer Relevanz obendrauf legt. Letztlich frage ich mich, ob Anthropic es wohl gutheißen würde, wenn man OpenClaw einfach mit claude -p prompt plus Cron nachbaut; vermutlich ist die Zahl der Leute, die dazu in der Lage wären, so gering, dass es ihnen egal ist. Kontext dazu gibt es auch in diesem HN-Post
    • Wenn der Mittelsmann zwischen dem Nutzer und mir von einem Konkurrenten übernommen wurde, ist es doch nur natürlich, diese Abhängigkeit reduzieren zu wollen. Das ist so unerquicklich, wie wenn Apple iPhones in Microsoft-Läden verkaufen würde
    • Mich würde interessieren, wie deine konkrete Konfiguration für eine OpenClaw-Implementierung auf Basis von Claude Code aussieht
  • Dass OpenClaw in dieser Form sagt: Anthropic hat gesagt, das sei okay, lädt geradezu zu dem sarkastischen Kommentar ein, die Lage sei ja wirklich glasklar

  • Ich bin mit der Kombination aus Claude Code, Opus und dem Max-Plan insgesamt ziemlich zufrieden, aber die Momente, in denen es nicht funktioniert, die Kosten und das Risiko eines Account-Banns gehen mir weiterhin durch den Kopf. Deshalb frage ich mich, ob es Alternative Setups gibt, die eine ähnliche oder bessere Erfahrung günstiger liefern. Ich habe viel Gutes über pi.dev und OpenCode gehört, und OpenCode mit Mimo V2 pro wirkte bei meinem Test ziemlich ordentlich. Früher habe ich auch Qwen CLI und Gemini CLI genutzt, bevor die kostenlose Nutzung eingeschränkt wurde, und Z.ai zusammen mit OpenCode. Manche Leute sagen außerdem, sie planen mit Opus und geben weniger wichtige Aufgaben an günstigere Modelle ab, aber ich mag nutzungsbasierte Abrechnung nicht besonders, weil ich nicht glaube, dass sie am Ende wirklich billiger ist. Ich arbeite vor allem mit Python-Backends und TypeScript-Frontends, hoste bei Hetzner, nutze viel Docker und bei Bedarf auch k3s – deshalb würde ich gern praxistaugliche Produktiv-Setups für so eine Umgebung sehen

 
ajh508 7 일 전

Wenn Prompt Caching nicht funktioniert, werden die Tokens wohl einfach nur verbrannt.