DeepClaude – Claude-Code-Agent-Loop mit DeepSeek V4 Pro 17-mal günstiger nutzen
(github.com/aattaran)- DeepClaude ersetzt bei der Claude Code CLI nur das Ziel der API-Aufrufe durch DeepSeek V4 Pro, OpenRouter, Fireworks AI oder Anthropic-kompatible Backends, während Tool-Loop, Dateibearbeitung, Bash und git-Workflows von Claude Code erhalten bleiben
- Claude Code kostet 200 $ pro Monat und hat Nutzungslimits, während DeepSeek V4 Pro mit einem LiveCodeBench-Wert von 96,4 % und einem Preis von 0,87 $/M für Output-Token wirbt
- Unterstützt werden Lesen, Schreiben und Bearbeiten von Dateien, Ausführen von Bash/PowerShell, Suche per Glob/Grep, mehrstufige autonome Tool-Loops, Erzeugen von Sub-Agenten, git-Operationen,
/initsowie ein standardmäßig aktivierter Thinking Mode - Standard-Backend ist DeepSeek; OpenRouter bietet US-Server und niedrige Latenz, Fireworks AI schnelle Inferenz, und Anthropic steht als Option für Claude Opus bei schwierigen Problemen zur Verfügung
- Die Preise je nach Backend werden mit 0,44 $/M Input und 0,87 $/M Output für DeepSeek und OpenRouter, 1,74 $/M Input und 3,48 $/M Output für Fireworks AI sowie 3,00 $/M Input und 15,00 $/M Output für Anthropic angegeben
- DeepClaude setzt
ANTHROPIC_BASE_URL,ANTHROPIC_AUTH_TOKEN,ANTHROPIC_DEFAULT_OPUS_MODEL,ANTHROPIC_DEFAULT_SONNET_MODEL,ANTHROPIC_DEFAULT_HAIKU_MODELundCLAUDE_CODE_SUBAGENT_MODELsitzungsweise und stellt beim Beenden die ursprünglichen Einstellungen wieder her - Das automatische Kontext-Caching von DeepSeek cached System-Prompt und Dateikontext nach der ersten Anfrage für 0,004 $/M und senkt so die Kosten des Agent-Loops bei wiederholten Turns
- Als Nutzungsvergleich wird gegenüber Anthropic Max mit 200 $/Monat für DeepClaude etwa 20 $/Monat bei leichter Nutzung, etwa 50 $/Monat bei starker Nutzung und etwa 80 $/Monat inklusive automatischer Loops genannt
- Die Einschränkungen sind klar: Der Anthropic-Endpunkt von DeepSeek unterstützt keine Bildeingaben, Claude Code sendet Tools standardmäßig sequenziell, MCP-Server-Tools werden über die Kompatibilitätsschicht nicht unterstützt, und Anthropics
cache_controlwird ignoriert - Unterstützt wird Live Switching zum Wechseln des Backends innerhalb einer Sitzung ohne Neustart; der Proxy auf
localhost:3200leitet/v1/messagesan das aktive Backend weiter und bietet die Steuer-Endpunkte/_proxy/mode,/_proxy/statusund/_proxy/cost - Innerhalb von Claude Code lässt sich das Backend mit Slash-Befehlen wie
/deepseek,/anthropicoder/openrouteroder mitdeepclaude --switch dswechseln; der Proxy berechnet zudem Token-Nutzung und Einsparungen gegenüber Anthropic - Die Ausführung ist über VS Code/Cursor-Terminalprofile möglich;
--remoteöffnet eine Claude-Code-Sitzung im Browser, wobei die WebSocket-Bridge Anthropic nutzt und Modell-API-Aufrufe über den lokalen Proxy an DeepSeek oder andere Backends gehen - Für die Fernsteuerung werden
claude auth login, ein claude.ai-Abonnement und Node.js 18+ für den Proxy benötigt; die Projektlizenz ist MIT
1 Kommentare
Hacker-News-Kommentare
Claude Code über die DeepSeek-API zu betreiben, ist im Grunde nur mit einem Shell-Wrapper möglich, der ein paar Umgebungsvariablen setzt
Im Wesentlichen setzt man
ANTHROPIC_BASE_URL=https://api.deepseek.com/anthropic,ANTHROPIC_AUTH_TOKENundANTHROPIC_MODELund führt dannclaude $@ausAllerdings scheint man bei der DeepSeek-API kein Opt-out vom Training wählen zu können, und es wäre vermutlich besser, wenn das bei anderen Anbietern verfügbar wäre. OpenRouter scheint DeepSeek derzeit nur zu proxien
Allerdings gehen diese Funktionen in einer README unter, die wie von einem LLM geschrieben wirkt, und der Verlauf deutet darauf hin, dass sie später hinzugefügt wurden, ohne die Struktur der README neu zu ordnen
Der Autor hat sogar einen scheinbar wirksamen Social-Media-Werbeplan mit eingecheckt: https://github.com/aattaran/deepclaude/commit/a90a399682defc...
Einfach so ausführen:
aivo claude -m deepseek-v4-proIch verstehe nicht ganz, was daran die große Sache sein soll. DeepSeek erklärt bereits, wie man seine API in verschiedenen CLIs einschließlich Claude Code nutzt
https://api-docs.deepseek.com/quick_start/agent_integrations...
Offenbar hat das LLM, das die README geschrieben hat, die allgemeine Projektbeschreibung nicht aktualisiert, um genau diese Funktionen hervorzuheben
Auch der Werbeplan des Autors wurde eingecheckt: https://github.com/aattaran/deepclaude/commit/a90a399682defc...
Wenn du nach Alternativen zu Claude Code suchst, würde ich zuerst pi.dev oder opencode als Ausführungs-Frameworks anschauen
Beim Modell scheint OpenCode Go derzeit das beste Preis-Leistungs-Verhältnis zu haben, und OpenRouter oder eine direkte DeepSeek-Anbindung sind ebenfalls möglich. Persönlich würde ich eher zu Kimi gehen und ein Abo bei kimi.com kaufen
In meinem privaten Side-Project mouse.dev kombiniere ich Teile von OpenCode, Claude Code und Hermes zu einer Cloud-Agent-Architektur, die auch auf Mobilgeräten gut funktioniert
Dann stellte sich heraus, dass ein Bot einfach alle Issues automatisch geschlossen hat. Mir fehlen wirklich die Worte
Selbst wenn Token nur etwa 1 Dollar pro 1 Million Token kosten, ist es erstaunlich leicht, Token im Wert von 200 Dollar zu verbrauchen
Egal wie ich rechne, ein Coding-Tarif hat das bessere Preis-Leistungs-Verhältnis
Wenn Leistung auf Sonnet-Niveau ausreicht, klingt das definitiv wie ein Upgrade
Aber Sonnet macht mir zu viele Fehler, daher fühlt sich Kostenoptimierung auf diesem Leistungsniveau am Ende nicht besonders wertvoll an. Trotzdem ist es gut, mehr Auswahl zu haben
Wenn man Design mit Opus und Implementierung mit DeepSeek trennt, könnte man die Kosten deutlich senken. Ich persönlich würde Anthropic ganz meiden, aber ich verstehe, warum andere es nutzen
Ob Unternehmen oder einzelne Mitarbeiter: Ich sehe derzeit kaum einen Grund, nicht das beste verfügbare Modell und die höchste oder zweithöchste Reasoning-Stärke zu verwenden. Es ist nicht billig, aber auch nicht extrem teuer
Um gute Architektur zu entwerfen, muss man viele Spezifikationen und viel Code lesen, was viele Ein- und Ausgabetoken erzeugt, und bei Bugfixes gilt mit Logs oder Datadog dasselbe
Sobald die Richtung klar ist, sind die Patches eher klein, und wenn es nicht gerade um Refactoring oder Aufräumarbeit geht, spart man mit billigeren Modellen auch nur wenig
Tests werden immer komplexer. Allein opencode go enthält schon GLM-5.1, GLM-5, Kimi K2.5, Kimi K2.6, MiMo-V2-Pro, MiMo-V2-Omni, MiMo-V2.5-Pro, MiMo-V2.5, Qwen3.5 Plus, Qwen3.6 Plus, MiniMax M2.5, MiniMax M2.7, DeepSeek V4 Pro und DeepSeek V4 Flash
Jetzt muss man diese Modelle selbst in großem Maßstab mit all ihren Bugs betreiben, und ich weiß nicht, ob mir hier etwas entgeht. Ich frage mich, wofür billigere Modelle eigentlich wirklich gut sind
Claude.md, regelmäßiger Überprüfung der Ausgaben und grundlegenden CI-Gates, die gute Coding-Praktiken erzwingen, musste ich fast nie zu Opus wechselnIch frage mich, ob das einfach ein Fall ist, in dem man zwei Umgebungsvariablen setzen als One-Shot einer AI überlassen hat
Ich frage mich, ob Claude Code wirklich das beste Coding-Ausführungs-Framework ist. Gibt es irgendwo Evaluierungen dazu?
Claude Code hingegen ist das Tool, das sowohl durch das Consumer-Max-Abo als auch durch Token-Rabatte für Unternehmen am stärksten subventioniert wird. Es ist außerdem stark auf Kostenoptimierung getrimmt, etwa durch Token-Caching und reduzierte Reasoning-Menge, und das geht auf Kosten der Qualität
Nachdem ich DeepSeek V4 in mehreren CLIs ausprobiert habe, hat Langcli für mich am besten gepasst. Bei Programmieraufgaben liegt die Cache-Trefferquote bei über 95 %
Innerhalb desselben Kontexts kann man nahtlos und dynamisch zwischen DeepSeek V4 Flash, V4 Pro und anderen Mainstream-Modellen wechseln, und es ist zu 100 % mit Claude Code kompatibel
Ich habe einen halben Tag damit verbracht, CUDA und LLAMA auf einer 5070TI zum Laufen zu bringen
Ich konnte es im Agentenmodus von Roo ausprobieren, habe es einen Plan schreiben lassen und dann gestoppt, will aber weitermachen, wenn ich mehr Zeit habe
DeepSeek scheint mit genug Geld selbst hostbar zu sein, daher wirkt ein plötzlicher Rückzug eher unwahrscheinlich, aber ich bin trotzdem stärker an lokalen Lösungen interessiert
Meistens braucht man nur einfache Fleißarbeit, keine Lösung für besonders schwierige Probleme
Es fühlt sich eindeutig vibe-gecodet und der Preis wirkt auch falsch