1 Punkte von GN⁺ 2 시간 전 | 1 Kommentare | Auf WhatsApp teilen
  • DeepClaude ersetzt bei der Claude Code CLI nur das Ziel der API-Aufrufe durch DeepSeek V4 Pro, OpenRouter, Fireworks AI oder Anthropic-kompatible Backends, während Tool-Loop, Dateibearbeitung, Bash und git-Workflows von Claude Code erhalten bleiben
  • Claude Code kostet 200 $ pro Monat und hat Nutzungslimits, während DeepSeek V4 Pro mit einem LiveCodeBench-Wert von 96,4 % und einem Preis von 0,87 $/M für Output-Token wirbt
  • Unterstützt werden Lesen, Schreiben und Bearbeiten von Dateien, Ausführen von Bash/PowerShell, Suche per Glob/Grep, mehrstufige autonome Tool-Loops, Erzeugen von Sub-Agenten, git-Operationen, /init sowie ein standardmäßig aktivierter Thinking Mode
  • Standard-Backend ist DeepSeek; OpenRouter bietet US-Server und niedrige Latenz, Fireworks AI schnelle Inferenz, und Anthropic steht als Option für Claude Opus bei schwierigen Problemen zur Verfügung
  • Die Preise je nach Backend werden mit 0,44 $/M Input und 0,87 $/M Output für DeepSeek und OpenRouter, 1,74 $/M Input und 3,48 $/M Output für Fireworks AI sowie 3,00 $/M Input und 15,00 $/M Output für Anthropic angegeben
  • DeepClaude setzt ANTHROPIC_BASE_URL, ANTHROPIC_AUTH_TOKEN, ANTHROPIC_DEFAULT_OPUS_MODEL, ANTHROPIC_DEFAULT_SONNET_MODEL, ANTHROPIC_DEFAULT_HAIKU_MODEL und CLAUDE_CODE_SUBAGENT_MODEL sitzungsweise und stellt beim Beenden die ursprünglichen Einstellungen wieder her
  • Das automatische Kontext-Caching von DeepSeek cached System-Prompt und Dateikontext nach der ersten Anfrage für 0,004 $/M und senkt so die Kosten des Agent-Loops bei wiederholten Turns
  • Als Nutzungsvergleich wird gegenüber Anthropic Max mit 200 $/Monat für DeepClaude etwa 20 $/Monat bei leichter Nutzung, etwa 50 $/Monat bei starker Nutzung und etwa 80 $/Monat inklusive automatischer Loops genannt
  • Die Einschränkungen sind klar: Der Anthropic-Endpunkt von DeepSeek unterstützt keine Bildeingaben, Claude Code sendet Tools standardmäßig sequenziell, MCP-Server-Tools werden über die Kompatibilitätsschicht nicht unterstützt, und Anthropics cache_control wird ignoriert
  • Unterstützt wird Live Switching zum Wechseln des Backends innerhalb einer Sitzung ohne Neustart; der Proxy auf localhost:3200 leitet /v1/messages an das aktive Backend weiter und bietet die Steuer-Endpunkte /_proxy/mode, /_proxy/status und /_proxy/cost
  • Innerhalb von Claude Code lässt sich das Backend mit Slash-Befehlen wie /deepseek, /anthropic oder /openrouter oder mit deepclaude --switch ds wechseln; der Proxy berechnet zudem Token-Nutzung und Einsparungen gegenüber Anthropic
  • Die Ausführung ist über VS Code/Cursor-Terminalprofile möglich; --remote öffnet eine Claude-Code-Sitzung im Browser, wobei die WebSocket-Bridge Anthropic nutzt und Modell-API-Aufrufe über den lokalen Proxy an DeepSeek oder andere Backends gehen
  • Für die Fernsteuerung werden claude auth login, ein claude.ai-Abonnement und Node.js 18+ für den Proxy benötigt; die Projektlizenz ist MIT

1 Kommentare

 
GN⁺ 2 시간 전
Hacker-News-Kommentare
  • Claude Code über die DeepSeek-API zu betreiben, ist im Grunde nur mit einem Shell-Wrapper möglich, der ein paar Umgebungsvariablen setzt
    Im Wesentlichen setzt man ANTHROPIC_BASE_URL=https://api.deepseek.com/anthropic, ANTHROPIC_AUTH_TOKEN und ANTHROPIC_MODEL und führt dann claude $@ aus

    • Für nicht geheime Projekte nutze ich das seit etwa einer Woche mit DeepSeek v4, und weil ich ihm wohl keine besonders harten Aufgaben gebe, merke ich fast keinen Unterschied
      Allerdings scheint man bei der DeepSeek-API kein Opt-out vom Training wählen zu können, und es wäre vermutlich besser, wenn das bei anderen Anbietern verfügbar wäre. OpenRouter scheint DeepSeek derzeit nur zu proxien
    • Es wirkt, als würde jedes Projekt, das sich über Claude lustig macht, selbst wenn es nur aus vier Zeilen Code besteht, auf Platz 1 bei Hacker News landen
    • Der interessantere Teil an deepclaude ist der lokale Proxy, mit dem man mitten in einer Sitzung das Modell wechseln kann, plus integriertes Kosten-Tracking
      Allerdings gehen diese Funktionen in einer README unter, die wie von einem LLM geschrieben wirkt, und der Verlauf deutet darauf hin, dass sie später hinzugefügt wurden, ohne die Struktur der README neu zu ordnen
      Der Autor hat sogar einen scheinbar wirksamen Social-Media-Werbeplan mit eingecheckt: https://github.com/aattaran/deepclaude/commit/a90a399682defc...
    • Deshalb habe ich https://getaivo.dev gebaut, womit man Modelle direkt in Coding-Agenten nutzen kann
      Einfach so ausführen: aivo claude -m deepseek-v4-pro
    • Im Kern ermöglicht dieser Ansatz, jedes Modell zusammen mit Claude Code zu verwenden, einschließlich lokaler Modelle
  • Ich verstehe nicht ganz, was daran die große Sache sein soll. DeepSeek erklärt bereits, wie man seine API in verschiedenen CLIs einschließlich Claude Code nutzt
    https://api-docs.deepseek.com/quick_start/agent_integrations...

    • Die README versteckt tatsächlich Funktionen, die nicht trivial sind: Sie betreibt einen Proxy zum Modellwechsel mitten in der Sitzung und verfolgt die Kosten konsolidiert, wenn man Anthropic zusammen mit anderen Modellen nutzt
      Offenbar hat das LLM, das die README geschrieben hat, die allgemeine Projektbeschreibung nicht aktualisiert, um genau diese Funktionen hervorzuheben
      Auch der Werbeplan des Autors wurde eingecheckt: https://github.com/aattaran/deepclaude/commit/a90a399682defc...
    • Wahrscheinlich bedeutet es nicht viel. Es wirkt, als hätte jemand etwas nicht richtig verstanden und auch nicht recherchiert, dann den ersten Einfall direkt gebaut und auf die HN-Startseite und alle sozialen Netzwerke gepostet
    • Sieht aus wie ein Tool von Vibe-Codern für Vibe-Coder
    • Soweit ich gesehen habe, sind die Tool-Call-Formate nicht exakt gleich. Um also beliebige AIs an Claude Code anzuschließen, braucht man vermutlich Formatkonvertierung
    • Ich frage mich, wie gut es in der Praxis wirklich funktioniert. Ich habe DeepSeek mit Hermes und Opencode ausprobiert, und selbst mit starker Anleitung über den System-Prompt war es sehr schlecht darin, grundlegende Tools wie das holografische Speicher-Tool von Hermes zu benutzen
  • Wenn du nach Alternativen zu Claude Code suchst, würde ich zuerst pi.dev oder opencode als Ausführungs-Frameworks anschauen
    Beim Modell scheint OpenCode Go derzeit das beste Preis-Leistungs-Verhältnis zu haben, und OpenRouter oder eine direkte DeepSeek-Anbindung sind ebenfalls möglich. Persönlich würde ich eher zu Kimi gehen und ein Abo bei kimi.com kaufen

    • Ich werfe auch mein eigenes Ausführungs-Framework in den Ring: https://codeberg.org/mlow/lmcli
    • pi.dev und opencode sind gut, aber Plugins und Skills, die ich nutzen will, gibt es bei Claude Code am meisten
    • Stimme zu. OpenCode ist eine solide Basis und könnte mit ein paar Anpassungen ein sehr effektives Ausführungs-Framework werden
      In meinem privaten Side-Project mouse.dev kombiniere ich Teile von OpenCode, Claude Code und Hermes zu einer Cloud-Agent-Architektur, die auch auf Mobilgeräten gut funktioniert
    • Ich habe mir pi.dev angesehen und fand es verdächtig, dass es auf GitHub nur sieben offene Issues gab
      Dann stellte sich heraus, dass ein Bot einfach alle Issues automatisch geschlossen hat. Mir fehlen wirklich die Worte
    • Ollama Cloud ist ebenfalls sehr kosteneffizient. In einem Monat Nutzung bin ich nur einmal an das 5-Stunden-Limit gestoßen, und das auch nur, als acht Agenten zwei Stunden lang gleichzeitig liefen
  • Selbst wenn Token nur etwa 1 Dollar pro 1 Million Token kosten, ist es erstaunlich leicht, Token im Wert von 200 Dollar zu verbrauchen
    Egal wie ich rechne, ein Coding-Tarif hat das bessere Preis-Leistungs-Verhältnis

  • Wenn Leistung auf Sonnet-Niveau ausreicht, klingt das definitiv wie ein Upgrade
    Aber Sonnet macht mir zu viele Fehler, daher fühlt sich Kostenoptimierung auf diesem Leistungsniveau am Ende nicht besonders wertvoll an. Trotzdem ist es gut, mehr Auswahl zu haben

    • Viele Leute erzielen gute Ergebnisse, indem sie für das Design Opus verwenden und für die Implementierung lokal gehostetes qwen3.6
      Wenn man Design mit Opus und Implementierung mit DeepSeek trennt, könnte man die Kosten deutlich senken. Ich persönlich würde Anthropic ganz meiden, aber ich verstehe, warum andere es nutzen
    • Wir sind noch nicht an dem Sättigungspunkt, an dem die Intelligenz aller Frontier-Modelle im Wesentlichen gleich ist und man allein nach anderen Faktoren wie Geschwindigkeit oder effektivem Kontextfenster wählen kann
      Ob Unternehmen oder einzelne Mitarbeiter: Ich sehe derzeit kaum einen Grund, nicht das beste verfügbare Modell und die höchste oder zweithöchste Reasoning-Stärke zu verwenden. Es ist nicht billig, aber auch nicht extrem teuer
    • Entscheidend ist nicht ein gutes Modell, sondern das beste Modell
      Um gute Architektur zu entwerfen, muss man viele Spezifikationen und viel Code lesen, was viele Ein- und Ausgabetoken erzeugt, und bei Bugfixes gilt mit Logs oder Datadog dasselbe
      Sobald die Richtung klar ist, sind die Patches eher klein, und wenn es nicht gerade um Refactoring oder Aufräumarbeit geht, spart man mit billigeren Modellen auch nur wenig
      Tests werden immer komplexer. Allein opencode go enthält schon GLM-5.1, GLM-5, Kimi K2.5, Kimi K2.6, MiMo-V2-Pro, MiMo-V2-Omni, MiMo-V2.5-Pro, MiMo-V2.5, Qwen3.5 Plus, Qwen3.6 Plus, MiniMax M2.5, MiniMax M2.7, DeepSeek V4 Pro und DeepSeek V4 Flash
      Jetzt muss man diese Modelle selbst in großem Maßstab mit all ihren Bugs betreiben, und ich weiß nicht, ob mir hier etwas entgeht. Ich frage mich, wofür billigere Modelle eigentlich wirklich gut sind
    • Diese Lektion lerne ich immer wieder neu. Mit kleineren Modellen läuft erst alles gut, dann wirft man ihnen ein zu komplexes Problem hin, probiert mehrere Modelle aus, gibt schließlich auf und ruft Opus 4.6, damit es aufräumt
    • Bei Sonnet empfinde ich das überhaupt nicht so. Mit einer soliden Claude.md, regelmäßiger Überprüfung der Ausgaben und grundlegenden CI-Gates, die gute Coding-Praktiken erzwingen, musste ich fast nie zu Opus wechseln
  • Ich frage mich, ob das einfach ein Fall ist, in dem man zwei Umgebungsvariablen setzen als One-Shot einer AI überlassen hat

  • Ich frage mich, ob Claude Code wirklich das beste Coding-Ausführungs-Framework ist. Gibt es irgendwo Evaluierungen dazu?

    • Nach meinem persönlichen Eindruck nein. Dasselbe Opus-Modell funktioniert in Third-Party-Ausführungs-Frameworks wie Factory Droid oder Amp besser
      Claude Code hingegen ist das Tool, das sowohl durch das Consumer-Max-Abo als auch durch Token-Rabatte für Unternehmen am stärksten subventioniert wird. Es ist außerdem stark auf Kostenoptimierung getrimmt, etwa durch Token-Caching und reduzierte Reasoning-Menge, und das geht auf Kosten der Qualität
  • Nachdem ich DeepSeek V4 in mehreren CLIs ausprobiert habe, hat Langcli für mich am besten gepasst. Bei Programmieraufgaben liegt die Cache-Trefferquote bei über 95 %
    Innerhalb desselben Kontexts kann man nahtlos und dynamisch zwischen DeepSeek V4 Flash, V4 Pro und anderen Mainstream-Modellen wechseln, und es ist zu 100 % mit Claude Code kompatibel

  • Ich habe einen halben Tag damit verbracht, CUDA und LLAMA auf einer 5070TI zum Laufen zu bringen
    Ich konnte es im Agentenmodus von Roo ausprobieren, habe es einen Plan schreiben lassen und dann gestoppt, will aber weitermachen, wenn ich mehr Zeit habe
    DeepSeek scheint mit genug Geld selbst hostbar zu sein, daher wirkt ein plötzlicher Rückzug eher unwahrscheinlich, aber ich bin trotzdem stärker an lokalen Lösungen interessiert
    Meistens braucht man nur einfache Fleißarbeit, keine Lösung für besonders schwierige Probleme

  • Es fühlt sich eindeutig vibe-gecodet und der Preis wirkt auch falsch

    • Bald wird es wohl wirklich schwer, noch Titel zu finden, die nicht vibe-gecodet sind
    • Schlechte Vibe-Codierung. Maschinen sollte man dort einsetzen, wo sie Details leicht verifizieren können