31 Punkte von GN⁺ 28 일 전 | 1 Kommentare | Auf WhatsApp teilen
  • Ein inoffizielles Projekt, das die Gesamtstruktur und internen Abläufe von Claude Code visuell analysiert und es ermöglicht, die Agent-Loop und das System mit mehr als 50 Tools vom Input-Processing bis zum Response-Rendering zu erkunden
  • Besteht aus insgesamt 804 Dateien, mehr als 220.000 Zeilen Code, mehr als 40 Befehlen und mehr als 22 Tools und ist ein unabhängiges Analyseergebnis ohne Verbindung zu Anthropic
  • Die Agent-Loop besteht aus einem 11-stufigen Verarbeitungsprozess mit Input, Message, System, API, Tool-Aufrufen und Rendering, wodurch sich die Antworterzeugung von Claude Code nachverfolgen lässt
  • Über das Tool-System und den Befehlskatalog werden Detailfunktionen wie Dateiarbeit, Ausführung, Suche, Planung und Systemverwaltung klassifiziert; zudem sind zahlreiche nicht öffentliche und experimentelle Funktionen enthalten
  • Versteckte Funktionen wie Buddy, Kairos, UltraPlan, Coordinator Mode unterstützen erweiterte Verhaltensweisen wie langfristige Planung, parallele Arbeit, Fernsteuerung und persistente Sessions

Struktur und interne Abläufe von Claude Code

  • Ein Projekt, mit dem sich die gesamte Agent-Loop, mehr als 50 Tools, Multi-Agent-Orchestrierung und nicht öffentliche Funktionen von Claude Code vom Input-Processing bis zum Response-Rendering visuell erkunden lassen
  • Besteht aus insgesamt 804 Dateien, mehr als 220.000 Zeilen Code, mehr als 40 Befehlen und mehr als 22 Tools
  • Wurde auf Basis des veröffentlichten Source Codes analysiert und ist ein inoffizielles Projekt ohne Verbindung zu Anthropic
  • Stand der Analyse ist der 31. März 2026, kuratiert von zackautocracy zusammen mit DeepWiki
  • Agent-Loop

    • Wenn der Nutzer eine Nachricht eingibt, durchläuft Claude Code 11 Schritte: Input → Message → History → System → API → Token → Tools → Loop → Render → Hook → Wait
    • Die Eingabe wird über die TextInput-Komponente von Ink verarbeitet; im nicht interaktiven Modus wird Standardeingabe (stdin) verwendet
    • Jeder Schritt ist so aufgebaut, dass sich der Prozess vom Empfang einer Nachricht bis zur Generierung einer Antwort in Claude Code detailliert nachverfolgen lässt
  • Architektur-Explorer

    • Der gesamte Source-Tree lässt sich anklickbar erkunden; die Hauptbestandteile sind wie folgt:
      • Tools & Commands: integrierte Tools und Befehle
      • Core Processing: zentrale Verarbeitungslogik
      • UI Layer: Aufbau der Benutzeroberfläche
      • Infrastructure: Infrastruktur und Laufzeitumgebung
      • Support & Utilities: Hilfs-Utilities
      • Personality & UX: Elemente rund um die User Experience

Tool- und Befehlssystem

  • Tool-System

    • Kategorisiert mehr als 22 integrierte Tools, die Claude Code aufrufen kann, nach Funktionsbereichen
    • Dateiarbeit

      • 6 Tools wie FileRead, FileEdit, FileWrite, Glob, Grep, NotebookEdit
    • Ausführung

      • 3 Tools wie Bash, PowerShell, REPL
    • Suche und Abruf

      • 4 Tools wie WebBrowser🔒, WebFetch, WebSearch, ToolSearch
    • Agenten und Aufgaben

      • 11 Tools wie Agent, SendMessage, TaskCreate, TaskList, TeamCreate
    • Planung

      • 5 Tools wie EnterPlanMode, ExitPlanMode, VerifyPlanExecution🔒
    • MCP-bezogen

      • 4 Tools wie ListMcpResources, ReadMcpResource, McpAuth
    • System

      • 11 Tools wie AskUserQuestion, TodoWrite, Config, Workflow🔒, TerminalCapture🔒
    • Experimentelle Funktionen

      • 8 Tools wie Sleep, SendUserMessage, LSP🔒, PushNotification🔒
  • Befehlskatalog

    • Kategorisiert alle Slash-Befehle, die in Claude Code verwendet werden können, nach Funktionsbereichen
    • Einstellungen und Konfiguration

      • 12 Befehle wie /init, /login, /logout, /config, /permissions, /model, /theme
    • Alltägliche Workflows

      • 24 Befehle wie /compact, /memory, /context, /plan, /resume, /files, /summary
    • Code Review und Git

      • 13 Befehle wie /review, /commit, /diff, /branch, /issue, /autofix-pr🔒
    • Debugging und Diagnose

      • 23 Befehle wie /status, /stats, /usage, /think-back, /debug-tool-call, /heapdump
    • Erweiterte und experimentelle Funktionen

      • 23 Befehle wie /advisor, /remote-control🔒, /teleport, /plugin, /web-setup, /help, /exit

Versteckte Funktionen

  • Enthält zahlreiche nicht öffentliche Funktionen, die im Code vorhanden sind, aber noch nicht ausgerollt wurden
  • Buddy

    • Ein virtuelles Haustier im Terminal; Art und Seltenheit werden anhand der Konto-ID bestimmt
  • Kairos

    • Ein persistenter Modus, der zusammengeführte Erinnerungen über Sessions hinweg und autonomes Verhalten im Hintergrund unterstützt
  • UltraPlan

    • Eine Langzeit-Planungssession mit bis zu 30 Minuten Laufzeit auf einem Opus-Klasse-Modell
  • Coordinator Mode

    • Ein Lead-Agent teilt Aufgaben auf, erzeugt parallele Worker und sammelt deren Ergebnisse ein
  • Bridge

    • Eine Funktion, mit der sich Claude Code per Smartphone oder Browser fernsteuern lässt
  • Daemon Mode

    • Führt mit der Option --bg eine Background-Session aus und verwendet intern tmux
  • UDS Inbox

    • Unterstützt Kommunikation zwischen Sessions über Unix-Domain-Sockets
  • Auto-Dream

    • Zwischen Sessions rekapituliert die AI frühere Aktivitäten und ordnet Lerninhalte

Projektinformationen

  • Ein inoffizielles Analyseprojekt ohne direkte Verbindung zu Anthropic
  • Erstellt auf Basis des veröffentlichten Claude-Code-Source-Codes; einige Inhalte können ungenau oder veraltet sein
  • Die Analyse wurde auf Basis des von @Fried_rice veröffentlichten Source Codes durchgeführt
  • Erstellt von zackautocracy mit Unterstützung durch die AI-Kuratierung von DeepWiki

1 Kommentare

 
GN⁺ 28 일 전
Hacker-News-Kommentare
  • Eine Agenten-CLI-Codebasis mit 500k Zeilen zeigt, wie komplex diese Hölle des State-Managements wird, wenn man versucht, stochastische LLMs deterministisch zu steuern
    Auf einfachen Plattformen funktioniert das gut, aber in großen Enterprise-Repositories geht es leicht kaputt
    Ohne externe State-Machine muss Zuverlässigkeit mit Brute Force erzwungen werden, sodass 90 % des Codes aus defensiver Programmierung bestehen — mit Regex, Context-Bereinigung, Retry-Loops, State-Rollbacks usw., um den Drift des Agenten zu verhindern
    Die Visualisierung ist cool, aber es wirkt immer noch eher so, als würde man eine Code-Masse antreiben statt systemweite Governance umzusetzen

    • Es gibt viel negative Diskussion über den Code, aber seltsam wenig über die Architektur selbst
      Entscheidend ist, dass die Client-Seite nur ein einfaches Toolset bereitstellt (read file, output rich text usw.) und so entworfen ist, dass der Server schnell innovieren kann
      Ich denke, die eigentliche Geheimzutat ist genau diese Struktur, in der das Server-Team sich fragt: „Wie kreativ können wir diese begrenzte API nutzen?“
    • Es gab auch viel industrielle Forschung dazu, Menschen deterministisch zu steuern, und selbst das war schon ein unkontrollierbares Kollektiv
    • Die gesamte Wirtschaft steht bereits auf solcher Technologie
      Wenn Versprechen nicht eingehalten werden, ist das nicht nur ein Fall von „instabilem Code“, sondern ein Problem, das das gesamte Finanzsystem erschüttern könnte
    • Es ist schwer zu unterscheiden, ob dieser Code das Ergebnis defensiver Programmierung ist oder wegen der mit AI-Coding unvermeidlich entstehenden Komplexität so geworden ist
    • Der Aussage „In großen Unternehmens-Repositories bricht es zusammen“ stimme ich nicht zu
      Orte wie Meta sind eher Beispiele dafür, wo CC am besten genutzt wird
  • Ich bin der Autor. Ich habe diese Visualisierungsseite innerhalb weniger Stunden direkt nach dem Claude-Code-Leak gebaut
    Ich nutze ohnehin pi, um meinen eigenen Coding-Agenten zu bauen, und wollte die Struktur von Anthropic (Tool-System, Agent-Loop usw.) untersuchen
    Bei 500k Zeilen war die Navigation schwierig, deshalb habe ich eine visuelle Karte als Referenz erstellt
    Mit Feedback aktualisiere ich die Seite laufend weiter, und wenn etwas fehlt, sagt mir bitte Bescheid

    • Ich verbinde pi und cc auch mit lokalem llama.cpp und lasse alles in einer vollständig Offline-Umgebung laufen
      Ich habe Design und Implementierung der beiden Systeme vergleichend analysiert und fand es beeindruckend, dass die Seite des Autors offenbar ebenfalls mit pi erstellt wurde
      Wenn möglich, würde ich gern auch eine pi-vs-cc-Visualisierung sehen
    • UX und Funktionalität der Seite sind hervorragend. Ich frage mich, ob es Pläne gibt, den Source Code zu veröffentlichen
    • Ton und Rhythmus des Textes sind gut
      Allerdings wären Anmerkungen oder Tooltips im Teil über das „Nachrichtenformat von Anthropic“ hilfreich — faktisch ist es auch das Format von OpenAI
    • Ich würde gern mehr darüber erfahren, wie der Autor seine Agent-Setups aufbaut
  • Ich frage mich, ob es einen ohne AI geschriebenen Agent-Harness gibt
    Es ist doch nur eine einfache TUI, die Modell-Endpunkte aufruft, und dann 500k Zeilen — das wirkt übertrieben

    • LoC ist bereits eine bedeutungslose Produktivitätsmetrik
      Es könnte um Code-Wiederverwendung oder Bibliotheksbildung gehen, oder das Ergebnis des startup-typischen Zeitdrucks sein
    • Ich empfehle, sich den pi coding agent anzusehen
    • Die TUI von CC ist keine einfache Text-UI, sondern React-basiertes Rendering
    • Die Code-Qualität von Opencode war ziemlich gut
    • Die Claude-Code-CLI ist im Grunde eine in Text umgewandelte Headless-Browser-Struktur, was das Debugging sehr unangenehm macht
      Wegen Problemen bei der ASCII→Unicode-Konvertierung brechen Pipes oder Parser, und auch Copy/Paste wird erschwert
      Eine Funktion, die einfach sein sollte, fühlt sich so an, als sei sie zu einer Rube-Goldberg-Maschine geworden
  • Es gibt die Frage: „500k Zeilen — ist das nicht mehr als ein simples REPL?“

    • Konkurrenzprodukte sind ähnlich groß
      Opencode hat 670k, Codex 720k, Gemini etwa 570k Zeilen, also ist die Größe von Claude Code nicht abnormal
    • Wegen der Komplexität von LLMs könnte ein unbewusster Anreiz wirken, dass auch die Tools komplex sein müssten
    • In der Praxis gibt es tatsächlich viele spontane Korrekturen (vibe fixes) und zu wenig konsistentes Design
      Details wie das Tracking von Cache-TTLs fand ich aber interessant
    • Statt der simplen Kritik „Weil es JS/Electron ist, ist es aufgebläht“ lautet die Position eher: Lies es selbst (RTFA)
    • Es wird auch diskutiert, wie viel LoC für ein solches Programm eigentlich angemessen wäre
  • Wenn das 2020 gewesen wäre, hätte man sich kaum vorstellen können, geleakten Code so visuell zu analysieren

    • Es gibt auch die Meinung, dass das schon mit statischen Analyse-Tools von damals möglich gewesen wäre
    • Mich interessiert, nach welchem Verfahren das konkret erstellt wurde und wie AI dabei eingesetzt wurde
  • Ich habe vor 11 Stunden ebenfalls eine ähnliche Seite gebaut, aber sie hat keine Aufmerksamkeit bekommen
    Trotzdem freut es mich, eine andere Umsetzung zu sehen
    Mein Versuch ist hier

    • Heute ist es eine Zeit, in der alle Ähnliches ausprobieren, daher hat es keine große Bedeutung, wer Aufmerksamkeit bekommt
  • Was mich immer noch überrascht, ist, dass man so eine coole Seite in nur zwei Tagen baut

    • Vermutlich wurde sie mit Claude Code erzeugt
      Von LLMs erzeugte Seiten haben oft eine hohe Oberflächenqualität, aber geringe inhaltliche Verlässlichkeit
      nzoilwatch.com wirkt zum Beispiel wie etwas von Experten, ist in Wirklichkeit aber ein persönliches Projekt
      Wenn man die Nutzung von LLMs explizit offenlegt, könnten Missverständnisse reduziert werden
    • Claude kann, wenn man nur richtig fragt, in wenigen Minuten Websites erzeugen
    • Ich habe mit Entwicklern großer Agent-Tools gesprochen, und sie sagten, sie bauen Tools mit Tools
      Als ich meinte, dass mein UI unausgereift sei, sagten sie, sie nutzten ihre eigene UI-Komponentenbibliothek
      Deshalb habe ich auch selbst eine Bibliothek namens substrateui.dev gebaut und habe mit Claude Code mein Design-System neu aufgebaut — ich genieße dabei sogar den Lernprozess rund um UI
    • Manche bewerten Lesbarkeit und Interaktion dieser Seite im Gegenteil als unkomfortabel
    • Trotzdem ist es ironisch, dass man auf HN sagt, LLMs würden die Produktivität senken
  • Der geleakte Source Code ist im Codeberg-Repository zu finden

  • Interessant ist, dass Anthropic seine eigenen Tools zum Entwickeln der eigenen Produkte nutzt
    Aber bei einem ein Jahr alten Projekt sollte es inzwischen Zeit sein, es zu stabilisieren

    • Ein einjähriges Projekt mit mehreren Entwicklern hat wahrscheinlich noch viele Bugs
    • Es kann eine rationale Entscheidung sein, technische Schulden aufzuschieben
      Aus dieser Sicht müssen Menschen nicht mehr selbst aufräumen, weil ohnehin zukünftige LLMs die Wartung übernehmen werden
    • Boris Cherny hat direkt erwähnt, dass sie „CC mit CC bauen“
    • Wenn man sich ihre Tweets ansieht, mit denen sie angeben, sieht man übermäßigen Ressourcenverbrauch wie eine TUI-API, die 68 GB RAM benötigt, oder 16 ms für Text-Rendering
  • Es wäre gut, dieses Projekt zu Awesome Claude Code hinzuzufügen