- pi-coding-agent ist ein Coding-Agent-Framework, das komplexe Funktionen minimiert und so entworfen wurde, dass Nutzer die Kontextkontrolle und Transparenz vollständig behalten
- Die Kernkomponenten sind die vier Bausteine pi-ai, pi-agent-core, pi-tui und pi-coding-agent, die jeweils LLM-API-Integration, Agent-Loop, Terminal-UI und CLI-Integration übernehmen
- Systemprompt und Tool-Set werden unter 1000 Token gehalten, und mit nur vier Tools – read/write/edit/bash – wird eine extreme Vereinfachung angestrebt
- Sicherheitsbeschränkungen, Sub-Agents, Plan-Modus und MCP-Unterstützung werden vollständig ausgeschlossen; stattdessen liegt der Fokus auf vollständiger Beobachtbarkeit und Kontrolle
- Benchmark-Ergebnisse und praktische Nutzungserfahrungen zeigen, dass ein einfaches und transparentes Design gegenüber komplexen Agenten durchaus konkurrenzfähig ist
pi-ai und pi-agent-core
- pi-ai bietet eine einheitliche API zur Integration verschiedener LLM-Anbieter wie Anthropic, OpenAI, Google, xAI und Groq
- Einschließlich Streaming, Tool-Calling, Unterstützung für Reasoning-(Trace-)Daten, Token- und Kostenverfolgung sowie Browser-Kompatibilität
- Mit nur vier zentralen APIs (OpenAI Completions/Responses, Anthropic Messages, Google Generative AI) lässt sich mit den meisten Modellen kommunizieren
- API-Unterschiede zwischen den einzelnen Anbietern werden einheitlich behandelt
- Zum Beispiel Unterschiede bei Feldnamen wie
max_tokens, der Position von Reasoning-Feldern oder fehlender Unterstützung für die Rolle developer
- Da Token-Nutzungsdaten je nach Anbieter unterschiedlich gemeldet werden, ist eine exakte Kostenberechnung unmöglich; pi-ai verfolgt sie daher nach dem Best-Effort-Prinzip
- Mit der Funktion Context handoff kann während einer Sitzung das Modell oder der Anbieter gewechselt werden
- Beispiel: Beim Wechsel von Anthropic → OpenAI → Google bleiben Reasoning-Inhalte erhalten, indem sie in ``-Tags umgewandelt werden
- Über eine Model Registry werden typsichere Modelldefinitionen unterstützt
- Durch Parsen von Daten aus OpenRouter und models.dev werden Kosten- und Funktionsinformationen pro Modell automatisch erzeugt
- Abbrechen von Requests (abort) und Rückgabe partieller Ergebnisse werden vollständig unterstützt
- Wird Streaming per AbortController abgebrochen, können Zwischenergebnisse direkt weiterverwendet werden
- Einführung einer getrennten Struktur für Tool-Ergebnisse
- Für das LLM bestimmter Text und für die UI anzuzeigende Daten werden getrennt zurückgegeben; die Argumentvalidierung erfolgt mit TypeBox/AJV
- Künftig ist zusätzlich Streaming von Tool-Ergebnissen geplant
- Der Agent-Loop wiederholt automatisch Nachrichtenverarbeitung, Tool-Ausführung und Ergebnis-Feedback
- Die ereignisbasierte Struktur erleichtert die Umsetzung reaktiver UIs
- Unnötige Steuerparameter (etwa maximale Schritte) wurden entfernt, um das System zu vereinfachen
pi-tui
- pi-tui ist ein auf Node.js basierendes Terminal-UI-Framework, das Echtzeit-Updates mit minimalem Flicker unterstützt
- Durch Differential Rendering werden nur geänderte Zeilen aktualisiert
- Mit synchronisierten Ausgabe-Sequenzen (CSI ?2026h/l) wird Flicker minimiert
- Von zwei TUI-Ansätzen wurde ein CLI-artiger Ausgabemodus gewählt, der den Scrollback-Puffer beibehält
- Natürliches Scrollen, Suchen und andere Standardfunktionen des Terminals lassen sich unverändert nutzen
- Ähnliche Struktur wie bei Claude Code, Codex und Droid
- Verwendet wird eine Retained-Mode-UI
- Jede Komponente cached ihr Render-Ergebnis und zeichnet nur bei Änderungen neu
- So sind effiziente Updates ohne vollständiges Re-Rendering des gesamten Bildschirms möglich
- Performance und Speicherverbrauch sind gering; selbst große Sitzungen lassen sich mit einigen hundert KB reibungslos verarbeiten
pi-coding-agent
- pi-coding-agent ist ein CLI-basierter Coding-Agent mit folgenden Funktionen
- Unterstützung für Windows/Linux/macOS, Sitzungsverwaltung (Fortsetzen/Verzweigen), Modellwechsel und Laden von projektbezogenen AGENTS.md
- Unterstützung für OAuth-Authentifizierung, Live-Wechsel von Themes, Export von Sitzungen als HTML und Headless-Modus (JSON/RPC)
- Der Systemprompt ist eine kompakte Form mit unter 1000 Token
- Es werden nur die vier Tools read/write/edit/bash angegeben
- Unnötige Erklärungen oder komplexe Regeln entfallen; Nutzer können das Verhalten über AGENTS.md frei erweitern
- Das Tool-Set besteht minimal aus vier Tools
- Es werden nur
read, write, edit und bash verwendet, was für die meisten Coding-Aufgaben ausreicht
- Zusätzliche Tools können optional aktiviert werden (z. B. grep, find, ls)
- YOLO-Modus ist standardmäßig aktiv
- Kein eingeschränkter Zugriff auf das gesamte Dateisystem und keine Beschränkung bei der Befehlsausführung
- Sicherheits-Prompts oder Vorabvalidierung entfallen; stattdessen wird die Nutzung in einer Container-Umgebung empfohlen
- Eingebaute To-do-Funktion, Plan-Modus, MCP, Background bash und Sub-Agents wurden alle entfernt
- To-do/Plan werden einfach durch dateibasierte Verwaltung (TODO.md, PLAN.md) ersetzt
- MCP wurde wegen Token-Verschwendung und Komplexität ausgeschlossen und stattdessen durch den Ansatz CLI+README ersetzt
- Für Background bash wird die Nutzung von tmux empfohlen
- Sub-Agents sind wegen mangelnder Sichtbarkeit deaktiviert; falls nötig, kann der Agent sich über bash selbst aufrufen
- Beobachtbarkeit (Observability) steht im Mittelpunkt
- Alle Befehle, Dateizugriffe und Ausgaben werden transparent angezeigt
- Im Kontrast zur „Blackbox“-Struktur anderer Agenten wie Claude Code
Benchmarks
- Getestet wurde auf Terminal-Bench 2.0 zusammen mit dem Modell Claude Opus 4.5
- Im Vergleich zu Codex, Cursor, Windsurf und anderen wurde wettbewerbsfähige Leistung erzielt
- Die Ergebnisdatei (
results.json) wurde an das öffentliche Repository übermittelt
- Auch einfache Agenten wie Terminus 2 zeigen ähnliche Leistung und bestätigen damit die Wirksamkeit eines minimalistischen Ansatzes
Fazit
- pi ist ein Coding-Agent, der Kontextkontrolle, Einfachheit und Transparenz höher gewichtet als komplexe Funktionen
- Sowohl in der Praxis als auch in Benchmarks zeigt er eine Effizienz auf Augenhöhe mit großen Agenten
- Als künftige Ergänzungen sind im Wesentlichen Kontextkomprimierung (compaction) und Streaming von Tool-Ergebnissen geplant
- Das Projekt ist als Open Source veröffentlicht und garantiert freie Forks und Erweiterungen
- Die zentrale Lehre lautet: „Einfachheit bedeutet Kontrolle, und Kontrolle bedeutet Produktivität“
Noch keine Kommentare.