rtk – CLI-Proxy, der den LLM-Tokenverbrauch um 60–90 % senkt
(github.com/rtk-ai)- Eine einzelne Rust-Binärdatei (Windows/macOS/Linux), die die Ausgabe von CLI-Befehlen aus AI-Coding-Tools filtert und komprimiert, bevor sie an ein LLM weitergegeben wird, und so 60–90 % der Tokens einspart
- Unterstützt mehr als 100 Befehle wie git, grep, ls und cargo test und wendet vier Strategien an, bevor die Befehlsausgabe in den LLM-Kontext gelangt: intelligentes Filtern, Gruppieren, Trunkieren und Deduplizieren
- Unterstützt 10 AI-Coding-Tools wie Claude Code, Codex, Cursor, Gemini CLI; bei installierten Hooks werden Bash-Befehle automatisch transparent in den entsprechenden rtk-Befehl umgeschrieben
- Dieser Hook gilt nur für Bash-Tool-Aufrufe; die integrierten Tools von Claude Code wie
Read,Grep,Globusw. umgehen dieses Hooking, daher müssen für RTK-Filterung Shell-Befehle oder explizite rtk-Befehle verwendet werden
- Dieser Hook gilt nur für Bash-Tool-Aufrufe; die integrierten Tools von Claude Code wie
- Für eine 30-minütige Claude-Code-Sitzung wird eine Einsparung von ~23.900 Tokens (ca. 80 % weniger) gegenüber dem Standardwert von ~118.000 Tokens angegeben
- Bei Test-Runnern wie
cargo test/npm test,pytest,go testsind Einsparungen von bis zu 90 % möglich
- Bei Test-Runnern wie
- Erste Schritte
# 1. Installation rtk init -g # Claude Code / Copilot (default) rtk init -g --gemini # Gemini CLI rtk init -g --codex # Codex (OpenAI) rtk init -g --agent cursor # Cursor # 2. Danach das AI-Tool neu starten git status # funktioniert jetzt als rtk git status - Apache-2.0-Lizenz
9 Kommentare
Letztlich ist es ein Trade-off mit der Qualität, und ich frage mich auch, ob es am Ende nicht zu einer Struktur wird, bei der man mehr Tokens verbraucht, um die verlorene Qualität wiederherzustellen.
Ich habe es früher ausprobiert, aber wieder entfernt, weil Claude ständig noch mehr Tokens verbraucht hat, um Probleme zu lösen, die durch rtk verursacht wurden.
(Zum Beispiel erzeugt es bei einer JSON-Anfrage per
curlungültiges JSON, woraufhinjqeinen Fehler ausgibt; dann debuggt Claude das, verbrennt dabei Tokens und am Ende holt es sich doch wieder die rohecurl-Anfrage und parst sie mitjq.)Trotzdem halte ich die Grundidee für einen guten Ansatz, daher könnte es sich lohnen, es zu verwenden, sobald es stabiler geworden ist.
Ich bin mir nicht sicher, ob es wirklich etwas reduziert. Der Agent sagt mir ständig, ich solle den Befehl
rtk ls..verwenden, macht es dann aber selbst nicht.Ich nutze es persönlich auch schon eine Weile ... aber durch die rtk-Komprimierung gibt es wohl auch Fälle, in denen Claude Code den benötigten Kontext nicht aus den Befehlsergebnissen ziehen kann, daher scheint es eher von Fall zu Fall unterschiedlich zu sein.
Das fand ich an der Stelle auch schade!
Vor Kurzem gab es ein Update: Die vollständige Ausgabe wird jetzt in einer separaten Datei gespeichert, damit das LLM sie bei Bedarf lesen kann~
Es scheint, als gäbe es bei den Anwendungsfällen anderer Nutzer einige Nebenwirkungen.
Ich hoffe, dass diese bald überwunden werden und das Tool dann gut eingesetzt werden kann.
https://reddit.com/r/ClaudeCode/…
Wenn das die Nutzung wirklich so stark reduziert, wäre das wirklich großartig!
Gute Idee.
Da das Training aber wahrscheinlich auf der Grundlage normaler CLI-Ausgaben erfolgt ist, habe ich etwas die Sorge, ob die Ausgabe bei einer solchen Verdichtung noch genauso gut wie bisher ausfällt.
Ich werde es einmal ausprobieren.
Dann muss man wohl einen Vergleich mit contextmode machen.