- CLI ist zwar als neuer Trend für Agent-Tool-Interfaces aufgekommen, doch auch maßgeschneiderte CLIs leiden unter denselben Kontextproblemen wie MCP und müssen dafür Struktur sowie diverse Vorteile aufgeben
- MCP im lokalen
stdio-Modus und Remote-MCP auf Basis von Streamable HTTP sind vollständig unterschiedliche Use Cases, und diese Unterscheidung wird in der aktuellen Debatte übersehen
- Die Funktionen Prompts und Resources von MCP sind ein Mechanismus, um standardisierte Skills und Dokumente in Echtzeit in der gesamten Organisation zu verteilen, und damit zentral für den Übergang von Vibe Coding zu systematischem Agentic Engineering
- Zentrale MCP-Server standardisieren OAuth-Authentifizierung, Telemetrie und Observability und ermöglichen damit Sicherheit auf Organisationsebene sowie die Messung der Wirksamkeit von Tools
- Für einzelne Entwickler kann eine CLI passend sein, aber auf Organisations- und Enterprise-Ebene ist MCP das heutige und künftige Tool, das Konsistenz, Sicherheit und Qualität gewährleistet
Influencer-getriebener Hype-Zyklus
- Noch vor 6 Monaten war das Model Context Protocol (MCP) das größte Gesprächsthema der Branche, und jeder Vendor wollte Produkte rund um MCP auf den Markt bringen
- Schon damals gab es die skeptische Sichtweise „Das ist doch nur eine API, warum braucht man dafür einen Wrapper?“, und tatsächlich entschieden sich einige Teams bewusst dafür, den MCP-Hype-Zyklus zu überspringen und stattdessen einfache Tool-Wrapper über REST-API-Endpunkten zu schreiben
- Für die meisten Use Cases verbreitete sich die Wahrnehmung, MCP sei im Vergleich zum direkten Aufruf von APIs unnötiger Overhead
- Inzwischen hat sich der Branchendiskurs zu MCP-Kritik und CLI-Lobpreisung verschoben; das hängt auch mit der Struktur zusammen, in der AI-Influencer ständig neue Trends erzeugen müssen, um Aufmerksamkeit aufrechtzuerhalten
- Selbst prominente Namen wie Garry Tan oder Andrew Ng neigen dazu, persönliche Erfahrungen zu verallgemeinern, und eine von FOMO und Hype geprägte Influencer-Kultur verzerrt den Diskurs in diesem Feld
- Es gibt tatsächlich Fälle, in denen eine CLI besser als Agent-Tool-Interface geeignet ist, aber eben nicht in allen Fällen
Token-Einsparung bei CLI: Realität und Grenzen
CLI-Tools im Trainingsdatensatz
- CLI-Utilities wie
jq, curl, git, grep, psql oder aws, die im Trainingsdatensatz von LLMs enthalten sind, können von Agenten sofort ohne zusätzliche Anweisungen, Schemas oder Kontext verwendet werden
- MCP muss Tools in der Antwort von
tools/list vorab deklarieren, wodurch gegenüber bereits bekannten CLI-Tools Overhead entsteht
- CLI-Tools, die bereits in den Trainingsdaten enthalten sind, sollten immer gegenüber MCP bevorzugt werden
Grenzen maßgeschneiderter CLI
- Bei maßgeschneiderten (bespoke) CLI-Tools kann das LLM die Verwendung nicht kennen, daher muss in
AGENTS.md oder README.md eine Beschreibung bereitgestellt werden
- Man kann ein Verzeichnis
/cli-tools festlegen und auf sprechende Namen setzen, doch Agenten machen auf diese Weise häufig Fehler, sodass am Ende mehr erklärende Dokumentation nötig wird
- Selbst bei Tools wie
curl verschwindet der Vorteil der Token-Einsparung, sobald ein benutzerdefiniertes OpenAPI-Schema verstanden werden muss
Verkettete Extraktion und Transformation
- Mit CLI-Ketten lassen sich Daten erst abrufen und dann transformieren, um die in das Kontextfenster eingehende Datenmenge zu verringern
- Allerdings können formatierte Inhalte wie HTML, JSON oder XML auch mit Selektoren wie DOM/CSS, JSONPath oder XPath extrahiert werden; das ist also kein Alleinstellungsmerkmal der CLI
Schrittweiser Kontextverbrauch
- Während MCP das gesamte Toolset und die Schemas vorab lädt, kann eine CLI Kontext über
--help schrittweise laden
- Bei maßgeschneiderten CLI-Tools muss der Agent jedoch Help-Inhalte über mehrere Turns hinweg erkunden und lädt dadurch letztlich ähnliche Informationen wie ein MCP-Schema, nur ohne Struktur
- In ausreichend komplexen Flows durchsucht der Agent am Ende ohnehin den Großteil des Baums, sodass der Einsparungseffekt gering ist
- Laut Forschung von Vercel verbesserte sich die Nutzung von Dokumentation durch Agenten, wenn der gesamte Dokumentationsindex in
AGENTS.md abgelegt wurde; die vollständigen Schemas vorab bereitzustellen, begünstigt die richtige Tool-Auswahl
- Da Anthropic derzeit ein Kontextfenster von 1 Million Tokens anbietet, ist fraglich, ob Token-Einsparung überhaupt noch ein ausschlaggebendes Argument ist
Die Doppelnatur von MCP: stdio vs. Streamable HTTP
Grenzen des stdio-Modus
- Im
stdio-Modus läuft ein MCP-Server lokal zusammen mit dem Agenten und fügt gegenüber dem Schreiben einer einfachen CLI unnötige Komplexität hinzu
- Für die meisten Use Cases ist MCP im
stdio-Modus unnötig
Der transformative Wert von Streamable HTTP
- MCP mit Streamable-HTTP-Transport ermöglicht es, dieselbe Logik auf einem zentralen Server auszuführen, und ist für die Einführung in Organisationen und Enterprises ein Schlüsselelement, um Vibe Coding in Agentic Engineering zu überführen
- Die meisten Influencer unterscheiden diese beiden Modi nicht sauber
Vorteile zentraler MCP-Server
Umfangreiche Backend-Funktionen
- Auf einem zentralen Server können Tools umfangreiche Plattformfunktionen wie Postgres-Instanzen oder Cypher-Graphabfragen auf Basis von Apache AGE nutzen
- Auf Agent-Seite müssen nur HTTP-Endpunkt und Authentifizierungstoken konfiguriert werden, was die Bereitstellung einfach macht
- Auch lokale Datenbanken wie SQLite sind möglich, stoßen aber an Grenzen, wenn Zustände organisationsweit geteilt werden sollen
Ephemere Agent-Runtimes
- In ephemeren Runtime-Umgebungen wie GitHub Actions lassen sich über einen Remote-MCP-Server Tools mit komplexem Backend ohne Installation nutzen
- Die Verwaltung zustandsbehafteter Workloads in zustandslosen Umgebungen wird an den zentralen Server delegiert
Authentifizierung und Sicherheit
- Wenn über eine CLI auf gesicherte APIs zugegriffen werden soll, müssen alle Entwickler direkten Zugriff auf API-Keys haben, was für Operations-Teams eine große Belastung darstellt
- Hinter einem zentralisierten MCP-Server authentifizieren sich Entwickler per OAuth am MCP-Server, während sensible API-Keys und Secrets hinter dem Server kontrolliert bleiben
- Wenn Teammitglieder das Unternehmen verlassen, reicht es, nur die OAuth-Tokens zu widerrufen; Zugriff auf andere Keys und Secrets hatten sie von vornherein nie
Telemetrie und Observability
- Auf einem zentralen MCP-Server lassen sich OpenTelemetry-Traces und Metriken mit Standardwerkzeugen erfassen
- So kann nachvollzogen werden, welche Tools effektiv sind, welche Agent-Runtimes verwendet werden und an welchen Stellen Tools scheitern
- Auch mit CLI-Tools ist das möglich, aber lokale Deployments erfordern Updates bei den Nutzern, und für jedes CLI-Tool müsste das Telemetrie-Scaffolding erneut nachgebaut werden
Standardisierte Sofortbereitstellung und automatische Updates
- Verteilte Tools (Pakete) verursachen Probleme bei der Kompatibilität von API-Versionen, aber MCP kann Clients über Subscriptions und Notifications über Updates informieren
- MCP Prompts entsprechen einem vom Server gelieferten
SKILL.md, und MCP Resources entsprechen einem vom Server gelieferten /docs
Der organisatorische Wert von MCP Prompts und Resources
- Dynamische Inhalte:
*.md-Dateien in einem Repository sind statische Dateien, die manuell aktualisiert werden müssen, während serverbasierte Prompts und Resources in Echtzeit dynamisch generiert werden können
- Dokumente, Preisdaten oder der aktuelle Systemstatus, die nur in bestimmten Kontexten nützlich sind, können ohne Tool-Aufruf dynamisch injiziert werden
- Automatische Konsistenz-Updates: Über Repositories oder Pakete verteilte
*.md-Dateien müssen synchronisiert werden; werden sie jedoch über MCP-Prompts ausgeliefert, bleiben sie immer auf dem neuesten Stand
- Auch offizielle Dokumentation von Drittanbietern muss nicht manuell ins Repository kopiert und aktualisiert werden, wenn sie über den Server proxied wird
- Organisationsweiter Wissensaustausch: Inhalte, die für die gesamte Organisation gelten — etwa Security-, Telemetrie-Best-Practices oder Überlegungen zur Infrastruktur-Bereitstellung — lassen sich konsistent über alle Repositories, alle Workflows und alle Agent-Frontends (Claude Code, Codex, VS Code Copilot, GitHub Agents, OpenCode usw.) verteilen
- In Microservice-Umgebungen kann ein Team auf die Dokumentation anderer Services zugreifen, oder ein Service-Team kann bei jeder Bereitstellung dynamisch Skills ausliefern
- Es gibt bestätigte Beispiele dafür, dass MCP Prompts und Resources in OpenCode, Claude Code CLI usw. tatsächlich funktionieren; mit der MCP-Client-Konfiguration ist nach der Bereitstellung keine gesonderte Pflege mehr nötig
Fazit: Auf Organisationsebene ist MCP Gegenwart und Zukunft
- Vor 6 Monaten war MCP noch das große Gesprächsthema, heute wird es als Hauptursache für Context Bloat kritisiert, doch die ähnlichen Trade-offs und Fallstricke maßgeschneiderter CLI werden dabei übersehen
- Wenn Teams darüber nachdenken, wie sie von Vibe Coding zu Agentic Engineering übergehen, landen sie ganz natürlich bei Design und Mission von MCP
- Wie das jüngste Beispiel aus dem Amazon-AWS-Bereich zeigt — dort ist für AI-unterstützte Änderungen die Freigabe durch Senior Engineers erforderlich — müssen Teams die von AI-Agenten produzierten Softwaresysteme am Ende betreiben und warten
- Die Ratschläge von Garry Tan und Andrew Ng mögen in homogenen individuellen Umgebungen funktionieren, lassen sich aber nur schwer unverändert auf organisatorische Kontexte übertragen, in denen Teams mit unterschiedlichen technischen Fähigkeiten und Erfahrungen auf konsistente Qualität hinarbeiten müssen
- Wer zuverlässige und wartbare Software ausliefern will, braucht Engineering-Disziplin, die Konsistenz, Sicherheit, Qualität und Genauigkeit gewährleistet; dafür ist MCP heute das geeignete Tool für Organisationen und Enterprises
6 Kommentare
CLI ist ein lokales Tool, MCP ist ein Server – der Einsatzzweck ist daher völlig unterschiedlich.
Wäre es nicht dasselbe, wenn man die CLI auf dem Server ausführt?
MCP wiederauferstanden!
Verwandtes Dokument: MCP ist tot. Es lebe die CLI
Ich hoffe, dass die Diskussion über eine Art CLI-Sandbox-Funktion weiter vorankommt, damit CLI-Tools auch in mobilen Apps nutzbar werden. Wenn man echte mobile Kompatibilität anstrebt, scheint der Engpass am Ende beim Sandboxing zu liegen.
Hacker-News-Kommentare
Ich habe das Gefühl, dass die meisten derzeit erscheinenden AI-Integrationsfunktionen schlecht entworfen sind.
In einer Situation, in der nicht einmal grundlegende Befehle standardisiert sind, gibt es statt Dokumentation nur ungenaue, von LLMs erzeugte Hilfetexte im Überfluss.
Am Ende werden sich die sogenannten „AI-Standards“ wohl wiederholt bilden und wieder verschwinden. LLMs sind ihrem Wesen nach textbasiert und können daher kaum so präzise arbeiten wie Netzwerkprotokolle. Diese textzentrierte Engineering-Praxis führt letztlich zu einer instabilen Abstraktionspyramide.
Ich denke, bei AI-Tools ist am nützlichsten eine Struktur, in der probabilistische Agenten von deterministischen Gates umhüllt werden.
Deshalb verwende ich MCP über HTTP. NanoClaw erhöht zum Beispiel die Sicherheit, indem es WhatsApp-Nachrichten deterministisch filtert und API-Keys proxyt. Solche Strukturen machen AI vertrauenswürdiger.
Diese Struktur bietet hohe Sicherheit und einfache Verwaltbarkeit, und aus dem Tool-Katalog lässt sich auch automatisch eine CLI generieren.
Ein Implementierungsbeispiel gibt es unter smith-gateway.
Den Open-Source-Core findet man unter tenuo.
MCP trennt die Entscheidungsfindung der AI klar von der deterministischen Ausführung des Systems. Ich nutze Claude Code zusammen mit einem MCP-Server; kreative Problemlösung übernimmt die AI, während die Ausführung über vorhersagbare Pfade läuft — sehr effizient.
MCP ist eine fest definierte Protokollspezifikation für die Kommunikation zwischen AI-Apps.
Anders als klassische „Integrationen“, bei denen APIs zwischen Apps gewaltsam zusammengeschnürt werden, bietet es eine wiederverwendbare Kommunikationsabstraktion wie HTTP, FTP oder SMTP.
Ich denke, dass AI eine solche gemeinsame Sprache braucht, um mit verschiedenen Diensten zu interagieren.
Die Spezifikation ist unter modelcontextprotocol.io/specification/2025-11-25 zu finden.
Eigentlich gebraucht werde kein neues Protokoll, sondern eine schrittweise erkundbare CLI- oder API-Spezifikation. MCP sei nur eine Übergangslösung aus der Zeit, als frühe Agenten keine CLI ausführen konnten.
Aus dieser Sicht ist MCP letztlich nur eine temporäre Lösung für technische Unreife.
Als MCP zum ersten Mal erschien, wirkte es auf mich wie überengineerter Müll, deshalb habe ich mich nicht weiter dafür interessiert.
Bis heute bereue ich das nicht. Bei LangChain ist es ähnlich. Etwas nur wegen seiner Popularität zu übernehmen, ist riskant.
Schon mit sehr geringem Zeitaufwand lässt sich viel Effizienz gewinnen.
Manchmal überlebt gerade ein grobschlächtiges Tool, weil es komplexe Integrationsprobleme überraschend einfach löst.
Wer es von Anfang an ignoriert, weil es hässlich wirkt, verpasst womöglich die Chance, dass es später zur Standardinfrastruktur wird.
Es gelte weniger als überengineert, sondern eher als klare und intuitive Struktur.
Remote-MCP ist in dem Sinne okay, dass Authentifizierung automatisch gehandhabt wird und der Zugriff auf Services einfach ist.
Im Vergleich zur Kombination aus CLIs + Skills ist die Kontextlast (context bloat) jedoch groß, und Vorteile der Unix-CLI wie Pipeline-Verarbeitung oder Heredoc-Eingaben gehen verloren.
Aus der Ausgabe von
--helplassen sich bei CLIs effizient automatisch Skills erzeugen.MCP benötigt einen dauerhaften Prozess, CLIs können dagegen nur bei Bedarf ausgeführt werden.
Ich halte MCP weiterhin für eine unnötige Schicht.
Dass CLI > MCP gilt, sehe ich auch so, aber die Vorteile bei Dokumentation und Zentralisierung lassen sich auch anders lösen.
Mit Skills kann man zum Beispiel Anleitungen sowohl für CLI als auch für APIs hinterlegen, und sie werden nur bei Bedarf geladen.
Auch die Vorteile eines zentralisierten MCP lassen sich in Wirklichkeit gut mit bestehenden Proxys oder AWS SSO umsetzen.
Am Ende scheint es mir besser, mit Skills zu dokumentieren und die eigentliche Interaktion über CLI oder REST-API abzuwickeln.
Es wird argumentiert, dass der Inhalt von Skills letztlich in den Kontext aufgenommen wird und Last erzeugt, und dass ein Proxy die Funktionen von MCP nicht vollständig ersetzen kann.
MCP kann über den
/-Befehl und@-Referenzen Prompts und Ressourcen aktivieren; das ist mit einem Proxy nicht möglich.Entsprechende Demos finden sich in den .gif-Dateien am Ende des Artikels sowie in der MCP-Spezifikation.
Ich habe weiterhin den Eindruck, dass MCP besser für Consumer-Umgebungen geeignet ist.
In Entwicklungsumgebungen ist es komplex und ineffizient, aber normale Nutzer können über MCP leicht erkennen, welche Funktionen ein Modell ausführen kann.
Es braucht keine Umgebungskonfiguration, und in einer GUI lassen sich Antworten wie bei Siri oder Google Assistant visualisieren.
Aus Sicht von jemandem, der AI-Tools für nichttechnische Nutzer innerhalb eines Unternehmens bereitstellt, war ein zentralisierter MCP-Ansatz sehr nützlich.
Markenton, interne Terminologie, gemeinsamer Datenzugriff und Domänenkontext konnten dadurch konsistent verwaltet werden.
Über die Resource-Methoden von MCP ließen sich standardisierte „Skills“ bereitstellen und Muster für die Datenanbindung kontrollieren.
Der Autor betrachtet mehrere Konzepte aus verschiedenen Blickwinkeln, scheint aber bestehende Konzepte wie Token Notation (TOON) nicht zu kennen.
Es entsteht fast der Eindruck, als wünsche er sich, dass so etwas existiert.
Das eigentliche Problem von MCP ist die Wartungslast.
Wenn man zum Beispiel eine GitHub-Integration braucht, ist man auf npm-Wrapper angewiesen, statt einfach eine bereits gut dokumentierte API zu verwenden.
Ich nutze einfach die
gh-CLI odercurl. Wenn sich die API ändert, liest der Agent die neue Dokumentation und passt sich an.Bei MCP muss man warten, bis der zwischengeschaltete Wrapper aktualisiert wird.
Auch die Sicherheitsargumentation ist widersprüchlich — anfangs kam es ohne Authentifizierung heraus, jetzt wird Sicherheit als Vorteil angeführt.
Tatsächlich sind das Probleme, die alte Methoden wie chroot oder scoped tokens längst gelöst haben.
Der einzige echte Vorteil von MCP liegt bei OAuth-Flows für Nichtentwickler. Für Entwickler-Tools halte ich es für sinnvoller, einfach bessere CLIs zu bauen.