MCP ignoriert wichtige Lehren aus Jahrzehnten verteilter Systeme
(julsimon.medium.com)- MCP (Model Context Protocol) wirbt mit der Standardisierung der KI-Toolintegration, ignoriert aber die in 40 Jahren aufgebauten Best Practices verteilter Systeme und von RPC.
- Dadurch fehlen in Enterprise-Umgebungen zentrale Fähigkeiten wie Betriebssicherheit, Typensicherheit, Sicherheit, Observability und Kostenmanagement.
- MCP stützt sich dabei darauf, dass diese Grundfunktionen von externen Bibliotheken bereitgestellt werden, verursacht jedoch Protokoll-Fragmentierung, Integrationskomplexität sowie zusätzliche Audit- und Sicherheitslast.
- Anforderungen wie verteiltes Tracing, Schemaversionierung, Service Discovery, Leistungsoptimierung und weitere sind weiterhin unzureichend.
- Eine frühe Einführung von MCP birgt im KI-Boom die Gefahr schwerer Störungen in Unternehmen, erhöhten Betriebsrisiken, doppelter Entwicklung und unnötigen Kosten.
Die Risiken der Einfachheit von MCP
MCP (Model Context Protocol) wirbt mit der Integration von KI-Tools als „USB-C im KI-Bereich“ und hebt dabei die Einfachheit hervor, die Eintrittsbarrieren senkt. Doch genau diese Einfachheit ignoriert die über 40 Jahre gewachsenen Lehren aus verteilten Systemen, was in realen Betriebsumgebungen zu schweren Funktionsausfällen führt. Unternehmen, die MCP heute einführen, bauen im Grunde auf einer Grundlage auf, der essenzielle RPC-Systemfunktionen fehlen.
Die gefährliche Kluft zwischen Realität und Erwartung
MCP-Befürworter stellen das Protokoll als production-ready Infrastruktur vor, doch die eigentliche Designphilosophie ist auf Entwicklerkomfort ausgerichtet und weist eine geringe Betriebsrobustheit auf. KI-Tools lassen sich zwar kurzfristig verbinden, bei tatsächlichem Einsatz mit Millionen Requests im Geschäftsbetrieb zeigt sich jedoch ein gravierender Qualitätsmangel. Überzogene Markterwartungen rund um KI führen zu einer Beschleunigung der Einführung ohne architektonische Reife und damit zu einem hohen Risiko für Betriebsfehler.
Wiederkehrende Fehler aus 40 Jahren Systemgeschichte
-
UNIX RPC (1982) führte XDR (External Data Representation) und IDL (Interface Definition Language) ein, um die Datenkompatibilität zwischen heterogenen Systemen (z. B. 32-Bit-Ganzzahlen) sicherzustellen und Typkonflikte bereits zur Buildzeit aufzudecken.
MCP ignoriert diese Erfahrung und bietet nur schemafreies JSON sowie optionale Hinweise. Typfehler treten erst zur Laufzeit auf; KI kann falsche Datumswerte erzeugen, was in Bereichen wie Finanzwesen, Gesundheit oder Fertigung zu schwerwiegenden Datenkonvertierungsfehlern und Qualitätsproblemen führen kann. -
CORBA (1991) setzte auf OMG IDL, um eine einheitliche Schnittstelle über mehrere Sprachen hinweg sicherzustellen. Bei MCP wird jede Sprache separat implementiert, wodurch bei Serialisierung und Fehlerbehandlung je nach Sprache oder Bibliothek keine Konsistenz besteht und eine Integration im Albtraum-Niveau entsteht.
-
REST (2000) erreichte Skalierbarkeit und Verlässlichkeit durch eine zustandslose Architektur, verb-basierte Bedeutungsklärung sowie Cache-Header.
Bei MCP ist die Trennung zwischen stateful und stateless unklar, es fehlen Cache-Verhalten, standardisierte Anfragebedeutung und Idempotency. Server-Skalierung, Wiederholungslogik und Lastverteilung werden dadurch extrem schwierig. -
SOAP/WSDL boten maschinenlesbare Verträge, Automatisierungspotenzial und Sicherheitserweiterbarkeit.
MCP stellt nur ein einfaches JSON-Schema bereit und bietet keine maschinenlesbaren Verträge, automatische Code-Generierung, Typensicherheit oder Auditierbarkeit. OAuth 2.1 wurde erst spät nur für den HTTP-Transport ergänzt, während stdio von Umgebungsvariablen abhängt und Sicherheitskontrollen insgesamt lückenhaft bleiben. -
gRPC (2016) integriert Observability, verteiltes Tracing, bidirektionales Streaming, Deadlines und strukturierte Fehlercodes.
MCP unterstützt nur einseitiges Event-Streaming und ist für komplexe Interaktionen ineffizient. Wesentliche Bausteine wie Trace-Kontext, Deadlines und Fehlerklassifikation fehlen.
Die Gefahr der Botschaft „Verwenden Sie nur diese Bibliothek“
Auf jeden gemeldeten kritischen Fehler von MCP wird mit zusätzlichen Drittanbieter-Bibliotheken wie z. B. mcp-oauth-wrapper, mcp-tracing-extension, mcp-schema-generator reagiert. Dennoch sind genau dies die Kernfehler des Protokolls. Je mehr zentrale Funktionen nach außen ausgelagert werden, desto größer werden Fragmentierung, Inkonsistenz sowie Verantwortungsstreuung bei Wartung, Sicherheit und Integration.
In Enterprise-Umgebungen steigen innerhalb von Monaten die Lasten für Standardisierung, Audits und Integration; zugleich nehmen Entwicklertrainings und externe Abhängigkeiten in einem ungesunden Maß zu.
Zunehmend aufgesetzte Notfall-Patches
Die Version 2025–03–26 von MCP wirkt wie ein nachträglich erstelltes Patch-Set für Fehler, die erst im produktiven Betrieb sichtbar werden. OAuth, Sitzungsverwaltung, Tool-Attribute (Annotationen) und Fortschrittsmeldungen waren von Anfang an essenzielle Funktionen, wurden aber erst im Nachhinein ergänzt.
Auch die Trennung von Tool-Attributen war zu Beginn nicht vorhanden; dasselbe gilt für Sicherheitstoken. Das verweist auf ein mangelndes Grundverständnis der Enterprise-Anforderungen.
Ein Debugging-Albtraum und fehlende Betriebsnachvollziehbarkeit
In gRPC-Umgebungen ermöglicht verteiltes Tracing mit Trace-IDs schnelles und konsistentes Debugging.
MCP bietet hingegen keine korrelierende Anfrage-ID, uneinheitliche Log-Formate und verlangt eigene Implementierungen, wodurch Debugging und Fehleranalyse mehrere Tage dauern können.
Auch betriebswirtschaftlich ist eine Kosten- und Nutzungszuordnung (Header, Tokenzählung, Quotas usw.) kaum möglich. In Cloud-Umgebungen sind Grundfunktionen in MCP nicht vorhanden, wodurch die Nachverfolgung von KI-Kosten und Verantwortlichkeiten fast unmöglich wird.
Aktuell noch vorhandene zentrale Betriebsprobleme
- Die fehlende Service Discovery verhindert eine belastbare Verfügbarkeit, Multi-Region-Skalierung und unterbrechungsfreie Updates.
- Ohne Schema-Versionierung pro Tool drohen bei Tool-Updates unvorhergesehene Brüche bei allen Clients.
- Leistungsgrenzen: JSON-Overhead, fehlendes Connection Pooling, unzureichende binäre Protokolle/Kompression und prozessbasierte Kommunikation führen zu veralteten Mustern.
Schwere Risiken beim Einsatz im Enterprise
Wenn KI in Geschäftsbereiche mit echter Verantwortung für Umsatz, Sicherheit und Qualität (wie Finanzwesen, Medizin, Fertigung, Kundensupport) eintritt, steigt das Risiko der MCP-Einführung deutlich.
Statt langjährig etablierte, robuste Integrationsmuster zu nutzen, werden Sicherheits-, Audit-, Typen- und Betriebsstabilitätsanforderungen als nachträgliche Krücken angehängt.
Strategien vom Typ „schnell bauen und brechen“ im Prototyping-Stadium können bei kritischen Diensten zu fatalen Ergebnissen führen.
Verbesserungsansätze und langfristige Anforderungen
- Kurzfristig: Typensicherheit, verteiltes Tracing (korrelationsfähige IDs), Autorisierung, standardisiertes Audit-Format und unabhängige Schemaversionierung pro Tool müssen auf Protokollebene integriert sein.
- Betrieblich: Service Discovery, Connection Pools, binäre Übertragung, Deadlines sowie standardisierte Fehler- und Wiederholungsrichtlinien sind erforderlich.
- Langfristig: bidirektionales Streaming, integrierte Quoten- und Kostenverwaltung, SLA-Umsetzung und Workflow-Orchestrierung werden für den Enterprise-Einsatz benötigt.
Fazit
Die auf Einfachheit ausgelegte Architektur von MCP passt für experimentelle, kurzfristige KI-Tool-Integrationen, führt aber im Enterprise-Betrieb zu kritisch hohen Betriebsrisiken und Kosten.
Die Einführung ist durch den KI-Hype vorangetrieben, während essentielle Funktionen wie Sicherheit, Observability und Betriebsstabilität nur als spätere, behelfsmäßige Ergänzung nachgeschoben werden.
Am Ende besteht die Gefahr, dass genau die Fragmentierung und Doppelentwicklung, die das Protokoll verhindern will, auf MCP selbst wieder reproduziert werden.
Die KI-Industrie steht vor der Entscheidung, ob sie die 40-jährige Entwicklung verteilter Systeme erneut ignoriert und alte Probleme neu auflebt – oder aus der Geschichte lernt.
Bleibt es dabei, wiederholen sich fehlgeschlagene Rollouts, Sicherheitslücken und Betriebsalträume und die Kosten tragen schließlich die Unternehmen.
Noch keine Kommentare.