7 Punkte von eggplantiny 2025-12-30 | Noch keine Kommentare. | Auf WhatsApp teilen

Wenn man tatsächlich LLM-basierte AI-Agenten baut,
stößt man ab einem gewissen Punkt immer wieder auf sehr ähnliche Grenzen.

  • Das Modell ist eindeutig intelligenter geworden, aber
  • die Ausführung bleibt weiterhin instabil,
  • warum es so gehandelt hat, lässt sich nicht erklären, und
  • selbst bei derselben Eingabe fallen die Ergebnisse unterschiedlich aus.

Darum zieht man meist dieses Fazit:

„Das Modell reicht eben noch nicht aus. Probieren wir ein größeres Modell.“

Nach vielen Versuchen und Irrtümern hatte ich jedoch den Eindruck,
dass der Kern des Problems nicht die Intelligenz des Modells ist,
sondern dass die „Welt“, in der der Agent arbeitet, nicht entworfen wurde.


Das eigentliche Problem: Die Welt existiert nur im Kopf des Modells

In vielen Agentenarchitekturen
liegen Dinge wie Zustand, Regeln und Handlungsmöglichkeiten
vollständig implizit im Schlussfolgern des Modells.

Das heißt:

  • was möglich ist,
  • warum eine bestimmte Handlung fehlgeschlagen ist,
  • wann sich ein Zustand geändert hat

für all das erwartet man, dass das Modell es „sich merkt und erschließt“.

In einer solchen Struktur
ist es, egal wie gut das Modell wird,
schwer, Debugging, Reproduzierbarkeit und Erklärbarkeit sicherzustellen.


Perspektivwechsel: World-Centric Architecture

Darum schlägt dieser Text vor, die Perspektive umzudrehen
und Agenten nicht Intelligence-Centric, sondern
World-Centric zu entwerfen.

Die Kernidee ist einfach.

  • Die Welt muss explizit außerhalb des Modells existieren,
  • der Zustand wird als Snapshot fixiert,
  • Zustandsänderungen erfolgen nur über genau einen Pfad namens Patch/Apply, und
  • „Ist diese Handlung möglich?“ muss strukturell berechnet werden.

Und das wichtigste Prinzip ist dieser Satz:

> Intelligenz soll nicht ausführen, sondern nur vorschlagen

Das Modell kann vorschlagen, „was es versuchen möchte“,
hat aber keine Befugnis, den Zustand tatsächlich zu verändern.


Warum ist das wichtig?

In dieser Struktur passiert etwas Interessantes.

  • Unmögliche Handlungen erreichen die Ausführungsphase gar nicht erst,
  • Fehlschläge werden nicht damit erklärt, dass „das Modell dumm ist“, sondern aus strukturellen Gründen, und
  • selbst wenn die Auswahl einer Handlung zufällig ist, bricht das System nicht zusammen.

Denn
Korrektheit wird nicht durch das Schlussfolgern des Modells garantiert,
sondern durch die Regeln der Welt und das Zustandsmodell
.

Ich halte das für einen Ansatz,
der näher an einem „betriebsfähigen System“ liegt
als an einer Demo für Forschungszwecke.


Was dieser Text nicht ist

  • Kein Tutorial für ein neues Agenten-Framework ❌
  • Kein Vergleich von Modellleistung ❌
  • Keine Ausführungen zu Prompt Engineering ❌

Stattdessen

> „Warum bauen wir AI-Agenten eigentlich so instabil?“

ist die Frage, die ich aufwerfen wollte.


Mich interessiert auch, wie dieser Ansatz
aus der Perspektive bestehender Zustandsmaschinen, Workflow-Engines, DSLs oder PLs wirkt.

Auch Meinungen oder Kritik aus der Sicht
„Worauf lässt sich das letztlich zurückführen?“
sind willkommen.

Noch keine Kommentare.

Noch keine Kommentare.