7 Punkte von eggplantiny 2026-01-03 | Noch keine Kommentare. | Auf WhatsApp teilen

Basierend auf tatsächlichen Fehlschlägen beim Erstellen von LLM-basierten Agenten
habe ich die Architektur eines bereits funktionierenden Systems und die Gründe für dieses Design dokumentiert.

Dieses Dokument ist keine bloße Ideensammlung,
sondern beschreibt eine Struktur, die versucht, Probleme durch echte Implementierung zu lösen – etwa warum ein Agent zwar „done“ sagt, in Wirklichkeit aber nichts passiert,
und warum Ausführungsergebnisse nicht durch das Schlussfolgern des Modells, sondern durch den Zustand der Außenwelt verifiziert werden müssen.

Der Kern ist:

  • Der Agent verändert den Zustand nicht direkt, sondern schlägt nur Intents vor.
  • Zustandsübergänge werden durch deterministische Berechnung verifiziert.
  • Ob etwas „abgeschlossen“ ist, wird immer anhand des Zustands der Welt beurteilt.

Es gibt bereits eine Demo, die mit dieser Struktur läuft (TaskFlow),
und die aktuell veröffentlichte Dokumentation legt explizit das
World-/State-/Execution-Modell offen, das dieses System ermöglicht hat.

Es ist noch nicht bei Version 1.0,
aber die Dokumentation wurde auf Basis eines Systems erstellt, das bereits praktisch ausführbar, verifizierbar und debuggbar ist.

Docs: https://docs.manifesto-ai.dev
Demo (working, early): https://taskflow.manifesto-ai.dev

Noch keine Kommentare.

Noch keine Kommentare.