- Ein Framework, um AI-Agenten und Workflows in Produktionsumgebungen stabil zu betreiben
- Die Entwicklung begann im Oktober 2024; in rund 15 Monaten gewachsen, wobei Hunderte Teams die Beta bereits in Produktion genutzt haben
- Bereits im Einsatz bei realen Unternehmen wie Replit, PayPal und Sanity
- Nach mehreren Monaten stabilen Betriebs in großen Produktionsumgebungen wurde entschieden, dass nun ein Release als 1.0 möglich ist
- Das Projekt hat einen Reifegrad erreicht, bei dem die API als stabil festgeschrieben werden kann
- Neue Projekte können per CLI mit den 1.0-Standardeinstellungen gescaffoldet werden; bestehende Projekte werden bei der automatischen Migration per codemod unterstützt
Änderungen in 1.0
- Für den Einsatz in Produktion liegt der Fokus auf strukturellen Änderungen zur Reduzierung der Komplexität von Deployment und Betrieb
- Server Adapter:
- Stellt Agenten, Workflows, Tools und MCP-Server automatisch als HTTP-Endpunkte bereit
- Mastra kann direkt in bestehende Express-, Hono-, Fastify- und Koa-Server integriert werden
- Der Aufwand für den Betrieb eines separaten, nur für Mastra vorgesehenen Serverprozesses entfällt
- Composite Storage:
- Die bisherige Single-Storage-Struktur wurde zu einer domänenspezifischen Storage-Konfiguration weiterentwickelt
- Daten für Speicher, Workflows, Scores und Observability können auf unterschiedliche Backends verteilt werden
- Unterstützt die optionale Anbindung an bestehende Infrastrukturen wie Postgres, LibSQL und ClickHouse
- Probleme bei Kosten, Latenz und Skalierbarkeit lassen sich auf einzelne Domänen begrenzen
- Unterstützung für AI SDK v6
- LanguageModelV3 und ToolLoopAgent können verwendet werden
- Vollständige Abwärtskompatibilität mit bestehenden V1- und V2-Modellen bleibt erhalten
- Internes Format normalisiert, ohne Informationen zu Reasoning-Tokens und Cache-Input-Tokens zu verlieren
Noch keine Kommentare.