- Eine Backend-Entwicklungsplattform, die für AI-Coding-Agenten und AI-Code-Editoren entwickelt wurde
- Agenten können grundlegende Backend-Bausteine wie Datenbank, Authentifizierung, Storage und Funktionen End-to-End selbst verstehen und betreiben
- Arbeitet zwischen Agenten und der Backend-Infrastruktur nach dem Prinzip einer Semantic Layer
- Unterstützt drei Kernaktionen: Agenten können Backend-Kontext abrufen, Primitive zusammensetzen sowie Status und Logs anhand strukturierter Schemas prüfen
- 6 Kernkomponenten:
- Authentication: Benutzerverwaltung, Authentifizierung, Sitzungsverarbeitung
- Database: Relationale PostgreSQL-Datenbank (inklusive
pgvector)
- Storage: S3-kompatibler Dateispeicher
- Model Gateway: OpenAI-kompatible API über mehrere LLM-Provider hinweg
- Edge Functions: Serverless-Code, der am Edge ausgeführt wird (auf Deno-Basis)
- Site Deployment: Site-Build und Deployment
- Integration mit wichtigen AI-Code-Editoren wie Claude Code, Cursor und Codex über einen MCP(Model Context Protocol)-Server
- Neben Cloud-Hosting (
insforge.dev) wird auch Self-Hosting mit Docker Compose unterstützt; außerdem sind One-Click-Deployments auf Railway, Zeabur und Sealos möglich
- Auf demselben Host können durch unterschiedliche Ports und Projektnamen mehrere Projekte unabhängig betrieben werden (jeweils mit isolierter DB, Storage und Konfiguration)
- Apache-2.0 Open Source
2 Kommentare
Ich fände es großartig, wenn sich das in der Form weiterentwickeln würde, dass noch mehr Tools hinzukommen, die sicherer arbeiten können.
Die zeitgemäße Positionierung als „Backend für AI-Agenten“ ist gut. Wenn man einen Agenten die komplette Full-Stack-Entwicklung machen lässt, wäre der Token-Verbrauch wohl ziemlich hoch, daher dürfte es zumindest etwas schneller gehen.
Allerdings ist die Frage … ob das wirklich besser ist als Supabase MCP. Entscheidend scheint zu sein, wie weit sich die Automatisierung für Agenten überhaupt entwickeln kann.