- Durch die Zusammenarbeit von NanoClaw und Docker können einzelne AI-Agenten nun mit einem einzigen Befehl in isolierten Docker-Sandboxes ausgeführt werden
- Jeder Agent läuft in einem eigenständigen Container innerhalb einer Micro-VM und verfügt über eine vollständig isolierte Umgebung ohne Zugriff auf das Host-System
- Dank einer doppelten Sicherheitsgrenze wird selbst bei einem Container-Breakout auf VM-Ebene abgeblockt, sodass Host-Dateien, Zugangsdaten und Anwendungen geschützt bleiben
- Das Sicherheitsmodell von NanoClaw folgt einem „Design ausgehend von Misstrauen“: Agenten werden als potenziell bösartig betrachtet, und die Architektur ist darauf ausgelegt, Schäden zu minimieren
- Künftig sind Funktionserweiterungen für den Betrieb großer Agenten-Teams geplant, darunter kontrollierte Kontextfreigabe, persistente Agenten, fein granulare Berechtigungsrichtlinien und menschliche Freigabeprozesse
Überblick über die Docker-Sandbox-Integration
- NanoClaw unterstützt durch die Zusammenarbeit mit Docker den Sandbox-Start per Einzeiler
- Unterstützt auf macOS (Apple Silicon) und Windows (WSL); Linux soll bald folgen
- Das Installationsskript übernimmt Klonen, Einrichtung und Sandbox-Konfiguration automatisch
- Jeder Agent wird in einem eigenständigen Container innerhalb einer Micro-VM ausgeführt
- Es sind weder separate Hardware noch komplexe Einstellungen erforderlich
- Jeder Container besitzt seinen eigenen Kernel und Docker-Daemon, während der Zugriff auf den Host blockiert ist
Funktionsweise
- Die Docker-Sandbox bietet Isolation auf Hypervisor-Ebene bei Startzeiten im Millisekundenbereich
- NanoClaw lässt sich natürlich auf diese Struktur abbilden
- Jeder Agent verfügt über ein eigenes Dateisystem, einen eigenen Kontext, eigene Tools und eigene Sitzungen
- Beispiel: Ein Vertriebsagent kann nicht auf private Nachrichten zugreifen, und ein Support-Agent hat keinen Zugriff auf CRM-Daten
- Die Micro-VM-Schicht bildet eine zweite Sicherheitsgrenze
- Selbst bei einem Container-Breakout schützt die VM-Barriere weiterhin das Host-System
Sicherheitsmodell: Misstrauensbasierte Architektur
- NanoClaw wurde unter der Annahme entwickelt, AI-Agenten nicht zu vertrauen
- Berücksichtigt werden unvorhersehbare Risiken wie Prompt Injection oder Fehlverhalten des Modells
- Die Architektur ist so ausgelegt, dass keine Geheimnisse oder Zugangsdaten in die Agentenumgebung eingebracht werden
- Sicherheit wird außerhalb des Agenten erzwungen und hängt nicht von korrektes Verhalten ab
- Im Unterschied zu OpenClaw bietet NanoClaw eine vollständige Isolation zwischen Agenten
- Bei OpenClaw wird dieselbe Umgebung geteilt, wodurch private und geschäftliche Daten vermischt werden können
- Hervorgehoben wird ein Security-Engineering-Prinzip, das Agenten zugleich als Kollaborationspartner und potenzielle Angreifer behandelt
Zukünftige Entwicklung
- Es wird die Notwendigkeit eines neuen Infrastruktur- und Runtime-Layers für den Betrieb großer Agenten-Teams aufgezeigt
- NanoClaw kann bereits mit mehreren Slack-Kanälen verbunden werden, um getrennte Agenten pro Aufgabenbereich zu betreiben
- Als nächste Schritte werden vier Kernfunktionen genannt
- Kontrollierte Kontextfreigabe: freier Informationsaustausch innerhalb eines Teams und selektive Freigabe zwischen Teams
- Erstellung persistenter Agenten: keine einmaligen Unteragenten, sondern Teammitglieder mit dauerhafter ID, Umgebung und Datenbasis
- Fein granulare Berechtigungsrichtlinien: etwa nur Lesezugriff auf E-Mails, eingeschränkter Zugriff auf bestimmte Repositories oder Ausgabenlimits
- Menschliche Freigabeprozesse: nicht rückgängig zu machende Aktionen werden erst nach menschlicher Prüfung ausgeführt
- NanoClaw wird als sicherheitszentrierter Runtime- und Orchestrierungs-Layer positioniert, Docker-Sandboxes als Infrastrukturbasis auf Enterprise-Niveau
- Ziel ist der Aufbau eines Agent-Ausführungs-Stacks, der grundlegende Isolation, kontrollierte Zusammenarbeit sowie Sichtbarkeit und Governance auf Organisationsebene zugleich bietet
Überblick über NanoClaw
- NanoClaw ist ein Open-Source-Sicherheits-Runtime- und Orchestrierungs-Layer für den Betrieb von AI-Agenten auf Teamebene
- Das Projekt kann auf GitHub eingesehen und per Star unterstützt werden
Noch keine Kommentare.