mini-swe-agent – GitHub-Issues lösen und Kommandozeilen-Unterstützung mit einem 100-Zeilen-AI-Agenten
(github.com/SWE-agent)- Ein minimalistischer AI-Coding-Agent, entwickelt vom Princeton-/Stanford-Team hinter SWE-bench und SWE-agent
- Ein ultraleichter AI-Software-Engineering-Agent aus rund 100 Zeilen Python-Code, der ohne riesige Konfigurationsdateien oder Monorepo auskommt
- Nutzt nur bash als Werkzeug und ist dadurch auch ohne Tool-Calling-Interface des LLMs mit jedem Modell kompatibel
- Erreicht über 74 % im SWE-bench-verified-Benchmark und erzielt mit Gemini 3 Pro dasselbe Niveau
- Führt jede Aktion mit
subprocess.runisoliert aus, sodass keine Shell-Sitzung mit persistentem Zustand nötig ist; beim Wechsel zu Docker genügt es, dies durchdocker execzu ersetzen - Vollständig lineare History-Struktur, bei der Trajektorie und die an das LLM übergebenen Nachrichten identisch sind, ideal für Debugging und Fine-Tuning
- Unterstützt die Bereitstellung in verschiedenen Sandbox-Umgebungen wie lokal, Docker/Podman, Singularity/Apptainer, Bubblewrap, Contree
- Unterstützt über litellm, openrouter, portkey usw. alle Modelle sowie
/completion- und/response-Endpunkte und interleaved thinking - Wird von Meta, NVIDIA, IBM, Essential AI, Nebius, Anyscale sowie Princeton und Stanford eingesetzt
- Gegenüber Claude Code deutlich schneller beim Start und als Baseline nutzbar, um die Leistung des LLM selbst ohne Overfitting auf Agent-Scaffolds zu bewerten
- Bietet CLI (
mini), Batch-Inferenz, Trajektorien-Browser und Python-Bindings (DefaultAgent,LitellmModel,LocalEnvironment) - MIT-Lizenz
1 Kommentare
Jetzt wird die direkte Entwicklung von Agenten einfacher.