12 Punkte von xguru 4 일 전 | 1 Kommentare | Auf WhatsApp teilen
  • Ein minimalistischer AI-Coding-Agent, entwickelt vom Princeton-/Stanford-Team hinter SWE-bench und SWE-agent
  • Ein ultraleichter AI-Software-Engineering-Agent aus rund 100 Zeilen Python-Code, der ohne riesige Konfigurationsdateien oder Monorepo auskommt
  • Nutzt nur bash als Werkzeug und ist dadurch auch ohne Tool-Calling-Interface des LLMs mit jedem Modell kompatibel
  • Erreicht über 74 % im SWE-bench-verified-Benchmark und erzielt mit Gemini 3 Pro dasselbe Niveau
  • Führt jede Aktion mit subprocess.run isoliert aus, sodass keine Shell-Sitzung mit persistentem Zustand nötig ist; beim Wechsel zu Docker genügt es, dies durch docker exec zu ersetzen
  • Vollständig lineare History-Struktur, bei der Trajektorie und die an das LLM übergebenen Nachrichten identisch sind, ideal für Debugging und Fine-Tuning
  • Unterstützt die Bereitstellung in verschiedenen Sandbox-Umgebungen wie lokal, Docker/Podman, Singularity/Apptainer, Bubblewrap, Contree
  • Unterstützt über litellm, openrouter, portkey usw. alle Modelle sowie /completion- und /response-Endpunkte und interleaved thinking
  • Wird von Meta, NVIDIA, IBM, Essential AI, Nebius, Anyscale sowie Princeton und Stanford eingesetzt
  • Gegenüber Claude Code deutlich schneller beim Start und als Baseline nutzbar, um die Leistung des LLM selbst ohne Overfitting auf Agent-Scaffolds zu bewerten
  • Bietet CLI (mini), Batch-Inferenz, Trajektorien-Browser und Python-Bindings (DefaultAgent, LitellmModel, LocalEnvironment)
  • MIT-Lizenz

1 Kommentare

 
ragingwind 3 일 전

Jetzt wird die direkte Entwicklung von Agenten einfacher.