19 Punkte von GN⁺ 2026-01-23 | Noch keine Kommentare. | Auf WhatsApp teilen
  • Das Sweep Next-Edit-Modell mit 1.5B Parametern sagt die nächste Code-Änderung des Nutzers voraus und bietet eine Autovervollständigungsfunktion
  • Es läuft in einer lokalen Umgebung mit einer Geschwindigkeit von unter 500 ms und zeigt bessere Leistung als mehr als viermal größere Modelle
  • Es wird im Q8_0-GGUF-Quantisierungsformat bereitgestellt und unterstützt auch in komprimierter Form eine lange Kontextlänge von 8192 Tokens
  • Es basiert auf Qwen2.5-Coder und kann mit einem JetBrains-Plugin integriert werden
  • Es wird unter der Apache-2.0-Lizenz veröffentlicht und ist damit ein nützliches Modell für Experimente und Integration für Open-Source-AI-Entwickler

Modellüberblick

  • Sweep Next-Edit 1.5B ist ein Next-Edit-Vorhersagemodell für Code-Autovervollständigung
    • Es sagt die nächste Bearbeitung voraus und schlägt sie vor, bevor der Nutzer den Code ändert
    • Es kann selbst in einer lokalen Notebook-Umgebung mit einer Latenz von unter 500 ms ausgeführt werden
  • Nutzt Speculative Decoding für schnelle Antwortzeiten
  • Erzielte in Next-Edit-Benchmarks bessere Leistung als mehr als viermal größere Modelle

Modelldetails

  • Anzahl der Parameter: 1.5B
  • Format: GGUF (Q8_0-Quantisierung)
  • Kontextlänge: 8192 Tokens
  • Basismodell: Qwen2.5-Coder
  • Lizenz: Apache 2.0

Verwendung

  • run_model.py und die Modelldatei herunterladen und anschließend ausführen
    • Installationsbefehl:
      uv pip install llama-cpp-python huggingface_hub  
      python run_model.py  
      
  • Struktur mit Fokus auf lokaler Ausführung, es gibt keinen separaten Cloud-Inference-Anbieter

Noch keine Kommentare.

Noch keine Kommentare.