- Das Sweep Next-Edit-Modell mit 1.5B Parametern sagt die nächste Code-Änderung des Nutzers voraus und bietet eine Autovervollständigungsfunktion
- Es läuft in einer lokalen Umgebung mit einer Geschwindigkeit von unter 500 ms und zeigt bessere Leistung als mehr als viermal größere Modelle
- Es wird im Q8_0-GGUF-Quantisierungsformat bereitgestellt und unterstützt auch in komprimierter Form eine lange Kontextlänge von 8192 Tokens
- Es basiert auf Qwen2.5-Coder und kann mit einem JetBrains-Plugin integriert werden
- Es wird unter der Apache-2.0-Lizenz veröffentlicht und ist damit ein nützliches Modell für Experimente und Integration für Open-Source-AI-Entwickler
Modellüberblick
- Sweep Next-Edit 1.5B ist ein Next-Edit-Vorhersagemodell für Code-Autovervollständigung
- Es sagt die nächste Bearbeitung voraus und schlägt sie vor, bevor der Nutzer den Code ändert
- Es kann selbst in einer lokalen Notebook-Umgebung mit einer Latenz von unter 500 ms ausgeführt werden
- Nutzt Speculative Decoding für schnelle Antwortzeiten
- Erzielte in Next-Edit-Benchmarks bessere Leistung als mehr als viermal größere Modelle
Modelldetails
- Anzahl der Parameter: 1.5B
- Format: GGUF (Q8_0-Quantisierung)
- Kontextlänge: 8192 Tokens
- Basismodell: Qwen2.5-Coder
- Lizenz: Apache 2.0
Verwendung
run_model.py und die Modelldatei herunterladen und anschließend ausführen
- Struktur mit Fokus auf lokaler Ausführung, es gibt keinen separaten Cloud-Inference-Anbieter
Noch keine Kommentare.