- Open-Source-Tool, das die lokale Ausführung und das Training verschiedenster AI-Modelle wie Text, Audio, Embeddings und Vision in einer einzigen Oberfläche unterstützt
- Auf Mac/Windows/Linux lassen sich GGUF-/safetensor-Modelle lokal ausführen; beim Training werden bis zu 2× höhere Geschwindigkeit und 70 % weniger VRAM erreicht
- Basierend auf llama.cpp + Hugging Face mit Unterstützung für Multi-GPU-Inferenz und die meisten Modelle
- Der Unsloth-Kernel optimiert LoRA, FP8, FFT, PT und unterstützt über 500 Text-, Vision-, TTS-/Audio- und Embedding-Modelle
- Fine-Tuning aktueller LLMs wie Qwen3.5 und NVIDIA Nemotron 3 ist möglich, mit automatischer Multi-GPU-Unterstützung
- Breite Unterstützung für Trainingsverfahren wie Full Fine-Tuning, 4bit/16bit/FP8-Training und Reinforcement Learning (GRPO)
- Es werden fortlaufend Optimierungen ergänzt, etwa um MoE-LLMs 12× schneller zu trainieren oder ein 20B-Modell auf einer 80-GB-GPU mit einer Kontextlänge von über 500K zu trainieren
- Alle Modelle einschließlich feinabgestimmter Modelle können als safetensors/GGUF exportiert und in llama.cpp, vLLM, Ollama, LM Studio usw. verwendet werden
- Enthält die Funktion Data Recipes, die unstrukturierte Dokumente wie PDF, CSV und JSON automatisch in Datensätze umwandelt, sowie integrierte Self-Healing-Tool-Calls und Code-Ausführung
- Enthält Observability-Funktionen zur Echtzeitverfolgung von Trainingsverlust und GPU-Auslastung
- In der Model Arena lassen sich die Ausgaben von zwei Modellen nebeneinander vergleichen, etwa Basismodell und feinabgestimmtes Modell
- 100 % offline und lokal ausführbar und damit datenschutzfreundlich; Unterstützung für Apple MLX, AMD und Intel soll bald folgen
- Workflow :
Studio starten →
Modell aus lokalen Dateien oder unterstützten Integrationen laden →
Trainingsdaten aus PDF, CSV, JSONL usw. importieren oder einen Datensatz von Grund auf erstellen →
Datensatz in Data Recipes bereinigen und erweitern → Training mit empfohlenen Presets oder benutzerdefinierten Einstellungen starten →
Ausgaben des trainierten Modells und des Basismodells vergleichen →
Lokal speichern oder zur bestehenden Stack exportieren
- Lizenz
- Das Hauptpaket von Unsloth steht unter der Lizenz Apache 2.0
- Nur einige optionale Komponenten wie die Unsloth-Studio-UI stehen unter der Open-Source-Lizenz AGPL-3.0
3 Kommentare
Ich habe es auch direkt nach der Veröffentlichung ausprobiert … aber die Seite war kaputt, und ich kam nicht über das Tutorial hinaus. schnief
https://github.com/unslothai/unsloth/…
Das wurde also sofort behoben!
Hacker-News-Kommentare
Ich bekomme unsloth studio auf meinem MacBook immer noch nicht sauber eingerichtet.
Das liegt an Problemen mit dem Python-Tooling.
Da ich stattdessen bereits einen llama.cpp-Server in einem Docker-Container laufen habe, habe ich drei Codebases vergleichend ausprobiert.
Erster Vergleichscode, zweiter Vergleichscode
Die Ergebnisse waren ziemlich interessant. Wenn unsloth studio richtig funktioniert, versuche ich es nächste Woche noch einmal.
Mit dem folgenden Befehl lässt es sich installieren.
Ich frage mich, was das Geschäftsmodell von unsloth ist. Sie veröffentlichen kostenlos eine Menge, aber die Erlösstruktur wirkt nicht klar.
Ich denke, Closed Source ist vor allem wegen der Qualität des Toolings populärer. Wir haben noch viel zu veröffentlichen.
Die Trainingsfunktion fand ich interessant, war aber enttäuscht, weil dort „on NVIDIA“ stand.
Ich frage mich, ob es Alternativen oder Tutorials gibt, um SFT (supervised fine-tuning) mit dem Metal-Stack von macOS zu machen.
Ich bin auch auf AMD und hoffe darauf. ROCm ist schmerzhaft, aber AMD selbst mag ich.
Unsloth ist wirklich ein gutes Projekt.
Wer eine eigene AI-Engine betreibt, sollte es auf jeden Fall ausprobieren.
Wegen der Apache-Lizenz denke ich darüber nach, es auch im Unternehmen einzusetzen.
LMStudio hat eine proprietäre Lizenz, deshalb war eine Freigabe schwierig.
Ich hoffe sehr, dass sie AMD unterstützen werden.
Im Moment nutze ich mit meiner AMD-GPU komplizierte Workarounds.
Ich habe versucht, den Source-Code unter macOS zu bauen, und dabei ist der folgende TypeScript-Fehler aufgetreten.
'status' is declared but its value is never readDie Installation mit pip unter macOS ist nicht zu empfehlen, weil dabei das System beschädigt werden könnte.
Es braucht ein Homebrew-Paket oder eine ZIP-Datei für die manuelle Installation.
Mit
uv tool install unslothlässt es sich leicht verwalten.Ich komme hauptsächlich aus dem Python-Ökosystem und habe wenig Packaging-Erfahrung. Homebrew-Support ist das nächste Ziel.
Mit
pyproject.tomllassen sich Abhängigkeiten verwalten und mit einem einzigen Befehl reproduzierbare Umgebungen erstellen.Ich habe früher unsloth mit einer unreleased ROCm-basierten Version installiert, und
uv synchat das mit einer einzigen Zeile gelöst.Zugehöriger Issue-Kommentar
pipx-Installationsdokumentation
Ich schaue wieder vorbei, sobald AMD-Support verfügbar ist.
Ich frage mich, ob auf dem Mac die GPU verwendet wird.
Beim Setup wurde nur CPU angezeigt.