32 Punkte von xguru 2026-03-18 | 3 Kommentare | Auf WhatsApp teilen
  • Open-Source-Tool, das die lokale Ausführung und das Training verschiedenster AI-Modelle wie Text, Audio, Embeddings und Vision in einer einzigen Oberfläche unterstützt
  • Auf Mac/Windows/Linux lassen sich GGUF-/safetensor-Modelle lokal ausführen; beim Training werden bis zu 2× höhere Geschwindigkeit und 70 % weniger VRAM erreicht
  • Basierend auf llama.cpp + Hugging Face mit Unterstützung für Multi-GPU-Inferenz und die meisten Modelle
  • Der Unsloth-Kernel optimiert LoRA, FP8, FFT, PT und unterstützt über 500 Text-, Vision-, TTS-/Audio- und Embedding-Modelle
  • Fine-Tuning aktueller LLMs wie Qwen3.5 und NVIDIA Nemotron 3 ist möglich, mit automatischer Multi-GPU-Unterstützung
    • Breite Unterstützung für Trainingsverfahren wie Full Fine-Tuning, 4bit/16bit/FP8-Training und Reinforcement Learning (GRPO)
    • Es werden fortlaufend Optimierungen ergänzt, etwa um MoE-LLMs 12× schneller zu trainieren oder ein 20B-Modell auf einer 80-GB-GPU mit einer Kontextlänge von über 500K zu trainieren
  • Alle Modelle einschließlich feinabgestimmter Modelle können als safetensors/GGUF exportiert und in llama.cpp, vLLM, Ollama, LM Studio usw. verwendet werden
  • Enthält die Funktion Data Recipes, die unstrukturierte Dokumente wie PDF, CSV und JSON automatisch in Datensätze umwandelt, sowie integrierte Self-Healing-Tool-Calls und Code-Ausführung
  • Enthält Observability-Funktionen zur Echtzeitverfolgung von Trainingsverlust und GPU-Auslastung
  • In der Model Arena lassen sich die Ausgaben von zwei Modellen nebeneinander vergleichen, etwa Basismodell und feinabgestimmtes Modell
  • 100 % offline und lokal ausführbar und damit datenschutzfreundlich; Unterstützung für Apple MLX, AMD und Intel soll bald folgen
  • Workflow :
    Studio starten →
    Modell aus lokalen Dateien oder unterstützten Integrationen laden →
    Trainingsdaten aus PDF, CSV, JSONL usw. importieren oder einen Datensatz von Grund auf erstellen →
    Datensatz in Data Recipes bereinigen und erweitern → Training mit empfohlenen Presets oder benutzerdefinierten Einstellungen starten →
    Ausgaben des trainierten Modells und des Basismodells vergleichen →
    Lokal speichern oder zur bestehenden Stack exportieren
  • Lizenz
    • Das Hauptpaket von Unsloth steht unter der Lizenz Apache 2.0
    • Nur einige optionale Komponenten wie die Unsloth-Studio-UI stehen unter der Open-Source-Lizenz AGPL-3.0

3 Kommentare

 
wedding 2026-03-20

Ich habe es auch direkt nach der Veröffentlichung ausprobiert … aber die Seite war kaputt, und ich kam nicht über das Tutorial hinaus. schnief

 
wedding 2026-03-20

https://github.com/unslothai/unsloth/…

Das wurde also sofort behoben!

 
GN⁺ 2026-03-19
Hacker-News-Kommentare
  • Ich bekomme unsloth studio auf meinem MacBook immer noch nicht sauber eingerichtet.
    Das liegt an Problemen mit dem Python-Tooling.
    Da ich stattdessen bereits einen llama.cpp-Server in einem Docker-Container laufen habe, habe ich drei Codebases vergleichend ausprobiert.
    Erster Vergleichscode, zweiter Vergleichscode
    Die Ergebnisse waren ziemlich interessant. Wenn unsloth studio richtig funktioniert, versuche ich es nächste Woche noch einmal.

    • Wäre schön, wenn du es noch einmal ausprobieren könntest. Ich habe gerade ein neues PyPI-Release veröffentlicht.
      Mit dem folgenden Befehl lässt es sich installieren.
      curl -LsSf https://astral.sh/uv/install.sh | sh  
      uv venv unsloth_studio --python 3.13  
      source unsloth_studio/bin/activate  
      uv pip install unsloth==2026.3.7 --torch-backend=auto  
      unsloth studio setup  
      unsloth studio -H 0.0.0.0 -p 8888
      
  • Ich frage mich, was das Geschäftsmodell von unsloth ist. Sie veröffentlichen kostenlos eine Menge, aber die Erlösstruktur wirkt nicht klar.

    • Im Moment ist das Hauptziel, der Open-Source-Community nützliches Tooling bereitzustellen.
      Ich denke, Closed Source ist vor allem wegen der Qualität des Toolings populärer. Wir haben noch viel zu veröffentlichen.
    • Wenn das Team etwa 8 Leute groß ist, leiden sie wohl nicht akut unter Geldmangel.
  • Die Trainingsfunktion fand ich interessant, war aber enttäuscht, weil dort „on NVIDIA“ stand.
    Ich frage mich, ob es Alternativen oder Tutorials gibt, um SFT (supervised fine-tuning) mit dem Metal-Stack von macOS zu machen.

    • Unten in der Dokumentation steht, dass Non-Nvidia-Support in Vorbereitung ist.
      Ich bin auch auf AMD und hoffe darauf. ROCm ist schmerzhaft, aber AMD selbst mag ich.
    • Es steht ausdrücklich dort: „Mac: Nur Chat auf CPU-Basis, MLX-Training kommt bald“.
    • Es könnte realistisch sein, von diesem Mac aus eine Nvidia-GPU zu mieten.
    • lol
  • Unsloth ist wirklich ein gutes Projekt.
    Wer eine eigene AI-Engine betreibt, sollte es auf jeden Fall ausprobieren.

  • Wegen der Apache-Lizenz denke ich darüber nach, es auch im Unternehmen einzusetzen.
    LMStudio hat eine proprietäre Lizenz, deshalb war eine Freigabe schwierig.

    • Nur einige Komponenten stehen unter Apache.
  • Ich hoffe sehr, dass sie AMD unterstützen werden.
    Im Moment nutze ich mit meiner AMD-GPU komplizierte Workarounds.

    • Sie sagen, dass AMD-Support in Arbeit ist. Ich warte ebenfalls darauf.
  • Ich habe versucht, den Source-Code unter macOS zu bauen, und dabei ist der folgende TypeScript-Fehler aufgetreten.
    'status' is declared but its value is never read

    • Ist bereits behoben. Ich empfehle, es mit den folgenden Befehlen noch einmal zu versuchen.
      curl -LsSf https://astral.sh/uv/install.sh | sh  
      uv venv unsloth_studio --python 3.13  
      source unsloth_studio/bin/activate  
      uv pip install unsloth --torch-backend=auto  
      unsloth studio setup  
      unsloth studio -H 0.0.0.0 -p 8888
      
    • Sie meinten, sie würden das schnell prüfen und beheben.
  • Die Installation mit pip unter macOS ist nicht zu empfehlen, weil dabei das System beschädigt werden könnte.
    Es braucht ein Homebrew-Paket oder eine ZIP-Datei für die manuelle Installation.

    • Stimme zu. Im Moment halte ich die Installation mit „uv“ oder „mise“ für besser.
      Mit uv tool install unsloth lässt es sich leicht verwalten.
    • Danke für das Feedback, wir verbessern den Installationsprozess weiter.
      Ich komme hauptsächlich aus dem Python-Ökosystem und habe wenig Packaging-Erfahrung. Homebrew-Support ist das nächste Ziel.
    • Ich empfehle, zuerst uv zu installieren und dann Python-Pakete isoliert in einer virtuellen Umgebung zu installieren.
    • Mit uv sync ist es deutlich sauberer.
      Mit pyproject.toml lassen sich Abhängigkeiten verwalten und mit einem einzigen Befehl reproduzierbare Umgebungen erstellen.
      Ich habe früher unsloth mit einer unreleased ROCm-basierten Version installiert, und uv sync hat das mit einer einzigen Zeile gelöst.
      Zugehöriger Issue-Kommentar
    • Vielleicht lässt sich das auch mit pipx lösen.
      pipx-Installationsdokumentation
  • Ich schaue wieder vorbei, sobald AMD-Support verfügbar ist.

  • Ich frage mich, ob auf dem Mac die GPU verwendet wird.
    Beim Setup wurde nur CPU angezeigt.