- Text-only-Modell auf Basis von Gemma 4 26B IT, für Apple Silicon MLX optimiert und auf 4 Bit quantisiert, mit einer Größe von etwa 13 GB
- Intelligenter als das Original, auf derselben Maschine schneller und ein stabiles unzensiertes Modell für Code, Tool-Nutzung und Koreanisch
- Text-only-Flaggschiff mit Fokus auf schnelle Textverarbeitung statt Multimodalität
- Verbesserter QuickBench-Wert von 95,8 (Original 91,4) und 8,7 % höhere Generierungsgeschwindigkeit (46,2 tok/s), wodurch sich die gefühlte Antwortlatenz deutlich verringert
- Behält uncensored als Kerneigenschaft bei und liefert dennoch stabile Ausgaben bei Code, Tool-Nutzung und koreanischen Prompts
- Mit einem Code-Generation-Score von 98,6 (+6,3) zeigt es bei lokalem Schreiben und Refactoring von Python-Funktionen deutlich präzisere Ergebnisse als das Original
- Mit einem Score von 95,0 für koreanische Prompts (+4,3) bleibt es auch bei Fragen auf Koreanisch stabil und ist sofort nutzbar
- Bei der Verarbeitung von Koreanisch und Agent-Style-Prompts ist die Leistung besser als beim Original
- Da es ein unzensiertes Modell ist, gibt es null Antworten, die von Content-Filtern blockiert werden, ohne dass die Ausgaben instabil werden oder kaputtgehen
- Kann direkt in lokale Agent-Workloads/Pipelines für Browser-Automatisierung, Tool-Calling und Planung eingesetzt werden
- Ausführen:
mlx_lm.server --model Jiunsong/supergemma4-26b-uncensored-mlx-4bit-v2 --port 8080
- OpenAI-kompatibles Serving wird automatisch unterstützt; keine separate Template-Konfiguration erforderlich (im Gegenteil: Wenn ein Pfad an
--chat-template übergeben wird, können Antworten beschädigt werden)
- MLX 4-bit, BF16- und U32-Tensoren, Safetensors-Format
8 Kommentare
Ich habe gerade das 31b-Heretik auf Hugging Face im Einsatz, aber das sollte ich wohl auch mal ausprobieren.
Das muss ich auch mal ausprobieren.
Danke für die hilfreichen Informationen.
Das hat anscheinend eine andere Lizenz als das ursprüngliche gemma4.
Stimmt, es ist nicht Apache 2.0.
Im Lizenz-Tab ist ein Link zu Gemma 4 gesetzt – wo kann man das überprüfen?
Krass
Gibt es auch für Ollama
https://ollama.com/0xIbra/supergemma4-26b-uncensored-gguf-v2
Auch ein etwas größeres 31B-Modell
https://huggingface.co/Jiunsong/SuperGemma4-31b-abliterated-mlx-4bit
https://huggingface.co/Jiunsong/SuperGemma4-31b-abliterated-GGUF
Haha, interessant, dass das ein Modell ist, das in einer lokalen Community entwickelt wurde.