- Ein großes Sprachmodell mit verbesserter Effizienz und Fähigkeit zur Ausführung langfristiger Aufgaben
- Gegenüber dem Vorgänger auf 744 Milliarden Parameter (40 Milliarden aktiv) erweitert, mit 28,5 Billionen Tokens an Pretraining-Daten
- Integration von DeepSeek Sparse Attention (DSA), um die Verarbeitung langer Kontexte beizubehalten und zugleich Bereitstellungskosten zu senken
- Neue asynchrone Reinforcement-Learning-Infrastruktur „slime“ steigert die Trainingseffizienz und erzielt in verschiedenen Benchmarks Spitzenwerte
- Als Open Source veröffentlicht und über Hugging Face, ModelScope, die Z.ai-Plattform u. a. zugänglich, außerdem kompatibel mit Claude Code und OpenClaw
Überblick über GLM-5
- GLM-5 ist ein Modell, das für komplexes Systems Engineering und langfristige Agentenaufgaben entwickelt wurde
- Im Vergleich zu GLM-4.5 stieg die Zahl der Parameter von 355 Milliarden (32 Milliarden aktiv) auf 744 Milliarden (40 Milliarden aktiv)
- Die Pretraining-Daten wurden von 23 auf 28,5 Billionen Tokens erweitert
- Durch die Integration von DeepSeek Sparse Attention (DSA) bleiben die Fähigkeiten zur Verarbeitung langer Kontexte erhalten, während die Bereitstellungskosten deutlich sinken
- Mit der Einführung der asynchronen Reinforcement-Learning-Infrastruktur slime werden Trainingsdurchsatz und Effizienz verbessert und feinere Iterationen im Post-Training ermöglicht
Leistungssteigerungen und Benchmark-Ergebnisse
- GLM-5 zeigt insgesamt bessere Leistung als GLM-4.7 und nähert sich dem Niveau von Claude Opus 4.5 an
- Im internen Evaluierungssatz CC-Bench-V2 erzielt es hervorragende Ergebnisse in Frontend, Backend und langfristigen Aufgaben
- In Vending Bench 2 erreicht es Platz 1 unter Open-Source-Modellen und erzielt in einer einjährigen Simulation eines Automaten-Geschäfts einen Endsaldo von 4.432 US-Dollar
- Bei Schlussfolgern, Coding und Agentenaufgaben gehört es insgesamt zur Weltspitze unter den Open-Source-Modellen
- Beispiele: SWE-bench Verified 77,8 Punkte, BrowseComp 62,0 Punkte, τ²-Bench 89,7 Punkte
- Den Abstand zu Spitzenmodellen wie GPT-5.2 und Gemini 3.0 Pro verringert es weiter
Open-Source-Veröffentlichung und Zugangswege
- GLM-5 wird unter der MIT-Lizenz veröffentlicht; Model Weights können über Hugging Face und ModelScope heruntergeladen werden
- Über Z.ai, BigModel.cn und api.z.ai ist es auch als API nutzbar
- Es ist mit Claude Code und OpenClaw kompatibel und kann dadurch in verschiedene Entwicklungsumgebungen integriert werden
- Auf der Z.ai-Plattform wird ein kostenloser Test angeboten
Office- und Dokumentenerstellung
- GLM-5 zielt auf den Übergang „vom Chatten zur Arbeit“ und dient als Office-Tool für Wissensarbeiter und Ingenieure
- Texte oder Quellmaterialien können direkt in die Formate .docx, .pdf, .xlsx umgewandelt werden, um fertige Dokumente wie PRDs, Prüfungen, Finanzberichte oder Speisekarten zu erstellen
- Die Z.ai-Anwendung bietet einen Agent-Modus mit Unterstützung für die Erstellung von PDF-, Word- und Excel-Dateien sowie Zusammenarbeit über mehrere Durchläufe
Unterstützung für Entwickler und Deployment
- Abonnenten des GLM Coding Plan erhalten schrittweise Zugriff auf GLM-5
- Nutzer des Max-Tarifs können es sofort unter dem Modellnamen
"GLM-5" aktivieren
- GLM-5-Anfragen verbrauchen mehr Kontingent als GLM-4.7
- Für Nutzer, die eine GUI-Umgebung bevorzugen, wird die Agenten-Entwicklungsumgebung Z Code bereitgestellt
- Über das Framework OpenClaw kann GLM-5 als persönlicher Assistenten-Agent für Apps und Geräte eingesetzt werden
Lokales Deployment und Hardware-Kompatibilität
- GLM-5 unterstützt Inferenz-Frameworks wie vLLM und SGLang; Bereitstellungsanleitungen stehen auf dem offiziellen GitHub bereit
- Es kann auch auf anderen Chipsätzen als NVIDIA ausgeführt werden, darunter Huawei Ascend, Moore Threads, Cambricon, Kunlun, MetaX, Enflame und Hygon
- Durch Kernel-Optimierung und Modellquantisierung wird ein angemessener Durchsatz erreicht
Noch keine Kommentare.