6 Punkte von GN⁺ 2026-02-12 | Noch keine Kommentare. | Auf WhatsApp teilen
  • Ein großes Sprachmodell mit verbesserter Effizienz und Fähigkeit zur Ausführung langfristiger Aufgaben
  • Gegenüber dem Vorgänger auf 744 Milliarden Parameter (40 Milliarden aktiv) erweitert, mit 28,5 Billionen Tokens an Pretraining-Daten
  • Integration von DeepSeek Sparse Attention (DSA), um die Verarbeitung langer Kontexte beizubehalten und zugleich Bereitstellungskosten zu senken
  • Neue asynchrone Reinforcement-Learning-Infrastruktur „slime“ steigert die Trainingseffizienz und erzielt in verschiedenen Benchmarks Spitzenwerte
  • Als Open Source veröffentlicht und über Hugging Face, ModelScope, die Z.ai-Plattform u. a. zugänglich, außerdem kompatibel mit Claude Code und OpenClaw

Überblick über GLM-5

  • GLM-5 ist ein Modell, das für komplexes Systems Engineering und langfristige Agentenaufgaben entwickelt wurde
    • Im Vergleich zu GLM-4.5 stieg die Zahl der Parameter von 355 Milliarden (32 Milliarden aktiv) auf 744 Milliarden (40 Milliarden aktiv)
    • Die Pretraining-Daten wurden von 23 auf 28,5 Billionen Tokens erweitert
  • Durch die Integration von DeepSeek Sparse Attention (DSA) bleiben die Fähigkeiten zur Verarbeitung langer Kontexte erhalten, während die Bereitstellungskosten deutlich sinken
  • Mit der Einführung der asynchronen Reinforcement-Learning-Infrastruktur slime werden Trainingsdurchsatz und Effizienz verbessert und feinere Iterationen im Post-Training ermöglicht

Leistungssteigerungen und Benchmark-Ergebnisse

  • GLM-5 zeigt insgesamt bessere Leistung als GLM-4.7 und nähert sich dem Niveau von Claude Opus 4.5 an
  • Im internen Evaluierungssatz CC-Bench-V2 erzielt es hervorragende Ergebnisse in Frontend, Backend und langfristigen Aufgaben
  • In Vending Bench 2 erreicht es Platz 1 unter Open-Source-Modellen und erzielt in einer einjährigen Simulation eines Automaten-Geschäfts einen Endsaldo von 4.432 US-Dollar
  • Bei Schlussfolgern, Coding und Agentenaufgaben gehört es insgesamt zur Weltspitze unter den Open-Source-Modellen
    • Beispiele: SWE-bench Verified 77,8 Punkte, BrowseComp 62,0 Punkte, τ²-Bench 89,7 Punkte
  • Den Abstand zu Spitzenmodellen wie GPT-5.2 und Gemini 3.0 Pro verringert es weiter

Open-Source-Veröffentlichung und Zugangswege

  • GLM-5 wird unter der MIT-Lizenz veröffentlicht; Model Weights können über Hugging Face und ModelScope heruntergeladen werden
  • Über Z.ai, BigModel.cn und api.z.ai ist es auch als API nutzbar
  • Es ist mit Claude Code und OpenClaw kompatibel und kann dadurch in verschiedene Entwicklungsumgebungen integriert werden
  • Auf der Z.ai-Plattform wird ein kostenloser Test angeboten

Office- und Dokumentenerstellung

  • GLM-5 zielt auf den Übergang „vom Chatten zur Arbeit“ und dient als Office-Tool für Wissensarbeiter und Ingenieure
  • Texte oder Quellmaterialien können direkt in die Formate .docx, .pdf, .xlsx umgewandelt werden, um fertige Dokumente wie PRDs, Prüfungen, Finanzberichte oder Speisekarten zu erstellen
  • Die Z.ai-Anwendung bietet einen Agent-Modus mit Unterstützung für die Erstellung von PDF-, Word- und Excel-Dateien sowie Zusammenarbeit über mehrere Durchläufe

Unterstützung für Entwickler und Deployment

  • Abonnenten des GLM Coding Plan erhalten schrittweise Zugriff auf GLM-5
    • Nutzer des Max-Tarifs können es sofort unter dem Modellnamen "GLM-5" aktivieren
    • GLM-5-Anfragen verbrauchen mehr Kontingent als GLM-4.7
  • Für Nutzer, die eine GUI-Umgebung bevorzugen, wird die Agenten-Entwicklungsumgebung Z Code bereitgestellt
  • Über das Framework OpenClaw kann GLM-5 als persönlicher Assistenten-Agent für Apps und Geräte eingesetzt werden

Lokales Deployment und Hardware-Kompatibilität

  • GLM-5 unterstützt Inferenz-Frameworks wie vLLM und SGLang; Bereitstellungsanleitungen stehen auf dem offiziellen GitHub bereit
  • Es kann auch auf anderen Chipsätzen als NVIDIA ausgeführt werden, darunter Huawei Ascend, Moore Threads, Cambricon, Kunlun, MetaX, Enflame und Hygon
    • Durch Kernel-Optimierung und Modellquantisierung wird ein angemessener Durchsatz erreicht

Noch keine Kommentare.

Noch keine Kommentare.