- Mistral 3 besteht aus den kleinen Modellen mit 3B, 8B und 14B sowie Mistral Large 3 mit 41B aktiven und 675B Gesamtparametern und bildet eine neue Open-Source-KI-Modellfamilie
- Alle Modelle sind unter der Apache 2.0-Lizenz veröffentlicht, sodass Entwickler und Unternehmen sie frei nutzen und anpassen können
- Mistral Large 3 nutzt eine Mixture-of-Experts-Architektur, wurde mit 3.000 NVIDIA H200-GPUs trainiert und erreicht Spitzenleistungen bei mehrsprachiger Konversation und Bildverständnis
- Ministral 3 ist für Edge-Umgebungen ausgelegt, bietet ein starkes Kosten-Leistungs-Verhältnis und die Reasoning-Variante erreichte bei AIME '25 eine Genauigkeit von 85 %
- Mistral 3 ist auf wichtigen Plattformen wie Mistral AI Studio, Hugging Face, AWS und Azure sofort verfügbar und soll das offene KI-Ökosystem erweitern
Mistral 3-Überblick
- Mistral 3 ist die neue Modellfamilie von Mistral AI mit den kompakten Modellen 3B, 8B und 14B sowie dem großen sparsamen Modell Mistral Large 3
- Mistral Large 3 ist eine Mixture-of-Experts (MoE)-Struktur mit 41B aktiven und 675B Gesamtparametern
- Alle Modelle werden unter der Apache 2.0-Lizenz veröffentlicht und sind der Open-Source-Community zugänglich
- Die Modelle werden in verschiedenen Komprimierungsformaten bereitgestellt, um die Zugänglichkeit zu verbessern
- Die Ministral-Modellfamilie gilt als OSS-Modell mit dem besten Verhältnis von Leistung zu Kosten
Mistral Large 3: Spitzenmodell auf Open-Weight-Basis
- Mistral Large 3 ist ein Open-Weight-Modell, das mit 3.000 NVIDIA H200-GPUs von Grund auf trainiert wurde
- Das erste Mixture-of-Experts-Modell seit der Mixtral-Reihe, das die Weiterentwicklung der Mistral-Prätrainingstechnologie widerspiegelt
- Nach dem Training erreicht es bei allgemeiner Prompt-Performance eine Leistung auf Augenhöhe mit den besten Open-Weight-Modellen; in der Bildverständnis und in mehrsprachiger Konversation außerhalb des Englischen sind ebenfalls starke Ergebnisse erzielt worden
- Im LMArena-Leaderboard liegt es bei OSS Non-Reasoning-Modellen auf Platz 2 und bei allen OSS-Modellen auf Platz 6
- Die Base- und Instruct-Fine-Tuning-Versionen wurden veröffentlicht; die Reasoning-Version soll bald folgen
Zusammenarbeit mit NVIDIA, vLLM und Red Hat
- Mistral Large 3 ist durch die Zusammenarbeit mit vLLM und Red Hat für die Open-Source-Community leicht zugänglich
- Bereitstellung von NVFP4-Format-Checkpoints, die mit llm-compressor erstellt wurden
- Über vLLM ist eine effiziente Ausführung auf Blackwell NVL72-, 8×A100- und 8×H100-Systemen möglich
- Mit NVIDIA wurden TensorRT-LLM, SGLang und weitere Frameworks für Low-Precision-Inferenz unterstützt
- Integration der Blackwell-Attention- und MoE-Kernel, der geteilten prefill/decode-Serving-Pfade und der spekulativen Decodierung
- Optimierte Bereitstellung wird auch für Edge-Umgebungen wie DGX Spark, RTX PC und Jetson-Geräte unterstützt
Ministral 3: Intelligente Modelle für Edge-Umgebungen
- Die Ministral-3-Reihe für Edge- und lokale Umgebungen wird in drei Größen (3B, 8B, 14B) bereitgestellt
- Jedes Modell wurde in den drei Varianten Base, Instruct und Reasoning veröffentlicht
- Alle Varianten enthalten Bildverständnis und mehrsprachige Verarbeitung
- Sie gilt als OSS-Modell mit dem besten Verhältnis von Kosten zu Leistung; das Instruct-Modell zeigt eine vergleichbare oder bessere Leistung als Konkurrenzmodelle bei etwa zehnfach weniger Token
- Die Reasoning-Variante ist in präzisionszentrierten Umgebungen stark, und das 14B-Modell erreichte bei AIME '25 eine Genauigkeit von 85 %
Bereitstellung und Zugänglichkeit
- Mistral 3 ist auf folgenden Plattformen sofort nutzbar
- Mistral AI Studio, Amazon Bedrock, Azure Foundry, Hugging Face, Modal, IBM WatsonX, OpenRouter, Fireworks, Unsloth AI, Together AI
- Bald auch auf NVIDIA NIM und AWS SageMaker verfügbar
- Bereitstellung eines kundenspezifischen Modelltrainingsservices für Unternehmen
- Unterstützung für domänenspezifische Workloads, Leistungssteigerung bei eigenen Datensätzen, Bereitstellung in Spezialumgebungen
Kernwerte von Mistral 3
- Frontier-Leistung und offene Zugänglichkeit: Bereitstellung von Leistung auf Niveau geschlossener Modelle als Open Source
- Multimodale und mehrsprachige Unterstützung: Text-, Bild- und logisches Verständnis in über 40 Sprachen
- Skalierbare Effizienz: Parameterumfang von 3B bis 675B, passend von Edge bis Enterprise
- Adaptive Nutzbarkeit: Einsatz in verschiedenen Workflows wie Coding, Dokumentenanalyse und Tool-Nutzung
Nächste Schritte
- Modell-Dokumentation und technische Ressourcen sind in Mistral Docs und dem AI Governance Hub verfügbar
- Sofortiger API-Zugriff über Hugging Face und die Mistral AI-Plattform
- Ein Anfragekanal für unternehmensspezifisches Training und Fine-Tuning wird angeboten
- Community-Beteiligung ist über Twitter/X, Discord, GitHub möglich
Fazit
- Mistral 3 zielt darauf, das offene KI-Ökosystem auf Basis von Transparenz, Zugänglichkeit und gemeinsamer Weiterentwicklung auszubauen
- Es eröffnet neue Möglichkeiten in Reasoning, Effizienz und realen Anwendungen und etabliert sich als nächste Open-Source-Modellgeneration, die „Verstehen in Handeln überführt“
Noch keine Kommentare.