4 Punkte von GN⁺ 2025-12-03 | Noch keine Kommentare. | Auf WhatsApp teilen
  • Mistral 3 besteht aus den kleinen Modellen mit 3B, 8B und 14B sowie Mistral Large 3 mit 41B aktiven und 675B Gesamtparametern und bildet eine neue Open-Source-KI-Modellfamilie
  • Alle Modelle sind unter der Apache 2.0-Lizenz veröffentlicht, sodass Entwickler und Unternehmen sie frei nutzen und anpassen können
  • Mistral Large 3 nutzt eine Mixture-of-Experts-Architektur, wurde mit 3.000 NVIDIA H200-GPUs trainiert und erreicht Spitzenleistungen bei mehrsprachiger Konversation und Bildverständnis
  • Ministral 3 ist für Edge-Umgebungen ausgelegt, bietet ein starkes Kosten-Leistungs-Verhältnis und die Reasoning-Variante erreichte bei AIME '25 eine Genauigkeit von 85 %
  • Mistral 3 ist auf wichtigen Plattformen wie Mistral AI Studio, Hugging Face, AWS und Azure sofort verfügbar und soll das offene KI-Ökosystem erweitern

Mistral 3-Überblick

  • Mistral 3 ist die neue Modellfamilie von Mistral AI mit den kompakten Modellen 3B, 8B und 14B sowie dem großen sparsamen Modell Mistral Large 3
    • Mistral Large 3 ist eine Mixture-of-Experts (MoE)-Struktur mit 41B aktiven und 675B Gesamtparametern
    • Alle Modelle werden unter der Apache 2.0-Lizenz veröffentlicht und sind der Open-Source-Community zugänglich
  • Die Modelle werden in verschiedenen Komprimierungsformaten bereitgestellt, um die Zugänglichkeit zu verbessern
  • Die Ministral-Modellfamilie gilt als OSS-Modell mit dem besten Verhältnis von Leistung zu Kosten

Mistral Large 3: Spitzenmodell auf Open-Weight-Basis

  • Mistral Large 3 ist ein Open-Weight-Modell, das mit 3.000 NVIDIA H200-GPUs von Grund auf trainiert wurde
    • Das erste Mixture-of-Experts-Modell seit der Mixtral-Reihe, das die Weiterentwicklung der Mistral-Prätrainingstechnologie widerspiegelt
  • Nach dem Training erreicht es bei allgemeiner Prompt-Performance eine Leistung auf Augenhöhe mit den besten Open-Weight-Modellen; in der Bildverständnis und in mehrsprachiger Konversation außerhalb des Englischen sind ebenfalls starke Ergebnisse erzielt worden
  • Im LMArena-Leaderboard liegt es bei OSS Non-Reasoning-Modellen auf Platz 2 und bei allen OSS-Modellen auf Platz 6
  • Die Base- und Instruct-Fine-Tuning-Versionen wurden veröffentlicht; die Reasoning-Version soll bald folgen

Zusammenarbeit mit NVIDIA, vLLM und Red Hat

  • Mistral Large 3 ist durch die Zusammenarbeit mit vLLM und Red Hat für die Open-Source-Community leicht zugänglich
    • Bereitstellung von NVFP4-Format-Checkpoints, die mit llm-compressor erstellt wurden
    • Über vLLM ist eine effiziente Ausführung auf Blackwell NVL72-, 8×A100- und 8×H100-Systemen möglich
  • Mit NVIDIA wurden TensorRT-LLM, SGLang und weitere Frameworks für Low-Precision-Inferenz unterstützt
    • Integration der Blackwell-Attention- und MoE-Kernel, der geteilten prefill/decode-Serving-Pfade und der spekulativen Decodierung
  • Optimierte Bereitstellung wird auch für Edge-Umgebungen wie DGX Spark, RTX PC und Jetson-Geräte unterstützt

Ministral 3: Intelligente Modelle für Edge-Umgebungen

  • Die Ministral-3-Reihe für Edge- und lokale Umgebungen wird in drei Größen (3B, 8B, 14B) bereitgestellt
    • Jedes Modell wurde in den drei Varianten Base, Instruct und Reasoning veröffentlicht
    • Alle Varianten enthalten Bildverständnis und mehrsprachige Verarbeitung
  • Sie gilt als OSS-Modell mit dem besten Verhältnis von Kosten zu Leistung; das Instruct-Modell zeigt eine vergleichbare oder bessere Leistung als Konkurrenzmodelle bei etwa zehnfach weniger Token
  • Die Reasoning-Variante ist in präzisionszentrierten Umgebungen stark, und das 14B-Modell erreichte bei AIME '25 eine Genauigkeit von 85 %

Bereitstellung und Zugänglichkeit

  • Mistral 3 ist auf folgenden Plattformen sofort nutzbar
    • Mistral AI Studio, Amazon Bedrock, Azure Foundry, Hugging Face, Modal, IBM WatsonX, OpenRouter, Fireworks, Unsloth AI, Together AI
    • Bald auch auf NVIDIA NIM und AWS SageMaker verfügbar
  • Bereitstellung eines kundenspezifischen Modelltrainingsservices für Unternehmen
    • Unterstützung für domänenspezifische Workloads, Leistungssteigerung bei eigenen Datensätzen, Bereitstellung in Spezialumgebungen

Kernwerte von Mistral 3

  • Frontier-Leistung und offene Zugänglichkeit: Bereitstellung von Leistung auf Niveau geschlossener Modelle als Open Source
  • Multimodale und mehrsprachige Unterstützung: Text-, Bild- und logisches Verständnis in über 40 Sprachen
  • Skalierbare Effizienz: Parameterumfang von 3B bis 675B, passend von Edge bis Enterprise
  • Adaptive Nutzbarkeit: Einsatz in verschiedenen Workflows wie Coding, Dokumentenanalyse und Tool-Nutzung

Nächste Schritte

  • Modell-Dokumentation und technische Ressourcen sind in Mistral Docs und dem AI Governance Hub verfügbar
  • Sofortiger API-Zugriff über Hugging Face und die Mistral AI-Plattform
  • Ein Anfragekanal für unternehmensspezifisches Training und Fine-Tuning wird angeboten
  • Community-Beteiligung ist über Twitter/X, Discord, GitHub möglich

Fazit

  • Mistral 3 zielt darauf, das offene KI-Ökosystem auf Basis von Transparenz, Zugänglichkeit und gemeinsamer Weiterentwicklung auszubauen
  • Es eröffnet neue Möglichkeiten in Reasoning, Effizienz und realen Anwendungen und etabliert sich als nächste Open-Source-Modellgeneration, die „Verstehen in Handeln überführt“

Noch keine Kommentare.

Noch keine Kommentare.