1 Punkte von GN⁺ 7 시간 전 | Noch keine Kommentare. | Auf WhatsApp teilen
  • Das 128B-Dense-Modell verarbeitet Instruction-Following, Reasoning und Coding mit einem einzigen Gewichtssatz und ist als Public Preview verfügbar
  • Es unterstützt ein 256k Context Window sowie eine anfragebasierte Einstellung des Reasoning-Aufwands, sodass sowohl kurze Chat-Antworten als auch komplexe agentische Ausführungen mit demselben Modell möglich sind
  • Vibe-Coding-Sessions werden asynchron in der Cloud ausgeführt, mehrere Sessions lassen sich parallel betreiben, und lokale CLI-Sessions können zusammen mit History, Task State und Approval in die Cloud teleportiert werden
  • Der Work mode von Le Chat ist ein agentischer Modus auf Basis von Mistral Medium 3.5, der den Kontext aus verbundenen Tools, Dokumenten, Mailboxes und Calendars nutzt und bei sensiblen Aufgaben eine ausdrückliche Genehmigung anfordert
  • Das Modell wird zum Standardmodell von Le Chat und ersetzt Devstral 2 in Vibe CLI; der API-Preis beträgt 1,5 $ pro 1 Million Input-Token und 7,5 $ pro 1 Million Output-Token

Mistral Medium 3.5 vorgestellt

  • Der Vision-Encoder wurde von Grund auf trainiert, um verschiedene Bildgrößen und Seitenverhältnisse zu verarbeiten
  • Auf SWE-Bench Verified erreicht es 77,6 % und liegt damit vor Modellen wie Devstral 2 und Qwen3.5 397B A17B
  • Bei τ³-Telecom wurden 91,4 erreicht; der Fokus liegt auf mehreren Tool-Aufrufen und der Erzeugung strukturierter Ausgaben, die von nachgelagertem Code verarbeitet werden können

Vibe Remote Coding Agent

  • Coding-Sessions werden jetzt asynchron in der Cloud ausgeführt, sodass lange Aufgaben weiterlaufen können, während Nutzer nicht am Platz sind
  • Mehrere Sessions können parallel ausgeführt werden, damit Entwickler nicht bei jedem Schritt, den der Agent ausführt, zum Engpass werden
  • Cloud-Agenten lassen sich über Mistral Vibe CLI oder Le Chat starten
  • Während der Ausführung lassen sich File Diff, Tool Calls, Progress State und Fragen des Agenten einsehen
  • Lokale CLI-Sessions können in die Cloud teleportiert werden; Session History, Task State und Approval werden dabei mitgenommen

Struktur zur Integration in Entwicklungs-Workflows

  • Vibe sitzt zwischen den Systemen, die Entwicklungsteams bereits nutzen, und behält an den nötigen Stellen einen Human-in-the-Loop bei
  • GitHub wird mit Code und Pull Requests verbunden, Linear und Jira mit Issues
  • Sentry ist für Incident-Bearbeitung angebunden, Apps wie Slack und Teams für Reporting
  • Jede Coding-Session läuft in einer isolierten Sandbox und kann umfangreiche Bearbeitungen und Installationen umfassen
  • Nach Abschluss der Arbeit kann der Agent einen GitHub Pull Request öffnen und Benachrichtigungen versenden, sodass Entwickler statt jedes einzelnen Keystrokes das Ergebnis prüfen

Geeignete Coding-Aufgaben und Ausführung in Le Chat

  • Der Vibe-Remote-Agent ist auf klar definierte Aufgaben ausgelegt, die viel Zeit kosten, aber weiterhin das Urteilsvermögen von Entwicklern erfordern
  • Dazu gehören Module-Refactoring, Testgenerierung, Dependency-Upgrades, CI-Untersuchungen und Bugfixes
  • Workflows können in Mistral Studio orchestriert werden, damit Mistral Vibe in Le Chat nutzbar ist
  • Die Funktion wurde zunächst für interne Coding-Umgebungen entwickelt und anschließend für Enterprise-Kunden eingesetzt
  • Coding-Aufgaben lassen sich jetzt im Web starten, ohne an ein lokales Terminal gebunden zu sein, und mehrere Aufgaben können parallel ausgeführt werden
  • In Le Chat verfasste Aufgaben laufen in derselben Remote Runtime, die auch CLI und Web verwenden, und kommen später als fertiger Branch oder Draft PR zurück

Work mode in Le Chat

  • Work mode ist ein agentischer Modus in Le Chat für komplexe Aufgaben und wird von einem neuen Harness sowie Mistral Medium 3.5 angetrieben
  • Der Agent wird zum Execution Backend des Assistenten selbst, sodass Le Chat lesen und schreiben, mehrere Tools gleichzeitig nutzen und Multi-Step-Projekte bearbeiten kann
  • Tool-übergreifende Workflows

    • E-Mails, Nachrichten und Kalender lassen sich in einem einzigen Durchlauf aufarbeiten
    • Meetings können mit Teilnehmerkontext, aktuellen Nachrichten und aus Quellen gezogenen Talking Points vorbereitet werden
  • Recherche und Synthese

    • Themen lassen sich über Web, interne Dokumente und verbundene Tools hinweg recherchieren
    • Es können strukturierte Briefings oder Reports erstellt werden, die nach dem Bearbeiten exportiert oder versendet werden können
  • Posteingang und Teamarbeit

    • Inbox-Triage und das Erstellen von Antwortentwürfen sind möglich
    • Aus Team- und Kundendiskussionen lassen sich Jira-Issues erstellen und Zusammenfassungen per Slack an das Team senden
    • Sessions bleiben länger bestehen als normale Chat-Antworten und können über mehrere Turns und Trial-and-Error hinweg bis zum Abschluss weiterlaufen
    • Im Work mode sind Connectoren standardmäßig aktiviert statt manuell ausgewählt, sodass auf den Kontext aus Dokumenten, Mailboxes, Calendars und anderen Systemen zugegriffen werden kann
    • Alle Aktionen des Agenten sind sichtbar; jeder Tool Call und die Thinking Rationale können eingesehen werden
    • Für sensible Aufgaben wie das Senden von Nachrichten, das Erstellen von Dokumenten oder das Ändern von Daten fordert Le Chat abhängig von den Berechtigungen eine ausdrückliche Genehmigung an

Verfügbarkeit und Preise

  • Mistral Medium 3.5 ist über Mistral Vibe und Le Chat verfügbar
  • Die Remote Coding Agents und der Work mode von Le Chat werden in den Tarifen Pro, Team und Enterprise von Mistral Medium 3.5 angetrieben
  • Der API-Preis beträgt 1,5 $ pro 1 Million Input-Token und 7,5 $ pro 1 Million Output-Token
  • Open Weights werden auf Hugging Face unter einer modified MIT license bereitgestellt
  • Für Prototyping wird es über den NVIDIA-GPU-beschleunigten Endpoint auf build.nvidia.com gehostet
  • Es ist auch als NVIDIA NIM verfügbar, ein skalierbarer containerisierter Inference-Microservice

Noch keine Kommentare.

Noch keine Kommentare.