2 Punkte von GN⁺ 2025-09-05 | 1 Kommentare | Auf WhatsApp teilen
  • Le Chat hat ein Enterprise-Konnektorverzeichnis (Beta) mit mehr als 20 Einträgen eingeführt
  • Mit benutzerdefinierten MCP-Konnektoren lassen sich Workflows und Tools einfach integrieren
  • Die neue Funktion Memories ermöglicht personalisierte Antworten auf Basis des Gesprächsverlaufs und von Nutzerpräferenzen
  • Es gibt Admin-Kontrollen sowie verschiedene Bereitstellungsoptionen wie On-Premises und private/öffentliche Cloud
  • Alle Funktionen stehen auch Nutzern des Free Plans offen

Vorstellung der wichtigsten Le-Chat-Updates

Le Chat führt ein neues Enterprise-Konnektorverzeichnis (Beta) und die Funktion Memories ein, um den praktischen Nutzen des AI-Assistenten zu erhöhen. Diese beiden Funktionen sind besonders relevant, weil sie zugleich Workflow-Automatisierung, höhere Produktivität und personalisierte Antworten ermöglichen.

Enterprise-Konnektorverzeichnis (Beta)

  • Es werden mehr als 20 sichere Konnektoren angeboten
    • Dazu gehören Daten, Produktivität, Entwicklung, Automatisierung, Commerce und benutzerdefinierte Integrationen
    • Unterstützt werden unter anderem Databricks, Snowflake, GitHub, Atlassian, Asana, Outlook, Box, Stripe und Zapier
  • Durch das direkte Hinzufügen benutzerdefinierter MCP-Konnektoren lässt sich die Plattform auch auf unternehmenseigene Systeme und Workflows umfassend erweitern
  • Unterstützt werden verschiedene Bereitstellungsumgebungen wie Mobilgeräte, Browser, On-Premises sowie private/öffentliche Cloud
  • Über Le Chat sind komplexe Workflows wie Datensuche, Zusammenfassungen und das Ausführen von Aktionen gleichzeitig möglich

Unterstützungsbeispiele nach Hauptkategorie

  • Daten: Suche und Analyse von Datensätzen mit Databricks, Snowflake, Pinecone, Prisma Postgres, DeepWiki usw.
  • Produktivität: Dokumenten- und Projektzusammenarbeit mit Box, Notion, Asana, Monday.com, Atlassian (Jira/Confluence) usw.
  • Entwicklung: Verwaltung von GitHub-Issues und PRs, Erstellen von Linear-Tasks, Monitoring mit Sentry, Integration mit der Cloudflare Development Platform usw.
  • Automatisierung: Workflow-Automatisierung und Kampagnenmanagement über Zapier, Brevo usw.
  • Commerce: Zugriff auf und Verwaltung von Handels- und Zahlungsdaten in PayPal, Plaid, Square und Stripe
  • Benutzerdefiniert: Eigene MCP-Konnektoren pro Unternehmen hinzufügen, um interne Systeme anzubinden und Zusammenfassungen, Abfragen usw. auszuführen
  • Bereitstellung: Freie Wahl zwischen On-Premises-, privater und öffentlicher Cloud-Umgebung

Beispiele für den Einsatz von Konnektoren

  • Kundenbewertungen in Databricks zusammenfassen und anschließend ein Issue in Asana anlegen
  • Einen GitHub-PR prüfen, dann ein Jira-Issue erstellen und Änderungen in Notion dokumentieren
  • Finanzielle Verpflichtungen zwischen Vertragsdokumenten in Box vergleichen und anschließend eine Zusammenfassung erneut hochladen
  • Aktive Jira-Issues zusammenfassen und danach einen Entwurf für eine Sprint-Übersichtsseite in Confluence erstellen
  • Erkenntnisse aus Stripe-Zahlungsinformationen prüfen und auffällige Fälle in Linear erfassen

Flexible Verbindung und Kontrolle

  • Auch die direkte Verbindung zu Remote-MCP-Servern, die nicht im Konnektorverzeichnis enthalten sind, wird unterstützt
  • Administratoren können den Zugriff der Nutzer auf Konnektoren und Authentifizierungsmethoden fein granular steuern
  • Auch für die Bereitstellung gibt es je nach Organisationsbedarf verschiedene Optionen wie Self-Hosting, private oder öffentliche Cloud und vollständig gemanagte Services

Memories: Nachhaltige Nutzung des Gesprächskontexts

Le Chats Memories speichern frühere Gesprächsverläufe, Entscheidungen und Referenzen, um auf Basis vergangener Informationen in jedem Gespräch eine bessere Personalisierung, passendere Empfehlungen und verlässlichere Antworten zu liefern.

  • Der Fokus liegt auf Genauigkeit und Zuverlässigkeit: Es werden nur wichtige Inhalte gespeichert, sensible oder vorübergehende Informationen werden automatisch ausgeschlossen
  • Nutzer können Speicherinhalte selbst hinzufügen, bearbeiten, aktualisieren und löschen; zudem gibt es transparente Datenschutz-Einstellungen
  • Unterstützt wird auch ein Import-Tool, mit dem sich Memory-Daten schnell aus ChatGPT übernehmen lassen

Erste Schritte und Events

  • Konnektoren und Memories stehen allen Le-Chat-Nutzern kostenlos zur Verfügung
  • Die Nutzung ist sofort im Webbrowser sowie in den iOS-/Android-Apps (Le Chat by Mistral AI) möglich
  • Auch Bereitstellungen für größere Enterprise-Umgebungen und individuelle Beratung werden angeboten

Webinar und Hackathon

    1. September: Webinar zu den MCP-Funktionen von Le Chat mit Live-Fragerunde und aktuellen Anwendungsbeispielen
  • 13.–14. September: Zweitägiger Mistral AI MCP Hackathon in Paris mit Gelegenheit, Ideen gemeinsam mit AI-Ingenieuren umzusetzen und professionelles Mentoring zu erhalten

Stellenangebote

Le Chat sucht Entwickler, die gemeinsam ein AI-Produkt auf Weltklasse-Niveau bauen möchten

1 Kommentare

 
GN⁺ 2025-09-05
Hacker-News-Kommentare
  • Ich habe vor Kurzem den Großteil meiner Pipelines von gpt-4.1-mini auf gpt-5-mini umgestellt, aber die Performance war so schlecht, dass ich nach einiger Untersuchung beschlossen habe, alles auf mistral-medium-0525 zu verlagern.
    Der Preis ist derselbe, aber die Ergebnisse sind deutlich besser, verlässlicher und etwa 10-mal schneller.
    Der Nachteil ist, dass es beim Scheitern dazu neigt, komplett zu entgleisen.
    gpt-5-mini hat das Formatting des Prompts zu etwa 70 % ignoriert, während mistral-medium sich zu 99 % daran hält und in etwa 1 % der Fälle aus unerfindlichen Gründen zufällige Zeichen einfügt, meist Backticks, wodurch es eigene Formatting-Probleme erzeugt.
    Trotzdem bin ich mit Mistral sehr zufrieden.
    • JSON aus einem LLM mit json ... zu umschließen, ist ein viel zu häufiges Muster, deshalb prüfe und korrigiere ich solche Dinge auf Anwendungsebene.
      Vor 10 Jahren habe ich schon bei der Generierung synthetischer Daten mit LSTM ähnlich Sanity Checks für das Formatting gemacht.
    • Ich hatte in meiner Pipeline eine ähnliche Erfahrung.
      Um Kosten zu sparen und auch Produkte außerhalb von OpenAI auszuprobieren, nutze ich für Zusammenfassungen Mistral Small und für die abschließende Analyse Large, und ich bin sehr zufrieden.
      Außerdem gibt es einen sehr großzügigen Free Tier, was beim Erstellen von PoCs und Demos enorm hilft.
    • Mich würde interessieren, ob du bei gpt-5 mini structured output verwendet hast.
      Kannst du Beispiele zeigen, bei denen es häufig scheitert?
      Ich frage mich, wie die Token-Beschränkungen so stark vom gewünschten Format abweichen konnten.
    • Auch in meinem Projekt gibt es einen Schritt, in dem Nutzer verschiedene Optionen auswählen, und in einem Testset, das diesen Workflow abdeckt, liegt die Erfolgsquote von gpt-4.1-mini etwa 7 % höher als bei gpt-5 und gpt-5-mini, ohne besonderen Bedarf an komplexem Reasoning.
    • Mich würde interessieren, wie dein Prompt aufgebaut war, denn meine Erfahrung ist genau gegenteilig.
      Ich stelle in lmarena viele zufällige One-Shot-Fragen, und wenn ich blind abstimme, ist mistral-medium immer die schlechtere Wahl.
      Im Vergleich zu qwen, llama, gemini, gpt usw. hat es mit Abstand die höchste Quote an sachlich falschen Informationen.
      Es wäre gut, wenn du ein Beispiel für deinen Prompt teilen könntest; mich würde interessieren, worauf es gut reagiert.
  • Falls jemand von Mistral diesen Beitrag sieht: Mich würde interessieren, ob es eine Möglichkeit gibt, eine Third-Party-MCP-Implementierung in das Connector-Verzeichnis aufzunehmen.
    Ich habe einen MCP-Connector gebaut, der sich mit praktisch allen Dateiübertragungsprotokollen verbinden kann, von S3 über FTP(S), SFTP, SMB, NFS, Gdrive, Dropbox, Azure Blob, Onedrive und Sharepoint bis hin zu allem, was sonst noch möglich ist.
    Ich habe mehrere Ebenen eingebaut: delegierte Authentifizierung, Erzwingung von Berechtigungen, RBAC-Unterstützung, Beschränkung des LLM-Zugriffs per Chroot sowie Tools zum Visualisieren und Bearbeiten vieler Dateiformate.
    Es ist Open Source, und es wäre großartig, wenn es in das Verzeichnis aufgenommen würde.
    https://github.com/mickael-kerjean/filestash
  • Mistral wurde in einer jüngsten Finanzierungsrunde mit 14 Milliarden Dollar bewertet.
    Im Vergleich zu Anthropic oder OAI ist das eine deutlich niedrigere Bewertung, deshalb wirkt es auf mich ziemlich günstig.
    Um diese Bewertung besser einordnen zu können, wäre ein Vergleich von Umsatz und Wachstum interessant.
    Und Mistral scheint fast der einzige wichtige verbleibende Akteur unter den aufkommenden Gen-AI-Unternehmen mit europäischem Bezug zu sein.
    Von Aleph Alpha hört man kaum noch etwas, und da Schwarz Group die Führung übernommen hat, wirkt es fast so, als sei im Grunde nur noch ein Acqui-Hire übrig.
  • Ich nutze das datenschutzorientierte Lumo LLM Chat von ProtonMail kostenpflichtig, und es hat auch ein gutes Websuche-Tool.
    Lumo läuft auf Basis von Mistral-Modellen.
    Ich verwende es häufig, und die Ergebnisse sind meistens völlig ausreichend.
    Fürs Programmieren nutze ich allerdings weiterhin etwa zwei- bis dreimal pro Woche gemini-cli und Codex von OpenAI.
    Ich lebe in den USA, aber wenn ich Europäer wäre, würde ich Mistral zur Unterstützung der regionalen und nationalen KI-Industrie voll unterstützen.
    • Man sollte beachten, dass Proton in Bezug auf die Offenlegung seines Codes nicht ganz transparent ist.
      https://news.ycombinator.com/item?id=44665398
    • Ich frage mich, woran ProtonMail intern arbeitet.
      Der öffentliche API-Endpunkt von Mistral läuft über CloudFlare, und soweit ich geprüft habe, gilt das auch für sämtliche chinesischen Modelle.
    • Es gibt die Sorge, dass ein tatsächlich erfolgreiches Unternehmen am Ende doch von einem großen US-Konkurrenten übernommen wird.
  • Ich habe Mistral-Modelle noch nie benutzt, aber das Design gefällt mir wirklich sehr.
    Applaus an das Designteam von Mistral für den modernen Pixel-Art-Look in Orange.
    • Beeindruckend ist auch, dass auf der gesamten Website Arial als Schriftart verwendet wird, eine sehr ungewöhnliche Wahl.
  • Ich frage mich, warum man den MCP-Service von Mistral statt der offiziellen MCP-Dienste von Notion, Stripe usw. verwenden sollte.
    Die offiziellen MCP-Dienste müssten doch eigentlich in jedem Fall besser sein, zumal man Mistral dann keinen Zugriff auf die Ressourcen geben müsste.
  • Mistral steht kurz davor, eine Finanzierung bei einer Bewertung von 14 Milliarden Dollar abzuschließen.
    https://www.bloomberg.com/news/articles/2025-09-03/mistral-set-for-14-billion-valuation-with-new-funding-round
    • So groß wirkt das nicht; Anthropic hat kürzlich fast denselben Betrag eingesammelt.
      Ich frage mich, ob Mistral wirklich überleben kann.
  • Es ist von einem „Verzeichnis mit mehr als 20 sicheren Konnektoren“ die Rede, aber es wird nicht erklärt, was „sicher“ hier bedeutet.
    Vermutlich ist damit gemeint, dass Administratoren steuern können, welche Konnektoren pro Nutzer verwendet werden dürfen, und dass sich Zugriffsrechte über on-behalf authentication fein granular kontrollieren lassen.
    • Mich würde interessieren, welche MCP-Funktionen von Stripe, Paypal usw. bereitgestellt werden.
      Ich würde gerne wissen, ob etwa auch Wechselkursumrechnung, Gebühren oder API-Dokumentation dazugehören.
  • Im Free Plan sind alle Funktionen verfügbar, eine tolle Zusammenstellung.