- Le Chat hat ein Enterprise-Konnektorverzeichnis (Beta) mit mehr als 20 Einträgen eingeführt
- Mit benutzerdefinierten MCP-Konnektoren lassen sich Workflows und Tools einfach integrieren
- Die neue Funktion Memories ermöglicht personalisierte Antworten auf Basis des Gesprächsverlaufs und von Nutzerpräferenzen
- Es gibt Admin-Kontrollen sowie verschiedene Bereitstellungsoptionen wie On-Premises und private/öffentliche Cloud
- Alle Funktionen stehen auch Nutzern des Free Plans offen
Vorstellung der wichtigsten Le-Chat-Updates
Le Chat führt ein neues Enterprise-Konnektorverzeichnis (Beta) und die Funktion Memories ein, um den praktischen Nutzen des AI-Assistenten zu erhöhen. Diese beiden Funktionen sind besonders relevant, weil sie zugleich Workflow-Automatisierung, höhere Produktivität und personalisierte Antworten ermöglichen.
Enterprise-Konnektorverzeichnis (Beta)
- Es werden mehr als 20 sichere Konnektoren angeboten
- Dazu gehören Daten, Produktivität, Entwicklung, Automatisierung, Commerce und benutzerdefinierte Integrationen
- Unterstützt werden unter anderem Databricks, Snowflake, GitHub, Atlassian, Asana, Outlook, Box, Stripe und Zapier
- Durch das direkte Hinzufügen benutzerdefinierter MCP-Konnektoren lässt sich die Plattform auch auf unternehmenseigene Systeme und Workflows umfassend erweitern
- Unterstützt werden verschiedene Bereitstellungsumgebungen wie Mobilgeräte, Browser, On-Premises sowie private/öffentliche Cloud
- Über Le Chat sind komplexe Workflows wie Datensuche, Zusammenfassungen und das Ausführen von Aktionen gleichzeitig möglich
Unterstützungsbeispiele nach Hauptkategorie
- Daten: Suche und Analyse von Datensätzen mit Databricks, Snowflake, Pinecone, Prisma Postgres, DeepWiki usw.
- Produktivität: Dokumenten- und Projektzusammenarbeit mit Box, Notion, Asana, Monday.com, Atlassian (Jira/Confluence) usw.
- Entwicklung: Verwaltung von GitHub-Issues und PRs, Erstellen von Linear-Tasks, Monitoring mit Sentry, Integration mit der Cloudflare Development Platform usw.
- Automatisierung: Workflow-Automatisierung und Kampagnenmanagement über Zapier, Brevo usw.
- Commerce: Zugriff auf und Verwaltung von Handels- und Zahlungsdaten in PayPal, Plaid, Square und Stripe
- Benutzerdefiniert: Eigene MCP-Konnektoren pro Unternehmen hinzufügen, um interne Systeme anzubinden und Zusammenfassungen, Abfragen usw. auszuführen
- Bereitstellung: Freie Wahl zwischen On-Premises-, privater und öffentlicher Cloud-Umgebung
Beispiele für den Einsatz von Konnektoren
- Kundenbewertungen in Databricks zusammenfassen und anschließend ein Issue in Asana anlegen
- Einen GitHub-PR prüfen, dann ein Jira-Issue erstellen und Änderungen in Notion dokumentieren
- Finanzielle Verpflichtungen zwischen Vertragsdokumenten in Box vergleichen und anschließend eine Zusammenfassung erneut hochladen
- Aktive Jira-Issues zusammenfassen und danach einen Entwurf für eine Sprint-Übersichtsseite in Confluence erstellen
- Erkenntnisse aus Stripe-Zahlungsinformationen prüfen und auffällige Fälle in Linear erfassen
Flexible Verbindung und Kontrolle
- Auch die direkte Verbindung zu Remote-MCP-Servern, die nicht im Konnektorverzeichnis enthalten sind, wird unterstützt
- Administratoren können den Zugriff der Nutzer auf Konnektoren und Authentifizierungsmethoden fein granular steuern
- Auch für die Bereitstellung gibt es je nach Organisationsbedarf verschiedene Optionen wie Self-Hosting, private oder öffentliche Cloud und vollständig gemanagte Services
Memories: Nachhaltige Nutzung des Gesprächskontexts
Le Chats Memories speichern frühere Gesprächsverläufe, Entscheidungen und Referenzen, um auf Basis vergangener Informationen in jedem Gespräch eine bessere Personalisierung, passendere Empfehlungen und verlässlichere Antworten zu liefern.
- Der Fokus liegt auf Genauigkeit und Zuverlässigkeit: Es werden nur wichtige Inhalte gespeichert, sensible oder vorübergehende Informationen werden automatisch ausgeschlossen
- Nutzer können Speicherinhalte selbst hinzufügen, bearbeiten, aktualisieren und löschen; zudem gibt es transparente Datenschutz-Einstellungen
- Unterstützt wird auch ein Import-Tool, mit dem sich Memory-Daten schnell aus ChatGPT übernehmen lassen
Erste Schritte und Events
- Konnektoren und Memories stehen allen Le-Chat-Nutzern kostenlos zur Verfügung
- Die Nutzung ist sofort im Webbrowser sowie in den iOS-/Android-Apps (Le Chat by Mistral AI) möglich
- Auch Bereitstellungen für größere Enterprise-Umgebungen und individuelle Beratung werden angeboten
Webinar und Hackathon
-
- September: Webinar zu den MCP-Funktionen von Le Chat mit Live-Fragerunde und aktuellen Anwendungsbeispielen
- 13.–14. September: Zweitägiger Mistral AI MCP Hackathon in Paris mit Gelegenheit, Ideen gemeinsam mit AI-Ingenieuren umzusetzen und professionelles Mentoring zu erhalten
Stellenangebote
Le Chat sucht Entwickler, die gemeinsam ein AI-Produkt auf Weltklasse-Niveau bauen möchten
1 Kommentare
Hacker-News-Kommentare
Der Preis ist derselbe, aber die Ergebnisse sind deutlich besser, verlässlicher und etwa 10-mal schneller.
Der Nachteil ist, dass es beim Scheitern dazu neigt, komplett zu entgleisen.
gpt-5-mini hat das Formatting des Prompts zu etwa 70 % ignoriert, während mistral-medium sich zu 99 % daran hält und in etwa 1 % der Fälle aus unerfindlichen Gründen zufällige Zeichen einfügt, meist Backticks, wodurch es eigene Formatting-Probleme erzeugt.
Trotzdem bin ich mit Mistral sehr zufrieden.
json ...zu umschließen, ist ein viel zu häufiges Muster, deshalb prüfe und korrigiere ich solche Dinge auf Anwendungsebene.Vor 10 Jahren habe ich schon bei der Generierung synthetischer Daten mit LSTM ähnlich Sanity Checks für das Formatting gemacht.
Um Kosten zu sparen und auch Produkte außerhalb von OpenAI auszuprobieren, nutze ich für Zusammenfassungen Mistral Small und für die abschließende Analyse Large, und ich bin sehr zufrieden.
Außerdem gibt es einen sehr großzügigen Free Tier, was beim Erstellen von PoCs und Demos enorm hilft.
Kannst du Beispiele zeigen, bei denen es häufig scheitert?
Ich frage mich, wie die Token-Beschränkungen so stark vom gewünschten Format abweichen konnten.
Ich stelle in lmarena viele zufällige One-Shot-Fragen, und wenn ich blind abstimme, ist mistral-medium immer die schlechtere Wahl.
Im Vergleich zu qwen, llama, gemini, gpt usw. hat es mit Abstand die höchste Quote an sachlich falschen Informationen.
Es wäre gut, wenn du ein Beispiel für deinen Prompt teilen könntest; mich würde interessieren, worauf es gut reagiert.
Ich habe einen MCP-Connector gebaut, der sich mit praktisch allen Dateiübertragungsprotokollen verbinden kann, von S3 über FTP(S), SFTP, SMB, NFS, Gdrive, Dropbox, Azure Blob, Onedrive und Sharepoint bis hin zu allem, was sonst noch möglich ist.
Ich habe mehrere Ebenen eingebaut: delegierte Authentifizierung, Erzwingung von Berechtigungen, RBAC-Unterstützung, Beschränkung des LLM-Zugriffs per Chroot sowie Tools zum Visualisieren und Bearbeiten vieler Dateiformate.
Es ist Open Source, und es wäre großartig, wenn es in das Verzeichnis aufgenommen würde.
https://github.com/mickael-kerjean/filestash
Im Vergleich zu Anthropic oder OAI ist das eine deutlich niedrigere Bewertung, deshalb wirkt es auf mich ziemlich günstig.
Um diese Bewertung besser einordnen zu können, wäre ein Vergleich von Umsatz und Wachstum interessant.
Und Mistral scheint fast der einzige wichtige verbleibende Akteur unter den aufkommenden Gen-AI-Unternehmen mit europäischem Bezug zu sein.
Von Aleph Alpha hört man kaum noch etwas, und da Schwarz Group die Führung übernommen hat, wirkt es fast so, als sei im Grunde nur noch ein Acqui-Hire übrig.
Kürzlich wurde ein eigenes Agent-Framework vorgestellt.
https://www.heise.de/en/news/DeepL-presents-its-own-AI-agent-for-companies-10630391.html Insgesamt halte ich KI in Europa für vielversprechend.
Lumo läuft auf Basis von Mistral-Modellen.
Ich verwende es häufig, und die Ergebnisse sind meistens völlig ausreichend.
Fürs Programmieren nutze ich allerdings weiterhin etwa zwei- bis dreimal pro Woche gemini-cli und Codex von OpenAI.
Ich lebe in den USA, aber wenn ich Europäer wäre, würde ich Mistral zur Unterstützung der regionalen und nationalen KI-Industrie voll unterstützen.
https://news.ycombinator.com/item?id=44665398
Der öffentliche API-Endpunkt von Mistral läuft über CloudFlare, und soweit ich geprüft habe, gilt das auch für sämtliche chinesischen Modelle.
Applaus an das Designteam von Mistral für den modernen Pixel-Art-Look in Orange.
Die offiziellen MCP-Dienste müssten doch eigentlich in jedem Fall besser sein, zumal man Mistral dann keinen Zugriff auf die Ressourcen geben müsste.
https://www.bloomberg.com/news/articles/2025-09-03/mistral-set-for-14-billion-valuation-with-new-funding-round
Ich frage mich, ob Mistral wirklich überleben kann.
Vermutlich ist damit gemeint, dass Administratoren steuern können, welche Konnektoren pro Nutzer verwendet werden dürfen, und dass sich Zugriffsrechte über on-behalf authentication fein granular kontrollieren lassen.
Ich würde gerne wissen, ob etwa auch Wechselkursumrechnung, Gebühren oder API-Dokumentation dazugehören.