- Forge ist ein System, mit dem Unternehmen KI-Modelle auf Basis ihrer eigenen internen Wissensbestände aufbauen können, und gleicht damit die Grenzen bestehender Modelle aus, die vor allem auf öffentlichen Daten beruhen
- Es trainiert domänenspezifische Modelle mit internen Dokumenten, Codebasen und Betriebsdaten und unterstützt dabei alle Phasen von Vortraining, Nachtraining und Reinforcement Learning
- Die Kontrolle über Modelle, Daten und Wissen sowie der Schutz geistigen Eigentums bleiben erhalten, sodass der Einsatz auch in regulierten Branchen möglich ist
- Mit maßgeschneiderten Modellen können Enterprise-Agenten interne Systeme und Richtlinien verstehen sowie den Einsatz von Tools und Entscheidungsprozesse präzise ausführen
- Die Unterstützung verschiedener Architekturen und kontinuierlichen Reinforcement Learnings erhöht die strategische Autonomie von Enterprise AI und die Möglichkeiten zur langfristigen Verbesserung
Überblick über Forge
- Forge ist ein System, das Unternehmen dabei unterstützt, Frontier-KI-Modelle auf Basis ihres eigenen Wissens und ihrer eigenen Daten aufzubauen
- Während bestehende Modelle auf Basis öffentlicher Daten für allgemeine Aufgaben optimiert sind, bildet Forge den organisationsspezifischen Kontext ab, etwa interne Standards, Richtlinien, Code oder historische Entscheidungsprotokolle
- Dadurch kann KI so arbeiten, dass sie zur operativen Umgebung und zu den Workflows des Unternehmens passt
- Mistral AI arbeitet bereits mit ASML, Ericsson, European Space Agency und HTX Singapore zusammen, um diese Technologie einzusetzen
Training von Modellen auf Basis institutionellen Wissens
- Forge trainiert Modelle mit großen internen Datenbeständen wie internen Dokumenten, Codebasen, strukturierten Daten und Betriebsprotokollen
- Die Modelle lernen dabei die Terminologie, Schlussmuster und Randbedingungen der jeweiligen Umgebung
- Der Trainingsprozess besteht aus drei Phasen
- Vortraining (pre-training): Aufbau eines domänenbewussten Modells mit internen Daten
- Nachtraining (post-training): Feinabstimmung des Modells auf bestimmte Aufgaben und Umgebungen
- Reinforcement Learning: Ausrichtung des Modellverhaltens an internen Richtlinien und Bewertungskriterien sowie Verbesserung der Leistung in realen Umgebungen
- So wird die Entwicklung von Modellen, die die Intelligenz der Organisation widerspiegeln, möglich
Kontrolle und strategische Autonomie
- Forge ist so konzipiert, dass Unternehmen die Kontrolle über Modelle und Daten behalten
- Die Modelle werden mit internen Daten trainiert und können gemäß internen Richtlinien, Bewertungskriterien und betrieblichen Anforderungen verwaltet werden
- In regulierten Umgebungen können damit Compliance- und Governance-Anforderungen erfüllt werden
- Durch den Betrieb der Modelle in der eigenen Infrastruktur lässt sich strategische Autonomie sichern
Maßgeschneiderte Modelle und verlässliche Agenten
- Enterprise-Agenten müssen nicht nur Antworten erzeugen, sondern auch interne Systeme durchsuchen, Tools einsetzen und richtlinienbasierte Entscheidungen treffen
- Agenten auf Basis domänenspezifisch trainierter Modelle verstehen interne Begriffe und Abläufe und erkennen Zusammenhänge zwischen Systemen
- Das verbessert die Genauigkeit bei der Tool-Auswahl, erhöht die Stabilität mehrstufiger Workflows und ermöglicht Entscheidungen im Einklang mit internen Richtlinien
- Dadurch wird die Umsetzung von KI-Agenten als operativen Bausteinen möglich
Unterstützung verschiedener Modellarchitekturen
- Forge unterstützt sowohl Dense- als auch Mixture-of-Experts (MoE)-Architekturen
- Dense-Modelle sind stark bei allgemeinen Aufgaben, während MoE den Betrieb großer Modelle mit niedriger Latenz und hoher Kosteneffizienz ermöglicht
- Durch Unterstützung für multimodale Eingaben können verschiedene Datenformate wie Text und Bilder trainiert werden
Agentenzentriertes Design
- Forge wurde mit Code-Agenten als zentrale Nutzer entworfen
- Beispiel: Autonome Agenten wie Mistral Vibe übernehmen Feintuning von Modellen, Hyperparameter-Suche, Aufgabenplanung und die Erzeugung synthetischer Daten
- Forge verhindert Leistungsabfälle durch Monitoring von Evaluierungsmetriken während des Trainings
- Einschließlich Infrastrukturverwaltung und Data-Pipeline-Rezepten ist Modellanpassung allein per natürlicher Sprache möglich
Kontinuierliche Verbesserung und Evaluierung
- Forge unterstützt kontinuierliches adaptives Lernen
- Über Reinforcement-Learning-Pipelines kann das Modellverhalten mit internem Feedback verbessert werden
- Mit einem Evaluierungs-Framework lassen sich interne Benchmarks, regulatorische Regeln und domänenspezifische Aufgaben testen
- Das ermöglicht einen kontinuierlich verbesserten Modelllebenszyklus statt statischer Auslieferung
Beispiele für den Enterprise-Einsatz
- Behörden: Unterstützung von Politikanalyse und öffentlichen Services durch Training auf mehrsprachigen Richtliniendokumenten und Verwaltungsverfahren
- Finanzinstitute: Sicherung konsistenter interner Governance durch Training auf regulatorischen Dokumenten und Risikoprozessen
- Software-Teams: Höhere Entwicklungsproduktivität bei Implementierung, Debugging und Review durch Training auf internen Codebasen
- Hersteller: Unterstützung von Diagnose und Entscheidungsfindung durch Training auf Designspezifikationen und Wartungsdaten
- Großunternehmen: Unterstützung komplexer Workflows und höhere Genauigkeit bei der Informationssuche durch Agenten auf Basis interner Wissenssysteme
Fazit: Der Wandel hin zu unternehmenszentrierter KI-Infrastruktur
- Während KI-Modelle zu einer zentralen Schicht der Unternehmensinfrastruktur werden, gewinnt die Modellierung von Organisationswissen an Bedeutung
- Forge bietet die Grundlage dafür, dass Unternehmen Modelle auf ihren eigenen Daten trainieren, ausrichten und evaluieren und so zu einem strategischen Asset weiterentwickeln können
- Damit kann KI von einem externen Tool zu einer zentralen Fähigkeit werden, die sich gemeinsam mit dem Organisationswissen weiterentwickelt
1 Kommentare
Hacker-News-Kommentare
Ich mag Mistral. Die Balance aus Kosten und Datenspeicherung innerhalb der EU ist perfekt. Der Qualitätsverlust ist auch minimal.
Aber das Namensschema der Modelle ist viel zu verwirrend. Es gibt zum Beispiel ein Modell namens Devstral 2, das weder Codestral noch Devestral ist.
In der API gibt es mehrere Namen wie
devstral-2512,devstral-latest,devstral-medium-latestusw.Ich dachte,
devstral-latestwäre wohl richtig, habe den Support gefragt und bekam 12 Stunden später einen von KI erzeugten IntelliJ-Setup-Guide mit der Aussage: „devstral 2 ist devstral 2“.Das Problem: Die im Guide gezeigten Bildschirme existieren in Wirklichkeit gar nicht.
devstral-2512,devstral-latestunddevstral-medium-latestalle Devstral 2 sind.labs-devstral-small-2512unddevstral-small-latestsind beide Devstral Small 2,devstral-medium-2507ist Devstral 1.0 unddevstral-small-2507ist Devstral Small 1.1.Es wirkt, als wollten sie für jedes Unternehmen maßgeschneiderte Workflows anbieten.
Oder es ist ein Problem wie bei Google, wo die Kommunikation zwischen Abteilungen nicht funktioniert.
Die Modellqualität ist zwar niedriger, aber innerhalb Europas ist das wohl die beste Option.
Natürlich könnte man auch chinesische Modelle auf europäischen Servern betreiben.
Man sollte Mistral nicht unterschätzen. Als allgemeiner LLM-as-a-Service ist es ziemlich günstig,
und die Strategie, sich statt auf riesige Modelle auf maßgeschneiderte Modellierung zu konzentrieren, könnte sich am Ende auszahlen.
Gerade im stark regulierten EU-Umfeld kann das ein Vorteil sein.
Die Welt besteht nicht nur aus Code-Generierung.
Allerdings ist das eine Strategie mit niedriger Eintrittshürde und daher leicht kopierbar.
Wenn sie für Produkte wie ERP, CRM usw. viele vortrainierte Modelle aufbauen
und anschließend Modelle verkaufen, die mit den Customizing-Daten der Kunden weiter angepasst wurden, wäre das der eigentliche Moat.
Entscheidend ist, still und leise Verträge abzuschließen.
frage ich mich, wie maßgeschneiderte Modellierung dieses enorme Wissen ersetzen soll.
Man lädt einfach den Datensatz hoch und kann das Modell sofort über einen Endpoint nutzen.
Es gibt Einschränkungen, aber die Zugänglichkeit steigt enorm.
Es läuft auch lokal, sodass Entwickler die Kontrolle behalten.
Die Modellqualität gehört unter den LLMs eher zum unteren Ende.
Ich habe mich gefragt, was mit „Pre-Training“ und „Post-Training“ gemeint ist.
In der Praxis wird es doch kaum genügend saubere Datensätze geben.
Deshalb ist unklar, ob das, was sie Pre-Training nennen, wirklich Basismodell-Training ist oder eher SFT (überwachtes Fine-Tuning).
Vielleicht erzeugen sie auf Basis interner Daten auch synthetische Daten und machen damit Knowledge Distillation mit niedriger Auflösung.
Das Ziel bleibt weiterhin die Vorhersage des nächsten Tokens, daher nennt man es „continued pre-training“.
Post-Training umfasst SFT, DPO, RL und alle anderen Prozesse auf Basis menschlichen Feedbacks.
und Post-Training bedeutet, wie bei RAG zusätzliche Daten in den Prompt einzuspeisen.
Laut der Beschreibung von Forge werden Modelle mit internen Unternehmensdokumenten oder Codebasen trainiert,
um Domänenwissen zu verinnerlichen.
Meiner Meinung nach ist für Wissensaufnahme aber RAG effektiver als Fine-Tuning.
Fine-Tuning eignet sich gut, um den „Ton“ eines Modells zu verändern, aber es ist schwer, damit neues Wissen zu injizieren.
Ich unterstütze Mistrals Ansatz.
Statt in den Wettbewerb um riesige Modelle einzusteigen, ist die Fokussierung auf kundenspezifisches Engineering und den EU-Markt klug.
Andere Modelle sorgen sich zu sehr um das Verständnisniveau des Lesers,
aber Mistral kann auch tiefen und technischen Diskussionen gut folgen.
.aikommt vielleicht die Zeit von.eu. Ich freue mich schon auf die Domainai.eu.In letzter Zeit probiert Mistral wirklich viele interessante Dinge aus.
Es ist schwer, mit OpenAI oder Anthropic zu konkurrieren,
aber die Originalität des Produktdesigns sticht hervor.
Persönlich würde ich dort sogar gern arbeiten.
Mistral bringt in letzter Zeit viele coole Funktionen heraus.
Es ist zwar kein Frontier-Modell, aber wenn man bedenkt, dass kleinere Unternehmen Modelle nicht einfach selbst trainieren können,
sind solche Tools eine große Chance.
Besonders zusammen mit Tools wie unsloth wirkt Training viel realistischer.
Ich frage mich, wie viele Enterprise-Anwendungsfälle tatsächlich Fine-Tuning brauchen.
Reicht nicht einfach RAG?
kann man Netzwerk-LLM-Aufrufe für Log-Analyse, Tool-Nutzung, Einbindung von Domänenwissen usw. reduzieren.
Fine-Tuning verbessert dagegen die eigentlichen Schlussfolgerungsfähigkeiten des Modells.
Interessant ist, was dieser Ansatz über die Erlösstruktur von KI andeutet.
Die Anzahl der GPUs wird wohl keine Eintrittsbarriere sein.
Vielmehr werden spezialisierte und proprietäre Daten der wahre Moat sein.
In den internen Daten von Unternehmen steckt nicht ersetzbares Wissen.
Genau darauf setzt Mistral.
aber man könnte auch sagen, dass sie faktisch mit 3,5 Milliarden Jahren Evolutionsdaten trainiert wurden.
Das ist der klügste Weg, mit KI Geld zu verdienen.
MongoDB dringt über VoyageAI ebenfalls in den Markt für Enterprise-RAG und Beratung zu maßgeschneiderten Modellen vor.