Aufbau eines auf die Regierungsdomäne spezialisierten sLLM — molit-gemma + RAG
Dies ist ein Fallbeispiel für den Aufbau eines On-Premises-Domain-spezialisierten Chatbots in einer Sicherheitsumgebung, in der öffentliche Einrichtungen externe LLMs wie ChatGPT oder Claude nur schwer einsetzen können.
TL;DR
- Google Gemma-3-1B mit politischen Dokumenten des Ministeriums für Land, Infrastruktur und Verkehr feinabgestimmt →
molit-gemma - Halluzinationen durch OpenSearch-basiertes RAG reduziert
- BLEU 0.6258, LLM-as-a-Judge 4.34/5.0
- Vollständige On-Premises-Bereitstellung (0 externe APIs)
Warum sLLM?
- Bei der Beantwortung von Bürgeranfragen durch Behörden besteht bei Aufrufen externer APIs das Risiko von Datenabfluss
- Modelle der 70B-Klasse belasten die GPU-Infrastruktur stark → ergänzt durch ein 1B-Modell + RAG
- Domain-spezifisches Fine-Tuning liefert eine höhere Genauigkeit als allgemeine LLMs
Architektur
Benutzeranfrage → OpenSearch-Suche → Top-K-Richtliniendokumente → Antwortgenerierung durch molit-gemma → Quellenzitation
Implikationen
- Präsentiert eine empirische Baseline für die Kombination aus sLLM + RAG im öffentlichen Sektor
- Selbst mit einem 1B-Modell kann bei begrenzter Domäne ein praxisnahes Niveau erreicht werden
- Reduzierung von Halluzinationen + Sicherung der Erklärbarkeit
Links
- Paper (RISS): https://www.riss.kr/link?id=T17378943
- Modell (Hugging Face): https://huggingface.co/chohi/gemma-molit-finetuned/blob/main/README.md
- Code (GitHub): https://github.com/chohi22/Industrial-AI/…
1 Kommentare
Herzlichen Glückwunsch zur Abschlussarbeit!