Google stellt Gemma 4 vor: Neuer Maßstab für leichte Open Models – jetzt bis zum Smartphone
(blog.google)Google stellt Gemma 4 vor: neuer Maßstab für leichte Open Models
Google hat die neue Open-Model-Serie Gemma 4 vorgestellt. Diese Version behält die Philosophie der bisherigen Gemma-Familie bei, wurde aber mit Fokus auf höhere Leistung und vielfältigere Einsatzumgebungen entwickelt. Besonders wichtig ist die Optimierung für den Einsatz in einer breiten Spanne von Umgebungen – vom Rechenzentrum bis zum Smartphone.
⸻
🧠 Was ist Gemma?
Gemma ist eine von Google DeepMind entwickelte Familie leichter Open Models (SLM, Small Language Model), die auf der Technologie der Gemini-Modelle basiert.
Das bedeutet:
• Gemini = großes, Cloud-zentriertes Modell
• Gemma = Modell mit Fokus auf lokale/leichte Umgebungen
So ist die Positionierung zu verstehen.
⸻
🚀 Die wichtigsten Änderungen in Gemma 4
- Ausgelegt auf „beste Leistung pro Byte“
Gemma 4 wurde mit dem Ziel entwickelt, bei gleicher Modellgröße höhere Leistung zu liefern.
Besonders auffällig ist die Optimierung für Reasoning und Agent-Workflows.
→ also nicht nur ein Modell für einfache Textgenerierung
→ sondern ein Modell, das auch Agent-basierte Automatisierungsaufgaben berücksichtigt
⸻
- In verschiedensten Umgebungen lauffähig
Die größte Veränderung dieser Version ist die Reichweite der Ausführung.
• Rechenzentrum (Hochleistungsserver)
• persönliche Entwicklungsumgebung
• Smartphone / Edge-Gerät
All das wird abgedeckt.
Das heißt:
„Cloud → lokal → mobil“
Eine Richtung, die die Grenzen von AI-Ausführungsumgebungen faktisch auflöst
⸻
- Entwicklerfreundliche Open-Model-Strategie
Gemma wurde von Anfang an als entwicklerzentriertes Open Model konzipiert.
• nutzbar per Download
• Customizing und Fine-Tuning möglich
• Aufbau eines vielfältigen Ökosystems abgeleiteter Modelle
Tatsächlich hat das bisherige Gemma bereits ein Ökosystem aufgebaut mit
• mehr als 400 Millionen Downloads
• mehr als 100.000 abgeleiteten Modellen
⸻
- Für das „Agent-Zeitalter“ entworfen
Gemma 4 zielt nicht nur auf ein einfaches LLM, sondern auf Folgendes:
• automatisierte Code-Ausführung
• auf Function Calling basierende Aufgabenverarbeitung
• mehrstufiges Reasoning
Das heißt:
Ein Modell, das zum Übergang von LLM zu Agent passt
⸻
📱 Warum ist das wichtig?
Die Bedeutung von Gemma 4 liegt nicht nur in einem einfachen Modell-Upgrade.
- Der Ort, an dem AI ausgeführt wird, verändert sich
• bisher: Cloud-zentriert
• jetzt: Ausweitung auf lokal + mobil
→ große Veränderungen bei Kosten, Privatsphäre und Geschwindigkeit
⸻
- Der Wettbewerb „Open Model vs. geschlossenes Modell“ verschärft sich
• OpenAI, Anthropic → Fokus auf Cloud-API
• Google Gemma → lokal ausführbares Open Model
→ die Wahlmöglichkeiten für Entwickler verzweigen sich nun klarer
⸻
- Ein wichtiger Wendepunkt für individuelle Entwickler
Jetzt gilt:
• AI-Apps lassen sich ohne Server ausführen
• lauffähig auf eigenem PC / Mac mini / Smartphone
• Agent-basierte Automatisierung kann umgesetzt werden
→ das Zeitalter aus Solo-Entwicklung + AI-Automatisierung beschleunigt sich
⸻
🧩 Zusammenfassung
Gemma 4 ist nicht nur ein einfaches Modell-Update,
sondern ein Modell, das eine Richtung dafür vorgibt, „wo AI ausgeführt werden soll“.
• leichtgewichtig + hohe Leistung
• lokale Ausführung möglich
• Agent-freundliches Design
• Ausbau des offenen Ökosystems
Letztlich kann Gemma 4 als eine zentrale Achse des Übergangs gesehen werden von
„Zeitalter der Cloud-AI → Zeitalter individuell ausgeführter AI“
1 Kommentare
Bei der mehrsprachigen Benchmark-Leistung scheint
gemma-4-31b-itbesser zu sein als Qwen3.5 27B, und da die Lizenz ebenfalls Apache 2.0 ist, hoffe ich, dass es eine Alternative zum Qwen-Modell werden kann, das von Kunden wegen nationaler Bedenken abgelehnt wird.