OpenAI hat überraschend die Modellreihe GPT-OSS (gpt-oss-120b / gpt-oss-20b) unter der Apache-2.0-Lizenz veröffentlicht. Es handelt sich um das erste Modell mit offenen Gewichten seit GPT-2 vor sechs Jahren und es hat das Potenzial, die Marktverhältnisse sowohl bei Leistung als auch bei Effizienz zu verändern.
🧠 Zentrale Merkmale
- 20B-Modell: Mixture-of-Experts-(MoE)-Architektur
• 4 von 128 Experten werden aktiviert → geringere Inferenzkosten bei gleichbleibender Leistung
• FlashAttention, Unterstützung für 128k Token, inklusive YaRN - 20B-Modell: Lauffähig selbst in einer 16-GB-GPU-Umgebung (einschließlich Apple Silicon)
📊 Wichtige Benchmark-Ergebnisse (basierend auf GPT-OSS-120B)
- MMLU: 90,0 % (ähnlich wie o4-mini)
- AIME Mathematik: 97,9 % (Spitzenniveau bei Mathematik + Tools)
- Codeforces Elo: 2622 (auch beim Coding in der Spitzengruppe)
- HealthBench: bessere Leistung als GPT-4o
- MMMLU (14 Sprachen): 81,3 % → auch bei mehrsprachigem Reasoning sehr stark
💡 Praxistauglichkeit & Ökosystem
- Das 120B-Modell kann auf einer einzelnen H100-80GB-GPU ausgeführt werden
- Das 20B-Modell läuft in Echtzeit selbst in einer 16-GB-Umgebung
- Sofort kompatibel mit HuggingFace, vLLM, Ollama usw.
🔐 Sicherheit & Verantwortung
- Stärkere Konsistenz des Reasoning durch RL
- Einführung von Deliberative Alignment
- Erzeugt selbst bei absichtlichem Missbrauch keine Hochrisiko-Ausgaben
Den Spottname „ClosedAI“ wird das Unternehmen wohl vorerst vermeiden können. Ich habe es kurz getestet, und auch Koreanisch beherrscht es sehr gut.
Noch keine Kommentare.