31 Punkte von haebom 2025-08-06 | Noch keine Kommentare. | Auf WhatsApp teilen

OpenAI hat überraschend die Modellreihe GPT-OSS (gpt-oss-120b / gpt-oss-20b) unter der Apache-2.0-Lizenz veröffentlicht. Es handelt sich um das erste Modell mit offenen Gewichten seit GPT-2 vor sechs Jahren und es hat das Potenzial, die Marktverhältnisse sowohl bei Leistung als auch bei Effizienz zu verändern.

🧠 Zentrale Merkmale

  • 20B-Modell: Mixture-of-Experts-(MoE)-Architektur
     • 4 von 128 Experten werden aktiviert → geringere Inferenzkosten bei gleichbleibender Leistung
     • FlashAttention, Unterstützung für 128k Token, inklusive YaRN
  • 20B-Modell: Lauffähig selbst in einer 16-GB-GPU-Umgebung (einschließlich Apple Silicon)

📊 Wichtige Benchmark-Ergebnisse (basierend auf GPT-OSS-120B)

  • MMLU: 90,0 % (ähnlich wie o4-mini)
  • AIME Mathematik: 97,9 % (Spitzenniveau bei Mathematik + Tools)
  • Codeforces Elo: 2622 (auch beim Coding in der Spitzengruppe)
  • HealthBench: bessere Leistung als GPT-4o
  • MMMLU (14 Sprachen): 81,3 % → auch bei mehrsprachigem Reasoning sehr stark

💡 Praxistauglichkeit & Ökosystem

  • Das 120B-Modell kann auf einer einzelnen H100-80GB-GPU ausgeführt werden
  • Das 20B-Modell läuft in Echtzeit selbst in einer 16-GB-Umgebung
  • Sofort kompatibel mit HuggingFace, vLLM, Ollama usw.

🔐 Sicherheit & Verantwortung

  • Stärkere Konsistenz des Reasoning durch RL
  • Einführung von Deliberative Alignment
  • Erzeugt selbst bei absichtlichem Missbrauch keine Hochrisiko-Ausgaben

Den Spottname „ClosedAI“ wird das Unternehmen wohl vorerst vermeiden können. Ich habe es kurz getestet, und auch Koreanisch beherrscht es sehr gut.

https://huggingface.co/openai/gpt-oss-120b

Noch keine Kommentare.

Noch keine Kommentare.