GPT-5.2 und GPT-5.2-Codex sind jetzt 40 % schneller
(twitter.com/OpenAIDevs)- Die Verarbeitungsgeschwindigkeit der Modelle GPT-5.2 und GPT-5.2-Codex wurde im Vergleich zu bisher um 40 % verbessert
- Der Inferenz-Stack wurde für alle API-Nutzer optimiert
- Dasselbe Modell und dieselben Gewichte, aber mit geringerer Latenz
Noch keine Kommentare.