- 150 $ für Eingabe-Token, 600 $ für Ausgabe-Token (pro 1 Million)
- 150-mal teurer als o1-mini
- Die Modelle der o1-Serie wurden durch Reinforcement Learning darauf trainiert, vor der Antwort nachzudenken und komplexe Schlussfolgerungen durchzuführen
- Das Modell o1-pro nutzt mehr Rechenressourcen, um tiefer nachzudenken und konsistente, hochwertige Antworten zu liefern
- Nur in der Responses API verfügbar und unterstützt die folgenden Funktionen
- Unterstützung für mehrere Tool-Aufrufe
- Unterstützung für Modellinteraktionen über mehrere Turns, bevor auf API-Anfragen geantwortet wird
- 200.000 Kontextfenster, maximale Anzahl an Ausgabe-Token 100.000
- Cutoff ist der 1. Oktober 2023
1 Kommentare
Hacker-News-Kommentare