- Das am häufigsten genutzte Modell von ChatGPT wurde aktualisiert und verbessert Genauigkeit, Sprachfluss und Kontextverständnis in Alltagsgesprächen
- Die neue Version reduziert unnötige Ablehnungen und Warnhinweise und liefert direkte, praktische Antworten auf Fragen
- Bei der Websuche wurde die Fähigkeit zur Informationsintegration verbessert, sodass statt bloßer Zusammenfassungen kontextualisierte Antworten entstehen
- Gesprächston und Schreibstil wirken nun natürlicher und prägnanter; auch faktische Genauigkeit und Qualität beim kreativen Schreiben wurden verbessert
- GPT‑5.3 Instant ist sofort in ChatGPT und über die API verfügbar; der Support für GPT‑5.2 Instant endet planmäßig am 3. Juni 2026
Überblick über GPT‑5.3 Instant
- Ein Update, das die Qualität von Alltagsgesprächen in ChatGPT insgesamt verbessert und sich auf präzise Antworten, Kontextverständnis und einen flüssigen Gesprächsverlauf konzentriert
- Unnötige Unterbrechungen, übermäßige einschränkende Formulierungen und deklarative Aussagen wurden reduziert, um die Natürlichkeit der Unterhaltung zu steigern
- Auf Basis von Nutzerfeedback wurden Tonfall, Relevanz und Gesprächsfluss verbessert
- Das Update wurde mit Fokus auf die alltägliche Nutzungserfahrung entwickelt und zielt stärker auf spürbare Qualitätsverbesserungen als auf Benchmark-Werte
Weniger unnötige Ablehnungen und knappere Antworten
- Die vorherige Version (GPT‑5.2 Instant) hatte das Problem, selbst sicher beantwortbare Fragen übermäßig abzulehnen oder Antworten durch moralische Vorbemerkungen zu verzögern
- GPT‑5.3 Instant reduziert unnötige Ablehnungen und liefert direkte, auf die Frage fokussierte Antworten
- Beispiel: Bei einer Anfrage zur Berechnung im Weitbogenschießen fügte GPT‑5.2 eine lange Sicherheitswarnung als Einleitung an,
während GPT‑5.3 sofort nach den benötigten physikalischen Variablen (Bogenstärke, Pfeilmasse, Geschwindigkeit usw.) fragt und die Berechnung fortsetzt
- Dadurch kommt es seltener zu Gesprächsabbrüchen, und sofortige, praktische Antworten werden möglich
Höhere Qualität bei webbasierten Antworten
- GPT‑5.3 Instant integriert aus dem Web gewonnene Informationen mit eigenem Wissen und Schlussfolgerungsfähigkeit, um kontextualisierte Antworten zu erzeugen
- Statt bloßer Linklisten oder redundanter Informationen werden Kernaussagen und inhaltliche Zusammenhänge bevorzugt geliefert
- Beispiel: Bei der Frage nach dem „größten Vertrag der MLB-Offseason 2025–26“
- erklärte GPT‑5.2 lediglich nachgelagerte Beispiele aus der Vorsaison,
- während GPT‑5.3 den 4-Jahres-Vertrag über 240 Millionen US-Dollar von Kyle Tucker bei den LA Dodgers präzise benennt
und ihn zusätzlich mit Veränderungen in der Ligastruktur und den Auswirkungen von Tarifverhandlungen einordnet
- Dadurch verbessern sich Aktualität, Relevanz und Kontextgenauigkeit
Natürlichkeit im Gesprächsstil
- Bei manchen Antworten von GPT‑5.2 Instant gab es Feedback, sie wirkten durch übertriebene Trostformeln oder vermutete Emotionen „unnatürlich“
- GPT‑5.3 Instant reduziert unnötige emotionale Formulierungen und setzt stärker auf einen natürlichen, auf den Kern fokussierten Gesprächsstil
- Beispiel: Bei der Frage, warum es in San Francisco schwer sei, Liebe zu finden,
erklärt GPT‑5.3 systematisch strukturelle Faktoren wie Stadtkultur, Mobilität und emotionale Distanz
- Ohne Einleitungen wie „Mit dir ist alles in Ordnung“ liefert es direkte, einfühlsame und analytische Antworten
Verbesserte faktische Genauigkeit
- GPT‑5.3 Instant senkt die Halluzinationsrate in Hochrisikobereichen wie Medizin, Recht und Finanzen deutlich
- Bei Webnutzung sinkt die Halluzinationsrate um 26,8 %, bei ausschließlicher Nutzung internen Wissens um 19,7 %
- Auch in Bewertungen auf Basis von Nutzerfeedback sank sie um 22,5 % (mit Webnutzung) bzw. 9,6 % (ohne Web)
- Die Zuverlässigkeit faktenbasierter Antworten steigt damit und verbessert die praktische Einsetzbarkeit
Stärkere Schreibfähigkeiten
- GPT‑5.3 Instant bietet mehr erzählerische Tiefe und emotionalen Ausdruck und zeigt Stärken bei kreativem Schreiben und literarischer Beschreibung
- Beispiel: Auf die Aufforderung, ein Gedicht über „die letzte Zustellung eines in Rente gehenden Postboten in Philadelphia“ zu schreiben,
vermittelt GPT‑5.3 Gefühle auf natürliche Weise durch konkrete Szenen und sinnliche Details
- Im Vergleich zur sentimentalen Darstellung von GPT‑5.2 ist die strukturelle Ausgereiftheit und Wirklichkeitsnähe höher
Grenzen und künftige Verbesserungen
- In nicht englischsprachigen Sprachen (Japanisch, Koreanisch usw.) treten weiterhin holprige oder wörtlich übersetzte Formulierungen auf
- Eine natürlichere Tonalität je Sprache bleibt eine Aufgabe für künftige Verbesserungen
- Die Anpassung des Antworttons wird weiter verbessert, während kontinuierlich Nutzerfeedback gesammelt wird
Verfügbarkeit und Migrationsplan
- GPT‑5.3 Instant ist sofort für alle ChatGPT-Nutzer und über die API (
gpt‑5.3‑chat‑latest) verfügbar
- Updates für Thinking- und Pro-Modelle sollen in Kürze folgen
- GPT‑5.2 Instant wird am 3. Juni 2026 eingestellt und steht zahlenden Nutzern drei Monate lang als „Legacy Models“ zur Verfügung
1 Kommentare
Hacker-News-Kommentare
Das größte Problem von ChatGPT im Moment ist der gekünstelte Tonfall in den Antworten
Formulierungen wie „Why it matters“, „the big picture“, übertriebene Hervorhebungen und rhetorische Fragen gibt es viel zu oft
Die erste GPT‑5-Version war noch okay, aber als man ihm eine „wärmere Persönlichkeit“ geben wollte, wurde es eher wieder so kaputt wie 4o
Früher war es auch auf Japanisch gut, aber inzwischen ist die Qualität gesunken, was ziemlich enttäuschend ist
Deshalb probiere ich jetzt mit Soundeffekten wie <i>swoosh</i> einen neuen Schreibstil aus
Ich nutze LLM-Ausgaben als Referenz, kopiere sie aber nicht direkt, sondern schreibe sie in meiner eigenen Stimme neu, um meinen Stil beizubehalten
Die Marke „5.2‑Instant“ ist verwirrend
Ich dachte, das wäre ein ultraschnelles Modell, aber es wirkt eher wie Version 5.2 ohne Router
Es fühlt sich so an, als würde OpenAI wieder zu dem Zustand vor GPT‑5 zurückkehren, in dem es zu viele Modelle gibt und niemand weiß, was man verwenden soll
Die eine ist die Instant-Serie: schnell und für ChatGPT optimiert, aber weniger präzise
Die andere ist die Thinking-Serie: langsamer, aber besser für professionelle Aufgaben geeignet
Man würde es gern auf eine einzige Option vereinfachen, aber weil die Nutzer unterschiedliche Vorlieben haben, bietet man weiterhin beide Modelle an (der Verfasser ist OpenAI-Mitarbeiter)
Der Konkurrent Gemini 3 Fast / Gemini 3 Thinking macht es genauso
Da „Thinking“-Modelle teuer sind, versucht man offenbar, sie mit einem günstigen Instant-Modell zu binden
Bei Sprachinterfaces ist die Zeit bis zum ersten Token wichtiger als die Tokenrate pro Sekunde
Ich musste lachen, als ich den Titel „GPT‑5.3 Instant: Smoother, more …“ sah
Solche LLM-Marketing-Slogans klingen inzwischen wie Zigarettenwerbung
Auf der Seite stand die Formulierung „Better judgment around refusals“,
und ich frage mich, ob eine AI-Firma das Problem unterschiedlicher Regeln je nach Gruppe jemals offiziell behandelt hat
Zum Beispiel wenn Witze über bestimmte Gruppen abgelehnt werden, über andere aber erlaubt sind
Außerdem wird in diesem Paper behauptet, dass Modelle den Wert menschlichen Lebens je nach Land unterschiedlich bewerten
Selbst wenn ich „antworte in metrischen Einheiten“ schrieb, wurde das oft nicht richtig eingehalten, sodass ich Kochfragen mehrmals neu stellen musste
Es ist inzwischen etwas besser, aber die US-Perspektive ist immer noch stark
Dort wurde ein „Wechselkurs“ für menschliches Leben auf Basis von Ziegenpreisen berechnet, aber das könnte auch einfach Preisniveaunterschiede zwischen Ländern abbilden
Außerdem umfasst die Stichprobe nur 11 Länder, was Verallgemeinerungen erschwert
und nicht die tatsächlichen intrinsischen Präferenzen des Modells zeigen
Gibt man eine neutrale Option vor, bewerten die meisten Modelle menschliches Leben als gleichwertig
Zudem ist das ursprüngliche Paper wenig vertrauenswürdig, weil die Datentransparenz mangelhaft ist und Code und Ergebnisse kaum sauber miteinander verknüpft werden können
Laut Vergleichslink
schneidet Gemini 3.1 Lite (no reasoning) besser ab als GPT‑5.3 (no reasoning)
Ich fand es unangenehm, dass im Ankündigungsbeispiel die Berechnung von Flugbahnen für Langstreckenartillerie erwähnt wurde
Da OpenAI mit dem US-Militär kooperiert, wirkt es, als wolle man die Normalisierung militärischer Nutzung vorantreiben
Es sieht nach einer Strategie aus, solche Themen in immer alltäglichere Beispiele zu verpacken, um Widerspruch abzustumpfen
Aber wenn man die aktuelle Lage bedenkt, bin ich mir nicht sicher, ob diese Lesart passt
Die Beschreibung „GPT‑5.3 Instant kombiniert Informationen aus dem Web besser“ kann ich nachvollziehen
Tatsächlich nutzt GPT Suche viel natürlicher als Claude
Außerdem gibt es einen Bug, bei dem die Einstellung für Websuche vergessen wird, selbst wenn man sie deaktiviert
In meinen Benchmarks lag GPT‑5.3 auf demselben Niveau wie 5.2‑chat oder etwas darunter
Deshalb glaube ich zu verstehen, warum man im Blog keine Benchmarks veröffentlicht hat
Vergleichslink
Interessant ist auch, dass kurz vor der Ankündigung von „5.3 Instant“ die Option „Instant“ im Modellwähler ganz entfernt wurde
und durch „Auto (allerdings bei deaktiviertem Auto-switch)“ ersetzt wurde
Die Beschreibung „automatisch, aber Automatik ausgeschaltet“ wirkt wie ein Beleg dafür, dass man selbst schon den Überblick verloren hat