18 Punkte von princox 2026-03-10 | 7 Kommentare | Auf WhatsApp teilen

Kürzlich erschien auf r/codex ein interessanter Beitrag.
Ein Nutzer fragte, warum bei der Verwendung von GPT-5.4 in ChatGPT Pro + Codex nur ein Kontext von 258K angezeigt wird.
„Ich habe gehört, GPT-5.4 hat 1M Kontext – warum werden dann nur 258K angezeigt?“
Tatsächlich wird im Codex CLI oder in der IDE in manchen Fällen standardmäßig ein Kontext von etwa 258K angezeigt.

Als Lösung wurde in den Kommentaren genannt, die Konfiguration direkt zu ergänzen.

Beispiel:

model_context_window=800000
model_auto_compact_token_limit=700000

Wenn man dies in config.toml einträgt, lässt sich der nutzbare Kontext laut Erfahrungsberichten auf etwa 800K erweitern.

Ein paar Punkte:
• GPT-5.4 unterstützt Berichten zufolge maximal etwa 1M Token Kontext
• In der Codex-Umgebung startet die Standardeinstellung jedoch teils mit einer Begrenzung auf rund 258K
• Durch das Anpassen der config-Werte kann ein größerer Kontext genutzt werden

Außerdem meinten einige Nutzer, dass die Performance leiden kann, wenn man den Wert zu nah am Maximum einstellt, weshalb etwas Spielraum sinnvoll sei.

Was ich persönlich interessant fand

Je komplexer AI-Tools werden, desto häufiger scheint zu gelten:
„Modellspezifikation = tatsächliche Standardeinstellung“ ist nicht immer gegeben.

Gerade in Umgebungen wie agentic coding oder Codex muss man offenbar nicht selten selbst an den Einstellungen drehen, um die Leistung wirklich auszuschöpfen.

Hat jemand von euch long context (500K~1M) in Codex oder der CLI schon praktisch genutzt?
Mich würde interessieren, ob der Unterschied im realen Entwicklungs-Workflow deutlich spürbar ist.

7 Kommentare

 
gmlwo530 15 일 전

Wenn model_context_window=800000 verwendet wird, gibt es ab dem Zeitpunkt, an dem 50 % des Kontexts verbraucht sind, ein Problem, bei dem die Antwort auf eine Frage stattdessen als Antwort auf die vorherige Frage weiterläuft. Zur Beachtung.

 
ujinyang 2026-03-10

Soweit ich gehört habe, verdoppelt sich der Token-Preis, wenn man über diesen Wert hinausgeht; Sie sollten das besser prüfen.

 
apkas 2026-03-10

Ich habe es ausprobiert, und mit gpt-5.4 selbst bin ich leistungsmäßig zwar sehr zufrieden, aber es ist gelegentlich nicht ganz stabil – zum Beispiel erzeugt es manchmal Antworten auf frühere statt auf die unmittelbar vorherige Nachricht. Es gibt auch Berichte, dass die Leistung bei needle in the haystack-Tasks bei Nutzung von long context auf unter 50 % fällt, deshalb würde ich es nicht unbedingt empfehlen. Allerdings weiß ich nicht, ob needle in the haystack-Tasks selbst überhaupt ein geeigneter Benchmark zur Messung der long-context-Leistung sind. Wie auch immer: Bei Codex dauert compaction nicht lange, und auch nach dem Compact vergisst es den Kontext nicht so leicht, deshalb ließ es sich für mich auch ohne größere Unannehmlichkeiten gut verwenden.

 
sea715 2026-03-10

Mit einem geeigneten Harness scheint es trotzdem nicht schlecht zu sein. Da die Kompaktierung selbst geringer ausfällt, verringert sich auch das Problem von Verlusten in der Mitte.

 
mwma91 2026-03-13

Ich wusste nicht einmal, dass ein 1M-Kontext möglich ist.

 
princox 2026-03-10

Ich habe bestätigt, dass dies unverändert auch auf die codex-App für macOS angewendet werden kann.

 
click 2026-03-10

Ah … kein Wunder, ich fand das Context Window auch viel zu klein, aber man musste es wohl separat einstellen.