40 Punkte von xguru 2026-03-31 | 8 Kommentare | Auf WhatsApp teilen
  • Jetzt lässt sich OpenAI Codex direkt innerhalb von Claude Code aufrufen, um Code-Reviews durchzuführen und Aufgaben zu delegieren
  • Aufruf über Slash-Commands wie /codex:review, /codex:adversarial-review
  • Mit der Funktion zur Verwaltung von Hintergrundaufgaben (/codex:rescue, /codex:status, /codex:result, /codex:cancel) lassen sich lang laufende Tasks asynchron verarbeiten
  • Nutzt lokale Codex-CLI und App-Server unverändert weiter, ohne separate Runtime, sodass dieselbe Authentifizierung, Konfiguration und Repository-Umgebung erhalten bleibt
  • Nutzbar mit einem ChatGPT-Abonnement (einschließlich kostenloser Tarife) oder nur mit einem OpenAI-API-Key; die Nutzung wird auf das Codex-Kontingent angerechnet
  • Ein öffentliches Open-Source-Plugin, veröffentlicht unter der Apache-2.0-Lizenz

Details zu den Funktionen (Slash-Commands)

  • /codex:review: Führt ein allgemeines schreibgeschütztes Codex-Review für die aktuelle Arbeit aus
    • Review von nicht committeten Änderungen oder Vergleichs-Review von Branches mit --base <ref> möglich
    • Unterstützt die Optionen --background und --wait; bei Änderungen über mehrere Dateien hinweg wird die Ausführung im Hintergrund empfohlen
    • Keine Eingabe eines benutzerdefinierten Fokus-Texts möglich, es werden keine Codeänderungen vorgenommen
  • /codex:adversarial-review: Führt ein steuerbares Review aus, das Implementierungs- und Designentscheidungen gezielt hinterfragt
    • Belastungstest für Annahmen, Trade-offs, Fehlermodi und alternative Ansätze
    • Fokus auf bestimmte Risikobereiche wie Authentifizierung, Datenverlust, Rollback, Race Conditions und Zuverlässigkeit möglich
    • Zusätzlicher Fokus-Text nach dem Command wird unterstützt, es werden keine Codeänderungen vorgenommen
  • /codex:rescue: Delegiert Aufgaben an Codex über den Sub-Agenten codex:codex-rescue
    • Geeignet für Bug-Untersuchungen, Reparaturversuche, das Fortsetzen früherer Codex-Tasks und schnelle Durchläufe mit kleineren Modellen
    • Unterstützt die Optionen --background, --wait, --resume, --fresh
    • Wenn --model und --effort nicht angegeben sind, wählt Codex eigene Standardwerte
    • Die Eingabe spark wird automatisch auf gpt-5.3-codex-spark abgebildet
    • Delegationsanfragen in natürlicher Sprache sind ebenfalls möglich (z. B. Ask Codex to redesign...)
  • /codex:status: Zeigt den Status laufender und kürzlich ausgeführter Codex-Aufgaben im aktuellen Repository an
  • /codex:result: Zeigt die Endausgabe abgeschlossener Aufgaben an; mit einer Codex-Session-ID kann direkt über codex resume <session-id> fortgesetzt werden
  • /codex:cancel: Bricht aktive Codex-Hintergrundaufgaben ab
  • /codex:setup: Prüft Installations- und Authentifizierungsstatus von Codex und schlägt bei fehlender Installation eine Installation per npm vor

Funktion „Review Gate“

  • Aktivierung mit /codex:setup --enable-review-gate
  • Bei Aktivierung wird ein Stop-Hook verwendet, der auf Basis von Claude-Antworten automatisch gezielte Codex-Reviews ausführt
  • Wenn das Review Probleme findet, wird das Stoppen blockiert, damit Claude sie zuerst behebt
  • Hinweis: Da dabei lang laufende Claude/Codex-Schleifen entstehen können, die das Nutzungskontingent schnell aufbrauchen, wird die Aktivierung nur empfohlen, wenn die Session aktiv überwacht wird

Allgemeiner Nutzungsablauf

  • Review vor dem Release: /codex:review allein ausführen
  • Probleme an Codex delegieren: /codex:rescue investigate why the build is failing in CI
  • Lange Aufgabe starten und später prüfen: Mit --background ausführen → /codex:status/codex:result

Struktur der Codex-Integration

  • Das Plugin wrappt den Codex-App-Server und nutzt die im System installierte globale codex-Binärdatei
  • Ohne separate Runtime werden dieselbe Codex-Installation, Authentifizierung, Repository-Struktur und lokale Umgebung gemeinsam genutzt
  • Standardmodell und reasoning effort können über ~/.codex/config.toml (Benutzerebene) oder .codex/config.toml (Projektebene) konfiguriert werden
    • Beispiel: model = "gpt-5.4-mini", model_reasoning_effort = "xhigh"
    • Einstellungen auf Projektebene werden nur angewendet, wenn das Projekt als vertrauenswürdig (trusted) markiert ist
  • Abgeschlossene delegierte Aufgaben lassen sich in Codex direkt mit codex resume <session-id> fortsetzen

Authentifizierung und Konto

  • Wenn auf dem betreffenden Rechner bereits eine Anmeldung bei Codex besteht, ist die Nutzung sofort ohne zusätzliche Einrichtung möglich
  • Wer Codex noch nicht verwendet hat, muss !codex login mit einem ChatGPT-Konto oder API-Key ausführen
  • Vorhandene API-Key- und Base-URL-Einstellungen bleiben unverändert; bei Nutzung anderer Endpunkte kann openai_base_url in der Codex-Konfiguration gesetzt werden

8 Kommentare

 
xguru 2026-03-31

Das hat ein OpenAI-Mitarbeiter selbst erstellt und veröffentlicht. "We love an open ecosystem!"
https://x.com/dkundel/status/2038670330257109461
Der eigentliche Witz ist, dass man Claude Code gebeten hat, dieses Plugin zu reviewen, und es dann als "really well-engineered plugin" gelobt hat..

 
godrm 2026-03-31

Ein interessanter Ansatz. Ob das nun heißen soll, dass man Claude mehr nutzen soll oder lieber nicht? Haha.

 
kunggom 28 일 전

Selbst wenn ich Claude Opus nutze, kommt es ziemlich oft vor, dass GPT Dinge entdeckt, die in der eigenen Review übersehen wurden. Deshalb nutze ich Claude Code und Codex abwechselnd – und jetzt gibt es dafür sogar so etwas.
Im Moment sind meine Tokens auf der Codex-Seite zwar aufgebraucht, sodass ich es nicht direkt ausprobieren kann, aber ich werde es demnächst auf jeden Fall einmal testen.

 
dusin 2026-03-31

„Ihr könnt ruhig eure Plattform nutzen – überlasst die Arbeit einfach uns“ – das ist die Strategie.

 
click 2026-03-31

Es wäre schön, wenn sie das Tooling ähnlich stark verbessern würden wie bei Claude Code. Irgendwie wirkt es so, als würden sie selbst einräumen, dass sie bei einzelnen Aufgaben gut sind, bei der Orchestrierung aber Schwächen haben.

 
sea715 2026-03-31

Code ist zwar das eine, aber ich denke, das liegt vor allem daran, dass sich schon die Parameter der zugrunde liegenden Modelle zwischen GPT und Claude viel zu stark unterscheiden.

 
bbulbum 2026-03-31

Gehen dabei nicht auch Claude-Tokens drauf, wenn man codex aufruft? .. haha

 
netray 25 일 전

Es verwendet also die bereits vorhandene codex-Binärdatei ...