Sammlung von Codex-Anwendungsfällen
(developers.openai.com)- OpenAI hat 12 Anwendungsfälle offiziell dokumentiert und veröffentlicht, mit denen sich das agentische Coding-Tool Codex direkt in der Praxis einsetzen lässt; jeder Fall enthält empfohlene Teams/Kategorien, einen Starter-Prompt und Informationen zu nutzbaren Skills
- Eingeteilt in 6 Kategorien: Engineering, Front-end, Data, Integrations, Mobile und Evaluation
1. Pull Requests schnell prüfen (Integration / Automation)
- Wenn man Codex code review zu einer GitHub-Organisation oder einem Repository hinzufügt, lassen sich automatische Reviews für alle PRs einrichten
- Alternativ kann man mit
@codex reviewin einem PR-Kommentar manuell eine Prüfung anfordern
- Alternativ kann man mit
- Starter-Prompt:
@codex review for security regressions, missing tests, and risky behavior changes - Werden Probleme gefunden, kann man mit dem Kommentar
@codex fix itsofort einen Cloud-Task zur Behebung erstellen und den PR aktualisieren - In AGENTS.md kann ein Abschnitt mit Review-Richtlinien ergänzt werden, um das Verhalten anzupassen
- Beispiel: Tipp- und Grammatikfehler → P0, fehlende Dokumentation oder fehlende Tests → P1 usw. zur Priorisierung
- Es gelten jeweils die Anweisungen aus der nächstgelegenen
AGENTS.md; für bestimmte Pakete können also eigene Vorgaben in Unterverzeichnissen abgelegt werden
- Geeignet für: Teams, die vor der Merge-Freigabe ein zusätzliches Review-Signal brauchen, sowie große Codebasen im Produktivbetrieb
- Verwendbarer Skill: Security Best Practices — fokussierte Prüfung riskanter Bereiche wie Secrets, Authentifizierung und Abhängigkeitsänderungen
2. Responsives Frontend-Design umsetzen (Front-end / Design)
- Gibt man Screenshots, Design-Briefs und Referenzbilder ein, wandelt Codex diese in responsiven UI-Code um und verwendet dabei vorhandene Komponenten und Tokens des Design-Systems wieder
- Zentrale Anforderungen an den Prompt:
- Vorhandene Komponenten und das bestehende Design-System wiederverwenden (kein paralleles neues System anlegen)
- Spacing, Layout, Hierarchie und responsives Verhalten möglichst genau am Screenshot ausrichten
- Routing-, State-Management- und Data-Fetching-Muster des Repositories einhalten
- Bei Unklarheiten die einfachste Implementierung wählen und die Annahmen offen benennen
- Mit dem Playwright-Skill lässt sich ein echter Browser öffnen, das Ergebnis mit dem Screenshot vergleichen und iterativ nachbessern
- Durch Ändern der Browsergröße kann das Layout an verschiedenen Breakpoints geprüft werden
- Geeignet für: den Start neuer Frontend-Projekte oder die Umsetzung gestalteter Screens in einer bestehenden Codebasis
- Für gute Ergebnisse wird empfohlen, Referenzen für verschiedene Zustände bereitzustellen, etwa Desktop- und Mobile-Layouts, Hover-/Auswahlzustände sowie leere oder ladende Screens
Die Detailseiten der übrigen Anwendungsfälle werde ich nachladen. Da die Navigation zu lang ist und den Inhalt abschneidet, stelle ich auf das Extrahieren nur des eigentlichen Bodys per view_range um. Per Bash wollte ich den Body mit curl + grep holen. Da die Seite aber per JS gerendert wird, lässt sich der Inhalt mit curl nicht abrufen. Ich rufe deshalb jede Seite mit dem Web-Fetch-Tool ab und extrahiere nur den Bereich nach der Navigation. Ein Teil des Inhalts ist jetzt sichtbar. Nun lade ich die übrigen Seiten parallel nach. Jetzt prüfe ich auch die geladene Seite api-integration-migrations. Alle Detailinhalte der Anwendungsfälle sind nun vorhanden. Im nächsten Schritt fasse ich die übrigen 10 Anwendungsfälle im gleichen Format wie die hervorgehobenen Fälle 1 und 2 zusammen.
3. Eine große Codebasis verstehen (Engineering / Analysis)
Schwierigkeit: Easy | Dauer: 5 Minuten
- Beim Einstieg in ein unbekanntes Repository beginnt man damit, Codex um eine Erklärung der gesamten Codebasis zu bitten
- Wenn man zu einem bestimmten Systembereich beitragen muss, werden die Erklärungen umso konkreter, je enger man die Anfrage eingrenzt
- Starter-Prompt:
Explain how the request flows through <name of the system area> in the codebase. Include: which modules own what / where data is validated / the top gotchas to watch for before making changes. End with the files I should read next. - Geeignet für: neue Engineers beim Onboarding in ein neues Repository und Entwickler, die vor einer Funktionsänderung das bestehende Verhalten verstehen müssen
4. Schwierige Probleme iterativ lösen (Engineering / Analysis)
Schwierigkeit: Advanced | Dauer: Long-running
- Wenn man ein Eval-Skript bereitstellt, kann Codex eine automatische Verbesserungs-Schleife auf Basis von Bewertungen durchlaufen
- Kernstruktur des Starter-Prompts:
AGENTS.mdlesen → Skript/Befehl zum Bewerten der aktuellen Ausgabe finden- Pro Durchlauf nur eine Verbesserung anwenden → Eval-Befehl erneut ausführen → Score und Änderungen protokollieren
- Bei visueller Ausgabe direkt mit
view_imageprüfen - So lange wiederholen, bis Gesamtscore und durchschnittlicher LLM-Score beide über 90 % liegen
- Einschränkungen: Nicht beim ersten akzeptablen Ergebnis stoppen / nicht auf eine frühere Version zurückgehen, solange das neue Ergebnis nicht eindeutig schlechter ist
- Geeignet für: Probleme, die sich in jeder Iteration bewerten lassen, visuelle oder subjektive Ausgaben mit deterministischen Checks und LLM-as-a-judge-Scores sowie lange Sessions mit Fortschrittsverfolgung
5. Browserbasierte Spiele bauen (Engineering / Code)
Schwierigkeit: Intermediate | Dauer: Long-running
- Der Ablauf ist: Spiel-Briefing → zuerst einen konkreten Plan in
PLAN.mdschreiben → anschließend das eigentliche Spiel bauen - Verwendbare Skills:
- Playwright: Spiel im Live-Browser testen, aktuellen Zustand prüfen und Controls, Timing sowie UI-Feeling iterativ anpassen
- ImageGen: Concept Art, Sprites, Hintergründe und UI-Assets erzeugen; Prompts so speichern, dass sie später für Batch-Generierung wiederverwendbar sind
- OpenAI Docs: vor der Anbindung von OpenAI-Funktionen die aktuellen offiziellen Leitfäden prüfen
- Starter-Prompt:
Use $playwright-interactive, $imagegen, and $openai-docs to plan and build a browser game in this repo. Implement PLAN.md, and log your work under .logs/ - Geeignet für: Entwicklung eines Browsergames von Grund auf sowie Spiele, bei denen Steuerung, Optik und Deployment iterativ getestet werden müssen
6. Datensätze analysieren und Reports erstellen (Data / Analysis)
Schwierigkeit: Intermediate | Dauer: 1 Stunde
- Von unaufgeräumten Datendateien bis hin zu Bereinigung, Join, explorativer Analyse und Modellierung – alles wird durchgeführt und als wiederverwendbare Artefakte verpackt
- Anforderungen an den Starter-Prompt:
AGENTS.mdlesen → Datensatz laden → Dateiinhalte, Join-Keys und Datenqualitätsprobleme erklären → reproduzierbaren Workflow von Import über Visualisierung und Modellierung bis zur Report-Ausgabe vorschlagen - Einschränkungen: Scripts und gespeicherte Artefakte statt einmaliger Notebook-Zustände bevorzugen / fehlende Werte oder Merge-Keys nicht willkürlich erfinden
- Verwendbare Skills: Spreadsheet (CSV-, TSV- und Excel-Prüfung), Jupyter Notebook (explorative Analyse), Doc (
.docx-Reports), Pdf (Rendering des finalen Artefakts als PDF) - Geeignet für: Analysearbeit, die mit unaufgeräumten Dateien beginnt und in Charts, Memos, Dashboards oder Reports endet, sowie Teams, die reproduzierbare Skripte brauchen
7. Slide-Decks automatisch erzeugen (Data / Automation)
Schwierigkeit: Easy | Dauer: 30 Minuten
- PPTX-Dateien werden direkt per Code bearbeitet; kombiniert mit Bildgenerierung lassen sich wiederholbare Layout-Regeln pro Folie anwenden
- Verwendbare Skills:
- Slides:
.pptx-Decks mit PptxGenJS erstellen und bearbeiten, inklusive Render- und Prüfscripts für Overflow, Überlappungen und Fonts - ImageGen: Illustrationen, Cover-Art, Diagramme und Slide-Visuals erzeugen und dabei eine wiederverwendbare visuelle Linie beibehalten
- Slides:
- Kernelemente des Starter-Prompts:
logo.pngunten rechts auf allen Folien hinzufügen / Text auf bestimmten Folien nach links verschieben + rechts ein Bild erzeugen / bestehendes Branding beibehalten / vor der Auslieferung Overflow- und Font-Fallback-Prüfungen ausführen - Geeignet für: Teams, die aus Notizen oder strukturierten Inputs reproduzierbare Slides erstellen, oder Decks aus Screenshots, PDFs oder Referenzpräsentationen rekonstruieren wollen
8. Coding-Tasks aus Slack starten (Integrations / Automation)
Schwierigkeit: Easy | Dauer: 5 Minuten
- Einrichtung in drei Schritten: Slack-App installieren → Repository und Umgebung verbinden →
@Codexzum Channel hinzufügen - Erwähnt man
@Codexin einem Thread, startet man den Task zusammen mit Anfrage, Einschränkungen und gewünschtem Ergebnis - Starter-Prompt:
@Codex analyze the issue mentioned in this thread and implement a fix in <name of your environment> - Über den Arbeitslink lässt sich das Ergebnis prüfen; weitere Anpassungen können anschließend direkt in Slack angestoßen werden
- Tipp: Wenn im Thread nicht genug Kontext oder keine konkreten Fix-Vorschläge enthalten sind, diese direkt in den Prompt schreiben
- Geeignet für: asynchrone Übergaben, die in Slack-Threads beginnen, sowie Teams, die Issue-Triage, Bugfixes oder eng umrissene Implementierungen ohne Kontextwechsel erledigen wollen
9. ChatGPT-Apps erstellen (Integrations / Code)
Schwierigkeit: Advanced | Dauer: 1 Stunde
- Alle ChatGPT-Apps bestehen aus drei Teilen: MCP-Server (Tool-Definitionen) + optionales React-Widget + Verbindung zu ChatGPT
- Verwendbare Skills:
- ChatGPT Apps: Leitfaden für Tool-Planung, MCP-Ressourcen und Build-Flow
- OpenAI Docs: vor dem Schreiben von Code die aktuelle Apps-SDK-Dokumentation prüfen
- Vercel: Guides aus dem Vercel-Ökosystem und den offiziellen Vercel-MCP-Server nutzen
- Anforderungen an den Starter-Prompt: ein zentrales Nutzerergebnis auswählen → 3 bis 5 Tools mit klarem Namen, Beschreibung sowie Ein- und Ausgaben vorschlagen → entscheiden, ob für v1 ein Widget nötig ist → TypeScript für den MCP-Server und React für Widgets bevorzugen → Anforderungen an Authentifizierung, Deployment und Tests festhalten
- Output: Tool-Plan / vorgeschlagener Dateibaum / Golden-Prompt-Set / Risiken und offene Fragen
- Geeignet für: erste Planung einer ChatGPT-App, Scaffolding eines MCP-Servers und enge Iterationsschleifen von lokalem HTTPS-Test bis zur Validierung im ChatGPT-Entwicklermodus
10. iOS- und macOS-Apps bauen (Mobile / Code)
Schwierigkeit: Advanced | Dauer: 1 Stunde
- Von SwiftUI-Scaffolding bis Build und Debugging läuft alles bevorzugt CLI-first (
xcodebuildoder Tuist) - Wenn bereits ein Xcode-Projekt existiert, kann man mit XcodeBuildMCP Targets auflisten, Schemes auswählen, Builds ausführen, Apps starten und Screenshots wiederholt erfassen
- Verwendbarer Skill: Build iOS Apps — SwiftUI-UIs bauen und refaktorieren, aktuelle iOS-Patterns wie Liquid Glass anwenden sowie Runtime-Performance im Simulator prüfen und debuggen
- Einschränkungen im Starter-Prompt: CLI-first beibehalten / vorhandene Modelle, Navigationsmuster und gemeinsame Utilities wiederverwenden / iOS- und macOS-Kompatibilität erhalten, sofern der Scope nicht ausdrücklich eingeschränkt wird / nach jeder Änderung kleine Validierungsschleifen ausführen
- Output: App-Scaffold oder angeforderter Funktions-Slice / Build- und Run-Scripts / minimal ausgeführte Validierungsschritte / verwendete Schemes, Simulatoren und Prüfspezifikationen
- Geeignet für: Greenfield-SwiftUI-Apps, die Codex von Grund auf scaffolden soll, sowie bestehende Apple-Plattform-Projekte mit Bedarf an Schemes, Simulator-Output, Screenshots und UI-Automatisierung
11. Figma-Designs in Code umwandeln (Front-end / Design)
Schwierigkeit: Intermediate | Dauer: 1 Stunde
- Über den Figma MCP Server werden strukturierter Design-Kontext, Variablen, Assets und exakte Varianten geladen und anschließend in Code übersetzt, der zum Design-System des Repositories passt
- Verwendbare Skills:
- Figma: Umsetzung beginnt nach
get_design_context→get_screenshot, um Design-Kontext und Screenshot zu holen / per Code Connect veröffentlichte Komponenten mit Quelldateien verknüpfen / projektspezifische Design-System-Regeln für wiederholbare Figma-to-Code-Abläufe erzeugen - Playwright: responsives Verhalten im echten Browser prüfen, das Ergebnis gegen Figma-Referenzen vergleichen und iterativ korrigieren
- Figma: Umsetzung beginnt nach
- Zentraler Ablauf des Starter-Prompts:
- Mit
get_design_contextden exakten Knoten- und Frame-Kontext abrufen - Falls die Antwort abgeschnitten wird, mit
get_metadatadie Dateistruktur abbilden und nur die nötigen Knoten erneut abrufen - Mit
get_screenshoteinen Screenshot der exakt umzusetzenden Variante sichern - Assets herunterladen und dann mit der Implementierung beginnen — vorhandene Komponenten und Design-Tokens wiederverwenden, kein separates System anlegen
- Wenn Figma localhost-Bilder oder SVG-Quellen zurückliefert, diese unverändert verwenden; keine Platzhalter und keine neuen Icon-Pakete hinzufügen
- UI mit Playwright im Browser validieren und visuelle oder Interaktions-Abweichungen iterativ korrigieren
- Mit
- Empfehlungen zur Vorbereitung der Figma-Datei:
- Variablen oder Design-Tokens für Farben, Typografie und Spacing verwenden
- Wiederkehrende UI-Elemente als Komponenten anlegen, statt losgelöste Layer zu duplizieren
- Auto Layout möglichst weitgehend statt manueller Positionierung nutzen
- Frame- und Layer-Namen so vergeben, dass Screen, Zustand und Variante klar unterscheidbar sind
- Echte Icons und Bilder in der Datei belassen
- Die Figma-MCP-Ausgabe (React + Tailwind) sollte als strukturelle Referenz betrachtet werden; der endgültige Code-Stil wird auf die realen Utilities, Component-Wrapper, Farbsysteme, Typografie-Skalen, Spacing-Tokens, Routing-, State-Management- und Data-Fetching-Muster des Projekts übertragen
- Geeignet für: Umsetzung fertig designter Screens oder Flows aus Figma in eine bestehende Codebasis sowie Teams, die möchten, dass Codex auf Basis strukturierten Design-Kontexts arbeitet
12. API-Integrations-Upgrades (Evaluation / Code)
Schwierigkeit: Intermediate | Dauer: 1 Stunde
- Eine bestehende OpenAI-API-Integration wird auf die neuesten empfohlenen Modelle und API-Funktionen aktualisiert und dabei zugleich auf Regressionen geprüft
- Verwendbarer Skill: OpenAI Docs — vor Code-Änderungen die aktuellen Leitfäden zu Modellen, Migrationen und APIs konsultieren
- Anforderungen an den Starter-Prompt:
- Inventarisierung der aktuellen Modelle, Endpunkte und Tool-Annahmen im Repository
- Einen minimalen Migrationsplan für den Wechsel auf den neuesten unterstützten Pfad ableiten
- Bestehendes Verhalten beibehalten, sofern Änderungen nicht durch die neue API oder neue Modelle erforderlich sind
- Prompts gemäß der aktuellen Prompt-Guidance für neuere Modelle aktualisieren
- Änderungen an Prompts, Tools oder Response-Formaten kennzeichnen, die manuell geprüft werden müssen
- Geeignet für: Teams, die von älteren Modellen oder API-Schnittstellen upgraden, sowie für verhaltensbewahrende Migrationen mit expliziter Validierung
1 Kommentare
Ich hatte auf offizielle Anwendungsbeispiele gehofft,
aber es ist nur der übliche Kram.