Zusammenfassung des OpenAI DevDay 2025
(maily.so)Newsletter abonnieren, https://maily.so/kkumaeunsonyeon
Zusammenfassung der Keynote von Sam Altman
Am 6. Oktober 2025 fand die Veranstaltung „OpenAI DevDay 2025“ statt. Im Mittelpunkt standen die neuesten Forschungsergebnisse und Produkt-Updates von OpenAI sowie Ankündigungen zu strategischen Veränderungen in verschiedenen Bereichen für die Zukunft.
In seiner Keynote blickte Sam Altman auf die Zukunft der KI-Entwicklung und stellte neue Tools und Plattformen vor, mit denen OpenAI Entwickler dabei unterstützen will, die Welt mit KI zu verändern. Zu Beginn der Rede verglich er Vergangenheit und Gegenwart und veranschaulichte das Wachstum der OpenAI-Plattform mit konkreten Kennzahlen. (Die API-Verarbeitung stieg von 300 Millionen Tokens pro Minute auf über 6 Milliarden Tokens pro Minute, was darauf hindeutet, dass KI sich von einem bloßen Spielzeug zu einem im Alltag genutzten Werkzeug entwickelt hat.) Außerdem ergänzte Sam Altman, dass man sich noch in einer frühen Phase der Reise befinde und sich weiterhin darauf konzentrieren werde, Entwicklern die Nutzung von KI zu erleichtern.
Zu diesem Zweck kündigte er an, Möglichkeiten vorzustellen, um Apps in ChatGPT zu erstellen und bereitzustellen, den Aufbau von Agenten schneller und effizienter zu machen, repetitive Codierarbeit zu reduzieren und so die Softwareentwicklung zu vereinfachen, sowie Modell- und API-Updates bereitzustellen, die all dies unterstützen. OpenAI versprach außerdem, Entwickler weiterhin dabei zu unterstützen, mit KI-Technologie größere Möglichkeiten zu erschließen.
Mit dem DevDay 2025 kündigte OpenAI strategische Veränderungen in mehreren Bereichen an, darunter Hardware- und Infrastrukturpartnerschaften, die Erweiterung multimodaler Modelle und die Öffnung des App-Ökosystems.
Übergang von einem verbraucherzentrierten Ansatz hin zum Ausbau des AI-Plattformgeschäfts für Unternehmen
Gleichzeitige Reaktion auf externe Risiken und Regulierung, darunter Urheberrechts- und Sicherheitsfragen sowie Pläne für offen verfügbare Weight-Modelle
Wichtige Ankündigungen und Trends
- Apps in ChatGPT: Launch des App SDK
OpenAI hat verschiedene Schritte unternommen, um ChatGPT für Entwickler zu öffnen und Nutzern produktiveres und kreativeres Arbeiten zu ermöglichen. Dabei wurden Standards wie GPT's und MCPs übernommen und ChatGPT mit mehr Anwendungen verbunden. Als Ergebnis dieser Bemühungen hat OpenAI das App SDK veröffentlicht, mit dem Entwickler echte Apps innerhalb von ChatGPT erstellen können. Das App SDK unterstützt Entwickler dabei, mit ChatGPT-Nutzern zu interagieren und personalisierte Apps zu bauen. Es basiert auf MCP, und Entwickler haben vollständige Kontrolle über Backend-Logik und Frontend-UI.
Mit dem App SDK entwickelte Apps können Hunderte Millionen ChatGPT-Nutzer erreichen, was Entwicklern dabei helfen dürfte, ihre Produkte schnell zu skalieren. Wenn Nutzer bereits ein bestehendes Produkt abonniert haben, können sie sich direkt im Gespräch anmelden. Außerdem plant OpenAI, mit einem neuen Agent Commerce Protocol verschiedene Monetarisierungswege zu unterstützen, die Zahlungen innerhalb von ChatGPT ermöglichen. Dadurch kann ChatGPT auch dann relevante Apps empfehlen, wenn der Nutzer nicht ausdrücklich nach einer bestimmten App fragt.
- AgentKit: Vereinfachung der Agentenentwicklung und höhere Effizienz
OpenAI erklärte, dass sich KI von einem einfachen Frage-Antwort-System zu einem System entwickelt, das vielfältige Aufgaben für Nutzer ausführen kann, und dass Agenten im Zentrum dieser Entwicklung stehen. (Agenten sind Software, die Aufgaben auf Basis von Kontext, Tools und Vertrauen ausführt.) Trotz hoher Erwartungen und großem Potenzial gibt es bislang nur sehr wenige Agenten, die in Produktionsumgebungen breit eingesetzt werden. Das liegt an der Schwierigkeit der Agentenentwicklung sowie an Faktoren wie komplexen Frameworks, Orchestrierung, Evaluationsschleifen, Tool-Anbindungen und dem Aufbau von Benutzeroberflächen. AgentKit von OpenAI soll den Weg von der Idee zum Agenten schnell und einfach machen.
AgentKit ist ein vollständiges Set an Building Blocks auf der OpenAI-Plattform und wurde dafür konzipiert, Agenten vom Prototyp bis zur Produktion einfach zu erstellen, bereitzustellen und zu optimieren. AgentKit bietet zentrale Funktionen wie Agent Builder, Chat Kit, Eval for Agents und den Agentenzugriff auf Daten.
Agent Builder: eine visuelle Canvas zum Erstellen von Agenten, mit der sich Logikschritte entwerfen, Abläufe testen und Ideen schnell umsetzen lassen.
Chat Kit: bietet eine Chat-Oberfläche, die sich direkt in Anwendungen integrieren lässt und so die User Experience verbessert.
Eval for Agents: eine neue Funktion zur Messung der Agentenleistung. Sie hilft dabei, schrittweise Agentenentscheidungen zu verstehen, Datensätze zu evaluieren, Prompt-Optimierung zu automatisieren und Bewertungen mit externen Modellen durchzuführen. Darüber hinaus können Agenten über die Connector Registry von OpenAI sicher mit internen Tools und Drittanbietersystemen verbunden werden.
- Codex: Veränderung der Art, wie Software entwickelt wird
OpenAI betonte, dass mit KI eine neue Ära beginne, die die Art der Softwareentwicklung verändert, und unterstützt Entwickler mit Codex dabei, schneller und effizienter Code zu schreiben. Codex funktioniert überall dort, wo Code geschrieben wird, darunter IDE, Terminal, GitHub und Cloud, und verbindet über das ChatGPT-Konto alles miteinander, sodass Arbeit nahtlos zwischen Tools verschoben werden kann.
Codex basiert auf dem Modell GPT-5 Codex und ist besser in Aufgaben wie Code-Refactoring und Code-Review. Außerdem kann es die Denkzeit dynamisch an die Komplexität einer Aufgabe anpassen. Entwickler bevorzugen dieses neue Modell, und die Nutzung von Codex steigt schnell. Auch intern bei OpenAI wird Codex breit eingesetzt: Der Großteil des neuen Codes wird von Codex-Nutzern geschrieben, und nahezu jeder OpenAI-PR wird mit Codex geprüft.
Codex ist nicht nur für einzelne Entwickler nützlich, sondern auch für Engineering-Teams. Mit Slack-Integration, Codex SDK und Management-Tools lassen sich Zusammenarbeit verbessern und die Nutzung von Codex verwalten. Als Beispiel wurde Cisco genannt: Das Unternehmen hat Codex in der gesamten Engineering-Organisation ausgerollt, die Geschwindigkeit von Code-Reviews um 50 % erhöht und die durchschnittliche Projektdauer von mehreren Wochen auf wenige Tage verkürzt.
(Raman demonstrierte, wie sich mit Codex und der API praktisch alles in ausführbare Software verwandeln lässt. Er erstellte mit Codex CLI ein Interface für ein Kamerasteuerpult und fügte Figma-Branding hinzu, um das Design exakt abzustimmen. Ohne auch nur eine Zeile Code selbst zu schreiben, fragte er Codex CLI, wie sich eine Sony FR7-Kamera steuern lässt, scaffoldete die Integration mit dem Visca-Protokoll und verband sie mit dem Steuerpult.)
- GPT-5 Pro, GPT-Realtime-Mini, Sora2
OpenAI kündigte mehrere Modell-Updates an.
GPT-5, das im August veröffentlicht wurde, ist stark bei Agent Steering und End-to-End-Coding und wird von Coding-Startups wie Cursor, Windsurf und Percel eingesetzt, um die Art der Softwareentwicklung zu verändern und Apps zu veröffentlichen.
OpenAI stellte GPT-5 Pro per API für alle Entwickler bereit. GPT-5 Pro eignet sich für anspruchsvolle Aufgaben in Bereichen wie Finanzen, Recht und Medizin, bei denen hohe Genauigkeit und tiefgehendes Schlussfolgern erforderlich sind. Zudem wurde mit GPT-Realtime-Mini ein kleineres, leichtgewichtiges Modell per API veröffentlicht. Dieses Modell ist 70 % günstiger als das vor zwei Monaten veröffentlichte fortschrittliche Lightweight-Modell und bietet dieselbe Lightweight-Qualität und Ausdrucksstärke. OpenAI geht davon aus, dass Lightweight-Modelle zu einer der wichtigsten Arten der Interaktion mit KI werden.
OpenAI hat außerdem Sora2, eine neue Funktion für Kreative, per API veröffentlicht. Damit ist nun Zugriff auf dasselbe Modell möglich, das die beeindruckende Videoausgabe von Sora2 antreibt. Sora2 bietet deutlich mehr Steuerbarkeit als das Vorgängermodell, folgt detaillierten Anweisungen und liefert stilistische sowie präzise komponierte Ergebnisse.
So kann man zum Beispiel eine iPhone-Ansicht nehmen und Sora bitten, sie in eine filmische, weitläufige Totalenaufnahme zu erweitern. Das Modell kann außerdem visuelle Elemente und Sound gut kombinieren und liefert nicht nur Sprache, sondern auch reichhaltige Klanglandschaften, Umgebungsgeräusche und synchronisierte Effekte.
Darüber hinaus
Updates zu multimodalen und Reasoning-Modellen
GPT-4.5-Modell: Als auf Chats fokussiertes Konversationsmodell wurden verbesserte Mustererkennung, höhere Kreativität und ein besseres Verständnis der Nutzerintention genannt
o3-mini: Als kosteneffizientes Reasoning-Modell wurden in Mathematik, Wissenschaft und Coding bessere Leistungen als bei o1 angekündigt
Die Fähigkeit von GPT-4o (multimodale Version), Bildeingaben zu interpretieren, wurde verbessert
Hardware- und Infrastrukturpartnerschaften
OpenAI hat mit AMD einen Chip-Liefervertrag im Umfang von mehreren Milliarden Dollar abgeschlossen und plant, künftig Rechenressourcen im Maßstab von XGW (Gigawatt) zu sichern
Partnerschaften mit koreanischen Unternehmen: Parallel zu Gesprächen darüber, das Stargate-Projekt nach Korea zu holen, wird mit Samsung Electronics, SK hynix und anderen über Halbleiterlieferungen und den Aufbau von AI-Rechenzentren gesprochen
Umgang mit Urheberrecht und Videogenerierungsmodellen
Sore2-Modell: ein fortschrittliches multimodales Modell, das per Texteingabe Video + Audio erzeugt und realistischere sowie besser steuerbare Ergebnisse liefern kann
Da das Sore2-Modell Videos auch mit populären Figuren erzeugen kann, wurde möglicher Widerstand von Rechteinhabern wegen Urheberrechtsfragen angesprochen
OpenAI kündigte an, Rechteinhabern detaillierte Kontrolloptionen bereitzustellen (z. B. ob Videogenerierung erlaubt ist und welche Nutzungsbeschränkungen gelten)
Stärkung des AI-Geschäfts für Unternehmen und Strategie für das App-Ökosystem
OpenAI strebt an, ChatGPT über ein einfaches Konversationsmodell hinaus zu einem Ökosystem weiterzuentwickeln, das wie eine Plattform oder ein Betriebssystem genutzt werden kann. (z. B. Ausführen von Apps innerhalb von ChatGPT)
Als Ziel einer Ausweitung branchenbezogener Partnerschaften wurden Samsung Electronics, SK hynix, Spotify, Zillow, Canva und Booking.com genannt
OpenAI plant die Einführung eines App-Einreichungs- und Prüfprozesses sowie Commerce-Funktionen für In-App-Zahlungen
Neuinterpretation der OpenAI-Kernstrategie
Wenn man die Inhalte des OpenAI DevDay 2025 im Hinblick auf die künftige geschäftliche Kernstrategie von OpenAI neu interpretiert, ergibt sich Folgendes.
- Beginn des Wechsels zur Plattform und der Eroberung des Ökosystems
Die Absicht ist, ChatGPT von einem einfachen AI-Chatbot zu einem hubspot zu machen, in dem Nutzer mit verschiedenen Apps interagieren können
AgentKit, Connector, Registry, Apps SDK usw. schaffen die technische Grundlage für den Wandel von „App -> AI Platform“
Strategie, den Platform-Lock-in-Effekt gegenüber Wettbewerbern wie Google, MS und Meta zu stärken
- Kontrolle über Infrastruktur und Kostenmanagement
Für das Wachstum von AI-Modellen, insbesondere großer multimodaler und Videomodelle, sind Rechenkosten und der Zugang zu Hardware zentrale Hürden
Der strategische Vertrag mit AMD ist eine Maßnahme, um die Abhängigkeit von NVIDIA-zentrierter Hardware zu verringern und die Lieferkette zu diversifizieren
Die Sicherung einer AMD-Beteiligungsoption signalisiert, dass sich die Beziehung über ein einfaches Kunden-Lieferanten-Verhältnis hinaus zu einer strategischen Allianz entwickelt
- Wandel der Erlösstruktur
Die realistische Einschätzung lautet, dass die aktuellen enormen Infrastrukturkosten allein durch verbraucherorientierte kostenlose und Premium-Services schwer zu tragen sind
Diversifizierung des Erlösmodells durch mehr Unternehmenskunden für AI, Monetarisierung in Apps und eine stärkere Nutzung der API
- Risikobewusstsein im Wettbewerbsumfeld
Während der Wettbewerb um AI-Plattformen immer intensiver wird, versucht OpenAI zwar, schnell auf eine eigene plattformzentrierte Strategie umzuschwenken, doch Faktoren wie der Erfolg der Ökosystemerweiterung, der Zufluss von AI-Entwicklern, Partnerschaften und der Gewinnung von Kooperationspartnern sowie verschiedene regulatorische Risiken bleiben wichtige Variablen. Die Strategie zur Sicherung von Hardware-Neutralität dürfte außerdem Reaktionen der Konkurrenz auslösen.
Implikationen und Beobachtungspunkte
- Plattformwandel: ChatGPT → App-Ökosystem innerhalb von ChatGPT
Es wird immer deutlicher, dass sich ChatGPT nicht nur zu einem Sprachmodell, sondern zu einer App-Plattform entwickelt.
Entwickler erhalten über die Chat-Oberfläche direkten Zugang zu Nutzern, und es öffnet sich ein einfacher Einstieg in ein Ökosystem, das Entwicklung und Deployment erleichtert
Diese Veränderung könnte die bisher auf Mobile Apps und Web Apps ausgerichtete Marktstruktur herausfordern.
- Ausweitung agentenzentrierter Workflow-Automatisierung
AgentKit ermöglicht die schnelle Entwicklung von AI-Agenten, die komplexe Automatisierung, personalisierte Aufgaben und Prozesskoordination übernehmen können.
Künftig dürfte sich agentenbasierte Automatisierung in vielen Bereichen ausweiten, darunter interne Unternehmensprozesse, Kundensupport und autonome Datenverarbeitung.
Besonders wichtig ist, dass Agenten nun in einem non-coder-orientierten Designansatz kombiniert und umgesetzt werden können, wodurch die technische Einstiegshürde sinkt.
- Wachsende Bedeutung von Preis-Leistungs-Verhältnis und Lightweight-Modellen
Der Fokus liegt nicht nur auf großen Modellen, sondern zunehmend auch auf Lightweight-Modellen (wie GPT‑Realtime‑Mini) oder auf bestimmte Zwecke optimierten Modellen.
Für Echtzeitinteraktionen sowie Sprach- und Videoverarbeitung ist das Gleichgewicht zwischen Leistung und Kosten von Lightweight-Modellen entscheidend.
Für Entwickler und Unternehmen erhöht das die Möglichkeit, „KI ohne große Kostenbelastung in den Arbeitsalltag zu integrieren“.
- Sicherung von Wettbewerbsvorteilen durch Hardware-/Infrastrukturstrategie
So innovativ AI-Modelle und Plattformen auch sein mögen: Ohne passende Infrastruktur bleibt die Skalierbarkeit begrenzt.
Die Partnerschaft mit AMD kann als Versuch gesehen werden, bei der Sicherung von Rechenressourcen eine flexiblere Struktur aufzubauen.
Zugleich bildet Größe und Effizienz der Infrastruktur die Grundlage für Kostenvorteile und Stabilität gegenüber Wettbewerbern.
- Veränderung der Wettbewerbsdynamik und Kampf um das Ökosystem
Es wird die Möglichkeit aufgeworfen, dass die auf App Stores zentrierten Ökosystemmodelle von Apple und Google herausgefordert werden.
Die Struktur, in der AI-Modellanbieter und Plattformanbieter zugleich App-Distribution und Monetarisierung abdecken, wird stärker.
Auch andere Unternehmen werden voraussichtlich in eine ähnliche Richtung reagieren, wodurch der Wettbewerb um AI-Plattformen intensiver wird.
- Risiken und zu berücksichtigende Aspekte
Rechtliche und ethische Fragen wie Nutzerprivatsphäre, Datensicherheit, mögliche Sanktionen und Verantwortlichkeiten werden noch wichtiger.
Insbesondere wird die Governance-Strategie entscheidend dafür sein, in welchem Umfang chatbasierte Apps und Agenten Nutzerberechtigungen erhalten dürfen.
Zudem bleiben physische Infrastruktur-Risiken wie Hardware-Abhängigkeiten, Kostenbelastung und Lieferkettenrisiken bestehen.
Künftige Strategie aus Sicht von Unternehmen und Entwicklern
- Vorbereitung auf App-Entwicklung innerhalb von ChatGPT
Prüfung von Strategien, bestehende Apps und Web Apps in eine ChatGPT-basierte Umgebung zu überführen oder damit zu verknüpfen
Erstellung erster Prototypen mit Apps SDK und MCP (Model Context Protocol)
- Identifikation von Anwendungsfällen für agentenbasierte Automatisierung
Erkundung vielversprechender Bereiche für AI-Agent-basierte Services wie repetitive Aufgaben, Beratung und Support sowie Reservierung und Scheduling
Durchführung interner Pilotprojekte mit AgentKit
- Entwicklung einer Strategie zur Optimierung der Modellkosten
Gezielter Einsatz von Lightweight-Modellen und zweckoptimierten Modellen
Berücksichtigung des Gleichgewichts zwischen API-Nutzungsmustern, Batch-Verarbeitung und Echtzeit-Anbindung (Verarbeitung)
- Neuaufstellung der Infrastruktur- und Cloud-Strategie
Planung zur Diversifizierung von Hardware-Abhängigkeiten und zur Sicherung von Cloud-Rechenressourcen
Aktive Prüfung interner Ressourcen und externer Partnerschaften
- Data Governance und Umgang mit Regulierung
Aktive Suche nach Wegen zur Stärkung von Privatsphäre, Transparenz und Sicherheit
Aufbau von Verantwortlichkeits- und Monitoring-Systemen für das Verhalten von Agenten
- Reaktion auf den Ökosystemwettbewerb und Kollaborationsstrategie
Suche nach Partnerschaften mit anderen Plattformen und Services
Differenzierungsstrategie auf Basis eigener Daten und Domänenstärken
Noch keine Kommentare.