OpenAI-Modelle kommen zu Amazon Bedrock: Interview mit den CEOs von OpenAI und AWS
(stratechery.com)- OpenAIs Frontier-Modelle kommen in die AWS-native Agent-Runtime von Amazon Bedrock und werden nicht nur als Modelle bereitgestellt, sondern in Form von Managed Agents für Unternehmen integriert
- Bedrock Managed Agents bündeln identity, permissions, logging, governance und deployment, damit Kunden Agents in Unternehmensumgebungen schneller betreiben können, ohne die Bausteine selbst zusammensetzen zu müssen
- Die Leistung von Agents hängt derzeit nicht nur vom Modell selbst ab, sondern stark von der Kopplung mit dem Harness, einschließlich tools, state, memory, permissions und evals; AWS und OpenAI behandeln diese Kopplung als gemeinsames Produkt
- Kundendaten bleiben innerhalb der AWS VPC, OpenAI-Modelle laufen über Bedrock, und auch der Support wird primär über AWS abgewickelt
- Wie einst die frühe Cloud für Startups senkt diese Integration die Hürden für die Einführung von AI und deutet mit der schnell wachsenden Nachfrage nach Frontier-Modellen auf eine neue Plattformschicht hin
AWS, Startups und das Tempo der AI-Einführung
- Das frühe Cloud-Modell von AWS machte Infrastruktur, die zuvor nur Großunternehmen hatten, für ein paar Dollar und mit einer Kreditkarte nutzbar und erweiterte die kreative Bandbreite des Internets massiv, ohne vorzugeben, was Entwickler bauen sollten
- Die Wirkung der AI-Einführung wird als ähnlich groß oder noch größer eingeschätzt
- Die Struktur, in der man 10 Jahre programmieren lernen musste, um Anwendungen zu bauen, wird schwächer
- Auch kleine Teams können ohne Hunderte Mitarbeiter und lange Entwicklungszyklen schnell bauen und iterativ verbessern
- Das wirkt in vielen Bereichen der Welt als Werkzeug für neue Innovation
- Anders als in den Anfangstagen der Cloud verläuft die AI-Adoption sehr schnell
- 2006 musste man lange erklären, warum ein „Buchhandelsunternehmen“ überhaupt Computing anbietet, während AI viel schneller verstanden wird
- Der Übergang vom einfachen intelligenten Chatbot zur Ausführung interner Unternehmensaufgaben brauchte zwar Aufklärung, verlief gemessen am Tempo technischer Veränderungen aber relativ schnell
- Der Plattformwechsel für Startups lässt sich in Internet, cloud, mobile, AI in vier Phasen einteilen
- In den frühen YC-Jahren konnten Unternehmen dank Clouds wie AWS mit wenig Kapital starten
- Die Hürden, erst Colo-Fläche zu mieten, Server zusammenzubauen und im Voraus viel Geld einzusammeln, wurden stark gesenkt
- Die Annahme, dass allein Serverkosten Zehntausende Dollar verschlingen, brach weg, wodurch kapitalarme Gründungen möglich wurden
- Startups schlagen Großunternehmen in großen Plattformübergängen leichter, wenn sie mit kürzeren Zyklen und weniger Kapital agieren können
- Auf der heutigen AI-Welle scheint die Richtung ähnlich zu sein
- Innerhalb von YC bewegen sich die Umsatzwachstumsraten guter Firmen inzwischen so schnell, dass sich die Erwartungen schon zwischen Beginn und Ende eines Batch deutlich verändern
- AWS wird weiterhin als Cloud vieler wachstumsstarker Startups dargestellt
- scale, availability, security, reliability, dazu das ISV-Partnerökosystem und die Kundenbasis innerhalb von AWS, bilden zusammen die Stärken
- AWS bietet nicht nur Credits, sondern auch Beratung zu Systemdesign und go-to-market und behandelt Startups weiter als zentrale Basis
- In jedem Quartal spricht AWS direkt mit Startups, um zu prüfen, ob die Produkte tatsächlich passen
- Bei heutigen Startups ist das Muster sehr verbreitet, AWS für allgemeines Compute und die OpenAI API für AI gemeinsam zu nutzen
Bedrock Managed Agents und die Richtung des gemeinsamen Produkts
- Bedrock Managed Agents werden nicht bloß als Integration von OpenAI-Modellen in AWS beschrieben, sondern als Einbettung von OpenAIs Frontier-Modellen in eine AWS-native Agent-Runtime
- Betriebsbausteine wie identity, permission state, logging, governance und deployment werden zusammen gebündelt
- Die nächste AI-Stufe geht über Text rein, Text raus hinaus und bewegt sich zu stateful agents, die in Unternehmen echte Arbeit erledigen
- Der Ausdruck „virtual co-workers“ ist nicht perfekt, gilt aber als die am wenigsten unnatürliche Formulierung
- Die Branche hat noch nicht vollständig festgelegt, wie man dieses Zielobjekt nennen und einsetzen soll
- Codex wird als klares Beispiel für diese Entwicklung genannt
- Entscheidend ist, dass die gewünschte Arbeit tatsächlich erledigt wird; Nutzer unterscheiden dann nicht mehr, ob Modell oder Harness stärker dazu beigetragen haben
- Die Kopplung von Modell und Harness gilt als Kern der Agent-Leistung
- tools, state, memory, permissions und evals bestimmen, wie das System tatsächlich arbeitet
- Das ist nicht identisch mit pre-training, aber die Kopplung passiert sowohl auf post-training- als auch auf Prompt-Ebene
- Was anfangs wie getrenntes tool-calling aussah, wird mit der Zeit tiefer in den Lernprozess integriert
- Künftig könnten model und harness sowie pre-training und post-training noch enger zusammenwachsen
- Der Reifegrad der Industrie wird als so früh beschrieben, dass er mit der Zeit des Homebrew Computer Club verglichen wird
- Die gemeinsame Arbeit von AWS und OpenAI soll die Bausteine bündeln, die Kunden bislang selbst zusammensetzen mussten, damit sie in Unternehmensumgebungen schneller zum Wertbeitrag kommen
- Kunden wollen, dass Modell und Agent zusammenarbeiten und dabei Erinnerung behalten
- Sie wollen nicht nur Third-Party-Tools anbinden, sondern auch eigene Tools, eigene Daten, eigene Anwendungen und die eigene Betriebsumgebung
- Diese Integrationsarbeit musste bislang jeder Kunde selbst leisten
- Im gemeinsamen Produkt ist identity eingebaut, und auch die Datenbankauthentifizierung ist so ausgelegt, dass sie innerhalb der AWS VPC erfolgt
- Das Ziel ist nicht nur mehr Bequemlichkeit, sondern auch Dinge zuverlässig möglich zu machen, die sich selbst mit schmerzhafter manueller Integration bisher nicht verlässlich umsetzen ließen
- Entwickler werden derzeit als Menschen beschrieben, die beim Bauen mit Modellen zu viel Schmerz und Handarbeit erleben
- Selbst bei ChatGPT gibt es viel Copy-and-paste und komplexe Prompt-Kombinationen
- Diese Reibung wird verschwinden; aktuell ist das Feld aber noch sehr früh und unkomfortabel
- Die Kooperation ist auch Ergebnis davon, dass Kunden, die bereits auf AWS sind, OpenAI technology wollen, und OpenAI zugleich den Zugang zu AWS-Kunden ausweiten möchte
- Besonders hervorgehoben wird, dass es über bloße Modelldistribution hinaus eher um ein neues gemeinsames Produkt geht
- In einem Jahr, so die Hoffnung, soll nicht nur in Erinnerung bleiben, dass OpenAI-Modelle über AWS zugänglich wurden, sondern vor allem die Bedeutung dieses neuen Produkts
- Auf Ebene von Modell, Harness und capability nähert sich das einer neuen Art des Computing statt eines herkömmlichen Modell-API-Aufrufs
AgentCore, Managed Agents und das Betriebsmodell
- AgentCore wird als Sammlung von Agent-Primitiven wie Speicher, sicherer Ausführungsumgebung und Autorisierung vorgestellt
- Bedrock Managed Agents stehen als höheres Produkt auf den Komponenten von AgentCore und kombinieren OpenAI-Modelle mit mehreren Betriebsbausteinen, gemeinsam von AWS und OpenAI aufgebaut
- Auch nur mit AgentCore lassen sich direkt agentic workflows erstellen
- Es gibt bereits Kunden, die dies in Production betreiben und real nutzen
- Schon heute kann man AgentCore verwenden und OpenAI-Modelle extern aufrufen
- Das ist keine native Integration in Bedrock, aber es gibt Kunden, die OpenAI-Modelle in anderen Clouds direkt aufrufen
- AWS behandelt das als offenes Ökosystem
- Wer Fähigkeiten kombinieren und selbst etwas bauen will, soll das auch künftig tun können
- Wie Menschen, die ihren Computer zuhause selbst zusammenbauen, wird es wohl langfristig Builder geben, die ihre Agents selbst bauen wollen
- Viele Kunden möchten jedoch einen einfacheren Weg, bei dem sie nicht jeden Baustein selbst konfigurieren müssen; genau auf diese Nachfrage zielt die gemeinsame Veröffentlichung
- OpenAI auf Azure wird als direkte API-Erfahrung beschrieben, während die heutige Amazon-Ankündigung als davon unterscheidbarer managed service eingeordnet wird
- Dieser Managed-Agent-Service läuft derzeit exklusiv mit Amazon
- Es geht nicht bloß darum, eine Amazon-API zu verwenden, sondern um einen joint effort beider Unternehmen
- Kundendaten bleiben innerhalb von AWS
- Alles verbleibt in der VPC und wird innerhalb der Bedrock-Umgebung geschützt
- OpenAI-Modelle laufen über Bedrock, und die Infrastruktur nutzt eine Mischung aus Trainium und GPUs
- Das hängt teils mit Timing, teils mit capabilities zusammen
- Mit der Zeit dürfte ein größerer Anteil auf Trainium übergehen
- Auch OpenAI sieht großes Potenzial darin, dass die eigenen Modelle auf Trainium laufen
- Wenn OpenAI-Modelle in der AWS-Umgebung betrieben werden, übernimmt AWS den First-Level-Support
- Kunden erhalten Hilfe über AWS Support und ihre AWS-Ansprechpartner
- Während des Aufbaus sind auch Mitarbeitende von OpenAI beteiligt, um die Nutzung gemeinsam abzustimmen
- Bugs, die OpenAI-Unterstützung brauchen, werden von AWS an OpenAI eskaliert
Lokal, Cloud, Berechtigungen und Sicherheitsgrenzen
- Für Codex wird beschrieben, dass es zunächst in der Cloud startete, dann aber praktisch wieder in Richtung lokaler Ausführung ging
- Lokal ist einfacher, weil die Umgebung bereits da ist
- Computereinstellungen, Daten und Dateizugriffe sind schon vorhanden, sodass weniger zusätzliche Konfiguration nötig ist
- Auch wenn das nicht der Endzustand ist, zählt kurzfristig zunächst Benutzerfreundlichkeit
- Langfristig gilt ein Modell als sinnvoll, bei dem Agents in der Cloud laufen und sehr schwere Aufgaben oder Fälle, in denen man den Computer schließen muss, in die Cloud verlagert werden
- Lokale Clients haben weiterhin Vorteile
- So wie eine iPhone-App lokale Komponenten hat, gibt es Vorteile bei connectivity, latency, local compute sowie beim Zugriff auf Dateien und Anwendungen
- Ein Laptop lässt sich aber nicht beliebig horizontal skalieren, daher sind die Skalierungsgrenzen klar
- In Unternehmensumgebungen wird der lokale Ansatz schwieriger
- Schon wenn zwei Personen etwas teilen, steigt die Komplexität
- permissions und security boundaries werden schwerer zu handhaben
- Am Ende braucht es eine Brücke zwischen lokal und Cloud
- Es ist naheliegend, Agents in derselben Umgebung zu entwickeln, in der sie später ausgerollt werden, und das Design von identity und permissions bleibt noch stark unvollendet
- Soll ein Agent einfach das menschliche Konto verwenden?
- Soll ein Agent ein eigenes Konto bekommen?
- Wie trennt man mehrere Agents voneinander?
- Sogar ein Primitive wie „Bens Agent meldet sich als Ben an, aber mit Kennzeichnung, dass es nicht der echte Ben ist, sondern ein Agent“ existiert noch nicht
- Je stärker Agents Teil der Belegschaft werden und je mehr Autonomie und Aufgabenkomplexität zunehmen, desto stärker müssen sich Zugriffssteuerung und Berechtigungsmodelle innerhalb des Unternehmens und im Internet insgesamt weiterentwickeln
- Mit dem Schritt in die Cloud kann die zentrale Organisation Sicherheitskontrollen stärker durchsetzen
- Kunden mögen die Möglichkeiten leistungsfähiger Modelle und Agents, sorgen sich aber vor allem vor Katastrophen durch Fehler
- Grenzen lassen sich kontrollieren, indem Systeme innerhalb der VPC laufen, über bestimmte Gateways gehen oder über rollenartige Berechtigungen in der Umgebung verfügen
- Daran schließt der Punkt an, dass die über 20 Jahre aufgebaute Sicherheitsstruktur von AWS nicht nur Startups, sondern auch globalen Banken, Gesundheitseinrichtungen und Behörden den Einsatz ermöglicht hat
- Je risikoscheuer eine Organisation ist, desto eher können Guardrails in einer Sandbox die Einführung sogar fördern
AI-Stack und Unternehmensarchitektur
- Unternehmenskunden wollen eine Management-Schicht, die Daten und Agents verbindet sowie Tracking und Aufsicht über Token-Ausgaben ermöglicht
- Große Unternehmenskunden verlangen recht konsistent ein Paket aus agent runtime environment, Management-Schicht und Workspace für Mitarbeitende
- Als Beispiel für einen Mitarbeiter-Workspace wird Codex genannt
- Die Nachfrage nach solchen Paketen ist recht konstant, auch wenn das tatsächliche Angebot noch weiter aufgebaut werden muss
- Man ist sich einig, dass es in Organisationen eine middleware / middle layer braucht, die mehrere Datenbanken, SaaS-Apps und verteilte Daten zusammenführt
- In diesem Zusammenhang wird auch OpenAI Frontier verlinkt
- In der aktuellen Struktur scheint man sowohl eine user agent layer für die Nutzerinteraktion als auch eine Management-Schicht des Unternehmens zu brauchen
- Auf Nutzerseite interagiert man mit mehreren Agents und baut sie teils so, dass sie miteinander sprechen
- In der Management-Schicht des Unternehmens sind verschiedene controls wichtig, wenn AI etwa Dateisysteme durchsucht
- Es bleibt jedoch offen, ob mit ausreichend intelligenten Modellen die gesamte Struktur neu entworfen werden muss
- Die heutige doppelte Schicht ist eine Anpassung an die aktuelle Welt
- Wie die zukünftige Architektur genau aussieht, weiß noch niemand
- Irgendwann könnte die Einschätzung entstehen: „Das sollte einfach im Modell selbst sein“
- Aus dem realen Einsatz und dem, was Kunden tatsächlich bauen, lernt man, was leichter, schneller und besser werden muss
Nachfrage, Kapazität und Modellschichtung
- OpenAI investiert in dieses Geschäft viel Compute und erheblichen Aufwand und erwartet entsprechende Umsätze
- Die Nachfrage nach Intelligenz wird als bei ausreichend niedrigem Preis nahezu unbegrenzt beschrieben
- Derzeit wirkt Kapazitätsmangel stärker begrenzend als der Preis
- Es gibt mehr Kunden, die unabhängig vom Preis mehr capacity wollen und bereit sind, zusätzlich zu zahlen, als Kunden, die primär über den Preis verhandeln
- Es wird mit großer Sicherheit davon ausgegangen, dass die Kosten für das heutige Intelligenzniveau künftig dramatisch sinken werden
- Als überraschendes Signal gilt, dass ein erheblicher Teil der Marktnachfrage auf die absolute Frontier konzentriert ist
- Stärker als erwartet zeigt sich der Trend, immer wieder die neuesten Spitzenmodelle zu wollen, statt sich mit älteren Generationen zufriedenzugeben
- Wie die Compute-Kosten über Jahrzehnte massiv sanken und die Verkaufszahlen dennoch weiter stiegen, könnte auch AI einem ähnlichen Pfad wachsender Nachfrage folgen
- Aktuell braucht man für nützliche Arbeit in vielen Fällen Frontier-Modelle, weshalb alle in diese Richtung wollen
- Mit der Zeit dürfte sich eine Mischstruktur aus kleinen, günstigen, schnellen Modellen und extrem großen Modellen herausbilden
- Einige kleinere Modelle könnten mit der Zeit Aufgaben übernehmen, die selbst aktuelle OpenAI-Spitzenmodelle heute noch nicht schaffen
- Die größten Modelle könnten sich auf größere Probleme wie Krebstherapie konzentrieren
- Der Markt ist noch sehr früh, und gerade das gleichzeitige Auftreten von Nachfrage und Wachstum auf diesem Niveau vergrößert das künftige Potenzial erheblich
Trainium, Abstraktion und internes Compute
- Auf die Frage, ob Trainium trotz seines Namens künftig vor allem bei Inference stärker sichtbar wird, antwortet AWS, dass es sowohl für Training als auch für Inference nützlich ist
- Hervorgehoben wird, dass Kunden Trainium eher über die Abstraktion eines Managed Service erleben werden als direkt
- So wie die meisten Kunden auch GPUs nicht direkt handhaben, interagieren sie bei OpenAI oder Claude in Wirklichkeit nicht mit GPU, Trainium oder TPU, sondern mit einem Interface
- Auch künftig dürften Accelerator-Chips vor allem hinter einer kleinen Zahl großer Modelle und Services arbeiten
- Es mag 5, 10, 20 oder 100 solcher Systeme geben, aber kaum Millionen Menschen, die sie direkt programmieren
- Modelltraining ist teuer und verlangt hohe operative Spezialisierung
- Das OpenAI-Team ist sehr stark darin, aus großen Compute-Clustern Wert herauszuholen, doch nur wenige Teams verfügen über solche Fähigkeiten
- OpenAI sagte, man denke zunächst an sich selbst wie an eine token factory, korrigierte das dann aber in Richtung intelligence factory
- Kunden wollen nicht eine bestimmte Zahl von Tokens, sondern die bestmögliche Intelligenzeinheit bei ausreichender Kapazität zu den niedrigsten Kosten
- GPT-5.5 wird als Beispiel genannt: Die Kosten pro Token sind höher als bei 5.4, aber für dieselbe Antwort werden viel weniger Tokens benötigt
- Nutzer kümmern sich weniger darum, wie viele Tokens eine Antwort gekostet hat, sondern ob die gewünschte Aufgabe erledigt wurde
- Ob ein größeres Modell mit weniger Tokens läuft, ein kleineres Modell mit mehr Tokens, oder ob GPU oder Trainium darunter steckt: Kunden wollen vor allem mehr Nutzen zu geringeren Kosten
- Auch wenn man in Codex oder in der Stateful Runtime Environment für Amazon Bedrock neue Agents erstellt, sollte man sich der internen Compute-Wahl nicht bewusst sein müssen
- Die Reduktion des Token-Verbrauchs ist vor allem das Ergebnis verbesserter Modelle; der Einfluss des Harness macht nur einen Teil davon aus
- Auf die Frage, ob AWS ähnliche Managed Services auch auf andere Modelle ausdehnen wird, antwortet das Unternehmen nur, dass der Fokus derzeit auf der Zusammenarbeit mit OpenAI liegt
Marktentwicklung und Plattformstrategie
- ChatGPT wird als erstes großes neues Verbraucherprodukt seit Facebook bewertet
- OpenAI sagt, nicht nur mit ChatGPT, sondern auch mit der API und besonders mit Codex recht gute Ergebnisse erzielt zu haben
- Rückblickend heißt es auch, dass man früher stärker auf die Möglichkeit fokussiert war, wie neue Sprachinterfaces die Informationssuche im Internet verändern könnten
- Google wird weiterhin als phenomenal company in Breite und Tiefe bewertet
- AWS verfolgt nach eigener Darstellung von Anfang an eine partnerzentrierte Strategie, bei der AWS erfolgreich ist, wenn Partner erfolgreich sind
- Das unterscheidet sich von einem Ansatz, alles selbst besitzen zu wollen, und entspricht eher dem Vergrößern des Gesamtkuchens
- Kunden sollen wählen können, was für sie am besten passt, egal ob eigenes Produkt oder Partnerprodukt
- Bedrock ist ebenfalls auf dieser Strategie aufgebaut und darauf ausgelegt, eine breite Modellpalette und verschiedene Funktionen zu unterstützen
- Ein ähnlicher Ansatz sei auch in anderen Bereichen wie Datenbanken und Compute-Plattformen verfolgt worden
- In der Infrastrukturschicht drängt AWS eigene Kernkomponenten wie S3 stark, glaubt aber, dass weiter oben im Stack ein breiteres Partnerökosystem auch für Kunden vorteilhaft ist
- Die Rollen beider Unternehmen werden so beschrieben: OpenAI liefert Software, AWS liefert Infrastruktur, und gemeinsam entsteht eine Plattform
- Weil sich die Modellfähigkeiten im kommenden Jahr voraussichtlich steil verbessern werden, gilt der jetzige gemeinsame Aufbau der Plattform als günstiger Zeitpunkt
1 Kommentare
Hacker-News-Kommentare
Das lag daran, dass der Zugriff über Amazon als „vertrauenswürdigen“ Mittelsmann möglich war. OpenAI ist verboten und genießt kein Vertrauen.
Ich stimme den Einschätzungen der Rechtsabteilungen dieser Organisationen nicht unbedingt zu, aber sie haben die Nutzungsbedingungen vermutlich deutlich gründlicher gelesen als ich.
Ob diese Ankündigung das Kräfteverhältnis verändert, bleibt abzuwarten, aber aktuell wirkt OpenAI für mich in vielerlei Hinsicht ziemlich im Hintertreffen.
Andererseits sind 2–8 Wochen Unterschied in der AI-Branche auch kein riesiger Abstand, daher könnte es eher ein Wahrnehmungsproblem als ein realer Effekt sein.
Zumindest in meiner Informationsblase ist OpenAIs Ruf wegen Sam Altman am Boden, und wegen des unethischen Eindrucks sowie Dingen wie den Forderungen rund um fabs wirkt das Unternehmen ziemlich instabil, was nicht gerade Sympathie weckt.
Es reicht nicht aus, einfach nur AWS zu nutzen, und selbst wenn AWS das Modell betreibt, muss man für echtes ZDR das separat mit ihnen regeln [0].
[0]: https://platform.claude.com/docs/en/build-with-claude/claude...
Beide haben klar davon profitiert, und die Feedback-Loop-Kultur von AWS-Kunden hat Anthropic vermutlich geholfen, Enterprise-Anforderungen schneller abzudecken.
Das auf Azure gibt es schließlich schon eine ganze Weile.
Anthropic dagegen fokussiert sich auf eine Sache, was wohl erklärt, warum sie bei SWE-Benchmarks immer zur Spitzengruppe gehören.
AWS erklärt ausdrücklich, dass Eingaben und Ausgaben nicht mit dem Modellanbieter geteilt und auch nicht für das Training des Basismodells verwendet werden [1].
Außerdem wurde OpenAI in NYT v. OpenAI im Mai 2025 mit einer Preservation Order belegt, und das Gericht zwingt das Unternehmen faktisch dazu, ChatGPT-Ausgabelogs auf unbestimmte Zeit aufzubewahren.
Darunter fallen auch vom Nutzer gelöschte Konversationen, die ursprünglich innerhalb von 30 Tagen gelöscht worden wären [2].
Damit erfüllt OpenAI für Organisationen, die an HIPAA/GDPR gebunden sind, nicht einmal die Mindestvoraussetzungen.
[1] https://aws.amazon.com/bedrock/faqs/
[2] https://openai.com/index/response-to-nyt-data-demands/
Politische Spielchen oder bürokratische Reviews binden meiner Ansicht nach meist eher Leute auf niedrigeren Ebenen mit Feature-Resten und Betriebsarbeit.
Wenn das Modell einer OSS-Variante von GPT ausreichend ähnlich ist, war es vielleicht gar nicht so kompliziert, wie man denkt.
Wegen Quantisierung, kundenspezifischem Serving-Silizium, Batching und anderen Inference-Optimierungen kann sich das Verhalten zwischen der Version des ursprünglichen Anbieters und der gehosteten Version unterscheiden.
Dieses Paper behandelt zwar nicht exakt denselben Fall, sondern auditierbare Open-Weight-Llama-Modelle, zeigt aber sehr ähnliche Effekte gut auf.
https://arxiv.org/pdf/2410.20247
Es sieht außerdem so aus, als ließe sich dort eine ordentliche Marge erzielen.
Ich frage mich, ob das direkt mit der Entwicklung einer Entfremdung von Microsoft zusammenhängt.
Schon in meinem Umfeld wird OpenAI bei ernsthaften Enterprise-Deployments fast vollständig ignoriert, weil das Angebot auf Azure nicht gut ist und es darüber hinaus keine besonders unternehmensfreundliche Alternative gibt.
Es wirkt so, als habe OpenAI erkannt, dass es fatal wäre, den Enterprise-Markt weiter an die Kombination aus Anthropic und AWS zu verlieren, und bewege sich nun, um aufzuschließen.
https://news.ycombinator.com/item?id=47921248
Regulierte Branchen wie Finanzwesen und Gesundheitswesen haben mit AWS oft bereits Verträge mit Zusagen zur Datenresidenz abgeschlossen.
OpenAI auf Bedrock könnte für solche Organisationen ein viel größerer Durchbruch sein, als es auf dem Papier aussieht, weil sie keine DPA-Verhandlungen mehr separat mit OpenAI führen müssen.
Es gibt einen Unterauftragsverarbeiter weniger, und die Daten liegen ohnehin bereits bei AWS, sodass man sich weniger Sorgen machen muss, dass sie noch woanders hingeschickt werden.
Es sei denn, AWS hat endlich aufgegeben und Bedrock mit OpenAI-API-Kompatibilität brauchbarer gemacht.
Responses und Chat Completions werden unterstützt; siehe hier: https://docs.aws.amazon.com/bedrock/latest/userguide/endpoin...
Schon allein, dass zu diesem HN-Post gleichzeitig vier Ankündigungslinks auftauchten, ist kein Zufall.
Wenn das Falsche zum falschen Zeitpunkt gesagt wird, können Milliarden an Investitionen ins Wanken geraten, daher müssen Botschaften extrem sorgfältig ausgearbeitet und schrittweise veröffentlicht werden.