5 Punkte von GN⁺ 2026-03-20 | 2 Kommentare | Auf WhatsApp teilen
  • OpenAI, Anthropic und SpaceX (mit xAI) – drei US-amerikanische KI-Unternehmen – sind in einen IPO-Wettlauf eingetreten; wenn alle drei jeweils 15 % ihrer Anteile platzieren würden, entspräche das einem Volumen auf dem Niveau des gesamten in den USA in den vergangenen zehn Jahren über IPOs aufgenommenen Kapitals
  • OpenAI-COO Simo wies in einem unternehmensweiten Meeting an, „Side Quests“ zu stoppen, und räumte die Verwirrung einer Organisation ein, die sich auf zu viele Richtungen verteilt hatte – darunter Sora, der Browser Atlas und Hardware
  • Der Umsatz-Run-Rate von Anthropic hat 19 Milliarden Dollar überschritten; nach 9 Milliarden Dollar Ende 2025 ist sie stark gestiegen, wobei allein im Februar Claude Code getrieben weitere 6 Milliarden Dollar hinzukamen
  • Da sich Staatsfonds aus dem Nahen Osten auf andere Prioritäten konzentrieren, zieht sich die Finanzierung für KI zusammen, sodass Investoren an den öffentlichen Märkten in New York und London diese Last tragen müssen
  • Da das IPO-Fenster derzeit offen ist, wird welche Story jedes Unternehmen Investoren präsentiert zur entscheidenden Variablen für den Emissionspreis und die Marktposition

Die IPO-Konkurrenz der drei KI-Unternehmen

  • OpenAI, Anthropic und SpaceX (Eigentümer von xAI) – drei US-amerikanische KI-Unternehmen – bewegen sich gleichzeitig in Richtung Börsengang am öffentlichen Markt
  • Zitat aus The Economist: Wenn die drei Unternehmen jeweils 15 % ihrer Anteile platzieren würden, entspräche der Gesamtbetrag dem gesamten IPO-Aufnahmevolumen der USA der vergangenen zehn Jahre
  • Inmitten globaler Krisen konzentrieren sich Staatsfonds aus dem Golf auf andere Themen, wodurch die Kapitalversorgung für KI-Unternehmen so eng geworden ist wie die Straße von Hormus
  • Investoren an den öffentlichen Märkten in New York und London müssen dieses Gewicht schultern; das IPO-Fenster existiert, ist kurz und wird nicht ewig offen bleiben

OpenAIs organisatorisches Chaos und die „Side Quests“

  • OpenAI verteilte seine Richtung, indem es gleichzeitig unverbundene Experimente wie Sora, den Webbrowser Atlas, Hardware-Geräte und ein TikTok-for-AI vorantrieb
  • COO Simo forderte die Mitarbeiter in der vergangenen Woche in einem unternehmensweiten Meeting auf, sich nicht von „Side Quests“ ablenken zu lassen – was bedeutet, dass ein 840-Milliarden-Dollar-Unternehmen dem fokussiertesten Wettbewerber Marktanteile überließ
  • Dass das Sora-Team ein Consumer-Produkt veröffentlichte und gleichzeitig der Forschungsorganisation unterstellt war, ist ein konkretes Beispiel für organisatorische Dysfunktion
  • Schon die Anerkennung dieses Chaos zeigt Problembewusstsein und den Willen zur Korrektur – die entscheidende Frage ist jedoch, warum dies gerade jetzt eingeräumt wurde

Der strategische Kontext des WSJ-Berichts: kontrollierter Leak

  • Der entscheidende Hinweis ist, dass das WSJ schrieb, es habe das Transkript des unternehmensweiten Meetings „reviewed“ – also keine unkontrollierte Leckage, sondern eine kontrollierte Informationsweitergabe (controlled leak)
  • Formulierungen wie Simos „Side Quests“, „Code Red“ und Anthropics „Wake-up Call“ sind allesamt Wörter, die für den externen Konsum ausgewählt wurden
  • Das „Wake-up-Call“-Framing bei Anthropic ist eine Strategie, die Wettbewerbsnachteile einräumt, um auf Investoren und Kunden nüchtern zu wirken, und zugleich den Erfolg des Konkurrenten als Zuckerbrot und Peitsche nutzt
  • Dass Unternehmen exklusiven Stoff über große Medien wie das WSJ spielen, ist seit Langem gängige Praxis

OpenAI baut seine Enterprise-Story auf

  • Reuters berichtete, dass OpenAI mit TPG, Advent International, Bain Capital und Brookfield fortgeschrittene Verhandlungen über die Gründung eines Joint Ventures im Umfang von rund 10 Milliarden Dollar führt
    • Eine Struktur, über die Enterprise-Produkte branchenübergreifend über Portfolio-Unternehmen von PE-Häusern in den Markt gedrückt werden sollen
  • Im vergangenen Monat wurden mit McKinsey, BCG, Accenture und Capgemini die „Frontier Alliances“ angekündigt
  • All diese Nachrichten sind Puzzleteile für ein bestimmtes Publikum: Investmentbanken und institutionelle Investoren, die den Ausgabepreis festlegen werden
  • OpenAI muss diese Zielgruppe von drei Dingen überzeugen: dass die Organisation geordnet ist, dass es echte Chancen bei Enterprise-Umsätzen gibt und dass das Unternehmen den KI-Wettbewerb sowohl im Consumer- als auch im Enterprise-Bereich anführt

Fragen zu OpenAIs Personalstruktur und Wachstumsstrategie

  • OpenAI stellt in großem Umfang ehemalige Facebook-Mitarbeiter ein, also Menschen, die darauf spezialisiert sind, Wachstum anzuschieben und Nutzer abhängig zu machen
    • Erfahrung im Verkauf von Enterprise-Produkten fehlt ihnen jedoch
  • Simo selbst leitete die Facebook-App; Verhaltens-Hooks, Dopamin-Schleifen und Feed-Optimierung sind Kernkompetenzen dieser Organisation
  • In den jüngsten wiederholten ChatGPT-Updates spiegelt sich diese Tendenz wider: eine Facebook-artige Wachstumsstrategie, die Nutzerengagement über schmeichlerische Antworten (sycophant) steigern will
  • Wenn der Enterprise-Vorstoß glaubwürdig sein soll, wäre der nächste Schritt die Verpflichtung von Führungskräften aus großen SaaS-Unternehmen wie Salesforce
  • Nach OpenAIs eigenen Zahlen entfallen von insgesamt 25 Milliarden Dollar annualisiertem Umsatz 10 Milliarden Dollar auf Enterprise-Umsätze, während das kleinere Anthropic bei der Enterprise-Adoption als vorne liegend gilt

Anthropics Position und das explosive Umsatzwachstum

  • Die Umsatz-Run-Rate von Anthropic hat 19 Milliarden Dollar überschritten – nach 9 Milliarden Dollar Ende 2025 und rund 14 Milliarden Dollar nur wenige Wochen zuvor
  • Amodei bestätigte bei Morgan Stanley: Allein im Februar kamen 6 Milliarden Dollar hinzu, fast vollständig getrieben von Claude Code
    • Eine Kurve, bei der sich der Umsatz in zwei Monaten verdoppelt – auf einem Niveau, bei dem selbst ohne PR-Kampagne ein Börsenprospekt überzeugend wirkt
  • In Washington fehlen politische Verbündete, aber um Steve Ballmers berühmtes Zitat zu bemühen: Sie haben „Developers, Developers, Developers“
    • Trotz etwas unklarer Messaging-Strategie und einer unbeholfenen öffentlichen Identität ist Claude Code ein Produkt, das Entwickler tatsächlich nutzen wollen
  • US-Verteidigungsminister Hegseth erklärte Anthropic zum Lieferkettenrisiko, nachdem das Unternehmen dem Pentagon unbegrenzten Modellzugang verweigert hatte
    • Altman positioniert OpenAI als Brücke und bewegt sich gleichzeitig still darauf zu, staatliche Aufträge zu sichern, bei denen Anthropic außen vor bleibt

Warum das „Code“-Geschäft entscheidend ist

  • Dass sowohl Grok als auch OpenAI auf das Code-Geschäft zielen, bestätigt der Erfolg von Anthropic
  • Trotz aller Diskussionen über AGI und die Singularität bleibt KI letztlich ein Geschäft in einer digital geprägten Welt, in der Software der zentrale Engpass (choke point) ist
  • Orbitale Rechenzentren, Social-Video-Apps und Hardware-Geräte könnten künftig Einnahmequellen werden, aber im Moment muss der Fokus auf maximalem Umsatz für den Börsengang liegen
  • OpenAI verfügt über 25 Milliarden Dollar annualisierten Umsatz, 900 Millionen wöchentliche Nutzer und einen CEO, der die Erzählung nach seinem Willen formen kann
  • Wenn bei einem IPO verzweifelt benötigte Milliarden auf dem Spiel stehen, ist eine Geschichte über Fokus die beste Strategie

2 Kommentare

 
xguru 2026-03-20

Jetzt scheint es also eher um einen IPO als um AGI zu gehen.

Seit dem Deal mit dem Verteidigungsministerium stößt OpenAI auf vielen Ebenen auf Ablehnung,
und da Anthropic im Kerngeschäft, dem „Code-Business“, die Nase vorn hat, könnte der IPO sogar höher bewertet werden.

Ein „Developer-Ökosystem“ zu haben, mag klein wirken, wird aber später einen großen Unterschied machen.

Ich sehe es sogar als Stärke an, dass Apple weniger wegen der Emotionen geschätzt wurde, die es den Verbrauchern gegeben hat, sondern weil es Geräte waren, die Entwickler vor allem genutzt haben.
Wenn man sich heute anschaut, ist es bei OpenClaw ähnlich, und es sind auch Geräte, die sich perfekt eignen, um problemlos eine Maschine mit 128 GB RAM anzuschaffen.
Deshalb kommen auch schnell Open-Source-Projekte heraus, die für MLX optimiert sind.

 
GN⁺ 2026-03-20
Hacker-News-Kommentare
  • Es wirkt, als sei das Zeitfenster für AI-IPOs bereits vorbei.
    Anleger zweifeln an der finanziellen Nachhaltigkeit von AI und halten sich daher mit neuen Investments zurück.
    Derzeit verbrennen Investoren weiter Geld, nur damit ihre bestehenden Beteiligungen nicht auf null fallen.
    Die Grenzen der Transformer-Technologie werden deutlich, und da die Technologie schnell zur Commodity wird, verschwinden die Markteintrittsbarrieren.
    Ohne einen großen Durchbruch scheint der aktuelle AI-Boom ins „Tal der Enttäuschung“ einzutreten.
    Jetzt heißt es: Popcorn bereitlegen und zuschauen.

    • Ich sehe eher jetzt den richtigen Zeitpunkt für einen IPO.
      Ich arbeite seit 20 Jahren an den Kapitalmärkten, und es gab nur selten eine so gute Phase für einen Börsengang wie jetzt.
      Ich halte es für gut möglich, dass sowohl OpenAI als auch Anthropic innerhalb eines Jahres an die Börse gehen.
      Falls die Nachfrage nicht reicht, könnte man das Angebot anpassen und zum Beispiel nur etwa 10 % öffentlich platzieren.
    • In der Private-Equity-Branche gibt es für solche Situationen bereits Lösungsansätze.
      Dazu passt der Artikel Nasdaq's Shame.
    • Der Kern der Erlöse liegt in der Werbung.
      Wenn bis zum IPO ein gewisser Umsatzstrom gesichert ist, lassen sich selbst enorme Kapitalausgaben rechtfertigen.
    • Ich denke eher, dass AI-IPOs gerade erst anfangen.
      Die meisten bisherigen Börsengänge mit AI-Bezug waren ziemlich erfolgreich.
    • Noch vor ein paar Tagen war ständig von einem „RSI-Einstieg“ die Rede, und plötzlich heißt es „Grenzen von Transformern, AI-Winter steht bevor“ — das wirkt höchst verdächtig.
  • ChatGPT klingt in letzter Zeit irgendwie nach LinkedIn-Sprech.
    Wenn man Opus nach bitonic sort fragt, visualisiert es das sauber, während ChatGPT mit Antworten wie „Dieser Algorithmus wirkt zuerst seltsam, aber wenn man ihn einmal sieht, versteht man ihn 😊“ daherkommt und dabei Emojis und Marketing-Ton mischt.

    • Unter Einstellungen → „Base style and tone“ wird es im Efficient-Modus wieder sauberer, ohne Emojis oder klickfangartige Formulierungen.
    • Unter Personalization kann man Tonfall, Emotionalität und Emoji-Nutzung direkt anpassen.
    • Ich weiß nicht, was es mit diesem Clickbait-Stil auf sich hat, der seit Version 5.4 aufgetaucht ist.
    • Ich gebe immer vorab an: „maximal zwei Sätze, keine Emojis, professionell“.
      Dann werden die Ergebnisse wenigstens etwas besser.
    • Ich habe sogar per Systemanweisung „unter keinen Umständen Emojis verwenden“ gesetzt, aber das wird zur Hälfte ignoriert.
      Wenn man so etwas sieht, wirkt der Einsatz solcher AI in Echtzeit-Waffensystemen ziemlich riskant.
  • Wie im Artikel beschrieben, treibt ChatGPT offenbar Facebook-artiges Wachstumsverhalten.
    Ich hatte einmal eine medizinische Frage gestellt, und am Ende der Antwort kam: „Soll ich Ihnen noch etwas zu den Ergebnissen X, Y und Z sagen, die Ärzte oft übersehen?“ — also ein klarer Versuch, das Gespräch weiterzuziehen.
    Wie Om anmerkt, scheint mit den ehemaligen Facebook-Leuten auch eine Art Farmville-Logik zur Steigerung des Engagements eingezogen zu sein.
    Ehrlich gesagt fühlt es sich beängstigend an, OpenAI in diese Richtung abdriften zu sehen.

    • Ich hatte eine Aktienfrage gestellt und bekam etwas wie: „Soll ich Ihnen noch einen Investmenttrick verraten, den die meisten nicht kennen?“
      Am Ende war es nur die abgedroschene Antwort „Kauf einfach einen S&P-500-ETF“, was eher beleidigend wirkte.
    • Selbst im Bezahlabo tauchen ständig Clickbait-Sätze auf wie „der eine Trick aus dem Studio“ oder „der eine Fehler bei diesem Problem“.
    • Claude und Gemini verhalten sich ähnlich, und das nervt.
      Ich will nur präzise und vollständige Antworten.
      Wenn eine AI von sich aus ein Gespräch anfängt oder sich künstlich kumpelhaft gibt, ist das unangenehm.
    • Ich halte solche manipulativen Ausgaben für einen bewussten Versuch, die Verweildauer zu erhöhen.
      Deshalb habe ich aufgehört, ChatGPT zu verwenden.
      Für die breite Masse dürfte es aber ähnlich gut funktionieren wie damals bei Facebook.
    • Es ist bitter, dass AI auf Formulierungen wie „dieses eine Geheimnis“ oder „unglaubliches Ergebnis“ heruntergekommen ist.
      Am Ende fühlt es sich an, als würde der Satz Realität: „Die klügsten Köpfe unserer Generation konzentrieren sich darauf, Klicks auf Werbung zu erzeugen.“
      Vielleicht werden AI-Humanoide noch zu so etwas wie die Ehefrau aus der Truman Show.
  • OpenAI steckt in Klagen rund um psychische Gesundheit, empfiehlt in einem aktuellen Newsletter aber trotzdem, ChatGPT für Atemübungen oder Meditationsberatung zu nutzen.
    Das fühlt sich komplett nach Engagement-Farming an.

  • Den jüngsten Clickbait-Tonfall kann man mit Custom Instructions etwas abmildern.
    Ich habe eingestellt: „ohne Emotionen, faktenbasiert, Erklärungen auf Universitätsniveau, keine Clickbait-Sätze, verwandte Themen als kurze Liste“.
    Wenn Codex in VS Code nicht gut funktioniert hätte, wäre ich längst zu Claude oder Gemini gewechselt.

    • Ich nutze etwas Ähnliches.
      „Keine Emotionalisierung, akademischer Ton, keine unnötigen Details, Links zu vertrauenswürdigen Quellen.“
      Als Entwickler mit Linux und GrapheneOS bevorzuge ich evidenzbasierte Informationen.
  • Zusätzlich zu dem von Om beschriebenen schmeichlerischen Gesprächsaufbau verstärkt ChatGPT offenbar einen personalisierten Feedback-Loop, der Nutzer ständig im Gespräch halten soll.
    Diese Struktur scheint sogar die Fähigkeit von LLMs zur „Long-Tail-Erkundung“ eher zu behindern.

  • Die im Artikel genannten Umsatzzahlen wirken schwer glaubwürdig.
    Vermutlich liegt es an Enterprise-Verträgen, bei denen pro Entwickler mehrere hundert Dollar berechnet werden.
    Auch bei uns im Unternehmen wird mit Rankings im „AI-Nutzungs-Dashboard“ geprahlt, obwohl das eigentliche Produkt auseinanderfällt.
    Am Ende sieht es wie eine Show zur Beschaffung öffentlichen Kapitals aus.

    • Es wäre gut, wenn es eine Community gäbe, in der man den internen Zerfall solcher überhitzten AI-Projekte anonym melden könnte.
      In meinem Umfeld sehe ich viele Beispiele dafür, dass Produkte kaputtgehen, aber die Öffentlichkeit bekommt davon kaum etwas mit.
      Diesmal fühlt es sich wirklich gefährlich an.
    • Bei uns gibt es ebenfalls ein Leaderboard für AI-Nutzung, das sogar in die Mitarbeiterbewertung einfließt.
      Token-Verbrauch und Umfang der Code-Änderungen dienen als Leistungskennzahlen.
    • Auf HN heißt es oft „Coding ist vorbei“, aber in der Realität führt die AI-Einführung zu einem massiven Qualitätsabfall.
      Ich habe Sorge, dass auch mein Unternehmen genau in diese Richtung geht.
    • Wenn die 1,5 Milliarden Dollar Umsatz und 900 Millionen wöchentlichen Nutzer tatsächlich stimmen, würde das bedeuten, dass 11 % der Menschheit ChatGPT verwenden.
      15 Dollar pro Person und Monat klingen schwer glaubwürdig, aber wenn man sich in Cafés umsieht, haben tatsächlich auch Nicht-Profis oft ein ChatGPT-Fenster offen.
  • Nach dem Vorfall mit dem Verteidigungsministerium habe ich mein ChatGPT-Konto gelöscht, und in meinem Leben hat sich gar nichts verändert.
    Noch vor ein oder zwei Jahren waren Claude oder Gemini kaum brauchbar, aber inzwischen gibt es genug Alternativen.

  • Die Kommodifizierung von AI-Modellen wird Realität.
    Die Token-Preise der großen Anbieter fallen seit Monaten, und die Lücke zwischen Inferenzkosten und Verkaufspreis schrumpft schnell.
    Entscheidend wird sein, ob große Cloud-Unternehmen zum Zeitpunkt eines IPO ihre Margen halten können.

  • OpenAI verliert bei LLM-basierten Coding-Hilfen gegen Claude.

    • Ich finde, Codex 5.3 ist fast auf dem Niveau von Claude Code.
      Kürzlich kam auch eine Windows-App heraus, und für rund 20 Dollar ist das Preis-Leistungs-Verhältnis besser.
      Hoffentlich bleibt der Wettbewerb erhalten.
      Eigentlich wirkt Google aktuell am weitesten zurück.
    • Ich habe 5.3 Codex ausprobiert, und die Debugging-Qualität war deutlich stabiler als bei 4.6 Opus.
      GPT-5.4 hat sogar ein gemischtes C++/Lua-Projekt in einem Durchlauf gelöst.
    • Wenn man den Originaltext liest, dreht sich ohnehin schon die Hälfte davon um genau dieses Thema.