1 Punkte von GN⁺ 2025-06-11 | 1 Kommentare | Auf WhatsApp teilen
  • OpenAI hat den Preis des o3-Modells um 80 % gesenkt
  • Durch diese Preissenkung sinkt die Kostenbelastung für den Einsatz von o3 bei Startups und in der IT-Branche deutlich
  • Für Entwickler von AI-Services entsteht damit eine deutlich wirtschaftlichere Option
  • Es wird erwartet, dass sich der Wettbewerb am Markt verschärft und ein Umfeld für eine schnellere Einführung von AI entsteht
  • Mit der aktiveren Nutzung des Modells dürfte sich die Erweiterung des Ökosystems beschleunigen

Meldung zur 80%igen Preissenkung von OpenAI o3

  • OpenAI hat angekündigt, den Preis des o3-Modells im Vergleich zum bisherigen Niveau um 80 % zu senken
  • Dadurch können Startups, kleine und mittlere Unternehmen sowie einzelne Entwickler die API des o3-Modells zu deutlich geringeren Kosten nutzen
  • Da die Einstiegshürden für den Einsatz von AI sinken, steigen die Möglichkeiten zur Entwicklung verschiedener AI-Anwendungen und Services
  • Diese Preisstrategie fördert den Wettbewerb im AI-Markt und trägt dazu bei, ein günstiges Umfeld für eine schnelle Verbreitung der Technologie zu schaffen
  • Für die Effizienzsteigerung von Deep-Learning-Algorithmen und die Entwicklung groß angelegter AI-Services zeichnet sich zudem weiteres Innovationspotenzial durch Kostensenkungen ab

1 Kommentare

 
GN⁺ 2025-06-11
Hacker-News-Kommentare
  • Ich möchte auf Grundlage meiner Erfahrung einen Hinweis teilen. Ich hatte bereits Guthaben bei OpenRouter und wollte dort o3 aktivieren, bekam jedoch die Meldung: „Für die Nutzung der o3-API von OpenAI müssen Sie einen direkten API-Schlüssel angeben.“ Also kaufte ich in meinem OpenAI-Konto API-Guthaben im Wert von 20 Dollar, startete Aider mit einem neuen API-Schlüssel und dem o3-Modell und schickte eine Anfrage ab. Daraufhin erschien der Fehler: „Ihre Organisation muss verifiziert sein, um o3 nutzen zu können. Klicken Sie auf den Link Verify Organization, um Ihre Organisation zu verifizieren.“ Ich wurde zunehmend genervt, ging zurück zu OpenAI und klickte auf Verify Organization — tatsächlich musste ich meine Identität über den Drittanbieter Persona verifizieren. Wenn man auf Start ID Check klickt, erscheint ein Hinweis, dass Persona personenbezogene Daten und biometrische Informationen erhebt und verwendet und diese Daten ein Jahr lang speichert. Ich wollte nur ein paar Dollar für API-Zugriff ausgeben und plötzlich soll ich meine biometrischen Daten dem größten KI-Unternehmen der Welt und dessen Partner überlassen. Ich habe keine Ahnung, wie ich eine Rückerstattung bekommen soll
    • Ich habe früher bei einer anderen KI-Firma ebenfalls keine Rückerstattung bekommen und das dann über die Generalstaatsanwaltschaft von Kalifornien geregelt. Ich finde, wir sollten dagegen vorgehen, dass nach der Zahlung noch zusätzliche Anforderungen nachgeschoben werden. Außerdem werden doch ohnehin schon Name, Adresse und Kartendaten als personenbezogene Daten erhoben — warum dann auch noch eine Telefonnummer? Weiß jemand, warum Telefonnummern von allen verlangt werden?
    • Ich frage mich, ob Sam Altman nicht tatsächlich auch ein Krypto-Unternehmen betreibt, das biometrische Daten zur Identitätsprüfung sammelt (Worldcoin). Kommt mir bekannt vor. Infos zu Worldcoin
    • Ich habe in den letzten etwa 30 Tagen schon fast genau dieselbe Geschichte gesehen, also entweder täuscht mich mein Déjà-vu oder da steckt noch mehr dahinter
    • Eigentlich kannst du froh sein, dass du überhaupt versuchen konntest, die Identitätsprüfung zu machen. Bei mir kommt seit Monaten nur der Fehler „Session expired“, und der Support antwortet nicht einmal
    • Es wirkt so, als würden gleichzeitig KYC-Anforderungen und die Tatsache auftauchen, dass OpenAI alle Logs speichert
  • In letzter Zeit wirkt OpenAI auf mich „faul“. Wenn ich eine Frage stelle, bekomme ich nicht die vollständige Datei oder die konkreten Änderungen, sondern nur ein „So solltest du es machen“, und ich muss noch zwei- oder dreimal nachhaken, damit es tatsächlich ausgeführt wird. Bei deepseek habe ich dieses Verhalten nicht gesehen. Ich frage mich, ob so geantwortet wird, um Ressourcen zu sparen
    • Ich arbeite bei OpenAI. Unsere Modelle können manchmal tatsächlich träge wirken. Das ist nicht beabsichtigt, und wir werden in Zukunft bessere Modelle liefern. Als ich bei Netflix gearbeitet habe, gab es ähnliche Unterstellungen, man würde absichtlich schlechte Empfehlungen ausspielen, aber in Wirklichkeit ist es einfach sehr schwer, die Produktqualität zu steigern. Ein wirklich gutes Produkt zu bauen, ist am Ende enorm schwierig
    • Kürzlich habe ich bei einer chemischen Berechnung gesagt: „Erstelle ein X-gegen-Y-Diagramm“, und die Antwort bestand nur aus einer langen Erklärung und endete mit „Wenn du ein Diagramm brauchst, sag Bescheid!“. Irgendwie schon komisch
  • Ich frage mich, wie wir wissen können, dass das o3-Modell keine quantisierte Version mit verringerter Präzision ist. Anbieter könnten gute Benchmark-Ergebnisse veröffentlichen und dann nach und nach weiter quantisieren (Q8 zu Q6, Q4 usw.) und damit die Leistung verschlechtern. Ich vermute, dass auch gpt-4-turbo so schnell auf den Markt kam. In der Praxis war es schlechter als das ursprüngliche GPT-4, und vielleicht wurden bei Turbo und 4o vor allem Benchmarks optimiert. Nutzer halten es dann für besser, obwohl es real schlechter ist
    • Ich denke, genau so gehen Anbieter tatsächlich vor, und das ursprüngliche o3 wurde wohl als o3-pro neu gebrandet
    • Es wirkt immer so, als seien neue Modelle anfangs gut und würden dann nach und nach schlechtere Ergebnisse liefern. Früher dachte ich, man habe beim Entfernen schlechter Outputs per Fine-Tuning zugleich die Gesamtleistung abgesenkt, aber inzwischen vermute ich eher Quantisierung als Ursache
    • Ich arbeite bei OpenAI, und das Modell ist dasselbe; wir verwenden weder Quantisierung noch andere Tricks. In der API werden Entwickler niemals ohne Vorankündigung auf ein anderes Modell umgestellt. Bei ChatGPT sind Updates etwas weniger klar, weil es umständlich wäre, Nutzern ständig Versionsnummern zu zeigen, aber auch dort wird nichts vollkommen heimlich ausgetauscht. Alle Modell-Updates werden in den ChatGPT Release Notes veröffentlicht. Die einzige Ausnahme ist der Zeiger chatgpt-4o-latest, der ohne Vorankündigung geändert wird
    • In der offiziellen Ankündigungsmail hieß es: „OpenAI hat den Preis von o3 um 80 % gesenkt — auf 2 Dollar pro 1 Million Input-Tokens und 8 Dollar pro 1 Million Output-Tokens — und es handelt sich um dasselbe Modell, das lediglich durch Optimierung des Inferenz-Stacks günstiger geworden ist.“
    • Direkt nach der Ankündigung erreichte o3 mehr als 700 Tokens pro Sekunde, deshalb frage ich mich, ob es wirklich keine quantisierte Version ist passender Link
  • Ich frage mich, ob für ChatGPT-Plus-Nutzer auch das wöchentliche Nachrichtenkontingent für o3 erhöht wurde. Nach meiner Erfahrung liegen o4-mini und o4-mini-high beim Nutzwert weit hinter o3, aber wegen der Ratenbegrenzung von o3 nutze ich meistens nur die o4-mini-Reihe. Diese Struktur verstärkt eher den Eindruck, dass OpenAIs „Think“-Modelle gegenüber der Konkurrenz zurückfallen
    • Ich habe die ziemlich strenge Begrenzung bei o3 ebenfalls erlebt, und obwohl ich o4-mini-high ziemlich gut finde, würde ich klar lieber viel mehr o3 nutzen. Hoffentlich wurde mit dieser Ankündigung auch das Kontingent erhöht
  • Google holt im KI-Bereich auch schnell auf. Vor nur wenigen Monaten war DeepSeek noch das große Thema, aber dieses Feld entwickelt sich wirklich extrem schnell
    • Viele halten Googles Gemini-Modelle inzwischen für SOTA (State Of The Art, Spitzenklasse), und für Coding-Tasks gilt Claude ebenfalls als ziemlich stark
    • Ich habe in den letzten Monaten nur Googles Modelle genutzt, weil mir ChatGPT inzwischen zu geschniegelt und zu dünn vorkommt. Nicht nur am Anfang oder Ende, sondern auch mitten in den Antworten steht viel leeres Gerede und wenig Substanz. Wenn man um einen anderen Stil bittet, neigt es dann dazu, einfach nur mit Fachbegriffen um sich zu werfen
    • Die Leute waren von Deepseek vor allem deshalb begeistert, weil man das Modell direkt herunterladen konnte. Seit Gemini 2.5 scheint es aber den dritten Platz nicht mehr wirklich verlassen zu haben
  • Ich verstehe nicht, warum OpenAI für die Nutzung von o3 eine „Organisations“-Verifizierung verlangt, die einen staatlichen Ausweis voraussetzt
  • Entgegen der Einschätzung, LLMs hätten keinen nachhaltigen Wettbewerbsvorteil und würden nur Geld verbrennen, finde ich die Lage von OpenAI sehr ermutigend. Es wurden 10 Milliarden Dollar annualisierter Umsatz gemeldet, und in der Finanzierungsrunde im März stieg die Bewertung auf 300 Milliarden Dollar. Zwar gab es 5 Milliarden Dollar Verlust, aber zugleich 30-faches Umsatzwachstum und mehr als 500 Millionen aktive Nutzer. Diese Dynamik erinnert mich an Uber in der Frühphase — schnelles Wachstum, massive Investitionen und dann der Weg in Richtung Profitabilität
    • Das Problem ist, dass mit steigenden Umsätzen auch die Kosten mitsteigen. Normalerweise sinken die Stückkosten mit größerem Maßstab, bei OpenAI steigen die Computing-Kosten mit der Nutzung aber einfach weiter an. Ohne zusätzliche Erlösquellen sind die Skaleneffekte schwach. Netflix ist ein ähnliches Beispiel. Ich halte dauerhafte Profitabilität für schwer erreichbar
    • Rein gefühlt profitiert OpenAI von einem First-Mover-Vorteil, weshalb ich mein Monatsabo weiterlaufen lasse und keine Lust habe, ständig zwischen vielen Optionen zu wechseln. Wenn sich der Markt später stabilisiert und der Preiswettbewerb zunimmt, würde ich aber gern wechseln. Wie dauerhaft dieser Vorteil ist, hängt letztlich davon ab, ob die Haupteinnahmen eher von App-Nutzern oder von API-Plänen kommen. Abgesehen von Vertrauen und Markenname nutzen die Leute in meinem Umfeld durchaus je nach Bedarf verschiedene Alternativen
    • Letztlich werden die Preise für LLMs immer weiter sinken, und am Ende werden nur kostenlose Modelle übrig bleiben — deshalb ist OpenAIs Wettbewerbsvorteil schwach. „Denkende Modelle“ lösen komplexe Probleme nicht einfach von selbst und werden in dieser Hinsicht überschätzt
    • Ich stimme der Behauptung „kein Burggraben“ nicht zu. Nutzungsdaten aus Chats und anderen Interaktionen sind für sich genommen bereits sehr wertvoll
    • Wenn man nur das Wachstum von OpenAI betrachtet, ist das sicher ermutigend. Bezieht man aber auch die gesellschaftlichen Auswirkungen von KI-Unternehmen wie ChatGPT ein, sieht es weniger positiv aus. Zum Beispiel werden Online-Shops mit bedeutungslosem KI-generiertem Content überflutet, was das Einkaufserlebnis verschlechtert. In manchen Gruppen, die sich übermäßig an ChatGPT binden, sieht man seltsames Verhalten, bis hin zu Problemen in der Kommunikation mit echten Freunden und Familienmitgliedern oder sogar Scheidungen. Auch im Bildungsbereich richtet der Missbrauch große Verwirrung an. Wie bei Uber bedeutet der Erfolg von OpenAI nicht zwangsläufig, dass die gesellschaftlichen Folgen nur positiv sind
  • Das o3-Modell gehört derzeit zu den besten Modellen überhaupt, und der Preis liegt auf dem Niveau von Claude und Gemini oder sogar darunter. Das lässt der Konkurrenz kaum Luft zum Atmen
    • Gemini ist auf einem ähnlichen Niveau, manchmal sogar besser, daher halte ich auch diese Wahl für vernünftig. o3-pro könnte darüber hinaus noch einmal eine Klasse für sich sein
  • Wenn es früher Jahrzehnte dauerte, bis die Qualität der Google-Suche schlecht wurde, dann leben wir heute in einer erstaunlichen Zeit, in der die Qualität von KI-Modellen innerhalb weniger Tage verfallen kann
  • Möglicherweise hängt auch die Veröffentlichung von o3-pro damit zusammen