Wenn man das jetzt sieht, ist es schon irgendwie lustig, hahaha. Gleichzeitig ist es auch beängstigend, dass die Situation in nicht einmal zehn Jahren so geworden ist, dass es fast schon lächerlich wirkt.
Es ist zum jetzigen Zeitpunkt keine besonders originelle Idee, aber ich finde es eine gute Methode, weil sie sich umsetzen lässt, ohne die Interface-Signaturen oder den Workflow zu verändern.
Genauer gesagt scheint das hier gepostet worden zu sein, weil die Gründe, aus denen OpenAI zu Amodeis Zeiten GPT-2 nicht veröffentlichte, den Gründen ähneln, aus denen das Misos-Modell nicht veröffentlicht wird. Der damalige Amodei und der heutige Amodei haben sich kein bisschen verändert..
Normalerweise wird das meiste übernommen, aber dieses hier wurde seltsamerweise ausgelassen und so verarbeitet. Ich werde das so anpassen, dass es nicht angerührt wird.
Es geht wohl nicht darum, dass ein AX-Einführungsteam schlecht ist..
Das Problem ist eher, ein AX-Team aufzustellen und dann zu sagen: „Ihr seid das AX-Team, also automatisiert das schnell mit AI.“..
Am besten wäre es wohl, wenn die Fachverantwortlichen aus dem jeweiligen Bereich die Führung übernehmen und die AX-Spezialisten die Einführung von AI unterstützend begleiten..
Zur Einordnung: Wenn Sie sich den Inhalt des Beitrags ansehen, in dem GPT-2 erwähnt wird, oder das Erscheinungsjahr des Originalbeitrags 2019, erkennen Sie den Kontext, dass es darum geht, dass OpenAI früher mit GPT-2 ebenfalls viel Aufhebens machte – ähnlich wie kürzlich Anthropic ankündigte, das Mysos-Modell wegen zu hoher Gefährlichkeit nicht zu veröffentlichen.
Im Fall von HN scheint es die Gewohnheit zu geben, bei älteren Beiträgen das Jahr anzuhängen (ich weiß nicht, ob das automatisch geschieht), und ich fände es gut, wenn das auch bei GeekNews angezeigt würde.
Versetzt sich Sam Altman in Oppenheimer hinein? Wenn es riskant ist, könnte man es doch nach sicheren Verbesserungen veröffentlichen; die Leute zugleich zur Nutzung zu ermutigen, erscheint mir nicht schlüssig. Ich denke, beim Fall Anthropic Mythos gilt dasselbe.
Bei dem, was Anthropic gesagt hat, hatte ich Vertrauen, aber warum klingt das, was OpenAI sagt, so wenig vertrauenswürdig?
Liegt es daran, dass Anthropic mit der Entwicklung von Zero-Day-Patches ein Show-and-Proof geliefert hat?
Oder daran, dass OpenAI dieses Repertoire schon mehrfach ausgespielt hat?
Immer wenn ich so etwas sehe, denke ich: Nicht die Plattform, sondern der Nutzer sollte Signaturen prüfen. Entwickler sollten mit ihrem eigenen Schlüssel signieren, und Nutzer sollten auf ihrem eigenen Gerät die Schlüssel vertrauenswürdiger Entwickler zulassen und so verwenden.
Es ergibt keinen Sinn, das nicht wissen zu wollen und zu verlangen, dass sich jemand anders darum kümmert. Unabhängig davon, ob man sich für Computer interessiert oder nicht: Wenn man etwas selbst benutzt, ist das eine Gewohnheit, die man unbedingt haben sollte.
Wer ein Smartphone benutzt und im Internet surft, sollte ohnehin nicht blind alles glauben, was auf Webseiten, in Nachrichten oder am Telefon gesagt wird, sondern die grundsätzliche Fähigkeit haben, Dinge einzuordnen und auszuwählen.
Eine UI wie bei Windows UAC, bei der man mit einem einzigen Button bestätigen kann, ob man einem bestimmten Entwickler vertraut, wäre wohl auch für Menschen nutzbar, die mit den Konzepten von Code-Signierung und Schlüsseln nichts anfangen können.
Bei uns intern kam die Anweisung, die Entwicklung nur mit Vibe Coding auszuprobieren, also habe ich dies und das angewendet. Als ich es tatsächlich gemacht habe, habe ich gemerkt, dass herausragende Entwicklungs-Skills nicht automatisch hohe Qualität garantieren.
Vielmehr scheint die Fähigkeit entscheidend zu sein, den von der KI erzeugten Code zu prüfen und zu verstehen. Je besser die Werkzeuge werden, desto wichtiger wird paradoxerweise die „Kraft des Lesens und Urteilens“.
In der AI-Ära ist ARR womöglich kein verlässlicher gemeinsamer Maßstab mehr
Die prägenden Kennzahlen der Tech-Branche haben sich je nach Epoche verändert
Social-Ära: DAU/MAU
SaaS-Ära: ARR/MRR
AI-Ära: Es wird die Frage aufgeworfen, ob selbst das bisherige ARR die Realität verzerren kann
Ausgangspunkt des Artikels ist eine Unstimmigkeit bei den Zahlen von Anthropic
Im Februar 2026 wurde ein ARR von 14 Milliarden US-Dollar hervorgehoben
Einen Monat später hieß es in einem bei Gericht eingereichten Dokument: „kumulierte Umsätze von mehr als 5 Milliarden US-Dollar seit der Gründung“
Dasselbe Unternehmen, ein ähnlicher Zeitpunkt, aber eine deutlich andere Bedeutung der Zahlen
Der Autor deutet das als „ein Signal dafür, dass ARR in der AI-Ära den tatsächlichen Zustand des Geschäfts nicht mehr angemessen beschreibt“
Drei Gründe, warum ARR im AI-Bereich ins Wanken gerät
Die SaaS-Annahme von nahezu null Grenzkosten bricht weg
Bei AI entstehen für jeden Inference-Aufruf tatsächlich GPU-/Cloud-Kosten
Je mehr genutzt wird, desto stärker steigen auch die Kosten
Die Kosten pro Kunde unterscheiden sich massiv
Bei gleichem Preis ist ein Kunde kostengünstig, ein anderer sehr teuer
Betrachtet man nur ARR, wirken beide wie derselbe „gute Umsatz“, obwohl die tatsächliche Profitabilität stark abweicht
Die Stabilität wiederkehrender Umsätze ist schwächer
Die Wechselkosten sind niedriger als bei SaaS, daher ist ein Umstieg auf andere Modelle/Services leichter
Schon das „Recurring“ selbst ist weniger belastbar als früher
Deshalb kann ARR bei AI-Unternehmen zwar „Wachstum“ zeigen, aber Profitabilität, Beständigkeit und Geschäftsqualität nur unzureichend abbilden
Die Struktur ähnelt der früheren Situation bei DAU/MAU: Diese Kennzahlen zeigten das Interesse der Nutzer, aber nicht die wirtschaftliche Gesundheit des Geschäfts
Auch die Fälle Anthropic und OpenAI sollen dieses Problem zeigen
Zwischen dem kommunizierten ARR und den tatsächlichen kumulierten Umsätzen, Halbjahresergebnissen und der Geschwindigkeit des Cash-Burns gibt es Unterschiede
Wenn also eine „annualisierte“ Zahl so gelesen wird, als entspreche sie der tatsächlichen Jahresleistung, kann das zu Missverständnissen führen
Vom Autor vorgeschlagene Kandidaten für Kennzahlen der nächsten Generation in der AI-Ära
Produktivität pro ausgegebenem Dollar (Productivity per Dollar Spent)
Nicht einfach nur ARR/Mitarbeiterzahl
Erst ein Blick auf etwas wie ARR / (Personalkosten + AI-Kosten) zeigt die tatsächliche Effizienz
Wert im ersten Jahr (First Year Value)
Statt wie bei LTV eine ferne Zukunft anzunehmen
lieber betrachten, ob der Kunde innerhalb der ersten 12 Monate genug Wert erhält, um zu verlängern
Kennzahlen mit Fokus auf Unit Economics, etwa Bruttomarge pro Token
Wichtiger als die Frage, wie viel verarbeitet wurde,
ist, wie profitabel es verarbeitet wurde
Kernaussage
In der AI-Ära sollte man eher auf die Struktur der Bruttomarge, die Profitabilität je Kunde und den im ersten Jahr verbleibenden Wert schauen als auf die reine Umsatzgröße
Es geht darum, nicht die Größe der Zahlen zu lesen, sondern ihre Struktur
Es gibt auch ein praktisches Problem
Um solche Kennzahlen der dritten Generation sauber zu erfassen,
müssen Billing, Infrastrukturkosten und Finanzsysteme miteinander verbunden sein
die meisten AI-Unternehmen verfügen aber noch nicht über eine entsprechend ausgereifte Messinfrastruktur
Kurz gesagt
AI-Geschäfte lassen sich nicht mehr so einfach wie SaaS mit ARR allein erklären; künftig werden Kennzahlen wichtiger, die nicht nur zeigen, „wie viel verkauft wurde“, sondern auch „wie viel übrig bleibt und wie nachhaltig es ist“.
Dann muss man also tatsächlich vor Ablauf von 49 Tagen neu starten.
Eigentlich darf man Zeitwerte nie mit absolutem < vergleichen …
if ((int32_t)(tmp - current_tcp_now) < 0) {
os_atomic_cmpxchg(&tcp_now, tmp, current_tcp_now, ...);
}
So müsste man die Differenz zwischen den beiden Werten prüfen … Aber Menschen machen eben immer wieder dieselben Fehler.
Als Mitglied einer der oben genannten Stiftungen habe ich diesen Prozess beobachtet und dabei tiefe Skepsis empfunden. Nach außen wurde zwar für „ethische KI“ geworben, intern fiel diese Entscheidung jedoch top-down, ohne irgendeinen Konsens der Community.
Angesichts der sich zuspitzenden geopolitischen Konflikte hatte ich mich zwar lange nicht mehr beteiligt, fand aber, dass ich dazu etwas sagen musste, und eröffnete einen Diskussions-Thread über Ethik — doch es gab nur bürokratisches Ausweichen. Diese Initiative bewahrt nicht die Werte von Open Source, sondern ist ein Fall, in dem ein geschlossenes Bündnis des Großkapitals einer Open-Source-Stiftung die Marke Responsible AI abgekauft hat.
Wenn man das jetzt sieht, ist es schon irgendwie lustig, hahaha. Gleichzeitig ist es auch beängstigend, dass die Situation in nicht einmal zehn Jahren so geworden ist, dass es fast schon lächerlich wirkt.
Es ist zum jetzigen Zeitpunkt keine besonders originelle Idee, aber ich finde es eine gute Methode, weil sie sich umsetzen lässt, ohne die Interface-Signaturen oder den Workflow zu verändern.
Genauer gesagt scheint das hier gepostet worden zu sein, weil die Gründe, aus denen OpenAI zu Amodeis Zeiten GPT-2 nicht veröffentlichte, den Gründen ähneln, aus denen das Misos-Modell nicht veröffentlicht wird. Der damalige Amodei und der heutige Amodei haben sich kein bisschen verändert..
Normalerweise wird das meiste übernommen, aber dieses hier wurde seltsamerweise ausgelassen und so verarbeitet. Ich werde das so anpassen, dass es nicht angerührt wird.
Es geht wohl nicht darum, dass ein AX-Einführungsteam schlecht ist..
Das Problem ist eher, ein AX-Team aufzustellen und dann zu sagen: „Ihr seid das AX-Team, also automatisiert das schnell mit AI.“..
Am besten wäre es wohl, wenn die Fachverantwortlichen aus dem jeweiligen Bereich die Führung übernehmen und die AX-Spezialisten die Einführung von AI unterstützend begleiten..
Zur Einordnung: Wenn Sie sich den Inhalt des Beitrags ansehen, in dem GPT-2 erwähnt wird, oder das Erscheinungsjahr des Originalbeitrags 2019, erkennen Sie den Kontext, dass es darum geht, dass OpenAI früher mit GPT-2 ebenfalls viel Aufhebens machte – ähnlich wie kürzlich Anthropic ankündigte, das Mysos-Modell wegen zu hoher Gefährlichkeit nicht zu veröffentlichen.
Im Fall von HN scheint es die Gewohnheit zu geben, bei älteren Beiträgen das Jahr anzuhängen (ich weiß nicht, ob das automatisch geschieht), und ich fände es gut, wenn das auch bei GeekNews angezeigt würde.
Versetzt sich Sam Altman in Oppenheimer hinein? Wenn es riskant ist, könnte man es doch nach sicheren Verbesserungen veröffentlichen; die Leute zugleich zur Nutzung zu ermutigen, erscheint mir nicht schlüssig. Ich denke, beim Fall Anthropic Mythos gilt dasselbe.
Bei dem, was Anthropic gesagt hat, hatte ich Vertrauen, aber warum klingt das, was OpenAI sagt, so wenig vertrauenswürdig?
Liegt es daran, dass Anthropic mit der Entwicklung von Zero-Day-Patches ein Show-and-Proof geliefert hat?
Oder daran, dass OpenAI dieses Repertoire schon mehrfach ausgespielt hat?
Windows-Treiber sind vermutlich etwas anderes.
Immer wenn ich so etwas sehe, denke ich: Nicht die Plattform, sondern der Nutzer sollte Signaturen prüfen. Entwickler sollten mit ihrem eigenen Schlüssel signieren, und Nutzer sollten auf ihrem eigenen Gerät die Schlüssel vertrauenswürdiger Entwickler zulassen und so verwenden.
Es ergibt keinen Sinn, das nicht wissen zu wollen und zu verlangen, dass sich jemand anders darum kümmert. Unabhängig davon, ob man sich für Computer interessiert oder nicht: Wenn man etwas selbst benutzt, ist das eine Gewohnheit, die man unbedingt haben sollte.
Wer ein Smartphone benutzt und im Internet surft, sollte ohnehin nicht blind alles glauben, was auf Webseiten, in Nachrichten oder am Telefon gesagt wird, sondern die grundsätzliche Fähigkeit haben, Dinge einzuordnen und auszuwählen.
Eine UI wie bei Windows UAC, bei der man mit einem einzigen Button bestätigen kann, ob man einem bestimmten Entwickler vertraut, wäre wohl auch für Menschen nutzbar, die mit den Konzepten von Code-Signierung und Schlüsseln nichts anfangen können.
Das haben Sie wirklich sehr gut zusammengefasst. Vielen Dank.
Halbfertige Projekte überschwemmen alles …
Und Leute, die nur die Hälfte vom Programmieren verstehen, geraten in Ekstase …
Bei uns intern kam die Anweisung, die Entwicklung nur mit Vibe Coding auszuprobieren, also habe ich dies und das angewendet. Als ich es tatsächlich gemacht habe, habe ich gemerkt, dass herausragende Entwicklungs-Skills nicht automatisch hohe Qualität garantieren. Vielmehr scheint die Fähigkeit entscheidend zu sein, den von der KI erzeugten Code zu prüfen und zu verstehen. Je besser die Werkzeuge werden, desto wichtiger wird paradoxerweise die „Kraft des Lesens und Urteilens“.
Kurz gesagt
AI-Geschäfte lassen sich nicht mehr so einfach wie SaaS mit ARR allein erklären; künftig werden Kennzahlen wichtiger, die nicht nur zeigen, „wie viel verkauft wurde“, sondern auch „wie viel übrig bleibt und wie nachhaltig es ist“.
Dann muss man also tatsächlich vor Ablauf von 49 Tagen neu starten.
Eigentlich darf man Zeitwerte nie mit absolutem
<vergleichen …if ((int32_t)(tmp - current_tcp_now) < 0) {
os_atomic_cmpxchg(&tcp_now, tmp, current_tcp_now, ...);
}
So müsste man die Differenz zwischen den beiden Werten prüfen … Aber Menschen machen eben immer wieder dieselben Fehler.
Perplexity
Da werden wohl mehrere SaaS-Unternehmen untergehen.
Wenn das wirklich auf diesem Niveau ist, dürfte es wohl nicht lange dauern, in reassembliertem Code Sicherheitslücken zu finden.
Als Mitglied einer der oben genannten Stiftungen habe ich diesen Prozess beobachtet und dabei tiefe Skepsis empfunden. Nach außen wurde zwar für „ethische KI“ geworben, intern fiel diese Entscheidung jedoch top-down, ohne irgendeinen Konsens der Community.
Angesichts der sich zuspitzenden geopolitischen Konflikte hatte ich mich zwar lange nicht mehr beteiligt, fand aber, dass ich dazu etwas sagen musste, und eröffnete einen Diskussions-Thread über Ethik — doch es gab nur bürokratisches Ausweichen. Diese Initiative bewahrt nicht die Werte von Open Source, sondern ist ein Fall, in dem ein geschlossenes Bündnis des Großkapitals einer Open-Source-Stiftung die Marke Responsible AI abgekauft hat.
Widerlich