1 Punkte von GN⁺ 3 시간 전 | 1 Kommentare | Auf WhatsApp teilen
  • Der entscheidende Maßstab im KI-Rennen ist die Kommerzialisierung; nach DeepSeek R1 brachten OpenAI und Anthropic agents, Codex und Claude Code schneller in den Markt
  • Der strategische Wert von DeepSeek in China liegt weniger im Umsatz als darin, die Abhängigkeit von Nvidia zu verringern und Inferenz auf inländische Stacks wie Huawei Ascend zu verlagern
  • Europa gab im Geschäftsjahr 2023–2024 rund 58,8 Milliarden US-Dollar für indische Software-Services aus, im darauffolgenden Jahr etwa 67,1 Milliarden US-Dollar, doch Modelle allein schaffen nicht genug Wert
  • Günstige Stromkosten sind ebenfalls wichtig, aber die Reichweite von Cloud und Daten über AWS, Azure, Google Cloud sowie YouTube, Microsoft 365 und GitHub ist noch entscheidender
  • Bewaffnete KI und Frontier-Cyber-Modelle wie Mythos von Anthropic könnten Staaten und Rüstungsunternehmen zu geschlossenen Stacks und Sicherheit durch Verschleierung drängen

Wo die USA vorne liegen

  • Kommerzialisierung ist der zentrale Maßstab im KI-Wettbewerb, und nachdem DeepSeek R1 den Markt im Januar 2025 erschüttert hatte, handelten US-Unternehmen schneller
    • OpenAI forcierte agents und Codex noch stärker, und Anthropic kommerzialisierte Claude Code
    • Auch in China gibt es Wettbewerber, aber bei Umsatz, Einführung, Tools und Reichweite liegen die USA vorn
  • Der strategische Wert von DeepSeek in China liegt weniger im kommerziellen Erfolg als darin, die Nvidia-Abhängigkeit zu senken und Inferenz auf inländische Stacks wie Huawei Ascend zu verlagern
    • Das stärkt die Autonomie der Lieferkette, ist aber eine andere Frage als profitable KI-Führerschaft
  • Christian Klein von SAP sagte, Europa brauche nicht mehr Rechenzentren und große Sprachmodelle allein seien nicht genug; tatsächlich reichen Modelle allein nicht aus
    • Europa gab im FY 2023–2024 etwa 58,8 Milliarden US-Dollar für indische Software-Services aus, im darauffolgenden Jahr etwa 67,1 Milliarden US-Dollar
    • KI schafft Wert, wenn sie an reale Daten, reale Workflows und reale Produkte gebunden ist
    • Die USA bauen gleichzeitig Chips, Strom, Rechenzentren, Cloud-Plattformen, Entwickler-Tools, Consumer-Plattformen und Unternehmenssoftware auf, wodurch ihr Vorsprung wächst
  • Die Zahl der Papers oder der Ingenieure beweist noch keine KI-Führerschaft
    • Der entscheidende Härtetest ist die Finanzierung von Infrastruktur, das Training und Bereitstellen großer Modelle sowie die Fähigkeit, KI in der gesamten Wirtschaft anzuwenden

Die größere Macht von Cloud und Daten jenseits des Stroms

  • Stromkosten sind wichtig, weil moderne GPU- und TPU-Systeme Elektrizität in Compute umwandeln, und günstiger Strom die Modellkosten senkt
    • Beim Vergleich der Strompreise sind die USA günstiger als die großen westeuropäischen Volkswirtschaften, und Kanada ist noch günstiger als die USA
    • China und Russland liegen in diesem Vergleich kostenmäßig unter den USA
    • Die Strompreise für Haushalte/Gewerbe liegen bei Deutschland 0.436/0.279, Großbritannien 0.420/0.415, Spanien 0.282/0.136, Frankreich 0.274/0.174, USA 0.201/0.154, Kanada 0.125/0.106, Russland 0.087/0.131, China 0.078/0.117
  • Cloud-Infrastruktur und Daten sind eine noch entscheidendere Ebene als Strom
    • Über die globalen Hyperscaler AWS, Azure und Google Cloud können die USA Modelle US-amerikanischer Unternehmen weltweit ausrollen
    • YouTube ist ein Videokorpus, Google Drive und Microsoft 365 sind im alltäglichen Büroalltag verankert, und GitHub ist fest in der Softwareentwicklung eingebettet
    • Sie sind zugleich Distributionssysteme und Datenplattformen und erlauben es, neue Modelle in Produkte zu schieben, die Menschen täglich nutzen
  • Mit billigem Strom allein lässt sich das KI-Rennen kaum gewinnen
    • Ohne Cloud-Skalierung, Plattform-Reichweite, Entwickler-Ökosysteme und Zugang zu nützlichen großflächigen Datenströmen kann man trotz niedriger Stromkosten verlieren
    • Die USA haben diese Faktoren gleichzeitig, China hat einen großen Teil davon innerhalb seines großen Binnenmarkts, Europa dagegen nicht
  • Europa verfügt seit langem über starke Engineering-Talente, aber Talent allein reicht nicht aus
    • Die US-Hyperscaler dominieren den Markt bereits, sodass das Aufholen lange dauern wird
    • Selbst wenn Europa jetzt tatsächlich Kapital in einen Cloud-Champion investieren würde, wäre der Aufbau der Infrastruktur nur der erste Schritt; danach müssten Banken, Hersteller und öffentliche Einrichtungen auf diese Plattform wechseln
    • Dieser Prozess kann fast ein Jahrzehnt dauern, und in dieser Zeit würden AWS, Azure und Google Cloud bei Skalierung, Software und Daten weiter davonziehen
    • Arkady Volozh versucht, Nebius zu einem europäischen KI-Infrastrukturunternehmen zu machen, doch Europa steht noch nahe am Ausgangspunkt
  • Bewaffnete KI ist ebenfalls eine weitere Front
    • Die nächste Phase könnte die Form annehmen, dass die KI eines bestimmten Staates und die eines anderen Staates in Botnetzwerken, Cyberkampagnen und autonomen Waffen gegeneinander antreten
    • Es ist nicht schwer, Systeme so zu justieren, dass sie Konkurrenten entmenschlichen, Gewalt rechtfertigen oder ganze Bevölkerungsgruppen ins Visier nehmen
    • Wenn Modelle in Medien, Netzwerke und Waffen eingebettet werden, wird Voreingenommenheit zu Macht, und der KI-Wettbewerb ist auch ein Sicherheitswettbewerb
  • Modelle wie Mythos von Anthropic könnten Staaten und Rüstungsunternehmen in eine andere Richtung drängen
    • Die alte Linux-artige Intuition lautete, dass offener Code von vielen Augen geprüft wird, doch Frontier-Cyber-Modelle könnten die gegenteilige Logik schaffen
    • Die Entwicklung könnte zu Sicherheit durch Verschleierung über geschlossene Software, geschlossene Tools, geschlossene Firmware und geschlossene Chips gehen
    • Wenn ein Modell nicht anhand des Codes und der Architektur des Ziel-Stacks lernen kann, sinken in der Regel Kontext und Geschwindigkeit
    • Das macht ein System nicht sicher, erhöht aber den Wert proprietärer Stacks bis hinunter zur Hardware

1 Kommentare

 
GN⁺ 3 시간 전
Hacker-News-Kommentare
  • Anthropic, OpenAI und Google stechen zwar hervor, aber die größere Frage ist, warum man das überhaupt einen Krieg nennt
    China hat in seinem eigenen Kontext große Vorteile erzielt und auch seine Fähigkeiten bei GPU-Design und -Fertigung ausgebaut
    Wenn es wirklich ein Krieg ist, dann schadet Trump seinem eigenen Land, indem er den Rechtsstaat aushöhlt und die Sympathie für die USA schwächt. Wenn die Welt das Gefühl hat, China könne man Daten schwer anvertrauen und den USA keine stabilen Dienste zutrauen, dann könnten die Vorteile für die USA selbst begrenzt bleiben, selbst wenn sie den AI-Krieg gewinnen
    Für Regionen wie Europa, die einen eigenen Tech-Stack aufbauen können, könnte das eher gut sein, und weil der AI-Stack so teuer ist, helfen Chinas starke Open-Source-Modelle der Welt in gewisser Weise mehr als die der USA

    • Die Antwort auf „warum Krieg?“ ist, dass dahinter das überzogene Versprechen steckt, die Organisation, die zuerst eine noch weitgehend theoretische AGI erreicht, könne sich zu gottgleichen Fähigkeiten hochbootstrappen, einen Planetary Overlord installieren und die Welt beherrschen
      Ich halte das für absurd, aber dort liegt der Antrieb. Der Ausdruck stammt vom SF-Autor Charles Stross aus The Jennifer Morgue (2006)
    • Die USA können es sich einfach nicht anders vorstellen. Alles ist ein Krieg, und die USA müssen immer gewinnen
    • Es wird zum Krieg, weil Investoren den Markt monopolisieren wollen. Das ist nun einmal ihr Geschäft, und sie werden es immer wollen
    • Wurde der Titel geändert? Jetzt steht dort nicht mehr war, sondern race
    • Das Wort Krieg kommt letztlich aus der Sorge, dass man mit Erreichen der Singularität menschliche Größenordnungen hinter sich lassen und alle anderen überflügeln könnte
      Auch mit besseren Waffen kann man die Welt nicht so erobern, weil die Zahl der Menschen, die sie tragen, begrenzt ist. Aber wenn jemand Superintelligenz erfindet, könnte er sehr schnell die neue AI-Forschung dominieren, die Weltwirtschaft kontrollieren und sehr viel effektiver Krieg führen
  • Ich habe es als AI-generierten Inhalt gemeldet. Dieser Beitrag gehört nicht auf die Startseite, und wenn man sich die Einreichungs- und Kommentarhistorie des Einreichers ansieht, wirkt eine Sanktion angebracht
    Bei der Behauptung „Die USA gewinnen den AI-Wettbewerb bei der wichtigsten Dimension, der Kommerzialisierung“ gibt es viele mögliche Kriterien dafür, was Gewinnen heißt, und Kommerzialisierung wäre nicht das Erste, woran ich denke
    https://english.www.gov.cn/news/202604/15/content_WS69df29e6...
    https://fortune.com/2026/05/03/chinese-court-layoffs-workers...
    https://www.reuters.com/world/china/china-moves-regulate-dig...
    Auch die Behauptung, YouTube, Google Drive, Microsoft 365 und GitHub seien die Plattformen, auf denen die Daten des AI-Zeitalters erzeugt und organisiert werden, überzeugt wenig. Das klingt so, als hätte China weder Plattformen noch Daten

    • Nach Pangram ist das vollständig ein AI-generierter Text
      Es wäre gut, wenn es Regeln gäbe, die Offenlegung oder Löschung von LLM-generierten Texten verlangen. Der ganze Blog wirkt ohnehin wie AI-generiert
    • Gut herausgearbeitet. Ich wollte mich kaum dazu durchringen, es einen schrecklichen Text zu nennen, aber das ist er tatsächlich
    • Es wäre gut, wenn man bestimmte Nutzer blockieren könnte, damit man ihre Beiträge nicht sieht. Ohne Leute wie den OP wäre die Startseite deutlich besser
  • Ich verstehe nicht, wie so ein Geschwurbel auf HN hochkommt. Wie sehr muss sich die HN-Kultur verändert haben, damit so etwas so weit nach oben gelangt

    • https://paulgraham.com/submarine.html
    • Es ist eine Seite, auf der jeder in wenigen Minuten mehrere Accounts anlegen kann, und es gibt nur minimale Schutzmechanismen gegen Missbrauch
      Die Stärke der Community beruhte ganz darauf, dass sie relativ wenig bekannt war, aber das ist inzwischen nicht mehr so. In dem Moment, in dem sie groß genug wurde, um als Plattform für politische Propaganda zu dienen, war sie als Ort für Intellektuelle praktisch tot
    • Auch wenn der eingereichte Beitrag selbst schwach ist, kann die zentrale Prämisse trotzdem noch diskussionswürdig sein
      Zur Klarstellung: Ich habe für diese Einreichung nicht abgestimmt
    • Vermutlich, weil viele Leute nur die Überschrift lesen und hochvoten
      Die Überschrift ist ziemlich zugkräftig, aber der Inhalt ist minderwertiger generierter Müll
    • Auf HN wie überall sonst schaffen es viele unsinnige Texte nach oben
      Die Revolte der Massen ist real
  • Nein, die USA führen im AI-Wettbewerb nur, aber der Wettbewerb ist nicht vorbei
    Was bringt es, über 90 % der Strecke vorne zu liegen, wenn man am Ende auf dem eigenen Schweiß ausrutscht und stürzt. Selbst wenn man Milliarden ausgibt, um um jeden Preis die beste AI-Technologie zu bekommen, verliert das an Bedeutung, wenn ein Konkurrent diesen Fortschritt destilliert, in 6 bis 12 Monaten aufschließt und dabei nur 1 % der Kosten ausgibt
    Selbst bei der Kommerzialisierung, die der Artikel betont, beginnen die USA bereits Marktanteile zu verlieren. In letzter Zeit habe ich Leute gesehen, die von cc/codex-Tarifen zu glm/opencode-Tarifen wechseln, nachdem US-Firmen die Nutzung in ihren Preisplänen eingeschränkt haben. Wenn sich dieser Trend verfestigt, bekommen US-Unternehmen Probleme. Nicht jeder braucht Frontier-Modelle; viele wollen einfach nur ein ziemlich brauchbares Modell für 20 Dollar im Monat

    • Was, wenn es gar nicht Winner-takes-all ist? Was, wenn es von Anfang an keinen eigentlichen Wettbewerb gibt? Was, wenn die USA nur Geld verbrennen, finanziert durch womöglich untragbare Schulden und grotesk aufgeblähte Bewertungen?
      Es ist denkbar, dass AI so etwas wie allgemeine Serverkapazität wird. Wenn Kunden auch ohne Hyperscaler auskommen, könnte der gesamte Markt im Nachhinein ziemlich töricht wirken
    • Wenn jemand sagt, eine Fußballmannschaft liege zur Halbzeit vorne, würdest du dann antworten: „Nein, sie gewinnt nicht, sie führt nur“?
    • Vorne zu liegen ist nur dann bedeutsam, wenn es ein Winner-takes-all-Markt ist. Aber aus Gründen der nationalen Sicherheit kann AI kein Winner-takes-all-Markt werden
      Ich denke, je besser AI wird, desto austauschbarer wird sie. Sie könnte etwas Wertvolles werden wie Strom. Viele Unternehmen verdienen Geld mit Strom, aber nicht in dem Ausmaß, das sich Investoren derzeit erhoffen
    • Mark Cuban sagte in einem jüngsten Interview, Unternehmen hätten Angst davor, dass am Ende nur eines übrig bleibt. So ähnlich wie es im Internetwerbemarkt faktisch nur ein Unternehmen gibt, wollen sie genau dieses eine werden
      Ob am Ende wirklich nur eines übrig bleibt, ist diskutabel, aber laut Cuban handeln sie zumindest mit genau dieser Denkweise
  • Früher gab es so etwas wie Gewinn und Rendite auf Investitionen
    Wenn die Exit-Strategie darin besteht, an Google verkauft zu werden, ist es eine akzeptable Strategie, sich auf Umsatz zu konzentrieren. Aber wenn man selbst Google ist, muss das hineingepumpte Geld irgendwann wieder hereinkommen. Das scheinen wir vergessen zu haben
    Das derzeitige Niveau der Kommerzialisierung bedeutet nur, dass die USA Investitionen schneller verbrennen als alle anderen. Das kann sich irgendwann ändern und die Wette aufgehen, aber mit jeder weiteren Minute in diesem Zustand müsste die erwartete Rendite groß genug werden, um den Verlust dieser Minute plus die Zinsen auf die vorherige Zeit zu decken. Ich bin nicht sicher, ob das nach „gewinnen“ aussieht. TikTok

  • Der langfristige Gewinner wird derjenige sein, der bei lokalen Modellen die beste Performance bei niedrigem Speicherverbrauch bietet
    Anthropic, OpenAI und Mistral sind derzeit nur Unternehmen, die Geld einnehmen, aber noch nicht profitabel sind und langfristig an Zugkraft und Wert verlieren werden
    Spannender finde ich allerdings, wie sich das OpenCode-Go-Abo entwickeln wird. Es ist billiger als Big Tech, bietet mehr Tokens und trainiert nach eigener Aussage nicht mit unseren Daten, nur um Verbesserungen zu versuchen

    • Claude ist gut, weil es mit Benutzer-Chatverläufen und Anwendungsfällen Reinforcement Learning betreibt; nicht mit Daten zu trainieren ist daher kein Vorteil, sondern ein Nachteil
      Die Zeit des Trainings nur auf öffentlichen Daten ist vorbei. Auf diese Daten hat jeder Zugriff, aber Frontier-Modelle gibt es nur wenige
    • Lokale Modelle können nicht mit großen aktuellen Modellen konkurrieren. Das ist so, als würde ein iPhone mit einem Supercomputer konkurrieren, der Nuklearsimulationen durchführt
      Die beiden Pfade werden auseinanderlaufen. Aktuelle Modelle werden so teuer im Betrieb, dass sie am Ende womöglich nur noch für staatliche Akteure zugänglich sind. Bei Mythos hat das bereits begonnen
    • Mistral? Dieser „Umsatz“ scheint etwa bei 1/150 von OpenAI und Anthropic zu liegen
  • Die einfachste Erklärung dafür, dass die USA gewinnen, ist aus meiner Sicht, dass sie am meisten Geld hineinwerfen. Und zwar mit riesigem Abstand

    • Sie werfen nicht nur Geld hinein, es ist fast so, als würden sie Geld in Existenz drucken
      Die zirkulierenden Schuldscheine zwischen AI-Firmen und Hyperscalern sind Schulden, also eine Form von Geldschöpfung. Natürlich fließt auch viel anderes reales Geld hinein, aber mit Geld zu investieren, das eigentlich nicht existiert, ist immer ein enormes Risiko
    • Vielleicht verstehe ich Kapitalismus nicht richtig, aber sollte es nicht eigentlich heißen: „Es gewinnt, wer den meisten Gewinn macht“? Wenn schon Ausgaben allein zum Sieg reichen, müsste man wohl die Parameter kapitalistischer Märkte neu einstellen
  • Nein, die USA gewinnen nicht. Es sieht nur so aus, weil im Westen die Nutzung chinesischer Modelle für arbeitsbezogene Zwecke verboten ist

    • Genau. Viele wissen gar nicht, dass GLM 5.1 und Kimi 2.6 qualitativ wirklich sehr nah an Frontier-Modellen sind. Es gibt auch Minimax 2.7, DeepSeek 4, Qwen, Xiaomi 2.5 Pro und andere
      China liegt bei Open-Source-Frontier-Modellen vorn, deshalb verstehe ich nicht, wie die USA diesen Wettbewerb gewinnen sollen. Ab einem gewissen Punkt werden Unternehmen und Privatleute ihre eigenen Modelle in der Cloud und lokal betreiben, und dann werden chinesische Modelle überall sein
    • Soweit ich weiß, sind nicht die Modelle verboten, sondern die Plattformen
      Zum Beispiel ist es in Ordnung, deepseek-r1-distill-qwen-7b selbst zu hosten und auszuführen. Die DeepSeek-App herunterzuladen und auf einem Arbeitsgerät laufen zu lassen, wird von denjenigen, die solche Verbote erlassen, hingegen nicht akzeptiert
    • Weil in China gehostete Modelle nicht als vertrauenswürdig gelten. Auch das ist zu 100 % ein Bestandteil von Kommerzialisierung
    • Gibt es harte Belege dafür, dass diese Modelle westliche Modelle qualitativ übertreffen können? Oder geht es eher darum, dass sie durch Verbote weder genug Trainingsdaten noch genug Sichtbarkeit bekommen, um wirklich konkurrieren zu können?
    • Wenn Dinge wie Qwen breiter nutzbar werden, heißt das dann wirklich, dass sich die strategische Position der USA verändert? Die USA haben die besten Modelle und besitzen außerdem die Unternehmen, die die beste Infrastruktur und die Hyperscaler bauen
      „Ach, jetzt kann ich auch Qwen nutzen?“ klingt für mich nicht nach einem schweren Schlag gegen die USA
  • Aus der Distanz betrachtet ergibt diese Behauptung keinen Sinn. Anthropic, OpenAI, xAI, Google, Meta und Microsoft machen mit ihren AI-Sparten alle keinen Gewinn und halten sich mit Geld der Mutterkonzerne oder der Investoren über Wasser, insbesondere mit Investorengeld, während sie Verluste schreiben
    Chinesische Modelle holen auf, bieten ihre Modelle kostenlos an, laufen auf Consumer-Hardware und werden, noch wichtiger, billiger trainiert. AI-Modelle sind extrem volatile Produkte, die innerhalb weniger Wochen veralten können. Am Ende muss man fortwährend Ressourcen in immer bessere Modelle stecken, ohne ein anderes Ziel als endlose Skalierung
    Das tatsächliche Nutzerverhalten endet schlicht bei „Gemini ist bei XYZ schlechter als Claude, also nutze ich es nicht“. Wenn Gemini-Modelle schlechter werden, gehen die Leute zu Anthropic. Und was passiert dann, wenn das Modell von Anthropic schlechter wird als die anderen? Was bringt gute Kommerzialisierung, wenn das Produkt objektiv schlechter ist
    Ich verstehe schon, dass die USA Vertrieb, Integrationen, Enterprise-Verträge, Ökosysteme und Infrastruktur dominieren. Der Artikel liegt nicht völlig falsch, aber diese Dominanz ist fragil und verlangt kontinuierliche Upgrades
    Wenn der Gegner ständig direkt hinter einem ist und man unendlich skalieren muss, nur um nicht überholt zu werden, was bedeutet das dann überhaupt? Unendliche Skalierung ist unmöglich, und das VC-Geld wird irgendwann versiegen. Dann werden alle zurückschalten müssen, um die realen Kosten der neuesten Modelle tragen zu können, und versuchen müssen, diese enormen Kosten über Abos oder andere Monetarisierung hereinzuholen. Wir haben bereits gesehen, wie SORA gestoppt wurde, weil es zu schnell Geld verbrannte, während China in derselben Zeit eine Reihe deutlich besserer Videomodelle veröffentlicht hat
    Die Integration von Modellen in andere Produkte ist ebenfalls zentral, und auch hier holt Open Source auf und wird vermutlich irgendwann vorbeiziehen, wenn das VC-Geld versiegt

    • Für die Aussage „Sie machen mit ihren AI-Sparten keinen Gewinn“ braucht es Belege
      Berichten zufolge sind sie bei Inference profitabel, und das VC-Geld fließt in den Bau von Rechenzentren, um mehr Inference zu fahren. Abo-Modelle für Coding liegen im Schnitt vielleicht nur bei Break-even, aber das Geld steckt in den APIs
      Auch die Behauptung, chinesische Modelle liefen auf Consumer-Hardware, ist überzogen. Niemand betreibt ein 1.6T-Token-Modell wie DeepSeek v4 auf Consumer-Hardware
      Die Trainingskosten sind ebenfalls nicht so viel niedriger als bei US-Modellen. Chinesische Big-Tech-Konzerne subventionieren das Training, und die Modelle sind etwas billiger, weil sie kleiner und schwächer sind als die 5T- und 10T-Modelle der US-Frontier-Labore. Die US-Labore geben auch Geld für vielfältigere Reinforcement-Learning-Daten aus, und dieser Unterschied zeigt sich in verschiedenen Benchmark-Leistungen
      Das Beispiel Sora bestätigt eher die Aussage des Artikels. OpenAI hat Sora nicht eingestellt, sondern nur die Abo-Version und dieses merkwürdige soziale Netzwerk aufgegeben; per API ist es weiterhin verfügbar
      Chinesische Videomodelle sind ebenfalls API-Modelle, und so wie LLMs für US-Frontier-Labore profitabel sein können, könnten sie es auch für diese Anbieter sein. Die Preise für Videomodelle stehen unter [1]; die Spanne ist groß, aber Google Veo und OpenAI Sora liegen preislich in einer ähnlichen Größenordnung wie chinesische Modelle
      [1] https://openrouter.ai/models?output_modalities=video
    • Ohne Destillation aus größeren Modellen wären chinesische Modelle bei einem Niveau von GPT-2 oder 3 stehen geblieben
  • Das Interessante, das Anthropic gemacht hat, ist, seinen Stack auf mehrere Cloud-Anbieter zu legen. Zuerst auf AWS, und zwar in einem Umfang, wie man ihn bisher kaum von einem großen AI-Anbieter gesehen hat; daher frage ich mich, ob als Nächstes auch GCP und Azure folgen
    Wenn ein Unternehmen seinen eigenen Claude-Stack so wie einen ELK-Stack in seiner eigenen Cloud haben kann, muss OpenAI wirklich aufholen, falls das auch auf Azure und GCP möglich wird
    Persönlich würde ich lieber mehr AI nutzen, die auf Infrastruktur läuft, die ich selbst bezahle. Bei Ausfällen ist man dann isolierter, und man kann leichter auf eine andere Region oder ein anderes Rechenzentrum ausweichen
    Es überrascht mich weiterhin, dass Microsoft oder Amazon ihre eigenen Modelle in ihren Cloud-Produkten nicht viel offensiver anbieten. Microsoft hätte Phi doch sicher hochladen können, stellt es aber nicht prominent heraus. Gerade bei Dingen wie Copilot for Devs könnte man mit einem Modell wie Phi günstigere Rechenleistung einsetzen; außerdem müsste Microsoft Copilot wohl schon vom Namen her neu ordnen, damit klarer wird, was Copilot überhaupt bedeutet

    • Der jüngste Vertrag mit SpaceX AI ist ziemlich aufschlussreich, weil es dabei darum geht, stark ungenutzte GPU-Rechenleistung zu verwerten
      Compute zu platzieren ist ein Hardwareproblem, aber für gute Modelle braucht es mehr als Compute, nämlich gute AI-Ingenieure. SpaceX, Amazon und andere sind vielleicht exzellent in Hardware, aber nicht im selben Maß in AI-Engineering
    • Claude kann bereits auf Azure und GCP genutzt werden
      https://azure.microsoft.com/en-us/blog/introducing-anthropic...
      https://docs.cloud.google.com/gemini-enterprise-agent-platfo...
      Claude ist auch schon seit Langem auf AWS Bedrock verfügbar
      Die neue Ankündigung der „Claude Platform“ betrifft nicht den direkten Betrieb über Bedrock, sondern eine von Anthropic auf AWS betriebene Version. Den Unterschied sieht man hier: https://platform.claude.com/docs/en/build-with-claude/claude...
      Auch der Wunsch, es auf eigener bezahlter Infrastruktur laufen zu lassen, wird bei Claude schon seit geraumer Zeit erfüllt
      Einer der Gründe, warum OpenAI sich von Microsoft gelöst hat, war auch, auf AWS angeboten werden zu können. Man sah dort offenbar erhebliche Nachfrage, und die Exklusivität für Azure war ein Bremsklotz
    • Claude ist bereits auf Vertex – https://docs.cloud.google.com/vertex-ai/generative-ai/docs/p...