Apples zufälliger Burggraben: Warum der „AI-Verlierer“ zum Gewinner werden könnte
(adlrocha.substack.com)- Da sich die Kommodifizierung von AI-Intelligenz beschleunigt, befindet sich ausgerechnet Apple in einer vorteilhaften Position, während alle Unternehmen in den Wettbewerb um das beste Modell einsteigen und Apple enorme Cash-Reserven anhäuft
- Bei OpenAI wird trotz einer Bewertung von $300B das Risiko von Infrastrukturinvestitionen ohne tragfähiges Erlösmodell real: etwa durch die Einstellung des Sora-Dienstes und die Absage von Stargate Texas
- Dank 2,5 Milliarden aktiver Geräte und einer On-Device-Verarbeitungsarchitektur verfügt Apple über einen Burggraben aus persönlichen Kontextdaten und datenschutzorientiertem Design
- Das Open-Weights-Modell Gemma 4 zeigt eine Leistung auf dem Niveau von Claude Sonnet 4.5 Thinking, und die Modelllücke schrumpft rapide auf ein Niveau, auf dem solche Modelle sogar auf Laptops laufen können
- Die Unified-Memory-Architektur von Apple Silicon ermöglicht die lokale Ausführung großer Modelle und schafft mit dem MLX-Framework eine Grundlage für die Erweiterung des Ökosystems
- Ob Strategie oder Zufall: Apple hat sich auf Basis einer für das AI-Zeitalter optimierten Hardware- und Softwareplattform bereits einen neuen Wettbewerbsvorteil gesichert
Apples „zufälliger Burggraben“ nach der „Niederlage“ im AI-Wettbewerb
- Im Trend zur Kommodifizierung von Intelligenz entsteht eine Struktur, in der Wettbewerbermodelle umso schneller aufholen, je bessere Modelle Unternehmen entwickeln
- Durch große Investitionen ins Training sinken die Kosten früherer Modellgenerationen, und die Lücke zwischen Frontier-Modellen und Open-Source-Modellen schrumpft rasant
- Neuere offene Modelle wie Gemma4, Kimi K2.5 und GLM 5.1 haben ein Niveau erreicht, auf dem sie auch auf persönlicher Hardware gut lauffähig sind
- OpenAI und andere kämpfen dagegen mit gewaltigen Kostenstrukturen und instabilen Erlösmodellen, was Zweifel an ihrer Nachhaltigkeit aufwirft
- Diese Veränderung spielt Apple in die Hände, obwohl das Unternehmen als „AI-Verlierer“ galt
- Apple hatte Siri früher als alle anderen, wurde seit dem Start von ChatGPT aber als „AI-Verlierer“ eingestuft, weil weder ein Flaggschiff-Frontier-Modell noch Zusagen für Compute-Investitionen im Umfang von $500B vorliegen
- Während andere AI-Labs und Big-Tech-Konzerne enorme Summen ausgeben, um bei den neuesten Benchmarks auf Platz 1 zu stehen, häuft Apple ungenutztes Cash an und erweitert sogar die Aktienrückkäufe, wodurch sich die eigenen Optionen vergrößern
OpenAIs übermäßige Ausgaben und Risiken
- OpenAI nahm Kapital bei einer Bewertung von $300B auf, betrieb den Videodienst Sora dann bei täglichen Kosten von rund $15M gegenüber Erlösen von $2.1M und stellte den Dienst schließlich ein
- Disney wollte für die Erstellung von Inhalten mit Marvel-, Pixar- und Star-Wars-Charakteren einen 3-Jahres-Lizenzvertrag für Sora abschließen und zudem eine Beteiligungsinvestition von $1B in OpenAI vorantreiben, doch mit der Sora-Einstellung platzte auch die $1B-Investition
- Bei der Infrastruktur unterzeichnete OpenAI mit Samsung und SK Hynix unverbindliche Absichtserklärungen über bis zu 900.000 DRAM-Wafer pro Monat (rund 40 % der weltweiten Produktion)
- Micron reagierte auf dieses Nachfragesignal, schloss die 29 Jahre alte Verbraucherspeichermarke Crucial und schwenkte auf AI-Kunden um, doch mit der Absage von Stargate Texas verschwand die Nachfrage, worauf die Micron-Aktie abstürzte
- Unabhängig von Benchmark-Ergebnissen oder Infrastrukturgröße kann man durch einen kleinen Fehler bei den erwarteten Erlösen aus dem Spiel fliegen
Von Intelligenz zu Fähigkeiten
- Die zentrale Annahme der AI-Labs war, dass rohe Modellfähigkeit (Intelligenz) und die dafür nötige Infrastruktur knappe Ressourcen bleiben würden, doch weniger leistungsstarke Modelle wachsen rasch auf das Niveau früherer Frontier-Modelle heran
- Googles Open-Weights-Modell Gemma 4 läuft auf Smartphones, erreicht 85,2 % bei MMLU Pro und liegt im Arena-Leaderboard auf dem Niveau von Claude Sonnet 4.5 Thinking
- In der ersten Woche wurden 2 Millionen Downloads erreicht
- Ein Modell, das vor 18 Monaten noch SOTA war, kann heute auf einem Laptop laufen und verbessert sich quartalsweise weiter
- Beim direkten Ausführen von Gemma 4 auf AMD Ryzen AI Max+ zeigten sich hohe Token-pro-Sekunde-Werte und starke Intelligenz, sodass das Backend eines persönlichen Tools ohne Qualitätsverlust bei der Ausgabe auf dieses Modell umgestellt wurde
- Anthropic erkennt diesen Trend und bringt mit Claude Code, Claude Cowork und Claude Managed Sessions schnell praktische Tools auf den Markt, um Nutzer im eigenen Ökosystem einzuschließen
- Die Kernlogik: Wenn das Modell selbst keinen Burggraben bildet, muss man die Usage-Layer kontrollieren und die Wechselkosten erhöhen
- Einer Analyse zufolge verbrauchen Max-Abonnenten ($200) Compute im Wert von $27.000, was darauf hindeutet, dass die Labs die Nachfrage durch Subventionen stützen
- Apple gibt fast nichts für AI-Infrastruktur oder die Subventionierung des Token-Verbrauchs von Nutzern aus und besitzt dadurch größere Optionen und mehr Hebel als andere Unternehmen
Kontext ist die entscheidende Ressource
- Wenn Intelligenz reichlich vorhanden ist, wird Kontext zur knappen Ressource
- Ein Modell, das zwar alles schlussfolgern kann, aber nichts über den Nutzer weiß, ist nur ein allgemeines Werkzeug
- Damit AI im Alltag wirklich nützlich ist, braucht es Schlussfolgerungsfähigkeit plus persönlichen Kontext (Nachrichten, Kalender, Code, Gesundheitsdaten, Fotos, Gewohnheiten usw.)
- Apple besitzt diesen Kontext bereits über 2,5 Milliarden aktive Geräte
- Gesundheitsdaten der Apple Watch, iPhone-Fotos, Notizen, Nachrichten, Standortverläufe, App-Verhalten, E-Mails und Umgebungswahrnehmung über Gerätesensoren
- Durch On-Device-Verarbeitung kann eine Struktur entstehen, in der dem Modell der gesamte Kontext bereitgestellt wird, ohne Daten vom Gerät wegzuschicken
- Das Positioning „Privacy. That's iPhone“ kann sich von bloßer PR zu einem zentralen Wertversprechen entwickeln
- Es ist ein grundlegend anderer Fall, OpenAI Krankenakten und 15 Jahre Fotos zu übergeben, als einem Modell Zugriff zu geben, das ausschließlich auf dem Gerät arbeitet
- Apples Gemini-Deal mit Google ($1B) ist für Anfragen gedacht, die Cloud-Scale-Inferenz brauchen, und die Kosten liegen im Vergleich zu OpenAIs wöchentlichen Compute-Kosten nur auf Rundungsniveau
- Was Apple intern behalten hat: die Kontextschicht, den On-Device-Stack und das Betriebssystem, das alles vermittelt
Warum Apple Silicon gut für AI geeignet ist
- Wie der Mac-Mini-Boom nach dem Start von OpenClaw zeigt, wurde Apple Silicon zwar nicht für AI entwickelt, sondern für Effizienz, Akku, thermische Leistung und integriertes Hardware-/Software-Design, erwies sich aber als optimale Architektur für die lokale Modellausführung
- Zentrales Designelement: Unified Memory
- In klassischen Architekturen bestehen CPU und GPU aus separaten Chips mit getrennten Speicherpools, wodurch Datenbewegung langsam und energieintensiv ist
- Nvidia-GPUs sind bei Matrixoperationen schnell, doch die Datenübertragung zwischen CPU und GPU über den PCIe-Bus ist ein Engpass
- Apples M-Serie/A-Serie platziert CPU, GPU und Neural Engine auf demselben Die und lässt sie einen gemeinsamen High-Bandwidth-Speicherpool teilen, ohne Bus-Kreuzungen, Transfer-Overhead oder Latenz
- LLM-Inferenz ist derzeit nicht durch Compute, sondern durch Speicherbandbreite limitiert
- Entscheidend ist, wie schnell Modellgewichte aus dem Speicher zu den Recheneinheiten gestreamt werden können und wie groß der Speicher für den KV-Cache ist
- Apples Unified-Memory-Pool bietet allen Recheneinheiten gleichzeitig direkten Zugriff mit hoher Bandbreite
- Die Technik LLM in a Flash wirkt auf Apple-Hardware besonders gut
- Auf einem M3 Max Mac wurde Qwen 397B (209-GB-Modell) mit nur 5,5 GB aktivem RAM bei ~5,7 Token/s ausgeführt
- Die Gewichte wurden auf einer SSD gespeichert und mit ~17,5 GB/s gestreamt; dank der MoE-Architektur (Mixture-of-Experts) aktiviert jedes Token nur einen Teil der Expertenschichten
- Für diese Ausführung wurden ~5.000 Zeilen Objective-C und Metal-Shader von Claude geschrieben
Plattformdynamik und die Ubiquität des App Store
- Wie beim App Store hat Apple nicht selbst die Apps gemacht, sondern eine Plattform aufgebaut, auf der Apps am besten laufen, worauf das Ökosystem folgte
- Entwickler zielen nicht auf iOS, weil Apple darum bittet, sondern wegen der Nutzerbasis, der Tools und der konsistenten Hardware
- Bei lokaler Inferenz könnte dasselbe passieren
- MLX entwickelt sich bereits zum De-facto-Standard-Framework für On-Device-AI
- Wichtige Modellarchitekturen wie Gemma, Qwen und Mistral unterstützen MLX
- Auch ohne den Modellwettbewerb zu gewinnen, könnte Apple zur De-facto-Plattform werden, auf der Modelle (oder Agenten) laufen
- Der virale OpenClaw-Effekt und der anschließende Mac-Mini-Boom zeigen dieses Potenzial
Strategie oder Glück?
- Apples Strategie des integrierten Hardware-/Software-Designs war über Jahre ein Kernfokus; auch das Privacy-Positioning, der Fokus auf On-Device-Verarbeitung und die Entscheidung für eigenes Silicon, als die Branche noch von Nvidia und Intel abhing, waren kommerziell riskante Entscheidungen
- Diese Entscheidungen wurden nicht wegen AI, sondern aus Kosten- und Governance-Gründen getroffen, wirken nun aber im AI-Zeitalter vorteilhaft
- Was Apple womöglich nicht vorhergesehen hat:
- Dass sich die Unified-Memory-Architektur perfekt für LLMs eignet
- Dass sich Open-Weights-Modelle so schnell weiterentwickeln würden
- Dass das Streaming von 400B-Parameter-Modellen von SSDs in der Praxis tatsächlich funktioniert
- Ein Teil davon ist Glück, aber die Art von Glück, die Unternehmen mit dem richtigen Fundament trifft
- Während der Rest der Branche drei Jahre lang auf den Wettbewerb um das beste Modell fixiert war, beobachtete Apple von der Seitenlinie aus, wie sich die eigenen Geräte und das eigene Ökosystem in diese Zukunft einfügen würden
- Unvollständigkeiten wie die Grenzen von Siri bleiben bestehen, doch
- 2,5 Milliarden Geräte, voller persönlicher Kontext, lokal laufende Modelle auf dediziertem Silicon und Gemini auf Abruf für komplexe Anfragen
- eine auf variablen Kosten statt auf fixem CAPEX basierende Inferenzstruktur scheint in einer Ära allgegenwärtiger AI kaum eine nachteilige Position zu sein
- Letztlich ist es gut möglich, dass Apple auch in einer AI-zentrierten Zukunft eine wichtige Rolle behält
- Ob Strategie oder Zufall: Entscheidend ist, dass das Unternehmen auf dem richtigen Fundament steht
5 Kommentare
Irgendwie ist das ziemlicher Unsinn.
Gerade jetzt liefern sich die AI-Modellfirmen einen ruinösen Wettbewerb, und die Aussage ist dann, dass Apple, das gar nichts gemacht hat, dadurch riesig profitiert, oder was?
Das liegt doch nur daran, dass wir uns momentan in einer Phase überzogener Konkurrenz bei LLM-Modellen befinden. Wenn sich AI-Modelle in einer stabilisierten Wachstumsphase befänden, würde Meta dann etwa aus reiner Verrücktheit Gemma veröffentlichen?
Das Know-how, das man in der Zeit beim Entwickeln und Betreiben von Modellen aufgebaut hat, wird dann zu Gold und Diamanten.
Meta -> Google
Wenn man sich Apples Ausgaben ansieht, bleibt das Unternehmen offenbar nicht einfach untätig. Es ist schon ein Unternehmen, das gute Voraussetzungen hat, um Physical AI zu verwirklichen ... Selbst Nvidia bewegt sich am Ende in Richtung Physical AI ... Dass Google all das besitzt, ist schon beeindruckend.
Ich denke, es geht eher darum, dass personalisierte Daten in der nächsten AI-Ära letztlich ein wichtiger Burggraben sein werden, und dass Apple dabei im Vorteil ist, weil es diese bereits besitzt.
Apple, MLX, nur Mut!
Hacker-News-Kommentare
Meiner Meinung nach ist Gemma4 gut bei codebezogener Hilfe oder Fehlervorschlägen, aber es fehlt an komplexer Tool-Nutzung und an Kontextverständnis auf Expertenniveau
Wenn es noch ein paar Mal verbessert wird und etwa bei Gemma6 auf dem heutigen Opus-Niveau komplett lokal auf dem Mac laufen würde, gäbe es kaum noch einen Grund, Cloud-Modelle zu verwenden
Gerade habe ich gesehen, dass in Ollama 0.20.6 die Tool-Calling-Funktion von Gemma4 verbessert wurde. Ich werde es nach dem Frühstück noch einmal testen
Mehrere Anbieter hosten dasselbe Modell und liefern sich einen Preis-Leistungs-Wettbewerb, wodurch auch das Monopolrisiko sinkt
Auf meinem Gerät habe ich Gemma, also kann ich private Gespräche oder nicht programmierbezogene Aufgaben vollständig offline erledigen
In so einer Situation würden OpenAI oder Anthropic vielleicht alle möglichen unethischen Tricks versuchen, um Kunden-Lock-in zu erzeugen, aber am Ende wird das nicht funktionieren
Ich denke, die Unternehmensbewertung von OpenAI ging von der Annahme aus, dass AI wie Suche funktionieren würde
Bei der Suche war es aber so, dass sich das Produkt verbesserte, je mehr Anfragen Nutzer stellten, und Google war lange Zeit wirklich das beste Produkt
Bei AI hingegen sind Training und Inferenz getrennt, und nach den internen Spaltungen haben Wettbewerber bei OpenAI schnell aufgeholt
Jetzt ist daraus ein Abnutzungskampf geworden, in dem man Milliarden von Dollar verbrennen muss, um überhaupt konkurrenzfähig zu sein, und je kleiner die Unterschiede zwischen den Modellen werden, desto mehr entscheidet Distribution
Google, Meta, MSFT und Amazon können das leisten, OpenAI fehlt dafür aber die Finanzkraft
Es gab große Erwartungen, dass es Unternehmensautomatisierung und sogar einen Ersatz für Social Media umfassen könnte, und dazu kam noch der unsichere Zukunftswert der Möglichkeit von AGI
Die Rolle von Sam Altman besteht darin, diese Erwartungen aufzublähen und den Investitionswert zu maximieren
Auch Apples Partnerschaft mit Google wirkt wie Teil derselben Entwicklung
Apple hat immer eine „abwarten und dann springen“-Strategie verfolgt
Während andere Unternehmen durch Versuch und Irrtum gehen, erkennt Apple die Grenzen der Technologie und führt dann den Markt mit ausgereiften Produkten an
In ein paar Jahren könnten sie ein wirklich ausgereiftes Produkt herausbringen
Trotzdem benutze ich ein iPhone, weil ich meine persönlichen Daten nicht Google anvertrauen will
Apple ist kein Chatbot-Schaukasten für Investoren, sondern ein Unternehmen mit Fokus auf Consumer-Hardware
Das iPhone und künftige AR-Brillen sind der Kern, und das dafür nötige On-Device-Machine-Learning ist der Grund für das Chipdesign
Es gibt keinen Grund, ein Konkurrenzprodukt zu OpenAI zu bauen
Als andere Unternehmen VR aufgaben und auf AI umschwenkten, verstand ich nicht, warum Apple stattdessen ein VR-Headset herausbrachte
Dazu kamen der hohe Preis, der Mangel an Entwicklern und der späte Einstieg in AI
Wenn AR-Brillen richtig umgesetzt werden, werden sie eine riesige Plattform sein, und Apple scheint auf den Zeitpunkt zu zielen, nach einem Scheitern von Meta aufzutreten
Am besten ist, dass alles lokal ausgeführt wird. Die Daten gehen nicht nach außen
Ich glaube auch, dass Kreative Apple AI gegenüber wohlwollender wären. Es nutzt ethisch beschaffte Trainingsdaten und fühlt sich ohne Abo eher wie persönlicher Besitz an
Seit Sequoia habe ich Siri deaktiviert, und ich mag, dass Apple mich nicht zwingt, es wieder einzuschalten
Dagegen nerven JIRA oder Slack, weil sie jedes Mal neue AI-Funktionen einblenden
Selbst bei Apple fühlt es sich nach einer Grenzüberschreitung an, dass im App Store gesponserte Anzeigen ganz oben eingeblendet werden
Auf Android gibt es Alternativen wie F-Droid, aber auf iOS ist das schwer zu vermeiden
Amazon, Uber, Google Workspace und andere zwingen einem AI auf ähnliche Weise auf
Ich will nur einfache Sequoia-Patches, aber standardmäßig ist immer Tahoe ausgewählt
Sogar die Claude-Code-Integration in Xcode ist nur für Tahoe verfügbar, was unsinnig ist
Das MacBook Neo gerade jetzt zu bringen, ist eine ausgezeichnete Strategie
Während Apple den AI-Wettbewerb beobachtet, bindet es damit die nächste Nutzergruppe an das eigene Ökosystem
Neo fühlt sich wie der iPod dieser Generation an
Nvidia beschränkt Gamer-GPUs, damit sie nicht in Rechenzentren eingesetzt werden,
und wenn Apple den Markt für lokale AI bedroht, könnten sie vielleicht eigene AI-Karten für Verbraucher herausbringen
Vielleicht erleben wir eine Zukunft, in der derselbe Chip je nach Einsatzzweck preislich differenziert verkauft wird
Wenn die NPU-Leistung Intel und AMD übertrifft und eine GPU auf RTX-5070-Niveau in ein dünnes Formfaktor integriert werden kann, wird sich die Struktur von Gaming-Laptops selbst verändern
Consumer-Modelle sind billiger, haben aber weniger und langsameren Speicher
Apple ist nicht in den LLM-Wettlauf eingestiegen. Ihre Stärke ist menschenzentriertes Design
Der iPod war auch nicht der erste MP3-Player, und das iPhone hatte anfangs kein 3G, war aber trotzdem erfolgreich
Apple hat sich auf Energieeffizienz und Unified Memory konzentriert, und das ist ein Design mit Blick auf zukünftige Produkte wie AR-Brillen
Was NVidia oder Intel allein nicht leisten können, hat Apple durch integriertes Design von Chip, Speicher und SSD vorbereitet
Wie damals bei der Einführung von 64-Bit-ARM unterschätzen viele auch heute wieder die Bedeutung davon
Nvidia-GPUs haben zwar die zwei- bis dreifache Leistung, verbrauchen aber zehnmal so viel Strom
Apple konkurriert über Effizienz pro Preis und ist optimal für lokale LLM-Anwendungen, bei denen Unmittelbarkeit, persönlicher Einsatz und Privatsphäre entscheidend sind