8 Punkte von GN⁺ 16 일 전 | 5 Kommentare | Auf WhatsApp teilen
  • Da sich die Kommodifizierung von AI-Intelligenz beschleunigt, befindet sich ausgerechnet Apple in einer vorteilhaften Position, während alle Unternehmen in den Wettbewerb um das beste Modell einsteigen und Apple enorme Cash-Reserven anhäuft
  • Bei OpenAI wird trotz einer Bewertung von $300B das Risiko von Infrastrukturinvestitionen ohne tragfähiges Erlösmodell real: etwa durch die Einstellung des Sora-Dienstes und die Absage von Stargate Texas
  • Dank 2,5 Milliarden aktiver Geräte und einer On-Device-Verarbeitungsarchitektur verfügt Apple über einen Burggraben aus persönlichen Kontextdaten und datenschutzorientiertem Design
  • Das Open-Weights-Modell Gemma 4 zeigt eine Leistung auf dem Niveau von Claude Sonnet 4.5 Thinking, und die Modelllücke schrumpft rapide auf ein Niveau, auf dem solche Modelle sogar auf Laptops laufen können
  • Die Unified-Memory-Architektur von Apple Silicon ermöglicht die lokale Ausführung großer Modelle und schafft mit dem MLX-Framework eine Grundlage für die Erweiterung des Ökosystems
  • Ob Strategie oder Zufall: Apple hat sich auf Basis einer für das AI-Zeitalter optimierten Hardware- und Softwareplattform bereits einen neuen Wettbewerbsvorteil gesichert

Apples „zufälliger Burggraben“ nach der „Niederlage“ im AI-Wettbewerb

  • Im Trend zur Kommodifizierung von Intelligenz entsteht eine Struktur, in der Wettbewerbermodelle umso schneller aufholen, je bessere Modelle Unternehmen entwickeln
    • Durch große Investitionen ins Training sinken die Kosten früherer Modellgenerationen, und die Lücke zwischen Frontier-Modellen und Open-Source-Modellen schrumpft rasant
    • Neuere offene Modelle wie Gemma4, Kimi K2.5 und GLM 5.1 haben ein Niveau erreicht, auf dem sie auch auf persönlicher Hardware gut lauffähig sind
    • OpenAI und andere kämpfen dagegen mit gewaltigen Kostenstrukturen und instabilen Erlösmodellen, was Zweifel an ihrer Nachhaltigkeit aufwirft
  • Diese Veränderung spielt Apple in die Hände, obwohl das Unternehmen als „AI-Verlierer“ galt
    • Apple hatte Siri früher als alle anderen, wurde seit dem Start von ChatGPT aber als „AI-Verlierer“ eingestuft, weil weder ein Flaggschiff-Frontier-Modell noch Zusagen für Compute-Investitionen im Umfang von $500B vorliegen
    • Während andere AI-Labs und Big-Tech-Konzerne enorme Summen ausgeben, um bei den neuesten Benchmarks auf Platz 1 zu stehen, häuft Apple ungenutztes Cash an und erweitert sogar die Aktienrückkäufe, wodurch sich die eigenen Optionen vergrößern

OpenAIs übermäßige Ausgaben und Risiken

  • OpenAI nahm Kapital bei einer Bewertung von $300B auf, betrieb den Videodienst Sora dann bei täglichen Kosten von rund $15M gegenüber Erlösen von $2.1M und stellte den Dienst schließlich ein
  • Disney wollte für die Erstellung von Inhalten mit Marvel-, Pixar- und Star-Wars-Charakteren einen 3-Jahres-Lizenzvertrag für Sora abschließen und zudem eine Beteiligungsinvestition von $1B in OpenAI vorantreiben, doch mit der Sora-Einstellung platzte auch die $1B-Investition
  • Bei der Infrastruktur unterzeichnete OpenAI mit Samsung und SK Hynix unverbindliche Absichtserklärungen über bis zu 900.000 DRAM-Wafer pro Monat (rund 40 % der weltweiten Produktion)
  • Micron reagierte auf dieses Nachfragesignal, schloss die 29 Jahre alte Verbraucherspeichermarke Crucial und schwenkte auf AI-Kunden um, doch mit der Absage von Stargate Texas verschwand die Nachfrage, worauf die Micron-Aktie abstürzte
  • Unabhängig von Benchmark-Ergebnissen oder Infrastrukturgröße kann man durch einen kleinen Fehler bei den erwarteten Erlösen aus dem Spiel fliegen

Von Intelligenz zu Fähigkeiten

  • Die zentrale Annahme der AI-Labs war, dass rohe Modellfähigkeit (Intelligenz) und die dafür nötige Infrastruktur knappe Ressourcen bleiben würden, doch weniger leistungsstarke Modelle wachsen rasch auf das Niveau früherer Frontier-Modelle heran
  • Googles Open-Weights-Modell Gemma 4 läuft auf Smartphones, erreicht 85,2 % bei MMLU Pro und liegt im Arena-Leaderboard auf dem Niveau von Claude Sonnet 4.5 Thinking
    • In der ersten Woche wurden 2 Millionen Downloads erreicht
    • Ein Modell, das vor 18 Monaten noch SOTA war, kann heute auf einem Laptop laufen und verbessert sich quartalsweise weiter
  • Beim direkten Ausführen von Gemma 4 auf AMD Ryzen AI Max+ zeigten sich hohe Token-pro-Sekunde-Werte und starke Intelligenz, sodass das Backend eines persönlichen Tools ohne Qualitätsverlust bei der Ausgabe auf dieses Modell umgestellt wurde
  • Anthropic erkennt diesen Trend und bringt mit Claude Code, Claude Cowork und Claude Managed Sessions schnell praktische Tools auf den Markt, um Nutzer im eigenen Ökosystem einzuschließen
    • Die Kernlogik: Wenn das Modell selbst keinen Burggraben bildet, muss man die Usage-Layer kontrollieren und die Wechselkosten erhöhen
    • Einer Analyse zufolge verbrauchen Max-Abonnenten ($200) Compute im Wert von $27.000, was darauf hindeutet, dass die Labs die Nachfrage durch Subventionen stützen
  • Apple gibt fast nichts für AI-Infrastruktur oder die Subventionierung des Token-Verbrauchs von Nutzern aus und besitzt dadurch größere Optionen und mehr Hebel als andere Unternehmen

Kontext ist die entscheidende Ressource

  • Wenn Intelligenz reichlich vorhanden ist, wird Kontext zur knappen Ressource
    • Ein Modell, das zwar alles schlussfolgern kann, aber nichts über den Nutzer weiß, ist nur ein allgemeines Werkzeug
    • Damit AI im Alltag wirklich nützlich ist, braucht es Schlussfolgerungsfähigkeit plus persönlichen Kontext (Nachrichten, Kalender, Code, Gesundheitsdaten, Fotos, Gewohnheiten usw.)
  • Apple besitzt diesen Kontext bereits über 2,5 Milliarden aktive Geräte
    • Gesundheitsdaten der Apple Watch, iPhone-Fotos, Notizen, Nachrichten, Standortverläufe, App-Verhalten, E-Mails und Umgebungswahrnehmung über Gerätesensoren
  • Durch On-Device-Verarbeitung kann eine Struktur entstehen, in der dem Modell der gesamte Kontext bereitgestellt wird, ohne Daten vom Gerät wegzuschicken
    • Das Positioning „Privacy. That's iPhone“ kann sich von bloßer PR zu einem zentralen Wertversprechen entwickeln
    • Es ist ein grundlegend anderer Fall, OpenAI Krankenakten und 15 Jahre Fotos zu übergeben, als einem Modell Zugriff zu geben, das ausschließlich auf dem Gerät arbeitet
  • Apples Gemini-Deal mit Google ($1B) ist für Anfragen gedacht, die Cloud-Scale-Inferenz brauchen, und die Kosten liegen im Vergleich zu OpenAIs wöchentlichen Compute-Kosten nur auf Rundungsniveau
    • Was Apple intern behalten hat: die Kontextschicht, den On-Device-Stack und das Betriebssystem, das alles vermittelt

Warum Apple Silicon gut für AI geeignet ist

  • Wie der Mac-Mini-Boom nach dem Start von OpenClaw zeigt, wurde Apple Silicon zwar nicht für AI entwickelt, sondern für Effizienz, Akku, thermische Leistung und integriertes Hardware-/Software-Design, erwies sich aber als optimale Architektur für die lokale Modellausführung
  • Zentrales Designelement: Unified Memory
    • In klassischen Architekturen bestehen CPU und GPU aus separaten Chips mit getrennten Speicherpools, wodurch Datenbewegung langsam und energieintensiv ist
    • Nvidia-GPUs sind bei Matrixoperationen schnell, doch die Datenübertragung zwischen CPU und GPU über den PCIe-Bus ist ein Engpass
    • Apples M-Serie/A-Serie platziert CPU, GPU und Neural Engine auf demselben Die und lässt sie einen gemeinsamen High-Bandwidth-Speicherpool teilen, ohne Bus-Kreuzungen, Transfer-Overhead oder Latenz
  • LLM-Inferenz ist derzeit nicht durch Compute, sondern durch Speicherbandbreite limitiert
    • Entscheidend ist, wie schnell Modellgewichte aus dem Speicher zu den Recheneinheiten gestreamt werden können und wie groß der Speicher für den KV-Cache ist
    • Apples Unified-Memory-Pool bietet allen Recheneinheiten gleichzeitig direkten Zugriff mit hoher Bandbreite
  • Die Technik LLM in a Flash wirkt auf Apple-Hardware besonders gut
    • Auf einem M3 Max Mac wurde Qwen 397B (209-GB-Modell) mit nur 5,5 GB aktivem RAM bei ~5,7 Token/s ausgeführt
    • Die Gewichte wurden auf einer SSD gespeichert und mit ~17,5 GB/s gestreamt; dank der MoE-Architektur (Mixture-of-Experts) aktiviert jedes Token nur einen Teil der Expertenschichten
    • Für diese Ausführung wurden ~5.000 Zeilen Objective-C und Metal-Shader von Claude geschrieben

Plattformdynamik und die Ubiquität des App Store

  • Wie beim App Store hat Apple nicht selbst die Apps gemacht, sondern eine Plattform aufgebaut, auf der Apps am besten laufen, worauf das Ökosystem folgte
    • Entwickler zielen nicht auf iOS, weil Apple darum bittet, sondern wegen der Nutzerbasis, der Tools und der konsistenten Hardware
  • Bei lokaler Inferenz könnte dasselbe passieren
    • MLX entwickelt sich bereits zum De-facto-Standard-Framework für On-Device-AI
    • Wichtige Modellarchitekturen wie Gemma, Qwen und Mistral unterstützen MLX
    • Auch ohne den Modellwettbewerb zu gewinnen, könnte Apple zur De-facto-Plattform werden, auf der Modelle (oder Agenten) laufen
    • Der virale OpenClaw-Effekt und der anschließende Mac-Mini-Boom zeigen dieses Potenzial

Strategie oder Glück?

  • Apples Strategie des integrierten Hardware-/Software-Designs war über Jahre ein Kernfokus; auch das Privacy-Positioning, der Fokus auf On-Device-Verarbeitung und die Entscheidung für eigenes Silicon, als die Branche noch von Nvidia und Intel abhing, waren kommerziell riskante Entscheidungen
    • Diese Entscheidungen wurden nicht wegen AI, sondern aus Kosten- und Governance-Gründen getroffen, wirken nun aber im AI-Zeitalter vorteilhaft
  • Was Apple womöglich nicht vorhergesehen hat:
    • Dass sich die Unified-Memory-Architektur perfekt für LLMs eignet
    • Dass sich Open-Weights-Modelle so schnell weiterentwickeln würden
    • Dass das Streaming von 400B-Parameter-Modellen von SSDs in der Praxis tatsächlich funktioniert
  • Ein Teil davon ist Glück, aber die Art von Glück, die Unternehmen mit dem richtigen Fundament trifft
  • Während der Rest der Branche drei Jahre lang auf den Wettbewerb um das beste Modell fixiert war, beobachtete Apple von der Seitenlinie aus, wie sich die eigenen Geräte und das eigene Ökosystem in diese Zukunft einfügen würden
  • Unvollständigkeiten wie die Grenzen von Siri bleiben bestehen, doch
    • 2,5 Milliarden Geräte, voller persönlicher Kontext, lokal laufende Modelle auf dediziertem Silicon und Gemini auf Abruf für komplexe Anfragen
    • eine auf variablen Kosten statt auf fixem CAPEX basierende Inferenzstruktur scheint in einer Ära allgegenwärtiger AI kaum eine nachteilige Position zu sein
  • Letztlich ist es gut möglich, dass Apple auch in einer AI-zentrierten Zukunft eine wichtige Rolle behält
    • Ob Strategie oder Zufall: Entscheidend ist, dass das Unternehmen auf dem richtigen Fundament steht

5 Kommentare

 
j2sus91 16 일 전

Irgendwie ist das ziemlicher Unsinn.
Gerade jetzt liefern sich die AI-Modellfirmen einen ruinösen Wettbewerb, und die Aussage ist dann, dass Apple, das gar nichts gemacht hat, dadurch riesig profitiert, oder was?

Das liegt doch nur daran, dass wir uns momentan in einer Phase überzogener Konkurrenz bei LLM-Modellen befinden. Wenn sich AI-Modelle in einer stabilisierten Wachstumsphase befänden, würde Meta dann etwa aus reiner Verrücktheit Gemma veröffentlichen?

Das Know-how, das man in der Zeit beim Entwickeln und Betreiben von Modellen aufgebaut hat, wird dann zu Gold und Diamanten.

 
wang3281 15 일 전

Meta -> Google

Wenn man sich Apples Ausgaben ansieht, bleibt das Unternehmen offenbar nicht einfach untätig. Es ist schon ein Unternehmen, das gute Voraussetzungen hat, um Physical AI zu verwirklichen ... Selbst Nvidia bewegt sich am Ende in Richtung Physical AI ... Dass Google all das besitzt, ist schon beeindruckend.

 
sudoeng 16 일 전

Ich denke, es geht eher darum, dass personalisierte Daten in der nächsten AI-Ära letztlich ein wichtiger Burggraben sein werden, und dass Apple dabei im Vorteil ist, weil es diese bereits besitzt.

 
kimjoin2 16 일 전

Apple, MLX, nur Mut!

 
GN⁺ 16 일 전
Hacker-News-Kommentare
  • Meiner Meinung nach ist Gemma4 gut bei codebezogener Hilfe oder Fehlervorschlägen, aber es fehlt an komplexer Tool-Nutzung und an Kontextverständnis auf Expertenniveau
    Wenn es noch ein paar Mal verbessert wird und etwa bei Gemma6 auf dem heutigen Opus-Niveau komplett lokal auf dem Mac laufen würde, gäbe es kaum noch einen Grund, Cloud-Modelle zu verwenden

    • Ich hatte einen ähnlichen Eindruck. Anfangs war ich enttäuscht, weil Gemma4 mit Coding-Agenten schlechter zusammenarbeitete als Qwen3.5, aber für andere Einsatzzwecke war es ziemlich ordentlich
      Gerade habe ich gesehen, dass in Ollama 0.20.6 die Tool-Calling-Funktion von Gemma4 verbessert wurde. Ich werde es nach dem Frühstück noch einmal testen
    • Das hat eine ähnliche Stimmung wie das alte „640k ought to be enough“
    • Wirtschaft ist letztlich Wettbewerb. Jemand kann sich über eine gute Axt freuen, aber andere fahren mit dem Bulldozer. Auch wenn du mit der Axt zufrieden bist, befindest du dich dann außerhalb des Wettbewerbs
    • Dann lag es also nicht nur an mir. Die Qualität von Gemma4 war beeindruckend, aber zusammen mit opencode hat es in 9 von 10 Fällen Änderungen nicht richtig in Dateien geschrieben
    • Ehrlich gesagt sind lokale Modelle im Moment für Hochleistungsaufgaben nicht unbedingt nötig. Bei OpenRouter und ähnlichen Anbietern kann man verschiedene offene Modelle nutzen, und sie sind bereits nahe an SOTA
      Mehrere Anbieter hosten dasselbe Modell und liefern sich einen Preis-Leistungs-Wettbewerb, wodurch auch das Monopolrisiko sinkt
      Auf meinem Gerät habe ich Gemma, also kann ich private Gespräche oder nicht programmierbezogene Aufgaben vollständig offline erledigen
      In so einer Situation würden OpenAI oder Anthropic vielleicht alle möglichen unethischen Tricks versuchen, um Kunden-Lock-in zu erzeugen, aber am Ende wird das nicht funktionieren
  • Ich denke, die Unternehmensbewertung von OpenAI ging von der Annahme aus, dass AI wie Suche funktionieren würde
    Bei der Suche war es aber so, dass sich das Produkt verbesserte, je mehr Anfragen Nutzer stellten, und Google war lange Zeit wirklich das beste Produkt
    Bei AI hingegen sind Training und Inferenz getrennt, und nach den internen Spaltungen haben Wettbewerber bei OpenAI schnell aufgeholt
    Jetzt ist daraus ein Abnutzungskampf geworden, in dem man Milliarden von Dollar verbrennen muss, um überhaupt konkurrenzfähig zu sein, und je kleiner die Unterschiede zwischen den Modellen werden, desto mehr entscheidet Distribution
    Google, Meta, MSFT und Amazon können das leisten, OpenAI fehlt dafür aber die Finanzkraft

    • Der Wert von OpenAI liegt nicht einfach nur im Ersetzen der Suche, sondern in der Möglichkeit, zur Plattform des gesamten Webs zu werden
      Es gab große Erwartungen, dass es Unternehmensautomatisierung und sogar einen Ersatz für Social Media umfassen könnte, und dazu kam noch der unsichere Zukunftswert der Möglichkeit von AGI
      Die Rolle von Sam Altman besteht darin, diese Erwartungen aufzublähen und den Investitionswert zu maximieren
    • Anfang der 2000er gab es weder das Kapital noch die Leute, um Google herauszufordern, aber heute ist der AI-Wettbewerb lebhaft, was Nutzern einen Nettovorteil in Form von Kostensenkung und schneller Entwicklung bringt
    • Ich sehe das ähnlich. Am Ende wird Google durchhalten, während OpenAI und Anthropic wegen Finanzierungsproblemen wahrscheinlich von MSFT oder Amazon übernommen werden
      Auch Apples Partnerschaft mit Google wirkt wie Teil derselben Entwicklung
    • Schade ist, dass Google die Qualität der Suche selbst ruiniert hat. Entscheidungen wie das Entfernen des +-Operators oder politische Zensur sind schwer nachzuvollziehen
    • Für echte Suche scheint RAG-basierte Datenkuratierung effizienter zu sein, als ständig neue Modelle zu bauen
  • Apple hat immer eine „abwarten und dann springen“-Strategie verfolgt
    Während andere Unternehmen durch Versuch und Irrtum gehen, erkennt Apple die Grenzen der Technologie und führt dann den Markt mit ausgereiften Produkten an

    • Genau. Auch diesmal hat Apple mit der Ankündigung von „Apple Intelligence“ den Markt beruhigt, geht aber ohne überzogene Investitionen vorsichtig vor
      In ein paar Jahren könnten sie ein wirklich ausgereiftes Produkt herausbringen
    • Bei Funktionen wie On-Device-OCR und Copy/Paste zeigen sie bereits still und leise Fortschritte
    • Beispiele wie Newton, Pippin und Vision Pro zeigen, dass sich dieses Muster experimenteller Apple-Vorstöße wiederholt
    • Ich weiß nicht, ob es seit dem iPhone 2007 noch ein echtes Produkt mit diesem „Sprung“-Charakter gab. Die Watch kam dem vielleicht am nächsten, aber sicher ist das nicht
    • Meine Eltern nutzen auf Android Dinge wie „Personen aus Fotos entfernen“, während mein iPhone immer noch eher auf dem Niveau „Siri, starte den Timer“ ist
      Trotzdem benutze ich ein iPhone, weil ich meine persönlichen Daten nicht Google anvertrauen will
  • Apple ist kein Chatbot-Schaukasten für Investoren, sondern ein Unternehmen mit Fokus auf Consumer-Hardware
    Das iPhone und künftige AR-Brillen sind der Kern, und das dafür nötige On-Device-Machine-Learning ist der Grund für das Chipdesign
    Es gibt keinen Grund, ein Konkurrenzprodukt zu OpenAI zu bauen

    • Im GJ25 entfallen bei Apple etwa 25 % des Umsatzes auf Services, 50 % auf das iPhone und der Rest auf Hardware. Allein die Services haben ein Volumen von rund 100 Milliarden Dollar
    • AR-Brillen sind eher ein Forschungs- oder Versicherungsprojekt als die zentrale Wette
    • Manche Menschen nutzen das iPhone weniger, weil sie es wirklich wollen, sondern eher, um nicht aus iMessage ausgeschlossen zu sein
  • Als andere Unternehmen VR aufgaben und auf AI umschwenkten, verstand ich nicht, warum Apple stattdessen ein VR-Headset herausbrachte
    Dazu kamen der hohe Preis, der Mangel an Entwicklern und der späte Einstieg in AI

    • Apple steigt immer spät ein, aber vielleicht schaffen sie gerade die Voraussetzungen, den Preis zu senken
    • Ich sehe darin eine Checkpoint-Strategie, um technologisch nicht zurückzufallen. Es geht darum, ein Fundament zur Patentabwehr und zum Schutz der Marke zu legen
    • Hardware braucht Zeit, um zu reifen. Apple hat wahrscheinlich schon 2015–18 Prototypen gebaut
      Wenn AR-Brillen richtig umgesetzt werden, werden sie eine riesige Plattform sein, und Apple scheint auf den Zeitpunkt zu zielen, nach einem Scheitern von Meta aufzutreten
  • Am besten ist, dass alles lokal ausgeführt wird. Die Daten gehen nicht nach außen
    Ich glaube auch, dass Kreative Apple AI gegenüber wohlwollender wären. Es nutzt ethisch beschaffte Trainingsdaten und fühlt sich ohne Abo eher wie persönlicher Besitz an

    • Ich frage mich, warum so viele glauben, dass Kreative AI so sehr hassen
  • Seit Sequoia habe ich Siri deaktiviert, und ich mag, dass Apple mich nicht zwingt, es wieder einzuschalten
    Dagegen nerven JIRA oder Slack, weil sie jedes Mal neue AI-Funktionen einblenden

    • Ich hasse diese Haltung von Unternehmen, neue Funktionen wie Lärm aufzudrängen. Aber noch mehr hasse ich Werbung in Produkten, für die man bezahlt
      Selbst bei Apple fühlt es sich nach einer Grenzüberschreitung an, dass im App Store gesponserte Anzeigen ganz oben eingeblendet werden
      Auf Android gibt es Alternativen wie F-Droid, aber auf iOS ist das schwer zu vermeiden
    • Aus genau diesem Grund habe ich Google Maps gelöscht. AI-generierte Zusammenfassungen verdecken die Rezensionen und sind störend
      Amazon, Uber, Google Workspace und andere zwingen einem AI auf ähnliche Weise auf
    • Noch nerviger ist, dass Apple einem ständig das Tahoe-Update aufdrängt.
      Ich will nur einfache Sequoia-Patches, aber standardmäßig ist immer Tahoe ausgewählt
      Sogar die Claude-Code-Integration in Xcode ist nur für Tahoe verfügbar, was unsinnig ist
  • Das MacBook Neo gerade jetzt zu bringen, ist eine ausgezeichnete Strategie
    Während Apple den AI-Wettbewerb beobachtet, bindet es damit die nächste Nutzergruppe an das eigene Ökosystem
    Neo fühlt sich wie der iPod dieser Generation an

    • Aber der eigentliche Konkurrent von Neo ist nicht ein virtuelles Gerät von OpenAI, sondern Chromebooks und Windows-Laptops
  • Nvidia beschränkt Gamer-GPUs, damit sie nicht in Rechenzentren eingesetzt werden,
    und wenn Apple den Markt für lokale AI bedroht, könnten sie vielleicht eigene AI-Karten für Verbraucher herausbringen
    Vielleicht erleben wir eine Zukunft, in der derselbe Chip je nach Einsatzzweck preislich differenziert verkauft wird

    • Laut diesem Forbes-Artikel sollen im ersten Halbjahr 2026 Arm-basierte Laptops von Nvidia und Mediatek vorgestellt werden
      Wenn die NPU-Leistung Intel und AMD übertrifft und eine GPU auf RTX-5070-Niveau in ein dünnes Formfaktor integriert werden kann, wird sich die Struktur von Gaming-Laptops selbst verändern
    • Die Trennung zwischen Profi- und Consumer-GPUs gibt es schon lange
    • Andere Unternehmen wie Intel haben ähnliche Beschränkungen. Aber bei GPU-Preisen sind Speicherkapazität und Bandbreite wichtige Variablen
      Consumer-Modelle sind billiger, haben aber weniger und langsameren Speicher
    • Letztlich ist das eine Strategie, die zugleich Verbrauchergunst und Gewinnmaximierung anstrebt
  • Apple ist nicht in den LLM-Wettlauf eingestiegen. Ihre Stärke ist menschenzentriertes Design
    Der iPod war auch nicht der erste MP3-Player, und das iPhone hatte anfangs kein 3G, war aber trotzdem erfolgreich
    Apple hat sich auf Energieeffizienz und Unified Memory konzentriert, und das ist ein Design mit Blick auf zukünftige Produkte wie AR-Brillen
    Was NVidia oder Intel allein nicht leisten können, hat Apple durch integriertes Design von Chip, Speicher und SSD vorbereitet
    Wie damals bei der Einführung von 64-Bit-ARM unterschätzen viele auch heute wieder die Bedeutung davon
    Nvidia-GPUs haben zwar die zwei- bis dreifache Leistung, verbrauchen aber zehnmal so viel Strom
    Apple konkurriert über Effizienz pro Preis und ist optimal für lokale LLM-Anwendungen, bei denen Unmittelbarkeit, persönlicher Einsatz und Privatsphäre entscheidend sind