3 Punkte von GN⁺ 2025-10-16 | 3 Kommentare | Auf WhatsApp teilen
  • Der M5-Chip integriert in jedem GPU-Kern einen Neural Accelerator und steigert damit die Geschwindigkeit von AI-Berechnungen im Vergleich zum M4 um mehr als das Vierfache
  • Durch die Kombination aus 10-Core-GPU, 16-Core Neural Engine und 153 GB/s Unified-Memory-Bandbreite werden sowohl On-Device-AI-Modelle als auch die Grafikverarbeitung massiv beschleunigt
  • Verbaut in MacBook Pro 14, iPad Pro und Apple Vision Pro, verbessert er die Ausführungsgeschwindigkeit von AI-basierten Workflows, Diffusionsmodellen und Sprachmodellen deutlich
  • Mit der neuen Raytracing-Engine der 3. Generation und Dynamic Caching der 2. Generation bietet er in Spielen und 3D-Apps eine um bis zu 45 % verbesserte Grafikleistung
  • Apple betont, dass der M5-Chip als zentrale Plattform des AI-Zeitalters den nächsten großen Sprung von Apple Silicon bei Energieeffizienz und Leistung markiert

Überblick über den M5-Chip

  • Der M5-Chip ist ein SoC der nächsten Generation aus der Apple-Silicon-Familie, gefertigt im 3-Nanometer-Prozess der 3. Generation, und wurde vollständig für AI-Workloads neu konzipiert
  • In jeden der 10 GPU-Kerne ist ein Neural Accelerator integriert, wodurch die AI-Berechnungsleistung im Vergleich zum M4 um das Vierfache und zum M1 um das Sechsfache steigt
  • Die 10-Core-CPU mit 4 Performance-Kernen und 6 Effizienz-Kernen liefert gegenüber dem M4 eine 15 % schnellere Multithread-Leistung
  • Eine 16-Core Neural Engine, eine verbesserte Media Engine und 153 GB/s Speicherbandbreite erhöhen die Effizienz des gesamten Systems

Innovationen bei AI- und Grafikleistung

  • Die GPU-Architektur der nächsten Generation im M5 ist in allen Rechenblöcken für AI optimiert, und der Neural Accelerator in der GPU verarbeitet AI-Berechnungen direkt
    • Die Ausführungsgeschwindigkeit von On-Device-AI-Apps wie Draw Things und LM Studio steigt deutlich
  • Die Kombination aus Raytracing-Engine der 3. Generation und Dynamic Caching der 2. Generation steigert die Grafikleistung gegenüber dem M4 um 30 % und gegenüber dem M1 um das 2,5-Fache
  • In anspruchsvollen Spielen wie Cyberpunk 2077 werden 120 Hz und flüssige Frame-Übergänge ermöglicht
  • Apps auf Basis von Apples offiziellen Frameworks (Core ML, Metal Performance Shaders, Metal 4) profitieren sofort von Leistungssteigerungen
  • Entwickler können den Neural Accelerator in der GPU über die Metal 4 Tensor API direkt ansteuern

Neural Engine und Apple Intelligence

  • Die 16-Core Neural Engine arbeitet mit den Neural Accelerators von CPU und GPU zusammen, um AI-Berechnungen mit hoher Geschwindigkeit auszuführen
  • Auf der Apple Vision Pro laufen komplexe AI-Funktionen wie die Umwandlung von Fotos in 3D und die Erstellung von Personas noch schneller
  • Die Reaktionsgeschwindigkeit von Sprachmodellen auf Basis von Apple Intelligence sowie des Tools Image Playground wurde verbessert und steigert das On-Device-AI-Erlebnis
  • Auch Entwickler spüren bei der Nutzung von Apple-Intelligence-Modellen dank der verbesserten Neural Engine des M5 Leistungszuwächse

Speicherarchitektur

  • Die Unified-Memory-Bandbreite von 153 GB/s ist gegenüber dem M4 um 30 % erhöht und im Vergleich zum M1 mehr als doppelt so hoch
  • Dank eines einheitlichen Memory-Pools können CPU, GPU und Neural Engine auf denselben großen Speicher zugreifen
  • Mit einer 32-GB-Speicherkonfiguration lassen sich anspruchsvolle Kreativ-Apps wie Photoshop und Final Cut Pro sowie große AI-Modelle gleichzeitig reibungslos ausführen
  • Dadurch wird die Leistung großer AI-Modelle und von Grafik-Rendering in Echtzeit maximiert

Energieeffizienz und Umwelt

  • Der M5 verbessert die Leistung deutlich und hält dabei zugleich eine branchenführende Energieeffizienz aufrecht
  • Im Rahmen der Apple-2030-Initiative treibt Apple die Reduktion von CO2-Emissionen in Produktion, Materialien, Stromversorgung und Transport voran
  • Geräte mit dem M5-Chip erfüllen Standards für Energieeffizienz und minimieren den Energieverbrauch über den gesamten Produktlebenszyklus

Gesamtbedeutung

  • Der M5-Chip steht sinnbildlich dafür, dass sich die Entwicklung von Apple Silicon nun vollständig in Richtung eines AI-zentrierten Computerzeitalters bewegt
  • Durch das integrierte Design von GPU und Neural Engine entwickelt sich die On-Device-AI-Leistung in eine Richtung, die die Abhängigkeit von der Cloud reduziert und die Rechenautonomie persönlicher Geräte erhöht
  • Apple definiert damit MacBook Pro, iPad Pro und Vision Pro als kreative AI-Plattformen der nächsten Generation neu

3 Kommentare

 
tsboard 2025-10-21

Wirkt zwar wie das Strampeln des AI-Nachzüglers Apple, aber ich bin trotzdem irgendwie gespannt, haha.

 
GN⁺ 2025-10-16
Hacker-News-Kommentare
  • Als Tabelle zusammengefasst
    Chip Prozess CPU-Kerne GPU Neural Engine Speicherbandbreite Unified Memory Geekbench Single/Multi
    M1 5 nm G1 8: 4P+4E 7–8 16-core 68.25 GB/s 16 GB 2346 / 8346
    M2 5 nm G2 8: 4P+4E 8–10 16-core 100 GB/s 24 GB 2586 / 9672
    M3 3 nm G1 8: 4P+4E 8–10 16-core 100 GB/s 24 GB 2965 / 11565
    M4 3 nm G2 10: 4P+6E 8–10 16-core 120 GB/s 32 GB 3822 / 15031
    M5 3 nm G3 10: 4P+6E 10 16-core 153 GB/s ≤32 GB 4133 / 15437 (9 Kerne)
  • Interessant ist, dass das Unified Memory von 32 GB auf 24 GB gesunken ist. Vermutlich hat Apple entschieden, dass der M4-Chip im Standardmodell zu viel Speicher erlaubt hat, und wollte den Abstand zu den Pro/Max-Chips vergrößern. Da das aktuelle MacBook Pro aber auch eine 32-GB-Option unterstützt, könnte die Angabe von 24 GB beim M5 in der Tabelle auch einfach ein Tippfehler sein
  • Mein M3 Max wirkt bald veraltet, aber ein Upgrade auf einen M6 oder M7 Max wäre wirklich großartig
  • Ich frage mich, ob sich TSMCs 2nm-Prozess auf nächstes Jahr verschoben hat oder ob 2026 von Anfang an der Plan war
  • Der Multi-Core-Geekbench-Score des M5 stammt von der 9-Kern-Version. Für die 10-Kern-Version gibt es noch keine veröffentlichten Werte
  • Das M5 MacBook Pro nutzt weiterhin einen Broadcom-WiFi-Chip, aber das M5 iPad Pro ist mit N1- und C1X-Chips ausgestattet, was Hoffnung macht.
    Apple macht auf der Hardware-Seite unglaublich beeindruckende Dinge.
    Das Software-Team sollte aber wirklich mal aufwachen. Schon der M1 ist so leistungsfähig, dass für die meisten Nutzer kein Upgrade nötig ist.
    Aber das neue OS (Tahoe) macht mein M1 Air plötzlich langsam, selbst bei Aufgaben, die ich seit Jahren unverändert mache.
    Falls das absichtlich eingebremst wird, wäre das wirklich enttäuschend
    • Seit dem Tahoe-Update ist mein 32-GB-M2-Pro-Arbeitslaptop träge wie ein langsamer Heim-PC geworden.
      Sogar der Mauszeiger fühlt sich an, als würde er teleportieren. Das Deaktivieren von Transparenz in den Bedienungshilfen hat nicht geholfen, sondern es sogar schlimmer gemacht
    • Bei Apple treibt mich in letzter Zeit softwareseitig wirklich vieles in den Wahnsinn.
      • Ich nutze das iPhone als Apple-TV-Fernbedienung, aber plötzlich funktioniert die Lautstärkeregelung nicht mehr – diese inkonsistente UI ist das Problem
      • Die erzwungene Authentifizierung per Face ID ist frustrierend. Auf der Skipiste funktioniert Face ID natürlich nicht, aber das Passwort kann ich trotzdem nicht sofort eingeben
      • Selbst bei der Kindersicherung auf Apple TV muss man erst umständlich den PIN-Auswahlbildschirm durchlaufen. Ein direktes PIN-Eingabefeld wäre viel praktischer
      • Wenn ich das iPhone als Fernbedienung nutze, hätte ich gern, dass es bei der Kinderfreigabe automatisch direkt zum nächsten Schritt weitergeht
    • Apples Hardware-Team vollbringt Wunder, aber die Software, die darauf läuft, bleibt hinter den Erwartungen zurück. Es wirkt fast wie zwei völlig verschiedene Unternehmen, die getrennt voneinander arbeiten
    • Ob der WiFi-Chip im M5 MacBook Pro und N1 bzw. C1X im iPad Pro wirklich gut sind, ist noch schwer zu beurteilen. Auch mit Apples Mobilfunkmodems habe ich oft keine guten Erfahrungen gemacht.
      Dass der M1 so leistungsstark sei, halte ich für übertrieben. Die Performance pro Watt ist hervorragend, aber bei der tatsächlichen Rechenleistung schafft ein Ryzen 9 7945HX etwa das Dreifache eines M1 Max, ein Intel Core Ultra 7 265k ungefähr das 3,5-Fache
    • Wenn Apple Hardware und Software organisatorisch komplett trennen, die Hardware stärker standardisieren und macOS/iOS zu einer von vielen Optionen machen würde, wäre ich extrem gespannt. Realistisch ist das wohl nicht, aber man darf ja träumen
  • Apples Hardware ist auf dem Papier beeindruckend, aber ich möchte keinen Mac kaufen, auf dem ich Linux nicht direkt ausführen kann. Ich mag dieses kontrollierte Apple-Ökosystem nicht.
    Dazu kommt das Problem ARM gegen x86. Selbst wenn kompatible Distributionen erscheinen, will man auf dem Desktop unterschiedlichste Software und Spiele ausführen, und da hat ARM noch viele Grenzen. Bei Laptops ist es inzwischen einigermaßen vernünftig, aber ein wirklich freier und alltagstauglicher ARM-Desktop ist meiner Meinung nach noch weit entfernt
    • Tatsächlich läuft Linux auf dem Mac ziemlich gut. Hast du schon einmal Parallels oder VMware Fusion verwendet? Vor allem Parallels unterstützt 2D/3D-/Video-Beschleunigung, Pausieren und die Integration mit dem Host-OS sehr gut.
      Falls das nicht dein Ding ist, kannst du mit Tahoes neuer nativer Container-Funktion direkt Container von dockerhub und anderswo ausführen.
      Und was das macOS-Ökosystem als „Walled Garden“ angeht: Apps lassen sich frei installieren, und mit homebrew kann man fast jede Open-Source- oder proprietäre Software nutzen
    • Ich halte weiter Ausschau nach ARM-Laptops, auf denen Linux gut läuft. Lenovo habe ich auch im Blick, aber die Linux-Unterstützung reicht noch nicht
    • Um bei Apple offiziellen Service zu bekommen, fühlt es sich eher so an, als würde man absichtlich zum Upselling gedrängt. Für einen Tastaturtausch werden teils 1500 Dollar verlangt. Apple ist beim Recycling und bei der Unterstützung älterer Modelle weiterhin zurückhaltend. Und es bleibt ein eingezäuntes Ökosystem, in dem meine Wahlmöglichkeiten auf meinem eigenen Gerät eingeschränkt sind
    • M1- und M2-Macs laufen unter Asahi Linux ziemlich gut (M3, M4 und M5 werden noch nicht unterstützt)
    • Ich finde inzwischen, dass reine Rechengeschwindigkeit an sich kaum noch Bedeutung hat. Solange Wirths Gesetz nicht zu heftig zuschlägt, passt das schon
  • Konkrete Informationen zu Verbesserungen der Neural Engine sind diesmal wieder nicht zu sehen.
    Fast alle Informationen zur Apple Neural Engine (ANE) stammen aus offiziellen Apple-Dokumenten oder aus Reverse Engineering (Github-Repo); ich vermute, dass es auch diesmal einige Verbesserungen gab, um auf die Performance von Transformern zu reagieren.
    Auch Apples Papers zur Transformer-Forschung sind ziemlich interessant:
    • transformers on the Neural Engine
    • vision transformers
      Auf der Software-Seite ist mit MLX schon vieles besser geworden, aber ich denke, es gäbe noch weiteres Optimierungspotenzial. Mal sehen, wie stark sich der M5 Max hier verbessert.
      Egal welche Verbesserungen es gibt: Sie kommen nicht auf die vorherige Generation, und besonders schade ist, dass Apple weiterhin an 8 GB Unified Memory festhält
    • Soweit ich weiß, starten inzwischen alle Basis-Macs seit Kurzem (seit letztem Jahr bis vor zwei Jahren) bei 16 GB. Das gilt auch für das MacBook Air
    • Es gibt durchaus Fälle, in denen man mehr Rechenleistung braucht, besonders bei Vision-Language-Modellen mit großem Context. Nach meinem Verständnis war die bisherige ANE eher auf Convolution-Workloads und Recheneffizienz optimiert, während sich der neue Neural Accelerator stärker in Richtung Flexibilität und Performance entwickelt
    • Soweit ich weiß, nutzt MLX die Neural Engine noch nicht. Ich fände es besser, die Neural Engine ganz aufzugeben und sich stattdessen auf die Metal-/Tensor-Einheiten der GPU zu konzentrieren
    • Meine Vermutung ist, dass diesmal – ähnlich wie bei NVIDIA – systolic arrays in die GPU-Kerne eingebaut wurden. Das wäre der einzige Weg, die MLX-Geschwindigkeit gegenüber dem M4 zu vervierfachen
    • Unified Memory bleibt immer knapper als VRAM. Selbst meine 16 GB VRAM fühlen sich zu klein an. Dazu kommt, dass Apple Speicherplatz viel zu teuer macht. Wenn ich wirklich lokale KI frei auf meinen Kalender, meine Mails, Fotos und Notizen loslassen will, ist es eine Grenze, dass man beim Speicher nur zwischen 256 GB und 1 TB wählen kann
  • Auf Apple Silicon gibt es mehrere Hardware-Einheiten, die matrix multiplies ausführen können
    1. CPU SIMD/NEON
    2. CPU AMX coprocessor (M1–M3)
    3. CPU SME (M4)
    4. GPU (Metal compute shader + simdgroup-matrix + mps matrix)
    5. Neural Engine (CoreML advisory)
      Und im M5 scheint zusätzlich pro Kern ein „Neural Accelerator“ hinzugekommen zu sein
    • Eigentlich ist das sogar sinnvoll, weil jede Einheit an einem anderen Punkt der Speicherhierarchie arbeitet. Auch aus Sicht von Programmierern ist das positiv, weil man Latenz und Durchsatz detailliert steuern kann
    • Gut, dass Bibliotheken wie Pytorch diese Komplexität gut abstrahieren. Wenn man so etwas ganz von Anfang an selbst bauen müsste, wäre es deutlich komplizierter
    • Ich frage mich, ob Apples Software (z. B. Final Cut) solche „doppelten“ Matrix-Multiplikations-Einheiten gleichzeitig nutzt, um die Leistung maximal auszureizen. Durch das Multitasking verteilt das OS die Ressourcen ohnehin auf mehrere Programme, aber so eine extreme parallele Nutzung gleichzeitig auszuprobieren, wäre schon interessant
    • Ich weiß nicht, ob das wirklich so ein seltsames Design ist. Operationen wie matmul sind inzwischen extrem häufig genutzte primitive Bausteine. Im Mac Quadra von 1994 gab es auch viele Floating-Point-Einheiten, im Mac von 1984 dagegen keine
    • Ich frage mich, ob man wirklich alle Matrix-Multiplikations-Einheiten gleichzeitig nutzen könnte. Praktisch wäre das wohl nicht, aber aus Spaß wäre es spannend. Wenn die CPU superskalar aufgebaut ist, könnte sie manche Operationen vielleicht parallel ausführen
  • Der Chip im iPad Pro wird je nach Speichergröße gebinnt
    • 512 GB oder weniger: 3 P-Cores + 6 E-Cores
    • 1 TB oder mehr: 4 P-Cores + 6 E-Cores
      Quelle
    • Leistungsunterschiede nach Speicherstufen zu staffeln, ist angesichts von Apples extremen Speicherpreisen wirklich widerliches Marketing
  • In letzter Zeit entsteht bei Apple der Eindruck, dass das Hardware-Team deutlich besser abliefert als das Software-Team
    • Das wäre nicht das erste Mal in Apples Geschichte. Schon beim Wechsel von 68k zu PowerPC gab es einen großen Hardware-Sprung, aber die Software kam nicht hinterher. Das Kernsystem lief bis fast OS 9 weitgehend per Emulation, und auch geschützter Speicher sowie präemptives Multitasking waren lange unzureichend. Die Projekte Taligent und Copland scheiterten, bevor schließlich über die NeXT-Übernahme Mac OS X entstand. Damals war Software noch das Differenzierungsmerkmal des Mac, aber selbst das geriet nach dem Wechsel zu Intel ins Rutschen, und seit dem M1-Mac scheint die Hardware wieder die Führung übernommen zu haben
    • Software wird oft immer umfangreicher, mit unnötigen Features und vernachlässigten Apps. Hardware ist dagegen durch die Herstellungskosten natürlicherweise begrenzter. Apple braucht inzwischen jemanden, der unnötigen Software-Umfang und Produkte konsequent ausmistet
    • Abgesehen von Software für Rechenzentren und Cloud wirkt die meiste Software immer schlechter. Menschen, die sich an diesen Zustand gewöhnt haben, sitzen inzwischen in den Entscheidungspositionen, daher glaube ich, dass es noch schlimmer wird
    • Eigentlich ist das nicht nur jetzt so – Apples Softwarequalität war schon immer eher na ja. Schon iTunes schrieb beim Bearbeiten von Tags Dateien einzeln quälend langsam, und abgesehen von starkem visuellem Design und guten Design-Guidelines hatte ich selten das Gefühl, dass Apple wirklich herausragende Software baut
    • Apple ist im Kern ein Hardware-Unternehmen. Während es Consumer-Betriebssysteme kostenlos anbietet, hat sich Microsoft traditionell auf den Verkauf von Betriebssystemen konzentriert. Jetzt, wo Apple sogar die SoC-Pakete selbst entwirft, zeigt sich diese Hardware-Stärke besonders deutlich
  • Zum ersten Mal sehe ich, dass Apple in seinem Marketing direkt den Begriff „AI“ verwendet. Früher nutzte man eher „Machine Learning“ oder „Apple Intelligence“
    • Am Ende ist auch Apple dem Hype erlegen. Es ist schade, denn das Festhalten am Begriff „Machine Learning“ wirkte wie der letzte Rest Stolz
    • Natürlich habe ich kein Problem damit, es AI zu nennen, wenn Apple allgemeiner einsetzbare KI wie Diffusion-Modelle oder LLMs einführt. Trotzdem fände ich, dass zumindest auch Apple Intelligence in der PR erwähnt werden sollte
    • Ganz hoffnungslos ist es nicht. AI könnte ja auch für Apple Intelligence stehen, wenn man viel Fantasie mitbringt
    • Ich möchte glauben, dass das von Apple beworbene AI in Wirklichkeit Apple Intelligence bedeutet
  • Bei der M5-Vorstellung hieß es, die GPU-Berechnung für AI sei 4-mal schneller als beim M4, aber das dürfte wohl unter Laborbedingungen gelten. Tatsächlich behaupten sowohl das M5 im iPad als auch im MacBook Pro nur eine „3,5-mal schnellere AI-Performance“, und in den echten Demos sieht man nur Beispiele mit 1,2- bis 2,3-facher Beschleunigung gegenüber dem M4. Ich frage mich, mit welchem Test diese 3,5x überhaupt ermittelt wurden
    • Berichten zufolge unterstützt der M5 zusätzlich FP4-Berechnungen. Daher dürfte der Geschwindigkeitsunterschied bei Q4-quantisierten Modellen (mit viel geringerer Präzision als BF16) groß ausfallen
    • Nicht nur Apple, auch Konkurrenten vergleichen oft mit Chips von vor zwei Generationen – daher kann ich solche aufgeblähten Zahlen irgendwo nachvollziehen
  • Ich frage mich, ob auch der M5-Chip mit „Memory Integrity Enforcement“ ausgestattet ist, der Sicherheitsfunktion, die mit A19/A19 Pro eingeführt wurde
    • Da offenbar dieselben CPU-Kerne verwendet werden, ist eine Unterstützung sehr wahrscheinlich
 
xguru 2025-10-16

Allein daran, dass in der Pressemitteilung AI so stark betont wird, spürt man irgendwie auch Apples Dringlichkeit.
Dass sie GPU und Neuralbeschleuniger komplett integrieren, um die Geschwindigkeit von AI-Berechnungen zu erhöhen, ist zwar wirklich bahnbrechend, daher dürfte die On-Device-Performance enorm steigen. Jetzt kommt es darauf an, wie gut das Modell ist, das darauf läuft, haha