5 Punkte von GN⁺ 2026-02-28 | 1 Kommentare | Auf WhatsApp teilen
  • HP teilte mit, dass der Anstieg der RAM-Preise den Anteil von RAM an den Stückkosten seiner PCs von 15–18 % auf 35 % erhöht hat
  • Das Unternehmen erklärte, dass die Speicherknappheit die Nachfrage im gesamten PC-Markt sinken lässt, und erwartet für dieses Jahr einen Rückgang im zweistelligen Prozentbereich
  • HP erläuterte, dass die RAM-Preise gegenüber dem Vorquartal um etwa 100 % gestiegen seien und auch künftig weitere Anstiege erwartet würden
  • Als Reaktion darauf setzt HP auf Preiserhöhungen bei PCs, Modelle mit geringerer RAM-Kapazität und Diversifizierung der Lieferanten
  • Die aktuelle Lage zeigt, dass sich Preisvolatilität und Lieferengpässe bei DRAM und NAND bis ins Geschäftsjahr 2027 fortsetzen könnten

Lage der stark gestiegenen RAM-Kosten bei HP

  • HP gab bekannt, dass RAM im 4. Quartal des Geschäftsjahres 2025 noch etwa 15–18 % der PC-Stückkosten ausmachte, dieser Anteil 2026 jedoch auf rund 35 % gestiegen sei
    • CFO Karen Parkhill sagte, diese Zahl verdeutliche den Ernst der aktuellen Speicherknappheit
  • Bei der Bekanntgabe der Ergebnisse für das 1. Quartal des Geschäftsjahres 2026 meldete HP, dass die RAM-Kosten gegenüber dem Vorquartal um etwa 100 % gestiegen seien
    • Auch in den kommenden Geschäftsquartalen werde mit weiteren Anstiegen gerechnet
  • Das Unternehmen geht davon aus, dass die finanziellen Auswirkungen des RAM-Mangels in der zweiten Jahreshälfte am größten sein werden

Marktauswirkungen und Nachfragerückgang

  • HP erwartet, dass der Gesamtmarkt für den Geschäftsbereich Personal Systems in diesem Jahr im zweistelligen Prozentbereich schrumpfen wird
    • Als Grund nannte das Unternehmen, dass höhere Preise die Verbrauchernachfrage schwächen
  • Interims-CEO Bruce Broussard erklärte, der Hauptgrund sei der Anstieg der DRAM- und NAND-Preise, und fügte hinzu, dass die Volatilität bis zum Geschäftsjahr 2027 anhalten werde

HPs Gegenstrategien

  • HP erzielt ein Drittel seiner Gesamtmarge in anderen Bereichen als RAM wie IT-Services und Peripheriegeräten
    • Um auf die stark gestiegenen RAM-Kosten zu reagieren, erhöht das Unternehmen jedoch die PC-Preise
  • Durch Produkte mit RAM-Konfigurationen geringerer Kapazität will HP das begrenzte Speicherangebot effizienter nutzen
    • Ketan Patel, Präsident von HP Personal Systems, erklärte, dass das Unternehmen gleichzeitig an größerer Silizium-Diversität und der Einführung günstigerer Produkte arbeite
  • HP sichert die Stabilität der Versorgung durch langfristige Lieferverträge und will mit KI-basierter Logistikoptimierung Kosten senken
    • Zudem werden neue Lieferanten hinzugefügt und die Zertifizierungszeit für neue Materialien halbiert, um Produktänderungen schneller umzusetzen

Geschäftsentwicklung

  • Die Sparte HP Personal Systems erzielte in diesem Quartal 10,3 Milliarden US-Dollar Umsatz, ein Plus von 11 % gegenüber dem Vorjahr
    • Die Verkäufe von Consumer-PCs stiegen um 14 %, die von Business-PCs um 11 %
  • Trotz steigender Speicherpreise bleibt das Umsatzwachstum erhalten

Ausblick

  • HP erwartet, dass die Preisvolatilität bei RAM und NAND bis zum Geschäftsjahr 2027 anhalten wird
  • Solange sich die Speicherknappheit nicht entspannt, könnten Preiserhöhungen bei PCs und Anpassungen der Spezifikationen fortgesetzt werden
  • HPs Reaktion konzentriert sich derzeit auf Diversifizierung der Lieferkette und technische Effizienzsteigerung

1 Kommentare

 
GN⁺ 2026-02-28
Hacker-News-Kommentare
  • Als ich programmieren lernte, musste ich den Speicherverbrauch immer im Blick behalten.
    Aber mit dem starken Anstieg des verfügbaren Speichers sind viele „optimierte“ Muster fast bedeutungslos geworden.
    Ich frage mich, ob diese Situation eine Zeit zurückbringt, in der Speichereffizienz wieder stärker berücksichtigt wird.

    • Es stimmt, dass Programme in den verfügbaren Speicher passen müssen.
      Aber heute ist die Lücke zwischen RAM-Geschwindigkeit und Rechengeschwindigkeit so groß geworden, dass man Cache oft wie früher RAM behandelt.
      Der Schlüssel zur Performance-Optimierung ist eine hohe Cache-Trefferquote, und LLMs eignen sich dafür nicht besonders gut.
    • Ich glaube nicht, dass es so kommen wird.
      AI-Unternehmen kaufen zwar Speicher in großem Stil auf, aber in ein paar Jahren werden sie entweder ihre Ziele erreichen oder scheitern, und dann dürften die Preise wegen Überangebots wieder fallen.
      Der hohe Preis hat schließlich keine technischen Ursachen.
    • Ich lasse Outlook und Teams inzwischen in Chrome laufen und spare so 3–4 GB RAM.
      Die Standard-Tools belegen so viel Speicher, dass für die eigentliche Arbeit kaum noch Spielraum bleibt.
    • Ich stimme nicht zu, dass mehr Speicher Optimierung bedeutungslos gemacht hat.
      Speicher zu sparen bedeutet zugleich bessere Cache-Effizienz, und das führt zu höherer Performance.
      Gerade in Embedded-Umgebungen entscheidet das Speichermanagement über Erfolg oder Misserfolg.
    • Ich stimme auch nicht zu, dass Leetcode-Aufgaben sinnlos seien.
      In den guten Zeiten (ZIRP) wirkte das nur unwichtig, aber wenn der Wettbewerb härter wird, macht Können wieder den Unterschied.
  • Unter Linux kann man mit aktiviertem zram RAM quasi „herunterladen“ und so erweitern.
    Das ist besonders hilfreich, wenn viele Hintergrundprozesse laufen, und mit zstd-Komprimierung erreiche ich eine 2- bis 3-fache Effizienz.
    Gefühlt ist das wie 20 GB zusätzlicher Speicher.

    • Früher konnte man sogar defekten RAM günstig kaufen und Linux so konfigurieren, dass fehlerhafte Bereiche gemieden werden.
      Aber die badram-Funktion von GRUB ist seit Secure Boot (UEFI) nicht mehr nutzbar.
    • Mac OS und Windows bieten bereits Speicherkomprimierung standardmäßig an.
      Das funktioniert automatisch ohne zusätzliche Einstellungen.
    • In aktuellen Distributionen (z. B. Fedora) ist ZRAM standardmäßig aktiviert.
  • Ich denke, Europa sollte in die RAM-Fertigung investieren.
    Da praktisch alles Computing auf RAM angewiesen ist, wäre das eine Chance, eine eigene Lieferkette aufzubauen.

    • Allerdings ist es gut möglich, dass die Preise nicht lange hoch bleiben.
      Der Bau von Fabriken dauert Jahre, und wenn die Preise in der Zwischenzeit einbrechen, verschwindet die Wirtschaftlichkeit.
    • Chinesische Hersteller bauen ihre Produktionskapazitäten bereits aus.
      Da Samsung und SK Hynix sich auf HBM4 konzentrieren, gehen viele davon aus, dass China den gewöhnlichen RAM-Markt dominieren wird.
    • Wenn Europa RAM herstellen will, braucht es politische Reformen.
      Mit der aktuellen lockeren Bündnisstruktur ist es schwierig, große Halbleiterprojekte voranzutreiben.
    • Es gibt bereits europäische Hersteller wie Goodram.
      Laut offizieller Website konzentrieren sie sich vor allem auf den B2B-Automobilmarkt.
      Ich nutze selbst einen 128-GB-Speicherriegel dieser Firma.
    • Europa sollte sich eher auf Energie und die Wiederherstellung der Lieferketten konzentrieren als auf RAM.
      Das deutsche verarbeitende Gewerbe verliert monatlich 15.000 Arbeitsplätze, und auch die Deregulierung verzögert sich wegen politischer Konflikte.
  • Ich arbeitete an einem Side-Project auf Rockchip-Basis, aber der Preis für externen Speicher (1 GB) stieg von 3 auf 32 Dollar und zerstörte die Wirtschaftlichkeit.
    Am Ende bin ich auf integrierte Speicherchips umgestiegen und habe mich auf Code-Optimierung konzentriert.
    Mehr dazu steht in meinem X-Post.

    • Bei der Spieleentwicklung dürfte es ähnlich sein.
      Wenn GPU-Preise hoch bleiben oder neue Modelle verspätet kommen, werden auch Spielefirmen wieder stärker optimierungsorientiert entwickeln.
    • Mit Octopart lassen sich Speicherpreise bei verschiedenen Distributoren verfolgen.
      Ein Beispiel ist Nanya NT6AN256T32AV-J2, das oft auf Boards mit Rockchip, Amlogic und Allwinner eingesetzt wird.
  • Diese RAM-Krise könnte einen Boom bei Software-Optimierung auslösen.
    Vielleicht gibt es dann mehr Programme, die nicht unnötig Speicher im GB-Bereich verbrauchen.

    • Es gibt zwei Szenarien.
      A) Entwickler reißen sich zusammen und beginnen, leichtgewichtige Software zu bauen, oder
      B) Laptops verkommen zu einfachen Cloud-Clients.
      Realistisch gesehen erscheint Letzteres wahrscheinlicher.
    • Wenn Electron verschwinden würde, könnte ich diese Entwicklung vielleicht verzeihen.
    • Tatsächlich ist hoher Speicherverbrauch bei Programmen oft Teil der Performance-Optimierung.
      Wenn benötigte Daten vorab in den RAM geladen werden, steigt die Geschwindigkeit, und auch GC arbeitet effizienter, wenn es seltener läuft.
      Deshalb erreichen Java oder .NET eine Performance, die nahe an nativer Ausführung liegt.
      Wenn die Heap-Auslastung aber über 90 % steigt, bricht die Performance im Gegenteil stark ein.
    • Am Ende könnte alles in der Cloud laufen, und lokaler RAM wäre kaum noch nötig.
  • Ich glaube, Meldungen über gestohlene RAM-Transporter sind nicht mehr weit entfernt.
    China fährt die Produktion zwar hoch, aber kurzfristig dürfte der Engpass nicht verschwinden.

    • Allerdings stößt China wegen Importbeschränkungen für ASML-Anlagen an Grenzen.
      Solange dort keine eigenen Feinprozess-Anlagen mit hoher Ausbeute gebaut werden können, wird es schwierig, die Produktion stark auszuweiten.
  • In den 1990ern und frühen 2000ern gab es eine Zeit, in der mehr Speicher direkt mehr Performance bedeutete.
    Damals liefen auf jedem Server Web, Mail und Datenbank getrennt, und das Ziel war maximale CPU-Auslastung.
    Heute laufen die meisten Systeme in VM- und Container-Umgebungen, wodurch RAM zum größeren Engpass geworden ist.
    CPUs sind auf bis zu 192 Kerne gewachsen, aber die RAM-Geschwindigkeit hat nicht im gleichen Maß nachgezogen.
    Caches sind größer und intelligenter geworden, aber RAM-Optimierung wird gerade wieder wichtiger.
    Vielleicht gibt es irgendwann eine Architektur mit RAM in Register-Geschwindigkeit direkt in der CPU, während Mainboard-RAM wie ein Swap-Datenträger behandelt wird.
    HBM ist diesem Zwischenstadium schon relativ nahe.

  • Ich bin wirklich froh, ein MacBook Air mit 24 GB RAM gekauft zu haben.
    Damit sollte ich einige Jahre gut auskommen.

    • Apples RAM-Preise liegen inzwischen ungefähr auf Marktniveau.
      Das Supply-Chain-Management ist so konsequent, dass kurzfristig wohl keine Preisschwankungen zu erwarten sind.
      Im Vergleich zu PCs wird Apple dadurch eher noch wettbewerbsfähiger.
      Windows wirkt zunehmend instabil.
    • Letztes Jahr habe ich 12× 64GB DDR4LRDIMM für 400 Dollar gekauft, jetzt kostet ein einzelnes Modul 320 Dollar.
      Das heißt, der Preis hat sich in einem Jahr fast verzehnfacht.
    • Apple verwendet Unified Memory auf Basis von kundenspezifischem LPDDR5X.
      Das unterscheidet sich von normalem PC-RAM, deshalb ist der Wettbewerbsdruck geringer, und vermutlich wurden die Lieferverträge schon 2024 fixiert.
  • Den richtigen Zeitpunkt für NVDA oder BTC habe ich zwar verpasst, aber ich habe 512 GB DDR5 im Server und 128 GB im MacBook Pro.
    Deshalb brauche ich keine Erweiterung, die Tabs in den Ruhezustand versetzt.
    Allerdings sind GPUs und Server-Hardware viel zu teuer, und ein SXM5-Mainboard ist kaum überhaupt zu bekommen.
    Das erinnert mich an die Zeit, als wegen der Überschwemmungen in Thailand HDDs knapp wurden.

  • BOM (Bill of Materials) ist einfach eine Liste der verbauten Komponenten, keine Geldrechnung.

    • Üblicherweise spricht man von BOM cost, also den Gesamtkosten aller Teile, die zur Herstellung eines Produkts benötigt werden.
    • Beim Titel dachte ich zuerst, es gehe darum, dass die Komponenten selbst Speicher enthalten.
      Dass BOM als Geldrechnung verwendet wird, sehe ich zum ersten Mal.