2 Punkte von GN⁺ 9 일 전 | 1 Kommentare | Auf WhatsApp teilen
  • Aufgrund eines weltweiten Angebotsengpasses bei Standard-DRAM wird erwartet, dass bis Ende 2027 nur 60 % der Nachfrage gedeckt werden können; manche gehen sogar davon aus, dass dies bis 2030 anhalten könnte
  • Große Hersteller wie Samsung, Hynix und Micron treiben den Ausbau neuer Fabs voran, doch die meisten werden voraussichtlich nicht vor 2027–2028 in Betrieb gehen
  • Um die Nachfrage zu decken, wäre ein Produktionswachstum von 12 % pro Jahr nötig, tatsächlich liegt die geplante Steigerung jedoch nur bei 7,5 %
  • Neue Anlagen konzentrieren sich auf die Produktion von HBM (High-Bandwidth Memory) für AI-Rechenzentren, wodurch die Knappheit bei Standard-DRAM für Unterhaltungselektronik nur begrenzt entschärft werden kann
  • Bei verschiedenen Consumer-Elektronikprodukten wie Smartphones, Notebooks, VR-Headsets und Gaming-Handhelds laufen bereits Preiserhöhungen

Aktuelle Lage der globalen Speicherknappheit

  • Laut einem Bericht von Nikkei Asia wird erwartet, dass Hersteller trotz Ausweitung der DRAM-Produktion bis Ende 2027 nur 60 % der Nachfrage decken können
  • Der Vorsitzende der SK Group erwähnte, dass der Mangel an Chips und Wafern bis 2030 andauern könnte

Pläne der großen Hersteller zur Produktionsausweitung

  • Die drei weltweit größten Speicherhersteller, Samsung, SK Hynix und Micron, treiben alle den Bau neuer Fabs voran
  • Die meisten neuen Anlagen werden jedoch erst 2027, frühestens 2028 den Betrieb aufnehmen
  • Im Jahr 2026 gab es tatsächlich nur einen Fall realer Produktionsausweitung: die Fab in Cheongju, die SK im Februar in Betrieb nahm

Produktionswachstum und Nachfragelücke

  • Laut Counterpoint Research wäre in den Jahren 2026–2027 ein jährliches Produktionswachstum von 12 % erforderlich, um die Nachfrage zu erfüllen
  • Die tatsächlich geplante Produktionssteigerung liegt nur bei 7,5 %
  • Diese Lücke zwischen Planung und Bedarf ist ein zentraler Faktor für die anhaltende Knappheit

Priorität für HBM-Produktion und Auswirkungen auf den Consumer-Markt

  • Neue Fabs konzentrieren sich auf die Produktion von HBM (High-Bandwidth Memory) für AI-Rechenzentren
  • Da Hersteller HBM bereits gegenüber Standard-DRAM priorisieren, ist unklar, wie stark sich die Versorgung mit Speicher für Computer und Smartphones verbessern wird
  • Daher bleibt ungewiss, ob sich der Preisdruck im Bereich Consumer-Elektronik verringern wird

Beispiele für Preiserhöhungen bei Consumer-Elektronik

  • Wegen der RAM-Knappheit kam es bereits in verschiedenen Produktkategorien zu Preiserhöhungen
    • Preiserhöhungen bei Galaxy-Smartphones und -Tablets von Samsung
    • Preiserhöhungen bei Surface von Microsoft
    • Quest 3 / 3S VR-Headsets von Meta wurden um 100 US-Dollar teurer
    • Preiserhöhung bei AYNs Dual-Screen-Gaming-Handheld

1 Kommentare

 
GN⁺ 9 일 전
Hacker-News-Kommentare
  • Meinem Verständnis nach haben Samsung, SK Hynix und Micron nicht die Produktionskapazität, um die Nachfrage zu decken, und die vorhandenen Mengen werden außerdem eher HBM als DRAM zugeteilt. HBM lässt sich offenbar nicht ohne Weiteres in Unterhaltungselektronik umleiten, daher dürfte der allgemeine Verbrauchermarkt in den nächsten 3 bis 4 Jahren ziemlich unter Druck geraten. Dazu kommt, dass auch OpenAI unter Kapitaldruck steht und die Fragen zu Burn Rate und Umsatz lauter werden, sodass sogar die Kaufzusagen, die diese RAM-Panik ausgelöst haben, womöglich nicht vollständig erfüllt werden. Am Ende könnten die Speicherhersteller also auf Beständen sitzen bleiben

    • Das erinnert mich daran, dass die Radeon VII 2019 als 700-Dollar-Consumer-GPU mit HBM2 bereits 1 TB/s Bandbreite erreichte. AMD setzte damals HBM sogar bis in die Mittelklasse ein, deshalb fällt es mir schwer nachzuvollziehen, warum eine Technologie, die man früher normalen Verbrauchern verkaufen konnte, heute plötzlich wie eine göttliche Technologie behandelt wird: teuer und exklusiv
    • Regionale Faktoren sind ebenfalls groß. In den Niederlanden bekommen Unternehmen, die Rechenzentren bauen wollten, wegen eines überlasteten Stromnetzes die Mitteilung, dass ein Anschluss vor 2030 schwierig wird, obwohl sie bereits gezahlt haben und ihnen der Anschluss zugesichert wurde. Dann wäre Speicherkapazität gewissermaßen für Rechenzentren reserviert, die noch nicht einmal gebaut sind, und wenn sich der Bau verzögert oder gestrichen wird, könnten sich Angebot und Nachfrage noch merkwürdiger verschieben
    • Mein Eindruck ist, dass die Speicherhersteller am Ende immer die Letzten sind, die die Last tragen. Ich glaube, ich habe ein ähnliches Bild schon mindestens dreimal gesehen
    • Trotzdem haben die Speicherhersteller diesmal nicht so massiv ausgebaut wie früher, und genau das war meiner Ansicht nach eine Entscheidung, um eine Inventar-Explosion zu vermeiden
    • Ich denke, dass die verschiedenen Zusagen von Altman zum Infrastrukturausbau schneller als erwartet scheitern werden und das Pendel dadurch zusätzlich in Richtung Überangebot ausschlägt. Auch die Finanzwelt merkt meiner Einschätzung nach inzwischen, dass man solche Infrastruktur nicht so schnell bauen kann und dass sie sich selbst dann womöglich nicht rechnet
  • Eine Frage, die ich noch nicht für mich geklärt habe, ist diese: Wenn AI die Softwareentwicklung einfacher macht, sinken die Preise, aber die AI-Ausgaben sind schon jetzt um ein Mehrfaches höher als die weltweiten Gesamtausgaben für Software. Ich verstehe daher nicht, wie Softwareunternehmen diese Kosten tragen sollen. Deshalb wirkt die aktuelle RAM-Nachfrage auf mich wie ein Fundament auf Sand, und am Ende dürfte sie mit hoher Wahrscheinlichkeit in ein großes Überangebot kippen

    • So weit würde ich nicht gehen. LLMs sind als Werkzeuge bereits nützlich genug, dass sie nicht verschwinden werden; die Kernfrage ist letztlich Skalierbarkeit und Kostensenkung. Auch wenn kleine Firmen sie nicht einsetzen können, finden große Firmen zuerst Einsatzfelder in Bereichen wie Verteidigung, Rohstofferschließung oder Finanzen. Wenn die Kosten stark genug sinken, werden auch kleine Teams sie nutzen, aber wenn es zu billig wird, könnte paradoxerweise sogar eine Welt entstehen, in der potenzielle Kunden zu Hause selbst Software bauen
    • Laut Analystenrechnungen bräuchte man pro iPhone-Nutzer ein neues Abo für 35 Dollar im Monat und pro Netflix-Abonnent sogar 180 Dollar im Monat. Selbst wenn Claude Max teurer geworden ist, bin ich skeptisch, dass alle Netflix-Nutzer solche Kosten tragen würden. Siehe dazu auch den Tom's-Hardware-Artikel
    • Alle scheinen auf das Jevons paradox zu setzen. Man hofft also, dass AI das nächste Halbleiterwunder oder das nächste Internet wird
    • Ich sehe das wie ein trojanisches Pferd. Es wirkt auf mich wie eine Strategie in der Hoffnung, dass sich die Welt an diese Technologie gewöhnt und von ihr abhängig wird
  • Ich denke, diese Lage wird lange anhalten. Seit Corona haben Hersteller gelernt, dass begrenztes Angebot den Gewinn maximiert, und wenn man sieht, dass die Autopreise nicht mehr so leicht auf frühere Niveaus fallen, könnte RAM einen ähnlichen Weg nehmen. Anders als große Kunden wie Apple oder OpenAI können normale Verbraucher keine Großverträge abschließen, daher werden am Ende wohl wir die Kosten tragen

  • Ich bin etwas optimistisch. Vielleicht dient das als Warnsignal für Entwickler, die RAM gedankenlos verbrauchen, sodass Apps künftig zwangsläufig speichereffizienter werden

    • Für mich überschneidet sich das etwas mit dem Bild vom Ende der V8-Ära nach dem Ölschock von 1973
    • Allerdings wird die aktuelle Nachfrage vor allem durch Inference getrieben, daher ist der Anreiz für Entwickler zur verzweifelten Optimierung womöglich gar nicht so groß
    • Ich hoffe, dass Electron bei dieser Gelegenheit an Boden verliert. Ich habe nie verstanden, warum man für einfache Bildschirminhalte, die mit 500 KB auskommen könnten, Apps mit über 300 MB braucht
      • Das klingt wirklich nach einem Traumszenario
    • Um weniger RAM zu verwenden, muss man oft mehr CPU einsetzen. Deshalb ist ein höherer RAM-Preis insgesamt häufig kein guter Trade-off
  • Ich war überrascht, dass der Artikel Googles TurboQuant überhaupt nicht erwähnt. Es wurde vor 26 Tagen vorgestellt, soll den KV-Cache-Speicher um das Sechsfache reduzieren und die Geschwindigkeit um bis zu das Achtfache erhöhen; außerdem ist es bereits in llama.cpp eingeflossen und hilft dabei, größere Kontexte mit kleineren Modellen zu fahren, ohne zu starke Kompromisse einzugehen. Trotzdem bin ich selbst noch skeptisch, ob das das RAM-Problem wesentlich entschärft. Die Nachfrage dürfte den Einsparungseffekt eher übersteigen. Siehe dazu auch diesen HN-Beitrag

    • In der Branche ist die Wahrnehmung auch stark, dass TurboQuant nicht gerade SOTA ist. Für KV-Quantisierung nach Bitrate gibt es bessere Ansätze, zum Beispiel Alternativen wie SpectralQuant. Außerdem ist die Angabe mit dem Sechsfachen ein Vergleich gegen BF16-KV-Cache; vergleicht man mit bereits existierenden 8-Bit- oder 4-Bit-Verfahren, sieht die Sache anders aus
    • Es gibt auch etwas zu korrigieren. Das TurboQuant-Paper erschien tatsächlich schon im April 2025 auf arXiv, und die aktuelle Implementierung erreicht eher eine Kompression von ungefähr 3,8- bis 4,9-fach; die oberen Werte gehen mit spürbaren Einbußen bei der GSM8K-Leistung einher. Auch die Geschwindigkeit liegt nur bei 80 bis 100 % des Referenzwerts, es gibt also womöglich keinen Gewinn oder es kann sogar langsamer werden. Zum Implementierungsstand siehe den vLLM-PR, die Diskussion im vLLM-Issue. Ich experimentiere persönlich mit DMS, das vielversprechender wirkt und sich auch mit anderer Quantisierung kombinieren lässt. Noch größere Einsparungen kommen aus Verbesserungen der Modellarchitektur wie SWA Global Hybrid bei Gemma 4, MLA, DSA, linearen Layern oder SSM. Aber auch das wird meiner Ansicht nach wegen des Jevons paradox die gesamte Speichernachfrage am Ende nicht senken. Allein mein Coding-Tool verbraucht pro Monat 10 bis 15 Milliarden Cache-Tokens, und wenn Agenten sowie Mainstream-Entwickler stärker einsteigen, scheint es praktisch keine Obergrenze für die Menge an Tokens zu geben, die Menschen wollen werden
    • Die Arbeit an lokalen Modellen mit Fokus auf wenig RAM und wenig VRAM ist definitiv hilfreich. Gemma 4 32B läuft zum Beispiel schon auf handelsüblichen Laptops und fühlt sich in der Intelligenz ungefähr auf dem Niveau von gpt-4o an, das vor zwei Jahren SOTA war, oder sogar darüber. Wenn sich die Speicherpreise stabilisieren, könnte vielleicht auch etwas auf Opus-4.7-Niveau lokal ausführbar werden. Große Modelle bringen zwar mehr eingebettetes Wissen mit, aber wenn sie gut entscheiden können, wann Tool-Calls wie Websuche nötig sind, lässt sich vieles kompensieren
    • Meiner Meinung nach ist der Nettoeffekt nicht, dass man dieselbe Arbeit mit weniger Speicher macht, sondern dass man mit demselben Speicher mehr Arbeit erledigt. Unternehmen werden die Kontextfenster ihrer Angebote vergrößern, und die Leute werden das dann einfach nutzen. Das wirkt wie eine etwas bittere Realität für die Zukunft des Speichers
    • Trotzdem bleiben die Kosten dafür, das Modell überhaupt im Speicher zu halten, hoch. Wenn man zum Beispiel 16 GB RAM hat, fühlt sich der praktische Gewinn aus meiner Sicht nicht besonders groß an
  • Ich war auch überrascht, dass der Artikel nichts über Chinas neue Speicherhersteller sagt. Als Beispiel fällt mir dieser Artikel ein

    • Wie auch im Artikel selbst steht, liegt CXMT bei fortschrittlichen DRAM-Prozessen etwa drei Jahre hinter Samsung, SK Hynix und Micron zurück, und die Linie für die zweite Jahreshälfte 2026 dürfte vor 2027 das globale Gleichgewicht von Angebot und Nachfrage kaum beeinflussen. Der Originalartikel geht jedoch davon aus, dass die Nachfrage 2028 das Angebot übersteigt; daher könnte der Zeitpunkt, an dem die chinesische Produktion zum aktuellen Technologiestand aufschließt, eher bei 2029 liegen. Langfristig hilft das sicher bei sinkenden Preisen, aber die Produktionseffizienz reicht wohl noch nicht aus, um den aktuellen Mangel kurzfristig zu verhindern
  • Ich wollte mir vor Kurzem einen neuen Gaming-PC zusammenstellen, habe das wegen des Preisschocks und der Lieferprobleme bei einzelnen Komponenten aber immer wieder verschoben. Dann habe ich zufällig in einem nahegelegenen Microcenter einen praktisch voll ausgestatteten Prebuilt mit 5090 und hochwertigem Netzteil für unter 5.000 Dollar gesehen und sofort gekauft. Vor zehn Jahren war ein Prebuilt eher etwas für Leute mit wirklich viel Geld und ohne einen freien Samstag, heute fühlte es sich eher wie eine Entscheidung an, über die man gar nicht groß nachdenken muss

    • Für mich gilt der Grundsatz aber weiterhin: Selbst bauen ist im Vorteil. Ein Prebuilt enthält Montagekosten und ist strukturell daher fast zwangsläufig teurer, außerdem wurde möglicherweise bei weniger auffälligen Teilen wie Mainboard oder Netzteil gespart. Natürlich kann man mal einen guten Deal finden, aber ich glaube nicht, dass diese Ausnahme das Gesamtprinzip ändert
  • Ich frage mich, ob das ein Auslöser dafür sein wird, häufiger speichereffizientere Software zu nutzen. Heutzutage fressen selbst sehr kleine Programme oft Hunderte MB RAM

    • Ich hatte beim Vibe-Coding tatsächlich schon mehrfach ausdrücklich das Ziel, den RAM-Verbrauch zu senken
  • Ich freue mich, weil es sich anfühlt, als käme endlich das Zeitalter der Optimierung

    • Ich bin da allerdings etwas skeptisch. Die Apps, die ich nutze, haben meist einen starken Lock-in, sodass entweder der organisatorische Wille zur Optimierung fehlt oder die Ressourcen dafür nicht da sind. Realistische Optimierung bedeutet für mich daher eher, schwere Tools wegzuwerfen und auf leichtere umzusteigen, in der Hoffnung, dass viele solche Entscheidungen zusammen die Finanzen und Entwicklungsressourcen dieser leichteren Tools stärken
    • Ich sage schon lange, dass OS-Entwickler sich auf mutige Optimierung konzentrieren sollten. Auch unabhängig von Chipknappheit verlangsamt sich die Halbleiter-Miniaturisierung bereits, und Softwareoptimierung hilft jeder Hardware, treibt aber den Absatz nicht direkt an. In dieser Hinsicht ist Linux weniger gebunden, und vielleicht bekommen sogar Optionen wie Haiku OS wieder mehr Aufmerksamkeit
  • Für mich wirken die RAM-Hersteller weiterhin zurückhaltend beim Kapazitätsausbau. Ich frage mich, ob die Unternehmen langfristige Nachfragesignale sehen, die Investoren entgehen

    • Sie haben sich früher mehrfach schwer verbrannt. Die DRAM-Branche war lange von Boom-und-Bust-Zyklen geprägt; immer wenn die Nachfrage stieg, bauten alle neue Fabs, dann brachen die Preise ein, die Investitionen ließen sich nicht mehr hereinholen und Unternehmen gingen unter. So war es in den 80ern, 90ern und 2000ern, und jetzt sind nur noch drei Hersteller übrig. Deshalb wissen sie vermutlich besser als jeder andere, dass die Nachfrage im Kern zyklisch ist
    • Die Halbleiterbranche ist seit über 50 Jahren eine Boom-and-Bust-Industrie. Es gibt dieses Bild, und auch ich habe in 30 Jahren Branchenerfahrung sowohl Zeiten erlebt, in denen wir kaum 30 % der Kundenbestellungen bedienen konnten, als auch zwei Jahre später Zeiten mit 50 % Fab-Auslastung und Verlusten. Ein modernes Fab kostet 20 Milliarden Dollar und braucht 3 bis 4 Jahre Bauzeit. Wenn man also glaubt, dass AI eine Blase sein könnte, ist es viel zu riskant, nach einem Nachfrageeinbruch am Ende nur mit glänzenden leeren Fabriken dazustehen
    • Wer die Lage realistisch betrachtet, dürfte ähnlich denken. Die Abnahmeverpflichtungen von OpenAI wirken übermäßig unrealistisch und nicht nachhaltig
    • Aus ihrer Sicht ist das Verlustszenario womöglich gar nicht so groß. Die Struktur ist praktisch kartellartig, und RAM ist ohnehin ein notwendiges Produkt. Selbst wenn sie weniger produzieren, dürften sie im Gleichgewicht von Preis und Nachfrage einfach das für sie attraktivste Risiko-Rendite-Profil kalkuliert haben. Nicht die Sympathie oder Reputation bei Verbrauchern ist entscheidend, sondern dass der Markt sie stärker braucht als umgekehrt