14 Punkte von GN⁺ 2026-03-08 | 1 Kommentare | Auf WhatsApp teilen
  • Benchmark zu CPU-Leistung und Preis-Leistungs-Verhältnis von 7 Clouds (44 VM-Typen), umfassend über Einzel- und Multithreading sowie Reserved- und Spot-Instanzen hinweg
  • AMD EPYC Turin erreicht in fast allen Benchmarks den 1. Platz und etabliert sich als neue Spitzen-CPU im x86-Lager
  • Beim Preis-Leistungs-Verhältnis auf On-Demand-Basis belegen Hetzner und Oracle Cloud die Spitzenplätze nahezu allein; AWS zeigt abgesehen von Turin insgesamt das schlechteste Preis-Leistungs-Verhältnis
  • Intel Granite Rapids behebt die Leistungsinstabilitätsprobleme des Vorgängers Emerald Rapids und liefert konstante Performance, der Abstand zu Turin bleibt jedoch weiterhin groß
  • Mit Spot-Instanzen lässt sich gegenüber einer 3-Jahres-Reservierung etwa die doppelte Leistung pro Dollar erzielen, was sie zu einem Schlüsselinstrument der Cloud-Kostenoptimierung macht

Benchmark-Überblick und Methodik

  • Vergleichsgegenstand: 7 Anbieter mit AWS, GCP, Azure, Oracle Cloud (OCI), Akamai (Linode), DigitalOcean und Hetzner, insgesamt 44 VM-Typen
  • Zur konsistenten Kostenvergleichbarkeit wurden alle Instanzen auf Basis von 2 vCPU, 2 GB/vCPU RAM, 30 GB SSD konfiguriert
  • Bei AMD und Intel gilt durch SMT (Hyper-Threading): 2 vCPU = 1 physischer Kern; bei ARM und einigen x86-Ausnahmen (AWS C8a, C7a, GCP t2d) gilt 2 vCPU = 2 physische Kerne
  • On-Demand-Preise basieren auf der jeweils günstigsten Region in den USA; Preisstand ist Januar 2026, aktuelle Preise sollten separat geprüft werden
  • Verwendete Benchmark-Tools: DKbench (Hauptbenchmark, 19 Server-Workloads auf Basis von Perl und C/XS), Geekbench 5, 7zip, NGINX, FFmpeg/libx264, OpenSSL RSA4096 (AVX512)
    • Geekbench 6 wurde nicht verwendet, da die Multicore-Messmethode als konstruktiv fehlerhaft eingeschätzt wird
  • Um die Leistungsspanne zu erfassen, wurden Instanzen in mehreren Regionen wiederholt erstellt und vermessen; dargestellt wird jeweils die Spannweite aus Minimum und Maximum

Überblick über die Performance-Tiers nach CPU-Generation

  • AMD: Rome → Milan → Genoa → Turin (Generationsreihenfolge von unten nach oben)
  • Intel: Broadwell → Skylake → Cascade Lake → Ice Lake → Sapphire Rapids → Emerald Rapids → Granite Rapids
  • ARM: Ampere Altra → AmpereOne → AmpereOne M / AWS Graviton2 → Graviton3 → Graviton4 / Google Axion / Azure Cobalt 100
  • Ältere CPU-Typen sollten nach Möglichkeit auf neuere Generationen aktualisiert werden, da sie trotz geringerer Leistung wegen der Betriebskosten teilweise sogar teurer abgerechnet werden

Ergebnisse zur Single-Thread-Leistung

  • AMD EPYC Turin belegt insgesamt Platz 1; ein derart deutlicher Vorsprung ist in dieser Reihe erstmals zu sehen
    • AWS C8a (Turin, SMT deaktiviert) ist die schnellste Turin-Konfiguration
    • GCP c4d zeigt große Leistungsschwankungen, während das günstigere n4d bei der Konstanz überlegen ist
  • Intel Granite Rapids: Behebt die Leistungsinstabilität von Emerald Rapids, die durch Boost-Takt-Abhängigkeit und Node-Konkurrenz entstand, und liefert höhere sowie konsistentere Performance
    • Bei GCP zeigt Emerald Rapids unter steigender Last deutliche Leistungseinbrüche; GCP bietet dafür separat einen Modus für "konsistente Leistung" an (Boost deaktiviert)
  • Im ARM-Lager liefert Google Axion Single-Thread-Leistung auf EPYC-Genoa-Niveau und setzt sich damit an die Spitze der ARM-Serverleistung
    • Azure Cobalt 100 liegt zwischen Graviton3 und Graviton4
    • Ampere AmpereOne M verbessert sich leicht auf das Niveau von AWS Graviton3
  • Unter den günstigeren Anbietern zeigt DigitalOcean sinkende Leistungswerte; Akamai und Hetzner sind bei Milan-Instanzen solide, garantieren das Leistungsniveau bei der Instanzerstellung jedoch nicht

Multithread-Leistung und Skalierung

  • Skalierung (Scalability): ARM- und Shared-CPU-Instanzen liegen nahe bei ~100 %, erreichen also mit 2 vCPU nahezu die doppelte Leistung einer einzelnen vCPU
    • x86-Instanzen mit SMT liegen unter 100 %; je näher an 50 %, desto geringer der Leistungsvorteil
    • AMD hat traditionell eine höhere SMT-Effizienz als Intel, Intel verbessert sich seit Ice Lake jedoch sichtbar
    • Akamai-Turin-Instanzen erreichen trotz SMT einen ungewöhnlich hohen Skalierungswert von 71,9 % (Ursache unklar)
    • Instanzen mit deaktiviertem SMT: AWS C7a (Genoa), C8a (Turin), GCP t2d (Milan)
  • Stärkste Multithread-Leistung: Das auf Turin basierende AWS C8a mit deaktiviertem SMT dominiert das Diagramm
    • Google Axion liegt auf dem Niveau des zuvor führenden Genoa C7a
    • Graviton4 folgt knapp dahinter, danach Cobalt 100
    • Im unteren Bereich liegen Intel Broadwell/Skylake/Ice Lake sowie AMD Rome
  • 7zip: Turin liegt insgesamt vorne, aber Axion und Graviton4 überholen Turin beim Dekomprimieren; Cobalt 100 erzielt dort sogar die höchste Einzelwertung
  • NGINX (100 connections): AWS C8a ist nahezu doppelt so schnell wie Platz 2; auch Granite Rapids erzielt starke Ergebnisse
  • FFmpeg H264: Turin auf Platz 1, Granite Rapids kommt bei Single-Thread nahe heran; bei Nutzung von 2 gesamten Kernen überholt Axion fast alle SMT-Instanzen mit nur einem Kern, außer Turin
  • OpenSSL RSA4096 (AVX512): AMD überholt Intel sogar bei Intels eigener Erweiterungsfunktion; sowohl Turin als auch Genoa liegen vor allen Intel-Generationen; Granite Rapids verbessert sich gegenüber Ice Lake kaum; ARM und ältere AMD-CPUs ohne AVX512 liegen unter Intel Skylake und älter

On-Demand-Vergleich von Leistung/Preis

  • Single-Thread: Hetzner (mit Shared Cores sogar klar auf Platz 1) und Oracle führen, gefolgt von GCP n4d (Turin) und Linode
    • AWS bietet auf On-Demand-Basis das schlechteste Preis-Leistungs-Verhältnis; Turin ist dort noch die beste Option, ältere Generationen liegen ganz hinten
  • Multithread: Oracle-ARM-Instanzen (AmpereOne M) auf Platz 1, dicht gefolgt von Shared Cores bei Hetzner und Linode
    • Google Axion, Azure Cobalt 100 und DigitalOcean Droplets bilden die zweite Leistungsklasse
  • Hetzner Shared Core (CPX22, CAX11) bietet trotz Verfügbarkeitsgrenzen (nur EU- und AP-Regionen, häufig ausverkauft) beim Preis pro Leistung einen gegenüber anderen Anbietern überwältigenden Vorteil

Reserved-Vergleich von Leistung/Preis

  • 1 Jahr reserviert: GCP Turin (n4d, c4d) liegt nahe bei Oracle; Azure Cobalt 100 und Genoa bieten ebenfalls ein wettbewerbsfähiges Preis-Leistungs-Verhältnis
    • Bei AWS ist die C8a-Familie die beste Wahl; über Drittanbieter wie DoIT Flexsave lässt sich auch ohne Reservierung der 1-Jahres-Preis nutzen
  • 3 Jahre reserviert, Single-Thread: GCP Turin liegt leicht vor Oracle und dedizierten Hetzner-VMs; auch Azure ist mit Cobalt 100 und Genoa konkurrenzfähig
    • Selbst mit 3-Jahres-Bindung bietet AWS ein besseres Preis-Leistungs-Verhältnis als Akamai und DigitalOcean
  • 3 Jahre reserviert, Multithread: Azure Cobalt 100 erreicht überraschend Platz 1; GCP und OCI ARM folgen; auch AWS- und GCP-Turin liegen nahe an der Spitzengruppe

Spot-/Preemptible-Instanzen: Vergleich von Leistung/Preis

  • Spot-Instanzen werden als einzige Möglichkeit in der Cloud dargestellt, die Kosten des Betriebs eigener Server annähernd zu erreichen
    • Warnzeit vor Rücknahme der Instanz: AWS und OCI 2 Minuten, Azure und GCP 30 Sekunden
    • Oracle bietet einen festen Rabatt von 50 %, bei den anderen drei Anbietern schwankt er je nach Region und Zeitpunkt stark
  • Single-Thread Spot: Oracle Turin steht dank fixem Rabatt stets an der Spitze; GCP und Azure bieten die tiefsten Rabatte (Genoa, Cobalt 100)
    • Mit Spot-Nutzung lässt sich gegenüber einer 3-Jahres-Reservierung etwa die doppelte Leistung pro Dollar erzielen
  • Multithread Spot: Azure Cobalt 100 auf Platz 1, OCI AmpereOne M auf Platz 2; bei GCP bietet t2d (Milan) je nach Region das beste Preis-Leistungs-Verhältnis; AWS schafft es mit Turin gerade eben in die Top 10

Gesamtfazit nach Cloud-Anbieter

  • AWS: Die höchste ARM-Leistung insgesamt geht mit der nicht öffentlichen Beta von Graviton5 an Google Axion verloren, die höchste x86-Leistung bleibt jedoch bei C8a (Turin) ohne SMT; On-Demand ist teurer als die Konkurrenz, mit Spot, Reserved und Flexsave aber wettbewerbsfähig; da die Rabatte auf ältere Instanzen gering ausfallen, ist C8a auch bei Spot die beste Wahl
  • GCP: Empfohlen werden Instanzen der 4. Generation mit ARM (Axion c4a) und AMD (Turin n4d, c4d); n4d bietet fast die gleiche Leistung wie c4d zu niedrigerem Preis; Granite Rapids ist ohne zusätzliche Kosten für lokale SSDs nicht verfügbar (min_cpu_platform aktuell nicht unterstützt); bei Spot hängt der optimale Instanztyp von der Region ab
  • Azure: Das selbst entwickelte ARM-Design Cobalt 100 liegt leistungsmäßig leicht unter Google Axion, ist preislich aber konkurrenzfähig; Turin und Granite Rapids sind zum Zeitpunkt des Schreibens noch in privater Vorschau; bei 3-jähriger Reservierung im Multithread-Bereich überraschend auf Platz 1
  • Oracle: Für kleinere Projekte wird die kostenlose ARM-VM A1 mit 4 Kernen ausdrücklich empfohlen; auch kostenpflichtige Instanzen bieten auf On-Demand-Basis ein Preis-Leistungs-Verhältnis auf dem Niveau der 1- bis 3-Jahres-Reservierungspreise der Big 3; AmpereOne M (A4) und Turin E6 sind jeweils die beste ARM- bzw. x86-Option; A4 ist nur in wenigen Regionen verfügbar
  • Akamai (Linode): Shared-Core-Linode bietet auf On-Demand-Basis nach Hetzner und Oracle das nächstbeste Preis-Leistungs-Verhältnis; da sich die CPU bei der Erstellung nicht auswählen lässt, sollte direkt geprüft werden, ob Milan genutzt wird (/proc/cpuinfo); bei dedizierten Instanzen kann die Generation angegeben werden (G8 = Turin), die Single-Thread-Leistung fällt dort jedoch ungewöhnlich niedrig aus
  • DigitalOcean: Wegen ausbleibender Upgrades über längere Zeit im Leistungsranking zurückgefallen, zudem treten Überlastungserscheinungen auf; die einfache Upgrade-Möglichkeit von Instanzen (One-Click-Typwechsel) bleibt ein Vorteil
  • Hetzner: Langfristig guter Ruf unter Nutzern, kein übermäßiges Overprovisioning (außer CX23); Shared Core CPX22 (Genoa) und CAX11 (ARM Altra) bieten das beste Preis-Leistungs-Verhältnis, sind aber auf EU/AP-Regionen beschränkt und oft ausverkauft; bei dedizierten Cores des CCX13 gibt es leistungsabhängige Unterschiede je nach Rechenzentrum

Abschließende Empfehlungen

  • Minimales Budget: Kostenloses Oracle-Tier → Hetzner (wenn EU-/AP-Regionen möglich sind) → Spot-Instanzen (Azure ARM, Oracle- oder GCP-ARM/AMD)
  • Bestes Preis-Leistungs-Verhältnis bei dedizierter CPU (On-Demand): Oracle AmpereOne M A4 oder Turin E6; bei Reservierung sind auch Azure Dpls_v6, GCP c4a/n4d und AWS C8a wettbewerbsfähig
  • Höchste Leistung: AWS C8a (Turin ohne SMT) bietet die höchste Performance pro einzelner Instanz; alle großen Anbieter mit Turin-Instanzen bilden die direkt darunterliegende Spitzengruppe

1 Kommentare

 
GN⁺ 2026-03-08
Hacker-News-Kommentare
  • Wir haben in unserer CI umfangreiche Tests laufen lassen. Dabei haben wir AMD-Turin-Instanzen von GCP verwendet, die laut Artikel auch zu den schnellsten gehören.
    Überraschenderweise ist der AMD EPYC 4565p bei der Single-Core-Leistung jedoch bis zu 2x schneller als Turin in der Cloud.
    Auf GCP dauerte der Test 2 Minuten, auf dem 4565p war er in 1 Minute fertig. In der Cloud hielt er 4,1 GHz, meine Maschine 5,1 GHz Boost.
    Bei GCP kostet das mit 8 vCPU $130 pro Monat (Spot-Instanz), mein 4565p hat dagegen 32 vCPU bei einem CPU-Preis von $500, und die ganze Maschine kostet unter $2.000.
    Für CI ist es meiner Meinung nach deutlich effizienter, selbst Hardware ins Rack zu stellen. Nach ein paar Monaten hat man die Cloud-Kosten wieder drin und bekommt 2x Leistung.

    • Bei Hetzner liegt eine 8-vCPU-Konfiguration bei etwa €10 bis €48 im Monat, und für €104 bekommt man einen Ryzen 9 7950X3D (fast identisch zum 4565p) + 128 GB DDR5 + 2x 2 TB SSD.
      Die Margen europäischer Anbieter sind viel niedriger als in den USA. Rein rechnerisch sind es 17 Monate, mit Colocation-Kosten eher 8 Jahre, bis es sich amortisiert.
    • Wenn bei einer $2.000-Maschine noch $100 Colocation pro Monat dazukommen, ergibt die Rechnung mit „nach ein paar Monaten amortisiert“ keinen Sinn.
      Selbst mit kostenloser Colocation dauert es über ein Jahr.
    • Ich habe früher eine Preisvergleichsseite betrieben (baremetalsavings.com).
      Heutige Entwickler empfinden Bare Metal oft als schwierig, aber tatsächlich ist die Cloud ähnlich komplex oder sogar noch komplexer.
    • Datapacket und OVH bieten den 4565p ebenfalls an. Diese CPU ist ein Geheimtipp. Für die meisten Workloads gehört sie bei Leistung und Preis-Leistung zur Spitze.
    • Blacksmith.sh verfolgt ein ähnliches Konzept. Der Unterschied ist, dass man die Hardware nicht selbst hosten muss.
  • Ich arbeite im Google-Compute-Engine-VM-Team. Dieser Beitrag war wirklich ein sehr gut aufbereiteter Benchmark.

    1. Turin ist ein Monster.
    2. Bei Preis-Leistung ist Hetzner besonders für kleinere Projekte hervorragend.
    3. DigitalOcean hat immer noch viel ältere Hardware, hat aber kürzlich teilweise mit Xeon-Prozessoren der 5. Generation erneuert.
    • Hetzner spielt seine Stärken vor allem bei dedizierten Servern aus.
  • Genoa war schon ein großer Sprung gegenüber Milan, aber Turin ist noch größer. AMD liefert derzeit wirklich stark ab. Applaus für das Team um Lisa Su.

    • Allerdings ist AMD beim Software-Ökosystem weiterhin schwach. Genau deshalb ist NVIDIA zu einem Unternehmen im Billionenbereich geworden.
      Beschleuniger wie MI300 sind auf dem Papier konkurrenzfähig, aber der Software-Stack ist schwach, deshalb interessiert sich kaum jemand dafür.
  • Vultr und HostHatch sind ebenfalls Optionen, die man sich anschauen sollte.

  • Ich habe ein paar Vergleiche mit meinem Gaming-PC gemacht (9800X3D, 8 Kerne bei 5,2 GHz).
    Die Ergebnisse von 7-Zip und Geekbench zeigen, dass Desktop-CPUs sowohl bei Single- als auch bei Multithreading deutlich schneller sind.
    Die Single-Thread-Leistung des C8A ist ordentlich, aber die Speicherleistung ist miserabel.

  • Ich frage mich, wie leicht man aus Oracle Cloud wieder herauskommt. Die Benchmarks sehen gut aus, aber ich habe gehört, dass der Lizenz-Lock-in stark ist.

    • Ich habe den Beitrag geschrieben. Oracle würde ich absolut nicht empfehlen. Preispolitik und Lock-in sind zu extrem.
      Für kleine Projekte nutze ich Oracle Cloud aber trotzdem, weil es so billig ist. Ich verwende kein DBaaS, sondern nur normale Linux-VMs.
    • Ich nutze Oracle Cloud seit Jahren beruflich. Solange man das proprietäre DBaaS meidet, ist der Ausstieg eher leicht, und Egress-Traffic ist kostenlos.
      Die UX ist allerdings wirklich grauenhaft.
    • Ich habe mich für den Trial angemeldet, und nach ein paar Tagen wurde das Konto geschlossen und die VM gelöscht. Zahlungsdaten konnte ich nicht einmal hinzufügen.
      Das Vertriebsteam hat mich ständig kontaktiert, aber gelöst wurde nichts. Auf Reddit hatten viele dieselbe Erfahrung.
    • Ich habe das Free Tier ausprobiert, aber die Kontoerstellung war kompliziert, und bei geringer Nutzung wurden Instanzen einfach abgeschaltet. Die Oberfläche wirkte insgesamt veraltet.
    • Jedes Mal, wenn ich mich bei Oracle Cloud einlogge, denke ich: „Warum muss ich mich überhaupt einloggen?“
  • Ich nutze immer noch ROME-EPYC-CPUs, die ich für ein paar hundert Dollar gekauft habe. Energieeffizienz ist nicht besonders gut, aber die Multithread-Leistung ist besser als beim 9950X.

  • Es freut mich zu sehen, dass mein 36-Euro-Glasfaseranschluss mit 250/250 immer noch ziemlich konkurrenzfähig ist.

  • Es sieht weiterhin so aus, als wäre eigene Hardware deutlich günstiger. Gerade für Entwicklungs- und Testumgebungen scheint das erst recht zu gelten.
    Ich verstehe nicht, warum große Unternehmen in die Cloud gehen, obwohl ihre Kapitalkosten niedriger sind als bei AWS.

    • Als die Cloud neu war, dauerte die Bestellung von Servern teils drei Monate, und Kosten für Strom, Kühlung und Betriebsaufwand waren hoch.
      Heute zahlt man aber in einer Struktur, in der auch die Kosten der AWS-Ingenieure eingepreist sind, und real bleibt es teuer.
      Server kommen inzwischen mit bis zu 288 Kernen, daher ist es absolut machbar, mit eigener Reserve selbst zu betreiben.
    • Ich habe zwei Kunden in Colocation migriert, und die Kosteneinsparungen waren dramatisch.
      Es ist völlig machbar, die Haupt-Workloads auf eigener Hardware zu betreiben und parallel Cloud-Storage zu nutzen.
    • Dass Cloud teurer ist als eigene Hardware, ist eigentlich offensichtlich. Gewählt wird sie trotzdem wegen Multi-Region-Optionen und einfacherem Management.
      In der Praxis ist der größere Grund aber oft: „Weil es alle machen.“
    • Es gibt auch viele Berichte nach dem Muster „Wir sind von AWS zu Hetzner gewechselt und haben 89 % gespart“.
      Dazu ein Beispiel
    • Andererseits bedeutet eigene Hardware zu pflegen und zu aktualisieren viel operativen Overhead, weshalb die Flexibilität der Cloud weiterhin attraktiv bleibt.
  • Es ist ironisch, dass Oracle als preislich attraktiver Anbieter erscheint, aber ich glaube nicht, dass man diesem Eindruck langfristig trauen kann.