0-Click-Exploit-Kette für Pixel 10
(projectzero.google)- Die Pixel-10-Kette verwendet als ersten Schritt die Dolby-0-Click-Schwachstelle, die vor dem Patch in Android allgemein vorhanden war, und ergänzt einen neuen lokalen Privilegieneskalationspfad
- Der BigWave-Treiber aus der Pixel-9-Kette ist auf dem Pixel 10 nicht vorhanden und konnte daher nicht portiert werden; stattdessen wurde
/dev/vpuauf dem Tensor G5 zur Angriffsfläche - Der VPU-Treiber legte die MMIO-Registerschnittstelle direkt für den Userspace offen, und bereits in nur zwei Stunden Audit wurde ein kritischer
mmap-Bug gefunden - Weil
remap_pfn_rangedas Mapping nicht an der Registergröße, sondern nur an der VMA-Größe ausrichtete, wurden Lese- und Schreibzugriffe auf Kernel-.textund.datamöglich - Die Schwachstelle wurde am 24. November 2025 gemeldet und nach 71 Tagen gepatcht; eine Härtung der Android-Treibersicherheit ist weiterhin nötig
Aufbau der Pixel-10-0-Click-Kette
- Aufbauend auf der Exploit-Kette, mit der auf dem Google Pixel 9 im 0-Click-Kontext über zwei Exploits Android-Root erreicht wurde, wurde auch für das Pixel 10 eine ähnliche Kette aufgebaut
- Die Dolby-0-Click-Schwachstelle war bis zum Patch im Januar 2026 in Android allgemein vorhanden und wurde auch in der Kette für das Pixel 10 als erster Schritt verwendet
- Der BigWave-Treiber, der im Pixel 9 den Schritt der lokalen Privilegieneskalation bildete, ist im Pixel 10 nicht enthalten und konnte daher nicht unverändert portiert werden; stattdessen wurde der
/dev/vpu-Treiber des Pixel 10 zur neuen Angriffsfläche
Update des Dolby-Exploits
- Die Anpassung des bestehenden Exploits für CVE-2025-54957 an das Pixel 10 bestand größtenteils darin, Offsets auf Basis der Pixel-9-Bibliotheken durch die entsprechenden Offsets in den Bibliotheken des Pixel 10 zu ersetzen
- Das Pixel 10 verwendet RET PAC statt
-fstack-protector, sodass__stack_chk_failnicht überschrieben werden konnte - Nach mehreren Versuchen wurde stattdessen der Initialisierungscode
dap_cpdp_initüberschrieben, der bei der Decoder-Initialisierung einmal aufgerufen und danach nicht erneut aufgerufen wird - Der aktualisierte Dolby-UDC-Exploit ist hier veröffentlicht und funktioniert nur auf ungepatchten Geräten mit Patchlevel Dezember 2025 oder älter
BigWave entfernt, VPU hinzugefügt
- Auf dem Pixel 10 fehlt der BigWave-Treiber, daher ließ sich der Schritt der lokalen Privilegieneskalation aus der bestehenden Pixel-9-Kette nicht portieren
- Stattdessen fiel der im mediacodec-SELinux-Kontext erreichbare
/dev/vpu-Treiber auf, der zur Interaktion mit dem Chips&Media Wave677DV-Silizium für hardwarebeschleunigte Videodekodierung im Tensor-G5-Chip dient - Aus den Kommentaren in den öffentlich zugänglichen C-Dateien geht hervor, dass dieser Treiber von derselben Gruppe entwickelt und gepflegt wird wie der BigWave-Treiber
- Bei einem zweistündigen Audit des VPU-Treibers zusammen mit Jann Horn wurde eine höchst ungewöhnliche Schwachstelle entdeckt
- Anders als der Upstream-Linux-Treiber für den früheren Chips&Media-Chip WAVE521C ist der WAVE677DV-Treiber im Pixel nicht in V4L2 („Video for Linux API“) integriert
- Der Pixel-Treiber legt die Hardware-Schnittstelle des Chips direkt für den Userspace offen und erlaubt dem Userspace, die MMIO-Registerschnittstelle des Chips zu mappen
- Die Hauptaufgaben des Treibers bestehen darin, Device-Memory-Mappings einzurichten, das Power-Management zu übernehmen und den Userspace beim Warten auf Chip-Interrupts zu unterstützen
Zentrale Kernel-Schwachstelle
- Der betreffende Bug war eine Schwachstelle mit sehr einfacher Ausnutzbarkeit
- Der problematische
mmap-Handler ist der Code, der den MMIO-Registerbereich der VPU-Hardware in den virtuellen Adressraum des Userlands mappt - Der Aufruf von
remap_pfn_rangewurde nicht auf die Größe des Registerbereichs begrenzt, sondern nur anhand der VMA-Größe ausgeführt - Ein Angreifer kann im
mmap-Systemaufruf eine größere Größe als den Registerbereich angeben und so ab der physischen Adresse des VPU-Registerbereichs beliebig viel physischen Speicher in das Userland mappen - Da sich das gesamte Kernel-Image an höheren physischen Adressen als der VPU-Registerbereich befindet, ermöglicht dieser Bug den Zugriff auf die Kernel-Bereiche
.textund.datasowie deren Modifikation - Auf Pixel-Geräten befindet sich der Kernel immer an derselben physischen Adresse, sodass der Offset zwischen dem VPU-Speicherbereich und dem Kernel stets bekannt ist
- Gibt man eine ausreichend große VMA-Länge an, lässt sich die genaue Position des Kernels relativ zu der von
mmapzurückgegebenen Adresse bestimmen, ohne den gemappten physischen Speicher nach dem Kernel scannen zu müssen - Um mit dieser Schwachstelle beliebige Lese- und Schreibzugriffe auf den Kernel zu erreichen, waren fünf Zeilen Code ausreichend, und das Schreiben des gesamten Exploits dauerte weniger als einen Tag
- Durch Überschreiben einer beliebigen Kernel-Funktion lässt sich Kernel-Codeausführung erlangen oder ein gewünschtes Primitive aufbauen
Patch-Verfahren
- Die Schwachstelle wurde am 24. November 2025 gemeldet, und das Android VRP bewertete das Problem als High Severity
- Der BigWave-Bug, der für die Privilegieneskalation auf dem Pixel 9 genutzt wurde, hatte dieselben Sicherheitsauswirkungen, war aber anfangs nur als Moderate eingestuft worden; die aktuelle Bewertung kann daher als verbesserte Behandlung gelten
- Die Schwachstelle wurde 71 Tage nach der ersten Meldung im Pixel-Sicherheitsbulletin für Februar gepatcht
- Erstmals wurde damit ein Android-Treiber-Bug innerhalb von 90 Tagen nach der ersten Meldung an den Vendor gepatcht
- Der Ablauf zeigt, dass sich Androids Reaktion beim Klassifizieren und Patchen ähnlicher Bug-Typen deutlich verbessert hat
Bedeutung für die Sicherheit
- Die Reaktion auf die VPU-Schwachstelle zeigt, dass sich Androids Klassifizierungs-Pipeline verbessert hat und dass die erste Korrektur deutlich schneller erfolgte als beim früheren BigWave-Problem
- Androids Bemühungen, schwerwiegende Schwachstellen effizient zu patchen, helfen dabei, viele Android-Geräte zu schützen
- Gleichzeitig braucht Android bei Treibern weiterhin gründlicheren und sicherheitsbewussteren Code
- Nach der Meldung des BigWave-Bugs hätte man erwarten können, dass die beteiligten Entwickler offensichtliche Sicherheitsprobleme in anderen Treibern prüfen; stattdessen wurde fünf Monate später im VPU-Treiber eine schwerwiegende Schwachstelle entdeckt, die schon bei einem oberflächlichen Audit sofort auffiel
- Für die Sicherheit des Android-Ökosystems bleibt eine Stärkung der Treibersicherheit weiterhin eine wichtige Priorität
- Vendoren sollten ihre Softwareentwicklungspraktiken im Vorfeld verbessern, damit Schwachstellen gar nicht erst bei Endnutzern ankommen; insbesondere sicherheitskritische Produkte sollten bereits zum Veröffentlichungszeitpunkt in einem vernünftigerweise schwachstellenarmen Zustand sein
- Software-Teams sollten bei Sicherheit, Code-Audits und dem Patchen von Schwachstellen einen proaktiven Ansatz verfolgen
1 Kommentare
Hacker-News-Kommentare
Als ich dem Link zum Pixel-9-Bug/Exploit gefolgt bin, stand dort, dass wegen der AI-Funktionen Medien dekodiert werden müssen, bevor der Nutzer die Nachricht öffnet, wodurch sich die 0-Click-Angriffsfläche vergrößert.
Ich hätte gedacht, diese Lektion hätten wir bereits gelernt. Nämlich: Lies keine SMS und verarbeite nichts daraus, wenn ich nicht darum gebeten habe.
Nutzer wählen Telefone mit umfangreichen Messaging-Funktionen. Beim iPhone war iMessage ein großes Verkaufsargument, und später hat Android mit RCS aufgeholt.
Das Absurde, das ich persönlich erlebt habe: Ich habe in einem BigTech-Webmail eine sehr verdächtige Nachricht mit ziemlich sicher bösartigem Anhang als Spam markiert, weil es kein Phishing war und es keine andere Option gab, und dann hat es „freundlicherweise“ ohne Erlaubnis auf meinem lokalen Browser den Abmeldelink geöffnet. Es ist schwer vorstellbar, wie viel Inkompetenz und organisatorische Dysfunktion nötig sind, um in einem sicherheits- und datenschutzsensiblen Kontext so eine Funktion zu schreiben, zu reviewen, freizugeben und auszurollen.
Auch 0-Days sind nicht besonders wichtig. Praktisch gibt es als Alternative nur das iPhone, und Huawei kommt je nach Region höchstens eingeschränkt infrage, also gibt es wenig Grund, sich darum zu kümmern. Wir brauchen dringend ein neues Smartphone-OS und eine neue Hardware-Schicht.
Da fiel auch der Satz: „Wenn ein Threat Actor interne Dokumente aktualisiert, kann er dadurch die AI beeinflussen.“ Aber wenn ein Threat Actor Dokumente aktualisiert, ist das System bereits kompromittiert. Es geht hier nicht um das Niveau von „Wikipedia-Vandalismus“.
Aus Nutzersicht ist es schwer hinnehmbar, bei jeder Nachricht aufpassen zu müssen, ob man sie öffnen darf. Wir haben schon versucht, die Verantwortung bei E-Mail-Anhängen auf die Nutzer abzuwälzen, und das Ergebnis war, fairerweise gesagt, katastrophal. Bösartige Anhänge sind wahrscheinlich einer der wichtigsten Wege zur Malware-Verbreitung.
Die Formulierung „Dies ist das erste Mal, dass ein Android-Treiberfehler innerhalb von 90 Tagen ab dem Zeitpunkt gepatcht wurde, zu dem der Vendor erstmals von der Schwachstelle erfuhr, daher ist dies besonders schnell“ verbessert zwar meinen Eindruck von Google, aber zugleich macht mir der Rest des Android-Ökosystems etwas Angst.
Ich frage mich, wie Apples Reaktionszeit aussieht.
Aber wenn dann ein Android-Update für das Grundsystem erscheint, wird der Migrationsaufwand enorm.
Wir sind ein paarmal hin und her gegangen, um einen stabileren Proof of Concept zu bauen, und nachdem ich einen zu 100 % reproduzierbaren Proof of Concept eingereicht hatte, waren es vermutlich noch etwa 2 Monate.
[1] https://gs.statcounter.com/android-version-market-share
[2] https://www.cybersecurity-insiders.com/survey-reveals-over-1...
Bei Treiber- und Firmware-Sicherheitsupdates ist das aber keineswegs sicher. Solche Updates müssen oft von einem vorgelagerten Zulieferer kommen, und der kann bereit sein, das Problem zu beheben – oder eben nicht. Kleinere Marken verkaufen oft günstige Android-Geräte und liefern überhaupt keine Updates.
Etwas damit verwandt: Ich frage mich, ob der Anteil öffentlich gemachter Exploits in letzter Zeit tatsächlich gestiegen ist oder ob das nur häufiger in den Nachrichten auftaucht, weil AI als Angriffs- und Verteidigungstool im Security-Bereich gerade so viel Aufmerksamkeit bekommt.
Es wirkt, als käme alle zwei Tage etwas Neues zu Linux, Windows, Mobilgeräten oder irgendeinem weit verbreiteten Tool heraus.
https://projectzero.google/2026/01/pixel-0-click-part-1.html
Also erzeugt AI mehr Bugs, und Menschen müssen sie wieder herausfischen.
Wenn man vor 2023 zurückgeht, lag die Verdopplungszeit bei veröffentlichten CVEs bei etwa 4 bis 4,5 Jahren, seitdem aber eher bei rund 2 Jahren. Es ist also eindeutig stark angestiegen.
Anders gesagt: Richtig eingesetzt ist es großartig, falsch eingesetzt wirklich übel.
Ich habe gehört, dass die Response-Teams durch die Flut an Meldungen überlastet sind.
Ich würde gern wissen, ob mein Eindruck stimmt. Ich habe den folgenden exakten Prompt in gpt 5.5 xhigh eingegeben.
Auch ohne Websuche hat es das Problem präzise erkannt. Ich würde das gern umfassender testen, etwa indem ich nicht nur eine einzelne Funktion, sondern ganze Codebase-Blöcke in den Prompt gebe. Das sieht nach potenzieller Fähigkeit zum Aufspüren von Security-Exploits aus. Dann frage ich mich aber, wie so etwas überhaupt veröffentlicht werden konnte. Ich weiß, dass das nur ein Spielzeugbeispiel ist, aber ich würde gern mehr darüber lernen.
Das ist im Grunde derselbe Einwand, der in einem Thread aufkam, in dem behauptet wurde, das aktuelle Modell sei so gut wie mythos.
Dafür, dass das von einem Idioten wie mir mit nur einem Claude-Abo ausprobiert wurde, ist das ziemlich beeindruckend.
Anders gesagt könnte es https://en.wikipedia.org/wiki/Base_rate_fallacy sein.
Ein großartiger Bugreport. Ich bin überhaupt kein Kernel-Experte und habe mich damit vor über zehn Jahren nur ein wenig beschäftigt, konnte aber trotzdem folgen und verstehen, was passiert ist.
Dass das ein wirklich schwerwiegender Bug war und dass die Suche danach offenbar gar nicht so viel Arbeit war, macht mir Angst davor, welche anderen Risiken noch verborgen sein könnten. Und weil in letzter Zeit viele Sicherheitsprobleme mit AI gefunden werden, bringt mich dieser Bericht zu zwei Gedanken: Fachwissen ist weiterhin extrem wertvoll, und je spezieller die Nische, desto wertvoller. Außerdem gibt es noch viele Nischen, die AI bislang nicht dominiert.
Ich frage mich, was aus iPhone-Jailbreaks geworden ist. Ich habe schon ziemlich lange nichts mehr dazu gesehen – was passiert da? Ich frage mich, ob ich etwas verpasst habe oder ob es tatsächlich nichts mehr gibt.
Beeindruckend ist es auf jeden Fall, was Apple da macht, aber ich würde gern wissen, ob es nach der aktuellen Entwicklung nur eine Frage der Zeit ist oder ob sich tatsächlich grundlegend etwas verändert hat.
Einiges dazu gibt es hier: https://security.apple.com/blog/memory-integrity-enforcement...
Deshalb ist so etwas wie die frühere iPhone-Jailbreak-Szene heute nicht mehr möglich.
Gibt es irgendwelche Belege dafür, welchen Einfluss AI auf das Geschäft von Firmen wie NSO hatte? Ich frage mich, ob sie dadurch überflüssig werden oder eher massiv aufgewertet werden.
Wenn das stimmt, wären das gute Nachrichten für alle außer NSO und ähnlichen Firmen.
Ich hatte schon einmal ein ähnliches Problem. Die Lösung wirkt vernünftig, aber bei der behaupteten Leistungsverbesserung bin ich skeptisch.
V4L2-Verbesserungen zur Unterstützung von Hardware-Video-Decoding warteten lange auf die Aufnahme, und inzwischen scheinen sie im Mainline-Kernel gelandet zu sein.
Offenbar wollten die Leute nicht so lange warten.
Ich finde es überraschend, dass sogar Project Zero Bugs bei Android über die offiziellen Kanäle melden und sich dann mit der Android-VRP-Schweregradklassifizierung herumschlagen muss.
Ich dachte immer, sie könnten einfach ins Android-Büro gehen und jemandem persönlich erklären, warum der Bug wichtig ist.