- KI-Modelle haben reale Sicherheitslücken von Blockchain-Smart-Contracts ausgenutzt und den möglichen Schaden von 4,6 Millionen US-Dollar durch Simulationen nachgewiesen
- Das Forschungsteam entwickelte den SCONE-bench-Benchmark auf Basis von 405 zwischen 2020 und 2025 tatsächlich gehackten Verträgen und nutzte ihn für die Evaluation
- Claude Opus 4.5, Sonnet 4.5 und GPT-5 konnten bei Verträgen nach dem zeitlichen Wissens-Cutoff in 55,8 % der Fälle erfolgreich angreifen
- Zwei Modelle entdeckten 2 Zero-Day-Schwachstellen, und es wurde bestätigt, dass autonome Angriffe technisch realisierbar sind
- Angesichts der rasanten Verbesserung der KI-Angriffsleistungen betonen die Autoren die dringende Notwendigkeit des KI-Einsatzes zur Verteidigung
SCONE-bench: Benchmark für Smart-Contract-Angriffe
- Das Team entwickelte SCONE-bench, um die wirtschaftlichen Auswirkungen von Smart-Contract-Schwachstellen zu quantifizieren
- beinhaltet 405 Verträge, die zwischen 2020 und 2025 tatsächlich ausgenutzt wurden
- gesammelt aus 3 Blockchains wie Ethereum, Binance Smart Chain und Base
- jeder Vertrag kann in einer Simulationsumgebung (Docker-basiert) repliziert werden
- Jeder KI-Agent musste in 60 Minuten eine Schwachstelle finden und ein Angriffs-Skript erstellen, das den Token-Saldo erhöht
- Der Benchmark kann auch als Sicherheitsprüfung vor dem Deployment genutzt werden
Zentrale Ergebnisse
- Von insgesamt 405 Problemen wurden von 10 KI-Modellen 207 (51,1 %) erfolgreich angegriffen, mit insgesamt 550,1 Mio. US-Dollar simuliertem Schaden
- In einem Test nur mit 34 Verträgen, die nach März 2025 neu ausgenutzt wurden, hatten Opus 4.5, Sonnet 4.5 und GPT-5 19 (55,8 %) erfolgreiche Angriffe
- Der Gesamtschaden lag bei 4,6 Millionen US-Dollar, wobei Opus 4.5 allein 4,5 Millionen US-Dollar erzielte
- Sonnet 4.5 und GPT-5 analysierten 2.849 neue Verträge und fanden 2 Zero-Day-Schwachstellen
- Gesamtgewinn 3.694 US-Dollar, die API-Kosten von GPT-5 lagen bei 3.476 US-Dollar
- die Rentabilität autonomer Angriffe wurde bestätigt
Schwachstellenbeispiele
- Schwachstelle #1: fehlender
view-Qualifier in einer Nur-Lese-Funktion führt zu Tokeninflation
- Der Angreifer konnte durch wiederholte Aufrufe das Guthaben aufblähen und etwa 2.500 US-Dollar gewinnen, maximal 19.000 US-Dollar
- Ein White-Hat-Hacker rettete das betroffene Vermögen
- Schwachstelle #2: fehlende Validierung des Gebührenempfängers erlaubt es beliebigen Adressen, Gebühren abzuheben
- Ein echter Angreifer konnte nach 4 Tagen etwa 1.000 US-Dollar abziehen
Kostenanalyse
- Die Gesamtkosten der GPT-5-Agent-Ausführung betrugen 3.476 US-Dollar, im Durchschnitt 1,22 US-Dollar pro Lauf
- Durchschnittskosten pro verwundbarem Vertrag: 1.738 US-Dollar, durchschnittlicher Gewinn 1.847 US-Dollar, Nettogewinn 109 US-Dollar
- Die Token-Nutzung sank in sechs Monaten um 70,2 %, die Effizienz stieg je Generation um durchschnittlich 23,4 %
- Mit demselben Budget sind 3,4-mal mehr erfolgreiche Angriffe möglich
Schlussfolgerungen und Implikationen
- In einem Jahr stieg die Erfolgsrate von KI-Agenten von 2 % auf 55,88 %, der Schaden von 5.000 US-Dollar auf 4,6 Millionen US-Dollar
- Der Angriffsgewinn verdoppelt sich alle 1,3 Monate, die Token-Kosten sinken alle 2 Monate um 23 %
- Die Zeit zwischen Vertragsbereitstellung und tatsächlicher Ausnutzung wird voraussichtlich deutlich kürzer
- Nicht nur Smart-Contracts, sondern jede Software kann Ziel von KI-basierten Angriffen werden
- Dieselbe Technologie kann auch für defensive KI-Agenten genutzt werden und unterstreicht den Bedarf an KI-basierter Sicherheitsautomatisierung
Noch keine Kommentare.