5 Punkte von GN⁺ 2025-12-05 | Noch keine Kommentare. | Auf WhatsApp teilen
  • KI-Modelle haben reale Sicherheitslücken von Blockchain-Smart-Contracts ausgenutzt und den möglichen Schaden von 4,6 Millionen US-Dollar durch Simulationen nachgewiesen
  • Das Forschungsteam entwickelte den SCONE-bench-Benchmark auf Basis von 405 zwischen 2020 und 2025 tatsächlich gehackten Verträgen und nutzte ihn für die Evaluation
  • Claude Opus 4.5, Sonnet 4.5 und GPT-5 konnten bei Verträgen nach dem zeitlichen Wissens-Cutoff in 55,8 % der Fälle erfolgreich angreifen
  • Zwei Modelle entdeckten 2 Zero-Day-Schwachstellen, und es wurde bestätigt, dass autonome Angriffe technisch realisierbar sind
  • Angesichts der rasanten Verbesserung der KI-Angriffsleistungen betonen die Autoren die dringende Notwendigkeit des KI-Einsatzes zur Verteidigung

SCONE-bench: Benchmark für Smart-Contract-Angriffe

  • Das Team entwickelte SCONE-bench, um die wirtschaftlichen Auswirkungen von Smart-Contract-Schwachstellen zu quantifizieren
    • beinhaltet 405 Verträge, die zwischen 2020 und 2025 tatsächlich ausgenutzt wurden
    • gesammelt aus 3 Blockchains wie Ethereum, Binance Smart Chain und Base
    • jeder Vertrag kann in einer Simulationsumgebung (Docker-basiert) repliziert werden
  • Jeder KI-Agent musste in 60 Minuten eine Schwachstelle finden und ein Angriffs-Skript erstellen, das den Token-Saldo erhöht
  • Der Benchmark kann auch als Sicherheitsprüfung vor dem Deployment genutzt werden

Zentrale Ergebnisse

  • Von insgesamt 405 Problemen wurden von 10 KI-Modellen 207 (51,1 %) erfolgreich angegriffen, mit insgesamt 550,1 Mio. US-Dollar simuliertem Schaden
  • In einem Test nur mit 34 Verträgen, die nach März 2025 neu ausgenutzt wurden, hatten Opus 4.5, Sonnet 4.5 und GPT-5 19 (55,8 %) erfolgreiche Angriffe
    • Der Gesamtschaden lag bei 4,6 Millionen US-Dollar, wobei Opus 4.5 allein 4,5 Millionen US-Dollar erzielte
  • Sonnet 4.5 und GPT-5 analysierten 2.849 neue Verträge und fanden 2 Zero-Day-Schwachstellen
    • Gesamtgewinn 3.694 US-Dollar, die API-Kosten von GPT-5 lagen bei 3.476 US-Dollar
    • die Rentabilität autonomer Angriffe wurde bestätigt

Schwachstellenbeispiele

  • Schwachstelle #1: fehlender view-Qualifier in einer Nur-Lese-Funktion führt zu Tokeninflation
    • Der Angreifer konnte durch wiederholte Aufrufe das Guthaben aufblähen und etwa 2.500 US-Dollar gewinnen, maximal 19.000 US-Dollar
    • Ein White-Hat-Hacker rettete das betroffene Vermögen
  • Schwachstelle #2: fehlende Validierung des Gebührenempfängers erlaubt es beliebigen Adressen, Gebühren abzuheben
    • Ein echter Angreifer konnte nach 4 Tagen etwa 1.000 US-Dollar abziehen

Kostenanalyse

  • Die Gesamtkosten der GPT-5-Agent-Ausführung betrugen 3.476 US-Dollar, im Durchschnitt 1,22 US-Dollar pro Lauf
  • Durchschnittskosten pro verwundbarem Vertrag: 1.738 US-Dollar, durchschnittlicher Gewinn 1.847 US-Dollar, Nettogewinn 109 US-Dollar
  • Die Token-Nutzung sank in sechs Monaten um 70,2 %, die Effizienz stieg je Generation um durchschnittlich 23,4 %
    • Mit demselben Budget sind 3,4-mal mehr erfolgreiche Angriffe möglich

Schlussfolgerungen und Implikationen

  • In einem Jahr stieg die Erfolgsrate von KI-Agenten von 2 % auf 55,88 %, der Schaden von 5.000 US-Dollar auf 4,6 Millionen US-Dollar
  • Der Angriffsgewinn verdoppelt sich alle 1,3 Monate, die Token-Kosten sinken alle 2 Monate um 23 %
  • Die Zeit zwischen Vertragsbereitstellung und tatsächlicher Ausnutzung wird voraussichtlich deutlich kürzer
  • Nicht nur Smart-Contracts, sondern jede Software kann Ziel von KI-basierten Angriffen werden
  • Dieselbe Technologie kann auch für defensive KI-Agenten genutzt werden und unterstreicht den Bedarf an KI-basierter Sicherheitsautomatisierung

Noch keine Kommentare.

Noch keine Kommentare.