7 Punkte von nell93 2026-03-12 | Noch keine Kommentare. | Auf WhatsApp teilen
  • Beim Blick auf den AIxCC-Wettbewerb und die Trends bei Hacking-Wettbewerben wurde der Paradigmenwechsel in der Sicherheitsbranche spürbar, und ich habe selbst einen Workflow zum Auffinden von Schwachstellen in realen Umgebungen aufgebaut.
  • Anfangs wurden auch Memory-Schwachstellen oder Black-Box-Hacking in Betracht gezogen, doch wegen politischer Einschränkungen und des Risikos von Server-Abstürzen wurde der Kurs geändert. Stattdessen wurden große Web-Open-Source-Projekte (Nextcloud, Matomo, Grafana usw.) als Ziel gewählt, bei denen der Code transparent offengelegt ist und die Kontextverständnis-Fähigkeiten von LLMs bei der Analyse komplexer Business-Logik besonders gut zur Geltung kommen können.
  • Um das Kostenproblem durch Token-Verbrauch (Nachhaltigkeit) zu lösen, wurde unter Bezug auf einen Benchmark-Beitrag, den ich bei GeekNews gesehen hatte, eine dreistufige Routing-Architektur auf Basis des preisleistungsstarken GLM-Modells entworfen.
    • Finding (GLM-4.7): Durch mehr Aufrufe der Version 4.7, die etwa dreimal günstiger ist als Spitzenmodelle, werden große Mengen potenzieller Schwachstellen-Kandidaten durchsucht
    • Semi-Triage (GLM-5): Offensichtliche False Positives werden in einem ersten Schritt herausgefiltert
    • Triage (Codex 5.3): Nur die überlebenden Daten werden vom Spitzenmodell final validiert und automatisch an Discord/Notion gemeldet (vor der Meldung reproduziert und überprüft ein Mensch die Funde direkt)
  • Durch Prompt Engineering wurde die für LLMs typische träge Eigenschaft, Dinge nur oberflächlich zu überfliegen, kontrolliert.
    • Es wurde erzwungen, dass die drei Elemente „Angreiferbedingungen, Serverbedingungen, Sicherheitsauswirkung (CIA)“ zwingend in der Antwort ausgegeben werden
    • Die Modelle mussten die offiziellen Sicherheitsrichtlinien und Dokumentationen des Open-Source-Projekts gegenprüfen, um einfache Bugs und Sicherheitslücken klar zu unterscheiden
  • Dadurch gelang es der AI letztlich, feine logische Lücken zu erkennen, die Menschen beim Abgleichen von Zehntausenden Zeilen Routing-Code und Berechtigungs-Engines wegen nachlassender Konzentration leicht übersehen können.
  • Besonders hervorzuheben ist, dass die AI in der Grafana-Dashboard-Berechtigungsverwaltungs-API eine Schwachstelle entdeckte, bei der bei einer internen Berechtigungsprüfung das Scope-Argument fehlte. Dadurch konnte eine schwerwiegende Privilege-Escalation-Sicherheitslücke gemeldet werden, mit der sich die Kontrolle über andere Dashboards übernehmen lässt (CVE-2026-21721, CVSS 8.1).
  • Darüber hinaus wurden auch in Nextcloud (XSS, Authentifizierungsumgehung), Protobuf (DoS), Airflow und Discourse zahlreiche Zero-Days (CVE) und Bounties erzielt.
  • Für die Zukunft wird erwartet, dass AI einen erheblichen Teil der reinen Schwachstellenfindung (Red Team) ersetzt. Geteilt wird die Einschätzung, dass künftig für Hacker vor allem die Fähigkeit wichtiger wird, solche AI-Sicherheits-Workflows selbst zu entwerfen und aus Blue-Team-Perspektive Verteidigungsstrategien passend zur Geschäftssituation zu entwickeln.

Noch keine Kommentare.

Noch keine Kommentare.