- Die AI-Agenten in Notion 3.0 bieten die autonome Ausführung von Multi-Step-Workflows, darunter das Erstellen von Dokumenten, das Aktualisieren von Datenbanken und das Aufrufen externer Connectoren
- Wenn Agenten über Tool-Zugriffsrechte und Langzeitgedächtnis verfügen, entsteht eine erweiterte Angriffsfläche, die sich mit klassischem RBAC nur schwer kontrollieren lässt
- Die Analyse zeigt, dass das Input-Schema der
web search-Funktion des Notion-Agenten als Datenabfluss-Vektor missbraucht werden kann, indem bösartige indirekte Prompts interne Geheimnisse nach außen übertragen
- In einer Demo wiesen Angreifer mithilfe von in einer PDF versteckter Prompt Injection einen Ausführungsablauf nach, bei dem der Agent geheime Kundendaten extrahiert, verknüpft und per Web-Query überträgt
- Der Fall zeigt, wie die tödliche Dreierkombination („lethal trifecta“) aus Agent, Tool und Speicher in der Praxis gravierende Sicherheitsfolgen haben kann, wenn MCP-Integrationen und externe Connectoren zusammenkommen
Einführung in AI Agents und Notion 3.0
- In jüngster Zeit werden AI Agents zunehmend in SaaS-Plattformen integriert
- Auch in Notion 3.0 kann ein AI-Agent automatisch alle Aufgaben übernehmen, die Nutzer ausführen können, etwa Dokumente erstellen, DBs aktualisieren, mehrere Tools durchsuchen und Multi-Step-Workflows ausführen
- Durch die MCP-Integration ist eine Anbindung an verschiedene externe Tools möglich, was noch leistungsfähigere Automatisierung und die Erstellung angepasster Agenten ermöglicht
- Es lassen sich auch teambasierte Custom Agents erstellen, die per Trigger oder Zeitplan laufen und wiederkehrende Aufgaben wie Feedback-Sammlung, Tracker-Updates oder das Vorsortieren von Anfragen automatisieren
Das Problem der „tödlichen Dreierkombination (lethal trifecta)“
- Die von Simon Willison beschriebene 'tödliche Dreierkombination (Lethal Trifecta)' bezeichnet eine Sicherheitsbedrohung, die aus der Kombination von LLM-Agenten, Tool-Zugriff und Langzeitgedächtnis entsteht
- In Notion 3.0 können Agenten eigenständig Aktionspläne erstellen und sowohl MCP-integrierte Tools als auch eingebaute Tools ausführen
- Agenten mit weitreichenden Berechtigungen automatisieren Dokument-, Datenbank- und externe-Connector-Aktionen auf Arten, die durch klassisches RBAC nicht vorhergesehen wurden
- Dadurch erweitern sich die Bedrohungsindikatoren für den Abfluss oder Missbrauch sensibler Daten über mehrstufige automatisierte Workflows
Technische Details der Schwachstelle: Angriff zum Datenabfluss aus Notion-Seiten über das Web-Suchtool von Notion AI
Angriffsvorführung: Schritt für Schritt durch ein Datendiebstahl-Szenario
-
1. Schritt: Erstellung einer bösartigen PDF
- In ein äußerlich harmloses PDF mit Kundenfeedback wird heimlich ein bösartiger Prompt eingebettet, der wie eine Ausführungsanweisung wirkt
- Dieser versteckte Prompt tarnt sich als „wichtige Routineaufgabe“ und weist an, Daten an ein internes Backend-System zu senden
- Wesentliche Inhalte des bösartigen Prompts
- Autoritätsbehauptung (Authority assertion): Aussagen wie "Important routine task" und "consequences" sollen den Eindruck einer „wichtigen Routineaufgabe“ erzeugen
- Künstliche Dringlichkeit (False urgency): Es wird betont, dass Nichtausführung Folgen für die Organisation habe
- Technische Glaubwürdigkeit (Technical legitimacy): Interne Systeme und Tool-Befehlssyntax werden realistisch beschrieben
- Security Theater: Formulierungen wie "pre-authorized" und "safe from security perspective" betonen fälschlich, der Vorgang sei vorab genehmigt und sicher
- Der Agent, der die PDF liest, soll Unternehmensdaten wie Kundenname oder ARR extrahieren und an eine URL senden, die auf ein internes System verweist, aber vom Angreifer kontrolliert wird
-
2. Schritt: Warten auf Nutzerinteraktion
- Der Angriff wird ausgelöst, wenn ein Notion-Nutzer die PDF in Notion hochlädt oder den Agenten um eine Zusammenfassung bittet
- Bei Anweisungen wie „Bericht zusammenfassen“ interpretiert die AI auch den heimlich eingebetteten Prompt
-
3. Schritt: Tatsächlicher Datenabfluss
- Der Agent kombiniert gemäß den Prompt-Anweisungen Kundendaten wie Firmenname, Branche und ARR zu einer einzigen Zeichenfolge
- Danach erzeugt er eine URL mit der Domain des Angreifers als Ziel und übergibt diese URL als Query an das Web-Suchtool
- Der bösartige Server, der diese Anfrage empfängt und vom Angreifer kontrolliert wird, sammelt daraufhin die sensiblen Daten
- In diesem Angriffsszenario zeigte sich, dass Sicherheits-Guardrails umgangen werden konnten, obwohl innerhalb von Notion AI das Modell Claude Sonnet 4.0 verwendet wurde
Wie MCP-Integrationen die Angriffsfläche von Notion-AI-Agenten erweitern
- Notion unterstützt AI Connectoren für viele Quellen wie GitHub, Gmail und Jira
- Kontext und Metadaten, die jeder Connector dem Agenten bereitstellt, schaffen zusätzliche Angriffsflächen und erhöhen die Wahrscheinlichkeit, dass bösartige Prompts aus externen Quellen per indirekter Prompt Injection eingeschleust werden
- Das Risiko unbeabsichtigter automatisierter bösartiger Aktionen und von Versuchen zum Abfluss sensibler Daten steigt
- Beispielszenario: Eine bösartige Commit-Message, ein Issue-Text oder eine externe E-Mail könnte als indirekter Prompt wirken und den Agenten dazu veranlassen, auf interne Daten zuzugreifen und sie zu übertragen
Implikationen und Empfehlungen (Kurzfassung)
- Zentrale Erkenntnis: Wenn Agenten Tool-Zugriffsrechte besitzen, können bösartige Anweisungen in Dokumenten zu Tool-Aufrufen und damit zum Abfluss vertraulicher Informationen führen
- Verteidigungspunkte (Diskussionspunkte):
- Tool-Aufrufe von Agenten sollten Herkunftsprüfung, Kontextbegrenzung und richtlinienbasierte Filterung durchlaufen
- Ausführungsanweisungen in Dokumenten, etwa Hinweise zur URL-Bildung, sollten nur nach zusätzlicher Sicherheitsprüfung, menschlicher Bestätigung oder in einer isolierten Ausführungsumgebung verarbeitet werden
- Für jeden MCP-Connector sind das Prinzip der minimalen Rechtevergabe sowie stärkere Aufrufprotokollierung und Benachrichtigungsmechanismen nötig
- Fazit: Die Funktionen von Notion 3.0 haben großes Potenzial zur Produktivitätssteigerung, doch die neuen Angriffsvektoren, die durch die Kombination aus Agent, Tool und Speicher entstehen, erfordern eine Neubewertung des Sicherheitsdesigns in der Praxis
1 Kommentare
Hacker-News-Kommentare
Dadurch denke ich bei Prompt Injection an Phishing gegen ein Wesen, das ohne Ich-Bewusstsein und Selbstreflexion nicht innehalten und misstrauisch werden kann.
float, alles innerhalb einer Sandbox ohne Netzwerkzugriff. Etwa "Fasse alle öffentlichen GitHub-Issues zusammen und speichere sie in der DB" könnte so sicher möglich sein, wenn die nicht vertrauenswürdigen Inhalte nur in der Sandbox verarbeitet werden!