2 Punkte von GN⁺ 2025-04-05 | 1 Kommentare | Auf WhatsApp teilen
  • OSINT (Analyse öffentlich zugänglicher Informationen) war ursprünglich ein „Spiel des Denkens“
  • In letzter Zeit verwandelt es sich immer mehr in ein „Spiel des Vertrauens“, das auf AI-Tools angewiesen ist
  • Beginnend mit Dokumentenzusammenfassungen, Übersetzungen und Berichtserstellung entwickelt es sich zu AI-gesteuerten Untersuchungen, wodurch kritisches Denken abnimmt
  • In der Illusion, „smarter zu arbeiten“, zerfällt der eigentliche Denkprozess

Der Wandel durch die Verbreitung von AI

  • Auch der Autor nutzt ChatGPT, Copilot, Claude, Gemini usw. täglich
  • Das Problem ist, dass Analysten beginnen, schwierige Zwischenschritte zu überspringen und das Denken an AI abzugeben
  • Bei OSINT geht es nicht nur um Geschwindigkeit, sondern vor allem um Urteilsvermögen – und das kann kein Modell liefern
  • Wer kritische Gewohnheiten nicht bewahrt, wird vom Ermittler zum Bediener von Automatisierung

Forschungsergebnisse, die alle lesen sollten

  • Anfang 2025 veröffentlichte ein Team von Carnegie Mellon und Microsoft Research eine Studie mit 319 Wissensarbeitern
  • Ergebnis: Je größer das Vertrauen in AI, desto geringer tendenziell das kritische Denken
  • Umgekehrt stellen Menschen mit höherem Selbstvertrauen mehr Fragen und überprüfen mehr
  • Vertrauen in AI ist letztlich mit dem Verzicht auf eigenes Denken verbunden

Beobachtungen aus der Praxis

  • Statt Hypothesen aufzustellen, fragt man AI nach Ideen
  • Statt Quellen zu verifizieren, nimmt man an, AI habe das bereits getan
  • Statt verschiedene Perspektiven zu bewerten, bearbeitet man nur noch die AI-Zusammenfassung und ist fertig
  • Selbst Experten gewöhnen sich an diese Arbeitsweise und hören oft auf, weiterzudenken

Beispiele für den Missbrauch von AI im OSINT-Bereich

Fehlgeschlagene Bildverifikation

  • Ein Protestfoto wurde in Gemini hochgeladen und mit „Wo wurde dieses Foto aufgenommen?“ abgefragt; die Antwort lautete „Paris“
  • Anhand von Schildern, Kennzeichen und Baustil wäre Belgien klar erkennbar gewesen, doch das Vertrauen in AI führte zur Fehlbewertung

Verzerrte Personenprofile

  • Fasst Claude die Online-Aktivitäten einer Person zusammen, beschreibt es sie als „Aktivist, Tech-Beschäftigter, harmlose Person“
  • Aktivitäten in rechtsextremen Foren fehlen → das Risiko entsteht, die Person ohne Prüfung als Speaker für ein Event auszuwählen

Scheitern bei der Analyse von Desinformationskampagnen

  • Telegram-Nachrichten wurden in ChatGPT eingegeben mit der Bitte um Zusammenfassung und Musteranalyse
  • Sichtbar wurden nur Keywords, während Sprachmuster russischer Informationsmanipulationsgruppen übersehen wurden

Die Bedrohung, mit der OSINT-Analysten konfrontiert sind

  • Alle genannten Beispiele sind sehr realistische OSINT-Fehlerszenarien
  • Das Problem entstand nicht durch Böswilligkeit oder Faulheit, sondern weil Analysten den Tools zu sehr vertrauten
  • AI kann Ermittlungsfähigkeit nicht ersetzen; unkritische Nutzung macht OSINT gefährlich

Das sterbende OSINT-Handwerk

  • Handwerk bedeutet nicht eine „Liste von Tools“, sondern die Denkgewohnheit, zu zweifeln und zu überprüfen
  • Dazu gehören Instinkte wie: bei einem merkwürdigen Eindruck noch einmal hinsehen, Metadaten prüfen oder sprachliche Widersprüche erkennen
  • AI lässt Arbeit einfach erscheinen und entfernt dabei den Denkprozess
  • Im Komfort verschwindet das Handwerk

Analysten früher und heute

Früher:

  • Unscharfe Bilder wurden mit mehreren Tools analysiert, EXIF-Daten geprüft und Landmarken per Reverse Search untersucht
  • Fremdsprachige Posts wurden manuell übersetzt, Hashtags verfolgt und Kontoaktivitäten geprüft
  • Domain-WHOIS wurde analysiert, Subdomains verfolgt und Verbindungen über E-Mail untersucht

Heute:

  • Man gibt ein Bild in AI ein, prüft nur den Ort und macht weiter
  • Man lässt Posts von AI zusammenfassen und verwendet das Ergebnis sofort
  • Man fragt AI: „Wer betreibt diese Domain?“ und vertraut der Antwort

Folgen des Kompetenzverlusts

  • Verlust von kontextuellem Denken, Quervergleichen zwischen Quellen, Hypothesenprüfung und tiefer Recherchefähigkeit
  • AI erzeugt mit überzeugenden Sätzen und selbstsicherem Ton leicht Täuschungen
  • Böswillige Akteure nutzen die Schwächen von AI aus und speisen manipulierte Daten ein

Die neue Rolle des Analysten: Aufseher über AI

  • GenAI wird nicht verschwinden; das Problem entsteht dann, wenn man es nicht als „Hilfsmittel“, sondern als „Maßstab für Urteile“ betrachtet
  • Analysten müssen nun AI testen, verifizieren und anzweifeln
  • Sie müssen nicht mehr „die Person sein, die Antworten findet“, sondern „die Person, die Antworten auseinanderbricht“

Wandel in der Denkweise von Analysten

  • Früher bestand die Rolle einfach darin, AI Fragen zu stellen und Antworten zu erhalten;
    heute muss sie sich dahin ändern, die von AI gelieferten Antworten genau zu verhören und zu verifizieren
  • Früher blieb es oft dabei, von AI erstellte Zusammenfassungen unverändert zu übernehmen;
    heute muss man diese Zusammenfassungen im Detail zerlegen und analysieren, welche Informationen fehlen und welche Interpretationen eingeflossen sind
  • Früher wurden Vorschläge von AI oft direkt verwendet oder befolgt;
    heute braucht es die Arbeit, diese Vorschläge zu zerlegen, ihre Entstehung zu verstehen und neu zusammenzusetzen
  • Früher neigte man dazu, den sauberen und entschiedenen Antworten von AI zu glauben;
    heute muss man nachvollziehen, woher diese Antworten stammen und auf welchen Quellen sie beruhen – selbst wenn das mühsam und unordentlich ist
  • Früher wurde die Erstellung von Profilen zu Personen oder Ereignissen an AI delegiert;
    heute ist es wichtig, selbst zu prüfen, ob die Narrative in diesen Profilen zum tatsächlichen Kontext passen
  • Früher wurde ein von AI gut erstellter Entwurf oft direkt eingereicht;
    heute braucht es den Prozess, diesen Entwurf zu zerlegen, Probleme darin zu finden, ihn neu zusammenzubauen und wirklich zum eigenen zu machen

Wie sich kritisches Denken wiederbeleben lässt

Bewusst „Reibung“ hinzufügen

  • Zu schnelle Ergebnisse sind riskant
  • Auch bei von AI gelieferten Informationen sollten die üblichen Verifikationsschritte unverändert durchgeführt werden

Taktiken:

  • „Was hätte ich ohne AI getan?“ → diese Arbeit tatsächlich ausführen
  • Gezielt nach Gegenbeispielen suchen, um AI-Ausgaben zu prüfen
  • Ein anderes Modell bitten: „Gib mir die exakt gegenteilige Interpretation“

Die Gewohnheit der Quellenprüfung wiederherstellen

  • GenAI zitiert nicht im OSINT-Stil
  • Namen, Links und Zitate, die das Modell liefert, müssen zwingend zurückverfolgt werden

Taktiken:

  • AI-Ergebnis und tatsächliche Quelle nebeneinander vergleichen
  • Auch bei einer Zusammenfassung unbedingt das Original öffnen

AI als „Denkpartner“ behandeln

  • AI ist nur ein Junior-Analyst und braucht Aufsicht

Taktiken:

  • AI bitten, die eigene Hypothese zu widerlegen
  • Eigene Ermittlungsnotizen geben und auf fehlende Punkte hinweisen lassen
  • AI nutzen, um verschiedene Perspektiven zu simulieren

Modelle miteinander vergleichen

  • Die Ausgaben von ChatGPT, Claude, Gemini und Copilot vergleichen
  • Unterschiede als Signal betrachten und ihre Ursache untersuchen

Das Modell absichtlich „kaputtmachen“

  • Bewusst widersprüchliche oder mehrdeutige Fragen stellen
  • Muster bei Fehlern erkennen → und durch menschliches Urteilsvermögen ausgleichen

Die „schwierige Arbeit“ weiter selbst machen

  • AI ist ein Hilfsmittel, die Kernaufgaben sollten direkt selbst erledigt werden

Taktiken:

  • Vor dem Einsatz von AI zunächst selbst eine Geolokalisierung versuchen
  • Vor dem Lesen einer AI-Zusammenfassung zunächst selbst eine Zusammenfassung schreiben
  • Vor der Profilerstellung mit AI erst selbst ein Profil erstellen und dann vergleichen

Der stille Kollaps und wie man ihm begegnet

  • Der Kollaps kritischen Denkens kommt nicht plötzlich
  • Je schneller und sauberer Berichte werden, desto eher kann das ein Warnsignal sein
  • Gefährlich ist die Gewohnheit, Informationen zu glauben, die wie richtige Antworten aussehen, ohne sie zu prüfen

Doch all das lässt sich rückgängig machen

  • Es ist nicht nötig, AI auszuschließen
  • Stattdessen muss man AI herausfordern, anzweifeln und widersprechen
  • Du bist kein „Tool-Nutzer“, sondern ein „Ermittler“

✅ Checkliste zur Vermeidung von AI-Missbrauch in OSINT

  • ✅ Wurde der Ursprung der AI-Ausgabe zurückverfolgt?
  • ✅ Wurden vor der Übernahme des AI-Ergebnisses auch nicht-AI-Quellen konsultiert?
  • ✅ Wurde das Ergebnis mit Gegenhypothesen oder einem anderen Modell herausgefordert?
  • ✅ Wurde es über mindestens zwei menschliche Quellen gegengeprüft?
  • ✅ Wurde mindestens eine Aufgabe manuell ausgeführt?
  • ✅ Wurde geprüft, ob in der AI-Ausgabe implizite Annahmen stecken?
  • ✅ Wurde AI nicht als Quelle der Wahrheit, sondern als Denkpartner behandelt?
  • ✅ Wurde der Verifikationsprozess absichtlich verlangsamt?
  • ✅ Wurde die Frage gestellt: „Was glaube ich gerade ohne Prüfung?“
  • ✅ Wurde den Lesern offengelegt, ob AI bei diesem OSINT-Ergebnis eingesetzt wurde?

1 Kommentare

 
GN⁺ 2025-04-05
Hacker-News-Kommentare

• Die Teilnehmer waren nicht faul. Sie waren erfahrene Fachleute

  • Die Annahme, dass sie vor dem Aufkommen von AI hervorragende kritische Denker waren, ist übertrieben
  • Meiner Erfahrung nach haben Menschen, die ihr Denken an LLMs auslagern, ihr Denken auch schon an Podcasts, Nachrichtenartikel, Reddit-Posts, Twitter, TikTok usw. ausgelagert
  • LLMs haben ihnen Meinungen geliefert, die sie wiederholen können

• Der beängstigende Teil ist, dass viele Nutzer dank GenAI glauben, sie würden kritisch denken

  • Das unterscheidet sich nicht wesentlich davon, sich durch TikTok-Videos wie ein Experte zu fühlen
  • Menschen, die ihr Denken auslagern und Meinungen sammeln, die sie hören wollen, können nun leichter zu dem Schluss gelangen, den sie sich wünschen

• Das große Problem bei Open-Source-Informationen ist nicht die tiefgehende Analyse, sondern in der Informationsflut das zu finden, was es wert ist, angesehen zu werden

  • Aus Sicht der CIA nutzt die US-Geheimdienstgemeinschaft ein generatives-AI-System namens OSIRIS, um Open-Source-Informationen zu analysieren
  • Der frühere Leiter der CIA sagte, es werde hauptsächlich für Zusammenfassungen verwendet

• Anstatt Hypothesen aufzustellen, bitten Nutzer die AI um Ideen

  • Anstatt Quellen zu verifizieren, nehmen sie an, dass die AI dies bereits getan hat
  • Anstatt mehrere Perspektiven zu bewerten, integrieren und bearbeiten sie die Zusammenfassung der AI und gehen dann weiter
  • Das ist kein hypothetisches Szenario, sondern etwas, das tatsächlich geschieht

• Ich denke, die physischen Handlungen und Momente des Schreibens oder Analysierens sind wichtig

  • Ein unscharfes Bild in eine Bildbearbeitungssoftware zu laden und Manipulationswerkzeuge zu verwenden, ist ein wesentlicher Teil der Problemlösung
  • Ich arbeite gerade an einem Prozessflussdiagramm für die Fertigungslinie eines neuen Produkts
  • Ideen und Fragen scheinen aus diesen kleinen Zwischenräumen zu entstehen

• AI ist eine der Möglichkeiten, wie sie übermenschliche Intelligenz erreichen kann, indem sie Menschen dümmer macht

  • Die Nutzung von GenAI wirkt eher schädlich als wie ein nützliches Werkzeug
  • In einem Szenario, in dem man ein Foto hochlädt und nach dem Ort fragt, liefert die AI einen falschen Standort

• Ich habe das Gefühl, dass AI das Lerntempo verlangsamt

  • Ich lerne Rust, und AI hilft mir zwar beim Einstieg, aber es dauert länger, bis ich arbeitsfähig werde
  • Ich glaube, ich sollte AI abschalten und selbst kämpfen

• Ich arbeite seit über 20 Jahren als Analyst und nutze OSINT und AI

  • Die meisten Analysten verfügen über die Fähigkeit zum kritischen Denken
  • Weil OSINT nicht immer durch rechtliche Verfahren kontrolliert wird, können viele Menschen OSINT-Analysten werden
  • Es gibt Druck, den Vorschlägen der AI nachzugeben

• OSINT und Analyse sind professionelle Fähigkeiten mit einer Methodik

  • OSINT mit AI macht Dinge möglich, die zuvor unmöglich waren
  • Der Mangel an kritischem Denken könnte daran liegen, dass weniger Personal oder Prozesse zur Datenvalidierung vorhanden sind

• Wenn ich die Grundlagen von OSINT verstehen wollte, würde ich die Homepage besuchen

  • Aber eine einfache chatgpt-Abfrage würde schneller eine Antwort geben

• Dieser Beitrag beschränkt sich nicht auf OSINT und kann breit auf Orte angewendet werden, an denen AI als neues Werkzeug übernommen wird