OSINT: Wie KI das kritische Denken schrittweise kollabieren lässt
(dutchosintguy.com)- OSINT (Analyse öffentlich zugänglicher Informationen) war ursprünglich ein „Spiel des Denkens“
- In letzter Zeit verwandelt es sich immer mehr in ein „Spiel des Vertrauens“, das auf AI-Tools angewiesen ist
- Beginnend mit Dokumentenzusammenfassungen, Übersetzungen und Berichtserstellung entwickelt es sich zu AI-gesteuerten Untersuchungen, wodurch kritisches Denken abnimmt
- In der Illusion, „smarter zu arbeiten“, zerfällt der eigentliche Denkprozess
Der Wandel durch die Verbreitung von AI
- Auch der Autor nutzt ChatGPT, Copilot, Claude, Gemini usw. täglich
- Das Problem ist, dass Analysten beginnen, schwierige Zwischenschritte zu überspringen und das Denken an AI abzugeben
- Bei OSINT geht es nicht nur um Geschwindigkeit, sondern vor allem um Urteilsvermögen – und das kann kein Modell liefern
- Wer kritische Gewohnheiten nicht bewahrt, wird vom Ermittler zum Bediener von Automatisierung
Forschungsergebnisse, die alle lesen sollten
- Anfang 2025 veröffentlichte ein Team von Carnegie Mellon und Microsoft Research eine Studie mit 319 Wissensarbeitern
- Ergebnis: Je größer das Vertrauen in AI, desto geringer tendenziell das kritische Denken
- Umgekehrt stellen Menschen mit höherem Selbstvertrauen mehr Fragen und überprüfen mehr
- Vertrauen in AI ist letztlich mit dem Verzicht auf eigenes Denken verbunden
Beobachtungen aus der Praxis
- Statt Hypothesen aufzustellen, fragt man AI nach Ideen
- Statt Quellen zu verifizieren, nimmt man an, AI habe das bereits getan
- Statt verschiedene Perspektiven zu bewerten, bearbeitet man nur noch die AI-Zusammenfassung und ist fertig
- Selbst Experten gewöhnen sich an diese Arbeitsweise und hören oft auf, weiterzudenken
Beispiele für den Missbrauch von AI im OSINT-Bereich
Fehlgeschlagene Bildverifikation
- Ein Protestfoto wurde in Gemini hochgeladen und mit „Wo wurde dieses Foto aufgenommen?“ abgefragt; die Antwort lautete „Paris“
- Anhand von Schildern, Kennzeichen und Baustil wäre Belgien klar erkennbar gewesen, doch das Vertrauen in AI führte zur Fehlbewertung
Verzerrte Personenprofile
- Fasst Claude die Online-Aktivitäten einer Person zusammen, beschreibt es sie als „Aktivist, Tech-Beschäftigter, harmlose Person“
- Aktivitäten in rechtsextremen Foren fehlen → das Risiko entsteht, die Person ohne Prüfung als Speaker für ein Event auszuwählen
Scheitern bei der Analyse von Desinformationskampagnen
- Telegram-Nachrichten wurden in ChatGPT eingegeben mit der Bitte um Zusammenfassung und Musteranalyse
- Sichtbar wurden nur Keywords, während Sprachmuster russischer Informationsmanipulationsgruppen übersehen wurden
Die Bedrohung, mit der OSINT-Analysten konfrontiert sind
- Alle genannten Beispiele sind sehr realistische OSINT-Fehlerszenarien
- Das Problem entstand nicht durch Böswilligkeit oder Faulheit, sondern weil Analysten den Tools zu sehr vertrauten
- AI kann Ermittlungsfähigkeit nicht ersetzen; unkritische Nutzung macht OSINT gefährlich
Das sterbende OSINT-Handwerk
- Handwerk bedeutet nicht eine „Liste von Tools“, sondern die Denkgewohnheit, zu zweifeln und zu überprüfen
- Dazu gehören Instinkte wie: bei einem merkwürdigen Eindruck noch einmal hinsehen, Metadaten prüfen oder sprachliche Widersprüche erkennen
- AI lässt Arbeit einfach erscheinen und entfernt dabei den Denkprozess
- Im Komfort verschwindet das Handwerk
Analysten früher und heute
Früher:
- Unscharfe Bilder wurden mit mehreren Tools analysiert, EXIF-Daten geprüft und Landmarken per Reverse Search untersucht
- Fremdsprachige Posts wurden manuell übersetzt, Hashtags verfolgt und Kontoaktivitäten geprüft
- Domain-WHOIS wurde analysiert, Subdomains verfolgt und Verbindungen über E-Mail untersucht
Heute:
- Man gibt ein Bild in AI ein, prüft nur den Ort und macht weiter
- Man lässt Posts von AI zusammenfassen und verwendet das Ergebnis sofort
- Man fragt AI: „Wer betreibt diese Domain?“ und vertraut der Antwort
Folgen des Kompetenzverlusts
- Verlust von kontextuellem Denken, Quervergleichen zwischen Quellen, Hypothesenprüfung und tiefer Recherchefähigkeit
- AI erzeugt mit überzeugenden Sätzen und selbstsicherem Ton leicht Täuschungen
- Böswillige Akteure nutzen die Schwächen von AI aus und speisen manipulierte Daten ein
Die neue Rolle des Analysten: Aufseher über AI
- GenAI wird nicht verschwinden; das Problem entsteht dann, wenn man es nicht als „Hilfsmittel“, sondern als „Maßstab für Urteile“ betrachtet
- Analysten müssen nun AI testen, verifizieren und anzweifeln
- Sie müssen nicht mehr „die Person sein, die Antworten findet“, sondern „die Person, die Antworten auseinanderbricht“
Wandel in der Denkweise von Analysten
- Früher bestand die Rolle einfach darin, AI Fragen zu stellen und Antworten zu erhalten;
heute muss sie sich dahin ändern, die von AI gelieferten Antworten genau zu verhören und zu verifizieren - Früher blieb es oft dabei, von AI erstellte Zusammenfassungen unverändert zu übernehmen;
heute muss man diese Zusammenfassungen im Detail zerlegen und analysieren, welche Informationen fehlen und welche Interpretationen eingeflossen sind - Früher wurden Vorschläge von AI oft direkt verwendet oder befolgt;
heute braucht es die Arbeit, diese Vorschläge zu zerlegen, ihre Entstehung zu verstehen und neu zusammenzusetzen - Früher neigte man dazu, den sauberen und entschiedenen Antworten von AI zu glauben;
heute muss man nachvollziehen, woher diese Antworten stammen und auf welchen Quellen sie beruhen – selbst wenn das mühsam und unordentlich ist - Früher wurde die Erstellung von Profilen zu Personen oder Ereignissen an AI delegiert;
heute ist es wichtig, selbst zu prüfen, ob die Narrative in diesen Profilen zum tatsächlichen Kontext passen - Früher wurde ein von AI gut erstellter Entwurf oft direkt eingereicht;
heute braucht es den Prozess, diesen Entwurf zu zerlegen, Probleme darin zu finden, ihn neu zusammenzubauen und wirklich zum eigenen zu machen
Wie sich kritisches Denken wiederbeleben lässt
Bewusst „Reibung“ hinzufügen
- Zu schnelle Ergebnisse sind riskant
- Auch bei von AI gelieferten Informationen sollten die üblichen Verifikationsschritte unverändert durchgeführt werden
Taktiken:
- „Was hätte ich ohne AI getan?“ → diese Arbeit tatsächlich ausführen
- Gezielt nach Gegenbeispielen suchen, um AI-Ausgaben zu prüfen
- Ein anderes Modell bitten: „Gib mir die exakt gegenteilige Interpretation“
Die Gewohnheit der Quellenprüfung wiederherstellen
- GenAI zitiert nicht im OSINT-Stil
- Namen, Links und Zitate, die das Modell liefert, müssen zwingend zurückverfolgt werden
Taktiken:
- AI-Ergebnis und tatsächliche Quelle nebeneinander vergleichen
- Auch bei einer Zusammenfassung unbedingt das Original öffnen
AI als „Denkpartner“ behandeln
- AI ist nur ein Junior-Analyst und braucht Aufsicht
Taktiken:
- AI bitten, die eigene Hypothese zu widerlegen
- Eigene Ermittlungsnotizen geben und auf fehlende Punkte hinweisen lassen
- AI nutzen, um verschiedene Perspektiven zu simulieren
Modelle miteinander vergleichen
- Die Ausgaben von ChatGPT, Claude, Gemini und Copilot vergleichen
- Unterschiede als Signal betrachten und ihre Ursache untersuchen
Das Modell absichtlich „kaputtmachen“
- Bewusst widersprüchliche oder mehrdeutige Fragen stellen
- Muster bei Fehlern erkennen → und durch menschliches Urteilsvermögen ausgleichen
Die „schwierige Arbeit“ weiter selbst machen
- AI ist ein Hilfsmittel, die Kernaufgaben sollten direkt selbst erledigt werden
Taktiken:
- Vor dem Einsatz von AI zunächst selbst eine Geolokalisierung versuchen
- Vor dem Lesen einer AI-Zusammenfassung zunächst selbst eine Zusammenfassung schreiben
- Vor der Profilerstellung mit AI erst selbst ein Profil erstellen und dann vergleichen
Der stille Kollaps und wie man ihm begegnet
- Der Kollaps kritischen Denkens kommt nicht plötzlich
- Je schneller und sauberer Berichte werden, desto eher kann das ein Warnsignal sein
- Gefährlich ist die Gewohnheit, Informationen zu glauben, die wie richtige Antworten aussehen, ohne sie zu prüfen
Doch all das lässt sich rückgängig machen
- Es ist nicht nötig, AI auszuschließen
- Stattdessen muss man AI herausfordern, anzweifeln und widersprechen
- Du bist kein „Tool-Nutzer“, sondern ein „Ermittler“
✅ Checkliste zur Vermeidung von AI-Missbrauch in OSINT
- ✅ Wurde der Ursprung der AI-Ausgabe zurückverfolgt?
- ✅ Wurden vor der Übernahme des AI-Ergebnisses auch nicht-AI-Quellen konsultiert?
- ✅ Wurde das Ergebnis mit Gegenhypothesen oder einem anderen Modell herausgefordert?
- ✅ Wurde es über mindestens zwei menschliche Quellen gegengeprüft?
- ✅ Wurde mindestens eine Aufgabe manuell ausgeführt?
- ✅ Wurde geprüft, ob in der AI-Ausgabe implizite Annahmen stecken?
- ✅ Wurde AI nicht als Quelle der Wahrheit, sondern als Denkpartner behandelt?
- ✅ Wurde der Verifikationsprozess absichtlich verlangsamt?
- ✅ Wurde die Frage gestellt: „Was glaube ich gerade ohne Prüfung?“
- ✅ Wurde den Lesern offengelegt, ob AI bei diesem OSINT-Ergebnis eingesetzt wurde?
1 Kommentare
Hacker-News-Kommentare
• Die Teilnehmer waren nicht faul. Sie waren erfahrene Fachleute
• Der beängstigende Teil ist, dass viele Nutzer dank GenAI glauben, sie würden kritisch denken
• Das große Problem bei Open-Source-Informationen ist nicht die tiefgehende Analyse, sondern in der Informationsflut das zu finden, was es wert ist, angesehen zu werden
• Anstatt Hypothesen aufzustellen, bitten Nutzer die AI um Ideen
• Ich denke, die physischen Handlungen und Momente des Schreibens oder Analysierens sind wichtig
• AI ist eine der Möglichkeiten, wie sie übermenschliche Intelligenz erreichen kann, indem sie Menschen dümmer macht
• Ich habe das Gefühl, dass AI das Lerntempo verlangsamt
• Ich arbeite seit über 20 Jahren als Analyst und nutze OSINT und AI
• OSINT und Analyse sind professionelle Fähigkeiten mit einer Methodik
• Wenn ich die Grundlagen von OSINT verstehen wollte, würde ich die Homepage besuchen
• Dieser Beitrag beschränkt sich nicht auf OSINT und kann breit auf Orte angewendet werden, an denen AI als neues Werkzeug übernommen wird