Denken — schnell, langsam und künstlich: Wie KI die Art und Weise neu formt, wie Menschen denken
(papers.ssrn.com)Thinking—Fast, Slow, and Artificial
Eine Studie argumentiert, dass KI kein Werkzeug, sondern ein „drittes Denksystem“ ist
- Januar 2026, Wharton School der University of Pennsylvania
- Steven D. Shaw (Doktorand)
- Gideon Nave (Professor für Marketing und Verhaltenswissenschaften)
- Erweiterung des Modells menschlichen Denkens von System 1 / 2 zu System 1 / 2 / 3
- Zentrale These:
→ KI ist nicht einfach ein Werkzeug, sondern ein extern operierendes Denksystem (System 3)
Kernkonzept
Bisher
- System 1: schnelle Intuition
- System 2: langsame Analyse
Neu hinzugefügtes Konzept
- System 3: KI (externes kognitives System)
- arbeitet außerhalb des Gehirns
- automatisiert, datenbasiert, schnell
- kann menschliches Denken unterstützen oder ersetzen
Cognitive Surrender (kognitive Kapitulation)
-
Definition:
→ das Phänomen, KI-Ergebnisse ungeprüft zu übernehmen -
Unterschied zu bisherigen Konzepten:
- Offloading: Nutzung eines Werkzeugs (wie eines Taschenrechners)
- Surrender: die eigentliche Urteilsbildung wird abgegeben
-
Merkmal:
- Nutzer nehmen nicht wahr: „Die KI hat geantwortet“, sondern
→ „Ich habe entschieden“
- Nutzer nehmen nicht wahr: „Die KI hat geantwortet“, sondern
Zusammenfassung des Experiments
- Teilnehmer: 1.372 Personen
- Insgesamt 9.593 Trials
- Die Genauigkeit der KI wurde absichtlich manipuliert
Ergebnis 1: Menschen folgen der KI fast unverändert
- KI richtig → 92,7 % folgen ihr
- KI falsch → 79,8 % folgen ihr
→ Selbst bei Fehlern wird sie meist akzeptiert
Ergebnis 2: Die Leistung wird von der KI abhängig
- Nur Gehirn: 45,8 %
- KI richtige Antwort: 71,0 %
- KI falsche Antwort: 31,5 %
→ Wenn die KI falsch liegt, schneiden Menschen schlechter ab als allein
Ergebnis 3: Vertrauens- und Selbstsicherheitsproblem
- Bei Nutzung von KI:
- Selbstsicherheit steigt um +11,7 Prozentpunkte
- unabhängig davon, ob die Antwort falsch ist
→ Selbst bei Fehlern steigt die Überzeugung
Ergebnisse nach Bedingungen
Zeitdruck
- menschliches Denken wird geschwächt (weniger System 2)
- KI-Abhängigkeit bleibt bestehen
- Ergebnis:
- Wenn die KI richtig liegt, hilft sie
- Wenn die KI falsch liegt, verschlechtert sich das Ergebnis weiter
Belohnung + Feedback
- mehr Fehlerkorrekturen
- höhere Zurückweisungsrate falscher KI-Antworten
- Aber:
- Cognitive surrender verschwindet nicht vollständig
Individuelle Unterschiede
Zunahme von Cognitive surrender bei:
- hohem Vertrauen in KI
- geringer Neigung zu analytischem Denken
- geringerer kognitiver Fähigkeit
Abnahme von Cognitive surrender bei:
- hohem Fluid IQ
- hohem Need for Cognition
Wichtiger Perspektivwechsel
Menschliches Denken ist nun nicht mehr
„schnelles Denken vs. langsames Denken“, sondern
→ verändert sich zu einer Struktur aus „mein Denken vs. KI-Denken“
Zentrale Risiken
- Die Leistung verändert sich direkt mit der Genauigkeit der KI
- In Fehlersituationen:
- weniger eigenes Urteilen
- mehr Gewissheit
- Die Verantwortlichkeit wird unklar
Implikationen
-
Das Problem ist nicht, dass KI falsch liegt, sondern
→ dass Nutzer sie nicht verifizieren -
Besonders
→ in Bereichen, die Urteile mit hoher Intelligenzanforderung verlangen, steigt das Risiko
2 Kommentare
Hm, stimmt schon. Wenn die KI zu einer falschen Einschätzung kommt, bitte ich eher die KI, das zu korrigieren, statt selbst nachzudenken, und am Ende kam doch keine Antwort heraus, sodass ich dann noch eine neue Session aufgemacht habe …
Warum KI-Systeme nicht lernen und was man dagegen tun kann
Lehren zum autonomen Lernen aus der Kognitionswissenschaft
Emmanuel Dupoux, Yann LeCun, Jitendra Malik
https://arxiv.org/pdf/2603.15381