24 Punkte von helio 2026-03-22 | 2 Kommentare | Auf WhatsApp teilen

Thinking—Fast, Slow, and Artificial

Eine Studie argumentiert, dass KI kein Werkzeug, sondern ein „drittes Denksystem“ ist

  • Januar 2026, Wharton School der University of Pennsylvania
    • Steven D. Shaw (Doktorand)
    • Gideon Nave (Professor für Marketing und Verhaltenswissenschaften)
  • Erweiterung des Modells menschlichen Denkens von System 1 / 2 zu System 1 / 2 / 3
  • Zentrale These:
    → KI ist nicht einfach ein Werkzeug, sondern ein extern operierendes Denksystem (System 3)

Kernkonzept

Bisher

  • System 1: schnelle Intuition
  • System 2: langsame Analyse

Neu hinzugefügtes Konzept

  • System 3: KI (externes kognitives System)
    • arbeitet außerhalb des Gehirns
    • automatisiert, datenbasiert, schnell
    • kann menschliches Denken unterstützen oder ersetzen

Cognitive Surrender (kognitive Kapitulation)

  • Definition:
    → das Phänomen, KI-Ergebnisse ungeprüft zu übernehmen

  • Unterschied zu bisherigen Konzepten:

    • Offloading: Nutzung eines Werkzeugs (wie eines Taschenrechners)
    • Surrender: die eigentliche Urteilsbildung wird abgegeben
  • Merkmal:

    • Nutzer nehmen nicht wahr: „Die KI hat geantwortet“, sondern
      → „Ich habe entschieden“

Zusammenfassung des Experiments

  • Teilnehmer: 1.372 Personen
  • Insgesamt 9.593 Trials
  • Die Genauigkeit der KI wurde absichtlich manipuliert

Ergebnis 1: Menschen folgen der KI fast unverändert

  • KI richtig → 92,7 % folgen ihr
  • KI falsch → 79,8 % folgen ihr

→ Selbst bei Fehlern wird sie meist akzeptiert


Ergebnis 2: Die Leistung wird von der KI abhängig

  • Nur Gehirn: 45,8 %
  • KI richtige Antwort: 71,0 %
  • KI falsche Antwort: 31,5 %

→ Wenn die KI falsch liegt, schneiden Menschen schlechter ab als allein


Ergebnis 3: Vertrauens- und Selbstsicherheitsproblem

  • Bei Nutzung von KI:
    • Selbstsicherheit steigt um +11,7 Prozentpunkte
    • unabhängig davon, ob die Antwort falsch ist

→ Selbst bei Fehlern steigt die Überzeugung


Ergebnisse nach Bedingungen

Zeitdruck

  • menschliches Denken wird geschwächt (weniger System 2)
  • KI-Abhängigkeit bleibt bestehen
  • Ergebnis:
    • Wenn die KI richtig liegt, hilft sie
    • Wenn die KI falsch liegt, verschlechtert sich das Ergebnis weiter

Belohnung + Feedback

  • mehr Fehlerkorrekturen
  • höhere Zurückweisungsrate falscher KI-Antworten
  • Aber:
    • Cognitive surrender verschwindet nicht vollständig

Individuelle Unterschiede

Zunahme von Cognitive surrender bei:

  • hohem Vertrauen in KI
  • geringer Neigung zu analytischem Denken
  • geringerer kognitiver Fähigkeit

Abnahme von Cognitive surrender bei:

  • hohem Fluid IQ
  • hohem Need for Cognition

Wichtiger Perspektivwechsel

Menschliches Denken ist nun nicht mehr
„schnelles Denken vs. langsames Denken“, sondern

→ verändert sich zu einer Struktur aus „mein Denken vs. KI-Denken“


Zentrale Risiken

  • Die Leistung verändert sich direkt mit der Genauigkeit der KI
  • In Fehlersituationen:
    • weniger eigenes Urteilen
    • mehr Gewissheit
  • Die Verantwortlichkeit wird unklar

Implikationen

  • Das Problem ist nicht, dass KI falsch liegt, sondern
    → dass Nutzer sie nicht verifizieren

  • Besonders
    → in Bereichen, die Urteile mit hoher Intelligenzanforderung verlangen, steigt das Risiko


Verwandt: https://news.ycombinator.com/item?id=47467913

2 Kommentare

 
bini59 2026-03-23

Hm, stimmt schon. Wenn die KI zu einer falschen Einschätzung kommt, bitte ich eher die KI, das zu korrigieren, statt selbst nachzudenken, und am Ende kam doch keine Antwort heraus, sodass ich dann noch eine neue Session aufgemacht habe …

 
mrtj0329 2026-03-23

Warum KI-Systeme nicht lernen und was man dagegen tun kann
Lehren zum autonomen Lernen aus der Kognitionswissenschaft
Emmanuel Dupoux, Yann LeCun, Jitendra Malik
https://arxiv.org/pdf/2603.15381