6 Punkte von GN⁺ 2025-06-28 | 3 Kommentare | Auf WhatsApp teilen
  • Eine MIT-Studie zeigte bei der Gruppe, die ChatGPT nutzte, relativ geringere Gehirnaktivität
  • Der Einsatz von KI führt zu weniger Kreativität und Vielfalt und verursacht eine Vereinheitlichung der Ergebnisse
  • Eine Studie der Cornell University bestätigte ebenfalls, dass selbst Schreiben mit kulturellen und individuellen Unterschieden bei der Nutzung von KI zu westlichen, durchschnittlichen Tendenzen konvergiert
  • Durchschnittliche und sichere Antworten, die KI präsentiert, fördern die Abschwächung kultureller Vielfalt und Individualität
  • Die langfristigen Auswirkungen verbreiteter KI sind noch nicht ausreichend bekannt, doch die Vereinfachung und Vereinheitlichung des Denkens gilt als zentrales Anliegen

Experimente und wichtigste Erkenntnisse

  • 2023 teilte das MIT mehr als 50 Studierende aus dem Raum Boston für ein Experiment zum Verfassen von Essays im SAT-Stil in drei Gruppen ein
    • Eine Gruppe nutzte ausschließlich ihr eigenes Gehirn
    • Die zweite Gruppe durfte Google Search verwenden
    • Die dritte Gruppe schrieb ihren Essay mit ChatGPT
  • Alle Teilnehmenden trugen Headsets zur Messung von Gehirnwellen; die Analyse ergab, dass die Gehirnaktivität in der ChatGPT-Gruppe am niedrigsten war
    • In dieser Gruppe wurde eine verringerte Konnektivität (Alpha- und Theta-Wellen) zwischen verschiedenen Gehirnregionen beobachtet
    • Einige Nutzende zeigten ein fehlendes Gefühl von Eigentümerschaft gegenüber ihrem Essay, und die meisten konnten den eigenen Text nicht einmal zitieren
    • Das MIT-Forschungsteam bezeichnete dies als kognitive Kosten durch KI-Abhängigkeit

Wie KI das Denken nivelliert

  • Die Essays der Gruppe, die ChatGPT nutzte, tendierten dazu, sich bei ähnlichen Wörtern und Ideen anzunähern
    • Trotz SAT-Prompts, die zu offenen Antworten anregen sollten, zeigte die KI-Gruppe einheitliche Logik und Wortwahl
    • So konzentrierten sich Antworten auf „wahres Glück“ durchweg auf Karriere und Erfolg, und bei der „moralischen Pflicht zu spenden“ wurde nur eine gleichförmige zustimmende Haltung vertreten
  • Nach den Worten des MIT-Forschers Kosmyna zeigte sich ein Phänomen, bei dem „alles zu einem Durchschnitt zusammengezogen wird“

Abschwächung gesellschaftlicher und kultureller Vielfalt

  • Das Cornell-Forschungsteam führte ein Experiment durch, bei dem Nutzende aus den USA und Indien Texte schrieben, die ihren jeweiligen kulturellen Hintergrund widerspiegeln sollten
    • Einige nutzten eine mit ChatGPT verbundene Autovervollständigung, andere nicht
    • Bei Verwendung der Autovervollständigung konvergierten die Texte der Teilnehmenden zu westlichen, durchschnittlichen Tendenzen und ähnelten sich stärker
    • Bei Fragen zu Essen und Feiertagen waren Pizza und Weihnachten Standardantworten, regionale Unterschiede blieben schwach
    • Selbst Details und Atmosphäre der Essays verschoben sich in Richtung gewöhnlicher Formulierungen

Einfluss von KI-Vorschlägen und Verlust von Identität

  • Der Autor erklärt, dass die Vorschlagsfunktion von KI einen „hypnotischen Effekt“ habe, der die eigene Stimme von Schreibenden abschwäche
    • Durch anhaltende Exposition wächst die Sorge vor dem Verlust von Selbstvertrauen und Identität beim Schreiben
    • KI-Vorschläge nivellieren nicht nur die Gedanken der Nutzenden, sondern sogar deren Denkweise selbst
    • Dadurch entsteht auch das Potenzial, gesellschaftliche Vorstellungen davon zu verändern, „was normal und wünschenswert ist“

Industrielle Anreize und kulturelle Standardisierung

  • OpenAI und andere KI-Entwickler entwerfen ihre Systeme so, dass möglichst viele Nutzende mit allgemeinen und durchschnittlichen Ergebnissen zufrieden sind
    • Je eher ein Modell-Output für irgendjemanden akzeptabel ist, desto mehr zahlende Nutzende lassen sich gewinnen
    • Unter dem Aspekt der Effizienz lässt sich eine Art Skaleneffekt erreichen, wenn „alles gleich ist“

KI und Kreativität: experimentelle Grenzen

  • OpenAI-CEO Sam Altman und andere behaupten, KI könne jeden zum Kreativen machen

  • In den Experimenten zeigte sich jedoch, dass die KI-Gruppe bei der Originalität eher durchschnittliche und ähnliche Ideen hervorbrachte

    • Eine Studie der Santa Clara University verglich ChatGPT mit einem bestehenden Kreativitätswerkzeug, Oblique Strategies
    • ChatGPT-Nutzende zeigten bei ihren Ideen semantische Ähnlichkeit, also eine Tendenz zur Vereinheitlichung
  • Laut dem Experimentanalysten Max Kreminski wird ursprüngliches menschliches Denken zunehmend in Richtung des Mittelwerts der KI gezogen

    • Weil KI wiederholt schnell „ausreichend gute Antworten“ liefert, konzentrieren sich Nutzende eher auf die Auswahl von KI-Ergebnissen als auf ihre eigenen Ideen
    • Je länger die Unterhaltung dauert, desto stärker fördern die Grenzen des Context Window der KI noch repetitivere und durchschnittlichere Antworten

Die verbreitete KI-Umgebung und der Mangel an Informationsvielfalt

  • Die Studien sind überwiegend kleine Experimente, und die langfristigen Auswirkungen von KI bleiben weiterhin unklar
  • In Angeboten wie der KI-App von Meta werden massenhaft übermäßig glatte und uniforme Inhalte erzeugt, die von zahllosen Menschen erstellt werden
    • Bei automatisierten E-Mails und alltäglichen Anfragen wimmelt es von vereinheitlichten Formaten und Wortschatzmustern
    • Selbst in tatsächlichen Prompt-Beispielen listet KI nur positive Zukunftsbilder auf und blendet negative Szenarien oder Risiken aus
    • Das deutet darauf hin, dass ein technikfreundlicher Bias im KI-Designprozess zu weniger Vielfalt in den Ergebnissen führen kann

Fazit und Ausblick

  • Wer nur den von KI präsentierten Informationen glauben will, muss aufhören zu denken
  • Es wächst die Notwendigkeit sozialer und kultureller Wachsamkeit gegenüber der von KI verursachten Nivellierung des Denkens und Schwächung der Kreativität

3 Kommentare

 
zihado 2025-06-30

Ich glaube, als das Internet zum ersten Mal aufkam, gab es ein ähnliches Thema. Ich denke, die Fähigkeit, kritisches Denken zu entwickeln, ist nicht noch wichtiger?

 
mango 2025-06-30

Das scheint mir immer noch besser zu sein, als Fehlinformationen über Internetsuchen oder YouTube zu übernehmen. Ich denke, es ist besser, als verzerrte Informationen zu akzeptieren, die dem Zweck dienen, die Interessen einer bestimmten Gruppe zu vertreten. Man könnte zwar einwenden, dass auch AI voreingenommen sein kann, aber ich denke, dass ihre durchschnittliche Vertrauenswürdigkeit höher ist als die der zufälligen Informationen, die im Internet herumschwirren. Insofern ist es ähnlich, als man ohne kritisches Denken ebenfalls falsche Informationen übernehmen kann.

 
GN⁺ 2025-06-28
Hacker-News-Kommentare
  • Ich denke, die eigentliche "digitale Kluft" verläuft heutzutage danach, ob jemand in den letzten Jahren bereits kritisches Denken entwickelt hat oder nicht. Für Menschen, die diese Fähigkeit durch vielfältige Lektüre und geduldige Reflexion aufgebaut haben, fühlen sich Tools wie LLMs an, als hielten sie einem den Schlüssel in die Hand, um mit einem WaveRunner durch ein raues Meer aus Informationen zu fahren. Für diejenigen jedoch, die kritisches Denken erst jetzt lernen müssten, dürfte es schwer sein, die Mühen der Reflexion zu bewältigen, ohne gewohnheitsmäßig zu LLMs zu greifen. Das eigenständige Aushalten von Mehrdeutigkeit – also der Moment, in dem Information zu Wissen wird – wird hier sofort aufgelöst. Ich bin froh, diese Fähigkeit noch vor 2023 erworben zu haben, aber es macht mir etwas Angst, dass man der jungen Generation LLMs bedingungslos als Lernwerkzeug anbietet

    • Ich denke, der Pessimismus, AI mache alle dümmer, überschätzt in Wirklichkeit nur die Annahme, dass die meisten Menschen ursprünglich über starke Fähigkeiten zum kritischen Denken verfügten. In fast 20 Jahren in anspruchsvollen Engineering-Bereichen habe ich festgestellt, dass selbst unter ausgewiesenen Fachleuten nur wenige komplexe Konzepte wirklich verstehen. Dass den meisten Menschen, die ohnehin nie kritisch gedacht haben, nun einfache Antworten angeboten werden, wird den Klugen vermutlich nicht schaden

    • Wenn ich an mich selbst in jungen Jahren denke, erinnere ich mich daran, dass ich nichts gelernt habe, wenn ich nur kurzfristigem Spaß hinterhergelaufen bin

    • Es fühlt sich an, als würde die Ära von Idiocracy näher rücken

  • Ich denke, jede Verbindungstechnologie fördert Homogenität. Das Fernsehen ist zum Beispiel ein typischer Fall dafür, dass regionale Dialekte verschwinden. Unbegrenzter Spaß, Unterhaltung und Konnektivität schaffen eine traurige, langweilige und einsame Welt

    • Mich würde interessieren, worauf sich die Aussage stützt, regionale Dialekte seien verschwunden. Wenn ich in den USA herumreise, höre ich immer noch viele verschiedene regionale Sprechweisen. Ich habe Verwandte im Westen, Mittleren Westen, Süden und Osten, und jede Region hat weiterhin einen deutlich erkennbaren Akzent. Die Ausprägung variiert, aber sie sind immer noch klar vorhanden

    • Social Media hat unsere Denkweise bereits stark homogenisiert. Wenn zu viele Informationen und Perspektiven gleichzeitig hereinkommen, hält man es kaum aus, ohne sich von den Gedanken anderer inspirieren zu lassen, statt eine eigene Meinung zu bilden. Der Upvote-Button legt bequem fest, welchen Gedanken alle zustimmen

    • Ich frage mich, was wir tun sollten. Vielleicht könnten ernsthafte Versuche wie der Offline Club[https://www.theoffline-club.com/] ein Gegenmittel sein. Darüber wurde kürzlich auch auf Hacker News diskutiert. Die Überlegungen zu sogenannter "grass touching"-Technologie

    • Dennoch prägt die geografische Umgebung durch ihre Vielfalt bestimmte Erfahrungen. Natürlich besteht eines der Ziele heutiger Technologie gerade darin, solche geografischen Besonderheiten auszugleichen oder abzuschirmen

    • Bei AI ist das Problem genau, wer diese Homogenität steuert und mit welchem Ziel. Dynamische Systeme wie IRC oder Messenger ermöglichen es Menschen, sich auf natürliche Weise zu vernetzen und Gruppen zu bilden. AI hingegen ist ein geschlossenes, verwaltetes Werkzeug, das von kapitalstarken Kapitalisten mit Geld aufgebaut wurde; dadurch erfolgt implizit eine Homogenisierung, um Geschäftsmodelle zu schützen und Risiken zu reduzieren. Die eigentliche Bedrohung ist, dass die Realität für bestimmte Zwecke "verfasst" wird

  • Ich vertrete die Ansicht, dass die eigenen Gedanken nur dann homogenisiert werden, wenn man nicht selbst denkt. Ich vermute allerdings, dass das für viele Menschen eine Schwachstelle sein könnte

    • Es ist eine Beobachtung, dass paradoxerweise gerade die Leute, die vom Typ her "selbst recherchieren", oft am stärksten in Groupthink verfallen

    • Viele Individuen mit ähnlich strukturierten axiomatischen Systemen gelangen zu ähnlichen Schlussfolgerungen. Manche glauben, sie dächten eigenständig, obwohl sie einer bestimmten ideologischen Gruppe angehören. Es gibt Zeiten, in denen die Kraft groß ist, durch die sich die Gedanken von Gemeinschaftsmitgliedern angleichen. Andere verfolgen dagegen eine "Schatzsucher-Strategie", bei der sie im unbekannten Meme-Space nach neuen Strategien oder Ideen suchen. Diese Strategie ist allerdings riskant und setzt Ressourcen voraus, mit denen man mehrere Versuche unternehmen kann

    • Ich stimme der Aussage zu, dass man homogenisiert wird, wenn man nicht selbst denkt, und empfehle, sich einmal anzusehen, wie nicht-technische oder technisch wenig versierte Freunde und Familienmitglieder ChatGPT verwenden. Es gibt tatsächlich etliche schockierende Beispiele. Menschen, die sich mit LLM-Tools nicht auskennen, nutzen sie auf wirklich gefährliche Weise. Zum Beispiel hat der Schwager eines Freundes tatsächlich investiert, nachdem ihm ChatGPT enorme Gewinne mit verschiedenen Penny Stocks und wenig bekannten Kryptowährungen in Aussicht gestellt hatte. Manche Menschen glauben sogar, ChatGPT übermittle die Stimme Gottes, und handeln dann entsprechend bizarr. Kommerzielle LLMs wirken überzeugend genug, dass Menschen ohne Verständnis für die Funktionsweise dieses Tools leicht darauf hereinfallen. Ich selbst habe offensichtliche Fehler in den Ergebnissen von LLMs erlebt und deshalb eine skeptische Haltung entwickelt, aber Menschen, denen ein objektives Urteilsvermögen schwerfällt, laufen große Gefahr, einfach alles zu glauben

  • In einer von Nataliya Kosmyna vom MIT Media Lab verfassten Studie wurden etwas mehr als 50 Studierende aus Boston in drei Gruppen aufgeteilt. Das Ergebnis soll gewesen sein, dass die Gruppe mit ChatGPT deutlich geringere Hirnaktivität zeigte als die anderen Gruppen, insbesondere bei Alpha- und Theta-Konnektivität, die mit Kreativität und Arbeitsgedächtnis verbunden ist. Allerdings frage ich mich, ob solche fMRI-Studien mit kleinem n überhaupt als verlässliche wissenschaftliche Ergebnisse gelten können. Vielleicht sind das eher demonstrative Resultate, die sich auf Bestätigungsbias stützen

  • In letzter Zeit vereinheitlichen überzogene "Untergangsprophetie"-Artikel das Denken der Menschen zu stark. In solchen Behauptungen steckt sicher etwas Wahres, aber in Wirklichkeit ist vieles sehr viel nuancierter

  • Es wird auf frühere Medienumbrüche wie Fernsehen, Social Media und den Buchdruck verwiesen und die Geschichte wiederkehrender ähnlicher Medienängste dargestellt Verwandter Artikel

    • Massenmedien homogenisieren unseren Input, also unseren Informationskonsum. Falls AI sich von bisherigen Medien unterscheidet, dann vielleicht auch dadurch, dass sie sogar unseren Output, also das, was wir produzieren, direkt homogenisieren kann

    • Vor dem Buchdruck führten die Menschen auf der Welt vielleicht 8 Milliarden unterschiedliche Gespräche, aber durch die Drucktechnik wurden viele kleine Gruppen nach und nach größer, sodass immer mehr Menschen über größere Distanzen hinweg dieselben Gespräche führten

  • Auch soziale Netzwerke, Fernsehen, Hollywood und die allgemeine Popkultur tragen zur Homogenisierung der Gesellschaft bei

  • Das zentrale Grenzwerttheorem wirkt am Ende immer gleich, so die Meinung

  • Letztlich ist es wohl unser Schicksal, auf den Schultern homogenisierter Riesen zu stehen

  • Ich finde nicht, dass das, was AI heute tut, sich grundlegend davon unterscheidet, wie ich im geisteswissenschaftlichen Studium an der Universität mit Hilfe von Fachartikeln Ideen übernommen, eingefügt und miteinander verknüpft habe. Ob AI letztlich zu einer intellektuellen Prothese wird, hängt von den eigenen Maßstäben und der eigenen Wahrnehmung ab