8 Punkte von GN⁺ 2025-10-06 | 3 Kommentare | Auf WhatsApp teilen

> „Ihnen bleiben noch 18 Monate“

  • Schwerwiegender als die Prognose, dass KI innerhalb von 18 Monaten alle Arbeitsplätze ersetzen werde, ist das Phänomen, dass Menschen angesichts neuer Maschinen ihre eigenen Fähigkeiten selbst verkümmern lassen
  • Schreiben und Lesen sind die zwei tragenden Säulen tiefen Denkens, doch mit dem Aufkommen generativer KI wie ChatGPT lagern Studierende das Schreiben aus und geben das Lesen von Büchern auf, wodurch ihre Denkfähigkeit selbst rapide verfällt
  • In den USA ist der durchschnittliche Lesewert auf den niedrigsten Stand seit 32 Jahren gefallen, und selbst Studierende an Eliteuniversitäten beginnen ihr Studium, ohne je ein einziges Buch vollständig gelesen zu haben
  • Schreiben und Lesen sind nicht bloß technische Fertigkeiten, sondern Mittel zur Restrukturierung menschlichen Denkens und Wissens; ihr Niedergang bedeutet den Verlust komplexer symbolischer Logik und systemischen Denkens
  • Die entscheidenden Fähigkeiten, die unsere Kinder im Zeitalter der KI brauchen, sind die Geduld, lange und komplexe Texte zu lesen, die Fähigkeit, widersprüchliche Ideen gleichzeitig auszuhalten, und das harte Ringen auf Satzebene – und das ist inzwischen eine Frage der bewussten Entscheidung

Time Under Tension des Denkens

Anwendung eines Fitnesskonzepts auf das Denken

  • Im Fitnessbereich bezeichnet „Time Under Tension“ den Unterschied, ob man bei gleichem Gewicht eine Kniebeuge in 2 oder in 10 Sekunden ausführt
    • Letzteres ist schwieriger, baut aber mehr Muskeln auf
    • Mehr Zeit bedeutet mehr Spannung, mehr Schmerz bedeutet mehr Ergebnis
  • Ähnlich profitiert auch das Denken von diesem Prinzip
    • Die Fähigkeit, geduldig bei Ideen zu verweilen, die kaum verbunden oder sogar voneinander getrennt sind
    • Um daraus auf kombinatorische Weise etwas Neues zu verweben

Beispiel aus dem Prozess des Essay-Schreibens

Neudefinition des Kernproblems

  • Das Problem der nächsten 18 Monate ist nicht, dass KI alle Beschäftigten entlässt oder dass Studierende im Wettbewerb gegen nichtmenschliche Agenten verlieren
  • Sondern ob wir angesichts neuer Maschinen unsere eigenen Fähigkeiten abbauen werden
  • Weil wir zu sehr davon besessen sind, wie Technologie uns übertreffen könnte, übersehen wir die vielen Wege, auf denen wir uns selbst unfähig machen können

Die Warnung von 18 Monaten

  • Prognosen von KI-Führungskräften

    • Die Botschaft mehrerer führender KI-Manager und Vordenker lautet: Nur bis zum Sommer 2027 werden Menschen ihren Vorsprung gegenüber KI behalten
    • Die Fähigkeiten von KI würden explosionsartig wachsen und kohlenstoffbasiertes Leben abhängen
    • Es gibt Prognosen über das Verschwinden von bis zu „der Hälfte aller Einstiegsjobs im White-Collar-Bereich“
    • Sogar Nobelpreis-würdige Köpfe könnten fürchten, dass KI-Designer „ein Land der Genies in Rechenzentren“ erschaffen
  • Die Angst der Eltern

    • Die häufigste Frage von Eltern in den vergangenen Monaten lautete: „Wenn KI bald in allem besser ist als wir, was sollen unsere Kinder dann tun?“
    • Wenn generative KI beim Programmieren, Diagnostizieren und Problemlösen besser ist als Programmierer, Radiologen und Mathematiker
    • Dann könnten traditionell „sichere“ Studienfächer wie Informatik, Medizin und Mathematik nicht mehr sicher sein
  • Ein neuer Blick auf die Realität

    • Wichtiger als Zukunftsprognosen ist es, eine Realität zu beschreiben, die bereits existiert
    • Niemand weiß, ob KI Arbeitnehmer zu einem imaginären künftigen Datum nutzlos machen wird
    • Aber wie Technologie schon jetzt unsere Fähigkeit zu tiefem Denken beeinflusst, können wir bereits sehen
    • Der Autor sorgt sich weit mehr um den Niedergang denkender Menschen als um den Aufstieg denkender Maschinen

Das Ende des Schreibens, das Ende des Lesens

  • Die Ausbreitung des Betrugs mit KI

    • Ein Titelartikel des New York Magazine vom März 2025: Alle benutzen KI, um in der Schule zu betrügen
    • Große Sprachmodelle ermöglichen es Oberstufen- und College-Studierenden, sofort Essays zu jedem Thema zu generieren
    • Lehrkräfte stehen angesichts der Bewertung echter Schreibfähigkeiten von Studierenden vor einer existenziellen Krise
    • Ein Student: „Im College geht es an diesem Punkt darum, wie gut ich ChatGPT nutzen kann.“
    • Ein Professor: „Massenhaft Studierende werden im Grunde Analphabeten bleiben, ihren Abschluss machen und ins Berufsleben eintreten.“
  • Schreiben ist Denken selbst

    • Warum der Niedergang des Schreibens so wichtig ist: Schreiben ist nicht das Zweite, was nach dem Denken passiert
    • Der Akt des Schreibens selbst ist ein Akt des Denkens
    • Das gilt nicht nur für Studierende, sondern auch für Fachleute
    • Im Nature-Leitartikel „Writing is thinking“ heißt es, das „Outsourcing des gesamten Schreibprozesses an LLMs“ beraube Wissenschaftler einer zentralen Arbeit: zu verstehen, was sie entdeckt haben und warum es wichtig ist
    • Wer das Schreiben an KI abgibt, wird feststellen: Der Bildschirm ist voller Wörter, aber der Geist ist leer an Gedanken
  • Der noch gravierendere Verfall der Lesefähigkeit

    • Zustand funktionalen Analphabetismus

      • Der anonyme Hochschulprofessor Hilarius Bookbinder: „Die meisten Studierenden sind funktionale Analphabeten“
      • „Das ist kein Witz“ und auch keine Übertreibung
    • Rückgang im gesamten Westen

      • Leistungen in Lese- und Rechenkompetenz gehen erstmals seit Jahrzehnten im gesamten Westen zurück
      • Der Financial-Times-Journalist John Burn-Murdoch fragt, ob wir genau in dem Moment, in dem wir Maschinen bauen, die für uns denken, vielleicht „den Höhepunkt menschlicher Gehirnleistung überschritten“ haben
      • Das „Nation’s Report Card“ der USA (veröffentlicht von NAEP): Der durchschnittliche Lesewert fiel 2024 auf den niedrigsten Stand seit 32 Jahren
        • Das ist umso besorgniserregender, weil die Datenreihe nur 32 Jahre zurückreicht
    • Die Normalisierung des fragmentierten Lesens

      • Amerikaner lesen ständig Wörter: E-Mails, Textnachrichten, Social-Media-Feeds, Netflix-Untertitel
      • Doch diese Wörter leben in Schreibfragmenten, die kaum sustained attention verlangen, wie sie zum Verstehen größerer Texte nötig ist
      • Im digitalen Zeitalter sind Amerikaner an nichts interessiert, das länger ist als ein Tweet, oder nicht in der Lage, dabei zu bleiben
      • Der Anteil der Amerikaner, die sagen, sie lesen Bücher zur Freizeit, ist seit den 2000er Jahren um fast 40 % gesunken
    • Elite-Studierende geben das Lesen auf

      • Laut einem Bericht von Rose Horowitch in The Atlantic haben Studierende, die an die elitärsten US-Universitäten kommen, für die Schule noch nie ein ganzes Buch gelesen
      • Daniel Shore, Leiter des Englisch-Departments in Georgetown: Studierende hätten selbst Schwierigkeiten, sich auf ein Sonett zu konzentrieren
      • Nat Malkus, Bildungsforscher am American Enterprise Institute, vermutet, dass Highschools Bücher zerteilt haben, um auf die Leseabschnitte standardisierter Tests vorzubereiten
      • Durch die Optimierung auf die Bewertung von Lesekompetenz scheint das US-Bildungssystem versehentlich das Bücherlesen getötet zu haben

Die zwei Säulen tiefen Denkens

  • Die Perspektive von Cal Newport

    • Cal Newport: Informatikprofessor und Bestsellerautor von „Deep Work“ und anderen Büchern
    • Schreiben und Lesen sind die zwei tragenden Säulen tiefen Denkens
    • Die moderne Wirtschaft legt Wert auf symbolische Logik und systemisches Denken, und tiefes Lesen und Schreiben sind dafür das beste Training
  • KI ist der neueste starke Akteur im Kampf gegen Denkfähigkeit

    • Der Aufstieg des Fernsehens fiel mit einem Rückgang der Zeitungsabonnements pro Kopf und dem langsamen Verschwinden des Lesens zur Freizeit zusammen
    • Danach kamen Internet, Social Media, Smartphones und Streaming-TV
    • „Der Doppelschlag aus Lesen und Schreiben ist das Serum, das wir einnehmen müssen, um die Superkraft tiefen symbolischen Denkens zu erlangen“ – Newport
    • „Deshalb schlage ich seit Langem Alarm, dass wir dieses Serum weiter einnehmen müssen.“
  • Die Einsicht von Walter Ong

    • Beobachtungen aus Walter Ongs Buch „Orality and Literacy“
    • Literalität ist keine bloß vorübergehende Technik
    • Sondern ein Mittel zur Restrukturierung menschlichen Denkens und Wissens, das Raum für komplexe Ideen schafft
    • Mündlichkeit vs. Schrift

      • Auch Menschen, die nicht lesen oder schreiben können, können Geschichten auswendig lernen
      • Aber etwas wie Newtons „Principia“ könnte ohne die Fähigkeit, Formeln der Infinitesimalrechnung aufzuschreiben, nicht über Generationen weitergegeben werden
      • Mündliche Dialekte verfügen im Allgemeinen nur über einige Tausend Wörter
      • Dagegen besitzt „der als Standardenglisch bekannte Grapholect mindestens 1,5 Millionen Wörter“ – Ong
      • Wenn Lesen und Schreiben die logische Maschine des menschlichen Gehirns neu verdrahtet haben, dann baut ihr Niedergang genau in dem Moment, in dem größere Maschinen am Horizont auftauchen, unsere kognitive Superkraft wieder zurück

Lernen im Zeitalter denkender Maschinen

  • Wertvolle Kernfähigkeiten

    • Der Autor weiß nicht, welches Fach ein bestimmter Student studieren sollte, aber er ist sich sehr sicher, welche Fähigkeiten sie wertschätzen sollten
    • Nämlich genau jene Fähigkeiten, die gerade verfallen:
      • Die Geduld, lange und komplexe Texte zu lesen
      • Die Fähigkeit, widersprüchliche Ideen im Kopf zu halten und ihre Dissonanz zu genießen
      • Die Fähigkeit, sich beim Schreiben auf Satzebene intensiv abzumühen
      • Und im Zeitalter, in dem Video-Unterhaltung das Lesen und ChatGPT-Essays das Schreiben ersetzen, diese Dinge überhaupt noch wertzuschätzen (was inzwischen eine Frage der Wahl ist)
  • Eine klare und gegenwärtige Bedrohung

    • Mit der Verbreitung von KI besteht eine klare und gegenwärtige Bedrohung, dass tiefes menschliches Denken selten werden wird
    • Nicht ob Technologie uns übertrifft, sondern ob wir unsere eigenen Fähigkeiten verkümmern lassen, ist das eigentliche Problem

Fazit

  • Was die Zukunft des Menschen bedroht, ist nicht der technische Fortschritt der KI an sich, sondern der Verlust der Fähigkeit, selbst zu denken, tief zu lesen und eigenständig zu schreiben
  • Was wir im KI-Zeitalter am dringendsten brauchen, sind Tiefgang im Denken, Konzentration und Geduld

3 Kommentare

 
argo9 2025-10-07

Es sieht so aus, als würde bald eine Ära kommen, in der Wissen wie in Sci-Fi über Chips ins Gehirn implantiert wird.

 
shakespeares 2025-10-08

Wenn eine Zeit kommt, in der wir wirklich aufhören zu denken, wird es wohl zu Implantationen kommen ... und dann fühlt es sich wie das Ende an.

 
GN⁺ 2025-10-06
Hacker-News-Meinung
  • Ich denke, dass AI bei jedem Menschen vor allem bestehende Neigungen noch stärker verstärkt. Bei Forschung und Lernen sowie bei Arbeiten, bei denen man eher für Wiederholungsaufgaben Zeit verliert als für wirkliches Nachdenken, war AI eine enorme Hilfe. Dadurch konnte ich viel mehr Zeit auf Bereiche verwenden, die wirklich originäres menschliches Denken brauchen, und auf Dinge, die mir mehr Spaß machen, und persönlich fühlt es sich an, als wäre ich auf eine gewaltige Wachstumsrakete aufgesprungen. Gleichzeitig habe ich direkt beobachtet, wie manche Menschen sich zu einer Art Kopie von AI in ihrer tatsächlichen Arbeit entwickeln. Sie beklagen sich ebenfalls darüber, dass AI ihnen die Jobs wegnehmen werde, merken aber überhaupt nicht, dass sie ihren Job AI faktisch selbst „übergeben“ haben, indem sie bedeutungslose Prozesse immer weiter wiederholen. Ich verstehe immer noch nicht, warum Menschen nicht erkennen, dass sie sich das selbst einbrocken
    • In diesem Text geht es vor allem um die jüngere Generation, die mit solchen Tools aufwächst und gerade ihre Gewohnheiten und Neigungen ausbildet. Ich selbst habe noch vor dem Aufkommen von LLMs Programmieren gelernt, indem ich auf stackoverflow selbst gesucht und mich durchgebissen habe. Deshalb habe ich den inhärenten Wert des Prozesses kennengelernt, „aus dem Nichts etwas entstehen zu lassen“. Aber die westliche Kultur ist meist stark auf äußere Belohnung ausgerichtet, daher sorge ich mich, dass die nächste Generation diese wichtige Gelegenheit zum Erlernen solcher Fähigkeiten verpasst
    • Im Kern des Problems steht eigentlich, dass viele Menschen von vornherein nicht die Fähigkeit haben, einem Prozess großen Mehrwert hinzuzufügen. Das ist ein Phänomen, das lange vor „AI“ existierte. Überall in der Gesellschaft gibt es Menschen, die nur zusätzliche Beschäftigung erzeugen, schlechte Arbeitskultur aus Starrsinn ruinieren oder praktisch einen negativen Beitrag leisten. Vielleicht kann AI solche Menschen stärker sichtbar machen, aber das Problem selbst ändert sich dadurch nicht grundsätzlich. Wo soll man diese Menschen dann unterbringen? Gibt es einen Weg, ihnen allen eine positive Rolle zu geben, ohne ihre Menschlichkeit zu zerstören? Oder sollte man es dem Zufall überlassen und hoffen, dass sie irgendwann etwas finden, das sie wirklich gut können? Am Ende erscheinen mir UBI (bedingungsloses Grundeinkommen) und autonome Selbstsuche gar nicht so schlecht
    • Es fühlt sich an, als wäre damit das Versprechen von Steve Jobs, „der Computer ist ein Fahrrad für den Geist“, wirklich eingelöst worden. Die Leute sorgen sich zu sehr darüber, dass AI ihnen die Fähigkeit zum Denken nehmen werde, aber wenn sie ihre Denkkraft nicht schon durch endloses Scrollen in Social Media verloren haben, dann verlieren sie sie durch AI auch nicht in einem Augenblick. Allerdings haben sehr viele Menschen ihre Denkfähigkeit gerade durch Social Media tatsächlich verloren, und das ist das größere Problem. Was Menschen klar erkennen müssen: Sie haben selbst die Wahl, welche Informationen sie in ihren Kopf hineinlassen. Bevor man gedankenlos durch unzählige algorithmisch empfohlene Inhalte wischt, sollte man erst beurteilen, dass diese die eigenen Überzeugungen, Kaufgewohnheiten und den Lebensstil beeinflussen können
    • Tatsächlich sind viele Menschen ihrem Beruf gegenüber grundsätzlich gleichgültig. Der Hauptgrund ist, dass sie die Vergütung als unfair empfinden. Deshalb empfinden sie es nicht als Angriff auf ihre Identität, wenn sie ihre Arbeit an AI abgeben
  • Bei der Nutzung von AI habe ich selbst noch kein endgültiges Urteil gefällt. Anfangs war ich eher auf dem Standpunkt: „Das ist schlecht, wir lagern unsere Denkfähigkeit aus“, aber inzwischen habe ich dadurch tatsächlich sehr schnell unglaublich viele verschiedene Aufgaben gelernt. Hätte ich mir all das ohne diese „neue Prothese“ vollständig gemerkt? Vielleicht nicht, aber es gab überhaupt erst viel mehr Dinge, mit denen ich dank ihr anfangen konnte
    • Ich sehe AI ein wenig wie Alkohol. Die Dosis macht das Gift. In kleinen Mengen kann er Entspannung bringen, und die Menschheit hat ihn in Zeiten alter Hygienegefahren auch wegen seiner desinfizierenden und konservierenden Wirkung genutzt. Für manche wird er aber zu einer ungesunden Stütze gegen Angst, und im Extremfall kann die Abhängigkeit so stark werden, dass ein Überleben ohne ihn kaum noch möglich scheint. Dass AI-Sucht unmittelbar tödlich wird, ist eher unwahrscheinlich, aber der Punkt ist: Auch ein nützliches Werkzeug kann manchmal zu einer ernsten psychischen Krücke werden
    • Am Ende hängt alles davon ab, wie man es nutzt. Holt man sich einfach nur die Antwort und geht weiter, oder versucht man nach der Antwort auch zu verstehen, warum sie richtig ist? Ich habe selbst ein Roguelike-artiges Spiel mit Raylib gebaut und zunächst so weit wie möglich ohne Referenzmaterial oder AI von Grund auf allein gelernt. Bei der Sichtlinienberechnung bekam ich beim Aufprall auf Wände immer wieder unintuitive Ergebnisse und habe mich mehrfach festgefahren. Am Ende ließ ich copilot eine Funktion erzeugen, und es kam genau Bresenham's Line Algorithm heraus, wodurch ich auch den Grund verstand. Viele würden sich wahrscheinlich nicht einmal dafür interessieren, warum die AI-Antwort funktioniert hat, aber die Frage ist nicht, ob man AI nutzt oder nicht, sondern wie tief man sie nutzt — und dabei kann man sein Gehirn durchaus einsetzen
    • Nicht alle sind so durchschnittlich wie du
    • Stimme zu. Seit meine Umsetzungsfähigkeit besser geworden ist, habe ich viele neue Technologien ausprobieren können
    • Genau das ist das Problem. AI wird manche Menschen insgesamt dümmer machen, andere klüger, und bei wieder anderen wird es je nach Bereich Licht und Schatten geben. Schade fand ich, dass der ursprüngliche Text hier sehr stark verallgemeinert hat. Zur Referenz teile ich mein Claude-Analyseergebnis. Ich fände gut, wenn man mithilfe von Claude beim Analysieren des Textes selbst beurteilt, ob man dadurch tatsächlich klüger oder dümmer geworden ist. (Nachtrag: Dass ich im Claude-Prompt das Geschlecht des Autors falsch angegeben habe, könnte ebenfalls ein Beispiel für die tatsächliche Wirkung meiner AI-Nutzung sein)
  • Ein Beispiel dafür, dass dieses Phänomen bereits stattfindet, sind viele Menschen, die ohne Software zur Routenfindung keine Strecke mehr planen oder navigieren können. Es ist gut, in Echtzeit über Ausweichrouten informiert zu werden, aber wenn man wiederholt nur Anweisungen folgt, wird die Abhängigkeit zu groß
    • Ich war immer überzeugt, keinen schlechten Orientierungssinn zu haben, aber irgendwann habe ich gemerkt, dass meine Fähigkeit, ohne Karte den Weg zu finden, rapide verkümmert ist. Als ich dann das Kapitel über Navigation in Human Being: Reclaim 12 Vital Skills We’re Losing to Technology las, hat mich das so mitgenommen, dass ich das Buch komplett zugeschlagen und erst einmal meine Navigationsfähigkeit wiederhergestellt habe. Heute kann ich mir allein anhand einer Karte jeden Ort in einer Stadt vorstellen. Ich habe die Ära des Wegfindens per Smartphone hinter mir gelassen. Jetzt lese ich das Kapitel über Kommunikation, weil ich fürchte, dass auch sie in Gefahr gerät. Es zeigt sich tatsächlich, dass wir durch immer stärkere Abhängigkeit von Technik verschiedenste Grundfähigkeiten verlieren, und entgegen unserer Absicht, mehr zu denken, kann man nicht sicher sein, dass es auch wirklich so kommt
    • Dazu gibt es als reales gesellschaftliches Problem diesen NPR-Artikel. Und als Lehre dafür, dass eine solche Haltung Werte und Fähigkeiten aushöhlt, lohnt sich auch dieser Marine-Corps-Artikel
    • Für mich war GPS der Anlass, überhaupt an Orte fahren zu können, die ich mich früher nie getraut hätte anzusteuern
    • Ich halte die Abhängigkeit von Navi-Apps nicht für übertrieben. Für die meisten Menschen ist das Planen von Routen als Fähigkeit fast nutzlos. Wenn man es braucht, kann man es jederzeit leicht lernen
    • Und was wäre daran schlimm? Warum sollte man nicht einfach abhängig sein dürfen? Als ich klein war, lag im Auto immer ein Straßenatlas, und in einem meiner Jobs habe ich jeden Tag 30 Minuten damit verbracht, vier Stunden Fahrtrouten auf Papier zu planen. Ich erinnere mich daran, wie viel Zeit dafür draufging, auf jeder Seite die anschließenden Straßen zu finden, wie verwirrend es war, wenn die Markierungen auf der oft benutzten Karte nicht zu der tatsächlichen Kreuzung passten, und wie die Autos hinter mir hupten. Diese Mühe war Zeitverschwendung. Sie hat mich weder stärker noch klüger noch zu einem besseren Menschen gemacht. So wie wir heute auch ohne Papierkarten und schriftliche Langdivision auskommen, ist das völlig in Ordnung
  • Nachdem ich zuletzt einen Einstellungsprozess für Senior Engineers durchlaufen habe, sehe ich einen deutlich erkennbaren Kompetenzabfall. 80 % der Bewerber können ohne GenAI nicht einmal auf Junior-Niveau coden. Selbst bei Coding-Aufgaben, die realer Arbeit nahekommen, scheitern sie an grundlegenden Datenstrukturaufgaben. Um zu prüfen, ob es nur am Coding liegt, habe ich auch Zusammenarbeit und Ideenfindung angesehen, aber die Abhängigkeit von LLMs ist dort genauso gravierend. Das ist keine Theorie, sondern gelebte Realität. Und auf den Einwand „Dann lasst sie doch einfach LLMs nutzen“ würde ich sagen: Wir arbeiten in einer Umgebung, in der wir neue Technologien und APIs selbst bauen, daher gibt es in der Praxis viele Aufgaben, bei denen LLMs nicht sauber helfen können. In so einem Zustand fragt man sich irgendwann ernsthaft, warum man einem Senior überhaupt ein hohes Gehalt zahlen sollte
    • Ehrlich gesagt nutze ich bei Vibe Coding für Side Projects selbst viel AI. Wenn ich jetzt spontan ohne LLM ein Coding-Interview machen müsste, würde ich wahrscheinlich auch etwas Eingewöhnungszeit brauchen. Trotzdem glaube ich, dass ich nach ein paar Tagen Übung sofort wieder da wäre und bald besser als die meisten abschneiden würde. Wenn man nur auf praktische Tests schaut, könnte man wegen verborgener potenzieller Fähigkeiten am Ende gute Leute übersehen
    • Du hast gefragt, warum man Seniors bezahlt, und heute ist die Fähigkeit, richtig mit AI zu kommunizieren, ein differenzierendes Senior-Skill. Das kann man nur erwerben, wenn man den Problemraum wirklich versteht und unzählige Trial-and-Error-Schleifen durchlaufen hat
    • Die Titelinflation hat inzwischen auch die Unternehmen erreicht. Menschen, die vor ein paar Jahrzehnten nicht einmal als „senior“ gegolten hätten, tragen heute den Titel „principal“
    • Was man wissen muss und welches Wissen sich auch einfach per LLM-Suche abdecken lässt, dazu hat jeder eine andere Sicht
    • Mit „ohne GenAI können sie keine Junior-Level-Aufgaben erledigen“ kann auch gemeint sein, dass nicht völlige Ahnungslosigkeit vorliegt, sondern dass die Details nur verblasst und etwas unscharf im Gedächtnis geblieben sind. Ein Junior erinnert sich dank frischen Lernens noch perfekt an $Algorithmus, während ein Senior oft nur noch ungefähr weiß, welche Algorithmen es gibt, wann und warum man sie einsetzt und wie man sie nachschlägt. Wenn man in einem bestimmten Bereich etwas nicht mehr direkt tun muss, verschwindet die Erinnerung, während man stattdessen andere Fähigkeiten ausgebaut hat. Anders gesagt: Die Arbeit selbst hat sich ausdifferenziert, und „Junior“ und „Senior“ sind keine bloßen oberen und unteren Stufen desselben Skillsets. Das wird klar, wenn man im Unternehmen prüft, ob Juniors und Seniors wirklich dieselbe Arbeit machen oder unterschiedliche Bereiche verantworten. Und auch die Titelinflation ist real
  • Obwohl die Zeitschrift <i>the Argument</i> heißt, erklärt dieser Text „das Problem ist nicht X, sondern Y“ und argumentiert dann ausführlich für Y, ohne X überhaupt zu widerlegen
    • Solche Texte sind meist nützlich, wenn man sie als Haltung im Sinn von „Ich mache mir mehr Sorgen um Y als um X“ liest. Dann muss der Leser X gar nicht unbedingt verhandeln, sondern nur darauf achten, ob Y wirklich ein Problem ist. Auch hier sagt der Autor ausdrücklich: „Ob AI uns die Jobs nimmt, weiß ich nicht, aber der Rückgang der Denkfähigkeit ist schon jetzt eindeutig ein Problem. Nicht die Ankunft denkender Maschinen beunruhigt mich, sondern die wachsende Zahl von Menschen, die immer weniger denken.“ Der Schwerpunkt des Autors liegt also auf Y
    • X muss nicht widerlegt werden, weil es von Anfang an eine subjektive Position ist
  • Der Autor scheint Aussagen zu machen, die schon nahe an einer Antwort liegen, ohne ihre Bedeutung selbst zu erkennen. Schau dir zum Beispiel an, wie Menschen heute freiwillig Klimmzüge im Fitnessstudio machen. Ist Rückenmuskulatur wirklich überlebenswichtig? Wenn wir wie vor dem 20. Jahrhundert alle körperlich arbeiten würden, hätten wir dann noch Zeit darauf verwendet, eigens Trainingsmethoden zu erforschen? Wenn Denk-Arbeit seltener wird, könnten wir im Gegenteil sogar aktiver versuchen, unsere Denk-Muskeln zu trainieren. Letztlich wird es auch ohne Bildung immer einen gewissen Anteil Menschen geben, bei denen der Instinkt für Lernen, Schaffen und Beziehungen fortbesteht
  • Das Bildungssystem selbst ist bereits ein Relikt aus vergangenen Zeiten. Alle Punkte im Artikel setzen voraus, dass die heutige Bildung tatsächlich bedeutet: Kinder schreiben 2025 in öffentlichen Schulklassen hastig Aufsätze, die von schlecht bezahlten, überarbeiteten Lehrern ebenso hastig korrigiert werden, und das sei die optimale Form kritischen Denkens. Künftig wird AI individualisierte Lernpfade im eigenen Tempo anbieten, in Echtzeit gezielt zu Fehlern führen und Feedback geben können, wodurch effektiveres Lernen möglich wird. Ich sorge mich eher, dass solche Veränderungen bei Kooperation und Sozialverhalten neue Defizite erzeugen könnten. Deshalb dürfte die Rolle menschlicher Lehrkräfte künftig weniger als „Wissensvermittler und Bewerter“ und stärker für Motivation und Beziehungsaufbau wichtig werden
    • Hast du Erfahrung als Elternteil? Wenn du jemals wirklich dabei zugesehen hast, wie Kinder aufwachsen, dann weißt du: Weit mehr als neun von zehn Kindern würden sich ohne sozialen Druck durch Eltern, Lehrkräfte und Gleichaltrige überhaupt nicht um Aufgaben oder Lernen kümmern. Das Wesen der Schule besteht gerade darin, durch diese Form sozialer Erzwingung zumindest einmal im Leben die Gelegenheit zu schaffen, Wissen in den Kopf zu bekommen. Schule ist letztlich der Versuch der Gesellschaft, Menschen wenigstens in der noch formbaren Wachstumsphase zu minimaler Anstrengung zu bewegen
    • Der fantastische Teil daran ist, dass es fraglich ist, ob es wirklich besser ist, Bildung einer AI zu überlassen, die halluziniert und falsche Informationen frei heraus behauptet, als schlecht bezahlten, überarbeiteten Lehrern. Vielleicht liegt die Antwort eher darin, die Bedingungen für Lehrkräfte zu verbessern und sie stärker zu unterstützen
  • Ich verstehe nicht, warum alle immer nur eine Seite ansprechen. Wenn wir langweilige Arbeiten nicht an AI abgeben können, wer soll dann komplexe Aufgaben lösen? Hätten wir solche Fortschritte erzielt, wenn wir weiterhin jede repetitive Berechnung selbst machen müssten? Dank AI kann sich die Menschheit von endlosen Logarithmentafeln und Handrechnungen lösen
  • AI ist in der Softwaretechnik eine typische „massive Abstraktionsschicht“. Aber die Wahrheit war schon immer, dass die besten Engineers nicht auf der Abstraktionsebene stehen bleiben, sondern die Neugier und Intelligenz besitzen, zu erforschen, wie der Unterbau funktioniert. Man muss vielleicht nicht selbst den TCP/IP-Stack bauen, aber ein guter Engineer sollte Protokollkonzepte verstehen und bei Datenbanken zumindest die interne Umsetzung und die Trade-offs zwischen Verfügbarkeit und Konsistenz kennen. Auch bei AI gilt letztlich: Wenn man ihr nur blind Anweisungen folgt, riskiert man ein böses Erwachen
  • Ich habe kürzlich über ein ähnliches Thema geschrieben. Je mehr AI längere Aufgaben reibungslos übernimmt, desto kürzer wird in der Realität die Aufmerksamkeitsspanne des Menschen. Passender Beitrag. Ich hoffe, dass Menschen künftig AI-Unterstützung erhalten und dennoch ihre Fähigkeit zum eigenständigen Denken bewahren. Ehrlich gesagt waren Schulaufgaben an sich auch nicht besonders praxisnah...