4 Punkte von GN⁺ 2025-05-27 | 1 Kommentare | Auf WhatsApp teilen
  • In letzter Zeit nehmen die Herausforderungen im Bildungsbereich durch AI-Hausaufgabenmaschinen zu
  • Schülerinnen und Schüler sowie Studierende können mit generativer AI wie ChatGPT leicht auf Täuschung bei Aufgaben zugreifen
  • Lehrkräfte äußern die Sorge, dass der Einsatz von AI zu einer tatsächlichen Unterbrechung von Lern- und Denkprozessen führen könnte
  • In Schulen zeigen sich Experimente, die den Einsatz von AI einschränken oder analoge Methoden (wie handschriftliches Schreiben) einführen wollen
  • Um dieses Problem zu überwinden, sind Veränderungen im gesamten Bildungsumfeld und ein vorsichtiger Ansatz nötig

Einleitung: AI und die Analogie zum Butlerian Jihad

  • Die Autorin bzw. der Autor plädiert seit vergangenem Jahr für die Anwendung des Prinzips des Butlerian Jihad aus Dune („Du sollst keine Maschine nach dem Abbild des menschlichen Geistes erschaffen“)
  • Dieses Prinzip bündelt verschiedene Sorgen über AI in einer Überzeugung und wird als Bezugspunkt präsentiert, um sinnvolle AI-Nutzung etwa in der Medizin von menschenimitierender AI zu unterscheiden
  • In jüngster Zeit breitet sich die Bewegung des „AI-Widerstands“ tatsächlich aus
    • ‘Destroy AI’-T-Shirts, Fallen gegen AI-Scraper und die breite Verbreitung von Anti-AI-Botschaften
    • In der Literatur- und Verlagswelt werden Anti-AI-Klauseln zum Standard
  • Kontroversen etwa um mit AI unterstützte Panel-Auswahlen führen dazu, dass Kreative, Künstlerinnen und Künstler sowie Autorinnen und Autoren jede Interaktion mit LLMs bereits als Verrat an kreativer Solidarität wahrnehmen

Emotionale und mentale Abwehr gegenüber AI

  • Über eine bloße ludditische Bewegung hinaus lässt sich die Ausbreitung einer grundsätzlichen Ablehnung von AI beobachten
  • Das Unbehagen über die Nachahmung des Menschen durch AI und ihren unethischen Einsatz sitzt tiefer als konkrete Gegenargumente
  • Selbst wenn logische Einwände gegen AI-Technologie entkräftet werden, verschwindet die Ablehnung ihr gegenüber nicht so leicht

Das AI-Problem im Bildungsalltag: der Aufstieg der Hausaufgabenmaschine

  • Der größte spürbare Einfluss von AI im aktuellen Bildungsalltag ist Täuschung bei Aufgaben
  • Auch in mehreren Artikeln zeigen sich die wachsende AI-Abhängigkeit von Lernenden, die Frustration von Lehrkräften und die Verwirrung über den sinnvollen Einsatz von AI
  • AI-Tutoren mögen ideal erscheinen, haben aber Grenzen wie Halluzinationen bzw. falsche Informationen und Defizite beim tatsächlichen Lernerfolg

Auswirkungen des AI-Einsatzes auf Lern- und Bewertungsstrukturen

  • AI trennt Aufgabenresultate vom eigentlichen Denk- und Übungsprozess und erschwert es damit, das echte Verständnis von Lernenden zu erkennen
  • Sie ermöglicht das Umgehen von „Desirable Difficulty“ und bietet nur kurzfristige Bequemlichkeit
  • Nicht nur in allgemeinbildenden Fächern, sondern auch im Fachstudium und in kreativen Kursen wirkt die Versuchung zur AI-Abhängigkeit stark

Konkrete Unterrichtserfahrungen und das Problem der Erkennung von AI-Täuschung

  • Auch im universitären Schreibkurs der Autorin bzw. des Autors nimmt der Einsatz generativer AI stark zu
  • Manche Fälle werden noch durch einfache Fehler der Nutzerinnen und Nutzer entdeckt (z. B. fehlende Autorenangaben, sachliche Irrtümer), doch die Erkennung wird zunehmend schwieriger
  • Wegen der Grenzen der AI-Erkennung neigen Lehrkräfte im Bewertungsprozess zu Misstrauen, Erschöpfung und einer eher feindseligen als kooperativen Haltung
  • Auch die Studierenden werden im Umgang damit immer geschickter, während die Quote eingestandener Täuschung allmählich sinkt

AI und Schreiben: der grundlegende Unterschied des Werkzeugs

  • Mit AI erzeugte Ergebnisse wirken unwesentlich und mangels menschlicher Gesprächsqualität ermüdend auf Lehrkräfte
  • AI wird auch als „Taschenrechner für Wörter“ beschrieben, doch so wie der Taschenrechner den Mathematikunterricht nicht ersetzen kann, kann AI auch die eigentliche Schreibfähigkeit nicht ersetzen
  • Für echtes Lernen und Wachstum sind kreatives Denken und Ausdruck ohne Abhängigkeit von AI wichtig

Einschränkung von AI-Nutzung und Experimente mit analogen Methoden

  • Zur Überprüfung von AI-Nutzung wurde das Abgabeformat etwa über Google Docs eingeschränkt, was in der Praxis jedoch mehr Überwachung und Unbequemlichkeit mit sich brachte
  • Schulen haben den erlaubten Umfang von AI-Nutzung feiner ausdifferenziert, doch tatsächlich zitieren oder legen fast keine Lernenden ihren AI-Einsatz offen
  • Auch die Lernenden selbst betrachten AI oft als „Täuschung“ und neigen stark dazu, sie zu verbergen

Wahrnehmungen und Überlegungen der Lernenden zu AI

  • Lernende empfinden Müdigkeit gegenüber AI selbst und gegenüber einem Leben, das sich immer stärker auf digitale Plattformen stützt
  • Manche sorgen sich in zukünftigen Projekten vor AI-Missbrauch oder stellen sich eine wünschenswerte Zukunft mit einem maßvollen Einsatz von Technologie vor
  • Diese Überlegungen stärken die Forderung nach altersabhängigen Nutzungsgrenzen oder gesellschaftlicher Regulierung von AI

Kognitive Negativwirkungen von AI und gesellschaftsweite Probleme

  • Technologien, die den menschlichen Geist mit AI nachahmen, können Nebenwirkungen wie emotionale Verwirrung, Sucht und Wahnvorstellungen auslösen
  • Diese Probleme breiten sich nicht nur im Bildungsbereich, sondern auch als Täuschung in Wirtschaft, Recht, Wissenschaft und der gesamten Gesellschaft aus
  • Dadurch drohen Krisen wie die Erosion von Vertrauensgrundlagen und die Beschädigung von Wahrheit

Gegenmaßnahmen: Unterrichtsexperimente mit analogem Schwerpunkt

  • Als grundlegenden Ausweichweg plant die Autorin bzw. der Autor für das nächste Semester ein Experiment mit handschriftlichen und papierbasierten Lernformen
  • Die Lernenden sollen ohne digitale Geräte direkt mitschreiben und Probleme lösen
  • Die Bewertung soll sich stärker auf den Prozess konzentrieren, also eher auf Teilnahme und Abschluss als auf das Endprodukt

Fazit: ein Wandel des Bildungparadigmas zur Wiedergewinnung von Menschlichkeit

  • AI-Befürworter behaupten, „AI werde alles verändern“, doch das muss nicht bedeuten, dass dadurch ein besseres Bildungsumfeld entsteht
  • Im Umgang mit AI wird letztlich die Notwendigkeit einer menschlicheren, von gegenseitigem Respekt und Reflexion geprägten Umgebung betont
  • Inmitten ständiger Veränderungen wird auf eine Wiederherstellung des Wesens von Bildung und einen neuen Aufbruch gehofft

Weitere Neuigkeiten

  • Die Autorin bzw. der Autor erhielt in diesem Semester einen Preis für exzellente Lehre von der Graduate Student Government der ASU
  • Bei den 63. Glendon and Kathryn Swarthout Awards wurde der 1. Platz in der Kategorie Graduate Fiction verliehen
  • Zudem wurde die Person für das Carbon Removal Justice Fellowship ausgewählt, das vom National Wildlife Federation und dem „Institute for Responsible Carbon Removal“ der American University veranstaltet wird; vorgesehen sind Aufenthalte in Washington, D.C., und Louisiana
  • Im Blog des Hayden’s Ferry Review erschien ein Interviewbeitrag

Art Tour: Turbulent Mountain Waterfall

  • Bei einem jüngsten Besuch im Phoenix Art Museum wurde das Werk „Turbulent Mountain Waterfall“ (1991) von Pat Steir betrachtet
  • Dieses Bild bleibt als Erinnerung, die in der kommenden Hitze Arizonas einen kühlen Eindruck hinterlässt

1 Kommentare

 
GN⁺ 2025-05-27
Hacker-News-Kommentare
  • Vielleicht wäre es wirksam, auch die Methode zu ändern. Was wäre, wenn man zu Hause mit AI lernt und in der Schule unter Aufsicht die „Hausaufgaben“ erledigt?

    • Es gibt das Konzept des Flipped Classroom, und das war das Thema meiner Masterarbeit. Eigentlich ist das schon eine ziemlich alte Idee.
  • Ich unterrichte Mathematik an einer Universität mit 30.000 Studierenden, und in letzter Zeit kehren wir wieder zur traditionellen Methode zurück, Prüfungen unter Aufsicht mit Papier und Stift abzulegen. Die Studierenden scheinen sich über diese Änderung nicht besonders zu beschweren, aber die Hochschulverwaltung sieht diesen Trend nicht gern. Es gibt starken Druck, alle Prüfungen so zu gestalten, dass sie remote-freundlich sind. Die Richtlinie verlangt dieselbe Prüfungsform sowohl für Präsenzveranstaltungen als auch für online eingeschriebene Studierende. Da Online-Einschreibungen eine große Einnahmequelle sind, gilt ihr Ausbau als sehr wichtig. Wenn von sieben Kursgruppen in Calculus I eine online angeboten wird, sind in den übrigen sechs Präsenzgruppen Präsenzprüfungen ebenfalls verboten. Begründet wird das mit „Fairness“. Es ist wirklich frustrierend, dass die Situation so ist.

    • Ich spüre diesen Druck auch. Tatsächlich glaube ich, dass ein großer Teil der AI-Probleme, die wir erleben, daher kommt, dass AI andere Probleme unserer Gesellschaft sichtbar macht. Zum Beispiel kennen die Lehrenden den Stoff am besten und unterrichten ihn tatsächlich, aber die eigentliche Entscheidungsmacht liegt bei der Verwaltung. Problematisch ist auch, dass Universitäten darauf ausgerichtet sind, Geld zu verdienen. AI verschärft diese Probleme zwar, aber es sind im Grunde strukturelle Probleme, die schon vor AI da waren. Ich hoffe, dass die grundlegenden Fundamente erst dann korrigiert werden, wenn sich die Lage noch deutlich verschlechtert hat. Mit etwas Glück können wir bei dieser Gelegenheit Probleme beheben, die wir lange ignoriert haben. Wenn nicht, wird es einfach nur schlimmer, ohne dass sich überhaupt die Chance auf Besserung ergibt.
    • Ich habe einen Software-Engineering-Abschluss von Harvard Extension und musste tatsächlich mehrfach Prüfungen in physisch beaufsichtigten Umgebungen ablegen. Das ließ sich in Madrid und London problemlos organisieren. Für Universitäten oder Studierende ist das nicht besonders schwierig. Derzeit studiere ich im Online-Masterprogramm an Georgia Tech, und auch Online-Prüfungen und Aufsicht funktionieren ordentlich. Selbst Kurse mit viel mathematischem Inhalt, etwa Simulation, waren online gut machbar. Allerdings scheinen manche Fächer, etwa Graduate Algorithms, mit Online-Prüfungen Schwierigkeiten zu haben. Ich verstehe, dass Professoren Präsenzprüfungen bevorzugen, aber solange ausreichend Aufsichtsoptionen oder eine gute Fächerauswahl angeboten werden, habe ich persönlich keine großen Einwände.
    • In Australien unterhalten sogar Fernuniversitäten in Großstädten mehrere Prüfungszentren mit Aufsicht. Der Unterricht findet remote statt, aber die Abschlussprüfung muss zwingend in einem offiziellen Prüfungszentrum unter Aufsicht abgelegt werden. Die Prüfung kann auch mehr als 50 % der Gesamtnote ausmachen. Ich frage mich, ob man so etwas nicht auch in den USA einführen könnte.
    • Die Studierenden, denen ich begegnet bin, reagieren durchweg mit Schock und Enttäuschung auf diese „alte Methode“. Sie sind frustriert darüber, dass der Abschluss, den sie sich mit Mühe erarbeiten wollen, immer nutzloser wird, wünschen sich aber trotzdem nicht, dass Prüfungen zurückkehren. Besonders neurodivergente Studierende sind in Prüfungssituationen verletzlicher und scheinen bei offenen Aufgaben deutlich stärker zu sein, auch wenn meine Stichprobe sicher verzerrt ist. Diese Studierenden sagen, dass sie keine Lösung sehen. Aus Sicht der Studierenden, die am stärksten betroffen sind, sind sowohl die Situation selbst als auch „Lösungen“, die praktisch nicht helfen, einfach nur frustrierend.
    • An meiner Universität bestanden Professoren in technischen Kursen fast immer darauf, nur Bleistift und Papier zu verwenden. Beim Schreiben von Essays waren Laptops nur in bestimmten Kursen erlaubt, und selbst dann liefen die Professoren während der gesamten Prüfungszeit durch den Raum und beaufsichtigten alles persönlich. Früher war ich skeptisch, warum man neue Technologien nicht nutzt, aber heute bin ich diesen Professoren dankbar. Dadurch, dass ich Mathematik von Hand schreiben und so lernen musste, hat sich ein solides Verständnis der Theorie aufgebaut. Wenn ich sehe, wie es heutige Studierende machen, tut mir das aufrichtig leid. Professoren, sagt manchmal einfach „NEIN“. Die Studierenden werden euch später dankbar sein.
  • Ich habe immer gedacht, dass das Bildungssystem schon lange kaputt und fast nutzlos ist. Lehrkräfte haben mir fast nie das Gefühl gegeben, tatsächlich etwas zu „unterrichten“. Eher wurde man unterdrückt, wenn man Anzeichen zeigte, wirklich zu denken, weil das nicht zum Lehrplan passte. Dass AI Hausaufgaben so leicht erledigen kann, zeigt meiner Meinung nach, wie wenig Wert Hausaufgaben haben. Echter Unterricht und echtes Lernen brauchen Zusammenarbeit.

    • Zu glauben, Hausaufgaben seien bedeutungslos, nur weil AI sie erledigen kann, ist eine oberflächliche Sichtweise. Viele Hausaufgaben lassen sich tatsächlich auch mit einem Taschenrechner, Wikipedia oder dem Lehrbuch leicht lösen. Das bedeutet aber nicht, dass sie unnötig waren. Durch Hausaufgaben baut man tatsächlich die Denkstrukturen im Gehirn auf und lernt mehrere Fähigkeiten gemeinsam. Natürlich stimmt es auch, dass sich mit der Zeit die Bedeutung von Bewertung im Vergleich zur Vergangenheit verändert hat.
    • Der Zweck von Hausaufgaben ist, tatsächlich zu üben, notwendige Schwachstellen zu finden und den Lernfortschritt zu überprüfen. Nur weil AI Hausaufgaben machen kann, werden sie nicht nutzlos. Es ist natürlich wirklich bedauerlich, wenn jemand schlechte Erfahrungen gemacht oder keine guten Lehrkräfte gehabt hat, aber ein System, das für die Mehrheit gut funktioniert, pauschal zu verwerfen, ist nicht vernünftig. Viele Studierende können noch nicht einmal lesen oder grundlegende Mathematik, bevor man von ihnen unabhängiges kritisches Denken erwarten kann. Dass man in der Schule über Mathematikaufgaben „vernünftiges Schlussfolgern über Ergebnisse“ lernt, ist ebenfalls ein wichtiger Punkt. Tatsächlich halte ich die Fähigkeit, zu überprüfen, ob eine 43.000 km lange Brücke plausibel ist, für sehr wichtig.
    • Die heutige AI kann sogar Mathematik- und Programmierhausaufgaben auf Harvard-Niveau erledigen, aber ich habe in der Zeit vor GPT durch Hausaufgaben wirklich sehr viel gelernt und die Hausaufgaben selbst auch genossen. Zu behaupten, mit AI verliere all das automatisch seinen Sinn, ist ein logischer Sprung.
    • Der eigentliche Zweck von Hausaufgaben ist nicht, die Hausaufgaben selbst zu machen, sondern Lernfähigkeit und Lernerfolg nachzuweisen. Ob man sie andere machen lässt oder AI sie erledigt: Wenn sich am Ende keine Kompetenz aufbaut, verliert auch das Diplom seinen Sinn. Universitäten müssen ihre Bewertungsmethoden verbessern, um die Glaubwürdigkeit von Abschlüssen zu schützen. Wenn die Fähigkeit zum Einsatz von AI bewertet werden soll, sollte es dafür einen eigenen Abschluss geben. Mit anderen Worten: Ein normaler Computer-Science-Abschluss und ein AI Assisted Computer Science-Abschluss sollten klar voneinander getrennt sein.
  • Ich unterrichte Informatik/Programmierung, und es ist nicht leicht, die optimale Richtlinie für AI zu finden. Einerseits nutze ich selbst AI häufig und bekomme dadurch viel Hilfe beim Lernen. Andererseits erledigt AI Aufgaben zwar schnell, aber die Qualität der Ergebnisse ist geringer. Studierende sehen Pflichtaufgaben als eine Hürde, die man eben bestehen muss, und konzentrieren sich darauf, sie möglichst einfach zu überwinden. In diesem Moment wirkt AI weniger wie ein Lernhelfer als wie eine bloße Hausaufgabenmaschine. Die Nutzung von Computern oder ungewöhnlichen Sprachen, etwa die Verwendung eines selbst geschriebenen Compilers, lässt sich nicht einführen. Mein aktueller Ansatz besteht vor allem aus Projektaufgaben und mündlichen Prüfungen. Projekte erfordern Zusammenarbeit, sodass man die richtige Lösung nicht einfach direkt aus einem LLM ziehen kann, und in mündlichen Prüfungen zeigen sich Können und Tiefe sofort. Trotzdem gibt es jedes Jahr einige Studierende, die drei Semester oder mehr Zeit verschwenden und dabei nicht einmal grundlegende Konzepte miteinander verbinden können; in solchen Fällen muss ich ihnen als Professor sagen, dass es vergeudete Zeit war. Linux-Grundlagen sind einfache Terminal-Übungen und daher bislang weniger betroffen, weil LLMs noch keinen Zugriff auf Terminal-APIs haben. Ich denke auch darüber nach, eine Online-IDE bereitzustellen und Copy-and-paste-Vorgänge zu überwachen, aber mir gefällt die Vorstellung nicht, dass Studierende Software nicht direkt auf ihren eigenen Rechnern ausführen können.

    • Obwohl ich auch nicht aus einer besonders alten Generation bin, basierte die Bewertung in meinem Informatikstudium an der Universität auf Gruppenprojekten und Präsenzklausuren. In den Prüfungsraum durften weder Taschenrechner mit Programmierfunktionen oder großem Speicher noch Laptops mitgebracht werden. Das war kein großes Problem. Auch wenn die Debatte heute heftig ist, scheint es mir in Wahrheit nicht mehr als ein Generationenkonflikt oder ein Streit um Studierendenrechte zu sein. Eigentlich denke ich, dass Fächer, die lange schriftliche Ausarbeitungen erfordern, stärker in der Krise sind. Mündliche Prüfungen oder Essay-Klausuren mit dem Blue Book haben früher ebenfalls gut funktioniert.
    • Diese Haltung der Studierenden, Pflichtaufgaben nur als „eine Hürde, über die man irgendwie hinwegmuss“ zu sehen, scheint in Online-Communities wie Hacker News weit verbreitet zu sein. Schon vor LLMs war die Logik weit verbreitet: „Die Universität ist bedeutungslos“, „der Abschluss ist nur ein Stück Papier“, „der Vorlesungsinhalt ist wertlos“, und daraus folgt dann „also ist Schummeln rational“. Wenn man jedoch die Beschäftigungsfähigkeit oder die tatsächliche Arbeitskompetenz von Studierenden beurteilt, ist es sehr leicht, diejenigen zu unterscheiden, die ordentlich gelernt haben, von denen, die das Ganze nur wie ein Spiel durchziehen wollten.
    • Ich stimme zu, dass sich in mündlichen Prüfungen die tatsächliche Fähigkeit eines Studierenden gut zeigt. Wenn es ein Computerlabor gibt, könnte es auch sinnvoll sein, in jeder Stunde regelmäßig Live-Programmieraufgaben zu stellen. Die Bereitstellung einer Online-IDE oder die Überwachung von Copy-and-paste hat allerdings auch den Nachteil, dass gute Studierende ihren eigenen Editor nicht verwenden können. Ich selbst hätte auch keine Lust, Code auf einer Webseite zu tippen.
    • Es ist jedes Jahr ein wenig schockierend zu sehen, dass manche Studierende in den Prüfungsraum kommen, ohne überhaupt die Grundlagen zu verstehen.
    • Falls es einen Kurs gibt, in dem Studierende selbst Programmiersprachen entwerfen und implementieren, könnte man auch die beste im Vorjahr entstandene Sprache verwenden. Dann kann ein LLM nicht so leicht die richtige Lösung erzeugen. Ich selbst arbeite in einem ganz anderen Bereich zwischen Mathematik und Informatik, finde die Idee aber interessant.
  • Ich halte es für gut möglich, dass AI das Lernen zukünftiger Studierender explosionsartig beschleunigt. Ähnlich wie in der Montessori-Pädagogik könnten LLMs Studierenden helfen, die ihre Laufbahn in viele verschiedene Richtungen erkunden. In meinem Fall wich mein Lehrer in der Oberstufe Antworten oft aus und führte Diskussionen nicht in die Tiefe, sodass viele meiner Fragen offenblieben, besonders in Biologie oder Chemie. Natürlich ist die heutige Bildungsumgebung auf Hausaufgaben fokussiert, sodass nur wirklich neugierige Studierende von LLMs profitieren. Wenn neue Unterrichtsformen eingeführt werden, hoffe ich, dass sie die Neugier fördern, die in allen Studierenden steckt. Falls jemand ein AI-Tool kennt, mit dem man bei zentralen Konzepten wie Trigonometrie den großen roten Faden beibehält und zugleich thematische Erkundungen machen kann, würde ich mich über einen Hinweis freuen.

    • Ich glaube, das Kernproblem ist die „hausaufgabengetriebene“ Struktur. Was wirklich neugierige Studierende brauchen, ist eher „freie Zeit“. Statt ständiger Aufgaben und fortlaufender LLM-Nutzung wäre es vielleicht besser, wie früher ein moderates Arbeitspensum zu haben, sodass Zeit für eigenständige Erkundung bleibt. Als ich mir Musik und Elektronik selbst beigebracht habe, habe ich meinen Fortschritt nicht über Prüfungen gemessen, sondern über andere Kriterien, etwa ob die Schaltung tatsächlich funktioniert. Ohne einen externen Maßstab bezweifle ich, dass allein die Nutzung von LLMs zu einem tiefen Verständnis führen kann.
    • Ich entwickle ein AI-Tutor-Produkt, das für Gespräche im sokratischen Stil entworfen ist und freie thematische Abzweigungen ermöglicht. Wenn du Interesse hast, kann ich dich auf die Warteliste setzen. Das MVP soll in ein paar Wochen erscheinen.
    • Wenn man komplexe Probleme untersucht, ist es eher hinderlich, mit einer AI zu sprechen, die möglicherweise lügt oder erfundene Zitate erzeugt.
    • Ich habe noch keinen direkten Fall gesehen, in dem AI beim Lernen tatsächlich explosiv geholfen hätte. Online-Bewertungen oder Selbstauskünfte allein halte ich nicht für vertrauenswürdig.
    • Früher blieb oft ein unvollendetes Gefühl, wenn man bei einem bestimmten Konzept festhing, weil Lehrkräfte nur oberflächlich antworteten oder nichts wirklich tief erklärten. In letzter Zeit ist mir klar geworden, dass AI flüssigeres und explorativeres Lernen ermöglicht. Auch ich halte ChatGPT nicht für unfehlbar, aber beim Vergleichen von Konzepten oder beim logischen Gegenhalten ist es ziemlich nützlich, um mein Denken zu erweitern. In der Praxis übernehme ich AI-Antworten nicht einfach als Wahrheit, sondern nutze sie, um meine Gedanken hin und her prallen zu lassen und neue Richtungen für Erkundung zu finden.
  • Ich unterrichte an einer kleinen Hochschule. Unsere Methoden sind folgende:

    • Alle Zwischen- und Abschlussprüfungen werden handschriftlich geschrieben.
    • Die Studierenden müssen erklären, wie sie ihre Programmieraufgaben entworfen und codiert haben (möglich bei 15–20 Personen, schwierig bei größeren Gruppen).
    • Studierendenpräsentationen und Fragerunden zu komplexen Themen.
    • Abgabe einer handschriftlichen einseitigen Zusammenfassung, eines Diagramms, einer Mindmap usw.
    • Auch in Programmierlabors werden die Anforderungen am selben Tag kreativ verändert, sodass die Studierenden spontan Lösungen finden müssen (zum Beispiel mit dem Szenario, dass der „Client“ seine Anforderungen geändert hat). Das eigentliche Problem ist, dass diese Methode für Lehrkräfte viel mehr Aufwand bedeutet und es nicht viele Menschen gibt, die bereit sind, außerhalb des Rahmens zu denken.
    • Bedeutet „handschriftlich“ hier wirklich Stift und Papier?
  • Wenn der aktuelle Trend anhält, werden künftig die meisten Hochschulabschlüsse völlig wertlos. Wenn Studierende mit AI erschummelte Hausaufgaben machen und dafür Diplome erhalten, dann haben diese Abschlüsse als Nachweis von Lernerfolg keinerlei Wert. Institutionen, die solche Abschlüsse verleihen, unterscheiden sich nicht von den skrupellosen Degree Mills der Vergangenheit. Ich bin fast froh, dass mein Abschluss aus dem Jahr 2011 stammt.

    • Die besten Professoren, die ich erlebt habe, legten fast kein Gewicht auf Hausaufgabennoten oder prüften höchstens, ob etwas abgegeben wurde. Anwesenheit floss ebenfalls überhaupt nicht ein. Die Professoren boten Unterricht und Aufgaben nur als Lernmittel an, und die eigentliche Bewertung erfolgte in beaufsichtigten Prüfungen während der Lehrveranstaltung oder im offiziellen Prüfungszentrum der Universität. Erwachsene Studierende über Hausaufgabennoten oder Anwesenheit zu steuern, halte ich für etwas kindisch und überfürsorglich. Es ist vernünftiger, sie selbst lernen zu lassen und nur zu bewerten, wie viel sie tatsächlich in einer Umgebung gelernt haben, in der Schummeln unmöglich ist. Jagd auf Hausaufgabenschummelei zu machen, wirkt nicht wie echte Lehrinnovation, sondern eher wie ein provisorischer Flicken für ein altes System am Ende seiner Möglichkeiten.
    • Schulen und Universitäten sollten aufhören, Hausaufgaben als „Beleg für Kompetenz“ zu behandeln. Ich bezweifle, dass Hausaufgabennoten an sich sinnvoll sind. Das AI-Zeitalter ist ohnehin unumkehrbar, also sollten Universitäten die Realität anerkennen und sich auf Veränderungen vorbereiten.
    • Ich sehe das eher umgekehrt. Verifizierte Hochschulabschlüsse werden wertvoller werden. Spitzenuniversitäten werden sich von Remote-Aufgaben weg und stärker zu Präsenzprüfungen bewegen, um tatsächliches Lernen zu überprüfen. In Wahrheit war Schummeln schon immer weit verbreitet, und gute Universitäten haben Systeme, die es schwer machen, bis zum Abschluss damit durchzukommen. An der State University in meiner Umgebung ist unter Studierenden weithin bekannt, bei welchen Professoren und in welchen Kursgruppen man leicht schummeln und so ohne große Mühe den Abschluss schaffen kann. Professoren, die gegen Schummeln streng vorgehen, werden manchmal mit schlechten Bewertungen abgestraft.
    • Das hat nichts direkt mit AI zu tun, aber ich habe eine Geschichte über Schummeln bei Online-Prüfungen. Mein Neffe wechselte wegen der Pandemie in den Online-Unterricht, und von da an schoss der Klassendurchschnitt plötzlich in die Höhe. Anfangs weigerte er sich zu schummeln, machte dann aber schließlich mit wie alle anderen. Er beklebte die Wand rund um seinen Monitor mit unzähligen Post-its und schrieb so die Prüfung, bis sein Vater hereinkam und ihn schimpfte, weil die Tapete beschädigt werde.
    • Ich glaube nicht, dass dieses Problem neu ist. Auch ich hatte früher Professoren, die meinten, die Autovervollständigung in Java-IDEs schade dem Lernen, und deshalb mussten wir Labs per SSH direkt in Vim und C machen.
  • So bin ich bei MBA-Hausarbeiten vorgegangen:

    • Ich habe mir zuerst eine Meinung zurechtgelegt.
    • Dann habe ich ausführlich nach Arbeiten gesucht, die diese Meinung stützen, habe aber die Inhalte nicht sorgfältig gelesen, sondern nur die Abstracts geprüft.
    • Beim Schreiben des Essays habe ich aus den referenzierten Arbeiten jeweils nur die Stellen herausgezogen, die am besten zu meiner Behauptung passten. Auf diese Weise findet überhaupt kein Lernen statt. Man wird nur besser darin, in Journals zu suchen. Es gibt immer viele Arbeiten, die die gewünschte Sichtweise stützen, wenn man geschickt sucht. Selbst wenn man diesen gesamten Prozess komplett an ein LLM delegiert, hätte das meiner Meinung nach keinerlei Einfluss auf die eigentliche Bildung.
    • Das ist bedauerlich. Ich frage mich wirklich, warum du nicht aus den Arbeiten selbst lernen konntest und dich darauf eingelassen hast.
    • Eigentlich ist man selbst das Problem. Wenn man auf Grundlage der wissenschaftlichen Methode schreibt, kann man ernsthaft zu fast jedem Thema einen guten Text verfassen. Aber Abschlüsse wie ein MBA werden in Wirklichkeit eher als Sprungbrett für Beförderungen oder Karrierewechsel gesehen. Es gibt praktisch keine Struktur, in der man dafür belohnt wird, „echte Wissenschaft“ zu betreiben. Ich selbst habe dieselbe Methode in vielen Kursen mehrfach wiederholt und einfach die Noten mitgenommen. Solange es inhaltlich plausibel klang, war das genug. In der Arbeitswelt habe ich dann festgestellt, dass Unternehmen ähnlich funktionieren. Man reicht nur das Material ein, das die eigene Meinung stützt, und wenn es das nicht gibt, zieht man eben etwas Ähnliches heran und tut so, als würde es die eigene Behauptung stützen. Selbst wenn meine Meinung oder meine Prämissen falsch sind, wird es nicht belohnt, einem Vorgesetzten oder Kunden zu sagen, dass sie falsch liegen.
    • Ich habe einmal die Psychologie-Hausarbeit eines Freundes ohne jegliches Vorwissen für ihn geschrieben, und sie bekam die Bestnote. Ich bin dabei exakt so vorgegangen, wie gerade beschrieben. Meine Mutter hat sogar einmal einen Service angeboten, bei dem sie auf Basis von Vorlesungsaufzeichnungen Hausarbeiten für ausländische Studierende ghostwrote.
    • Auch wenn am Ende viele nur Arbeiten zusammenfassen, sollte man bedenken, dass irgendjemand diese Arbeiten tatsächlich schreibt und durch unabhängiges Denken neues Wissen hervorbringt.
  • Wir müssen als Menschheit insgesamt darüber nachdenken, was der Zweck von Bildung ist und was er in Zukunft sein sollte. Realistisch betrachtet will wohl niemand, der Studiengebühren zahlt, absichtlich die eigene Kompetenz und das eigene Verständnis untergraben. Bei 90 % der Studierenden ist das Ziel klar, weil der Abschluss ein Ticket zum Job ist, und bei den übrigen 10 % wäre es auch nicht überraschend, wenn Arbeitgeber ihnen nicht vertrauen, weil sie nicht einmal unangenehme Wahrheiten über sich selbst anerkennen. Dass Prüfungsergebnisse oder akademische Leistungen kein objektiver Maßstab sind, weiß eigentlich jeder. Bildungsstandards und Curricula unterscheiden sich von Schule zu Schule enorm. Ich selbst habe mich in der Highschool mit einem GPA von 3,2 eher durchgeschleppt, aber an der Universität war der Mathematik-Einstufungstest auf Mittelschulniveau und leicht zu lösen, während selbst 4,0-GPA-Studierende oft Grundkurse wiederholen mussten. Trotzdem gibt es immer eine starke Abneigung gegen standardisierte Tests, obwohl man sie wie beim SAT mehrfach ablegen kann.

    • Ist die Aussage also, dass selbst die 10 %, die wirklich lernen wollen, am Ende einen Kompromiss mit dem Degree-Mill-Spiel eingehen sollen? Auch ich bin etwas zynisch, aber selbst mir geht das zu weit.
  • Ich habe auch die gegenteilige Erfahrung gemacht. Ohne AI hätte ich außerhalb der Schule wahrscheinlich nicht die Ausdauer gehabt, mich letztes Jahr bis zum Ende mit Rust zu beschäftigen. Einen jederzeit verfügbaren persönlichen Tutor zu haben, ist ein enormer Vorteil; man kann sogar Fragen stellen, die einem unter der Dusche einfallen. Gleichzeitig glaube ich, dass ich, wenn ich wieder zur Schule gehen würde, AI bei Prüfungen oder Aufgaben zwangsläufig nutzen würde, um nicht zurückzufallen. In einem Bewertungssystem, das auf einer Bell Curve basiert, wird durch AI alles zu einer spieltheoretischen Situation, in der alle zur Nutzung von AI gedrängt werden.

    • Mir geht es ähnlich. AI ist als Lernwerkzeug wirklich sehr stark, stellt das Bildungssystem aber vor große Herausforderungen.