- Entwickelt, um Bedenken im Bildungsbereich auszuräumen, ob ChatGPT tatsächlich beim Lernen hilft oder nur Antworten liefert
- Unterstützt den Lernprozess statt nur Antworten zu geben durch schrittweise Anleitung und Interaktion
- Passt Leitfragen an Ziele und Kompetenzniveau an und fördert durch Beteiligung und Interaktion tieferes Verständnis und Reflexion
- In Zusammenarbeit mit Lehrkräften, Wissenschaftlern und Bildungsexperten wurden maßgeschneiderte Systemanweisungen auf Basis der Lernforschung integriert, darunter aktive Beteiligung, Steuerung der kognitiven Belastung, Metakognition und Selbstreflexion
- Enthält verschiedene Bildungsfunktionen wie personalisierten Unterricht, Quizze zur Wissensüberprüfung, Feedback und Fortschrittsverfolgung
- Wird auf Basis von Feedback realer Studierender an Hochschulen und in der höheren Bildung kontinuierlich verbessert; geplant sind zusätzliche Funktionen wie Visualisierungen, Zielverfolgung und weitergehende Personalisierung**
Hauptfunktionen
- Interaktive Prompts: Kombination aus sokratischen Fragen, Hinweisen und Selbstkontrolle, um zum eigenständigen Denken anzuregen
- Antworten mit zusätzlicher Unterstützung: Schrittweise Informationen unter Berücksichtigung von Zusammenhängen zwischen Themen, um übermäßige kognitive Belastung zu verringern
- Personalisierte Unterstützung: Bewertung des Kompetenzniveaus, Erinnerung an frühere Gespräche und Bereitstellung personalisierter Lerneinheiten
- Wissensüberprüfung: Fortschrittsverfolgung durch Quizze, offene Fragen und maßgeschneidertes Feedback; stärkt Erinnerungsvermögen und Anwendungskompetenz
- Flexibilität: Study-Modus kann jederzeit während des Gesprächs ein- oder ausgeschaltet werden
In ChatGPT ausprobieren
1 Kommentare
Hacker-News-Kommentare
Ich denke, dass LLMs als Lernpartner unterschätzt werden, weil man ohne Scham frei "dumme" Fragen stellen kann. Ein Modus, der nicht nur kurze Antworten gibt, sondern Dinge Schritt für Schritt erklärt, fühlt sich wirklich wie Magie an. Es ist, als hätte man rund um die Uhr einen kompetenten Assistenten, also ein Traumwerkzeug für das Lernen allein. Früher war es oft schwer wegen ungenauer oder veralteter Online-Informationen, fehlendem Feedback und ruppigen Communities, aber verglichen mit damals ist das heute eine völlig andere Liga. Natürlich sollte man AI-Informationen nicht blind vertrauen, sondern selbst überprüfen. Manche werden das sicher faul nutzen, aber wie bei alten Büchern oder Lehrbüchern hängt der Nutzen letztlich von der eigenen Haltung ab. Ich bin sehr aufgeregt und beeindruckt, in einer Zeit zu leben, in der wir solche Tools nutzen können
Ich stimme zu, dass es vor ein paar Jahren beim Online-Lernen viele Probleme gab: falsche Informationen, böswillige Antworten, fehlendes unmittelbares Feedback. Aber bei heutiger AI muss man ständig daran zweifeln, ob die Antwort stimmt oder ob sie Unsinn halluziniert. Ich habe oft erlebt, dass bei faktenbasierten Fragen falsche Antworten kamen. Und wenn man auf diese Probleme hinweist, heißt es immer, das neueste Modell sei verbessert worden, verbunden mit der Forderung nach teuren Abogebühren. Noch schlimmer ist, dass AI bei Widerspruch gegen ihre Antwort viel zu leicht einknickt. Sie kann ihre eigene Antwort nicht verteidigen, und das ist meiner Meinung nach keine Eigenschaft, die man von einem Lehrer erwartet. Am Ende ist AI nur ein nützliches Werkzeug und sollte nicht überschätzt werden, daher braucht es immer gesunden Skeptizismus. Eigentlich gilt das auch für traditionelle Bildung
Ein Modus, der Material Schritt für Schritt erklärt, ist attraktiv, aber ich finde, diese Systeme haben weiterhin das Problem, selbstbewusst zu lügen. Zum Beispiel gibt es ein Easter Egg, bei dem sich das DuckDuckGo-Logo je nach Suchbegriff ändert. Wenn man Copilot fragt, sagt es nein, und wenn man widerspricht, behauptet es plötzlich doch ja und liefert sogar absurde Beispiele, etwa dass bei der Suche nach Katzen ein katzenförmiges Logo erscheine. Das Problem bei Copilot ist, dass es keine klare Antwort weiß, aber nicht zugibt, dass es etwas nicht weiß, sondern stattdessen lügt
Die Angst, dumme Fragen zu stellen, ist sehr real. Besonders dann, wenn man früher von Lehrern oder Professoren bloßgestellt wurde. Ich habe sogar schon aufgehört, die Vorlesungen eines berühmten Professors zu verfolgen, nachdem ich ein Video gesehen hatte, in dem er Studierende beschämt hat
Wenn man sich die bisherige IT-Einführung an Schulen anschaut, hat die USA Milliarden in Bildung gesteckt, ohne dass die Lernergebnisse besser geworden wären. Das ist der Hintergrund des Skeptizismus. Ich finde auch, bevor man 100 Milliarden Dollar ausgibt, sollte man erst beweisen, dass es tatsächlich wirkt. Bisher sehe ich dafür noch keine entscheidenden Belege
Ich bin auf B1-Niveau in Spanisch und habe mit ChatGPT personalisierte Lektionen erstellt, nach sprachlichen Nuancen gefragt und sogar Sprachübungen gemacht. Die Lernerfahrung ist für mich viel besser als mit herkömmlichen Apps
Ich kann mit Überzeugung sagen, dass LLMs nach dem Studium ein unglaublich starkes Werkzeug waren, wenn es darum ging, sich neue Dinge selbst beizubringen. Früher hatte man, wenn man ein Konzept nicht verstand, praktisch überhaupt keine Spur, wie man weiterkommt, es sei denn, es war eine häufige Frage auf Stack Exchange. Sonst musste man sich allein durchkämpfen. Heute ist es, als hätte man jederzeit einen persönlichen TA. Manche sagen, Lernen werde dadurch zu leicht oder oberflächlich, aber kaum jemand würde ernsthaft behaupten, dass Studierende ohne TA besser lernen
Persönlich habe ich allerdings nicht das Gefühl, dass es für alle Themen wie ein jederzeit verfügbarer TA ist. Sobald man eine gewisse Tiefe erreicht, werden LLMs schnell nutzlos. Besonders wenn man verlässliche wissenschaftliche Quellen finden oder komplexe und umstrittene Themen behandeln muss, helfen sie kaum noch
Kürzlich habe ich ein altes Gerät mit einer Intel-CPU der 9. Generation von 2020 repariert und untersucht. Das LLM hat Informationen wie einzelne Generationen und Sockelkompatibilität mühelos erklärt, so bequem, dass ich fast das Gefühl hatte, ein solches Tool gar nicht zu verdienen. In manchen Bereichen taugt es wenig, in anderen ist es wirklich verblüffend
Seit dem Start von ChatGPT fühlt es sich an, als hätte ich das frühere Google wiedergefunden. Früher konnte ich beim Lernen neuer Programmiersprachen wichtige Informationen leicht über Google finden, aber seit einigen Jahren ist Google nutzlos geworden. Selbst wenn die gewünschte Information da ist, geht sie in den Suchergebnissen unter
ChatGPT hat mir einen Lernplan passend zu mir erstellt und mich zum Schreiben von Notizen und Artikeln motiviert, sodass ich in 12 Wochen Rust gelernt habe. Aus meinen Notizen ist dabei https://rustaceo.es auf Spanisch entstanden, und ich finde das Potenzial dieser Methode grenzenlos
Früher habe ich lange damit gekämpft, ein IPv6-Problem zu Hause zu verstehen, aber dank ChatGPT konnte ich mit
tcpdumpden Traffic analysieren und bekam das Netzwerkverhalten Schritt für Schritt erklärt. Ich habe auch Details über RA und NDP gelernt, die die Rolle von DHCP und ARP in IPv4 ersetzen. Am Ende stellte sich heraus, dass die wiederkehrenden Anomalien in meinem Mesh-WiFi-Netz von einem billigen Repeater verursacht wurden. Fünf Jahre lang wusste ich nicht, woran es lag, und endlich ist es gelöstIch habe den System-Prompt von ChatGPT Study Mode extrahiert. Eindrucksvoll fand ich Anweisungen wie: "Beantworte Nutzerfragen nicht direkt und erledige nicht ihre Hausaufgaben. Löse Mathe-/Logikprobleme nicht sofort, sondern stelle Schritt für Schritt Fragen und gib dem Nutzer bei jedem Schritt Gelegenheit zu antworten." gist-Link
Ich wünschte, jeder LLM-Anbieter würde zusätzlich die Anweisung aufnehmen, "knapp und ohne Ballast" zu antworten. Ich lese langsam und es ist schwer, auch noch unnötige Erklärungen mitzulesen. Zu schnell ausgeschüttete Antworten machen mich eher nervös. Das könnte vermutlich auch Kontextprobleme verringern
Es ist interessant, dass Großbuchstaben (CAPS) für LLMs tatsächlich Bedeutung haben
Ich frage mich, was passiert, wenn man diesen Prompt auf andere Modelle anwendet. Ich frage mich, ob ChatGPT Study Mode nur aus einem speziellen System-Prompt besteht oder ob es noch andere Unterschiede gibt, und ich habe bereits positive Effekte gespürt, wenn ich mit ähnlichen Prompts Themen tiefgehend gelernt habe
Es ist interessant, wie leicht sich solche internen Anweisungen offenlegen lassen. OpenAI scheint den System-Prompt zwar absichtlich nicht öffentlich zu machen, aber wenn jeder so leicht an den Inhalt kommt, wirkt es fast so, als sei das bewusst in Kauf genommen worden
Ich habe ebenfalls einen ähnlichen System-Prompt extrahiert; man kann ihn unter diesem Link ansehen
Als jemand, der sein Leben lang lernt, habe ich das Gefühl, dass ein großer Teil der Lernzeit aus der Suche nach Material besteht. AI scheint diese Suche effizient zu unterstützen. Umgekehrt ist der Aufbau eines logischen Modells des Lernthemas etwas, bei dem man sich durch Abhängigkeit von AI eher so vorkommt, als hätte nicht ich gelernt, sondern nur eine Sammlung von AI-"Einbettungen" angehäuft. Dann kann man das Ergebnis ohne AI nicht mehr abrufen. Ich halte es für wichtig, ein konsistentes Offline-Modell im eigenen Gehirn zu speichern
Ich stimme zu, dass "der Großteil des Lernens Suche ist". Es war eine Zeit, in der Suchkompetenz selbst wichtig war, und beim Suchen lernte man auch verwandtes, aber unerwartetes Wissen. Ich finde es etwas schade, dass die nächste Generation diese Fähigkeit vielleicht schwächer ausbilden wird
Ich denke, der Zweck von Study Mode besteht gerade nicht darin, einfach die richtige Antwort zu geben, sondern den Prozess zu begleiten, in dem man sie selbst findet. Viele Menschen kennen diese Lernmethode eigentlich nicht gut
Die Auslagerung von Verstehen ist auf lange Sicht eine riskante Haltung, und man sollte eine gewisse Hygiene des eigenen Denkens bewahren
Ein großer Vorteil ist auch, dass AI frische Verknüpfungen aufzeigen kann, die sich nicht einfach über Keywords finden lassen
Ich würde die Wirkung von Study Mode gern in einer randomisierten kontrollierten Studie sauber überprüfen. Ich möchte wissen, ob es Studierenden tatsächlich hilft, ob es besser ist als selbstgesteuertes Lernen und worin genau der Unterschied zwischen dem Erleben von Fehlern und der wiederholten schrittweisen Anleitung von Konzepten liegt. Ich wünschte, Study Mode würde Informationen automatisch so aufbereiten, dass sie sich für Flashcards und spaced repetition eignen, etwa mit Tools wie Mochi oder Anki. Nebenbei empfehle ich auch Andy Matuschaks Vortrag
Study Mode bietet die oben genannte Funktion in Wirklichkeit gar nicht. Das Ziel der Investition ist eher, Studierende sagen zu lassen: "Ohne Study Mode hätte ich gar nichts gelernt", während ihre Lernmaterialien eingespeist, zusammengefasst und für die eigenen Daten genutzt werden
Es gibt bereits Forschungsarbeiten zu AI-Tutoren, die ähnliche Effekte nachgewiesen haben. Laut dieser Arbeit war die Lernverbesserung in der AI-Tutor-Gruppe mehr als doppelt so hoch wie in der Active-Learning-Gruppe eines realen Kurses
Es gibt auch Forschung dazu, dass LLMs erfahrene Entwickler verlangsamen. Vielleicht gilt das auch für selbstgesteuertes Lernen. Aber LLMs machen das Lernen selbst angenehmer und liefern Motivation, nicht aufzugeben und weiterzumachen. Wenn Lernen Spaß macht, kann man trotz etwas geringerer Geschwindigkeit langfristig mehr und beständiger lernen. Am Ende gewinnt beim Lernen nicht unbedingt der Schnellste, sondern derjenige, der dranbleibt, und ich denke, LLMs machen das eher möglich
Mich interessiert Forschung zur Wirkung von Tutoring an Elite-Universitäten. Nach meiner Erfahrung bekommen Studierende dort von Tutoren weniger echte Hilfe, sondern eher einfach die richtigen Antworten, teils sogar bei Hausaufgaben, und bilden sich dann ein, etwas gelernt zu haben. Dabei findet echtes Lernen oft gerade in Situationen statt, in denen man neugierig ist, herumirrt und Fehler macht. Die Nutzung von LLMs wirkt in dieser Hinsicht ähnlich: Sobald es schwierig wird oder man feststeckt, holt man sich direkt Hilfe von ChatGPT und versucht ohne Versuch und Irrtum sofort zur Lösung zu kommen. Dadurch werden die Leute bei Prüfungen unsicher, und die Forderungen nach Übungsaufgaben nehmen immer weiter zu. Ich spüre sehr deutlich, dass es heute mehr Studierende gibt, die nach der Veranstaltung nicht einmal selbstständig das Lehrbuch lesen können
Für bereits hoch motivierte Studierende kann das einen großen Unterschied machen, aber davon gibt es nicht viele, und heute scheint ihr Anteil wegen sinkender Konzentrationsfähigkeit eher weiter abzunehmen
Jemand, den ich kenne, betreibt ein EdTech-Startup auf Basis von OpenAI. Wenn große Unternehmen wie OpenAI in genau denselben Markt einsteigen, geraten kleinere Entwickler jederzeit ins Hintertreffen. Deshalb macht es mir Angst, ein Geschäft auf solche Modelle zu stützen, und ich finde, man sollte sehr vorsichtig damit umgehen
Ich frage mich, ob es in der Frühzeit von Technologie auch die Wahrnehmung gab, dass Hardware-Unternehmen Software zwangsläufig kopieren, selbst bündeln und damit mit Softwarefirmen konkurrieren würden. Das fühlt sich heute sehr ähnlich an, und viele glauben, dass Modellanbieter immer im Vorteil gegenüber aufsetzenden Anbietern sind, aber ich finde bisher keine klaren Belege dafür
Da Hosting von LLMs mit Abrechnung pro Token immer weniger profitabel wird, ist deutlich zu sehen, dass die großen Anbieter jedes Startup und jede App mit Wachstumspotenzial einfach kopieren wollen (Sherlock)
Wer in Bereichen rund um LLMs entwickelt, sollte das immer im Blick behalten. Wenn man die Marktausdehnung und die Kapitalstärke der großen Anbieter bedenkt, besteht letztlich die reale Gefahr, dass auch wir irgendwann einfach verschwinden
Warum Gründer das nicht sehen, ist mir ein Rätsel. Es ist doch offensichtlich, dass OpenAI nie nur beim reinen Bereitstellen von LLMs bleiben, sondern in weitere Märkte expandieren würde
Natürlich gibt es Risiken, also kommt es darauf an, welchen echten Mehrwert wir hinzufügen. Ein kurzlebiges Geschäft sollte man schnell durchziehen, und wenn es langfristig bestehen soll, muss man etwas machen, das nicht jeder sofort kopieren kann
Meine Kernstrategie beim Lernen mit LLMs ist, hauptsächlich mit Büchern zu arbeiten und LLMs nur für offizielle Lösungen, Kontextfragen und das Prüfen meines Verständnisses zu nutzen. Beim Entschlüsseln der Notation in neuen Fachgebieten oder bei Kontextfragen zu Werken des deutschen Idealismus spart mir das enorm viel Zeit, weil das LLM Dinge sofort klärt, bei denen ich sonst lange herumirren würde. Besonders wichtig beim Lernen ist für mich die sofortige Überprüfung meines Verständnisses. Früher bin ich oft mit Missverständnissen weitergegangen und musste später zurück. Heute formuliere ich meine Intuition zu einer Formel oder einem Konzept und lasse sie vom LLM gegenprüfen; schon ein Feedback wie "fast, aber nicht ganz" genügt, damit ich den Stoff nochmals ansehe. Bücher bleiben wegen ihrer hohen Informationsdichte letztlich am besten, aber mit LLMs als Unterstützung wird man viel schneller
Ich habe das Gefühl, dass für all das dringend die richtige Benutzeroberfläche fehlt. Study Mode schreibt Informationen wie eine Wand nieder und mischt Beispiele und Fragen hinein, aber es gibt keine Möglichkeit, Antworten mit bestimmten Fragen verknüpft zu betrachten. Eine Chat-UI ist für diese Form nicht geeignet. Es braucht ein separates Canvas-/Artifact-Interface, in dem Fragen und Antworten miteinander verbunden sind und Inhalte strukturiert werden. Im Moment habe ich das Gefühl, dass viel zu viel in eine übermäßig simple Gesprächsoberfläche hineingezwängt wird
Als jemand tatsächlich das komplette Thema Spieltheorie lernen wollte, wurde sehr deutlich, dass beide Seiten von einer einzigen Chat-Sitzung und einem linearen Ablauf ausgehen. Das ist am Ende kein tiefgehendes Lernen
Ich habe es mit periplus.app versucht. Perfekt ist es nicht, aber die UX ist eindeutig etwas anderes als Chat
Es gibt viele UX-Ideen. Zum Beispiel könnte man bei jeder Erklärung den Verständnissgrad bewerten lassen, nur für die nicht verstandenen Teile zusätzliche Erklärungen anbieten, die Wissensstruktur als Baum darstellen, manipulierbare Graphen oder interaktive Quizze verwenden. Das mag über den Rahmen von ChatGPT hinausgehen, aber ich denke, darin liegt eine Chance für andere Apps und Startups
Ich glaube nicht, dass es die eine richtige Oberfläche gibt. Wenn man wirklich lernen will und bereit ist, Mühe zu investieren, ist Lernen letztlich mit jeder Form möglich — von der Schriftrolle über das Buch und E-Books bis hin zu AI
Dass das nicht eine Grundfunktion, sondern ein "eigenes Produkt" ist, sagt viel über den Zeitgeist. Das ist etwas, was jedes LLM mit einer simplen Prompt-Kombination tun kann. Angeblich wurde Study Mode in Zusammenarbeit mit Lehrkräften, Wissenschaftlern und Bildungspsychologen entwickelt, aber ich bin skeptisch, ob dabei wirklich echte Experten beteiligt waren
Ich lerne gerade Janet, und als Tutor ist ChatGPT dabei unangenehm. Selbst auf meine Frage ("Wenn
localundvarbeide lokale Variablen sind, worin besteht dann der Unterschied?") kam erst ein "Gute Frage, Sie haben den Kern gut getroffen", gefolgt von plausibel klingenden Halluzinationen. Bei Dingen, die es kennt, ist es ein guter Tutor, aber es muss seine Grenzen kennenLLMs neigen dazu, nur bei gut bekannten Beispielen wie React todo list, bootstrap form oder vue tic-tac-toe wirklich gute Antworten zu geben
In so einem Fall wäre es besser, direkt den gesamten Guide oder die Dokumentation in den Kontext einzuspeisen
Im Vergleich zu OpenAI und Unternehmen mit reichlich Funding wirkt es wie ein Tutor, der einfach zu dringend Geld braucht