2 Punkte von GN⁺ 1 시간 전 | 1 Kommentare | Auf WhatsApp teilen
  • Tim Gowers erhielt mit ChatGPT 5.5 Pro in etwa einer Stunde ein Forschungsergebnis auf Promotionsniveau in der Kombinatorik und meinte, sein eigener mathematischer Input sei praktisch null gewesen
  • ChatGPT 5.5 Pro präsentierte in 17 Minuten und 5 Sekunden eine Konstruktion für die unvermeidlich beste quadratische obere Schranke für den Durchmesser einer Menge mit vorgegebener Summenmengengröße in einem additiven zahlentheoretischen Problem von Mel Nathanson
  • Anschließend löste es auf dieselbe Weise auch das Problem der eingeschränkten Summenmenge und entwickelte sogar ein Argument, das die bestehende exponentielle Schranke von Isaac Rajagopal zu einer polynomialen Abhängigkeit verbesserte; für Rajagopal sah das fast sicher korrekt aus
  • Die zentrale Idee war, in Rajagopals Konstruktion die Bestandteile in geometrischer Progression durch eine auf h-dissociated-Mengen basierende Konstruktion zu ersetzen, um das benötigte Muster von Summenmengengrößen innerhalb eines Intervalls polynomialer Größe zu reproduzieren
  • Die von der KI erzeugten Resultate wirken veröffentlichungsreif, doch statt einer Journalveröffentlichung oder arXiv-Einreichung könnte ein separates Repository nötig sein, in dem menschliche Mathematiker die Korrektheit zertifizieren; auch die Ausbildungsmaßstäbe für Nachwuchsforschende könnten sich dahin verschieben, mit LLMs zusammenzuarbeiten und Dinge zu beweisen, die das LLM allein nicht kann

Wie LLMs das Lösen kombinatorischer Probleme verändern

  • Große Sprachmodelle scheinen inzwischen auf einem Stand zu sein, auf dem sie bereits Probleme auf Forschungsniveau lösen können; Berichten zufolge haben sie auch mehrere Probleme gelöst, die auf Thomas Blooms Erdős-Problemseite veröffentlicht wurden
  • Frühe LLM-Erfolge bestanden oft darin, bestehende Antworten in der Literatur zu finden oder Schlüsse zu ziehen, die sich leicht aus bekannten Resultaten ergaben; inzwischen steigt jedoch die Wahrscheinlichkeit, dass LLMs einfache Argumente finden, die Menschen übersehen haben
  • Auch in der menschlichen Mathematik besteht ein erheblicher Teil der Arbeit darin, vorhandenes Wissen und bekannte Beweistechniken zu kombinieren, sodass der Trost, LLMs würden „nur bestehendes Wissen kombinieren“, begrenzt ist
  • In der Kombinatorik erzeugen Arbeiten, die neue kombinatorische Parameter einführen, naturgemäß viele weitere Probleme; früher waren das gute Quellen offener Probleme für Forschende am Anfang ihrer Laufbahn, heute wird eher zum neuen Maßstab, ob ein Problem schwer genug ist, dass ein LLM es nicht lösen kann

Das Nathanson-Problem und der erste Erfolg

  • Gowers ließ ChatGPT 5.5 Pro Probleme aus Mel Nathansons Arbeit Diversity, Equity and Inclusion for Problems in Additive Number Theory ausprobieren
  • Nathanson wird als jemand beschrieben, der sich früh für Probleme und Sätze interessierte, die später populär wurden, und der deshalb zeitgemäße und einflussreiche Lehrbücher schrieb
  • Im Zentrum stehen die Summenmenge (sumset) einer Menge ganzer Zahlen, mehrfach gebildete Summenmengen und die möglichen Größen von Summenmengen bei vorgegebener Anzahl von Elementen
  • Bei vorgegebener Elementanzahl nehmen die möglichen Summenmengengrößen nicht immer alle Werte zwischen Minimum und Maximum an, und eine vollständige Beschreibung fehlt weiterhin
  • Nathanson gab eine obere Schranke für den nötigen Durchmesser (diameter) an, wenn man eine Menge mit gegebener Elementanzahl und gegebener Summenmengengröße konstruieren will, und fragte, ob sich diese Schranke verbessern lasse
  • ChatGPT 5.5 Pro präsentierte nach 17 Minuten und 5 Sekunden Überlegungszeit eine Konstruktion, die eine unvermeidlich beste quadratische obere Schranke liefert
  • Als Gowers darum bat, das Resultat als LaTeX-Datei im Stil eines gewöhnlichen mathematischen Preprints neu zu schreiben, lieferte ChatGPT nach 2 Minuten und 23 Sekunden genau diese Form, und Gowers verwendete seine Zeit darauf, zu prüfen, ob das Argument korrekt war

Sidon-Mengen und die Erweiterung auf eingeschränkte Summenmengen

  • Sowohl Nathansons Argument als auch das von ChatGPT basieren auf der Idee, Sidon-Mengen und arithmetische Progressionen gemeinsam zu verwenden, um eine Menge gegebener Größe und eine Summenmenge gegebener Größe zu erzeugen
  • Sidon-Mengen werden hier in der vereinfachten Bedeutung als Mengen verwendet, deren Summenmenge maximal groß ist
  • Zur Feinabstimmung kann man in der Nähe einer arithmetischen Progression einen zusätzlichen Punkt hinzufügen; durch das Justieren mehrerer Parameter lassen sich dann Mengen der gewünschten Größe erhalten
  • Nathanson präsentierte in Theorem 5 von dieser Arbeit ein induktives Argument, das ausgeschrieben jedoch faktisch wie eine Konstruktion mit einer Sidon-Menge aus Zweierpotenzen aussieht
  • Die Verbesserung von ChatGPT ergab sich daraus, dass es eine effizientere Sidon-Menge verwendete, und es ist gut bekannt, dass man Sidon-Mengen mit quadratischem Durchmesser finden kann
  • Gowers ließ danach auch ein verwandtes Problem untersuchen, bei dem statt der Summenmengengröße die Größe der eingeschränkten Summenmenge (restricted sumset) betrachtet wird, und ChatGPT erhielt ohne besondere Schwierigkeiten ein Resultat nach demselben Muster
  • Ein Dokument, das beide Resultate ohne Redundanz in einer einzigen Notiz zusammenfasst, ist hier veröffentlicht

Das allgemeine Problem fester Ordnung und die Verbesserung von Rajagopals Arbeit

  • Gowers fragte auch, was ChatGPT im allgemeineren Fall leisten könne
  • Ursprünglich war er deutlich weniger optimistisch, weil die vorherigen Beweise wesentlich davon abhingen, dass dank eines Resultats von Erdős und Szemerédi die exakt zu konstruierenden Größen bekannt waren
  • In Nathansons Arbeit wird eine Veröffentlichung des MIT-Studenten Isaac Rajagopal erwähnt, in der Rajagopal für jede feste Ordnung eine exponentielle Abhängigkeit bewies
  • Für Rajagopal lag die eigentliche Schwierigkeit nicht darin, dass man die „Menge der möglichen Größen“ nicht kenne
    • Sein Argument liefert für hinreichend große Fälle eine vollständige Beschreibung
    • Um für feste Ordnung eine polynomiale Abhängigkeit zu zeigen, reicht es daher, nur hinreichend große Fälle anzunehmen
    • Die eigentliche Schwierigkeit liegt darin, dass die Konstruktion einer Menge mit gegebener Summenmengengröße viel komplexer ist und mit wachsender Ordnung auch der Grad des Polynoms steigt, sodass mehr Parameter nötig werden
  • Die Aufgabe von ChatGPT bestand also nicht darin, das Problem von Grund auf zu lösen, sondern Rajagopals Argument zu verschärfen
  • Der Ablauf war wie folgt
    • Nach 16 Minuten und 41 Sekunden präsentierte es ein Argument, das die bestehende Schranke von einer Exponentialfunktion auf eine Form mit kleinerem Exponenten für jede beliebige positive Konstante verbesserte
    • Für die Ausarbeitung in Preprint-Form benötigte es weitere 47 Minuten und 39 Sekunden
    • Gowers schickte dies an Nathanson, Nathanson leitete es an Rajagopal weiter, und für Rajagopal sah es korrekt aus
    • Sowohl ChatGPT als auch Rajagopal vermuteten teilweise, was nötig wäre, um noch weiter bis zu einer polynomialen Schranke zu kommen, und Gowers ließ ChatGPT genau das versuchen
    • Nach 13 Minuten und 33 Sekunden antwortete ChatGPT, es sei optimistisch, dass ein solches Argument existiere, es gebe aber einige technische Aussagen, die noch überprüft werden müssten
    • Als Gowers um diese Überprüfung bat, war sie nach 9 Minuten und 12 Sekunden abgeschlossen, und er bat erneut um eine Ausarbeitung in Preprint-Form
    • Nach 31 Minuten und 40 Sekunden war der Preprint fertig; das Dokument ist hier veröffentlicht
    • Rajagopal hielt das Resultat für nahezu sicher korrekt, und das wurde so verstanden, dass dies nicht nur Zeile für Zeile, sondern auch auf der Ebene der Grundideen gilt

Wohin mit mathematischen Resultaten, die von KI erzeugt wurden?

  • Wäre das Resultat von einem Menschen erstellt worden, wäre es publizierbar gewesen; es als AI slop zu bezeichnen, wirkt daher unangebracht
  • Andererseits scheint eine Veröffentlichung in einem Journal wenig sinnvoll
    • Das Resultat kann frei zugänglich gemacht werden
    • Niemand braucht dafür „Anerkennung“
    • Allerdings gebührt Rajagopal, der den Rahmen geschaffen hat, auf dem ChatGPT aufbauen konnte, erhebliche Anerkennung
  • Es wird davon ausgegangen, dass arXiv eine Richtlinie hat, nach der KI-generierte Inhalte nicht angenommen werden, und das erscheint vernünftig
  • Möglicherweise braucht es ein separates Repository für von KI erzeugte Resultate
    • Wünschenswert wäre ein kuratiertes Verfahren, das nur Resultate aufnimmt, deren Korrektheit von menschlichen Mathematikern zertifiziert wurde
    • Noch besser wären Resultate, die mit einem Proof Assistant formalisiert wurden
    • Ein weiteres Kriterium könnte sein, ob das Resultat eine Frage beantwortet, die in einer von Menschen geschriebenen Arbeit aufgeworfen wurde
  • Problematisch wäre es, wenn ein solches Kurationsverfahren einen enormen Arbeitsaufwand erzeugte, und es gibt offensichtliche Risiken, wenn diese Arbeit dann wieder an KI ausgelagert würde
  • Vorerst sind die betreffenden Resultate über öffentliche Links zugänglich; da sich die Literaturrecherche-Fähigkeiten von LLMs verbessert haben, könnten sie für Menschen auffindbar werden, die herausfinden wollen, ob Nathansons Problem gelöst wurde

Isaac Rajagopals Bewertung und technischer Hintergrund

  • Der zentrale Beitrag von ChatGPT

    • ChatGPT verbesserte mit nur wenigen Prompts eine bestimmte Schranke von exponentieller Abhängigkeit auf polynomiale Abhängigkeit
    • Die erste Verbesserung war eine relativ routinemäßige Modifikation von Rajagopals Arbeit, aber die polynomiale Verbesserung war ziemlich beeindruckend
    • Die von ChatGPT hervorgebrachte Idee war originell und clever und gehörte zu der Art von Idee, auf die Rajagopal nach 1–2 Wochen Nachdenken stolz gewesen wäre
    • ChatGPT fand und bewies die Idee in weniger als einer Stunde mit einer Methode, die Rajagopals eigenem Beweis ähnelte
  • Hintergrund des Problems

    • Dieses Schrankenproblem ist eng verwandt mit einem Problem, an dem Rajagopal im Duluth-REU-Programm (Research Experience for Undergrads) gearbeitet hatte
    • Der zentrale Gegenstand sind Mengen von möglichen Größen mehrfacher Summenmengen und der minimale Bereich, der nötig ist, um sie alle als Mengen ganzer Zahlen mit einer bestimmten Elementanzahl zu realisieren
    • Rajagopal charakterisierte im vergangenen Sommer explizit die Menge der möglichen Werte im hinreichend großen Fall
    • Er konstruierte Mengen, die jede Größe realisieren, die sich nicht als unmöglich ausschließen ließ, und entsprechend lässt sich die betreffende Schranke durch Optimierung dieser Konstruktion gewinnen
  • Ersatz der Konstruktion mit exponentieller Größe

    • Rajagopals ursprüngliche Konstruktion kombiniert mehrere kleine Komponentenmengen, die sich leicht analysieren lassen
    • Einige Komponenten hatten für Parameter mit mehreren Werten die Form geometrischer Folgen, und ihre Elemente wuchsen bezüglich der Parameter exponentiell
    • Rajagopal fragte ChatGPT über Tim, ob es Mengen gebe, die ähnliche Summenmengengrößen wie diese geometrischen Folgen haben, deren Elementgrößen aber polynomial beschränkt sind
    • ChatGPT konstruierte Mengen, die sich so verhalten, als hätte man „die Hälfte einer geometrischen Folge in ein polynomiales Intervall hineingedrückt“
    • Das wirkt wie eine kontraintuitive Konstruktion

Bₕ-Mengen, dissociated Mengen und die Konstruktionsidee von ChatGPT

  • Die Rolle von Bₕ-Mengen

    • Eine Menge, die für eine gegebene Ordnung keine Summenrelationen außer trivialen Lösungen besitzt, bei denen die Summe auf der einen Seite nur eine Umordnung der Summe auf der anderen Seite ist, nennt man eine Bₕ-Menge
    • In einer Bₕ-Menge fester Größe entspricht die Auswahl von Elementen mit erlaubten Wiederholungen exakt den Elementen der mehrfachen Summenmenge
    • Mit „stars and bars“ berechnet ist dies die maximal mögliche Größe einer mehrfachen Summenmenge unter Mengen derselben Größe
    • Sidon-Mengen sind in dieser Sichtweise B₂-Mengen
  • Die von geometrischen Folgen reproduzierte Eigenschaft

    • Eine bestimmte Menge in geometrischer Folge ist eine Bₕ-Menge, aber keine B-Menge höherer Ordnung
    • Die störenden Relationen erscheinen als Summenrelationen einer bestimmten Form
    • Bei einer Menge wird die Größe der Summenmenge zu einer linearen Funktion des Parameters, bei einer anderen zu einer quadratischen Funktion
    • ChatGPT fand neue Mengen, die diese vier Eigenschaften erfüllen und deren Elemente dennoch alle bezüglich des Parameters polynomial groß sind
  • Verwendung h-dissociated Mengen

    • Die Konstruktion von ChatGPT verwendet h-dissociated Mengen
    • Eine h-dissociated Menge ist eine Menge, die bei Summenrelationen bis zu begrenzter Ordnung nur triviale Lösungen zulässt
    • Man kann h-dissociated Mengen mit Größe ungefähr gleich dem Parameter und polynomiellem Durchmesser konstruieren
    • Solche Konstruktionen reichen zurück auf die Konstruktionen von Singer (1938) und Bose–Chowla (1963) unter Verwendung endlicher Körper und werden in Appendix 1 erläutert
  • Die Intuition, nur die Hälfte der Relationen zu enthalten

    • Die beiden von ChatGPT gebildeten Mengen enthalten im Vergleich zu den Gegenstücken aus geometrischen Folgen ungefähr nur die Hälfte bestimmter Summenrelationen
    • Gleichzeitig gibt es dank der h-dissociated-Eigenschaft fast keine anderen Relationen niedriger Ordnung
    • Dadurch reproduzieren sie das benötigte Muster der Summenmengengrößen, obwohl sie in einem polynomialen Intervall liegen
    • Für Rajagopal wirkte die Idee von ChatGPT, mit h-dissociated Mengen Relationen bis zu einer bestimmten Ordnung zu kontrollieren, äußerst raffiniert und vollkommen originell

Entsprechung zwischen dem Beweis von ChatGPT und dem von Rajagopal

  • Der Beweis von ChatGPT ähnelt stark Rajagopals ursprünglichem Beweis in der Form, dass die Komponenten mit geometrischen Folgen durch die neuen Komponenten von ChatGPT ersetzt werden
  • Die endgültige Konstruktion kombiniert die neuen Mengen für mehrere Ordnungswerte und ergänzt sie um eine weitere Menge, die aus der Summenmenge einer arithmetischen Folge und einem Punkt besteht
  • Intuitiv scheinen die neuen Mengen große Summenmengen zu erzeugen und die arithmetische Folge kleine Summenmengen, sodass man durch ihre Kombination offenbar alle Summenmengen mittlerer Größe erhalten kann
  • Der tatsächliche Beweis ist ziemlich kompliziert und füllt Section 4 von Rajagopals Paper sowie das gesamte Preprint von ChatGPT
  • Zum Vergleich lässt sich leicht sehen, dass die betreffende positive Untergrenze mindestens auf dem Niveau einer Potenz einer bestimmten Ordnung liegt, aber der tatsächliche Wert ist unbekannt
  • Rajagopal sagte, er sei überrascht gewesen, dass das Problem, das Tim in ChatGPT 5.5 Pro eingegeben hatte, zufällig zu seinem eigenen arXiv-Paper führte

Bedeutung für mathematische Forschung und Doktorandenausbildung

  • Das Ergebnis, das ChatGPT in zwei Stunden fand, wird als auf dem Niveau eines durchaus vernünftigen Kapitels einer kombinatorischen Doktorarbeit eingeschätzt
  • Es stützt sich stark auf Isaacs Idee, daher ist das Ergebnis nicht völlig überraschend, war aber eine nichttriviale Erweiterung dieser Idee
  • Damit ein Doktorand dieselbe Erweiterung finden könnte, hätte er vermutlich viel Zeit gebraucht, um Rajagopals Paper zu verarbeiten, nicht optimale Stellen zu identifizieren und sich mit den verschiedenen verwendeten algebraischen Techniken vertraut zu machen
  • Forschungsausbildung in Form vergleichsweise zugänglicher offener Probleme für Doktoranden am Anfang ihrer Laufbahn könnte schwieriger werden
  • Wenn LLMs „zugängliche Probleme“ lösen können, verschiebt sich die Untergrenze dafür, was einen mathematischen Beitrag ausmacht, weg von „ein Resultat, das noch niemand bewiesen hat und das irgendjemand interessant findet“ hin zu „ein Resultat, das ein LLM nicht beweisen kann“
  • Da auch Anfänger LLMs nutzen können, könnte die eigentliche Aufgabe darin bestehen, Dinge in Zusammenarbeit mit einem LLM zu beweisen, die das LLM allein nicht leisten kann
  • Gowers hat in letzter Zeit mehrfach mit LLMs zusammengearbeitet und meint, dass sie nützliche Beiträge liefern, auch wenn die Ideen noch nicht spielverändernd sind

Unterschiede zwischen Fachgebieten und künftige Veränderungen

  • Es ist nicht sicher, wie weit sich diese Veränderungen auf andere Gebiete der Mathematik verallgemeinern lassen
  • Die Kombinatorik ist stark problemzentriert
    • Sie geht oft von einer Frage aus und schließt rückwärts oder denkt vorwärts unter starker Orientierung an dieser Frage
  • In anderen Gebieten könnte Vorwärtsdenken wichtiger sein, also von einem Spektrum an Ideen auszugehen und zu sehen, wohin sie führen
  • In solchen Gebieten braucht man die Fähigkeit, interessante von uninteressanten Beobachtungen zu unterscheiden, und es ist unklar, wie gut LLMs darin sind
  • Die Entwicklung verläuft so schnell, dass jede aktuelle Einschätzung von LLMs schon in wenigen Monaten veraltet sein könnte
  • Die Art und Weise mathematischer Forschung, insbesondere die Einführung neuer Forschender in dieses Feld, dürfte erheblich durcheinandergebracht werden
  • Wer im nächsten Studienjahr mit einer Promotion beginnt, wird selbst im schnellsten Fall erst 2029 fertig, und bis dahin könnte sich die Bedeutung mathematischer Forschung im Vergleich zu heute bis zur Unkenntlichkeit verändert haben

Veränderung der Gründe, Mathematik zu betreiben

  • Er erklärte, dass ihn häufig E-Mails erreichen, in denen gefragt wird, ob es noch sinnvoll ist, mathematische Forschung als Karriere weiterzuverfolgen
  • Im Ringen mit mathematischen Problemen liegt weiterhin großer Wert, aber die Zeit, in der die Freude darin bestand, den eigenen Namen dauerhaft mit einem bestimmten Satz oder einer Definition verbunden zu sehen, könnte sich dem Ende nähern
  • Wenn der Zweck mathematischer Arbeit eine Art Unsterblichkeit ist, muss man verstehen, dass das vielleicht nicht mehr lange möglich sein wird
  • Als Gedankenexperiment: Wenn ein Mathematiker ein großes Problem löst, indem er ein langes Gespräch mit einem LLM führt, dabei nützliche Anleitung gibt, die technische Arbeit und die Kernideen aber vollständig vom LLM stammen, ist fraglich, ob man das als bedeutende Leistung dieses Mathematikers ansehen würde
  • Selbst das Lösen eines Problems, dessen Antwort bereits bekannt ist, kann befriedigend sein, reicht aber kaum als Grund aus, dem man mehrere Lebensjahre widmet
  • Ein besserer Grund ist, beim Lösen schwieriger Probleme Einsichten in den Prozess des Problemlösens selbst im eigenen Fachgebiet zu gewinnen
  • Wer schwierige Probleme selbst gelöst hat, ist wahrscheinlich auch besser darin, Probleme mit Hilfe von KI zu lösen
    • Ähnlich wie ein guter Coder besser im Vibe Coding ist als jemand ohne diese Fähigkeiten
    • Ähnlich wie jemand mit gutem Verständnis elementarer Arithmetik einen Taschenrechner besser nutzt und besonders besser bemerkt, wenn eine Antwort merkwürdig wirkt
  • Mathematik ist eine stark übertragbare Fähigkeit, und das gilt auch für Mathematik auf Forschungsniveau
  • Auch wenn mathematische Forschung künftig möglicherweise nicht mehr dieselben Belohnungen bietet wie für frühere Generationen, könnte sie dennoch sehr gut auf die kommende Welt vorbereiten

Technische Inhalte des Anhangs

  • Anhang 1: Konstruktion h-dissoziierter Mengen

    • Ziel ist es, h-dissoziierte Mengen mit einem Durchmesser von ungefähr polynomialer Größe zu konstruieren
    • Diese Konstruktion ist eine sehr kleine Abwandlung der Konstruktion von Bose–Chowla (1963), und Rajagopal erklärt, er habe sie aus dieser Arbeit gelernt
    • Lemma 3.1 des ChatGPT-Preprints verwendet eine andere, weniger effiziente Konstruktion mit der moment curve
    • Die Konstruktion verwendet Primzahlen, endliche Körper, Erzeuger von Erweiterungen endlicher Körper und eine Methode, jedes Element mit einer bestimmten Potenzdarstellung zu verknüpfen
    • Additive Relationen bis zu einem beschränkten Grad lassen sich als Potenzrelationen des Erzeugers umformulieren
    • Wegen des Erweiterungsgrads und der Eigenschaften des Erzeugers können diese keine nichtverschwindenden Polynome niedrigen Grads erfüllen, daher müssen die Polynome auf beiden Seiten identisch sein
    • Folglich sind die entsprechenden additiven Relationen nur trivial, und die Menge ist h-dissoziiert
    • Falls nötig, kann man einige Elemente entfernen, um die gewünschte Größe zu erhalten
  • Anhang 2: Detaillierte Struktur der ChatGPT-Konstruktion

    • Es werden feste Konstanten gewählt, und die beiden von ChatGPT erzeugten Mengen werden verwendet
    • Die Mengenkonstruktion zur Erreichung der gewünschten Größe kombiniert vier Arten von Bausteinen
      • ein Typ, der zwei Parameter auswählt
      • zwei Typen, die für jeden Gradwert jeweils zwei Parameter auswählen
      • eine Menge, die dafür sorgt, dass die Gesamtzahl der Elemente stimmt
    • Einer der Gründe für die Komplexität dieser Konstruktion ist, dass hinreichend viele verschiedene Mengen erzeugt werden müssen
    • Dazu werden Parameter aus einem Bereich zusammen mit Parametern aus einem anderen Bereich variiert
    • Wenn man einen der Parameter entfernt und die übrigen unverändert lässt, kann man nicht mehr genügend viele Mengen erzeugen
    • Nathansons Konstruktion für Grad 2 ist eine einfachere Struktur, die Sidon-Mengen, arithmetische Progressionen und einen zusätzlichen Wert kombiniert und die benötigten Mengen erzeugt, indem die Größe der arithmetischen Progressionen und der zusätzliche Wert in einem bestimmten Bereich variiert werden
    • Mit der Konstruktion aus Anhang 1 lassen sich für jeden Grad h-dissoziierte Mengen mit polynomialem Durchmesser erhalten
    • Beim Kombinieren mehrerer Bausteine wird eine gitterartige Struktur mit Basisvektoren verwendet
    • Diese Konstruktion garantiert ähnlich wie Rajagopals Lemma 4.9 eine Multiplikationsidentität von Erzeugungsfunktionen
    • Nach dem Standard-Lemma 2.3 des ChatGPT-Preprints lässt sich diese Konstruktion über einen Freiman-Isomorphismus eines bestimmten Grads in eine Teilmenge eines Intervalls ganzer Zahlen übertragen
    • Die gesamte Konstruktion funktioniert für hinreichend große Fälle
  • Anhang 3: Entsprechungen zwischen Rajagopals Arbeit und dem ChatGPT-Preprint

    • Abschnitt 4.2 von Rajagopals Arbeit verwendet eine einfachere Konstruktion, um Mengen zu bilden, die bestimmte Werte erreichen
    • Diese Mengen sind Teilmengen von Intervallen, deren Elemente nur polynomial große Werte haben, und diese Tatsache wird in Abschnitt 5 des ChatGPT-Preprints beobachtet
    • Abschnitt 4.3 von Rajagopals Arbeit führt die zentrale Konstruktion zur Kombination mehrerer Bausteine aus und entspricht den Abschnitten 2, 3, 4 und 6 des ChatGPT-Preprints
    • Abschnitt 4.3.1 von Rajagopals Arbeit gibt einen Überblick über diesen Teil mit vielen beweglichen Komponenten
    • Abschnitt 4.3.2 von Rajagopals Arbeit erklärt die Art, wie die Bausteine kombiniert werden, und Rajagopal nennt dies disjoint union
    • Erzeugungsfunktionen werden als buchhalterisches Hilfsmittel eingeführt, um die Größe der Vereinigungen der Mengen nachzuverfolgen; dies entspricht Abschnitt 2 und Abschnitt 4 des ChatGPT-Preprints
    • Abschnitt 4.3.3 von Rajagopals Arbeit berechnet die Erzeugungsfunktionen jeder Bausteinmenge und enthält Lemma 4.15 und Lemma 4.17
    • Dies entspricht Abschnitt 3 und Abschnitt 6.1 des ChatGPT-Preprints; im ChatGPT-Preprint wird eine Erzeugungsfunktion in Lemma 3.3 und die andere in Lemma 3.4 berechnet
    • Nach der Berechnung der Erzeugungsfunktionen ist der restliche Beweis in Rajagopals Arbeit und im ChatGPT-Preprint nahezu identisch
    • Abschnitt 4.3.4 von Rajagopals Arbeit zeigt, dass die Größenwerte der Vereinigungen beim Variieren der konstruierten Mengen alle möglichen Werte annehmen
    • Der Kernpunkt ist, dass die Menge der möglichen Werte ein einziges Intervall bildet und alle Zahlen umfasst, die kleiner als ein bestimmter Referenzwert oder ihm gleich sind

1 Kommentare

 
GN⁺ 1 시간 전
Hacker-News-Kommentare
  • Passt zu meiner kurzen Erfahrung mit 5.5 Pro. Zum ersten Mal hatte ich das Gefühl, dass es ein LLM ist, das man dazu bringen kann, langweilige, aber klar umrissene Probleme ordentlich zu lösen.
    Es macht zwar immer noch viele Fehler und man muss es sehr strikt anleiten, aber anders als andere Modelle ist es ziemlich gut darin, seiner eigenen Schlussfolgerung zu folgen und sich selbst zu korrigieren.
    Der Nachteil sind die Kosten. Es verbraucht wahnsinnig viele Token, der Tokenpreis ist hoch, und wenn man für große Probleme Sub-Agenten-Workflows nutzt, um hohe Genauigkeit zu erreichen, wird es noch teurer.
    Bei großen Problemen wird es wegen der Kontextgrenzen auch deutlich langsamer. Für jeden Teil muss es den Kontext erneut heranziehen, und für Genauigkeit muss man den Kontext löschen, bevor man zum nächsten kleinen Teil übergeht, oder noch mehr Agenten starten.
    Für Dinge wie mathematische Beweise, bei denen der zusätzliche Kontext zum Verständnis von Problem und Beweis klein ist und es sich um ein „wichtiges“ Problem handelt, mag das okay sein, aber bei der Prüfung der Korrektheit von Code in großen Codebasen oder beim Validieren subtiler Annahmen gibt es klare Grenzen.
    Wenn man also nicht zu den Glücklichen gehört, die 5.5 Pro unbegrenzt nutzen können, dürfte es noch etwas dauern, bis die beeindruckenden Fähigkeiten solcher Modelle im Alltag von Programmierern ankommen.

  • Ein langer Text, der technische Mathematik und philosophische Teile mischt, und besonders eindrücklich fand ich den Punkt, dass die Ausbildung von Doktoranden in der Anfangsphase schwieriger geworden ist.
    Früher konnte man sie mit relativ harmlosen Forschungsproblemen anfangen lassen, aber wenn LLMs solche „harmlosen Probleme“ lösen können, fällt diese Option weg.
    Die Untergrenze für einen mathematischen Beitrag wird nicht mehr „etwas, das noch niemand bewiesen hat und das interessant ist“, sondern „etwas, das ein LLM nicht beweisen kann“.
    Trotzdem muss die Ausbildung weiterhin bei den Grundlagen beginnen. Jeder lernt zuerst die Addition kleiner ganzer Zahlen, und Taschenrechner können das seit Langem fehlerfrei.
    Wie an anderen Stellen des Textes braucht man Einsichten in den Problemlösungsprozess selbst, indem man schwierige Probleme direkt löst, und wer bereits schwierige Probleme gelöst hat, wird AI wahrscheinlich besser nutzen können.
    Beim Coding baut man Dinge, für die Menschen bezahlen, also kann man mit AI schneller liefern und weiter beschäftigt bleiben, aber ich bin nicht sicher, ob man Mathematik auf dieselbe Weise sehen kann.
    Wenn das LLM alle Hauptideen und die technische Arbeit übernimmt und der Mathematiker nur nützlich anleitet, ist fraglich, ob man das als große Leistung des Mathematikers ansehen sollte.

    • Wer schwierige Probleme direkt löst, wird nicht nur besser darin, andere Probleme zu lösen, sondern versteht auch genau dieses Problem viel tiefer.
      Auch in Unternehmen ist das Ergebnis nicht immer schlecht und manchmal akzeptabel, wenn Leute die Arbeit an ein LLM delegieren, aber es ist nicht ihre Arbeit.
      Deshalb weiß oder versteht der Autor die Arbeit nicht besser als andere, kann sie weder besitzen noch erklären. Er ist buchstäblich nur ein Durchgangspunkt, und damit verschwindet der Wert.
    • Vielleicht sollte man auch das als große Leistung ansehen.
    • Ich glaube, hier wurden die zwei Kernpunkte leicht verfehlt. Man muss zwar von den Grundlagen aus lernen, aber ab einem bestimmten Zeitpunkt, etwa zu Beginn der Promotion, sollte man nicht mehr Grundlagen lernen, sondern Forschung betreiben.
      Wenn LLMs die „leichte Forschung“ wegnehmen, wird dieser Prozess schwieriger.
      Ein junger Löwe lernt spätere Jagd, indem er mit anderen jungen Löwen kämpft und spielt; wenn es plötzlich TikTok gäbe und er nicht mehr spielt, wäre die erste Jagd viel schwieriger.
      Es stimmt auch, dass man mit AI schneller liefern und Geld verdienen kann, aber das ist etwas anderes als die Frage, wie man ein guter Coder wird. Wenn man kein guter Coder wird, bleibt man einfach ein schlechter Vibe-Coder.
    • Ist das wirklich wichtig? Und ist das philosophisch so anders als frühere computerunterstützte Beweise?
  • Der interessante Punkt bei Baez ist die Frage, woher der Wert von Gedanken und tiefen Ideen kommt.
    Wenn dieser Wert vor allem aus Knappheit stammt, also daraus, dass es schwierig ist, bestimmte Ideen zu haben, dann könnte ihr Wert stark fallen, wenn die Herstellung von Ideen automatisiert wird.
    Wenn der Wert aber aus dem Nutzen der Ideen kommt, also aus dem Gewinn, den sie bringen, dann sieht es anders aus. Dann könnte es sogar besser sein, mehr und bessere Ideen zu erzeugen.
    Mathematiker müssen sich vielleicht an einen Übergang von einer Ökonomie der Knappheit zu einer Ökonomie des Überflusses anpassen.
    https://gowers.wordpress.com/2026/05/08/a-recent-experience-...

    • Es gibt drei Arten von Mathematikern. Erstens den reinen Problemlöser, für den Tao steht; seine Währung sind interessante Probleme und ihre Lösungen.
      Zweitens den reinen Theoriebauer, für den Conway steht; er interessiert sich mehr für Theorien und Ideen als für Sätze und will das Territorium der Mathematik erweitern.
      Drittens den angewandten Mathematiker, der Mathematik als Mittel zum Zweck sieht und mit Mathematik Probleme außerhalb der Mathematik lösen will.
      Die erste Gruppe, die Problemlöser, scheint von AI am unmittelbarsten bedroht zu sein. Allerdings ist AI bislang stärker im Lösen von Problemen als im Finden neuer Vermutungen.
      Die zweite Gruppe, die Theoriebauer, ist eher in fernerer Zukunft bedroht. Bisher ist die Fähigkeit von AI, neue und interessante mathematische Ideen hervorzubringen, begrenzt, und niemand weiß, wie man so etwas trainieren sollte.
      Die dritte Gruppe dürfte am meisten von AI profitieren. Wenn AI mathematische Fragen beantwortet, können sie weniger Zeit auf Mathematik verwenden und sich stärker auf externe Probleme konzentrieren, die sie mit Mathematik lösen wollten.
    • Es scheinen immer dieselben Online-Kommentatoren zu sein, die auf Neues drängen. Das gilt selbst für brillante Gelehrte.
      Wiles und Perelman hielten sich dagegen vom Internet fern und lösten echte Probleme.
  • Als Physikprofessor nutze ich Gemini oft zur Prüfung von Arbeiten, und es ist ein starkes Werkzeug.
    Es hat bürokratische Fehler gefunden, etwa ein fehlendes imaginäres i in einer komplexen Formel, nach denen ich tagelang gesucht hatte, und es weist oft auf Verbindungen zwischen Konzepten und Ideen hin, die ich übersehen hatte.
    Es macht aber auch häufig konzeptionelle Fehler, die ich nur erkenne, weil ich mich im Thema gut auskenne. So verwechselt es in der dreidimensionalen Clifford-Algebra wiederholt den Exponentialausdruck eines Bivektors mit dem eines Pseudoskalars.
    Ich glaube gern, dass ChatGPT 5.5 Pro eine publikationsreife Arbeit erzeugen kann, aber nach allem, was ich bisher von Gemini gesehen habe, sollte man LLMs eher als extrem effiziente Studenten betrachten, die Arbeiten und Bücher im Handumdrehen lesen, aber immer noch viel Anleitung brauchen.

    • Die obige Erfahrung scheint mit dem „normalen“ Gemini 3.1 Pro gemacht worden zu sein, nicht mit einem Deep-Think-Modus, der eher GPT-5.5 Pro entspricht. Das normale 3.1 Pro ist eine Stufe darunter und macht häufiger Fehler.
      Außerdem gibt es keinen Grund anzunehmen, dass der Fortschritt von LLMs, die vor 3–4 Jahren noch nicht einmal Oberstufenmathematik zuverlässig lösen konnten, jetzt bald stoppt.
      Der CritPt-Benchmark besteht aus Physikproblemen auf dem Niveau unveröffentlichter Forschung und ist daher etwas, das man im Auge behalten sollte.
      https://critpt.com/
      Selbst Frontier-Modelle sind noch weit von einer Lösung entfernt, aber der Fortschritt ist schnell. o3 high lag vor 1,5 Jahren bei 1,4 %, GPT 5.4 xhigh bei 23,4 %, GPT-5.5 xhigh bei 27,1 % und GPT-5.5 Pro xhigh bei 30,6 %.
      https://artificialanalysis.ai/evaluations/critpt
    • Der Ausdruck „Mentoring“ ist eine Vermenschlichung und lässt einen unbewusst denken, das Modell würde lernen. Tatsächlich lernt es nicht, und es ist für Menschen ziemlich schwer, sich ständig bewusst zu machen, dass etwas, das so intelligent wirkt wie ein LLM, eben nicht lernt.
      Ich mache denselben Fehler immer wieder.
      Dass man das Gedächtnis eines LLM per Custom Prompts und Instruktionen manuell verwalten muss, ist auch einer der Gründe, warum das so nervig ist.
      Die Langzeitgedächtnis-Funktion habe ich noch nicht wirklich genutzt, aber ich traue ihr noch weniger als Prompts. In 1–2 Jahren ändert sich zu viel, sodass diese „Erinnerung“ vermutlich mehrfach neu aufgebaut werden müsste.
    • LLMs funktionieren am besten, wenn man eine Erwartung an die Ausgabe hat. Im Allgemeinen kennt man dann die Form der richtigen Antwort und kann sie nicht zeilenweise, sondern intuitiv beurteilen.
      Ohne solche Erwartungen muss man alles zum Nennwert nehmen, und in diesem Moment ist man der Gnade der Maschine ausgeliefert.
    • Ich bin kein Physikprofessor, aber das ähnelt sehr der Art, wie ich die Tools als Senior Engineer nutze.
      Ich bringe die Grundlagen mit, um vorschnelle Agenten einem Sanity Check zu unterziehen, und versuche, anderen dieselben Grundlagen zu vermitteln, damit sie das auch können.
      Am Ende fühlt sich das wie der einzige Weg an, auf dem das Ganze funktionieren kann. Es sei denn, Unternehmen wechseln irgendwann zu kleineren lokalen Modellen, die sie sich leisten können.
    • LLMs präsentieren die Arbeit rosig und plausibel und sagen, wenn man weitermacht, machen sie noch mehr.
      Die Wahrscheinlichkeit, dass es stimmt, und die Wahrscheinlichkeit, dass es einen von der Klippe stößt, stehen etwa fifty-fifty, aber die Reise wird immer wie ein wunderschönes Fünf-Sterne-Erlebnis verpackt.
      Wenn man einen Fehler findet und dem LLM das sagt, wird es meistens noch schlimmer. LLMs wollen gefallen, entschuldigen sich und wechseln dann die Richtung.
      Wenn es so weit kommt, speichere oder verwerfe ich die Sitzung meist und fange von vorne an oder schwenke radikal um.
      Für mich ist Gemini das am schwersten vorhersehbare LLM, insgesamt passt GPT für mich am besten.
      Kürzlich hat Gemini auf dieselbe Frage zwei unterschiedliche Antworten gegeben. Ich hatte testweise absichtlich einen neuen Chat geöffnet und denselben Prompt hineinkopiert.
      Im Coding-Bereich helfen die Reasoning-Funktionen nicht besonders, weil die Erklärungen von LLMs sehr abstrakt sind und formal korrekt wirken.
      Wegen LLMs google ich am Ende sogar mehr. Letztlich erzeugt da jemand etwas, das ich prüfen muss, bevor ich den Knopf drücke, und ob dieser glänzende Knopf funktioniert oder direkt in die Hölle führt, merke ich erst etwas später.
  • Wenn ein Mathematiker in einem langen Gespräch mit einem LLM nützlich angeleitet hat, aber die technische Arbeit und die Hauptideen alle vom LLM kamen, dann ist es eine kulturelle Entscheidung, ob man das als große Leistung des Mathematikers ansieht.
    In der aktuellen mathematischen Kultur wirkt es natürlich fremd, aber in anderen Bereichen oder für viele Einzelpersonen könnte man dem Menschen schon jetzt eine große Leistung zuschreiben.
    Solange Mensch-AI-Kollaboration die besten Ergebnisse liefert, gibt es einen sinnvollen menschlichen Beitrag, und ein tiefer Experte sowie geübter LLM-Bändiger kann viel beitragen.
    Die eigentliche Veränderung kommt erst, wenn reine AI sowohl Menschen als auch Mensch-AI-Kollaboration schlägt.

    • Beim Autorennen kommt der Großteil der Leistung vom Auto, aber wir loben den Fahrer. Wenn zwei Autos ähnlich gut sind, machen Können oder Fehler des Fahrers den Unterschied. Beim Reiten ist es ähnlich.
      Auch in der Mathematik kann der Mensch ein LLM auf den richtigen Weg führen oder auf dieses statt auf ein anderes Problem lenken, also verdient er in gewissem Maß Lob.
      Das Team, das das Auto gebaut hat, die Person, die das Pferd betreut hat, oder das Team, das die AI gebaut hat, verdienen vielleicht mehr Lob, aber normalerweise interessieren wir uns stärker für die eine sichtbarste Person.
    • Das erinnert mich an AI-Bilder und Comedy.
      Wenn ein Bild Menschen zum Lachen bringt, bekommt die Person, die den Prompt eingegeben hat, wohl nicht den Großteil der Anerkennung für die Herstellung, aber für die ursprüngliche Idee und den Geschmack, mit dem sie aus vielen Entwürfen ein bestimmtes Ergebnis ausgewählt hat, schon.
      Wenn ein Mathematiker also ein erstaunliches Ergebnis erreicht hat, das ein LLM „gemacht“ hat, würde ich sagen, dass er für Prompting und Anleitung ein gewisses Maß an Anerkennung verdient.
      Nur ist dann die Frage, ob man die erste Person vielleicht eher einen Komiker als einen Künstler nennt und ob dieser Mathematiker noch ein Mathematiker ist oder eher etwas anderes.
    • Selbst wenn jemand den Prompt gefunden oder die Unterhaltung automatisiert hätte, um alle offenen mathematischen Probleme durchzugehen: Wenn daraus nützliche Resultate entstehen und niemand geschädigt wird, ist das eine wertvolle menschliche Tätigkeit und sollte belohnt werden.
      Man sollte einfach denselben Lohn zahlen wie anderen Mathematikern. Natürlich gäbe es dann viele milliardenschwere Mathematiker, also wäre diese Belohnung ziemlich groß.
    • Vielleicht keine große Leistung eines Mathematikers, aber trotzdem ein großes Ergebnis.
  • Der Satz „Wenn der Zweck, Mathematik zu betreiben, darin besteht, eine Art Unsterblichkeit zu erlangen, dann ist das vielleicht nicht mehr lange möglich“ war ein wenig traurig.

    • Ich habe gestern auf YouTube kostenlos den Film 21 (2008) gesehen.
      Die Einführung des Films ist voller Studenten, die über den MIT-Campus laufen, und voller Verheißung und Status, die mit höherer Bildung verbunden sind.
      Als mir klar wurde, wie viel an AI übergehen könnte, empfand ich eine ähnliche Traurigkeit.
      [0] - https://youtu.be/0lsUsWdkk0Y?si=TJl7f_b1RcWcDqF8&t=278
    • Das war für mich der interessanteste Satz des Essays. Er erinnerte mich daran, als ich eine akademische Mathematiklaufbahn sofort aufgegeben habe; mit 19 oder 20 dachte ich, dass ich in diesem Gebiet nie Weltklasse sein würde. Das stimmte auch.
      Der nächste Gedanke war: „Worin bin ich gut?“ Darin steckte zumindest auch „Worin könnte ich Weltklasse werden?“ oder „Worin könnte ich wirklich sehr gut werden?“
      Ich habe nie gedacht, dass es mir für mathematische Unsterblichkeit reichen würde, irgendein Resultat zu finden, das meinen Namen trägt und mich überlebt, aber wenn ich so gedacht hätte, hätte mich diese schlechte Nachricht wohl ähnlich getroffen.
      An der Grenze widerspreche ich der Prämisse aber. Egal wie viele Beweisassistenten oder wie viel Cluster-Computing man nutzt: Das Team oder die Person, die die Riemannsche Vermutung beweist, wird berühmt werden. Zumindest in der Mathematik.
    • Ich weiß nicht, ob das wirklich so enttäuschend ist. Ich glaube nicht, dass die meisten großen Mathematiker das tatsächlich getan haben, um Unsterblichkeit zu erlangen.
      Vermutlich zielten viele eher auf indirekte praktische Anwendungen über Mathematik → Physik → Ingenieurwesen, oder sie taten es einfach wegen der Schönheit der Mathematik und des intellektuellen Vergnügens.
      AI mag selbst die praktischen Anwendungen übernehmen, aber die übrigen Aspekte kann man immer noch genießen.
    • Man kann das über jede Form menschlicher Leistung sagen.
  • Als Doktorand machte mich dieser Text traurig. Ich hatte geglaubt, dass meine Arbeit über mich selbst hinaus etwas sagen würde, über die begrenzte Zeit hinaus, die mir in dieser kosmischen Erfahrung gegeben ist.
    Dieses Gefühl von Unsterblichkeit war ein kleiner, immaterieller Bonus, den ich mir erhofft hatte, als ich ins Graduiertenstudium ging, und wegen AI fühle ich mich nun selbst weniger wertvoll.

    • Als jemand, der schon viel weiter auf diesem Weg ist, würde ich vorsichtig sagen: Es ist besser, diesen Gedanken loszulassen. Ich habe zu oft gesehen, wie brillante und ehrgeizige Menschen dadurch depressiv wurden.
      Diese Arbeit ist es wert, getan zu werden, weil du sie tun kannst. Ich hoffe, du tust sie aus Liebe und aus Liebe zum Geheimnis.
      Ich hoffe, du genießt jeden Moment, in dem du diese Arbeit tun kannst. Finde Freude in dem großen Glück, so etwas tun zu dürfen, anders als Menschen, die unter Arbeit leiden, die ihnen keine Erfüllung gibt.
      Manchmal ist es langweilig, aber manchmal ist es an sich unglaublich lohnend.
      Man sollte es nur nicht für die Möglichkeit ewigen Ruhms tun. So etwas gibt es nicht mehr.
    • Es ist mehr als wertvoll. Wenn du im Graduiertenstudium deine Fähigkeiten schärfst, wirst du diese AIs auf lange Sicht besser steuern können als Menschen, die sich nicht lange mit schwierigen Problemen herumgeschlagen haben.
    • „Wenn du Intelligenz über alle anderen menschlichen Eigenschaften stellst, wirst du eine harte Zeit haben.“ - Ilya Sutskever, 2023
    • In dieser Realität gibt es noch sehr viel mehr zu lernen als das, was LLMs von selbst herausfinden können. Das gilt besonders für Wahrheit, Ethik und Moral, und wenn wir diese Realität verlassen, sind das am Ende die einzigen Dinge, die wirklich zählen.
      Es gibt keine größere Herausforderung.
    • Es fühlt sich an, als würde Mut die Zeit besser überdauern als seltsame wissenschaftliche Durchbrüche. Solche Durchbrüche werden meist einer einzelnen Person zugeschrieben, aber ihre Wurzeln liegen oft bei namenlosen „weniger wichtigen“ Menschen.
  • Als Assistenzprofessor für theoretische Informatik in Osteuropa bin ich immer ein wenig neidisch darauf, dass große Namen der Mathematik so leicht Zugang zu teuren Langzeit-Reasoning-Modellen haben.
    Aus dem aktuellen Wissenschaftsbudget hier für Pro zu zahlen, ist völlig unrealistisch. Budgets sind zweckgebunden, und für Softwarezahlungen gibt es fast nie eine passende Kategorie.
    Praktisch müsste ich neue Forschungsgelder beantragen, hoffen, dass deren Regeln große Softwareausgaben erlauben, und darauf hoffen, keinem anti-AI eingestellten Gutachter zu begegnen. So ein Verfahren dauert mindestens ein Jahr.
    Als ob das nicht genug wäre, hat Microsoft mit den jüngsten Einschränkungen bei der privaten und akademischen Nutzung von Copilot auch meinen Zugriff auf Claude Opus blockiert.
    ChatGPT 5.5 Plus schien nicht genug zu sein, um neue Forschungsthemen wirklich tief zu durchdringen, ich habe es selbst ausprobiert.

    • @NotOscarWilde Hinterlass eine E-Mail-Adresse, dann melde ich mich. Ich arbeite bei OAI und kann dir einen Pro-Account besorgen, damit du 5.5 Pro ein paar Monate lang ausprobieren kannst.
    • An unserer Universität haben bis zur jüngsten Einführung eines gemeinsamen AI-Dienstes alle ihre AI-Abos aus eigener Tasche bezahlt.
      Das Einrichten dieses Dienstes hat zwei Jahre gedauert und er bietet nur gpt-oss-120b, deshalb nutzen weiterhin alle andere Dienste.
      Trotzdem kann irgendein Administrator jetzt überall auf der Uni-Website das Wort „AI“ verstreuen und hat eine Ausrede, Anträge auf AI-Abos abzulehnen, weil „es ja bereits AI gibt“.
    • Ein klassischer Fall davon, dass die am besten positionierten Leute auch am besten positioniert bleiben, um die Belohnungen einzusammeln.
      Es gibt dieses Beispiel mit armen und reichen Menschen, die Stiefel kaufen. Die Stiefel der armen Person gehen kaputt und müssen ständig ersetzt werden, die der reichen Person sind hochwertiger und halten viele Jahre.
      Mit der Zeit gibt die arme Person am Ende mehr Geld für Stiefel aus.
    • OpenRouter erlaubt auch reine nutzungsbasierte Token-Abrechnung ohne Abo und bietet die meisten Frontier-Modelle an, darunter Opus 4.7 und GPT-5.5.
      Wenn man sparsam damit umgeht, ist es gewöhnlich ziemlich günstig.
    • Soweit ich weiß, kostet der Zugang zu ChatGPT 5.5 Pro 100 Dollar im Monat; ich frage mich, ob das an deinem Ort und in deiner Region einfach völlig unrealistisch ist.
      Selbst wenn die Universität es nicht bezahlt, hätte ich den Eindruck, dass man es für die eigenen Ziele nutzen wollen würde.
      Das ist nicht als Vorwurf gemeint, ich frage mich nur, ob die Kosten für die meisten Forscher dort wirklich völlig unerreichbar sind.
  • Vor etwa zehn Jahren sah ich Tim Gowers auf der gemeinsamen AMS-MAA-Tagung in Seattle einen Vortrag halten, in dem er vorhersagte, dass Menschen in 100 Jahren keine Forschungsmathematik mehr betreiben würden. Ich frage mich, ob er seinen Zeitplan inzwischen angepasst hat.
    Damals dachte ich, das entscheidend fehlende Werkzeug sei eine natürlichsprachliche Suche, die wie MathOverflow funktioniert. Man beschreibt ein Problem oder eine Idee so, wie man sie selbst versteht, und bekommt relevante Literatur gefunden, die außerhalb der eigenen Erfahrung oder des eigenen Vokabulars liegt.

    • Teichmüller dachte auch, Deutschland würde den Zweiten Weltkrieg gewinnen, und meldete sich freiwillig an die Ostfront.
      Nur weil jemand ein brillanter Mathematiker ist, heißt das nicht, dass er recht hat. Tatsächlich haben Mathematiker ziemlich oft sehr schräge Theorien.
  • Die überwältigende Mehrheit der Studierenden, die diesen Herbst in die Hochschulbildung einsteigen, wird, selbst wenn sie Forschung betreiben, erst in 4–5 Jahren wesentlich zur Wissenschaft beitragen können. Bis die Promotion wirklich Fahrt aufnimmt, sind es realistisch eher 6–7 Jahre.
    Wenn man auf den Stand der Modelle vor 5–7 Jahren schaut, war eine existenzielle Bedrohung für Doktoranden damals noch nicht einmal auf dem Radar. Die Leute, die jetzt promovieren, sind die erste Generation, die diese Werkzeuge wirklich nutzen kann.
    Problematisch wird es nun, wenn Studierende, die Forscher werden wollen, sich entmutigt fühlen und aufgeben oder sich bei der Arbeit vollständig auf AI-Modelle verlassen.
    Dasselbe gilt für die Finanzierung von Promotionsstellen. Wenn Unterstützung von „Ausbildung von Forschern“ auf „Erreichen von Ergebnissen“ umgestellt wird, könnte Geld, das für Doktoranden vorgesehen war, stattdessen in Rechenressourcen fließen.
    Zynisch betrachtet kann ein Forscher womöglich weit mehr Papers produzieren, wenn er Geld für Computing ausgibt, als wenn er mehrere Jahre lang Studierende ausbildet.
    Es sind interessante Zeiten, aber die Unsicherheit ist viel zu groß. Ich habe Mitleid mit den Studierenden, die jetzt entscheiden müssen, was sie tun sollen.

    • Das passiert bereits und wird sich noch beschleunigen. Auch außerhalb der Graduiertenschule kann man sich Abschlüsse schon kaufen.
      Besonders in weicheren Fächern kann man schon jetzt Dissertationen und gute Publikationslisten kaufen.
      Und wenn man nicht in der Wissenschaft, sondern in der Industrie ist, kann man sich Beförderungen kaufen. Wenn der Arbeitgeber allen Angestellten ein AI-Budget gibt, kann man stillschweigend eigenes Geld dazugeben, bis man befördert wird, und danach wieder aufhören und das höhere Gehalt genießen.
    • Promovierende setzen AI-Modelle bereits ein, um Arbeit an sie auszulagern. Die meisten Doktoranden, die ich kenne, nutzen den Claude-Max-Plan für 200 Dollar im Monat maximal aus.
      Man sieht, dass sie dadurch Forschung machen können, die zuvor nicht möglich gewesen wäre.
      Man sieht auch, dass der Einsatz von AI ihre Fähigkeit, selbst Code zu schreiben, in gewissem Maß schwächt, aber ich sehe das ähnlich wie das Schreiben von Machine-Learning-Modellen mit scikit-learn oder Pytorch.
      Die tiefsten Details werden abstrahiert, und ohne AI könnten sie vieles nicht tun, aber diese Forschung geschieht tatsächlich wegen dieser Person, und nur durch AI allein wäre sie nicht geschehen.
    • Bisher haben Institutionen Promovierenden ohnehin kein Geld in den Rachen geworfen.
      Dieses Geld war eher ein nachträglich angehängter Budgetposten und ist kein so attraktives Ziel, dass es sich lohnen würde, es für teure andere Prozesse abzuschöpfen.