- Die Informatik-Kategorie (CS) von arXiv führt neue Prüfpraktiken für Review-(Survey-)Artikel und Positionspapiere ein
- Solche Arbeiten können nun nur noch bei arXiv eingereicht werden, nachdem sie in einer Fachzeitschrift oder auf einer Konferenz ein Peer Review durchlaufen haben und angenommen wurden
- Bei der Einreichung müssen Unterlagen zum Nachweis eines erfolgreichen Peer Reviews (z. B. Journalreferenz, DOI-Metadaten) zwingend beigefügt werden
- Einreichungen ohne Nachweisdokumente werden mit hoher Wahrscheinlichkeit abgelehnt; dies ist eine Reaktion auf den jüngsten übermäßigen Zustrom von Arbeiten durch generative KI
- Mit dieser Änderung will arXiv nur qualitativ hochwertige Übersichtsarbeiten teilen und sich auf die Verbreitung zentraler Forschungsarbeiten konzentrieren
Geänderte Einreichungsanforderungen
- Review-Artikel und Positionspapiere können nur nach Annahme durch eine Fachzeitschrift oder Konferenz und abgeschlossenem Peer Review bei arXiv eingereicht werden
- Bei der Einreichung müssen Nachweisdokumente für ein erfolgreiches Peer Review beigefügt werden
- Ohne Nachweis ist eine Ablehnung wahrscheinlich
- Begutachtungen auf Workshop-Niveau gelten nicht als traditionelles Peer Review und erfüllen die Einreichungsanforderungen nicht
Hintergrund der Richtlinie
- Nach der offiziellen Richtlinie von arXiv sind Review-Artikel und Positionspapiere formal keine zulässigen Inhaltstypen
- In der Vergangenheit wurden nur wenige hochwertige Arbeiten nach Ermessen der Moderatoren akzeptiert
- Durch die jüngste Verbreitung von generativer KI und Large Language Models (LLMs) hat die Zahl minderwertiger Review-Artikel stark zugenommen
- Die meisten bestehen lediglich aus einer Auflistung von Literatur und bieten kaum neue Forschungsdiskussionen
- Dadurch ist die Prüflast für die Moderatoren übermäßig gestiegen und beeinträchtigt den Kernzweck von arXiv (das Teilen von Forschungsarbeiten)
Ziel der Änderung
- Es soll unterstützt werden, dass auf arXiv nur wertvolle, von Expertinnen und Experten verfasste Review- und Positionspapiere leicht auffindbar sind
- Entlastung der Moderatoren und stärkere Konzentration auf die Prüfung offizieller Inhaltstypen
- Bewahrung von arXivs Kernziel, schnelle und freie wissenschaftliche Entdeckungen zu fördern
Unterschiede zwischen früher und heute
- Früher wurden Review-Artikel oft auf Anfrage von einer kleinen Zahl renommierter Forschender oder offiziellen Institutionen (z. B. Annual Reviews, IEEE, Computing Surveys) verfasst und waren daher qualitativ hochwertig
- Auch Positionspapiere wurden meist von Konferenzen oder staatlichen Forschungsorganisationen (z. B. Computing Research Association, National Academies) erstellt
- Heute werden jeden Monat Hunderte von Review-Artikeln eingereicht, und die Qualitätskontrolle hat ein schwer beherrschbares Niveau erreicht
Nutzung externer Begutachtungsinstanzen
- arXiv verfügt nicht über genügend Personal und Ressourcen, um die Qualitätsprüfung selbst durchzuführen
- Stattdessen erkennt es die Prüfung durch vertrauenswürdige externe Begutachtungsinstanzen (Konferenzen und Fachzeitschriften) an
- Diese Institutionen führen eingehende Prüfungen zu KI-bezogenen Themen wie Privatsphäre, Ethik, Sicherheit und Security durch
- So kann arXiv nur Arbeiten teilen, deren Qualität gesichert ist
Wiedereinreichung und Ausnahmen
- Arbeiten, die wegen unvollständigem Peer Review abgelehnt wurden, können nach Abschluss der Begutachtung über ein Einspruchsverfahren (appeal) erneut eingereicht werden
- Eine erneute Einreichung ohne genehmigten Einspruch ist jedoch nicht möglich
- Forschungsarbeiten zu den gesellschaftlichen Auswirkungen von Wissenschaft und Technik (cs.CY, physics.soc-ph usw.) sind von dieser Änderung nicht betroffen
Möglichkeit der Ausweitung auf andere Kategorien
- Jede Kategorie bei arXiv wird unabhängig von fachkundigen Moderatoren betrieben
- Zwar gelten in allen Kategorien dieselben Richtlinien, doch Review-Artikel sind grundsätzlich ein inoffizieller Inhaltstyp
- Wenn es auch in anderen Fachbereichen zu einem starken Anstieg von LLM-basierten Arbeiten kommt, könnten ähnliche verschärfte Prüfmaßnahmen eingeführt werden
- Sollten solche Änderungen erfolgen, werden sie offiziell angekündigt
1 Kommentare
Hacker-News-Kommentare
Es wird darauf hingewiesen, dass die Struktur problematisch ist, nach der Menge dessen belohnt wird, was Menschen produzieren
Wenn Forschende Anreize nach der Zahl ihrer Veröffentlichungen erhalten, missbrauchen sie zwangsläufig das System, indem sie mit minimaler Qualität möglichst viele Papers herauspumpen
Vergütungen auf Basis von Aufrufen oder Werbeeinblendungen führen ebenso zu verzerrtem Verhalten
Letztlich ist die Online-Welt ein System, das nicht für Menschen, sondern für Algorithmus-Optimierung entworfen wurde
In San Francisco hänge die Finanzierung von NGOs davon ab, wie viele Obdachlose sie „unterstützen“, was letztlich einen Anreiz schaffe, Obdachlosigkeit eher zu erhalten als zu verringern
Das Problem seien Menschen und Anreizsysteme, nicht das Werkzeug selbst
Eine Kultur, die Leistung anhand sinnloser Metriken wie Codezeilen oder Commit-Zahlen messe, sei bereits grundsätzlich falsch
Es wirke, als lebten wir heute in der „Goodhart-Hölle“ — einer Welt, in der das Manipulieren von Kennzahlen selbst zum Ziel geworden ist
Halb im Scherz wird gesagt, dass ein solches kennzahlengetriebenes Management die Unternehmensrealität großer Ausfälle satirisch vorwegnehme
Es wird gefragt, wie eine menschenzentrierte Online-Welt aussehen könnte und wie Content-Ersteller darin vergütet werden sollten
Nicht die Zahl der Papers, sondern eingeworbene Fördergelder und die Qualität der Anträge seien der eigentliche Kern
Es gab das Missverständnis, dass arXiv Preprints nicht mehr annehme
Tatsächlich wurde nur geändert, dass „Review-Papers“ und „Position Papers“ erst nach erfolgreicher Begutachtung in Journal oder Konferenz eingereicht werden können
Es wurde vorgeschlagen, bei arXiv ein Reputationssystem einzuführen
Die Idee ist, dass Autoren zusammen mit ihrer Arbeit einen öffentlichen PGP-Schlüssel hochladen und so ein Vertrauensnetzwerk bilden
Das könnte weniger geschlossen als bestehende Fachjournale sein und zugleich geordneter als vollständige Offenheit
Es wird auf Qualitätskontrollprobleme bei arXiv hingewiesen
Allein im Oktober gab es 26.000 Einreichungen (Statistik-Link), und es gebe eine Flut unüberprüfter Papers
Vorgeschlagen wird, eine kleine Einreichungsgebühr zu verlangen, um Spam zu reduzieren
Es wurde angemerkt, dass der Titel des HN-Posts irreführend sei
Präziser wäre eigentlich: „Wegen des starken Anstiegs von von KI verfassten Review-Papers verlangt arXiv im CS-Bereich Peer Review für Review-Papers“
Es wird nach der Motivation derjenigen gefragt, die vollständig KI-generierte Papers bei arXiv hochladen
Der Einreichungsprozess sei umständlich, daher frage man sich, warum sich jemand überhaupt die Mühe mache
Es wird darauf hingewiesen, dass die meisten minderwertigen Papers KI-bezogene Themen behandeln
Viele Menschen machen beim ersten Kontakt mit LLMs selbstreferenzielle Experimente nach dem Motto: „Lassen wir ein LLM über LLMs schreiben“
Das Ergebnis sind dann zusammengewürfelte Zusammenfassungen der Quelldaten
Die aktuelle Maßnahme von arXiv wird positiv bewertet
Gerade in sich schnell verändernden Bereichen wie multi-agent systems oder agentic LLMs seien klare Standards nötig
Wenn maschinenlesbare Metadaten zu Papiertyp, Daten-/Code-Links und Benchmark-Umfang verlangt würden, könne das die Vertrauenswürdigkeit erhöhen
Würden Tags wie „Survey“ oder „Position“ sowie eine Reproduzierbarkeits-Checkliste standardisiert, ließe sich Qualität sichern, ohne frühe Ideen zu blockieren
arXiv hat schon seit Langem ein Problem mit minderwertigen Papers zur Selbstvermarktung
Dieses Phänomen existierte bereits vor den LLMs