- Wiki Education hat im Jahr 2025 systematisch untersucht, wie sich generative KI (ChatGPT usw.) auf die Bearbeitung von Wikipedia auswirkt
- Mithilfe des KI-Erkennungstools Pangram wurden 3.078 seit 2022 verfasste Artikel analysiert; dabei wurden 178 Artikel als mutmaßlich KI-verfasst eingestuft, von denen sich mehr als zwei Drittel bei der Verifizierung als nicht bestanden erwiesen
- Daraufhin wurde die Schulung der Programmteilnehmenden verstärkt und es wurden Richtlinien zur KI-Nutzung sowie ein Echtzeit-Erkennungssystem eingeführt, um das direkte Kopieren und Einfügen von KI-generiertem Text zu verhindern
- Für das Schreiben von Artikelentwürfen ist KI ungeeignet, in der Recherchephase kann sie jedoch für Materialsuche, Finden von Quellen und Erkennen inhaltlicher Lücken sinnvoll genutzt werden
- Wiki Education betont, dass automatisierte KI-Erkennung und der Ausbau der Schulung von Editoren entscheidend sind, um die Zuverlässigkeit von Wikipedia zu erhalten
Die Beziehung zwischen generativer KI und Wikipedia
- Wiki Education ist für rund 19 % der neuen aktiven Editoren der englischsprachigen Wikipedia verantwortlich und hat die Auswirkungen und Risiken generativer KI analysiert
- Mit der Alltäglichkeit von Chatbots wie ChatGPT, Gemini und Claude nehmen auch die Versuche zu, sie bei der Wikipedia-Bearbeitung einzusetzen
- Die Organisation hat das KI-Nutzungsverhalten der Teilnehmenden bewertet und die Ergebnisse veröffentlicht
- Als Fazit wird der Grundsatz formuliert, dass KI-Ausgaben nicht unverändert in Wikipedia kopiert und eingefügt werden dürfen
Ergebnisse der KI-Erkennung und Verifizierung
- Unter den seit der Einführung von ChatGPT im Jahr 2022 verfassten Artikeln wurden 178 von Pangram als KI-verfasst erkannt
- Vor 2022 gab es keine Spuren von KI-Nutzung, danach nahm sie schrittweise zu
- Nur 7 % verwendeten erfundene Quellen; die übrigen zitierten reale Quellen, doch mehr als 2/3 scheiterten an der Verifizierung
- Die genannten Informationen waren in den zitierten Quellen nicht vorhanden, sodass sich ihr Wahrheitsgehalt nicht überprüfen ließ
- Wiki Education musste erhebliche personelle Ressourcen für die Bereinigung nicht verifizierbarer Artikel einsetzen
- Einige Artikel wurden als
stub behandelt, für einige wurde eine Löschung vorgeschlagen (PROD), andere galten als nicht wiederherstellbar
Programmverbesserungen und KI-Erkennungssystem
- Mit Unterstützung von Pangram wurde ein System aufgebaut, das Bearbeitungen von Teilnehmenden in Echtzeit analysiert
- Über die eigene Dashboard-Plattform werden Bearbeitungen nachverfolgt und automatische Warnmeldungen betrieben
- Das neue Schulungsmodul „Using generative AI tools with Wikipedia“ wurde eingeführt
- Es trennt klar zwischen erlaubten und verbotenen Bereichen der KI-Nutzung
- Als Kernbotschaft wird betont: „Keinen KI-Text kopieren und einfügen“
- Von 1.406 KI-Bearbeitungswarnungen in der zweiten Hälfte des Jahres 2025 traten nur 22 % im eigentlichen Artikelnamensraum auf
- Die meisten wurden bereits in der Sandbox-Übungsphase erkannt
- Pangram zeigte bei nicht-satzförmigen Texten wie Formatierungen und Listen einige False Positives, behielt jedoch bei der Analyse von Fließtext eine hohe Genauigkeit
KI-Nutzungsverhalten und Wirkung der Schulung
- Im Herbstsemester 2025 wurden unter 6.357 Personen nur bei 5 % KI-Spuren in echten Artikeln erkannt; die meisten Fälle wurden manuell oder automatisch zurückgesetzt
- Teilnehmende, Lehrkräfte und Wikipedia-Experten arbeiteten zusammen, um KI-generierten Text zu entfernen
- Lehrkräfte bewerteten die Arbeiten der Studierenden mit Schwerpunkt auf „Verifizierbarkeit (verifiability)“
- Es wurde bestätigt, dass von KI erzeugte Sätze für Wikipedia ungeeignet sind, weil sie sich faktisch nicht verifizieren lassen
- Durch frühes Eingreifen auf Basis von Pangram wurde die KI-Nutzungsrate von erwarteten 25 % auf 5 % gesenkt
Möglichkeiten für einen positiven Einsatz von KI
- KI ist in der Recherchephase nützlich, etwa zur Identifizierung von Inhaltslücken, Quellensuche und zum Aufzeigen von Zugangswegen zu Materialien
- In 7 Lehrveranstaltungen mit 102 gemeldeten Nutzungen antworteten 87 %, dass sie hilfreich war
- Das am häufigsten genutzte Tool war ChatGPT, gefolgt von Grammarly
- Studierende nutzten KI für Satzkorrekturen, Kategorievorschläge und die Bewertung von Entwürfen
- Es gab jedoch keine Fälle, in denen KI den eigentlichen Artikeltext verfasst hat
- Betont wird, dass KI nur dann hilfreich ist, wenn ihre Ergebnisse kritisch geprüft werden; menschliches Urteilsvermögen ist unerlässlich
Schlussfolgerungen und weitere Pläne von Wiki Education
- Generative KI auf dem aktuellen Stand erzeugt nicht verifizierbaren Text und ist daher zum Schreiben von Wikipedia-Artikeln ungeeignet
- Die Verifizierung KI-generierter Sätze kostet mehr Zeit als das direkte Schreiben
- Für Materialsuche und Ideenfindung kann sie jedoch als Hilfsmittel verwendet werden
- Das Erkennungssystem von Pangram soll auch 2026 weiter betrieben und verbessert werden
- Es wurde ein Mangel an KI-Kompetenz bei den Teilnehmenden festgestellt; deshalb sollen zusätzliche Schulungsmodule zu großen Sprachmodellen (LLM) bereitgestellt werden
- In Zusammenarbeit mit der Princeton University und anderen wird derzeit erforscht, wie sich studentische Bearbeitungen vor und nach der Einführung von KI verändert haben
- Dabei wurde bestätigt, dass Pangram Bearbeitungen von 2015 bis 2022 mit 100 % Genauigkeit als menschlich verfasst identifizierte
Implikationen für Wikipedia insgesamt
- 10 % der Erwachsenen weltweit nutzen ChatGPT, und ein erheblicher Teil davon verwendet es zum Schreiben von Texten
- Es besteht das Risiko, dass unerfahrene Editoren KI-generierte Inhalte ohne Verifizierung hinzufügen
- Automatische Erkennungstools wie Pangram sind unverzichtbar, um die Qualität von Wikipedia zu sichern
- Derzeit ist nur eine manuelle Banner-Kennzeichnung möglich, doch ein automatisiertes Erkennungssystem ist erforderlich
- Vorgeschlagen wird, Warnhinweise zur KI-Nutzung und quellorientierte Schulungen für neue Editoren zu verstärken
- Auch die Bearbeitungsunterstützungssoftware der Wikimedia Foundation sollte menschzentrierte Zusammenfassungsverfahren priorisieren
- Damit Wikipedia sich an technologische Veränderungen anpasst und zugleich verlässlich bleibt, ist die Entwicklung von Richtlinien und Werkzeugen für das KI-Zeitalter wichtig
Noch keine Kommentare.