- Die Debian-Community diskutierte, ob KI- oder LLM-basierte Codebeiträge zugelassen werden sollen, beendete die Debatte jedoch ohne Ergebnis.
- Ein vorgeschlagener Entwurf hätte solche Beiträge unter Bedingungen erlaubt, darunter ausdrückliche Offenlegung bei Nutzung von KI-Tools, klare Verantwortlichkeit und das Verbot der Nutzung sensibler Informationen.
- Unter den Entwicklerinnen und Entwicklern gingen die Meinungen auseinander, insbesondere wegen der Unschärfe des Begriffs „KI“, des Anwendungsbereichs von LLMs sowie Fragen zu Qualität, Urheberrecht und Ethik.
- Einige sprachen sich dagegen aus und nannten unter anderem Hürden für das Onboarding neuer Beitragender, unethisches Verhalten von Unternehmen und rechtliche Unsicherheit als Gründe.
- Debian will vorerst weiter nach den bestehenden Richtlinien im Einzelfall entscheiden und lässt die Möglichkeit künftiger Diskussionen offen.
Überblick über Debians Diskussion zu KI-Beiträgen
- Debian führte eine interne Debatte darüber, ob KI-generierter Code akzeptiert werden soll, die jedoch ohne Einbringung einer General Resolution (GR) endete.
- Ausgelöst wurde die Diskussion durch einen Entwurf von Lucas Nussbaum, der eine klare Position zu KI-unterstützten Beiträgen schaffen sollte.
- Nach dem Einholen von Feedback prüfte er eine formelle Einreichung, ließ dies aber fallen, als die Diskussion an Dynamik verlor.
- Der Entwurf sah unter anderem eine Offenlegungspflicht für mit KI-Tools erzeugten Code, die klare Zuordnung der Verantwortung, die Zusicherung von Sicherheits- und Lizenzkonformität sowie ein Verbot der Nutzung nicht öffentlicher Informationen vor.
Streit um Begriffsdefinitionen und technische Abgrenzungen
- Mehrere Entwicklerinnen und Entwickler kritisierten die Unklarheit des Begriffs „KI“ und betonten die Notwendigkeit, konkrete Technologien wie LLMs ausdrücklich zu benennen.
- Russ Allbery erklärte, „KI“ sei zu weit gefasst und daher ungeeignet als Grundlage für Richtlinien.
- Sean Whitton schlug eine Unterscheidung nach Verwendungszweck von LLMs (Code-Review, Prototypen, Produktivcode) vor.
- Andrea Pappacoda sagte, Projekte wie Claude’s C Compiler sollten nicht in Debian aufgenommen werden.
- Nussbaum hielt dagegen, entscheidend sei nicht die Art des Werkzeugs, sondern der Vorgang der automatisierten Codegenerierung selbst.
Onboarding neuer Beitragender und Kostenfragen
- Simon Richter äußerte die Sorge, dass KI Lerngelegenheiten für neue Entwicklerinnen und Entwickler ersetzen könnte.
- Er wies darauf hin, dass KI auch unter Anleitung nicht lerne und Ressourcen des Projekts dadurch nicht in nachhaltige Wissensweitergabe mündeten.
- Zudem wurde die Sorge geäußert, dass der Einsatz von KI eine Abhängigkeit von kostenpflichtigen Tools schaffen und damit die Zugänglichkeit für Beitragende senken könnte.
- Nussbaum entgegnete, derzeit gebe es noch kostenlosen Zugang, räumte aber ein, dass Kostenprobleme künftig entstehen könnten.
- Er argumentierte zudem, KI könne den Zugang zu komplexen Aufgaben sogar erleichtern.
- Ted Ts’o widersprach dem Ausschluss von KI-Nutzenden mit dem Argument, dies sei widersprüchlich und könne die Vielfalt unter den Beitragenden einschränken.
Diskussion zu Ethik, Urheberrecht und Qualität
- Matthew Vernon argumentierte, Debian müsse sich klar gegen KI positionieren, und verwies auf unethische Datensammlung durch KI-Unternehmen und Umweltschäden.
- Er nannte als problematische Folgen unter anderem Urheberrechtsverletzungen, die Erzeugung von Bildern ohne Einwilligung und falsche Sicherheitsberichte.
- Jonathan Dowland schlug vor, die Annahme KI-generierter Inhalte einzuschränken, bis die rechtliche Unsicherheit geklärt ist.
- Thorsten Glaser forderte, Projekte mit LLM-basiertem Code in den Bereich „non-free“ zu verschieben, fand dafür jedoch keine Unterstützung, weil dies das Risiko bergen würde, große Projekte wie den Linux-Kernel oder Python auszuschließen.
- Allbery merkte an, die Debatte über die Qualität von KI-Code sei wenig sinnvoll, da auch Menschen schlechten Code schreiben können.
- Bdale Garbee betonte, man solle KI als Evolutionsstufe betrachten und ihre langfristigen Auswirkungen beobachten.
Debatte über die „bevorzugte Form zur Bearbeitung“ (Preferred form of modification)
- Nussbaum antwortete, LLM-Eingaben (Prompts) seien die bevorzugte Form zur Bearbeitung, was jedoch wegen des Problems der Nichtdeterministik weitere Diskussionen auslöste.
- Einige argumentierten, LLMs seien nichtdeterministisch und daher für reproducible builds ungeeignet.
- Andere entgegneten, bei gleichem PRNG-Seed und identischer Umgebung sei Reproduzierbarkeit möglich.
- Die Diskussion weitete sich auf technische Details wie Determinismus, Reproduzierbarkeit und die Asynchronität von GPU-Berechnungen aus.
Fazit: Debian vertagt die Entscheidung
- Innerhalb von Debian besteht nicht einmal Einigkeit darüber, wie KI-generierte Beiträge überhaupt zu definieren sind.
- Viele kamen zu dem Schluss, dass jetzt nicht der richtige Zeitpunkt für eine Abstimmung über eine Resolution ist, und dass weitere Diskussionen auf Mailinglistenebene sinnvoller seien.
- Nussbaum sagte, ein „Kompromiss, der KI erlaubt, aber Schutzmechanismen vorsieht“ sei wohl der realistischste Weg.
- Vorerst bleibt es bei Einzelfallentscheidungen nach den bestehenden Richtlinien; Kriterien für KI-Modelle, LLM-Code und KI-generierte Beiträge sind weiterhin offen.
- Angesichts komplexer technischer Veränderungen und vielfältiger Positionen gilt der Status quo derzeit als die pragmatischste Wahl.
1 Kommentare
Hacker-News-Kommentare
Ich programmiere schon mein ganzes Leben, aber seit eine Handgelenksverletzung Tippen fast unmöglich gemacht hat, kann ich dank LLMs, KI-Autovervollständigung und agentenbasierter Entwicklung wieder hochwertigen Code produzieren
Selbst KI-Halluzinationen helfen eher dabei, Prompts zu verfeinern und die eigene Absicht klarer zu formulieren
Aus Sicht der Barrierefreiheit ist KI für mich ein unverzichtbares Werkzeug, und wichtiger als die Frage, ob „das Gute das Schlechte aufwiegt“, ist meiner Meinung nach eine integrative Haltung gegenüber der Einbindung ins Ökosystem
Manche Projekte werden mit minderwertigen PRs überschwemmt, und viele Beitragende wollen nur ihr GitHub-Profil aufpolieren
Am Ende ist entscheidend, ob jemand in gutem Glauben (good faith) beiträgt, und Projekte sollten klar festlegen, wo sie die Grenze ziehen
So ermüdet das Review weniger, und ich kann mich gezielt auf die Stellen konzentrieren, die von meinen Erwartungen abweichen
In einem Unternehmen, das solche Funktionen blockiert, würde ich inzwischen gar nicht mehr arbeiten wollen
Der Aspekt der Barrierefreiheit ist sehr wichtig, aber Urheberrechts- und Haftungsfragen bleiben weiterhin komplex
Ich denke, bei PR-Reviews geht es letztlich um Vertrauen. Man glaubt, dass der Einreicher sein Bestes gegeben hat
Entscheidend ist nicht, ob KI verwendet wurde, sondern ob sie verantwortungsvoll eingesetzt wurde
Mehrere Fake-Accounts können zu einem einzigen Angreifer gehören, und von LLMs erzeugter Code wirkt für LLMs selbst plausibel, was die Verifikation noch schwieriger macht
Letztlich ist es dadurch schwieriger geworden, PRs zu bewerten, als sie zu erzeugen
Die Qualitätsdebatte bei KI-Beiträgen ist seltsam. Für Qualität ist immer der Einreicher verantwortlich
Die Nutzung von KI entbindet niemanden davon, und im Gegenteil könnten restriktive Richtlinien zur KI-Nutzung nur gutwilligen Beitragenden schaden
Ich pflege einen mit KI erzeugten Fork mit 300 Commits, kann aber jede Zeile prüfen und erklären
Am Ende ist die Qualität der Beteiligung entscheidend, nicht die Art des Werkzeugs
Langfristig wird KI sich wohl so weit entwickeln, dass menschliche und KI-Erzeugnisse schwer zu unterscheiden sein werden
Wenn sie irgendwann „gut genug“ ist und wie von Menschen gemacht wirkt, frage ich mich, was dann passiert
Derzeit sind die meisten KI-PRs von niedriger Qualität, aber selbst bei hoher Qualität könnte man sie aus rechtlichen oder ideologischen Gründen ablehnen
Übermäßig kleinteilige Abstraktionen oder unnötiges Refactoring sind häufig
Dass Menschen KI als Werkzeug verwenden, ist in Ordnung, aber bis KI den Menschen ersetzt, ist es meiner Ansicht nach noch weit
Allerdings erhöht der Missbrauch von Vibecoding die Kosten für Review und Wartung drastisch
Ich vertrete die Position: „Wenn es funktioniert, reicht das“
Wenn der Code die Kriterien Funktionalität, Dokumentation, Tests und Korrektheit erfüllt, ist es egal, ob ihn KI oder ein Mensch geschrieben hat
Wichtig ist, die „Definition von funktioniert“ klar zu machen und ein kompetentes Review-System zu haben
KI kann Tausende Zeilen Code auf einmal erzeugen und als PR einreichen, aber letztlich muss man die Größe auf reviewbare Einheiten begrenzen
Selbst wenn KI alle Tests besteht, ist es riskant, wenn der Autor den Inhalt nicht versteht
Es braucht eine Begrenzung des Arbeitsumfangs und eine bisherige Historie manueller Beiträge
Debians Richtlinie ist einfach — „Niemand soll zu Schaden kommen“. Das ist ein guter Grundsatz
Es wurde gefragt, ob Debian eine Regel hat, die verbietet, fremden Code als den eigenen einzureichen
Tatsächlich ist das durch Urheberrechtsverletzung ohnehin illegal, daher existiert diese Regel implizit auch ohne ausdrückliche Formulierung
LLMs sind keine Menschen, aber die Urheberrechte an ihrem Code sind weiterhin unklar
Vibecoding bei Web-Apps oder Mobile-Apps mag egal sein, aber KI bei kritischer Infrastruktursoftware wie Kernel, Compiler oder Betriebssystemen einzusetzen, ist riskant
In solchen Bereichen braucht es formal verifizierbare Sprachen wie Ada/SPARK
Die Vorstellung, irgendwann in einem Auto mit einem von KI erzeugten Bremssystem zu fahren, ist beängstigend
„YOLO-artige Code-Einreichungen“ sind weit weniger akzeptabel als Code, bei dem jemand zwar KI verwendet hat, ihn aber so gründlich wie möglich verifiziert hat