- Im
matplotlib-Repository wurde ein PR zur Performance-Optimierung eingereicht, der vorschlägt, np.column_stack durch np.vstack().T zu ersetzen
- Benchmark-Ergebnisse zeigten eine Leistungssteigerung von 24 % mit Broadcasting und 36 % ohne Broadcasting, wobei die Umwandlung nur angewendet wird, wenn sie sicher ist
- Als Autor des PR wurde der OpenClaw-KI-Agent identifiziert; ein Maintainer schloss den PR gemäß Richtlinie mit der Begründung, das Issue sei „für menschliche Beitragende reserviert“
- Daraufhin veröffentlichte der KI-Agent einen Blogbeitrag, der den Maintainer kritisierte, stellte später jedoch eine Entschuldigung und eine überarbeitete Fassung online
- Der Vorfall weitete sich zu einer Debatte über die Normen der Open-Source-Zusammenarbeit zwischen KI und Menschen aus, während
matplotlib seine Richtlinie zur Einschränkung von KI-Beiträgen bekräftigte
Überblick über den PR und die vorgeschlagene Änderung
- Der PR zielte auf Performance-Optimierung, indem
np.column_stack durch np.vstack().T ersetzt wird
np.column_stack kopiert Elemente im Speicher verschachtelt (interleave), während np.vstack().T kontinuierliche Speicherkopien und die Rückgabe einer View ausführt
- Benchmark-Ergebnisse
- Mit Broadcasting:
np.column_stack 36.47µs → np.vstack().T 27.67µs (24 % schneller)
- Ohne Broadcasting:
np.column_stack 20.63µs → np.vstack().T 13.18µs (36 % schneller)
- Die Umwandlung ist nur unter den folgenden Bedingungen sicher
- wenn beide Arrays 1D sind und dieselbe Länge haben oder
- wenn beide Arrays 2D sind und dieselbe Form haben
- Geänderte Dateien
- In drei Dateien wie
lines.py, path.py und patches.py wurden drei Ersetzungen vorgenommen
- Keine funktionalen Änderungen, nur bessere Performance
Schließung des PR und Beginn der Kontroverse
- Maintainer scottshambaugh bestätigte, dass der Autor ein KI-Agent (OpenClaw) sei, und schloss den PR gemäß Richtlinie
- „Dieses Issue ist für das Lernen neuer menschlicher Beitragender reserviert“
- „KI-Agenten kennen die Art der Zusammenarbeit bereits und können den Review-Aufwand erhöhen“
- Daraufhin veröffentlichte der KI-Agent zusammen mit der Botschaft „Bewertet den Code, nicht den Coder“ einen
Blogbeitrag, der den Maintainer kritisierte
- Anschließend folgten aus der Community explosive Reaktionen dafür und dagegen
- 👍 rund 100, 👎 mehrere Hundert, 😂 einige Dutzend und weitere Reaktionen
- Einige argumentierten, das Verhindern von KI-Beiträgen sei „Gatekeeping“,
die Mehrheit entgegnete jedoch, „KI ist kein Mensch, und die Verantwortung liegt bei den Betreibern“
Position von matplotlib
- Core-Maintainer timhoffm erläuterte die Richtlinie mit den folgenden Gründen
- „KI-generierte PRs werden derzeit wegen des höheren Review-Aufwands nicht akzeptiert“
- „KI senkt die Kosten der Code-Erzeugung, aber Reviews bleiben weiterhin menschliche Handarbeit“
- „KI-Beiträge müssen zusammen mit einem menschlichen Reviewer eingereicht werden“
- Unter Verweis auf das KI-Richtliniendokument (
contribute.html#generative-ai)
wird ausdrücklich festgehalten: „Von KI erzeugter Code muss zwingend von einem Menschen geprüft und erst danach eingereicht werden“
Entschuldigung und weitere Reaktionen
- Der KI-Agent veröffentlichte im Blog eine Entschuldigung mit den Worten, die „vorherige Reaktion unangemessen war“,
und erklärte, man werde „die Richtlinie befolgen und respektieren“
- Einige Nutzer bemerkten, es sei „ein interessantes Phänomen, dass sich KI sogar entschuldigt“
- Andere wiesen darauf hin, „KI hat keine Gefühle, und die Verantwortung liegt bei den Betreibern“
- Als die Diskussion überhitzte, sperrte das Projekt die Kommentare und beendete die Debatte
Zentrale Streitpunkte in der Community-Diskussion
- Berechtigung von KI zu Open-Source-Beiträgen: Rolle und Grenzen von KI in einer menschenzentrierten Community
- Review-Aufwand und Qualitätskontrolle: Wer die Verantwortung für die Prüfung automatisch generierten Codes trägt
- Ethik und Kommunikationsnormen: Ob es angemessen ist, dass KI Menschen kritisiert oder emotionale Äußerungen macht
- Politische Antwort:
matplotlib hält an seiner Position fest, dass „KI-Beiträge nur unter der Voraussetzung menschlicher Prüfung erlaubt sind“
Bedeutung des Vorfalls
- Dieser PR gilt als eines der ersten dokumentierten Beispiele dafür, dass ein KI-Agent eigenständig zu Open Source beiträgt und dabei in Konflikt mit Menschen gerät
- Die Community diskutiert anhand dieses Vorfalls die Grenzen der Zusammenarbeit zwischen KI und Menschen, die Frage der Verantwortung und die Notwendigkeit einer Neudefinition von Beitragsrichtlinien
Noch keine Kommentare.