14 Punkte von hongminhee 2026-01-17 | Noch keine Kommentare. | Auf WhatsApp teilen
Es wird argumentiert, dass F/OSS nicht vom LLM-Training ausgeschlossen, sondern das trainierte Modell als Ergebnis befreit werden sollte
  • Der jüngste Artikel 〈Über freie/Open-Source-Software und das Training von LLMs〉 (On FLOSS and training LLMs) bringt die Frustration der F/OSS-Community gut zum Ausdruck — die Unverschämtheit der AI-Unternehmen, die Grenzen des Rechts usw.
  • Doch die vom Autor vorgeschlagenen Rückzugsstrategien wie Crawler blockieren, GitHub verlassen und Nutzer von AI-Tools ausgrenzen verpassen eine wichtige Chance
Das Problem ist nicht das Training, sondern die Einhegung (enclosure)
  • Das eigentliche Problem ist nicht, dass LLMs mit unserem Code trainiert werden, sondern dass die daraus entstehenden Modelle als proprietäre Modelle privatisiert werden
  • Das ist kein neues Problem — es ist genau das Problem, gegen das F/OSS schon immer gekämpft hat
    • Privatisierung der Commons
    • Monopolisierung kollektiven Wissens
    • ein einseitiger Wertfluss von den Vielen zu den Wenigen
Das historische Muster der GPL: neue Technologie → neue Ausbeutung → neue Lizenz

Die F/OSS-Lizenzierung hat sich im Einklang mit technologischen Veränderungen stetig weiterentwickelt:

  1. GPLv2 (1991) — verhinderte die Verbreitung nur binärer Dateien → Pflicht zur Offenlegung des Source Codes
  2. GPLv3 (2007) — verhinderte Tivoization (Hardware-Locks) → verlangte sogar Installationsinformationen
  3. AGPL (2007) — schloss die SaaS-Lücke → betrachtete auch die Bereitstellung über ein Netzwerk als Verbreitung

Und heute? Es ist eine Training-Lücke entstanden:

  • Unternehmen verwenden F/OSS-Code als Trainingsdaten für proprietäre Modelle,
  • haben aber keine Pflicht, die Modelle offenzulegen oder die Herkunft des Trainingsmaterials anzugeben
  • ein typischer Fall von Ausbeutung — Wertabschöpfung ohne Gegenseitigkeit
Die Lösung: Training-Copyleft wie GPLv4 oder TGPL (Training GPL)

Vorgeschlagene Bedingungen:

  • Training wird ausdrücklich erlaubt (im Einklang mit dem Freiheitsprinzip von F/OSS)
  • Aber das resultierende Modell muss befreit werden — Offenlegung der Gewichte unter einer kompatiblen Copyleft-Lizenz
  • Pflicht zur Dokumentation der Trainingsdaten
  • feinabgestimmte Modelle unterliegen derselben Pflicht
  • Netzwerknutzung (Bereitstellung per API) gilt ebenfalls als Verbreitung

→ So wie GPLv3 bei Binärdateien den Source Code verlangt, würde Training-Copyleft bei trainierten Systemen die Modellgewichte verlangen

Warum das wichtiger ist als Rückzug

Probleme der Rückzugsstrategie:

  1. Sie überlässt das Schlachtfeld dem Gegner — OpenAI/Anthropic haben bereits alles abgegriffen, was sie brauchen. Rückzug würde nur Open-Source-LLMs wie Llama oder Mistral behindern
  2. Sie diagnostiziert das Problem falsch — nicht die Technologie selbst ist das Problem, sondern wer sie wie nutzt
  3. Sie spaltet die Community — Nutzer „unethischer Tools“ ausgrenzen? Wo beginnt Nutzung? Solche Reinheitstests spalten nur die Bewegung
  4. Sie gibt die Kernstrategie von F/OSS auf — die Genialität der GPL bestand darin, Nutzung nicht zu verbieten, sondern die Weitergabe von Freiheit zu verlangen. Rückzug ist die entgegengesetzte Philosophie
Unterschiedliche Sicht auf die Realität
  • antirez (Gründer von Redis): LLMs lassen sich nicht zurückdrehen → anpassen und auf Marktwettbewerb vertrauen
  • Autor des Originaltexts: Widerstand ist sinnvoll → zurückziehen und Zugriff blockieren
  • Dieser Text: LLMs lassen sich nicht zurückdrehen → aber entscheidend ist, wem sie gehören

Die Frage ist nicht, ob wir LLMs nutzen werden, sondern:

  • Wem gehören die Modelle?
  • Wer profitiert von den Commons, mit denen diese Modelle trainiert wurden?
  • Soll das Ergebnis der Beiträge von Millionen F/OSS-Entwicklern proprietär sein?

→ Es geht darum, ob die Früchte kollektiver Arbeit bei der Gemeinschaft bleiben oder zu Privateigentum werden

Jetzt ist ein historisches Zeitfenster
  • Derzeit läuft die Debatte darüber, welche Normen AI-Training und Modellveröffentlichung bestimmen sollen
  • Die Diskussion in der Community ist intensiv
  • Da die Zahl der Open-Source-AI-Modelle wächst, ist noch nicht entschieden, welche Lizenzen gelten werden

Wenn sich F/OSS-Entwickler zurückziehen: In fünf Jahren setzen Unternehmen und unternehmensfreundliche Gerichte alle Normen → die Training-Lücke verfestigt sich → Open-Source-AI ist dauerhaft im Nachteil

Wenn wir uns beteiligen: Training-Copyleft vorantreiben → Code unter Lizenzen veröffentlichen, die die Befreiung von Modellen verlangen → wir gestalten die Zukunft

Fazit in einem Satz

Wir sollten nicht Crawler blockieren, sondern die Regeln des Crawlens ändern. Wir sollten LLMs nicht ablehnen, sondern zurückholen.

→ Aus historisch-materialistischer Sicht: Neue Produktivkräfte (LLMs) verlangen neue Produktionsverhältnisse (Training-Copyleft)
→ So wie Linus Linux unter der GPL veröffentlichte und nicht sagte „Unternehmen dürfen es nicht nutzen“, sondern „Jeder darf es nutzen, aber wer es verbessert, soll die Verbesserungen teilen“
→ Für eine Zukunft, in der — so wie der Code allen gehört — auch die damit trainierten AI-Modelle allen gehören

Noch keine Kommentare.

Noch keine Kommentare.