- Meta Platforms hat offiziell bekannt gegeben, den Verhaltenskodex für Künstliche Intelligenz der Europäischen Union (EU) nicht zu unterzeichnen
- Metas Chief of Global Affairs, Joel Kaplan, betonte, der Kodex stelle eine übermäßige Regulierung dar und behindere Innovation und Wachstum
- Der Kodex soll Transparenz- und Sicherheitsleitlinien zur Einhaltung des AI Act (verabschiedet 2024) bereitstellen
- Die Europäische Kommission hat vergangene Woche den endgültigen Verhaltenskodex für General-Purpose-AI-Modelle veröffentlicht; jedes Unternehmen kann freiwillig entscheiden, ob es ihn unterzeichnet
- Neben Meta haben sich auch Unternehmen wie ASML und Airbus an einem Schreiben beteiligt, das eine Verschiebung der Umsetzung fordert, während OpenAI seine Bereitschaft zur Teilnahme am Verhaltenskodex erklärt hat
Hintergründe zu Metas Ablehnung des europäischen KI-Verhaltenskodex
- Meta Platforms hat offiziell erklärt, den KI-Verhaltenskodex der Europäischen Union nicht zu unterzeichnen
- Chief of Global Affairs Joel Kaplan erklärte, „Europa befindet sich beim Thema KI auf dem falschen Weg“
- Kaplan argumentierte, der Kodex schaffe rechtliche Unsicherheit für Modellentwickler und führe überzogene Maßnahmen ein, die über den Geltungsbereich des AI Act hinausgingen
- Der Verhaltenskodex soll die Transparenz- und Sicherheitsanforderungen des im vergangenen Jahr verabschiedeten AI Act konkretisieren und soll ab dem kommenden Monat gelten
Überblick über den EU-KI-Verhaltenskodex
- Die Europäische Kommission hat den endgültigen Verhaltenskodex für General-Purpose-AI-Modelle veröffentlicht
- Jedes Unternehmen kann selbst entscheiden, ob es den Kodex unterzeichnet
- Ziel des Kodex ist es, ein Framework für die Einhaltung des AI Act bereitzustellen und Transparenz und Sicherheit von KI-Technologien zu gewährleisten
Reaktionen der Branche und zentrale Streitpunkte
- Kaplan von Meta kritisierte, „dieser Kodex ist überreguliert und wird zu einem ernsthaften Hindernis für die Entwicklung von KI-Modellen und das Geschäftswachstum in Europa“
- Einige Großunternehmen wie ASML und Airbus unterzeichneten ein Schreiben, das eine Verschiebung der Umsetzung um zwei Jahre fordert, und brachten damit ihre kritische Haltung zum Ausdruck
- OpenAI erklärte dagegen offiziell seine Bereitschaft zur Teilnahme am europäischen Verhaltenskodex
Wechsel an der Spitze von Metas Global-Policy-Bereich
- Joel Kaplan wurde Anfang 2025 zum Chief of Global Affairs von Meta ernannt
- Zuvor war er Vice President for U.S. Policy bei Facebook und arbeitete in der Regierung von George W. Bush
2 Kommentare
Zur Einordnung des Hacker-News-Kommentars unten: Latham & Watkins’ Erklärung zum ersten Entwurf des EU AI Act
European Commission Releases First Draft of General-Purpose AI Code of Practice
Zentrale Inhalte des Entwurfs zum EU AI Act
Transparenz
Einhaltung des Urheberrechts
Text and Data Mining(TDM)
Transparenz bei der Urheberrechtskonformität
Klassifizierung systemischer Risiken
Framework zum Management systemischer Risiken
Hacker-News-Kommentare
Nicht nur Meta: 40 europäische Unternehmen haben die EU um eine Verschiebung um zwei Jahre gebeten, weil die Umsetzung des AI Acts unklar sei. Dieser Code of Practice ist ein freiwilliger Standard und umfassender als das eigentliche Gesetz. Die EU hat angedeutet, dass freiwillige Teilnahme zu geringerer Regulierung führen könnte. Meta geht jedoch offenbar davon aus, ohnehin in jeder Hinsicht reguliert zu werden, sodass eine solche freiwillige Zustimmung praktisch wenig Nutzen bringt. Ein wichtiger Punkt im Gesetz ist, dass Modellanbieter sogar dann Verantwortung tragen sollen, wenn Partner sie unangemessen verwenden. Für Open Source ist das eine sehr anspruchsvolle Vorgabe. Beispielsweise sollen GPAI-Anbieter angemessene Vorkehrungen treffen, um Urheberrechtsverletzungen zu verhindern, und vertraglich festhalten, dass Partner diese Schutzmaßnahmen ebenfalls einhalten müssen. Details dazu finden sich in der Analyse von Latham & Watkins
Wenn man das Zitat liest, versteht man den Kontext, in dem die EU eine Ausnahmeregelung geschaffen hat, die es erlaubt, urheberrechtlich geschütztes Material ohne Lizenz als Trainingsdaten zu verwenden. Auch wenn die Umsetzung schwierig ist, wirkt das auf mich wie der Versuch einer ziemlich eleganten Balance.
Ich halte diesen Standard für vernünftig. Auch bei Open-Source-AI-Modellen könnte man in die Lizenz aufnehmen, dass „angemessene Maßnahmen zu ergreifen sind, damit nicht wiederholt Ergebnisse erzeugt werden, die identisch mit oder ähnlich zu urheberrechtlich geschützten Inhalten sind“. Das ist europäisches Recht, nicht US-Recht, und Begriffe wie „angemessen“ werden von Richterinnen und Richtern durch Abwägung beider Interessen ausgelegt, nicht rein wörtlich.
Es ist wirklich frustrierend, eine junge Branche so vorschnell zu regulieren, obwohl niemand weiß, wie sich der Markt entwickeln wird.
Wenn man Modelle baut, die zahlreiche urheberrechtlich geschützte Werke praktisch unverändert reproduzieren, sollte deren Verbreitung nicht erlaubt sein. Insofern halte ich diesen Standard nicht für überzogen. Das wäre selbst bei normaler Software nicht zulässig; nur weil es sich um AI-Modelle handelt, kann es dafür keine Ausnahme geben.
Die Passage, wonach Modellanbieter auch für Missbrauch durch Partner haften sollen, steht im eigentlichen Gesetzestext[0] nicht, sondern im Urheberrechtskapitel des Code of Practice. Dieser Code legt allerdings keine zusätzlichen Pflichten über das Gesetz hinaus fest, sondern zeigt Beispiele, wie man das Gesetz einhalten kann. Das Gesetz verlangt zum Beispiel, maschinenlesbare Opt-outs zu respektieren, sagt aber nicht konkret, wie; der Code nennt dafür robots.txt als Beispiel. Die urheberrechtlich relevante Stelle ist measure 1.4: a) technische Maßnahmen ergreifen, damit das Modell keine urheberrechtsverletzenden Inhalte reproduziert, b) in Nutzungsbedingungen oder Dokumentation klarstellen, dass urheberrechtsverletzende Nutzung nicht erlaubt ist. Bei Open-Source-Modellen reicht es, darauf in der Dokumentation hinzuweisen. Dieser Code of Practice gilt nur für diejenigen, die ihn freiwillig unterzeichnen; wenn jemand mein Modell nimmt und selbst unterschreibt, entsteht dadurch keine Haftung für mich. Das ist ähnlich wie wenn ich ein Photoshop-Plugin unter der GPL veröffentliche: Dadurch kann niemand die Offenlegung des Photoshop-Quellcodes erzwingen. Im Gesetz gibt es einige Open-Source-Ausnahmen. Meta wehrt sich vermutlich deshalb, weil das EU AI Office Meta AI nicht als Open Source anerkennt und Meta diese Ausnahmen daher nicht erhält. Die Originaltexte finden sich unter Gesetzeslink und Code-of-Practice-Link
Ich gebe zu, allein Metas Reaktion weckt bei mir den Reflex zu denken, dass dieses AI-Gesetz wahrscheinlich genau das ist, was wir brauchen. Ich weiß gar nicht genau, was drinsteht, aber dieser Gedanke stellt sich trotzdem ein.
Der „AI Code of Practice“ besteht aus drei Kapiteln und ist hier sowie in der Entwurfshistorie einsehbar. Ich habe den vollständigen Text noch nicht gelesen und kenne vor allem den früheren AI Act (artificialintelligenceact.eu). Vermutlich stört sich Meta insbesondere an Kapitel 2, also am Urheberrechtsteil, vor allem dort, wo dieser mit der bisherigen Praxis des unlizenzierten Crawlens urheberrechtlich geschützter Inhalte kollidiert. Ob das tatsächlich unter „Fair Use“ fällt, ist nach wie vor unklar.
Nur weil ein Unternehmen „böse“ ist, heißt das nicht automatisch, dass seine Argumente falsch sind.
Wer eine Zusammenfassung der Leitlinien sucht, findet sie hier. Es sind eindeutig belastende Vorschriften; in der Praxis wirken sie vor allem vorteilhaft für große Rechteinhaber, Anwälte und Bürokraten.
Solche Regulierungen könnten am Ende eine Falle für europäische Unternehmen werden. Ab einer bestimmten Größe steigt die regulatorische Last sprunghaft an, sodass kleine und junge europäische AI-Unternehmen Angst haben könnten, die Wachstumsschwelle überhaupt zu überschreiten. US- und chinesische Big-Tech-Konzerne können dagegen in einem Umfeld sehr viel schneller innovieren, ihr AI-Niveau steigern und Kapital aufbauen. Am Ende treten sie dann mit ausgereiften Produkten und tiefen Taschen in den EU-Markt ein, und der echte Wettbewerb kippt zu ihren Gunsten.
Europa hat noch nie eine AI-Industrie aufgebaut und versucht trotzdem, die gesamte Branche bis ins Detail zu regulieren. Das ist Regulierung um der Regulierung willen. Nach Draghis Bericht zur Wettbewerbsfähigkeit der EU hatte ich auf einen Wendepunkt gehofft, aber in Wirklichkeit hat die EU den Kurs überhaupt nicht geändert. Das untergräbt mein Vertrauen in die EU-Politik.
Du hast es als „belastend“ bezeichnet, aber was genau daran ist denn so belastend?
Die EU hatte mitunter die Macht, wie bei den Cookie-Regeln den Rest der Welt zum Mitziehen zu bringen. Meist gilt: Wenn eine kleine Gruppe der Mehrheit etwas aufzwingen will, müssen die Kosten der Einhaltung niedriger sein als die Kosten des Widerstands. Aber bei AI ist das anders. Das Spielfeld ist zu groß, und niemand wird aufhören. Außer durch einen Atomkrieg wird AI nicht aufzuhalten sein.
Die potenziellen Risiken von AI sind enorm. Man kann sich alles vorstellen, von automatisierten Waffen bis zu bösartiger AGI. In Deutschland gibt es durch die Teilung in Ost- und Westdeutschland noch immer ein Trauma rund um automatisierte Maschinengewehre, und auch die Ukraine erlebt derzeit schwere psychologische Belastungen durch den Drohnenkrieg. Die realen Risiken von AI sind eindeutig. Regulierung und Gesetze sind unverzichtbar.
Das Ergebnis der Cookie-Gesetze ist nur, dass Menschen unter endlosen Pop-ups leiden. Ohne uBlock ist das Web kaum auszuhalten. Das Tracking ist auf die Serverseite gewandert, und der tatsächliche Datenschutz hat sich nicht verbessert. Es fließt zu viel Geld, als dass die Industrie solche lückenhaften Regeln nicht leicht umgehen könnte.
Ich bin überrascht, wie viele Kommentare die europäische Regulierung einfach mittragen. Bin ich der Einzige, der grundsätzlich findet, dass europäische Regulierung übertrieben und schlecht gestaltet ist?
Europa hat bislang keine Politik hervorgebracht, die das Monopol der US-Big-Tech wirklich gebrochen hätte. Die meisten EU-Nutzer sind immer noch von Google, Meta und Amazon abhängig. Das Ziel der EU scheint nicht zu sein, US-Unternehmen direkt anzugreifen, sondern eher, Anstand einzufordern und einige nationale Sicherheitsinteressen zu schützen. Das ist vielleicht etwas zu höflich, aber im Kern eine rationale Position.
Wenn es um den Schutz der Bürger geht: Was genau wäre denn daran schlecht, wenn die Regulierung streng ist?
Von „blindem“ Mitlaufen zu sprechen unterstellt, dass man selbst recht hat und die anderen nur aus Unwissenheit zu ihrer Entscheidung gekommen sind. Du hast selbst gesagt, du „gehst grundsätzlich davon aus“, also kritisierst du letztlich genau dasselbe Verhalten.
Tatsächlich scheint sich hier zu viel externe Meinung eingemischt zu haben, die Europa kleinhalten will.
Genau dieses „grundsätzlich davon ausgehen“ ist das Problem. Statt erst einmal etwas anzunehmen, sollte man die einschlägigen Texte selbst lesen und sich eine eigene Meinung bilden. Mein Vorschlag wäre, sich nicht nur an den Aussagen transnationaler Großkonzerne zu orientieren.
Ich habe die Sorge, dass die EU LLMs am Ende wie Websites behandelt und überall Pop-ups dranhängt.
Das Internet ist ohnehin voller Pop-ups und aufmerksamkeitsheischender UX-Muster, und ausgerechnet problematisch sollen die Pop-ups sein, die Nutzern zumindest die Möglichkeit geben, Tracking aktiv abzulehnen?
Die Pop-up-Pflicht kommt nicht von der EU, sondern von den Unternehmen. Betreiber könnten die Datensammlung einfach reduzieren oder ganz darauf verzichten, dann bräuchte es auch keine Pop-ups. Stattdessen haben sie zugunsten ihrer Datensammlung die Usability geopfert und sinnlose Pop-ups eingeführt. Daher kommt das heutige Chaos. Websites, die gar nichts sammeln, etwa der Blog von Fabien Sanglard, haben überhaupt keine Pop-ups. Der Fehler der EU war eher, diesen Missbrauch nicht vorausgesehen zu haben. Das Ergebnis ist allerdings wirklich schlecht.
Man kann das auch ohne Pop-ups sehr gut umsetzen, aber alle wollen nur die großen Unternehmen kopieren. Das Nachmachen ist wichtiger als die Nutzererfahrung.
Ich hasse solche Pop-ups wirklich. Dass diese Situation so lange hingenommen wird, zeigt nur, wie langsam die Zuständigen sind.
Ich vermute, das Ziel ist, Metas Wachstum zu bremsen. Laut einem LinkedIn-Post sagt Meta dagegen, das Unternehmen sorge sich eher um das Wachstum europäischer Firmen. Dort heißt es: „Eine solche übermäßige Regulierung behindert die Entwicklung und Bereitstellung von Frontier-AI-Modellen in Europa und schreckt auch europäische Unternehmen ab, die darauf Geschäfte aufbauen wollen.“
Wenn Meta sagt, man „teile die Sorgen anderer Unternehmen“, bedeutet das in Wirklichkeit nur, dass gerade ein für die eigene PR nützliches Argument verwendet wird. In Wahrheit interessiert Meta weder das Gemeinwohl noch die Interessen anderer Unternehmen; es geht nur darum, mehr Daten zu sammeln und mehr Werbung zu verkaufen.
Wenn man den Code of Practice tatsächlich durchgeht, findet sich nichts, was besonders überzogen oder als „massiver Machtmissbrauch“ zu bezeichnen wäre. Letztlich geht es nur darum, dass Modellanbieter transparent handeln sollen, und genau das kollidiert mit Metas bisheriger Praxis.
In Kaplans LinkedIn-Post wird mit keinem Wort gesagt, welcher Teil der Politik konkret problematisch ist. „Wachstumshemmend“ könnte in Wahrheit auch nur etwas vergleichsweise Harmloses bedeuten, etwa eine Opt-in-Pflicht für neue Funktionen.
Das globale Umfeld polarisiert sich zunehmend, und ich denke, Meta hat seinen Teil dazu beigetragen, Unzufriedenheit und Konflikte zu verstärken. Irgendwann möchte ich nach Europa gehen und dort Open-Source-LLMs frei nutzen können.
Ich hoffe, dass diese Debatte nicht in dem Schluss endet, AI-Entwicklung komme durch Regulierung zum Stillstand. Auch Urheberrecht und der Schutz von Informationsquellen sollten ausreichend wertgeschätzt werden.