1 Punkte von GN⁺ 2025-09-30 | 1 Kommentare | Auf WhatsApp teilen
  • Der kalifornische Gouverneur hat ein Gesetz unterzeichnet, das die KI-Transparenz stärkt
  • Das neue Gesetz legt Transparenzstandards für die Entwicklung und Nutzung von KI-Systemen fest
  • Unternehmen sind nun verpflichtet, Informationen über den Entscheidungsprozess von KI und dessen Auswirkungen offenzulegen
  • Hauptziel ist der Verbraucherschutz und eine stärkere Rechenschaftspflicht bei KI-Missbrauch
  • Mit dem Inkrafttreten des Gesetzes wird eine Grundlage geschaffen, um die Regulierung der KI-Branche und eine ethische Entwicklung zu fördern

Überblick über das kalifornische Gesetz zur KI-Transparenz

  • Der kalifornische Gouverneur hat offiziell ein neues Gesetz zur Stärkung der KI-Transparenz unterzeichnet
  • Das Gesetz verlangt von Unternehmen und Institutionen, Informationen über den Entscheidungsprozess offenzulegen, wenn sie KI-Systeme entwickeln oder einsetzen
  • Zu den Kernpunkten gehört die Pflicht zu erläutern, welche Daten und Kriterien die KI für ihre Schlussfolgerungen verwendet hat und welche potenziellen Auswirkungen das System haben könnte
  • Es schafft Mechanismen zur Sicherung von Transparenz, damit Verbraucher bei der Nutzung von KI-basierten Diensten oder Produkten erkennen können, dass sie von algorithmischen Entscheidungen betroffen sind
  • Letztlich zielt das Gesetz darauf ab, die Rechenschaftspflicht in der KI-Branche zu erhöhen sowie KI-Missbrauch zu verhindern und das Vertrauen der Verbraucher wiederherzustellen
  • Mit der Umsetzung des Gesetzes dürfte sich Kalifornien in den USA als führender Standort für KI-Ethik und Regulierung positionieren

1 Kommentare

 
GN⁺ 2025-09-30
Hacker-News-Kommentare
  • Wenn das ein Problem der realen Welt ist, frage ich mich, ob dieses Gesetz verhindern kann, dass mein geistiges Eigentum (IP) ohne Erlaubnis von einem LLM verwendet wird
    • Das Hauptziel dieses Gesetzes ist es, einen grundlegenden Rahmen bereitzustellen, damit Diskussionen auf Basis realer Daten geführt werden können. Deshalb werden Technologieunternehmen verpflichtet, Sicherheitspläne, Transparenzberichte und Vorfälle offenzulegen. Auch deshalb wurden die Bußgelder mit 10.000 Dollar niedrig angesetzt. Für eine umfassende AI-Regulierung ist es zum jetzigen Zeitpunkt zu früh, und Kalifornien ist auch nicht die Instanz, die das US-Urheberrecht verwaltet
    • Die Regierung wurde angewiesen, einen Rahmen für die Entwicklung eines öffentlichen Computing-Clusters zu schaffen. Es ist sehr wahrscheinlich, dass dieses Gesetz einigen staatlichen Auftragnehmern große Vorteile verschafft, und historisch betrachtet könnte Geld auch über freihändige Vergaben an bestimmte Akteure fließen. Siehe dazu den Artikel: Sacramento Bee Editorial
    • Es gibt eine Whistleblower-Schutzklausel. Dadurch könnten illegale Handlungen aufgedeckt werden
    • Man kann sich auch jetzt schon auf dieselbe Weise schützen wie bei von Menschen begangenen IP-Verletzungen
    • Am Ende löst dieses Gesetz das reale Problem, Regierungsbeamten mehr Geld zu verschaffen
  • Ich habe eine Website gefunden, auf der man den eigentlichen Gesetzestext und Anmerkungen dazu sehen kann: https://sb53.info/
    • Wenn man sich die Definition von „AI-Modell“ ansieht, umfasst sie jedes maschinenbasierte System mit unterschiedlichem Autonomiegrad, das aus Eingaben Ausgaben ableitet und damit physische oder virtuelle Umgebungen beeinflussen kann. Das heißt, sogar ein einfacher Rasenmäher könnte darunterfallen, da es eine Beziehung zwischen Eingaben (Throttle, Kill Switch) und Ausgaben (rotierende Klinge) gibt. Die Definition von „kritischem Risiko“ besagt, dass ein Risiko vorliegt, das zum Tod oder zu schweren Verletzungen von 50 oder mehr Personen oder zu Schäden von mehr als 1 Milliarde Dollar führen könnte, und jedes Jahr verletzen sich allein durch Rasenmäher mehr Menschen als das
  • Wenn man den Gesetzentwurf selbst liest, wirkt er wie eine Begünstigung der „AI-Safety“-Industrie. Für Compliance-Zertifizierungen gibt es hohe Vergütungen
    • Bei den Big 4 Wirtschaftsprüfungsgesellschaften gibt es Boomer-Partner, die daran festhalten, die Beratungssparten nicht abzuspalten, und dieses AI-Gesetz wird für sie eine neue Einnahmequelle sein. Ich gehe besonders davon aus, dass deloitte diesmal stark profitieren wird
    • Die Person, die den obigen Kommentar geschrieben hat, arbeitet bei einem großen AI-Entwickler. Eine ablehnende Haltung gegenüber AI-Regulierung hängt eng mit dem eigenen Gehalt zusammen. Es gibt auch die Tendenz, „AI-Safety“ lächerlich zu machen. In vielen Teilen des Silicon Valley fehlt das Bewusstsein für eine Sicherheitskultur. Ineffiziente Regulierung ist ein Problem, aber man muss auch die Probleme bedenken, die entstehen, wenn es gar keine Regulierung gibt. Interne Missstände, Kickbacks und Absprachen in der Branche müssen ebenfalls klar benannt werden
  • Im Gesetz steht, dass bei vorsätzlichen Verstößen, die „Tod, schwere Verletzungen oder ein kritisches Risiko“ verursachen, beim ersten Verstoß 1 Million Dollar und danach bis zu 10 Millionen Dollar Bußgeld fällig werden. Bei nicht vorsätzlichen Verstößen (etwa Fehlern), die ein solches Risiko schaffen, gibt es kein Bußgeld. Es gibt nur Obergrenzen, keine Untergrenzen. Das heißt, auch 0 Dollar erfüllen die Klausel „bis zu 10 Millionen Dollar“
  • Selbst wenn 1 Milliarde Dollar Schaden verursacht wird, gibt es nur 10 Millionen Dollar Bußgeld? Dasselbe gilt bei „kritischen“ Schäden. Das ist meiner Meinung nach keine Regulierung. Selbst wenn OpenAI Ingenieuren 1 Million Dollar pro Jahr zahlt, haben Bußgelder von 10.000 Dollar oder auch 1 Million bzw. 10 Millionen Dollar überhaupt keine abschreckende Wirkung
  • Nach allem, was ich gelesen habe, ist dieses Gesetz bedeutungslos und zugleich ein Grund für Geoblocking gegenüber Kalifornien. Es tut übermäßig viel und gleichzeitig zu wenig. Es ist sowohl teuer als auch billig. Es ist ein Beispiel für Korruption und zugleich ein erster Schritt der AI-Regulierung. AI-Unternehmen könnten Kalifornien verlassen, oder aber wegen der niedrigen Regulierungsschwelle noch stärker dorthin kommen. Falls es irgendwo tatsächlich eine tiefergehende Diskussion dazu gibt, würde ich gern einen Link kennen
    • Alles ist möglich, und ich denke, es hängt davon ab, wie Regierung und Gerichte es tatsächlich auslegen und durchsetzen. Der Gesetzestext selbst ist so vage, dass er entweder zum Hammer werden oder überhaupt keine Wirkung haben kann
  • Meiner Meinung nach hätte das durch Bundesrecht vorab geregelt werden müssen. Aber die Definitionen in diesem Gesetz sind viel zu schlampig. Vor allem die Definition von „AI-Modell“ umfasst in der Praxis praktisch jede Maschine und jeden Algorithmus. Die Definition wirkt, als hätte man beim Schauen von Twilight Zone vorsorglich an den Fall gedacht, dass plötzlich ein Android mit Kuckucksuhr auftaucht
  • Ich war gespannt, wie Kalifornien AI definieren würde, und derzeit wirkt es eher wie ein Marketingbegriff. Hier wird es als nichtbiologisches System beschrieben, das Eingaben entgegennimmt und Ausgaben erzeugt
    • Zwei Reaktionen auf diesen Kommentar sind interessant: „Es gibt keine tatsächliche Technologie, auf die diese Definition passt“ und „Also meine Kaffeemaschine?“
    • Ich sehe das anders als dieser Kommentar. Es gibt keine reale Technologie, die dieser Definition entspricht. AI kann aus Eingaben nichts „schlussfolgern“. Dasselbe ist im Übrigen auch für Menschen nicht bewiesen
    • Dann fällt also auch meine Kaffeemaschine darunter
  • Das ist im Grunde nur „Zensur mit zusätzlichen Verfahrensschritten“. Nach den Anforderungen des Gesetzes müssen Unternehmen dokumentieren, wie sie Risiken mindern und Sicherheitsprotokolle umsetzen, während der Staat definiert, was riskant ist, und private Akteure daraufhin Filtersysteme aufbauen müssen. Das ist eine präventive Zensur, die dem ersten Verfassungszusatz der USA widerspricht. Der Supreme Court hat bereits klar gemacht, dass nur direkte Aufforderungen zu Gewalttaten (Brandenburg-Präzedenzfall) und eng begrenzte Ausnahmen (Kinderpornografie, glaubhafte Drohungen) zulässig sind. Nur weil die Technologie neu ist, sollte der Staat nicht das Recht haben, neue Kategorien riskanter Rede zu schaffen. Wenn AI Informationen auf Expertenniveau über Waffendesign oder Beihilfe zu Straftaten liefert, muss dies der Regierung gemeldet werden und es müssen auch Gegenmaßnahmen bereitgestellt werden. Heute ist es „kritisches Risiko“, morgen vielleicht „Desinformation“, „Hassrede“ usw. Sobald der Staat unter dem Vorwand der Sicherheit Inhaltsbeschränkungen erzwingt, verliert er seine logische Legitimation
    • Nach 18 USC § 842 ist es bereits eine Straftat, Informationen wie Anleitungen zum Bau von Sprengstoffen bereitzustellen, wenn sie für Verbrechen verwendet werden sollen. Hier wird ein Gleichgewicht zwischen Meinungsfreiheit und der Wahrscheinlichkeit tatsächlichen Schadens hergestellt. AI ist kein Träger von Meinungsfreiheit, daher kann der Staat sie regulieren. Zu behaupten, die Verpflichtung von Unternehmen zur Filterung von AI-Ausgaben sei präventive Zensur, setzt voraus, dass Unternehmen die „Rede“ der AI nicht kontrollieren könnten. Diese Logik trägt nicht. Ein Generator für beliebig kombinierte Sätze ist nicht geschützt, nur weil er auf meinem Online-Hosting läuft. Die Logik der Meinungsfreiheit auf AI-Zensur anzuwenden, ist nicht passend
    • LLMs haben keine Rechte. LLMs sind Werkzeuge, und der Staat kann Werkzeuge regulieren. Wenn man will, kann auch ein Mensch direkt auf dem Unternehmensblog Anleitungen zum Waffenbau veröffentlichen
    • „Heute kritisches Risiko, morgen Desinformation, Hassrede usw.“ Genau das ist das Problem. Ich sorge mich weniger um kritische Risiken als um alltägliche Risiken. Selbst wenn ein LLM schädliche Informationen liefert, ist das letztlich nur eine Zusammenfassung von Inhalten, die ohnehin bereits online verfügbar sind. Die US-Gesellschaft ist voller Hassrede, aber auch das ist kein neues Problem. Das eigentliche Problem ist vielmehr „Desinformation“. Große LLMs lesen das Internet und verleihen Informationen einen Autoritätsanstrich, sodass die Macht von Google oder MS auf ungeprüfte Informationen übertragen wird. Ein guter Ansatz wäre, wenn LLMs in der Form „Y hat behauptet, dass X“ informieren. Das Thema „Sicherheit“ ist meistens nur eine Frage des Blockierens von Adult-Content, und ich halte das im Zeitalter von Pornhub ohnehin nicht für besonders bedeutend. Das Thema, das wirklich diskutiert werden muss, ist die Bereitstellung kundenspezifischer Dienste zu kommerziellen Zwecken, um Kunden durch AI zu täuschen oder ihnen auszuweichen. Das muss aus Sicht der Verbraucherrechte behandelt werden. Ein weiteres Problem ist, wenn AI als mein Vorgesetzter fungiert, zum Beispiel bei Uber
    • Wenn man die Entwicklung der sozialen Medien in den letzten 15 Jahren betrachtet, ist die Lehre, dass schnelle Risikobewertung und Reaktion viel zu spät kamen. Soziale Medien haben bereits politischen Einfluss aufgebaut und befinden sich inzwischen in einem Zustand, in dem echte Regulierung fast unmöglich ist. Ich hoffe, dass wir bei generativer AI nicht denselben Fehler wiederholen