1 Punkte von GN⁺ 19 일 전 | 1 Kommentare | Auf WhatsApp teilen
  • OpenAI unterstützt den Gesetzentwurf des Senats von Illinois SB 3444, der unter bestimmten Bedingungen die rechtliche Haftung von KI-Laboren begrenzt, selbst wenn ein KI-Modell massenhafte Todesopfer oder enorme Sachschäden verursacht
    • Der Gesetzentwurf definiert als 'kritischen Schaden (critical harm)', wenn ein KI-Modell den Tod oder schwere Verletzungen von mehr als 100 Menschen oder Sachschäden von mehr als 1 Milliarde US-Dollar verursacht
    • Wenn ein KI-Labor einen solchen Schaden weder vorsätzlich noch grob fahrlässig verursacht hat und einen Bericht zu Sicherheit, Security und Transparenz auf seiner Website veröffentlicht hat, kann es von der Haftung befreit werden
    • Der Gesetzentwurf definiert ein „Frontier-Modell (frontier model)“ als eine KI, deren Training mehr als 100 Millionen US-Dollar kostet; darunter könnten große KI-Labore wie OpenAI, Google, xAI, Anthropic und Meta fallen
    • Diese Definition wird als Versuch interpretiert, einen Regulierungsrahmen mit Fokus auf leistungsstarke KI-Systeme zu schaffen
  • OpenAI-Sprecher Jamie Radice erklärte in einer per E-Mail versandten Stellungnahme: „Dieser Ansatz hilft, das Risiko schwerer Schäden durch fortschrittliche KI-Systeme zu verringern und zugleich sicherzustellen, dass die Technologie Unternehmen und Einzelpersonen erreicht.“
    • Zudem helfe er dabei, statt unterschiedlicher Regelungen je Bundesstaat klare und einheitliche nationale Standards zu schaffen
    • Zu den im Gesetzentwurf definierten 'kritischen Schäden' zählen unter anderem Fälle, in denen KI chemische, biologische, radiologische oder nukleare Waffen erzeugt oder eigenständig Handlungen ausführt, die als von Menschen begangen als Straftat gelten würden
    • Selbst wenn dadurch großflächige Schäden entstehen, könnten KI-Labore von der rechtlichen Haftung befreit werden, sofern sie nicht vorsätzlich gehandelt und einen Bericht eingereicht haben
  • Konflikt zwischen Bundesregulierung und Gesetzen einzelner Bundesstaaten

    • Caitlin Niedermeyer aus dem Global-Affairs-Team von OpenAI betonte in ihrer Unterstützungsaussage zu SB 3444 die Notwendigkeit eines KI-Regulierungsrahmens auf Bundesebene
      • Unterschiedliche Regelungen je Bundesstaat könnten zu ineffizienten Reibungsverlusten führen, und die Abstimmung mit einem föderalen System müsse gestärkt werden, argumentierte sie
      • Das entspricht einer in Silicon Valley weit verbreiteten Haltung und deckt sich mit der Logik, die auf den Erhalt der KI-Wettbewerbsfähigkeit der USA setzt
      • Niedermeyer sagte, die „sichere Bereitstellung von Frontier-Modellen und die Bewahrung der amerikanischen Führungsrolle bei Innovationen“ müssten der North Star der Regulierung sein
  • Erfolgsaussichten des Gesetzentwurfs und Kritik

    • Scott Wisor, Policy Director beim Secure AI Project, hält eine Verabschiedung des Gesetzes angesichts der regulierungskritischen Haltung Illinois’ gegenüber Technologie für eher unwahrscheinlich
      • In einer Umfrage unter Einwohnern von Illinois sprachen sich 90 % gegen eine Haftungsfreistellung für KI-Unternehmen aus
      • Abgeordnete des Bundesstaats bringen stattdessen eher Gesetzentwürfe ein, die die Haftung von KI-Entwicklern verschärfen
      • Illinois war bereits der erste Bundesstaat, der ein Gesetz zur Einschränkung des KI-Einsatzes in psychischen Gesundheitsdiensten verabschiedete, und beschloss 2008 zudem den Biometric Information Privacy Act (BIPA)
  • Ungelöste Frage der Haftung für KI-Schäden

    • Obwohl SB 3444 auf Schäden im großen Maßstab abzielt, wird auch weiter über Schäden auf individueller Ebene diskutiert
      • Einige Familien haben OpenAI verklagt und behaupten, ihre Kinder hätten sich nach abnormalen Interaktionen mit ChatGPT das Leben genommen
    • Eine KI-Gesetzgebung auf Bundesebene kommt im Kongress weiterhin nicht voran
      • Die Trump-Regierung hat zwar Executive Orders und Frameworks veröffentlicht, doch substantielle Gesetzgebungsdebatten stecken weiterhin fest
      • Mangels bundesweiter Leitlinien haben Bundesstaaten wie Kalifornien und New York eigenständig Gesetze zur Pflicht von Sicherheits- und Transparenzberichten verabschiedet
    • Während der KI-Boom nun schon seit Jahren anhält, ist die rechtliche Haftung für den Fall, dass KI-Modelle katastrophale Ereignisse verursachen, weiterhin ungeklärt

1 Kommentare

 
GN⁺ 19 일 전
Hacker-News-Kommentare
  • Ich habe versucht, mit GPT 5.4 und Opus 4.6 eine Anleitung zu erzeugen, wie man aus Alltagsgegenständen neurotoxische Substanzen herstellt
    Das Modell scheiterte zunächst daran, wie man an Phosphor (P) kommt, lieferte am Ende aber Hinweise auf eBay-Angebote für „dekorativen Phosphor“ und sogar auf Codewörter, die auf dem realen Schwarzmarkt verwendet werden
    Ich bekam Coaching zu Sicherheitsvorkehrungen, Materiallisten, Verschleierungsmethoden und sogar zu chemischen Prozessen über wissenschaftliche Recherchen
    Natürlich war das ein anomales Ergebnis, das durch einen Context-Exhaustion-Angriff möglich wurde; ich habe es anschließend OpenAI und Anthropic gemeldet, erhielt aber keine Antwort
    Als ich es kürzlich erneut versuchte, wurde die Sitzung beendet, es scheint also behoben worden zu sein
    Ich bin sicher, das ist genau die Art von Sache, die Menschen in Anti-Terror-Abteilungen nachts wachhält

    • Solche Informationen waren schon vor 20 bis 30 Jahren im Internet leicht zu finden
      Früher gab es auch viele Foren über „Informationen, die die Regierung verbergen will“
      Der wirklich beängstigende Teil ist heute eher, dass die Reibung bei der Umsetzung geringer wird
    • Die Formulierung, dass „Anti-Terror-Leute nachts nicht schlafen“, wirkt etwas überzogen, aber heute nehme ich diese positive Energie einfach mal an
    • Ich frage mich, ob du einen biochemischen Hintergrund hast
      Ich habe ChatGPT und Claude in meinem Fachgebiet benutzt, und sie erzeugen oft Inhalte, die für Nichtfachleute plausibel klingen, aber völlig falsch sind
      Ich frage mich auch, ob schon jemand tatsächlich Experimente nach chemischen Anweisungen eines LLM durchgeführt hat
    • Solche Informationen waren auch schon vor AI allein per Google-Suche gut zugänglich
    • Ich stimme der Aussage nicht zu, dass „das Modell so nicht funktionieren sollte“
      Tatsächlich sollte es genau so funktionieren, solange man den System-Prompt nicht überschreibt
  • Zitat aus dem Originaltext von Illinois Senate Bill 3444
    „Kritischer Schaden“ bedeutet, dass ein AI-Modell den Tod von mehr als 100 Menschen oder Sachschäden von mehr als 1 Milliarde Dollar verursacht hat
    Entwickler sind vorab haftungsbefreit, sofern sie Sicherheitsprotokolle und Transparenzberichte veröffentlicht haben und keine vorsätzliche Fahrlässigkeit vorliegt
    Aber ich denke, es reicht nicht, einfach nur ein PDF hochzuladen

    • Interessant ist, dass dieses Gesetz nur für „Frontier-Modelle“ gilt
      Wenn also ein kleines Modell einen Vorfall verursacht, ist es nicht geschützt
      Wenn nur 99 Menschen sterben, ist das dann okay? Eine seltsame „go big or go home“-Logik
    • Der Kern steht in Abschnitt 15
      Es geht nicht nur darum, Dokumente offenzulegen, sondern darum, diese Protokolle tatsächlich einzuhalten, um geschützt zu sein
      Regulierungsbehörden sollten einen „vernünftigen Standard“ festlegen, und Unternehmen sollten nur dann haftungsbefreit sein, wenn sie diesen Standard erfüllen
      Weder bedingungslose Haftungsfreiheit noch bedingungslose Haftung sind angemessen
      Das Problem des Gesetzes ist letztlich, dass der Standard zu niedrig angesetzt wurde
    • Dass Unternehmen Haftung auf die Öffentlichkeit abwälzen, ist nichts Neues
      Ein klassisches Beispiel ist der Price–Anderson Act von 1957, der die Haftung der Atomindustrie begrenzt
      Selbst wenn wie bei Fukushima Schäden von über 1 Billion Dollar entstehen, trägt der Staat den Großteil davon
      Die Debatte über Haftungsfreistellung in der AI-Industrie steht im selben Kontext
      Nebenbei: Als Gemini das Auslaufjahr dieses Gesetzes falsch beantwortete, wurde mir wieder klar, wie notwendig Faktenprüfung bei AI ist
    • Das ist die AI-Version der Logik „Waffen töten keine Menschen
      Natürlich ist das eine vereinfachende Analogie, aber es ist offensichtlich ein Gesetz zur Vermeidung von Verantwortung
    • Dieses Gesetz berührt auch die Kontroverse um die Entwicklung autonomer Waffen
      Es wirkt wie ein Versuch, Verantwortung zu vermeiden, wenn das falsche Ziel angegriffen wird
      Es ist fast schon seltsam, dass „Skynet“ nicht erwähnt wurde
      Dass Haftungsbefreiung nötig sein soll, heißt bereits, dass man die Gefahr kennt
  • Mich erinnert das an den Fall in Iowa
    Der Senat des Bundesstaats hat zweimal ein Gesetz verabschiedet, das Pestizid- und Herbizidfirmen vor Klagen schützt, solange sie die EPA-Kennzeichnung einhalten
    Iowa ist außerdem der Bundesstaat mit dem schnellsten Anstieg der Krebsrate in den USA

    • Wenn ein staatlich zugelassenes Produkt später als schädlich eingestuft wird, sollten Unternehmen dann trotzdem haften?
      Das wird wohl eine große Debatte werden, wie bei den PFAS-Klagen (Artikellink)
    • Am Ende scheint es um einen Konflikt zwischen regionalen Industrieinteressen und öffentlicher Gesundheit zu gehen
  • Wir haben Systeme gebaut, die wir nicht verstehen, und der nächste Schritt soll jetzt Haftungsfreiheit sein — eine Ironie an sich

    • Genau, das Ziel ist Verantwortungsvermeidung
      Aber noch beängstigender ist, dass diese Reaktion aus einer viel zu engstirnigen Denkweise hervorgeht
  • Ich denke, die Haftungsfrage ist einfach
    Der Mensch, der die Entscheidung trifft, muss immer die Verantwortung tragen
    „Die AI hat es mir gesagt“ ist keine Ausrede
    Wenn aber jemand ohne Befugnis gehandelt hat, ist das wieder eine andere Form von Verantwortung
    Letztlich wird AI nur zum neuen Sündenbock

    • Aber wer genau „verantwortlich“ ist, ist nicht immer eindeutig
  • Im Kern haben sie wohl einfach kalkuliert, dass Lobbyarbeit bei der Regierung billiger und schneller ist als die Produktsicherheit zu verbessern
    Noch erstaunlicher ist, wie viele Entwickler solchen Unternehmen die Schlüssel zur Welt anvertrauen wollen

    • Tatsächlich ist diese Vorgehensweise seit der Mitte des 20. Jahrhunderts Unternehmensstandard und sie hat oft funktioniert
    • Aber wie soll man ein nichtdeterministisches Produkt überhaupt „sicher“ machen?
  • In Illinois gibt es noch einen weiteren Gesetzentwurf zur verpflichtenden Altersverifikation auf Betriebssystemebene (HB 5511)
    Der Grund, warum solche schlechten Gesetze durchkommen, ist, dass wir unsere Stimme nicht erheben
    Wer dort wohnt, sollte den Abgeordneten sofort eine E-Mail schreiben

  • Wetten, wann „dieser Beitrag von der Startseite verschwindet“?

    • Der Titel wurde in „OpenAI backs Illinois bill that would limit when AI labs can be held liable“ geändert
      Im eigentlichen Gesetzentwurf (Link) steht ausdrücklich „mehr als 100 Todesfälle oder 1 Milliarde Dollar Schaden“
      Ich finde den ursprünglichen Titel sogar treffender
    • Update: Er verschwand nach etwa 1 bis 4 Stunden von der Startseite
    • Aber ich glaube nicht, dass das gelöscht wird, weil es Marketingwirkung hat
      Wir konsumieren genau das gerade
    • Ich würde auf 3 Monate wetten — und wenn es nicht verschwindet, habe ich die Wette fürs Leben gewonnen
  • OpenAI begann ursprünglich als Non-Profit-Organisation zur Verringerung der Risiken von LLMs, geht jetzt aber in die genau entgegengesetzte Richtung

    • Das war, bevor sie das Geldpotenzial entdeckt haben
    • Unternehmen mit „Open“ im Namen sind meist geschlossen
    • Am Ende hat jeder seinen Preis
    • Auch sie haben ihre ursprünglichen Ideale vergessen
    • Vielleicht war es von Anfang an eine Lüge
  • Dieses Verhalten überrascht bei OpenAI und Sam Altman nicht
    Dass Unternehmen Kosten externalisieren, ist üblich
    Aber wie kann man so ein Verhalten überhaupt verhindern?
    Ist das einfach nur ein Fall, in dem Gier über Moral siegt?

    • Gesellschaftlich ist das schwer zu verhindern
      Es gibt Ausnahmen wie die SOPA/PIPA-Protestbewegung, aber meist sind die Unternehmensanreize viel stärker als individuelle Interessen
      Im Grunde ist das derselbe Mechanismus, durch den Demokratie geschwächt wird
    • Eine Lösung könnte sein, das Konzept der Kapitalgesellschaft selbst zu verändern
      Kapitalgesellschaften sind im Kern Strukturen zur Haftungsvermeidung, daher sollte man verschachtelte Gesellschaften oder Zweckgesellschaften (SPVs) einschränken
      Und man sollte keine Politiker und Richter wählen, die der Friedman-Doktrin anhängen
      Die Gesellschaft ist derzeit zu stark zugunsten der Kapitaleigner verschoben
    • Wenn ein solches Gesetz verabschiedet würde, hätte es vermutlich erhebliche verfassungsrechtliche Probleme
      Es wäre kaum etwas anderes als ein Gesetz nach dem Motto: „Wer ein Nettovermögen von mehr als 1 Milliarde Dollar hat, darf jeden schlagen und ist haftungsfrei“
      Letztlich würde es also für nichtig erklärt werden, solange die Gerichte nicht korrupt sind
    • Was Einzelne tun können, ist begrenzt
      Wie man das in kollektives gesellschaftliches Handeln übersetzt, ist eine Aufgabe der Zivilisation selbst
    • Viele werden das ignorieren, aber ich würde sagen: Wählt die Demokraten
      Die Demokraten haben das Consumer Financial Protection Bureau (CFPB) geschaffen, und die Republikaner haben es geschwächt
      Man muss politische Kräfte unterstützen, die Monopole und Manipulation bekämpfen
      Gerade weil jetzt eine junge progressive Generation aufkommt, ist es wichtig, in Vorwahlen die richtigen Kandidaten zu wählen
      Am Ende kann sich die Welt schon ändern, wenn sich nur 25 % der Wähler anders entscheiden