Das Ende der Frontier
(tanyaverma.sh)- Anlässlich der Ankündigung von Anthropic Mythos ist das Internet kein erlaubnisfreier Raum für Kreativität mehr, den alle frei erkunden können
- Arbeit und Intelligenz werden durch Kapital ersetzt, wodurch sich eine Struktur verfestigt, in der wenige Unternehmen einen dauerhaften Vorsprung im KI-Zeitalter halten
- Geschlossene Modellpolitik und eingeschränkter API-Zugang werden mit Sicherheit begründet, führen aber zugleich dazu, dass Innovation und Sicherheitsforschung gleichzeitig gebremst werden
- Das Grundprinzip beim Zugang zu Intelligenz sollte „Access First“ sein, und Unternehmen müssen transparente Verfahren und Auditierbarkeit sicherstellen
- Es wird vor einer kolonialen Struktur der Wertabschöpfung gewarnt, in der wenige Unternehmen Modelle monopolisieren, die mit den Daten der gesamten Menschheit trainiert wurden, und die Offenheit und Kreativität des Internets müssen bewahrt werden
Das Ende der Frontier
- Anlässlich der Ankündigung von Anthropic Mythos ist das Internet kein erlaubnisfreier Raum mehr, den alle frei erkunden und in dem alle frei schaffen können
- Früher konnte jeder auch ohne Kapital oder Beziehungen auf dieselbe technische Infrastruktur des Internets zugreifen, doch inzwischen wächst die Kluft zwischen offenen und geschlossenen Modellen
- Das wird als Ende der Chancen beschrieben, vergleichbar mit dem „Verschwinden der Frontier“ in der amerikanischen Pionierzeit
- Die Struktur, in der Arbeit und Intelligenz durch Kapital ersetzt werden, verschärft sich weiter, und kapitalstarke Gruppen sichern sich einen dauerhaften Vorsprung im KI-Zeitalter
- Rudolf Laine beschrieb dies als eine „Ära, in der Kapital in übermenschliche Arbeit umgewandelt wird“, George Hotz nannte es „Neofeudalismus (neofeudalism)“
- Die Warnung lautet: Wenn eine winzige Zahl von Unternehmen Intelligenz selbst monopolisiert, könnten alle anderen dauerhaft in eine untere Klasse gedrängt werden
- Anthropics geschlossene Mythos-Politik wird nicht als bloße Sicherheitsmaßnahme gesehen, sondern als Struktur kritisiert, in der private Unternehmen Fähigkeiten auf Staatsniveau monopolisieren
- Anthropic kündigte gemeinsam mit AWS, Apple, Google und anderen Project Glasswing an, gewährte den Zugang jedoch ohne allgemeine Veröffentlichung nur Unternehmenspartnern
- Dadurch steigen bei Sicherheitsvorfällen oder Informationslecks die Risiken, und es entsteht eine undemokratische Situation, in der Fähigkeiten auf Staatsniveau bei Privatunternehmen konzentriert werden
- Eingeschränkter API-Zugang hilft zwar gegen Missbrauch, hemmt aber zugleich Innovation und Sicherheitsforschung
- Offener Zugang legt die potenziellen Fähigkeiten eines Modells offen und ermöglicht in realen Umgebungen ein „schnelles Scheitern und Korrigieren“
- Wie schon die Einführung von Fuzzer-Tools (American Fuzzy Lop) zu mehr Sicherheit beitrug, könnte auch ein breiterer Zugang zu Frontier-Modellen die Sicherheitskompetenz stärken
- Derzeit können KI-Sicherheitsforscher jedoch nicht auf große Modelle zugreifen und verwenden deshalb überwiegend chinesische Open-Source-Modelle
- Das Grundprinzip beim Zugang zu Intelligenz sollte „Access First“ sein; Sicherheitsmechanismen sollten erst darauf aufbauen
- Unternehmen mit Fähigkeiten auf Regierungsebene müssen faire Verfahren und transparente Kriterien schaffen; bei Zugangsbeschränkungen sind klare Begründungen erforderlich
- Der Entzug des Zugangs zu Frontier-Modellen wirkt als soziale Ausgrenzung, ähnlich wie ein „unbanked“-Status
- Es wird eine Audit-Pflicht auf dem Niveau von FOIA (Freedom of Information Act) gefordert
- Dass wenige Unternehmen Modelle monopolisieren, die mit den Daten der gesamten Menschheit trainiert wurden, ähnelt einer kolonialen Struktur der Wertabschöpfung
- Bei den vielen Datenlieferanten wird Wert ohne Zustimmung abgeschöpft, während sich die Gewinne in internen Netzwerken konzentrieren
- Anschließend wiederholt sich das Muster, über UBI oder wohltätige Spenden moralische Legitimation herzustellen
- Selbst wenn die Absicht nicht böswillig ist, bleibt das strukturelle Problem der Machtkonzentration dasselbe
- Es wird auch Hoffnung auf die Personalisierbarkeit von KI formuliert
- Das heutige geschlossene KI-Zeitalter könnte nur der Mainframe-Ära entsprechen, und ein Übergang zum Zeitalter des Personal Computing (Apple II) ist möglich
- Open-Source-Modelle holen die Frontier bereits mit einem Abstand von 3 bis 12 Monaten ein; wenn sich Chip- und Energieversorgung ausweiten, könnte ein Zeitalter „so günstiger Intelligenz, dass sie kaum noch messbar ist“ anbrechen
-
Die Freiheit von „Wired“ darf nicht verloren gehen
- So wie Städte aus Sicherheitsgründen alte Bäume fällen, besteht die Gefahr, durch überzogene Sicherheitslogik die Offenheit und Kreativität des Internets zu verlieren
- Das Internet ist noch immer der letzte Raum für individuell getriebene Kreativität und Erkundung, und es ist wichtig, ihn zu bewahren
13 Kommentare
Wirkt wie Marketing-Übertreibung. Jedes Mal, wenn ein neues Modell erscheint, heißt es wieder, es sei das beste aller Zeiten, das Ende des menschlichen Zeitalters, Coding sei vorbei und man müsse jetzt Klempner werden, und so weiter — an originellen Übertreibungsslogans mangelte es nie. In der Praxis gab es dann aber Probleme, und noch wichtiger ist: Die meisten Menschen bleiben eher auf dem Niveau, eine fortgeschrittene Suchmaschine zu benutzen, und können deshalb nicht 100 % der Leistung starker Modelle ausschöpfen. Der Flaschenhals im LLM-Zeitalter ist weder Code noch Infrastruktur, sondern paradoxerweise das geringe Verständnis der breiten Öffentlichkeit für Informationssysteme, wenn sie Prompts abschickt.
Wenn man sich anschaut, wie derzeit 31B-Modelle freigegeben werden, ist das schon enorm ... Ich glaube, im Moment gibt es noch ein wenig Hoffnung.
Hacker-News-Kommentare
Ich finde, dass es viel zu früh ist, schon eine Woche nach der Ankündigung solche Diskussionen zu führen
Die Aussage „Dieses Modell ist zu leistungsfähig für die Öffentlichkeit“ klingt wie ein Marketing-Slogan
In ein paar Monaten wird man am Ende wieder ein anderes Modell verkaufen, und danach heißt es dann wohl: „Das neue Modell ist zu leistungsfähig, um veröffentlicht zu werden“
Mythos soll zu langsam für interaktives Coding sein. Wenn Ergebnisse erst über Nacht kommen, haben die meisten Nutzer keinen wirklichen Grund, es zu verwenden
AI-Labore schreiben weiterhin Verluste, und um Mythos bereitzustellen, müsste ein deutlich höherer Preis verlangt werden. Wenn die meisten Kunden den Unterschied gar nicht spüren, ergibt das wirtschaftlich keinen Sinn
Vielleicht wollte Anthropic auch den größeren Zugang zu Trainings-Rechenzentren im Vergleich zu OpenAI ausnutzen. Aber was jetzt gebraucht wird, ist kein klügeres Modell, sondern ein kleines, günstiges und dennoch ausreichend gutes Modell
Bei Mythos scheint es kaum anders zu sein als damals
Diejenigen, die die AI-Entwicklung verlangsamen wollten, haben diese Erzählung selbst verbreitet und damit Aufmerksamkeit erzeugt, was letztlich zur Verbreitung von AI beigetragen hat
Es gab um 2011 auch eine interessante Studie zu diesem Phänomen; ich erinnere mich an den Fall der schwedischen Marke Cheap Monday
Offenbar glaubt man dort, dass die Beschränkung des Zugangs der Kern von Sicherheit ist
Wenn diese Haltung aber dazu führt, dass nur wenige profitieren und die Mehrheit ausgeschlossen wird, dann sollte die Öffentlichkeit beurteilen, ob das legitim ist
Wenn solche Funktionen über eine öffentliche API freigegeben würden, wäre das Missbrauchspotenzial groß
Es gibt bereits viele Fälle von groß angelegtem Betrug oder Deepfakes mit Hilfe von AI
Wenn man Open-Source-Code den Auftrag gibt, „finde alle möglichen Schwachstellen“, und dabei viel mehr Ergebnisse herauskommen als bei bisherigen Modellen, dann ist eine begrenzte Freigabe eine vernünftige Entscheidung
Dass Anthropic nur Sicherheitsunternehmen wie Crowdstrike, Cisco und Microsoft Zugang gegeben hat, ist nachvollziehbar
Wenn das Ziel von Glasswing darin besteht, die Infrastruktursicherheit zu stärken, wäre es seltsam, ihnen den Zugang gerade deshalb zu verwehren, weil es Sicherheitsvorfälle gab
Mythos wird vielleicht irgendwann veröffentlicht, aber diese eingeschränkte Freigabe wirkt wie eine Vorbereitungsphase für eine sichere Veröffentlichung
Bei NVIDIA arbeitet man an Nemotron, um solche Bedenken zu adressieren
Nemotron ist ein Modell, das nicht nur offene Gewichte, sondern auch offene Daten und offene Rezepte veröffentlicht
Ziel ist es, dass mehrere Institutionen gemeinsam offene AI entwickeln
Nemotron 3 Super ist derzeit am erfolgreichsten, und bald sollen Ultra und Nemotron 4 folgen
Da mit dem Wachstum von AI auch die Chancen für NVIDIA steigen, ist das eine mögliche Strategie
Verwandter Link
Die Aussage, dass „selbst 16-Jährige ohne Kapital etwas erschaffen konnten“, ist heute eher noch wahrer
Dass Anthropic Mythos nicht veröffentlichen kann, liegt an mangelnden Rechenressourcen
OpenAI wird dieses und nächstes Jahr deutlich mehr Computing Power sichern können
Ich stimme der Meinung zu, dass es „zu früh“ ist, insofern Mythos sich nicht stark von anderen Modellen unterscheidet
Allerdings scheint der von AI-Kritikern vertretene Deutungsrahmen, „Großunternehmen hätten die Gesellschaft ausgeplündert“, auf einem Missverständnis des Begriffs geistiges Eigentum zu beruhen
Statt Mythos zu verstecken, sollte Anthropic es besser als Service für Sicherheitsprüfungen in Unternehmen nutzen
Ein Dienst, der mit dem Modell Infrastruktur angreift, um Schwachstellen zu finden, wäre auch finanziell attraktiv
Wenn zum Beispiel der Maintainer eines populären npm-Pakets dringend Geld braucht, Anthropic bittet, seine Bibliothek mit Mythos zu prüfen, und sie einen Monat später gehackt wird, wäre das ein großes Problem
Die Metapher mit dem Stromnetz fand ich eindrucksvoll
Einzelne können wie bei Solarstrom selbst Energie erzeugen, aber die meisten zahlen öffentliche Versorgungsgebühren und nutzen Strom
Genauso sollte auch der Zugang zu Intelligenz grundsätzlich für alle offen sein
Gefährliche Nutzung kann durch Schutzmechanismen begrenzt werden, aber die Standardeinstellung sollte Zugang erlauben sein
Die Menschheit erliegt immer wieder der Versuchung, „monströse Technologien“ zu unverzichtbaren Gütern zu machen
Aber solche Monster lassen sich nicht lange einsperren. Am Ende geraten sie außer Kontrolle
Die Chancen der amerikanischen Pionierzeit waren ein Ausnahmephänomen
In Phasen schneller Expansion konnten Einzelne aufsteigen, aber in Zeiten der Stagnation überwältigen Unternehmen den Einzelnen
Mit der Beschleunigung des technischen Fortschritts erreichen Einzelne zunehmend ein Niveau, auf dem sie die Welt zerstören könnten
Wie bei Atomwaffen ist nun auch bei AI der Punkt erreicht, an dem der individuelle Zugang begrenzt werden muss
Um erfolgreich zu sein, braucht es einen Dienst mit Verbindungen zu Prominenten
Die Konkurrenz zieht sowieso alle nach, lol. „Na dann, kämpft mal.“
Aber das ist doch kein neues Konzept, oder?
Im Finanzsektor gibt es auch einen Finanzhub, der über den Gesetzen aller Staaten steht, und von dort aus werden alle Finanzsysteme kontrolliert.
In der IT wird jetzt wohl ebenfalls so ein IT-Hub geschaffen, über den sich IT-Unternehmen gegenseitig abstimmen und sich damit allen Staaten entgegenstellen.
Und wenn man sich die Leistung von Claude ansieht, versteht man das.
Meinen Sie mit Finanzhub eine bestimmte Gruppe wie etwa jüdische Netzwerke oder eher bloße Vermittlungshubs wie Hongkong und Singapur?
Strukturen wie SWIFT oder Zahlungs-Clearing liegen faktisch in den Händen der Großmächte.
Statt ihnen entgegenzuwirken, werden sie eher als Werkzeug der Mächtigen genutzt.
Wenn ich es in diesem Sinne betrachte, wirkt es auf mich auch bei diesem Artikel nur umso naheliegender, dass er letztlich zum Werkzeug der Mächtigen wird.
Es wirkt noch ein wenig so, als sei das Marketing weiterhin ziemlich stark.
Stimmt schon: Wenn ein Modell mit extrem unbegrenzten Fähigkeiten entwickelt würde, gäbe es vermutlich keinen Grund, es zu veröffentlichen. Es könnte schließlich selbst mehr Mehrwert schaffen, als seine Nutzungsgebühren einbringen würden ...
Wenn man eine ordentliche Offenlegung erzwingen würde, könnte das paradoxerweise sogar dazu führen, dass Arbeit und Intelligenz ersetzt werden und damit ein Kommunismus Realität wird, der in der Geschichte nie auch nur ein einziges Mal existieren konnte.
Das ist ein guter Text, der auf einen Aspekt hinweist, an den ich nicht gedacht hatte. Vielen Dank!
Wenn man sich etwas wie GLM5.1 ansieht, hatte ich den Eindruck, dass Open Models kostenpflichtigen geschlossenen Modellen auch dann stetig folgen können, wenn mit etwas Abstand.
Es wirkt wie etwas, das absehbar war ... eine Ära, in der Technologie zur Magie wird und eine kleine Zahl von Magiern alles monopolisiert ..
Anthropic hat B2B erfunden?