9 Punkte von GN⁺ 17 일 전 | 13 Kommentare | Auf WhatsApp teilen
  • Anlässlich der Ankündigung von Anthropic Mythos ist das Internet kein erlaubnisfreier Raum für Kreativität mehr, den alle frei erkunden können
  • Arbeit und Intelligenz werden durch Kapital ersetzt, wodurch sich eine Struktur verfestigt, in der wenige Unternehmen einen dauerhaften Vorsprung im KI-Zeitalter halten
  • Geschlossene Modellpolitik und eingeschränkter API-Zugang werden mit Sicherheit begründet, führen aber zugleich dazu, dass Innovation und Sicherheitsforschung gleichzeitig gebremst werden
  • Das Grundprinzip beim Zugang zu Intelligenz sollte „Access First“ sein, und Unternehmen müssen transparente Verfahren und Auditierbarkeit sicherstellen
  • Es wird vor einer kolonialen Struktur der Wertabschöpfung gewarnt, in der wenige Unternehmen Modelle monopolisieren, die mit den Daten der gesamten Menschheit trainiert wurden, und die Offenheit und Kreativität des Internets müssen bewahrt werden

Das Ende der Frontier

  • Anlässlich der Ankündigung von Anthropic Mythos ist das Internet kein erlaubnisfreier Raum mehr, den alle frei erkunden und in dem alle frei schaffen können
    • Früher konnte jeder auch ohne Kapital oder Beziehungen auf dieselbe technische Infrastruktur des Internets zugreifen, doch inzwischen wächst die Kluft zwischen offenen und geschlossenen Modellen
    • Das wird als Ende der Chancen beschrieben, vergleichbar mit dem „Verschwinden der Frontier“ in der amerikanischen Pionierzeit
  • Die Struktur, in der Arbeit und Intelligenz durch Kapital ersetzt werden, verschärft sich weiter, und kapitalstarke Gruppen sichern sich einen dauerhaften Vorsprung im KI-Zeitalter
    • Rudolf Laine beschrieb dies als eine „Ära, in der Kapital in übermenschliche Arbeit umgewandelt wird“, George Hotz nannte es „Neofeudalismus (neofeudalism)“
    • Die Warnung lautet: Wenn eine winzige Zahl von Unternehmen Intelligenz selbst monopolisiert, könnten alle anderen dauerhaft in eine untere Klasse gedrängt werden
  • Anthropics geschlossene Mythos-Politik wird nicht als bloße Sicherheitsmaßnahme gesehen, sondern als Struktur kritisiert, in der private Unternehmen Fähigkeiten auf Staatsniveau monopolisieren
    • Anthropic kündigte gemeinsam mit AWS, Apple, Google und anderen Project Glasswing an, gewährte den Zugang jedoch ohne allgemeine Veröffentlichung nur Unternehmenspartnern
    • Dadurch steigen bei Sicherheitsvorfällen oder Informationslecks die Risiken, und es entsteht eine undemokratische Situation, in der Fähigkeiten auf Staatsniveau bei Privatunternehmen konzentriert werden
  • Eingeschränkter API-Zugang hilft zwar gegen Missbrauch, hemmt aber zugleich Innovation und Sicherheitsforschung
    • Offener Zugang legt die potenziellen Fähigkeiten eines Modells offen und ermöglicht in realen Umgebungen ein „schnelles Scheitern und Korrigieren“
    • Wie schon die Einführung von Fuzzer-Tools (American Fuzzy Lop) zu mehr Sicherheit beitrug, könnte auch ein breiterer Zugang zu Frontier-Modellen die Sicherheitskompetenz stärken
    • Derzeit können KI-Sicherheitsforscher jedoch nicht auf große Modelle zugreifen und verwenden deshalb überwiegend chinesische Open-Source-Modelle
  • Das Grundprinzip beim Zugang zu Intelligenz sollte „Access First“ sein; Sicherheitsmechanismen sollten erst darauf aufbauen
    • Unternehmen mit Fähigkeiten auf Regierungsebene müssen faire Verfahren und transparente Kriterien schaffen; bei Zugangsbeschränkungen sind klare Begründungen erforderlich
    • Der Entzug des Zugangs zu Frontier-Modellen wirkt als soziale Ausgrenzung, ähnlich wie ein „unbanked“-Status
    • Es wird eine Audit-Pflicht auf dem Niveau von FOIA (Freedom of Information Act) gefordert
  • Dass wenige Unternehmen Modelle monopolisieren, die mit den Daten der gesamten Menschheit trainiert wurden, ähnelt einer kolonialen Struktur der Wertabschöpfung
    • Bei den vielen Datenlieferanten wird Wert ohne Zustimmung abgeschöpft, während sich die Gewinne in internen Netzwerken konzentrieren
    • Anschließend wiederholt sich das Muster, über UBI oder wohltätige Spenden moralische Legitimation herzustellen
    • Selbst wenn die Absicht nicht böswillig ist, bleibt das strukturelle Problem der Machtkonzentration dasselbe
  • Es wird auch Hoffnung auf die Personalisierbarkeit von KI formuliert
    • Das heutige geschlossene KI-Zeitalter könnte nur der Mainframe-Ära entsprechen, und ein Übergang zum Zeitalter des Personal Computing (Apple II) ist möglich
    • Open-Source-Modelle holen die Frontier bereits mit einem Abstand von 3 bis 12 Monaten ein; wenn sich Chip- und Energieversorgung ausweiten, könnte ein Zeitalter „so günstiger Intelligenz, dass sie kaum noch messbar ist“ anbrechen
  • Die Freiheit von „Wired“ darf nicht verloren gehen

    • So wie Städte aus Sicherheitsgründen alte Bäume fällen, besteht die Gefahr, durch überzogene Sicherheitslogik die Offenheit und Kreativität des Internets zu verlieren
    • Das Internet ist noch immer der letzte Raum für individuell getriebene Kreativität und Erkundung, und es ist wichtig, ihn zu bewahren

13 Kommentare

 
tkddls8848 16 일 전

Wirkt wie Marketing-Übertreibung. Jedes Mal, wenn ein neues Modell erscheint, heißt es wieder, es sei das beste aller Zeiten, das Ende des menschlichen Zeitalters, Coding sei vorbei und man müsse jetzt Klempner werden, und so weiter — an originellen Übertreibungsslogans mangelte es nie. In der Praxis gab es dann aber Probleme, und noch wichtiger ist: Die meisten Menschen bleiben eher auf dem Niveau, eine fortgeschrittene Suchmaschine zu benutzen, und können deshalb nicht 100 % der Leistung starker Modelle ausschöpfen. Der Flaschenhals im LLM-Zeitalter ist weder Code noch Infrastruktur, sondern paradoxerweise das geringe Verständnis der breiten Öffentlichkeit für Informationssysteme, wenn sie Prompts abschickt.

 
hmmhmmhm 17 일 전

Wenn man sich anschaut, wie derzeit 31B-Modelle freigegeben werden, ist das schon enorm ... Ich glaube, im Moment gibt es noch ein wenig Hoffnung.

 
GN⁺ 17 일 전
Hacker-News-Kommentare
  • Ich finde, dass es viel zu früh ist, schon eine Woche nach der Ankündigung solche Diskussionen zu führen
    Die Aussage „Dieses Modell ist zu leistungsfähig für die Öffentlichkeit“ klingt wie ein Marketing-Slogan
    In ein paar Monaten wird man am Ende wieder ein anderes Modell verkaufen, und danach heißt es dann wohl: „Das neue Modell ist zu leistungsfähig, um veröffentlicht zu werden“

    • Ich glaube nicht unbedingt, dass das so ist. „Zu leistungsfähig“ kann auch einfach bedeuten, dass das Kosten-Nutzen-Verhältnis schlecht ist
      Mythos soll zu langsam für interaktives Coding sein. Wenn Ergebnisse erst über Nacht kommen, haben die meisten Nutzer keinen wirklichen Grund, es zu verwenden
      AI-Labore schreiben weiterhin Verluste, und um Mythos bereitzustellen, müsste ein deutlich höherer Preis verlangt werden. Wenn die meisten Kunden den Unterschied gar nicht spüren, ergibt das wirtschaftlich keinen Sinn
      Vielleicht wollte Anthropic auch den größeren Zugang zu Trainings-Rechenzentren im Vergleich zu OpenAI ausnutzen. Aber was jetzt gebraucht wird, ist kein klügeres Modell, sondern ein kleines, günstiges und dennoch ausreichend gutes Modell
    • Das erinnert mich daran, wie OpenAI einst GPT-2 als „zu gefährlich, um es zu veröffentlichen“ bezeichnete
      Bei Mythos scheint es kaum anders zu sein als damals
    • Dieses Gerede von „zu gefährlich“ ist in der Praxis zu einem Marketinginstrument für Aktivisten geworden
      Diejenigen, die die AI-Entwicklung verlangsamen wollten, haben diese Erzählung selbst verbreitet und damit Aufmerksamkeit erzeugt, was letztlich zur Verbreitung von AI beigetragen hat
      Es gab um 2011 auch eine interessante Studie zu diesem Phänomen; ich erinnere mich an den Fall der schwedischen Marke Cheap Monday
    • Ich denke, Anthropic hat ein gewisses Selbstverständnis als Vormund der Menschheit
      Offenbar glaubt man dort, dass die Beschränkung des Zugangs der Kern von Sicherheit ist
      Wenn diese Haltung aber dazu führt, dass nur wenige profitieren und die Mehrheit ausgeschlossen wird, dann sollte die Öffentlichkeit beurteilen, ob das legitim ist
    • Die Behauptung, Mythos sei gefährlich, beruht darauf, dass dieses Modell Software-Schwachstellen automatisch finden kann
      Wenn solche Funktionen über eine öffentliche API freigegeben würden, wäre das Missbrauchspotenzial groß
      Es gibt bereits viele Fälle von groß angelegtem Betrug oder Deepfakes mit Hilfe von AI
      Wenn man Open-Source-Code den Auftrag gibt, „finde alle möglichen Schwachstellen“, und dabei viel mehr Ergebnisse herauskommen als bei bisherigen Modellen, dann ist eine begrenzte Freigabe eine vernünftige Entscheidung
  • Dass Anthropic nur Sicherheitsunternehmen wie Crowdstrike, Cisco und Microsoft Zugang gegeben hat, ist nachvollziehbar
    Wenn das Ziel von Glasswing darin besteht, die Infrastruktursicherheit zu stärken, wäre es seltsam, ihnen den Zugang gerade deshalb zu verwehren, weil es Sicherheitsvorfälle gab
    Mythos wird vielleicht irgendwann veröffentlicht, aber diese eingeschränkte Freigabe wirkt wie eine Vorbereitungsphase für eine sichere Veröffentlichung

  • Bei NVIDIA arbeitet man an Nemotron, um solche Bedenken zu adressieren
    Nemotron ist ein Modell, das nicht nur offene Gewichte, sondern auch offene Daten und offene Rezepte veröffentlicht
    Ziel ist es, dass mehrere Institutionen gemeinsam offene AI entwickeln
    Nemotron 3 Super ist derzeit am erfolgreichsten, und bald sollen Ultra und Nemotron 4 folgen
    Da mit dem Wachstum von AI auch die Chancen für NVIDIA steigen, ist das eine mögliche Strategie
    Verwandter Link

  • Die Aussage, dass „selbst 16-Jährige ohne Kapital etwas erschaffen konnten“, ist heute eher noch wahrer

    • Aber wenn solche Modelle nicht veröffentlicht werden, verschwindet diese Freiheit
    • Heute kann zwar jeder etwas bauen, aber weil es zu viele tun, werden Vertriebskraft und Bekanntheit zum neuen Kapital
    • Kreativität und das eigene Werk können für sich selbst sprechen, aber für die Monetarisierung ist Distribution am Ende unverzichtbar
    • Letztlich wird dieses Versprechen bei jeder neuen Technologie wiederholt, und meistens endet es in einem noch schlechteren Arbeitsumfeld
  • Dass Anthropic Mythos nicht veröffentlichen kann, liegt an mangelnden Rechenressourcen
    OpenAI wird dieses und nächstes Jahr deutlich mehr Computing Power sichern können

    • Ich halte das für den eigentlichen Grund. Es wirkt wie Marketing, das Ressourcenmangel als guten Willen verpackt
    • Wenn Mythos wirklich revolutionär ist, wäre auch die Möglichkeit einer Fusion zwischen Anthropic und OpenAI interessant
    • Wenn Ressourcen knapp sind, hätte man auch eine Compute-Auktion veranstalten können. Große Unternehmen wären vermutlich bereit, hohe Preise zu zahlen; deshalb frage ich mich, warum man diese Möglichkeit nicht genutzt hat
  • Ich stimme der Meinung zu, dass es „zu früh“ ist, insofern Mythos sich nicht stark von anderen Modellen unterscheidet
    Allerdings scheint der von AI-Kritikern vertretene Deutungsrahmen, „Großunternehmen hätten die Gesellschaft ausgeplündert“, auf einem Missverständnis des Begriffs geistiges Eigentum zu beruhen

    • Ich stimme der Schlussfolgerung nicht zu, aber die Formulierung, „die Gesellschaft wurde ausgeplündert“, drückt das von vielen empfundene Gefühl, geschädigt worden zu sein, gut aus
  • Statt Mythos zu verstecken, sollte Anthropic es besser als Service für Sicherheitsprüfungen in Unternehmen nutzen
    Ein Dienst, der mit dem Modell Infrastruktur angreift, um Schwachstellen zu finden, wäre auch finanziell attraktiv

    • In der Realität gibt es dabei aber ein großes PR-Risiko
      Wenn zum Beispiel der Maintainer eines populären npm-Pakets dringend Geld braucht, Anthropic bittet, seine Bibliothek mit Mythos zu prüfen, und sie einen Monat später gehackt wird, wäre das ein großes Problem
  • Die Metapher mit dem Stromnetz fand ich eindrucksvoll
    Einzelne können wie bei Solarstrom selbst Energie erzeugen, aber die meisten zahlen öffentliche Versorgungsgebühren und nutzen Strom
    Genauso sollte auch der Zugang zu Intelligenz grundsätzlich für alle offen sein
    Gefährliche Nutzung kann durch Schutzmechanismen begrenzt werden, aber die Standardeinstellung sollte Zugang erlauben sein

  • Die Menschheit erliegt immer wieder der Versuchung, „monströse Technologien“ zu unverzichtbaren Gütern zu machen
    Aber solche Monster lassen sich nicht lange einsperren. Am Ende geraten sie außer Kontrolle

  • Die Chancen der amerikanischen Pionierzeit waren ein Ausnahmephänomen
    In Phasen schneller Expansion konnten Einzelne aufsteigen, aber in Zeiten der Stagnation überwältigen Unternehmen den Einzelnen
    Mit der Beschleunigung des technischen Fortschritts erreichen Einzelne zunehmend ein Niveau, auf dem sie die Welt zerstören könnten
    Wie bei Atomwaffen ist nun auch bei AI der Punkt erreicht, an dem der individuelle Zugang begrenzt werden muss

    • Heute ist es so unwahrscheinlich wie ein Lottogewinn, dass ein 16-Jähriger ein Unicorn aufbaut
      Um erfolgreich zu sein, braucht es einen Dienst mit Verbindungen zu Prominenten
    • Hinter dem Pioniermythos standen Tragödien und Opfer. Man darf nicht vergessen, dass es ein Mythos war, der auf dem Tod indigener Menschen errichtet wurde
 
cnaa97 15 일 전

Die Konkurrenz zieht sowieso alle nach, lol. „Na dann, kämpft mal.“

 
happing94 15 일 전

Aber das ist doch kein neues Konzept, oder?
Im Finanzsektor gibt es auch einen Finanzhub, der über den Gesetzen aller Staaten steht, und von dort aus werden alle Finanzsysteme kontrolliert.
In der IT wird jetzt wohl ebenfalls so ein IT-Hub geschaffen, über den sich IT-Unternehmen gegenseitig abstimmen und sich damit allen Staaten entgegenstellen.
Und wenn man sich die Leistung von Claude ansieht, versteht man das.

 
vwjdalsgkv 15 일 전

Meinen Sie mit Finanzhub eine bestimmte Gruppe wie etwa jüdische Netzwerke oder eher bloße Vermittlungshubs wie Hongkong und Singapur?
Strukturen wie SWIFT oder Zahlungs-Clearing liegen faktisch in den Händen der Großmächte.
Statt ihnen entgegenzuwirken, werden sie eher als Werkzeug der Mächtigen genutzt.
Wenn ich es in diesem Sinne betrachte, wirkt es auf mich auch bei diesem Artikel nur umso naheliegender, dass er letztlich zum Werkzeug der Mächtigen wird.

 
tsboard 16 일 전

Es wirkt noch ein wenig so, als sei das Marketing weiterhin ziemlich stark.

 
botplaysdice 16 일 전

Stimmt schon: Wenn ein Modell mit extrem unbegrenzten Fähigkeiten entwickelt würde, gäbe es vermutlich keinen Grund, es zu veröffentlichen. Es könnte schließlich selbst mehr Mehrwert schaffen, als seine Nutzungsgebühren einbringen würden ...

 
ndrgrd 16 일 전

Wenn man eine ordentliche Offenlegung erzwingen würde, könnte das paradoxerweise sogar dazu führen, dass Arbeit und Intelligenz ersetzt werden und damit ein Kommunismus Realität wird, der in der Geschichte nie auch nur ein einziges Mal existieren konnte.

 
sunghyunzz 16 일 전

Das ist ein guter Text, der auf einen Aspekt hinweist, an den ich nicht gedacht hatte. Vielen Dank!

 
kaboom45 16 일 전

Wenn man sich etwas wie GLM5.1 ansieht, hatte ich den Eindruck, dass Open Models kostenpflichtigen geschlossenen Modellen auch dann stetig folgen können, wenn mit etwas Abstand.

 
jjw9512151 16 일 전

Es wirkt wie etwas, das absehbar war ... eine Ära, in der Technologie zur Magie wird und eine kleine Zahl von Magiern alles monopolisiert ..

 
kimjoin2 17 일 전

Anthropic hat B2B erfunden?