- OpenAI hatte ursprünglich geplant, nächste Woche ein Open-Weight-Modell zu veröffentlichen, kündigte nun jedoch an, die Veröffentlichung für zusätzliche Sicherheitstests und Prüfungen von Hochrisikobereichen zu verschieben
- Sam Altman erklärte, man könne „noch nicht genau sagen, wie lange es dauern wird“
- Er erläuterte, dass ein vorsichtiges Vorgehen nötig sei, weil die Gewichte (Weights) eines Modells, sobald sie einmal veröffentlicht sind, nicht zurückgeholt werden können
- OpenAI betonte, dass man darauf vertraue, dass die Community mit diesem Modell vielfältige Innovationen hervorbringen wird, zugleich aber für OpenAI Neuland ist und man deshalb die richtigen Verfahren einhalten wolle
- Abschließend sagte er sinngemäß: „Es tut uns leid, dass das keine gute Nachricht ist. Wir arbeiten wirklich sehr hart daran“, und unterstrich damit erneut die aufrichtige Entschuldigung und die notwendige Vorsicht
2 Kommentare
Werdet ihr schon wieder reingelegt~
Hacker-News-Kommentare
Hat den Link https://nitter.space/sama/status/1943837550369812814 geteilt
Ich weiß nicht, ob es Zufall ist, dass die Veröffentlichung von OpenAIs Open-Weight-Modell direkt nach dem Erscheinen eines starken Open-Weight-Modells wie dem heute angekündigten Kimi K2 plötzlich verschoben wurde
Link zur Vorstellung von Kimi K2
Wenn OpenAI es veröffentlicht, muss es das Niveau der Branche um eine Stufe anheben
Ich glaube nicht, dass ein Open-Weight-Modell mit nur mittelmäßiger Qualität bestehen wird
xAi liegt beim Aufbau von Rechenleistung deutlich vorn und hat bei Intelligenztests wie ARC, HLE usw. einen großen Vorsprung
OpenAI geht es nicht darum, den Open-Source-Wettbewerb mitzumachen, sondern den Wettbewerb zu gewinnen
Ich finde, das ist eine ziemlich große Nachricht
Ich halte die Erwähnung von „Sicherheitstests“ bei LLMs für Marketing-Sprech
Autos, Flugzeuge und Aufzüge werden echten Sicherheitstests unterzogen, LLMs aber nicht
Selbst wenn die von einem LLM erzeugten Ergebnisse den Herstellern nicht gefallen, stirbt daran niemand
Mit „Sicherheitstests“ meinen sie am Ende nur, zu prüfen, wie weit ein LLM Dinge sagt, die ihnen nicht gefallen
Es kann eine psychische Krise in Richtung Suizid treiben oder im Extremfall überzeugend darlegen, dass eine bestimmte Ethnie oder Gruppe die Ursache des Problems sei und beseitigt werden müsse
Worte töten nicht direkt, aber sie können Menschen sehr wohl in den Tod führen
Neben solchen Möglichkeiten gibt es auch Risiken im Zusammenhang mit Tool-Nutzung
Ich glaube, dass es beim aktuellen Stand der Technik unmöglich ist, das wirklich sicher zu machen
Mein Hobby ist es, Zynismus in Geld umzuwandeln
Ich gehe auf Polymarket und suche nach Ereignissen in Gesellschaft und Technologie, die mich froh und optimistisch stimmen würden, und wette dann mit kleinen Beträgen (Shitcoins) darauf, dass sie nicht eintreten
Es gibt zum Beispiel eine Wette darauf, ob OpenAI vor September ein Open-Source-Weight-Modell veröffentlicht; aktuell wird sie bei 81 % gehandelt
Letzten Monat hat OpenAI nichts veröffentlicht, die Waffenruhe war keine echte Waffenruhe, und die Klimadaten wurden schlechter, also habe ich etwa 10 Dollar verdient
Die Verzweiflung über die Existenz lässt sich nicht vollständig absichern, aber man kann den Schmerz ein wenig lindern
Wenn ich gewinne, verdiene ich Geld (gut), und wenn ich verliere, ist gesellschaftlich etwas Gutes passiert (auch gut)
Immer wenn politisch etwas Depressives passiert ist, hat er ein paar Hundert Dollar verdient
Ich dachte, nach dem AI-Boom sei Krypto längst vorbei
Wenn du Hilfe brauchst, wende dich bitte an eine Beratungsstelle für Spielsucht oder an einen Arzt.“
Ich vertraue Deepseek und Qwen (Alibaba) mehr als den US-AI-Unternehmen
Bei der US-AI-Branche habe ich stark den Eindruck, dass sie nur Geld und Compute-Ressourcen verschlingt
Trotz Milliardeninvestitionen scheint es wenig Vorzeigbares zu geben
Deepseek wurde mit nur 5 Millionen Dollar entwickelt und hat mehrere neue Trainingsmethoden vorgestellt
Außerdem wurden sowohl das Modell als auch der Code als FLOSS veröffentlicht
Die US-Unternehmen sind alle geschlossen
Die US-AI-Firmen wirken auf mich wie Geier, die sich gegenseitig umbringen wollen
Die Meinungen gehen auseinander, ob das missverstanden wurde oder absichtlich Fehlinformationen verbreitet wurden
Selbst wenn keine böse Absicht dahinterstand, würde ich als jemand, der große Modelle trainiert hat, sagen, dass es sinnlos ist, nur anhand der Kosten eines einzelnen Trainingslaufs über die Gesamtkosten zu sprechen
Fehlgeschlagene Experimente, zusätzliches Training und die vielen anderen Versuche kosten ebenfalls erheblich
Dass R2 auch nach 6 Monaten noch nicht erschienen ist, halte ich für aussagekräftig
Manchmal gibt es beeindruckende Ergebnisse, aber niemand achtet auf die Kosten des Scheiterns
Ich arbeite in der AI-Branche und habe viele Google-Forschungspapiere gelesen; sie haben viel zum Fortschritt der Branche beigetragen, und ich bin dankbar, dass sie Modelle unter kommerziellen Lizenzen veröffentlicht haben
Vermutlich, weil das Ergebnis schlechter ist als das heute vorgestellte K2-Modell
Kein ordentlicher Engineer würde sagen, dass es an „Sicherheit“ liegt
Mit Methoden wie Ablation kann man nachträgliches Sicherheitstraining ohnehin aushebeln
K2 hat 1 Billion Parameter und fast 1 TB Download-Größe
Auf meinem Laptop kann ich das niemals laufen lassen
Ich denke, die sinnvolle Größe für ein lokales Modell liegt optimalerweise bei etwa 20B
Mistral Small 3.x oder einige Modelle von Gemma 3 sind gute Beispiele
Sie laufen auch mit weniger als 32 GB RAM gut und liefern starke Leistung
Ich hoffe wirklich, dass OpenAI etwas in dieser Größenordnung veröffentlicht
Man sollte im Hinterkopf behalten, dass Sicherheitsbeschränkungen, wie unzensierte Finetunes von Llama-Modellen zeigen, leicht entfernt werden können
Im Grunde ist das nur völlig nutzlose Security-Theater für die Außenwirkung
Die Community weiß schon seit Langem, wie man alle Schutzmechanismen leicht entfernt
„Das ist auch für uns Neuland“ klingt nicht wie etwas, das man von dieser Firma erwarten würde
Ich frage mich wirklich, warum OpenAI überhaupt ein Open-Weight-Modell veröffentlichen will