1 Punkte von GN⁺ 2025-07-13 | 2 Kommentare | Auf WhatsApp teilen
  • OpenAI hatte ursprünglich geplant, nächste Woche ein Open-Weight-Modell zu veröffentlichen, kündigte nun jedoch an, die Veröffentlichung für zusätzliche Sicherheitstests und Prüfungen von Hochrisikobereichen zu verschieben
  • Sam Altman erklärte, man könne „noch nicht genau sagen, wie lange es dauern wird“
  • Er erläuterte, dass ein vorsichtiges Vorgehen nötig sei, weil die Gewichte (Weights) eines Modells, sobald sie einmal veröffentlicht sind, nicht zurückgeholt werden können
  • OpenAI betonte, dass man darauf vertraue, dass die Community mit diesem Modell vielfältige Innovationen hervorbringen wird, zugleich aber für OpenAI Neuland ist und man deshalb die richtigen Verfahren einhalten wolle
  • Abschließend sagte er sinngemäß: „Es tut uns leid, dass das keine gute Nachricht ist. Wir arbeiten wirklich sehr hart daran“, und unterstrich damit erneut die aufrichtige Entschuldigung und die notwendige Vorsicht

2 Kommentare

 
ng0301 2025-07-13

Werdet ihr schon wieder reingelegt~

 
GN⁺ 2025-07-13
Hacker-News-Kommentare
  • Hat den Link https://nitter.space/sama/status/1943837550369812814 geteilt

  • Ich weiß nicht, ob es Zufall ist, dass die Veröffentlichung von OpenAIs Open-Weight-Modell direkt nach dem Erscheinen eines starken Open-Weight-Modells wie dem heute angekündigten Kimi K2 plötzlich verschoben wurde
    Link zur Vorstellung von Kimi K2
    Wenn OpenAI es veröffentlicht, muss es das Niveau der Branche um eine Stufe anheben
    Ich glaube nicht, dass ein Open-Weight-Modell mit nur mittelmäßiger Qualität bestehen wird

    • Ich denke, OpenAI steckt gerade alle Ressourcen darin, Grok 4 zu übertreffen
      xAi liegt beim Aufbau von Rechenleistung deutlich vorn und hat bei Intelligenztests wie ARC, HLE usw. einen großen Vorsprung
      OpenAI geht es nicht darum, den Open-Source-Wettbewerb mitzumachen, sondern den Wettbewerb zu gewinnen
    • Ich frage mich allerdings, warum es auf Hacker News fast keine Diskussion über K2 gibt
      Ich finde, das ist eine ziemlich große Nachricht
    • Besonders angesichts dessen, dass OpenAI zuletzt angekündigt hat, das beste Open-Source-Modell zu veröffentlichen, wirkt das Timing auffällig passend
    • Seit GPT-4 habe ich das Gefühl, dass alle Modelle von OpenAI dem Markttrend deutlich hinterherlaufen
  • Ich halte die Erwähnung von „Sicherheitstests“ bei LLMs für Marketing-Sprech
    Autos, Flugzeuge und Aufzüge werden echten Sicherheitstests unterzogen, LLMs aber nicht
    Selbst wenn die von einem LLM erzeugten Ergebnisse den Herstellern nicht gefallen, stirbt daran niemand
    Mit „Sicherheitstests“ meinen sie am Ende nur, zu prüfen, wie weit ein LLM Dinge sagt, die ihnen nicht gefallen

    • Ein LLM kann jemandem leicht dazu raten, Medikamente mit gefährlichen Wechselwirkungen einzunehmen
      Es kann eine psychische Krise in Richtung Suizid treiben oder im Extremfall überzeugend darlegen, dass eine bestimmte Ethnie oder Gruppe die Ursache des Problems sei und beseitigt werden müsse
      Worte töten nicht direkt, aber sie können Menschen sehr wohl in den Tod führen
      Neben solchen Möglichkeiten gibt es auch Risiken im Zusammenhang mit Tool-Nutzung
    • In diesem Kontext bedeutet „Sicherheit“ letztlich oft nur, Aussagen zu verhindern, die jemanden verärgern oder ein PR-Problem auslösen könnten
    • Ich halte es auch für Marketing, aber eher aus dem gegenteiligen Grund
      Ich glaube, dass es beim aktuellen Stand der Technik unmöglich ist, das wirklich sicher zu machen
    • Das dient eher der Sicherheit der LLM-Anbieter als der der Nutzer
  • Mein Hobby ist es, Zynismus in Geld umzuwandeln
    Ich gehe auf Polymarket und suche nach Ereignissen in Gesellschaft und Technologie, die mich froh und optimistisch stimmen würden, und wette dann mit kleinen Beträgen (Shitcoins) darauf, dass sie nicht eintreten
    Es gibt zum Beispiel eine Wette darauf, ob OpenAI vor September ein Open-Source-Weight-Modell veröffentlicht; aktuell wird sie bei 81 % gehandelt
    Letzten Monat hat OpenAI nichts veröffentlicht, die Waffenruhe war keine echte Waffenruhe, und die Klimadaten wurden schlechter, also habe ich etwa 10 Dollar verdient
    Die Verzweiflung über die Existenz lässt sich nicht vollständig absichern, aber man kann den Schmerz ein wenig lindern

    • Bei so einer Wette gewinnt man strukturell immer
      Wenn ich gewinne, verdiene ich Geld (gut), und wenn ich verliere, ist gesellschaftlich etwas Gutes passiert (auch gut)
    • Ein Freund von mir nennt das auch „gegen die Menschheit hedgen“
      Immer wenn politisch etwas Depressives passiert ist, hat er ein paar Hundert Dollar verdient
    • Ich bin überrascht, dass überhaupt noch jemand Krypto benutzt
      Ich dachte, nach dem AI-Boom sei Krypto längst vorbei
    • „Glücksspiel kann süchtig machen und sollte verantwortungsvoll betrieben werden; Teilnahme erst ab 18 Jahren.
      Wenn du Hilfe brauchst, wende dich bitte an eine Beratungsstelle für Spielsucht oder an einen Arzt.“
  • Ich vertraue Deepseek und Qwen (Alibaba) mehr als den US-AI-Unternehmen
    Bei der US-AI-Branche habe ich stark den Eindruck, dass sie nur Geld und Compute-Ressourcen verschlingt
    Trotz Milliardeninvestitionen scheint es wenig Vorzeigbares zu geben
    Deepseek wurde mit nur 5 Millionen Dollar entwickelt und hat mehrere neue Trainingsmethoden vorgestellt
    Außerdem wurden sowohl das Modell als auch der Code als FLOSS veröffentlicht
    Die US-Unternehmen sind alle geschlossen
    Die US-AI-Firmen wirken auf mich wie Geier, die sich gegenseitig umbringen wollen

    • Um die 5 Millionen Dollar Entwicklungskosten von Deepseek gibt es viel Streit
      Die Meinungen gehen auseinander, ob das missverstanden wurde oder absichtlich Fehlinformationen verbreitet wurden
      Selbst wenn keine böse Absicht dahinterstand, würde ich als jemand, der große Modelle trainiert hat, sagen, dass es sinnlos ist, nur anhand der Kosten eines einzelnen Trainingslaufs über die Gesamtkosten zu sprechen
      Fehlgeschlagene Experimente, zusätzliches Training und die vielen anderen Versuche kosten ebenfalls erheblich
      Dass R2 auch nach 6 Monaten noch nicht erschienen ist, halte ich für aussagekräftig
      Manchmal gibt es beeindruckende Ergebnisse, aber niemand achtet auf die Kosten des Scheiterns
    • Tatsächlich sind die meisten Modelle von Google Open Source
      Ich arbeite in der AI-Branche und habe viele Google-Forschungspapiere gelesen; sie haben viel zum Fortschritt der Branche beigetragen, und ich bin dankbar, dass sie Modelle unter kommerziellen Lizenzen veröffentlicht haben
    • Die 5 Millionen Dollar sind die reinen Zeitkosten für einen einzelnen GPU-Trainingslauf
    • Du hast gesagt, US-AI-Firmen verschlingen nur Geld und Compute, aber in Wirklichkeit verschlingen sie auch Bücher, und zwar ganz buchstäblich
    • War diese Zahl nicht eigentlich nur der GPU-Preisanteil?
  • Vermutlich, weil das Ergebnis schlechter ist als das heute vorgestellte K2-Modell
    Kein ordentlicher Engineer würde sagen, dass es an „Sicherheit“ liegt
    Mit Methoden wie Ablation kann man nachträgliches Sicherheitstraining ohnehin aushebeln

    • Persönlich hoffe ich, dass das Open-Weight-Modell von OpenAI deutlich kleiner als K2 sein wird
      K2 hat 1 Billion Parameter und fast 1 TB Download-Größe
      Auf meinem Laptop kann ich das niemals laufen lassen
      Ich denke, die sinnvolle Größe für ein lokales Modell liegt optimalerweise bei etwa 20B
      Mistral Small 3.x oder einige Modelle von Gemma 3 sind gute Beispiele
      Sie laufen auch mit weniger als 32 GB RAM gut und liefern starke Leistung
      Ich hoffe wirklich, dass OpenAI etwas in dieser Größenordnung veröffentlicht
  • Man sollte im Hinterkopf behalten, dass Sicherheitsbeschränkungen, wie unzensierte Finetunes von Llama-Modellen zeigen, leicht entfernt werden können

  • Im Grunde ist das nur völlig nutzlose Security-Theater für die Außenwirkung
    Die Community weiß schon seit Langem, wie man alle Schutzmechanismen leicht entfernt

    • Bei solchen Behauptungen muss ich sofort daran denken, dass „Open"AI früher die Veröffentlichung von GPT2 XL verweigert hat, weil es „zu mächtig“ sei
  • „Das ist auch für uns Neuland“ klingt nicht wie etwas, das man von dieser Firma erwarten würde

  • Ich frage mich wirklich, warum OpenAI überhaupt ein Open-Weight-Modell veröffentlichen will