1 Punkte von princox 1 시간 전 | Noch keine Kommentare. | Auf WhatsApp teilen
  • Elon Musk hat am 15.–17. Mai auf X (Twitter) persönlich den Trainingsfortschritt neuer Grok-Modelle offengelegt
  • Die derzeit veröffentlichte Version (v4.3) basiert auf dem Foundation Model V8 mit 0,5T Parametern und wird im Abstand von wenigen Tagen weiter verbessert
  • Das intern entwickelte V9 mit 1,5T Parametern habe, so Musk, „gerade erst das Training abgeschlossen“
    • Musk bezeichnet diese Phase zwar häufig als „pre-training“, weist aber darauf hin, dass dies ein „falscher Begriff“ sei
    • Gegenüber V8 wurden Datenkuration, Trainingsrezept und Modellgröße umfassend aufgewertet
    • Anders als V8, das auf Hopper trainiert wurde, ist V9 für die Blackwell-Architektur optimiert
  • Im nächsten Schritt soll dem Supplemental Training – eine Phase, die häufig als „mid-training“ bezeichnet wird – Cursor-Daten hinzugefügt werden
  • Musk erwähnte, „V9 zeigt bereits eine sehr starke Leistung, noch bevor Cursor-Daten eingefügt werden“

▍Hintergrund: der SpaceX-Cursor-Deal

  • Im April 2026 schloss SpaceX (im Februar des Vorjahres mit xAI fusioniert) einen Optionsvertrag ab: entweder Cursor noch innerhalb des Jahres für 60 Milliarden US-Dollar zu übernehmen oder als Gegenleistung für die Zusammenarbeit 10 Milliarden US-Dollar zu zahlen
  • Unmittelbar vor diesem Vertrag wechselten die Senior Engineers Andrew Milich und Jason Ginsberg von Cursor zu xAI und stießen in einer Struktur dazu, in der sie direkt an Musk berichten
  • Das Konstrukt kombiniert den xAI-Supercomputer Colossus (Compute-Äquivalent von 1 Million H100s) mit Cursors Entwicklerprodukten und Distributionsnetz
  • Der bisherige Verlauf, in dem Cursor für das Training seines eigenen Modells (Composer) Zehntausende xAI-Chips mietete, wird durch diesen Vertrag formalisiert
  • Die Aussage zum „Supplemental Training mit Cursor-Daten“ für Grok V9 bedeutet also nicht nur eine einfache Zusammenarbeit, sondern dass die Datensynergien aus dem Übernahmeoptionsvertrag tatsächlich in die Modell-Trainingspipeline einfließen

▍Lesenswertes

  • Interessant ist, dass Musk den branchenüblichen Standardbegriff „pre-training“ öffentlich zurückweist und stattdessen die Unterscheidung der Phasen „supplemental training“ / „mid-training“ betont
  • Cursor verfügt nicht nur über reinen Code, sondern über „Coding-Verhaltensdaten“ wie Echtzeit-Bearbeitungsverhalten von Millionen Entwicklern, Testergebnisse, Logs und Screenshots – also das teuerste Gut für das Training von Coding Agents
  • In einer Lage, in der Anthropic Claude und OpenAI Codex den Coding-Markt dominieren, wird dies als die direkteste Karte interpretiert, mit der xAI den Abstand verringern will

Quelle:

Noch keine Kommentare.

Noch keine Kommentare.