5 Punkte von GN⁺ 2025-06-30 | 2 Kommentare | Auf WhatsApp teilen
  • Metas als Scale-AI-Übernahme bekannte Investition von $14B (14 Milliarden US-Dollar, rund 20 Billionen Won) zielte in Wirklichkeit nicht auf eine vollständige Übernahme ab, sondern auf den Erwerb von 49 % der Anteile und die Verpflichtung von CEO Alexandr Wang
  • Die bestehenden Mitarbeitenden von Scale AI behalten ihre Aktien weiterhin und erhalten zugleich eine Barausschüttung; Alexandr Wang wechselt zu Meta, bleibt aber im Vorstand
  • Metas Ziel richtet sich nicht auf das Geschäft von Scale AI, sondern auf die Abwerbung von Alexandr Wang als Person
  • Meta ist zuletzt im AI-Wettbewerb zurückgefallen und leidet unter interner Politik sowie Führungsproblemen, insbesondere wegen einer konservativen Forschungskultur rund um Yann LeCun
  • Der Autor bewertet eine Investition eines elfstelligen Betrags in eine einzelne Person als irrational, betont jedoch, dass Meta sich auf die Verbesserung von Unternehmenskultur und Talentstruktur konzentrieren müsse

Update: Beteiligungsstruktur der Scale-AI-Mitarbeitenden

  • Die Mitarbeitenden von Scale AI erhalten auf einen Schlag eine Ausschüttung in Höhe der Prämie auf sämtliche Aktien und behalten zugleich ihre bisherigen Anteile
  • Anders als bei einer klassischen Übernahme hat diese Struktur den Vorteil, dass Mitarbeitende weiterhin von zusätzlichem Wachstum des Unternehmens profitieren können
  • Berichten zufolge wurde diese Struktur direkt von CEO Alexandr Wang eingefordert und wird unter dem Aspekt des Mitarbeiterschutzes positiv bewertet
  • Der Großteil des Geldes ging nicht nur an den CEO, sondern wurde auf die gesamte Belegschaft verteilt
  • Meta hat Scale AI faktisch nicht vollständig übernommen, sondern eine Investition vorgenommen, die Aktionären und Mitarbeitenden neue Barvergütungen verschafft

Die wahre Bedeutung von Metas „Übernahme“ für 14 Milliarden US-Dollar

  • Meta investierte 14 Milliarden US-Dollar in Scale AI und erhielt dabei nur 49 % der Anteile; die Kontrolle liegt weiterhin beim Board von Scale AI
  • Rechtlich ist es keine „Übernahme“, faktisch hält jedoch die Summe der Anteile von Meta und Alexandr Wang die Mehrheit, wodurch sie die Entscheidungsgewalt über das Unternehmen haben
  • CEO Alexandr Wang wechselt zu Meta, bleibt aber weiterhin im Board von Scale AI und übt damit Einfluss auf die Unternehmensführung aus
  • Eine solche Transaktionsstruktur ist in der Branche selten und zeigt, dass Metas eigentliches Ziel nicht das Unternehmen selbst, sondern die Gewinnung einer bestimmten Schlüsselperson (Alexandr Wang) ist
  • Anders als bei üblichen Übernahmen wurden nicht alle Anteile in Bargeld umgewandelt; stattdessen wurde die Struktur so gestaltet, dass mit nur einem Teilübergang der Anteile dennoch Kontrolle möglich ist

Das Wesen von Scale AI und was Meta will

  • Scale AI betreibt ein Geschäft rund um B2B-Datenlabeling und großangelegtes Outsourcing menschlicher Ressourcen – im Kern ein „Mechanical Turk as a Service“-Modell
  • Die Wettbewerbsfähigkeit des Unternehmens beruht weniger auf modernsten Algorithmen oder IP, sondern auf effizientem Personaleinsatz und der Produktion großer Datensätze
  • Große AI-Unternehmen arbeiten bereits mit mehreren Datenlabeling-Partnern und eigenen Labeling-Teams, sodass sie nicht absolut auf die Daten von Scale AI angewiesen sind
  • Zu den wichtigsten Kunden von Scale AI zählen tatsächlich Toyota, Etsy, GM und Behörden – also Nachzügler im AI-Ökosystem oder nicht spezialisierte Organisationen
  • Das stützt die Einschätzung, dass Meta dem Geschäft von Scale AI selbst keinen besonders hohen Wert beimisst, sondern sich auf die Gewinnung von Schlüsselpersonal konzentriert

Nachlassende AI-Wettbewerbsfähigkeit von Meta und interne Probleme

  • Seit Llama 2 liegt Meta im AI-Wettbewerb hinter OpenAI, Google, Anthropic und anderen zurück
  • Anfangs baute Meta mit einer Open-Source-Strategie und einem communitygetriebenen Ökosystem das Image eines „Linux der AI-Welt“ auf, verlor aber nach dem Auftauchen neuer Modelle wie Deepseek an Wettbewerbsfähigkeit
  • Metas AI-Forschungsorganisation FAIR (Foundational AI Research) wird durch eine konservative, marktdistanzierte Kultur rund um Yann LeCun in ihrer Innovationskraft gehemmt
  • LeCun habe in der Vergangenheit mit seinem Festhalten an Lua und Torch sowie seiner Skepsis gegenüber Transformern und LLMs die Einführung neuer Technologien verzögert; so entwickelte das frühe Llama-Team Berichten zufolge sogar heimlich an LeCun vorbei einen Prototyp und demonstrierte ihn direkt Zuckerberg
  • Organisatorische Stagnation, Führungskonflikte und der Abgang von Schlüsselkräften setzen sich fort und verlangsamen die gesamte AI-Innovation in einem Teufelskreis

Zuckerbergs mutige Strategie zur Anwerbung von Talenten

  • Zuckerberg sieht die Ursache für die Schwäche von Metas AI-Sparte in interner Bürokratie und organisatorischer Verkrustung und setzt deshalb auf außergewöhnliche Personalgewinnung
  • Spitzenkräften der Branche sollen acht- bis neunstellige Gehälter (Hunderte Millionen bis Milliarden US-Dollar), direkt dem CEO unterstellte Organisationen und ein autonomes Forschungsumfeld angeboten worden sein
  • Tatsächlich wurde berichtet, dass zahlreichen Personen aus der AI-Branche wie Nat Friedman, David Gross und Ilya Sutskever Angebote gemacht wurden
  • Alexandr Wang ist dank seiner persönlichen Nähe zu Zuckerberg und einer informellen Rolle als AI-Berater der erste erfolgreiche Fall dieser Rekrutierungsstrategie
  • Zugleich gibt es skeptische Stimmen, ob eine auf „Superstar“-Talente konzentrierte Strategie mit extrem hohen Investitionen tatsächlich zu organisatorischer Erneuerung und stärkerer AI-Kompetenz führt

Fazit und Einschätzung des Autors

  • Der Autor betont, dass AI-Innovation nicht durch ein einzelnes „Genie“, sondern durch kollektive Experimente und ein kollaboratives Umfeld entsteht
  • Als Beispiel wird angeführt, dass langfristige Innovation durch ein Umfeld wie bei Google gefördert werden kann, mit Forschungsfreiheit, starker Zusammenarbeit und praktisch unbegrenzten Ressourcen
  • Entscheidend für die Wiederherstellung von Metas AI-Wettbewerbsfähigkeit seien Branding und die Verbesserung der internen Kultur; ein Ansatz, der enorme Summen auf ein einzelnes Talent konzentriert, sei riskant
  • Zwar setzt der Autor Hoffnungen in Zuckerbergs Umsetzungsstärke und seinen Veränderungswillen, doch ob die Strategie, für die Verpflichtung „einer einzigen Person“ ein elfstelliges Gehalt zu zahlen, Metas Lösung für AI-Innovation sein kann, bleibt offen

2 Kommentare

 
eajrezz 2025-06-30

Nur der Gründer selbst hätte vielleicht aussteigen können; dann wäre ein Exit für die übrigen Mitarbeitenden wohl schwierig geworden.
Anscheinend umfasste der Anteil, den Meta übernommen hat, nicht nur den des Gründers, sondern auch den der Mitarbeitenden.
Alexander Wang ist wirklich eine beeindruckende Persönlichkeit..

 
GN⁺ 2025-06-30
Hacker-News-Meinungen
  • Ich finde, der Grund, warum Meta nur 49 % in Scale investiert hat, wurde nicht richtig getroffen. Meta umgeht auf diesem Weg globale Regulierungsprüfungen. Bei einer vollständigen Übernahme hätte es die Zustimmung von Behörden in vielen Ländern gebraucht, eine Minderheitsbeteiligung fällt aber nicht in gleichem Maß unter solche Prüfungen. Die Aktionäre erhalten dabei einen Ertrag ähnlich wie bei einer Übernahme und vermeiden zugleich regulatorische Unsicherheit. Für den verbleibenden Teil von Scale besteht außerdem weiter Wachstumspotenzial, was den Aktionären — nun einschließlich Meta — zusätzliche Gewinne bringen könnte. Insgesamt also eine Win-win-Struktur

    • Nur weil es eine Minderheitsbeteiligung ist, kann man Kartellprüfungen nicht ignorieren. Auch in den USA, etwa unter 15 U.S.C. §18, können Teilübernahmen oder Minderheitsbeteiligungen geprüft werden. In Europa ebenso

    • Die Vermutung, dass Meta diesen Weg statt M&A gewählt hat, um schneller zu handeln, erscheint plausibel. Auch ich habe in meinem Text argumentiert, dass eine Übernahme wegen der direkten Nähe zum Kerngeschäft von Meta wenig sinnvoll wäre, aber ich halte sie für möglich. Dass es ein Win-win sei, glaube ich allerdings nicht. Scale-Aktien sind weiterhin wenig liquide, und dadurch, dass Schlüsselpersonen gegangen sind, hat sich aus Sicht der Aktieninhaber der Wert eher verringert

    • Microsoft und Google haben Ähnliches getan (z. B. beim Investment in Character AI). Scale ist kein AI-Forschungslabor, sondern im Kern eine Outsourcing-Plattform ähnlich Fiverr. Ich sehe nicht so recht, wie das Abwerben von Talenten dort die Attraktivität von Meta für AI-Forschung steigern soll

    • Berichten zufolge kam diese Investmentstruktur tatsächlich auf Wunsch von Wang (Scale-CEO) zustande. Das Ziel war also vor allem, Investoren und Mitarbeitern Rendite zukommen zu lassen. Aus Metas Sicht bestand wohl gar kein großes Interesse daran, Scale zu besitzen. Meta nutzt die Daten von Scale bereits gut, und der Besitz des Unternehmens war nicht unmittelbar notwendig

  • OpenAI scheint mit den 6,5 Milliarden Dollar für Jony Ive den besseren Deal gemacht zu haben. Gleichzeitig heißt es, dass Meta bei den Zahlen nachgeholfen habe, weil die reale Nutzungserfahrung mit Llama 4 so enttäuschend gewesen sei, obwohl es Gerüchte gab, das Modell sehe in Benchmarks gut aus. Ich selbst weiß auch nicht mehr genau, was Benchmarks eigentlich noch aussagen sollen, und beim tatsächlichen Einsatz spüre ich von dem Ruf als "großartige AI" kaum etwas. Ich stoße weiterhin regelmäßig auf unsinnige Antworten

    • Es gibt verschiedene Arten von Benchmarks. Die einen sind quantifizierbar und basieren auf realen Daten, die anderen messen die Reaktion der Öffentlichkeit. Klassische Benchmarks können Frühindikatoren sein, aber sie liegen nicht zwingend richtig; entscheidend ist am Ende die Bewertung durch die breite Masse. Allein an den Reaktionen auf Reddit konnte man sehen, dass Gemini 2.5 besser ankam als Claude 3.7

    • Ich halte Jony Ives Leistungen bei Apple nicht für besonders positiv: zu dünne Laptops, nicht reparierbare Designs, unbequeme Tastaturen, eine Maus, die man beim Laden nicht benutzen kann, Gehäusedesigns, die zu Leistungseinbußen führen, unnötig abstrahierte UI usw. — es gab viele enttäuschende Punkte

    • Erstaunlich ist, dass Jony Ive sich fast schon am Stil von Dieter Rams bedient hat und trotzdem eine Superstar-Karriere daraus machen konnte. Ich kann mir schwer vorstellen, welchen Wert er OpenAI bringen soll. Er ist schließlich die Person, die Apples Laptops fünf Jahre lang ruiniert hat

    • Tatsächlich hat OpenAI Jony Ive nicht direkt geholt. Das Unternehmen hat ein bestehendes Joint Venture übernommen, sodass Ive bereits ausgecasht hat und nun im Grunde nur noch ein Vertrag mit seiner Designfirma besteht. Ive ist der große Gewinner, OpenAI eher nicht

    • Die von Meta veröffentlichten Benchmarks zu Llama 4 wurden sofort als falsch entlarvt

  • Ich widerspreche der Ansicht, die Scale-AI-Daten seien für Wang nur zweitrangig. Datenlabeling besteht heute nicht mehr bloß darin, Arbeit an gewöhnliche Arbeitskräfte auszulagern, sondern führt zu Expertendemonstrationen und dem Design ganzer Workflows. Das sind hochwertige Daten, aus denen sich ableiten lässt, wie Frontier Labs ihre RL-Umgebungen aufbauen. Ich halte das für den eigentlichen Beweggrund.
    Außerdem stimme ich nicht der Behauptung zu, dass jeder einfach ein LLM bauen könne. Menschen, die wettbewerbsfähige LLMs in großem Maßstab trainieren können, gibt es weltweit vielleicht nur einige Hundert, und dafür braucht es enormes technisches Know-how und viele Tricks. Genau deshalb war ich so überrascht, als die Berichte über DeepSeek erschienen.
    Ich teile auch nicht die Ansicht, dass Fortschritte im ML größtenteils Glückssache seien und nur dezentrale Organisationen vernünftig seien. Es gibt viele Leute wie Schmidhuber, Shazeer oder Alec Radford, die kontinuierlich Grundlagenforschung betrieben haben, und man sollte ebenfalls berücksichtigen, dass OpenAI dieses Feld gerade durch konzentrierte Investitionen statt verteilter Experimente groß gemacht hat. Bei DeepMind ist es ähnlich

    • Bei Scale könnte ich mich irren. Mein Bild basiert allerdings vor allem auf Gesprächen mit Kunden und Leuten aus dem Inneren von Scale
      Auch wenn LLM-Training schwierig ist, ist es nicht unmöglich schwer zu erlernen. Nach etwa drei Monaten Erfahrung direkt nach dem Bachelor hatte ich den Eindruck, dass es beim Training kleiner oder großer Modelle keinen allzu großen Unterschied im Schwierigkeitsgrad gibt. Bibliotheken wie torch oder megatron helfen ebenfalls sehr
      Ich halte alle Forscher für beeindruckend und will niemanden kleinreden. Aber ich glaube, dass die großen Veränderungen und neuen Ideen im ML tatsächlich an vielen Orten von sehr unterschiedlichen Menschen durch dezentrale Kommunikation entstehen. Das ist nur meine persönliche Sicht
  • Die Konflikte innerhalb von Metas AI-Organisation und die kulturellen Probleme sind gravierend. Die wichtigsten "AI"-Organisationen sind derzeit GenAI, FAIR und RL-R
    FAIR wurde an verschiedene Organisationen verteilt, hat seine Rolle als Powerhouse verloren, und viele Leute sind gegangen
    GenAI war ursprünglich ein kleines Team, wächst inzwischen aber immer weiter, während die Produkte unklar bleiben, und der Führung fehlt es an Erfahrung in Produktisierung oder praktischer ML-Arbeit. Es werden nur wöchentlich A/B-Tests gefahren
    RL-R ist in die Avatar-Organisation verstrickt, und der Leiter ist eher perfektionistisch als umsetzungsstark, weshalb das am Ende scheitern dürfte. Obwohl einfachere Systeme besser funktionieren als vollständig ML-basierte Systeme, wurden dort 15 Milliarden Dollar verbrannt
    Es gibt auch ein Hand-Interaction-Team, das auf Armbänder setzt, aber kein ordentliches großskaliges Prototyping hat, und die Lösung ist viel zu unbequem
    Das Display-Team hat mit überzogenen Versprechen daran gearbeitet und ist bei der Umsetzung von Orion als Consumer-Produkt gescheitert
    Das Mapping-Team baut nur Research-Brillen mit starker Sammlung personenbezogener Daten
    RL-R hatte viele talentierte Leute, aber wegen einer "hire-and-fire"-Kultur sind Forschungsrisiken dort fast unmöglich

  • Aus der Perspektive eines Datenlabeling-Unternehmens wirkt diese ganze Sache einfach lächerlich. Es erinnert fast an eine Art "Hotdog-Klassifizierung", also etwas extrem Einfaches — und dafür wurden 14 Milliarden Dollar ausgegeben, was an sich schon schockierend ist

    • Früher hätte man Hotdog or Not vielleicht noch zu einem Dickpic-Klassifizierer umfunktionieren können, aber faktisch 14 Milliarden Dollar in eine mechanische Arbeitsplattform zu investieren, ist wirklich absurd. Dazu kommen noch die 6 Milliarden Dollar für die Jony-Ive-Übernahme und die 5-Milliarden-Dollar-Bewertung von Abridge als ChatGPT-basierter Medical-Wrapper — für mich zeigt das, wie überzogen die AI-Blase inzwischen ist
  • Meta verdient mit seinem Werbegeschäft so viel Geld, dass selbst Projekte mit Verlusten in Milliardenhöhe den Aktienkurs kaum belasten und dieser trotzdem steigt. Sogar das KGV ist nicht einmal besonders hoch. Ein wirklich erstaunliches Phänomen

    • Früher hat man dasselbe auch über Google/Alphabet gesagt
  • Ich finde, die Meinung des Autors zu AGI folgt nicht der wissenschaftlichen Methodik. Meine Vermutung ist eher, dass Meta möglichst viele einflussreiche Personen holen will, damit das Unternehmen seine Ziele neu definieren kann, sobald sich die Definition von AGI wieder verschiebt. Es geht also weniger um Können als darum, die Deutungshoheit über das Paradigma zu gewinnen

  • Die letzten beiden Absätze fand ich auch nach dem Lesen verwirrend und befremdlich.
    Ich sehe keinen klaren Beleg dafür, dass Zuck ein besonders fähiger CEO ist. Facebook hatte seit mehr als zehn Jahren — abgesehen von Übernahmen — kein erfolgreiches neues Produkt
    Dass ein neuer Dienst wie TikTok Instagram schlagen konnte, ist eigentlich ziemlich peinlich. Bei Meta Quest, das nur Verluste macht und eher ein Nebenprojekt ist, frage ich mich, ob es wirklich sinnvoll war, dafür sogar den Firmennamen zu ändern
    Im Vergleich zu Microsoft, Google oder Amazon liegt Meta beim Kundenvertrauen viel zu weit zurück. Genau diese Vertrauenslücke macht neue Geschäfte für Meta immer schwierig. Obwohl Microsoft und Google mit LinkedIn, Gmail und Search ebenfalls tief im Alltag der Nutzer stecken, genießen sie deutlich mehr Vertrauen
    Persönlich wirkt es auf mich so, als wolle Meta mit 14 Milliarden Dollar am Ende einfach in andere Unternehmen investieren, weil es allein keine neuen Produkterfolge hinbekommt
    (Referenz: https://allaboutcookies.org/big-tech-trust)

    • Das Kerngeschäft ist einfach so profitabel und so groß, dass es gar keine "neue Technologie" braucht. Innovation ist nicht zwingend notwendig. Wenn der Wettbewerb schwach ist, kann man wie frühere Tabakaktien oder Walmart auch ohne Innovation massiv wachsen
      Auch bei TikTok und Instagram gibt es überhaupt nichts, wofür man sich schämen müsste, weil beide gut laufen. Wie Pepsi und Coca-Cola können sie nebeneinander bestehen

    • Ich bin durchaus ein Zuck-Fan und könnte aus dieser Perspektive auch eine Verteidigungslinie aufbauen, aber das heißt nicht, dass ich allem zustimme; ich finde auch die kritische Sicht überzeugend

    • Die Fähigkeit eines CEOs nur an neuen Produkten zu messen, ist ein falscher Maßstab. Auch Ray-Ban Meta ist mit wiederholten Ausverkäufen ein Erfolg

    • Ich frage mich, ob du dir die Lage bei $META überhaupt angeschaut hast

  • Diese Zahlen sind wirklich völlig verrückt

  • Ein Teil davon stimmt schlicht nicht, und der Autor weiß das inzwischen offenbar auch. Es gab bereits ein Update, dass "die gesamten 14 Milliarden Dollar nicht an Alexandr gegangen sind" — da sollte man vielleicht konsequenterweise auch den Titel ändern

    • Der Punkt der Überschrift ist nicht, dass "eine Person 14 Milliarden Dollar verdient hat", sondern dass Meta 14 Milliarden Dollar ausgegeben hat. Man sollte die Aussage nicht falsch verstehen