5 Punkte von GN⁺ 2026-03-05 | 2 Kommentare | Auf WhatsApp teilen
  • Zahlreiche Schlüsselforscher des Qwen-Teams von Alibaba sind geschlossen zurückgetreten, wodurch die Zukunft der kürzlich veröffentlichten Qwen-3.5-Modellreihe unklar geworden ist
  • Teamleiter Lin Junyang gab seinen Rücktritt bekannt, kurz darauf verließen auch mehrere zentrale Mitarbeiter das Unternehmen
  • Die kürzlich veröffentlichte Qwen-3.5-Modellfamilie sorgt für zusätzliche Aufmerksamkeit, weil sie selbst bei kleinen Modellen eine starke Leistung zeigt
  • Eine mögliche Auflösung des Qwen-Teams könnte zu einem wichtigen Wendepunkt für das chinesische Open-Source-AI-Forschungsökosystem werden

Personalveränderungen im Qwen-Team

  • Unmittelbar nach der Veröffentlichung der Qwen-3.5-Modellreihe von Alibaba kündigte Teamleiter Lin Junyang über X (ehemals Twitter) mit der Nachricht „me stepping down. bye my beloved qwen.“ seinen Rücktritt an
    • Lin war seit 2024 ein zentraler Forscher, der die Veröffentlichung der Open-Weight-Modelle von Qwen vorangetrieben hatte, und gehörte bei Alibaba zu den jüngsten Mitarbeitern auf P10-Niveau
  • Laut einem Bericht des chinesischen Mediums 36Kr hielt Alibabas Tongyi Lab am 4. März gegen 13 Uhr eine unternehmensweite Dringlichkeitssitzung ab, in der CEO Wu Yongming dem Qwen-Team die Situation persönlich erläuterte
    • Lins Rücktritt war 12 Stunden zuvor um 0:11 Uhr bekannt gegeben worden und soll auch intern im Team einen großen Schock ausgelöst haben
    • Lin hinterließ gegen 14 Uhr auf WeChat die Nachricht: „Brüder von Qwen, macht wie geplant weiter. Kein Problem“, äußerte sich jedoch nicht klar dazu, ob er zurückkehren würde
    • Mitglieder des Qwen-Teams sagten 36Kr, dass Junyangs Führung der entscheidende Faktor dafür gewesen sei, die aktuellen Ergebnisse mit deutlich weniger Ressourcen als die Konkurrenz zu erreichen
  • Als möglicher Auslöser des Rücktritts wird eine interne Organisationsumbildung bei Alibaba genannt, bei der ein neuer Forscher aus dem Google-Gemini-Team als Verantwortlicher für Qwen eingesetzt worden sei; bestätigt ist diese Information jedoch nicht

Kettenreaktion bei den Rücktritten von Schlüsselkräften

  • Nach Lins Rücktritt wurde bestätigt, dass mehrere zentrale Teammitglieder ebenfalls das Unternehmen verlassen haben
    • Binyuan Hui: Lead für die Code-Entwicklung von Qwen, Gesamtverantwortlicher für die Qwen-Coder-Reihe, zuständig für den gesamten Prozess des Agentenlernens, zuletzt auch an Robotikforschung beteiligt
    • Bowen Yu: Lead für das Post-Training von Qwen, federführend bei der Entwicklung der Qwen-Instruct-Reihe
    • Kaixin Li: zentraler Mitwirkender an Qwen 3.5/VL/Coder, promoviert an der National University of Singapore
    • Darüber hinaus wurde berichtet, dass am selben Tag zahlreiche weitere junge Forscher zurücktraten
  • Dass der Alibaba-CEO persönlich an der Sitzung teilnahm, zeigt, dass das Unternehmen die Schwere der Lage erkannt hat

Merkmale der Qwen-3.5-Modelle

  • Qwen 3.5 ist eine Open-Weight-Modellfamilie, die das Alibaba-Qwen-Team in den vergangenen Wochen veröffentlicht hat, und ihre Leistung ist sehr stark
    • Das am 17. Februar veröffentlichte Qwen3.5-397B-A17B ist ein großes Modell mit einem Umfang von 807 GB
    • Danach wurden nacheinander Modelle in verschiedenen Größen wie 122B, 35B, 27B, 9B, 4B, 2B und 0.8B veröffentlicht
  • Die 27B- und 35B-Modelle wurden fürs Coding positiv bewertet, die 9B-, 4B- und 2B-Modelle sind im Verhältnis zu ihrer Größe sehr effizient
    • Die 27B- und 35B-Modelle lassen sich auf Macs mit 32 GB/64 GB ausführen und bewältigen Coding-Aufgaben hervorragend
    • Besonders das 2B-Modell ist mit nur 4.57 GB (quantisiert 1.27 GB) sehr klein, unterstützt aber sowohl Reasoning als auch multimodale (Vision-)Funktionen

Ausblick

  • Sollte das Qwen-Team aufgelöst werden, könnten die Forschungsergebnisse, mit denen in kleinen Modellen hochwertige Leistung erreicht wurde, zum Stillstand kommen
  • Falls Teammitglieder ein neues Forschungsinstitut gründen oder sich anderen Organisationen anschließen, bleibt die Erwartung an Anschlussforschung bestehen
  • Die Lage gilt derzeit als „noch unklar“, und es besteht weiterhin die Möglichkeit, dass Alibaba einen Teil des Personals hält

Referenzierte externe Quellen

2 Kommentare

 
mammal 2026-03-05

Der Rücktritt von Lin Junyang ist wirklich ein Schock. Ich nutze Qwen 3.5 35B-A3B sehr gern, deshalb hatte ich mich auf Qwen 4 gefreut ;_;

 
GN⁺ 2026-03-05
Hacker-News-Kommentare
  • Hoffentlich wird die Entwicklung nicht zu sehr behindert. Wie Simon sagte, ist Qwen3.5 wirklich beeindruckend
    Ich habe in den letzten Tagen Qwen3.5-35B-A3B getestet, und es hat bisher die beste Fähigkeit zum agentischen Coden von allen Modellen, die ich benutzt habe
    Ich ließ es Rust- und Elixir-Code mit dem Pi-Harness schreiben; es erstellte selbst Tests und prüfte, ob sie bestanden wurden. Es ging gut mit Schleifen aus Test- oder Kompilierfehlern um und arbeitete weiter auf das Ziel hin
    • Ich habe 3.5:122b auf einem GH200 laufen lassen; bei Rust/React/TS-Aufgaben ist es etwas schwächer als Sonnet, aber für kleinere Aufgabenbereiche völlig ausreichend
      Allerdings neigt es dazu, zwischendurch die Anweisungen zu ignorieren und mit dem Gedanken „das ist einfacher“ den kompletten Support-Code zu löschen
    • Ich habe es auch mit Rust getestet, und gelegentlich geriet es in eine Endlosschleife, aus der es sich dann selbst wieder befreite
      Es brachte sich selbst durcheinander, weil es in der Planungsphase deadpool und deadpool-r2d2 auswählte. Insgesamt ist der Code trotzdem gut, und vermutlich müsste man nur die Datenbankschicht etwas nacharbeiten
      Bisher ist es das stabilste selbst hostbare Modell
    • Als ich das dichte 27B-Modell ausprobierte, gab es deutlich weniger Schleifen und unnötige Wiederholungen
    • Läuft das bei dir lokal mit llama.cpp? Mit dem standardmäßigen Chat-Template sind Tool-Calls fehlgeschlagen, aber mit diesem Template funktioniert es deutlich besser
    • Mich würde interessieren, auf welcher Hardware du es betreibst. Hast du das Gefühl, dass es Frontier-Modelle beim alltäglichen Coden ersetzen kann?
  • Es soll Spannungen zwischen dem Qwen-Forschungsteam und dem Produktteam von Alibaba gegeben haben. Ich habe gehört, dass Alibaba zuletzt DAU als KPI erzwungen hat
    Aus Unternehmenssicht ist ein Strategiewechsel nachvollziehbar, aber ich frage mich, warum man die Kernforscher rausgeworfen hat. Ist das nicht gerade eine Zeit, in der Modellforscher knapp sind?
    • Vielleicht wollte man die Qwen-Modelle künftig in geschlossene kommerzielle Modelle überführen, und die Forscher konnten das nicht akzeptieren
  • Ich frage mich, warum US-Forschungslabore solchen Talenten nicht riesige Summen bieten
    • In meiner Gegend (Ohio) geht ICE gegen Chinesen vor. Sogar Menschen mit legalem Aufenthaltsstatus haben das Gefühl, von Abschiebung bedroht zu sein
      In so einer Atmosphäre wird es für US-Labore schwer, selbst mit viel Geld Talente anzuziehen
    • Die USA haben selbst legale Einwanderer einem Risiko der Inhaftierung ausgesetzt
    • Europa sollte als Reaktion auf das politische Chaos in den USA konkurrierende Modelle aufbauen
    • Diejenigen, die sich bereits von US-Kapital anziehen ließen, sind schon gegangen, und auch China investiert bereits genug Geld
      Außerdem kann man in chinesischen Unternehmen mehr Einfluss auf Entscheidungen haben
    • Das Problem sind nicht nur Kürzungen beim NSF-Budget. Gesundheitsfragen, Kriegsrisiken und die Unsicherheit für ausländische Forscher haben die Attraktivität der USA verringert
      Schon seit der Trump-Regierung kommen weniger ausländische Studierende, und inzwischen gilt es fast schon als Reputationsrisiko, in den USA zu promovieren
  • Bei lokalen Modellen neigen Menschen dazu, Versuch und Irrtum großzügiger zu akzeptieren
    Wenn ein Cloud-Modell Tokens verschwendet, ist das ärgerlich wegen der Kosten, aber wenn ein lokales Modell in einer Schleife hängt, denkt man eher: „Es denkt noch nach“
    Wenn Modelle wie Qwen für lokales Coden gut genug werden, ist die Veränderung womöglich eher ökonomisch als technisch
    • Token-Verschwendung bei lokalen Modellen ist mir sogar willkommen. Das GPU-Mainframe in meinem Zimmer dient schließlich auch als Heizung (dank der instabilen Heizsituation in der Schweiz)
  • Ich habe das 32B-Modell einige Tage lokal laufen lassen, und es kommt mit agentischem Coden ziemlich gut zurecht
    Für seine Größe ist die Leistung stark, aber bei langen Anweisungen ignoriert es etwa die Hälfte. Für diese Größenklasse ist das ein akzeptabler Trade-off
  • Als Mathematiker habe ich mit Qwen automatisiert, wie Beziehungen zwischen Papers erkannt und Zusammenfassungen erstellt werden
    Es wurde sogar zur Überprüfung von Fehlzitaten eingesetzt und für arXiv-Papers verwendet
    Die Ergebnisse habe ich auf dieser Seite zusammengestellt
  • Ich hoffe, dass die Forscher anderswo den Wettbewerb um Open-Weight-Modelle wieder aufnehmen
    Eigentlich dachte ich, solche Forschung sollte vom Staat unterstützt werden, aber im Moment übernehmen chinesische Unternehmen diese Rolle
  • Qwen3.5 ist wirklich hervorragend. Ich habe die 35B-Version auf einer Ada NextGen 24GB mit easy-llm-cli laufen lassen, und sie war fast auf dem Niveau von Gemini 3 Pro
    Auch die Geschwindigkeit war ziemlich gut
    • Mit q4-Quantisierung konnte ich 175 tg und 7K pp erreichen, effizienter als bei den meisten Cloud-Anbietern
  • In letzter Zeit scheint die Stimmung von „AI ersetzt Menschen“ zu „ohne bestimmte Personen ist AI tot“ gekippt zu sein. Ein wirklich dramatischer Wandel
    • Die Verfügbarkeit von Anthropic liegt nicht bei 99,9999999 %, sondern nur bei etwa 90 %. Das sieht man auf der Statusseite
      Wenn AI Menschen wirklich vollständig ersetzen könnte, müssten CEOs nicht so sehr Überzeugungsarbeit leisten
    • „Ohne bestimmte Personen ist AI tot“ ist übertrieben. Die Leute fragen sich nur nach der Zukunft der Qwen-Modellfamilie
    • Der Wechsel vom AGI-Ziel zu einer werbefokussierten Kurzfriststrategie zeigt die aktuelle Lage ziemlich gut
    • Claude kann selbst keine native App bauen, und selbst seine Web-App ist instabil, was der Grund dafür wurde, dass Anthropic Bun übernommen hat
  • Vergiss es einfach, hier ist Chinatown