DeepSeeks Weg zur Open-Source-Freigabe seiner Inference Engine
(github.com/deepseek-ai)- Das DeepSeek-Team hat seine Pläne vorgestellt, die interne Inference Engine (DeepSeek Inference Engine) an Open Source zurückzugeben
- Die bestehende Inference Engine basiert auf vLLM, und angesichts der steigenden Nachfrage nach der Bereitstellung der Modelle DeepSeek-V3 und R1 wird eine Freigabe erwogen
- Eine vollständige Veröffentlichung ist wegen bestehendem Code, Infrastruktur-Abhängigkeiten und Wartungsaufwand schwierig; stattdessen erfolgt ein Kurswechsel hin zu modularen Beiträgen auf Funktionsbasis
- Künftig will man eng mit der Open-Source-Community zusammenarbeiten, um Performance-Optimierungen und wiederverwendbare Funktionen zu teilen
- DeepSeek will sich aktiv für die Optimierung der Inferenz und die Synchronisierung des Day-0-Supports mit der Community bei Model-Releases einsetzen
DeepSeeks Weg zur Open-Source-Freigabe seiner Inference Engine
Reaktionen auf die Open Source Week und nachfolgende Beiträge
- Während der jüngsten Open Source Week wurden mehrere Bibliotheken als Open Source veröffentlicht
- Die positive Resonanz aus der Community führte zu aktiver Zusammenarbeit, Diskussionen und Bugfixes
- Dies war der Auslöser für die Entscheidung, auch DeepSeeks interne Inference Engine als Open Source zu teilen
Technische Grundlage
- DeepSeeks Trainings-Framework basiert auf PyTorch
- Die Inference Engine wurde auf Basis eines frühen Forks des vLLM-Projekts entwickelt und enthält viele auf DeepSeek-Modelle zugeschnittene Anpassungen
Praktische Einschränkungen bei einer vollständigen Open-Source-Veröffentlichung
- Unterschiede in der Codebasis: Ausgangspunkt war ein mehr als ein Jahr alter vLLM-Fork; die Struktur ist ähnlich, wurde aber erheblich verändert
- Abhängigkeit von interner Infrastruktur: Starke Kopplung an DeepSeeks eigene Infrastruktur wie Cluster-Management-Tools erschwert die externe Nutzung
- Begrenzte Wartungsressourcen: Als kleines Forschungsteam fehlen die Kapazitäten, ein großes Open-Source-Projekt dauerhaft zu betreuen
Alternative: Zusammenarbeit mit bestehenden Open-Source-Projekten
Künftig sind Beiträge in folgende Richtung geplant:
- Extraktion modularer Funktionen: Wiederverwendbare Komponenten sollen in unabhängige Bibliotheken ausgelagert und beigetragen werden
- Teilen von Performance-Optimierungen: Leistungsverbesserungen und Designideen aus der internen Implementierung sollen in bestehende Open-Source-Projekte einfließen
Dank an die Community und Vision
- Ohne die Open-Source-Community wäre Fortschritt in der AGI-Entwicklung nicht möglich gewesen
- Betriebssysteme, Sprachen, ML-Frameworks und Inference Engines bilden als Open-Source-Ökosystem die Grundlage für AI-Innovationen
- DeepSeek will sich gemeinsam mit der Community kontinuierlich dafür einsetzen, dass die Vorteile von AGI der gesamten Menschheit zugutekommen
> [!NOTE]
> Dieser Beitrag ist eine Erläuterung der Open-Source-Strategie für die Codebasis der DeepSeek Inference Engine.
> Im Zusammenhang mit künftigen Model-Veröffentlichungen will DeepSeek die Zusammenarbeit mit der Open-Source-Community und Hardware-Partnern weiter ausbauen.
> Insbesondere sollen Inferenz-bezogene Technologien vor dem Model-Release vorab geteilt und abgestimmt werden, damit Day-0-Support für SOTA auf verschiedenster Hardware von Beginn an möglich ist.
1 Kommentare
Hacker-News-Kommentare
Im März übernahm vLLM die Verbesserungen aus dem DeepSeek-Paper, wodurch sich die DeepSeek-Leistung in vLLM v0.7.3 um mehr als das Dreifache verbesserte
Zustimmung zum Punkt der Codebasis-Abzweigung
Motivation kommerzieller KI-Unternehmen, Forschungsergebnisse und Know-how zu teilen
"Es gibt etwas Interessantes für die Open-Source-Community, aber um es außerhalb des Unternehmens lauffähig zu machen, ist viel Aufräumarbeit nötig, und es gibt kein Personal, das es nach der Veröffentlichung angemessen pflegt"
Es wurden gute Engineering-Arbeiten von DeepSeek gesehen
Es wird gefragt, ob China als Reaktion auf die Dominanz der USA strategisch in großem Umfang Open-Source-KI-Tools, Modelle usw. veröffentlicht
tl;dr "Der vLLM-Fork ist unwartbar geworden, und nun soll er öffentlich neu aufgebaut werden"
Es wirkt wie eine Möglichkeit, Zensur umzusetzen