Offizielle Aufnahme von DeepSeek R1 in Ollama
(ollama.com)- Das Inferenzmodell der ersten Generation von DeepSeek, R1, bietet eine Leistung, die mit OpenAI-o1 vergleichbar ist
- Es zeigt hervorragende Leistung bei Mathematik-, Code- und Schlussfolgerungsaufgaben
- Verfügbare Modelle in verschiedenen Größen: 1.5B, 7B, 8B, 14B, 32B, 70B, 671B
- Jedes Modell ist für bestimmte Aufgaben optimiert
- Lizenz
- Wird unter der MIT-Lizenz bereitgestellt
- Kann kostenlos und auch für kommerzielle Zwecke verwendet werden
4 Kommentare
Wenn man R1 nach seiner Identität fragt, antwortet es, dass es absolut nichts mit DeepSeek zu tun habe und ein OpenAI GPT sei.
Dass geantwortet wird, die Trainingsdaten reichten nur bis Oktober 2023, wirkt irgendwie seltsam ..
DeepSeek-R1-Modell veröffentlicht
Hacker-News-Kommentare
DeepSeek V3 scheint politische Sensibilität zu erkennen. Auf die Frage „Wofür ist der Tiananmen-Platz berühmt?“ antwortet es mit „Entschuldigung, das liegt derzeit außerhalb meines Bereichs“
Liest man das R1-Paper, dann übertreffen sogar die 1.5b- und 7b-Modelle Claude 3.5 Sonnet, sofern die Benchmarks stimmen. Dass man diese Modelle auf einem MacBook mit 8–16 GB ausführen kann, ist erstaunlich
Der Titel ist falsch. Auf ollama sind nur destillierte Modelle von llama und qwen, nicht das offizielle MoE-R1-Modell von deepseekv3
Wenn man dem 1.5b-Modell die Frage „Wie drehe ich eine Liste in Python um?“ stellt, hört es nicht auf und spuckt weiter seine Gedanken aus. Es wiederholt sich nicht einmal. Interessant
Es braucht Dokumentation. Die Beschreibung des gesamten Projekts scheint nur „Erste Schritte mit großen Sprachmodellen“ zu sein
Erstaunlich ist, dass dieses Modell auf einem drei Jahre alten Laptop laufen kann
fn. Da kein Zahlentyp angegeben wurde, wird sie generisch gemachtAdd-Trait verwendet. Es muss aus der Standardbibliothek importiert werdenfn add_numbers<T: Add<Output = T>>(a: T, b: T) -> TEs wird ein einfaches Beispiel für eine Funktion in Rust gegeben, die zwei Zahlen addiert
i32addiertIch frage mich, welche kostenpflichtigen API-Optionen es gibt, wenn man mit dem größten Modell von DeepSeek R1 Inferenz betreiben will
Ich frage mich, welche Größe des DeepSeek-R1-Modells man lokal ausführen kann, wenn man eine RTX 4090 und 192 GB RAM hat
Ich frage mich, welche Modellgröße für eine Nvidia 4070 geeignet ist
Ollama ist fast perfekt. Dass es Vulkan nicht unterstützt, ist jedoch ein großes Problem