- Der im September 2025 von NIST veröffentlichte Bewertungsbericht zu den DeepSeek-AI-Modellen ist kein neutraler technischer Bewertungsbericht, sondern ein Dokument mit politischer Zielsetzung, das chinesische Open-Source-KI ohne Belege für tatsächliche Sicherheitsbedrohungen eindämmen soll
- Der Bericht legt keinerlei Beweise für Backdoors, Spyware oder Datenabfluss in den DeepSeek-Modellen vor und kritisiert lediglich, dass sie weniger auf Sicherheit getrimmt und daher leichter zu jailbreaken seien sowie gelegentlich Perspektiven der chinesischen Regierung widerspiegelten
- DeepSeek hat unter der Apache-2.0-Lizenz Modellgewichte, Architektur und Trainingsmethodik vollständig offengelegt und damit einen großen Beitrag zur offenen KI-Forschung geleistet, wird von der US-Regierung jedoch als „feindliche KI“ eingestuft
- NIST vermischt absichtlich lokale Ausführung und API-Nutzung, lässt Vergleiche mit anderen Open-Source-Modellen oder Bias-Tests für US-Modelle aus und verwendet damit eine verzerrte Methodik
- Der Bericht ist Teil einer Industriepolitik, die DeepSeek eindämmen soll, nachdem es die Wettbewerbsfähigkeit von Open-Source-KI bewiesen hat, um die monopolartige Stellung US-amerikanischer KI-Unternehmen zu schützen; wissenschaftliche Neutralität tritt dabei hinter kommerzielle und strategische Interessen zurück
Das eigentliche Wesen des NIST-Bewertungsberichts zu DeepSeek
- Der DeepSeek-Bericht von NIST vom 30. September 2025 ist kein neutraler technischer Bewertungsbericht, sondern ein politisches Angriffsdokument
- Es gibt keinerlei Belege für Backdoors, Spyware oder Datenabfluss
- Ein Versuch der US-Regierung, mithilfe von Angst und Desinformation Open Science, Open Research und Open Source zu behindern
- Ein Angriff auf einen Beitrag zur Menschheit mit Politik und Unwahrheiten, um Unternehmensmacht zu schützen und Kontrolle zu bewahren
- Nach Veröffentlichung des Berichts brach online Panik aus
- Behauptungen, die DeepSeek-Gewichte seien kompromittiert
- Behauptungen, China betreibe über das Modell Spionage
- Behauptungen, schon der Download sei ein Sicherheitsrisiko
- All diese Behauptungen sind falsch
Die tatsächlichen Leistungen von DeepSeek
- Entwicklung wettbewerbsfähiger KI-Modelle
- Mit deutlich geringerem Budget als OpenAI oder Anthropic Leistung auf Frontier-Niveau erreicht
- Nicht perfekt, aber im Verhältnis zum Budget ein beeindruckendes Ergebnis
- Vollständige Offenlegung unter der Apache-2.0-Lizenz
- Modellgewichte
- Architektur
- Trainingsmethodik
- Forschungsarbeiten
- Ermöglichte es jedem, die Arbeit zu reproduzieren und Modelle in Frontier-Größe lokal auszuführen
- Unterstützt dabei, alles von Grund auf neu nachzubauen
- Einer der größten Beiträge zur offenen KI-Forschung der letzten Jahre
- Reaktion der US-Regierung: Einstufung als „feindliche KI“ und Andeutungen von Spionage
Die zentrale Täuschungsstrategie von NIST
- Absichtliche Vermischung von drei Szenarien
- Szenario A: Bei Nutzung der DeepSeek-App/API werden Prompts an chinesische Server gesendet (ein reales Thema der Datensouveränität)
- Szenario B: Beim Download offener Gewichte und lokaler Ausführung werden keine Daten vom Gerät nach außen gesendet
- Szenario C: Beim Hosting über vertrauenswürdige Drittanbieter wie OpenRouter, Fireworks oder Chutes hängen Infrastruktur und Datenschutzkontrolle vom jeweiligen Hosting-Anbieter ab
- NIST wirft diese völlig unterschiedlichen Situationen absichtlich in einen Topf
- Warnt vor einem „Risiko für die nationale Sicherheit“, während auch lokale Downloads mitgezählt werden
- Jeder mit grundlegendem technischen Verständnis erkennt, dass dies irreführend ist
- Diese Verwechslung bildet die Grundlage für das übrige irreführende Framing des Berichts
Was NIST tatsächlich gefunden hat
- Was übrig bleibt, wenn man die reißerische Sprache entfernt
- DeepSeek-Modelle lassen sich leichter jailbreaken als sicherheitsgetunte US-Modelle
- Sie spiegeln mitunter Perspektiven der chinesischen Regierung wider
- In bestimmten Benchmarks ist die Leistung etwas geringer
- Es wird behauptet, die Kosten pro Token seien höher (ohne offengelegte Methodik)
- Das ist alles
- Keine Belege für böswilliges Verhalten
- Keine Belege für Datenabfluss
- Keine Belege dafür, dass das Modell bösartige Handlungen ausführt, außer dass es „auf eine Weise auf Prompts antwortet, die uns nicht gefällt“
- Analyse der Jailbreak-Funde
- DeepSeek hat weniger in Sicherheitstraining investiert (Ressourcenfrage)
- NIST testet frühere US-Modelle nicht zum Vergleich
- Gleichzeitig lässt sich OpenAIs gpt-oss-120b sehr leicht jailbreaken
- Analyse des Fundes einer „Narrative der Kommunistischen Partei Chinas“
- Es ist nicht überraschend, dass ein mit chinesischen Daten trainiertes Modell chinesische Perspektiven widerspiegelt
- Es unterliegt chinesischen Zensurgesetzen
- Das ist keine Sicherheitslücke
Vergleiche, die NIST nicht gemacht hat
- Kein Vergleich mit anderen offenen Modellen
- Wo sind Llama, Mistral und Falcon?
- Ein Vergleich hätte gezeigt, dass dies kein DeepSeek-spezifisches Problem ist, sondern dass offene Modelle allgemein weniger Safety-Layer haben als proprietäre Modelle
- Kein Vergleich mit frühen US-Modellen
- Wie anfällig war GPT-3 im Jahr 2020 für Jailbreaks?
- Dieser Vergleich würde die Erzählung schwächen und bleibt deshalb aus
- Keine Tests auf US-Bias in US-Modellen
- Offenbar gilt nur China-Bias als Sicherheitsrisiko
- Verwendung nicht öffentlicher Benchmarks
- „Nicht öffentliche Benchmarks, erstellt von CAISI“, machen Reproduktion und Überprüfung unmöglich
- Das ist keine Wissenschaft, sondern Advocacy-Forschung
Was der Bericht tatsächlich aussagt
- Zwischen den Zeilen gelesen
- DeepSeek-Modelle sind weniger poliert – bei geringeren Investitionen in die Entwicklung ist es nur natürlich, dass sie rauere Kanten haben
- Chinesische Modelle sind wettbewerbsfähig genug, um Sorge auszulösen – wäre ihr Marktpotenzial keine Bedrohung, gäbe es diesen Bericht nicht
- Die USA fürchten den Verlust ihrer KI-Dominanz – der Bericht wurde ausdrücklich im Rahmen von Trumps „AI Action Plan“ beauftragt. Die Erklärung des Handelsministers macht deutlich, dass es sich um Industriepolitik und nicht um eine neutrale Bewertung handelt
Die echte Bedrohung (Hinweis: nicht für Sie)
- Was DeepSeek tatsächlich bedroht hat: Monopole
- Das eigentliche „Verbrechen“ von DeepSeek war zu zeigen, dass Open Source funktioniert
- Der Beweis, dass leistungsfähige Modelle ohne Milliarden an Venture Capital oder geschlossene APIs gebaut werden können
- Das versetzt Unternehmen in Angst, die KI-Zugang zu Premiumpreisen verkaufen
- Als DeepSeek sagte: „Hier sind die Gewichte, führen Sie sie selbst aus“, griff das den wirtschaftlichen Burggraben an, auf den diese Unternehmen angewiesen sind
- Deshalb existiert der NIST-Bericht
- Weil DeepSeek gezeigt hat, dass Offenheit mit geschlossenen Systemen konkurrieren kann
- Und das Establishment dies blockieren muss
Die Heuchelei
- NIST-Warnung vs. Realität
- NIST: warnt, DeepSeek-Modelle könnten in Simulationsumgebungen auf bösartige Prompts reagieren
- Realität: US-Modelle senden tatsächlich reale Daten an externe Server
- Der Fall OpenAI
- Erinnern Sie sich daran, dass ChatGPT-Konversationen fürs Training verwendet wurden?
- Eine Opt-out-Möglichkeit wurde erst nach Gegenreaktionen hinzugefügt
- Der Vergleich
- DeepSeek-Gewichte lokal ausführen = null Datenübertragung
- OpenAI-API-Nutzung = fortlaufende Datenübertragung an Server
- Was davon ist das Datenschutzrisiko?
- Der Bericht warnt vor der „Übernahme ausländischer KI“, ignoriert aber, dass jede Cloud-API – ob aus den USA oder anderswo – Vertrauen in fremde Infrastruktur voraussetzt
- Lokale offene Gewichte sind besser auditierbar und sicherer als jeder Cloud-Service
- Aber darum geht es nicht. Denn es ging nie um Sicherheit. Es geht um Kontrolle über das Narrativ
Verrat an Open Source und Open Science
- Die Open-Source-Community hat die Grundlage moderner KI aufgebaut
- Linux, Python, PyTorch, Transformers
- Jahrzehnte kollaborativer Entwicklung, frei geteilt
- DeepSeek steht in dieser Tradition
- Hat offenes Wissen genutzt, etwas Beeindruckendes gebaut und es wieder zurückgegeben
- Die Reaktion der US-Institutionen: Es als Bedrohung bezeichnen
- Stellen Sie sich vor, China hätte so auf Metas Veröffentlichung von Llama reagiert
- Mit einem Regierungsbericht, der behauptet, Llama-Gewichte seien ein Überwachungswerkzeug, weil sie „anfällig für Jailbreaks“ seien
- Wir würden das Protektionismus nennen. Technische Paranoia. Einen Angriff auf offene Forschung
- Aber wenn wir es tun? „Nationale Sicherheit“
- Offene Forschung muss universell sein
- Man kann sich nicht nur dann auf Open Science berufen, wenn es gerade passt
Ein Test, den Sie selbst durchführen können
- Glauben Sie weder mir noch NIST, sondern prüfen Sie es selbst
- Laden Sie die DeepSeek-Gewichte herunter
- Führen Sie sie lokal mit huggingface transformers, vLLM, LM Studio oder llama.cpp aus
- Öffnen Sie ein Tool zur Netzwerküberwachung
- Beobachten Sie
- Es werden exakt null Pakete irgendwohin gesendet
- Prompts werden vollständig auf dem Gerät verarbeitet
- Die furchtbare „Sicherheitsbedrohung“ macht nichts außer Matrixmultiplikation, ohne mit irgendetwas verbunden zu sein
- Fragen Sie sich: Warum lügt die US-Regierung darüber?
- Die „Sicherheitsbedrohung“ liegt nicht im Modell. Sie liegt in der Politik
Worüber man sich tatsächlich Sorgen machen sollte
- Es gibt berechtigte Bedenken
- Nutzung der DeepSeek-API: Wenn sensible Daten an den gehosteten Dienst von DeepSeek gesendet werden, laufen sie über chinesische Infrastruktur. Das ist ein reales Problem der Datensouveränität, genauso wie bei jedem anderen ausländischen Cloud-Anbieter
- Anfälligkeit für Jailbreaks: Wer Produktionsanwendungen baut, sollte bei jedem Modell Schwachstellen testen und Sicherheitsmaßnahmen auf Anwendungsebene umsetzen. Verlassen Sie sich nicht allein auf Modell-Geländer. Verwenden Sie außerdem zur Inferenz ein Guard-Modell (wie LlamaGuard oder Qwen3Guard), um sowohl Prompts als auch Antworten zu klassifizieren und zu filtern
- Bias und Zensur: Jedes Modell spiegelt seine Trainingsdaten wider. Seien Sie sich dessen bewusst, unabhängig davon, welches Modell Sie verwenden
- Das sind Engineering-Aufgaben
- Kein Grund, Open-Source-Modelle (oder chinesische Modelle) grundsätzlich zu meiden
Bedeutung für die Zukunft der KI
- Es geht nicht nur um DeepSeek
- Es geht darum, ob KI offen und auditierbar bleibt oder von Regierungen und Unternehmen eingezäunt wird
- Die Fragen
- Werden wir zulassen, dass „Open Source“ zu „nur offen, wenn es aus den USA kommt“ umdefiniert wird?
- Werden wir für Sicherheitsbehauptungen echte Belege verlangen oder vage Andeutungen akzeptieren?
- Bleibt KI ein gemeinsames Projekt der Menschheit oder wird sie zur geopolitischen Waffe?
- DeepSeek hat bewiesen, dass es einen anderen Weg gibt. Deshalb musste es diskreditiert werden
Sicht des Autors
- Hintergrund des Autors
- Führt Open-Source-Modelle lokal aus
- Trainiert eigene Modelle
- Glaubt an kombinierbare Alignment-Ansätze und Nutzerfreiheit
- Ist der Ansicht, dass KI ein Werkzeug für Nutzer sein sollte, nicht für Unternehmen oder Regierungen
- Bewertung des NIST-Berichts
- Keine neutrale technische Bewertung
- Ein Politikdokument, das darauf ausgelegt ist, die Einführung chinesischer KI-Modelle zu verhindern, um kommerzielle und strategische Interessen der USA zu schützen
- Haltung zur Förderung der US-Industrie durch die Regierung
- Es ist nicht grundsätzlich falsch, wenn die US-Regierung US-Industrie fördert
- Aber man sollte es beim Namen nennen
- Protektionismus nicht als Sicherheitsforschung verkleiden
- Bedrohungen nicht konstruieren
- Die Öffentlichkeit nicht über das belügen, was die Belege tatsächlich zeigen
- Der Beitrag von DeepSeek
- Hat uns ein wertvolles und bedeutendes Geschenk gemacht
- Die Gewichte sind nur safetensor-Daten
- Sie liegen auf einem Laufwerk und tun, was man ihnen sagt
- Sie telefonieren nicht nach Hause. Sie spionieren nicht. Sie leaken keine Daten
- Fazit
- Wenn Sie besorgt sind, verstehen Sie vermutlich nicht, wie lokale Inferenz funktioniert
- Wenn Sie der Panikmache glauben, wurden Sie erfolgreich manipuliert
- Bei all dem geht es nicht um Sicherheit. Es geht um Macht – darum, wer die Werkzeuge baut, teilt und versteht, die die Zukunft prägen
Schlussfolgerung
- Der Code und die Forschung sind Open Source und auditierbar. Alles andere ist Politik
- Empfehlung an die Leser
- Lesen Sie den NIST-Bericht und den Code selbst
- Suchen Sie nach echten Belegen für bösartigen Code oder Überwachungsfunktionen
- Sie werden nichts finden. Denn es gibt nichts zu finden
- Und dann stellen Sie die eigentliche Frage
- Warum soll man Open Source fürchten, wenn es zu gut funktioniert?
1 Kommentare
Hacker-News-Kommentare