2 Punkte von GN⁺ 2025-10-07 | 1 Kommentare | Auf WhatsApp teilen
  • Der im September 2025 von NIST veröffentlichte Bewertungsbericht zu den DeepSeek-AI-Modellen ist kein neutraler technischer Bewertungsbericht, sondern ein Dokument mit politischer Zielsetzung, das chinesische Open-Source-KI ohne Belege für tatsächliche Sicherheitsbedrohungen eindämmen soll
  • Der Bericht legt keinerlei Beweise für Backdoors, Spyware oder Datenabfluss in den DeepSeek-Modellen vor und kritisiert lediglich, dass sie weniger auf Sicherheit getrimmt und daher leichter zu jailbreaken seien sowie gelegentlich Perspektiven der chinesischen Regierung widerspiegelten
  • DeepSeek hat unter der Apache-2.0-Lizenz Modellgewichte, Architektur und Trainingsmethodik vollständig offengelegt und damit einen großen Beitrag zur offenen KI-Forschung geleistet, wird von der US-Regierung jedoch als „feindliche KI“ eingestuft
  • NIST vermischt absichtlich lokale Ausführung und API-Nutzung, lässt Vergleiche mit anderen Open-Source-Modellen oder Bias-Tests für US-Modelle aus und verwendet damit eine verzerrte Methodik
  • Der Bericht ist Teil einer Industriepolitik, die DeepSeek eindämmen soll, nachdem es die Wettbewerbsfähigkeit von Open-Source-KI bewiesen hat, um die monopolartige Stellung US-amerikanischer KI-Unternehmen zu schützen; wissenschaftliche Neutralität tritt dabei hinter kommerzielle und strategische Interessen zurück

Das eigentliche Wesen des NIST-Bewertungsberichts zu DeepSeek

  • Der DeepSeek-Bericht von NIST vom 30. September 2025 ist kein neutraler technischer Bewertungsbericht, sondern ein politisches Angriffsdokument
    • Es gibt keinerlei Belege für Backdoors, Spyware oder Datenabfluss
    • Ein Versuch der US-Regierung, mithilfe von Angst und Desinformation Open Science, Open Research und Open Source zu behindern
    • Ein Angriff auf einen Beitrag zur Menschheit mit Politik und Unwahrheiten, um Unternehmensmacht zu schützen und Kontrolle zu bewahren
  • Nach Veröffentlichung des Berichts brach online Panik aus
    • Behauptungen, die DeepSeek-Gewichte seien kompromittiert
    • Behauptungen, China betreibe über das Modell Spionage
    • Behauptungen, schon der Download sei ein Sicherheitsrisiko
    • All diese Behauptungen sind falsch

Die tatsächlichen Leistungen von DeepSeek

  • Entwicklung wettbewerbsfähiger KI-Modelle
    • Mit deutlich geringerem Budget als OpenAI oder Anthropic Leistung auf Frontier-Niveau erreicht
    • Nicht perfekt, aber im Verhältnis zum Budget ein beeindruckendes Ergebnis
  • Vollständige Offenlegung unter der Apache-2.0-Lizenz
    • Modellgewichte
    • Architektur
    • Trainingsmethodik
    • Forschungsarbeiten
  • Ermöglichte es jedem, die Arbeit zu reproduzieren und Modelle in Frontier-Größe lokal auszuführen
    • Unterstützt dabei, alles von Grund auf neu nachzubauen
    • Einer der größten Beiträge zur offenen KI-Forschung der letzten Jahre
  • Reaktion der US-Regierung: Einstufung als „feindliche KI“ und Andeutungen von Spionage

Die zentrale Täuschungsstrategie von NIST

  • Absichtliche Vermischung von drei Szenarien
    • Szenario A: Bei Nutzung der DeepSeek-App/API werden Prompts an chinesische Server gesendet (ein reales Thema der Datensouveränität)
    • Szenario B: Beim Download offener Gewichte und lokaler Ausführung werden keine Daten vom Gerät nach außen gesendet
    • Szenario C: Beim Hosting über vertrauenswürdige Drittanbieter wie OpenRouter, Fireworks oder Chutes hängen Infrastruktur und Datenschutzkontrolle vom jeweiligen Hosting-Anbieter ab
  • NIST wirft diese völlig unterschiedlichen Situationen absichtlich in einen Topf
    • Warnt vor einem „Risiko für die nationale Sicherheit“, während auch lokale Downloads mitgezählt werden
    • Jeder mit grundlegendem technischen Verständnis erkennt, dass dies irreführend ist
  • Diese Verwechslung bildet die Grundlage für das übrige irreführende Framing des Berichts

Was NIST tatsächlich gefunden hat

  • Was übrig bleibt, wenn man die reißerische Sprache entfernt
    1. DeepSeek-Modelle lassen sich leichter jailbreaken als sicherheitsgetunte US-Modelle
    2. Sie spiegeln mitunter Perspektiven der chinesischen Regierung wider
    3. In bestimmten Benchmarks ist die Leistung etwas geringer
    4. Es wird behauptet, die Kosten pro Token seien höher (ohne offengelegte Methodik)
  • Das ist alles
    • Keine Belege für böswilliges Verhalten
    • Keine Belege für Datenabfluss
    • Keine Belege dafür, dass das Modell bösartige Handlungen ausführt, außer dass es „auf eine Weise auf Prompts antwortet, die uns nicht gefällt“
  • Analyse der Jailbreak-Funde
    • DeepSeek hat weniger in Sicherheitstraining investiert (Ressourcenfrage)
    • NIST testet frühere US-Modelle nicht zum Vergleich
    • Gleichzeitig lässt sich OpenAIs gpt-oss-120b sehr leicht jailbreaken
  • Analyse des Fundes einer „Narrative der Kommunistischen Partei Chinas“
    • Es ist nicht überraschend, dass ein mit chinesischen Daten trainiertes Modell chinesische Perspektiven widerspiegelt
    • Es unterliegt chinesischen Zensurgesetzen
    • Das ist keine Sicherheitslücke

Vergleiche, die NIST nicht gemacht hat

  • Kein Vergleich mit anderen offenen Modellen
    • Wo sind Llama, Mistral und Falcon?
    • Ein Vergleich hätte gezeigt, dass dies kein DeepSeek-spezifisches Problem ist, sondern dass offene Modelle allgemein weniger Safety-Layer haben als proprietäre Modelle
  • Kein Vergleich mit frühen US-Modellen
    • Wie anfällig war GPT-3 im Jahr 2020 für Jailbreaks?
    • Dieser Vergleich würde die Erzählung schwächen und bleibt deshalb aus
  • Keine Tests auf US-Bias in US-Modellen
    • Offenbar gilt nur China-Bias als Sicherheitsrisiko
  • Verwendung nicht öffentlicher Benchmarks
    • „Nicht öffentliche Benchmarks, erstellt von CAISI“, machen Reproduktion und Überprüfung unmöglich
    • Das ist keine Wissenschaft, sondern Advocacy-Forschung

Was der Bericht tatsächlich aussagt

  • Zwischen den Zeilen gelesen
    1. DeepSeek-Modelle sind weniger poliert – bei geringeren Investitionen in die Entwicklung ist es nur natürlich, dass sie rauere Kanten haben
    2. Chinesische Modelle sind wettbewerbsfähig genug, um Sorge auszulösen – wäre ihr Marktpotenzial keine Bedrohung, gäbe es diesen Bericht nicht
    3. Die USA fürchten den Verlust ihrer KI-Dominanz – der Bericht wurde ausdrücklich im Rahmen von Trumps „AI Action Plan“ beauftragt. Die Erklärung des Handelsministers macht deutlich, dass es sich um Industriepolitik und nicht um eine neutrale Bewertung handelt

Die echte Bedrohung (Hinweis: nicht für Sie)

  • Was DeepSeek tatsächlich bedroht hat: Monopole
    • Das eigentliche „Verbrechen“ von DeepSeek war zu zeigen, dass Open Source funktioniert
    • Der Beweis, dass leistungsfähige Modelle ohne Milliarden an Venture Capital oder geschlossene APIs gebaut werden können
  • Das versetzt Unternehmen in Angst, die KI-Zugang zu Premiumpreisen verkaufen
    • Als DeepSeek sagte: „Hier sind die Gewichte, führen Sie sie selbst aus“, griff das den wirtschaftlichen Burggraben an, auf den diese Unternehmen angewiesen sind
  • Deshalb existiert der NIST-Bericht
    • Weil DeepSeek gezeigt hat, dass Offenheit mit geschlossenen Systemen konkurrieren kann
    • Und das Establishment dies blockieren muss

Die Heuchelei

  • NIST-Warnung vs. Realität
    • NIST: warnt, DeepSeek-Modelle könnten in Simulationsumgebungen auf bösartige Prompts reagieren
    • Realität: US-Modelle senden tatsächlich reale Daten an externe Server
  • Der Fall OpenAI
    • Erinnern Sie sich daran, dass ChatGPT-Konversationen fürs Training verwendet wurden?
    • Eine Opt-out-Möglichkeit wurde erst nach Gegenreaktionen hinzugefügt
  • Der Vergleich
    • DeepSeek-Gewichte lokal ausführen = null Datenübertragung
    • OpenAI-API-Nutzung = fortlaufende Datenübertragung an Server
    • Was davon ist das Datenschutzrisiko?
  • Der Bericht warnt vor der „Übernahme ausländischer KI“, ignoriert aber, dass jede Cloud-API – ob aus den USA oder anderswo – Vertrauen in fremde Infrastruktur voraussetzt
    • Lokale offene Gewichte sind besser auditierbar und sicherer als jeder Cloud-Service
  • Aber darum geht es nicht. Denn es ging nie um Sicherheit. Es geht um Kontrolle über das Narrativ

Verrat an Open Source und Open Science

  • Die Open-Source-Community hat die Grundlage moderner KI aufgebaut
    • Linux, Python, PyTorch, Transformers
    • Jahrzehnte kollaborativer Entwicklung, frei geteilt
  • DeepSeek steht in dieser Tradition
    • Hat offenes Wissen genutzt, etwas Beeindruckendes gebaut und es wieder zurückgegeben
  • Die Reaktion der US-Institutionen: Es als Bedrohung bezeichnen
  • Stellen Sie sich vor, China hätte so auf Metas Veröffentlichung von Llama reagiert
    • Mit einem Regierungsbericht, der behauptet, Llama-Gewichte seien ein Überwachungswerkzeug, weil sie „anfällig für Jailbreaks“ seien
    • Wir würden das Protektionismus nennen. Technische Paranoia. Einen Angriff auf offene Forschung
  • Aber wenn wir es tun? „Nationale Sicherheit“
  • Offene Forschung muss universell sein
    • Man kann sich nicht nur dann auf Open Science berufen, wenn es gerade passt

Ein Test, den Sie selbst durchführen können

  • Glauben Sie weder mir noch NIST, sondern prüfen Sie es selbst
  • Laden Sie die DeepSeek-Gewichte herunter
    • Führen Sie sie lokal mit huggingface transformers, vLLM, LM Studio oder llama.cpp aus
    • Öffnen Sie ein Tool zur Netzwerküberwachung
  • Beobachten Sie
    • Es werden exakt null Pakete irgendwohin gesendet
    • Prompts werden vollständig auf dem Gerät verarbeitet
    • Die furchtbare „Sicherheitsbedrohung“ macht nichts außer Matrixmultiplikation, ohne mit irgendetwas verbunden zu sein
  • Fragen Sie sich: Warum lügt die US-Regierung darüber?
  • Die „Sicherheitsbedrohung“ liegt nicht im Modell. Sie liegt in der Politik

Worüber man sich tatsächlich Sorgen machen sollte

  • Es gibt berechtigte Bedenken
    • Nutzung der DeepSeek-API: Wenn sensible Daten an den gehosteten Dienst von DeepSeek gesendet werden, laufen sie über chinesische Infrastruktur. Das ist ein reales Problem der Datensouveränität, genauso wie bei jedem anderen ausländischen Cloud-Anbieter
    • Anfälligkeit für Jailbreaks: Wer Produktionsanwendungen baut, sollte bei jedem Modell Schwachstellen testen und Sicherheitsmaßnahmen auf Anwendungsebene umsetzen. Verlassen Sie sich nicht allein auf Modell-Geländer. Verwenden Sie außerdem zur Inferenz ein Guard-Modell (wie LlamaGuard oder Qwen3Guard), um sowohl Prompts als auch Antworten zu klassifizieren und zu filtern
    • Bias und Zensur: Jedes Modell spiegelt seine Trainingsdaten wider. Seien Sie sich dessen bewusst, unabhängig davon, welches Modell Sie verwenden
  • Das sind Engineering-Aufgaben
    • Kein Grund, Open-Source-Modelle (oder chinesische Modelle) grundsätzlich zu meiden

Bedeutung für die Zukunft der KI

  • Es geht nicht nur um DeepSeek
    • Es geht darum, ob KI offen und auditierbar bleibt oder von Regierungen und Unternehmen eingezäunt wird
  • Die Fragen
    • Werden wir zulassen, dass „Open Source“ zu „nur offen, wenn es aus den USA kommt“ umdefiniert wird?
    • Werden wir für Sicherheitsbehauptungen echte Belege verlangen oder vage Andeutungen akzeptieren?
    • Bleibt KI ein gemeinsames Projekt der Menschheit oder wird sie zur geopolitischen Waffe?
  • DeepSeek hat bewiesen, dass es einen anderen Weg gibt. Deshalb musste es diskreditiert werden

Sicht des Autors

  • Hintergrund des Autors
    • Führt Open-Source-Modelle lokal aus
    • Trainiert eigene Modelle
    • Glaubt an kombinierbare Alignment-Ansätze und Nutzerfreiheit
    • Ist der Ansicht, dass KI ein Werkzeug für Nutzer sein sollte, nicht für Unternehmen oder Regierungen
  • Bewertung des NIST-Berichts
    • Keine neutrale technische Bewertung
    • Ein Politikdokument, das darauf ausgelegt ist, die Einführung chinesischer KI-Modelle zu verhindern, um kommerzielle und strategische Interessen der USA zu schützen
  • Haltung zur Förderung der US-Industrie durch die Regierung
    • Es ist nicht grundsätzlich falsch, wenn die US-Regierung US-Industrie fördert
    • Aber man sollte es beim Namen nennen
    • Protektionismus nicht als Sicherheitsforschung verkleiden
    • Bedrohungen nicht konstruieren
    • Die Öffentlichkeit nicht über das belügen, was die Belege tatsächlich zeigen
  • Der Beitrag von DeepSeek
    • Hat uns ein wertvolles und bedeutendes Geschenk gemacht
    • Die Gewichte sind nur safetensor-Daten
    • Sie liegen auf einem Laufwerk und tun, was man ihnen sagt
    • Sie telefonieren nicht nach Hause. Sie spionieren nicht. Sie leaken keine Daten
  • Fazit
    • Wenn Sie besorgt sind, verstehen Sie vermutlich nicht, wie lokale Inferenz funktioniert
    • Wenn Sie der Panikmache glauben, wurden Sie erfolgreich manipuliert
    • Bei all dem geht es nicht um Sicherheit. Es geht um Macht – darum, wer die Werkzeuge baut, teilt und versteht, die die Zukunft prägen

Schlussfolgerung

  • Der Code und die Forschung sind Open Source und auditierbar. Alles andere ist Politik
  • Empfehlung an die Leser
    • Lesen Sie den NIST-Bericht und den Code selbst
    • Suchen Sie nach echten Belegen für bösartigen Code oder Überwachungsfunktionen
    • Sie werden nichts finden. Denn es gibt nichts zu finden
  • Und dann stellen Sie die eigentliche Frage
    • Warum soll man Open Source fürchten, wenn es zu gut funktioniert?

1 Kommentare

 
GN⁺ 2025-10-07
Hacker-News-Kommentare
  • Es überrascht mich überhaupt nicht, dass US-Behörden seit Langem politisch für grenzüberschreitende Themen instrumentalisiert werden. Ich war chinesischer Elektronik gegenüber ebenfalls immer skeptisch. Ich stimme zu, dass dieser Bericht falsch und fremdenfeindlich ist, aber ich habe weiterhin den Verdacht, dass China, falls es genug Kontrolle über LLMs erlangt, heute oder in Zukunft auf irgendeine subtile Weise Manipulation versuchen könnte. Das gilt nicht nur für China; auch die USA oder jede andere Großmacht würden bei ausreichender Macht genauso handeln. Am Ende ist es wichtig, Modelle fortlaufend zu hinterfragen, zu benchmarken und konsequent zu überwachen, ob sie unseren Bedürfnissen entsprechen statt denen des Anbieters.
    • Du hast die Möglichkeit subtiler Manipulation durch China via LLM erwähnt; mich würde interessieren, wie das konkret aussehen könnte.
    • Staatlicher oder politischer Einfluss spielt natürlich bis zu einem gewissen Grad hinein. Die Frage ist nicht, ob er existiert, sondern wo und wie stark er wirkt. Diesen Bericht pauschal als „falsch“ oder „voreingenommen“ abzutun und wegzuwischen, bringt nichts. Wir müssen in einer komplexen Welt Informationen filtern und analysieren.
    • Falschinformationen über ausländische Produkte zu verbreiten ist nicht die Lösung. Besser wäre es, anzuerkennen, dass die Leute Open-Source-Modelle wollen, und das beste inländische Modell in hoher Qualität offenzulegen, damit es breit genutzt wird.
    • Wenn ich meine Gedanken zur US-Demokratie ordne, dann strebt die amerikanische Führung nach maximaler Flexibilität, um jederzeit nach Belieben entscheiden zu können. Weil es eine Demokratie ist, muss die Illusion öffentlicher Zustimmung aufrechterhalten werden. Der Staat schafft ein Umfeld, in dem sich für jede Entscheidung ein gewisses Maß an Unterstützung sichern lässt, indem er bestimmte Sichtweisen einpflanzt und so einen Teil des öffentlichen Denkens beeinflusst. Wenn sich die Politik ändert oder ein neuer Führer auftaucht, kann man die Schuld dem Vorgänger zuschieben und einen moralischen Neustart nach dem Muster „früher war es schlecht, jetzt hat sich alles geändert“ inszenieren. Das ist in autoritären Systemen nicht möglich. Wenn Putin zum Beispiel die Kosten des Krieges erkennt, kann er ihn nicht einfach beenden, ohne politische Legitimität zu verlieren. Wäre Russland eine Demokratie nach US-Art, hätte man wohl schnell einen neuen Führer wählen, die Truppen abziehen, Putin symbolisch bestrafen und ihn anschließend international von Verantwortung entlasten können.
    • Diese Behörden werden auch innerhalb der eigenen Grenzen als politische Werkzeuge eingesetzt.
  • Ich empfehle allen, zuerst den Originalbericht zu lesen, danach diese Analyse und sich dann selbst ein Urteil zu bilden. Es ist wichtig, den Primärtext zu lesen und sich nicht von klickorientierten Zusammenfassungen treiben zu lassen.
  • Als jemand, der an einer europäischen Universität LLMs für Forschende und Mitarbeitende hostet, trifft mich das Thema persönlich sehr. Ohne chinesische Modelle wären viele der Dinge, die wir derzeit tun, unmöglich gewesen. Meiner Ansicht nach sollte die EU oder sonst wer dankbar sein, dass chinesische Forschungslabore ihre Modelle unter so großzügigen Lizenzen veröffentlichen. Ohne sie wären die Optionen miserabel gewesen. Wenn man ein starkes US-Modell braucht, wird einem zum Aufbau eines NVIDIA-Datacenters für Hunderte Millionen US-Dollar geraten. Selbst EU-Optionen verlangen Lizenzgebühren, obwohl man sie auf eigener Hardware hostet, während das Know-how dennoch geschützt bleibt. DeepSeek hingegen hat sogar seinen „secret sauce“ offengelegt und damit Open-Source-Projekten wie vLLM geholfen, Modelle effizienter zu hosten.
  • Nachdem ich den Bericht tatsächlich gelesen habe, stimmt er mit der Beschreibung im Artikel nicht überein.
    • Interessant ist, dass selbst die Kommentare zu diesem Post nicht mit dem tatsächlichen Inhalt des Artikels übereinstimmen. Der Autor stellt es fortlaufend als Angriff auf Open Source dar, während die Kommentare eher tatsächlich auf Probleme eingehen, die aus chinesischem Einfluss entstehen könnten.
    • Dieser Blogpost ist sehr irreführend. Die ersten Absätze betonen, der NIST-Bericht habe „keinen Schadcode, keine Backdoors, keine Spuren von Datenabfluss“ gefunden, aber das ist nicht das, was NIST tatsächlich behauptet. Wenn man nur den Blogpost liest, wirkt es so, als habe NIST grundlos die Existenz von Backdoors behauptet.
    • Für mich passte es durchaus ziemlich gut zum tatsächlichen Berichtsinhalts.
  • Selbst wenn chinesische Modelle Ziel von Verleumdung werden, werde ich weiterhin leistungsstarke und günstige Modelle nutzen, um mir Wettbewerbsvorteile zu sichern.
    • Verleumdung ist letztlich der erste Schritt auf dem Weg zu strafrechtlicher Verfolgung.
    • Im NIST-Artikel (Original) konnte ich keinerlei verleumderische Formulierungen finden. Meine Definition von „demonization“ ist Propaganda, die einen Gegner satanisiert. Falls du das anders siehst, wäre es hilfreich, wenn du konkret auf die entsprechenden Stellen im Bericht zeigen könntest. Siehe https://www.thefreedictionary.com/demonization
    • Dass Leute geschlossene Modelle verteidigen, die bei schlechterer Leistung ein Vielfaches kosten und zudem stärker zensiert sind, ist merkwürdig. Chinesische Firmen scheinen weniger auf Benchmarks fixiert zu sein als westliche Unternehmen. In der realen Nutzung wirken Modelle wie Kimi, GLM und Deepseek trotz niedrigerer englischer Benchmark-Werte spürbar besser. Besonders Kimi beantwortet Hardware-Fragen viel detaillierter und genauer als Gemini oder Claude. Ich denke, das liegt daran, dass chinesische Trainingsdaten besser genutzt wurden.
  • Autor Eric Hartford sagte, man müsse die „aufpeitschende Sprache“ entfernen, aber im Bericht habe ich so etwas nicht gesehen. Insgesamt ist der Stil trocken und eher langweilig.
    • Im Gegenteil: Im Blogpost selbst steckt sehr viel unbelegte, aufpeitschende Sprache.
    • Tatsächlich würde ich eher sagen, dass dieser Artikel selbst näher an „schwarzer Propaganda“ gegen NIST oder die USA ist. Auch aufpeitschende Sprache findet sich eher dort.
  • Danke, dass du diese guten Einsichten geteilt hast. Falls jemand das vom Autor entwickelte uncensored-Dolphin-Modell tatsächlich genutzt hat, würden mich Erfahrungsberichte interessieren.
    • Meiner Meinung nach ist der beste Weg, ein eigenes Evaluierungs-Framework zu bauen und die Modelle selbst zu testen. Die zweitbeste Option ist, externe Beispiele zu suchen, die eine ähnliche Evaluation wie man selbst durchgeführt haben. Ohne eigene Maßstäbe kann man aber nicht wissen, ob die Bewertungen anderer überhaupt hinreichend vertrauenswürdig sind. Besonders im Bereich ML oder AI halte ich die Qualität der Diskussionen auf HN für niedrig. Die Teilnehmenden wirken schnell, zynisch und lagerbildend, nicht so, als würden sie wirklich nach Wahrheit suchen. Trotzdem möchte ich hier bleiben und zur Debatte beitragen. Ich hoffe immer auf Klarheit, Logik und tiefgehende Diskussionen. Manchmal fühlt es sich allerdings an wie https://xkcd.com/386/.
  • DeepSeek hat inzwischen sogar einen peer-reviewten Artikel im Journal Nature, und auch der Artikel erkennt einige Probleme an, die unabhängige Forschende bei offenen Modellen benannt haben. Deshalb halte ich diese NIST-Bewertung eher für einen politischen Angriff. Dass US-Geheimdienste technische Vorteile immer wieder für Überwachungszwecke genutzt haben, wie im Fall CryptoAG, oder dass in der Huawei-Kontroverse am Ende keine großen Belege für böswillige Absichten auftauchten, nährt diese Sorge. Letztlich wäre es für das gesamte Feld positiv, wenn mit Kimi, Qwen und anderen offenen Modellen Kosten und Leistung nivelliert würden und der Wettbewerb darum, künstliche Intelligenz als „geopolitischen Burggraben“ zu nutzen, verschwindet.
  • Zum Zeitpunkt, an dem China nach DeepSeek bereits deutlich bessere Open-Source-Modelle veröffentlicht hat, wirkt der NIST-Bericht ohnehin schon einen Schritt zu spät.
  • Ich frage mich, warum NIST Leistung, Kosten und Adoptionsrate bewertet. Verglichen wurden aktuelle US-Modelle (OpenAI GPT-5-Serie, Anthropic Opus 4 usw.) mit älteren DeepSeek-Modellen (R1, R1-0528, V3.1), obwohl das aktuelle DeepSeek 3.2 sehr leistungsfähig ist. Es ist nicht so, dass die staatliche Bewertung eines Autos wichtig würde, nur weil es in 3 Sekunden von 0 auf 60 mph beschleunigt; ich muss es selbst fahren und beurteilen. Im Bericht wird DeepSeeks „höchstsicheres Modell“ mit einer Ablehnungsrate von 6 % bei schädlichen Anfragen beschrieben, aber in Wirklichkeit lassen sich inzwischen auch US-GPT-Modelle ohne Einschränkungen missbrauchen. Ich halte diesen Bericht daher nicht für eine NIST- oder Sicherheitsbewertung, sondern lediglich für US-Propagandamaterial.