Das chinesische KI-Startup DeepSeek hat zwei neue Modelle vorgestellt, die laut Unternehmen mit OpenAIs GPT‑5 und Googles Gemini‑3.0‑Pro mithalten oder diese übertreffen. Die Modelle sind vollständig quelloffen und kostenlos nutzbar.
Sparse-Attention-Technik senkt Rechenkosten deutlich
DeepSeek mit Sitz in Hangzhou bringt zwei Modelle auf den Markt: DeepSeek‑V3.2 als Alltagsassistent für logisches Denken und DeepSeek‑V3.2‑Speciale als leistungsstarke Variante für anspruchsvolle Wettbewerbe. Das Speciale-Modell erzielte Goldmedaillen-Leistungen bei vier internationalen Wettbewerben, darunter der Internationalen Mathematik-Olympiade 2025, der Internationalen Informatik-Olympiade, dem ICPC-Weltfinale und der Chinesischen Mathematik-Olympiade.
Die Veröffentlichung ist für die technologische Führungsrolle der USA bedeutsam. DeepSeek zeigt erneut, dass das Unternehmen trotz US-Exportkontrollen für Nvidia-Chips Spitzenmodelle entwickeln kann – und diese unter einer freien MIT-Lizenz bereitstellt. Ein Projektbeteiligter erklärte auf X, viele hätten DeepSeek für einen einmaligen Durchbruch gehalten, das Team sei aber „viel größer zurückgekommen“. In sozialen Netzwerken wurde die Veröffentlichung teils als Ende für ChatGPT kommentiert.
Kern der neuen Modelle ist DeepSeek Sparse Attention (DSA), eine Architektur, die die Rechenlast bei langen Texten und komplexen Aufgaben deutlich reduziert. Klassische Aufmerksamkeitsmechanismen skalieren schlecht, da doppelte Eingabelänge typischerweise die vierfache Rechenleistung erfordert. DeepSeeks Ansatz durchbricht diese Einschränkung mit einem „Blitz-Indexer“, der jeweils nur die relevantesten Kontextelemente auswählt und den Rest ignoriert.
Laut technischem Bericht halbiert DSA die Inferenzkosten bei langen Sequenzen im Vergleich zu den Vorgängermodellen. Die Architektur reduziere die Rechenkomplexität deutlich, ohne die Modellleistung zu verschlechtern. Die Verarbeitung von 128.000 Token, etwa einem 300-seitigen Buch, kostet nun rund 0,70 US‑Dollar (ca. 0,64 Euro) pro Million Token beim Dekodieren, gegenüber 2,40 US‑Dollar (ca. 2,18 Euro) beim Vorgänger V3.1‑Terminus – ein Rückgang um 70 Prozent.
Die Modelle mit 685 Milliarden Parametern unterstützen Kontextfenster von 128.000 Token und eignen sich damit für umfangreiche Dokumente, Codebasen und wissenschaftliche Arbeiten. Externe Bewertungen zeigen laut DeepSeek, dass V3.2 bei Langkontext‑Benchmarks mindestens mit V3.1 gleichzieht, obwohl Sparse Attention eingesetzt wird.
Benchmark-Ergebnisse und Werkzeugnutzung im Vergleich zu US-Spitzenmodellen
DeepSeek begründet seine Gleichstandsbehauptung mit US-Frontier-Modellen durch umfangreiche Tests in Mathematik, Programmierung und logischem Denken. Beim amerikanischen Mathematik-Wettbewerb AIME 2025 erreicht DeepSeek‑V3.2‑Speciale eine Erfolgsquote von 96,0 Prozent, verglichen mit 94,6 Prozent für GPT‑5‑High und 95,0 Prozent für Gemini‑3.0‑Pro. Beim Harvard‑MIT Mathematics Tournament erzielt das Speciale-Modell 99,2 Prozent und übertrifft Gemini mit 97,5 Prozent.
Das Alltagsmodell V3.2 kommt auf 93,1 Prozent bei AIME und 92,5 Prozent bei HMMT, liegt damit leicht unter den Spitzenmodellen, arbeitet aber mit deutlich weniger Rechenressourcen. Besonders auffällig sind die Wettbewerbsresultate: Bei der Internationalen Mathematik-Olympiade 2025 erreicht V3.2‑Speciale 35 von 42 Punkten und damit Goldstatus. Bei der Internationalen Informatik-Olympiade sind es 492 von 600 Punkten, ebenfalls Gold und Platz 10. Im ICPC-Weltfinale löst das Modell 10 von 12 Aufgaben und belegt Rang zwei.
Die Tests erfolgten ohne Internetzugang oder externe Werkzeuge und hielten sich laut Bericht strikt an Zeit- und Versuchsbegrenzungen der Wettbewerbe. Bei Programmierbenchmarks behebt DeepSeek‑V3.2 73,1 Prozent realer Softwarefehler im SWE‑Verified‑Set, nahe an GPT‑5‑High mit 74,9 Prozent. In Terminal Bench 2.0, das komplexe Coding-Workflows misst, erreicht DeepSeek 46,4 Prozent und liegt damit deutlich über GPT‑5‑High mit 35,2 Prozent.
DeepSeek weist zugleich auf Grenzen hin. Die Token-Effizienz bleibe eine Herausforderung, das Modell benötige meist längere Antwortsequenzen, um die Ausgabequalität von Gemini‑3.0‑Pro zu erreichen.
Werkzeugnutzung, Open Source und wachsender regulatorischer Druck
Über die reine Argumentation hinaus führt DeepSeek‑V3.2 das Konzept „Denken in Werkzeugnutzung“ ein: Das Modell kann während der Ausführung von Code, Websuche und Dateimanipulation weiter argumentieren. Frühere Modelle verloren bei jedem Werkzeugaufruf den Gedankengang und mussten neu beginnen. DeepSeeks Architektur erhält die Argumentationsspur über mehrere Tool‑Aufrufe und ermöglicht so mehrstufiges Problemlösen.
Für das Training baute DeepSeek eine synthetische Datenpipeline mit über 1.800 Aufgabenumgebungen und 85.000 komplexen Anweisungen. Dazu gehören unter anderem mehrtägige Reiseplanungen mit Budgetvorgaben, Fehlerkorrekturen in acht Programmiersprachen und webbasierte Recherchen mit zahlreichen Suchanfragen. Ein Beispiel im Bericht beschreibt eine dreitägige Reise ab Hangzhou mit Vorgaben zu Hotelpreisen, Restaurantbewertungen und Eintrittskosten, die von der Unterkunftswahl abhängen. Solche Aufgaben gelten als schwer zu lösen, aber leicht zu überprüfen und eignen sich daher gut für das Training.
Während des Trainings kamen reale Werkzeuge wie Websuch‑APIs, Programmierumgebungen und Jupyter‑Notizbücher zum Einsatz, die Eingaben wurden synthetisch erzeugt. Dadurch generalisiert das Modell auf unbekannte Tools und Umgebungen, was für praktische Anwendungen wichtig ist. Anders als Anbieter wie OpenAI und Anthropic stellt DeepSeek sowohl V3.2 als auch V3.2‑Speciale unter der MIT‑Lizenz bereit. Entwickler:innen, Forschende und Unternehmen können die 685‑Milliarden‑Parameter‑Modelle ohne Einschränkung laden, anpassen und einsetzen. Gewichte, Trainingscode und Dokumentation finden sich auf der Plattform Hugging Face, inklusive Python‑Skripten und Testfällen zur Nachrichtencodierung im OpenAI‑kompatiblen Format.
Für Unternehmenskund:innen verspricht DeepSeek damit hohe Leistung zu geringeren Kosten und flexible Bereitstellung. Datenschutzanforderungen und Regulierung könnten den Einsatz jedoch einschränken, insbesondere wegen der chinesischen Herkunft des Unternehmens. In Berlin erklärte die Datenschutzbeauftragte Meike Kamp die Übermittlung deutscher Nutzerdaten nach China für rechtswidrig nach EU-Regeln und forderte Apple und Google auf, die App zu prüfen. Italien ließ die App im Februar blockieren, in den USA sollen Regierungsgeräte die Nutzung aus Sicherheitsgründen vermeiden.
Parallel stehen US‑Exportkontrollen auf dem Prüfstand. DeepSeek deutete im August an, dass China bald über heimische Chips der nächsten Generation verfügen werde, und verweist auf Unterstützung chinesischer Hardware von Huawei und Cambricon. Das ursprüngliche V3‑Modell entstand Berichten zufolge auf rund 2.000 älteren Nvidia‑H800‑Chips, die inzwischen Exportbeschränkungen unterliegen. Welche Hardware V3.2 nutzte, bleibt offen, die Weiterentwicklung zeigt jedoch, dass Kontrollen den Fortschritt nicht stoppen.
Der Zeitpunkt der Veröffentlichung fällt in eine Phase, in der einige Analyst:innen von einer möglichen KI‑Blase sprechen. DeepSeeks Fähigkeit, US‑Spitzenmodelle mit deutlich geringeren Kosten zu erreichen, stellt Annahmen über notwendigen Kapitaleinsatz infrage. Der Bericht gibt an, dass Nachtrainingskosten inzwischen mehr als 10 Prozent der Vortrainingskosten ausmachen und maßgeblich zu den Verbesserungen beim logischen Denken beitragen. Beim Weltwissen sieht sich das Unternehmen noch hinter führenden proprietären Modellen und plant, das Vortraining weiter zu skalieren.
DeepSeek‑V3.2‑Speciale ist bis zum 15. Dezember über eine temporäre Programmierschnittstelle verfügbar, danach sollen die Fähigkeiten in das Standardmodell einfließen. Speciale ist ausschließlich auf tiefes logisches Denken ausgelegt und unterstützt keine Werkzeugaufrufe, während V3.2 diese Lücke schließt. Damit tritt der Wettbewerb zwischen USA und China in eine neue Phase ein: Open‑Source‑Modelle erreichen Frontier‑Leistung, Effizienzinnovationen senken Kosten deutlich, und sehr leistungsfähige KI könnte bald für alle mit Internetzugang frei zugänglich sein.