DeepSeek V4: 97 Prozent günstiger als GPT-5.5
Ein Jahr nach dem DeepSeek-Schock vom Januar 2025 hat das chinesische Startup sein nächstes Flaggschiffmodell vorgelegt. DeepSeek V4, am 24. April 2026 veröffentlicht, verarbeitet bis zu eine Million Token in einem einzigen Kontext und kostet nach offizieller Preisliste 97 Prozent weniger als OpenAIs GPT-5.5. Das Modell läuft vollständig auf Huawei-Chips statt auf Nvidia-Hardware und beweist damit, dass US-Exportbeschränkungen Chinas KI-Entwicklung nicht aufhalten.
Was DeepSeek ist und wie es hierher kam
DeepSeek ist eine Ausgründung des quantitativen Hedgefonds High-Flyer, gegründet von Liang Wenfeng. Das Startup erschütterte im Januar 2025 die Technologiemärkte, als es mit dem Modell R1 belegte, dass effiziente KI-Entwicklung auch ohne westliche Hochleistungschips möglich ist. Der Kurs der Nvidia-Aktie brach damals um knapp 17 Prozent ein, weil Investoren die Grundannahme der KI-Investitionen überprüften: dass Skalierung zwingend auf Nvidias Hardware angewiesen sei.
V4 ist der Nachfolger. Es erscheint in zwei Varianten: V4-Pro mit 1,6 Billionen Parametern, von denen je nach Anfrage 49 Milliarden aktiviert werden und V4-Flash mit 284 Milliarden Parametern. Der Mixtures-of-Experts-Ansatz, bei dem nur ein Bruchteil der Parameter aktiv ist, senkt den Rechenaufwand gegenüber klassischer Vollaktivierung erheblich.
Warum ein Millionen-Token-Fenster die Wettbewerbslage verändert
Das Kontextfenster von V4-Pro fasst eine Million Token, das ist das Achtfache des 128.000-Token-Fensters bei GPT-4o. Praktisch bedeutet das: V4 kann einen Roman, vollständigen Quellcode oder Monate an E-Mail-Korrespondenz in einem einzigen Durchgang analysieren. Liang Wenfeng gab bei der Veröffentlichung an, das Modell benötige bei Millionen-Token-Verarbeitung nur 27 Prozent der Rechenleistung seines Vorgängers V3.2, bei einem KV-Cache-Verbrauch von nur 10 Prozent.
In standardisierten Benchmark-Tests für Millionen-Token-Kontexte übertrifft V4-Pro nach Unternehmensangaben Googles Gemini-3.1-Pro: 83,5 Prozent gegenüber 76,3 Prozent im MRCR-1M-Test. Externe Benchmark-Analysen, etwa von AkitaOnRails, zeigen, dass V4 in Mathematik und Codierung mit OpenAIs Frontier-Modellen auf Augenhöhe liegt oder diese übertrifft.
Der Preis ist das schärfste Argument. V4-Flash kostet 0,14 Dollar je einer Million Eingabe-Token und 0,28 Dollar je einer Million Ausgabe-Token. Die South China Morning Post berechnete unter Bezug auf DeepSeeks offizielle Preisliste einen Kostenvorteil von 97 Prozent gegenüber GPT-5.5 in vergleichbarer Leistungsklasse. Zum Vergleich: OpenAIs Reasoning-Modell o1 kostet im Input 15 Dollar je einer Million Token und im Output 60 Dollar. DeepSeeks R1, das Vorläufer-Reasoning-Modell, liegt bei 0,55 Dollar beziehungsweise 2,19 Dollar, ein Unterschied von 96 Prozent.
Für Unternehmen, die große Sprachmodelle in ihre Produkte integrieren, ist das eine grundlegende Verschiebung der Betriebskosten. Wer heute monatlich 50.000 Dollar für OpenAI-APIs ausgibt, könnte mit V4-Flash unter vergleichbaren Bedingungen auf 1.500 Dollar kommen. Für Startups, die KI-gestützte Anwendungen entwickeln, entscheidet dieser Unterschied über die Tragfähigkeit des Geschäftsmodells.
Huawei statt Nvidia: Das eigentliche Geopolitiksignal
DeepSeek betreibt seine Rechenzentren auf Huawei Ascend 950-Chips, mit dem Ascend 910C als Rechenkern. Beide sind chinesische Entwicklungen außerhalb der US-Exportbeschränkungen. Die USA hatten seit Oktober 2022 schrittweise Exportverbote für Nvidias Hochleistungschips verhängt, A100, H100 und H800 eingeschlossen. Die Logik dahinter: Ohne Spitzenchips keine wettbewerbsfähige KI-Skalierung.
Diese Annahme hat DeepSeek mit R1 erschüttert und mit V4 endgültig widerlegt. Halbleiteranalyst Linley Gwennap schrieb im April, Huawei plane 2026 rund 750.000 Einheiten des Ascend 950 und komme damit erstmals in eine Größenordnung, die echtes Gewicht gegen Nvidias Rechenzentrumsgeschäft bedeute. Außerhalb Chinas bleibt Nvidia kurzfristig marktdominierend, weil Ascend-Hardware dort kaum verfügbar ist. Mittelfristig aber verschieben sich die Abhängigkeiten: Chinesische KI-Anbieter sind nicht mehr auf westliche Exporte angewiesen.
Für westliche Regierungen ergibt sich daraus ein strategisches Problem. Chipexportbeschränkungen haben den Entwicklungsvorsprung nicht gesichert, sondern Chinas Halbleiterindustrie unter Druck gesetzt, schneller unabhängige Alternativen zu entwickeln. Was als Bremse gedacht war, wirkt als Beschleuniger.
Erste externe Finanzierung bei 45-Milliarden-Bewertung
DeepSeek war bis Mai 2026 vollständig vom Mutterkonzern High-Flyer finanziert worden. Jetzt setzt das Unternehmen seine erste externe Finanzierungsrunde auf. Bloomberg und Technode berichten, die angestrebte Bewertung liege bei 45 Milliarden Dollar, gut doppelt so hoch wie noch zwei Wochen zuvor. Tencent, Alibaba und Chinas staatlicher Halbleiter-Investitionsfonds Big Fund verhandeln als mögliche Investoren. Der tatsächlich eingeworbene Betrag soll drei bis vier Milliarden Dollar betragen.
Die Runde ist kein normaler Startup-Finanzierungsschritt. Sie ist ein Signal, dass Pekings strategische Wirtschaftspolitik DeepSeek als nationale KI-Plattform behandelt. Für westliche Unternehmen stellt sich damit eine Frage neu: Welcher Leistungsunterschied rechtfertigt noch den Einsatz von OpenAI oder Anthropic-APIs, wenn DeepSeek vergleichbare Ergebnisse für einen Bruchteil des Preises liefert? Eine Antwort wird sich in der Unternehmensadoption der nächsten zwölf Monate zeigen.
Für die US-Technologiepolitik ist das eine ernüchternde Bilanz: Vier Jahre Exportbeschränkungen, mehrere Aktualisierungen der Entity List und milliardenschwere CHIPS-Act-Subventionen für heimische Chipproduktion haben Chinas KI-Entwicklung nicht entscheidend verlangsamt. Gleichzeitig sind westliche Unternehmen, die für ihre Produkte günstigere KI-APIs benötigen, zunehmend versucht, zu DeepSeek zu wechseln und damit chinesische Infrastruktur zu nutzen. Das ist das eigentliche strategische Paradox, das V4 sichtbar macht.