DeepSeek stellt V4-Modelle vor: Ein gewaltiger Sprung in der Open-Weight-KI-Effizienz

16

Das chinesische KI-Labor DeepSeek hat offiziell Vorschauversionen seiner neuesten großen Sprachmodelle (LLMs), DeepSeek V4 Flash und DeepSeek V4 Pro, veröffentlicht. Diese Version stellt eine bedeutende Weiterentwicklung der vorherigen V3.2-Architektur dar und zielt darauf ab, die Dominanz von Branchenführern wie OpenAI und Google herauszufordern, indem sie High-Level-Argumentation zu einem Bruchteil der Kosten bietet.

Scaling Up: Die Kraft der Expertenmischung

Beide neuen Modelle nutzen eine Mixture-of-Experts (MoE) -Architektur. Anstatt jeden einzelnen Parameter für jede Anfrage zu aktivieren – was rechenintensiv und langsam ist – löst ein MoE-Modell nur die spezifischen „Experten“ (Unterabschnitte des Modells) aus, die für eine bestimmte Aufgabe erforderlich sind. Dies ermöglicht einen massiven Maßstab ohne einen proportionalen Anstieg der Energie- oder Verarbeitungskosten.

Die beiden Modelle unterscheiden sich deutlich im Maßstab:
DeepSeek V4 Pro: Ein Schwergewichtsmodell mit 1,6 Billionen Gesamtparametern, von denen 49 Milliarden bei jeder einzelnen Aufgabe aktiv sind. Damit ist es das größte derzeit verfügbare Modell mit offenem Gewicht und übertrifft Konkurrenten wie den Kimi K 2.6 von Moonshot AI deutlich.
DeepSeek V4 Flash: Eine optimierte Version mit 284 Milliarden Parametern, wobei nur 13 Milliarden pro Aufgabe aktiv sind und auf Geschwindigkeit und Effizienz ausgelegt sind.

Beide Modelle verfügen über ein 1-Millionen-Token-Kontextfenster, das es Benutzern ermöglicht, riesige Datensätze, wie z. B. ganze Codebasen oder umfangreiche Rechtsdokumente, in einer einzigen Eingabeaufforderung zu verarbeiten.

Die Lücke mit Frontier-Modellen schließen

DeepSeek behauptet, dass die V4-Serie die Lücke zu den fortschrittlichsten proprietären Modellen der Welt nahezu „geschlossen“ habe. Die Leistungsaufschlüsselung zeigt ein differenziertes Bild davon, wo DeepSeek in der globalen KI-Hierarchie steht:

1. Argumentation und Kodierung: Der Wettbewerbsvorteil

Bei speziellen Aufgaben wie logischem Denken und Programmieren ist die Leistung von DeepSeek beeindruckend. Das Unternehmen berichtet, dass das V4 Pro-Max-Modell die meisten Open-Source-Konkurrenten übertrifft und bei bestimmten Aufgaben sogar mit High-End-Modellen wie OpenAIs GPT-5.4 und Googles Gemini 3.0 Pro mithalten kann. In Coding-Benchmarks werden die V4-Modelle als „vergleichbar mit GPT-5.4“ beschrieben.

2. Allgemeinwissen: Die verbleibende Grenze

Trotz seiner Denkfähigkeit räumt DeepSeek ein leichtes Defizit bei Allgemeinwissenstests ein. In diesem Bereich liegen die Modelle derzeit hinter OpenAIs GPT-5.4 und Googles Gemini 3.1 Pro. Die eigene Analyse von DeepSeek legt nahe, dass ihr Entwicklungsverlauf ungefähr 3 bis 6 Monate hinter den absolut neuesten Grenzmodellen liegt.

3. Einschränkungen der Modalität

Im Gegensatz zu den „Omni“-Modellen von OpenAI oder Google, die Audio, Video und Bilder nativ verarbeiten und generieren können, sind die DeepSeek V4-Modelle derzeit nur Text.

Die Preisrevolution: Hohe Leistung, niedrige Kosten

Der vielleicht störendste Aspekt der V4-Version ist ihre Preisstrategie. DeepSeek unterbietet den Markt aggressiv und macht hochrangige Informationen für Entwickler und Unternehmen zugänglich.

Modell Eingabekosten (pro 1 Mio. Token) Ausgabekosten (pro 1 Mio. Token) Wettbewerbskontext
V4-Flash 0,14 $ 0,28 $ Unterschneidet GPT-5.4 Nano und Claude Haiku 4.5
V4 Pro 0,145 $ 3,48 $ Unterbietet Gemini 3.1 Pro und GPT-5.4

Diese aggressive Preisgestaltung lässt darauf schließen, dass DeepSeek nicht nur um Intelligenz konkurriert, sondern auch um die wirtschaftliche Machbarkeit der Skalierung von KI-Anwendungen.

Zusammenfassung

DeepSeek V4 stellt einen wichtigen Meilenstein für Open-Weight-KI dar und bietet enorme Skalierbarkeit und erstklassige Argumentationsfunktionen zu einem Preis, der die Branchenriesen herausfordert. Auch wenn es bei Allgemeinwissen und multimodalen Fähigkeiten noch leicht hinterherhinkt, ist es aufgrund seiner Effizienz ein hervorragender Konkurrent für Codierungs- und komplexe Logikaufgaben.