DeepSeek onthult V4-modellen: een enorme sprong in AI-efficiëntie met open gewicht

12

Het Chinese AI-laboratorium DeepSeek heeft officieel preview-versies uitgebracht van de nieuwste grote taalmodellen (LLM’s), DeepSeek V4 Flash en DeepSeek V4 Pro. Deze release markeert een belangrijke evolutie ten opzichte van de vorige V3.2-architectuur en heeft tot doel de dominantie van marktleiders als OpenAI en Google uit te dagen door redenering op hoog niveau aan te bieden tegen een fractie van de kosten.

Opschaling: de kracht van een mix van experts

Beide nieuwe modellen maken gebruik van een Mixture-of-Experts (MoE) -architectuur. In plaats van elke afzonderlijke parameter voor elk verzoek te activeren – wat rekentechnisch duur en traag is – activeert een MoE-model alleen de specifieke ‘experts’ (subsecties van het model) die nodig zijn voor een bepaalde taak. Dit maakt grootschalige schaal mogelijk zonder een evenredige stijging van de energie- of verwerkingskosten.

De twee modellen verschillen aanzienlijk in schaal:
DeepSeek V4 Pro: Een zwaar model met in totaal 1,6 biljoen parameters, waarvan er 49 miljard actief zijn tijdens één enkele taak. Dit maakt het tot het grootste model met open gewicht dat momenteel verkrijgbaar is, en overtreft concurrenten zoals de Kimi K 2.6 van Moonshot AI aanzienlijk.
DeepSeek V4 Flash: Een meer gestroomlijnde versie met 284 miljard parameters, waarvan er slechts 13 miljard actief zijn per taak, ontworpen voor snelheid en efficiëntie.

Beide modellen beschikken over een contextvenster van 1 miljoen tokens, waarmee gebruikers enorme datasets, zoals volledige codebases of lange juridische documenten, in één enkele prompt kunnen verwerken.

De kloof dichten met grensmodellen

DeepSeek beweert dat de V4-serie bijna “de kloof heeft gedicht” met ‘s werelds meest geavanceerde eigen modellen. De prestatieanalyse onthult een genuanceerd beeld van waar DeepSeek staat in de mondiale AI-hiërarchie:

1. Redeneren en coderen: het concurrentievoordeel

Bij gespecialiseerde taken zoals logisch redeneren en programmeren zijn de prestaties van DeepSeek opvallend. Het bedrijf meldt dat het V4 Pro-Max-model beter presteert dan de meeste open-source-collega’s en zelfs kan wedijveren met high-end modellen zoals OpenAI’s GPT-5.4 en Google’s Gemini 3.0 Pro in specifieke taken. In coderingsbenchmarks worden de V4-modellen beschreven als “vergelijkbaar met GPT-5.4”.

2. Algemene kennis: de resterende grens

Ondanks zijn redeneervermogen geeft DeepSeek toe dat er een klein tekort is in algemene kennistests. De modellen lopen op dit gebied momenteel achter op OpenAI’s GPT-5.4 en Google’s Gemini 3.1 Pro. De eigen analyse van DeepSeek suggereert dat hun ontwikkelingstraject grofweg 3 tot 6 maanden achter ligt bij de absolute state-of-the-art grensmodellen.

3. Modaliteitsbeperkingen

In tegenstelling tot de “omni”-modellen van OpenAI of Google, die audio, video en afbeeldingen native kunnen verwerken en genereren, zijn de DeepSeek V4-modellen momenteel alleen tekst.

De prijsrevolutie: hoge prestaties, lage kosten

Misschien wel het meest ontwrichtende aspect van de V4-release is de prijsstrategie. DeepSeek ondermijnt op agressieve wijze de markt, waardoor hoogwaardige informatie toegankelijk wordt voor ontwikkelaars en ondernemingen.

Model Invoerkosten (per 1 miljoen tokens) Outputkosten (per 1 miljoen tokens) Competitieve context
V4 Flits $ 0,14 $ 0,28 Ondermijnt GPT-5.4 Nano en Claude Haiku 4.5
V4Pro $ 0,145 $ 3,48 Ondermijnt Gemini 3.1 Pro en GPT-5.4

Deze agressieve prijsstelling suggereert dat DeepSeek niet alleen concurreert op intelligentie, maar ook op de economische haalbaarheid van het opschalen van AI-toepassingen.

Samenvatting

DeepSeek V4 vertegenwoordigt een belangrijke mijlpaal voor open-weight AI en biedt grootschalige en elitaire redeneermogelijkheden tegen een prijs die de giganten in de industrie uitdaagt. Hoewel het nog steeds enigszins achterblijft op het gebied van algemene kennis en multimodale mogelijkheden, maakt de efficiëntie het tot een geduchte concurrent voor codering en complexe logische taken.

Попередня статтяPremium audio onderweg: bespaar 25% op de Bang & Olufsen Beosound Explore
Наступна статтяMullvad VPN introduceert handmatige schakelaar om iOS-datalekken te bestrijden