DeepSeek svela i modelli V4: un enorme passo avanti nell’efficienza dell’intelligenza artificiale a peso aperto

17

Il laboratorio cinese di intelligenza artificiale DeepSeek ha ufficialmente rilasciato le versioni di anteprima dei suoi ultimi modelli LLM (Large Language Models), DeepSeek V4 Flash e DeepSeek V4 Pro. Questa versione segna un’evoluzione significativa rispetto alla precedente architettura V3.2 e mira a sfidare il dominio dei leader del settore come OpenAI e Google offrendo ragionamenti di alto livello a una frazione del costo.

Aumentare la scalabilità: il potere della combinazione di esperti

Entrambi i nuovi modelli utilizzano un’architettura Mixture-of-Experts (MoE). Invece di attivare ogni singolo parametro per ogni richiesta – il che è lento e costoso dal punto di vista computazionale – un modello MoE attiva solo gli “esperti” specifici (sottosezioni del modello) necessari per una determinata attività. Ciò consente una scala massiccia senza un aumento proporzionale dei costi energetici o di lavorazione.

I due modelli differiscono significativamente in scala:
DeepSeek V4 Pro: Un modello pesante che vanta 1,6 trilioni di parametri totali, con 49 miliardi attivi durante ogni singola attività. Ciò lo rende il più grande modello a peso aperto attualmente disponibile, superando significativamente concorrenti come Kimi K 2.6 di Moonshot AI.
DeepSeek V4 Flash: una versione più snella con 284 miliardi di parametri, con solo 13 miliardi attivi per attività, progettata per velocità ed efficienza.

Entrambi i modelli sono dotati di una finestra di contesto da 1 milione di token, che consente agli utenti di elaborare enormi set di dati, come intere basi di codice o lunghi documenti legali, in un unico prompt.

Colmare il divario con i modelli di frontiera

DeepSeek afferma che la serie V4 ha quasi “colmato il divario” con i modelli proprietari più avanzati al mondo. La ripartizione delle prestazioni rivela un quadro sfumato della posizione di DeepSeek nella gerarchia globale dell’IA:

1. Ragionamento e codifica: il vantaggio competitivo

In attività specializzate come il ragionamento logico e la programmazione, le prestazioni di DeepSeek sono sorprendenti. L’azienda riferisce che il modello V4 Pro-Max supera la maggior parte dei peer open source e rivaleggia persino con modelli di fascia alta come GPT-5.4 di OpenAI e Gemini 3.0 Pro di Google in attività specifiche. Nei benchmark di codifica, i modelli V4 sono descritti come “paragonabili a GPT-5.4”.

2. Conoscenza generale: la frontiera rimanente

Nonostante la sua abilità di ragionamento, DeepSeek ammette un leggero deficit nei test di conoscenza generale. I modelli attualmente sono dietro al GPT-5.4 di OpenAI e al Gemini 3.1 Pro di Google in questo settore. L’analisi di DeepSeek suggerisce che la loro traiettoria di sviluppo si colloca all’incirca 3-6 mesi dietro rispetto ai modelli di frontiera assolutamente all’avanguardia.

3. Limitazioni della modalità

A differenza dei modelli “omni” di OpenAI o Google, che possono elaborare e generare nativamente audio, video e immagini, i modelli DeepSeek V4 sono attualmente solo testo.

La rivoluzione dei prezzi: alte prestazioni, basso costo

Forse l’aspetto più dirompente della versione V4 è la sua strategia di prezzo. DeepSeek sta indebolendo in modo aggressivo il mercato, rendendo l’intelligence di alto livello accessibile a sviluppatori e imprese.

Modello Costo di input (per 1 milione di token) Costo di output (per 1 milione di token) Contesto competitivo
Flash V4 $ 0,14 $ 0,28 Sottosquadri GPT-5.4 Nano e Claude Haiku 4.5
V4Pro $ 0,145 $ 3,48 Sottosquadri Gemini 3.1 Pro e GPT-5.4

Questi prezzi aggressivi suggeriscono che DeepSeek non compete solo sull’intelligence, ma sulla fattibilità economica della scalabilità delle applicazioni AI.

Riepilogo

DeepSeek V4 rappresenta un’importante pietra miliare per l’IA open-weight, offrendo capacità di ragionamento su vasta scala e d’élite a un prezzo che sfida i giganti del settore. Sebbene sia ancora leggermente in ritardo in termini di conoscenza generale e capacità multimodali, la sua efficienza lo rende un formidabile contendente per compiti di codifica e di logica complessa.