DeepSeek dévoile les modèles V4 : un bond massif dans l’efficacité de l’IA à poids ouvert

19

Le laboratoire chinois d’IA DeepSeek a officiellement publié des versions préliminaires de ses derniers modèles de langage étendu (LLM), DeepSeek V4 Flash et DeepSeek V4 Pro. Cette version marque une évolution significative par rapport à l’architecture V3.2 précédente et vise à remettre en question la domination des leaders du secteur comme OpenAI et Google en proposant un raisonnement de haut niveau à une fraction du coût.

Mise à l’échelle : le pouvoir du mélange d’experts

Les deux nouveaux modèles utilisent une architecture Mixture-of-Experts (MoE). Au lieu d’activer chaque paramètre pour chaque requête, ce qui est coûteux et lent en termes de calcul, un modèle MoE ne déclenche que les « experts » spécifiques (sous-sections du modèle) nécessaires pour une tâche donnée. Cela permet une production à grande échelle sans augmentation proportionnelle des coûts d’énergie ou de traitement.

Les deux modèles diffèrent considérablement en termes d’échelle :
DeepSeek V4 Pro : Un modèle lourd doté de 1,6 billion de paramètres au total, dont 49 milliards actifs au cours d’une seule tâche. Cela en fait le plus grand modèle à poids ouvert actuellement disponible, surpassant considérablement ses concurrents comme le Kimi K 2.6 de Moonshot AI.
DeepSeek V4 Flash : Une version plus simplifiée comprenant 284 milliards de paramètres, avec seulement 13 milliards actifs par tâche, conçue pour la rapidité et l’efficacité.

Les deux modèles disposent d’une fenêtre contextuelle d’un million de jetons, permettant aux utilisateurs de traiter des ensembles de données volumineux, tels que des bases de code entières ou de longs documents juridiques, en une seule invite.

Combler l’écart avec les modèles Frontier

DeepSeek affirme que la série V4 a presque « réduit l’écart » avec les modèles propriétaires les plus avancés au monde. La répartition des performances révèle une image nuancée de la position de DeepSeek dans la hiérarchie mondiale de l’IA :

1. Raisonnement et codage : l’avantage concurrentiel

Dans les tâches spécialisées telles que le raisonnement logique et la programmation, les performances de DeepSeek sont frappantes. La société rapporte que le modèle V4 Pro-Max surpasse la plupart de ses pairs open source et rivalise même avec des modèles haut de gamme comme le GPT-5.4 d’OpenAI et le Gemini 3.0 Pro de Google dans des tâches spécifiques. Dans les tests de codage, les modèles V4 sont décrits comme étant « comparables à GPT-5.4 ».

2. Connaissances générales : la frontière restante

Malgré ses prouesses en raisonnement, DeepSeek admet un léger déficit dans les tests de culture générale. Les modèles sont actuellement à la traîne du GPT-5.4 d’OpenAI et du Gemini 3.1 Pro de Google dans ce domaine. La propre analyse de DeepSeek suggère que leur trajectoire de développement se situe environ 3 à 6 mois en retard par rapport aux modèles de pointe absolus.

3. Limites des modalités

Contrairement aux modèles « omni » d’OpenAI ou de Google, qui peuvent traiter et générer nativement de l’audio, de la vidéo et des images, les modèles DeepSeek V4 sont actuellement texte uniquement.

La révolution des prix : hautes performances, faible coût

L’aspect le plus perturbateur de la version V4 est peut-être sa stratégie de prix. DeepSeek sape de manière agressive le marché, rendant accessible des informations de haut niveau aux développeurs et aux entreprises.

Modèle Coût d’entrée (par 1 million de jetons) Coût de sortie (par 1 million de jetons) Contexte concurrentiel
Flash V4 0,14 $ 0,28 $ Contre-dépouilles de GPT-5.4 Nano et Claude Haiku 4.5
V4 Pro 0,145 $ 3,48 $ Contre-dépouilles Gemini 3.1 Pro et GPT-5.4

Cette tarification agressive suggère que DeepSeek n’est pas seulement en concurrence sur l’intelligence, mais aussi sur la faisabilité économique de la mise à l’échelle des applications d’IA.

Résumé

DeepSeek V4 représente une étape majeure pour l’IA ouverte, offrant des capacités de raisonnement à grande échelle et d’élite à un prix qui défie les géants de l’industrie. Bien qu’il soit encore légèrement en retard en termes de connaissances générales et de capacités multimodales, son efficacité en fait un redoutable concurrent pour les tâches de codage et de logique complexe.