DeepSeek presenta los modelos V4: un gran salto en la eficiencia de la IA de peso abierto

21

El laboratorio chino de inteligencia artificial DeepSeek ha lanzado oficialmente versiones preliminares de sus últimos modelos de lenguajes grandes (LLM), DeepSeek V4 Flash y DeepSeek V4 Pro. Este lanzamiento marca una evolución significativa con respecto a la arquitectura V3.2 anterior y tiene como objetivo desafiar el dominio de líderes de la industria como OpenAI y Google al ofrecer razonamiento de alto nivel a una fracción del costo.

Ampliación de escala: el poder de la combinación de expertos

Ambos modelos nuevos utilizan una arquitectura Mezcla de expertos (MoE). En lugar de activar cada parámetro para cada solicitud, lo cual es computacionalmente costoso y lento, un modelo MoE solo activa los “expertos” específicos (subsecciones del modelo) necesarios para una tarea determinada. Esto permite una escala masiva sin un aumento proporcional en los costos de energía o procesamiento.

Los dos modelos difieren significativamente en escala:
DeepSeek V4 Pro: Un modelo pesado que cuenta con 1,6 billones de parámetros totales, con 49 mil millones activos durante una sola tarea. Esto lo convierte en el modelo de peso abierto más grande disponible actualmente, superando significativamente a competidores como el Kimi K 2.6 de Moonshot AI.
DeepSeek V4 Flash: Una versión más optimizada que presenta 284 mil millones de parámetros, con solo 13 mil millones activos por tarea, diseñada para brindar velocidad y eficiencia.

Ambos modelos cuentan con una ventana de contexto de 1 millón de tokens, lo que permite a los usuarios procesar conjuntos de datos masivos, como bases de código completas o documentos legales extensos, en un solo mensaje.

Cerrando la brecha con modelos de frontera

DeepSeek afirma que la serie V4 casi ha “cerrado la brecha” con los modelos propietarios más avanzados del mundo. El desglose del rendimiento revela una imagen matizada de dónde se encuentra DeepSeek en la jerarquía global de IA:

1. Razonamiento y codificación: la ventaja competitiva

En tareas especializadas como el razonamiento lógico y la programación, el rendimiento de DeepSeek es sorprendente. La compañía informa que el modelo V4 Pro-Max supera a la mayoría de sus pares de código abierto e incluso rivaliza con modelos de alta gama como el GPT-5.4 de OpenAI y el Gemini 3.0 Pro de Google en tareas específicas. En las pruebas de codificación, los modelos V4 se describen como “comparables a GPT-5.4”.

2. Conocimientos generales: la frontera restante

A pesar de su capacidad de razonamiento, DeepSeek admite un ligero déficit en las pruebas de conocimientos generales. Los modelos actualmente van detrás del GPT-5.4 de OpenAI y el Gemini 3.1 Pro de Google en esta área. El propio análisis de DeepSeek sugiere que su trayectoria de desarrollo se encuentra aproximadamente 3 a 6 meses por detrás de los modelos de vanguardia absolutos.

3. Limitaciones de modalidad

A diferencia de los modelos “omni” de OpenAI o Google, que pueden procesar y generar audio, vídeo e imágenes de forma nativa, los modelos DeepSeek V4 actualmente son solo texto.

La revolución de los precios: alto rendimiento, bajo coste

Quizás el aspecto más disruptivo del lanzamiento V4 es su estrategia de precios. DeepSeek está socavando agresivamente el mercado, haciendo que la inteligencia de alto nivel sea accesible para desarrolladores y empresas.

Modelo Costo de entrada (por 1 millón de tokens) Costo de producción (por 1 millón de tokens) Contexto Competitivo
Flash V4 $0,14 $0,28 Socava GPT-5.4 Nano y Claude Haiku 4.5
V4 Pro $0,145 $3,48 Socava Gemini 3.1 Pro y GPT-5.4

Este precio agresivo sugiere que DeepSeek no solo está compitiendo en inteligencia, sino también en la viabilidad económica de escalar las aplicaciones de IA.

Resumen

DeepSeek V4 representa un hito importante para la IA de peso abierto, ya que ofrece capacidades de razonamiento de élite y escala masiva a un precio que desafía a los gigantes de la industria. Si bien todavía está ligeramente por detrás en conocimientos generales y capacidades multimodales, su eficiencia lo convierte en un competidor formidable para tareas lógicas complejas y de codificación.