DeepSeek revela modelos V4: um grande salto na eficiência de IA de peso aberto

8

O laboratório chinês de IA DeepSeek lançou oficialmente versões prévias de seus mais recentes modelos de linguagem grande (LLMs), DeepSeek V4 Flash e DeepSeek V4 Pro. Esta versão marca uma evolução significativa em relação à arquitetura V3.2 anterior e visa desafiar o domínio de líderes do setor como OpenAI e Google, oferecendo raciocínio de alto nível por uma fração do custo.

Ampliação: o poder da mistura de especialistas

Ambos os novos modelos utilizam uma arquitetura Mixtura de Especialistas (MoE). Em vez de ativar cada parâmetro para cada solicitação – o que é computacionalmente caro e lento – um modelo MoE aciona apenas os “especialistas” específicos (subseções do modelo) necessários para uma determinada tarefa. Isto permite uma escala massiva sem um aumento proporcional nos custos de energia ou de processamento.

Os dois modelos diferem significativamente em escala:
DeepSeek V4 Pro: Um modelo pesado com 1,6 trilhão de parâmetros totais, com 49 bilhões ativos durante qualquer tarefa. Isso o torna o maior modelo aberto atualmente disponível, superando significativamente concorrentes como o Kimi K 2.6 da Moonshot AI.
DeepSeek V4 Flash: uma versão mais simplificada com 284 bilhões de parâmetros, com apenas 13 bilhões ativos por tarefa, projetada para velocidade e eficiência.

Ambos os modelos apresentam uma janela de contexto de 1 milhão de tokens, permitindo que os usuários processem conjuntos de dados massivos, como bases de código inteiras ou documentos jurídicos extensos, em um único prompt.

Fechando a lacuna com modelos de fronteira

DeepSeek afirma que a série V4 quase “fechou a lacuna” com os modelos proprietários mais avançados do mundo. A análise do desempenho revela uma imagem diferenciada de onde o DeepSeek está na hierarquia global de IA:

1. Raciocínio e codificação: a vantagem competitiva

Em tarefas especializadas como raciocínio lógico e programação, o desempenho do DeepSeek é impressionante. A empresa relata que o modelo V4 Pro-Max supera a maioria dos concorrentes de código aberto e até rivaliza com modelos de ponta como o GPT-5.4 da OpenAI e o Gemini 3.0 Pro do Google em tarefas específicas. Nos benchmarks de codificação, os modelos V4 são descritos como “comparáveis ​​ao GPT-5.4”.

2. Conhecimento Geral: A Fronteira Restante

Apesar da sua capacidade de raciocínio, o DeepSeek admite um ligeiro défice nos testes de conhecimentos gerais. Os modelos atualmente estão atrás do GPT-5.4 da OpenAI e do Gemini 3.1 Pro do Google nesta área. A própria análise da DeepSeek sugere que sua trajetória de desenvolvimento está cerca de 3 a 6 meses atrás dos modelos de fronteira de última geração.

3. Limitações da modalidade

Ao contrário dos modelos “omni” da OpenAI ou do Google, que podem processar e gerar nativamente áudio, vídeo e imagens, os modelos DeepSeek V4 atualmente são somente texto.

A revolução dos preços: alto desempenho, baixo custo

Talvez o aspecto mais perturbador do lançamento V4 seja a sua estratégia de preços. A DeepSeek está minando agressivamente o mercado, tornando a inteligência de alto nível acessível a desenvolvedores e empresas.

Modelo Custo de entrada (por 1 milhão de tokens) Custo de produção (por 1 milhão de tokens) Contexto Competitivo
Flash V4 US$ 0,14 US$ 0,28 Reduz GPT-5.4 Nano e Claude Haiku 4.5
V4 Pró US$ 0,145 US$ 3,48 Reduz Gemini 3.1 Pro e GPT-5.4

Este preço agressivo sugere que a DeepSeek não está competindo apenas em inteligência, mas também na viabilidade econômica de dimensionar aplicações de IA.

Resumo

O DeepSeek V4 representa um marco importante para a IA de peso aberto, oferecendo escala massiva e recursos de raciocínio de elite a um preço que desafia os gigantes do setor. Embora ainda esteja um pouco atrasado em termos de conhecimento geral e capacidades multimodais, sua eficiência o torna um candidato formidável para codificação e tarefas lógicas complexas.

Попередня статтяÁudio Premium em movimento: economize 25% no Bang & Olufsen Beosound Explore
Наступна статтяMullvad VPN apresenta alternância manual para combater vazamentos de dados do iOS