A DeepSeek lançou versões de pré-visualização dos modelos DeepSeek-V4-Pro e DeepSeek-V4-Flash a 24 de abril de 2026, ambos modelos open-weight com janelas de contexto de um milhão de tokens e preços significativamente abaixo das alternativas ocidentais comparáveis. O modelo V4-Pro custa $1.74 por milhão de tokens de entrada e $3.48 por milhão de tokens de saída—aproximadamente 1/20 do preço do Claude Opus 4.7 e 98% menos do que o GPT-5.5 Pro, de acordo com as especificações oficiais da empresa.
O DeepSeek-V4-Pro tem 1,6 biliões de parâmetros totais, tornando-se o maior modelo open-source no mercado de LLM até à data. No entanto, apenas 49 mil milhões de parâmetros são ativados por passagem de inferência, usando a abordagem Mixture-of-Experts que a DeepSeek diz ter sido refinada desde a V3. Este desenho permite que o modelo completo permaneça dormente enquanto apenas fatias relevantes são ativadas para qualquer pedido dado, reduzindo os custos de computação enquanto mantém a capacidade de conhecimento.
O DeepSeek-V4-Flash opera numa escala menor com 284 mil milhões de parâmetros totais e 13 mil milhões de parâmetros ativos. De acordo com os benchmarks da DeepSeek, “atinge desempenho de raciocínio comparável ao da versão Pro quando lhe é atribuído um orçamento de pensamento maior”.
Ambos os modelos suportam um milhão de tokens de contexto como funcionalidade padrão—aproximadamente 750,000 palavras, ou aproximadamente toda a trilogia de “O Senhor dos Anéis” mais texto adicional.
A DeepSeek resolveu o problema de escalabilidade computacional inerente ao processamento de longos contextos ao inventar dois novos tipos de atenção, como detalhado no artigo técnico da empresa disponível no GitHub.
Os mecanismos de atenção padrão em IA enfrentam um problema brutal de escalabilidade: sempre que o comprimento de contexto duplica, o custo de computação quadruplica aproximadamente. A solução da DeepSeek envolve duas abordagens complementares:
Atenção Esparsa Comprimida funciona em dois passos. Primeiro, comprime grupos de tokens—por exemplo, a cada 4 tokens—num único registo. Depois, em vez de atender a todas as entradas comprimidas, usa um “Lightning Indexer” para selecionar apenas os resultados mais relevantes para qualquer consulta dada. Isto reduz o âmbito de atenção do modelo de um milhão de tokens para um conjunto muito menor de partes importantes.
Atenção Fortemente Comprimida adota uma abordagem ainda mais agressiva, colapsando cada 128 tokens numa única entrada sem seleção esparsa. Embora perca detalhe de granularidade fina, fornece uma visão global extremamente barata. Os dois tipos de atenção são executados em camadas alternadas, permitindo ao modelo manter tanto detalhe como visão geral.
O resultado: o V4-Pro usa 27% da computação que o seu antecessor (V3.2) exigiu. O KV cache—memória necessária para acompanhar o contexto—cai para 10% do V3.2. O V4-Flash empurra a eficiência ainda mais: 10% de computação e 7% de memória em comparação com o V3.2.
A DeepSeek publicou comparações abrangentes de benchmarks contra o GPT-5.4 e o Gemini-3.1-Pro, incluindo áreas em que o V4-Pro fica atrás dos concorrentes. Em tarefas de raciocínio, o raciocínio do V4-Pro fica atrás do GPT-5.4 e do Gemini-3.1-Pro em aproximadamente três a seis meses, de acordo com o relatório técnico da DeepSeek.
Onde o V4-Pro lidera:
Onde o V4-Pro fica atrás:
Em tarefas de long-context, o V4-Pro lidera modelos open-source e bate o Gemini-3.1-Pro no CorpusQA (simulando análise real de documentos com um milhão de tokens) mas perde para o Claude Opus 4.6 no MRCR, que mede a recuperação de informação específica enterrada profundamente em texto longo.
O V4-Pro pode correr no Claude Code, OpenCode e outras ferramentas de codificação em IA. De acordo com o inquérito interno da DeepSeek a 85 programadores que usaram o V4-Pro como o seu agente de codificação principal, 52% disseram que estava pronto para ser o seu modelo por defeito, 39% penderam para sim e menos de 9% disseram não. O teste interno da DeepSeek indicou que o V4-Pro supera o Claude Sonnet e aproxima-se do Claude Opus 4.5 em tarefas de codificação agentic.
A Artificial Analysis classificou o V4-Pro em primeiro lugar entre todos os modelos open-weight no GDPval-AA, um benchmark que testa trabalho de conhecimento economicamente valioso em tarefas de finanças, jurídicos e de investigação. O V4-Pro-Max marcou 1,554 Elo, à frente do GLM-5.1 (1,535) e do MiniMax’s M2.7 (1,514). O Claude Opus 4.6 marca 1,619 no mesmo benchmark.
O V4 introduz “thinking intercalado”, que retém a cadeia completa de pensamento ao longo de chamadas de ferramentas. Nos modelos anteriores, quando um agente fazia múltiplas chamadas de ferramentas—como pesquisar na web, executar código e depois pesquisar de novo—o contexto de raciocínio do modelo era limpo entre rondas. O V4 mantém continuidade de raciocínio entre passos, evitando perda de contexto em fluxos de trabalho automatizados complexos.
O lançamento do V4 chega num contexto de atividade significativa no setor de IA. A Anthropic enviou o Claude Opus 4.7 a 16 de abril de 2026. O GPT-5.5 da OpenAI foi lançado a 23 de abril de 2026, com o GPT-5.5 Pro com preços de $30 por milhão de tokens de entrada$180 e (por milhão de tokens de saída). O GPT-5.5 supera o V4-Pro no Terminal Bench 2.0 (82.7% versus 70.0%), que testa fluxos de trabalho complexos de agentes via linha de comandos.
A Xiaomi lançou o MiMo V2.5 Pro a 22 de abril de 2026, oferecendo capacidades multimodais completas $1 imagem, áudio, vídeo$3 a (entrada e )saída por tokens de milhão. A Tencent lançou o Hy3 no mesmo dia que o GPT-5.5.
Para uma perspetiva de preços: o CEO da Cline, Saoud Rizwan, notou que se a Uber tivesse usado a DeepSeek em vez do Claude, o orçamento de IA de 2026—alegadamente suficiente para quatro meses de utilização—teria durado sete anos.
![Pricing comparison and Uber budget analysis]https://img-cdn.gateio.im/social/moments-0ee5a4bf95-cbc5686e31-8b7abd-badf29
Tanto o V4-Pro como o V4-Flash têm licença MIT e estão disponíveis no Hugging Face. Os modelos são apenas texto por enquanto; a DeepSeek afirmou que está a trabalhar em capacidades multimodais. Ambos os modelos podem ser executados gratuitamente em hardware local ou personalizados com base nas necessidades da empresa.
Os endpoints atuais deepseek-chat e deepseek-reasoner da DeepSeek já encaminham para o V4-Flash nos modos non-thinking e thinking, respetivamente. Os antigos endpoints deepseek-chat e deepseek-reasoner serão descontinuados a 24 de julho de 2026.
A DeepSeek treinou o V4 em parte com chips Huawei Ascend, contornando restrições de exportação dos EUA. A empresa afirmou que, quando 950 novos supernós ficarem online mais tarde em 2026, o preço do modelo Pro—que já é baixo—vai cair ainda mais.
Para empresas, a estrutura de preços pode alterar os cálculos custo-benefício. Um modelo que lidera benchmarks open-source a $1.74 por milhão de tokens de entrada torna o processamento de documentos em larga escala, revisão jurídica e pipelines de geração de código substancialmente mais baratos do que seis meses antes. O contexto de um milhão de tokens permite que bases de código inteiras ou submissões regulatórias sejam processadas num único pedido em vez de ser fragmentadas em múltiplas chamadas.
Para programadores e construtores individuais, o V4-Flash é a consideração principal. A $0.14 de entrada e $0.28 de saída por milhão de tokens, é mais barato do que modelos que eram considerados opções orçamentais há um ano, enquanto lida com a maioria das tarefas que a versão Pro gere.