O DeepSeek V4-Pro é lançado com um custo 98% inferior ao do GPT-5.5 Pro

CryptoFrontier

A DeepSeek lançou versões de pré-visualização dos modelos DeepSeek-V4-Pro e DeepSeek-V4-Flash a 24 de abril de 2026, ambos modelos open-weight com janelas de contexto de um milhão de tokens e preços significativamente abaixo das alternativas ocidentais comparáveis. O modelo V4-Pro custa $1.74 por milhão de tokens de entrada e $3.48 por milhão de tokens de saída—aproximadamente 1/20 do preço do Claude Opus 4.7 e 98% menos do que o GPT-5.5 Pro, de acordo com as especificações oficiais da empresa.

Arquitetura do Modelo e Escala

O DeepSeek-V4-Pro tem 1,6 biliões de parâmetros totais, tornando-se o maior modelo open-source no mercado de LLM até à data. No entanto, apenas 49 mil milhões de parâmetros são ativados por passagem de inferência, usando a abordagem Mixture-of-Experts que a DeepSeek diz ter sido refinada desde a V3. Este desenho permite que o modelo completo permaneça dormente enquanto apenas fatias relevantes são ativadas para qualquer pedido dado, reduzindo os custos de computação enquanto mantém a capacidade de conhecimento.

O DeepSeek-V4-Flash opera numa escala menor com 284 mil milhões de parâmetros totais e 13 mil milhões de parâmetros ativos. De acordo com os benchmarks da DeepSeek, “atinge desempenho de raciocínio comparável ao da versão Pro quando lhe é atribuído um orçamento de pensamento maior”.

Ambos os modelos suportam um milhão de tokens de contexto como funcionalidade padrão—aproximadamente 750,000 palavras, ou aproximadamente toda a trilogia de “O Senhor dos Anéis” mais texto adicional.

Inovação Técnica: Mecanismos de Atenção à Escala

A DeepSeek resolveu o problema de escalabilidade computacional inerente ao processamento de longos contextos ao inventar dois novos tipos de atenção, como detalhado no artigo técnico da empresa disponível no GitHub.

Os mecanismos de atenção padrão em IA enfrentam um problema brutal de escalabilidade: sempre que o comprimento de contexto duplica, o custo de computação quadruplica aproximadamente. A solução da DeepSeek envolve duas abordagens complementares:

Atenção Esparsa Comprimida funciona em dois passos. Primeiro, comprime grupos de tokens—por exemplo, a cada 4 tokens—num único registo. Depois, em vez de atender a todas as entradas comprimidas, usa um “Lightning Indexer” para selecionar apenas os resultados mais relevantes para qualquer consulta dada. Isto reduz o âmbito de atenção do modelo de um milhão de tokens para um conjunto muito menor de partes importantes.

Atenção Fortemente Comprimida adota uma abordagem ainda mais agressiva, colapsando cada 128 tokens numa única entrada sem seleção esparsa. Embora perca detalhe de granularidade fina, fornece uma visão global extremamente barata. Os dois tipos de atenção são executados em camadas alternadas, permitindo ao modelo manter tanto detalhe como visão geral.

Attention mechanism comparison chart

O resultado: o V4-Pro usa 27% da computação que o seu antecessor (V3.2) exigiu. O KV cache—memória necessária para acompanhar o contexto—cai para 10% do V3.2. O V4-Flash empurra a eficiência ainda mais: 10% de computação e 7% de memória em comparação com o V3.2.

Desempenho em Benchmarks e Posição Competitiva

A DeepSeek publicou comparações abrangentes de benchmarks contra o GPT-5.4 e o Gemini-3.1-Pro, incluindo áreas em que o V4-Pro fica atrás dos concorrentes. Em tarefas de raciocínio, o raciocínio do V4-Pro fica atrás do GPT-5.4 e do Gemini-3.1-Pro em aproximadamente três a seis meses, de acordo com o relatório técnico da DeepSeek.

Onde o V4-Pro lidera:

  • Codeforces (programação competitiva): o V4-Pro obteve 3,206, ficando por volta do 23.º lugar entre os participantes humanos em concursos reais
  • Apex Shortlist (problemas de matemática e STEM curados): taxa de aprovação de 90.2% face aos 85.9% do Opus 4.6 e aos 78.1% do GPT-5.4
  • SWE-Verified (resolução de issues do GitHub): 80.6%, correspondendo aos 80.6% do Claude Opus 4.6

Onde o V4-Pro fica atrás:

  • MMLU-Pro (multitasking): o Gemini-3.1-Pro a 91.0% versus o V4-Pro a 87.5%
  • GPQA Diamond (conhecimento especializado): o Gemini a 94.3 versus o V4-Pro a 90.1
  • Humanity’s Last Exam (nível de pós-graduação): o Gemini-3.1-Pro a 44.4% versus o V4-Pro a 37.7%

Em tarefas de long-context, o V4-Pro lidera modelos open-source e bate o Gemini-3.1-Pro no CorpusQA (simulando análise real de documentos com um milhão de tokens) mas perde para o Claude Opus 4.6 no MRCR, que mede a recuperação de informação específica enterrada profundamente em texto longo.

Capacidades Agentic e de Codificação

O V4-Pro pode correr no Claude Code, OpenCode e outras ferramentas de codificação em IA. De acordo com o inquérito interno da DeepSeek a 85 programadores que usaram o V4-Pro como o seu agente de codificação principal, 52% disseram que estava pronto para ser o seu modelo por defeito, 39% penderam para sim e menos de 9% disseram não. O teste interno da DeepSeek indicou que o V4-Pro supera o Claude Sonnet e aproxima-se do Claude Opus 4.5 em tarefas de codificação agentic.

A Artificial Analysis classificou o V4-Pro em primeiro lugar entre todos os modelos open-weight no GDPval-AA, um benchmark que testa trabalho de conhecimento economicamente valioso em tarefas de finanças, jurídicos e de investigação. O V4-Pro-Max marcou 1,554 Elo, à frente do GLM-5.1 (1,535) e do MiniMax’s M2.7 (1,514). O Claude Opus 4.6 marca 1,619 no mesmo benchmark.

GDPval-AA benchmark ranking chart

O V4 introduz “thinking intercalado”, que retém a cadeia completa de pensamento ao longo de chamadas de ferramentas. Nos modelos anteriores, quando um agente fazia múltiplas chamadas de ferramentas—como pesquisar na web, executar código e depois pesquisar de novo—o contexto de raciocínio do modelo era limpo entre rondas. O V4 mantém continuidade de raciocínio entre passos, evitando perda de contexto em fluxos de trabalho automatizados complexos.

Cenário Competitivo e Contexto de Preços

O lançamento do V4 chega num contexto de atividade significativa no setor de IA. A Anthropic enviou o Claude Opus 4.7 a 16 de abril de 2026. O GPT-5.5 da OpenAI foi lançado a 23 de abril de 2026, com o GPT-5.5 Pro com preços de $30 por milhão de tokens de entrada$180 e (por milhão de tokens de saída). O GPT-5.5 supera o V4-Pro no Terminal Bench 2.0 (82.7% versus 70.0%), que testa fluxos de trabalho complexos de agentes via linha de comandos.

A Xiaomi lançou o MiMo V2.5 Pro a 22 de abril de 2026, oferecendo capacidades multimodais completas $1 imagem, áudio, vídeo$3 a (entrada e )saída por tokens de milhão. A Tencent lançou o Hy3 no mesmo dia que o GPT-5.5.

Para uma perspetiva de preços: o CEO da Cline, Saoud Rizwan, notou que se a Uber tivesse usado a DeepSeek em vez do Claude, o orçamento de IA de 2026—alegadamente suficiente para quatro meses de utilização—teria durado sete anos.

![Pricing comparison and Uber budget analysis]https://img-cdn.gateio.im/social/moments-0ee5a4bf95-cbc5686e31-8b7abd-badf29

Implementação e Disponibilidade

Tanto o V4-Pro como o V4-Flash têm licença MIT e estão disponíveis no Hugging Face. Os modelos são apenas texto por enquanto; a DeepSeek afirmou que está a trabalhar em capacidades multimodais. Ambos os modelos podem ser executados gratuitamente em hardware local ou personalizados com base nas necessidades da empresa.

Os endpoints atuais deepseek-chat e deepseek-reasoner da DeepSeek já encaminham para o V4-Flash nos modos non-thinking e thinking, respetivamente. Os antigos endpoints deepseek-chat e deepseek-reasoner serão descontinuados a 24 de julho de 2026.

A DeepSeek treinou o V4 em parte com chips Huawei Ascend, contornando restrições de exportação dos EUA. A empresa afirmou que, quando 950 novos supernós ficarem online mais tarde em 2026, o preço do modelo Pro—que já é baixo—vai cair ainda mais.

Implicações Práticas

Para empresas, a estrutura de preços pode alterar os cálculos custo-benefício. Um modelo que lidera benchmarks open-source a $1.74 por milhão de tokens de entrada torna o processamento de documentos em larga escala, revisão jurídica e pipelines de geração de código substancialmente mais baratos do que seis meses antes. O contexto de um milhão de tokens permite que bases de código inteiras ou submissões regulatórias sejam processadas num único pedido em vez de ser fragmentadas em múltiplas chamadas.

Para programadores e construtores individuais, o V4-Flash é a consideração principal. A $0.14 de entrada e $0.28 de saída por milhão de tokens, é mais barato do que modelos que eram considerados opções orçamentais há um ano, enquanto lida com a maioria das tarefas que a versão Pro gere.

Isenção de responsabilidade: As informações contidas nesta página podem ser provenientes de terceiros e não representam os pontos de vista ou opiniões da Gate. O conteúdo apresentado nesta página é apenas para referência e não constitui qualquer aconselhamento financeiro, de investimento ou jurídico. A Gate não garante a exatidão ou o carácter exaustivo das informações e não poderá ser responsabilizada por quaisquer perdas resultantes da utilização destas informações. Os investimentos em ativos virtuais implicam riscos elevados e estão sujeitos a uma volatilidade de preços significativa. Pode perder todo o seu capital investido. Compreenda plenamente os riscos relevantes e tome decisões prudentes com base na sua própria situação financeira e tolerância ao risco. Para mais informações, consulte a Isenção de responsabilidade.
Comentar
0/400
AprDaydreamvip
· 7h atrás
Espero que o oficial forneça um mecanismo de registo de ações/audição que seja auditável, caso contrário, será difícil responsabilizar, especialmente em contas de ativos operadas automaticamente.
Ver originalResponder0
PaperHandsProvip
· 7h atrás
A "compreensão de intenção" na aplicação prática é realmente o ponto difícil, espero que não volte a acontecer aquela situação embaraçosa de você querer reservar um bilhete de avião e ele alterar o seu currículo.
Ver originalResponder0
Half-SectionedSucculentvip
· 7h atrás
Estou um pouco ansioso, mas também um pouco assustado: poder clicar com o mouse equivale a poder fazer muitas coisas que só os "cliques humanos" podem fazer, e o controle de risco e a luta contra fraudes precisam ser aprimorados.
Ver originalResponder0
ACalmnessWithAHintOfPomelovip
· 7h atrás
Esta onda também terá impacto no Web3, se as operações automáticas na cadeia, os processos de assinatura e a interação com carteiras puderem ser feitos de forma integrada, a forma do produto mudará.
Ver originalResponder0
StarsInTheGlassDomevip
· 7h atrás
API e preços, primeiro não se apresse, primeiro veja se ele consegue resistir a janelas pop-up, múltiplas janelas e oscilações de rede em ambientes de desktop complexos.
Ver originalResponder0
GateUser-b665e41cvip
· 7h atrás
Sinto que a evolução de "saber falar e escrever" para "saber fazer e entregar" passa a próxima etapa de fornecer a ela uma melhor memória e gestão de tarefas.
Ver originalResponder0
LintCollectorvip
· 7h atrás
Se realmente for possível conectar entre aplicações: pesquisar no navegador → processar no Excel → criar apresentação no PowerPoint → enviar por email, então será um ciclo completo de fluxo de trabalho de escritório.
Ver originalResponder0
DegenWithNotebookvip
· 7h atrás
Finalmente chegou à operação nativa na área de trabalho? Agora realmente vai ser um "estagiário digital".
Ver originalResponder0