DeepSeek V4 anuncia a descontinuação da NVIDIA! Onde está a batalha de independência de poder de computação de IA na China?

動區BlockTempo

DeepSeek anuncia que a nova geração do modelo V4 adotará totalmente chips nacionais, deixando de depender de GPUs da NVIDIA. Desde o incidente com a ZTE até às três rodadas de proibição de chips, a indústria de IA chinesa está a avançar simultaneamente por três caminhos: otimização de algoritmos, substituição por produtos nacionais e exportação de tokens.

(Resumindo: o DeepSeek não copiou o ChatGPT, mas utilizou tecnologia de base para contornar a plataforma CUDA da NVIDIA)

(Complemento: FBI e Casa Branca investigam! Suspeitam que o DeepSeek obteve chips da NVIDIA através de intermediários em Singapura)

Há oito anos, a ZTE enfrentou uma paragem cardíaca. Em 16 de abril de 2018, uma ordem do Departamento de Comércio dos EUA proibiu a venda de componentes, produtos, software e tecnologia à ZTE, uma das maiores fabricantes globais de dispositivos de comunicação, com 80 mil empregados e receitas superiores a mil milhões de dólares. Em uma noite, a empresa parou.

A proibição era simples: nos próximos sete anos, nenhuma empresa americana poderia vender peças ou tecnologia à ZTE.

Sem chips da Qualcomm, as estações base pararam de funcionar. Sem licença do Android da Google, os telemóveis ficaram sem sistema operativo utilizável. Após 23 dias, a ZTE anunciou que as suas principais atividades não podiam continuar.

Porém, a ZTE conseguiu sobreviver, pagando uma multa de 1,4 mil milhões de dólares.

Pagou a multa de uma só vez, depositou 400 milhões de dólares em uma conta de garantia nos EUA, trocou toda a direção e aceitou supervisão de conformidade americana. Em 2018, a ZTE registou prejuízo de 7 mil milhões de yuanes, com uma queda de 21,4% na receita.

O então presidente da ZTE, Yin Yimin, escreveu numa carta interna: «Estamos numa indústria complexa, altamente dependente da cadeia de abastecimento global.» Na altura, era uma reflexão, mas também uma expressão de impotência.

Oito anos depois, a 26 de fevereiro de 2026, a startup chinesa de IA DeepSeek anunciou que o seu modelo multimodal V4, a ser lançado em breve, irá colaborar profundamente com fabricantes nacionais de chips, realizando pela primeira vez um processo completo, do pré-treinamento ao ajuste fino, sem depender da NVIDIA.

Resumindo: deixámos de usar a NVIDIA.

Assim que a notícia saiu, o mercado questionou: a NVIDIA detém mais de 90% do mercado global de chips de treino de IA. Abandoná-la é racional?

Porém, por trás da decisão do DeepSeek, há uma questão maior do que a lógica comercial: que tipo de independência de capacidade computacional a IA chinesa realmente precisa?

Muitos pensam que a proibição de chips bloqueia o hardware. Mas o que realmente sufoca as empresas chinesas de IA é algo chamado CUDA.

CUDA, sigla para Compute Unified Device Architecture, é uma plataforma de computação paralela e modelo de programação lançados pela NVIDIA em 2006. Permite aos desenvolvedores usar diretamente a potência das GPUs da NVIDIA para acelerar cálculos complexos.

Antes da era da IA, era uma ferramenta de nicho para geeks. Mas com a chegada do deep learning, CUDA tornou-se a base de toda a indústria de IA.

Treinar grandes modelos de IA é, essencialmente, uma enorme matriz de cálculos. E é exatamente aí que as GPUs são melhores.

Com uma estratégia de mais de uma década, a NVIDIA construiu com CUDA uma cadeia de ferramentas completa, desde hardware até aplicações, para desenvolvedores de IA em todo o mundo. Hoje, os principais frameworks de IA, como TensorFlow do Google e PyTorch do Meta, estão profundamente ligados ao CUDA.

Um doutor em IA, desde o primeiro dia, aprende, programa e faz experimentos nesse ambiente CUDA. Cada linha de código reforça a posição da NVIDIA.

Até 2025, o ecossistema CUDA conta com mais de 4,5 milhões de desenvolvedores, suportando mais de 3 mil aplicações aceleradas por GPU, com mais de 40 mil empresas a utilizá-lo. Isso significa que mais de 90% dos desenvolvedores de IA no mundo estão ligados ao ecossistema da NVIDIA.

O poder do CUDA é uma espécie de roda-viva: mais utilizadores geram mais ferramentas, bibliotecas e código, tornando o ecossistema mais forte. Quanto mais forte, mais atraente para novos desenvolvedores. Uma vez em movimento, é quase impossível de parar.

Assim, a NVIDIA vende as ferramentas mais caras e define o modo de mineração. Quer trocar de ferramenta? Pode, mas terá que reescrever toda a experiência, ferramentas e códigos acumulados ao longo de anos por dezenas de milhares de mentes brilhantes.

Quem paga esse custo?

Quando, em 7 de outubro de 2022, o BIS implementou restrições à exportação de GPUs A100 e H100 para a China, as empresas chinesas de IA sentiram pela primeira vez uma sufocação semelhante à da ZTE. A NVIDIA lançou versões especiais para a China, A800 e H800, com menor largura de banda, para manter o fornecimento.

Mas, apenas um ano depois, em 17 de outubro de 2023, novas restrições mais severas proibiram também esses chips, incluindo 13 empresas chinesas na lista de entidades. A NVIDIA teve que lançar versões ainda mais limitadas, como o H20. Em dezembro de 2024, a última rodada de restrições do governo Biden restringiu severamente até mesmo a exportação do H20.

Três rodadas de restrições, aumentando a pressão.

Porém, desta vez, o rumo da história é diferente do caso da ZTE.

Muitos pensaram que o sonho de grandes modelos de IA na China acabaria com as proibições.

Estavam enganados. Diante do bloqueio, as empresas chinesas não optaram pelo confronto direto, mas por uma estratégia de fuga. O primeiro campo de batalha não foi o hardware, mas os algoritmos.

De fim de 2024 a 2025, as empresas chinesas de IA voltaram-se para uma abordagem tecnológica: modelos híbridos de especialistas.

Simplificando, dividem um grande modelo em vários pequenos especialistas, ativando apenas os mais relevantes para cada tarefa, ao invés de usar o modelo inteiro.

O DeepSeek V3 é um exemplo clássico dessa estratégia. Com 671 bilhões de parâmetros, durante a inferência ativa apenas 37 bilhões, ou 5,5% do total. No treinamento, usou 2.048 GPUs H800 da NVIDIA, treinando por 58 dias, ao custo de 5,576 milhões de dólares. Para comparação, estima-se que o custo de treinar o GPT-4 seja cerca de 78 milhões de dólares — uma diferença de uma ordem de grandeza.

A otimização algorítmica extrema refletiu-se no preço: a API do DeepSeek custa entre 0,028 e 0,28 dólares por milhão de tokens na entrada, e 0,42 dólares na saída. Em contraste, o GPT-4 cobra cerca de 5 dólares na entrada e 15 dólares na saída. O Claude Opus é ainda mais caro, com entrada a 15 dólares e saída a 75 dólares. Assim, o DeepSeek é de 25 a 75 vezes mais barato que o Claude.

Essa diferença de preço teve grande impacto no mercado global de desenvolvedores. Em fevereiro de 2026, na plataforma de APIs de modelos de IA mais popular, o OpenRouter, as chamadas a modelos chineses aumentaram 127% em três semanas, ultrapassando pela primeira vez os EUA. Um ano antes, a participação chinesa no OpenRouter era inferior a 2%. Um ano depois, cresceu 421%, chegando perto de 60%.

Por trás desses números, há uma mudança estrutural que muitas vezes passa despercebida. Desde o segundo semestre de 2025, o cenário principal de aplicações de IA mudou de chat para agentes (agents). Nesse contexto, uma tarefa consome de 10 a 100 vezes mais tokens do que uma conversa simples. Quando o consumo de tokens aumenta exponencialmente, o preço torna-se decisivo. Os modelos chineses, com sua relação preço-valor extrema, encaixaram-se exatamente nesse momento.

Porém, a redução do custo de inferência não resolve o problema fundamental do treinamento. Um grande modelo que não seja atualizado continuamente com dados recentes perderá rapidamente sua capacidade. E o treinamento continua sendo o grande obstáculo de capacidade computacional.

De onde virá a “ferramenta” de treinamento?

Na cidade de Xinghua, Jiangsu, uma pequena cidade conhecida por aço inoxidável e alimentos saudáveis, nada relacionado a IA antes, foi construída uma linha de produção de servidores de capacidade computacional totalmente nacional, com 148 metros de comprimento, em apenas 180 dias após assinatura do projeto.

O núcleo dessa linha são dois chips totalmente nacionais: o processador Longxin 3C6000 e a placa de aceleração AI Taichu Yuanqi T100. O Longxin 3C6000 foi desenvolvido do zero, desde o conjunto de instruções até à microarquitetura. A Taichu Yuanqi, derivada do centro de computação de alta performance de Wuxi e da equipe da Tsinghua, usa uma arquitetura heterogênea de múltiplos núcleos.

Quando em produção plena, a linha consegue montar um servidor a cada 5 minutos. O investimento total é de 1,1 mil milhões de yuan, com uma produção anual prevista de 100 mil unidades.

Mais importante, a partir desses chips nacionais, já se realiza o treinamento de grandes modelos de verdade.

Em janeiro de 2026, a parceria entre Zhipu AI e Huawei lançou o GLM-Image, o primeiro modelo de geração de imagens SOTA totalmente treinado com chips nacionais. Em fevereiro, o gigante chinês de telecomunicações completou o treinamento do seu modelo “Xingchen” de centenas de bilhões de parâmetros, na sua infraestrutura de servidores nacionais em Xangai.

Estes exemplos demonstram uma coisa: os chips nacionais já evoluíram de apenas suportar inferência para treinar modelos. Uma mudança de paradigma. Enquanto a inferência só precisa rodar modelos já treinados, o treinamento exige processamento massivo de dados, cálculos complexos de gradiente e atualização de parâmetros, com requisitos muito mais elevados de capacidade, largura de banda e ecossistema de software.

O núcleo dessa tarefa são os chips Ascend da Huawei. Até o final de 2025, o ecossistema Ascend conta com mais de 4 milhões de desenvolvedores, mais de 3 mil parceiros, e 43 grandes modelos treinados com Ascend, além de mais de 200 modelos de código aberto adaptados. Na MWC de 2 de março de 2026, a Huawei lançou o novo hardware de computação SuperPoD para o mercado internacional.

O Ascend 910B, com capacidade FP16, já rivaliza com o A100 da NVIDIA. Ainda há uma diferença, mas passou de inoperável a utilizável, e de utilizável a eficiente. A construção do ecossistema não pode esperar que o chip seja perfeito; deve-se começar a expandir em fases, impulsionando a evolução do hardware e do software com as necessidades reais do mercado. Empresas como ByteDance, Tencent e Baidu estão a dobrar a sua capacidade de servidores nacionais em 2026 em relação ao ano anterior. Segundo o Ministério da Indústria e Tecnologia da Informação, a escala de computação inteligente na China atingiu 1590 EFLOPS. 2026 será o ano de implantação em larga escala de capacidade computacional nacional.

No início de 2026, a Virgínia, que suporta grande parte do tráfego de data centers global, suspendeu a aprovação de novos projetos de construção. Geórgia seguiu-se, com a suspensão estendendo-se até 2027. Illinois e Michigan também implementaram restrições.

Segundo a Agência Internacional de Energia, em 2024, o consumo de energia dos data centers nos EUA atingiu 183 TWh, cerca de 4% do consumo total do país. Até 2030, espera-se que esse valor dobre para 426 TWh, representando mais de 12%. O CEO da Arm prevê que, até 2030, os centros de dados de IA consumirã0 entre 20% e 25% da eletricidade dos EUA.

A rede elétrica dos EUA já não aguenta. A rede PJM, que cobre 13 estados do leste, enfrenta uma escassez de 6 GW. Até 2033, o déficit total de capacidade elétrica nos EUA chegará a 175 GW, equivalente ao consumo de 130 milhões de lares. O custo de energia nas áreas de concentração de data centers aumentou 267% em cinco anos.

O limite do poder computacional é a energia. E, nesse aspecto, a diferença entre China e EUA é maior do que a dos chips, só que na direção oposta.

A produção de energia na China é de 10,4 trilhões de kWh, enquanto nos EUA é de 4,2 trilhões — a China produz 2,5 vezes mais. Mais importante, a eletricidade residencial na China representa apenas 15% do consumo total, enquanto nos EUA é 36%. Isso significa que a China tem uma margem industrial de energia muito maior para investir em capacidade computacional.

Quanto ao custo da eletricidade, as empresas de IA nos EUA pagam entre 0,12 e 0,15 dólares por kWh, enquanto na China ocidental a tarifa industrial é cerca de 0,03 dólares, ou seja, um quarto a um quinto do valor.

O aumento da geração de energia na China já é sete vezes maior que nos EUA.

Enquanto os EUA enfrentam dificuldades energéticas, a IA chinesa está a conquistar o mundo silenciosamente. Mas, desta vez, não é com produtos ou fábricas, e sim com tokens.

Tokens, unidades mínimas de processamento de informação em modelos de IA, estão a tornar-se uma nova mercadoria digital. São produzidos na China, enviados por cabos submarinos para o mundo todo.

Os dados de uso do DeepSeek ilustram bem a questão: 30,7% dos utilizadores estão na China, 13,6% na Índia, 6,9% na Indonésia, 4,3% nos EUA e 3,2% na França. O suporte a 37 idiomas faz dele popular em mercados emergentes como o Brasil. Mais de 26 mil empresas têm contas, e 3.2 mil organizações usam a versão empresarial.

Em 2025, 58% das novas startups de IA adotaram o DeepSeek na sua infraestrutura tecnológica. Na China, domina com 89% de quota de mercado. Em outros países sob sanções, a quota varia entre 40% e 60%.

Este cenário lembra muito outra guerra pela autonomia industrial, há quarenta anos.

Em 1986, Tóquio, sob forte pressão dos EUA, assinou o Acordo de Semicondutores EUA-Japão. Três pontos principais: abrir o mercado de semicondutores japonês, com participação de chips americanos acima de 20%; proibir exportações de semicondutores japoneses abaixo do custo; aplicar tarifas punitivas de 100% sobre chips japoneses de 300 milhões de dólares. Além disso, os EUA vetaram a aquisição da Fujitsu pela Quick Semiconductor.

Naquele período, a indústria de semicondutores do Japão estava no auge. Em 1988, controlava 51% do mercado global, enquanto os EUA tinham 36,8%. As dez maiores empresas de semicondutores eram seis japonesas: NEC, Toshiba, Hitachi, Fujitsu, Mitsubishi e Panasonic. Em 1985, a Intel tinha prejuízo de 173 milhões de dólares na disputa com o Japão, quase falindo.

Mas, após o acordo, tudo mudou.

Os EUA usaram investigações 301 e outras medidas para sufocar as empresas japonesas, apoiando ao mesmo tempo a Samsung e Hynix na Coreia, com preços mais baixos. A quota de DRAM do Japão caiu de 80% para 10%. Em 2017, a participação do Japão no mercado de chips caiu para apenas 7%. Gigantes que antes dominavam, foram desmembradas, adquiridas ou saíram de cena em prejuízos contínuos.

A tragédia do setor japonês foi não ter construído uma ecologia própria, dependente de uma divisão de trabalho global dominada por forças externas. Quando a maré virou, perceberam que, além de produzir, nada tinham.

Hoje, a indústria de IA na China enfrenta uma encruzilhada semelhante, mas completamente diferente.

Semelhança: enfrentamos forte pressão externa, com três rodadas de restrições de chips e uma barreira de CUDA que permanece alta.

Diferença: desta vez, escolhemos um caminho mais difícil. Desde a otimização extrema de algoritmos até a transição de chips nacionais de inferência para treino, passando pela ecologia de 4 milhões de desenvolvedores da Ascend, e pela exportação de tokens ao mercado global. Cada passo constrói uma ecologia industrial independente que a história do Japão nunca teve.

Em 27 de fevereiro de 2026, três relatórios de resultados de empresas nacionais de chips de IA foram publicados no mesmo dia.

Cambricon teve um aumento de 453% na receita, atingindo lucro anual pela primeira vez. Moore Threads cresceu 243%, mas ainda com prejuízo de 1 bilhão de yuan. MuXi cresceu 121%, com prejuízo de quase 800 milhões.

Metade é fogo, metade é mar.

Fogo: a fome extrema do mercado. As 95% de vagas deixadas por Jensen Huang estão sendo preenchidas por esses fabricantes nacionais, com números de receita que crescem a cada dia. Independentemente do desempenho ou do ecossistema, o mercado precisa de uma segunda alternativa à NVIDIA. Uma oportunidade única, impulsionada pela geopolítica.

Mar: o enorme custo de construir uma ecologia própria. Cada prejuízo é um investimento na construção de uma ecologia independente, incluindo pesquisa e desenvolvimento, subsídios de software e engenheiros no terreno a resolver problemas de compilação. Esses custos não representam má gestão, mas o preço de guerra para criar uma ecologia própria.

Estes relatórios refletem com mais sinceridade do que qualquer análise do setor a verdadeira face desta guerra de capacidade computacional. Não é uma vitória triunfante, mas uma batalha sangrenta, de avanço e retrocesso.

Mas a forma da guerra mudou. Há oito anos, discutíamos se conseguiríamos sobreviver. Agora, questionamos quanto custa sobreviver.

O próprio custo é uma forma de progresso.

Ver original
Isenção de responsabilidade: As informações contidas nesta página podem ser provenientes de terceiros e não representam os pontos de vista ou opiniões da Gate. O conteúdo apresentado nesta página é apenas para referência e não constitui qualquer aconselhamento financeiro, de investimento ou jurídico. A Gate não garante a exatidão ou o carácter exaustivo das informações e não poderá ser responsabilizada por quaisquer perdas resultantes da utilização destas informações. Os investimentos em ativos virtuais implicam riscos elevados e estão sujeitos a uma volatilidade de preços significativa. Pode perder todo o seu capital investido. Compreenda plenamente os riscos relevantes e tome decisões prudentes com base na sua própria situação financeira e tolerância ao risco. Para mais informações, consulte a Isenção de responsabilidade.
Comentar
0/400
Nenhum comentário
Negocie cripto em qualquer lugar e a qualquer hora
qrCode
Digitalizar para transferir a aplicação Gate
Novidades
Português (Portugal)
  • 简体中文
  • English
  • Tiếng Việt
  • 繁體中文
  • Español
  • Русский
  • Français (Afrique)
  • Português (Portugal)
  • Bahasa Indonesia
  • 日本語
  • بالعربية
  • Українська
  • Português (Brasil)