Na NVIDIA(NVDA), que consolida a sua posição dominante no mercado de semicondutores AI, voltou a apresentar inovações tecnológicas na CES 2026, redefinindo completamente o padrão da economia de fábricas de IA. Esta inovação na arquitetura do sistema, apresentada pessoalmente pelo CEO Huang Renxun, vai além do simples nível de semicondutores, sendo uma “design de coordenação extrema” que integra de forma estreita componentes de rede, memória, software e outros componentes de pilha completa.
Nesta apresentação, a NVIDIA não só aumentou o desempenho computacional, mas também impulsionou de forma explosiva a eficiência de geração de tokens, mudando assim a estrutura de custos da infraestrutura de IA. Por exemplo, análises indicam que o desempenho de cálculo das unidades GPU aumentou 5 vezes em relação ao passado, enquanto a capacidade de throughput no nível do sistema aumentou 10 vezes, resultando numa demanda de tokens geráveis até 15 vezes maior. Esta inovação estrutural, conhecida como a “Lei de Moore tripla”, mudou fundamentalmente a economia operacional e a estratégia de expansão das fábricas de IA.
Assim como empresas que sobreviveram na história de competição acirrada construindo ecossistemas baseados em escala, o verdadeiro vencedor na era da IA não se define pelo tamanho do desempenho, mas pela consistência do design do sistema e pela economia gerada pela curva de aprendizagem baseada em escala. Empresas como (INTC) (Intel), (AMD), (TSMC) (Taiwan Semiconductor Manufacturing Company), (AAPL) (Apple), estabeleceram suas bases de sobrevivência de maneiras diferentes na escalabilidade do sistema e na velocidade de aprendizagem, enquanto a NVIDIA agora busca dominar toda a pilha de tecnologia de IA com uma velocidade mais rápida e agressiva.
A apresentação centrada na plataforma Rubin não envolve apenas GPUs e CPUs, mas também redes de alta performance como (Spectrum-X Ethernet), DPU (BlueField) e a rede interna baseada em InfiniBand NVLink, todos redesenhados dentro de uma estrutura unificada. Este sistema de pilha completa não se limita a melhorar o desempenho de componentes individuais, mas foca na maximização do throughput alvo e na intensificação do uso de recursos do sistema como um todo. Na prática, os resultados não são apenas melhorias de desempenho, mas uma mudança estrutural fundamental na arquitetura de processamento de todo o sistema.
Em tarefas de treinamento e inferência de IA, o indicador central está se transformando em “custo por token gerado”. Com a eficiência do sistema aprimorada, a NVIDIA conseguiu reduzir o custo por token para um décimo do valor anterior. Graças a isso, aplicações de IA que antes tinham uma economia fraca podem agora ser implantadas em larga escala de forma economicamente viável. Essa melhoria revolucionária na economia certamente provocará uma reestruturação nos orçamentos de TI e na transformação da estrutura de custos centrada em tokens na indústria de IA.
A velocidade de avanço é notável. Se a Lei de Moore tradicional do setor de semicondutores prevê ciclos de 18 a 24 meses, a NVIDIA agora está mudando o quadro de desempenho e eficiência em ciclos de 12 meses. Isso não é apenas liderança tecnológica, mas a criação de uma nova curva de aprendizagem que acelera a diferença competitiva. Seu significado simbólico reside no fato de que, sob a nova paradigma de plataformas de IA, a vantagem de infraestrutura será mais baseada na liderança econômica do que apenas na capacidade técnica.
Seus concorrentes, como a (Intel), embora mantenham uma presença no mercado de CPUs, encontram dificuldades em manter sua posição de monopólio original sem parcerias com a NVIDIA. A (AMD), embora competitiva no mercado de CPUs x86, enfrenta limites físicos na velocidade e escala à medida que a carga de trabalho de aprendizagem e inferência de IA se desloca rapidamente, expondo seus limites físicos.
No mercado de chips dedicados, empresas como Groq, com vantagens na otimização de latência, e Cerebras, explorando novos limites de design de chips gigantes, estão conquistando nichos no ecossistema de fábricas de IA. No entanto, especialistas acreditam que essas empresas terão dificuldades em substituir completamente a capacidade de integração de sistemas e a estratégia de expansão de eficiência baseada na curva de aprendizagem da NVIDIA, devido às suas limitações evidentes.
Empresas como Google com sua TPU e Amazon com o Trainium, que avançam na estratégia de plataformas de IA, também possuem alto grau de maturidade tecnológica, mas enfrentam restrições estruturais na escalabilidade do sistema, especialmente na superação de gargalos de rede em ambientes de fábricas de grande escala, dificultando a competição com a NVIDIA. Particularmente em projetos de grande porte como o Gemini, a velocidade de evolução do modelo é crucial, e a velocidade de iteração de aprendizagem alcançada com CUDA e hardware de ponta pode se tornar uma vantagem estratégica.
Na transição do foco de unidades de fabricação de semicondutores para unidades que ultrapassam o conceito de “rack” e entram na operação de nível de fábrica, clientes que planejam estratégias de IA também devem focar na acumulação de valor por meio de experimentos rápidos e aprendizagem iterativa, ao invés de construir infraestrutura em larga escala. O novo sistema de fábrica da NVIDIA, ao reduzir a barreira de entrada na era da IA, também aumenta a eficácia da estratégia de execução que prioriza experimentos antes da refinação de dados.
A essência dessa mudança de paradigma ICT não é mais apenas o desempenho de um único chip, mas o equilíbrio entre sistema e economia de tokens. Com a velocidade de implementação tecnológica e ciclos de decisão cada vez mais curtos, apenas as empresas líderes podem aproveitar a vantagem da curva de aprendizagem, que se traduz diretamente em poder de domínio na indústria. A partir da CES 2026, a nova ordem da era das fábricas de IA torna-se mais clara.