Na CES 2026, Jensen Huang apresentou uma keynote transformadora que reforça a visão de apostar tudo na NVIDIA: a transição de uma era focada exclusivamente no treino de IA para uma dominada por inferência eficiente em larga escala e inteligência incorporada. Ao longo de 90 minutos, o CEO da NVIDIA revelou oito anúncios principais, cada um reforçando uma estratégia singular — construir sistemas altamente integrados onde a programação de GPU acelerada por hardware e o computing em rede se tornam inseparáveis. A mensagem foi clara: o futuro não pertence a aceleradores isolados, mas a sistemas projetados para throughput rentável.
A Plataforma Vera Rubin: Uma Abordagem de Seis Chips para o Design Acelerado de Sistemas
Vera Rubin representa uma reformulação fundamental da arquitetura de data centers. Em vez de simplesmente acrescentar aceleradores a uma infraestrutura genérica, a NVIDIA co-projetou seis chips complementares — Vera CPU, Rubin GPU, NVLink 6 Switch, ConnectX-9 SuperNIC, BlueField-4 DPU e Spectrum-X CPO — cada um otimizado para funcionar como um ecossistema coeso.
A Vera CPU, construída com núcleos Olympus customizados, gerencia a movimentação de dados e o processamento de agentes com conectividade NVLink-CPU de 1.8TB/s, gerindo efetivamente a coordenação que a programação de GPU exige. A Rubin GPU introduz o motor Transformer e a capacidade de inferência NVFP4 atingindo 50 PFLOPS — 5x o desempenho do Blackwell — enquanto suporta memória HBM4 com banda de 22TB/s, 2.8x a geração anterior. Essas especificações importam não isoladamente, mas porque resolvem um problema crítico: à medida que os modelos crescem e os tokens de inferência proliferam, abordagens tradicionais de programação de GPU tornam-se gargalos na largura de banda de memória e nos custos de movimentação de dados.
Integrando todos os componentes em um sistema de rack único, o Vera Rubin NVL72 entrega 3.6 EFLOPS de desempenho em inferência com 2 trilhões de transistores. Mais importante, a arquitetura do sistema permite a programação de GPU acelerada por hardware em escala sem precedentes. O NVLink 6 Switch alcança 3.6TB/s de largura de banda total de interconexão por GPU (2x geração anterior), com computação na rede de 14.4 TFLOPS FP8. Isso não é apenas mais largura de banda — é largura de banda projetada para eliminar gargalos de programação inerentes às cargas de trabalho de inferência distribuída.
O sistema usa resfriamento líquido 100% e apresenta uma bandeja de computação modular e sem ventoinha, que reduz o tempo de montagem de duas horas para cinco minutos. Manutenção sem tempo de inatividade através da bandeja do NVLink Switch e do motor RAS de segunda geração garante que os clusters de inferência atinjam a confiabilidade de uptime exigida pelos data centers. Mais de 80 parceiros MGX já estão preparados para a implantação do Vera Rubin.
Três Inovações que Apontam para a Fronteira da Eficiência de Inferência
Além da base de hardware, a NVIDIA lançou três produtos especificamente projetados para resolver gargalos de inferência: Spectrum-X Ethernet CPO, uma Plataforma de Armazenamento de Memória de Contexto de Inferência, e o DGX SuperPOD construído com Vera Rubin.
Spectrum-X Ethernet Co-Packaged Optics aplica um design de dois chips usando tecnologia SerDes de 200Gbps, entregando 102.4Tb/s por ASIC. Em comparação com redes comutadas tradicionais, a arquitetura CPO alcança eficiência energética 5x superior, confiabilidade 10x melhor e tempo de atividade de aplicação 5x maior. Isso se traduz diretamente em processar mais tokens de inferência diariamente, enquanto reduz o TCO do data center — uma vantagem competitiva crítica na corrida para commoditizar a inferência.
A Plataforma de Armazenamento de Memória de Contexto de Inferência redefine como os sistemas lidam com o armazenamento de contexto para cargas de trabalho de IA de sequência longa. À medida que sistemas de IA Agentic lidam com conversas multi-turno, pipelines RAG e raciocínio complexo de múltiplas etapas, as janelas de contexto agora se estendem a milhões de tokens. Em vez de recalcular caches de chaves e valores a cada passo de inferência — desperdiçando capacidade de GPU e introduzindo latência — a plataforma trata o contexto como um cidadão de primeira classe, armazenando e reutilizando-o através de uma camada de armazenamento acelerada BlueField-4 conectada via Spectrum-X. Ao desacoplar o armazenamento de contexto da memória de GPU, mantendo uma ligação estreita via NVLink, a plataforma oferece 5x de desempenho de inferência e 5x de eficiência energética para cargas de trabalho com forte uso de contexto. Isso representa uma mudança arquitetural fundamental: o gargalo de inferência migrou de computação bruta para gestão de contexto.
O DGX SuperPOD com Vera Rubin serve como o modelo para fábricas de IA turnkey. Combinando oito sistemas Vera Rubin NVL72 com escalabilidade vertical via NVLink 6 e escalabilidade horizontal via Spectrum-X Ethernet, o SuperPOD demonstra como o design colaborativo de chips se traduz em reduções de custo a nível de sistema. Em comparação com a geração Blackwell anterior, treinar modelos MoE grandes requer apenas 1/4 do número de GPUs, e os custos de inferência por token caem para 1/10. Gerenciado pelo software NVIDIA Mission Control, o SuperPOD opera como um motor de inferência unificado onde a programação de GPU, orquestração de rede e coordenação de armazenamento ocorrem de forma transparente.
O Amplificador de Código Aberto: De Modelos a Agentes Integrados
A expansão agressiva da NVIDIA em contribuições de código aberto — 650 modelos e 250 datasets lançados em 2025 sozinhos — reflete uma estratégia sofisticada: saturar os desenvolvedores com ferramentas poderosas e gratuitas, enquanto torna o hardware subjacente cada vez mais indispensável.
A empresa integrou modelos abertos e ferramentas em “Blueprints”, uma estrutura SaaS que permite sistemas multi-modelo e multi-nuvem com agentes. Esses sistemas roteiam automaticamente consultas para modelos privados locais ou modelos de fronteira na nuvem, com base na tarefa, chamam APIs externas para uso de ferramentas e fundem entradas multimodais (texto, voz, imagens, dados de sensores). Ao incorporar essa arquitetura nos fluxos de trabalho dos desenvolvedores, a NVIDIA garante que organizações conscientes de custos, que utilizam modelos abertos, dependam, em última análise, da infraestrutura de inferência Vera Rubin para implantações em produção.
A família Nemotron expandida agora inclui modelos RAG Agentic, variantes focadas em segurança e modelos de fala — cada um abordando gargalos na emergente pilha de IA Agentic. Desenvolvedores podem ajustar esses modelos, gerar dados sintéticos via Cosmos e construir aplicações que, há dois anos, seriam impossíveis de desenvolver.
IA Física: Onde a Condução Autônoma Encontra o Raciocínio do Mundo Real
A NVIDIA posiciona a IA física — inteligência que entende o mundo real, raciocina sobre incertezas e executa ações complexas — como a próxima fronteira de vários trilhões de dólares. Veículos autônomos surgem como principal campo de prova.
Alpha-Mayo, o conjunto de modelos de código aberto da NVIDIA para condução autônoma de Nível 4, encarna essa visão. Com 10 bilhões de parâmetros, Alpha-Mayo permite decisões baseadas em raciocínio, dividindo cenários complexos de condução em etapas e escolhendo a ação mais segura. Em vez de sistemas reativos de regras, o modelo entende a permanência de objetos, prevê o comportamento de veículos e lida com casos extremos nunca antes vistos — por exemplo, uma falha no semáforo em uma interseção movimentada.
O Mercedes-Benz CLA, agora em produção com integração de Alpha-Mayo, atingiu a classificação de segurança mais alta da NCAP. A plataforma NVIDIA DRIVE, rodando em hardware de produção, suporta condução mãos-livres em rodovias e autonomia urbana de ponta a ponta — capacidades que demonstram a prontidão da IA física para implantação em escala. Alpha-Sim, uma estrutura de avaliação de código aberto, e a geração de dados sintéticos via Cosmos permitem que desenvolvedores em todo o mundo acelerem o desenvolvimento de veículos autônomos.
Além do setor automotivo, a NVIDIA anunciou parcerias com Boston Dynamics, Franka Robotics, LG Electronics e outros, baseadas nas plataformas NVIDIA Isaac e GR00T. Uma colaboração com a Siemens integra tecnologias NVIDIA em ferramentas de EDA, CAE e gêmeos digitais, incorporando IA física em design, simulação, manufatura e operações.
O Fosso se Aprofunda: Engenharia de Sistemas como Vantagem Competitiva
À medida que o mercado de infraestrutura de IA evolui de um modelo centrado em treino para uma economia centrada em inferência, a competição por plataformas passou de métricas de um único eixo (FLOPS de GPU) para uma abordagem de engenharia de sistemas abrangente, cobrindo chips, racks, redes e orquestração de software.
A estratégia da NVIDIA atua em duas frentes simultaneamente. Na frente de código aberto, a empresa contribui agressivamente com modelos, ferramentas e datasets, democratizando o desenvolvimento de IA e expandindo o mercado endereçável para inferência. Na frente proprietária, o ecossistema Vera Rubin altamente integrado — com chips co-projetados, largura de banda NVLink, rede Spectrum-X, camadas de armazenamento de contexto e software Mission Control — torna-se cada vez mais difícil de replicar.
A dinâmica de ciclo fechado é formidável: ao expandir o ecossistema de código aberto, a NVIDIA impulsiona uma adoção mais ampla de IA e o consumo de tokens; ao fornecer infraestrutura de inferência de custo eficiente, captura as cargas de trabalho em escala que emergem; ao inovar continuamente na arquitetura de hardware e na capacidade de programação de GPU, garante que plataformas alternativas tenham dificuldades em igualar desempenho por watt e custo por token. Isso cria uma vantagem auto-reforçada que transcende qualquer ciclo de produto único.
O anúncio Vera Rubin não representa apenas a próxima geração de hardware de inferência, mas a validação de que a aposta da NVIDIA em sistemas integrados — onde aceleração de hardware, orquestração em rede e otimização de software convergem — se tornou doutrina da indústria. Desde hyperscalers implantando SuperPODs até empresas construindo agentes de IA privados em clusters DGX, o cenário de infraestrutura está se consolidando em torno da visão da NVIDIA.
Para desenvolvedores e operadores, a implicação é simples: a era de acrescentar aceleradores a plataformas genéricas terminou definitivamente. O futuro de inferência eficiente e escalável roda em sistemas acelerados por hardware, projetados especificamente para essa tarefa.
Esta página pode conter conteúdos de terceiros, que são fornecidos apenas para fins informativos (sem representações/garantias) e não devem ser considerados como uma aprovação dos seus pontos de vista pela Gate, nem como aconselhamento financeiro ou profissional. Consulte a Declaração de exoneração de responsabilidade para obter mais informações.
A Próxima Era da Aceleração de GPU: Como a Vera Rubin da NVIDIA Redefine o Agendamento de GPU Acelerado por Hardware
Na CES 2026, Jensen Huang apresentou uma keynote transformadora que reforça a visão de apostar tudo na NVIDIA: a transição de uma era focada exclusivamente no treino de IA para uma dominada por inferência eficiente em larga escala e inteligência incorporada. Ao longo de 90 minutos, o CEO da NVIDIA revelou oito anúncios principais, cada um reforçando uma estratégia singular — construir sistemas altamente integrados onde a programação de GPU acelerada por hardware e o computing em rede se tornam inseparáveis. A mensagem foi clara: o futuro não pertence a aceleradores isolados, mas a sistemas projetados para throughput rentável.
A Plataforma Vera Rubin: Uma Abordagem de Seis Chips para o Design Acelerado de Sistemas
Vera Rubin representa uma reformulação fundamental da arquitetura de data centers. Em vez de simplesmente acrescentar aceleradores a uma infraestrutura genérica, a NVIDIA co-projetou seis chips complementares — Vera CPU, Rubin GPU, NVLink 6 Switch, ConnectX-9 SuperNIC, BlueField-4 DPU e Spectrum-X CPO — cada um otimizado para funcionar como um ecossistema coeso.
A Vera CPU, construída com núcleos Olympus customizados, gerencia a movimentação de dados e o processamento de agentes com conectividade NVLink-CPU de 1.8TB/s, gerindo efetivamente a coordenação que a programação de GPU exige. A Rubin GPU introduz o motor Transformer e a capacidade de inferência NVFP4 atingindo 50 PFLOPS — 5x o desempenho do Blackwell — enquanto suporta memória HBM4 com banda de 22TB/s, 2.8x a geração anterior. Essas especificações importam não isoladamente, mas porque resolvem um problema crítico: à medida que os modelos crescem e os tokens de inferência proliferam, abordagens tradicionais de programação de GPU tornam-se gargalos na largura de banda de memória e nos custos de movimentação de dados.
Integrando todos os componentes em um sistema de rack único, o Vera Rubin NVL72 entrega 3.6 EFLOPS de desempenho em inferência com 2 trilhões de transistores. Mais importante, a arquitetura do sistema permite a programação de GPU acelerada por hardware em escala sem precedentes. O NVLink 6 Switch alcança 3.6TB/s de largura de banda total de interconexão por GPU (2x geração anterior), com computação na rede de 14.4 TFLOPS FP8. Isso não é apenas mais largura de banda — é largura de banda projetada para eliminar gargalos de programação inerentes às cargas de trabalho de inferência distribuída.
O sistema usa resfriamento líquido 100% e apresenta uma bandeja de computação modular e sem ventoinha, que reduz o tempo de montagem de duas horas para cinco minutos. Manutenção sem tempo de inatividade através da bandeja do NVLink Switch e do motor RAS de segunda geração garante que os clusters de inferência atinjam a confiabilidade de uptime exigida pelos data centers. Mais de 80 parceiros MGX já estão preparados para a implantação do Vera Rubin.
Três Inovações que Apontam para a Fronteira da Eficiência de Inferência
Além da base de hardware, a NVIDIA lançou três produtos especificamente projetados para resolver gargalos de inferência: Spectrum-X Ethernet CPO, uma Plataforma de Armazenamento de Memória de Contexto de Inferência, e o DGX SuperPOD construído com Vera Rubin.
Spectrum-X Ethernet Co-Packaged Optics aplica um design de dois chips usando tecnologia SerDes de 200Gbps, entregando 102.4Tb/s por ASIC. Em comparação com redes comutadas tradicionais, a arquitetura CPO alcança eficiência energética 5x superior, confiabilidade 10x melhor e tempo de atividade de aplicação 5x maior. Isso se traduz diretamente em processar mais tokens de inferência diariamente, enquanto reduz o TCO do data center — uma vantagem competitiva crítica na corrida para commoditizar a inferência.
A Plataforma de Armazenamento de Memória de Contexto de Inferência redefine como os sistemas lidam com o armazenamento de contexto para cargas de trabalho de IA de sequência longa. À medida que sistemas de IA Agentic lidam com conversas multi-turno, pipelines RAG e raciocínio complexo de múltiplas etapas, as janelas de contexto agora se estendem a milhões de tokens. Em vez de recalcular caches de chaves e valores a cada passo de inferência — desperdiçando capacidade de GPU e introduzindo latência — a plataforma trata o contexto como um cidadão de primeira classe, armazenando e reutilizando-o através de uma camada de armazenamento acelerada BlueField-4 conectada via Spectrum-X. Ao desacoplar o armazenamento de contexto da memória de GPU, mantendo uma ligação estreita via NVLink, a plataforma oferece 5x de desempenho de inferência e 5x de eficiência energética para cargas de trabalho com forte uso de contexto. Isso representa uma mudança arquitetural fundamental: o gargalo de inferência migrou de computação bruta para gestão de contexto.
O DGX SuperPOD com Vera Rubin serve como o modelo para fábricas de IA turnkey. Combinando oito sistemas Vera Rubin NVL72 com escalabilidade vertical via NVLink 6 e escalabilidade horizontal via Spectrum-X Ethernet, o SuperPOD demonstra como o design colaborativo de chips se traduz em reduções de custo a nível de sistema. Em comparação com a geração Blackwell anterior, treinar modelos MoE grandes requer apenas 1/4 do número de GPUs, e os custos de inferência por token caem para 1/10. Gerenciado pelo software NVIDIA Mission Control, o SuperPOD opera como um motor de inferência unificado onde a programação de GPU, orquestração de rede e coordenação de armazenamento ocorrem de forma transparente.
O Amplificador de Código Aberto: De Modelos a Agentes Integrados
A expansão agressiva da NVIDIA em contribuições de código aberto — 650 modelos e 250 datasets lançados em 2025 sozinhos — reflete uma estratégia sofisticada: saturar os desenvolvedores com ferramentas poderosas e gratuitas, enquanto torna o hardware subjacente cada vez mais indispensável.
A empresa integrou modelos abertos e ferramentas em “Blueprints”, uma estrutura SaaS que permite sistemas multi-modelo e multi-nuvem com agentes. Esses sistemas roteiam automaticamente consultas para modelos privados locais ou modelos de fronteira na nuvem, com base na tarefa, chamam APIs externas para uso de ferramentas e fundem entradas multimodais (texto, voz, imagens, dados de sensores). Ao incorporar essa arquitetura nos fluxos de trabalho dos desenvolvedores, a NVIDIA garante que organizações conscientes de custos, que utilizam modelos abertos, dependam, em última análise, da infraestrutura de inferência Vera Rubin para implantações em produção.
A família Nemotron expandida agora inclui modelos RAG Agentic, variantes focadas em segurança e modelos de fala — cada um abordando gargalos na emergente pilha de IA Agentic. Desenvolvedores podem ajustar esses modelos, gerar dados sintéticos via Cosmos e construir aplicações que, há dois anos, seriam impossíveis de desenvolver.
IA Física: Onde a Condução Autônoma Encontra o Raciocínio do Mundo Real
A NVIDIA posiciona a IA física — inteligência que entende o mundo real, raciocina sobre incertezas e executa ações complexas — como a próxima fronteira de vários trilhões de dólares. Veículos autônomos surgem como principal campo de prova.
Alpha-Mayo, o conjunto de modelos de código aberto da NVIDIA para condução autônoma de Nível 4, encarna essa visão. Com 10 bilhões de parâmetros, Alpha-Mayo permite decisões baseadas em raciocínio, dividindo cenários complexos de condução em etapas e escolhendo a ação mais segura. Em vez de sistemas reativos de regras, o modelo entende a permanência de objetos, prevê o comportamento de veículos e lida com casos extremos nunca antes vistos — por exemplo, uma falha no semáforo em uma interseção movimentada.
O Mercedes-Benz CLA, agora em produção com integração de Alpha-Mayo, atingiu a classificação de segurança mais alta da NCAP. A plataforma NVIDIA DRIVE, rodando em hardware de produção, suporta condução mãos-livres em rodovias e autonomia urbana de ponta a ponta — capacidades que demonstram a prontidão da IA física para implantação em escala. Alpha-Sim, uma estrutura de avaliação de código aberto, e a geração de dados sintéticos via Cosmos permitem que desenvolvedores em todo o mundo acelerem o desenvolvimento de veículos autônomos.
Além do setor automotivo, a NVIDIA anunciou parcerias com Boston Dynamics, Franka Robotics, LG Electronics e outros, baseadas nas plataformas NVIDIA Isaac e GR00T. Uma colaboração com a Siemens integra tecnologias NVIDIA em ferramentas de EDA, CAE e gêmeos digitais, incorporando IA física em design, simulação, manufatura e operações.
O Fosso se Aprofunda: Engenharia de Sistemas como Vantagem Competitiva
À medida que o mercado de infraestrutura de IA evolui de um modelo centrado em treino para uma economia centrada em inferência, a competição por plataformas passou de métricas de um único eixo (FLOPS de GPU) para uma abordagem de engenharia de sistemas abrangente, cobrindo chips, racks, redes e orquestração de software.
A estratégia da NVIDIA atua em duas frentes simultaneamente. Na frente de código aberto, a empresa contribui agressivamente com modelos, ferramentas e datasets, democratizando o desenvolvimento de IA e expandindo o mercado endereçável para inferência. Na frente proprietária, o ecossistema Vera Rubin altamente integrado — com chips co-projetados, largura de banda NVLink, rede Spectrum-X, camadas de armazenamento de contexto e software Mission Control — torna-se cada vez mais difícil de replicar.
A dinâmica de ciclo fechado é formidável: ao expandir o ecossistema de código aberto, a NVIDIA impulsiona uma adoção mais ampla de IA e o consumo de tokens; ao fornecer infraestrutura de inferência de custo eficiente, captura as cargas de trabalho em escala que emergem; ao inovar continuamente na arquitetura de hardware e na capacidade de programação de GPU, garante que plataformas alternativas tenham dificuldades em igualar desempenho por watt e custo por token. Isso cria uma vantagem auto-reforçada que transcende qualquer ciclo de produto único.
O anúncio Vera Rubin não representa apenas a próxima geração de hardware de inferência, mas a validação de que a aposta da NVIDIA em sistemas integrados — onde aceleração de hardware, orquestração em rede e otimização de software convergem — se tornou doutrina da indústria. Desde hyperscalers implantando SuperPODs até empresas construindo agentes de IA privados em clusters DGX, o cenário de infraestrutura está se consolidando em torno da visão da NVIDIA.
Para desenvolvedores e operadores, a implicação é simples: a era de acrescentar aceleradores a plataformas genéricas terminou definitivamente. O futuro de inferência eficiente e escalável roda em sistemas acelerados por hardware, projetados especificamente para essa tarefa.