CEO da Nvidia Jensen Huang sobre o que vem a seguir no boom da IA

Antes mesmo de Jensen Huang chegar à sua entrada de jaqueta de couro na GTC deste ano, a Nvidia $NVDA já tinha começado a vender o mito. A trilha sonora pré-show soava suspeitosamente personalizada para uma coroação — letras sobre coisas incríveis chegando no horário, lendas sendo feitas, o futuro aparecendo exatamente na hora; músicas até Shazam não conseguiu identificar. (A primeira demonstração de IA do dia poderia muito bem ter sido a playlist.) Metade da sala tinha os telemóveis erguidos para a entrada de Huang, como se o Vale do Silício tivesse reservado seu próprio espetáculo em arena. Por uma tarde, a casa dos San Jose Sharks pertencia a um tipo diferente de jogada de poder. Porque Huang entrou no palco e fez o que faz de melhor: transformou uma apresentação de produto numa audiência sobre o futuro.

O fundador da Nvidia abriu a GTC prometendo uma viagem por “cada camada” da IA, e passou as horas seguintes argumentando que a empresa não está apenas vendendo chips num mercado em alta. Não. A empresa quer definir toda a infraestrutura física da economia de IA: o computo, a rede, o armazenamento, o software, os modelos, as fábricas e — porque sutileza claramente está fora de época — talvez até os (ainda teóricos) data centers no espaço.

O discurso lançou anúncios em todas as direções, mas a mensagem principal era mais focada. Huang queria que investidores, clientes e rivais ouvissem claramente quatro coisas: a demanda por IA ainda está crescendo rápido o suficiente para justificar gastos exorbitantes; a inferência é agora o centro do campo de batalha; agentes devem sair dos chatbots e entrar na rotina diária do trabalho de escritório; e a próxima corrida do ouro após a IA digital pode ser a IA física, onde robôs, sistemas autônomos e software industrial consomem ainda mais dados e infraestrutura. Não se pode soletrar Nvidia sem IA.

Huang começou onde costuma começar quando o mercado começa a questionar se a muralha da Nvidia pode, algum dia, ter uma brecha: software. Ele passou a lembrar a todos que CUDA tem 20 anos, que a base instalada da Nvidia está “em todas as nuvens” e “em todas as empresas de computadores”. A maior proteção da Nvidia ainda é o ecossistema de software ao redor do silício, não os retângulos verdes sozinhos.

Essa lógica moldou o resto do discurso. Huang destacou os dados estruturados, chamou-os de a “verdade fundamental” da computação empresarial, e disse que a IA finalmente pode usar o oceano de informações não estruturadas — PDFs, vídeos, fala, todo o lixo do sótão corporativo acumulado por anos sem realmente saber como pesquisar ou monetizar. Cuidado, mundo; a Nvidia também quer uma fatia do banco de dados.

A GTC não é mais só sobre um chip mais rápido e melhor. O grande discurso deste ano foi sobre a tentativa da Nvidia de se tornar a empresa que possui a economia do trabalho de IA — os chips, o armazenamento, a rede, a camada de orquestração, o gêmeo digital, a política de modelos abertos, o tempo de execução do agente e o que vier depois do data center, quando a Terra começar a ficar lotada. A GTC 2026 foi uma apresentação sobre inferência, agentes e fábricas de IA, com o hardware servindo como prova, não como enredo.

Pois, esse é um número grande

A maior demonstração de Huang foi numérica. Ele comemorou o 20º aniversário do CUDA, chamou-o de a roda de inércia por trás do computação acelerada, disse que a demanda por computação aumentou “1 milhão de vezes nos últimos anos” e elevou a aposta ao afirmar que vê pelo menos 1 trilhão de dólares em oportunidades de receita de 2025 a 2027, frente aos 500 bilhões de dólares que tinha anteriormente ligado à demanda de Blackwell e Rubin até 2026. As ações da Nvidia fecharam em alta de 1,6% na segunda-feira, o que parece uma aprovação sem conversão total.

Esse número — e a forma como Huang o apresentou — pode muito bem ter sido o princípio organizador do discurso. A Nvidia quis que investidores e clientes ouvissem, em público e em volume, que a expansão ainda está no começo, ainda se ampliando e ainda grande o suficiente para fazer o gasto atual parecer um sinal de entrada. Esse número também fez uma limpeza silenciosa. A Nvidia passou meses respondendo às perguntas habituais que surgem quando uma empresa se torna a principal caixa de uma frenética de gastos de capital: Quanto tempo isso vai durar? O que acontece quando os hyperscalers encontram a religião dos custos? Quanto da próxima fase vaza para chips personalizados e alternativas mais baratas?

A resposta de Huang foi ampliar a visão — tornar o mercado maior e a carga de trabalho mais complexa. Ele afirmou que “a inflexão da inferência chegou” e construiu o centro do discurso em torno de um argumento simples: a IA agora consegue fazer trabalho produtivo. E, quando isso acontece, o quadro de demanda muda. Treinar modelos gigantes e admirar-los nunca foi o estágio final. Tudo isso passa a produção, onde o relógio nunca para de correr.

Isso — isso mesmo! — é sua receita, dizia ele, transformando um data center numa mina de dinheiro e uma conta de energia num destino. A Nvidia estava ocupada vendendo uma realidade tão aprimorada que quase podia ser faturada, e a sala ainda estava cheia de pessoas tentando decidir se a demonstração parecia transcendente ou apenas um pouco mais cara.

Tokens estavam por toda parte no discurso — no vídeo de abertura, nos gráficos de desempenho, no argumento econômico. O ponto, essencialmente, é que o valor futuro da IA está em gerar resultados úteis continuamente, o que faz com que a inferência se torne a parte da pilha onde custo, latência e throughput realmente importam. Huang está promovendo dependência. Quer que os clientes pensem em campus de gigawatts, racks integrados, orçamentos de megawatt e curvas de throughput de tokens, não em servidores que podem ser misturados e combinados à vontade.

A inferência assume o centro do palco

Talvez uma das linhas mais afiadas do discurso também fosse a mais simples: “A inflexão da inferência chegou.” A Nvidia sabe que o mundo se interessou por hardware de inferência mais barato e enxuto. Tudo bem. Gostaria de vender isso também.

Huang dividiu a inferência em duas etapas — pré-preenchimento e decodificação — e apresentou um sistema em que os chips Vera Rubin da Nvidia lidam com o pré-preenchimento, enquanto o silício derivado da Groq trata a decodificação, o passo que realmente gera a resposta. Isso importa; a inferência é onde o próximo capítulo da Nvidia fica mais confuso. O treinamento tornou a empresa rica. Servir centenas de milhões de usuários em tempo real é onde os clientes começam a fazer perguntas sobre custo, latência e se realmente precisam do mesmo silício para cada etapa.

A resposta de Huang foi clássica Nvidia. Não defenda a GPU isoladamente; abrace toda a pilha. Ele descreveu Vera Rubin como “um salto geracional” construído em torno de sete chips e cinco sistemas de rack, com a Nvidia afirmando que a plataforma pode treinar grandes modelos de especialistas mistos com um quarto do número de GPUs em relação ao Blackwell e oferecer até 10 vezes mais throughput de inferência por watt a um décimo do custo por token. Ele também usou o discurso para olhar além do Rubin até a futura plataforma Feynman, porque na Nvidia, a próxima geração já está nos bastidores antes da atual terminar de se apresentar.

Huang não está promovendo uma peça mais rápida, mas uma dependência maior. A Nvidia anunciou um design de referência para fábrica de IA Vera Rubin DSX, ferramentas de simulação DSX para planejar fábricas de IA antes de construí-las, e um menu mais amplo de componentes de armazenamento, rede e sistema, destinados a operar como uma máquina verticalmente integrada. A mensagem foi clara: pare de pensar em servidores, comece a pensar em campus. Ou, se for Nvidia, comece a enviar faturas como uma utilities.

Agentes deixam o palco da demonstração

Se a apresentação de hardware era sobre manter a Nvidia no centro da inferência, a de software era sobre garantir que a IA empresarial não se torne a festa de mais ninguém. Huang disse que “100% da Nvidia” agora usa Claude Code, Codex e Cursor; as pessoas não perguntam mais quem, o quê, quando, onde e como na IA. Elas pedem para criar. Para fazer. Desculpe, empresas de chatbots — a IA agora é tratada menos como uma novidade conversacional e mais como um sistema de trabalho.

Huang passou o dia tentando garantir que esse sistema de trabalho percorra toda a pilha da Nvidia. A empresa lançou OpenClaw e NemoClaw para a comunidade OpenClaw — em parceria com a empresa bastante na moda — promoveu seu Agent Toolkit e OpenShell runtime, e investiu na IA-Q, que visa roteirizar consultas e reduzir custos em mais de 50% por meio de uma combinação híbrida de modelos de fronteira e modelos abertos da Nvidia.

Há uma proteção estratégica embutida em toda essa abertura.

A Nvidia revelou a Coalizão Nemotron com Black Forest Labs, Cursor, LangChain, Mistral, Perplexity, Reflection AI, Sarvam e Thinking Machines Lab, com o primeiro projeto destinado a sustentar a futura família de modelos Nemotron 4. Leia o subtexto, e fica claro que a Nvidia não quer que o futuro do software de IA seja dividido de forma limpa entre alguns gigantes de modelos fechados e uma pilha de hardware comum por baixo. Ela quer uma participação na camada de modelos abertos também — a peça que molda quem pode construir, ajustar e possuir a IA fora das paredes dos maiores laboratórios.

A expansão do império fica maior

E então, porque Huang nunca conheceu uma metáfora que não pudesse ampliar, o discurso se espalhou do data center para quase todas as indústrias adjacentes que conseguiu encontrar.

Huang tem ampliado a narrativa da Nvidia além dos assistentes digitais há algum tempo, e o GTC deste ano reforçou ainda mais esse tema. A Nvidia anunciou um BluePrint de Fábrica de Dados de IA Física com Microsoft $MSFT Azure e Nebius, destinado a automatizar a geração, o aumento e a avaliação de dados de treinamento para robótica, agentes de visão AI e veículos autônomos. A proposta é simples: dados do mundo real são escassos, casos extremos são irritantes, e dados sintéticos mais simulação podem transformar o computo na matéria-prima que esses sistemas precisam.

Huang também apresentou o GR00T N2, um modelo de base de robô de próxima geração baseado na pesquisa DreamZero, que a empresa afirma mais que dobra o sucesso em relação aos principais modelos VLA em novas tarefas e ambientes. Chatbots animaram Wall Street. IA física é a parte que pode manter a maratona de infraestrutura por anos, porque robôs, sistemas industriais e máquinas autônomas não precisam apenas de modelos — precisam de dados de treinamento infinitos, simulação, rede, sensores e computação de borda.

Huang até trouxe Olaf, da Disney $DIS, ao palco, uma pequena peça de teatro de IA física que deixou o ponto mais claro do que uma simples slide de arquitetura poderia fazer. A Nvidia diz que a Disney treinou Olaf e seus droids BDX com um simulador de física acelerado por GPU, construído com a estrutura Warp da Nvidia e integrado ao Newton, e que Olaf fará sua estreia no Disneyland Paris em 29 de março.

A Nvidia também garantiu que veículos autônomos continuam na lista de prioridades. A empresa afirmou que BYD, Geely, Isuzu e Nissan estão construindo veículos prontos para o nível 4 com sua plataforma DRIVE Hyperion, enquanto a Uber $UBER planeja lançar táxis autônomos alimentados pela Nvidia em Los Angeles e São Francisco no primeiro semestre de 2027, expandindo para 28 mercados até 2028. A autonomia encaixa-se quase perfeitamente na visão mais ampla de Huang: a próxima fase da IA passará pelo mundo físico, o que significa mais sensores, mais simulação, mais rede, mais computação de borda e, convenientemente para a Nvidia, hardware mais caro em todos os lugares.

Huang até deu um passo além na narrativa de maior e melhor, dizendo que a Nvidia vai para o espaço, com futuros sistemas baseados em Vera Rubin voltados para data centers orbitais e operações espaciais autônomas. Claro, isso soa um pouco como alguém que descobriu que ainda há setores intocados. Mas também soa como uma empresa determinada a fazer do “infraestrutura de IA” quase toda máquina cara à vista. A Nvidia ainda é a rainha dos chips, com certeza. Mas Huang já não parece especialmente interessado nesse título sozinho. Sua empresa tenta passar de fornecedora de chips a arquiteta de fábricas, vendedora de sistemas operacionais e cobradora de pedágio para um mundo onde a IA faz mais do trabalho e os data centers com restrição de energia se tornam motores de receita medidos em tokens por watt.

Quando Huang terminou, o discurso parecia maior que um calendário de lançamentos. Parecia um mapa de império. Sim, havia DLSS 5 para gráficos, novas integrações de software industrial, parcerias em telecomunicações e uma avalanche de infraestrutura para desenvolvedores. Mas a conclusão duradoura foi mais simples e muito maior: a Nvidia quer que a IA deixe de ser vista apenas como uma categoria de software e passe a ser tratada como um projeto de infraestrutura de escala utilitária, com hardware e software da Nvidia embutidos em cada camada.

Essa é uma mensagem muito Jensen Huang. A parte assustadora para os rivais é que, pelo menos por enquanto, ele ainda tem muitos clientes dispostos a construir em torno dela.

Ver original
Esta página pode conter conteúdos de terceiros, que são fornecidos apenas para fins informativos (sem representações/garantias) e não devem ser considerados como uma aprovação dos seus pontos de vista pela Gate, nem como aconselhamento financeiro ou profissional. Consulte a Declaração de exoneração de responsabilidade para obter mais informações.
  • Recompensa
  • Comentar
  • Republicar
  • Partilhar
Comentar
Adicionar um comentário
Adicionar um comentário
Nenhum comentário
  • Fixar