Na Nvidia GTC 2026, Jensen Huang afirmou com confiança: muitas empresas nativas de IA surgiram porque a Nvidia “redefiniu o cálculo”. Ele disse que estamos no início de uma nova revolução de plataformas, semelhante à revolução do computador pessoal. Nos últimos dois anos, com o lançamento do ChatGPT, a era da IA generativa realmente começou.
Huang mostrou um slide-chave que revela que o mercado global de poder de cálculo de IA está entrando em uma fase de crescimento explosivo. O gráfico mostra que o potencial de mercado (TAM) dos centros de dados globais passou de cerca de 500 bilhões de dólares em 2025 para mais de 1 trilhão de dólares (US$1T) em apenas um ano, e continua a expandir-se. O conceito central do slide é a “Inference Inflection” (Ponto de Inflexão na Inferência).
Anteriormente, o desenvolvimento de IA concentrou-se principalmente na fase de treino, ou seja, ensinar o modelo a aprender com grandes volumes de dados. Mas, com a maturidade dos grandes modelos, a IA começou a ser implantada em diversos produtos e serviços, como atendimento ao cliente, geração de imagens e desenvolvimento de software. Isso significa que o foco do mercado está mudando do treino para a inferência.
Quando a IA é usada por bilhões de usuários simultaneamente, cada pergunta, geração de imagem ou vídeo requer suporte de cálculo. Essa demanda por operações de alta frequência e baixa latência fará com que a necessidade de poder de inferência cresça de forma geométrica, sendo vista pela Nvidia como o principal motor para impulsionar o mercado de centros de dados de IA de trilhões de dólares.
O lado direito do slide mostra a estrutura de mercado atual, onde a demanda por poder de cálculo de IA vem principalmente de duas categorias de clientes. Cerca de 60% da demanda vem de provedores de nuvem de grande escala (Hyperscalers) e empresas nativas de IA. Entre eles estão:
Amazon Web Services
Google Cloud
Microsoft
E desenvolvedores de modelos de IA:
OpenAI
Anthropic
xAI
Outro 40% da demanda de mercado vem de áreas emergentes enfatizadas recentemente pela Nvidia, incluindo Sovereign AI (IA Soberana), aplicações industriais e empresariais. IA Soberana refere-se à construção de infraestrutura de IA por governos, com seus próprios idiomas, culturas e dados, como:
Construção de supercomputadores nacionais de IA
Treinamento de modelos linguísticos locais
Estabelecimento de soberania de dados nacional
Além disso, indústrias tradicionais também estão adotando IA em larga escala, incluindo:
Automóveis e sistemas de condução autônoma
Manufatura e fábricas inteligentes
Análise de imagens médicas
Modelos de risco financeiro
No centro do slide, também são listados os principais ecossistemas de modelos de IA atuais, incluindo ChatGPT, Gemini, Grok e diversos modelos de código aberto. Anthropic e Meta Superintelligence Labs são destacados como forças emergentes após 2025, indicando que a competição por modelos de IA está se acelerando rapidamente.
GTC 2026 Huang Huang: Nvidia é essencialmente uma “empresa de algoritmos”
Huang dedicou bastante tempo na apresentação para mostrar como o stack de software da Nvidia é aplicado em diversos setores, desde saúde, manufatura, finanças até computação em nuvem. Ele destacou que todas as capacidades retornam ao ecossistema de bibliotecas CUDA-X da Nvidia. “Somos uma empresa de algoritmos”, afirmou Huang. Ele descreveu o CUDA-X como a “joia da coroa” da Nvidia, enfatizando que o verdadeiro valor do GPU vem da plataforma de software, e não apenas do hardware.
Um dos componentes mais críticos é o cuDNN, uma biblioteca especializada em acelerar redes neurais profundas com GPU de alta performance, amplamente adotada pelos principais frameworks de IA, tornando-se uma peça fundamental na infraestrutura moderna de deep learning.
Huang reforçou a importância do software na ecologia de IA, destacando que o cuDNN é uma das bibliotecas mais cruciais da empresa, até mesmo chamando-a de uma grande explosão que desencadeou a onda de inteligência artificial moderna. Durante a conferência, a Nvidia exibiu um vídeo curto sobre seu ecossistema CUDA-X, incluindo uma cena gerada por IA e tecnologia de simulação, quase indistinguível da realidade, para evidenciar os avanços do GPU acelerado e frameworks de deep learning na computação visual.
Huang: IA precisa de “bibliotecas específicas por indústria”
Huang afirmou que a implementação da IA não depende apenas de IA generativa. “Lançar GenAI na parede para ver se funciona não é estratégia”, disse. Ele acredita que os problemas enfrentados por diferentes setores variam enormemente, por isso a Nvidia deve desenvolver bibliotecas específicas por domínio (domain-specific libraries) para oferecer soluções otimizadas para cada vertical.
Essa é a razão pela qual o ecossistema CUDA-X continua a se expandir, abrangendo atualmente dezenas de áreas, incluindo:
Cálculo científico
Imagens médicas
Condução autônoma
Análise financeira
Engenharia de dados
Essas bibliotecas permitem que os GPUs operem com máxima eficiência em diferentes cenários industriais.
Stack de IA verticalmente integrado e horizontalmente aberto
Huang descreveu a estratégia da Nvidia como “verticalmente integrada, mas horizontalmente aberta”. Isso significa que a Nvidia oferece uma pilha completa, desde chips, sistemas, software até plataformas de aplicação, mas também permite que várias empresas e desenvolvedores criem aplicações em sua plataforma. Em um contexto de explosão na demanda por cálculo de IA, Huang acredita que esse modelo é a única maneira de impulsionar o computing acelerado.
O principal campo de batalha da IA: dados não estruturados
Huang também mencionou uma outra tarefa importante da IA: lidar com dados não estruturados. Ele apontou que cerca de 90% dos dados globais são não estruturados, como imagens, vídeos, áudio e textos em linguagem natural, que anteriormente eram considerados quase inúteis devido à dificuldade de busca e análise. Com o amadurecimento da IA e das tecnologias de GPU aceleradas, esses dados estão sendo cada vez mais transformados em ativos analisáveis.
Por exemplo, a IBM está usando o framework GPU cuDF da Nvidia para acelerar sua plataforma WatsonX, melhorando a eficiência no processamento de grandes volumes de dados não estruturados, permitindo análises rápidas e aproveitamento desses ativos.
OpenAI irá usar AWS para aliviar pressão de cálculo
Ao falar sobre infraestrutura de IA, Huang também mencionou a demanda de poder de cálculo da OpenAI. Ele afirmou que atualmente a OpenAI “está totalmente limitada pelo poder de cálculo”, e que neste ano a empresa irá integrar a infraestrutura da Amazon Web Services para aliviar essa enorme demanda computacional.