Meta:Comprar capacidade de computação de trilhões de dólares, não conseguir reter as pessoas-chave

PANews

Escrito por: Ada, Deep Tide TechFlow

Pang Ruiming ainda nem tinha se acomodado na sua estação na Meta quando saiu de lá.

Em julho de 2025, Zuckerberg usou um plano de remuneração de mais de 200 milhões de dólares ao longo de vários anos para tirar do Apple essa engenheira chinesa, uma das mais cobiçadas no campo de infraestrutura de IA. Pang Ruiming foi designada para o laboratório de inteligência super avançada da Meta, responsável por construir a infraestrutura da próxima geração de modelos de IA.

Sete meses depois, a OpenAI o recrutou.

Segundo o The Information, a OpenAI lançou uma campanha de recrutamento que durou vários meses. Apesar de Pang Ruiming ter dito aos colegas que “estava muito feliz na Meta”, acabou optando por sair. De acordo com a Bloomberg, seu pacote de remuneração na Meta estava atrelado a marcos específicos, e sair antes do tempo significava abrir mão de grande parte das ações não realizadas.

200 milhões de dólares, não compram 7 meses de lealdade.

Não é uma história simples de troca de emprego.

A saída de uma pessoa, o sinal de um grupo

Pang Ruiming não foi o primeiro a sair.

Na semana passada, Mat Velloso, responsável pelo produto da plataforma de desenvolvedores do laboratório de inteligência da Meta, também anunciou sua saída. Ele entrou na Meta em julho do ano passado, vindo do DeepMind do Google, e ficou lá por menos de oito meses. Antes dele, em novembro de 2025, Yann LeCun, laureado com o Prêmio Turing e chefe de ciência de IA na Meta há 12 anos, anunciou sua saída para empreender, promovendo seu “modelo de mundo” que sempre defendeu. O vice-presidente de pesquisa em IA generativa da Meta, Russ Salakhutdinov, também anunciou sua saída recentemente.

Para entender a perda de talentos na Meta AI, é preciso compreender o quanto o Llama 4 foi prejudicial.

Em abril de 2025, a Meta lançou com destaque a série Llama 4, com os modelos Scout e Maverick. Os dados oficiais pareciam impressionantes, afirmando dominar benchmarks como MATH-500 e GPQA Diamond, superando GPT-4.5 e Claude Sonnet 3.7.

Porém, esse modelo, símbolo da ambição da Meta, foi rapidamente desmascarado em testes independentes de terceiros na comunidade open source, mostrando uma discrepância enorme entre a generalização e raciocínio reais e o que foi divulgado. Diante das críticas, Yann LeCun, chefe de ciência de IA, admitiu que a equipe usou versões diferentes do modelo em testes distintos para otimizar a pontuação final.

Na academia e na engenharia de IA, isso é uma linha vermelha inaceitável. Em outras palavras, a equipe treinou o Llama 4 para ser uma “máquina de fazer exercícios antigos”, e não um “gênio inteligente de ponta”. Se você faz matemática, mostra a prova de matemática; se faz programação, mostra a prova de programação. Cada teste parece forte, mas na verdade não é o mesmo modelo.

Na comunidade acadêmica de IA, isso é chamado de “colher cerejas”; na educação tradicional, é “cola”.

Para a Meta, que sempre se posicionou como “farol open source”, essa controvérsia destruiu sua mais valiosa confiança na comunidade de desenvolvedores. O custo direto foi que Zuckerberg perdeu completamente a confiança na equipe de IA generativa original, dando início a uma série de substituições por executivos de fora e a uma reestruturação da infraestrutura central.

Ele gastou entre 14,3 e 15 bilhões de dólares na aquisição de 49% da Scale AI, uma empresa de anotação de dados, e colocou o CEO de 28 anos, Alexandr Wang, como novo diretor de IA da Meta, criando o laboratório de inteligência super avançada (MSL). Yann LeCun, laureado com o Prêmio Turing, agora precisa se reportar a esse jovem de 28 anos. Em outubro, a Meta cortou cerca de 600 vagas no MSL, incluindo membros do departamento FAIR, criado por LeCun.

O modelo flagship planejado para 2025, o Llama 4 Behemoth, foi adiado várias vezes, de verão para outono, e finalmente suspenso indefinidamente.

A Meta passou a desenvolver modelos de texto com código “Avocado” e modelos de imagem/vídeo com código “Mango”. Segundo relatos, o objetivo do Avocado é competir com GPT-5 e Gemini 3 Ultra. Previsto para entrega no final de 2025, foi adiado para o primeiro trimestre de 2026 devido a testes de desempenho e otimizações de treinamento insatisfatórios. A Meta considera lançar esses modelos de forma fechada, abandonando sua tradição de open source da série Llama.

A Meta cometeu dois erros fatais em seus modelos de IA: primeiro, falsificar benchmarks, o que destruiu a confiança da comunidade; segundo, tentar encaixar uma pesquisa fundamental, que leva anos para amadurecer, dentro de uma organização de produto que busca resultados trimestrais. Esses dois fatores explicam a perda de talentos.

Chips próprios: outra perna que quebrou

Talentos estão saindo, e os chips também têm problemas.

Segundo o The Information, a Meta cancelou na semana passada seu projeto interno de chips de treinamento de IA mais avançados.

O projeto de chips próprios da Meta se chama MTIA (Meta Training and Inference Accelerator). O roteiro inicial era ambicioso: o v4, chamado “Santa Barbara”; o v5, “Olympus”; e o v6, “Universal Core”, previstos para serem entregues entre 2026 e 2028. Olympus seria o primeiro chip da Meta baseado na arquitetura de chiplet de 2nm, com o objetivo de cobrir treinamento de modelos de ponta e inferência em tempo real, substituindo a Nvidia na sua infraestrutura de treinamento.

Porém, esse chip de treinamento avançado foi cancelado.

A Meta avançou em alguns aspectos, como na inferência. O chip de inferência MTIA v3, com código “Iris”, já está em uso em larga escala nos data centers da Meta, principalmente para recomendações no Facebook Reels e Instagram, reduzindo custos em 40% a 44%. Mas inferência e treinamento são coisas diferentes. Inferência é rodar o modelo, treinamento é criar o modelo. A Meta consegue fazer seus próprios chips de inferência, mas não consegue criar um chip de treinamento à altura da Nvidia.

Isso já aconteceu antes. Em 2022, a Meta tentou desenvolver seus próprios chips de inferência, mas fracassou na implantação em pequena escala e desistiu, voltando a comprar da Nvidia.

O fracasso na pesquisa de chips próprios acelerou a onda de compras externas da Meta.

Compras de 135 bilhões de dólares sob efeito de pânico

Em janeiro de 2026, a Meta anunciou um orçamento de capital de 115 a 135 bilhões de dólares para o ano, quase o dobro dos 72,2 bilhões de 2025. A maior parte desse valor será destinada a chips.

Em apenas 10 dias, três grandes contratos foram fechados:

Em 17 de fevereiro, a Meta assinou um acordo estratégico de vários anos com a Nvidia. A Meta vai implantar “milhões” de GPUs Blackwell e Vera Rubin de nova geração, além de CPUs Grace. Analistas estimam que o valor do negócio seja na casa de centenas de bilhões de dólares, tornando a Meta a primeira cliente de grande escala a implantar CPUs Grace da Nvidia.

Em 24 de fevereiro, a Meta assinou um contrato de vários anos com a AMD, avaliado entre 600 bilhões e 1 trilhão de dólares. A Meta comprará as GPUs MI450 mais recentes e a sexta geração de CPUs EPYC. Como parte do acordo, a AMD concedeu à Meta opções de compra de até 160 milhões de ações ordinárias, representando cerca de 10% da AMD, a um preço de 0,01 dólar por ação, com aquisição parcelada conforme marcos de entrega.

Em 26 de fevereiro, segundo o The Information, a Meta assinou um contrato de vários anos com o Google, alugando seus chips TPU para treinar e rodar seu próximo grande modelo de linguagem. Além disso, as duas empresas discutem a possibilidade de a Meta comprar diretamente os TPUs do Google a partir de 2027 e implantá-los em seus próprios data centers.

Uma empresa de redes sociais, em apenas 10 dias, fez pedidos que podem totalizar mais de 100 bilhões de dólares a três fornecedores de chips diferentes.

Não é uma estratégia de diversificação. É uma compra por pânico.

A lógica de três camadas da ansiedade de poder de processamento

Por que a Meta está tão apressada?

Primeiro, a pesquisa de chips próprios não é mais confiável. O projeto de chips de treinamento mais avançado foi cancelado, o que significa que, no futuro próximo, a Meta dependerá de compras externas para treinar seus modelos de IA. Quanto à inferência, os chips MTIA podem lidar com tarefas de recomendação, mas para treinar modelos de ponta como o Avocado, é preciso hardware de nível Nvidia ou equivalente.

Segundo, os concorrentes não vão esperar. A OpenAI já recebeu recursos massivos de Microsoft, SoftBank e do fundo soberano dos Emirados Árabes. A Anthropic garantiu fornecimento de 1 milhão de TPUs e Trainium da Google e Amazon. O Gemini 3 da Google foi treinado inteiramente em TPUs. Se a Meta não conseguir acesso a poder de processamento suficiente, não conseguirá nem competir na corrida.

Terceiro, e talvez o mais fundamental, Zuckerberg precisa usar seu “poder de compra” para compensar a falta de “poder de pesquisa e desenvolvimento”. O fracasso do Llama 4, a perda de talentos essenciais e o fracasso na pesquisa de chips próprios tornam sua narrativa de IA frágil perante Wall Street. Assinar contratos com Nvidia, AMD e Google envia um sinal: “temos dinheiro, estamos comprando, não desistimos”.

A estratégia atual da Meta é: se não consegue fazer software, investe em hardware; se não consegue reter talentos, compra chips. Mas a corrida de IA não se vence apenas com cheques. Poder de processamento é condição necessária, não suficiente. Sem uma equipe de modelos de ponta e uma rota tecnológica clara, mais chips só serão estoques caros.

O dilema do comprador

Ao revisitar as três negociações de fevereiro, um detalhe interessante foi ignorado pela maioria.

A Meta comprou da Nvidia as GPUs Blackwell atuais e futuras Vera Rubin; da AMD, as MI450 atuais e as futuras MI455X; e alugou da Google os TPUs Ironwood atuais, planejando comprar diretamente a partir do próximo ano.

Três fornecedores, três arquiteturas de hardware e ecossistemas de software completamente diferentes.

Isso significa que a Meta terá que alternar entre CUDA da Nvidia, ROCm da AMD e XLA/JAX do Google. Estratégia de múltiplos fornecedores ajuda a dispersar riscos na cadeia de suprimentos e a reduzir custos, mas aumenta exponencialmente a complexidade de engenharia.

Esse é atualmente o maior ponto fraco da Meta: fazer um modelo de bilhões de parâmetros treinar eficientemente em três plataformas diferentes exige mais do que engenheiros que entendam CUDA; precisa de arquitetos capazes de construir frameworks de treinamento multiplataforma do zero.

Tal pessoa provavelmente não passa de 100 no mundo. Pang Ruiming é uma delas.

Investir 100 bilhões de dólares na combinação mais complexa de hardware global, enquanto perde a capacidade de liderar essa tecnologia na mente dos engenheiros, é a cena mais surreal dessa aposta de Zuckerberg.

A aposta de Zuckerberg

Olhando de longe, a trajetória de Zuckerberg nos últimos 18 meses em IA é surpreendentemente semelhante à sua estratégia de apostar tudo no metaverso:

Percebe a tendência, investe pesado, contrata muito, encontra obstáculos, muda de estratégia, investe novamente.

De 2021 a 2023, foi o metaverso, que perdeu bilhões por ano, levando a uma queda do preço das ações de 380 para 88 dólares. De 2024 a 2026, é a IA, com gastos desenfreados, reestruturações frequentes, e uma narrativa de “confie em mim, tenho visão”.

A diferença é que, desta vez, a onda de IA é muito mais concreta do que o metaverso. A Meta tem dinheiro para queimar, e seu negócio de publicidade gera fluxo de caixa abundante, com receita de 59,9 bilhões de dólares no quarto trimestre de 2025, crescimento de 24%.

O problema é: dinheiro consegue comprar chips, poder de processamento e até pessoas na estação de trabalho, mas não consegue reter quem fica.

Pang Ruiming escolheu a OpenAI, Russ Salakhutdinov saiu, LeCun empreendeu.

A aposta de Zuckerberg é que, se comprar chips suficientes, construir data centers grandes o bastante e gastar o que for preciso, conseguirá encontrar ou treinar pessoas capazes de usar esses recursos.

Essa aposta pode dar certo. Afinal, a Meta é uma das maiores empresas de tecnologia do mundo, com mais de 100 bilhões de dólares em fluxo de caixa operacional, sua fortaleza mais sólida. De OpenAI a Anthropic, de Google a outros concorrentes, a Meta continua recrutando talentos. Segundo o Quantum, 40% dos 44 membros da equipe de IA avançada da Meta vieram do OpenAI.

Porém, a cruelidade da corrida de IA é que o poder de processamento, a lista de talentos e o desempenho dos modelos são públicos. O episódio do benchmark falsificado do Llama 4 prova que, neste setor, não se consegue manter a liderança apenas com PPTs e relações públicas.

No final, o que o mercado valoriza é uma coisa só: se seu modelo é bom o suficiente.

Posição na cadeia alimentar

Com a corrida armamentista de IA chegando a 2026, a classificação na cadeia de poder já está clara:

No topo, OpenAI e Google. OpenAI tem os modelos mais avançados, maior base de usuários e financiamento mais agressivo. Google possui integração vertical completa: chips próprios, modelos próprios e infraestrutura de nuvem própria. Anthropic vem logo atrás, com o produto Claude e o suporte de dois gigantes de processamento: Google e Amazon, consolidando-se na primeira linha.

E a Meta? Ela gastou mais, assinou mais contratos de chips, fez mais reestruturações, mas ainda não apresentou um modelo de ponta convincente ao mercado.

A história da IA da Meta lembra um pouco a do Yahoo em 2005. Na época, o Yahoo também era uma das maiores empresas de internet, fazia aquisições e gastava muito, mas não conseguiu criar um buscador como o Google. Dinheiro não é tudo. Zuckerberg precisa entender o que a Meta realmente quer fazer na IA, ao invés de comprar o que estiver em alta.

Claro que ainda é cedo para decretar o fim da Meta. Com 3,58 bilhões de usuários ativos mensais, receita trimestral de 59,9 bilhões de dólares e o maior conjunto de dados sociais do mundo, ela possui ativos difíceis de serem copiados por qualquer concorrente.

Se o próximo modelo, codinome Avocado, for entregue em 2026 e colocar a Meta de volta na liderança, toda a estratégia de gastos e reestruturações será vista como uma jogada de mestre. Mas, se fracassar novamente, esses 135 bilhões de dólares serão apenas um monte de wafers de silício aquecendo na tomada.

No fim das contas, a corrida armamentista de IA em Silicon Valley nunca foi de falta de dinheiro. O que falta é saber como transformar esse poder de processamento em futuro.

Ver original
Isenção de responsabilidade: As informações contidas nesta página podem ser provenientes de terceiros e não representam os pontos de vista ou opiniões da Gate. O conteúdo apresentado nesta página é apenas para referência e não constitui qualquer aconselhamento financeiro, de investimento ou jurídico. A Gate não garante a exatidão ou o carácter exaustivo das informações e não poderá ser responsabilizada por quaisquer perdas resultantes da utilização destas informações. Os investimentos em ativos virtuais implicam riscos elevados e estão sujeitos a uma volatilidade de preços significativa. Pode perder todo o seu capital investido. Compreenda plenamente os riscos relevantes e tome decisões prudentes com base na sua própria situação financeira e tolerância ao risco. Para mais informações, consulte a Isenção de responsabilidade.
Comentar
0/400
Nenhum comentário
Negocie cripto em qualquer lugar e a qualquer hora
qrCode
Digitalizar para transferir a aplicação Gate
Novidades
Português (Portugal)
  • 简体中文
  • English
  • Tiếng Việt
  • 繁體中文
  • Español
  • Русский
  • Français (Afrique)
  • Português (Portugal)
  • Bahasa Indonesia
  • 日本語
  • بالعربية
  • Українська
  • Português (Brasil)