Sam Altman gostaria que soubesse que a sua infância foi cara. Muito cara. E, sinceramente, não está claro se os humanos valem todo o tempo e recursos investidos. Na semana passada, na Cimeira de Impacto de IA na Índia, o CEO da OpenAI apresentou uma perspetiva surpreendente no debate sobre energia de IA—ao apontar que os humanos, e não a IA, são basicamente o problema. Questionado sobre a pegada ambiental do ChatGPT, Altman não pediu desculpa nem fez rodeios. Em vez disso, comparou a enorme quantidade de energia necessária para criar humanos com as exigências energéticas de um centro de dados de IA—e sugeriu que esses centros estão a tornar-se mais eficientes.
“Também consome muita energia treinar um humano,” disse à The Indian Express. “Leva cerca de 20 anos de vida e toda a comida que comes durante esse tempo antes de ficares inteligente. E não só isso, foi a evolução muito ampla dos cem mil milhões de pessoas que já viveram e aprenderam a não serem comidas por predadores… para te produzirem.” A sua conclusão: “Provavelmente a IA já atingiu a eficiência energética, medida dessa forma.” O internet, previsivelmente, não respondeu com aplausos. O bilionário indiano e cofundador da Zoho, Sridhar Vembu—que estava fisicamente na sala—publicou imediatamente no X: “Não quero ver um mundo onde equiparamos uma peça de tecnologia a um ser humano.”
Não quero ver um mundo onde equiparamos uma peça de tecnologia a um ser humano.
Trabalho arduamente como tecnólogo para ver um mundo onde não permitimos que a tecnologia domine as nossas vidas, ao invés disso ela deve recuar silenciosamente para o background. https://t.co/PrbjbgCYde
— Sridhar Vembu (@svembu) 22 de fevereiro de 2026
Os utilizadores do Reddit também opinaram, unsurpreendentemente, chamando Altman de “sanguinariamente mau” e “anti-humano”. Um utilizador escreveu que Altman “literalmente parece não entender que a vida humana tem valor além de qualquer análise custo-benefício que ele aplique à implementação de linhas de código.” Nas redes sociais, Altman enfrentou uma série de críticas e memes de várias partes. O analista de tecnologia Max Weinback colocou de forma mais diplomática, dizendo que reduzir as pessoas a “custo por produção” enquanto ignora “o valor da humanidade em si” é, nas suas palavras, “um caminho errado.” Essa é uma forma de dizer.
Esta não é uma ideia nova. Sam Altman já afirmou anteriormente que “a IA provavelmente levará ao fim do mundo, mas, entretanto, haverá grandes empresas.” Altman também disse que perde sono ao pensar se o lançamento do ChatGPT “foi realmente mau.” Testificou perante o Congresso sobre a IA possibilitar armas biológicas e desinformação em massa. E coassinou uma declaração afirmando que mitigar o risco de extinção por IA “deve ser uma prioridade global, ao lado de pandemias e guerra nuclear.” E, no entanto, Altman e a OpenAI querem alcançar uma inteligência artificial geral (AGI), e quando alguém lhe pergunta sobre a conta de eletricidade, a sua resposta é: Já considerou quanta energia foi necessária para criá-lo? Altman disse uma coisa que pode gerar consenso amplo: que o mundo “precisa avançar rapidamente para a energia nuclear, eólica e solar.”
Note que Altman preside à Oklo, uma startup nuclear. Se isso torna a recomendação mais credível ou egoísta, pode depender de quanto de confiança ainda tem em Altman depois de ele ter comparado a sua infância a uma sessão de treino.