A existência humana é tão desperdiçadora quanto os centros de dados de IA, sugere Sam Altman

Decrypt

Resumo

  • Sam Altman argumentou que a educação humana pode ser menos eficiente em termos energéticos do que o treino de IA.
  • Os críticos criticaram a comparação do valor humano com a eficiência de centros de dados.
  • O chefe da OpenAI reforçou a sua posição de incentivar uma rápida transição para a energia nuclear, eólica e solar.

Sam Altman gostaria que soubesse que a sua infância foi cara. Muito cara. E, sinceramente, não está claro se os humanos valem todo o tempo e recursos investidos. Na semana passada, na Cimeira de Impacto de IA na Índia, o CEO da OpenAI apresentou uma perspetiva surpreendente no debate sobre energia de IA—ao apontar que os humanos, e não a IA, são basicamente o problema. Questionado sobre a pegada ambiental do ChatGPT, Altman não pediu desculpa nem fez rodeios. Em vez disso, comparou a enorme quantidade de energia necessária para criar humanos com as exigências energéticas de um centro de dados de IA—e sugeriu que esses centros estão a tornar-se mais eficientes.

“Também consome muita energia treinar um humano,” disse à The Indian Express. “Leva cerca de 20 anos de vida e toda a comida que comes durante esse tempo antes de ficares inteligente. E não só isso, foi a evolução muito ampla dos cem mil milhões de pessoas que já viveram e aprenderam a não serem comidas por predadores… para te produzirem.” A sua conclusão: “Provavelmente a IA já atingiu a eficiência energética, medida dessa forma.” O internet, previsivelmente, não respondeu com aplausos. O bilionário indiano e cofundador da Zoho, Sridhar Vembu—que estava fisicamente na sala—publicou imediatamente no X: “Não quero ver um mundo onde equiparamos uma peça de tecnologia a um ser humano.”

Não quero ver um mundo onde equiparamos uma peça de tecnologia a um ser humano.

Trabalho arduamente como tecnólogo para ver um mundo onde não permitimos que a tecnologia domine as nossas vidas, ao invés disso ela deve recuar silenciosamente para o background. https://t.co/PrbjbgCYde

— Sridhar Vembu (@svembu) 22 de fevereiro de 2026

Os utilizadores do Reddit também opinaram, unsurpreendentemente, chamando Altman de “sanguinariamente mau” e “anti-humano”. Um utilizador escreveu que Altman “literalmente parece não entender que a vida humana tem valor além de qualquer análise custo-benefício que ele aplique à implementação de linhas de código.” Nas redes sociais, Altman enfrentou uma série de críticas e memes de várias partes. O analista de tecnologia Max Weinback colocou de forma mais diplomática, dizendo que reduzir as pessoas a “custo por produção” enquanto ignora “o valor da humanidade em si” é, nas suas palavras, “um caminho errado.” Essa é uma forma de dizer.

Esta não é uma ideia nova. Sam Altman já afirmou anteriormente que “a IA provavelmente levará ao fim do mundo, mas, entretanto, haverá grandes empresas.” Altman também disse que perde sono ao pensar se o lançamento do ChatGPT “foi realmente mau.” Testificou perante o Congresso sobre a IA possibilitar armas biológicas e desinformação em massa. E coassinou uma declaração afirmando que mitigar o risco de extinção por IA “deve ser uma prioridade global, ao lado de pandemias e guerra nuclear.” E, no entanto, Altman e a OpenAI querem alcançar uma inteligência artificial geral (AGI), e quando alguém lhe pergunta sobre a conta de eletricidade, a sua resposta é: Já considerou quanta energia foi necessária para criá-lo? Altman disse uma coisa que pode gerar consenso amplo: que o mundo “precisa avançar rapidamente para a energia nuclear, eólica e solar.”

Note que Altman preside à Oklo, uma startup nuclear. Se isso torna a recomendação mais credível ou egoísta, pode depender de quanto de confiança ainda tem em Altman depois de ele ter comparado a sua infância a uma sessão de treino.

Ver original
Aviso: As informações nesta página podem ser provenientes de terceiros e não representam as opiniões ou pontos de vista da Gate. O conteúdo exibido nesta página é apenas para referência e não constitui aconselhamento financeiro, de investimento ou jurídico. A Gate não garante a exatidão ou integridade das informações e não será responsável por quaisquer perdas decorrentes do uso dessas informações. Os investimentos em ativos virtuais apresentam altos riscos e estão sujeitos a uma volatilidade de preços significativa. Você pode perder todo o capital investido. Por favor, compreenda completamente os riscos envolvidos e tome decisões prudentes com base em sua própria situação financeira e tolerância ao risco. Para mais detalhes, consulte o Aviso Legal.
Comentário
0/400
Sem comentários