A Sam Altman le gustaría que supieras que tu infancia fue costosa. Muy costosa. Y, francamente, no está claro si los humanos valen todo ese tiempo y recursos. La semana pasada, en la Cumbre de Impacto de la IA en India, el CEO de OpenAI ofreció una opinión impactante en el debate sobre la energía de la IA, señalando que los humanos, no la IA, son básicamente el problema. Al ser preguntado sobre la huella ambiental de ChatGPT, Altman no se disculpó ni puso excusas. En cambio, comparó la inmensa cantidad de energía necesaria para criar humanos con las demandas energéticas de un centro de datos de IA, y sugirió que los centros de datos están siendo cada vez más eficientes.
“También se necesita mucha energía para entrenar a un humano”, dijo a The Indian Express. “Se necesitan como 20 años de vida y toda la comida que consumes durante ese tiempo antes de volverte inteligente. Y no solo eso, tomó la evolución muy extendida de los cien mil millones de personas que han vivido y aprendido a no ser comidos por depredadores… para producirte.” Su conclusión: “Probablemente la IA ya ha alcanzado en eficiencia energética, medido de esa manera.” El internet, previsiblemente, no respondió con aplausos. Sridhar Vembu, magnate indio y cofundador de Zoho, que estaba físicamente en la sala, publicó inmediatamente en X: “No quiero ver un mundo donde equiparamos una pieza de tecnología con un ser humano.”
No quiero ver un mundo donde equiparamos una pieza de tecnología con un ser humano.
Trabajo duro como tecnólogo para ver un mundo donde no permitamos que la tecnología domine nuestras vidas, sino que debería retirarse silenciosamente al fondo. https://t.co/PrbjbgCYde
— Sridhar Vembu (@svembu) 22 de febrero de 2026
Los usuarios de Reddit opinieron, como era de esperar, llamando a Altman “terriblemente malvado” y “anti-humano”. Un usuario escribió que Altman “literalmente no parece entender que la vida humana tiene valor más allá de cualquier análisis de costo/beneficio que aplique a la implementación de líneas de código.” En las redes sociales, Altman enfrentó una serie de críticas y memes de varias partes. El analista tecnológico Max Weinback lo expresó de manera más diplomática, diciendo que reducir a las personas a “costo por resultado” sin tener en cuenta “el valor de la humanidad misma” es, en sus palabras, “un camino equivocado.” Esa es una forma de decirlo. Este no es un patrón nuevo. Sam Altman ha dicho anteriormente que “la IA probablemente conducirá al fin del mundo, pero mientras tanto, habrá grandes empresas.” Altman también dijo que pierde el sueño por si el lanzamiento de ChatGPT “fue realmente malo.” Testificó ante el Congreso sobre cómo la IA puede habilitar armas biológicas y desinformación masiva. Y co-firmó una declaración que afirma que mitigar el riesgo de extinción por IA “debería ser una prioridad global junto con pandemias y guerra nuclear.” Y, sin embargo, Altman y OpenAI quieren lograr una inteligencia artificial general (AGI), y cuando alguien le pregunta sobre la factura de electricidad, su respuesta es: ¿Has considerado cuánta energía se necesitó para criarte? Altman dijo una cosa que podría contar con amplio acuerdo: que el mundo “necesita avanzar rápidamente hacia la energía nuclear, eólica y solar.”
Cabe señalar que Altman preside Oklo, una startup nuclear. Si eso hace que la recomendación sea más creíble o solo un acto de interés propio puede depender de cuánto confías en Altman después de que comparó tu infancia con una sesión de entrenamiento.