L'existence humaine est aussi inutile que les centres de données IA, suggère Sam Altman

Decrypt

En résumé

  • Sam Altman a soutenu que l’éducation humaine pourrait être moins énergivore que la formation à l’IA.
  • Les critiques ont vivement dénoncé la comparaison entre la valeur humaine et l’efficacité des centres de données.
  • Le chef d’OpenAI a réaffirmé son encouragement à un passage rapide vers le nucléaire, l’éolien et le solaire.

Sam Altman souhaite que vous sachiez que votre enfance a coûté cher. Très cher. Et franchement, il n’est pas clair si les humains valent tout ce temps et toutes ces ressources. La semaine dernière, lors du sommet sur l’impact de l’IA en Inde, le PDG d’OpenAI a proposé une vision stupéfiante dans le débat sur l’énergie de l’IA — en soulignant que ce sont les humains, et non l’IA, qui sont essentiellement le problème. Interrogé sur l’empreinte environnementale de ChatGPT, Altman n’a ni présenté d’excuses ni esquivé. Au lieu de cela, il a comparé la quantité énorme d’énergie nécessaire pour éduquer les humains à la demande énergétique d’un centre de données d’IA — et a suggéré que ces centres deviennent plus efficaces.

« Il faut aussi beaucoup d’énergie pour former un humain », a-t-il déclaré à The Indian Express. « Il faut environ 20 ans de vie et toute la nourriture que vous mangez pendant cette période avant de devenir intelligent. Et non seulement cela, cela a nécessité l’évolution très répandue des cent milliards de personnes qui ont vécu et appris à ne pas se faire manger par des prédateurs… pour vous produire. » Sa conclusion : « Probablement, l’IA a déjà rattrapé ce point de vue en termes d’efficacité énergétique. » L’internet, de manière prévisible, n’a pas applaudi. Sridhar Vembu, milliardaire indien et cofondateur de Zoho — qui était physiquement présent dans la salle — a immédiatement publié sur X : « Je ne veux pas voir un monde où l’on assimile une technologie à un être humain. »

Je ne veux pas voir un monde où l’on assimile une technologie à un être humain.

Je travaille dur en tant que technologue pour voir un monde où nous ne laissons pas la technologie dominer nos vies, elle devrait plutôt se retirer discrètement dans l’ombre. https://t.co/PrbjbgCYde

— Sridhar Vembu (@svembu) 22 février 2026

Les utilisateurs de Reddit ont également réagi, sans surprise, en qualifiant Altman de « terriblement maléfique » et « anti-humain ». Un utilisateur a écrit qu’Altman « ne semble littéralement pas comprendre que la vie humaine a une valeur au-delà de toute analyse coût/bénéfice qu’il applique à l’implémentation de lignes de code. » Sur les réseaux sociaux, Altman a été la cible de nombreuses critiques et memes de diverses parties. L’analyste technologique Max Weinback l’a exprimé plus diplomatiquement, en disant que réduire les gens à un « coût par résultat » tout en ignorant « la valeur de l’humanité elle-même » est, selon lui, « une mauvaise voie. » C’est une façon de le dire.  Ce n’est pas un nouveau schéma. Sam Altman a déjà déclaré que « l’IA mènera probablement à la fin du monde, mais en attendant, il y aura de grandes entreprises. » Altman a aussi dit qu’il perdait le sommeil à l’idée que le lancement de ChatGPT « était vraiment une mauvaise chose ». Il a témoigné devant le Congrès sur le risque que l’IA facilite la biotechnologie et la désinformation de masse. Et il a co-signé une déclaration affirmant que la réduction du risque d’extinction par l’IA « devrait être une priorité mondiale aux côtés des pandémies et de la guerre nucléaire. » Et pourtant, Altman et OpenAI veulent atteindre une intelligence artificielle générale (IAG), et lorsque quelqu’un lui demande ce qu’il pense de la facture d’électricité, sa réponse est : « Avez-vous considéré combien d’énergie il a fallu pour vous éduquer ? » Altman a dit une chose qui pourrait faire consensus : que le monde « doit rapidement se tourner vers le nucléaire, l’éolien et le solaire. »

Notez qu’Altman préside Oklo, une startup nucléaire. Que cela rende sa recommandation plus crédible ou intéressée dépend peut-être de la confiance qu’il vous reste en Altman après avoir comparé votre enfance à une simple étape d’entraînement.

Voir l'original
Avertissement : Les informations contenues dans cette page peuvent provenir de tiers et ne représentent pas les points de vue ou les opinions de Gate. Le contenu de cette page est fourni à titre de référence uniquement et ne constitue pas un conseil financier, d'investissement ou juridique. Gate ne garantit pas l'exactitude ou l'exhaustivité des informations et n'est pas responsable des pertes résultant de l'utilisation de ces informations. Les investissements en actifs virtuels comportent des risques élevés et sont soumis à une forte volatilité des prix. Vous pouvez perdre la totalité du capital investi. Veuillez comprendre pleinement les risques pertinents et prendre des décisions prudentes en fonction de votre propre situation financière et de votre tolérance au risque. Pour plus de détails, veuillez consulter l'avertissement.
Commentaire
0/400
Aucun commentaire