La rapide évolution de l’intelligence artificielle a placé la problématique de la consommation d’eau et d’électricité des centres de données au cœur des préoccupations mondiales. En réponse aux critiques selon lesquelles chaque requête à un système d’IA consommerait une grande quantité d’eau, le PDG d’OpenAI, Sam Altman, a récemment déclaré que ces affirmations étaient « totalement infondées » et n’avaient aucun lien avec la réalité. Cependant, il a également reconnu qu’avec l’explosion de l’utilisation de l’IA à l’échelle mondiale, la consommation d’énergie globale constitue effectivement un défi qu’il faut prendre en compte.
Lors d’une interview accordée au journal The Indian Express, à la marge du sommet AI Impact en Inde, Altman a répondu en détail aux questions sur l’utilisation des ressources par l’IA, suscitant de nombreux débats dans le secteur technologique et sur les réseaux sociaux.
Altman réfute l’affirmation « chaque requête consomme plusieurs gallons d’eau »
Dans l’entretien, Altman a clairement dénoncé la rumeur selon laquelle « ChatGPT consommerait plusieurs gallons d’eau à chaque requête » comme étant « totalement infondée et absurde », précisant que ces chiffres « n’ont aucun rapport avec la réalité ».
Les centres de données ont longtemps dépendu de systèmes de refroidissement à eau pour éviter la surchauffe des équipements électroniques, mais avec l’amélioration des technologies de refroidissement, de nombreux centres de données de nouvelle génération ont progressivement réduit leur dépendance à l’eau, certains n’utilisant même plus de refroidissement par eau.
Cependant, malgré ces gains d’efficacité, la tendance globale ne peut être ignorée. Selon un rapport publié le mois dernier par la société de technologies hydrauliques Xylem et l’institut Global Water Intelligence, la demande mondiale en eau pour le refroidissement des centres de données devrait tripler au cours des 25 prochaines années, ce qui exercera une pression considérable sur les ressources en eau.
Les propos d’Altman montrent qu’il considère que l’idée selon laquelle « une seule requête consommerait de l’eau » est exagérée, mais que la demande en ressources pour l’infrastructure dans son ensemble doit être évaluée de manière rationnelle.
La consommation d’énergie de l’IA, un enjeu central
Plus que la controverse sur l’eau, Altman a affirmé que la critique la plus pertinente concernant le développement de l’IA concerne sa consommation d’énergie.
Il a déclaré : « Ce n’est pas la requête unique, mais l’ensemble — parce que le monde utilise massivement l’IA. Nous devons rapidement nous tourner vers l’énergie nucléaire, éolienne et solaire. »
Ces propos mettent en lumière la réalité à laquelle l’industrie de l’IA est confrontée : à mesure que la taille des modèles et leur application se généralisent, la demande en puissance de calcul croît de façon exponentielle, ce qui entraîne une augmentation concomitante de la consommation électrique. Trouver un équilibre entre l’innovation et la réduction des émissions de carbone devient un défi majeur pour les gouvernements et les entreprises.
Selon un rapport du Fonds monétaire international (FMI) publié en mai cette année, la consommation électrique mondiale des centres de données a atteint un niveau équivalent à la consommation totale d’électricité de l’Allemagne ou de la France. Ce chiffre est apparu peu après le lancement de ChatGPT par OpenAI, illustrant la croissance rapide de la demande en puissance de calcul générée par l’IA générative.
AI versus cerveau humain ? Altman réfute l’idée de Bill Gates
Lors de l’interview, Altman a également été interrogé sur l’opinion précédente de Bill Gates, fondateur de Microsoft. Gates avait déclaré que le cerveau humain était extrêmement efficace en termes d’énergie, ce qui laissait penser que l’IA pourrait également devenir plus économe en énergie avec le temps.
Altman a proposé une perspective différente. Il a souligné que, lorsque l’on parle de la consommation d’énergie de l’IA, on se concentre souvent sur la phase d’« entraînement » du modèle, qui consomme énormément d’énergie, mais on oublie le temps et les ressources nécessaires pour former un être humain.
« Entraîner un modèle d’IA nécessite effectivement beaucoup d’énergie, mais entraîner un humain aussi — cela représente 20 ans de vie, ainsi que toute la nourriture qu’il consomme durant cette période », a-t-il expliqué.
Il a ajouté qu’une comparaison plus équitable devrait porter sur « la consommation d’énergie lors d’une réponse unique fournie par le modèle après entraînement » versus « l’énergie nécessaire à un humain pour répondre à la même question ». Selon cette approche, il pense que l’IA pourrait déjà avoir rattrapé l’efficacité énergétique de l’humain.
Ce processus, appelé en IA « inférence », correspond à l’utilisation d’un modèle entraîné pour générer une nouvelle sortie. En général, la consommation électrique lors de l’inférence est bien inférieure à celle de l’entraînement.
Controverses sur les réseaux sociaux : l’humain peut-il rivaliser avec la technologie ?
La comparaison entre l’efficacité énergétique de l’IA et celle de l’humain a rapidement suscité des débats sur les plateformes sociales.
Sridhar Vembu, cofondateur et chef scientifique de la société indienne Zoho Corporation, a publié un message sur X (anciennement Twitter), critiquant cette comparaison : « Je ne souhaite pas voir un monde où l’on mettrait sur un même plan une technologie et l’humain. »
Dans un contexte où la progression rapide de l’IA générative remplace certains emplois humains, ce genre de comparaisons soulève des questions éthiques et sociales plus profondes.
Les obstacles à l’expansion des centres de données mondiaux
Alors que plusieurs gouvernements et entreprises technologiques investissent des milliards de dollars dans la construction de nouveaux centres de données pour répondre à la demande croissante en puissance de calcul, la résistance s’intensifie.
Certains gouvernements simplifient les procédures d’approbation pour accélérer la mise en service de nouvelles sources d’électricité, mais les groupes écologistes mettent en garde contre un possible conflit avec les objectifs mondiaux de neutralité carbone.
Aux États-Unis, des communautés locales expriment aussi leurs inquiétudes concernant les projets de grands centres de données, craignant qu’ils n’exercent une pression sur le réseau électrique et n’augmentent les prix de l’électricité. La semaine dernière, le conseil municipal de San Marcos, au Texas, a rejeté un projet de centre de données d’une valeur de 1,5 milliard de dollars, qui avait rencontré une forte opposition publique depuis plusieurs mois.
Face à ces résistances, plusieurs leaders technologiques, dont Altman, soutiennent que l’avenir des centres de données doit passer par une diversification des sources d’énergie, notamment par le développement des énergies renouvelables et du nucléaire.
Les déclarations récentes d’Altman reflètent la tension centrale de l’ère de l’IA générative : entre progrès technologique et consommation de ressources.
D’une part, il nie l’exagération des affirmations sur la consommation d’eau ; d’autre part, il admet que la demande en énergie continuera d’augmenter avec la généralisation de l’IA, appelant à accélérer la transition énergétique. Alors que la consommation électrique des centres de données mondiaux approche désormais celle de certains pays, l’industrie de l’IA doit relever un défi à la fois technologique et énergétique. Depuis la sortie de ChatGPT, l’IA est devenue une infrastructure clé de l’économie numérique. La question à long terme est de savoir si l’on pourra concilier innovation et durabilité, un enjeu que devront relever ensemble industries et gouvernements.
Cet article, dans lequel Altman répond aux controverses sur la consommation d’eau de l’IA, intitulé « ChatGPT utilise une quantité d’eau totalement infondée, la véritable problématique étant la consommation d’énergie » a été initialement publié par ABMedia.