L’historien et auteur Yuval Noah Harari a averti mardi lors du Forum économique mondial que l’humanité risque de perdre le contrôle du langage, qu’il a qualifié de « superpuissance » définissant l’homme, alors que l’intelligence artificielle fonctionne de plus en plus via des agents autonomes plutôt que comme des outils passifs. L’auteur de « Sapiens » est devenu une voix fréquente dans les débats mondiaux sur les implications sociétales de l’intelligence artificielle. Il a soutenu que les codes juridiques, les marchés financiers et la religion organisée dépendent presque entièrement du langage, ce qui les rend particulièrement vulnérables aux machines capables de générer et de manipuler du texte à grande échelle. « Les humains ont pris le contrôle du monde non pas parce que nous sommes les plus forts physiquement, mais parce que nous avons découvert comment utiliser les mots pour faire coopérer des milliers, des millions, des milliards d’inconnus », a-t-il déclaré. « C’était notre superpuissance. » Harari a souligné que les religions fondées sur des textes sacrés, notamment le judaïsme, le christianisme et l’islam, pourraient voir les machines devenir les interprètes les plus autoritaires des Écritures, grâce à leur capacité à lire, retenir et synthétiser d’immenses corpus d’écrits.
« Si les lois sont faites de mots, alors l’IA prendra le contrôle du système juridique », a-t-il dit. « Si les livres ne sont que des combinaisons de mots, alors l’IA prendra le contrôle des livres. Si la religion est construite à partir de mots, alors l’IA prendra le contrôle de la religion. » À Davos, Harari a également comparé la diffusion des systèmes d’IA à une nouvelle forme d’immigration, et a déclaré que le débat autour de cette technologie se concentrera bientôt sur la question de savoir si les gouvernements doivent accorder aux systèmes d’IA la personnalité juridique. Plusieurs États, dont l’Utah, l’Idaho et le Dakota du Nord, ont déjà adopté des lois stipulant explicitement que l’IA ne peut pas être considérée comme une personne au sens de la loi. Harari a conclu ses remarques en avertissant les dirigeants mondiaux d’agir rapidement sur les lois concernant l’IA et de ne pas supposer que la technologie restera un serviteur neutre. Il a comparé la poussée actuelle pour adopter cette technologie à des cas historiques où des mercenaires ont ensuite pris le pouvoir.
« Dans dix ans, il sera trop tard pour vous décider si les IA doivent fonctionner comme des personnes sur les marchés financiers, dans les tribunaux, dans les églises », a-t-il dit. « Quelqu’un d’autre l’aura déjà décidé pour vous. Si vous souhaitez influencer la direction que prend l’humanité, vous devez prendre une décision dès maintenant. » Les commentaires d’Harari peuvent être perçus comme durs pour ceux qui craignent la progression de l’IA, mais tout le monde n’est pas d’accord avec sa vision. La professeure Emily M. Bender, linguiste à l’Université de Washington, a déclaré que les risques évoqués par Harari ne font que détourner l’attention des acteurs humains et des institutions responsables de la construction et du déploiement des systèmes d’IA. « Il me semble que c’est surtout une tentative de dissimuler les actions des personnes et des entreprises qui construisent ces systèmes », a-t-elle déclaré à Decrypt lors d’une interview. « Et aussi une demande que tout le monde abandonne simplement nos propres droits humains dans de nombreux domaines, y compris le droit à nos langues, au profit des caprices de ces entreprises sous prétexte de ces soi-disant systèmes d’intelligence artificielle. » Bender rejette l’idée que « l’intelligence artificielle » désigne une catégorie claire ou neutre de technologie. « Le terme intelligence artificielle ne fait référence à aucun ensemble cohérent de technologies », a-t-elle expliqué. « C’est, en réalité, et cela a toujours été, un terme marketing », ajoutant que les systèmes conçus pour imiter des professionnels tels que médecins, avocats ou clercs manquent de cas d’usage légitimes. « Quel est le but de quelque chose qui peut ressembler à un médecin, un avocat, un clerc, etc. ? » a-t-elle demandé. « Le but, c’est la fraude. Point final. » Alors qu’Harari soulignait l’utilisation croissante d’agents IA pour gérer des comptes bancaires et des interactions commerciales, Bender a déclaré que le risque réside dans la confiance que les gens accordent aux résultats générés par machine, qui semblent autoritaires — tout en manquant de responsabilité humaine.
« Si vous avez un système que vous pouvez piquer avec une question et qui vous renvoie une réponse — qui est dépourvue de contexte et de toute responsabilité pour cette réponse, mais présenté comme venant d’un oracle omniscient — alors vous pouvez voir comment les gens voudraient qu’il existe », a expliqué Bender. « Je pense qu’il y a beaucoup de risques que les gens commencent à s’orienter vers cela et à utiliser ces résultats pour façonner leurs propres idées, croyances et actions. »