Le directeur général d’OpenAI, Sam Altman, a déclaré que les décideurs américains doivent agir dès maintenant pour se préparer à l’intelligence artificielle avancée, avertissant que la technologie passe de la théorie à un usage économique quotidien.
Dans une interview accordée à Axios, Altman a déclaré que les systèmes d’IA gèrent déjà des tâches de codage et de recherche qui nécessitaient autrefois des équipes de programmeurs. Les modèles plus récents iront plus loin, a-t-il dit, aidant les scientifiques à faire de grandes découvertes et permettant aux individus d’accomplir le travail de l’ensemble d’équipes.
Ce basculement est déjà visible dans la cybersécurité, où certains leaders du secteur affirment que l’intelligence artificielle penche en faveur des attaquants.
Charles Guillemet, directeur de la technologie chez le fabricant de portefeuilles matériels Ledger, a par exemple indiqué à CoinDesk que les outils d’IA réduisent le coût et le niveau de compétence nécessaires pour repérer et exploiter des failles logicielles. Des tâches qui prenaient autrefois des mois, comme la rétro-ingénierie de code ou la combinaison de plusieurs vulnérabilités, peuvent désormais être accomplies en quelques secondes avec les bons prompts.
L’industrie crypto a vu plus de 1,4 milliard de dollars d’actifs volés ou perdus lors d’attaques l’an dernier. Ce chiffre pourrait continuer de croître, a suggéré Guillemet. En outre, les développeurs s’appuient de plus en plus sur du code généré par l’IA, ce qui pourrait potentiellement introduire de nouvelles failles à grande échelle.
La réponse, a-t-il dit, exigera des défenses plus solides, telles que du code mathématiquement vérifié, des dispositifs matériels qui conservent les clés privées hors ligne et une reconnaissance plus large du fait que les systèmes peuvent échouer.
Même si Altman a noté que l’IA pourrait accélérer la découverte de médicaments ou la science des matériaux, il a aussi souligné qu’elle pourrait permettre des cyberattaques plus puissantes et abaisser le seuil d’accès à des recherches biologiques nuisibles. De telles menaces pourraient apparaître dans l’année, ce qui rend la coordination entre le gouvernement, les entreprises technologiques et les groupes de sécurité urgente.
« Nous ne sommes pas si loin d’un monde où il existe des modèles open source extrêmement capables, très performants en biologie, » a-t-il dit. « Le besoin pour la société d’être résiliente face à des groupes terroristes utilisant ces modèles pour essayer de créer de nouveaux agents pathogènes n’est plus une question théorique. »
Un autre exemple qu’il a suggéré est une « cyberattaque qui secouerait le monde », qui pourrait se produire dès cette année. Pour l’éviter, a-t-il dit, il faudrait « une quantité considérable de travail ».
Il a présenté les idées de politique d’OpenAI comme un point de départ, dans le but d’alimenter le débat sur la façon de gérer des systèmes qui apprennent vite et agissent dans de nombreux domaines. Utiliser l’IA pour aider à se défendre contre ces attaques potentielles, a-t-il dit, est important.
Concernant l’éventuelle nationalisation d’OpenAI, Altman a déclaré que l’argument contre repose sur la nécessité pour U.S. d’atteindre la « superintelligence » avant ses rivaux.
« Le principal argument contre la nationalisation serait que nous ayons besoin que U.S. réussisse à construire la superintelligence d’une manière alignée sur les valeurs démocratiques de U.S. avant que quelqu’un d’autre ne le fasse, » a-t-il dit. « Ça ne fonctionnerait probablement pas comme un projet gouvernemental, et je pense que c’est une chose triste. »
Malgré tout, Altman a déclaré qu’il estime que les entreprises impliquées dans l’IA doivent travailler en étroite collaboration avec le gouvernement des United States.
Compte tenu de son rôle chez OpenAI, Altman a également une participation financière à la façon dont le secteur évolue. Cette position pourrait influencer la manière dont il présente à la fois l’urgence de la réglementation et le rôle des entreprises privées comme OpenAI dans la gestion des risques émergents, ce qui pourrait avoir une incidence sur la position concurrentielle de l’entreprise.
L’énergie est l’un des domaines où il voit des progrès rapides, car une plus grande capacité de puissance de calcul pourrait maintenir les coûts bas à mesure que la demande en IA augmente.
Altman a également pointé des signes précoces de changements dans le travail. Un programmeur en 2026, a-t-il dit, travaille déjà différemment de celui d’un an plus tôt.
L’IA deviendra une sorte d’utilité, comme l’électricité, intégrée dans les appareils, tandis que le coût de l’intelligence de base baisse et que les systèmes de tout premier plan restent coûteux.
« Vous aurez cet assistant personnel super avancé qui tournera dans le cloud, » a déclaré Altman. « Si vous l’utilisez beaucoup ou si vous l’utilisez à des niveaux élevés d’intelligence, vous aurez une facture plus élevée un mois, et si vous l’utilisez moins, vous aurez une facture plus basse. »
« Il est incroyablement important que les personnes qui construisent l’IA soient des gens à la haute intégrité, des gens dignes de confiance. »