Le PDG d’OpenAI appelle les États-Unis à se préparer aux risques liés à l’IA « superintelligence » et aux gains

CoinDesk

Le directeur général d’OpenAI, Sam Altman, a déclaré que les décideurs américains doivent agir dès maintenant pour se préparer à l’intelligence artificielle avancée, avertissant que la technologie passe de la théorie à un usage économique quotidien.

Dans une interview accordée à Axios, Altman a déclaré que les systèmes d’IA gèrent déjà des tâches de codage et de recherche qui nécessitaient autrefois des équipes de programmeurs. Les modèles plus récents iront plus loin, a-t-il dit, aidant les scientifiques à faire de grandes découvertes et permettant aux individus d’accomplir le travail de l’ensemble d’équipes.

Ce basculement est déjà visible dans la cybersécurité, où certains leaders du secteur affirment que l’intelligence artificielle penche en faveur des attaquants.

Charles Guillemet, directeur de la technologie chez le fabricant de portefeuilles matériels Ledger, a par exemple indiqué à CoinDesk que les outils d’IA réduisent le coût et le niveau de compétence nécessaires pour repérer et exploiter des failles logicielles. Des tâches qui prenaient autrefois des mois, comme la rétro-ingénierie de code ou la combinaison de plusieurs vulnérabilités, peuvent désormais être accomplies en quelques secondes avec les bons prompts.

L’industrie crypto a vu plus de 1,4 milliard de dollars d’actifs volés ou perdus lors d’attaques l’an dernier. Ce chiffre pourrait continuer de croître, a suggéré Guillemet. En outre, les développeurs s’appuient de plus en plus sur du code généré par l’IA, ce qui pourrait potentiellement introduire de nouvelles failles à grande échelle.

La réponse, a-t-il dit, exigera des défenses plus solides, telles que du code mathématiquement vérifié, des dispositifs matériels qui conservent les clés privées hors ligne et une reconnaissance plus large du fait que les systèmes peuvent échouer.

AI en cyber, biosecurity

Même si Altman a noté que l’IA pourrait accélérer la découverte de médicaments ou la science des matériaux, il a aussi souligné qu’elle pourrait permettre des cyberattaques plus puissantes et abaisser le seuil d’accès à des recherches biologiques nuisibles. De telles menaces pourraient apparaître dans l’année, ce qui rend la coordination entre le gouvernement, les entreprises technologiques et les groupes de sécurité urgente.

« Nous ne sommes pas si loin d’un monde où il existe des modèles open source extrêmement capables, très performants en biologie, » a-t-il dit. « Le besoin pour la société d’être résiliente face à des groupes terroristes utilisant ces modèles pour essayer de créer de nouveaux agents pathogènes n’est plus une question théorique. »

Un autre exemple qu’il a suggéré est une « cyberattaque qui secouerait le monde », qui pourrait se produire dès cette année. Pour l’éviter, a-t-il dit, il faudrait « une quantité considérable de travail ».

Il a présenté les idées de politique d’OpenAI comme un point de départ, dans le but d’alimenter le débat sur la façon de gérer des systèmes qui apprennent vite et agissent dans de nombreux domaines. Utiliser l’IA pour aider à se défendre contre ces attaques potentielles, a-t-il dit, est important.

Concernant l’éventuelle nationalisation d’OpenAI, Altman a déclaré que l’argument contre repose sur la nécessité pour U.S. d’atteindre la « superintelligence » avant ses rivaux.

« Le principal argument contre la nationalisation serait que nous ayons besoin que U.S. réussisse à construire la superintelligence d’une manière alignée sur les valeurs démocratiques de U.S. avant que quelqu’un d’autre ne le fasse, » a-t-il dit. « Ça ne fonctionnerait probablement pas comme un projet gouvernemental, et je pense que c’est une chose triste. »

Malgré tout, Altman a déclaré qu’il estime que les entreprises impliquées dans l’IA doivent travailler en étroite collaboration avec le gouvernement des United States.

Compte tenu de son rôle chez OpenAI, Altman a également une participation financière à la façon dont le secteur évolue. Cette position pourrait influencer la manière dont il présente à la fois l’urgence de la réglementation et le rôle des entreprises privées comme OpenAI dans la gestion des risques émergents, ce qui pourrait avoir une incidence sur la position concurrentielle de l’entreprise.

AI comme utilité

L’énergie est l’un des domaines où il voit des progrès rapides, car une plus grande capacité de puissance de calcul pourrait maintenir les coûts bas à mesure que la demande en IA augmente.

Altman a également pointé des signes précoces de changements dans le travail. Un programmeur en 2026, a-t-il dit, travaille déjà différemment de celui d’un an plus tôt.

L’IA deviendra une sorte d’utilité, comme l’électricité, intégrée dans les appareils, tandis que le coût de l’intelligence de base baisse et que les systèmes de tout premier plan restent coûteux.

« Vous aurez cet assistant personnel super avancé qui tournera dans le cloud, » a déclaré Altman. « Si vous l’utilisez beaucoup ou si vous l’utilisez à des niveaux élevés d’intelligence, vous aurez une facture plus élevée un mois, et si vous l’utilisez moins, vous aurez une facture plus basse. »

« Il est incroyablement important que les personnes qui construisent l’IA soient des gens à la haute intégrité, des gens dignes de confiance. »

Avertissement : Les informations contenues dans cette page peuvent provenir de tiers et ne représentent pas les points de vue ou les opinions de Gate. Le contenu de cette page est fourni à titre de référence uniquement et ne constitue pas un conseil financier, d'investissement ou juridique. Gate ne garantit pas l'exactitude ou l'exhaustivité des informations et n'est pas responsable des pertes résultant de l'utilisation de ces informations. Les investissements en actifs virtuels comportent des risques élevés et sont soumis à une forte volatilité des prix. Vous pouvez perdre la totalité du capital investi. Veuillez comprendre pleinement les risques pertinents et prendre des décisions prudentes en fonction de votre propre situation financière et de votre tolérance au risque. Pour plus de détails, veuillez consulter l'avertissement.
Commentaire
0/400
Aucun commentaire