Powell, Bessent mettent en garde les banques contre les risques de sécurité liés à l’IA Mythos d’Anthropic : Bloomberg

En bref

  • Des responsables américains ont averti de grandes banques au sujet des risques de cybersécurité liés au modèle d’IA Mythos de Anthropic, selon Bloomberg.
  • Le système pourrait, selon des informations, être capable d’identifier et d’exploiter des vulnérabilités dans les systèmes d’exploitation et les navigateurs.
  • Anthropic a un accès limité au modèle pendant qu’il évalue les risques potentiels pour la sécurité.

Le secrétaire au Trésor des États-Unis Scott Bessent et le président de la Réserve fédérale Jerome Powell auraient convoqué plus tôt cette semaine une réunion avec des PDG de banques de Wall Street afin de les avertir des risques de cybersécurité liés à un nouveau modèle d’intelligence artificielle d’Anthropic. D’après un rapport de Bloomberg, la réunion comprenait des dirigeants de Citigroup, Bank of America, Wells Fargo, Morgan Stanley et Goldman Sachs. Les responsables ont discuté du nouveau modèle d’IA d’Anthropic, Mythos, qui a récemment suscité de vives inquiétudes en raison de ses capacités avancées apparentes en matière de cybersécurité. Les responsables ont convoqué la réunion pour s’assurer que les banques comprennent les risques posés par des systèmes capables d’identifier et d’exploiter des vulnérabilités logicielles sur plusieurs systèmes d’exploitation et navigateurs web, et pour encourager les institutions à renforcer leurs défenses contre d’éventuelles cyberattaques assistées par l’IA visant l’infrastructure financière.

Des chercheurs en sécurité ont averti que des outils capables de découvrir automatiquement des vulnérabilités pourraient accélérer à la fois les travaux de sécurité défensive et le piratage malveillant s’ils sont détournés.  Le modèle Mythos d’Anthropic a d’abord fait surface en ligne en mars, après que des documents de travail sur le système ont fuité en ligne, révélant ce que l’entreprise décrit comme son modèle d’IA le plus performant à ce jour. Lors des tests, le système aurait trouvé des milliers de vulnérabilités logicielles inconnues jusqu’alors, y compris des failles zero-day dans de grands systèmes d’exploitation et navigateurs web. Des chercheurs d’Anthropic ont déclaré dans un rapport plus tôt cette semaine que les capacités de découverte de vulnérabilités de Mythos Preview n’avaient pas été entraînées intentionnellement, mais qu’elles étaient plutôt apparues à la suite d’améliorations plus larges du codage, du raisonnement et de l’autonomie du modèle.

« Les mêmes améliorations qui rendent le modèle nettement plus efficace pour corriger les vulnérabilités le rendent aussi nettement plus efficace pour les exploiter », a écrit la société. En raison de ces capacités, Anthropic a restreint l’accès à un petit groupe d’organisations de cybersécurité. « Compte tenu de la puissance de ses capacités, nous sommes délibérés quant à la manière dont nous le publions », a déclaré Anthropic dans un communiqué. « Comme c’est une pratique standard dans l’ensemble du secteur, nous travaillons avec un petit groupe de clients disposant d’un accès anticipé pour tester le modèle. Nous considérons ce modèle comme un changement d’étape et le plus compétent que nous ayons construit à ce jour. » Pour répondre à ce risque, Anthropic teste Mythos via Project Glasswing, une collaboration avec de grandes entreprises technologiques et de cybersécurité qui utilise le modèle pour identifier et corriger des vulnérabilités dans des logiciels critiques avant que des attaquants ne puissent les exploiter. « Project Glasswing est un point de départ. Aucune organisation ne peut résoudre ces problèmes de cybersécurité à elle seule », a déclaré l’entreprise dans un communiqué. « Les développeurs d’IA Frontier, les autres entreprises de logiciels, les chercheurs en sécurité, les mainteneurs de logiciels open source et les gouvernements du monde entier ont tous des rôles essentiels à jouer. » Anthropic n’a pas répondu immédiatement à la demande de commentaire de Decrypt.

Avertissement : Les informations contenues dans cette page peuvent provenir de tiers et ne représentent pas les points de vue ou les opinions de Gate. Le contenu de cette page est fourni à titre de référence uniquement et ne constitue pas un conseil financier, d'investissement ou juridique. Gate ne garantit pas l'exactitude ou l'exhaustivité des informations et n'est pas responsable des pertes résultant de l'utilisation de ces informations. Les investissements en actifs virtuels comportent des risques élevés et sont soumis à une forte volatilité des prix. Vous pouvez perdre la totalité du capital investi. Veuillez comprendre pleinement les risques pertinents et prendre des décisions prudentes en fonction de votre propre situation financière et de votre tolérance au risque. Pour plus de détails, veuillez consulter l'avertissement.

Articles similaires

PDG du fonds souverain norvégien : l’IA compense l’inflation énergétique malgré les tensions au Moyen-Orient

Message de Gate News, 28 avril — Nicolai Tangen, PDG du fonds souverain de Norvège, a déclaré mardi que l’intelligence artificielle compense une partie de l’inflation des prix de l’énergie déclenchée par les tensions au Moyen-Orient

GateNewsIl y a 30m

Google Gemini ajoute discrètement la génération de fichiers : prise en charge de la création directe de PDF, CSV, ZIP

Message de Gate News, 28 avril — L’application Gemini de Google a discrètement déployé des capacités de génération de fichiers, permettant aux utilisateurs de créer plusieurs formats de fichiers directement au sein des conversations, y compris TXT, Markdown, PDF, CSV, des fichiers de configuration, et plus encore. Plusieurs fichiers peuvent être regroupés dans une archive ZIP unique

GateNewsIl y a 1h

Adobe lance Firefly AI Assistant avec des workflows multi-applications, et intègre Claude

Message de Gate News, 28 avril — Adobe a commencé des tests publics de Firefly AI Assistant, un nouvel outil capable d’exécuter des workflows multi-étapes sur plusieurs applications créatives, notamment Photoshop, Lightroom, Illustrator, Express et Premiere. La société développe également une version plus légère pour

GateNewsIl y a 1h

Google et le Pentagone signent un contrat d’IA confidentiel, des centaines d’employés signent une pétition pour s’y opposer, mais cela ne sert à rien

Selon des médias étrangers, Google et le gouvernement américain ont signé un contrat d’IA confidentiel, autorisant l’utilisation de ses modèles d’IA pour soutenir des missions du ministère de la Défense, et faisant de l’entreprise un fournisseur de technologie d’IA confidentielle pour les forces armées américaines. Le contrat indique qu’il peut être utilisé à des fins gouvernementales légitimes, liées à la planification des missions et au ciblage d’objectifs d’armes ; toutefois, il interdit tout déploiement de surveillance à grande échelle ou d’armes autonomes sans supervision humaine, et ne confère aucun droit d’opposer un veto aux décisions de combat. Il nécessite des ajustements des paramètres de sécurité. Plus de 600 employés ont signé une pétition pour s’y opposer et appellent à refuser ; Google n’a pas encore répondu.

ChainNewsAbmediaIl y a 1h

Google Signs Pentagon Classified AI Contract with Loose Safety Clauses, Legal Experts Question Enforceability

Message de Gate News, 28 avril — Google a signé un accord avec le Département de la Défense des États-Unis permettant à l’armée d’utiliser l’IA de Google pour des travaux classifiés, dans le cadre des termes « de toute finalité gouvernementale licite », selon The Information. Le contrat a été signé le même jour, alors que plus de 600 employés de Google ont envoyé une lettre au PDG Sundar Pichai l’exhortant à rejeter l’accord. Le porte-parole de Google pour le secteur public a confirmé que l’accord est une révision d’un contrat non classifié signé en novembre 2025. Le contrat inclut une clause de sécurité indiquant que l’IA de Google « n’est pas destinée à, et ne doit pas être utilisée pour » la surveillance domestique à grande échelle ou les armes autonomes sans contrôle humain. Toutefois, Charlie Bullock, chercheur principal à l’Institut du Droit et de l’IA, a déclaré que la formulation « ne doit pas être utilisée pour » n’a aucune valeur juridique contraignante. Elle exprime simplement l’avis des parties selon lequel une telle utilisation est indésirable, mais ne constitue pas une rupture de contrat. L’accord prévoit également : « Le présent accord n’accorde pas le droit de contrôler ou de faire veto sur les décisions liées à des actions gouvernementales licites. » Par rapport à l’accord de février d’OpenAI avec le Pentagone, les conditions de Google sont nettement plus permissives. OpenAI a conservé « une entière discrétion sur les systèmes de sécurité », tandis que Google a accepté d’aider le gouvernement à ajuster, sur demande, les paramètres de sécurité et les filtres de l’IA. Le porte-parole de Google a noté que ces filtres étaient conçus pour les consommateurs et que la société effectue généralement des ajustements pour les clients entreprise. Google est la troisième entreprise à signer un accord d’IA classifiée avec le Pentagone, après xAI et OpenAI. Anthropic, qui a refusé d’assouplir les restrictions de sécurité, a été signalée par le Pentagone comme un « risque pour la chaîne d’approvisionnement » et fait actuellement l’objet de procédures judiciaires.

GateNewsIl y a 1h

Google lance un hub d’IA de $15 Billion en Inde avec un centre de données à l’échelle du gigawatt

Message de Gate News, 28 avril — Google a organisé une cérémonie inaugurale le 28 avril pour son plus grand hub d’IA en dehors des États-Unis, situé à Visakhapatnam, en Inde. Le centre de données à l’échelle du gigawatt soutiendra le calcul pour des produits incluant Gemini et Search, selon Bikash Koley, vice-président chez

GateNewsIl y a 2h
Commentaire
0/400
Aucun commentaire