Anthropic a supprimé un engagement clé en matière de sécurité de sa Politique de mise à l’échelle responsable, selon un rapport de TIME. Ces modifications assouplissent un engagement qui interdisait autrefois au développeur de Claude AI de former des systèmes d’IA avancés sans garanties en place. Ce mouvement redéfinit la position de l’entreprise dans la course à l’IA face à ses concurrents OpenAI, Google et xAI. Anthropic s’est longtemps présenté comme l’un des laboratoires les plus axés sur la sécurité dans l’industrie, mais selon la politique révisée, Anthropic ne promet plus d’arrêter la formation si les mesures d’atténuation des risques ne sont pas entièrement en place. « Nous avons estimé que cela n’aiderait vraiment personne si nous arrêtions de former des modèles d’IA », a déclaré Jared Kaplan, directeur scientifique d’Anthropic, à TIME. « Avec l’avancée rapide de l’IA, nous ne pensons pas qu’il soit logique pour nous de prendre des engagements unilatéraux… si nos concurrents avancent à toute vitesse. »
Ce changement intervient alors qu’Anthropic se trouve impliqué dans un différend public avec le secrétaire à la Défense américain, Pete Hegseth, concernant le refus d’accorder au Pentagone un accès complet à Claude, ce qui en fait le seul grand laboratoire d’IA parmi Google, xAI, Meta et OpenAI à adopter cette position. Edward Geist, chercheur principal en politique à la RAND Corporation, a expliqué que le cadre « sécurité de l’IA » antérieur provenait d’une communauté intellectuelle spécifique, antérieure aux grands modèles linguistiques actuels. « Il y a quelques années, il y avait le domaine de la sécurité de l’IA », a déclaré Geist à Decrypt. « La sécurité de l’IA était associée à un ensemble de vues provenant d’une communauté de personnes qui se souciaient des IA puissantes avant que nous ayons ces LLM. » Geist indique que les premiers défenseurs de la sécurité de l’IA avaient une vision très différente de ce à quoi ressemblerait une intelligence artificielle avancée.
« Ils ont fini par conceptualiser le problème d’une manière qui, à certains égards, envisageait quelque chose de qualitativement différent de ces LLM actuels, pour le meilleur ou pour le pire », a-t-il expliqué. Geist souligne également que ce changement de terminologie envoie un signal aux investisseurs et aux décideurs politiques. « Une partie de cela consiste à donner l’impression à diverses parties qu’un grand nombre de ces entreprises ne se retiennent pas dans la compétition économique à cause de préoccupations liées à ‘la sécurité de l’IA’ », a-t-il dit, ajoutant que la terminologie elle-même évolue pour s’adapter aux temps. Anthropic ne est pas seul à réviser sa terminologie en matière de sécurité. Qu’est-ce que la sécurité de l’IA ? Un rapport récent de l’organisation de presse à but non lucratif, The Conversation, a noté que OpenAI a également modifié sa déclaration de mission dans son dépôt IRS 2024, en supprimant le mot « en toute sécurité ». La déclaration précédente de l’entreprise s’engageait à construire une IA à usage général qui « bénéficie en toute sécurité à l’humanité, sans être contraint par la nécessité de générer un retour financier ». La version mise à jour indique désormais que son objectif est « de garantir que l’intelligence artificielle générale profite à toute l’humanité ». « Le problème avec le terme ‘sécurité de l’IA’, c’est que personne ne semble vraiment savoir ce que cela signifie exactement », a déclaré Geist. « D’ailleurs, le terme ‘sécurité de l’IA’ était aussi contesté. » La nouvelle politique d’Anthropic met l’accent sur des mesures de transparence telles que la publication de « feuilles de route de sécurité de pointe » et de « rapports de risque » réguliers, et indique qu’elle retardera le développement si elle estime qu’il existe un risque important de catastrophe.
Les changements de politique d’Anthropic et d’OpenAI interviennent alors que ces entreprises cherchent à renforcer leur position commerciale. Plus tôt ce mois-ci, Anthropic a annoncé avoir levé 30 milliards de dollars lors d’une levée de fonds valorisant l’entreprise à environ 380 milliards de dollars. Parallèlement, OpenAI finalise une levée de fonds soutenue par Amazon, Microsoft et Nvidia, qui pourrait atteindre 100 milliards de dollars. Anthropic et OpenAI, ainsi que Google et xAI, ont obtenu des contrats lucratifs avec le Département de la Défense américain. Cependant, pour Anthropic, le contrat semble incertain alors que le Pentagone envisage de couper ses liens avec l’IA en raison de plaintes concernant l’accès. Alors que les capitaux affluent dans le secteur et que la compétition géopolitique s’intensifie, Hamza Chaudhry, responsable de l’IA et de la sécurité nationale à l’Institute for the Future of Life, a déclaré que ce changement de politique reflète des dynamiques politiques changeantes plutôt qu’une volonté de décrocher des contrats avec le Pentagone. « Si c’était le cas, ils auraient simplement reculé face à ce que le Pentagone a dit il y a une semaine », a déclaré Chaudhry à Decrypt. « Dario [Amodei] ne serait pas venu à la réunion. » Au lieu de cela, Chaudhry affirme que cette réécriture marque un tournant dans la façon dont les entreprises d’IA abordent la question des risques, à mesure que la pression politique et les enjeux concurrentiels augmentent. « Anthropic dit maintenant : ‘Regardez, nous ne pouvons plus parler de sécurité, nous ne pouvons pas faire de pauses inconditionnelles, et nous allons pousser pour une réglementation beaucoup plus légère’ », a-t-il conclu.