Le Pentagone met Anthropic au défi ! Ouverture totale à Claude pour un usage militaire « sinon résiliation et départ »

動區BlockTempo

Selon une exclusivité d’Axios, le Pentagone envisage de mettre fin à sa collaboration avec Anthropic, car cette société d’IA insiste pour limiter l’utilisation de Claude par l’armée, refusant d’ouvrir les deux domaines clés que sont la surveillance de masse et les armes autonomes totalement autonomes. Il est à noter que OpenAI, Google et xAI ont tous accepté les « usages légaux » du Pentagone, faisant d’Anthropic le seul des quatre grands laboratoires d’IA à rester un client fidèle.
(Précédent contexte : le nouveau projet de Musk « Base lunaire Alpha » : construire une super usine d’IA sur la Lune, lancée vers le système solaire avec un gigantesque propulseur)
(Complément d’information : panique liée à l’IA et chômage ! Un cadre de Microsoft avertit : la majorité des travailleurs de cols blancs seront remplacés par automatisation « dans les 12 à 18 prochains mois »)

Table des matières

  • Les deux lignes rouges d’Anthropic : interdiction de la surveillance de masse, interdiction des armes autonomes
  • L’opération surprise de Maduro enflammant la situation
  • Les trois autres géants « sans objection »

Selon une source haut placée citée par Axios, le Pentagone presse les quatre principaux laboratoires d’IA (OpenAI, Google, xAI, Anthropic) d’autoriser l’armée à utiliser leurs outils pour « tous usages légaux » (all lawful purposes), couvrant la recherche d’armes, la collecte de renseignements et les opérations sur le terrain, dans les domaines les plus sensibles.

Cette demande découle du « Mémorandum stratégique sur l’intelligence artificielle » publié par le Département de la Défense le 9 janvier dernier. Le document indique clairement que, dans un délai de 180 jours, la clause « tous usages légaux » doit être intégrée dans tous les contrats d’achat d’IA, ce qui signifie que l’utilisation militaire de l’IA sera alignée sur les standards de l’usage de la force conventionnelle, sans exigence supplémentaire de « contrôle humain significatif ».

Cependant, après plusieurs mois de négociations difficiles, Anthropic n’a toujours pas accepté ces clauses, ce qui agace le Pentagone. Selon cette source :

Tout est possible, y compris réduire ou mettre fin à la collaboration avec Anthropic. Mais si nous estimons que c’est la bonne décision, il faut leur trouver un remplaçant approprié.

Les deux lignes rouges d’Anthropic : interdiction de la surveillance de masse, interdiction des armes autonomes

Face à la pression du Pentagone, Anthropic maintient deux lignes rouges infranchissables :

  • Interdiction de la surveillance de masse des citoyens américains
  • Interdiction des systèmes d’armes entièrement autonomes (c’est-à-dire des armes létales automatisées sans intervention humaine)

L’officiel admet que la zone d’ombre demeure quant à savoir quels scénarios d’utilisation relèvent de ces interdictions, et lesquels ne le sont pas. Si le Pentagone doit négocier au cas par cas chaque usage précis ou si Claude pourrait, dans la pratique, refuser certains usages, cela serait « ingérable ».

Il est à noter qu’Anthropic a signé l’été dernier un contrat prototype de deux ans d’un montant maximal de 200 millions de dollars, faisant de Claude le premier modèle commercial autorisé à fonctionner sur le réseau classifié du Pentagone, pour des tâches allant des tests d’armement à la communication en temps réel lors d’opérations sensibles.

L’opération surprise de Maduro enflammant la situation

La crise contractuelle trouve son origine dans un incident survenu plus tôt ce mois-ci. Selon Axios du 13 février, lors d’une opération américaine pour attaquer le Venezuela et arrêter l’ancien président Nicolás Maduro, l’armée aurait déployé Claude via la plateforme de Palantir pour traiter des données de renseignement en temps réel.

L’article indique que, après avoir appris cela, des responsables d’Anthropic ont contacté Palantir pour demander si Claude avait été utilisé lors de cette opération, « leur ton laissant entendre qu’ils désapprouvaient cette utilisation, car l’opération impliquait une attaque par énergie cinétique (sans explosion, avec pénétration). »

Claude aurait nié toute implication, ce qui aurait suscité de graves inquiétudes au sein du Pentagone.

Un porte-parole d’Anthropic a catégoriquement nié, affirmant que la société avait discuté avec le ministère de la Défense pour des opérations militaires spécifiques.

Les trois autres géants « sans objection »

Contrairement à Anthropic, les trois autres laboratoires d’IA ont montré une plus grande flexibilité face aux exigences du Pentagone :

  • OpenAI (ChatGPT) a accepté de lever ses garde-fous de sécurité pour servir le Pentagone
  • Google (Gemini) a adopté une attitude proactive de coopération
  • xAI (Grok) a également manifesté sa volonté de collaborer

Selon des sources, au moins l’un de ces trois a entièrement accepté la clause « tous usages légaux », tandis que les deux autres ont montré une flexibilité bien supérieure à celle d’Anthropic. Cela place Anthropic comme le seul à maintenir une position de sécurité stricte, mais aussi à risquer d’être marginalisé.

L’extension ultime des produits d’IA est de servir l’État, et la dimension militaire est une réalité incontournable.

Voir l'original
Avertissement : Les informations contenues dans cette page peuvent provenir de tiers et ne représentent pas les points de vue ou les opinions de Gate. Le contenu de cette page est fourni à titre de référence uniquement et ne constitue pas un conseil financier, d'investissement ou juridique. Gate ne garantit pas l'exactitude ou l'exhaustivité des informations et n'est pas responsable des pertes résultant de l'utilisation de ces informations. Les investissements en actifs virtuels comportent des risques élevés et sont soumis à une forte volatilité des prix. Vous pouvez perdre la totalité du capital investi. Veuillez comprendre pleinement les risques pertinents et prendre des décisions prudentes en fonction de votre propre situation financière et de votre tolérance au risque. Pour plus de détails, veuillez consulter l'avertissement.
Commentaire
0/400
Aucun commentaire