The Wall Street Journal : Après que Trump ait lancé une interdiction contre Anthropic, les États-Unis et Israël continuent de dépendre de Claude pour leurs raids en Iran

CryptoCity

Wall Street Journal révèle que, malgré l’interdiction de Trump, l’armée américaine a toujours utilisé Claude lors des bombardements en Iran. En refusant une utilisation militaire illimitée, Anthropic a perdu un contrat de 200 millions de dollars et a été classé comme « risque dans la chaîne d’approvisionnement ». Le Pentagone a désormais collaboré avec OpenAI.

Après l’interdiction de Trump, l’US et Israël continuent-ils à dépendre de Claude pour leurs frappes en Iran ?

Récemment, l’attaque conjointe des États-Unis et d’Israël contre l’Iran a suscité une attention internationale. Cependant, selon le Wall Street Journal, quelques heures après l’interdiction de Trump, l’armée américaine a utilisé le système Claude lors d’un raid en Iran.

Des sources proches ont indiqué que le gouvernement de Trump avait donné l’ordre vendredi dernier aux agences fédérales de cesser toute collaboration avec cette société, et avait demandé au Département de la Défense de la considérer comme un « risque potentiel pour la sécurité ». Mais, y compris le CENTCOM, les commandements militaires ont continué à utiliser le modèle Claude d’Anthropic pour le soutien opérationnel, aidant à l’analyse du renseignement, à l’identification des cibles potentielles et à la simulation de terrain.

La raison de l’interdiction de Claude par le gouvernement américain réside dans l’échec des négociations contractuelles, Anthropic ayant refusé de dépasser les limites de sécurité imposées par le gouvernement, permettant aux responsables militaires d’utiliser leur IA sans restriction dans tout contexte légal.

Pourquoi Anthropic a-t-il eu un conflit avec le Pentagone ?

Auparavant, Anthropic avait obtenu un contrat pluriannuel d’une valeur de 200 millions de dollars avec le Pentagone, aux côtés d’autres grands acteurs de l’IA. Grâce à des partenariats avec Palantir et Amazon Web Services, Claude était autorisé pour le renseignement classifié et les opérations militaires.

Le Wall Street Journal indique que Claude a également été impliqué dans des opérations militaires précoces, notamment en janvier dernier, lors d’une mission en Venezuela qui a conduit à l’arrestation du président Nicolás Maduro, transféré de force aux États-Unis où il a clamé son innocence lors du procès.

  • Article associé : Maduro en procès aux États-Unis, il clame son innocence ! L’ONU convoque une réunion d’urgence sur la crise vénézuélienne

Cependant, après que le ministre de la Défense Pete Hegseth a exigé qu’Anthropic permette une utilisation illimitée de Claude par l’armée, la tension a augmenté. Le PDG d’Anthropic, Dario Amodei, a refusé cette demande, affirmant que certaines applications dépassent une ligne morale que la société ne franchira jamais, même si cela signifie perdre des contrats gouvernementaux.

En réponse, le Pentagone a commencé à chercher des fournisseurs alternatifs, et a conclu un accord avec OpenAI pour déployer le modèle ChatGPT sur des réseaux militaires sécurisés.

OpenAI reprend le contrat militaire, suscitant des critiques

Après avoir signé un accord avec l’armée américaine, OpenAI a rapidement fait face à des critiques. Sreemoy Talukdar, rédacteur en chef de Firstpost, a commenté que, auparavant, Anthropic avait clairement indiqué qu’il ne voulait pas violer ses principes fondamentaux concernant la surveillance massive nationale et les systèmes d’armes autonomes. Par la suite, le ministère de la Guerre sous Trump a suspendu leur collaboration.

Mais aujourd’hui, le PDG d’OpenAI, Sam Altman, affirme que le ministère de la Guerre a accepté ces mêmes principes de sécurité, ce qui a suscité un débat public sur les standards des contrats.

Source : X OpenAI reprend le contrat avec l’armée américaine, suscitant des critiques

Anthropic, la première entreprise américaine classée « risque dans la chaîne d’approvisionnement »

Anthropic, en refusant de permettre à l’armée américaine une utilisation illimitée de Claude, est actuellement en conflit avec la Maison Blanche. Le ministre de la Défense Pete Hegseth a publiquement désigné Anthropic comme un « risque dans la chaîne d’approvisionnement ».

Cela fait d’Anthropic la première société américaine à être officiellement étiquetée « risque dans la chaîne d’approvisionnement », une classification généralement réservée aux entreprises ayant des liens directs avec des adversaires étrangers.

Après cette classification, le gouvernement pourra exiger de tous les contractants travaillant avec l’armée qu’ils prouvent que leurs activités militaires n’impliquent pas les produits d’Anthropic. Face à cette décision, Anthropic prévoit de contester cette classification en justice, déclarant :

« Cela va à l’encontre de la loi et crée un dangereux précédent pour toute entreprise américaine négociant avec le gouvernement. Peu importe les menaces ou sanctions du ministère de la Guerre, notre position contre la surveillance massive nationale ou les armes autonomes reste inchangée. »

Lecture complémentaire :
Sécurité nationale vs Éthique : Anthropic refuse de retirer la sécurité de Claude, confrontation avec le ministère de la Défense

Voir l'original
Avertissement : Les informations contenues dans cette page peuvent provenir de tiers et ne représentent pas les points de vue ou les opinions de Gate. Le contenu de cette page est fourni à titre de référence uniquement et ne constitue pas un conseil financier, d'investissement ou juridique. Gate ne garantit pas l'exactitude ou l'exhaustivité des informations et n'est pas responsable des pertes résultant de l'utilisation de ces informations. Les investissements en actifs virtuels comportent des risques élevés et sont soumis à une forte volatilité des prix. Vous pouvez perdre la totalité du capital investi. Veuillez comprendre pleinement les risques pertinents et prendre des décisions prudentes en fonction de votre propre situation financière et de votre tolérance au risque. Pour plus de détails, veuillez consulter l'avertissement.
Commentaire
0/400
Aucun commentaire