OpenAI remporte le contrat AI du Pentagone ! Sam Altman admet une « décision précipitée », en soulignant qu'il ne s'agit pas de surveillance de masse ni d'armes automatisées

ChainNewsAbmedia

Après l’échec des négociations avec le Pentagone, Anthropic a été classé comme entreprise à risque pour la chaîne d’approvisionnement par le gouvernement américain, tandis qu’OpenAI a rapidement annoncé avoir décroché un contrat avec le Département de la Défense, déployant son modèle d’IA dans un environnement confidentiel. Cette transaction a non seulement secoué l’industrie, mais a aussi amené le PDG d’OpenAI, Sam Altman, à admettre rare­ment : « Cette transaction a été effectivement précipitée, l’impression n’est pas bonne. »

(Anthropic entre en conflit direct avec le Pentagone ! Le PDG Amodei refuse la « surveillance massive nationale » et les « armes entièrement autonomes »)

Anthropic, en échec dans ses négociations, voit le gouvernement Trump intervenir pour bloquer

Après l’échec des négociations avec le Pentagone vendredi dernier, le président Donald Trump a immédiatement ordonné aux agences fédérales, après une période de transition de six mois, de cesser d’utiliser la technologie d’Anthropic. Le ministre de la Défense, Pete Hegseth, a également publiquement désigné Anthropic comme « risque pour la chaîne d’approvisionnement ».

Cette décision a secoué le secteur de l’IA. Anthropic insiste sur le fait que ses technologies ne doivent pas être utilisées pour des « armes entièrement autonomes » ou pour une « surveillance massive nationale », et a tracé une ligne rouge claire à cet égard. Cependant, cette position semble ne pas avoir été acceptée par le Pentagone.

Alors que le public digérait encore cette nouvelle, OpenAI a rapidement annoncé avoir conclu un accord avec le Département de la Défense pour déployer ses modèles dans un environnement confidentiel. La coïncidence de ce timing a suscité une grande attention dans l’industrie.

OpenAI : notre ligne rouge n’a pas changé

Face aux critiques sur une éventuelle détente de sa position sous la pression de la sécurité nationale, la société a publié un article officiel sur son blog, listant trois usages explicitement interdits :

Surveillance massive nationale

Armes autonomes

Décisions automatisées à haut risque (par exemple, « systèmes de crédit social »)

OpenAI souligne que, contrairement à certains autres acteurs de l’IA qui « affaiblissent ou suppriment les garde-fous de sécurité, en se fiant uniquement à des politiques d’utilisation », sa collaboration avec le Département de la Défense adopte une approche « multi-niveaux et globale » de la sécurité.

Selon leur déclaration officielle, OpenAI conserve un contrôle complet sur ses technologies de sécurité, déployant ses modèles via une API cloud, avec une participation d’opérateurs formés et soumis à des audits de sécurité, renforcés par des clauses contractuelles strictes et la législation américaine en vigueur.

Dans leur déclaration, OpenAI ajoute : « Nous ne savons pas pourquoi Anthropic n’a pas pu conclure cet accord, mais nous espérons qu’ils et d’autres laboratoires reconsidéreront leur position. »

Nuage de suspicion : la loi 12333 au centre des préoccupations

Bien qu’OpenAI insiste sur la clarté de ses lignes rouges, la communauté technologique reste sceptique. Mike Masnick, fondateur de Techdirt, indique que le contenu du contrat mentionne que la collecte de données respectera la loi exécutive 12333, ce qui pourrait en réalité permettre une surveillance intérieure.

Masnick souligne que la loi exécutive 12333 est depuis longtemps critiquée comme étant la base légale pour la NSA pour intercepter des communications étrangères impliquant des citoyens américains. Il pense que cela signifie que le contrat d’OpenAI « permet en pratique la surveillance intérieure ».

Pour sa part, Katrina Mulligan, responsable de la coopération en matière de sécurité nationale chez OpenAI, a répliqué sur LinkedIn. Elle a expliqué que l’attention portée à une seule clause du contrat suppose à tort que c’est la seule barrière empêchant l’utilisation de l’IA pour la surveillance de masse ou les armes autonomes. Selon elle, « la structure de déploiement est plus importante que le langage du contrat. » En utilisant uniquement une API cloud, OpenAI peut garantir que ses modèles ne seront pas directement intégrés dans des systèmes d’armes, capteurs ou autres matériels de combat.

Sam Altman admet la précipitation : pour « apaiser » le conflit dans l’industrie ?

Sur la plateforme X, Sam Altman a lui-même répondu aux critiques. Il a reconnu que cette transaction a été « effectivement précipitée » et a admis que l’entreprise a subi une forte réaction.

L’ampleur de cette réaction s’est même reflétée dans la compétition du marché : samedi, le modèle Claude d’Anthropic a brièvement dépassé ChatGPT en termes de téléchargements sur l’App Store d’Apple.

(Pourquoi Anthropic a-t-il signé alors que le Pentagone a rompu le contrat ?)

Alors, pourquoi avoir signé ?

Altman explique : « Nous voulions vraiment calmer la situation, et nous pensons que cet accord est raisonnable. » Il ajoute que si cette collaboration peut finalement contribuer à apaiser les tensions entre le ministère de la Défense et l’industrie de l’IA, OpenAI sera perçu comme une entreprise sous pression, favorisant la stabilité. En revanche, si cela ne fonctionne pas, le public pourrait continuer à critiquer ses décisions comme étant précipitées et peu prudentes.

La bataille pour la frontière entre IA et défense : une nouvelle étape pour l’industrie

Ce conflit met en lumière une problématique plus profonde : à mesure que la technologie de l’IA devient plus mature, comment les entreprises technologiques peuvent-elles équilibrer sécurité nationale et limites éthiques ?

Anthropic a choisi de rester fidèle à ses principes, au prix de perdre le contrat gouvernemental ; OpenAI a opté pour une intervention rapide, en tentant d’assurer la sécurité par une architecture technique et des mécanismes légaux. Ces deux stratégies illustrent des approches différentes face aux risques.

À l’avenir, la collaboration entre IA et gouvernement deviendra sans doute plus fréquente. La clé sera de savoir si ces partenariats pourront garantir la sécurité nationale tout en respectant la liberté des citoyens et l’éthique technologique.

Cet article sur OpenAI décrochant un contrat avec le Pentagone ! Sam Altman admet une « décision précipitée » et insiste sur l’absence de surveillance massive ni d’armes autonomes, publié initialement par Chain News ABMedia.

Voir l'original
Avertissement : Les informations contenues dans cette page peuvent provenir de tiers et ne représentent pas les points de vue ou les opinions de Gate. Le contenu de cette page est fourni à titre de référence uniquement et ne constitue pas un conseil financier, d'investissement ou juridique. Gate ne garantit pas l'exactitude ou l'exhaustivité des informations et n'est pas responsable des pertes résultant de l'utilisation de ces informations. Les investissements en actifs virtuels comportent des risques élevés et sont soumis à une forte volatilité des prix. Vous pouvez perdre la totalité du capital investi. Veuillez comprendre pleinement les risques pertinents et prendre des décisions prudentes en fonction de votre propre situation financière et de votre tolérance au risque. Pour plus de détails, veuillez consulter l'avertissement.
Commentaire
0/400
Aucun commentaire
Trader les cryptos partout et à tout moment
qrCode
Scan pour télécharger Gate app
Communauté
Français (Afrique)
  • 简体中文
  • English
  • Tiếng Việt
  • 繁體中文
  • Español
  • Русский
  • Français (Afrique)
  • Português (Portugal)
  • Bahasa Indonesia
  • 日本語
  • بالعربية
  • Українська
  • Português (Brasil)