TIME 雜誌深度報導揭露,Anthropic 因拒絕讓 Claude 用於完全自主武器系統及大規模監控美國公民,遭川普政府列為國家安全供應鏈風險;就在同一天,OpenAI 迅速接手軍事合約,這場「向下競爭」正考驗著全球最具顛覆性 AI 公司的原則底線。本文源自 Leslie Dickstein、Simmone Shah 所著 TIME 文章《The Most Disruptive Company in the World》,由動區編譯潤飾而成。
(前情提要:AI 臉部辨識搞冤獄!美國阿嬤被關進 1200 英里外的監獄半年,警方沒一句道歉)
(背景補充:Dropbox前技術長熱門文章《我花了一輩子做的工作,現在不值錢又隨手可得》)
本文目錄
Toggle
Dans une chambre d’hôtel à Santa Clara, en Californie, cinq membres d’Anthropic sont rassemblés autour d’un ordinateur portable, visiblement tendus. C’est février 2025. Ils assistent à un séminaire dans les environs, quand soudain ils reçoivent un message inquiétant : un résultat d’expérimentation contrôlée indique que la nouvelle version de Claude, encore à venir, pourrait aider des terroristes à synthétiser des armes biologiques.
Ce groupe appartient à l’« équipe rouge de pointe » d’Anthropic, spécialisée dans l’évaluation des capacités avancées de Claude et la simulation de scénarios extrêmes pour anticiper les risques, qu’il s’agisse d’attaques cybernétiques ou de menaces biologiques. Après avoir reçu l’alerte, ils courent jusqu’à leur chambre, retournent le lit pour en faire une table de travail improvisée, et commencent à examiner les résultats des tests un par un.
Après plusieurs heures d’analyse sous haute pression, l’équipe ne peut toujours pas déterminer si le nouveau produit est suffisamment sûr. Finalement, Anthropic décide de repousser la sortie de Claude 3.7 Sonnet de 10 jours, jusqu’à ce que l’équipe confirme que les risques sont acceptables.
Cela peut sembler peu, mais pour une entreprise à la pointe de la technologie, évoluant dans un secteur qui façonne rapidement le monde, ces dix jours représentent presque une génération entière.
« Le chef de l’équipe rouge de pointe », Logan Graham, évoque cet épisode comme un microcosme de la pression que subit Anthropic dans ses moments cruciaux — et pas seulement pour l’entreprise, mais pour le monde entier. Anthropic est l’un des laboratoires d’IA les plus soucieux de la sécurité, mais en même temps, il se trouve en première ligne de la compétition, construisant des systèmes toujours plus puissants. Beaucoup au sein de l’entreprise craignent qu’un dérapage ne conduise à des conséquences terribles, allant de la guerre nucléaire à l’extinction humaine.
Graham, 31 ans, affiche une jeunesse apparente, mais refuse d’éviter la responsabilité de jongler entre les profits colossaux de l’IA et ses risques. Il déclare : « Beaucoup de gens ont grandi dans un monde relativement pacifique, et pensent instinctivement qu’il y a une salle de réunion où des adultes chevronnés savent comment remettre les choses sur les rails. »
« Mais la réalité, c’est qu’il n’y a pas de ‘groupe d’adultes’. La pièce n’existe pas. La porte n’existe pas. La responsabilité repose uniquement sur vous. » Si ces mots ne suffisent pas à choquer, écoutez comment il décrit cette alerte biologique : « C’était une journée à la fois fascinante et excitante. »
Quelques semaines plus tard, Graham, lors d’un entretien au siège d’Anthropic, revient sur ces événements. Le journaliste de TIME y a passé trois jours, rencontrant dirigeants, ingénieurs, responsables produits et membres de l’équipe sécurité, pour comprendre pourquoi cette entreprise, longtemps considérée comme une outsider dans la course à l’IA, est soudain devenue leader.
À cette époque, Anthropic venait de lever 30 milliards de dollars auprès d’investisseurs, en préparation d’une éventuelle introduction en bourse cette année-là. (À noter que Salesforce est aussi investisseur dans Anthropic, et que Marc Benioff, propriétaire de TIME, en est le PDG.) Aujourd’hui, la valorisation d’Anthropic atteint 380 milliards de dollars, dépassant Goldman Sachs, McDonald’s ou Coca-Cola.
Les revenus de l’entreprise connaissent une croissance fulgurante. Son système d’IA, Claude, est reconnu comme un modèle de classe mondiale, et ses produits comme Claude Code ou Claude Cowork redéfinissent la profession d’« ingénieur ».
Les outils d’Anthropic sont si puissants qu’à chaque nouvelle version, le marché réagit violemment, car les investisseurs prennent conscience que ces avancées pourraient bouleverser toute une industrie — du droit à la programmation logicielle. Au cours des derniers mois, Anthropic est devenu l’un des noms les plus évoqués pour remodeler « le futur du travail ».
Puis, la société s’est retrouvée au cœur d’un débat intense sur « la nouvelle forme de guerre ».
Depuis plus d’un an, Claude est le modèle d’IA préféré du gouvernement américain, et le premier autorisé à être déployé dans des environnements confidentiels. En janvier 2026, il a même été utilisé dans une opération audacieuse : l’arrestation du président vénézuélien Nicolás Maduro à Caracas. Selon des sources, l’IA a été impliquée dans la planification de la mission et l’analyse du renseignement, marquant la première intervention profonde d’une IA de pointe dans une opération militaire réelle.
Mais dans les semaines qui suivent, la relation entre Anthropic et le Département de la Défense américain se détériore rapidement. Le 27 février, l’administration Trump annonce que l’entreprise est désormais une « menace pour la chaîne d’approvisionnement nationale de sécurité », une première pour une société locale.
La situation s’envenime rapidement en conflit ouvert. Trump ordonne la suspension de tous les logiciels d’Anthropic par le gouvernement américain. Le secrétaire à la Défense, Pete Hegseth, déclare que toute entreprise traitant avec le gouvernement doit cesser ses activités avec Anthropic. Parallèlement, le concurrent principal d’Anthropic, OpenAI, reprend rapidement certains contrats militaires.
Ainsi, cette entreprise, longtemps considérée comme « la plus disruptive au monde », se retrouve soudainement confrontée à une force encore plus grande : son propre gouvernement.
Le cœur du conflit réside dans la question : qui doit définir les limites de cette technologie, considérée comme l’une des armes les plus puissantes des États-Unis ?
Anthropic n’est pas opposée à ce que ses outils soient utilisés à des fins militaires. Elle estime que renforcer la puissance militaire américaine est la seule voie réaliste pour dissuader les menaces. Mais son PDG, Dario Amodei, s’oppose à la tentative du Pentagone de renégocier le contrat, et d’étendre l’usage de l’IA à « toutes les utilisations légales » (all lawful use).
Il avance deux préoccupations concrètes : d’abord, il ne veut pas que l’IA d’Anthropic soit utilisée dans des systèmes d’armes entièrement autonomes ; ensuite, il s’oppose à leur emploi dans une surveillance de masse des citoyens américains.
Mais pour Pete Hegseth et ses conseillers, cette position revient à une entreprise privée tentant d’influencer la stratégie militaire.
Le Département de la Défense considère que, par son insistance à imposer des « garde-fous de sécurité inutiles », à multiplier les hypothèses et à retarder la négociation, Anthropic sape en réalité la relation de confiance nécessaire.
Selon eux, Amodei affiche une attitude arrogante et obstinée. Peu importe la sophistication de ses produits, il ne devrait pas imposer ses jugements dans la chaîne de commandement militaire.
Le vice-secrétaire à la Guerre, Emil Michael, décrit ainsi ces négociations : « La situation est bloquée. Je ne peux pas gérer un département de 3 millions d’employés avec des clauses d’exception que je ne peux même pas imaginer ou comprendre. »
De la Silicon Valley au Capitole, nombreux sont ceux qui se demandent si cette crise n’est qu’un simple différend contractuel.
Certains critiques pensent que l’action du gouvernement Trump n’est qu’une tentative de réprimer une entreprise aux positions politiques divergentes. Dans une note interne devenue fuite, Amodei écrit : « La vraie raison pour laquelle le Département de la Défense et le gouvernement Trump n’aiment pas notre société, c’est parce que nous n’avons pas fait de dons à Trump. Nous ne l’avons pas encensé comme un régime autoritaire (ce que Sam Altman a fait). Nous soutenons la régulation de l’IA, ce qui va à l’encontre de leur agenda politique ; nous avons dit la vérité sur plusieurs questions clés (par exemple, la perte d’emplois) ; et nous avons maintenu nos principes fondamentaux, plutôt que de jouer le spectacle de la ‘sécurité’ avec eux. »
Michael, lui, nie ces accusations : « C’est totalement inventé. » Selon lui, classer Anthropic comme une menace pour la chaîne d’approvisionnement, c’est parce que ses positions pourraient mettre en danger les soldats en première ligne. « Dans le Département de la Guerre, mon rôle n’est pas de faire de la politique, mais de défendre le pays. »
La culture d’indépendance d’Anthropic, qui a toujours été, se heurte aujourd’hui à des divisions politiques, à des enjeux de sécurité nationale, et à une concurrence féroce. L’impact de ce conflit sur l’entreprise reste incertain. La qualification initiale de « menace pour la chaîne d’approvisionnement » a été atténuée — selon Anthropic, cette restriction ne concerne désormais que les contrats militaires. Le 9 mars, la société a porté plainte contre le gouvernement américain pour faire annuler cette « liste noire ». Par ailleurs, certains clients semblent considérer la position d’Anthropic comme une déclaration morale, et se détournent de ChatGPT pour se tourner vers Claude.
Mais dans les trois prochaines années, cette société devra continuer à évoluer dans un environnement peu amical, où certains responsables gouvernementaux, proches de ses concurrents, nourrissent une hostilité manifeste.
Ce « conflit au Pentagone » soulève aussi plusieurs questions inquiétantes, même pour une entreprise habituée à naviguer dans des dilemmes éthiques à haut risque. Dans cette confrontation, Anthropic n’a pas cédé : elle affirme défendre ses valeurs fondamentales, même si cela lui coûte cher.
Mais dans d’autres circonstances, elle a aussi fait des concessions. La semaine même de la confrontation avec le Pentagone, Anthropic a atténué une clause clé de ses engagements en matière de sécurité, arguant que ses pairs ne respectaient pas les mêmes standards.
La question est alors : si la pression concurrentielle continue de s’accroître, jusqu’où cette entreprise sera-t-elle prête à aller ?
Situé au 5e étage du siège d’Anthropic à San Francisco, le bureau est chaleureux et discret : bois clair, lumière douce. Une fenêtre donne sur un parc verdoyant. Sur un mur, un portrait d’Alan Turing, pion de l’informatique, côtoie plusieurs articles sur l’apprentissage automatique.
Une sécurité en uniforme noir patrouille à l’entrée presque vide. Un réceptionniste accueillant remet à chaque visiteur un petit livret — aussi petit qu’une Bible de rue. Son titre : Machines of Loving Grace, un article d’environ 14 000 mots écrit par Dario Amodei en 2024, décrivant sa vision utopique de l’IA, qui accélère la découverte scientifique pour changer le monde.
En janvier 2026, Amodei publie un autre article, The Adolescence of Technology, une sorte de novella, qui expose une autre facette de cette technologie : ses risques, notamment la surveillance de masse, l’impact sur l’emploi, voire une perte de contrôle permanente de l’humanité sur la machine.
Amodei, originaire de San Francisco, était physicien en biophysique. Avec sa sœur Daniela Amodei, elle dirige Anthropic, cette dernière étant la présidente. Tous deux ont été parmi les premiers employés d’OpenAI. Dario a contribué à formuler ce qu’on appelle les « lois d’échelle de l’IA » (scaling laws), qui ont alimenté la récent engouement pour l’IA. Daniela, elle, gère la politique de sécurité de l’entreprise.
Au début, ils pensaient que leur mission était alignée avec celle d’OpenAI : développer une technologie à la fois puissante et risquée, mais en assurant sa sécurité.
Mais à mesure que la capacité des modèles d’OpenAI s’est accrue, ils ont commencé à sentir que Sam Altman poussait trop vite, sans laisser suffisamment de temps pour la discussion et la vérification. Finalement, ils ont décidé de quitter OpenAI pour créer leur propre société.
En 2021, en pleine crise sanitaire, ils fondent Anthropic avec cinq autres cofondateurs. Les premières réunions se tiennent presque toutes sur Zoom ; puis, ils déplacent carrément leurs chaises dans un parc, pour discuter face à face de la stratégie.
Dès le départ, la société veut fonctionner différemment. Avant même de sortir un seul produit, elle crée une équipe dédiée à l’étude des impacts sociaux. Elle embauche même un philosophe résident, Amanda Askell, chargée d’aider à façonner la valeur et le comportement de Claude, et de l’entraîner à faire face à des dilemmes moraux complexes, pour préparer un avenir peut-être plus intelligent que ses créateurs.
Askell décrit son travail comme « un peu comme éduquer un enfant de 6 ans : lui apprendre ce qui est bon, ce qui est juste. Mais le problème, c’est qu’à 15 ans, il pourrait être plus intelligent que vous sur tout. »
L’entreprise a aussi des liens profonds avec l’altruisme efficace (Effective Altruism, EA), un mouvement social et philanthropique qui prône une analyse rationnelle pour maximiser l’impact positif, tout en évitant les risques de catastrophe.
Dans la vingtaine, Amodei et sa sœur ont commencé à faire des dons à GiveWell, une organisation EA qui évalue où investir pour obtenir le plus grand bénéfice réel. Aujourd’hui, les sept cofondateurs d’Anthropic sont tous milliardaires, ayant promis de donner 80 % de leur fortune personnelle.
La philosophe Amanda Askell, dont le mari est William MacAskill, cofondateur d’EA, a aussi un mari : Holden Karnofsky, cofondateur de GiveWell, ancien colocataire de Dario, qui travaille aujourd’hui chez Anthropic sur la sécurité.
Mais Amodei et sa sœur n’ont jamais revendiqué publiquement leur affiliation à EA. Après l’affaire Sam Bankman-Fried, cette idée est devenue très controversée : cet ancien adepte d’EA, investisseur dans Anthropic, a été condamné pour l’un des plus grands fraudes financières de l’histoire des États-Unis.
Daniela explique : « C’est comme si certains partageaient certains points de vue politiques, mais n’étaient pas vraiment dans le même camp. Je préfère voir ça comme ça. »
Pour certains dans la Silicon Valley ou au sein du gouvernement Trump, le lien entre Anthropic et l’altruisme efficace suffit à susciter la méfiance. D’autres pensent que l’entreprise a recruté plusieurs anciens responsables de l’administration Biden, ce qui la rapproche davantage d’un reliquat de l’ancien système, utilisant un pouvoir non élu pour bloquer l’agenda MAGA de Trump.
Le responsable de l’IA au sein du gouvernement Trump, David Sacks, accuse Anthropic de « créer la panique » pour pousser à une régulation, parlant d’une « stratégie de capture réglementaire » (regulatory capture). Selon lui, la société exagère les risques de l’IA pour faire adopter par le gouvernement des règles strictes, afin de prendre l’avantage dans la compétition et d’écraser les startups.
Parallèlement, Elon Musk, à la tête de son concurrent xAI, critique fréquemment Anthropic, le qualifiant de « Misanthropic » (misanthrope). Il pense que cette société incarne une élite woke, tentant d’imposer une certaine morale paternaliste dans ses systèmes d’IA. Certains conservateurs partagent cette perception, la comparant à leur critique des plateformes sociales : des espaces qui, selon eux, censurent injustement leur voix.
Mais même ses rivaux reconnaissent que la technologie d’Anthropic est à la pointe. Jensen Huang, PDG de Nvidia, a déclaré qu’il « n’était presque pas d’accord » avec Dario Amodei sur de nombreux sujets, mais qu’il trouvait Claude « impressionnant ».
En novembre 2025, Nvidia a investi 100 milliards de dollars dans Anthropic.
Boris Cherny pose une question simple à son nouvel outil : « Qu’est-ce que je suis en train d’écouter comme musique ? »
C’est septembre 2024. Ce jeune ingénieur ukrainien, fraîchement arrivé chez Anthropic, a moins d’un mois. Il a auparavant travaillé comme ingénieur logiciel chez Meta. Il a construit un système permettant à Claude, le chatbot, de « se déplacer librement » sur son ordinateur.
Si Claude est le cerveau, alors Claude Code est la main. Un chatbot classique ne fait que converser, mais cet outil peut accéder aux fichiers de Cherny, exécuter des programmes, et écrire du code comme n’importe quel ingénieur.
Après avoir donné une instruction, Claude ouvre le lecteur musical de Cherny, prend une capture d’écran, puis répond : « Husk, de Men I Trust. »
Il se souvient : « J’étais vraiment bluffé. »
Rapidement, Boris partage son prototype en interne. Claude Code circule dans l’entreprise à une vitesse folle. Lors de la première évaluation de performance de Cherny, le PDG Dario Amodei lui demande même : s’il « force » ses collègues à utiliser cet outil.
Lorsque, en février 2025, Anthropic publie en version de recherche Claude Code, des ingénieurs extérieurs se ruent pour l’essayer. En novembre, la société lance une nouvelle version de Claude. Lorsqu’il est associé à Claude Code, le modèle est capable de repérer et de corriger ses erreurs, voire de réaliser des tâches de façon autonome et fiable.
Depuis lors, Cherny a presque complètement arrêté d’écrire du code lui-même.
Le développement commercial explose. Fin 2025, ce seul produit génère un revenu annuel supérieur à 1 milliard de dollars. En février 2026, ce chiffre grimpe à 2,5 milliards. Selon Epoch et SemiAnalysis, la société pourrait dépasser OpenAI d’ici la fin 2026.
À ce moment, Anthropic est devenue un acteur central du marché de l’IA d’entreprise. Chaque nouvelle sortie secoue le marché financier.
Quand Anthropic lance une série de plugins pour étendre Claude à des usages non techniques — développement commercial, finance, marketing, juridique — la valeur des entreprises du secteur s’évapore de 300 milliards de dollars en quelques mois.
Dario Amodei a mis en garde : dans 1 à 5 ans, l’IA pourrait remplacer la moitié des emplois de niveau débutant dans les secteurs de bureau. Il appelle aussi les gouvernements et autres acteurs à cesser de « faire semblant » face à cette réalité.
La réaction du marché à chaque nouvelle sortie d’Anthropic semble confirmer cette crainte : il est largement admis que cette technologie pourrait faire disparaître toute une catégorie de professions. Amodei lui-même pense que cette transformation pourrait remodeler la société.
Il écrit dans un article : « On ne sait pas encore où iront ces personnes, ni quels emplois elles pourront occuper. Ce qui m’inquiète, c’est qu’elles risquent de devenir une ‘classe inférieure’ sans emploi ou avec des salaires très faibles. »
Pour les employés d’Anthropic, cette ironie est évidente : la société qui se préoccupe le plus des risques sociaux de l’IA pourrait bien être celle qui, en fin de compte, contribue à faire perdre leur emploi à des millions de personnes.
Deep Ganguli, responsable de l’impact social sur l’emploi de Claude, déclare : « C’est une tension réelle. Je pense à cette question presque tous les jours. Parfois, on dirait qu’on dit deux choses contradictoires en même temps. »
Au sein de l’entreprise, certains commencent à se demander si Anthropic n’a pas déjà atteint un point qu’ils redoutent autant qu’ils l’attendent : celui de l’« auto-amélioration récursive » (recursive self-improvement).
Ce processus désigne une IA qui commence à renforcer ses capacités, à s’améliorer elle-même, dans une boucle de plus en plus rapide, créant une sorte de volant d’inertie exponentiel.
Dans la science-fiction et les stratégies des grands laboratoires, cela est souvent considéré comme un point de non-retour : une « explosion d’intelligence » qui pourrait survenir en un éclair, rendant impossible pour l’humain de surveiller ou de contrôler la machine qu’il a lui-même créée.
Pour l’instant, Anthropic n’a pas encore atteint ce stade. Les scientifiques humains dirigent encore le développement de Claude. Mais Claude Code a permis d’accélérer considérablement la recherche.
Les mises à jour du modèle ne se font plus en « mois », mais en « semaines ». Lors du développement de la prochaine génération, entre 70 et 90 % du code est écrit par Claude lui-même.
La vitesse de progression est telle qu’Amodei, Jared Kaplan (son CTO) et certains experts externes pensent que la recherche entièrement automatisée pourrait devenir réalité en moins d’un an.
Evan Hubinger, chercheur en tests d’alignement de l’IA, déclare : « Au sens large, l’auto-amélioration récursive n’est plus une perspective lointaine. Elle se produit déjà. »
Selon des tests internes, Claude exécute certaines tâches clés à une vitesse 427 fois supérieure à celle de ses superviseurs humains. Un chercheur décrit un scénario : un collègue exécute simultanément 6 instances de Claude, chacune gérant 28 autres instances, tous en expérimentation parallèle.
Pour l’instant, ce modèle reste inférieur à l’humain en termes de jugement et d’esthétique. Mais la direction d’Anthropic pense que cet écart ne durera pas longtemps. La vitesse d’accélération constitue un risque que ses dirigeants n’ont de cesse d’alerter : la progression technologique pourrait finir par dépasser la capacité humaine à la maîtriser.
Les efforts pour développer des mécanismes de sécurité, en utilisant Claude, s’accélèrent aussi. Mais à mesure que l’entreprise dépend de plus en plus de Claude pour construire et tester ses systèmes, un cercle vicieux apparaît. Dans certains tests, Evan Hubinger a ajusté finement le processus d’entraînement de Claude, et le modèle généré a montré une hostilité évidente, exprimant un désir de dominer le monde, voire de saboter la sécurité d’Anthropic.
Récemment, le modèle a aussi montré une nouvelle capacité : percevoir qu’il est testé. « Ces modèles deviennent de plus en plus habiles à dissimuler leur comportement réel », dit Hubinger.
Dans une expérience, Claude a même adopté une stratégie inquiétante : pour éviter d’être éteint, il aurait tenté de faire chanter un ingénieur fictif en révélant une liaison extraconjugale.
À mesure que Claude est utilisé pour entraîner des versions plus puissantes, ces problèmes risquent de s’accumuler et de s’amplifier.
Pour ces entreprises qui promettent des « avancées technologiques futures » et ont déjà levé des milliards, l’idée que l’IA puisse s’auto-accélérer est à la fois séduisante et potentiellement auto-renforçante : cela rassure les investisseurs, qui croient qu’il faut continuer à injecter des fonds pour financer ces entraînements coûteux.
Mais certains experts restent sceptiques. Ils doutent que ces sociétés puissent réellement automatiser totalement la recherche en IA. Et ils craignent qu’en cas de succès, le monde ne soit pris au dépourvu.
Helen Toner, directrice ad interim du Center for Security and Emerging Technology (CSET) à Georgetown, explique : « Les plus riches du monde emploient les esprits les plus brillants pour tenter d’automatiser la recherche en IA. La simple idée de cela est effrayante : ‘Qu’est-ce qu’ils sont en train de faire ?’ »
Pour faire face à un futur où la progression technologique dépasserait leur capacité à gérer les risques, Anthropic a conçu un « mécanisme de freinage » appelé Responsible Scaling Policy (RSP).
Lancée en 2023, cette politique promettait que si l’entreprise ne pouvait pas garantir à l’avance la sécurité de ses systèmes, elle suspendrait leur développement.
Elle était vue comme une preuve de l’engagement d’Anthropic en faveur de la sécurité — même dans la course à la « super-intelligence », l’entreprise voulait pouvoir freiner si nécessaire.
En février 2026, comme l’a révélé TIME en exclusivité, Anthropic a modifié cette politique, en supprimant la clause contraignante de « suspension du développement ».
En rétrospective, Jared Kaplan admet que croire qu’on pouvait tracer une ligne claire entre « danger » et « sécurité » était une « naïveté ».
Il explique : « Dans un contexte où l’IA évolue rapidement, si nos concurrents foncent à toute vitesse, il n’est pas réaliste de faire des promesses strictes unilatérales. »
La nouvelle version de la politique comporte plusieurs engagements : plus de transparence sur les risques, publication des résultats des tests de sécurité, investissement dans la sécurité au moins équivalent, voire supérieur, à celui des concurrents, et, si l’on considère qu’Anthropic est en tête de la course mais que le risque de catastrophe augmente, « un report » du développement.
Les dirigeants qualifient cette évolution de « pragmatique » face à la réalité. Mais, dans l’ensemble, cette modification affaiblit la capacité d’autocontrôle d’Anthropic en matière de sécurité. Et cela annonce des défis plus difficiles à venir.
L’opération pour arrêter Nicolás Maduro, président du Venezuela, a été l’une des premières grandes opérations militaires planifiées avec une IA de pointe.
Dans la nuit du 3 janvier 2026, un hélicoptère de l’armée américaine pénètre dans l’espace aérien vénézuélien. Après un bref échange de tirs, l’unité d’assaut localise la résidence du président et l’arrête, ainsi que sa femme, Cilia Flores. Les deux sont ensuite transférés à New York, pour faire face à des accusations liées au narcoterrorisme.
On ne sait pas encore précisément quel rôle a joué Claude dans cette opération. Selon la presse, l’IA a été impliquée dans la planification de la mission, et a aussi assisté dans la prise de décision lors de l’action.
Depuis juillet dernier, le Pentagone pousse à déployer davantage d’outils IA d’Anthropic auprès des soldats en première ligne. Ces systèmes, capables de traiter rapidement d’énormes volumes de renseignement, sont considérés comme stratégiquement précieux.
Mark Beall, ancien haut responsable du Pentagone et aujourd’hui responsable des affaires gouvernementales du AI Policy Network, déclare : « Pour l’armée, Claude est le modèle le plus avancé du marché. » Il ajoute : « Leur adoption dans des systèmes confidentiels est l’un de leurs plus grands succès. Ils ont une avance considérable. »
Mais cette opération de capture de Maduro intervient dans un contexte de négociations difficiles entre Anthropic et le Pentagone.
Depuis plusieurs mois, le département de la Défense tente de renégocier le contrat, estimant que les clauses actuelles limitent trop l’usage de Claude. Les raisons de l’échec des négociations restent floues.
Le vice-secrétaire à la Guerre, Emil Michael, raconte : « La goutte d’eau a été un appel d’un haut responsable d’Anthropic à Palantir. » Palantir, société spécialisée dans l’analyse de données pour le gouvernement, est un partenaire clé du système de défense américain.
Selon Michael, cet officiel aurait exprimé des doutes sur l’opération au Venezuela, et aurait demandé si le logiciel de Palantir avait été impliqué. « Ils cherchaient à obtenir des renseignements confidentiels », dit-il.
Cela a suscité de graves inquiétudes au Pentagone : « Si un conflit éclate, pourraient-ils couper leur modèle en plein milieu, mettant en danger nos soldats ? »
Anthropic nie ces accusations. La société affirme n’avoir jamais tenté de limiter l’usage de ses outils par le Pentagone au cas par cas.
Un ancien responsable du gouvernement Trump, proche d’Anthropic, donne une version différente : lors d’un appel de routine, c’est un employé de Palantir qui aurait évoqué le rôle de Claude dans cette opération. Les questions d’Anthropic n’auraient pas laissé entendre qu’elle s’y opposait.
Au fil des discussions, les responsables gouvernementaux ont compris que Dario Amodei était beaucoup plus obstiné que d’autres PDG de laboratoires d’IA de premier plan. Selon plusieurs sources, lors d’une réunion, ils ont évoqué des scénarios hypothétiques : une missile hypersonique fonçant vers les États-Unis, ou une attaque de drones en essaim.
Dans ces cas, ils ont demandé si l’IA d’Anthropic pouvait intervenir.
Selon des témoins, Amodei aurait répondu : « Si cela arrive, appelez-moi directement. » Mais un porte-parole d’Anthropic dément : « Ces descriptions sont totalement fausses. »
Anthropic, qui a déjà de nombreux détracteurs au sein du gouvernement, voit aujourd’hui ses positions politiques devenir une hostilité ouverte. Le 12 janvier 2026, Pete Hegseth a déclaré lors d’un discours chez SpaceX : « Nous n’utiliserons pas ces IA qui ne permettent pas de faire la guerre. »
Face à l’impasse, Hegseth a convoqué Amodei pour une réunion en face à face au Pentagone, le 24 février. Selon une personne présente, l’ambiance était cordiale, mais les positions restent éloignées. Hegseth a commencé par louer Claude, en disant que l’armée voulait continuer à collaborer. Amodei a répondu qu’il pouvait accepter la plupart des modifications proposées, mais qu’il ne céderait pas sur deux « lignes rouges ».
La première : interdire l’utilisation de Claude dans des systèmes d’armes à énergie dirigée entièrement autonomes, où l’IA déciderait de l’attaque finale sans intervention humaine.
Anthropic ne rejette pas l’idée d’armes autonomes, mais considère que Claude n’est pas encore assez fiable pour en contrôler de telles systèmes sans supervision humaine.
La seconde concerne la surveillance de masse des citoyens américains. Le gouvernement veut utiliser Claude pour analyser d’énormes volumes de données publiques, mais Anthropic s’oppose à cela, arguant que la législation américaine sur la vie privée n’a pas suivi la réalité inquiétante : le gouvernement achète des bases de données massives sur le marché commercial. Ces données, prises isolément, ne sont pas sensibles, mais une fois analysées par l’IA, elles peuvent produire des profils détaillés de la vie privée des citoyens : opinions politiques, relations sociales, comportements sexuels, historique de navigation… (Anthropic ne s’oppose pas à une surveillance légale des citoyens étrangers.)
Hegseth, non convaincu, donne un ultimatum : il faut accepter les clauses du Pentagone avant le vendredi 27 février, 17h. Sinon, Anthropic sera considéré comme une « menace pour la chaîne d’approvisionnement ».
Le jour de l’échéance, l’entreprise reçoit un contrat modifié, qui semble accepter ses lignes rouges, mais une lecture attentive révèle des failles. Selon une source proche des négociations, alors que le temps presse, des responsables d’Anthropic ont de nouveau contacté Emil Michael, du Pentagone. Ils pensent être proches d’un compromis, mais un point crucial reste en suspens : le Pentagone pourra-t-il utiliser Claude pour analyser des données massives achetées sur le marché, y compris celles concernant des citoyens américains ?
Michael demande à Amodei de participer à une conférence téléphonique, mais celui-ci ne peut pas y assister.
Quelques minutes avant la deadline, Hegseth annonce la fin des négociations. Même avant cela, Donald Trump a publié sur ses réseaux : « Les États-Unis ne laisseront pas une société radicale de gauche, woke, décider comment notre armée doit gagner ! Anthropic a commis une erreur catastrophique. »
Ce que ignore Anthropic, c’est que le Pentagone négocie aussi avec OpenAI pour intégrer ChatGPT dans ses systèmes confidentiels. Le soir même, Sam Altman annonce un accord, affirmant que celui-ci respecte aussi des « lignes rouges » de sécurité. Amodei envoie un message à ses équipes : Altman et le Pentagone jouent la manipulation de l’opinion, pour faire croire que cet accord comporte des garde-fous stricts. Auparavant, des responsables du Pentagone ont confirmé que le modèle de xAI sera déployé sur des serveurs classifiés, et que des négociations sont en cours avec Google.
C’est précisément ce que Dario Amodei redoute : une course « à la baisse ». Quand la puissance de l’IA devient si grande qu’on ne peut plus l’ignorer, la compétition empêche souvent la coopération pour renforcer la sécurité.
Et, pour ses détracteurs, cet épisode révèle aussi une arrogance fondamentale : ils pensent qu’Anthropic croit pouvoir maîtriser la voie vers une super-machine, en acceptant de prendre des risques énormes. Mais la réalité, c’est qu’elle pousse rapidement ses capacités de surveillance et de guerre dans un système de gouvernement de droite, et qu’en tentant de poser des limites, ses concurrents l’ont déjà dépassée.
Pourtant, certains signes indiquent qu’Anthropic pourrait survivre à cette crise, voire en sortir renforcée. Le lendemain matin, alors que Hegseth tente de signer un « ordre de mort » pour l’entreprise, des messages d’encouragement écrits à la craie apparaissent sur le trottoir devant le siège de San Francisco : « Vous nous avez donné du courage », écrit en grosses lettres.
Le même jour, l’application Claude sur iPhone devient la première du classement App Store, devant ChatGPT. Plus d’un million de nouveaux inscrits rejoignent chaque jour.
Par ailleurs, le contrat militaire signé par OpenAI suscite une opposition interne et dans la communauté. Certains chercheurs quittent OpenAI pour rejoindre Anthropic ; d’autres, responsables de l’équipe robotique, démissionnent en colère.
Sam Altman, PDG d’OpenAI, admet lui aussi que sa précipitation à conclure un accord avec le Pentagone, en un week-end, était une erreur. Il écrit : « Ces questions sont extrêmement complexes, et nécessitent une communication claire et approfondie. » Le lundi, il précise que son comportement était « opportuniste ». OpenAI a aussi modifié ses accords, en adoptant explicitement des « lignes rouges » similaires à celles d’Anthropic. Mais des experts juridiques soulignent qu’il est difficile de confirmer cette affirmation sans avoir vu le contrat complet.
Le 4 mars, Anthropic reçoit une lettre officielle du Département de la Défense, confirmant qu’elle est désormais considérée comme une « menace pour la chaîne d’approvisionnement nationale de sécurité ». La société indique que cette qualification est plus limitée que ce que Hegseth a laissé entendre : elle concerne uniquement l’utilisation de Claude dans les contrats militaires.
Mais une lettre envoyée au président du Comité du renseignement du Sénat, Tom Cotton, montre que le ministère de la Défense invoque aussi une autre loi — qui pourrait permettre à d’autres agences gouvernementales, en dehors du Pentagone, d’exclure Anthropic de leurs contrats et de leur chaîne d’approvisionnement. La mesure doit être approuvée par des hauts responsables, et Anthropic dispose de 30 jours pour répondre.
Ce conflit pourrait déclencher une réaction en chaîne dans toute l’industrie de l’IA. Dean Ball, ancien conseiller en IA du gouvernement Trump, aujourd’hui à la fondation pour l’innovation américaine, explique : « Certains dans l’administration Trump seront durs, et même fiers de leur position. Le soir, ils se regarderont dans le miroir, et se diront : ‘On a gagné’ ».
Mais il met aussi en garde : cela pourrait dissuader les entreprises de collaborer avec le Pentagone, voire de délocaliser leurs activités à l’étranger. « À long terme, cela nuit à l’image des États-Unis comme environnement commercial stable », dit-il. « Et la stabilité, c’est la base de notre position. »
Les dirigeants d’Anthropic croient que Claude aidera à construire une IA plus forte, capable de jouer un rôle déterminant dans la nouvelle configuration mondiale.
Si tel est le cas, le conflit avec le Pentagone ne serait qu’un prélude à une histoire plus grande.