Le 3 mars, il a été rapporté que la nouvelle de l’accord de coopération en IA entre OpenAI et le Département de la Défense des États-Unis continuait de circuler, et plusieurs employés actuels et anciens ont récemment discuté publiquement des limites de sécurité, des usages potentiels et des différences entre la position de l’accord et celle d’Anthropic sur la plateforme sociale X, ce qui a attiré une large attention dans le domaine de la technologie et des politiques.
Le PDG d’OpenAI, Sam Altman, a précédemment confirmé que l’entreprise avait conclu un accord de coopération avec le Département de la Défense des États-Unis, lui permettant d’utiliser les modèles d’intelligence artificielle d’OpenAI sous des conditions spécifiques. La collaboration est rapidement devenue controversée car une autre entreprise d’IA, Anthropic, avait auparavant refusé d’accepter des conditions similaires par crainte que son modèle Claude puisse être utilisé pour la surveillance nationale à grande échelle ou des systèmes d’armes létales autonomes.
En réponse, le chercheur d’OpenAI, Boaz Barak, a déclaré qu’il était inexact de qualifier le contrat d’OpenAI de « fragilisant les lignes rouges de sécurité ». Il a souligné que, d’après les informations actuellement disponibles, les restrictions sur l’utilisation des modèles d’IA dans l’accord OpenAI pourraient être plus strictes que les contrats précédemment obtenus par Anthropic, notamment en ce qui concerne la prévention de la surveillance nationale à grande échelle et des armes autonomes.
Pendant ce temps, Miles Brundage, ancien responsable de la recherche politique chez OpenAI, propose un point de vue différent. Il estime qu’au vu d’avocats extérieurs et de déclarations publiques du Pentagone, certains employés pourraient soupçonner que l’entreprise a fait des concessions lors des négociations et tenter de présenter ces concessions comme une coopération technique. Cependant, il a ajouté plus tard que la structure interne d’OpenAI est complexe, et que l’équipe impliquée dans les négociations pourrait effectivement travailler dur pour obtenir un résultat raisonnable.
Un autre technicien d’OpenAI, Clive Chan, a révélé que le contrat de l’entreprise contient une clause de protection interdisant l’utilisation de l’IA pour la surveillance de masse ou les armes létales autonomes, et a déclaré qu’il poussait la société à divulguer plus de détails sur l’accord en réponse aux préoccupations du public.
Le chercheur scientifique Muhammad Bavarian a déclaré qu’il était injuste que le Pentagone traite Anthropic comme un risque pour la chaîne d’approvisionnement. Il estime que si les deux parties restent calmes dans les négociations, il existe encore une opportunité de combler l’écart de positions.
De plus, le chercheur Noam Brown a souligné que la formulation initialement annoncée de l’accord laissait tout de même des questions, comme la possibilité que l’IA soit utilisée dans de nouvelles formes juridiques de surveillance. Cependant, après la mise à jour de son blog officiel par OpenAI, ces déclarations ont été corrigées.
Noam Brown a également souligné que l’utilisation de l’IA dans les agences de sécurité nationale devrait faire l’objet d’un examen démocratique des processus et ne devrait pas être décidée uniquement par les entreprises technologiques ou les agences de renseignement. Actuellement, les plans de déploiement de systèmes d’IA pertinents auprès de services de renseignement tels que la NSA ont également été suspendus en attendant de nouvelles discussions politiques.
Cet incident reflète les controverses complexes auxquelles est confrontée l’application de la technologie IA dans le domaine de la sécurité nationale. À mesure que les capacités de l’IA continuent d’augmenter, les discussions sur les usages militaires de l’IA, les risques de surveillance de l’IA et la gouvernance éthique de l’IA devraient continuer à s’intensifier.