Le 3 mars, selon CNBC, le PDG d’OpenAI, Sam Altman, a admis que l’accord de coopération en intelligence artificielle précédent de l’entreprise avec le Département américain de la Défense avait été trop précipité et a déclaré que les conditions concernées seraient ajustées. Cette déclaration intervient alors que l’opinion publique continue de s’enflammer, après qu’OpenAI a annoncé une coopération avec le Pentagone, suscitant de larges débats sur l’éthique de l’IA, l’utilisation militaire et la sécurité des données.
Selon des informations publiques, l’accord a été annoncé vendredi dernier, au même moment où le gouvernement américain prend plusieurs décisions liées à la sécurité nationale. Après la révélation, certaines communautés technologiques et utilisateurs ont exprimé des inquiétudes quant à l’utilisation possible de la technologie d’intelligence artificielle à des fins militaires. Sam Altman a ensuite publié sur les réseaux sociaux en réponse que l’entreprise ajouterait de nouvelles restrictions à l’accord, notamment stipulant clairement que les systèmes d’IA ne peuvent pas être utilisés pour la surveillance domestique des citoyens ou résidents américains.
Sam Altman a également déclaré que le département de la Défense des États-Unis a confirmé que les outils d’intelligence artificielle d’OpenAI ne seront pas directement utilisés par des agences de renseignement telles que la National Security Agency (NSA) pour des missions de surveillance du renseignement. Parallèlement, OpenAI prévoit de collaborer avec le Pentagone pour développer des garanties techniques supplémentaires afin de réduire le risque d’utilisation abusive de l’IA dans des scénarios sensibles.
Le PDG a également admis que l’entreprise avait commis une erreur de jugement en avançant avec l’accord. Il a déclaré qu’à l’époque, l’équipe voulait rapidement désamorcer la situation et éviter des conflits politiques plus graves, mais avec le recul, la décision semblait trop précipitée et pouvait facilement être interprétée comme une spéculation.
La controverse concerne également Anthropic, une autre entreprise d’IA. Auparavant, Anthropic était en désaccord avec le gouvernement américain sur les limites de l’utilisation de son modèle d’IA Claude et cherchait des garanties claires que ses systèmes ne seraient pas utilisés pour la surveillance nationale ou le développement d’armes autonomes. Les négociations entre les deux parties auraient échoué.
Parallèlement, on observe des fluctuations notables du sentiment des utilisateurs sur le réseau. Certains utilisateurs ont réduit leur utilisation de ChatGPT sur les plateformes d’applications et se sont tournés vers des produits concurrents comme Claude, renforçant ainsi les controverses éthiques dans l’industrie de l’IA.
Dans sa réponse, Sam Altman a également déclaré qu’il ne pensait pas qu’Anthropic devait être considéré comme un risque pour la chaîne d’approvisionnement et espérait que le Département américain de la Défense lui accorderait des conditions de coopération similaires à celles d’OpenAI. Cet incident a une fois de plus mis en lumière que, dans le contexte du développement rapide de la technologie de l’intelligence artificielle, la question de la frontière entre l’IA et la sécurité nationale, les applications militaires et la régulation sociale devient au centre de l’attention dans l’industrie technologique mondiale.