OpenAI et le Département de la Défense des États-Unis suscitent la controverse, Sam Altman admet que l'accord était trop précipité et modifie d'urgence les clauses

GateNews

Le 3 mars, selon CNBC, le PDG d’OpenAI, Sam Altman, a admis que l’accord de coopération en intelligence artificielle précédent de l’entreprise avec le Département américain de la Défense avait été trop précipité et a déclaré que les conditions concernées seraient ajustées. Cette déclaration intervient alors que l’opinion publique continue de s’enflammer, après qu’OpenAI a annoncé une coopération avec le Pentagone, suscitant de larges débats sur l’éthique de l’IA, l’utilisation militaire et la sécurité des données.

Selon des informations publiques, l’accord a été annoncé vendredi dernier, au même moment où le gouvernement américain prend plusieurs décisions liées à la sécurité nationale. Après la révélation, certaines communautés technologiques et utilisateurs ont exprimé des inquiétudes quant à l’utilisation possible de la technologie d’intelligence artificielle à des fins militaires. Sam Altman a ensuite publié sur les réseaux sociaux en réponse que l’entreprise ajouterait de nouvelles restrictions à l’accord, notamment stipulant clairement que les systèmes d’IA ne peuvent pas être utilisés pour la surveillance domestique des citoyens ou résidents américains.

Sam Altman a également déclaré que le département de la Défense des États-Unis a confirmé que les outils d’intelligence artificielle d’OpenAI ne seront pas directement utilisés par des agences de renseignement telles que la National Security Agency (NSA) pour des missions de surveillance du renseignement. Parallèlement, OpenAI prévoit de collaborer avec le Pentagone pour développer des garanties techniques supplémentaires afin de réduire le risque d’utilisation abusive de l’IA dans des scénarios sensibles.

Le PDG a également admis que l’entreprise avait commis une erreur de jugement en avançant avec l’accord. Il a déclaré qu’à l’époque, l’équipe voulait rapidement désamorcer la situation et éviter des conflits politiques plus graves, mais avec le recul, la décision semblait trop précipitée et pouvait facilement être interprétée comme une spéculation.

La controverse concerne également Anthropic, une autre entreprise d’IA. Auparavant, Anthropic était en désaccord avec le gouvernement américain sur les limites de l’utilisation de son modèle d’IA Claude et cherchait des garanties claires que ses systèmes ne seraient pas utilisés pour la surveillance nationale ou le développement d’armes autonomes. Les négociations entre les deux parties auraient échoué.

Parallèlement, on observe des fluctuations notables du sentiment des utilisateurs sur le réseau. Certains utilisateurs ont réduit leur utilisation de ChatGPT sur les plateformes d’applications et se sont tournés vers des produits concurrents comme Claude, renforçant ainsi les controverses éthiques dans l’industrie de l’IA.

Dans sa réponse, Sam Altman a également déclaré qu’il ne pensait pas qu’Anthropic devait être considéré comme un risque pour la chaîne d’approvisionnement et espérait que le Département américain de la Défense lui accorderait des conditions de coopération similaires à celles d’OpenAI. Cet incident a une fois de plus mis en lumière que, dans le contexte du développement rapide de la technologie de l’intelligence artificielle, la question de la frontière entre l’IA et la sécurité nationale, les applications militaires et la régulation sociale devient au centre de l’attention dans l’industrie technologique mondiale.

Voir l'original
Avertissement : Les informations contenues dans cette page peuvent provenir de tiers et ne représentent pas les points de vue ou les opinions de Gate. Le contenu de cette page est fourni à titre de référence uniquement et ne constitue pas un conseil financier, d'investissement ou juridique. Gate ne garantit pas l'exactitude ou l'exhaustivité des informations et n'est pas responsable des pertes résultant de l'utilisation de ces informations. Les investissements en actifs virtuels comportent des risques élevés et sont soumis à une forte volatilité des prix. Vous pouvez perdre la totalité du capital investi. Veuillez comprendre pleinement les risques pertinents et prendre des décisions prudentes en fonction de votre propre situation financière et de votre tolérance au risque. Pour plus de détails, veuillez consulter l'avertissement.
Commentaire
0/400
Aucun commentaire