Le panel parlementaire britannique souligne des lacunes dans la supervision de l'IA, ce qui pourrait exposer le système financier à des risques

Decrypt

En résumé

  • Le comité du Trésor du Royaume-Uni a averti que les régulateurs s’appuient trop fortement sur les règles existantes alors que l’utilisation de l’IA s’accélère dans les services financiers.
  • Il a appelé à des directives plus claires sur la protection des consommateurs et la responsabilité des dirigeants d’ici la fin de 2026.
  • Les observateurs estiment que l’ambiguïté réglementaire risque de freiner le déploiement responsable de l’IA alors que les systèmes deviennent plus difficiles à superviser.

Une commission parlementaire britannique a averti que l’adoption rapide de l’intelligence artificielle dans les services financiers dépasse la capacité des régulateurs à gérer les risques pour les consommateurs et le système financier, soulevant des préoccupations concernant la responsabilité, la supervision et la dépendance à l’égard des principaux fournisseurs de technologie. Dans ses conclusions ordonnées à la publication par la Chambre des communes plus tôt ce mois-ci, le comité du Trésor a déclaré que les régulateurs britanniques, y compris la Financial Conduct Authority, la Banque d’Angleterre et HM Treasury, s’appuient trop sur les règles existantes alors que l’utilisation de l’IA se répand dans les banques, les assureurs et les sociétés de paiement. « En adoptant une approche d’attentisme face à l’IA dans les services financiers, les trois autorités exposent les consommateurs et le système financier à des risques potentiellement graves », a écrit le comité. 

L’IA est déjà intégrée dans les fonctions financières essentielles, a indiqué le comité, tandis que la supervision n’a pas suivi le rythme ni la transparence de ces systèmes. Les conclusions interviennent alors que le gouvernement britannique cherche à étendre l’adoption de l’IA dans l’économie, avec le Premier ministre Keir Starmer qui s’était engagé il y a environ un an à « dynamiser » l’avenir de la Grande-Bretagne grâce à cette technologie. Tout en notant que « l’IA et les développements technologiques plus larges pourraient apporter des avantages considérables aux consommateurs », le comité a déclaré que les régulateurs n’ont pas réussi à fournir aux entreprises des attentes claires sur la manière dont les règles existantes s’appliquent en pratique. Le comité a exhorté la Financial Conduct Authority à publier d’ici la fin de 2026 des directives complètes sur la façon dont les règles de protection des consommateurs s’appliquent à l’utilisation de l’IA et comment la responsabilité doit être attribuée aux hauts dirigeants conformément aux règles de responsabilité existantes lorsque les systèmes d’IA causent des dommages.

Les minutes officielles devraient être publiées plus tard cette semaine. « À son crédit, le Royaume-Uni a pris de l’avance dans la fintech — le sandbox de la FCA en 2015 était le premier du genre, et 57 pays l’ont depuis copié. Londres reste une puissance dans la fintech malgré le Brexit », a déclaré Dermot McGrath, co-fondateur du studio de stratégie et de croissance basé à Shanghai ZenGen Labs, à Decrypt. Cependant, alors que cette approche « a fonctionné parce que les régulateurs pouvaient voir ce que faisaient les entreprises et intervenir si nécessaire », l’intelligence artificielle « bouleverse complètement ce modèle », a expliqué McGrath. La technologie est déjà largement utilisée dans la finance au Royaume-Uni. Pourtant, de nombreuses entreprises manquent d’une compréhension claire des systèmes sur lesquels elles comptent, a expliqué McGrath. Cela laisse aux régulateurs et aux entreprises le soin d’inférer comment les règles d’équité de longue date s’appliquent à des décisions opaques et basées sur des modèles. McGrath soutient que la préoccupation plus grande est que des règles peu claires pourraient freiner les entreprises qui tentent de déployer l’IA à un point où « l’ambiguïté réglementaire étouffe celles qui le font avec prudence. » La responsabilité de l’IA devient plus complexe lorsque des modèles sont construits par des entreprises technologiques, adaptés par des tiers, et utilisés par des banques, laissant les gestionnaires responsables de décisions qu’ils pourraient avoir du mal à expliquer, a expliqué McGrath.

Voir l'original
Avertissement : Les informations contenues dans cette page peuvent provenir de tiers et ne représentent pas les points de vue ou les opinions de Gate. Le contenu de cette page est fourni à titre de référence uniquement et ne constitue pas un conseil financier, d'investissement ou juridique. Gate ne garantit pas l'exactitude ou l'exhaustivité des informations et n'est pas responsable des pertes résultant de l'utilisation de ces informations. Les investissements en actifs virtuels comportent des risques élevés et sont soumis à une forte volatilité des prix. Vous pouvez perdre la totalité du capital investi. Veuillez comprendre pleinement les risques pertinents et prendre des décisions prudentes en fonction de votre propre situation financière et de votre tolérance au risque. Pour plus de détails, veuillez consulter l'avertissement.
Commentaire
0/400
Aucun commentaire