Les autorités de surveillance financière britanniques n’en font pas assez pour empêcher l’intelligence artificielle de nuire aux consommateurs ou de déstabiliser les marchés, a estimé mardi un groupe parlementaire multipartite, exhortant les régulateurs à abandonner ce qu’il qualifie d’approche « attendre et voir ».
Dans un rapport consacré à l’IA dans les services financiers, la commission du Trésor a indiqué que la Financial Conduct Authority (FCA) et la Banque d’Angleterre devraient commencer à réaliser des tests de résistance spécifiques à l’IA afin d’aider les entreprises à se préparer aux chocs de marché déclenchés par des systèmes automatisés.
La commission a également demandé à la FCA de publier d’ici la fin 2026 des lignes directrices détaillées sur l’application des règles de protection des consommateurs à l’IA, ainsi que sur le niveau de compréhension attendu des cadres dirigeants concernant les systèmes qu’ils supervisent.
Sur la base des éléments dont je dispose, je ne suis pas convaincue que notre système financier soit prêt en cas d’incident majeur lié à l’IA, et cela est préoccupant, a déclaré la présidente de la commission, Meg Hillier, dans un communiqué.
LA TECHNOLOGIE PRÉSENTE DES « RISQUES SIGNIFICATIFS »
La course entre les banques pour adopter l’IA agentique, qui, contrairement à l’IA générative, peut prendre des décisions et agir de manière autonome, comporte de nouveaux risques pour les clients particuliers, a indiqué la FCA à Reuters fin de l’année dernière.
Près des trois quarts des entreprises financières britanniques utilisent désormais l’IA. Les sociétés déploient cette technologie dans des fonctions clés, du traitement des demandes d’indemnisation en assurance à l’évaluation du crédit.
Si le rapport reconnaît les avantages de l’IA, il met en garde contre les « risques significatifs » que présente également cette technologie, notamment des décisions de crédit opaques, le risque d’exclusion de consommateurs vulnérables via des algorithmes personnalisés, la fraude et la diffusion de conseils financiers non réglementés par le biais de chatbots d’IA.
Les experts ayant contribué au rapport ont également souligné les menaces pour la stabilité financière, pointant la dépendance à un petit groupe de géants technologiques américains pour les services d’IA et de cloud. Certains ont aussi noté que les systèmes de trading pilotés par l’IA pourraient amplifier les comportements moutonniers sur les marchés, risquant d’entraîner une crise financière dans le pire des cas.
Un porte-parole de la FCA a indiqué que le régulateur accueillait favorablement l’attention portée à l’IA et examinerait le rapport. Le régulateur a déjà fait savoir qu’il n’était pas favorable à des règles spécifiques à l’IA en raison du rythme rapide de l’évolution technologique.
La Banque d’Angleterre n’a pas répondu à une demande de commentaire.
Meg Hillier a déclaré à Reuters que des formes de plus en plus sophistiquées d’IA générative influençaient les décisions financières. Si quelque chose tourne mal dans le système, cela pourrait avoir un impact très important sur le consommateur, a-t-elle souligné.
Parallèlement, le ministère britannique des Finances a nommé Harriet Rees, directrice informatique de Starling Bank, et Rohit Dhawan de Lloyds Banking Group comme « Champions de l’IA » pour accompagner l’adoption de l’IA dans les services financiers.
(Reportage de Phoebe Seers ; rédaction par Tommy Reggiori Wilkes)