11/08/2024 | Press release | Distributed by Public on 11/08/2024 05:51
Discours de Denis Beau
Premier sous-gouverneur de la Banque de France
Singapour, 8 novembre 2024
Mesdames et Messieurs,
Commençons par l'évidence : l'intelligence artificielle (IA) suscite actuellement un fort engouement. Les possibilités offertes par cet ensemble de technologies semblent en effet immenses. L'IA est à la base de tels progrès que, cette année, le prix Nobel de physique a été attribué à deux pionniers des réseaux de neurones artificiels, tandis que le prix Nobel de chimie récompensait une application de l'IA pour comprendre la structure des protéines.
Dans le secteur financier, l'IA est également de plus en plus utilisée, par exemple pour évaluer le risque de crédit, fixer les taux d'assurance ou estimer la volatilité des actifs. Cette technologie est aujourd'hui le principal moteur de la transformation numérique du secteur financier. Et cette transformation ne peut évidemment pas laisser insensible le banquier central et superviseur du secteur financier que je suis. Elle pose en effet la question des opportunités et des risques de ces mutations pour secteur financier. Et elle interroge aussi les banques centrales et les superviseurs financiers dans leur propre fonctionnement et dans leur maîtrise de ces nouvelles technologies : comment surveillera-t-on demain l'utilisation de l'IA par les acteurs financiers, et quelles sont les possibilités offertes par ces technologies pour nos propres métiers ? Permettez-moi d'aborder brièvement l'une et l'autre de ces questions.
I/ En ce qui concerne la première question des opportunités et des risques, établissons d'abord ce premier constat pour mettre les choses dans la bonne perspective : l'IA, couplée à la data science, est un puissant moteur de transformation du secteur financier.
1/ Nos observations montrent que l'IA est utilisée de façon croissante par les institutions financières, dans tous les segments de la chaine de valeur. Celles-ci s'en servent en particulier pour améliorer « l'expérience utilisateur », mais aussi pour automatiser et optimiser nombre de processus internes. L'IA est également utilisée pour le contrôle et la maîtrise des risques, comme en témoigne son succès dans les cas d'usage liés à la lutte contre la fraude ou contre le blanchiment et le financement du terrorisme (LCB-FT).
L'arrivée de l'IA générative, depuis maintenant deux ans, a constitué un puissant facteur d'accélération des tendances déjà engagées. Elle a en effet conduit à une révolution de l'accessibilité des technologies d'IA : la possibilité d'interagir en langage naturel avec des algorithmes - via les grands modèles de langage (large language models ou LLM) - facilite considérablement l'adoption des nouvelles technologies. Elle accélère aussi la dynamique de l'innovation au sein des entreprises, car l'écriture de code n'est plus réservée aux informaticiens. L'IA pourrait ainsi avoir un impact puissant sur la productivité : en France, la Commission de l'IA, présidée par Anne Bouverot et Philippe Aghion, a évalué à environ 1 % par an le surplus de croissance que le déploiement de l'IA pourrait générer dans notre pays au cours des dix prochaines années.
Cette révolution technologique permet de développer de nombreux cas d'usage. Les chatbots nourris à l'IA générative ont par exemple la capacité d'apporter une réponse personnalisée et plus adaptée à la situation de l'utilisateur. En assurance, le traitement des images satellite permet dans certains cas d'évaluer directement les dommages causés à un bâtiment, puis de gérer automatiquement l'indemnisation des clients. Et ce n'est que le début : nous sommes probablement loin d'avoir exploré toutes les possibilités offertes par ces technologies.
Bien maîtrisée, l'IA est donc susceptible d'accroître l'efficacité des institutions financières et de contribuer à augmenter leurs revenus, jouant ainsi positivement sur leur rentabilité - élément central de leur solidité -, y compris en leur offrant des solutions de contrôle des risques.
2/ Pour autant, la médaille a un revers, et la puissance des solutions développées s'accompagne de risques significatifs. Je voudrais évoquer ici deux d'entre eux.
D'abord, le risque de mauvaise utilisation de ces technologies. La complexité et la nouveauté de certaines modélisations peuvent en effet donner lieu à davantage d'erreurs, soit dans la conception soit dans l'utilisation des systèmes. Il s'agit d'un risque pour la clientèle, mais aussi pour la santé financière des établissements, car un modèle mal calibré pourra engendrer des pertes systématiques. Deux éléments renforcent ces risques. D'abord, l'ajustement en temps réel des paramètres de certains modèles, qui fait leur force, peut aussi se traduire par une dérive rapide. Ensuite, certains systèmes d'IA sont particulièrement opaques, générant un phénomène de « boîte noire ». C'est bien sûr un enjeu de protection de la clientèle, car un client doit pouvoir comprendre une décision automatisée prise à son endroit. Mais c'est aussi un enjeu de gouvernance : un établissement qui comprend mal les décisions que prennent ses systèmes d'IA ne peut prétendre en maîtriser les risques.
Je voudrais mentionner un second risque, et non des moindres : le risque cyber. Celui-ci est devenu au cours des dernières années le premier risque opérationnel dans le secteur financier. Or l'IA est un facteur d'amplification de ce risque, et notamment parce que la technologie accroît fortement la dangerosité des attaquants : assistants en écriture de code détournés pour concevoir des logiciels malveillants, voix synthétiques facilitant l'usurpation d'identité… La liste des menaces est longue. C'est d'ailleurs l'une des raisons d'être du règlement européen DORA, qui entrera en vigueur à partir de janvier 2025.
Toutefois, la technologie pourra aussi être mobilisée pour contrer ces attaques. L'IA constitue ainsi un outil à double tranchant, comme l'illustre parfaitement le domaine des paiements. Dans les paiements, l'IA peut considérablement faciliter les escroqueries, par exemple au moyen de deepfakes. Mais cette technologie va probablement aussi devenir un allié essentiel dans la lutte contre la fraude, en permettant d'identifier plus efficacement et plus rapidement les schémas de fraude. D'une certaine manière, il s'agit d'une histoire du type « Attrape-moi si tu peux » - pour faire référence à un film bien connu des experts des paiements -, où les fraudeurs et les autorités recourent à des tactiques de plus en plus sophistiquées pour se déjouer les uns les autres.
Dans le cadre de son mandat légal visant à garantir la sécurité des instruments de paiement scripturaux, la Banque de France est le fer de lance des efforts visant à évaluer les implications de l'IA pour la sécurité des paiements, au travers de l'Observatoire de la sécurité des moyens de paiement (OSMP), que j'ai le privilège de présider. Des outils de notation avancés sont ainsi utilisés depuis des années pour réduire les fraudes sur les paiements par carte. Ces outils continuent d'être améliorés, en s'appuyant notamment sur des protocoles d'authentification forte tels que 3-D Secure. Alors que les paiements instantanés se développent rapidement, je crois que le moment est venu d'enrichir ces outils en utilisant l'IA pour sécuriser d'autres canaux de paiement tels que les virements, les prélèvements automatiques et les transferts de fonds.
II/ Mais la révolution technologique engendrée par l'IA constitue également un moteur de transformation pour les autorités financières, autour d'un double mouvement : celles-ci doivent à la fois se préparer à superviser l'utilisation de l'IA par le secteur financier, et utiliser les nouvelles technologies pour améliorer leur efficacité et développer de nouvelles capacités.
1/ Face aux risques de l'IA, et afin de permettre au secteur financier de tirer pleinement parti de ces opportunités, il nous faut construire une régulation efficace. Le mouvement d'encadrement réglementaire a déjà commencé : avec son règlement sur l'IA (« AI Act »), entré en vigueur cet été, l'Union européenne s'est dotée du premier instrument législatif au monde et a posé les bases d'une « IA de confiance ». Pour ce faire, le règlement distingue plusieurs niveaux de risques, au sein desquels les « risques élevés » - qui constituent le cœur du texte - vont concerner le secteur financier à au moins deux titres : l'évaluation de la solvabilité pour l'octroi de crédit à des personnes physiques ; l'évaluation des risques et la tarification en assurance santé et en assurance-vie.
Pour ces cas d'usage du secteur financier, le règlement confie le rôle « d'autorité de surveillance du marché » aux superviseurs financiers nationaux - et donc en France à l'ACPR, l'autorité de contrôle prudentiel et de résolution. C'est un choix judicieux ! Il permettra d'articuler au mieux la mise en œuvre de ce texte avec la réglementation sectorielle existante, avec l'aide - le moment venu - d'orientations des autorités européennes de supervision.
L'ACPR se tient prête à exercer le nouveau rôle que le règlement européen va lui confier. Elle le fera en se fondant sur une approche « basée sur les risques », et en utilisant au maximum les synergies existantes avec le contrôle prudentiel, afin de limiter la charge supplémentaire pour les établissements comme pour elle-même.
Je ne minimise cependant pas le défi que la mise en œuvre de l'AI Act représente : au-delà des aspects organisationnels, il nous faudra élaborer une méthodologie de l'audit de l'IA, ce qui constitue à n'en pas douter un saut qualitatif dans nos méthodes de travail. Ce défi, nous l'accueillons non pas comme une contrainte, mais comme une opportunité : partout dans le monde, en effet, qu'une réglementation spécifique ait été adoptée ou non, les superviseurs financiers doivent développer de nouvelles capacités afin de répondre à l'utilisation croissante de l'IA par les acteurs financiers. Et, de fait, nous entendons construire des coopérations efficaces avec d'autres superviseurs, et notamment au niveau européen et international.
2/ Nous voulons également utiliser les technologies d'IA pour nos propres besoins. Nous entendons ainsi améliorer notre efficacité opérationnelle, tout en donnant aux agents de la Banque de France et de l'ACPR de nouvelles capacités. Nous entendons en effet construire un cadre d'IA de confiance, dans lequel la technologie vient en complément des humains et non en remplacement.
L'investissement dans l'IA fait ainsi l'objet d'une action spécifique de notre plan stratégique, suivie au plus haut niveau. Cette action a deux ambitions principales : offrir une gamme de services génériques en ligne à tous nos agents - avec par exemple des capacités de recherche augmentées, ou encore des fonctionnalités d'analyse et de synthèse de documents -, et fournir des assistants IA pour répondre aux besoins métier plus spécifiques.
Parce que l'apprentissage par la pratique est le meilleur chemin pour progresser, nous commencerons par 5 cas d'usage prioritaires à court terme. Pour illustrer mon propos, j'en citerai trois : un assistant conversationnel interne pour répondre aux interrogations des agents sur les sujets RH, un outil visant à détecter les opérations atypiques pour la LCB-FT - notamment dans les opérations du Trésor français gérées par la Banque de France -, ou encore un outil de cartographie des produits financiers structurés pour l'ACPR.
Un dernier point pour conclure : le déploiement de l'IA à la Banque de France et à l'ACPR se fait de manière raisonnée et maîtrisée. Ainsi, nous ne recourons à des infrastructures de cloud public que lorsque les traitements portent sur des données non sensibles. Plus généralement, nous nous assurons d'avoir une compréhension approfondie des modèles et de leurs résultats afin de conserver le contrôle total sur nos activités. Et nous déployons et intégrons l'IA graduellement, afin de laisser toute sa place à la formation des agents, au retour d'expérience et à l'amélioration continue.
Je vous remercie pour votre attention.
Mise à jour le 8 Novembre 2024