Flash BankNews n°63 | Gouvernance des algorithmes d’intelligence artificielle : l’avenir de la conformité ?

L’introduction d’algorithmes de Machine Learning (ML) dans le secteur financier vise à automatiser ou améliorer la prise de décision auparavant effectuée par des humains.
Dès la phase de conception des algorithmes, les questions de gouvernance méritent d’être prises en compte. Certaines problématiques sur l’intégration de l’Intelligence Artificielle (IA) dans les processus traditionnels demeurent essentielles tel que l’impact de son intégration sur le contrôle interne (en particulier le rôle confié aux humains dans les nouveaux processus), la pertinence d’externaliser une partie de la conception ou de l’exploitation, et enfin les fonctions d’audit interne ou externe.

L’ACPR a élaboré un document de réflexion s’inscrivant dans le cadre de ses travaux menés sur l’IA depuis 2018. En mars 2019, après un premier rapport et une première consultation publique, l’ACPR a lancé des travaux exploratoires avec quelques acteurs du secteur financier afin d’éclairer les enjeux d’explicabilité et de gouvernance de l’IA, relatif notamment au Machine Learning (ML).

L’impact de l’IA concernant la lutte contre le blanchiment et le financement du terrorisme (LCB-FT)

La question centrale sur ce thème était de savoir si l’IA peut améliorer la surveillance des transactions, en complément ou en substitution des règles de seuils et de gestion traditionnelles. 

Pour ce faire, les acteurs ayant participé aux ateliers ont introduit des algorithmes de Machine Learning permettant de générer des alertes (en complément des systèmes classiques déjà en place, basés sur des seuils prédéfinis), alertes directement transmises au contrôle de niveau 2 (équipes Conformité ) pour analyse, ce qui permet de fluidifier et sécuriser le processus de traitement manuel. Le gain opérationnel est démontré, avec un impact notable sur la gouvernance du processus de déclaration de soupçon ou de gel des avoirs.

  • Objectifs du modèle

Le principal projet étudié consiste à introduire des outils de ML pour assister le filtrage des messages transactionnels. Les algorithmes assistent les agents en charge pour faire la part entre les faux positifs et les personnes figurant sur les listes de gels ou d’embargo. Ce modèle de ML est en charge de remonter une partie des alertes déclenchées par les règles métier depuis le niveau 1 vers le niveau 2, autorisé à libérer le paiement, le rejeter ou déclarer une homonymie auprès de l’autorité administrative.

Une autre étude a été menée sur le filtrage de messages transactionnels, non pas pour les passer au crible de listes de sanctions, mais pour détecter les transactions suspectes afin d’établir, le cas échéant, une déclaration de soupçon (DS). L’intégration du Machine Learning diffère ici car dans le cas présent, le modèle de ML produit des alertes supplémentaires envoyées directement en niveau 2. Le ML intervient donc dans un processus parallèle, et non dans un processus en série où l’application des règles métier est suivie de la prédiction par le ML. Il ne s’agit donc pas ici d’un outil de classification d’alertes déjà déclenchées, mais d’un outil de détection d’alertes validées.

Également, un filtre a été mis en place afin qu’une alerte déclenchée par l’outil de ML soit une alerte ayant obtenu un score élevé et qui est passée sous les seuils de détection du moteur de règles métier dans les trois mois précédents.

  • Intérêts de l’IA dans le cadre de la LCB/FT

L’algorithme est basé sur un modèle de réseau de neurones qui s’alimente de caractéristiques de complexité variable : caractéristiques du message, distances phonétiques, décomposition des adresses (reconnaissance d’entités nommées) et sémantique des champs libres. Ces variables sont donc tirées des messages envoyés par l’outil de filtrage et ne contiennent pas de données personnelles contrairement aux messages envoyés initialement.

L'IA peut ainsi considérablement rationaliser ce travail. La possibilité de discriminer rapidement des ensembles de messages volumineux ne libère pas uniquement les analystes pour des tâches à plus forte valeur ajoutée, l’analyse des retours de l’IA leur permet également d'effectuer leur travail de manière plus approfondie. Le processus de prévision du risque devient beaucoup plus précis à mesure que la quantité de données analysées augmente. L’allégement des tâches répétitives sans forte valeur ajoutée et l’apport aux analystes de travaux stratégiques engageants amélioreront également la rétention du personnel. Enfin, on peut même envisager le cas où l‘IA contribue à améliorer les décisions d’un analyste par une analyse a posteriori des alertes libérées ou remontées par l’analyste, pour lui fournir un moyen de vérifier ses résultats afin d’ajuster les décisions sur les futures alertes.

Contrôle lié à la mise en œuvre de l’IA

  • Impact de l’IA sur l’organisation du contrôle interne

La surveillance des performances de l’algorithme, et notamment la détection de potentielles dérives, impose une conception différente de la chaîne de validation humain. L’atelier LCB-FT a illustré comment le remplacement d’une partie des opérateurs de niveau 1 par un algorithme de Machine Learning peut induire une perte en capacité d’évaluation future de l’efficacité du processus, du moins en termes de faux négatifs (alertes non remontées par l’algorithme, correspondant donc à des transactions qu’un humain n’aura pas l’occasion d’analyser). C’est pourquoi une partie de ces opérateurs ont été affectés à une fonction d’annotation manuelle en parallèle de l’algorithme, fournissant ainsi en continu de nouvelles données d’apprentissage.

En termes d’organisation du contrôle interne, un algorithme basé sur l’apprentissage est souvent introduit afin de remplacer tout ou partie des tâches accomplies par une équipe de niveau 1 (soumise au contrôle hiérarchique) et/ou de niveau 2 (réalisant des contrôles de conformité). Néanmoins, cela est moins probable concernant les tâches effectuées par l’audit interne même s’il n’est pas exclu d’en arriver à ce stade d’automatisation dans un futur plus lointain. Il apparaît donc que l’utilisateur des résultats de l’algorithme n’est pas le responsable de son bon fonctionnement, encore moins son concepteur.

  • La nécessité d’une validation de l’IA dans le cadre du contrôle interne

Le contrôle interne impliquant des algorithmes d’IA doit autant que possible combiner des profils d’experts techniques et d’experts métiers. Le contrôle du comportement de ces algorithmes nécessite à la fois la validation technique des composants en jeu au moment de leur mise en production mais également, leur surveillance en continu.

S’agissant de la validation fonctionnelle initiale il convient de définir, au moment de la conception d’un algorithme d’IA, l’impact qu’il aura lors de sa mise en production sur le processus de validation. L’ensemble des équipes de validation doivent être impliquées, depuis les fonctions conception et de validation technique jusqu’aux comités transverses concernés par les processus impactés par l'algorithmes, tels que le Comité Risques de l’entreprise notamment afin d’approuver la stratégie choisie.

Pour la validation fonctionnelle continue, les travaux exploratoires relatifs au thème LCB-FT, où l’algorithme de ML effectue une détection d’anomalies aux niveaux 1 et 2, ont particulièrement bien montré comment il doit être soumis à un contrôle permanent plus sophistiqué que les méthodes traditionnelles, incluant notamment la vérification du bon calibrage de l’algorithme au fil de l’eau : volume d’alertes remontées au niveau 2, taux de faux positifs filtrés par la suite, etc.
Le recours à l’IA suppose également que certains éléments déclencheurs vont provoquer la nécessité d’une revalidation d’un modèle. Les modèles basés sur du ML sont essentiellement invalidés par suite d’un changement dans les données qui les alimentent.

Retrouver le document de réflexion complet sur le site de l’ACPR : En savoir plus

Restez informé(e), abonnez-vous à la newsletter :