Intelligence artificielle : un équilibre à trouver entre saisie des opportunités et gestion des risques

Le 2 mai 2022 |

Les métiers de la banque et de la finance se transforment depuis quelques années sous l’essor de la digitalisation et des nouvelles technologies de traitements de données. Cette transformation va s’accélérer avec le déploiement accru de l’intelligence artificielle (IA) et de la blockchain notamment, au sein de processus opérationnels ou de contrôle.

Levier d’automatisation et d’optimisation, ces techniques ne sont pas sans risques et les établissements financiers devront trouver le meilleur équilibre entre l’innovation, le respect des exigences réglementaires et la gestion des risques.

La sélection des données et les traitements de combinaisons ou de croisements dépendent fortement de la qualité des données traitées. Cette nature de risque est à prendre en compte dès la conception des algorithmes afin de limiter les risques d’analyse contestable voire néfaste par l’utilisation de données fausses ou non pertinentes (expérimentation « robot Tay » de Microsoft, ApplePay card, etc.), ou l’utilisation inappropriée des données personnelles.

La gouvernance des plateformes IA est à considérer dans leur ensemble en englobant la qualité des données « digérées » et les traitements de sélection des données pour assurer leur pertinence, leur conformité et le respect des enjeux éthiques (question sociétales et d’éthique, équité), dans certain cas.

Mettre en place une gouvernance pluridisciplinaire

Les enjeux de gouvernance sont à intégrer transversalement aux équipes techniques, métiers et conformité (lignes de défense 1 et 2) :

  • l’établissement d’une cartographie des risques régulièrement actualisée et évaluée, permettant d’avoir une vue cohérente et globale des risques ;
  • le dispositif du contrôle interne doit comporter a minima plusieurs niveaux de contrôle permettant de répondre au principe du « double regard » ;
  • les procédures opérationnelles doivent être formalisées, adaptées aux différentes activités et régulièrement actualisées ;
  • les traitements des données se doivent d’être aussi bien documentées que le reste du processus de conception de l’IA (code source des algorithmes, performance des modèles produits, etc.).

Qu’en dit l’ACPR ?

L‘ACPR s’est exprimée au travers d’une réflexion sur les principes à mettre en place et surtout la place du superviseur dans cet environnement :

  • création de mécanismes de coopération entre superviseurs nationaux comme internationaux ;
  • suivi des projets de standardisation et de normalisation et plus généralement les exigences d’audit et de contrôle ;
  • l’analyse et compréhension approfondie des « algorithmes intelligents ».

Par ailleurs, la sécurité des solutions reposant sur des algorithmes requiert une prise en compte des failles classiques de sécurité liés aux systèmes d’information et aussi des risques spécifiques :

  • le risque algorithmique (qu’il s’agisse de disponibilité ou d’intégrité de l’algorithme) ;
  • et celui associé au traitement des données pouvant produire des biais d’analyse (à caractère discriminatoire, biais d’équité).

Enfin, les parties prenantes de cette gouvernance s’appuieront sur des critères d’évaluation spécifiques aux enjeux des algorithmes et des outils « intelligents » : comme le traitement des données (conformité et éthique), stabilité (robustesse et résilience), la performance (efficacité technique et fonctionnelle) et l’explicabilité (capacité à expliquer le résultat ou le fonctionnement de l’algorithme).

Les 4 enjeux clés

  • Mettre en place une gouvernance pluridisciplinaire intégrant les métiers, la direction SI (ou le prestataires) et le contrôle interne, afin de surveiller régulièrement les évolutions des plateformes.
  • Formaliser un cadre de référence documentaire spécifique à l’intelligence artificielle.
  • Définir des critères d’évaluation des algorithmes : performance, stabilité et explicabilité.
  • Étendre les dispositifs « qualité de données » aux plateformes IA.

Auteur