Intelligence artificielle : le contrôle externe périodique comme levier pour surmonter les réticences des Français

Le 1er septembre 2022 |
Omniprésente dans notre quotidien, l’intelligence artificielle (IA) fait plus que jamais partie du langage et de l’imaginaire communs des Français. Au cours des dernières années, les progrès en matière d’IA se sont accrus de manière exponentielle : le grand public cohabite désormais avec des systèmes de plus en plus sophistiqués. Malgré leur ouverture à cette technologie, les Français restent inquiets quant aux risques inhérents à l’IA. Une solution pourrait y remédier et ainsi accroître leur confiance : le contrôle externe périodique.

Une technologie davantage connue que comprise, aux apports perçus globalement positivement

Les algorithmes d’intelligence artificielle sont des outils largement connus du grand public : 81%1 des Français en ont déjà entendu parler. Pour autant, ils sont encore nombreux à ne pas bien comprendre le fonctionnement de cette technologie, ce qui ne les empêche pas, bien sûr, d’en percevoir les effets qu’ils considèrent globalement comme positifs. L’IA est donc une technologie dont la pertinence est clairement reconnue, même s’il existe des nuances quant à l’appréciation de son niveau d’apport selon la finalité recherchée.

Ainsi, les fonctions de détection et anticipation2 sont considérées d’un apport essentiel ou important pour plus de 75% des Français, tandis que celles de personnalisation et identification3 le sont pour plus de la moitié d’entre eux. Les fonctions d’interaction, de classement et sélection4 recueillent pour leur part une adhésion plus relative, avec un apport de l’IA considéré comme essentiel ou important pour environ 40% des Français. Dans ce dernier cas, la part des Français ne reconnaissant aucun apport de l’IA pour ces usages s’élève à 25-30%.

Des risques encore jugés importants

Ce regard positif vis-à-vis de l’IA est indissociable d’une forte inquiétude quant aux risques induits par cette technologie. Parmi les 10 risques proposés à l’analyse des Français, tous sont cotés au-delà de 7/105. Les risques considérés les plus importants sont tout d’abord ceux associés à la protection des personnes et de leurs données. Ils sont suivis de près par les risques associés à l’instauration d’une relation asymétrique entre l’opérateur d’IA et les personnes, à l’asymétrie entretenue par un déficit de transparence et d’explications, enfin à la présence de potentiels biais et problématiques d’équité difficiles à établir ou à infirmer dans ces conditions d’opacité, dans un environnement sans responsabilités claires.

Ces inquiétudes découlent très directement du potentiel de l’IA dont l’activité peut être massive et systémique, conjugué aux biais avérés découverts dans certaines IA, périodiquement médiatisés, et qui montrent toute la difficulté à maîtriser une telle technologie.

Devant ces difficultés, il ne saurait être accepté que les productions des IA n’engagent que les personnes soumises à son analyse : il est attendu des opérateurs d’IA qu’ils agissent en responsabilité, en déployant un dispositif de maîtrise étudié, de nature notamment à mettre sous contrôle les biais et problématiques d’équité associés, et à maximiser les capacités d’explication des productions issues de l’IA.

Cette demande de maîtrise est d’autant plus critique que l’IA peut finalement se révéler une alliée plutôt qu’une ennemie de l’équité et de l’explication rationnelle, et qu’il serait dès lors dommageable de devoir s’en passer.

Ainsi, en matière d’équité, l’IA présente certes des risques systémiques importants de réplication, propagation et renforcement des disparités, difficiles à détecter et à contrôler. Pourtant, l’IA peut aussi, inversement, constituer un formidable outil au service de l’équité et de la non-discrimination puisque, sous contrôle, elle n’est pas affectée par les biais humains (risques de familiarité, d’empathie sélective, d’administration différenciée selon les agents, etc.).

De même, l’explicabilité des productions de l’IA est certes un sujet complexe et inédit, dans la mesure où les décisions ou recommandations formulées par l’IA ne sont pas issues de l’application d’un système de règles préalablement décrites par l’humain. Néanmoins, cette approche peut précisément permettre de mettre en lumière des relations de causalité insoupçonnées et jusqu’alors inaccessibles à l’Homme compte tenu du caractère massif des paramètres traités.

Le contrôle externe périodique : une solution fiable et plébiscitée

Les Français sont en demande de maîtrise de la part des opérateurs d’IA. Mais qu’en est-il du niveau d’opposabilité des dispositifs de maîtrise que ces opérateurs devraient concevoir et mettre en œuvre ?

Les Français croient peu aux procédures d’autocontrôle pour maîtriser et réduire les risques. En témoigne le fait que 40%6 d’entre eux trouvent ce dispositif peu voire non efficace. En revanche, l’obligation pour les entreprises utilisant l’intelligence artificielle de se soumettre à des contrôles périodiques réalisés par un organisme indépendant apparaît comme un dispositif plébiscité. En effet, 74%7 des Français estiment qu’un audit serait efficace pour limiter les risques liés à l’IA.

La périodicité des contrôles externes est à l’image de la grande évolutivité des systèmes d’IA, dont le maintien des performances requiert des recalibrages (ré-entraînements) périodiques : c’est bien tout le cycle de vie de l’IA qui doit être opéré en maîtrise.

La transparence (par publication) dans les mesures de contrôle interne est également appréciée par 67%8 des Français, elle n’est néanmoins pas jugée aussi pertinente que les contrôles périodiques. Même constat pour la désignation d’une Autorité de supervision nationale indépendante, supposée efficace à condition qu’elle soit complétée par un autre moyen de contrôle.

Les risques liés à l’IA sont autant de freins à son adhésion massive par le grand public. Si ces risques parviennent à être maitrisés par des contrôles externes indépendants, la proportion de personnes sceptiques pourrait chuter de 40% à 26%9. Alors que les grilles, propositions de cribles et d’outils commencent à faire florès, il semble désormais indispensable qu’un référentiel d’audit soit construit. Ce dernier devra combiner revues de procédures et d’organisation, intégrer le caractère évolutif de l’IA durant son cycle de vie, et faire usage de tests statistiques complexes et d’algorithmes de détection. Restera ensuite à mettre en œuvre son déploiement.

1,5,6,7,8,9Etude « Les Français et l’intelligence artificielle » réalisée par Mazars en partenariat avec l’institut de sondages CSA.

2 Par exemple en matière de santé, mais aussi en matière de maintenance préventive ou de détection de situations dangereuses.

3 Par exemple en matière de profilage promotionnel, de personnalisation d’offre ou de service, ou de déverrouillage automatique par identification.

4 Par exemple en matière de présélection de candidatures, d’octrois et/ou tarification de crédits ou assurances, d’assistance vocale en SAV.

Article paru dans La Tribune

Auteur